ПРИМЕНЕНИЕ НЕЧЕТКИХ НЕЙРОННЫХ СЕТЕЙ ДЛЯ РЕШЕНИЯ ЗАДАЧИ ДИАГНОСТИКИ ГИПОТРОФИИ НОВОРОЖДЕННЫХ ДЕТЕЙ - Студенческий научный форум

V Международная студенческая научная конференция Студенческий научный форум - 2013

ПРИМЕНЕНИЕ НЕЧЕТКИХ НЕЙРОННЫХ СЕТЕЙ ДЛЯ РЕШЕНИЯ ЗАДАЧИ ДИАГНОСТИКИ ГИПОТРОФИИ НОВОРОЖДЕННЫХ ДЕТЕЙ

Варжева Н.А., Ледаков Я.А., Солдатова О.П.
 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF
Нейронные сети – это одно из направлений исследований в области искусственного интеллекта, основанное на попытках воспроизвести нервную систему человека, а именно способность нервной системы обучаться и исправлять ошибки, что должно позволить смоделировать, хотя и достаточно грубо, работу человеческого мозга.

Способности к обучению нейронных сетей могут усиливаться за счет применения технологии обработки информации, основанной на аппарате нечёткой логики. В таких случаях нейронная сеть, по сути, является реализацией той или иной модели нечёткого вывода. Данный подход подразумевает использование численной оценки принадлежности наборов данных к заранее известным множествам с помощью нечётких логических операторов. При этом параметры функций принадлежности настраиваются с помощью тех же методов, которыми обучаются традиционные нейронные сети.

Нечеткая нейронная сеть – это многослойная нейронная сеть, в которой слои выполняют функции элементов системы нечеткого вывода. Нейроны данной сети характеризуется набором параметров, настройка которых производится в процессе обучения, как у обычных нейронных сетей.

Нечетким логическим выводом называется аппроксимация зависимости каждой выходной лингвистической переменной от входных лингвистических переменных и получение заключения в виде нечеткого множества, соответствующего текущим значениям входов, с использованием нечеткой базы знаний и нечетких операций [1].

В модели Мамдани-Заде база правил формируется на основе правил типа:

если это И это И…И это , то есть ,

если это И это И…И это , то есть , (1)

если это И это И…И это , то есть .

Выполнение алгоритма Мамдани-Заде:

Этап 1. Определение степени срабатывания (истинности) каждой предпосылки каждого правила для заданных значений входных переменных . В случае, если входные переменные () являются четкими или одноточечными нечеткими множествами, данный этап называют этапом введения нечеткости (фуззификацией).

Этап 2. Агрегирование степеней истинности предпосылок по каждому из правил

 

И .

(2)

Этап 3. Активизация (определение степеней истинности) заключений по каждому из правил на основе операции логического И:

 

И .

(3)

Этап 4. Аккумулирование полученных на предыдущем этапе заключений по всем правилам. Объединение найденных усеченных нечетких множеств проводится с использованием операции логического ИЛИ. В итоге формируется нечеткое множество для выходной переменной с функцией принадлежности:

 

ИЛИ .

(4)

Этап 5.Этап приведения к четкости выполняется, если необходимо привести полученное нечеткое множество к четкому виду. В алгоритме нечеткого вывода Мамдани-Заде, как правило, используется центроидный метод дефуззификации, при котором четкое значение выходной переменной определяется как «центр тяжести» для :

 

,

(5)

где - число элементов в дискретизированной для вычисления «центра тяжести» области Y.

В классической модели Мамдани-Заде не оговаривается интерпретация логических операций И и ИЛИ при агрегации посылок правил, активизации правил и аккумулировании заключений. В данной реализации было принято операции И интерпретировать как алгебраическое произведение, а операцию ИЛИ— как сумму.

Поскольку для модели вывода Мамдани-Заде не существует канонической структуры нейронной сети, ниже предлагается одна из её возможных реализаций (рисунок 1) [2].

Рисунок 1 – Структура нечеткой нейронной сети на основе модели вывода Мамдани-Заде

Используемая в работе нечеткая нейронная сеть состоит из четырех слоев. В первом слое выполняется фуззификация входных переменных , которая определяет для каждого -го правила вывода значение коэффициента принадлежности в соответствии с функцией принадлежности, в качестве которой используется функция Гаусса. В общем виде функция Гаусса записывается в следующей форме:

 

.

(6)

Это параметрический слой с параметрами , подлежащими адаптации в процессе обучения. Во втором слое выполняется агрегирование значений активации условия, которые определяют результирующее значение коэффициента принадлежности для вектора x. Третий слой осуществляет агрегирование M правил вывода (первый нейрон) и генерацию нормализующего сигнала (второй нейрон). В этом слое корректируемыми параметрами являются веса входных синапсов первого нейрона. Четвертый слой состоит из одного выходного нейрона и выполняет нормализацию, формируя выходной сигнал y(x).

В модели нечёткого вывода Такаги-Сугэно-Канга (TSK) функция заключения определяется функциональной зависимостью. Благодаря этому, дефуззификатор на выходе системы, в отличие от других систем нечёткого вывода, не требуется, а сама модель вывода значительно упрощается [1]. Общая форма модели TSK в векторной записи:

 

если это , то ,

(7)

где – чёткая функция.

Заключение модели TSK представляется в форме функциональной зависимости, чаще всего – в виде полиномиальной функции первого порядка:

 

.

(8)

Если в модели TSK используется N правил вывода, то выход системы определяется как среднее нормализованное взвешенное значение. Если приписать каждому правилу вес (интерпретируются как в форме алгебраического произведения), то выходной сигнал можно представить в виде:

 

.

(9)

Если для каждого i-го правила реализуется функция вида (), то можно получить описание выходной функции модели TSK в виде:

 

.

(10)

Структура нечёткой сети TSK определяется системой нечёткого вывода Такаги-Сугэно-Канга. В качестве функции принадлежности будем использовать функции Гаусса в рациональной форме. Для агрегации условия i-го правила в системе вывода TSK используется операция алгебраического произведения:

 

.

(11)

При M правилах вывода агрегирование выходного результата сети производится по формуле (), которую можно представить в виде:

 

,

(12)

 

.

(13)

Присутствующие в этом выражении веса интерпретируются как значимость компонентов , определённых формулой (11). При этом формуле (12) можно сопоставить многослойную структуру сети, изображённую на рисунке 2. На рисунке изображена структура сети с двумя входами и тремя правилами вывода. В сети выделяется шесть слоёв:

Рисунок 2 – Структура нечёткой нейронной сети TSK

Первый слой выполняет раздельную фуззификацию каждой переменной, определяя для каждого i-го правила вывода значение коэффициента принадлежности в соответствии с применяемой функцией фуззификации. Это параметрический слой с параметрами , подлежащими адаптации в процессе обучения. Второй слой выполняет агрегирование функций принадлежности элементов вектора, определяя результирующее значение для вектора x в соответствии с формулой (11). Третий слой представляет собой генератор функции TSK, рассчитывающий значения по формуле (13). Это параметрический слой, в котором адаптации подлежат линейные веса для и , определяющие функцию следствия модели TSK.

В четвёртом слое происходит умножение сигналов на значения , сформированные во втором слое. Пятый слой составляют два нейрона-сумматора, один из которых рассчитывает взвешенную сумму сигналов , а второй определяет сумму весов . Шестой слой состоит из одного выходного нейрона — это нормализующий слой, в котором веса подвергаются нормализации в соответствии с формулой (12). Выходной сигнал определяется выражением

 

.

(14)

При уточнении функциональной зависимости (12) для сети TSK получаем:

 

.

(15)

В модели Цукамото в качестве функций заключения используются монотонные (возрастающие или убывающие) функции . Заключения правил формируются путём обратного преобразования этих функций по полученным значениям предпосылок данных правил:

если это И это И…И это , то ,

если это И это И…И это , то , (16)

если это И это И…И это , то .

Выполнение алгоритма Цукамото:

Этап 1. Введение нечеткости. В отличие от модели вывода Мамдани-Заде в модели Цукамото для определения степени принадлежности входной переменной к классу используются монотонно возрастающие или монотонно убывающие функции вида:

 

.

(17)

Этап 2.Агрегирование степеней истинности предпосылок по каждому из правил и Как и в модели Мамдани-Заде, для агрегации степеней принадлежности используется операция логического И.

Этап 3.Активация заключений по каждому из правил. В качестве функций принадлежности на данном этапе также используются монотонно возрастающие или монотонно убывающие функции:

     
   

(18)

Здесь и — результаты агрегирования всех предпосылок по правилам 1 и 2 со второго этапа.

В результате находятся четкие значения выходных переменных в каждом из заключений правил.

Этап 4.Этап аккумулирования активизированных заключений правил в данном алгоритме отсутствует вследствие четких значений выходных переменных.

Этап 5. В качестве метода дефуззификации в алгоритме Цукамото используется разновидность метода центра тяжести для одноточечных множеств, позволяющая осуществить приведение к четкости выходной переменной без предварительного аккумулирования активизированных заключений отдельных правил [1]:

   

(19)

В модели Цукамото не оговаривается и интерпретация логической операции И при агрегировании степеней принадлежности предпосылок правил. В данной реализации операция логического И, используемая для агрегации на втором этапе вывода, интерпретируется как алгебраический минимум.

Структура нечеткой сети на основе модели вывода Цукамото подразумевает использование функции принадлежности сигмоидного типа в качестве функции фуззификации для входных переменных:

   

(20)

а для заключений правил:

   

(21)

Структура реализованной нечеткой нейронной сети представлена на рисунке 3.

Используемая в работе нечеткая нейронная сеть состоит из пяти слоев.

Слой 1. Первый слой осуществляет фуззификацию входных переменных в соответствии с функцией (20). Выходы элементов этого слоя представляют собой значения функций принадлежности при конкретных (заданных) значениях входных переменных.

Рисунок 3 – Структура нечеткой нейронной сети на основе модели вывода Цукамото

Слой 2. Элементы второго слоя выполняют агрегирование степеней истинности предпосылок каждого правила базы в соответствии с операцией минимума по формулам:

     
   

(22)

     

Результатом такой агрегации становятся коэффициенты принадлежности по каждому из правил для всего входного вектора.

Слой 3. Элементы этого слоя выполняют вычисление заключений по каждому из правил в соответствии с формулами:

 

.

 
 

.

(23)

 

.

 

Слой 4. Четвёртый слой осуществляет агрегирование N правил вывода для каждого из выходов нейросети и генерацию нормализующего сигнала (последний нейрон).

 

.

(24)

Слой 5. Элементы этого слоя вычисляют выходы сети.

В данной работе изучались возможности нечетких сетей Мамдани-Заде, TSK и Цукамото для решения задачи диагностики гипотрофии новорожденных детей. Для постановки диагноза исследуются следующие параметры: количество детей за одни роды, срок родов, индекс массы тела роженицы, наличие гестоза, наличие хронической фетоплацентарной недостаточности, неделя беременности, на которой произошли роды, была ли угроза прерывания беременности, возраст роженицы, соотношение массы и длины ребенка.

В процессе экспериментальных исследований были определены оптимальные параметры сетей: число входных и выходных нейронов, число классов, число правил. Была исследована зависимость СКО и приведенной погрешности результатов обучения сети от количества правил и от количества анализируемых сетью параметров. В таблицах 1-3 представлены данные для следующих параметров обучения: тестовая выборка - 749 индексов, 8 анализируемых параметров; число итераций обучения 5000; входной слой – 8 нейронов, число классов – 5, выходной – 4.

Таблица 1 – Зависимость ошибки от числа правил при 8 параметрах для сети Мамдани-Заде

Число правил

СКО

Приведенная погрешность, %

5

0,605

10,79

6

0,573

10,11

7

0,616

10,67

8

0,598

10,33

9

0,591

10,12

10

0,586

10,31

Таблица 2 – Зависимость ошибки от числа правил при 8 параметрах для сети Такаги-Сугэно-Канга

Число правил

СКО

Приведенная погрешность, %

5

0,344

5,75

6

0,329

5,71

7

0,362

6,17

8

0,385

6,62

9

0,328

5,59

10

0,347

5,88

Таблица 3 – Зависимость ошибки от числа правил при 8 параметрах для сети Цукамото

Число правил

СКО

Приведенная погрешность, %

5

0,633

11,35

6

0,563

9,96

7

0,553

9,27

8

0,542

9,35

9

0,492

8,34

10

0,517

8,78

В таблицах 4-6 представлены данные для следующих параметров обучения: тестовая выборка - 749 индексов, 9 анализируемых параметров; число итераций обучения 5000; входной слой – 9 нейронов, число классов – 5, выходной – 4.

Таблица 4 – Зависимость ошибки от числа правил при 9 параметрах для сети Мамдани-Заде

Число правил

СКО

Приведенная погрешность, %

5

0,618

11,02

6

0,611

10,96

7

0,576

10,12

8

0,584

9,84

9

0,621

10,98

10

0,575

9,91

Таблица 5 – Зависимость ошибки от числа правил при 9 параметрах для сети Такаги-Сугэно-Канга

Число правил

СКО

Приведенная погрешность, %

5

0,373

6,47

6

0,323

5,51

7

0,345

6,13

8

0,311

5,35

9

0,338

6,01

10

0,334

5,91

Таблица 6 – Зависимость ошибки от числа правил при 9 параметрах для сети Цукамото

Число правил

СКО

Приведенная погрешность, %

5

0,564

10,29

6

0,649

11,91

7

0,521

9,48

8

0,651

12,13

9

0,556

9,87

10

0,522

9,26

В таблицах 7-9 представлены данные для следующих параметров обучения: тестовая выборка - 749 индексов, 11 анализируемых параметров; число итераций обучения 5000; входной слой – 11 нейронов, число классов – 5, выходной – 4.

Таблица 7 – Зависимость ошибки от числа правил при 11 параметрах для сети Мамдани-Заде

Число правил

СКО

Приведенная погрешность, %

5

0,779

15,36

6

0,669

12,92

7

0,798

16,02

8

0,808

16,45

9

0,799

16,06

10

0,711

15,08

Таблица 8 – Зависимость ошибки от числа правил при 11 параметрах для сети Такаги-Сугэно-Канга

Число правил

СКО

Приведенная погрешность, %

5

0,372

4,86

6

0,411

5,71

7

0,394

5,26

8

0,419

6,06

9

0,366

4,91

10

0,425

5,71

Таблица 9 – Зависимость ошибки от числа правил при 11 параметрах для сети Цукамото

Число правил

СКО

Приведенная погрешность, %

5

0,612

8,69

6

0,547

7,04

7

0,530

6,73

8

0,581

7,42

9

0,574

7,54

10

0,600

8,28

Таким образом, в результате исследования получены оптимальные конфигурации сетей для решения задачи диагностики гипотрофии новорожденных детей: для сети Мамдани-Заде для выборки с 8 анализируемыми параметрами оптимальное число правил – 6, для выборки с 9 параметрами – 8, для выборки с 11 параметрами – 6; для сети TSK для выборки с 8 анализируемыми параметрами оптимальное число правил – 6, для выборки с 9 параметрами – 8, для выборки с 11 параметрами – 5; для сети Цукамото для выборки с 8 анализируемыми параметрами оптимальное число правил – 9, для выборки с 9 параметрами – 10, для выборки с 11 параметрами – 7. У сети TSK значение погрешности меньше, чем у сетей Мамдани-Заде и Цукамото, и, таким образом, она лучше подходит для решения поставленной задачи.

Библиографический список

  1. Борисов, В.В. Нечеткие модели и сети [Текст] В.В. Борисов, В.В. Круглов, А.С. Федулов – М.:Горячая линия – Телеком, 2007. – 284с.:ил.

  2. Солдатова, О.П. Многофункциональный имитатор нейронных сетей [Текст]. – Международный журнал «Программные продукты и системы» – Тверь, 2012. – Вып. 3. – С. 27-31.

Просмотров работы: 2856