ПРОБЛЕМА ПЕРЕОБУЧЕНИЯ В НЕЙРОННЫХ СЕТЯХ - Студенческий научный форум

XV Международная студенческая научная конференция Студенческий научный форум - 2023

ПРОБЛЕМА ПЕРЕОБУЧЕНИЯ В НЕЙРОННЫХ СЕТЯХ

 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

Переобучение в машинном обучении в нейронных сетях (НС) представляет собой реальную проблему, которую в настоящее время нельзя полностью избежать. К факторам, образующим эффект переобучения можно отнести такие, как: 1) ограничение размера выборки обучающих данных, возможность их «очистки» от шумов; 2) сложность классификаторов; 3) сложность и многопараметричность обучающих алгоритмов.

Рассмотрим популярные стратегии, которые позволяют действенно устранять явление переобучения:

- стратегия сокращения - сокращает размер заключительных классификаторов в реляционном обучении, за счёт неприменения менее важных и неподходящих данных. Данная стратегия предотвращает явление переобучения и позволяет повысить точность классификаторов;

- стратегия ранней остановки- позволяет предотвратить переобучение путём прекращения обучения за счёт нахождения контрольной точки остановки обучения после определения того, что точность пробных данных престала улучшаться;

- стратегия расширения данных, заключающаяся в подавлении явления переобучения за счёт грамотной настройки гиперпараметров модели, её адекватной сбалансированностью между точностью и регулярностью обучения. Данная стратегия подразумевает более точно производить настройку параметров при достаточно больших объёмах данных;

- стратегия регуляризации, заключается в конечном выборе только «нужных» функций, влияющих на конечный результат;

- стратегия прореживания (отсева) наиболее популярная стратегия против переобучения в НС [1-3]. Рассмотрим её более детально.

Принцип стратегии прореживания заключается в том, что обучается не одна глубокая нейронная сеть, а целый набор, после чего берутся усреднённые результаты. Из сети выключаются нейроны с такой вероятностью P, что вероятность включения нейрона должна соответствовать условию d=1- P. Последнее означает, что исключение хотя бы одного из нейронов будет соответствовать обучению новой НС, а исключённый нейрон на входе всегда возвращает значение ноль [4,5].

Рис.1- Графическое представление метода прореживания

Таким образом, распределение вероятностей (1):

 

(1)

где:

k- вероятностные выходные значения.

Из рис.2. видно, что слои x1xnНС из N нейронов на каждой итерации этапа обучения можно считать как совокупность распределения Бернулли с вероятностью Р. Тогда на выходном слое мы получаем значение исключённых нейронов (2):

 

(2)

где:

Xi- вектор случайных величин.

Рис.2- Пример многослойной НС

Исходя из (2) видно, что если слой состоит из 2048 нейронов и взяв P=0,5, то видно, что 1024 из них будет выключено, т.е.:

Получается, что вероятность отключения 1024 нейронов составляет 0,05. На рис.3 представлено распределение значений вероятности выключения нейронов.

Рис.3- Пример биномиального распределения

Список литературы:

Хайкин С. Нейронные сети, полный курс. 2е издание, испр. - М: Вильямс. 2008. - 1103 с. 

Рутковская, Д. Нейронные сети, генетические алгоритмы и нечеткие системы / Д. Рутковская, М. Пилиньский, Л. Рутковский; Пер. с польск. И.Д. Рудинского - 2-е изд., стереотип. - Москва :Гор. линия-Телеком, 2013. - 384 с.

Уорр, К. Надежность нейронных сетей: укрепляем устойчивость ИИ к обману : практическое руководство / К. Уорр. - Санкт-Петербург : Питер, 2021. - 272 с.

Hinton G.E. et al. Dropout: A Simple Way to Prevent Neural Networks from Overfitting // Journal ofMachine Learning Research. 2012. Vol. 15. P. 1929–1958.

https://habr.com/ru/company/wunderfund/blog/330814/Dropout — метод решения проблемы переобучения в нейронных сетях

Просмотров работы: 171