ОПАСНОСТЬ РАСПРОСТРАНЕНИЯ ИСКУСТВЕННОГО ИНТЕЛЛЕКТА - Студенческий научный форум

XI Международная студенческая научная конференция Студенческий научный форум - 2019

ОПАСНОСТЬ РАСПРОСТРАНЕНИЯ ИСКУСТВЕННОГО ИНТЕЛЛЕКТА

 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

В наше время боязнь искусственного интеллекта возрастает, снимаются фильмы, пишутся книги, разрабатываются игры. Всем интересно, что будет, когда искусственный интеллект дойдет до того, что сложно будет отличить от человеческого, невооруженным взглядом.
Существует два популярных мнения, либо он нам поможет, либо уничтожит.
Так ли радужно его развитие как нам предрекают? Программы, которые называют искусственным интеллектом имеют способность к самообучению они анализируют большие массивы данных, находят там закономерности, делают выводы и самостоятельно стоят алгоритмы, что и помогает им работать более эффективно. Из-за неоднозначности самого понятия «интеллект» и даже оригинального термина «intelligence», существуют и другие дефиниции. Например, информационные технологии искусственного интеллекта определяются как способность системы создавать в ходе самообучения программы (в первую очередь эвристические) для решения задач определенного класса сложности и решать эти задачи.

Существует множество подходов к созданию систем искусственного интеллекта. Наиболее популярен из них эвристический подход, при котором машина при помощи нейронной сети познает окружающий мир методом проб и ошибок. Впервые идею о вероятностной машине, «обучающейся без учителя», высказал Рэй Соломонофф в 1956 году на той же Дартмундской конференции, на которой Джон Маккарти стал родителем термина «искусственный интеллект».

Можно считать, что история искусственного интеллекта начинается с момента создания первых ЭВМ в 40-х г.г. С появлением электронных вычислительных машин, обладающих высокой (по меркам того времени) производительностью, стали возникать первые вопросы в области искусственного интеллекта: возможно ли создать машину, интеллектуальные возможности которой были бы тождественны интеллектуальным возможностям человека (или даже превосходили возможности человека).

Следующим этапом в истории искусственного интеллекта являются 50-е годы, когда исследователи пытались строить разумные машины, имитируя мозг. Эти попытки оказались безуспешными по причине полной непригодности, как аппаратных, так и программных средств. В 1956 г. состоялся семинар в Стэнфордском университете (США), где был впервые предложен термин искусственный интеллект – artificialintelligence.

60-е года в истории искусственного интеллекта отметились попытками отыскать общие методы решения широкого класса задач, моделируя сложный процесс мышления. Разработка универсальных программ оказалась слишком трудным и бесплодным делом. Чем шире класс задач, которые может решать одна программа, тем беднее оказываются ее возможности при решении конкретной проблемы. В этот период началось зарождение эвристического программирования.

Эвристика — правило, теоретически не обоснованное, но позволяющее сократить количество переборов в пространстве поиска.

Эвристическое программирование – разработка стратегии действий по аналогии или прецедентам. В целом, 50-60 г.г. в истории искусственного интеллекта можно отметить как время поиска универсального алгоритма мышления.

Существенный прорыв в практических приложениях искусственного интеллекта произошел в 70-х гг., когда на смену поискам универсального алгоритма мышления пришла идея моделировать конкретные знания специалистов-экспертов. В США появились первые коммерческие системы, основанные на знаниях, или экспертные системы. Пришел новый подход к решению задач искусственного интеллекта – представление знаний. Созданы «MYCIN» и «DENDRAL» – ставшие уже классическими экспертные системы для медицины и химии. Обе эти системы в определенном смысле можно назвать диагностическими, поскольку в первом случае («MYCIN») по ряду симптомов (признаков патологии организма) определяется болезнь (ставится диагноз), во втором – по ряду свойств определяется химическое соединение. В принципе, этот этап в истории искусственного интеллекта можно назвать рождением экспертных систем.

Следующий значимый период в истории искусственного интеллекта – это 80-е года. На этом отрезке искусственный интеллект пережил второе рождение. Были широко осознаны его большие потенциальные возможности, как в исследованиях, так и в развитии производства. В рамках новой технологии появились первые коммерческие программные продукты. В это время стала развиваться область машинного обучения. До этих пор перенесение знаний специалиста-эксперта в машинную программу было утомительной и долгой процедурой. Создание систем, автоматически улучшающих и расширяющих свой запас эвристических (не формальных, основанных на интуитивных соображениях) правил – важнейший этап в последние годы. В начале десятилетия в различных странах были начаты крупнейшие в истории обработки данных, национальные и международные исследовательские проекты, нацеленные на «интеллектуальные вычислительные системы пятого поколения».

Развитие технологии искусственного интеллекта приносит много преимуществ в таких областях, как образование, здравоохранение, СМИ, государственное управление и других. Но также он может причинить вред и проявлять дискриминацию.

Это отклоняющее поведение может произойти по следующим причинам:

Использование предвзятых или некачественных данных для обучения моделей;

Плохо определенные правила;

Использование его вне контекста;

Создание циклов обратной связи.

SolidBombGold компания по выпуску футболок, которая использовала AI для генерации фраз для печати на своих изделиях. Одна из фраз, созданная его алгоритмом, была «KeepCalmandRapeLot» (Оставайся спокойным и насилуй много). Это, конечно, вызвало сильное негодование общественности. Поэтому Amazon забанил компанию, как продавца, и она прекратила поставки таких футболок. Алгоритм не был предназначен для создания такого рода оскорбительного контента. Но тот, кто его разработал, решил просто выбрать любую фразу из списка. И этот список содержал слово «изнасилование». У них были плохие данные и плохо определенные правила.

Nikon запустил функцию, которая предупреждает фотографа, когда кто-то моргнул при съемке. Некоторые люди стали сообщать, что алгоритм обнаружил ложные моргания на фотографиях людей азиатской национальности. Хотя это японская компания, она, по-видимому, использовала предвзятые учебные данные в своих алгоритмах. Если алгоритм был разработан за пределами Азии, но развернут во всем мире, он также не имеет регионального контекста.

Наверняка, все знают историю как Microsoft сделали искусственный интеллект, который на человеческом языке должен был общаться в twitter с людьми, обучаться у них. Всего за пару часов этот интеллект начал публиковать расистские и оскорбительные сообщения ,через день после запуска Microsoft отключила его. Microsoft - сказали что бот публиковал такие сообщения только потому что недоброжелатели сбрасывали негатив, а он всего лишь учился.
Похожая история приключилась и с суперкомпьютером
IBMWATSON. Когда ученные захотели сделать его более человечным, они показали ему словарь слэнга в интернете .
Суперкомпьютер не мог увидеть разницу между обычной и ненормативной лексикой.
Вскоре этот словарь убрали, и сделали его более сдержанным. Так же хотелось бы рассказать об одном очень странном проекте, под названием Норман.
Прототипом, которого, является персонаж фильма “Психо”, по сюжету он был психопат, у него были галлюцинации, раздвоение личности. Проект был представлен 1 апреля, и это перестало быть шуткой. Несмотря на стандартные умения обучаться, его вряд ли можно назвать обычным проектом. Его заставляли проходить по разделам с мест убийств на форуме
Reddit,где показывались фотки и видео, что не могло не сказать на нем. Его умения в том что он видит окружающий мир совсем не таким каким его видят другие люди и другие искусственные интеллекты. И ученные приводят пример на тесте Роршаха. Но он не виноват что он таков, по сути он такой лишь потому что это единственное что он видел. Но у разработчиков не было цели создать что-то столь зловещее, они хотят проверить можно ли избавить их проект от жестокости.

На основе последнего примера, хочется сказать, что совершенно любой искусственный интеллект можно насильно загрузить предвзятую и жестокую информацию, и получить желаемый результат. Поэтому крайне важно обучать их так, чтобы они не несли за собой потенциальную опасность. Но может возникнуть вопрос, человек ведь заходя на форумы, не становится психопатом? Да, потому что человек понимает, что есть хорошо, а что плохо. А искусственный интеллект это - чистый лист, который не знает, что такое страх и жестокость и это незнание и делает его таким опасным.

Интернет-ресурсы:

1).http://www.aiportal.ru/articles/introduction/history-ai.html дата обращения:23.12.2018; Время:22:41.

2).https://golos.io/ru--tekhnologii/@konstantin/nastoyashaya-opasnost-iskusstvennogo-intellekta-eto-ne-to-chto-my-dumaem дата обращения:23.12.2018; Время:22:41

Просмотров работы: 12