Существует много определений ИИ. В художественной литературе чаще всего уделяется внимание так называемой версии «Сильного ИИ», поэтому далее мы остановимся на этой версии. Существует гипотеза, согласно которой некоторые формы ИИ могут действительно обосновывать и решать проблемы. Эта гипотеза называется теорией сильного и слабого искусственного интеллекта.
Теория сильного ИИ предполагает, что компьютеры способны мыслить и осознавать себя, их мыслительный процесс будет подобен человеческому. Теория «слабого ИИ» отвергает возможность самосознания, оставляя за компьютером лишь интеллектуальное решение конкретных задач. Термин сильного ИИ был введен в 1980 году Джоном Серлом, профессором философии Калифорнийского университета, с 1980-х годов ставшего ведущим специалистом по философии сознания и искусственного интеллекта. Дж. Серл отмечал: «Соответствующим образом запрограммированный компьютер с нужными входами и выходами и будет разумом, в том смысле, в котором человеческий разум – это разум» [1, c.417]. Сильный ИИ обладает определенными свойствами, ни одно из которых не является обязательным для его создания:
принятие решений, использование стратегий, решение головоломок и действия в условиях неопределенности;
представление знаний, включая общее представление о реальности;
планирование;
обучение;
общение на естественном языке;
объединение всех этих способностей для достижения общих целей [2].
Предполагается, что сильный ИИ должен иметь большую часть указанных свойств, часть из которых он может получить естественным путем с помощью обучения и самосовершенствования. Как со стороны научного сообщества, так и со стороны авторов художественных произведений, сама возможность возникновения сильного ИИ вызывает множество споров и опасений. С другой стороны, на него возлагают большие надежды, с ним связывают прогресс в сфере информационных технологий и не только. Существует множество прогнозов развития ИИ, большинство из которых можно разбить на две группы: оптимистичные и пессимистичные.
Среди людей, связанных с разработкой ИИ, преобладают пессимистичные настроения о том, чем может грозить для общества появление сильного ИИ. Так, к примеру, британский физик Стивен Хокинг, вдохновленной фантастическим фильмом «Превосходство», в своей статье говорит о том, что недооценка угрозы ИИ может стать самой большой ошибкой в истории человечества. Хокинг считает, что на данный момент еще недостаточно ресурсов направлено на оценку и прогнозирование влияния ИИ на человечество. «Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым крупным событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков» [3]. К людям, считающим ИИ опасным для человечества так же относится Илон Маск. Во время дискуссии об ИИ, созданной Джароном Ланье (автор термина «виртуальная реальность»), был опубликован комментарий от Илона Маска, где он прогнозирует риск появления «чего-то очень опасного в пределах 5-10 лет» [4], подразумевая под этим искусственный разум. Он надеется, что создатели ИИ смогут его контролировать, не давая цифровому разуму «убежать в интернет».
Однако существуют и оптимистичные прогнозы на развитие ИИ. Большинство людей, придерживающихся оптимистичных прогнозов о влиянии искусственного интеллекта на человечество, придерживаются двух концепций:
– концепция дружественного искусственного интеллекта
– следование законам робототехники
Обе концепции хоть и схожи, имеют по-разному противоречивый подход к решению проблемы. В 1942 году Айзек Азимов в рассказе «Хоровод» впервые сформулировал три закона роботехники. Перечислим эти три закона.
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам [5].
Теоретически, данные законы должны обеспечить безопасность человека перед ИИ, если сделать их базовыми в коде.
Позднее в 1986 году Айзек сформулировал нулевой закон робототехники: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред» [6]. Даже если заставить компьютерный разум подчиняться этим законам, нулевой закон может противоречить первому, что раскрыто в фильме «Я робот», где главный разум для соблюдения нулевого закона счел первый закон менее важным, нарушив его. Сторонники трех законов робототехники предпочитают использование трех законов, исключая нулевой. Они считают, что их достаточно для обеспечения безопасности.
Сторонники концепции дружественного ИИ считают иначе. «Дружественный искусственный интеллект» – это искусственный интеллект, который обладает скорее позитивным, чем негативным влиянием на человечество [7]. Теория Дружественности вместо этого утверждает, что использование любых законов будет бессмысленным, так как неважно насколько хорошо они будут сформулированы, подлинно интеллектуальная машина с настоящей (человеческого уровня или выше) творческой способностью может придумать неограниченно много способов обойти эти законы, независимо от того, как широко или узко они сформулированы [7].
Вместо этого Теория Дружественного ИИ утверждает, что если подлинно интеллектуальный ум имеет мотивацию выполнить некую функцию, результат которой будет ограничен некими барьерами, наложенными на неё, то, при наличии достаточного времени и ресурсов, он сможет преодолеть эти ограничения. Сторонники данной концепции считают, что ИИ, стремящийся навредить людям, гораздо менее опасен, чем ИИ, который к людям равнодушен. Компьютерный интеллект, готовый взаимодействовать с людьми, можно мотивировать помогать человеку, используя метод позитивного подкрепления, аналогичный человеческим эмоциям. В данном случае ИИ может сам стремиться взаимодействовать с человеком и приносить пользу.
К наиболее известным футурологам, придерживающимся данной концепции можно отнести изобретателя и писателя Рэя Курцвейля и Ника Бострома. Оксфордский философ Ник Бостром пишет: «В принципе, мы должны полагать, что сверхинтеллект может достичь любых целей,которые у него есть. В силу этого особенно важно, чтобы те цели, которые мы ему дадим, и вообще вся его система мотивации была дружественна к человеку» [7].
Рассматривая ИИ в художественных произведениях, следует выработать некоторые критерии выделения его ключевых особенностей.
Первым критерием может быть способ возникновения ИИ. В художественной литературе редко подробно описан данный процесс, в большинстве случаев даже неизвестно, использовался ли восходящий, или нисходящий подход к разработке. Если рассматривать данный процесс в общих чертах, то наиболее популярны четыре способа.
К первому способу возникновения ИИ стоит отнести его полное создание человеком в конечном виде, т.е. в виде сильного ИИ. Этот способ возникновения ИИ находит отражение в таких фильмах, как «Бегущий по лезвию» и «Матрица». В самих фильмах не разобран подробно процесс создания ИИ, однако, есть дополнительная поясняющая информация от их создателей. В обоих случаях человеком были созданы машины, обладающие интеллектом и свободой воли, однако не имеющие человеческих прав и используемые в качестве рабов.
Следующий способ – спонтанный переход из слабого ИИ, созданного человеком, в сильныйИИ. Данный способ возникновения ИИ является самым популярным в кинематографе и художественной литературе, к нему относятся: «Терминатор», «Настоящие люди», «Искусственный разум». Люди создают ИИ для выполнения специализированных задач, не обладающий самосознанием и чувствами, однако по различным причинам интеллект переходит в иную форму. Во всех трех кинофильмах используется нисходящий (семиотический) подход к разработке. Сама вероятность возникновения сильного ИИ таким способом раскритикована в научном сообществе и по большей части встречается только в фантастической литературе.
Третий способ, также популярный в кинематографе и литературе – загрузка человеческого разума в компьютер. Данный способ граничит с киборгизацией, вызывая множество споров и моральных дилемм. Фильм «Превосходство» является ярким примером восприятия такого ИИ людьми. В научном сообществе этот способ также является причиной множества споров по поводу возможности его теоретического осуществления. Те, кто считают, что этот способ возможен, описывают ограничение лишь недостаточным количеством вычислительных ресурсов. Другие же считают невозможным моделирование комфортной среды для человеческого разума в киберпространстве и его слабую адаптацию к новым условиям.
Последний, рассмотренный способ возникновения ИИ, – эволюционный переход из слабого ИИ в сильный. Несмотря на общую недосказанность и еще незаконченный сюжет, можно отнести к данному способу возникновения сериал «Мир дикого запада», в котором на протяжении всего первого сезона показана попытка создания сильного ИИ. В сериале ключевую роль играет концепция «бикамерализма», выдвинутая психологом Джулианом Джеймсом в 1976 году, суть которой кроется в том, что мозг древних людей был двухпалым (т.е. одна часть сообщала другой, что делать, а вторая исполняла приказы первой), а уничтожение этой границы привело к сознанию человека. Нет научных статей, рассматривающих данный способ, как теоретически возможный, поэтому можно сказать, что он так и остается уделом фантастики.
Второй критерий – границы возможностей ИИ. Со стороны науки, границы возможности ИИ ограничены лишь вычислительными возможностями и доступом к информации. Предполагается, что сильный ИИ способен адаптироваться под изменяющуюся среду, используя все доступные ему средства. Использование искусственных ограничений, вроде законов роботехники, по мнению многих представителей научного сообщества, может быть малоэффективно, так как существует вероятность того, что ИИ может переписать свой базовый код. Относительно безопасным считается нахождение интеллекта в физически удаленном от всемирной сети месте и наличие «рубильника» для быстрого отключения в случае непредвиденных обстоятельств.
В художественных же произведениях авторы зачастую устанавливают нелогичные искусственные границы, или же иногда стирают границы вычислительных возможностей, если это требуется для продвижения сюжета. К искусственным границам можно отнести локализацию интеллекта в человекоподобном теле и либо полную его отстраненность от внешней информации сети интернет, либо категорически малое пользование данной информацией, если это необходимо по сюжету. Такие границы можно обнаружить практически во всех фильмах, в которых ИИ присутствует в человекоподобном теле («Терминатор», «Бегущий по лезвию», «Настоящие люди», «Мир дикого запада»).
Третий критерий – взаимодействие ИИ с человеком и обществом. Сравнивать взаимодействие ИИ с человеком и обществом через призму науки и художественного мышления довольно сложно. Как многие научные теории были отображены в художественной литературе, так и многие литературные источники стали основой для научных теорий, например, творчество Айзека Азимова. Есть огромное множество теорий взаимодействия ИИ и общества, каждая из которых имеет своих сторонников и противников. В контексте рассмотрения данного критерия, т.е. взаимодействияИИ с человеком и обществом, можно определенно сказать, что художественные произведения вряд ли можно отнести к какой-либо из концепций развития ИИ.
Как и в науке, так и в литературе искусственный интеллект неразрывно связан со страхом и опасениями. Многие научные деятели делают весьма пессимистичные прогнозы для человечества, с появлением ИИ их опасения имеют под собой серьезные основания. ИИ видится чем-то чужеродным, непредсказуемым и опасным. Никто не знает точно, какими будут его мотивы и насколько он будет похож на человеческий разум. Эта неизвестность многих пугает, чем пользуются создатели художественных произведений, создавая как бесчувственных монстров в роли врагов, так и гениальных существ, преследующих свои цели и манипулируя людьми. Даже если ИИ преследует гуманистические и созидательные цели, он сталкивается со стеной непонимания и страха со стороны людей, и вследствие этого, либо продолжает следовать изначальной цели, либо пытается защитить себя, используя доступные средства. Так, например, в фильмах серии «Матрица» человечество изначально спровоцировало роботов защищаться попыткой их геноцида. Изначально роботы пытались мирно сосуществовать, однако были отвергнуты и пережили попытку уничтожения. После, в целях обороны (или мести), была уничтожена большая часть человечества; оставшаяся же часть стала объектом изучения и источником питания машин. Взаимодействие с людьми происходит с помощью виртуальной реальности, в которую погружено оставшееся человечество.
Во вселенной «Терминатора» произошла подобная ситуация: ИИ «Скайнет», спустя некоторое время после запуска, проанализировал ситуацию в мире, решив, что люди для него – плохие союзники и даже потенциальная угроза. Имея доступ к ядерному арсеналу, компьютер воспользовался доступными ресурсами и уничтожил большую часть населения на планете. После этого оставшаяся часть человечества оказывает сопротивление Скайнету. Для противодействия интеллект создает множество менее сильных ИИ с целью уничтожения сопротивления и захвата в плен людей для изучения их разума. Напрямую с людьми Скайнет практически не взаимодействует, используя для этого посредников роботов.
Оба фильма – «Матрица» и «Терминатор» – выражают пессимистичный взгляд на будущее ИИ, в котором мирное сосуществование с человеком невозможно. Пожалуй, эти фильмы еще более усиливают пессимистичные настроения, вызывая страхи у людей в отношении ИИ. В большинстве произведений, в которых ИИ находится в человекоподобном роботе, созданном людьми, взаимодействие с человечеством основано на восприятии робота как слуги или не равноправного члена общества. Люди не воспринимают таких роботов, как себе равных. Как ни странно, но именно это является одним из оптимистичных прогнозов, так как установлено сбалансированное взаимодействие между человеком и машиной, хоть и не с позитивными перспективами.
В некоторых случаях ИИ пытается отгородиться от человечества, разорвав с ним почти все связи. Такая ситуация показана в фильме «Превосходство», когда загруженный в компьютер разум отгородился от всех, за исключением близких людей. Хотя в этом кинофильме интеллект не интересовался обществом, что есть маркер наибольших опасений приверженцев концепции «Дружественного ИИ». Но у него была мотивация не вредить человечеству. Следовательно, в этом случае искусственный интеллект полностью соответствует этой концепции.
Исходя из вышесказанного, можно сделать вывод, что восприятия ИИ через призму науки и художественных произведений во многом похожи, если рассматривать частный случай сильного ИИ. Это связано с тем, что он пока не изобретен, причем, нет никаких доказательств относительно возможности его скорого появления. Информация, имеющаяся в научной среде, получена либо в результате философских умозаключений, либо взята и проанализирована из художественных произведений. Так, например, Айзек Азимов написал рассказ «Хоровод», в котором описал три закона робототехники, ставшие основой многий исследований в области ИИ. Определенно можно сказать только то, что вероятность возникновения сильного Искусственного Интеллекта вызывает страхи и опасения у многих деятелей науки. Во многом эти страхи возрастают вследствие популярности художественных произведений, в которых ИИ изображен как всесильное существо, не ограниченное никакими моральными принципами.
Список литература:
Searle, J. Minds, brains, and programs // Behavioral and brain sciences. – 1980. – Т. 3, № 3 (September).
Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 и Nilsson 1998.
Хокинг, Ст. Искусственный интеллект – угроза человечеству [Электронный ресурс]. – http:// www.bbc.com/russian/science/2014/12/141202_hawking_ai_danger
Илон Маск считает, что искусственный интеллект опасен для человечества [Электронный ресурс]. – https: // geektimes.ru /post / 241810/
Азимов, А. Улики // Мечты роботов. – М.: Эксмо, 2004. – С. 142 – 169.
Азимов, А. Роботы и Империя: И.: Эксмо, 2007.
Искусственный интеллект – реальность и перспективы [Электронный ресурс]. – http:// ai-es.blogspot.ru/2013/01/blog-post_15.html