В наше время искусственный интеллект является одной из самых стремительно развивающихся областей в сфере информационных технологий.
Искусственный интеллект — это технология, которая позволяет системе, машине или компьютеру выполнять задачи, требующие разумного мышления, то есть имитировать поведение человека для постепенного обучения с использованием полученной информации и для решения конкретных вопросов [1].
Для развития общества искусственный интеллект имеет большое значение. Но из-за быстрого развития возникло и множество вопросов, связанных с моралью и этикой. Вместе с огромным потенциалом, который несет в себе ИИ, возникают и серьезные этические вопросы, требующие тщательного рассмотрения и проработки.
Рассмотрим наиболее известные подходы к этике в системах управления [2].
Первый подход - декларативный, программируется на основе определенных этических принципов и стандартов. Проблема может заключаться в том, что система будет принимать решения, основываясь лишь на тех принципах, которые были конкретно ей предоставлены. Как пример такого подхода, можно привести утилитаризм, три закона робототехники, различные религии и т.п.
Второй подход – процессуальный, также является нисходящим и включает в себя набор правил, которые определяют выполнение этических стандартов. Отличие от предыдущего подхода заключается в том, что эти правила подвергаются дополнительной проверке на этичность и соблюдение стандартов, а также проводится оценка последствий возможных действий, которые могли бы быть предприняты. Например, дополнительная система защищенности ИИ-продуктов, которая предоставляет возможность тестирования, исправления и проверки модели. Она работает со многими крупными клиентами.
Еще один подход – нормативный. Нормативная этика сосредоточена на изучении норм морали. Данный подход основан на внедрении принятых законов и постановлений в отношении этики ИИ. Примеров законов множество: в 2021 г. Европейская комиссия выпустила «Закон об искусственном интеллекте». В этом законе установлены подходы регулирования использования систем ИИ в Европейском союзе.
Одним из гибридных подходов является культурный. Переводчики переводят тексты в зависимости от сферы, языка и культуры входящих данных. Данный подход основан на исследовании интесекциональности и учете различных культур. Он учитывает различные этические правила, опираясь на них и подстраиваясь под определенную культуру.
Еще один гибридный подход – интегративный, он объединяет в себе нисходящие подходы, и подходы восходящие, тем самым учитывает больше этических правил и поведений. Данный подход основывается на том, что «важна не только природа, но и воспитание». Он использует уже установленные правила и обучается дополнительно на основе наблюдений. Например, использование NEAT, разработанного в 2002 г. Кеннетом О. Стэнли и Ристо Мииккулайненом позволяет адаптировать, улучшать и расширять свои возможности в динамичной среде.
Существующие подходы можно связать с характеристиками посредством того, насколько данный подход нуждается в оценке той или иной характеристики (рис.1)
Рисунок 1–Связьподходовихарактеристик
Выделяют следующие проблемы этики в использовании ИИ и их решения [3]:
Предвзятость в ИИ. Одной из основных этических проблем, связанных с ИИ, является предвзятость. Алгоритмы машинного обучения могут наследовать предвзятость, присутствующую в данных, на которых они обучаются. Это может привести к дискриминации по различным признакам, таким как раса, пол, возраст и т. д.
Предвзятость в ИИ может возникать по нескольким причинам:
- некачественные данные;
- ограниченный набор данных;
- предвзятость разработчиков;
Для борьбы с предвзятостью в ИИ необходимо принимать следующие меры: сбор разнообразных данных; анализ и корректировка данных; прозрачность и объяснимость алгоритмов; обучение разработчиков
2. Приватность в ИИ. Ещё одной важной этической проблемой, связанной с ИИ, является приватность. Алгоритмы ИИ могут обрабатывать большие объёмы персональных данных, что может привести к нарушению конфиденциальности и приватности пользователей. Риски для приватности в контексте ИИ включают: сбор и хранение персональных данных; использование данных для профилирования; утечки данных.
Для защиты приватности в контексте ИИ необходимо принимать следующие меры: минимизация сбора данных; шифрование и анонимизация данных; согласие пользователей; регулярный аудит безопасности.
Для решения этических проблем в использовании ИИ можно предложить следующие направления:
1. Разработка этических стандартов.
Создание четких этических стандартов для разработки и использования ИИ может помочь минимизировать риски предвзятости и нарушения прав человека. Необходимо включить в процесс разработки специалистов по этике, социологии и праву.
2. Прозрачность алгоритмов
Прозрачность работы алгоритмов — ключевой аспект для обеспечения доверия пользователей. Разработчики должны предоставлять информацию о том, как работают их системы, на каких данных они обучаются и какие меры принимаются для предотвращения предвзятости.
3. Защита данных.
Создание надежных механизмов защиты личных данных поможет защитить приватность пользователей. Это может включать использование технологий шифрования, анонимизации данных и соблюдение законодательных норм, таких как GDPR в Европе.
4. Образование и осведомленность
Образование пользователей о возможностях и рисках использования ИИ может повысить их осведомленность и помочь избежать потенциальных угроз. Важно развивать критическое мышление и навыки анализа информации у будущих специалистов в области технологий.
В заключении можно сказать, что этические аспекты использования искусственного интеллекта требуют серьезного внимания со стороны разработчиков, пользователей и общества в целом. Решение этих проблем возможно лишь через совместные усилия всех заинтересованных сторон: от ученых и инженеров до правозащитников и государственных структур. Как подчеркивает Л.Н. Толстой в своих произведениях, «человек должен стремиться к добру», и именно это стремление должно стать основой для создания безопасного и этичного ИИ.
Список литературы:
Для чего нужен искусственный интеллект гуманитариям [Электронный ресурс] / URL: https://umschool.net/journal/life/dlya-chego-nuzhen-iskusstvennyj-intellekt-ii-gumanitariyam/?ysclid=mhi2i8t6sk378195912 (дата обращения: 01.11.2025)
Подходы к этике искусственного интеллекта [Электронный ресурс] / URL: https://cyberleninka.ru/article/n/eticheskie-aspekty-ispolzovaniya-sistem-iskusstvennogo-intellekta?ysclid=mhdb3xvpma299126086 (дата обращения: 01.11.2025)
Этические проблемы ИИ: предвзятость, приватность и будущее регулирования [Электронный ресурс] / URL: https://studcrew.ru/Article/DetailArticle/2204 (дата обращения: 01.11.2025)