ЭТИЧЕСКИЕ АСПЕКТЫ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ПРОБЛЕМЫ И РЕШЕНИЯ - Студенческий научный форум

XVIII Международная студенческая научная конференция Студенческий научный форум - 2026

ЭТИЧЕСКИЕ АСПЕКТЫ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ПРОБЛЕМЫ И РЕШЕНИЯ

Росляков И.Р. 1, Негребецкая В.И. 1
1ФГБОУ ВО «Курский государственный университет», колледж коммерции, технологий и сервиса
 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

В наше время искусственный интеллект является одной из самых стремительно развивающихся областей в сфере информационных технологий.

Искусственный интеллект — это технология, которая позволяет системе, машине или компьютеру выполнять задачи, требующие разумного мышления, то есть имитировать поведение человека для постепенного обучения с использованием полученной информации и для решения конкретных вопросов [1].

Для развития общества искусственный интеллект имеет большое значение. Но из-за быстрого развития возникло и множество вопросов, связанных с моралью и этикой. Вместе с огромным потенциалом, который несет в себе ИИ, возникают и серьезные этические вопросы, требующие тщательного рассмотрения и проработки.

Рассмотрим наиболее известные подходы к этике в системах управления [2].

Первый подход - декларативный, программируется на основе определенных этических принципов и стандартов. Проблема может заключаться в том, что система будет принимать решения, основываясь лишь на тех принципах, которые были конкретно ей предоставлены. Как пример такого подхода, можно привести утилитаризм, три закона робототехники, различные религии и т.п.

Второй подход – процессуальный, также является нисходящим и включает в себя набор правил, которые определяют выполнение этических стандартов. Отличие от предыдущего подхода заключается в том, что эти правила подвергаются дополнительной проверке на этичность и соблюдение стандартов, а также проводится оценка последствий возможных действий, которые могли бы быть предприняты. Например, дополнительная система защищенности ИИ-продуктов, которая предоставляет возможность тестирования, исправления и проверки модели. Она работает со многими крупными клиентами.

Еще один подход – нормативный. Нормативная этика сосредоточена на изучении норм морали. Данный подход основан на внедрении принятых законов и постановлений в отношении этики ИИ. Примеров законов множество: в 2021 г. Европейская комиссия выпустила «Закон об искусственном интеллекте». В этом законе установлены подходы регулирования использования систем ИИ в Европейском союзе.

Одним из гибридных подходов является культурный. Переводчики переводят тексты в зависимости от сферы, языка и культуры входящих данных. Данный подход основан на исследовании интесекциональности и учете различных культур. Он учитывает различные этические правила, опираясь на них и подстраиваясь под определенную культуру.

Еще один гибридный подход – интегративный, он объединяет в себе нисходящие подходы, и подходы восходящие, тем самым учитывает больше этических правил и поведений. Данный подход основывается на том, что «важна не только природа, но и воспитание». Он использует уже установленные правила и обучается дополнительно на основе наблюдений. Например, использование NEAT, разработанного в 2002 г. Кеннетом О. Стэнли и Ристо Мииккулайненом позволяет адаптировать, улучшать и расширять свои возможности в динамичной среде.

Существующие подходы можно связать с характеристиками посредством того, насколько данный подход нуждается в оценке той или иной характеристики (рис.1)

Рисунок 1–Связьподходовихарактеристик

Выделяют следующие проблемы этики в использовании ИИ и их решения [3]:

  1. Предвзятость в ИИ. Одной из основных этических проблем, связанных с ИИ, является предвзятость. Алгоритмы машинного обучения могут наследовать предвзятость, присутствующую в данных, на которых они обучаются. Это может привести к дискриминации по различным признакам, таким как раса, пол, возраст и т. д.

Предвзятость в ИИ может возникать по нескольким причинам:

- некачественные данные;

- ограниченный набор данных;

- предвзятость разработчиков;

Для борьбы с предвзятостью в ИИ необходимо принимать следующие меры: сбор разнообразных данных; анализ и корректировка данных; прозрачность и объяснимость алгоритмов; обучение разработчиков

2. Приватность в ИИ. Ещё одной важной этической проблемой, связанной с ИИ, является приватность. Алгоритмы ИИ могут обрабатывать большие объёмы персональных данных, что может привести к нарушению конфиденциальности и приватности пользователей. Риски для приватности в контексте ИИ включают: сбор и хранение персональных данных; использование данных для профилирования; утечки данных.

Для защиты приватности в контексте ИИ необходимо принимать следующие меры: минимизация сбора данных; шифрование и анонимизация данных; согласие пользователей; регулярный аудит безопасности.

Для решения этических проблем в использовании ИИ можно предложить следующие направления:

1. Разработка этических стандартов.

Создание четких этических стандартов для разработки и использования ИИ может помочь минимизировать риски предвзятости и нарушения прав человека. Необходимо включить в процесс разработки специалистов по этике, социологии и праву.

2. Прозрачность алгоритмов

Прозрачность работы алгоритмов — ключевой аспект для обеспечения доверия пользователей. Разработчики должны предоставлять информацию о том, как работают их системы, на каких данных они обучаются и какие меры принимаются для предотвращения предвзятости.

3. Защита данных.

Создание надежных механизмов защиты личных данных поможет защитить приватность пользователей. Это может включать использование технологий шифрования, анонимизации данных и соблюдение законодательных норм, таких как GDPR в Европе.

4. Образование и осведомленность

Образование пользователей о возможностях и рисках использования ИИ может повысить их осведомленность и помочь избежать потенциальных угроз. Важно развивать критическое мышление и навыки анализа информации у будущих специалистов в области технологий.

В заключении можно сказать, что этические аспекты использования искусственного интеллекта требуют серьезного внимания со стороны разработчиков, пользователей и общества в целом. Решение этих проблем возможно лишь через совместные усилия всех заинтересованных сторон: от ученых и инженеров до правозащитников и государственных структур. Как подчеркивает Л.Н. Толстой в своих произведениях, «человек должен стремиться к добру», и именно это стремление должно стать основой для создания безопасного и этичного ИИ.

Список литературы:

  1. Для чего нужен искусственный интеллект гуманитариям [Электронный ресурс] / URL: https://umschool.net/journal/life/dlya-chego-nuzhen-iskusstvennyj-intellekt-ii-gumanitariyam/?ysclid=mhi2i8t6sk378195912 (дата обращения: 01.11.2025)

  2. Подходы к этике искусственного интеллекта [Электронный ресурс] / URL: https://cyberleninka.ru/article/n/eticheskie-aspekty-ispolzovaniya-sistem-iskusstvennogo-intellekta?ysclid=mhdb3xvpma299126086 (дата обращения: 01.11.2025)

  3. Этические проблемы ИИ: предвзятость, приватность и будущее регулирования [Электронный ресурс] / URL: https://studcrew.ru/Article/DetailArticle/2204 (дата обращения: 01.11.2025)

Просмотров работы: 4