Проблемы применения искусственного интеллекта в бизнесе - Студенческий научный форум

XVIII Международная студенческая научная конференция Студенческий научный форум - 2026

Проблемы применения искусственного интеллекта в бизнесе

 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

Технологический прогресс в наши дни неуклонно ускоряется, затрагивая все сферы человеческой жизни. Искусственный интеллект (ИИ) выделяется как особенно перспективная и динамично развивающаяся область, которая уже сегодня находит применение в медицине, образовании, транспортной сфере и множества других отраслях, не исключая бизнес [elibrary.ru]. Компании разных размеров и направлений деятельности все чаще сталкиваются с необходимостью внедрения ИИ в свои бизнес-процессы, что обусловлено его растущим потенциалом. По оценкам, к 2026 году более половины компаний в развитых экономиках планирует использовать средства машинного обучения или ИИ-инструменты для автоматизации части рабочих процессов [vc.ru]. Кроме того, ИИ повышает качество продуктов и услуг и позволяет компаниям принимать более обоснованные стратегические решения. Однако, искусственный интеллект сопряжен с рядом рисков, которые необходимо тщательно обдумать и учесть. Только комплексный подход к их оценке и управлению позволит компаниям раскрыть весь потенциал ИИ, одновременно минимизируя юридические риски и обязательства. В этой статье мы рассмотрим ключевые вызовы, которые могут возникнуть у предприятий при внедрении ИИ в свою деятельность.

Первый риск связан с погрешностями в процессе обучения моделей машинного интеллекта. Искусственный интеллект получает знания, анализируя обширные базы данных, включающие текстовую информацию, визуальные образы и данные, полученные с сенсорных устройств. Увеличение объема и разнородности этих данных усложняет задачу обеспечения стабильной и безошибочной работы ИИ при любых входных параметрах. Даже незначительные расхождения между реальными условиями и условиями, в которых проходило обучение, способны спровоцировать некорректную работу системы. Например, в 2018 году  беспилотный автомобиль Uber на базе Volvo XC90 сбил человека насмерть – первый зарегистрированный случай гибели пешехода от действий автономного автомобиля [Forbes.ru]. Особенность в том, что алгоритмы были обучены распознавать пешеходов только рядом с пешеходными переходами, а в остальных случаях программа относила их к транспортным средствам или неопознанным объектам. При этом если объект признавался транспортным средством, то алгоритм предсказывал его траекторию в соответствии с одним из базовых сценариев. Если он считает пешехода неопознанным объектом, то вовсе не занимается расчетом траектории его движения. Элейн Херцберг переходила дорогу в неположенном месте в темное время суток, толкая рядом с собой велосипед с пакетами. Автомобиль сбил Харцберг, после чего она скончалась в больнице от полученных травм [nplus1.ru].

Предвзятость алгоритмов и усиление социального расслоения. Технологии искусственного интеллекта (ИИ) несут риск увековечивания существующей дискриминации, обостряя социальное неравенство и сужая горизонты возможностей для отдельных групп. Это обусловлено тем, что в основе обучения многих ИИ-моделей лежат исторические сведения, зачастую отражающие предвзятые взгляды и предубеждения, существовавшие в прошлом.

В ситуациях, когда первичные данные содержат непропорционально большое количество информации о трудоустройстве конкретных демографических групп, ИИ может выдавать рекомендации, ведущие к отказу в приёме на работу кандидатов, представляющих менее распространенные категории населения. Такая практика закрепляет существующее неравенство и препятствует созданию справедливой и инклюзивной среды. Для примера можно привести компанию Amazon.  В 2017 году компания закрыла экспериментальный проект по найму сотрудников на основе ИИ, который вела около трех лет. По словам представителей компании, в результате они ожидали получить некий «Святой Грааль», который мог бы отобрать пятерку лучших кандидатов из сотни резюме. Одной из ключевых проблем стала гендерная дискриминация кандидатов — алгоритм занижал оценки кандидатов-женщин, поскольку был обучен на прошлом десятилетнем опыте отбора кандидатов в Amazon, среди которых преобладали мужчины. По данным исследований HR-рынка, автоматизированные алгоритмы первичного отбора могут отсекать до 75% резюме еще до участия человека. Были и другие сложности: алгоритм нередко выдавал практически случайные результаты [vc.ru].

На наш взгляд, одной из крупнейших угроз для бизнеса, связанной с ИИ, является риск нарушения авторских прав. Журнал The New York Times яркий тому пример. В 2023 году издание обвинило компании OpenAI и Microsoft в использовании миллионов статей без разрешения для обучения нейросетей ChatGPT и Copilot. После этого еще восемь газет, среди которых Chicago Tribune и New York Daily News, подали аналогичный иск, заявив, что ИИ присваивает их контент и генерирует статьи с плагиатом и ложными цитатами. Эти дела объединили в одно, разбирательство все еще ведется. Риски отсутствуют до момента, когда возникнут подозрения в неправомерных действиях и последующего обращения в судебные органы. В процессе судебного разбирательства будет назначена экспертиза для выявления факта незаконного применения интеллектуальной собственности другого лица. За первым иском правообладателя могут последовать аналогичные претензии от других сторон, прецедент чего наблюдался в США в случаях с OpenAI и Microsoft [theblueprint.ru].

Далее рассмотрим варианты как минимизировать угрозы для бизнеса. Необходимо внимательно ознакомиться с условиями использования нейросети. В этом документе содержится ключевая информация о передаче прав на сгенерированный контент, политике конфиденциальности, ограничениях ответственности, обязательных требованиях к использованию (например, указание авторства нейросети) и допустимых темах для генерации. Изучение пользовательского соглашения позволит принять обоснованное решение о целесообразности применения данной нейросети в работе. Важно помнить, что правообладатели ИИ регулярно вносят изменения в данные соглашения, и необходимо отслеживать обновления.

Нельзя полагаться на искусственный интеллект в принятии решений, имеющих критическое значение. Независимо от кажущегося интеллекта, ИИ не способен заменить человеческий фактор. Более того, ИИ не обладает юридической ответственностью за последствия своих действий. Ответственность за ошибки в критически важных решениях ложится на конкретных людей и организации.

Рекомендуется приобретать бизнес-лицензии, избегая общедоступных версий ИИ. Общедоступные версии уязвимы для киберугроз, так как легко могут быть взломаны и использованы для создания вредоносного программного обеспечения. Бизнес-лицензии обычно включают регулярные обновления, современные средства защиты от уязвимостей, привилегированный доступ к технической поддержке и возможность адаптировать решения под уникальные нужды компании. Это подтверждается статистикой: в 2024 году около 22,7% компаний в Нидерландах (10+ сотрудников) использовали хотя бы одну ИИ-технологию.

Таким образом, стратегическое внедрение искусственного интеллекта в бизнес требует не просто точечной адаптации инструментов, а формирования целостной системы управления, где этап планирования неразрывно связан с постоянным мониторингом угроз и корректировкой действий. Ключ к успеху лежит в проактивном подходе: потенциальные риски — от ошибок алгоритмов до правовых коллизий — должны быть заложены в дорожную карту интеграции, а не рассматриваться постфактум. Только создав такой цикл «планирование — защита — контроль» и обеспечив надёжный фундамент информационной безопасности, компания может рассчитывать на устойчивый результат.

Несмотря на сопутствующие вызовы, трансформационный потенциал ИИ для предпринимательства поистине безграничен и продолжает расширяться. Эволюция технологий открывает путь не к инкрементальным улучшениям, а к переосмыслению бизнес-моделей. В ближайшей перспективе мы станем свидетелями появления нового поколения интеллектуальных систем, способных стать катализатором прорывной эффективности.

Среди наиболее значимых векторов применения выделяется маркетинг, где ИИ трансформируется из инструмента анализа в архитектора персонального взаимодействия с клиентом. Обрабатывая поведенческие паттерны в реальном времени, алгоритмы способны генерировать уникальные потребительские, динамически адаптировать контент и предсказывать моменты максимальной вовлечённости, что выводит маркетинговую эффективность на качественно новый уровень. Финансовая аналитика — ещё одна область радикальных изменений. Здесь ИИ выходит за рамки автоматизации рутинных операций, становясь стратегическим партнёром для прогнозно-аналитического моделирования. Системы на основе машинного обучения способны выявлять сложные, неочевидные корреляции в данных, предвосхищать кассовые разрывы, моделировать сценарии в условиях неопределённости и обнаруживать аномалии, которые ускользают от традиционного аудита. Логистика и управление цепочками поставок также переживают революцию под влиянием ИИ. Интеллектуальные системы, синтезируя данные от IoT-сенсоров, метеосводок, геополитических новостей и паттернов спроса, способны не просто оптимизировать отдельные маршруты, а проектировать resilient-цепочки — устойчивые, самокорректирующиеся и минимально затратные экосистемы поставок, способные адаптироваться к любым внешним шокам.

В заключение стоит отметить, что искусственный интеллект эволюционировал из узкой технологической дисциплины в ключевую драйверную силу глобальной экономики. Его внедрение перестаёт быть конкурентным преимуществом и становится необходимым условием для сохранения операционной и стратегической состоятельности компании в любой отрасли. Способность решать комплексные задачи, кардинально повышать производительность и создавать новые ценностные предложения определяет ИИ как основной инструмент для построения бизнеса будущего.

Литература

  1. Мельников Д.А. Искусственный интеллект в сфере бизнеса. – 2024. – С. 50-54

  2. Копиев Г. Беспилотный автомобиль Uber сбил человека насмерть. Компания остановила испытания. – 2018.

  3. Померанец А.Д. Уголовная ответственность и искусственный интеллект // А.Д. Померанец, В.В. Коленцова. – 2022. – С. 273-278

  4. Гладких А. Не только Сбербанк: пять самых эпичных ошибок искусственного интеллекта. – 2019.

  5. Морозова К. Авторская сеть. – 2025.

Просмотров работы: 6