Введение. В последние годы наблюдается активное развитие технологий искусственного интеллекта, в особенности генеративных моделей, способных создавать текстовый, визуальный, аудио- и видеоконтент высокого качества. Увеличение объёмов цифровых материалов, сгенерированных с применением ИИ, сопровождается ростом угроз, связанных с их неконтролируемым распространением и затруднением определения происхождения информации. В данных условиях особую значимость приобретает задача верификации цифрового контента, включающая подтверждение его подлинности, целостности, авторства и источника. Отсутствие единых стандартов и механизмов маркировки способствует распространению фейков, снижению доверия к медиасреде и росту рисков манипулирования информацией. Существующие методы проверки, такие как анализ метаданных, цифровые водяные знаки и алгоритмы машинного обучения для выявления ИИ-сгенерированного контента, обладают ограниченной эффективностью. Это обусловлено высокой сложностью современных генеративных моделей и возможностью целенаправленного обхода средств обнаружения.
Цель исследования. Выяснить какие существуют проблемы верификации цифрового контента, а также найти способы их решения.
Материал и методы исследования. Для проведения данного исследования были привлечены научные публикации, аналитические обзоры и общедоступные материалы, освещающие вопросы использования искусственного интеллекта в процессе генерации цифрового контента. Особое внимание уделялось работам, затрагивающим проблематику верификации достоверности информации и идентификации контента, созданного с помощью ИИ. Методологическая база исследования включала в себя анализ и синтез собранных данных, а также сравнительное изучение существующих методик проверки подлинности цифровых материалов.
Результаты исследования и их обсуждение. Проблемы подтверждения подлинности контента и их решения:
1. Ложные срабатывания - текст, который написал человек, может быть помечен как созданный ИИ, по причине того, что в нём присутствуют общие фразы или различные схожести с нейросетью. Если текст звучит слишком идеальным, формальным или последовательным, он может быть помечен как “написан ИИ”.
2. Трудности со сложными моделями ИИ - по мере развития моделей нейросетей, контент ИИ становится всё более естественным, и антиплагиаты могут столкнуться с трудностями при обнаружении. ChatGPT от OpenAI был запущен в массы в конце 2022 года. По мере развития искусственных интеллектов, детекторы ИИ будут испытывать трудности с распознаванием. В случае, если вы позаимствовали фрагменты из книги или онлайн-источника, программа определит, что вы создали их с помощью искусственного интеллекта. Для выявления новейших ИИ-текстов потребуются более продвинутые способы их выявления. Разработчики веб-сайтов и приложений вынуждены с каждым днём улучшать и поддерживать свои продукты, для борьбы с сгенерированным контентом в интернете, защиты пользователей и сохранения доверия. Контент, созданный современными ИИ-моделями, отличается высоким уровнем реалистичности. Нейросети способны имитировать стиль письма, голосовые особенности конкретного человека, а также создавать визуальные образы, неотличимые от фотографий, снятых на профессиональную камеру (рис. 1).
Рис. 1. Примеры изображений людей, сгенерированных с помощью технологий искусственного интеллекта [1, 3, 4].
3. Распространение фейковой информации. Перспективы развития ИИ в настоящее время выглядят многообещающими. Ожидается, что к 2027 году искусственный интеллект сможет полностью взять на себя всю вашу рутину, что приведет к упрощению и эффективности выполнения задач в различных сферах. С другой стороны, развитие ИИ также несёт в себе риски, один из них – огромное количество фейковой информации. Появляется опасность, что сгенерированный контент станет настолько правдоподобным, что мы попросту не сможет отличать его от настоящего. Снизить распространение фейковой информации в интернете можно путём обязательной маркировки ИИ-контента, использования средств проверки их происхождения, избеганием алгоритмов, которые могут быть предвзятыми и информировать клиентов о том, что контент создан при помощи искусственного интеллекта [5]. На рисунках 2 и 3 приведена статистика, в которой люди должны были определить, какие изображения настоящие, а какие сгенерированы нейросетью. Из 10 представленных изображений 4 были сгенерированы ИИ, а 6 - настоящие.
Рис. 2. Распознавание дипфейков человека.
Рис. 3. Распознавание реальных фотографий.
4. Нарушения при генерации контента. Имеется шанс, что искусственный интеллект может случайно создавать контент, защищённый авторским правом, что может рассматриваться как нарушение статьи 1270 ГК РФ, которая охраняет произведения от копирования. Для предотвращения проблем, проверяйте ИИ-контент перед публикацией на плагиат и сходство с уже существующими произведениями. Используйте сервисы для анализа текста на плагиат или сравнения изображений. Если у вас возникают сомнения в оригинальности, стоит переработать материал или создать его вручную [2].
Вывод. На сегодняшний день использование искусственного интеллекта вошло в привычку очень многих людей, и ИИ продолжает эволюционировать с бешенной скоростью. Не смотря на существование различных методов проверки подлинности информации, их эффективность снижается по мере развития генеративных ИИ-систем. В современных условиях подтверждение достоверности цифрового контента требует более тщательный анализ и углубление в понятия темы про искусственный интеллект.
Список литературы:
Угрозы, связанные с отсутствием маркировки ИИ-контента: научно-технический центр ФГУП "ГРЧЦ" [Электронный ресурс]. - URL: https://rdc.grfc.ru/2025/10/ai_content_threats/
Бахшиян А.В., Церпелев И.А. (2020). Правовые и этические проблемы искусственного интеллекта. Закон.
Могут ли детекторы искусственного интеллекта ошибаться: smodin [Электронный ресурс]. - URL: https://smodin.io/blog/ru/can-ai-detectors-be-wrong-an-overview/
Морозова А. А., Арсентьева А. Д. Проблемы и перспективы использования искусственного интеллекта в сфере масе-медиа: мнение российской вудитории // Знак: проблемное поле медивобразования, 2022. № 2 (44). С. 150-158 , DOI 10.47475/2070- 0695-2022-10219.
Киселев А. С. О необходимости правового регулирования в сфере искусственного интеллекта: дипфейк как угроза национальной безопасности // Вестник МГОУ. Серия: Юриспруденция. 2021. № 3. С. 54–64. DOI: 10.18384/2310-6794-2021-3-54-64.