За последнее десятилетие мы стали свидетелями массового внедрения машинного обучения и искусственного интеллекта в повседневную жизнь. Все большее число организаций используют такие технологии для автоматизации своих операций и улучшения своих продуктов и услуг.
Несмотря на широкое использование машинного обучения и искусственного интеллекта известными организациями, например: «Levi’s» и «Volkswagen», в течение некоторого времени, многие пользователи впервые взаимодействовали с такими технологиями лишь в течение последних нескольких месяцев в виде генеративных нейросетей, помогающих пользователям генерировать текст, код, изображения и другие цифровые элементы с предоставлением ограниченного ввода. Такие компании, как «ChatGPT», вывели ИИ на первое место в общественном сознании, подпитывая интенсивную гонку за развитием ИИ.
Как и в случае с любой инновацией, использование ИИ окажет как положительное, так и отрицательное влияние на глобальную культуру, киберпреступность будет одной из наиболее пострадавших областей.
Наличие в свободном доступе такого инструмента, как искусственный интеллект добавляет мошенникам множество способов совершения преступлений.
Искусственный интеллект может помочь оптимизировать операции преступников, делая их более эффективными, сложными и узконаправленными, позволяя им уклоняться от обнаружения.
Также искусственный интеллект представляет собой еще один способ совершения преступления для лиц, использующих его для анализа огромных объемов информации, включая утекшие данные. Этот анализ позволяет им выявлять уязвимости или ценные цели, что позволяет проводить более точные и эффективные атаки, которые потенциально могут принести большую финансовую выгоду.
Еще одна область преступной деятельности, которая может процветать с помощью ИИ, — это разработка более изощренных фишинговых атак и атак с использованием социальной инженерии. Это включает в себя создание удивительно реалистичных дипфейков, обманчивых веб-сайтов, кампаний по дезинформации, мошеннических профилей в социальных сетях и мошеннических ботов на основе искусственного интеллекта. Кроме того, уже известны случаи совершения преступлений с применением поддельных биометрических данных человека. В марте 2019 года преступники использовали программное обеспечение на основе искусственного интеллекта, чтобы выдать свой голос за голос руководителя и потребовать денежный перевод в размере
243 000 долларов США. Генеральный директор британской энергетической компании думал, что разговаривает по телефону со своим начальником, исполнительным директором немецкой материнской компании фирмы, который попросил его отправить средства венгерскому поставщику. Звонивший сказал, что запрос был срочным, и поручил руководителю заплатить в течение часа, согласно страховой компании «Euler Hermes Group SA». Деньги, которые были переведены на счет в венгерском банке, впоследствии были переведены в Мексику и распределены по другим местам. Правоохранительные органы так и не установили личности преступников.1
Специалисты по кибербезопасности и правоохранительные органы могут и обязаны использовать возможности искусственного интеллекта для противодействия достижениям, достигнутым в киберпреступности. Они могут использовать ИИ для разработки инновационных инструментов, тактик и стратегий в борьбе с вредоносным программным обеспечением.
Такие области, как обнаружение, предотвращение и профилактика угроз, будут находиться на переднем крае исследований безопасного ИИ. Многие существующие инструменты безопасности в значительной степени полагаются исключительно на вводимые пользователем данные, что делает их неэффективными в борьбе с атаками, совершаемыми посредством ИИ. Следовательно, правоохранительным органам нужно обращаться к технологиям машинного обучения и искусственного интеллекта для достижения более точного и эффективного обнаружения угроз.
Яркими примерами являются такие компании, как «Cisco Secure Endpoint»2 и «Cisco Umbrella»3, использующие расширенное машинное обучение для автоматического обнаружения и устранения подозрительного в сетях. Включение этих технологий, несомненно, будет способствовать противодействию вредоносным программам, генерируемым ИИ, о которых говорилось выше.
Ещё одна проблема, которую можно решить путём внедрения искусственного интеллекта в инструментарий правоохранительных органов – это анализ больших объемов данных. Процесс анализа больших объемов журналов, системных образов, сетевого трафика отнимает большое количество времени и средств. Искусственный интеллект может помочь ускорить процесс расследования, выявить закономерности, которые может быть трудно обнаружить вручную, и предоставить статистику и систему методов и инструментов, используемых злоумышленниками.
Улучшении атрибуции преступной деятельности – еще одно потенциальное применение ИИ правоохранительными органами. Оно заключается в анализе характеристик вредоносных программ и исторических шаблонов атак, инструментов, тактик и процедур совершения подобных преступлений. Изучая эти наборы данных, ИИ может выявлять закономерности и тенденции, которые помогут правоохранительным органам сузить круг потенциальных источников атаки. Эта атрибуция ценна тем, что она дает представление о мотивах и возможностях злоумышленников, позволяя лучше понять их тактику и потенциальные будущие угрозы. Кроме того, это позволяет правозащитникам более точно идентифицировать злоумышленников, которые используют тактику уклонения от идентификации путем вводящей в заблуждение информации.
Алгоритмы машинного обучения и искусственный интеллект расширят возможности их использования для автоматизированного анализа и выявления угроз. Благодаря автоматизированному анализу данных, связанных с безопасностью, из нескольких источников, таких как каналы аналитики угроз, мониторинг даркнета и аналитика из открытых источников, можно эффективно выявлять и устранять возникающие угрозы.
Искусственный интеллект также может служить ценным инструментом для прогнозной аналитики, позволяя предвидеть потенциальные киберугрозы и уязвимости на основе исторических данных и закономерностей. Анализируя данные о прошлых атаках и злоумышленниках, системы ИИ могут выявлять общие тенденции, закономерности или группы, которые могут указывать на будущие атаки или инициировать их. Эта возможность позволяет правоохранительным органам занимать более активную позицию в области безопасности, например, оперативно устранять уязвимости или внедрять дополнительные средства управления безопасностью, чтобы снизить потенциальные риски до того, как они будут использованы злоумышленниками. Используя искусственный интеллект таким образом, правоохранительные органы могут быть на шаг впереди развивающихся угроз.
Искусственный интеллект все чаще успешно используется правоохранительными органами для принятия высокоэффективных мер по предотвращению преступности. Новые технологии позволяют недоукомплектованным правоохранительным органам собирать, обрабатывать, анализировать и выделять данные, необходимые для следователей по всем видам преступлений.
Развитие ИИ создает как новые проблемы, так и большие возможности, поскольку его пользовательская база и приложения продолжают расширяться. Эффективное и целенаправленное использование технологий, связанных с искусственным интеллектом, будет играть ключевую роль для экспертов по кибербезопасности и правоохранительных органов в выявлении, защите и атрибуции цифрового преступного поведения. Используя возможности ИИ, правоохранительные органы могут расширить свои возможности в борьбе с меняющимися угрозами и обеспечении безопасности цифровых экосистем. По мере развития киберпреступности внедрение ИИ будет играть важную роль в опережении злоумышленников.
Используемые источники
Конституция Российской федерации (принята всенародным голосованием 12.12.1993) (ред. от 01.07.2020) // Российская газета 2020. № 144
Уголовно-процессуальный кодекс Российской Федерации от 18.12.2001 № 174-ФЗ (ред. от 04.08.2023) (с изм. и доп., вступ. в силу с 12.10.2023) // СПС «КонсультантПлюс» (дата обращения: 24.10.2023).
Уголовный кодекс Российской Федерации: УК: текст с изменениями и дополнениями на 1 февраля 2024 года: [принят Государственной думой 24 мая 1996 года: одобрен Советом Федерации 5 июня 1996 года]. – Москва: Эксмо, 2024. – 464 с. – (Актуальное законодательство).
Абдулаев М.А. Основы права. Учебник для вузов. / Под ред. М.А. Аблудаев. СПб.: Питер, 2004. 604 с. (серия «Учебник для вузов»).
Циакурис Я. Рост числа преступлений с помощью ИИ: выявление угроз и возможностей [Электронный ресурс] // URL: https://blog.talosintelligence.com/the-rise-of-ai-powered-criminals/
Тирранен В.А. Преступления с использованием исскуственного интелекта [Электронный ресурс] // URL: https://cyberleninka.ru/article/n/prestupleniya-s-ispolzovaniem-iskusstvennogo-intellekta?ysclid=lt4rrbw0ga982034977
Ерахтина Е.А., Тирранен В.А. Преступления, совершаемые с использованием искусственного интеллекта: проблемы квалификации расследования [Электронный ресурс] // URL: https://cyberleninka.ru/article/n/prestupleniya-sovershaemye-s-ispolzovaniem-iskusstvennogo-intellekta-problemy-kvalifikatsii-i-rassledovaniya?ysclid=lt4rt8hn5i823699738
Дамиани Дж. Голосовой дипфейк был использован, чтобы обмануть генерального директора на 243 000 долларов [Электронный ресурс] // URL: https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/?sh=7255dab72241
1 Дамиани Дж. Голосовой дипфейк был использован, чтобы обмануть генерального директора на 243 000 долларов [Электронный ресурс] // URL: https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/?sh=7255dab72241
2 Спецификация Cisco Secure Endpoint [Электронный ресурс] // URL: https://www.cisco.com/c/en/us/products/collateral/security/fireamp-endpoints/datasheet-c78-733181.html?ysclid=luvf0xou9i482833848
3 Cisco Umbrella [Электронный ресурс] // URL: https://umbrella.cisco.com/why-umbrella/interactive-intelligence