ЭТИЧЕСКИЕ И РЕГУЛЯТОРНЫЕ ВЫВОЗЫ В СФЕРЕ УПРАВЛЕНИЯ БОЛЬШИМИ ДАННЫМИ - Студенческий научный форум

XVIII Международная студенческая научная конференция Студенческий научный форум - 2026

ЭТИЧЕСКИЕ И РЕГУЛЯТОРНЫЕ ВЫВОЗЫ В СФЕРЕ УПРАВЛЕНИЯ БОЛЬШИМИ ДАННЫМИ

Колуженина А.И. 1, Богданова Д.Р. 1
1ЮРИУ РАНХиГС
 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

В современном мире стремительное развитие технологий характеризуется стремительной цифровизацией, трансформации информации и данных, вследствие появления искусственного интеллекта (ИИ) и больших данных (Big Data). Эти технологии кардинально поменяли и продолжают менять экономические модели, социальные практики и механизмы управления, открывая возможности для роста эффективности, персонализации услуг и научных открытий. Однако наравне с этим возникает системная проблема, которая ставит под вопрос устойчивость и справедливость нового цифрового порядка. Возникает ситуация, когда технологические инновации опережают способность общества формировать четкие правовые и этические рамки для их использования. [1]

Актуальность данной проблемы не вызывает сомнений. Экспоненциальный рост объемов данных, возрастающая сложность и «непрозрачность» алгоритмов машинного обучения создают вызовы, к которым традиционные правовые и этические системы не были готовы. В свою очередь, 71% опрошенных по данным PewResearch подтверждают этот факт. [2]

Законодательные процессы, по своей природе инерционные, не успевают адекватно реагировать на появление новых технологических реалий, в то время как саморегулирование технологических компаний часто оказывается недостаточным для защиты общественных интересов. Этот разрыв создает почву для возникновения серьезных социальных и экономических угроз, включая алгоритмическую дискриминацию, эрозию приватности, манипуляцию общественным сознанием и концентрацию рыночной власти в руках цифровых гигантов.

Big Data или большие данные — это структурированные или неструктурированные массивы данных большого объема. Их обрабатывают при помощи специальных автоматизированных инструментов, чтобы использовать для статистики, анализа, прогнозов и принятия решений.

Проблема защиты персональных данных и приватности приобретает новое значение.

Возможность неявного извлечения информации из Big Data по-новому ставит задачу защиты персональных данных. Закон 152-Ф3° призван защищать пользователей лишь в том случае, когда речь идет о конкретной информации, предоставляемой оператору или публикуемой в открытых источниках. Согласие на использование персональных данных обязывает оператора корректно использовать и не разглашать только ту информацию, которая перечислена в документе. Если же явного предоставления персональной информации не происходило, то апеллировать к закону не получится. Поэтому граждане юридически не защищены при опосредованном извлечении информации с помощью технологий больших данных. Вероятна даже такая ситуация, когда пользователь явно не предоставлял никакой информации о себе, но третьи лица могут без его ведома выявить необходимые им сведения (в том числе те, которые он не желает разглашать). [3]

Стремительное развитие технологий Big Data и ИИ привело к возникновению системного разрыва между технологическими возможностями и существующими нормами права и этики. Этот разрыв проявляется в виде ряда конкретных социальных и экономических угроз, которые уже оказывают значительное влияние на общество и рынки.

К социальным угрозам относятся:

Алгоритмическая дискриминация и предвзятость. Наиболее острая социальная проблема — это воспроизведение и усиление человеческих предубеждений алгоритмами. Поскольку алгоритмы машинного обучения обучаются на исторических данных, они закрепляют существующие в обществе стереотипы. В качестве примера рассмотрим сферу правосудия:

При этом за человеком должна сохраняться роль конечного арбитра, несущего ответственность за ключевые решения, что реализуется через механизмы управления с человеческим контролем (Human-in-the-loop).

Однако технологические решения недостаточны без трансформации самой регуляторной среды. Жесткие, детализированные нормативные акты, характерные для классического подхода, уступают место адаптивному управлению (Adaptive Governance), основанному на установлении гибких, целеориентированных стандартов, которые могут эволюционировать вместе с технологией. Важнейшим инструментом такой трансформации выступают «регуляторные песочницы» (Regulatory Sandboxes), создающие безопасное пространство для тестирования инноваций в контролируемых условиях, что позволяет и бизнесу, и регуляторам совместно отрабатывать соответствие будущим требованиям. Дополняет эту экосистему активное использование технологий для регулирования (RegTech), таких как смарт-контракты для автоматического контроля согласия на обработку данных или специализированные алгоритмы для мониторинга систем на предмет предвзятости, что значительно повышает эффективность и скорость compliance.

Учитывая транснациональную природу цифровых платформ и потоков данных, завершающим элементом предлагаемой стратегии является усиление международной кооперации. Разрозненные национальные режимы регулирования не только создают почву для регуляторного арбитража, но и оказываются неэффективными перед лицом глобальных вызовов. В этой связи актуализируется задача по гармонизации этических и правовых стандартов в области искусственного интеллекта и больших данных на межгосударственном уровне, вплоть до создания специализированных транснациональных органов, наделенных экспертизой для оценки рисков и выработки согласованных рекомендаций. Таким образом, только многоуровневый подход, сочетающий встроенную в технологии этику, гибкое регулирование и международное сотрудничество, позволяет не догонять технологический прогресс, а целенаправленно управлять его траекторией, минимизируя социальные и экономические издержки и направляя его в русло устойчивого развития.

Российские эксперты указывают на риски делегирования алгоритмам принятия решений, затрагивающих права и свободы граждан. В частности, обсуждаются проблемы использования систем прогнозирования преступности и автоматизированного принятия решений в госуправлении, где отсутствие прозрачности и механизмов обжалования может привести к несправедливым последствиям.

Проанализировав современную систему найма и различные исследования, которые показывают, что алгоритмические системы подбора персонала, используемые в России, могут воспроизводить дискриминационные практики. Аналитики отмечают случаи скрининга резюме по дискриминационным признакам (возраст, пол, семейное положение), заложенным в алгоритмы работодателями. Вместе с тем два из трех соискателей все же сталкиваются со скрытыми барьерами в попытках найти работу. Половина опрошенных выразила уверенность, что в этом вопросе существует дискриминация по возрасту, 27% — по наличию или отсутствию детей, 25% — по гендерному признаку, 18% — по месту жительства. Кроме того, 13% уверены, что дискриминирующим фактором является семейное положение, а 4% замечают это в отношении вероисповедания. Исследование провели в марте среди 1,6 тыс. совершеннолетних россиян методом опроса во всех округах России, в 372 населенных пунктах [4]

Для наглядного сопоставления целесообразно представить обобщенную таблицу, отражающую ключевые показатели масштабных инцидентов утечки персональных данных&

Таблица 1

Утечки персональных данных:

Масштабные инцеденты 2019-2025 гг. [5, 6]

Дата

Название утечки

Объем данных

Описание

Октябрь

2019 г.

Сбербанк

60 млн кредитных карт

Продажа базы клиентов с кредитными картами, утечка через инсайдера

Май

2020 г.

СДЭК

466 млн + 822 млн. строк

Несколько крупных утечек базы клиентов и заказов курьерской службы

Январь

2022 г.

Госуслуги

(COVID-19)

48 млн записей о вакцинации

Утекли данные вакцинации россиян, полученные через уязвимость АР/

Февраль

2022 г.

Яндекс. Еда

58000 клиентов

Данные клиентов сервиса доставки (телефоны, адреса, заказы)

Осень

2022 г.

Citymobil

3.9 млн клиентов, 80 тыс. водителей

Утечка клиентской базы агрегатора такси

Май

2022 г.

Гемотест

31 млн записей пациентов

Компрометация медицинских данных клиентов лаборатории

2023 г.

СберСпасибо,

Спортмастер и др.

52,5 млн. записей

Серии взломов баз данных крупных компаний

Сентябрь

2023 г.

МТС Банк

1 млн клиентов

Компрометация клиентов банка, включая ИНН и части-чно маскированные карты

Весна

2023 г.

Kassy.ru, СОГА3,

Золото 585

22,7 млн записей

Утечки клиентских данных из разных сфер торговли и услуг

Лето-осень

2023 г.

Ашан, Leroy

Merlin, ТВОЕ и др.

Много миллионов (не раскрыто)

Широкая волна утечек в ритейле и интернет-торговле

Начало

2024 г.

Неизвестная база

(500 млн записей)

500 млн записей

Крупнейшая утечка в истории

России - 500 млн записей

Начало

2024 г.

Достаевский

3 млн записей

Утекли данные клиентов и сотрудников сервиса доставки

Март

2024 г.

DNS

Несколько млн записей

Компрометация базы клиентов DNS

Январь

2025 г.

Ростелеком

154тыс. e-mail,

101 тыс. телефонов

Компрометация данных клиентов из-за подрядчика

Январь

2025 г.

Альфа-Страхование-Жизнь

500 тыс. клиентов

Хакеры украли данные страховой компании, включая телефоны и e-mail

Проблема обеспечения конфиденциальности и безопасности персональных данных (ПД) приобрела системный характер в условиях цифровой трансформации экономики. Ретроспективный анализ инцидентов, связанных с компрометацией ПД в Российской Федерации за период с 2019 по 2025 год, позволяет выявить устойчивые негативные тенденции и ключевые вызовы. Наблюдается явная эскалация масштабов утечек. Если в 2019–2022 годах объемы компрометированных данных исчислялись десятками миллионов записей (например, база 60 млн кредитных карт Сбербанка в 2019 г. или 466 млн строк данных СДЭК в 2020 г.), то к началу 2024 года был зафиксирован беспрецедентный инцидент, оцениваемый в 500 млн записей. Данная динамика коррелирует с общемировым трендом, согласно которому объем скомпрометированных ПД в 2023 году удвоился, достигнув 47,24 млрд записей [16]. География инцидентов охватывает все ключевые сектора экономики, что свидетельствует о повсеместной уязвимости. В зоне повышенного риска находятся финансовый сектор (Сбербанк, МТС Банк, Альфа-Страхование), логистика и доставка (СДЭК, Яндекс.Еда), здравоохранение (Гемотест, данные о вакцинации через Госуслуги), а также ритейл (Спортмастер, Ашан, Leroy Merlin), столкнувшийся с широкой волной скоординированных атак осенью 2023 года.

Каналы компрометации разнообразны и включают как технические, так и человеческие факторы.

Этический и регуляторный разрыв в эпоху Big Data представляет собой системный вызов, обусловленный фундаментальным несоответствием между скоростью технологического прогресса и инерционностью правовых систем. Проявлениями этого разрыва выступают алгоритмическая дискриминация, эрозия приватности, монополизация данных и трансформация рынка труда.

Существующие регуляторные модели (жесткое регулирование ЕС и мягкое регулирование США) демонстрируют ограниченную эффективность в решении этих проблем. В качестве альтернативы предлагается комплексный подход, сочетающий:

1. внедрение этических принципов в технологический дизайн (Ethics by Design),

2. переход к адаптивному регулированию с использованием регуляторных песочниц,

3. развитие международных стандартов управления данными и ИИ.

Таким образом, преодоление разрыва требует не изолированных мер, а формирования целостной архитектуры управления, обеспечивающей гармоничное развитие технологий в интересах общества.

Список использованных источников

1. Беликова Е. К. Проблема отнесения искусственного интеплекта к числу современных феноменов культуры N Общество: философия, история, культура. -

2024. Nº 2 (118). - С. 60-65.

2. Основные выводы о конфиденциальных данных // PewResearchURL: https://www.pewresearch.org/short-reads/2023/10/18/key-findings-about-americans-and-data-privacy/?utm_source=chatgpt.com

3. BIG DATA КАК ФЕНОМЕН: ПРИЧИНЫ И СЛЕДСТВИЯ ПОЯВЛЕНИЯ БОЛЬШИХ ДАННЫХ / Пестунов А. И., Гинтофт А. С., Криветченко О. В.: ЭКО. 2023. №9 (591)

4. Половникова С. В. Все о карьере: как найти и сохранить работу // rbc.ruURL: https://www.rbc.ru/rbcfreenews/67e9a7269a79477f7ac44ef2?from=share

5. Неманова В. И., Вакурин И.С., Маклачкова В. В., Гадасии Д.В. Определение экономической эффективности затрат предприятия на защиту персональных данных // DSPA: Вопросы применения цифровой обработки сигналов. 2024. Nº 3.C. 37–45.

6. Белова А. А., Щербинина УЕ. О способе предотвращения хищения данных клиентов в электронной коммерции // Advances in Science andTechnology. 2022. C. 139–141.

7. Утечки данных. URL: https://www.tadviser.ru/index.php/Статья: Утечки _ данных.

Просмотров работы: 8