ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЕГО ВЛИЯНИЕ НА БУДУЩЕЕ - Студенческий научный форум

XVIII Международная студенческая научная конференция Студенческий научный форум - 2026

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЕГО ВЛИЯНИЕ НА БУДУЩЕЕ

Хмарук А.З. 1, Олейник Н.П. 1
1ФГБОУ ВО "Мелитопольский государственный университет"
 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

Постановка проблемы. Стремительное развитие технологий искусственного интеллекта (ИИ) перестало быть узкотехнологическим трендом и превратилось в глобальный социальный феномен, порождающий системные вызовы. Отсутствие консенсуса в отношении этических норм, правового регулирования и стратегий адаптации общества к новой технологической парадигме создает риски социальной дестабилизации, роста неравенства и непредсказуемых последствий для будущего человечества.

Анализ последних исследований. Автор статьи «Анализ влияния ИИ (LLM) на когнитивные способности в 10-летней перспективе» провел анализ, который показывает, как современные языковые модели (LLM), такие как GPT, могут влиять на умственные способности человека в ближайшие 10 лет, где рассматривается два сценария:

Позитивный: ИИ помогает людям быстрее находить информацию, улучшает память, развивает аналитические и творческие навыки, действует как персональный наставник и помогает в обучении.

Негативный: Чрезмерное использование ИИ может привести к снижению критического мышления, ухудшению памяти и потере способности решать задачи самостоятельно, что особенно заметно у молодёжи, если не соблюдать баланс.

Также показывает, какое влияние ИИ имеет на разные возрастные группы (дети, подростки, взрослые и пожилые), где сравниваются люди, выросшие без ИИ, с теми, кто знаком с ним с раннего возраста. Автор приводит рекомендации по правильному использованию ИИ в образовании и повседневной жизни, чтобы сохранить и развивать когнитивные способности. [1].

Необходимы стратегии, как развивать у детей навыки критического мышления при постоянном доступе к ИИ, как использовать LLM для обучения и развития когниции, приведены позитивные примеры применения AI, а также меры по контролю рисков и поддержанию баланса между использованием AI и самостоятельной умственной деятельностью.

В январе 2025 года команда исследователей под руководством Майкла Герлиха опубликовала масштабное исследование с участием около 700 человек разных возрастов и образовательных уровней. Результаты оказались шокирующими: обнаружена значительная негативная корреляция между частым использованием ИИ-инструментов и способностями к критическому мышлению. [4].

Инструменты искусственного интеллекта оказывают сложное влияние на навыки критического мышления. В аналитическом аспекте ИИ расширяет возможности обработки данных и выявления закономерностей, но чрезмерная зависимость от него может подорвать развитие независимого анализа. В оценке информации ИИ помогает отфильтровывать ненадежные источники, однако существует риск усиления предвзятости и ограничения воздействия различных точек зрения из-за алгоритмических предубеждений. В рассуждениях о выводах ИИ предоставляет идеи и прогнозы на основе анализа данных, но непрозрачность процессов ИИ вызывает опасения по поводу интерпретируемости и может привести к принятию выводов ИИ без тщательного изучения. В целом, ИИ влияет на анализ, оценку и выводы, изменяя и расширяя эти процессы, но также создавая риски, связанные с чрезмерной зависимостью, предвзятостью и прозрачностью. [5].

Эксперты РБК Tech 2025 отмечают, что интерес к искусственному интеллекту растет. По информации компании «Билайн», 95% компаний не могут внедрить генеративные нейросети из-за неподготовленности собственных процессов, а из-за ограничения технологий. Часть представителей бизнеса по-прежнему воспринимают ИИ как чат-бота для решения всех проблем. На практике алгоритмы машинного обучения используются для множества прикладных задач — от аналитики и антифрода (систем для предотвращения мошеннических операций) до видеоанализа.

Также на рынке развивается сегмент ИИ-агентов. Это интеллектуальные системы, способные полностью выполнять целые процессы без участия человека. Для их эффективного запуска компаниям нужно навести порядок во внутренних системах. ««Минцифры выступает инициатором использования облачных решений для других министерств и ведомств. Государство здесь идет впереди и выступает одним из драйверов роста рынка ЦОДов», — отмечает Александр Шведов, директор по работе с государственными заказчиками «Билайна». Так, в цифровом комплексе «Гособлако» Минцифры работают 110 государственных систем и 30 федеральных ведомств. На платформе хранится свыше 50 петабайт данных.
Александр поясняет, что частая ошибка компаний — перегрузка существующих мощностей или необоснованное строительство новых центров. Лучше начать с аудита текущей инфраструктуры, определить реальную нагрузку и только затем планировать расширение.» [2].

Согласно прогнозам экспертов Gartner, к 2025 году более 75% организаций перейдут от пилотирования к операционализации ИИ, что приведет к пятикратному увеличению потоков данных и вычислительной инфраструктуры. Аналитики MIT Technology Review утверждают, что мы находимся лишь в начале S-образной кривой развития искусственного интеллекта, и в ближайшие 3-5 лет произойдет новый качественный скачок.

Период

Ключевые технологические достижения

Прогнозируемый эффект

2023-2025

Мультимодальные модели с улучшенной точностью и расширенной контекстной памятью

Системы, способные удерживать и анализировать большие объемы информации в едином контексте

2026-2028

Самообучающиеся системы с меньшими требованиями к данным

Демократизация ИИ для узкоспециализированных отраслей с ограниченными данными

2029-2030

Интеграция символических методов и нейронных сетей

ИИ с улучшенными возможностями абстрактного мышления и обоснования решений

Одной из фундаментальных проблем, требующих решения в ближайшем будущем, остается вопрос объяснимости ИИ (explainable AI). Черные ящики нейронных сетей порождают проблемы с доверием и регулированием. Исследователи из Stanford HAI (Human-Centered AI) предсказывают, что к 2027 году появятся прорывные методики, позволяющие расшифровывать логику принятия решений даже в сложных многослойных архитектурах. Александр Волков, руководитель исследовательской лаборатории ИИ, рассказал про столкнувшиеся проблемы с работой его команды: «В 2021 году наша команда столкнулась с классической проблемой «черного ящика» при внедрении системы предсказательной аналитики для фармацевтического производства. Модель демонстрировала впечатляющую точность в 96%, но не могла объяснить свои решения регуляторам. Мы потратили шесть месяцев на разработку гибридной архитектуры, совмещающей преимущества нейронных сетей с интерпретируемыми древовидными структурами. Жертвуя всего 2% точности, мы получили полностью объяснимую модель, которая успешно прошла сертификацию. Этот опыт убедил меня, что будущее ИИ — не просто в повышении производительности, а в балансе между мощностью и прозрачностью. В течение ближайших трех лет мы увидим прорыв в методах интерпретации сложных моделей — это неизбежный этап эволюции искусственного интеллекта.» [3].

Издание Fortune опубликовало статью о том, как целые профессии трансформируются под влиянием нейросетей. К массовому исчезновению конкретных профессий использование ИИ не приведёт, зато изменится набор обязанностей, заявил CEO компании Indeed Крис Хайамс. Нейросети уже высвобождают больше времени для творческих задач и работы напрямую с людьми. [6]

Джеффри Хинтон, известный как «крестный отец ИИ», недавно заявил о повышении вероятности того, что ИИ может привести к исчезновению человечества в ближайшие 30 лет с 10% до 20%. Он отметил, что развитие ИИ происходит гораздо быстрее, чем ожидалось, и что ИИ может превзойти человеческий интеллект, представляя значительную экзистенциальную угрозу. Хинтон подчеркнул необходимость государственного регулирования для обеспечения безопасности ИИ, поскольку полагаться на корпоративные интересы недостаточно. [11]

Цель исследования. Спрогнозировать структурные изменения на глобальном рынке труда под влиянием технологий искусственного интеллекта и провести комплексный анализ возникающих системных рисков для экономической и социальной стабильности.

Основная часть.Работа останется за людьми, но нейросети кардинально изменят её организацию и содержание. Вместо полного замещения живых сотрудников ИИ чаще выступает в роли помощника и выполняет рутинные задачи. Есть и минусы — специалистам без опыта станет сложнее начинать карьеру.

Но для успешного перехода на новый формат требуется адаптация как со стороны работников, так и со стороны работодателей.

Нейросети дополняют человеческий труд в самых разных профессиях:

  • Учителя готовятся к урокам и проверяют задания, но продолжают преподавать сами.

  • Медсёстры делегируют бумажную работу, а сами ухаживают за пациентами.

  • Врачи используют специализированное ПО на основе ИИ для более быстрой диагностики, но окончательный диагноз и назначение терапии остаётся за ними.

  • Юристы и маркетологи обращаются к нейросетям при анализе данных и составлении текстов, но тщательно контролируют результат.

  • Появляются и совершенно новые профессии: ИИ-тренеры, prompt-инженеры, аналитики ИИ-данных, тестировщики и этические наблюдатели.

Одна из главных проблем распространения ИИ — более сложный вход в профессию для молодых специалистов, когда многие задачи за них выполняют нейросети. Нейросети легко справляются с повторяющимися и стандартизированными задачами, поэтому под угрозой оказываются стартовые должности с большим количеством рутинных задач: операторы ввода данных, кассиры, телемаркетологи, бухгалтеры начального уровня и операторы call-центров. Работодателям придётся пересмотреть форматы найма и стажировок, подход к обучению персонала и продумать варианты вертикального роста при сокращении позиций более низкого уровня. [6]

«В бизнесе нет вопроса профессии будущего – есть вопрос профессии здесь и сейчас», – подчеркнул Артем Кумпель. По данным Авито Работы, за год вакансий с переподготовкой стало втрое больше, особенно в строительстве (28%) и логистике (11%).

Трансформация профессий коснулась практически всех сфер: от IT до традиционных секторов экономики, и теперь ИИ и автоматизация воспринимаются как важные инструменты профессиональной деятельности. Так, по данным аналитиков Авито Работа, уже сейчас 50% HR-специалистов используют ИИ в подборе персонала, а количество вакансий, связанных с искусственным интеллектом, за год выросло в четыре раза. В то же время технологии становятся полезными и для соискателей: нейросети помогают им создавать резюме за 30−40 секунд. Однако, несмотря на это, ключевые решения по-прежнему принимают люди – ИИ не заменяет специалистов, а усиливает их: берет на себя рутинные задачи и освобождает время на творчество и инновации.

«Новые технологии появляются тогда, когда появляется запрос бизнеса. ИИ и автоматизация охватывают все больше отраслей, и все больше профессий требуют от специалистов не только традиционных знаний, но и технологических навыков. ИИ – это инструмент, который облегчает работу, но не заменяет человека. Профессионалы, которые умеют эффективно сочетать экспертизу с современными технологическими навыками и готовы к постоянному обучению, будут оставаться востребованными и конкурентоспособными в будущем», – отметил Артем Кумпель. [7]

Искусственный интеллект (ИИ) обещает революцию в экономике, сравнимую с началом промышленной эры, но его стремительный взлет сопровождается рисками, которые могут подорвать глобальную экономику. Технологические гиганты, включая Microsoft, Google, вкладывают триллионы долларов в инфраструктуру ИИ, ожидая экспоненциального роста производительности и прибыли. Однако этот ажиотаж напоминает исторические финансовые пузыри — от «тюльпаномании» XVII века до краха пузыря доткомов 2000-х годов. [8]

Для эффективного противодействия угрозам, связанным с ИИ, требуется комплексный подход, включающий разработку передовых систем защиты, создание этических норм и законодательных рамок, а также повышение осведомленности общества. Важно понимать, что борьба с злоумышленниками, использующими ИИ, – это постоянная гонка вооружений. Необходимо непрерывно совершенствовать системы кибербезопасности, разрабатывать новые методы обнаружения и нейтрализации атак, основанных на ИИ, и укреплять защиту конфиденциальных данных.

Не менее важно работать над снижением рисков, исходящих от самого ИИ. Это требует глубокого понимания принципов работы алгоритмов машинного обучения, разработки методов обеспечения прозрачности и объяснимости решений, а также создания механизмов контроля и управления ИИ. Необходимо разрабатывать надежные методы верификации и валидации, чтобы гарантировать, что ИИ работает в соответствии с заданными целями и не выходит за рамки установленных ограничений.

«Поскольку ИИ становится все более мощным и автономным, важно создать международные стандарты безопасности ИИ и механизмы сотрудничества между странами. Необходимо обмениваться знаниями, опытом и передовыми практиками в области безопасности ИИ, чтобы обеспечить глобальную защиту от угроз, связанных с этой технологией.» [9]

Технологические риски ИИ многогранны и связаны с человеческим фактором. Первый уровень – уязвимости машинного обучения, например, атаки «состязательными примерами», когда незначительные изменения в данных приводят к ошибкам. Второй уровень – уязвимости программного обеспечения, кода ИИ-систем, количество которых растет. Третий уровень – автоматизация кибератак с помощью ИИ, включая создание полиморфного вредоносного кода. Четвертый уровень – конвергенция ИИ с другими технологиями, такими как квантовые вычисления и биотехнологии, создающая новые угрозы. Пятый уровень – потеря человеческого контроля из-за скорости принятия решений ИИ.

Сергей Воронцов [10], эксперт по кибербезопасности рассказал про угрозу с которыми ему пришлось столкнуться: «В марте 2023 года мне пришлось вплотную столкнуться с реальностью угроз ИИ, когда крупный финансовый холдинг обратился с необычной проблемой: их система противодействия мошенничеству внезапно стала пропускать транзакции, ранее безошибочно идентифицируемые как подозрительные.

После двух недель расследования мы обнаружили причину: злоумышленники создали «теневую модель» — копию алгоритма банка, обученную на результатах прошлых проверок через процесс обратной инженерии. Проверяя свои транзакции через эту модель, мошенники точно знали, какие именно параметры переводов вызовут подозрение, и систематически их обходили.

Самым тревожным было то, что эта атака «модельного извлечения» была полностью автоматизирована с помощью ИИ. Система мошенников постоянно адаптировалась к изменениям защитного алгоритма банка, анализируя результаты тысяч тестовых транзакций минимального объема, которые не привлекали внимания службы безопасности.

После внедрения систем защиты от модельного извлечения и добавления алгоритмических ловушек для выявления автоматизированного зондирования, мы восстановили защищенность. Однако этот случай наглядно показал, что мы вступили в эру «ИИ против ИИ», где традиционные методы кибербезопасности уже недостаточны.» [10]

Развитие критического мышления у людей – ключевой элемент в противостоянии манипуляциям и информационным пузырям. Образовательные программы должны быть направлены на развитие навыков анализа, оценки информации и распознавания фейков. Важно научить людей понимать принципы работы ИИ и его ограничения, чтобы они могли более осознанно взаимодействовать с ним.

Концепция «этичного ИИ» предполагает создание систем, ориентированных на благополучие человека и соблюдение моральных принципов. Это включает в себя разработку алгоритмов, которые учитывают этические соображения, а также механизмы контроля и аудита, позволяющие выявлять и предотвращать потенциальные злоупотребления. Ограничение автономности ИИ необходимо для сохранения человеческого контроля над ключевыми решениями и предотвращения непредсказуемых последствий.

Вывод. Регулирование ИИ должно охватывать различные аспекты, включая прозрачность алгоритмов, защиту данных и ответственность за ошибки. Необходимо создать международные стандарты и соглашения, чтобы обеспечить глобальный контроль над развитием ИИ. Законодательство должно устанавливать четкие границы использования ИИ и предусматривать механизмы компенсации ущерба, причиненного его действиями.

Сочетание этих мер – законодательного регулирования, развития критического мышления и создания «этичного ИИ» – позволит минимизировать риски, связанные с развитием ИИ, и использовать его потенциал для решения глобальных проблем. Важно понимать, что ИИ – это инструмент, и его применение зависит от того, в чьи руки он попадет и с какой целью будет использоваться.

Литература.

  1. Станислав. Анализ влияния ИИ (LLM) на когнитивные способности в 10-летней перспективе. [Электронный ресурс]. URL: https://habr.com/ru/articles/888366

  2. ИИ-агенты, ЦОДы и облака: главные драйверы технологического будущего. [Электронный ресурс].

https://trends.rbc.ru/trends/innovation/cmrm/690c899b9a79474f293e6ee4

  1. Искусственный интеллект: технологическая революция современности. [Электронный ресурс]. URL: https://sky.pro/wiki/profession/perspektivy-razvitiya-iskusstvennogo-intellekta

  2. Ольга Пугачева. Когнитивная атрофия: новые исследования 2025 года о том, как ИИ влияет на наш мозг (обзор исследований). [Электронный ресурс]. URL: https://vc.ru/future/2022050-kognitivnaya-atrofiya-vliyanie-ii-na-myshlenie

  3. Майкл Герлих. Инструменты искусственного интеллекта в обществе: влияние на когнитивную разгрузку и будущее критического мышления. [Электронный ресурс]. URL:https://www.mdpi.com/2075-4698/15/1/6

  4. ИИ изменит рынок труда, но не сможет полностью заменить людей. [[Электронный ресурс]. URL: https://allo.tochka.com/news/ii-bez-opyta?utm_campaign=y_news_ii-bez-opyta

  5. Новые профессии: как ИИ и автоматизация меняют рынок труда. [Электронный ресурс]. URL: https://riavrn.ru/news/novye-professii-kak-ii-i-avtomatizaciya-menyayut-rynok-truda

  6. Александр Белов. Независимый аналитик и консультант. [Электронный ресурс]. URL: https://argument.media/aleksandr-belov/3037

  7. KeyMan. Какие угрозы несет в себе развитие искусственного интеллекта? [Электронный ресурс]. URL: https://habr.com/ru/articles/735904

  8. Искусственный интеллект: этические вызовы, риски и регулирование. [Электронный ресурс]. URL: https://sky.pro/wiki/profession/problemy-i-vyzovy-iskusstvennogo-intellekta

  9. AIFilosof. [Электронный ресурс]. URL: https://vc.ru/ai/1864895-opasnosti-ii-mozhet-li-on-obernutsya-protiv-nas

ISKUSSTVENNYJ INTELLEKT I EGO VLIYANIE NA BUDUSHCHEE

Hmaruk A.Z.

Olejnik N. P.

Federal'noe gosudarstvennoe byudzhetnoe obrazovatel'noe uchrezhdenie vysshego obrazovaniya «Melitopol'skij Gosudarstvennyj Universitet», (g.Melitopol', Rossiya).

Annotaciya

V etoj stat'e razbiraetsya, kak iskusstvennyj intellekt (II) menyaet nashu zhizn' — nashu rabotu, ekonomiku i obshchestvo. Rassmotreny ne tol'ko plyusy II, no i riski, kotorye s nim svyazany.

Iskusstvennyj intellekt ne stol'ko zamenyaet lyudej, skol'ko pomogaet — delaet za nih skuchnuyu rabotu, chtoby mogli zanimat'sya chem-to bolee tvorcheskim. Privodyatsya primery iz raznyh oblastej: naprimer, kak II ispol'zuyut v shkolah, bol'nicah i dazhe v yurisprudencii.

Takzhe razbirayutsya opasnosti, kotorye nesyot II: naprimer, kak nachinayushchim specialistam teper' slozhnee najti rabotu, problemy s bezopasnost'yu v internete i drugie ugrozy dlya ekonomiki. Zatronuta tema zakonov dlya II — pochemu vazhno uchit'sya dumat' kriticheski i dogovarivat'sya mezhdu stranami o pravilah ispol'zovaniya iskusstvennogo intellekta. Eto podkrepleno svezhimi dannymi iz poslednih issledovanij i mneniyami ekspertov, tak chto stat'ya poluchilas' poleznoj dlya vsekh, kto hochet ponyat', kak II vliyaet na nashu s vami professional'nuyu zhizn'.

References

1. Stanislav. Analiz vliyaniya II (LLM) na kognitivnye sposobnosti v 10-letnej perspektive. [Elektronnyj resurs]. URL: https://habr.com/ru/articles/888366

2. II-agenty, CODy i oblaka: glavnye drajvery tekhnologicheskogo budushchego. [Elektronnyj resurs]. URL: https://trends.rbc.ru/trends/innovation/cmrm/690c899b9a79474f293 e6ee4

3. Iskusstvennyj intellekt: tekhnologicheskaya revolyuciya sovremennosti. [Elektronnyj resurs]. URL: https://sky.pro/wiki/profession/perspektivy-razvitiya-iskusstvennogo-intellekta

4. Ol'ga Pugacheva. Kognitivnaya atrofiya: novye issledovaniya 2025 goda o tom, kak II vliyaet na nash mozg (obzor issledovanij). [Elektronnyj resurs]. URL: https://vc.ru/future/2022050-kognitivnaya-atrofiya-vliyanie-ii-na-myshlenie

5. Majkl Gerlih. Instrumenty iskusstvennogo intellekta v obshchestve: vliyanie na kognitivnuyu razgruzku i budushchee kriticheskogo myshleniya. [Elektronnyj resurs]. URL:https://www.mdpi.com/2075-4698/15/1/6

6. II izmenit rynok truda, no ne smozhet polnost'yu zamenit' lyudej. [Elektronnyj resurs]. URL: https://allo.tochka.com/news/ii-bez-opyta?utm_campaign=y_news_ii-bez-opyta

7. Novye professii: kak II i avtomatizaciya menyayut rynok truda. [Elektronnyj resurs]. URL: https://riavrn.ru/news/novye-professii-kak-ii-i-avtomatizaciya-menyayut-rynok-truda

8. Aleksandr Belov. Nezavisimyj analitik i konsul'tant. [Elektronnyj resurs]. URL:https://argument.media/aleksandr-belov/3037

9. KeyMan. Kakie ugrozy neset v sebe razvitie iskusstvennogo intellekta? [Elektronnyj resurs]. URL:https://habr.com/ru/articles/735904

10. Iskusstvennyj intellekt: eticheskie vyzovy, riski i regulirovanie. [Elektronnyj resurs]. URL: https://sky.pro/wiki/profession/problemy-i-vyzovy-iskusstvennogo-intellekta

11. AIFilosof. [Elektronnyj resurs]. URL: https://vc.ru/ai/1864895-opasnosti-ii-mozhet-li-on-obernutsya-protiv-nas

Просмотров работы: 10