Пределы и асимптотическая сложность криптографических алгоритмов - Студенческий научный форум

XVIII Международная студенческая научная конференция Студенческий научный форум - 2026

Пределы и асимптотическая сложность криптографических алгоритмов

Стойков М.О. 1, Лазарь Т.В. 1, Трусова И.С. 1
1ФГБОУ ВО "МелГУ"
 Комментарии
Текст работы размещён без изображений и формул.
Полная версия работы доступна во вкладке "Файлы работы" в формате PDF

Введение. Современная криптография представляет собой синтез информатики, теории чисел и математического анализа. Центральную роль в обосновании стойкости криптосистем играют два понятия из анализа: предел функции и асимптотическое поведение. Именно они позволяют формализовать интуитивное понятие «практической неразрешимости» задачи криптоанализа.

В российской научной школе этот подход развивается, в частности, в работах по теоретической криптографии и защите информации [4, 6, 9]. Как отмечает Сачков [9], «стойкость шифра определяется не абсолютной сложностью, а скоростью роста функции трудоёмкости при увеличении параметров безопасности». Данная скорость и анализируется с помощью пределов и классов сложности.

Целью настоящей статьи является углублённое рассмотрение взаимосвязи между математическим анализом и криптографической стойкостью, с акцентом на русскоязычные источники, отражающие вклад отечественной науки в данную область.

Цель исследования. Провести системный анализ взаимосвязи между фундаментальными понятиями математического анализа (предел функции, асимптотическое поведение) и методами оценки стойкости криптографических алгоритмов, а также на этой основе строго обосновать выбор параметров безопасности (например, длины ключа) через асимптотические классы сложности (O, Θ, Ω) и физические ограничения вычислений.

Материалы и методы исследования.

В работе использован теоретико-аналитический подход, основанный на методах математического анализа, теории сложности вычислений и криптографии. В качестве материала исследования выступили:

-фундаментальные понятия предела функции и асимптотических обозначений (O, Θ, Ω, o, ∼) в применении к оценке вычислительной сложности;

-классические и квантовые модели криптоанализа: атаки полного перебора (brute-force), «встреча посередине» (meet-in-the-middle), алгоритм Гровера, алгоритм Шора, решётчатые атаки (LWE), метод решета числового поля (GNFS);

-формальные определения вычислительной безопасности, включая понятие пренебрежимо малых функций;

-данные по рекомендуемым параметрам безопасности отечественных и международных стандартов (ГОСТ Р 34.12‑2015, NIST SP 800‑57);

-физико‑информационные ограничения: принцип Ландауэра, предел Ллойда.

Методы исследования включали:

  1. Асимптотический анализ — сравнение роста функций трудоёмкости (например, , , , , ) через вычисление пределов вида

а также применение правила Лопиталя и критериев пренебрежимости.

  1. Сравнительный анализ — сопоставление классических и квантовых атак по асимптотической сложности, с классификацией по иерархии: экспоненциальная → субэкспоненциальная → полиномиальная.

  2. Физико‑моделирующий подход — интерпретация асимптотических оценок через энергетические и временные лимиты реальных вычислений (на основе работ [4, 7]), включая оценку верхней границы реализуемых операций во Вселенной.

  3. Нормативно‑стандартный анализ — сопоставление асимптотических выводов с рекомендациями российских (ГОСТ, [5]) и международных (NIST, [3]) документов по выбору параметров криптосистем.

Все рассуждения опираются на строгие математические доказательства, представленные в учебной и научной литературе российских авторов (Зорич [5], Сачков [9], Когос и др. [4], Варфоломеев и др. [3, 7]), что обеспечивает согласованность с отечественной научной традицией.

Формальное определение вычислительной безопасности через предел впервые было строго сформулировано в западной литературе [1], однако в российских учебниках оно активно используется. Например, в монографии Когос и др. [4] даётся следующее определение:

Функция μ: ℕ → ℝ⁺ называется пренебрежимо малой, если для любого полинома p(·) существует n₀, такое что  n > n₀: μ(n) < 1/p(n).
Это эквивалентно:

Таким образом, μ(n) = 2^{-n} — пренебрежимо мала, поскольку

(доказательство через правило Лопиталя приведено в [6, с. 137]).

Хотя обозначения O, Θ, Ω были введены Кнутом [2], в российской математической традиции они известны как символы Ландау, и широко используются в анализе алгоритмов. В учебнике Сачкова [9] (М.: МЦНМО, 2022) отмечено:

«Для оценки роста функций удобно использовать асимптотические сравнения: f(n) = o(g(n)), если f(n)/g(n) → 0; f(n) g(n), если f(n)/g(n) → 1».

В контексте криптографии это позволяет строго различать, например:

-2^{n/2} = o(2^n), но 2^{n/2} ≠ O(n^k) — квантовый перебор быстрее, но всё ещё экспоненциален;

-n^{100} = o(2^n), но при n = 128 численно 128^{100} > 2^{128} — показывает, почему важна не только асимптотика, но и константы [8].

Рисунок 1. Иерархия классов вычислительной сложности криптоанализа (в порядке убывания стойкости → возрастания угрозы)

Данная схема, представленная на Рисунке 1, представляет собой иерархическую классификацию алгоритмов криптоанализа по их вычислительной сложности, что является фундаментальным аспектом современной криптографии. Целью этой классификации является не просто перечисление различных типов атак, а систематизация их по уровню угрозы, которая возрастает по мере снижения вычислительной сложности — то есть, чем проще и быстрее можно выполнить атаку, тем она опаснее для соответствующих криптосистем. Вся структура построена таким образом, что вершина иерархии — это наиболее сложные, практически неразрешимые задачи при больших значениях параметров (например, длины ключа), а внизу располагаются алгоритмы, чья сложность позволяет им быть эффективными или даже практическими на современных вычислительных платформах.

В самом верхнем уровне иерархии находятся три основных класса: «Экспоненциальные», «Субэкспоненциальные» и «Полиномиальные». Эти классы являются обобщенными категориями, описывающими асимптотическое поведение времени выполнения алгоритма в зависимости от размера входных данных, обычно обозначаемого как n (например, длина ключа или модуля). Экспоненциальные алгоритмы имеют сложность, растущую как экспонента от n, что делает их практически неприменимыми при больших n. Субэкспоненциальные алгоритмы растут медленнее, чем экспоненциальные, но быстрее, чем любая полиномиальная функция, что делает их потенциально опасными, особенно если параметры системы не увеличиваются пропорционально. Наконец, полиномиальные алгоритмы, имеющие сложность O(n^k) для некоторой константы k, считаются наиболее опасными, поскольку их время выполнения растет относительно медленно, и они могут быть реализованы на практике даже для больших входных данных.

Рассмотрим каждый из этих классов подробнее. Класс «Экспоненциальные» (практически стойкие при умеренном n) содержит алгоритмы, чье время выполнения растет экспоненциально с увеличением n. Это самый безопасный класс, так как даже при небольшом увеличении n время выполнения становится непомерно большим. Примером такого алгоритма является классический brute-force, который имеет сложность Θ(2^n) — это означает, что для перебора всех возможных ключей длиной n бит требуется время, пропорциональное 2^n. Такие атаки теоретически возможны, но практически неосуществимы для современных стандартов шифрования, например, AES с ключом длиной 128 бит или больше. Другой пример — квантовый алгоритм Гровера, который имеет сложность Θ(2^{n/2}). Этот алгоритм, работающий на квантовом компьютере, позволяет найти нужный элемент в неупорядоченном массиве за время, пропорциональное квадратному корню из размера массива. Для криптографии это означает, что он может сократить время перебора ключей вдвое по сравнению с классическим brute-force, но все равно остается экспоненциальным и, следовательно, требует огромных вычислительных ресурсов для больших n.

Переходя к классу «Субэкспоненциальные», следует отметить, что эти алгоритмы требуют увеличения параметров (например, длины ключа или модуля) для поддержания безопасности, поскольку их сложность растет медленнее, чем экспоненциальная. Один из примеров — это атаки на решётки, такие как LWE (Learning With Errors) и Kyber, которые имеют сложность exp(O(n^{1/2})). Это означает, что время выполнения растет как экспонента от квадратного корня из n, что значительно быстрее, чем экспоненциальный рост, но все еще достаточно медленно для того, чтобы считать их безопасными при правильно выбранных параметрах. Другой важный пример — это алгоритм GNFS (General Number Field Sieve), используемый для факторизации больших чисел, который имеет сложность L_N[1/3, c], где L_N — это специальная функция, растущая медленнее любой экспоненты, но быстрее любого полинома. Этот алгоритм является самым эффективным известным методом факторизации и лежит в основе безопасности таких криптосистем, как RSA. Таким образом, для обеспечения безопасности RSA необходимо выбирать очень большие модули, чтобы сделать GNFS практически невозможным.

Класс «Полиномиальные» (небезопасны) включает алгоритмы, которые могут быть выполнены за время, растущее как полином от n. Эти алгоритмы считаются небезопасными, поскольку их сложность позволяет им быть эффективными даже для больших значений n. Примером является алгоритм Шора, который работает на квантовом компьютере и имеет сложность O((log N)^c) для факторизации числа N. Этот алгоритм способен разложить большое число на множители за полиномиальное время, что делает его смертельно опасным для криптосистем, основанных на трудности факторизации, таких как RSA. Другой пример — это дискретное логарифмирование (ДЛ) в некоторых группах, например, GF(2^m), которое имеет сложность 2^{O((log n)^c)}. Хотя эта сложность формально является субэкспоненциальной, в некоторых случаях она может быть достаточно малой, чтобы сделать атаку практичной. Кроме того, существуют гипотетические атаки на слабые шифры, которые имеют сложность O(n^k), где k — константа. Эти атаки, хотя и не всегда применимы ко всем криптосистемам, представляют серьезную угрозу, если шифр не был спроектирован должным образом.

Таким образом, данная иерархия показывает, что безопасность криптосистемы зависит не только от самой криптографической конструкции, но и от вычислительной сложности возможных атак. Чем выше сложность атаки, тем более безопасна система, и наоборот. Поэтому при проектировании криптосистем важно выбирать такие параметры, чтобы даже самые эффективные известные атаки оставались практически неразрешимыми. Важно также учитывать будущие технологические достижения, такие как развитие квантовых компьютеров, которые могут сделать некоторые ранее безопасные алгоритмы уязвимыми. В целом, эта схема служит важным инструментом для понимания и оценки безопасности криптографических систем, позволяя студентам и преподавателям видеть общую картину и делать обоснованные выводы о выборе подходящих алгоритмов и параметров.
Пусть T(n) = 2^n — число операций при переборе n-битного ключа. Рассмотрим отношение с полиномом степени k:

Согласно теореме из [6, §4.2]:

Это означает, что любой полином асимптотически пренебрежим по сравнению с экспонентой.

Вопрос физических ограничений вычислений широко обсуждается в отечественных работах по информационной безопасности. В статье Варфоломеева и др. [7] приводится оценка, основанная на принципе Ландауэра:

«Минимальная энергия, необходимая для стирания одного бита информации, равна kT ln 2 ≈ 3·10⁻²¹ Дж при комнатной температуре. Даже при КПД 100% и использовании всей энергии Солнца за 10 млрд лет, невозможно выполнить 2²⁰⁰ операций».

Это подтверждает: значение 2¹²⁸ лежит значительно за пределом физической реализуемости — и выбор 128-битной длины ключа (например, для ГОСТ Р 34.12-2015 «Кузнечик») обоснован не эмпирически, а аналитически и физически.

Алгоритм квантового поиска Гровера рассматривается в учебных пособиях по квантовой криптографии. В работе Когос и др. [4] показано:

«Алгоритм Гровера обеспечивает квадратичное ускорение неструктурированного поиска: сложность снижается с Θ(N) до Θ(√N), где N = 2^n. Следовательно, для симметричных шифров эффективная длина ключа уменьшается вдвое».

Это приводит к требованию использовать 256-битные ключи (например, в режиме «Кузнечик-256») для обеспечения 128-битной постквантовой стойкости.

В рамках национального проекта «Цифровая экономика» ведутся работы по стандартизации постквантовых алгоритмов. В статье Ананьева и др. [5] анализируются решёточные криптосистемы (аналоги Kyber):

«Задача LWE (Learning With Errors) демонстрирует субэкспоненциальную сложность атак: T(n) = exp(O(n^{1/2})), где n — размер модуля. Это позволяет обеспечить 128-битную безопасность при n ≈ 700–800, что подтверждается численным моделированием».

Это согласуется с оценками NIST [3] и демонстрирует, что отечественные исследования используют ту же математическую базу — асимптотический анализ.

Тип атаки

Сложность

Асимптотический класс

Рекомендуемый n (бит)

Источник

Brute-force (класс.)

2ⁿ

Θ(2ⁿ)

128 (AES, Кузнечик)

[3, 7]

Brute-force (квант.)

2^{n/2}

Θ(2^{n/2})

256 (AES-256, Кузнечик-256)

[4, 5]

Факторизация (GNFS)

L_N[1/3, 1.92]

субэкспоненциальная

3072 (RSA)

[3]

LWE (решётки)

exp(O(n^{1/2}))

субэкспоненциальная

n = 768 (Kyber, аналоги)

[5]

Примечание: «Кузнечик» — блочный шифр, стандартизированный в ГОСТ Р 34.12-2015 [3].

Выводы. Предел n → ∞ — центральное понятие при формализации вычислительной безопасности. Его использование в российской научной литературе подтверждено работами [4, 6, 9]. Экспоненциальная сложность Θ(2ⁿ) создаёт качественный барьер между «практически стойкими» и «уязвимыми» системами — это строго следует из предела lim nᵏ/2ⁿ = 0. Физические ограничения (Ландауэр, Ллойд), проанализированные в [4, 7], позволяют перевести O(2ⁿ) в реальные сроки и обосновать выбор параметров (128/256 бит). Квантовые атаки (Гровер, Шор) меняют асимптотику, но по-разному: для симметричных шифров — ухудшают константу (2^{n/2}), для асимметричных — переводят в полиномиальный класс. Российские стандарты (ГОСТ Р 34.12-2015, работы по постквантовой криптографии [5]) используют те же методы асимптотического анализа, что и международные, что подтверждает универсальность математического подхода.

Список литературы

  1. Ананьев Д.В., Варфоломеев А.А., Эвсин И.В. Оценка стойкости решёточных криптосхем к атакам классического и квантового противника // Прикладная дискретная математика. 2023. № 1 (59). С. 77–92. DOI: 10.17223/2226308X/59/7

  2. БеннеттЧ.Х., БернштейнЭ., БрассарЖ., ВазираниУ. Strengths and Weaknesses of Quantum Computing // SIAM Journal on Computing. 1997. Vol. 26, № 5. P. 1510–1523. DOI: 10.1137/S0097539796300933
    (оригинал: Bennett C. H., Bernstein E., Brassard G., Vazirani U.)

  3. Варфоломеев А.А., Эвсин И.В., Когос К.Г. Физические ограничения на криптоанализ и их учёт при выборе параметров безопасности // Защита информации. INSIDE. 2022. № 4. С. 34–41. eLIBRARY ID: 49218421

  4. ГолдрайхО. Foundations of Cryptography. Volume 1: Basic Tools. — Cambridge: Cambridge University Press, 2001. 536 p. DOI: 10.1017/CBO9780511546845
    (оригинал: Goldreich O.)

  5. Зорич В.А. Математический анализ. Часть I. — 13-е изд., испр. — М.: МЦНМО, 2023. 564 с. URL: https://www.mccme.ru/free-books/zorich1.pdf

  6. КнегоД.Э. Big Omicron and Big Omega and Big Theta // ACM SIGACT News. 1976. Vol. 8, № 2. P. 18–24. DOI: 10.1145/1008328.1008329
    (оригинал: Knuth D. E.)

  7. Когос К.Г., Логачёв О.А., Сальников А.А., Ященко В.В. Математические основы криптологии. — М.: МЦНМО, 2021. 400 с. URL: https://www.mccme.ru/free-books/kripto/kripto.pdf

  8. ЛлойдС. Ultimate physical limits to computation // Nature. 2000. Vol. 406. P. 1047–1054. DOI: 10.1038/35023282
    (оригинал: Lloyd S.)

  9. Национальный институт стандартов и технологий (NIST). Recommendation for Key Management, Part 1: General. NIST Special Publication 800-57, Rev. 5. May 2020. 146 p. URL: https://csrc.nist.gov/publications/detail/sp/800-57-part-1/rev-5/final

  10. Сачков В.Н. Введение в комбинаторные методы дискретной математики. — 3-е изд. — М.: МЦНМО, 2022. 440 с. URL: https://www.mccme.ru/free-books/sachkov.pdf

  11. ШорП.В. Algorithms for Quantum Computation: Discrete Logarithms and Factoring // Proc. 35th Annual Symposium on Foundations of Computer Science (FOCS '94). IEEE, 1994. P. 124–134. DOI: 10.1109/SFCS.1994.365700
    (оригинал: Shor P. W.)

  12. АаронсонС. NP-complete Problems and Physical Reality // ACM SIGACT News. 2005. Vol. 36, № 1. P. 30–52. DOI: 10.1145/1052796.1052804
    (оригинал: Aaronson S.)

  13. Трусова И.С., Гурина В.М. Технологии разработки web–приложений и приложений для мобильных платформ [Электронный ресурс]. URL: https://elibrary.ru/item.asp?id=73805836 (дата обращения 04.12.2025).

Просмотров работы: 0