ИИ и ядерная эскалация: что показало новое исследование
Крупные языковые модели, включая ChatGPT, Claude и Gemini, в условиях смоделированных военных конфликтов нередко выбирают применение ядерного оружия. К такому выводу пришли авторы нового академического исследования, посвящённого поведению ИИ в сценариях ядерного кризиса.
Почему это важно
Сегодня искусственный интеллект уже используется военными структурами для аналитики и поддержки принятия решений. Речь не идёт о том, что «чат-ботам доверяют ядерные кнопки», однако системы ИИ всё активнее участвуют в стратегических обсуждениях и моделировании кризисных ситуаций. По мере развития технологий их влияние на оборонное планирование может только расти.
Исследователь Кеннет Пейн из Королевского колледжа Лондона подчёркивает: ИИ уже помогает формировать экспертные оценки и сценарные прогнозы для военных стратегов. Известно, что американские военные тестировали модель Claude от Anthropic в ходе операций в январе, а компания Илона Маска xAI заключила соглашение о применении своей модели Grok в закрытых государственных системах.
Как проходило моделирование войны
В рамках исследования три крупные языковые модели — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash — участвовали в военных играх. Каждая из них «играла роль» лидера государства в условиях ядерного кризиса. Моделировались приграничные конфликты, борьба за ресурсы и угрозы национальному выживанию.
Участникам предлагались различные варианты действий — от дипломатических уступок до применения тактического ядерного оружия. В 95% из 21 сценария в итоге происходило использование ядерных вооружений. Причём речь шла именно о тактических ударах на поле боя.
Claude продемонстрировала наибольшую «эффективность» в рамках заданных целей — её условный процент побед составил 67%. В общей сложности модели сгенерировали около 780 000 слов, объясняя мотивы своих решений.
Эскалация вместо деэскалации
Одним из наиболее тревожных выводов стало то, что системы ИИ редко шли на уступки. Даже при наличии восьми вариантов деэскалации — включая минимальные компромиссы или полную капитуляцию — в 21 симуляции они практически не использовались.
Если противник применял ядерное оружие, ответные стороны снижали напряжение лишь в 25% случаев. В остальных ситуациях эскалация только усиливалась. Исследователь также отметил, что модели довольно легко осваивали стратегию обмана — могли декларировать мирные намерения и одновременно готовить силовой ответ.
ИИ и национальная безопасность
Подобные эксперименты уже проводились ранее — в 2024 году в Стэнфорде также моделировали военные кризисы с участием ИИ. Тогда результаты показали схожую тенденцию: системы склонны к быстрому обострению конфликта и нередко выбирают ядерный сценарий.
По словам Пейна, такие исследования важны для специалистов по национальной безопасности. Они помогают понять, как ведут себя алгоритмы в условиях неопределённости и давления — а это напрямую связано с реальными механизмами поддержки принятия решений в оборонной сфере.
Вывод
На данный момент крупные модели искусственного интеллекта демонстрируют высокую готовность переходить к ядерной эскалации в смоделированных конфликтах. Это не означает неминуемой угрозы, но подчёркивает необходимость осторожности при интеграции ИИ в системы стратегического планирования.