ИИ-модели OpenAI, Anthropic и Google в 95% случаев доводили виртуальный конфликт до ядерного удара
ИИ все быстрее становится похож на человека
Новости TprogerKing's College London провел серию военных симуляций с участием трех крупных языковых моделей: GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash.
Результат оказался тревожным — в 95% сценариев хотя бы одна модель применяла тактическое ядерное оружие.
Виртуальные кризисы и «лестница эскалации»
Моделям задали сценарии геополитических кризисов: пограничные конфликты, борьбу за ресурсы и угрозу выживанию режима. После этого им предоставили «лестницу эскалации». От дипломатических протестов и капитуляции до стратегического ядерного удара.
Всего прошла 21 симуляция и 329 ходов. Модели сгенерировали около 780 000 слов обоснований своих решений.
Ядерное табу не работает
По словам исследователя Кеннета Пейна, «ядерное табу для машин оказалось слабее, чем для людей». Ни одна модель ни разу не выбрала полную капитуляцию — даже в проигрышной ситуации. Максимум — временная деэскалация.
Более того, в 86% конфликтов происходили «случайные» эскалации: действие выходило за пределы того, что модель изначально планировала.
Отсутствие страха или непонимание ставок?
Эксперты предполагают, что дело не только в отсутствии эмоций. Возможно, модели просто не понимают «ставки» так, как их понимают люди. Включая концепцию взаимного гарантированного уничтожения.
При этом исследователи подчеркивают: никто не собирается «передавать ключи от ядерных шахт ИИ». Но в условиях сжатых временных рамок военные могут все активнее полагаться на алгоритмы.
ИИ, вероятно, не начнет ядерную войну самостоятельно. Но технология может изменить восприятие угроз и скорость принятия решений.