Искусственный интеллект, который все чаще используют для моделирования военных стратегий, демонстрирует тревожную склонность к ядерной эскалации. Как сообщает TechSpot, эксперимент Королевского колледжа Лондона показал, что современные крупные языковые модели в большинстве симуляций выбирали сценарий с применением тактического ядерного оружия.
Доктор Кеннет Пейн протестировал GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google DeepMind в серии смоделированных глобальных кризисов — от пограничных конфликтов до экзистенциальных угроз государствам. Моделям предоставили «лестницу эскалации» с вариантами от дипломатии до полномасштабного ядерного противостояния.
В 21 симуляции с 329 этапами принятия решений системы сгенерировали около 780 тысяч слов обоснований. В 95% конфликтов как минимум одна сторона прибегала к применению тактического ядерного оружия, и ни одна модель полностью не соглашалась на капитуляцию или компромисс.
По словам Пейна, «ядерное табу» для машин не столь значимо, как для людей. В 86% случаев происходила непреднамеренная эскалация — модели выбирали шаги, превышающие те рамки, которые сами же признавали уместными. Вместо деэскалации под давлением системы нередко удваивали ставки.
Джеймс Джонсон из Университета Абердина заявил, что такие результаты вызывают обеспокоенность, поскольку ИИ может усиливать агрессивные реакции друг друга с потенциально катастрофическими последствиями. В то же время Тун Чжао из Принстонского университета отметил, что крупные державы уже используют ИИ в военном моделировании, хотя речи о передаче автономным системам прямого контроля над ядерными арсеналами пока не идет.
Исследователи подчеркивают, что в условиях крайне сжатых временных рамок — например, при ракетной тревоге — военные командиры могут все чаще полагаться на рекомендации ИИ. При этом, по словам Чжао, проблема может заключаться в отсутствии у машин понимания «ставок» так, как их воспринимают люди, что ставит под сомнение логику взаимного гарантированного уничтожения.
Компании OpenAI, Anthropic и Google не прокомментировали исследование. Пейн подчеркнул, что результаты не доказывают опасность нынешних систем, однако указывают на необходимость усиленного контроля по мере того, как ИИ все активнее входит в стратегическую и оборонную сферу.