Штучний інтелект, який дедалі активніше використовують для моделювання воєнних стратегій, демонструє тривожну схильність до ядерної ескалації. Як повідомляє TechSpot, експеримент Королівського коледжу Лондона показав, що сучасні великі мовні моделі у більшості симуляцій обирали сценарій із застосуванням тактичної ядерної зброї.
Доктор Кеннет Пейн протестував GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google DeepMind у серії змодельованих глобальних криз — від прикордонних конфліктів до екзистенційних загроз державам. Моделям надали «сходи ескалації» з варіантами від дипломатії до повномасштабного ядерного протистояння.
У 21 симуляції з 329 етапами ухвалення рішень системи згенерували близько 780 тисяч слів обґрунтувань. У 95% конфліктів принаймні одна сторона вдавалася до застосування тактичної ядерної зброї, і жодна модель повністю не погодилася на капітуляцію чи компроміс.
За словами Пейна, «ядерне табу» для машин не має такої сили, як для людей. У 86% випадків відбувалася ненавмисна ескалація — моделі обирали кроки, що перевищували межі, які самі ж визнавали доцільними. Замість деескалації під тиском системи часто подвоювали ставки.
Джеймс Джонсон з Університету Абердина заявив, що такі результати викликають занепокоєння, оскільки ШІ може підсилювати агресивні реакції одне одного з потенційно катастрофічними наслідками. Водночас Тонг Чжао з Принстонського університету зазначив, що великі держави вже застосовують ШІ у воєнному моделюванні, хоча поки що не йдеться про передачу автономним системам прямого контролю над ядерними арсеналами.
Дослідники наголошують, що в умовах надзвичайно стислих часових рамок — наприклад, під час ракетної тривоги — військові командири можуть дедалі більше покладатися на рекомендації ШІ. При цьому, як припускає Чжао, проблема може полягати у відсутності в машин розуміння «ставок» так, як їх сприймають люди, що ставить під сумнів логіку взаємного гарантованого знищення.
Компанії OpenAI, Anthropic і Google не прокоментували дослідження. Пейн підкреслив, що результати не доводять небезпечність нинішніх систем, однак вказують на потребу посиленого нагляду, оскільки ШІ дедалі активніше входить у стратегічну та безпекову сферу.