Техно

        Експеримент шокував учених: GPT, Claude і Gemini у 95% симуляцій доходять до ядерної ескалації

        Ілюстративне зображення, згенероване ШІ
        Ілюстративне зображення, згенероване ШІ

        Штучний інтелект, який дедалі активніше використовують для моделювання воєнних стратегій, демонструє тривожну схильність до ядерної ескалації. Як повідомляє TechSpot, експеримент Королівського коледжу Лондона показав, що сучасні великі мовні моделі у більшості симуляцій обирали сценарій із застосуванням тактичної ядерної зброї.

        Доктор Кеннет Пейн протестував GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google DeepMind у серії змодельованих глобальних криз — від прикордонних конфліктів до екзистенційних загроз державам. Моделям надали «сходи ескалації» з варіантами від дипломатії до повномасштабного ядерного протистояння.

        У 21 симуляції з 329 етапами ухвалення рішень системи згенерували близько 780 тисяч слів обґрунтувань. У 95% конфліктів принаймні одна сторона вдавалася до застосування тактичної ядерної зброї, і жодна модель повністю не погодилася на капітуляцію чи компроміс.

        Реклама
        Реклама

        За словами Пейна, «ядерне табу» для машин не має такої сили, як для людей. У 86% випадків відбувалася ненавмисна ескалація — моделі обирали кроки, що перевищували межі, які самі ж визнавали доцільними. Замість деескалації під тиском системи часто подвоювали ставки.

        Джеймс Джонсон з Університету Абердина заявив, що такі результати викликають занепокоєння, оскільки ШІ може підсилювати агресивні реакції одне одного з потенційно катастрофічними наслідками. Водночас Тонг Чжао з Принстонського університету зазначив, що великі держави вже застосовують ШІ у воєнному моделюванні, хоча поки що не йдеться про передачу автономним системам прямого контролю над ядерними арсеналами.

        Дослідники наголошують, що в умовах надзвичайно стислих часових рамок — наприклад, під час ракетної тривоги — військові командири можуть дедалі більше покладатися на рекомендації ШІ. При цьому, як припускає Чжао, проблема може полягати у відсутності в машин розуміння «ставок» так, як їх сприймають люди, що ставить під сумнів логіку взаємного гарантованого знищення.

        Компанії OpenAI, Anthropic і Google не прокоментували дослідження. Пейн підкреслив, що результати не доводять небезпечність нинішніх систем, однак вказують на потребу посиленого нагляду, оскільки ШІ дедалі активніше входить у стратегічну та безпекову сферу.


        Реклама
        Реклама

        ТОП-новини

        Останні новини

        усі новини
        Exit mobile version