Нові моделі штучного інтелекту розробки компанії OpenAI можуть бути використані для створення біологічної зброї, повідомляє Financial Times. У системному документі компанії зазначено, що ризик створення хімічної, біологічної, радіологічної та ядерної зброї зріс до рівня «середній» – це найвищий на сьогодні рівень ризику, присвоєний моделям OpenAI.
Новий клас ШІ, відомий як «o1», має поліпшені здібності до розв’язання складних математичних завдань і відповідей на наукові запитання. OpenAI протестувала «o1» на кваліфікаційному іспиті для Міжнародної математичної олімпіади. У той час як минула модель розв’язала правильно тільки 13% завдань, «o1» набрала 83%.
За словами творців, моделі «o1» здатні виконувати покрокове логічне мислення. Експерти попереджають, що це підвищує ризик їх використання зловмисниками.
Губернатор Каліфорнії Гевін Ньюсом має найближчим часом розглянути законопроєкт, який зобов’язує розробників ШІ вживати заходів для мінімізації ризиків використання цих технологій для створення біологічної зброї.
Представники технологічних компаній, включно з OpenAI, висловлюють побоювання, що ухвалення документа сповільнить розвиток ШІ.
Технічна директорка OpenAI Міра Мураті повідомила Financial Times, що модель «o1» показала значно кращі результати з безпеки порівняно з попередніми версіями ШІ.
Превью-версія моделі «o1» вже доступна власникам платної підписки ChatGPT.