Новые модели искусственного интеллекта разработки компании OpenAI могут быть использованы для создания биологического оружия, сообщает Financial Times. В системном документе компании отмечается, что риск создания химического, биологического, радиологического и ядерного оружия возрос до уровня «средний» — это самый высокий на сегодняшний день уровень риска, присвоенный моделям OpenAI.
Новый класс ИИ, известный как «o1», обладает улучшенными способностями к решению сложных математических задач и ответам на научные вопросы. OpenAI протестировала «o1» на квалификационном экзамене для Международной математической олимпиады. В то время прошлая модель решила правильно только 13% задач, «o1» набрала 83%.
По словам создателей, модели «o1» способны выполнять пошаговое логическое мышление. Эксперты предупреждают, что это повышает риск их использования злоумышленниками.
Губернатор Калифорнии Гэвин Ньюсом должен в ближайшее время рассмотреть законопроект, который обязывает разработчиков ИИ принимать меры для минимизации рисков использования этих технологий для создания биологического оружия.
Представители технологических компаний, включая OpenAI, выражают опасения, что принятие документа замедлит развитие ИИ.
Технический директор OpenAI Мира Мурати сообщила Financial Times, что модель «o1» показала значительно лучшие результаты по безопасности по сравнению с предыдущими версиями ИИ.
Превью-версия модели «o1» уже доступна обладателям платной подписки ChatGPT.