Фальшивки от ChatGPT: отчет Белого дома вызвал скандал в США

В США разгорелся скандал вокруг масштабного отчета Белого дома по здравоохранению, часть научных ссылок в котором, как оказалось, могли создать с помощью искусственного интеллекта. Об этом сообщает The Washington Post со ссылкой на анализ документа и комментарии экспертов.

Речь идет об отчете «MAHA Report: Making Our Children Healthy Again», посвященном проблемам здоровья американских детей. В нем более 500 ссылок на научные источники, однако по меньшей мере 37 из них повторяются, некоторые имеют неправильных авторов, а часть исследований — вымышленные. Некоторые ссылки содержали характерную метку «oaicite», что свидетельствует об использовании генеративного ИИ, в частности инструментов OpenAI.

Часть из несуществующих ссылок уже была заменена после того, как отчет начали критиковать в медиа. Например, вымышленное исследование о назначении стероидов детям с астмой впоследствии заменили на реальную публикацию в журнале Pediatrics. Также исправили автора в нескольких других материалах.

Документ готовила комиссия из представителей правительственных научных учреждений, под председательством министра здравоохранения Роберта Ф. Кеннеди-младшего — известного критика вакцин и распространителя научно сомнительных утверждений. Отчет вышел во исполнение указа Дональда Трампа и призван исследовать причины ухудшения здоровья детей в США.

В отчете обвиняют вредные вещества в окружающей среде, плохое питание и чрезмерное время перед экранами. Впрочем, после обнаруженных ошибок его содержание поставили под сомнение ученые, политики и журналисты.

«Это не научный отчет. Его нельзя использовать ни для формирования политики, ни для серьезного обсуждения», — заявил Жорж Бенжамин, исполнительный директор Американской ассоциации общественного здоровья.

Сенатор Элизабет Уоррен назвала ситуацию «позорной» и выразила возмущение тем, что «американские родители должны думать о фейковой науке в отчетах Белого дома».

Пресс-секретарь администрации Каролин Левитт признала «определенные проблемы с форматированием», но заверила, что основные выводы документа остаются в силе.

Несмотря на критику, Министерство здравоохранения продолжает защищать отчет и заявляет, что это «исторический документ», который впервые на таком уровне пытается системно описать проблему хронических заболеваний среди детей.

Эксперты предупреждают: эта история — предостережение для тех, кто полагается на ИИ в правительственных документах. Искусственный интеллект может помогать в работе, но требует тщательной проверки.

«У ИИ нет понятия доказательства, он не различает вес доказательств и легко придумывает убедительные, но фальшивые ссылки», — пояснил профессор Стивен Пиантоадози из Калифорнийского университета в Беркли.