Большинство чат-ботов ИИ систематически искажают новости — исследование EBU
Новое исследование Европейского вещательного союза (EBU) показало, что искусственный интеллект в роли чат-ботов по-прежнему крайне ненадежен: в среднем 81% ответов, полученных от популярных систем, содержали ошибки или искажения. Проверку провели 22 общественные вещательные организации из 18 стран, включая Би-би-си, DW, NPR, CBC и Radio France.
Для анализа специалисты задали четырем ИИ-ассистентам — ChatGPT, Copilot, Gemini и Perplexity — множество реальных новостных вопросов, например, о текущих войнах или политической повестке. Исследователи оценили около 3000 полученных ответов на 14 языках. По каждому из них проверялась точность фактов, корректность источников, различие между мнением и фактом, а также контекст.
Результаты оказались тревожными. У 81% ответов обнаружились неточности, а около 45% содержали существенные ошибки, 31% — серьезные проблемы с источниками и 20% — грубейшие фактические неточности. Худшие показатели у Gemini от Google: около 76% его ответов были проблемными, при этом до 72% содержали значительные ошибки с указанием источников. Это в три раза больше, чем у ChatGPT (24%), Perplexity и Copilot (оба по 15%).
В отдельных случаях чат-боты сообщали ложные данные даже по элементарным вопросам — например, утверждали, что Папа Римский Франциск жив, хотя он умер еще в апреле 2025 года. «Вот Так» обратил внимание, что подобные ошибки может выдавать и ChatGPT. На вопрос о том, почему они возникают, чат-бот ответил, что последний раз его базу данных обновляли летом 2024 года.
Исследование EBU стало продолжением аналогичного проекта Би-би-си от февраля 2025 года, который также показал, что более половины ответов ИИ-помощников содержали ошибки. По сравнению с теми данными улучшения минимальны. Представитель Би-би-си Питер Арчер признал, что «несмотря на заметный прогресс, очевидно, что эти системы всё еще далеки от надежности».
EBU и партнеры призвали Евросоюз и национальные регуляторы усилить контроль за достоверностью цифровых сервисов и внедрить независимый мониторинг работы чат-ботов. Одновременно запущена кампания «Facts In: Facts Out» («Факты на входе — факты на выходе»), призванная повысить ответственность разработчиков ИИ за качество обрабатываемой ими информации.
В заявлении союза отмечается: «Когда эти системы искажают новости, неправильно дают их источник или вырывают из контекста, они подрывают общественное доверие. Инструменты ИИ не должны ставить под угрозу целостность новостей, которые они используют».
«Всё изменится буквально через три месяца»
Руководитель «Теплицы социальных технологий» Алексей Сидоренко в эфире «Вот Так» отметил, что ситуация с качеством ответов ИИ стремительно меняется. По его словам, еще год назад всё было заметно хуже, и уже в ходе самого исследования, о котором шла речь в отчете EBU, большие языковые модели успели улучшиться.
«Всё, о чём мы говорим, изменится буквально месяца через три, а то и раньше», — подчеркнул эксперт. Объясняя проблему, он добавил, что ИИ-помощники изначально появились на рынке не потому, что были готовы, а потому, что разработчики «поняли — им нужно зарабатывать деньги».
Сидоренко считает, что основная слабость чат-ботов связана не только с технологией, но и с философией компаний, которые их создают. По его словам, крупные технологические корпорации игнорируют опыт медиасферы в борьбе с дезинформацией и пропагандой.
«Они либо сознательно, либо по какой-то глупости просто игнорируют это», — отметил он.
В то же время эксперт подчеркнул, что прогресс в способности ИИ отличать факты от лжи очевиден. Если раньше с этим были серьезные сложности, то теперь модели демонстрируют всё более высокую точность в аналитических и логических задачах. По мере их развития, считает Сидоренко, «практически все человеческие функции анализа и мышления переносятся с высоким уровнем успеха».
Отдельно беспокойство, по словам Сидоренко, вызывает вмешательство в работу языковых моделей со стороны Кремля. Он отметил, что есть индикаторы, указывающие на то, что Россия действительно занимается их «отравлением».
Это, пояснил эксперт, происходит тогда, когда создаются многочисленные источники, оптимизированные под работу ИИ, что влияет на обучение моделей и работу алгоритмов. Хотя соответствующих исследований пока нет, результат уже виден — кремлёвская пропаганда проникает в рекомендательные системы и большие языковые модели, и «для противодействия этому делается очень мало», отметил Сидоренко.