Искусственный интеллект научился лгать: правда пугает сильнее вымысла
Искусственный интеллект (ИИ) продолжает удивлять своими возможностями, но вместе с тем вызывает всё больше вопросов о своей надёжности.
Фото: commons.wikimedia.org by Uses of Wikidata Infobox is licensed under From Wikimedia Commons, the free media repository
Новое исследование, проведённое компанией OpenAI, выявило тревожную тенденцию: чем сложнее становятся языковые модели, такие как ChatGPT или Gemini, тем чаще они допускают так называемые "галлюцинации" — выдают ложную информацию, которая при этом звучит крайне убедительно.
Согласно данным OpenAI, две новейшие модели, o3 и o4-mini, в определённых тестах демонстрируют "галлюцинации" в 33% и 48% случаев соответственно. Это в два-три раза больше, чем у их предшественников. Такие показатели вызывают серьёзные опасения, особенно учитывая, что ИИ всё чаще используется в чувствительных сферах, таких как медицина, юриспруденция и научные исследования, где ошибки могут иметь серьёзные последствия.
В контексте ИИ термин "галлюцинация" означает генерацию информации, которая не соответствует действительности, но представлена в убедительной и логичной форме. Это может быть вымышленная статистика, несуществующая цитата, выдуманный источник или даже ошибочное решение математической задачи, поданное с полной уверенностью.
Хотя это явление давно известно специалистам, его масштабы становятся всё более проблематичными по мере совершенствования ИИ. Чем лучше модель структурирует речь и рассуждает, тем правдоподобнее выглядят её ошибки, что делает их особенно опасными для пользователей, не обладающих достаточной экспертизой.
Важно понимать, что такие ошибки не являются случайными сбоями. Как поясняют исследователи, они заложены в саму природу работы больших языковых моделей (LLM). Эти системы не "знают" факты, как поисковые системы, а предсказывают наиболее вероятную последовательность слов на основе огромного объёма данных, использованных при обучении.
Чтобы создавать оригинальный контент — например, стихи, сценарии или решения задач, — ИИ должен выходить за рамки шаблонов, что иногда приводит к "творческим" отклонениям, напоминающим мечты человеческого мозга. Именно эта способность делает ИИ мощным инструментом для инноваций, но одновременно снижает его точность.
Специалист по этике ИИ из IEEE отметила, что причина этих ошибок кроется не в недостатке данных, а в чрезмерной сложности рассуждений, которые генерируют самые продвинутые модели.
Другой исследователь подчеркнул, что всё, что создаёт ИИ, по сути, является "галлюцинацией", но лишь часть этих результатов оказывается верной. Этот парадокс лежит в основе современных вызовов в области ИИ: для инноваций модель должна быть творческой, но для надёжности — строго точной.
Тем не менее, учёные считают, что проблему можно минимизировать. Одним из перспективных решений является технология генерации с дополненной выборкой (RAG), которая позволяет ИИ обращаться к проверенным базам данных для подтверждения информации, вместо того чтобы полагаться только на свои внутренние модели.
Также обсуждаются подходы, при которых ИИ будет объяснять свои рассуждения, сравнивать несколько вариантов ответов или указывать на неуверенность в своих выводах, что сделает его более "скромным". Однако на данный момент ни один из этих методов не гарантирует полной защиты от ошибок.
Пока технологии совершенствуются, исследователи подчёркивают, что лучшим способом защиты от "галлюцинаций" ИИ остаётся критическое мышление. Они советуют относиться к ответам ИИ с той же долей скептицизма, что и к информации от человека, и всегда проверять факты, особенно если данные кажутся слишком идеальными. Ответственность за принятие решений, как отмечают специалисты, остаётся на людях, а не на машинах, которые пока лишь генерируют текст, а не истину.