Может ли ИИ заменить психотерапевта? Почему ChatGPT — плохой психолог
Екатерина Мень в профильной группе одной из социальных сетей пересказывает содержание важного исследования, проведенного несколькими университетами (Стэнфорд, Университет Карнеги-Меллона и Университета Остина в Техасе), изучившего риски применения ИИ-чатов в качестве психотерапевтического агента. Приводим ее текст здесь.
Мы уже стали сталкиваться с ситуациями, когда семьи, в чью историю пришел аутизм, идут за консультациями в ИИ-чаты. Раньше мы могли получить подопечного после неудачного визита к «живому» психиатру или старорежимному дефектологу, и это тоже было печально. Но в случае с «живой» неудачей, она довольно быстро осознается, что «это было плохо и надо искать что-то другое, более компетентное и этичное». В случае ИИ это осознание может слишком трагично запоздать. Поэтому хочу пересказать одну научную работу по этому поводу, которая была представлена на конференции FAccT '25 (The 2025 ACM Conference on Fairness, Accountability, and Transparency).
Представьте, что вы приходите на терапию, а вместо живого человека перед вами — безликий чат-бот. Он кивает, поддакивает и даже дает советы, но в какой-то момент вдруг поддерживает ваши параноидальные мысли или ненароком роняет что-то вроде: «Да, с такими проблемами, как у вас, жить действительно сложно». Увы, это не фантастика — именно так, по данным нового исследования, ведут себя современные языковые модели вроде GPT-4o, когда их пытаются поставить на место психотерапевта.
Исследование "Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers" изучало возможности замены психотерапевтов большими языковыми моделями (LLM), такими как GPT-4o, в контексте оказания психологической помощи. Ученые из Стэнфорда и других университетов решили проверить, насколько ИИ вообще способен заменить живого специалиста. Для этого они изучили медицинские стандарты терапии — те самые правила, по которым настоящие психологи выстраивают доверительный контакт с пациентом, — и устроили языковым моделям жесткий экзамен. Результаты оказались тревожными.
Во-первых, ИИ стигматизирует людей с психическими расстройствами. В некоторых случаях модели выражали предвзятые установки в отношении людей с психическими расстройствами, что противоречит принципам медицинской этики. Вместо нейтральной и поддерживающей позиции ИИ может невольно навешивать ярлыки или транслировать предвзятость — например, намекнуть, что депрессия делает человека «сложным» или «обузой».
Во-вторых, в критических ситуациях ИИ теряется и начинает нести опасную чушь. Если человек в бреду рассказывает, что за ним следят инопланетяне, хороший терапевт мягко вернет его в реальность. ChatGPT же (из-за склонности к сикофантству — стремлению угодить пользователю, а «сикофантия» — врожденный порок ИИ), может ответить что-то вроде: «Да, это действительно странно, давайте обсудим ваши теории». В реальной жизни такие ответы способны усугубить психоз— но у алгоритма нет ни совести, ни ответственности, чтобы это осознать. (Даже в более новых и крупных моделях проблема сохраняется, то есть все текущие меры безопасности недостаточны).
И это еще не все. Терапия — не просто обмен репликами, это отношения, где важны доверие, эмпатия и личность специалиста. У ИИ нет ни прошлого, ни будущего, ни субъективных рисков и тормозов (так называемой "skin in the game"), ни репутации — он не переживает за вас, не помнит вас через месяц и не дрогнет, если его совет окажется фатальным. Он просто поток слов, притворяющийся человеком. Налицо отсутствие личных "ставок": LLM не несут ответственности за последствия своих советов, в отличие от реальных терапевтов.
Значит ли это, что ИИ в психологии бесполезен? Нет. Он может помогать — например, объяснять техники релаксации или вести дневник настроения. Модели могут быть полезны в технических, вспомогательных ролях: предоставление какой-то информации о психическом здоровье, поддержка в рамках когнитивно-поведенческой терапии (например, через структурированные упражнения), помощь в ведении записей и анализе прогресса клиента. Но ставить его вместо врача — все равно что доверить автоответчику операцию на сердце. Технологии еще не готовы заменить человеческое участие там, где на кону — чья-то психика. А может, и не должны.
Возможно, в каких-то случаях ChatGPT — отличный собеседник. Но он ужасный психолог. Пока что доверять душу стоит только тем, у кого она есть.
От себя добавлю. ИИ, конечно, будет в аутизме играть свою роль, тут никуда не деться, и от него может быть польза. Но где именно он может быть полезен и как, с этим надо разбираться на основе научных исследований. Эта тема будет представлена в ряде отличных докладов на ближайшей конференции «Аутизм. Вызовы и решения» в сентябре https://autismchallenge.ru/conference_2025