chatgpt
January 6

Умеет ли ChatGPT врать?

Эта статья предназначена для объяснения некоторых принципов работы современных нейросетей, но мы не будем вдаваться в сложные формулы, так как она предназначена для новичков.

В статье раскрыто сразу несколько важных вопросов, главный из которых - Как думает нейросеть и как она выбирает ответы на вопросы

Каждый психически здоровый человек привык осознавать себя как личность с четко сформированной точкой зрения по тем или иным вопросам, в которых он разбирается. Например, если у вас 10 раз спросить "какого цвета крокодил", то вы, с высокой вероятностью, все десять раз ответите "зеленый", но так работает только логика человека.

У современных нейросетей логика устроена немного иначе, давайте разберемся в этом.

Как обучают нейросеть?

Если коротко, то ей "скармливают" все возможные варианты ответов на каждый из возможных вопросов: статьи, публикации, книги и пр. Однако сама нейросеть правильный ответ заранее знать не может, она способна лишь подсчитывать количество совпадающих ответов на похожие вопросы среди "скормленного" ей багажа знаний.

Если нейросеть наполнить лишь информацией о том, что все крокодилы синие, то она в ответ выдаст этот вариант, как единственно верный.

Если на вопрос о цветах крокодилов в матрице "знаний" нейросети 1000 раз встретится упоминание "зеленый" и лишь 100 раз "синий", то вероятнее всего ИИ выдаст верный ответ - "зеленый".

Если в природе будет существовать множество видов крокодилов с кожей всех цветов, то нейросеть предложит градацию возможных вариантов, в зависимости от контекста вопроса - промпт всегда сильно влияет на результат.

Сразу хотим отметить, что в реальности ИИ не просто слепо полагается на цифры из статистики, имеют значение и прочие факторы, об этом будет рассказано далее.

Небольшое примечание: как вы уже догадались, нейросетью легко манипулировать, если разработчики будут выдавать желаемое за действительное, например, в политических или иных целях. Именно по этой причине мы призываем не относиться к ИИ как к непредвзятому собеседнику.

🚀 У нас есть отличное предложение: бесплатное обучение по нейросетям, в том числе ChatGPT, Stable Diffusion и Dalle-3.
Подробности по ссылке: ОПИСАНИЕ КУРСА

"Почему нейросеть по-разному отвечает на один и тот же вопрос?". "Умеет ли ChatGPT врать?"

Дело в том, что у ChatGPT есть скрытый (не секретный, а именно скрытый) параметр "температура", определяющий вариативность поиска возможных вариантов ответов в базе данных.

  • Приведём пример: поместите зрячего человека посреди ночи на дорогу, у которой освещено только одно направление - например то, которое ведет на север, и заставьте его куда-то идти, причём не важно куда. Он выберет именно путь на север - этот вариант соответствует низкому значению "температуры" для ChatGPT, когда вы искусственно ограничили ему пространство вариантов выбора.

  • А вот второй вариант: поместите того же человека в пустом поле днём, когда солнце будет над его головой - вероятность того, что он выберет какое-то предсказуемое направление, крайне мала - это было бы аналогично бесконечно высокому значению "температуры" у ChatGPT (на самом деле это значение ограничено).

Основываясь на ранее описанном принципе, можно утверждать, что с высоким значением "температуры" на один и тот же вопрос нейросеть будет отвечать по-разному, в том числе с высокой вероятностью искажения фактов.

В @yes_ai_bot вы можете перед промптами в ChatGPT писать параметр /t *, где вместо звёздочки указывается значение температуры, подробнее рассказано в этой статье: https://teletype.in/@yes_ai_bot/chto_takoe_temperatura_v_chatgpt


Если снизить температуру, то ИИ всегда будет говорить только правду?

Данное утверждение не является верным, так как нейросеть просто выдаст самое часто встречающееся решение поставленной перед ним задачи. А будет ли это решение верным - большой вопрос.

Давайте представим, что разработчики ChatGPT ограничили ИИ базой знаний человечества до 6 века до нашей эры, еще до того, как Парменид впервые высказал предположение о шарообразности Земли. В этом случае в БД не было бы ни единого упоминания о такой ереси, как "Земля = шар". Разумеется, ChatGPT выдал бы вам однозначный ответ о том, что Земля - плоская.

Итак, ИИ имеет представление об истине только с точки зрения "статистики", сочетании токенов в вашем промпте и еще некоторых факторов. А еще нужно помнить, что его создатели контролируют "корректность" его ответов в разных целях: для предотвращения нарушения законодательства, правовых норм, политических интересов и т. д.

Есть ещё один факт: повышение "температуры" иногда очень полезно, ведь при её низком значении вы будете получать сухие и однообразные ответы, а в некоторых профессиях, например, в творческих, снижение "температуры" лишь ухудшит результаты и сделает текст менее оригинальным.

Важное примечание: у каждого сегмента данных в базе знаний ChatGPT имеются весовые коэффициенты, вычисляемые на основе различных принципов проверки фактов, например, если в ИИ попадет информация о том, что земля - это всего лишь квадратное яйцо птеродактиля, находящееся на хранении в музее пришельцев из восьмого измерения, а у этого факта появится множество научных подтверждений, опровергающих миллиарды упоминаний о шарообразности земли, то именно у свежих данных будет стоять более высокая степень доверия (весовой коэффициент).

Не менее важно: на правильность ответов ChatGPT влияет и формулировка вопросов, т.к. путем несложных манипуляций нейросеть можно переубедить или поставить перед логическими противоречиями, которые она пока не способна устранить.

Надеемся, что в нашей статье вы нашли ответы на некоторые вопросы.

Наш сайт о нейронных сетях - https://yesai.su

Полный список статей о боте @yes_ai_bot находится по этой ссылке

Подробнее о сервисе Yes Ai рассказываем в этом коротком видео

Функции нейросетей - обзор возможностей

Заходите на наш 👉 Форум о нейросетях и искусственном интеллекте