Умеет ли ChatGPT врать?
Эта статья предназначена для объяснения некоторых принципов работы современных нейросетей, но мы не будем вдаваться в сложные формулы, так как она предназначена для новичков.
В статье раскрыто сразу несколько важных вопросов, главный из которых - Как думает нейросеть и как она выбирает ответы на вопросы
Каждый психически здоровый человек привык осознавать себя как личность с четко сформированной точкой зрения по тем или иным вопросам, в которых он разбирается. Например, если у вас 10 раз спросить "какого цвета крокодил", то вы, с высокой вероятностью, все десять раз ответите "зеленый", но так работает только логика человека.
У современных нейросетей логика устроена немного иначе, давайте разберемся в этом.
Как обучают нейросеть?
Если коротко, то ей "скармливают" все возможные варианты ответов на каждый из возможных вопросов: статьи, публикации, книги и пр. Однако сама нейросеть правильный ответ заранее знать не может, она способна лишь подсчитывать количество совпадающих ответов на похожие вопросы среди "скормленного" ей багажа знаний.
Если нейросеть наполнить лишь информацией о том, что все крокодилы синие, то она в ответ выдаст этот вариант, как единственно верный.
Если на вопрос о цветах крокодилов в матрице "знаний" нейросети 1000 раз встретится упоминание "зеленый" и лишь 100 раз "синий", то вероятнее всего ИИ выдаст верный ответ - "зеленый".
Если в природе будет существовать множество видов крокодилов с кожей всех цветов, то нейросеть предложит градацию возможных вариантов, в зависимости от контекста вопроса - промпт всегда сильно влияет на результат.
Сразу хотим отметить, что в реальности ИИ не просто слепо полагается на цифры из статистики, имеют значение и прочие факторы, об этом будет рассказано далее.
Небольшое примечание: как вы уже догадались, нейросетью легко манипулировать, если разработчики будут выдавать желаемое за действительное, например, в политических или иных целях. Именно по этой причине мы призываем не относиться к ИИ как к непредвзятому собеседнику.
🚀 У нас есть отличное предложение: бесплатное обучение по нейросетям, в том числе ChatGPT, Stable Diffusion и Dalle-3.
Подробности по ссылке: ОПИСАНИЕ КУРСА
"Почему нейросеть по-разному отвечает на один и тот же вопрос?". "Умеет ли ChatGPT врать?"
Дело в том, что у ChatGPT есть скрытый (не секретный, а именно скрытый) параметр "температура", определяющий вариативность поиска возможных вариантов ответов в базе данных.
- Приведём пример: поместите зрячего человека посреди ночи на дорогу, у которой освещено только одно направление - например то, которое ведет на север, и заставьте его куда-то идти, причём не важно куда. Он выберет именно путь на север - этот вариант соответствует низкому значению "температуры" для ChatGPT, когда вы искусственно ограничили ему пространство вариантов выбора.
- А вот второй вариант: поместите того же человека в пустом поле днём, когда солнце будет над его головой - вероятность того, что он выберет какое-то предсказуемое направление, крайне мала - это было бы аналогично бесконечно высокому значению "температуры" у ChatGPT (на самом деле это значение ограничено).
Основываясь на ранее описанном принципе, можно утверждать, что с высоким значением "температуры" на один и тот же вопрос нейросеть будет отвечать по-разному, в том числе с высокой вероятностью искажения фактов.
В @yes_ai_bot вы можете перед промптами в ChatGPT писать параметр /t *, где вместо звёздочки указывается значение температуры, подробнее рассказано в этой статье: https://teletype.in/@yes_ai_bot/chto_takoe_temperatura_v_chatgpt
Если снизить температуру, то ИИ всегда будет говорить только правду?
Данное утверждение не является верным, так как нейросеть просто выдаст самое часто встречающееся решение поставленной перед ним задачи. А будет ли это решение верным - большой вопрос.
Давайте представим, что разработчики ChatGPT ограничили ИИ базой знаний человечества до 6 века до нашей эры, еще до того, как Парменид впервые высказал предположение о шарообразности Земли. В этом случае в БД не было бы ни единого упоминания о такой ереси, как "Земля = шар". Разумеется, ChatGPT выдал бы вам однозначный ответ о том, что Земля - плоская.
Итак, ИИ имеет представление об истине только с точки зрения "статистики", сочетании токенов в вашем промпте и еще некоторых факторов. А еще нужно помнить, что его создатели контролируют "корректность" его ответов в разных целях: для предотвращения нарушения законодательства, правовых норм, политических интересов и т. д.
Есть ещё один факт: повышение "температуры" иногда очень полезно, ведь при её низком значении вы будете получать сухие и однообразные ответы, а в некоторых профессиях, например, в творческих, снижение "температуры" лишь ухудшит результаты и сделает текст менее оригинальным.
Важное примечание: у каждого сегмента данных в базе знаний ChatGPT имеются весовые коэффициенты, вычисляемые на основе различных принципов проверки фактов, например, если в ИИ попадет информация о том, что земля - это всего лишь квадратное яйцо птеродактиля, находящееся на хранении в музее пришельцев из восьмого измерения, а у этого факта появится множество научных подтверждений, опровергающих миллиарды упоминаний о шарообразности земли, то именно у свежих данных будет стоять более высокая степень доверия (весовой коэффициент).
Не менее важно: на правильность ответов ChatGPT влияет и формулировка вопросов, т.к. путем несложных манипуляций нейросеть можно переубедить или поставить перед логическими противоречиями, которые она пока не способна устранить.
Надеемся, что в нашей статье вы нашли ответы на некоторые вопросы.
Наш сайт о нейронных сетях - https://yesai.su
Полный список статей о боте @yes_ai_bot находится по этой ссылке
Подробнее о сервисе Yes Ai рассказываем в этом коротком видео
Заходите на наш 👉 Форум о нейросетях и искусственном интеллекте