February 1

Хватит ссылаться на ИИ

неофициальный форк сайта https://stopcitingai.com/ru/ и гита https://github.com/leoherzog/stopcitingai , для тех у кого не открывается. Все содержимое страницы принадлежит оригинальным авторам.

Вас отправили сюда, потому что вы сослались на ИИ как на источник, чтобы что-то доказать.

Ответы больших языковых моделей, таких как ChatGPT, Claude или Gemini, не являются фактами.

Они предсказывают, какие слова с наибольшей вероятностью появятся следующими в последовательности. Да, потому что так работает нейрогенерация.

Они могут генерировать убедительно звучащую информацию, но эта информация может быть неточной или ненадёжной.

Представьте человека, который прочитал тысячи книг, но не помнит, где что прочитал.


В чём они могут быть хороши?

  • Помоги мне провести мозговой штурм по этому поводу?
  • Какие общие закономерности есть в этом?
  • Изложи кратко следующее
  • Как получше сформулировать это?

В чём они могут быть плохи?

  • Скажи мне, в какой день это произошло
  • Что мне делать дальше по этому поводу?
  • Это утверждение правда?
  • Какой юридический прецедент для этого?

Конечно, вы можете получить правильный ответ или хороший совет… но какие «книги» он «вспоминает», давая этот ответ? Этот ответ или совет — это распространённое сочетание слов, а не факт.

Не копируйте и не вставляйте то, что сказал чат-бот, и не отправляйте это кому-то как авторитетное мнение.

Когда вы это делаете, вы по сути говорите: «вот куча слов, которые часто встречаются вместе в предложении, и я считаю что это факты».

Иногда это может быть полезно или проницательно. Но это не истина, и уж точно не рабочий аргумент при ведении диалога.

Дополнительная информация:

Отправьте это тому, кто только что сказал вам,
«Но Google AI Mode/Gemini/Алиса/Deepseek/Chat-GPT сказал...»

Нам нравятся большие языковые модели. Нам нравится машинное обучение.
Нам просто не нравится смотреть, как потенциально умные люди перестают использовать свой собственный мозг.


Оригинальная страница на гитхаб