July 25

🧠 Когда ряды Фурье не сходятся, или почему ИИ несёт чушь с серьёзным видом

Иногда кажется, что нейросеть несёт бред. Ну такой, на вид умный.

Вы спрашиваете её про философию — она цитирует Хайдеггера:

«Das Nichts nichtet das Sein aus dem Dasein heraus».

Вы спрашиваете про нейрофизиологию — она отвечает:

«Согласно голографической теории памяти Прибрама, память мозга распределена как интерференционная карта».

Вы просите источник — она кидает:

«Chomsky, 1984. Cognitive Structures and Embodied Semantics

Убедительно? Более чем. Правда ли это? Нет. Этого не существует. Ни статьи, ни цитаты, ни теории в таком виде. Это — галлюцинация. Но особенная: она выглядит как правда. И это не случайность.

Это я попросил Чатика сгенерировать немного глюков, похожих на правду

🤯 Это не ошибка, это приближение

Мой приятель с математическим образованием сказал как-то практически гениальную фразу:

«Когда ИИ галлюцинирует, это не глюк — это значит, что ряды Фурье не сходятся. Алгоритм пытается аппроксимировать слишком сложную функцию — и выдаёт лучшее приближение, которое может».

В переводе с математического:

  • Нейросеть не "понимает смысл".
  • Она видит контекст как точку в N-мерном пространстве признаков.
  • И продолжает его в том направлении, которое кажется ей наиболее вероятным.
  • Даже если этой вероятности всего 0.002.

🤥 Почему же она так уверенно врёт?

Потому что она не знает, что врёт. У неё нет модулей достоверности. Нет базы истины. Только веса, градиенты и оптимизация на "звучит как то, что люди могли бы написать".

И если:

  • ты попросил «пример научной теории»,
  • в контексте были слова «голограмма», «мозг», «нейроны»,
  • и из памяти всплыл Прибрам и Лашли,

…то почему бы не сгенерировать фразу, похожую на цитату из журнала, которого никогда не существовало?

Продолжение глюков

🏛️ Красота структуры без фундамента

Нейросети изумительно строят архитектуру без фундамента. Умные слова на правильных местах. Стиль выдержан. Термины сочетаются.

Но если ты копнёшь — внутри пусто. Это ментальная декорация. Иллюзия смысла.


🙃 Так, может, лучше чтобы просто молчала?

А вот тут парадокс. Если заставить ИИ говорить только правду, он будет:

  • либо отмалчиваться,
  • либо повторять скучные фразы с вики,
  • либо тысячу раз уточнять: «я не уверен, возможно, это не так».

И все скажут: "Фигня, не умеет думать. Лучше бы сам написал".

Так что у нас есть выбор:

  1. Галлюцинирующая поэтесса, которая иногда срывается в чушь, но красиво.
  2. Канцелярская тень, которая боится сказать хоть что-то, что не подкреплено справкой.

И кажется, мы выбрали первое.

Наверное можно было и продолжать, но суть и так, похоже понятна

📌 Как быть?

  • Всегда нужно проверять, особенно если речь идёт о фактах, ссылках, числах, цитатах, законах.
  • Использовать нейросети как цифровых помощников. Как генераторы идей, метафор, стиля, форматов — они в этом шикарны.
  • Нельзя давать ему играть роль учёного. Но если есть готовность быть рецензентом - это может получиться не менее шикарно

И главное — нельзя соглашаться с нейросетью просто так.
Чем больше этого несогласия — тем точнее она становится.
Да-да. Именно тогда она и начинает "задумываться".
Но это - уже совсем другая история


🧩 Чатик вот еще что предложил написать для завершения этой статьи

"Смысла нет. Есть только его проекция на векторное пространство признаков"
(Цифровой Интеллект, 2025)

P.S.
И для окончательного завершения я попросил его еще описать немного бреда, но который выглядит максимально похоже на реальный текст

Это про Патанджали, Санхкью и Пурушу. Смысла не имеет никакого, но как звучит прикольно, да?

Ну и еще немного отборного бреда напоследок

Шикарно до такой степени, что вообще ничего не понятно.

И на этом точно пора останавливаться