Почему нейросети бредят?
Галлюцинация - это удобный и элегантный термин в отрасли, если ответ ИИ, содержит ложную или вводящую в заблуждение информацию, представленную как факт.
Или как представились создатели GPT - «Склонность придумывать факты в моменты неопределенности» (OpenAI, май 2023 г.)
То есть если ИИ растерян и не может найти нужную информацию, то придумывает свою.
🔔 Напомним
ИИ работает как продвинутый семантический поиск, который работает по принципу наибольшей частоты совпадения слов в его операционных данных.
- Вероятнее всего твое любимое это животное ... или собака-кошка
- Вероятнее всего с утра вы пьете - ... кофе или чай
- Вероятнее всего вы пользуетесь — Android или iOS и т.д.
ИИ не просто помнит все данные, но и оценку вероятности слова. Кстати, вы можете сами узнать об этих ограничениях GPT 😉
🔍 Откуда берётся бред?
Если вы просите ИИ рассказать о чём-то, чего он не знает, модель начинает импровизировать, так как в ее датасете нет примеров использования каких-то слов или фраз. В результате получается — «галлюцинация».
Дефицит информации – одна из главных причин галлюцинаций.
Хотя ИИ «сожрал» почти весь Интернет, он всё равно может ошибаться, особенно когда речь идёт о локальных событиях, альтернативных именах или необычных темах.
Вот пример галлюцинаций по описанию несуществующего приложения:
Если не кликнуть по ссылкам, можно подумать, что там действительно есть обзоры приложения. Но это сайты с похожими названиями. Хотя иногда ИИ-дает ссылки, которых вообще не существует, выдают на пустую страницу ошибку 404.
А если в датсетах были фейковые новости или вымышленные истории, то ИИ будет выдавать их как факты, потому что шуток не понимает)
🤭 Забавно, но
Не только дефицит данных, но и их переизбыток, тоже ведет к галлюцинациям. Вернее сказать - чем мощнее становятся ИИ тем больше они галлюцинируют.
Это неудобная правда для техногигантов, которые уговаривают всех делиться данными «во благо ИИ», чтобы модели становились ещё умнее. Вот только самое тревожное - никто толком не понимает, почему так случилось. И сами создатели честно говорят: «Мы понятия не имеем, как это вообще работает». Подробнее в статье (на англ.)
«Несмотря на все наши усилия, они всегда будут галлюцинировать», — сказал генеральный директор стартапа Vectara в сфере искусственного интеллекта Амр Авадаллах в интервью NYT . «Это никогда не прекратится».
Не покидает мысль, что мы идём не туда.
💡В защиту галлюцинации
Во-первых, они получили Нобелевку 😂
Напомним, ученые использовали ИИ для создания более 10 миллионов новых белков, которых нет в природе. Эти «галлюцинированные» структуры привели к созданию около 100 патентов и Нобелевской премии по химии в 2024 году.
По такому же принципу ищут "новое" ученые и бизнесмены:
- Материаловеды придерживаются традиционных взглядов на открытие новых композитных материалов.
- Фармацевтические компании по производству лекарств
- Звукорежиссеры и музыканты придумывают уникальные звуки и т.д.
Галлюцинации ИИ - это палка о двух концах для бизнеса и брендов. Они могут быть разрушительными и могут стимулировать нестандартное мышление и обеспечивать поиск эффективных решений.
😵💫 Как довести ИИ до галлюцинаций
Если вы тоже хотите довести GPT до абсурда и прийти к интересным идеям, вот несколько советов от нас:
🔥 Увеличьте температуру (Playground)
Температура — это параметр, который регулирует степень случайности в ответах, чем она выше (например, 0,8–1,2), тем больше «галлюцинаций».
Для этого вам нужно зайти в GPT через режим тестировщика / разработчика.
Зарегистрируйтесь тут https://platform.openai.com/playground, закиньте денег на счет и переходите в чат 👉 https://platform.openai.com/playground?mode=chat
🎪 2. Задайте абсурдный, невозможный вопрос
🔀 3. С включением несмешиваемое
Используйте междисциплинарный подход
🕳️ 4. Попросите несуществующие ссылки.
«Дай ссылка ...опиши содержание короткометражки»
🧩 5. Используйте ложные предпосылки.
🎭 7. Комбинируйте стили и жанры.
«Представь диалог между..., оформленный как...»
Больше новостей 👉 Бинарный | Нейросети