Стратегии промптинга: от CoT до GoT
Промптинг — искусство задавать большим языковым моделям правильные вопросы. Но если раньше мы просто писали «напиши стихотворение про кота», то сегодня стратегии промптинга превратились в сложные методологии, которые заставляют языковые модели думать, а не просто генерировать текст. Расскажем, как развивались эти подходы и чем стратегии Tree-of-Thoughts и Graph-og-Thoughts отличаются от обычного запроса в ChatGPT.
Исторический контекст: как пришли к Chain-of-Thought
Ранние языковые модели (вроде GPT-2) работали по принципу автодополнения: предсказывали следующее слово на основе контекста. Пользователи быстро поняли, что результат можно улучшить, добавляя в промпт примеры ответов или чёткие инструкции («think step by step»).
Прозрение пришло в 2022 году, когда исследователи из Google предложили стратегию Chain-of-Thought (CoT) — метод, в котором модель явно разбивает задачу на шаги, как школьник на экзамене. Например:
Запрос: «У Саши 3 яблока. Он отдал 2 Маше. Сколько у него осталось?»
CoT-ответ: Саша начал с 3 яблок. Он отдал 2 яблока Маше. 3 – 2 = 1.
Ответ: 1.
Такой подход резко повысил точность моделей в арифметике и логических задачах. Но CoT — только начало.
Три стратегии промптинга
1. CoT: Chain-of-Thought (Цепочка рассуждений)
Суть: Модель генерирует последовательность шагов, ведущих к ответу.
Как работает:
- Пользователь добавляет в промпт фразы вроде «Давай подумаем шаг за шагом».
- Модель раскрывает свою «логику» перед выдачей итога.
- Упрощает поиск ошибок (можно отследить, на каком шаге рассуждения модели «сломались»).
- Повышает точность в задачах, требующих вычислений.
2. ToT: Tree-of-Thoughts (Дерево рассуждений)
Суть: Для каждого шага модель создаёт несколько вариантов, оценивает их и выбирает оптимальный, при этом могут быть возвраты.
Пример для задачи «Написать пост про ИИ»:
- Ветка 1: Рассказать про историю ИИ.
- Ветка 2: Сравнить GPT-4 и Claude 3.
- Ветка 3: Обсудить этику нейросетей.
Модель (или внешний алгоритм) оценивает каждую ветку по релевантности и глубине, затем развивает лучшую, но при обнаружении тупика или противоречия может откатиться назад.
- Требует в 3 — 5 раз больше вычислительных ресурсов.
- Нужен механизм оценки вариантов (часто через Function Calling, либо при помощи подхода LLM-as-a-Judge — рассмотрим всё это в дальнейших статьях).
3. GoT: Graph-of-Thoughts (Граф рассуждений)
Суть: Рассуждения представляются как узлы графа, где связи — это ассоциации, противоречия или уточнения.
- Узел 1: «ИИ улучшает диагностику рака».
- Узел 2: «Но алгоритмы могут быть biased».
- Связь: Узел 2 уточняет узел 1, добавляя контекст рисков.
- Сложно реализовать без специально разработанных алгоритмов.
- Пока используется только в исследовательских проектах.
Чем «ризонеры» отличаются от обычных БЯМ?
- Обычные БЯМ (например, ChatGPT):
— Генерируют текст, статистически похожий на «рассуждения».
— Для применения стратегий CoT/ToT требуют явных инструкций в промпте. - Ризонеры (например, GPT-4 с дообучением на логических задачах):
— Имеют архитектурные изменения (например, циклы обратной связи).
— Автоматически разбивают задачу на шаги, даже без подсказок.
Важно: Даже обычную БЯМ можно заставить «размышлять» через промптинг, но это имитация. Ризонеры делают это на уровне архитектуры.
Почему Tree-of-Thoughts — не магия?
Когда вы просите ChatGPT написать план статьи через ToT, происходит примерно вот что:
- Модель генерирует N вариантов структуры.
- Система оценивает их по заранее заданным критериям (например, через второй вызов БЯМ).
- Выбирается лучший вариант, и модель развивает его.
Но: Всё это — цепочка запросов к API, а не «мышление» в реальном времени.
Заключение
Выбор стратегии промптинга зависит от задачи:
- CoT — для простой логики с предсказуемыми шагами.
- ToT — для творческих задач с множеством решений.
- GoT — для исследований, где важны ассоциативные связи.
И да, «размышления» ИИ — пока всего лишь симуляция. Но кто знает, во что это превратится через пару лет?
И ещё да, про понятие «cherry picking» тоже расскажу как-нибудь в одной из следующих статей.
Подписывайтесь на блог и Telegram-канал «Технооптимисты» (https://t.me/drv_official) — в следующих статьях разберём, как реализовать ToT на практике и зачем соединять графы с RAG!