Агент
April 22

Стратегии промптинга: от CoT до GoT

Промптинг — искусство задавать большим языковым моделям правильные вопросы. Но если раньше мы просто писали «напиши стихотворение про кота», то сегодня стратегии промптинга превратились в сложные методологии, которые заставляют языковые модели думать, а не просто генерировать текст. Расскажем, как развивались эти подходы и чем стратегии Tree-of-Thoughts и Graph-og-Thoughts отличаются от обычного запроса в ChatGPT.


Исторический контекст: как пришли к Chain-of-Thought

Ранние языковые модели (вроде GPT-2) работали по принципу автодополнения: предсказывали следующее слово на основе контекста. Пользователи быстро поняли, что результат можно улучшить, добавляя в промпт примеры ответов или чёткие инструкции («think step by step»).

Прозрение пришло в 2022 году, когда исследователи из Google предложили стратегию Chain-of-Thought (CoT) — метод, в котором модель явно разбивает задачу на шаги, как школьник на экзамене. Например:

Запрос: «У Саши 3 яблока. Он отдал 2 Маше. Сколько у него осталось?»
CoT-ответ: Саша начал с 3 яблок. Он отдал 2 яблока Маше. 3 – 2 = 1.
Ответ: 1.

Такой подход резко повысил точность моделей в арифметике и логических задачах. Но CoT — только начало.


Три стратегии промптинга

1. CoT: Chain-of-Thought (Цепочка рассуждений)

Суть: Модель генерирует последовательность шагов, ведущих к ответу.
Как работает:

  • Пользователь добавляет в промпт фразы вроде «Давай подумаем шаг за шагом».
  • Модель раскрывает свою «логику» перед выдачей итога.

Плюсы:

  • Упрощает поиск ошибок (можно отследить, на каком шаге рассуждения модели «сломались»).
  • Повышает точность в задачах, требующих вычислений.

Минусы:

  • Линейность: если первый шаг неверен, вся цепочка рушится.

2. ToT: Tree-of-Thoughts (Дерево рассуждений)

Суть: Для каждого шага модель создаёт несколько вариантов, оценивает их и выбирает оптимальный, при этом могут быть возвраты.

Пример для задачи «Написать пост про ИИ»:

  • Ветка 1: Рассказать про историю ИИ.
  • Ветка 2: Сравнить GPT-4 и Claude 3.
  • Ветка 3: Обсудить этику нейросетей.

Модель (или внешний алгоритм) оценивает каждую ветку по релевантности и глубине, затем развивает лучшую, но при обнаружении тупика или противоречия может откатиться назад.

Плюсы:

  • Позволяет исследовать разные подходы.
  • Снижает риск «туннельного мышления».

Минусы:

  • Требует в 3 — 5 раз больше вычислительных ресурсов.
  • Нужен механизм оценки вариантов (часто через Function Calling, либо при помощи подхода LLM-as-a-Judge — рассмотрим всё это в дальнейших статьях).

3. GoT: Graph-of-Thoughts (Граф рассуждений)

Суть: Рассуждения представляются как узлы графа, где связи — это ассоциации, противоречия или уточнения.

Пример:

  • Узел 1: «ИИ улучшает диагностику рака».
  • Узел 2: «Но алгоритмы могут быть biased».
  • Связь: Узел 2 уточняет узел 1, добавляя контекст рисков.

Плюсы:

  • Поддерживает нелинейные связи (циклы, пересечения).
  • Ближе к человеческому мышлению.

Минусы:

  • Сложно реализовать без специально разработанных алгоритмов.
  • Пока используется только в исследовательских проектах.

Чем «ризонеры» отличаются от обычных БЯМ?

  • Обычные БЯМ (например, ChatGPT):
    — Генерируют текст, статистически похожий на «рассуждения».
    — Для применения стратегий CoT/ToT требуют явных инструкций в промпте.
  • Ризонеры (например, GPT-4 с дообучением на логических задачах):
    — Имеют архитектурные изменения (например, циклы обратной связи).
    — Автоматически разбивают задачу на шаги, даже без подсказок.

Важно: Даже обычную БЯМ можно заставить «размышлять» через промптинг, но это имитация. Ризонеры делают это на уровне архитектуры.


Почему Tree-of-Thoughts — не магия?

Когда вы просите ChatGPT написать план статьи через ToT, происходит примерно вот что:

  1. Модель генерирует N вариантов структуры.
  2. Система оценивает их по заранее заданным критериям (например, через второй вызов БЯМ).
  3. Выбирается лучший вариант, и модель развивает его.

Но: Всё это — цепочка запросов к API, а не «мышление» в реальном времени.


Заключение

Выбор стратегии промптинга зависит от задачи:

  • CoT — для простой логики с предсказуемыми шагами.
  • ToT — для творческих задач с множеством решений.
  • GoT — для исследований, где важны ассоциативные связи.

И да, «размышления» ИИ — пока всего лишь симуляция. Но кто знает, во что это превратится через пару лет?

И ещё да, про понятие «cherry picking» тоже расскажу как-нибудь в одной из следующих статей.

Подписывайтесь на блог и Telegram-канал «Технооптимисты» (https://t.me/drv_official) — в следующих статьях разберём, как реализовать ToT на практике и зачем соединять графы с RAG!