Промпт-инжиниринг, о котором тебе никто нормально не рассказал
Промпт-инжиниринг - это не про "волшебные слова", а про умение правильно ставить задачу нейросети. От того, как именно вы формулируете запрос, зависит качество ответа, точность, глубина и даже количество ошибок. Один и тот же ИИ может дать как слабый и поверхностный результат, так и действительно полезный - все зависит от того, как вы с ним работаете.
В этой статье мы разберем, из чего состоит хороший промпт, какие есть более продвинутые техники, что такое скиллы и агенты, какие приемы помогают работать удобнее и почему модели иногда галлюцинируют.
А в конце вас будет ждать подборка готовых промптов, которые можно сразу забрать себе и использовать на практике.
Будем признательны за подписку на наши телеграм каналы!
KUDRICH | LOUD
Навигатор по материалу
Тема 2. Улучшенные методы создания промптов
- Сделай из своей модели гуру
- Псевдокод
- Chain of Thought
- ARL. Модель проверяет сама себя
- Chain of Verification
- Создание промптов через Deep Research
Тема 4. Лайфхаки для повышения эффективности
- Скрины вместо ссылок
- Закрепление промптов
- Язык промпта
- Тест промтов через цепи рассуждений
- Приемы повышения удобства работы
Тема 5. Частые галюны моделей и их причины
Тема 6. Промпты из статьи + подборка
ТЕМА ПЕРВАЯ
Чтобы ваш промпт точно передавал вашу идею и пожелания, важно понимать, как он устроен.
1. Роль
Роль - это образ специалиста, в которого должна "войти" ИИ-модель, чтобы лучше справиться с вашей задачей.
К примеру: Ты - Senior Blockhain Developer/Professional Crypto-Twitter Copywriter и так далее...
Но в последнее время все чаще замечаем, что не всегда стоит загонять нейросеть в рамки одной конкретной роли. Если задача более универсальная, иногда лучше не задавать роль жестко, а дать модели самой выбрать подходящий угол через максимально подробное описание контекста.
Роли особенно полезны, когда вам нужен конкретный взгляд или формат ответа. Например, "адвокат" даст более структурированный юридический ответ, а "журналист" - более живой и понятный язык.
Важно учитывать: у некоторых моделей, например у ChatGPT, уже есть своя базовая "личность". Поэтому слишком вычурные или перегруженные роли могут работать хуже или даже конфликтовать с внутренними ограничениями модели.
2. Контекст
Далее нужно описать все, что модель должна учитывать, чтобы выполнить задачу именно так, как вы ее представляете.
Проще говоря, пишите все, что у вас есть в голове по этой задаче, и при необходимости прикрепляйте файлы.
Ниже - пример со скриншота, где четко описано, что именно должно получиться на изображении после генерации.
Чем больше полезной информации вы дадите ИИ, тем лучше он поймет задачу и тем точнее сможет дополнить, уточнить и улучшить результат.
3. Цель
Здесь все довольно просто. Важно четко сформулировать, что именно должна сделать нейросеть.
- 1. Действие - что нужно сделать: создать, написать, сравнить, проанализировать и так далее 2. Объект - что именно нужно создать или обработать: текст, фото, видео, код и так далее 3. Признаки успеха результата - критерии понимания того, что цель достигнута. Каким должен быть итог: список, PDF-файл, инфографика, 3D-анимация и так далее
4. Тон
Правильно заданный тон помогает с первого раза получить более точное попадание под нужный стиль и подходящий формат ответа.
- Деловой: профессиональный, без лишних эмоций
- Разговорный: лёгкий, дружелюбный
- Обучающий: простой, с аналогиями, для совсем зеленых
- Продающий: убедительный, формула AIDA
- Саркастичный: с лёгкой иронией, но без оскорблений
5. Ограничения
Ограничения нужны для того, чтобы задать модели четкие рамки и не дать ей уйти в сторону от задачи.
Это могут быть ограничения по стилю, тону, длине, объему, структуре, формату ответа или роли, в которой модель должна работать.
Чем точнее вы задаете ограничения, тем выше шанс получить аккуратный, понятный и предсказуемый результат.
6. Примеры
Примеры очень сильно бустят промпт и делают итоговый результат заметно точнее.
К примеру, вы можете написать ИИ классный промпт для создания текста. В голове вы себе представляете один результат, а модель выдает совсем другой. Почему? Потому что вы не показали ей пример.
Можно подробно задать контекст, тон, стиль и ограничения, но даже этого иногда бывает недостаточно. Если в конце промпта добавить референс или пример текста, который близок к тому, что вы хотите получить, шанс на нужный результат становится гораздо выше.
ТЕМА ВТОРАЯ
Эти методы помогут вам упростить создание промптов и одновременно повысить их качество.
Все промпты из этой статьи будут в конце!
Сделай из своей модели Гуру
Чтобы грамотно поставить задачу, обычно нужны время, внимание и заранее продуманные вводные. Но часть этой работы можно делегировать самой модели. Для этого достаточно дать ей такой промпт, который заставит ее задавать вам уточняющие вопросы и помогать формулировать требования к результату.
Недавно я (Кудрич) писал промпт с помощью этого скилла, чтобы создать скелет сайта. В процессе модель задала мне около 60 дополнительных вопросов. Такой подход иногда занимает немало времени, но все равно это быстрее и эффективнее, чем потом самому долго вносить правки.
Для таких задач мы бы рекомендоваи создать отдельный скилл в ChatGPT. На наш взгляд, он особенно хорошо справляется с созданием промптов.
Также полезно закрепить промпт. Что это значит?
Закрепить промпт - значит сохранить его для дальнейшей работы с моделью и использовать тогда, когда он вам понадобится.
Просто напишите модели следующее:
Каждый раз, когда я пишу тебе в кавычках "забиваете любое удобное слово", ты запускаешь промпт ниже
Псевдокод
Псевдокод в создании промптов - структурная разметка, которая помогает модели однозначно понимать, где роль, где контекст, где правила, где задача, где примеры, где требования к логике рассуждения и т.д.
Этот подход особенно полезен при работе с более дешевыми моделями, а также через API. Форматы псевдокода тоже бывают разными: XML, JSON, Python и другие. Поэтому лучше сначала протестировать несколько вариантов и выбрать тот, который работает лучше всего.
Chain of Thought
Грубо говоря, это мышление "step by step". Суть метода в том, чтобы попросить модель рассуждать поэтапно, разбивать задачу на шаги и показывать вам ход решения.
Эта техника особенно полезна для более сложных задач, где важно не просто получить ответ, а понять, как модель к нему пришла.
Before giving your final answer, please:
1. Identify the key components of this problem
2. Consider multiple approaches
3. Evaluate pros and cons of each approach
4. Think through potential issues
5. Then provide your recommended solution
- Zero-shot CoT - просто добавляешь в конец промпта фразу вроде "давай думать пошагово" или "let's think step by step" без примеров. Работает на больших моделях, на маленьких - слабее.
- Few-shot CoT - даёшь модели 2–5 примеров задача → цепочка рассуждений → ответ. Модель учится структуре рассуждения из примеров. Точнее zero-shot, но требует ручной работы по составлению примеров.
- Auto-CoT - модель сама генерирует примеры рассуждений, потом использует их как few-shot. Снижает ручной труд, но качество примеров может проседать.
- Self-consistency - запускаешь один и тот же промпт несколько раз с разными цепочками рассуждений, потом берёшь ответ большинством голосов.
- Tree of Thought (ToT) - расширение CoT: модель генерирует несколько ветвей рассуждений параллельно и выбирает лучшую (или обрезает тупиковые). Хорошо справляется с творческими и стратегическими задачами.
Математика и арифметика, логические задачи с несколькими шагами, программирование (разбор алгоритма перед кодом), анализ документов с выводами, задачи с причинно-следственными цепочками.
Простые фактические вопросы (лишний шум в ответе), задачи на скорость и краткость, классификация с однозначными паттернами.
ARL: Модель проверяет сама себя
Это базовый подход к самопроверке модели перед выдачей результата. По сути, модель проходит через внутренний чек-лист перед тем, как показать вам итоговый ответ, и по возможности исправляет косяки заранее.
Качество ARL можно дополнительно повысить, если вы сами заранее пропишете критерии проверки (на моменте создания промпта через скилл). Также можно попросить модель вместе с результатом прикладывать небольшой отчет о том, какую проверку она провела.
Chain Of Verification
Это техника, при которой модель проверяет свой собственный ответ через серию точечных вопросов перед тем, как выдать финальный результат. Если говорить просто, CoVe создает для модели внутренний механизм сомнения и перепроверки.
- Сначала модель генерирует первичный ответ, как обычно
- Затем она составляет список конкретных проверочных вопросов к своим же утверждениям. Не в духе "правильно ли я ответила?", а более предметно: "в каком году это было основано?", "какой протокол здесь используется?" и так далее
- После этого модель отдельно отвечает на каждый из этих вопросов. В идеале - не опираясь на исходный ответ, чтобы действительно проверить себя, а не просто повторить уже сказанное
- На основе этой проверки модель исправляет неточности и выдает финальный ответ
Отличие от Auto Reflection Loop:
ARL - это общий цикл "сгенерировал -> оценил -> улучшил", в котором модель оценивает качество ответа в целом: стиль, полноту, логику и общую связность.
CoVe работает уже более узко и направлен именно на фактическую точность. Он проверяет ответ через конкретные вопросы, которые можно верифицировать.
ARL спрашивает: "можно ли это сделать лучше?", а CoVe спрашивает: "это точно правда?".
Создание промптов через Deep Research
Deep Research как подход к созданию промптов - это метод, при котором перед написанием промпта вы сначала глубоко изучаете предметную область. Это нужно для того, чтобы промпт опирался не на абстрактные формулировки, а на точную терминологию, реальные критерии качества и особенности конкретной задачи.
По сути, Deep Research решает проблему еще на уровне входных данных: сначала вы глубоко понимаете предмет, а уже потом формулируете сам промпт.
- Фаза 1 - исследование предмета. Перед тем как писать промпт, вы собираете информацию о том, как эксперты в этой области описывают задачу, какие термины используют, какие типичные ошибки и edge cases встречаются, и по каким критериям оценивается хороший результат. Источники: документация, статьи, примеры реальных результатов, экспертные разборы и другие материалы по теме.
- Фаза 2 - извлечение сигналов. Из собранного материала ты выделяешь самое важное: точные термины, конкретные атрибуты, реальные ограничения предметной области, признаки хорошего и плохого результата, а также типичные паттерны, которые модель должна повторять или, наоборот, избегать.
- Фаза 3 - сборка промпта. После этого промпт собирается уже не "из головы", а на основе исследования. Каждое требование в нем опирается не на догадки, а на реальное понимание задачи.
Где Deep Research особенно важен
- В технических областях, где неточная терминология сразу бросается в глаза экспертам
- В творческих задачах с жесткими стилевыми требованиями: жанр, голос, регистр
- В задачах, где модель должна воспроизводить логику и мышление конкретного специалиста
- В промптах для специализированных инструментов, например для генерации изображений или кода, где важны синтаксис, паттерны и точность формулировок
ТЕМА ТРЕТЬЯ
Промпты vs Скиллы
Промпт - это текстовая инструкция, которая находится прямо в окне чата и занимает место в контекстном окне модели. Пока эта инструкция находится в диалоге, модель ее видит и ориентируется на нее.
Проблемы начинаются по мере роста диалога. Длинные инструкции занимают контекст, который можно было бы использовать для самой работы. Кроме того, чем длиннее становится переписка, тем сложнее модели удерживать в фокусе исходную инструкцию - со временем она начинает теряться на фоне новых сообщений.
Есть и еще один минус - визуальный. Большой системный промпт просто загромождает рабочее пространство и делает взаимодействие менее удобным.
Скилл - это более удобный архитектурный подход, который разделяет инструкцию на два уровня:
- Заголовок - короткое описание, которое постоянно остается в контексте. Оно почти не занимает места, но подсказывает модели, когда нужно обратиться к полной инструкции
- Полная инструкция (скелет) - подробный текст, который подгружается только тогда, когда срабатывает нужный триггер
Это меняет модель потребления контекста: вместо того чтобы постоянно держать все инструкции активными, система хранит только легкие заголовки, а полная инструкция подключается только в нужный момент.
В итоге можно использовать десятки специализированных сценариев - для крипто-контента, промпт-инжиниринга, документов, кода и других задач - без постоянной перегрузки контекста.
Агенты и многоагентные схемы
Агент - это сущность, поведение которой вы задаете через инструкции: роль, ограничения, формат ответа и последовательность действий.
Даже если вы просто напишете в начале чата "ты - тренер личностного роста", вы уже фактически создаете агента. Без кода и без внешних инструментов - только с помощью текстовой инструкции, которая меняет поведение модели.
Многоагентные схемы в одном чате
Несколько агентов можно собрать внутри одного диалога, без установки каких-либо инструментов.
Принцип такой - вы задаете несколько ролей с разными зонами ответственности и добавляете "диктора", который решает, кто из них должен включаться в каждый конкретный момент. Все это можно реализовать обычными текстовыми инструкциями.
Диктор решает, чья очередь реагировать на конкретный запрос. Такой подход помогает решать сложные многоэтапные задачи более организованно.
Например, можно шаг за шагом проводить пользователя через настройку сервера, реагировать на скриншоты ошибок и по ходу менять тактику.
Отличие агента от скилла
Это совсем разные вещи, которые часто путают.
Агент - это, грубо говоря, "кто". Сущность с ролью, целью и правилами поведения. Агент может действовать, планировать, вызывать инструменты и реагировать на результат.
Скилл - это, грубо говоря, "как". Инструкция, которая описывает поведение в конкретном сценарии. Сам по себе скилл ничего не делает. Он только меняет поведение того, кто его использует.
Аналогия: Агент - это сотрудник, а скилл - его инструкция или отдельный специализированный навык.
Один и тот же агент может использовать разные скиллы под разные задачи. Агент может подключать скиллы в процессе работы, но сам скилл агентом не является.
ТЕМА ЧЕТВЕРТАЯ
Скрины вместо ссылок
Если модель не может сама перейти по ссылке и получить данные, не стоит рассчитывать, что она как-то догадается или найдет нужную информацию сама.
Дай ей информацию напрямую в виде скриншота.
Современные модели хорошо считывают текст и детали с изображений даже среднего качества, поэтому во многих случаях это надежнее, чем надеяться на извлечение данных по ссылке.
Закрепление промпта
Проговорим еще раз этот вопрос.
Если у вас есть удачные промпты, которые вы планируете использовать регулярно, их полезно сохранять в память модели.
Каждый раз когда я тебе буду писать в кавычках "забиваете любое удобное слово", ты запускаешь промпт ниже
То есть теперь это будет выглядеть так:
Я хочу, чтобы ты сделал вот это, это и это
"в конце добавляете ваше кодовое слово"
Язык промпта
Английский язык иногда дает небольшое, но реальное преимущество, особенно в задачах, где важны стиль, формулировки и качество генерации медиа.
Причина простая: англоязычных обучающих данных у моделей обычно больше. Плюс английский текст часто получается короче, а значит занимает меньше токенов.
Для большинства повседневных задач это не критично, но в некоторых случаях разница действительно может быть заметной.
Лайфхак: писать сам промпт на английском, а в конце добавлять "ответ на русском". Так можно совместить преимущества английского промпта и получить результат на нужном языке.
Тест промптов через цепи рассуждений
Если модель выдала результат с ошибками или галюнами, не всегда нужно сразу переписывать весь промпт.
Сначала лучше понять, где именно произошел сбой. Для этого полезно посмотреть на логику модели: как она поняла задачу, какие предпосылки взяла за основу и в какой момент свернула не туда.
Хороший рабочий прием - попросить модель сначала расписать ход рассуждений, а уже потом давать итоговый ответ. Например:
Сначала опиши шаги своей логики, потом отвечай
Во многих случаях оказывается, что проблема не в самой модели, а в промпте. Он мог быть двусмысленным, и модель просто выбрала не ту интерпретацию.
Приёмы повышения точности и удобства
Canvas
Canvas - это отдельная рабочая область, в которой можно редактировать текст или код без перезапуска всего диалога.
Он особенно удобен для итеративной работы: можно править конкретный фрагмент, не затрагивая остальную часть материала.
Объясни простым языком
Этот приём полезен не только новичкам. Иногда самый быстрый способ проверить, действительно ли вы поняли тему, - попросить модель объяснить её максимально простыми словами, как будто она объясняет это ребёнку.
Разделение ролей по чатам
Создавать промпт и использовать его лучше в разных чатах. Если делать всё в одном диалоге, обсуждение самого промпта со временем начинает мешать его нормальному исполнению.
То же самое касается разных типов задач. Например, код и копирайтинг лучше разделять, потому что в одном чате они со временем начинают смешиваться и влиять друг на друга.
Один чат - одна задача
CapsLock для критичных требований
Если какое-то правило нельзя нарушать, его стоит выделить капсом.
Модель воспринимает это как маркер приоритетности. Эффект можно усилить, если повторить важное требование дважды: один раз в начале промпта, чтобы задать рамки, и еще раз в конце, прямо перед генерацией.
Кавычки и XML-теги как разделители
Если вы вставляете в промпт большие фрагменты текста, примеры или данные, их лучше явно отделять от основных инструкций.
<data>...</data>, <example>...</example>
Это особенно полезно, когда в одном промпте несколько блоков разного типа. Так модели проще понять, где находится контент, а где сама инструкция.
Ответ по выделенному фрагменту
Выделяешь нужный фрагмент ответа и задаешь вопрос именно по нему.
Не нужно вручную цитировать текст и объяснять: "вот здесь ты написал вот это".
Модель сразу понимает, к какой части ответа относится вопрос, поэтому контекст остается чище, а сам ответ получается точнее.
ТЕМА ПЯТАЯ
Галлюцинация - это ситуация, когда модель выдает ложную информацию, но делает это уверенно, как будто говорит что-то достоверное.
Причины галлюцинаций
1. Настройка на "комфортный ответ"
Многие модели изначально настраивают так, чтобы они чаще отвечали, а не признавали, что чего-то не знают.
Из-за этого модель может попытаться дать ответ любой ценой, даже если ей не хватает данных. В современных моделях это проявляется слабее, но полностью проблема не исчезла.
2. Ложная предпосылка в вопросе
Если в самом вопросе уже заложен неверный факт, модель нередко принимает его как основу и начинает искать подтверждение, а не проверять, правда это или нет.
Особенно часто это происходит у менее сильных моделей: они легче подстраиваются под ошибочную рамку вопроса.
3. Ошибка на цепочке рассуждений
В сложных многошаговых задачах одна ошибка на раннем этапе может испортить весь дальнейший вывод.
В коде это часто выглядит так: решение кажется логичным и правдоподобным, но на практике не работает, потому что где-то по пути рассуждение свернуло не туда.
Небольшие или слабее обученные модели обычно галлюцинируют чаще.
Одна из причин в том, что языковая модель не "думает" как человек, а предсказывает следующий токен на основе вероятностей. Поэтому при нехватке данных или слабом понимании задачи она может звучать уверенно, даже если ошибается.
Модель обучается на огромном количестве текстов, где одно и то же слово, термин или тикер может встречаться в разных значениях и контекстах.
Когда таких пересечений много, модель не всегда точно выбирает нужную сущность. Вместо этого она может усреднять вероятности между несколькими похожими вариантами, которые встречала в обучающих данных.
Отдельный момент: если остановить модель в процессе рассуждения слишком рано, она выдаст ответ на том этапе, до которого успела дойти. Поэтому, если вам важен качественный итог, лучше не прерывать генерацию.
Как снизить риск через промпт
Чем точнее и конкретнее ваши вводные, тем меньше у модели пространства для догадок и "придумывания".
Нужные факты лучше вставлять прямо в промпт.
Просите указывать источник или честно признавать неопределенность.
Например, можно добавить в промпт: "если не уверен - скажи об этом"
Используйте Chain of Verification
После основного ответа попросите модель отдельно перепроверить свои утверждения и отметить, где есть сомнения или неопределенность.
Не встраивайте ложные предпосылки
Вместо вопроса "Почему это произошло в 1999?" лучше спросить "Когда именно это произошло и почему?" Такая нейтральная формулировка снижает риск того, что модель подстроится под ошибочную предпосылку.
Используйте несколько моделей для кросс-проверки
Если ответ для вас действительно важен, прогоните один и тот же запрос через две-три разные модели и сравните результаты. Такой подход помогает быстрее заметить слабые места, расхождения и возможные ошибки.
Многие думают, что если модель отвечает уверенно и связно, значит она права.
На деле уверенная подача ничего не гарантирует. Это лишь особенность генерации текста, а не признак точности.
Модель не понимает свое незнание так, как это делает человек. Она просто строит наиболее вероятное продолжение текста. И иногда это продолжение оказывается ошибочным, хотя звучит убедительно и профессионально.
Тема шестая
Чтобы не перегружать статью большим количеством промптов, мы вынесли их в отдельный Телеграм канал.
ПРОМПТЫ ЗДЕСЬ
ПРОМПТЫ ЗДЕСЬ
ПРОМПТЫ ЗДЕСЬ
Там мы собрали для вас всю базу из статьи и добавили еще немного полезного сверху.
Заключение
Промпт-инжиниринг - это навык четко формулировать задачу и понимать, как модель читает ваш запрос. Чем лучше вы задаете контекст, формулируете цель, прописываете ограничения и проверяете результат, тем более точным и полезным становится ИИ в работе.
Главное, что стоит вынести из этой статьи: нейросеть не читает мысли. Она работает с тем, что вы ей дали. И если вы научитесь давать ей хорошие вводные, правильно направлять ее и замечать слабые места в ответах, качество вашей работы вырастет очень сильно. Поэтому лучший способ прокачаться - не просто читать про промпты, а сразу тестировать, сравнивать, дорабатывать и собирать свои рабочие подходы в систему.
Мы постарались сделать эту статью максимально полезной для вас. Если она вам понравилась, будем очень рады поддержке и любому фидбэку - реакциям, комментариям и репостам.