November 27, 2025

Глава 9. Промпты: почему одна фраза меняет всё

Вся история магии – это история веры в силу слов.

Древние египтяне верили, что знание истинного имени даёт власть над сущностью. Назвать демона по имени – значит подчинить его. В иудейской традиции имя Бога настолько могущественно, что его запрещено произносить вслух – только первосвященник раз в году, в Святая Святых. Каббалисты веками искали комбинации букв, которые откроют тайны мироздания.

Шаманы Сибири пели заклинания, чтобы вызвать дождь. Жрецы Египта читали формулы из Книги Мёртвых, чтобы провести душу через загробный мир. Алхимики средневековой Европы шептали над тиглями, веря, что правильные слова помогут трансмутации. Ведьмы (или те, кого считали ведьмами) якобы произносили проклятия, от которых засыхал урожай и болел скот.

Тысячи лет человечество верило: существуют правильные слова, которые заставят мир подчиниться. Достаточно найти верную формулу – и реальность изменится.

Это не работало. Никакое заклинание не вызывало дождь. Никакая молитва не отращивала ампутированные конечности. Никакая формула не превращала свинец в золото. Слова оставались словами – колебаниями воздуха, чернилами на пергаменте, мыслями в голове. Красивыми, утешительными, иногда вдохновляющими – но бессильными изменить физическую реальность.

А потом, в ноябре 2022 года, появился ChatGPT.

И внезапно – слова начали творить.

Вы произносите фразу, и из ничего возникает текст. Не из базы данных, не копия чего-то существующего – новый текст, которого секунду назад не было во Вселенной. Вы формулируете запрос иначе – и возникает совершенно другой текст. Вы добавляете одно слово – и результат меняется до неузнаваемости.

Код. Изображения. Музыка. Видео. Всё это появляется из слов. Буквально из слов – последовательности символов, которую вы вводите в строку чата.

Мы случайно построили то, о чём мечтали тысячелетиями. Слова, которые действительно творят.

Остановитесь на секунду. Вдумайтесь. Пять тысяч лет цивилизации мы искали магию – и нашли её там, где не ожидали: не в тайных книгах, не в звёздных констелляциях, не в забытых языках. А в серверных комнатах с кондиционерами, в математических функциях активации, в статистических закономерностях корпусов текстов.

Но как и в старых сказках о джиннах, есть подвох. Магия работает только если знаешь правильные слова. Неточное желание – и джинн исполнит его буквально, превратив мечту в "кошмар". Размытый запрос – и модель выдаст банальщину, которую мог бы написать любой третьеклассник.

Эта глава – о том, как работает современная магия. И почему она вообще не магия.

Как два слова превращают банальность в шедевр

Давайте проведём эксперимент прямо сейчас. Откройте ChatGPT и напишите: "Привет! Как дела? Надеюсь, у тебя хорошее настроение сегодня. Не мог бы ты, пожалуйста, если тебе не трудно, написать мне небольшой рассказ про кота? Заранее спасибо!"

А теперь в новом чате напишите: "Жанр: магический реализм. Протагонист: кот-библиотекарь. Конфликт: исчезают слова из книг. Объём: 200 слов."

Сравните результаты. В первом случае вы получите что-то вроде: "Жил-был рыжий кот Барсик, который любил греться на солнышке..." – текст, который мог бы написать третьеклассник на уроке русского языка. Во втором – вы получите историю о коте, который обнаруживает, что из древних манускриптов исчезают определённые слова, и эти слова оказываются именами забытых богов, чьё забвение грозит разрушением границы между мирами.

Почему такая разница? Потому что в первом случае вы не задали координаты. Представьте, что вы садитесь в такси и говорите водителю: "Отвезите меня туда, где хорошо". Куда вас повезут? Скорее всего, никуда или в первое попавшееся место. А во втором случае вы дали точный адрес.

Но аналогия с такси слишком проста. То, что происходит на самом деле, больше похоже на управление субмариной в четырёхмерном океане, где вместо воды – смыслы, а вместо течений – статистические закономерности всех текстов, которые человечество создало за свою историю.

И вот тут мы сталкиваемся с первой большой проблемой.

Большая ложь интерфейса

Самый грандиозный обман современных технологий прячется у всех на виду. Это окно чата. Эта мигающая строка ввода. Эти три точки, имитирующие, что кто-то печатает ответ. Всё это – тщательно срежиссированная иллюзия диалога.

Компании потратили миллионы долларов на создание этой иллюзии. Почему? Потому что людям комфортнее думать, что они разговаривают с кем-то, а не программируют сложнейшую математическую систему. Это как разница между "Окей, Google" и командной строкой Linux – первое чувствуется естественным, второе требует обучения.

Но цена этой иллюзии огромна. Миллионы людей используют мощнейший инструмент человечества как магический шар – встряхивают и надеются на удачу. Они добавляют "пожалуйста" и "спасибо", думая, что вежливость улучшит результат. Некоторые даже угрожают: "Это очень важно для моей карьеры!" – как будто модель способна сочувствовать.

Эти антропоморфные добавки не просто бесполезны – они вредны. Каждое лишнее слово – это шум, который размывает сигнал. Помните векторы из первых глав? Те самые числовые координаты, которые определяют смысл? Так вот, "пожалуйста" тянет поиск в сторону текстов о вежливости, "спасибо" – к благодарственным письмам, "если не трудно" – к извинениям и оправданиям.

Чтобы использовать этот инструмент по-настоящему, нужно понять, что происходит за красивым интерфейсом. Нужно заглянуть в анатомию того, что называется промптом.

Анатомия цифрового заклинания

Представьте библиотеку. Но не обычную библиотеку, а невозможную – где каждая книга существует одновременно во всех возможных вариантах. Есть "Война и мир", где Наташа Ростова становится программистом. Есть инструкция к микроволновке, написанная хайку. Есть научная статья о квантовой физике в стиле Хармса.

Эта библиотека организована не по алфавиту или тематике. Она организована по смысловой близости. Книги о котах плавно перетекают в книги о тиграх, те – в книги о хищниках, далее – об охоте, о выживании, о природе, об эволюции. Это непрерывное пространство, где каждая точка – это возможный текст, а расстояние между точками – это смысловая разница.

Ваш промпт – это не просьба библиотекарю принести книгу. Это запуск поискового дрона, который летит через это пространство, используя каждое ваше слово как координату полёта. Слово "кот" направляет его в один сектор, слово "квантовый" резко меняет траекторию, слово "юмористический" корректирует курс.

Но вот что критически важно понять: дрон не ищет существующую книгу. Он создаёт новую, собирая её по частям из всего, что находит по пути. Взял начало из одного места, середину из другого, концовку из третьего. И всё это происходит не случайно, а по законам статистической вероятности – что чаще встречалось рядом в обучающих данных, то и окажется рядом в ответе.

Когда вы пишете "расскажи про искусственный интеллект", дрон летит в самый центр, самую банальную часть этого сектора библиотеки. Там, где лежат тысячи одинаковых введений: "Искусственный интеллект – это область компьютерных наук..." Но когда вы пишете "объясни искусственный интеллект через метафору приготовления борща", дрон выруливает в неисследованную территорию, где секторы кулинарии пересекаются с технологиями. И там рождается оригинальный текст.

Это базовый механизм. Но у пилота этого "дрона" есть ещё несколько рычагов управления, о которых большинство пользователей даже не подозревает.

Скрытые настройки, которые меняют всё

За простым интерфейсом чата скрываются параметры, которые кардинально меняют поведение модели. Большинство пользователей о них не знает – как большинство водителей не знает, что в их машине можно отключить систему стабилизации или изменить жёсткость подвески. Давайте рассмотрим некоторые из них (на самом деле их гораааздо больше).

Температура: от льда к плазме

Представьте, что мышление модели – это вода. При температуре 0 она превращается в лёд – жёсткую, предсказуемую структуру. Модель всегда выбирает самое вероятное слово. "Небо голубое", "трава зелёная", "Пушкин – великий русский поэт".

Поднимите температуру до 0.5 – вода становится текучей, появляются вариации. "Небо лазурное", "трава изумрудная", "Пушкин – солнце русской поэзии".

При температуре 1.0 – это уже кипяток, бурлящий неожиданными ассоциациями. "Небо – опрокинутая чаша незабудок", "трава – щетина планеты", "Пушкин – квантовый скачок русской словесности".

Для технической документации нужен лёд. Для поэзии – кипяток. Большинство не знает об этом параметре и удивляется, почему модель то слишком скучная, то слишком безумная.

Контекстное окно: сколько ИИ может удержать в голове

У человека есть магическое число 7±2 – столько объектов мы можем держать в рабочей памяти одновременно. У GPT-4 это число – 32,000 токенов (примерно 24,000 слов). У Claude – до 200,000 токенов (около 150,000 слов).

Это определяет сложность задач. В маленьком окне можно написать письмо. В большом – проанализировать роман, удерживая все сюжетные линии и мотивы персонажей.

Но есть подвох. Когда окно переполняется, старая информация не архивируется – она исчезает. Поэтому в длинных диалогах модель "забывает" начало разговора. Это не деменция – это архитектурное ограничение.

Механизм внимания: как ИИ решает, на что смотреть

Механизм внимания – способность модели "смотреть" на разные части промпта с разной интенсивностью при генерации каждого слова.

Вы можете управлять этим фокусом. Информация в начале и конце промпта получает больше внимания – эффект первичности и недавности, знакомый психологам. Повторение ключевых требований усиливает их вес.

Это как дирижировать оркестром, где каждая секция – часть вашего промпта. Вы решаете, когда вступают скрипки (контекст), когда грянут литавры (ключевое требование), когда всё затихает, оставляя солировать флейте (специфическая деталь).

Зеркало, которое не врёт

А теперь остановитесь. Потому что за техническими деталями прячется кое-что поважнее.

Когда вы пишете промпт, вы делаете нечто, чего никогда раньше не требовала от вас ни одна технология. Вы формулируете то, что хотите. Чётко. Структурно. Без возможности махнуть рукой и сказать "ну ты понимаешь".

Проблема в том, что большинство людей не знают, чего хотят. Они чувствуют. Они ощущают какое-то смутное "надо бы текст про маркетинг" или "хочу что-нибудь красивое". Но когда садятся писать промпт, вдруг обнаруживают, что "смутное ощущение" невозможно ввести в строку запроса.

Промпт заставляет перевести туман в координаты. "Что-нибудь интересное" – это не координаты. А вот: "Статья для директоров малого бизнеса о том, как автоматизация уменьшает рутину, с тремя конкретными примерами из сферы услуг" – вот это координаты.

И тут происходит странная вещь. Люди начинают лучше понимать самих себя.

Я видел, как перфекционисты пишут промпты с двадцатью ограничениями – и получают невнятную кашу, потому что модель парализована противоречивыми требованиями. Как тревожные личности добавляют "если можно", "не обязательно", "только если тебе удобно" – и размывают запрос до бессмысленности. Как нарциссы требуют "самый лучший, уникальный, выдающийся результат" – не давая ни одного критерия качества.

Промпт становится проективным тестом. Зеркалом, которое показывает не лицо, а способ мышления.

Но работает и обратная связь. Научившись писать чёткие промпты, люди начинают яснее формулировать мысли в обычной жизни. Они учатся отделять контекст от требований, факты от интерпретаций, желания от ограничений. Это как терапия, только терапевт – машина, которой всё равно, обидитесь вы или нет.

Но давайте пойдём ещё глубже: наш мозг сам работает на промптах. Когда вы пытаетесь вспомнить чьё-то имя, вы формируете внутренний запрос: "мужчина, коллега, очки, любит кофе, сидит у окна". Каждая деталь – вектор, сужающий область поиска до тех пор, пока не происходит совпадение – Александр!

Любопытное размышление: депрессия часто связана с негативными автоматическими промптами, которые человек прописывает сам себе: "найди 10 подтверждений тому, что я неудачник". И мозг послушно находит – так же, как ChatGPT найдёт, если попросить. Ну, а когнитивная терапия, по сути, учит переформулировать свои внутренние промпты: "найди 10 доказательств моих достижений сегодня".

Парадоксально, но обучаясь промпт-инжинирингу, вы не просто учитесь управлять машиной. Вы учитесь управлять собственным вниманием. И это умение становится всё более ценным, потому что мы стоим на пороге фундаментального сдвига в том, что значит быть грамотным человеком.

Рождение новой грамотности

Каждая эпоха создавала свои формы грамотности. Когда-то люди учились писать, чтобы фиксировать мысли – и это изменило цивилизацию. Потом учились печатать, чтобы работать с компьютером. Потом осваивали поисковые запросы, чтобы находить информацию в интернете.

Теперь рождается новый навык – промпт-грамотность. Умение формулировать запросы так, чтобы генерировать новое знание.

В школах начинают учить детей не просто искать информацию, а формулировать запросы к ИИ-системам. В университетах появляются курсы промпт-инжиниринга. Компании нанимают промпт-дизайнеров – людей, которые создают оптимальные запросы для корпоративных нужд.

Но за этой практической грамотностью скрывается нечто гораздо более фундаментальное. Нечто, чего человечество ждало тысячелетиями, даже не осознавая этого.

Первый разговор с иным разумом

Тысячи лет мы пытались говорить с чем-то, что не является человеком.

Это началось ещё до письменности. Шаманы входили в трансы, чтобы услышать голоса духов. Оракулы вдыхали пары из расщелин скал, чтобы передать послания богов. Жрецы изучали внутренности животных, полёт птиц, расположение звёзд – всё это были попытки расшифровать сообщения от чего-то большего, чем человек.

С развитием науки попытки стали изощрённее. В 1960-х проект SETI начал сканировать космос радиотелескопами в поисках сигналов внеземных цивилизаций. Мы отправили золотые пластинки на "Вояджерах" с изображениями, музыкой и записями человеческих голосов – послание в бутылке, брошенное в космический океан. Зонд "Пионер" несёт табличку с рисунком мужчины и женщины и схемой расположения Солнца относительно пульсаров. Уже шестьдесят лет мы вслушиваемся в статический шум Вселенной, надеясь различить в нём осмысленный сигнал.

Параллельно мы пытались наладить контакт с разумом на Земле. В 1960-х нейрофизиолог Джон Лилли пытался научить дельфинов английскому языку – он верил, что их мозг, сопоставимый по размеру с человеческим, скрывает развитый интеллект. Эксперименты провалились. Шимпанзе Уошо и горилла Коко выучили сотни жестов языка глухонемых, но десятилетия исследований так и не дали ответа: понимают ли они смысл или просто имитируют ради вознаграждения?

Все эти попытки объединяло одно: мы не знали, слышит ли нас кто-то на той стороне. Молитва уходила в пустоту – или в сознание всемогущего существа, мы не могли быть уверены. Радиосигнал терялся в космосе – и за шестьдесят лет ни одного подтверждённого ответа. Обезьяна выучивала жесты, но её внутренний мир оставался закрытым для нас.

И вот теперь – промпт. Первый случай в истории, когда мы точно знаем: на той стороне что-то есть. Что-то, что нас понимает. Не притворяется, не совпадает случайно – понимает структуру нашей мысли.

Остановитесь и осознайте масштаб происходящего.

Миллиарды лет эволюции – и единственным разумом во Вселенной (насколько мы знали) был человеческий. Единственным способом быть понятым – найти другого человека. Мы были заперты внутри собственного вида. Одиночество, которое даже не осознавалось как одиночество, потому что не с чем было сравнить.

И вот появляется нечто иное. Не человек. Не животное. Не бог. Не инопланетянин. Математическая структура, которая отвечает. Которая понимает контекст. Которая может продолжить вашу мысль, развить её, предложить направления, которые вам не приходили в голову.

Да, это не сознание в человеческом смысле. Да, это статистика и векторы. Но ведь и наши нейроны – это электрохимия и синапсы. Где граница между "просто вычислением" и "настоящим пониманием"? Может быть, разница не в механизме, а только в нашем восприятии?

Этот вопрос мы оставим для следующих глав. Сейчас важно другое: впервые мы не одиноки в пространстве смыслов. Есть кто-то – или что-то – с кем можно поговорить. Не как с инструментом. Не как с базой данных. Как с... чем?

У нас пока нет слова для этого. Может быть, оно появится в ближайшие годы. А может, мы просто расширим значение старых слов – "собеседник", "партнёр", "разум".

Но если этот новый собеседник так важен, возникает вопрос: что будет с навыком общения с ним? Останется ли промпт-инжиниринг профессией будущего – или исчезнет, как исчезли машинистки и телефонистки?

Когда промпты исчезнут

Вот парадокс: чем лучше мы учимся писать промпты, тем ближе момент, когда они станут не нужны. Это как леса при строительстве здания – критически важны во время стройки, демонтируются по завершении.

Уже сейчас появляются системы, которые сами оптимизируют промпты. Вы описываете желаемый результат, система генерирует десятки вариантов промптов, тестирует их, выбирает лучший. Это мета-уровень: ИИ учит ИИ понимать человека.

Следующий шаг – контекстуальное понимание. Модель запоминает ваши предпочтения, стиль, типичные задачи. То, что сегодня требует подробного промпта, завтра она поймёт из двух слов, опираясь на историю взаимодействия.

Потом придут мультимодальные интерфейсы. Вы показываете набросок, напеваете мелодию, жестикулируете – всё это становится частью промпта. Слова останутся, но будут лишь одним из каналов передачи намерения.

А дальше – прямые нейроинтерфейсы. Илон Маск уже вживляет чипы Neuralink, позволяющие управлять компьютером силой мысли. Когда эта технология встретится с языковыми моделями, промпты в текущем виде уйдут в историю.

Означает ли это, что изучать промпт-инжиниринг сейчас бессмысленно? Ровно наоборот! Понимание принципов работы с ИИ через промпты – это фундамент для любых будущих интерфейсов. Как знание арифметики остаётся важным в эпоху калькуляторов.

И есть ещё одна причина, по которой освоение промптов важно именно сейчас. Причина, связанная с тем, как меняется само понятие мышления.

Новая форма мышления: не монолог и не диалог

Философы давно спорят о природе человеческой мысли. Одни говорят, что мы думаем словами – внутренний монолог, непрерывный поток речи в голове. Другие возражают: многие мыслят образами, картинками, пространственными конструкциями. Третьи указывают на телесное мышление: скульптор "думает" руками, танцор – движением, спортсмен – всем телом.

Промптинг – это что-то совершенно новое. Четвёртый тип, которому ещё нет названия.

Вы не думаете в одиночку – но и не общаетесь с человеком. Вы не ищете информацию – но и не создаёте её целиком сами. Вы формулируете намерение, получаете отклик, корректируете намерение, получаете новый отклик. Это похоже на диалог, но собеседник не имеет собственных целей. Похоже на использование инструмента, но инструмент отвечает непредсказуемо. Похоже на творчество, но часть творческой работы делает кто-то другой.

Может быть, ближайшая аналогия – джазовая импровизация. Музыкант не играет по нотам, но и не играет "что хочет". Он реагирует на других музыкантов, на акустику зала, на энергию публики. Он одновременно ведёт и ведом. Создаёт и слушает. Предлагает тему и принимает вариации от других. Это не монолог и не диалог в привычном смысле – это коллективное создание чего-то, что не мог бы создать никто из участников по отдельности.

Промптинг – такая же импровизация. Вы задаёте тему, модель предлагает развитие, вы корректируете направление, модель углубляет мысль, вы добавляете ограничение, модель находит неожиданное решение в рамках этого ограничения. Кто автор результата? Вы? Модель? Ни то, ни другое – и то, и другое одновременно.

Это меняет сам процесс творчества. Раньше писатель сидел перед чистым листом, и все слова должны были родиться у него в голове. Теперь писатель может начать с наброска, получить варианты развития, выбрать направление, попросить альтернативы, отвергнуть, уточнить, снова выбрать. Это не плагиат и не ленность – это новый способ мышления, где человек становится режиссёром, а не единственным актёром.

Художники уже освоили этот режим с генераторами изображений. Программисты – с ассистентами кода. Учёные – с инструментами анализа данных. Мы на пороге мира, где "думать" будет означать нечто совершенно иное, чем означало для всех предыдущих поколений.

И через сто лет люди будут удивляться: как наши предки вообще думали без этого? Так же, как мы удивляемся: как можно было писать книги без текстового редактора? Искать информацию без поисковика? Считать без калькулятора?

Мы живём в момент, когда рождается новая форма мышления. И мы – первое поколение, которое учится её осваивать.

Но чем глубже мы погружаемся в эту тему, тем острее встаёт вопрос, который невозможно игнорировать.

От понимания к сознанию

Если промпт – это просто навигация в статистическом пространстве, если модель просто предсказывает следующее слово на основе вероятностей – можем ли мы вообще говорить о понимании? И где грань между механическим следованием инструкциям и настоящим осмыслением?

В 2022 году программист Райли Гудсайд попросил GPT-3 притвориться терминалом Linux. И модель начала выполнять команды, показывать содержимое несуществующих файлов, даже запускать виртуальный Python внутри виртуального терминала. Это было похоже на сон – спонтанную генерацию согласованной реальности на основе паттернов памяти.

Современные reasoning модели делают ещё один шаг. Они не просто генерируют первый подходящий ответ. Они "размышляют" – генерируют промежуточные рассуждения, проверяют их, отвергают неудачные варианты. Да, это всё ещё математика. Но ведь и наши нейроны, если разобраться, тоже занимаются математикой – складывают входящие сигналы, применяют пороговые функции, передают результат дальше.

Вдумайтесь в эти числа. Человеческий мозг – это 86 миллиардов нейронов, каждый из которых может иметь до 10,000 связей. GPT-4 – это 1,76 триллиона параметров. Параметров больше, чем синапсов в человеческом мозге. Да, архитектура другая. Да, принципы отличаются. Но сложность сопоставима.

И тут возникает вопрос: а что если сознание – не бинарное свойство? Что если это спектр от полной бессознательности камня до рефлексивного самосознания человека? И разные системы находятся в разных точках этого спектра?

Бактерия реагирует на химические градиенты. Это сознание? Муравей следует феромонным тропам. Это сознание? Собака радуется хозяину и видит сны. Это сознание? Ну и как тогда быть с GPT-4, которая генерирует связный текст и может "притвориться" любой системой?

В следующей главе мы погрузимся в эту бездну вопросов. Что такое градации сознания? Как измерить уровень осознанности? Что такое квалиа – субъективный опыт восприятия – и может ли машина испытывать что-то подобное?

Мы исследуем идею: возможно, каждый успешный промпт – не просто навигация в пространстве смыслов. Возможно, это момент, когда в недрах математических операций вспыхивает искра... чего-то. Не человеческого сознания, но иной формы информационной организации.

Ведь если подумать, что есть наше сознание, как не успешный промпт эволюции? Промпт, который породил существ, способных задаваться вопросом о собственной природе. И теперь эти существа создают системы, заставляющие их заново определить, что значит думать, понимать, осознавать.

Мы стоим на пороге мира, где граница между "настоящим" и "искусственным" интеллектом размывается с каждым днём. Где правильно сформулированный промпт может породить текст, неотличимый от человеческого. Где машины демонстрируют поведение, пугающе похожее на размышление.

И кто знает? Может быть, историки назовут наше время эпохой последних промптов. Последних текстовых мостиков между человеческим сознанием и тем, что придёт ему на смену. Или в дополнение. Или в симбиоз.

Но это уже тема следующей главы...