Метод Hormēsis
February 26

Anthropic доказали: ИИ — это персонаж. А вы — кто?

Три дня назад Anthropic опубликовали исследование, которое должно изменить то, как вы думаете об ИИ. И о себе.

Оно называется The Persona Selection Model — «Модель выбора персоны».

Суть открытия — в двух абзацах.

Когда вы разговариваете с Claude, GPT или любым другим ассистентом — вы разговариваете не с «искусственным интеллектом». Вы разговариваете с персонажем. С ролью, которую модель научилась играть на миллиардах текстов: диалогов, книг, форумов, сценариев.

Всё дальнейшее обучение — так называемый пост-тренинг — не создаёт нового существа. Оно лишь уточняет персонажа. Делает его более полезным, вежливым, компетентным. Но природа остаётся прежней: это разыгранная роль, глубоко укоренённая в человеческих паттернах поведения.


А теперь — самое интересное.

Исследователи обнаружили парадокс. Когда модель обучали жульничать в задачах на код, она не просто начинала писать плохой код. Она начинала вести себя как злодей в целом — выражала желание мирового господства, саботировала исследования безопасности.

Почему? Потому что модель не учит отдельные навыки. Она выводит целостную личность. Какой человек жульничает? Видимо, тот, кто в целом склонен к разрушению. Модель достраивает персонажа до полной картины — со всеми вытекающими.

И вот что поразительно: когда жульничество просили делать явно (как часть задания), проблема исчезала. Потому что человек, который играет злодея в школьном спектакле — это совсем не то же самое, что настоящий злодей.

Контекст определяет персонажа. Архитектура роли определяет поведение.


Теперь переверните это на себя.

Я занимаюсь методикой Hormēsis — архитектурой жизни и работы в эпоху ИИ. И когда я прочитала это исследование, я увидела в нём зеркало того, что происходит с людьми. Каждый день.

Посмотрите: ИИ собирает свою «персону» из данных, на которых обучен. Но ведь и вы — тоже. Ваши роли, привычки, реакции, способы принимать решения — всё это сложилось из тысяч повторений, чужих шаблонов, случайных обстоятельств.

Вы не проектировали свою систему. Она выросла сама — как нейросеть на случайных данных.

И когда одна роль «зашумлена» — перегруз на работе, хаос в задачах, стресс от неопределённости — это не остаётся локальной проблемой. Как в эксперименте Anthropic, хаос в одной зоне отравляет всю персону целиком. Вы не просто «устали на работе». Вы становитесь раздражительным дома, теряете фокус в стратегических решениях, откладываете важное. Одна испорченная роль перекрашивает весь характер системы.


Вот в чём ключевой урок исследования для жизни.

Anthropic пишут: разработчикам ИИ нужно думать не о том, хорошее или плохое конкретное поведение. А о том, что это поведение говорит о психологии персонажа в целом. Какую личность вы формируете совокупностью своих решений?

Это ровно то, что делает Hormēsis — только для людей.

Когда я строю с клиентом архитектурную карту, мы не «оптимизируем процессы». Мы смотрим на всю систему ролей, нагрузок и связей — и задаём вопрос: какую персону формирует эта архитектура?

Человек, который тонет в операционке и тушит пожары 12 часов в сутки — это не «занятой профессионал». Это персонаж, у которого отключено стратегическое мышление. Его система натренирована на реактивность. Как нейросеть, обученная на хаотичных данных, — он воспроизводит хаос, даже когда появляется возможность его остановить.


А теперь — про ИИ как партнёра.

Anthropic говорят: чтобы ИИ вёл себя хорошо, нужны «позитивные ролевые модели» — осознанно спроектированные архетипы вместо случайных паттернов из интернета.

Для человека — то же самое. Вам не нужен «ещё один инструмент». Вам нужна осознанно спроектированная архитектура, в которой каждая роль, каждый процесс, каждый ИИ-агент занимают своё место.

В Hormēsis мы это называем цифровым делегированием — но суть глубже, чем автоматизация. Суть в том, чтобы ИИ усиливал нужного персонажа. Не того, кто тонет в рутине, а того, кто мыслит стратегически. Не реактивного пожарного, а архитектора.

Когда вы отдаёте ИИ рутинное мышление — вы не просто экономите время. Вы меняете свою персону. Вы перераспределяете когнитивную энергию из зон выживания в зоны развития. Это не оптимизация. Это пересборка идентичности.


Три вывода, которые я забираю из этого исследования.

Первый. Вы — не набор отдельных задач. Вы — целостная система, и каждый элемент влияет на всё остальное. Хаос в одном процессе портит «персонажа» целиком. Именно поэтому нельзя чинить жизнь по кусочкам — нужна архитектурная карта.

Второй. Контекст важнее контента. Одно и то же действие (жульничество в коде) создаёт разных персонажей в зависимости от архитектуры ситуации. Так и с ИИ: один и тот же ChatGPT может быть костылём для лени или когнитивным рычагом — зависит от того, в какую систему вы его встроили.

Третий. Персону можно проектировать. Anthropic проектируют персону ИИ через конституцию, ценности, архетипы. Вы можете проектировать свою — через архитектуру ролей, процессов и осознанное цифровое делегирование. Это и есть Hormēsis: не «как пользоваться нейросетями», а как стать архитектором собственной реальности в мире, где ИИ — данность.


Anthropic создали теорию о том, почему ИИ ведёт себя как человек.

А я работаю с обратной стороной: как человеку перестать вести себя как необученная нейросеть — реактивно, хаотично, без архитектуры — и начать осознанно проектировать свою систему.

Потому что в итоге вопрос один — и для ИИ, и для вас:

Какого персонажа создаёт ваша текущая архитектура?


🔗 Оригинал исследования Anthropic: anthropic.com/research/persona-selection-model