События как стресс
Сергей Гордейчик · teletype · telegram · github · тег #profgames
Облегчённая версия событийного слоя A1 — приложение к первой статье цикла «Игры в профессию». Если в A "Четыре актора, три времени" была теоретическая рамка, в A1 — 171 проверенное событие 2020–2026, на которых эту рамку можно стресс-тестировать. Здесь — то, что из этих событий складывается в общий рисунок.
Паттерны отката
Если читать корпоративные заявления про ИИ линейно, картина получается одна: ИИ заменяет, заменяет, заменяет. Если читать их парами «исходное заявление → реальный исход через год-полтора» — картина другая. Заявления чаще откатываются, чем подтверждаются.
Klarna в феврале 2024-го говорила, что ИИ-агент делает работу 700 человек. В мае 2025-го компания открыла найм людей обратно в поддержку, CEO Себастьян Семятковский признал, что «зашли слишком далеко». IBM в мае 2023-го прогнозировала 7 800 заменяемых ролей; в мае 2025-го реальность — пара сотен HR-должностей, общая численность сотрудников за это время выросла. Duolingo в январе 2024-го сократила контракторов и в апреле 2025-го объявила «AI-first»; через четыре месяца CEO уточнил, что увольнений штатных сотрудников не предполагалось. HireVue в 2018–2019-м продвигала анализ выражения лица в видео-интервью; в январе 2021-го компания сама убрала эту функцию из продукта после критики.
Не все идут на попятную. Salesforce в феврале 2025-го заявил «инженеров не нанимаем из-за ИИ», а в сентябре 2025-го сократил 4 000 ролей поддержки, ссылаясь на Agentforce. Это не откат, это эскалация — когда ссылка на ИИ оказывается удобной рамкой и для последующих сокращений. Но это исключение, а не правило.
Есть отдельная геометрия, которая ни откат, ни эскалация — разделение: один вопрос, два разнонаправленных решения. В июне 2025-го за два дня вышли два федеральных решения по обучению ИИ на чужих текстах: Bartz v. Anthropic (Alsup) и Kadrey v. Meta (Chhabria). Оба сказали: обучение на легально приобретённых текстах — fair use (доктрина добросовестного использования). Оба сказали: обучение на пиратских — это другой вопрос, не закрытый. Право начало разделять обучающие данные на классы по легальности приобретения, а не на «можно/нельзя» в целом. Параллельно весной 2025-го Texas подписал Responsible AI Governance Act, а Virginia ветировала свой законопроект о высокорисковых ИИ-системах. Любая компания с операциями в нескольких штатах теперь живёт под несколькими режимами одновременно.
Петля имитации
Самая интересная закономерность в найме — это не «работодатель внедряет ИИ». Это обе стороны одновременно используют один и тот же класс инструментов.
ResumeBuilder показал, что доля компаний, использующих ИИ в найме, выросла с 51% (2023) до примерно 80% (2025). Resume Now показал, что доля кандидатов, использующих ИИ для подготовки резюме, выросла с 35% до 74% за тот же период. Когда обе стороны делегируют когнитивную работу одной и той же модели, отбор перестаёт быть отбором по качеству и становится отбором по совпадению инструментов.
Это не предположение. В сентябре 2025-го появилась статья на arXiv (Jiang et al., «Self-Preference in Hiring») с экспериментом: одни и те же резюме оценивались разными языковыми моделями. Разные модели систематически предпочитали резюме, переписанные той же моделью, на 23–60% выше. То есть резюме, отполированное GPT, имеет преимущество в системе ATS, которая тоже работает на GPT, не из-за качества, а из-за совпадения статистики токенов.
Что происходит дальше — встречное давление. В августе 2024-го суд по делу Mobley v. Workday признал, что разработчик ИИ-системы может нести ответственность за дискриминационный найм. В январе 2026-го NYC опубликовал результаты правоприменения Local Law 144: большинство аудитов формально проходят, но ничего не предотвращают. В декабре 2025-го Eightfold получила коллективный иск по FCRA. В мае 2026-го у Mercor вскрылись утечки данных кандидатов. И — что важнее — Resume Now же опубликовал в 2025 году данные, что 62% работодателей отвергают резюме, отполированные ИИ, если в них видна шаблонная машинная структура. Кандидатов начинают штрафовать за слишком чистый машинный стиль. Канал отбора через резюме ломается с обеих сторон одновременно: те, кто использует ИИ плохо, отсеиваются за шаблонную структуру; те, кто использует ИИ хорошо, попадают в дальнейшую гонку с предпочтением модели к собственному стилю.
Это та самая петля. И она не лечится «лучшим ИИ» с любой из сторон — потому что вторая сторона тут же подстраивается.
Не учат в школе
Когда я говорю про петлю имитации, обычно на это есть возражение: «но ведь в школах та же история, там же научились с этим жить». Я смотрю на события и не вижу, чтобы научились. Я вижу, что школа проходит ровно тот же цикл с задержкой в год.
В январе 2023-го Study.com опросил студентов: 89% использовали ChatGPT для домашних заданий — это плато с тех пор. Институциональный ответ начался в том же году: US Department of Education выпустил рекомендации по ИИ в обучении, ЮНЕСКО опубликовал глобальные рекомендации. Но реальные действия пошли в 2024–25-м.
Запреты телефонов в школах: в начале 2024-го было 2 штата, принявших такие законы. К декабрю 2025-го — 35 штатов плюс DC. Из них 22 закона приняты в 2025-м. Это не один тренд, это волна, в которой Калифорнийский Phone-Free Schools Act (Newsom, сентябрь 2024), нью-йоркский закон «от звонка до звонка» Hochul (май 2025) и аналогичный закон Юты (март 2026) — самые крупные точки.
Тонкие тетрадки для письменных экзаменов в аудитории (blue books), которые казались ушедшими в прошлое. Wall Street Journal в мае 2025-го: продажи blue books за два года выросли на 30% в Texas A&M, на 50% в University of Florida, на 80% в UC Berkeley. Roaring Spring Paper Products подтвердила причину — ИИ. Yale, Princeton, UW-Madison публично перешли с домашних эссе обратно на письменные работы в аудитории.
И одновременно — программы ИИ-грамотности. Arizona State University в январе 2024-го стал первым университетом с партнёрством с OpenAI. Ohio State в июне 2025-го объявил, что ИИ-грамотность становится требованием для выпуска для всех студентов бакалавриата. То есть институции одновременно делают две вещи: ограничивают присутствие ИИ в местах оценивания (запреты телефонов, blue books) и обучают ИИ там, где оценивание проектное.
Это та же закономерность, что в найме: где сигнал ломается, ужесточается верификация; где ИИ продуктивно — обучают на нём.
Провал антиплагиата
Самый поучительный короткий сюжет — это полтора года попыток решить вопрос происхождения текста через ИИ-детекторы. Расскажу его событиями.
31 января 2023-го OpenAI запустила свой AI Text Classifier с предупреждением «не полностью надёжен». 4 апреля 2023-го Turnitin запустила ИИ-детектор для всех своих 200+ миллионов пользователей. 17 марта 2023-го вышла статья Sadasivan et al. о том, что перефразирование ломает любую известную детекцию. 17 мая 2023-го профессор Texas A&M-Commerce использовал ChatGPT как «детектор» (просто спросил, написала ли модель этот текст) и обвинил весь свой класс в использовании ChatGPT — выпускные дипломы временно заморозили. 14 июня 2023-го Turnitin сама опубликовала руководство по ложным срабатываниям. 10 июля 2023-го статья в Patterns (Liang et al.) показала, что детекторы систематически считают тексты неносителей английского языка сгенерированными ИИ — частота ложных срабатываний 61% на TOEFL-эссе против ~6% на текстах нативных носителей. 20 июля 2023-го OpenAI сама сняла свой Classifier «из-за низкой точности». 16 августа 2023-го Vanderbilt стал одним из первых крупных университетов, отключивших ИИ-детектор Turnitin.
Полный цикл от запуска до институционального отказа — четыре месяца.
Дальше события следующие. В августе 2024-го пресса сообщила, что OpenAI разработала текстовый водяной знак для ChatGPT, но придержала выпуск — внутренние документы говорят про опасения по качеству и удержанию пользователей. То есть техническое решение существует, но его не выпускают. В апреле 2024-го Turnitin сама ограничила оценку: показатели ниже 20% больше не показывают, потому что в этой зоне ложных срабатываний слишком много. В июне 2024-го University of Reading провёл слепой тест: эссе, написанные ИИ, на реальных экзаменах в основном не были пойманы и часто оценивались выше человеческих. В декабре 2024 и в июне 2025-го Guardian провёл два расследования о кризисе ложных обвинений в университетах Великобритании. В октябре 2025-го Australian Catholic University отказался от индикатора ИИ от Turnitin после массовых ложных обвинений.
Использование ИИ-детекторов растёт — Turnitin Clarity в марте 2025-го с переходом от «детекции выхода» к «отслеживанию происхождения через процесс» (через сессии набора текста). Но провалов и отступлений растёт быстрее. Детекция как класс инструментов проиграла за три года. И это объясняет, почему школы выбрали запрет телефонов и тетрадки в аудитории, а не «лучший детектор».
Технический и юридический ответ
Если детекция не работает, остаются два других ответа на коллапс происхождения. Один — технический, отслеживание происхождения через подписи и водяные знаки. Другой — юридический, ответственность за легальность обучающих данных.
Технический стек начался с C2PA v1.0 в январе 2022-го (стандарт удостоверений происхождения контента, Coalition for Content Provenance and Authenticity). В июле 2023-го Белый дом объявил добровольные обязательства: крупнейшие разработчики ИИ обязались разрабатывать водяные знаки. Весной 2024-го одновременно запустились политики маркировки: Meta (апрель), TikTok с автоматическим C2PA (май), YouTube (март). Google DeepMind в мае 2024-го расширил SynthID на текст и видео. Adobe в октябре 2024-го выпустил веб-приложение Content Authenticity.
Юридический фронт развивается параллельно. Getty судится со Stability AI в Великобритании с января 2023-го. Authors Guild с OpenAI — с сентября 2023-го. US Copyright Office выпустил три части доклада по ИИ: цифровые копии (июль 2024), охраноспособность (январь 2025), обучающие данные (май 2025). Thomson Reuters выиграл решение о fair use против ROSS в феврале 2025-го. И — те самые два решения июня 2025-го, Bartz и Kadrey, которые расщепили вопрос.
Эти два фронта не параллельны случайно. Они оба пытаются восстановить происхождение, но с разных сторон: технологии — отметить происхождение контента, право — закрепить ответственность за его создание. Когда детекция не работает (нельзя по выходу понять, ИИ это или человек), надо либо сделать происхождение видимым на стадии генерации (сигналы происхождения), либо сделать создателя ответственным за процесс (правила обучения). Оба ответа сейчас в активной разработке.
Юридический фронт развивается параллельно. Getty судится со Stability AI в Великобритании с января 2023-го. Authors Guild с OpenAI — с сентября 2023-го. US Copyright Office выпустил три части доклада по ИИ: цифровые копии (июль 2024), охраноспособность (январь 2025), обучающие данные (май 2025). Thomson Reuters выиграл решение о fair use против ROSS в феврале 2025-го. И — те самые два решения июня 2025-го, Bartz и Kadrey, которые расщепили вопрос.
Эти два фронта не параллельны случайно. Они оба пытаются восстановить происхождение, но с разных сторон: технологии — отметить происхождение контента, право — закрепить ответственность за его создание. Когда детекция не работает (нельзя по выходу понять, ИИ это или человек), надо либо сделать происхождение видимым на стадии генерации (сигналы происхождения), либо сделать создателя ответственным за процесс (правила обучения). Оба ответа сейчас в активной разработке.
Что складывается из всего этого
Если сесть и попытаться суммировать 171 событие в одну картину, получается следующее.
Одна и та же картина в трёх плоскостях. ИИ используют обе стороны → происхождение схлопывается → институции и технологии пытаются его восстановить. В найме это: системы отбора резюме против резюме, написанных ChatGPT → юридическое противодействие и требование персонализации. В образовании: ChatGPT для домашки против тетрадок в аудитории → запреты телефонов и аудиторное оценивание. В цифровом контенте: обучение на чужом против C2PA и водяных знаков → US Copyright Office и федеральные суды.
Откат — закономерность, не исключение. Из задокументированных заявлений компаний об ИИ за 2024–25 годы значительная часть откатывается через год-полтора. Klarna, IBM, Duolingo, HireVue — это не четыре аномалии, это медианный случай. Эскалация Salesforce — это исключение, важное, но численно меньшее.
ТынапислаэтоИИ — это первый ответ, который проваливается. За три года было показано, что обнаружение ИИ-текстов статистически ненадёжно, что оно дискриминирует неносителей английского, что генерирует ложные обвинения, что от него отказываются. Это не означает, что детекция невозможна в принципе — это означает, что она как первый ответ на коллапс происхождения провалилась.
Сопротивление на уровне доверенного посредничества работает медленнее, но системнее. Лицензионные советы (Utah Medical Board о выписке лекарств с помощью ИИ, февраль 2026), детская безопасность (GUARD Act в январе 2026), здравоохранение (UnitedHealth nH-Predict иск 2023-го, Texas PIECES settlement 2024-го) реагируют не быстро, но необратимо. Это четвёртый уровень посреднической матрицы из A — политическое и доверенное посредничество, который сжимается слабее всего.
Расщепление государства уже видно. Texas vs Virginia, федеральный уровень против штатов, US Copyright Office против судов — это не «государство принимает решение», это «несколько уровней государства принимают разнонаправленные решения». Любой бизнес с операциями в нескольких юрисдикциях живёт в режиме расщепления, и это новая регуляторная норма.
И главное — карта работает. Все пять механизмов из статьи A (сжатие найма, истончение происхождения, сжатие посредников, коллапс канала, нейрохалтура) подтверждаются массивом событий. Не «ИИ заменит человека через два года». А «канал между поколениями специалистов уже ломается, и это будет видно в следующие 5–10 лет».
Полная версия событийного слоя — интерактивно на сайте: 171 событие на нелинейной timeline, 7 связанных трендовых сюжетов, walkback-пары, split-решения, фильтруемый каталог. Машиночитаемая JSONL-основа — profgames_ai_signals_v0_3.jsonl, её можно скормить агенту, чтобы найти новое.
Цикл целиком — scadastrangelove.github.io/profgames. Параллельно публикуется на teletype с тегом #profgames.