April 15

Сотрудники уже используют ИИ без разрешения компании. Что с этим делать?

В 2024 году, когда я ещё была CEO крупной производственной компании, мы всерьёз занялись вопросом внедрения ИИ внутри организации. Казалось бы, решение очевидное: рынок полон инструментов, коллеги из других компаний вовсю рассказывают об успехах. На практике всё оказалось значительно сложнее.

Первое препятствие, с которым сталкивается любая компания в России, это доступность. Использовать иностранные нейросети непросто технически и юридически, а отечественные решения пока, честно говоря, заметно уступают по качеству. Второе препятствие оказалось серьёзнее первого: безопасность данных. Мы приняли решение начать с малого и дали доступ к ИИ-инструментам в первую очередь маркетингу. Команда воодушевилась, результаты появились быстро. Но обеспечить реальную защиту данных при этом оказалось крайне сложно. Фактически у нас оставался единственный инструмент: разговоры, объяснения и обучение. Люди честно старались не загружать лишнего, но где проходит граница "лишнего" в конкретной рабочей ситуации, каждый решал сам.

Именно тогда я поняла, что это не техническая проблема и не проблема недисциплинированности сотрудников. Это системный вопрос, на который у большинства компаний до сих пор нет внятного ответа.

У него есть название: Shadow AI. Это несанкционированное использование ИИ-инструментов сотрудниками, которые нашли способ работать быстрее и эффективнее, не спрашивая разрешения у IT-отдела или юридической службы. И это происходит повсеместно. По данным McKinsey, сотрудники используют ИИ в среднем в три раза активнее, чем полагают их руководители. Три раза. Это не погрешность измерения, это системный разрыв между тем, что реально происходит в компании, и тем, что видит руководство.

Почему это происходит

Потому что официальные процессы одобрения инструментов работают медленно, а ИИ-инструменты решают реальные рабочие проблемы быстро. Сотрудник, которому нужно за час подготовить аналитическую записку, не будет ждать три месяца, пока IT согласует новый инструмент. Он откроет ChatGPT, вставит туда данные и получит результат. Логика железная, последствия потенциально катастрофические.

Что реально происходит с данными

Вот что важно понять руководителям, которые считают Shadow AI неудобной, но не критической темой. Когда сотрудник вставляет рабочий документ в публичный ИИ-сервис, эти данные уходят на внешние серверы. Условия использования большинства публичных сервисов предполагают, что данные могут использоваться для дообучения моделей. Это означает, что финансовые показатели, клиентские базы, стратегические планы, персональные данные сотрудников и клиентов потенциально оказываются за пределами контура компании.

Это не теоретический риск. В начале 2026 года стало известно, что Mass General Brigham, одна из крупнейших медицинских систем США, была вынуждена ввести специальное правило: не вносить данные пациентов в Perplexity и другие публичные ИИ-сервисы. Правило появилось именно потому, что сотрудники это делали. Врачи и медицинский персонал самостоятельно начали использовать публичные ИИ-инструменты для работы с медицинскими данными, не задумываясь о последствиях. Никакого злого умысла, только желание работать быстрее.

По данным McKinsey, 51% компаний, использующих ИИ, уже столкнулись хотя бы с одним негативным последствием, причём почти треть всех респондентов назвали главной проблемой неточность ИИ-систем. Среди остальных рисков, с которыми организации сталкиваются на практике: нарушение интеллектуальной собственности, проблемы с регуляторным соответствием, репутационный ущерб и несанкционированные действия ИИ-систем.

Показательная деталь: компании-лидеры в области ИИ сталкиваются с негативными последствиями чаще, а не реже остальных, потому что они развёртывают ИИ в два раза больше сценариев и работают в значительно более сложных, высокорисковых контекстах. Но разница между ними и отстающими не в том, что у лидеров меньше инцидентов, а в том, что у них выстроена система управления этими инцидентами.

Как понять, что у вас уже есть Shadow AI

Есть простой способ проверить, насколько глубоко эта практика укоренилась в вашей организации. Попросите руководителей среднего звена из разных департаментов описать, какие инструменты они использовали на прошлой неделе для рабочих задач. Или проведите анонимный опрос, который честно задаёт вопрос: используете ли вы ИИ-инструменты, не одобренные корпоративной политикой? Ответы, как правило, заставляют директоров по IT и безопасности смотреть в пол.

Другие признаки, на которые стоит обратить внимание: сотрудники необычно быстро справляются с задачами, которые раньше занимали значительно больше времени, в рабочих документах появляются характерные обороты и структура, типичные для генеративного ИИ, люди не могут объяснить источники данных в своих отчётах, а в браузерной истории рабочих устройств регулярно всплывают адреса публичных ИИ-сервисов.

Запреты не работают. Никогда не работали

Первая реакция многих компаний, когда они обнаруживают масштаб Shadow AI, это попытка его запретить. Составить регламент, заблокировать адреса на корпоративном уровне, добавить пункт в кодекс корпоративной этики. Я понимаю эту логику, но она воспроизводит ровно ту же ошибку, которую совершают компании в цифровой трансформации в целом: пытаться административными мерами остановить то, что движется силой реальной потребности.

Сотрудники используют публичные ИИ-инструменты не потому что хотят навредить компании. Они используют их потому что эти инструменты работают и экономят реальное рабочее время. Запрет без альтернативы означает только одно: люди начнут делать то же самое, только более скрытно.

McKinsey фиксирует: с 2022 по 2025 год среднее количество категорий ИИ-рисков, которые компании активно митигируют, выросло с двух до четырёх. Это хорошая новость, потому что компании всё-таки учатся. Плохая новость в том, что учатся они преимущественно через инциденты, а не через проактивную политику.

AI Governance Framework: пять шагов, которые реально работают

Ответ на Shadow AI не запрет, а управляемая легализация. Это звучит контринтуитивно, но именно так действуют организации, которые справляются с этой проблемой.

Первый шаг: провести честный аудит того, что уже используется. Не для того чтобы наказать, а для того чтобы понять реальный масштаб и потребности, которые стоят за несанкционированным использованием. Часто оказывается, что люди решают вполне конкретные рабочие проблемы, и у этих проблем есть безопасные корпоративные решения.

Второй шаг: создать белый список одобренных инструментов с чёткими условиями использования. Какие данные можно вносить в публичные инструменты, какие никогда нельзя, какие сервисы работают в защищённом режиме и подходят для чувствительных данных. Этот список должен быть живым документом, который обновляется по мере изменения инструментария и регуляторной среды.

Третий шаг: внедрить обучение по ИИ-безопасности для всех сотрудников, а не только для IT-специалистов. Большинство инцидентов с утечкой данных через публичные ИИ-сервисы происходят не от злого умысла, а от незнания. Человек просто не думает о том, что загрузка внутреннего финансового отчёта в ChatGPT может нарушить несколько регуляторных требований одновременно.

Четвёртый шаг: назначить ответственного за ИИ-governance. Это не должен быть IT-директор или директор по безопасности в качестве дополнительной нагрузки. В идеале это отдельная роль или, как минимум, рабочая группа с чёткими полномочиями, включающая представителей юридической службы, HR и операционных подразделений. Компании, у которых выстроено централизованное управление ИИ-рисками и в которых есть видимое участие руководства в вопросах ИИ-governance, значительно лучше справляются с последствиями инцидентов, когда те случаются.

Пятый шаг: создать механизм обратной связи и постоянного обновления политики. ИИ-инструменты меняются ежеквартально. Политика, написанная в 2024 году, к 2026-му уже устарела как минимум в половине пунктов. Компании, которые выигрывают, относятся к ИИ-governance не как к документу, который написали и забыли, а как к живому процессу, требующему регулярного внимания.

Почему это важно именно сейчас

Вот что изменилось за последние два года и делает эту тему по-настоящему срочной. ИИ-агенты, системы, которые не просто отвечают на вопросы, но самостоятельно планируют и исполняют многошаговые задачи, начинают проникать в рабочие процессы. По данным McKinsey, 62% компаний уже экспериментируют с агентными системами. Это означает, что ставки возросли: речь уже не только о сотруднике, который вставил текст в ChatGPT, но о системах, которые могут от имени компании отправлять письма, принимать заказы, обрабатывать данные и взаимодействовать с клиентами.

Компании, у которых сегодня нет выстроенного ИИ-governance, через год-два окажутся в ситуации, когда агентные системы уже работают, а кто несёт за них ответственность и по каким правилам они действуют, никто внятно ответить не может.

Что нужно сделать на этой неделе

Я не предлагаю разработать многолетнюю стратегию. Предлагаю начать с одного честного вопроса: знаете ли вы на самом деле, какие ИИ-инструменты используют ваши сотрудники прямо сейчас?

Shadow AI не исчезнет от того, что мы его запретим. Но он может стать управляемым, безопасным и даже конкурентным преимуществом, если подойти к нему как к симптому реальной потребности, а не как к дисциплинарной проблеме. И дело не в регламентах и запретах: в первую очередь нужно понять реальную картину, и уже на её основании выстраивать политики и правила работы.

Анна Миронова | Помогаю компаниям зарабатывать больше через людей, продажи и цифровые инструменты | Telegram: t.me/mironovanni | ailead.academy/annamironova