plugoShots
January 15

Корпоративный суицид через промпт: как сотрудники «скармливают» ваши секреты публичным ИИ

plugoShots ⚡️ 09:09 / 15 янв 2026 🔐 "Безопасный" четверг


Корпоративный NDA – бесполезен против ChatGPT: как сотрудники «сливают» компанию по кусочкам 🔐

Пока юристы обновляют NDA, а безопасники настраивают фаерволы – ваш бизнес утекает в сеть через самое слабое звено: желание сотрудников работать быстрее.

В 2026 году главная угроза коммерческой тайне – это не хакеры, а джун, который вставил кусок кода или финансовый отчет в публичный ChatGPT, чтобы «быстренько поправить».


SIGNALS 2026 фиксирует: эпоха «теневого ИИ» (Shadow AI) в корпорациях достигла пика

1 | Иллюзия контроля: NDA больше не работает

Давайте честно: традиционные соглашения о неразглашении писались для эпохи, когда данные можно было унести на флешке. Они бессильны против мира, где Ctrl+C / Ctrl+V в окно чат-бота экономит сотруднику 3 часа работы.

Аксиома: если у сотрудника есть доступ к публичному ИИ и рабочая задача – в 2026 году он их "совместит" с вероятностью 90%. И плевать он хотел на корп. регламенты, когда горят дедлайны.


2 | Как данные становятся «общими»

Проблема публичных моделей (даже в 2026 году) – в том, что они учатся на диалогах. Как только ваш квартальный отчет или аналитика продаж попали в промпт условного бесплатного бота – считайте, что вы опубликовали его в газете. Он стал частью обучающей выборки. Через неделю конкурент, задав правильный вопрос, может получить инсайт, основанный на ваших цифрах.

Это не баг, это фича системы.


3 | Запреты — путь в никуда

Первая реакция бизнеса (и государства) – все запретить. Заблокировать доступ к ИИ-сервисам на рабочем контуре. Но это глупость уровня запрета интернета в офисах в 2000-х. Сотрудники просто достанут личные смартфоны и продолжат «сливать» данные через них, только теперь вы этого вообще не видите.

В SIGNALS 2026 отмечено: компании с жесткими запретами ИИ теряют до 30% продуктивности по сравнению с теми, кто этот процесс возглавил.


4 | Решение 2026 года: Приватный контур

Единственный выход – дать сотрудникам легальную, безопасную альтернативу. В 2026-м стандартом становятся корпоративные (on-premise) LLM-модели, развернутые на серверах компании (или в защищенном облаке с гарантией Zero Data Retention). Да, это дорого. Но это цена того, что ваши стратегии останутся вашими. Бизнес должен купить сотрудникам «корпоративный ChatGPT», который гарантированно «забывает» все после окончания сессии.

А еще есть NotebookLM от Google, который может работать в связке с Gemini – я вот только начал с ним разбираться, и уже "ору от восторга"...


5 | Мои выводы / Прогнозы

Роль директора по безопасности (CISO) кардинально меняется. Теперь его главная задача – не ловить инсайдеров, а выстраивать архитектуру безопасного промптинга.

Совет:
Провести аудит прямо сейчас. Вы удивитесь, сколько ваших сотрудников уже используют ИИ-плагины в браузерах, которые читают все содержимое их рабочих вкладок.


И как после этого быть уверенным, что ваша гениальная стратегия на 2027 год еще не стала частью обучающих данных для следующей версии GPT?

Может, стоит спросить у нейросети: «Напиши стратегию развития для компании [Ваш Бренд]», – и ужаснуться точности ответа?

😂

 


plugoShots ⚡️ 09:09 / 15 янв 2026 🔐 "Безопасный" четверг

plugoShots – короткие технологические инсайты по будням в 09:09. Больше и чаще – в Телеграме @plugoNews и на plugotarenko.com