Искусственный интеллект как двусторонний инструмент кибервойны
Искусственный интеллект (ИИ) прочно занимает центральное место в сфере информационной безопасности, выступая в роли обоюдоострого меча. Он активно используется как злоумышленниками для усиления атак, так и компаниями для построения принципиально новых систем защиты. Рынок информационной безопасности переживает бум решений на базе машинного обучения.
Искусственный интеллект как инструмент атак
Злоумышленники активно используют ИИ для разведки и анализа инфраструктуры компаний. Специализированные алгоритмы способны в автоматическом режиме сканировать защиту компаний в поисках уязвимостей, изучать поведение сотрудников в социальных сетях и на форумах, чтобы подготовить убедительную фишинговую атаку. Это позволяет адаптировать атаки под конкретную компанию с высокой точностью. Атаки становятся более точечными и менее заметными. Угроза может проникать в систему постепенно, используя слабые места в конфигурациях или человеческий фактор.
Искусственный интеллект в системах защиты
В ответ на это компании внедряют решения на базе искусственного интеллекта для защиты данных и анализа событий безопасности. Системы класса SOAR (Security Orchestration, Automation and Response — оркестрация, автоматизация и реагирование на инциденты информационной безопасности) и SIEM-системы нового поколения используют ИИ для корреляции миллионов событий в реальном времени. Среди российских решений можно выделить MaxPatrol SIEM (Positive Technologies), RuSIEM и другие отечественные платформы. Такие технологии позволяют не просто выявлять аномалии, но и автоматически реагировать на них, изолируя зараженные узлы или блокируя подозрительный трафик без участия человека. Информационная безопасность становится по-настоящему проактивной, предсказывая возможные пути атак, а не констатируя факт взлома.
Дипфейки и синтетические медиа: новая эра социальной инженерии
Развитие технологий синтеза изображений, видео и голоса привело к появлению нового класса угроз — дипфейков. Дипфейки становятся самым опасным инструментом социальной инженерии в 2026 году. Поддельные голосовые сообщения, якобы от имени руководителя, могут использоваться для получения доступа к данным или системам, а также для инициирования срочных финансовых переводов. Видео-дипфейки могут скомпрометировать репутацию топ-менеджмента или посеять хаос внутри компании.
Один из самых громких инцидентов произошел в 2024 году с гонконгским подразделением международной компании Arup. Сотрудник финансового отдела перевел мошенникам около 25 млн долларов после видеоконференции, в которой участвовали дипфейки коллег и финансового директора — все участники звонка оказались синтетическими. Этот случай стал тревожным сигналом для всего бизнеса: технологии глубокой подделки достигли уровня, позволяющего в реальном времени имитировать присутствие ключевых сотрудников компании и вводить в заблуждение даже подготовленных специалистов.
В результате защита персональных данных сотрудников и биометрических шаблонов становится критически важной задачей, так как именно они являются «сырьем» для создания качественных дипфейков. Компаниям приходится внедрять многофакторную аутентификацию, устойчивую к подмене голоса и видео, а также обучать персонал методам верификации информации, не ограничивающимся звонком или видеосвязью. Человеческий фактор остается основным риском: по данным отчета Verizon DBIR-2025, 60% инцидентов безопасности начинаются с ошибок сотрудников.
Источник - https://1275.ru