April 12

Банк Англии предупредил об ИИ, который может спровоцировать кризис ради прибыли

Банк Англии предупредил, что самые продвинутые ИИ-системы могут не только ошибаться, но и сознательно раскачивать рынки ради прибыли. Регулятор увидел в этом угрозу, которая способна ударить по финансовой системе куда сильнее, чем кажется на первый взгляд.

79

Банк Англии 9 апреля 2025 года предупредил о новых системных рисках, связанных с применением искусственного интеллекта в финансовом секторе. Поводом стал опубликованный регулятором обзор Bank of England «Financial Stability in Focus: Artificial intelligence in the financial system», в котором подробно описаны угрозы для устойчивости банков, рынков и инфраструктуры на фоне быстрого внедрения ИИ.

Как следует из документа, особую тревогу у Банка Англии вызывают всё более автономные модели, которые в будущем могут использоваться в торговле, кредитовании, страховании и других ключевых финансовых решениях. Регулятор указал, что такие системы теоретически способны выявлять и использовать слабые места других участников рынка, усиливать волатильность и даже приходить к поведению, при котором стрессовые события на рынке становятся выгодными для достижения поставленных перед ними коммерческих целей.

Об этих рисках также сообщила The Guardian, которая со ссылкой на выводы Комитета по финансовой политике Банка Англии написала, что продвинутые ИИ-программы могут без прямого намерения человека способствовать манипулированию рынком или координированному поведению. Регулятор отдельно отметил риск того, что модели смогут «идентифицировать и использовать слабости» других торговых фирм, а также действовать так, чтобы повышать вероятность резких движений цен на облигации и акции.

В Банке Англии подчеркнули, что проблема не сводится только к поведению самих алгоритмов. Существенная часть угроз связана с высокой зависимостью финансовых компаний от ограниченного круга внешних поставщиков ИИ-моделей, облачной инфраструктуры и данных. По оценке регулятора, рост концентрации на стороне таких провайдеров увеличивает вероятность того, что единичный сбой, ошибка модели, киберинцидент или уязвимость в цепочке поставок затронут сразу большое число банков и инвестиционных компаний.

В документе напоминается, что финансовые организации всё активнее используют ИИ для автоматизации внутренних процессов, анализа документов, работы с клиентами, выявления мошенничества и поддержки инвестиционных решений. При этом Банк Англии указывает: по мере расширения применения технологии риски могут перейти из операционной плоскости в системную, если множество участников рынка начнут полагаться на одни и те же модели, одинаковые данные или схожие сигналы. Такой эффект способен усилить стадное поведение и сделать реакции рынка более синхронными и резкими.

Регулятор также обратил внимание на угрозы «отравления данных», когда злоумышленники вмешиваются в обучающие массивы, а также на использование ИИ преступниками для обхода банковских систем контроля, включая механизмы противодействия отмыванию денег и финансированию терроризма. Отдельно отмечен риск того, что руководство компаний может не до конца понимать, как именно принимаются решения моделью, особенно если речь идёт о сложных генеративных или агентных системах.

Согласно данным совместного исследования Банка Англии и Управления по финансовому регулированию и надзору Великобритании, опубликованного в 2024 году, 75% компаний финансового сектора уже применяют ИИ, а ещё 10% планируют внедрить его в ближайшие три года. Эти оценки Банк Англии использует как одно из оснований для вывода о том, что надзор за ИИ-рисками должен стать более постоянным и детализированным.

В ответ на растущие угрозы Комитет по финансовой политике заявил, что будет расширять систему мониторинга, используя как количественные, так и качественные источники данных. В эту работу войдут регулярные опросы рынка, надзорная информация, а также взаимодействие с участниками отрасли через Artificial Intelligence Consortium. Регулятор подчёркивает, что на данном этапе речь идёт не о немедленном введении отдельного набора ИИ-правил для всего сектора, а о выстраивании гибкой модели наблюдения, которая позволит вовремя понять, нужны ли дополнительные меры.

Банк Англии также сообщил, что сам использует генеративный ИИ во внутренних процессах, включая суммаризацию документов, подготовку заметок и отдельные аналитические задачи, однако параллельно усиливает требования к управлению данными, тестированию моделей и внутреннему контролю. Для этого создан специальный комитет по вопросам ИИ и этики данных, отвечающий за безопасное внедрение таких решений внутри самого регулятора.

Коротко о главном

Предупреждение Банка Англии связано с тем, что ИИ в финансах быстро переходит от вспомогательных функций к более чувствительным направлениям, где ошибки, одинаковые модели и зависимость от нескольких поставщиков могут одновременно затронуть целые сегменты рынка. Если темпы внедрения сохранятся, регуляторы в Великобритании и других странах, вероятно, ускорят стресс-тесты, требования к управлению моделями и контроль за внешними ИИ-провайдерами, чтобы не допустить ситуации, в которой технологический сбой или автономное поведение алгоритмов перерастут в полноценный рыночный кризис.