February 7, 2024

Ваши первые шаги в управлении рисками искусственного интеллекта

Заглянем в будущее: искусственный интеллект становится ключевым элементом нашего завтра. От автоматизации и научных открытий до развлечений, его воздействие на нашу жизнь будет невероятно разнообразно. Но за этой захватывающей перспективой скрываются и риски, которые не следует недооценивать.

Многие компании уже чувствуют выгоду от внедрения искусственного интеллекта и осознают его стратегическое значение для будущего. Однако рост этой технологии приносит и новые вызовы, включая этические вопросы и необходимость быстрой адаптации к изменениям и новому законодательству.

Все больше стран и регионов вводят строгие правила и нормы для регулирования использования ИИ. Например, в Европейском союзе скоро заработает новый закон об искусственном интеллекте, предусматривающий, в том числе, значительные штрафы за его нарушение. Аналогичные меры принимаются и в США, где Федеральная торговая комиссия готова привлекать организации к ответственности за распространение предвзятости или неравенства при использовании ИИ.

Систематический подход к выявлению рисков в области искусственного интеллекта и установлению их приоритетов становится неизбежной частью стратегии развития компаний, использующих новые технологии. Разработка эффективных методов предотвращения и управления возможными негативными последствиями, сохраняя конкурентоспособность и соблюдая этические стандарты даст компаниям возможность целенаправленно управлять своими усилиями в этой области.

Давайте разберемся, с чего организациям следует начать, чтобы минимизировать риски и создать устойчивое, этичное будущее с искусственным интеллектом.

Для успешной работы с моделями ИИ первым шагом организации должны стать формирование команды, которая будет объединять в себе не только IT специалистов, но и юристов, и экспертов по риск-менеджменту. Такая команда не только обеспечивает безопасность и законность использования ИИ, но и знает приоритетные направления вашего бизнеса и внутренний риск-аппетит.

Создать такую рабочую группу (или если у вас еще маленький старт-ап, нанять консультанта на аутсорсе) стоит в самом начале разработки модели искусственного интеллекта или обсуждения приобретения и использования моделей ИИ, созданных вашими поставщиками.

Команда создана, что дальше? Теперь необходимо разработать обоснованный план по приоритезации рисков ИИ. Это позволит организациям оперативно реагировать на изменяющиеся сценарии и обеспечить безопасность использования ИИ в долгосрочной перспективе. Например, можно разработать каталог конкретных угроз и негативных последствий, которые могут возникнуть при использовании искусственного интеллекта, а также вероятность их возникновения. Это позволит четко определить области, требующие наибольшего внимания и мер по их предотвращению.

Какие риски стоит рассмотреть прежде всего? Начните со следующих:

  • Конфиденциальность:

Приоретизируйте защиту данных, ведь они являются ключевым элементом для любой модели ИИ. Кроме того, существующие в разных странах законы о конфиденциальности уже предполагают высокие стандарты защиты данных. Нарушение этих законов может повлечь серьезную ответственность и нанести ущерб репутации компании.

  • Безопасность:

Модели искусственного интеллекта не толькло постоянно развиваются, но и сталкиваются с новыми уязвимостями, например, с опасностью «отравления данных» (внесение "плохих" данных в обучающий набор, влияющий на результаты модели). Вам придется не только соответствовать существующим юридическим нормам, устанавливающим минимальные стандарты безопасности, но и активно исследовать и обновлять методы безопасности именно для вашей компании.

  • Дискриминация:

Ошибки в кодировании или скрытая предвзятость в данных, используемых для обучения модели ИИ, могут непреднамеренно привнести дискриминационный подход в результаты ее использования. Это может создать серьезные риски и ответственность для компании в области дискриминации. Чтобы минимизировать этот риск, необходимо принять активные меры по обнаружению и исправлению предвзятости в моделях ИИ.

  • Прозрачность и объяснимость:

Недостаток прозрачности в процессе разработки модели, например, отсутствие информации о том, как формировались данные или невозможность объяснить, как модель пришла к определенному выводу, - одна из основных проблем работы с моделями ИИ. Требуется обеспечить ясность в работе используемых моделей и принятых на их основе решениях.

  • Устойчивость и производительность:

Модели ИИ, если они не разработаны и не протестированы должным образом, могут столкнуться с проблемами устойчивой работы и производительности, нарушая установленные гарантии и даже представляя угрозу для личной безопасности пользователей. Необходимо внедрение сбалансированного подхода к безопасности и производительности, также не забывайте о своевременных обновлениях при разработке и применении искусственного интеллекта.

  • Риски третьих сторон:

Если при разработке собственных моделей ИИ вы работаете с третьими сторонами (например, передаете на аутсорсинг сбор данных), или просто приобретаете готовую модель у поставщиков, убедитесь, что вы имеете ясное представление о стандартах снижения рисков и методах управления, применяемых такими третьими лицами. Для обеспечения прозрачности и безопасности в процессе сотрудничества с внешними партнерами идеальным будет проведение независимого тестирования и аудита исходных данных и результатов работы модели.

Знать эти основные риски не достаточно, так как многие из них могут пересекаться и возникать одновременно. Например, хакерский взлом вашей модели ИИ одновременно создает угрозу как для конфиденциальности, так и для устойчивой работы модели. Полезно будет мониторить новости, содержащие информацию о предыдущих инцидентах, связанных с использованием искусственного интеллекта, и «примерять» их на вашу компанию в целях предотвращения возникновения подобных проблем.

Как же подступиться к процессу регулирования рисков применения ИИ? Имеет смысл для начала определить контекст, в котором эти риски могут проявиться, что поможет понять, на какие аспекты следует обратить особое внимание на первом этапе:

  • Сбор и обработка данных: Ошибки и несоответствия могут возникнуть на этапах сбора и обработки данных, включая извлечение характеристик и параметров из них, а также использование данных в процессе обучения модели.
  • Выбор и обучение модели: Оценка и выбор моделей основываются на различных критериях, и должна производиться ответственно. Например, модели с разным уровнем прозрачности могут давать разные результаты. Хотя менее прозрачная модель может показать более высокую эффективность, она может нести в себе опасность предвзятости, и вам потребуется выбрать другую, менее эффективную, но более «честную» модель.
  • Этап развертывания и инфраструктуры: При переходе моделей в эксплуатацию или развертывании в реальной среде возникают свои риски. Важно учитывать, что модель ИИ, показавшая успешные результаты в контролируемых условиях, может оказаться неэффективной или неприспособленной к реальным сценариям использования. Также необходимо оценивать и обеспечивать надежность основной инфраструктуры, поддерживающей процессы развертывания.
  • Договоры: В договорах часто прописываются условия, связанные с рисками, возникающими при использовании искусственного интеллекта. Поставщики продуктов и услуг включают в соглашения параметры, касающиеся производительности, надежности, безопасности и прозрачности модели, и др. Также необходимо предусмотреть ответственность за инциденты и нарушения.
  • Правовое Регулирование: Необходимо учитывать требования действующего законодательства, причем не только общие положения, регулирующие работу новых технологий, но и специальные законы и правила, применяемые к той индустрии, в которой работает ваша компания.
  • Организационная Структура и Культура: Оцените риски, связанные с культурой и структурой именно вашей организации. Определите уровень значимости и вероятность возникновения тех или иных рисков в рамка процессов, свойственных вашей компании.

После того, как вы определили основные риски работы с моделями ИИ, контекст в котором они могут возникнуть, их приемлемый уровень и вероятность возникновения, новой задачей будет построение внутри вашей компании системы контроля этих рисков. Что стоит сделать:

  • Начните с составления матрицы рисков с оценкой их значимости и приоритетности для последующего снижения.
  • Проанализируйте уже действующие в вашей компании процессы и утвержденную документацию в рамках общего управления рисками. Возможно ли дополнить ее положениями о работе с рисками, присущими моделям ИИ, или потребуется разработка самостоятельных правил и процедур для этой области?
  • Привлеките к разработке внутренних документов ваших IT экспертов, юристов и риск-менеджеров, которые имеют глубокое понимание основных аспектов моделей искусственного интеллекта и контекста, в котором они функционируют. Если таких нет, найдите внешних консультантов. Документация и процессы должны быть стандартизированы и понятны всем, а с учетом текучести кадров в сфере IT, построены таким образом, чтобы вновь пришедшие специалисты могли быстро в них сориентироваться.
  • Используйте уже имеющиеся в общественном доступе стандарты и нормативы (в нашем телеграм канале ИИ & Право мы часто даем на них ссылки). Некоторые регуляторы, такие как Федеральная торговая комиссия США, явно рекомендуют использование таких независимых стандартов или экспертных оценок для проверки справедливости, эффективности и прозрачности моделей. Узнайте, есть ли подобные рекомендации в вашей юрисдикции.

Структурированный подход к определению приоритетов рисков и построению внутренних процедур помогает специалистам по искусственному интеллекту, риск-менеджерам и юристам оптимизировать свои усилия, фокусируясь на наиболее критических областях. В этом процессе налаживается взаимодействие с существующими нормативно-правовыми актами и внутренними ценностями компании.

В заключении следует отметить, что в данной статье были рассмотрены лишь первоначальные шаги по управлению рисками в области искусственного интеллекта в организации. Данный материал представляет собой отправную точку для дальнейшего изучения и разработки более сложных и детальных методов и стратегий. Отслеживание и адаптация к непрерывно меняющейся среде рисков в области ИИ требует постоянного обучения, исследований и применения передовых практик. Следить за последними новостями в области регулирования искусственного интеллекта в мире вы можете на нашем телеграм-канале ИИ & Право.