September 26

Некоторые проблемы проекта Закона Республики Казахстан «Об искусственном интеллекте»

Ссылка на официальный проект закона (на казахском языке) - https://mazhilis.parlam.kz/ru/all-bill/759

Файл с проектом закона на русском - https://docs.google.com/document/d/1apAnQ1sQ-7jTYI7rFXP18WIkQLrdBqFO/edit?usp=sharing&ouid=117663469552766525529&rtpof=true&sd=true

1. Определение и сфера применения: Риск «регуляторной ловушки»

  • Проблема, как она сформулирована в законе: Закон определяет искусственный интеллект как технологию, «позволяющую имитировать или превосходить когнитивные функции человека…».
  • Анализ риска: Эта формулировка, апеллирующая к «подобию человеку», является не технической, а философской. Она создаёт огромную неопределённость. С одной стороны, под неё могут попасть даже сложные калькуляторы или поисковые системы, которые «имитируют» счёт или поиск информации. С другой стороны, разработчик сложной системы, способной нанести вред, может заявить, что она не «имитирует человека», а решает узкую математическую задачу, и таким образом избежать ответственности. Это создаёт правовую лазейку и делает применение закона непредсказуемым как для бизнеса, так и для граждан.
  • Предлагаемое решение и его обоснование:
    • На уровне Закона: Необходимо отказаться от «имитации человека» и закрепить функциональное определение. Например: «Система ИИ — система обработки данных, использующая обучаемые или эвристические модели для автономного или полуавтономного формирования выводов, оказывающих влияние на решения или действия в заявленной области».

Почему это важно? Такое определение фокусируется не на том, на что похожа система, а на том, что она делает и как влияет на реальный мир. Это делает закон технологически нейтральным, более стабильным во времени и позволяет чётко определить, какие системы подпадают под его действие.

    • На уровне подзаконных актов: Разработать чек-листы и руководства с конкретными примерами и пограничными случаями, чтобы помочь разработчикам и надзорным органам однозначно классифицировать технологии.

2. Риск-ориентированный подход: «Классификация без последствий»

  • Проблема, как она сформулирована в законе: Закон вводит правильную классификацию систем по уровням риска — минимальный, средний и высокий. Однако он не устанавливает, какие конкретные обязательства наступают для владельца системы в каждом из этих случаев.
  • Анализ риска: Отсутствие прямой связки «класс риска → набор обязательств» делает всю систему неработоспособной. Для владельца системы «высокого риска» неясно, что именно он должен делать: проводить оценку воздействия на права человека (DPIA/AIA)? Осуществлять аудит на предвзятость? Страховать ответственность? Эта неопределённость создаёт поле для «ручного управления» со стороны регулятора, который сможет предъявлять произвольные требования, и повышает коррупционные риски.
  • Предлагаемое решение и его обоснование:
    • На уровне Закона: Внедрить матрицу обязанностей. Это таблица, где для каждого класса риска прописан минимальный набор обязательных действий. Например, для высокого риска это должно включать: обязательную предварительную оценку воздействия (DPIA/AIA), план негативных испытаний, ведение журнала инцидентов, обязательное страхование и создание канала для подачи жалоб.

Почему это важно? Это создаёт предсказуемые и прозрачные «правила игры», понятные всем участникам рынка. Бизнес получает чёткий чек-лист для соблюдения закона, а общество — гарантии безопасности для самых опасных систем.

    • На уровне подзаконных актов: Утвердить методики проведения оценки рисков, формы отчётов (DPIA/AIA) и критерии аккредитации независимых аудиторов.

3. Национальный оператор и данные: Риск монополии и злоупотреблений

  • Проблема, как она сформулирована в законе: Закон гласит, что «Правительство Республики Казахстан определяет оператора национальной платформы искусственного интеллекта», который получает доступ к данным госорганов и оказывает услуги.
  • Анализ риска: Назначение единого оператора без конкурса и чётких правил доступа — это прямой путь к монополии и коррупции. Такой оператор может устанавливать завышенные тарифы, предоставлять привилегированный доступ «своим» компаниям и отказывать неугодным. Централизация огромных массивов данных, включая государственные, в одних руках без прописанных в законе механизмов внешнего контроля создаёт колоссальную угрозу приватности и национальной безопасности в случае утечки или злоупотребления.
  • Предлагаемое решение и его обоснование:
    • На уровне Закона: Закрепить незыблемые принципы: обязательный открытый конкурс для выбора оператора; недискриминационный и равный доступ к платформе и данным для всех участников; обязательное логирование (журналирование) всех операций по доступу к данным и создание публичного реестра таких передач.

Почему это важно? Это разрушает монополию, обеспечивает здоровую конкуренцию и создаёт механизм общественного и государственного контроля за использованием данных, что критически важно для защиты частной жизни.

    • На уровне подзаконных актов: Утвердить конкретные условия конкурсов, типовые соглашения об уровне обслуживания (SLA), технические протоколы доступа и форматы логов.

4. Запреты и исключения: Риск «законной» слежки

  • Проблема, как она сформулирована в законе: Закон запрещает удалённую биометрическую идентификацию в реальном времени, но с оговоркой: «за исключением случаев, определенных законами Республики Казахстан».
  • Анализ риска: Эта формулировка является «широкой оговоркой», которая может полностью нивелировать сам запрет. С её помощью можно через другие, менее публично обсуждаемые законы, легитимизировать практически любую форму массового наблюдения, что представляет прямую угрозу базовым конституционным правам граждан на частную жизнь.
  • Предлагаемое решение и его обоснование:
    • На уровне Закона: Максимально сузить и конкретизировать исключения. Применение таких технологий должно быть возможно только при соблюдении совокупности строгих условий: доказанная острая необходимость и соразмерность угрозе; предварительное разрешение суда или независимого органа; чёткое ограничение по цели, месту и времени; обязательное ведение технических логов и, где это возможно, уведомление граждан постфактум.

Почему это важно? Это превращает абстрактный запрет в работающий механизм, который защищает общество от произвола и гарантирует, что столь инвазивные технологии применяются только в исключительных, легитимных и контролируемых ситуациях.

    • На уровне подзаконных актов: Разработать технические протоколы для таких систем, требования к их точности и порядку хранения логов.

5. Ответственность и возмещение вреда: Риск безнаказанности

  • Проблема, как она сформулирована в законе: Закон отсылает к общему порядку Гражданского кодекса и делает страхование добровольным.
  • Анализ риска: Для сложных систем ИИ доказать в суде причинно-следственную связь между действиями разработчика и наступившим вредом практически невозможно. Это оставляет пострадавшего без реальной возможности получить компенсацию. Отсутствие обязательного страхования лишает разработчиков систем высокого риска (например, в медицине или на транспорте) экономического стимула инвестировать в максимальную безопасность.
  • Предлагаемое решение и его обоснование:
    • На уровне Закона: Ввести обязательное страхование ответственности или предоставление иных финансовых гарантий для систем ИИ, отнесённых к категории высокого риска.

Почему это важно? Это создаёт гарантийный фонд, из которого пострадавшие смогут получить компенсацию, и одновременно заставляет рынок (через страховые тарифы) более строго оценивать реальные риски технологий, стимулируя разработчиков повышать безопасность своих продуктов.

    • На уровне подзаконных актов: Определить минимальные лимиты страхового покрытия, перечень типовых страховых случаев и порядок урегулирования споров.

6. Права человека: Риск «цифрового бесправия»

  • Проблема, как она сформулирована в законе: Закон упоминает право граждан «быть информированным», но не даёт конкретных инструментов для защиты своих прав.
  • Анализ риска: Если алгоритм банка отказал вам в кредите, а система отбора кадров отклонила ваше резюме, простого информирования об этом недостаточно. Без права на объяснение и пересмотр человек оказывается в ситуации «цифрового бесправия», не имея возможности оспорить потенциально ошибочное, предвзятое или дискриминационное решение машины.
  • Предлагаемое решение и его обоснование:
    • На уровне Закона: Чётко закрепить пакет прав граждан при взаимодействии с системами ИИ, оказывающими значимое воздействие: право на уведомление, право на получение понятного объяснения логики решения, право на человеческий пересмотр и право на подачу жалобы по ясной процедуре.

Почему это важно? Это возвращает человеку контроль и субъектность в цифровом мире, создавая механизм подотчётности для автоматизированных систем и защищая от произвола «чёрного ящика».

    • На уровне подзаконных актов: Разработать стандарты качества объяснений, определить критерии «значимого воздействия» и установить конкретные сроки и форматы рассмотрения жалоб.

Итоговая таблица предложений по доработке Закона