Некоторые проблемы проекта Закона Республики Казахстан «Об искусственном интеллекте»
Ссылка на официальный проект закона (на казахском языке) - https://mazhilis.parlam.kz/ru/all-bill/759
Файл с проектом закона на русском - https://docs.google.com/document/d/1apAnQ1sQ-7jTYI7rFXP18WIkQLrdBqFO/edit?usp=sharing&ouid=117663469552766525529&rtpof=true&sd=true
1. Определение и сфера применения: Риск «регуляторной ловушки»
- Проблема, как она сформулирована в законе: Закон определяет искусственный интеллект как технологию, «позволяющую имитировать или превосходить когнитивные функции человека…».
- Анализ риска: Эта формулировка, апеллирующая к «подобию человеку», является не технической, а философской. Она создаёт огромную неопределённость. С одной стороны, под неё могут попасть даже сложные калькуляторы или поисковые системы, которые «имитируют» счёт или поиск информации. С другой стороны, разработчик сложной системы, способной нанести вред, может заявить, что она не «имитирует человека», а решает узкую математическую задачу, и таким образом избежать ответственности. Это создаёт правовую лазейку и делает применение закона непредсказуемым как для бизнеса, так и для граждан.
- Предлагаемое решение и его обоснование:
- На уровне Закона: Необходимо отказаться от «имитации человека» и закрепить функциональное определение. Например: «Система ИИ — система обработки данных, использующая обучаемые или эвристические модели для автономного или полуавтономного формирования выводов, оказывающих влияние на решения или действия в заявленной области».
Почему это важно? Такое определение фокусируется не на том, на что похожа система, а на том, что она делает и как влияет на реальный мир. Это делает закон технологически нейтральным, более стабильным во времени и позволяет чётко определить, какие системы подпадают под его действие.
2. Риск-ориентированный подход: «Классификация без последствий»
- Проблема, как она сформулирована в законе: Закон вводит правильную классификацию систем по уровням риска — минимальный, средний и высокий. Однако он не устанавливает, какие конкретные обязательства наступают для владельца системы в каждом из этих случаев.
- Анализ риска: Отсутствие прямой связки «класс риска → набор обязательств» делает всю систему неработоспособной. Для владельца системы «высокого риска» неясно, что именно он должен делать: проводить оценку воздействия на права человека (DPIA/AIA)? Осуществлять аудит на предвзятость? Страховать ответственность? Эта неопределённость создаёт поле для «ручного управления» со стороны регулятора, который сможет предъявлять произвольные требования, и повышает коррупционные риски.
- Предлагаемое решение и его обоснование:
- На уровне Закона: Внедрить матрицу обязанностей. Это таблица, где для каждого класса риска прописан минимальный набор обязательных действий. Например, для высокого риска это должно включать: обязательную предварительную оценку воздействия (DPIA/AIA), план негативных испытаний, ведение журнала инцидентов, обязательное страхование и создание канала для подачи жалоб.
Почему это важно? Это создаёт предсказуемые и прозрачные «правила игры», понятные всем участникам рынка. Бизнес получает чёткий чек-лист для соблюдения закона, а общество — гарантии безопасности для самых опасных систем.
3. Национальный оператор и данные: Риск монополии и злоупотреблений
- Проблема, как она сформулирована в законе: Закон гласит, что «Правительство Республики Казахстан определяет оператора национальной платформы искусственного интеллекта», который получает доступ к данным госорганов и оказывает услуги.
- Анализ риска: Назначение единого оператора без конкурса и чётких правил доступа — это прямой путь к монополии и коррупции. Такой оператор может устанавливать завышенные тарифы, предоставлять привилегированный доступ «своим» компаниям и отказывать неугодным. Централизация огромных массивов данных, включая государственные, в одних руках без прописанных в законе механизмов внешнего контроля создаёт колоссальную угрозу приватности и национальной безопасности в случае утечки или злоупотребления.
- Предлагаемое решение и его обоснование:
Почему это важно? Это разрушает монополию, обеспечивает здоровую конкуренцию и создаёт механизм общественного и государственного контроля за использованием данных, что критически важно для защиты частной жизни.
4. Запреты и исключения: Риск «законной» слежки
- Проблема, как она сформулирована в законе: Закон запрещает удалённую биометрическую идентификацию в реальном времени, но с оговоркой: «за исключением случаев, определенных законами Республики Казахстан».
- Анализ риска: Эта формулировка является «широкой оговоркой», которая может полностью нивелировать сам запрет. С её помощью можно через другие, менее публично обсуждаемые законы, легитимизировать практически любую форму массового наблюдения, что представляет прямую угрозу базовым конституционным правам граждан на частную жизнь.
- Предлагаемое решение и его обоснование:
- На уровне Закона: Максимально сузить и конкретизировать исключения. Применение таких технологий должно быть возможно только при соблюдении совокупности строгих условий: доказанная острая необходимость и соразмерность угрозе; предварительное разрешение суда или независимого органа; чёткое ограничение по цели, месту и времени; обязательное ведение технических логов и, где это возможно, уведомление граждан постфактум.
Почему это важно? Это превращает абстрактный запрет в работающий механизм, который защищает общество от произвола и гарантирует, что столь инвазивные технологии применяются только в исключительных, легитимных и контролируемых ситуациях.
5. Ответственность и возмещение вреда: Риск безнаказанности
- Проблема, как она сформулирована в законе: Закон отсылает к общему порядку Гражданского кодекса и делает страхование добровольным.
- Анализ риска: Для сложных систем ИИ доказать в суде причинно-следственную связь между действиями разработчика и наступившим вредом практически невозможно. Это оставляет пострадавшего без реальной возможности получить компенсацию. Отсутствие обязательного страхования лишает разработчиков систем высокого риска (например, в медицине или на транспорте) экономического стимула инвестировать в максимальную безопасность.
- Предлагаемое решение и его обоснование:
Почему это важно? Это создаёт гарантийный фонд, из которого пострадавшие смогут получить компенсацию, и одновременно заставляет рынок (через страховые тарифы) более строго оценивать реальные риски технологий, стимулируя разработчиков повышать безопасность своих продуктов.
6. Права человека: Риск «цифрового бесправия»
- Проблема, как она сформулирована в законе: Закон упоминает право граждан «быть информированным», но не даёт конкретных инструментов для защиты своих прав.
- Анализ риска: Если алгоритм банка отказал вам в кредите, а система отбора кадров отклонила ваше резюме, простого информирования об этом недостаточно. Без права на объяснение и пересмотр человек оказывается в ситуации «цифрового бесправия», не имея возможности оспорить потенциально ошибочное, предвзятое или дискриминационное решение машины.
- Предлагаемое решение и его обоснование:
Почему это важно? Это возвращает человеку контроль и субъектность в цифровом мире, создавая механизм подотчётности для автоматизированных систем и защищая от произвола «чёрного ящика».
Итоговая таблица предложений по доработке Закона