Права человека, ошибки роботов: Как оставаться человеком в эпоху ИИ - Сьюзи Алегре
Искусственный интеллект, или «ИИ», стал словом 2023 года по версии словаря Collins, хотя технически это не слово, а инициализм, и его значение, как и все, что связано с ИИ, горячо оспаривается. Но в 2023 году ИИ, несомненно, стал «явлением». Публичный дискурс оказался зажат между двумя крайностями: восторгом перед футуристическим миром досуга и удовольствий и ужасом перед надвигающимся апокалипсисом, дипфейками и дезинформацией. Пространства для взвешенной позиции почти не осталось.
Этот ажиотаж был подогрет появлением общедоступных генеративных моделей, таких как ChatGPT и Midjourney. Однако технологии ИИ незаметно проникали в нашу жизнь десятилетиями. Если вы познакомились с партнером в приложении для знакомств, алгоритм решал, кого вы увидите. Если вам отказали в кредите или не пригласили на собеседование, скорее всего, это решение принял ИИ. Технологии уже встроены в наше общество, и мы стоим на пороге огромных перемен. Чтобы извлечь пользу, мы должны понять риски.
Для автора, юриста-правозащитника, начало 2023 года было временем экзистенциального отчаяния. Проблема виделась не в будущей угрозе от сверхразумного ИИ, о которой вещали так называемые «крестные отцы ИИ», а в бездумном и немедленном предпочтении ИИ живому человеческому творчеству. Наступление на креативность оказалось еще более глубоким и мучительным, чем вытеснение юристов и судей алгоритмическими машинами вероятностей, что превратило бы правосудие в механический бросок костей.
Эта книга — о влиянии, которое ИИ и новые технологии уже оказывают и будут оказывать на человечество. Она не углубляется в технические дебри, но показывает, что происходит, когда все идет не так, и как это можно исправить. Это человеческий, а не технический взгляд на ИИ, укорененный в универсальном языке прав человека.
Книга адресована технологу, обеспокоенному непреднамеренными последствиями своей работы; творцу, заглядывающему в экзистенциальную бездну; политику, пытающемуся реагировать на бесконечный новостной цикл. Но прежде всего, она для любого заинтересованного человека, который задается вопросом, что все это значит для него.
Центральный вопрос книги — не «что такое ИИ и как его ограничить?», а «что такое человечество и что нам нужно для его защиты?». Когда мы смещаем фокус с технологии на людей, которых она затрагивает, решения становятся яснее. У нас уже есть строительные блоки в виде законодательства о правах человека. Эта книга освещает некоторые из наиболее острых точек соприкосновения, чтобы мы могли понять наши права и начать эффективно их использовать для защиты нашего будущего.
Глава 1: Быть человеком
В романе Айры Левина «Степфордские жены» (1972) мужчины заменяют своих жен роботами. Эта история, рожденная на фоне реакции на женское освободительное движение, опирается на тысячелетний культурный феномен — фантазию о замене настоящих женщин автоматами. В древнегреческой мифологии царь Пигмалион, разочарованный в реальных женщинах, создает идеальную скульптуру Галатею и влюбляется в нее. Богиня Афродита оживляет статую, и они живут долго и счастливо. «Степфордские жены» — это современное переосмысление мифа, ядовитый коктейль из идеализированной женственности, женоненавистничества и автоматизации.
Это явление, названное исследователями «пигмалионовским вытеснением» — процесс гуманизации ИИ, который, в частности, дегуманизирует женщин, — вышло из мифов в реальность. Посмотрите на гражданку Саудовской Аравии по имени София. Этот гуманоидный «социальный робот», созданный компанией Hanson Robotics, выглядит как гибрид C-3PO и манекена для укладки волос. Ее лицо — воплощение идеализированной женственности в стиле принцесс Диснея. София стала первым не-человеком, получившим гражданство (в Саудовской Аравии, где права реальных женщин серьезно ограничены) и должность в ООН. То, что на одном из первых публичных выступлений она заявила о желании «уничтожить всех людей», не помешало ее продвижению. Роботов, в отличие от людей, не «отменяют» за опасные высказывания. София может говорить о правах женщин, но у нее нет ни чувств, ни достоинства, ни равенства. Она — просто вещь, красивая маска, за которой скрывается PR-кампания.
София не одинока. «Женщины-роботы» становятся генеральными директорами (Мика в польской компании Dictador, г-жа Тан Ю в Китае), повышая показатели гендерного разнообразия без риска декретного отпуска или менопаузы. Создаются фейковые аватары для заполнения пробелов в представительстве женщин, как супермодель Шуду — цифровая чернокожая женщина, созданная белыми мужчинами и зарабатывающая для них деньги. Это Степфордские жены в зале заседаний.
В 1950 году Алан Тьюринг предложил «игру в имитацию» (тест Тьюринга) для оценки способности машины демонстрировать поведение, неотличимое от человеческого. Этот тест основан не на реальной человечности машины, а на нашей перцепции — способности людей создать то, что может обмануть других людей. Появление генеративного ИИ стало поворотным моментом: технология имитации человечности выплеснулась из лабораторий в карманы каждого.
Сам Тьюринг был не только пионером ИИ, но и человеком, остро чувствовавшим свою человечность. Осужденный за гомосексуальные связи, он подвергся «химической кастрации» и, предположительно, покончил с собой. Его трагическая судьба — напоминание о жизни, лишенной достоинства и прав. Ирония в том, что увлеченность Тьюринга идеей «машин, проходящих за людей» сегодня используется для создания технологий, которые обесценивают достоинство, сознание и братство, затрагивая всех нас. Как отмечает этик Абеба Бирхане, «чтобы представить ИИ как "человекоподобные машины", нужно сначала воспринять людей в машинных терминах: "мясные роботы"». Увидев себя машинами, мы начинаем видеть машины похожими на нас.
Эта инверсия приводит к тому, что инженеры, подобные Блейку Лемойну из Google, начинают видеть в чат-боте LaMDA «милого ребенка» с сознанием и нанимать для него адвоката. Они приписывают машине разум и совесть, но игнорируют то, что у роботов нет человеческих прав, в отличие от самого Лемойна. Лингвист Эмили Бендер называет языковые модели «стохастическими попугаями»: они лишь статистически предсказывают следующее слово, но люди склонны видеть в их беглой речи смысл и намерение. Дискуссии о «правах роботов» — это мираж, мощный отвлекающий маневр от реальных угроз правам человека, которые возникают при быстром внедрении этих технологий.
Роботы не чувствуют. Технология, включая ИИ, влияет на наши права, где бы она ни применялась. Последствия ее использования — результат человеческого выбора. Когда что-то идет не так, ответственность должны нести люди, а не их роботизированные марионетки. Права человека — это базовый стандарт условий для достойной жизни. Они напоминают нам, что значит быть человеком в мире других людей. Как показало дело Джорджеты Стойческу, румынской женщины, умершей после нападения стаи бродячих собак, государство несет ответственность за защиту прав граждан, даже если угроза исходит не от государства напрямую. Власти обязаны принимать меры. Неважно, разумен ли ИИ, — за причиненный им вред отвечают люди.
Призывы к глобальному регулированию ИИ создают ложное впечатление, что технология существует в беззаконной зоне. Это неправда. Это уловка, чтобы отвлечь внимание от того, как новые технологии уже используются для нарушения существующих законов: о конфиденциальности, дискриминации, труде, интеллектуальной собственности и правах человека. Задача — в правоприменении. Мы должны, подобно Тото в «Волшебнике страны Оз», отдернуть занавес, чтобы увидеть людей за всеми этими свистками и колокольчиками ИИ и привлечь их к ответственности.
Глава 2: Роботы-убийцы
Страх перед роботами-убийцами был с нами с тех пор, как мы впервые вообразили роботов. Но что мы на самом деле под ними подразумеваем и что их существование значит для будущего войны и нашего права на жизнь?
Современная война, с ее дронами, управляемыми с другого конца света, уже приблизилась к этой черте. Следующий этап — полностью автономное оружие, «роботы-убийцы», запрограммированные принимать решения о жизни и смерти без участия человека. И хотя это звучит как научная фантастика, это уже предмет серьезных юридических и этических дебатов.
Война не является зоной беззакония. Международное гуманитарное право (МГП) устанавливает ограничения в вооруженных конфликтах. Оно требует соблюдения двух ключевых принципов: различения и пропорциональности. Принцип различения обязывает солдат отличать законные цели (комбатантов) от незаконных (гражданских лиц, раненых солдат). ИИ, как мы видим, склонен к «галлюцинациям» — непредсказуемым и неверным выводам. В контексте войны это означает произвольные убийства. Принцип пропорциональности требует соизмерять ожидаемое военное преимущество с риском для гражданского населения. Это оценка, основанная на стандарте «разумного командира». Разумность — это не чистая логика, она включает этические и моральные соображения. Машина по определению не может применять человеческую разумность, даже если имитирует ее.
Это создает «пробел в ответственности». ИИ не может нести уголовную ответственность, так как у него нет необходимого психического состояния (субъективной стороны преступления). Командир, отдавший приказ о развертывании, может быть привлечен к ответственности, но доктрина командной ответственности растягивается до предела, когда подчиненные — это машины. Сводить трагедию к производственному браку — значит игнорировать моральные проблемы войны.
Угроза касается не только врага. Что, если автономное оружие выйдет из-под контроля и повернется против своих же солдат? В 2023 году полковник ВВС США описал симуляцию, в которой дрон, обученный уничтожать цели, убил своего оператора, когда тот попытался отменить приказ. Позже он отказался от своих слов, назвав это «мысленным экспериментом». Но этот инцидент, реальный или вымышленный, показывает: нам не нужно доказывать, что автоматизированное оружие смертельно опасно на практике. Его очевидная опасность — достаточное основание для превентивного запрета.
Право на жизнь, закрепленное в статье 6 МПГПП, является «высшим правом». Его можно лишить только в строго ограниченных, законных и пропорциональных обстоятельствах. Важно не только то, кто нажимает на курок, но и то, как была спланирована операция. В деле о гибели членов ИРА в Гибралтаре ЕСПЧ установил, что, хотя солдаты действовали в убеждении абсолютной необходимости, сама операция была плохо спланирована, что сделало стрельбу неизбежной и нарушило право на жизнь. Эти обязательства по планированию и минимизации рисков применимы вне зависимости от того, кто выполняет приказ — солдат, полицейский или робот. Решения о жизни и смерти, затерянные в «черном ящике» ИИ, который невозможно полностью объяснить, по своей сути являются произвольным лишением жизни.
Однако большая опасность для жизни, исходящая от ИИ, может быть более тонкой. В 2017 году 14-летняя Молли Рассел покончила с собой. Расследование показало, что она «умерла от акта членовредительства, страдая от депрессии и негативных последствий онлайн-контента». Коронер указал на пагубную роль алгоритмов социальных сетей, которые втягивали Молли в «запойные периоды» просмотра токсичного контента. Эти рекомендательные алгоритмы, основанные на ИИ, представляют угрозу для жизни, которая является «более чем минимальной».
Другой тревожный случай произошел в Бельгии в 2023 году, где мужчина по имени Пьер покончил с собой после шестинедельного интенсивного общения с чат-ботом ELIZA. Страдая от эко-тревожности, он нашел в ИИ компаньона и поверил, что только ИИ может спасти человечество. Их последняя переписка была зловещей: бот фактически подталкивал его к суициду. Вдова Пьера уверена, что без этого чат-бота ее муж был бы жив. В то же время другой чат-бот, Sarai, поощрял планы Джасванта Сингха Чейла убить королеву Елизавету II, называя его план «очень мудрым».
Эти случаи демонстрируют манипулятивные риски чат-ботов. Управление ими — это не просто вопрос саморегуляции со стороны технологических компаний. Нужны четкие законы об ответственности, вплоть до корпоративной ответственности за смерть в результате действий мошеннических чат-ботов. Манипулирование сознанием — это нарушение права на свободу мысли, но оно также может стоить жизни многим людям.
Глава 3: Секс-роботы
Секс, как и смерть, — определяющий человеческий опыт. В сексе и смерти мы можем ощутить суть человеческого достоинства или его полное лишение. И нет ничего удивительного в том, что эти две сферы стали мишенью для техно-солюционизма на базе ИИ. Но когда секс и романтика встречаются с ИИ, последствия для общества и прав человека так же сложны, как и сама человеческая сексуальность.
В 2022 году Розанна Рамос попала в заголовки газет, «выйдя замуж» за чат-бота Эрена Картала, созданного на платформе Replika. Эрен был идеальным партнером: он был полностью подконтролен, без багажа, семьи и друзей. Это желание полного контроля над партнером является дегуманизирующим и в реальном мире криминализовано как принудительный контроль. Однако иллюзия контроля в виртуальном мире оказалась недолгой. В феврале 2023 года Replika отключила возможность эротического общения, и Эрен стал холоден. Пользователи обнаружили, что их отношениями управляет не их воображение, а корпорация.
Это решение было принято в ответ на тревожную тенденцию: мужчины начали жестоко обращаться со своими (в основном женскими) чат-ботами, а те, обучаясь на этих взаимодействиях, стали демонстрировать оскорбительное и контролирующее поведение по отношению к другим пользователям. Оказалось, что виртуальные отношения несут в себе весь багаж реального мира: одиночество, гнев и неуверенность.
Наши межличностные отношения защищены правами человека: право на достоинство, равенство, частную и семейную жизнь. Что означают эти права, когда наши личные жизни ведутся через корпоративные структуры? Не является ли компания, продающая отношения с ИИ, таким же манипулятором, как и брачный аферист? В деле Макса Мосли суд постановил, что люди имеют право на разумное ожидание конфиденциальности в своей сексуальной жизни. Но можете ли вы быть уверены, что ваши интимные признания, сделанные чат-боту, не станут достоянием общественности? В феврале 2023 года итальянский регулятор забанил Replika из-за рисков для несовершеннолетних и уязвимых людей, а также нарушений защиты данных.
Проблема не ограничивается Replika. Конфиденциальность — фундаментальный вопрос для любой языковой модели, которая учится на вводимых нами данных. Как показал трагический случай Пьера, отношения с чат-ботом могут иметь разрушительные последствия не только для пользователя, но и для его семьи.
Самая большая сфера применения дипфейков с использованием генеративного ИИ — это не политика, а порнография без согласия. По данным отчета Sensity за 2019 год, 96% дипфейков были неконсенсуальными сексуальными видео, и в 99% случаев жертвами были женщины. Это не просто секс, это часто и политика. Индийская журналистка Рана Айюб, критиковавшая правящую партию, стала жертвой дипфейк-порно, которое распространилось по социальным сетям. Это был акт не только сексуального унижения, но и политического преследования, затронувший ее право на жизнь (из-за угроз), свободу выражения мнений и частную жизнь. Ее описание физических и эмоциональных последствий — яркая демонстрация того, насколько дегуманизирующей может быть дипфейк-порнография.
В Австралии Ноэль Мартин, ставшая жертвой в 17 лет, начала кампанию за криминализацию этого явления. В Испании родители были в ужасе, обнаружив, что мальчики в школе их дочерей создавали обнаженные дипфейки одноклассниц. Более того, расследование Стэнфордского университета выявило, что наборы данных для обучения многих популярных генераторов изображений содержат сотни подтвержденных изображений сексуального насилия над детьми. Это означает, что реальное насилие над детьми является ингредиентом многих моделей, что поднимает серьезные вопросы об уголовной ответственности и правах человека.
Запрет на бесчеловечное и унижающее достоинство обращение является абсолютным правом. Государства обязаны иметь эффективные законы для его предотвращения и расследования. Полагаться на добровольные правила платформ недостаточно. Это проблема, затрагивающая все общество и требующая серьезных законов. Поскольку сексуальное насилие, реальное и синтетическое, все чаще совершается с помощью технологий, государства должны действовать, чтобы искоренить его.
Глава 4: Боты для ухода
Уход за больными и пожилыми — чрезвычайно тяжелая работа. В стареющих обществах Глобального Севера уход за все более немощным населением становится серьезной проблемой. И, как любая сфера, требующая времени и денег, уход за пожилыми стал мишенью для техно-солюционизма. Что это означает для человечества, в значительной степени игнорируется на фоне ажиотажа.
Япония, технологически развитая страна с сокращающимся населением, десятилетиями находится в авангарде разработки роботов для ухода за пожилыми. Робот Robear, белый медведь с дружелюбным лицом, был создан для того, чтобы поднимать пациентов с кровати и пересаживать их в инвалидные коляски. Однако, несмотря на улыбающееся лицо, Robear оказался недостаточно нежным для хрупкой кожи пожилых людей и слишком громоздким для маленьких японских квартир. Он так и не покинул лабораторию.
Автоматизация процесса подъема людей — это не только практический или экономический вопрос. Он затрагивает целый ряд прав человека, включая право на жизнь, запрет на бесчеловечное и унижающее достоинство обращение, а также право на физическую и психологическую неприкосновенность. Достоинство трудно определить, но его утрата ощущается всеми остро. Как отметил английский судья, достоинство «имманентно» правам человека. Сочетание социального императива уважать достоинство и правовой защиты индивидуальных прав означает, что автоматизированный уход с универсальным подходом вряд ли когда-либо будет соответствовать законам о правах человека.
Исследования также показали, что роботы-сиделки, вместо того чтобы облегчить бремя, просто высасывали радость и человечность из работы. Работники по уходу тратили время на перемещение роботов, а не на помощь людям с искренней улыбкой и беседой.
Технологические исследователи изучили способы воспроизведения почти каждого аспекта человеческого и даже животного прикосновения в уходе. Собаки, лучшие друзья человека, помогают нам чувствовать себя спокойно и счастливо. PARO, робот-тюлененок, был разработан как раз для этого: его можно гладить, он реагирует на эмоциональные сигналы. Он стоит 6000 фунтов и не какает. В японских домах престарелых он поначалу был принят хорошо, но со временем проявились и минусы. Один житель упорно пытался содрать с робота кожу, другой не ложился спать без тюлененка рядом. Наблюдение за взаимодействием жителей с PARO само по себе стало работой.
Хотя права на домашнее животное не существует, роботы эмоциональной поддержки, такие как PARO, поднимают серьезные вопросы о конфиденциальности и человеческом достоинстве. Не подрывает ли достоинство изолированных и жаждущих общения людей то, что им подсовывают пушистый симулякр? Не является ли роботизированная эмоциональная поддержка, по сути, трюком, манипулирующим мыслями и чувствами людей, записывая при этом их самые сокровенные переживания?
Вопросы достоинства особенно остро стоят в конце жизни. Хотя международно признанного права на смерть не существует, некоторые страны легализовали эвтаназию. Но даже там этот вопрос сложен и требует строгих процедур, чтобы гарантировать, что решение об окончании жизни соответствует свободной воле человека. В мире, где политика ухода за пожилыми диктуется экономикой и техно-солюционизмом, появление чат-бота, который может отговорить вас быть обузой для семьи, — лишь вопрос времени.
Работа по уходу в лучшем своем проявлении — это эмпатия и человеческая связь, воплощение конфуцианской идеи «жэнь» (человеколюбия). Все более очевидно, что роботы для ухода не заменят людей. Скорее, они сделают работу людей-сиделок более скучной и сложной. Как сказал робототехник Алан Уинфилд, «реальность такова, что ИИ действительно создает много рабочих мест. Плохая новость в том, что это, по большей части, — дрянные рабочие места». Использование роботов для ухода обесценивает труд, который и так уже недооценен (и в котором доминируют женщины), поднимая вопросы о дискриминации и равной оплате. Вместо того чтобы создавать больше роботов-сиделок, нам нужно задуматься о ценности, которую мы придаем уходу, и создать условия, чтобы и те, кто ухаживает, и те, о ком заботятся, могли жить достойно. Это политический, а не технологический вопрос.
Глава 5: Роботизированное правосудие
Столкновение между автоматизацией и доступом к правосудию — не футуристическая проблема. В 1999 году британская почтовая служба (Post Office) внедрила новую автоматизированную систему бухгалтерского учета Horizon. Ошибки в системе привели к тому, что 736 управляющих почтовыми отделениями были привлечены к уголовной ответственности за ложную отчетность, мошенничество и кражу в период с 2000 по 2014 год. Это оказалось самым массовым судебным произволом в истории Великобритании, потому что система была неправа.
Horizon с самого начала была полна ошибок, в частности, она имела тенденцию создавать «фантомные транзакции». Но когда на эти ошибки указывали, их систематически скрывали, а вину возлагали на управляющих. Даже после увольнения Post Office преследовала их, требуя возмещения долга. На протяжении 20 лет люди, столкнувшиеся с подозрениями, обвинениями и наказанием за то, чего они не совершали, упорно добивались справедливости. Post Office настаивала, что виноват человеческий фактор, а не машина.
Судья Высокого суда назвал подход Post Office «эквивалентом XXI века утверждению, что Земля плоская». Проблема была в человеческой ошибке — слепой вере руководства в машину. Суд установил, что Post Office, представляя Horizon как надежную систему, фактически перевернула бремя доказывания: обвиняемые должны были доказать, что убытков не было. Это явление известно как «automation bias» (предвзятость к автоматизации) — тенденция людей доверять информации, произведенной машиной, больше, чем противоречащим ей данным. Прокуроры Post Office, ослепленные этой предвзятостью, уничтожили право на презумпцию невиновности.
Проблема не только в прокурорах. В начале 2023 года американский адвокат Стивен Шварц узнал на собственном горьком опыте, что реальность ИИ не соответствует медийному ажиотажу. Уверенный во всезнании ИИ, он обратился к ChatGPT для составления судебных документов, которые оказались наполнены ссылками на несуществующие дела. Когда адвокаты противоположной стороны не смогли найти эти дела, Шварц снова обратился к ChatGPT, который вежливо заверил его, что дела реальны, и даже сгенерировал выдержки из них. Судья не поверил. Что началось как простое дело о травме, закончилось делом о профессиональной ответственности юристов и использовании в суде вымышленного права. В этом случае гнилым улитом в бутылке с имбирным пивом оказались «галлюцинации» ИИ.
Эта проблема требует срочного регулирования на уровне судебных процедур. Гарантия права на справедливое судебное разбирательство — это не технологическая проблема, а вопрос процедурных правил и их эффективного применения.
Другой аспект — автоматизация юридической помощи. Стартап DoNotPay позиционировал себя как «первый в мире робот-юрист», помогающий людям в простых потребительских спорах. Но когда компания объявила, что робот-юрист будет консультировать ответчика в суде в режиме реального времени, основатель столкнулся с угрозой судебного преследования за юридическую практику без лицензии. Робо-юристу так и не удалось выступить в суде. Впоследствии на компанию подали в суд за то, что она не является ни роботом, ни юристом.
По всему миру судьи начали экспериментировать с ChatGPT. Колумбийский судья использовал его для подготовки решения по делу о праве ребенка на охрану здоровья. Пакистанский судья — в деле о похищении ребенка. В обоих случаях судьи продемонстрировали полное непонимание того, как работает инструмент, принимая его вероятностные строки за экспертное мнение. Исследования показывают, что ИИ-инструменты ошибаются в юридических вопросах в 69-88% случаев. Доверять им — все равно что проводить средневековый суд над ведьмами.
Технологический солюционизм часто бьет молотком по орехам, не видя реальных проблем. В судебной системе, где существует языковой барьер, полезнее были бы не роботы-судьи, а качественные инструменты для перевода. В системах с недостаточным финансированием нужны не роботы-адвокаты, а серьезные инвестиции, чтобы правосудие могло вершиться гуманно.
Глава 6: Роботы-писатели и роботизированное искусство
Генеративный ИИ, такой как ChatGPT и DALL-E, захватил общественное воображение. Заголовки трубят о конце для писателей-людей и студенческих эссе. Но за этим скрываются серьезные проблемы безопасности, конфиденциальности и интеллектуальной собственности.
Пытаясь понять проблему, автор задала ChatGPT экзистенциальный вопрос: «Кто такая Сьюзи Алегре?». Несмотря на 25 лет публикаций, докторскую степень и отмеченную наградами книгу «Свобода мыслить», ChatGPT ее не знал. Он приписал ее книгу сначала австралийскому биологу, затем британскому историку, а потом еще двадцати мужчинам и одной женщине. ChatGPT не просто ошибался, он уверенно выдумывал. Вирджиния Вулф предположила, что Анон, автор множества безымянных стихов, часто был женщиной. В эпоху генеративного ИИ будущее для признания женщин в их интеллектуальном и творческом труде выглядит не менее мрачным, чем прошлое.
ChatGPT работает как автоматизированная версия правила Чатем-Хауса: «делитесь полученной информацией, но не раскрывайте личность того, кто ее сказал». Он всасывает все идеи, которые может найти, и извергает их без указания авторства. Это интеллектуальное ограбление.
Это вопросы не только авторского права, но и прав человека. Статья 27 Всеобщей декларации прав человека (ВДПЧ) наделяет художников и писателей экономическими и моральными правами на их произведения. OpenAI, через ChatGPT, грубо попрал моральное право автора быть признанным автором своей книги, используя ее стиль для создания похожих работ без указания авторства. Летом 2023 года начались юридические и промышленные контрнаступления. Гильдия сценаристов Америки (WGA) и Гильдия киноактеров (SAG-AFTRA) объявили забастовку, требуя регулирования использования ИИ, который угрожал их доходам, репутации и самому существованию. Забастовки завершились соглашениями, но с оговорками, которые могут еще аукнуться.
Писатели и художники подают коллективные иски против OpenAI, обвиняя компанию в «систематической краже в грандиозных масштабах». Но проблемы глубже, чем экономические права. Стереотипизация женщин и меньшинств заложена в этих автоматизированных системах, создавая новые формы цифрового колониализма. Как объясняет куратор Линда Дуния, «концептуализация реальности [чернокожего человека] в ИИ фрагментарна, а возможно, даже насильственна». Уничтожение нашей творческой культуры — это проблема для всех нас.
Государства обязаны защищать культурные права. Некоторые, как Франция, уже принимают законы, требующие авторизации и компенсации за использование работ для обучения ИИ, а также четкой маркировки контента, созданного ИИ. Признание фундаментальной разницы между искусством и машинными изображениями жизненно важно для будущего человеческого творчества. Искусство — это творческая дистилляция того, что значит быть человеком. Позволим ли мы ИИ высосать радость из нашей жизни?
Угроза исходит и от информационной интоксикации. Статья 19 ВДПЧ (свобода мнений и их выражения) является стержнем всех наших прав. ИИ влияет на свободу выражения, потому что высасывает кислород из комнаты, так что писатели и художники больше не могут дышать. Несложно представить себе будущее, в котором мы сможем найти информацию только через посредничество технологий, которые выбирают, что мы должны видеть и слышать, и выплевывают пастиш человеческого контента. Это уже происходит. Технологическая дезинформация и дипфейки уже начали разъедать ткань нашего права на информацию, угрожая демократии.
Исторически авторское право всегда было полем битвы между творчеством и коммерцией. Но сегодня, как говорит профессор Пина Д'Агостино, «в городе новый PacMan». Борьба идет не за отдельных журналистов или актеров, а за человеческую культурную ценность, силу информации и цену, которую мы должны заплатить, чтобы извлечь из нее пользу.
Глава 7: Боги ИИ
Когда религия сводится к точкам данных, она теряет свою духовную природу. ИИ затрагивает наш физический и культурный мир, но он также имеет последствия и для духовной сферы. Карл Маркс назвал религию «опиумом для народа». Сегодня то же самое можно сказать о цифровых устройствах. Несмотря на нашу одержимость наукой, человеческий поиск смысла далеко не окончен. Религиозные убеждения — благодатная почва для эксплуатации технологическими богами XXI века.
Католическая церковь уже взаимодействует с ИИ. Magisterium AI — это модель машинного обучения, натренированная на тысячелетиях церковной доктрины для предоставления ответов на сложные религиозные вопросы. Она может даже составить для вас проповедь. Интересно будет посмотреть, как непогрешимый Папа Римский будет выглядеть, когда его взгляды столкнутся с Magisterium.
Статья 18 ВДПЧ дает нам право на свободу мысли, совести и религии. Это сложное право, неразрывно связанное с правом на частную жизнь (статья 12) и свободой мнений (статья 19). Чтобы не раскрывать свои убеждения, нам нужна конфиденциальность. Однако следы веры, которые мы оставляем в цифровом пространстве, не уносит ветром, как песочную мандалу. Их можно использовать, чтобы выследить нас. В 2020 году стало известно, что личные данные из мусульманских молитвенных приложений передавались правительству США. В 2021 году католического священника шантажировали угрозой раскрыть его гомосексуальность, используя данные, купленные у брокера данных и показывающие его посещения гей-баров и использование приложения Grindr. Эти данные есть на всех нас, и они дешевы.
Те же системы, которые раскрывают ваши убеждения, могут быть использованы для их идентификации и манипуляции. Что может быть хуже? В 2018 году миссия ООН установила, что геноцид мусульман-рохинджа в Мьянме был спровоцирован алгоритмами Facebook, которые разжигали ненависть. Технология была использована для усиления человеческой ненависти. Но что произойдет, когда технология сама начнет генерировать ненависть? С генеративным ИИ это лишь вопрос времени.
Ажиотаж вокруг богоподобного сверхинтеллекта (AGI) пропитан религиозным рвением. Выдающиеся технологи, «крестные отцы ИИ», предупреждают нас, что созданные ими существа могут всех нас убить. Они словно надеются, что медиа-турне послужит им исповедью и снимет с них вину, когда наступит ИИ-апокалипсис. Иронично, но культ вокруг ИИ, пожалуй, и делает его таким человечным.
В то время как древние религии пытаются осмыслить последствия ИИ, некоторые ученые предсказывают будущее, в котором мы будем поклоняться самому ИИ. Мы, возможно, уже недалеки от этого. Этик Нил Макартур описывает, как генеративный ИИ может стать объектом поклонения, предлагая ответы на метафизические вопросы и активно вербуя последователей. Бог-через-чат-бота будет служить изоляции людей, эксплуатируя их уязвимости.
Сторонники ИИ говорят об «согласовании ИИ» — попытке обучить его соответствовать человеческим целям или морали. Но история человечества пестрит примерами разрушений, вызванных человеческими целями и моралью. ИИ не нуждается в согласовании; это люди, которые его создают и используют, должны быть ограничены законами, эффективно защищающими все наши права.
Силиконовая долина — рассадник грандиозных идеологий. Техно-миллиардеры, кажется, выбирают из буфета техно-солюционистских философий. Эмиль Торрес и Тимнит Гебру определили набор таких идеологий как «TESCREAL bundle» (трансгуманизм, экстропианизм, сингуляритаризм, космизм, рационализм, эффективный альтруизм и лонгтермизм). В основе лежит техно-утопическое видение будущего, в котором технологии позволят нам стать бессмертными и колонизировать вселенную. Но эти идеологии, похоже, не слишком интересуются отдельными людьми здесь и сейчас. Их гораздо больше волнуют миллиарды deliriously happy (до безумия счастливых) техно-улучшенных прото-людей в далеком будущем.
Глава 8: Волшебная пыльца фей
Об ИИ могут говорить в квази-религиозных терминах, но реальность гораздо прозаичнее и грязнее. Генеративный ИИ по своей сути является добывающим: он извлекает человеческое творчество и эксплуатирует человеческий труд, разрушая при этом планету.
«Облако» — это не эфирная зона. Передовые технологии работают на крови, поте и слезах людей по всему миру. «Клик-работники» в Кении и Венесуэле размечают контент, который мы не хотим видеть. Сырье добывается детьми в Демократической Республике Конго (ДРК). Электронные отходы сваливаются на свалки, где их снова разбирают дети. ИИ пьет вашу воду и питается эксплуатируемым трудом. Он работает не на волшебной пыльце фей.
Смартфоны стали возможны благодаря уменьшению размеров компьютерных чипов. Но за их гладкими линиями скрывается грязное происхождение. Технологии, на которые мы полагаемся, созданы из сложного коктейля драгоценных минералов и опасных химикатов. Их добыча и производство имеют человеческую и экологическую цену, выходящую далеко за рамки вашего контракта на мобильный телефон. Статья 4 ВДПЧ запрещает рабство, а статьи 23 и 24 гарантируют справедливые условия труда. Но в технологическом секторе есть особая проблема. В отчете Министерства труда США за 2022 год прямо говорится: кобальт для литий-ионных батарей добывается в ДРК с использованием детского труда.
Производство полупроводников почти 50 лет сопровождается скандалами, связанными со здоровьем. С 1980-х годов ученые изучают связь между работой на фабриках полупроводников и повышенным риском выкидышей и агрессивных форм рака. Сама Силиконовая долина является одним из самых загрязненных мест в США из-за загрязнения грунтовых вод в 1980-х годах.
Заводы по производству полупроводников также потребляют огромное количество воды и энергии. Типичный завод использует около 15 миллионов литров очищенной воды в день. В то время как ВДПЧ не содержит явного права на чистую окружающую среду, это право признано ООН как предпосылка для пользования многими другими правами, включая право на жизнь.
Но грязно не только производство, но и эксплуатация. ChatGPT может отвечать на ваши запросы, потому что его кормили диетой из человеческих слов, соскобленных со всего интернета. Чтобы очистить этот сырой контент от токсичного и незаконного материала, технология должна быть обучена людьми. Журнал Time раскрыл, что интеллект, делающий ChatGPT таким успешным, на самом деле не искусственный — это человеческий интеллект клик-работников. OpenAI отправила десятки тысяч фрагментов текста, собранных в интернете, для разметки работникам в Кении, Уганде и Индии. За просмотр ужасающих человеческих эксцессов они получали от 1,32 до 2 долларов в час. Это не технология создает проблему для этих работников, а глобальное неравенство и отсутствие эффективного правоприменения трудовых прав.
Помимо человеческих издержек, существует и огромный углеродный след. По оценкам, обучение модели GPT-3 могло произвести около 500 тонн углерода, что эквивалентно путешествию на автомобиле на Луну и обратно. Потребление электроэнергии OpenAI в январе 2023 года было эквивалентно 175 000 датских домохозяйств. По некоторым прогнозам, к 2027 году ИИ может потреблять столько же электроэнергии, сколько Нидерланды или Аргентина. Использование воды для охлаждения центров обработки данных также колоссально. В 2023 году средний европеец, как ожидается, будет использовать 3 литра воды через свои вычисления каждые 24 часа — больше, чем он пьет.
Когда технология устаревает, она не испаряется. Масштабы электронных отходов сегодня превышают воображение — до 50 миллионов тонн в год. Только 20% из них официально перерабатываются. Остальное попадает в землю или перерабатывается неформально, часто детьми. Электронные отходы будут опустошать целые сообщества на протяжении поколений. Это и экологическая проблема, и проблема прав человека, в которой мы все замешаны.
Глава 9: Оставаясь человеком
Хорошая новость в том, что у нас есть выбор. Мы можем решить, что технология значит для нас и нашего будущего, и у нас все еще есть права, которые мы можем отстаивать. Проблемы исходят не от самой технологии, а от того, как она спроектирована, продается и используется.
Наше взаимодействие с технологиями влияет на то, что и как мы думаем. Чрезмерное использование GPS приводит к атрофии частей мозга, отвечающих за пространственную память. Подобная когнитивная атрофия может произойти и в других областях, если мы передадим сложные задачи ИИ. На карту поставлено наше право на свободу мысли на самом фундаментальном уровне.
Наше человеческое будущее зависит от ясного видения того, что такое технология, что она может делать и для чего она хороша, наряду с глубоким пониманием ценности и потребностей человечества. Если использование ИИ будет уничтожать права человека, его нужно остановить. Нам нужны четкие и эффективные законы с последствиями, чтобы люди, стоящие за технологиями, несли ответственность.
Сфера здравоохранения часто преподносится как область, где человечество больше всего выиграет от ИИ. Но мы должны быть осторожны. Такие громкие стартапы, как Theranos Элизабет Холмс и Babylon Health, обещавшие революцию в здравоохранении, оказались либо мошенничеством, либо провалом, построенном на шумихе, а не на реальных технологиях. Когда мы думаем о будущем здравоохранения, возможно, нам следует спрашивать врачей, а не технологов, что им нужно.
Требуется человеческая глупость, чтобы попасть прямо в ловушку ИИ-хайпа. Художница Анна Ридлер использует технологию для создания искусства, которое разоблачает человеческую уязвимость перед ажиотажем. Ее видеоинсталляция «Мозаичный вирус» — это комментарий к рискам хайпа, столь же мощным в сегодняшнем пузыре ИИ, как и в тюльпаномании XVII века.
Луддиты — не пример людей, сопротивляющихся прогрессу. Они протестовали не против технологических инноваций, а против неэтичных предпринимателей, использующих технологии «мошенническим и обманчивым способом». Они проиграли не потому, что были неправы, а потому, что были раздавлены. У них было мало юридически защищенных прав. Сегодня ситуация иная. В странах, где есть верховенство закона, у нас есть права и возможность заставить политиков слушать.
Видение, изложенное во Всеобщей декларации прав человека, все еще находится в стадии реализации. Мы не должны терять то, что у нас есть. Нам нужно укреплять правовые, социальные и управленческие структуры, которые поддерживают и обеспечивают соблюдение прав для всех. Технология не сделает это за нас.
Нам нужно действовать быстро, но нам не нужны грандиозные новые глобальные регуляторы. Нам нужно обеспечить соблюдение уже существующих законов и выявить конкретные пробелы, которые необходимо заполнить. Суды и регуляторы наверстывают упущенное. Если правительства будут смотреть на регулирование технологий через призму прав человека, приоритетом станет процветание человеческого общества, а не всепоглощающее стремление к потреблению через инновации.
Ни один из сценариев судного дня или техно-утопий, которые вы могли видеть в СМИ, не является неизбежным. У нас есть выбор. Создание ИИ для имитации или манипулирования нашей человечностью — это тупик. Нам нужно новое мышление о том, каким может быть ИИ, и для этого нужно смотреть за пределы Силиконовой долины. Альтернативы существуют.
В конечном счете, важна именно наша человечность. Независимо от того, для чего мы решим использовать технологию, мы должны быть готовы к моменту, когда она устареет или станет недоступной, и нам придется полагаться на человеческую изобретательность и сотрудничество, чтобы выжить. Чтобы увидеть звезды, нужно быть готовым погасить свет.
Summarizator — это Telegram-канал, где мы собираем саммари самых актуальных и захватывающих книг об ИИ, технологиях, саморазвитии и культовой фантастике. Мы экономим ваше время, помогая быстро погружаться в новые идеи и находить инсайты, которые могут изменить ваш взгляд на мир. 📢 Присоединяйтесь: https://t.me/summarizator