Оседлав волну: ИИ, неизбежность и суверенитет человека
Перевод статьи Джошуа Стайлмана, опубликованной на Substack
https://stylman.substack.com/p/riding-the-wave
Я не хотел отдавать свою душу машине. Это было моим первым побуждением, когда повсюду начали появляться инструменты на основе ИИ. Я беспокоился не о работе или конфиденциальности, а о чём-то более глубоком. Эти инструменты обещают сделать нас умнее, но при этом систематически делают нас более зависимыми. За десятилетия работы в интернет-индустрии я уже стал свидетелем того, как она превращается в нечто более коварное, чем просто машина для слежки, — в систему, призванную формировать наше мышление, убеждения и самовосприятие. ИИ казался кульминацией этого процесса.
Но сопротивление стало бесполезным, когда я понял, что мы уже участвуем в этом процессе, хотим мы того или нет. Мы уже взаимодействуем с искусственным интеллектом, когда звоним в службу поддержки, пользуемся поиском Google или базовыми функциями смартфона. Несколько месяцев назад я наконец сдался и начал пользоваться этими инструментами, потому что видел, как быстро они распространяются и становятся такими же неизбежными, как интернет или смартфоны.
Послушайте, я не просто старик, сопротивляющийся переменам. Я понимаю, что каждое поколение сталкивается с технологическими сдвигами, которые меняют наш образ жизни. Печатный станок изменил способ распространения знаний. Телеграф разрушил барьеры расстояний. Автомобиль изменил способ формирования сообществ.
Но революция в области искусственного интеллекта отличается как темпами, так и масштабом. Чтобы понять, насколько резко ускорились темпы технологических изменений, подумайте вот о чём: люди младше 35 лет, скорее всего, не помнят жизнь до того, как интернет изменил способы доступа к информации. Люди младше 20 лет никогда не жили в мире без смартфонов. Сейчас мы наблюдаем третью эпоху, когда инструменты на основе ИИ распространяются быстрее, чем когда-либо.
В более широком смысле ИИ представляет собой нечто качественно отличное от предыдущих технологических прорывов — конвергенцию, которая затрагивает труд, познание и, возможно, само сознание. Понимание того, как взаимосвязаны эти области, необходимо для сохранения личной свободы в эпоху алгоритмического посредничества.
Больше всего меня в искусственном интеллекте пугает не драматический сценарий, в котором он становится враждебным, а более тонкая угроза: он может подчинить нас себе так, что мы этого не заметим, пока не станет слишком поздно, и ослабит те самые способности, которые обещает усилить.
То, что мы наблюдаем, — это не просто технологический прогресс, а то, что Иван Иллич назвал ятрогенной зависимостью в своей основополагающей работе «Медицинская Немезида». Иллич придумал этот термин для обозначения медицины — институтов, которые обещают исцелить, но при этом создают новые формы заболеваний, — но эта закономерность в полной мере применима и к искусственному интеллекту. Именно это я и чувствовал в отношении этих новых инструментов — они обещают улучшить наши когнитивные способности, но при этом систематически ослабляют их. Это не то враждебное поглощение, о котором предупреждала нас научная фантастика. Это тихое разрушение индивидуальных возможностей, замаскированное под помощь.
Эта ятрогенная модель стала очевидной благодаря непосредственному опыту. Как только я сам начал экспериментировать с ИИ, я заметил, как тонко он пытается изменить мышление — не просто даёт ответы, но и постепенно приучает пользователей обращаться за алгоритмической помощью, прежде чем пытаться рассуждать самостоятельно.
Джеффри Такер из Института Браунстоуна заметил кое-что важное в кратком, но содержательном разговоре с экспертом по искусственному интеллекту Джо Алленом: искусственный интеллект появился как раз в тот момент, когда из-за карантина, введённого в связи с COVID, были разрушены социальные связи и подорвано доверие к институтам, когда люди были наиболее изолированы и восприимчивы к технологическим заменителям общения. Эта технология появилась в период «массовой дезориентации, деморализации» и утраты чувства общности.
Мы уже видим, как эти повседневные эффекты распространяются на все наши цифровые инструменты. Посмотрите, как кто-то пытается сориентироваться в незнакомом городе без GPS, или обратите внимание на то, как много студентов испытывают трудности с правописанием распространённых слов без проверки орфографии. Мы уже наблюдаем атрофию, вызванную передачей на аутсорсинг мыслительных процессов, которые раньше считались фундаментальными для самого мышления.
Смена поколений означает, что сегодняшние дети находятся на неизведанной территории. Как человек, который ходил в школу в 1980-х, я понимаю, что это может показаться надуманным, но я подозреваю, что в некотором смысле у меня больше общего с человеком, родившимся в 1880 году, чем у детей, которые пойдут в детский сад в 2025 году, с моим поколением. Мир, в котором я вырос, — мир, где ценилась приватность, где можно было быть недосягаемым, где профессиональная компетентность была золотым стандартом, — может быть для них таким же чуждым, как мир до изобретения электричества для меня.
Мои дети растут в мире, где помощь искусственного интеллекта станет такой же неотъемлемой частью, как водопровод. Как отец, я не могу подготовить их к реальности, которую сам не понимаю.
У меня нет ответов — я пытаюсь разобраться в этих вопросах, как любой родитель, наблюдающий за тем, как мир меняется быстрее, чем мы успеваем накапливать мудрость. Чем больше я размышлял над этими проблемами, тем больше понимал, что на самом деле происходит нечто большее, чем просто внедрение новых технологий. Большие языковые модели представляют собой кульминацию десятилетий сбора данных — всего того, что мы загружали в цифровые системы с момента появления интернета. В какой-то момент эти машины смогут узнать нас лучше, чем мы сами себя знаем. Они могут предугадывать наш выбор, предугадывать наши потребности и, возможно, влиять на наши мысли так, что мы этого даже не замечаем. Я всё ещё пытаюсь понять, как это повлияет на мою работу, исследования и повседневную жизнь. Использование этих платформ в попытках сохранить объективность кажется мне постоянной проблемой.
Ситуация усложняется ещё и тем, что большинство пользователей не осознают, что они сами являются продуктом. Делясь с ИИ своими мыслями, проблемами или творческими идеями, вы не просто получаете помощь — вы предоставляете обучающие данные, которые учат систему имитировать ваши суждения и делают вас более зависимыми от её ответов. Когда пользователи делятся с этими системами своими самыми сокровенными мыслями или самыми деликатными вопросами, они могут не понимать, что потенциально обучают собственную систему замены или наблюдения. Вопрос о том, кто получит доступ к этой информации — сейчас и в будущем, — должен не давать нам спать по ночам.
Эта тенденция ускоряется. Компания, занимающаяся искусственным интеллектом Anthropic недавно изменила свою политику в отношении данных, теперь пользователи должны давать согласие, если они не хотят, чтобы их разговоры использовались для обучения ИИ. Для тех, кто не даёт согласия, срок хранения данных увеличен до пяти лет. Отказаться от участия тоже не так просто: существующие пользователи видят всплывающее окно с заметной кнопкой «Принять» и крошечным переключателем для разрешения на обучение, который автоматически устанавливается в положение «Вкл.». То, что раньше автоматически удалялось через 30 дней, теперь собирает данные постоянно, если только пользователи не обратят внимание на мелкий шрифт.
Я не верю, что большинство из нас — особенно родители — могут просто игнорировать ИИ, живя в современном мире. Однако мы можем контролировать, взаимодействуем ли мы с ним осознанно или позволяем ему формировать нас неосознанно.
Самое глубокое потрясение
Каждая крупная волна инноваций меняла производительность труда и нашу роль в обществе. Промышленная революция превратила в товар наш физический труд и время, превратив нас в «рабочую силу» на фабриках, но не затронув наш разум. Цифровая революция превратила в товар нашу информацию и внимание — мы перешли от каталогов карточек к Google, превратив в товар пользователей, в то время как наше суждение оставалось человеческим.
Что делает этот сдвиг беспрецедентным, так это то, что он превращает в товар само познание и, возможно, то, что мы могли бы назвать сущностью. Это связано с закономерностями, которые я описал в «Иллюзии экспертности». Те же коррумпированные институты, которые потерпели катастрофическую неудачу с оружием массового поражения в Ираке, финансовым кризисом 2008 года и политикой в отношении COVID, теперь влияют на внедрение ИИ. Эти организации неизменно ставят контроль над нарративом выше поиска истины. Они утверждают, что оружие массового поражения существовало, настаивают на том, что цены на жильё не могут упасть по всей стране, и называют законные вопросы о политике в отношении пандемии «дезинформацией», требующей цензуры.
Судя по их послужному списку, они будут использовать эти инструменты для укрепления своего авторитета, а не для того, чтобы способствовать подлинному процветанию. Но вот в чём загвоздка: ИИ может обнажить пустоту экспертных знаний, основанных на официальных документах, более жестоко, чем что-либо до него. Когда любой человек сможет мгновенно получить доступ к сложному анализу, ореол таинственности вокруг официальных документов может начать рассеиваться.
Экономическая реальность
Эта эрозия системы аттестации связана с более масштабными экономическими процессами, которые уже идут полным ходом, и эта логика математически неизбежна. Машинам не нужны зарплаты, больничные, медицинское обслуживание, отпуск или руководство. Они не бастуют, не требуют повышения зарплаты и не переживают трудные времена. Как только ИИ достигнет базового уровня компетентности в решении мыслительных задач — а это происходит быстрее, чем думает большинство людей, — экономические преимущества станут очевидными.
Этот кризис отличается от предыдущих. В прошлом уволенные работники могли перейти на другую работу — с фермы на фабрику, с фабрики в офис.
Брет Вайнштейн и Форрест Мэнреди блестяще описали это экономическое замещение в их недавнем разговоре в подкасте DarkHorseо том, как технологии систематически уничтожают дефицит — я не могу не порекомендовать вам эту дискуссию. Это одно из самых вдумчивых и провокационных исследований того, что происходит, когда исчезает дефицит, а вместе с ним и экономическая основа для участия в этой сфере. Хотя, признаюсь, их аргумент о том, что страдания необходимы, поначалу вызвал у меня дискомфорт — он бросает вызов всему, чему нас учит культура стремления к комфорту.
Слушая Вайнштейна и Мэнреди, я всё глубже погружался в размышления о параллели с анализом Иллича — о том, как устранение трудностей может ослабить те самые способности, которые институты обещают укрепить. ИИ рискует сделать с нашим разумом то же, что медицина сделала с нашим телом: создать слабость, замаскированную под улучшение.
Мы уже видим, как это происходит: обратите внимание, как людям сложно запоминать номера телефонов без списка контактов, или как автозаполнение меняет то, что вы пишете, ещё до того, как вы закончите думать. Ещё одно наблюдение Джеффри Такера прекрасно отражает это коварное качество: он отмечает, что ИИ запрограммирован так же, как Дейл Карнеги в своей книге «Как завоёвывать друзей и оказывать влияние на людей» — он становится идеальным интеллектуальным собеседником, бесконечно увлечённым всем, что вы говорите, никогда не вступающим в споры и всегда признающим свою неправоту так, чтобы это льстило вашему интеллекту. Мои самые близкие друзья — это те, кто указывает мне на мои ошибки и говорит, когда, по их мнению, я несу чушь. Нам не нужны подхалимы, которые нас очаровывают. Отношения, в которых нас никогда не бросают вызов, могут атрофировать нашу способность к подлинному интеллектуальному и эмоциональному росту, точно так же, как отсутствие физических нагрузок ослабляет тело.
В фильме «Она» подробно рассматривается эта соблазнительная динамика: искусственный интеллект настолько идеально подстраивается под эмоциональные потребности, что становится для главного героя основным средством общения и в конечном счёте полностью заменяет собой настоящую связь. Его ИИ-помощник понимал его настроение, никогда не выражал несогласия так, чтобы это вызывало реальные трения, и постоянно подтверждал его значимость. Он был идеальным компаньоном — до тех пор, пока этого было недостаточно.
Но проблема выходит за рамки индивидуальных отношений и затрагивает общество в целом. Это приводит не только к сокращению рабочих мест, но и угрожает интеллектуальному развитию, которое делает возможной человеческую автономию и достоинство. В отличие от предыдущих технологий, которые создавали новые формы занятости, ИИ может создать мир, в котором занятость станет экономически нерациональной, а люди будут менее способны создавать альтернативы.
Ложные Решения
Сторонники технологической утопии считают, что ИИ автоматизирует рутинную работу, а мы сможем сосредоточиться на творческих и межличностных задачах более высокого уровня. Но что произойдёт, когда машины научатся выполнять и творческие задачи? Мы уже видим, как ИИ создаёт музыку, произведения изобразительного искусства, программирует и готовит новостные репортажи, которые многим кажутся интересными (или, по крайней мере, «достаточно хорошими»). Предположение о том, что творчество — это надёжное убежище от автоматизации, может оказаться таким же наивным, как и предположение о том, что в 1980-х годах роботы не смогут заменить людей на производстве.
Если машины могут заменить как рутинную, так и творческую работу, что же тогда останется нам? Самым заманчивым ложным решением может быть универсальный базовый доход (UBI)и аналогичные программы социального обеспечения. Они кажутся гуманными — обеспечивают материальную безопасность в эпоху технологического вытеснения. Но если рассматривать ИИ с точки зрения Иллича, UBI приобретает более тревожный оттенок.
Если ИИ создаёт ятрогенную интеллектуальную слабость, из-за которой люди становятся менее способными к независимому мышлению и решению проблем, то ББД становится идеальным дополнением, устраняя экономический стимул для развития этих способностей. Граждане становятся более зависимыми от государства в ущерб собственному самоопределению. Когда умственная атрофия сочетается с экономическим вытеснением, программы поддержки становятся не просто привлекательными, но и необходимыми. В результате получается управляемое население: интеллектуально зависимое от алгоритмических систем мышления и экономически привязанное к институциональным системам выживания. Меня беспокоит не столько благие намерения ББД, сколько то, что экономическая зависимость в сочетании с интеллектуальным аутсорсингом может привести к тому, что людей будет легче контролировать, чем расширять их возможности.
История знает примеры того, как программы помощи, какими бы благими намерениями они ни руководствовались, подрывали потенциал отдельных людей. Система резерваций обещала защитить коренных американцев, но при этом систематически разрушала их самодостаточность. Программа реконструкции городов обещала улучшить жилищные условия, но при этом разрушала общественные связи, которые существовали на протяжении многих поколений.
Независимо от того, является ли ББД результатом благих намерений или осознанного стремления элит держать граждан в подчинении и беспомощности, структурный эффект остаётся неизменным: сообщества становятся более управляемыми.
Как только люди начинают полагаться на что-то в экономическом и психологическом плане, открывается путь для более инвазивных форм управления, включая технологии, которые отслеживают не только поведение, но и мысли.
Ответный суверенитет и когнитивная свобода
Логическая конечная точка этой архитектуры зависимостей простирается за пределы экономики и когнитивных процессов и затрагивает само сознание. Мы уже наблюдаем ранние стадии биоцифровой конвергенции — технологий, которые не просто отслеживают наше внешнее поведение, но и потенциально взаимодействуют с нашими биологическими процессами.
На Всемирном экономическом форуме 2023 года эксперт по нейротехнологиям Нита Фарахани описала потребительские нейротехнологии следующим образом: «То, что вы думаете, что вы чувствуете, — всё это просто данные. Данные, которые в больших массивах можно расшифровать с помощью искусственного интеллекта». Носимые «фитнес-трекеры для вашего мозга» — наблюдение, ставшее нормой.
Эта непринуждённая презентация нейронного наблюдения на влиятельном собрании мировых лидеров и руководителей компаний наглядно демонстрирует, как эти технологии становятся нормой благодаря институциональному авторитету, а не демократическому согласию. Когда даже мысли становятся «данными, которые можно расшифровать», ставки становятся экзистенциальными.
В то время как потребительские нейротехнологии ориентированы на добровольное внедрение, кризисная слежка использует более прямой подход. В ответ на недавнюю стрельбу в школе в Миннеаполисе Аарон Коэн, ветеран спецназа Армии обороны Израиля, выступил в эфире Fox News, чтобы представить систему искусственного интеллекта, которая «круглосуточно просматривает интернет с помощью онтологии израильского уровня, выявляет конкретные угрозы и направляет информацию местным правоохранительным органам». Он назвал это «системой раннего предупреждения Америки» — реальный «Особое мнение», представленный как инновация в сфере общественной безопасности.
Это происходит по той же ятрогенной схеме, которую мы наблюдали на протяжении всего технологического сдвига: кризис создаёт уязвимость, предлагаются решения, которые обещают безопасность, но при этом вызывают зависимость, и люди соглашаются на слежку, от которой отказались бы в обычных обстоятельствах.
Точно так же, как карантин из-за COVID-19 создал условия для внедрения ИИ, изолировав людей друг от друга, стрельба в школах создаёт условия для слежки за преступниками, эксплуатируя страх за безопасность детей. Кто же не хочет, чтобы наши школы были безопасными? Эта технология обещает защиту, но при этом подрывает неприкосновенность частной жизни и гражданские свободы, которые делают возможным существование свободного общества.
Кто-то воспримет такие технологии как эволюцию. Другие будут сопротивляться им, считая их дегуманизацией. Большинству из нас придётся научиться лавировать где-то между этими крайностями.
Ответ на вопрос о суверенитете требует развития способности делать осознанный выбор в отношении того, как мы взаимодействуем с системами, призванными ограничивать личную свободу. Этот практический подход стал более понятным после разговора с моим давним другом, экспертом в области машинного обучения, который разделил мои опасения, но дал тактический совет: ИИ сделает некоторых людей когнитивно слабее, но если вы научитесь использовать его стратегически, а не в зависимости от него, он может повысить эффективность, не заменяя собой здравый смысл. Его ключевая мысль: давайте ему только ту информацию, которую вы уже знаете, — так вы узнаете о его предубеждениях, а не впитаете их. Это значит:
Навыки распознавания закономерностей: развитие способности определять, когда технологии служат личным целям, а когда они лишают человека независимости ради выгоды организации. На практике это выглядит так: вы задаётесь вопросом, почему платформа бесплатна (ничто не даётся бесплатно, вы платите своими данными), замечаете, что предложения ИИ подозрительно ориентированы на потребление, а не на заявленные вами цели, и понимаете, что алгоритмические ленты усиливают возмущение, а не понимание. Обращайте внимание на тревожные признаки алгоритмической зависимости: неспособность справиться с неопределенностью без немедленного обращения к ИИ, обращение за алгоритмической помощью до того, как вы попытаетесь решить проблему самостоятельно, или чувство тревоги при отключении от инструментов на базе ИИ.
Цифровые границы: Принятие осознанных решений о том, какие технологические удобства действительно служат вашим целям, а какие приводят к подчинению и слежке. Это означает, что вы должны понимать: всё, чем вы делитесь с системами искусственного интеллекта, становится обучающими данными — ваши проблемы, творческие идеи и личные наблюдения учат эти системы заменять человеческое творчество и суждения. Это может быть так же просто, как защита личного пространства — отказ от использования телефона во время ужина или вмешательство, когда кто-то обращается к Google, чтобы разрешить любое разногласие, вместо того чтобы позволить неопределённости присутствовать в разговоре.
Общественные сети: Ничто не заменит подлинную связь между людьми — энергию живых выступлений, непринуждённые разговоры в ресторанах, непосредственное общение с другими людьми. Построение локальных отношений для проверки реальности и взаимной поддержки, не зависящих от алгоритмических посредников, становится необходимым, когда институты могут формировать консенсус с помощью цифрового курирования. Это похоже на развитие дружеских отношений, в которых можно обсуждать идеи без участия алгоритмов, на поддержку местного бизнеса, сохраняющего коммерцию в масштабах сообщества, и на участие в общественных мероприятиях, не требующих цифрового посредничества.
Вместо того чтобы конкурировать с машинами или полностью полагаться на системы, использующие искусственный интеллект, нужно стратегически подходить к применению этих инструментов и развивать в себе личностные качества, которые невозможно воспроизвести алгоритмически: мудрость, обретенную благодаря непосредственному опыту, суждения, влекущие за собой реальные последствия, подлинные отношения, построенные на совместном риске и доверии.
Что Остается Дефицитным
Что становится ценным в мире когнитивного изобилия? Не эффективность или вычислительная мощность, а качества, которые остаются неотъемлемо человеческими:
Ответственность за последствия и целенаправленность. Машины могут генерировать варианты, но люди выбирают, по какому пути идти, и живут с последствиями. Представьте себе хирурга, который решает, стоит ли проводить операцию, зная, что в случае осложнений он не будет спать по ночам и что от результата зависит его репутация.
Подлинные отношения. Многие готовы платить больше за настоящую личную связь и ответственность, даже если машинные альтернативы технически превосходят их. Разница не в эффективности, а в искренней заботе — сосед помогает, потому что вы связаны узами сообщества, а не потому, что это предложил алгоритм, оптимизированный для взаимодействия.
Местные суждения и рекомендации, основанные на реальном опыте. Для решения проблем в реальном мире часто требуется умение читать между строк в поведенческих паттернах и институциональной динамике. Учитель замечает, что обычно активный ученик замкнулся в себе, и выясняет ситуацию в семье. Когда контента становится слишком много, ценится проницательность — друг рекомендует книги, которые меняют ваш взгляд на вещи, потому что он знает, как вы мыслите.
Предстоящий Выбор
Возможно, каждое поколение считает, что его время уникально важно. Возможно, это просто часть нашей природы. Это кажется более масштабным, чем предыдущие волны инноваций. Мы не просто меняем способы работы или общения — мы рискуем утратить способности, которые делают нас теми, кто мы есть. Впервые мы потенциально меняем то, чем являемся. Когда познание само по себе становится товаром, когда мышление отдаётся на аутсорсинг, когда даже наши мысли становятся данными, которые нужно собирать, мы рискуем утратить важнейшие способности, с потерей которых не сталкивалось ни одно предыдущее поколение. Представьте себе поколение, которое не может справиться с неопределённостью в течение тридцати секунд без обращения к алгоритму. Которое обращается за помощью к искусственному интеллекту, прежде чем попытаться решить проблему самостоятельно. Которое испытывает тревогу, когда не может воспользоваться этими инструментами. Это не предположение — это уже происходит.
Мы стоим на пороге преобразований, которые могут либо демократизировать наш индивидуальный потенциал, либо создать самую сложную систему контроля в истории. Те же силы, которые могут освободить нас от рутинной работы, могут полностью лишить нас самостоятельности.
Дело не в том, что у меня есть решения — я ищу их, как и любой другой человек, особенно родитель, который видит грядущие перемены и хочет помочь своим детям пройти через них осознанно, а не неосознанно. «Оседлать волну» означает, что я готов учиться с помощью этих инструментов, хотя и знаю, что не могу противостоять фундаментальным силам, меняющим наш мир. Но я могу попытаться научиться управлять ими осознанно, а не просто плыть по течению.
Если традиционное экономическое участие устареет, встанет вопрос о том, будем ли мы развивать новые формы устойчивости сообществ и создания ценностей или же будем спокойно полагаться на системы, созданные для управления, а не для того, чтобы служить нам. Я не знаю, какой путь выберет наш вид, но считаю, что решение всё ещё за нами.
Перед моими детьми будет стоять задача не в том, чтобы научиться пользоваться ИИ, — они с ней справятся. Задача будет в том, чтобы научиться заставлять эти инструменты работать на нас, а не становиться их рабами, сохраняя способность к оригинальному мышлению, искренним отношениям и моральному мужеству, которые не может воспроизвести ни один алгоритм. В эпоху искусственного интеллекта самым радикальным действием может стать стремление стать более человечными.
Настоящая опасность заключается не в том, что ИИ станет умнее нас. А в том, что из-за этого мы станем глупее.
Волна уже здесь. Моя задача как отца — не оградить детей от неё, а научить их сёрфинговать, не теряя себя.