November 22, 2023

РЭНД: Как искусственный интеллект (ИИ) может повлиять на взлет и падение наций?  

Авторы: Барри Павел, Ивана Ке, Майкл Спиртас, Джеймс Рисефф, Леа Саббаг, Грегори Смит, Keller Scholl, Доменик Лампкин

Перевод подготовлен авторами ТГ-канала "Давайте разберёмся"

В зависимости от того, как государства по всему миру будут использовать и управлять развитием искусственного интеллекта (ИИ), их могущество как может возрасти, так и упасть. Независимо от того, представляет ли ИИ экзистенциальную опасность для человечества, правительствам придется разрабатывать новые нормативно-правовые акты для выявления, оценки и реагирования на разнообразные вызовы, которые будут возникать в результате использования ИИ.

В связи с тем, что в 2023 г. широкой публике будут представлены передовые формы искусственного интеллекта, в центре внимания общественно-политических дискуссий справедливо оказались такие вопросы, как усиление неравенства, потеря рабочих мест и потенциальная угроза вымирания человечества в случае дальнейшего развития ИИ без эффективных защитных механизмов. В меньшей степени обсуждался вопрос о том, как ИИ может повлиять на геополитику и какие субъекты могут взять на себя ведущую роль в разработке ИИ или других передовых алгоритмов в будущем.

По мере развития искусственного интеллекта геополитика, возможно, уже никогда не будет прежней. Люди, объединенные в национальные государства, будут вынуждены работать с другой группой акторов - машинами с искусственным интеллектом, обладающими эквивалентным или более высоким уровнем возможностей и, возможно, способными к разрушительным действиям. В эпоху геотехнополитики самосознание человека и его представления о своей роли в мире станут совершенно иными, а монументальные научные открытия будут происходить так, что человек, возможно, не сможет их осмыслить. Следовательно, от того, по какому пути пойдет развитие ИИ, во многом зависит форма и реалии будущего мира.

В этой статье будут рассмотрены несколько сценариев, иллюстрирующих, как может развиваться ИИ в ближайшем будущем в зависимости от того, кто будет контролировать ситуацию. Для подготовки выводов и рекомендаций мы провели консультации с ведущими инженерами, политиками и учеными, представляющими различные отрасли. Мы представили этим экспертам сценарии развития ИИ для изучения, анализа и критики. Мы стремились описать текущую траекторию развития ИИ и определить наиболее важные факторы
для управления эволюцией этой беспрецедентной технологии.

Кто может контролировать развитие искусственного интеллекта (сценарии развития ситуации)?

Президент США Джо Байден «виртуально» появляется на встрече с лидерами деловых и промышленных кругов, посвященной закону CHIPS and Science Act (Закон о создании стимулов для производства полупроводников в США - федеральный закон США, принятый 117-м Конгрессом США и подписанный 46-м президентом США Джо Байденом 9 августа 2022 года. Закон предоставляет 52,7 млрд долларов США на внутренние исследования и стимулирование производства полупроводников в США). Фото Jonathan Ernst/Reuters

●       Американские компании занимают лидирующие позиции

Правительство США продолжает позволять частным корпорациям разрабатывать ИИ, в значительной степени не регулируя эту технологию и не вмешиваясь в деятельность корпораций. Такой подход соответствует устоявшемуся в США убеждению, что свободный рынок (и его стимулы, основанные на прибыли) является наиболее эффективным механизмом быстрого развития таких технологий, как ИИ В этом мире американские государственные служащие продолжают отставать от инженеров технологического сектора США как в понимании ИИ, так и в умении использовать его возможности. Частные корпорации направляют почти все средства, выделяемые на исследования и разработки, на совершенствование ИИ, а подавляющее большинство американских технических специалистов по-прежнему устремляется в Кремниевую долину. Правительство США стремится достичь своих политических целей, полагаясь на инноваторов внутри страны в разработке новых изобретений, которые оно в конечном итоге сможет приобрести. В этом мире будущие отношения между правительством США и технологическим сектором выглядят примерно так же, как и нынешние: Компании ведут агрессивный сбор данных о потребителях, а социальные сети продолжают оставаться очагом дезинформации и разногласий.

Ведущие технологические лидеры США, в том числе генеральный директор компании Tesla Элон Маск, генеральный директор Meta Platforms Марк Цукерберг, генеральный директор Alphabet Сундар Пичаи, генеральный директор OpenAI Сэм Альтман, генеральный директор Nvidia Дженсен Хуанг, генеральный директор Microsoft Сатья Наделла, генеральный директор IBM Арвинд Кришна и бывший генеральный директор Microsoft Билл Гейтс, занимают свои места для начала двухпартийного форума AI Insight Forum (Форумы по обсуждению искусственного интеллекта - серия форумов для определения подхода Конгресса США к разработке законодательства в области искусственного интеллекта) в сентябре 2023 года. Фото: Leah Millis/Reuters

●       Переход разработки ИИ под жесткий контроль Правительства США

Развитие искусственного интеллекта идет быстрыми темпами, и опасения по поводу катастрофических последствий приводят к тому, что правительство США - возможно, в координации с союзниками-единомышленниками - берет под контроль разработку ИИ. США решают отказаться от традиционного «мягкого подхода» к регулированию информационных технологий и разработке программного обеспечения и приступают к масштабному регулированию и надзору. Это приводит к монополии правительства США и отдельных партнеров (например, Великобритании) на вычислительные ресурсы, центры обработки данных, передовые алгоритмы и таланты в области ИИ путем национализации
и всеобъемлющего регулирования. По аналогии с прошлыми государственными инициативами США, такими как программа «Аполлон» и Манхэттенский проект, ИИ разрабатывается под руководством государства, а не под эгидой частных компаний. В оборонном секторе это может привести к динамике гонки вооружений, поскольку правительства других стран инициируют собственные программы развития ИИ, опасаясь, что они отстанут от США в этом вопросе. В других странах, не успевающих за переходным периодом, национализация может привести к тому, что их экономика будет страдать из-за неспособности развивать ИИ и внедрять его в свои организации.

Логотип компании Baidu на Всемирной конференции по искусственному интеллекту 2023 в Шанхае, Китай. Фото Aly Song/Reuters

Подобно СССР и его «Спутнику» в 1957 г., три китайские организации - Huawei, Baidu и Пекинская академия искусственного интеллекта (BAAI) - объявляют о крупном прорыве в области ИИ, заставая весь мир врасплох. В этом сценарии прогресс в области ИИ в Китае изначально не замечается и постоянно приуменьшается политиками из стран с развитой демократической экономикой. Китайские компании, исследовательские институты и ключевые государственные лаборатории опережают зарубежных конкурентов, в том числе благодаря огромным объемам государственного финансирования. Современные модели искусственного интеллекта также постоянно развиваются, используя конкурентное преимущество в виде огромного количества данных, которыми располагает население страны. Наконец, объединение военного и гражданского секторов Китая позволяет крупным игрокам в промышленности, науке и правительстве совместно использовать ресурсы в рамках общей инфраструктуры ИИ. BAAI пользуется преимуществами стратегического партнерства с лидерами индустрии и доступа к значительным вычислительным ресурсам, таким как Pengcheng Cloudbrain-II (существующий суперкомпьютер, предназначенный для работы с большими объемами данных) лаборатории Pengcheng. Такое сочетание ведущего мирового опыта и огромных вычислительных мощностей позволяет Китаю беспрецедентно быстро наращивать масштабы исследований в области ИИ, что приводит к прорывам в трансформационных исследованиях ИИ, которые застают весь мир врасплох. Это вызывает серьезную обеспокоенность американских политических и военных лидеров тем, что новые возможности Китая в области ИИ обеспечат ему асимметричное военное преимущество над США.

Премьер-министр Канады Джастин Трюдо, премьер-министр Японии Фумио Кисида, президент США Джо Байден, канцлер Германии Олаф Шольц, президент Индонезии Джоко Видодо, премьер-министр Италии Джорджия Мелони, генеральный директор Citigroup Джейн Фрейзер и председатель Европейской комиссии Урсула фон дер Ляйен на саммите «Большой семерки» 2023 года в Хиросиме, Япония.Фото: Jonathan Ernst/Reuters

●       Частно-государственный консорциум великих держав

Во всем мире активное партнерство между правительствами, международными корпорациями, общественными организациями, научными и исследовательскими институтами способствует быстрому развитию и внедрению ИИ. Это партнерство образует консорциум, который осуществляет многостороннее сотрудничество по проектам, обеспечивающим доступ к крупномасштабным вычислительным мощностям и ресурсам для обучения, вычислений и хранения данных. Благодаря финансированию со стороны правительств многих стран консорциум разрабатывает совместные решения и критерии для оценки, проверки и подтверждения достоверности, надежности и устойчивости систем ИИ. Новые и существующие международные государственные органы, включая Совет по ИИ в Абу-Даби, осуществляют всестороннее участие в разработке стандартов использования ИИ. В результате формируется здоровый сектор ИИ, поддерживающий экономический рост, который происходит одновременно с разработкой и оценкой справедливых, безопасных и надежных систем ИИ.

К чему мы должны быть готовыми?

●       Страны и компании будут взаимодействовать по-новому, а ИИ может стать полноправным действующим лицом, а не просто фактором

Государства и частные корпорации давно конкурируют за власть. Крупные технологические компании бросают вызов правительствам многими старыми способами, добавляя при этом новые подходы. Подобно традиционным транснациональным корпорациям, такие компании выходят за пределы национальных границ, но при этом они оказывают гораздо более широкое и инвазивное влияние на местные сообщества, поскольку затрагивают жизнь потребителей и собирают данные об их местонахождении, деятельности и привычках. Кроме того, крупные технологические компании по-новому влияют на национальную экономику, внутреннюю политику и местную власть, поскольку они воздействуют на распространение информации (и дезинформации) и создают новые сообщества и субкультуры. Это способствует поляризации населения в одних странах и смене правящих режимов в других. Компании, работающие в области ИИ, имеют доступ к огромным инвестиционным фондам и огромным вычислительным мощностям, что дает им дополнительные преимущества.

И ранее технологии часто влияли на геополитику, но перспектива создания ИИ означает, что сама технология может стать геополитическим актором. Мотивы и цели ИИ могут значительно отличаться от мотивов и целей правительств и частных компаний. Неспособность человека понять, как «думает» ИИ, и наше ограниченное представление о последствиях второго и третьего порядка наших команд или запросов к ИИ также вызывают серьезную тревогу. Людям и так нелегко взаимодействовать друг с другом. Остается только догадываться, как
мы будем управлять нашими отношениями с одним или несколькими ИИ.

●       Мы вступаем в эпоху одновременно просвещения и хаоса

Безграничный характер ИИ делает его трудно контролируемым и регулируемым. По мере роста вычислительных мощностей, оптимизации моделей и развития фреймворков (программная платформа, определяющая структуру программной системы; программное обеспечение, облегчающее разработку и объединение разных компонентов большого программного проекта) с открытым исходным кодом возможность создания высокоэффективных приложений ИИ будет становиться все более распространенной. В таком мире исследователи и инженеры, руководствующиеся благими намерениями, будут использовать эти возможности для совершения замечательных открытий, злонамеренные люди - для совершения ужасных преступлений, а ИИ может совершать как замечательные, так и ужасные действия. В итоге мы не получим ни эпохи просвещения, ни катастрофы, а лишь сочетание того и другого. Человечество научится преодолевать трудности и жить с этой меняющей жизнь технологией, как и со многими другими изменившими жизнь человека технологиями в прошлом.

●       США и Китай будут двигаться по разным путям

Хотя американские политики часто опасаются, что Китай станет лидером в гонке за ИИ, эксперты, с которыми мы консультировались, сходятся во мнении, что Китай вряд ли сможет добиться новых крупных успехов в области ИИ, поскольку США превосходят Китай в стимулировании инноваций в частном секторе. Китай вряд ли догонит или перегонит США в создании прорывных ИИ, но он может стать лидером в различных областях этой технологии. Демонстрируемый Китаем опыт совершенствования технологических возможностей, созданных в других странах, и предпочитаемый Коммунистической партией Китая подход к их использованию в жизни общества означают, что Китай может добиться большего успеха в интеграции современных технологий в свои рабочие процессы, оружие и системы, в то время как США могут отстать в интеграции комплексных систем.

●       Законодательное регулирование будет и впредь отставать от технологических инноваций

Правительство США уже считается отстающим в понимании ИИ по сравнению с ведущими частными разработчиками. Это объясняется несколькими факторами:

1.   Относительной медлительностью разработки государственной политики по сравнению с быстрыми темпами развития технологий

2.   Неспособностью государства платить конкурентоспособную зарплату дефицитным специалистам

3.   Отсутствием ясности в вопросе о том, следует ли вообще регулировать ИИ и как это делать, и др.

В перспективе эта ситуация вряд ли изменится. Правительства будут продолжать играть в догонялки с частным сектором, чтобы понять и отреагировать на новейшие и наиболее прорывные разработки в области ИИ.

Быстрые темпы распространения передовых технологий ИИ затруднят многостороннее регулирование. ИИ не имеет точек соприкосновения с традиционными моделями нераспространения, такими как глобальный режим нераспространения ядерного оружия, что означает, что правительствам будет сравнительно сложно контролировать ИИ с помощью традиционных методов регулирования.

Что должны сделать политики, чтобы защитить человечество?

Потенциальные опасности, которые несет в себе ИИ, многочисленны. В крайнем случае, это угроза вымирания человечества, которая может возникнуть в результате катастрофы, вызванной ИИ, например, хорошо разработанным вирусом, который легко распространяется, ускользает от обнаружения и уничтожает нашу цивилизацию. Даже если ИИ не будет убивать людей или отменять демократию, авторитарные режимы, террористические группы
и организованные преступные группировки могут использовать ИИ для нанесения большого вреда, распространяя дезинформацию и манипулируя общественным мнением. Правительствам необходимо рассматривать текущее положение дел в сфере ИИ как тренировочный полигон для подготовки к угрозам со стороны еще более совершенных возможностей ИИ, включая потенциальное появление искусственного интеллекта общего назначения (вид ИИ способный воспринимать, обучаться и выполнять интеллектуальные задачи способом, аналогичным человеческому, он позволяет машинам имитировать поведение человека и мыслительные процессы для решения задач любой сложности).

●       Правительствам следует сосредоточиться на повышении устойчивости к угрозам ИИ

В дополнение к традиционным методам регулирования государственная политика в отношении ИИ должна быть направлена на стратегии противодействия потенциальным угрозам со стороны ИИ, поскольку стратегии, направленные только на их отрицание, не сработают. ИИ невозможно сдержать с помощью регулирования, поэтому оптимальная политика будет направлена на минимизацию вреда, который может нанести ИИ. Вероятно, это будет наиболее важно в области биобезопасности, но снижение вреда также включает в себя противодействие угрозам кибербезопасности, укрепление устойчивости демократии и разработку вариантов экстренного реагирования на широкий спектр угроз со стороны государственных и негосударственных субъектов. Для реализации такой политики правительствам потребуется либо создать совершенно новые структуры, либо расширить уже существующие, такие как Агентство по кибербезопасности и защите инфраструктуры (автономное федеральное агентство США, подчиняющееся Министерству внутренней безопасности). Правительствам следует применять более комплексный подход к регулированию, не ограничиваясь аппаратными средствами контроля, которых в долгосрочной перспективе будет недостаточно для снижения ущерба.

●       Правительствам следует выходить за рамки традиционных методов регулирования, чтобы иметь возможность влиять на развитие ИИ

В отличие от других потенциально опасных технологий, ИИ не имеет очевидных исходных данных, которые можно было бы регулировать и контролировать. Данные и вычислительные мощности широко доступны большим и малым компаниям, и ни одна организация не может достоверно предсказать, откуда может появиться следующее революционное достижение в области ИИ. Поэтому правительствам следует задуматься о расширении своего инструментария за пределы традиционных методов регулирования. Двумя креативными механизмами могут стать инвестиции в создание надежных наборов данных для исследований в области ИИ, находящихся в государственной собственности, или выдача целевых грантов, поощряющих общественно полезное использование ИИ. Новые методы могут также включать в себя создание единых правил ответственности, разъясняющих, в каких случаях разработчики несут ответственность за ущерб, причиненный ИИ, требования к оценке ИИ и контроль за распространением некоторых высокоэффективных моделей. В конечном счете, правительства могут «купить себе место за столом переговоров», предоставляя компаниям экономические стимулы в обмен на большее влияние в обеспечении использования ИИ в общих интересах.

●       Правительства должны продолжать поддержку инноваций

Превосходство США в области ИИ во многом обусловлено их превосходством в области инноваций. Чтобы сохранить это превосходство, правительство США должно продолжать поддерживать инновации, финансируя национальные ресурсы исследования ИИ. Несмотря на то, что в разработке ИИ на передовых рубежах участвуют частные компании с огромными вычислительными ресурсами, среди экспертов существует мнение, что следующий прорыв в области ИИ может произойти за счет небольших моделей с новыми архитектурами. Академические институты проводят многочисленные теоретические исследования, которые сделали возможным создание нынешнего поколения ИИ. Стимулирование академического сообщества с помощью скромных ресурсов может опираться на эти достижения и привести к значительным прорывам в области ИИ.

●       Правительствам следует сотрудничать с частным сектором для улучшения оценки рисков

В связи с вероятным широким распространением передовых возможностей ИИ среди субъектов частного и государственного секторов, а также отдельных лиц, обладающих достаточными ресурсами, правительствам следует тесно сотрудничать с ведущими частными структурами для разработки современных инструментов прогнозирования, моделирования и планирования действий в случае, как предполагают эксперты, множества разнообразных неожиданных катастрофических событий, произошедших из-за использования ИИ.

Перевод подготовлен авторами ТГ-канала "Давайте разберёмся"