Дэн Хендрикс предостерегает Америку от запуска «проекта Манхэттен» в области ИИ
«Условия, в которых создавалась атомная бомба, невозможно воссоздать в гонке за сверхинтеллектом», — пишет эксперт по безопасности ИИ.
Недавняя волна систем ИИ из Китая вызвала опасения, что Америка отстает в этой сфере. В этом месяце компания OpenAI, одна из самых передовых лабораторий ИИ, предупредила Белый дом, что лидерство США «незначительно и сокращается», и некоторые политики подумывают о создании аналога проекта «Манхэттен», по образцу засекреченных американских разработок времен Второй мировой войны, когда была создана атомная бомба. Новый министр энергетики США, Крис Райт, недавно, похоже, поддержал эту идею, заявив, что страна «находится в начале второго проекта “Манхэттен”».
Для Запада лидерство в сфере ИИ имеет решающее экономическое и военное значение. Однако некоторые воспринимают эту цель как стремительное движение к созданию сверхинтеллектуального ИИ. Этого следует избегать. «Проект Манхэттен» в таком виде был бы непрактичным, дестабилизирующим и обреченным на провал.
Во-первых, исходный «Проект Манхэттен» был успешен благодаря условиям, которые невозможно воссоздать сегодня. Полная секретность в отношении материальной инфраструктуры, научных открытий и персонала была критически важна для успеха, но сейчас это недостижимо. Центры обработки данных невозможно скрыть от спутниковой разведки; модели ИИ и научные идеи можно легко похитить через кибератаки; а уход известных исследователей ИИ в правительственный проект не останется незамеченным. Нужно признать, что соперники быстро узнают о наших планах.
Необходимые меры безопасности «Проекта Манхэттен» также ограничат участие ведущих специалистов. Многие из тех, кто играет ключевую роль в разработках ИИ в Кремниевой долине, — граждане Китая, и они не смогут работать в секретном правительственном проекте. Их вынужденное отстранение вынудит этот талант уехать за рубеж, что подорвет то самое преимущество, которое Америка пытается сохранить.
Допустим, все эти препятствия преодолимы, у нас есть «Проект Манхэттен», и мы достигаем сверхинтеллекта. В таком случае мы получим технологию с крайне дестабилизирующим эффектом и глубокими военными последствиями. Речь идет не просто о создании более совершенных ракет или быстрых истребителей, а о разработке беспрецедентного «мультипликатора силы». Сверхинтеллектуальный ИИ может позволить создать супероружие, которое пробьет брешь в существующих стратегиях сдерживания. Например, он может свести на нет ядерное сдерживание за счет систем противоракетной обороны нового поколения или обнаружения местоположения подводных лодок с ядерными ракетами, лишая государства возможности нанести ответный удар.
Существует также риск утраты контроля над ИИ. Самый простой путь к созданию сверхинтеллекта — это то, что я называю «рекурсией интеллекта»: когда группа систем ИИ автоматизирует собственную разработку, создавая следующее поколение. Представьте себе один ИИ, способный вести исследования на уровне мировых экспертов. Теоретически он может работать намного быстрее человека, а его «копировать и вставлять» можно неограниченное число раз, создав тысячи автоматизированных исследователей, непрерывно ведущих работу. Это способно «сжать» условные десять лет развития ИИ в один год. Но такой процесс вряд ли поддастся надежному контролю. Как отметил один из пионеров ИИ, Джеффри Хинтон, с присущей ему сдержанностью: «У менее разумных существ нет хорошего послужного списка в деле контроля над более разумными».
Нетрудно догадаться, почему государство может попытаться завладеть такой силой — и Америка отнюдь не единственная, кто обдумывает потенциальные возможности сверхинтеллекта. Но гораздо меньше внимания уделяется тому, как отреагируют соперники. Независимо от того, потеряет ли Америка контроль над сверхинтеллектом или нет, Китай воспримет «Проект Манхэттен» как угрозу своему выживанию и примет ответные меры, наращивая шпионаж, кибератаки и другие превентивные удары по инфраструктуре ИИ. Аналогично, Россия, которая не может конкурировать в области ИИ наравне, может решить, что единственный выход — сорвать реализацию проекта. Подобная эскалация не должна вызывать удивления: кто бы ожидал, что Америка останется бездействовать в зеркальной ситуации?
Соревнование в сфере ИИ не обязательно означает гонку за сверхинтеллектом. Америка может повысить свою конкурентоспособность, укрепив доступ к чипам для ИИ и к комплектующим для дронов, сделав их менее уязвимыми для сбоев в глобальных цепочках поставок. В данный момент высокопроизводительные чипы для ИИ в основном производятся на Тайване, а части для дронов — в значительной мере в Китае. Сосредоточившись на внутренней разработке, США смогут существенно снизить уязвимость своих критически важных цепочек поставок в сфере ИИ.
Кроме того, следует пресекать проекты по созданию сверхинтеллекта в других странах. В этом месяце я опубликовал доклад совместно с Эриком Шмидтом, бывшим исполнительным директором Google, и Александром Ваном, главой Scale AI, в котором мы изложили идею о том, как Америка может помешать соперникам добиться неконтролируемого превосходства. Мы предлагаем развивать киберсредства для отключения дестабилизирующих проектов ИИ у соперников, совершенствовать разведку для отслеживания иностранных достижений в ИИ и шпионаж, проникающий в научно-исследовательские центры и каналы связи. Явно демонстрируя способность отключать проекты, находящиеся на пороге создания сверхинтеллекта, Америка сможет сдержать такие начинания и предотвратить эскалацию.
В конечном итоге «Проект Манхэттен» по созданию сверхинтеллекта обречен на провал, поскольку его очень сложно защитить; сама технология обладает дестабилизирующим характером и грозит потерей человеческого контроля; а геополитические противники будут упреждающе атаковать такие проекты, чтобы обеспечить собственную безопасность. При этом Америка должна проявлять амбиции в использовании ИИ — как в военных разработках, так и в кардинальных преобразованиях здравоохранения. Но важно устоять перед соблазном стремиться к сверхинтеллекту — и одновременно не дать соперникам заняться тем же.
Дэн Хендрикс — исполнительный директор Центра безопасности ИИ и советник xAI (компания, созданная Илоном Маском) и Scale AI (основана Александром Ваном).