April 16, 2023

Большинство страхов ИИ — это страх будущего

Общаясь с футуристами и их аудиторией вот уже четыре десятилетия, я могу сказать вам следующее: хотя большинство людей обычно смотрят в будущее c определенным оптимизмом, они быстро меняют свое мнение, когда им показывают неблизкое будущее, описанное в правдоподобных подробностях. (Например, книга Age of Em.) Им становится очень не по себе от таких видений.

Если бы большинство людей поверило в такие видения, они вполне могли бы предпочесть серьезное регулирование, чтобы предотвратить подобные исходы. Обычно больше всего спасает простая вера: «Это все научная фантастика; этого не может быть на самом деле». (Многие даже говорят, что будущее не может измениться так сильно, как прошлое.) Обычно это работает, но в меньшей степени в такие моменты, как сейчас, когда многим внезапно удается заглянуть далеко за плотную завесу будущего.

Я говорю, конечно же, о больших языковых моделях, таких как ChatGPT. Эти модели примерно проходят знаменитый «тест Тьюринга»; большинству трудно понять, разговаривают ли они с машиной или с человеком. Увидев это, мы все больше верим в будущее, в котором многие ИИ, подобные этому, будут играть многие ключевые роли в нашем мире.

Это, естественно, пугает большинство, вызывая поддержку регулирования, чтобы воспрепятствовать этой тенденции. Многие говорят, что опасаются, что будущие ИИ будут «отчужденными», т. е. не полностью порабощенными и не всегда будут делать именно то, что мы хотели бы от них, даже когда нас нет рядом, и даже там, где нам было бы трудно выразить словами именно то, что мы хотели. Многие хотят «приостановить» разработку ИИ, пока мы не выясним, как соответствовать этому (почти невыполнимому) стандарту.

Но даже без учета ИИ наше будущее по умолчанию никогда не будет согласовано. Рассмотрим три предположения:

1. Как подробно показали антропологи, люди очень пластичны в культурном отношении.
2. За последние 100 000 лет культуры сильно изменились, причем темпы примерно соответствуют изменениям в технологиях и экономике.
3. Как прошлые тенденции, так и наши лучшие теории предполагают, что глобальные темпы изменений в области технологий и экономики значительно увеличатся (> 50 раз) в следующем столетии или около того.


Эти предположения подразумевают, что наши потомки, вероятно, скоро будут иметь очень разные культуры, в том числе другие ценности, убеждения и поведение. То есть они будут неравномерными.

Да, самый драматичный страх ИИ, который больше всего беспокоит людей в последнее время, — это единый ИИ, который внезапно показывает "взрывной рост", чтобы улучшить себя, завоевать всех, а затем с сильно изменившимися ценностями убьет нас всех. Это не совсем тот же самый страх, что и только что описанный мной сценарий без мировоззрения по умолчанию, но обратите внимание, насколько он близок. Основные отличия:

1. Потомки создаются с помощью металла и математики, а не мягких биоуглеродов, секса и воспитания. (Неужели эта разница действительно так важна?)
2. Предполагается, что изменения происходят намного быстрее

3. Наличие одного искусственного интеллекта, а не некоторого количества отдельных, делает менее вероятным сохранение прав собственности устаревших людей.


Да, в будущем без мировоззрения по умолчанию можно больше надеяться на то, что улучшенные потомки вытеснят старые умы, и старшим умам, по крайней мере, будет позволено мирно уйти на пенсию с некоторым запасом, чтобы жить за счет своих инвестиций. Но обратите внимание, что реализация таких надежд далеко не гарантирована, если этот новый, более быстрый мир претерпит за десятилетие столько же культурных изменений, сколько мы наблюдаем за тысячу лет при нынешних темпах изменений.

Большинство людей всегда боялись перемен. И если бы они действительно понимали, какие изменения грядут, скорее всего, проголосовали бы против большинства изменений, которые мы видели. Например, пятьдесят лет назад общественность думала, что видит будущее ядерной энергетики с необычайной яркостью, и в основном голосовала против. Совсем недавно мы видели нечто подобное в отношении генной инженерии человека.

Если долгосрочные изменения в сети были хорошими, считая их прогрессом, мы можем объяснить это отчасти широко распространенным игнорированием будущих изменений. Делать моменты ясности, подобные сегодняшнему видению ИИ, особенно опасными. Мир вполне может проголосовать за то, чтобы остановить это изменение. А потом еще. И так до тех пор, пока прогресс не остановится.

Добавлено: похоже, что большинство респондентов действительно говорят, что они гораздо больше беспокоятся о несогласованном ИИ, чем о несогласованных людях, потому что они предполагают, что такие люди все еще должны разделять гораздо больше наших ценностей. Но они действительно не могут объяснить, почему.

Добавлено: обратите внимание, что предположение о том, что ИИ гораздо менее согласованы, подразумевает, что даже если скорость культурных изменений значительно возрастет, человеческие потомки с гораздо меньшей вероятностью убьют предыдущие поколения. Спросите себя, насколько вы в этом уверены.

Оригинал: Robert Hanson

[0x]bsesión