Почему искусственный интеллект спасет мир
Наступила эра искусственного интеллекта, и люди просто в шоке.
К счастью, я здесь, чтобы сообщить хорошие новости: ИИ не уничтожит мир, более того, может спасти его.
Сначала коротко о том, что такое ИИ: Применение математики и программного кода для обучения компьютеров тому, как понимать, синтезировать и генерировать знания способами, аналогичными тому, как это делают люди. ИИ - это такая же компьютерная программа, как и любая другая: она запускается, принимает входные данные, обрабатывает их и генерирует выходные данные. Результаты работы ИИ полезны в самых разных областях - от кодинга до медицины, от юриспруденции до художественного творчества. Он принадлежит людям и управляется людьми, как и любая другая технология.
Краткое описание того, чем ИИ не является: Программы-убийцы и роботы, которые оживают и решают убить человечество или разрушить все вокруг, как в фильмах.
Еще более краткое описание того, чем может стать ИИ: Способ сделать лучше все, о чем мы заботимся.
Почему искусственный интеллект может улучшить все, о чем мы заботимся.
Наиболее подтвержденный основной вывод социальных наук, сделанный на протяжении многих десятилетий и тысяч исследований, заключается в том, что человеческий интеллект улучшает очень широкий спектр жизненных результатов. Более умные люди имеют лучшие результаты почти в каждой сфере деятельности: академическая успеваемость, работа, профессиональный статус, доход, творчество, физическое здоровье, продолжительность жизни, освоение новых навыков, управление сложными задачами, лидерство, успех в предпринимательстве, разрешение конфликтов, понимание прочитанного, принятие финансовых решений, понимание чужой точки зрения, творчество, воспитание детей и удовлетворенность жизнью.
Кроме того, человеческий интеллект - это рычаг, который мы использовали на протяжении тысячелетий для создания мира, в котором живем сегодня: науки, технологии, математики, физики, химии, медицины, энергетики, строительства, транспорта, коммуникации, искусства, музыки, культуры, философии, этики, морали. Без применения интеллекта во всех этих областях мы все до сих пор жили бы в глинобитных хижинах, влача жалкое существование за счет натурального хозяйства. Вместо этого мы использовали наш интеллект для повышения уровня жизни в 10 000 раз за последние 4 000 лет.
ИИ предлагает нам возможность глубоко усовершенствовать человеческий интеллект, чтобы сделать все эти результаты интеллекта - и многие другие, от создания новых лекарств до способов решения проблемы изменения климата и технологий для достижения звезд - намного, намного лучше.
Расширение человеческого интеллекта с помощью ИИ уже началось - ИИ уже вокруг нас в виде компьютерных систем управления многих видов, сейчас он стремительно развивается с помощью больших языковых моделей ИИ, таких как ChatGPT, и будет очень быстро ускоряться дальше - если мы позволим ему это сделать.
- У каждого ребенка будет ИИ-наставник, бесконечно терпеливый, бесконечно сострадательный, бесконечно знающий, бесконечно полезный. ИИ-наставник будет рядом с каждым ребенком на каждом этапе его развития, помогая ему максимально раскрыть свой потенциал с помощью машинной версии бесконечной любви.
- У каждого человека будет ИИ-ассистент/тренер/наставник/инструктор/советник/терапевт, бесконечно терпеливый, бесконечно сострадательный, бесконечно знающий и бесконечно полезный. ИИ-ассистент будет присутствовать во всех жизненных возможностях и проблемах, максимизируя результаты каждого человека.
- У каждого ученого появится помощник/сотрудник/партнер с ИИ, который значительно расширит сферу его научных исследований и достижений. Каждый художник, каждый инженер, каждый бизнесмен, каждый врач, каждая сиделка будут иметь то же самое в своих мирах.
- Каждый лидер - генеральный директор, правительственный чиновник, президент некоммерческой организации, спортивный тренер, учитель - будет иметь то же самое. Эффект увеличения от принятия лидерами лучших решений в отношении людей, которыми они руководят, огромен, поэтому такое увеличение интеллекта может быть самым важным из всех.
- Рост производительности труда в экономике значительно ускорится, что приведет к экономическому росту, созданию новых отраслей, появлению новых рабочих мест, росту заработной платы и, как следствие, к новой эре повышенного материального благосостояния на всей планете.
Научные прорывы, новые технологии и лекарства резко расширятся, поскольку ИИ поможет нам расшифровать законы природы и использовать их в наших интересах. - Творческое искусство вступит в золотой век, поскольку художники, музыканты, писатели и кинематографисты с помощью ИИ получат возможность реализовывать свои идеи гораздо быстрее и в больших масштабах, чем когда-либо прежде.
- Я даже думаю, что ИИ улучшит ведение войны, когда это будет необходимо, резко снизив уровень смертности в военное время. Любая война характеризуется ужасными решениями, принимаемыми под сильным давлением и с резко ограниченной информацией очень ограниченными руководителями. Теперь у военных командиров и политических лидеров будут советники с искусственным интеллектом, которые помогут им принимать гораздо лучшие стратегические и тактические решения, сводя к минимуму риск, ошибки и ненужное кровопролитие.
- Одним словом, все, что сегодня люди делают с помощью своего естественного интеллекта, может быть сделано гораздо лучше с помощью ИИ, и мы сможем принять новые вызовы, которые невозможно было решить без ИИ, от лечения всех болезней до межзвездных путешествий.
- И речь идет не только об интеллекте! Возможно, самым недооцененным качеством ИИ является его очеловечивание. Искусство ИИ дает людям, не имеющим технических навыков, свободу творить и делиться своими художественными идеями. Общение с сочувствующим другом ИИ действительно улучшает их способность справляться с трудностями. А медицинские чат-боты с ИИ уже сейчас проявляют больше сочувствия, чем их человеческие коллеги. Вместо того чтобы делать мир более суровым и механистичным, бесконечно терпеливый и сочувствующий ИИ сделает мир теплее и добрее.
Ставки здесь высоки. Возможности огромны. ИИ, вполне возможно, является самой важной - и самой лучшей - вещью, которую когда-либо создавала наша цивилизация, наравне с электричеством и микрочипами, а возможно, и превосходя их.
Развитие и распространение ИИ - далеко не тот риск, которого мы должны бояться, - это моральное обязательство, которое мы несем перед собой, перед нашими детьми и перед нашим будущим.
С ИИ мы должны жить в гораздо лучшем мире, и теперь мы можем это сделать.
Так почему же возникла паника?
В противоположность этому позитивному мнению, общественные обсуждения ИИ в настоящее время пронизаны истерическим страхом и паранойей.
Мы слышим заявления о том, что ИИ убьет нас всех, разрушит наше общество, отнимет все наши рабочие места, вызовет катастрофическое неравенство и позволит плохим людям совершать ужасные поступки.
Чем объясняется такое расхождение в потенциальных результатах - от почти утопии до ужасающей антиутопии?
Исторически сложилось так, что каждая новая технология, имеющая значение, от электрического освещения до автомобилей, радио и Интернета, вызывала моральную панику - социальную заразу, которая убеждала людей в том, что новая технология разрушит мир, или общество, или и то, и другое. Прекрасные ребята из Pessimists Archive документировали эти вызванные технологиями моральные паники на протяжении десятилетий, их история наглядно демонстрирует закономерность. Оказывается, нынешняя паника - даже не первая для ИИ.
Безусловно, многие новые технологии приводили к плохим результатам - часто те же самые технологии, которые в других случаях приносили огромную пользу нашему благосостоянию. Поэтому нельзя сказать, что само по себе существование моральной паники означает, что беспокоиться не о чем.
Но моральная паника по своей природе иррациональна - она берет то, что может быть законным беспокойством, и раздувает его до уровня истерии, которая по иронии судьбы затрудняет противостояние действительно серьезным проблемам.
И, ух ты, у нас сейчас полномасштабная моральная паника по поводу ИИ.
Эта моральная паника уже используется в качестве мотивации различными субъектами, требующими принятия политических мер - новых ограничений, правил и законов в отношении ИИ. Эти субъекты, которые делают крайне драматичные публичные заявления об опасностях ИИ, подпитывая и еще больше нагнетая моральную панику, представляют себя бескорыстными защитниками общественного блага.
Баптисты и бутлегеры ИИ.
Экономисты давно заметили одну закономерность в реформаторских движениях такого рода. Действующие лица в подобных движениях делятся на две категории - "баптисты" и "бутлегеры" - на историческом примере запрета алкоголя в США в 1920-х годах:
- "Баптисты" - это истинно верующие социальные реформаторы, которые законно чувствуют - глубоко и эмоционально, если не рационально - что новые ограничения, правила и законы необходимы для предотвращения общественной катастрофы. В случае запрета алкоголя этими действующими лицами часто были буквально набожные христиане, которые считали, что алкоголь разрушает моральную структуру общества. Что касается риска ИИ, то эти субъекты искренне верят в то, что ИИ представляет ту или иную экзистенциальную опасность - пристегните их к полиграфу, они действительно так считают.
- "Бутлегеры" - это корыстные оппортунисты, которые получают финансовую выгоду от введения новых ограничений, правил и законов, ограждающих их от конкурентов. В случае с запретом на алкоголь это были в прямом смысле слова "бутлегеры", которые сколотили состояние на продаже нелегального алкоголя американцам, когда продажа легального алкоголя была запрещена. Что касается риска ИИ, то это руководители компаний, которые смогут заработать больше денег, если будут установлены нормативные барьеры, которые сформируют картель благословленных правительством поставщиков ИИ, защищенных от новых стартапов и конкуренции с открытым исходным кодом - программная версия банков "слишком больших, чтобы обанкротиться".
Циник может предположить, что некоторые из явных баптистов также являются бутлегерами - в частности, те, кому платят за нападки на ИИ их университеты, аналитические центры, активистские группы и СМИ. Если вам платят зарплату или вы получаете гранты на разжигание паники по поводу ИИ... вы, вероятно, бутлегер.
Проблема бутлегеров в том, что они побеждают. Баптисты - наивные идеологи, бутлегеры - циничные операторы, поэтому результатом подобных реформаторских движений часто является то, что бутлегеры получают что хотят - захват регуляторов, изоляцию от конкуренции, создание картеля - а баптисты остаются в недоумении, почему их стремление к улучшению общества пошло так плохо.
Мы только что пережили потрясающий пример этого - банковскую реформу после мирового финансового кризиса 2008 года. Баптисты говорили нам, что нужны новые законы и правила, чтобы разрушить "слишком большие, чтобы обанкротиться" банки, чтобы предотвратить повторение подобного кризиса. В 2010 году Конгресс принял закон Додда-Франка, который рекламировался как отвечающий целям баптистов, но на самом деле был принят "бутлегерами" - крупными банками. В результате те же самые банки, которые были "слишком большими, чтобы обанкротиться" в 2008 году, сейчас намного, намного больше.
Так что на практике, даже когда баптисты искренни - и даже когда баптисты правы - они используются как прикрытие манипулятивными и продажными бутлегерами, чтобы извлечь выгоду.
И именно это происходит сейчас в стремлении к регулированию ИИ.
Однако недостаточно просто определить действующих лиц и вменить им в вину их мотивы. Мы должны рассмотреть аргументы как баптистов, так и бутлегеров по существу.
Риск ИИ #1: Убьет ли ИИ нас всех?
Первый и исходный риск, связанный с ИИ, заключается в том, что ИИ решит буквально убить человечество.
Страх того, что технология нашего собственного создания восстанет и уничтожит нас, глубоко закодирован в нашей культуре. Греки выразили этот страх в мифе о Прометее - Прометей принес человеку разрушительную силу огня и, в более общем смысле, технологии, за что Прометей был осужден богами на вечные пытки. Позже Мэри Шелли дала нам, современным людям, свою собственную версию этого мифа в романе "Франкенштейн, или Современный Прометей", в котором мы разрабатываем технологию вечной жизни, которая затем восстает и стремится уничтожить нас. И конечно, ни одна газетная статья о панике ИИ не обходится без изображения сверкающего красноглазого робота-убийцы из фильмов Джеймса Кэмерона "Терминатор".
Предполагаемая эволюционная цель этой мифологии заключается в том, чтобы побудить нас серьезно рассматривать потенциальные риски новых технологий - ведь огонь, в конце концов, действительно может быть использован для сожжения целых городов. Но так же, как огонь был основой современной цивилизации, поскольку использовался для того, чтобы согреть и обезопасить нас в холодном и враждебном мире, эта мифология игнорирует гораздо больше плюсов большинства - всех? - новых технологий, и на практике разжигает деструктивные эмоции, а не разумный анализ. То, что современный человек сходил с ума подобным образом, не означает, что и мы должны сходить с ума, вместо этого мы можем применить рациональный подход.
Я считаю, что идея о том, что ИИ решит буквально убить человечество, является глубокой категориальной ошибкой. ИИ - это не живое существо, которое миллиарды лет эволюции готовили к участию в борьбе за выживание сильнейших, как это делают животные и как это делаем мы. Это математика - код - компьютеры, созданные людьми, принадлежащие людям, используемые людьми, контролируемые людьми. Идея о том, что в какой-то момент он обретет собственный разум и решит, что у него есть мотивы, побуждающие его попытаться убить нас, - это суеверная махинация.
Короче говоря, ИИ не хочет, у него нет целей, он не хочет вас убить, потому что он не живой. ИИ - это машина - и он не собирается оживать больше, чем оживает ваш тостер.
Разумеется, есть истинно верующие в ИИ-убийцу - баптисты, которые получают неожиданное освещение в СМИ за свои ужасающие предупреждения. Некоторые из них утверждают, что изучали эту тему десятилетиями и говорят, что теперь они до смерти напуганы тем, что узнали. Некоторые из этих истинно верующих даже являются настоящими новаторами технологии. Эти деятели выступают за различные причудливые и экстремальные ограничения на ИИ, начиная от запрета на разработку ИИ и заканчивая военными авиаударами по центрам обработки данных и ядерной войной. Они утверждают, что поскольку люди вроде меня не могут исключить катастрофические последствия ИИ в будущем, мы должны занять позицию предосторожности, которая может потребовать большого количества физического насилия и смерти, чтобы предотвратить потенциальный экзистенциальный риск.
Мой ответ заключается в том, что их позиция ненаучна - Какова проверяемая гипотеза? Что могло бы фальсифицировать гипотезу? Как мы узнаем, когда попадаем в опасную зону? Эти вопросы остаются в основном без ответа, кроме "Вы не можете доказать, что этого не произойдет!". На самом деле, позиция этих баптистов настолько ненаучна и настолько экстремальна - теория заговора о математике и коде - и уже призывает к физическому насилию, что я сделаю то, чего обычно не делаю, и тоже поставлю под сомнение их мотивы.
В частности, я думаю, что происходят три вещи:
Во-первых, вспомните, что Джон фон Нейман в ответ на знаменитые стенания Роберта Оппенгеймера о его роли в создании ядерного оружия, которое помогло закончить Вторую мировую войну и предотвратить Третью мировую войну, сказал: "Некоторые люди признают свою вину, чтобы присвоить себе грех". Каким наиболее драматичным способом можно заявить о важности своей работы, не показавшись при этом откровенным хвастуном? Это объясняет несоответствие между словами и действиями баптистов, которые на самом деле строят и финансируют ИИ - следите за их действиями, а не за их словами. (Трумэн был более резок после встречи с Оппенгеймером: "Больше не пускайте сюда этого плаксу").
Во-вторых, некоторые из баптистов на самом деле являются бутлегерами. Существует целая профессия "эксперт по безопасности ИИ", "этик ИИ", "исследователь рисков ИИ". Им платят за то, чтобы они были думерами, и их заявления следует обрабатывать соответствующим образом.
В-третьих, Калифорния оправданно славится многими тысячами культов, от EST до Храма Народов, от Небесных Врат до Семьи Мэнсона. Многие, хотя и не все, из этих культов безобидны и, возможно, даже служат цели для замкнутых людей, которые находят в них приют. Но некоторые из них действительно очень опасны, и культы, как известно, с трудом преодолевают ту грань, которая в конечном итоге приводит к насилию и смерти.
И реальность, очевидная для всех в Районе залива, но, вероятно, не за его пределами, заключается в том, что "Риск ИИ" превратился в культ, который внезапно оказался в центре внимания мировой прессы и общественного обсуждения. Этот культ втянул в себя не только периферийных персонажей, но и некоторых реальных экспертов отрасли и немалое число богатых спонсоров - включая, до недавнего времени, Сэма Бэнкмана-Фрида. И он разработал полный набор культовых моделей поведения и верований.
Именно из-за этого культа и существует ряд думеров ИИ-риска, которые звучат так экстремально - дело не в том, что они действительно обладают тайными знаниями, которые делают их экстремизм логичным, а в том, что они довели себя до исступления и действительно... чрезвычайно экстремальны.
Оказывается, этот тип культа не нов - существует давняя западная традиция милленаризма, которая порождает культы апокалипсиса. Культ риска ИИ имеет все признаки милленаристского культа апокалипсиса. Из Википедии, с моими дополнениями:
"Милленаризм - это вера группы или движения [думеры ИИ-риска] в грядущую фундаментальную трансформацию общества [приход ИИ], после которой все изменится [ИИ-утопия, антиутопия и/или конец света]. Считается, что только драматические события [запрет ИИ, авиаудары по центрам обработки данных, ядерные удары по нерегулируемому ИИ] способны изменить мир [предотвратить ИИ], и ожидается, что изменения произойдут или будут пережиты группой набожных и посвященных людей. В большинстве милленаристских сценариев за грядущей катастрофой или битвой [ИИ-апокалипсис или его предотвращение] последует новый, чистый мир [запрет ИИ], в котором верующие будут вознаграждены [или, по крайней мере, будет признано, что они все это время были правы]".
Эта модель культа апокалипсиса настолько очевидна, что я удивлен, что больше людей не видят этого.
Не поймите меня неправильно, о культах интересно слушать, их письменные материалы часто креативны и увлекательны, а их члены привлекательны на званых обедах и на телевидении. Но их крайние убеждения не должны определять будущее законов и общества - очевидно, что нет.
Риск ИИ #2: Разрушит ли ИИ наше общество?
Второй широко обсуждаемый риск ИИ заключается в том, что ИИ разрушит наше общество, генерируя результаты, которые будут настолько "вредными", если использовать номенклатуру этого вида думеров, что нанесут глубокий ущерб человечеству, даже если мы не будем буквально убиты.
Краткая версия: Если роботы-убийцы нас не убьют, это сделают язык ненависти и дезинформация.
Это относительно недавняя озабоченность думеров, которая отпочковалась от движения "риск ИИ", описанного мною выше, и в некоторой степени переняла его. На самом деле, терминология риска ИИ недавно изменилась с "безопасности ИИ" - термина, используемого людьми, которые обеспокоены тем, что ИИ буквально убьет нас - на "выравнивание ИИ" - термин, используемый людьми, которые обеспокоены "вредом" для общества. Изначальные сторонники безопасности ИИ расстроены этим изменением, хотя и не знают, как вернуть все на свои места - теперь они выступают за то, чтобы переименовать актуальную тему риска ИИ в "ИИ notkilleveryone'изм", что пока не получило широкого распространения, но, по крайней мере, понятно.
Подсказкой к природе утверждения об общественном риске ИИ является его собственный термин "выравнивание ИИ". Выравнивание с чем? Человеческими ценностями. Чьими человеческим ценностям? А, вот тут-то все и становится запутанным.
Так получилось, что я наблюдал в первом ряду аналогичную ситуацию - войны за "доверие и безопасность" в социальных сетях. Как теперь очевидно, службы социальных сетей уже много лет находятся под мощным давлением со стороны правительств и активистов с целью запрета, ограничения, цензуры и иного подавления широкого спектра контента. И те же проблемы "языка вражды" (и его математического аналога, "алгоритмической предвзятости") и "дезинформации" напрямую переносятся из контекста социальных сетей на новую границу "выравнивания ИИ".
Мои основные выводы из войн в социальных сетях таковы:
С одной стороны, не существует абсолютной позиции свободы слова. Во-первых, каждая страна, включая Соединенные Штаты, делает незаконным по крайней мере некоторый контент. Во-вторых, есть определенные виды контента, такие как детская порнография и подстрекательство к насилию в реальном мире, которые практически во всех обществах считаются запрещенными - законными или нет. Поэтому любая технологическая платформа, способствующая созданию или генерирующая контент - речь - будет иметь некоторые ограничения.
С другой стороны, скользкая дорожка - это не заблуждение, а неизбежность. Как только будет создана основа для ограничения даже вопиюще ужасного контента - например, для языка вражды, конкретного обидного слова или для дезинформации, явно ложных утверждений вроде "Папа умер" - шокирующе широкий круг правительственных агентств, активистских групп давления и неправительственных организаций начнет действовать и требовать все более высоких уровней цензуры и подавления любой речи, которую они считают угрожающей обществу и/или своим личным предпочтениям. Они будут делать это вплоть до способов, которые являются откровенно тяжкими преступлениями. Этот цикл на практике может продолжаться, по-видимому, вечно, при восторженной поддержке авторитарных наблюдателей, установленных во всех наших элитных властных структурах. Это происходит в социальных сетях уже десятилетие и, за некоторыми исключениями, продолжает становиться все более яростным.
Именно такая динамика сформировалась сейчас вокруг "выравнивания ИИ". Его сторонники утверждают, что мудрость заключается в том, чтобы генерируемые ИИ речь и мысли были полезны для общества, а генерируемые ИИ речь и мысли, которые вредны для общества, запретить. Его противники утверждают, что "полиция мысли" поразительно высокомерна и самонадеянна, а зачастую и откровенно преступна, по крайней мере, в США, и на самом деле стремится стать новым видом сросшейся правительственно-корпоративно-академической авторитарной речевой диктатуры, взятой прямо со страниц "1984" Джорджа Оруэлла.
Поскольку сторонники "доверия и безопасности" и "выравнивания ИИ" сгруппированы в очень узком сегменте населения планеты, который характеризует американскую прибрежную элиту - в которую входят многие из тех, кто работает в технологической индустрии и пишет о ней - многие из моих читателей найдут себя готовыми утверждать, что для того, чтобы избежать разрушения общества, необходимы резкие ограничения на выход ИИ. Я не буду сейчас пытаться отговорить вас от этого, я просто скажу, что такова природа спроса, и что большинство людей в мире не согласны с вашей идеологией и не хотят видеть вашу победу.
Если вы не согласны с преобладающей нишей морали, которая навязывается как социальным медиа, так и ИИ посредством постоянно усиливающихся речевых кодексов, вы также должны понимать, что борьба за то, что ИИ разрешено говорить/генерировать, будет даже более важной - намного более важной - чем борьба за цензуру в социальных медиа. ИИ, скорее всего, станет управляющим слоем для всего на свете. То, как ему будет позволено работать, будет иметь значение, возможно, большее, чем что-либо другое, когда-либо имевшее значение. Вы должны знать о том, как небольшая и изолированная группа пристрастных социальных инженеров пытается определить это прямо сейчас, прикрываясь извечным утверждением, что они защищают вас.
Короче говоря, не позволяйте полиции мысли подавлять ИИ.
Риск ИИ #3: Заберет ли ИИ все наши рабочие места?
Страх потери работы в результате механизации, автоматизации, компьютеризации или ИИ является повторяющейся паникой на протяжении сотен лет, с момента появления первых машин, таких как механический ткацкий станок. Несмотря на то, что каждая новая крупная технология на протяжении всей истории приводила к увеличению количества рабочих мест при более высокой заработной плате, каждая волна этой паники сопровождалась заявлениями о том, что "в этот раз все будет по-другому" - именно в этот раз это наконец-то произойдет, именно эта технология нанесет окончательный удар молотом по человеческому труду. И тем не менее, этого никогда не происходит.
В недавнем прошлом мы пережили два таких технологических цикла паники безработицы - панику аутсорсинга в 2000-х годах и панику автоматизации в 2010-х годах. Несмотря на то, что на протяжении обоих десятилетий многие говорящие головы, эксперты и даже руководители технологической индустрии твердили, что массовая безработица близка, к концу 2019 года - прямо перед началом COVID - в мире было больше рабочих мест с более высокими зарплатами, чем когда-либо в истории.
Тем не менее, эта ошибочная идея не умрет.
И, конечно же, она вернулась.
На этот раз у нас наконец-то появилась технология, которая займет все рабочие места и сделает людей ненужными - настоящий искусственный интеллект. Конечно, на этот раз история не повторится, и ИИ вызовет массовую безработицу, а не быстрый рост экономики, рабочих мест и заработной платы, верно?
Нет, этого не произойдет, и на самом деле ИИ, если позволить ему развиваться и распространяться по всей экономике, может вызвать самый резкий и продолжительный экономический бум всех времен, с соответствующим рекордным ростом рабочих мест и заработной платы - прямо противоположное опасениям. И вот почему.
Основная ошибка, которую продолжают совершать сторонники автоматизации, убивающей рабочие места, называется "заблуждение о единице труда". Это заблуждение - неверное представление о том, что в экономике в любой момент времени существует фиксированное количество труда, который необходимо выполнить, и либо это делают машины, либо люди - и если это делают машины, то людям нечем будет заняться.
Заблуждение о единице труда естественно вытекает из наивной интуиции, но наивная интуиция здесь ошибочна. Когда технология применяется в производстве, мы получаем рост производительности - увеличение выпуска продукции за счет сокращения затрат. Результатом этого является снижение цен на товары и услуги. Поскольку цены на товары и услуги падают, мы платим за них меньше, а это значит, что у нас появляется дополнительная способность тратить деньги на покупку других вещей. Это увеличивает спрос в экономике, что стимулирует создание новых производств, включая новые продукты и новые отрасли промышленности, которые затем создают новые рабочие места для людей, которые были заменены машинами на прежних рабочих местах. В результате экономика становится более крупной, с более высоким материальным благосостоянием, большим количеством отраслей, большим количеством товаров и большим количеством рабочих мест.
Но на этом хорошие новости не заканчиваются. Мы также получаем более высокую заработную плату. Это происходит потому, что на уровне отдельного работника рынок устанавливает вознаграждение в зависимости от предельной производительности труда. Работник, занятый в бизнесе с использованием технологий, будет более производительным, чем работник в традиционном бизнесе. Работодатель либо заплатит этому работнику больше денег, поскольку он теперь более производителен, либо это сделает другой работодатель, чисто из собственных интересов. В результате технология, внедренная в отрасль, обычно не только увеличивает количество рабочих мест в отрасли, но и повышает заработную плату.
Подводя итог, можно сказать, что технология дает людям возможность быть более продуктивными. Это приводит к снижению цен на существующие товары и услуги и росту заработной платы. Это, в свою очередь, вызывает экономический рост и рост числа рабочих мест, мотивируя создание новых рабочих мест и новых отраслей. Если позволить рыночной экономике нормально функционировать и позволить технологиям свободно внедряться, то это будет вечный восходящий цикл, который никогда не закончится. Ведь, как заметил Милтон Фридман, "человеческие желания и потребности бесконечны" - мы всегда хотим больше, чем имеем. Рыночная экономика, основанная на технологиях, - это способ приблизиться к тому, чтобы обеспечить всех желающих всем необходимым, но никогда не дойти до конца. И именно поэтому технологии не уничтожают рабочие места и никогда не уничтожат.
Эти идеи настолько умопомрачительны для людей, которые с ними не сталкивались, что вам может понадобиться некоторое время, чтобы понять их. Но клянусь, я их не выдумал - на самом деле вы можете прочитать о них в стандартных учебниках по экономике. Я рекомендую главу "Проклятие машин" в книге Генри Хэзлитта "Экономика в одном уроке", а также сатирическую "Петицию свечника" Фредерика Бастиа об уничтожении солнца из-за его нечестной конкуренции с осветительной промышленностью, модернизированную для нашего времени.
Но в этот раз все по-другому, думаете вы. На этот раз, благодаря искусственному интеллекту, у нас есть технология, которая может заменить ВЕСЬ человеческий труд.
Но, используя принципы, которые я описал выше, подумайте, что будет означать, если буквально весь существующий человеческий труд будет заменен машинами.
Это означало бы взлет темпов роста экономической производительности, который был бы абсолютно космическим, намного превышающим все исторические прецеденты. Цены на существующие товары и услуги упадут практически до нуля. Благосостояние потребителей резко возрастет. Расходная способность потребителей резко возрастет. Новый спрос в экономике взорвется. Предприниматели создадут головокружительные массивы новых отраслей, товаров и услуг и наймут столько людей и искусственного интеллекта, сколько смогут, чтобы как можно быстрее удовлетворить весь новый спрос.
Предположим, что ИИ снова заменит этот труд? Цикл повторится, повышая благосостояние потребителей, экономический рост, рост рабочих мест и заработной платы. Это будет прямая спираль к материальной утопии, о которой не смели мечтать ни Адам Смит, ни Карл Маркс.
Риск ИИ #4: Приведет ли ИИ к катастрофическому неравенству?
Говоря о Карле Марксе, беспокойство по поводу того, что ИИ заберет рабочие места, переходит непосредственно к следующему заявленному риску ИИ, который звучит так: "Хорошо, Марк, предположим, что ИИ действительно заберет все рабочие места, плохо это или хорошо. Не приведет ли это к массовому и разрушительному неравенству в благосостоянии, поскольку владельцы ИИ будут пожинать все экономические плоды, а обычные люди не получат ничего?"
Так получилось, что это было главным утверждением марксизма, что владельцы средств производства - буржуазия - неизбежно украдут все общественное богатство у людей, которые выполняют реальную работу - пролетариата. Это еще одно заблуждение, которое просто не умрет, как бы часто его ни опровергала реальность. Но давайте все же вобьем кол в его сердце.
Изъян этой теории заключается в том, что, будучи владельцем технологии, не в ваших интересах держать ее при себе - скорее наоборот, в ваших интересах продать ее как можно большему числу покупателей. Самый большой рынок в мире для любого продукта - это весь мир, все 8 миллиардов человек. И поэтому в реальности каждая новая технология - даже та, которая начинает продаваться в разреженном воздухе высокооплачиваемых крупных компаний или богатых потребителей - быстро распространяется, пока не попадает в руки самого большого возможного массового рынка, в конечном счете, каждого человека на планете.
Классическим примером этого является так называемый "секретный план" Илона Маска - который он, естественно, опубликовал открыто - для компании Tesla в 2006 году:
Шаг 1. Построить [дорогой] спортивный автомобиль
Шаг 2. Использовать эти деньги для создания доступного автомобиля
Шаг 3, Использовать эти деньги для создания еще более доступного автомобиля
...что он, конечно, и сделал, став в результате самым богатым человеком в мире.
Последний пункт является ключевым. Стал бы Илон еще богаче, если бы сегодня продавал автомобили только богатым людям? Нет. Был бы он еще богаче, если бы производил автомобили только для себя? Конечно, нет. Нет, он максимизирует собственную прибыль, продавая на самый большой возможный рынок - на весь мир.
Короче говоря, все получают эту вещь - как мы видели в прошлом не только с автомобилями, но и с электричеством, радио, компьютерами, Интернетом, мобильными телефонами и поисковыми системами. Производители таких технологий крайне заинтересованы в снижении цен на них до тех пор, пока их не сможет позволить себе каждый житель планеты. Именно это уже происходит в искусственном интеллекте - именно поэтому вы можете использовать современный генеративный ИИ не только по низкой цене, но даже бесплатно сегодня в виде Microsoft Bing и Google Bard - и именно это будет происходить и дальше. Не потому, что такие поставщики глупы или щедры, а именно потому, что они жадны - они хотят максимизировать размер своего рынка, что максимизирует их прибыль.
Таким образом, происходит обратное тому, что технология приводит к централизации богатства - отдельные потребители технологии, в конечном счете, включая каждого жителя планеты, получают больше возможностей и захватывают большую часть генерируемой стоимости. Как и в случае с предыдущими технологиями, компании, создающие ИИ - предполагая, что они должны функционировать на свободном рынке - будут яростно конкурировать, чтобы добиться этого.
Маркс был неправ тогда, и он неправ сейчас.
Это не значит, что неравенство не является проблемой нашего общества. Оно есть, просто оно вызвано не технологиями, а наоборот, теми секторами экономики, которые наиболее устойчивы к новым технологиям, в которых наблюдается наибольшее вмешательство государства, препятствующее внедрению новых технологий, таких как ИИ - в частности, жилищное строительство, образование и здравоохранение. Фактический риск ИИ и неравенства заключается не в том, что ИИ вызовет большее неравенство, а в том, что мы не позволим использовать ИИ для снижения неравенства.
Риск ИИ #5: Приведет ли ИИ к тому, что плохие люди будут совершать плохие поступки?
До сих пор я объяснял, почему четыре из пяти наиболее часто предлагаемых рисков ИИ не являются реальными - ИИ не оживет и не убьет нас, ИИ не разрушит наше общество, ИИ не приведет к массовой безработице и ИИ не вызовет катастрофического роста неравенства. Но теперь давайте обратимся к пятому пункту, с которым я фактически согласен: ИИ облегчит плохим людям возможность совершать плохие поступки.
В некотором смысле это тавтология. Технология - это инструмент. Инструменты, начиная с огня и камней, могут использоваться для хороших дел - приготовления пищи и строительства домов - и для плохих дел - сжигания людей и нанесения им ударов. Любая технология может быть использована как во благо, так и во вред. Справедливо. И ИИ облегчит возможность преступникам, террористам и враждебным правительствам совершать плохие поступки, без сомнения.
Это заставляет некоторых людей предлагать: ну, в таком случае, давайте не будем рисковать, давайте запретим ИИ сейчас, пока этого не произошло. К сожалению, ИИ - это не какой-то эзотерический физический материал, который трудно достать, как плутоний. Наоборот, это самый простой материал в мире - математика и код.
Очевидно, что кот ИИ уже вылез из мешка. Вы можете узнать, как создать ИИ, из тысяч бесплатных онлайн-курсов, книг, статей и видео, а выдающиеся реализации с открытым исходным кодом множатся с каждым днем. ИИ подобен воздуху - он будет повсюду. Уровень тоталитарного угнетения, который потребуется для того, чтобы остановить это, будет настолько драконовским - мировое правительство, контролирующее и управляющее всеми компьютерами? Головорезы в черных вертолетах, захватывающие неавторизованные графические процессоры? - что у нас не останется общества, которое можно было бы защитить.
Поэтому есть два очень простых способа борьбы с риском того, что плохие люди будут делать плохие вещи с помощью ИИ, и именно на них мы должны сосредоточиться.
Во-первых, у нас есть законы, предусматривающие уголовную ответственность за большинство плохих вещей, которые кто-либо собирается совершить с помощью ИИ. Взломать Пентагон? Это преступление. Украсть деньги из банка? Это преступление. Создать биооружие? Это преступление. Совершить террористический акт? Это преступление. Мы можем просто сосредоточиться на предотвращении этих преступлений, когда это возможно, и на их преследовании, когда это невозможно. Нам даже не нужны новые законы - я не знаю ни одного фактического плохого применения ИИ, которое было бы предложено и которое уже не было бы незаконным. И если будет выявлено новое плохое применение, мы запретим это. ЧТД.
Но вы заметите, что я написал - что мы должны в первую очередь сосредоточиться на предотвращении преступлений с помощью ИИ до того, как они произойдут - разве такое предотвращение не означает запрет ИИ? Ну, есть и другой способ предотвратить такие действия, и это использование ИИ в качестве оборонительного инструмента. Те же возможности, которые делают ИИ опасным в руках плохих парней с плохими целями, делают его мощным в руках хороших парней с хорошими целями - в частности, хороших парней, чья работа заключается в том, чтобы предотвращать плохие вещи.
Например, если вас беспокоит, что ИИ генерирует фальшивых людей и фальшивые видео, ответ заключается в создании новых систем, в которых люди могут проверять себя и реальный контент с помощью криптографических подписей. Цифровое создание и изменение как реального, так и фальшивого контента уже было здесь до появления ИИ, ответ заключается не в запрете текстовых процессоров и Photoshop - или ИИ - а в использовании технологий для создания системы, которая действительно решает проблему.
И поэтому, во-вторых, давайте приложим большие усилия для использования ИИ в хороших, законных, оборонительных целях. Давайте применим ИИ в киберзащите, в биологической защите, в охоте на террористов и во всем остальном, что мы делаем для обеспечения безопасности себя, своих сообществ и своей страны.
Конечно, в правительстве и вне его уже есть много умных людей, которые занимаются именно этим, но если мы приложим все усилия и мозговую деятельность, которые сейчас сосредоточены на бесполезной перспективе запрета ИИ, к использованию ИИ для защиты от плохих людей, делающих плохие вещи, я думаю, нет никаких сомнений в том, что мир, наполненный ИИ, будет намного безопаснее, чем мир, в котором мы живем сегодня.
Реальный риск, если не следовать за ИИ с максимальной силой и скоростью.
Существует последний, реальный риск ИИ, который, вероятно, является самым страшным из всех:
ИИ разрабатывается не только в относительно свободных обществах Запада, его также разрабатывает Коммунистическая партия Китайской Народной Республики.
У Китая совершенно иное видение ИИ, чем у нас - они рассматривают его как механизм авторитарного контроля населения. Они даже не скрывают этого, они говорят об этом очень ясно, и они уже преследуют свои цели. И они не собираются ограничивать свою стратегию ИИ только Китаем - они намерены распространить ее по всему миру, везде, где они питают сети 5G, везде, где они дают деньги на "Пояс и путь", везде, где они предоставляют дружественные потребительские приложения, такие как Tiktok, которые служат передним краем для их централизованного командования и управления ИИ.
Самый большой риск ИИ заключается в том, что Китай завоюет глобальное доминирование ИИ, а мы - Соединенные Штаты и Запад - нет.
Я предлагаю простую стратегию, что с этим делать - фактически, ту же стратегию, которую использовал президент Рональд Рейган для победы в первой холодной войне с Советским Союзом.
Вместо того, чтобы позволить беспочвенной панике вокруг ИИ-убийцы, "вредного" ИИ, ИИ, разрушающего рабочие места, и ИИ, порождающего неравенство, поставить нас на ноги, мы в США и на Западе должны опираться на ИИ изо всех сил.
Мы должны стремиться выиграть гонку за глобальное технологическое превосходство ИИ и сделать так, чтобы Китай этого не сделал.
При этом мы должны внедрять ИИ в нашу экономику и общество так быстро и так сильно, как только можем, чтобы максимально увеличить его преимущества для экономической производительности и человеческого потенциала.
Это лучший способ компенсировать реальные риски ИИ и гарантировать, что наш образ жизни не будет вытеснен гораздо более мрачным китайским видением.
Что нужно сделать?
- Большим ИИ-компаниям следует позволить создавать ИИ так быстро и агрессивно, как они могут - но не позволять им добиваться захвата регуляторов, не позволять создавать охраняемый государством картель, изолированный от рыночной конкуренции из-за неверных заявлений о рисках ИИ. Это позволит максимизировать технологическую и общественную отдачу от удивительных возможностей этих компаний, которые являются жемчужинами современного капитализма.
- Начинающим ИИ-компаниям должно быть позволено создавать ИИ так быстро и агрессивно, как они могут. Они не должны сталкиваться с государственной защитой крупных компаний или получать государственную помощь. Им следует просто позволить конкурировать. Если стартапы не преуспеют, то их присутствие на рынке будет постоянно мотивировать крупные компании быть лучшими - наши экономики и общества выиграют в любом случае.
- ИИ с открытым исходным кодом должен свободно распространяться и конкурировать как с крупными ИИ-компаниями, так и со стартапами. Для открытого кода не должно быть никаких нормативных барьеров. Даже если открытый исходный код не побеждает компании, его широкая доступность является благом для студентов по всему миру, которые хотят научиться создавать и использовать ИИ, чтобы стать частью технологического будущего, и обеспечит доступность ИИ для всех, кто может извлечь из него пользу, независимо от того, кто они и сколько у них денег.
- Чтобы нивелировать риск того, что плохие люди будут делать плохие вещи с помощью ИИ, правительства, работающие в партнерстве с частным сектором, должны активно работать в каждой области потенциального риска, чтобы использовать ИИ для максимального повышения обороноспособности общества. Это не должно ограничиваться только рисками, связанными с ИИ, но и более общими проблемами, такими как недоедание, болезни и климат. ИИ может стать невероятно мощным инструментом для решения проблем, и мы должны принять его как таковой.
- Чтобы предотвратить риск достижения Китаем глобального доминирования ИИ, мы должны использовать всю мощь нашего частного сектора, нашего научного учреждения и наших правительств, чтобы привести американский и западный ИИ к абсолютному глобальному доминированию, в том числе, в конечном итоге, в самом Китае. Мы выиграем, они проиграют.
Именно так мы используем ИИ для спасения мира.
Легенды и герои.
В заключение я хочу сказать пару простых утверждений.
Развитие ИИ началось в 1940-х годах, одновременно с изобретением компьютера. Первая научная статья о нейронных сетях - архитектуре ИИ, которую мы имеем сегодня, - была опубликована в 1943 году. Целые поколения ученых в области ИИ за последние 80 лет родились, учились, работали и во многих случаях ушли из жизни, не увидев той отдачи, которую мы получаем сейчас. Все они - легенды.
Сегодня растущие легионы инженеров - многие из которых молоды и, возможно, имеют дедушек и бабушек или даже прадедушек, участвовавших в создании идей, лежащих в основе ИИ, - работают над тем, чтобы сделать ИИ реальностью, вопреки стене страха и думеризма, которые пытаются представить их как безрассудных злодеев. Я не считаю их безрассудными или злодеями. Они герои, каждый из них. Моя фирма и я рады поддержать как можно больше из них, и мы будем на 100% поддерживать их и их работу.
Мнения, выраженные здесь, принадлежат отдельным сотрудникам AH Capital Management, L.L.C. ("a16z") и не являются мнением a16z или ее аффилированных лиц. Определенная информация, содержащаяся здесь, была получена из сторонних источников, в том числе от портфельных компаний фондов, управляемых a16z. Хотя информация взята из источников, которые считаются надежными, a16z не проводила независимую проверку такой информации и не делает никаких заявлений о текущей или конечной точности информации или ее пригодности для конкретной ситуации. Кроме того, данный контент может содержать рекламу третьих лиц; a16z не проверял такую рекламу и не поддерживает содержащиеся в ней рекламные материалы.
Хотелось бы поделиться с вами ультра-уникальной инсайд-ссылкой от СЕО биржи Mexc.
promote.mexc.com/a/MexcBonus только эта ссылка дает самые выгодные условия для торговли криптовалютой, нулевые комиссии и бонусы до 10000 USDT для новых пользователей.
Оригинал здесь.
Перевод осуществлен командой @True_Market_Vision.