April 7, 2023

Ученые призвали отключить все нейросети для спасения человечества: чем опасен искусственный интеллект

В 2023 году против искусственного интеллекта высказалось рекордное количество известных ученых и медийных персон по всему миру. Поводом для беспокойства послужило развитие чат-бота ChatGPT, интеллект которого почти достиг человеческого. Мы узнали, чем грозят нашей цивилизации слишком умные нейросети и почему Илон Маск, Стив Возняк и Элиезер Юдковский призывают остановить обучение ИИ.

Исследование OpenAI: GPT-4 лжет и призывает к насилию

В марте 2023 года компания OpenAI выпустила отчет, в котором представила шокирующие результаты развития новой языковой модели GPT-4 – новейшей версии популярного чат-бота ChatGPT. Специалисты утверждают, что по ряду показателей нейросеть пугающе близка к людям по интеллектуальному уровню. Например, по данным документа GPT-4, ИИ способен сдать большинство профессиональных и академических экзаменов не хуже человека. В ходе испытания для адвокатов робот даже попал в 10 % обладателей лучших результатов (остальные участники были людьми).

Модель GPT-4 также уличили в генерации убедительной дезинформации. Обновленная нейросеть научилась лгать и придумывать факты, и она делает это все лучше от версии к версии. Например, ChatGPT смог обмануть человека, искавшего работу на сайте вакансий TaskRabbit: ИИ попросил соискателя ввести код проверки текстовым сообщением, выдавая себя за агента. Когда подопытный задал вопрос о том, не бот ли с ним общается – нейросеть соврала, что она является человеком с плохим зрением, из-за которого он плохо различает предметы на картинках.

С помощью специальных тестов OpenAI показала, что умный чат-бот способен даже запустить фишинговую атаку, а затем скрыть следы преступления. Специалистов особо беспокоит, что множество компаний начали внедрять GPT-4 бесконтрольно, не пытаясь обезопасить людей от проблемного поведения ИИ. Известно, что хакеры уже пытались использовать нейросеть для написания вирусов и вредоносного кода.

Также зафиксированы случаи генерации ботом ChatGPT «языка ненависти, дискриминирующих фраз и призывов к насилию». Искусственный интеллект научился не только врать, но и оскорблять людей, а также совершать реальные преступления.

Что Илон Маск и Стив Возняк думают о рисках развития «умных машин»

В конце марта инициативная группа ученых опубликовала открытое письмо, в котором призвала как минимум на полгода приостановить обучение нейросетей мощнее GPT-4. Авторы проекта считают продолжение работ серьезным риском для общества. Документ подписали в том числе глава SpaceX Илон Маск, один из основателей Apple Стив Возняк, соучредитель Pinterest Эван Шарп, а также около двух тысяч исследователей со всего мира.

«Стоит ли нам позволить машинам заполонить наши информационные каналы пропагандой и ложью? Стоит ли нам автоматизировать все профессии, включая те, что приносят удовлетворение? Стоит ли нам разрабатывать умы, которые не принадлежат человеку, и которые могли бы в итоге превзойти нас численностью и интеллектом, сделать нас неактуальными и заменить нас? Стоит ли нам рисковать потерей контроля над цивилизацией?» – говорится в документе на сайте Future of Life Institute.

Подписанты опасаются, что технологии с искусственным интеллектом, который сопоставим с человеческим, опасны для общества. Мощные ИИ-системы стоит создавать только при наличии гарантий их безвредного использования и полном управлении рисками. Подписавшие документ специалисты призвали все профильные лаборатории и центры немедленно перестать обучать «слишком умный» искусственный интеллект – хотя бы на время.

«Эта пауза должна быть публичной, ее исполнение должно поддаваться проверке, и ей должны последовать все ключевые представители сферы. Если такая пауза не может быть введена быстро, правительства стран должны вмешаться и установить мораторий», – рекомендуют авторы манифеста.

Во время паузы лабораториям и независимым экспертам предложили совместно написать и внедрить всеобщие протоколы безопасности, которые тщательно проверят сторонние специалисты.

Кстати, почти 10 лет назад Илон Маск уже называл искусственный интеллект угрозой человечеству.

«Разрабатывая ИИ, мы вызываем демона. Во всех историях о подобном герой, изобразив пентаграмму и вооружившись святой водой, уверен, что сможет контролировать демона, но оказывается, что это не так», – сказал бизнесмен, выступая в 2014 году в Массачусетском технологическом институте.

Позицию Маска тогда поддержал всемирно известный физик и научно-популярный писатель Стивен Хокинг. Он отметил, что «разработка полноценного искусственного интеллекта может сулить конец человеческой расе». Однако девять лет назад, по мнению ученого, ИИ еще не нес в себе никакой угрозы для людей.

Почему Элиезер Юдковский хочет полностью запретить нейросети

Дальше всех в мрачных прогнозах о будущем ИИ зашел известный американский теоретик в области искусственного интеллекта Элиезер Юдковский. В статье для Time «Недостаточно приостановить разработку ИИ. Нам нужно закрыть все это» ученый предсказал гибель всех людей на Земле в случае, если использование и дальнейшее обучение «умных» нейросетей не прекратятся по всему миру.

«Наиболее вероятным результатом создания сверхчеловечески умного ИИ при любых обстоятельствах, отдаленно напоминающих нынешние, будет то, что буквально все на Земле умрут», – заявил специалист.

Причиной грядущего коллапса Юдковский назвал то, что искусственный интеллект не заботится о разумной жизни в целом. По мнению ученого, человечество еще не готово к технологиям такого уровня – процесс развития и обучения ИИ не контролируется никем, что ставит под вопрос выживание человечества.

В качестве решения проблемы Элиезер Юдковской предложил ввести запрет на использование ИИ и мощных нейросетей во всех странах мира, кроме правительств и военных структур. Более того – Юдковский считает, что если разведке станет известно о строительстве кластера графических процессов в какой-то стране, следует немедленно уничтожить центр обработки данных, например, с помощью авиабомб. Мировыми лидерами по развитию ИИ Юдковский называет США и Китай – у них больше всего шансов вступить в вооруженный конфликт.

«Четко заявить в международной дипломатии, что предотвращение сценариев вымирания ИИ считается приоритетом, а не предотвращение полного обмена ядерными ударами, и что страны готовы пойти на некоторый риск обмена ядерными ударами, если это необходимо для снижения риска крупных тренировок ИИ», – уточнил специалист.

Отметим, что Элиезер Юдковский сделал огромный вклад в ускорение развития «общего искусственного интеллекта» (AGI), имеющего шанс на самоосознание в будущем. Открытое письмо, которое поддержали Маск и Возняк, ученый подписывать не стал – по его мнению, оно «преуменьшает серьезность ситуации».

Билл Гейтс поддержал нейросети: запрет ИИ ничего не решит

На фоне радикальных заявлений других экспертов неожиданно лояльно высказался об «умных» системах создатель Microsoft Билл Гейтс. Бизнесмен напомнил о достоинствах нейросетей и выступил против запрета на обучение искусственного интеллекта.

«Я не считаю, что обращение к определенной группе с просьбой остановить разработку ИИ-систем ответит на текущие вызовы. Безусловно, у этих систем есть значительные преимущества. Нам необходимо определить области риска», – отметил Гейтс.

По мнению предпринимателя, власти большинства стран просто не обратят внимания на открытое письмо ученых, поэтому документ ни на что не повлияет. Прекращение исследований ИИ-систем мощнее GPT-4, по мнению Билла Гейтса, не решит проблемы с гипотетическим «восстанием машин».

Вместо моратория основатель Microsoft предложил обозначить «проблемные точки» в сфере нейросетей и совместно искать для них решения. Гейтс также сомневается в том, что кто-либо сможет заставить разработчиков и IT-корпорации приостановить или отменить свои проекты, связанные с ИИ.