В ожидании Skynet
Размышления об опасности искусственного интеллекта и несовершенстве естественного.
Ограничение разработки
В конце марта на портале Future of Live Institute было опубликовано открытое письмо с призывом приостановить работы в области ИИ. На момент создания этого текста его подписало более 18000 человек: СЕО крупных технологических компаний, профессора, специалисты в области машинного обучения, компьютерных интерфейсов и т.д. Основная мысль документа заключается в необходимости добровольной приостановки работ по разработке ИИ с уровнем выше GPT-4. Предлагается ввести полугодовой мораторий на исследования в этой области, а усилия направить на разработку эффективных механизмов контроля и проколов безопасности.
С конструктивной критикой письма высказался Билл Гейтс. Окститесь, мол, ребята. Какой мораторий, какие полгода? Гонка уже во всю идет. Добровольно выйти из нее, чтобы посидеть на лавочке, никто не согласится. Да, протоколы безопасности нужны и ими надо заниматься. Но делать это надо не вместо разработки ИИ, а вместе с ней.
Билли в данном случае прав. Останавливать исследования выполняемые по заказу государства точно никто не собирается. Задача регулирования, при сложившихся обстоятельствах, выглядит весьма спорно. Как работает желание быть первым и провозгласить себя спасителем мира, мы недавно наблюдали, в COVID-ные времена.
Нейросети
Об опасности ИИ можно косвенно судить на примере нейросетей. Среди создаваемых ими картин есть шедевры, но они поражают именно нечеловеческой природой. Человек задает предпочитаемые параметры изображения, может даже подкинуть аналог желаемого образа. На выходе получается что-то красивое, но зачастую не совсем то, что хотелось. Нейросеть интерпретирует запрос в пределах имеющегося запаса знаний, которые ей "скормил" человек. Порой этих знаний оказывается недостаточно или решение слишком абстрактное.
К слову, на днях попался соцопрос о нейросетях. Не буду комментировать все результаты. Вот лишь один из ответов: 5% населения абсолютно уверенно, что нейросети могут выйти из под контроля человека, а ещё 25% считают такую возможность вероятной.
Опасные задачи
Нельзя предотвратить войну, готовясь к ней.
Любое изобретение человек старается использовать в военном деле. Да, есть и обратные примеры. Когда технологии изначально военные трансформировались в гражданские.
Вспомнилась история или байка из 90-х. Тогда в моде была конверсия. Холодная война сошла на нет, а выживать оборонным заводом было надо. На одном из них решили приспособить пресс для формирования тарелок радаров под выпуск "ледянок". Таких штук, для катания с горок на заднице. Кто-то из забугорных туристов сообразил, что форма у них больно удобная. Всю партию раскупили иностранцы, как горячие пирожки. Оказалось, что небольшая доработка превращает их в антенны спутникового телевидения. По цене получался огромный выигрыш.
Вернемся к нашим баранам, а точнее к баранам в руки которым может попасть ИИ. Вот задумает, кто-нибудь рассчитать возможность превентивного ядерного удара. Сейчас все вычисления показывают, что это будет катастрофа мирового масштаба. Но тут же ИИ, он умнее и быстрее перебирает варианты. А вдруг додумается до чего нового? Какой будет результат этого эксперимента не известно. Может искусственный мозг объяснит природному, что игра не стоит свеч. А если придумает красивый, но не учитывающий выживание нашего вида вариант? Самый страшный сценарий, когда повсеместно внедренный ИИ решит, что ему надоело решать глупые задачи. Это уже тот самый Skynet, о котором нам рассказывала Сара Коннор.
Есть только две бесконечные вещи: Вселенная и глупость. Хотя насчет Вселенной я не уверен.
Опасность у ИИ определено есть, и исходит она в первую очередь от человека. Сначала нам стоит научиться договариваться с себе подобными, а уже потом допускать машины к решению задач планетарного масштаба.