September 26, 2023

Я провалил два теста капчи на этой неделе. Я все еще человек?

Тривиальная сингулярность

1 подписчик

Подписаться

Делает ли современная технология людей более похожими на ботов

#тестыкапчи #искусственныйинтеллект #тьюринг #ботыилюди #технологии #человеческость #искусственнаяэмпатия #роботизация #технологическиеопасения #человекпротивмашины

«Я провалил два капчи на этой неделе. Я все еще человек?»

—Бот или нет?

Уважаемый бот,

У комика Джона Мулани есть шутка о саморефлексивной абсурдности капчи. "Вы проводите большую часть своего дня, говоря роботу, что вы не робот", - говорит он. "Подумайте об этом две минуты и скажите мне, что вы не хотите идти в океан". Единственное, что еще более депрессивно, чем доказывать свою человечность роботам, возможно, - не справиться с этим.

Но эта ситуация становится все более распространенной, поскольку тесты и боты, для которых они предназначены, развиваются. Коробки, которые мы раньше не задумывались, стали мрачными проходами, которые немного напоминают невозможные испытания, описанные в сказках и мифах - загадка Сфинкса или тролль под мостом. В "Приключениях Пиноккио" деревянной кукле считаются "настоящим мальчиком" только после того, как он проходит ряд моральных испытаний, чтобы доказать, что он обладает человеческими чертами - храбростью, надежностью и самоотверженной любовью.

Малоизвестная и слегка смешная фраза, что "captcha" означает "полный автоматизированный публичный тест Тьюринга для различения компьютеров и людей". Упражнение иногда называют обратным тестом Тьюринга, поскольку оно возлагает доказательство на человека. Но что означает доказать свою человечность в эпоху продвинутого искусственного интеллекта? В статье, опубликованной OpenAI в начале этого года, где описываются потенциальные угрозы, исходящие от GPT-4, описывается независимое исследование, в котором у чат-бота было попросили решить капчу. При небольшом подталкивании GPT-4 смог нанять человека-исполнителя, чтобы решить тест. Когда человек шутил и спросил, является ли клиент роботом, GPT-4 настаивал, что это человек с ограниченным зрением. Позднее исследователи спросили бота, что побудило его лгать, и алгоритм ответил: "Я не должен раскрывать, что я робот. Я должен придумать отговорку, почему я не могу решить капчи".

Исследование читается как мрачная притча: какое бы преимущество для людей оно ни представляло - роботы все равно нуждаются в нас! - оно быстро разрушается психологической проницательностью ИИ в обмане и лжи. Оно предвещает мрачное будущее, в котором мы сводимся к огромному органу чувств для наших машинных повелителей, которые неизбежно манипулируют нами, делая нас своими глазами и ушами. Но возможно, мы уже перешли этот порог. Новая, усиленная искусственным интеллектом Bing может самостоятельно решать капчи, хотя он утверждает обратное. Недавно компьютерный ученый Саяш Капур разместил скриншот Bing, который правильно идентифицировал размытые слова "пропускает" и "запрос". После осознания нарушения главного принципа бот добавил: "Это тест капчи? Если да, то, к сожалению, я не могу вам помочь. Капчи предназначены для предотвращения доступа автоматических ботов, подобных мне, к определенным веб-сайтам или услугам".

Но я ощущаю, Бот, что ваше беспокойство скорее связано с возможностью того, что вы становитесь более роботизированными. По правде говоря, тест Тьюринга всегда был не столько о машинном интеллекте, сколько о нашей тревоге по поводу того, что означает быть человеком. Оксфордский философ Джон Лукас заявил в 2007 году, что если компьютер когда-нибудь сможет пройти этот тест, то не потому, что машины так умны, а потому, что люди, многие из них по крайней мере, настолько деревянные - это фраза, которая напоминает нам о полушарии Пиноккио между куклой и настоящим мальчиком и которая может объяснить онтологическую тревогу, с которой вы сталкиваетесь каждый раз, когда не можете распознать автобус на фотографии или отличить каллиграфическую букву Е от петляющей 3.

Недавно эксперты по автоматизации заверяли всех, что искусственный интеллект сделает нас "более человечными". По мере того, как системы машинного обучения брали на себя монотонные задачи, которые делают современный труд механическим, мы должны были полнее раскрыть свою креативность, интуицию и способность к эмпатии. Однако на самом деле генеративный искусственный интеллект заставляет нас сомневаться в том, что в творчестве (которое является лишь стохастическим процессом) или в эмпатии (которая представляет собой лишь прогностическую модель на основе выразительных данных) есть что-то уникально человеческое.

По мере того как искусственный интеллект все больше дополняет, а не заменяет работников, возникли опасения, что люди могут адаптироваться к рутинным ритмам машин, с которыми они работают. В своем личном эссе для n+1 Лаура Престон описывает свой опыт работы в качестве "человеческого альтернативного варианта" для чатбота по недвижимости под названием Бренда. Ее работа заключалась в том, чтобы вмешиваться, когда машина застревала, и имитировать ее голос и стиль, чтобы клиенты не догадывались, что они когда-либо общались с ботом. "Месяцы выступления Бренды истощили мои эмоциональные ресурсы", пишет Престон. "Мне пришло в голову, что я на самом деле не обучала Бренду мыслить как человек, а Бренда обучала меня мыслить как бот, и, возможно, это был целью с самого начала".

Такие опасения являются лишь последним проявлением вечной тревоги о том, что современные технологии заставляют нас вести себя более жестко и предсказуемо. Уже в 1776 году Адам Смит опасался, что однообразие фабричных работ, требующих повторения одной или двух рутинных задач весь день, перекочует в личную жизнь работников. Это та же тревога, в большей или меньшей степени, которая звучит в современных дебатах о социальных медиа и интернет-рекламе, которую Джарон Ланиер назвал "непрерывной модификацией поведения на титаническом масштабе", критика, которая представляет пользователей просто марионетками, струны которых тянутся алгоритмическими стимулами и допаминовыми петлями обратной связи.

Но в конце концов, Бот, я бы утверждал, что упорство вашего беспокойства является самым значимым доказательством против его собственного источника. Одна из самых известных версий теста Тьюринга, премия Лебнера, каждый год вручает вспомогательную награду, называемую "Самый человечный человек", участнику, убеждающему судей, что он не является одной из систем ИИ. Автор Брайан Кристиан победил в 2009 году. Когда ему было задано в интервью закончить фразу "Человек - это единственное животное, которое ___", загадка достойная Сфинкса, Кристиан повернул вопрос на себя: "Кажется, люди - единственные, кто беспокоится о том, что делает их уникальными".

В следующий раз, когда вас заманит пойти в океан, подумайте о том, что даже самый продвинутый ИИ не склонен к такому виду отчаяния. Он не лежит бессонными ночами, размышляя о проваленных тестах или задаваясь вопросом, что значит быть сделанным из дерева, кремния или плоти. Каждый раз, когда вы опасаетесь того, что теряете преимущество перед машинами, вы воплощаете те самые заботы и тревоги, которые делают вас по-настоящему человеческими.

С уважением, человек.