Китайская комната отбирает работу
Вступление
У меня давно в голове варится мысль выкатить огромный, неподъёмный лонгрид, в котором поворчать про нейросети и ИИ. А я частенько варю мысли долго, всё никак не садясь их оформлять. Но в какой-то момент нужно снять мысли с плиты и накрыть на стол.
Так как варилось всё это долго, тут будет много всяких разных тем, и потому постом в Telegram ограничиваться я не стал.
А думать кто будет?
Итак, начнём с извечного "это вот всё не ИИ, потому что это всего лишь обработка информации, но думать не умеет". Определение ИИ очень размытое и имеет одно интересное свойство: сначала предлагается набор задач, которые могли бы отличить реальный, крутой, прекрасный ИИ от простого плебейского неинтеллектуального софта. Потом, когда эти задачи чем-то решаются, внезапно этот набор становится забыт и к ИИ появляются новые требования. Такой вот мем "Вы находитесь здесь".
Единственными фундаментальными критериями получаются способности "думать" и "понимать". Правда, с ними есть проблема: они никак не определены.
Довольно широко известен мысленный эксперимент под названием "китайская комната", предложеный Джоном Сёрлом в 1980. Суть китайской комнаты в следующем:
- У нас есть некая программа-претендент на звание ИИ.
- Эта программа содержит некоторые (сколько угодно сложные) правила по тому, как поступающие на вход тексты на китайском превращать в другие тексты. Проще говоря, обучена поддерживать диалог на китайском.
- Эта программа, вероятно, проходит тест Тьюринга: может правдоподобно имитировать человека в разговоре.
Джон Сёрл утверждает, что такая программа, хоть и внешне выглядит как думающая и обладающая интеллектом, на самом деле вовсе не ИИ. Он предлагает представить ситуацию, в которой те же самые правила оформлены в виде, например, огромной книги, и вместо программы у нас пустая комната с окошком. В этой комнате сидит сам Джон (или кто-то ещё) с книгой правил, и на каждое полученное через окошко сообщение отвечает исходя из этих правил. Мыслительная деятельность при этом, как бы, не совершается, только абсолютно механическая обработка информации. А значит, и программа, которая общается на китайском, вовсе не интеллект, а сложный обработчик информации.
К этому мысленному эксперименту есть много вопросов, и эти вопросы во многом придуманы даже не мной (как никак, 43 года прошло). Китайская комната за свою жизнь столько раз пережёвывалась критиками, что делать это снова кажется глупым. Проблема в том, что аргумент "оно не понимает, просто обрабатывает информацию", встречается сплошь и рядом. А объяснить, что значит это самое понимание, никто толком не может. Как сказал Алан Тьюринг, "вежливо предположить, что все люди думают, но это нельзя проверить".
Представим, что вы понимаете английский. Что это значит? Мне кажется, это значит, что вы можете его воспринимать (слышать или читать, а затем записывать информацию в память) и изъясняться на нём (выражать информацию из памяти в виде текста или речи).
И так, кажется, в любом случае. Понимание чего-либо заключается в том, что вы можете оперировать информацией, связанной с этим. Долговременную память из определения можно выкинуть. Ведь вы не скажете, что люди с определёнными нарушениями работы памяти не способны думать и понимать?
Людям привычно вводить какие-то абстрактные понятия, которые работают только в контексте их уютного мира. Мы так и не определились с тем, что такое сознание, мы не сможем найти смысл существования, мы зря рассматриваем эволюционную успешность с точки зрения человеческих ценностей, и так далее. Но на все эти смежные темы я как-нибудь ещё поворчу потом. Сейчас вернёмся к ИИ.
Нас заменят машины!
Получается, утешения не сработали, ИИ думает?
Конечно, сидеть и смеяться над ошибками публично доступных моделей машинного обучения это круто и очень успокаивает, но это ложная картина. Не нужно ждать совершенных технологий, чтобы начать некие процессы. Уже сейчас есть области и задачи, с которыми нынешние наработки в области ИИ справляются в разы лучше, чем любые решения 5 или 10 лет назад.
Но давайте не будем торопиться, а посмотрим шире.
Довольно частое представление о развитом ИИ сводится к тому, что появится некий развитый искуственный интеллект и отберёт у людей их работу. И будут люди сидеть без денег, жить в бедности... Подождите. Если у всех отберут работу, то как должна работать экономика? Вот сидят миллиарды людей без средств, а для кого тогда ИИ будет работать? Какие задачи и для чего должен будет решать ИИ?
Такой переход не может быть мгновенным. Определённо, если сидеть на месте и не адаптироваться, то вы можете остаться не у дел. Но чем больше людей "заменит" ИИ, тем меньше денег сможет зарабатывать бизнес, который этим ИИ пользуется. В таком случае может быть два варианта:
- ИИ использовать безумно дёшево, и стоимость продуктов/услуг компании значительно упадёт, чтобы адаптироваться под спрос
- Дешевле будет оставить людей, и тогда вы пока не лишитесь текущей работы.
И не стоит думать, что ИИ может заменить только "цифровые" профессии, в которых нужно только обрабатывать информацию. Развитие обработки информации неизбежно подтянет за собой автоматизацию различных производств и вполне может оптимизировать издержки автоматизации — основной сдерживающий фактор развития отрасли (дешевле нанять рабочих -> не будем покупать роботов -> нет финансирования робототехники).
Мы уже можем наблюдать широкое развитие автоматизации различных сфер. Самоуправляемые автомобили, хоть и пока далеки от идеала, уже существуют и тестируются в реальных условиях. Роботы-доставщики, официанты и консультанты тоже уже не фантастика. Автоматизация производств идёт полным ходом.
И когда ИИ станет отбирать работу, нас ждёт либо беззаботная жизнь, либо другие, совсем новые профессии.
А что с регуляцией? Фейки, восстание машин, ...
Тут всё просто и кратко. Регулировать разработку ИИ не очень возможно. Регуляция ИИ это как запрет на ношение оружия. Разработка будет вестись, вопрос лишь в открытости. И тут, как и в любом научно-техническом вопросе, открытость должна быть. Уж лучше мощные нейросети будут у всех, чем у трёх с половиной мутных корпораций. А отобрать нейросети у всех не получится.