Future
December 3, 2019

Как создать искусственный интеллект, которому можно доверить свою жизнь?

Пересказ книги «Перезагружая ИИ». Трезвый взгляд на проблемы и перспективы робототехники

Фото: Kim Kyung-Hoon / Reuters

Пересказ книги «Перезагружая ИИ» (Rebooting AI: Building Artificial Intelligence We Can Trust). Авторы книги – профессор информатики из Нью-Йоркского университета Эрнест Дэвис и руководитель Лаборатории искусственного интеллекта компании Uber, профессор психологии и неврологии Гари Маркус – попытались разобраться, что было не так с ИИ до настоящего момента и как нам действовать, чтобы сделать его более гибким и разносторонним. Проще говоря – таким, чтобы ему можно было доверять – свое здоровье, имущество и жизнь.«Наконец-то на свет вышла книга, которая без прикрас рассказывает нам о том, что такое ИИ и чем он может стать, если мы будем достаточно амбициозны и креативны», – так отозвался об этом произведении Гарри Каспаров. По словам Родни Брукса, экс-директора Лаборатории информатики и ИИ при Массачусетском технологическом институте, эта книга – «отличный антидот против всей этой шумихи, поднятой вокруг ИИ». Она представляет собой «реалистический взгляд на то, как далеко мы можем зайти в плане разработки искусственного интеллекта и робототехники».

Пионеры ИИ в 1950-х и 1960-х заявляли, что искусственный интеллект кардинально изменит окружающий мир «буквально в течение десятилетия». Футурист Рэй Курцвейл в 2002 году публично поставил на то, что уже в 2029-м человеческий интеллект будет превзойден машиной. В 2018-м Илья Суцкевер из некоммерческой компании OpenAI заявил о вероятности скорого появления общего искусственного интеллекта (AGI, artificial general intelligence).

Эрнест Дэвис и Гари Маркус, впрочем, сомневаются в обоснованности столь оптимистичных прогнозов. Появление принципиально нового интеллекта возможно, но история и современные технологии не дают оснований для веры в это. Современные нововведения пока что не приближают нас к действительно мыслящему ИИ. У современных роботов редко получается повернуть дверную ручку, что уж говорить о серьезной помощи людям.

Популярным остается ⁠и мнение ⁠об опасности ИИ. Так, философ Ник Бостром всерьез пишет ⁠о потенциале ИИ к захвату мира, а Илон ⁠Маск предупреждает, что разработка искусственного интеллекта равносильна «призыву дьявола» и ⁠созданию опасности, «превосходящей ядерное оружие». ⁠Не совсем понятно, о каком именно ИИ говорят эти ⁠мыслители – можно предположить, что примерно так же рассуждали бы люди Средневековья об опасности ДТП, впервые увидев автомобили.

Заголовки против правды

Хайп вокруг искусственного интеллекта мешает нашему пониманию реальной ситуации в индустрии. В медиа часто преувеличивают значимость открытий и усовершенствований. Дэвис и Маркус предлагают взглянуть на два заголовка: «Теперь роботы читают лучше человека, миллионы рабочих мест под угрозой исчезновения» (Newsweek) и «Компьютеры обгоняют человека в чтении» (CNN Money).

Хотя первый заголовок – явное преувеличение и нагнетание тревоги, они оба не отражают действительность. На самом деле газеты пытались рассказать о том, что созданные Microsoft и Alibaba программы достигли «человеческого» уровня в выполнении специфического задания, которое раньше они делали хуже. Одна из компаний заявила СМИ о создании «ИИ, который может читать документы и отвечать на вопросы почти как человек».

Реальность менее впечатляющая. Компьютеры и впрямь «читали» краткие заметки и отвечали на вопросы по ним. Но буквально на все вопросы прямой ответ был дан непосредственно в тексте. То есть машина не занималась серьезной мыслительной активностью – ее задание ничем не отличалось от подчеркивания важных кусков текста в книжке.

Человеческое чтение – куда более сложный процесс, подразумевающий постоянную аналитическую деятельность. К примеру, прочитав текст вроде «Маша и Оля гуляли. Они обе увидели дерево, Оля вдобавок заметила котенка, а Маша – одуванчик», мы легко ответим на вопросы вроде «Кто увидел котенка?» Для машины же такая – не указанная напрямую – информация пока недоступна. Обычно в текстах, особенно художественных, применяется куда больше абстрактных понятий, которые делают их окончательно недоступными для ИИ.

Современный ИИ

Несомненно, в последние годы ИИ все больше нас впечатляет. Появляются проекты, которые действительно могут изменить мир в лучшую сторону. Успехами в развитии ИИ обязан по большей части двум факторам: улучшенному компьютерному оборудованию и большим данным (big data) – базам огромного количества данных, не существовавших десятилетие назад. В связке с данными идет алгоритм, позволяющий разбираться в этих данных, – глубинное обучение. Это три составляющие любого современного ИИ.

Глубинное обучение сегодня используется для широкого спектра задач, от диагностики рака кожи до предсказания землетрясений и автоулучшения ваших фотографий. Другое важное открытие в ИИ – машинное обучение и идущие с ним рядом нейронные сети, которые структурируют получение информации и позволяют частично заменить программирование на приближенный к человеческому способ получения информации.

Вместе с новыми технологиями растет наша уверенность в их постоянном развитии (только недавно Институт McKinsey оценил влияние ИИ на экономику в $13 трлн – эффект, сравнимый с влиянием парового двигателя в XIX веке или информационных технологий в XXI). Мы забываем, что создание настоящего ИИ – это комплексная проблема, не решаемая внедрением и улучшением какой-то одной технологии. Поэтому, радуясь прогрессу, нужно одновременно задумываться о новых путях развития.

Мир как игра

Главная проблема в том, что область применения современного ИИ очень узка. Машина выполняет установленные программой задачи при условии, что окружение или входные данные не отличаются (или мало отличаются) от «привычных» ей. Это работает для игр вроде го – правила не менялись тысячи лет, а у машины достаточно времени, чтобы разработать идеальную стратегию. Но мир не похож на игру; это открытая система с бесконечным количеством возможностей и постоянно меняющимися условиями.

Как раз из-за открытых возможностей обучить ИИ вождению все еще сложно. Машина справляется с ездой по шоссе в хорошую погоду, потому что шоссе представляет собой почти закрытую систему. Но вождение в городе – совсем другая история, здесь больше опасностей и неожиданностей. Люди за рулем легко справляются с ними, но разработчики ИИ уделяют мало внимания тому, чтобы обучить алгоритм анализировать ситуации в открытом мире.

Очень важное для ИИ сегодня глубинное обучение было бы невозможно без компьютерных игр – точнее, без графических процессоров (GPU), созданных для нужд геймеров. GPU появились в 1970-х и к началу 2000-х стали очень мощными. В 2012 году произошла революция: разработчики смогли с помощью GPU значительно усилить потенциал нейронных сетей. До этого открытия 75%-я точность распознавания картинки считалась очень хорошей, а в 2017-м алгоритмы машинного обучения правильно распознавали картинки в 98% случаев. Секрет состоял в «углублении» обучения – увеличении числа слоев (элементов сетей, отдаленно напоминающих нейроны в мозге).

Вообще же глубинное обучение основано на двух фундаментальных идеях – иерархическом распознавании образов и обучении. Первая идея заключается в рассмотрении сложного нервного стимула как разбитого на уровни абстракции. На основе этой теории и создаются слои в нейронной сети – например, первый слой будет анализировать пиксели в изображении, последующие разбирают части изображения, цвет, формы и тому подобное. Связи между слоями позволяют в итоге понять, что изображено на картинке. Все это вместе – хребет глубинного обучения.

Вторая – обучение – подразумевает, что сеть нужно «тренировать», чтобы она получала правильные выводы из полученной информации. Чаще всего это происходит с помощью метода проб и ошибок: сначала машина не знает, как соотносятся понятия, но она обучается, когда мы направляем ее, указывая на верные или неверные решения.

Иллюзии

Сегодня мы наблюдаем разрыв между реальностью и ожиданиями от ИИ, и перед разработчиками стоит задача преодолеть его. Авторы книги выделяют следующие проблемы:

Доверчивость. Мы автоматически думаем о машинах как о мыслящих существах, независимо от того насколько простым правилам следует машина. Примером такой ошибки служит алгоритм Eliza, созданный еще в середине 1960-х. Он имитировал разговор с терапевтом, преимущественно беря концы фраз собеседника и вставляя их в вопрос. Алгоритм было легко запутать, но многие пользователи все равно были обмануты. Даже после объяснения работы алгоритма они оставались в уверенности, что Eliza поняла их и помогла разобраться с проблемами.

Более трагичная история случилась с владельцем «Теслы», который так поверил в могущество ее интеллекта, что смотрел видео, а не следил за дорогой (хотя машина неоднократно предупреждала его держать руки на руле). После сотен километров успешной езды машина врезалась в трейлер, стоящий поперек дороги. Водитель не выжил.

Иллюзия прогресса. Мы считаем, что если ИИ достиг прогресса в решении легких проблем, то и с более сложными у него не должно быть трудностей. Так обычно происходит с системами, обыгрывающими людей в различных играх, – например, AlphaGo. Но игры – закрытые системы, и прогресс в игре не влияет на приспособленность машины к реальному миру.

Неприспособленность. Решение или алгоритм, работающие в конкретной ситуации с определенным набором данных, не обязательно сработают завтра в других условиях. Пока что разработчики создают узкоспециализированные алгоритмы, часто ошибочно принимая их за универсальные (например, рекомендации товаров в интернет-магазине).

Если мы ожидаем, что ИИ будущего сможет квалифицированно ухаживать за больными или водить автомобили в любых ситуациях, именно универсальность должна стать главным критерием его успеха.

Путь исправления

Эрнест Дэвис и Гари Маркус предлагают перестать считать человеческий разум чем-то, что можно просто скопировать. Его нужно рассматривать как сложнейшую систему, как совокупность состояний и нервных импульсов. Человеческое мышление насквозь пронизано ошибками и предрассудками – и совершенно не нужно копировать их в машинном интеллекте. Для усовершенствования ИИ авторы предлагают учесть следующие факторы.

Нет универсальных решений. Мышление не сводится к единому алгоритму, а значит нужно объединять разные идеи.

Мышление основано на использовании внутренних представлений. Например, мы понимаем предложения не только и не столько потому, что знаем каждое слово в них, но потому, что понимаем грамматику этого предложения. Если машины научатся согласованию и порядку слов в предложении, то перевод значительно улучшится.

Абстракция и генерализация при мышлении. Высказывание «Х – сестра Y» применимо ко многим парам братьев и сестер. Даже не зная конкретных людей, скрытых за буквами, мы знаем концепцию родственных отношений, а потому понимаем, о чем речь. Для современных ИИ такие абстрактные концепции недоступны, а значит недоступно и понимание мира, и чтение.

Когнитивные системы структурированы. Израильско-американский психолог, лауреат Нобелевской премии по экономике и один из основоположников поведенческой психологии Даниэль Канеман разделяет мыслительные процессы на две системы, быструю (почти автоматическую) и медленную, использующую сознание. Компьютерное мышление, напротив, устроено проще. Оно не делится на модели, по-разному работающие с информацией, поэтому теряется гибкость, свойственная человеческому мышлению.

Когда от ИИ требуется решение трудных задач, более осмысленно использование гибридных систем. Например, победа в го потребовала две технологии – глубинное обучение и поиск по дереву методом Монте-Карло (машина составляет деревья вариантов ходов и выбирает оптимальный). В будущем применение гибридных систем должно вырасти – в целях решения разнообразных задач.

Несколько механизмов. Когда мы изучаем неправильные глаголы (например, в английском языке), мы не просто запоминаем их, а включаем ассоциативную систему мышления – ее можно сравнить с глубинным обучением. А запоминание напоминает классический ИИ и обычные компьютерные программы. В мозге сосуществует несколько систем, и так же должно быть в машине.

Мысли и язык дополняемы. Короткую мысль можно расширить и дополнить до сколь угодно долгой истории. Хотя она состоит из букв, слов и предложений, вместе они образуют нечто большее. Компьютеры пока что плохо распознают эту разницу. Им нужно научиться этому, иначе истории в переводе будут превращаться в слабо связанные куски текста.

Полное понимание мира требует разностороннего взгляда на информацию. Соединяя сигналы от наших органов чувств и уже имеющиеся данные, человек получает новую информацию. Компьютеры «знают» много вещей, но им трудно соотносить эти знания со свежими данными.

Концептуальное видение мира, теории. Мы соединяем и разделяем знания, образуя теории об окружающем нас мире. Так, мы видим живую игуану, автоматически причисляем ее к соответствующему классу, а изображение игуаны относим к совсем другому классу. Машины же, к сожалению, путают изображение и действительность.

Причинность – фундамент миропонимания. Мы связываем явления и их причины – этот способ классификации также не доступен компьютерам. В то же время мы встречаем много беспричинных корреляций. Когда ИИ научится различать причинность и пустую корреляцию, это станет большим прорывом.

Мы замечаем индивидуальности, а не концепты. Машины же оперируют классами – для них нет разницы между двумя членами семьи с совершенно разными характерами. Это недопустимо, когда робот будет непосредственно взаимодействовать с людьми.

Природа и воспитание при развитии человека работают в комплексе, тогда как при обучении машины нам доступен только один элемент. Если мы сможем воспроизвести «натуральное» обучение при создании машины, мы наверняка улучшим ее мощность, считают Эрнест Дэвис и Гари Маркус.

Вывод

В целом авторы книги позитивно смотрят на развитие ИИ и надеются, что их анализ и предложения будут приняты к сведению учеными и разработчиками. Внедрение разумного ИИ приведет поначалу к проблемам (безработица и социальное неравенство), но они – следствие каждой принципиально новой технологии. Через какое-то время ситуация может стать лучше.

В одном можно быть уверенными на 100%: ИИ не захватит мир ни сейчас, ни позже. Это нерациональное решение. Оно свойственно людям, но не хорошо отлаженному ИИ, лишенному какой бы то ни было иррациональности.

Александр Бардашев