Если ИИ такой умный, почему у него не получается выявить причины и следствия?
Тревожный факт. Самоуправляемый автомобиль, который свободно движется в трафике, имеет меньше понимания о том, что может привести к аварии, чем ребенок, который только учится ходить.
Недавние эксперименты показывают, насколько трудно даже лучшим системам искусственного интеллекта понять элементарную физику и причинно-следственную связь происходящего. Это подталкивает ученых на создание систем ИИ, которые могут понять почему что-то происходит.
Большие технологические компании хотели бы иметь системы, которые могут делать именно такого рода вещи.
Самая популярная передовая техника ИИ, глубокое обучение, принесла потрясающие достижения в последние годы, подпитывая интерес к потенциалу ИИ. Алгоритмы глубокого обучения могут прекрасно выявлять закономерности в данных, и показывает впечатляющие результаты распознавания изображений и голоса. Но им не хватает других возможностей, которые являются тривиальными для людей.
В этом пока и заключается основная проблема
Чтобы продемонстрировать недостаток, Джош Тененбаум, профессор Центра MIT for Brains Minds & Machines, и его коллеги построили своего рода тест на "интеллект" для систем ИИ.
Во время теста ИИ-системе показывается виртуальный мир, наполненный движущимися объектами, а также вопросами и ответами о происходящем. Вопросы и ответы помечены, подобно тому, как система ИИ учится распознавать кошку, просмотрев сотни изображений с пометкой "кошка".
В ходе этого тестирования было выявлена большая слепая зона систем, использующих машинное обучение.
Когда задавался вопрос: «Какого цвета этот объект?», новейший алгоритм ИИ отвечали правильно в более, чем в 90 процентах случаев. Но когда задавались более сложные вопросы о происходящем, такие как "Что вызвало столкновение мяча с кубом?" или "Что бы произошло, если бы объекты не столкнулись?", та же система отвечает правильно только в 10 процентах.
Отсутсвие казуального мышления
Дэвид Кокс, директор лаборатории MIT-IBM Watson AI Lab, которая принимала участие в работе над проектов, говорит, что понимание причинно-следственной связи принципиально важно для ИИ:
Мы, как люди имеем возможность рассуждать о причине и эффекте, и нам нужны системы ИИ, которые могут сделать то же самое".
Отсутствие каузального понимания (понимание причинно-следственной связи) может иметь и реальные последствия. Промышленные роботы могут все больше и больше чувствовать близлежащие объекты, для того, чтобы захватить или перемещать их. Но пока, они не знают, что, например, удар может привести к падению или поломке, если они не были специально запрограммированы. А это невозможно предсказать любой возможный сценарии.
Если робот сможет видеть причинно-следственную связь, он будет в состоянии избежать новые проблемы, которые он не был запрограммирован понимать изначально.
Возвращаясь к самоуправляемому автомобилю — он мог бы инстинктивно знать, что если грузовик врезался в барьер, его груз может вывалится на дорогу, поэтому нужно притормозить.
Тест, разработанный Тененбаумом, имеет важное значение, потому что он обеспечивает хороший способ измерения причинно-следственной связи, хотя и в очень ограниченной обстановке.
Решение в процессе разработки
Помимо эксперимента, Тененбаум и его коллеги построили новый вид системы ИИ, способный узнать о причинах и следствиях. Их подход сочетает в себе несколько методов ИИ. Система использует глубокое обучение для распознавания объектов, а на выходе подаются данные в программное обеспечение, которое создает 3D-модель всей сцены, включая и то, как объекты взаимодействуют.
Такой подход требует больше компонентов ручной работы, чем многие алгоритмы машинного обучения, и поначалу такие модели будут плохо масштабироваться. Но чтобы улучшить системы ИИ, необходимо именно сочетания подходов и методов.
Каузальное мышление было бы полезно для любой ИИ-системы, и поэтому вызывает интерес у большинства визионеров в этой области.
Наше мышление строит причинно-следственные модели и используют эти модели для ответа на произвольные запросы, в то время как лучшие системы ИИ далеки от эмуляции этих возможностей", — говорит Бренден Лэйк, доцент кафедры психологии и науки о данных в университете Нью-Йорка.