Может ли искусственный интеллект повысить нашу мораль?

В обсуждениях этики ИИ много говорят о разработке «этических» алгоритмов, которые производят поведение, которое нам нравится.

Шеннон Валлор нарисовала подозрительную картину технологии в ее нынешнем виде, отметив несколько способов, которыми алгоритмы ухудшают нашу мораль. Русские боты нарушают гражданский дискурс онлайн. Рекомендации YouTube облегчают наше желание нажимать на экстремистский контент. Видеоигры побуждают нас продолжать играть, питая привыкание. Она сказала, что даже у приложений ИИ с хорошими намерениями есть потенциальные темные стороны. Терапевтические приложения, которые дают очки за хорошее поведение, могут заставить личный рост чувствовать себя как добыча значков. Такие системы социального кредитования, как в Китае, или даже более тонкие системы подталкивания, могут заставить добродетель чувствовать себя недостоверной.

Валлор отметила несколько успешных попыток умерить наши худшие побуждения. Некоторые платформы фильтруют вредоносный контент, а некоторые телефоны блокируют людей после продолжительного времени на экране. Но она обозначила эти «меры по исправлению положения», предназначенные для ограничения вреда, но не для получения новых выгод. Кроме того, она указала на три причины, по которым технологии, повышающие нравственность, не были приоритетом для Силиконовой долины: нет четкого мотива прибыли, изменение нашего поведения может показаться патерналистским, и даже решение, какое поведение поощрять, может подавить плюрализм.

Но Валлор оставила надежду. «Системы ИИ могли бы побудить нас подумать о том, кем мы думаем или хотим быть, в частном порядке, - сказала она, - и затем предложить способы, с помощью которых мы могли бы более эффективно направлять наш реальный выбор в этом желаемом направлении».

Just as we define our technologies, they define us