May 21, 2019

Новый цифровой разрыв между людьми, которые отказываются от алгоритмов, и людьми, которые их используют

Каждый аспект жизни может опираться на алгоритмы искусственного интеллекта — от выбора маршрута для утренних поездок и решения вопроса с кем пойти на свидание, до сложных юридических и судебных вопросов.

Крупные технологические компании, такие как Google и Facebook, используют ИИ для получения информации о детальных данных о своих клиентах. Это позволяет им монетизировать коллективные предпочтения пользователей с помощью таких методов, как микро-таргетинг.

Параллельно многие люди теперь доверяют платформам и алгоритмам больше, чем своим собственным правительствам и гражданскому обществу. Исследование, проведенное в октябре 2018 года, показало, что люди демонстрируют «признание алгоритмов»,они больше полагаются на советы от компьютера, нежели от человека.

В прошлом технологические эксперты беспокоились о «цифровом разрыве» между теми, кто мог получить доступ к компьютерам и Интернету, и теми, кто не мог.

Но, поскольку цифровые устройства распространяются, разрыв больше не только в доступе. Как люди справляются с информационной перегрузкой и множеством алгоритмических решений, которые пронизывают каждый аспект их жизни?

Более опытные пользователи отходят от устройств и узнают, как алгоритмы влияют на их жизнь. В то же время потребители, у которых меньше информации, все больше полагаются на алгоритмы для принятия решений.

Секретный соус за искусственным интеллектом

Основная причина нового цифрового разрыва, заключается в том, что так мало людей понимают, как работают алгоритмы. Для большинства пользователей алгоритмы выглядят как черный ящик.

Алгоритмы ИИ берут данные, приспосабливают их к математической модели и дают прогноз, начиная от того, какие песни вам могут понравиться, и сколько лет кто-то должен провести в тюрьме. Эти модели разрабатываются и настраиваются на основе данных и успеха предыдущих моделей. Большинство людей - даже иногда сами разработчики алгоритмов - на самом деле не знают, что происходит внутри модели.

Исследователи давно озабочены алгоритмической справедливостью. Например, инструмент рекрутинга Amazon, основанный на искусственном интеллекте, потерял кандидатов-женщин. Система Amazon выборочно извлекала гендерные слова - слова, которые мужчины чаще используют в повседневной речи, такие как «казненный» и «захваченный».

Другие исследования показали, что судебные алгоритмы имеют расистские предрассудки, приговаривая бедных черных обвиняемых на более длительный срок, чем другие.

В рамках недавно утвержденного Общего регламента о защите данных в Европейском союзе люди имеют «право на объяснение» критериев, которые алгоритмы используют в своих решениях. Этот закон рассматривает процесс принятия алгоритмических решений как книгу рецептов. Идея в том, что если вам ясен рецепт, то вы можете понять, как алгоритм влияет на вашу жизнь.

Какой эффект будет иметь прозрачность? В одном исследовании студенты были оценены по алгоритму и предложили различные уровни объяснения того, как баллы их сверстников были скорректированы, чтобы получить итоговую оценку. Студенты с более понятными объяснениями на самом деле меньше доверяли алгоритму. Это, опять же, предполагает цифровой разрыв: алгоритмическая осведомленность не приводит к большей уверенности в системе.

Но прозрачность — не панацея. Даже когда общий процесс алгоритма описан, детали могут быть слишком сложными для понимания пользователями. Прозрачность поможет только пользователям, которые достаточно опытны, чтобы понять тонкости алгоритмов.

Отказ от новой информационной экосистемы

Исследование использования Facebook показало, что, когда участники узнали об алгоритме Facebook для ранжирования новостных лент, около 83% участников изменили свое поведение, пытаясь воспользоваться этим алгоритмом, в то время как около 10% сократили использование Facebook.

В отчете исследовательского центра Pew за ноябрь 2018 года было обнаружено, что у большинства населения были серьезные опасения по поводу использования алгоритмов для конкретных целей. Выяснилось, что 66% считают, что алгоритмы подсчета баллов по личным финансам были бы несправедливыми, а 57% сказали то же самое об автоматизированной проверке резюме.

Небольшая часть людей осуществляет некоторый контроль над тем, как алгоритмы используют свои личные данные. Например, платформа Hu-Manity позволяет пользователям выбирать, какие их данные можно собирать. Онлайн-энциклопедия Everipedia предлагает пользователям возможность участвовать в процессе курирования, что означает, возможность контролировать какая информация собирается.

Однако подавляющее большинство платформ не предоставляют пользователям права выбирать, как алгоритм использует их предпочтения при настройке их новостной ленты или при рекомендации их содержимого. Если есть выбор, пользователи могут не знать о нем. Около 74% пользователей Facebook сказали в опросе, что не знали, как платформа характеризует их личные интересы.

Новая цифровая грамотность заключается не в использовании компьютера или Интернета, а в понимании и оценке последствий постоянно включенного образа жизни.

Этот образ жизни оказывает существенное влияние на то, как люди взаимодействуют с другими; на их способности обращать внимание на новую информацию и на сложность процессов принятия решений.

Увеличение алгоритмического беспокойства может также быть отражено параллельными изменениями в экономике. Небольшая группа людей извлекает выгоду из автоматизации, в то время как многие работники находятся в опасном положении.

Отказ от алгоритмического курирования - это роскошь, и однажды он станет символом достатка, доступным лишь немногим избранным. Тогда возникает вопрос, каким будет вред для тех, кто не на той стороне цифрового разрыва.

Источник