February 24, 2019

Оставаясь человеком в эпоху алгоритмов  Ханны Фрай

Человечество многим обязано алгоритмам: например, они лежат в основе социальных сетей, поисковых систем, спутниковой навигации, музыкальных и кинематографических рекомендаций и многого другого. Современная инфраструктура уже не может обойтись без алгоритмов. Транспортная система, юриспруденция, медицина, кинематограф, полицейские участки используют все больше алгоритмов в своей работе, не замечая, как они постепенно, день за днем меняют не только нашу жизнь, но и представление о человеке, о том, каким он должен быть.

Книга рассказывает об алгоритмах, которые используются чаще всего. Они, безусловно, облегчают жизнь, но так ли они безопасны и безопасны ли вообще? Лишь малая часть экспертов задумывается о глубине и силе их влияния, изучает то, что остается за кадром и не привлекает внимания.

Полиция использует алгоритмы, принимая решение об аресте. Врачи применяют алгоритмы при постановке диагноза. Судьи выносят приговоры, полагаясь на алгоритмы. Помимо удобства, такое положение вещей поднимает много моральных вопросов, которые требуют ответа.

Это не значит, что следует вовсе отказаться от работы с алгоритмами. Сами по себе они не хороши и не плохи, все дело в том, как их использовать. Так, когда-то с помощью GPS собирались запускать и нацеливать ядерные ракеты, сегодня он используется в мирных целях, в основном таксистами и службами доставки еды. Между человеком и машиной существует прочная связь, и нужно понимать, как она работает.

Книга Ханны Фрай не только и не столько о машинах, сколько о людях. Что мы планируем изменить с помощью технологий? Алгоритмы задуманы для облегчения жизни, они усиливают наши способности и решают проблемы, создавая при этом новые.

Где пределы влияния и действия алгоритмов? Все это покажет ближайшее будущее, и только от нас зависит, каким оно будет.

Идея № 1. Подход к алгоритмам должен быть объективным

Одна из проблем с алгоритмами, по мнению Фрай, лежит в том, что люди склонны видеть их в черно-белом свете — либо как непогрешимую силу, либо как нечто крайне ненадежное и в лучшем случае бесполезное. Но если мы хотим правильно использовать алгоритмы в высокотехнологичную эпоху, нужно научиться быть объективными. Нужно учиться на ошибках и признавать собственные недостатки, но при этом не приписывать алгоритмам абсолютную мудрость и непогрешимость. Взаимодействуя с ними, многие люди совершают ошибки. Этого не избежал и Гарри Каспаров во время шахматного матча с Deep Blue. Каспаров был сильнейшим гроссмейстером, уверенно побеждавшим соперников.

Он пользовался одним психологическим трюком: когда исход поединка казался ясным, он начинал покручивать часы на запястье и поглядывать на них, как бы говоря, что исход предрешен в его пользу и они только зря тратят время. На человека этот трюк действовал, на машину — нет.

Инженеры IBM разработали Deep Blue так, чтобы во время игры машина демонстрировала поведение, похожее на человеческое. Она медлила с объявлением хода, как будто ей приходилось подсчитывать все новые варианты под натиском противника. Каспаров решил, что он втянул машину в такую ситуацию, что само огромное количество вариантов окончательно ее запутает и она не сможет принять верное решение. Но не таков был Deep Blue: он моментально просчитывал верные ходы, а промедление было запрограммировано, чтобы сбить Каспарова с толку, чтобы он начал воспринимать машину как человека. И поскольку первую игру Каспаров выиграл, это лишь подкрепило его уверенность в слабости противника. Дав ему хорошенько расслабиться, Deep Blue во второй игре обошел все расставленные ловушки и уверенно выиграл. С этой минуты Каспаров утратил уверенность в себе, не боролся за ничьи в нескольких партиях, и в итоге машина победила. Ошибка Каспарова была в том, что сначала он недооценил возможности алгоритма, а затем переоценил их. Он так сосредоточился на том, на что способен Deep Blue, что забыл о собственных возможностях и не воспользовался ими в полной мере. Это было вполне по-человечески.

Где границы контроля человека над машиной? Должен ли он во всем полагаться на машины или все-таки оставить за собой право окончательного решения? Слепая вера в могущество алгоритма может привести к трагедии, как показывает история английского автомобилиста Роберта Джонса. Заметив, что у него кончается бензин, Джонс дал задание GPS-навигатору отправить его на заправку самым коротким путем. Навигатор BMW, одной из самых надежных машин, уверенно показывал дорогу, пока Джонс, взбираясь вверх по горам, следуя его указаниям, не врезался в деревянный забор, едва удержавший его от падения в пропасть. Машину удалось эвакуировать с помощью спецтехники, а Джонса отдали под суд за неосторожное вождение, но он лишь в точности следовал инструкции, полностью положившись на нее, хотя все вокруг говорило об отсутствии проезжей дороги. Он счел алгоритм умнее, чем он был, повторив ошибку Каспарова.

Не так поступил российский военный офицер Станислав Петров, мониторивший систему ядерной безопасности СССР во времена холодной войны, следя за тем, чтобы американские ракеты не вторглись в воздушное пространство. Он должен был немедленно сообщить о малейших признаках атаки вышестоящему начальству. Однажды на мониторе Петров с ужасом заметил, что на Россию летят 5 ракет. Он был готов сообщить об этом, но что-то удержало его. Слишком мало ракет было выпущено, это было странно. Он выждал 23 минуты, ничего не произошло, ракеты не упали. Это был сбой алгоритма. Слишком многое было поставлено на карту, чтобы Петров мог слепо довериться машине. Поступи он по-другому, могла бы случиться настоящая ядерная война.

Как бы ни был совершенен алгоритм, но окончательное решение должен принимать человек.


Идея № 2. Работа алгоритмов с данными может иметь непредсказуемые последствия

Любому алгоритму для работы необходимы данные. Так, в Facebook люди предоставляют данные в обмен на свободное общение с друзьями и семьей, возможность найти единомышленников или поделиться событиями своей жизни. Но не все понимают, что это имеет долгосрочные последствия. Кто знает, кто и как воспользуется этими данными через несколько лет?

В 1993 году британский супермаркет Tesco провел эксперимент. Он выпустил пластиковую карту, которую предъявляли на кассе. На карту записывались баллы для будущих покупок, а Tesco фиксировал покупки и связывал их с именем клиента. Сначала в качестве данных фигурировали только имя клиента, адрес и потраченная в конкретную дату сумма. Казалось бы, из такой скудной информации трудно что-либо извлечь, но это не так. Владельцы магазина видели, кто является постоянным клиентом. Как далеко люди готовы ехать, чтобы купить именно в Tesco, а не в любом другом магазине. Было видно, когда человек предпочитает покупать в других районах, стало быть, у конкурентов, а когда готов ехать через весь город ради любимого магазина. Одни покупали каждый день, другие — только по выходным.

Отслеживая потребительское поведение своих клиентов, владельцы магазина поощряли их покупать больше, отправляя владельцам карт скидочные купоны по почте. Тем, кто тратил много, выдавали купон на скидку при покупке от трех фунтов до тридцати. Более бережливые покупатели получали скидку от фунта до десяти. После этого продажи среди владельцев клубных карт выросли на 4 процента по сравнению с остальными покупателями. Постепенно сбор данных стал более детализированным, и воздействие на покупателей усилилось.

Одним из новшеств для владельцев клубных карт стали онлайн-покупки любимых продуктов — когда предметы, купленные во время использования карты, появлялись на сайте в первую очередь на самом видном месте. Клиенты были довольны — теперь не нужно было тратить время на поиски того, что им всегда нравилось покупать. Но случались и накладки. Однажды женщина в списке любимых покупок на сайте магазина увидела презервативы. Она утверждала, что ее муж ими не пользуется, она и подавно никогда их не покупает, так что произошла какая-то ошибка. Данные проверили — они были точными. Но, чтобы не вызвать скандала в семье, перед женщиной извинились, а данные удалили. С тех пор во всех сомнительных и потенциально опасных случаях с данными поступают именно так.

Наши покупки говорят о нас больше, чем нам хотелось бы. Они раскрывают нашу личность, то, что мы вообще не планировали сделать достоянием гласности, как в случае с презервативами. И часто с помощью данных о покупках торговые компании манипулируют нами.

И это всего лишь покупки — при помощи множества других данных, которые мы оставляем в Интернете, сделать можно гораздо больше.

Уже сейчас есть компании, торгующие личными данными из интернета. Одна из них, Palantir Technologies, основана еще в 2003 году. Это брокер данных, который покупает и собирает личную информацию людей, чтобы затем перепродать ее дальше. При любой интернет-покупке наши данные собираются и продаются брокеру, а иногда и покупать не обязательно — достаточно обратиться за консультацией в агентство недвижимости или страховую компанию. В некоторых случаях продают всю заархивированную историю обращения к браузеру. Затем брокер объединяет все полученные данные в одно целое и присваивает ему идентификационный номер. Наши покупки, мнения, увлечения, путешествия, романы, политические убеждения — все это суммируется и хранится на серверах. Это не означает, что брокеры непременно используют информацию нам во вред — так, они продают данные потенциальных потребителей какой-нибудь молодой начинающей фирме, и она тратит меньше денег и времени на рекламу, поскольку уже знает портрет своих потенциальных потребителей. Брокеры не раскрывают фамилий, это запрещено. Но тем не менее накладки возникают часто.

Обычно, когда ваши данные от брокера попадают тому, кто собирается вам что-то продать, на каждой странице вы будете видеть рекламные сообщения от этого производителя. Казалось бы, в этом нет ничего страшного. Кто-то будет просто испытывать легкое раздражение, но иногда последствия могут быть более глубокими.

Одна женщина по имени Хайди Уотерхаус во время беременности подписалась на все рассылки, которые связаны с вынашиванием ребенка. К сожалению, долгожданная беременность закончилась выкидышем, она пыталась отписаться от всех рассылок и писем, от сообщений, насколько вырос ее плод, но это оказалось бесполезным — она продолжала видеть напоминания, испытывая еще большую боль.

Кроме того, при желании можно узнать любое имя при покупке данных у брокера, для этого есть вполне несложные методики. Мы все оставляем цифровой след при посещении страниц, и недоброжелатели могут использовать его в собственных целях, когда частная информация будет собрана для манипулирования. Простой алгоритм быстро вычисляет анонима, сопоставляя его с публичной персоной, и тогда даже самые невинные посещения страниц чреваты неприятными последствиями. Известно, что частная британская компания Cambridge Analytica, используя технологии глубинного анализа данных, особенно взятых из социальных сетей, оказывала влияние на электорат во время избирательных компаний в Интернете. Она использовала личностные профили пользователей Facebook и Twitter, чтобы рассылать им эмоциональные политические сообщения. Например, матерям-одиночкам рассылались сообщения в поддержку свободного ношения оружия — они, как правило, боятся нападений в собственном доме.

Автор считает, что всякий раз во время использования алгоритма, особенно бесплатного, мы должны задуматься о том, почему он бесплатный и на что способен на самом деле.


Идея № 3. Алгоритмы в судебной системе вполне могут использоваться даже при вынесении приговоров

Алгоритмы уже давно могут рассчитать риск повторного правонарушения. До сих пор они использовались именно так. До определения вины или анализа доказательств дело пока не дошло, так что живые судьи не лишатся работы в ближайшем будущем, несмотря на то, что многие их решения кажутся нелогичными и противоречивыми.

Еще с 1920-х годов с помощью алгоритмов и анализа данных рассчитывались шансы осужденного вернуться к нормальной жизни после заключения, а на основании этого принималось решение о его досрочном освобождении по прошествии определенного срока. Канадский социолог Эрнест Берджесс в 1928 году придумал, как измерить риск рецидива у осужденных преступников. Он проанализировал данные 3 тысяч заключенных из трех тюрем и определил 21 значимый фактор, указывающий на то, что условия досрочного освобождения будут или не будут нарушены. Учитывался тип преступления, время в тюрьме, характер заключенного и многое другое. Каждому заключенному присваивались баллы от 0 до 21, и чем больше баллов набирал человек, тем меньше была вероятность его возвращения к преступной жизни. У Берджесса была возможность проверить свои расчеты, отслеживая судьбы освобожденных преступников. И даже его базовый алгоритм был очень точным — две трети из группы высокого риска нарушили условия досрочного освобождения, а 98% из группы низкого риска успешно адаптировались к новой жизни. Модель Берджесса критиковали, но поскольку она себя оправдывала, ее к 1935 году внедрили в большинстве тюрем Иллинойса.

Сегодня в судебной системе используются куда более сложные алгоритмы, но в их основе лежит методика Берджесса. Принимая решение о досрочном освобождении или выходе под залог, за основу берут те же факты о подсудимом — возраст, криминальный стаж, характер преступления, среда и тому подобное. На основе этого решают, есть ли смысл досрочно освобождать преступника. И для оценки вероятности рецидива алгоритмы более пригодны, чем люди. При одном и том же наборе обстоятельств алгоритм будет давать один и тот же ответ. Исследования приговоров, вынесенных судьями, показали, что даже при совершенно одинаковых обстоятельствах и характеристиках правонарушителей судья часто выносят разные решения, и далеко не всегда они объективны. Кроме того, алгоритм намного лучше человека делает прогнозы.

В Род-Айленде суды, использующие алгоритмы, за последние 8 лет добились сокращения численности заключенных на 17% и на 6% снизили показатели рецидивов. Мелкие правонарушители не сидят в тюрьме без лишней надобности, профессиональные преступники остаются за решеткой. Казалось бы, выгоды использования алгоритмов очевидны.

Пока что к помощи алгоритмов прибегают только в случаях, когда надо рассчитать уместность досрочного освобождения. Но уже сейчас предлагается использовать их и при вынесении приговора. Но сможет ли алгоритм и в этом вопросе оказаться объективнее человека? Как он будет отделять хороших от плохих?

Каждый алгоритм может совершить две ошибки — ложноположительные и ложноотрицательные. В случае ложноположительной, неправильно идентифицируя человека, алгоритм может отправить его в тюрьму, приняв за преступника. Ложноотрицательная ошибка — если по причине той же неправильной идентификации он выпустит опасного бандита.

Профессор криминологии и статистики Ричард Берк придумал одни из самых точных алгоритмов в судебной системе, которые точны на 75%. Но как быть с оставшимися 25 процентами? Если речь идет не просто о досрочном освобождении или выходе под залог, а о вынесении приговора, последствия могут быть весьма печальными.

В некоторых штатах США при вынесении приговоров судьи руководствуются алгоритмом COMPAS, суть которого является коммерческой тайной, так что общественность не знает точных принципов его работы. Известно лишь, что алгоритм работает на основе ответов на вопросы типа «имеет ли право голодный человек красть еду». Его задача — оценить вероятность того, что человек совершит повторное преступление в течение двух лет.

В 2013 году в штате Висконсин состоялся суд над Полом Зилли, арестованным за кражу газонокосилки. Зилли пошел на сделку с обвинением, чтобы получить условный срок и штраф, как ему обещали. Но COMPAS счел его опасным преступником со склонностью к рецидиву, поэтому судья отменил сделку и дал ему два года тюрьмы.

Замечено, что COMPAS склонен считать чернокожих правонарушителей более опасными, чем белые. Если среди преступников в целом больше чернокожих, то происходит ложноположительное срабатывание алгоритма, когда каждого афроамериканца он записывает в опасные преступники. Если доля преступников разного цвета кожи неодинакова в каждой группе подсудимых, невозможно создать математически точный и объективный алгоритм. Чернокожих арестовывают чаще, чем белых, поскольку черное население и полиция давно противостоят друг другу.

А раз аресты случаются чаще, то предвзятость человека превращается в математическую определенность алгоритма.

Как бы там ни было, предвзятость и необъективность человека перевешивают несовершенство алгоритма. И хорошо разработанный алгоритм может помочь судьям быть более объективными. Для этого разработчикам нужно понять, какие задачи стоят перед судебной системой, как именно принимается решение в зале суда. При четких критериях влияние алгоритма на судебную систему будет положительной, считает Фрай.


Идея № 4. В медицине применение алгоритмов даёт наибольшие преимущества, когда дополняется опытом врача

В том, что касается распознавания образов, классификации и прогнозирования, алгоритмы очень хороши. Полностью заменить человека они пока еще не в силах — им недоступны проявления сочувствия или психологическая поддержка. Но там, где требуется, к примеру, распознавание образов, они намного превосходят человеческие возможности. С этим связана работа врачей, которые по анализу клеток, взятых на биопсию, могут диагностировать онкологическое заболевание. Но чтобы определить это, они должны анализировать сотни слайдов в день, на которых изображен сканированный образец клетки под микроскопом. Их задача — найти аномалию среди скопления миллионов клеток.

Как правило, врачи хорошо умеют распознавать явно доброкачественные и явно злокачественные образования. Но между ними находятся сомнительные случаи: слегка подозрительная группа клеток, которая выглядит нетипично, или предраковые опухоли, выглядящие вполне безобидно. И различить их очень сложно. К тому же во время одного из исследований было установлено, что врачи, анализируя ткань молочной железы с доброкачественными аномалиями, приходят к совершенно разным выводам. Из 117 опрошенных патологов сошлись во мнении только 48%. При таком разночтении велик риск того, что одни женщины делают совершенно ненужную мастэктомию, а другие упускают шанс обратиться к хирургу на самой ранней стадии. И потому точность анализа имеет огромное значение.

Если речь идет об анализе аномалий клеток молочной железы, алгоритм должен быть настроен так, чтобы избегать ложноположительных и ложноотрицательных прогнозов.

Главная задача настройки алгоритма — сделать так, чтобы он был хорош и в чувствительности к патологии, и хорошо отличал ее от нормы. Если приоритетом для него будет выявление аномалий, он не пропустит ни одной больной груди, но при этом сочтет аномалией и здоровые ткани. Это значит, что здоровые люди будут вынуждены проходить ненужное лечение. Но если упор сделать на устранение ложных срабатываний тревоги, есть риск, что алгоритм может диагностировать больные клетки как здоровые. Врачи очень точно могут определить здоровую ткань, но у них проблемы с распознаванием маленьких опухолей.

В соревновании врачей с алгоритмами под названием CAMELYON 16, проведенном в 2016 году, было дано задание — найти опухоли молочной железы на 400 слайдах, определяя больные клетки и здоровые. Во времени никто не ограничивался. Врачи с очень большой точностью поставили правильный диагноз, не диагностировав здоровые клетки как раковые. Однако они пропустили много раковых клеток в скоплении здоровых, распознав их только в 73 процентах случаев.

У алгоритмов был перекос в другую сторону. Они моментально распознавали больные клетки, но охотно записывали в эту группу и здоровые. Нейронная сеть обнаружила 92,4% опухолей, но в 8 случаях ошиблась, посчитав подозрительными нормальные клетки.

Поэтому, по мнению Фрай, человек и алгоритм должны работать в паре, дополняя друг друга и объединив свои сильные стороны. Алгоритм обрабатывает информацию, выделяя подозрительные области, экономя время врача. Затем врач просматривает отмеченное и определяет диагноз.


Идея № 5. Алгоритм, управляющий беспилотным автомобилем, должен помогать человеку, а не полностью заменять его

Сегодня очень популярна идея беспилотного автомобиля, — настолько, что в некоторых странах уже планируется официально вводить полностью беспилотные автомобили без сопровождения водителя. Корпорация Daimler предсказывала их появление уже к 2020 году, Ford — к 2021-му. Казалось, что их появление — лишь вопрос недолгого времени. Но так ли это на самом деле? И с чем предстоит столкнуться человеку с появлением такого транспорта?

Создание и внедрение автомобиля без водителя только на первый взгляд кажется легким. Казалось бы, что тут сложного — если большинство людей осваивают вождение, то создать алгоритм, управляющий машиной, труда не составит. Ведь важны только скорость и направление, расход бензина и поворот руля. Однако все намного сложнее, чем кажется. Как алгоритму интерпретировать сигналы, поступающие с его камер во время поездки?

Нейронная сеть может определить цвет, линии, кривые, углы и края. Но ей еще нужно правильно интерпретировать информацию, а с этим могут быть проблемы. Допустим, алгоритм знает, что должен ехать по ровному покрытию типа асфальта. Но если автомобилю предстоит ехать по бездорожью, алгоритм этого не поймет. Можно задать ему поездку по самой гладкой поверхности на изображении — но тогда он может въехать в стеклянное здание. Как задать ему форму дороги — как объект с двумя границами, широкими внизу и сужающимися вверху? Но так для алгоритма выглядит и дерево, контакт с которым весьма нежелателен. Кроме того, камеры не передают ни масштаба, ни расстояния.

Расстояние могут измерять лазеры, один из которых, под названием LiDAR, используется в современных экспериментальных беспилотных автомобилях. С его помощью алгоритм может определить, насколько далеко находится препятствие. Поскольку он не может определить форму и текстуру, например, дорожного покрытия, его дополняет радар. Камера, лазер, радар есть на каждой беспилотной машине, и хорошо настроенный алгоритм должен правильно интерпретировать их сигналы. Но они противоречивы, и алгоритму нелегко это сделать. Благодаря теореме Байеса, позволяющей делать разумные выводы из отрывочных наблюдений и лежащей в основе многих систем машинного обучения, развитие беспилотников сегодня шагнуло далеко вперед даже в сравнении с 2004 годом. Машина интерпретирует не каждый сигнал в отдельности, а их комбинацию, и делает наиболее разумный вывод.

Однако многие вопросы так и остаются открытыми. Должен ли человек принимать участие в вождении беспилотного автомобиля, если, например, возникнет нештатная ситуация, или ему нужно полностью положиться на машину? К примеру, два автомобиля едут навстречу друг другу по довольно узкой изогнутой дороге. Если за рулем люди, каждый из них знает, что другой будет придерживаться своей полосы и расстояния между ними в пару метров. Но беспилотник может неправильно интерпретировать ситуацию, приняв ее за возможность лобового столкновения и съехав на обочину, или, наоборот, совсем пренебрежет этой возможностью и будет ехать в опасной близости от другого автомобиля. Кроме того, есть моменты, не связанные напрямую с вождением, но очень важные. Быть особенно внимательным при виде детей, играющих на тротуаре, или, если он находится в Австралии, понимать, что на дорогу в любой момент может выскочить кенгуру. Как научить его пропускать «скорую помощь», въехав для этого на тротуар, чтобы освободить дорогу, — ведь этого нет в ПДД?

Кроме того, беспилотный автомобиль будут окружать нарушители, беспечные велосипедисты, забывчивые пешеходы и скутеры, выскакивающие под колеса. Чтобы обезопасить их друг от друга, беспилотникам и всем этим недисциплинированным людям придется ездить по разным полосам или дорожкам, создав для этого искусственную среду. Но разве для этого создавался беспилотный автомобиль? Однако это уже происходит. Автономный автомобиль Waymo, созданный Google, хоть и ездит успешно по дорогам Финикса в Аризоне, но по специальной дороге, ограниченной зоне, не выезжая за ее пределы. Для беспилотников формируют искусственную среду, в которой они выглядят автономными, но на деле, по выражению Фрай, это не аналог роскошного автомобиля с личным шофером, который отвезет вас куда угодно, а просто местный микроавтобус.

На самом деле никто из производителей и не собирается заполнить улицы полностью беспилотными автомобилями, к тому же безаварийными. Пока что они планируют продать как можно больше автомобилей с современной технологией помощи водителю.

Технология называется Driverless, но на самом деле предусматривает разные уровни автономности, от полного контроля до автопилота.

Предполагается, что так человек сможет быстрее научиться управлять автомобилем, при этом оставаясь в безопасности. Но такая технология таит в себе опасность. Если водитель будет брать на себя управление только в исключительных случаях, он постепенно начнет утрачивать необходимые навыки и опыт. Известны трагические случаи в авиации, когда молодые пилоты слишком привыкали к автопилоту и совершенно терялись, когда им приходилось брать контроль над самолетом в свои руки.

Мы не должны слишком многого ожидать от беспилотных автомобилей в ближайшее время. Работа над ними будет еще долгой, прежде чем автомобиль и человек смогут гармонично дополнять друг друга. Полная же автономность машины вряд ли будет достигнута без потери в безопасности, считает автор.


Идея № 6. Использование алгоритмов в полицейской работе имеет свои плюсы и минусы

Алгоритмы действительно многое могут сделать для поимки и идентификации преступника, но это не значит, что на них полностью можно положиться. Хотя во многих случаях именно они сыграли ключевую роль в успешном розыске и опознании подозреваемого. Так случилось, когда с помощью алгоритма в английском городе Лидсе был пойман серийный насильник. В 1995 году он напал на студентку в ее собственной машине, связал руки, заклеил веки скотчем и вывез за город. Она оказала яростное сопротивление, когда он попытался изнасиловать ее, в результате чего он порезался собственным ножом и убежал. Его кровь осталась на сиденьях, и теперь у полиции был образец ДНК — по нему установили, что он уже совершал три серийных изнасилования десять лет назад и одно — два года назад, в разных городах.

Радиус его действий был очень широк, и предстояло проанализировать больше 30 тысяч потенциальных подозреваемых. Полицейские добросовестно подошли к заданию, опрашивая людей и собирая образцы слюны и волос, но это ни к чему не привело. Но потом решено было использовать алгоритм, придуманный канадским полицейским Кимом Россмо. Его алгоритм игнорировал все факторы, кроме географического.

По мнению Россмо, география преступлений никогда не бывает случайной, и место преступления может указать на место жизни или работы преступника. Он не первым предположил, что каждое преступление оставляет своеобразные географические узоры. В 1820-х годах французский юрист-статистик Андре-Мишель Герри уже высказывал эту теорию. Он собирал сведения о преступлениях, совершенных в разных районах Франции, и фиксировал, какие преступления совершались, кем (возраст, криминальный стаж, пол и т. п.) и где. Эти закономерности не менялись, а каждый год оставались постоянными. Один район лидировал по грабежам, другой — по кражам, третий — по убийствам и т. п. Вскоре полицейские могли заранее предвидеть, где совершится то или иное преступление.

У каждого преступления есть географическая модель. Преступники действуют в знакомых местах, не так далеко от дома, но в то же время не в своем квартале, не рядом с домом, вокруг которого образуется своеобразная «буферная зона». Чем дальше расследование удаляется от места преступления, тем меньше шансов на раскрытие дела. Для работы алгоритма Россмо требовалось больше, чем одно преступление, и такие данные у него были. Пять мест преступлений и места, где тратились деньги с украденных кредиток, алгоритм проанализировал и выделил два места, где, скорее всего, живет преступник, два небольших пригорода Лидса.

Кроме того, у полиции, помимо ДНК, был частичный отпечаток пальца, который решили сравнить с отпечатками жителей двух пригородов. В одном из них и нашелся преступник. Он работал водителем грузовика и много ездил по стране, жил в одном из выделенных алгоритмом пригородов, а в другом навещал свою мать. Под давлением улик он признал себя виновным и получил пожизненный срок. Алгоритм доказал свою эффективность: ведь он рассматривал не личности предполагаемых насильников, а лишь географическую модель его действий, что исключало предвзятость.

С тех пор алгоритм Россмо используют не только для поимки преступников (что делают уже сотни служб по борьбе с преступлениями по всему миру), но и для определения водоемов, где обитают малярийные комары, и даже места, где живет скрывающий свою личность художник Бэнкси (правда, пока безуспешно).

Алгоритм Россмо и подобные ему могут не только определить место, где живет преступник, но и предсказать, где с наибольшей вероятностью возможны преступления, и полиция направляет туда дополнительные патрули. Но не все алгоритмы одинаково полезны, и нередки случаи ложной идентификации при распознавании лица предполагаемого преступника. Это часто ведет к несправедливым арестам.

И хотя истина чаще всего бывает установлена, жертвам таких арестов приходится пройти через очень неприятный опыт.

Этого можно было бы избежать, будь алгоритмы более совершенны. Лица постоянно меняются — с течением лет, от болезней, изменения веса и тому подобного. И чем больше лиц обрабатывает алгоритм (а при поиске преступника большое количество неизбежно), тем менее точным он становится и тем больше находит схожих черт в разных людях.

Использование алгоритмов вызывает и вопросы этического характера. Что важнее — «строгий» алгоритм, который выявляет преступников с погрешностью в сторону увеличения арестов, или более «мягкий», безопасный для невинных людей, но пропускающий опасных людей? Какие задачи должны перед ним стоять? Правильно ли, что для полицейских алгоритмов, как и для многих других, действует коммерческая тайна, так что принципы их работы и исходный код скрыты от глаз общественности? Все это необходимо учитывать для будущей настройки алгоритмов, которые планируется использовать в полицейской практике.


Идея № 7. Алгоритмы способны не только давать нам рекомендации, но и создавать произведения искусства, правда, только подражая уже существующим

Понравились идеи спринта? Читайте также Big Data: оружие математического поражения — ключевые идеи бестселлера «Weapons Of Math Destruction» Кэти О’Нил. (Впервые на русском!)

Чтобы мы могли познакомиться с новейшими произведениями искусства, созданы алгоритмы рекомендаций. Они показывают нам произведения с высокими читательскими или слушательскими рейтингами, и мы ориентируемся на них, когда нам хочется чего-то новенького. Часто мы знакомимся с чем-то действительно хорошим, но бывает и по-другому.

Плохая музыка, книга или фильм могут оказаться на пике популярности — только потому, что люди больше склонны знакомиться с тем, что уже нравится другим. Если самая обычная, ничем не выдающаяся песня или композиция случайно попали в топ хит-парадов, их популярность будет нарастать как снежный ком. Это явление называется социальным доказательством — когда мы копируем поведение других. Когда-то на театральных представлениях использовали клакеров — зрителей, нанятых для рукоплесканий. Окружающие, видя, что часть зрителей бурно аплодирует, подхватывала овации, хотя для этого часто не было поводов. То же происходит с прослушиванием музыки. Люди, чтобы не тратить время на прослушивание всего подряд, как правило, слушают то, что уже нравится другим. Так же происходит и с книгами, и с фильмами.

В 2007 году было проведено исследование с целью изучения общественного восприятия книг из списка бестселлеров New York Times. Оказалось, что книги из этого списка после его публикации начинали продаваться на 14 процентов быстрее, а в случае с начинающими авторами — на 57 процентов.

Социальное доказательство усиливается при помощи подобных списков бестселлеров, рейтингов Amazon, баллов Rotten Tomatoes. Из-за этого на вершину списка иногда попадают произведения, весьма далекие от совершенства, а иногда и откровенно слабые, если посмотреть объективно.

Алгоритмы рекомендаций предлагают нам то, что уже оценено другими как хорошее, чтобы уберечь нас от разочарования. Но способны ли они сами его создавать? Известно, что уже достаточно давно существуют программы, помогающие писать сценарии или книги, а также музыкальные произведения.

В 1997 году в Орегонском университете был проведен эксперимент. Пианистка исполнила три коротких пьесы: одна из них была написана Бахом, вторая — университетским преподавателем музыки Стивом Ларсоном (в стиле Баха), а третья — компьютером. Публике предложили угадать, кому принадлежит авторство каждой пьесы.

В итоге пьесу алгоритма большинство приняло за подлинного Баха, а пьесу Ларсона посчитали работой компьютера. До сих пор считалось, что творчество — исключительно человеческий удел, что для написания шедевров нужны усилия человеческого духа, однако эксперимент это опроверг.

Алгоритм брал каждую ноту и каждый аккорд в музыке Баха и находил в его произведениях все варианты их использования: куда композитор двигался дальше? В итоге получалась композиция, которая звучала как сам Бах, а может быть, Бахом и была — ведь использовались его аккорды и его музыкальные принципы, имитировались образцы, созданные Бахом, а не сочинялось самостоятельное произведение.

Уже сегодня на рынке предлагаются алгоритмы, якобы способные создавать популярную музыку. Они копируют популярные песни и создают имитацию, но это просто подражательство. Они находят связь между вещами, которые кажутся не связанными, и благодаря этому генерируют удачные вариации уже написанного кем-то.

Но настоящее творчество больше, чем просто усваивание ранее существовавших методик, оно выходит за рамки цифровых возможностей. По мнению Фрай, работа алгоритмов может существовать вместе с произведениями человека, но никогда не заменит и не вытеснит их.