«Оставаясь человеком в эпоху алгоритмов» - автор Ханна Фрай
Какую роль в жизни человека играют алгоритмы? Вряд ли мы каждый день задаем себе данный вопрос. Между тем, алгоритмы прочно укоренились в жизни каждого из нас, алгоритмы повсюду – это и рекомендации в соцсетях, и спутниковая навигация, и поисковые системы и многое другое. Люди настолько привыкли к алгоритмам в свой повседневной жизни, что перестали их замечать. Алгоритмы задействованы во всех сферах жизни человека – будь то транспорт до работы или медицинское обслуживание, досуг или юридическая помощь. Алгоритмы сегодня на каждом шагу, замечает их человек, или нет. Ханна Фрай взялась исследовать наиболее важные алгоритмы в жизни современного человека и кратко описала суть каждого из этих алгоритмов. Тем не менее, у нее получилась книга не столько о самих алгоритмах, сколь о последствиях их использования человеком. Применение алгоритмов накладывает на пользователя определенные этические и профессиональные рамки. Автор желает заинтересовать нас картиной реальности, в которой алгоритмы помогают врачам ставить точные диагнозы, полицейским арестовывать, а судьям – выносить приговоры. Остановимся на основных выводах автора относительно сущности явления и попробуем определить границы применения алгоритмов.
Вывод 1. Алгоритмы – не добро или зло. Они – исполнители воли человека. Автор полагает, что многие сегодняшние проблемы в понимании алгоритмов связаны с неправильным восприятием человека. Одни люди склонны практически обожествлять алгоритмы, можно сказать, такие индивиды всецело полагаются на безошибочность алгоритмов. Другие же люди склонны опасаться растущей роли алгоритмов в жизни общества, такие люди считают алгоритмы ошибочными и даже опасными. Обе стороны неправы, так как забывают о том, что верность или ошибочность алгоритма зависит, в первую очередь, от создателей алгоритма или тех, с кем алгоритм взаимодействует. Например, не так давно состоялся матч между шахматистом с мировым именем Гарри Каспаровым и искусственным интеллектом Deep Blue. Deep Blue был разработан IBM, в его основе лежали, конечно же, сложные алгоритмы. Инженеры IBM намеренно заложили в основу Deep Blue поведение, схожее с человеческим. Например, машина медлила, объявляя ход, будто просчитывала всевозможные варианты. Поведение машины, подобное человеческому, сыграло с Гарри Каспаровым злую шутку. Шахматист в один момент решил, что сможет запутать машину, добившись ситуации с множеством возможных вариантов ходов. Каспаров ошибся, искусственный интеллект без труда нашел верные решения и теперь уже сам шахматист оказался в затруднительной ситуации. Положение Каспарова усугублялось первоначальной недооценкой возможности машины, ведь в первой партии гроссмейстер одержал решительную победы над искусственным интеллектом. В итоге Каспаров проигрывал партию за партией, уже не веря в собственные силы. Никак нельзя сказать, что Deep Blue оказался «умнее» Каспарова. Машина , в отличии от человека, полностью знала границы собственных возможностей, на ее потенциал не влияли дурные эмоции, а потому машина уверенно одержала победу над человеком. Каспаров настолько был сосредоточен на оценке уровня умений искусственного интеллекта, что потерял из виду ряд прекрасных возможностей обыграть машину. Не машина оказалась умнее, а Каспаров менее внимателен, чем обычно. Не стоит переоценивать таланты искусственного интеллекта. К сожалению, чрезмерная вера в его возможности иной раз заканчивается трагично. Показательна история англичанина Роберта Джонса, рассказанная автором книги. Заядлый автомобилист Джонс, понимая, что бензин в скором времени кончится, решил найти поблизости заправку. GPS навигатор Джонса получил соответственное задание, а сам Джонс расслабился, ожидая в скором времени хорошо заправиться. Расслабленность водителя можно понять, ведь навигатор никогда раньше его не подводил. Джонс уверенно взбирался в гору, следуя указаниям навигатора, пока не врезался в деревянный забор и едва не улетел вниз, в пропасть. По счастливой случайности Джона выжил и отделался лишь судом за невнимательное вождение, но винить автомобилиста сложно, он всего лишь доверился алгоритмам. Напрасно. Еще дороже за абсолютное доверие алгоритмам могло заплатить все человечество. Было это в период холодной войны. Советский военный офицер Станислав Петров привычно мониторил систему ядерной безопасности СССР, стараясь не допустить неожиданной атаки американских ракет. При любой попытке несанкционированного пересечения воздушного пространства СССР начальством Петрова отдавался приказ об ответной атаке. Однажды монитор Петрова показал, что в сторону России движется 5 ракет, Петров пришел в ужас, мир в одночасье оказался на грани ядерной войны. Тем не менее, офицер трезво рассудил, что при наличии огромного ракетного запаса, США вряд ли стали бы атаковать СССР всего лишь 5 ракетами. Чувствовался какой- то подвох. Прошло 23 минуты, а на территорию СССР не упало ни одной ракеты противника. Алгоритм дал серьезный сбой. Если бы Петров слепо доверился машине, мир бы вскоре познал все прелести ядерной зимы. Нужно понимать, что как бы ни были надежны алгоритмы, конечное решение всегда должно оставаться за самим человеком.
Вывод 2. Алгоритмы беспилотных автомобилей все же не способны полностью заменить человека. На сегодняшний день мало кого удивишь новостями о разработке и выпуске беспилотных автомобилей, которые управляются не человеком, а сложным искусственным интеллектом. Многие автомобильные концерны наметили на 2020-е гг. выпуск беспилотных моделей. Кажется, что будущее уже здесь, на пороге, а ручное управление автомобилем скоро останется в прошлом. Не будем торопиться с выводами. На первый взгляд, создание машинных алгоритмов, управляющих автомобилем, дело несложное. Высчитать показатели, такие как скорость, направление движения и так далее. Что сложного? Основная сложность состоит в интерпретации алгоритмами изображений с камер, работающих во время поездки. Безусловно, нейронная сеть уверенно распознает различные углы, линии и цвета, но куда труднее ей интерпретировать полученные с камеры сигналы. Т��м более, что потенциал камеры весьма ограничен, она не может однозначно достоверно передать как масштаб, так и расстояния. Поэтому ее дополняют лазеры и радары. Только совокупность этих устройств дает некую гарантию правильной интерпретации внешних условий. Сигналы с устройств бывают противоречивы, но благодаря теореме Байеса, алгоритм принимает наиболее уместное решение. Озвученная теорема лежит в основе многих алгоритмов машинного обучения, она позволяет интерпретировать не отдельные сигналы, а их комбинацию – а на ее основе делать вывод. Какой бы заманчивой не казалась идея полностью беспилотного автомобиля, в ближайшее время она вряд ли осуществима. Машинные алгоритмы практически полностью беззащитны перед внештатными ситуациями, такими как дети, резко выскакивающие на дорогу, как «скорая» помощь, которую всегда нужно пропускать, как невнимательные пешеходы, велосипедисты. Мы должны помнить, что не все участники дорожного движения дисциплинированы так же, как и беспилотный автомобиль. Беспилотный автомобили пока достаточно примитивны, чтобы можно было заполнить ими улицы городов. Пока что они курсируют только по специальным трассам, но не более. Автор полагает, что полной автономности автомобиля навряд ли можно будет достигнуть в скором времени.
Вывод 3. Алгоритмы не только пасуют перед непредвиденными обстоятельствами, но и сама их работа непредсказуема. Каждый алгоритм, для того, чтобы работать, нуждается в данных. В Фейсбуке данные пользователя используются для поиска и общения с людьми. Сложно сказать, что с этими данными делают помимо упрощения коммуникации. На сегодняшний день многие магазины используют алгоритмы для составления «портретов» своих покупателей, особенно, их привычек и наклонностей покупать что-либо. Покупки очень хорошо раскрывают личность человека, и оставляют компаниям широкие возможности для манипулирования нами при знании наших же потребностей. Оставляя личные данные в интернете, мы иногда не задумываемся, что очередные «логин» и «пароль» - это предмет торговли некоторых компаний, таких как Palantir Technologies. Проще говоря, эта компания и многие ей подобные, покупают данные пользователей сети и позднее продают их по более высокой цене. Все наши мнения, оставленные на форумах, покупки в интернет-магазинах, наши увлечения или перемещения, попадают в руки третьих лиц. Несет ли такая информированность третьих лиц угрозу нашей безопасности - это сложно сказать. Иногда данные попадают к молодым фирмам, которые в один момент получают готовые базы потенциальных клиентов, но довольно часто попадают и в руки недобросовестных рекламщиков. Автор призывает задуматься, какие бесплатные алгоритмы вы используете и почему они для вас бесплатны.
Вывод 4. Алгоритмы нашли свое применение в медицине, судебной системе и полиции.
Алгоритмы научились неплохо распознавать, прогнозировать или классифицировать, но ряд способностей для них по-прежнему недосягаем, например, проявление эмоций. Для того, чтобы врач мог точно определить наличие онкологического заболевания, он должен просмотреть не одну сотню слайдов с изображениями клеток пациента. Опытный врач, конечно, сделает работу довольно быстро, найдя все патологии клеток, но даже самому опытному врачу далеко до точности алгоритмов в выявлении клеточных патологий. Исследование CAVELYON 16 подтвердило это, точность выявления опухолей нейронными сетями составила 92.4%, в то время как врачи смогли выявить опухолей меньше почти на 20%. Необходимо оговориться, что врачи, в отличии от алгоритмов, не обозначили многие здоровые клетки как больные. Нейронная сеть ошибочно сочла больными клетки в 8 случаях из 400. Автор советует сочетать работу нейронных сетей и врачей для большей точности.
В судебной системе алгоритмы используются довольно давно, еще с 1920-х гг. В 1928 году канадский социолог Эрнест Берждесс изобрел систему выявления возможных рецидивистов. После анализа досье 3 тысяч преступников, Берджесс определил 21 фактор, который указывал на вероятность полного возвращения человека к мирной жизни. Учитывался характер человека, его поведение в тюрьме и другое. По шкале от о до 21 каждый заключенный набирал баллы, чем меньше, тем ниже вероятность возвращения человека в преступный мир. Модель Берждесса на практике показала точность, и, невзирая, на критику общественности, к 1935 году была внедрена в большинстве тюрем Иллинойса. На сегодняшний день существует множество судебных алгоритмов, но в их основе - алгоритмы Берджесса. Наиболее известен алгоритм выявления преступников COMPAS, он довольно распространен в американских тюрьмах, но, как и любой алгоритм, может ошибаться, становясь со временем более предвзятым к определенным группам населения, например, к чернокожим. Алгоритмы могут помочь суду и полиции, но, опять же, окончательное решение об аресте или осуждении должно оставаться только за человеком. К тому же, использование алгоритмов в данных болезненных сферах общества вызывает большие этические разногласия.
Вывод последний. Искорка творчества есть не только в человеке. В 1997 году в Орегонском университете провели любопытный эксперимент – публике предложили определить авторство трех неназванных пьес. Одна была написана великим Бахом, вторая – не очень известным преподавателем Стивом Ларсоном (в стиле Баха), а третья – никому не известным компьютером. Итоги эксперимента немало удивили исследователей. Пьесу алгоритма большинство приняло за пьесу Баха, а пьесу Ларсона – за работу компьютера. Эксперимент опроверг веру в исключительную способность человека на творчество. Но заметим, что алгоритм более подражал или имитировал уже написанные человеком произведения, чем самостоятельно придумывал что-либо новое. Автор и здесь подчеркивает необходимость тесного сотрудничества, постоянного взаимодействия двух различно устроенных, но многогранно талантливых субъектов – человека и алгоритмов.