Неуязвимость. Отчего системы дают сбой и как с этим бороться
Крис Клирфилд, Андраш Тилчик
Системы — это то, с чем современный человек сталкивается повсюду. Все, что нас окружает, можно рассматривать как системы. Это ваш дом, ваша работа, ваш путь до нее, даже приготовление ужина и уборку квартиры можно рассматривать как системы. Это ваш полет в самолете и прием у стоматолога. В целом, хорошо отлаженные системы делают нашу жизнь более комфортной, упрощают наши действия, сохраняют энергию. Однако периодически они нас подводят — курьерская служба теряет ваш заказ, ваш рейс отменяется, вы не укладываетесь в сроки выполнения проекта, а в духовке дымится то, что должно было стать праздничным ужином. Иногда случаются и настоящие катастрофы. Первая реакция после трагедии — найти виноватого, понять причины произошедшего. Но очень часто к трагедии приводит цепь совсем небольших сбоев, а люди играют в этом процессе случайную роль — небольшая ошибка, не вовремя замеченная неисправность могут привести к катастрофе с многочисленными жертвами. Другая проблема — сложные и непрозрачные системы дают широкий простор для противоправных действий — хакеров, манипуляторов, преступников.
Авторы книги «Неуязвимость», специалисты по управлению рисками Крис Клирфилд и Андраш Тилчик, занимались исследованием самых разных систем и пришли к ряду выводов о том, как сделать их более безопасными. Они изучали трагические случаи, брали интервью у специалистов, работающих с самыми сложными системами. Разные системы хоть и отличаются друг от друга, но работают по одним принципам, у них есть общие черты. И если мы поймем их, а также то, что делает их уязвимыми, то сможем предотвратить нежелательные последствия, начиная от подгоревшего ужина и сорванных сроков рабочих проектов и заканчивая масштабными катастрофами. Это особенно важно сейчас, когда мы собираемся усложнять наши системы — делать умные дома, пересаживаться на электрокары, когда мы полностью полагаемся на технологии, которые толком не понимаем и которые с каждым годом становятся все сложнее.
О том, почему наши системы дают сбой и как их можно сделать менее опасными, у авторов есть несколько важных идей.
Идея № 1. Непонимание людьми и компаниями сложности систем приводит к трагедиям и открывает широкий простор для злоупотреблений и мошенничества
Всем нравится комфорт, удобство, красивые вещи, способность быстро передвигаться по миру, использовать самые современные технологии. Но развитие технологий влечет за собой и усложнение окружающих нас систем -они становятся более запутанными и менее понятными. У усложнения систем есть несколько важных негативных последствий.
Первый — малейшие ошибки приводят к самым непредвиденным и масштабным последствиям. Мы все больше полагаемся на алгоритмы и автоматизацию и нам становится труднее заметить ошибки системы. А в сложных системах, где многие процессы протекают невидимо для человека, даже незначительный сбой может привести к абсолютно непредсказуемым и масштабным последствиям. Типичный пример — авария на АЭС Three Mile Island в США в штате Пенсильвания в 1979 году, которая стала самой серьезной катастрофой в атомной отрасли за всю историю Америки — из-за сбоя системы произошла утечка радиации, а жители начали массово покидать населенные пункты вокруг АЭС. Почему произошла авария? Все началось с незначительной ошибки при ремонте системы водоснабжения станции, из-за чего отключились насосы, закачивающие нагретую в реакторе воду в парогенератор. Нарушилась система охлаждения, из-за этого реакторы стали перегреваться. Затем произошел еще один сбой — не закрылся компенсаторный клапан, который должен был сработать в ответ на сигнал тревоги, из-за чего вода, которая могла охладить генераторы, вытекала. Сотрудники станции видели сигнал на приборной панели и думали, что клапан закрыт, как и должно было быть. Поэтому они не смогли быстро среагировать на проблему. Причиной катастрофы стало не что-то экстраординарное и даже не стихийное бедствие, а цепь незначительных ошибок — кто-то недосмотрел, что-то не сработало, сотрудники не сразу поняли причины сбоя. Но результат оказался катастрофическим для жителей близлежащих городов и сотрудников станции. Когда происходит катастрофа в сложной системе, часто в ней нет ничьей персональной вины. К катастрофе приводит сочетание случайных факторов и небольших ошибок.
Часто мы виним человеческую безалаберность, но разве не все люди склонны к ошибкам, разве не все мы ошибаемся время от времени и делаем что-то невнимательно? Если система полагается только на безошибочность действий человека, то ее определенно ждут проблемы. Более того, к ней может привести даже не ошибка, а просто роковое стечение обстоятельств. Так, трагедией обернулся рейс ValuJet 592 из Майами, упавший в национальном парке Эверглейд в штате Флорида с более чем 100 пассажирами на борту. По роковому стечению обстоятельств на борт попали кислородные генераторы. Они безопасны в перевозке, если в них не остается кислорода, но на борт попали просроченные генераторы, в которых еще оставался кислород и на которых не было защитных колпачков, что и стало причиной возгорания. Механики, готовившие к погрузке генераторы, не знали, что такие генераторы нельзя перевозить, но они и не должны были в этом разбираться. К катастрофе привела запутанность сложной системы, где оказалось слишком много взаимодействующих элементов.
Необязательно катастрофа должна быть катастрофой в привычном смысле этого слова. Это может быть провал бизнес-начинания или рекламной кампании, вызванный такими сложными и непредсказуемыми системами как социальные сети.
Еще одно последствие усложнения систем — большой простор для противоправных и злонамеренных действий — хакерства, финансовых махинаций, которые становятся возможными из-за непрозрачности систем, фальсификаций. Что, если хакерство выйдет за пределы банкоматов, систем безопасности учреждений и финансовых операций и распространится на интернет вещей, автомобили, медицинскую технику? Кто-то может взломать ваш сердечный стимулятор или автомобиль, и страшно представить, каковы будут возможные последствия. Чем сложнее система, тем вероятнее сбой в системе ее безопасности, тем больший простор появляется у людей с дурными намерениями, которые способны эксплуатировать сложность, хрупкость и несовершенство наших систем.
И третье последствие усложнения систем — даже без усилий злонамеренных лиц они могут спровоцировать несправедливость. Пример — внедрение новой электронной системы Horizon британской почтовой ��лужбой. Из-за сбоев в этой системе многих невинных людей обвинили в мошенничестве.
Идея № 2. Наибольшую опасность представляют сложные и жестко связанные системы
Аварии начинаются с небольших ошибок, но само устройство систем делает возможным катастрофические последствия. Аварии становятся следствием организационных проблем — несколько случайных и с виду ничего не значащих сбоев приводят к катастрофическим последствиям.
Что делает системы уязвимыми? Авторы приводят теорию известного исследователя катастроф Чика Перроу, который выделил два фактора, влияющих на уязвимость систем.
Первый. Насколько система линейна или нелинейна. В линейной системе, похожей на конвейер, процесс производства осуществляется поэтапно. Если на каком-то этапе что-то случается, то ошибка обнаруживается и производство останавливается. В нелинейной системе взаимодействие гораздо более сложное, типичный пример — АЭС, где разные части системы взаимозависимы, они взаимодействуют сложным и запутанным образом и влияют друг на друга. Если в какой-то части такой системы произойдет сбой, то это приведет к самым неожиданным последствиям для всей системы. Кроме того, это взаимодействие может быть невидимым, и найти сбой оказывается не так-то просто. Если линейные системы более-менее просты в управлении, то нелинейные очень сложны — так как многие факторы скрыты от глаз наблюдателя. Сложность системы не связана с ее архитектурой или суммой денег, которая была направлена на ее создание. Она зависит от того, как взаимодействуют ее части — линейно или нелинейно. Если небольшая ошибка может привести к катастрофе, значит, система сложная и нелинейная.
Второй фактор — насколько система жестко связана. Предусмотрен ли в ней запас времени или иных ресурсов для устранения ошибки, позволяет ли она вообще ошибаться. Если в системе нет такого зазора, то даже мельчайшая ошибка может всю ее вывести из строя. Для этой системы требуется абсолютная точность. Ошибка, нарушение порядка действий — все ведет к катастрофе.
Каждую систему можно поместить в одну из четырех категорий — сложную и жестко связанную, сложную и не жестко связанную, простую и жестко связанную, простую и не жестко связанную. Наибольшую опасность представляют сложные и жестко связанные системы.
Чем более жестко связана система и чем сложнее она, тем более вероятны самые тяжелые последствия от незначительных ошибок и сбоев. Речь необязательно о крупных предприятиях — в информационный век такой системой может быть все что угодно — например, рекламная кампания в социальных сетях, которая может вызвать масштабный скандал. Из-за доступности соцсетей любое высказывание может оказаться в публичной плоскости и вызвать непредвиденные последствия.
Другая тенденция — те системы, которые раньше можно было отнести к относительно простым, сегодня существенно усложняются. Это связано с активным внедрением технологий.
Так, многие процессы, которые раньше выполнялись вручную и были наглядными, сегодня управляются алгоритмами, а человек, видит лишь вершину айсберга.
И хотя чаще всего алгоритмы справляются со своими задачами, непрозрачность системы может привести к масштабному сбою, если в каком-то элементе системы произойдет ошибка.
Современная финансовая система — сложная, взаимозависимая и жестко связанная система, в которой доминируют алгоритмы, заключающие большинство финансовых сделок. Сбой в одной ее части приводит к непредвиденным последствиям для всего мира. Так, в 2012 году сбой в электронной торговой системе брокерской фирмы Knight Capital привел к тому, что она стала рассылать сотни заявок в секунду на покупку акций разных компаний, в результате чего это отразилось на всем рынке, существенно изменив стоимости акций. Эта ошибка стоила компании 15 млн долларов каждую минуту — всего компания потеряла полмиллиарда долларов за день. В чем причина? С одной стороны, в ошибке одного IT-специалиста, который неправильно скопировал новую версию торгового программного обеспечения. С другой — почему вообще оказалось возможным, что такая тривиальная ошибка привела к таким масштабным последствиям? Автоматизация финансового рынка позволила сократить издержки, но она обошлась дорогой ценой — увеличившейся сложностью и жесткой связанностью, снижением прозрачности, система стала менее понятной для человека. Тенденция усложнения проявляется во всех системах, которые раньше были относительно простыми и прозрачными.
Идея № 3. Нам трудно взаимодействовать со сложными системами из-за нашей психологии
Развитие технологий и усложнение систем — это одна проблема. Другая проблема состоит в том, что наш разум и наши тела формировались в совершенно иных условиях и они не приспособлены к взаимодействию со сложными системами.
Первое затруднение — наша склонность чрезмерно полагаться на свою интуицию. Но, как показали исследования, люди — очень плохие прогнозисты. Психологи Дон Мур и Уриель Харан выяснили, что когда люди на 90 процентов уверены в своем прогнозе, они оказываются правыми менее чем в половине случаев. Это касается всего — сроков выполнения проектов, возможных рисков, перспектив и т. д. Если наша способность прогнозировать не корректируется средой, то мы не можем ее развить. Мы должны приучить себя сознательно сомневаться в своих прогнозах.
Другая наша склонность — замалчивать ошибки и не придавать им значения. В результате теряется очень важная информация, которая может способствовать улучшению и обновлению системы. Аналогичная проблема — нежелание признавать, что-то идет не так, ставить под сомнение свои убеждения. Так возникает эффект отрицания реальности, когда мы отсеиваем очевидные факты, которые не вяжутся с нашими представлениями о том, какой должна быть реальность.
Третья разрушительная тенденция — склонность к соглашательству и подчинение мнению авторитета. Человек — существо социальное, соглашаться с другими — наша потребность, которая буквально запрограммирована в нашем мозге. Так, исследования показали, что мы избегаем выражать несогласие с большинством, так как наш мозг переходит в режим опасности — в древние времена несогласие с племенем могло привести в изгнанию, что было равносильно смерти. И хотя эти времена давно прошли, наши физиологические реакции остались прежними — наш организм готовит нас к битве и потери крови. В итоге нам легче подстроиться под ожидания других, мы не рискуем оспаривать устоявшуюся точку зрения. Чтобы идти против большинства, требуются огромные ресурсы, а наш мозг предпочитает их экономить. Авторы приводят крайне печальный эпизод из истории — сколько времени потребовалось медицинскому сообществу, чтобы признать правоту Игнаца Земмелвейса, врачу, работавшему в середине XIX века в клинике при Венском госпитале. Он обратил внимание, что в этой клинике был очень высок уровень смертности рожениц и новорожденных — гораздо выше, чем в других клиниках. Более того, для женщины было безопаснее рожать просто на улице, чем в этой клинике. В клинике работали преимущественно профессиональные врачи и зачастую они принимали роды после работы с трупами. Земмельвейс догадался, что причина высокой смертности была в послеродовом сепсисе — врачи переносили инфекцию на своих руках. Он понял, что победить инфекцию можно, если заставить врачей тщательнее обеззараживать руки. Земмельвейс ввел обязательные правила и заставил врачей тщательно мыть руки, в результате количество смертей в клинике снизилось до 1 процента. Однако медицинское сообщество проигнорировало открытие Земмельвейса — ведь врачам пришлось бы признать, что это они виновны в смерти рожениц и новорожденных, они посчитали теорию Земмельвейса личным выпадом против них. Земмельвейс умер в безвестности в психиатрической клинике. К счастью, со временем врачи признали, что он был прав, его идеи легли в основу асептики.
Эта история иллюстрируют еще одну нашу склонность — когда мы приобретаем авторитет, то перестаем прислушиваться к мнению других, власть застилает нам глаза.
Исследования даже показывают, что мозг наделенного властью человека действует так, будто у него повреждение орбито-фронтальной области, которое делает людей чрезмерно импульсивными. Власть создает дистанцию — нижестоящие по иерархии боятся высказать свое мнение вышестоящим, а даже если выскажут, то нет уверенности в том, что их слова воспримут всерьез.
Еще одна наша естественная тенденция — объединяться с похожими людьми и не любить чужаков. Это усиливает нашу склонность к соглашательству и конформизму, в результате чего мы не замечаем тревожных сигналов, которые бы заметили в более разнородном окружении.
И, наконец, нам вредит болезненная целеустремленность, когда наши краткосрочные цели застилают нам глаза. Из-за этого мы слишком усердно следуем плану, не обращая внимания на то, насколько сильно изменились условия со времени его составления. В результате мы игнорируем важные сигналы.
Идея № 4. Слишком большое количество предупреждающих сигналов усложняет систему и отвлекает работающих с ней людей
Как улучшить системы? Очевидный ответ — мы должны сделать их более безопасными с помощью усиления контроля. Проблема в том, что такое решение, скорее всего, лишь ухудшит ситуацию. Дополнительные функции безопасности добавляют системе сложности и запутанности. Так, например, дубликаты конвертов на 89-й церемонии вручения наград премии «Оскар» привели к неприятной ошибке — актеры, которые должны были озвучить название фильма-победителя, получили дубликат конверта с именем победительницы в категории «Лучшая женская роль».
Безусловно, системы безопасности нужны, но их избыток сам может стать причиной ошибок — человек может запутаться и не отличить неважный сигнал от важного. Именно поэтому в кабинах авиалайнеров Boing высший уровень тревоги включается только тогда, когда система распознает надвигающийся аэродинамический срыв, а другие события, даже такие, как остановка работы двигателя, не приведут к включению этого сигнала — они активизируют другие уровни предупреждений. Иерархия сигналов тревоги не дает пилотам запутаться в том, где произошел сбой.
Как сделать систему более простой и понятной? Прежде всего необходимо начать с оценки уязвимости системы с точки зрения критериев, выделенных Чиком Перроу. Оцените, насколько жестко связана система, насколько она сложна, есть ли в ней пространство для маневра, где высок риск, как понизить сложность и жесткую связку элементов системы.
Снижение сложности и наглядное представление положения дел — ключевые элементы.
Человек должен понимать, что происходит в системе, просто бросив на нее взгляд — пусть это даже потребует ухудшения дизайна и внешнего вида системы.
Необходимо рассмотреть все детали системы изнутри, чтобы найти варианты снижения ее сложности. Сбои системы часто происходят не из-за сложных процессов или сложных задач, а из-за цепочки мелких сбоев. Чтобы снизить вероятность мелких сбоев, важно устранить человеческий фактор — когда люди вынуждены разрываться между разными задачами, это увеличивает вероятность ошибок, подчас самых глупых. Необходимо уделять внимание всем процессам, даже тем, которые кажутся абсолютно незначительными или второстепенными.
Рассматривайте организации, проекты, работу как системы. Подумайте, какие мелкие проблемы могут стать причиной сбоя системы, что может отвлечь людей, работающих с ней. Создайте иерархию предупреждающих об опасности сигналов.
Идея № 5. Нам необходимо целенаправленно сомневаться в собственной интуиции и бороться с отрицанием очевидного
Всего несколько дополнительных метров высоты защитных дамб могли предотвратить разрушительные последствия страшной аварии на Фукусиме-1. Но архитекторов подвела их оценка, они не учли, что высота волны может быть больше, чем предполагали их расчеты. Принимая решения в своей обычной жизни, например, выбирая что-то из двух вариантов или оценивая примерные сроки выполнения проекта, мы обращаемся к своей интуиции. Тем не менее исследования раз за разом показывают, что нам не стоит ей доверять в вопросах прогнозирования.
Рациональная и более точная альтернатива интуитивному подходу — метод «Субъективные интервальные оценки вероятностей» (Subjective Probability Interval Estimates — SPIES). Как им пользоваться? Выберите все возможные результаты (например, все возможные сроки завершения проекта), запишите их в левом столбце таблицы, а в правом для каждого запишите оценочную вероятность выполнения проекта в эти сроки в процентах (например, вероятность того, что вы завершите проект в срок до 1 месяца — 5%, в срок от 1 до 3 месяцев — 10% и т. д. Сумма всех вероятностей должна составлять 100). С помощью такой таблицы вы можете определить так называемый интервал уверенности. Так, например, вы вычислите, что с 80-ти процентной вероятностью вы завершите проект в период от 4 до 6 месяцев. Это более вероятный сценарий развития событи — в него не попадут маловероятные интервалы, которые предполагают завершение проекта в очень короткие или слишком длинные сроки. Подобные прогнозы будут более точными, чем те, которые вы сделаете, просто прикидывая.
Сложные системы обладают непрозрачностью, которая затрудняет оценку правильности действий. В такой среде мы не можем учиться на своих ошибках и извлекать из них пользу, так как они остаются незамеченными.
В таком случае даже опыт ничем не поможет — без обратной связи вы не сможете развить свое мастерство.
Так, авторы приводят данные исследования, которое показало, что сотрудники пункта иммиграционного контроля в каждом седьмом случае пропускали людей, в документах которых фото не соответствовало внешности.
Мы часто ошибаемся когда принимаем решения исходя из каких-то посторонних факторов, а не тех, которые имеют значение для выполнения конкретного дела. Поэтому необходимо разрабатывать критерии, основанные на самом проекте. Например, вы выбираете место для отпуска и никак не можете прийти к согласию со всеми членами семьи. Составьте список всех важных критериев, которые вы предъявляете к отпуску. Затем составьте таблицу, в которой строки — критерии, а столбики — варианты отпуска. Проставьте баллы -1, 0, 1 всем вариантам отпуска по всем критериям, просуммируйте результаты и выберите вариант, который наберет больше всего баллов. Можно сделать оценки еще более точными, если добавить индексы значимости критерия, на которые будут корректироваться оценки.
Другой способ убрать фактор иррациональности из наших суждений — анализ проекта пре-мортем (premortem). Он предполагает, что вы представляете, будто проект уже потерпел крах и ищете факторы, которые привели к неудаче. Такой подход особенно полезен для анализа перспектив бизнес-начинаний. Когда мы представляем, что нежелательные последствия уже наступили, то можем увидеть то, что упускаем из-за излишнего оптимизма и эмоционального подъема, связанного с новым начинанием. Эту же методику мы можем использовать и в своей личной жизни, чтобы понять себя и предугадать возможные негативные последствия своих решений и вовремя принять предупреждающие меры.
Идея № 6. Чтобы вовремя замечать предупреждающие сигналы системы, необходимо развивать открытую культуру, где люди не будут бояться признавать свои ошибки
Предыдущие методы хорошо подходят для тех, кто четко осознает свое положение. Но довольно часто люди не замечают очевидного, отрицают реальность и не хотят признавать ошибки. И совсем необязательно, что мы делаем это намеренно, это может происходить неосознанно. Мы специально ищем то, что подтверждает нашу точку зрения, и отбрасываем все, что с ней не согласуется. Когда мы принимаем решение, то стараемся укрепить себя в мысли, что оно было правильным. Поэтому нам так сложно заставить себя принять во внимание факты, которые свидетельствуют о том, что мы были не правы. Но именно это и нужно делать — не только раскрывать ошибки, но и намеренно их искать, создавать в организации культуру открытости.
В сложной системе важно все — любая мелочь, поэтому нужно внимание к каждой детали.
Удачный пример — индустрия авиаперевозок. И хотя многие боятся летать, перелеты с каждым годом становятся все более безопасными, в том числе благодаря тому, какое важное значение в авиаиндустрии придают анализу ошибок.
Ошибки сложных систем сложно найти — мы не можем абстрактно размышлять, что может пойти не так, но мы можем обращать внимание на предупреждающие сигналы. Системы сами дают нам подсказки, все, что нужно сделать — это не игнорировать их сигналы и дать возможность высказаться людям, которые замечают сбои. Их сообщения необходимо сделать общедоступными и публичными. Небольшие сбои дают нам ценную информацию о слабых местах в системе, и мы должны учиться их анализировать. Так, Федеральное управление авиации создало Систему сообщений по вопросам безопасности в авиации (Aviation Safety Reporting System — ASRS), подконтрольную NАSА. В ней сотрудники авиалиний могут оставить анонимные сообщения о безопасности и возникших ошибках. Отчеты попадают в открытую базу данных, а NАSА делает их обзор в ежемесячной рассылке.
Этот же подход мы можем использовать и в обычной жизни — замечать небольшие сигналы, которые, если не придавать им значения, могут привести к большой проблеме.
Такой подход лежит в основе методики аномализирования. В чем она состоит?
Сначала вы узнаете обо всех сбоях, которые могли привести к большой проблеме, но не привели.
Затем вы не просто принимаете эту информацию к сведению, а совершаете действия, которые помогут предотвратить подобные случаи в будущем. Третье — необходимо понять глубинные причины проблемы и устранить их.
Четвертый этап — довести информацию о проблеме и ее причинах до всех заинтересованных лиц.
Пятое и последнее — проконтролировать, что новая система работает хорошо и старые ошибки не повторяются. Эта стадия нужна для того, чтобы проконтролировать, что люди, которые должны использовать новые решения, действительно ими пользуются.
Чтобы внедрить подобную методику, организации нужна культура открытости, где сотрудники могут не скрывать свои ошибки и открыто их обсуждать. Часто в компаниях ситуация обратная — сотрудники боятся говорить прямо о том, что их волнует, и скрывают ошибки.
Идея № 7. Мы охотнее согласимся с тем, кто похож на нас, но когда коллективы становятся однородными, это приводит к игнорированию опасностей
Человек — существо социальное, нам сложно идти против мнения большинства. Таков эволюционный механизм — раньше изгнание из племени было равносильно смерти, поэтому мы автоматически подстраиваемся под мнение большинства, а затем мы считаем его своим собственным, то есть, по сути, мы принимаем точку зрения большинства неосознанно. Но, чтобы избежать ошибок, нам как раз-таки и нужно несогласие, нам нужно преодолеть свою естественную склонность к соглашательству и подчинению мнению авторитетов, необходимо поощрять сопротивление общепринятой точки зрения.
Другая опасная тенденция — когда человек на верху иерархии начинает автоматически считать себя всезнающими. Это иллюзия, которая дорого обходится. Так, в 1994 году американский Национальный совет по безопасности на транспорте опубликовал отчет, в котором указывалось, что около 75 процентов авиакатастроф происходили тогда, когда лайнером управлял командир, а не второй пилот. Психологически второму пилоту было сложнее делать замечания старшему по рангу.
Так и в других организация — рядовой сотрудник побоится выразить свою точку зрения, если в организации большая дистанция межу сотрудниками и руководством и слишком много символов власти. Даже когда руководитель поощряет сотрудника обращаться к нему в случае возникновения проблем, от сотрудника все равно требуется преодолеть барьер — самому сделать первый шаг, что может быть трудно психологически.
Необходимо побуждать сотрудников к открытости, а руководителям — всерьез выслушивать свой персонал. Так, авторы рассказывают о программе подготовки пилотов «Управление человеческими ресурсами экипажей» (Crew Resource Management — CRM). Цель этой программы состояла в том, чтобы научить пилотов тому, как нужно выражать несогласие. И хотя сотрудники встретили эту программу в штыки, она имела удивительные положительные результаты. То же самое справедливо для любой сферы, где сильна иерархия и сотрудники боятся перечить вышестоящим.
Руководителям нужно осторожно использовать символы власти, а во время совещаний выражать свое мнение последними.
Есть еще один важный фактор, который мы обычно не учитываем. Мы стремимся окружать себя похожими на нас людьми, нам с ними легче найти общий язык и проще взаимодействовать. Мы делаем бизнес с похожими людьми и нанимаем тех, кто похож на нас. Проблема только в том, что похожие люди мыслят похоже, а значит, они могут одинаково не замечать проблем. Именно поэтому полезна разнородность — гендерная, возрастная, расовая. Чем однороднее коллектив, тем больше его члены склонны к соглашательству. И хотя в разнородных коллективах мы чувствуем себя менее комфортно и уверенно, но, как показывают исследования, мы лучше замечаем ошибки, мы чаще не соглашаемся и можем вовремя обратить внимание на то, что важно. Поэтому нам необходимо сознательно преодолевать свою склонность окружать себя похожими людьми и понять, что споры, неудобные вопросы и несогласие несут пользу для общего дела.
Полезно также привлекать к проекту и людей со стороны — своего рода «чужаков». Они обладают незамутненным взглядом и могут заметить проблему, на которую никто не обращает внимания. Именно такие люди со стороны могут вовремя распознать источник будущего сбоя. Проектам нужен взгляд со стороны либо человек, который будет исполнять роль своего рода адвоката дьявола — его задачей будет найти все недостатки и слабые места проекта. То же самое будет справедливо и для личной жизни. Если перед вами стоит сложный выбор и вы чувствуете, что ваши эмоции мешают вам принять трезвое решение, посоветуйтесь с людьми со стороны, обладающими незамутненным взглядом.
Идея № 8. Целеустремленность может быть опасна
Понравились идеи спринта? Читайте также Великие на работе — ключевые идеи бестселлера Мортена Т. Хансена «Great at Work». (Впервые на русском!)
Зачастую на нас давят обстоятельства или другие люди, которым мы боимся возразить, но именно в такой напряженной ситуации мы особенно уязвимы и рискуем принять неправильное решение, которое очень дорого обойдется. Необходимо сделать перерыв, чтобы отстраниться от ситуации, включить разум, оглядеться по сторонам. Именно пауза помогает преодолеть эффект так называемой болезненной целеустремленности — склонности не замечать ничего вокруг, будучи ослепленным целью. Со стороны такие действия кажутся абсолютно нелогичными, но для человека, ослепленного целью, все идет как надо и он просто не замечает опасности.
Проблема усугубляется тем, что культура многих организаций будто специально создана, чтобы способствовать такой болезненной целеустремленности. Она выражается в лозунге «мы должны добиться этого любой ценой» — заключить контракт, доделать огромный проект к конкретной дате. Если сроки жесткие и сильно давление, то люди концентрируются только на краткосрочной цели и забывают о том, что реально важно в долгосрочной перспективе. В результате контракт заключается, но в спешке никто не замечает, что он предполагает кабальные условия, проект выполняется в срок, но небольшая ошибка в нем стоит компании репутации и все приходится начинать заново.
Как это изменить? Организациям необходимо поощрять сотрудников не только за достижение целей, но и за предотвращение проблем, даже если это требует от сотрудника признать свои ошибки. Если поощрение происходит при коллегах, то они будут видеть, что в организации поощряется правильное поведение, а значит, вероятно, и сами будут действовать правильно.
Тем не менее существуют очень жестко связанные системы, в которых сделать паузу не представляется возможным — счет идет на секунды — при возникновении неисправности в самолете или в случае резкого ухудшения состояния пациента в операционной. В этом случае надо преодолеть зацикленность — увидеть, что источник проблемы может быть в иной области, не той, на которую направлено внимание.
Для этого нужно пройти своего рода цикл:
- осуществить действие;
- проанализировать его;
- предложить новое действие.
Цикл помогает проверить и отбросить разные гипотезы. Как показали исследования, такой подход помогает врачам быстрее и точнее понять проблему с пациентом, а не зацикливаться на одном решении. Этот же подход можно использовать и в других сферах.
Заключительные комментарии
Несмотря на то что книгу «Неуязвимость» нельзя однозначно отнести к жанру деловой литературы, удачный стиль изложения, четкая структура, захватывающие примеры из истории и современности и большое количество идей и советы по их практическому применению делают эту книгу обязательным чтением для руководителей, собственников бизнеса и всех, кто интересуется темой снижения риска систем.
Что стоит сделать тем, кого заинтересовали идеи книги:
— Не доверять своей интуиции в вопросах принятия судьбоносных решений и оценки сроков выполнения проектов. Используйте альтернативный метод — SPIES.
— Чтобы лучше подготовиться к возможным будущим трудностям, при запуске нового проекта производить его анализ пре-мортем.
— Поощрять разнообразие на рабочем месте, привлекать «чужаков» для независимой оценки проектов.
— Найти «адвоката дьявола», который бы специально искал слабые места проекта.
— Бороться с собственными предвзятостями и психологическими ловушками.
— Поощрять культуру несогласия и открытости на рабочем месте.
— Избегать болезненной целеустремленности; поощрять сотрудников не только за результат, но и за предотвращение проблем.