Безопасность
July 25, 2025

II. Цензура на уровне обслуживания: корпоративная сеть блокировки

Продолжение..

Хваленый «Великий китайский файрвол» занимает важное место в воображении людей, но большая часть того, что обычный житель Китая видит или отправляет в интернете, никогда с ним не столкнётся. «Великий китайский файрвол» — это всего лишь цифровая граница, примыкающая к реальной и разделяющая внутреннее и внешнее пространство. Пока китайские интернет-пользователи отправляют групповые сообщения в WeChat, высказывают своё мнение на Weibo или ведут прямые трансляции на Kuaishou, передаваемая ими информация никогда не покинет внутреннее киберпространство. Конечно, он по-прежнему будет подвергаться слежке и цензуре, но это будет происходить с участием частных технологических компаний, которые согласились на это в обмен на возможность работать в Китае.

По сути, Китай передал цензуру внутри страны самим приложениям и платформам — это называется «цензура на уровне сервиса». Но это не значит, что всё, что компания удаляет со своего сайта, считается «цензурой». Помимо удаления контента по требованию правительства, компании проводят собственные чистки контента в соответствии со своими правилами — эта практика известна как «модерация контента» Например, компания может запретить пользователям размещать рекламу конкурирующих платформ и удалять любой контент, нарушающий это правило.

В чём разница между «цензурой» и «модерацией контента»? Наше определение цензуры, осуществляемой компанией, включает два ключевых компонента: во-первых, правительство должно официально или неофициально запросить или потребовать её; во-вторых, должна существовать угроза реальных последствий для компании, которая не подчинится. С другой стороны, модерация контента — это внутренние правила частной компании, определяющие, какие материалы она разрешает размещать на своей платформе. Несмотря на то, что массовая культура часто размывает это различие (например, американские СМИ и даже сами компании иногда называют модерацию контента на платформах «цензурой», а сотрудники китайских социальных сетей могут называть принудительную цензуру просто «модерацией контента»), это действительно важно для людей, выражающих своё мнение в интернете. Пользователь, которому не нравится политика платформы в отношении контента, может перейти на другую платформу, но гражданину, которому не нравятся законы о цензуре в его стране, возможно, придётся покинуть страну, если он хочет свободно публиковать свои посты. Пользователи, нарушающие политику платформы в отношении контента, могут лишиться своих аккаунтов, но гражданин, публикующий незаконные материалы, может оказаться в тюрьме.

Платформы по всему миру внедряют государственную цензуру в соответствии с местным законодательством. Китайские технологические компании не уникальны в том, что касается соблюдения правил государственной цензуры. Примечательны сами эти правила. Например, список запрещённого контента в Китае намного длиннее, чем в США, где в основном запрещены материалы о сексуальном насилии над детьми. Более того, пункты китайского списка часто сформулированы расплывчато, что позволяет властям запрещать практически всё что угодно. Например, в середине 2023 года официальная статистика кремаций начала исчезать как с правительственных сайтов, так и из социальных сетей. До этого данные показывали резкий рост числа кремаций после того, как правительство внезапно отказалось от политики нулевой терпимости к COVID, что противоречило официальным заявлениям о количестве смертей.

Некоторые конкретные темы, такие как резня на площади Тяньаньмэнь в 1989 году, не могут быть даже упомянуты публично, так как это подорвёт усилия правительства по сокрытию этих событий в памяти. Тем не менее китайское правительство может привлечь компании к ответственности за незаконный контент, независимо от того, знали ли компании заранее, что он незаконен. (Китайским законам должны подчиняться не только китайские компании; любые компании, работающие в Китае, подчиняются тем же правилам. Это касается как профессиональной социальной сети LinkedIn, которая до ухода из Китая использовала блокировку профилей, содержащих «деликатный» контент, так и Apple, которая помогает внедрять метацензуру, следя за тем, чтобы в китайской версии App Store не появлялись приложения из чёрного списка.)

Люди и машины: совместная цензура

Строгие правила, действующие в Китае, вынуждают китайские технологические компании тщательно контролировать пользовательский контент. С самого начала этим занимались реальные люди, которые сидели за отдельными компьютерами и проверяли, что пользователи публикуют на платформе. В 1996 году основательница одной интернет-компании рассказала репортёру, что, если разговоры в её дискуссионных группах становились слишком политизированными, «она их блокировала». С тех пор интернет-кафе, блоги, чаты, поисковые системы и платформы социальных сетей нанимают сотрудников специально для того, чтобы справляться с «настоящей головной болью» — цензурой контента в интересах режима. Эта головная боль только усилилась с распространением онлайн-контента местного производства. В 2019 году одно китайское издание сообщило, что у ByteDance, которая управляет Douyin и TikTok, «была армия из более чем трёх тысяч цензоров» только в одном городе Китая. В недавнем отчёте, опубликованном Фондом открытых технологий, отмечалось, что различные компании разместили более 1.В период с 2015 по 2022 год было опубликовано 7 миллионов объявлений о вакансиях, связанных с цензурой. Основными работодателями были компании, работающие в сфере социальных сетей и новостных СМИ, но нанимали сотрудников и другие компании: «нетрадиционные» работодатели, такие как торговые центры и сайты электронной коммерции, которым требовался персонал для цензурирования информации о товарах и маркетинговых материалов; а также более 3000 компаний, которые существуют только для того, чтобы предоставлять работников по контролю за информацией в качестве подрядчиков другим компаниям. На тех, кого нанимают для выполнения этих задач, оказывается сильное давление. Один из сотрудников отдела контроля информации крупной поисковой системы рассказал интервьюеру в 2024 году, что рядовые сотрудники (первые люди, проверяющие контент, на который поступила жалоба) ежедневно просматривают более 10 000 материалов, а проверяющие второго уровня (которые контролируют работу рядовых сотрудников) проверяют около 50 000 материалов.

Конечно, автоматизированные механизмы цензуры дополняют такой человеческий труд. С начала 2000-х годов различные поисковые системыв том числе американские, такие как Yahoo! — запрограммировали свои системы так, чтобы они не выдавали результатов при поиске по определённым сочетаниям ключевых слов. Google, как известно, подверг цензуре результаты поиска, чтобы в 2006 году запустить «google.cn», хотя, к большому огорчению Пекина, компания также уведомляла пользователей о том, что некоторые результаты не отображаются. (Ещё более известный случай: в 2010 году Google полностью убрал свою поисковую систему из Китая, когда обнаружил, что китайские хакеры проникли в их системы.) Блоги, форумы, провайдеры электронной почты и приложения для чата к концу десятилетия использовали ту или иную автоматизацию для фильтрации контента. Когда в 2010-х появились социальные медиа платформы, такие как Weibo и WeChat, они ввели определённую степень автоматической фильтрации, как и онлайн-видеоигры. Даже почти незаметные технологии, такие как автозаполнение (текст, который появляется по мере ввода в строку поиска), подвергаются фильтрации. По состоянию на 2022 год поисковая система Microsoft Bing предотвратил появление в результатах поиска любых терминов, которые китайское правительство считало «чувствительными», — не только для пользователей в Китае, но и для пользователей в США и Канаде.

Платформы обычно проводят автоматическую цензуру с помощью списков ключевых слов. Программное обеспечение платформ проверяет все публикации, и если в публикации содержится одно из ключевых слов, программа либо удаляет контент, нарушающий правила, либо отправляет его на проверку человеку. В некоторых случаях логика использования ключевых слов со временем усложнилась. Если некоторые термины, используемые по отдельности, приводят к удалению публикации, то другие термины вызывают удаление только при использовании в сочетании друг с другом. Обсуждая цензуру в новостях о нарушениях прав человека в Синьцзян-Уйгурском автономном районе на северо-западе Китая, сотрудник отдела по контролю за информацией сказал интервьюеру, что «термин “концентрационный лагерь” сам по себе не является деликатным. Он становится деликатным только в сочетании со словом “Синьцзян”». Различные сочетания ключевых слов также могут приводить к разным видамцензуры. Исследователи, изучающие цензуру в поисковых системах в 2023 году, обнаружили, что некоторые комбинации ключевых слов вызывали «жёсткую» цензуру (когда результаты поиска не отображаются), а другие — «мягкую» цензуру (когда отображаются только предварительно одобренные источники).

«Один из новых чат-ботов DeepSeek, в частности, отказывается отвечать на вопросы о таких темах, как вторжение Китая на Тайвань или резня на площади Тяньаньмэнь, говоря лишь, что он «пока не знает, как подходить к такого рода вопросам». Или же модель даёт ответ, который удаляет через несколько секунд, заменяя его фразой «Давайте поговорим о чём-нибудь другом».»

Сложность и непрозрачность этой системы только возросли по мере того, как компании усиливали автоматизированную цензуру с помощью машинного обучения. Сотрудник отдела контроля информации объяснил, что прежде чем цензоры-люди успеют проверить контент, «ИИ уже заблокирует большую его часть с помощью фильтрации по ключевым словам... мы, модераторы контента, не видим этого». Но он также выразил уверенность в том, что людям всегда будет отведено место в этой системе: «человеческий контроль необходим. Машины могут модерировать только очевидный контент, в то время как люди способны замечать нюансы». Отчет с анализом объявлений о найме сотрудников для контроля информации подтверждает эту мысль. В нем не было обнаружено доказательств того, что «технологические прорывы в области анализа текста или изображений, патенты компаний и обновления в программном обеспечении для цензуры оказывают существенное влияние на набор людей для работы в сфере цензуры».

Автоматическая цензура становится ещё более сложной, если учитывать новейшие технологии, такие как большие языковые модели (БЯМ) и чат-боты с искусственным интеллектом, которые должны быть зарегистрированы в Управлении киберпространства Китая (Cyberspace Administration of China, CAC), а их результаты должны соответствовать китайским законам. Цензура чат-ботов может осуществляться в два этапа. Во-первых, когда компании создают и обучают БЯМ, они могут ограничивать доступ БЯМ к информации или иным образом давать ей указания предоставлять цензурированные ответы на запросы. До недавнего времени было неясно, ухудшит ли такое вмешательство в работу модели качество результатов, но сейчас можно с уверенностью сказать, что китайские языковые модели работают достаточно хорошо, чтобы не беспокоиться об этом. Во-вторых, во время взаимодействия пользователя с чат-ботом в режиме реального времени работает отдельный механизм проверки «после обучения». Механизм проверки отслеживает вводимые пользователем данные и ответы чат-бота на предмет «деликатных слов» и при их обнаружении прерывает чат. Китайская компания-разработчик программного обеспечения Qihoo 360 использует этот механизм «последующего обучения» вместе с людьми-рецензентами, которые вручную проверяют чаты и обновляют чёрный список модели. В сочетании с «обучением согласованию ценностей», в ходе которого разработчики стремятся наделить ответы чат-ботов «основными социалистическими ценностями», этот метод помогает удерживать китайских чат-ботов в рамках политической корректности.

На то, какой ответ вы получите от чат-бота, созданного в Китае, влияет несколько факторов. Все компании разрабатывают или настраивают свои большие языковые модели в соответствии со своими требованиями, поэтому чат-боты разных компаний могут не повторять тезисы Пекина в одинаковой манере. Кроме того, китайский чат-бот, работающий на облачном сервере предоставит больше ответов с цензурой, чем тот же чат-бот, запущенный на иностранном сервере — отдельного механизма проверки входных и выходных данных “после обучения” на международном уровне нет. Однако мы знаем, что в некоторых китайских LMS по крайней мере на первом этапе предусмотрена некоторая цензура, что означает, что они будут предоставлять ответы, не подвергнутые цензуре или, по крайней мере, сильно предвзятые, независимо от того, в какой точке мира вы находитесь.

Несомненно, технологические компании будут совершенствовать свой политический мониторинг по мере того, как они будут совершенствовать сами модели. Китайская компания DeepSeek, как и другие производители больших языковых моделей по всему миру, постоянно работает над созданием моделей, которые производят меньше лжи и «галлюцинаций», одновременно улучшая возможности моделей по цензурированию. Исследователи, оценивающие модель LLM DeepSeek, обновлённую 28 мая, называют её «самой строго контролируемой версией DeepSeek». Один из новых чат-ботов DeepSeek, в частности, отказывается отвечать на вопросы о таких темах, как вторжение Китая на Тайвань или резня на площади Тяньаньмэнь, говоря лишь, что он «пока не знает, как подходить к такого рода вопросам». Или же модель даёт ответ, который удаляет через несколько секунд, заменяя его фразой «Давайте поговорим о чём-нибудь другом».

Препятствование обходным путям, скрытно

Компании адаптировали свои автоматизированные методы, чтобы успевать за надоедливыми пользователями, которые по какой-то причине не перестают высказывать своё мнение в интернете. Например, ещё в 2015 году пользователи всё ещё могли использовать омофоны для маскировки своих сообщений, что помогало им сохранять посты в сети в три раза дольше, чем аналогичные посты без омофонов. (И мандаринский, и кантонский диалекты китайского языка являются тональными, содержат большое количество омофонов и используют иероглифическую письменность, то есть один звук может быть записан десятками разных способов. Например, интернет-пользователи некоторое время использовали фразу zhèngfǔ (正腐), или «полностью прогнивший», вместо zhèngfǔ (政府), что означает «правительство», пока первая фраза не была запрещена.) Но к 2021 году и Baidu, и Tencent начали проверять наличие омофонов, что в значительной степени снизило их эффективность как инструмента обхода цензуры.

Такая техническая цензура распространяется и на нетекстовый контент. WeChat к 2017 году внедрил автоматическую проверку изображений, чтобы пользователи не могли отправлять запрещённые изображения, такие как знаменитая фотография «Человека с танком» на площади Тяньаньмэнь в 1989 году. Алгоритмы проверки изображений также препятствовали популярному способу обхода цензуры: наложению текста на изображение, которое легко читается человеком, но сложнее распознаётся машиной как текст. Платформы для прямых трансляций также используют автоматизированные механизмы проверки аудио- и видеофайлов, а также текста. В отчёте Комиссии по ценным бумагам и биржам за 2020 год стриминговая платформа Huya написала,

Наш автоматизированный механизм проверки с использованием искусственного интеллекта служит первым уровнем защиты в нашей системе проверки контента. Эта система автоматически помечает и отсеивает прямые трансляции, в которых присутствуют неприемлемые или незаконные аудио-, видеоматериалы, комментарии или чаты, сравнивая изображение, звук или текст с нашими базами данных в режиме реального времени. После того как контент обработан нашим автоматизированным механизмом проверки с использованием искусственного интеллекта, система извлекает из него идентификаторы и отправляет их нашей команде по ручной проверке контента, второму уровню защиты, для дальнейшей проверки.

По мере того как платформы со временем совершенствовали свои системы цензуры, они также меняли способы информирования пользователей об этой цензуре. Ещё в 2012 году Weibo начал «маскировать» посты с запрещёнными ключевыми словами, то есть создавать у пользователей впечатление, что они успешно опубликовали пост, хотя на самом деле он был скрыт от других пользователей. WeChat предпринял аналогичный шаг в 2016 году, когда перестал публиковать уведомления о цензуре, чтобы пользователи не знали, что человек на другом конце их чата не получает всё, что они отправляют. В том же году некоторые китайские поисковые системы начали удалять заявления об отказе от ответственности за цензуру, которые предупреждали пользователей о том, что они получают не все релевантные результаты. Платформы также могут «тенево банить» целые аккаунты, делая контент конкретного пользователя невидимым для всех, кроме него самого, хотя это явление не было тщательно задокументировано.

Эти изменения свидетельствуют о том, что на китайских платформах происходит переход от открытой цензуры (когда платформы прямо сообщают пользователям, что контент был подвергнут цензуре) к скрытой цензуре (когда платформы скрывают факт цензуры, не предупреждая пользователей). По состоянию на 2023 год многие популярные онлайн-платформы, в том числе поисковые системы, сервисы для обмена видео и сайты электронной коммерции, применяют скрытую цензуру.

Противоречия между бизнесом и государством

Независимо от платформы или механизма цензуры, компании в основном сами составляют списки запрещённых ключевых слов и изображений. Пекин даёт рекомендации по конкретным случаям. Например, в августе 2023 года власти потребовали, чтобы платформы

Проведите комплексную очистку всего контента, связанного с группой “Slap” (удалите записи в энциклопедии, поисковые запросы, видео, тексты песен и рекламные материалы; удалите темы и хэштеги, закройте “тематические панели” Baidu Tieba и удалите всю связанную с ними продукцию) и их песнями (включая “Восемнадцать побед Red Child”, “Восемнадцать темных искусств мастера Бао”, “Восемнадцать поколений дяди Пэна”, “Восемнадцать гексаграмм Босса Бэя”, “Восемнадцать запретов директора Ма”, ”Восемнадцать стихов директора Ланга" и т.д.), содержащими разоблачениям и критике [группы или их песен] будет разрешено оставаться в Сети.

Однако в подавляющем большинстве случаев компаниям приходится полагаться на собственное суждение и опыт при обновлении собственных списков блокировки ключевых слов. Исследования снова и снова показывают, что списки блокировки различаются в зависимости от компании и времени, что подтверждает тот факт, что компании не получают от правительства исчерпывающие списки блокировки и вынуждены составлять их самостоятельно. Это имеет смысл, если цель Пекина — поощрять жёсткую цензуру на платформах: если бы правительство предоставляло компаниям чёрные списки, то всё, чего в них не было, служило бы для платформ своего рода индульгенцией: они могли бы заметить сомнительный контент, но предпочли бы просто следовать чёрному списку. Вместо этого при нынешней системе платформа, которая не уверена, где именно проходит красная линия, может перестраховаться и подвергнуть цензуре всё, что, по её мнению, приближается к этой линии.

Однако у компаний также есть финансовый стимул к тому, чтобы интересный контент оставался в сети как можно дольше. Согласно исследованию специалиста по вычислительной социологии Блейка Миллера, который изучил подвергнутые цензуре посты и чаты компании Weibo, «платформы не подчиняются директивам и руководствуются рыночными стимулами, которые не согласуются с государственной цензурой... [это] опровергает распространённое мнение о том, что результаты цензуры отражают предпочтения государства в области цензуры. Вместо этого частные платформы могут подрывать планы государственных органов по контролю информации, особенно если это улучшает пользовательский опыт и вовлечённость». Или, как выразилась отдельная команда компьютерщиков, “Weibo должна проводить ровно столько цензуры, чтобы соответствовать правительственным постановлениям, но при этом не быть настолько навязчивой, чтобы отбивать у пользователей охоту пользоваться их сервисом”.

Тем не менее отдельные пользователи всё ещё могут пользоваться платформами, которые подвергают цензуре чуть более жёстко. Даниэла Штокманн, профессор в области цифрового управления в Школе Херти в Берлине, отмечает, что «люди переходят на разные платформы в зависимости от определённых тем. В Китае нет рынка для более жёсткой цензуры. Люди переходят на платформы с более жёсткой цензурой по другим причинам», например из-за типа пользователей или тем для обсуждения.

Это напряжение между партийно-государственным аппаратом Китая, который заставляет платформы тщательно удалять запрещённый контент сразу после его появления, и технологическими компаниями, которые хотят создавать максимально увлекательные онлайн-форумы, вызывает подозрения. Власти не до конца доверяют компаниям, которые внедряют цензуру без надзора. Помимо периодических онлайн- кампаний по очистке (чтобы интернет был «чистым и светлым»), чиновники проводят более систематические проверки соблюдения платформами цензурных мер. В 2020 году, согласно информации о государственных закупках в Китае, CAC наняла Институт информационной инженерии при Китайской академии наук для разработки автоматизированной системы, которая будет размещать запрещённые материалы на различных коммерческих платформах и тестировать их реакцию в режиме реального времени.

Популярность вызывает пристальное внимание

Платформы не просто удаляют посты пользователей. Они также сообщают о некоторых пользователях напрямую государственным органам. Исследование 2021 года показало, как компании выбирают пользователей, о которых нужно «сообщить»: «Существенные темы, хотя и важные, имеют меньшее значение, чем влияние пользователя и его популярность», — пишут авторы Мэри Галлахер и Блейк Миллер. «Содержание поста менее важно, чем то, кто его публикует и сколько людей его репостят». По сути, любой человек, обладающий достаточным влиянием в интернете, попадёт в поле зрения правительства благодаря этим сообщениям компаний. Затем правительство может привлечь на свою сторону этих «ключевых лидеров общественного мнения» или усилить контроль за ними, чтобы они не выходили за рамки дозволенного.

«Докладывают наверх» означает, что власти заботятся не только о том, что говорится в интернете, но и о том, кто это говорит. Популярные личности привлекут гораздо больше внимания со стороны правительства, в то время как малоизвестным пользователям с небольшим количеством подписчиков, возможно, удастся избежать официального контроля. Специфика социальных сетей требует, чтобы власти и компании принимали особые меры предосторожности против нежелательного распространения контента. Обеспечение того, чтобы определённые пользователи или их посты оставались незамеченными, может быть почти таким же эффективным, как их фактическая блокировка


продолжение следует..,