May 22

Маркировка ИИ-контента и его регуляция в маркетинге: что сейчас происходит и какие есть тенденции

Контент, написанный ИИ, уже привлекает внимание систем регулировки, в том числе на государственном уровне. Политики призывают к строгим правилам по отношению к контенту, а платформы вводят запреты на ИИ-контент.

По некоторым оценкам, к 2026 году до 90% онлайн-контента будет создано ИИ. Это требует от управления технологической информации (PSM) сохранить доступ пользователей к достоверной информации.

Регулирование ИИ не ограничивается одной страной или регионом. Европейский Союз ввел закон об искусственном интеллекте. Это первый в мире закон об искусственном интеллекте, целью которого — создать единый подход к управлению ИИ.

Важный момент по регулированию: все системы искусственного интеллекта должны контролировать люди, а не автоматизация.

Правительство США также работает над тем, чтобы ИИ не стал инструментом распространения ложной информации. Поэтому платформы Google и Facebook проявляют осторожность — они не хотят привлекать нежелательное внимание со стороны регулирующих органов. Это усложняет работу для платформ и создателей контента по всему миру.

Разбираемся, что происходит с ИИ, как маркируют подобный контент и как площадки реагируют на законы о запрете сгенерированного контента.

Что стало спусковым крючком для регуляции и какие санкции применяют

Регуляция контента с помощью искусственного интеллекта не появилось на пустом месте. Сразу несколько государств решило принять меры по регулированию работы ИИ в интернете.

США

В США регулирование ИИ находится на этапе активного обсуждения и разработки. Президент подписал Исполнительный указ о безопасной, надежной и ответственной разработке и использовании ИИ в октябре 2023 года, который устанавливает общие принципы и требования для разработки ИИ.

Какие законы регулируют ИИ-контент:

Китай

В Китае регулирование ИИ пока только на этапе разработки, с отдельными правилами для разных видов технологий, включая рекомендательные алгоритмы и дипфейки. Но с 2023 года разрабатывается аналог европейского AI Act, который будет представлен в 2024 году.

Европейский Союз

В декабре 2023 года ЕС принял Закон об искусственном интеллекте (AI Act), который считается одним из строгих законов в этой области. Он требует от компаний, разрабатывающих ИИ, прозрачности и ответственности за потенциальный вред.

Эти законы нужны, чтобы не было распространения дипфейков и недостоверной информации при помощи ИИ-контента. Считается, что мощные модели искусственного интеллекта, такие как GPT-4 от OpenAI и Gemini от Google, могут быть опасными для граждан и поэтому требуют дополнительной проработки для соответствия стандартам ЕС.

«Новые технологии искусственного интеллекта могут стать силой добра и предложить новые возможности для повышения эффективности и творческого самовыражения. Но, как всегда, мы должны помнитьо темной стороне этого вопроса, которая несёт новые риски, и потенциально может привести к негативным последствиям для общества», — заявила Еврокомиссар Журова.

Кодекс о дезинформации подписали 44 человека, в том числе такие технологические гиганты, как Google, Facebook и Microsoft, небольшие рекламные компании и организации гражданского общества.

Кроме этого, сейчас обсуждается не только правовое регулирование, но и решения по распознаванию ИИ-контента и его маркировки. Например, разрабатывают инструменты для идентификации медиа, которые созданы при помощи искусственного интеллекта. В первую очередь это используют платформы, которые подписали кодекс о дезинформации.

Как отреагировали крупные площадки: Google, Meta и TikTok

Первые попытки такой маркировки уже предпринимаются на разных платформах — в последние месяцы такие компании, как Google, Meta и TikTok, стали изучать стратегии оповещения пользователей о контенте, который был создан или изменен с использованием искусственного интеллекта.

Что Google изменил в руководстве

Google просит помечать контент, который создан через AI. Этот пункт не так давно появился в Руководстве для веб-мастеров.

Площадка недавно пересмотрела свои рекомендации EEAT – Опыт, Экспертиза, Авторитетность и Надежность. Параллельно представители Google заявили, что контент, созданный искусственным интеллектом, разрешен в выдаче поисковых систем.

Технический гигант использует методы для идентификации и пометки генерируемого контента, включая алгоритмы обработки естественного языка (NLP), которые анализируют текст на наличие шаблонов и синтаксиса, характерных для ИИ.

Как Google определяет ИИ-спам на сайте: у компании есть много систем, таких как SpamBrain, которые анализируют шаблоны и сигналы, чтобы идентифицировать спам, созданный при помощи ИИ.

Поисковик также ищет слова или фразы, которые часто используют системы искусственного интеллекта, например «согласно исследованиям» или «данные предполагают».

Но приоритет Google отдает контенту, который создан людьми для людей, и часто это подчеркивает.

Изменения коснулись и Youtube — компания сделала новый раздел по поводу маркировки контента, созданном при помощи ИИ. Площадка требует, чтобы авторы сообщали об использовании нейросетей и искусственного интеллекта при подготовке видео.

О чем следует сообщать:

  • Сгенерированная музыка и клонирование голоса человека для использования в закадровой речи;
  • Искусственно созданные кадры, дополняющие съемки реально существующего места;
  • Измененная аудиозапись, на которой популярный певец якобы не попадает в ноты во время концерта;
  • Реалистичное изображение урагана или другого стихийного бедствия, якобы надвигающегося на реально существующий город;
  • Кадры, на которых известный человек совершает кражу, хотя он этого не делал, или признается в краже, хотя на самом деле он не делал таких заявлений.
  • Контент, создающий впечатление, будто реальный человек был арестован или отправлен в тюрьму.

После этого Youtube будет ставить плашку, что в контенте есть элементы, созданные при помощи ИИ. Если автор сообщил об использовании искусственного интеллекта, то монетизация с него не снимается.

Компания сделала шаг вперед, предварительно маркируя видео, связанные с «деликатными темами», такими как «здоровье, новости, выборы или финансы».

Что изменилось в Meta

Meta в апреле 2024 года представила политику маркировки контента, созданного искусственным интеллектом, на своих платформах. С мая 2024 года компания введёт специальную метку для контента, сгенерированного искусственным интеллектом. Эта политика распространится на Instagram, Facebook и Threads.

Она начнет действовать в мае и установит новый стандарт прозрачности.

Изменение политики, направленное на повышение осведомленности пользователей, требует, чтобы ИИ-контент в Facebook и Instagram был помечен ярлыком «Сделано с помощью искусственного интеллекта». Этот шаг — прямой ответ на растущую обеспокоенность по поводу подлинности и происхождения онлайн-контента.

Подход Meta включает в себя как автоматическое обнаружение сигналов ИИ, так и возможность пользователям самостоятельно раскрывать контент, созданный ИИ.

Сама компания заявила, что вносит изменения в свою политику на основе отзывов, полученных от наблюдательного совета, который проконсультировался с более чем 120 заинтересованными сторонами в 34 странах для разработки новых правил.

Как адаптировался TikTok

В январе 2024 года TikTok объявил, что он будет требовать, чтобы контент, созданный или значительно измененный ИИ, имел отдельную метку, и будет регулировать это через приостановку или удаление учетной записи.

TikTok будет использовать технологию «учетных данных контента», которая прикрепляет метаданные к фрагменту контента и указывает, что он создан с помощью ИИ. В ближайшие месяцы он будет прикреплять учетные данные к контенту, созданному с помощью искусственного интеллекта и созданному в приложении.

Что это значит для маркетинга и стоит ли беспокоиться

ИИ продолжает развиваться, поэтому будут меняться и правила, регулирующие его применение. Вебам крайне важно оставаться в курсе событий и адаптироваться.

Маркировка ИИ-контента повышает доверие потребителей и помогает бороться с дезинформацией. Здесь также остро стоит вопрос, связанный с этичностью — часто с помощью нейросетей создают дипфейки. Или используют голоса знаменитостей и популярных людей в своих целях.

Один из знаменитых дипфейков — фото папы римского, Франциска, в пуховике. ИИ создал его настолько реалистичным, что первые несколько дней никто и не думал, что это ненастоящее фото.

Причем дипфейки работают как с текстом, фото, так и с видео. Отличный пример — видео «Это не Морган Фримен».

Недавно также разгорелся скандал со Скарлетт Йоханссон: по словам актрисы, ее голос использовали без разрешения во время презентации новых возможностей ИИ. OpenAI отрицает, что ее голос ChatGPT основан на голосе Йоханссон, но он определенно очень похож на нее.

Актриса требует, чтобы представители компании подробно описали точный процесс, с помощью которого они создали» голос Sky. Пока что те все отрицают.

Причем пострадать от нейросетей и ИИ-контента могут не только голливудские знаменитости, но и обычные люди. Например, актриса дубляжа в 2019 году подала в суд на «Тинькофф Банк» из-за использования ее голоса для синтеза аудиорекламы игровых трансляций, эротических чатов и коммерческой рекламы. На это она не давала согласие, и на момент подписания договора еще не было такого бума нейросетей.

Чтобы обнаружить ИИ-контент, используют разные сервисы. Например, самые популярные из них:

  • Hive Moderation — инструменты для обнаружения поддельного контента, созданного с помощью ИИ, включая изображения и видео.
  • Sensity AI — специализируется на выявлении дипфейков и других типов подобного мультимедийного контента.

Маркировка ИИ-контента позволяет пользователям понимать, какой контент создан или изменен с помощью ИИ, что укрепляет доверие к платформам. Подобные плашки помогают быстро выявлять и отмечать такой контент, снижая риск его использования для обмана общественности.

Как это может повлиять на маркетинг в целом:

  • При загрузке контента на площадке придется указывать, что контент содержит части с ИИ.
  • Повышение прозрачности в рекламе. Это важно для поддержания доверия и избежания обвинений в манипуляциях и дезинформации.
  • Нужно будет адаптироваться к новым регуляциям. Компаниям нужно будет проводить обучение для сотрудников, а также заниматься разработкой стратегии для использования ИИ при соблюдении всех норм.

И все равно некоторые специалисты считают, что маркировка ИИ-контента может привести к проблемам в маркетинге. Например, злоумышленники могут помечать достоверную информацию плашкой ИИ.

Быстрое развитие технологий искусственного интеллекта создает проблемы во всех областях регулирования. Правильно, что площадки быстро реагируют на законы и создают пометки для пользователей. Пока что маркировка контента скорее положительно отразиться на контенте площадок и даст уверенность людям.

*статья для ZM media написана сторонним автором NeuroVisioner