security
June 19, 2020

Deepfakes не супер хороши, так же как и инструменты для их обнаружения

Алгоритм победивший в конкурсе под руководством Facebook пропустил треть фэйков.

Сравнение оригинального и фальшивого видео генерального директора Facebook Марка Цукерберга.

Нам повезло, что фэйк видео пока не являются большой проблемой. Лучший глубинный детектор, появившийся после масштабных усилий под руководством Facebook по борьбе с измененными видео, поймал бы только две трети из них.

В сентябре, когда выросли предположения об опасности фальшивых подделок, Facebook бросил вызов мастерам искусственного интеллекта для разработки методов обнаружения фальшивых видео. В январе компания также запретила подделки, используемые для распространения дезинформации.

Facebook Deepfake Detection Challenge, в сотрудничестве с Microsoft, Amazon Web Services и Партнерством по искусственному интеллекту , проходил через Kaggle , платформу для соревнований по кодированию, которая принадлежит Google. Он предоставил обширную коллекцию видеороликов о смене лица: 100 000 фальшивых клипов, созданных Facebook с использованием платных актеров, на которых участники тестировали свои алгоритмы обнаружения. Проект привлек более 2000 участников из промышленности и научных кругов, и он сгенерировал более 35 000 моделей обнаружения глубоких фальшивок.

Лучшая модель, появившаяся на конкурсе, обнаружила подделок из коллекции Facebook чуть более 82 процентов времени. Но когда этот алгоритм был протестирован с набором ранее невиданных глубоких подделок, его производительность упала до чуть более 65 процентов.

«Это все хорошо и полезно для помощи модераторам, но это, очевидно, даже не близко к тому уровню точности, который вам нужен», - говорит Хани Фарид , профессор Калифорнийского университета в Беркли и специалист по цифровой криминалистике, знакомый с Facebook. вел проект. «Вам нужно делать ошибки порядка одного на миллиард, что-то в этом роде».

Deepfakes используют искусственный интеллект для того, чтобы в цифровой форме привить лицо человека к кому-то еще, создавая впечатление, будто этот человек сделал и сказал то, чего никогда не делал. На данный момент большинство подделок странные и забавные ; несколько появилось в умных рекламных объявлениях .

Беспокойство заключается в том, что в один прекрасный день глубокие подделки могут стать особенно мощным и мощным оружием для политической дезинформации, разжигания ненависти или преследований, распространяющихся вирусно на таких платформах, как Facebook. Панель для создания глубоких подделок является крайне неприятной, так как простые программы «укажи и щелкни», созданные на основе алгоритмов ИИ, уже свободно доступны.

«Разочарование»

«Лично я был очень разочарован тем, сколько времени и энергии умные исследователи затрачивают на создание более качественных фальшивых подделок», - говорит Майк Шропфер, технический директор Facebook. Он говорит, что задача состояла в том, чтобы побудить «широкую индустрию сосредоточиться на инструментах и ​​технологиях, которые помогут нам обнаружить эти вещи, чтобы, если они используются злонамеренно, мы масштабировали подходы к борьбе с ними».

Шрепфер считает результаты конкурса впечатляющими, учитывая, что у участников было всего несколько месяцев. Глубокие подделки еще не являются большой проблемой, но Шрёпфер говорит, что важно быть готовым в случае, если они вооружены. «Я хочу быть действительно готовым ко многим плохим вещам, которых никогда не бывает, а не наоборот», - говорит Шропфер.

Алгоритм первоочередной оценки от глубокого поддельного задания был написан Селимом Сефербековым, инженером машинного обучения в Mapbox, который находится в Минске, Беларусь; он выиграл 500 000 долларов. Сефербеков говорит, что пока он не особо беспокоится о подделках.

«В настоящее время их вредоносное использование довольно мало, если таковые имеются», говорит Сефербеков. Но он подозревает, что улучшенные подходы машинного обучения могут изменить это. «Они могут оказать какое-то влияние в будущем так же, как в настоящее время пишут поддельные новости». Алгоритм Сефербекова будет открытым исходным кодом , чтобы другие могли его использовать.

Кот и мышь

Поймать глубоких подделок с помощью искусственного интеллекта - игра в кошки-мышки. Алгоритм детектора может быть обучен обнаружению глубоких подделок, но затем алгоритм, который генерирует подделки, потенциально может быть обучен, чтобы избежать обнаружения. Schroepfer говорит, что это вызвало некоторую обеспокоенность по поводу выпуска кода из проекта, но Facebook пришел к выводу, что это стоило риска, чтобы привлечь больше людей к работе.

По словам Шрёпфера, Facebook уже использует технологию автоматического обнаружения некоторых фальшивых подделок, но компания отказалась сообщить, сколько фальшивых видео было помечено таким образом. По словам Шрёпфера, часть проблемы с автоматизацией обнаружения глубоких подделок заключается в том, что некоторые из них просто интересны, а другие могут причинить вред. Другими словами, как и другие формы дезинформации, важен контекст. И это трудно понять машине.

По словам Фарида из Калифорнийского университета в Беркли, создать действительно полезный детектор глубокого фальшивки может быть еще сложнее, чем предполагают участники конкурса, потому что быстро появляются новые технологии, и злоумышленник может сделать все, чтобы перехитрить конкретный детектор.

Фарид подвергает сомнению ценность такого проекта, когда Facebook, похоже, не хочет контролировать контент, который загружают пользователи. «Когда Марк Цукерберг говорит, что мы не арбитры истины, почему мы это делаем?» он спросил.

Даже если политика Facebook должна была измениться, Фарид говорит, что у компании, занимающейся социальными сетями, больше проблем с дезинформацией. «Хотя глубокие подделки являются новой угрозой, я бы посоветовал нам не отвлекаться на них», - говорит Фарид. «Они нам пока не нужны. Простые вещи работают».

YouTube- и Reddit-каналы c дипфейк-роликами.

Руководство DeepFaceLab на русском языке

Русскоязычный телеграм-канал


source wired.com