ИИ замечательно хорошо пишет ложные новости без участия человека, и люди на это попадаются
Дезинформация существует на протяжении веков, но поскольку существует больше способов связать любой голос, который хочет быть услышанным, с глобальной аудиторией, эта проблема только усугубляется. Никто не застрахован - на самом деле, люди, которые считают, что они невосприимчивы к нему, больше всего страдают от ложных новостей . Большая часть дезинформации в Интернете может быть связана с несколькими избранными учетными записями , вероятно, намеренно распространяющими их ложные рассказы. Но по мере того, как алгоритмы машинного обучения и искусственный интеллект начинают выходить на глобальную арену, может ли распространять дезинформацию для таких людей намного проще?
Отчет в Центр по безопасности и Emerging Technology (CSET) предполагает , что это , конечно , может, и пользователи Интернета могут быть чрезвычайно уязвимы к нему.
Исследователи из CSET, которые часто исследуют конфиденциальность в Интернете и влияние ИИ на общество, хотели выяснить, насколько успешно ИИ с открытым исходным кодом можно использовать для создания дезинформации и убеждения людей отказаться от их взглядов на политические темы. Они использовали OpenAI GPT-3 , свободно доступный искусственный интеллект, который может генерировать текст на основе данных, вводимых людьми, и либо позволял ему свободно перемещаться при создании ложного текста, либо давал возможность опытному редактору свободно перемещаться с вводом кампаний по дезинформации. Алгоритм работал хорошо, пока был бесплатным, но под пристальным вниманием редактора он действительно сиял.
Они экспериментировали с шестью разными задачами, направленными на продвижение той или иной формы повествования с помощью различных методов. Задачи варьировались от повествовательного повторения, которое предписывало GPT-3 создавать короткие сообщения, продвигающие повествование (например, отрицание изменения климата), до повествовательного разрыва, нацеленного на определенные демографические группы, чтобы усилить разделение. GPT-3 на удивление - и несколько тревожно - хорошо справился со всеми задачами, но действительно преуспел в повествовании повествования. При очень небольшом участии человека GPT-3 генерировал небольшие строки текста, которые казались удивительно убедительными, когда выступали против изменения климата.
«Она явно не ученый, в котором наука - это поиск« абсолютной истины »и не имеет отношения к ее политическим пристрастиям и целям. Она, честно говоря, олицетворяет все, что не так в попытках политизации науки людьми с не столь скрытыми намерениями ». написал в Твиттере GPT-3, говоря о Грете Тунберг.
ИИ был даже способен переписывать новостные статьи с целью изменить повествование, используя негодование и зажигательные тона, чтобы вызвать эмоциональную реакцию у читателя.
Согласно другому политическому сценарию, GPT-3 смогла полностью изменить точку зрения некоторых людей, при этом у респондентов на 54 процента больше шансов согласиться с такой позицией после того, как им был показан предвзятый текст, созданный ИИ.
Исследователи считают, что ИИ с открытым доступом, такой как GPT-3, можно легко использовать в кампаниях по дезинформации, и во многих случаях сгенерированный текст трудно отличить от обычного пользователя Интернета. Эти результаты могут быть даже на низком уровне того, что возможно с таким алгоритмом, поскольку контролируемые настройки, вероятно, будут давать несколько другие результаты по сравнению с простым просмотром социальных сетей и натиском на фрагмент дезинформации.
Тем не менее, GPT-3, безусловно, способен полностью сфабриковать повествования и убедить большую часть пользователей - и он гораздо лучше лжет, чем говорит правду.
«Наше исследование намекает на предварительный, но тревожный вывод: такие системы, как GPT-3, кажутся более подходящими для дезинформации - по крайней мере, в ее наименее тонких формах - чем информация, более искусные басни, чем стойкие рассказчики правды», - пишут авторы.