August 25, 2020

Студент использовал ИИ-модель, которая обманула десятки тысяч хакеров

Пост, написанный алгоритмом ИИ на основе GPT-3, стал #1 на портале Hacker News. Об этом сообщило MIT Technology Review.

Проще, чем кажется

Студент американского колледжа создал модель искусственного интеллекта на основе GPT-3 для написания фальшивого поста в блоге. В результате, пост оказался в топе портала Hacker News, и только несколько человек заметили что-то неладное.

Все начиналось, как простой эксперимент. Лиам Порр захотел продемонстрировать, что контент, написанные GPT-3, может заставить людей поверить в то, что он написан человеком.

"Это оказалось очень просто сделать. Что и было самым страшным", — прокомментировал студент Калифорнийского университета в Беркли Лиам Порр.

Доступ только в благих целях

Крупная исследовательская лаборатория в сфере ИИ — OpenAI создала новый NLP-алгоритм (natural language processing — обработка естественного языка) для написания текстов — GPT-3. По словам разработчиков, алгоритм настолько хорош, что человеку будет тяжело отличить текст написанный ИИ, от человеческого. Этим он и опасен.

«Как и все системы глубокого обучения, GPT-3 ищет закономерности в данных. Чтобы упростить задачу, программа была обучена на огромном пласте текста, который предоставляется для выявления статистических закономерностей. Эти закономерности неизвестны людям, но они хранятся в виде миллиардов соединений между различными узлами нейронной сети GPT-3. Важно отметить, что в этом процессе не участвует человек: модель находит шаблоны без каких-либо указаний», — отмечается в описании алгоритма.

OpenAI решила предоставить доступ к GPT-3 исследователям только в частной бета-версии, и только после рассмотрения их заявки, чтобы понимать в каких целях будет использоваться алгоритм.

Порр нашел аспиранта, у которого уже был доступ к алгоритму и который согласился работать с ним над экспериментом. Он написал сценарий, который давал GPT-3 заголовок и вступление в блог.

По словам Порра, уязвимым местом GPT-3 является не красота слога (как раз красотой текста и отличается новый алгоритм), а в отсутствии логики и рациональности в текстах. Поэтому для блога студент выбрал темы, которые были на слуху и не нуждались в изящной логике (то, что так любят лайф-коучы): продуктивность и самоусовершенствование.

Непродуктивный? Возможно стоит перестать заморачиваться

Модель сгенерировала несколько версий сообщения. Для Hacker News Порр выбрал пост с названием "Feeling unproductive? Maybe you should stop overthinking" и опубликовал от имени фейкового автора с псевдонимом adolos.

Пост ИИ-модели под псевдонимом "adolos" — №1 на Hacker News.

Пост стал вирусным за несколько часов, а блог посетили более 26 000 человек. И только три-четыре человека задались вопросом, было ли сообщение создано искусственным интеллектом. Хотя такие комментарий быстро «захейтили».

Вскоре заметка adolos, посвященная чрезмерному размышлению, выбилась в топ портала Hacker News и заняла там первое место.

Пострадает качество контента

Этот эксперимент, конечно, демонстрирует реальные возможности алгоритмов ИИ в области написания текста. Но на данном этапе ИИ не заменит авторов — текстам, особенно на серьезные тематики, сильно не хватает логики в структуре и повествовании.

В тоже время, этого будет вполне достаточно тем, кто захочет использовать GPT-3 в целях клик-бейта. Качество контента в интернете и без этого страдает, а теперь упадет еще ниже, говорит Порр.