Наука для людей
May 15, 2022

Ученые научили ИИ определять потребности людей по их профилю в соцсети. Зато Google и Facebook этим заняты уже давно

Специалисты из Университета Каталонии обучили алгоритм идентифицировать содержание изображений и категоризировать текст, маркируя его ярлыками, предложенными психологами. Об этом сообщается в статье EurekAlert.


Авторы указывают, что согласно Теории выбора Уильяма Глассера, есть пять основных потребностей, которые являются центральными для всего человеческого поведения: Выживание, Власть, Свобода, Принадлежность и Веселье. Эти потребности даже влияют на выбор изображений, которые мы собираемся загрузить на нашу страницу в Instagram.

«То, как мы представляем себя в социальных сетях, может предоставить полезную информацию о поведении, личностях, перспективах, мотивах и потребностях», — объяснил руководитель исследования Мохаммад Махди Дехшиби.

Исследовательская группа провела два года, работая над моделью глубокого обучения, которая определяет пять потребностей, описанных Глассером, с использованием мультимодальных данных, таких как изображения, текст, биография и геолокация. Для исследования, были проанализированы 86 профилей Instagram на испанском и персидском языках.

Опираясь на нейронные сети и базы данных, эксперты обучили алгоритм для определения содержания изображений и классификации текстового контента путем присвоения различных меток, предложенных психологами , которые сравнили результаты с базой данных, содержащей более 30 000 изображений, подписей и комментариев.

По словам исследователей, эксперименты «продемонстрировали многообещающую точность и дополнительную информацию между визуальными и текстовыми сигналами».

Чтобы объяснить принцип как работает алгоритм Дехшиби приводит такой пример:

«Представьте себе, что велосипедист доехал до вершины высокой горы, и там он делает выбор: опубликовать селфи, где он один, или сделать групповое фото. Если он выбирает селфи, то мы видим потребность во власти, но если он выбирает другой вариант, то мы можем заключить, что этот человек не только ищет веселья, но и удовлетворяет свою потребность в принадлежности».

В статье также отмечается, что тот факт, что проанализированные профили принадлежат людям, которые общаются на двух разных языках, позволяет избежать культурной предвзятости. Предыдущие исследования показали, например, что испаноязычные пользователи чаще упоминают о проблемах в отношениях, когда чувствуют себя подавленными, чем англоговорящие.

Авторы исследования полагают, что их разработка поможет усовершенствовать профилактику психических расстройств, от идентификации до терапии.

Отметим, что крупные компании, такие как Google и Facebook уже давно и, вероятно, достаточно эффективно определяют некоторые потребности своих пользователей, чтобы продавать рекламу. Относительно Facebook рассказывали журналисты The New York Times Сесилия Кэнг и Шира Френкель в своей книге "Внутри Facebook. Голая правда". По их словам, алгоритм соцсети может даже определить, что пользователь, например, через какое-то время вступит в брак, и предсказать это еще до того, как человек об этом всерьез задумается. Зато реклама в ленте у него уже будет соответствующая.

В одной из статей, посвященной теме дезинформации, мы писали, что ученые сетуют на то, что не могут изучить алгоритмы, по которым работают соцсети, так как не могут получить доступ к данным. Компании их не предоставляют, так как это вопрос коммерческой тайны.

«Компании, работающие в социальных сетях, могут проводить самые масштабные психологические эксперименты в истории на многие порядки, и они проводят их в режиме реального времени на всех нас», говорит Карл Бергстром, биолог-эволюционист из Вашингтонского университета.

Решение ученые видят только в случае, если власти государств заставят технологические компании предоставлять доступ к данным.

✒️Подписывайетсь на наш Telegram канал "Гранит науки"
✒️Читайте нас на Яндекс Дзен

📩У нас есть страница на Facebook и Вконтакте
📩Сайт журнала "Гранит Науки" un-sci.com
📩Прислать статью [email protected]
📩Написать редактору [email protected]