August 29

ИИ психолог: помощник или «обезьяна» с гранатой?

Ключевой переменой, которая вызывает у меня определенную тревогу, сегодня является искусственный интеллект. Прямо сейчас очень активно разрабатываются искусственные модели личности. Компании-разработчики уже могут имитировать, например, манеру общения и голос людей, притом имитировать их очень хорошо, вплоть до нюансов интонирования. И проблему я вижу в том, что очень быстро будет разработан виртуальный психолог.

Чем хорош виртуальный психолог? Во-первых, его можно выбрать по своему вкусу. В каком плане? Если, например, кому-то нравится манера дедушки Фрейда, у него будет собственный искусственный «Фрейд», который будет отвечать в манере основоположника психоанализа.

Во-вторых, это дешево. Кто-то выберет манеру и голос современного раскрученного психолога, но стоить виртуальный будет уж никак не 200 тысяч за сеанс.

В-третьих, виртуальный психолог будет доступен 24/7 – то есть, учитывая, что это не человек, а только алгоритм, при общении с ним нет и не может быть никаких границ. Для многих это может быть дополнительным стимулом обращения к такой форме помощи.

И, конечно, мы пока точно не знаем, к чему приведет эта форма общения с несуществующим человеком. Мы же опираемся на мнения тех футуристов, которые писали фантастическую литературу, снимали фантастические фильмы… Но и то, и другое тоже придумывали люди.

А вот что говорят разработчики: эту «обезьяну» создать несложно, задача - чтобы она саморазвивалась, собирала опыт общения и приумножала его внутри своих моделей.

И уже созданы и работают психологические помощники – чат-боты, которые учатся общаться со своим «хозяином», само-развиваются от этого общения. А дальше, конечно, все захотят на них заработать: кто-то создаст помощника при фобиях, кто-то - при навязчивых состояниях и т.д. Материала же полно - создавай и создавай, если есть хорошая программа.

Но мы же понимаем, насколько это все формализовано. Как бы ни усложняли этот алгоритм, а все равно искусственный интеллект формален. ИИ всему можно научить, он может имитировать что угодно, а точнее, - повторять, как попугай.

Но он не будет чувствовать. Во всяком случае, на сегодняшний день у человечества нет таких ресурсов, чтобы создать модель чувствования.

Можно будет купить себе программу, эту игрушку, и общаться с ней. Она не будет стоить дорого, она же тиражируемая. И вполне возможно, что многие люди, особенно молодые, будут верить, что она лучше. И дойти до живого психолога им будет труднее.


Им будет достаточно того, что ИИ может сказать: «Да, я вас понимаю, я переживаю вместе с вами». Это, конечно, вызывает определенные опасения.

Один из разработчиков ИИ как-то спросил у меня: «Сергей Александрович, а кто будет психологом у искусственного психолога? И кто будет проводить ему супервизию?»

Я сначала посмеялся… а потом задумался над ответом.