Как люди используют ИИ: стили взаимодействия и доверие
Продолжаем разговор о том, как люди используют ИИ. Первая часть вышла у меня на vc. Там некоторая базовая статистика: для чего используют, какие различия есть между разными странами, как относятся к ИИ.
Сегодня обсудим стили взаимодействия, отношение к безопасности и все в этом роде.
Пишут ли пользователи длинные и сложные промпты или короткие и конкретные?
Компания Semrush провела исследование конкретно по ChatGPT и вот что выяснила:
Иногда эта функция включается самостоятельно, в зависимости от запроса, но здесь, насколько я понимаю, речь идет о случаях, когда пользователи включили поиск осознанно.
- Если функция поиска отключена, средняя длина промпта составляет 23 слова, максимальная – 2 717 слов.
Здесь нужно отметить, что в промпт включаются все документы, которые вы передаете ChatGPT. То есть, не факт, что кто-то написал очень длинный запрос. Возможно, к запросу приложили какой-нибудь документ, например статью.
Вероятно, многие используют ChatGPT вместо поисковиков и дают простые запросы типа «рецепт салата из свеклы» или «погода в Бишкеке». Пока что масштабы использования ChatGPT в роли поисковика уступают тому же Google, однако они постоянно растут. Важное преимущество ChatGPT в том, что ему можно задать вопрос в духе «Как называется такая кривая металлическая штука, которая…» – и он вас поймет.
Это называется «разведочный поиск», мы о таком говорили раньше. О том, что пользователи используют ChatGPT для такого рода задач, говорит еще одна цифра: 70% запросов к нему уникальны и ранее не встречались в поисковых системах. Авторы исследования, которое я цитирую, также предполагают, что люди пользуются поиском в ChatGPT для решения конкретных задач и мозговых штурмов. В предыдущей части мы видели данные из других исследований, которые показывают, что, похоже, так и есть.
Доверяют ли пользователи ответам, которые предлагает ИИ?
Здесь данные опять из США: 60% пациентов чувствовали бы себя некомфортно, зная, что их врач полагается на ИИ при постановке диагноза и выдаче назначений. При этом тех, кто считает, что ИИ сократит число медицинских ошибок, больше, чем тех, кто считает, что увеличит: 40% на 27%. Можно интерпретировать эти данные: оставлять за ИИ принятие решений нельзя, но при разумном использовании он будет полезен.
Большинство опрошенных (75%) переживают, что медицинские организации взялись за ИИ чересчур быстро, недостаточно уделяя внимания рискам для пациентов. Два очень существенных повода для беспокойства – это риск утечки персональных данных и потеря взаимного доверия между врачом и пациентом.
Еще одно исследование показало, что люди немного больше доверяют ИИ в вопросах, связанных с превентивной медициной (например, вакцинированием) и логистикой (как к врачу записаться, какие есть варианты страховки), чем в вопросах, которые касаются непосредственно лечения.
Компания KPMG выпустила большой отчет о доверии ИИ за 2025 год. Там уже 47 стран (России нет) и существенно больше участников. Он правда большой, поэтому пересказывать его здесь я не буду, но рекомендую вам самим заглянуть.
Если коротко, то вот что у них получилось:
- Большинство людей (72%) принимают использование ИИ;
- Многие оптимистично смотрят на его возможности, но переживают о безопасности и влиянии ИИ на общество в целом;
- Люди в развивающихся странах используют ИИ активнее, чем в развитых (80% на 58% опрошенных);
- Они также считают, что лучше понимают ИИ и что используют его эффективно;
- 70% опрошенных считают, что законодательное регулирование ИИ необходимо, и только 43% считают, что существующих законов достаточно;
- Сотрудники компаний, особенно в развивающихся странах, используют ИИ в работе, более половины считают, что это повышает их эффективность, но около 40% считают, что могут потерять рабочее место из-за ИИ.
Что имеем в сухом остатке?
В общем, кажется, люди относятся к ИИ разумно и понимают его риски. Не полагаются на него в серьезных вопросах, но готовы использовать, если это повышает их эффективность. Здесь важно отметить (и в прошлый раз мы об этом говорили), что ИИ не всегда используют осознанно. То есть, не всегда компании достаточно открыто сообщают, что он присутствует в их продукте. Кроме того, сама область остается малодоступной для людей без специального образования или навыков, из-за чего ИИ окружен плотным облаком мифов.
Распространение удобоваримой и достоверной информации, равно как и ответственное и человекоцентричное регулирование запаздывают, порождая недоверие и тревогу.
Разумеется, встречаются и исследования, которые показывают чрезмерное доверие к ИИ, даже когда ставки высоки. Здесь мне сложно судить, насколько надежны исследования в которых люди, например, принимают решение «убить или не убить», опираясь на подсказки ИИ.
Ощущают ли в таких экспериментах люди, что взаимодействуют с реальной ситуацией или играют в игру? А если в реальной жизни один солдат смотрит на другого через камеру дрона, он ощущает реальность или теряет яркое представление о том, что перед ним живой человек? Имеет ли место недооценка бездействия: «Это решение принимаю не я, а ИИ, следовательно, я не ответственен»?
Все эти вопросы выходят далеко за рамки моих компетенций, потому что я не психолог, не социолог и даже не философ. Но мне кажется, они все очень важные даже для непсихологов, несоциологов и нефилософов, потому что не только психологам, социологам и философам жить в новом мире.