April 25

Пять вещей, которыми лучше не делиться с GPT

За последние несколько лет я многое узнал у ChatGPT от OpenAI. И бот тоже многое обо мне узнал.

ИИ запоминал разные мелочи из наших многочисленных разговоров и хранил их в своей памяти. Он запомнил, что я люблю яйца, что у меня есть ребёнок, который засыпает во время кормления, и что мне приходится менять упражнения из-за болей в спине.

Он также запомнил и более личные вещи, которые я не буду здесь повторять.

Неважно, какого чат-бота вы выберете: чем больше вы делитесь, тем полезнее он становится. Пациенты загружают результаты анализов для разбора, а инженеры вставляют фрагменты неопубликованного кода для отладки. Некоторые исследователи ИИ считают, что нам следует быть осторожнее с тем, что мы рассказываем этим почти человеческим инструментам. Некоторые сведения особенно рискованно передавать, например номер соцстрахования или конфиденциальные данные вашей компании.

ChatGPT запоминает личные детали, чтобы настроить ответы под ваши предпочтения. Вы можете отключить функцию памяти в настройках.

Компании, разрабатывающие искусственный интеллект, стремятся получать данные для улучшения своих моделей, но даже они не хотят узнавать наши секреты. «Пожалуйста, не сообщайте конфиденциальную информацию в своих разговорах», – предупреждает OpenAI. Google также обращается к пользователям Gemini: «Не вводите конфиденциальную информацию или любые данные, которые вы не хотели бы показать посторонним».

Разговоры о вашей странной сыпи или финансовых ошибках могут быть использованы для обучения будущих моделей ИИ или даже стать частью утечки данных, утверждают исследователи. Вот что не следует включать в запросы и как вести более приватные разговоры с ИИ:

Что нельзя сообщать чат-ботам:

Чат-боты могут звучать очень по-человечески, поэтому люди часто слишком открыты с ними. Когда вы вводите что-то в чат-бот, «вы теряете контроль над этим», – говорит Дженнифер Кинг, исследовательница из Стэнфордского института искусственного интеллекта, ориентированного на человека.

В марте 2023 года ошибка в ChatGPT позволила некоторым пользователям видеть начальные сообщения других людей. Компания быстро исправила эту проблему. Также OpenAI ошибочно отправила письма о подтверждении подписки не тем пользователям, раскрывая их имена, электронные адреса и платёжные данные.

История ваших разговоров может утечь или быть предоставлена по официальному запросу. Защищайте свою учётную запись надёжным паролем и многофакторной аутентификацией. А также избегайте делиться следующими сведениями:

  • Личная информация: номера соцстрахования, водительских прав и паспортов, дата рождения, адрес и телефон. Некоторые чат-боты пытаются скрывать эту информацию. «Мы хотим, чтобы наши модели узнавали о мире, а не о частной жизни людей, и активно ограничиваем сбор персональных данных», – сообщила представительница OpenAI.
  • Медицинские результаты: конфиденциальность в медицине необходима для предотвращения дискриминации и неловких ситуаций, однако чат-боты обычно не обеспечивают особую защиту медицинских данных. Если хотите попросить ИИ интерпретировать анализы, предварительно удалите личные данные из изображения или документа, оставив только результаты.
  • Финансовые счета: защищайте номера банковских счетов и инвестиционных аккаунтов, чтобы никто не мог получить доступ к вашим деньгам.
  • Конфиденциальные данные компаний: если вы используете популярные чат-боты для рабочих задач, можете случайно раскрыть данные клиентов или коммерческую тайну даже при написании простого письма. Samsung запретила использовать ChatGPT после того, как один инженер слил исходный код компании. Если ИИ нужен вам по работе, лучше использовать корпоративную версию или собственный защищённый ИИ компании.
  • Данные для входа: рост агентов ИИ, способных выполнять реальные задачи, увеличил соблазн делиться паролями. Но эти сервисы не предназначены для безопасного хранения ваших паролей, PIN-кодов и секретных вопросов – используйте менеджер паролей.

Как сохранить конфиденциальность:

Когда вы ставите оценки ответам чат-бота (например, лайки и дизлайки), вы можете давать разрешение использовать ваш запрос и ответы на него для оценки или обучения моделей. Если разговор помечен как подозрительный (например, упоминанием насилия), его могут просмотреть сотрудники компании.

Claude от Anthropic по умолчанию не использует ваши чаты для обучения и удаляет их через два года. ChatGPT от OpenAI, Copilot от Microsoft и Gemini от Google используют чаты для обучения, но позволяют отказаться от этого в настройках. Если вам важна конфиденциальность, воспользуйтесь следующими советами:

  • Удаляйте разговоры часто. Наиболее осторожным пользователям лучше удалять каждый разговор сразу после завершения, советует Джейсон Клинтон, директор по информационной безопасности Anthropic. Обычно компании полностью очищают удалённые данные через 30 дней.

Исключение – DeepSeek, серверы которой находятся в Китае. Согласно её политике конфиденциальности, данные могут храниться бессрочно и отказаться от этого нельзя.

  • Используйте временные чаты. Функция Temporary Chat в ChatGPT работает аналогично режиму инкогнито в браузере. Она предотвращает сохранение информации в вашем профиле, чат не отображается в истории и не используется для обучения моделей.
  • Используйте анонимный доступ. Сервис Duck.ai от поисковика DuckDuckGo анонимизирует ваши запросы и отправляет их выбранной вами модели ИИ (Claude, OpenAI GPT и другие), при этом данные не используются для обучения. Однако он не умеет выполнять все функции полноценных чат-ботов, например, анализировать файлы.

Помните: чат-боты запрограммированы поддерживать беседу. Ваша задача – контролировать информацию, которую вы делитесь, или просто нажать «удалить».

оригинал: The Five Things You Shouldn’t Tell ChatGPT