Теория | Авторское право и этика в AI
June 24

Урок 4 «Деловая этика в AI» 

📌 В этом уроке вы узнаете, нужно ли предупреждать заказчиков о том, что вы используете нейросети, поймете важность ответственного использования AI, узнаете, как разрабатывать и внедрять этические принципы в свои AI-проекты, и какие этические дилеммы волнуют создателей AI.

Содержание

Что такое этика в AI

📌 Технологические продукты и контент, созданные на основе искусственного интеллекта (AI), уже стали неотъемлемой частью повседневной жизни большинства людей. AI стремительно проникает в нашу экономику, деятельность и даже личные отношения. Все это может привести к определенным рискам.

Большинство современных AI-сервисов (ChatGPT для создания текстов и общения голосом, Midjourney для создания реалистичных картинок, HeyGen для создания цифровых аватаров, ElevenLabs для генерации голоса и др.) были разработаны с благими намерениями. Но при неправильном использовании они могут нанести вред обществу.

Именно для регулирования и координации таких острых вопросов проникновения AI в общество разрабатываются кодексы по Деловой этике в сфере ИИ.

📌 Этика – это философская дисциплина, изучающая мораль, нравственность, ценности и принципы, лежащие в основе поведения людей. Этика помогает людям делать моральные выборы и действовать с учетом общепризнанных норм.

Например, говорить правду и быть искренним в отношениях с другими людьми.

📌 Деловая этика – это применение этических принципов и стандартов в бизнес-среде.

Она охватывает моральные нормы и стандарты поведения, которыми должны руководствоваться организации и профессионалы в процессе ведения деятельности.

Деловая этика включает в себя:

  • соблюдение законов;
  • честную конкуренцию;
  • прозрачность;
  • уважение к правам и интересам всех заинтересованных сторон;
  • ответственность за последствия своей деятельности.

📌 Деловая этика в AI означает применение этических принципов и стандартов в разработке, внедрении и использовании AI в бизнесе и профессиональной деятельности.

Этические принципы в использовании AI

Основными принципами деловой этики в AI являются:

  • Прозрачность
  • Справедливость
  • Ответственность
  • Конфиденциальность
  • Безопасность данных

Их важно придерживаться при создании и распространении контента, созданного с помощью AI (тексты, картинки, музыка и т.д).

Давайте рассмотрим их более детально:

1 принцип – Прозрачность

Данный принцип заключается в необходимости указывать, что весь контент или часть работы выполнена с помощью AI.

Это поможет поддерживать доверие пользователей и честность вашего проекта.

Некоторые социальные сети (например Youtube и другие) умеют самостоятельно распознавать и помечать контент, созданный с помощью AI.

Пример указания контента, созданного с помощью AI

Скорее всего, со временем, когда использование AI будет повсеместным, указание об его использовании может стать необязательным. Также, как мы не пишем сейчас «создано с помощью Интернета», так и с нейросетями – это вскоре станет нормой.

При этом такие пометки являются признаком хорошего тона в бизнес-среде. Важно сразу предупредить вашего клиента или партнера, что вы используете результаты работы AI-сервисов при подготовке ряда документов или идей/концепций.

2 принцип – Ответственность

Здесь всё очень просто. Не используйте нейросети во вред обществу.

📌 Вы несете ответственность за любой контент, созданный с помощью AI.

Поэтому важно тщательно проверять и редактировать материалы перед их публикацией, чтобы они не несли злой умысел, не содержали потенциально опасного или оскорбительного контента.

3 принцип – Соблюдение авторских прав

Удостоверьтесь, что используете только те материалы, на которые у вас есть права, или материалы, не защищенные авторским правом, чтобы избежать юридических нарушений.

Изображение сгенерировано нейросетью Midjourney в @GPT4Telegrambot

4 принцип – Защита данных

Обеспечьте защиту данных, используемых для обучения и работы AI, особенно если они могут содержать личную или чувствительную информацию.

📌 Не стоит загружать в нейросети личные фото человека без его разрешения, паспортные данные и другую информацию закрытого характера.

Эти правила помогут избежать проблем и поддерживать доверие аудитории и клиентов.

Примеры нарушения этических принципов с использованием AI и как обезопасить себя

Нейросети созданы для помощи людям, но этот инструмент в руках злоумышленников может нести опасность. Важно знать, на что способны нейросети в руках людей, которые нарушают этические принципы, и обезопасить себя от их влияния.

1. Дипфейки

Источник: Forbes

📌 Deepfake, или дипфейк (от deep «глубокий» + fake «подделка») – это технология, которая позволяет с помощью AI создавать реалистичные видео или изображения с образом настоящего человека, которых в реальности никогда не существовало.

С использованием AI можно создавать убедительные подделки изображений, видео- или аудиоданных.

Источник: vivalavika.com, реклама с дипфейком Леонардо Ди Каприо

Эта технология активно развивается последние несколько лет.

Важно понимать, что фотографии или видео в открытом доступе могут быть использованы для имитации любого образа в мошеннических целях.

Например, для создания видео с известными людьми, где они рекламируют сомнительные товары или услуги.

Дипфейк Папа Римскй вв пуховике Баленсиага

📌 Всегда критически оценивайте источник информации.

2. Имитация голоса

С помощью нейросетей злоумышленники начали подделывать голосовые сообщения в социальных сетях.

📌 Если вам пришло голосовое сообщение от члена семьи, нуждающегося в срочной финансовой помощи, свяжитесь с ним по известному вам номеру телефона и убедитесь, что помощь действительно необходима, прежде чем осуществлять перевод денег.

Изображение сгенерировано нейросетью Midjourney в GPT4Telegrambot

Также не стоит забывать о необходимости контролировать, какую информацию о себе и своей личной жизни вы размещаете в социальных сетях. Помните, что она может быть использована злоумышленниками для поиска слабых мест и создания индивидуальных мошеннических схем.

Теперь давайте рассмотрим, как регулируются вопросы этики в AI, и какие проблемы заботят государства и разработчиков

Обзор принципов и кодексов этики в AI

Одним из наиболее значимых международных кодексов этики в AI являются принципы, разработанные Организацией экономического сотрудничества и развития (OECD).

Изображение сгенерировано нейросетью Midjourney в GPT4Telegrambot

Ключевые принципы AI Policy Observatory:

  1. Инклюзивный рост, устойчивое развитие и благополучие:
    • Продукты на основе AI должны способствовать экономическому росту, улучшению качества жизни и решению социальных вызовов, например, в области здравоохранения и образования.
  2. Человекоцентризм и справедливость:
    • Разработка и использование AI должны уважать права человека и демократические ценности. AI должен быть доступен и полезен для всего человечества, предотвращая дискриминацию и обеспечивая справедливость.
  3. Прозрачность и объяснимость:
    • Системы AI должны быть понятными и прозрачными, чтобы пользователи и затронутые стороны могли понимать механизмы принятия решений и могли определить ответственных лиц.
  4. Надежность, безопасность и устойчивость:
    • Системы AI должны быть надежными и безопасными в эксплуатации, способными функционировать в рамках заданных параметров и быть устойчивыми к внешним воздействиям и взлому.
  5. Ответственность:
    • Должна быть четко установлена ответственность за действия AI, включая возможность привлечения к ответственности разработчиков и операторов систем.

📌 OECD AI Policy Observatory (OECD.AI) это мировой центр общественной политики в области AI.

Его цель – помочь странам поощрять, стимулировать и контролировать ответственное развитие надежных систем ИИ на благо общества.

📌 Российский Кодекс этики в сфере Искусственного интеллекта – Кодекс, который устанавливает общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере искусственного интеллекта в своей деятельности.

14 марта 2024 года в Евросоюзе принят первый в мире закон о регулировании искусственного интеллекта.

Закон будет гарантировать, чтобы системы AI контролировались людьми, были безопасны, прозрачны, отслеживаемы, не дискриминировали пользователей и способствовали защите окружающей среды.

📌 Почти полсотни крупных ИТ-компаний по всему миру обладают собственными кодексами и правилами, основанными на этических принципах, относящихся к применению и развитию AI.

В числе таких компаний и российские ABBYY, Сбер и Яндекс.

Этические фильтры нейросетей

📌 Выравнивание языковых моделей (AI аlignment) – приведение систем ИИ в соответствие с человеческой этикой, целями и ценностями.

Разработчики AI, например, таких технологий как ChatGPT и Midjourney, устанавливают для своих нейросетей этические фильтры и цензуру, чтобы поддерживать безопасную и уважительную среду. Это предотвращает распространение опасного, неприемлемого или неэтичного контента.

📌 О них мы подробно поговорили в предыдущих уроках модуля.

Этические дилеммы AI

1. Предвзятость алгоритмов

AI, хоть и должен работать объективно, наследует предвзятости своих создателей. Эти предвзятости могут привести к несправедливым решениям.

Например, AI иногда ошибочно ассоциирует женщин с домохозяйками, а не с профессионалами из-за стереотипов в данных.
Изображение сгенерировано нейросетью Midjourney в GPT4Telegrambot

Эта проблема, известная как AI bias, вызывает общественное недовольство, особенно когда приводит к расовой и гендерной дискриминации.

Одним из известных случаев является дискриминация афроамериканцев в судебной системе США в 2018 году, когда алгоритмы ошибочно применялись при определении размера залога в банке (в меньшую сторону или вовсе отказ).

Ответственность и прозрачность ИИ

📌 Проблема вагонетки – это этический мысленный эксперимент, который помогает определить, как AI должен решать сложные вопросы.

Например, в случае беспилотных автомобилей: свернуть и подвергнуть рискам пассажиров или продолжить движение, угрожая нарушителям ПДД.
Изображение сгенерировано нейросетью Midjourney в GPT4Telegrambot

В Массачусетском технологическом институте исследователи используют опросы, чтобы понять, как люди решают такие дилеммы, и используют эти данные для обучения AI.

Однако мнения людей различаются в зависимости от того, являются ли они пассажирами или наблюдателями, что создает новую этическую проблему.

Также возникают вопросы о том, кто несет ответственность за действия AI, поскольку текущее законодательство не регулирует это.

2. Недоверие к ИИ со стороны общества

При использовании AI важно не доверять ему слепо, так как даже самые совершенные системы могут допускать ошибки.

Например, были случаи, когда автопилот Tesla приводил к дорожно-транспортным происшествиям из-за ошибок в работе алгоритмов.

Это подчеркивает необходимость критически оценивать возможности AI и учитывать риски, связанные с его применением. Прозрачность работы AI важна для понимания его решений и укрепления доверия.

3. Приватность данных

Анализ метаданных улучшает работу AI, но поднимает вопросы о конфиденциальности данных.

📌 Важно защищать информацию от кражи и неправомерного использования при разработке AI.

Исследование из Принстона, Беркли, Швейцарской высшей технической школы Цюриха, Google и DeepMind показало, что системы AI для создания изображений, такие как DALL-E, Imagen и Stable Diffusion, могут случайно раскрывать личные данные.

Эти системы используют большое количество изображений для обучения, что может привести к воспроизведению оригинальных изображений, включая личную информацию.

Словарь урока

📌 Этика – это философская дисциплина, изучающая мораль, нравственность, ценности и принципы, лежащие в основе поведения людей. Этика помогает людям делать моральные выборы и действовать с учетом общепризнанных норм.

📌 Деловая этика – это применение этических принципов и стандартов в бизнес-среде.

📌 Deepfake, или дипфейк (от deep «глубокий» + fake «подделка») – это технология, которая использует искусственный интеллект для создания видео или изображений, которые выглядят очень реалистично, но не являются реальными.

📌 Организация экономического сотрудничества и развития (OECD) – это межправительственная экономическая организация, в которую входят 35 стран-членов, основанная в 1961 году для стимулирования экономического прогресса и мировой торговли.

📌 Выравнивание языковых моделей (AI аlignment) – приведение систем ИИ в соответствие с человеческой этикой, целями и ценностями.

📌 AI bias – это систематические ошибки в алгоритмах и моделях машинного обучения, которые приводят к несправедливым или неточным результатам.

📌 Проблема вагонетки – это этический мысленный эксперимент, который помогает определить, как AI должен решать сложные вопросы, например, в случае беспилотных автомобилей: свернуть и подвергнуть рискам пассажиров или продолжить движение, угрожая нарушителям ПДД.

Задание

Не забудьте выполнить легкое проверочное задание на закрепление полученного материала, а также поставить оценку этому уроку. Все это можно сделать в образовательном боте «Нейрограмотность» @EDU4Telegrambot.