Урок 4 «Деловая этика в AI»
📌 В этом уроке вы узнаете, нужно ли предупреждать заказчиков о том, что вы используете нейросети, поймете важность ответственного использования AI, узнаете, как разрабатывать и внедрять этические принципы в свои AI-проекты, и какие этические дилеммы волнуют создателей AI.
Содержание
Что такое этика в AI
📌 Технологические продукты и контент, созданные на основе искусственного интеллекта (AI), уже стали неотъемлемой частью повседневной жизни большинства людей. AI стремительно проникает в нашу экономику, деятельность и даже личные отношения. Все это может привести к определенным рискам.
Большинство современных AI-сервисов (ChatGPT для создания текстов и общения голосом, Midjourney для создания реалистичных картинок, HeyGen для создания цифровых аватаров, ElevenLabs для генерации голоса и др.) были разработаны с благими намерениями. Но при неправильном использовании они могут нанести вред обществу.
Именно для регулирования и координации таких острых вопросов проникновения AI в общество разрабатываются кодексы по Деловой этике в сфере ИИ.
📌 Этика – это философская дисциплина, изучающая мораль, нравственность, ценности и принципы, лежащие в основе поведения людей. Этика помогает людям делать моральные выборы и действовать с учетом общепризнанных норм.
Например, говорить правду и быть искренним в отношениях с другими людьми.
📌 Деловая этика – это применение этических принципов и стандартов в бизнес-среде.
Она охватывает моральные нормы и стандарты поведения, которыми должны руководствоваться организации и профессионалы в процессе ведения деятельности.
Деловая этика включает в себя:
- соблюдение законов;
- честную конкуренцию;
- прозрачность;
- уважение к правам и интересам всех заинтересованных сторон;
- ответственность за последствия своей деятельности.
📌 Деловая этика в AI означает применение этических принципов и стандартов в разработке, внедрении и использовании AI в бизнесе и профессиональной деятельности.
Этические принципы в использовании AI
Основными принципами деловой этики в AI являются:
Их важно придерживаться при создании и распространении контента, созданного с помощью AI (тексты, картинки, музыка и т.д).
Давайте рассмотрим их более детально:
Данный принцип заключается в необходимости указывать, что весь контент или часть работы выполнена с помощью AI.
Это поможет поддерживать доверие пользователей и честность вашего проекта.
Некоторые социальные сети (например Youtube и другие) умеют самостоятельно распознавать и помечать контент, созданный с помощью AI.
Скорее всего, со временем, когда использование AI будет повсеместным, указание об его использовании может стать необязательным. Также, как мы не пишем сейчас «создано с помощью Интернета», так и с нейросетями – это вскоре станет нормой.
При этом такие пометки являются признаком хорошего тона в бизнес-среде. Важно сразу предупредить вашего клиента или партнера, что вы используете результаты работы AI-сервисов при подготовке ряда документов или идей/концепций.
Здесь всё очень просто. Не используйте нейросети во вред обществу.
📌 Вы несете ответственность за любой контент, созданный с помощью AI.
Поэтому важно тщательно проверять и редактировать материалы перед их публикацией, чтобы они не несли злой умысел, не содержали потенциально опасного или оскорбительного контента.
3 принцип – Соблюдение авторских прав
Удостоверьтесь, что используете только те материалы, на которые у вас есть права, или материалы, не защищенные авторским правом, чтобы избежать юридических нарушений.
Обеспечьте защиту данных, используемых для обучения и работы AI, особенно если они могут содержать личную или чувствительную информацию.
📌 Не стоит загружать в нейросети личные фото человека без его разрешения, паспортные данные и другую информацию закрытого характера.
Эти правила помогут избежать проблем и поддерживать доверие аудитории и клиентов.
Примеры нарушения этических принципов с использованием AI и как обезопасить себя
Нейросети созданы для помощи людям, но этот инструмент в руках злоумышленников может нести опасность. Важно знать, на что способны нейросети в руках людей, которые нарушают этические принципы, и обезопасить себя от их влияния.
📌 Deepfake, или дипфейк (от deep «глубокий» + fake «подделка») – это технология, которая позволяет с помощью AI создавать реалистичные видео или изображения с образом настоящего человека, которых в реальности никогда не существовало.
С использованием AI можно создавать убедительные подделки изображений, видео- или аудиоданных.
Эта технология активно развивается последние несколько лет.
Важно понимать, что фотографии или видео в открытом доступе могут быть использованы для имитации любого образа в мошеннических целях.
Например, для создания видео с известными людьми, где они рекламируют сомнительные товары или услуги.
С помощью нейросетей злоумышленники начали подделывать голосовые сообщения в социальных сетях.
📌 Если вам пришло голосовое сообщение от члена семьи, нуждающегося в срочной финансовой помощи, свяжитесь с ним по известному вам номеру телефона и убедитесь, что помощь действительно необходима, прежде чем осуществлять перевод денег.
Также не стоит забывать о необходимости контролировать, какую информацию о себе и своей личной жизни вы размещаете в социальных сетях. Помните, что она может быть использована злоумышленниками для поиска слабых мест и создания индивидуальных мошеннических схем.
Теперь давайте рассмотрим, как регулируются вопросы этики в AI, и какие проблемы заботят государства и разработчиков
Обзор принципов и кодексов этики в AI
Одним из наиболее значимых международных кодексов этики в AI являются принципы, разработанные Организацией экономического сотрудничества и развития (OECD).
Ключевые принципы AI Policy Observatory:
- Инклюзивный рост, устойчивое развитие и благополучие:
- Продукты на основе AI должны способствовать экономическому росту, улучшению качества жизни и решению социальных вызовов, например, в области здравоохранения и образования.
- Человекоцентризм и справедливость:
- Разработка и использование AI должны уважать права человека и демократические ценности. AI должен быть доступен и полезен для всего человечества, предотвращая дискриминацию и обеспечивая справедливость.
- Прозрачность и объяснимость:
- Системы AI должны быть понятными и прозрачными, чтобы пользователи и затронутые стороны могли понимать механизмы принятия решений и могли определить ответственных лиц.
- Надежность, безопасность и устойчивость:
- Системы AI должны быть надежными и безопасными в эксплуатации, способными функционировать в рамках заданных параметров и быть устойчивыми к внешним воздействиям и взлому.
- Ответственность:
📌 OECD AI Policy Observatory (OECD.AI) – это мировой центр общественной политики в области AI.
Его цель – помочь странам поощрять, стимулировать и контролировать ответственное развитие надежных систем ИИ на благо общества.
📌 Российский Кодекс этики в сфере Искусственного интеллекта – Кодекс, который устанавливает общие этические принципы и стандарты поведения, которыми следует руководствоваться участникам отношений в сфере искусственного интеллекта в своей деятельности.
14 марта 2024 года в Евросоюзе принят первый в мире закон о регулировании искусственного интеллекта.
Закон будет гарантировать, чтобы системы AI контролировались людьми, были безопасны, прозрачны, отслеживаемы, не дискриминировали пользователей и способствовали защите окружающей среды.
📌 Почти полсотни крупных ИТ-компаний по всему миру обладают собственными кодексами и правилами, основанными на этических принципах, относящихся к применению и развитию AI.
В числе таких компаний и российские ABBYY, Сбер и Яндекс.
📌 Выравнивание языковых моделей (AI аlignment) – приведение систем ИИ в соответствие с человеческой этикой, целями и ценностями.
Разработчики AI, например, таких технологий как ChatGPT и Midjourney, устанавливают для своих нейросетей этические фильтры и цензуру, чтобы поддерживать безопасную и уважительную среду. Это предотвращает распространение опасного, неприемлемого или неэтичного контента.
Этические дилеммы AI
AI, хоть и должен работать объективно, наследует предвзятости своих создателей. Эти предвзятости могут привести к несправедливым решениям.
Например, AI иногда ошибочно ассоциирует женщин с домохозяйками, а не с профессионалами из-за стереотипов в данных.
Эта проблема, известная как AI bias, вызывает общественное недовольство, особенно когда приводит к расовой и гендерной дискриминации.
Одним из известных случаев является дискриминация афроамериканцев в судебной системе США в 2018 году, когда алгоритмы ошибочно применялись при определении размера залога в банке (в меньшую сторону или вовсе отказ).
Ответственность и прозрачность ИИ
📌 Проблема вагонетки – это этический мысленный эксперимент, который помогает определить, как AI должен решать сложные вопросы.
Например, в случае беспилотных автомобилей: свернуть и подвергнуть рискам пассажиров или продолжить движение, угрожая нарушителям ПДД.
В Массачусетском технологическом институте исследователи используют опросы, чтобы понять, как люди решают такие дилеммы, и используют эти данные для обучения AI.
Однако мнения людей различаются в зависимости от того, являются ли они пассажирами или наблюдателями, что создает новую этическую проблему.
Также возникают вопросы о том, кто несет ответственность за действия AI, поскольку текущее законодательство не регулирует это.
2. Недоверие к ИИ со стороны общества
При использовании AI важно не доверять ему слепо, так как даже самые совершенные системы могут допускать ошибки.
Например, были случаи, когда автопилот Tesla приводил к дорожно-транспортным происшествиям из-за ошибок в работе алгоритмов.
Это подчеркивает необходимость критически оценивать возможности AI и учитывать риски, связанные с его применением. Прозрачность работы AI важна для понимания его решений и укрепления доверия.
Анализ метаданных улучшает работу AI, но поднимает вопросы о конфиденциальности данных.
📌 Важно защищать информацию от кражи и неправомерного использования при разработке AI.
Исследование из Принстона, Беркли, Швейцарской высшей технической школы Цюриха, Google и DeepMind показало, что системы AI для создания изображений, такие как DALL-E, Imagen и Stable Diffusion, могут случайно раскрывать личные данные.
Эти системы используют большое количество изображений для обучения, что может привести к воспроизведению оригинальных изображений, включая личную информацию.
Словарь урока
📌 Этика – это философская дисциплина, изучающая мораль, нравственность, ценности и принципы, лежащие в основе поведения людей. Этика помогает людям делать моральные выборы и действовать с учетом общепризнанных норм.
📌 Деловая этика – это применение этических принципов и стандартов в бизнес-среде.
📌 Deepfake, или дипфейк (от deep «глубокий» + fake «подделка») – это технология, которая использует искусственный интеллект для создания видео или изображений, которые выглядят очень реалистично, но не являются реальными.
📌 Организация экономического сотрудничества и развития (OECD) – это межправительственная экономическая организация, в которую входят 35 стран-членов, основанная в 1961 году для стимулирования экономического прогресса и мировой торговли.
📌 Выравнивание языковых моделей (AI аlignment) – приведение систем ИИ в соответствие с человеческой этикой, целями и ценностями.
📌 AI bias – это систематические ошибки в алгоритмах и моделях машинного обучения, которые приводят к несправедливым или неточным результатам.
📌 Проблема вагонетки – это этический мысленный эксперимент, который помогает определить, как AI должен решать сложные вопросы, например, в случае беспилотных автомобилей: свернуть и подвергнуть рискам пассажиров или продолжить движение, угрожая нарушителям ПДД.
Задание
Не забудьте выполнить легкое проверочное задание на закрепление полученного материала, а также поставить оценку этому уроку. Все это можно сделать в образовательном боте «Нейрограмотность» @EDU4Telegrambot.