Правовые аспекты использования изображений, созданных генеративным ИИ
Генеративные системы искусственного интеллекта (ИИ) вроде Midjourney и DALL·E за последние пару лет стали мощным инструментом для создания изображений, музыки и текста. Сегодня предприниматели и дизайнеры легко могут получить уникальную картинку по текстовому описанию, но при этом сталкиваются с неопределённостью: кому принадлежат права на такой результат и как его можно законно использовать? В 2023-2025 гг. эти вопросы из теоретических обсуждений превратились в реальные споры. Например, американская художница пыталась зарегистрировать авторские права на комикс Zarya of the Dawn, созданный с помощью Midjourney, - в итоге Бюро авторских прав США аннулировало регистрацию в части изображений, признав их неохраноспособными из-за отсутствия человеческого автора. Одновременно крупные корпорации начали активную защиту своих франшиз: так, в 2025 г. Disney и Universal подали иск против сервиса Midjourney, назвав его «бездонной ямой плагиата», потому что тот якобы генерирует изображения их персонажей без разрешения. Столкновение технологий AI и закона об интеллектуальной собственности стало неизбежным, и бизнесу важно понимать текущее положение дел (на сентябрь 2025 г.) и учитывать риски.
В этой статье мы рассмотрим, кто признаётся владельцем прав на сгенерированные нейросетью картинки в разных юрисдикциях (США, ЕС, Россия, ОАЭ), можно ли такие изображения использовать в коммерческих проектах (например, как логотип или рекламу) и какие тут подводные камни, разберём недавние судебные споры (от исков художников к Stability AI до претензий Disney и Getty Images), а также дадим рекомендации, как дизайнерам и стартапам снизить юридические риски.
2. Кто считается владельцем изображения, созданного ИИ?
Авторское право традиционно построено вокруг человека-творца. Если произведение создаёт не человек, а машина (алгоритм), возникает правовой вакуум: можно ли вообще считать результат объектом авторского права и кто тогда его «автор»? Законодательство разных стран пока не даёт единообразного ответа. Рассмотрим практику ключевых юрисдикций.
В США принцип human authorship («человеческого авторства») - краеугольный в авторском праве. Ещё суды XIX века указали, что охраняться могут лишь творения человека, и за последние годы эта позиция только укрепилась. В 2022-2023 гг. Бюро по авторским правам США (USCO) официально разъяснило: произведения, полностью созданные AI без участия человека, не подлежат регистрации, поскольку не отвечают критерию «оригинального авторского произведения человека». Иными словами, если изображение сгенерировано автономным алгоритмом, то никто не может считаться его автором по закону США - ни сам алгоритм (не признан субъектом права), ни разработчик модели, ни пользователь, который ввёл текстовый запрос.
Практический пример - вышеупомянутый графический роман «Zarya of the Dawn». Художница Кристина Каштанова написала сюжет и сгенерировала иллюстрации через Midjourney. Первоначально она получила свидетельство о регистрации авторских прав на весь комикс, но позже USCO пересмотрело решение: признало Каштанову автором текста и компоновки, но исключило защиту самих изображений, созданных AI. Причина - отсутствие достаточного творческого контроля человека над финальной визуализацией. Даже если человек написал промт и выбрал лучший вариант картинки, этого недостаточно: по мнению ведомства, ИИ-программа в таком случае является фактическим «рисующим элементом» без направляющего творческого вклада автора.
Эта позиция получила и судебное подтверждение. В августе 2023 г. федеральный суд округа Колумбия по делу Thaler v. Perlmutter поддержал решение USCO отказать в регистрации картинки, сгенерированной нейросетью без участия человека. Суд указал, что требования Закона об авторском праве (Copyright Act) подразумевают именно человеческого автора, иначе многие положения закона (о сроке охраны - «жизнь автора плюс 70 лет», о передаче прав по наследству и т. д.) теряют смысл. Апелляционный суд (D.C. Circuit) в марте 2025 г. также подтвердил: авторское право охраняет только произведения, созданные человеком, и никакой AI или «творческая машина» не может рассматриваться в качестве автора в текущей правовой системе.
на сентябрь 2025 г. в США никто не может формально владеть авторскими правами на изображение, полностью созданное генеративным AI - такие картинки, по сути, оказываются в общественном достоянии(public domain). Однако важно понимать: если же человеческий вклад присутствует (например, художник дорабатывает ИИ-изображение, накладывает стиль, объединяет несколько результатов в единое творческое целое), то охраняться будут только те элементы, которые привнёс сам человек. Грань между допустимой AI-помощью и недопустимым полным автогенерированием сейчас активно обсуждается. Бюро авторских прав выпустило руководства, где разъясняет: простой текстовый запрос (prompt) - ещё не основание считать пользователя автором, но если в итоговом произведении можно выявить оригинальный вклад человека (композиция, отретушированные детали и т.п.), права на эти элементы будут признаваться. Впрочем, каждое такое дело индивидуально - линию между «AI-assisted» и «AI-generated» контентом регулятор проводит пока осторожно.
Европейский Союз: критерий творчества и новые планы
В странах ЕС также господствует доктрина, что произведение должно быть результатом интеллектуального творчества человека (классический критерий оригинальности, выработанный судом ЕС в решении Infopaq, 2009). Ни законодательство ЕС, ни национальные законы стран Евросоюза не признают AI в качестве автора. Так, Директива 2001/29/EC (InfoSoc) прямо не упоминает ИИ, но по умолчанию подразумевает, что автор - физическое лицо или объединение лиц. Поэтому полностью сгенерированные алгоритмом изображения не считаются «произведениями» в смысле авторского права ЕС, ведь отсутствует оригинальный вклад человека. Такая позиция подтверждается и экспертным сообществом: в исследовании, опубликованном Комитетом по правовым вопросам Европарламента в июле 2025 г., отмечается, что созданные AI результаты ipso facto не достигают требуемого порога оригинальности и не подлежат охране (если только человек не внёс творческий вклад в их финальный вид). То есть «полностью ИИ-сгенерированные выходы не отвечают критерию личного интеллектуального творчества и не могут пользоваться полной защитой авторского права». В то же время, если контент создан при помощи ИИ, но под контролем человека (например, дизайнер направлял стилистику или комбинировал разные сгенерированные элементы творчески), такой AI-assisted продукт может быть признан охраноспособным - разумеется, при условии, что в нём «читается» достаточный уровень человеческого творчества. Пока что критерии этого оцениваются в каждом случае отдельно, и в ЕС ещё не было судебного прецедента именно по ИИ-изображениям.
Следует отметить, что прямых судебных дел по нейросетевому арту в ЕС пока нет (по состоянию на 2025 г.) - большинство громких процессов идут в США и Великобритании. Однако проблема использования чужого контента для обучения AI и статуса сгенерированных произведений активно дискутируется на уровне ЕС. Европейский Союз стремится сбалансировать интересы инноваций и правообладателей. В 2019 г. была принята Директива (EU) 2019/790, где ввели исключения для text and data mining (TDM) - по сути, разрешения на анализ данных (в том числе контента) для обучения AI. Статья 3 Директивы позволяет некоммерческим исследованиям свободно проводить TDM, а статья 4 - дает право всем (включая коммерческие компании) анализировать данные если правообладатель явно не запретил это (так называемое «TDM-исключение с оптом-аутом» - правообладатель может технически или в тексте лицензии оговорить запрет на майнинг). Казалось бы, эти нормы легализуют обучение AI на больших массивах информации. Но на практике они оказались слабо пригодными для генеративного AI. В уже упомянутом исследовании Европарламента 2025 г. отмечено, что современные подходы к обучению моделей (когда AI не просто ищет статистические связи, а перенимает элементы выразительности из оригинальных изображений для создания новых) выходят за рамки целей TDM-исключений. По сути, обучение нейросети копирует фрагменты охраняемых работ во внутренние параметры модели, что ближе к воспроизведению, чем к простому анализу данных. Поэтому эксперты призывают пересмотреть режим: нынешняя система, при которой всё разрешено кроме случаев opt-out, признана несбалансированной. Европарламент призывает изменить «по умолчанию разрешено» на подход «по умолчанию запрещено (опт-ин) либо обязателен явный лицензионный договор» для использования чужих данных в обучении AI. То есть правообладателям хотят дать больше контроля - чтобы ИИ-компании изначально спрашивали согласие и платили вознаграждение за использование контента, вместо того чтобы правообладатель сам пытался предотвратить майнинг (что технически сложно).
Кроме того, на подходе масштабное регулирование AI Act - общеевропейского Акта об искусственном интеллекте (предполагается вступление в силу в 2025-2026 гг.). Хотя основной фокус AI Act - требования к безопасности и прозрачности алгоритмов, в финальном тексте появились и положения, связанные с охраной ИС. В частности, законодатели учли риск «юрисдикционного шопинга», когда модель обучают в стране с либеральным отношением к копированию данных, а затем используют в ЕС. В проект AI Act внесли норму, по сути требующую от поставщиков основных ИИ-моделей соблюдать европейские нормы авторского права вне зависимости от места обучения. Проект обязывает разработчиков foundation models (базовых моделей вроде больших генераторов изображений) проверять наборы данных и публиковать резюме использованных материалов, включая информацию о том, содержали ли они объекты авторского права. Иными словами, ЕС пытается сделать правила так, чтобы крупные ИИ-системы, выходящие на рынок Европы, не обходили европейское авторское право при обучении, даже если технически обучение было за пределами ЕС. Хотя AI Act ещё не окончательно утверждён, понятно, что в Европе тренд - на усиление защиты правообладателей: признание отсутствия авторских прав у AI не означает разрешения безлимитно пользоваться чужим контентом для его питания. Уже заведено первое дело, затрагивающее эти вопросы: в 2023 г. суд Венгрии направил в Суд ЕС запрос по делу Like v. Google (C‑250/25), где спрашивает, применимо ли TDM-исключение из ст. 4 Директивы 2019/790 к обучению языковой модели на базе статей СМИ. Решение Суда ЕС станет важным ориентиром.
на текущий момент автором ИИ-сгенерированного изображения в ЕС может быть признан только человек, и только если его вклад достаточен (требование «личного творческого вклада» сохраняется ). Никаких особых прав для AI как «автора» не предусмотрено. Без человека в цепочке создания изображение просто не охраняется авторским правом. Однако предприятия в ЕС должны учитывать не только отсутствие формальной охраны таких результатов, но и ограничения на использование чужих данных при обучении AI - регуляторы постепенно закрывают лазейки и требуют уважать авторские и смежные права при наполнении датасетов.
Россия: человек как автор по закону, но тенденция к изменениям
Российское авторское право также однозначно исходит из концепции человека-автора. Пункт 1 статьи 1228 Гражданского кодекса РФ прямо гласит: «Автором результата интеллектуальной деятельности может быть только гражданин, творческим трудом которого он создан». Это означает, что нейросеть не может считаться автором или соавтором ни при каких условиях - у неё нет ни гражданства, ни творческой воли. Если изображение сгенерировано полностью автоматически (без творческого вклада человека), оно формально не охраняется, «потому что не имеет автора». Аналогичного подхода придерживается большинство стран, и Россия здесь не исключение.
Однако на практике ситуация пока не так проста. Во-первых, де-юре отсутствие охраны не означает, что кто угодно может беспрепятственно использовать такой контент - зачастую невозможно объективно доказать, создан он AI или человеком. Российский закон (ст. 1257 ГК) устанавливает презумпцию авторства: лицо, указанное как автор на экземпляре произведения, считается автором, пока не доказано иное. То есть если пользователь нейросети заявит себя автором сгенерированной картинки и опубликует её под своим именем, по умолчанию он обладает всеми авторскими правами, и оспорить это можно только через суд, доказав отсутствие его творческого вклада. Но как это доказать, если сам человек не признается, что ему помогал ИИ? Такая ситуация уже возникала: широко обсуждался случай, когда студент сгенерировал дипломную работу при помощи ChatGPT, успешно защитил её и лишь сам позже раскрыл, что текст написала нейросеть. Формально работа считалась авторской и охранялась, ведь никаких явных признаков ИИ-вмешательства не было.
Во-вторых, в отсутствие прямых норм российские суды начинают сами вырабатывать подходы к ИИ-контенту. Судебная практика пока немногочисленна, но прецеденты есть. Показательный случай - спор вокруг дипфейк-видео с Киану Ривзом. В 2024 г. Арбитражный суд Москвы рассмотрел иск компании «Reface» (заказавшей рекламный ролик с использованием технологии deepfake) к компании «Бизнес-аналитика», которая этот ролик использовала без разрешения. Ответчик пытался возразить, что видео не охраняется авторским правом, раз оно создано нейросетью (по сути, «подделка»). Суд отклонил эти доводы и признал спорный дипфейк объектом авторского права, указав, что «технология дипфейк - лишь дополнительный инструмент обработки видео, а не способ его создания». Решение было вынесено в упрощённом порядке в конце 2023 г. и оставлено в силе апелляцией в 2024 г. Суд обязал ответчика выплатить 500 тыс. руб. компенсации правообладателю ролика. Это первый в России случай, где прямо зафиксировано, что произведение, созданное с применением ИИ-технологий, охраняется, а нарушение исключительных прав на него влечёт ответственность. По сути, суд посчитал, что авторские права принадлежат компании-заказчику дипфейка (которая организовала его создание у подрядчика) - то есть человеческая сущность авторства здесь усматривается в тех, кто задумал и произвёл контент с помощью ИИ, даже если сам образ актёра был сгенерирован. Такой подход перекликается с разъяснениями Верховного суда РФ о том, что творческий характер работы не зависит от того, создал ли её автор собственноручно или с помощью технических средств (это говорилось ещё применительно к фотографии и другим технологиям). Иными словами, AI рассматривается лишь как инструмент, как «кисть» в руках художника - тогда авторские права могут признаваться за тем, кто направлял этот инструмент.
Тем не менее, правовая неопределённость сохраняется, и бизнес обеспокоен. В 2023-2024 гг. в России активно обсуждалось, как именно закрепить права на «нейроконтент». В августе 2025 г. стало известно, что в Госдуме будет создана рабочая группа для подготовки поправок в ГК РФ, впервые устанавливающих правила об авторском праве на произведения, созданные с участием AI. По данным СМИ, планируется рассмотрение поправок в ст. 1259 ГК РФ (объекты авторского права) уже осенью 2025 г.. Цель - устранить неопределённость для пользователей нейросетей и защитить их права. Одним из инициаторов выступил «Совет блогеров при Госдуме» (чтобы это ни было), указавший, что сейчас «пользовательские соглашения многих AI-сервисов прямо прописывают, что все права на результаты принадлежат самой компании», что создаёт риск для авторов: они могут внезапно обнаружить, что всё созданное ими с помощью AI принадлежит иностранной платформе. Депутаты предлагают законодательно обеспечить, чтобы права на контент, сгенерированный нейросетью по заданию человека, принадлежали этому человеку (или организации) - по аналогии с тем, как студия владеет правами на фильм, даже если использовала компьютерную графику. Также обсуждается введение в законодательство определений вроде «нейросеть» и «deepfake», чтобы зафиксировать терминологию и правовые гарантии.
пока что российское право формально не признаёт AI автором, требуя творчества человека. Однако при практическом использовании нейросетей права обычно оформляют на человека или компанию, получивших результат - и суды готовы защищать такой результат от пиратского использования третьими лицами (пример с дипфейком). Ожидаются законодательные поправки, которые, вероятно, закрепят авторство за пользователем AI или иным образом распределят права, чтобы отечественные создатели контента не теряли плоды своего труда из-за оговорок в лицензиях сервисов. Бизнесу в России важно следить за этими изменениями, поскольку они могут напрямую повлиять на режим использования нейроконтента в ближайшем будущем.
ОАЭ: широкий подход к понятиям и человеческий фактор
Объединённые Арабские Эмираты в 2021 г. обновили своё законодательство об авторском праве (Federal Decree-Law No. 38/2021). Закон даёт очень широкое определение «произведения» - как любого «оригинального продукта» в области литературы, искусства или науки, независимо от способа выражения и ценности. На первый взгляд, под это определение могут подпадать и результаты, созданные с помощью ИИ, если они достаточно оригинальны. Перечень охраняемых объектов (ст. 2) включает «иллюстрации, рисунки, эскизы» и даже «смарт-приложения, программные продукты» - всё, что является результатом творческого труда человека. Ключевое слово - «творчество». Законом не предусмотрено прямо, как рассматривать работы, созданные ИИ, поэтому вопрос авторства таких изображений решается по общим нормам.
Согласно определению (ст. 1 закона), «автор» - это лицо, создавшее произведение; если автор неизвестен, то издатель или производитель временно осуществляет права до раскрытия личности автора. Интересно, что в ОАЭ автором может выступать не только физическое, но и юридическое лицо - например, компания, от имени которой выпущено произведение. Однако ИИ-система не является ни физическим, ни юридическим лицом, поэтому вписать её в понятие автора нельзя. Возникает вопрос: если нейросеть создала изображение, кого считать автором - разработчика алгоритма? пользователя, который ввёл запрос? владельца модели? Действующее законодательство ОАЭ не даёт на это прямого ответа.
Судебная практика в Эмиратах по этому вопросу пока отсутствует (известных случаев на сентябрь 2025 г. нет). Поэтому приходиться опираться на мнения юристов и аналогии. Эксперты отмечают, что национальное право ОАЭ не признаёт AI автором, и, как и в других странах, центральным критерием охраны остаётся наличие «человеческого творчества». Простое использование нейросети недостаточно - необходимо показать, что человек внёс интеллектуальный вклад: например, отобрал и доработал результат, задал оригинальную концепцию и т.д.. Если изображение полностью сгенерировано без творческой направляющей руки, велик риск, что оно не будет охраняться. Более того, закон ОАЭ привязывает длительность авторских прав к жизни автора (плюс 50 лет посмертно) , а вечные моральные права - к личности автора. Это трудно применить к алгоритму. В местной юридической литературе подчёркивается: AI в текущей модели права рассматривается как инструмент, а не субъект, и при определении авторства необходимо наличие «human touch» - человеческого участия в создании образа.
Как же на практике подходить к правам на AI-арт в ОАЭ? Вероятно, будет применяться аналогия с корпоративным творчеством. Если компания заказывает или самостоятельно через штатного сотрудника генерирует контент, правообладателем может считаться эта компания (по аналогии с произведениями, созданными по найму или по заказу). Тем более закон прямо позволяет юрлицам быть первоначальными авторами в ряде случаев. Косвенно такой вывод подтверждается и позицией DIFC (Dubai International Financial Centre) - в этом финансовом центре действует своя юрисдикция со специальным IP-законом 2019 г., однако он тоже не содержит упоминания ИИ, и эксперты указывают, что проблемы те же, что и в федеральном законе. То есть пока нет отдельных норм, приходится применять общие. DIFC IP Law, например, позволяет зарегистрировать авторские права на софт или базы данных, но не даёт возможности регистрировать «автором» алгоритм.
Для бизнеса в ОАЭ сейчас главное - договорное регулирование. Многие компании, предоставляющие AI-сервисы, в своих лицензионных соглашениях определяют, кому принадлежат результаты. Часто либо оставляют права за пользователем, либо предоставляют ему широкую лицензию. Например, Midjourney по условиям (для платных подписчиков) разрешает свободно использовать сгенерированные изображения в коммерции, считая, что пользователь имеет на них права (при условии соблюдения ряда ограничений). Но это именно договорное право, а не авторское: в суде придётся доказывать, что изображение охраняется и что пользователь - законный правообладатель. Пока что подобных кейсов в Эмиратах не возникало публично.
Законодательство понимает «произведение» широко, но автором признаёт только человека или учреждённое лицо (компанию). Полностью автоматические изображения, вероятно, не будут охраняться, если в их создании не усматривается творческой деятельности какого-либо лица. На конец 2025 г. специальных норм или разъяснений от властей ОАЭ нет, но в профессиональном сообществе преобладает мнение, что для охраны AI-контента нужен человеческий вклад и контроль. Поэтому авторские права на нейросетевые картинки, скорей всего, будут оформляться на человека, выпустившего их в оборот, либо на компанию, под чьим брендом они созданы, - аналогично тому, как это происходит с фотографиями, сделанными автоматической камерой: камера ведь сама не автор, автор - тот, кто сделал снимок.
3. Можно ли использовать такие изображения в коммерции? Риски и ограничения
Даже если генеративное изображение de jure не имеет автора (а значит, и охраны), на практике бизнесу нужно осторожно подходить к их использованию. Рассмотрим основные аспекты: регистрация AI-графики как товарного знака, риски повторяемости и уникальности, а также возможные претензии со стороны третьих лиц.
· Регистрация AI-изображения в качестве товарного знака.
В целом, нет прямых запретов на то, чтобы сделать логотипом компании картинку, созданную нейросетью, и зарегистрировать её в патентном ведомстве. Требования к товарным знакам (ТЗ) отличаются от авторско-правовых: важно, чтобы знак был различительным и не вводил потребителя в заблуждение, а вот кто и как его нарисовал - не столь существенно. Например, Ведомство по патентам и товарным знакам США (USPTO) не интересуется, был ли дизайн создан вручную или с помощью компьютера, при рассмотрении заявки на регистрацию. Ключевое - уникальность и отсутствие сходства с ранее зарегистрированными знаками. Таким образом, логотип, полученный исключительно методом генерации ИИ, может быть принят на регистрацию, если отвечает обычным критериям. Более того, в статье юристов Foley & Lardner отмечено, что AI-логотип (при использовании его в коммерции) может быть охраноспособен как ТЗ, даже если ему отказано в авторском праве. Это важный нюанс: торговая марка возникает из факта использования в торговле и регистрации, а не из творческого процесса создания. Таким образом, компания может получить исключительное право на использование AI-картинки в качестве бренда в своей сфере деятельности - и запрещать конкурентам использовать схожие обозначения. Например, если нейросеть нарисовала уникальный символ и вы его зарегистрировали как знак для товаров/услуг, никто другой в этой же отрасли не сможет его применять без нарушения ваших прав. Однако! Отсутствие авторской охраны означает, что вне контекста товарного знака изображение не защищено: конкуренты или другие лица могут копировать его в небрендовых целях (например, использовать ту же картинку в качестве иллюстрации где-то), и к ним не получится предъявить иск по копирайту. Иными словами, защита ТЗ ограничена сферой использования в коммерческом обороте для отличия товаров, тогда как авторское право обычно шире (охраняет от любого копирования). Бизнесу нужно учитывать этот «разрыв»: AI-сгенерированный логотип может оказаться уязвимым за пределами брендовой функции. Чтобы усилить защиту, специалисты советуют внедрить элемент человеческого творчества: например, доработать нейросетевой эскиз вручную. Тогда логотип, во-первых, точно будет более уникальным, во-вторых, творческие доработки сами по себе получат авторско-правовую охрану, и совокупный результат тоже можно попытаться зарегистрировать как художественный дизайн. В публикации Bloomberg Law приведён пример: если компания нарисовала от руки базовый эскиз, а затем с помощью AI его раскрасила и «довела до ума», конечный логотип сможет охраняться и как товарный знак, и как произведение (в той части, где прослеживается оригинальный человеческий рисунок). Напротив, если взять чисто AI-картинку, то она годится только на товарный знак, а авторских прав на неё не возникает, и «любой третий участник может теоретически использовать такой логотип в художественных или небрендовых целях без вашего согласия». Вывод: в коммерции можно использовать нейросетевые изображения, и их регистрация как ТЗ возможна, но желательно обеспечить себе максимальные права за счёт человеческого вклада.
· Уникальность и риск повторяемости результатов.
Генеративные модели обучены на огромных массивах данных и используют стохастические алгоритмы, поэтому шанс получить два абсолютно идентичных изображения от AI крайне мал. Однако похожесть вполне возможна: при одних и тех же промтах или близких настройках разные пользователи могут получить визуально сходные картинки. Кроме того, сами модели могут воспроизводить распространённые шаблоны. Это создаёт риск для брендов. Например, если два стартапа независимо друг от друга сгенерировали логотипы через одну нейросеть, не исключено, что они окажутся близкими по стилю или элементам - вплоть до конфликтной степени. В отсутствие авторских прав вопрос будет решаться в плоскости товарных знаков (кто первый подал на регистрацию или начал использовать - того и преимущество). А если на уровень ТЗ спор не выйдет, то и вовсе оба могут пользоваться, просто возникнет путаница у аудитории. Поэтому ключевая рекомендация: не полагаться на AI как на «генератор гарантирующей уникальности». Проверяйте созданные изображения: делайте поиск по изображениям (reverse image search) в интернете, смотрите, не выпускает ли нейросеть что-то слишком похожее другим клиентам. Некоторые известные случаи уже были: так, ранние версии Stable Diffusion воспроизводили чужие фотографии практически без изменений (например, находили кадры с отсечённым копирайтным текстом оригинала). Такой повтор явного исходника - редкость, но частичное заимствование элементов вполне возможно. Помимо прямой правовой проблемы (нарушение чьих-то авторских/смежных прав), это бьёт по уникальности вашего продукта.
· Претензии правообладателей и юридические риски.
Отдельная зона риска - использование AI-изображений, которые могут задевать чужие интеллектуальные права. Здесь несколько ситуаций:
1. Модель сгенерировала персонажа или стиль, схожий с чужим охраняемым.Пример - нейросеть нарисовала мультипликационного мышонка, очень похожего на Микки Мауса, или кадр с персонажем, напоминающим Гарри Поттера. Если вы попытаетесь использовать такой результат в коммерческих целях (тем более как логотип, рекламу, товар), почти наверняка правообладатель оригинального образа предъявит претензии. Крупные студии уже показали свою политику: они считают, что AI «копирует и чуть изменяет» их контент, то есть нарушает авторские права и товарные знаки. В иске Disney и Universal против Midjourney прямо сказано, что выдача изображений, где фигурируют их знаменитые персонажи - это пиратство, неважно, AI его делает или нет. Поэтому если, например, дизайнер решит сэкономить время и сгенерировать постер «в стиле Disney» с похожими героями, используя такой результат без лицензии, - высок риск нарваться на иск или как минимум на требование прекратить использование. В мире уже известны кейсы, когда компании заставляли удалять AI-контент, слишком сильно напоминающий чужие произведения. Даже если сходство было непреднамеренным, суды могут признать нарушение (особенно в США с концепцией substantial similarity - существенного сходства). Вывод: избегайте публично использовать сгенерированные изображения, которые явно повторяют чужих персонажей, логотипы, узнаваемый стиль художника или фотографа без разрешения. Это чревато не только гражданскими исками, но и, в некоторых юрисдикциях, штрафами за недобросовестную конкуренцию или нарушение товарных знаков.
2. Нарушение прав при обучении и исходных данных. Здесь риск скорее ложится на поставщиков ИИ-сервисов, но может затронуть и пользователей. Например, если выяснится, что изображение было сгенерировано моделью, обученной на ворованном контенте, и в результате ваш визуал содержит фрагменты чужой фотографии, фотограф (или фотосток) вправе предъявить претензию. Знаковый случай - иск Getty Images против Stability AI: Getty утверждает, что разработчики Stable Diffusion без лицензии скопировали 12 млн её фотографий для обучения модели. В том числе, модель порой выдаёт картинки с «водяными знаками» Getty, что явно указывает на несанкционированное использование контента. Пока эти процессы не завершились (см. следующий раздел), но бизнесу стоит учитывать: если вы используете генератор, находящийся под судом за пиратство, теоретически результаты его работы тоже могут оказаться «заражёнными» нелегальным использованием данных. Сейчас прямых исков к конечным пользователям нейрокартинок не было - правообладатели бьют по крупным компаниям (самим разработчикам ИИ). Однако в договоре с AI-сервисом обычно прописано, что он не гарантирует отсутствие чужих прав в результатах, перекладывая риски на пользователя. Значит, если вдруг ваше рекламное AI-изображение окажется похожим на чью-то картину, автор может предъявить претензию именно вам (как опубликовавшему это изображение). Вам потом придётся разбираться с AI-провайдером на предмет возмещения. Поэтому важно выбирать генеративные инструменты с «чистой» репутацией - некоторые новые модели специально обучаются только на лицензированных или общедоступных изображениях, снижая эти риски. И наоборот, бесплатные неизвестные генераторы могут работать на чём попало.
3. Права на изображения людей и реальные объекты. Генеративные модели также могут создавать контент, связанный с узнаваемыми личностями (например, портрет знаменитости) или существующими товарными знаками (скажем, фото человека на фоне логотипа известного бренда). Использование таких результатов тоже несёт риски: могут вступить в силу право на изображение (privacy/publicity) или право на товарный знак. Например, сгенерировав рекламу с лицом голливудского актёра без его согласия, компания рискует получить иск за незаконное использование образа знаменитости в коммерческих целях. В мире были инциденты, когда нейросети делали фотореалистичные постеры с Томом Крузом или Эммой Уотсон, которых те никогда не одобряли - и распространение такого контента может быть признано нарушением прав на образ. Аналогично, если AI «домалюет» в вашу картинку чужой бренд (скажем, на сгенерированном фото человек держит iPhone с логотипом Apple), при коммерческом использовании это может вызвать вопросы правообладателя товарного знака (не выглядит ли это как реклама с их брендом, была ли лицензия и т. д.).
Итог по коммерческому использованию: применять AI-генерированный контент в бизнесе можно, но с оговорками. Нужно:
· Проверять уникальность и правовую чистоту изображения (нет ли в нём чужих защищённых элементов);
· Понимать ограничения: авторской монополии на такое изображение у вас, скорее всего, нет, поэтому конкуренты могут его копировать (если только вы не закрепили его как товарный знак или не добавили своего креатива, который охраняется);
· Следить за лицензионными условиями платформы, которую вы используете (например, Midjourney разрешает коммерческое использование для платных подписчиков, а у бесплатных - свои ограничения; некоторые сервисы запрещают использовать результаты в логотипах или чувствительных сферах - важно читать User Agreement);
· Быть готовым удалить или изменить контент, если поступит обоснованная жалоба правообладателя. Лучше заранее заложить альтернативные варианты, чем доводить до суда.
4. Судебные дела и споры вокруг AI-изображений
Нагляднее всего столкновения права и генеративного AI проявляются в судебных процессах. Рассмотрим основные споры 2022-2025 гг., которые уже формируют практику.
Warner Bros., Disney, Universal против Midjourney (США)
Кто подал иск: три голливудских студии - сначала в июне 2025 г. Disney и Universal, а в сентябре 2025 г. к ним присоединилась Warner Bros. Discovery.
Кого и за что судят: компанию Midjourney, Inc., создателя популярного нейросетевого сервиса генерации изображений. Студии обвиняют Midjourney в массовом нарушении авторских прав и торговых марок. В исковых заявлениях говорится, что Midjourney «пиратила» библиотеки известных персонажей и стилей, позволяя пользователям генерировать картинки с героями Disney, Warner, Universal без лицензии. Приводятся наглядные примеры: изображения, очень похожие на сцену из Star Wars (Дарт Вейдер), героев мультфильмов Frozen, Despicable Me (Миньоны), Shrek, Kung Fu Panda и др., которые AI выдавал по описаниям. По сути, исковая позиция такая: Midjourney «скармливала» при обучении нашей модели тысячи охраняемых кадров из фильмов, а теперь генерирует их производные без разрешения. Студии называют Midjourney «бездонной ямой плагиата», утверждая, что технология не оправдывает копирование - «пиратство есть пиратство, и то, что изображение создаётся ИИ, ничуть не уменьшает степень нарушения». Также указано, что ответчик мог бы внедрить фильтры, исключающие генерацию по названиям их персонажей, но не сделал этого для выгоды.
Требования: истцы просят суд запретить Midjourney продолжать использование их контента - то есть судебный запрет (инъюнкцию), обязывающую компанию фильтровать или блокировать генерацию изображений, содержащих объекты их прав. Плюс - взыскать убытки и потенциальную прибыль, полученную Midjourney от платных подписок, поскольку серв IPмонетизируется (планы от $10 до $120 в месяц). Warner Bros. в своём иске (поданном в Калифорнии в сентябре 2025) оценивает сумму ущерба в максимальные $150 тыс. за каждый умышленно нарушенный объект авторского права.
Стадия дела: по состоянию на сентябрь 2025 г. процессы только начаты, решения ещё впереди. Однако уже сам факт таких исков - прецедент. Раньше дискуссии шли больше вокруг текстов и музыки, а тут впервые величайшие киностудии объединились против AI-имиджгенератора. Это показатель, насколько серьёзно индустрия развлечений воспринимает угрозу. Также важно, что в заявлении Warner Bros. упоминается: Midjourney обладает техникой предотвращать нарушения (например, могла бы убрать имена известных персонажей из подсказок), но сознательно этого не сделала. Если суд примет эту логику, AI-провайдеров могут обязать внедрять фильтры, иначе они будут нести ответственность за выдачу. В общем, эти иски - своего рода «Napster-момент»для генеративного AI в визуальной сфере. Их исход определит, смогут ли такие сервисы свободно существовать на материалах из интернета или их заставят жёстко лицензировать контент для обучения и контролировать вывод.
Иск художников против Stability AI и др. (США)
Кто истцы: три независимых художника - Сара Андерсен (известная по комиксам «Sarah’s Scribbles»), Келли МакКернан и Карла Ортиз, от имени потенциального класса затронутых авторов.
Ответчики: компании Stability AI (разработчик Stable Diffusion), DeviantArt (онлайн-платформа для художников, запустившая свой генератор DreamUp) и Midjourney. Иск подан в январе 2023 г. в Федеральный суд Северного округа Калифорнии.
Суть претензий: художники утверждают, что их сотни произведений были незаконно скопированы из интернета и использованы для обучения модели Stable Diffusion без разрешения. Таким образом, по их мнению, Stability AI нарушила их авторские права при создании своего AI. Кроме того, они изначально утверждали, что и выдача изображений моделью тоже представляет собой производное нарушение - мол, генератор может выдавать картинки в стиле конкретных авторов или даже близкие по форме к их работам, что подрывает рынок (пользователи могут сгенерировать «как у художника X» вместо того, чтобы платить этому художнику). Были заявлены и другие требования - например, нарушение персональных неимущественных прав (права на изображение, на имя в связи с тем, что AI может сгенерировать картину и выдать за стиль конкретного автора) и недобросовестная конкуренция.
Ход дела: на октябрь 2023 г. судья Уильям Оррик частично рассмотрел вопрос на стадии motion to dismiss. Он отклонил часть требований истцов. В частности, суд снял с ответчиков Midjourney и DeviantArt ответственность на этом этапе (разрешив истцам при желании уточнить и подать жалобу заново на них). Также судья исключил требования о прямом нарушении авторских прав, связанные с выходными изображениями, а не с обучением: он указал, что сами по себе картинки, создаваемые Stable Diffusion, вероятно, не воспроизводят защищённые элементы работ истцов (если только случайно не повторят их один-в-один), а потому в текущем виде претензии неубедительны. Оррик прямо отметил: не похоже, что выдача изображений нарушает их права без демонстрации существенного сходства с конкретными оригиналами. Зато ключевое обвинение в нарушении при обучении - то, что Stability скопировала их картинки для создания модели - суд позволил оставить в деле для одного из истцов, Сары Андерсен. У Андерсен были зарегистрированы авторские права на её работы (в США это условие для иска), поэтому её претензия, что Stability скопировала её рисунки, когда «скребла» интернет ради датасета, признана достаточной для дальнейшего разбирательства. У двух других художниц регистраций не было, их авторско-правовые иски отклонены без рассмотрения по существу. Также суд снял второстепенные претензии (нарушение права на гласность/имя и пр.), посчитав их необоснованными либо преждевременными.
Что дальше: дело продолжается против Stability AI, фокусируясь на вопросе законности обучения на чужих изображениях. Этот процесс станет показательным. По сути, суд должен будет решить, является ли копирование миллионов картинок из интернета в процесс создания нейросети нарушением авторского права или попадает под подразумеваемые разрешения (fair use, TDM-исключение и т.д.). Stability AI, конечно, будет настаивать, что «мы не храним картинки, а извлекаем из них параметры; выходные результаты не являются копиями конкретных работ, модель лишь учится общим правилам». Но истцы утверждают обратное: «фактически модель содержит сжатые копии наших изображений в своих весах, иначе как бы она воспроизводила стили; значит, было нелегальное воспроизведение». Пока что судья не занял чью-то сторону, но признал, что вопрос сложный и требует полноценного исследования, «это не решается на ранней стадии».
Отдельно стоит отметить: подобные иски - не единственные. В США поданы коллективные иски писателей против OpenAI (за обучение ChatGPT на книгах), фотографов против Stability AI и др. То есть идёт широкая волна споров о том, допустимо ли использовать защищённые данные для обучения генеративных моделей без разрешения. Решения по делу Andersen v. Stability AI и аналогичным напрямую повлияют на весь сектор: либо ИИ-компании вынуждены будут заключать лицензионные сделки с правообладателями (что усложнит и удорожит разработки), либо суды признают такой майнинг допустимым при определённых условиях (например, сочтут fair use - «добросовестным использованием» - в случае некоммерческого анализа). Ситуация особенно интересна, потому что в США нет прямого «исключения для майнинга», в отличие от ЕС; всё упирается в гибкую доктрину fair use. Возможно, дела дойдут до Верховного суда США, который даст прецедентные разъяснения.
Getty Images против Stability AI (Великобритания и США)
Кто истец: крупнейший фотобанк Getty Images (вместе с аффилированными компаниями).
Ответчик: Stability AI Ltd. (британская дочерняя компания Stability AI) и связанная Stability AI Inc.(американская компания).
Иски поданы: в Великобритании (Высокий суд Англии и Уэльса) - в январе 2023 г., и в США(федеральный суд Делавэра) - в феврале 2023 г..
Требования: Getty заявляет о многократных нарушениях авторских прав, товарных знаков, а также прав на базы данных (в UK) со стороны Stability AI при создании и работе Stable Diffusion. Конкретно:
· Нарушение авторского права (UK): Getty утверждает, что около 12 млн фотографий из её библиотеки были скопированы без лицензии и использованы как тренировочный материал. Это, по её мнению, прямое нарушение - несанкционированное воспроизведение её изображений. Кроме того, в иске изначально фигурировало утверждение, что и выходные изображения Stable Diffusion могут представлять собой незаконные производные, поскольку «натренированы» на защищённых работах.
· Нарушение торговых марок (UK & US): дело в том, что на многих оригинальных фото Getty стоит знаменитый водяной знак «Getty Images». Модель Stable Diffusion, обучаясь, запомнила эти логотипы и иногда вставляет нечеткое подобие водяного знака в генерируемые картинки. Getty указывает: появление её watermark’а на AI-изображениях вводит публику в заблуждение, создавая ощущение, что это официальной контент Getty. Это рассматривается как нарушение торговой марки и passing off (доведение подделки до потребителя под чужим брендом). В иске США прямо говорится о случаях, когда Stable Diffusion выдаёт нагенерированные фото с артефактами логотипа Getty - что, конечно, бьёт по репутации фотобанка.
· Нарушение права на базы данных (UK): в законодательстве ЕС/UK есть особое право sui generis на базы данных, охраняющее существенные вложения в их создание. Getty заявила, что её тщательно собранная база изображений была фактически «высосана» Stability AI, что составляет неправомерное извлечение существенной части базы.
· Нарушение принципов добросовестной конкуренции (US, аналог - unfair competition): Getty утверждает, что Stability AI, не вложив ни копейки в создание фотографий, пользуется ими для своей выгоды, конкурируя с самим Getty (который теперь продаёт меньше лицензий, ведь люди могут бесплатно генерировать похожие картинки).
Позиция Stability AI: в обоих юрисдикциях компания отбивается. В США она, вероятно, будет ссылаться на fair use. В британском суде юристы Stability частично избрали иную тактику: они пытались добиться strike-out (прекращения части иска) по юрисдикционным основаниям - мол, если обучение проходило вне Великобритании, то британское авторское право не применимо. Также защита ссылается на редкий аргумент: использование для пастишей (пародии) - в UK законе есть ограниченное исключение, позволяющее копировать ради создания пародий или имитации стиля. Stability AI утверждает, что её модель может генерировать «стили, имитируя художников», что формально может попадать под fair dealing для пастиша. И наконец, самая концептуальная линия защиты: Stability утверждает, что сама модель (Stable Diffusion) не содержит защищённых фрагментов, она лишь математически представляет информацию. Поэтому они просят суд признать, что «модель — не осязаемый носитель, а значит не может считаться «копией» данных».
Ход процесса в UK: дело дошло до полноценного суда: в июне 2025 г. состоялось слушание в Высоком суде (судья Мелисса Кларк). По ходу разбирательства произошёл интересный поворот: Getty Images отозвала часть своих требований. В частности, ближе к концу процесса Getty отказалась от обвинений, связанных с копированием входных изображений и с выводами. Вероятно, из опасения проиграть по этим сложным пунктам, истец сузил фокус до одного главного вопроса: является ли сама модель Stable Diffusion «материальным носителем, содержащим нелегальные копии» изображений Getty (т.е. по сути, «является ли сгенерированный AI набор весов — нарушающим экземпляром базы данных/произведений»). На этом строится оставшееся авторско-правовое требование. Также в силе остались претензии по товарному знаку (водяной знак) и, возможно, по базе данных. Суду предстоит вынести решение, и его очень ждут: оно покажет, как английское право будет рассматривать «впитанное» нейросетью содержимое. Если суд решит в пользу Getty, это создаст опасный прецедент для AI-компаний - их модели могут признаваться «непосредственными уликами пиратства». Если выиграет Stability AI, то разработчики вдохнут свободнее - значит, само по себе обучение и хранение весов не будет считаться нарушением, только конкретные вводы/выводы в явном виде.
Дело в США: параллельно Getty судится в американском суде (округ Делавэр). Там иск нацелен в основном на нарушение авторского права и торговой марки (то есть аналогичные позиции, но без темы базы данных, которой в US-праве нет). Getty требует запретить Stability использовать её изображения и взыскать убытки, включая прибыль Stability от коммерциализации Stable Diffusion. Эта тяжба движется медленнее, ожидая, видимо, исхода британского спора и других дел (возможно, стороны возьмут в расчёт, к чему придут суды в ЕС/UK). В США ключевым будет вопрос fair use: допустимо ли использовать миллионы чужих фото для создания новой технологии? Есть аргументы и за, и против, и судебная практика пока неясна. Не исключено мировое соглашение - Getty уже говорила, что не против партнерств (например, она сотрудничает с Nvidia, предоставляя легально контент для обучения). Но пока Stability стоит на своём.
Значение кейса Getty: многие называют его «первой большой битвой, которая может переформатировать правила игры». Если Getty победит хотя бы по одной из позиций, AI-разработчикам придётся серьезно скорректировать подход к данным - либо получать лицензии (платно), либо ограничивать вывод модели, чтобы исключить узнаваемые элементы (например, удалять водяные знаки на этапе обучения, фильтровать стили). Если же Stability отстоит свою правоту, это даст зелёный свет «исследовательскому» использованию общедоступных онлайн-материалов для обучения. Примечательно, что на решение британского суда ссылаются и законодатели ЕС: в обсуждениях реформы TDM-режима отмечается, что слишком либеральный подход типа «разрешить scraping всего» может ударить по авторам. Европейский парламет уже настроен изменить опт-аут исключение на опт-ин, как упомянуто выше , во многом из-за опасений, поднятых делом Getty v. Stability. В то же время разработчики AI указывают: слишком жёсткие требования ставят европейские компании в невыгодное положение - модели будут обучаться в других странах и потом импортироваться (правда, AI Act пытается бороться и с этим, распространяя требования и на ввозимые модели ).
В целом, прецедентов ЕС по AI-изображениям пока нет, поэтому европейцы внимательно смотрят на англо-американскую практику (и на решения, как грядущее по Getty). В самой континентальной Европе дискуссия больше на уровне политики: например, во Франции ассоциации художников добиваются запретов на несанкционированное обучение AI на их работах, в то время как стартапы просят сохранить свободу инноваций. Суд ЕС в перспективе тоже рассмотрит вопросы по генеративному AI - кроме упомянутого дела C‑250/25 по текстам, вероятно, появятся запросы и по визуальному контенту, если национальные суды столкнутся с подобными спорами.
РФ и ОАЭ: есть ли прецеденты или официальные разъяснения?
Россия: как уже обсуждалось, специальных судебных дел по авторству AI нет, но есть смежные случаи. Кроме упомянутого московского решения по дипфейку, можно отметить, что российские суды вообще склонны охранять результат, если видят в нём творческий труд человека, даже при активном использовании техники. Наглядным примером из прошлого - споры о правах на фотографии: когда-то их тоже пытались не охранять («камера же всё делает»), однако суды и закон утвердили, что фотограф - автор, хотя аппарат лишь фиксирует изображение. По аналогии, если нейросеть выступает таким «аппаратом», то суды вероятно будут признавать авторство за человеком, использовавшим её, при условии творческого характера работы. В Минкульте РФ (ведомство, курирующее авторское право) официально признают, что пока что авторство AI не признаётся законом и потребуется его корректировка, чтобы урегулировать вопросы прав на нейроконтент. Сейчас готовятся такие поправки (см. выше) - их концепция, по всей видимости, закрепит права за пользователями или разработчиками в зависимости от ситуации. Например, обсуждается, что если результат создан по заданию человека, права принадлежат ему; если же контент полностью автономный, возможно, он будет введён новый термин вроде «объект, созданный ИИ» с особым режимом. Подробностей мало, но официальный курс - дать определённость, исключив вакуум «ничейности» ИИ-контента. Кроме того, российские эксперты призывают не столько спорить, охранять или нет ИИ-объекты, сколько разрабатывать механизм защиты интересов авторов чьих работ AI использует. Россия, как и многие страны, столкнулась с проблемой компенсации создателям исходного контента (писателям, художникам) за использование их трудов в обучении AI. Вероятно, эта тема тоже будет учтена в будущей реформе - возможно, появятся положения о вознаграждении авторам, чьи произведения задействованы в дата-сетах, или о каких-то отчислениях через коллективные организации.
ОАЭ: на Ближнем Востоке случаи споров по ИИ-контенту пока не проявились. Ни в федеральных судах ОАЭ, ни в судах DIFC не было дел об авторстве нейросети или копировании при обучении. Это объяснимо: технологии только набирают популярность, да и досудебно многие вопросы решаются (например, лицензированием контента). В ОАЭ очень сильна профилактика: власти выпускают гайдлайны по deepfake, по этичному использованию AI и т.п.. Например, существует UAE AI Ethics Guidelines, где рекомендуется уважать права ИС, проверять данные, использовать прозрачные алгоритмы. Хотя это не закон, бизнес в эмиратах традиционно старается следовать лучшим практикам, особенно в свободных зонах. DIFC в 2023 г. даже внесло поправки в правила о защите данных, обязав компании раскрывать использование AI и проводить оценку рисков. Возможно, со временем появятся и разъяснения по интеллектуальной собственности применительно к AI. Например, если зарубежные суды начнут признавать за пользователями права на AI-контент, ОАЭ могут выпустить циркуляр, подтверждающий аналогичный подход (такое практикуется, чтобы дать уверенность инвесторам и создателям). Пока же рекомендация экспертного сообщества ОАЭ - включать договорные условия. Если компания заказывает дизайнеру создание логотипа с помощью ИИ, в контракте лучше прямо указать, что права на итог принадлежат компании, а дизайнер гарантирует, что приложил творческие усилия и результат оригинален. Также можно прописать, что если всплывут претензии, исполнитель берёт на себя ответственность. Это не решает проблему отсутствия авторского права, но хотя бы распределяет риски и обязанности между сторонами.
В целом, в РФ и ОАЭ ситуация находится в стадии становления: все понимают важность проблемы, но ждут либо крупных кейсов, либо изменений в законе. Тем не менее, бизнесу в этих странах уже сейчас следует действовать с оглядкой на зарубежную практику, так как многие контракты и проекты международны. Например, если стартап в Дубае генерирует картинки для клиента в Европе, ему нужно учитывать и европейские нормы тоже. Аналогично, российские художники, размещающие свои AI-работы онлайн, могут сталкиваться с копированием за рубежом, где их права трудно защитить из-за неохраноспособности таких работ.
5. Рекомендации для бизнеса и дизайнеров: как снижать риски
Учитывая вышеописанное, компании и создатели, работающие с генеративными изображениями, должны предпринимать меры для защиты своих интересов и минимизации юридических проблем. Вот ряд практико-ориентированных советов:
· Внимательно изучайте условия использования AI-сервисов. Перед тем как воспользоваться платформой (Midjourney, DALL·E, Stable Diffusion Web и т.д.) для коммерческого проекта, прочитайте пользовательское соглашение. Узнайте, кто по договору владеет правами на сгенерированный контент. Некоторые сервисы (особенно бесплатные) могут включать пункт, что они сохраняют за собой права или что результат распространяется по открытой лицензии. Например, ранее бесплатный Midjourney публиковал все работы в открытый доступ (CC BY-NC лицензия), что недопустимо для коммерческих целей. Выбирайте сервисы, которые предоставляют вам достаточные права на результат. Для важных проектов, возможно, стоит платить за подписку/премиум доступ - у многих AI-платформ платная версия дает более ясный статус контента (у того же Midjourney платные пользователи получают права на изображения, с определёнными ограничениями). Если условия смущают (например, серв IPзаявляет, что «все права на результаты принадлежат компании» ), лучше найти другой инструмент или проконсультироваться с юристом, как обезопаситься.
· Обеспечьте «человеческий вклад» в результате. Как мы выяснили, чисто нейросетевой контент авторским правом не защищён, а значит, вы не сможете пресечь его копирование или доказать своё авторство. Решение - добавить творчества от себя. В практике дизайна это означает: не используйте изображение ровно таким, каким его выдал AI. Доработайте его - отретушируйте детали, измените композицию, сведите несколько AI-элементов в одно полотно, добавьте свой текст или графику. Это не только улучшит уникальность, но и даст основание считать итоговое произведение охраняемым, ведь в нём будет выражен оригинальный творческий выбор человека. В сфере рекламы многие уже так делают: нейросетью генерируют базовую идею или фон, а финальный ключевой визуал дорисовывает художник. Такой подход по возможности следует применять всегда, когда вы планируете вложиться в бренд/изображение. Не стоит строить айдентику бизнеса на 100% сгенерированном логотипе/маскоте - лучше поручить дизайнеру переработать нейросетевой эскиз. Это повысит ваши шансы зарегистрировать логотип и получить на него полноправные IP-активы. Кстати, даже Бюро США намекает: «минимальные правки не спасут, но если творчески переработать AI-материал, то итог может квалифицироваться как производное произведение человека». Конечно, баланс важен - просто изменить фильтр или цвет недостаточно, речь о существенных изменениях.
· Проведите поиск на конфликтующие права. Если вы собираетесь использовать AI-картинку публично (тем более сделать её частью бренда или продукта), убедитесь, что она не нарушает чужих прав. Для этого:
o Сделайте реверсивный поиск по изображению (через Google Images, TinEye и др.). Если обнаружится точно такая же картинка или очень похожая, сравните источник. Возможно, нейросеть просто воспроизвела существующее изображение - тогда от использования лучше отказаться. Были случаи, когда генераторы воспроизводили стоковые фото практически без изменений - использование таких результатов будет чистым нарушением авторского права.
o Анализируя картинку, обратите внимание на детали: нет ли там известных логотипов, персонажей, произведений искусства. Нейросеть могла «дорисовать» что-то знакомое. Например, в фоне может мелькать силуэт Эйфелевой башни с торговой маркой или фрагмент чьей-то картины. Если такое есть, лучше убрать/заменить эти детали. Не используйте образы знаменитостей без разрешения - даже если нейросеть слегка изменила черты лица, публика может опознать, и тогда возможны претензии по праву на образ.
o Сравните со своим же контентом. Убедитесь, что сгенерированный визуал не слишком похож на логотип или стиль другого бренда. AI может выдать нечто, что напоминает чужой фирменный стиль. Если планируется регистрация товарного знака, желательно провести профессиональный поиск по базам ТЗ - не повторяет ли ваш AI-логотип ранее зарегистрированные. В практике встречались случаи, когда разные компании пытались зарегистрировать похожие AI-изображения (нейросеть выдала сходный результат на схожие запросы). Кто подаст первым - того и право, но лучше избегать конфликта с крупными корпорациями: у них ресурсов больше, они могут оспорить вашу заявку, даже если формально не были первыми.
· Документируйте свой процесс создания. Полезный совет - сохранять черновики, промты, шаги работы над изображением. Если возникнет спор (например, кто-то скопирует вашу картинку, и вы захотите доказать своё авторство), такие доказательства пригодятся. В спорных случаях можно показать, что именно вы сгенерировали изображение (по таймштампам), что вы в него вложили (скриншоты обработки). Более того, фиксируя свой творческий вклад, вы подтверждаете оригинальность. Например, вы можете записать короткое видео экрана, как дорисовываете детали AI-изображения. Это пригодится, если вдруг придётся убеждать регистратуру авторских прав или суд в наличии вашего креатива. Конечно, публиковать эту «кухню» не нужно, но хранить - полезно.
· Мониторьте юридические изменения. Сфера быстро развивается: что разрешено сегодня, завтра может стать ограничено (и наоборот). Поэтому следите за новостями: принимаются ли новые законы (например, AI Act в ЕС), вышли ли судебные решения, есть ли разъяснения ведомств. На сентябрь 2025 г. ситуация уже гораздо яснее, чем год назад, но впереди - ещё ряд важных прецедентов. Хорошей практикой будет периодически консультироваться с юристами, особенно если ваш бизнес плотно завязан на генеративном контенте. Возможно, скоро придётся оформлять какие-то лицензии или платить отчисления за использование больших датасетов - заложите такой вариант в свои планы.
· Страховка и оговорки ответственности. Если проект крупный, рассмотреть вариант страхования ответственности за нарушение IP(некоторые страховщики предлагают полисы, покрывающие риски IP-споров, хотя для AI-контента это новая область). В договорах с подрядчиками, которые предоставляют вам контент, включайте гарантийные оговорки: пусть гарантируют, что либо контент оригинален, либо у них есть все права, либо контент создан ИИ, но при этом не нарушает ничьи права. Конечно, полагаться на такие гарантии полностью нельзя, но в случае спора вы хотя бы сможете привлечь подрядчика к ответственности (регресс).
· Уважайте права других создателей. Пожалуй, не только юридический, но и этический совет. Не пытайтесь использовать AI для откровенного плагиата - например, генерировать картинки в стиле конкретного современного художника и выдавать за свои. Сообщество творцов негативно реагирует на такие ситуации, да и репутационные потери могут дорого стоить. Лучше использовать возможности AI для ускорения рутинных задач, придумывания вариантов - но финальный штрих и оригинальность должен привносить человек. Тогда и проблем с авторством будет меньше, и продукт получится уникальнее.
Следуя этим рекомендациям, бизнес сможет извлечь пользу из генеративного ИИ, одновременно минимизируя юридические риски и уважая права интеллектуальной собственности.
Итоги на сентябрь 2025 г.: Правовая картина вокруг AI-сгенерированных изображений всё ещё формируется, но уже можно сделать ряд чётких выводов:
· Автором по закону считается только человек. Ни в США, ни в ЕС, ни в России или ОАЭ сейчас не признаётся искусственный интеллект в качестве автора произведения. Чтобы изображение охранялось авторским правом, необходим значимый человеческий вклад. Полностью автономно созданные нейросетью картинки, как правило, остаются без защиты. Это означает, что формально любой может их копировать и использовать - увы, в том числе ваши конкуренты.
· Однако, права пользователей AI усиливаются. Столкнувшись с вакуумом, многие юрисдикции движутся к тому, чтобы закрепить права за создателями нейроконтента (пусть даже не через классическое авторское право, а через особые нормы). В России готовятся поправки, которые дадут определённость, кому принадлежит произведение, созданное с участием нейросети. В ЕС обсуждается упрощение лицензирования данных для ИИ, а AI Act обяжет модели уважать авторские права при обучении. Бизнесу важно держать руку на пульсе этих изменений.
· Практические риски сосредоточены в трёх областях: (1) невозможность претворять свои права, (2) конфликт с правами других, (3) договорные ловушки. Первый риск - если вы создали бренд на AI-графике, вы не можете помешать другим использовать похожее (если нет патентной/товарной защиты). Второй - ваша AI-картинка может непреднамеренно нарушить чужой копирайт или товарный знак (например, воспроизведя фрагмент чужого произведения). Третий - по умолчанию результаты генерации могут отойти платформе или оказаться в открытом доступе из-за условий использования.
· Судебные споры уже начались и задают тренды. В США крупные медиакомпании (Disney, Warner) требуют от генераторов предотвратить появление их персонажей , художники требуют признавать нарушение в несанкционированном обучении моделей , фотобанки добиваются ответственности за «скрапинг» контента. Пока окончательных решений мало, но даже промежуточные указывают: суды склонны защищать права оригинальных авторов от чрезмерного использования их работ ИИ-компаниями (например, суд в Калифорнии дал ход иску по копированию при обучении ). Это сигнал бизнесу: легкомысленное использование чужих данных в AI-проектах может привести к ответственности.
o Если вы используете AI-изображения в бизнесе, старайтесь привносить в них оригинальность человека - так вы сможете претендовать на права и отличать свой продукт.
o Формализуйте права договором. Закрепите, что ваш подрядчик/сотрудник передаёт компании все права на результаты сгенерированные AI. Проверьте условия сервиса: если нужно, купите лицензию или разрешение на коммерческое использование.
o Избегайте очевидных нарушений. Не генерируйте и не используйте контент, явно содержащий чужих персонажей, логотипы, стиль охраняемых произведений без разрешения - велик шанс юридических проблем.
o Следите за делами и законами. Решения по искам Getty, Disney, а также новые законы (как AI Act) могут установить новые правила игры. Будьте готовы адаптироваться - возможно, через год-два понадобится получать лицензии на датасеты или маркировать AI-контент.
Заключение: генеративный AI открывает потрясающие возможности для творчества и бизнеса, но не отменяет действие правовых принципов. Отношения между авторским правом и нейросетями сейчас словно «серое поле», которое постепенно получает границы. Чтобы успешно работать с AI-контентом, нужно одновременно проявлять и креативность, и осторожность. Используйте нейросети как ускоритель и помощник, но конечный контроль - юридический и художественный - держите в руках человека, делайте окончательную полировку и персонализацию контента, во-первых это красиво, а вто-вторых поможет в суде…