Stable Diffusion
September 13, 2023

Ошибка — Stable Diffusion создает очень примитивные изображения, которые совершенно не устраивают по уровню качества

Midjourney создает более качественные картинки или это заблуждение?

Из названия статьи может показаться, что в Stable Diffusion действительно существуют перечисленные проблемы, но, как и в большинстве случаев, "Дело было не в бобине, раздолбай сидел в кабине".
Давайте разбираться, что пользователь делает не так, когда получает некачественные генерации.

Причина №1 — Промпт без описания деталей, стиля и экстранетворков.
Перед описанием этого пункта следует сделать ремарку: Stable Diffusion, в отличии от Midjourney, является полноценным конструктором, с помощью которого можно создать что угодно, но это влечет за собой и ряд вопросов.

Основной вопрос — почему в SD нужно обязательно прописывать детализацию в промпте, а в Midjoipurney это работает автоматически?
На самом деле это не так, вы можете использовать для генераций такие модели (чекпойнты), которые прямо "из коробки" дают отличную детализацию и стилизацию, например, SDXL и некоторые другие. SDXL даст фору тому же Midjourney, особенно если вы умеете им пользоваться, но эту модель мы разберем в отдельном пункте.

Итак, решение 1 — как нетрудно догадаться, для повышения качества генераций в SD нужно прямо в промпте прописать детализацию и прочие детали, повышающие качество.
Список токенов (текстовых блоков) для промпта:
hd, hdr, hq, uhd, high detailed, detailed, masterpeace, unreal engine, cgi и др.

...если вы думаете, что использование каких-то из этих токенов резко превратит все ваши работы в шедевры, то вы ошибаетесь. Использовать перечисленные токены следует в качестве подкрепления промпта, а не его частичную замену. Это значит, что каждый промпт должен быть прописан очень грамотно и подробно. Чем детальнее будет описана каждая деталь, тем качественнее получится изображение.

Рекомендация: ознакомьтесь с основными правилами написания промптов

Решение 2 — использовать заранее подготовленный стиль в @yes_ai_bot. Мы уже собрали для вас не просто отдельно взятые токены, а профессиональные стили, каждый из которых "заточен" под определенную цель: аниме, фотореализм, абстракции, ультра-детализацию и даже прорисовку радужек глаз.

Что может быть проще, чем использование готовых шаблонов?
Просто выберите 1 или несколько стилей в настройках @yes_ai_bot и делайте свои генерации, даже при вводе очень простых промптов, вы получите достаточно качественные результаты.

🚀 Предоставляем бесплатное обучение по нейросетям, включая ChatGPT, Stable Diffusion и Dalle-3.
Ознакомьтесь с описанием курса здесь: ОПИСАНИЕ

Решение 3 — указывайте в конце промпта имя художника, в стиле которого требуется нарисовать картинку.
Stable Diffusion хорошо обучена создавать изображения в стиле разных художников, просто напишите в конце промпта имя того из них, чей стиль больше подходит для текущей задачи, например:
...by Vincent Van Gogh

Вы можете делать микс стилей нескольких художников, даже профессиональные современные дизайнеры не справились бы с подобной задачей. А для Stable Diffusion это не проблема.
Пример: "..., by Beeple, by Vincent Van Gogh".

Решение 4 — используйте сэмплеры DPM++ 2M Karras (для артов и прочих художеств) и DPM++ SDE Karras (для реалистичных изображений и достижения фотографического качества).

Указанные выше сэмплеры позволят несколько изменить результаты в сторону повышения детализации, в особенности это касается DPM++ SDE Karras, но длительность генераций можеть быть чуть больше обычного.

Решение 5 — использовать экстранетворк LoRA*.
LoRA — это особый тип расширений для нейросети Stable Diffusion, позволяющий создавать изображения с особенностями, которые изначально не были известны ИИ, например, узкоспециализированная стилизация, образы фантастических существ и пр. Существуют Лоры, специально обученные для повышения детализации генерируемых изображений.

Рекомендация: прочтите статью с подробным описанием возможностей LoRA для Stable Diffusion: https://teletype.in/@yes_ai_bot/kak_ispolzovat_stili_lora_v_bote_yes_ai

Решение 6 — увеличить количество шагов сэмплинга. Шаги сэмплинга — это опция, которую можно изменить в настройках SD в @yes_ai_bot, она отвечает за то, сколько раз нейросеть будет "додумывать" получившееся изображение. Чем больше шагов сэмплинга, тем больше деталей будет появляться на изображении, но важно не злоупотреблять, так как избыточная детализация может испортить изображение.

Некоторые сэмплеры, такие как UniPC, требуют большее количество шагов сэмплинга, учитывайте это при генерациях.

Решение 7 — использовать конструктор промптов для Stable Diffusion.
Если у вас возникают сложности в написании качественных промптов или вам неизвестны имена популярных художников, стили которых можно применить в Stable Diffusion, то можете воспользоваться бесплатным конструктором промптов, подробности описаны в видео.

Причина №2 — использование SD < XL

Сравнительно недавно вышла обновленная версия Stable Diffusion, которая, в отличии от SD предыдущих версий, способна сразу генерировать изображения более высокого разрешения без лишних мутаций. Еще одним важным отличием SDXL является то, что она позволяет пользователям вводить промпты более простым языком, т.е. нейросеть стала лучше понимать естественный человеческий язык.

Решение тут может быть только одно — перейти к использованию SDXL, для этого в @yes_ai_bot в настройках SD выберите чекпойнт SDXL 💠.

Причина №3 — прорисовка мелких деталей в фоне или вдали работает без фокусировки. Бывает так, что вы рисуете, например, человека, который не является основной частью изображения, поэтому стоит где-то вдали. И тут вы сталкиваетесь с проблемой — его лицо оказывается "помятым жизнью" или нечетким.

Решается это очень просто — INPAINT всех вылечит!

Рекомендация: всегда исправляйте ошибки на маленьких и кривых лицах с помощью функции Inpaint, подробное описание в видео...

Причина №4 — работа без апскейла с детализацией. Апскейл — это процесс увеличения размеров исходного изображения, полученного в результате генерации в нейросети или любого другого графического файла.

Апскейл с детализацией — это уникальная функция @yes_ai_bot, которая не только увеличивает размеры исходного изображения в несколько раз, но также производит стилизацию и детализацию всех нарисованных объектов.

Причина №5 — Слишком высокое значение CFG в настройках. CFG Scale - параметр, определяющий силу влияния промпта, если он будет слишком высоким, то качество генераций может снизится.

Если вы уже исключили прочие возможные причины снижения качества генераций, то попробуйте в настройках Stable Diffusion снизить значение CFG до 7.

Посетите наш сайт, чтобы узнать больше о нейронных сетях.

Ссылка: https://yesai.su

Рекомендация: все понравившиеся изображения, полученные от нейросети, следует подвергать постобработке с помощью функции "💎 Детализация" в @yes_ai_bot, при этом не забывайте регулировать значение параметра "DenS" в настройках SD. Перед использованием данной функции следует ознакомиться с ее описанием — https://teletype.in/@yes_ai_bot/uvelichenie_izobrazheniy_stable_diffusion

При работе в Stable Diffusion могут возникать вопросы, многие из которых мы уже разобрали в нашем открытом сообществе в Телеграм, рекомендуем подписаться — https://t.me/yes_ai_chat/10

Подробнее о сервисе Yes Ai рассказываем в этом коротком видео

На что способен совеременный искусственный интеллект?

Погружайтесь в тему Ai на открытом Форуме о нейросетях