Базовый гайд по Stable Diffusion
В этой статье будет самая основная информация и мои советы по тому, что и как установить, чтобы без регистрации и СМС генерировать все, что вашей душе угодно.
Начнем с системных требований. Минимум, который необходим - видеокарта от Nvidia. В идеале это RTX 20XX и выше, но знаю тех, кто справляется и на 1550. Увы, красный лагерь пока отдыхает, безкостыльных решений у меня для вас нет. Единственное, для вас и тех, у кого ПК вообще не тянет, чем можно пользоваться - это Google Collab. Правда там все будет сопровождаться танцами с бубном и периодической блокировкой доступа. Сам не пробовал, но в видео ниже все подробно рассказано об этом способе:
К этому абзацу здесь остались счастливые обладатели видеокарт Nvidia, так что пора перейти к делу.
Установка
- Идем по ссылке и скачиваем портативную версию Stable Diffusion AUTOMATIC1111 от ХрисТа. Я пробовал разные версии, но эта самая простая в установке и не потребует ковыряния с питоном, гитом и прочим. Все работает из коробки
- Распаковываем папку куда вам удобно. Лучше использовать системный диск и создать в его корне папку с названием, например Stable-Diffusion. Перед установкой заранее скачайте любую модель для генерации. Например вот эту хентайную (мы ведь для этого здесь и собрались, верно?)
Запустите файл "webui-user-first-run.cmd" и ждите
Никакой кириллицы и пробелов! Забудьте их и выкиньте из головы прямо сейчас. Также в идеале на целевом диске должно быть не менее 30Gb свободного места
- Во время установки вы увидите в окне cmd сообщение "models folder appeared". Как только оно появится - нужно закинуть ранее скачанную модель в папку
...\models\Stable-diffusion
Пример пути:
C:\Stable-Diffusion\models\Stable-diffusion\hassakuHentaiModel_hassakuv1 - После окончания установки ваш браузер запустит Stable Diffusion.
Для последующих запусков используйте файл webui-user.bat в корне вашей установленной SD.
Чистый девственный (насколько это возможно с хентайной моделью) Stable Diffusion готов к работе. А если текста выше недостаточно, то можно снова пойти на канал к ХрисТу.
И что теперь? Жмем "Generate" и восхищаемся 2D девочками? Нет, закрываем запущенный SD и читаем дальше.
Патчим SD
Наш инструмент нужно подготовить к работе, если мы хотим получить и скорость и качество, для этого:
- Скачиваем последний cudNN (актуально для Nvidia RTX20XX и выше), закидываем в корень своего SD и запускаем. Все установится само и даст хороший прирост к производительности.
- Скачиваем эти два файла и закидываем в папку "embendings", например у меня это так: C:\Stable-Diffusion\embeddings
Это, если утрировать, две маленькие модели, которые помогают устранить проблемы с анатомией и кривыми пальцами при генерации - Запускаем SD и переходим на вкладку "Extentions". На ней переходим в Install from URL и ставим два расширения.
По очереди вбиваем в строку две ссылки и жмем "Install"
Ссылка 1
Ссылка 2
Эти расширения помогут с настройкой разрешения и соотношения сторон, а также упростят работу с множеством моделей, которые мы будем дальше скачивать
После всех этих действий нужно
- Просканировать модели на вкладке Civitai Helper (подробнее о работе с расширением тут)
Модели
Хентай это конечно хорошо, но он со временем надоедает. К тому же возможно SD вам понадобится в работе.
Есть два основных источника для скачивания моделей:
- Civitai - все красиво и удобно. Много фильтров. Есть галерея с работами к каждой модели, где можно подсмотреть промпты, количество шагов сэмплинга, CFG Scale, метод сэмплинга и seed.
Промпт - текстовый запрос, по которой модель генерирует изображение. Positive для того что вы хотите получит и Negative для исключения того, что вам не надо
Количество шагов сэмплинга (Sampling steps) - число итераций изображения, которое будет проводить ИИ в попытках нарисовать по вашему запросу. На большинстве моделей идеальный диапазон 22-30 шагов
CFG Scale - значение "фантазии" ИИ. Чем оно ниже, тем больше ИИ сможет придумывать деталей, не связанных с вашим запросом. Оптимальное значение 7-9. Иногда можно дать волю железке и опустить значение ниже.
Метод сэмплинга (Sampling method) - метод обработки входного шума и количеством шагов до схождения, когда дальнейшее увеличение количества шагов не приносит видимого улучшения картинки. Самые лучшие на данный момент - Euler, Euler a, DPM++ SDE Karras и DPM++ 2M Karras.
Seed - семя (гыгы) вашей генерации. В процессе вам может понравиться композиция, но вы захотите посмотреть еще несколько вариантов, не теряя общей концепции. Для этого и нужно сохранять seed.
- Hugging Face - все не так красиво структурировано, зато моделей и прочих полезностей на порядок больше, чем на Civitai. Китайцы например (которые обучают ну очень много моделей) предпочитают делиться ими именно здесь
Deliberate - модель от ХрисТа для генерации всего на свете. Умеет и в порно и в фотореализм и в Midjourney-style.
MeinaMix - очень стильная модель для любителей аниме
DreamShaper - еще одна крупная и популярная модель с множеством возможностей
Итак, сегодня мы установили SD и расширения для него. Скачали нужные нам модели. Теперь можно смело переходить на вкладку txt2img и генерировать кошкодевочек.
Вполне возможно, что сходу у вас не получится ожидаемый результат (процентов 90%, что так и будет). Тут важно понимать, что SD - это инструмент со своими нюансами и тонкостями. Их освоение требует времени и желания. Но это стоит того.
В следующий раз постараюсь копнуть поглубже. Как минимум нужно обсудить, как правильно работать с промптами, кто такая Lora и зачем нужен VAE. А пока скидывайте в комментарии свои творения. Ну и задавайте вопросы, отвечу по возможности.
P.S.: Если руки чешутся погрузиться в детали уже сейчас, то вам дорога на этот сайт - STABLE DIFFUSION ART