Перейти к содержанию

Главная

Добро пожаловать на 2ch /nai/ вики!

Здесь ты найдёшь всю необходимую информацию, чтобы начать генерировать аниме-тяночек, используя новейшие разработки в нейросетевых технологиях. Используй навигатор на левой панели, чтобы найти нужную тебе информацию.

Данная вики ведётся анонимными специалистами по машинному обучению мирового уровня и активно дополняется.

FAQ

Как генерировать на своём железе?

Необходимо установить пользователький интерфейс для работы с нейронками и скачать любую понравившуюся модель.

Краткое руководство по вкату (NVidia)
  • Скачай последний релиз интерфейса Forge
  • Зарегистрируйся на https://civitai.com после чего скачай модель AutismMix (либо же любую другую на выбор) и забрось её в /models/Stable-diffusion
  • Запусти update.bat и дождись завершения операции
  • Запусти run.bat и дождись, пока подтянутся все зависимости и откроется веб интерфейс по адресу http://127.0.0.1:7860

Для начала можешь использовать такие настройки генерации (пример для AutismMix):

  • Sampling method: Euler a
  • Schedule type: Automatic
  • Sampling steps: 25
  • CFG Scale: 7
  • Разрешение изображения: 1280 x 1080 - можешь экспериментировать с соотношением сторон, но не выставляй разрешение сильно выше. Для получения более крупных картинок используй техники апскейла, такие как Hires. fix

  • Начинай свой промпт с перечисления тегов качества, дальше дополняй буру-тегами с перечислением того, что хочешь видеть:

    score_9, score_8_up, score_7_up, score_6_up, score_5_up, score_4_up, source_anime
    

  • Негативный промпт:

    source_furry, source_pony, source_cartoon, yellow background, 3d, muscular, thick thighs
    

Примеры промтов можно посмотреть на civitai в описании к картинкам.

Модель знает часть старых персонажей. Если кто-то не получается, то нужно скачать/обучить LoRA-модель на этого персонажа. Так же существуют множество LoRA-моделей на стили разных художников.

Если предпочитаешь более подробные руководства, то можешь ознакомиться с гайдами в зависимости от твоей видеокарты: NVidia или AMD.


Как генерировать в облаке?

Самый простой способ - это использовать онлайн-сервис civitai.com:

  1. Регистрируешься на цивите, используя любую фейковую почту, например https://10minemail.com
  2. Открываешь на цивите любую картинку, которая тебе понравилась, например эту
  3. Жмёшь "Remix"
  4. В поле Prompt меняешь запрос на нужный тебе
  5. Жмёшь "Generate"

На цивите есть лимиты по числу генераций, но можно создать несколько аккаунтов, чтобы обходить эти ограничения.

Кроме того, можно зарабатывать встроенную валюту несколькими разными способами, например, лайкать свои же картинки на других аккаунтах. Полный список того, за что дают валюту, можно найти на этой странице.

На цивите присутствует цензура, блокирующая определённые запросы. Со списом запрещённых слов можешь ознакомиться здесь и здесь.

Список прочих сервисов для генерации в облаке описан в этой статье.


Какие системные требования для запуска этих нейронок на своём железе?

В первую очередь, всё зависит от количества видеопамяти (VRAM) на твоей машине. Разные чекпоинты (модели) требуют разное количество видеопамяти.

Таблица актуальна для NVidia:

Базовая модель Минимальный объём VRAM Рекомендуемый объём VRAM
Stable Diffusion 1 4 GB VRAM 8 GB VRAM
Stable Diffusion XL 8 GB VRAM 12 GB VRAM
FLUX 12 GB VRAM 24 GB VRAM

Потребуется около 10-20 GB свободного места на жёстком диске, чтобы установить все необходимые для запуска нейронок интерфейсы и библиотеки.

Кроме этого, тебе нужно будет скачать, как минимум, один чекпоинт, который ты будешь запускать:

Базовая модель Требуемый объём на жёстком диске
Stable Diffusion 1 от 2 GB до 4 GB
Stable Diffusion XL 6.5 GB
FLUX от 4 GB до 24 GB на основную модель + от 2.5 GB до 19 GB на текстовый энкодер

Рекомендуется размещать все связанные с нейронками файлы на SSD. Впрочем, это повлияет только на скорость загрузки интерфейсов и моделей - на скорость генерации это не влияет.


Что насчёт цензуры?

Наиболее популярные локальные модели не имеют какой-либо цензуры. Однако, модель может не знать какие-то концепты/фетиши, что, впрочем, исправляется при помощи такого механизма, как LoRA.

Для NSFW рекомендуется использовать модели на основе Pony Diffusion V6 XL. В случае, если доступный тебе объём видеопамяти не позволяет запускать XL-чекпонты, рекомендуется обратить внимание на EasyFluff + HLL.

В онлайн-сервисах по типу civitai.com существует цензура, блокирующая определённые запросы. Со списом запрещённых на CivitAI слов можешь ознакомиться здесь и здесь.


Какой интерфейс выбрать начинающему?

Forge - наиболее передовой из user-friendly интерфейсов в сфере картинко-генераций. Рекомендуется начать с него.


Где искать модели?

civitai.com - самый крупный ресурс, хранящий модели, лоры и всё прочее. Фактически, это основной поисковик в сфере картинко-генераций.


Какую модель выбрать начинающему?

AutismMix - один из самых популярных мёрджей модели PonyDiffusion V6 XL.

Данная модель предоставляет хороший базовый стиль и анатомию, но ценой является снижение вариативности генераций. Хороший вариант для начинающего.


Нейронки знают персонажа %waifuname%?

Зависит от того, насколько твоя вайфу популярна - Хатсуне Мику или Аску Лэнгли знает любая уважающая себя аниме модель. Но вон ту няшу из текущего онгоинга, вероятно, ни одна из моделей не знает.

Впрочем, не стоит отчаиваться, ведь существует такой механизм как LoRA, который позволит тебе сгенерировать нужного персонажа, даже если основная модель о нём не знает.


Что такое LoRA?

Метод дообучения нейросетевых моделей, главной особенностью которого является то, что он не вносит изменения в обучаемую модель. Вместо этого создаётся небольшой файл, содержащий патч с изменениями.

Подробнее смотри в этой статье.


Что такое ControlNet?

Cпособ управления процессом генерации изображения с помощью дополнительных нейросетей. Ты можешь задавать дополнительные условия, например, контуры, глубину или позу человека, чтобы получить более точный и желаемый результат.

Подробнее смотри в этой статье.


Как активировать тёмный интерфейс?

Добавь --theme dark в параметрах запуска батника.


Как мне поставить генерацию картинок на ночь?

Правая кнопка мыши на кнопку "Generate" -> "Generate forever".


Как восстановить последние использованные настройки после перезапуска интерфейса?

Вариант 1: Используй синюю кнопку со стрелкой, которая находится под кнопкой генерации

Вариант 2: Используй плагин stable-diffusion-webui-state

Поставь плагин, перезапусти автоматик, перейди в Settings -> State и там выбери, какие из настроек ты хочешь сохранять после перезапуска.

Вариант 3: Используй плагин Config-Presets


Как мне вынести настройки VAE и Clip-skip в верхнюю часть интерфейса?

Открой "Settings -> User interface" и выстави в поле "Quicksettings list" следующую строку:

sd_model_checkpoint,sd_vae,CLIP_stop_at_last_layers
Картинка с инструкцией


Как вы создаёте эти огромные 4k/8k картинки?

При помощи различных техник апскейла, таких как тайловый апскейл с помощью скрипта SD Upscale или плагина multidiffusion-upscaler-for-automatic1111.

Подробнее смотри в этой статье.


Генерируются чёрные квадраты

У тебя проблема с VAE, смотри решение здесь.


Почему у персонажа неправильное количество пальцев?

Это общая проблема всех диффузионных моделей. Либо используй читы в виде какого-нибудь из тегов рода:

  • arms behind head
  • arms behind back
  • arms between legs
  • arms in pockets

Либо придётся исправлять кривые пальцы после генерации через Inpaint.


Почему персонаж генерируется несколько раз на одной картинке?

  1. Используй позитивные теги 1girl, solo и негативные 2girls, multiple characters
  2. Уменьши стартовый размер картинки и увеличивай её при помощи алгоритма Hires. fix
  3. Если ты уже используешь Hires. fix, то уменьши denoising strength

Ты дочитал FAQ до конца. Молодец!

Если у тебя остались ещё вопросы, спрашивай в Anime Diffusion треде.