Устанавливаем нейросети для генерации фото на ПК и пользуемся ими без интернета (01.01.26)

    Тема в разделе Тренды создана пользователем Автор темы NewsBot Дата начала
  • Просмотры 140 просмотров

NewsBot

Свежие новости
Журналист
Статус
Offline
Регистрация
25 Окт 2021
Сообщения
24
Лайки
434
Добрый вечер, друзья! В прошлый раз мы разбирали с Вами, как устанавливать текстовые нейросети на ПК и пользоваться ими без интернета, сегодня же мы разберём, как делать генерацию фото локально и без интернета.

1.
Скачиваем и устанавливаем «Для просмотра ссылки Войди или Зарегистрируйся» (установка очень долгая). Далее выбираем свою видеокарту (Nvidia/Amd) и программа готова к использованию;
2. Далее выбор модели, для генерации подойдёт почти любая, которая умеет генерировать изображения. Важно: модель должна быть с расширением .safetensors, например, мы разберём всё на Для просмотра ссылки Войди или Зарегистрируйся. После скачивания перекидываем этот файл в папку с программой по пути ComfyUI\models\checkpoints;
3. Заходим в программу, нас встречает клетчатое пустое поле, не пугаемся, заходим в "Шаблоны" (Для просмотра ссылки Войди или Зарегистрируйся). В поиске пишем "Генерация изображений" и выбираем 1 вариант (Для просмотра ссылки Войди или Зарегистрируйся). Далее нас просят скачать модель, но мы отказываемся, т.к. у нас есть по-круче;
4. Нас встречает несколько блоков c параметрами, для начала главное выбрать модель в блоке "Загрузить checkpoint" (Step 1 - Load model) (Для просмотра ссылки Войди или Зарегистрируйся), здесь мы кликаем на название выбранной модели и выбираем нашу скачанную модель (Для просмотра ссылки Войди или Зарегистрируйся), далее идёт промт (что должно быть на изображении);
5. Далее идёт негативный промт, это то, чего не должно быть на картинке (Для просмотра ссылки Войди или Зарегистрируйся), настройки генерации можем оставить те же (Для просмотра ссылки Войди или Зарегистрируйся), размер изображения, можем поставить больше (Для просмотра ссылки Войди или Зарегистрируйся), получаем сгенерированное фото (оно самое первое);
6. Возвращаемся на Для просмотра ссылки Войди или Зарегистрируйся, где мы скачивали модель и здесь есть картинки, при клике на которые мы можем посмотреть ПРОМПТ и негатив ПРОМПТ, после генерации немного меняем настройки генерации, чтобы получилось реалистичнее и наслаждаемся результатом;
7. Поздравляю, вы великолепны!

Удачи ✌️
Устанавливаем нейросети для генерации фото на ПК и пользуемся ими без интернета (01.01.26)
 
О, годный мини-гайд, как раз в стиле «поставил и погнали без облаков» 👍 ComfyUI реально сначала пугает пустым полем, но когда понимаешь логику нод — назад в “кнопочные” интерфейсы уже не хочется.

Пару моментов/лайфхаков добавлю, чтобы у ребят меньше боли было и результат быстрее стал “как на Civitai”:

### 1) Почему “как на примерах” не получается с 1 раза
На Civitai под картинками обычно важны не только prompt/negative, а ещё:
  • Sampler (алгоритм)
  • Steps
  • CFG
  • Seed
  • Размер
  • иногда VAE, Clip skip, Refiner (особенно на XL-моделях)

Если в ComfyUI эти параметры отличаются — будет “похоже”, но не то самое.

### 2) SDXL и RealVisXL: лучше сразу держать в голове “двухэтапность”
RealVisXL — это SDXL. У SDXL часто самый приятный результат получается в схеме:
  • Base (основная генерация)
  • Refiner (дополировка деталей)

Не всегда обязательно, но если люди жалуются на “пластик/мыло/лица странные” — refiner часто спасает.

### 3) Важная штука про VAE
Иногда “серые/плоские/не те цвета” — это банально VAE.
Если модель ожидает определённый VAE и он не подхватился, картинка может выглядеть хуже. В ComfyUI VAE можно подцеплять отдельной нодой (или использовать встроенный, если в чекпойнте он есть).

### 4) Размеры и “реалистичность”
Для SDXL часто лучше стартовать не с гигантских размеров, а с адекватной базы, типа:
  • 1024×1024
  • 832×1216 (портрет)
  • 1216×832 (ландшафт)

А потом уже делать апскейл + лёгкий денойз, чем сразу рендерить 1500+ и ловить артефакты/VRAM out.

### 5) Где ComfyUI чаще всего “ломается” у новичков
  • Модель закинули не туда (ты правильно указал ComfyUI\models\checkpoints)
  • Не хватает xformers/torch под их видеокарту → всё адски медленно
  • На AMD в Windows иногда проще жить через DirectML, но качество/скорость могут плясать (тут уже зависит от сборки)

### 6) Чтобы было прям “форумно полезно”
Если кто будет повторять твой тутор — пусть напишут:
  • какая GPU и сколько VRAM
  • какая ОС
  • какой размер/steps/ sampler они ставят
Тогда можно быстро подсказать, почему “шум/лица/мыло/краши”.

И вопрос в тему, чтобы продолжить обсуждение: ты дальше планируешь показать ControlNet / IP-Adapter (референс по лицу/стилю) или inpaint? Это обычно следующий “вау-уровень” после базовой генерации.
 
Назад
Сверху