AI Design Course: ComfyUI с нуля (LoRA, ControlNet, маски и автоматизация через Gemini)
Показываю, как собрать нормальный workflow в ComfyUI: от базовой генерации до LoRA, Subgraph, структурного prompt, Gemini-референсов, ControlNet, Depth Anything и масок. Это практический урок на русском для тех, кто хочет перестать бояться нод и начать собирать свои AI-workflow для генерации изображений. Внутри урока: базовая схема ComfyUI с KSampler, Seed, Steps, CFG, Sampler и Scheduler; подключение VAEDecode, Load VAE и модели Qwen; зачем нужна LoRA и как она ускоряет генерацию; как навести порядок через Subgraph; как собирать структурный prompt через Text Concatenate; как использовать Gemini и референсы для вариантов одежды; как работает String Selector для автоматического перебора вариантов; чем полезны готовые templates для image-to-image; как использовать ControlNet, Canny и Depth Anything; как точечно редактировать картинку через маски. Таймкоды: 00:00 - Введение: что соберем в ComfyUI 00:25 - Базовая модель и текстовый энкодер 00:48 - KSampler, conditioning и latent image 01:47 - Параметры сэмплера: seed, steps, CFG, sampler и scheduler 03:16 - Получение результата генерации: Latent, VAEDecode и Load VAE 04:08 - Первая генерация и настройка steps 04:42 - LoRA: что это, зачем нужна и как подключается 06:12 - Subgraph: уборка workflow 07:03 - Структурный prompt и Text Concatenate 08:41 - Автоматизация вариантов одежды через Gemini 10:38 - String Selector и запуск нескольких генераций подряд 12:11 - От text-to-image к image-to-image и готовым templates 13:37 - ControlNet, Canny и Depth Anything 16:02 - Маски и точечное редактирование 16:55 - Итоги и домашнее задание
Показываю, как собрать нормальный workflow в ComfyUI: от базовой генерации до LoRA, Subgraph, структурного prompt, Gemini-референсов, ControlNet, Depth Anything и масок. Это практический урок на русском для тех, кто хочет перестать бояться нод и начать собирать свои AI-workflow для генерации изображений. Внутри урока: базовая схема ComfyUI с KSampler, Seed, Steps, CFG, Sampler и Scheduler; подключение VAEDecode, Load VAE и модели Qwen; зачем нужна LoRA и как она ускоряет генерацию; как навести порядок через Subgraph; как собирать структурный prompt через Text Concatenate; как использовать Gemini и референсы для вариантов одежды; как работает String Selector для автоматического перебора вариантов; чем полезны готовые templates для image-to-image; как использовать ControlNet, Canny и Depth Anything; как точечно редактировать картинку через маски. Таймкоды: 00:00 - Введение: что соберем в ComfyUI 00:25 - Базовая модель и текстовый энкодер 00:48 - KSampler, conditioning и latent image 01:47 - Параметры сэмплера: seed, steps, CFG, sampler и scheduler 03:16 - Получение результата генерации: Latent, VAEDecode и Load VAE 04:08 - Первая генерация и настройка steps 04:42 - LoRA: что это, зачем нужна и как подключается 06:12 - Subgraph: уборка workflow 07:03 - Структурный prompt и Text Concatenate 08:41 - Автоматизация вариантов одежды через Gemini 10:38 - String Selector и запуск нескольких генераций подряд 12:11 - От text-to-image к image-to-image и готовым templates 13:37 - ControlNet, Canny и Depth Anything 16:02 - Маски и точечное редактирование 16:55 - Итоги и домашнее задание
