Este caso integra todo lo que hemos aprendido anteriormente, por lo que es perfecto para repasar y profundizar en la comprensión.
Si no has visto los tutoriales anteriores, puedes visitar el sitio web de tutoriales de IA de Estación de Material para verlos.
Enlace del sitio web: https://aisc.chinaz.com/jiaocheng/
Este flujo de trabajo utiliza ComfyUI para convertir fotos en imágenes de estilo anime retro. A continuación, se ofrece un análisis detallado de cada nodo en este flujo de trabajo y sus funciones:
Análisis de nodos
1. Carga y preprocesamiento de imágenes:
LoadImage (id: 13): Carga la imagen de entrada de la URL especificada.
DF_Get_image_size (id: 15): Obtiene el ancho y la altura de la imagen cargada.
EmptyLatentImage (id: 5): Crea una imagen latente vacía con las dimensiones extraídas.
2. Cargador y preprocesador de ControlNet:
ControlNetLoader (id: 28): Carga el modelo ControlNet para líneas (control_v11p_sd15_lineart.pth).
ControlNetLoader (id: 30): Carga el modelo ControlNet para detección de postura (control_v11p_sd15_openpose.pth).
ControlNetLoader (id: 27): Carga el modelo ControlNet para detección de profundidad (control_v11f1p_sd15_depth.pth).
Zoe_DepthAnythingPreprocessor (id: 40): Procesa la imagen para generar información de profundidad.
Inference_Core_LineArtPreprocessor (id: 42): Procesa la imagen para generar información de líneas.
OpenposePreprocessor (id: 39): Procesa la imagen para generar puntos clave de postura.
3. Aplicación y combinación de condiciones:
ControlNetApply (id: 26, 29, 31): Aplica las condiciones de ControlNet a la imagen, combinando información de profundidad, líneas y postura.
ConditioningCombine (id: 37): Combina diferentes informaciones de condiciones.
4. Codificación de texto:
CLIPTextEncode (id: 6): Codifica el texto descriptivo positivo, por ejemplo, "hermoso paisaje natural botella de vidrio paisaje, botella de galaxia morada".
CLIPTextEncode (id: 7): Codifica el texto descriptivo negativo, por ejemplo, "Negativo fácil, peor calidad, baja calidad", etc.
CLIPTextEncode (id: 34): Codifica el texto descriptivo adicional, por ejemplo, "arte oficial, arte contextual, anime retro, fondo complejo, fondo borroso, profundidad de campo".
5. Carga y muestreo del modelo:
CheckpointLoaderSimple (id: 4): Carga el modelo de generación principal (AWPainting(1.4)).
LoraLoader (id: 10, 16): Carga los modelos Lora para ajustes de estilo específico (por ejemplo, "80'sFusion(V2.0)" y "Retro Anime(1.0)").
KSampler (id: 3): Utiliza KSampler para el muestreo de imágenes latentes, combinando el modelo, las condiciones positivas y negativas y la imagen latente.
VAEDecode (id: 8): Decodifica la imagen latente muestreada en la imagen final.
6. Guardar imagen:
SaveImage (id: 9): Guarda la imagen generada.
Instrucciones de uso
Como el flujo de trabajo de ComfyUI es bastante complejo, aquí proporciono el flujo de trabajo directamente y explico los puntos clave para ayudarles a organizar la lógica. Si necesitan este flujo de trabajo, pueden escanear el código QR al final para unirse al grupo y obtenerlo. Si tienen alguna duda, también pueden unirse al grupo para intercambiar ideas.
La primera vez que utilicen el flujo de trabajo, es posible que aparezca un error que indique que faltan nodos. En el administrador, instalen los nodos que faltan.
Cargar Lora
El modelo grande enlaza dos Lora.
Palabras clave inversas
Si no tienen WD14 para la inferencia de palabras clave, pueden buscar e instalar WD en el administrador. La codificación de texto de clip debe cambiarse a entrada de texto para poder conectarse con las palabras clave inferidas por WD.
Control de ControlNet
Aquí se utilizan tres ControlNet en serie: mapa de profundidad, líneas y control de postura.
Obtener el ancho y alto de la imagen
Combinar palabras clave
Como nuestros modelos Lora necesitan algunas palabras clave de activación, pero el codificador de texto anterior ya está conectado con WD, solo podemos copiar otro codificador de texto y combinar el codificador de texto de las palabras clave de WD. Finalmente, conectamos la condición combinada a la primera aplicación de ControlNet.
Efecto del flujo de trabajo
Los pasos principales de este flujo de trabajo son cargar y preprocesar imágenes, aplicar diferentes modelos ControlNet para generar información auxiliar (como profundidad, líneas y postura), y luego combinar esta información con descripciones de texto para generar imágenes. Finalmente, se decodifica y guarda la imagen generada en estilo anime retro. Si necesitan este flujo de trabajo, pueden escanear el código QR al final para unirse al grupo y obtenerlo.
------------------------------------------------------------------------------------------
Tutoriales de IA de Estación de Material es una plataforma de tutoriales de dibujo de IA de Estación de Material.
Gran cantidad de tutoriales de IA gratuitos, con contenido práctico actualizado continuamente.
Para aprender más tutoriales de dibujo de IA, visite el sitio web de tutoriales de IA de Estación de Material: