Dieses Beispiel integriert alle zuvor behandelten Inhalte und eignet sich hervorragend als zusammenfassendes Beispiel zum Wiederholen und Vertiefen des Verständnisses.
Wer die vorherigen Tutorials nicht gesehen hat, kann diese auf der Website der Stationmaster Material AI Tutorials nachschauen.
Website-Link: https://aisc.chinaz.com/jiaocheng/

Dieser Workflow verwendet ComfyUI, um Fotos in Bilder im Stil retroartiger Anime zu konvertieren. Im Folgenden finden Sie eine detaillierte Analyse der einzelnen Knotenpunkte dieses Workflows und ihrer Funktionen:
Knotenpunktanalyse
1. Bildladen und Vorverarbeitung:
LoadImage (ID: 13): Lädt das Eingabebild von der angegebenen URL.
DF_Get_image_size (ID: 15): Ruft Breite und Höhe des geladenen Bildes ab.
EmptyLatentImage (ID: 5): Erstellt ein leeres latentes Bild mit den extrahierten Dimensionen.
2. ControlNet-Loader und Vorprozessor:
ControlNetLoader (ID: 28): Lädt das ControlNet-Modell für Lineart (control_v11p_sd15_lineart.pth).
ControlNetLoader (ID: 30): Lädt das ControlNet-Modell für die Poseerkennung (control_v11p_sd15_openpose.pth).
ControlNetLoader (ID: 27): Lädt das ControlNet-Modell für die Tiefenprüfung (control_v11f1p_sd15_depth.pth).
Zoe_DepthAnythingPreprocessor (ID: 40): Verarbeitet das Bild, um Tiefeninformationen zu generieren.
Inference_Core_LineArtPreprocessor (ID: 42): Verarbeitet das Bild, um Lineart-Informationen zu generieren.
OpenposePreprocessor (ID: 39): Verarbeitet das Bild, um Pose-Schlüsselpunkte zu generieren.
3. Bedingungsanwendung und Kombination:
ControlNetApply (ID: 26, 29, 31): Wendet ControlNet-Bedingungen auf das Bild an und kombiniert Tiefen-, Lineart- und Pose-Informationen.
ConditioningCombine (ID: 37): Kombiniert verschiedene Bedingungsinformationen.
4. Textcodierung:
CLIPTextEncode (ID: 6): Codiert den positiven Beschreibungstext, z. B. „beautiful scenery nature glass bottle landscape, purple galaxy bottle“.
CLIPTextEncode (ID: 7): Codiert den negativen Beschreibungstext, z. B. „Easy Negative, worst quality, low quality“ usw.
CLIPTextEncode (ID: 34): Codiert zusätzlichen Beschreibungstext, z. B. „official art, context art, retro anime, complex background, blurry background, depth of field“.
5. Modellladen und Sampling:
CheckpointLoaderSimple (ID: 4): Lädt das Hauptgenerierungsmodell (AWPainting(1.4)).
LoraLoader (ID: 10, 16): Lädt Lora-Modelle für die Anpassung an einen bestimmten Stil (z. B. „80'sFusion(V2.0)“ und „Retro Anime(1.0)“).
KSampler (ID: 3): Verwendet KSampler für das Sampling des latenten Bildes, kombiniert mit Modell, positiven und negativen Bedingungen sowie dem latenten Bild.
VAEDecode (ID: 8): Decodiert das abgetastete latente Bild in das endgültige Bild.
6. Bildspeicherung:
SaveImage (ID: 9): Speichert das generierte Bild.
Gebrauchsanweisung
Da ComfyUI-Workflows relativ einfach zu kopieren sind, stelle ich hier direkt den Workflow zur Verfügung und erkläre die wichtigsten Punkte, um die Logik zu verdeutlichen. Wer diesen Workflow benötigt, kann der unten stehenden QR-Code-Gruppe beitreten, um ihn zu erhalten. Bei Unklarheiten kann man sich ebenfalls in der Gruppe austauschen.

Bei der ersten Verwendung des Workflows kann eine Fehlermeldung angezeigt werden, die auf fehlende Knotenpunkte hinweist. Installieren Sie die fehlenden Knotenpunkte einfach im Manager.

Lora laden
Großes Modell mit zwei Lora-Modellen verkettet

Rückwärts-Tags
Wer keine WD14 Rückwärts-Prompts hat, kann diese im Manager suchen und installieren. Die CLIP-Textcodierung muss auf Texteingabe umgestellt werden, um sie mit den von WD rückwärts generierten Keywords zu verbinden.

ControlNet Steuerung
Hier werden drei verkettete ControlNets verwendet: Tiefenkarte, Lineart und Posesteuerung.

Bildbreite und -höhe abrufen

Prompts zusammenführen
Da unsere Lora-Modelle einige Triggerwörter benötigen, aber der vorherige Textcodierer bereits mit WD verbunden ist, müssen wir nur einen weiteren Textcodierer kopieren und mit dem Textcodierer des WD-Prompts zusammenführen. Schließlich wird die kombinierte Bedingung mit der ersten ControlNet-Anwendung verbunden.

Workflow-Ergebnis


Die wichtigsten Schritte dieses Workflows bestehen darin, Bilder zu laden und vorzuverarbeiten, verschiedene ControlNet-Modelle zu verwenden, um Hilfsinformationen (wie Tiefe, Lineart und Pose) zu generieren, diese Informationen dann mit Textbeschreibungen zu kombinieren, um Bilder zu generieren, und schließlich die generierten Bilder im Stil retroartiger Anime zu decodieren und zu speichern. Wer diesen Workflow benötigt, kann der unten stehenden QR-Code-Gruppe beitreten, um ihn zu erhalten.
------------------------------------------------------------------------------------------
Stationmaster Material AI Tutorials ist eine AI-Bildbearbeitungs-Tutorial-Plattform von Stationmaster Home.
Viele kostenlose AI-Tutorials, ständig aktualisierte Inhalte.
Um mehr AI-Bildbearbeitungs-Tutorials zu lernen, besuchen Sie bitte die Website von Stationmaster Material AI Tutorials:



