Dieses Beispiel integriert alle zuvor behandelten Inhalte und eignet sich hervorragend als zusammenfassendes Beispiel zum Wiederholen und Vertiefen des Verständnisses.

Wer die vorherigen Tutorials nicht gesehen hat, kann diese auf der Website der Stationmaster Material AI Tutorials nachschauen.

Website-Link: https://aisc.chinaz.com/jiaocheng/

_x0000_i1026

Dieser Workflow verwendet ComfyUI, um Fotos in Bilder im Stil retroartiger Anime zu konvertieren. Im Folgenden finden Sie eine detaillierte Analyse der einzelnen Knotenpunkte dieses Workflows und ihrer Funktionen:

Knotenpunktanalyse

1. Bildladen und Vorverarbeitung:

LoadImage (ID: 13): Lädt das Eingabebild von der angegebenen URL.

DF_Get_image_size (ID: 15): Ruft Breite und Höhe des geladenen Bildes ab.

EmptyLatentImage (ID: 5): Erstellt ein leeres latentes Bild mit den extrahierten Dimensionen.

2. ControlNet-Loader und Vorprozessor:

ControlNetLoader (ID: 28): Lädt das ControlNet-Modell für Lineart (control_v11p_sd15_lineart.pth).

ControlNetLoader (ID: 30): Lädt das ControlNet-Modell für die Poseerkennung (control_v11p_sd15_openpose.pth).

ControlNetLoader (ID: 27): Lädt das ControlNet-Modell für die Tiefenprüfung (control_v11f1p_sd15_depth.pth).

Zoe_DepthAnythingPreprocessor (ID: 40): Verarbeitet das Bild, um Tiefeninformationen zu generieren.

Inference_Core_LineArtPreprocessor (ID: 42): Verarbeitet das Bild, um Lineart-Informationen zu generieren.

OpenposePreprocessor (ID: 39): Verarbeitet das Bild, um Pose-Schlüsselpunkte zu generieren.

3. Bedingungsanwendung und Kombination:

ControlNetApply (ID: 26, 29, 31): Wendet ControlNet-Bedingungen auf das Bild an und kombiniert Tiefen-, Lineart- und Pose-Informationen.

ConditioningCombine (ID: 37): Kombiniert verschiedene Bedingungsinformationen.

4. Textcodierung:

CLIPTextEncode (ID: 6): Codiert den positiven Beschreibungstext, z. B. „beautiful scenery nature glass bottle landscape, purple galaxy bottle“.

CLIPTextEncode (ID: 7): Codiert den negativen Beschreibungstext, z. B. „Easy Negative, worst quality, low quality“ usw.

CLIPTextEncode (ID: 34): Codiert zusätzlichen Beschreibungstext, z. B. „official art, context art, retro anime, complex background, blurry background, depth of field“.

5. Modellladen und Sampling:

CheckpointLoaderSimple (ID: 4): Lädt das Hauptgenerierungsmodell (AWPainting(1.4)).

LoraLoader (ID: 10, 16): Lädt Lora-Modelle für die Anpassung an einen bestimmten Stil (z. B. „80'sFusion(V2.0)“ und „Retro Anime(1.0)“).

KSampler (ID: 3): Verwendet KSampler für das Sampling des latenten Bildes, kombiniert mit Modell, positiven und negativen Bedingungen sowie dem latenten Bild.

VAEDecode (ID: 8): Decodiert das abgetastete latente Bild in das endgültige Bild.

6. Bildspeicherung:

SaveImage (ID: 9): Speichert das generierte Bild.

Gebrauchsanweisung

Da ComfyUI-Workflows relativ einfach zu kopieren sind, stelle ich hier direkt den Workflow zur Verfügung und erkläre die wichtigsten Punkte, um die Logik zu verdeutlichen. Wer diesen Workflow benötigt, kann der unten stehenden QR-Code-Gruppe beitreten, um ihn zu erhalten. Bei Unklarheiten kann man sich ebenfalls in der Gruppe austauschen.

image.png

Bei der ersten Verwendung des Workflows kann eine Fehlermeldung angezeigt werden, die auf fehlende Knotenpunkte hinweist. Installieren Sie die fehlenden Knotenpunkte einfach im Manager.

image.png

Lora laden

Großes Modell mit zwei Lora-Modellen verkettet

image.png

Rückwärts-Tags

Wer keine WD14 Rückwärts-Prompts hat, kann diese im Manager suchen und installieren. Die CLIP-Textcodierung muss auf Texteingabe umgestellt werden, um sie mit den von WD rückwärts generierten Keywords zu verbinden.

image.png

ControlNet Steuerung

Hier werden drei verkettete ControlNets verwendet: Tiefenkarte, Lineart und Posesteuerung.

image.png

Bildbreite und -höhe abrufen

image.png

Prompts zusammenführen

Da unsere Lora-Modelle einige Triggerwörter benötigen, aber der vorherige Textcodierer bereits mit WD verbunden ist, müssen wir nur einen weiteren Textcodierer kopieren und mit dem Textcodierer des WD-Prompts zusammenführen. Schließlich wird die kombinierte Bedingung mit der ersten ControlNet-Anwendung verbunden.

image.png

Workflow-Ergebnis

image.png

image.png

Die wichtigsten Schritte dieses Workflows bestehen darin, Bilder zu laden und vorzuverarbeiten, verschiedene ControlNet-Modelle zu verwenden, um Hilfsinformationen (wie Tiefe, Lineart und Pose) zu generieren, diese Informationen dann mit Textbeschreibungen zu kombinieren, um Bilder zu generieren, und schließlich die generierten Bilder im Stil retroartiger Anime zu decodieren und zu speichern. Wer diesen Workflow benötigt, kann der unten stehenden QR-Code-Gruppe beitreten, um ihn zu erhalten.

------------------------------------------------------------------------------------------

Stationmaster Material AI Tutorials ist eine AI-Bildbearbeitungs-Tutorial-Plattform von Stationmaster Home.

Viele kostenlose AI-Tutorials, ständig aktualisierte Inhalte.

Um mehr AI-Bildbearbeitungs-Tutorials zu lernen, besuchen Sie bitte die Website von Stationmaster Material AI Tutorials:

https://aisc.chinaz.com/jiaocheng/