Inpainting-Leitfaden mit Stable Diffusion: Korrigieren und Verbessern Sie Ihre KI-Kunst
Hallo! Hier ist Nina Torres, Ihre Ansprechpartnerin für praktische Tipps zu den neuesten Werkzeugen. Heute werden wir das Inpainting mit Stable Diffusion erkunden. Wenn Sie bereits ein Bild mit KI generiert haben und gedacht haben: „Das ist super, aber ein Detail stimmt nicht,“ dann ist Inpainting Ihr neuer Verbündeter. Es handelt sich um eine leistungsstarke Technik zur Behebung von Unvollkommenheiten, zum Hinzufügen neuer Elemente oder zum subtilen Ändern spezifischer Teile Ihrer KI-generierten Kunst. Vergessen Sie die vollständige Regeneration von Bildern; Inpainting ermöglicht es Ihnen, gezielt und präzise zu verfeinern. Dieser Leitfaden zum Inpainting mit Stable Diffusion wird alles abdecken, was Sie wissen müssen, von der Einrichtung bis zu fortgeschrittenen Techniken, um sicherzustellen, dass Ihre KI-Kunst genau so aussieht, wie Sie es sich vorstellen.
Stable Diffusion hat großartige kreative Möglichkeiten eröffnet, aber selbst die besten Modelle können manchmal Anomalien erzeugen. Ein Finger kann deformiert sein, ein Objekt kann dort erscheinen, wo es nicht sein sollte, oder Sie möchten einfach nur die Farbe eines Hemdes ändern. Genau hier glänzt Inpainting. Es ermöglicht Ihnen, einen spezifischen Bereich eines Bildes zu maskieren und dann neuen Inhalt innerhalb dieser Maske zu generieren, geleitet durch Ihr Prompt und den Kontext des umgebenden Bildes. Die Ergebnisse können überraschend harmonisch sein, was es zu einer wesentlichen Fähigkeit für jeden macht, der ernsthaft an der Generierung von KI-Kunst interessiert ist.
Wir werden die Grundlagen der Funktionsweise von Inpainting abdecken, die wesentlichen Werkzeuge, die Sie benötigen, und Schritt-für-Schritt-Anleitungen für häufige Anwendungsfälle bereitstellen. Am Ende dieses Leitfadens zum Inpainting mit Stable Diffusion werden Sie Fehler korrigieren, Details hinzufügen und Ihre Bilder mühelos transformieren. Lassen Sie uns beginnen!
Was ist Inpainting mit Stable Diffusion?
Im Wesentlichen ist Inpainting mit Stable Diffusion ein Prozess, der fehlende oder maskierte Teile eines Bildes intelligent ausfüllt. Anstatt einfach Pixel zu verwischen oder zu kopieren, verwendet Stable Diffusion seine generativen Fähigkeiten, um neuen, kontextuell relevanten Inhalt innerhalb der maskierten Zone zu erstellen. Es „versteht“ das umgebende Bild und versucht, etwas zu generieren, das sich nahtlos einfügt, basierend auf Ihrem textuellen Prompt.
Stellen Sie sich das so vor: Sie haben ein Gemälde mit einem kleinen Fleck. Anstatt die gesamte Leinwand neu zu bemalen, entfernen Sie den Fleck sorgfältig und malen dann in diesem kleinen Bereich, wobei Sie den Stil und die Farben des Originals nachahmen. Inpainting mit Stable Diffusion macht dies digital, indem es KI verwendet, um die neue „Malerei“ zu generieren.
Diese Technik ist unglaublich vielseitig. Sie können sie für einfache Korrekturen verwenden, beispielsweise um ein ablenkendes Hintergrundelement zu entfernen, oder für komplexere Änderungen, wie das Ändern des Ausdrucks eines Charakters oder das Hinzufügen eines neuen Objekts zu einer Szene. Der Schlüssel liegt darin, klare Anweisungen über Ihr Prompt zu geben und genau den Bereich zu definieren, den Sie mit einer Maske ändern möchten.
Warum Inpainting verwenden?
Es gibt viele Gründe, warum Inpainting ein unschätzbares Werkzeug für KI-Künstler ist:
- Fehlerbehebung: Korrigieren Sie häufige Probleme bei der KI-Generierung, wie deformierte Gliedmaßen, zusätzliche Finger, falsch platzierte Objekte oder seltsame Texturen.
- Detailverbesserung: Verbessern Sie spezifische Details, ohne den Rest des Bildes zu beeinträchtigen. Verfeinern Sie die Augen, optimieren Sie die Kleidung oder fügen Sie komplexe Muster hinzu.
- Objekteliminierung: Entfernen Sie mühelos unerwünschte Elemente aus Ihren Bildern, wie Photobomber, ablenkende Hintergründe oder versehentliche Artefakte.
- Objekt hinzufügen: Fügen Sie neue Elemente in eine bestehende Szene ein, wie einen anderen Hut, ein Haustier oder Möbel.
- Änderung von Attributen: Ändern Sie spezifische Attribute eines Objekts oder einer Person, wie Haarfarbe, Bekleidungsstil oder Gesichtszüge.
- Kreative Erkundung: Experimentieren Sie mit verschiedenen Variationen eines spezifischen Teils Ihres Bildes, ohne das gesamte Bild neu zu generieren.
Ohne Inpainting würden viele dieser Aufgaben mehrere vollständige Regenerationen erfordern, was Zeit und Ressourcen verschwendet und oft zu einem Verlust der Gesamtkomposition führt, die Ihnen gefallen hat. Dieser Leitfaden zum Inpainting mit Stable Diffusion soll diese Aufgaben einfach machen.
Notwendige Werkzeuge für Inpainting
Um diesem Leitfaden zum Inpainting mit Stable Diffusion zu folgen, benötigen Sie eine Stable Diffusion-Usage, die Inpainting unterstützt. Die beliebteste und funktionsreichste Option ist die Web UI von Automatic1111. Wenn Sie sie noch nicht eingerichtet haben, gibt es viele hervorragende Online-Anleitungen zur Installation. Vorausgesetzt, sie funktioniert bereits, hier ist, was Sie normalerweise verwenden werden:
- Web UI von Automatic1111: Ihre Hauptschnittstelle für Stable Diffusion.
- Image-to-Image Tab: Hier findet die Magie des Inpainting statt.
- Inpaint Untertab: Speziell für Inpainting-Aufgaben konzipiert.
- Maskierungswerkzeuge: Eingebaute Bürste zur Definition der zu inpaintenden Zone.
- Stable Diffusion Checkpoint-Modell: Ein gutes, vielseitiges Modell wie SD 1.5, SDXL oder ein angepasstes Modell, das zum gewünschten Stil passt.
Obwohl es andere Schnittstellen gibt, bietet Automatic1111 die größte Kontrolle und die besten Funktionen für Inpainting, was es zur empfohlenen Wahl für diesen Leitfaden macht.
Inpainting-Einstellungen verstehen
Bevor wir zu den Schritten übergehen, werfen wir einen kurzen Blick auf einige wichtige Einstellungen, die Sie im Inpaint-Tab der Web UI von Automatic1111 antreffen werden. Das Verständnis dieser Einstellungen gibt Ihnen mehr Kontrolle über Ihre Ergebnisse.
Maskierungsmodus:
- Maskiertes Inpaint: Dies ist die häufigste Einstellung. Damit wird Stable Diffusion angewiesen, nur in der maskierten Zone Inhalt zu generieren.
- Unmaskiertes Inpaint: Dies kehrt die Maske um und generiert Inhalt überall *außer* in der maskierten Zone. Nützlich, um ein spezifisches Vordergrundelement intakt zu halten, während der Hintergrund geändert wird.
Inhaltsmaske:
- Original: Die maskierte Zone wird basierend auf dem ursprünglichen Inhalt innerhalb der Maske gefüllt. Dies funktioniert oft gut für subtile Änderungen oder Mischungen.
- Latente Rauschmaske: Die maskierte Zone wird mit zufälligem Rauschen im latenten Raum gefüllt, bevor die Generierung erfolgt. Dies ermutigt das Modell, vollständig neuen Inhalt zu generieren, ideal für bedeutende Änderungen oder das Hinzufügen neuer Objekte.
- Nichts Latent: Ähnlich wie latente Rauschmaske, aber mit einer Neigung zum „Nichts“, nützlich in bestimmten Szenarien.
- Füllung: Die maskierte Zone wird mit einer einheitlichen Farbe gefüllt, dann versucht das Modell, darüber zu generieren. Dies kann manchmal zu weniger konsistenten Ergebnissen führen als latente Rauschmaske oder Original.
Für die meisten Fehlerkorrekturen und das Hinzufügen von Objekten ist latente Rauschmaske ein guter Ausgangspunkt. Für subtile Änderungen oder das Mischen vorhandener Elemente kann Original gut funktionieren.
Bereich zum Inpainten:
- Gesamtes Bild: Das gesamte Bild wird bei der Generierung der maskierten Zone berücksichtigt. Dies wird in der Regel für ein besseres Kontextverständnis empfohlen.
- Nur maskiert: Nur die maskierte Zone und eine kleine Umgebung werden berücksichtigt. Dies kann schneller sein, kann jedoch zu weniger konsistenten Ergebnissen führen, wenn die maskierte Zone groß ist oder an Kontext fehlt.
Maskunschärfe:
Diese Einstellung macht die Ränder Ihrer Maske unscharf. Ein höherer Unschärfewert kann helfen, die inpaintierte Zone harmonischer mit dem ursprünglichen Bild zu integrieren und harte Linien zu reduzieren. Beginnen Sie mit einem Wert von etwa 4-8 und passen Sie ihn nach Bedarf an.
Negationsstärke:
Dies ist eine entscheidende Einstellung für Inpainting, ebenso wie in img2img. Sie steuert, wie stark das Modell von dem Originalbild (oder dem maskierten Inhalt) abweicht.
- Fähigkeit zur Negation (0.3-0.5) : Gut für subtile Änderungen, kleinere Korrekturen oder Mischungen. Das Modell wird versuchen, dem ursprünglichen maskierten Inhalt sehr nahe zu bleiben.
- Mittelmäßige Negationskraft (0.5-0.7) : Geeignet für moderate Änderungen, wie das Verändern eines Gesichtsausdrucks oder das Wechseln eines Kleidungsstücks.
- Hohe Negationskraft (0.7-1.0) : Verwenden Sie dies, wenn Sie signifikante Änderungen vornehmen, neue Objekte hinzufügen oder etwas vollständig ersetzen möchten. Das Modell hat mehr Freiheit, um neue Inhalte zu generieren.
Experimentieren Sie mit dieser Einstellung! Sie macht oft den größten Unterschied in Ihren Inpainting-Ergebnissen. Dieser Leitfaden zum Inpainting mit Stable Diffusion wird häufig darauf verweisen.
Schritt-für-Schritt Inpainting-Leitfaden: Ein Bild korrigieren
Lassen Sie uns ein praktisches Beispiel durchgehen: Eine deformierte Hand in einem KI-generierten Bild korrigieren.
1. Generieren Sie Ihr Basisbild
Erstellen Sie zunächst ein Bild im Tab “txt2img”, an dem Sie arbeiten möchten. Zum Beispiel ein Porträt einer Person. Speichern Sie das Bild auf Ihrem Computer.
2. Zugriff auf den Tab Img2Img
Klicken Sie auf den Tab “img2img” in Automatic1111. Klicken Sie dann auf den Untertab “Inpaint.”
3. Laden Sie Ihr Bild hoch
Ziehen Sie Ihr generiertes Bild in das große Feld “Bild hier ablegen oder einfügen” im Inpaint-Tab.
4. Maskieren Sie den zu korrigierenden Bereich
Verwenden Sie das bereitgestellte Pinselwerkzeug direkt auf der Bildvorschau, um den Bereich zu malen, den Sie korrigieren möchten. In unserem Beispiel malen Sie sorgfältig über die deformierte Hand. Sie können die Pinselgröße mit dem Schieberegler unter dem Bild anpassen.
Tipp: Seien Sie präzise mit Ihrer Maske, aber scheuen Sie sich nicht, leicht über die genauen Ränder hinauszugehen, wenn Sie möchten, dass das Modell einen größeren Bereich regeneriert, um eine bessere Mischung zu erzielen.
5. Schreiben Sie Ihren Prompt
In das Eingabefeld beschreiben Sie, was Sie *sehen* möchten im maskierten Bereich. Seien Sie präzise. Wenn Sie eine Hand reparieren, könnte Ihr Prompt sein: „perfekte Hand, fünf Finger, die einen Becher halten.“ Wenn Sie etwas entfernen, beschreiben Sie, was stattdessen dort sein sollte, zum Beispiel „glatte Haut“ oder „leerer Tisch.“
Beispiel für einen Prompt zur Reparatur einer Hand: (fotorealistische Hand:1.3), fünf Finger, ein Buch haltend, komplexe Details, realistisch
Sie können auch negative Prompts einfügen, um die Generierung von unerwünschten Merkmalen abzuleiten: (zusätzliche Finger:1.5), verschwommen, deformierte Hand, mutiert
6. Konfigurieren Sie die Reparatureinstellungen
- Maskenmodus: Lassen Sie auf „Maskierte reparieren“.
- Inhalt der Maske: Um eine deformierte Hand zu korrigieren, ist “latenter Rauschen” oft eine gute Wahl, da Sie möchten, dass das Modell eine neue Hand von Grund auf neu generiert. „Original“ könnte versuchen, zu viel von der deformierten Struktur zu bewahren.
- Reparaturbereich: „Gesamtes Bild“ ist normalerweise die beste Wahl für den Kontext.
- Maskenunschärfe: Beginnen Sie mit 4-8.
- Rauschunterdrückungsstärke: Dies ist entscheidend. Für eine große Reparatur wie eine Hand beginnen Sie mit einem höheren Wert, etwa 0.65 – 0.75. Wenn die Hand immer noch seltsam aussieht, erhöhen Sie ihn. Wenn sie zu anders als der Rest des Bildes aussieht, verringern Sie ihn leicht.
7. Legen Sie andere Generierungseinstellungen fest
Bestimmen Sie Ihre Abtastmethode (zum Beispiel DPM++ 2M Karras), die Abtastschritte (20-30 ist normalerweise gut), den CFG-Skalierungsfaktor (7-10) und die Bilddimensionen. Stellen Sie sicher, dass die Dimensionen mit Ihrem Originalbild übereinstimmen. Sie können auch die Batch-Größe und die Anzahl der Batches anpassen, wenn Sie mehrere Variationen auf einmal generieren möchten.
Wichtig: Stellen Sie das Dropdown-Menü „Größenänderungsmodus“ auf „Nur Größenänderung“ oder „Zuschneiden und Größenänderung“ ein, wenn die Dimensionen Ihres Originalbildes nicht mit den von Ihnen festgelegten Generierungsdimensionen übereinstimmen, obwohl idealerweise, Sie möchten, dass sie übereinstimmen.
8. Generieren!
Klicken Sie auf die Schaltfläche „Generieren“. Stable Diffusion wird jetzt den maskierten Bereich gemäß Ihrem Prompt und Ihren Einstellungen bearbeiten. Überprüfen Sie die Ergebnisse. Wenn es nicht perfekt ist, machen Sie sich keine Sorgen – die Reparatur benötigt oft mehrere Iterationen.
9. Iterieren und verfeinern
Wenn das Ergebnis nicht das ist, was Sie wollten:
- Passen Sie die Rauschunterdrückungsstärke an: Die häufigste Anpassung.
- Verfeinern Sie Ihren Prompt: Seien Sie präziser oder versuchen Sie andere Schlüsselwörter.
- Passen Sie die Maske an: Manchmal kann es hilfreich sein, einen etwas größeren oder kleineren Bereich zu malen.
- Versuchen Sie eine andere „Maskeninhalts“-Einstellung: Experimentieren Sie mit „Original“, wenn „latentes Rauschen“ nicht funktioniert, oder umgekehrt.
- Generieren Sie mehrfach: Selbst mit den gleichen Einstellungen wird Stable Diffusion Variationen produzieren. Generieren Sie ein paar und wählen Sie das beste aus.
Fortgeschrittene Reparaturtechniken
Ändern der Objektattribute
Angenommen, Sie haben eine Figur, die ein rotes Hemd trägt, und Sie möchten, dass es blau ist.
- Maskieren Sie das rote Hemd.
- Prompt:
blaues Hemd, Baumwolltextur, realistischer Stoff - Inhalt der Maske: „Latentes Rauschen“ oder „Original“ (experimentieren Sie).
- Rauschunterdrückungsstärke: Etwa 0.6-0.7.
Das Modell zeichnet das Hemd intelligent in Blau neu und versucht, die Beleuchtung und Falten des Originals beizubehalten.
Neue Objekte hinzufügen
Sie haben einen Raum und möchten einen Baum im Vordergrund hinzufügen.
- Maskieren Sie den Bereich, wo der Baum erscheinen soll.
- Prompt:
große Eiche, üppiges grünes Laub, Sonnenlicht, das durch die Zweige filtert - Inhalt der Maske: „Latentes Rauschen“ ist hier fast immer die beste Wahl, da Sie etwas völlig Neues schaffen.
- Rauschunterdrückungsstärke: Höher, etwa 0.7-0.85, um dem Modell die Freiheit zu geben, den Baum zu erstellen.
Objekte entfernen (Outpainting im Inpaint)
Sie möchten eine ablenkende Straßenlaterne aus einer Straßenszene entfernen.
- Maskieren Sie die Straßenlaterne.
- Prompt: Beschreiben Sie, was *hinter* der Straßenlaterne sein *soll* (zum Beispiel
Backsteinmauer, Pflasterstraße, entfernte Gebäude). Wenn Sie möchten, dass es sich einfach einfügt, kann manchmal ein leerer Prompt funktionieren, wobei das Modell aus dem Kontext inferieren kann. - Inhalt der Maske: „Original“ oder „Latentes Rauschen“. „Original“ könnte versuchen, den Hintergrund geschickt zu verlängern.
- Rauschunterdrückungsstärke: 0.5-0.7. Höher, wenn der auszufüllende Bereich groß und komplex ist.
Dies nutzt die Reparaturfunktion effizient, um einen größeren Abschnitt zu erweitern.
ControlNet für die Reparatur verwenden
Für eine sehr präzise Reparatur, insbesondere beim Beibehalten spezieller Posen, Strukturen oder Kompositionen, stellt ControlNet einen signifikanten Wandel dar.
- Laden Sie Ihr Bild im Inpaint-Tab hoch und maskieren Sie den Bereich.
- Scrollen Sie nach unten zum ControlNet-Akkordeon.
- Aktivieren Sie ControlNet.
- Laden Sie Ihr Originalbild (oder eine bearbeitete Version wie eine Canny-Kantenausgabe) in das Eingangsbildfeld von ControlNet hoch.
- Wählen Sie einen geeigneten Vorverarbeiter und ein Modell (zum Beispiel Vorverarbeiter „canny“ und Modell „control_v11p_sd15_canny“, wenn Sie die Konturen beibehalten möchten. Oder „inpaint_only“, wenn Sie das Reparaturmodell verwenden möchten).
- Kritisch, stellen Sie den „Kontrollmodus“ von ControlNet auf „Mein Prompt ist wichtiger“ oder „Ausgewogen“ und passen Sie das „Kontrollgewicht“ nach Bedarf an.
- Generieren.
ControlNet kann die Kohärenz und die Präzision Ihrer Reparatur Ergebnisse erheblich verbessern, insbesondere bei strukturellen Änderungen oder beim Beibehalten spezifischer Formen. Dieser Reparaturleitfaden für Stable Diffusion empfiehlt, ControlNet zu erkunden, während Sie sich damit vertraut machen.
Häufige Reparaturherausforderungen und Tipps
Fusionsprobleme
Manchmal sieht der Reparaturbereich aus wie ein Patch, nicht wie eine natürliche Integration.
- Erhöhen Sie die Maskenunschärfe: Ein höherer Unschärfewert kann einen weicheren Übergang schaffen.
- Passen Sie die Rauschunterdrückungsstärke an: Zu hoch kann dazu führen, dass es heraussticht; zu niedrig könnte nicht genug ändern. Finden Sie das richtige Gleichgewicht.
- Verfeinern Sie den Prompt: Stellen Sie sicher, dass Ihr Prompt für den maskierten Bereich mit dem Stil und der Beleuchtung des restlichen Bildes übereinstimmt.
- Iterieren: Generieren Sie mehrere Male. Manchmal ergibt ein leicht anderer zufälliger Seed eine bessere Fusion.
Inkonstantes Stil
Der Reparaturbereich kann einen anderen künstlerischen Stil oder eine unterschiedliche Farbpalette aufweisen.
- Verwenden Sie ein konsistentes Modell: Stellen Sie sicher, dass Sie dasselbe Stable Diffusion-Checkmodell für die Reparatur verwenden wie das für das Originalbild.
- Konsistenz der Prompts: Fügen Sie stilistische Schlüsselwörter Ihres Originalprompts in Ihren Reparaturprompt ein (z. B. „Ölgemälde-Stil“, „filmartige Beleuchtung“).
- Reduzieren Sie die Entrauschungsstärke: Wenn der Stil zu stark abweicht, verringern Sie die Entrauschungsstärke, um ihn näher am Original zu halten.
Unerwünschte Elemente generieren
Das Modell könnte Dinge hinzufügen, die Sie im maskierten Bereich nicht angefordert haben.
- Negativer Prompt: Verwenden Sie negative Prompts, um unerwünschte Elemente ausdrücklich auszuschließen (z. B.
(zusätzliche Finger:1.5), hässlich, deformiert, verschwommen). - Prompt verfeinern: Seien Sie sehr präzise in Bezug auf das, was Sie *möchten*. Ein zu vager Prompt lässt dem Modell zu viel Freiheit.
- Kleinere Maske: Manchmal kann das Maskieren eines leicht kleineren, gezielteren Bereichs verhindern, dass das Modell überflüssige Details hinzufügt.
Hände und Gesichter
Es ist notorisch schwierig für die KI, sie perfekt zu erzeugen.
- Spezifische Prompts: Verwenden Sie sehr detaillierte Prompts für Hände und Gesichter:
(perfekte menschliche Hand:1.4), fünf Finger, zart, detaillierte Hautstruktur, ausdrucksvolles Gesicht, klare Augen, symmetrische Züge. - ControlNet: Für Hände und Gesichter kann ControlNet mit OpenPose (für Hände) oder Reference/IP-Adapter (für spezifische Gesichtszüge) unglaublich hilfreich sein, um die Struktur beizubehalten.
- Mehrere Durchgänge: Manchmal bringt ein erster Reparaturdurchgang es näher, dann kann ein zweiter Durchgang mit einer kleineren Maske und einem verfeinerten Prompt es perfektionieren.
Workflow-Tipps für eine effiziente Reparatur
- Fangen Sie klein an: Wenn Sie mehrere Probleme haben, gehen Sie sie nacheinander an. Versuchen Sie nicht, die Hälfte des Bildes zu maskieren und alles gleichzeitig zu reparieren.
- Speichern Sie die Iterationen: Speichern Sie gute Zwischenresultate. Sie könnten Bedarf haben, zu früheren Versionen zurückzukehren oder Elemente aus verschiedenen Generationen zu kombinieren.
- Verwenden Sie das Batching: Generieren Sie eine Charge von 4-8 Bildern mit leicht variierenden Seeds, um schnell verschiedene Ergebnisse für Ihren maskierten Bereich zu sehen.
- Erforschen Sie die Seeds: Wenn Sie eine gute Generation finden, notieren Sie sich ihren Seed. Sie können dann diesen Seed mit kleinen Anpassungen am Prompt oder den Einstellungen verwenden.
- Kombinieren Sie die Reparatur mit Photoshop/GIMP: Für sehr feine Mischungen oder komplexe Kompositionen zögern Sie nicht, Ihr repariertes Ergebnis in einen Bildbearbeitungseditor für die letzten Schliffe mitzunehmen.
Die Beherrschung der Stable Diffusion Reparatur erfordert Übung, aber die Belohnungen sind immens. Sie erlangen präzise Kontrolle über Ihre von KI generierte Kunst und verwandeln rohe Generationen in polierte Meisterwerke. Dieser Stable Diffusion Reparaturleitfaden hat Ihnen die Grundlagen sowie konkrete Schritte für den Start Ihres Weges bereitgestellt. Experimentieren Sie mit den Einstellungen, probieren Sie verschiedene Prompts aus und scheuen Sie sich nicht vor Iterationen. Viel Spaß beim Reparieren!
FAQ: Stable Diffusion Reparaturleitfaden
Q1: Mein retuschierter Bereich scheint völlig vom Rest des Bildes getrennt zu sein. Was mache ich falsch?
A1: Das ist ein häufiges Problem. Überprüfen Sie zunächst die Entrauschungsstärke; wenn sie zu hoch ist, könnte das Modell zu viel umgebenden Kontext ignorieren. Versuchen Sie, sie auf 0,5-0,7 zu reduzieren. Stellen Sie außerdem sicher, dass Ihr Prompt für den maskierten Bereich im Stil und Inhalt konsistent mit dem Rest des Bildes ist. „Gesamtes Bild“ für „Retuschierungsbereich“ zu verwenden, hilft, dem Modell mehr Kontext zu bieten. Schließlich erhöhen Sie leicht den „Maskenunschärfe“-Wert (z. B. zwischen 6 und 10), um die Ränder harmonischer zu verschmelzen.
Q2: Kann ich die Retusche verwenden, um den Hintergrund eines Bildes komplett zu ändern und das Thema im Vordergrund intakt zu halten?
A2: Ja, das ist möglich! Anstelle von „Maskierte Retusche“ könnten Sie „Unmaskierte Retusche“ auswählen. Dies weist Stable Diffusion an, Inhalte überall *außer* in der von Ihnen maskierten Zone zu generieren. Daher müssen Sie Ihr Vordergrundthema sorgfältig maskieren und dann einen Prompt bereitstellen, der Ihren gewünschten neuen Hintergrund beschreibt. Vergessen Sie nicht, „Latentes Rauschen“ für „Maskeninhalt“ auszuwählen und eine höhere „Entrauschungsstärke“ (0,7-0,9) zu verwenden, um einen vollständigen Wechsel des Hintergrunds zu ermöglichen.
Q3: Meine Hände/Finger erscheinen immer noch deformiert, selbst nach der Retusche. Haben Sie spezifische Tipps dazu?
A3: Hände sind notorisch schwierig darzustellen. Neben einem sehr spezifischen Prompt wie „perfekte menschliche Hand, fünf Finger, realistische Details“ ziehen Sie diese fortgeschrittenen Techniken in Betracht:
- ControlNet (OpenPose): Verwenden Sie den OpenPose-Vorverarbeiter und das Modell. Laden Sie, wenn möglich, ein Bild einer Hand in der gewünschten Pose als ControlNet-Eingabe hoch oder verwenden Sie eine stilisierte Grundfigur von OpenPose. Dies zwingt das Modell, die anatomische Struktur zu respektieren.
- Iterative Retusche: Retuschieren Sie die Hand einmal und wenn es immer noch nicht funktioniert, maskieren Sie einen kleineren problematischen Bereich (z. B. nur einen deformierten Finger) und retuschieren Sie erneut mit einem sehr gezielten Prompt und einer leicht niedrigeren Entrauschungsstärke.
- Höhere Schritte/CFG: Manchmal kann die Erhöhung der Anzahl der Sampling-Schritte (30-40) oder der CFG-Skala (8-12) dem Modell mehr Zeit geben, um die Details zu verfeinern, aber seien Sie vorsichtig, das nicht zu übertreiben.
Was ist der Unterschied zwischen „Latentes Rauschen“ und „Original“ für „Maskeninhalt“ während der Retusche?
A4: „Latentes Rauschen“ füllt den maskierten Bereich mit zufälligem Rauschen im latenten Raum vor dem Generierungsprozess. Dies weist das Modell im Wesentlichen an, etwas völlig Neues in diesem Bereich zu erstellen, was es ideal macht, um neue Objekte hinzuzufügen, bedeutende Änderungen vorzunehmen oder größere Fehler zu korrigieren, bei denen Sie möchten, dass das Modell den Inhalt vollständig neu erfindet. „Original“ hingegen versucht, den ursprünglichen Inhalt im maskierten Bereich zu bewahren und diesen dann subtil basierend auf Ihrem Prompt zu modifizieren. Das ist besser für geringfügige Anpassungen, Übergänge oder Änderungen, die sehr nahe am bestehenden Bild bleiben müssen, wie beispielsweise eine leichte Farbvariante zu ändern oder eine Textur zu verfeinern, ohne die zugrunde liegende Form zu stark zu verändern. Für die meisten Korrekturen oder wichtigen Ergänzungen ist „Latentes Rauschen“ die beste Wahl.
🕒 Published: