\n\n\n\n Meistere Stable Diffusion Inpainting: Dein vollständiger Leitfaden - AgntBox Meistere Stable Diffusion Inpainting: Dein vollständiger Leitfaden - AgntBox \n

Meistere Stable Diffusion Inpainting: Dein vollständiger Leitfaden

📖 18 min read3,448 wordsUpdated Mar 27, 2026

Leitfaden für Stable Diffusion Inpainting: Korrigieren und Verbessern Sie Ihre KI-Kunst

Hallo! Nina Torres hier, Ihre Anlaufstelle für praktische Einblicke in die neuesten Werkzeuge. Heute tauchen wir tief in das Thema Stable Diffusion Inpainting ein. Wenn Sie jemals ein Bild mit KI generiert haben und gedacht haben: „Das ist großartig, aber dieses eine Detail stimmt nicht“, dann ist Inpainting Ihr neuer bester Freund. Es handelt sich um eine leistungsfähige Technik zur Korrektur von Unvollkommenheiten, zum Hinzufügen neuer Elemente oder zum subtilen Ändern spezifischer Teile Ihrer KI-generierten Kunst. Vergessen Sie das Regenerieren ganzer Bilder; Inpainting ermöglicht es Ihnen, gezielt und präzise zu verfeinern. Dieser Leitfaden zum Stable Diffusion Inpainting führt Sie durch alles, was Sie wissen müssen, von der Einrichtung bis zu fortgeschrittenen Techniken, damit Ihre KI-Kunst genau so aussieht, wie Sie es sich vorstellen.

Stable Diffusion hat unglaubliche kreative Möglichkeiten eröffnet, aber selbst die besten Modelle können manchmal Anomalien erzeugen. Ein Finger könnte verzerrt sein, ein Objekt könnte an einem Ort erscheinen, wo es nicht sein sollte, oder Sie möchten einfach die Farbe eines Hemdes ändern. Hier glänzt Inpainting. Es ermöglicht Ihnen, einen bestimmten Bereich eines Bildes abzudecken und dann neuen Inhalt innerhalb dieser Maske zu generieren, geleitet von Ihrem Prompt und dem umgebenden Bildkontext. Die Ergebnisse können überraschend flüssig sein, was es zu einer wesentlichen Fähigkeit für jeden macht, der ernsthaft an der Generierung von KI-Kunst interessiert ist.

Wir werden die Grundlagen des Inpaintings, die wesentlichen Werkzeuge, die Sie benötigen, und schrittweise Anleitungen für häufige Anwendungsfälle behandeln. Am Ende dieses Leitfadens zum Stable Diffusion Inpainting werden Sie sicher Fehler beheben, Details hinzufügen und Ihre Bilder mühelos transformieren können. Lassen Sie uns anfangen!

Was ist Stable Diffusion Inpainting?

Im Kern ist Stable Diffusion Inpainting ein Prozess, bei dem fehlende oder maskierte Teile eines Bildes intelligent ausgefüllt werden. Anstatt einfach nur Pixel zu verwischen oder zu kopieren, nutzt Stable Diffusion seine generativen Fähigkeiten, um neuen, kontextuell relevanten Inhalt innerhalb des maskierten Bereichs zu erstellen. Es „versteht“ das umgebende Bild und versucht, etwas zu generieren, das auf der Grundlage Ihres textlichen Prompts natürlich passt.

Denken Sie daran so: Sie haben ein Gemälde mit einem kleinen Fleck. Anstatt die gesamte Leinwand neu zu malen, entfernen Sie sorgfältig den Fleck und malen dann über diesen kleinen Bereich, wobei Sie den Stil und die Farben des Originals nachahmen. Stable Diffusion Inpainting macht das digital und verwendet KI, um die neue „Farbe“ zu generieren.

Diese Technik ist unglaublich vielseitig. Sie können sie für einfache Korrekturen verwenden, wie das Entfernen eines störenden Hintergrundelements, oder für komplexere Änderungen, wie das Ändern des Ausdrucks einer Figur oder das Hinzufügen eines neuen Objekts zu einer Szene. Der Schlüssel liegt darin, klare Anweisungen durch Ihren Prompt zu geben und den Bereich, den Sie ändern möchten, mit einer Maske genau zu definieren.

Warum Inpainting verwenden?

Es gibt zahlreiche Gründe, warum Inpainting ein unschätzbares Werkzeug für KI-Künstler ist:

  • Fehlerkorrektur: Beheben Sie gängige Probleme bei der KI-Generierung wie verzerrte Gliedmaßen, zusätzliche Finger, fehlplatzierte Objekte oder seltsame Texturen.
  • Detailverbesserung: Verbessern Sie spezifische Details, ohne den Rest des Bildes zu beeinträchtigen. Schärfen Sie Augen, verfeinern Sie Kleidung oder fügen Sie komplexe Muster hinzu.
  • Objektentfernung: Entfernen Sie unerwünschte Elemente aus Ihren Bildern, wie Fotobomber, störende Hintergründe oder versehentliche Artefakte.
  • Objektaddition: Fügen Sie neue Elemente in eine bestehende Szene ein, wie einen anderen Hut, ein Haustier oder ein Möbelstück.
  • Attributmodifikation: Ändern Sie spezifische Attribute eines Objekts oder einer Person, wie Haarfarbe, Kleidungsstil oder Gesichtszüge.
  • Kreative Erkundung: Experimentieren Sie mit verschiedenen Variationen eines bestimmten Teils Ihres Bildes, ohne das Ganze neu zu generieren.

Ohne Inpainting würden viele dieser Aufgaben mehrere vollständige Regenerierungen erfordern, was zu verschwendeter Zeit und Ressourcen führen würde und oft zu einem Verlust der Gesamtkomposition, die Ihnen gefallen hat. Dieser Leitfaden zum Stable Diffusion Inpainting zielt darauf ab, diese Aufgaben unkompliziert zu gestalten.

Werkzeuge, die Sie für Inpainting benötigen

Um diesem Leitfaden zum Stable Diffusion Inpainting zu folgen, benötigen Sie eine Stable Diffusion-Oberfläche, die Inpainting unterstützt. Die beliebteste und funktionsreichste Option ist Automatic1111’s Web UI. Wenn Sie es noch nicht eingerichtet haben, gibt es viele hervorragende Anleitungen online für die Installation. Vorausgesetzt, Sie haben es am Laufen, hier ist, was Sie normalerweise verwenden werden:

  • Automatic1111 Web UI: Ihre primäre Schnittstelle für Stable Diffusion.
  • Image to Image Tab: Hier passiert die Inpainting-Magie.
  • Inpaint Sub-tab: Speziell für Inpainting-Aufgaben entwickelt.
  • Maskierungswerkzeuge: Eingebaute Pinsel, um den Bereich zu definieren, der inpainted werden soll.
  • Stable Diffusion Checkpoint Model: Ein gutes allgemeines Modell wie SD 1.5, SDXL oder ein feinabgestimmtes Modell, das zu Ihrem gewünschten Stil passt.

Obwohl es andere Schnittstellen gibt, bietet Automatic1111 die beste Kontrolle und die meisten Funktionen für Inpainting, was es zur empfohlenen Wahl für diesen Leitfaden macht.

Inpainting-Parameter verstehen

Bevor wir die Schritte erkunden, lassen Sie uns schnell einige wichtige Parameter überblicken, die Sie im Inpaint-Tab der Automatic1111 Web UI antreffen werden. Diese zu verstehen, gibt Ihnen mehr Kontrolle über Ihre Ergebnisse.

Maskierungsmodus:

  • InpaintMasked: Dies ist die gängigste Einstellung. Sie sagt Stable Diffusion, dass nur innerhalb des maskierten Bereichs Inhalt generiert werden soll.
  • InpaintNotMasked: Dies invertiert die Maske und generiert Inhalt überall *außer* im maskierten Bereich. Nützlich, um ein bestimmtes Vordergrundelement unberührt zu lassen, während der Hintergrund geändert wird.

Maskeninhalt:

  • Original: Der maskierte Bereich wird basierend auf dem ursprünglichen Inhalt innerhalb der Maske gefüllt. Dies ist oft gut für subtile Änderungen oder für das Mischen.
  • Latent Noise: Der maskierte Bereich wird vor der Generierung mit Rauschen im latenten Raum gefüllt. Dies ermutigt das Modell, völlig neue Inhalte zu generieren, was gut für signifikante Änderungen oder das Hinzufügen neuer Objekte ist.
  • Latent Nothing: Ähnlich wie Latent Noise, aber mit einer Neigung zu „Nichts“, nützlich in bestimmten Szenarien.
  • Fill: Der maskierte Bereich wird mit einer einheitlichen Farbe gefüllt, bevor das Modell versucht, darüber zu generieren. Kann manchmal zu weniger kohärenten Ergebnissen führen als Latent Noise oder Original.

Für die meisten Fehlerkorrekturen und Objektzugaben ist Latent Noise ein guter Ausgangspunkt. Für subtile Änderungen oder das Mischen vorhandener Elemente kann Original gut funktionieren.

Inpaint-Bereich:

  • Ganzes Bild: Das gesamte Bild wird bei der Generierung des maskierten Bereichs berücksichtigt. Dies wird allgemein für ein besseres kontextuelles Verständnis empfohlen.
  • Nur maskiert: Nur der maskierte Bereich und eine kleine Grenze darum werden berücksichtigt. Dies kann schneller sein, führt jedoch möglicherweise zu weniger kohärenten Ergebnissen, wenn der maskierte Bereich groß ist oder es an Kontext fehlt.

Maskenunschärfe:

Diese Einstellung verwischt die Kanten Ihrer Maske. Ein höherer Unschärfewert kann helfen, den inpainted Bereich glatter mit dem ursprünglichen Bild zu mischen und harte Linien zu reduzieren. Beginnen Sie mit einem Wert von etwa 4-8 und passen Sie ihn bei Bedarf an.

Rauschreduktionsstärke:

Dies ist ein entscheidender Parameter für das Inpainting, ähnlich wie bei img2img. Er steuert, wie sehr sich das Modell vom Originalbild (oder dem maskierten Inhalt) entfernt.

  • Niedrige Rauschreduktionsstärke (0.3-0.5): Gut für subtile Änderungen, kleinere Korrekturen oder das Mischen. Das Modell wird versuchen, sehr nah am ursprünglichen maskierten Inhalt zu bleiben.
  • Mittlere Rauschreduktionsstärke (0.5-0.7): Geeignet für moderate Änderungen, wie das Ändern eines Gesichtsausdrucks oder das Ändern eines Kleidungsstücks.
  • Hohe Rauschreduktionsstärke (0.7-1.0): Verwenden Sie dies, wenn Sie signifikante Änderungen vornehmen, neue Objekte hinzufügen oder etwas vollständig ersetzen möchten. Das Modell hat mehr Freiraum, um neuen Inhalt zu generieren.

Experimentieren Sie mit dieser Einstellung! Sie macht oft den größten Unterschied in Ihren Inpainting-Ergebnissen. Dieser Leitfaden zum Stable Diffusion Inpainting wird oft darauf zurückkommen.

Schritt-für-Schritt Inpainting-Leitfaden: Ein Bild reparieren

Lassen Sie uns durch ein praktisches Beispiel gehen: die Korrektur einer verzerrten Hand in einem KI-generierten Bild.

1. Generieren Sie Ihr Basisbild

Generieren Sie zunächst ein Bild im „txt2img“-Tab, an dem Sie arbeiten möchten. Zum Beispiel, ein Porträt einer Person. Speichern Sie das Bild auf Ihrem Computer.

2. Navigieren Sie zum Img2Img-Tab

Klicken Sie auf den „img2img“-Tab in Automatic1111. Klicken Sie dann auf den „Inpaint“-Untertab.

3. Laden Sie Ihr Bild hoch

Ziehen Sie Ihr generiertes Bild in das große „Bild hier ablegen oder einfügen“-Feld im Inpaint-Tab.

4. Maskieren Sie den Bereich, der repariert werden soll

Verwenden Sie das bereitgestellte Pinselwerkzeug direkt in der Bildvorschau, um über den Bereich zu malen, den Sie reparieren möchten. In unserem Beispiel malen Sie sorgfältig über die verzerrte Hand. Sie können die Pinselgröße mit dem Schieberegler unter dem Bild anpassen.

Tipp: Seien Sie präzise mit Ihrer Maske, haben Sie aber keine Angst, die genauen Kanten geringfügig zu überschreiten, wenn Sie möchten, dass das Modell einen größeren Bereich für ein besseres Mischen regeneriert.

5. Schreiben Sie Ihren Prompt

Beschreiben Sie im Eingabefeld, was Sie im maskierten Bereich *sehen* möchten. Seien Sie spezifisch. Wenn Sie eine Hand reparieren, könnte Ihr Vorschlag sein: „perfekte Hand, fünf Finger, hält eine Tasse.“ Wenn Sie etwas entfernen, beschreiben Sie, was stattdessen dort sein sollte, z. B. „glatte Haut“ oder „leerer Tisch.“

Beispielvorschlag für Handreparatur: (fotorealistische Hand:1.3), fünf Finger, ein Buch haltend, detailliert, realistisch

Sie können auch negative Vorschläge hinzufügen, um die Generierung von unerwünschten Eigenschaften abzuleiten: (extra Finger:1.5), verschwommen, deformierte, mutierte Hand

6. Inpainting-Parameter konfigurieren

  • Maskenmodus: Bei „Maskierte Bereiche inpainten“ belassen.
  • Maskeninhalt: Zur Reparatur einer verzerrten Hand ist „Latent Noise“ oft eine gute Wahl, da Sie möchten, dass das Modell eine neue Hand von Grund auf erzeugt. „Original“ könnte zu viel der verzerrten Struktur bewahren.
  • Inpaint-Bereich: „Ganzes Bild“ ist normalerweise am besten für den Kontext.
  • Maskenscharf: Beginnen Sie mit 4-8.
  • Denoising-Stärke: Dies ist entscheidend. Für eine signifikante Reparatur wie eine Hand beginnen Sie mit einem höheren Wert, etwa 0.65 – 0.75. Wenn die Hand immer noch falsch aussieht, erhöhen Sie ihn. Wenn sie zu unterschiedlich vom Rest des Bildes aussieht, verringern Sie ihn leicht.

7. Andere Generierungsparameter einstellen

Stellen Sie Ihre Abtastmethode (z. B. DPM++ 2M Karras), Abtastschritte (20-30 ist normalerweise gut), CFG-Skala (7-10) und Bildabmessungen ein. Stellen Sie sicher, dass die Abmessungen mit Ihrem Originalbild übereinstimmen. Sie können auch die Batch-Größe und die Batch-Anzahl anpassen, wenn Sie mehrere Variationen auf einmal erzeugen möchten.

Wichtig: Setzen Sie das Dropdown „Größenänderungsmodus“ auf „Nur Größenänderung“ oder „Zuschneiden und Größenänderung“, wenn die Abmessungen Ihres Originalbildes nicht mit den von Ihnen festgelegten Generierungsabmessungen übereinstimmen, obwohl Sie sie idealerweise abgleichen sollten.

8. Generieren!

Klicken Sie auf die Schaltfläche „Generieren“. Stable Diffusion wird jetzt den maskierten Bereich gemäß Ihrem Vorschlag und den Parametern verarbeiten. Überprüfen Sie die Ergebnisse. Wenn es nicht perfekt ist, machen Sie sich keine Sorgen – Inpainting erfordert oft ein paar Iterationen.

9. Iterieren und Verfeinern

Wenn das Ergebnis nicht das ist, was Sie wollten:

  • Denoising-Stärke anpassen: Die häufigste Anpassung.
  • Vorschlag verfeinern: Seien Sie spezifischer oder versuchen Sie andere Schlüsselwörter.
  • Maske anpassen: Manchmal kann es helfen, einen etwas größeren oder kleineren Bereich zu maskieren.
  • Eine andere „Maskeninhalt“-Einstellung ausprobieren: Experimentieren Sie mit „Original“, wenn „Latent Noise“ nicht funktioniert, oder umgekehrt.
  • Mehrfach generieren: Selbst bei denselben Einstellungen wird Stable Diffusion Variationen produzieren. Generieren Sie ein paar und wählen Sie die beste aus.

Fortgeschrittene Inpainting-Techniken

Ändern von Objektattributen

Angenommen, Sie haben einen Charakter mit einem roten Hemd, und Sie möchten, dass es blau ist.

  1. Maskieren Sie das rote Hemd.
  2. Vorschlag: blaues Hemd, Baumwolltextur, realistischer Stoff
  3. Maskeninhalt: „Latent Noise“ oder „Original“ (experimentieren).
  4. Denoising-Stärke: Etwa 0.6-0.7.

Das Modell wird das Hemd intelligent in Blau neu zeichnen und dabei versuchen, das Licht und die Falten des Originals beizubehalten.

Neue Objekte hinzufügen

Sie haben einen Raum und möchten einen Baum im Vordergrund hinzufügen.

  1. Maskieren Sie den Bereich, in dem der Baum erscheinen soll.
  2. Vorschlag: großer Eichenbaum, üppige grüne Blätter, Sonnenlicht, das durch die Äste fällt
  3. Maskeninhalt: „Latent Noise“ ist hier fast immer am besten, da Sie etwas ganz Neues erschaffen.
  4. Denoising-Stärke: Höher, etwa 0.7-0.85, um dem Modell Freiheit zu geben, den Baum zu erschaffen.

Objekte entfernen (Outpainting im Inpaint)

Sie möchten eine ablenkende Straßenlaterne aus einer Straßenszene entfernen.

  1. Maskieren Sie die Straßenlaterne.
  2. Vorschlag: Beschreiben Sie, was *hinter* der Straßenlaterne sein sollte (z. B. Backsteinmauer, Straßenpflaster, entfernte Gebäude). Wenn Sie einfach nur möchten, dass es sich einfügt, kann manchmal ein leerer Vorschlag funktionieren, indem das Modell aus dem Kontext ableitet.
  3. Maskeninhalt: „Original“ oder „Latent Noise.“ „Original“ könnte versuchen, den Hintergrund clever zu erweitern.
  4. Denoising-Stärke: 0.5-0.7. Höher, wenn der zu füllende Bereich groß und komplex ist.

Dies nutzt effektiv die Inpainting-Funktion zum Outpainting eines kleineren Abschnitts.

ControlNet für Inpainting verwenden

Für hochpräzises Inpainting, insbesondere bei der Beibehaltung bestimmter Posen, Strukturen oder Kompositionen, ist ControlNet eine bedeutende Veränderung.

  1. Laden Sie Ihr Bild in die Inpaint-Registerkarte und maskieren Sie den Bereich.
  2. Scrollen Sie nach unten zum ControlNet-Akkordeon.
  3. Aktivieren Sie ControlNet.
  4. Laden Sie Ihr Originalbild (oder eine bearbeitete Version wie eine Canny-Kantenkarte) in das ControlNet-Eingabebildfeld hoch.
  5. Wählen Sie einen geeigneten Vorverarbeiter und ein Modell aus (z. B. „canny“-Vorverarbeiter und „control_v11p_sd15_canny“-Modell, wenn Sie die Kanten beibehalten möchten). Oder „inpaint_only“, wenn Sie das Inpaint-Modell verwenden möchten.
  6. Setzen Sie entscheidend den ControlNet „Control Mode“ auf „Mein Vorschlag ist wichtiger“ oder „Ausgewogen“ und passen Sie das „Control Weight“ bei Bedarf an.
  7. Generieren.

ControlNet kann die Kohärenz und Genauigkeit Ihrer inpainted Ergebnisse erheblich verbessern, insbesondere bei strukturellen Änderungen oder der Beibehaltung spezifischer Formen. Dieser Leitfaden für Stable Diffusion Inpainting empfiehlt Ihnen, ControlNet zu erkunden, während Sie sich wohler fühlen.

Häufige Inpainting-Herausforderungen und Tipps

Überblendungsprobleme

Manchmal sieht der inpainted Bereich aus wie ein Patch, nicht natürlich integriert.

  • Maskenschärfe erhöhen: Ein höherer Unschärfewert kann einen weicheren Übergang schaffen.
  • Denoising-Stärke anpassen: Zu hoch kann es hervorheben; zu niedrig könnte nicht genug ändern. Finden Sie den optimalen Punkt.
  • Vorschlag verfeinern: Stellen Sie sicher, dass Ihr Vorschlag für den maskierten Bereich konsistent mit dem Stil und der Beleuchtung des restlichen Bildes ist.
  • Iterieren: Mehrfach generieren. Manchmal ergibt ein leicht anderer Zufallswert eine bessere Überblendung.

Inkonsistenter Stil

Der inpainted Bereich könnte einen anderen künstlerischen Stil oder Farbpalette haben.

  • Verwenden Sie ein konsistentes Modell: Stellen Sie sicher, dass Sie dasselbe Stable Diffusion Checkpoint-Modell für das Inpainting verwenden, das Sie für das Originalbild verwendet haben.
  • Konsistenz des Vorschlags: Fügen Sie stilistische Schlüsselwörter aus Ihrem ursprünglichen Vorschlag in Ihren Inpainting-Vorschlag ein (z. B. „Ölgemälde-Stil“, „filmische Beleuchtung“).
  • Denoising-Stärke verringern: Wenn der Stil zu sehr abdriftet, reduzieren Sie die Denoising-Stärke, um ihn näher am Original zu halten.

Generierung unerwünschter Elemente

Das Modell könnte Dinge hinzufügen, die Sie nicht angefordert haben, in den maskierten Bereich.

  • Negativer Vorschlag: Verwenden Sie negative Vorschläge, um unerwünschte Elemente ausdrücklich auszuschließen (z. B. (extra Finger:1.5), hässlich, deformiert, verschwommen).
  • Vorschlag verfeinern: Seien Sie sehr spezifisch darüber, was Sie *möchten*. Ein zu vager Vorschlag gibt dem Modell zu viel Freiheit.
  • Kleinere Maske: Manchmal kann das Maskieren eines etwas kleineren, fokussierten Bereichs verhindern, dass das Modell extraneous Details hinzufügt.

Hände und Gesichter

Diese sind bekanntlich schwierig für KI, perfekt zu generieren.

  • Speziöse Vorschläge: Verwenden Sie sehr detaillierte Vorschläge für Hände und Gesichter: (perfekte menschliche Hand:1.4), fünf Finger, zart, detaillierte Hauttextur, ausdrucksvolles Gesicht, klare Augen, symmetrische Merkmale.
  • ControlNet: Für Hände und Gesichter kann ControlNet mit OpenPose (für Hände) oder Reference/IP-Adapter (für spezifische Gesichtsmerkmale) unglaublich hilfreich sein, um die Struktur beizubehalten.
  • Mehrere Durchgänge: Manchmal bringt ein erster Inpaint-Durchgang es nah an das Ziel, dann kann ein zweiter Durchgang mit einer kleineren Maske und verfeinertem Vorschlag es perfektionieren.

Workflow-Tipps für effizientes Inpainting

  • Klein anfangen: Wenn Sie mehrere Probleme haben, bearbeiten Sie sie nacheinander. Versuchen Sie nicht, die Hälfte des Bildes zu maskieren und alles auf einmal zu beheben.
  • Iterationen speichern: Speichern Sie gute Zwischenresultate. Möglicherweise müssen Sie Elemente aus verschiedenen Generationen zurücksetzen oder kombinieren.
  • Batching verwenden: Generieren Sie eine Charge von 4-8 Bildern mit leicht variierenden Seeds, um schnell verschiedene Ergebnisse für Ihren maskierten Bereich zu sehen.
  • Seeds erkunden: Wenn Sie eine gute Generierung finden, notieren Sie sich deren Seed. Sie können dann diesen Seed mit geringfügigen Änderungen an Vorschlag oder Parametern verwenden.
  • Inpainting mit Photoshop/GIMP kombinieren: Für sehr feine Übergänge oder komplexe Kompositionen zögern Sie nicht, Ihr inpainted Ergebnis in einen Bildbearbeiter für letzte Anpassungen zu bringen.

Das Beherrschen von Stable Diffusion Inpainting erfordert Übung, aber die Belohnungen sind enorm. Sie gewinnen präzise Kontrolle über Ihre KI-Kunst und verwandeln grobe Generierungen in polierte Meisterwerke. Dieser Leitfaden für Stable Diffusion Inpainting hat Ihnen das grundlegende Wissen und umsetzbare Schritte an die Hand gegeben, um Ihre Reise zu beginnen. Experimentieren Sie mit den Parametern, versuchen Sie unterschiedliche Vorschläge und scheuen Sie sich nicht zu iterieren. Viel Spaß beim Inpainting!

FAQ: Leitfaden Stable Diffusion Inpainting

Q1: Mein retuschierter Bereich sieht völlig vom Rest des Bildes getrennt aus. Was mache ich falsch?

A1: Das ist ein häufiges Problem. Überprüfe zuerst deine Rauschunterdrückungsstärke; wenn sie zu hoch ist, könnte das Modell zu viel vom umgebenden Kontext ignorieren. Versuche, sie auf 0,5-0,7 zu reduzieren. Achte auch darauf, dass dein Prompt für den maskierten Bereich im Stil und Inhalt mit dem Rest des Bildes übereinstimmt. Die Verwendung von „Ganzes Bild“ für „Retuschierbereich“ hilft, dem Modell mehr Kontext zu bieten. Erhöhe schließlich die „Maskenunschärfe“ leicht (z. B. auf 6-10), um die Ränder sanfter zu mischen.

Q2: Kann ich Retuschieren verwenden, um den gesamten Hintergrund eines Bildes zu ändern, während das Vordergrundmotiv intakt bleibt?

A2: Ja, das kannst du! Anstelle von „Retuschiert maskiert“ wählst du „Retuschiert nicht maskiert“. Dies sagt Stable Diffusion, dass Inhalte überall *außer* im maskierten Bereich generiert werden sollen. Du würdest also sorgfältig dein Vordergrundmotiv maskieren und dann einen Prompt angeben, der deinen gewünschten neuen Hintergrund beschreibt. Denke daran, „Latent Noise“ für „Maskeninhalt“ und eine höhere „Rauschunterdrückungsstärke“ (0,7-0,9) auszuwählen, um einen vollständigen Hintergrundwechsel zu ermöglichen.

Q3: Meine Hände/Finger kommen immer noch verzerrt heraus, selbst nach dem Retuschieren. Hast du spezielle Tipps dafür?

A3: Hände sind notorisch schwierig. Neben einem sehr spezifischen Prompt wie „perfekte Menschenhand, fünf Finger, realistische Details“ solltest du diese fortgeschrittenen Techniken in Betracht ziehen:

  • ControlNet (OpenPose): Verwende den OpenPose-Preprocessor und das Modell. Wenn möglich, lade ein Bild einer Hand in der gewünschten Pose als ControlNet-Eingang hoch oder benutze eine einfache OpenPose-Strichfigur. Dies zwingt das Modell, sich an die anatomische Struktur zu halten.
  • Iteratives Retuschieren: Retuschiere die Hand einmal, wenn es immer noch nicht passt, maskiere einen kleineren problematischen Bereich (z. B. nur einen verzerrten Finger) und retuschier erneut mit einem sehr fokussierten Prompt und leicht niedrigerer Rauschunterdrückungsstärke.
  • Mehr Schritte/CFG: Manchmal kann das Erhöhen der Abtaststufen (30-40) oder des CFG-Skala (8-12) dem Modell mehr Zeit geben, Details zu verfeinern, aber sei vorsichtig, es nicht zu übertreiben.

Q4: Was ist der Unterschied zwischen „Latent Noise“ und „Original“ für „Maskeninhalt“ beim Retuschieren?

A4: „Latent Noise“ füllt den maskierten Bereich mit zufälligem Rauschen im latenten Raum vor dem Generierungsprozess. Dies sagt dem Modell im Wesentlichen, dass es etwas völlig Neues in diesem Bereich erstellen soll, was es ideal macht, um neue Objekte hinzuzufügen, bedeutende Änderungen vorzunehmen oder große Fehler zu beheben, bei denen das Modell den Inhalt vollständig neu visualisieren soll. „Original“ hingegen versucht, den ursprünglichen Inhalt im maskierten Bereich zu bewahren und dann subtil basierend auf deinem Prompt zu modifizieren. Dies ist besser für kleinere Anpassungen, das Mischen oder für Änderungen, die sehr nah am bestehenden Bild bleiben sollten, wie das Ändern einer leichten Farbvarianz oder das Verfeinern einer Textur, ohne die zugrunde liegende Form zu stark zu verändern. Für die meisten wesentlichen Korrekturen oder Ergänzungen ist „Latent Noise“ deine erste Wahl.

🕒 Published:

🧰
Written by Jake Chen

Software reviewer and AI tool expert. Independently tests and benchmarks AI products. No sponsored reviews — ever.

Learn more →
Browse Topics: AI & Automation | Comparisons | Dev Tools | Infrastructure | Security & Monitoring
Scroll to Top