\n\n\n\n Maîtrisez l'inpainting de Stable Diffusion : Votre guide complet - AgntBox Maîtrisez l'inpainting de Stable Diffusion : Votre guide complet - AgntBox \n

Maîtrisez l’inpainting de Stable Diffusion : Votre guide complet

📖 20 min read3,951 wordsUpdated Mar 26, 2026

Guide de l’Inpainting avec Stable Diffusion : Corrigez et Améliorez votre Art AI

Salut ! Nina Torres ici, votre référente pour des conseils pratiques sur les derniers outils. Aujourd’hui, nous allons plonger dans l’inpainting avec Stable Diffusion. Si vous avez déjà généré une image avec l’IA et pensé, “C’est super, mais un détail est incorrect,” alors l’inpainting est votre nouvel allié. C’est une technique puissante pour corriger des imperfections, ajouter de nouveaux éléments ou modifier subtilement des parties spécifiques de votre art généré par l’IA. Oubliez la régénération d’images entières ; l’inpainting vous permet de cibler et de peaufiner avec précision. Ce guide sur l’inpainting avec Stable Diffusion vous expliquera tout ce que vous devez savoir, de la configuration aux techniques avancées, pour garantir que votre art AI ressemble exactement à ce que vous avez en tête.

Stable Diffusion a ouvert de formidables avenues créatives, mais même les meilleurs modèles peuvent parfois produire des anomalies. Un doigt peut être déformé, un objet peut apparaître là où il ne devrait pas, ou vous pourriez simplement vouloir changer la couleur d’une chemise. C’est là que l’inpainting brille. Il vous permet de masquer une zone spécifique d’une image et de générer ensuite un nouveau contenu à l’intérieur de ce masque, guidé par votre prompt et le contexte de l’image environnante. Les résultats peuvent être étonnamment fluides, ce qui en fait une compétence essentielle pour quiconque est sérieux au sujet de la génération d’art AI.

Nous allons couvrir les bases de la façon dont l’inpainting fonctionne, les outils essentiels dont vous aurez besoin et fournir des instructions étape par étape pour des cas d’utilisation courants. À la fin de ce guide sur l’inpainting avec Stable Diffusion, vous corrigerez les erreurs, ajouterez des détails et transformerez vos images avec aisance. Commençons !

Qu’est-ce que l’Inpainting avec Stable Diffusion ?

En essence, l’inpainting avec Stable Diffusion est un processus qui remplit intelligemment les parties manquantes ou masquées d’une image. Au lieu de simplement flouter ou copier des pixels, Stable Diffusion utilise ses capacités génératives pour créer un nouveau contenu contextuellement pertinent à l’intérieur de la zone masquée. Il “comprend” l’image environnante et essaie de générer quelque chose qui s’intègre naturellement, basé sur votre prompt textuel.

Pensez-y comme ceci : vous avez une peinture avec une petite tâche. Au lieu de repeindre l’ensemble de la toile, vous retirez soigneusement la tâche puis peignez sur cette petite zone, en allant chercher le style et les couleurs de l’original. L’inpainting avec Stable Diffusion fait cela numériquement, utilisant l’IA pour générer la nouvelle “peinture.”

Cette technique est incroyablement polyvalente. Vous pouvez l’utiliser pour des corrections simples, comme enlever un élément de fond distrayant, ou pour des modifications plus complexes, comme changer l’expression d’un personnage ou ajouter un nouvel objet à une scène. La clé est de fournir des instructions claires via votre prompt et de définir précisément la zone que vous souhaitez modifier avec un masque.

Pourquoi Utiliser l’Inpainting ?

Il existe de nombreuses raisons pour lesquelles l’inpainting est un outil inestimable pour les artistes de l’IA :

  • Correction d’erreurs : Corrigez les problèmes courants de génération IA, comme les membres déformés, les doigts supplémentaires, les objets mal placés ou les textures étranges.
  • Amélioration des détails : Améliorez des détails spécifiques sans affecter le reste de l’image. Affinez les yeux, peaufinez les vêtements ou ajoutez des motifs complexes.
  • Suppression d’objets : Éliminez facilement les éléments indésirables de vos images, comme des photobombers, des arrière-plans distracteurs ou des artefacts accidentels.
  • Ajout d’objets : Introduisez de nouveaux éléments dans une scène existante, comme un chapeau différent, un animal de compagnie ou un meuble.
  • Modification d’attributs : Changez des attributs spécifiques d’un objet ou d’une personne, comme la couleur des cheveux, le style vestimentaire ou les traits du visage.
  • Exploration créative : Expérimentez différentes variations d’une partie spécifique de votre image sans régénérer l’ensemble.

Sans l’inpainting, beaucoup de ces tâches nécessiteraient de multiples régénérations complètes, entraînant une perte de temps et de ressources, et souvent une perte de la composition globale que vous aimiez. Ce guide sur l’inpainting avec Stable Diffusion vise à rendre ces tâches simples.

Outils Nécessaires pour l’Inpainting

Pour suivre ce guide sur l’inpainting avec Stable Diffusion, vous aurez besoin d’une interface Stable Diffusion qui supporte l’inpainting. L’option la plus populaire et riche en fonctionnalités est l’UI Web d’Automatic1111. Si vous ne l’avez pas encore configurée, il existe de nombreux excellents guides en ligne pour l’installation. Supposons que vous l’ayez en fonctionnement, voici ce que vous utiliserez généralement :

  • UI Web d’Automatic1111 : Votre interface principale pour Stable Diffusion.
  • Onglet Image à Image : C’est ici que la magie de l’inpainting opère.
  • Sous-onglet Inpaint : Spécifiquement conçu pour les tâches d’inpainting.
  • Outils de Masquage : Brosse intégrée pour définir la zone à inpaint.
  • Modèle de Point de Contrôle Stable Diffusion : Un bon modèle polyvalent comme SD 1.5, SDXL, ou un modèle affiné adapté au style souhaité.

Bien que d’autres interfaces existent, Automatic1111 offre le plus de contrôle et de fonctionnalités pour l’inpainting, ce qui en fait le choix recommandé pour ce guide.

Comprendre les Paramètres d’Inpainting

Avant d’explorer les étapes, passons rapidement en revue certains paramètres clés que vous rencontrerez dans l’onglet Inpaint de l’UI Web d’Automatic1111. Comprendre ceux-ci vous donnera plus de contrôle sur vos résultats.

Mode de Masquage :

  • Inpaint masqué : C’est le réglage le plus courant. Cela indique à Stable Diffusion de générer uniquement du contenu dans la zone masquée.
  • Inpaint non masqué : Cela inverse le masque, générant du contenu partout *sauf* dans la zone masquée. Utile pour garder un élément de premier plan spécifique intact tout en changeant l’arrière-plan.

Contenu du Masque :

  • Original : La zone masquée sera remplie en fonction du contenu original à l’intérieur du masque. Cela fonctionne souvent bien pour des changements subtils ou des mélanges.
  • Bruitage Latent : La zone masquée est remplie de bruit aléatoire dans l’espace latent avant génération. Cela encourage le modèle à générer complètement un nouveau contenu, idéal pour des changements significatifs ou l’ajout de nouveaux objets.
  • Rien Latent : Semblable à Bruitage Latent mais avec un biais vers “le néant,” utile dans des scénarios spécifiques.
  • Remplissage : La zone masquée est remplie d’une couleur unie, puis le modèle essaie de générer par-dessus. Peut parfois conduire à des résultats moins cohérents que Bruitage Latent ou Original.

Pour la plupart des corrections d’erreurs et des ajouts d’objets, Bruitage Latent est un bon point de départ. Pour des changements subtils ou le mélange d’éléments existants, Original peut bien fonctionner.

Zone à Inpaint :

  • Image entière : L’ensemble de l’image est pris en compte lors de la génération de la zone masquée. Cela est généralement recommandé pour une meilleure compréhension contextuelle.
  • Uniquement masqué : Seule la zone masquée et une petite bordure autour sont considérées. Cela peut être plus rapide mais peut entraîner des résultats moins cohérents si la zone masquée est grande ou manque de contexte.

Flou de Masque :

Ce réglage floute les bords de votre masque. Une valeur de flou plus élevée peut aider à intégrer plus harmonieusement la zone inpaintée avec l’image originale, réduisant les lignes dures. Commencez avec une valeur autour de 4-8 et ajustez selon vos besoins.

Force de Dénégation :

C’est un paramètre crucial pour l’inpainting, tout comme dans img2img. Il contrôle combien le modèle s’écarte de l’image originale (ou du contenu masqué).

  • Faible Force de Dénégation (0.3-0.5) : Bon pour des changements subtils, des corrections mineures ou le mélange. Le modèle essaiera de rester très proche du contenu masqué original.
  • Force de Dénégation Moyenne (0.5-0.7) : Adaptée pour des changements modérés, comme altérer une expression faciale ou changer un vêtement.
  • Haute Force de Dénégation (0.7-1.0) : Utilisez ceci lorsque vous voulez apporter des changements significatifs, ajouter de nouveaux objets, ou remplacer complètement quelque chose. Le modèle aura plus de liberté pour générer du nouveau contenu.

Expérimentez avec ce réglage ! Il fait souvent la plus grande différence dans vos résultats d’inpainting. Ce guide sur l’inpainting avec Stable Diffusion y fera souvent référence.

Guide d’Inpainting Étape par Étape : Corriger une Image

Passons à un exemple pratique : corriger une main déformée dans une image générée par IA.

1. Générer votre Image de Base

Tout d’abord, générez une image dans l’onglet “txt2img” sur laquelle vous souhaitez travailler. Par exemple, un portrait d’une personne. Enregistrez l’image sur votre ordinateur.

2. Accéder à l’Onglet Img2Img

Cliquez sur l’onglet “img2img” dans Automatic1111. Ensuite, cliquez sur le sous-onglet “Inpaint.”

3. Téléchargez votre Image

Faites glisser et déposez votre image générée dans la grande boîte “Déposez ou collez l’image ici” dans l’onglet Inpaint.

4. Masquez la Zone à Corriger

Utilisez l’outil pinceau fourni directement sur l’aperçu de l’image pour peindre sur la zone que vous souhaitez corriger. Dans notre exemple, peignez soigneusement sur la main déformée. Vous pouvez ajuster la taille du pinceau à l’aide du curseur sous l’image.

Astuce : Soyez précis avec votre masque, mais n’ayez pas peur de dépasser légèrement les bords exacts si vous souhaitez que le modèle régénère une zone plus large pour un meilleur mélange.

5. Écrivez votre Prompt

Dans la zone de saisie, décrivez ce que vous *voulez* voir dans la zone masquée. Soyez précis. Si vous réparez une main, votre prompt pourrait être : « main parfaite, cinq doigts, tenant une tasse. » Si vous retirez quelque chose, décrivez ce qui devrait y être à la place, par exemple, « peau lisse » ou « table vide. »

Exemple de prompt pour réparer une main : (main photoréaliste:1.3), cinq doigts, tenant un livre, détail complexe, réaliste

Vous pouvez également inclure des prompts négatifs pour guider la génération loin des traits indésirables : (doigts supplémentaires:1.5), flou, main déformée, mutée

6. Configurer les paramètres de réparation

  • Mode de masque : Gardez sur « Réparer masqué ».
  • Contenu du masque : Pour corriger une main déformée, « Bruit latent » est souvent un bon choix car vous voulez que le modèle génère une nouvelle main à partir de zéro. « Original » pourrait essayer de conserver trop de la structure déformée.
  • Zone de réparation : « Image entière » est généralement le meilleur choix pour le contexte.
  • Flou du masque : Commencez avec 4-8.
  • Force de débruitage : C’est critique. Pour une grande réparation comme une main, commencez avec une valeur plus élevée, autour de 0.65 – 0.75. Si la main paraît toujours étrange, augmentez-la. Si elle semble trop différente du reste de l’image, diminuez-la légèrement.

7. Définir d’autres paramètres de génération

Définissez votre méthode d’échantillonnage (par exemple, DPM++ 2M Karras), les étapes d’échantillonnage (20-30 est généralement bien), l’échelle CFG (7-10), et les dimensions de l’image. Assurez-vous que les dimensions correspondent à votre image originale. Vous pouvez également ajuster la taille du lot et le nombre de lots si vous souhaitez générer plusieurs variations à la fois.

Important : Réglez le menu déroulant « Mode de redimensionnement » sur « Juste redimensionner » ou « Rogner et redimensionner » si les dimensions de votre image originale ne correspondent pas aux dimensions de génération que vous avez définies, bien qu’idéalement, vous voudriez les faire correspondre.

8. Générer !

Cliquez sur le bouton « Générer ». Stable Diffusion va maintenant traiter la zone masquée selon votre prompt et vos paramètres. Passez en revue les résultats. Si ce n’est pas parfait, ne vous inquiétez pas – la réparation nécessite souvent quelques itérations.

9. Itérer et affiner

Si le résultat n’est pas ce que vous souhaitiez :

  • Ajustez la force de débruitage : L’ajustement le plus commun.
  • Affinez votre prompt : Soyez plus précis ou essayez des mots-clés différents.
  • Ajustez le masque : Parfois, peindre une zone légèrement plus grande ou plus petite peut aider.
  • Essayez un réglage de « Contenu du masque » différent : Expérimentez avec « Original » si « Bruit latent » ne fonctionne pas, ou vice versa.
  • Générez plusieurs fois : Même avec les mêmes paramètres, Stable Diffusion produira des variations. Générez-en quelques-uns et choisissez le meilleur.

Techniques avancées de réparation

Changer les attributs d’objet

Disons que vous avez un personnage portant une chemise rouge, et vous voulez qu’elle soit bleue.

  1. Masquez la chemise rouge.
  2. Prompt : chemise bleue, texture en coton, tissu réaliste
  3. Contenu du masque : « Bruit latent » ou « Original » (expérimentez).
  4. Force de débruitage : Environ 0.6-0.7.

Le modèle redessine intelligemment la chemise en bleu, essayant de maintenir l’éclairage et les plis de l’original.

Ajouter de nouveaux objets

Vous avez un espace et vous souhaitez ajouter un arbre au premier plan.

  1. Masquez la zone où vous voulez que l’arbre apparaisse.
  2. Prompt : grand chêne, feuillage vert luxuriant, lumière du soleil filtrant à travers les branches
  3. Contenu du masque : « Bruit latent » est presque toujours le meilleur ici, car vous créez quelque chose de totalement nouveau.
  4. Force de débruitage : Plus élevée, autour de 0.7-0.85, pour donner au modèle la liberté de créer l’arbre.

Retirer des objets (Outpainting dans Inpaint)

Vous voulez retirer un lampadaire distrayant d’une scène de rue.

  1. Masquez le lampadaire.
  2. Prompt : Décrivez ce qui *devrait* être derrière le lampadaire (par exemple, mur de briques, pavé de rue, bâtiments lointains). Si vous voulez juste qu’il se fonde, un prompt vide peut parfois fonctionner, permettant au modèle d’inférer à partir du contexte.
  3. Contenu du masque : « Original » ou « Bruit latent ». « Original » pourrait essayer de prolonger habilement l’arrière-plan.
  4. Force de débruitage : 0.5-0.7. Plus élevé si la zone à remplir est grande et complexe.

Ceci utilise efficacement la fonction de réparation pour étendre une section plus petite.

Utiliser ControlNet pour la réparation

Pour une réparation très précise, surtout lors du maintien de poses, structures ou compositions spécifiques, ControlNet représente un changement significatif.

  1. Chargez votre image dans l’onglet Inpaint et masquez la zone.
  2. Faites défiler vers le bas jusqu’à l’accordéon ControlNet.
  3. Activez ControlNet.
  4. Téléchargez votre image originale (ou une version traitée comme une carte de contour Canny) dans la boîte d’image d’entrée ControlNet.
  5. Choisissez un préprocesseur et un modèle appropriés (par exemple, préprocesseur « canny » et modèle « control_v11p_sd15_canny » si vous souhaitez maintenir les contours). Ou « inpaint_only » si vous souhaitez utiliser le modèle de réparation.
  6. Crucialement, réglez le « Mode de contrôle » de ControlNet sur « Mon prompt est plus important » ou « Équilibré » et ajustez le « Poids de contrôle » si nécessaire.
  7. Générez.

ControlNet peut améliorer considérablement la cohérence et la précision de vos résultats de réparation, en particulier pour les changements structurels ou le maintien de formes spécifiques. Ce guide de réparation Stable Diffusion recommande d’explorer ControlNet à mesure que vous vous familiarisez.

Défis courants de réparation et conseils

Problèmes de fusion

Parfois, la zone de réparation ressemble à un patch, pas à une intégration naturelle.

  • Augmentez le flou du masque : Une valeur de flou plus élevée peut créer une transition plus douce.
  • Ajustez la force de débruitage : Trop élevé peut la faire ressortir ; trop bas pourrait ne pas changer assez. Trouvez le juste équilibre.
  • Affinez le prompt : Assurez-vous que votre prompt pour la zone masquée est cohérent avec le style et l’éclairage du reste de l’image.
  • Itérez : Générez plusieurs fois. Parfois, un légèrement différent seed aléatoire donne une meilleure fusion.

Style incohérent

La zone de réparation peut avoir un style artistique ou une palette de couleurs différente.

  • Utilisez un modèle cohérent : Assurez-vous d’utiliser le même modèle de point de contrôle Stable Diffusion pour la réparation que celui utilisé pour l’image originale.
  • Cohérence des prompts : Incluez des mots-clés stylistiques de votre prompt original dans votre prompt de réparation (par exemple, « style peinture à l’huile, » « éclairage cinématographique »).
  • Réduisez la force de débruitage : Si le style dérive trop, réduisez la force de débruitage pour le garder plus proche de l’original.

Générer des éléments indésirables

Le modèle pourrait ajouter des choses que vous n’avez pas demandées dans la zone masquée.

  • Prompt négatif : Utilisez des prompts négatifs pour exclure explicitement les éléments indésirables (par exemple, (doigts supplémentaires:1.5), moche, déformé, flou).
  • Affinez le prompt : Soyez très précis sur ce que vous *voulez*. Un prompt trop vague laisse trop de liberté au modèle.
  • Masque plus petit : Parfois, masquer une zone légèrement plus petite et plus ciblée peut empêcher le modèle d’ajouter des détails superflus.

Mains et visages

C’est notoirement difficile pour l’IA de les générer parfaitement.

  • Prompts spécifiques : Utilisez des prompts très détaillés pour les mains et les visages : (main humaine parfaite:1.4), cinq doigts, délicate, texture de peau détaillée, visage expressif, yeux clairs, traits symétriques.
  • ControlNet : Pour les mains et les visages, ControlNet avec OpenPose (pour les mains) ou Reference/IP-Adapter (pour des traits faciaux spécifiques) peut être incroyablement utile pour maintenir la structure.
  • Passages multiples : Parfois, un premier passage de réparation le rapproche, puis un second passage avec un masque plus petit et un prompt affiné peut le perfectionner.

Conseils de flux de travail pour une réparation efficace

  • Commencez petit : Si vous avez plusieurs problèmes, attaquez-les un par un. N’essayez pas de masquer la moitié de l’image et de tout réparer en même temps.
  • Enregistrez les itérations : Enregistrez de bons résultats intermédiaires. Vous pourriez avoir besoin de revenir en arrière ou de combiner des éléments de différentes générations.
  • Utilisez le batching : Générez un lot de 4-8 images avec des seeds légèrement variés pour voir rapidement différents résultats pour votre zone masquée.
  • Explorez les seeds : Si vous trouvez une bonne génération, notez son seed. Vous pouvez ensuite utiliser ce seed avec des ajustements mineurs au prompt ou aux paramètres.
  • Combinez la réparation avec Photoshop/GIMP : Pour un mélange très fin ou des compositions complexes, n’hésitez pas à emmener votre résultat réparé dans un éditeur d’images pour les touches finales.

Maîtriser la réparation Stable Diffusion demande de la pratique, mais les récompenses sont immenses. Vous gagnez un contrôle précis sur votre art généré par IA, transformant des générations brutes en chefs-d’œuvre polis. Ce guide de réparation Stable Diffusion vous a fourni les bases et des étapes concrètes pour commencer votre parcours. Expérimentez avec les paramètres, essayez différents prompts et n’ayez pas peur d’itérer. Bonne réparation !

FAQ : Guide de Réparation Stable Diffusion

Q1 : Mon area retouché semble complètement déconnectée du reste de l’image. Que fais-je mal ?

A1 : C’est un problème courant. Vérifiez d’abord la Force de Dénaturation ; si elle est trop élevée, le modèle pourrait ignorer trop de contexte environnant. Essayez de la réduire à 0,5-0,7. Assurez-vous également que votre prompt pour l’area masquée soit cohérent en style et en contenu avec le reste de l’image. Utiliser « Image entière » pour « Zone à retoucher » aide à fournir plus de contexte au modèle. Enfin, augmentez légèrement le « Flou de masque » (par exemple, entre 6 et 10) pour aider à fondre les bords plus harmonieusement.

Q2 : Puis-je utiliser la retouche pour changer complètement l’arrière-plan d’une image tout en gardant le sujet au premier plan intact ?

A2 : Oui, c’est possible ! Au lieu de « Retoucher masqué », vous pourriez sélectionner « Retoucher non masqué ». Cela indique à Stable Diffusion de générer du contenu partout *sauf* dans la zone que vous avez masquée. Ainsi, vous devrez soigneusement masquer votre sujet au premier plan, puis fournir un prompt décrivant votre nouvel arrière-plan souhaité. N’oubliez pas de choisir « Bruit latent » pour « Contenu du masque » et une « Force de Dénaturation » plus élevée (0,7-0,9) pour permettre un changement complet de l’arrière-plan.

Q3 : Mes mains/doigts apparaissent toujours déformés même après la retouche. Avez-vous des conseils spécifiques à ce sujet ?

A3 : Les mains sont notoirement difficiles à réaliser. Au-delà d’un prompt très spécifique comme « main humaine parfaite, cinq doigts, détails réalistes », considérez ces techniques avancées :

  • ControlNet (OpenPose) : Utilisez le préprocesseur OpenPose et le modèle. Si possible, téléchargez une image d’une main dans la pose désirée comme entrée ControlNet, ou utilisez une figure stylisée de base OpenPose. Cela force le modèle à respecter la structure anatomique.
  • Retouche itérative : Retouchez la main une fois, puis si cela ne va toujours pas, masquez une plus petite zone problématique (par exemple, juste un doigt déformé) et retouchez à nouveau avec un prompt très ciblé et une Force de Dénaturation légèrement inférieure.
  • Étapes/CFG plus élevées : Parfois, augmenter le nombre d’étapes d’échantillonnage (30-40) ou l’échelle CFG (8-12) peut donner plus de temps au modèle pour affiner les détails, mais faites attention à ne pas abuser de cela.

Quelle est la différence entre « Bruit latent » et « Original » pour « Contenu du masque » lors de la retouche ?

A4 : « Bruit latent » remplit la zone masquée avec du bruit aléatoire dans l’espace latent avant le processus de génération. Cela indique essentiellement au modèle de créer quelque chose de complètement nouveau dans cette zone, ce qui le rend idéal pour ajouter de nouveaux objets, apporter des changements significatifs ou corriger des erreurs majeures où vous souhaitez que le modèle réinvente complètement le contenu. « Original », en revanche, essaie de préserver le contenu original dans la zone masquée, puis le modifie subtilement en fonction de votre prompt. Cela est préférable pour des ajustements mineurs, des fondus, ou des changements qui doivent rester très proches de l’image existante, comme changer une légère variation de couleur ou affiner une texture sans altérer trop la forme sous-jacente. Pour la plupart des corrections ou ajouts importants, « Bruit latent » est votre meilleur choix.

🕒 Published:

🧰
Written by Jake Chen

Software reviewer and AI tool expert. Independently tests and benchmarks AI products. No sponsored reviews — ever.

Learn more →
Browse Topics: AI & Automation | Comparisons | Dev Tools | Infrastructure | Security & Monitoring

Related Sites

AgntzenClawgoAgnthqAgent101
Scroll to Top