\n\n\n\n Maîtrisez le Inpainting de Stable Diffusion : Votre Guide Complet - AgntBox Maîtrisez le Inpainting de Stable Diffusion : Votre Guide Complet - AgntBox \n

Maîtrisez le Inpainting de Stable Diffusion : Votre Guide Complet

📖 20 min read3,922 wordsUpdated Mar 26, 2026

Guide de l’Inpainting avec Stable Diffusion : Corrigez et Améliorez Votre Art AI

Bonjour à tous ! Nina Torres ici, votre référence pour des conseils pratiques sur les derniers outils. Aujourd’hui, nous allons explorer en profondeur l’inpainting avec Stable Diffusion. Si jamais vous avez généré une image avec IA et pensé, “C’est super, mais ce détail est faussé,” alors l’inpainting est votre nouveau meilleur ami. C’est une technique puissante pour corriger les imperfections, ajouter de nouveaux éléments ou modifier subtilement des parties spécifiques de votre art généré par IA. Oubliez la régénération d’images entières ; l’inpainting vous permet de cibler et de peaufiner avec précision. Ce guide sur l’inpainting avec stable diffusion vous expliquera tout ce que vous devez savoir, de la configuration aux techniques avancées, garantissant que votre art IA ressemble exactement à ce que vous avez imaginé.

Stable Diffusion a ouvert d’incroyables voies créatives, mais même les meilleurs modèles peuvent parfois produire des anomalies. Un doigt peut être déformé, un objet peut apparaître là où il ne devrait pas, ou vous pouvez tout simplement vouloir changer la couleur d’une chemise. C’est là que l’inpainting brille. Il vous permet de masquer une zone spécifique d’une image et ensuite de générer un nouveau contenu à l’intérieur de ce masque, guidé par votre prompt et le contexte de l’image environnante. Les résultats peuvent être étonnamment fluides, faisant de cette technique une compétence essentielle pour quiconque s’intéresse sérieusement à la génération d’art IA.

Nous couvrirons les bases sur le fonctionnement de l’inpainting, les outils essentiels dont vous aurez besoin et fournirons des instructions étape par étape pour des cas d’utilisation courants. À la fin de ce guide sur l’inpainting avec stable diffusion, vous serez en mesure de corriger des erreurs, d’ajouter des détails et de transformer vos images avec aisance. Commençons !

Qu’est-ce que l’Inpainting avec Stable Diffusion ?

En essence, l’inpainting avec Stable Diffusion est un processus qui consiste à remplir intelligemment les parties manquantes ou masquées d’une image. Au lieu de simplement flouter ou copier des pixels, Stable Diffusion utilise ses capacités génératives pour créer un nouveau contenu, contextuellement pertinent, à l’intérieur de la zone masquée. Il “comprend” l’image environnante et essaie de générer quelque chose qui s’intègre naturellement, basé sur votre prompt textuel.

Pensez-y de cette façon : vous avez une peinture avec une petite tâche. Au lieu de repeindre tout le canevas, vous retirez soigneusement la tâche, puis peignez sur cette petite zone, en faisant correspondre le style et les couleurs de l’original. L’inpainting avec Stable Diffusion fait cela numériquement, utilisant l’IA pour générer la nouvelle “peinture.”

Cette technique est incroyablement polyvalente. Vous pouvez l’utiliser pour des corrections simples, comme enlever un élément d’arrière-plan distrayant, ou pour des modifications plus complexes, telles que changer l’expression d’un personnage ou ajouter un nouvel objet à une scène. La clé est de fournir des instructions claires à travers votre prompt et de définir avec précision la zone que vous souhaitez changer avec un masque.

Pourquoi Utiliser l’Inpainting ?

Il existe de nombreuses raisons pour lesquelles l’inpainting est un outil inestimable pour les artistes IA :

  • Correction d’Erreurs : Corrigez les problèmes courants de génération AI comme les membres déformés, les doigts supplémentaires, les objets mal placés, ou les textures étranges.
  • Enhancement de Détails : Améliorez des détails spécifiques sans affecter le reste de l’image. Affinez les yeux, peaufinez les vêtements, ou ajoutez des motifs complexes.
  • Retrait d’Objets : Enlevez facilement les éléments indésirables de vos images, comme des photobombers, des arrière-plans distrayants ou des artefacts accidentels.
  • Ajout d’Objets : Introduisez de nouveaux éléments dans une scène existante, tels qu’un chapeau différent, un animal de compagnie, ou un morceau de mobilier.
  • Modification d’Attributs : Changez des attributs spécifiques d’un objet ou d’une personne, comme la couleur des cheveux, le style vestimentaire, ou les traits du visage.
  • Exploration Créative : Expérimentez avec différentes variations d’une partie spécifique de votre image sans régénérer l’ensemble.

Sans l’inpainting, beaucoup de ces tâches nécessiteraient plusieurs régénérations complètes, entraînant une perte de temps et de ressources, et souvent une perte de la composition globale que vous aimiez. Ce guide sur l’inpainting avec stable diffusion vise à rendre ces tâches simples.

Outils Nécessaires pour l’Inpainting

Pour suivre ce guide sur l’inpainting avec stable diffusion, vous aurez besoin d’une interface Stable Diffusion qui prend en charge l’inpainting. L’option la plus populaire et la plus riche en fonctionnalités est l’Interface Web d’Automatic1111. Si vous ne l’avez pas encore configurée, il existe de nombreux excellents guides disponibles en ligne pour l’installation. En supposant que vous l’avez en fonctionnement, voici ce que vous utiliserez généralement :

  • Interface Web d’Automatic1111 : Votre interface principale pour Stable Diffusion.
  • Onglet Image à Image : C’est ici que la magie de l’inpainting opère.
  • Sous-onglet Inpaint : Conçu spécifiquement pour les tâches d’inpainting.
  • Outils de Masquage : Brosse intégrée pour définir la zone à inpaint.
  • Modèle de Point de Contrôle Stable Diffusion : Un bon modèle polyvalent comme SD 1.5, SDXL, ou un modèle finement ajusté pour votre style souhaité.

Bien que d’autres interfaces existent, Automatic1111 offre le plus de contrôle et de fonctionnalités pour l’inpainting, en faisant le choix recommandé pour ce guide.

Comprendre les Paramètres d’Inpainting

Avant d’explorer les étapes, passons rapidement en revue quelques paramètres clés que vous rencontrerez dans l’onglet Inpaint de l’Interface Web d’Automatic1111. Comprendre ceux-ci vous donnera plus de contrôle sur vos résultats.

Mode de Masquage :

  • Inpaint masqué : C’est le paramètre le plus courant. Il indique à Stable Diffusion de générer uniquement du contenu dans la zone masquée.
  • Inpaint non masqué : Cela inverse le masque, générant du contenu partout *sauf* dans la zone masquée. Utile pour garder un élément d’avant-plan spécifique intact tout en changeant l’arrière-plan.

Contenu du Masque :

  • Original : La zone masquée sera remplie en fonction du contenu original à l’intérieur du masque. Cela convient souvent pour les changements subtils ou le mélange.
  • Bruit Latent : La zone masquée est remplie de bruit aléatoire dans l’espace latent avant la génération. Cela encourage le modèle à générer un contenu entièrement nouveau, bon pour des changements significatifs ou l’ajout de nouveaux objets.
  • Rien Latent : Semblable à Bruit Latent mais avec un biais vers “le néant,” utile dans des scénarios spécifiques.
  • Remplissage : La zone masquée est remplie d’une couleur unie, puis le modèle essaie de générer par-dessus. Cela peut parfois conduire à des résultats moins cohérents que Bruit Latent ou Original.

Pour la plupart des corrections d’erreurs et des ajouts d’objets, Bruit Latent est un bon point de départ. Pour des changements subtils ou le mélange d’éléments existants, Original peut bien fonctionner.

Zone à Inpaint :

  • Image entière : L’ensemble de l’image est pris en compte lors de la génération de la zone masquée. Cela est généralement recommandé pour une meilleure compréhension contextuelle.
  • Seulement masqué : Seule la zone masquée et une petite bordure autour d’elle sont prises en compte. Cela peut être plus rapide mais peut conduire à des résultats moins cohérents si la zone masquée est grande ou manque de contexte.

Flou de Masque :

Ce paramètre floute les bords de votre masque. Une valeur de flou plus élevée peut aider à mélanger la zone inpaintée plus harmonieusement avec l’image originale, réduisant les lignes dures. Commencez avec une valeur autour de 4-8 et ajustez selon vos besoins.

Force de Dénormation :

Il s’agit d’un paramètre crucial pour l’inpainting, tout comme dans img2img. Il contrôle dans quelle mesure le modèle s’écarte de l’image originale (ou du contenu masqué).

  • Faible Force de Dénormation (0.3-0.5) : Bon pour des changements subtils, des corrections mineures ou le mélange. Le modèle essaiera de rester très proche du contenu masqué original.
  • Force de Dénormation Moyenne (0.5-0.7) : Adaptée pour des changements modérés, comme altérer une expression faciale ou changer un vêtement.
  • Force de Dénormation Élevée (0.7-1.0) : Utilisez cela lorsque vous souhaitez apporter des changements significatifs, ajouter de nouveaux objets, ou remplacer complètement quelque chose. Le modèle aura plus de liberté pour générer du nouveau contenu.

Expérimentez avec ce paramètre ! Il fait souvent la plus grande différence dans vos résultats d’inpainting. Ce guide sur l’inpainting avec stable diffusion y fera souvent référence.

Guide Étape par Étape pour l’Inpainting : Corriger une Image

Passons à un exemple pratique : corriger une main déformée dans une image générée par IA.

1. Générez Votre Image de Base

Tout d’abord, générez une image dans l’onglet “txt2img” sur laquelle vous souhaitez travailler. Par exemple, un portrait d’une personne. Enregistrez l’image sur votre ordinateur.

2. Accédez à l’Onglet Img2Img

Cliquez sur l’onglet “img2img” dans Automatic1111. Ensuite, cliquez sur le sous-onglet “Inpaint”.

3. Téléchargez Votre Image

Faites glisser et déposez votre image générée dans la grande boîte “Déposez ou collez l’image ici” dans l’onglet Inpaint.

4. Masquez la Zone à Corriger

Utilisez l’outil pinceau fourni directement sur l’aperçu de l’image pour peindre sur la zone que vous souhaitez corriger. Dans notre exemple, peignez soigneusement sur la main déformée. Vous pouvez ajuster la taille du pinceau en utilisant le curseur en dessous de l’image.

Astuce : Soyez précis avec votre masque, mais n’hésitez pas à dépasser légèrement les bords exacts si vous avez besoin que le modèle régénère une zone plus grande pour un meilleur mélange.

5. Rédigez Votre Prompt

Dans la boîte de prompt, décrivez ce que vous *voulez* voir dans la zone masquée. Soyez spécifique. Si vous réparez une main, votre prompt pourrait être : « main parfaite, cinq doigts, tenant une tasse. » Si vous enlevez quelque chose, décrivez ce qui devrait être à la place, par exemple, « peau lisse » ou « table vide. »

Exemple de prompt pour la réparation de main : (main photoréaliste:1.3), cinq doigts, tenant un livre, détail complexe, réaliste

Vous pouvez également inclure des prompts négatifs pour guider la génération loin des traits indésirables : (doigts supplémentaires:1.5), flou, main déformée, mutée

6. Configurer les paramètres d’inpainting

  • Mode de masquage : Laissez sur « Inpaint masked ».
  • Contenu du masque : Pour réparer une main déformée, « Latent Noise » est souvent un bon choix car vous voulez que le modèle génère une nouvelle main à partir de zéro. « Original » pourrait essayer de préserver trop de la structure déformée.
  • Zone d’inpainting : « Whole picture » est généralement le meilleur pour le contexte.
  • Flou du masque : Commencez avec 4-8.
  • Force de débruitage : Cela est critique. Pour une réparation significative comme une main, commencez avec une valeur plus élevée, autour de 0.65 – 0.75. Si la main a encore l’air incorrecte, augmentez-la. Si elle semble trop différente du reste de l’image, diminuez-la légèrement.

7. Définir d’autres paramètres de génération

Définissez votre méthode d’échantillonnage (par exemple, DPM++ 2M Karras), le nombre d’étapes d’échantillonnage (20-30 est généralement bon), le CFG Scale (7-10), et les dimensions de l’image. Assurez-vous que les dimensions correspondent à celles de votre image originale. Vous pouvez également ajuster la taille du lot et le compte du lot si vous souhaitez générer plusieurs variations à la fois.

Important : Réglez le menu déroulant « Resize mode » sur « Just resize » ou « Crop and resize » si les dimensions de votre image originale ne correspondent pas aux dimensions de génération que vous avez définies, bien qu’idéalement, vous deviez les faire correspondre.

8. Générer !

Cliquez sur le bouton « Generate ». Stable Diffusion va maintenant traiter la zone masquée selon votre prompt et vos paramètres. Examinez les résultats. Si ce n’est pas parfait, ne vous inquiétez pas – l’inpainting nécessite souvent quelques itérations.

9. Itérer et affiner

Si le résultat n’est pas celui que vous espériez :

  • Ajustez la force de débruitage : L’ajustement le plus courant.
  • Afinissez votre prompt : Soyez plus spécifique ou essayez différents mots-clés.
  • Ajustez le masque : Parfois, peindre une zone légèrement plus grande ou plus petite peut aider.
  • Essayez un paramètre de « Mask content » différent : Expérimentez avec « Original » si « Latent Noise » ne fonctionne pas, ou vice versa.
  • Générez plusieurs fois : Même avec les mêmes paramètres, Stable Diffusion produira des variations. Générez-en quelques-unes et choisissez la meilleure.

Techniques avancées d’inpainting

Changer les attributs d’objet

Supposons que vous ayez un personnage portant une chemise rouge, et que vous vouliez qu’elle soit bleue.

  1. Masquez la chemise rouge.
  2. Prompt : chemise bleue, texture coton, tissu réaliste
  3. Contenu du masque : « Latent Noise » ou « Original » (expérimentez).
  4. Force de débruitage : Environ 0.6-0.7.

Le modèle redessinera intelligemment la chemise en bleu, en essayant de maintenir l’éclairage et les plis de l’original.

Ajouter de nouveaux objets

Vous avez un espace et souhaitez ajouter un arbre au premier plan.

  1. Masquez la zone où vous voulez que l’arbre apparaisse.
  2. Prompt : grand chêne, feuilles vertes luxuriantes, lumière du soleil filtrant à travers les branches
  3. Contenu du masque : « Latent Noise » est presque toujours le meilleur ici, car vous créez quelque chose de complètement nouveau.
  4. Force de débruitage : Plus élevé, autour de 0.7-0.85, pour donner au modèle la liberté de créer l’arbre.

Supprimer des objets (Outpainting dans Inpaint)

Vous souhaitez retirer un lampadaire distrayant d’une scène de rue.

  1. Masquez le lampadaire.
  2. Prompt : Décrivez ce qui *devrait* être derrière le lampadaire (par exemple, mur de briques, pavé de rue, bâtiments lointains). Si vous voulez simplement qu’il s’intègre, un prompt vide peut parfois fonctionner, laissant le modèle inférer à partir du contexte.
  3. Contenu du masque : « Original » ou « Latent Noise. » « Original » pourrait essayer d’étendre intelligemment l’arrière-plan.
  4. Force de débruitage : 0.5-0.7. Plus élevé si la zone à remplir est grande et complexe.

Ceci utilise efficacement la fonction d’inpainting pour outpainting une section plus petite.

Utiliser ControlNet pour l’inpainting

Pour un inpainting de haute précision, en particulier lors du maintien de poses, de structures ou de compositions spécifiques, ControlNet est un changement significatif.

  1. Chargez votre image dans l’onglet Inpaint et masquez la zone.
  2. Faites défiler vers le bas jusqu’au panneau ControlNet.
  3. Activez ControlNet.
  4. Téléchargez votre image originale (ou une version traitée comme une carte de contours Canny) dans la boîte d’image d’entrée ControlNet.
  5. Choisissez un préprocesseur et un modèle adaptés (par exemple, préprocesseur « canny » et modèle « control_v11p_sd15_canny » si vous souhaitez maintenir les contours). Ou « inpaint_only » si vous voulez utiliser le modèle d’inpainting.
  6. Il est crucial de régler le mode de contrôle ControlNet sur « Mon prompt est plus important » ou « Équilibré » et d’ajuster le « Poids de contrôle » si nécessaire.
  7. Générez.

ControlNet peut améliorer considérablement la cohérence et la précision de vos résultats d’inpainting, en particulier pour des changements structurels ou le maintien de formes spécifiques. Ce guide sur l’inpainting de Stable Diffusion recommande d’explorer ControlNet au fur et à mesure que vous vous familiarisez.

Défis courants de l’inpainting et conseils

Problèmes de fusion

Parfois, la zone d’inpainting ressemble à un patch, pas à une intégration naturelle.

  • Augmenter le flou du masque : Une valeur de flou plus élevée peut créer une transition plus douce.
  • Ajuster la force de débruitage : Trop élevée peut le faire ressortir ; trop basse pourrait ne pas changer assez. Trouvez le juste milieu.
  • Afinir le prompt : Assurez-vous que votre prompt pour la zone masquée est cohérent avec le style et l’éclairage du reste de l’image.
  • Itérer : Générez plusieurs fois. Parfois, une graine aléatoire légèrement différente donne une meilleure fusion.

Style incohérent

La zone d’inpainting pourrait avoir un style artistique ou une palette de couleurs différente.

  • Utiliser un modèle cohérent : Assurez-vous d’utiliser le même modèle de point de contrôle Stable Diffusion pour l’inpainting que celui que vous avez utilisé pour l’image originale.
  • Cohérence du prompt : Incluez des mots-clés stylistiques de votre prompt original dans votre prompt d’inpainting (par exemple, « style peinture à l’huile », « éclairage cinématographique »).
  • Réduire la force de débruitage : Si le style dérive trop, réduisez la force de débruitage pour le rapprocher de l’original.

Génération d’éléments indésirés

Le modèle pourrait ajouter des éléments que vous n’avez pas demandés dans la zone masquée.

  • Prompt négatif : Utilisez des prompts négatifs pour exclure explicitement des éléments indésirés (par exemple, (doigts supplémentaires:1.5), laid, déformé, flou).
  • Afinir le prompt : Soyez très spécifique sur ce que vous *voulez*. Un prompt trop vague donne trop de liberté au modèle.
  • Masque plus petit : Parfois, masquer une zone légèrement plus petite et plus ciblée peut empêcher le modèle d’ajouter des détails superflus.

Mains et visages

Cela est notoirement difficile pour l’IA à générer parfaitement.

  • Prompts spécifiques : Utilisez des prompts très détaillés pour les mains et les visages : (main humaine parfaite:1.4), cinq doigts, délicate, texture de peau détaillée, visage expressif, yeux clairs, traits symétriques.
  • ControlNet : Pour les mains et les visages, ControlNet avec OpenPose (pour les mains) ou Reference/IP-Adapter (pour des caractéristiques faciales spécifiques) peut être incroyablement utile pour maintenir la structure.
  • Passages multiples : Parfois, un premier passage d’inpainting suffit, puis un second passage avec un masque plus petit et un prompt affiné peut le perfectionner.

Conseils de flux de travail pour un inpainting efficace

  • Commencez petit : Si vous avez plusieurs problèmes, attaquez-les un à un. N’essayez pas de masquer la moitié de l’image et de tout réparer en même temps.
  • Enregistrez les itérations : Enregistrez de bons résultats intermédiaires. Vous pourriez avoir besoin de revenir en arrière ou de combiner des éléments de différentes générations.
  • Utilisez le batching : Générez un lot de 4-8 images avec des graines légèrement variées pour voir rapidement différents résultats pour votre zone masquée.
  • Explorez les graines : Si vous trouvez une bonne génération, notez sa graine. Vous pouvez ensuite utiliser cette graine avec des ajustements mineurs de prompt ou de paramètres.
  • Combinez l’inpainting avec Photoshop/GIMP : Pour des mélanges très précis ou des compositions complexes, n’hésitez pas à emmener votre résultat d’inpainting dans un éditeur d’images pour les touches finales.

Maîtriser l’inpainting de Stable Diffusion demande de la pratique, mais les récompenses sont immenses. Vous gagnez un contrôle précis sur votre art IA, transformant des générations brut en chefs-d’œuvre polis. Ce guide sur l’inpainting de Stable Diffusion vous a fourni les connaissances fondamentales et les étapes exploitables pour commencer votre parcours. Expérimentez avec les paramètres, essayez différents prompts et n’ayez pas peur d’itérer. Bon inpainting !

FAQ : Guide sur l’inpainting de Stable Diffusion

Q1 : Mon area inpaintée semble complètement déconnectée du reste de l’image. Qu’est-ce que je fais mal ?

A1 : C’est un problème courant. Vérifiez d’abord la Force de Denoising ; si elle est trop élevée, le modèle pourrait ignorer trop de contexte environnant. Essayez de la réduire à 0,5-0,7. Assurez-vous également que votre prompt pour la zone masquée est cohérent en style et en contenu avec le reste de l’image. Utiliser « Image entière » pour « Zone à inpaint » aide à fournir plus de contexte au modèle. Enfin, augmentez légèrement le « Flou du masque » (par exemple, à 6-10) pour aider à fondre les bords plus harmonieusement.

Q2 : Puis-je utiliser l’inpainting pour changer l’ensemble de l’arrière-plan d’une image tout en gardant intact le sujet au premier plan ?

A2 : Oui, c’est possible ! Au lieu de « Inpaint masqué », sélectionnez « Inpaint non masqué ». Cela indique à Stable Diffusion de générer du contenu partout *sauf* dans la zone que vous avez masquée. Ainsi, vous masquerez soigneusement votre sujet au premier plan, puis fournirez un prompt décrivant votre nouvel arrière-plan souhaité. N’oubliez pas de choisir « Bruit latent » pour « Contenu du masque » et une Force de Denoising plus élevée (0,7-0,9) pour permettre un changement complet de l’arrière-plan.

Q3 : Mes mains/doigts sortent toujours déformés même après l’inpainting. Des conseils spécifiques à ce sujet ?

A3 : Les mains sont notoirement difficiles. Au-delà d’un prompt très spécifique comme « main humaine parfaite, cinq doigts, détail réaliste », considérez ces techniques avancées :

  • ControlNet (OpenPose) : Utilisez le préprocesseur et le modèle OpenPose. Si possible, téléchargez une image d’une main dans la pose désirée comme entrée ControlNet, ou utilisez une figure de stick OpenPose basique. Cela oblige le modèle à respecter la structure anatomique.
  • Inpainting itératif : Inpaint la main une fois, puis si elle n’est toujours pas correcte, masquez une zone problématique plus petite (par exemple, juste un doigt déformé) et inpaint à nouveau avec un prompt très ciblé et une Force de Denoising légèrement inférieure.
  • Étapes/CFC supérieures : Parfois, augmenter le nombre d’étapes d’échantillonnage (30-40) ou l’Échelle CFC (8-12) peut donner au modèle plus de temps pour affiner les détails, mais faites attention à ne pas en faire trop.

Quelle est la différence entre « Bruit Latent » et « Original » pour « Contenu du Masque » lors de l’inpainting ?

A4 : « Bruit latent » remplit la zone masquée avec du bruit aléatoire dans l’espace latent avant le processus de génération. Cela indique essentiellement au modèle de créer quelque chose de complètement nouveau dans cette zone, ce qui est idéal pour ajouter de nouveaux objets, apporter des modifications significatives ou corriger des erreurs majeures où vous souhaitez que le modèle réimagine complètement le contenu. « Original », en revanche, essaie de préserver le contenu original dans la zone masquée et de le modifier subtilement en fonction de votre prompt. Cela convient mieux pour des ajustements mineurs, un mélange, ou pour apporter des changements qui devraient rester très proches de l’image existante, comme changer une légère variation de couleur ou affiner une texture sans altérer trop la forme sous-jacente. Pour la plupart des corrections ou ajouts substantiels, « Bruit latent » est votre meilleur choix.

🕒 Published:

🧰
Written by Jake Chen

Software reviewer and AI tool expert. Independently tests and benchmarks AI products. No sponsored reviews — ever.

Learn more →
Browse Topics: AI & Automation | Comparisons | Dev Tools | Infrastructure | Security & Monitoring

More AI Agent Resources

BotsecAgntlogAgntzenAi7bot
Scroll to Top