\n\n\n\n Domine o Inpainting do Stable Diffusion: Seu Guia Completo - AgntBox Domine o Inpainting do Stable Diffusion: Seu Guia Completo - AgntBox \n

Domine o Inpainting do Stable Diffusion: Seu Guia Completo

📖 19 min read3,667 wordsUpdated Apr 3, 2026

Guia de Inpainting com Stable Diffusion: Corrija e Melhore Sua Arte AI

Olá! Nina Torres aqui, sua referência para insights práticos sobre as ferramentas mais recentes. Hoje, vamos explorar a fundo o inpainting com Stable Diffusion. Se você já gerou uma imagem com AI e pensou, “Isso é ótimo, mas aquele detalhe está errado,” então o inpainting é seu novo melhor amigo. É uma técnica poderosa para corrigir imperfeições, adicionar novos elementos ou alterar sutilmente partes específicas da sua arte gerada por AI. Esqueça regenerar imagens inteiras; o inpainting permite que você foque e refine com precisão. Este guia sobre inpainting com stable diffusion irá te conduzir por tudo que você precisa saber, desde a configuração até técnicas avançadas, garantindo que sua arte AI fique exatamente como você imagina.

A Stable Diffusion abriu avenidas criativas incríveis, mas mesmo os melhores modelos podem, às vezes, produzir anomalias. Um dedo pode estar distorcido, um objeto pode aparecer onde não deveria, ou você pode simplesmente querer mudar a cor de uma camisa. É aí que o inpainting brilha. Ele permite que você masque uma área específica de uma imagem e então gere novo conteúdo dentro daquela máscara, guiado pelo seu prompt e pelo contexto da imagem ao redor. Os resultados podem ser surpreendentemente suaves, tornando essa uma habilidade essencial para qualquer um que leve a geração de arte AI a sério.

Cobriremos os conceitos básicos de como o inpainting funciona, as ferramentas essenciais que você vai precisar e forneceremos instruções passo a passo para casos de uso comuns. Ao final deste guia sobre inpainting com stable diffusion, você estará corrigindo erros, adicionando detalhes e transformando suas imagens com facilidade. Vamos começar!

O que é Inpainting com Stable Diffusion?

No seu essencial, o inpainting com Stable Diffusion é um processo de preencher inteligentemente partes faltantes ou mascaradas de uma imagem. Em vez de apenas borrar ou copiar pixels, a Stable Diffusion utiliza suas capacidades generativas para criar novo conteúdo relevante em contexto dentro da área mascarada. Ela “entende” a imagem ao redor e tenta gerar algo que se encaixe naturalmente, com base no seu prompt textual.

Pense assim: você tem uma pintura com uma pequena mancha. Em vez de repintar toda a tela, você cuidadosamente remove a mancha e depois pinta sobre aquela pequena área, combinando o estilo e as cores do original. O inpainting com Stable Diffusion faz isso digitalmente, usando AI para gerar a nova “tinta.”

Essa técnica é incrivelmente versátil. Você pode usá-la para correções simples, como remover um elemento de fundo que distrai, ou para modificações mais complexas, como mudar a expressão de um personagem ou adicionar um novo objeto a uma cena. A chave é fornecer instruções claras através do seu prompt e definir com precisão a área que você quer mudar com uma máscara.

Por que usar Inpainting?

Há inúmeras razões pelas quais o inpainting é uma ferramenta inestimável para artistas de AI:

  • Correção de Erros: Corrija problemas comuns de geração de AI, como membros distorcidos, dedos extras, objetos fora de lugar ou texturas estranhas.
  • Aprimoramento de Detalhes: Melhore detalhes específicos sem afetar o restante da imagem. Defina melhor os olhos, refine roupas ou adicione padrões intrincados.
  • Remoção de Objetos: Remova facilmente elementos indesejados das suas imagens, como pessoas que aparecem inesperadamente, fundos distrativos ou artefatos acidentais.
  • Adição de Objetos: Introduza novos elementos em uma cena existente, como um chapéu diferente, um animal de estimação ou um móvel.
  • Modificação de Atributos: Altere atributos específicos de um objeto ou pessoa, como cor de cabelo, estilo de roupa ou características faciais.
  • Exploração Criativa: Experimente diferentes variações de uma parte específica da sua imagem sem regenerar tudo.

Sem o inpainting, muitas dessas tarefas exigiriam múltiplas regenerações completas, levando a desperdício de tempo e recursos, e frequentemente uma perda da composição geral que você gostava. Este guia sobre inpainting com stable diffusion tem como objetivo tornar essas tarefas simples.

Ferramentas que Você Vai Precisar para Inpainting

Para seguir este guia sobre inpainting com stable diffusion, você vai precisar de uma interface da Stable Diffusion que suporte inpainting. A opção mais popular e rica em recursos é a Web UI do Automatic1111. Se você ainda não a configurou, há muitos guias excelentes disponíveis online para instalação. Supondo que você já tenha funcionando, aqui está o que você vai usar:

  • Web UI do Automatic1111: Sua interface principal para a Stable Diffusion.
  • Aba Imagem para Imagem: É aqui que a mágica do inpainting acontece.
  • Aba Inpaint: Projetada especificamente para tarefas de inpainting.
  • Ferramentas de Máscara: Pincel embutido para definir a área a ser inpainted.
  • Modelo de Checkpoint da Stable Diffusion: Um bom modelo de uso geral como SD 1.5, SDXL, ou um modelo ajustado que se adapte ao estilo desejado.

Enquanto outras interfaces existem, o Automatic1111 oferece o maior controle e funcionalidades para inpainting, tornando-o a escolha recomendada para este guia.

Compreendendo os Parâmetros de Inpainting

Antes de explorarmos os passos, vamos revisar rapidamente alguns parâmetros-chave que você encontrará na aba Inpaint da Web UI do Automatic1111. Compreender esses parâmetros lhe dará mais controle sobre seus resultados.

Modo de Máscara:

  • Inpaint mascarado: Esta é a configuração mais comum. Ela diz à Stable Diffusion para gerar conteúdo apenas dentro da área mascarada.
  • Inpaint não mascarado: Isso inverte a máscara, gerando conteúdo em toda parte *exceto* na área mascarada. Útil para manter um elemento de primeiro plano específico intacto enquanto se altera o fundo.

Conteúdo da Máscara:

  • Original: A área mascarada será preenchida com base no conteúdo original dentro da máscara. Isso costuma ser bom para mudanças sutis ou mesclagem.
  • Ruído Latente: A área mascarada é preenchida com ruído aleatório no espaço latente antes da geração. Isso incentiva o modelo a gerar conteúdo completamente novo, bom para mudanças significativas ou adição de novos objetos.
  • Nada Latente: Semelhante ao Ruído Latente, mas com um viés em direção ao “nada,” útil em cenários específicos.
  • Preencher: A área mascarada é preenchida com uma cor sólida, e então o modelo tenta gerar sobre isso. Pode, às vezes, levar a resultados menos coerentes do que Ruído Latente ou Original.

Para a maioria das correções de erros e adições de objetos, Ruído Latente é um bom ponto de partida. Para mudanças sutis ou para misturar elementos existentes, Original pode funcionar bem.

Área de Inpaint:

  • Imagem inteira: A imagem inteira é considerada ao gerar a área mascarada. Isso é geralmente recomendado para uma melhor compreensão contextual.
  • Apenas mascarada: Apenas a área mascarada e uma pequena borda ao redor são consideradas. Isso pode ser mais rápido, mas pode levar a resultados menos coerentes se a área mascarada for grande ou carecer de contexto.

Desfoque da Máscara:

Esta configuração desfoca as bordas da sua máscara. Um valor de desfoque mais alto pode ajudar a mesclar a área inpainted com a imagem original de maneira mais suave, reduzindo linhas duras. Comece com um valor em torno de 4-8 e ajuste conforme necessário.

Força de Desruído:

Este é um parâmetro crucial para inpainting, assim como em img2img. Ele controla o quanto o modelo se desvia da imagem original (ou do conteúdo mascarado).

  • Baixa Força de Desruído (0.3-0.5): Bom para mudanças sutis, correções menores ou mesclagem. O modelo tentará permanecer muito próximo ao conteúdo mascarado original.
  • Força de Desruído Média (0.5-0.7): Adequado para mudanças moderadas, como alterar uma expressão facial ou trocar uma peça de roupa.
  • Alta Força de Desruído (0.7-1.0): Use isso quando você quiser fazer alterações significativas, adicionar novos objetos ou substituir algo completamente. O modelo terá mais liberdade para gerar novo conteúdo.

Experimente com essa configuração! Muitas vezes faz a maior diferença nos seus resultados de inpainting. Este guia sobre inpainting com stable diffusion frequentemente fará referência a isso.

Guia Passo a Passo para Inpainting: Corrigindo uma Imagem

Vamos passar por um exemplo prático: corrigindo uma mão distorcida em uma imagem gerada por AI.

1. Gere Sua Imagem Base

Primeiro, gere uma imagem na aba “txt2img” que você deseja trabalhar. Por exemplo, um retrato de uma pessoa. Salve a imagem no seu computador.

2. Navegue até a Aba Img2Img

Clique na aba “img2img” no Automatic1111. Depois, clique na sub-aba “Inpaint.”

3. Carregue Sua Imagem

Arraste e solte sua imagem gerada na grande caixa “Solte ou cole a imagem aqui” dentro da aba Inpaint.

4. Masque a Área a Ser Corrigida

Use a ferramenta de pincel fornecida diretamente na pré-visualização da imagem para pintar sobre a área que você deseja corrigir. No nosso exemplo, pinte cuidadosamente sobre a mão distorcida. Você pode ajustar o tamanho do pincel usando o slider abaixo da imagem.

Dica: Seja preciso com sua máscara, mas não tenha medo de ultrapassar ligeiramente as bordas exatas se você precisar que o modelo regenere uma área maior para uma melhor mesclagem.

5. Escreva Seu Prompt

No campo de prompt, descreva o que você *quer* ver na área mascarada. Seja específico. Se você estiver consertando uma mão, seu prompt pode ser: “mão perfeita, cinco dedos, segurando uma xícara.” Se você estiver removendo algo, descreva o que deveria estar lá em vez disso, por exemplo, “pele lisa” ou “mesa vazia.”

Exemplo de Prompt para conserto de mão: (mão fotorealista:1.3), cinco dedos, segurando um livro, detalhes intrincados, realista

Você também pode incluir prompts negativos para guiar a geração longe de características indesejadas: (dedos extras:1.5), embaçado, deformado, mão mutada

6. Configurar Parâmetros de Inpainting

  • Modo de máscara: Mantenha em “Inpaint masked.”
  • Conteúdo da máscara: Para consertar uma mão distorcida, “Latent Noise” é frequentemente uma boa escolha, pois você quer que o modelo gere uma nova mão do zero. “Original” pode tentar preservar demais a estrutura distorcida.
  • Área de inpaint: “Whole picture” geralmente é o melhor para contexto.
  • Desfoque da máscara: Comece com 4-8.
  • Força de desruído: Isso é crítico. Para um conserto significativo como uma mão, comece com um valor mais alto, em torno de 0.65 – 0.75. Se a mão ainda parecer estranha, aumente. Se parecer muito diferente do resto da imagem, diminua um pouco.

7. Defina Outros Parâmetros de Geração

Defina seu método de amostragem (por exemplo, DPM++ 2M Karras), passos de amostragem (20-30 geralmente é bom), CFG Scale (7-10) e dimensões da imagem. Certifique-se de que as dimensões correspondam à sua imagem original. Você também pode ajustar o tamanho do lote e a contagem do lote se quiser gerar várias variações de uma só vez.

Importante: Defina o menu suspenso “Resize mode” para “Just resize” ou “Crop and resize” se as dimensões da sua imagem original não corresponderem às dimensões de geração que você definiu, embora idealmente, você devesse correspondê-las.

8. Gere!

Clique no botão “Generate.” O Stable Diffusion agora processará a área mascarada de acordo com seu prompt e parâmetros. Revise os resultados. Se não estiver perfeito, não se preocupe – o inpainting frequentemente requer algumas iterações.

9. Iterar e Refinar

Se o resultado não for o que você queria:

  • Ajuste a Força de Desruído: O ajuste mais comum.
  • Refine seu prompt: Seja mais específico ou tente palavras-chave diferentes.
  • Ajuste a máscara: Às vezes, pintar uma área ligeiramente maior ou menor pode ajudar.
  • Tente uma configuração diferente de “Conteúdo da máscara.”: Experimente “Original” se “Latent Noise” não estiver funcionando, ou vice-versa.
  • Gere várias vezes: Mesmo com as mesmas configurações, o Stable Diffusion produzirá variações. Gere algumas e escolha a melhor.

Técnicas Avançadas de Inpainting

Alterando Atributos de Objetos

Vamos supor que você tem um personagem usando uma camisa vermelha e quer que ela seja azul.

  1. Mascarar a camisa vermelha.
  2. Prompt: camisa azul, textura de algodão, tecido realista
  3. Conteúdo da máscara: “Latent Noise” ou “Original” (experimente).
  4. Força de desruído: Em torno de 0.6-0.7.

O modelo redesenhará inteligentemente a camisa em azul, tentando manter a iluminação e as dobras do original.

Adicionar Novos Objetos

Você tem um espaço e quer adicionar uma árvore em primeiro plano.

  1. Mascarar a área onde você quer que a árvore apareça.
  2. Prompt: grande árvore de carvalho, folhas verdes exuberantes, luz do sol filtrando através dos galhos
  3. Conteúdo da máscara: “Latent Noise” é quase sempre o melhor aqui, já que você está criando algo completamente novo.
  4. Força de desruído: Mais alto, em torno de 0.7-0.85, para dar ao modelo liberdade para criar a árvore.

Remover Objetos (Outpainting em Inpaint)

Você quer remover um poste de luz distrativo de uma cena de rua.

  1. Mascarar o poste de luz.
  2. Prompt: Descreva o que *deveria* estar atrás do poste de luz (por exemplo, muro de tijolos, pavimento da rua, prédios distantes). Se você só quiser que ele se misture, um prompt vazio pode às vezes funcionar, permitindo que o modelo inferir a partir do contexto.
  3. Conteúdo da máscara: “Original” ou “Latent Noise.” “Original” pode tentar estender habilmente o fundo.
  4. Força de desruído: 0.5-0.7. Maior se a área a ser preenchida for grande e complexa.

Isso é efetivamente usar a função de inpainting para outpainting de uma seção menor.

Usando ControlNet para Inpainting

Para inpainting altamente preciso, especialmente ao manter poses específicas, estruturas ou composições, o ControlNet é uma mudança significativa.

  1. Carregue sua imagem na guia Inpaint e mascare a área.
  2. Role para baixo até o acordeão ControlNet.
  3. Ative o ControlNet.
  4. Carregue sua imagem original (ou uma versão processada como um mapa de bordas Canny) na caixa de imagem de entrada do ControlNet.
  5. Escolha um pré-processador e modelo adequados (por exemplo, “pré-processador canny” e “modelo control_v11p_sd15_canny” se você quiser manter as bordas). Ou “inpaint_only” se você quiser usar o modelo de inpaint.
  6. Crucialmente, defina o “Modo de Controle” do ControlNet para “Meu prompt é mais importante” ou “Balanceado” e ajuste o “Peso de Controle” se necessário.
  7. Gere.

O ControlNet pode melhorar significativamente a coerência e a precisão dos seus resultados de inpainting, especialmente para mudanças estruturais ou manutenção de formas específicas. Este guia de inpainting do Stable Diffusion recomenda explorar o ControlNet à medida que você se sentir mais confortável.

Desafios Comuns de Inpainting e Dicas

Problemas de Mistura

Às vezes, a área inpainted parece um remendo, não integrada naturalmente.

  • Aumentar o Desfoque da Máscara: Um valor de desfoque mais alto pode criar uma transição mais suave.
  • Ajustar a Força de Desruído: Muito alta pode fazer com que se destaque; muito baixa pode não mudar o suficiente. Encontre o ponto ideal.
  • Refinar o Prompt: Certifique-se de que seu prompt para a área mascarada seja consistente com o estilo e a iluminação do resto da imagem.
  • Iterar: Gere várias vezes. Às vezes, uma semente aleatória ligeiramente diferente resulta em uma melhor mistura.

Estilo Inconsistente

A área inpainted pode ter um estilo artístico ou paleta de cores diferentes.

  • Use um modelo consistente: Certifique-se de que você está usando o mesmo modelo de checkpoint do Stable Diffusion para inpainting que usou para a imagem original.
  • Consistência do Prompt: Inclua palavras-chave estilísticas do seu prompt original no seu prompt de inpainting (por exemplo, “estilo de pintura a óleo,” “iluminação cinematográfica”).
  • Reduzir a Força de Desruído: Se o estilo estiver se desviando demais, reduza a força de desruído para mantê-lo mais próximo do original.

Gerando Elementos Indesejados

O modelo pode adicionar coisas que você não pediu na área mascarada.

  • Prompt Negativo: Use prompts negativos para excluir explicitamente elementos indesejados (por exemplo, (dedos extras:1.5), feio, deformado, embaçado).
  • Refine o Prompt: Seja muito específico sobre o que você *quer*. Um prompt muito vago dá ao modelo liberdade demais.
  • Máscara Menor: Às vezes, mascar uma área ligeiramente menor e mais focada pode impedir que o modelo adicione detalhes supérfluos.

Mãos e Faces

Esses são notoriamente difíceis para a IA gerar perfeitamente.

  • Prompts Específicos: Use prompts muito detalhados para mãos e faces: (mão humana perfeita:1.4), cinco dedos, delicada, textura de pele detalhada, rosto expressivo, olhos claros, características simétricas.
  • ControlNet: Para mãos e faces, o ControlNet com OpenPose (para mãos) ou Reference/IP-Adapter (para características faciais específicas) pode ser incrivelmente útil para manter a estrutura.
  • Múltiplas Passagens: Às vezes, uma primeira passagem de inpaint chega perto, depois uma segunda passagem com uma máscara menor e um prompt refinado pode perfeiçoadir.

Dicas de Workflow para Inpainting Eficiente

  • Comece Pequeno: Se você tiver vários problemas, aborde-os um por um. Não tente mascarar metade da imagem e consertar tudo de uma vez.
  • Salve Iterações: Salve bons resultados intermediários. Você pode precisar reverter ou combinar elementos de diferentes gerações.
  • Use Lotes: Gere um lote de 4-8 imagens com sementes ligeiramente variadas para ver rapidamente diferentes resultados para sua área mascarada.
  • Explore Sementes: Se você encontrar uma boa geração, anote sua semente. Você pode então usar essa semente com pequenos ajustes de prompt ou parâmetro.
  • Combine Inpainting com Photoshop/GIMP: Para uma mistura muito ajustada ou composições complexas, não hesite em levar seu resultado inpainted para um editor de imagem para os toques finais.

Dominar o inpainting do Stable Diffusion leva prática, mas as recompensas são imensas. Você ganha controle preciso sobre sua arte IA, transformando gerações ásperas em obras-primas polidas. Este guia de inpainting do Stable Diffusion forneceu a você o conhecimento básico e os passos acionáveis para começar sua jornada. Experimente com os parâmetros, tente diferentes prompts e não tenha medo de iterar. Bom inpainting!

FAQ: Guia de Inpainting do Stable Diffusion

P1: Minha área retocada parece completamente desconectada do restante da imagem. O que estou fazendo de errado?

R1: Esse é um problema comum. Primeiro, verifique a Força de Redução de Ruído; se estiver muito alta, o modelo pode ignorar muito do contexto ao redor. Tente reduzir para 0.5-0.7. Além disso, certifique-se de que seu prompt para a área mascarada seja consistente em estilo e conteúdo com o restante da imagem. Usar “Imagem inteira” para “Área de Retoco” ajuda a fornecer mais contexto ao modelo. Por fim, aumente ligeiramente o “Desfoque da Máscara” (por exemplo, para 6-10) para ajudar a misturar as bordas de forma mais suave.

P2: Posso usar o retoque para alterar todo o fundo de uma imagem enquanto mantenho o assunto em primeiro plano intacto?

R2: Sim, você pode! Em vez de “Retocar mascarado,” você selecionaria “Retocar não mascarado.” Isso diz ao Stable Diffusion para gerar conteúdo em todos os lugares *exceto* na área que você mascarou. Portanto, você deve cuidadosamente mascarar seu assunto em primeiro plano e, em seguida, fornecer um prompt descrevendo o novo fundo desejado. Lembre-se de escolher “Ruído Latente” para “Conteúdo da Máscara” e uma “Força de Redução de Ruído” mais alta (0.7-0.9) para permitir uma mudança completa no fundo.

P3: Minhas mãos/dedos ainda estão saindo distorcidos, mesmo após o retoque. Alguma dica específica para isso?

R3: As mãos são notoriamente difíceis. Além de um prompt muito específico como “mão humana perfeita, cinco dedos, detalhes realistas,” considere estas técnicas avançadas:

  • ControlNet (OpenPose): Use o pré-processador e modelo OpenPose. Se puder, faça o upload de uma imagem de uma mão na pose desejada como entrada do ControlNet, ou use uma figura de palitos básica do OpenPose. Isso força o modelo a aderir à estrutura anatômica.
  • Retoque Iterativo: Retocar a mão uma vez, e se ainda estiver errada, mascare uma área problemática menor (por exemplo, apenas um dedo distorcido) e retocar novamente com um prompt muito focado e força de redução de ruído ligeiramente mais baixa.
  • Passos/CFG Mais Altos: Às vezes, aumentar os passos de amostragem (30-40) ou a Escala CFG (8-12) pode dar mais tempo ao modelo para refinar detalhes, mas tome cuidado para não exagerar.

Qual é a diferença entre “Ruído Latente” e “Original” para “Conteúdo da Máscara” ao retocar?

R4: “Ruído Latente” preenche a área mascarada com ruído aleatório no espaço latente antes do processo de geração. Isso basicamente diz ao modelo para criar algo completamente novo dentro daquela área, tornando-o ideal para adicionar novos objetos, fazer mudanças significativas ou corrigir erros maiores onde você deseja que o modelo reimagine completamente o conteúdo. “Original,” por outro lado, tenta preservar o conteúdo original dentro da área mascarada e, em seguida, modifica-o sutilmente com base no seu prompt. Isso é melhor para ajustes menores, mistura ou fazer alterações que devem permanecer muito próximas da imagem existente, como mudar uma variação de cor ligeira ou refinar uma textura sem alterar muito a forma subjacente. Para a maioria das correções ou adições substanciais, “Ruído Latente” é a sua opção.

🕒 Published:

🧰
Written by Jake Chen

Software reviewer and AI tool expert. Independently tests and benchmarks AI products. No sponsored reviews — ever.

Learn more →
Browse Topics: AI & Automation | Comparisons | Dev Tools | Infrastructure | Security & Monitoring

See Also

ClawgoAgntapiAgntzenClawseo
Scroll to Top