Nesta página, descrevemos como inserir objetos em uma imagem, também chamado de repintura. Com o Imagen na Vertex AI, é possível especificar uma área de máscara para inserir objetos em uma imagem. É possível usar sua própria máscara ou permitir que o Imagen na Vertex AI gere uma máscara para você.
Exemplo de inserção de conteúdo
Com o retoque para inserir conteúdo, é possível usar uma imagem de base, uma máscara de imagem e uma solicitação de texto para adicionar conteúdo a uma imagem.
Entradas
| Imagem de base* para editar | Mascarar a área especificada usando ferramentas no console Google Cloud | Comando de texto | 
|---|---|---|
|   |   | morangos | 
* Crédito da imagem: Alex Lvrs no Unsplash.
Saída após especificar uma área da máscara no Google Cloud console
|   |   |   | 
Ver o card do modelo do Imagen para edição e personalização
Antes de começar
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
- 
    
    
      In the Google Cloud console, on the project selector page, select or create a Google Cloud project. Roles required to select or create a project - Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
- 
      Create a project: To create a project, you need the Project Creator
      (roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
 
- 
  
    Verify that billing is enabled for your Google Cloud project. 
- 
  
  
    
      Enable the Vertex AI API. Roles required to enable APIs To enable APIs, you need the Service Usage Admin IAM role ( roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.
- 
    
    
      In the Google Cloud console, on the project selector page, select or create a Google Cloud project. Roles required to select or create a project - Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
- 
      Create a project: To create a project, you need the Project Creator
      (roles/resourcemanager.projectCreator), which contains theresourcemanager.projects.createpermission. Learn how to grant roles.
 
- 
  
    Verify that billing is enabled for your Google Cloud project. 
- 
  
  
    
      Enable the Vertex AI API. Roles required to enable APIs To enable APIs, you need the Service Usage Admin IAM role ( roles/serviceusage.serviceUsageAdmin), which contains theserviceusage.services.enablepermission. Learn how to grant roles.
- 
    Configure a autenticação do ambiente. Select the tab for how you plan to use the samples on this page: ConsoleWhen you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication. JavaPara usar os exemplos do Java desta página em um ambiente de desenvolvimento local, instale e inicialize a gcloud CLI e configure o Application Default Credentials com suas credenciais de usuário. Instale a CLI do Google Cloud. Ao usar um provedor de identidade (IdP) externo, primeiro faça login na gcloud CLI com sua identidade federada. If you're using a local shell, then create local authentication credentials for your user account: gcloud auth application-default login You don't need to do this if you're using Cloud Shell. If an authentication error is returned, and you are using an external identity provider (IdP), confirm that you have signed in to the gcloud CLI with your federated identity. Saiba mais em Configurar o ADC para um ambiente de desenvolvimento local na documentação de autenticação do Google Cloud . Node.jsPara usar os exemplos do Node.js desta página em um ambiente de desenvolvimento local, instale e inicialize a gcloud CLI e configure o Application Default Credentials com suas credenciais de usuário. Instale a CLI do Google Cloud. Ao usar um provedor de identidade (IdP) externo, primeiro faça login na gcloud CLI com sua identidade federada. If you're using a local shell, then create local authentication credentials for your user account: gcloud auth application-default login You don't need to do this if you're using Cloud Shell. If an authentication error is returned, and you are using an external identity provider (IdP), confirm that you have signed in to the gcloud CLI with your federated identity. Saiba mais em Configurar o ADC para um ambiente de desenvolvimento local na documentação de autenticação do Google Cloud . PythonPara usar os exemplos do Python desta página em um ambiente de desenvolvimento local, instale e inicialize a gcloud CLI e configure o Application Default Credentials com suas credenciais de usuário. Instale a CLI do Google Cloud. Ao usar um provedor de identidade (IdP) externo, primeiro faça login na gcloud CLI com sua identidade federada. If you're using a local shell, then create local authentication credentials for your user account: gcloud auth application-default login You don't need to do this if you're using Cloud Shell. If an authentication error is returned, and you are using an external identity provider (IdP), confirm that you have signed in to the gcloud CLI with your federated identity. Saiba mais em Configurar o ADC para um ambiente de desenvolvimento local na documentação de autenticação do Google Cloud . RESTPara usar as amostras da API REST desta página em um ambiente de desenvolvimento local, use as credenciais fornecidas para gcloud CLI. Instale a CLI do Google Cloud. Ao usar um provedor de identidade (IdP) externo, primeiro faça login na gcloud CLI com sua identidade federada. Saiba mais em Autenticar para usar REST na documentação de autenticação do Google Cloud . Inserir com uma área de máscara definidaUse os exemplos a seguir para especificar o retoque a fim de inserir conteúdo. Nessas amostras, você especifica uma imagem de base, um prompt de texto e uma área de máscara para modificar a imagem de base. Imagen 3Use os exemplos a seguir para enviar uma solicitação de repintura usando o modelo Imagen 3. Console- 
      No console do Google Cloud , acesse a página Vertex AI > Media Studio . 
- Clique em Fazer upload. Na caixa de diálogo de arquivos exibida, selecione um arquivo para fazer upload.
- Clique em Pintar.
- 
     Escolha uma destas opções: - Fazer upload da sua própria máscara:- Crie uma máscara no computador.
- Clique em Fazer upload da máscara. Na caixa de diálogo exibida, selecione uma máscara para fazer upload.
 
- Defina sua máscara:na barra de ferramentas de edição, use as ferramentas de máscara (caixa, pincel ou masked_transitions inverter) para especificar a área ou áreas às quais adicionar conteúdo.
 
- Fazer upload da sua própria máscara:
- 
     Opcional: no painel Parâmetros, ajuste as seguintes opções:
     - Modelo: o modelo do Imagen a ser usado
- Número de resultados: o número de resultados a serem gerados.
- Comando negativo: itens que não devem ser gerados
 
- No campo de comando, digite um comando para modificar a imagem.
- Clique em Gerar.
 PythonInstalarpip install --upgrade google-genai Para saber mais, consulte a documentação de referência do SDK. Defina variáveis de ambiente para usar o SDK de IA generativa com a Vertex AI: # Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True RESTPara mais informações, consulte a referência da API Editar imagens. Antes de usar os dados da solicitação abaixo, faça as substituições a seguir: - PROJECT_ID: o Google Cloud ID do projeto.
- LOCATION: a região do seu projeto. Por exemplo, us-central1,europe-west2ouasia-northeast3. Para uma lista de regiões disponíveis, consulte IA generativa em locais da Vertex AI.
- TEXT_PROMPT: o prompt de texto fornece orientações sobre quais imagens o modelo gera. Ao usar um comando para inserção de repintura, use uma descrição da área mascarada para ter os melhores resultados. Evite comandos de uma só palavra. Por exemplo, use "um corgi fofo" em vez de "corgi".
- B64_BASE_IMAGE: a imagem de base que será editada ou aprimorada. A imagem precisa ser especificada como uma string de bytes codificada em base64. Limite de tamanho: 10 MB.
- B64_MASK_IMAGE: a imagem em preto e branco que você quer usar como uma camada de máscara para editar a imagem original. A imagem precisa ser especificada como uma string de bytes codificada em base64. Limite de tamanho: 10 MB.
- MASK_DILATION: ponto flutuante. A porcentagem da largura da imagem para dilatar essa máscara. Um valor de 0.01é recomendado para compensar máscaras de entrada imperfeitas.
- EDIT_STEPS: número inteiro. O número de etapas de amostragem para o modelo de base. Para
    inserção de repintura, comece com 35etapas. Aumente as etapas até o limite superior de75se a qualidade não atender aos seus requisitos. Aumentar as etapas também aumenta a latência da solicitação.
- EDIT_IMAGE_COUNT: o número de imagens editadas. Valores inteiros aceitos: 1 a 4. Valor padrão: 4.
 Método HTTP e URL: POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict Corpo JSON da solicitação: { "instances": [ { "prompt": "TEXT_PROMPT", "referenceImages": [ { "referenceType": "REFERENCE_TYPE_RAW", "referenceId": 1, "referenceImage": { "bytesBase64Encoded": "B64_BASE_IMAGE" } }, { "referenceType": "REFERENCE_TYPE_MASK", "referenceId": 2, "referenceImage": { "bytesBase64Encoded": "B64_MASK_IMAGE" }, "maskImageConfig": { "maskMode": "MASK_MODE_USER_PROVIDED", "dilation": MASK_DILATION } } ] } ], "parameters": { "editConfig": { "baseSteps": EDIT_STEPS }, "editMode": "EDIT_MODE_INPAINT_INSERTION", "sampleCount": EDIT_IMAGE_COUNT } }Para enviar a solicitação, escolha uma destas opções: O exemplo de resposta a seguir é para uma solicitação comcurlSalve o corpo da solicitação em um arquivo com o nome request.jsone execute o comando abaixo:curl -X POST \ 
 -H "Authorization: Bearer $(gcloud auth print-access-token)" \
 -H "Content-Type: application/json; charset=utf-8" \
 -d @request.json \
 "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict"PowerShellSalve o corpo da solicitação em um arquivo com o nome request.jsone execute o comando a seguir:$cred = gcloud auth print-access-token 
 $headers = @{ "Authorization" = "Bearer $cred" }
 Invoke-WebRequest `
 -Method POST `
 -Headers $headers `
 -ContentType: "application/json; charset=utf-8" `
 -InFile request.json `
 -Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict" | Select-Object -Expand Content"sampleCount": 2. A resposta retorna dois objetos de previsão, com os bytes de imagem gerados codificados em base64.{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" } ] }Imagen 2Use os exemplos a seguir para enviar uma solicitação de repintura usando o modelo do Imagen 2. Console- 
      No console do Google Cloud , acesse a página Vertex AI > Media Studio . 
- Clique em Fazer upload. Na caixa de diálogo de arquivos exibida, selecione um arquivo para fazer upload.
- Clique em Pintar.
- 
     Escolha uma destas opções: - Fazer upload da sua própria máscara:- Crie uma máscara no computador.
- Clique em Fazer upload da máscara. Na caixa de diálogo exibida, selecione uma máscara para fazer upload.
 
- Defina sua máscara:na barra de ferramentas de edição, use as ferramentas de máscara (caixa, pincel ou masked_transitions inverter) para especificar a área ou áreas às quais adicionar conteúdo.
 
- Fazer upload da sua própria máscara:
- 
     Opcional. No painel Parâmetros, ajuste as seguintes opções:
     - Modelo: o modelo do Imagen a ser usado
- Número de resultados: o número de resultados a serem gerados.
- Comando negativo: itens que não devem ser gerados
 
- No campo de prompt, digite um novo prompt para modificar a imagem.
- Clique em Gerar.
 PythonPara saber como instalar o SDK da Vertex AI para Python, consulte Instalar o SDK da Vertex AI para Python. Para mais informações, consulte a documentação de referência da API Python. RESTPara mais informações sobre solicitações de modelo imagegeneration, consulte a referência da API do modeloimagegeneration.Antes de usar os dados da solicitação abaixo, faça as substituições a seguir: - PROJECT_ID: o Google Cloud ID do projeto.
- LOCATION: a região do seu projeto. Por exemplo, us-central1,europe-west2ouasia-northeast3. Para uma lista de regiões disponíveis, consulte IA generativa em locais da Vertex AI.
- TEXT_PROMPT: o comando de texto que orienta quais imagens o modelo gera. Este campo é obrigatório para geração e edição.
- B64_BASE_IMAGE: a imagem de base que será editada ou aprimorada. A imagem precisa ser especificada como uma string de bytes codificada em base64. Limite de tamanho: 10 MB.
- B64_MASK_IMAGE: a imagem em preto e branco que você quer usar como uma camada de máscara para editar a imagem original. A imagem precisa ser especificada como uma string de bytes codificada em base64. Limite de tamanho: 10 MB.
- EDIT_IMAGE_COUNT: o número de imagens editadas. Valor padrão: 4.
- GUIDANCE_SCALE_VALUE: um parâmetro (número inteiro) que controla
    quanto o modelo adere ao comando de texto. Valores maiores aumentam o alinhamento entre o comando de texto
    e as imagens geradas, mas podem comprometer a qualidade da imagem. Valores: 0-500. Padrão:60.
 Método HTTP e URL: POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict Corpo JSON da solicitação: { "instances": [ { "prompt": "TEXT_PROMPT", "image": { "bytesBase64Encoded": "B64_BASE_IMAGE" }, "mask": { "image": { "bytesBase64Encoded": "B64_MASK_IMAGE" } } } ], "parameters": { "sampleCount": EDIT_IMAGE_COUNT, "editConfig": { "editMode": "inpainting-insert", "guidanceScale": GUIDANCE_SCALE_VALUE } } }Para enviar a solicitação, escolha uma destas opções: O exemplo de resposta a seguir é para uma solicitação comcurlSalve o corpo da solicitação em um arquivo com o nome request.jsone execute o comando abaixo:curl -X POST \ 
 -H "Authorization: Bearer $(gcloud auth print-access-token)" \
 -H "Content-Type: application/json; charset=utf-8" \
 -d @request.json \
 "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict"PowerShellSalve o corpo da solicitação em um arquivo com o nome request.jsone execute o comando a seguir:$cred = gcloud auth print-access-token 
 $headers = @{ "Authorization" = "Bearer $cred" }
 Invoke-WebRequest `
 -Method POST `
 -Headers $headers `
 -ContentType: "application/json; charset=utf-8" `
 -InFile request.json `
 -Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict" | Select-Object -Expand Content"sampleCount": 2. A resposta retorna dois objetos de previsão, com os bytes de imagem gerados codificados em base64.{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" } ] }JavaAntes de testar essa amostra, siga as instruções de configuração para Java Guia de início rápido da Vertex AI: como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Java. Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local. Neste exemplo, você especifica o modelo como parte de um EndpointName. OEndpointNameé transmitido ao métodopredict, que é chamado em umPredictionServiceClient. O serviço retorna uma versão editada da imagem, que é salva localmente.Para mais informações sobre versões e recursos do modelo, consulte Modelos do Imagen. Node.jsAntes de testar esse exemplo, siga as instruções de configuração para Node.js no Guia de início rápido da Vertex AI sobre como usar bibliotecas de cliente. Para mais informações, consulte a documentação de referência da API Vertex AI para Node.js. Para autenticar na Vertex AI, configure o Application Default Credentials. Para mais informações, consulte Configurar a autenticação para um ambiente de desenvolvimento local. Neste exemplo, você chama o métodopredictem umPredictionServiceClient. O serviço gera imagens que são salvas localmente. Para mais informações sobre versões e recursos do modelo, consulte Modelos do Imagen.Inserir com detecção automática de máscarasUse os exemplos a seguir para especificar o retoque a fim de inserir conteúdo. Nessas amostras, você especifica uma imagem de base e um comando de texto. O Imagen detecta e cria automaticamente uma área de máscara para modificar a imagem de base. Imagen 3Use os exemplos a seguir para enviar uma solicitação de repintura usando o modelo Imagen 3. Console- 
      No console do Google Cloud , acesse a página Vertex AI > Media Studio . 
- Clique em Fazer upload. Na caixa de diálogo de arquivos exibida, selecione um arquivo para fazer upload.
- Clique em Pintar.
- Na barra de ferramentas de edição, clique em background_replaceExtrair máscara.
- 
     Selecione uma das opções de extração de máscara: - Elementos de segundo plano: detecta os elementos de segundo plano e cria uma máscara em torno deles.
- Elementos em primeiro plano: detecta os objetos em primeiro plano e cria uma máscara ao redor deles.
- background_replacePessoas: detecta pessoas e cria uma máscara ao redor delas.
 
- 
     Opcional: no painel Parâmetros, ajuste as seguintes opções:
     - Modelo: o modelo do Imagen a ser usado
- Número de resultados: o número de resultados a serem gerados.
- Comando negativo: itens que não devem ser gerados
 
- No campo de prompt, digite um novo prompt para modificar a imagem.
- Clique em enviarGerar.
 PythonInstalarpip install --upgrade google-genai Para saber mais, consulte a documentação de referência do SDK. Defina variáveis de ambiente para usar o SDK de IA generativa com a Vertex AI: # Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True RESTPara mais informações, consulte a referência da API Editar imagens. Antes de usar os dados da solicitação abaixo, faça as substituições a seguir: - PROJECT_ID: o Google Cloud ID do projeto.
- LOCATION: a região do seu projeto. Por exemplo, us-central1,europe-west2ouasia-northeast3. Para uma lista de regiões disponíveis, consulte IA generativa em locais da Vertex AI.
- TEXT_PROMPT: o prompt de texto fornece orientações sobre quais imagens o modelo gera. Ao usar um comando para inserção de repintura, use uma descrição da área mascarada para ter os melhores resultados. Evite comandos de uma só palavra. Por exemplo, use "um corgi fofo" em vez de "corgi".
- B64_BASE_IMAGE: a imagem de base que será editada ou aprimorada. A imagem precisa ser especificada como uma string de bytes codificada em base64. Limite de tamanho: 10 MB.
- MASK_MODE: uma string que define o tipo de criação automática de máscara usada pelo modelo.
    Valores disponíveis:
    - MASK_MODE_BACKGROUND: gera automaticamente uma máscara usando a segmentação de segundo plano.
- MASK_MODE_FOREGROUND: gera automaticamente uma máscara usando a segmentação em primeiro plano.
- MASK_MODE_SEMANTIC: gera automaticamente uma máscara usando a segmentação semântica com base nas classes de segmentação especificadas na matriz- maskImageConfig.maskClasses. Por exemplo:- "maskImageConfig": { "maskMode": "MASK_MODE_SEMANTIC", "maskClasses": [175, 176], // bicycle, car "dilation": 0.01 }
 
- MASK_DILATION: ponto flutuante. A porcentagem da largura da imagem para dilatar essa máscara. Um valor de 0.01é recomendado para compensar máscaras de entrada imperfeitas.
- EDIT_STEPS: número inteiro. O número de etapas de amostragem para o modelo de base. Para
    inserção de repintura, comece com 35etapas. Aumente as etapas até o limite superior de75se a qualidade não atender aos seus requisitos. Aumentar as etapas também aumenta a latência da solicitação.
- EDIT_IMAGE_COUNT: o número de imagens editadas. Valores inteiros aceitos: 1 a 4. Valor padrão: 4.
 Método HTTP e URL: POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict Corpo JSON da solicitação: { "instances": [ { "prompt": "TEXT_PROMPT", "referenceImages": [ { "referenceType": "REFERENCE_TYPE_RAW", "referenceId": 1, "referenceImage": { "bytesBase64Encoded": "B64_BASE_IMAGE" } }, { "referenceType": "REFERENCE_TYPE_MASK", "referenceId": 2, "maskImageConfig": { "maskMode": "MASK_MODE", "dilation": MASK_DILATION } } ] } ], "parameters": { "editConfig": { "baseSteps": EDIT_STEPS }, "editMode": "EDIT_MODE_INPAINT_INSERTION", "sampleCount": EDIT_IMAGE_COUNT } }Para enviar a solicitação, escolha uma destas opções: O exemplo de resposta a seguir é para uma solicitação comcurlSalve o corpo da solicitação em um arquivo com o nome request.jsone execute o comando abaixo:curl -X POST \ 
 -H "Authorization: Bearer $(gcloud auth print-access-token)" \
 -H "Content-Type: application/json; charset=utf-8" \
 -d @request.json \
 "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict"PowerShellSalve o corpo da solicitação em um arquivo com o nome request.jsone execute o comando a seguir:$cred = gcloud auth print-access-token 
 $headers = @{ "Authorization" = "Bearer $cred" }
 Invoke-WebRequest `
 -Method POST `
 -Headers $headers `
 -ContentType: "application/json; charset=utf-8" `
 -InFile request.json `
 -Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict" | Select-Object -Expand Content"sampleCount": 2. A resposta retorna dois objetos de previsão, com os bytes de imagem gerados codificados em base64.{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" } ] }Imagen 2Use os exemplos a seguir para enviar uma solicitação de repintura usando o modelo do Imagen 2. Console- 
      No console do Google Cloud , acesse a página Vertex AI > Media Studio . 
- 
      No painel inferior de tarefas, clique em Editar imagem. 
- 
      Clique em Fazer upload para selecionar a imagem armazenada localmente a ser editada. 
- 
      Na barra de ferramentas de edição, clique em background_replaceExtract. 
- 
      Selecione uma das opções de extração de máscara: - Elementos de segundo plano: detecta os elementos de segundo plano e cria uma máscara em torno deles.
- Elementos em primeiro plano: detecta os objetos em primeiro plano e cria uma máscara ao redor.
- background_replacePessoas: detecta pessoas e cria uma máscara ao redor delas.
 
- 
      Opcional: no painel Parâmetros, ajuste o Número de resultados, o Comando negativo, as Orientações sobre as solicitações de texto ou outros parâmetros. 
- 
      No campo de comando, digite um comando para modificar a imagem. 
- 
      Clique em Gerar. 
 PythonPara saber como instalar o SDK da Vertex AI para Python, consulte Instalar o SDK da Vertex AI para Python. Para mais informações, consulte a documentação de referência da API Python. RESTPara mais informações sobre solicitações de modelo imagegeneration, consulte a referência da API do modeloimagegeneration.Antes de usar os dados da solicitação abaixo, faça as substituições a seguir: - PROJECT_ID: o Google Cloud ID do projeto.
- LOCATION: a região do seu projeto. Por exemplo, us-central1,europe-west2ouasia-northeast3. Para uma lista de regiões disponíveis, consulte IA generativa em locais da Vertex AI.
- TEXT_PROMPT: o comando de texto que orienta quais imagens o modelo gera. Este campo é obrigatório para geração e edição.
- B64_BASE_IMAGE: a imagem de base que será editada ou aprimorada. A imagem precisa ser especificada como uma string de bytes codificada em base64. Limite de tamanho: 10 MB.
- EDIT_IMAGE_COUNT: o número de imagens editadas. Valor padrão: 4.
- MASK_TYPE: solicita que o modelo gere uma máscara em vez de você precisar fornecer
  uma. Consequentemente, ao fornecer esse parâmetro, você precisará omitir um objeto mask. Valores disponíveis:- background: gera automaticamente uma máscara para todas as regiões, exceto o objeto, a pessoa ou o assunto principal na imagem.
- foreground: gera automaticamente uma máscara para o objeto, a pessoa ou o assunto principal na imagem.
- semantic: use a segmentação automática para criar uma área de máscara para uma ou mais das classes de segmentação. Defina as classes de segmentação usando o parâmetro- classese os valores- class_idcorrespondentes. É possível especificar até cinco classes. Quando você usa o tipo de máscara semântica, o objeto- maskModeprecisa ter a seguinte aparência:- "maskMode": { "maskType": "semantic", "classes": [class_id1, class_id2] }
 
- GUIDANCE_SCALE_VALUE: um parâmetro (número inteiro) que controla
    quanto o modelo adere ao comando de texto. Valores maiores aumentam o alinhamento entre o comando de texto
    e as imagens geradas, mas podem comprometer a qualidade da imagem. Valores: 0-500. Padrão:60.
 Método HTTP e URL: POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict Corpo JSON da solicitação: { "instances": [ { "prompt": "TEXT_PROMPT", "image": { "bytesBase64Encoded": "B64_BASE_IMAGE" } } ], "parameters": { "sampleCount": EDIT_IMAGE_COUNT, "editConfig": { "editMode": "inpainting-insert", "maskMode": { "maskType": "MASK_TYPE" }, "guidanceScale": GUIDANCE_SCALE_VALUE } } }Para enviar a solicitação, escolha uma destas opções: O exemplo de resposta a seguir é para uma solicitação comcurlSalve o corpo da solicitação em um arquivo com o nome request.jsone execute o comando abaixo:curl -X POST \ 
 -H "Authorization: Bearer $(gcloud auth print-access-token)" \
 -H "Content-Type: application/json; charset=utf-8" \
 -d @request.json \
 "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict"PowerShellSalve o corpo da solicitação em um arquivo com o nome request.jsone execute o comando a seguir:$cred = gcloud auth print-access-token 
 $headers = @{ "Authorization" = "Bearer $cred" }
 Invoke-WebRequest `
 -Method POST `
 -Headers $headers `
 -ContentType: "application/json; charset=utf-8" `
 -InFile request.json `
 -Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict" | Select-Object -Expand Content"sampleCount": 2. A resposta retorna dois objetos de previsão, com os bytes de imagem gerados codificados em base64.{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" } ] }LimitaçõesAs seções a seguir explicam as limitações do recurso de remoção de objetos da Imagen. Pixels modificadosNão há garantia de que os pixels gerados pelo modelo que não estão na máscara sejam idênticos à entrada. Eles são gerados na resolução do modelo (como 1024 x 1024). Pode haver mudanças muito pequenas na imagem gerada. Se você quiser preservar a imagem perfeitamente, recomendamos misturar a imagem gerada com a de entrada usando a máscara. Normalmente, se a resolução da imagem de entrada for 2K ou superior, é necessário combinar a imagem gerada e a imagem de entrada. Inserir limitaçãoA inserção geralmente corresponde ao estilo da imagem de base. No entanto, algumas palavras-chave podem acionar saídas que se parecem com estilos de desenhos animados, apesar da sua intenção de criar uma saída fotorrealista. Um exemplo que vimos em particular são cores imprecisas. Por exemplo, "girafa amarela" tende a produzir uma girafa de desenho animado, porque as girafas fotorrealistas são marrons e castanhas. Da mesma forma, cores fotorrealistas, mas não naturais, são difíceis de gerar. A seguirConfira artigos sobre o Imagen e outras IAs generativas nos produtos da Vertex AI: - Guia para desenvolvedores sobre como começar a usar o Imagen 3 na Vertex AI
- Novos modelos e ferramentas de mídia generativa criados com criadores para criadores
- Novidades no Gemini: Gems personalizados e geração de imagens aprimorada com o Imagen 3
- Google DeepMind: Imagen 3 — Nosso modelo de qualidade mais alta para conversão de texto em imagem
 Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas. Última atualização 2025-10-20 UTC. -