En esta página se describe cómo insertar objetos en una imagen, lo que también se denomina relleno. Imagen en Vertex AI te permite especificar un área de máscara para insertar objetos en una imagen. Puedes usar tu propia máscara o dejar que Imagen en Vertex AI genere una por ti.
Ejemplo de inserción de contenido
Con la función de pintura, puedes usar una imagen base, una máscara de imagen y un prompt de texto para añadir contenido a una imagen.
Entradas
Imagen base* que se va a editar | Área de máscara especificada con las herramientas de la consola Google Cloud | Petición de texto |
---|---|---|
![]() |
![]() |
fresas |
* Crédito de la imagen: Alex Lvrs en Unsplash.
Salida después de especificar un área de máscara en la Google Cloud consola
![]() |
![]() |
![]() |
Ver la tarjeta del modelo Imagen for Editing and Customization
Antes de empezar
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. -
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
Roles required to select or create a project
- Select a project: Selecting a project doesn't require a specific IAM role—you can select any project that you've been granted a role on.
-
Create a project: To create a project, you need the Project Creator
(
roles/resourcemanager.projectCreator
), which contains theresourcemanager.projects.create
permission. Learn how to grant roles.
-
Verify that billing is enabled for your Google Cloud project.
-
Enable the Vertex AI API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM role (
roles/serviceusage.serviceUsageAdmin
), which contains theserviceusage.services.enable
permission. Learn how to grant roles. -
Configura la autenticación de tu entorno.
Select the tab for how you plan to use the samples on this page:
Console
When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.
Java
Para usar las Java muestras de esta página en un entorno de desarrollo local, instala e inicializa la CLI de gcloud y, a continuación, configura las credenciales predeterminadas de la aplicación con tus credenciales de usuario.
Instala Google Cloud CLI.
Si utilizas un proveedor de identidades (IdP) externo, primero debes iniciar sesión en la CLI de gcloud con tu identidad federada.
If you're using a local shell, then create local authentication credentials for your user account:
gcloud auth application-default login
You don't need to do this if you're using Cloud Shell.
If an authentication error is returned, and you are using an external identity provider (IdP), confirm that you have signed in to the gcloud CLI with your federated identity.
Para obtener más información, consulta Configurar ADC en un entorno de desarrollo local en la documentación de autenticación Google Cloud .
Node.js
Para usar las Node.js muestras de esta página en un entorno de desarrollo local, instala e inicializa la CLI de gcloud y, a continuación, configura las credenciales predeterminadas de la aplicación con tus credenciales de usuario.
Instala Google Cloud CLI.
Si utilizas un proveedor de identidades (IdP) externo, primero debes iniciar sesión en la CLI de gcloud con tu identidad federada.
If you're using a local shell, then create local authentication credentials for your user account:
gcloud auth application-default login
You don't need to do this if you're using Cloud Shell.
If an authentication error is returned, and you are using an external identity provider (IdP), confirm that you have signed in to the gcloud CLI with your federated identity.
Para obtener más información, consulta Configurar ADC en un entorno de desarrollo local en la documentación de autenticación Google Cloud .
Python
Para usar las Python muestras de esta página en un entorno de desarrollo local, instala e inicializa la CLI de gcloud y, a continuación, configura las credenciales predeterminadas de la aplicación con tus credenciales de usuario.
Instala Google Cloud CLI.
Si utilizas un proveedor de identidades (IdP) externo, primero debes iniciar sesión en la CLI de gcloud con tu identidad federada.
If you're using a local shell, then create local authentication credentials for your user account:
gcloud auth application-default login
You don't need to do this if you're using Cloud Shell.
If an authentication error is returned, and you are using an external identity provider (IdP), confirm that you have signed in to the gcloud CLI with your federated identity.
Para obtener más información, consulta Configurar ADC en un entorno de desarrollo local en la documentación de autenticación Google Cloud .
REST
Para usar las muestras de la API REST de esta página en un entorno de desarrollo local, debes usar las credenciales que proporciones a la CLI de gcloud.
Instala Google Cloud CLI.
Si utilizas un proveedor de identidades (IdP) externo, primero debes iniciar sesión en la CLI de gcloud con tu identidad federada.
Para obtener más información, consulta el artículo Autenticarse para usar REST de la documentación sobre autenticación de Google Cloud .
Insertar con un área de máscara definida
Usa los siguientes ejemplos para especificar la función de pintura para insertar contenido. En estos ejemplos, se especifica una imagen base, una petición de texto y un área de máscara para modificar la imagen base.
Imagen 3
Usa los siguientes ejemplos para enviar una solicitud de pintura con el modelo Imagen 3.
Consola
-
En la Google Cloud consola, ve a la página Vertex AI > Media Studio .
- Haz clic en Subir. En el cuadro de diálogo de archivos que se muestra, seleccione el archivo que quiera subir.
- Haz clic en Inpaint.
-
Elige una de estas opciones:
- Subir tu propia máscara:
- Crea una máscara en tu ordenador.
- Haz clic en Subir máscara. En el cuadro de diálogo que se muestra, selecciona una máscara para subirla.
- Define la máscara: en la barra de herramientas de edición, usa las herramientas de máscara (masked_transitionsinvertir ) para especificar la zona o las zonas en las que quieres añadir contenido. cuadro, pincel o
- Subir tu propia máscara:
-
Opcional: En el panel Parámetros, ajusta las siguientes opciones:
- Modelo: el modelo de Imagen que se va a usar.
- Número de resultados: el número de resultados que se van a generar.
- Petición negativa: elementos que se deben evitar
- En el campo de petición, escribe una petición para modificar la imagen.
- Haz clic en Generar.
Python
Instalar
pip install --upgrade google-genai
Para obtener más información, consulta la documentación de referencia del SDK.
Define variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True
REST
Para obtener más información, consulta la referencia de la API Edit images.
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_ID: tu Google Cloud ID de proyecto.
- LOCATION: la región de tu proyecto. Por ejemplo,
us-central1
,europe-west2
oasia-northeast3
. Para ver una lista de las regiones disponibles, consulta Ubicaciones de la IA generativa en Vertex AI. - TEXT_PROMPT: La petición de texto indica qué imágenes genera el modelo. Cuando uses una petición para insertar contenido con la función de pintura, describe la zona enmascarada para obtener los mejores resultados. Evita las peticiones de una sola palabra. Por ejemplo, usa "un corgi bonito" en lugar de "corgi".
- B64_BASE_IMAGE: la imagen base que quieres editar o aumentar de resolución. La imagen debe especificarse como una cadena de bytes codificada en Base64. Tamaño máximo: 10 MB.
- B64_MASK_IMAGE: la imagen en blanco y negro que quieras usar como capa de máscara para editar la imagen original. La imagen debe especificarse como una cadena de bytes codificada en Base64. Tamaño máximo: 10 MB.
- MASK_DILATION: número flotante. Porcentaje de la anchura de la imagen para dilatar esta máscara. Se recomienda usar el valor
0.01
para compensar las máscaras de entrada imperfectas. - EDIT_STEPS: número entero. Número de pasos de muestreo del modelo base. Para
la inserción de relleno generativo, empieza en el paso
35
. Aumenta los pasos hasta el límite superior de75
si la calidad no cumple tus requisitos. Aumentar los pasos también aumenta la latencia de las solicitudes. - EDIT_IMAGE_COUNT: número de imágenes editadas. Valores enteros aceptados: del 1 al 4. Valor predeterminado: 4.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict
Cuerpo JSON de la solicitud:
{ "instances": [ { "prompt": "TEXT_PROMPT", "referenceImages": [ { "referenceType": "REFERENCE_TYPE_RAW", "referenceId": 1, "referenceImage": { "bytesBase64Encoded": "B64_BASE_IMAGE" } }, { "referenceType": "REFERENCE_TYPE_MASK", "referenceId": 2, "referenceImage": { "bytesBase64Encoded": "B64_MASK_IMAGE" }, "maskImageConfig": { "maskMode": "MASK_MODE_USER_PROVIDED", "dilation": MASK_DILATION } } ] } ], "parameters": { "editConfig": { "baseSteps": EDIT_STEPS }, "editMode": "EDIT_MODE_INPAINT_INSERTION", "sampleCount": EDIT_IMAGE_COUNT } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict"PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict" | Select-Object -Expand Content"sampleCount": 2
. La respuesta devuelve dos objetos de predicción con los bytes de la imagen generada codificados en Base64.{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" } ] }
Imagen 2
Usa los siguientes ejemplos para enviar una solicitud de pintura con el modelo Imagen 2.
Consola
-
En la Google Cloud consola, ve a la página Vertex AI > Media Studio .
- Haz clic en Subir. En el cuadro de diálogo de archivos que se muestra, seleccione el archivo que quiera subir.
- Haz clic en Inpaint.
-
Elige una de estas opciones:
- Subir tu propia máscara:
- Crea una máscara en tu ordenador.
- Haz clic en Subir máscara. En el cuadro de diálogo que se muestra, selecciona una máscara para subirla.
- Define la máscara: en la barra de herramientas de edición, usa las herramientas de máscara (masked_transitionsinvertir ) para especificar la zona o las zonas en las que quieres añadir contenido. cuadro, pincel o
- Subir tu propia máscara:
-
Opcional. En el panel Parámetros, ajuste las siguientes opciones:
- Modelo: el modelo de Imagen que se va a usar.
- Número de resultados: el número de resultados que se van a generar.
- Petición negativa: elementos que se deben evitar
- En el campo de petición, introduce una nueva petición para modificar la imagen.
- Haz clic en Generar.
Python
Para saber cómo instalar o actualizar el SDK de Vertex AI para Python, consulta Instalar el SDK de Vertex AI para Python. Para obtener más información, consulta la documentación de referencia de la API Python.
REST
Para obtener más información sobre las solicitudes de modelos
imagegeneration
, consulta la referencia de la API de modelosimagegeneration
.Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_ID: tu Google Cloud ID de proyecto.
- LOCATION: la región de tu proyecto. Por ejemplo,
us-central1
,europe-west2
oasia-northeast3
. Para ver una lista de las regiones disponibles, consulta Ubicaciones de la IA generativa en Vertex AI. - TEXT_PROMPT: la petición de texto que indica qué imágenes debe generar el modelo. Este campo es obligatorio tanto para generar como para editar.
- B64_BASE_IMAGE: la imagen base que quieres editar o aumentar de resolución. La imagen debe especificarse como una cadena de bytes codificada en Base64. Tamaño máximo: 10 MB.
- B64_MASK_IMAGE: la imagen en blanco y negro que quieras usar como capa de máscara para editar la imagen original. La imagen debe especificarse como una cadena de bytes codificada en Base64. Tamaño máximo: 10 MB.
- EDIT_IMAGE_COUNT: número de imágenes editadas. Valor predeterminado: 4.
- GUIDANCE_SCALE_VALUE: parámetro (entero) que controla
el grado de cumplimiento del modelo con la petición de texto. Los valores más altos aumentan la alineación entre la petición de texto y las imágenes generadas, pero pueden comprometer la calidad de la imagen. Valores:
0
-500
. Valor predeterminado:60
.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict
Cuerpo JSON de la solicitud:
{ "instances": [ { "prompt": "TEXT_PROMPT", "image": { "bytesBase64Encoded": "B64_BASE_IMAGE" }, "mask": { "image": { "bytesBase64Encoded": "B64_MASK_IMAGE" } } } ], "parameters": { "sampleCount": EDIT_IMAGE_COUNT, "editConfig": { "editMode": "inpainting-insert", "guidanceScale": GUIDANCE_SCALE_VALUE } } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict"PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict" | Select-Object -Expand Content"sampleCount": 2
. La respuesta devuelve dos objetos de predicción con los bytes de la imagen generada codificados en Base64.{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" } ] }
Java
Antes de probar este ejemplo, sigue las Java instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Java de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
En este ejemplo, se especifica el modelo como parte de un
EndpointName
. ElEndpointName
se transfiere al métodopredict
, al que se llama en unPredictionServiceClient
. El servicio devuelve una versión editada de la imagen, que se guarda de forma local.Para obtener más información sobre las versiones y las funciones de los modelos, consulta Modelos de Imagen.
Node.js
Antes de probar este ejemplo, sigue las Node.js instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Node.js de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
En este ejemplo, se llama al métodopredict
en un objetoPredictionServiceClient
. El servicio genera imágenes que se guardan de forma local. Para obtener más información sobre las versiones y las funciones de los modelos, consulta Modelos Imagen.Insertar con detección automática de máscara
Usa los siguientes ejemplos para especificar la función de pintura para insertar contenido. En estos ejemplos, se especifica una imagen base y una petición de texto. Imagen detecta y crea automáticamente un área de máscara para modificar la imagen base.
Imagen 3
Usa los siguientes ejemplos para enviar una solicitud de pintura con el modelo Imagen 3.
Consola
-
En la Google Cloud consola, ve a la página Vertex AI > Media Studio .
- Haz clic en Subir. En el cuadro de diálogo de archivos que se muestra, seleccione el archivo que quiera subir.
- Haz clic en Inpaint.
- En la barra de herramientas de edición, haz clic en background_replaceExtraer máscara.
-
Selecciona una de las opciones de extracción de máscara:
- Elementos de fondo: detecta los elementos de fondo y crea una máscara alrededor de ellos.
- Elementos en primer plano: detecta los objetos en primer plano y crea una máscara a su alrededor.
- background_replacePersonas: detecta a las personas y crea una máscara a su alrededor.
-
Opcional: En el panel Parámetros, ajusta las siguientes opciones:
- Modelo: el modelo de Imagen que se va a usar.
- Número de resultados: el número de resultados que se van a generar.
- Petición negativa: elementos que se deben evitar
- En el campo de petición, introduce una nueva petición para modificar la imagen.
- Haz clic en EnviarGenerar.
Python
Instalar
pip install --upgrade google-genai
Para obtener más información, consulta la documentación de referencia del SDK.
Define variables de entorno para usar el SDK de IA generativa con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True
REST
Para obtener más información, consulta la referencia de la API Edit images.
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_ID: tu Google Cloud ID de proyecto.
- LOCATION: la región de tu proyecto. Por ejemplo,
us-central1
,europe-west2
oasia-northeast3
. Para ver una lista de las regiones disponibles, consulta Ubicaciones de la IA generativa en Vertex AI. - TEXT_PROMPT: La petición de texto indica qué imágenes genera el modelo. Cuando uses una petición para insertar contenido con la función de pintura, describe la zona enmascarada para obtener los mejores resultados. Evita las peticiones de una sola palabra. Por ejemplo, usa "un corgi bonito" en lugar de "corgi".
- B64_BASE_IMAGE: la imagen base que quieres editar o aumentar de resolución. La imagen debe especificarse como una cadena de bytes codificada en Base64. Tamaño máximo: 10 MB.
- MASK_MODE: cadena que define el tipo de creación automática de máscaras que usa el modelo.
Valores disponibles:
MASK_MODE_BACKGROUND
: genera automáticamente una máscara mediante la segmentación del fondo.MASK_MODE_FOREGROUND
: genera automáticamente una máscara mediante la segmentación del primer plano.MASK_MODE_SEMANTIC
: genera automáticamente una máscara mediante la segmentación semántica basada en las clases de segmentación que especifiques en la matrizmaskImageConfig.maskClasses
. Por ejemplo:"maskImageConfig": { "maskMode": "MASK_MODE_SEMANTIC", "maskClasses": [175, 176], // bicycle, car "dilation": 0.01 }
- MASK_DILATION: número flotante. Porcentaje de la anchura de la imagen para dilatar esta máscara. Se recomienda usar el valor
0.01
para compensar las máscaras de entrada imperfectas. - EDIT_STEPS: número entero. Número de pasos de muestreo del modelo base. Para
la inserción de relleno generativo, empieza en el paso
35
. Aumenta los pasos hasta el límite superior de75
si la calidad no cumple tus requisitos. Aumentar los pasos también aumenta la latencia de las solicitudes. - EDIT_IMAGE_COUNT: número de imágenes editadas. Valores enteros aceptados: del 1 al 4. Valor predeterminado: 4.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict
Cuerpo JSON de la solicitud:
{ "instances": [ { "prompt": "TEXT_PROMPT", "referenceImages": [ { "referenceType": "REFERENCE_TYPE_RAW", "referenceId": 1, "referenceImage": { "bytesBase64Encoded": "B64_BASE_IMAGE" } }, { "referenceType": "REFERENCE_TYPE_MASK", "referenceId": 2, "maskImageConfig": { "maskMode": "MASK_MODE", "dilation": MASK_DILATION } } ] } ], "parameters": { "editConfig": { "baseSteps": EDIT_STEPS }, "editMode": "EDIT_MODE_INPAINT_INSERTION", "sampleCount": EDIT_IMAGE_COUNT } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict"PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagen-3.0-capability-001:predict" | Select-Object -Expand Content"sampleCount": 2
. La respuesta devuelve dos objetos de predicción con los bytes de la imagen generada codificados en Base64.{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" } ] }
Imagen 2
Usa los siguientes ejemplos para enviar una solicitud de pintura con el modelo Imagen 2.
Consola
-
En la Google Cloud consola, ve a la página Vertex AI > Media Studio .
-
En el panel de tareas inferior, haz clic en
Editar imagen. -
Haz clic en Subir para seleccionar la imagen almacenada localmente que quieras editar.
-
En la barra de herramientas de edición, haz clic en background_replaceExtraer.
-
Selecciona una de las opciones de extracción de máscara:
- Elementos de fondo: detecta los elementos de fondo y crea una máscara alrededor de ellos.
- Elementos en primer plano: detecta los objetos en primer plano y crea una máscara a su alrededor.
- background_replacePeople: detecta a las personas y crea una máscara a su alrededor.
-
Opcional: En el panel Parámetros, ajusta el Número de resultados, la Petición negativa, la Guía de la petición de texto u otros parámetros.
-
En el campo de petición, escribe una petición para modificar la imagen.
-
Haz clic en
Generar.
Python
Para saber cómo instalar o actualizar el SDK de Vertex AI para Python, consulta Instalar el SDK de Vertex AI para Python. Para obtener más información, consulta la documentación de referencia de la API Python.
REST
Para obtener más información sobre las solicitudes de modelos
imagegeneration
, consulta la referencia de la API de modelosimagegeneration
.Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_ID: tu Google Cloud ID de proyecto.
- LOCATION: la región de tu proyecto. Por ejemplo,
us-central1
,europe-west2
oasia-northeast3
. Para ver una lista de las regiones disponibles, consulta Ubicaciones de la IA generativa en Vertex AI. - TEXT_PROMPT: la petición de texto que indica qué imágenes debe generar el modelo. Este campo es obligatorio tanto para generar como para editar.
- B64_BASE_IMAGE: la imagen base que quieres editar o aumentar de resolución. La imagen debe especificarse como una cadena de bytes codificada en Base64. Tamaño máximo: 10 MB.
- EDIT_IMAGE_COUNT: número de imágenes editadas. Valor predeterminado: 4.
- MASK_TYPE: pide al modelo que genere una máscara en lugar de tener que proporcionar una. Por lo tanto, cuando proporciones este parámetro, debes omitir el objeto
mask
. Valores disponibles:background
: genera automáticamente una máscara en todas las regiones, excepto en el objeto, la persona o el sujeto principales de la imagen.foreground
: genera automáticamente una máscara para el objeto, la persona o el sujeto principales de la imagen.semantic
: usa la segmentación automática para crear un área de máscara para una o varias clases de segmentación. Defina las clases de segmentación con el parámetroclasses
y los valoresclass_id
correspondientes. Puedes especificar hasta 5 clases. Cuando usas el tipo de máscara semántica, el objetomaskMode
debe tener el siguiente aspecto:"maskMode": { "maskType": "semantic", "classes": [class_id1, class_id2] }
- GUIDANCE_SCALE_VALUE: parámetro (entero) que controla
el grado de cumplimiento del modelo con la petición de texto. Los valores más altos aumentan la alineación entre la petición de texto y las imágenes generadas, pero pueden comprometer la calidad de la imagen. Valores:
0
-500
. Valor predeterminado:60
.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict
Cuerpo JSON de la solicitud:
{ "instances": [ { "prompt": "TEXT_PROMPT", "image": { "bytesBase64Encoded": "B64_BASE_IMAGE" } } ], "parameters": { "sampleCount": EDIT_IMAGE_COUNT, "editConfig": { "editMode": "inpainting-insert", "maskMode": { "maskType": "MASK_TYPE" }, "guidanceScale": GUIDANCE_SCALE_VALUE } } }
Para enviar tu solicitud, elige una de estas opciones:
curl
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:curl -X POST \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict"PowerShell
Guarda el cuerpo de la solicitud en un archivo llamado
request.json
y ejecuta el siguiente comando:$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method POST `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/imagegeneration@006:predict" | Select-Object -Expand Content"sampleCount": 2
. La respuesta devuelve dos objetos de predicción con los bytes de la imagen generada codificados en Base64.{ "predictions": [ { "bytesBase64Encoded": "BASE64_IMG_BYTES", "mimeType": "image/png" }, { "mimeType": "image/png", "bytesBase64Encoded": "BASE64_IMG_BYTES" } ] }
Limitaciones
En las siguientes secciones se explican las limitaciones de la función de eliminar objetos de Imagen.
Píxeles modificados
No se garantiza que los píxeles generados por el modelo que no están en la máscara sean idénticos a los de la entrada y se generan con la resolución del modelo (por ejemplo, 1024x1024). Puede haber cambios muy pequeños en la imagen generada.
Si quieres que la imagen se conserve perfectamente, te recomendamos que combines la imagen generada con la imagen de entrada mediante la máscara. Por lo general, si la resolución de la imagen de entrada es 2K o superior, es necesario combinar la imagen generada y la imagen de entrada.
Insertar limitación
La inserción suele coincidir con el estilo de la imagen base. Sin embargo, es posible que determinadas palabras clave activen resultados que se parezcan a estilos de dibujos animados, aunque tu intención sea crear un resultado fotorrealista.
Un ejemplo que hemos visto en particular son los colores inexactos. Por ejemplo, si escribes "jirafa amarilla", se suele generar una jirafa de dibujos animados, ya que las jirafas fotorrealistas son marrones y beige. Del mismo modo, es difícil generar colores fotorrealistas, pero poco naturales.
Siguientes pasos
Consulta artículos sobre Imagen y otros productos de IA generativa en Vertex AI:
- Guía para desarrolladores sobre cómo empezar a usar Imagen 3 en Vertex AI
- Nuevos modelos y herramientas de medios generativos, creados con y para creadores
- Novedades de Gemini: Gems personalizados y generación de imágenes mejorada con Imagen 3
- Google DeepMind: Imagen 3, nuestro modelo de texto a imagen de mayor calidad
A menos que se indique lo contrario, el contenido de esta página está sujeto a la licencia Reconocimiento 4.0 de Creative Commons y las muestras de código están sujetas a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio web de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2025-09-12 (UTC).
-