Para las tareas de traducción, la IA generativa en Vertex AI ofrece dos modelos de traducción especializados de la API Cloud Translation:
Modelo LLM de traducción: la oferta de traducción de Google más reciente y de mayor calidad, basada en LLMs. Ofrece traducciones de la máxima calidad con latencias razonables (unas tres veces más rápido que Gemini 2.0 Flash).
Modelo de traducción automática neuronal (NMT) de Cloud Translation: la oferta de traducción en tiempo real de Google, que consigue traducciones con una latencia de unos 100 ms. Ofrece la mayor calidad de todos los modelos de referencia con latencias comparables y sigue mejorando la calidad. La traducción automática neuronal puede alcanzar latencias hasta 20 veces más rápidas que Gemini 2.0 Flash.
Ventajas y factores de diferenciación clave del LLM de traducción
- Calidad de traducción inigualable: el modelo LLM de traducción ofrece la mayor calidad de traducción y consigue un rendimiento significativamente superior en las comparativas con otros modelos. Es mucho más probable que el LLM de traducción reescriba significativamente una frase para que suene más natural en el idioma de destino, en lugar de ofrecer traducciones menos naturales "palabra por palabra" que suelen verse en otros modelos de traducción.
- Mejor equilibrio entre calidad y latencia: Translation LLM ofrece traducciones basadas en LLMs con latencias significativamente mejores que las de Gemini 2.0 Flash. Aunque el LLM de traducción tiene una latencia mayor que el modelo NMT, suele ofrecer respuestas de mayor calidad para una amplia gama de aplicaciones.
Comparación de funciones de modelos
Función | LLM de traducción (con la tecnología de Gemini) | Modelo de NMT |
---|---|---|
Descripción | Un modelo de lenguaje extenso especializado en traducciones que se basa en Gemini y se ha ajustado para traducir. Disponible con la IA generativa en Vertex AI y la API Cloud Translation - Advanced. | El modelo de traducción automática neuronal de Google, disponible a través de las APIs Cloud Translation Advanced y Cloud Translation Basic . Optimizado para ofrecer sencillez y escalabilidad. |
Calidad | Traducción de máxima calidad. Supera a la traducción automática neuronal, Gemini 2.0 Flash y Gemini 2.5 Pro en calidad. Es más probable que reescriba las frases para que fluyan de forma natural. Muestra una reducción significativa de los errores. | Calidad media o alta, según el par de idiomas. Se encuentra entre los modelos de TNM en tiempo real con mejor rendimiento para muchas combinaciones de idiomas y dominios. |
Latencia | La latencia es significativamente mejor que la de Gemini 2.0 Flash, pero sigue siendo más lenta que la de NMT. | Traducción en tiempo real más rápida. Baja latencia, adecuada para aplicaciones de chat y en tiempo real. Consigue latencias hasta 20 veces más rápidas que Gemini 2.0 Flash |
Idiomas disponibles | Los idiomas admitidos son alemán, árabe, checo, chino, coreano, español, francés, hindi, indonesio, inglés, italiano, japonés, neerlandés, polaco, portugués, ruso, tailandés, turco, ucraniano y vietnamita. Consulta la lista completa de idiomas disponibles. | Entre los idiomas admitidos se incluyen el balinés, el cantonés y el fijiano. Se pueden hacer traducciones de cualquier idioma a cualquier otro idioma de la lista. Consulta la lista completa de idiomas disponibles. |
Personalización | Compatibilidad con glosarios avanzados, ajuste fino supervisado en Vertex AI para adaptaciones específicas de dominio o cliente y traducción adaptativa para personalizar el estilo en tiempo real con unos pocos ejemplos. | Compatibilidad con glosarios para controlar la terminología y con el entrenamiento de modelos personalizados con AutoML Translation en la API Cloud Translation Advanced. |
Funciones de traducción | Traducción de HTML | Traducción de documentos HTML, por lotes y con formato |
Integración de APIs | API Cloud Translation Advanced, API Vertex AI | API Cloud Translation (versión básica), API Cloud Translation (versión avanzada), API Vertex AI |
Uso
En esta sección se muestra cómo usar Vertex AI Studio para traducir rápidamente texto de un idioma a otro. Puedes usar el LLM de traducción o el modelo de NMT para traducir texto mediante la Google Cloud consola o la API. Ten en cuenta que los idiomas que admite cada modelo pueden variar. Antes de solicitar traducciones, comprueba que el modelo que vas a usar admite los idiomas de origen y de destino.
Consola
En la sección Vertex AI de la Google Cloud consola, ve a la página Traducir texto de Vertex AI Studio.
En el panel Ajustes de ejecución, seleccione un modelo de traducción en el campo Modelo.
Para cambiar los ajustes del modelo (como la temperatura), despliega Avanzado.
Define los idiomas de origen y de destino.
En el campo de entrada, escribe el texto que quieras traducir.
Haz clic en Enviar.
Para obtener el código o el comando curl que muestra cómo solicitar traducciones, haz clic en
Obtener código.
Ten en cuenta que, en Vertex AI Studio, el LLM de traducción te permite proporcionar traducciones de ejemplo para adaptar las respuestas del modelo a tu estilo, tono y sector. El modelo usa tus ejemplos como contexto de pocos disparos antes de traducir el texto.
API
Selecciona el modelo que quieras usar para tus traducciones.
LLM de traducción
Usa la API de Vertex AI y el LLM de traducción para traducir texto.
REST
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_NUMBER_OR_ID: ID numérico o alfanumérico de tu Google Cloud proyecto
- LOCATION: la ubicación en la que quiere ejecutar esta operación.
Por ejemplo,
us-central1
. - SOURCE_LANGUAGE_CODE: código de idioma del texto de entrada. Se debe definir como uno de los códigos de idioma que se indican en Traducción adaptativa.
- TARGET_LANGUAGE_CODE: el idioma de destino al que se traducirá el texto de entrada. Se debe definir como uno de los códigos de idioma que se indican en Traducción adaptativa.
- SOURCE_TEXT: texto en el idioma de origen que se va a traducir.
- MIME_TYPE (Opcional): El formato del texto de origen, como
text/html
otext/plain
. De forma predeterminada, el tipo MIME estext/plain
.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict
Cuerpo JSON de la solicitud:
{ "instances": [ { "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE", "contents": [ "SOURCE_TEXT" ], "mimeType": "MIME_TYPE", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" } ] }
Para enviar tu solicitud, despliega una de estas opciones:
Deberías recibir una respuesta JSON similar a la siguiente:
{ "predictions": [ { "translations": [ { "translatedText": "TRANSLATED_TEXT", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" } ] } ] }
Node.js
Antes de probar este ejemplo, sigue las Node.js instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Node.js de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
async function translate() { const request = { instances: [{ source_language_code: SOURCE_LANGUAGE_CODE, target_language_code: TARGET_LANGUAGE_CODE, contents: [SOURCE_TEXT], model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Antes de probar este ejemplo, sigue las Python instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Python de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
from google.cloud import aiplatform def translate(): # Create a client client_options = {"api_endpoint": "LOCATION-aiplatform.googleapis.com"} client = aiplatform.gapic.PredictionServiceClient(client_options=client_options) # Initialize the request endpoint_id = f"projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text" instances=[{ "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm", "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE', "contents": ["SOURCE_TEXT"], }] # Make the request response = client.predict(instances=instances, endpoint=endpoint_id) # Handle the response print(response)
NMT
Usa la API Cloud Translation y el modelo NMT para traducir texto.
REST
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_NUMBER_OR_ID: el ID numérico o alfanumérico de tu Google Cloud proyecto.
- SOURCE_LANGUAGE: (opcional) código de idioma del texto de entrada. Para ver los códigos de idioma admitidos, consulta Idiomas admitidos.
- TARGET_LANGUAGE: el idioma de destino al que se traducirá el texto de entrada. Se debe asignar uno de los códigos de idioma admitidos.
- SOURCE_TEXT: el texto que se va a traducir.
Método HTTP y URL:
POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText
Cuerpo JSON de la solicitud:
{ "sourceLanguageCode": "SOURCE_LANGUAGE", "targetLanguageCode": "TARGET_LANGUAGE", "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"] }
Para enviar tu solicitud, despliega una de estas opciones:
Deberías recibir una respuesta JSON similar a la siguiente:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT1" }, { "translatedText": "TRANSLATED_TEXT2" } ] }
Node.js
Antes de probar este ejemplo, sigue las Node.js instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Node.js de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
Python
Antes de probar este ejemplo, sigue las Python instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Python de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
Traducciones personalizadas
Personaliza las respuestas del LLM de traducción proporcionando tus propias traducciones de ejemplo. Las traducciones personalizadas solo funcionan con el LLM de traducción.
Puedes solicitar traducciones personalizadas a través de la consola de Vertex AI Studio o de la API, con una diferencia. La consola solo admite traducciones personalizadas cuando se proporcionan ejemplos en un archivo TMX o TSV. La API solo admite traducciones personalizadas cuando proporcionas ejemplos (hasta 5 pares de frases) insertados en la solicitud de traducción.
Requisitos de datos
Si proporciona traducciones de ejemplo en un archivo para la Google Cloud consola, los ejemplos deben escribirse como pares de segmentos en un archivo TMX o TSV. Cada par incluye un segmento en el idioma de origen y su correspondiente traducción. Para obtener más información, consulta el artículo Preparar traducciones de ejemplo de la documentación de Cloud Translation.
Para obtener los resultados más precisos, incluye ejemplos específicos de una amplia variedad de situaciones. Debe incluir al menos cinco pares de frases,pero no más de 10.000. Además, un par de segmentos puede tener un total de 512 caracteres como máximo.
Consola
En la sección Vertex AI de la Google Cloud consola, ve a la página Traducir texto de Vertex AI Studio.
En el panel Configuración de la ejecución, configure los ajustes de traducción.
- En el campo Modelo, selecciona LLM de traducción.
- Para cambiar la temperatura, despliega Avanzado.
Haz clic en Añadir ejemplos.
- Selecciona un archivo local o un archivo de Cloud Storage. Vertex AI Studio determina los idiomas de origen y de destino a partir de tu archivo.
- Selecciona el número de ejemplos que debe usar el modelo antes de generar una respuesta.
El número de ejemplos que selecciones se tendrá en cuenta para el límite de 3000 caracteres de entrada por solicitud.
En el campo de entrada, escribe el texto que quieras traducir.
Haz clic en Enviar.
Vertex AI selecciona automáticamente el número de frases de referencia que hayas especificado y que sean más similares a tu entrada. El modelo de traducción identifica patrones a partir de tus ejemplos y, a continuación, aplica esos patrones al generar una respuesta.
El límite de salida por solicitud es de 3000 caracteres. El texto que supere este límite se eliminará.
Para obtener el código o el comando curl que muestra cómo solicitar traducciones, haz clic en
Obtener código.
API
Para solicitar traducciones personalizadas, incluya hasta cinco pares de oraciones de referencia en su solicitud de traducción. El modelo de traducción los usa todos para identificar patrones de tus ejemplos y, a continuación, aplica esos patrones al generar una respuesta.
REST
Antes de usar los datos de la solicitud, haz las siguientes sustituciones:
- PROJECT_NUMBER_OR_ID: ID numérico o alfanumérico de tu Google Cloud proyecto
- LOCATION: la ubicación en la que quiere ejecutar esta operación.
Por ejemplo,
us-central1
. - REFERENCE_SOURCE: frase en el idioma de origen que forma parte de un par de frases de referencia.
- REFERENCE_TARGET: frase en el idioma de destino que forma parte de un par de frases de referencia.
- SOURCE_LANGUAGE: código de idioma del texto de entrada.
- TARGET_LANGUAGE: el idioma de destino al que se traducirá el texto de entrada.
- SOURCE_TEXT: texto en el idioma de origen que se va a traducir.
- MIME_TYPE (Opcional): El formato del texto de origen, como
text/html
otext/plain
. De forma predeterminada, el tipo MIME estext/plain
.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict
Cuerpo JSON de la solicitud:
{ "instances": [ { "reference_sentence_config": { "reference_sentence_pair_lists": [ { "reference_sentence_pairs": [ { "source_sentence": "REFERENCE_SOURCE_1_1", "target_sentence": "REFERENCE_TARGET_1_1" }, { "source_sentence": "REFERENCE_SOURCE_1_2", "target_sentence": "REFERENCE_SOURCE_1_2" } ] } ], "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE" }, "content": [ "SOURCE_TEXT" ], "mimeType": "MIME_TYPE" } ] }
Para enviar tu solicitud, despliega una de estas opciones:
Deberías recibir una respuesta JSON similar a la siguiente:
{ "predictions": [ { "languageCode": "TARGET_LANGUAGE", "translations": [ { "translatedText": "TRANSLATED_TEXT" } ] } ] }
Node.js
Antes de probar este ejemplo, sigue las Node.js instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Node.js de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
async function translate() { const request = { instances: [{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Antes de probar este ejemplo, sigue las Python instrucciones de configuración de la guía de inicio rápido de Vertex AI con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Python de Vertex AI.
Para autenticarte en Vertex AI, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación en un entorno de desarrollo local.
from google.cloud import aiplatform from google.protobuf.json_format import MessageToDict def translate(): # Create a client client_options = {"api_endpoint": "LOCATION-aiplatform.googleapis.com"} client = aiplatform.gapic.PredictionServiceClient(client_options=client_options) # Initialize the request endpoint_id = f"projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm" instances=[{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "content": ["SOURCE_TEXT"] }] # Make the request response = client.predict( endpoint=endpoint_id, instances=instances, ) # Handle the response print(response) # The predictions are a google.protobuf.Value representation of the model's predictions. predictions = MessageToDict(response._pb)['predictions'] for prediction in predictions: print(prediction['translations'])
También puedes usar la API Cloud Translation para crear un conjunto de datos e importar tus pares de frases de ejemplo. Cuando usas la API Cloud Translation para solicitar traducciones, puedes incluir tu conjunto de datos para personalizar las respuestas. El conjunto de datos se conserva y se puede reutilizar en varias solicitudes de traducción. Para obtener más información, consulta Solicitar traducciones adaptativas en la documentación de Cloud Translation.
Idiomas disponibles
LLM de traducción
Con el LLM de traducción, puedes traducir a cualquiera de los siguientes idiomas y desde ellos.
Nombre del idioma | Código de idioma |
---|---|
Árabe | ar |
Bengalí | bn |
Búlgaro | bg |
Catalán | ca |
Chino (simplificado) | zh-CN |
Croata | hr |
Checo | cs |
Danés | da |
Neerlandés | nl |
Inglés | en |
Estonio | et |
finlandés | fi |
Francés | fr |
Alemán | de |
Griego | el |
Gujarati | gu |
Hebreo | he |
Hindi | hi |
Húngaro | hu |
Islandés | is |
Indonesio | id |
Italiano | it |
Japonés | ja |
Kannada | kn |
Coreano | ko |
Letón | lv |
Lituano | lt |
Malabar | ml |
Marathi | mr |
Noruego | no |
Persa | fa |
Polaco | pl |
Portugués | pt |
Panyabí | pa |
Rumano | ro |
Ruso | ru |
Eslovaco | sk |
Esloveno | sl |
Español | es |
Swahili | sw |
Sueco | sv |
Tamil | ta |
Telugu | te |
Tailandés | th |
Turco | tr |
Ucraniano | uk |
Urdu | ur |
Vietnamita | vi |
Zulú | zu |
NMT
Para obtener información sobre los idiomas que admite el modelo de traducción automática neuronal (NMT) de Cloud Translation, consulta la siguiente documentación: