Per le attività di traduzione, l'AI generativa su Vertex AI offre due modelli di traduzione specializzati dell'API Cloud Translation:
LLM di traduzione: la più recente offerta di traduzione di Google in stile LLM di altissima qualità. Offre la traduzione di massima qualità con latenze ragionevoli (circa tre volte più veloce di Gemini 2.0 Flash).
Modello di traduzione automatica neurale (NMT) di Cloud Translation: l'offerta di traduzione in tempo reale di Google con una latenza di circa 100 ms. Raggiunge la massima qualità di tutti i modelli di benchmark con latenze comparabili e continua a registrare progressi costanti in termini di qualità. La NMT può raggiungere latenze fino a 20 volte più veloci di Gemini 2.0 Flash.
Vantaggi e fattori di differenziazione principali dell'LLM di traduzione
- Qualità della traduzione senza pari: il modello LLM di traduzione offre la massima qualità di traduzione, ottenendo un rendimento significativamente superiore nei benchmark rispetto ad altri modelli di riferimento. Il LLM di traduzione ha molte più probabilità di riscrivere in modo significativo una frase per renderla più naturale nella lingua di destinazione, anziché fornire traduzioni "parola per parola" meno naturali che si vedono spesso in altri modelli di traduzione.
- Compromesso tra qualità e latenza superiori: il modello LLM di traduzione fornisce traduzioni basate su LLM con latenze significativamente migliori rispetto a Gemini 2.0 Flash. Sebbene Translation LLM abbia latenze più elevate rispetto al modello NMT, in genere fornisce risposte di qualità superiore per un'ampia gamma di applicazioni.
Confronto delle funzionalità dei modelli
Funzionalità | LLM di traduzione (basato su Gemini) | Modello NMT |
---|---|---|
Descrizione | Un modello linguistico di grandi dimensioni specializzato nella traduzione basato su Gemini e ottimizzato per la traduzione. Disponibile con l'AI generativa su Vertex AI e l'API Cloud Translation - Advanced. | Il modello di traduzione automatica neurale di Google, disponibile tramite le API Cloud Translation - Advanced e Cloud Translation - Basic . Ottimizzato per semplicità e scalabilità. |
Qualità | Traduzione di massima qualità. Supera NMT, Gemini 2.0 Flash e Gemini 2.5 Pro in termini di qualità. È più probabile che riscriva le frasi per un flusso naturale. Mostra una riduzione significativa degli errori. | Qualità da media ad alta a seconda della coppia linguistica. Tra i modelli NMT in tempo reale con le migliori prestazioni per molte combinazioni di lingue e domini. |
Latenza | La latenza è notevolmente migliore rispetto a Gemini 2.0 Flash, ma comunque più lenta rispetto a NMT. | Traduzione in tempo reale più veloce. Bassa latenza, adatta per applicazioni di chat e in tempo reale. Raggiunge latenze fino a 20 volte più veloci rispetto a Gemini 2.0 Flash |
Supporto dei linguaggi | Le lingue supportate includono arabo, cinese, ceco, coreano, francese, giapponese, hindi, indonesiano, inglese, italiano, olandese, polacco, portoghese, russo, spagnolo, tedesco, thailandese, turco, ucraino e vietnamita. Per un elenco completo, consulta le lingue supportate. | Le lingue supportate includono cantonese, figiano e balinese. Sono possibili traduzioni da qualsiasi lingua a qualsiasi altra lingua nell'elenco supportato. Per un elenco completo, consulta le lingue supportate. |
Personalizzazione | Supporto per glossari avanzati, ottimizzazione supervisionata su Vertex AI per adattamenti specifici per dominio/cliente, traduzione adattiva per la personalizzazione dello stile in tempo reale con alcuni esempi. | Supporto di glossari per controllare la terminologia e di modelli personalizzati di addestramento con AutoML Translation nell'API Cloud Translation - Advanced. |
Funzionalità di traduzione | Traduzione HTML | HTML, Batch e Traduzione di documenti formattati |
Integrazione API | API Cloud Translation - Advanced, API Vertex AI | API Cloud Translation - Basic, API Cloud Translation - Advanced, API Vertex AI |
Utilizzo
Questa sezione mostra come utilizzare Vertex AI Studio per tradurre rapidamente testo da una lingua all'altra. Puoi utilizzare il modello linguistico di grandi dimensioni per la traduzione o il modello NMT per tradurre il testo utilizzando la console o l'API. Google Cloud Tieni presente che le lingue supportate da ogni modello possono variare. Prima di richiedere le traduzioni, verifica che il modello che utilizzi supporti le lingue di origine e di destinazione.
Console
Nella sezione Vertex AI della console Google Cloud , vai alla pagina Traduci testo in Vertex AI Studio.
Nel riquadro Impostazioni esecuzione, seleziona un modello di traduzione nel campo Modello.
Per modificare le impostazioni del modello (ad esempio la temperatura), espandi Avanzate.
Imposta le lingue di origine e di destinazione.
Nel campo di input, inserisci il testo da tradurre.
Fai clic su Invia.
Per ottenere il codice o il comando curl che mostrano come richiedere le traduzioni, fai clic su
Genera codice.
Tieni presente che in Vertex AI Studio, l'LLM di traduzione ti consente di fornire traduzioni di esempio per adattare le risposte del modello in modo che corrispondano più da vicino al tuo stile, tono e dominio del settore. Il modello utilizza gli esempi come contesto few-shot prima di tradurre il testo.
API
Seleziona il modello da utilizzare per le traduzioni.
LLM di traduzione
Utilizza l'API Vertex AI e il modello LLM Translation per tradurre il testo.
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- PROJECT_NUMBER_OR_ID: L'ID numerico o alfanumerico del tuo Google Cloud progetto
- LOCATION: la località in cui vuoi eseguire questa operazione.
Ad esempio,
us-central1
. - SOURCE_LANGUAGE_CODE: il codice lingua del testo di input. Impostato su uno dei codici lingua elencati in Traduzione adattiva.
- TARGET_LANGUAGE_CODE: la lingua di destinazione in cui tradurre il testo di input. Impostato su uno dei codici lingua elencati in Traduzione adattiva.
- SOURCE_TEXT: Testo nella lingua di origine da tradurre.
- MIME_TYPE (Facoltativo): il formato del testo di origine, ad esempio
text/html
otext/plain
. Per impostazione predefinita, il tipo MIME è impostato sutext/plain
.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict
Corpo JSON della richiesta:
{ "instances": [ { "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE", "contents": [ "SOURCE_TEXT" ], "mimeType": "MIME_TYPE", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" } ] }
Per inviare la richiesta, espandi una di queste opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "predictions": [ { "translations": [ { "translatedText": "TRANSLATED_TEXT", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" } ] } ] }
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Vertex AI Node.js.
Per eseguire l'autenticazione in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
async function translate() { const request = { instances: [{ source_language_code: SOURCE_LANGUAGE_CODE, target_language_code: TARGET_LANGUAGE_CODE, contents: [SOURCE_TEXT], model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Prima di provare questo esempio, segui le istruzioni di configurazione di Python nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Vertex AI Python.
Per eseguire l'autenticazione in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
from google.cloud import aiplatform def translate(): # Create a client client_options = {"api_endpoint": "LOCATION-aiplatform.googleapis.com"} client = aiplatform.gapic.PredictionServiceClient(client_options=client_options) # Initialize the request endpoint_id = f"projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text" instances=[{ "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm", "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE', "contents": ["SOURCE_TEXT"], }] # Make the request response = client.predict(instances=instances, endpoint=endpoint_id) # Handle the response print(response)
NMT
Utilizza l'API Cloud Translation e il modello NMT per tradurre il testo.
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del tuo progetto Google Cloud .
- SOURCE_LANGUAGE: (facoltativo) il codice lingua del testo di input. Per i codici lingua supportati, consulta Supporto linguistico.
- TARGET_LANGUAGE: la lingua di destinazione in cui tradurre il testo di input. Impostato su uno dei codici lingua supportati.
- SOURCE_TEXT: il testo da tradurre.
Metodo HTTP e URL:
POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText
Corpo JSON della richiesta:
{ "sourceLanguageCode": "SOURCE_LANGUAGE", "targetLanguageCode": "TARGET_LANGUAGE", "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"] }
Per inviare la richiesta, espandi una di queste opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT1" }, { "translatedText": "TRANSLATED_TEXT2" } ] }
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Vertex AI Node.js.
Per eseguire l'autenticazione in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Prima di provare questo esempio, segui le istruzioni di configurazione di Python nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Vertex AI Python.
Per eseguire l'autenticazione in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
Traduzioni personalizzate
Personalizza le risposte dell'LLM di traduzione fornendo traduzioni di esempio. Le traduzioni personalizzate funzionano solo con l'LLM di traduzione.
Puoi richiedere una traduzione personalizzata tramite la console o l'API di Vertex AI Studio con una differenza. La console supporta le traduzioni personalizzate solo se fornisci esempi in un file TMX o TSV. L'API supporta le traduzioni personalizzate solo quando fornisci esempi (fino a 5 coppie di frasi) incorporati nella richiesta di traduzione.
Requisiti dei dati
Se fornisci traduzioni di esempio in un file per la console Google Cloud , gli esempi devono essere scritti come coppie di segmenti in un file TMX o TSV. Ogni coppia include un segmento di lingua di origine e la sua controparte tradotta. Per saperne di più, consulta Preparare esempi di traduzione nella documentazione di Cloud Translation.
Per ottenere risultati più precisi, includi esempi specifici di un'ampia gamma di scenari. Devi includere almeno cinque coppie di frasi,ma non più di 10.000 coppie. Inoltre, una coppia di segmenti può contenere al massimo 512 caratteri in totale.
Console
Nella sezione Vertex AI della console Google Cloud , vai alla pagina Traduci testo in Vertex AI Studio.
Nel riquadro Impostazioni esecuzione, configura le impostazioni di traduzione.
- Nel campo Modello, seleziona LLM di traduzione.
- Per modificare la temperatura, espandi Avanzate.
Fai clic su Aggiungi esempi.
- Seleziona un file locale o un file da Cloud Storage. Vertex AI Studio determina le lingue di origine e di destinazione dal file.
- Seleziona il numero di esempi che il modello deve utilizzare prima di generare una risposta.
Il numero di esempi selezionati viene conteggiato ai fini del limite di caratteri di input per richiesta di 3000.
Nel campo di input, inserisci il testo da tradurre.
Fai clic su Invia.
Vertex AI seleziona automaticamente il numero specificato di frasi di riferimento più simili all'input. Il modello di traduzione identifica i pattern dagli esempi e li applica quando genera una risposta.
Il limite di output per richiesta è di 3000 caratteri. Qualsiasi testo che supera questo limite viene eliminato.
Per ottenere il codice o il comando curl che mostrano come richiedere le traduzioni, fai clic su
Ottieni codice.
API
Per richiedere traduzioni personalizzate, includi fino a cinque coppie di frasi di riferimento nella tua richiesta di traduzione. Il modello di traduzione li utilizza tutti per identificare i pattern degli esempi e poi li applica quando genera una risposta.
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- PROJECT_NUMBER_OR_ID: L'ID numerico o alfanumerico del tuo Google Cloud progetto
- LOCATION: la località in cui vuoi eseguire questa operazione.
Ad esempio,
us-central1
. - REFERENCE_SOURCE: una frase nella lingua di origine che fa parte di una coppia di frasi di riferimento.
- REFERENCE_TARGET: una frase nella lingua di destinazione che fa parte di una coppia di frasi di riferimento.
- SOURCE_LANGUAGE: il codice lingua del testo di input.
- TARGET_LANGUAGE: la lingua di destinazione in cui tradurre il testo di input.
- SOURCE_TEXT: Testo nella lingua di origine da tradurre.
- MIME_TYPE (Facoltativo): il formato del testo di origine, ad esempio
text/html
otext/plain
. Per impostazione predefinita, il tipo MIME è impostato sutext/plain
.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict
Corpo JSON della richiesta:
{ "instances": [ { "reference_sentence_config": { "reference_sentence_pair_lists": [ { "reference_sentence_pairs": [ { "source_sentence": "REFERENCE_SOURCE_1_1", "target_sentence": "REFERENCE_TARGET_1_1" }, { "source_sentence": "REFERENCE_SOURCE_1_2", "target_sentence": "REFERENCE_SOURCE_1_2" } ] } ], "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE" }, "content": [ "SOURCE_TEXT" ], "mimeType": "MIME_TYPE" } ] }
Per inviare la richiesta, espandi una di queste opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "predictions": [ { "languageCode": "TARGET_LANGUAGE", "translations": [ { "translatedText": "TRANSLATED_TEXT" } ] } ] }
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Vertex AI Node.js.
Per eseguire l'autenticazione in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
async function translate() { const request = { instances: [{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Prima di provare questo esempio, segui le istruzioni di configurazione di Python nella guida rapida di Vertex AI per l'utilizzo delle librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Vertex AI Python.
Per eseguire l'autenticazione in Vertex AI, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.
from google.cloud import aiplatform from google.protobuf.json_format import MessageToDict def translate(): # Create a client client_options = {"api_endpoint": "LOCATION-aiplatform.googleapis.com"} client = aiplatform.gapic.PredictionServiceClient(client_options=client_options) # Initialize the request endpoint_id = f"projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm" instances=[{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "content": ["SOURCE_TEXT"] }] # Make the request response = client.predict( endpoint=endpoint_id, instances=instances, ) # Handle the response print(response) # The predictions are a google.protobuf.Value representation of the model's predictions. predictions = MessageToDict(response._pb)['predictions'] for prediction in predictions: print(prediction['translations'])
Puoi anche utilizzare l'API Cloud Translation per creare un set di dati e importare le coppie di frasi di esempio. Quando utilizzi l'API Cloud Translation per richiedere traduzioni, puoi includere il tuo set di dati per personalizzare le risposte. Il set di dati viene mantenuto e può essere riutilizzato con più richieste di traduzione. Per saperne di più, consulta Richiedere traduzioni adattive nella documentazione di Cloud Translation.
Lingue supportate
LLM di traduzione
Con l'LLM di traduzione, puoi tradurre da e verso una delle seguenti lingue.
Nome della lingua | Codice lingua |
---|---|
Arabo | ar |
Bengali | bn |
Bulgaro | bg |
Catalano | ca |
Cinese (semplificato) | zh-CN |
Croato | hr |
Ceco | cs |
Danese | da |
Olandese | nl |
Inglese | en |
Estone | et |
Finlandese | fi |
Francese | fr |
Tedesco | de |
Greco | el |
Gujarati | gu |
Ebraico | he |
Hindi | hi |
Ungherese | hu |
Islandese | is |
Indonesiano | id |
Italiano | it |
Giapponese | ja |
Kannada | kn |
Coreano | ko |
Lettone | lv |
Lituano | lt |
Malayalam | ml |
Marathi | mr |
Norvegese | no |
Persiano | fa |
Polacco | pl |
Portoghese | pt |
Punjabi | pa |
Rumeno | ro |
Russo | ru |
Slovacco | sk |
Sloveno | sl |
Spagnolo | es |
Swahili | sw |
Svedese | sv |
Tamil | ta |
Telugu | te |
Tailandese | th |
Turco | tr |
Ucraino | uk |
Urdu | ur |
Vietnamita | vi |
Zulu | zu |
NMT
Per informazioni sulle lingue supportate dal modello NMT di Cloud Translation, consulta la seguente documentazione: