Questa pagina mostra come utilizzare Vertex AI Studio per tradurre rapidamente il testo una lingua a un'altra. La traduzione in Vertex AI Studio offre tra Gemini e due modelli di traduzione specializzati, che include il modello NMT (Cloud Translation Neural Machine Translation), e un LLM ottimizzato per le traduzioni (chiamato anche LLM di traduzione).
Quando utilizzi l'LLM di traduzione, puoi personalizzare le risposte fornendo esempi traduzioni in modo che le risposte siano più in linea con lo stile, il tono e il settore dominio. Il modello utilizza i tuoi esempi come contesto few-shot prima della traduzione il testo. In Vertex AI Studio, questa personalizzazione funziona solo con un LLM di traduzione; non puoi, ad esempio, trasmettere esempi quando utilizzi Gemini o il modello NMT.
Lingue supportate
Le lingue supportate da ciascun modello possono variare. Prima di richiedere le traduzioni, verifica che il modello in uso supporti le lingue di origine e di destinazione.
LLM di traduzione
Per l'LLM di traduzione, puoi tradurre verso e da una qualsiasi delle seguenti coppie di lingue:
- Arabo <-> Italiano
- Cinese (semplificato) <-> Inglese
- Francese <-> Italiano
- Tedesco <-> Inglese
- Hindi <-> Italiano
- Italiano <-> Inglese
- Giapponese <-> Inglese
- Coreano <-> Italiano
- Portoghese <-> Italiano
- Russo <-> Italiano
- Spagnolo <-> Italiano
Gemini e NMT
Per informazioni sulle lingue supportate da Gemini e dal modello NMT, consulta la seguente documentazione:
- Supporto dei linguaggi dei modelli di base di Google
- Supporto delle lingue dei modelli NMT di traduzione.
Traduci testo
Utilizza il modello LLM di traduzione, Gemini o il modello NMT per tradurre il testo utilizzando la console o l'API Google Cloud.
Console
Nella sezione Traduzione di Cloud della console Google Cloud, vai alla pagina Traduci testo in Vertex AI Studio.
Nel riquadro Impostazioni di esecuzione, seleziona un modello di traduzione nella sezione Modello .
Per modificare le impostazioni del modello (ad esempio la temperatura), espandi Avanzate.
Imposta le lingue di origine e di destinazione.
Inserisci il testo da tradurre nel campo di immissione.
Fai clic su Invia.
Per ottenere il codice o il comando cURL che mostra come richiedere le traduzioni, fai clic su
Genera codice.
API
Seleziona il modello da utilizzare per le traduzioni.
LLM per la traduzione
Utilizza l'API Vertex AI e il modello LLM di traduzione per tradurre il testo.
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del progetto Google Cloud
- LOCATION: la località in cui vuoi eseguire questa operazione.
Ad esempio,
us-central1
. - SOURCE_LANGUAGE_CODE: il codice lingua dell'input testo. Imposta uno dei codici lingua elencati nella sezione Traduzione adattiva.
- TARGET_LANGUAGE_CODE: la lingua di destinazione in cui tradurre il testo inserito. Imposta uno dei codici lingua elencati nella sezione Traduzione adattiva.
- SOURCE_TEXT: il testo nella lingua di origine da tradurre.
- MIME_TYPE (Facoltativo): il formato del testo di origine, ad esempio
text/html
otext/plain
. Per impostazione predefinita, il tipo MIME è impostato sutext/plain
.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict
Corpo JSON della richiesta:
"instances": [{ "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE", "contents": ["SOURCE_TEXT"], "mimeType": "MIME_TYPE", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }]
Per inviare la richiesta, espandi una delle seguenti opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js riportate nella guida rapida di Cloud Translation che utilizza le librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Cloud Translation Node.js.
Per autenticarti a Cloud Translation, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
async function translate() { const request = { instances: [{ source_language_code: SOURCE_LANGUAGE_CODE, target_language_code: TARGET_LANGUAGE_CODE, contents: [SOURCE_TEXT], model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nel Guida rapida di Cloud Translation con librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Cloud Translation Python.
Per autenticarti a Cloud Translation, configura le credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text') # Initialize the request instances=[{ "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE', "contents": ["SOURCE_TEXT"], "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
Gemini
Utilizza l'API Vertex AI e Gemini per tradurre il testo.
Puoi personalizzare ulteriormente le risposte di Gemini del prompting e dell'ingegneria del prompt.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del tuo progetto Google Cloud.
- LOCATION: la località in cui elaborare la richiesta. Le opzioni disponibili includono:
Fai clic per espandere un elenco parziale delle regioni disponibili
us-central1
us-west4
northamerica-northeast1
us-east4
us-west1
asia-northeast3
asia-southeast1
asia-northeast1
- MODEL_ID: l'ID del modello, ad esempio
gemini-1.0-pro-002
- SOURCE_LANGUAGE_CODE: la lingua del testo di input.
- TARGET_LANGUAGE_CODE: la lingua di destinazione in cui tradurre l'input a.
- SOURCE_TEXT: il testo da tradurre.
- TEMPERATURE:
la temperatura viene utilizzata per il campionamento durante la generazione della risposta, che si verifica quando vengono applicati
topP
etopK
. La temperatura controlla il grado di casualità nella selezione dei token. Le temperature più basse sono ideali per prompt che richiedono una risposta meno aperta o creativa, mentre temperature più alte possono portare a risultati più diversificati o creativi. Una temperatura di0
significa che vengono sempre selezionati i token con la probabilità più alta. In questo caso, le risposte per un determinato sono per lo più deterministici, ma è ancora possibile una piccola variazione.Se il modello restituisce una risposta troppo generica, troppo breve, oppure fornisce una risposta di riserva di risposta, prova ad aumentare la temperatura.
- TOP_P:
Top-P cambia il modo in cui il modello seleziona i token per l'output. I token vengono selezionati dal più probabile (vedi Top-K) al meno probabile finché la somma delle loro probabilità non corrisponde al valore di Top-P. Ad esempio, se i token A, B e C hanno una probabilità di
0,3, 0,2 e 0,1 e il valore di top-P è
0.5
, il modello seleziona A o B come token successivo utilizzando la temperatura ed esclude C come candidato.Specifica un valore più basso per risposte meno casuali e un valore più alto per più risposte risposte casuali.
- TOP_K:
Top-K cambia il modo in cui il modello seleziona i token per l'output. Un top-K pari a
1
indica che il token successivo selezionato è il più probabile tra tutti i token nel vocabolario del modello (chiamato anche decodifica greedy). Un top-K pari a3
indica invece che il token successivo viene selezionato tra i tre token più probabili utilizzando la temperatura.Per ogni passaggio di selezione dei token, vengono mostrati i token top-K con il vengono campionate. Quindi i token vengono ulteriormente filtrati in base a top-p con il token finale selezionato utilizzando il campionamento della temperatura.
Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali.
- MAX_OUTPUT_TOKENS:
Numero massimo di token che possono essere generati nella risposta. Un token è
di circa quattro caratteri. 100 token corrispondono a circa 60-80 parole.
Specifica un valore più basso per risposte più brevi e un valore più alto per risposte potenzialmente più lunghe diverse.
- SAFETY_CATEGORY:
la categoria di sicurezza per la quale configurare una soglia. I valori accettabili sono:
Fai clic per espandere le categorie di sicurezza
HARM_CATEGORY_SEXUALLY_EXPLICIT
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_DANGEROUS_CONTENT
- THRESHOLD:
la soglia per bloccare le risposte che potrebbero appartenere alla categoria di sicurezza specificata in base alla probabilità. I valori accettati sono:
Fai clic per espandere le soglie di blocco
BLOCK_NONE
BLOCK_ONLY_HIGH
BLOCK_MEDIUM_AND_ABOVE
(valore predefinito)BLOCK_LOW_AND_ABOVE
BLOCK_LOW_AND_ABOVE
blocca di più, mentreBLOCK_ONLY_HIGH
blocca di meno.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent
Corpo JSON della richiesta:
{ "contents": [ { "role": "user", "parts": [ { "text": "SOURCE_LANGUAGE_CODE: SOURCE_TEXT\nTARGET_LANGUAGE_CODE:" } ] } ], "generation_config": { "temperature": TEMPERATURE, "topP": TOP_P, "topK": TOP_K, "candidateCount": 1, "maxOutputTokens": MAX_OUTPUT_TOKENS } "safetySettings": [ { "category": "SAFETY_CATEGORY", "threshold": "THRESHOLD" } ] }
Per inviare la richiesta, espandi una delle seguenti opzioni:
Dovresti ricevere un codice di stato di operazione riuscita (2xx) e una risposta vuota.
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Cloud Translation con librerie client. Per ulteriori informazioni, consulta API Cloud Translation Node.js documentazione di riferimento.
Per autenticarti su Cloud Translation, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
const {VertexAI} = require('@google-cloud/vertexai'); // Initialize Vertex with your Cloud project and location const vertex_ai = new VertexAI({project: 'PROJECT_ID', location: 'LOCATION'}); const model = 'gemini-1.0-pro'; // Instantiate the models const generativeModel = vertex_ai.preview.getGenerativeModel({ model: model, generationConfig: { 'candidate_count': 1, 'max_output_tokens': MAX_OUTPUT_TOKENS, 'temperature': TEMPERATURE, 'top_p': TOP_P, 'top_k': TOP_K, }, safetySettings: [ { 'category': 'HARM_CATEGORY_HATE_SPEECH', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_DANGEROUS_CONTENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_SEXUALLY_EXPLICIT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_HARASSMENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' } ], }); async function generateContent() { const req = { contents: [ {role: 'user', parts: [{text: `SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:`}]} ], }; const streamingResp = await generativeModel.generateContentStream(req); for await (const item of streamingResp.stream) { process.stdout.write('stream chunk: ' + JSON.stringify(item) + '\n'); } process.stdout.write('aggregated response: ' + JSON.stringify(await streamingResp.response)); } generateContent();
Python
Prima di provare questo esempio, segui le istruzioni di configurazione di Python riportate nella guida rapida di Cloud Translation che utilizza le librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Cloud Translation Python.
Per autenticarti su Cloud Translation, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
import base64 import vertexai from vertexai.generative_models import GenerativeModel, Part, FinishReason import vertexai.preview.generative_models as generative_models def generate(): vertexai.init(project="PROJECT_ID", location="LOCATION") model = GenerativeModel("gemini-1.0-pro") responses = model.generate_content( ["""SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:"""], generation_config=generation_config, safety_settings=safety_settings, ) print(responses) generation_config = { "candidate_count": 1, "max_output_tokens": MAX_OUTPUT_TOKENS, "temperature": TEMPERATURE, "top_p": TOP_P, "top_k": TOP_K, } safety_settings = { generative_models.HarmCategory.HARM_CATEGORY_HATE_SPEECH: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_HARASSMENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, } generate()
NMT
Utilizza l'API Cloud Translation e il modello NMT per tradurre il testo.
REST
Prima di utilizzare i dati della richiesta, effettua le seguenti sostituzioni:
- PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del tuo progetto Google Cloud.
- SOURCE_LANGUAGE: (facoltativo) il codice lingua dell'input testo. Per i codici lingua supportati, consulta la sezione Supporto delle lingue.
- TARGET_LANGUAGE: la lingua di destinazione in cui tradurre il testo inserito. Imposta uno dei codici lingua supportati.
- SOURCE_TEXT: il testo da tradurre.
Metodo HTTP e URL:
POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText
Corpo JSON della richiesta:
{ "sourceLanguageCode": "SOURCE_LANGUAGE", "targetLanguageCode": "TARGET_LANGUAGE", "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"] }
Per inviare la richiesta, espandi una delle seguenti opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT1" }, { "translatedText": "TRANSLATED_TEXT2" } ] }
Node.js
Prima di provare questo esempio, segui le istruzioni per la configurazione di Node.js nel Guida rapida di Cloud Translation con librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Cloud Translation Node.js.
Per autenticarti a Cloud Translation, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nel Guida rapida di Cloud Translation con librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Cloud Translation Python.
Per autenticarti a Cloud Translation, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Traduzioni personalizzate
Personalizza le risposte dell'LLM di traduzione fornendo un esempio le traduzioni. Le traduzioni personalizzate funzionano solo con l'LLM di traduzione.
Puoi richiedere una traduzione personalizzata tramite la console o l'API Vertex AI Studio con una differenza. La console supporta le traduzioni personalizzate solo se fornisci esempi in un file TMX o TSV. L'API supporta le traduzioni personalizzate solo se fornisci esempi (fino a 5 coppie di frasi) in linea come parte della richiesta di traduzione.
Requisiti dei dati
Se fornisci traduzioni di esempio in un file per la console Google Cloud, gli esempi devono essere scritti come coppie di segmenti in un file TMX o TSV. Ogni coppia include un segmento nella lingua di origine e la sua controparte tradotta. Per maggiori informazioni informazioni. Consulta la sezione Preparare traduzioni di esempio nella documentazione di Cloud Translation.
Per ottenere risultati più precisi, includi esempi specifici provenienti da un'ampia gamma di di scenari diversi. Devi includere almeno cinque coppie di frasi, ma non più di 10.000 coppie. Inoltre, una coppia di segmenti può contenere al massimo 512 caratteri.
Console
Nella sezione Cloud Translation della console Google Cloud, vai al Pagina Traduci il testo in Vertex AI Studio.
Nel riquadro Esegui impostazioni, configura le impostazioni di traduzione.
- Nel campo Modello, seleziona Traduzione LLM.
- Per cambiare la temperatura, espandi Avanzate.
Fai clic su Aggiungi esempi.
- Seleziona un file locale o un file da Cloud Storage. Vertex AI Studio determina le lingue di origine e di destinazione del file.
- Seleziona il numero di esempi per il modello da utilizzare prima di generare un la risposta corretta.
Il numero di esempi selezionati viene conteggiato ai fini del limite di caratteri per richiesta di 3000.
Inserisci il testo da tradurre nel campo di immissione.
Fai clic su Invia.
Cloud Translation seleziona automaticamente il numero specificato di frasi di riferimento più simili all'input. Il modello di traduzione identifica i pattern degli esempi e li applica quando generando una risposta.
Il limite di output per richiesta è di 3000 caratteri. Qualsiasi testo che supera questo limite viene eliminato.
Per ottenere il codice o il comando cURL che mostra come richiedere le traduzioni, fai clic su
Genera codice.
API
Per richiedere traduzioni personalizzate, includi fino a cinque coppie di frasi di riferimento in la tua richiesta di traduzione. Il modello di traduzione li utilizza tutti per identificare pattern degli esempi, per poi applicarli durante la generazione di un la risposta corretta.
REST
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del progetto Google Cloud
- LOCATION: la posizione in cui vuoi eseguire questa operazione.
Ad esempio,
us-central1
. - REFERENCE_SOURCE: una frase nella lingua di origine che è di una coppia di frasi di riferimento.
- REFERENCE_TARGET: una frase nella lingua di destinazione che è di una coppia di frasi di riferimento.
- SOURCE_LANGUAGE: il codice lingua del testo di input.
- TARGET_LANGUAGE: la lingua di destinazione in cui tradurre il testo inserito.
- SOURCE_TEXT: il testo nella lingua di origine da tradurre.
- MIME_TYPE (Facoltativo): il formato del testo di origine, ad esempio
text/html
otext/plain
. Per impostazione predefinita, il tipo MIME è impostato sutext/plain
.
Metodo HTTP e URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict
Corpo JSON della richiesta:
"instances": [{ "reference_sentence_config": { "reference_sentence_pair_lists": [ { "reference_sentence_pairs": [{ "source_sentence": "REFERENCE_SOURCE_1_1", "target_sentence": "REFERENCE_TARGET_1_1" }, { "source_sentence": "REFERENCE_SOURCE_1_2", "target_sentence": "REFERENCE_SOURCE_1_2" }] } ], "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE" }, "contents": ["SOURCE_TEXT"], "mimeType": "MIME_TYPE" }]
Per inviare la richiesta, espandi una delle seguenti opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
Prima di provare questo esempio, segui le istruzioni di configurazione di Node.js riportate nella guida rapida di Cloud Translation che utilizza le librerie client. Per saperne di più, consulta la documentazione di riferimento dell'API Cloud Translation Node.js.
Per autenticarti su Cloud Translation, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
async function translate() { const request = { instances: [{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nel Guida rapida di Cloud Translation con librerie client. Per ulteriori informazioni, consulta API Cloud Translation Python documentazione di riferimento.
Per autenticarti a Cloud Translation, configura le credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm') # Initialize the request instances=[{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
Puoi anche utilizzare l'API Cloud Translation per creare un set di dati e importare coppie di frasi di esempio. Quando utilizzi l'API Cloud Translation per richiedere traduzioni, puoi includere il tuo set di dati per personalizzare le risposte. Il set di dati rimane e può essere riutilizzato con più richieste di traduzione. Per ulteriori informazioni, consulta Richiedi traduzioni adattabili nella documentazione di Cloud Translation.