Cette page vous explique comment utiliser Vertex AI Studio pour traduire rapidement du texte d'une langue à une autre. La traduction dans Vertex AI Studio offre le choix entre Gemini et deux modèles de traduction spécialisés, qui incluent le modèle de traduction automatique neuronale (NMT, Neural Machine Translation) de Cloud Translation et un LLM affiné pour les traductions (également appelé LLM de traduction).
Lorsque vous utilisez le LLM de traduction, vous pouvez personnaliser les réponses en fournissant des exemples de traduction afin que les réponses correspondent mieux à votre style, au ton et à votre domaine d'activité. Le modèle utilise vos exemples en tant que contexte few-shot avant de traduire votre texte. Dans Vertex AI Studio, cette personnalisation ne fonctionne qu'avec le LLM de traduction. Par exemple, vous ne pouvez pas transmettre des exemples lorsque vous utilisez Gemini ou le modèle NMT.
Langues disponibles
Les langues compatibles avec chaque modèle peuvent varier. Avant de demander des traductions, vérifiez que le modèle que vous utilisez est compatible avec vos langues source et cible.
LLM de traduction
Pour le LLM de traduction, vous pouvez traduire depuis et vers l'une des combinaisons linguistiques suivantes :
- Chinois (simplifié) <-> Anglais
- Français <-> Anglais
- Allemand <-> Anglais
- Italien <-> Anglais
- Japonais <-> Anglais
- Coréen <-> Anglais
- Portugais <-> Anglais
- Espagnol <-> Anglais
Gemini et NMT
Pour en savoir plus sur les langues prises en charge par Gemini et le modèle NMT, consultez la documentation suivante :
- Langues prises en charge par les modèles de fondation Google
- Langues prises en charge par le modèle NMT de traduction
Traduire du texte
Utilisez le modèle LLM, Gemini ou NMT pour traduire du texte à l'aide de la console Google Cloud ou de l'API.
Console
Dans la section Cloud Translation de la console Google Cloud, accédez à la page Traduire du texte de Vertex AI Studio.
Dans le volet Paramètres d'exécution, sélectionnez un modèle de traduction dans le champ Modèle.
Pour modifier les paramètres du modèle (par exemple, la température), développez Paramètres avancés.
Définissez les langues source et cible.
Dans le champ de saisie, saisissez le texte à traduire.
Cliquez sur Envoyer.
Pour obtenir le code ou la commande curl qui montrent comment demander des traductions, cliquez sur
Obtenir le code.
API
Sélectionnez le modèle à utiliser pour vos traductions.
LLM de traduction
Utilisez l'API Vertex AI et le LLM de traduction pour traduire du texte.
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- PROJECT_NUMBER_OR_ID : ID numérique ou alphanumérique de votre projet Google Cloud
- LOCATION : emplacement dans lequel vous souhaitez exécuter cette opération.
Exemple :
us-central1
- SOURCE_LANGUAGE_CODE : code de langue du texte d'entrée. Définissez l'un des codes de langue répertoriés dans Traduction adaptative.
- TARGET_LANGUAGE_CODE : langue cible vers laquelle traduire le texte d'entrée. Définissez l'un des codes de langue répertoriés dans Traduction adaptative.
- SOURCE_TEXT : texte dans la langue source à traduire.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict
Corps JSON de la requête :
"instances": [{ "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE", "contents": ["SOURCE_TEXT"], "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }]
Pour envoyer votre requête, développez l'une des options suivantes :
Vous devriez recevoir une réponse JSON de ce type :
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js du guide de démarrage rapide de Cloud Translation : Utiliser les bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Cloud Translation en langage Node.js.
Pour vous authentifier auprès de Cloud Translation, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
async function translate() { const request = { instances: [{ source_language_code: SOURCE_LANGUAGE_CODE, target_language_code: TARGET_LANGUAGE_CODE, contents: [SOURCE_TEXT], model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Avant d'essayer cet exemple, suivez les instructions de configuration pour Python du guide de démarrage rapide de Cloud Translation : Utiliser les bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Cloud Translation en langage Python.
Pour vous authentifier auprès de Cloud Translation, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text') # Initialize the request instances=[{ "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE', "contents": ["SOURCE_TEXT"], "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
Gemini
Utilisez l'API Vertex AI et Gemini pour traduire du texte.
Vous pouvez personnaliser davantage les réponses de Gemini grâce à l'invite ouverte et au prompt engineering (ingénierie des requêtes).
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- PROJECT_NUMBER_OR_ID : ID numérique ou alphanumérique de votre projet Google Cloud.
- LOCATION : emplacement de traitement de la requête. Les options disponibles sont les suivantes :
Cliquer pour développer les régions disponibles
us-central1
us-west4
northamerica-northeast1
us-east4
us-west1
asia-northeast3
asia-southeast1
asia-northeast1
- MODEL_ID : ID du modèle, tel que
gemini-1.0-pro-002
- SOURCE_LANGUAGE_CODE : langue du texte d'entrée.
- TARGET_LANGUAGE_CODE : langue cible vers laquelle traduire le texte d'entrée.
- SOURCE_TEXT : texte à traduire
- TEMPERATURE : La température est utilisée pour l'échantillonnage pendant la génération des réponses, qui se produit lorsque
topP
ettopK
sont appliqués. La température permet de contrôler le degré de hasard dans la sélection des jetons. Les températures inférieures sont idéales pour les requêtes qui nécessitent une réponse moins ouverte ou créative, tandis que des températures plus élevées peuvent conduire à des résultats plus diversifiés ou créatifs. Une température de0
signifie que les jetons de probabilité les plus élevés sont toujours sélectionnés. Dans ce cas, les réponses pour une requête donnée sont principalement déterministes, mais une petite quantité de variation est toujours possible.Si le modèle renvoie une réponse trop générique ou trop courte, ou s'il renvoie une réponse de remplacement, essayez d'augmenter la température.
- TOP_P : top P modifie la façon dont le modèle sélectionne les jetons pour la sortie. Les jetons sont sélectionnés de la valeur la plus élevée (voir top-K) à la moins probable jusqu'à ce que la somme de leurs probabilités soit égale à la valeur top-P. Par exemple, si les jetons A, B et C ont une probabilité de 0,3, 0,2 et 0,1 et que la valeur de top-P est supérieure à
0.5
, le modèle sélectionne A ou B comme jeton suivant en utilisant la température et exclut C comme candidat.Spécifiez une valeur inférieure pour les réponses moins aléatoires et une valeur plus élevée pour les réponses plus aléatoires.
- TOP_K : top K modifie la façon dont le modèle sélectionne les jetons pour la sortie. Un top-K de
1
signifie que le prochain jeton sélectionné est le plus probable parmi tous les jetons du vocabulaire du modèle (également appelé décodage gourmand), tandis que le top-K de3
signifie que le jeton suivant est sélectionné parmi les trois jetons les plus probables en utilisant la température.Pour chaque étape de sélection du jeton, les jetons top-K avec les probabilités les plus élevées sont échantillonnés. Les jetons sont ensuite filtrés en fonction du top-P avec le jeton final sélectionné à l'aide de l'échantillonnage de température.
Spécifiez une valeur inférieure pour les réponses moins aléatoires et une valeur plus élevée pour les réponses plus aléatoires.
- MAX_OUTPUT_TOKENS : nombre maximal de jetons pouvant être générés dans la réponse. Un jeton correspond environ à quatre caractères. 100 jetons correspondent à environ 60-80 mots.
Spécifiez une valeur inférieure pour obtenir des réponses plus courtes et une valeur supérieure pour des réponses potentiellement plus longues.
- SAFETY_CATEGORY : catégorie de sécurité pour laquelle configurer un seuil. Les valeurs acceptées incluent les suivantes :
Cliquer pour développer les catégories de sécurité
HARM_CATEGORY_SEXUALLY_EXPLICIT
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_DANGEROUS_CONTENT
- THRESHOLD : seuil de blocage des réponses susceptibles d'appartenir à la catégorie de sécurité spécifiée en fonction de la probabilité. Les valeurs acceptées incluent les suivantes :
Cliquer pour développer les seuils de blocage
BLOCK_NONE
BLOCK_ONLY_HIGH
BLOCK_MEDIUM_AND_ABOVE
(par défaut)BLOCK_LOW_AND_ABOVE
BLOCK_LOW_AND_ABOVE
bloque le plus, tandis queBLOCK_ONLY_HIGH
bloque le moins.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent
Corps JSON de la requête :
{ "contents": [ { "role": "user", "parts": [ { "text": "SOURCE_LANGUAGE_CODE: SOURCE_TEXT\nTARGET_LANGUAGE_CODE:" } ] } ], "generation_config": { "temperature": TEMPERATURE, "topP": TOP_P, "topK": TOP_K, "candidateCount": 1, "maxOutputTokens": MAX_OUTPUT_TOKENS } "safetySettings": [ { "category": "SAFETY_CATEGORY", "threshold": "THRESHOLD" } ] }
Pour envoyer votre requête, développez l'une des options suivantes :
Vous devriez recevoir un code d'état indiquant le succès de l'opération (2xx), ainsi qu'une réponse vide.
Node.js
Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js du guide de démarrage rapide de Cloud Translation : Utiliser les bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Cloud Translation en langage Node.js.
Pour vous authentifier auprès de Cloud Translation, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
const {VertexAI} = require('@google-cloud/vertexai'); // Initialize Vertex with your Cloud project and location const vertex_ai = new VertexAI({project: 'PROJECT_ID', location: 'LOCATION'}); const model = 'gemini-1.0-pro'; // Instantiate the models const generativeModel = vertex_ai.preview.getGenerativeModel({ model: model, generationConfig: { 'candidate_count': 1, 'max_output_tokens': MAX_OUTPUT_TOKENS, 'temperature': TEMPERATURE, 'top_p': TOP_P, 'top_k': TOP_K, }, safetySettings: [ { 'category': 'HARM_CATEGORY_HATE_SPEECH', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_DANGEROUS_CONTENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_SEXUALLY_EXPLICIT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_HARASSMENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' } ], }); async function generateContent() { const req = { contents: [ {role: 'user', parts: [{text: `SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:`}]} ], }; const streamingResp = await generativeModel.generateContentStream(req); for await (const item of streamingResp.stream) { process.stdout.write('stream chunk: ' + JSON.stringify(item) + '\n'); } process.stdout.write('aggregated response: ' + JSON.stringify(await streamingResp.response)); } generateContent();
Python
Avant d'essayer cet exemple, suivez les instructions de configuration pour Python du guide de démarrage rapide de Cloud Translation : Utiliser les bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Cloud Translation en langage Python.
Pour vous authentifier auprès de Cloud Translation, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
import base64 import vertexai from vertexai.generative_models import GenerativeModel, Part, FinishReason import vertexai.preview.generative_models as generative_models def generate(): vertexai.init(project="PROJECT_ID", location="LOCATION") model = GenerativeModel("gemini-1.0-pro") responses = model.generate_content( ["""SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:"""], generation_config=generation_config, safety_settings=safety_settings, ) print(responses) generation_config = { "candidate_count": 1, "max_output_tokens": MAX_OUTPUT_TOKENS, "temperature": TEMPERATURE, "top_p": TOP_P, "top_k": TOP_K, } safety_settings = { generative_models.HarmCategory.HARM_CATEGORY_HATE_SPEECH: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_HARASSMENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, } generate()
NMT
Utilisez l'API Cloud Translation et le modèle NMT pour traduire du texte.
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- PROJECT_NUMBER_OR_ID : ID numérique ou alphanumérique de votre projet Google Cloud.
- SOURCE_LANGUAGE (facultatif) : code de langue du texte d'entrée. Pour connaître les codes de langue compatibles, consultez la page Langues acceptées.
- TARGET_LANGUAGE : langue cible vers laquelle traduire le texte d'entrée. Définissez cette valeur sur l'un des codes de langue acceptés.
- SOURCE_TEXT : texte à traduire
Méthode HTTP et URL :
POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText
Corps JSON de la requête :
{ "sourceLanguageCode": "SOURCE_LANGUAGE", "targetLanguageCode": "TARGET_LANGUAGE", "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"] }
Pour envoyer votre requête, développez l'une des options suivantes :
Vous devriez recevoir une réponse JSON de ce type :
{ "translations": [ { "translatedText": "TRANSLATED_TEXT1" }, { "translatedText": "TRANSLATED_TEXT2" } ] }
Node.js
Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js du guide de démarrage rapide de Cloud Translation : Utiliser les bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Cloud Translation en langage Node.js.
Pour vous authentifier auprès de Cloud Translation, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Python
Avant d'essayer cet exemple, suivez les instructions de configuration pour Python du guide de démarrage rapide de Cloud Translation : Utiliser les bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Cloud Translation en langage Python.
Pour vous authentifier auprès de Cloud Translation, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Traductions personnalisées
Personnalisez les réponses du LLM de traduction en fournissant vos propres exemples de traductions. Les traductions personnalisées ne fonctionnent qu'avec le LLM de traduction.
Vous pouvez demander une traduction personnalisée via la console ou l'API Vertex AI Studio, avec une différence. La console n'accepte les traductions personnalisées que lorsque vous fournissez des exemples dans un fichier TMX ou TSV. L'API n'accepte les traductions personnalisées que lorsque vous fournissez des exemples (jusqu'à cinq paires de phrases) intégrés dans la requête de traduction.
Exigences en matière de données
Si vous fournissez des exemples de traductions dans un fichier pour la console Google Cloud, ils doivent être écrits sous forme de paires de segments dans un fichier TMX ou TSV. Chaque paire comprend un segment de langue source et son équivalent traduit. Pour en savoir plus, consultez la page Préparer des exemples de traductions dans la documentation Cloud Translation.
Pour obtenir des résultats plus précis, incluez des exemples spécifiques issus d'une grande variété de scénarios. Vous devez inclure au moins cinq paires de phrases, mais pas plus de 10 000 paires. Une paire de segments ne peut pas dépasser 512 caractères.
Console
Dans la section Cloud Translation de la console Google Cloud, accédez à la page Traduire du texte de Vertex AI Studio.
Dans le volet Paramètres d'exécution, configurez vos paramètres de traduction.
- Dans le champ Modèle, sélectionnez LLM de traduction.
- Pour modifier la température, développez Avancé.
Cliquez sur Ajouter des exemples.
- Sélectionnez un fichier local ou un fichier dans Cloud Storage. Vertex AI Studio détermine les langues source et cible à partir de votre fichier.
- Sélectionnez le nombre d'exemples que le modèle doit utiliser avant de générer une réponse.
Le nombre d'exemples que vous sélectionnez est comptabilisé dans la limite de 3 000 caractères d'entrée par requête.
Dans le champ de saisie, saisissez le texte à traduire.
Cliquez sur Envoyer.
Cloud Translation sélectionne automatiquement le nombre spécifié de phrases de référence qui sont les plus similaires à votre entrée. Le modèle de traduction identifie des schémas issus de vos exemples, puis les applique lors de la génération d'une réponse.
La limite de sortie par requête est de 3 000 caractères. Tout texte au-delà de cette limite est supprimé.
Pour obtenir le code ou la commande curl montrant comment demander des traductions, cliquez sur
Obtenir le code.
API
Pour demander des traductions personnalisées, incluez jusqu'à cinq paires de phrases de référence dans votre requête de traduction. Le modèle de traduction les utilise toutes pour identifier des modèles à partir de vos exemples, puis les applique lors de la génération d'une réponse.
REST
Avant d'utiliser les données de requête ci-dessous, effectuez les remplacements suivants :
- PROJECT_NUMBER_OR_ID : ID numérique ou alphanumérique de votre projet Google Cloud
- LOCATION : emplacement dans lequel vous souhaitez exécuter cette opération.
Exemple :
us-central1
- REFERENCE_SOURCE : phrase dans la langue source faisant partie d'une paire de phrases de référence.
- REFERENCE_TARGET : phrase dans la langue cible faisant partie d'une paire de phrases de référence.
- SOURCE_LANGUAGE : code de langue du texte d'entrée.
- TARGET_LANGUAGE : langue cible vers laquelle traduire le texte d'entrée.
- SOURCE_TEXT : texte dans la langue source à traduire.
Méthode HTTP et URL :
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict
Corps JSON de la requête :
"instances": [{ "reference_sentence_config": { "reference_sentence_pair_lists": [ { "reference_sentence_pairs": [{ "source_sentence": "REFERENCE_SOURCE_1_1", "target_sentence": "REFERENCE_TARGET_1_1" }, { "source_sentence": "REFERENCE_SOURCE_1_2", "target_sentence": "REFERENCE_SOURCE_1_2" }] } ], "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE" }, "contents": ["SOURCE_TEXT"] }]
Pour envoyer votre requête, développez l'une des options suivantes :
Vous devriez recevoir une réponse JSON de ce type :
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
Avant d'essayer cet exemple, suivez les instructions de configuration pour Node.js du guide de démarrage rapide de Cloud Translation : Utiliser les bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Cloud Translation en langage Node.js.
Pour vous authentifier auprès de Cloud Translation, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
async function translate() { const request = { instances: [{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Avant d'essayer cet exemple, suivez les instructions de configuration pour Python du guide de démarrage rapide de Cloud Translation : Utiliser les bibliothèques clientes. Pour en savoir plus, consultez la documentation de référence de l'API Cloud Translation en langage Python.
Pour vous authentifier auprès de Cloud Translation, configurez le service Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm') # Initialize the request instances=[{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
Vous pouvez également utiliser l'API Cloud Translation pour créer un ensemble de données et importer les paires de phrases de vos exemples. Lorsque vous utilisez l'API Cloud Translation pour demander des traductions, vous pouvez inclure votre ensemble de données pour personnaliser les réponses. L'ensemble de données est conservé et peut être réutilisé avec plusieurs requêtes de traduction. Pour en savoir plus, consultez la page Demander des traductions adaptatives dans la documentation de Cloud Translation.