A partire dal 29 aprile 2025, i modelli Gemini 1.5 Pro e Gemini 1.5 Flash non sono disponibili nei progetti che non li hanno mai utilizzati, inclusi i nuovi progetti. Per maggiori dettagli, vedi Versioni e ciclo di vita dei modelli.
Informazioni sull'ottimizzazione supervisionata per i modelli LLM di traduzione
Mantieni tutto organizzato con le raccolte
Salva e classifica i contenuti in base alle tue preferenze.
L'ottimizzazione supervisionata è una validissima opzione se hai un'attività di traduzione con
dati di testo etichettati disponibili. È particolarmente efficace per le applicazioni specifiche del dominio in cui la traduzione differisce in modo significativo dai dati generali su cui è stato originariamente addestrato il modello di grandi dimensioni.
L'ottimizzazione supervisionata adatta il comportamento del modello con un set di dati etichettati. Questo processo
regola i pesi del modello per ridurre al minimo la differenza tra le sue previsioni
e le etichette effettive.
Modelli supportati
I seguenti modelli LLM di traduzione supportano l'ottimizzazione supervisionata:
translation-llm-002 (in Anteprima pubblica, supporta solo il testo)
Limitazioni
Token di input e output massimi:
Pubblicazione: 1000 (~4000 caratteri)
Dimensioni del set di dati di convalida: 1024 esempi
Dimensione del file del set di dati di addestramento: fino a 1 GB per JSONL
Lunghezza dell'esempio di addestramento: 1000 (~4000 caratteri)
Dimensioni adattatore:
Translation LLM V2: il valore supportato è solo 4. L'utilizzo di altri valori (ad es. 1 o 8) comporterà un errore.
Casi d'uso per l'utilizzo del fine-tuning supervisionato
Il modello di traduzione preaddestrato generale funziona bene quando il testo da tradurre si basa su
strutture di testo comuni generali che il modello ha appreso. Se vuoi che un modello impari qualcosa di poco noto o specifico per un dominio che si discosta dalla traduzione generale, potresti prendere in considerazione l'ottimizzazione del modello. Ad esempio, puoi utilizzare l'ottimizzazione del modello per insegnare al modello
quanto segue:
Contenuti specifici di un dominio del settore con gergo o stile
Strutture o formati specifici per generare l'output.
Comportamenti specifici, ad esempio quando fornire un output conciso o dettagliato.
Output personalizzati specifici per tipi specifici di input.
Configura una regione del job di ottimizzazione
I dati utente, come il set di dati trasformato e il modello ottimizzato, vengono archiviati nella
regione del job di ottimizzazione. L'unica regione supportata è us-central1.
Se utilizzi l'SDK Vertex AI, puoi specificare la regione durante l'inizializzazione. Ad esempio:
Se crei un job di perfezionamento supervisionato inviando una richiesta POST utilizzando il metodo
tuningJobs.create, utilizzi l'URL per specificare la regione in cui viene eseguito il job di perfezionamento. Ad esempio, nel seguente URL, specifica una regione sostituendo entrambe le istanze di TUNING_JOB_REGION con la regione in cui viene eseguito il job.
Se utilizzi la consoleGoogle Cloud ,
puoi selezionare il nome della regione nel campo a discesa Regione
nella pagina Dettagli modello. Questa è la stessa pagina
in cui selezioni il modello di base e un nome del modello ottimizzato.
Quota
La quota viene applicata al numero di job di ottimizzazione simultanei. Ogni progetto viene fornito
con una quota predefinita per eseguire almeno un job di ottimizzazione. Si tratta di una quota globale,
condivisa tra tutte le regioni disponibili e i modelli supportati. Se vuoi eseguire più job contemporaneamente, devi richiedere una quota aggiuntiva per Global concurrent tuning jobs.
Prezzi
Il perfezionamento supervisionato per translation-llm-002 è in anteprima. Durante l'anteprima dell'ottimizzazione,
non è previsto alcun costo per ottimizzare un modello o utilizzarlo per l'inferenza.
I token di addestramento vengono calcolati in base al numero totale di token nel set di dati di addestramento,
moltiplicato per il numero di epoche.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[],[],null,["# About supervised fine-tuning for Translation LLM models\n\nSupervised fine-tuning is a good option when you have a translation task with\navailable labeled text data. It's particularly effective for domain-specific\napplications where the translation significantly differs from the general data\nthe large model was originally trained on.\n\nSupervised fine-tuning adapts model behavior with a labeled dataset. This process\nadjusts the model's weights to minimize the difference between its predictions\nand the actual labels.\n\nSupported models\n----------------\n\nThe following Translation LLM models support supervised tuning:\n\n- `translation-llm-002` (In Public Preview, supports text only)\n\nLimitations\n-----------\n\n- Maximum input and output tokens:\n - Serving: 1,000 (\\~4000 characters)\n- Validation dataset size: 1024 examples\n- Training dataset file size: Up to 1GB for JSONL\n- Training example length: 1,000 (\\~4000 characters)\n- Adapter size:\n - `Translation LLM V2`: Supported value is only 4. Using any other values (e.g., 1 or 8) will result in failure.\n\nUse cases for using supervised fine-tuning\n------------------------------------------\n\nGeneral pretrained translation model works well when the text to be translated is based on\ngeneral commonplace text structures that the model learned from. If you want a\nmodel to learn something niche or domain-specific that deviates from general\ntranslation, then you might want to consider\ntuning that model. For example, you can use model tuning to teach the model the\nfollowing:\n\n- Specific content of an industry domain with jargon or style\n- Specific structures or formats for generating output.\n- Specific behaviors such as when to provide a terse or verbose output.\n- Specific customized outputs for specific types of inputs.\n\nConfigure a tuning job region\n-----------------------------\n\nUser data, such as the transformed dataset and the tuned model, is stored in the\ntuning job region. The only supported region is `us-central1`.\n\n- If you use the Vertex AI SDK, you can specify the region at\n initialization. For example:\n\n import https://cloud.google.com/python/docs/reference/vertexai/latest/\n https://cloud.google.com/python/docs/reference/vertexai/latest/.init(project='myproject', location='us-central1')\n\n- If you create a supervised fine-tuning job by sending a POST request using\n the\n [`tuningJobs.create`](/vertex-ai/docs/reference/rest/v1/projects.locations.tuningJobs/create)\n method, then you use the URL to specify the region where the tuning job\n runs. For example, in the following URL, you specify a region by\n replacing both instances of \u003cvar translate=\"no\"\u003e\u003ccode translate=\"no\" dir=\"ltr\"\u003eTUNING_JOB_REGION\u003c/code\u003e\u003c/var\u003e with the region\n where the job runs.\n\n https://\u003cvar translate=\"no\"\u003eTUNING_JOB_REGION\u003c/var\u003e-aiplatform.googleapis.com/v1/projects/\u003cvar translate=\"no\"\u003ePROJECT_ID\u003c/var\u003e/locations/\u003cvar translate=\"no\"\u003eTUNING_JOB_REGION\u003c/var\u003e/tuningJobs\n\n- If you use the [Google Cloud console](/vertex-ai/generative-ai/docs/models/gemini-use-supervised-tuning#create_a_text_model_supervised_tuning_job),\n you can select the region name in the **Region**\n drop down field on the **Model details** page. This is the same page\n where you select the base model and a tuned model name.\n\nQuota\n-----\n\nQuota is enforced on the number of concurrent tuning jobs. Every project comes\nwith a default quota to run at least one tuning job. This is a global quota,\nshared across all available regions and supported models. If you want to run more jobs concurrently, you need to [request additional quota](/docs/quota_detail/view_manage#requesting_higher_quota) for `Global concurrent tuning jobs`.\n\nPricing\n-------\n\nSupervised fine-tuning for `translation-llm-002` is in [Preview](/products#product-launch-stages). While tuning is in Preview,\nthere is no charge to tune a model or to use it for inference.\n\nTraining tokens are calculated by the total number of tokens in your training dataset,\nmultiplied by your number of epochs.\n\nWhat's next\n-----------\n\n- Prepare a [supervised fine-tuning dataset](/vertex-ai/generative-ai/docs/models/translation-supervised-tuning-prepare)."]]