A partir de 29 de abril de 2025, os modelos Gemini 1.5 Pro e Gemini 1.5 Flash não estarão disponíveis em projetos que não os usaram antes, incluindo novos projetos. Para mais detalhes, consulte Versões e ciclo de vida do modelo.
Sobre o ajuste fino supervisionado para modelos de LLM de tradução
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
O ajuste fino supervisionado é uma boa opção quando você tem uma tarefa de tradução com
dados de texto rotulados disponíveis. Ele é particularmente eficaz para aplicativos
específicos de domínio em que a tradução é significativamente diferente dos dados gerais
para os quais o modelo grande foi originalmente treinado.
O ajuste de detalhes supervisionado adapta o comportamento do modelo com um conjunto de dados rotulado. Esse processo ajusta os pesos do modelo para minimizar a diferença entre as previsões e os rótulos reais.
Modelos compatíveis
Os seguintes modelos de LLM de tradução são compatíveis com ajuste supervisionado:
translation-llm-002 (no Acesso antecipado, só oferece suporte a texto)
Limitações
Máximo de tokens de entrada e saída:
Veiculação: 1.000 (~4.000 caracteres)
Tamanho do conjunto de dados de validação: 1.024 exemplos
Tamanho do arquivo do conjunto de dados de treinamento: até 1 GB para JSONL
Comprimento do exemplo de treinamento: 1.000 (~4.000 caracteres)
Tamanho do adaptador:
Translation LLM V2: o único valor aceito é 4. Usar outros valores (por exemplo, 1 ou 8) vai resultar em falha.
Casos de uso do ajuste de detalhes supervisionado
O modelo de tradução pré-treinado geral funciona bem quando o texto a ser traduzido se baseia em estruturas de texto comuns que o modelo aprendeu. Se você quiser que um
modelo aprenda algo nichado ou específico do domínio que se desvie da tradução
geral, convém ajustar esse modelo. Por exemplo, é possível usar o ajuste de modelo para ensinar o modelo a seguir:
Conteúdo específico de um domínio do setor com jargão ou estilo
Estruturas ou formatos específicos para gerar resultados.
Comportamentos específicos, como quando fornecer uma resposta final ou detalhada.
Resultados personalizados específicos para tipos específicos de entradas.
Configurar uma região do job de ajuste
Os dados do usuário, como o conjunto de dados transformado e o modelo ajustado, são armazenados na região do job de ajuste. A única região compatível é us-central1.
Se você usar o SDK da Vertex AI, poderá especificar a região na inicialização. Por exemplo:
Se você criar um job de ajuste supervisionado enviando uma solicitação POST com o método
tuningJobs.create,
use o URL para especificar a região onde o job de ajuste de detalhes será executado. Por exemplo, no URL a seguir, você especifica uma região
substituindo as duas instâncias de TUNING_JOB_REGION pela região
em que o job é executado.
Se você usa o console doGoogle Cloud ,
selecione o nome da região no campo suspenso Região,
na página Detalhes do modelo. Essa é a mesma página em que você seleciona o modelo base e um nome de modelo ajustado.
Cota
A cota é aplicada ao número de jobs de ajuste simultâneos. Todo projeto tem
uma cota padrão para executar pelo menos um job de ajuste. Essa é uma cota global
compartilhada por todas as regiões disponíveis e modelos compatíveis. Se você quiser executar mais jobs simultaneamente, solicite uma cota extra para Global concurrent tuning jobs.
Preços
O ajuste supervisionado para translation-llm-002 está em Pré-lançamento. Enquanto o ajuste estiver em pré-lançamento,
não há custo financeiro para ajustar um modelo ou usá-lo para inferência.
Os tokens de treinamento são calculados pelo número total de tokens no conjunto de dados de treinamento multiplicado pelo número de períodos.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[],[],null,["# About supervised fine-tuning for Translation LLM models\n\nSupervised fine-tuning is a good option when you have a translation task with\navailable labeled text data. It's particularly effective for domain-specific\napplications where the translation significantly differs from the general data\nthe large model was originally trained on.\n\nSupervised fine-tuning adapts model behavior with a labeled dataset. This process\nadjusts the model's weights to minimize the difference between its predictions\nand the actual labels.\n\nSupported models\n----------------\n\nThe following Translation LLM models support supervised tuning:\n\n- `translation-llm-002` (In Public Preview, supports text only)\n\nLimitations\n-----------\n\n- Maximum input and output tokens:\n - Serving: 1,000 (\\~4000 characters)\n- Validation dataset size: 1024 examples\n- Training dataset file size: Up to 1GB for JSONL\n- Training example length: 1,000 (\\~4000 characters)\n- Adapter size:\n - `Translation LLM V2`: Supported value is only 4. Using any other values (e.g., 1 or 8) will result in failure.\n\nUse cases for using supervised fine-tuning\n------------------------------------------\n\nGeneral pretrained translation model works well when the text to be translated is based on\ngeneral commonplace text structures that the model learned from. If you want a\nmodel to learn something niche or domain-specific that deviates from general\ntranslation, then you might want to consider\ntuning that model. For example, you can use model tuning to teach the model the\nfollowing:\n\n- Specific content of an industry domain with jargon or style\n- Specific structures or formats for generating output.\n- Specific behaviors such as when to provide a terse or verbose output.\n- Specific customized outputs for specific types of inputs.\n\nConfigure a tuning job region\n-----------------------------\n\nUser data, such as the transformed dataset and the tuned model, is stored in the\ntuning job region. The only supported region is `us-central1`.\n\n- If you use the Vertex AI SDK, you can specify the region at\n initialization. For example:\n\n import https://cloud.google.com/python/docs/reference/vertexai/latest/\n https://cloud.google.com/python/docs/reference/vertexai/latest/.init(project='myproject', location='us-central1')\n\n- If you create a supervised fine-tuning job by sending a POST request using\n the\n [`tuningJobs.create`](/vertex-ai/docs/reference/rest/v1/projects.locations.tuningJobs/create)\n method, then you use the URL to specify the region where the tuning job\n runs. For example, in the following URL, you specify a region by\n replacing both instances of \u003cvar translate=\"no\"\u003e\u003ccode translate=\"no\" dir=\"ltr\"\u003eTUNING_JOB_REGION\u003c/code\u003e\u003c/var\u003e with the region\n where the job runs.\n\n https://\u003cvar translate=\"no\"\u003eTUNING_JOB_REGION\u003c/var\u003e-aiplatform.googleapis.com/v1/projects/\u003cvar translate=\"no\"\u003ePROJECT_ID\u003c/var\u003e/locations/\u003cvar translate=\"no\"\u003eTUNING_JOB_REGION\u003c/var\u003e/tuningJobs\n\n- If you use the [Google Cloud console](/vertex-ai/generative-ai/docs/models/gemini-use-supervised-tuning#create_a_text_model_supervised_tuning_job),\n you can select the region name in the **Region**\n drop down field on the **Model details** page. This is the same page\n where you select the base model and a tuned model name.\n\nQuota\n-----\n\nQuota is enforced on the number of concurrent tuning jobs. Every project comes\nwith a default quota to run at least one tuning job. This is a global quota,\nshared across all available regions and supported models. If you want to run more jobs concurrently, you need to [request additional quota](/docs/quota_detail/view_manage#requesting_higher_quota) for `Global concurrent tuning jobs`.\n\nPricing\n-------\n\nSupervised fine-tuning for `translation-llm-002` is in [Preview](/products#product-launch-stages). While tuning is in Preview,\nthere is no charge to tune a model or to use it for inference.\n\nTraining tokens are calculated by the total number of tokens in your training dataset,\nmultiplied by your number of epochs.\n\nWhat's next\n-----------\n\n- Prepare a [supervised fine-tuning dataset](/vertex-ai/generative-ai/docs/models/translation-supervised-tuning-prepare)."]]