O ajuste fino supervisionado é uma boa opção quando você tem uma tarefa de tradução com dados de texto rotulados disponíveis. Ele é particularmente eficaz para aplicativos específicos de domínio em que a tradução é significativamente diferente dos dados gerais para os quais o modelo grande foi originalmente treinado.
O ajuste de detalhes supervisionado adapta o comportamento do modelo com um conjunto de dados rotulado. Esse processo ajusta os pesos do modelo para minimizar a diferença entre as previsões e os rótulos reais.
Modelos compatíveis
Os seguintes modelos de LLM de tradução são compatíveis com o ajuste supervisionado:
translation-llm-002
(no Acesso antecipado, só oferece suporte a texto)
Limitações
- Máximo de tokens de entrada e saída:
- Veiculação: 1.000 (~4.000 caracteres)
- Tamanho do conjunto de dados de validação: 1.024 exemplos
- Tamanho do arquivo do conjunto de dados de treinamento: até 1 GB para JSONL
- Comprimento do exemplo de treinamento: 1.000 (~4.000 caracteres)
- Tamanho do adaptador:
Translation LLM V2
: o valor aceito é apenas 4. Usar outros valores (por exemplo, 1 ou 8) vai resultar em falha.
Casos de uso do ajuste de detalhes supervisionado
O modelo de tradução geral pré-treinado funciona bem quando o texto a ser traduzido é baseado em estruturas de texto comuns gerais que o modelo aprendeu. Se você quiser que um modelo aprenda algo nichado ou específico do domínio que se desloque da tradução geral, convém ajustar esse modelo. Por exemplo, é possível usar o ajuste de modelo para ensinar o modelo a seguir:
- Conteúdo específico de um domínio do setor com jargão ou estilo
- Estruturas ou formatos específicos para gerar resultados.
- Comportamentos específicos, como quando fornecer uma resposta final ou detalhada.
- Resultados personalizados específicos para tipos específicos de entradas.
Configurar uma região do job de ajuste
Os dados do usuário, como o conjunto de dados transformado e o modelo ajustado, são armazenados na região do job de ajuste. A única região compatível é us-central1
.
Se você usar o SDK da Vertex AI, poderá especificar a região na inicialização. Por exemplo:
import vertexai vertexai.init(project='myproject', location='us-central1')
Se você criar um job de ajuste supervisionado enviando uma solicitação POST com o método
tuningJobs.create
, use o URL para especificar a região onde o job de ajuste de detalhes será executado. Por exemplo, no URL a seguir, você especifica uma região substituindo as duas instâncias deTUNING_JOB_REGION
pela região em que o job é executado.https://
TUNING_JOB_REGION -aiplatform.googleapis.com/v1/projects/PROJECT_ID /locations/TUNING_JOB_REGION /tuningJobsSe você usa o Console do Google Cloud, selecione o nome da região no campo suspenso Região, na página Detalhes do modelo. Essa é a mesma página em que você seleciona o modelo base e um nome de modelo ajustado.
Cota
A cota é aplicada ao número de jobs de ajuste simultâneos. Todo projeto tem
uma cota padrão para executar pelo menos um job de ajuste. Essa é uma cota global
compartilhada por todas as regiões disponíveis e modelos compatíveis. Se você quiser executar mais jobs simultaneamente, solicite uma cota extra para Global concurrent tuning jobs
.
Preços
O ajuste supervisionado para translation-llm-002
está em Pré-lançamento. Enquanto o ajuste estiver em pré-lançamento,
não há cobrança para ajustar um modelo ou usá-lo para inferência.
Os tokens de treinamento são calculados pelo número total de tokens no conjunto de dados de treinamento, multiplicado pelo número de períodos.