Sobre o ajuste fino supervisionado para modelos de LLM de tradução

O ajuste fino supervisionado é uma boa opção quando você tem uma tarefa de tradução com dados de texto rotulados disponíveis. Ele é particularmente eficaz para aplicativos específicos de domínio em que a tradução é significativamente diferente dos dados gerais para os quais o modelo grande foi originalmente treinado.

O ajuste de detalhes supervisionado adapta o comportamento do modelo com um conjunto de dados rotulado. Esse processo ajusta os pesos do modelo para minimizar a diferença entre as previsões e os rótulos reais.

Modelos compatíveis

Os seguintes modelos de LLM de tradução são compatíveis com o ajuste supervisionado:

  • translation-llm-002 (no Acesso antecipado, só oferece suporte a texto)

Limitações

  • Máximo de tokens de entrada e saída:
    • Veiculação: 1.000 (~4.000 caracteres)
  • Tamanho do conjunto de dados de validação: 1.024 exemplos
  • Tamanho do arquivo do conjunto de dados de treinamento: até 1 GB para JSONL
  • Comprimento do exemplo de treinamento: 1.000 (~4.000 caracteres)
  • Tamanho do adaptador:
    • Translation LLM V2: o valor aceito é apenas 4. Usar outros valores (por exemplo, 1 ou 8) vai resultar em falha.

Casos de uso do ajuste de detalhes supervisionado

O modelo de tradução geral pré-treinado funciona bem quando o texto a ser traduzido é baseado em estruturas de texto comuns gerais que o modelo aprendeu. Se você quiser que um modelo aprenda algo nichado ou específico do domínio que se desloque da tradução geral, convém ajustar esse modelo. Por exemplo, é possível usar o ajuste de modelo para ensinar o modelo a seguir:

  • Conteúdo específico de um domínio do setor com jargão ou estilo
  • Estruturas ou formatos específicos para gerar resultados.
  • Comportamentos específicos, como quando fornecer uma resposta final ou detalhada.
  • Resultados personalizados específicos para tipos específicos de entradas.

Configurar uma região do job de ajuste

Os dados do usuário, como o conjunto de dados transformado e o modelo ajustado, são armazenados na região do job de ajuste. A única região compatível é us-central1.

  • Se você usar o SDK da Vertex AI, poderá especificar a região na inicialização. Por exemplo:

    import vertexai
    vertexai.init(project='myproject', location='us-central1')
    
  • Se você criar um job de ajuste supervisionado enviando uma solicitação POST com o método tuningJobs.create, use o URL para especificar a região onde o job de ajuste de detalhes será executado. Por exemplo, no URL a seguir, você especifica uma região substituindo as duas instâncias de TUNING_JOB_REGION pela região em que o job é executado.

     https://TUNING_JOB_REGION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/TUNING_JOB_REGION/tuningJobs
    
  • Se você usa o Console do Google Cloud, selecione o nome da região no campo suspenso Região, na página Detalhes do modelo. Essa é a mesma página em que você seleciona o modelo base e um nome de modelo ajustado.

Cota

A cota é aplicada ao número de jobs de ajuste simultâneos. Todo projeto tem uma cota padrão para executar pelo menos um job de ajuste. Essa é uma cota global compartilhada por todas as regiões disponíveis e modelos compatíveis. Se você quiser executar mais jobs simultaneamente, solicite uma cota extra para Global concurrent tuning jobs.

Preços

O ajuste supervisionado para translation-llm-002 está em Pré-lançamento. Enquanto o ajuste estiver em pré-lançamento, não há cobrança para ajustar um modelo ou usá-lo para inferência.

Os tokens de treinamento são calculados pelo número total de tokens no conjunto de dados de treinamento, multiplicado pelo número de períodos.

A seguir