Entenda o serviço de treinamento personalizado

Nesta página, explicamos o estado de um cluster de treinamento durante o ciclo de vida de um job de treinamento e como a Vertex AI processa erros de treinamento. Use essas informações para adaptar o código de treinamento de acordo.

Ciclo de vida de um job de treinamento

Esta seção explica como a Vertex AI processa VMs de worker no ciclo de vida de um job de treinamento.

Enfileirar um novo job

Quando você cria um CustomJob ou HyperparameterTuningJob, o job pode permanecer no estado JOB_STATE_QUEUED por algum tempo antes de ser executado pela Vertex AI. Esse período costuma ser breve. No entanto, se o projeto do Google Cloud não tiver cotas de treinamento personalizadas suficientes, a Vertex AI manterá o job na fila até que você tenha cotas suficientes.

Iniciar workers em paralelo

Quando um job de treinamento é iniciado, a Vertex AI programa o máximo de workers possível em um curto período. Como resultado, os workers podem ser iniciados em paralelo em vez de em sequência. Para reduzir a latência de inicialização, a Vertex AI começa a executar o código em cada worker assim que ele fica disponível. Quando todos os workers ficam disponíveis, a Vertex AI define o estado do job como JOB_STATE_RUNNING.

Na maioria dos casos, seu framework de machine learning gerencia automaticamente os workers começando em paralelo. Se você estiver usando uma estratégia de distribuição no código de treinamento, talvez seja necessário ajustá-la manualmente para processar os workers em paralelo. Saiba mais sobre estratégias de distribuição no TensorFlow e no PyTorch (links em inglês).

Reiniciar workers durante o job de treinamento

Durante um job de treinamento, a Vertex AI pode reiniciar os workers de qualquer pool de workers com o mesmo nome de host. Este problema pode ocorrer pelos seguintes motivos:

  • Manutenção da VM: quando a VM que executa um worker está sujeita à manutenção da VM, a Vertex AI reinicia o worker em outra VM. Saiba mais sobre migração em tempo real para manutenção de VM.
  • Saídas diferentes de zero: se qualquer worker sair com um código de saída diferente de zero, a Vertex AI reiniciará esse worker imediatamente na mesma VM.

    • Se um worker falhar devido a um erro comum, ele será tratado como um erro permanente, e a Vertex AI encerrará o job inteiro. Se qualquer contêiner for reiniciado antes de a Vertex AI encerrar o job inteiro, eles poderão gerar registros no Cloud Logging.
    • Se um worker falhar devido a um erro não permanente (qualquer erro não listado nos erros comuns), a Vertex AI permitirá que o worker recriado continue em execução, com até cinco reinicializações por worker. Após cinco reinicializações, se um worker falhar novamente, a Vertex AI repetirá o job inteiro até três vezes antes da falha.

Para gerenciar reinicializações do worker no código de treinamento, salve os checkpoints regularmente durante o treinamento para que você possa restaurá-los quando um worker for reiniciado. Se você espera que o treinamento leve mais de quatro horas, recomendamos salvar um checkpoint pelo menos uma vez a cada quatro horas. Saiba como usar checkpoints de treinamento no TensorFlow e no PyTorch (links em inglês).

Concluir um job com sucesso

Um job de treinamento é concluído com sucesso quando a réplica principal sai com o código de saída 0. Nesse ponto, a Vertex AI encerra todos os outros workers em execução.

Como a Vertex AI processa erros de job de treinamento

Nesta seção, você vê como a Vertex AI processa erros comuns dos jobs de treinamento e erros internos.

Cerca de um minuto após o término de um job, a Vertex AI define o código de erro no objeto de job de treinamento, com base no código de saída.

Como lidar com erros comuns

A Vertex AI encerra todos os workers se ela apresentar algum dos problemas a seguir:

Tipo de erro Mensagem/registro de erro Observação
Exceção de código do usuário A réplica REPLICA_NAME saiu com status diferente de zero de EXIT_CODE. Motivo da rescisão: REASON. Se o job encontrou códigos de saída que podem ser temporários, a Vertex AI tentará reiniciar o job até três vezes. Os códigos de erro possivelmente temporários que solicitam a Vertex AI para repetir o job incluem:
  • SIGABRT
    • ExitCode 6
    • ExitCode 134 (contêineres personalizados)
  • SIGSEGV
    • ExitCode 11
    • ExitCode 139 (contêineres personalizados)
Memória insuficiente A réplica REPLICA_NAME ficou sem memória e saiu com um status diferente de zero de EXIT_CODE. O GKE reserva a memória em nós da Vertex AI. Nos menores tipos de máquina (como n1-standard-4), os agentes do sistema da Vertex AI podem ocupar até 40% da memória total. Para VMs maiores, a sobrecarga é relativamente pequena. Comparar a memória alocável para os tipos de máquina n1-standard.
Capacidade insuficiente na sua região (esgotado do Compute Engine) Há recursos insuficientes na região: REGION_NAME. Tente uma região diferente. Caso você utilize K80, utilize P100 ou V100. Uma retirada ocorre quando o Compute Engine atinge a capacidade da CPU ou GPU selecionada na região. Não tem relação com sua cota de projeto. Quando isso acontece, a Vertex AI tenta reiniciar o job até três vezes.

Lidar com erros internos

Se a Vertex AI tiver um erro interno, ela tentará reiniciar um job duas vezes (três tentativas no total). Se as tentativas de reinicialização também falharem, a Vertex AI retornará um erro interno com a mensagem: Internal error occurred for the current attempt.