Esta página mostra-lhe como executar uma aplicação de preparação do TensorFlow Keras no Vertex AI. Este modelo específico prepara um modelo de classificação de imagens que pode classificar flores por tipo.
Este tutorial tem várias páginas:Preparar um modelo de classificação de imagens personalizado.
Publicação de previsões a partir de um modelo de classificação de imagens personalizado.
Cada página pressupõe que já executou as instruções das páginas anteriores do tutorial.
O resto deste documento pressupõe que está a usar o mesmo ambiente do Cloud Shell que criou quando seguiu a primeira página deste tutorial. Se a sessão original do Cloud Shell já não estiver aberta, pode regressar ao ambiente fazendo o seguinte:-
In the Google Cloud console, activate Cloud Shell.
-
Na sessão do Cloud Shell, execute o seguinte comando:
cd hello-custom-sample
Na Google Cloud consola, na secção Vertex AI, aceda à página Pipelines de preparação.
Clique em
Criar para abrir o painel Formar novo modelo.No passo Escolha o método de preparação, faça o seguinte:
Na lista pendente Conjunto de dados, selecione Nenhum conjunto de dados gerido. Esta aplicação de preparação específica carrega dados da biblioteca TensorFlow Datasets, em vez de um conjunto de dados gerido do Vertex AI.
Certifique-se de que a opção Formação personalizada (avançada) está selecionada.
Clique em Continuar.
No passo Detalhes do modelo, no campo Nome, introduza
hello_custom
. Clique em Continuar.No passo Contentor de preparação, faculte ao Vertex AI as informações necessárias para usar o pacote de preparação que carregou para o Cloud Storage:
Selecione Contentor pré-criado.
Na lista pendente Estrutura do modelo, selecione TensorFlow.
Na lista pendente Versão da estrutura do modelo, selecione 2.3.
No campo Localização do pacote, introduza
cloud-samples-data/ai-platform/hello-custom/hello-custom-sample-v1.tar.gz
.No campo Módulo Python, introduza
trainer.task
.trainer
é o nome do pacote Python no ficheiro tar.gz etask.py
contém o seu código de preparação. Por conseguinte,trainer.task
é o nome do módulo que quer que o Vertex AI execute.No campo Diretório de saída do modelo, clique em Procurar. Faça o seguinte no painel Selecionar pasta:
Navegue para o seu contentor do Cloud Storage.
Clique em Criar nova pasta
.Atribua o nome
output
à nova pasta. Em seguida, clique em Criar.Clique em Selecionar.
Confirme se esse campo tem o valor
gs://BUCKET_NAME/output
, em que BUCKET_NAME é o nome do seu contentor do Cloud Storage.Este valor é transmitido para o Vertex AI no campo
baseOutputDirectory
da API, que define várias variáveis de ambiente às quais a sua aplicação de preparação pode aceder quando é executada.Por exemplo, quando define este campo como
gs://BUCKET_NAME/output
, o Vertex AI define a variável de ambienteAIP_MODEL_DIR
comogs://BUCKET_NAME/output/model
. No final da preparação, o Vertex AI usa todos os artefactos no diretórioAIP_MODEL_DIR
para criar um recurso de modelo.Saiba mais acerca das variáveis de ambiente definidas por este campo.
Clique em Continuar.
No passo opcional Hiperparâmetros, certifique-se de que a caixa de verificação Ativar ajuste de hiperparâmetros está desmarcada. Este tutorial não usa o ajuste de hiperparâmetros. Clique em Continuar.
No passo Computação e preços, atribua recursos à tarefa de preparação personalizada:
Na lista pendente Região, selecione us-central1 (Iowa).
Na lista pendente Tipo de máquina, selecione n1-standard-4 na secção Standard.
Não adicione aceleradores nem grupos de trabalhadores para este tutorial. Clique em Continuar.
No passo Contentor de previsão, faculte ao Vertex AI as informações necessárias para publicar previsões:
Selecione Contentor pré-criado.
Na secção Definições do contentor pré-criado, faça o seguinte:
Na lista pendente Estrutura do modelo, selecione TensorFlow.
Na lista pendente Versão da estrutura do modelo, selecione 2.3.
Na lista pendente Tipo de acelerador, selecione Nenhum.
Confirme se o campo Diretório do modelo tem o valor
gs://BUCKET_NAME/output
, em que BUCKET_NAME é o nome do seu contentor do Cloud Storage. Isto corresponde ao valor de Diretório de saída do modelo que indicou num passo anterior.
Deixe os campos na secção Esquemas de previsão em branco.
Clique em Iniciar preparação para iniciar o pipeline de preparação personalizado.
O pipeline de treino cria um recurso de tarefa personalizada denominado
hello_custom-custom-job
. Após alguns momentos, pode ver este recurso na página Tarefas personalizadas da secção Formação:Aceda a Tarefas personalizadas
A tarefa personalizada executa a aplicação de preparação usando os recursos de computação que especificou nesta secção.
Após a conclusão da tarefa personalizada, o pipeline de preparação encontra os artefactos que a sua aplicação de preparação cria no diretório
output/model/
do seu contentor do Cloud Storage. Usa estes artefactos para criar um recurso model.Na Google Cloud consola, na secção Vertex AI, aceda à página Tarefas personalizadas.
Para ver os detalhes do
CustomJob
que acabou de criar, clique emhello_custom-custom-job
na lista.Na página de detalhes da tarefa, clique em Ver registos.
Execute um pipeline de preparação personalizado
Esta secção descreve a utilização do pacote de preparação que carregou para o Cloud Storage para executar um pipeline de preparação personalizado do Vertex AI.
Agora, pode ver o novo pipeline de preparação, denominado hello_custom
, na página Preparação. (Pode ter de atualizar a página.) O pipeline de
preparação faz duas coisas principais:
Monitorize a formação
Para ver os registos de preparação, faça o seguinte:
Veja o modelo preparado
Quando o pipeline de preparação personalizado estiver concluído, pode encontrar o modelo preparado na Google Cloud consola, na secção do Vertex AI, na página Modelos.
O modelo tem o nome hello_custom
.
O que se segue?
Siga a página seguinte deste tutorial para publicar previsões a partir do seu modelo de ML preparado.