O IA Platform Pipelines fornece uma plataforma que pode ser usada para automatizar seu fluxo de trabalho de machine learning (ML) como um pipeline. Ao executar seu processo de machine learning como um pipeline, é possível fazer o seguinte:
- Executar pipelines ad-hoc.
- Programar execuções recorrentes para treinar seu modelo regularmente.
- Fazer testes usando seu pipeline com diferentes conjuntos de hiperparâmetros, número de etapas de treinamento ou iterações etc. Compare os resultados dos seus testes.
Neste guia, descrevemos como executar um pipeline e programar execuções recorrentes. Além disso, fornecemos recursos que podem ser usados para saber mais sobre a interface do usuário do Kubeflow Pipelines.
Antes de começar
Neste guia, descrevemos como usar a interface do usuário do Kubeflow Pipelines para executar um pipeline. Antes de executar um pipeline, configure o cluster do AI Platform Pipelines e verifique se você tem permissões suficientes para acessar o cluster dele.
Executar um pipeline de machine learning
Use as instruções a seguir para executar um pipeline de ML no cluster do AI Platform Pipelines.
Abra o AI Platform Pipelines no Console do Google Cloud.
Clique em Abrir painel de pipelines para o cluster do Kubeflow Pipelines. A interface do usuário do Kubeflow Pipelines é aberta em uma nova guia.
No painel de navegação à esquerda, clique em Pipelines.
Clique no nome do pipeline que você quer executar. Se você ainda não carregou um pipeline, clique no nome de um exemplo de pipeline, como [Demo] TFX - Taxi Tip Prediction Model Trainer. Será aberto um gráfico que exibe as etapas no pipeline.
Para executar ou programar o pipeline, clique em Criar execução. Será aberto um formulário para você inserir os detalhes da execução.
Antes de executar um pipeline, é preciso especificar os detalhes da execução, o tipo de execução e os parâmetros de execução.
Na seção Detalhes da execução, especifique o seguinte:
- Pipeline: selecione o pipeline que você quer executar.
- Versão do pipeline: selecione a versão do pipeline que você quer executar.
- Nome da execução: insira um nome exclusivo para essa execução. Use o nome para encontrar essa execução mais tarde.
- Descrição (opcional): insira uma descrição para fornecer mais informações sobre essa execução.
- Teste (opcional): para agrupar execuções relacionadas, selecione um teste.
Na seção Tipo de execução, indique com que frequência essa execução precisa ser executada.
- Selecione esta opção se for Uma vez ou Recorrente.
Se esta for uma execução recorrente, especifique o acionador de execução:
- Tipo de acionador: selecione esta opção se ela for acionada periodicamente ou com base em uma programação cron.
- Máximo de execuções simultâneas: insira o número máximo de execuções que podem estar ativas de uma só vez.
- Tem data de início: marque Tem data de início e insira Data de início e Horário de início para especificar quando esse acionador começará a gerar execuções.
- Tem data de término: marque Tem data de término e insira Data de término e Hora de término para especificar quando esse acionador parará de gerar execuções.
- Executar a cada: selecione a frequência para acionar novas execuções. Se esta execução for acionada com base em uma programação cronológica, marque Permitir edição da expressão Cron para inserir diretamente uma expressão Cron.
Nos parâmetros de execução, personalize os parâmetros do pipeline para essa execução. É possível usar parâmetros para definir valores como caminhos a fim de carregar dados de treinamento ou armazenar artefatos, hiperparâmetros, o número de iterações de treinamento etc. Os parâmetros de um pipeline são definidos quando o pipeline é criado.
Se você estiver executando o pipeline [Demo] TFX - Taxi Tip Prediction Model Trainer, especifique o seguinte:
pipeline-root: o parâmetro de raiz do pipeline especifica onde a saída do pipeline será armazenada. Esse pipeline salva os artefatos de execução no bucket padrão do Cloud Storage do AI Platform Pipelines.
É possível substituir esse valor para especificar o caminho em um bucket diferente do Cloud Storage que o cluster pode acessar. Saiba mais sobre como criar um bucket do Cloud Storage.
data-root: o parâmetro data-root especifica o caminho para os dados de treinamento do pipeline. Use o valor padrão.
module-file: o parâmetro module-file especifica o caminho para o código-fonte de um módulo usado nesse pipeline. Use o valor padrão.
Ao carregar o código de um bucket do Cloud Storage, é possível alterar rapidamente o comportamento de um componente sem recriar a imagem do contêiner do componente.
Clique em Iniciar. O painel de pipelines exibe uma lista de execuções de pipeline.
Clique no nome da sua execução na lista de execuções do pipeline. Será exibido o grafo da execução. Enquanto sua execução ainda está em andamento, o gráfico é alterado à medida que cada etapa é executada.
Clique nas etapas do pipeline para explorar as entradas, saídas e registros da execução, entre outras informações.
Noções básicas sobre a interface do usuário do Kubeflow Pipelines
Use os seguintes recursos para saber mais sobre a interface do usuário do Kubeflow Pipelines
- Saiba mais sobre as metas e os principais conceitos do Kubeflow Pipelines (em inglês)
- Leia uma visão geral das interfaces do Kubeflow Pipelines (em inglês)
- Saiba mais sobre a terminologia usada no Kubeflow Pipelines (em inglês)
A seguir
- Orquestre o processo de ML como um pipeline.
- Saiba como se conectar ao cluster do AI Plaftform Pipelines usando o SDK do Kubeflow Pipelines.