Esta página explica a integração do PyTorch do Vertex AI e fornece recursos que mostram como usar o PyTorch no Vertex AI. A integração do PyTorch do Vertex AI facilita a preparação, a implementação e a orquestração de modelos do PyTorch em produção.
Executar código em notebooks
O Vertex AI oferece duas opções para executar o seu código em blocos de notas: o Colab Enterprise e o Vertex AI Workbench. Para saber mais acerca destas opções, consulte o artigo escolha uma solução de bloco de notas.
Contentores pré-criados para preparação
O Vertex AI fornece imagens de contentores Docker pré-criadas para a preparação de modelos. Estes contentores estão organizados por frameworks de aprendizagem automática e versões de frameworks e incluem dependências comuns que pode querer usar no seu código de preparação. Para saber que versões do PyTorch têm contentores de preparação pré-criados e como preparar modelos com um contentor de preparação pré-criado, consulte o artigo Contentores pré-criados para preparação personalizada.
Contentores pré-criados para publicar inferências
A Vertex AI fornece imagens de contentores Docker pré-criadas para publicar inferências em lote e online. Estes contentores estão organizados por frameworks de aprendizagem automática e versões de frameworks e incluem dependências comuns que pode querer usar no seu código de inferência. Para saber que versões do PyTorch têm contentores de inferência pré-criados e como publicar modelos com um contentor de inferência pré-criado, consulte o artigo Contentores pré-criados para preparação personalizada.
Preparação distribuída
Pode executar a preparação distribuída de modelos PyTorch no Vertex AI. Para o treino com vários trabalhadores, pode usar o servidor de redução para otimizar ainda mais o desempenho para todas as operações coletivas de redução. Para saber mais sobre a preparação distribuída no Vertex AI, consulte o artigo Preparação distribuída.
Recursos para usar o PyTorch no Vertex AI
Para saber mais e começar a usar o PyTorch no Vertex AI, consulte os seguintes recursos:
- Como preparar e otimizar modelos PyTorch no Vertex AI: Saiba como usar o Vertex AI Training para criar e preparar um modelo de classificação de texto de sentimentos usando o PyTorch e o Vertex AI Hyperparameter Tuning para otimizar os hiperparâmetros dos modelos PyTorch.
- Como implementar modelos PyTorch na Vertex AI: Veja o passo a passo da implementação de um modelo Pytorch através do TorchServe como um contentor personalizado, implementando os artefactos do modelo num serviço de inferência da Vertex AI.
- Orquestrar fluxos de trabalho de ML do PyTorch no Vertex AI Pipelines: veja como criar e orquestrar pipelines de ML para preparar e implementar modelos do PyTorch no Google Cloud Vertex AI com o Vertex AI Pipelines.
- Fluxos de trabalho de ML escaláveis com o PyTorch nos Kubeflow Pipelines e Vertex Pipelines: Veja exemplos de fluxos de trabalho de ML baseados no PyTorch no OSS Kubeflow Pipelines (parte do projeto Kubeflow) e no Vertex AI Pipelines. Partilhamos os novos componentes incorporados do PyTorch adicionados aos Kubeflow Pipelines.
- Publicar modelos de imagens do PyTorch com contentores pré-criados no Vertex AI: este bloco de notas implementa um modelo de classificação de imagens do PyTorch no Vertex AI através de imagens de publicação do PyTorch pré-criadas.
O que se segue?
- Tutorial: use o Vertex AI para preparar um modelo de classificação de imagens do PyTorch num dos ambientes de contentores pré-criados do Vertex AI através da Google Cloud consola.
Para seguir orientações passo a passo para esta tarefa diretamente na Google Cloud consola, clique em Orientar-me: