Integração do TensorFlow

Esta página explica a integração do TensorFlow do Vertex AI e disponibiliza recursos que mostram como usar o TensorFlow no Vertex AI. A integração do TensorFlow do Vertex AI facilita a preparação, a implementação e a orquestração de modelos do TensorFlow em produção.

Executar código em notebooks

O Vertex AI oferece duas opções para executar o seu código em blocos de notas: o Colab Enterprise e o Vertex AI Workbench. Para saber mais acerca destas opções, consulte o artigo escolha uma solução de bloco de notas.

Contentores pré-criados para preparação

O Vertex AI fornece imagens de contentores Docker pré-criadas para a preparação de modelos. Estes contentores estão organizados por frameworks de aprendizagem automática e versões de frameworks e incluem dependências comuns que pode querer usar no seu código de preparação.

Para saber que versões do TensorFlow têm contentores de preparação pré-criados e como preparar modelos com um contentor de preparação pré-criado, consulte o artigo Contentores pré-criados para preparação personalizada.

Preparação distribuída

Pode executar a preparação distribuída de modelos do TensorFlow no Vertex AI. Para o treino com vários trabalhadores, pode usar o servidor de redução para otimizar ainda mais o desempenho para todas as operações coletivas de redução. Para saber mais sobre a preparação distribuída no Vertex AI, consulte o artigo Preparação distribuída.

Contentores pré-criados para inferência

Tal como os contentores pré-criados para a preparação, o Vertex AI fornece imagens de contentores pré-criados para publicar inferências e explicações a partir de modelos do TensorFlow que criou no Vertex AI ou fora deste. Estas imagens fornecem servidores de inferência HTTP que pode usar para publicar inferências com uma configuração mínima.

Para saber que versões do TensorFlow têm contentores de preparação pré-criados e como preparar modelos com um contentor de preparação pré-criado, consulte o artigo Contentores pré-criados para preparação personalizada.

Tempo de execução do TensorFlow otimizado

O tempo de execução do TensorFlow otimizado usa otimizações de modelos e novas tecnologias proprietárias da Google para melhorar a velocidade e reduzir o custo das inferências em comparação com os contentores de inferência pré-criados padrão do Vertex AI para o TensorFlow.

Integração do TensorFlow Cloud Profiler

Prepare modelos de forma mais barata e rápida monitorizando e otimizando o desempenho da tarefa de preparação através da integração do TensorFlow Cloud Profiler do Vertex AI. O TensorFlow Cloud Profiler ajuda a compreender o consumo de recursos das operações de preparação para que possa identificar e eliminar os gargalos de desempenho.

Para saber mais sobre o TensorFlow Cloud Profiler do Vertex AI, consulte o artigo Analise o desempenho da preparação de modelos com o Profiler.

Recursos para usar o TensorFlow no Vertex AI

Para saber mais e começar a usar o TensorFlow no Vertex AI, consulte os seguintes recursos.