Nesta seção, descrevemos os serviços da Vertex AI que ajudam a implementar operações de machine learning (MLOps) com seu fluxo de trabalho de machine learning (ML).
Depois de implantados, os modelos precisam acompanhar a alteração de dados do ambiente para ter um desempenho ideal e se manter relevantes. MLOps é um conjunto de práticas que melhoram a estabilidade e a confiabilidade dos sistemas de ML.
As ferramentas de MLOps da Vertex AI ajudam a colaborar com as equipes de IA e melhorar os modelos por meio de monitoramento preditivo, alerta, diagnóstico e explicações acionáveis. Todas as ferramentas são modulares, para que você possa integrá-las aos seus sistemas atuais conforme necessário.
Para mais informações sobre MLOps, consulte Pipelines de entrega e automação contínuos em machine learning e o Guia de práticas para MLOps.
Orquestre fluxos de trabalho: o treinamento e a exibição manuais dos modelos podem ser demorados e propensos a erros, principalmente se você precisar repetir os processos muitas vezes.
- O Vertex AI Pipelines ajuda a automatizar, monitorar e controlar seus fluxos de trabalho de ML.
Rastrear os metadados usados no seu sistema de ML: na ciência de dados, é importante rastrear os parâmetros, artefatos e métricas usados no fluxo de trabalho de ML, especialmente quando você repete vários fluxos de trabalho vezes.
- O Vertex ML Metadata permite que você registre os metadados, parâmetros e artefatos usados no seu sistema de ML. Em seguida, é possível consultar esses metadados para ajudar a analisar, depurar e auditar o desempenho do sistema de ML ou dos artefatos que ele produz.
Identificar o melhor modelo para um caso de uso: ao testar novos algoritmos de treinamento, você precisa saber qual modelo treinado tem o melhor desempenho.
Os Experimentos da Vertex AI permitem rastrear e analisar diferentes arquiteturas de modelo, hiperparâmetros e ambientes de treinamento para identificar o melhor modelo para seu caso de uso.
O Vertex AI TensorBoard ajuda a rastrear, visualizar e comparar experimentos de ML para medir o desempenho dos modelos.
Gerencie versões de modelos: adicionar modelos a um repositório central ajuda a acompanhar as versões de modelos.
- O Vertex AI Model Registry fornece uma visão geral dos seus modelos para que você possa organizar, rastrear e treinar melhor novas versões. No Model Registry, é possível avaliar modelos, implantar modelos em um endpoint, criar previsões em lote e visualizar detalhes sobre modelos específicos e versões de modelos.
Gerenciar recursos: ao reutilizar recursos de ML em várias equipes, você precisa de uma maneira rápida e eficiente de compartilhar e exibir os recursos.
- O Feature Store da Vertex AI oferece um repositório centralizado para organizar, armazenar e exibir atributos de ML. Um featurestore central permite que uma organização reutilize recursos de ML em escala e aumente a velocidade de desenvolvimento e implantação de novos aplicativos de ML.
Monitorar a qualidade do modelo: um modelo implantado em produção tem um desempenho melhor nos dados de entrada de previsão semelhantes aos dados de treinamento. Quando os dados de entrada se desviam dos dados usados para treinar o modelo, o desempenho do modelo pode se deteriorar, mesmo que o próprio modelo não tenha mudado.
- O Vertex AI Model Monitoring monitora modelos para deslocamento de previsão e desvio de treinamento e envia alertas quando os dados de previsão de entrada estão muito distantes do valor de referência de treinamento. É possível usar os alertas e as distribuições de recursos para avaliar se você precisa treinar novamente seu modelo.
Escalonar aplicativos de IA e Python: o Ray é um framework de código aberto para escalonar aplicativos de IA e Python. O Ray fornece a infraestrutura para realizar computação distribuída e processamento paralelo para seu fluxo de trabalho de machine learning (ML).
- O Ray na Vertex AI foi projetado para que você possa usar o mesmo código aberto Ray para escrever programas e desenvolver aplicativos na Vertex AI com alterações mínimas. A partir daí, é possível usar as integrações da Vertex AI com outros serviços do Google Cloud, como a previsão da Vertex AI e o BigQuery, como parte do fluxo de trabalho de machine learning.