Introdução ao AI Platform

Use o AI Platform para treinar os modelos de machine learning em escala, hospedar modelos treinados na nuvem, e fazer previsões sobre novos dados.

Função do AI Platform no fluxo de trabalho de ML

Veja no diagrama abaixo uma visão geral completa das fases em um fluxo de trabalho de ML. As caixas em azul indicam os locais em que o AI Platform fornece APIs e serviços gerenciados:

Fluxo de trabalho de ML
Fluxo de trabalho de ML

Como o diagrama indica, é possível usar o AI Platform para gerenciar os estágios a seguir no fluxo de trabalho de ML:

  • Treinar um modelo de ML com seus dados:

    • Treinar modelo
    • Avaliar a acurácia do modelo
    • Ajustar hiperparâmetros
  • Implantar seu modelo treinado

  • Enviar solicitações de predição para seu modelo:

    • Predição on-line
    • Predição em lote (apenas para o TensorFlow)
  • Monitorar as predições de maneira contínua

  • Gerenciar modelos e versões de modelo

Componentes do AI Platform

Nesta seção, você verá as peças que compõem o AI Platform e o objetivo principal de cada uma delas.

Serviço de treinamento

Com o serviço de treinamento do AI Platform, é possível treinar modelos usando uma ampla variedade de opções de personalização.

Selecione vários tipos de máquina diferentes para capacitar os jobs de treinamento, possibilitar o treinamento distribuído, usar o ajuste de hiperparâmetro e acelerar o processo com GPUs e TPUs.

Escolha maneiras diferentes de personalizar o aplicativo de treinamento. É possível enviar dados de entrada ao AI Platform para serem treinados por meio de um algoritmo integrado (Beta). Se os algoritmos integrados não são adequados ao seu caso de uso, envie o próprio aplicativo de treinamento para ser executado no AI Platform. Se preferir, crie um contêiner personalizado com o aplicativo de treinamento e as respectivas dependências para ser executado no AI Platform.

Serviço de previsão

Com o serviço de previsão do AI Platform, é possível exibir previsões com base em um modelo treinado no próprio AI Platform ou em outra ferramenta.

Serviço de rotulagem de dados

Com o serviço de rotulagem de dados do AI Platform (Beta), é possível solicitar a rotulagem humana de um conjunto de dados a ser usado para treinar um modelo personalizado de machine learning. É possível enviar uma solicitação para rotular dados de vídeo, imagem ou texto.

Para enviar uma solicitação de rotulagem, forneça uma amostra representativa de dados rotulados, especifique todos os possíveis rótulos para o conjunto de dados, e forneça algumas instruções sobre como aplicar esses rótulos. Os rotuladores humanos seguem suas instruções e, quando a solicitação de rotulagem é concluída, você recebe seu conjunto de dados anotado. Ele pode ser usado para treinar um modelo de machine learning.

Ferramentas para interagir com o AI Platform

Nesta seção, você verá as ferramentas usadas para interagir com o AI Platform.

Console do Google Cloud

É possível implantar modelos na nuvem e gerenciar seus modelos, versões e jobs no console do Google Cloud. Esta opção apresenta uma interface de usuário para trabalhar com recursos de machine learning. Como parte do Google Cloud, os recursos do seu AI Platform estão conectados a ferramentas úteis, como Cloud Logging e Cloud Monitoring.

A Google Cloud CLI

É possível gerenciar modelos e versões, enviar jobs e realizar outras tarefas do AI Platform na linha de comando com a ferramenta gcloud ai-platform.

São recomendados os comandos gcloud para a maioria das tarefas do AI Platform e a API REST (veja abaixo) para previsões on-line.

API REST

A API REST do AI Platform fornece serviços RESTful para gerenciar jobs, modelos e versões, além de fazer previsões com modelos hospedados no Google Cloud.

Use a biblioteca de cliente das APIs do Google para Python para acessar as APIs. Ao utilizar a biblioteca de cliente, você utiliza representações em Python dos recursos e objetos utilizados pela API. Isso é mais fácil e requer menos código do que trabalhar diretamente com solicitações HTTP.

É recomendado usar a API REST para disponibilizar previsões on-line separadamente.

Notebooks do Vertex AI Workbench gerenciados pelo usuário

As instâncias de notebooks gerenciados pelo usuário do Vertex AI Workbench permitem criar e gerenciar instâncias de máquina virtual (VM) de aprendizado profundo pré-empacotadas com o JupyterLab (em inglês).

As instâncias de notebooks gerenciados pelo usuário têm um conjunto pré-instalado de pacotes de aprendizado profundo, incluindo suporte para os frameworks do TensorFlow e do PyTorch. É possível configurar instâncias ativadas para GPU ou somente CPU.

Suas instâncias de notebooks gerenciados pelo usuário são protegidas pela autenticação e autorização do Google Cloud e estão disponíveis usando um URL de instância de notebooks gerenciados pelo usuário. As instâncias de notebooks gerenciados pelo usuário também são integradas ao GitHub (em inglês) e fazem sincronia com repositórios dessa plataforma.

Para saber mais, consulte a documentação sobre notebooks gerenciados pelo usuário.

VM de aprendizado profundo

O Deep Learning VM Images é um conjunto de imagens de máquina virtual otimizadas para tarefas de ciência de dados e machine learning. Todas essas imagens vêm com os principais frameworks e ferramentas de ML pré-instalados. É possível usá-los imediatamente em instâncias com GPUs para acelerar as tarefas de processamento de dados.

As imagens de VM de aprendizado profundo podem aceitar muitas combinações de framework e processador. Atualmente, há imagens compatíveis com o TensorFlow Enterprise, o TensorFlow, o PyTorch e a computação de alto desempenho genérica, com versões para fluxos de trabalho somente de CPU e ativados para GPU.

Para ver uma lista de frameworks disponíveis, consulte Como escolher uma imagem.

Para saber mais, consulte a documentação sobre VMs de aprendizado profundo.

A seguir