Visão geral do Ray na Vertex AI

O Ray é um framework de código aberto para dimensionar aplicativos de IA e Python. O Ray fornece a infraestrutura para realizar computação distribuída e processamento paralelo para seu fluxo de trabalho de machine learning (ML).

Comparação entre a Ray e a Vertex AI

Se você já usa o Ray, pode usar o mesmo código do Ray de código aberto para criar programas e desenvolver aplicativos na Vertex AI com alterações mínimas. A partir daí, é possível usar as integrações da Vertex AI com outros serviços do Google Cloud, como as previsões da Vertex AI e o BigQuery, como parte do fluxo de trabalho de machine learning.

Se você já usa a Vertex AI e precisa de uma maneira mais simples para escalonar recursos de computação, use o o código do Ray para otimizar o desempenho das etapas de treinamento, ajuste de hiperparâmetros, previsões e disponibilização on-line.

Fluxo de trabalho para utilizar o Ray na Vertex AI

O processo para usar o Ray na Vertex AI é o seguinte:

Etapas Descrição
1. Configuração do Ray na Vertex AI Configure seu projeto do Google, instale a versão do SDK da Vertex AI para Python que inclui a funcionalidade do Ray Client e configure uma rede de peering de VPC.
2. Criar um cluster do Ray na Vertex AI Criar um cluster do Ray na Vertex AI.
3. Desenvolver um aplicativo do Ray na Vertex AI Conectar-se a um cluster do Ray na Vertex AI e desenvolver um aplicativo.
4. (Opcional) Usar o Ray na Vertex AI com o BigQuery Ler, gravar e transformar dados com o BigQuery.
5. (Opcional) Implantar um modelo na Vertex AI e receber previsões Implantar um modelo em um endpoint on-line da Vertex AI e receber previsões.
6. (Opcional) Ver os registros do cluster do Ray na Vertex AI Visualizar os registros gerados no Cloud Logging
7. Excluir um cluster do Ray na Vertex AI Excluir um cluster do Ray na Vertex AI para evitar faturamentos desnecessários.

Arquitetura

O diagrama a seguir mostra a arquitetura e o fluxo de trabalho do Ray na Vertex AI depois de o projeto do Google Cloud e a rede VPC serem configurados:

Arquitetura do Ray na Vertex AI

  1. Crie o cluster do Ray na Vertex AI usando as seguintes opções:

    1a. Use o console para criar o cluster do Ray na Vertex AI.

    1b. Criar o cluster do Ray na Vertex AI usando o SDK da Vertex AI para Python.

  2. Conecte-se ao cluster do Ray na Vertex AI por meio de uma rede com peering de VPC usando as seguintes opções:

    2a. Use o Colab Enterprise no console.

    2b. Use o notebook do Vertex AI Workbench.

  3. Desenvolva seu aplicativo e treine o modelo no cluster Ray na Vertex AI com as seguintes opções:

    • Use o SDK da Vertex AI para Python no ambiente de sua preferência (notebook do Colab Enterprise ou Vertex AI Workbench).

    • Crie um script Python usando o ambiente de sua preferência. Envie um job do Ray ao cluster do Ray na Vertex AI usando o SDK da Vertex AI para Python, a CLI do job do Ray ou o painel do Ray.

  4. Implante o modelo treinado em um endpoint on-line da Vertex AI para fazer previsões.

  5. Use o BigQuery para gerenciar seus dados.

Preços

O preço do Ray na Vertex AI é calculado da seguinte maneira:

  • Os recursos de computação que você usa são cobrados com base na configuração da máquina selecionada ao criar o cluster do Ray na Vertex AI. Durante o pré-lançamento, o uso do Ray na Vertex AI tem a mesma taxa de cobrança que a dos modelos treinados personalizados. Após o período de disponibilidade geral (GA, na sigla em inglês), o valor aumenta para refletir o preço do Ray na Vertex AI. Você vai receber uma notificação sobre a mudança de preço quando o Ray na Vertex AI entrar no período de GA.

  • Quando você executa tarefas usando o cluster do Ray na Vertex AI, os registros são gerados e cobrados automaticamente com base nos preços do Cloud Logging.

  • Se você implantar o modelo em um endpoint para receber previsões on-line, consulte a seção "Previsão e explicação" da página de preços da Vertex AI.

  • Se você usa o BigQuery com o Ray na Vertex AI, consulte Preços do BigQuery.

A seguir