O Ray é um framework de código aberto para dimensionar aplicativos de IA e Python. O Ray fornece a infraestrutura para realizar computação distribuída e processamento paralelo para seu fluxo de trabalho de machine learning (ML).
Se você já usa o Ray, pode usar o mesmo código do Ray de código aberto para criar programas e desenvolver aplicativos na Vertex AI com alterações mínimas. A partir daí, é possível usar as integrações da Vertex AI com outros serviços do Google Cloud, como as previsões da Vertex AI e o BigQuery, como parte do fluxo de trabalho de machine learning.
Se você já usa a Vertex AI e precisa de uma maneira mais simples para escalonar recursos de computação, use o o código do Ray para otimizar o desempenho das etapas de treinamento, ajuste de hiperparâmetros, previsões e disponibilização on-line.
Fluxo de trabalho para utilizar o Ray na Vertex AI
O processo para usar o Ray na Vertex AI é o seguinte:
Etapas | Descrição |
---|---|
1. Configuração do Ray na Vertex AI | Configure seu projeto do Google, instale a versão do SDK da Vertex AI para Python que inclui a funcionalidade do Ray Client e configure uma rede de peering de VPC. |
2. Criar um cluster do Ray na Vertex AI | Criar um cluster do Ray na Vertex AI. |
3. Desenvolver um aplicativo do Ray na Vertex AI | Conectar-se a um cluster do Ray na Vertex AI e desenvolver um aplicativo. |
4. (Opcional) Usar o Ray na Vertex AI com o BigQuery | Ler, gravar e transformar dados com o BigQuery. |
5. (Opcional) Implantar um modelo na Vertex AI e receber previsões | Implantar um modelo em um endpoint on-line da Vertex AI e receber previsões. |
6. (Opcional) Ver os registros do cluster do Ray na Vertex AI | Visualizar os registros gerados no Cloud Logging |
7. Excluir um cluster do Ray na Vertex AI | Excluir um cluster do Ray na Vertex AI para evitar faturamentos desnecessários. |
Arquitetura
O diagrama a seguir mostra a arquitetura e o fluxo de trabalho do Ray na Vertex AI depois de o projeto do Google Cloud e a rede VPC serem configurados:
Crie o cluster do Ray na Vertex AI usando as seguintes opções:
1a. Use o console para criar o cluster do Ray na Vertex AI.
1b. Criar o cluster do Ray na Vertex AI usando o SDK da Vertex AI para Python.
Conecte-se ao cluster do Ray na Vertex AI por meio de uma rede com peering de VPC usando as seguintes opções:
2a. Use o Colab Enterprise no console.
2b. Use o notebook do Vertex AI Workbench.
Desenvolva seu aplicativo e treine o modelo no cluster Ray na Vertex AI com as seguintes opções:
Use o SDK da Vertex AI para Python no ambiente de sua preferência (notebook do Colab Enterprise ou Vertex AI Workbench).
Crie um script Python usando o ambiente de sua preferência. Envie um job do Ray ao cluster do Ray na Vertex AI usando o SDK da Vertex AI para Python, a CLI do job do Ray ou o painel do Ray.
Implante o modelo treinado em um endpoint on-line da Vertex AI para fazer previsões.
Use o BigQuery para gerenciar seus dados.
Preços
O preço do Ray na Vertex AI é calculado da seguinte maneira:
Os recursos de computação que você usa são cobrados com base na configuração da máquina selecionada ao criar o cluster do Ray na Vertex AI. Durante o pré-lançamento, o uso do Ray na Vertex AI tem a mesma taxa de cobrança que a dos modelos treinados personalizados. Após o período de disponibilidade geral (GA, na sigla em inglês), o valor aumenta para refletir o preço do Ray na Vertex AI. Você vai receber uma notificação sobre a mudança de preço quando o Ray na Vertex AI entrar no período de GA.
Quando você executa tarefas usando o cluster do Ray na Vertex AI, os registros são gerados e cobrados automaticamente com base nos preços do Cloud Logging.
Se você implantar o modelo em um endpoint para receber previsões on-line, consulte a seção "Previsão e explicação" da página de preços da Vertex AI.
Se você usa o BigQuery com o Ray na Vertex AI, consulte Preços do BigQuery.