O Ray é um framework de código aberto para dimensionar aplicativos de IA e Python. O Ray fornece a infraestrutura para realizar computação distribuída e processamento paralelo para seu fluxo de trabalho de machine learning (ML).
Se você já usa o Ray, pode usar o mesmo código do Ray de código aberto para criar programas e desenvolver aplicativos na Vertex AI com alterações mínimas. A partir daí, é possível usar as integrações da Vertex AI com outros serviços do Google Cloud, como a previsão da Vertex AI e o BigQuery, como parte do fluxo de trabalho de machine learning.
Se você já usa a Vertex AI e precisa de uma maneira mais simples para escalonar recursos de computação, use o o código do Ray para otimizar o desempenho das etapas de treinamento, ajuste de hiperparâmetros, previsões e disponibilização on-line.
Fluxo de trabalho para utilizar o Ray na Vertex AI
Use o Colab Enterprise e o SDK da Vertex AI para Python para se conectar ao cluster do Ray.
Etapas | Descrição |
---|---|
1. Configuração do Ray na Vertex AI | Configure seu projeto do Google, instale a versão do SDK da Vertex AI para Python que inclui a funcionalidade do Ray Client e configure uma rede de peering de VPC (opcional). |
2. Criar um cluster do Ray na Vertex AI | Criar um cluster do Ray na Vertex AI. O papel de administrador da Vertex AI é obrigatório. |
3. Desenvolver um aplicativo do Ray na Vertex AI | Conectar-se a um cluster do Ray na Vertex AI e desenvolver um aplicativo. A função do usuário da Vertex AI é obrigatória. |
4. (Opcional) Usar o Ray na Vertex AI com o BigQuery | Ler, gravar e transformar dados com o BigQuery. |
5. (Opcional) Implantar um modelo na Vertex AI e receber previsões | Implantar um modelo em um endpoint on-line da Vertex AI e receber previsões. |
6. Monitorar seu cluster do Ray na Vertex AI | Monitorar os registros gerados no Cloud Logging e as métricas no Cloud Monitoring. |
7. Excluir um cluster do Ray na Vertex AI | Excluir um cluster do Ray na Vertex AI para evitar faturamentos desnecessários. |
Visão geral
Os clusters Ray são integrados para garantir a disponibilidade de capacidade para ML essenciais. cargas de trabalho ou durante períodos de pico. Ao contrário dos jobs personalizados, libera o recurso após a conclusão do job, os clusters Ray permanecem disponível até a exclusão.
Observação: use clusters Ray de longa duração nestes cenários:
- Se você enviar o mesmo job do Ray várias vezes e puder se beneficiar do armazenamento em cache de imagens e dados com a execução dos jobs na mesma execução Aglomerados de raios.
- Se você executar muitos jobs do Ray de curta duração em que o tempo de processamento real menor que o tempo de inicialização da tarefa, pode ser vantajoso ter um um cluster de longa duração.
Os clusters do Ray na Vertex AI podem ser configurados com conectividade pública ou particular. Os diagramas a seguir mostram a arquitetura e o fluxo de trabalho do Ray na Vertex AI. Consulte Conectividade pública ou particular para mais informações.
Arquitetura com conectividade pública
Crie o cluster do Ray na Vertex AI usando as seguintes opções:
a. Use o console do Google Cloud para criar o cluster do Ray na Vertex AI.
b. Criar o cluster do Ray na Vertex AI usando o SDK da Vertex AI para Python.
Conecte-se ao cluster do Ray na Vertex AI para ter desenvolvimento interativo usando as seguintes opções:
a. Use o Colab Enterprise no console do Google Cloud para uma conexão perfeita.
b. Use qualquer ambiente Python acessível à Internet pública.
Desenvolva seu aplicativo e treine o modelo no cluster Ray na Vertex AI:
Use o SDK da Vertex AI para Python no ambiente de sua preferência (Colab Enterprise ou qualquer notebook Python).
Crie um script Python usando o ambiente de sua preferência.
Envie um job do Ray para o cluster do Ray na Vertex AI usando o SDK da Vertex AI para Python, a CLI do Ray Job ou a API Ray Job Submission.
Implante o modelo treinado em um endpoint on-line da Vertex AI para previsão em tempo real.
Use o BigQuery para gerenciar seus dados.
Arquitetura com VPC
O diagrama a seguir mostra a arquitetura e o fluxo de trabalho do Ray na Vertex AI após a configuração do projeto do Google Cloud e da rede VPC, o que é opcional:
Configure (a) o projeto do Google e (b) a rede VPC.
Crie o cluster do Ray na Vertex AI usando as seguintes opções:
a. Use o console do Google Cloud para criar o cluster do Ray na Vertex AI.
b. Criar o cluster do Ray na Vertex AI usando o SDK da Vertex AI para Python.
Conecte-se ao cluster do Ray na Vertex AI por meio de uma rede com peering de VPC usando as seguintes opções:
Use o Colab Enterprise no console do Google Cloud.
Use um notebook do Vertex AI Workbench.
Desenvolva seu aplicativo e treine o modelo no cluster Ray na Vertex AI com as seguintes opções:
Use o SDK da Vertex AI para Python no ambiente de sua preferência (notebook do Vertex AI Workbench ou Colab Enterprise).
Crie um script Python usando o ambiente de sua preferência. Envie um job do Ray ao cluster do Ray na Vertex AI usando o SDK da Vertex AI para Python, a CLI do job do Ray ou o painel do Ray.
Implante o modelo treinado em um endpoint on-line da Vertex AI para fazer previsões.
Use o BigQuery para gerenciar seus dados.
Preços
O preço do Ray na Vertex AI é calculado da seguinte maneira:
Os recursos de computação que você usa são cobrados com base na configuração da máquina selecionada ao criar o cluster do Ray na Vertex AI. Para conferir os preços do Ray na Vertex AI, consulte a página de preços.
Com relação aos clusters do Ray, você só é cobrado durante os estados de EXECUÇÃO e ATUALIZAÇÃO. Nenhum outro estado é cobrado. O valor cobrado é baseado no tamanho real do cluster no momento.
Quando você executa tarefas usando o cluster do Ray na Vertex AI, os registros são gerados e cobrados automaticamente com base nos preços do Cloud Logging.
Se você implantar o modelo em um endpoint para receber previsões on-line, consulte a seção "Previsão e explicação" da página de preços da Vertex AI.
Se você usa o BigQuery com o Ray na Vertex AI, consulte Preços do BigQuery.