Panoramica di Ray on Vertex AI

Ray è un framework open source per scalare AI e le applicazioni Python. Ray fornisce l'infrastruttura per eseguire computing ed elaborazione parallela per il flusso di lavoro di machine learning (ML).

Confronto tra Ray e Vertex AI

Se usi già Ray, puoi usare lo stesso codice Ray open source per scrivere e sviluppare applicazioni su Vertex AI con modifiche minime. Puoi quindi utilizzare le integrazioni di Vertex AI con altri servizi Google Cloud come Vertex AI Prediction e BigQuery nell'ambito del tuo flusso di lavoro di machine learning.

Se utilizzi già Vertex AI e hai bisogno di un modo più semplice per scalare il computing puoi usare Ray Code per ottimizzare le prestazioni dell'addestramento, ottimizzazione degli iperparametri, previsioni e passaggi per la distribuzione online.

Flusso di lavoro per l'utilizzo di Ray su Vertex AI

Utilizza Colab Enterprise e l'SDK Vertex AI per Python per connetterti al cluster Ray.

Passaggi Descrizione
1. Configurazione per Ray su Vertex AI Configura il progetto Google, installa la versione dell'SDK Vertex AI per Python che include la funzionalità del client Ray, quindi configura una rete di peering VPC, facoltativa.
2. Crea un cluster Ray su Vertex AI Crea un cluster Ray su Vertex AI. È richiesto il ruolo Amministratore di Vertex AI.
3. Sviluppa un'applicazione Ray su Vertex AI Connettiti a un cluster Ray su Vertex AI e sviluppa un'applicazione. Il ruolo utente Vertex AI è obbligatorio.
4. (Facoltativo) Utilizzare Ray su Vertex AI con BigQuery Leggi, scrivi e trasforma i dati con BigQuery.
5. (Facoltativo) Eseguire il deployment di un modello su Vertex AI e ottenere previsioni Eseguire il deployment di un modello in un endpoint online di Vertex AI e ottenere previsioni.
6. Monitora il cluster Ray su Vertex AI Monitorare i log generati in Cloud Logging e le metriche in Cloud Monitoring.
7. Elimina un cluster Ray su Vertex AI Elimina un cluster Ray su Vertex AI per evitare addebiti non necessari.

Panoramica

I cluster Ray sono integrati per garantire la disponibilità di capacità per le attività di ML critiche carichi di lavoro aziendali o durante i periodi di picco. A differenza dei job personalizzati, in cui l'addestramento rilascia la risorsa al completamento del job, i cluster Ray disponibile fino all'eliminazione.

Nota: utilizza cluster Ray a lunga esecuzione in questi scenari:

  • Se invii lo stesso job Ray più volte e puoi trarre vantaggio da la memorizzazione nella cache di dati e immagini eseguendo i job sulla stessa di cluster Ray.
  • Se esegui molti job Ray di breve durata in cui il tempo di elaborazione effettivo è rispetto ai tempi di avvio del job, può essere utile avere a lunga esecuzione.

I cluster Ray su Vertex AI possono essere configurati con servizi pubblici o privati e la connettività privata. I seguenti diagrammi mostrano l'architettura e il flusso di lavoro per Ray su Vertex AI. Per ulteriori informazioni, vedi Connettività pubblica o privata.

Architettura con connettività pubblica

Connettività pubblica Ray on Vertex AI

  1. Crea il cluster Ray su Vertex AI utilizzando le seguenti opzioni:

    a. Utilizzare la console Google Cloud per creare il cluster Ray su Vertex AI.

    b. Creare il cluster Ray su Vertex AI utilizzando l'SDK Vertex AI per Python.

  2. Connettiti al cluster Ray su Vertex AI per uno sviluppo interattivo utilizzando le seguenti opzioni:

    a. Utilizza Colab Enterprise nella console Google Cloud per una connessione senza interruzioni.

    b. Utilizza qualsiasi ambiente Python accessibile sulla rete internet pubblica.

  3. Sviluppa la tua applicazione e addestra il tuo modello sul cluster Ray Vertex AI -

    • Utilizza l'SDK Vertex AI per Python nel tuo ambiente preferito. (Colab Enterprise o qualsiasi blocco note Python).

    • Scrivi uno script Python utilizzando il tuo ambiente preferito.

    • Inviare un Ray Job al cluster Ray su Vertex AI utilizzando SDK Vertex AI per Python, interfaccia a riga di comando Ray Job o API Ray Job Submission.

  4. Esegui il deployment del modello addestrato su un endpoint Vertex AI online per la previsione.

  5. Utilizza BigQuery per gestire i tuoi dati.

Architettura con VPC

Il seguente diagramma mostra l'architettura e il flusso di lavoro per Ray on Vertex AI Dopo aver configurato il progetto Google Cloud e la rete VPC (facoltativo):

Ray su Vertex AI vpc

  1. Configura il tuo (a) progetto Google e (b) la tua rete VPC.

  2. Crea il cluster Ray su Vertex AI utilizzando le seguenti opzioni:

    a. Utilizzare la console Google Cloud per creare il cluster Ray su Vertex AI.

    b. Creare il cluster Ray su Vertex AI utilizzando l'SDK Vertex AI per Python.

  3. Connettiti al cluster Ray su Vertex AI tramite una rete in peering VPC utilizzando le seguenti opzioni:

  4. Sviluppa la tua applicazione e addestra il tuo modello sul cluster Ray su Vertex AI utilizzando le seguenti opzioni:

    • Utilizza l'SDK Vertex AI per Python nel tuo ambiente preferito. (Colab Enterprise o un blocco note Vertex AI Workbench).

    • Scrivi uno script Python utilizzando il tuo ambiente preferito. Invia un job Ray al cluster Ray su Vertex AI utilizzando l'SDK Vertex AI per Python, interfaccia a riga di comando Ray Job o dashboard Ray.

  5. Eseguire il deployment del modello addestrato a un endpoint Vertex AI online per le previsioni.

  6. Utilizza BigQuery per gestire i tuoi dati.

Prezzi

I prezzi di Ray on Vertex AI vengono calcolati come segue:

  • Le risorse di computing che utilizzi vengono addebitate in base alla configurazione della macchina selezionato durante la creazione del cluster Ray su Vertex AI. Per i prezzi di Ray on Vertex AI, consulta la pagina dei prezzi.

  • Per quanto riguarda i cluster Ray, ti vengono addebitati dei costi solo durante le fasi di ESECUZIONE e AGGIORNAMENTO stati. Non vengono addebitati costi in altri stati. L'importo addebitato si basa sulla dimensione effettiva del cluster al momento.

  • Quando esegui attività utilizzando il cluster Ray su Vertex AI, i log vengono generate e addebitate automaticamente in base a Cloud Logging pricing.

  • Se esegui il deployment del modello su un endpoint per le previsioni online, consulta Sezione "Previsione e spiegazione" di Vertex AI dei prezzi.

  • Se utilizzi BigQuery con Ray su Vertex AI, vedi Prezzi di BigQuery.

Passaggi successivi