Panoramica di Ray on Vertex AI

Ray è un framework open source per la scalabilità delle applicazioni di AI e Python. Ray fornisce l'infrastruttura necessaria per eseguire il calcolo distribuito e l'elaborazione parallela per il tuo flusso di lavoro di machine learning (ML).

Confronto tra Ray e Vertex AI

Se già utilizzi Ray, puoi usare lo stesso codice Ray open source per scrivere programmi e sviluppare applicazioni su Vertex AI con modifiche minime. Puoi quindi utilizzare le integrazioni di Vertex AI con altri servizi Google Cloud come le previsioni di Vertex AI e BigQuery nell'ambito del tuo flusso di lavoro di machine learning.

Se utilizzi già Vertex AI e hai bisogno di un modo più semplice per scalare le risorse di calcolo, puoi utilizzare il codice Ray per ottimizzare le prestazioni dell'addestramento, dell'ottimizzazione degli iperparametri, delle previsioni e delle fasi di distribuzione online.

Flusso di lavoro per l'utilizzo di Ray su Vertex AI

Utilizza Colab Enterprise e l'SDK Vertex AI per Python per connetterti al cluster Ray.

Passaggi Descrizione
1. Configurazione per Ray su Vertex AI Configura il progetto Google, installa la versione dell'SDK Vertex AI per Python che include la funzionalità del client Ray, quindi configura una rete di peering VPC, facoltativa.
2. Crea un cluster Ray su Vertex AI Crea un cluster Ray su Vertex AI.
3. Sviluppa un'applicazione Ray su Vertex AI Connettiti a un cluster Ray su Vertex AI e sviluppa un'applicazione.
4. (Facoltativo) Utilizzare Ray su Vertex AI con BigQuery Leggi, scrivi e trasforma i dati con BigQuery.
5. (Facoltativo) Eseguire il deployment di un modello su Vertex AI e ottenere previsioni Eseguire il deployment di un modello in un endpoint online di Vertex AI e ottenere previsioni.
6. Monitora il cluster Ray su Vertex AI Monitorare i log generati in Cloud Logging e le metriche in Cloud Monitoring.
7. Elimina un cluster Ray su Vertex AI Elimina un cluster Ray su Vertex AI per evitare addebiti non necessari.

Panoramica

I cluster Ray sono integrati per garantire la disponibilità di capacità per carichi di lavoro ML critici o durante i periodi di picco. A differenza dei job personalizzati, in cui il servizio di addestramento rilascia la risorsa dopo il completamento del job, i cluster Ray rimangono disponibili fino all'eliminazione.

Nota: utilizza cluster Ray a lunga esecuzione in questi scenari:

  • Se invii più volte lo stesso job Ray e puoi trarre vantaggio dalla memorizzazione nella cache di dati e immagini eseguendo i job sugli stessi cluster Ray a lunga esecuzione.
  • Se esegui molti job Ray di breve durata in cui il tempo di elaborazione effettivo è più breve del tempo di avvio del job, potrebbe essere utile avere un cluster a lunga esecuzione.

I cluster Ray su Vertex AI possono essere configurati con connettività pubblica o privata. I seguenti diagrammi mostrano l'architettura e il flusso di lavoro per Ray on Vertex AI. Per ulteriori informazioni, vedi Connettività pubblica o privata.

Architettura con connettività pubblica

Connettività pubblica Ray on Vertex AI

  1. Crea il cluster Ray su Vertex AI utilizzando le seguenti opzioni:

    a. Utilizzare la console Google Cloud per creare il cluster Ray su Vertex AI.

    b. Creare il cluster Ray su Vertex AI utilizzando l'SDK Vertex AI per Python.

  2. Connettiti al cluster Ray su Vertex AI per uno sviluppo interattivo utilizzando le seguenti opzioni:

    a. Utilizza Colab Enterprise nella console Google Cloud per una connessione senza interruzioni.

    b. Utilizza qualsiasi ambiente Python accessibile sulla rete internet pubblica.

  3. Sviluppa la tua applicazione e addestra il tuo modello sul cluster Ray su Vertex AI:

    • Utilizza l'SDK Vertex AI per Python nel tuo ambiente preferito (Colab Enterprise o qualsiasi blocco note Python).

    • Scrivi uno script Python utilizzando il tuo ambiente preferito.

    • Invia un Ray Job al cluster Ray su Vertex AI utilizzando l'SDK Vertex AI per Python, Ray Job CLI o l'API Ray Job Submission.

  4. Esegui il deployment del modello addestrato a un endpoint Vertex AI online per le previsioni in tempo reale.

  5. Utilizza BigQuery per gestire i tuoi dati.

Architettura con VPC

Il seguente diagramma mostra l'architettura e il flusso di lavoro per Ray on Vertex AI dopo aver configurato il progetto Google Cloud e la rete VPC (opzione facoltativa):

Ray su Vertex AI vpc

  1. Configura il tuo (a) progetto Google e (b) la tua rete VPC.

  2. Crea il cluster Ray su Vertex AI utilizzando le seguenti opzioni:

    a. Utilizzare la console Google Cloud per creare il cluster Ray su Vertex AI.

    b. Creare il cluster Ray su Vertex AI utilizzando l'SDK Vertex AI per Python.

  3. Connettiti al cluster Ray su Vertex AI tramite una rete in peering VPC utilizzando le seguenti opzioni:

  4. Sviluppa la tua applicazione e addestra il tuo modello sul cluster Ray su Vertex AI utilizzando le seguenti opzioni:

    • Utilizza l'SDK Vertex AI per Python nel tuo ambiente preferito (Colab Enterprise o blocco note Vertex AI Workbench).

    • Scrivi uno script Python utilizzando il tuo ambiente preferito. Invia un job Ray al cluster Ray su Vertex AI utilizzando l'SDK Vertex AI per Python, l'interfaccia a riga di comando Ray Job o la dashboard Ray.

  5. Eseguire il deployment del modello addestrato a un endpoint Vertex AI online per le previsioni.

  6. Utilizza BigQuery per gestire i tuoi dati.

Prezzi

I prezzi di Ray on Vertex AI vengono calcolati come segue:

  • Le risorse di calcolo utilizzate vengono addebitate in base alla configurazione della macchina selezionata durante la creazione del cluster Ray su Vertex AI. Per i prezzi di Ray on Vertex AI, consulta la pagina dei prezzi.

  • Quando esegui attività utilizzando il cluster Ray su Vertex AI, i log vengono generati automaticamente e addebitati in base ai prezzi di Cloud Logging.

  • Se esegui il deployment del modello in un endpoint per le previsioni online, consulta la sezione "Previsione e spiegazione" della pagina dei prezzi di Vertex AI.

  • Se utilizzi BigQuery con Ray su Vertex AI, consulta Prezzi di BigQuery.

Passaggi successivi