Informazioni sull'integrazione di Spanner Vertex AI

Questa pagina fornisce una panoramica dell'integrazione di Spanner Vertex AI.

L'integrazione di Spanner Vertex AI consente di accedere ai modelli ML di classificatori e regressione ospitati su Vertex AI tramite l'interfaccia di GoogleSQL. Ciò consente di integrare perfettamente la funzionalità di gestione delle previsioni ML con le operazioni generali di accesso ai dati di Cloud Spanner eseguite utilizzando query DQL/DML.

L'integrazione di Spanner Vertex AI condivide la stessa sintassi SQL con BigQuery ML, anche se è supportato solo un sottoinsieme di sintassi di BigQuery ML.

Vantaggi dell'integrazione di Spanner Vertex AI

La generazione di previsioni ML utilizzando l'integrazione di Spanner Vertex AI offre diversi vantaggi rispetto all'approccio in cui l'accesso ai dati di Cloud Spanner e l'accesso all'endpoint di previsione di Vertex AI vengono eseguiti separatamente:

  • Rendimento:
    • Latenza migliore: l'integrazione diretta di Spanner Vertex AI con il servizio Vertex AI elimina ulteriori round trip tra un nodo di computing che esegue il client di un client Cloud Spanner e il servizio Vertex AI.
    • Migliore velocità effettiva/parallelismo: l'integrazione di Spanner Vertex AI viene eseguita sull'infrastruttura di elaborazione delle query distribuita di Cloud Spanner, che supporta l'esecuzione di query altamente parallelizzabile.
  • Esperienza utente:
    • La possibilità di utilizzare un'unica interfaccia SQL semplice, coerente e familiare per facilitare gli scenari di trasformazione dei dati e gestione dei dati ML a livello di scalabilità di Cloud Spanner riduce la barriera di accesso al machine learning e consente un'esperienza utente molto più fluida.
  • Costi:
    • L'integrazione di Spanner Vertex AI utilizza la capacità di calcolo di Cloud Spanner per unire i risultati dei calcoli ML e dell'esecuzione delle query SQL, il che elimina la necessità di eseguire il provisioning di un ulteriore calcolo (ad esempio, in Compute Engine o Google Kubernetes Engine).

Come funziona l'integrazione di Spanner Vertex AI?

L'integrazione di Spanner Vertex AI non ospita modelli ML, ma si basa sull'infrastruttura dei servizi Vertex AI. Affinché un modello possa essere utilizzato con l'integrazione di Spanner Vertex AI, deve essere già addestrato e sottoposto a deployment in Vertex AI.

Inoltre, l'integrazione di Spanner Vertex AI non fornisce funzionalità speciali di addestramento ML. Per addestrare modelli su dati archiviati in Cloud Spanner, puoi utilizzare una delle seguenti opzioni:

Non appena viene eseguito il deployment di un modello nel servizio Vertex AI, il proprietario di un database può registrarlo utilizzando l'istruzione DDL CREATE MODEL. Successivamente, è possibile fare riferimento al modello dalle funzioni ML.PREDICT per produrre previsioni.

Consulta Generare previsioni ML con SQL per un tutorial sull'utilizzo dell'integrazione di Spanner Vertex AI.

Prezzi

Non sono previsti costi aggiuntivi da parte di Cloud Spanner per l'utilizzo dell'integrazione di Spanner Vertex AI. Tuttavia, ci sono altri possibili addebiti associati a questa funzionalità:

  • Paghi le tariffe standard per la previsione online di Vertex AI. L'addebito totale dipende dal tipo di modello utilizzato. Alcuni tipi di modello hanno una tariffa oraria fissa, a seconda del tipo di macchina e del numero di nodi in uso. Alcuni tipi di modelli hanno tariffe per chiamata. Ti consigliamo di eseguire il deployment di quest'ultimo in un progetto dedicato in cui hai impostato quote di previsione esplicite.

  • Paghi le tariffe standard per il trasferimento di dati tra Cloud Spanner e Vertex AI. Il costo totale dipende dalla regione che ospita il server che esegue la query e dalla regione che ospita l'endpoint chiamato. Per ridurre al minimo gli addebiti, esegui il deployment degli endpoint Vertex AI nella stessa regione dell'istanza di Cloud Spanner. Quando utilizzi configurazioni di istanze multiregionali o più endpoint Vertex AI, esegui il deployment degli endpoint nello stesso continente.

SLA

Poiché la disponibilità delle previsioni online di Vertex AI è inferiore, devi configurare correttamente i modelli ML di Cloud Spanner per mantenere l'alta disponibilità di Cloud Spanner utilizzando l'integrazione di Spanner Vertex AI:

  1. I modelli ML di Cloud Spanner devono utilizzare più endpoint Vertex AI sul backend per abilitare il failover.
  2. Gli endpoint Vertex AI devono essere conformi allo SLA di Vertex AI.
  3. Gli endpoint Vertex AI devono eseguire il provisioning di capacità sufficiente per gestire il traffico in entrata.
  4. Gli endpoint Vertex AI devono utilizzare regioni separate in prossimità del database Cloud Spanner per evitare interruzioni a livello di regione.
  5. Gli endpoint Vertex AI devono usare progetti separati per evitare problemi con le quote di previsione per progetto.

Il numero di endpoint Vertex AI ridondanti dipende dallo SLA (accordo sul livello del servizio) e dal numero di righe nelle query di Cloud Spanner:

SLA (accordo sul livello del servizio) di Spanner SLA di VertexAI 1 riga 10 righe 100 righe 1000 righe
99,99% 99,9% 2 2 2 3
99,99% 99,5% 2 3 3 4
99,999% 99,9% 2 2 3 3
99,999% 99,5% 3 3 4 4

Gli endpoint Vertex AI non devono ospitare esattamente lo stesso modello. Ti consigliamo di configurare il modello ML di Cloud Spanner in modo da avere come primo endpoint un modello primario, complesso e ad alta intensità di calcolo. Gli endpoint di failover successivi possono puntare a modelli semplificati che prevedono una minore intensità di calcolo, una migliore scalabilità e un'assorbimento dei picchi di traffico.

Conformità

Assured Workloads non supporta l'API Vertex AI Prediction. L'abilitazione di un vincolo di utilizzo delle risorse per limitare l'utilizzo delle risorse disabilita l'API Vertex AI e di fatto la funzionalità di integrazione di Spanner Vertex AI.

Inoltre, ti consigliamo di creare un perimetro Controlli di servizio VPC per assicurarti che i database di produzione non possano connettersi agli endpoint Vertex AI nei progetti non di produzione che potrebbero non avere la configurazione di conformità corretta.