Diese Seite bietet einen Überblick über die Einbindung von Spanner Vertex AI. Die Spanner-Vertex AI-Integration funktioniert sowohl mit GoogleSQL- als auch mit PostgreSQL-Datenbanken.
Die Einbindung von Spanner Vertex AI erleichtert den Zugriff auf Klassifikator- und Regressions-ML-Modelle, die auf Vertex AI über GoogleSQL und PostgreSQL-Schnittstelle. Dieses erleichtert die nahtlose Integration von Bereitstellungsfunktionen für ML-Vorhersagen in allgemeine Spanner-Datenzugriffsvorgänge, die mit DQL-/DML-Abfragen ausgeführt wurden.
Vorteile der Einbindung von Spanner Vertex AI
Das Generieren von ML-Vorhersagen mithilfe der Einbindung von Spanner Vertex AI bietet mehrere Vorteile im Vergleich auf den Ansatz, bei dem Spanner-Daten auf Vertex AI zugreifen Vorhersageendpunkte separat ausgeführt:
- Leistung:
- Bessere Latenz: Einbindung von Spanner Vertex AI direkt mit dem Vertex AI-Dienst eliminiert zusätzliche Umläufe zwischen einem Rechenknoten, auf dem die und den Vertex AI-Dienst.
- Höherer Durchsatz/Parallelismus: Die Spanner Vertex AI-Integration wird auf der verteilten Abfrageverarbeitungsinfrastruktur von Spanner ausgeführt, die eine hoch parallelisierbare Abfrageausführung unterstützt.
- Nutzerfreundlichkeit:
- Die Möglichkeit, eine einzige, einfache, einheitliche und vertraute SQL-Schnittstelle zu verwenden, um sowohl Datentransformationen als auch ML-Dienstszenarien auf Spanner-Skala zu ermöglichen, senkt die Einstiegsbarriere für ML und sorgt für eine wesentlich reibungslosere Nutzererfahrung.
- Kosten:
- Die Einbindung von Spanner Vertex AI nutzt die Rechenkapazität von Spanner, um die Ergebnisse von ML-Berechnungen und SQL-Abfrageausführung zusammenzuführen, macht es überflüssig, ein zusätzliches Computing bereitzustellen (z. B. in Compute Engine oder Google Kubernetes Engine).
Wie funktioniert die Einbindung von Spanner Vertex AI?
Die Einbindung von Spanner Vertex AI hostet keine ML-Modelle, basiert aber auf dem Vertex AI-Dienst Infrastruktur erstellen. Sie müssen kein Modell mit Vertex AI trainieren um sie mit der Einbindung von Spanner Vertex AI zu verwenden. Sie müssen sie jedoch auf einem Vertex AI-Endpunkt bereitstellen.
Zum Trainieren von Modellen mit in Spanner gespeicherten Daten können Sie Folgendes verwenden:
Föderierte BigQuery-Abfragen in Kombination mit BigQuery ML
Dataflow zum Exportieren von Daten aus Spanner in das CSV-Format und importieren Sie die CSV-Datenquelle in Vertex AI.
Durch die Einbindung von Spanner Vertex AI werden die folgenden Funktionen für die Verwendung von ML-Modellen erweitert:
Generieren Sie ML-Vorhersagen durch Aufrufen eines Modells mit SQL für Ihre Spanner-Daten Sie können ein Modell aus der Vertex AI Model Garden oder ein auf Ihrem Vertex AI-Endpunkt bereitgestelltes Modell.
Generieren Sie Texteinbettungen, damit ein LLM Textprompts in Zahlen übersetzt. Bis Weitere Informationen zu Einbettungen
Spanner Vertex AI-Integrationsfunktionen verwenden
Mit einem Modell in der Spanner Vertex AI-Integration können Sie mithilfe der ML Predict-Funktionen Vorhersagen oder Text-Embeddings in Ihrem SQL-Code generieren. Diese Funktionen sind:
GoogleSQL
Sie können die folgende ML-Vorhersagefunktion für GoogleSQL verwenden:
Sie müssen Ihr Modell mit der CREATE MODEL
registrieren
DDL-Anweisung, bevor Sie sie mit der Funktion ML.PREDICT
verwenden.
Sie können auch SAFE.ML.PREDICT
verwenden, um null
anstelle eines Fehlers in Ihren Vorhersagen zurückzugeben. Das ist hilfreich, wenn Sie große Abfragen ausführen, bei denen einige fehlgeschlagene Vorhersagen tolerabel sind.
PostgreSQL
Sie können die folgende ML-Vorhersagefunktion für PostgreSQL verwenden:
Wenn Sie die Funktionen verwenden möchten, können Sie ein Modell aus dem Vertex AI Model Garden auswählen oder ein Modell verwenden, das Sie in Vertex AI bereitgestellt haben.
Weitere Informationen zum Bereitstellen eines Modells auf einem Endpunkt in Vertex AI finden Sie unter Modell auf einem Endpunkt bereitstellen
Weitere Informationen wie Sie mit diesen Funktionen eine ML-Vorhersage generieren, Siehe ML-Vorhersagen mit SQL generieren.
Weitere Informationen dazu, wie Sie mit diesen Funktionen Texteinbettungen generieren, finden Sie unter Texteinbettungen abrufen.
Preise
Wenn Sie Spanner zusammen mit der Einbindung von Spanner Vertex AI verwenden, fallen keine zusätzlichen Gebühren an. Allerdings können im Zusammenhang mit dieser Funktion weitere Kosten anfallen:
Sie zahlen die Standardpreise für Vertex AI Onlinevorhersagen treffen. Die Gesamtkosten hängen vom verwendeten Modelltyp ab. Für einige Modelltypen gilt ein fester Stundenpreis, der vom Maschinentyp und der Anzahl der verwendeten Knoten abhängt. Für einige Modelltypen gelten Preise pro Anruf. Wir empfehlen, Letzteres in einem speziellen Projekt bereitzustellen, in dem Sie explizite Prognosequoten festgelegt haben.
Für die Datenübertragung zwischen Spanner und Vertex AI zahlen Sie die Standardpreise. Die Gesamtkosten hängen davon ab, die Region, in der der Server gehostet wird, in dem die Abfrage ausgeführt wird, und die Region, in der der als Endpunkt. Um die Kosten zu minimieren, sollten Sie Ihre Vertex AI-Endpunkte in derselben Region wie Ihre Spanner-Instanz bereitstellen. Bei Verwendung multiregionaler oder mehrere Vertex AI-Endpunkte, stellen Sie Endpunkte auf demselben Kontinent.
SLA
Da die Verfügbarkeit von Vertex AI-Onlinevorhersagen geringer ist, müssen Sie Spanner-ML-Modelle richtig konfigurieren, um die hohe Verfügbarkeit von Spanner bei Verwendung der Spanner Vertex AI-Integration aufrechtzuerhalten:
- Für Spanner-ML-Modelle müssen mehrere Vertex AI-Endpunkte im Backend verwendet werden, um ein Failover zu ermöglichen.
- Vertex AI-Endpunkte müssen dem Vertex AI-SLA entsprechen.
- Vertex AI-Endpunkte müssen genügend Kapazität für den eingehenden Traffic bereitstellen.
- Für Vertex AI-Endpunkte müssen separate Regionen in der Nähe der Spanner-Datenbank verwendet werden, um regionale Ausfälle zu vermeiden.
- Vertex AI-Endpunkte sollten separate Projekte verwenden, um Probleme mit projektbasierten Vorhersagekontingenten.
Die Anzahl der redundanten Vertex AI-Endpunkte hängt vom SLA und von der Anzahl der Zeilen in Spanner-Abfragen ab:
Spanner-SLA | Vertex AI-SLA | 1 Zeile | 10 Zeilen | 100 Zeilen | 1.000 Zeilen |
---|---|---|---|---|---|
99,99 % | 99,9 % | 2 | 2 | 2 | 3 |
99,99 % | 99,5 % | 2 | 3 | 3 | 4 |
99,999 % | 99,9 % | 2 | 2 | 3 | 3 |
99,999 % | 99,5 % | 3 | 3 | 4 | 4 |
Vertex AI-Endpunkte müssen nicht genau dasselbe Modell hosten. Wir empfehlen, das Spanner-ML-Modell so zu konfigurieren, dass es als ersten Endpunkt ein primäres, komplexes und rechenintensives Modell hat. Nachfolgende Failover-Endpunkte können auf vereinfachte Modelle verweisen, die weniger rechenintensiv sind, besser skalieren und Traffic-Spitzen abfangen können.
Compliance
Assured Workloads unterstützen die Vertex AI Prediction API nicht. Wenn Sie eine Einschränkung für die Ressourcennutzung aktivieren, wird die Vertex AI API und damit auch die Spanner Vertex AI-Integrationsfunktion deaktiviert.
Außerdem empfehlen wir, einen VPC Service Controls-Perimeter zu erstellen, damit Ihre Produktionsdatenbanken keine Verbindung zu Vertex AI-Endpunkten in Ihren nicht produktionsbezogenen Projekten herstellen können, die möglicherweise nicht ordnungsgemäß konfiguriert sind.