Übersicht über die Einbindung von Spanner Vertex AI

Diese Seite bietet eine Übersicht über die Einbindung von Spanner Vertex AI. Einbindung von Spanner Vertex AI funktioniert mit beidem GoogleSQL- und PostgreSQL-Datenbanken.

Die Einbindung von Spanner Vertex AI erleichtert den Zugriff auf Klassifikator- und Regressions-ML-Modelle, die auf Vertex AI über GoogleSQL und PostgreSQL-Schnittstelle. Dieses erleichtert die nahtlose Integration von Bereitstellungsfunktionen für ML-Vorhersagen in allgemeine Spanner-Datenzugriffsvorgänge, die mit DQL-/DML-Abfragen ausgeführt werden.

Vorteile der Einbindung von Spanner Vertex AI

Das Generieren von ML-Vorhersagen mithilfe der Einbindung von Spanner Vertex AI bietet mehrere Vorteile im Vergleich auf den Ansatz, bei dem Spanner-Daten auf Vertex AI zugreifen Vorhersageendpunkte separat ausgeführt:

  • Leistung: <ph type="x-smartling-placeholder">
      </ph>
    • Bessere Latenz: Einbindung von Spanner Vertex AI in direkte Kommunikation mit dem Vertex AI-Dienst eliminiert zusätzliche Umläufe zwischen einem Rechenknoten, auf dem die und den Vertex AI-Dienst.
    • Besserer Durchsatz/Parallelität: Die Einbindung von Spanner Vertex AI wird auf Basis der eine verteilte Abfrageverarbeitungsinfrastruktur, die parallelisierbaren Abfrageausführungen.
  • Nutzererfahrung: <ph type="x-smartling-placeholder">
      </ph>
    • Fähigkeit, eine einzelne, einfache, kohärente und vertraute SQL-Schnittstelle zu verwenden, Erleichterung von Datentransformations- und ML-Bereitstellungsszenarien in Spanner Das senkt die Einstiegsbarriere für ML und ermöglicht eine viel flüssigere Nutzung Nutzererfahrung.
  • Kosten: <ph type="x-smartling-placeholder">
      </ph>
    • Die Einbindung von Spanner Vertex AI nutzt die Rechenkapazität von Spanner, um die Ergebnisse von ML-Berechnungen und SQL-Abfrageausführung zusammenzuführen, macht es überflüssig, ein zusätzliches Computing bereitzustellen (z. B. in Compute Engine oder Google Kubernetes Engine).

Wie funktioniert die Einbindung von Spanner Vertex AI?

Die Einbindung von Spanner Vertex AI hostet keine ML-Modelle, basiert aber auf dem Vertex AI-Dienst Infrastruktur erstellen. Sie müssen kein Modell mit Vertex AI trainieren um sie mit der Einbindung von Spanner Vertex AI zu verwenden. Sie müssen sie jedoch auf einem Vertex AI-Endpunkt bereitstellen.

Zum Trainieren von Modellen mit in Spanner gespeicherten Daten können Sie Folgendes verwenden:

Durch die Einbindung von Spanner Vertex AI werden die folgenden Funktionen für die Verwendung von ML-Modellen erweitert:

Spanner Vertex AI-Integrationsfunktionen verwenden

Ein Modell in der Einbindung von Spanner Vertex AI kann zum Generieren von Vorhersagen oder Text verwendet werden Einbettungen in Ihren SQL-Code mithilfe der ML-Vorhersagefunktionen. Diese Funktionen sind:

GoogleSQL

Sie können die folgende ML-Vorhersagefunktion für GoogleSQL verwenden:

ML.PREDICT

Sie müssen Ihr Modell mit der CREATE MODEL registrieren DDL-Anweisung, bevor Sie sie mit der Funktion ML.PREDICT verwenden.

Sie können auch SAFE.ML.PREDICT verwenden, um null anstelle eines Fehlers in für Ihre Vorhersagen. Dies ist hilfreich in Fällen, in denen große Abfragen ausgeführt werden bei denen einige fehlerhafte Vorhersagen tolerierbar sind.

PostgreSQL

Sie können die folgende ML-Vorhersagefunktion für PostgreSQL verwenden:

spanner.ML_PREDICT_ROW

Um die Funktionen zu verwenden, können Sie ein Modell aus der Vertex AI Model Garden oder ein Modell verwenden, das Sie in Vertex AI bereitgestellt haben.

Weitere Informationen zum Bereitstellen eines Modells auf einem Endpunkt in Vertex AI finden Sie unter Modell auf einem Endpunkt bereitstellen

Weitere Informationen wie Sie mit diesen Funktionen eine ML-Vorhersage generieren, Siehe ML-Vorhersagen mit SQL generieren.

Weitere Informationen zum Generieren von Texteinbettungen mit diesen Funktionen Siehe Texteinbettungen abrufen.

Preise

Wenn Sie Spanner zusammen mit der Einbindung von Spanner Vertex AI verwenden, fallen keine zusätzlichen Gebühren an. Im Zusammenhang mit dieser Funktion können jedoch weitere Kosten anfallen:

  • Sie zahlen die Standardpreise für Vertex AI Onlinevorhersagen treffen. Die Gesamtkosten hängen vom verwendeten Modelltyp ab. Ein Modell haben einen Pauschalpreis pro Stunde, der vom Maschinentyp und der Anzahl der die Sie verwenden. Einige Modelltypen haben Tarife pro Anruf. Wir empfehlen Ihnen, Stellen Sie Letztere in einem dedizierten Projekt bereit, für das Sie eine explizite Vorhersage festgelegt haben Kontingenten.

  • Sie zahlen die Standardtarife für die Datenübertragung. zwischen Spanner und Vertex AI. Die Gesamtkosten hängen davon ab, die Region, in der der Server gehostet wird, in dem die Abfrage ausgeführt wird, und die Region, in der der als Endpunkt. Stellen Sie Vertex AI-Endpunkte bereit, um Kosten zu minimieren sich in derselben Region wie Ihre Spanner-Instanz befindet. Bei Verwendung multiregionaler oder mehrere Vertex AI-Endpunkte, stellen Sie Endpunkte auf demselben Kontinent.

SLA

Aufgrund der Verfügbarkeit von Vertex AI-Onlinevorhersagen müssen Sie Spanner-ML-Modelle ordnungsgemäß konfigurieren, Hochverfügbarkeit von Spanner bei Verwendung der Einbindung von Spanner Vertex AI:

  1. Spanner-ML-Modelle müssen mehrere Vertex AI verwenden Endpunkte auf dem Back-End, um Failover zu aktivieren.
  2. Vertex AI-Endpunkte müssen dem Vertex AI-SLA entsprechen.
  3. Vertex AI-Endpunkte müssen genügend Kapazität bereitstellen, um eingehender Traffic.
  4. Vertex AI-Endpunkte müssen separate Regionen in der Nähe des Spanner-Datenbank, um regionale Ausfälle zu vermeiden.
  5. Vertex AI-Endpunkte sollten separate Projekte verwenden, um Probleme mit projektbasierten Vorhersagekontingenten.

Die Anzahl der redundanten Vertex AI-Endpunkte hängt von ihrem SLA ab. die Anzahl der Zeilen in Spanner-Abfragen:

Spanner-SLA Vertex AI-SLA 1 Zeile 10 Zeilen 100 Zeilen 1.000 Zeilen
99,99 % 99,9 % 2 2 2 3
99,99 % 99,5 % 2 3 3 4
99,999 % 99,9 % 2 2 3 3
99,999 % 99,5 % 3 3 4 4

Vertex AI-Endpunkte müssen nicht genau das gleiche Modell hosten. Mi. sollten Sie das ML-Modell von Spanner so konfigurieren, dass es ein primäres, als ersten Endpunkt ein komplexes und rechenintensives Modell erstellen. Nachfolgender Failover Endpunkte können auf vereinfachte Modelle verweisen, die weniger rechenintensiv sind, und Traffic-Spitzen abfangen kann.

Compliance

Assured Workloads unterstützen nicht die Vertex AI Prediction API Aktivieren eines Beschränkung der Ressourcennutzung einschränken deaktiviert die Vertex AI API und effektiv das Einbindungsfeature von Spanner Vertex AI.

Darüber hinaus empfehlen wir Ihnen, ein VPC Service Controls-Perimeter, um sicherzustellen, Produktionsdatenbanken können keine Verbindung zu Vertex AI-Endpunkten in Ihrem Nicht-Produktionsprojekte, die möglicherweise nicht die richtige Compliancekonfiguration haben.