Mit der Vertex AI-Vektorsuche können Nutzer mithilfe von Vektoreinbettungen nach semantisch ähnlichen Elementen suchen. Mit dem Workflow für Spanner to Vertex AI Vector Search können Sie Ihre Spanner-Datenbank in Vector Search einbinden, um eine Vektorähnlichkeitssuche für Ihre Spanner-Daten durchzuführen.
Das folgende Diagramm zeigt den End-to-End-Anwendungsworkflow, können Sie die Vektorsuche in Ihrem Spanner Daten:
Dies ist der allgemeine Workflow:
Vektoreinbettungen generieren und speichern.
Sie können Vektoreinbettungen Ihrer Daten generieren, mit Ihren Betriebsdaten in Spanner verwalten. Sie können Einbettungen mit der
ML.PREDICT
-SQL-Funktion von Spanner generieren, um auf dastextembedding-gecko
-Modell von Vertex AI zuzugreifen, oder andere in Vertex AI bereitgestellte Einbettungsmodelle verwenden.Synchronisieren Sie Einbettungen mit der Vektorsuche.
Verwenden Sie den Workflow „Spanner to Vertex AI Vector Search“, der mit Workflows bereitgestellt wird, um Einbettungen in einen Vektorsuchindex zu exportieren und hochzuladen. Sie können diesen Workflow mit Cloud Scheduler regelmäßig planen, um Ihren Vector Search-Index mit den neuesten Änderungen an Ihren Einbettungen in Spanner auf dem neuesten Stand zu halten.
Suchen Sie mit dem Vektorsuchindex nach einer Vektorähnlichkeit.
Sie können den Index der Vektorsuche abfragen, um Ergebnisse zu finden für semantisch ähnliche Elemente. Sie können Abfragen über einen öffentlichen Endpunkt oder über VPC-Peering stellen.
Anwendungsbeispiel
Ein Beispiel für einen Anwendungsfall für die Vektorsuche ist ein Onlinehändler mit einem Inventar von Hunderttausenden von Artikeln. In diesem Szenario sind Sie Entwickler für einen Onlinehändler und möchten die Vektorähnlichkeitssuche in Ihrem Produktkatalog in Spanner verwenden, damit Ihre Kunden anhand ihrer Suchanfragen relevante Produkte finden können.
Folgen Sie Schritt 1 und Schritt 2 im allgemeinen Workflow, um Vektor-Embeddings für Ihren Produktkatalog zu generieren und diese mit der Vektorsuche zu synchronisieren.
Stellen Sie sich nun vor, dass ein Kunde beim Durchsuchen Ihrer Anwendung eine Suche durchführt wie
„beste, schnell trocknende Sportshorts, die ich im Wasser tragen kann“. Wenn Ihre
Anwendung diese Abfrage empfängt, müssen Sie eine Einbettung einer Anfrage für
diese Suchanfrage mit Spanner ML.PREDICT
SQL-Funktion. Stellen Sie sicher, dass Sie dasselbe Einbettungsmodell verwenden, das für die Generierung der
für Ihren Produktkatalog.
Fragen Sie als Nächstes den Index der Vektorsuche nach Produkt-IDs ab, deren entsprechende Einbettungen ähneln der Einbettung der Anfrage, die aus der Suchanfrage Ihres Kunden. Der Suchindex empfiehlt möglicherweise Produkt-IDs für Wakeboard-Shorts, Surfbekleidung und -kleidung wie Wakeboarding-Shorts Badehose.
Nachdem die Vector Search diese ähnlichen Produkt-IDs zurückgegeben hat, können Sie Spanner nach den Beschreibungen, der Inventarmenge, dem Preis und anderen relevanten Metadaten der Produkte abfragen und sie Ihren Kunden präsentieren.
Sie können auch generative KI verwenden. um die zurückgegebenen Ergebnisse von Spanner zu verarbeiten, bevor sie angezeigt werden. an Ihren Kunden senden. So können Sie beispielsweise die großen generativen KI-Modelle von Google verwenden, um eine kurze Zusammenfassung der empfohlenen Produkte zu erstellen. Weitere Informationen finden Sie in diesem Leitfaden zur Verwendung generativer KI für personalisierte Empfehlungen in einer E-Commerce-Anwendung.
Nächste Schritte
- Informationen zum Generieren von Einbettungen mithilfe von Spanner.
- Weitere Informationen zum KI-Multitool: Vektoreinbettungen
- Weitere Informationen zu maschinellem Lernen und Einbettungen finden Sie in unserem Crash-Kurs zu Einbettungen.
- Weitere Informationen zum Workflow für die Spanner-zu-Vertex AI-Vektorsuche finden Sie im GitHub-Repository.
- Weitere Informationen zum Open-Source-Spanner Analytics-Paket, das gängige Datenanalysefunktionen in Python bietet und Integrationen mit Jupyter-Notebooks umfasst.