Mit der Vertex AI-Vektorsuche können Nutzer mithilfe von Vektoreinbettungen nach semantisch ähnlichen Elementen suchen. Mit dem Workflow für Spanner to Vertex AI Vector Search können Sie Ihre Spanner-Datenbank in Vector Search einbinden, um eine Vektorähnlichkeitssuche für Ihre Spanner-Daten durchzuführen.
Das folgende Diagramm zeigt den End-to-End-Anwendungsablauf, wie Sie die Vektorsuche für Ihre Spanner-Daten aktivieren und verwenden können:
Dies ist der allgemeine Workflow:
Vektoreinbettungen generieren und speichern
Sie können Vektoreinbettungen Ihrer Daten generieren und dann zusammen mit Ihren Betriebsdaten in Spanner speichern und verwalten. Sie können Einbettungen mit der
ML.PREDICT
-SQL-Funktion von Spanner generieren, um auf dastextembedding-gecko
-Modell von Vertex AI zuzugreifen, oder andere in Vertex AI bereitgestellte Einbettungsmodelle verwenden.Synchronisieren Sie Einbettungen mit der Vektorsuche.
Verwenden Sie den Workflow „Spanner to Vertex AI Vector Search“, der mit Workflows bereitgestellt wird, um Einbettungen in einen Vektorsuchindex zu exportieren und hochzuladen. Sie können diesen Workflow mit Cloud Scheduler regelmäßig planen, um Ihren Vector Search-Index mit den neuesten Änderungen an Ihren Einbettungen in Spanner auf dem neuesten Stand zu halten.
Mit dem Vektorsuchindex eine Suche nach Vektorähnlichkeiten durchführen.
Sie können den Vektorsuchindex abfragen, um semantisch ähnliche Elemente zu finden. Sie können Abfragen über einen öffentlichen Endpunkt oder über VPC-Peering stellen.
Anwendungsbeispiel
Ein illustrativer Anwendungsfall für die Vektorsuche ist ein Onlinehändler mit einem Inventar von Hunderttausenden Artikeln. Angenommen, Sie sind Entwickler für einen Onlinehändler und möchten die Vektorähnlichkeitssuche in Ihrem Produktkatalog in Spanner verwenden, damit Ihre Kunden anhand ihrer Suchanfragen relevante Produkte finden können.
Folgen Sie Schritt 1 und Schritt 2 im allgemeinen Workflow, um Vektor-Embeddings für Ihren Produktkatalog zu generieren und diese mit der Vektorsuche zu synchronisieren.
Stellen Sie sich nun vor, ein Nutzer sucht in Ihrer Anwendung nach „beste schnell trocknende Sportshorts, die ich im Wasser tragen kann“. Wenn Ihre Anwendung diese Abfrage empfängt, müssen Sie mit der Spanner-SQL-Funktion ML.PREDICT
eine Anfrage-Embedding für diese Suchanfrage generieren. Verwenden Sie dasselbe Einbettungsmodell, mit dem die Einbettungen für Ihren Produktkatalog generiert wurden.
Rufen Sie als Nächstes den Index der Vektorsuche nach Produkt-IDs ab, deren entsprechende Einbettungen der Anfrage-Einbettung ähneln, die aus der Suchanfrage Ihres Kunden generiert wurde. Der Suchindex kann Produkt-IDs für semantisch ähnliche Artikel wie Wakeboardshorts, Surfbekleidung und Badehosen empfehlen.
Nachdem die Vector Search diese ähnlichen Produkt-IDs zurückgegeben hat, können Sie Spanner nach den Beschreibungen, der Inventarmenge, dem Preis und anderen relevanten Metadaten der Produkte abfragen und sie Ihren Kunden anzeigen.
Sie können auch generative KI verwenden, um die von Spanner zurückgegebenen Ergebnisse zu verarbeiten, bevor sie Ihren Kunden angezeigt werden. So können Sie beispielsweise die großen generativen KI-Modelle von Google verwenden, um eine kurze Zusammenfassung der empfohlenen Produkte zu erstellen. Weitere Informationen finden Sie in diesem Leitfaden zur Verwendung generativer KI für personalisierte Empfehlungen in einer E-Commerce-Anwendung.
Nächste Schritte
- Weitere Informationen zum Generieren von Einbettungen mit Spanner
- Weitere Informationen zum KI-Multitool: Vektoreinbettungen
- Weitere Informationen zu maschinellem Lernen und Einbettungen finden Sie in unserem Crashkurs zu Einbettungen.
- Weitere Informationen zum Workflow für die Spanner-zu-Vertex AI-Vektorsuche finden Sie im GitHub-Repository.
- Weitere Informationen zum Open-Source-Spanner Analytics-Paket, das gängige Datenanalysefunktionen in Python bietet und Integrationen mit Jupyter-Notebooks umfasst.