Einbettungen aus Spanner in die Vertex AI Vektorsuche exportieren

Mit der Vertex AI-Vektorsuche können Nutzer mithilfe von Vektoreinbettungen nach semantisch ähnlichen Elementen suchen. Mit dem Workflow für Spanner to Vertex AI Vector Search können Sie Ihre Spanner-Datenbank in Vector Search einbinden, um eine Vektorähnlichkeitssuche für Ihre Spanner-Daten durchzuführen.

Das folgende Diagramm zeigt den End-to-End-Anwendungsworkflow, können Sie die Vektorsuche in Ihrem Spanner Daten:

Workflow für die Suche von Spanner zu Vektorsuche.

Dies ist der allgemeine Workflow:

  1. Vektoreinbettungen generieren und speichern.

    Sie können Vektoreinbettungen Ihrer Daten generieren, mit Ihren Betriebsdaten in Spanner verwalten. Sie können Einbettungen mit der ML.PREDICT-SQL-Funktion von Spanner generieren, um auf das textembedding-gecko-Modell von Vertex AI zuzugreifen, oder andere in Vertex AI bereitgestellte Einbettungsmodelle verwenden.

  2. Synchronisieren Sie Einbettungen mit der Vektorsuche.

    Verwenden Sie den Workflow „Spanner to Vertex AI Vector Search“, der mit Workflows bereitgestellt wird, um Einbettungen in einen Vektorsuchindex zu exportieren und hochzuladen. Sie können diesen Workflow mit Cloud Scheduler regelmäßig planen, um Ihren Vector Search-Index mit den neuesten Änderungen an Ihren Einbettungen in Spanner auf dem neuesten Stand zu halten.

  3. Suchen Sie mit dem Vektorsuchindex nach einer Vektorähnlichkeit.

    Sie können den Index der Vektorsuche abfragen, um Ergebnisse zu finden für semantisch ähnliche Elemente. Sie können Abfragen über einen öffentlichen Endpunkt oder über VPC-Peering stellen.

Anwendungsbeispiel

Ein Beispiel für einen Anwendungsfall für die Vektorsuche ist ein Onlinehändler mit einem Inventar von Hunderttausenden von Artikeln. In diesem Szenario sind Sie Entwickler für einen Onlinehändler und möchten die Vektorähnlichkeitssuche in Ihrem Produktkatalog in Spanner verwenden, damit Ihre Kunden anhand ihrer Suchanfragen relevante Produkte finden können.

Folgen Sie Schritt 1 und Schritt 2 im allgemeinen Workflow, um Vektor-Embeddings für Ihren Produktkatalog zu generieren und diese mit der Vektorsuche zu synchronisieren.

Stellen Sie sich nun vor, dass ein Kunde beim Durchsuchen Ihrer Anwendung eine Suche durchführt wie „beste, schnell trocknende Sportshorts, die ich im Wasser tragen kann“. Wenn Ihre Anwendung diese Abfrage empfängt, müssen Sie eine Einbettung einer Anfrage für diese Suchanfrage mit Spanner ML.PREDICT SQL-Funktion. Stellen Sie sicher, dass Sie dasselbe Einbettungsmodell verwenden, das für die Generierung der für Ihren Produktkatalog.

Fragen Sie als Nächstes den Index der Vektorsuche nach Produkt-IDs ab, deren entsprechende Einbettungen ähneln der Einbettung der Anfrage, die aus der Suchanfrage Ihres Kunden. Der Suchindex empfiehlt möglicherweise Produkt-IDs für Wakeboard-Shorts, Surfbekleidung und -kleidung wie Wakeboarding-Shorts Badehose.

Nachdem die Vector Search diese ähnlichen Produkt-IDs zurückgegeben hat, können Sie Spanner nach den Beschreibungen, der Inventarmenge, dem Preis und anderen relevanten Metadaten der Produkte abfragen und sie Ihren Kunden präsentieren.

Sie können auch generative KI verwenden. um die zurückgegebenen Ergebnisse von Spanner zu verarbeiten, bevor sie angezeigt werden. an Ihren Kunden senden. So können Sie beispielsweise die großen generativen KI-Modelle von Google verwenden, um eine kurze Zusammenfassung der empfohlenen Produkte zu erstellen. Weitere Informationen finden Sie in diesem Leitfaden zur Verwendung generativer KI für personalisierte Empfehlungen in einer E-Commerce-Anwendung.

Nächste Schritte