Um einen Datenspeicher zu erstellen und Daten für die Suche aufzunehmen, gehen Sie zum Abschnitt für die Quelle, die Sie verwenden möchten:
- Datenspeicher mit Websiteinhalten erstellen
- Aus BigQuery importieren
- Aus Cloud Storage importieren
- Mit Google Drive synchronisieren
- Aus Cloud SQL importieren
- Aus Spanner importieren (öffentliche Vorschau)
- Aus Firestore importieren
- Aus Bigtable importieren (öffentliche Vorschau)
- Aus AlloyDB for PostgreSQL importieren (öffentliche Vorschau)
- Strukturierte JSON-Daten mit der API hochladen
- Datenspeicher mit Terraform erstellen
Wie Sie stattdessen Daten aus einer Datenquelle eines Drittanbieters synchronisieren, erfahren Sie unter Datenquelle eines Drittanbieters verbinden
Beschränkungen
Wenn Sie CMEK-Organisationsrichtlinien haben, müssen Sie neue Datenspeicher über die API und nicht über die Google Cloud Console erstellen. Wird erstellt mit der Methode Die Google Cloud Console schlägt fehl, wenn CMEK-Organisationsrichtlinien aktiviert sind. Weitere Informationen zur CMEK-Unterstützung für die Vertex AI Search finden Sie unter Vom Kunden verwaltete Verschlüsselungsschlüssel.
Datenspeicher mit Websiteinhalten erstellen
Gehen Sie wie nachfolgend beschrieben vor, um einen Datenspeicher zu erstellen und Websites zu indexieren.
Wenn Sie einen Website-Datenspeicher nach dem Erstellen verwenden möchten, müssen Sie ihn an eine App anhängen, für die die Enterprise-Funktionen aktiviert sind. Sie können die Enterprise-Version für eine App beim Erstellen aktivieren. Dadurch fallen zusätzliche Kosten an. Weitere Informationen finden Sie unter Such-App erstellen und Erweiterte Funktionen.
Console
So erstellen Sie mit der Google Cloud Console einen Datenspeicher und indexieren Websites:
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Klicken Sie im Navigationsmenü auf Datenspeicher.
Klicken Sie auf Datenspeicher erstellen.
Wählen Sie auf der Seite Quelle die Option Websitecontent aus.
Wählen Sie aus, ob die erweiterte Websiteindexierung für diesen Datenspeicher aktiviert werden soll. Diese Option kann später nicht mehr aktiviert oder deaktiviert werden.
Die erweiterte Websiteindexierung bietet zusätzliche Funktionen wie die Suche Zusammenfassungen, Suchen mit weiterführenden Fragen und extrahierende Antworten. Für die erweiterte Websiteindexierung fallen zusätzliche Kosten an. Außerdem müssen Sie die Inhaberschaft der Domain für jede Website bestätigen, die Sie indexieren. Weitere Informationen finden Sie unter Erweiterte Websiteindexierung und Preise.
Geben Sie in das Feld Einzuschließende Websites die URL-Muster für die Websites ein, die Sie in Ihren Datenspeicher aufnehmen möchten. Eine URL einfügen Muster pro Zeile ohne Kommatrennzeichen. Beispiel:
www.example.com/docs/*
Optional: Geben Sie im Feld Auszuschließende Websites URL-Muster ein, die aus Ihrem Datenspeicher ausgeschlossen werden sollen.
Informationen zur Anzahl der URL-Muster, die Sie ein- oder ausschließen können, finden Sie unter Websitedaten.
Klicken Sie auf Weiter.
Wählen Sie einen Speicherort für den Datenspeicher aus. Die erweiterte Websiteindexierung muss aktiviert sein, damit Sie einen Standort auswählen können.
Geben Sie einen Namen für den Datenspeicher ein.
Klicken Sie auf Erstellen. Vertex AI Search erstellt Ihren Datenspeicher und zeigt ihn auf der Seite Datenspeicher an.
Klicken Sie auf den Namen des Datenspeichers, um Informationen zu diesem anzeigen zu lassen in der Spalte Name. Ihre Datenspeicherseite wird angezeigt.
- Wenn Sie die erweiterte Websiteindexierung aktiviert haben, wird eine Warnung mit der Aufforderung angezeigt, um die Domains in Ihrem Datenspeicher zu verifizieren.
- Wenn Ihr Kontingent unterschreitet (die Anzahl der Seiten auf den Websites, die von Ihnen angegebene Anzahl von Dokumenten die „Anzahl der Dokumente pro Projekt“ überschreitet Kontingent für Ihr Projekt), eine zusätzliche Warnung werden Sie aufgefordert, Ihr Kontingent zu erhöhen.
Um die Domains für die URL-Muster in Ihrem Datenspeicher zu überprüfen, folgen Sie der auf der Seite Websitedomains bestätigen.
So erhöhen Sie Ihr Kontingent:
- Klicken Sie auf Kontingent aktualisieren. Die Seite IAM & Verwaltung der Google Cloud Console wird angezeigt.
- Folgen Sie der Anleitung unter Höheres Kontingent anfordern Limit finden Sie in der Google Cloud-Dokumentation. Das Kontingent, das erhöht werden soll, ist Anzahl der Dokumente im Dienst Discovery Engine API.
- Nachdem Sie die Anfrage für ein höheres Kontingentlimit gesendet haben, kehren Sie zur Seite Agent Builder zurück und klicken Sie im Navigationsmenü auf Datenspeicher.
- Klicken Sie in der Spalte Name auf den Namen des Datenspeichers. In der Spalte Status sehen Sie, dass die Indexierung für die Websites, die das Kontingent überschritten haben, noch nicht abgeschlossen ist. Wenn in der Spalte Status für eine URL Indexiert angezeigt wird, sind für diese URL oder dieses URL-Muster erweiterte Funktionen zur Websiteindexierung verfügbar.
Weitere Informationen finden Sie unter Kontingent für Webseiten Indexierung unter „Kontingente und Limits“ Seite.
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Python API.
Richten Sie zur Authentifizierung bei Vertex AI Agent Builder Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Websites importieren
Nächste Schritte
Wenn Sie den Datenspeicher Ihrer Website mit einer App verknüpfen möchten, erstellen Sie eine App mit Enterprise aktiviert sind, und wählen Sie Ihren Datenspeicher aus. Folgen Sie dazu den Schritten in Erstellen Sie eine Suchanwendung.
So sehen Sie sich eine Vorschau der Suchergebnisse an, die nach der Erstellung Ihrer App und Ihres Datenspeichers angezeigt werden. finden Sie unter Suchergebnisse abrufen
Aus BigQuery importieren
Es gibt zwei Möglichkeiten, Datenspeicher aus BigQuery-Tabellen zu erstellen:
Einmalige Aufnahme: Sie importieren Daten aus einer BigQuery-Tabelle in eine Datenspeicher. Die Daten im Datenspeicher ändern sich nur, wenn Sie manuell aktualisieren Sie die Daten.
Regelmäßige Aufnahme: Sie importieren Daten aus einem oder mehreren BigQuery. und Sie legen eine Synchronisierungshäufigkeit fest, mit der bestimmt wird, wie oft die Daten mit den neuesten Daten aus BigQuery aktualisiert. Dataset.
In der folgenden Tabelle werden die beiden Möglichkeiten zum Importieren von BigQuery-Daten in Vertex AI Search-Datenspeicher verglichen.
Einmalige Datenaufnahme | Regelmäßige Datenaufnahme |
---|---|
Allgemeine Verfügbarkeit (General Availability, GA): | Öffentliche Vorschau. |
Die Daten müssen manuell aktualisiert werden. | Die Daten werden automatisch alle 1, 3 oder 5 Tage aktualisiert. Daten können nicht manuell aktualisiert werden. |
Vertex AI Search erstellt einen einzelnen Datenspeicher aus einer Tabelle in BigQuery. | Vertex AI Search erstellt einen Datenconnector für ein BigQuery-Dataset und einen Datenspeicher (Entitätsdatenspeicher) für jede angegebene Tabelle. Für jeden Datenkonnektor müssen die Tabellen denselben Datentyp haben (z. B. strukturiert) und sich im selben BigQuery-Dataset befinden. |
Daten aus mehreren Tabellen können in einem Datenspeicher kombiniert werden, indem zuerst Daten aus einer Tabelle und dann weitere Daten aus einer anderen Quelle oder BigQuery-Tabelle aufgenommen werden. | Da der manuelle Datenimport nicht unterstützt wird, können die Daten in einem Entitätsdatenspeicher nur aus einer BigQuery-Tabelle stammen. |
Die Zugriffssteuerung für Datenquellen wird unterstützt. | Die Zugriffssteuerung für Datenquellen wird nicht unterstützt. Die importierten Daten können Zugriffssteuerungen enthalten, diese werden aber nicht berücksichtigt. |
Sie können einen Datenspeicher entweder über die Google Cloud Console oder die API erstellen. | Sie müssen die Console verwenden, um Datenconnectors und ihre Entitätsdatenspeicher zu erstellen. |
CMEK-kompatibel. | Nicht CMEK-konform. |
Einmal aus BigQuery importieren
Wenn Sie Daten aus einer BigQuery-Tabelle aufnehmen möchten, führen Sie die folgenden Schritte aus, um einen Datenspeicher zu erstellen und Daten entweder über die Google Cloud Console oder die API aufzunehmen.
Lesen Sie vor dem Importieren Ihrer Daten den Hilfeartikel Daten für die Aufnahme vorbereiten.
Console
So nehmen Sie mit der Google Cloud Console Daten aus BigQuery auf:
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Rufen Sie die Seite Datenspeicher auf.
Klicken Sie auf Neuer Datenspeicher.
Wählen Sie auf der Seite Quelle die Option BigQuery aus.
Wählen Sie aus, welche Art von Daten Sie importieren.
Klicken Sie auf Einmal.
Klicken Sie im Feld BigQuery-Pfad auf Durchsuchen und wählen Sie eine Tabelle aus, auf die Aufnahme vorbereitet haben. Klicken Sie dann auf Auswählen. Alternativ können Sie den Speicherort der Tabelle direkt in das Feld BigQuery-Pfad eingeben.
Klicken Sie auf Weiter.
Wenn Sie einmalig strukturierte Daten importieren:
Ordnen Sie Felder wichtigen Properties zu.
Falls wichtige Felder im Schema fehlen, verwenden Sie die Option Neue , um sie hinzuzufügen.
Weitere Informationen finden Sie unter Automatische Erkennung und bearbeiten.
Klicken Sie auf Weiter.
Wählen Sie eine Region für den Datenspeicher aus.
Geben Sie einen Namen für den Datenspeicher ein.
Klicken Sie auf Erstellen.
Den Status der Datenaufnahme können Sie auf der Seite Datenspeicher prüfen. Klicken Sie dazu auf den Namen des Datenspeichers, um auf der Seite Daten Details dazu aufzurufen. Wenn sich die Statusspalte auf dem Tab Aktivität von In Bearbeitung ändert auf Import abgeschlossen gesetzt, ist die Aufnahme abgeschlossen.
Je nach Größe der Daten kann die Datenaufnahme einige Minuten bis mehrere Stunden dauern.
REST
So erstellen Sie einen Datenspeicher und importieren Daten aus der Befehlszeile: Gehen Sie in BigQuery wie folgt vor:
Erstellen Sie einen Datenspeicher.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_SEARCH"] }'
Ersetzen Sie Folgendes:
PROJECT_ID
ist die ID Ihres Google Cloud-Projekts.DATA_STORE_ID
: die ID des Vertex AI Search-Datenspeichers, den Sie erstellen möchten. Diese ID darf nur Kleinbuchstaben enthalten Buchstaben, Ziffern, Unterstriche und Bindestriche.DATA_STORE_DISPLAY_NAME
: Der Anzeigename des Vertex AI Search-Datenspeichers, den Sie erstellen möchten.
Optional: Wenn Sie unstrukturierte Daten hochladen und Dokumente konfigurieren möchten oder zum Aktivieren der Dokumentaufteilung für RAG die
documentProcessingConfig
-Objekt und fügen es in Ihre Anfrage zum Erstellen des Datenspeichers ein. Konfigurieren eines Der OCR-Parser für PDFs wird empfohlen, wenn Sie gescannte PDFs aufnehmen. Informationen zum Konfigurieren von Optionen für das Parsen oder Chunking finden Sie unter Dokumente parsen und in Chunks aufteilen.Importieren Sie Daten aus BigQuery.
Wenn Sie ein Schema definiert haben, achten Sie darauf, dass die Daten diesem Schema entsprechen.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "bigquerySource": { "projectId": "PROJECT_ID", "datasetId":"DATASET_ID", "tableId": "TABLE_ID", "dataSchema": "DATA_SCHEMA", "aclEnabled": "BOOLEAN" }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
Ersetzen Sie Folgendes:
PROJECT_ID
ist die ID Ihres Google Cloud-Projekts.DATA_STORE_ID
: die ID des Vertex AI Search-Datenspeichers.DATASET_ID
: die ID des BigQuery-Datasets.TABLE_ID
: Die ID der BigQuery-Tabelle.- Wenn sich die BigQuery-Tabelle nicht unter
PROJECT_ID, Sie müssen dem Dienstkonto
service-<project number>@gcp-sa-discoveryengine.iam.gserviceaccount.com
„BigQuery-Datenbetrachter“ Berechtigung für die BigQuery-Tabelle. Wenn Sie beispielsweise eine BigQuery-Tabelle aus dem Quellprojekt „123“ in das Zielprojekt „456“ importieren, müssen Sieservice-456@gcp-sa-discoveryengine.iam.gserviceaccount.com
-Berechtigungen für die BigQuery-Tabelle im Projekt „123“ erteilen.
- Wenn sich die BigQuery-Tabelle nicht unter
PROJECT_ID, Sie müssen dem Dienstkonto
DATA_SCHEMA
: Optional. Mögliche Werte:document
undcustom
. Der Standardwert istdocument
.document
: Die verwendete BigQuery-Tabelle muss dem Standard-BigQuery-Schema entsprechen, das unter Daten für die Datenaufnahme vorbereiten beschrieben wird. Sie können die ID jedes Dokuments selbst definieren und alle Daten in den String „jsonData“ einfügen.custom
: Jedes BigQuery-Tabellenschema wird akzeptiert und Vertex AI Search generiert automatisch die IDs für jedes importierte Dokument.
ERROR_DIRECTORY
: Optional. Ein Cloud Storage-Verzeichnis für Fehlerinformationen zum Import, z. B.gs://<your-gcs-bucket>/directory/import_errors
. Google empfiehlt Lassen Sie dieses Feld leer, damit Vertex AI Search automatisch ein temporäres Verzeichnis erstellen.RECONCILIATION_MODE
: Optional. Mögliche Werte:FULL
undINCREMENTAL
. Der Standardwert istINCREMENTAL
. Wenn SieINCREMENTAL
angeben, werden die Daten aus BigQuery inkrementell in Ihrem Datenspeicher aktualisiert. Dies führt einen Upsert-Vorgang aus, der neue Dokumente zu erstellen und vorhandene Dokumente durch aktualisierte Dokumente zu ersetzen. mit derselben ID. Die Angabe vonFULL
führt zu einer vollständigen Rebase der Dokumente in Ihrem Datenspeicher. Mit anderen Worten: Ihrem Datenspeicher werden neue und aktualisierte Dokumente hinzugefügt und Dokumente, die nicht in BigQuery vorhanden sind, werden daraus entfernt. Der ModusFULL
ist hilfreich, wenn Sie Dokumente, die Sie nicht mehr benötigen, automatisch löschen möchten.AUTO_GENERATE_IDS
: Optional. Gibt an, ob automatisch Dokument-IDs generieren. Mit der Einstellungtrue
werden Dokument-IDs werden basierend auf einem Hash der Nutzlast generiert. Die generierten Dokument-IDs bleiben bei mehreren Importen möglicherweise nicht gleich. Wenn automatisch IDs über mehrere Importe hinweg generieren, empfiehlt,reconciliationMode
aufFULL
zu setzen, um einheitliche Dokument-IDs.Geben Sie
autoGenerateIds
nur an, wennbigquerySource.dataSchema
aufcustom
festgelegt ist. Andernfalls wird der FehlerINVALID_ARGUMENT
zurückgegeben. Wenn SieautoGenerateIds
nicht angeben oder auffalse
verwenden, müssen SieidField
angeben. Andernfalls können die Dokumente nicht importiert werden.ID_FIELD
: Optional. Gibt an, welche Felder die Dokument-IDs sind. Bei BigQuery-Quelldateien gibtidField
den Namen der Spalte in der BigQuery-Tabelle an, die die Dokument-IDs enthält.Geben Sie
idField
nur an, wenn (1)bigquerySource.dataSchema
aufcustom
und (2)auto_generate_ids
auffalse
festgelegt ist oder nicht angegeben wurde. Andernfalls wird der FehlerINVALID_ARGUMENT
zurückgegeben.Der Wert des BigQuery-Spaltennamens muss Stringtyp, muss zwischen 1 und 63 Zeichen lang sein und muss gemäß RFC-1034. Andernfalls wird das Feld Dokumente konnten nicht importiert werden.
C#
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder C# API.
Richten Sie zur Authentifizierung bei Vertex AI Agent Builder Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Go
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Go API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Vertex AI Agent Builder zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Java
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Java API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Vertex AI Agent Builder zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Node.js
Weitere Informationen finden Sie in der Vertex AI Agent Builder Node.js API Referenzdokumentation.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Vertex AI Agent Builder zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Python API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Vertex AI Agent Builder zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Ruby
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Ruby API.
Richten Sie zur Authentifizierung bei Vertex AI Agent Builder Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Mit periodischer Synchronisierung eine Verbindung zu BigQuery herstellen
Prüfen Sie vor dem Datenimport, Daten für die Aufnahme vorbereiten
Im Folgenden wird beschrieben, wie Sie einen Daten-Connector erstellen, der ein BigQuery-Dataset mit einem Vertex AI Search-Daten-Connector verknüpft, und wie Sie für jeden Datenspeicher, den Sie erstellen möchten, eine Tabelle im Dataset angeben. Datenspeicher, die Daten-Connectors untergeordnet sind, werden als Entität bezeichnet. Datenspeichern verwendet werden.
Daten aus dem Datensatz werden regelmäßig mit den Entitätsdatenspeichern synchronisiert. Sie können die Synchronisierung täglich, alle drei Tage oder alle fünf Tage festlegen.
Console
So erstellen Sie mit der Google Cloud Console einen Connector, der Daten aus einem BigQuery-Dataset regelmäßig mit Vertex AI Search synchronisiert:
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Klicken Sie im Navigationsmenü auf Datenspeicher.
Klicken Sie auf Datenspeicher erstellen.
Wählen Sie auf der Seite Quelle die Option BigQuery aus.
Wählen Sie die Art der Daten aus, die Sie importieren.
Klicken Sie auf Regelmäßig.
Wählen Sie unter Synchronisierungshäufigkeit die Häufigkeit aus, mit der die Vertex AI Search-Connector zur Synchronisierung mit BigQuery Dataset. Sie können die Häufigkeit später ändern.
Klicken Sie im Feld BigQuery-Dataset-Pfad auf Durchsuchen und wählen Sie das Dataset aus. die die Tabellen enthält, die Sie für die Datenaufnahme. Alternativ können Sie den Speicherort der Tabelle direkt eingeben im Feld BigQuery-Pfad ein. Das Format für den Pfad ist
projectname.datasetname
.Klicken Sie im Feld Zu synchronisierende Tabellen auf Durchsuchen und wählen Sie eine Tabelle aus. das die Daten enthält, die Sie für den Datenspeicher benötigen.
Wenn es zusätzliche Tabellen in dem Dataset gibt, die Sie für klicken Sie auf Tabelle hinzufügen und geben Sie diese Tabellen ebenfalls an.
Klicken Sie auf Weiter.
Wählen Sie eine Region für den Datenspeicher aus, geben Sie einen Namen für den Daten-Connector ein und klicken Sie auf Erstellen.
Sie haben jetzt einen Data Connector erstellt, mit dem Daten regelmäßig mit dem BigQuery-Dataset synchronisiert werden. Außerdem haben Sie einen oder mehrere Entitätsdatenspeicher erstellt. Die Datenspeicher haben dieselben Namen wie die BigQuery- Tabellen.
Rufen Sie die Seite Datenspeicher auf und klicken Sie auf den Namen des Daten-Connectors, um Details auf der Seite Daten > Tab Aktivitäten der Datenaufnahme aufzurufen. Wenn sich der Status in der Spalte „Status“ auf dem Tab Aktivität von In Bearbeitung zu Erfolgreich ändert, ist die erste Datenaufnahme abgeschlossen.
Je nach Größe der Daten kann die Datenaufnahme einige Minuten bis mehrere Stunden dauern.
Nachdem Sie die Datenquelle eingerichtet und zum ersten Mal Daten importiert haben, synchronisiert die Daten aus dieser Quelle mit einer Häufigkeit, die Sie bei der Einrichtung festlegen. Etwa eine Stunde nach dem Erstellen des Daten-Connectors erfolgt die erste Synchronisierung. Die nächste Synchronisierung erfolgt dann nach etwa 24, 72 oder 120 Stunden.
Nächste Schritte
Wenn Sie Ihren Datenspeicher an eine App anhängen möchten, erstellen Sie eine App und wählen Sie Ihren Datenspeicher aus. Folgen Sie dazu der Anleitung unter Suchanwendung erstellen.
So sehen Sie sich eine Vorschau der Suchergebnisse an, die nach der Erstellung Ihrer App und Ihres Datenspeichers angezeigt werden. finden Sie unter Suchergebnisse abrufen
Aus Cloud Storage importieren
Sie haben zwei Möglichkeiten, Datenspeicher aus Cloud Storage-Tabellen zu erstellen:
Einmalige Aufnahme: Sie importieren Daten aus einem Cloud Storage-Ordner oder einer Cloud Storage-Datei. in einem Datenspeicher gespeichert. Die Daten im Datenspeicher ändern sich nur, wenn Sie sie manuell aktualisieren.
Regelmäßige Datenaufnahme: Sie importieren Daten aus einem Cloud Storage-Ordner oder einer Cloud Storage-Datei und legen eine Synchronisierungshäufigkeit fest, die bestimmt, wie oft der Datenspeicher mit den neuesten Daten von diesem Cloud Storage-Speicherort aktualisiert wird.
In der folgenden Tabelle werden die beiden Möglichkeiten zum Importieren von Cloud Storage-Daten in Vertex AI Search-Datenspeicher verglichen.
Einmalige Datenaufnahme | Regelmäßige Datenaufnahme |
---|---|
Allgemeine Verfügbarkeit (General Availability, GA): | Öffentliche Vorschau. |
Die Daten müssen manuell aktualisiert werden. | Die Daten werden automatisch alle ein, drei oder fünf Tage aktualisiert. Daten können nicht manuell aktualisiert werden. |
Vertex AI Search erstellt aus einem Ordner oder einer Datei in Cloud Storage einen einzelnen Datenspeicher. | Vertex AI Search erstellt einen Daten-Connector. einen Datenspeicher (einen sogenannten Entitätsdatenspeicher) mit ihm verknüpft, der angegebenen Datei oder des angegebenen Ordners. Jeder Cloud Storage-Daten-Connector kann einen einzelnen Entitätsdatenspeicher haben. |
Daten aus mehreren Dateien, Ordnern und Buckets können in einem zusammengefasst werden indem Sie Daten von einem Cloud Storage-Speicherort aufnehmen und dann weitere Daten von einem anderen Speicherort. | Da der manuelle Datenimport nicht unterstützt wird, werden die Daten in einer Entität Datenspeicher kann nur aus einer Cloud Storage-Datei oder einem Cloud Storage-Ordner bezogen werden. |
Die Zugriffssteuerung für Datenquellen wird unterstützt. Weitere Informationen finden Sie unter Zugriffssteuerung für Datenquellen. | Die Zugriffssteuerung für Datenquellen wird nicht unterstützt. Die importierten Daten können Zugriffssteuerungen enthalten, diese werden aber nicht berücksichtigt. |
Sie können einen Datenspeicher entweder über die Google Cloud Console oder die API erstellen. | Sie müssen die Console verwenden, um Datenconnectors und ihre Entitätsdatenspeicher zu erstellen. |
CMEK-kompatibel. | Nicht CMEK-konform. |
Einmal aus Cloud Storage importieren
Führen Sie die folgenden Schritte aus, um Daten aus Cloud Storage aufzunehmen. einen Datenspeicher hinzufügen und Daten über die Google Cloud Console oder die API aufnehmen.
Prüfen Sie vor dem Datenimport, Daten für die Aufnahme vorbereiten
Console
So verwenden Sie die Console zum Aufnehmen von Daten aus einem Cloud Storage-Bucket: Schritte:
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Rufen Sie die Seite Datenspeicher auf.
Klicken Sie auf Neuer Datenspeicher.
Wählen Sie auf der Seite Quelle die Option Cloud Storage aus.
Wählen Sie im Abschnitt Zu importierenden Ordner oder zu importierende Datei auswählen die Option Ordner oder Datei:
Klicken Sie auf Durchsuchen und wählen Sie die Daten aus, die Ihnen zur Verfügung stehen. für die Aufnahme vorbereitet aus und klicken Sie dann auf Auswählen. Alternativ können Sie den Standort direkt in das Feld
gs://
eingeben.Wählen Sie aus, welche Art von Daten Sie importieren möchten.
Klicken Sie auf Weiter.
Wenn Sie einmalig strukturierte Daten importieren:
Ordnen Sie Felder wichtigen Properties zu.
Wenn dem Schema wichtige Felder fehlen, können Sie sie mit Neues Feld hinzufügen hinzufügen.
Weitere Informationen finden Sie unter Automatische Erkennung und Bearbeitung.
Klicken Sie auf Weiter.
Wählen Sie eine Region für den Datenspeicher aus.
Geben Sie einen Namen für den Datenspeicher ein.
Optional: Wenn Sie unstrukturierte Dokumente ausgewählt haben, können Sie das Parsen und Segmentierungsoptionen für Ihre Dokumente. Einen Vergleich von Parsern finden Sie unter Parser Dokumente. Weitere Informationen zur Aufteilung finden Sie unter Aufteilen von Dokumenten für RAG
Für den OCR- und Layout-Parser können zusätzliche Kosten anfallen. Preise für DocAI-Funktionen
Wenn Sie einen Parser auswählen möchten, maximieren Sie Optionen für die Dokumentverarbeitung und geben Sie die gewünschten Parseroptionen an.
Klicken Sie auf Erstellen.
Den Status der Datenaufnahme können Sie auf der Seite Datenspeicher prüfen. Klicken Sie dazu auf den Namen des Datenspeichers, um auf der Seite Daten Details dazu aufzurufen. Wenn sich die Statusspalte auf dem Tab Aktivität von In Bearbeitung ändert auf Import abgeschlossen gesetzt, ist die Aufnahme abgeschlossen.
Je nach Größe Ihrer Daten kann die Aufnahme mehrere Minuten oder mehrere Stunden.
REST
So erstellen Sie mit der Befehlszeile einen Datenspeicher und nehmen Daten aus Cloud Storage auf:
Erstellen Sie einen Datenspeicher.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_SEARCH"], "contentConfig": "CONTENT_REQUIRED", }'
Ersetzen Sie Folgendes:
PROJECT_ID
ist die ID Ihres Google Cloud-Projekts.DATA_STORE_ID
: die ID des Vertex AI Search-Datenspeichers, den Sie erstellen möchten. Diese ID darf nur Kleinbuchstaben enthalten Buchstaben, Ziffern, Unterstriche und Bindestriche.DATA_STORE_DISPLAY_NAME
: der Anzeigename von Vertex AI Suchdatenspeicher, den Sie erstellen möchten.
Optional: Wenn Sie das Dokumenten-Parsing konfigurieren oder das Dokumenten-Chunking für RAG aktivieren möchten, geben Sie das
documentProcessingConfig
-Objekt an und nehmen Sie es in Ihre Anfrage zum Erstellen des Datenspeichers auf. Wenn Sie gescannte PDFs aufnehmen, wird empfohlen, einen OCR-Parser für PDFs zu konfigurieren. Informationen zum Konfigurieren von Optionen für das Parsen oder Chunking finden Sie unter Dokumente parsen und in Chunks aufteilen.Daten aus Cloud Storage importieren.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "gcsSource": { "inputUris": ["INPUT_FILE_PATTERN_1", "INPUT_FILE_PATTERN_2"], "dataSchema": "DATA_SCHEMA", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
Ersetzen Sie Folgendes:
PROJECT_ID
ist die ID Ihres Google Cloud-Projekts.DATA_STORE_ID
: die ID des Vertex AI Search-Datenspeichers.INPUT_FILE_PATTERN
: Ein Dateimuster in Cloud Storage, das Ihre Dokumente enthält.Bei strukturierten Daten oder unstrukturierten Daten mit Metadaten Ein Beispiel für das Muster der Eingabedatei
gs://<your-gcs-bucket>/directory/object.json
und ein Beispiel für Musterabgleich für eine oder mehrere Dateiengs://<your-gcs-bucket>/directory/*.json
.Ein Beispiel für unstrukturierte Dokumente ist
gs://<your-gcs-bucket>/directory/*.pdf
. Jede Datei, die mit dem Muster übereinstimmt, wird zu einem Dokument.Wenn
<your-gcs-bucket>
nicht unter PROJECT_ID liegt: müssen Sie dem Dienstkontoservice-<project number>@gcp-sa-discoveryengine.iam.gserviceaccount.com
Objektbetrachter“ Berechtigungen für den Cloud Storage-Bucket. Wenn Sie beispielsweise einen Cloud Storage-Bucket aus dem Quellprojekt „123“ in das Zielprojekt „456“ importieren, gewähren Sieservice-456@gcp-sa-discoveryengine.iam.gserviceaccount.com
-Berechtigungen für den Cloud Storage-Bucket unter dem Projekt „123“.DATA_SCHEMA
: Optional. Mögliche Werte sinddocument
,custom
,csv
undcontent
. Der Standardwert istdocument
.document
: Unstrukturierte Daten mit Metadaten hochladen für unstrukturierten Dokumenten. Jede Zeile der Datei muss einer der folgenden Formate nutzen. Sie können die ID jedes Dokuments definieren:{ "id": "<your-id>", "jsonData": "<JSON string>", "content": { "mimeType": "<application/pdf or text/html>", "uri": "gs://<your-gcs-bucket>/directory/filename.pdf" } }
{ "id": "<your-id>", "structData": <JSON object>, "content": { "mimeType": "<application/pdf or text/html>", "uri": "gs://<your-gcs-bucket>/directory/filename.pdf" } }
custom
: Laden Sie JSON für strukturierte Dokumente hoch. Die Daten sind nach einem Schema organisiert. Sie können das Schema angeben: Andernfalls wird sie automatisch erkannt. Sie können den JSON-String des in einem einheitlichen Format direkt in jeder Zeile Vertex AI Search generiert die IDs automatisch für jedes importierte Dokument.content
: Unstrukturierte Dokumente hochladen (PDF, HTML, DOC, TXT, PPTX). Die ID jedes Dokuments wird automatisch die ersten 128 Bits von SHA256(GCS_URI) als hexadezimaler String codiert. Sie können mehrere Eingabedateimuster angeben, solange die übereinstimmenden Dateien dürfen die Beschränkung auf 100.000 Dateien nicht überschreiten.csv
: Fügen Sie Ihrer CSV-Datei eine Kopfzeile hinzu, wobei jeder Kopfzeile ein Dokumentfeld zugeordnet ist. Geben Sie im FeldinputUris
den Pfad zur CSV-Datei an.
ERROR_DIRECTORY
: Optional. Ein Cloud Storage-Verzeichnis für Fehlerinformationen zum Import, z. B.gs://<your-gcs-bucket>/directory/import_errors
. Google empfiehlt Lassen Sie dieses Feld leer, damit Vertex AI Search automatisch ein temporäres Verzeichnis erstellen.RECONCILIATION_MODE
: Optional. Mögliche Werte:FULL
undINCREMENTAL
. Der Standardwert istINCREMENTAL
.INCREMENTAL
angeben eine inkrementelle Aktualisierung der Daten von Cloud Storage auf Ihren Datenspeicher. Dadurch wird ein Upsert-Vorgang ausgeführt, bei dem neue Dokumente hinzugefügt werden. und ersetzt vorhandene Dokumente durch aktualisierte Dokumente ID. Die Angabe vonFULL
führt zu einem vollständigen Rebase der Dokumente in Ihrem Datenspeicher. Mit anderen Worten: Ihrem Datenspeicher werden neue und aktualisierte Dokumente hinzugefügt und Dokumente, die nicht in Cloud Storage vorhanden sind, werden daraus entfernt. DerFULL
-Modus ist hilfreich, wenn Sie nicht mehr benötigte Dokumente automatisch zu löschen.AUTO_GENERATE_IDS
: Optional. Gibt an, ob Dokument-IDs automatisch generiert werden sollen. Mit der Einstellungtrue
werden Dokument-IDs werden basierend auf einem Hash der Nutzlast generiert. Das generierte Dokument-IDs bleiben möglicherweise bei mehreren Importen nicht einheitlich. Wenn Sie IDs bei mehreren Importen automatisch generieren, empfehlen wir Ihnen,reconciliationMode
aufFULL
festzulegen, um einheitliche Dokument-IDs beizubehalten.Geben Sie
autoGenerateIds
nur an, wenngcsSource.dataSchema
aufcustom
odercsv
festgelegt ist. Andernfalls wird der FehlerINVALID_ARGUMENT
zurückgegeben. Wenn SieautoGenerateIds
nicht angeben oder auffalse
verwenden, müssen SieidField
angeben. Andernfalls werden die Dokumente nicht zu importieren.ID_FIELD
: Optional. Gibt an, welche Felder die Dokument-IDs. Für Cloud Storage-Quelldokumente:idField
gibt den Namen in den JSON-Feldern an, bei dem es sich um Dokument-IDs handelt. Wenn{"my_id":"some_uuid"}
beispielsweise das Feld für die Dokument-ID in einem Ihrer Dokumente ist, geben Sie"idField":"my_id"
an. Dadurch werden alle JSON-Felder mit dem Namen"my_id"
als Dokument-IDs identifiziert.Geben Sie dieses Feld nur an, wenn (1)
gcsSource.dataSchema
aufcustom
odercsv
festgelegt ist und (2)auto_generate_ids
auffalse
festgelegt ist oder nicht angegeben ist. Andernfalls wird der FehlerINVALID_ARGUMENT
zurückgegeben.Der Wert des Cloud Storage-JSON-Felds muss Stringtyp, muss 1 bis 63 Zeichen lang sein und den RFC-1034. Andernfalls wird das Feld Dokumente konnten nicht importiert werden.
Der mit
id_field
angegebene JSON-Feldname muss vom Typ „String“ sein, zwischen 1 und 63 Zeichen lang und RFC-1034 entsprechen. Andernfalls wird das Feld Dokumente konnten nicht importiert werden.
C#
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder C# API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Vertex AI Agent Builder zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Go
Weitere Informationen finden Sie in der Vertex AI Agent Builder Go API Referenzdokumentation.
Richten Sie zur Authentifizierung bei Vertex AI Agent Builder Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Java
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Java API.
Richten Sie zur Authentifizierung bei Vertex AI Agent Builder Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Node.js
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Agent Builder Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Python
Weitere Informationen finden Sie in der Vertex AI Agent Builder Python API Referenzdokumentation.
Richten Sie zur Authentifizierung bei Vertex AI Agent Builder Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Ruby
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Ruby API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Vertex AI Agent Builder zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Mit Cloud Storage verbinden und regelmäßig synchronisieren
Lesen Sie vor dem Importieren Ihrer Daten den Hilfeartikel Daten für die Aufnahme vorbereiten.
Im Folgenden wird beschrieben, wie Sie einen Daten-Connector erstellen, der einen Cloud Storage-Speicherort mit Vertex AI Search-Daten und wie Sie dort einen Ordner oder eine Datei für die Daten den Sie erstellen möchten. Datenspeicher, die untergeordnete Elemente von Datenanschlüssen sind, werden als Entitätsdatenspeicher bezeichnet.
Die Daten werden regelmäßig mit dem Entitätsdatenspeicher synchronisiert. Sie können die Synchronisierung täglich, alle drei Tage oder alle fünf Tage festlegen.
Console
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Rufen Sie die Seite Datenspeicher auf.
Klicken Sie auf Datenspeicher erstellen.
Wählen Sie auf der Seite Quelle die Option Cloud Storage aus.
Wählen Sie aus, welche Daten Sie importieren.
Klicken Sie auf Regelmäßig.
Wählen Sie die Häufigkeit der Synchronisierung aus, mit der der Vertex AI Search-Connector mit dem Cloud Storage-Speicherort synchronisiert werden soll. Sie können die Häufigkeit später ändern.
Wählen Sie im Abschnitt Zu importierenden Ordner oder zu importierende Datei auswählen die Option Ordner oder Datei:
Klicken Sie auf Durchsuchen, wählen Sie die Daten aus, die Sie für die Datenaufnahme vorbereitet haben, und klicken Sie dann auf Auswählen. Alternativ können Sie den Standort direkt in das Feld
gs://
eingeben.Klicken Sie auf Weiter.
Wählen Sie eine Region für den Daten-Connector aus.
Geben Sie einen Namen für den Daten-Connector ein.
Optional: Wenn Sie unstrukturierte Dokumente ausgewählt haben, können Sie das Parsen und Segmentierungsoptionen für Ihre Dokumente. Informationen zum Vergleichen von Parsern finden Sie unter Dokumente parsen. Informationen zum Chunking finden Sie unter Dokumente für RAG in Chunks aufteilen.
Für den OCR-Parser und Layoutparser können zusätzliche Kosten anfallen. Siehe Dokument Preise für KI-Funktionen
Wenn Sie einen Parser auswählen möchten, maximieren Sie Optionen für die Dokumentverarbeitung und geben Sie die gewünschten Parseroptionen an.
Klicken Sie auf Erstellen.
Sie haben jetzt einen Daten-Connector erstellt, der regelmäßig Daten synchronisiert durch den Cloud Storage-Speicherort. Sie haben auch eine Entität erstellt mit dem Namen
gcs_store
.Den Status der Datenaufnahme können Sie auf der Seite Datenspeicher prüfen. Klicken Sie dazu auf den Namen des Daten-Connectors, um auf der Seite Daten Details dazu aufzurufen.
Tab Datenaufnahmeaktivität Wenn sich der Status in der Spalte „Status“ auf dem Tab Aktivitäten der Datenaufnahme von In Bearbeitung zu Erfolgreich ändert, ist die erste Datenaufnahme abgeschlossen.
Je nach Größe der Daten kann die Datenaufnahme einige Minuten bis mehrere Stunden dauern.
Nachdem Sie die Datenquelle eingerichtet und zum ersten Mal Daten importiert haben, von dieser Quelle mit einer Häufigkeit synchronisiert, die Sie bei der Einrichtung ausgewählt haben. Etwa eine Stunde nach der Erstellung des Daten-Connectors findet die erste Synchronisierung statt. Die nächste Synchronisierung erfolgt dann nach etwa 24 Stunden, 72 Stunden oder 120 Stunden später.
Nächste Schritte
Erstellen Sie eine Anwendung und wählen Sie Ihren Datenspeicher aus, um Ihren Datenspeicher an eine Anwendung anzuhängen indem Sie die Schritte in Erstellen Sie eine Suchanwendung.
So sehen Sie sich eine Vorschau der Suchergebnisse an, die nach der Erstellung Ihrer App und Ihres Datenspeichers angezeigt werden. finden Sie unter Suchergebnisse abrufen
Aus Google Drive synchronisieren
Wenn Sie Daten aus Google Drive synchronisieren möchten, erstellen Sie mithilfe der folgenden Schritte einen Datenspeicher und nehmen Sie Daten mit der Google Cloud Console auf.
Daten aus Google Drive werden kontinuierlich mit Vertex AI Search synchronisiert, erstellen Sie Ihren Datenspeicher.
Hinweise:
Sie müssen in der Google Cloud Console mit demselben Konto angemeldet sein, das Sie für die Google Drive-Instanz verwenden, die Sie verbinden möchten. Vertex AI Search verwendet Ihre Google Workspace-Kundennummer um eine Verbindung zu Google Drive herzustellen.
Richten Sie die Zugriffssteuerung für Google Drive ein. Informationen zum Einrichten der Zugriffssteuerung finden Sie unter Zugriffssteuerung für Datenquellen verwenden.
Console
Wenn Sie die Console zum Suchen nach Google Drive-Daten verwenden möchten, führen Sie die folgenden Schritte aus: Schritte:
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Rufen Sie die Seite Datenspeicher auf.
Klicken Sie auf Neuer Datenspeicher.
Wählen Sie auf der Seite Quelle die Option Google Drive aus.
Wählen Sie eine Region für Ihren Datenspeicher aus.
Geben Sie einen Namen für den Datenspeicher ein.
Klicken Sie auf Erstellen. Je nach Größe der Daten kann die Datenaufnahme einige Minuten bis mehrere Stunden dauern. Warten Sie mindestens eine Stunde, bevor Sie Ihren Datenspeicher für die Suche verwenden.
Nächste Schritte
Wenn Sie Ihren Datenspeicher an eine App anhängen möchten, erstellen Sie eine App und wählen Sie Ihren Datenspeicher aus. Folgen Sie dazu der Anleitung unter Suchanwendung erstellen.
So sehen Sie sich eine Vorschau der Suchergebnisse an, die nach der Erstellung Ihrer App und Ihres Datenspeichers angezeigt werden. finden Sie unter Suchergebnisse abrufen
Aus Cloud SQL importieren
Führen Sie die folgenden Schritte aus, um Daten aus Cloud SQL aufzunehmen Cloud SQL-Zugriff, Erstellen eines Datenspeichers und Aufnehmen von Daten.
Zugriff auf Staging-Bucket für Cloud SQL-Instanzen einrichten
Bei der Aufnahme von Daten aus Cloud SQL werden die Daten zuerst in einem Cloud Storage-Bucket bereitgestellt. So gewähren Sie einer Cloud SQL-Instanz Zugriff auf Cloud Storage-Buckets:
Rufen Sie in der Google Cloud Console die Seite SQL auf.
Klicken Sie auf die Cloud SQL-Instanz, aus der Sie importieren möchten.
Kopieren Sie die Kennung für das Dienstkonto der Instanz, die wie folgt aussieht: E-Mail-Adresse, z. B.
p9876-abcd33f@gcp-sa-cloud-sql.iam.gserviceaccount.com
Zur Seite IAM & Verwaltung.
Klicken Sie auf Zugriff erlauben.
Geben Sie unter Neue Hauptkonten die Kennzeichnung des Dienstkontos der Instanz ein und wählen Sie die Rolle Cloud Storage > Storage Admin aus.
Klicken Sie auf Speichern.
Als Nächstes führen Sie Folgendes aus:
Wenn sich Ihre Cloud SQL-Daten im selben Projekt wie Vertex AI Search befinden: Gehen Sie zu Daten aus Cloud SQL importieren.
Wenn sich Ihre Cloud SQL-Daten in einem anderen Projekt als Ihrem Vertex AI Search-Projekt befinden: Rufen Sie Cloud SQL-Zugriff über ein anderes Projekt einrichten auf.
Cloud SQL-Zugriff aus einem anderen Projekt einrichten
Um Vertex AI Search Zugriff auf Cloud SQL-Daten zu gewähren, verschiedenen Projekts arbeiten, gehen Sie so vor:
Ersetzen Sie die folgende Variable
PROJECT_NUMBER
durch Ihre Vertex AI Search-Projektnummer und kopieren Sie dann den Inhalt des Codeblocks. Dies ist Ihr Vertex AI Search-Dienstkonto Kennung:service-PROJECT_NUMBER@gcp-sa-discoveryengine.iam.gserviceaccount.com`
Zur Seite IAM & Verwaltung.
Wechseln Sie zu Ihrem Cloud SQL-Projekt im IAM & Seite „Verwaltung“ und klicken Sie auf Zugriff gewähren.
Geben Sie unter Neue Hauptkonten die Kennzeichnung für das Dienstkonto ein und wählen Sie die Rolle Cloud SQL > Cloud SQL-Betrachter aus.
Klicken Sie auf Speichern.
Gehen Sie als Nächstes zu Daten aus Cloud SQL importieren.
Daten aus Cloud SQL importieren
Console
So nehmen Sie mit der Console Daten aus Cloud SQL auf:
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Rufen Sie die Seite Datenspeicher auf.
Klicken Sie auf Neuer Datenspeicher.
Wählen Sie auf der Seite Quelle die Option Cloud SQL aus.
Geben Sie die Projekt-ID, die Instanz-ID, die Datenbank-ID und die Tabellen-ID der Daten an, die Sie importieren möchten.
Klicken Sie auf Durchsuchen, wählen Sie einen Cloud Storage-Zwischenspeicherort aus, in den die Daten exportiert werden sollen, und klicken Sie dann auf Auswählen. Alternativ: Standort eingeben direkt in das Feld
gs://
ein.Wählen Sie aus, ob der serverlose Export aktiviert werden soll. Für den serverlosen Export fallen zusätzliche Kosten an. Informationen zum serverlosen Export finden Sie in der Cloud SQL-Dokumentation unter Leistungseinbußen durch Exporte minimieren.
Klicken Sie auf Weiter.
Wählen Sie eine Region für den Datenspeicher aus.
Geben Sie einen Namen für den Datenspeicher ein.
Klicken Sie auf Erstellen.
Den Status der Datenaufnahme können Sie auf der Seite Datenspeicher prüfen. Klicken Sie dazu auf den Namen des Datenspeichers, um auf der Seite Daten Details dazu aufzurufen. Wenn sich die Statusspalte auf dem Tab Aktivität von In Bearbeitung ändert auf Import abgeschlossen gesetzt, ist die Aufnahme abgeschlossen.
Je nach Größe Ihrer Daten kann die Aufnahme mehrere Minuten oder mehrere Stunden.
REST
Um über die Befehlszeile einen Datenspeicher zu erstellen und Daten aus Cloud SQL ausführen, führen Sie die folgenden Schritte aus:
Erstellen Sie einen Datenspeicher.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_SEARCH"], }'
Ersetzen Sie Folgendes:
PROJECT_ID
: Die ID Ihres Projekts.DATA_STORE_ID
: Die ID des Datenspeichers. Der Ausweis kann dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.DISPLAY_NAME
: Der Anzeigename des Datenspeichers. Dies könnte in der Google Cloud Console angezeigt werden sollen.
Importieren Sie Daten aus Cloud SQL.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "cloudSqlSource": { "projectId": "SQL_PROJECT_ID", "instanceId": "INSTANCE_ID", "databaseId": "DATABASE_ID", "tableId": "TABLE_ID", "gcsStagingDir": "STAGING_DIRECTORY" }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", }'
Ersetzen Sie Folgendes:
PROJECT_ID
: Die ID Ihrer Vertex AI Search Projekt arbeiten.DATA_STORE_ID
: Die ID des Datenspeichers. Der Ausweis kann dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.SQL_PROJECT_ID
: Die ID Ihres Cloud SQL-Projekts.INSTANCE_ID
: Die ID Ihrer Cloud SQL-Instanz.DATABASE_ID
: Die ID Ihrer Cloud SQL-Datenbank.TABLE_ID
: Die ID Ihrer Cloud SQL-Tabelle.STAGING_DIRECTORY
: Optional. Cloud Storage Verzeichnis, z. B.gs://<your-gcs-bucket>/directory/import_errors
RECONCILIATION_MODE
: Optional. Mögliche Werte sindFULL
undINCREMENTAL
. Der Standardwert istINCREMENTAL
. Wenn SieINCREMENTAL
angeben, werden die Daten aus Cloud SQL inkrementell in Ihrem Datenspeicher aktualisiert. Dadurch wird ein Upsert-Vorgang ausgeführt, bei dem neue Dokumente hinzugefügt und vorhandene Dokumente durch aktualisierte Dokumente mit derselben ID ersetzt werden. Wenn SieFULL
angeben, werden die Dokumente in Ihrem Datenspeicher vollständig neu ausgerichtet. Mit anderen Worten: Ihren Daten werden neue und aktualisierte Dokumente hinzugefügt. und Dokumente, die nicht in Cloud SQL vorhanden sind, werden entfernt. Daten aus Ihrem Datenspeicher abrufen. Der ModusFULL
ist hilfreich, wenn Sie Dokumente, die Sie nicht mehr benötigen, automatisch löschen möchten.
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Python API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Vertex AI Agent Builder zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Nächste Schritte
Erstellen Sie eine Anwendung und wählen Sie Ihren Datenspeicher aus, um Ihren Datenspeicher an eine Anwendung anzuhängen indem Sie die Schritte in Erstellen Sie eine Suchanwendung.
Eine Vorschau, wie Ihre Suchergebnisse nach der Einrichtung Ihrer App und Ihres Datenspeichers aussehen, finden Sie unter Suchergebnisse abrufen.
Aus Spanner importieren
Wenn Sie Daten aus Spanner aufnehmen möchten, erstellen Sie mithilfe der Google Cloud Console oder der API einen Datenspeicher und nehmen Sie die Daten auf.
Spanner-Zugriff über ein anderes Projekt einrichten
Wenn sich Ihre Spanner-Daten im selben Projekt wie Vertex AI Search befinden, fahren Sie mit Daten aus Spanner importieren fort.
Um Vertex AI Search Zugriff auf Spanner-Daten zu gewähren, Projekt arbeiten, gehen Sie so vor:
Ersetzen Sie die folgende
PROJECT_NUMBER
-Variable durch Ihre Vertex AI Search-Projektnummer. Kopieren Sie dann den Inhalt Codeblock. Dies ist Ihr Vertex AI Search-Dienstkonto Kennung:service-PROJECT_NUMBER@gcp-sa-discoveryengine.iam.gserviceaccount.com
Zur Seite IAM & Verwaltung.
Wechseln Sie über die IAM- und Seite „Verwaltung“ und klicken Sie auf Zugriff gewähren.
Geben Sie unter Neue Hauptkonten die ID für das Dienstkonto ein und Wählen Sie eine der folgenden Optionen aus:
- Wenn Sie beim Importieren keinen Daten-Boost verwenden, wählen Sie die Rolle Cloud Spanner > Cloud Spanner Database Reader aus.
- Wenn Sie während des Imports die Datenoptimierung verwenden möchten, wählen Sie die Option Cloud Spanner > Cloud Spanner-Datenbankadministrator oder eine benutzerdefinierte Rolle mit den Berechtigungen Cloud Spanner-Datenbankleser und spanner.databases.useDataBoost. Informationen zu Data Boost finden Sie unter Übersicht über Data Boost in der Spanner-Dokumentation.
Klicken Sie auf Speichern.
Fahren Sie mit Daten aus Spanner importieren fort.
Daten aus Spanner importieren
Console
So nehmen Sie mit der Console Daten aus Spanner auf:
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Rufen Sie die Seite Datenspeicher auf.
Klicken Sie auf Neuer Datenspeicher.
Wählen Sie auf der Seite Quelle die Option Cloud Spanner aus.
Geben Sie die Projekt-ID, die Instanz-ID, die Datenbank-ID und die Tabellen-ID der Daten an, die Sie importieren möchten.
Wählen Sie aus, ob Data Boost aktiviert werden soll. Informationen zu Data Boost finden Sie unter Übersicht über Data Boost in der Spanner-Dokumentation.
Klicken Sie auf Weiter.
Wählen Sie eine Region für den Datenspeicher aus.
Geben Sie einen Namen für den Datenspeicher ein.
Klicken Sie auf Erstellen.
Den Status der Datenaufnahme können Sie auf der Seite Datenspeicher prüfen. Klicken Sie dazu auf den Namen des Datenspeichers, um auf der Seite Daten Details dazu aufzurufen. Wenn sich die Statusspalte auf dem Tab Aktivität von In Bearbeitung ändert auf Import abgeschlossen gesetzt, ist die Aufnahme abgeschlossen.
Je nach Größe Ihrer Daten kann die Aufnahme mehrere Minuten oder mehrere Stunden.
REST
So erstellen Sie über die Befehlszeile einen Datenspeicher und nehmen Daten aus Spanner auf:
Erstellen Sie einen Datenspeicher.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_SEARCH"], "contentConfig": "CONTENT_REQUIRED", }'
Ersetzen Sie Folgendes:
PROJECT_ID
: Die ID Ihres Vertex AI Search-Projekts.DATA_STORE_ID
: Die ID des Datenspeichers. Der Ausweis kann dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.DISPLAY_NAME
: Der Anzeigename des Datenspeichers. Dies könnte in der Google Cloud Console angezeigt werden sollen.
Daten aus Spanner importieren
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "cloudSpannerSource": { "projectId": "SPANNER_PROJECT_ID", "instanceId": "INSTANCE_ID", "databaseId": "DATABASE_ID", "tableId": "TABLE_ID", "enableDataBoost": "DATA_BOOST_BOOLEAN" }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", }'
Ersetzen Sie Folgendes:
PROJECT_ID
: Die ID Ihres Vertex AI Search-Projekts.DATA_STORE_ID
: Die ID des Datenspeichers.SPANNER_PROJECT_ID
: Die ID Ihres Spanner-Projekts.INSTANCE_ID
: Die ID Ihrer Spanner-Instanz.DATABASE_ID
: Die ID Ihrer Spanner-Datenbank.TABLE_ID
: Die ID Ihrer Spanner-Tabelle.DATA_BOOST_BOOLEAN
: Optional. Ob Data Boost aktiviert werden soll. Weitere Informationen zu Data Boost finden Sie in der Spanner-Dokumentation unter Data Boost-Übersicht.RECONCILIATION_MODE
: Optional. Mögliche Werte sindFULL
undINCREMENTAL
. Der Standardwert istINCREMENTAL
. AngabeINCREMENTAL
führt zu einer inkrementellen Aktualisierung der Daten aus Spanner zum Datenspeicher hinzufügen. Dadurch wird ein Upsert-Vorgang ausgeführt, bei dem neue Dokumente hinzugefügt und vorhandene Dokumente durch aktualisierte Dokumente mit derselben ID ersetzt werden. Die Angabe vonFULL
führt zu einem ein vollständiges Rebase der Dokumente in Ihrem Datenspeicher durchzuführen. Mit anderen Worten: Ihrem Datenspeicher werden neue und aktualisierte Dokumente hinzugefügt und Dokumente, die nicht in Spanner enthalten sind, werden aus Ihrem Datenspeicher entfernt. Die DerFULL
-Modus ist hilfreich, wenn du Dokumente automatisch löschen möchtest die Sie nicht mehr benötigen.AUTO_GENERATE_IDS
: Optional. Gibt an, ob Dokument-IDs automatisch generiert werden sollen. Wenn dieser Wert auftrue
gesetzt ist, werden Dokument-IDs basierend auf einem Hash der Nutzlast generiert. Das generierte Dokument-IDs bleiben möglicherweise bei mehreren Importen nicht einheitlich. Wenn automatisch IDs über mehrere Importe hinweg generieren, empfiehlt,reconciliationMode
aufFULL
zu setzen, um einheitliche Dokument-IDs.ID_FIELD
: Optional. Gibt an, welche Felder die Dokument-IDs sind.
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Python API.
Richten Sie zur Authentifizierung bei Vertex AI Agent Builder Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Nächste Schritte
Wenn Sie Ihren Datenspeicher an eine App anhängen möchten, erstellen Sie eine App und wählen Sie Ihren Datenspeicher aus. Folgen Sie dazu der Anleitung unter Suchanwendung erstellen.
So sehen Sie sich eine Vorschau der Suchergebnisse an, die nach der Erstellung Ihrer App und Ihres Datenspeichers angezeigt werden. finden Sie unter Suchergebnisse abrufen
Aus Firestore importieren
Wenn Sie Daten aus Firestore aufnehmen möchten, erstellen Sie mithilfe der folgenden Schritte einen Datenspeicher und nehmen Sie Daten entweder über die Google Cloud Console oder die API auf.
Wenn sich Ihre Firestore-Daten im selben Projekt wie Vertex AI Search befinden, rufen Sie Daten aus Firestore importieren auf.
Wenn sich Ihre Firestore-Daten in einem anderen Projekt als Ihr Vertex AI Search-Projekt: Firestore einrichten Zugriff.
Firestore-Zugriff aus einem anderen Projekt einrichten
Um Vertex AI Search Zugriff auf Firestore-Daten zu gewähren, Projekt arbeiten, gehen Sie so vor:
Ersetzen Sie die folgende Variable
PROJECT_NUMBER
durch Ihre Vertex AI Search-Projektnummer und kopieren Sie dann den Inhalt dieses Codeblocks. Das ist die Kennung Ihres Vertex AI Search-Dienstkontos:service-PROJECT_NUMBER@gcp-sa-discoveryengine.iam.gserviceaccount.com
Zur Seite IAM & Verwaltung.
Wechseln Sie zu Ihrem Firestore-Projekt in der IAM- und Seite „Verwaltung“ und klicken Sie auf Zugriff gewähren.
Geben Sie unter Neue Hauptkonten die Kennzeichnung des Dienstkontos der Instanz ein und wählen Sie die Rolle Datenspeicher > Cloud Datastore-Import-/Export-Administrator aus.
Klicken Sie auf Speichern.
Wechseln Sie zurück zu Ihrem Vertex AI Search-Projekt.
Gehen Sie als Nächstes zu Daten aus Firestore importieren.
Daten aus Firestore importieren
Console
So verwenden Sie die Console zum Aufnehmen von Daten aus Firestore: Schritte:
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Rufen Sie die Seite Datenspeicher auf.
Klicken Sie auf Neuer Datenspeicher.
Wählen Sie auf der Seite Quelle die Option Firestore aus.
Geben Sie die Projekt-ID, Datenbank-ID und Sammlungs-ID der Daten an, die Sie zu importieren.
Klicken Sie auf Weiter.
Wählen Sie eine Region für den Datenspeicher aus.
Geben Sie einen Namen für den Datenspeicher ein.
Klicken Sie auf Erstellen.
Den Status der Datenaufnahme können Sie auf der Seite Datenspeicher prüfen. Klicken Sie dazu auf den Namen des Datenspeichers, um auf der Seite Daten Details dazu aufzurufen. Wenn sich die Statusspalte auf dem Tab Aktivität von In Bearbeitung ändert auf Import abgeschlossen gesetzt, ist die Aufnahme abgeschlossen.
Je nach Größe Ihrer Daten kann die Aufnahme mehrere Minuten oder mehrere Stunden.
REST
Um über die Befehlszeile einen Datenspeicher zu erstellen und Daten aus Gehen Sie in Firestore so vor:
Erstellen Sie einen Datenspeicher.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_SEARCH"], }'
Ersetzen Sie Folgendes:
PROJECT_ID
: Die ID Ihres Projekts.DATA_STORE_ID
: Die ID des Datenspeichers. Der Ausweis kann dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.DISPLAY_NAME
: Der Anzeigename des Datenspeichers. Dies könnte in der Google Cloud Console angezeigt werden sollen.
Daten aus Firestore importieren.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "firestoreSource": { "projectId": "FIRESTORE_PROJECT_ID", "databaseId": "DATABASE_ID", "collectionId": "COLLECTION_ID", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", }'
Ersetzen Sie Folgendes:
PROJECT_ID
: Die ID Ihres Vertex AI Search-Projekts.DATA_STORE_ID
: Die ID des Datenspeichers. Die ID darf nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.FIRESTORE_PROJECT_ID
: Die ID Ihres Firestore-ProjektDATABASE_ID
: Die ID Ihrer Firestore-Datenbank.COLLECTION_ID
: die ID Ihres Firestore .RECONCILIATION_MODE
: Optional. Mögliche Werte:FULL
undINCREMENTAL
. Der Standardwert istINCREMENTAL
. Wenn SieINCREMENTAL
angeben, werden Daten aus Firestore inkrementell in Ihrem Datenspeicher aktualisiert. Es wird ein Upsert-Vorgang ausgeführt, bei dem neue Dokumente hinzugefügt und ersetzt vorhandene Dokumente durch aktualisierte Dokumente mit derselben ID. Wenn SieFULL
angeben, werden die Dokumente in Ihrem Datenspeicher vollständig neu ausgerichtet. Mit anderen Worten: Ihrem Datenspeicher werden neue und aktualisierte Dokumente hinzugefügt und Dokumente, die nicht in Firestore vorhanden sind, werden daraus entfernt. Der ModusFULL
ist hilfreich, wenn Sie Dokumente, die Sie nicht mehr benötigen, automatisch löschen möchten.AUTO_GENERATE_IDS
: Optional. Gibt an, ob Dokument-IDs automatisch generiert werden sollen. Wenn dieser Wert auftrue
gesetzt ist, werden Dokument-IDs basierend auf einem Hash der Nutzlast generiert. Die generierten Dokument-IDs bleiben bei mehreren Importen möglicherweise nicht gleich. Wenn automatisch IDs über mehrere Importe hinweg generieren, empfiehlt,reconciliationMode
aufFULL
zu setzen, um einheitliche Dokument-IDs.ID_FIELD
: Optional. Gibt an, welche Felder die Dokument-IDs sind.
Python
Weitere Informationen finden Sie in der Vertex AI Agent Builder Python API Referenzdokumentation.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Vertex AI Agent Builder zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Nächste Schritte
Erstellen Sie eine Anwendung und wählen Sie Ihren Datenspeicher aus, um Ihren Datenspeicher an eine Anwendung anzuhängen indem Sie die Schritte in Erstellen Sie eine Suchanwendung.
So sehen Sie sich eine Vorschau der Suchergebnisse an, die nach der Erstellung Ihrer App und Ihres Datenspeichers angezeigt werden. finden Sie unter Suchergebnisse abrufen
Aus Bigtable importieren
Führen Sie die folgenden Schritte aus, um Daten aus Bigtable aufzunehmen, einem Datenspeicher und Daten mit der API aufnehmen.
Bigtable-Zugriff einrichten
Um Vertex AI Search Zugriff auf Bigtable-Daten zu gewähren, Projekt arbeiten, gehen Sie so vor:
Ersetzen Sie die folgende Variable
PROJECT_NUMBER
durch die Projektnummer Ihrer Vertex AI Search-Instanz und kopieren Sie den Inhalt dieses Codeblocks. Das ist die Kennung Ihres Vertex AI Search-Dienstkontos:service-PROJECT_NUMBER@gcp-sa-discoveryengine.iam.gserviceaccount.com`
Zur Seite IAM & Verwaltung.
Wechseln Sie auf der Seite IAM & Seite „Verwaltung“ und klicken Sie auf Zugriff gewähren.
Geben Sie unter Neue Hauptkonten die Kennzeichnung des Dienstkontos der Instanz ein und wählen Sie die Rolle Bigtable > Bigtable Reader aus.
Klicken Sie auf Speichern.
Wechseln Sie zurück zu Ihrem Vertex AI Search-Projekt.
Gehen Sie als Nächstes zu Daten aus Bigtable importieren.
Daten aus Bigtable importieren
REST
So erstellen Sie über die Befehlszeile einen Datenspeicher und nehmen Daten aus Bigtable auf:
Erstellen Sie einen Datenspeicher.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_SEARCH"], }'
Ersetzen Sie Folgendes:
PROJECT_ID
: Die ID Ihres Projekts.DATA_STORE_ID
: Die ID des Datenspeichers. Der Ausweis kann dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.DISPLAY_NAME
: Der Anzeigename des Datenspeichers. Dieser Fehler wird möglicherweise in der Google Cloud Console angezeigt.
Daten aus Bigtable importieren.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "bigtableSource ": { "projectId": "BIGTABLE_PROJECT_ID", "instanceId": "INSTANCE_ID", "tableId": "TABLE_ID", "bigtableOptions": { "keyFieldName": "KEY_FIELD_NAME", "families": { "key": "KEY", "value": { "fieldName": "FIELD_NAME", "encoding": "ENCODING", "type": "TYPE", "columns": [ { "qualifier": "QUALIFIER", "fieldName": "FIELD_NAME", "encoding": "COLUMN_ENCODING", "type": "COLUMN_VALUES_TYPE" } ] } } ... } }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", }'
Ersetzen Sie Folgendes:
PROJECT_ID
: Die ID Ihrer Vertex AI Search Projekt arbeiten.DATA_STORE_ID
: Die ID des Datenspeichers. Der Ausweis kann dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.BIGTABLE_PROJECT_ID
: Die ID Ihres Bigtable-Projekts.INSTANCE_ID
: Die ID Ihrer Bigtable-Instanz.TABLE_ID
: Die ID Ihrer Bigtable-Tabelle.KEY_FIELD_NAME
: Optional, aber empfohlen. Der Feldname für nach der Aufnahme in Vertex AI Search für den Zeilenschlüsselwert.KEY
: erforderlich. Ein Stringwert für den Spaltenfamilienschlüssel.ENCODING
: Optional. Der Codierungsmodus der Werte, wenn der Typ nicht STRING ist. Dieser kann für eine bestimmte Spalte überschrieben werden, indem Sie diese Spalte incolumns
angeben und eine Codierung dafür festlegen.COLUMN_TYPE
: Optional. Der Werttyp dieser Spaltenfamilie.QUALIFIER
: erforderlich. Kennzeichner der Spalte.FIELD_NAME
: Optional, aber empfohlen. Der Feldname, der für diese Spalte nach der Datenaufnahme in die Vertex AI-Suche verwendet werden soll.COLUMN_ENCODING
: Optional. Codierungsmodus der Werte für eine bestimmte Spalte, wenn der Typ nicht STRING ist.RECONCILIATION_MODE
: Optional. Mögliche Werte:FULL
undINCREMENTAL
. Der Standardwert istINCREMENTAL
.INCREMENTAL
angeben eine inkrementelle Aktualisierung der Daten von Bigtable in Ihrem Datenspeicher. Dadurch wird ein Upsert-Vorgang ausgeführt, bei dem neue Dokumente hinzugefügt und vorhandene Dokumente durch aktualisierte Dokumente mit derselben ID ersetzt werden. Wenn SieFULL
angeben, werden die Dokumente in Ihrem Datenspeicher vollständig neu ausgerichtet. Mit anderen Worten: Neue und aktualisierte Dokumente werden Datenspeicher und Dokumente, die sich nicht in Bigtable befinden, werden aus Ihrem Datenspeicher entfernt. Der ModusFULL
ist hilfreich, wenn Sie Dokumente, die Sie nicht mehr benötigen, automatisch löschen möchten.AUTO_GENERATE_IDS
: Optional. Gibt an, ob Dokument-IDs automatisch generiert werden sollen. Mit der Einstellungtrue
werden Dokument-IDs werden basierend auf einem Hash der Nutzlast generiert. Das generierte Dokument-IDs bleiben möglicherweise bei mehreren Importen nicht einheitlich. Wenn automatisch IDs über mehrere Importe hinweg generieren, empfiehlt,reconciliationMode
aufFULL
zu setzen, um einheitliche Dokument-IDs.autoGenerateIds
nur angeben, wennbigquerySource.dataSchema
gleich aufcustom
festgelegt. Andernfalls wird der FehlerINVALID_ARGUMENT
zurückgegeben. Wenn SieautoGenerateIds
nicht angeben oder auffalse
verwenden, müssen SieidField
angeben. Andernfalls werden die Dokumente nicht zu importieren.ID_FIELD
: Optional. Gibt an, welche Felder die Dokument-IDs sind.
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Python API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Vertex AI Agent Builder zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Nächste Schritte
Wenn Sie Ihren Datenspeicher an eine App anhängen möchten, erstellen Sie eine App und wählen Sie Ihren Datenspeicher aus. Folgen Sie dazu der Anleitung unter Suchanwendung erstellen.
So sehen Sie sich eine Vorschau der Suchergebnisse an, die nach der Erstellung Ihrer App und Ihres Datenspeichers angezeigt werden. finden Sie unter Suchergebnisse abrufen
Aus AlloyDB for PostgreSQL importieren
Wenn Sie Daten aus AlloyDB for PostgreSQL aufnehmen möchten, können Sie mithilfe der folgenden Schritte einen Datenspeicher erstellen und Daten entweder über die Google Cloud Console oder die API aufnehmen.
Wenn sich Ihre AlloyDB for PostgreSQL-Daten im selben Projekt wie Vertex AI Search-Projekt aufrufen: Daten importieren aus AlloyDB for PostgreSQL
Wenn sich Ihre AlloyDB for PostgreSQL-Daten in einem anderen Projekt als Ihrem Vertex AI Search-Projekt befinden, lesen Sie den Hilfeartikel AlloyDB for PostgreSQL-Zugriff einrichten.
AlloyDB for PostgreSQL-Zugriff aus einem anderen Projekt einrichten
So gewähren Sie der Vertex AI Search Zugriff auf AlloyDB for PostgreSQL-Daten in einem anderen Projekt:
Ersetzen Sie die folgende
PROJECT_NUMBER
-Variable durch Ihre Vertex AI Search-Projektnummer. Kopieren Sie dann den Inhalt Codeblock. Dies ist Ihr Vertex AI Search-Dienstkonto Kennung:service-PROJECT_NUMBER@gcp-sa-discoveryengine.iam.gserviceaccount.com
Wechseln Sie zum Google Cloud-Projekt, in dem Ihre AlloyDB for PostgreSQL-Daten enthalten sind. sich befindet.
Rufen Sie die IAM-Seite auf.
Klicken Sie auf Zugriff gewähren.
Geben Sie unter Neue Hauptkonten die Kennung des Vertex AI Search-Dienstkontos ein und wählen Sie die Rolle Cloud AlloyDB > Cloud AlloyDB Admin aus.
Klicken Sie auf Speichern.
Kehren Sie zu Ihrem Vertex AI Search-Projekt zurück.
Gehen Sie als Nächstes zu Daten aus AlloyDB for PostgreSQL importieren.
Daten aus AlloyDB for PostgreSQL importieren
Console
So nehmen Sie mit der Konsole Daten aus AlloyDB for PostgreSQL auf:
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Klicken Sie im Navigationsmenü auf Datenspeicher.
Klicken Sie auf Datenspeicher erstellen.
Wählen Sie auf der Seite Quelle die Option AlloyDB aus.
Geben Sie die Projekt-ID, die Standort-ID, die Cluster-ID, die Datenbank-ID und die Tabellen-ID an die Sie importieren möchten.
Klicken Sie auf Weiter.
Wählen Sie eine Region für den Datenspeicher aus.
Geben Sie einen Namen für den Datenspeicher ein.
Klicken Sie auf Erstellen.
Den Status der Datenaufnahme können Sie auf der Seite Datenspeicher prüfen. Klicken Sie dazu auf den Namen des Datenspeichers, um auf der Seite Daten Details dazu aufzurufen. Wenn sich die Statusspalte auf dem Tab Aktivität von In Bearbeitung ändert auf Import abgeschlossen gesetzt, ist die Aufnahme abgeschlossen.
Je nach Größe Ihrer Daten kann die Aufnahme mehrere Minuten oder mehrere Stunden.
REST
So erstellen Sie über die Befehlszeile einen Datenspeicher und nehmen Daten aus AlloyDB for PostgreSQL auf:
Erstellen Sie einen Datenspeicher.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_SEARCH"], }'
Ersetzen Sie Folgendes:
PROJECT_ID
: Die ID Ihres Projekts.DATA_STORE_ID
: Die ID des Datenspeichers. Der Ausweis kann dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.DISPLAY_NAME
: Der Anzeigename des Datenspeichers. Dies könnte in der Google Cloud Console angezeigt werden sollen.
Importieren Sie Daten aus AlloyDB for PostgreSQL.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "alloydbSource": { "projectId": "ALLOYDB_PROJECT_ID", "locationId": "LOCATION_ID", "clusterId": "CLUSTER_ID", "databaseId": "DATABASE_ID", "tableId": "TABLE_ID", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", }'
Ersetzen Sie Folgendes:
PROJECT_ID
: Die ID Ihres Vertex AI Search-Projekts.DATA_STORE_ID
: Die ID des Datenspeichers. Der Ausweis kann dürfen nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.ALLOYDB_PROJECT_ID
: Die ID Ihres AlloyDB for PostgreSQL-Projekts.LOCATION_ID
: die ID Ihrer AlloyDB for PostgreSQL Standort.CLUSTER_ID
: die ID Ihrer AlloyDB for PostgreSQL Cluster.DATABASE_ID
: die ID Ihrer AlloyDB for PostgreSQL Datenbank.TABLE_ID
: Die ID Ihrer AlloyDB for PostgreSQL-Tabelle.RECONCILIATION_MODE
: Optional. Mögliche Werte:FULL
undINCREMENTAL
. Der Standardwert istINCREMENTAL
. Wenn SieINCREMENTAL
angeben, werden die Daten aus AlloyDB for PostgreSQL inkrementell in Ihrem Datenspeicher aktualisiert. Dadurch wird ein Upsert-Vorgang ausgeführt, bei dem neue Dokumente hinzugefügt und vorhandene Dokumente durch aktualisierte Dokumente mit derselben ID ersetzt werden. Wenn SieFULL
angeben, werden die Dokumente in Ihrem Datenspeicher vollständig neu ausgerichtet. Mit anderen Worten: Ihren Daten werden neue und aktualisierte Dokumente hinzugefügt. Dokumente, die nicht in AlloyDB for PostgreSQL enthalten sind, werden entfernt. Daten aus Ihrem Datenspeicher abrufen. Der ModusFULL
ist hilfreich, wenn Sie Dokumente, die Sie nicht mehr benötigen, automatisch löschen möchten.AUTO_GENERATE_IDS
: Optional. Gibt an, ob Dokument-IDs automatisch generiert werden sollen. Wenn dieser Wert auftrue
gesetzt ist, werden Dokument-IDs basierend auf einem Hash der Nutzlast generiert. Die generierten Dokument-IDs bleiben bei mehreren Importen möglicherweise nicht gleich. Wenn automatisch IDs über mehrere Importe hinweg generieren, empfiehlt,reconciliationMode
aufFULL
zu setzen, um einheitliche Dokument-IDs.ID_FIELD
: Optional. Gibt an, welche Felder die Dokument-IDs.
Python
Weitere Informationen finden Sie in der Vertex AI Agent Builder Python API Referenzdokumentation.
Richten Sie zur Authentifizierung bei Vertex AI Agent Builder Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Datenspeicher erstellen
Dokumente importieren
Nächste Schritte
Wenn Sie Ihren Datenspeicher an eine App anhängen möchten, erstellen Sie eine App und wählen Sie Ihren Datenspeicher aus. Folgen Sie dazu der Anleitung unter Suchanwendung erstellen.
Eine Vorschau, wie Ihre Suchergebnisse nach der Einrichtung Ihrer App und Ihres Datenspeichers aussehen, finden Sie unter Suchergebnisse abrufen.
Strukturierte JSON-Daten mit der API hochladen
So laden Sie ein JSON-Dokument oder -Objekt direkt über die API hoch:
Bevor Sie Ihre Daten importieren, müssen Sie sie für die Aufnahme vorbereiten.
REST
So erstellen Sie mit der Befehlszeile einen Datenspeicher und importieren strukturierte JSON-Daten:
Erstellen Sie einen Datenspeicher.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_SEARCH"] }'
Ersetzen Sie Folgendes:
PROJECT_ID
ist die ID Ihres Google Cloud-Projekts.DATA_STORE_ID
: die ID des Vertex AI Search-Datenspeichers, den Sie erstellen möchten. Diese ID darf nur Kleinbuchstaben enthalten Buchstaben, Ziffern, Unterstriche und Bindestriche.DATA_STORE_DISPLAY_NAME
: Der Anzeigename des Vertex AI Search-Datenspeichers, den Sie erstellen möchten.
Strukturierte Daten importieren
Es gibt verschiedene Möglichkeiten, Daten hochzuladen:
Laden Sie ein JSON-Dokument hoch.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents?documentId=DOCUMENT_ID" \ -d '{ "jsonData": "JSON_DOCUMENT_STRING" }'
Ersetzen Sie Folgendes:
DOCUMENT_ID
: eine eindeutige ID für das Dokument. Diese ID darf bis zu 63 Zeichen lang sein und nur Kleinbuchstaben, Ziffern, Unterstriche und Bindestriche enthalten.JSON_DOCUMENT_STRING
: das JSON-Dokument als einzelnen String. Dieser muss dem JSON-Schema entsprechen, das Sie im vorherigen Schritt angegeben haben. Beispiel:{ \"title\": \"test title\", \"categories\": [\"cat_1\", \"cat_2\"], \"uri\": \"test uri\"}
Laden Sie ein JSON-Objekt hoch.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents?documentId=DOCUMENT_ID" \ -d '{ "structData": JSON_DOCUMENT_OBJECT }'
Ersetzen Sie
JSON_DOCUMENT_OBJECT
durch das JSON-Dokument als JSON-Objekt. Dieser muss dem JSON-Schema entsprechen, das Sie im vorherigen Schritt angegeben haben, z. B.:```json { "title": "test title", "categories": [ "cat_1", "cat_2" ], "uri": "test uri" } ```
Aktualisieren Sie die Daten mit einem JSON-Dokument.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents/DOCUMENT_ID" \ -d '{ "jsonData": "JSON_DOCUMENT_STRING" }'
Aktualisieren Sie sie mit einem JSON-Objekt.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents/DOCUMENT_ID" \ -d '{ "structData": JSON_DOCUMENT_OBJECT }'
Nächste Schritte
Wenn Sie Ihren Datenspeicher an eine App anhängen möchten, erstellen Sie eine App und wählen Sie Ihren Datenspeicher aus. Folgen Sie dazu der Anleitung unter Suchanwendung erstellen.
So sehen Sie sich eine Vorschau der Suchergebnisse an, die nach der Erstellung Ihrer App und Ihres Datenspeichers angezeigt werden. finden Sie unter Suchergebnisse abrufen
Fehler bei der Datenaufnahme beheben
Wenn Sie Probleme mit der Datenaufnahme haben, lesen Sie die folgenden Tipps:
Wenn Sie vom Kunden verwaltete Verschlüsselungsschlüssel verwenden und der Datenimport fehlschlägt (mit der Fehlermeldung
The caller does not have permission
), prüfen Sie, ob dem Cloud Storage-Dienst-Agent die IAM-Rolle „CryptoKey Encrypter/Decrypter“ (roles/cloudkms.cryptoKeyEncrypterDecrypter
) für den Schlüssel gewährt wurde. Weitere Informationen finden Sie unter Hinweis zu „Vom Kunden verwaltete Verschlüsselung“ Schlüssel“.Wenn Sie die erweiterte Websiteindexierung und die Dokumentnutzung für die viel geringer als erwartet ist, überprüfen Sie dann die URL-Muster, die für die Indexierung angegeben sind, und stellen Sie sicher, dass die angegebenen URL-Muster die die Sie indexieren und bei Bedarf maximieren möchten. Wenn beispielsweise Sie
*.en.example.com/*
verwendet haben, müssen Sie eventuell*.example.com/*
zum die indexiert werden sollen.
Datenspeicher mit Terraform erstellen
Mit Terraform können Sie einen leeren Datenspeicher erstellen. Nach dem leeren Datenspeicher erstellt haben, können Sie mit der Google Cloud Console Daten in den Datenspeicher aufnehmen. oder API-Befehlen.
Informationen zum Anwenden oder Entfernen einer Terraform-Konfiguration finden Sie unter Grundlegende Terraform-Befehle.
Informationen zum Erstellen eines leeren Datenspeichers mit Terraform finden Sie unter
google_discovery_engine_data_store
.