Auf dieser Seite wird beschrieben, wie Sie strukturierte und unstrukturierte Daten aktualisieren.
Informationen zum Aktualisieren Ihrer Website-Apps finden Sie unter Webseite aktualisieren.
Strukturierte Daten aktualisieren
Sie können die Daten in einem strukturierten Datenspeicher aktualisieren, solange Sie ein Schema verwenden, das mit dem Schema im Datenspeicher identisch oder abwärtskompatibel ist. Für Beispiel: Einem vorhandenen Schema nur neue Felder hinzufügen, ist abwärtskompatibel.
Sie können strukturierte Daten in der Google Cloud Console oder über die API aktualisieren.
Console
Mit der Google Cloud Console strukturierte Daten aus einem Zweig von Daten aktualisieren führen Sie diese Schritte aus:
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Klicken Sie im Navigationsmenü auf Datenspeicher.
Klicken Sie in der Spalte Name auf den Datenspeicher, den Sie bearbeiten möchten.
Klicken Sie auf dem Tab Dokumente auf
Daten importieren.So aktualisieren Sie von Cloud Storage aus:
- Wählen Sie im Bereich Datenquelle auswählen die Option Cloud Storage aus.
- Klicken Sie im Bereich Daten aus Cloud Storage importieren auf Durchsuchen. wählen Sie den Bucket aus, der die aktualisierten Daten enthält, und klicken dann auf Auswählen: Alternativ können Sie den Bucket-Standort direkt in das gs:// übergeben.
- Wählen Sie unter Optionen für den Datenimport eine Importoption aus.
- Klicken Sie auf Importieren.
So aktualisieren Sie von BigQuery aus:
- Wählen Sie im Bereich Datenquelle auswählen die Option BigQuery aus.
- Klicken Sie im Bereich Daten aus BigQuery importieren auf Durchsuchen, wählen Sie eine Tabelle mit den aktualisierten Daten aus und klicken Sie dann auf Auswählen. Alternativ können Sie den Speicherort der Tabelle direkt in das Feld BigQuery-Pfad eingeben.
- Wählen Sie unter Optionen für den Datenimport eine Importoption aus.
- Klicken Sie auf Importieren.
REST
Aktualisieren Sie Ihre Daten mit der Methode documents.import
.
Angabe des entsprechenden reconciliationMode
-Werts.
So aktualisieren Sie strukturierte Daten aus BigQuery oder Cloud Storage mithilfe der Befehlszeile führen Sie die folgenden Schritte aus:
Suchen Sie die Datenspeicher-ID. Wenn Sie bereits einen Datenspeicher haben ID verwenden, fahren Sie mit dem nächsten Schritt fort.
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf und klicken Sie im Navigationsmenü auf Datenspeicher.
Klicken Sie auf den Namen Ihres Datenspeichers.
Rufen Sie auf der Datenseite Ihres Datenspeichers die Datenspeicher-ID ab.
Rufen Sie die folgende Methode auf, um Ihre strukturierten Daten aus BigQuery zu importieren. Sie können entweder aus BigQuery oder Cloud Storage importieren. Wenn Sie Daten aus Cloud Storage importieren möchten, gehen Sie zu zum nächsten Schritt.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "bigquerySource": { "projectId": "PROJECT_ID", "datasetId":"DATASET_ID", "tableId": "TABLE_ID", "dataSchema": "DATA_SCHEMA_BQ", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": AUTO_GENERATE_IDS, "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
- PROJECT_ID ist die ID Ihres Google Cloud-Projekts.
- DATA_STORE_ID: die ID des Vertex AI Search-Datenspeichers.
- DATASET_ID: der Name Ihres BigQuery-Datasets.
- TABLE_ID: der Name Ihrer BigQuery-Tabelle.
- DATA_SCHEMA_BQ: ein optionales Feld zur Angabe des zu verwendenden Schemas
wenn Daten aus der BigQuery-Quelle geparst werden. Kann die
folgende Werte:
document
: der Standardwert. Die von Ihnen verwendete BigQuery-Tabelle muss dem folgenden BigQuery-Standardschema entsprechen. Ich können Sie die ID jedes Dokuments selbst definieren und dabei das gesamte Daten im Stringjson_data
.custom
: Es wird jedes BigQuery-Tabellenschema akzeptiert und Vertex AI Agent Builder generiert automatisch die IDs für jedes importierte Dokument.
- ERROR_DIRECTORY: Optionales Feld, in dem ein Cloud Storage-Verzeichnis für Fehlerinformationen zum Import angegeben werden kann, z. B.
gs://<your-gcs-bucket>/directory/import_errors
. Google empfiehlt, Dieses Feld ist leer, damit Vertex AI Agent Builder automatisch ein des temporären Verzeichnisses. - RECONCILIATION_MODE: ein optionales Feld, das angibt, wie die
importierte Dokumente mit den vorhandenen Dokumenten im
Zieldatenspeicher. Kann die folgenden Werte haben:
INCREMENTAL
: Der Standardwert. Führt zu einer inkrementellen Aktualisierung der Daten. von BigQuery in Ihren Datenspeicher übertragen. Dies führt zu einem Upsert-Vorgang. , der neue Dokumente hinzufügt und vorhandene Dokumente durch aktualisierte Dokumente mit derselben ID.FULL
: führt zu einem vollständigen Rebase der Dokumente in Ihrem Datenspeicher. Daher werden Ihrem Datenspeicher neue und aktualisierte Dokumente hinzugefügt. Dokumente, die nicht in BigQuery vorhanden sind, werden aus Ihren Daten entfernt. speichern. Der Modus „FULL
“ ist hilfreich, wenn Daten automatisch gelöscht werden sollen die Sie nicht mehr benötigen.
AUTO_GENERATE_IDS: Optionales Feld, mit dem angegeben wird, ob Dokument-IDs automatisch generiert werden sollen. Wenn
true
festgelegt ist, werden Dokument-IDs werden auf Basis eines Hashwerts der Nutzlast generiert. Das generierte Dokument-IDs bleiben möglicherweise bei mehreren Importen nicht einheitlich. Wenn automatisch IDs über mehrere Importe hinweg generieren, empfiehlt,reconciliationMode
aufFULL
zu setzen, um einheitliche Dokument-IDs.Geben Sie
autoGenerateIds
nur an, wennbigquerySource.dataSchema
aufcustom
festgelegt ist. Andernfalls wird der FehlerINVALID_ARGUMENT
zurückgegeben. Wenn SieautoGenerateIds
nicht angeben oder auffalse
festlegen, müssen SieidField
angeben. Andernfalls können die Dokumente nicht importiert werden.ID_FIELD: Optionales Feld, mit dem angegeben wird, welche Felder die Dokument-IDs sind. Für BigQuery-Quelldateien:
idField
den Namen der Spalte in der BigQuery-Tabelle an, enthält die Dokument-IDs.Geben Sie
idField
nur an, wenn beide dieser Bedingungen erfüllt sind. Andernfalls wird einINVALID_ARGUMENT
-Fehler zurückgegeben:bigquerySource.dataSchema
ist aufcustom
gesetzt.auto_generate_ids
ist auffalse
festgelegt oder nicht angegeben.
Außerdem muss der Wert des BigQuery-Spaltennamens Stringtyp, muss zwischen 1 und 63 Zeichen lang sein und muss gemäß RFC-1034. Andernfalls wird das Feld Dokumente konnten nicht importiert werden.
Das ist das BigQuery-Standardschema. Ihre BigQuery-Tabelle muss diesem Schema entsprechen, wenn Sie
dataSchema
aufdocument
festlegen.[ { "name": "id", "mode": "REQUIRED", "type": "STRING", "fields": [] }, { "name": "jsonData", "mode": "NULLABLE", "type": "STRING", "fields": [] } ]
Rufen Sie die folgende Methode auf, um Ihre strukturierten Daten aus Cloud Storage zu importieren. Sie können entweder aus BigQuery oder Cloud Storage importieren. Wenn Sie aus BigQuery importieren möchten, kehren Sie zum vorherigen Schritt zurück.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "gcsSource": { "inputUris": ["GCS_PATHS"], "dataSchema": "DATA_SCHEMA_GCS", }, "reconciliationMode": "RECONCILIATION_MODE", "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
- PROJECT_ID ist die ID Ihres Google Cloud-Projekts.
- DATA_STORE_ID: die ID des Vertex AI Search-Datenspeichers.
- GCS_PATHS: eine Liste kommagetrennter URIs, die
Cloud Storage-Speicherorte, aus denen Sie importieren möchten. Jeder URI kann 2.000 Zeichen lang sein. URIs können mit dem vollständigen Pfad eines Speicherobjekts oder mit dem Muster für ein oder mehrere Objekte übereinstimmen. Beispiel:
gs://bucket/directory/*.json
ist ein gültiger Pfad. - DATA_SCHEMA_GCS: Optionales Feld, in dem das Schema angegeben wird, das beim Parsen von Daten aus der BigQuery-Quelle verwendet werden soll. Kann die folgenden Werte haben:
document
: der Standardwert. Die von Ihnen verwendete BigQuery-Tabelle muss dem folgenden BigQuery-Standardschema entsprechen. Ich können Sie die ID jedes Dokuments selbst definieren und dabei das gesamte Daten im Stringjson_data
.custom
: Es wird jedes BigQuery-Tabellenschema akzeptiert und Vertex AI Agent Builder generiert automatisch die IDs für jedes importierte Dokument.
- ERROR_DIRECTORY: Optionales Feld, in dem ein Cloud Storage-Verzeichnis für Fehlerinformationen zum Import angegeben werden kann, z. B.
gs://<your-gcs-bucket>/directory/import_errors
. Google empfiehlt, Dieses Feld ist leer, damit Vertex AI Agent Builder automatisch ein des temporären Verzeichnisses. - RECONCILIATION_MODE: ein optionales Feld, das angibt, wie die
importierte Dokumente mit den vorhandenen Dokumenten im
Zieldatenspeicher. Kann die folgenden Werte haben:
INCREMENTAL
: Der Standardwert. Führt zu einer inkrementellen Aktualisierung der Daten. von BigQuery in Ihren Datenspeicher übertragen. Dies führt zu einem Upsert-Vorgang. , der neue Dokumente hinzufügt und vorhandene Dokumente durch aktualisierte Dokumente mit derselben ID.FULL
: führt zu einer vollständigen Neuausrichtung der Dokumente in Ihrem Datenspeicher. Daher werden Ihrem Datenspeicher neue und aktualisierte Dokumente hinzugefügt und Dokumente, die nicht in BigQuery enthalten sind, werden aus Ihrem Datenspeicher entfernt. Der Modus „FULL
“ ist hilfreich, wenn Daten automatisch gelöscht werden sollen die Sie nicht mehr benötigen.
Python
Weitere Informationen finden Sie in der Vertex AI Agent Builder Python API Referenzdokumentation.
Richten Sie zur Authentifizierung bei Vertex AI Agent Builder Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Unstrukturierte Daten aktualisieren
Sie können unstrukturierte Daten in der Google Cloud Console oder über die API aktualisieren.
Console
Mit der Google Cloud Console unstrukturierte Daten aus einem Zweig von Daten aktualisieren führen Sie diese Schritte aus:
Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.
Klicken Sie im Navigationsmenü auf Datenspeicher.
Klicken Sie in der Spalte Name auf den Datenspeicher, den Sie bearbeiten möchten.
Klicken Sie auf dem Tab Dokumente auf
Daten importieren.So nehmen Sie Daten aus einem Cloud Storage-Bucket auf (mit oder ohne Metadaten):
- Wählen Sie im Bereich Datenquelle auswählen die Option Cloud Storage aus.
- Klicken Sie im Bereich Daten aus Cloud Storage importieren auf Durchsuchen.
wählen Sie den Bucket aus, der die aktualisierten Daten enthält, und klicken dann auf
Auswählen: Alternativ können Sie den Speicherort des Buckets direkt in das Feld
gs://
eingeben. - Wählen Sie unter Optionen für den Datenimport eine Importoption aus.
- Klicken Sie auf Importieren.
So nehmen Sie Daten aus BigQuery auf:
- Wählen Sie im Bereich Datenquelle auswählen die Option BigQuery aus.
- Klicken Sie im Bereich Daten aus BigQuery importieren auf Durchsuchen, wählen Sie eine Tabelle mit den aktualisierten Daten aus und klicken Sie dann auf Auswählen. Alternativ können Sie den Speicherort der Tabelle direkt in Das Feld BigQuery-Pfad
- Wählen Sie unter Optionen für den Datenimport eine Importoption aus.
- Klicken Sie auf Importieren.
REST
Wenn Sie unstrukturierte Daten mit der API aktualisieren möchten, importieren Sie sie noch einmal mit der Methode documents.import
und geben Sie den entsprechenden reconciliationMode
-Wert an. Weitere Informationen zum Importieren unstrukturierter Daten
finden Sie unter Unstrukturierte Daten.
Python
Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Agent Builder Python API.
Richten Sie Standardanmeldedaten für Anwendungen ein, um sich bei Vertex AI Agent Builder zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.