Questa pagina descrive l'aggiornamento dei dati strutturati e non strutturati.
Per aggiornare le app del tuo sito web, consulta Aggiornare la pagina web.
Aggiornare i dati strutturati
Puoi aggiornare i dati in un data datastore strutturati purché utilizzi uno schema uguale o compatibile con lo schema nel datastore. Ad esempio, l'aggiunta di solo nuovi campi a uno schema esistente è compatibile con le versioni precedenti.
Puoi aggiornare i dati strutturati nella console Google Cloud o utilizzando l'API.
Console
Per utilizzare la console Google Cloud per aggiornare i dati strutturati da un ramo di un data store, segui questi passaggi:
Nella console Google Cloud, vai alla pagina Agent Builder.
Nel menu di navigazione, fai clic su Datastore.
Nella colonna Nome, fai clic sul datastore da modificare.
Nella scheda Documenti, fai clic su
Importa dati.Per aggiornare da Cloud Storage:
- Nel riquadro Seleziona un'origine dati, scegli Cloud Storage.
- Nel riquadro Importa dati da Cloud Storage, fai clic su Sfoglia, seleziona il bucket contenente i dati aggiornati e poi fai clic su Seleziona. In alternativa, inserisci la posizione del bucket direttamente nel campo gs://.
- In Opzioni di importazione dati, seleziona un'opzione di importazione.
- Fai clic su Importa.
Per eseguire l'aggiornamento da BigQuery:
- Nel riquadro Seleziona un'origine dati, seleziona BigQuery.
- Nel riquadro Importa dati da BigQuery, fai clic su Sfoglia, seleziona una tabella contenente i dati aggiornati e poi fai clic su Seleziona. In alternativa, inserisci la posizione della tabella direttamente nel percorso BigQuery.
- In Opzioni di importazione dati, seleziona un'opzione di importazione.
- Fai clic su Importa.
REST
Utilizza il metodo documents.import
per aggiornare i dati,
specificando il valore reconciliationMode
appropriato.
Per aggiornare i dati strutturati da BigQuery o Cloud Storage utilizzando la riga di comando:
Trova l'ID del tuo datastore. Se hai già l'ID del tuo datastore, vai al passaggio successivo.
Nella console Google Cloud, vai alla pagina Agent Builder e nel menu di navigazione fai clic su Data Store.
Fai clic sul nome del tuo datastore.
Nella pagina Dati del tuo datastore, ottieni l'ID datastore.
Per importare i dati strutturati da BigQuery, chiama il seguente metodo. Puoi eseguire l'importazione da BigQuery o Cloud Storage. Per eseguire l'importazione da Cloud Storage, vai al passaggio successivo.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "bigquerySource": { "projectId": "PROJECT_ID", "datasetId":"DATASET_ID", "tableId": "TABLE_ID", "dataSchema": "DATA_SCHEMA_BQ", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": AUTO_GENERATE_IDS, "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
- PROJECT_ID: l'ID del tuo progetto Google Cloud.
- DATA_STORE_ID: l'ID dello datastore di Vertex AI Search.
- DATASET_ID: il nome del set di dati BigQuery.
- TABLE_ID: il nome della tabella BigQuery.
- DATA_SCHEMA_BQ: un campo facoltativo per specificare lo schema da utilizzare
durante l'analisi dei dati dell'origine BigQuery. Può avere i seguenti valori:
document
: il valore predefinito. La tabella BigQuery che utilizzi deve essere conforme al seguente schema BigQuery predefinito. Puoi definire autonomamente l'ID di ogni documento, inserendo contemporaneamente l'intera stringa di dati nella stringajson_data
.custom
: qualsiasi schema di tabella BigQuery è accettato e Vertex AI Agent Builder genera automaticamente gli ID per ogni documento importato.
- ERROR_DIRECTORY: un campo facoltativo per specificare una directory Cloud Storage per le informazioni sugli errori relativi all'importazione, ad esempio
gs://<your-gcs-bucket>/directory/import_errors
. Google consiglia di lasciare questo campo vuoto per consentire a Vertex AI Agent Builder di creare automaticamente una directory temporanea. - RECONCILIATION_MODE: un campo facoltativo per specificare in che modo i documenti importati vengono riconciliati con i documenti esistenti nello datastore di destinazione. Può avere i seguenti valori:
INCREMENTAL
: il valore predefinito. Causa un aggiornamento incrementale dei dati da BigQuery al tuo datastore. Viene eseguita un'operazione upsert, che aggiunge nuovi documenti e sostituisce quelli esistenti con documenti aggiornati con lo stesso ID.FULL
: provoca un rebase completo dei documenti nel tuo datastore. Pertanto, i documenti nuovi e aggiornati vengono aggiunti al tuo datastore e quelli che non sono presenti in BigQuery vengono rimossi dal tuo data store. La modalitàFULL
è utile se vuoi eliminare automaticamente i documenti che non ti servono più.
AUTO_GENERATE_IDS: un campo facoltativo per specificare se generare automaticamente gli ID documento. Se impostato su
true
, gli ID documento vengono generati in base a un hash del payload. Tieni presente che gli ID documento generati potrebbero non rimanere coerenti in più importazioni. Se generi automaticamente gli ID in più importazioni, Google consiglia vivamente di impostarereconciliationMode
suFULL
per mantenere ID documento coerenti.Specifica
autoGenerateIds
solo quandobigquerySource.dataSchema
è impostato sucustom
. In caso contrario, viene restituito un erroreINVALID_ARGUMENT
. Se non specifichiautoGenerateIds
o lo imposti sufalse
, devi specificareidField
. In caso contrario, l'importazione dei documenti non andrà a buon fine.ID_FIELD: un campo facoltativo per specificare quali campi sono gli ID documento. Per i file di origine BigQuery,
idField
indica il nome della colonna nella tabella BigQuery che contiene gli ID documento.Specifica
idField
solo quando entrambe queste condizioni sono soddisfatte, altrimenti viene restituito un erroreINVALID_ARGUMENT
:bigquerySource.dataSchema
è impostato sucustom
auto_generate_ids
è impostato sufalse
o non è specificato.
Inoltre, il valore del nome della colonna BigQuery deve essere di tipo stringa, deve essere compreso tra 1 e 63 caratteri e deve essere conforme a RFC-1034. In caso contrario, l'importazione dei documenti non andrà a buon fine.
Ecco lo schema BigQuery predefinito. La tabella BigQuery deve essere conforme a questo schema quando imposti
dataSchema
sudocument
.[ { "name": "id", "mode": "REQUIRED", "type": "STRING", "fields": [] }, { "name": "jsonData", "mode": "NULLABLE", "type": "STRING", "fields": [] } ]
Per importare i dati strutturati da Cloud Storage, chiama il seguente metodo. Puoi eseguire l'importazione da BigQuery o Cloud Storage. Per eseguire l'importazione da BigQuery, vai al passaggio precedente.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "gcsSource": { "inputUris": ["GCS_PATHS"], "dataSchema": "DATA_SCHEMA_GCS", }, "reconciliationMode": "RECONCILIATION_MODE", "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
- PROJECT_ID: l'ID del tuo progetto Google Cloud.
- DATA_STORE_ID: l'ID dello datastore di Vertex AI Search.
- GCS_PATHS: un elenco di URI separati da virgola per le posizioni Cloud Storage da cui vuoi eseguire l'importazione. Ogni URI può essere costituito da un massimo di 2000 caratteri. Gli URI possono corrispondere al percorso completo di un oggetto di archiviazione o al pattern di uno o più oggetti. Ad esempio,
gs://bucket/directory/*.json
è un percorso valido. - DATA_SCHEMA_GCS: un campo facoltativo per specificare lo schema da utilizzare
durante l'analisi dei dati dell'origine BigQuery. Può avere i seguenti valori:
document
: il valore predefinito. La tabella BigQuery che utilizzi deve essere conforme al seguente schema BigQuery predefinito. Puoi definire autonomamente l'ID di ogni documento, inserendo contemporaneamente l'intera stringa di dati nella stringajson_data
.custom
: qualsiasi schema di tabella BigQuery è accettato e Vertex AI Agent Builder genera automaticamente gli ID per ogni documento importato.
- ERROR_DIRECTORY: un campo facoltativo per specificare una directory Cloud Storage per le informazioni sugli errori relativi all'importazione, ad esempio
gs://<your-gcs-bucket>/directory/import_errors
. Google consiglia di lasciare questo campo vuoto per consentire a Vertex AI Agent Builder di creare automaticamente una directory temporanea. - RECONCILIATION_MODE: un campo facoltativo per specificare in che modo i documenti importati vengono riconciliati con i documenti esistenti nello datastore di destinazione. Può avere i seguenti valori:
INCREMENTAL
: il valore predefinito. Causa un aggiornamento incrementale dei dati da BigQuery al tuo datastore. Viene eseguita un'operazione upsert, che aggiunge nuovi documenti e sostituisce quelli esistenti con documenti aggiornati con lo stesso ID.FULL
: provoca un rebase completo dei documenti nel tuo datastore. Pertanto, i documenti nuovi e aggiornati vengono aggiunti al tuo datastore e quelli che non sono presenti in BigQuery vengono rimossi dal tuo data store. La modalitàFULL
è utile se vuoi eliminare automaticamente i documenti che non ti servono più.
Python
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Aggiornare i dati non strutturati
Puoi aggiornare i dati non strutturati nella console Google Cloud o utilizzando l'API.
Console
Per utilizzare la console Google Cloud per aggiornare i dati non strutturati da un ramo di un data store, segui questi passaggi:
Nella console Google Cloud, vai alla pagina Agent Builder.
Nel menu di navigazione, fai clic su Datastore.
Nella colonna Nome, fai clic sul datastore da modificare.
Nella scheda Documenti, fai clic su
Importa dati.Per importare i dati da un bucket Cloud Storage (con o senza metadati):
- Nel riquadro Seleziona un'origine dati, scegli Cloud Storage.
- Nel riquadro Importa dati da Cloud Storage, fai clic su Sfoglia,
seleziona il bucket contenente i dati aggiornati e poi fai clic su
Seleziona. In alternativa, inserisci la posizione del bucket direttamente nel
campo
gs://
. - In Opzioni di importazione dati, seleziona un'opzione di importazione.
- Fai clic su Importa.
Per importare i dati da BigQuery:
- Nel riquadro Seleziona un'origine dati, seleziona BigQuery.
- Nel riquadro Importa dati da BigQuery, fai clic su Sfoglia, seleziona una tabella contenente i dati aggiornati e poi fai clic su Seleziona. In alternativa, inserisci la posizione della tabella direttamente nel campo Percorso BigQuery.
- In Opzioni di importazione dati, seleziona un'opzione di importazione.
- Fai clic su Importa.
REST
Per aggiornare i dati non strutturati utilizzando l'API, importali di nuovo utilizzando il metodo
documents.import
, specificando il valore reconciliationMode
appropriato. Per saperne di più sull'importazione di dati non strutturati, consulta Dati non strutturati.
Python
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.