Per creare un datastore e importare i dati per i consigli generici, vai alla sezione relativa all'origine che prevedi di utilizzare:
URL del sito web
Console
Per utilizzare la console Google Cloud per creare un datastore e indicizzare i dati di un sito web, segui questi passaggi:
Nella console Google Cloud, vai alla pagina Agent Builder.
Nel menu di navigazione, fai clic su Datastore.
Fai clic su Nuovo datastore.
Nella pagina Seleziona un'origine dati, scegli Contenuti dei siti web.
Scegli se attivare l'indicizzazione avanzata dei siti web per questo datastore. Questa opzione non può essere disattivata in un secondo momento.
L'indicizzazione avanzata del sito web offre funzionalità aggiuntive come il riepilogo della ricerca, la ricerca con follow-up e le risposte estrattive. L'indicizzazione avanzata dei siti web comporta costi aggiuntivi e richiede di verificare la proprietà del dominio per tutti i siti web che indicizzi. Per ulteriori informazioni, consulta la sezione Indicizzazione avanzata dei siti web e Prezzi.
Nel campo Siti da includere, specifica gli URL dei siti web che vuoi indicizzare. Includi un URL per riga, senza virgole.
(Facoltativo) Nel campo Siti da escludere, inserisci i siti web che vuoi escludere dalla tua app.
Fai clic su Continua.
Inserisci un nome per il tuo datastore.
Seleziona una posizione per il tuo datastore. Per selezionare una località, l'indicizzazione avanzata dei siti web deve essere attivata.
Fai clic su Crea. Vertex AI Agent Builder crea il datastore e li mostra nella pagina Datastore.
Per visualizzare le informazioni sul tuo datastore, fai clic sul nome del datastore nella colonna Nome. Viene visualizzata la pagina del tuo datastore.
Se hai attivato l'indicizzazione avanzata del sito web, viene visualizzato un avviso che ti chiede di verificare la proprietà del tuo dominio. Se hai un disavanzo di quota (il numero di pagine dei siti web specificati supera la quota "Numero di documenti per progetto" per il tuo progetto), viene visualizzato un avviso aggiuntivo che ti chiede di eseguire l'upgrade della quota. I seguenti passaggi mostrano come verificare la proprietà del dominio ed eseguire l'upgrade della quota.
Per verificare la proprietà del dominio, segui questi passaggi:
- Fai clic su Verifica in Google Search Console. Viene visualizzata la pagina Ti diamo il benvenuto in Google Search Console.
- Segui le istruzioni sullo schermo per verificare un dominio o un prefisso URL, a seconda che tu stia verificando un intero dominio o un prefisso URL che fa parte di un dominio. Per ulteriori informazioni, consulta la sezione Verificare la proprietà del sito nella Guida di Search Console.
- Al termine del flusso di lavoro di verifica del dominio, torna alla pagina Agent Builder e fai clic su Data Store nel menu di navigazione.
- Fai clic sul nome del tuo datastore nella colonna Nome. Viene visualizzata la pagina del datastore.
- Fai clic su Aggiorna stato per aggiornare i valori nella colonna Stato. La colonna Stato per il tuo sito web indica che l'indicizzazione è in corso.
- Ripeti i passaggi di verifica del dominio per ogni sito web che richiede la verifica del dominio finché non inizieranno tutti a essere indicizzati. Quando la colonna Stato di un URL mostra Indicizzato, le funzionalità di indicizzazione avanzata del sito web sono disponibili per quell'URL o pattern URL.
Per eseguire l'upgrade della quota:
- Fai clic su Esegui upgrade della quota. Viene visualizzato il riquadro API Discovery Engine con la scheda Quote selezionata.
- Segui le istruzioni riportate in Richiedere un limite di quota più alto nella documentazione di Google Cloud. La quota da aumentare è Numero di documenti.
- Dopo aver inviato la richiesta di un limite di quota più elevato, torna alla pagina Agent Builder e fai clic su Datastore nel menu di navigazione.
- Fai clic sul nome del tuo datastore nella colonna Nome. La colonna Stato indica che l'indicizzazione è in corso per i siti web che hanno superato la quota. Quando la colonna Stato di un URL mostra Indicizzato, le funzionalità di indicizzazione avanzata del sito web sono disponibili per quell'URL o pattern URL.
Passaggi successivi
Per collegare il tuo datastore a un'app, crea un'app e seleziona il datastore seguendo i passaggi descritti in Creare un'app di consigli generica.
Per visualizzare l'anteprima della visualizzazione dei consigli dopo la configurazione dell'app e dell'datastore, consulta Ricevere consigli.
BigQuery
Per importare i dati da BigQuery, segui questi passaggi per creare un datastore e importare i dati utilizzando la console Google Cloud o l'API.
Prima di importare i dati, consulta Preparare i dati per l'importazione.
Console
Per utilizzare la console Google Cloud per importare i dati da BigQuery:
Nella console Google Cloud, vai alla pagina Agent Builder.
Vai alla pagina Datastore.
Fai clic su Nuovo datastore.
Nella pagina Tipo, seleziona BigQuery.
Nel campo Percorso BigQuery, fai clic su Sfoglia, seleziona una tabella che hai preparato per l'importazione e poi fai clic su Seleziona. In alternativa, inserisci la posizione della tabella direttamente nel campo Percorso BigQuery.
Seleziona il tipo di dati che stai importando.
Fai clic su Continua.
Se esegui l'importazione una tantum dei dati strutturati:
Mappa i campi alle proprietà chiave.
Se nello schema mancano campi importanti, utilizza Aggiungi nuovo campo per aggiungerli.
Per saperne di più, consulta Informazioni sul rilevamento automatico e sull'editing.
Fai clic su Continua.
Scegli una regione per il tuo datastore.
Inserisci un nome per il tuo datastore.
Fai clic su Crea.
Per verificare che il datastore sia stato creato, vai alla pagina Datastore e fai clic sul nome del datastore per visualizzarne i dettagli nella pagina Dati.
Per controllare lo stato dell'importazione, vai alla pagina Datastore e fai clic sul nome del datastore per visualizzarne i dettagli nella pagina Dati. Quando la colonna dello stato nella scheda Attività passa da In corso a Importazione completata, l'importazione è completata.
A seconda delle dimensioni dei dati, l'importazione può richiedere diversi minuti o diverse ore.
REST
Per utilizzare la riga di comando per creare un datastore e importare i dati da BigQuery, segui questi passaggi:
Crea un datastore.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_RECOMMENDATION"] }'
Sostituisci quanto segue:
PROJECT_ID
: l'ID del tuo progetto Google Cloud.DATA_STORE_ID
: l'ID del datastore dei consigli che vuoi creare. Questo ID può contenere solo lettere minuscole, cifre, trattini bassi e trattini.DATA_STORE_DISPLAY_NAME
: il nome visualizzato del datastore dei consigli che vuoi creare.
(Facoltativo) Se carichi dati strutturati con il tuo schema, puoi fornire lo schema. Quando fornisci lo schema, in genere ottieni risultati migliori. In caso contrario, lo schema viene rilevato automaticamente. Per ulteriori informazioni, consulta Fornire o rilevare automaticamente uno schema.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/schemas/default_schema" \ -d '{ "structSchema": JSON_SCHEMA_OBJECT }'
Sostituisci quanto segue:
PROJECT_ID
: l'ID del tuo progetto Google Cloud.DATA_STORE_ID
: l'ID del datastore dei consigli.JSON_SCHEMA_OBJECT
: lo schema JSON come oggetto JSON, ad esempio:{ "$schema": "https://json-schema.org/draft/2020-12/schema", "type": "object", "properties": { "title": { "type": "string", "keyPropertyMapping": "title" }, "categories": { "type": "array", "items": { "type": "string", "keyPropertyMapping": "category" } }, "uri": { "type": "string", "keyPropertyMapping": "uri" } } }
Importa i dati da BigQuery.
Se hai definito uno schema, assicurati che i dati siano conformi.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "bigquerySource": { "projectId": "PROJECT_ID", "datasetId":"DATASET_ID", "tableId": "TABLE_ID", "dataSchema": "DATA_SCHEMA", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
Sostituisci quanto segue:
PROJECT_ID
: l'ID del tuo progetto Google Cloud.DATA_STORE_ID
: l'ID del datastore dei consigli.DATASET_ID
: l'ID del set di dati BigQuery.TABLE_ID
: l'ID della tabella BigQuery.- Se la tabella BigQuery non è in
PROJECT_ID
, devi concedere all'account di servizioservice-<project number>@gcp-sa-discoveryengine.iam.gserviceaccount.com
l'autorizzazione "Visualizzatore dei dati BigQuery" per la tabella BigQuery. Ad esempio, se importi una tabella BigQuery dal progetto di origine "123" al progetto di destinazione "456", concediservice-456@gcp-sa-discoveryengine.iam.gserviceaccount.com
i permessi per la tabella BigQuery nel progetto "123".
- Se la tabella BigQuery non è in
DATA_SCHEMA
: facoltativo. I valori sonodocument
ecustom
. Il valore predefinito èdocument
.document
: la tabella BigQuery da utilizzare deve essere conforme allo schema BigQuery predefinito fornito in Preparare i dati per l'importazione. Puoi definire autonomamente l'ID di ogni documento, inserendo tutti i dati nella stringa jsonData.custom
: è accettato qualsiasi schema di tabella BigQuery e Recommendations genera automaticamente gli ID per ogni documento importato.
ERROR_DIRECTORY
: facoltativo. Una directory Cloud Storage per le informazioni sugli errori relativi all'importazione, ad esempiogs://<your-gcs-bucket>/directory/import_errors
. Google consiglia di lasciare vuoto questo campo per consentire a Consigli di creare automaticamente una directory temporanea.RECONCILIATION_MODE
: facoltativo. I valori sonoFULL
eINCREMENTAL
. Il valore predefinito èINCREMENTAL
. La specifica diINCREMENTAL
provoca un aggiornamento incrementale dei dati da BigQuery al tuo datastore. Viene eseguita un'operazione di upsert, che aggiunge nuovi documenti e sostituisce quelli esistenti con documenti aggiornati con lo stesso ID. Se specifichiFULL
, viene eseguita una rebase completa dei documenti nel tuo datastore. In altre parole, i documenti nuovi e aggiornati vengono aggiunti al tuo datastore e quelli che non sono in BigQuery vengono rimossi. La modalitàFULL
è utile se vuoi eliminare automaticamente i documenti che non ti servono più.AUTO_GENERATE_IDS
: facoltativo. Specifica se generare automaticamente gli ID documento. Se impostato sutrue
, gli ID documento vengono generati in base a un hash del payload. Tieni presente che gli ID documento generati potrebbero non rimanere coerenti in più importazioni. Se generi automaticamente gli ID in più importazioni, Google consiglia vivamente di impostarereconciliationMode
suFULL
per mantenere ID documento coerenti.Specifica
autoGenerateIds
solo quandobigquerySource.dataSchema
è impostato sucustom
. In caso contrario, viene restituito un erroreINVALID_ARGUMENT
. Se non specifichiautoGenerateIds
o lo imposti sufalse
, devi specificareidField
. In caso contrario, l'importazione dei documenti non andrà a buon fine.ID_FIELD
: facoltativo. Specifica quali campi sono gli ID documento. Per i file di origine BigQuery,idField
indica il nome della colonna nella tabella BigQuery che contiene gli ID documento.Specifica
idField
solo se: (1)bigquerySource.dataSchema
è impostato sucustom
e (2)auto_generate_ids
è impostato sufalse
o non è specificato. In caso contrario, viene restituito un erroreINVALID_ARGUMENT
.Il valore del nome della colonna BigQuery deve essere di tipo stringa, deve essere compreso tra 1 e 63 caratteri e deve essere conforme a RFC-1034. In caso contrario, l'importazione dei documenti non andrà a buon fine.
C#
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API C# Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Go
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Go Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Java
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Java Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Node.js
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Python
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Ruby
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Ruby Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Passaggi successivi
Per collegare il tuo datastore a un'app, crea un'app e seleziona il datastore seguendo i passaggi descritti in Creare un'app di suggerimenti generica.
Per visualizzare l'anteprima della visualizzazione dei consigli dopo la configurazione dell'app e dell'datastore, consulta Ricevere consigli.
Cloud Storage
Per importare i dati da Cloud Storage, segui questi passaggi per creare un datastore e importare i dati utilizzando la console Google Cloud o l'API.
Prima di importare i dati, consulta Preparare i dati per l'importazione.
Console
Per utilizzare la console per importare i dati da un bucket Cloud Storage, segui questi passaggi:
Nella console Google Cloud, vai alla pagina Agent Builder.
Vai alla pagina Datastore.
Fai clic su Nuovo datastore.
Nella pagina Tipo, seleziona Cloud Storage.
Nella sezione Seleziona una cartella o un file da importare, seleziona Cartella o File.
Fai clic su Sfoglia e scegli i dati che hai preparato per l'importazione, poi fai clic su Seleziona. In alternativa, inserisci la località direttamente nel campo
gs://
.Seleziona il tipo di dati che stai importando.
Fai clic su Continua.
Se esegui l'importazione una tantum dei dati strutturati:
Mappa i campi alle proprietà chiave.
Se nello schema mancano campi importanti, utilizza Aggiungi nuovo campo per aggiungerli.
Per saperne di più, consulta Informazioni sul rilevamento automatico e sull'editing.
Fai clic su Continua.
Scegli una regione per il tuo datastore.
Inserisci un nome per il tuo datastore.
Fai clic su Crea.
Per verificare che il datastore sia stato creato, vai alla pagina Datastore e fai clic sul nome del datastore per visualizzarne i dettagli nella pagina Dati.
Per controllare lo stato dell'importazione, vai alla pagina Datastore e fai clic sul nome del datastore per visualizzarne i dettagli nella pagina Dati. Quando la colonna dello stato nella scheda Attività passa da In corso a Importazione completata, l'importazione è completata.
A seconda delle dimensioni dei dati, l'importazione può richiedere diversi minuti o diverse ore.
REST
Per utilizzare la riga di comando per creare un datastore e importare i dati da Cloud Storage:
Crea un datastore.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_RECOMMENDATION"], "contentConfig": "CONTENT_REQUIRED" }'
Sostituisci quanto segue:
PROJECT_ID
: l'ID del tuo progetto Google Cloud.DATA_STORE_ID
: l'ID del datastore dei consigli che vuoi creare. Questo ID può contenere solo lettere minuscole, cifre, trattini bassi e trattini.DATA_STORE_DISPLAY_NAME
: il nome visualizzato del datastore dei consigli che vuoi creare.
Importa i dati da Cloud Storage.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents:import" \ -d '{ "gcsSource": { "inputUris": ["INPUT_FILE_PATTERN_1", "INPUT_FILE_PATTERN_2"], "dataSchema": "DATA_SCHEMA", }, "reconciliationMode": "RECONCILIATION_MODE", "autoGenerateIds": "AUTO_GENERATE_IDS", "idField": "ID_FIELD", "errorConfig": { "gcsPrefix": "ERROR_DIRECTORY" } }'
Sostituisci quanto segue:
PROJECT_ID
: l'ID del tuo progetto Google Cloud.DATA_STORE_ID
: l'ID del datastore dei consigli.INPUT_FILE_PATTERN
: un pattern di file in Cloud Storage contenente i tuoi documenti.Per i dati strutturati o per i dati non strutturati con metadati per i documenti non strutturati, un esempio di pattern del file di input è
gs://<your-gcs-bucket>/directory/object.json
o un pattern corrispondente a uno o più file, ad esempiogs://<your-gcs-bucket>/directory/*.json
.Per i documenti non strutturati, un esempio è
gs://<your-gcs-bucket>/directory/*.pdf
. Ogni file corrispondente al pattern diventa un documento.Se
<your-gcs-bucket>
non è inPROJECT_ID
, devi assegnare all'account di servizioservice-<project number>@gcp-sa-discoveryengine.iam.gserviceaccount.com
le autorizzazioni "Visualizzatore oggetti Storage" per il bucket Cloud Storage. Ad esempio, se importi un bucket Cloud Storage dal progetto di origine "123" al progetto di destinazione "456", concedi le autorizzazioniservice-456@gcp-sa-discoveryengine.iam.gserviceaccount.com
al bucket Cloud Storage nel progetto "123".DATA_SCHEMA
: facoltativo. I valori sonodocument
,custom
,csv
econtent
. Il valore predefinito èdocument
.document
: carica i dati non strutturati con i metadati per i documenti non strutturati. Ogni riga del file deve seguire uno dei seguenti formati. Puoi definire l'ID di ogni documento:{ "id": "<your-id>", "jsonData": "<JSON string>", "content": { "mimeType": "<application/pdf or text/html>", "uri": "gs://<your-gcs-bucket>/directory/filename.pdf" } }
{ "id": "<your-id>", "structData": <JSON object>, "content": { "mimeType": "<application/pdf or text/html>", "uri": "gs://<your-gcs-bucket>/directory/filename.pdf" } }
custom
: carica il file JSON per i documenti strutturati. I dati sono organizzati in base a uno schema. Puoi specificare lo schema; altrimenti viene rilevato automaticamente. Puoi inserire la stringa JSON del documento in un formato coerente direttamente in ogni riga e Recommendations genera automaticamente gli ID per ogni documento importato.content
: carica i documenti non strutturati (PDF, HTML, DOC, TXT, PPTX). L'ID di ogni documento viene generato automaticamente come primi 128 bit di SHA256(GCS_URI) codificati come stringa esadecimale. Puoi specificare più pattern di file di input, a condizione che i file corrispondenti non superino il limite di 100.000 file.csv
: includi una riga di intestazione nel file CSV, con ogni intestazione mappata a un campo del documento. Specifica il percorso del file CSV utilizzando il campoinputUris
.
ERROR_DIRECTORY
: facoltativo. Una directory Cloud Storage per le informazioni sugli errori relativi all'importazione, ad esempiogs://<your-gcs-bucket>/directory/import_errors
. Google consiglia di lasciare vuoto questo campo per consentire ai consigli di creare automaticamente una directory temporanea.RECONCILIATION_MODE
: facoltativo. I valori sonoFULL
eINCREMENTAL
. Il valore predefinito èINCREMENTAL
. La specifica diINCREMENTAL
provoca un aggiornamento incrementale dei dati da Cloud Storage al tuo datastore. Viene eseguita un'operazione di upsert, che aggiunge nuovi documenti e sostituisce quelli esistenti con documenti aggiornati con lo stesso ID. Se specifichiFULL
, viene eseguita una rebase completa dei documenti nel datastore. In altre parole, i documenti nuovi e aggiornati vengono aggiunti al tuo datastore e quelli che non sono presenti in Cloud Storage vengono rimossi. La modalitàFULL
è utile se vuoi eliminare automaticamente i documenti che non ti servono più.AUTO_GENERATE_IDS
: facoltativo. Specifica se generare automaticamente gli ID documento. Se impostato sutrue
, gli ID documento vengono generati in base a un hash del payload. Tieni presente che gli ID documento generati potrebbero non rimanere coerenti in più importazioni. Se generi automaticamente gli ID in più importazioni, Google consiglia vivamente di impostarereconciliationMode
suFULL
per mantenere gli ID documento coerenti.Specifica
autoGenerateIds
solo quandogcsSource.dataSchema
è impostato sucustom
ocsv
. In caso contrario, viene restituito un erroreINVALID_ARGUMENT
. Se non specifichiautoGenerateIds
o lo imposti sufalse
, devi specificareidField
. In caso contrario, l'importazione dei documenti non andrà a buon fine.ID_FIELD
: facoltativo. Specifica quali campi sono gli ID documento. Per i documenti di origine Cloud Storage,idField
specifica il nome nei campi JSON che sono ID documento. Ad esempio, se{"my_id":"some_uuid"}
è il campo ID documento in uno dei tuoi documenti, specifica"idField":"my_id"
. In questo modo, tutti i campi JSON con il nome"my_id"
vengono identificati come ID documento.Specifica questo campo solo se: (1)
gcsSource.dataSchema
è impostato sucustom
ocsv
e (2)auto_generate_ids
è impostato sufalse
o non è specificato. In caso contrario, viene restituito un erroreINVALID_ARGUMENT
.Tieni presente che il valore del campo JSON di Cloud Storage deve essere di tipo stringa, deve essere compreso tra 1 e 63 caratteri e deve essere conforme a RFC-1034. In caso contrario, l'importazione dei documenti non andrà a buon fine.
Tieni presente che il nome del campo JSON specificato da
id_field
deve essere di tipo stringa, deve essere compreso tra 1 e 63 caratteri e deve essere conforme allo standard RFC-1034. In caso contrario, l'importazione dei documenti non andrà a buon fine.
C#
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API C# Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Go
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Go Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Java
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Java Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Node.js
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Python
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Ruby
Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Ruby Vertex AI Agent Builder.
Per autenticarti in Vertex AI Agent Builder, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.
Questo sample importa dati non strutturati da BigQuery o Cloud Storage in un datastore esistente.
Passaggi successivi
Per collegare il tuo datastore a un'app, crea un'app e seleziona il datastore seguendo i passaggi descritti in Creare un'app di suggerimenti generica.
Per visualizzare l'anteprima di come vengono visualizzati i consigli dopo la configurazione dell'app e dell'datastore, consulta Ricevere consigli.
Carica dati JSON strutturati con l'API
Per caricare direttamente un documento o un oggetto JSON utilizzando l'API, segui questi passaggi.
Prima di importare i dati, preparali per l'importazione.
REST
Per utilizzare la riga di comando per creare un datastore e importare dati JSON strutturati:
Crea un datastore.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ -H "X-Goog-User-Project: PROJECT_ID" \ "https://discoveryengine.googleapis.com/v1alpha/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores?dataStoreId=DATA_STORE_ID" \ -d '{ "displayName": "DATA_STORE_DISPLAY_NAME", "industryVertical": "GENERIC", "solutionTypes": ["SOLUTION_TYPE_RECOMMENDATION"] }'
Sostituisci quanto segue:
PROJECT_ID
: l'ID del tuo progetto Google Cloud.DATA_STORE_ID
: l'ID del datastore dei consigli che vuoi creare. Questo ID può contenere solo lettere minuscole, cifre, trattini bassi e trattini.DATA_STORE_DISPLAY_NAME
: il nome visualizzato del datastore dei consigli che vuoi creare.
(Facoltativo) Fornisci il tuo schema. Quando fornisci uno schema, in genere ottieni risultati migliori. Per saperne di più, consulta Fornire o rilevare automaticamente uno schema.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/schemas/default_schema" \ -d '{ "structSchema": JSON_SCHEMA_OBJECT }'
Sostituisci quanto segue:
PROJECT_ID
: l'ID del tuo progetto Google Cloud.DATA_STORE_ID
: l'ID del datastore dei consigli.JSON_SCHEMA_OBJECT
: lo schema JSON come oggetto JSON, ad esempio:{ "$schema": "https://json-schema.org/draft/2020-12/schema", "type": "object", "properties": { "title": { "type": "string", "keyPropertyMapping": "title" }, "categories": { "type": "array", "items": { "type": "string", "keyPropertyMapping": "category" } }, "uri": { "type": "string", "keyPropertyMapping": "uri" } } }
Importa dati strutturati conformi allo schema definito.
Esistono diversi approcci che puoi utilizzare per caricare i dati, tra cui:
Carica un documento JSON.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents?documentId=DOCUMENT_ID" \ -d '{ "jsonData": "JSON_DOCUMENT_STRING" }'
Sostituisci
JSON_DOCUMENT_STRING
con il documento JSON come singola stringa. Deve essere conforme allo schema JSON fornito nel passaggio precedente, ad esempio:```none { \"title\": \"test title\", \"categories\": [\"cat_1\", \"cat_2\"], \"uri\": \"test uri\"} ```
Carica un oggetto JSON.
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents?documentId=DOCUMENT_ID" \ -d '{ "structData": JSON_DOCUMENT_OBJECT }'
Sostituisci
JSON_DOCUMENT_OBJECT
con il documento JSON come oggetto JSON. Deve essere conforme allo schema JSON fornito nel passaggio precedente, ad esempio:```json { "title": "test title", "categories": [ "cat_1", "cat_2" ], "uri": "test uri" } ```
Aggiorna con un documento JSON.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents/DOCUMENT_ID" \ -d '{ "jsonData": "JSON_DOCUMENT_STRING" }'
Aggiorna con un oggetto JSON.
curl -X PATCH \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_ID/locations/global/collections/default_collection/dataStores/DATA_STORE_ID/branches/0/documents/DOCUMENT_ID" \ -d '{ "structData": JSON_DOCUMENT_OBJECT }'
Passaggi successivi
Per collegare il tuo datastore a un'app, crea un'app e seleziona il datastore seguendo i passaggi descritti in Creare un'app di suggerimenti generica.
Per visualizzare l'anteprima di come vengono visualizzati i consigli dopo la configurazione dell'app e dell'datastore, consulta Ricevere consigli.
Creare un datastore utilizzando Terraform
Puoi utilizzare Terraform per creare un datastore vuoto. Dopo aver creato il datastore vuoto, puoi importare i dati utilizzando i comandi della console o dell'API Google Cloud.
Per scoprire come applicare o rimuovere una configurazione Terraform, consulta Comandi Terraform di base.
Per creare un datastore vuoto utilizzando Terraform, consulta
google_discovery_engine_data_store
.