Importa eventi utente storici

In questa pagina viene descritto come importare collettivamente i dati sugli eventi utente dagli eventi precedenti. I modelli di Vertex AI Search for Retail richiedono i dati degli eventi utente per l'addestramento.

Dopo aver configurato la registrazione in tempo reale, potrebbe essere necessario sufficiente tempo per registrare dati sugli eventi utente sufficienti per addestrare di grandi dimensioni. Puoi accelerare l'addestramento iniziale del modello importando i dati sugli eventi utente da eventi passati in blocco. Prima di farlo, rivedi le best practice per la registrazione degli eventi utente e Sezione Prima di iniziare di questa pagina.

Le procedure di importazione in questa pagina si applicano a entrambi i consigli e ricerche. Dopo aver importato i dati, entrambi i servizi sono in grado di utilizzare questi eventi, quindi non è necessario importare i dati due volte se utilizzi entrambi i servizi.

Puoi:

di Gemini Advanced.

Tutorial sull'importazione di eventi da Cloud Storage

Questo tutorial mostra come importare gli eventi utente da Cloud Storage.


Per seguire una guida passo passo per questa attività direttamente nel Editor di Cloud Shell, fai clic su Procedura guidata:

Procedura guidata


Tutorial: importa gli eventi da BigQuery

Questo tutorial mostra come importare gli eventi utente da BigQuery.


Per seguire una guida passo passo per questa attività direttamente nel Editor di Cloud Shell, fai clic su Procedura guidata:

Procedura guidata


Tutorial sull'importazione di eventi in linea

Questo tutorial mostra come importare i dati degli eventi utente in linea.


Per seguire una guida passo passo per questa attività direttamente nel Editor di Cloud Shell, fai clic su Procedura guidata:

Procedura guidata


Prima di iniziare

Per evitare errori di importazione e assicurarti che siano disponibili dati sufficienti per generare buoni risultati, rivedi le seguenti informazioni prima di importare eventi utente.

Considerazioni sull'importazione degli eventi

In questa sezione vengono descritti i metodi utilizzabili per l'importazione in gruppo dei tuoi la cronologia degli eventi utente, i casi in cui è possibile utilizzare ciascun metodo e alcuni dei limitazioni.

Cloud Storage Descrizione Importa i dati in formato JSON dai file caricati in Cloud Storage di sincronizzare la directory di una VM con un bucket. Ogni file deve avere dimensioni massime di 2 GB e massimo 100 file alla volta possono essere importati. L'importazione può essere eseguita utilizzando la console Google Cloud o cURL. Utilizza il formato di dati JSON Product, che consente attributi personalizzati.
Quando utilizzarlo Se hai bisogno di caricare volumi di dati più elevati in un solo passaggio.
Limitazioni Se i dati sono in Google Analytics o Merchant Center, i dati possono essere esportati solo BigQuery e richiede il passaggio aggiuntivo per l'importazione in Cloud Storage.
BigQuery Descrizione Importa i dati da una tabella BigQuery caricata in precedenza che utilizza lo schema di Vertex AI Search for Retail. Può essere eseguito utilizzando nella console Google Cloud o cURL.
Quando utilizzarlo Se utilizzi anche l'analisi o la pre-elaborazione dei dati sugli eventi prima importarlo.
Limitazioni Richiede il passaggio aggiuntivo di creazione di una tabella BigQuery viene mappato allo schema di Vertex AI Search for Retail. Se hai un volume elevato di eventi utente, tieni inoltre presente che BigQuery è un costo più elevato rispetto a Cloud Storage.
BigQuery con Analytics 360 Descrizione Importare dati preesistenti da Analytics 360 in Vertex AI Search for Retail.
Quando utilizzarlo Se utilizzi Analytics 360 e monitori le conversioni per consigli o ricerche. Non è richiesta alcuna mappatura schema aggiuntiva.
Limitazioni È disponibile solo un sottoinsieme di attributi, quindi alcune funzionalità avanzate Impossibile utilizzare le funzionalità di Vertex AI Search for Retail. Monitoraggio delle impressioni in Google Analytics è necessario se prevedi di utilizzare eseguire una ricerca.
BigQuery con Google Analytics 4 Descrizione Importa i dati preesistenti da Google Analytics 4 in Vertex AI Search for Retail.
Quando utilizzarlo Se usi Google Analytics 4 e monitori le conversioni per consigli o ricerche. Non è richiesta alcuna mappatura schema aggiuntiva.
Limitazioni È disponibile solo un sottoinsieme di attributi, quindi alcune funzionalità avanzate Impossibile utilizzare le funzionalità di Vertex AI Search for Retail. Se prevedi di utilizzare la ricerca, devi configurare l'evento coppie chiave-valore dei parametri per il monitoraggio; la chiave consigliata è search_query.
Importazione in linea Descrizione Esegui l'importazione con una chiamata al metodo userEvents.import.
Quando utilizzarlo Se vuoi avere la privacy di avere tutte le autenticazioni si verificano sul backend e sono in grado di eseguire un'importazione nel backend.
Limitazioni In genere è più complicato di un'importazione web.

Importa eventi utente da Cloud Storage

Importa gli eventi utente da Cloud Storage utilizzando la console Google Cloud o il metodo userEvents.import.

Console

  1. Vai alla scheda Dati > nella console Search for Retail.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona Google Cloud Storage come origine dati.
  5. Scegli Schema eventi utente retail come schema.
  6. Inserisci la località di Cloud Storage dei tuoi dati.
  7. Fai clic su Importa.

cURL

Utilizza il metodo userEvents.import per importare l'utente eventi.

  1. Crea un file di dati per i parametri di input per l'importazione. Utilizza la GcsSource in modo che punti all'oggetto Cloud Storage di sincronizzare la directory di una VM con un bucket.

    Puoi fornire più file o solo uno.

    • INPUT_FILE: uno o più file in Cloud Storage contenenti i dati sugli eventi utente. Consulta Informazioni sugli eventi utente per esempi di ogni formato di tipo di evento utente. Assicurati che ogni evento utente sia su una sola riga, senza interruzioni di riga.
    • ERROR_DIRECTORY: una directory Cloud Storage per e informazioni sugli errori di importazione.

    I campi del file di input devono essere nel formato gs://<bucket>/<path-to-file>/. La directory degli errori deve essere nel formato gs://<bucket>/<folder>/. Se la directory degli errori non esiste, Vertex AI Search for Retail li crea. Il bucket deve già esistere.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
    
  2. Importa le informazioni del tuo catalogo tramite invia una richiesta POST al REST di userEvents:import , fornendo il nome del file di dati.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'
    

Importa eventi utente da BigQuery

Importa gli eventi utente da BigQuery utilizzando la console Google Cloud o il metodo userEvents.import.

Configurare l'accesso a BigQuery

Segui le istruzioni in Configura l'accesso al set di dati BigQuery per concedere Per l'account di servizio Vertex AI Search for Retail è necessario un ruolo Proprietario dati BigQuery per il tuo set di dati BigQuery.

Importa gli eventi utente da BigQuery

Puoi importare eventi a 360° utilizzando Cerca la console Retail o il metodo userEvents.import.

Console

  1. Vai alla scheda Dati > nella console Search for Retail.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i dati.
  7. (Facoltativo) Inserisci la località di un bucket Cloud Storage in il tuo progetto come posizione temporanea per i tuoi dati.
    Se non specificata, una località predefinita è in uso. Se specificato, i bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la posizione di un Bucket Cloud Storage nel tuo progetto come posizione temporanea per i tuoi dati.

    Se non specificata, viene utilizzata una località predefinita. Se specificati, i valori di BigQuery e Il bucket Cloud Storage deve trovarsi nella stessa regione.
  9. Fai clic su Importa.

curl

Importa gli eventi utente includendo i dati relativi agli eventi della chiamata al metodo userEvents.import. Consulta le Riferimento API di userEvents.import.

Il valore specificato per dataSchema dipende da ciò che importi:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importare gli eventi utente di Analytics 360 con BigQuery

Puoi importare gli eventi utente di Analytics 360 se disponi di ha integrato Analytics 360 con BigQuery e utilizzare E-commerce avanzato.

Le seguenti procedure presuppongono che tu abbia familiarità con l'utilizzo BigQuery e Analytics 360.

Prima di iniziare

Prima di iniziare i passaggi successivi, assicurati che:

Controllare l'origine dati

  1. Assicurati che i dati sugli eventi utente che importerai siano formattati correttamente in una tabella BigQuery a cui hai accesso.

    Assicurati che la tabella sia denominata project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Per saperne di più, consulta la documentazione di Google Analytics il formato e la denominazione della tabella.

  2. Nella Console Google Cloud BigQuery, seleziona la tabella dal riquadro Explorer per visualizzarne l'anteprima.

    Verifica quanto segue:

    1. La colonna clientId ha un valore valido, ad esempio 123456789.123456789.

      Nota che questo valore è diverso dal valore completo del cookie _ga (che ha in un formato come GA1.3.123456789.123456789).

    2. La colonna hits.transaction.currencyCode ha un codice valuta valido.

    3. Se prevedi di importare search eventi, verifica che sia presente una Colonna hits.page.searchKeyword o hits.customVariable.searchQuery è presente.

      L'importazione di search eventi è supportata, ma non mappa da Analytics 360 nello stesso modo in cui gli altri tipi di eventi perché Analytics 360 non supporta in modo nativo il tipo di evento search. Durante l'importazione, vengono creati search eventi da Analytics 360 combinando le informazioni query di ricerca e, se presente, l'impressione del prodotto.

      La query di ricerca viene ricavata da hits.page.searchKeyword o da hits.customVariables.customVarValue se hits.customVariables.customVarName è searchQuery. Il prodotto impressione acquisita da hits.product se hits.product.isImpressions è TRUE.

  3. Controlla la coerenza degli ID articolo tra il catalogo caricato e Tabella degli eventi utente di Analytics 360.

    Utilizzando qualsiasi ID prodotto della colonna hits.product.productSKU nel Anteprima della tabella BigQuery, utilizza product.get per assicurarti che lo stesso prodotto sia presente nel catalogo caricato.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
    

Importare gli eventi Analytics 360

Puoi importare gli eventi Google Analytics 360 utilizzando il metodo Cerca la console Retail o il metodo userEvents.import.

Console

  1. Vai alla scheda Dati > nella console Search for Retail.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i dati.
  7. (Facoltativo) Inserisci la località di un bucket Cloud Storage in il tuo progetto come posizione temporanea per i tuoi dati.
    Se non specificata, una località predefinita è in uso. Se specificato, i bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la posizione di un Bucket Cloud Storage nel tuo progetto come posizione temporanea per i tuoi dati.

    Se non specificata, viene utilizzata una località predefinita. Se specificati, i valori di BigQuery e Il bucket Cloud Storage deve trovarsi nella stessa regione.
  9. Fai clic su Importa.

REST

Importa gli eventi utente includendo i dati relativi agli eventi della chiamata al metodo userEvents.import.

Per dataSchema, utilizza il valore user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Importa le visualizzazioni della home page di Analytics 360 con BigQuery

In Analytics 360, gli eventi di visualizzazione della home page non sono distinti dagli altri eventi di visualizzazione di pagina. Ciò significa che gli eventi con visualizzazione sulla home page Non vengono importati come eventi con gli altri tipi di eventi (ad esempio, dettagli-visualizzazione di pagina) in Importare gli eventi di Analytics 360.

La procedura seguente spiega come estrarre gli eventi di visualizzazione della home page i dati di Analytics 360 e importarli in Vertex AI Search for Retail. In breve, questo viene fatto estraendo i dati vista della casa (identificata dal percorso della home page) in una nuova tabella BigQuery e poi importando i dati dalla nuova tabella in Vertex AI Search for Retail.

Per importare gli eventi di visualizzazione della home page da Analytics 360 in Vertex AI Search for Retail:

  1. Crea un set di dati BigQuery o assicurati di avere Set di dati BigQuery disponibile a cui puoi aggiungere una tabella.

    Questo set di dati può trovarsi nel progetto Vertex AI Search for Retail o nel progetto in cui disponi dei dati di Analytics 360. È il target in cui copierai il set di dati di Analytics 360 eventi di visualizzazione della home page.

  2. Crea una tabella BigQuery nel set di dati come segue:

    1. Sostituisci le variabili nel codice SQL seguente come segue.

      • target_project_id: il progetto in cui si trova il set di dati del passaggio 1 individuarlo.

      • target_dataset: il nome del set di dati nel passaggio 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
      
    2. Copia l'esempio di codice SQL.

    3. Apri la pagina BigQuery nella console Google Cloud.

      Vai alla pagina di BigQuery

    4. Se non è già selezionato, seleziona il progetto di destinazione.

    5. Nel riquadro Editor, incolla l'esempio di codice SQL.

    6. Fai clic su Esegui e attendi eseguire la query.

    L'esecuzione di questo codice crea una tabella nel formato target_project_id:target_dataset.ga_homepage_YYYYMMDD, ad esempio my-project:view_events.ga_homepage_20230115.

  3. Copia gli eventi di visualizzazione della home page di Analytics 360 dal tuo di Analytics 360 nella tabella creata nella precedente passaggio 2.

    1. Sostituisci le variabili nel seguente codice di esempio SQL come segue:

      • source_project_id: l'ID del progetto che contiene la Dati di Analytics 360 in un BigQuery tabella.

      • source_dataset: il set di dati nel progetto di origine che contiene i dati di Analytics 360 in un Tabella BigQuery.

      • source_table: la tabella nel progetto di origine che contiene i dati di Analytics 360.

      • target_project_id: lo stesso ID progetto di destinazione dell'elemento precedente passaggio 2.

      • target_dataset: lo stesso set di dati di destinazione del precedente passaggio 2.

      • path: il percorso della home page. Di solito si tratta di /, per Ad esempio, se la home page è example.com/. Tuttavia, se la home page è simile a examplepetstore.com/index.html, il percorso è /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
      
    2. Copia l'esempio di codice SQL.

    3. Apri la pagina BigQuery nella console Google Cloud.

      Vai alla pagina di BigQuery

    4. Se non è già selezionato, seleziona il progetto di destinazione.

    5. Nel riquadro Editor, incolla l'esempio di codice SQL.

    6. Fai clic su Esegui e attendi eseguire la query.

  4. Per eseguire l'importazione, segui le istruzioni riportate in Importare gli eventi utente da BigQuery gli eventi di visualizzazione della home page dalla tabella target. Durante la selezione dello schema, se Esegui l'importazione utilizzando la console, seleziona Schema eventi utente Retail. se importi utilizzando userEvents.import, specifica user_event per il valore dataSchema.

  5. Elimina la tabella e il set di dati creati nei passaggi 1 e 2.

Importare gli eventi utente Google Analytics 4 con BigQuery

Puoi importare gli eventi utente Google Analytics 4 se hai integrato Google Analytics 4 con BigQuery e utilizzare E-commerce di Google Analytics.

Le seguenti procedure presuppongono che tu abbia familiarità con l'utilizzo BigQuery e Google Analytics 4.

Prima di iniziare

Prima di iniziare i passaggi successivi, assicurati che:

Controllare l'origine dati

Per assicurarti che i dati sugli eventi utente siano pronti per l'importazione: passaggi.

Per una tabella dei campi di Google Analytics 4 che Vertex AI Search for Retail e i campi di Vertex AI Search for Retail a cui vengono associati, consulta i campi degli eventi utente di Google Analytics 4.

Per tutti i parametri evento di Google Analytics, consulta Documentazione di riferimento per gli Eventi Google Analytics.

  1. Assicurati che i dati sugli eventi utente che importerai siano formattati correttamente in una tabella BigQuery a cui hai accesso.

    • Il set di dati deve essere denominato analytics_PROPERTY_ID.
    • Il nome della tabella deve essere events_YYYYMMDD.

    Per informazioni sui nomi e sul formato delle tabelle, consulta documentazione di Google Analytics.

  2. Nella Console Google Cloud BigQuery, seleziona il set di dati dal riquadro Explorer e trova la tabella delle metriche eventi che prevedi di importare.

    Verifica quanto segue:

    1. La colonna event_params.key ha una chiave currency e che è associata è un codice valuta valido.

    2. Se prevedi di importare search eventi, verifica che La colonna event.event_params.key ha una chiave search_term e un'associazione valore.

      L'importazione di search eventi è supportata, ma search eventi non vengono mappati da Google Analytics 4 allo stesso modo degli altri tipi di eventi. perché Google Analytics 4 non supporta in modo nativo Tipo di evento Vertex AI Search for Retail search. Durante l'importazione, search eventi vengono creati da Google Analytics 4 combinando le informazioni view_item_list e il parametro search_term.

      Per informazioni su search in Google Analytics 4, consulta search nella documentazione di Google Analytics.

  3. Controlla la coerenza degli ID articolo tra il catalogo caricato e Tabella degli eventi utente di Google Analytics 4.

    Per assicurarti che un prodotto nella tabella utenti di Google Analytics 4 sia anche nel tuo catalogo caricato, copia un ID prodotto dal Colonna event.items.item_id nell'anteprima della tabella BigQuery e utilizza il metodo product.get per verificare se l'ID prodotto è nel tuo catalogo caricato.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
    

Configurare l'accesso a BigQuery

Segui le istruzioni in Configura l'accesso al set di dati BigQuery per concedere Per l'account di servizio Vertex AI Search for Retail è necessario un ruolo Proprietario dati BigQuery per il tuo set di dati BigQuery.

Importare gli eventi Google Analytics 4

Puoi importare gli eventi Google Analytics 4 utilizzando il metodo Cerca la console Retail o il metodo userEvents.import.

Importare gli eventi Google Analytics 4 utilizzando la console

  1. Vai alla scheda Dati > nella console Search for Retail.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i dati.
  7. (Facoltativo) Inserisci la località di un bucket Cloud Storage in il tuo progetto come posizione temporanea per i tuoi dati.
    Se non specificata, una località predefinita è in uso. Se specificato, i bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la posizione di un Bucket Cloud Storage nel tuo progetto come posizione temporanea per i tuoi dati.

    Se non specificata, viene utilizzata una località predefinita. Se specificati, i valori di BigQuery e Il bucket Cloud Storage deve trovarsi nella stessa regione.
  9. Fai clic su Importa.

Importare gli eventi Google Analytics 4 utilizzando l'API

Importa gli eventi utente includendo i dati relativi agli eventi della chiamata al metodo userEvents.import. Consulta le Riferimento API di userEvents.import.

Per dataSchema, utilizza il valore user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importa eventi utente in linea

Puoi importare gli eventi utente in linea includendo i dati relativi agli eventi nel tuo al metodo userEvents.import.

Il modo più semplice per farlo è inserire i dati sugli eventi utente in un file JSON e fornisci il file a cURL.

Per i formati dei tipi di eventi utente, consulta Informazioni sugli eventi utente.

curl

  1. Crea il file JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Chiama il metodo POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Dati del catalogo storici

Puoi anche importare i dati del catalogo storici visualizzati nel tuo eventi utente. Questi dati storici del catalogo possono essere utili perché le precedenti informazioni sui prodotti possono essere utilizzate per arricchire eventi utente, che possono migliorare l'accuratezza del modello.

Per maggiori dettagli, consulta Importare i dati storici del catalogo.

Visualizza eventi importati

Visualizza le metriche di integrazione degli eventi nella scheda Eventi della console di Search for Retail Dati. In questa pagina sono mostrati tutti gli eventi scritti o importati nell'ultimo anno. Le metriche possono richiedere a 24 ore prima che venga visualizzata una volta completata l'importazione dati.

Vai alla pagina Dati

Passaggi successivi