Importa eventi utente storici

Questa pagina descrive come importare collettivamente i dati sugli eventi utente dagli eventi precedenti. I modelli di Vertex AI Search per la vendita al dettaglio richiedono dati sugli eventi utente per l'addestramento.

Dopo aver configurato la registrazione di eventi in tempo reale, la registrazione di dati sugli eventi utente sufficienti per l'addestramento dei modelli potrebbe richiedere molto tempo. Puoi accelerare l'addestramento iniziale del modello importando in blocco i dati sugli eventi utente da eventi passati. Prima di farlo, consulta le best practice per la registrazione di eventi utente e la sezione Prima di iniziare di questa pagina.

Le procedure di importazione in questa pagina si applicano sia ai suggerimenti che alla ricerca. Dopo aver importato i dati, entrambi i servizi saranno in grado di utilizzare questi eventi, quindi non è necessario importare due volte gli stessi dati se utilizzi entrambi i servizi.

Puoi:

Tutorial sull'importazione di eventi da Cloud Storage

Questo tutorial mostra come importare gli eventi utente da Cloud Storage.


Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Aiuto:

Guidami


Tutorial sull'importazione di eventi da BigQuery

Questo tutorial mostra come importare gli eventi utente da BigQuery.


Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Aiuto:

Guidami


Tutorial sull'importazione di eventi in linea

Questo tutorial mostra come importare i dati degli eventi utente in linea.


Per seguire le indicazioni dettagliate per questa attività direttamente nell'editor di Cloud Shell, fai clic su Aiuto:

Guidami


Prima di iniziare

Per evitare errori di importazione e assicurarti che ci siano dati sufficienti per generare buoni risultati, esamina le seguenti informazioni prima di importare gli eventi utente.

Considerazioni sull'importazione degli eventi

Questa sezione descrive i metodi che possono essere utilizzati per l'importazione batch degli eventi utente storici, l'eventuale utilizzo di ciascun metodo e alcune delle relative limitazioni.

Cloud Storage Description Importa i dati in formato JSON dai file caricati in un bucket Cloud Storage. Ogni file deve avere dimensioni massime pari a 2 GB; è possibile importare fino a 100 file alla volta. L'importazione può essere eseguita utilizzando la console Google Cloud o cURL. Utilizza il formato dei dati JSON Product, che consente attributi personalizzati.
Quando utilizzarlo Se hai bisogno di volumi più elevati di dati da caricare in un solo passaggio.
Limitazioni Se i tuoi dati sono in Google Analytics o Merchant Center, possono essere esportati solo in BigQuery e richiedono poi il passaggio in più per l'importazione in Cloud Storage.
BigQuery Description Importa i dati da una tabella BigQuery caricata in precedenza che utilizza lo schema di Vertex AI Search per la vendita al dettaglio. Può essere eseguito utilizzando la console Google Cloud o cURL.
Quando utilizzarlo Se utilizzi anche l'analisi o pre-elaborazione dei dati degli eventi prima di importarli.
Limitazioni Richiede il passaggio aggiuntivo per la creazione di una tabella BigQuery mappata allo schema di Vertex AI Search per la vendita al dettaglio. Se disponi di un volume elevato di eventi utente, tieni presente che BigQuery è una risorsa con un costo più elevato rispetto a Cloud Storage.
BigQuery con Analytics 360 Description Importa i dati preesistenti da Analytics 360 in Vertex AI Search per la vendita al dettaglio.
Quando utilizzarlo Se utilizzi Analytics 360 e monitori le conversioni per ricevere consigli o ricerche. Non è necessaria alcuna mappatura dello schema aggiuntiva.
Limitazioni È disponibile un solo sottoinsieme di attributi, pertanto alcune funzionalità avanzate di Vertex AI Search per la vendita al dettaglio non possono essere utilizzate. Il monitoraggio delle impressioni in Google Analytics è obbligatorio se prevedi di utilizzare la ricerca.
BigQuery con Google Analytics 4 Description Importa i dati preesistenti da Google Analytics 4 in Vertex AI Search per la vendita al dettaglio.
Quando utilizzarlo Se utilizzi Google Analytics 4 e monitori le conversioni per ottenere consigli o ricerche. Non è necessaria alcuna mappatura dello schema aggiuntiva.
Limitazioni È disponibile un solo sottoinsieme di attributi, pertanto alcune funzionalità avanzate di Vertex AI Search per la vendita al dettaglio non possono essere utilizzate. Se prevedi di utilizzare la ricerca, devi configurare le coppie chiave-valore dei parametri evento per il monitoraggio. La chiave consigliata è search_query.
Importazione in linea Description Importa utilizzando una chiamata al metodo userEvents.import.
Quando utilizzarlo Se vuoi avere la maggiore privacy offerta dal fatto che l'intera autenticazione avvenga nel backend e sei in grado di eseguire un'importazione nel backend.
Limitazioni Solitamente più complicata di un'importazione web.

Importa eventi utente da Cloud Storage

Importa gli eventi utente da Cloud Storage utilizzando la console Google Cloud o il metodo userEvents.import.

Console

  1. Vai alla pagina Dati> nella console di Search for Retail.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona Google Cloud Storage come origine dati.
  5. Scegli Schema eventi utente per la vendita al dettaglio come schema.
  6. Inserisci il percorso di Cloud Storage dei tuoi dati.
  7. Fai clic su Importa.

cURL

Utilizza il metodo userEvents.import per importare i tuoi eventi utente.

  1. Crea un file di dati per i parametri di input per l'importazione. Utilizza l'oggetto GcsSource per puntare al bucket Cloud Storage.

    Puoi fornire più file o solo uno.

    • INPUT_FILE: uno o più file in Cloud Storage contenenti i dati sugli eventi utente. Consulta Informazioni sugli eventi utente per esempi di formato di ogni tipo di evento utente. Assicurati che ogni evento utente si trovi su una singola riga, senza interruzioni di riga.
    • ERROR_DIRECTORY: una directory Cloud Storage per informazioni di errore sull'importazione.

    I campi del file di input devono essere nel formato gs://<bucket>/<path-to-file>/. La directory degli errori deve essere nel formato gs://<bucket>/<folder>/. Se la directory degli errori non esiste, Vertex AI Search for Retail la crea. Il bucket deve già esistere.

    {
    "inputConfig":{
     "gcsSource": {
       "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      },
      "errorsConfig":{"gcsPrefix":"ERROR_DIRECTORY"}
    }
    
  2. Importa le informazioni del catalogo effettuando una richiesta POST al metodo REST userEvents:import, fornendo il nome del file di dati.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
         -v \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         --data @./DATA_FILE.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
      }
    }'
    

Importa gli eventi utente da BigQuery

Importa gli eventi utente da BigQuery utilizzando la console Google Cloud o il metodo userEvents.import.

Configurare l'accesso a BigQuery

Segui le istruzioni riportate in Configurare l'accesso al set di dati BigQuery per assegnare al tuo account di servizio Vertex AI Search per il retail un ruolo Proprietario dati BigQuery per il tuo set di dati BigQuery.

Importa gli eventi utente da BigQuery

Puoi importare gli eventi 360 utilizzando la console Search for Retail o il metodo userEvents.import.

Console

  1. Vai alla pagina Dati> nella console di Search for Retail.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i tuoi dati.
  7. (Facoltativo) Inserisci la località di un bucket Cloud Storage nel progetto come località temporanea per i tuoi dati.
    Se non specificata, viene utilizzata una località predefinita. Se specificato, il bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la località di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i tuoi dati.

    Se non specificata, viene utilizzata una località predefinita. Se specificato, il bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  9. Fai clic su Importa.

arricciatura

Importa gli eventi utente includendo i dati degli eventi nella chiamata al metodo userEvents.import. Consulta il riferimento dell'API userEvents.import.

Il valore specificato per dataSchema dipende da ciò che importi:

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
-v \
-X POST \
-H "Content-Type: application/json; charset=utf-8" \
-H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
"https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
--data '{
  "inputConfig": {
    "bigQuerySource": {
      "datasetId": "DATASET_ID",
      "tableId": "TABLE_ID",
      "dataSchema": "SCHEMA_TYPE"
  }
}
}'

Importare gli eventi utente di Analytics 360 con BigQuery

Puoi importare gli eventi utente di Analytics 360 se hai integrato Analytics 360 con BigQuery e utilizzi l'E-commerce avanzato.

Le seguenti procedure presuppongono che tu abbia dimestichezza con l'uso di BigQuery e Analytics 360.

Prima di iniziare

Prima di iniziare i passaggi successivi, assicurati che:

Controllare l'origine dati

  1. Assicurati che i dati sugli eventi utente che importi siano formattati correttamente in una tabella BigQuery a cui hai accesso.

    Assicurati che il nome della tabella sia project_id:ga360_export_dataset.ga_sessions_YYYYMMDD.

    Per saperne di più sul formato e sulla denominazione delle tabelle, consulta la documentazione di Google Analytics.

  2. Nella console Google Cloud di BigQuery, seleziona la tabella dal riquadro Explorer per visualizzarne l'anteprima.

    Controlla quanto segue:

    1. La colonna clientId contiene un valore valido, ad esempio 123456789.123456789.

      Tieni presente che questo valore è diverso dal valore completo del cookie _ga (che ha un formato come GA1.3.123456789.123456789).

    2. La colonna hits.transaction.currencyCode contiene un codice valuta valido.

    3. Se prevedi di importare eventi search, verifica che sia presente una colonna hits.page.searchKeyword o hits.customVariable.searchQuery.

      L'importazione degli eventi search è supportata, ma non vengono mappati da Analytics 360 come avviene per altri tipi di eventi, perché Analytics 360 non supporta in modo nativo il tipo di evento search. Durante l'importazione, gli eventi search vengono creati da Analytics 360 combinando le informazioni della query di ricerca e, se presente, l'impressione del prodotto.

      La query di ricerca deriva da hits.page.searchKeyword o da hits.customVariables.customVarValue se hits.customVariables.customVarName è searchQuery. L'impressione sul prodotto proviene da hits.product se hits.product.isImpressions è TRUE.

  3. Verifica la coerenza degli ID elemento tra il catalogo caricato e la tabella degli eventi utente di Analytics 360.

    Utilizzando qualsiasi ID prodotto dalla colonna hits.product.productSKU nell'anteprima della tabella BigQuery, utilizza il metodo product.get per assicurarti che lo stesso prodotto sia presente nel catalogo caricato.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
    

Importa gli eventi di Analytics 360

Puoi importare gli eventi Google Analytics 360 utilizzando la console Search for Retail o il metodo userEvents.import.

Console

  1. Vai alla pagina Dati> nella console di Search for Retail.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i tuoi dati.
  7. (Facoltativo) Inserisci la località di un bucket Cloud Storage nel progetto come località temporanea per i tuoi dati.
    Se non specificata, viene utilizzata una località predefinita. Se specificato, il bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la località di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i tuoi dati.

    Se non specificata, viene utilizzata una località predefinita. Se specificato, il bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  9. Fai clic su Importa.

REST

Importa gli eventi utente includendo i dati degli eventi nella chiamata al metodo userEvents.import.

Per dataSchema, utilizza il valore user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Java

public static String importUserEventsFromBigQuerySource()
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  BigQuerySource bigQuerySource = BigQuerySource.newBuilder()
      .setProjectId(PROJECT_ID)
      .setDatasetId(DATASET_ID)
      .setTableId(TABLE_ID)
      .setDataSchema("user_event")
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setBigQuerySource(bigQuerySource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Importare le visualizzazioni della home page di Analytics 360 con BigQuery

In Analytics 360, gli eventi di visualizzazione della home page non sono distinti dagli altri eventi di visualizzazione di pagina. Ciò significa che gli eventi di visualizzazione della home page non vengono importati come eventi con gli altri tipi di eventi (ad es. dettaglio-visualizzazione-pagina) in Importare i tuoi eventi Analytics 360.

La procedura seguente spiega come estrarre gli eventi di visualizzazione della home page dai dati di Analytics 360 e importarli in Vertex AI Search per la vendita al dettaglio. In breve, si ottiene l'estrazione delle visualizzazioni degli utenti della home page (identificata dal percorso della home page) in una nuova tabella BigQuery e quindi l'importazione dei dati da quella nuova tabella in Vertex AI Search per la vendita al dettaglio.

Per importare gli eventi di visualizzazione della home page da Analytics 360 in Vertex AI Search per la vendita al dettaglio:

  1. Crea un set di dati BigQuery o assicurati di avere a disposizione un set di dati BigQuery a cui puoi aggiungere una tabella.

    Questo set di dati può trovarsi nel progetto Vertex AI Search per la vendita al dettaglio o nel progetto in cui sono disponibili i dati di Analytics 360. È il set di dati di destinazione in cui copierai gli eventi di visualizzazione della home page di Analytics 360.

  2. Crea una tabella BigQuery nel set di dati come segue:

    1. Sostituisci le variabili nel codice SQL riportato di seguito.

      • target_project_id: il progetto in cui si trova il set di dati del passaggio 1.

      • target_dataset::il nome del set di dati nel passaggio 1.

      CREATE TABLE TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage (
       eventType STRING NOT NULL,
       visitorId STRING NOT NULL,
       userId STRING,
       eventTime STRING NOT NULL
      );
      
    2. Copia l'esempio di codice SQL.

    3. Apri la pagina BigQuery nella console Google Cloud.

      Vai alla pagina di BigQuery

    4. Se non è già selezionato, seleziona il progetto di destinazione.

    5. Nel riquadro Editor, incolla l'esempio di codice SQL.

    6. Fai clic su Esegui e attendi che l'esecuzione della query venga completata.

    L'esecuzione di questo codice crea una tabella nel formato target_project_id:target_dataset.ga_homepage_YYYYMMDD, ad esempio my-project:view_events.ga_homepage_20230115.

  3. Copia gli eventi di visualizzazione della home page di Analytics 360 dalla tabella di dati di Analytics 360 nella tabella creata nel passaggio 2 precedente.

    1. Sostituisci le variabili nel codice di esempio SQL riportato di seguito:

      • source_project_id: l'ID del progetto che contiene i dati di Analytics 360 in una tabella BigQuery.

      • source_dataset: il set di dati nel progetto di origine che contiene i dati di Analytics 360 in una tabella BigQuery.

      • source_table::la tabella nel progetto di origine contenente i dati di Analytics 360.

      • target_project_id: lo stesso ID progetto di destinazione del passaggio 2 precedente.

      • target_dataset: lo stesso set di dati di destinazione del passaggio 2 precedente.

      • path:il percorso della home page. Di solito si tratta di /, ad esempio se la home page è example.com/. Tuttavia, se la home page è simile a examplepetstore.com/index.html, il percorso è /index.html.

      INSERT INTO `TARGET_PROJECT_ID.TARGET_DATASET.ga_homepage(eventType,visitorId,userID,eventTime)`
      
      SELECT
        "home-page-view" as eventType,
        clientId as visitorId,
        userId,
        CAST(FORMAT_TIMESTAMP("%Y-%m-%dT%H:%M:%SZ",TIMESTAMP_SECONDS(visitStartTime)) as STRING) AS eventTime
      
      FROM
        `SOURCE_PROJECT_ID.SOURCE_DATASET.SOURCE_TABLE`, UNNEST(hits) as hits
      
      WHERE hits.page.pagePath = "PATH" AND visitorId is NOT NULL;
      
    2. Copia l'esempio di codice SQL.

    3. Apri la pagina BigQuery nella console Google Cloud.

      Vai alla pagina di BigQuery

    4. Se non è già selezionato, seleziona il progetto di destinazione.

    5. Nel riquadro Editor, incolla l'esempio di codice SQL.

    6. Fai clic su Esegui e attendi che l'esecuzione della query venga completata.

  4. Segui le istruzioni riportate in Importare gli eventi utente da BigQuery per importare gli eventi di visualizzazione della home page dalla tabella di destinazione. Durante la selezione dello schema, se esegui l'importazione utilizzando la console, seleziona Schema eventi utente retail. Se esegui l'importazione utilizzando userEvents.import, specifica user_event come valore dataSchema.

  5. Elimina la tabella e il set di dati che hai creato nei passaggi 1 e 2.

Importare gli eventi utente di Google Analytics 4 con BigQuery

Puoi importare gli eventi utente di Google Analytics 4 se hai integrato Google Analytics 4 con BigQuery e utilizzi l'e-commerce di Google Analytics.

Le seguenti procedure presuppongono che tu abbia dimestichezza con l'utilizzo di BigQuery e Google Analytics 4.

Prima di iniziare

Prima di iniziare i passaggi successivi, assicurati che:

Controllare l'origine dati

Per assicurarti che i dati sugli eventi utente siano pronti per l'importazione, segui questi passaggi.

Per una tabella dei campi di Google Analytics 4 utilizzati da Vertex AI Search per la vendita al dettaglio e a quali campi di Vertex AI Search sono mappati, consulta Campi degli eventi utente di Google Analytics 4.

Per tutti i parametri evento di Google Analytics, consulta la documentazione di riferimento sugli eventi di Google Analytics.

  1. Assicurati che i dati sugli eventi utente che importi siano formattati correttamente in una tabella BigQuery a cui hai accesso.

    • Il set di dati deve essere denominato analytics_PROPERTY_ID.
    • Il nome della tabella deve essere events_YYYYMMDD.

    Per informazioni sui nomi e sul formato delle tabelle, consulta la documentazione di Google Analytics.

  2. Nella console Google Cloud di BigQuery, seleziona il set di dati dal riquadro Explorer e trova la tabella degli eventi utente che prevedi di importare.

    Controlla quanto segue:

    1. La colonna event_params.key ha una chiave currency e il valore stringa associato è un codice valuta valido.

    2. Se prevedi di importare eventi search, verifica che la colonna event.event_params.key contenga una chiave search_term e un valore associato.

      L'importazione degli eventi search è supportata, ma gli eventi search non vengono mappati da Google Analytics 4 come altri tipi di eventi, perché Google Analytics 4 non supporta in modo nativo il tipo di evento search di Vertex AI Search per la vendita al dettaglio. Durante l'importazione, gli eventi search vengono creati da Google Analytics 4 combinando le informazioni dei parametri view_item_list e search_term.

      Per informazioni su search in Google Analytics 4, consulta search nella documentazione di Google Analytics.

  3. Verifica la coerenza degli ID articolo tra il catalogo caricato e la tabella degli eventi utente di Google Analytics 4.

    Per assicurarti che un prodotto presente nella tabella utente di Google Analytics 4 sia anche nel catalogo caricato, copia un ID prodotto dalla colonna event.items.item_id nell'anteprima della tabella BigQuery e utilizza il metodo product.get per verificare se questo ID prodotto si trova nel catalogo caricato.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
    

Configurare l'accesso a BigQuery

Segui le istruzioni riportate in Configurare l'accesso al set di dati BigQuery per assegnare al tuo account di servizio Vertex AI Search per il retail un ruolo Proprietario dati BigQuery per il tuo set di dati BigQuery.

Importa gli eventi Google Analytics 4

Puoi importare gli eventi Google Analytics 4 utilizzando la console Search for Retail o il metodo userEvents.import.

Importare gli eventi di Google Analytics 4 utilizzando la console

  1. Vai alla pagina Dati> nella console di Search for Retail.

    Vai alla pagina Dati
  2. Fai clic su Importa per aprire il riquadro Importa dati.
  3. Scegli Eventi utente.
  4. Seleziona BigQuery come origine dati.
  5. Seleziona lo schema dei dati.

  6. Inserisci la tabella BigQuery in cui si trovano i tuoi dati.
  7. (Facoltativo) Inserisci la località di un bucket Cloud Storage nel progetto come località temporanea per i tuoi dati.
    Se non specificata, viene utilizzata una località predefinita. Se specificato, il bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  8. (Facoltativo) In Mostra opzioni avanzate, inserisci la località di un bucket Cloud Storage nel tuo progetto come posizione temporanea per i tuoi dati.

    Se non specificata, viene utilizzata una località predefinita. Se specificato, il bucket BigQuery e Cloud Storage devono essere nella stessa regione.
  9. Fai clic su Importa.

Importa gli eventi Google Analytics 4 utilizzando l'API

Importa gli eventi utente includendo i dati degli eventi nella chiamata al metodo userEvents.import. Consulta il riferimento dell'API userEvents.import.

Per dataSchema, utilizza il valore user_event_ga4.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
curl \\
  -v \\
  -X POST \\
  -H "Content-Type: application/json; charset=utf-8" \\
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \\
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \\
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "projectId": "PROJECT_ID",
        "datasetId": "DATASET_ID",
        "tableId": "TABLE_ID",
        "dataSchema": "user_event_ga4"
    }
  }
}'

Importa eventi utente in linea

Puoi importare gli eventi utente in linea includendo i dati degli eventi nella chiamata al metodo userEvents.import.

Il modo più semplice per farlo è inserire i dati degli eventi utente in un file JSON e fornire il file a cURL.

Per conoscere i formati dei tipi di eventi utente, consulta Informazioni sugli eventi utente.

curl

  1. Crea il file JSON:

    {
      "inputConfig": {
        "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Chiama il metodo POST:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Java

public static String importUserEventsFromInlineSource(
    List<UserEvent> userEventsToImport)
    throws IOException, InterruptedException, ExecutionException {
  UserEventServiceClient userEventsClient = getUserEventServiceClient();

  UserEventInlineSource inlineSource = UserEventInlineSource.newBuilder()
      .addAllUserEvents(userEventsToImport)
      .build();

  UserEventInputConfig inputConfig = UserEventInputConfig.newBuilder()
      .setUserEventInlineSource(inlineSource)
      .build();

  ImportUserEventsRequest importRequest = ImportUserEventsRequest.newBuilder()
      .setParent(DEFAULT_CATALOG_NAME)
      .setInputConfig(inputConfig)
      .build();

  String operationName = userEventsClient
      .importUserEventsAsync(importRequest).getName();

  userEventsClient.shutdownNow();
  userEventsClient.awaitTermination(2, TimeUnit.SECONDS);

  return operationName;
}

Dati di catalogo storici

Puoi anche importare i dati storici del catalogo che vengono visualizzati nella cronologia degli eventi utente. Questi dati storici del catalogo possono essere utili perché le informazioni precedenti sui prodotti possono essere utilizzate per arricchire gli eventi utente, il che può migliorare l'accuratezza del modello.

Per ulteriori dettagli, consulta Importare dati storici del catalogo.

Visualizza gli eventi importati

Visualizza le metriche di integrazione degli eventi nella scheda Eventi della pagina Dati della console Search for Retail. In questa pagina sono visualizzati tutti gli eventi scritti o importati nell'ultimo anno. La visualizzazione delle metriche nella console può richiedere fino a un'ora dopo l'importazione dati.

Vai alla pagina Dati

Passaggi successivi