Dies ist die Dokumentation nur für Recommendations AI. Wenn Sie Retail Search und die einheitliche Retail-Konsole in der eingeschränkten GA-Phase ausprobieren möchten, wenden Sie sich an den Cloud-Vertrieb. Wenn Sie Retail Search nicht verwenden möchten, können Sie das bis auf Weiteres in der Empfehlungskonsole bleiben.

Wenn Sie die v1beta-Version von Recommendations AI verwenden, migrieren Sie zur Retail API-Version.

Bisherige Nutzerereignisse importieren

Wenn Sie ein neues Modell oder eine Empfehlung erstellen möchten, benötigt dieses Modell Nutzerereignisdaten für das Training. Die Datenmenge, die für das Training benötigt wird, hängt vom Empfehlungstyp und dem Optimierungsziel ab. Weitere Informationen zu den Anforderungen für Nutzerereignisse

Nachdem Sie die Echtzeitereigniserfassung eingerichtet haben, kann es einige Zeit dauern, bis genügend Nutzerereignisdaten aufgezeichnet wurden, um Ihre Modelle zu trainieren. Sie können das erste Modelltraining beschleunigen, indem Sie Nutzerereignisdaten aus früheren Ereignissen im Bulk importieren. Lesen Sie vorher die Best Practices zum Aufzeichnen von Nutzerereignissen.

Sie können:

Nutzerereignisse aus Cloud Storage importieren

Erstellen Sie eine Datei mit JSON-Daten, um Nutzerereignisse aus Cloud Storage zu importieren.

Stellen Sie sicher, dass Ihre JSON-Datei:

  • gemäß ihrem Nutzerereignistyp formatiert ist. Beispiele für jedes Format von Nutzerereignistypen finden Sie unter Nutzerereignisse.
  • ein ganzes Nutzerereignis in einer einzelnen Zeile bereitstellt, ohne Zeilenumbrüche.
  • jedes Nutzerereignis in einer eigenen Zeile auflistet.

Nutzerereignisse inline importieren

curl

Sie importieren Nutzerereignisse inline, indem Sie die Daten für die Ereignisse in Ihren Aufruf der Methode userEvents.import aufnehmen.

Der einfachste Weg dafür ist, Ihre Nutzerereignisdaten in eine JSON-Datei einzufügen und diese in cURL bereitzustellen.

Informationen zu den Formaten der Nutzerereignistypen finden Sie unter Nutzerereignisse.

  1. Erstellen Sie die JSON-Datei:

    {
    "inputConfig": {
      "userEventInlineSource": {
          "userEvents": [
            {
              <userEvent1>>
            },
            {
              <userEvent2>
            },
            ....
          ]
        }
      }
    }
    
  2. Rufen Sie die Methode POST auf:

    curl -X POST \
         -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" \
         -H "Content-Type: application/json; charset=utf-8" \
         --data @./data.json \
      "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import"
    

Nutzerereignisse aus BigQuery importieren

Importieren Sie Nutzerereignisse aus BigQuery mit der Methode userEvents.import.

Ihre Nutzerereignisse müssen sich in BigQuery-Tabellen befinden, die für die Aufnahme durch Recommendations AI korrekt formatiert sind. Das Tabellenschema variiert je nach Nutzerereignistyp. Das JSON-Schema finden Sie unter Nutzerereignistypen und Beispielschema. Dieses Schema wird beim Erstellen von BigQuery-Tabellen für jeden Ereignistyp angegeben.

Verwenden Sie beim Importieren Ihrer Ereignisse den Wert user_event für dataSchema.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
  -v \
  -X POST \
  -H "Content-Type: application/json; charset=utf-8" \
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "DATASET-ID",
        "tableId": "TABLE-ID",
        "dataSchema": "user_event"
    }
  }
}'

Wenn Ihr BigQuery-Dataset zu einem anderen Projekt als Ihrem Recommendations AI-Projekt gehört, folgen Sie der Anleitung unter Zugriff auf Ihr BigQuery-Dataset einrichten, um Ihrem Recommendations AI-Dienstkonto die Rolle BigQuery-Datenbearbeiter für Ihr BigQuery-Projekt zu verleihen. Ändern Sie die Importanfrage, um die BigQuery-Projekt-ID anzugeben:

"bigQuerySource": {
     "projectId": "BQ_PROJECT_ID",
   }

Google Analytics 360-Nutzerereignisse mit BigQuery importieren

Sie können Google Analytics 360-Nutzerereignisse importieren, wenn Sie Google Analytics 360 in BigQuery integriert haben und erweiterte E-Commerce-Berichte verwenden.

In den folgenden Verfahren wird davon ausgegangen, dass Sie mit der Verwendung von BigQuery und Google Analytics 360 vertraut sind.

Bevor Sie mit den nächsten Schritten beginnen, müssen Sie Folgendes tun:

Datenquelle prüfen

  1. Achten Sie darauf, dass die zu importierenden Nutzerereignisdaten in einer BigQuery-Tabelle, auf die Sie Zugriff haben, korrekt formatiert sind.

    Die Tabelle muss das Format project_id:ga360_export_dataset.ga_sessions_YYYYMMDD haben.

    Weitere Informationen zum Tabellenformat finden Sie in der Google Analytics-Dokumentation.

  2. Wählen Sie in der BigQuery Google Cloud Console die Tabelle aus den Ressourcen aus, um eine Vorschau der Tabelle anzuzeigen und zu prüfen, ob:

  3. Prüfen Sie die Konsistenz der Artikel-IDs zwischen dem hochgeladenen Katalog und der Analytics 360-Nutzerereignistabelle.

    Verwenden Sie die Produkt-ID aus der Spalte hits.product.productSKU in der BigQuery-Tabellenvorschau und verwenden Sie die Methode product.get, um sicherzustellen, dass sich das gleiche Produkt in Ihrem hochgeladenen Katalog befindet.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
       curl \
         -v \
         -X GET \
         -H "Content-Type: application/json; charset=utf-8" \
         -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
         "https://retail.googleapis.com/v2/projects/PROJECT_NUMBER/locations/global/catalogs/default_catalog/branches/default_branch/products/PRODUCT_ID"
    

Google Analytics 360-Ereignisse importieren

Importieren Sie die Nutzerereignisse, indem Sie die Daten für die Ereignisse in den Aufruf der Methode userEvents.import aufnehmen.

Verwenden Sie für dataSchema den Wert user_event_ga360.

export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json

curl \
  -v \
  -X POST \
  -H "Content-Type: application/json; charset=utf-8" \
  -H "Authorization: Bearer "$(gcloud auth application-default print-access-token)"" \
  "https://retail.googleapis.com/v2/projects/PROJECT_ID/locations/global/catalogs/default_catalog/userEvents:import" \
  --data '{
    "inputConfig": {
      "bigQuerySource": {
        "datasetId": "some_ga360_export_dataset",
        "tableId": "ga_sessions_YYYYMMDD",
        "dataSchema": "user_event_ga360"
    }
  }
}'

Wenn Ihr BigQuery-Dataset zu einem anderen Projekt als Ihrem Recommendations AI-Projekt gehört, folgen Sie der Anleitung unter Zugriff auf Ihr BigQuery-Dataset einrichten, um Ihrem Recommendations AI-Dienstkonto die Rolle BigQuery-Datenbearbeiter für Ihr BigQuery-Projekt zu verleihen. Ändern Sie die Importanfrage, um die BigQuery-Projekt-ID anzugeben:

"bigQuerySource": {
     "projectId": "GA360_BQ_PROJECT_ID",
   }

Nächste Schritte