Bisherige Nutzerereignisse importieren

Auf dieser Seite wird gezeigt, wie Sie Nutzerereignisdaten aus früheren Ereignissen im Bulk importieren. Nutzer Ereignisse sind für Medienempfehlungen erforderlich. Wenn Sie keine Medien verwenden Empfehlungen, ist das Importieren von Nutzerereignissen nicht erforderlich. Für Apps für Mediensuchen wird sie jedoch empfohlen.

Informationen zu den Nutzerereignistypen, die importiert werden können, finden Sie im Feld eventType der Objekt userEvents. Wenn Sie Nutzerereignisse importieren, können Sie die Qualität Ihrer Empfehlungen sowie das Ranking Ihrer Suchergebnisse verbessern. Suchergebnisse mit höheren Klickraten werden hervorgehoben, während Ergebnisse mit niedrigeren Klickraten weniger gut sichtbar sind. Importieren Sie keine Nutzerereignisse für Dokumente, die Sie noch nicht importiert haben.

Wenn für ein Ereignis Dokumente in userEvents.Documents aufgeführt sind, werden sie in Vertex AI Search automatisch mit dem Ereignis verknüpft. Durch die Zusammenführung kann Vertex AI Search Ereignisse wie Klicks und das richtige Dokument in einem Suchergebnis oder einer Empfehlung ansehen. Für allgemeine Anwendungsfall-Apps: Die Zusammenführung erfolgt asynchron, d. h., Nutzerereignisse werden zusammengeführt. nach Abschluss des Batch-Imports (in der Regel innerhalb Minuten). Bei Medien-Apps erfolgt die Zusammenführung synchron, Vertex AI Search beginnt, Nutzerereignisse mit Dokumenten zusammenzuführen, während der Batch-Import läuft noch. Für die Anzeige nicht verknüpfter Ereignismesswerte in in der Konsole finden Sie unter Gesammelte Daten zu Nutzerereignissen aufrufen

Informationen zum Importieren von Nutzerereignissen in Echtzeit finden Sie unter Nutzerereignisse in Echtzeit aufzeichnen.

Sie haben folgende Möglichkeiten, bisherige Ereignisse zu importieren:

Die JSON-Darstellung für Nutzerereignisse finden Sie in der API-Referenz unter userEvents.

Hinweis

Bevor Sie Nutzerereignisse importieren, ist Folgendes zu beachten:

  • Erstellen Sie einen Datenspeicher und eine App.
  • Informationen zu den Anforderungen an Nutzerereignisse finden Sie unter Nutzerereignisse.

Bisherige Nutzerereignisse aus Cloud Storage importieren

Wenn du eine Medien-App hast, kannst du mithilfe der Google Cloud Console oder der API. Bei anderen App-Typen können Sie nur API importieren.

Console

So importieren Sie Nutzerereignisse für Medien-Apps über die Console:

  1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.

    Zum Agent Builder

  2. Klicken Sie auf der Seite Apps auf Ihre Medien-App.

  3. Rufen Sie die Seite Daten auf.

    Bei Apps für Medienempfehlungen werden auf dem Tab Anforderungen die Mediendokumente und Nutzerereignisse angezeigt, die Sie importieren müssen.

  4. Klicken Sie auf den Tab Events (Ereignisse). Falls Sie bereits Ereignisse importiert haben, werden auf diesem Tab Informationen zu diesen Unternehmen angezeigt.

  5. Klicken Sie auf Ereignisse importieren.

  6. Wählen Sie Cloud Storage als Datenquelle aus.

  7. Geben Sie den Cloud Storage-Speicherort Ihrer Nutzerereignisse ein oder wählen Sie ihn aus.

  8. Klicken Sie auf Importieren.

  9. Auf dem Tab Aktivität wird der Status des Imports angezeigt.

  10. Wenn Importfehler auftreten, gehen Sie auf dem Tab Aktivität so vor:

    1. Maximieren Sie den Fehler in der Spalte Details und klicken Sie auf Details anzeigen, um weitere Informationen im Bereich Aktivitätsprotokolldetails aufzurufen.

    2. Klicken Sie im Bereich Details zum Aktivitätsprotokoll auf Vollständige Fehlerprotokolle ansehen, um den Fehler im Log-Explorer aufzurufen.

REST

So importieren Sie alte Nutzerereignisse im Bulk aus Cloud Storage: Schritte:

  1. Erstellen Sie eine oder mehrere Datendateien für die Eingabeparameter für den Import. Verwenden Sie das Objekt gcsSource, um auf Ihren Cloud Storage-Bucket zu verweisen.

    {
    "gcsSource": {
      "inputUris": ["INPUT_FILE_1", "INPUT_FILE_2"],
      "dataSchema": "user_event"
      },
      "errorConfig":{
          "gcsPrefix":"ERROR_DIRECTORY"
      }
    }
    
    • INPUT_FILE: Eine Datei in Cloud Storage, die den Nutzer enthält. Ereignisdaten. Jedes Nutzerereignis muss sich in einer eigenen Zeile ohne Zeilenumbruch befinden. Die JSON-Darstellung für Nutzerereignisse finden Sie in der API-Referenz unter userEvents. Die Felder für die Eingabedatei müssen folgendes Format haben: gs://<bucket>/<path-to-file>/
    • ERROR_DIRECTORY: Optional. Ein Cloud Storage-Verzeichnis für Fehlerinformationen über den Import, z. B. gs://<your-gcs-bucket>/directory/import_errors Wir empfehlen, dieses Feld leer zu lassen, damit Vertex AI Agent Builder automatisch ein temporäres Verzeichnis erstellt.
  2. Importieren Sie Ihre Ereignisse, indem Sie eine POST-Anfrage an den userEvents:import unter Angabe des Namens der Datendatei.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl -X POST \
        -v \
        -H "Content-Type: application/json; charset=utf-8" \
        -H "Authorization: Bearer "$(gcloud auth print-access-token)"" \
        --data @DATA_FILE.json \
    "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_NUMBER/locations/global/dataStores/DATA_STORE_ID/userEvents:import"
    

Bisherige Nutzerereignisse aus BigQuery importieren

Verwenden Sie beim Erstellen von Tabellen für Nutzerereignisse in BigQuery die Schemas Nutzerereignisse

BigQuery-Zugriff einrichten

Wenn sich Ihr BigQuery-Dataset in einem anderen Projekt befindet als Ihr des Datenspeichers führen Sie die folgenden Schritte aus, um den Zugriff auf BigQuery einzurichten.

  1. Offen die IAM- und Seite „Verwaltung“ in der Google Cloud Console.
  2. Wählen Sie das Projekt mit dem Datenspeicher aus, den Sie importieren möchten in die Ereignisse eingefügt werden.
  3. Klicken Sie auf das Kästchen Von Google bereitgestellte Rollenzuweisungen einschließen.
  4. Suchen Sie das Dienstkonto mit dem Namen Discovery Engine-Dienstkonto.
  5. Wenn Sie noch keinen Importvorgang mit Discovery Engine, wird dieses Dienstkonto möglicherweise nicht aufgeführt. Wenn dieses Dienstkonto nicht angezeigt wird, kehren Sie zur Importaufgabe zurück und initiieren den Import. Wenn die Ausführung aufgrund von Berechtigungsfehlern fehlschlägt, kehren Sie hierher zurück und schließen Sie den Vorgang ab. für diese Aufgabe. Das Discovery Engine-Dienstkonto wird aufgeführt.
  6. Kopieren Sie die Kennung für das Dienstkonto, die wie eine E-Mail-Adresse aussieht. Adresse, z. B. service-525@gcp-sa-discoveryengine.iam.gserviceaccount.com
  7. Wechseln Sie zu Ihrem BigQuery-Projekt (auf derselben Seite IAM &Verwaltung). und klicken Sie auf Zugriff gewähren.
  8. Geben Sie unter Neue Hauptkonten die Kennzeichnung für das Dienstkonto ein und wählen Sie die Rolle BigQuery > BigQuery-Datenbetrachter aus.
  9. Klicken Sie auf Speichern.

Weitere Informationen zum BigQuery-Zugriff finden Sie unter Zugriff auf Datasets steuern in der BigQuery-Dokumentation.

Ereignisse aus BigQuery importieren

Wenn Sie eine Medien-App haben, können Sie Nutzerereignisse über die Google Cloud Console oder die API importieren. Bei anderen App-Typen ist der Import nur mit dem der API erstellen.

Console

So importieren Sie Nutzerereignisse für Medien-Apps über die Console:

  1. Rufen Sie in der Google Cloud Console die Seite Agent Builder auf.

    Zum Agent Builder

  2. Klicken Sie auf der Seite Apps auf Ihre Medien-App.

  3. Rufen Sie die Seite Daten auf.

    Bei Apps für Medienempfehlungen werden auf dem Tab Anforderungen die Mediendokumente und Nutzerereignisse angezeigt, die Sie importieren müssen.

  4. Klicken Sie auf den Tab Events (Ereignisse). Falls Sie bereits Ereignisse importiert haben, werden auf diesem Tab Informationen zu diesen Unternehmen angezeigt.

  5. Klicken Sie auf Ereignisse importieren.

  6. Wählen Sie BigQuery als Datenquelle aus.

  7. Geben Sie den BigQuery-Pfad für Ihre Nutzerereignisse ein oder wählen Sie ihn aus.

  8. Klicken Sie auf Importieren.

  9. Auf dem Tab Aktivität wird der Status des Imports angezeigt.

  10. Wenn Importfehler auftreten, gehen Sie auf dem Tab Aktivität so vor:

    1. Maximieren Sie den Fehler in der Spalte Details und klicken Sie auf Details anzeigen, um weitere Informationen im Bereich Aktivitätsprotokolldetails aufzurufen.

    2. Klicken Sie im Bereich Details zum Aktivitätsprotokoll auf Vollständige Fehlerprotokolle ansehen, um den Fehler im Log-Explorer aufzurufen.

REST

So importieren Sie alte Nutzerereignisse im Bulk aus Cloud Storage: Schritte:

  1. Importieren Sie die Nutzerereignisse, indem Sie eine POST-Anfrage an die Methode userEvents:import senden und dabei den Namen des BigQuery-Projekts, die Dataset-ID und die Tabellen-ID angeben.

    Verwenden Sie beim Importieren Ihrer Ereignisse den Wert user_event für dataSchema.

    export GOOGLE_APPLICATION_CREDENTIALS=/tmp/my-key.json
    
    curl \
      -v \
      -X POST \
      -H "Content-Type: application/json; charset=utf-8" \
      -H "Authorization: Bearer "$(gcloud auth print-access-token)"" \
      "https://discoveryengine.googleapis.com/v1beta/projects/[PROJECT_NUMBER]/locations/global/dataStores/DATA_STORE_ID/userEvents:import" \
      --data '{
          "bigquerySource": {
              "projectId":"PROJECT_ID",
              "datasetId": "DATASET_ID",
              "tableId": "TABLE_ID",
              "dataSchema": "user_event"
          }
        }'
    

Bisherige Nutzerereignisse als lokale JSON-Daten importieren

Sie können Nutzerereignisse importieren, indem Sie lokale JSON-Daten für die Ereignisse in den Aufruf der Methode userEvents:import aufnehmen.

So fügen Sie Nutzerereignisdaten in eine JSON-Datei ein und geben die Datei in einer API-Anfrage an:

  1. Erstellen Sie eine JSON-Datei mit Ihren Nutzerereignisdaten. Die JSON-Darstellung für Nutzerereignisse finden Sie in der API-Referenzdokumentation unter userEvents.

    {
      "inlineSource": {
        "userEvents": [
          {
            USER_EVENT_1
          },
          {
            USER_EVENT_2
          }
        ]
      }
    }
    
  2. Importieren Sie Ihre Ereignisse, indem Sie eine POST-Anfrage an den userEvents:import unter Angabe des Namens der Datendatei.

    curl -X POST \
        -H "Authorization: Bearer $(gcloud auth print-access-token)" \
        -H "Content-Type: application/json; charset=utf-8" \
        --data @[JSON_FILE] \
      "https://discoveryengine.googleapis.com/v1beta/projects/PROJECT_NUMBER/locations/global/dataStores/DATA_STORE_ID/userEvents:import"