Daten aus Analysen exportieren

Diese Seite gilt für Apigee und Apigee Hybrid.

Apigee Edge-Dokumentation aufrufen

Apigee Analytics erfasst und analysiert ein breites Spektrum an Daten, die durch Ihre APIs fließen, und bietet Visualisierungstools, einschließlich interaktiver Dashboards, benutzerdefinierter Berichte und anderer Tools, die Trends in der API-Proxy-Leistung erkennen.

Jetzt können Sie auf diese umfangreichen Inhalte zugreifen, indem Sie Analysedaten aus Apigee Analytics in Ihr eigenes Daten-Repository exportieren, z. B. in Google Cloud Storage oder Google BigQuery. Anschließend können Sie die leistungsstarken Funktionen für Abfragen und maschinelles Lernen von Google BigQuery und TensorFlow nutzen, um Ihre eigenen Datenanalysen durchzuführen. Sie können die exportierten Analysedaten auch mit anderen Daten wie Weblogs kombinieren, um neue Einblicke in Ihre Nutzer, APIs und Anwendungen zu erhalten.

Welche Exportdatenformate werden unterstützt?

Exportieren Sie Analysedaten in eines der folgenden Formate:

  • Kommagetrennte Werte (CSV)

    Das Standardtrennzeichen ist ein Komma (,). Zu den unterstützten Trennzeichen gehören das Komma (), der senkrechte Strich (|) und das Tabulatorzeichen (\t). Konfigurieren Sie den Wert mit dem Attribut csvDelimiter. Eine Beschreibung hierzu finden Sie unter Referenz zu Anfragattribut exportieren.

  • JSON (durch Zeilenumbruch getrennt)

    Ermöglicht das Verwenden eines Zeilenvoschubs als Trennzeichen.

Die exportierten Daten enthalten alle in Apigee integrierten Analysemesswerte und -dimensionen sowie alle benutzerdefinierten Analysedaten, die Sie hinzufügen. Eine Beschreibung der exportierten Daten finden Sie in der Referenz zu Analysemesswerten, -dimensionen und -filtern.

Sie können Analysedaten in die folgenden Daten-Repositories exportieren:

Schritte zum Exportieren Ihrer Analysedaten

In den folgenden Schritten wird der Prozess für das Exportieren der Analysedaten zusammengefasst:

  1. Konfigurieren Sie Ihr Daten-Repository (Cloud Storage oder BigQuery) für den Datenexport. Prüfen Sie, ob Ihr Daten-Repository korrekt konfiguriert wurde und ob das Dienstkonto des Apigee-Dienst-Agents, mit dem Daten in das Daten-Repository geschrieben werden, die richtigen Berechtigungen hat.
  2. Erstellen Sie einen Datenspeicher, der die Attribute des Daten-Repositorys (Cloud Storage oder BigQuery) definiert, in das Sie Ihre Daten exportieren.
  3. Exportieren Sie die Analysedaten. Der Datenexport wird asynchron im Hintergrund ausgeführt.
  4. Rufen Sie den Status der Exportanfrage auf, um festzustellen, wann der Export abgeschlossen ist.
  5. Wenn der Export abgeschlossen ist, greifen Sie in Ihrem Daten-Repository auf die exportierten Daten zu.

Diese Schritte werden in den folgenden Abschnitten näher erläutert.

Daten-Repository konfigurieren

Konfigurieren Sie Cloud Storage oder BigQuery für den Zugriff auf den Export der Analysedaten.

Google Cloud Storage konfigurieren

Bevor Sie Daten nach Google Cloud Storage exportieren können, müssen Sie Folgendes tun:

  • Erstellen Sie einen Google Cloud Storage-Bucket.

  • Sorgen Sie dafür, dass die BigQuery API in Ihrem Google Cloud Platform-Projekt aktiviert ist. Apigee nutzt die BigQuery API, um BigQuery-Exportfeatures beim Export nach Cloud Storage zu nutzen.

    Eine Anleitung finden Sie unter APIs aktivieren.

  • Achten Sie darauf, dass das Dienstkonto Apigee Service Agent mit der E-Mail-Adresse service-project-number@gcp-sa-apigee.iam.gserviceaccount.com den folgenden Rollen zugewiesen ist:

    • BigQuery-Jobnutzer
    • Storage-Administrator

    Die project-number wird wie unten dargestellt auf der Startseite des Projekts aufgeführt.

    Weitere Informationen finden Sie unter Zugriff auf Ressourcen erteilen, ändern und entziehen.

    Wenn Sie eine vorhandene Rolle ändern oder eine benutzerdefinierte Rolle erstellen möchten, fügen Sie der Rolle die folgenden Berechtigungen hinzu:

    • bigquery.jobs.create
    • storage.objects.create
    • storage.objects.delete
    • storage.objects.list

Google BigQuery konfigurieren

Bevor Sie Daten nach Google BigQuery exportieren können:

  • BigQuery muss in Ihrem Google Cloud Platform-Projekt aktiviert sein.
  • Sorgen Sie dafür, dass die BigQuery API in Ihrem Google Cloud Platform-Projekt aktiviert ist. Eine Anleitung finden Sie unter APIs aktivieren.
  • Achten Sie darauf, dass das Dienstkonto Apigee Service Agent mit der E-Mail-Adresse service-project-number@gcp-sa-apigee.iam.gserviceaccount.com den folgenden Rollen zugewiesen ist:

    • BigQuery-Jobnutzer
    • BigQuery-Dateneditor

    Die project-number wird wie unten dargestellt auf der Startseite des Projekts aufgeführt.

    Weitere Informationen finden Sie unter Zugriff auf Ressourcen erteilen, ändern und entziehen.

    Wenn Sie eine vorhandene Rolle ändern oder eine benutzerdefinierte Rolle erstellen möchten, fügen Sie der Rolle die folgenden Berechtigungen hinzu:

    • bigquery.datasets.create
    • bigquery.datasets.get
    • bigquery.jobs.create
    • bigquery.tables.create
    • bigquery.tables.get
    • bigquery.tables.updateData
  • Erstellen Sie ein BigQuery-Dataset.

Daten nach BigQuery für eine einzelne Region in den USA oder der EU exportieren

Da Analysedaten für die USA oder EU am multiregionalen Standort „US“ oder „EU“ gespeichert sind, können Sie die Daten nicht direkt in eine einzelne Region in den USA oder der EU in BigQuery exportieren. Zur Umgehung dieses Problems können Sie die Daten zuerst nach Google Cloud Storage exportieren und dann so nach BigQuery übertragen:

  1. Erstellen Sie einen Cloud Storage-Bucket und legen Sie als Standort die einzelne Region in den USA oder der EU fest, die Sie mit Ihren Daten in BigQuery verknüpfen möchten.
  2. Erstellen Sie mit dem im vorherigen Schritt erstellten Storage-Bucket einen Cloud Storage-Datenspeicher.
  3. Exportieren Sie die Daten in Cloud Storage. Ein Beispiel finden Sie unten im Beispiel 1: Daten in Cloud Storage exportieren.
  4. Laden Sie die Daten in BigQuery, wie in den folgenden Abschnitten beschrieben:

Datenspeicher verwalten

Der Datenspeicher definiert die Verbindung zu Ihrem Exportdaten-Repository (Cloud Storage, BigQuery).

In den folgenden Abschnitten wird beschrieben, wie Sie Datenspeicher erstellen und verwalten. Bevor Sie einen Datenspeicher erstellen, sollten Sie die Daten-Repository-Konfiguration testen.

Daten-Repository-Konfiguration testen

Wenn Sie das Daten-Repository erstellen, testet Apigee die Konfiguration nicht, um zu prüfen, ob sie gültig ist. Das bedeutet, dass Sie den Datenspeicher im nächsten Schritt erstellen können und keine Fehler finden, bis Sie den ersten Datenexport ausgeführt haben.

Da das Ausführen eines Datenexports sehr lange dauern kann, können Sie Fehler frühzeitig erkennen. Testen Sie dazu die Daten-Repository-Konfiguration, um ihre Gültigkeit zu prüfen und etwaige Fehler vor dem Erstellen des Datenspeichers zu beheben.

Senden Sie eine POST-Anfrage an die API /organizations/{org}/analytics/datastores:test, um die Konfiguration des Daten-Repositorys zu testen. Übergeben Sie im Anfragetext die folgenden Informationen:

Mit dem folgenden Befehl wird beispielsweise die Konfiguration eines Cloud Storage-Daten-Repositorys getestet:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores:test" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "targetType": "gcs",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

Im Folgenden finden Sie ein Beispiel für die Antwort, wenn der Test erfolgreich ist:

{
  "state": "completed",
}

Im Folgenden finden Sie ein Beispiel für die Antwort, wenn der Test fehlgeschlagen ist:

{
  "state": "failed",
  "error": "<error message>"
}

Beheben Sie in diesem Fall die in der Fehlermeldung aufgetretenen Probleme und testen Sie die Daten-Repository-Konfiguration noch einmal. Nach einem erfolgreichen Test erstellen Sie den Datenspeicher, wie im nächsten Abschnitt beschrieben.

Datenspeicher erstellen

Senden Sie eine POST-Anfrage an die /organizations/{org}/analytics/datastores API, um einen Datenspeicher zu erstellen. Übergeben Sie im Anfragetext die folgenden Informationen:

Beispiele für jeden Datenspeichertyp finden Sie weiter unten.

Im Folgenden finden Sie eine Beispielantwort für ein Cloud Storage-Daten-Repository:

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Verwenden Sie die URL, die im Attribut self zurückgegeben wurde, um die Datenspeicherdetails aufzurufen, wie unter Details eines Datenspeichers aufrufen beschrieben.

Weitere Informationen finden Sie unter Create Data Store API.

Beispiel 1: Cloud Storage-Datenspeicher erstellen

Mit der folgenden Anfrage wird ein Cloud Storage-Datenspeicher erstellt:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "targetType": "gcs",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Beispiel 2: BigQuery-Datenspeicher erstellen

Mit der folgenden Anfrage wird ein BigQuery-Datenspeicher erstellt:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My BigQuery datastore",
    "targetType": "bigquery",
    "datastoreConfig": {
      "projectId": "my-project",
      "datasetName": "mybigquery",
      "tablePrefix": "bqprefix"
    }
  }'

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Alle Datenspeicher ansehen

Um alle Datenspeicher für Ihre Organisation aufzurufen, senden Sie eine GET-Anfrage an die API /organizations/{org}/analytics/datastores.

Beispiel:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt. Weitere Informationen hierzu finden Sie unter OAuth 2.0-Zugriffstoken abrufen. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen findet sich unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Im Folgenden finden Sie ein Beispiel für die Antwort:

{
  "datastores": [
  {
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
  },
  {
    "self": "/organizations/myorg/analytics/datastores/g8c3f0mk-1f78-8837-9c67-k222b60ce30b",
    "displayName": "My BigQuery datastore",
    "org": "myorg",
    "targetType": "bigquery",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
      "projectId": "my-project",
      "datasetName": "mybigquery",
      "tablePrefix": "bqprefix"
    }
  }
  ]
}

Weitere Informationen finden Sie unter List Data Stores API.

Details für einen Datenspeicher aufrufen

Um die Details für einen Datenspeicher aufzurufen, senden Sie eine GET-Anfrage an die /organizations/{org}/analytics/datastores/{datastore} API.

Beispiel:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt. Weitere Informationen hierzu finden Sie unter OAuth 2.0-Zugriffstoken abrufen. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Das folgende Beispiel zeigt die Antwort für einen Cloud Storage-Datenspeicher:

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Weitere Informationen finden Sie unter Get Data Store API.

Datenspeicher ändern

Zum Ändern eines Datenspeichers senden Sie eine PUT-Anfrage an die API /organizations/{org}/analytics/datastores/{datastore}. Übergeben Sie im Anfragetext alle oder einen Teil der folgenden Informationen:

So aktualisieren Sie beispielsweise einen Cloud Storage-Datenspeicher:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X PUT \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Das folgende Beispiel zeigt die Antwort für einen Cloud Storage-Datenspeicher:

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Weitere Informationen finden Sie unter Update Data Store API.

Datenspeicher löschen

Um einen Datenspeicher zu löschen, senden Sie eine DELETE-Anfrage an die API /organizations/{org}/analytics/datastores/{datastore}.

Beispiel:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b" \
  -X DELETE \
  -H "Authorization: Bearer $TOKEN"

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt. Weitere Informationen hierzu finden Sie unter OAuth 2.0-Zugriffstoken abrufen. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen findet sich unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Im Folgenden finden Sie ein Beispiel für die Antwort:

{}

Weitere Informationen finden Sie unter Datastore API löschen.

Analysedaten exportieren

Senden Sie eine POST-Anfrage an die /organizations/{org}/environments/{env}/analytics/exports API, um Analysedaten zu exportieren. Übergeben Sie im Anfragetext die folgenden Informationen:

  • Name und Beschreibung der Exportanfrage
  • Zeitraum der exportierten Daten (Wert kann nur einen Tag umfassen)
  • Format der exportierten Daten
  • Datastore-Name

Beispiele für Exportanfragen finden Sie unten. Eine vollständige Beschreibung der Anfragetext-Attribute finden Sie unter Referenz zu Anfrageattribut exportieren.

Die Antwort vom POST hat folgendes Format:

{
    "self": "/organizations/myorg/environments/test/analytics/exports/a7c2f0dd-1b53-4917-9c42-a211b60ce35b",
    "created": "2017-09-28T12:39:35Z",
    "state": "enqueued"
}

Beachten Sie, dass das Attribut state in der Antwort auf enqueued gesetzt ist. Die POST-Anfrage funktioniert asynchron. Dies bedeutet, dass sie im Hintergrund ausgeführt wird, nachdem die Anfrage eine Antwort zurückgegeben hat. Zulässige Werte für state sind: enqueued, running, completed, failed.

Verwenden Sie die im Attribut self zurückgegebene URL, um den Status der Datenexportanfrage anzuzeigen, wie unter Status einer Analyseexportanfrage ansehen beschrieben. Wenn die Anfrage abgeschlossen ist, wird der Wert des Attributs state in der Antwort auf completed gesetzt. Anschließend können Sie in Ihrem Datenspeicher auf die Analysedaten zugreifen.

Weitere Informationen finden Sie unter Create Data Export API.

Beispiel 1: Daten in Cloud Storage exportieren

Im folgenden Beispiel wird ein vollständiger Satz von Rohdaten der letzten 24 Stunden aus der Testumgebung in die Organisation myorg exportiert. Der Inhalt wird im JSON-Format nach Cloud Storage exportiert:

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "name": "Export raw results to Cloud Storage",
    "description": "Export raw results to Cloud Storage for last 24 hours",
    "dateRange": {
      "start": "2020-06-08",
      "end": "2020-06-09"
    },
    "outputFormat": "json",
    "datastoreName": "My Cloud Storage data repository"
  }'

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Verwenden Sie den im Attribut self angegebenen URI, um den Jobstatus zu überwachen, wie unter Status einer Analyseexportanfrage ansehen beschrieben.

Beispiel 2: Daten in BigQuery exportieren

Im folgenden Beispiel wird eine durch Kommas getrennte CSV-Datei nach BigQuery exportiert:

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "name": "Export query results to BigQuery",
    "description": "One-time export to BigQuery",
    "dateRange": {
      "start": "2018-06-08",
      "end": "2018-06-09"
    },
    "outputFormat": "csv",
    "csvDelimiter": ",",
    "datastoreName": "My BigQuery data repository"
  }'

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Hinweis: Die exportierte CSV-Datei erstellt eine BigQuery-Tabelle mit dem folgenden Präfix:

<PREFIX>_<EXPORT_DATE>_api_<UUID>_from_<FROM_DATE>_to_<TO_DATE>

Verwenden Sie den im Attribut self angegebenen URI, um den Jobstatus zu überwachen, wie unter Status einer Analyseexportanfrage ansehen beschrieben.

Export-API-Kontingente

Apigee setzt eine Quote von 15 Aufrufen pro Tag und Organisation für Aufrufe der organizations/{org}/environments/{env}/analytics/exports API durch, um eine übermäßige Nutzung der teuren Datenexport-API-Aufrufe zu verhindern.

Wenn Sie das Aufrufkontingent überschreiten, gibt die API den HTTP-Fehler 429 zurück.

Status aller Analyseexportanfragen anzeigen

Um den Status für alle Analyseexportanfragen aufzurufen, senden Sie eine GET-Anfrage an /organizations/{org}/environments/{env}/analytics/exports.

Die folgende Anfrage gibt beispielsweise den Status aller Analyseexportanfragen für die Umgebung test in der Organisation myorg zurück:

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Im Folgenden finden Sie eine Beispielantwort, in der zwei Exportanfragen aufgeführt sind, eine (erstellte und) in die Warteschlange gestellte und eine abgeschlossene Anfrage:

[
  {
    "self":
"/v1/organizations/myorg/environments/test/analytics/exports/e8b8db22-fe03-4364-aaf2-6d4f110444ba",
    "name": "Export results To Cloud Storage",
    "description": "One-time export to Cloud Storage",
    "userId": "my@email.com",
    "datastoreName": "My datastore",
    "executionTime": "36 seconds",
    "created": "2018-09-28T12:39:35Z",
    "updated": "2018-09-28T12:39:42Z",
    "state": "enqueued"
  },
  {
    "self":
"/v1/organizations/myorg/environments/test/analytics/exports/9870987089fe03-4364-aaf2-6d4f110444ba"
    "name": "Export raw results to BigQuery",
    "description": "One-time export to BigQuery",
    ...
  }
]

Weitere Informationen finden Sie unter List Data Exports API.

Status einer Analyseexportanforderung ansehen

Wenn Sie den Status einer bestimmten Analyseexportanfrage ansehen möchten, senden Sie eine GET-Anfrage an /organizations/{org}/environments/{env}/analytics/exports/{exportId}, wobei {exportId} die ID ist, die der Analyseexportanfrage zugeordnet ist.

Die folgende Anfrage gibt beispielsweise den Status der Analyseexportanfrage mit der ID 4d6d94ad-a33b-4572-8dba-8677c9c4bd98 zurück.

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Im Folgenden finden Sie ein Beispiel für die Antwort:

{
  "self":
"/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98",
  "name": "Export results to Cloud Storage",
  "description": "One-time export to Cloud Storage",
  "userId": "my@email.com",
  "datastoreName": "My datastore",
  "executionTime": "36 seconds",
  "created": "2018-09-28T12:39:35Z",
  "updated": "2018-09-28T12:39:42Z",
  "state": "enqueued"
}

Weitere Informationen finden Sie unter Get Data Store API.

Wenn der Analyseexport keine Analysedaten zurückgibt, wird executionTime auf „0 Sekunden“ gesetzt.

Referenz zu Datenspeicher-Anforderungsattributen

In der folgenden Tabelle werden die Attribute beschrieben, die Sie beim Erstellen eines Datenspeichers auf Grundlage des Datenspeichertyps im Anfragetext im JSON-Format übergeben können.

Für Google Cloud Storage:

Attribut Beschreibung erforderlich?
Projekt-ID ID des Google Cloud Platform-Projekts

Informationen zum Erstellen eines Google Cloud Platform-Projekts finden Sie unter Projekte erstellen und verwalten in der Google Cloud Platform-Dokumentation.

Ja
Bucket-Name Name des Buckets in Cloud Storage, in den Sie Analysedaten exportieren möchten.

Hinweis: Der Bucket muss vorhanden sein, bevor Sie einen Datenexport machen.

Informationen zum Erstellen eines Cloud Storage-Buckets finden Sie unter Buckets erstellen in der Google Cloud Platform-Dokumentation.

Ja
Pfad Verzeichnis, in dem die Analysedaten im Cloud Storage-Bucket gespeichert werden sollen. Ja

Für BigQuery:

Attribut Beschreibung erforderlich?
Projekt-ID ID des Google Cloud Platform-Projekts

Informationen zum Erstellen eines Google Cloud Platform-Projekts finden Sie unter Projekte erstellen und verwalten in der Google Cloud Platform-Dokumentation.

Ja
Dataset-Name Name des BigQuery-Datasets, in das Sie Analysedaten exportieren möchten. Das Dataset muss erstellt werden, bevor Sie den Datenexport anfordern.

Informationen zum Erstellen eines BigQuery-Datasets finden Sie unter Datasets erstellen und verwenden in der Dokumentation zur Google Cloud Platform.

Ja
Tabellenpräfix Das Präfix für die Namen der Tabellen, die für die Analysedaten im BigQuery-Dataset erstellt wurden. Ja

Attributreferenz der Anforderung exportieren

In der folgenden Tabelle werden die Attribute beschrieben, die Sie im Anfragetext im JSON-Format übergeben können, wenn Sie Analysedaten exportieren.

Attribut Beschreibung erforderlich?
description Beschreibung der Exportanfrage. Nein
name Name der Exportanfrage. Ja
dateRange

Geben Sie das start- und das end-Datum der zu exportierenden Daten im Format yyyy-mm-dd an. Beispiel:


"dateRange": {
    "start": "2018-07-29",
    "end": "2018-07-30"
}

Der Wert dateRange kann nur einen Tag umfassen. Der Zeitraum beginnt um 00:00:00 Uhr UTC am start-Datum und endet um 00:00:00 Uhr UTC am end-Datum.

Hinweis: Um sicherzustellen, dass alle Daten des Vortags erfasst werden, müssen Sie möglicherweise die Startzeit der Exportanfrage verzögern (z. B. 00:00:00 UTC).

Ja
outputFormat Geben Sie entweder json oder csv an. Ja
csvDelimiter

Trennzeichen in der CSV-Ausgabedatei, wenn outputFormat auf csv gesetzt ist. Die Standardeinstellung ist das Zeichen , (Komma). Zu den unterstützten Trennzeichen gehören das Komma (), der senkrechte Strich (|) und das Tabulatorzeichen (\t).

Nein
datastoreName Der Name des Datenspeichers, der die Definition Ihres Datenspeichers enthält. Ja

Beispiel:

{
  "name": "Export raw results to Cloud Storage",
  "description": "Export raw results to Cloud Storage for last 24 hours",
  "datastoreName": "My Cloud Storage datastore"
}