HINWEIS: Einige Aspekte dieses Produkts befinden sich in der Betaphase. Die hybriden Installationsoptionen sind allgemein verfügbar. Wenn Sie am Beta-Programm teilnehmen möchten, wenden Sie sich an Ihren Apigee-Vertreter.

Daten aus Analysen exportieren

Apigee Analytics erfasst und analysiert ein breites Spektrum an Daten, die durch Ihre APIs fließen, und bietet Visualisierungstools, einschließlich interaktiver Dashboards, benutzerdefinierter Berichte und anderer Tools, die Trends in der API-Proxy-Leistung erkennen.

Jetzt können Sie auf diese umfangreichen Inhalte zugreifen, indem Sie Analysedaten aus Apigee Analytics in Ihr eigenes Daten-Repository exportieren, z. B. in Google Cloud Storage oder Google BigQuery. Anschließend können Sie die leistungsstarken Funktionen für Abfragen und maschinelles Lernen von Google BigQuery und TensorFlow nutzen, um Ihre eigenen Datenanalysen durchzuführen. Sie können die exportierten Analysedaten auch mit anderen Daten wie Weblogs kombinieren, um neue Einblicke in Ihre Nutzer, APIs und Anwendungen zu erhalten.

Welche Exportdatenformate werden unterstützt?

Exportieren Sie Analysedaten in eines der folgenden Formate:

  • Kommagetrennte Werte (CSV)

    Das Standardtrennzeichen ist ein Komma (,). Zu den unterstützten Trennzeichen gehören das Komma (), der senkrechte Strich (|) und das Tabulatorzeichen (\t). Konfigurieren Sie den Wert mit dem Attribut csvDelimiter. Eine Beschreibung hierzu finden Sie unter Referenz zu Anfragattribut exportieren.

  • JSON (durch Zeilenumbruch getrennt)

    Ermöglicht das Verwenden eines Zeilenvoschubs als Trennzeichen.

Die exportierten Daten umfassen alle Analysemesswerte und -dimensionen, die in Apigee enthalten sind, sowie von Ihnen hinzugefügte benutzerdefinierte Analysedaten. Eine Beschreibung der exportierten Daten finden Sie unter Referenz zu Analytics-Messwerten, -Dimensionen und -Filtern.

Sie können Analysedaten in die folgenden Daten-Repositories exportieren:

Schritte zum Exportieren Ihrer Analysedaten

In den folgenden Schritten wird der Prozess zum Exportieren der Analysedaten zusammengefasst:

  1. Konfigurieren Sie Ihr Daten-Repository (Cloud Storage oder BigQuery) für den Datenexport. Sie müssen darauf achten, dass Ihr Daten-Repository ordnungsgemäß konfiguriert wurde und dass das Dienstkonto von Apigee Service Agent, das zum Schreiben von Daten in das Daten-Repository verwendet wird, über die richtigen Berechtigungen verfügt.

  2. Erstellen Sie einen Datenspeicher, der die Attribute des Datenrepositorys (Cloud Storage oder BigQuery) definiert, in das Sie Ihre Daten exportieren.

  3. Exportieren Sie Ihre Analysedaten. Der Datenexport läuft asynchron im Hintergrund ab.

  4. Prüfen Sie den Status der Exportanfrage, um festzustellen, wann der Export abgeschlossen ist.

  5. Wenn der Export abgeschlossen ist, greifen Sie auf die exportierten Daten in Ihrem Daten-Repository zu.

In den folgenden Abschnitten werden diese Schritte ausführlicher beschrieben.

Daten-Repository konfigurieren

Konfigurieren Sie Cloud Storage oder BigQuery, um den Zugriff durch den Export von Analysedaten zu ermöglichen.

Google Cloud Storage konfigurieren

Bevor Sie Daten in Google Cloud Storage exportieren können:

  • Die BigQuery API muss in Ihrem Google Cloud Platform-Projekt aktiviert sein. Apigee nutzt die BigQuery API, um BigQuery-Exportfunktionen beim Export nach Cloud Storage zu nutzen.

    Eine Anleitung finden Sie unter APIs aktivieren.

  • Achten Sie darauf, dass das Dienstkonto Apigee Service Agent mit der Mitgliedsadresse service-project-number@gcp-sa-apigee.iam.gserviceaccount.com den folgenden Rollen zugewiesen ist:

    • BigQuery-Jobnutzer
    • Storage-Objekt-Ersteller

    Hinweis: Die project-number wird wie unten dargestellt auf der Startseite des Projekts aufgeführt.

    Weitere Informationen finden Sie unter Zugriff auf Ressourcen erteilen, ändern und entziehen.

    Wenn Sie eine vorhandene Rolle ändern oder eine benutzerdefinierte Rolle erstellen möchten, fügen Sie der Rolle die folgenden Berechtigungen hinzu:

    • bigquery.jobs.create
    • storage.objects.create

Google BigQuery konfigurieren

Bevor Sie Daten in Google BigQuery exportieren können:

  • BigQuery muss in Ihrem Google Cloud Platform-Projekt aktiviert sein.
  • Die BigQuery API muss in Ihrem Google Cloud Platform-Projekt aktiviert sein. Eine Anleitung finden Sie unter APIs aktivieren.
  • Achten Sie darauf, dass das Dienstkonto Apigee Service Agent mit der Mitgliedsadresse service-project-number@gcp-sa-apigee.iam.gserviceaccount.com den folgenden Rollen zugewiesen ist:

    • BigQuery-Jobnutzer
    • BigQuery-Dateneditor

    Hinweis: Die project-number wird wie unten dargestellt auf der Startseite des Projekts aufgeführt.

    Weitere Informationen finden Sie unter Zugriff auf Ressourcen erteilen, ändern und entziehen.

    Wenn Sie eine vorhandene Rolle ändern oder eine benutzerdefinierte Rolle erstellen möchten, fügen Sie der Rolle die folgenden Berechtigungen hinzu:

    • bigquery.datasets.create
    • bigquery.datasets.get
    • bigquery.jobs.create
    • bigquery.tables.create
    • bigquery.tables.get
    • bigquery.tables.updateData

Datenspeicher verwalten

Der Datenspeicher definiert die Verbindung zu Ihrem Exportdaten-Repository (Cloud Storage, BigQuery).

In den folgenden Abschnitten wird beschrieben, wie Sie Datenspeicher erstellen und verwalten. Bevor Sie einen Datenspeicher erstellen, sollten Sie die Daten-Repository-Konfiguration testen.

Daten-Repository-Konfiguration testen

Wenn Sie das Daten-Repository erstellen, testet Apigee die Konfiguration nicht, um zu prüfen, ob sie gültig ist. Das bedeutet, dass Sie den Datenspeicher im nächsten Schritt erstellen können und keine Fehler finden, bis Sie den ersten Datenexport ausgeführt haben.

Da das Ausführen eines Datenexports sehr lange dauern kann, können Sie Fehler frühzeitig erkennen. Testen Sie dazu die Daten-Repository-Konfiguration, um ihre Gültigkeit zu prüfen und etwaige Fehler vor dem Erstellen des Datenspeichers zu beheben.

Senden Sie eine POST-Anfrage an die /organizations/{org}/analytics/datastores:test API, um die Konfiguration des Daten-Repositorys zu testen. Übergeben Sie im Anfragetext die folgenden Informationen:

Mit dem folgenden Code wird beispielsweise die Konfiguration eines Cloud Storage-Daten-Repositorys getestet:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores:test" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "targetType": "gcs",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

Im Folgenden finden Sie ein Beispiel für die Antwort, wenn der Test erfolgreich ist:

{
  "state": "completed",
}

Im Folgenden finden Sie ein Beispiel für die Antwort, wenn der Test fehlgeschlagen ist:

{
  "state": "failed",
  "error": "<error message>"
}

Beheben Sie in diesem Fall die in der Fehlermeldung auftretenden Probleme und testen Sie die Daten-Repository-Konfiguration noch einmal. Erstellen Sie nach einem erfolgreichen Test den Datenspeicher, wie im nächsten Abschnitt beschrieben.

Datenspeicher erstellen

Senden Sie eine POST-Anfrage an die /organizations/{org}/analytics/datastores API, um einen Datenspeicher zu erstellen. Übergeben Sie im Anfragetext die folgenden Informationen:

Im Folgenden finden Sie Beispiele für jeden Datenspeichertyp.

Im Folgenden finden Sie eine Beispielantwort für ein Cloud Storage-Daten-Repository:

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Verwenden Sie die URL, die im Attribut self zurückgegeben wurde, um die Datenspeicherdetails aufzurufen, wie unter Details eines Datenspeichers aufrufen beschrieben.

Weitere Informationen finden Sie unter Create Data Store API.

Beispiel 1: Cloud Storage-Datenspeicher erstellen

Mit der folgenden Anfrage wird ein Cloud Storage-Datenspeicher erstellt:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "targetType": "gcs",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Beispiel 2: BigQuery-Datenspeicher erstellen

Mit der folgenden Anfrage wird ein BigQuery-Datenspeicher erstellt:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My BigQuery datastore",
    "targetType": "bigquery",
    "datastoreConfig": {
      "projectId": "my-project",
      "datasetName": "mybigquery",
      "tablePrefix": "bqprefix"
    }
  }'

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Alle Datenspeicher ansehen

Senden Sie eine GET-Anfrage an die /organizations/{org}/analytics/datastores API, um alle Datenspeicher für Ihre Organisation aufzurufen.

Beispiel:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt. Weitere Informationen hierzu finden Sie unter OAuth 2.0-Zugriffstoken abrufen. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Im Folgenden finden Sie ein Beispiel für die Antwort:

{
  "datastores": [
  {
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
  },
  {
    "self": "/organizations/myorg/analytics/datastores/g8c3f0mk-1f78-8837-9c67-k222b60ce30b",
    "displayName": "My BigQuery datastore",
    "org": "myorg",
    "targetType": "bigquery",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
      "projectId": "my-project",
      "datasetName": "mybigquery",
      "tablePrefix": "bqprefix"
    }
  }
  ]
}

Weitere Informationen finden Sie unter List Data Stores API.

Details für einen Datenspeicher aufrufen

Um die Details für einen Datenspeicher aufzurufen, senden Sie eine GET-Anfrage an die /organizations/{org}/analytics/datastores/{datastore} API.

Beispiel:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt. Weitere Informationen hierzu finden Sie unter OAuth 2.0-Zugriffstoken abrufen. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Das folgende Beispiel zeigt die Antwort für einen Cloud Storage-Datenspeicher:

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Weitere Informationen finden Sie unter Get Data Store API.

Datenspeicher ändern

Wenn Sie einen Datenspeicher ändern möchten, stellen Sie eine PUT-Anfrage an die /organizations/{org}/analytics/datastores/{datastore} API. Übergeben Sie alle oder einen Teil der folgenden Informationen im Anfragetext:

So aktualisieren Sie beispielsweise einen Cloud Storage-Datenspeicher:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X PUT \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Das folgende Beispiel zeigt die Antwort für einen Cloud Storage-Datenspeicher:

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Weitere Informationen finden Sie unter Update Data Store API.

Datenspeicher löschen

Senden Sie zum Löschen eines Datenspeichers eine DELETE-Anfrage an die /organizations/{org}/analytics/datastores/{datastore} API.

Beispiel:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b" \
  -X DELETE \
  -H "Authorization: Bearer $TOKEN"

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt. Weitere Informationen hierzu finden Sie unter OAuth 2.0-Zugriffstoken abrufen. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Im Folgenden finden Sie ein Beispiel für die Antwort:

{}

Weitere Informationen finden Sie unter Datastore API löschen.

Analysedaten exportieren

Führen Sie zum Exportieren von Analysedaten eine POST-Anfrage an die /organizations/{org}/environments/{env}/analytics/exports API aus. Übergeben Sie im Anfragetext die folgenden Informationen:

  • Name und Beschreibung der Exportanfrage
  • Zeitraum der exportierten Daten (Wert kann nur einen Tag umfassen)
  • Format der exportierten Daten
  • Name des Datenspeichers

Beispiele für Exportanfragen finden Sie unten. Eine vollständige Beschreibung der Eigenschaften des Anfragetexts finden Sie unter Referenz zum Export von Anfrageattributen.

Die Antwort vom POST hat folgendes Format:

{
    "self": "/organizations/myorg/environments/test/analytics/exports/a7c2f0dd-1b53-4917-9c42-a211b60ce35b",
    "created": "2017-09-28T12:39:35Z",
    "state": "enqueued"
}

Beachten Sie, dass das Attribut state in der Antwort auf enqueued gesetzt ist. Die POST-Anfrage funktioniert asynchron. Das heißt, sie läuft im Hintergrund weiter, nachdem die Anfrage eine Antwort zurückgegeben hat. Zulässige Werte für state: enqueued, running, completed, failed.

Verwenden Sie die in der Property self zurückgegebene URL, um den Status der Datenexportanfrage anzuzeigen, wie beschrieben unter Status einer Analyseexportanfrage anzeigen. Wenn die Anfrage abgeschlossen ist, wird der Wert des Attributs state in der Antwort auf completed gesetzt. Sie können dann auf die Analysedaten in Ihrem Datenspeicher zugreifen.

Weitere Informationen finden Sie unter Create Data Export API.

Beispiel 1: Daten in Cloud Storage exportieren

Das folgende Beispiel exportiert einen vollständigen Satz Rohdaten für die letzten 24 Stunden aus der Testumgebung in der Organisation myorg. Der Inhalt wird in JSON nach Cloud Storage exportiert:

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "name": "Export raw results to Cloud Storage",
    "description": "Export raw results to Cloud Storage for last 24 hours",
    "dateRange": {
      "start": "2020-06-08",
      "end": "2020-06-09"
    },
    "outputFormat": "json",
    "datastoreName": "My Cloud Storage data repository"
  }'

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Verwenden Sie den im Attribut self angegebenen URI, um den Jobstatus zu überwachen, wie unter Status einer Analyseexportanfrage ansehen beschrieben.

Beispiel 2: Daten in BigQuery exportieren

Im folgenden Beispiel wird eine durch Kommas getrennte CSV-Datei nach BigQuery exportiert:

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "name": "Export query results to BigQuery",
    "description": "One-time export to BigQuery",
    "dateRange": {
      "start": "2018-06-08",
      "end": "2018-06-09"
    },
    "outputFormat": "csv",
    "csvDelimiter": ",",
    "datastoreName": "My BigQuery data repository"
  }'

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Verwenden Sie den im Attribut self angegebenen URI, um den Jobstatus zu überwachen, wie unter Status einer Analyseexportanfrage ansehen beschrieben.

Export-API-Kontingente

Apigee verhindert ein Kontingent für Aufrufe der /organizations/{org}/environments/{env}/analytics/exports API, um eine übermäßige Verwendung von teuren API-Datenaufrufen für den Export zu vermeiden:

  • 70 Aufrufe pro Monat pro Organisation und Umgebung.

    Wenn Sie beispielsweise in Ihrer Organisation die beiden Umgebungen prod und test haben, können Sie für jede Umgebung 70 API-Aufrufe pro Monat ausführen.

Wenn Sie das Aufrufkontingent überschreiten, gibt die API den HTTP-Fehler 429 zurück.

Status aller Analyseexportanfragen anzeigen

Um den Status für alle Analyseexportanfragen aufzurufen, senden Sie eine GET-Anfrage an /organizations/{org}/environments/{env}/analytics/exports.

Die folgende Anfrage gibt beispielsweise den Status aller Analyseexportanfragen für die Umgebung test in der Organisation myorg zurück:

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Dabei ist $TOKEN auf Ihr OAuth 2.0-Zugriffstoken festgelegt, wie unter OAuth 2.0-Zugriffstoken abrufen beschrieben. Informationen zu den in diesem Beispiel verwendeten curl-Optionen finden Sie unter curl verwenden. Eine Beschreibung der verwendeten Umgebungsvariablen finden Sie unter Umgebungsvariablen für Apigee API-Anfragen festlegen.

Im Folgenden finden Sie eine Beispielantwort, in der zwei Exportanfragen aufgeführt sind, eine (erstellte und) in die Warteschlange gestellte und eine abgeschlossene Anfrage:

[
  {
    "self":
"/v1/organizations/myorg/environments/test/analytics/exports/e8b8db22-fe03-4364-aaf2-6d4f110444ba",
    "name": "Export results To Cloud Storage",
    "description": "One-time export to Cloud Storage",
    "userId": "my@email.com",
    "datastoreName": "My datastore",
    "executionTime": "36 seconds",
    "created": "2018-09-28T12:39:35Z",
    "updated": "2018-09-28T12:39:42Z",
    "state": "enqueued"
  },
  {
    "self":
"/v1/organizations/myorg/environments/test/analytics/exports/9870987089fe03-4364-aaf2-6d4f110444ba"
    "name": "Export raw results to BigQuery",
    "description": "One-time export to BigQuery",
    ...
  }
]

Weitere Informationen finden Sie unter List Data Exports API.

Status einer Analyseexportanforderung ansehen

Um den Status einer bestimmten Analyseexportanfrage anzusehen, senden Sie eine GET-Anfrage an /organizations/{org}/environments/{env}/analytics/exports/{exportId}, wobei {exportId} die ID ist, die der Analyseexportanfrage zugeordnet ist.

Die folgende Anfrage gibt beispielsweise den Status der Analyseexportanfrage mit der ID 4d6d94ad-a33b-4572-8dba-8677c9c4bd98 zurück.

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Im Folgenden finden Sie ein Beispiel für die Antwort:

{
  "self":
"/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98",
  "name": "Export results to Cloud Storage",
  "description": "One-time export to Cloud Storage",
  "userId": "my@email.com",
  "datastoreName": "My datastore",
  "executionTime": "36 seconds",
  "created": "2018-09-28T12:39:35Z",
  "updated": "2018-09-28T12:39:42Z",
  "state": "enqueued"
}

Weitere Informationen finden Sie unter Get Data Store API.

Wenn der Analyseexport keine Analysedaten zurückgibt, wird executionTime auf „0 Sekunden“ gesetzt.

Referenz zu Datenspeicher-Anforderungsattributen

In der folgenden Tabelle werden die Attribute beschrieben, die Sie beim Erstellen eines Datenspeichers auf Grundlage des Datenspeichertyps im Anfragetext im JSON-Format übergeben können.

Für Google Cloud Storage:

Attribut Beschreibung erforderlich?
Projekt-ID ID des Google Cloud Platform-Projekts

Informationen zum Erstellen eines Google Cloud Platform-Projekts finden Sie unter Projekte erstellen und verwalten in der Google Cloud Platform-Dokumentation.

Ja
Bucket-Name Name des Buckets in Cloud Storage, in den Sie Analysedaten exportieren möchten.

Hinweis: Der Bucket muss vorhanden sein, bevor Sie einen Datenexport machen.

Informationen zum Erstellen eines Cloud Storage-Buckets finden Sie in der Google Cloud Platform-Dokumentation unter Storage-Buckets erstellen.

Ja
Pfad Verzeichnis, in dem die Analysedaten im Cloud Storage-Bucket gespeichert werden sollen. Ja

Für BigQuery:

Attribut Beschreibung erforderlich?
Projekt-ID ID des Google Cloud Platform-Projekts

Informationen zum Erstellen eines Google Cloud Platform-Projekts finden Sie unter Projekte erstellen und verwalten in der Google Cloud Platform-Dokumentation.

Ja
Dataset-Name Name des BigQuery-Datasets, in das Sie Analysedaten exportieren möchten. Achten Sie darauf, dass das Dataset erstellt wurde, bevor Sie einen Datenexport anfordern.

Informationen zum Erstellen eines BigQuery-Datasets finden Sie unter Datasets erstellen und verwenden in der Dokumentation zur Google Cloud Platform.

Ja
Tabellenpräfix Das Präfix für die Namen der Tabellen, die für die Analysedaten im BigQuery-Dataset erstellt wurden. Ja

Attributreferenz der Anforderung exportieren

In der folgenden Tabelle werden die Attribute beschrieben, die Sie im Anfragetext im JSON-Format übergeben können, wenn Sie Analysedaten exportieren.

Attribut Beschreibung erforderlich?
description Beschreibung der Exportanfrage. Nein
name Name der Exportanfrage. Ja
dateRange

Geben Sie das start- und das end-Datum der zu exportierenden Daten im Format yyyy-mm-dd an. Beispiel:


"dateRange": {
    "start": "2018-07-29",
    "end": "2018-07-30"
}

Der Wert dateRange kann nur einen Tag umfassen. Der Datumsbereich beginnt um 00:00:00 UTC am Datum start und endet um 00:00:00 UTC am Datum end.

Hinweis: Um sicherzustellen, dass alle Daten des Vortags erfasst werden, müssen Sie möglicherweise die Startzeit der Exportanfrage verzögern (z. B. 00:00:00 UTC).

Ja
outputFormat Geben Sie entweder json oder csv an. Ja
csvDelimiter

Trennzeichen in der CSV-Ausgabedatei, wenn outputFormat auf csv gesetzt ist. Die Standardeinstellung ist das Zeichen , (Komma). Zu den unterstützten Trennzeichen gehören das Komma (), der senkrechte Strich (|) und das Tabulatorzeichen (\t).

Nein
datastoreName Der Name des Datenspeichers, der die Definition Ihres Datenspeichers enthält. Ja

Beispiel:

{
  "name": "Export raw results to Cloud Storage",
  "description": "Export raw results to Cloud Storage for last 24 hours",
  "datastoreName": "My Cloud Storage datastore"
}