Exporter des données issues d'Analytics

Cette page s'applique à Apigee et à Apigee hybrid.

Consultez la documentation d'Apigee Edge.

Apigee Analytics collecte et analyse un large éventail de données qui transitent par vos API et fournit des outils de visualisation, tels que des tableaux de bord interactifs, des rapports personnalisés et d'autres outils permettant d'identifier les tendances en matière de performances du proxy d'API.

Désormais, vous pouvez déverrouiller ce contenu enrichi en exportant les données d'analyse d'Apigee Analytics vers votre propre dépôt de données, tel que Google Cloud Storage ou Google BigQuery. Vous pouvez ensuite exploiter les puissantes fonctionnalités d'interrogation et de machine learning offertes par Google BigQuery et TensorFlow pour effectuer votre propre analyse de données. Vous pouvez également combiner les données d'analyse exportées avec d'autres données, telles que les journaux Web, pour obtenir d'autres renseignements sur vos utilisateurs, API et applications.

Formats de données d'exportation disponibles

Exportez les données d'analyse dans l'un des formats suivants :

  • CSV (Comma-Separated Values)

    Le délimiteur par défaut est une virgule (,). Les caractères de délimitation acceptés comprennent les virgules (,), les barres verticales (|) et les tabulations (\t). Configurez la valeur à l'aide de la propriété csvDelimiter, comme décrit dans la documentation de référence sur les propriétés de requête d'exportation.

  • JSON (délimité par un retour à la ligne)

    Permet d'utiliser le caractère de retour à la ligne comme délimiteur.

Les données exportées incluent toutes les métriques et dimensions d'analyse intégrées à Apigee, ainsi que toutes les données d'analyse personnalisée que vous ajoutez. Pour obtenir une description des données exportées, consultez l'article Métriques, dimensions et filtres Analytics.

Vous pouvez exporter des données d'analyse dans les dépôts de données suivants :

Procédure d'exportation des données d'analyse

Les étapes suivantes récapitulent le processus utilisé pour exporter vos données d'analyse :

  1. Configurez votre dépôt de données (Cloud Storage ou BigQuery) pour l'exportation de données. Vous devez vous assurer que votre dépôt de données a été configuré correctement et que le compte de service de l'agent de service Apigee utilisé pour écrire des données dans le dépôt de données dispose des autorisations appropriées.
  2. Créez un magasin de données qui définit les propriétés du dépôt de données (Cloud Storage ou BigQuery) vers lequel vous exportez vos données.
  3. Exportez vos données d'analyse. L'exportation de données s'exécute de manière asynchrone en arrière-plan.
  4. Affichez l'état de la requête d'exportation pour déterminer quand l'exportation est terminée.
  5. Une fois l'exportation terminée, accédez aux données exportées dans votre dépôt de données.

Les sections suivantes décrivent ces étapes plus en détail.

Configurer votre dépôt de données

Configurez Cloud Storage ou BigQuery pour activer l'accès par exportation de données d'analyse.

Configurer Google Cloud Storage

Avant de pouvoir exporter des données vers Google Cloud Storage, vous devez effectuer les opérations suivantes :

  • Créez un bucket Google Cloud Storage.

  • Assurez-vous que l'API BigQuery est activée dans votre projet Google Cloud Platform. Apigee utilise l'API BigQuery pour exploiter les fonctionnalités d'exportation de BigQuery lors de l'exportation vers Cloud Storage.

    Consultez la section Activer des API pour obtenir des instructions.

  • Assurez-vous que le compte de service Agent de service Apigee avec l'adresse e-mail service-project-number@gcp-sa-apigee.iam.gserviceaccount.com est attribué aux rôles suivants :

    • Utilisateur de tâche BigQuery
    • Administrateur de l'espace de stockage

    Le nom project-number est répertorié sur la page d'accueil du projet, comme indiqué ci-dessous.

    Consultez la page Accorder, modifier et révoquer les accès à des ressources.

    Si vous souhaitez modifier un rôle existant ou créer un rôle personnalisé, vous pouvez également ajouter les autorisations suivantes au rôle :

    • bigquery.jobs.create
    • storage.objects.create
    • storage.objects.delete
    • storage.objects.list

Configurer Google BigQuery

Avant de pouvoir exporter des données vers Google BigQuery :

  • Assurez-vous d'avoir activé BigQuery dans votre projet Google Cloud Platform.
  • Assurez-vous que l'API BigQuery est activée dans votre projet Google Cloud Platform. Consultez la section Activer des API pour obtenir des instructions.
  • Assurez-vous que le compte de service Agent de service Apigee avec l'adresse e-mail service-project-number@gcp-sa-apigee.iam.gserviceaccount.com est attribué aux rôles suivants :

    • Utilisateur de tâche BigQuery
    • Éditeur de données BigQuery

    Le nom project-number est répertorié sur la page d'accueil du projet, comme indiqué ci-dessous.

    Consultez la page Accorder, modifier et révoquer les accès à des ressources.

    Si vous souhaitez modifier un rôle existant ou créer un rôle personnalisé, ajoutez les autorisations suivantes au rôle :

    • bigquery.datasets.create
    • bigquery.datasets.get
    • bigquery.jobs.create
    • bigquery.tables.create
    • bigquery.tables.get
    • bigquery.tables.updateData
  • Créez un ensemble de données BigQuery.

Exporter des données vers BigQuery pour une région spécifique des États-Unis ou de l'UE

Les données analytiques des États-Unis ou de l'UE sont stockées dans l'emplacement multirégional US ou EU. Vous ne pouvez donc pas exporter les données directement vers une région spécifique des États-Unis ou de l'UE dans BigQuery. Une solution de contournement consiste à exporter les données vers Google Cloud Storage, puis à les transférer vers BigQuery comme suit :

  1. Créez un bucket Cloud Storage et définissez l'emplacement sur la région spécifique des États-Unis ou de l'UE que vous souhaitez associer à vos données dans BigQuery.
  2. Créez un datastore Cloud Storage à l'aide du bucket de stockage créé à l'étape précédente.
  3. Exportez les données vers Cloud Storage. Consultez l' exemple 1 : Exporter des données vers Cloud Storage ci-dessous pour obtenir un exemple.
  4. Chargez les données dans BigQuery, comme décrit dans les sections suivantes :

Gérer les datastores

Le datastore définit la connexion à votre dépôt de données d'exportation (Cloud Storage, BigQuery).

Les sections suivantes expliquent comment créer et gérer vos datastores. Avant de créer un datastore, il est recommandé de tester la configuration du dépôt de données.

Tester la configuration du dépôt de données

Lorsque vous créez le dépôt de données, Apigee ne teste pas et ne valide pas la configuration. Cela signifie que vous pouvez créer le datastore (à l'étape suivante) et ne détecter aucune erreur tant que vous n'avez pas exécuté votre première exportation de données.

Comme l'exécution d'un processus d'exportation de données peut prendre beaucoup de temps, vous pouvez détecter les erreurs plus tôt en testant la configuration du dépôt de données afin de vous assurer qu'il est valide, et en corriger les erreurs avant de créer le magasin de données.

Pour tester la configuration du dépôt de données, envoyez une requête POST à l'API /organizations/{org}/analytics/datastores:test. Transmettez les informations suivantes dans le corps de la requête :

Par exemple, les éléments suivants testent une configuration de dépôt de données Cloud Storage :

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores:test" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "targetType": "gcs",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

Vous trouverez ci-dessous un exemple de réponse si le test réussit :

{
  "state": "completed",
}

Voici un exemple de réponse en cas d'échec du test :

{
  "state": "failed",
  "error": "<error message>"
}

Dans ce cas, résolvez les problèmes signalés dans le message d'erreur et testez de nouveau la configuration du dépôt de données. Après un test réussi, créez le datastore, comme décrit dans la section suivante.

Créer un datastore

Pour créer un datastore, envoyez une requête POST à l'API /organizations/{org}/analytics/datastores. Transmettez les informations suivantes dans le corps de la requête :

Des exemples sont fournis ci-dessous pour chaque type de datastore.

Voici un exemple de réponse pour un dépôt de données Cloud Storage :

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Utilisez l'URL renvoyée dans la propriété self pour afficher les détails du datastore, comme décrit dans la section Afficher les détails d'un datastore.

Pour en savoir plus, consultez la page sur l'API Create Datastore.

Exemple 1 : Créer un datastore Cloud Storage

La requête suivante crée un datastore Cloud Storage :

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "targetType": "gcs",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

$TOKEN est défini sur votre jeton d'accès OAuth 2.0, comme décrit dans la section Obtenir un jeton d'accès OAuth 2.0. Pour en savoir plus sur les options curl utilisées dans cet exemple, consultez la section Utiliser curl. Pour obtenir une description des variables d'environnement utilisées, consultez la section Définir des variables d'environnement pour les requêtes API Apigee.

Exemple 2 : Créer un datastore BigQuery

La requête suivante crée un datastore BigQuery :

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My BigQuery datastore",
    "targetType": "bigquery",
    "datastoreConfig": {
      "projectId": "my-project",
      "datasetName": "mybigquery",
      "tablePrefix": "bqprefix"
    }
  }'

$TOKEN est défini sur votre jeton d'accès OAuth 2.0, comme décrit dans la section Obtenir un jeton d'accès OAuth 2.0. Pour en savoir plus sur les options curl utilisées dans cet exemple, consultez la section Utiliser curl. Pour obtenir une description des variables d'environnement utilisées, consultez la section Définir des variables d'environnement pour les requêtes API Apigee.

Afficher tous les datastores

Pour afficher tous les datastores de votre organisation, envoyez une requête GET à l'API /organizations/{org}/analytics/datastores.

Exemple :

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

$TOKEN est défini sur votre jeton d'accès OAuth 2.0, comme décrit dans la section Obtenir un jeton d'accès OAuth 2.0. Pour en savoir plus sur les options curl utilisées dans cet exemple, consultez la section Utiliser curl. Pour obtenir une description des variables d'environnement utilisées, consultez la section Définir des variables d'environnement pour les requêtes API Apigee.

Voici un exemple de réponse :

{
  "datastores": [
  {
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
  },
  {
    "self": "/organizations/myorg/analytics/datastores/g8c3f0mk-1f78-8837-9c67-k222b60ce30b",
    "displayName": "My BigQuery datastore",
    "org": "myorg",
    "targetType": "bigquery",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
      "projectId": "my-project",
      "datasetName": "mybigquery",
      "tablePrefix": "bqprefix"
    }
  }
  ]
}

Pour en savoir plus, consultez la page sur l'API List Datastores.

Afficher les détails d'un datastore

Pour afficher les détails d'un datastore, envoyez une requête GET à l'API /organizations/{org}/analytics/datastores/{datastore}.

Exemple :

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

$TOKEN est défini sur votre jeton d'accès OAuth 2.0, comme décrit dans la section Obtenir un jeton d'accès OAuth 2.0. Pour en savoir plus sur les options curl utilisées dans cet exemple, consultez la section Utiliser curl. Pour obtenir une description des variables d'environnement utilisées, consultez la section Définir des variables d'environnement pour les requêtes API Apigee.

Vous trouverez ci-dessous un exemple de réponse pour un datastore Cloud Storage :

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Pour en savoir plus, consultez la page sur l'API Get Datastore.

Modifier un datastore

Pour modifier un datastore, envoyez une requête PUT à l'API /organizations/{org}/analytics/datastores/{datastore}. Transmettez tout ou une partie des informations suivantes dans le corps de la requête :

Par exemple, pour mettre à jour un datastore Cloud Storage :

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X PUT \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

$TOKEN est défini sur votre jeton d'accès OAuth 2.0, comme décrit dans la section Obtenir un jeton d'accès OAuth 2.0. Pour en savoir plus sur les options curl utilisées dans cet exemple, consultez la section Utiliser curl. Pour obtenir une description des variables d'environnement utilisées, consultez la section Définir des variables d'environnement pour les requêtes API Apigee.

Vous trouverez ci-dessous un exemple de réponse pour un datastore Cloud Storage :

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Pour en savoir plus, consultez la page sur l'API Update Datastore.

Supprimer un datastore

Pour supprimer un datastore, envoyez une requête DELETE à l'API /organizations/{org}/analytics/datastores/{datastore}.

Exemple :

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b" \
  -X DELETE \
  -H "Authorization: Bearer $TOKEN"

$TOKEN est défini sur votre jeton d'accès OAuth 2.0, comme décrit dans la section Obtenir un jeton d'accès OAuth 2.0. Pour en savoir plus sur les options curl utilisées dans cet exemple, consultez la section Utiliser curl. Pour obtenir une description des variables d'environnement utilisées, consultez la section Définir des variables d'environnement pour les requêtes API Apigee.

Voici un exemple de réponse :

{}

Pour en savoir plus, consultez la page sur l'API Delete Datastore.

Exporter des données d'analyse

Pour exporter des données d'analyse, envoyez une requête POST à l'API /organizations/{org}/environments/{env}/analytics/exports. Transmettez les informations suivantes dans le corps de la requête :

  • Nom et description de la requête d'exportation
  • Plage de dates des données exportées (la valeur ne doit pas dépasser un jour)
  • Format des données exportées
  • Nom du datastore

Des exemples de requêtes d'exportation sont fournis ci-dessous. Pour une description complète des propriétés du corps de la requête, consultez la page Documentation de référence sur les propriétés de requête d'exportation.

La réponse de la requête POST se présente sous la forme suivante :

{
    "self": "/organizations/myorg/environments/test/analytics/exports/a7c2f0dd-1b53-4917-9c42-a211b60ce35b",
    "created": "2017-09-28T12:39:35Z",
    "state": "enqueued"
}

Notez que la propriété state dans la réponse est définie sur enqueued. La requête POST fonctionne de manière asynchrone. Cela signifie que son exécution se poursuit en arrière-plan après que la requête a renvoyé une réponse. Les valeurs possibles pour state sont les suivantes : enqueued, running, completed, failed.

Utilisez l'URL renvoyée dans la propriété self pour afficher l'état de la requête d'exportation de données, comme décrit dans la section Afficher l'état d'une requête d'exportation de données d'analyse. Lorsque la requête se termine, la valeur de la propriété state dans la réponse est définie sur completed. Vous pouvez ensuite accéder aux données d'analyse dans votre datastore.

Pour en savoir plus, consultez la page sur l'API Create Data Export.

Exemple 1 : Exporter des données vers Cloud Storage

L'exemple suivant exporte un ensemble complet de données brutes des dernières 24 heures à partir d'un environnement de test dans l'organisation myorg. Le contenu est exporté vers Cloud Storage au format JSON :

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "name": "Export raw results to Cloud Storage",
    "description": "Export raw results to Cloud Storage for last 24 hours",
    "dateRange": {
      "start": "2020-06-08",
      "end": "2020-06-09"
    },
    "outputFormat": "json",
    "datastoreName": "My Cloud Storage data repository"
  }'

$TOKEN est défini sur votre jeton d'accès OAuth 2.0, comme décrit dans la section Obtenir un jeton d'accès OAuth 2.0. Pour en savoir plus sur les options curl utilisées dans cet exemple, consultez la section Utiliser curl. Pour obtenir une description des variables d'environnement utilisées, consultez la section Définir des variables d'environnement pour les requêtes API Apigee.

Utilisez l'URI spécifié par la propriété self pour surveiller l'état de la tâche, comme décrit dans Afficher l'état d'une requête d'exportation d'analyse.

Exemple 2 : Exporter des données vers BigQuery

L'exemple suivant exporte un fichier CSV séparé par des virgules vers BigQuery :

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "name": "Export query results to BigQuery",
    "description": "One-time export to BigQuery",
    "dateRange": {
      "start": "2018-06-08",
      "end": "2018-06-09"
    },
    "outputFormat": "csv",
    "csvDelimiter": ",",
    "datastoreName": "My BigQuery data repository"
  }'

$TOKEN est défini sur votre jeton d'accès OAuth 2.0, comme décrit dans la section Obtenir un jeton d'accès OAuth 2.0. Pour en savoir plus sur les options curl utilisées dans cet exemple, consultez la section Utiliser curl. Pour obtenir une description des variables d'environnement utilisées, consultez la section Définir des variables d'environnement pour les requêtes API Apigee.

Remarque : Le fichier CSV exporté crée une table BigQuery avec le préfixe suivant :

<PREFIX>_<EXPORT_DATE>_api_<UUID>_from_<FROM_DATE>_to_<TO_DATE>

Utilisez l'URI spécifié par la propriété self pour surveiller l'état de la tâche, comme décrit dans Afficher l'état d'une requête d'exportation de données d'analyse.

À propos des quotas d'exportation de l'API

Pour éviter toute utilisation excessive d'appels d'API d'exportation de données coûteux, Apigee applique un quota de 15 appels par jour et par organisation aux appels à l'API organizations/{org}/environments/{env}/analytics/exports.

Si vous dépassez le quota d'appels, l'API renvoie une réponse HTTP 429.

Afficher l'état de toutes les requêtes d'exportation de données d'analyse

Pour afficher l'état de toutes les requêtes d'exportation de données d'analyse, envoyez une requête GET à /organizations/{org}/environments/{env}/analytics/exports.

Par exemple, la requête suivante renvoie l'état de toutes les requêtes d'exportation de données d'analyse pour l'environnement test de l'organisation myorg :

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

$TOKEN est défini sur votre jeton d'accès OAuth 2.0, comme décrit dans la section Obtenir un jeton d'accès OAuth 2.0. Pour en savoir plus sur les options curl utilisées dans cet exemple, consultez la section Utiliser curl. Pour obtenir une description des variables d'environnement utilisées, consultez la section Définir des variables d'environnement pour les requêtes API Apigee.

Voici un exemple de réponse répertoriant deux requêtes d'exportation, l'une mise en file d'attente (créée et placée dans la file d'attente) et l'autre terminée :

[
  {
    "self":
"/v1/organizations/myorg/environments/test/analytics/exports/e8b8db22-fe03-4364-aaf2-6d4f110444ba",
    "name": "Export results To Cloud Storage",
    "description": "One-time export to Cloud Storage",
    "userId": "my@email.com",
    "datastoreName": "My datastore",
    "executionTime": "36 seconds",
    "created": "2018-09-28T12:39:35Z",
    "updated": "2018-09-28T12:39:42Z",
    "state": "enqueued"
  },
  {
    "self":
"/v1/organizations/myorg/environments/test/analytics/exports/9870987089fe03-4364-aaf2-6d4f110444ba"
    "name": "Export raw results to BigQuery",
    "description": "One-time export to BigQuery",
    ...
  }
]

Pour en savoir plus, consultez la page sur l'API List Data Exports.

Afficher l'état d'une requête d'exportation de données d'analyse

Pour afficher l'état d'une requête d'exportation de données d'analyse spécifique, émettez une requête GET à /organizations/{org}/environments/{env}/analytics/exports/{exportId}, où {exportId} est l'ID associé à la requête d'exportation de données d'analyse.

Par exemple, la requête suivante renvoie l'état de la requête d'exportation de données d'analyse avec l'ID 4d6d94ad-a33b-4572-8dba-8677c9c4bd98.

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Voici un exemple de réponse :

{
  "self":
"/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98",
  "name": "Export results to Cloud Storage",
  "description": "One-time export to Cloud Storage",
  "userId": "my@email.com",
  "datastoreName": "My datastore",
  "executionTime": "36 seconds",
  "created": "2018-09-28T12:39:35Z",
  "updated": "2018-09-28T12:39:42Z",
  "state": "enqueued"
}

Pour en savoir plus, consultez la page sur l'API Get Data Export.

Si l'exportation de données d'analyse ne renvoie aucune donnée, executionTime est défini sur "0 seconde".

Documentation de référence sur les propriétés de requête Datastore

Le tableau suivant décrit les propriétés que vous pouvez transmettre dans le corps de la requête au format JSON lors de la création d'un datastore en fonction du type de datastore.

Google Cloud Storage :

Valeur Description nécessaire
ID du projet ID du projet Google Cloud Platform.

Pour créer un projet Google Cloud Platform, consultez Créer et gérer des projets dans la documentation de Google Cloud Platform.

Oui
Nom du bucket Nom du bucket Cloud Storage vers lequel vous souhaitez exporter des données d'analyse.

Remarque : Avant de pouvoir exporter les données, le bucket doit exister.

Pour créer un bucket Cloud Storage, consultez Créer des buckets dans la documentation de Google Cloud Platform.

Yes
Chemin Répertoire de stockage des données d'analyse dans le bucket Cloud Storage. Oui

BigQuery :

Valeur Description nécessaire
ID du projet ID du projet Google Cloud Platform.

Pour créer un projet Google Cloud Platform, consultez Créer et gérer des projets dans la documentation Google Cloud Platform.

Oui
Nom de l'ensemble de données Nom de l'ensemble de données BigQuery vers lequel exporter des données d'analyse. Avant de demander une exportation de données, assurez-vous que l'ensemble de données est créé.

Pour créer un ensemble de données BigQuery, consultez Créer et utiliser des ensembles de données dans la documentation de Google Cloud Platform.

Oui
Préfixe de table Préfixe des noms des tables créées pour les données d'analyse dans l'ensemble de données BigQuery. Oui

Documentation de référence sur les propriétés de requête d'exportation

Le tableau suivant décrit les propriétés que vous pouvez transmettre dans le corps de la requête au format JSON lors de l'exportation de données d'analyse.

Valeur Description nécessaire
description Description de la requête d'exportation. Non
name Nom de la requête d'exportation. Oui
dateRange

Spécifiez les dates start et end des données à exporter, au format yyyy-mm-dd. Exemple :


"dateRange": {
    "start": "2018-07-29",
    "end": "2018-07-30"
}

La valeur dateRange ne doit pas dépasser un jour. La plage de dates débute à 00:00:00 UTC pour la date start et se termine à 00:00:00 UTC pour la date end.

Remarque : Pour vous assurer que toutes les données sont capturées le jour précédent, vous devrez peut-être retarder l'heure de début de la requête d'exportation (par exemple, 05:00 AM UTC).

Oui
outputFormat Spécifiez json ou csv. Oui
csvDelimiter

Délimiteur utilisé dans le fichier de sortie CSV, si outputFormat est défini sur csv. La valeur par défaut est la virgule (,). Les caractères de délimitation acceptés comprennent les virgules (,), les barres verticales (|) et les tabulations (\t).

Non
datastoreName Nom du datastore contenant la définition de votre datastore. Oui

Exemple :

{
  "name": "Export raw results to Cloud Storage",
  "description": "Export raw results to Cloud Storage for last 24 hours",
  "datastoreName": "My Cloud Storage datastore"
}