Esportare i dati da Analytics

Questa pagina si applica ad Apigee e Apigee hybrid.

Visualizza la documentazione di Apigee Edge.

Apigee Analytics raccoglie e analizza un ampio spettro di dati che scorre tra le tue API e fornisce strumenti di visualizzazione, tra cui dashboard interattive, report personalizzati e altri strumenti che identificano le tendenze nelle prestazioni proxy API.

Ora puoi usufruire di queste informazioni dettagliate esportando i dati di analisi da Apigee Analytics al tuo repository di dati, come Google Cloud Storage o Google BigQuery. Puoi quindi sfruttare le potenti funzionalità di query e machine learning offerte da Google BigQuery e TensorFlow per eseguire l'analisi dei tuoi dati. Puoi anche combinare i dati di analisi esportati con altri dati, ad esempio i log web, per ottenere nuovi insight su utenti, API e applicazioni.

Quali sono i formati dei dati di esportazione supportati?

Esporta i dati di analisi in uno dei seguenti formati:

  • Valori separati da virgola (CSV)

    Il delimitatore predefinito è una virgola (,). I caratteri di delimitazione supportati includono la virgola (,), la barra verticale (|) e la tabulazione (\t). Configura il valore utilizzando la proprietà csvDelimiter, come descritto in Riferimento proprietà della richiesta di esportazione .

  • JSON (delimitato da nuova riga)

    Consente di utilizzare il carattere di nuova riga come delimitatore.

I dati esportati includono tutte le metriche e le dimensioni di analisi integrate in Apigee e qualsiasi dato di analisi personalizzato che aggiungi. Per una descrizione dei dati esportati, consulta Riferimento per metriche, dimensioni e filtri di Analytics.

Puoi esportare i dati di analisi nei seguenti repository di dati:

Passaggi per esportare i dati di analisi

I seguenti passaggi riepilogano il processo utilizzato per esportare i dati di analisi:

  1. Configura il tuo repository di dati (Cloud Storage o BigQuery) per l'esportazione dei dati. Devi assicurarti che il repository di dati sia stato configurato correttamente e che l'account di servizio dell'agente di servizio Apigee utilizzato per scrivere dati nel repository di dati disponga delle autorizzazioni corrette.
  2. Crea un datastore che definisce le proprietà del repository di dati (Cloud Storage o BigQuery) in cui esporti i dati.
  3. Esportare i dati di analisi. L'esportazione dei dati viene eseguita in modo asincrono in background.
  4. Visualizza lo stato della richiesta di esportazione per determinare il completamento dell'esportazione.
  5. Al termine dell'esportazione, accedi ai dati esportati nel repository di dati.

Le sezioni seguenti descrivono questi passaggi in modo più dettagliato.

Configurazione del repository di dati

Configura Cloud Storage o BigQuery per abilitare l'accesso tramite l'esportazione dei dati di analisi.

Configurazione di Google Cloud Storage

Prima di poter esportare i dati in Google Cloud Storage, devi eseguire le seguenti operazioni:

  • Crea un bucket Google Cloud Storage.

  • Assicurati che l'API BigQuery sia abilitata nel tuo progetto Google Cloud Platform. Apigee utilizza l'API BigQuery per sfruttare le funzionalità di esportazione di BigQuery durante l'esportazione in Cloud Storage.

    Per le istruzioni, consulta l'argomento Abilitazione delle API.

  • Assicurati che l'account di servizio dell'agente di servizio Apigee con indirizzo email service-project-number@gcp-sa-apigee.iam.gserviceaccount.com sia assegnato ai seguenti ruoli:

    • Utente job BigQuery
    • Amministratore Storage

    project-number è elencato nella home page del progetto, come mostrato di seguito.

    Vedi Concessione, modifica e revoca dell'accesso alle risorse.

    In alternativa, se vuoi modificare un ruolo esistente o crearne uno personalizzato, aggiungi le seguenti autorizzazioni al ruolo:

    • bigquery.jobs.create
    • storage.objects.create
    • storage.objects.delete
    • storage.objects.list

Configurazione di Google BigQuery

Per esportare i dati in Google BigQuery:

  • Assicurati di aver abilitato BigQuery nel tuo progetto Google Cloud Platform.
  • Assicurati che l'API BigQuery sia abilitata nel tuo progetto Google Cloud Platform. Per le istruzioni, consulta l'argomento Abilitazione delle API.
  • Assicurati che l'account di servizio dell'agente di servizio Apigee con indirizzo email service-project-number@gcp-sa-apigee.iam.gserviceaccount.com sia assegnato ai seguenti ruoli:

    • Utente job BigQuery
    • Editor dati BigQuery

    project-number è elencato nella home page del progetto, come mostrato di seguito.

    Vedi Concessione, modifica e revoca dell'accesso alle risorse.

    Se vuoi modificare un ruolo esistente o crearne uno personalizzato, aggiungi le seguenti autorizzazioni al ruolo:

    • bigquery.datasets.create
    • bigquery.datasets.get
    • bigquery.jobs.create
    • bigquery.tables.create
    • bigquery.tables.get
    • bigquery.tables.updateData
  • Crea un set di dati BigQuery.

Esportazione dei dati in BigQuery per una singola regione negli Stati Uniti o nell'UE

Poiché i dati di analisi per gli Stati Uniti o l'UE vengono archiviati in una località multiregionale degli Stati Uniti o dell'UE, non puoi esportare i dati direttamente in una singola regione degli Stati Uniti o dell'UE in BigQuery. Come soluzione alternativa, puoi prima esportare i dati in Google Cloud Storage e poi trasferirli in BigQuery nel seguente modo:

  1. Crea un bucket Cloud Storage e imposta Località sulla singola regione negli Stati Uniti o nell'UE che vuoi associare ai tuoi dati in BigQuery.
  2. Crea un datastore Cloud Storage utilizzando il bucket di archiviazione creato nel passaggio precedente.
  3. Esportare i dati in Cloud Storage. Consulta Esempio 1: esportazione di dati in Cloud Storage di seguito per un esempio.
  4. Carica i dati in BigQuery, come descritto nelle sezioni seguenti:

Gestione dei datastore

Il datastore definisce la connessione al repository dei dati di esportazione (Cloud Storage, BigQuery).

Le seguenti sezioni descrivono come creare e gestire i datastore. Prima di creare un datastore, ti consigliamo di testare la configurazione del repository di dati.

Test della configurazione del repository di dati

Quando crei il repository di dati, Apigee non verifica né convalida la validità della configurazione. Ciò significa che puoi creare il datastore (nel passaggio successivo) e non rilevare errori finché non esegui la prima esportazione dei dati.

Poiché l'esecuzione di un processo di esportazione dei dati può richiedere molto tempo, puoi rilevare gli errori prima testando la configurazione del repository di dati per assicurarti che sia valida e correggendo eventuali errori prima di creare il datastore.

Per testare la configurazione del repository di dati, invia una richiesta POST all'API /organizations/{org}/analytics/datastores:test. Trasmetti le seguenti informazioni nel corpo della richiesta:

Ad esempio, l'operazione seguente testa la configurazione di un repository di dati di Cloud Storage:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores:test" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "targetType": "gcs",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

Di seguito è riportato un esempio della risposta se il test ha esito positivo:

{
  "state": "completed",
}

Di seguito è riportato un esempio di risposta se il test non è andato a buon fine:

{
  "state": "failed",
  "error": "<error message>"
}

In questo caso, risolvi i problemi segnalati nel messaggio di errore e prova nuovamente la configurazione del repository di dati. Dopo aver superato il test, crea il datastore come descritto nella sezione successiva.

Creazione di un datastore

Per creare un datastore, invia una richiesta POST all'API /organizations/{org}/analytics/datastores. Trasmetti le seguenti informazioni nel corpo della richiesta:

Di seguito sono riportati alcuni esempi per ciascun tipo di datastore.

Di seguito è riportato un esempio della risposta per un repository di dati di Cloud Storage:

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Utilizza l'URL restituito nella proprietà self per visualizzare i dettagli del datastore, come descritto in Visualizzazione dei dettagli di un datastore.

Per saperne di più, consulta la sezione Creare un'API per il datastore.

Esempio 1: creare un datastore Cloud Storage

La richiesta seguente crea un datastore Cloud Storage:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "targetType": "gcs",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

Dove $TOKEN è impostato sul token di accesso OAuth 2.0, come descritto in Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl utilizzate in questo esempio, consulta Utilizzare curl. Per una descrizione delle variabili di ambiente utilizzate, consulta Impostazione delle variabili di ambiente per le richieste API Apigee.

Esempio 2: creare un datastore BigQuery

La seguente richiesta crea un datastore BigQuery:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My BigQuery datastore",
    "targetType": "bigquery",
    "datastoreConfig": {
      "projectId": "my-project",
      "datasetName": "mybigquery",
      "tablePrefix": "bqprefix"
    }
  }'

Dove $TOKEN è impostato sul token di accesso OAuth 2.0, come descritto in Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl utilizzate in questo esempio, consulta Utilizzare curl. Per una descrizione delle variabili di ambiente utilizzate, consulta Impostazione delle variabili di ambiente per le richieste API Apigee.

Visualizzazione di tutti i datastore

Per visualizzare tutti i datastore della tua organizzazione, invia una richiesta GET all'API /organizations/{org}/analytics/datastores.

Ad esempio:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Dove $TOKEN è impostato sul token di accesso OAuth 2.0, come descritto in Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl utilizzate in questo esempio, consulta Utilizzare curl. Per una descrizione delle variabili di ambiente utilizzate, consulta Impostazione delle variabili di ambiente per le richieste API Apigee.

Di seguito è riportato un esempio della risposta:

{
  "datastores": [
  {
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
  },
  {
    "self": "/organizations/myorg/analytics/datastores/g8c3f0mk-1f78-8837-9c67-k222b60ce30b",
    "displayName": "My BigQuery datastore",
    "org": "myorg",
    "targetType": "bigquery",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
      "projectId": "my-project",
      "datasetName": "mybigquery",
      "tablePrefix": "bqprefix"
    }
  }
  ]
}

Per ulteriori informazioni, consulta la pagina dedicata all'API Elenco datastore.

Visualizzazione dei dettagli di un datastore

Per visualizzare i dettagli di un datastore, invia una richiesta GET all'API /organizations/{org}/analytics/datastores/{datastore}.

Ad esempio:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Dove $TOKEN è impostato sul token di accesso OAuth 2.0, come descritto in Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl utilizzate in questo esempio, consulta Utilizzare curl. Per una descrizione delle variabili di ambiente utilizzate, consulta Impostazione delle variabili di ambiente per le richieste API Apigee.

Di seguito è riportato un esempio della risposta per un datastore Cloud Storage:

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Per saperne di più, consulta Ottenere l'API del datastore.

Modifica di un datastore

Per modificare un datastore, invia una richiesta PUT all'API /organizations/{org}/analytics/datastores/{datastore}. Trasmetti tutte o un sottoinsieme delle seguenti informazioni nel corpo della richiesta:

Ad esempio, per aggiornare un datastore Cloud Storage:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \
  -X PUT \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "displayName": "My Cloud Storage datastore",
    "datastoreConfig": {
      "projectId": "my-project",
      "bucketName": "my-bucket",
      "path": "my/analytics/path"
    }
  }'

Dove $TOKEN è impostato sul token di accesso OAuth 2.0, come descritto in Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl utilizzate in questo esempio, consulta Utilizzare curl. Per una descrizione delle variabili di ambiente utilizzate, consulta Impostazione delle variabili di ambiente per le richieste API Apigee.

Di seguito è riportato un esempio della risposta per un datastore Cloud Storage:

{
    "self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
    "displayName": "My Cloud Storage datastore",
    "org": "myorg",
    "targetType": "gcs",
    "createTime": "1535411583949",
    "lastUpdateTime": "1535411634291",
    "datastoreConfig": {
          "projectId": "my-project",
          "bucketName": "my-bucket",
          "path": "my/analytics/path"
    }
}

Per ulteriori informazioni, consulta la sezione Aggiornamento dell'API del datastore.

Eliminazione di un datastore

Per eliminare un datastore, invia una richiesta DELETE all'API /organizations/{org}/analytics/datastores/{datastore}.

Ad esempio:

curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b" \
  -X DELETE \
  -H "Authorization: Bearer $TOKEN"

Dove $TOKEN è impostato sul token di accesso OAuth 2.0, come descritto in Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl utilizzate in questo esempio, consulta Utilizzare curl. Per una descrizione delle variabili di ambiente utilizzate, consulta Impostazione delle variabili di ambiente per le richieste API Apigee.

Di seguito è riportato un esempio della risposta:

{}

Per saperne di più, consulta la pagina dedicata all'eliminazione dell'API del datastore.

Esportazione dei dati di analisi

Per esportare i dati di analisi, invia una richiesta POST all'API /organizations/{org}/environments/{env}/analytics/exports. Trasmetti le seguenti informazioni nel corpo della richiesta:

  • Nome e descrizione della richiesta di esportazione
  • Intervallo di date dei dati esportati (il valore può durare un solo giorno)
  • Formato dei dati esportati
  • Nome Datastore

Di seguito sono riportati alcuni esempi di richieste di esportazione. Per una descrizione completa delle proprietà del corpo della richiesta, consulta Riferimento per le proprietà della richiesta di esportazione.

La risposta dal POST è nel formato:

{
    "self": "/organizations/myorg/environments/test/analytics/exports/a7c2f0dd-1b53-4917-9c42-a211b60ce35b",
    "created": "2017-09-28T12:39:35Z",
    "state": "enqueued"
}

Tieni presente che la proprietà state nella risposta è impostata su enqueued. La richiesta POST funziona in modo asincrono. Ciò significa che continua a essere eseguita in background dopo che la richiesta restituisce una risposta. I valori possibili per state includono: enqueued, running, completed, failed.

Utilizza l'URL restituito nella proprietà self per visualizzare lo stato della richiesta di esportazione dei dati, come descritto in Visualizzare lo stato di una richiesta di esportazione di Analytics. Una volta completata la richiesta, il valore della proprietà state nella risposta è impostato su completed. e accedere ai dati di analisi nel datastore.

Per ulteriori informazioni, consulta Creare un'API di esportazione dei dati.

Esempio 1: esportare i dati in Cloud Storage

L'esempio seguente esporta un set completo di dati non elaborati delle ultime 24 ore dall'ambiente test nell'organizzazione myorg. Il contenuto viene esportato in Cloud Storage in formato JSON:

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "name": "Export raw results to Cloud Storage",
    "description": "Export raw results to Cloud Storage for last 24 hours",
    "dateRange": {
      "start": "2020-06-08",
      "end": "2020-06-09"
    },
    "outputFormat": "json",
    "datastoreName": "My Cloud Storage data repository"
  }'

Dove $TOKEN è impostato sul token di accesso OAuth 2.0, come descritto in Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl utilizzate in questo esempio, consulta Utilizzare curl. Per una descrizione delle variabili di ambiente utilizzate, consulta Impostazione delle variabili di ambiente per le richieste API Apigee.

Utilizza l'URI specificato dalla proprietà self per monitorare lo stato del job come descritto in Visualizzare lo stato di una richiesta di esportazione di Analytics.

Esempio 2: esportare i dati in BigQuery

L'esempio seguente esporta un file CSV delimitato da virgole in BigQuery:

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X POST \
  -H "Content-type:application/json" \
  -H "Authorization: Bearer $TOKEN" \
  -d \
  '{
    "name": "Export query results to BigQuery",
    "description": "One-time export to BigQuery",
    "dateRange": {
      "start": "2018-06-08", 
      "end": "2018-06-09"
    },
    "outputFormat": "csv",
    "csvDelimiter": ",", 
    "datastoreName": "My BigQuery data repository"
  }'

Dove $TOKEN è impostato sul token di accesso OAuth 2.0, come descritto in Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl utilizzate in questo esempio, consulta Utilizzare curl. Per una descrizione delle variabili di ambiente utilizzate, consulta Impostazione delle variabili di ambiente per le richieste API Apigee.

Nota:il file CSV esportato crea una tabella BigQuery con il seguente prefisso:

<PREFIX>_<EXPORT_DATE>_api_<UUID>_from_<FROM_DATE>_to_<TO_DATE>

Utilizza l'URI specificato dalla proprietà self per monitorare lo stato del job come descritto in Visualizzare lo stato di una richiesta di esportazione di Analytics.

Informazioni sulle quote dell'API di esportazione

Per evitare un uso eccessivo di costose chiamate API di esportazione dei dati, Apigee applica una quota di 15 chiamate al giorno per organizzazione sulle chiamate all'API organizations/{org}/environments/{env}/analytics/exports.

Se superi la quota di chiamate, l'API restituisce una risposta HTTP 429.

Visualizzazione dello stato di tutte le richieste di esportazione di Analytics

Per visualizzare lo stato di tutte le richieste di esportazione di Analytics, invia una richiesta GET a /organizations/{org}/environments/{env}/analytics/exports.

Ad esempio, la seguente richiesta restituisce lo stato di tutte le richieste di esportazione di dati e analisi per l'ambiente test nell'organizzazione myorg:

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \
  -X GET \
  -H "Authorization: Bearer $TOKEN" 

Dove $TOKEN è impostato sul token di accesso OAuth 2.0, come descritto in Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl utilizzate in questo esempio, consulta Utilizzare curl. Per una descrizione delle variabili di ambiente utilizzate, consulta Impostazione delle variabili di ambiente per le richieste API Apigee.

Di seguito è riportato un esempio della risposta che elenca due richieste di esportazione, una in coda (creata e in coda) e una completata:

[
  {
    "self":
"/v1/organizations/myorg/environments/test/analytics/exports/e8b8db22-fe03-4364-aaf2-6d4f110444ba",
    "name": "Export results To Cloud Storage",
    "description": "One-time export to Cloud Storage",
    "userId": "my@email.com",
    "datastoreName": "My datastore",
    "executionTime": "36 seconds",
    "created": "2018-09-28T12:39:35Z",
    "updated": "2018-09-28T12:39:42Z",
    "state": "enqueued"
  },
  {
    "self":
"/v1/organizations/myorg/environments/test/analytics/exports/9870987089fe03-4364-aaf2-6d4f110444ba"
    "name": "Export raw results to BigQuery",
    "description": "One-time export to BigQuery",
    ... 
  }
]

Per saperne di più, consulta la pagina dedicata all'API per le esportazioni dei dati degli elenchi.

Visualizzazione dello stato di una richiesta di esportazione di Analytics

Per visualizzare lo stato di una richiesta di esportazione di Analytics specifica, invia una richiesta GET a /organizations/{org}/environments/{env}/analytics/exports/{exportId}, dove {exportId} è l'ID associato alla richiesta di esportazione di Analytics.

Ad esempio, la seguente richiesta restituisce lo stato della richiesta di esportazione di Analytics con ID 4d6d94ad-a33b-4572-8dba-8677c9c4bd98.

curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98" \
  -X GET \
  -H "Authorization: Bearer $TOKEN"

Di seguito è riportato un esempio della risposta:

{
  "self":
"/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98",
  "name": "Export results to Cloud Storage",
  "description": "One-time export to Cloud Storage",
  "userId": "my@email.com",
  "datastoreName": "My datastore",
  "executionTime": "36 seconds",
  "created": "2018-09-28T12:39:35Z",
  "updated": "2018-09-28T12:39:42Z",
  "state": "enqueued"
}

Per ulteriori informazioni, consulta Ottenere l'API di esportazione dei dati.

Se l'esportazione di dati e analisi non restituisce dati di analisi, executionTime è impostato su "0 secondi".

Riferimento proprietà della richiesta Datastore

La tabella seguente descrive le proprietà che puoi trasmettere nel corpo della richiesta in formato JSON durante la creazione di un datastore in base al tipo di datastore.

Per Google Cloud Storage:

Proprietà Descrizione Obbligatorio?
ID progetto ID progetto Google Cloud Platform.

Per creare un progetto Google Cloud Platform, consulta Creazione e gestione dei progetti nella documentazione della Google Cloud Platform.

Nome bucket Nome del bucket in Cloud Storage in cui vuoi esportare i dati di analisi.

Nota:il bucket deve esistere prima di eseguire un'esportazione dei dati.

Per creare un bucket Cloud Storage, consulta Creare bucket nella documentazione della Google Cloud Platform.

Percorso Directory in cui archiviare i dati di analisi nel bucket Cloud Storage.

Per BigQuery:

Proprietà Descrizione Obbligatorio?
ID progetto ID progetto Google Cloud Platform.

Per creare un progetto Google Cloud Platform, consulta Creazione e gestione dei progetti nella documentazione della Google Cloud Platform.

Nome set di dati Nome del set di dati BigQuery in cui vuoi esportare i dati di analisi. Assicurati che il set di dati venga creato prima di richiedere l'esportazione dei dati.

Per creare un set di dati BigQuery, consulta Creazione e utilizzo di set di dati nella documentazione della Google Cloud Platform.

Prefisso tabella Il prefisso per i nomi delle tabelle create per i dati di analisi nel set di dati BigQuery.

Riferimento proprietà della richiesta di esportazione

La tabella seguente descrive le proprietà che puoi trasmettere nel corpo della richiesta in formato JSON durante l'esportazione dei dati di analisi.

Proprietà Descrizione Obbligatorio?
description Descrizione della richiesta di esportazione. No
name Nome della richiesta di esportazione.
dateRange

Specifica le date start e end dei dati da esportare nel formato yyyy-mm-dd. Ad esempio:

"dateRange": {
    "start": "2018-07-29",
    "end": "2018-07-30"
}

Il valore dateRange può coprire un solo giorno. L'intervallo di date inizia alle 00:00:00 UTC della data di start e termina alle 00:00:00 UTC della data del giorno end.

Nota:per garantire che tutti i dati vengano acquisiti dal giorno precedente, potrebbe essere necessario ritardare l'ora di inizio della richiesta di esportazione (ad es. 00:05:00 UTC).

outputFormat Specifica come json o csv.
csvDelimiter

Delimitatore utilizzato nel file di output CSV, se outputFormat è impostato su csv. Il valore predefinito è il carattere , (virgola). I caratteri di delimitazione supportati includono la virgola (,), la barra verticale (|) e la tabulazione (\t).

No
datastoreName Il nome del datastore contenente la definizione del tuo datastore.

Ad esempio:

{
  "name": "Export raw results to Cloud Storage",
  "description": "Export raw results to Cloud Storage for last 24 hours",
  "datastoreName": "My Cloud Storage datastore"
}