Stai visualizzando la documentazione di Apigee X.
Visualizza la documentazione di Apigee Edge.
Apigee Analytics raccoglie e analizza un ampio spettro di dati che passano attraverso le tue API e fornisce strumenti di visualizzazione, tra cui dashboard interattive, report personalizzati e altri strumenti che identificano le tendenze nelle prestazioni del proxy API.
Ora puoi sbloccare questi contenuti avanzati esportando i dati di analisi da Apigee Analytics nel tuo repository di dati, come Google Cloud Storage o Google BigQuery. Puoi quindi sfruttare le potenti capacità di query e machine learning offerte da Google BigQuery e TensorFlow per eseguire la tua analisi dei dati. Puoi anche combinare i dati di analisi esportati con altri dati, come i log web, per ottenere nuovi insight su utenti, API e applicazioni.
Quali formati di dati di esportazione sono supportati?
Esporta i dati di Analytics in uno dei seguenti formati:
Valori separati da virgola (CSV)
Il delimitatore predefinito è un carattere di virgola (,). I caratteri delimitatori supportati includono virgola (,), barra verticale (|) e scheda (\t). Configura il valore utilizzando la proprietà
csvDelimiter
, come descritto nella sezione Riferimento della proprietà di richiesta di esportazione .JSON (delimitato da nuova riga)
Consente di utilizzare il carattere di nuova riga come delimitatore.
I dati esportati includono tutte le metriche e le dimensioni di analisi integrate in Apigee ed eventuali dati di analisi personalizzati aggiunti. Per una descrizione dei dati esportati, consulta Informazioni sulle metriche, le dimensioni e i filtri di Analytics.
Puoi esportare i dati di analisi nei seguenti repository:
Passaggi per esportare i dati di Analytics
I seguenti passaggi riepilogano il processo utilizzato per esportare i dati di analisi:
- Configura il tuo repository di dati (Cloud Storage o BigQuery) per l'esportazione dei dati. Devi assicurarti che il repository di dati sia stato configurato correttamente e che l'account di servizio di Apigee Service Agent utilizzato per scrivere i dati nel repository di dati disponga delle autorizzazioni corrette.
- Crea un datastore che definisca le proprietà del repository di dati (Cloud Storage o BigQuery) in cui esporti i dati.
- Esporta i dati di Analytics. L'esportazione dei dati viene eseguita in modo asincrono in background.
- Visualizza lo stato della richiesta di esportazione per determinare quando l'esportazione viene completata.
- Al termine dell'esportazione, accedi ai dati esportati nel repository.
I passaggi seguenti sono descritti in modo più dettagliato.
Configurazione del tuo repository di dati
Configura Cloud Storage o BigQuery per abilitare l'accesso mediante l'esportazione dei dati di analisi.
Configurazione di Google Cloud Storage
Prima di esportare i dati in Google Cloud Storage, è necessario:
Crea un bucket di archiviazione Google Cloud.
Assicurati che l'API BigQuery sia abilitata nel tuo progetto Google Cloud Platform. Apigee utilizza l'API BigQuery per sfruttare le funzionalità di esportazione di BigQuery durante l'esportazione in Cloud Storage.
Per istruzioni, consulta Abilitazione delle API.
Assicurati che l'account di servizio Apigee Service Agent con indirizzo email
service-project-number@gcp-sa-apigee.iam.gserviceaccount.com
sia assegnato ai seguenti ruoli:- Utente job BigQuery
- Amministratore Storage
Il project-number è elencato nella home page del progetto, come mostrato di seguito.
Consulta l'articolo relativo a concessione, modifica e revoca dell'accesso alle risorse.
In alternativa, se vuoi modificare un ruolo esistente o crearne uno personalizzato, aggiungi le seguenti autorizzazioni al ruolo:
bigquery.jobs.create
storage.objects.create
storage.objects.delete
storage.objects.list
Configurazione di Google BigQuery
Prima di esportare i dati in Google BigQuery:
- Assicurati di aver attivato BigQuery nel progetto Google Cloud Platform.
- Assicurati che l'API BigQuery sia abilitata nel tuo progetto Google Cloud Platform. Per istruzioni, consulta Abilitazione delle API.
Assicurati che l'account di servizio Apigee Service Agent con indirizzo email
service-project-number@gcp-sa-apigee.iam.gserviceaccount.com
sia assegnato ai seguenti ruoli:- Utente job BigQuery
- Editor dati BigQuery
Il project-number è elencato nella home page del progetto, come mostrato di seguito.
Consulta l'articolo relativo a concessione, modifica e revoca dell'accesso alle risorse.
Se vuoi modificare un ruolo esistente o crearne uno personalizzato, aggiungi le seguenti autorizzazioni al ruolo:
bigquery.datasets.create
bigquery.datasets.get
bigquery.jobs.create
bigquery.tables.create
bigquery.tables.get
bigquery.tables.updateData
Crea un set di dati BigQuery.
Esportazione dei dati in BigQuery per una singola regione negli Stati Uniti o nell'UE
Poiché i dati di analisi per gli Stati Uniti o l'UE sono archiviati in più regioni degli Stati Uniti o dell'UE, non puoi esportarli direttamente in una singola regione degli Stati Uniti o dell'UE in BigQuery. Come soluzione alternativa, puoi prima esportare i dati in Google Cloud Storage, quindi trasferirli in BigQuery seguendo questi passaggi:
- Crea un bucket Cloud Storage e imposta la località sulla singola regione negli Stati Uniti o nell'UE che vuoi associare ai tuoi dati in BigQuery.
- Crea un datastore di Cloud Storage, utilizzando il bucket di archiviazione creato nel passaggio precedente.
- Esporta i dati in Cloud Storage. Consulta Esempio 1: esportazione di dati in Cloud Storage di seguito per un esempio.
- Carica i dati in BigQuery, come descritto nelle seguenti sezioni:
Gestione dei datastore
datastore definisce la connessione al tuo repository di dati di esportazione (Cloud Storage, BigQuery).
Le sezioni seguenti descrivono come creare e gestire i tuoi datastore. Prima di creare un datastore, ti consigliamo di testare la configurazione del repository di dati.
Test della configurazione del repository di dati
Quando crei il repository di dati, Apigee non verifica o convalida che la configurazione sia valida. Ciò significa che puoi creare il datastore (nel passaggio successivo) e non rilevare alcun errore fino a quando non esegui la prima esportazione dei dati.
Poiché l'esecuzione di un processo di esportazione dei dati può richiedere molto tempo, puoi rilevare gli errori prima di verificare la configurazione del repository di dati per verificarne la validità e correggere eventuali errori prima di creare il datastore.
Per testare la configurazione del repository di dati, invia una richiesta POST all'API /organizations/{org}/analytics/datastores:test
. Inserisci le seguenti informazioni nel corpo della richiesta:
- Nome visualizzato
- Tipo di Datastore
- Dettagli della configurazione basata sul tipo di datastore, come descritto in Riferimento della proprietà di richiesta di Datastore.
Ad esempio, quanto segue verifica la configurazione di un repository di dati Cloud Storage:
curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores:test" \ -X POST \ -H "Content-type:application/json" \ -H "Authorization: Bearer $TOKEN" \ -d \ '{ "displayName": "My Cloud Storage datastore", "targetType": "gcs", "datastoreConfig": { "projectId": "my-project", "bucketName": "my-bucket", "path": "my/analytics/path" } }'
Se il test ha esito positivo, il seguente esempio fornisce un esempio di risposta:
{
"state": "completed",
}
Di seguito viene riportato un esempio della risposta se il test non è riuscito:
{
"state": "failed",
"error": "<error message>"
}
In questo caso, risolvi i problemi segnalati nel messaggio di errore e ripeti il test della configurazione del repository di dati. Dopo aver superato i test, crea il datastore, come descritto nella sezione successiva.
Creazione di un datastore
Per creare un datastore, invia una richiesta POST all'API /organizations/{org}/analytics/datastores
. Inserisci le seguenti informazioni nel corpo della richiesta:
- Nome visualizzato
- Tipo di Datastore
- Dettagli della configurazione basata sul tipo di datastore, come descritto in Riferimento della proprietà di richiesta di Datastore.
Di seguito sono riportati gli esempi per ciascun tipo di datastore.
Di seguito è riportato un esempio di risposta per un repository di dati Cloud Storage:
{
"self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
"displayName": "My Cloud Storage datastore",
"org": "myorg",
"targetType": "gcs",
"createTime": "1535411583949",
"lastUpdateTime": "1535411634291",
"datastoreConfig": {
"projectId": "my-project",
"bucketName": "my-bucket",
"path": "my/analytics/path"
}
}
Utilizza l'URL restituito nella proprietà self
per visualizzare i dettagli del datastore, come descritto nella sezione Visualizzare i dettagli di un datastore.
Per ulteriori informazioni, consulta Creare l'API Data Store.
Esempio 1: creare un datastore di Cloud Storage
La richiesta seguente crea un datastore Cloud Storage:
curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \ -X POST \ -H "Content-type:application/json" \ -H "Authorization: Bearer $TOKEN" \ -d \ '{ "displayName": "My Cloud Storage datastore", "targetType": "gcs", "datastoreConfig": { "projectId": "my-project", "bucketName": "my-bucket", "path": "my/analytics/path" } }'
Dove $TOKEN
è impostato sul token di accesso OAuth 2.0, come descritto in
Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl
utilizzate in questo esempio, consulta la sezione
Uso di curl. Per una descrizione delle variabili di ambiente utilizzate, consulta la sezione Impostare le variabili di ambiente per le richieste API Apigee.
Esempio 2: creare un datastore BigQuery
La richiesta seguente crea un datastore BigQuery:
curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \ -X POST \ -H "Content-type:application/json" \ -H "Authorization: Bearer $TOKEN" \ -d \ '{ "displayName": "My BigQuery datastore", "targetType": "bigquery", "datastoreConfig": { "projectId": "my-project", "datasetName": "mybigquery", "tablePrefix": "bqprefix" } }'
Dove $TOKEN
è impostato sul token di accesso OAuth 2.0, come descritto in
Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl
utilizzate in questo esempio, consulta la sezione
Uso di curl. Per una descrizione delle variabili di ambiente utilizzate, consulta la sezione Impostare le variabili di ambiente per le richieste API Apigee.
Visualizzazione di tutti i datastore
Per visualizzare tutti i datastore della tua organizzazione, invia una richiesta GET all'API /organizations/{org}/analytics/datastores
.
Ad esempio:
curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \ -X GET \ -H "Authorization: Bearer $TOKEN"
Dove $TOKEN
è impostato sul token di accesso OAuth 2.0, come descritto in
Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl
utilizzate in questo esempio, consulta la sezione
Uso di curl. Per una descrizione delle variabili di ambiente utilizzate, consulta la sezione Impostare le variabili di ambiente per le richieste API Apigee.
Di seguito è riportato un esempio di risposta:
{
"datastores": [
{
"self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
"displayName": "My Cloud Storage datastore",
"org": "myorg",
"targetType": "gcs",
"createTime": "1535411583949",
"lastUpdateTime": "1535411634291",
"datastoreConfig": {
"projectId": "my-project",
"bucketName": "my-bucket",
"path": "my/analytics/path"
}
},
{
"self": "/organizations/myorg/analytics/datastores/g8c3f0mk-1f78-8837-9c67-k222b60ce30b",
"displayName": "My BigQuery datastore",
"org": "myorg",
"targetType": "bigquery",
"createTime": "1535411583949",
"lastUpdateTime": "1535411634291",
"datastoreConfig": {
"projectId": "my-project",
"datasetName": "mybigquery",
"tablePrefix": "bqprefix"
}
}
]
}
Per scoprire di più, consulta l'API List datastore.
Visualizzare i dettagli di un datastore
Per visualizzare i dettagli di un datastore, invia una richiesta GET all'API /organizations/{org}/analytics/datastores/{datastore}
.
Ad esempio:
curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b" \ -X GET \ -H "Authorization: Bearer $TOKEN"
Dove $TOKEN
è impostato sul token di accesso OAuth 2.0, come descritto in
Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl
utilizzate in questo esempio, consulta la sezione
Uso di curl. Per una descrizione delle variabili di ambiente utilizzate, consulta la sezione Impostare le variabili di ambiente per le richieste API Apigee.
Di seguito è riportato un esempio della risposta per un datastore Cloud Storage:
{
"self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
"displayName": "My Cloud Storage datastore",
"org": "myorg",
"targetType": "gcs",
"createTime": "1535411583949",
"lastUpdateTime": "1535411634291",
"datastoreConfig": {
"projectId": "my-project",
"bucketName": "my-bucket",
"path": "my/analytics/path"
}
}
Per scoprire di più, consulta Recuperare l'API Data Store.
Modifica di un datastore
Per modificare un datastore, invia una richiesta PUT all'API /organizations/{org}/analytics/datastores/{datastore}
. Trasmettere tutte o una parte delle seguenti informazioni nel corpo della richiesta:
- Nome visualizzato Datastore
- Dettagli della configurazione basata sul tipo di datastore, come descritto in Riferimento della proprietà di richiesta di Datastore.
Ad esempio, per aggiornare un datastore Cloud Storage:
curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores" \ -X PUT \ -H "Content-type:application/json" \ -H "Authorization: Bearer $TOKEN" \ -d \ '{ "displayName": "My Cloud Storage datastore", "datastoreConfig": { "projectId": "my-project", "bucketName": "my-bucket", "path": "my/analytics/path" } }'
Dove $TOKEN
è impostato sul token di accesso OAuth 2.0, come descritto in
Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl
utilizzate in questo esempio, consulta la sezione
Uso di curl. Per una descrizione delle variabili di ambiente utilizzate, consulta la sezione Impostare le variabili di ambiente per le richieste API Apigee.
Di seguito è riportato un esempio della risposta per un datastore Cloud Storage:
{
"self": "/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b",
"displayName": "My Cloud Storage datastore",
"org": "myorg",
"targetType": "gcs",
"createTime": "1535411583949",
"lastUpdateTime": "1535411634291",
"datastoreConfig": {
"projectId": "my-project",
"bucketName": "my-bucket",
"path": "my/analytics/path"
}
}
Per scoprire di più, consulta Aggiornamento dell'API Data Store.
Eliminazione di un datastore
Per eliminare un datastore, invia una richiesta DELETE all'API /organizations/{org}/analytics/datastores/{datastore}
.
Ad esempio:
curl "https://apigee.googleapis.com/v1/organizations/myorg/analytics/datastores/c7d3b5aq-1c64-3389-9c43-b211b60de35b" \ -X DELETE \ -H "Authorization: Bearer $TOKEN"
Dove $TOKEN
è impostato sul token di accesso OAuth 2.0, come descritto in
Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl
utilizzate in questo esempio, consulta la sezione
Uso di curl. Per una descrizione delle variabili di ambiente utilizzate, consulta la sezione Impostare le variabili di ambiente per le richieste API Apigee.
Di seguito è riportato un esempio di risposta:
{}
Per ulteriori informazioni, consulta Eliminare l'API Data Store.
Esportazione dei dati analitici
Per esportare i dati di analisi, invia una richiesta POST all'API /organizations/{org}/environments/{env}/analytics/exports
. Inserisci le seguenti informazioni nel corpo della richiesta:
- Nome e descrizione della richiesta di esportazione
- Intervallo di date dei dati esportati (il valore può comprendere solo un giorno)
- Formato dei dati esportati
- Nome Datastore
Di seguito sono riportati alcuni esempi di richieste di esportazione. Per una descrizione completa delle proprietà del corpo della richiesta, consulta la sezione Informazioni di riferimento sulla proprietà di una richiesta.
La risposta dal POST è nel seguente formato:
{
"self": "/organizations/myorg/environments/test/analytics/exports/a7c2f0dd-1b53-4917-9c42-a211b60ce35b",
"created": "2017-09-28T12:39:35Z",
"state": "enqueued"
}
Tieni presente che la proprietà state
nella risposta è impostata su enqueued
. La richiesta POST funziona in modo asincrono. Ciò significa che continua a essere eseguita in background dopo che la richiesta restituisce una risposta. I valori possibili per state
includono: enqueued
, running
, completed
, failed
.
Utilizza l'URL restituito nella proprietà self
per visualizzare lo stato della richiesta di esportazione dei dati, come descritto nella sezione Visualizzare lo stato di una richiesta di esportazione di dati e analisi. Quando la richiesta viene completata, il valore della proprietà state
nella risposta è impostato su completed
. Successivamente, potrai accedere ai dati di analisi nel tuo datastore.
Per scoprire di più, consulta l'articolo Creare un'API di esportazione dei dati.
Esempio 1: esportare i dati in Cloud Storage
L'esempio seguente esporta un set completo di dati non elaborati per le ultime 24 ore dall'ambiente test nell'organizzazione myorg. I contenuti vengono esportati in Cloud Storage in formato JSON:
curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \ -X POST \ -H "Content-type:application/json" \ -H "Authorization: Bearer $TOKEN" \ -d \ '{ "name": "Export raw results to Cloud Storage", "description": "Export raw results to Cloud Storage for last 24 hours", "dateRange": { "start": "2020-06-08", "end": "2020-06-09" }, "outputFormat": "json", "datastoreName": "My Cloud Storage data repository" }'
Dove $TOKEN
è impostato sul token di accesso OAuth 2.0, come descritto in
Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl
utilizzate in questo esempio, consulta la sezione
Uso di curl. Per una descrizione delle variabili di ambiente utilizzate, consulta la sezione Impostare le variabili di ambiente per le richieste API Apigee.
Utilizza l'URI specificato dalla proprietà self
per monitorare lo stato del job, come descritto nella sezione Visualizzare lo stato di una richiesta di esportazione di Analytics.
Esempio 2: esportare i dati in BigQuery
L'esempio seguente esporta un file CSV con valori delimitati da virgole in BigQuery:
curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \ -X POST \ -H "Content-type:application/json" \ -H "Authorization: Bearer $TOKEN" \ -d \ '{ "name": "Export query results to BigQuery", "description": "One-time export to BigQuery", "dateRange": { "start": "2018-06-08", "end": "2018-06-09" }, "outputFormat": "csv", "csvDelimiter": ",", "datastoreName": "My BigQuery data repository" }'
Dove $TOKEN
è impostato sul token di accesso OAuth 2.0, come descritto in
Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl
utilizzate in questo esempio, consulta la sezione
Uso di curl. Per una descrizione delle variabili di ambiente utilizzate, consulta la sezione Impostare le variabili di ambiente per le richieste API Apigee.
Nota: il file CSV esportato crea una tabella BigQuery con il seguente prefisso:
<PREFIX>_<EXPORT_DATE>_api_<UUID>_from_<FROM_DATE>_to_<TO_DATE>
Utilizza l'URI specificato dalla proprietà self
per monitorare lo stato del job, come descritto nella sezione Visualizzare lo stato di una richiesta di esportazione di Analytics.
Informazioni sulle quote dell'API Export
Per evitare l'uso eccessivo di chiamate API per l'esportazione di dati costose, Apigee applica una quota alle chiamate all'API /organizations/{org}/environments/{env}/analytics/exports
:
70 chiamate al mese per organizzazione/ambiente.
Ad esempio, se nella tua organizzazione sono presenti due ambienti,
prod
etest
, puoi effettuare 70 chiamate API al mese per ogni ambiente.
Se superi la quota di chiamate, l'API restituisce una risposta HTTP 429.
Visualizzazione dello stato di tutte le richieste di esportazione di Analytics
Per visualizzare lo stato di tutte le richieste di esportazione di Analytics, invia una richiesta GET
a
/organizations/{org}/environments/{env}/analytics/exports
.
Ad esempio, la seguente richiesta restituisce lo stato di tutte le richieste di esportazione di dati e analisi per l'ambiente test
nell'organizzazione myorg
:
curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports" \ -X GET \ -H "Authorization: Bearer $TOKEN"
Dove $TOKEN
è impostato sul token di accesso OAuth 2.0, come descritto in
Ottenere un token di accesso OAuth 2.0. Per informazioni sulle opzioni curl
utilizzate in questo esempio, consulta la sezione
Uso di curl. Per una descrizione delle variabili di ambiente utilizzate, consulta la sezione Impostare le variabili di ambiente per le richieste API Apigee.
Di seguito è riportato un esempio della risposta che elenca due richieste di esportazione, una accodata (creata e in coda) e una completata:
[
{
"self":
"/v1/organizations/myorg/environments/test/analytics/exports/e8b8db22-fe03-4364-aaf2-6d4f110444ba",
"name": "Export results To Cloud Storage",
"description": "One-time export to Cloud Storage",
"userId": "my@email.com",
"datastoreName": "My datastore",
"executionTime": "36 seconds",
"created": "2018-09-28T12:39:35Z",
"updated": "2018-09-28T12:39:42Z",
"state": "enqueued"
},
{
"self":
"/v1/organizations/myorg/environments/test/analytics/exports/9870987089fe03-4364-aaf2-6d4f110444ba"
"name": "Export raw results to BigQuery",
"description": "One-time export to BigQuery",
...
}
]
Per scoprire di più, consulta l'API List Exports.
Visualizzare lo stato di una richiesta di esportazione di dati e analisi
Per visualizzare lo stato di una richiesta di esportazione di dati e analisi specifica, invia una richiesta GET
al sito
/organizations/{org}/environments/{env}/analytics/exports/{exportId}
, dove {exportId}
è l'ID associato alla richiesta di esportazione di Analytics.
Ad esempio, la seguente richiesta restituisce lo stato della richiesta di esportazione di Analytics con l'ID 4d6d94ad-a33b-4572-8dba-8677c9c4bd98
.
curl "https://apigee.googleapis.com/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98" \ -X GET \ -H "Authorization: Bearer $TOKEN"
Di seguito è riportato un esempio di risposta:
{
"self":
"/v1/organizations/myorg/environments/test/analytics/exports/4d6d94ad-a33b-4572-8dba-8677c9c4bd98",
"name": "Export results to Cloud Storage",
"description": "One-time export to Cloud Storage",
"userId": "my@email.com",
"datastoreName": "My datastore",
"executionTime": "36 seconds",
"created": "2018-09-28T12:39:35Z",
"updated": "2018-09-28T12:39:42Z",
"state": "enqueued"
}
Per scoprire di più, consulta l'articolo Recuperare l'API di esportazione dei dati.
Se l'esportazione di Analytics non restituisce dati di analisi, il valore di executionTime
è impostato su "0 secondi".
Riferimento per la proprietà della richiesta Datastore
La tabella seguente descrive le proprietà che puoi trasmettere nel corpo della richiesta in formato JSON quando crei un datastore in base al tipo di datastore.
Per Google Cloud Storage:
Proprietà | Descrizione | Required? |
---|---|---|
ID progetto | ID progetto Google Cloud Platform.
Per creare un progetto Google Cloud Platform, consulta Creazione e gestione dei progetti nella documentazione di Google Cloud Platform. |
Sì |
Nome bucket | Nome del bucket in Cloud Storage in cui vuoi esportare i dati di analisi.
Nota: il bucket deve esistere prima di eseguire un'esportazione di dati. Per creare un bucket Cloud Storage, consulta Creazione di bucket di archiviazione nella documentazione di Google Cloud Platform. |
Sì |
Percorso | Directory in cui archiviare i dati di analisi nel bucket Cloud Storage. | Sì |
Per BigQuery:
Proprietà | Descrizione | Required? |
---|---|---|
ID progetto | ID progetto Google Cloud Platform.
Per creare un progetto Google Cloud Platform, consulta Creazione e gestione dei progetti nella documentazione di Google Cloud Platform. |
Sì |
Nome set di dati | Nome del set di dati BigQuery in cui vuoi esportare i dati di analisi. Assicurati che il set di dati venga creato prima di richiedere l'esportazione dei dati.
Per creare un set di dati BigQuery, consulta Creare e utilizzare i set di dati nella documentazione di Google Cloud Platform. |
Sì |
Prefisso tabella | Il prefisso dei nomi delle tabelle create per i dati di analisi nel set di dati BigQuery. | Sì |
Riferimento per la proprietà della richiesta di esportazione
La seguente tabella descrive le proprietà che puoi trasmettere nel corpo della richiesta in formato JSON durante l'esportazione dei dati di analisi.
Proprietà | Descrizione | Required? |
---|---|---|
description
|
Descrizione della richiesta di esportazione. | No |
name
|
Nome della richiesta di esportazione. | Sì |
dateRange
|
Specifica la data
"dateRange": { "start": "2018-07-29", "end": "2018-07-30" } Il valore Nota: per assicurarti che tutti i dati vengano acquisiti dal giorno precedente, potresti dover ritardare l'ora di inizio della richiesta di esportazione (ad esempio, 00:05:00 UTC). |
Sì |
outputFormat
|
Specifica come json o csv .
|
Sì |
csvDelimiter
|
Delimitatore utilizzato nel file di output CSV, se |
No |
datastoreName
|
Il nome del datastore contenente la definizione del tuo datastore. | Sì |
Ad esempio:
{
"name": "Export raw results to Cloud Storage",
"description": "Export raw results to Cloud Storage for last 24 hours",
"datastoreName": "My Cloud Storage datastore"
}