Questa pagina fornisce una panoramica concettuale dell'esportazione dei dati di traccia utilizzando Cloud Trace. Ti consigliamo di esportare i dati di traccia per motivi:
- Per archiviare i dati delle tracce per un periodo più lungo del periodo di conservazione predefinito di 30 giorni.
Per consentirti di utilizzare gli strumenti BigQuery per analizzare i dati delle tracce. Per Ad esempio, con BigQuery puoi identificare i conteggi degli intervalli quantili. Per informazioni sulla query utilizzata per generare quanto segue consulta la sezione Query HipsterShop.
Come funzionano le esportazioni
L'esportazione prevede la creazione di un sink per un progetto Google Cloud. Un sink definisce un set di dati BigQuery come destinazione.
Puoi creare un sink utilizzando l'API Cloud Trace o Google Cloud CLI.
Terminologia e proprietà di destinazione
I sink sono definiti per un progetto Google Cloud e hanno quanto segue proprietà:
Nome: il nome del sink. Ad esempio, un nome potrebbe essere:
"projects/PROJECT_NUMBER/traceSinks/my-sink"
dove
PROJECT_NUMBER
è il numero del progetto Google Cloud del sink emy-sink
è l'identificatore del sink.Padre: la risorsa in cui crei il sink. L'elemento principale deve essere di un progetto Google Cloud:
"projects/PROJECT_ID"
PROJECT_ID
può essere un identificatore o un numero di progetto Google Cloud.Destinazione: un unico punto in cui inviare gli intervalli di traccia. Trace supporta l'esportazione delle tracce in BigQuery. La destinazione può essere il progetto Google Cloud del sink in qualsiasi altro progetto Google Cloud nella stessa organizzazione.
Ad esempio, una destinazione valida è:
bigquery.googleapis.com/projects/DESTINATION_PROJECT_NUMBER/datasets/DATASET_ID
dove
DESTINATION_PROJECT_NUMBER
è il numero del progetto Google Cloud della destinazione eDATASET_ID
è l'identificatore del set di dati BigQuery.Identità autore: un nome account di servizio. Proprietario della destinazione di esportazione devi concedere a questo account di servizio le autorizzazioni per scrivere nell'esportazione destinazione. Quando esporta le tracce, Trace adotta questa identità per l'autorizzazione. Per maggiore sicurezza, i nuovi sink ricevono un account di servizio unico:
export-PROJECT_NUMBER-GENERATED_VALUE@gcp-sa-cloud-trace.iam.gserviceaccount.com
dove
PROJECT_NUMBER
è il numero del tuo progetto Google Cloud in esadecimale eGENERATED_VALUE
è un valore generato in modo casuale.Non devi creare, possedere o gestire l'account di servizio identificato da l'identità autore di un sink. Quando crei un sink, Trace crea l'account di servizio richiesto dal sink. Questo account di servizio non è incluso nell'elenco degli account di servizio per il progetto finché non avrà almeno un'associazione di Identity and Access Management. Aggiungi questa associazione quando configuri una destinazione di destinazione.
Per informazioni sull'utilizzo dell'identità dell'autore, consulta le autorizzazioni di destinazione.
Come funzionano i lavandini
Ogni volta che uno span di traccia arriva in un progetto, Trace esporta una copia dello span.
Le tracce che Trace ha ricevuto prima della creazione dell'accumulo non possono essere esportate.
Controllo degli accessi
Per creare o modificare un sink, devi disporre di una delle seguenti funzionalità Identity and Access Management ruoli:
- Trace Admin
- Utente Trace
- Proprietario progetto
- Editor progetto
Per ulteriori informazioni, consulta Controllo dell'accesso.
Per esportare le tracce in una destinazione, l'account di servizio del Writer del sink e devono poter scrivere nella destinazione. Per ulteriori informazioni sulle identità degli autori, consulta Proprietà di destinazione in questa pagina.
Quote e limiti
Cloud Trace utilizza l'API di streaming BigQuery per inviare gli intervalli di traccia alla destinazione. Cloud Trace raggruppa le chiamate API. Cloud Trace non implementa un meccanismo di nuovo tentativo o di limitazione. Intervalli di Trace potrebbero non essere esportati correttamente se la quantità di dati supera le quote di destinazione.
Per maggiori dettagli su quote e limiti di BigQuery, consulta Quote e limiti.
Prezzi
L'esportazione delle tracce non comporta addebiti di Cloud Trace. Tuttavia, potresti dover pagare gli addebiti di BigQuery. Per saperne di più, consulta la pagina Prezzi di BigQuery.
Stima dei costi
BigQuery addebita un costo per l'importazione e l'archiviazione dei dati. Per fare una stima i costi mensili di BigQuery:
Stima il numero totale di intervalli di traccia importati in un mese.
Per informazioni su come visualizzare l'utilizzo, vedi Visualizza l'utilizzo per account di fatturazione.
Stimare i requisiti di streaming in base al numero di intervalli di traccia importati.
Ogni intervallo viene scritto in una riga della tabella. Ogni riga in BigQuery richiede almeno 1024 byte. Pertanto, un limite inferiore per i requisiti di streaming di BigQuery è assegnare 1024 byte a ogni intervallo. Ad esempio, se il progetto Google Cloud ha importato 200 span, questi richiedono almeno 20.400 byte per l'inserimento in streaming.
Utilizza il Calcolatore prezzi per stimare i costi di BigQuery dovuti a archiviazione, inserimenti di streaming e query.
Visualizzazione e gestione dell'utilizzo di BigQuery
Puoi utilizzare Metrics Explorer per visualizzare l'utilizzo di BigQuery. Puoi anche creare un criterio di avviso che ti invii una notifica se l'utilizzo di BigQuery supera i limiti predefiniti. La tabella seguente contiene le impostazioni per creare un criterio di avviso. Puoi utilizzare le impostazioni nel riquadro di destinazione quando crei un grafico o quando utilizzi Esplora metriche.
Per creare un criterio di avviso che si attivi quando le metriche di BigQuery importate superano un livello definito dall'utente, utilizza le impostazioni riportate di seguito.
Campo Nuova condizione |
Valore |
---|---|
Risorsa e metrica | Nel menu Risorse, seleziona Set di dati BigQuery. Nel menu Categorie di metriche, seleziona Archiviazione. Seleziona una metrica dal menu Metriche. Le metriche specifiche per l'utilizzo includono Stored bytes , Uploaded bytes
e Uploaded bytes billed . Per un elenco completo delle metriche disponibili, consulta
Metriche BigQuery.
|
Filtro | project_id: l'ID del tuo progetto Google Cloud. dataset_id: l'ID del set di dati. |
Nelle serie temporali Raggruppa serie temporali per |
dataset_id: l'ID del set di dati. |
Nelle serie temporali Aggregazione di serie temporali |
sum |
Finestra temporale continua | 1 m |
Funzione finestra temporale continua | mean |
Campo Configura trigger di avviso |
Valore |
---|---|
Tipo di condizione | Threshold |
Trigger di avviso | Any time series violates |
Posizione soglia | Above threshold |
Valore soglia | Sei tu a determinare il valore accettabile. |
Finestra di ripetizione test | 1 minute |
Passaggi successivi
Per configurare un'area di destinazione, consulta Esportazione delle tracce.