Questa pagina fornisce una panoramica concettuale dell'esportazione dei dati di traccia utilizzando Cloud Trace. Potresti voler esportare i dati delle tracce per i seguenti motivi:
- Per archiviare i dati delle tracce per un periodo più lungo del periodo di conservazione predefinito di 30 giorni.
Per consentirti di utilizzare gli strumenti BigQuery per analizzare i dati dei tracciati. Ad esempio, con BigQuery puoi identificare conteggi e quantili di intervalli. Per informazioni sulla query utilizzata per generare la tabella seguente, consulta Query di HipsterShop.
Come funzionano le esportazioni
L'esportazione prevede la creazione di un sink per un Google Cloud progetto. Un sink definisce un set di dati BigQuery come destinazione.
Puoi creare un sink utilizzando l'Cloud Trace API o Google Cloud CLI.
Terminologia e proprietà di destinazione
I canali di destinazione sono definiti per un Google Cloud progetto e hanno le seguenti proprietà:
Nome: un nome per il sink. Ad esempio, un nome potrebbe essere:
"projects/
PROJECT_NUMBER /traceSinks/my-sink"dove
PROJECT_NUMBER
è il Google Cloud numero di progettomy-sink
del canale di destinazione emy-sink
è l'identificatore del canale di destinazione.Padre: la risorsa in cui crei il sink. L'elemento principale deve essere un Google Cloud progetto:
"projects/
PROJECT_ID "PROJECT_ID
può essere un identificatore o un numero Google Cloud del progetto.Destinazione: un unico punto in cui inviare gli intervalli di traccia. Trace supporta l'esportazione delle tracce in BigQuery. La destinazione può essere il Google Cloud progetto Google Cloud del sink o qualsiasi altro progetto della stessa organizzazione.
Ad esempio, una destinazione valida è:
bigquery.googleapis.com/projects/
DESTINATION_PROJECT_NUMBER /datasets/DATASET_ID dove
DESTINATION_PROJECT_NUMBER
è il Google Cloud numero del progetto di destinazione eDATASET_ID
è l'identificatore del set di dati BigQuery.Identità autore: un nome di account di servizio. Il proprietario della destinazione dell'esportazione deve concedere a questo account di servizio le autorizzazioni per scrivere nella destinazione dell'esportazione. Quando esporta le tracce, Trace adotta questa identità per l'autorizzazione. Per maggiore sicurezza, i nuovi sink ricevono un account di servizio unico:
export-
PROJECT_NUMBER -GENERATED_VALUE @gcp-sa-cloud-trace.iam.gserviceaccount.comdove
PROJECT_NUMBER
è il numero del Google Cloud progetto in esadecimale eGENERATED_VALUE
è un valore generato in modo casuale.Non crei, possiedi o gestisci l'account di servizio identificato dall'identità autore di un sink. Quando crei un'area di destinazione, Trace crea l'account di servizio richiesto dall'area di destinazione. Questo account di servizio non è incluso nell'elenco degli account di servizio per il tuo progetto finché non dispone di almeno un'associazione di Identity and Access Management. Aggiungi questa associazione quando configuri una destinazione di destinazione.
Per informazioni sull'utilizzo dell'identità dell'autore, consulta le autorizzazioni di destinazione.
Come funzionano i sink
Ogni volta che uno span di traccia arriva in un progetto, Trace esporta una copia dello span.
Le tracce che Trace ha ricevuto prima della creazione dell'accumulo non possono essere esportate.
Controllo degli accessi
Per creare o modificare un'area di destinazione, devi disporre di uno dei seguenti ruoli Identity and Access Management:
- Trace Admin
- Utente di Trace
- Proprietario progetto
- Editor progetto
Per ulteriori informazioni, consulta Controllo dell'accesso.
Per esportare le tracce in una destinazione, l'account di servizio dello scrittore del sink deve avere l'autorizzazione di scrittura nella destinazione. Per ulteriori informazioni sulle identità degli autori, consulta Proprietà di destinazione in questa pagina.
Quote e limiti
Cloud Trace utilizza l'API di streaming BigQuery per inviare gli intervalli di traccia alla destinazione. Cloud Trace raggruppa le chiamate API. Cloud Trace non implementa un meccanismo di ripetizione o throttling. Gli intervalli di Trace potrebbero non essere esportati correttamente se la quantità di dati supera le quote di destinazione.
Per informazioni dettagliate su quote e limiti di BigQuery, consulta Quote e limiti.
Prezzi
L'esportazione delle tracce non comporta costi di Cloud Trace. Tuttavia, potresti dover pagare gli addebiti di BigQuery. Per ulteriori informazioni, consulta la pagina Prezzi di BigQuery.
Stima dei costi
BigQuery addebita un costo per l'importazione e l'archiviazione dei dati. Per stimare i costi mensili di BigQuery:
Stimare il numero totale di intervalli di traccia importati in un mese.
Per informazioni su come visualizzare l'utilizzo, consulta Visualizzare l'utilizzo per account di fatturazione.
Stimare i requisiti di streaming in base al numero di intervalli di traccia importati.
Ogni intervallo viene scritto in una riga della tabella. Ogni riga in BigQuery richiede almeno 1024 byte. Pertanto, un limite inferiore per i requisiti di streaming di BigQuery è assegnare 1024 byte a ogni intervallo. Ad esempio, se il tuo Google Cloud progetto ha importato 200 span, questi richiedono almeno 20.400 byte per l'inserimento in streaming.
Utilizza il Calcolatore prezzi per stimare i costi di BigQuery dovuti a archiviazione, inserimenti di streaming e query.
Visualizzare e gestire l'utilizzo di BigQuery
Puoi utilizzare Metrics Explorer per visualizzare l'utilizzo di BigQuery. Puoi anche creare un criterio di avviso che ti invii una notifica se l'utilizzo di BigQuery supera i limiti predefiniti. La tabella seguente contiene le impostazioni per creare un criterio di avviso. Puoi utilizzare le impostazioni nella tabella del riquadro del target quando crei un grafico o quando utilizzi Metrics Explorer.
Per creare un criterio di avviso che si attivi quando le metriche di BigQuery importate superano un livello definito dall'utente, utilizza le impostazioni seguenti.
Passaggi per creare un criterio di avviso.
Per creare un criterio di avviso, segui questi passaggi:
-
Nella console Google Cloud, vai alla pagina notifications Avvisi:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Monitoring.
- Se non hai creato i canali di notifica e vuoi ricevere notifiche, fai clic su Modifica canali di notifica e aggiungili. Torna alla pagina Avvisi dopo aver aggiunto i tuoi canali.
- Nella pagina Avvisi, seleziona Crea criterio.
- Per selezionare la risorsa, la metrica e i filtri, espandi il menu Seleziona una metrica e poi utilizza i valori nella tabella Nuova condizione:
- (Facoltativo) Per limitare il menu alle voci pertinenti, inserisci il nome della risorsa o della metrica nella barra dei filtri.
- Seleziona un Tipo di risorsa. Ad esempio, seleziona Istanza VM.
- Seleziona una categoria di metriche. Ad esempio, seleziona instance.
- Seleziona una metrica. Ad esempio, seleziona Utilizzo della CPU.
- Seleziona Applica.
- Fai clic su Avanti e configura l'attivatore del criterio di avviso. Per compilare questi campi, utilizza i valori nella tabella Configura l'attivatore dell'avviso.
- Fai clic su Avanti.
(Facoltativo) Per aggiungere notifiche al tuo criterio di avviso, fai clic su Canali di notifica. Nella finestra di dialogo, seleziona uno o più canali di notifica dal menu e fai clic su OK.
Per ricevere una notifica quando gli incidenti vengono aperti e chiusi, seleziona Notifica alla chiusura dell'incidente. Per impostazione predefinita, le notifiche vengono inviate solo quando vengono aperti gli incidenti.
- (Facoltativo) Aggiorna la Durata chiusura automatica incidenti. Questo campo determina quando Monitoring chiude gli incidenti in assenza di dati delle metriche.
- (Facoltativo) Fai clic su Documentazione e aggiungi tutte le informazioni che vuoi includere in un messaggio di notifica.
- Fai clic su Nome avviso e inserisci un nome per il criterio di avviso.
- Fai clic su Crea criterio.
Campo Nuova condizione |
Valore |
---|---|
Risorsa e metrica | Nel menu Risorse, seleziona Set di dati BigQuery. Nel menu Categorie di metriche, seleziona Archiviazione. Seleziona una metrica dal menu Metriche. Le metriche specifiche per l'utilizzo includono Stored bytes , Uploaded bytes
e Uploaded bytes billed . Per un elenco completo delle metriche disponibili, consulta
Metriche di BigQuery.
|
Filtro | project_id: il tuo Google Cloud ID progetto. dataset_id: l'ID del tuo set di dati. |
Tra serie temporali Raggruppa serie temporali per |
dataset_id: l'ID del tuo set di dati. |
Tra serie temporali Aggregazione di serie temporali |
sum |
Finestra temporale continua | 1 m |
Funzione finestra temporale continua | mean |
Campo Configura trigger di avviso |
Valore |
---|---|
Tipo di condizione | Threshold |
Trigger di avviso | Any time series violates |
Posizione soglia | Above threshold |
Valore soglia | Sei tu a determinare il valore accettabile. |
Finestra di ripetizione test | 1 minute |
Passaggi successivi
Per configurare un'area di destinazione, consulta Esportazione delle tracce.