Configura bucket di log

Questo documento descrive come creare e gestire i bucket Cloud Logging utilizzando la console Google Cloud, Google Cloud CLI e API Logging. Fornisce inoltre le istruzioni per creare e gestire i bucket di log a livello di account, a livello di progetto Google Cloud. Non puoi creare bucket di log nella cartella o a livello di organizzazione; tuttavia Cloud Logging crea automaticamente _Default e _Required bucket a livello di cartella e organizzazione per te.

Puoi eseguire l'upgrade dei bucket di log per utilizzare Analisi dei log. L'analisi dei log consente di eseguire query SQL sui dati di log, risolvere problemi relativi alle applicazioni, alla sicurezza e alla rete.

Per utilizzare BigQuery per analizzare i dati di log, hai due opzioni:

  • Esegui l'upgrade di un bucket di log per utilizzare Analisi dei log e quindi creare set di dati BigQuery collegato. In questo scenario, Logging archivia i tuoi dati di log, BigQuery può leggere i dati di log.

  • Esporta le voci di log in BigQuery. In questo scenario, creare un sink, BigQuery archivia e gestisce i dati e puoi scegliere di utilizzare le tabelle partizionate.

Quando i dati dei log sono disponibili per BigQuery, puoi unire i tuoi registrare i dati con altri dati archiviati in BigQuery e accedere e utilizzare questi dati da altri strumenti come Looker Studio e Looker.

Per una panoramica concettuale dei bucket, consulta Panoramica su routing e archiviazione: bucket di log.

Prima di iniziare

Per iniziare a utilizzare i bucket, segui questi passaggi:

  • Assicurati di aver abilitato la fatturazione per il tuo progetto Google Cloud.

  • Assicurati che il ruolo Identity and Access Management (IAM) ti conceda autorizzazioni necessarie per creare, eseguire l'upgrade e collegare i bucket.

    Il ruolo Writer configurazione log (roles/logging.configWriter) è ruolo minimo predefinito che concede le autorizzazioni necessarie per gestire bucket. Per l'elenco completo di autorizzazioni e ruoli, vedi Controllo dell'accesso con IAM.

  • Comprendere i requisiti di formattazione di LogBucket, ad esempio: le regioni supportate in cui archiviare i log.

  • Valuta l'opportunità di impostare località predefinita delle risorse su applica una regione di archiviazione predefinita per i bucket _Required e _Default dell'organizzazione.

  • Per utilizzare BigQuery per visualizzare i dati archiviati in un bucket di log, procedi nel seguente modo:

  • Per informazioni su come creare un bucket di log che utilizza un la chiave di crittografia gestita dal cliente (CMEK), consulta Configura CMEK per l'archiviazione dei log.

Crea un bucket

Puoi creare un massimo di 100 bucket per progetto Google Cloud.

Per creare un bucket di log definito dall'utente per il tuo progetto Google Cloud, segui questi passaggi: seguenti:

Console Google Cloud

Per creare un bucket di log nel tuo progetto Google Cloud, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Fai clic su Crea bucket di log.

  3. Inserisci un nome e una descrizione per il tuo bucket.

  4. (Facoltativo) Esegui l'upgrade del bucket per utilizzare Analisi dei log.

    1. Seleziona Esegui l'upgrade per utilizzare Analisi dei log.

      Quando esegui l'upgrade di un bucket per utilizzare Analisi dei log, puoi eseguire query i log nella pagina Analisi dei log utilizzando query SQL. Tu Puoi anche continuare a visualizzare i log utilizzando Esplora log.

    2. (Facoltativo) Per visualizzare i log in BigQuery, seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci un nome univoco per il set di dati.

      Se selezioni questa opzione, BigQuery può leggere archiviati nel bucket di log. Ora puoi eseguire query nel Interfaccia di BigQuery in cui puoi unire i dati di log, e accedere ai dati da altri strumenti come Looker Studio e Looker.

  5. (Facoltativo) Per selezionare la regione dello spazio di archiviazione per i tuoi log, fai clic sul menu Seleziona regione del bucket di log e seleziona regione. Se non selezioni una regione, viene utilizzata la regione global, il che significa che i log possono trovarsi fisicamente in uno qualsiasi dei regioni.

  6. (Facoltativo) Per impostare un periodo di conservazione personalizzato per log nel bucket, fai clic su Avanti.

    Nel campo Periodo di conservazione, inserisci il numero di giorni, tra 1 giorno e 3650 giorni che Cloud Logging deve e conservare i log. Se non personalizzi il periodo di conservazione, l'impostazione predefinita è 30 days.

    Puoi anche aggiornare il bucket per applicare la conservazione personalizzata dopo la creazione li annotino.

  7. Fai clic su Crea bucket.

    Dopo la creazione del bucket di log, Logging esegue l'upgrade della bucket e crea il link al set di dati, se sono state selezionate queste opzioni.

    Il completamento di questi passaggi potrebbe richiedere alcuni istanti.

gcloud

Per creare solo un bucket di log, esegui il comando gcloud logging buckets create. Se vuoi per eseguire l'upgrade del bucket di log in modo che utilizzi Analisi dei log, quindi includi --enable-analytics e --async flag, e assicurati di impostare la variabile LOCATION su un regione supportata per Analisi dei log:

gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS

Il flag --async forza il comando in modo che sia asincrono. Il ritorno di un metodo asincrono è un oggetto Operation, contiene informazioni sull'avanzamento del metodo. Quando , l'oggetto Operation contiene lo stato. Per ulteriori informazioni consulta i metodi dell'API asincrona.

Se non vuoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, ometti --enable-analytics e --async. Puoi impostare la variabile LOCATION a qualsiasi valore supportato region.

Ad esempio, se vuoi creare un bucket con BUCKET_ID my-bucket nella regione asia-east2, il tuo comando sarebbe simile al seguenti:

gcloud logging buckets create my-bucket --location asia-east2 --description "My first bucket"

Ad esempio, per creare un bucket con BUCKET_ID my-upgraded-bucket nella località us, quindi esegui l'upgrade del bucket di log per utilizzare Analisi dei log il tuo comando sarà simile al seguente:

gcloud logging buckets create my-upgraded-bucket --location us \
      --description "My first upgraded bucket" \
      --enable-analytics --retention-days=45

API

Per creare un bucket, utilizza projects.locations.buckets.create o il projects.locations.buckets.createAsync . Prepara gli argomenti per il metodo come segue:

  1. Imposta il parametro parent come risorsa in cui per creare il bucket: projects/PROJECT_ID/locations/LOCATION

    La variabile LOCATION fa riferimento alla regione in cui vuoi che i log vengano archiviati.

    Ad esempio, se vuoi creare un bucket per il progetto my-project in nella regione asia-east2, il parametro parent sarebbe questo: projects/my-project/locations/asia-east2

  2. Imposta il parametro bucketId; ad esempio my-bucket.

  3. Esegui una di queste operazioni:

    • Per creare un bucket di log ed eseguire l'upgrade del bucket di log in modo che utilizzi Analisi dei log:

      1. Imposta il valore booleano LogBucket.analyticsEnabled su true.

      2. Chiama il metodo asincrono projects.locations.buckets.createAsync per creare il bucket.

        La risposta ai metodi asincroni è Operation. Questo oggetto contiene informazioni sull'avanzamento del metodo. Quando il metodo viene completato, l'oggetto Operation contiene lo stato. Per ulteriori informazioni consulta i metodi dell'API asincrona.

        Il completamento del metodo createAsync richiede diversi minuti. Questo metodo non genera un messaggio di errore o non riesce quando il valore booleano analyticsEnabled è impostato su true e la regione non è supportata per i bucket di cui è stato eseguito l'upgrade. Ad esempio: Se imposti la località su asia-east2, il bucket di log ma non è stato eseguito l'upgrade del bucket per l'utilizzo di Analisi dei log.

    • Altrimenti, richiama il metodo sincrono projects.locations.buckets.create per creare il bucket.

Dopo aver creato un bucket, crea un sink per instradare le voci di log al bucket configurare le viste dei log per controllare chi può accedere ai log nel nuovo bucket e quali log a loro accessibili. Puoi anche aggiornare il bucket per configurare conservazione personalizzata e campi con restrizioni.

Tieni traccia del volume dei log archiviati nei bucket di log

La pagina Archiviazione dei log nella console Google Cloud monitora il volume delle archivia i dati nei bucket di log:

Nella console Google Cloud, vai alla pagina Archiviazione dei log:

Vai ad Archiviazione dei log

Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

Nella pagina Archiviazione dei log viene visualizzato un riepilogo delle statistiche per Progetto Google Cloud:

Le statistiche di riepilogo segnalano la quantità di dati di log archiviati nei bucket di log.
per il progetto selezionato.

Vengono segnalate le seguenti statistiche:

  • Importazione del mese corrente: la quantità di dati dei log che il tuo Il progetto Google Cloud è archiviato in bucket di log dal primo giorno del mese di calendario corrente.

  • Importazione mese precedente: la quantità di dati dei log che il tuo Progetto Google Cloud archiviato in bucket di log nell'ultimo mese di calendario.

  • Importazione prevista entro EOM: la quantità stimata di dati dei log che Il progetto Google Cloud archivierà in bucket di log entro la fine mese di calendario corrente, in base all'utilizzo corrente.

  • Archiviazione fatturabile nel mese corrente. La quantità di dati dei log che sono stati e vengono conservati per più di 30 giorni.

Le statistiche precedenti non includono i log nella _Required bucket. La non è possibile escludere o disabilitare i log in quel bucket.

La pagina Router dei log della console Google Cloud offre gli strumenti che puoi utilizzare per ridurre al minimo gli addebiti per l'archiviazione dei log nei bucket di log per lo spazio di archiviazione che supera l'allocazione mensile. Puoi:

  • Disabilita l'archiviazione dei log a livello di bucket.
  • Escludere determinate voci di log dall'archiviazione nei bucket di log.

Per ulteriori informazioni, vedi Gestisci i sink.

Gestisci bucket

Questa sezione descrive come gestire i bucket di log utilizzando Google Cloud CLI o la console Google Cloud.

Aggiorna un bucket

Aggiornare le proprietà del bucket, come la descrizione o la conservazione, ciclo, procedi nel seguente modo:

Console Google Cloud

Per aggiornare le proprietà del bucket:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. In corrispondenza del bucket da aggiornare, fai clic su Altro.

  3. Seleziona Modifica bucket.

  4. Modifica il bucket in base alle tue esigenze.

  5. Fai clic su Aggiorna bucket.

gcloud

Per aggiornare le proprietà del bucket, esegui la Comando gcloud logging buckets update:

gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES

Ad esempio:

gcloud logging buckets update my-bucket --location=global --description "Updated description"

API

Per aggiornare le proprietà del bucket, utilizza projects.locations.buckets.patch nell'API Logging.

Esegui l'upgrade di un bucket per utilizzare Analisi dei log

Per eseguire l'upgrade di un bucket esistente per utilizzare Analisi dei log, procedi nel seguente modo con limitazioni:

  • Il bucket di log è stato creato a livello di progetto Google Cloud.
  • Il bucket di log è sbloccato, a meno che non sia il bucket _Required.
  • Non ci sono aggiornamenti in attesa per il bucket.

Console Google Cloud

Per eseguire l'upgrade di un bucket esistente per utilizzare Analisi dei log:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Individua il bucket di cui vuoi eseguire l'upgrade.

  3. Quando la colonna Analisi dei log disponibile mostra Upgrade, puoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log. Fai clic su Esegui l'upgrade.

    Si apre una finestra di dialogo. Fai clic su Conferma.

gcloud

Per eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, esegui il Comando gcloud logging buckets update. Devi imposta --enable-analytics e ti consigliamo di includere anche --async flag:

gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async

Il flag --async forza il comando in modo che sia asincrono. Il ritorno di un modello è un oggetto Operation e contiene informazioni sull'avanzamento del metodo. Quando , l'oggetto Operation contiene lo stato. Per ulteriori informazioni consulta i metodi dell'API asincrona.

API

Per eseguire l'upgrade di un bucket di log per utilizzare Analisi dei log, utilizza il metodo projects.locations.buckets.updateAsync dell'API Cloud Logging.

Prepara gli argomenti per il metodo come segue:

  1. Imposta il valore booleano LogBucket.analyticsEnabled su true.
  2. Per il parametro di query del comando, utilizza updateMask=analyticsEnabled.

La risposta ai metodi asincroni è Operation. Questo oggetto contiene informazioni sull'avanzamento del metodo. Quando il metodo l'oggetto Operation contiene lo stato. Per ulteriori informazioni, consulta i metodi dell'API asincrona.

Il completamento di updateAsync potrebbe richiedere diversi minuti.

Se vuoi utilizzare le funzionalità di BigQuery per analizzare dati di log, eseguire l'upgrade di un bucket di log per utilizzare Analisi dei log e quindi creare set di dati collegato. Con questa configurazione, Logging archivia i tuoi dati di log, BigQuery può leggere i dati di log.

Console Google Cloud

Per creare un collegamento a un set di dati BigQuery per un set di dati esistente bucket di log, segui questi passaggi:

  1. Consulta la sezione Prima di iniziare delle questo documento.

  2. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  3. Individua il bucket di log e verifica che lo strumento Analisi dei log disponibile indica Apri.

    Se questa colonna mostra Upgrade, il bucket di log non è stato eseguito l'upgrade per utilizzare l'Analisi dei log. Configura l'analisi dei log:

    1. Fai clic su Esegui l'upgrade.
    2. Fai clic su Conferma nella finestra di dialogo.

    Una volta completato l'upgrade, vai al passaggio successivo.

  4. Nel bucket di log, fai clic su Altro, e poi fai clic su Modifica bucket.

    Si apre la finestra di dialogo Modifica bucket di log.

  5. Seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci il nome del nuovo set di dati.

    Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se inserisci il nome di un set di dati esistente, viene visualizzato il seguente errore: Dataset name must be unique in the selected region.

  6. Fai clic su Fine, quindi su Aggiorna bucket.

    Dopo che Logging ha visualizzato il nome del set di dati collegato nella Archiviazione dei log, potrebbero essere necessari diversi minuti prima che BigQuery riconosce il set di dati.

gcloud

Creare un set di dati collegato per un bucket di log di cui è stato eseguito l'upgrade per utilizzare Analisi dei log, esegui Comando gcloud logging links create:

gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION

Il campo LINK_ID deve essere univoco per il tuo progetto Google Cloud.

Il comando links create è asincrono. Il ritorno di è un oggetto Operation e contiene informazioni sull'avanzamento del metodo. Quando , l'oggetto Operation contiene lo stato. Per ulteriori informazioni consulta i metodi dell'API asincrona.

Il completamento del comando links create richiede diversi minuti.

Ad esempio, il comando seguente crea un set di dati collegato per bucket con il nome my-bucket:

gcloud logging links create mylink --bucket=my-bucket --location=global

Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se tenti per creare un set di dati con lo stesso nome di un set di dati esistente, ricevi il seguente errore:

BigQuery dataset with name "my-bucket" already exists.

Se tenti di creare un set di dati collegato per un bucket di log che non è eseguito l'upgrade per utilizzare Analisi dei log, viene segnalato il seguente errore:

A link can only be created for an analytics-enabled bucket.

API

Per creare un set di dati BigQuery collegato per un bucket di log esistente di cui è stato eseguito l'upgrade utilizza Analisi dei log, richiama il metodo projects.locations.buckets.links.create dell'API Cloud Logging.

Prepara gli argomenti per il metodo come segue:

  1. Crea il corpo della richiesta per il comando create. Corpo della richiesta sia formattato come oggetto Link.
  2. Per il parametro di query del comando, utilizza linkId=LINK_ID. Il LINK_ID che fornisci viene utilizzato come del set di dati, pertanto LINK_ID condivide lo stesso valore di l'elemento DATASET_ID solo di output.

La risposta ai metodi asincroni è Operation. Questo oggetto contiene informazioni sull'avanzamento del metodo. Quando , l'oggetto Operation contiene lo stato. Per ulteriori informazioni consulta i metodi dell'API asincrona.

Il completamento del metodo links.create richiede diversi minuti.

Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se tenti per creare un set di dati con lo stesso nome di un set di dati esistente, ricevi il seguente errore:

BigQuery dataset with name "my-bucket" already exists.

Se tenti di creare un set di dati collegato per un bucket di log che non è eseguito l'upgrade per utilizzare Analisi dei log, viene segnalato il seguente errore:

A link can only be created for an analytics-enabled bucket.

Blocca un bucket

Quando blocchi un bucket in modo che gli aggiornamenti, vengano bloccati anche criterio di conservazione. Se un criterio di conservazione è bloccato, non puoi eliminare del bucket finché ogni voce di log nel bucket non ha soddisfatto la conservazione del bucket punto.

Blocca il bucket per impedire a chiunque di aggiornare o eliminare un bucket di log. A blocca il bucket, segui questi passaggi:

Console Google Cloud

La console Google Cloud non supporta il blocco di un bucket di log.

gcloud

Per bloccare il bucket, esegui gcloud logging buckets update con il flag --locked:

gcloud logging buckets update BUCKET_ID --location=LOCATION --locked

Ad esempio:

gcloud logging buckets update my-bucket --location=global --locked

API

Per bloccare gli attributi del bucket, utilizza projects.locations.buckets.patch nell'API Logging. Imposta il parametro locked su true.

Elenca bucket

per elencare i bucket di log associati a un progetto Google Cloud e per vedere come le impostazioni di conservazione, procedi nel seguente modo:

Console Google Cloud

Nella console Google Cloud, vai alla pagina Archiviazione dei log:

Vai ad Archiviazione dei log

Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

In una tabella denominata Bucket di log sono elencati i bucket associati all'attuale progetto Google Cloud.

La tabella elenca i seguenti attributi per ciascun bucket di log:

  • Nome: il nome del bucket di log.
  • Descrizione: la descrizione del bucket.
  • Periodo di conservazione: il numero di giorni in cui i dati del bucket archiviati da Cloud Logging.
  • Regione: la posizione geografica in cui sono archiviati i dati del bucket.
  • Stato: indica se il bucket è bloccato o sbloccato.

Se un bucket è in attesa di eliminazione da parte di Cloud Logging, la relativa voce della tabella viene annotata con un avviso .

gcloud

Esegui il comando gcloud logging buckets list:

gcloud logging buckets list

Vengono visualizzati i seguenti attributi per i bucket di log:

  • LOCATION: la regione in cui sono archiviati i dati del bucket.
  • BUCKET_ID: il nome del bucket di log.
  • RETENTION_DAYS: il numero di giorni in cui verranno conservati i dati del bucket archiviati da Cloud Logging.
  • LIFECYCLE_STATE: indica se il bucket è in attesa eliminazione da parte di Cloud Logging.
  • LOCKED: se il bucket è bloccato o sbloccato.
  • CREATE_TIME: un timestamp che indica quando è stato creato il bucket.
  • UPDATE_TIME: un timestamp che indica quando il bucket è stato l'ultima volta modificato.

Puoi anche visualizzare gli attributi di un solo bucket. Ad esempio, per visualizzare dettagli del bucket di log _Default nella regione global, esegui Comando gcloud logging buckets describe:

gcloud logging buckets describe _Default --location=global

API

Per elencare i bucket di log associati a un progetto Google Cloud, utilizza projects.locations.buckets.list nell'API Logging.

Visualizza i dettagli di un bucket

Per visualizzare i dettagli di un singolo bucket di log:

Console Google Cloud

Nella console Google Cloud, vai alla pagina Archiviazione dei log:

Vai ad Archiviazione dei log

Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

Nel bucket di log, fai clic su Altro, quindi seleziona Visualizza dettagli bucket.

La finestra di dialogo elenca i seguenti attributi per il bucket di log:

  • Nome: il nome del bucket di log.
  • Descrizione: la descrizione del bucket di log.
  • Periodo di conservazione: il numero di giorni in cui i dati del bucket archiviati da Cloud Logging.
  • Regione: la posizione geografica in cui sono archiviati i dati del bucket.
  • Analisi dei log: indica se è stato eseguito l'upgrade del bucket per l'utilizzo Analisi dei log.
  • Analisi BigQuery: indica se una Il set di dati BigQuery è collegato al tuo bucket.
  • Set di dati BigQuery: fornisce un collegamento al tuo set di dati BigQuery, che si apre Pagina BigQuery Studio. Viene mostrata anche la data in cui è stato attivato il collegamento a BigQuery.

gcloud

Esegui il comando gcloud logging buckets describe.

Ad esempio, il seguente comando riporta i dettagli dell'errore _Default del bucket:

gcloud logging buckets describe _Default --location=global

Vedrai i seguenti attributi per il bucket di log:

  • createTime: un timestamp che indica quando è stato creato il bucket.
  • description: la descrizione del bucket di log.
  • lifecycleState: indica se il bucket è in attesa eliminazione da parte di Cloud Logging.
  • name: il nome del bucket di log.
  • retentionDays: il numero di giorni in cui verranno conservati i dati del bucket archiviati da Cloud Logging.
  • updateTime: un timestamp che indica quando il bucket è stato l'ultima volta modificato.

API

Per visualizzare i dettagli di un singolo bucket di log, usa projects.locations.buckets.get nell'API Logging.

Elimina un bucket

Per eliminare un bucket di log:

Console Google Cloud

Per eliminare un bucket di log:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Individua il bucket che vuoi eliminare e fai clic su Altro.

  3. Se la colonna Set di dati collegato in BigQuery mostra un ed elimina il set di dati BigQuery collegato:

    1. Fai clic su Modifica bucket.

    2. Deseleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket, fai clic su Fine, quindi fai clic su Aggiorna bucket.

      Una volta tornata alla pagina Archiviazione dei log, fai clic su Aggiungi altro per il bucket da eliminare, quindi vai ai passaggi successivi.

  4. Seleziona Elimina bucket.

  5. Nel riquadro di conferma, fai clic su Elimina.

  6. Nella pagina Archiviazione dei log, il bucket mostra un indicatore che in attesa di eliminazione. Il bucket, inclusi tutti i log al suo interno, viene eliminato dopo 7 giorni.

gcloud

Per eliminare un bucket di log, esegui Comando gcloud logging buckets delete:

gcloud logging buckets delete BUCKET_ID --location=LOCATION

Non puoi eliminare un bucket di log se al bucket è collegato Set di dati BigQuery:

API

Per eliminare un bucket, utilizza projects.locations.buckets.delete nell'API Logging.

Eliminare un bucket di log se quest'ultimo è collegato a un errore è un errore set di dati BigQuery. Devi eliminare il set di dati collegato prima eliminazione del bucket di log:

Un bucket eliminato rimane in questo stato di attesa per 7 giorni e Durante questo periodo, il logging continua a eseguire il routing dei log al bucket. Per interrompere il routing dei log in un bucket eliminato, puoi eliminare i sink di log avere quel bucket come destinazione oppure puoi modificare il filtro dei sink di eseguire il routing dei log al bucket eliminato.

Non puoi creare un nuovo bucket di log che utilizza lo stesso nome di un bucket eliminato nello stato In attesa.

Ripristina un bucket eliminato

Puoi ripristinare o annullare l'eliminazione di un bucket di log che si trova nello stato In attesa di eliminazione. Per ripristinare un bucket di log, segui questi passaggi:

Console Google Cloud

Per ripristinare un bucket di log in attesa di eliminazione, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Per il bucket da ripristinare, fai clic su Altro, quindi seleziona Ripristina bucket eliminato.

  3. Nel riquadro di conferma, fai clic su Ripristina.

  4. Nella pagina Archiviazione dei log, l'indicatore In attesa di eliminazione è stato rimosso dal bucket di log.

gcloud

Per ripristinare un bucket di log in attesa di eliminazione, esegui Comando gcloud logging buckets undelete:

gcloud logging buckets undelete BUCKET_ID --location=LOCATION

API

Per ripristinare un bucket in attesa di eliminazione, utilizza projects.locations.buckets.undelete nell'API Logging.

Avviso sui byte di log mensili archiviati nei bucket di log

Per creare un criterio di avviso, nella pagina Archiviazione dei log nella Nella console Google Cloud, fai clic su Crea avviso di utilizzo. Questo apre la pagina Crea criterio di avviso in Monitoring, e compila il campo del tipo di metrica con logging.googleapis.com/billing/bytes_ingested.

Creare un criterio di avviso che si attiva quando il numero di i byte di log scritti nei bucket di log superano il limite definito dall'utente per Cloud Logging, utilizza le impostazioni seguenti.

Nuovo campo condizione

Valore
Risorsa e metrica Nel menu Risorse, seleziona Globale.
Nel menu Categorie di metriche, seleziona Metrica basata su log.
Nel menu Metriche, seleziona Bit di log mensili importati.
Filtro Nessuno.
Nelle serie temporali
Aggregazione di serie temporali
sum
Finestra scorrevole 60 m
Funzione finestra temporale continua max
Campo Configura trigger avviso

Valore
Tipo di condizione Threshold
Trigger di avviso Any time series violates
Posizione soglia Above threshold
Valore soglia Sei tu a determinare il valore accettabile.
Finestra di nuovo test Il valore minimo accettabile è di 30 minuti.

Per ulteriori informazioni sui criteri di avviso, vedi Panoramica degli avvisi.

Scrivi in un bucket

Non devi scrivere direttamente i log in un bucket di log. Devi invece scrivere i log Risorsa Google Cloud: un progetto, una cartella o un'organizzazione Google Cloud. I sink nella risorsa padre instradano quindi i log alle destinazioni, tra cui bucket di log. Un sink instrada i log verso la destinazione di un bucket di log quando i log corrispondono il filtro del sink e quest'ultimo ha l'autorizzazione per instradare i log al log di sincronizzare la directory di una VM con un bucket.

Lettura da un bucket

Ogni bucket di log ha un insieme di visualizzazioni di log. Per leggere i log da un bucket di log, devi richiedono l'accesso a una visualizzazione del log nel bucket di log. Le visualizzazioni di log ti consentono di concedere a un utente solo a un sottoinsieme dei log archiviati in un bucket di log. Per informazioni configurare le visualizzazioni dei log e concedere l'accesso a viste di log specifiche. consulta Configurare le visualizzazioni dei log su un bucket di log.

Per leggere i log da un bucket di log, segui questi passaggi:

Console Google Cloud

  1. Nella console Google Cloud, vai alla pagina Esplora log:

    Vai a Esplora log

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Per personalizzare i log visualizzati in Esplora log, fai clic su Perfeziona ambito e seleziona un'opzione:

    • Per visualizzare tutti i log generati o instradati direttamente al progetto attuale, seleziona Ambito in base al progetto attuale.

    • Per visualizzare determinati log archiviati nei bucket di log nel progetto attuale, seleziona Ambito in base all'archiviazione, quindi una o più visualizzazioni di log.

    • Per visualizzare determinati log archiviati in bucket di log progetti, seleziona Ambito per archiviazione, fai clic su Importa progetto nel selettore della vista progetti e log, quindi seleziona una o più visualizzazioni di log.

  3. Fai clic su Applica. Il riquadro Risultati delle query si ricarica con i log corrispondenti l'opzione che hai selezionato.

Per ulteriori informazioni sulla personalizzazione dei log visualizzati Esplora log, consulta Panoramica di Esplora log: perfeziona l'ambito.

gcloud

Per leggere i log da un bucket di log, utilizza la classe Comando gcloud logging read e aggiunta a LOG_FILTER per selezionare dati:

gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID

API

Per leggere i log da un bucket di log, utilizza la classe entries.list. Imposta resourceNames per specificare il bucket e la visualizzazione log appropriati e impostare filter per selezionare i dati.

Per informazioni dettagliate sulla sintassi dei filtri, consulta Linguaggio di query di Logging.

Configura la conservazione personalizzata

Quando crei un bucket di log, puoi scegliere di personalizzare il periodo di archiviazione dei log del bucket da parte di Cloud Logging. Puoi configurare il periodo di conservazione per qualsiasi bucket di log definito dall'utente e anche per il bucket di log _Default.

Se riduci la conservazione del bucket, hai a disposizione un periodo di tolleranza di 7 giorni che non vengono eliminati. Non puoi eseguire query o visualizzare i log scaduti ma in questi 7 giorni puoi ripristinare l'accesso completo estendendo la conservazione delle risorse. I log archiviati durante il periodo di tolleranza vengono conteggiati ai fini del calcolo costi di conservazione.

Per aggiornare il periodo di conservazione per un bucket di log:

Console Google Cloud

Per aggiornare il periodo di conservazione di un bucket di log:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Per il bucket da aggiornare, fai clic su Altro, quindi seleziona Modifica bucket:

  3. Nel campo Conservazione, inserisci il numero di giorni, tra 1 giorno e 3650 giorni ai quali Cloud Logging deve e conservare i log.

  4. Fai clic su Aggiorna bucket. La nuova durata di conservazione viene visualizzata nella Bucket di log.

gcloud

Per aggiornare il periodo di conservazione per un bucket di log, esegui il Comando gcloud logging buckets update, dopo aver impostato un valore per RETENTION_DAYS:

gcloud logging buckets update BUCKET_ID  --location=LOCATION --retention-days=RETENTION_DAYS

Ad esempio, per conservare i log nel bucket _Default nella global per un anno, il tuo comando sarà simile al seguente:

gcloud logging buckets update _Default --location=global --retention-days=365

Se estendi il periodo di conservazione di un bucket, vengono applicate le regole di conservazione e non retroattivamente. Non sarà possibile recuperare i log dopo l'applicazione del periodo di conservazione.

Metodi dell'API asincrona

La risposta di un metodo asincrono come projects.locations.buckets.createAsync è un oggetto Operation.

Le applicazioni che chiamano un metodo API asincrono devono eseguire il polling sull'endpoint operation.get finché il valore del campo Operation.done è true:

  • Quando il valore del campo done è false, l'operazione è in corso.

    Per aggiornare le informazioni sullo stato, invia una richiesta GET al Endpoint operation.get.

  • Quando il valore di done è true, l'operazione viene completata e lo error o Il campo response è impostato:

    • error: se impostato, l'operazione asincrona non riuscito. Il valore di questo campo è un oggetto Status che contiene un codice di errore gRPC e un messaggio di errore.
    • response: se impostato, l'operazione asincrona è stata completata correttamente, e il valore riflette il risultato.

Per eseguire il polling di un comando asincrono utilizzando Google Cloud CLI, esegui questo comando: :

gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID

Per ulteriori informazioni, vedi gcloud logging operations describe.

Risolvere i problemi comuni

Se riscontri problemi durante l'utilizzo dei bucket di log, consulta quanto segue passaggi per la risoluzione dei problemi e risposte alle domande più comuni.

Perché non posso eliminare questo bucket?

Se stai cercando di eliminare un bucket, segui questi passaggi:

  • Assicurati di disporre delle autorizzazioni corrette per eliminare il bucket. Per delle autorizzazioni di cui hai bisogno, vedi Controllo dell'accesso con IAM.

  • Determina se il bucket è bloccato da elenco degli attributi del bucket. Se il bucket è bloccato, controlla lo stato periodo di conservazione. Non puoi eliminare un bucket bloccato finché tutti i log nel bucket hanno soddisfatto il periodo di conservazione del bucket.

  • Verifica che il bucket di log non abbia un set di dati BigQuery collegato. Non puoi eliminare un bucket di log con un set di dati collegato.

    Il seguente errore viene mostrato in risposta a un comando delete su una bucket di log con un set di dati collegato:

    FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
    

    Per elencare i collegamenti associati a un bucket di log, esegui il gcloud logging links list o esegui il comando projects.locations.buckets.links.list API.

Quali account di servizio eseguono il routing dei log al mio bucket?

a determinare se alcuni account di servizio dispongono di autorizzazioni IAM per: eseguire il routing dei log al bucket, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina IAM:

    Vai a IAM

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo IAM e Console di amministrazione.

  2. Nella scheda Autorizzazioni, visualizza la scheda per Ruoli. Viene visualizzata una tabella contenente i ruoli e le entità IAM associati progetto Google Cloud.

  3. Nella sezione Filtro della tabella casella di testo, inserisci Writer bucket di log.

    Tutte le entità con il ruolo Writer bucket di log sono visualizzate. Se un'entità è un account di servizio, il suo ID contiene la stringa gserviceaccount.com.

  4. (Facoltativo) Se vuoi rimuovere un account di servizio dalla possibilità di eseguire il routing log al tuo progetto Google Cloud, seleziona casella di controllo per l'account di servizio, quindi fai clic su Rimuovi.

Perché vedo i log di un progetto Google Cloud anche se li ho esclusi dal sink _Default?

È possibile che tu stia visualizzando i log in un bucket di log in una progetto Google Cloud centralizzato, aggrega i log di tutta l'organizzazione.

Se utilizzi Esplora log per accedere a questi log e visualizzare quelli che escluso dal sink _Default, la tua visualizzazione potrebbe essere limitata all'ambito a livello di progetto Google Cloud.

Per risolvere il problema, seleziona Ambito in base all'archiviazione nel Riquadro Perfeziona ambito e poi seleziona il bucket _Default nel tuo progetto Google Cloud. Non dovresti più visualizzare i log esclusi.

Passaggi successivi

Per informazioni sui metodi dell'API del bucket di log, consulta documentazione di riferimento di LogBucket.

Per informazioni su come risolvere casi d'uso comuni con i bucket di log, consulta i seguenti argomenti: