Configura bucket di log

Questo documento descrive come creare e gestire i bucket Cloud Logging utilizzando la console Google Cloud, Google Cloud CLI e l'API Logging. Fornisce inoltre le istruzioni per creare e gestire i bucket di log a livello di progetto Google Cloud. Non puoi creare bucket di log a livello di cartella o organizzazione; tuttavia, Cloud Logging crea automaticamente bucket _Default e _Required a livello di cartella e organizzazione al posto tuo.

Puoi eseguire l'upgrade dei bucket di log per utilizzare Analisi dei log. L'analisi dei log consente di eseguire query SQL sui dati di log, per risolvere i problemi relativi all'applicazione, alla sicurezza e al networking.

Per utilizzare BigQuery per analizzare i dati di log, hai due opzioni:

  • Esegui l'upgrade di un bucket di log per utilizzare Analisi dei log e poi creare un set di dati BigQuery collegato. In questo scenario, Logging archivia i tuoi dati di log, ma BigQuery può leggerli.

  • Esporta le voci di log in BigQuery. In questo scenario, devi creare un sink, BigQuery archivia e gestisce i dati e hai la possibilità di utilizzare tabelle partizionate.

Quando i dati di log sono disponibili per BigQuery, puoi combinarli con altri dati archiviati in BigQuery e accedervi da altri strumenti come Looker Studio e Looker.

Per una panoramica concettuale dei bucket, consulta Panoramica del routing e dell'archiviazione: bucket di log.

Prima di iniziare

Per iniziare a utilizzare i bucket, segui questi passaggi:

  • Assicurati di aver abilitato la fatturazione per il tuo progetto Google Cloud.

  • Assicurati che il ruolo Identity and Access Management (IAM) ti conceda le autorizzazioni necessarie per creare, eseguire l'upgrade e collegare i bucket.

    Il ruolo Writer configurazione log (roles/logging.configWriter) è il ruolo minimo predefinito che concede le autorizzazioni necessarie per gestire i bucket. Per l'elenco completo delle autorizzazioni e dei ruoli, consulta Controllo dell'accesso con IAM.

  • Comprendere i requisiti di formattazione di LogBucket, incluse le regioni supportate in cui puoi archiviare i log.

  • Valuta la possibilità di impostare una località predefinita delle risorse per applicare una regione di archiviazione predefinita per i bucket _Required e _Default nella tua organizzazione.

  • Per utilizzare BigQuery per visualizzare i dati archiviati in un bucket di log:

  • Per informazioni su come creare un bucket di log che utilizza una chiave di crittografia gestita dal cliente (CMEK), consulta Configurare CMEK per l'archiviazione dei log.

Crea un bucket

Puoi creare un massimo di 100 bucket per progetto Google Cloud.

Per creare un bucket di log definito dall'utente per il tuo progetto Google Cloud, segui questi passaggi:

Console Google Cloud

Per creare un bucket di log nel tuo progetto Google Cloud, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Fai clic su Crea bucket di log.

  3. Inserisci un nome e una descrizione per il tuo bucket.

  4. (Facoltativo) Esegui l'upgrade del bucket per utilizzare Analisi dei log.

    1. Seleziona Esegui l'upgrade per utilizzare Analisi dei log.

      Quando esegui l'upgrade di un bucket per utilizzare Analisi dei log, puoi eseguire query sui log nella pagina Analisi dei log utilizzando query SQL. Puoi anche continuare a visualizzare i log utilizzando Esplora log.

      Non tutte le regioni sono supportate per Analisi dei log. Per maggiori informazioni, consulta Regioni supportate.

    2. (Facoltativo) Per visualizzare i log in BigQuery, seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci un nome univoco per il set di dati.

      Se selezioni questa opzione, BigQuery può leggere i dati archiviati nel tuo bucket di log. Ora puoi eseguire query nell'interfaccia di BigQuery, dove puoi unire i dati di log e anche accedere ai dati di altri strumenti come Looker Studio e Looker.

  5. (Facoltativo) Per selezionare la regione di archiviazione per i log, fai clic sul menu Seleziona regione del bucket di log e seleziona una regione. Se non selezioni una regione, viene utilizzata la regione global, il che significa che i log potrebbero trovarsi fisicamente in una qualsiasi delle regioni.

  6. (Facoltativo) Per impostare un periodo di conservazione personalizzato per i log nel bucket, fai clic su Avanti.

    Nel campo Periodo di conservazione, inserisci il numero di giorni, compreso tra 1 e 3650 giorni, in cui Cloud Logging deve conservare i log. Se non personalizzi il periodo di conservazione, il valore predefinito è 30 days.

    Puoi anche aggiornare il bucket per applicare la conservazione personalizzata dopo la creazione.

  7. Fai clic su Crea bucket.

    Dopo aver creato il bucket di log, Logging esegue l'upgrade del bucket e crea il link al set di dati, se queste opzioni sono state selezionate.

    Il completamento di questi passaggi potrebbe richiedere alcuni istanti.

gcloud

Per creare solo un bucket di log, esegui il comando gcloud logging buckets create. Se vuoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, includi i flag --enable-analytics e --async e assicurati di impostare la variabile LOCATION su una regione supportata per Analisi dei log:

gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS

Il flag --async forza il comando a essere asincrono. La restituzione di un metodo asincrono è un oggetto Operation, che contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation conterrà lo stato. Per maggiori informazioni, consulta i metodi dell'API asincrona.

Se non vuoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, ometti i flag --enable-analytics e --async. Puoi impostare la variabile LOCATION su qualsiasi regione supportata.

Ad esempio, se vuoi creare un bucket con BUCKET_ID my-bucket nella regione asia-east2, il comando sarà simile al seguente:

gcloud logging buckets create my-bucket --location asia-east2 --description "My first bucket"

Ad esempio, per creare un bucket con BUCKET_ID my-upgraded-bucket nella località us ed eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, il tuo comando avrà il seguente aspetto:

gcloud logging buckets create my-upgraded-bucket --location us \
      --description "My first upgraded bucket" \
      --enable-analytics --retention-days=45

API

Per creare un bucket, utilizza il metodo projects.locations.buckets.create o projects.locations.buckets.createAsync. Prepara gli argomenti per il metodo come segue:

  1. Imposta il parametro parent come risorsa in cui creare il bucket: projects/PROJECT_ID/locations/LOCATION

    La variabile LOCATION fa riferimento alla regione in cui vuoi archiviare i log. Non tutte le regioni sono supportate per Analisi dei log. Per maggiori informazioni, consulta Regioni supportate.

    Ad esempio, se vuoi creare un bucket per il progetto my-project nella regione asia-east2, il parametro parent sarà simile al seguente: projects/my-project/locations/asia-east2

  2. Imposta il parametro bucketId, ad esempio my-bucket.

  3. Esegui una di queste operazioni:

    • Per creare un bucket di log ed eseguire l'upgrade del bucket di log per utilizzare Analisi dei log:

      1. Imposta il valore booleano LogBucket.analyticsEnabled su true.

      2. Chiama il metodo asincrono projects.locations.buckets.createAsync per creare il bucket.

        La risposta ai metodi asincroni è un oggetto Operation. Questo oggetto contiene informazioni sull'avanzamento del metodo. Al completamento del metodo, l'oggetto Operation contiene lo stato. Per maggiori informazioni, consulta i metodi dell'API asincrona.

        Il completamento del metodo createAsync richiede diversi minuti. Questo metodo non genera un messaggio di errore o non riesce quando il valore booleano analyticsEnabled è impostato su true e la regione non è supportata per i bucket di cui è stato eseguito l'upgrade. Ad esempio, se imposti la località su asia-east2, il bucket di log viene creato, ma non viene eseguito l'upgrade del bucket per l'utilizzo di Analisi dei log.

    • In caso contrario, chiama il metodo sincrono projects.locations.buckets.create per creare il bucket.

Dopo aver creato un bucket, crea un sink per instradare le voci di log al bucket e configura le visualizzazioni dei log per controllare chi può accedere ai log nel nuovo bucket e quali log sono accessibili. Puoi anche aggiornare il bucket per configurare la conservazione personalizzata e i campi con restrizioni.

Tieni traccia del volume dei log archiviati nei bucket di log

La pagina Archiviazione dei log nella console Google Cloud monitora il volume dei dati dei log archiviati nei bucket di log:

Nella console Google Cloud, vai alla pagina Archiviazione dei log:

Vai ad Archiviazione dei log

Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

La pagina Archiviazione dei log mostra un riepilogo delle statistiche per il tuo progetto Google Cloud:

Le statistiche di riepilogo registrano la quantità di dati di log archiviati nei bucket di log per il progetto selezionato.

Vengono segnalate le seguenti statistiche:

  • Importazione del mese corrente: la quantità di dati dei log che il tuo progetto Google Cloud ha archiviato nei bucket di log dal primo giorno del mese di calendario corrente.

  • Importazione mese precedente: la quantità di dati dei log archiviati dal tuo progetto Google Cloud nei bucket di log nell'ultimo mese di calendario.

  • Importazione prevista da EOM: la quantità stimata di dati di log che il progetto Google Cloud archivierà nei bucket di log entro la fine del mese di calendario corrente, in base all'utilizzo attuale.

  • Archiviazione fatturabile nel mese corrente: la quantità di dati dei log conservati per oltre 30 giorni che viene fatturata.

Le statistiche precedenti non includono i log nel bucket _Required. I log nel bucket non possono essere esclusi o disabilitati.

La pagina Router dei log della console Google Cloud ti offre strumenti che puoi utilizzare per ridurre al minimo eventuali addebiti per l'archiviazione dei log nei bucket di log o per l'archiviazione superiore all'allocazione mensile. Puoi:

  • Disabilita l'archiviazione dei log a livello di bucket.
  • Escludere determinate voci di log dall'archiviazione nei bucket di log.

Per maggiori informazioni, consulta Gestire i sink.

Gestisci bucket

Questa sezione descrive come gestire i bucket di log utilizzando Google Cloud CLI o la console Google Cloud.

Aggiorna un bucket

Per aggiornare le proprietà del bucket, come la descrizione o il periodo di conservazione, segui questi passaggi:

Console Google Cloud

Per aggiornare le proprietà del bucket:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. In corrispondenza del bucket da aggiornare, fai clic su Altro.

  3. Seleziona Modifica bucket.

  4. Modifica il bucket in base alle tue esigenze.

  5. Fai clic su Aggiorna bucket.

gcloud

Per aggiornare le proprietà del bucket, esegui il comando gcloud logging buckets update:

gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES

Ad esempio:

gcloud logging buckets update my-bucket --location=global --description "Updated description"

API

Per aggiornare le proprietà del bucket, utilizza projects.locations.buckets.patch nell'API Logging.

Esegui l'upgrade di un bucket per utilizzare Analisi dei log

Per eseguire l'upgrade di un bucket esistente per utilizzare Analisi dei log, si applicano le seguenti restrizioni:

  • Il bucket di log è stato creato a livello di progetto Google Cloud.
  • Il bucket di log è sbloccato, a meno che non sia il bucket _Required.
  • Non ci sono aggiornamenti in attesa per il bucket.
  • Non tutte le regioni sono supportate per Analisi dei log. Per maggiori informazioni, consulta Regioni supportate.

Console Google Cloud

Per eseguire l'upgrade di un bucket esistente per utilizzare Analisi dei log:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Individua il bucket di cui vuoi eseguire l'upgrade.

  3. Quando la colonna Analisi dei log disponibile mostra Upgrade, puoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log. Fai clic su Esegui l'upgrade.

    Si apre una finestra di dialogo. Fai clic su Conferma.

gcloud

Per eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, esegui il comando gcloud logging buckets update. Devi impostare il flag --enable-analytics e ti consigliamo di includere anche il flag --async:

gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async

Il flag --async forza il comando a essere asincrono. Il ritorno di un metodo asincrono è un oggetto Operation e contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation conterrà lo stato. Per maggiori informazioni, consulta i metodi dell'API asincrona.

API

Per eseguire l'upgrade di un bucket di log per utilizzare Analisi dei log, usa il metodo projects.locations.buckets.updateAsync dell'API Cloud Logging.

Prepara gli argomenti per il metodo come segue:

  1. Imposta il valore booleano LogBucket.analyticsEnabled su true.
  2. Per il parametro di query del comando, utilizza updateMask=analyticsEnabled.

La risposta ai metodi asincroni è un oggetto Operation. Questo oggetto contiene informazioni sull'avanzamento del metodo. Al completamento del metodo, l'oggetto Operation contiene lo stato. Per maggiori informazioni, consulta Metodi dell'API asincrona.

Il completamento di updateAsync potrebbe richiedere diversi minuti.

Se vuoi utilizzare le funzionalità di BigQuery per analizzare i dati di log, esegui l'upgrade di un bucket di log per utilizzare Analisi dei log e poi crea un set di dati collegato. Con questa configurazione, Logging archivia i tuoi dati di log, ma BigQuery può leggerli.

Console Google Cloud

Per creare un collegamento a un set di dati BigQuery per un bucket di log esistente, segui questi passaggi:

  1. Consulta la sezione Prima di iniziare di questo documento.

  2. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  3. Individua il bucket di log e verifica che la colonna Analisi dei log disponibile mostri Apri.

    Se questa colonna mostra Upgrade, significa che l'upgrade del bucket di log non è stato eseguito per utilizzare Analisi dei log. Configura l'analisi dei log:

    1. Fai clic su Esegui l'upgrade.
    2. Fai clic su Conferma nella finestra di dialogo.

    Una volta completato l'upgrade, vai al passaggio successivo.

  4. Nel bucket di log, fai clic su Altro e poi su Modifica bucket.

    Si apre la finestra di dialogo Modifica bucket di log.

  5. Seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci il nome del nuovo set di dati.

    Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se inserisci il nome di un set di dati esistente, viene visualizzato il seguente errore: Dataset name must be unique in the selected region.

  6. Fai clic su Fine, quindi su Aggiorna bucket.

    Dopo che Logging ha visualizzato il nome del set di dati collegato nella pagina Archiviazione dei log, potrebbero essere necessari diversi minuti prima che BigQuery riconosca il set di dati.

gcloud

Per creare un set di dati collegato per un bucket di log di cui è stato eseguito l'upgrade per utilizzare Analisi dei log, esegui il comando gcloud logging links create:

gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION

Il campo LINK_ID deve essere univoco per il tuo progetto Google Cloud.

Il comando links create è asincrono. La restituzione di un metodo asincrono è un oggetto Operation e contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation conterrà lo stato. Per maggiori informazioni, consulta i metodi dell'API asincrona.

Il completamento del comando links create richiede diversi minuti.

Ad esempio, il seguente comando crea un set di dati collegato per il bucket con il nome my-bucket:

gcloud logging links create mylink --bucket=my-bucket --location=global

Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se tenti di creare un set di dati con lo stesso nome di un set di dati esistente, ricevi il seguente errore:

BigQuery dataset with name "my-bucket" already exists.

Se tenti di creare un set di dati collegato per un bucket di log di cui non è stato eseguito l'upgrade per utilizzare Analisi dei log, viene segnalato il seguente errore:

A link can only be created for an analytics-enabled bucket.

API

Per creare un set di dati BigQuery collegato per un bucket di log esistente di cui viene eseguito l'upgrade, utilizza Analisi dei log, chiama il metodo projects.locations.buckets.links.create asincrono dell'API Cloud Logging.

Prepara gli argomenti per il metodo come segue:

  1. Crea il corpo della richiesta per il comando create. Il corpo della richiesta è formattato come un oggetto Link.
  2. Per il parametro di query del comando, utilizza linkId=LINK_ID. Il LINK_ID fornito viene utilizzato come nome del set di dati, pertanto LINK_ID condivide lo stesso valore DATASET_ID solo di output.

La risposta ai metodi asincroni è un oggetto Operation. Questo oggetto contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation conterrà lo stato. Per maggiori informazioni, consulta i metodi dell'API asincrona.

Il completamento del metodo links.create richiede diversi minuti.

Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se tenti di creare un set di dati con lo stesso nome di un set di dati esistente, ricevi il seguente errore:

BigQuery dataset with name "my-bucket" already exists.

Se tenti di creare un set di dati collegato per un bucket di log di cui non è stato eseguito l'upgrade per utilizzare Analisi dei log, viene segnalato il seguente errore:

A link can only be created for an analytics-enabled bucket.

Blocca un bucket

Quando blocchi gli aggiornamenti di un bucket, blocchi anche il criterio di conservazione del bucket. Dopo il blocco di un criterio di conservazione, non puoi eliminare il bucket finché ogni voce di log nel bucket non ha soddisfatto il periodo di conservazione del bucket.

Blocca il bucket per impedire a chiunque di aggiornare o eliminare un bucket di log. Per bloccare il bucket:

Console Google Cloud

La console Google Cloud non supporta il blocco di un bucket di log.

gcloud

Per bloccare il bucket, esegui il comando gcloud logging buckets update con il flag --locked:

gcloud logging buckets update BUCKET_ID --location=LOCATION --locked

Ad esempio:

gcloud logging buckets update my-bucket --location=global --locked

API

Per bloccare gli attributi del bucket, utilizza projects.locations.buckets.patch nell'API Logging. Imposta il parametro locked su true.

Elenca bucket

Per elencare i bucket di log associati a un progetto Google Cloud e visualizzare i dettagli, ad esempio le impostazioni di conservazione, segui questi passaggi:

Console Google Cloud

Nella console Google Cloud, vai alla pagina Archiviazione dei log:

Vai ad Archiviazione dei log

Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

Una tabella denominata Bucket di log elenca i bucket associati al progetto Google Cloud attuale.

La tabella elenca i seguenti attributi per ciascun bucket di log:

  • Nome: il nome del bucket di log.
  • Descrizione: la descrizione del bucket.
  • Periodo di conservazione: il numero di giorni in cui i dati del bucket verranno archiviati da Cloud Logging.
  • Regione: la posizione geografica in cui sono archiviati i dati del bucket.
  • Stato: indica se il bucket è bloccato o sbloccato.

Se un bucket è in attesa di eliminazione da parte di Cloud Logging, la relativa voce della tabella viene annotata con un simbolo di avviso .

gcloud

Esegui il comando gcloud logging buckets list:

gcloud logging buckets list

Vengono visualizzati i seguenti attributi per i bucket di log:

  • LOCATION: la regione in cui sono archiviati i dati del bucket.
  • BUCKET_ID: il nome del bucket di log.
  • RETENTION_DAYS: il numero di giorni in cui Cloud Logging archivia i dati del bucket.
  • LIFECYCLE_STATE: indica se il bucket è in attesa di eliminazione da parte di Cloud Logging.
  • LOCKED: indica se il bucket è bloccato o sbloccato.
  • CREATE_TIME: un timestamp che indica quando è stato creato il bucket.
  • UPDATE_TIME: un timestamp che indica la data dell'ultima modifica del bucket.

Puoi anche visualizzare gli attributi di un solo bucket. Ad esempio, per visualizzare i dettagli del bucket di log _Default nella regione global, esegui il comando gcloud logging buckets describe:

gcloud logging buckets describe _Default --location=global

API

Per elencare i bucket di log associati a un progetto Google Cloud, utilizza projects.locations.buckets.list nell'API Logging.

Visualizza i dettagli di un bucket

Per visualizzare i dettagli di un singolo bucket di log:

Console Google Cloud

Nella console Google Cloud, vai alla pagina Archiviazione dei log:

Vai ad Archiviazione dei log

Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

Nel bucket di log, fai clic su Altro, quindi seleziona Visualizza dettagli bucket.

La finestra di dialogo elenca i seguenti attributi per il bucket di log:

  • Nome: il nome del bucket di log.
  • Descrizione: la descrizione del bucket di log.
  • Periodo di conservazione: il numero di giorni in cui i dati del bucket verranno archiviati da Cloud Logging.
  • Regione: la posizione geografica in cui sono archiviati i dati del bucket.
  • Analisi dei log: indica se è stato eseguito l'upgrade del bucket per l'utilizzo di Analisi dei log.
  • Analisi BigQuery: indica se un set di dati BigQuery è collegato al tuo bucket.
  • Set di dati BigQuery: fornisce un link al tuo set di dati BigQuery, che si apre nella pagina BigQuery Studio. Viene mostrata anche la data in cui è stato attivato il collegamento a BigQuery.

gcloud

Esegui il comando gcloud logging buckets describe.

Ad esempio, il seguente comando riporta i dettagli del bucket _Default:

gcloud logging buckets describe _Default --location=global

Vedrai i seguenti attributi per il bucket di log:

  • createTime: un timestamp che indica quando è stato creato il bucket.
  • description: la descrizione del bucket di log.
  • lifecycleState: indica se il bucket è in attesa di eliminazione da parte di Cloud Logging.
  • name: il nome del bucket di log.
  • retentionDays: il numero di giorni in cui Cloud Logging archivia i dati del bucket.
  • updateTime: un timestamp che indica la data dell'ultima modifica del bucket.

API

Per visualizzare i dettagli di un singolo bucket di log, utilizza projects.locations.buckets.get nell'API Logging.

Elimina un bucket

Per eliminare un bucket di log:

Console Google Cloud

Per eliminare un bucket di log:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Individua il bucket che vuoi eliminare e fai clic su Altro.

  3. Se la colonna Set di dati collegato in BigQuery mostra un link, elimina il set di dati BigQuery collegato:

    1. Fai clic su Modifica bucket.

    2. Deseleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket, fai clic su Fine, quindi su Aggiorna bucket.

      Dopo essere tornato alla pagina Archiviazione dei log, fai clic su Altro per il bucket da eliminare, quindi vai ai passaggi successivi.

  4. Seleziona Elimina bucket.

  5. Nel riquadro di conferma, fai clic su Elimina.

  6. Nella pagina Archiviazione dei log, il bucket mostra che è in attesa di eliminazione. Il bucket, inclusi tutti i log al suo interno, viene eliminato dopo 7 giorni.

gcloud

Per eliminare un bucket di log, esegui il comando gcloud logging buckets delete:

gcloud logging buckets delete BUCKET_ID --location=LOCATION

Non puoi eliminare un bucket di log se al bucket è collegato un set di dati BigQuery:

API

Per eliminare un bucket, utilizza projects.locations.buckets.delete nell'API Logging.

Eliminare un bucket di log se questo bucket ha un set di dati BigQuery collegato è un errore. Prima di eliminare il bucket di log, devi eliminare il set di dati collegato:

Un bucket eliminato rimane in questo stato di attesa per 7 giorni e Logging continua a indirizzare i log al bucket durante questo lasso di tempo. Per interrompere il routing dei log su un bucket eliminato, puoi eliminare i sink di log che hanno quel bucket come destinazione oppure modificare il filtro dei sink per interrompere il routing dei log nel bucket eliminato.

Non puoi creare un nuovo bucket di log che utilizza lo stesso nome di un bucket eliminato in stato In attesa.

Ripristina un bucket eliminato

Puoi ripristinare o annullare l'eliminazione di un bucket di log che si trova nello stato In attesa di eliminazione. Per ripristinare un bucket di log, segui questi passaggi:

Console Google Cloud

Per ripristinare un bucket di log in attesa di eliminazione, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Per il bucket da ripristinare, fai clic su Altro e seleziona Ripristina bucket eliminato.

  3. Nel riquadro di conferma, fai clic su Ripristina.

  4. Nella pagina Archiviazione dei log, l'indicatore In attesa di eliminazione viene rimosso dal bucket di log.

gcloud

Per ripristinare un bucket di log in attesa di eliminazione, esegui il comando gcloud logging buckets undelete:

gcloud logging buckets undelete BUCKET_ID --location=LOCATION

API

Per ripristinare un bucket in attesa di eliminazione, utilizza projects.locations.buckets.undelete nell'API Logging.

Avviso sui byte di log mensili archiviati nei bucket di log

Per creare un criterio di avviso, fai clic su Crea avviso di utilizzo nella pagina Archiviazione dei log della console Google Cloud. Questo pulsante apre la pagina Crea criterio di avviso in Monitoring e compila il campo del tipo di metrica con logging.googleapis.com/billing/bytes_ingested.

Per creare un criterio di avviso che si attiva quando il numero di byte di log scritti nei bucket di log supera il limite definito dall'utente per Cloud Logging, utilizza le impostazioni seguenti.

Nuovo campo condizione

Valore
Risorsa e metrica Nel menu Risorse, seleziona Globale.
Nel menu Categorie di metriche, seleziona Metrica basata su log.
Nel menu Metriche, seleziona Rileva byte di log mensili importati.
Filtro Nessuno.
In più serie temporali
Aggregazione di serie temporali
sum
Finestra scorrevole 60 m
Funzione finestra temporale continua max
Campo Configura trigger avviso

Valore
Tipo di condizione Threshold
Trigger di avviso Any time series violates
Posizione soglia Above threshold
Valore soglia Sei tu a determinare il valore accettabile.
Finestra di nuovo test Il valore minimo accettabile è di 30 minuti.

Per ulteriori informazioni sui criteri di avviso, consulta Panoramica degli avvisi.

Scrivi in un bucket

Non devi scrivere direttamente i log in un bucket di log. Piuttosto, scrivi i log nella risorsa Google Cloud: un progetto, una cartella o un'organizzazione Google Cloud. I sink nella risorsa padre instradano i log alle destinazioni, inclusi i bucket di log. Un sink instrada i log a una destinazione del bucket di log quando corrispondono al filtro del sink e il sink ha l'autorizzazione per instradare i log al bucket di log.

Lettura da un bucket

Ogni bucket di log ha un insieme di visualizzazioni di log. Per leggere i log da un bucket di log, devi accedere a una visualizzazione del log nel bucket di log. Le visualizzazioni dei log consentono di concedere a un utente l'accesso solo a un sottoinsieme dei log archiviati in un bucket di log. Per informazioni su come configurare le visualizzazioni dei log e concedere l'accesso a viste di log specifiche, consulta Configurare le visualizzazioni dei log su un bucket di log.

Per leggere i log da un bucket di log, segui questi passaggi:

Console Google Cloud

  1. Nella console Google Cloud, vai alla pagina Esplora log:

    Vai a Esplora log

    Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Per personalizzare i log visualizzati in Esplora log, fai clic su Perfeziona ambito e seleziona un'opzione:

    • Per visualizzare tutti i log generati o indirizzati direttamente al progetto attuale, seleziona Ambito in base al progetto attuale.

    • Per visualizzare determinati log archiviati nei bucket di log nel progetto attuale, seleziona Ambito in base all'archiviazione, quindi seleziona una o più visualizzazioni di log.

    • Per visualizzare determinati log archiviati in bucket di log in progetti diversi, seleziona Ambito per archiviazione, fai clic su Importa progetto nel selettore di progetti e viste log, quindi seleziona una o più visualizzazioni di log.

  3. Fai clic su Applica. Il riquadro Risultati delle query viene ricaricato con i log corrispondenti all'opzione selezionata.

Per saperne di più sulla personalizzazione dei log visualizzati in Esplora log, consulta Panoramica di Esplora log: perfeziona l'ambito.

gcloud

Per leggere i log da un bucket di log, utilizza il comando gcloud logging read e aggiungi un elemento LOG_FILTER per selezionare i dati:

gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID

API

Per leggere i log da un bucket di log, utilizza il metodo entries.list. Imposta resourceNames per specificare il bucket e la vista log appropriati e imposta filter per selezionare i dati.

Per informazioni dettagliate sulla sintassi dei filtri, consulta Linguaggio di query di Logging.

Configura la conservazione personalizzata

Quando crei un bucket di log, puoi scegliere di personalizzare il periodo per quanto tempo Cloud Logging archivia i log del bucket. Puoi configurare il periodo di conservazione per qualsiasi bucket di log definito dall'utente e anche per il bucket di log _Default.

Se riduci la conservazione del bucket, esiste un periodo di tolleranza di 7 giorni in cui i log scaduti non vengono eliminati. Non puoi eseguire query o visualizzare i log scaduti, ma in questi 7 giorni puoi ripristinare l'accesso completo estendendo la conservazione del bucket. I log archiviati durante il periodo di tolleranza vengono conteggiati ai fini dei costi di conservazione.

Per aggiornare il periodo di conservazione per un bucket di log:

Console Google Cloud

Per aggiornare il periodo di conservazione di un bucket di log:

  1. Nella console Google Cloud, vai alla pagina Archiviazione dei log:

    Vai ad Archiviazione dei log

    Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.

  2. Per il bucket da aggiornare, fai clic su Altro e seleziona Modifica bucket.

  3. Nel campo Conservazione, inserisci il numero di giorni, compresi tra 1 e 3650 giorni, in cui Cloud Logging deve conservare i log.

  4. Fai clic su Aggiorna bucket. La nuova durata di conservazione viene visualizzata nell'elenco Bucket di log.

gcloud

Per aggiornare il periodo di conservazione per un bucket di log, esegui il comando gcloud logging buckets update dopo aver impostato un valore per RETENTION_DAYS:

gcloud logging buckets update BUCKET_ID  --location=LOCATION --retention-days=RETENTION_DAYS

Ad esempio, per conservare i log nel bucket _Default nella località global per un anno, il tuo comando avrà il seguente aspetto:

gcloud logging buckets update _Default --location=global --retention-days=365

Se estendi il periodo di conservazione di un bucket, le regole di conservazione verranno applicate in futuro e non in modo retroattivo. Non è possibile recuperare i log al termine del periodo di conservazione applicabile.

Metodi dell'API asincrona

La risposta di un metodo asincrono come projects.locations.buckets.createAsync è un oggetto Operation.

Le applicazioni che chiamano un metodo API asincrono devono eseguire il polling dell'endpoint operation.get finché il valore del campo Operation.done non è true:

  • Quando il valore del campo done è false, l'operazione è in corso.

    Per aggiornare le informazioni sullo stato, invia una richiesta GET all'endpoint operation.get.

  • Quando done è true, l'operazione viene completata e viene impostato il campo error o response:

    • error: se impostato, l'operazione asincrona non è riuscita. Il valore di questo campo è un oggetto Status che contiene un codice di errore gRPC e un messaggio di errore.
    • response: se impostato, l'operazione asincrona è stata completata correttamente e il valore riflette il risultato.

Per eseguire il polling di un comando asincrono utilizzando Google Cloud CLI, esegui questo comando:

gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID

Per ulteriori informazioni, vedi gcloud logging operations describe.

Risolvere i problemi comuni

Se riscontri problemi durante l'utilizzo dei bucket di log, consulta i seguenti passaggi di risoluzione dei problemi e le risposte alle domande comuni.

Perché non posso eliminare questo bucket?

Se stai cercando di eliminare un bucket, segui questi passaggi:

  • Assicurati di disporre delle autorizzazioni corrette per eliminare il bucket. Per l'elenco delle autorizzazioni necessarie, consulta Controllo dell'accesso con IAM.

  • Determina se il bucket è bloccato elencando gli attributi del bucket. Se il bucket è bloccato, controlla il periodo di conservazione del bucket. Non puoi eliminare un bucket bloccato finché tutti i log nel bucket non hanno completato il periodo di conservazione del bucket.

  • Verifica che il bucket di log non abbia un set di dati BigQuery collegato. Non puoi eliminare un bucket di log con un set di dati collegato.

    Il seguente errore viene visualizzato in risposta a un comando delete su un bucket di log con un set di dati collegato:

    FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
    

    Per elencare i link associati a un bucket di log, esegui il comando gcloud logging links list o il metodo API projects.locations.buckets.links.list.

Quali account di servizio eseguono il routing dei log al mio bucket?

Per determinare se alcuni account di servizio dispongono di autorizzazioni IAM per instradare i log al bucket, segui questi passaggi:

  1. Nella console Google Cloud, vai alla pagina IAM:

    Vai a IAM

    Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo IAM e amministrazione.

  2. Nella scheda Autorizzazioni, visualizza la scheda per Ruoli. Viene visualizzata una tabella con tutti i ruoli e le entità IAM associati al progetto Google Cloud.

  3. Nella casella di testo Filtro della tabella, inserisci Writer bucket di log.

    Tutte le entità con il ruolo Writer bucket di log sono visualizzate. Se un'entità è un account di servizio, il suo ID contiene la stringa gserviceaccount.com.

  4. (Facoltativo) Se vuoi impedire a un account di servizio di instradare i log al progetto Google Cloud, seleziona la casella di controllo relativa all'account di servizio e fai clic su Rimuovi.

Perché vedo i log di un progetto Google Cloud anche se li ho esclusi dal sink _Default?

È possibile che tu stia visualizzando i log in un bucket di log in un progetto Google Cloud centralizzato, che aggrega i log di tutta l'organizzazione.

Se utilizzi Esplora log per accedere a questi log e vedi i log che hai escluso dal sink _Default, la vista potrebbe essere limitata al livello del progetto Google Cloud.

Per risolvere il problema, seleziona Ambito in base all'archiviazione nel riquadro Perfeziona ambito, quindi seleziona il bucket _Default nel progetto Google Cloud. Non dovresti più visualizzare i log esclusi.

Passaggi successivi

Per informazioni sui metodi dell'API del bucket di log, consulta la documentazione di riferimento di LogBucket.

Per informazioni su come gestire casi d'uso comuni con i bucket di log, consulta i seguenti argomenti: