Questo documento descrive come creare e gestire i bucket Cloud Logging utilizzando
la console Google Cloud, Google Cloud CLI e l'API Logging.
Fornisce inoltre le istruzioni per creare e gestire bucket di log a livello di progetto Google Cloud. Non puoi creare bucket di log a livello di cartella o organizzazione. Tuttavia, Cloud Logging crea automaticamente i bucket _Default
e _Required
a livello di cartella e organizzazione.
Puoi eseguire l'upgrade dei bucket di log per utilizzare Analisi dei log. L'analisi dei log consente di eseguire query SQL sui dati di log, contribuendo a risolvere i problemi relativi ad applicazioni, sicurezza e networking. Puoi utilizzare BigQuery anche per visualizzare i dati archiviati in un bucket di log quando viene eseguito l'upgrade del bucket di log per utilizzare Analisi dei log ed esiste un set di dati BigQuery collegato. La creazione di un set di dati collegato ti consente di unire i dati di log ad altri dati archiviati in BigQuery e di accedere a dati da altri strumenti come Looker Studio e Looker.
Per una panoramica concettuale dei bucket, consulta Panoramica del routing e dell'archiviazione: bucket di log.
Prima di iniziare
Per iniziare a utilizzare i bucket:
Assicurati di aver abilitato la fatturazione per il tuo progetto Google Cloud.
Assicurati che il ruolo Identity and Access Management (IAM) ti conceda le autorizzazioni necessarie per creare, eseguire l'upgrade e collegare i bucket.
Il ruolo Writer configurazione log (
roles/logging.configWriter
) è il ruolo predefinito minimo che concede le autorizzazioni necessarie per gestire i bucket. Per l'elenco completo delle autorizzazioni e dei ruoli, consulta Controllo dell'accesso con IAM.Scopri i requisiti di formattazione di
LogBucket
, incluse le regioni supportate in cui puoi archiviare i log.Valuta la possibilità di impostare una località delle risorse predefinita per applicare una regione di archiviazione predefinita per i bucket
_Required
e_Default
nella tua organizzazione.Per utilizzare BigQuery e visualizzare i dati archiviati in un bucket di log:
Assicurati che l'API BigQuery sia abilitata. Puoi verificare che l'API sia abilitata indicando i servizi disponibili.
Il tuo ruolo Identity and Access Management include le autorizzazioni che ti consentono di creare un set di dati collegato. Per maggiori informazioni, consulta Autorizzazioni per i set di dati BigQuery collegati.
Per informazioni su come creare un bucket di log che utilizza una chiave di crittografia gestita dal cliente (CMEK), consulta Configurare una CMEK per l'archiviazione dei log.
crea un bucket
Puoi creare un massimo di 100 bucket per progetto Google Cloud.
Per creare un bucket di log definito dall'utente per il tuo progetto Google Cloud:
Console Google Cloud
Per creare un bucket di log nel tuo progetto Google Cloud:
-
Nel pannello di navigazione della console Google Cloud, seleziona Logging, quindi Archiviazione dei log:
Fai clic su Crea bucket di log.
Inserisci un nome e una descrizione per il bucket.
(Facoltativo) Esegui l'upgrade del bucket per utilizzare Analisi dei log.
Seleziona Esegui l'upgrade per utilizzare Analisi dei log.
Quando esegui l'upgrade di un bucket per utilizzare Analisi dei log, puoi eseguire query sui log nella pagina Analisi dei log utilizzando query SQL. Puoi anche continuare a visualizzare i log utilizzando Esplora log.
Non tutte le regioni sono supportate per Analisi dei log. Per saperne di più, consulta Regioni supportate.
(Facoltativo) Per visualizzare i log in BigQuery, seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci un nome univoco per il set di dati.
Se selezioni questa opzione, BigQuery può leggere i dati archiviati nel bucket di log. Ora puoi eseguire query nell'interfaccia di BigQuery, dove puoi unire i dati di log e accedere a dati da altri strumenti come Looker Studio e Looker.
(Facoltativo) Per selezionare la regione di archiviazione per i log, fai clic sul menu Seleziona la regione del bucket di log e seleziona una regione. Se non selezioni una regione, viene utilizzata la regione
global
, il che significa che i log potrebbero trovarsi fisicamente in una qualsiasi delle regioni.(Facoltativo) Per impostare un periodo di conservazione personalizzato per i log nel bucket, fai clic su Avanti.
Nel campo Periodo di conservazione, inserisci il numero di giorni, compreso tra 1 e 3650 giorni, in cui Cloud Logging conserva i log. Se non personalizzi il periodo di conservazione, il valore predefinito è
30 days
.Puoi anche aggiornare il bucket per applicare una conservazione personalizzata dopo averlo creato.
Fai clic su Crea bucket.
Dopo la creazione del bucket di log, Logging esegue l'upgrade del bucket e crea il link al set di dati, se queste opzioni sono state selezionate.
Il completamento di questi passaggi potrebbe richiedere alcuni istanti.
gcloud
Per creare solo un bucket di log, esegui il comando gcloud logging buckets create
. Se vuoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, includi i flag --enable-analytics
e --async
e assicurati di impostare la variabile LOCATION su una regione supportata per Analisi dei log:
gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS
Il flag --async
obbliga il comando ad essere asincrono. Il ritorno di un metodo asincrono è un oggetto Operation
che contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation
contiene lo stato. Per ulteriori informazioni, consulta la sezione Metodi dell'API asincrona.
Se non vuoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, ometti i flag --enable-analytics
e --async
. Puoi impostare la variabile LOCATION su qualsiasi regione supportata.
Ad esempio, se vuoi creare un bucket con BUCKET_ID
my-bucket
nella regione asia-east2
, il comando sarà il seguente:
gcloud logging buckets create my-bucket --location asia-east2 --description "My first bucket"
Ad esempio, per creare un bucket con BUCKET_ID
my-upgraded-bucket
nella località us
,
quindi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log,
il comando avrà il seguente aspetto:
gcloud logging buckets create my-upgraded-bucket --location us \ --description "My first upgraded bucket" \ --enable-analytics --retention-days=45
API
Per creare un bucket, usa il metodo projects.locations.buckets.create
o projects.locations.buckets.createAsync
. Prepara gli argomenti del metodo come segue:
Imposta il parametro
parent
come risorsa in cui creare il bucket:projects/PROJECT_ID/locations/LOCATION
La variabile LOCATION si riferisce all'regione in cui vuoi archiviare i log. Non tutte le regioni sono supportate per Analisi dei log. Per saperne di più, consulta Regioni supportate.
Ad esempio, se vuoi creare un bucket per il progetto
my-project
nella regioneasia-east2
, il parametroparent
avrà il seguente aspetto:projects/my-project/locations/asia-east2
Imposta il parametro
bucketId
; ad esempio,my-bucket
.Esegui una di queste operazioni:
Per creare un bucket di log ed eseguire l'upgrade del bucket di log per utilizzare Analisi dei log:
Imposta il valore booleano
LogBucket.analyticsEnabled
sutrue
.Chiama il metodo asincrono
projects.locations.buckets.createAsync
per creare il bucket.La risposta ai metodi asincroni è un oggetto
Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Quando il metodo viene completato, l'oggettoOperation
contiene lo stato. Per ulteriori informazioni, consulta la sezione Metodi dell'API asincrona.Il completamento del metodo
createAsync
richiede diversi minuti. Questo metodo non genera un messaggio di errore o non riesce quando il valore booleanoanalyticsEnabled
è impostato sutrue
e la regione non è supportata per i bucket di cui è stato eseguito l'upgrade. Ad esempio, se imposti la località suasia-east2
, viene creato il bucket di log, ma non viene eseguito l'upgrade del bucket per l'utilizzo di Analisi dei log.
In caso contrario, chiama il metodo sincrono
projects.locations.buckets.create
per creare il bucket.
Dopo aver creato un bucket, crea un sink per instradare le voci di log al tuo bucket e configura le viste dei log per controllare chi può accedere ai log nel nuovo bucket e quali log possono accedervi. Puoi anche aggiornare il bucket per configurare la conservazione personalizzata e i campi con restrizioni.
Monitora il volume dei log archiviati nei bucket di log
La pagina Archiviazione dei log nella console Google Cloud tiene traccia del volume dei dati dei log archiviati nei bucket di log:
Nel pannello di navigazione della console Google Cloud, seleziona Logging, quindi Archiviazione dei log:
La pagina Archiviazione dei log mostra un riepilogo delle statistiche per il tuo progetto Google Cloud:
Vengono riportate le seguenti statistiche:
Importazione del mese corrente: la quantità di dati di log che il tuo progetto Google Cloud ha archiviato nei bucket di log dal primo giorno del mese di calendario in corso.
Importazione del mese precedente: la quantità di dati dei log archiviati dal tuo progetto Google Cloud nei bucket di log nell'ultimo mese di calendario.
Importazione prevista entro la fine del mese di calendario: la quantità stimata di dati di log che il progetto Google Cloud archivierà nei bucket di log entro la fine del mese di calendario corrente, in base all'utilizzo attuale.
Archiviazione fatturabile nel mese corrente: la quantità di dati dei log che sono stati conservati per oltre 30 giorni e che viene fatturata.
Le statistiche precedenti non includono i log nel
bucket _Required
. I log in quel bucket non possono essere esclusi o disabilitati.
La pagina Router dei log nella console Google Cloud offre strumenti che puoi utilizzare per ridurre al minimo i costi per l'archiviazione dei log nei bucket di log o per l'archiviazione superiore all'allocazione mensile. Ecco cosa puoi fare:
- Disabilita l'archiviazione dei log a livello di bucket.
- Escludi determinate voci di log dall'archiviazione nei bucket di log.
Per maggiori informazioni, consulta Gestire i sink.
Gestisci bucket
Questa sezione descrive come gestire i bucket di log utilizzando Google Cloud CLI o la console Google Cloud.
Aggiorna un bucket
Per aggiornare le proprietà del bucket, come la descrizione o il periodo di conservazione:
Console Google Cloud
Per aggiornare le proprietà del bucket:
-
Nel pannello di navigazione della console Google Cloud, seleziona Logging, quindi Archiviazione dei log:
Fai clic su more_vert Altro in corrispondenza del bucket che vuoi aggiornare.
Seleziona Modifica bucket.
Modifica il bucket in base alle tue esigenze.
Fai clic su Aggiorna bucket.
gcloud
Per aggiornare le proprietà del bucket, esegui il comando gcloud logging buckets update
:
gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES
Ad esempio:
gcloud logging buckets update my-bucket --location=global --description "Updated description"
API
Per aggiornare le proprietà del bucket, utilizza projects.locations.buckets.patch
nell'API Logging.
Esegui l'upgrade di un bucket per utilizzare Analisi dei log
Per eseguire l'upgrade di un bucket esistente per utilizzare Analisi dei log, si applicano le seguenti restrizioni:
- Il bucket di log è stato creato a livello di progetto Google Cloud.
- Il bucket di log è sbloccato, a meno che non sia il bucket
_Required
. - Non sono presenti aggiornamenti in attesa per il bucket.
Non tutte le regioni sono supportate per Analisi dei log. Per saperne di più, consulta Regioni supportate.
Console Google Cloud
Per eseguire l'upgrade di un bucket esistente per utilizzare Analisi dei log:
-
Nel pannello di navigazione della console Google Cloud, seleziona Logging, quindi Archiviazione dei log:
Individua il bucket di cui vuoi eseguire l'upgrade.
Quando la colonna Analisi dei log disponibile mostra Upgrade, puoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log. Fai clic su Esegui l'upgrade.
Si apre una finestra di dialogo. Fai clic su Conferma.
gcloud
Per eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, esegui il comando gcloud logging buckets update
. Devi impostare il flag --enable-analytics
e ti consigliamo di includere anche il flag --async
:
gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async
Il flag --async
obbliga il comando ad essere asincrono. Il ritorno di un metodo asincrono è un oggetto Operation
e contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation
contiene lo stato. Per ulteriori informazioni, consulta la sezione Metodi dell'API asincrona.
API
Per eseguire l'upgrade di un bucket di log per l'utilizzo di Analisi dei log, utilizza il metodo projects.locations.buckets.updateAsync
dell'API Cloud Logging.
Prepara gli argomenti del metodo come segue:
- Imposta il valore booleano
LogBucket.analyticsEnabled
sutrue
. - Per il parametro di query del comando, utilizza
updateMask=analyticsEnabled
.
La risposta ai metodi asincroni è un
oggetto Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Quando il metodo viene completato, l'oggetto Operation
contiene lo stato. Per ulteriori informazioni, consulta la sezione Metodi dell'API asincroni.
Il completamento dell'updateAsync
potrebbe richiedere diversi minuti.
Crea un set di dati BigQuery collegato
Se vuoi utilizzare le funzionalità di BigQuery per analizzare i dati di log, esegui l'upgrade di un bucket di log per utilizzare Analisi dei log, quindi crea un set di dati collegato. Con questa configurazione, puoi utilizzare BigQuery per leggere i log archiviati nel bucket di log.
Console Google Cloud
Per creare un collegamento a un set di dati BigQuery per un bucket di log esistente:
Consulta la sezione Prima di iniziare di questo documento.
-
Nel pannello di navigazione della console Google Cloud, seleziona Logging, quindi Archiviazione dei log:
Individua il bucket di log e verifica che la colonna Analisi dei log disponibile mostri Apri.
Se questa colonna mostra Upgrade, significa che non è stato eseguito l'upgrade del bucket di log per utilizzare Analisi dei log. Configura Analisi dei log:
- Fai clic su Esegui l'upgrade.
- Fai clic su Conferma nella finestra di dialogo.
Una volta completato l'upgrade, vai al passaggio successivo.
Nel bucket di log, fai clic su Altromore_vert, quindi su Modifica bucket.
Viene visualizzata la finestra di dialogo Modifica bucket di log.
Seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci il nome del nuovo set di dati.
Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se inserisci il nome di un set di dati esistente, viene visualizzato il seguente errore:
Dataset name must be unique in the selected region.
Fai clic su Fine, quindi su Aggiorna bucket.
Dopo che Logging visualizza il nome del set di dati collegato nella pagina Archiviazione dei log, potrebbero essere necessari diversi minuti prima che BigQuery riconosca il set di dati.
gcloud
Per creare un set di dati collegato per un bucket di log di cui viene eseguito l'upgrade per utilizzare Analisi dei log, esegui il comando gcloud logging links create
:
gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION
Il campo LINK_ID deve essere univoco per il tuo progetto Google Cloud.
Il comando links create
è asincrono. Il ritorno di un metodo asincrono è un oggetto Operation
che contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation
contiene lo stato. Per ulteriori informazioni, consulta la sezione Metodi dell'API asincrona.
Il completamento del comando links create
richiede diversi minuti.
Ad esempio, il seguente comando crea un set di dati collegato per il bucket con il nome my-bucket
:
gcloud logging links create mylink --bucket=my-bucket --location=global
Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se provi a creare un set di dati con lo stesso nome di un set di dati esistente, ricevi il seguente errore:
BigQuery dataset with name "my-bucket" already exists.
Se tenti di creare un set di dati collegato per un bucket di log di cui non viene eseguito l'upgrade per utilizzare Analisi dei log, viene segnalato il seguente errore:
A link can only be created for an analytics-enabled bucket.
API
Per creare un set di dati BigQuery collegato per un bucket di log esistente di cui viene eseguito l'upgrade, utilizza Analisi dei log, chiama il metodo asincrono projects.locations.buckets.links.create
dell'API Cloud Logging.
Prepara gli argomenti del metodo come segue:
- Crea il corpo della richiesta per il comando
create
. Il corpo della richiesta è formattato come oggettoLink
. - Per il parametro di query del comando, utilizza
linkId=LINK_ID
. Il LINK_ID fornito viene utilizzato come nome del set di dati, pertanto LINK_ID condivide lo stesso valore del DATASET_ID solo di output.
La risposta ai metodi asincroni è un
oggetto Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation
contiene lo stato. Per ulteriori informazioni, consulta la sezione Metodi dell'API asincrona.
Il completamento del metodo links.create
richiede diversi minuti.
Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se provi a creare un set di dati con lo stesso nome di un set di dati esistente, ricevi il seguente errore:
BigQuery dataset with name "my-bucket" already exists.
Se tenti di creare un set di dati collegato per un bucket di log di cui non viene eseguito l'upgrade per utilizzare Analisi dei log, viene segnalato il seguente errore:
A link can only be created for an analytics-enabled bucket.
Blocca un bucket
Quando blocchi un bucket in base agli aggiornamenti, blocchi anche il criterio di conservazione del bucket. Dopo che un criterio di conservazione è bloccato, non puoi eliminare il bucket finché ogni voce di log nel bucket non ha completato il periodo di conservazione del bucket.
Per impedire a chiunque di aggiornare o eliminare un bucket di log, blocca il bucket. Per bloccare il bucket:
Console Google Cloud
La console Google Cloud non supporta il blocco di un bucket di log.
gcloud
Per bloccare il bucket, esegui il comando gcloud logging buckets update
con il flag --locked
:
gcloud logging buckets update BUCKET_ID --location=LOCATION --locked
Ad esempio:
gcloud logging buckets update my-bucket --location=global --locked
API
Per bloccare gli attributi del bucket, utilizza projects.locations.buckets.patch
nell'API Logging. Imposta il parametro locked
su true
.
Elenca bucket
Per elencare i bucket di log associati a un progetto Google Cloud e per visualizzare i dettagli, come le impostazioni di conservazione, segui questi passaggi:
Console Google Cloud
Nel pannello di navigazione della console Google Cloud, seleziona Logging, quindi Archiviazione dei log:
In una tabella denominata Bucket dei log sono elencati i bucket associati al progetto Google Cloud corrente.
Nella tabella sono elencati i seguenti attributi per ciascun bucket di log:
- Nome: il nome del bucket di log.
- Descrizione: la descrizione del bucket.
- Periodo di conservazione: il numero di giorni in cui i dati del bucket verranno archiviati da Cloud Logging.
- Regione: la posizione geografica in cui sono archiviati i dati del bucket.
- Stato: indica se il bucket è bloccato o sbloccato.
Se un bucket è in attesa di eliminazione da parte di Cloud Logging, la relativa voce della tabella è annotata con un simbolo di avviso warning.
gcloud
Esegui il comando gcloud logging buckets list
:
gcloud logging buckets list
Per i bucket di log vengono visualizzati i seguenti attributi:
LOCATION
: la regione in cui sono archiviati i dati del bucket.BUCKET_ID
: il nome del bucket di log.RETENTION_DAYS
: il numero di giorni in cui i dati del bucket verranno archiviati da Cloud Logging.LIFECYCLE_STATE
: indica se il bucket è in attesa di eliminazione da parte di Cloud Logging.LOCKED
: indica se il bucket è bloccato o sbloccato.CREATE_TIME
: un timestamp che indica quando è stato creato il bucket.UPDATE_TIME
: un timestamp che indica quando è stato effettuato l'ultima modifica del bucket.
Puoi anche visualizzare gli attributi per un solo bucket. Ad esempio, per visualizzare i dettagli del bucket di log _Default
nella regione global
, esegui il comando gcloud logging buckets describe
:
gcloud logging buckets describe _Default --location=global
API
Per elencare i bucket di log associati a un progetto Google Cloud, utilizza projects.locations.buckets.list
nell'API Logging.
Visualizzare i dettagli di un bucket
Per visualizzare i dettagli di un singolo bucket di log:
Console Google Cloud
Nel pannello di navigazione della console Google Cloud, seleziona Logging, quindi Archiviazione dei log:
Nel bucket di log, fai clic su more_vert Altro, quindi seleziona Visualizza dettagli bucket.
Nella finestra di dialogo sono elencati i seguenti attributi per il bucket di log:
- Nome: il nome del bucket di log.
- Descrizione: la descrizione del bucket di log.
- Periodo di conservazione: il numero di giorni in cui i dati del bucket verranno archiviati da Cloud Logging.
- Regione: la posizione geografica in cui sono archiviati i dati del bucket.
- Analisi dei log: indica se è stato eseguito l'upgrade del bucket per utilizzare Analisi dei log.
- Analisi BigQuery: indica se un set di dati BigQuery è collegato al tuo bucket.
- Set di dati BigQuery: fornisce un link al tuo set di dati BigQuery, che si apre nella pagina BigQuery Studio. Viene visualizzata anche la data di attivazione del collegamento a BigQuery.
gcloud
Esegui il comando gcloud logging buckets describe
.
Ad esempio, il comando seguente segnala i dettagli del bucket _Default
:
gcloud logging buckets describe _Default --location=global
Per il bucket di log vengono visualizzati i seguenti attributi:
createTime
: un timestamp che indica quando è stato creato il bucket.description
: la descrizione del bucket di log.lifecycleState
: indica se il bucket è in attesa di eliminazione da parte di Cloud Logging.name
: il nome del bucket di log.retentionDays
: il numero di giorni in cui i dati del bucket verranno archiviati da Cloud Logging.updateTime
: un timestamp che indica quando è stato effettuato l'ultima modifica del bucket.
API
Per visualizzare i dettagli di un singolo bucket di log, utilizza projects.locations.buckets.get
nell'API Logging.
Elimina un bucket
Per eliminare un bucket di log:
Console Google Cloud
Per eliminare un bucket di log:
-
Nel pannello di navigazione della console Google Cloud, seleziona Logging, quindi Archiviazione dei log:
Individua il bucket che vuoi eliminare e fai clic su more_vertAltro.
Se la colonna Set di dati collegato in BigQuery mostra un collegamento, elimina il set di dati BigQuery collegato:
Fai clic su Modifica bucket.
Deseleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket, fai clic su Fine e poi su Aggiorna bucket.
Quando torni alla pagina Archiviazione dei log, fai clic su more_vertAltro per il bucket da eliminare, quindi vai ai passaggi successivi.
Seleziona Elimina bucket.
Nel riquadro di conferma, fai clic su Elimina.
Nella pagina Archiviazione dei log, il bucket è indicato che è in attesa di eliminazione. Il bucket, inclusi tutti i log al suo interno, viene eliminato dopo 7 giorni.
gcloud
Per eliminare un bucket di log, esegui il comando gcloud logging buckets delete
:
gcloud logging buckets delete BUCKET_ID --location=LOCATION
Non puoi eliminare un bucket di log se quel bucket ha un set di dati BigQuery collegato:
- Per elencare i link associati a un bucket di log, esegui il comando
gcloud logging links list
. - Per eliminare un set di dati collegato, esegui il comando
gcloud logging links delete
.
API
Per eliminare un bucket, utilizza projects.locations.buckets.delete
nell'API Logging.
Eliminare un bucket di log se questo ha un set di dati BigQuery collegato è un errore. Devi eliminare il set di dati collegato prima di eliminare il bucket di log:
- Per elencare i link associati a un bucket di log, esegui il metodo
projects.locations.buckets.links.list
. - Per eliminare un set di dati collegato, esegui il metodo
projects.locations.buckets.links.delete
.
Un bucket eliminato rimane in questo stato di attesa per sette giorni, durante i quali Logging continua a instradare i log al bucket. Per interrompere il routing dei log a un bucket eliminato, puoi eliminare i sink di log che hanno quel bucket come destinazione oppure puoi modificare il filtro per i sink per interrompere il routing dei log al bucket eliminato.
Non puoi creare un nuovo bucket di log con lo stesso nome di un bucket eliminato in stato In attesa.
Ripristina un bucket eliminato
Puoi ripristinare o annullare l'eliminazione di un bucket di log in stato In attesa di eliminazione. Per ripristinare un bucket di log:
Console Google Cloud
Per ripristinare un bucket di log in attesa di eliminazione:
-
Nel pannello di navigazione della console Google Cloud, seleziona Logging, quindi Archiviazione dei log:
In corrispondenza del bucket da ripristinare, fai clic su more_vert Altro, quindi seleziona Ripristina bucket eliminato.
Nel riquadro di conferma, fai clic su Ripristina.
Nella pagina Archiviazione dei log, l'indicatore di eliminazione in attesa viene rimosso dal bucket di log.
gcloud
Per ripristinare un bucket di log in attesa di eliminazione, esegui il comando gcloud logging buckets undelete
:
gcloud logging buckets undelete BUCKET_ID --location=LOCATION
API
Per ripristinare un bucket in attesa di eliminazione, utilizza projects.locations.buckets.undelete
nell'API Logging.
Avviso sui byte di log mensili archiviati nei bucket di log
Per creare un criterio di avviso, nella pagina Archiviazione dei log della console Google Cloud, fai clic su add_alert Crea avviso di utilizzo. Questo pulsante apre la pagina Crea criterio di avviso in Monitoring e compila il campo del tipo di metrica con logging.googleapis.com/billing/bytes_ingested
.
Per creare un criterio di avviso che si attivi quando il numero di byte di log scritti nei bucket di log supera il limite definito dall'utente per Cloud Logging, utilizza le impostazioni seguenti.
Campo Nuova condizione |
Valore |
---|---|
Risorse e metriche | Nel menu Risorse, seleziona Globale. Nel menu Categorie di metriche, seleziona Metrica basata su log. Nel menu Metriche, seleziona By log mensili importati. |
Filtro | Nessuno. |
In tutte le serie temporali Aggregazione di serie temporali |
sum |
Finestra temporale continua | 60 m |
Funzione finestra temporale continua | max |
Configura trigger di avviso Campo |
Valore |
---|---|
Tipo di condizione | Threshold |
Attivazione degli avvisi | Any time series violates |
Posizione soglia | Above threshold |
Valore soglia | Sei tu a determinare il valore accettabile. |
Periodo di nuovo test | Il valore minimo accettabile è di 30 minuti. |
Per ulteriori informazioni sui criteri di avviso, consulta la Panoramica degli avvisi.
Scrivi in un bucket
Non scrivi direttamente i log in un bucket di log. ma scrivi i log sulla risorsa Google Cloud, ovvero un progetto, una cartella o un'organizzazione di Google Cloud. I sink nella risorsa padre instradano i log alle destinazioni, inclusi i bucket di log. Un sink instrada i log a una destinazione del bucket di log quando questi corrispondono al filtro del sink e quest'ultimo dispone dell'autorizzazione per instradare i log al bucket di log.
Lettura da un bucket
Ogni bucket di log ha un insieme di visualizzazioni di log. Per leggere i log da un bucket di log, devi accedere a una visualizzazione di log sul bucket di log. Le visualizzazioni log consentono di concedere a un utente l'accesso solo a un sottoinsieme di log archiviati in un bucket di log. Per informazioni su come configurare le visualizzazioni dei log e su come concedere l'accesso a visualizzazioni specifiche dei log, consulta Configurare le visualizzazioni dei log in un bucket di log.
Per leggere i log da un bucket di log:
Console Google Cloud
-
Nel pannello di navigazione della console Google Cloud, seleziona Logging, quindi Esplora log:
Per personalizzare i log visualizzati in Esplora log, fai clic su Perfeziona ambito, quindi seleziona un'opzione:
Per visualizzare tutti i log generati o instradati direttamente al progetto attuale, seleziona Ambito in base al progetto attuale.
Per visualizzare determinati log archiviati nei bucket di log nel progetto attuale, seleziona Ambito in base all'archiviazione, quindi seleziona una o più viste dei log.
Per visualizzare determinati log archiviati in bucket di log che si trovano in progetti diversi, seleziona Ambito in base all'archiviazione, fai clic su add_circle Importa progetto nel selettore di visualizzazione di progetto e log e seleziona una o più viste log.
Fai clic su Applica. Il riquadro Risultati delle query viene ricaricato con i log corrispondenti all'opzione selezionata.
Per ulteriori informazioni sulla personalizzazione dei log visualizzati in Esplora log, consulta Panoramica di Esplora log: perfezionamento dell'ambito.
gcloud
Per leggere i log da un bucket di log, utilizza il comando gcloud logging read
e aggiungi un LOG_FILTER
per selezionare i dati:
gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID
API
Per leggere i log da un bucket di log, utilizza il metodo entries.list. Imposta resourceNames
per specificare il bucket e la visualizzazione log appropriati, poi imposta filter
per selezionare i dati.
Per informazioni dettagliate sulla sintassi di filtro, consulta Linguaggio delle query di Logging.
Configura la conservazione personalizzata
Quando crei un bucket di log, puoi scegliere di personalizzare il periodo di archiviazione dei log del bucket in Cloud Logging.
Puoi configurare il periodo di conservazione per qualsiasi bucket di log definito dall'utente e anche per il bucket di log _Default
.
Se riduci la durata del periodo di conservazione del bucket, i log scaduti non verranno eliminati con un periodo di tolleranza di 7 giorni. Non puoi eseguire query o visualizzare i log scaduti, ma durante questi 7 giorni puoi ripristinare l'accesso completo estendendo la conservazione del bucket. I log archiviati durante il periodo di tolleranza vengono conteggiati ai fini del calcolo dei costi di conservazione.
Per aggiornare il periodo di conservazione per un bucket di log:
Console Google Cloud
Per aggiornare il periodo di conservazione di un bucket di log:
-
Nel pannello di navigazione della console Google Cloud, seleziona Logging, quindi Archiviazione dei log:
In corrispondenza del bucket che vuoi aggiornare, fai clic su more_vert Altro e poi seleziona Modifica bucket.
Nel campo Conservazione, inserisci il numero di giorni, compreso tra 1 e 3650 giorni, in cui Cloud Logging deve conservare i log.
Fai clic su Aggiorna bucket. La nuova durata di conservazione viene visualizzata nell'elenco Bucket di log.
gcloud
Per aggiornare il periodo di conservazione per un bucket di log, esegui il comando gcloud logging buckets update
, dopo aver impostato un valore per RETENTION_DAYS:
gcloud logging buckets update BUCKET_ID --location=LOCATION --retention-days=RETENTION_DAYS
Ad esempio, per conservare i log nel bucket _Default
nella località global
per un anno, il comando sarebbe il seguente:
gcloud logging buckets update _Default --location=global --retention-days=365
Se estendi il periodo di conservazione di un bucket, le regole di conservazione si applicano sia avanti che retroattivamente. I log non possono essere recuperati dopo il termine del periodo di conservazione applicabile.
Metodi dell'API asincroni
La risposta di un metodo asincrono come
projects.locations.buckets.createAsync
è un oggetto Operation
.
Le applicazioni che chiamano un metodo API asincrono devono eseguire il polling dell'endpoint operation.get
finché il valore del campo Operation.done
non è true
:
Quando
done
èfalse
, l'operazione è in corso.Per aggiornare le informazioni sullo stato, invia una richiesta
GET
all'endpointoperation.get
.Quando
done
ètrue
, l'operazione è completata e viene impostato il campoerror
oresponse
:error
: se impostato, l'operazione asincrona non è riuscita. Il valore di questo campo è un oggettoStatus
che contiene un codice di errore gRPC e un messaggio di errore.response
: una volta impostato, l'operazione asincrona è stata completata correttamente e il valore riflette il risultato.
Per eseguire il polling di un comando asincrono utilizzando Google Cloud CLI, esegui questo comando:
gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID
Per ulteriori informazioni, vedi gcloud logging operations describe
.
Risolvere i problemi comuni
Se si verificano problemi durante l'utilizzo dei bucket di log, consulta i seguenti passaggi per la risoluzione dei problemi e le risposte alle domande più comuni.
Perché non posso eliminare questo bucket?
Se stai cercando di eliminare un bucket:
Assicurati di disporre delle autorizzazioni corrette per eliminare il bucket. Per l'elenco delle autorizzazioni necessarie, consulta Controllo dell'accesso con IAM.
Determina se il bucket è bloccato inviando un elenco degli attributi del bucket. Se il bucket è bloccato, controlla il periodo di conservazione del bucket. Non puoi eliminare un bucket bloccato finché tutti i log del bucket non hanno completato il periodo di conservazione.
Verifica che il bucket di log non abbia un set di dati BigQuery collegato. Non puoi eliminare un bucket di log con un set di dati collegato.
Il seguente errore viene visualizzato in risposta a un comando
delete
su un bucket di log con un set di dati collegato:FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
Per elencare i link associati a un bucket di log, esegui il comando
gcloud logging links list
o il metodo APIprojects.locations.buckets.links.list
.
Quali account di servizio stanno eseguendo il routing dei log al mio bucket?
Per determinare se eventuali account di servizio dispongono delle autorizzazioni IAM per instradare i log al tuo bucket:
-
Nel pannello di navigazione della console Google Cloud, seleziona IAM:
Nella scheda Autorizzazioni, visualizza la voce in base a Ruoli. Viene visualizzata una tabella con tutti i ruoli e le entità IAM associati al tuo progetto Google Cloud.
Nella casella di testo Filtro filter_list della tabella, inserisci Writer bucket di log.
Vengono visualizzate tutte le entità con il ruolo Writer bucket di log. Se un'entità è un account di servizio, il suo ID contiene la stringa
gserviceaccount.com
.(Facoltativo) Se vuoi impedire a un account di servizio di indirizzare i log al tuo progetto Google Cloud, seleziona la casella di controllo check_box_outline_blank relativa all'account di servizio e fai clic su Rimuovi.
Perché vedo i log di un progetto Google Cloud anche se li ho esclusi dal sink _Default
?
È possibile che tu stia visualizzando i log in un bucket di log di un progetto Google Cloud centralizzato, che aggrega i log di tutta la tua organizzazione.
Se utilizzi Esplora log per accedere a questi log e visualizzare i log che hai escluso dal sink _Default
, la visualizzazione potrebbe essere limitata al livello di progetto Google Cloud.
Per risolvere il problema, seleziona Ambito in base all'archiviazione nel riquadro Perfeziona ambito, quindi seleziona il bucket _Default
nel progetto Google Cloud. I log esclusi non dovrebbero più essere visualizzati.
Passaggi successivi
Per informazioni sui metodi dell'API per i bucket di log, consulta la documentazione di riferimento di LogBucket
.
Per informazioni su come gestire casi d'uso comuni con i bucket di log, consulta i seguenti argomenti: