Questo documento descrive come creare e gestire i bucket Cloud Logging utilizzando la console Google Cloud, Google Cloud CLI e l'API Logging.
Fornisce inoltre le istruzioni per creare e gestire i bucket di log a livello di progetto Google Cloud. Non puoi creare bucket di log a livello di cartella o organizzazione; tuttavia, Cloud Logging crea automaticamente bucket _Default
e _Required
a livello di cartella e organizzazione al posto tuo.
Puoi eseguire l'upgrade dei bucket di log per utilizzare Analisi dei log. L'analisi dei log consente di eseguire query SQL sui dati di log, per risolvere i problemi relativi all'applicazione, alla sicurezza e al networking.
Per utilizzare BigQuery per analizzare i dati di log, hai due opzioni:
Esegui l'upgrade di un bucket di log per utilizzare Analisi dei log e poi creare un set di dati BigQuery collegato. In questo scenario, Logging archivia i tuoi dati di log, ma BigQuery può leggerli.
Esporta le voci di log in BigQuery. In questo scenario, devi creare un sink, BigQuery archivia e gestisce i dati e hai la possibilità di utilizzare tabelle partizionate.
Quando i dati di log sono disponibili per BigQuery, puoi combinarli con altri dati archiviati in BigQuery e accedervi da altri strumenti come Looker Studio e Looker.
Per una panoramica concettuale dei bucket, consulta Panoramica del routing e dell'archiviazione: bucket di log.
Prima di iniziare
Per iniziare a utilizzare i bucket, segui questi passaggi:
Assicurati di aver abilitato la fatturazione per il tuo progetto Google Cloud.
Assicurati che il ruolo Identity and Access Management (IAM) ti conceda le autorizzazioni necessarie per creare, eseguire l'upgrade e collegare i bucket.
Il ruolo Writer configurazione log (
roles/logging.configWriter
) è il ruolo minimo predefinito che concede le autorizzazioni necessarie per gestire i bucket. Per l'elenco completo delle autorizzazioni e dei ruoli, consulta Controllo dell'accesso con IAM.Comprendere i requisiti di formattazione di
LogBucket
, incluse le regioni supportate in cui puoi archiviare i log.Valuta la possibilità di impostare una località predefinita delle risorse per applicare una regione di archiviazione predefinita per i bucket
_Required
e_Default
nella tua organizzazione.Per utilizzare BigQuery per visualizzare i dati archiviati in un bucket di log:
Assicurati che l'API BigQuery sia abilitata. Puoi verificare che l'API sia abilitata elencando i servizi disponibili.
Il tuo ruolo Identity and Access Management include le autorizzazioni che consentono di creare un set di dati collegato. Per maggiori informazioni, consulta Autorizzazioni per i set di dati BigQuery collegati.
Per informazioni su come creare un bucket di log che utilizza una chiave di crittografia gestita dal cliente (CMEK), consulta Configurare CMEK per l'archiviazione dei log.
Crea un bucket
Puoi creare un massimo di 100 bucket per progetto Google Cloud.
Per creare un bucket di log definito dall'utente per il tuo progetto Google Cloud, segui questi passaggi:
Console Google Cloud
Per creare un bucket di log nel tuo progetto Google Cloud, segui questi passaggi:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Fai clic su Crea bucket di log.
Inserisci un nome e una descrizione per il tuo bucket.
(Facoltativo) Esegui l'upgrade del bucket per utilizzare Analisi dei log.
Seleziona Esegui l'upgrade per utilizzare Analisi dei log.
Quando esegui l'upgrade di un bucket per utilizzare Analisi dei log, puoi eseguire query sui log nella pagina Analisi dei log utilizzando query SQL. Puoi anche continuare a visualizzare i log utilizzando Esplora log.
Non tutte le regioni sono supportate per Analisi dei log. Per maggiori informazioni, consulta Regioni supportate.
(Facoltativo) Per visualizzare i log in BigQuery, seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci un nome univoco per il set di dati.
Se selezioni questa opzione, BigQuery può leggere i dati archiviati nel tuo bucket di log. Ora puoi eseguire query nell'interfaccia di BigQuery, dove puoi unire i dati di log e anche accedere ai dati di altri strumenti come Looker Studio e Looker.
(Facoltativo) Per selezionare la regione di archiviazione per i log, fai clic sul menu Seleziona regione del bucket di log e seleziona una regione. Se non selezioni una regione, viene utilizzata la regione
global
, il che significa che i log potrebbero trovarsi fisicamente in una qualsiasi delle regioni.(Facoltativo) Per impostare un periodo di conservazione personalizzato per i log nel bucket, fai clic su Avanti.
Nel campo Periodo di conservazione, inserisci il numero di giorni, compreso tra 1 e 3650 giorni, in cui Cloud Logging deve conservare i log. Se non personalizzi il periodo di conservazione, il valore predefinito è
30 days
.Puoi anche aggiornare il bucket per applicare la conservazione personalizzata dopo la creazione.
Fai clic su Crea bucket.
Dopo aver creato il bucket di log, Logging esegue l'upgrade del bucket e crea il link al set di dati, se queste opzioni sono state selezionate.
Il completamento di questi passaggi potrebbe richiedere alcuni istanti.
gcloud
Per creare solo un bucket di log, esegui il comando gcloud logging buckets create
. Se vuoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, includi i flag --enable-analytics
e --async
e assicurati di impostare la variabile LOCATION su una regione supportata per Analisi dei log:
gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS
Il flag --async
forza il comando
a essere asincrono. La restituzione di un metodo asincrono è un oggetto Operation
, che contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation
conterrà lo stato. Per maggiori
informazioni, consulta i metodi dell'API asincrona.
Se non vuoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, ometti i flag --enable-analytics
e --async
. Puoi impostare la variabile LOCATION su qualsiasi regione supportata.
Ad esempio, se vuoi creare un bucket con BUCKET_ID
my-bucket
nella regione asia-east2
, il comando sarà simile al seguente:
gcloud logging buckets create my-bucket --location asia-east2 --description "My first bucket"
Ad esempio, per creare un bucket con BUCKET_ID
my-upgraded-bucket
nella località us
ed eseguire l'upgrade del bucket di log per utilizzare Analisi dei log,
il tuo comando avrà il seguente aspetto:
gcloud logging buckets create my-upgraded-bucket --location us \ --description "My first upgraded bucket" \ --enable-analytics --retention-days=45
API
Per creare un bucket, utilizza il metodo projects.locations.buckets.create
o projects.locations.buckets.createAsync
. Prepara gli argomenti per il metodo come segue:
Imposta il parametro
parent
come risorsa in cui creare il bucket:projects/PROJECT_ID/locations/LOCATION
La variabile LOCATION fa riferimento alla regione in cui vuoi archiviare i log. Non tutte le regioni sono supportate per Analisi dei log. Per maggiori informazioni, consulta Regioni supportate.
Ad esempio, se vuoi creare un bucket per il progetto
my-project
nella regioneasia-east2
, il parametroparent
sarà simile al seguente:projects/my-project/locations/asia-east2
Imposta il parametro
bucketId
, ad esempiomy-bucket
.Esegui una di queste operazioni:
Per creare un bucket di log ed eseguire l'upgrade del bucket di log per utilizzare Analisi dei log:
Imposta il valore booleano
LogBucket.analyticsEnabled
sutrue
.Chiama il metodo asincrono
projects.locations.buckets.createAsync
per creare il bucket.La risposta ai metodi asincroni è un oggetto
Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Al completamento del metodo, l'oggettoOperation
contiene lo stato. Per maggiori informazioni, consulta i metodi dell'API asincrona.Il completamento del metodo
createAsync
richiede diversi minuti. Questo metodo non genera un messaggio di errore o non riesce quando il valore booleanoanalyticsEnabled
è impostato sutrue
e la regione non è supportata per i bucket di cui è stato eseguito l'upgrade. Ad esempio, se imposti la località suasia-east2
, il bucket di log viene creato, ma non viene eseguito l'upgrade del bucket per l'utilizzo di Analisi dei log.
In caso contrario, chiama il metodo sincrono
projects.locations.buckets.create
per creare il bucket.
Dopo aver creato un bucket, crea un sink per instradare le voci di log al bucket e configura le visualizzazioni dei log per controllare chi può accedere ai log nel nuovo bucket e quali log sono accessibili. Puoi anche aggiornare il bucket per configurare la conservazione personalizzata e i campi con restrizioni.
Tieni traccia del volume dei log archiviati nei bucket di log
La pagina Archiviazione dei log nella console Google Cloud monitora il volume dei dati dei log archiviati nei bucket di log:
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
La pagina Archiviazione dei log mostra un riepilogo delle statistiche per il tuo progetto Google Cloud:
Vengono segnalate le seguenti statistiche:
Importazione del mese corrente: la quantità di dati dei log che il tuo progetto Google Cloud ha archiviato nei bucket di log dal primo giorno del mese di calendario corrente.
Importazione mese precedente: la quantità di dati dei log archiviati dal tuo progetto Google Cloud nei bucket di log nell'ultimo mese di calendario.
Importazione prevista da EOM: la quantità stimata di dati di log che il progetto Google Cloud archivierà nei bucket di log entro la fine del mese di calendario corrente, in base all'utilizzo attuale.
Archiviazione fatturabile nel mese corrente: la quantità di dati dei log conservati per oltre 30 giorni che viene fatturata.
Le statistiche precedenti non includono i log nel bucket _Required
. I log nel bucket non possono essere esclusi o disabilitati.
La pagina Router dei log della console Google Cloud ti offre strumenti che puoi utilizzare per ridurre al minimo eventuali addebiti per l'archiviazione dei log nei bucket di log o per l'archiviazione superiore all'allocazione mensile. Puoi:
- Disabilita l'archiviazione dei log a livello di bucket.
- Escludere determinate voci di log dall'archiviazione nei bucket di log.
Per maggiori informazioni, consulta Gestire i sink.
Gestisci bucket
Questa sezione descrive come gestire i bucket di log utilizzando Google Cloud CLI o la console Google Cloud.
Aggiorna un bucket
Per aggiornare le proprietà del bucket, come la descrizione o il periodo di conservazione, segui questi passaggi:
Console Google Cloud
Per aggiornare le proprietà del bucket:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
In corrispondenza del bucket da aggiornare, fai clic su more_vert Altro.
Seleziona Modifica bucket.
Modifica il bucket in base alle tue esigenze.
Fai clic su Aggiorna bucket.
gcloud
Per aggiornare le proprietà del bucket, esegui il comando gcloud logging buckets update
:
gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES
Ad esempio:
gcloud logging buckets update my-bucket --location=global --description "Updated description"
API
Per aggiornare le proprietà del bucket, utilizza projects.locations.buckets.patch
nell'API Logging.
Esegui l'upgrade di un bucket per utilizzare Analisi dei log
Per eseguire l'upgrade di un bucket esistente per utilizzare Analisi dei log, si applicano le seguenti restrizioni:
- Il bucket di log è stato creato a livello di progetto Google Cloud.
- Il bucket di log è sbloccato, a meno che non sia il bucket
_Required
. - Non ci sono aggiornamenti in attesa per il bucket.
Non tutte le regioni sono supportate per Analisi dei log. Per maggiori informazioni, consulta Regioni supportate.
Console Google Cloud
Per eseguire l'upgrade di un bucket esistente per utilizzare Analisi dei log:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Individua il bucket di cui vuoi eseguire l'upgrade.
Quando la colonna Analisi dei log disponibile mostra Upgrade, puoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log. Fai clic su Esegui l'upgrade.
Si apre una finestra di dialogo. Fai clic su Conferma.
gcloud
Per eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, esegui il comando gcloud logging buckets update
. Devi impostare il flag --enable-analytics
e ti consigliamo di includere anche il flag --async
:
gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async
Il flag --async
forza il comando
a essere asincrono. Il ritorno di un metodo asincrono è un oggetto Operation
e contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation
conterrà lo stato. Per maggiori
informazioni, consulta i metodi dell'API asincrona.
API
Per eseguire l'upgrade di un bucket di log per utilizzare Analisi dei log, usa il metodo projects.locations.buckets.updateAsync
dell'API Cloud Logging.
Prepara gli argomenti per il metodo come segue:
- Imposta il valore booleano
LogBucket.analyticsEnabled
sutrue
. - Per il parametro di query del comando, utilizza
updateMask=analyticsEnabled
.
La risposta ai metodi asincroni è un
oggetto Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Al completamento del metodo, l'oggetto Operation
contiene lo stato. Per maggiori informazioni,
consulta Metodi dell'API asincrona.
Il completamento di updateAsync
potrebbe richiedere diversi minuti.
crea un set di dati BigQuery collegato
Se vuoi utilizzare le funzionalità di BigQuery per analizzare i dati di log, esegui l'upgrade di un bucket di log per utilizzare Analisi dei log e poi crea un set di dati collegato. Con questa configurazione, Logging archivia i tuoi dati di log, ma BigQuery può leggerli.
Console Google Cloud
Per creare un collegamento a un set di dati BigQuery per un bucket di log esistente, segui questi passaggi:
Consulta la sezione Prima di iniziare di questo documento.
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Individua il bucket di log e verifica che la colonna Analisi dei log disponibile mostri Apri.
Se questa colonna mostra Upgrade, significa che l'upgrade del bucket di log non è stato eseguito per utilizzare Analisi dei log. Configura l'analisi dei log:
- Fai clic su Esegui l'upgrade.
- Fai clic su Conferma nella finestra di dialogo.
Una volta completato l'upgrade, vai al passaggio successivo.
Nel bucket di log, fai clic su Altromore_vert e poi su Modifica bucket.
Si apre la finestra di dialogo Modifica bucket di log.
Seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci il nome del nuovo set di dati.
Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se inserisci il nome di un set di dati esistente, viene visualizzato il seguente errore:
Dataset name must be unique in the selected region.
Fai clic su Fine, quindi su Aggiorna bucket.
Dopo che Logging ha visualizzato il nome del set di dati collegato nella pagina Archiviazione dei log, potrebbero essere necessari diversi minuti prima che BigQuery riconosca il set di dati.
gcloud
Per creare un set di dati collegato per un bucket di log di cui è stato eseguito l'upgrade per utilizzare Analisi dei log, esegui il comando gcloud logging links create
:
gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION
Il campo LINK_ID deve essere univoco per il tuo progetto Google Cloud.
Il comando links create
è asincrono. La restituzione di un metodo asincrono è un oggetto Operation
e contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation
conterrà lo stato. Per maggiori
informazioni, consulta i metodi dell'API asincrona.
Il completamento del comando links create
richiede diversi minuti.
Ad esempio, il seguente comando crea un set di dati collegato per il bucket con il nome my-bucket
:
gcloud logging links create mylink --bucket=my-bucket --location=global
Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se tenti di creare un set di dati con lo stesso nome di un set di dati esistente, ricevi il seguente errore:
BigQuery dataset with name "my-bucket" already exists.
Se tenti di creare un set di dati collegato per un bucket di log di cui non è stato eseguito l'upgrade per utilizzare Analisi dei log, viene segnalato il seguente errore:
A link can only be created for an analytics-enabled bucket.
API
Per creare un set di dati BigQuery collegato per un bucket di log esistente di cui viene eseguito l'upgrade, utilizza Analisi dei log, chiama il metodo projects.locations.buckets.links.create
asincrono dell'API Cloud Logging.
Prepara gli argomenti per il metodo come segue:
- Crea il corpo della richiesta per il comando
create
. Il corpo della richiesta è formattato come un oggettoLink
. - Per il parametro di query del comando, utilizza
linkId=LINK_ID
. Il LINK_ID fornito viene utilizzato come nome del set di dati, pertanto LINK_ID condivide lo stesso valore DATASET_ID solo di output.
La risposta ai metodi asincroni è un
oggetto Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Una volta completato il metodo, l'oggetto Operation
conterrà lo stato. Per maggiori
informazioni, consulta i metodi dell'API asincrona.
Il completamento del metodo links.create
richiede diversi minuti.
Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se tenti di creare un set di dati con lo stesso nome di un set di dati esistente, ricevi il seguente errore:
BigQuery dataset with name "my-bucket" already exists.
Se tenti di creare un set di dati collegato per un bucket di log di cui non è stato eseguito l'upgrade per utilizzare Analisi dei log, viene segnalato il seguente errore:
A link can only be created for an analytics-enabled bucket.
Blocca un bucket
Quando blocchi gli aggiornamenti di un bucket, blocchi anche il criterio di conservazione del bucket. Dopo il blocco di un criterio di conservazione, non puoi eliminare il bucket finché ogni voce di log nel bucket non ha soddisfatto il periodo di conservazione del bucket.
Blocca il bucket per impedire a chiunque di aggiornare o eliminare un bucket di log. Per bloccare il bucket:
Console Google Cloud
La console Google Cloud non supporta il blocco di un bucket di log.
gcloud
Per bloccare il bucket, esegui il comando gcloud logging buckets update
con il flag --locked
:
gcloud logging buckets update BUCKET_ID --location=LOCATION --locked
Ad esempio:
gcloud logging buckets update my-bucket --location=global --locked
API
Per bloccare gli attributi del bucket, utilizza projects.locations.buckets.patch
nell'API Logging. Imposta il parametro locked
su true
.
Elenca bucket
Per elencare i bucket di log associati a un progetto Google Cloud e visualizzare i dettagli, ad esempio le impostazioni di conservazione, segui questi passaggi:
Console Google Cloud
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Una tabella denominata Bucket di log elenca i bucket associati al progetto Google Cloud attuale.
La tabella elenca i seguenti attributi per ciascun bucket di log:
- Nome: il nome del bucket di log.
- Descrizione: la descrizione del bucket.
- Periodo di conservazione: il numero di giorni in cui i dati del bucket verranno archiviati da Cloud Logging.
- Regione: la posizione geografica in cui sono archiviati i dati del bucket.
- Stato: indica se il bucket è bloccato o sbloccato.
Se un bucket è in attesa di eliminazione da parte di Cloud Logging, la relativa voce della tabella viene annotata con un simbolo di avviso warning.
gcloud
Esegui il comando gcloud logging buckets list
:
gcloud logging buckets list
Vengono visualizzati i seguenti attributi per i bucket di log:
LOCATION
: la regione in cui sono archiviati i dati del bucket.BUCKET_ID
: il nome del bucket di log.RETENTION_DAYS
: il numero di giorni in cui Cloud Logging archivia i dati del bucket.LIFECYCLE_STATE
: indica se il bucket è in attesa di eliminazione da parte di Cloud Logging.LOCKED
: indica se il bucket è bloccato o sbloccato.CREATE_TIME
: un timestamp che indica quando è stato creato il bucket.UPDATE_TIME
: un timestamp che indica la data dell'ultima modifica del bucket.
Puoi anche visualizzare gli attributi di un solo bucket. Ad esempio, per visualizzare
i dettagli del bucket di log _Default
nella regione global
, esegui il
comando gcloud logging buckets describe
:
gcloud logging buckets describe _Default --location=global
API
Per elencare i bucket di log associati a un progetto Google Cloud, utilizza projects.locations.buckets.list
nell'API Logging.
Visualizza i dettagli di un bucket
Per visualizzare i dettagli di un singolo bucket di log:
Console Google Cloud
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Nel bucket di log, fai clic su more_vert Altro, quindi seleziona Visualizza dettagli bucket.
La finestra di dialogo elenca i seguenti attributi per il bucket di log:
- Nome: il nome del bucket di log.
- Descrizione: la descrizione del bucket di log.
- Periodo di conservazione: il numero di giorni in cui i dati del bucket verranno archiviati da Cloud Logging.
- Regione: la posizione geografica in cui sono archiviati i dati del bucket.
- Analisi dei log: indica se è stato eseguito l'upgrade del bucket per l'utilizzo di Analisi dei log.
- Analisi BigQuery: indica se un set di dati BigQuery è collegato al tuo bucket.
- Set di dati BigQuery: fornisce un link al tuo set di dati BigQuery, che si apre nella pagina BigQuery Studio. Viene mostrata anche la data in cui è stato attivato il collegamento a BigQuery.
gcloud
Esegui il comando gcloud logging buckets describe
.
Ad esempio, il seguente comando riporta i dettagli del bucket _Default
:
gcloud logging buckets describe _Default --location=global
Vedrai i seguenti attributi per il bucket di log:
createTime
: un timestamp che indica quando è stato creato il bucket.description
: la descrizione del bucket di log.lifecycleState
: indica se il bucket è in attesa di eliminazione da parte di Cloud Logging.name
: il nome del bucket di log.retentionDays
: il numero di giorni in cui Cloud Logging archivia i dati del bucket.updateTime
: un timestamp che indica la data dell'ultima modifica del bucket.
API
Per visualizzare i dettagli di un singolo bucket di log, utilizza projects.locations.buckets.get
nell'API Logging.
Elimina un bucket
Per eliminare un bucket di log:
Console Google Cloud
Per eliminare un bucket di log:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Individua il bucket che vuoi eliminare e fai clic su more_vertAltro.
Se la colonna Set di dati collegato in BigQuery mostra un link, elimina il set di dati BigQuery collegato:
Fai clic su Modifica bucket.
Deseleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket, fai clic su Fine, quindi su Aggiorna bucket.
Dopo essere tornato alla pagina Archiviazione dei log, fai clic su more_vertAltro per il bucket da eliminare, quindi vai ai passaggi successivi.
Seleziona Elimina bucket.
Nel riquadro di conferma, fai clic su Elimina.
Nella pagina Archiviazione dei log, il bucket mostra che è in attesa di eliminazione. Il bucket, inclusi tutti i log al suo interno, viene eliminato dopo 7 giorni.
gcloud
Per eliminare un bucket di log, esegui il
comando gcloud logging buckets delete
:
gcloud logging buckets delete BUCKET_ID --location=LOCATION
Non puoi eliminare un bucket di log se al bucket è collegato un set di dati BigQuery:
- Per elencare i link associati a un bucket di log, esegui il comando
gcloud logging links list
. - Per eliminare un set di dati collegato, esegui il comando
gcloud logging links delete
.
API
Per eliminare un bucket, utilizza projects.locations.buckets.delete
nell'API Logging.
Eliminare un bucket di log se questo bucket ha un set di dati BigQuery collegato è un errore. Prima di eliminare il bucket di log, devi eliminare il set di dati collegato:
- Per elencare i link associati a un bucket di log, esegui il metodo
projects.locations.buckets.links.list
. - Per eliminare un set di dati collegato, esegui il metodo
projects.locations.buckets.links.delete
.
Un bucket eliminato rimane in questo stato di attesa per 7 giorni e Logging continua a indirizzare i log al bucket durante questo lasso di tempo. Per interrompere il routing dei log su un bucket eliminato, puoi eliminare i sink di log che hanno quel bucket come destinazione oppure modificare il filtro dei sink per interrompere il routing dei log nel bucket eliminato.
Non puoi creare un nuovo bucket di log che utilizza lo stesso nome di un bucket eliminato in stato In attesa.
Ripristina un bucket eliminato
Puoi ripristinare o annullare l'eliminazione di un bucket di log che si trova nello stato In attesa di eliminazione. Per ripristinare un bucket di log, segui questi passaggi:
Console Google Cloud
Per ripristinare un bucket di log in attesa di eliminazione, segui questi passaggi:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Per il bucket da ripristinare, fai clic su more_vert Altro e seleziona Ripristina bucket eliminato.
Nel riquadro di conferma, fai clic su Ripristina.
Nella pagina Archiviazione dei log, l'indicatore In attesa di eliminazione viene rimosso dal bucket di log.
gcloud
Per ripristinare un bucket di log in attesa di eliminazione, esegui il comando gcloud logging buckets undelete
:
gcloud logging buckets undelete BUCKET_ID --location=LOCATION
API
Per ripristinare un bucket in attesa di eliminazione, utilizza projects.locations.buckets.undelete
nell'API Logging.
Avviso sui byte di log mensili archiviati nei bucket di log
Per creare un criterio di avviso, fai clic su add_alert Crea avviso di utilizzo nella pagina Archiviazione dei log della console Google Cloud. Questo
pulsante apre la pagina Crea criterio di avviso in Monitoring
e compila il campo del tipo di metrica con
logging.googleapis.com/billing/bytes_ingested
.
Per creare un criterio di avviso che si attiva quando il numero di byte di log scritti nei bucket di log supera il limite definito dall'utente per Cloud Logging, utilizza le impostazioni seguenti.
Nuovo campo condizione |
Valore |
---|---|
Risorsa e metrica | Nel menu Risorse, seleziona Globale. Nel menu Categorie di metriche, seleziona Metrica basata su log. Nel menu Metriche, seleziona Rileva byte di log mensili importati. |
Filtro | Nessuno. |
In più serie temporali Aggregazione di serie temporali |
sum |
Finestra scorrevole | 60 m |
Funzione finestra temporale continua | max |
Campo Configura trigger avviso |
Valore |
---|---|
Tipo di condizione | Threshold |
Trigger di avviso | Any time series violates |
Posizione soglia | Above threshold |
Valore soglia | Sei tu a determinare il valore accettabile. |
Finestra di nuovo test | Il valore minimo accettabile è di 30 minuti. |
Per ulteriori informazioni sui criteri di avviso, consulta Panoramica degli avvisi.
Scrivi in un bucket
Non devi scrivere direttamente i log in un bucket di log. Piuttosto, scrivi i log nella risorsa Google Cloud: un progetto, una cartella o un'organizzazione Google Cloud. I sink nella risorsa padre instradano i log alle destinazioni, inclusi i bucket di log. Un sink instrada i log a una destinazione del bucket di log quando corrispondono al filtro del sink e il sink ha l'autorizzazione per instradare i log al bucket di log.
Lettura da un bucket
Ogni bucket di log ha un insieme di visualizzazioni di log. Per leggere i log da un bucket di log, devi accedere a una visualizzazione del log nel bucket di log. Le visualizzazioni dei log consentono di concedere a un utente l'accesso solo a un sottoinsieme dei log archiviati in un bucket di log. Per informazioni su come configurare le visualizzazioni dei log e concedere l'accesso a viste di log specifiche, consulta Configurare le visualizzazioni dei log su un bucket di log.
Per leggere i log da un bucket di log, segui questi passaggi:
Console Google Cloud
-
Nella console Google Cloud, vai alla pagina Esplora log:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Per personalizzare i log visualizzati in Esplora log, fai clic su Perfeziona ambito e seleziona un'opzione:
Per visualizzare tutti i log generati o indirizzati direttamente al progetto attuale, seleziona Ambito in base al progetto attuale.
Per visualizzare determinati log archiviati nei bucket di log nel progetto attuale, seleziona Ambito in base all'archiviazione, quindi seleziona una o più visualizzazioni di log.
Per visualizzare determinati log archiviati in bucket di log in progetti diversi, seleziona Ambito per archiviazione, fai clic su add_circle Importa progetto nel selettore di progetti e viste log, quindi seleziona una o più visualizzazioni di log.
Fai clic su Applica. Il riquadro Risultati delle query viene ricaricato con i log corrispondenti all'opzione selezionata.
Per saperne di più sulla personalizzazione dei log visualizzati in Esplora log, consulta Panoramica di Esplora log: perfeziona l'ambito.
gcloud
Per leggere i log da un bucket di log, utilizza il comando gcloud logging read
e aggiungi un elemento LOG_FILTER
per selezionare i dati:
gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID
API
Per leggere i log da un bucket di log, utilizza il metodo entries.list. Imposta resourceNames
per specificare il bucket e la vista log appropriati e imposta filter
per selezionare i dati.
Per informazioni dettagliate sulla sintassi dei filtri, consulta Linguaggio di query di Logging.
Configura la conservazione personalizzata
Quando crei un bucket di log, puoi scegliere di
personalizzare il periodo per quanto tempo Cloud Logging archivia i log del bucket.
Puoi configurare il periodo di conservazione per qualsiasi bucket di log definito dall'utente e anche per il bucket di log _Default
.
Se riduci la conservazione del bucket, esiste un periodo di tolleranza di 7 giorni in cui i log scaduti non vengono eliminati. Non puoi eseguire query o visualizzare i log scaduti, ma in questi 7 giorni puoi ripristinare l'accesso completo estendendo la conservazione del bucket. I log archiviati durante il periodo di tolleranza vengono conteggiati ai fini dei costi di conservazione.
Per aggiornare il periodo di conservazione per un bucket di log:
Console Google Cloud
Per aggiornare il periodo di conservazione di un bucket di log:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Per il bucket da aggiornare, fai clic su more_vert Altro e seleziona Modifica bucket.
Nel campo Conservazione, inserisci il numero di giorni, compresi tra 1 e 3650 giorni, in cui Cloud Logging deve conservare i log.
Fai clic su Aggiorna bucket. La nuova durata di conservazione viene visualizzata nell'elenco Bucket di log.
gcloud
Per aggiornare il periodo di conservazione per un bucket di log, esegui il comando gcloud logging buckets update
dopo aver impostato un valore per RETENTION_DAYS:
gcloud logging buckets update BUCKET_ID --location=LOCATION --retention-days=RETENTION_DAYS
Ad esempio, per conservare i log nel bucket _Default
nella località global
per un anno, il tuo comando avrà il seguente aspetto:
gcloud logging buckets update _Default --location=global --retention-days=365
Se estendi il periodo di conservazione di un bucket, le regole di conservazione verranno applicate in futuro e non in modo retroattivo. Non è possibile recuperare i log al termine del periodo di conservazione applicabile.
Metodi dell'API asincrona
La risposta di un metodo asincrono come projects.locations.buckets.createAsync
è un oggetto Operation
.
Le applicazioni che chiamano un metodo API asincrono devono eseguire il polling
dell'endpoint operation.get
finché il
valore del campo Operation.done
non è true
:
Quando il valore del campo
done
èfalse
, l'operazione è in corso.Per aggiornare le informazioni sullo stato, invia una richiesta
GET
all'endpointoperation.get
.Quando
done
ètrue
, l'operazione viene completata e viene impostato il campoerror
oresponse
:error
: se impostato, l'operazione asincrona non è riuscita. Il valore di questo campo è un oggettoStatus
che contiene un codice di errore gRPC e un messaggio di errore.response
: se impostato, l'operazione asincrona è stata completata correttamente e il valore riflette il risultato.
Per eseguire il polling di un comando asincrono utilizzando Google Cloud CLI, esegui questo comando:
gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID
Per ulteriori informazioni, vedi gcloud logging operations describe
.
Risolvere i problemi comuni
Se riscontri problemi durante l'utilizzo dei bucket di log, consulta i seguenti passaggi di risoluzione dei problemi e le risposte alle domande comuni.
Perché non posso eliminare questo bucket?
Se stai cercando di eliminare un bucket, segui questi passaggi:
Assicurati di disporre delle autorizzazioni corrette per eliminare il bucket. Per l'elenco delle autorizzazioni necessarie, consulta Controllo dell'accesso con IAM.
Determina se il bucket è bloccato elencando gli attributi del bucket. Se il bucket è bloccato, controlla il periodo di conservazione del bucket. Non puoi eliminare un bucket bloccato finché tutti i log nel bucket non hanno completato il periodo di conservazione del bucket.
Verifica che il bucket di log non abbia un set di dati BigQuery collegato. Non puoi eliminare un bucket di log con un set di dati collegato.
Il seguente errore viene visualizzato in risposta a un comando
delete
su un bucket di log con un set di dati collegato:FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
Per elencare i link associati a un bucket di log, esegui il comando
gcloud logging links list
o il metodo APIprojects.locations.buckets.links.list
.
Quali account di servizio eseguono il routing dei log al mio bucket?
Per determinare se alcuni account di servizio dispongono di autorizzazioni IAM per instradare i log al bucket, segui questi passaggi:
-
Nella console Google Cloud, vai alla pagina IAM:
Se usi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo IAM e amministrazione.
Nella scheda Autorizzazioni, visualizza la scheda per Ruoli. Viene visualizzata una tabella con tutti i ruoli e le entità IAM associati al progetto Google Cloud.
Nella casella di testo filter_list Filtro della tabella, inserisci Writer bucket di log.
Tutte le entità con il ruolo Writer bucket di log sono visualizzate. Se un'entità è un account di servizio, il suo ID contiene la stringa
gserviceaccount.com
.(Facoltativo) Se vuoi impedire a un account di servizio di instradare i log al progetto Google Cloud, seleziona la casella di controllo check_box_outline_blank relativa all'account di servizio e fai clic su Rimuovi.
Perché vedo i log di un progetto Google Cloud anche se li ho esclusi dal sink _Default
?
È possibile che tu stia visualizzando i log in un bucket di log in un progetto Google Cloud centralizzato, che aggrega i log di tutta l'organizzazione.
Se utilizzi Esplora log per accedere a questi log e vedi i log che hai escluso dal sink _Default
, la vista potrebbe essere limitata al livello del progetto Google Cloud.
Per risolvere il problema, seleziona Ambito in base all'archiviazione nel riquadro Perfeziona ambito, quindi seleziona il bucket _Default
nel progetto Google Cloud. Non dovresti più visualizzare i log esclusi.
Passaggi successivi
Per informazioni sui metodi dell'API del bucket di log, consulta la documentazione di riferimento di LogBucket
.
Per informazioni su come gestire casi d'uso comuni con i bucket di log, consulta i seguenti argomenti: