Questo documento descrive come creare e gestire i bucket Cloud Logging utilizzando
la console Google Cloud, Google Cloud CLI e
API Logging.
Fornisce inoltre le istruzioni per creare e gestire i bucket di log a livello di account,
a livello di progetto Google Cloud. Non puoi creare bucket di log a livello di cartella o organizzazione. Tuttavia, Cloud Logging crea automaticamente per te i bucket di log _Default
e _Required
a livello di cartella e organizzazione.
Puoi eseguire l'upgrade dei bucket di log per utilizzare Analisi dei log. L'analisi dei log consente di eseguire query SQL sui dati dei log, aiutandoti a risolvere i problemi relativi ad applicazioni, sicurezza e reti.
Per utilizzare BigQuery per analizzare i dati di log, hai due opzioni:
Esegui l'upgrade di un bucket di log per utilizzare Analisi dei log e quindi creare set di dati BigQuery collegato. In questo scenario, Logging archivia i dati dei log, ma BigQuery può leggerli.
Esporta le voci del log in BigQuery. In questo scenario, creare un sink, BigQuery archivia e gestisce i dati e puoi scegliere di utilizzare le tabelle partizionate.
Quando i dati dei log sono disponibili per BigQuery, puoi unirli ad altri dati archiviati in BigQuery e accedere a questi dati da altri strumenti come Looker Studio e Looker.
Per una panoramica concettuale dei bucket, consulta Panoramica su routing e archiviazione: bucket di log.
Questo documento non descrive come creare un bucket di log che utilizza una chiave di crittografia gestita dal cliente (CMEK). Se ti interessa questo argomento, quindi vedi Configura CMEK per l'archiviazione dei log.
Prima di iniziare
Per iniziare a utilizzare i bucket, segui questi passaggi:
- Configura il tuo progetto Google Cloud:
-
Make sure that billing is enabled for your Google Cloud project.
-
Per ottenere le autorizzazioni necessarie per creare, eseguire l'upgrade e collegare un bucket di log, chiedi all'amministratore di concederti Ruolo IAM Writer configurazione log (
roles/logging/configWriter
) su nel tuo progetto. Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.Potresti anche riuscire a ottenere le autorizzazioni richieste tramite la ruoli o altri ruoli predefiniti ruoli.
Per l'elenco completo di autorizzazioni e ruoli, vedi Controllo dell'accesso con IAM.
- (Facoltativo) Per utilizzare BigQuery per visualizzare i dati archiviati in un
bucket di log, segui questi passaggi:
- Verifica che l'API BigQuery sia attivata. Tu può verificare che l'API sia abilitata l'elenco dei servizi disponibili.
- Il tuo ruolo Identity and Access Management include le autorizzazioni che ti consentono di creare un set di dati collegato. Per ulteriori informazioni, vedi Autorizzazioni per i set di dati BigQuery collegati.
-
- Scopri le regioni supportate in cui puoi archiviare i log.
-
Select the tab for how you plan to use the samples on this page:
Console
When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.
gcloud
In the Google Cloud console, activate Cloud Shell.
At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.
REST
Per utilizzare gli esempi dell'API REST in questa pagina in un ambiente di sviluppo locale, utilizza le credenziali fornite a gcloud CLI.
Install the Google Cloud CLI, then initialize it by running the following command:
gcloud init
Per ulteriori informazioni, vedi Esegui l'autenticazione per l'utilizzo di REST nella documentazione sull'autenticazione di Google Cloud.
- Se prevedi di utilizzare Google Cloud CLI o l'API Cloud Logging per creare o gestire i bucket di log, quindi analizzare Requisiti di formattazione di
LogBucket
.Crea un bucket
Puoi creare un massimo di 100 bucket per progetto Google Cloud.
Per creare un bucket di log definito dall'utente per il tuo progetto Google Cloud, segui questi passaggi: seguenti:
Console Google Cloud
Per creare un bucket di log nel tuo progetto Google Cloud, segui questi passaggi:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Fai clic su Crea bucket di log.
Inserisci un nome e una descrizione per il bucket.
(Facoltativo) Esegui l'upgrade del bucket per utilizzare Analisi dei log.
Seleziona Esegui l'upgrade per utilizzare Analisi dei log.
Quando esegui l'upgrade di un bucket per utilizzare Analisi dei log, puoi eseguire query i log nella pagina Analisi dei log utilizzando query SQL. Tu Puoi anche continuare a visualizzare i log utilizzando Esplora log.
(Facoltativo) Per visualizzare i log in BigQuery, seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci un nome univoco per il set di dati.
Se selezioni questa opzione, BigQuery può leggere archiviati nel bucket di log. Ora puoi eseguire query nel Interfaccia di BigQuery in cui puoi unire i dati di log, e accedere ai dati da altri strumenti come Looker Studio e Looker.
(Facoltativo) Per selezionare la regione di archiviazione per i log, fai clic sul menu Seleziona la regione del bucket di log e seleziona una regione. Se non selezioni una regione, viene utilizzata la regione
global
, il che significa che i log possono trovarsi fisicamente regione supportata.(Facoltativo) Per impostare un periodo di conservazione personalizzato per i log nel bucket, fai clic su Avanti.
Nel campo Periodo di conservazione, inserisci il numero di giorni, tra 1 giorno e 3650 giorni che Cloud Logging deve e conservare i log. Se non personalizzi il periodo di conservazione, l'impostazione predefinita è
30 days
.Puoi anche aggiornare il bucket per applicare la conservazione personalizzata dopo la creazione li.
Fai clic su Crea bucket.
Dopo aver creato il bucket di log, la funzionalità di logging esegue l'upgrade del bucket e crea il collegamento al set di dati, se queste opzioni sono state selezionate.
Il completamento di questi passaggi potrebbe richiedere alcuni istanti.
gcloud
Per creare solo un bucket di log, esegui il comando
gcloud logging buckets create
. Se vuoi per eseguire l'upgrade del bucket di log in modo che utilizzi Analisi dei log, quindi includi--enable-analytics
e--async
flag, e assicurati di impostare la variabile LOCATION su un regione supportata:gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS
Il flag
--async
forza il comando in modo che sia asincrono. Il ritorno di un metodo asincrono è un oggettoOperation
, contiene informazioni sull'avanzamento del metodo. Quando , l'oggettoOperation
contiene lo stato. Per ulteriori informazioni, consulta Metodi API asincroni.Se non vuoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, ometti i flag
--enable-analytics
e--async
.Ad esempio, se vuoi creare un bucket con BUCKET_ID
my-bucket
nella regioneglobal
, il tuo comando sarebbe simile al seguenti:gcloud logging buckets create my-bucket --location global --description "My first bucket"
Ad esempio, per creare un bucket con BUCKET_ID
my-upgraded-bucket
nella localitàglobal
, quindi esegui l'upgrade del bucket di log per utilizzare Analisi dei log il tuo comando sarà simile al seguente:gcloud logging buckets create my-upgraded-bucket --location global \ --description "My first upgraded bucket" \ --enable-analytics --retention-days=45
REST
Per creare un bucket, utilizza il metodo
projects.locations.buckets.create
oprojects.locations.buckets.createAsync
. Prepara gli argomenti del metodo come segue:Imposta il parametro
parent
come risorsa in cui per creare il bucket:projects/PROJECT_ID/locations/LOCATION
La variabile LOCATION si riferisce alla regione in cui vuoi che vengano archiviati i log.
Ad esempio, se vuoi creare un bucket per il progetto
my-project
in nella regioneglobal
, il parametroparent
sarebbe questo:projects/my-project/locations/global
Imposta il parametro
bucketId
; ad esempiomy-bucket
.Esegui una delle seguenti operazioni:
Per creare un bucket di log ed eseguire l'upgrade per utilizzarlo con Analisi dei log:
Imposta il valore booleano
LogBucket.analyticsEnabled
sutrue
.Chiama il metodo asincrono
projects.locations.buckets.createAsync
per creare il bucket.La risposta ai metodi asincroni è
Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Quando il metodo viene completato, l'oggettoOperation
contiene lo stato. Per maggiori informazioni consulta i metodi dell'API asincrona.Il completamento del metodo
createAsync
richiede diversi minuti. Questo metodo non genera un messaggio di errore o non va a buon fine quando il valore booleanoanalyticsEnabled
è impostato sutrue
.
Altrimenti, richiama il metodo sincrono
projects.locations.buckets.create
per creare il bucket.
Dopo aver creato un bucket, crea un sink per instradare le voci di log al bucket configurare le viste dei log per controllare chi può accedere ai log nel nuovo bucket e quali log a loro accessibili. Puoi anche aggiornare il bucket per configurare conservazione personalizzata e campi con restrizioni.
Tieni traccia del volume dei log archiviati nei bucket di log
La pagina Archiviazione dei log nella console Google Cloud monitora il volume dei dati dei log archiviati nei bucket di log:
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
La pagina Spazio di archiviazione dei log mostra un riepilogo delle statistiche per il tuo progetto Google Cloud:
Vengono riportate le seguenti statistiche:
Importazione del mese corrente: la quantità di dati dei log che il tuo Il progetto Google Cloud è archiviato in bucket di log dal primo giorno del mese di calendario corrente.
Importazione mese precedente: la quantità di dati dei log che il tuo Progetto Google Cloud archiviato in bucket di log nell'ultimo mese di calendario.
Importazione prevista entro EOM: la quantità stimata di dati dei log che Il progetto Google Cloud archivierà in bucket di log entro la fine mese di calendario corrente, in base all'utilizzo corrente.
Archiviazione fatturabile del mese corrente: la quantità di dati dei log conservati per più di 30 giorni che viene fatturata.
Le statistiche precedenti non includono i log nel bucket
_Required
. La non è possibile escludere o disabilitare i log in quel bucket.La pagina Log Router nella console Google Cloud fornisce gli strumenti che puoi utilizzare per ridurre al minimo gli addebiti per la memorizzazione dei log nei bucket di log o per lo spazio di archiviazione che supera la tua allocazione mensile. Puoi:
- Disattivare l'archiviazione dei log a livello di bucket.
- Escludi la memorizzazione di determinate voci di log nei bucket di log.
Per ulteriori informazioni, vedi Gestisci i sink.
Gestisci bucket
Questa sezione descrive come gestire i bucket di log utilizzando l'interfaccia a riga di comando Google Cloud o la console Google Cloud.
Aggiorna un bucket
Per aggiornare le proprietà del bucket, ad esempio descrizione o periodo di conservazione, procedi nel seguente modo:Console Google Cloud
Per aggiornare le proprietà del bucket:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Per il bucket che vuoi aggiornare, fai clic su more_vert Altro.
Seleziona Modifica bucket.
Modifica il bucket in base alle tue esigenze.
Fai clic su Aggiorna bucket.
gcloud
Per aggiornare le proprietà del bucket, esegui il comando
gcloud logging buckets update
:gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES
Ad esempio:
gcloud logging buckets update my-bucket --location=global --description "Updated description"
REST
Per aggiornare le proprietà del bucket, utilizza
projects.locations.buckets.patch
nell'API Logging.Eseguire l'upgrade di un bucket per utilizzare Analisi dei log
Per eseguire l'upgrade di un bucket esistente per utilizzare Analisi dei log, si applicano le seguenti limitazioni:
- Il bucket dei log è stato creato a livello di progetto Google Cloud.
- Il bucket di log è sbloccato, a meno che non si tratti del bucket
_Required
. Non ci sono aggiornamenti in attesa per il bucket.
Console Google Cloud
Per eseguire l'upgrade di un bucket esistente per utilizzare Analisi dei log:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Individua il bucket di cui vuoi eseguire l'upgrade.
Quando la colonna Analisi dei log disponibile mostra Upgrade, puoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log. Fai clic su Esegui upgrade.
Si apre una finestra di dialogo. Fai clic su Conferma.
gcloud
Per eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, esegui il comando
gcloud logging buckets update
. Devi impostare il flag--enable-analytics
e ti consigliamo di includere anche il flag--async
:gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async
Il flag
--async
forza il comando in modo che sia asincrono. Il ritorno di un modello è un oggettoOperation
e contiene informazioni sull'avanzamento del metodo. Al termine del metodo, l'oggettoOperation
contiene lo stato. Per maggiori informazioni consulta i metodi dell'API asincrona.REST
Per eseguire l'upgrade di un bucket di log per utilizzare Analisi dei log, utilizza il metodo
projects.locations.buckets.updateAsync
dell'API Cloud Logging.Prepara gli argomenti per il metodo come segue:
- Imposta il valore booleano
LogBucket.analyticsEnabled
sutrue
. - Per il parametro di query del comando, utilizza
updateMask=analyticsEnabled
.
La risposta ai metodi asincroni è un oggetto
Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Al termine del metodo, l'oggettoOperation
contiene lo stato. Per ulteriori informazioni, consulta i metodi dell'API asincrona.Il completamento di
updateAsync
potrebbe richiedere diversi minuti.crea un set di dati BigQuery collegato
Se vuoi utilizzare le funzionalità di BigQuery per analizzare eseguire l'upgrade di un bucket di log per utilizzare Analisi dei log, quindi creare set di dati collegato. Con questa configurazione, Logging archivia i tuoi dati di log, BigQuery può leggere i dati di log.
Console Google Cloud
Per creare un collegamento a un set di dati BigQuery per un set di dati esistente bucket di log, segui questi passaggi:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Individua il bucket dei log e verifica che la colonna Log Analytics disponibile sia impostata su Aperto.
Se questa colonna mostra Upgrade, il bucket di log non è stato eseguito l'upgrade per utilizzare l'Analisi dei log. Configura Log Analytics:
- Fai clic su Esegui upgrade.
- Fai clic su Conferma nella finestra di dialogo.
Al termine dell'upgrade, vai al passaggio successivo.
Nel bucket dei log, fai clic su Altromore_vert e poi su Modifica bucket.
Si apre la finestra di dialogo Modifica bucket di log.
Seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci il nome del nuovo set di dati.
Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se inserisci il nome di un set di dati esistente, viene visualizzato il seguente errore:
Dataset name must be unique in the selected region.
Fai clic su Fine, quindi su Aggiorna bucket.
Dopo che la registrazione mostra il nome del set di dati collegato nella pagina Logs Storage (Archiviazione log), potrebbero essere necessari diversi minuti prima che BigQuery riconosca il set di dati.
gcloud
crea un set di dati collegato per un bucket di log di cui è stato eseguito l'upgrade per utilizzare Analisi dei log, esegui Comando
gcloud logging links create
:gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION
Il valore LINK_ID fornito viene utilizzato come nome del set di dati BigQuery e il valore di questo campo deve essere univoco per il progetto Google Cloud.
Il comando
links create
è asincrono. Il ritorno di è un oggettoOperation
e contiene informazioni sull'avanzamento del metodo. Quando , l'oggettoOperation
contiene lo stato. Per maggiori informazioni consulta i metodi dell'API asincrona.Il completamento del comando
links create
richiede alcuni minuti.Ad esempio, il comando seguente crea un set di dati collegato per bucket con il nome
my-bucket
:gcloud logging links create mylink --bucket=my-bucket --location=global
Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se provi a creare un set di dati con lo stesso nome di un set di dati esistente, ricevi il seguente errore:
BigQuery dataset with name "LINK_ID" already exists.
Se provi a creare un set di dati collegato per un bucket di log di cui non è stato eseguito l'upgrade per l'utilizzo di Analisi dei log, viene visualizzato il seguente errore:
A link can only be created for an analytics-enabled bucket.
REST
Per creare un set di dati BigQuery collegato per un bucket di log esistente di cui è stato eseguito l'upgrade, utilizza Log Analytics e chiama il metodo asincrono
projects.locations.buckets.links.create
dell'API Cloud Logging.Prepara gli argomenti per il metodo come segue:
- Crea il corpo della richiesta per il comando
create
. Corpo della richiesta sia formattato come oggettoLink
. - Per il parametro di query del comando, utilizza
linkId=LINK_ID
. Il valore LINK_ID fornito viene utilizzato come nome del set di dati BigQuery e il valore di questo campo deve essere univoco per il progetto Google Cloud.
La risposta ai metodi asincroni è
Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Al termine del metodo, l'oggettoOperation
contiene lo stato. Per maggiori informazioni consulta i metodi dell'API asincrona.Il completamento del metodo
links.create
richiede diversi minuti.Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se tenti per creare un set di dati con lo stesso nome di un set di dati esistente, ricevi il seguente errore:
BigQuery dataset with name "LINK_ID" already exists.
Se provi a creare un set di dati collegato per un bucket di log di cui non è stato eseguito l'upgrade per l'utilizzo di Analisi dei log, viene visualizzato il seguente errore:
A link can only be created for an analytics-enabled bucket.
Blocca un bucket
Quando blocchi un bucket per gli aggiornamenti, blocchi anche il suo criterio di conservazione. Se un criterio di conservazione è bloccato, non puoi eliminare del bucket finché ogni voce di log nel bucket non ha soddisfatto la conservazione del bucket punto.
Blocca il bucket per impedire a chiunque di aggiornare o eliminare un bucket di log. Per bloccare il bucket:
Console Google Cloud
La console Google Cloud non supporta il blocco di un bucket di log.
gcloud
Per bloccare il bucket, esegui il comando
gcloud logging buckets update
con il flag--locked
:gcloud logging buckets update BUCKET_ID --location=LOCATION --locked
Ad esempio:
gcloud logging buckets update my-bucket --location=global --locked
REST
Per bloccare gli attributi del bucket, utilizza
projects.locations.buckets.patch
nell'API Logging. Imposta il parametrolocked
sutrue
.Elenca bucket
per elencare i bucket di log associati a un progetto Google Cloud e per vedere come le impostazioni di conservazione, procedi nel seguente modo:
Console Google Cloud
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Una tabella denominata Bucket di log elenca i bucket associati al progetto Google Cloud corrente.
La tabella elenca i seguenti attributi per ogni bucket di log:
- Nome: il nome del bucket di log.
- Descrizione: la descrizione del bucket.
- Periodo di conservazione: il numero di giorni per i quali i dati del bucket verranno memorizzati da Cloud Logging.
- Regione: la posizione geografica in cui sono archiviati i dati del bucket.
- Stato: indica se il bucket è chiuso o aperto.
Se l'eliminazione di un bucket da parte di Cloud Logging è in attesa, la relativa voce della tabella è annotata con un simbolo di warning avviso.
gcloud
Esegui il comando
gcloud logging buckets list
:gcloud logging buckets list
Vengono visualizzati i seguenti attributi per i bucket dei log:
LOCATION
: la regione in cui sono archiviati i dati del bucket.BUCKET_ID
: il nome del bucket di log.RETENTION_DAYS
: il numero di giorni per i quali i dati del bucket verranno memorizzati da Cloud Logging.LIFECYCLE_STATE
: indica se il bucket è in attesa di eliminazione da parte di Cloud Logging.LOCKED
: se il bucket è bloccato o sbloccato.CREATE_TIME
: un timestamp che indica quando è stato creato il bucket.UPDATE_TIME
: un timestamp che indica l'ultima volta che il bucket è stato modificato.
Puoi anche visualizzare gli attributi di un solo bucket. Ad esempio, per visualizzare dettagli del bucket di log
_Default
nella regioneglobal
, esegui Comandogcloud logging buckets describe
:gcloud logging buckets describe _Default --location=global
REST
Per elencare i bucket di log associati a un progetto Google Cloud, utilizza
projects.locations.buckets.list
nell'API Logging.Visualizzare i dettagli di un bucket
Per visualizzare i dettagli di un singolo bucket di log:
Console Google Cloud
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Nel bucket dei log, fai clic su more_vert Altro e poi su Visualizza dettagli del bucket.
La finestra di dialogo elenca i seguenti attributi per il bucket dei log:
- Nome: il nome del bucket di log.
- Descrizione: la descrizione del bucket di log.
- Periodo di conservazione: il numero di giorni in cui i dati del bucket archiviati da Cloud Logging.
- Regione: la posizione geografica in cui sono archiviati i dati del bucket.
- Analisi dei log: indica se è stato eseguito l'upgrade del bucket per l'utilizzo Analisi dei log.
- Analisi BigQuery: indica se una Il set di dati BigQuery è collegato al tuo bucket.
- Set di dati BigQuery: fornisce un link al set di dati BigQuery, che si apre nella pagina BigQuery Studio. Viene visualizzata anche la data di attivazione del collegamento BigQuery.
gcloud
Esegui il comando
gcloud logging buckets describe
.Ad esempio, il seguente comando riporta i dettagli dell'errore
_Default
del bucket:gcloud logging buckets describe _Default --location=global
Vengono visualizzati i seguenti attributi per il bucket dei log:
createTime
: un timestamp che indica quando è stato creato il bucket.description
: la descrizione del bucket di log.lifecycleState
: indica se il bucket è in attesa eliminazione da parte di Cloud Logging.name
: il nome del bucket di log.retentionDays
: il numero di giorni in cui verranno conservati i dati del bucket archiviati da Cloud Logging.updateTime
: un timestamp che indica l'ultima volta che il bucket è stato modificato.
REST
Per visualizzare i dettagli di un singolo bucket di log, usa
projects.locations.buckets.get
nell'API Logging.Elimina un bucket
Per eliminare un bucket di log:
Console Google Cloud
Per eliminare un bucket di log:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Individua il bucket che vuoi eliminare e fai clic su more_vertAltro.
Se la colonna Set di dati collegato in BigQuery mostra un link, elimina il set di dati BigQuery collegato:
Fai clic su Modifica bucket.
Deseleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket, fai clic su Fine e poi su Aggiorna bucket.
Dopo essere tornato alla pagina Spazio di archiviazione dei log, fai clic su more_vertAltro per il bucket che vuoi eliminare e poi procedi con i passaggi successivi.
Seleziona Elimina bucket.
Nel riquadro di conferma, fai clic su Elimina.
Nella pagina Spazio di archiviazione dei log, il bucket è contrassegnato come in attesa di eliminazione. Il bucket, inclusi tutti i log al suo interno, viene eliminato dopo 7 giorni.
gcloud
Per eliminare un bucket di log, esegui Comando
gcloud logging buckets delete
:gcloud logging buckets delete BUCKET_ID --location=LOCATION
Non puoi eliminare un bucket di log se al bucket è collegato Set di dati BigQuery:
- Per elencare i collegamenti associati a un bucket di log, esegui il
Comando
gcloud logging links list
. - Per eliminare un set di dati collegato, esegui
Comando
gcloud logging links delete
.
REST
Per eliminare un bucket, utilizza
projects.locations.buckets.delete
nell'API Logging.È un errore eliminare un bucket di log se contiene un set di dati BigQuery collegato. Devi eliminare il set di dati collegato prima eliminazione del bucket di log:
- Per elencare i link associati a un bucket di log, esegui il metodo
projects.locations.buckets.links.list
. - Per eliminare un set di dati collegato, esegui
projects.locations.buckets.links.delete
.
Un bucket eliminato rimane in questo stato in attesa per 7 giorni e il logging continua a instradare i log al bucket durante questo periodo. Per interrompere il routing dei log in un bucket eliminato, puoi eliminare i sink di log che hanno quel bucket come destinazione oppure modificare il filtro per i sink in modo da interrompere il routing dei log nel bucket eliminato.
Non puoi creare un nuovo bucket di log che utilizzi lo stesso nome di un bucket eliminato in stato di attesa.
Ripristinare un bucket eliminato
Puoi ripristinare o annullare l'eliminazione di un bucket di log che si trova nello stato In attesa di eliminazione. Per ripristinare un bucket di log, segui questi passaggi:
Console Google Cloud
Per ripristinare un bucket di log in attesa di eliminazione, segui questi passaggi:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Per il bucket da ripristinare, fai clic su more_vert Altro e poi seleziona Ripristina bucket eliminato.
Nel riquadro di conferma, fai clic su Ripristina.
Nella pagina Archiviazione dei log, l'indicatore In attesa di eliminazione è stato rimosso dal bucket di log.
gcloud
Per ripristinare un bucket di log in attesa di eliminazione, esegui il comando
gcloud logging buckets undelete
:gcloud logging buckets undelete BUCKET_ID --location=LOCATION
REST
Per ripristinare un bucket in attesa di eliminazione, utilizza
projects.locations.buckets.undelete
nell'API Logging.Avviso sui byte di log mensili archiviati nei bucket di log
Per creare un criterio di avviso, nella pagina Archiviazione dei log della console Google Cloud, fai clic su add_alert Crea avviso di utilizzo. Questo apre la pagina Crea criterio di avviso in Monitoring, e compila il campo del tipo di metrica con
logging.googleapis.com/billing/bytes_ingested
.Creare un criterio di avviso che si attiva quando il numero di i byte di log scritti nei bucket di log superano il limite definito dall'utente per Cloud Logging, utilizza le impostazioni seguenti.
Nuovo campo condizione
ValoreRisorsa e metrica Nel menu Risorse, seleziona Globale.
Nel menu Categorie di metriche, seleziona Metrica basata su log.
Nel menu Metriche, seleziona Bit di log mensili importati.Filtro Nessuno. Nelle serie temporali
Aggregazione di serie temporalisum
Finestra scorrevole 60 m
Funzione finestra temporale continua max
Campo Configura trigger avviso
ValoreTipo di condizione Threshold
Trigger di avviso Any time series violates
Posizione soglia Above threshold
Valore soglia Sei tu a determinare il valore accettabile. Finestra di ripetizione test Il valore minimo accettabile è di 30 minuti. Per ulteriori informazioni sui criteri di avviso, vedi Panoramica degli avvisi.
Scrivi in un bucket
Non scrivi direttamente i log in un bucket di log. Devi invece scrivere i log in una risorsa Google Cloud: un progetto, una cartella o un'organizzazione Google Cloud. I sink nella risorsa padre instradano quindi i log alle destinazioni, tra cui bucket di log. Un sink instrada i log verso la destinazione di un bucket di log quando i log corrispondono il filtro del sink e quest'ultimo ha l'autorizzazione per instradare i log al log di sincronizzare la directory di una VM con un bucket.
Leggere da un bucket
Ogni bucket di log ha un insieme di visualizzazioni di log. Per leggere i log da un bucket di log, devi avere accesso a una visualizzazione di log nel bucket di log. Le visualizzazioni dei log ti consentono di concedere a un utente accesso solo a un sottoinsieme di log archiviati in un bucket dei log. Per informazioni su come configurare le visualizzazioni log e su come concedere l'accesso a visualizzazioni log specifiche, consulta Configurare le visualizzazioni log in un bucket log.
Per leggere i log da un bucket di log:
Console Google Cloud
-
Nella console Google Cloud, vai alla pagina Esplora log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Per personalizzare i log visualizzati in Esplora log, fai clic su Perfeziona ambito e seleziona un'opzione. Ad esempio: puoi visualizzare i log archiviati in un progetto o per visualizzazione di log.
Fai clic su Applica. Il riquadro Risultati delle query si ricarica con i log corrispondenti l'opzione che hai selezionato.
Per ulteriori informazioni, vedi Panoramica di Esplora log: perfeziona l'ambito.
gcloud
Per leggere i log da un bucket di log, utilizza la classe Comando
gcloud logging read
e aggiunta aLOG_FILTER
per selezionare dati:gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID
REST
Per leggere i log da un bucket di log, utilizza la classe entries.list. Imposta
resourceNames
per specificare il bucket e la visualizzazione log appropriati e impostarefilter
per selezionare i dati.Per informazioni dettagliate sulla sintassi dei filtri, consulta Linguaggio di query di Logging.
Configura la conservazione personalizzata
Quando crei un bucket di log, puoi scegliere di personalizzare il periodo di archiviazione dei log del bucket da parte di Cloud Logging. Puoi configurare il periodo di conservazione per qualsiasi bucket di log definito dall'utente e anche per il bucket di log
_Default
.Se accorci il periodo di conservazione del bucket, viene applicato un periodo di tolleranza di 7 giorni durante il quale i log scaduti non vengono eliminati. Non puoi eseguire query o visualizzare i log scaduti, ma, in questi 7 giorni, puoi ripristinare l'accesso completo estendendo la conservazione del bucket. I log archiviati durante il periodo di tolleranza vengono conteggiati ai fini del calcolo costi di conservazione.
Per aggiornare il periodo di conservazione di un bucket di log:
Console Google Cloud
Per aggiornare il periodo di conservazione di un bucket di log:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Per il bucket da aggiornare, fai clic su more_vert Altro e poi seleziona Modifica bucket.
Nel campo Conservazione, inserisci il numero di giorni, tra 1 e 3650, durante i quali vuoi che Cloud Logging conservi i log.
Fai clic su Aggiorna bucket. La nuova durata di conservazione viene visualizzata nell'elenco Bucket di log.
gcloud
Per aggiornare il periodo di conservazione per un bucket di log, esegui il Comando
gcloud logging buckets update
, dopo aver impostato un valore per RETENTION_DAYS:gcloud logging buckets update BUCKET_ID --location=LOCATION --retention-days=RETENTION_DAYS
Ad esempio, per conservare i log nel bucket
_Default
nella posizioneglobal
per un anno, il comando sarà il seguente:gcloud logging buckets update _Default --location=global --retention-days=365
Se estendi il periodo di conservazione di un bucket, vengono applicate le regole di conservazione e non retroattivamente. Non sarà possibile recuperare i log dopo l'applicazione del periodo di conservazione.
Metodi API asincroni
La risposta di un metodo asincrono come
projects.locations.buckets.createAsync
è un oggettoOperation
.Le applicazioni che chiamano un metodo API asincrono devono eseguire il polling sull'endpoint
operation.get
finché il valore del campoOperation.done
ètrue
:Quando
done
èfalse
, l'operazione è in corso.Per aggiornare le informazioni sullo stato, invia una richiesta
GET
all'endpointoperation.get
.Quando il valore di
done
ètrue
, l'operazione viene completata e loerror
o Il camporesponse
è impostato:error
: se impostato, l'operazione asincrona non riuscito. Il valore di questo campo è un oggettoStatus
che contiene un codice di errore gRPC e un messaggio di errore.response
: se impostato, l'operazione asincrona è stata completata correttamente, e il valore riflette il risultato.
Per eseguire il polling di un comando asincrono utilizzando Google Cloud CLI, esegui questo comando: :
gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID
Per ulteriori informazioni, vedi
gcloud logging operations describe
.Risolvere i problemi comuni
Se riscontri problemi durante l'utilizzo dei bucket di log, consulta i seguenti passaggi per la risoluzione dei problemi e le risposte alle domande più comuni.
Perché non posso eliminare questo bucket?
Se stai tentando di eliminare un bucket, segui questi passaggi:
Assicurati di disporre delle autorizzazioni corrette per eliminare il bucket. Per delle autorizzazioni di cui hai bisogno, vedi Controllo dell'accesso con IAM.
Determina se il bucket è bloccato da elenco degli attributi del bucket. Se il bucket è bloccato, controlla il periodo di conservazione. Non puoi eliminare un bucket bloccato finché tutti i log nel bucket hanno soddisfatto il periodo di conservazione del bucket.
Verifica che il bucket di log non abbia un set di dati BigQuery collegato. Non puoi eliminare un bucket di log con un set di dati collegato.
Il seguente errore viene mostrato in risposta a un comando
delete
su una bucket di log con un set di dati collegato:FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
Per elencare i link associati a un bucket di log, esegui il comando
gcloud logging links list
o il metodoprojects.locations.buckets.links.list
dell'API.
Quali account di servizio indirizzano i log al mio bucket?
Per determinare se gli account di servizio dispongono delle autorizzazioni IAM per indirizzare i log al tuo bucket, svolgi i seguenti passaggi:
-
Nella console Google Cloud, vai alla pagina IAM:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo IAM e Console di amministrazione.
Nella scheda Autorizzazioni, visualizza la scheda per Ruoli. Viene visualizzata una tabella contenente i ruoli e le entità IAM associati progetto Google Cloud.
Nella casella di testo filter_list Filtro della tabella, inserisci Logs Bucket Writer.
Tutte le entità con il ruolo Writer bucket di log sono visualizzate. Se un'entità è un account di servizio, il suo ID contiene la stringa
gserviceaccount.com
.(Facoltativo) Se vuoi impedire a un account di servizio di inoltrare i log al tuo progetto Google Cloud, seleziona la casella di controllo check_box_outline_blank per l'account di servizio e fai clic su Rimuovi.
Perché vedo i log di un progetto Google Cloud anche se li ho esclusi dal mio sink
_Default
?È possibile che tu stia visualizzando i log in un bucket di log in una un progetto Google Cloud centralizzato, aggrega i log di tutta l'organizzazione.
Se utilizzi Esplora log per accedere a questi log e visualizzare quelli esclusi dall'emissario
_Default
, la visualizzazione potrebbe essere impostata a livello di progetto Google Cloud.Per risolvere il problema, seleziona Visualizza log nella Menu Perfeziona ambito e seleziona la visualizzazione log associata al bucket
_Default
nel tuo progetto Google Cloud. Non dovresti più vedere i log esclusi.Passaggi successivi
Per informazioni sui metodi dell'API log bucket, consulta la documentazione di riferimento di
LogBucket
.Se gestisci un'organizzazione o una cartella, puoi specificare la posizione i bucket di log
_Default
e_Required
delle risorse figlio. Puoi anche configurare se i bucket di log usano CMEK e il comportamento del Sink di log_Default
. Per ulteriori informazioni, consulta [Configura le impostazioni predefinite per organizzazioni e cartelle][default-settings].Per informazioni su come gestire i casi d'uso comuni con i bucket di log, consulta i seguenti argomenti:
- [Aggrega e archivia i log della tua organizzazione][central-log-storage].
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2024-10-30 UTC.
- Se prevedi di utilizzare Google Cloud CLI o l'API Cloud Logging per creare o gestire i bucket di log, quindi analizzare Requisiti di formattazione di