Questo documento descrive come creare e gestire i bucket Cloud Logging utilizzando la console Google Cloud, Google Cloud CLI e l'API Logging.
Fornisce inoltre istruzioni per creare e gestire i bucket di log a livello di progetto Google Cloud. Non puoi creare bucket di log a livello di cartella o organizzazione. Tuttavia, Cloud Logging crea automaticamente per te i bucket di log _Default
e _Required
a livello di cartella e organizzazione.
Puoi eseguire l'upgrade dei bucket di log per utilizzare Analisi dei log. L'analisi dei log consente di eseguire query SQL sui dati dei log, aiutandoti a risolvere i problemi relativi ad applicazioni, sicurezza e reti.
Per utilizzare BigQuery per analizzare i dati di log, hai due opzioni:
Esegui l'upgrade di un bucket di log per utilizzare Log Analytics e poi crea un set di dati BigQuery collegato. In questo scenario, Logging archivia i dati dei log, ma BigQuery può leggerli.
Esporta le voci del log in BigQuery. In questo scenario, devi creare un sink, BigQuery archivia e gestisce i dati e hai la possibilità di utilizzare tabelle partizionate.
Quando i dati dei log sono disponibili per BigQuery, puoi unirli ad altri dati archiviati in BigQuery e accedere a questi dati da altri strumenti come Looker Studio e Looker.
Per una panoramica concettuale dei bucket, consulta la Panoramica di routing e archiviazione: bucket dei log.
Questo documento non descrive come creare un bucket di log che utilizza una chiave di crittografia gestita dal cliente (CMEK). Se ti interessa questo argomento, consulta la sezione Configurare CMEK per lo spazio di archiviazione dei log.
Prima di iniziare
Per iniziare a utilizzare i bucket:
- Configura il tuo progetto Google Cloud:
-
Make sure that billing is enabled for your Google Cloud project.
-
Per ottenere le autorizzazioni necessarie per creare, eseguire l'upgrade e collegare un bucket di log, chiedi all'amministratore di concederti il ruolo IAM Editor di configurazione dei log (
roles/logging.configWriter
) nel progetto. Per saperne di più sulla concessione dei ruoli, consulta Gestire l'accesso a progetti, cartelle e organizzazioni.Potresti anche riuscire a ottenere le autorizzazioni richieste tramite i ruoli personalizzati o altri ruoli predefiniti.
Per l'elenco completo delle autorizzazioni e dei ruoli, consulta Controllo dell'accesso con IAM.
- (Facoltativo) Per utilizzare BigQuery per visualizzare i dati archiviati in un
bucket di log, segui questi passaggi:
- Verifica che l'API BigQuery sia attivata. Puoi verificare che l'API sia abilitata elencando i servizi disponibili.
- Il tuo ruolo di Identity and Access Management include le autorizzazioni che ti consentono di creare un set di dati collegato. Per ulteriori informazioni, consulta Autorizzazioni per i set di dati BigQuery collegati.
-
- Scopri le regioni supportate in cui puoi archiviare i log.
-
Select the tab for how you plan to use the samples on this page:
Console
When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.
gcloud
In the Google Cloud console, activate Cloud Shell.
At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.
REST
Per utilizzare gli esempi dell'API REST in questa pagina in un ambiente di sviluppo locale, utilizza le credenziali fornite a gcloud CLI.
Install the Google Cloud CLI, then initialize it by running the following command:
gcloud init
Per saperne di più, consulta Eseguire l'autenticazione per l'utilizzo di REST nella documentazione sull'autenticazione di Google Cloud.
- Se prevedi di utilizzare Google Cloud CLI o l'API Cloud Logging per creare o gestire i bucket dei log, comprendi i requisiti di formattazione di
LogBucket
.Crea un bucket
Puoi creare un massimo di 100 bucket per progetto Google Cloud.
Per creare un bucket di log definito dall'utente per il tuo progetto Google Cloud, svolgi i seguenti passaggi:
Console Google Cloud
Per creare un bucket di log nel tuo progetto Google Cloud:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Fai clic su Crea bucket di log.
Inserisci un nome e una descrizione per il bucket.
(Facoltativo) Esegui l'upgrade del bucket per utilizzare Analisi dei log.
Seleziona Esegui l'upgrade per utilizzare Analisi dei log.
Quando esegui l'upgrade di un bucket per utilizzare Analisi dei log, puoi eseguire query sui log nella pagina Analisi dei log utilizzando query SQL. Puoi anche continuare a visualizzare i log utilizzando Esplora log.
(Facoltativo) Per visualizzare i log in BigQuery, seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci un nome univoco per il set di dati.
Se selezioni questa opzione, BigQuery può leggere i dati archiviati nel bucket di log. Ora puoi eseguire query nell'interfaccia di BigQuery, dove puoi unire i dati di log e accedere anche ai dati di altri strumenti come Looker Studio e Looker.
(Facoltativo) Per selezionare la regione di archiviazione per i log, fai clic sul menu Seleziona la regione del bucket di log e seleziona una regione. Se non selezioni una regione, viene utilizzata la regione
global
, il che significa che i log potrebbero trovarsi fisicamente in qualsiasi regione supportata.(Facoltativo) Per impostare un periodo di conservazione personalizzato per i log nel bucket, fai clic su Avanti.
Nel campo Periodo di conservazione, inserisci il numero di giorni, tra 1 e 3650, durante i quali vuoi che Cloud Logging conservi i log. Se non personalizzi il periodo di conservazione, il valore predefinito è
30 days
.Puoi anche aggiornare il bucket per applicare la conservazione personalizzata dopo averlo creato.
Fai clic su Crea bucket.
Dopo aver creato il bucket di log, la funzionalità di logging esegue l'upgrade del bucket e crea il collegamento al set di dati, se queste opzioni sono state selezionate.
Il completamento di questi passaggi potrebbe richiedere qualche istante.
gcloud
Per creare solo un bucket di log, esegui il comando
gcloud logging buckets create
. Se vuoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, includi i flag--enable-analytics
e--async
e assicurati di impostare la variabile LOCATION su una regione supportata:gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS
Il flag
--async
forza il comando ad essere asincrono. Il valore restituito da un metodo asincrono è un oggettoOperation
, che contiene informazioni sull'avanzamento del metodo. Al termine del metodo, l'oggettoOperation
contiene lo stato. Per ulteriori informazioni, consulta Metodi API asincroni.Se non vuoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, ometti i flag
--enable-analytics
e--async
.Ad esempio, se vuoi creare un bucket con BUCKET_ID
my-bucket
nella regioneglobal
, il comando sarà simile al seguente:gcloud logging buckets create my-bucket --location global --description "My first bucket"
Ad esempio, per creare un bucket con BUCKET_ID
my-upgraded-bucket
nella posizioneglobal
, quindi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, il comando sarà il seguente:gcloud logging buckets create my-upgraded-bucket --location global \ --description "My first upgraded bucket" \ --enable-analytics --retention-days=45
REST
Per creare un bucket, utilizza il metodo
projects.locations.buckets.create
oprojects.locations.buckets.createAsync
. Prepara gli argomenti del metodo come segue:Imposta il parametro
parent
in modo che corrisponda alla risorsa in cui creare il bucket:projects/PROJECT_ID/locations/LOCATION
La variabile LOCATION si riferisce alla regione in cui vuoi che vengano archiviati i log.
Ad esempio, se vuoi creare un bucket per il progetto
my-project
nella regioneglobal
, il parametroparent
sarà simile a questo:projects/my-project/locations/global
Imposta il parametro
bucketId
, ad esempiomy-bucket
.Esegui una delle seguenti operazioni:
Per creare un bucket di log ed eseguire l'upgrade del bucket di log per utilizzare Analisi dei log:
Imposta il valore booleano
LogBucket.analyticsEnabled
sutrue
.Chiama il metodo asincrono
projects.locations.buckets.createAsync
per creare il bucket.La risposta ai metodi asincroni è un oggetto
Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Al termine del metodo, l'oggettoOperation
contiene lo stato. Per ulteriori informazioni, consulta Metodi API asincroni.Il completamento del metodo
createAsync
richiede alcuni minuti. Questo metodo non genera un messaggio di errore o non va a buon fine quando il valore booleanoanalyticsEnabled
è impostato sutrue
.
In caso contrario, chiama il metodo sincrono
projects.locations.buckets.create
per creare il bucket.
Dopo aver creato un bucket, crea un sink per instradare le voci di log al bucket e configura le visualizzazioni dei log per controllare chi può accedere ai log nel nuovo bucket e quali log sono accessibili. Puoi anche aggiornare il bucket per configurare la conservazione personalizzata e i campi con limitazioni.
Monitora il volume dei log archiviati nei bucket di log
La pagina Archiviazione dei log nella console Google Cloud monitora il volume dei dati dei log archiviati nei bucket di log:
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
La pagina Spazio di archiviazione dei log mostra un riepilogo delle statistiche per il tuo progetto Google Cloud:
Vengono riportate le seguenti statistiche:
Importazione del mese corrente: la quantità di dati di log memorizzati dal tuo progetto Google Cloud nei bucket di log dal primo giorno del mese di calendario corrente.
Importazione del mese precedente: la quantità di dati dei log archiviati dal tuo progetto Google Cloud nei bucket di log nell'ultimo mese di calendario.
Importazione prevista entro il termine del mese: la quantità stimata di dati di log che il tuo progetto Google Cloud memorizzerà nei bucket di log entro la fine del mese di calendario corrente, in base all'utilizzo corrente.
Archiviazione fatturabile del mese corrente: la quantità di dati dei log conservati per più di 30 giorni che viene fatturata.
Le statistiche precedenti non includono i log nel bucket
_Required
. I log in quel bucket non possono essere esclusi o disattivati.La pagina Log Router nella console Google Cloud fornisce gli strumenti che puoi utilizzare per ridurre al minimo gli addebiti per lo stoccaggio dei log nei bucket di log o per lo spazio di archiviazione che supera la tua allocazione mensile. Puoi:
- Disattivare l'archiviazione dei log a livello di bucket.
- Escludi la memorizzazione di determinate voci di log nei bucket di log.
Per saperne di più, consulta Gestire gli sink.
Gestire i bucket
Questa sezione descrive come gestire i bucket di log utilizzando Google Cloud CLI o la console Google Cloud.
Aggiornare un bucket
Per aggiornare le proprietà del bucket, ad esempio la descrizione o il periodo di conservazione:Console Google Cloud
Per aggiornare le proprietà del bucket:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Per il bucket che vuoi aggiornare, fai clic su more_vert Altro.
Seleziona Modifica bucket.
Modifica il bucket in base alle tue esigenze.
Fai clic su Aggiorna bucket.
gcloud
Per aggiornare le proprietà del bucket, esegui il comando
gcloud logging buckets update
:gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES
Ad esempio:
gcloud logging buckets update my-bucket --location=global --description "Updated description"
REST
Per aggiornare le proprietà del bucket, utilizza
projects.locations.buckets.patch
nell'API Logging.Eseguire l'upgrade di un bucket per utilizzare Analisi dei log
Per eseguire l'upgrade di un bucket esistente per utilizzare Analisi dei log, si applicano le seguenti limitazioni:
- Il bucket di log è stato creato a livello di progetto Google Cloud.
- Il bucket di log è sbloccato, a meno che non si tratti del bucket
_Required
. Non sono presenti aggiornamenti in attesa per il bucket.
Console Google Cloud
Per eseguire l'upgrade di un bucket esistente in modo da utilizzare Analisi dei log:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Individua il bucket di cui vuoi eseguire l'upgrade.
Quando nella colonna Log Analytics disponibile viene visualizzato Esegui l'upgrade, puoi eseguire l'upgrade del bucket di log per utilizzare Analisi dei log. Fai clic su Esegui upgrade.
Si apre una finestra di dialogo. Fai clic su Conferma.
gcloud
Per eseguire l'upgrade del bucket di log per utilizzare Analisi dei log, esegui il comando
gcloud logging buckets update
. Devi impostare il flag--enable-analytics
e ti consigliamo di includere anche il flag--async
:gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async
Il flag
--async
forza il comando ad essere asincrono. Il valore restituito da un metodo asincrono è un oggettoOperation
e contiene informazioni sull'avanzamento del metodo. Al termine del metodo, l'oggettoOperation
contiene lo stato. Per ulteriori informazioni, consulta Metodi API asincroni.REST
Per eseguire l'upgrade di un bucket di log per utilizzare Analisi dei log, utilizza il metodo
projects.locations.buckets.updateAsync
dell'API Cloud Logging.Prepara gli argomenti del metodo come segue:
- Imposta il valore booleano
LogBucket.analyticsEnabled
sutrue
. - Per il parametro di query del comando, utilizza
updateMask=analyticsEnabled
.
La risposta ai metodi asincroni è un oggetto
Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Al termine del metodo, l'oggettoOperation
contiene lo stato. Per ulteriori informazioni, consulta Metodi API asincroni.Il completamento di
updateAsync
potrebbe richiedere diversi minuti.Crea un set di dati BigQuery collegato
Quando vuoi utilizzare le funzionalità di BigQuery per analizzare i dati dei log, esegui l'upgrade di un bucket di log per utilizzare Log Analytics e poi crea un set di dati collegato. Con questa configurazione, Logging archivia i dati di log, ma BigQuery può leggerli.
Console Google Cloud
Per creare un link a un set di dati BigQuery per un bucket di log esistente, segui questi passaggi:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Individua il bucket dei log e verifica che la colonna Log Analytics disponibile sia impostata su Aperto.
Se in questa colonna viene visualizzato Esegui l'upgrade, significa che non è stato eseguito l'upgrade del bucket di log per l'utilizzo di Analisi dei log. Configura Log Analytics:
- Fai clic su Esegui upgrade.
- Fai clic su Conferma nella finestra di dialogo.
Al termine dell'upgrade, vai al passaggio successivo.
Nel bucket dei log, fai clic su Altromore_vert e poi su Modifica bucket.
Viene visualizzata la finestra di dialogo Modifica bucket dei log.
Seleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket e inserisci il nome del nuovo set di dati.
Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se inserisci il nome di un set di dati esistente, viene visualizzato il seguente errore:
Dataset name must be unique in the selected region.
Fai clic su Fine, quindi su Aggiorna bucket.
Dopo che la registrazione mostra il nome del set di dati collegato nella pagina Logs Storage, potrebbero essere necessari diversi minuti prima che BigQuery riconosca il set di dati.
gcloud
Per creare un set di dati collegato per un bucket di log di cui è stato eseguito l'upgrade per l'utilizzo di Analisi dei log, esegui il comando
gcloud logging links create
:gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION
Il valore LINK_ID fornito viene utilizzato come nome del set di dati BigQuery e il valore di questo campo deve essere univoco per il progetto Google Cloud.
Il comando
links create
è asincrono. Il valore restituito da un metodo asincrono è un oggettoOperation
e contiene informazioni sull'avanzamento del metodo. Al termine del metodo, l'oggettoOperation
contiene lo stato. Per ulteriori informazioni, consulta Metodi API asincroni.Il completamento del comando
links create
richiede alcuni minuti.Ad esempio, il seguente comando crea un set di dati collegato denominato
mylink
per il bucket dei log denominatomy-bucket
:gcloud logging links create mylink --bucket=my-bucket --location=global
Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se provi a creare un set di dati con lo stesso nome di un set di dati esistente, viene visualizzato il seguente errore:
BigQuery dataset with name "LINK_ID" already exists.
Se provi a creare un set di dati collegato per un bucket di log di cui non è stato eseguito l'upgrade per l'utilizzo di Analisi dei log, viene visualizzato il seguente errore:
A link can only be created for an analytics-enabled bucket.
REST
Per creare un set di dati BigQuery collegato per un bucket di log esistente di cui è stato eseguito l'upgrade, utilizza Log Analytics e chiama il metodo asincrono
projects.locations.buckets.links.create
dell'API Cloud Logging.Prepara gli argomenti del metodo come segue:
- Costruisci il corpo della richiesta per il comando
create
. Il corpo della richiesta è formattato come oggettoLink
. - Per il parametro di query del comando, utilizza
linkId=LINK_ID
. Il valore LINK_ID fornito viene utilizzato come nome del set di dati BigQuery e il valore di questo campo deve essere univoco per il progetto Google Cloud.
La risposta ai metodi asincroni è un oggetto
Operation
. Questo oggetto contiene informazioni sull'avanzamento del metodo. Al termine del metodo, l'oggettoOperation
contiene lo stato. Per ulteriori informazioni, consulta Metodi API asincroni.Il completamento del metodo
links.create
richiede alcuni minuti.Il nome del set di dati deve essere univoco per ogni progetto Google Cloud. Se provi a creare un set di dati con lo stesso nome di un set di dati esistente, viene visualizzato il seguente errore:
BigQuery dataset with name "LINK_ID" already exists.
Se provi a creare un set di dati collegato per un bucket di log di cui non è stato eseguito l'upgrade per l'utilizzo di Analisi dei log, viene visualizzato il seguente errore:
A link can only be created for an analytics-enabled bucket.
Bloccare un bucket
Quando blocchi un bucket per gli aggiornamenti, blocchi anche il suo criterio di conservazione. Dopo il blocco di un criterio di conservazione, non puoi eliminare il bucket finché ogni voce di log nel bucket non ha soddisfatto il periodo di conservazione del bucket.
Per impedire a chiunque di aggiornare o eliminare un bucket di log, bloccalo. Per bloccare il bucket:
Console Google Cloud
La console Google Cloud non supporta il blocco di un bucket di log.
gcloud
Per bloccare il bucket, esegui il comando
gcloud logging buckets update
con il flag--locked
:gcloud logging buckets update BUCKET_ID --location=LOCATION --locked
Ad esempio:
gcloud logging buckets update my-bucket --location=global --locked
REST
Per bloccare gli attributi del bucket, utilizza
projects.locations.buckets.patch
nell'API Logging. Imposta il parametrolocked
sutrue
.Elenca bucket
Per elencare i bucket di log associati a un progetto Google Cloud e visualizzare dettagli come le impostazioni di conservazione, procedi nel seguente modo:
Console Google Cloud
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Una tabella denominata Bucket di log elenca i bucket associati al progetto Google Cloud corrente.
La tabella elenca i seguenti attributi per ogni bucket di log:
- Nome: il nome del bucket di log.
- Descrizione: la descrizione del bucket.
- Periodo di conservazione: il numero di giorni per i quali i dati del bucket verranno memorizzati da Cloud Logging.
- Regione: la posizione geografica in cui sono archiviati i dati del bucket.
- Stato: indica se il bucket è chiuso o aperto.
Se l'eliminazione di un bucket da parte di Cloud Logging è in attesa, la relativa voce della tabella è annotata con un simbolo di warning avviso.
gcloud
Esegui il comando
gcloud logging buckets list
:gcloud logging buckets list
Vengono visualizzati i seguenti attributi per i bucket dei log:
LOCATION
: la regione in cui sono archiviati i dati del bucket.BUCKET_ID
: il nome del bucket di log.RETENTION_DAYS
: il numero di giorni per i quali i dati del bucket verranno memorizzati da Cloud Logging.LIFECYCLE_STATE
: indica se il bucket è in attesa di eliminazione da parte di Cloud Logging.LOCKED
: indica se il bucket è bloccato o sbloccato.CREATE_TIME
: un timestamp che indica quando è stato creato il bucket.UPDATE_TIME
: un timestamp che indica l'ultima volta che il bucket è stato modificato.
Puoi anche visualizzare gli attributi di un solo bucket. Ad esempio, per visualizzare i dettagli del bucket dei log
_Default
nella regioneglobal
, esegui il comandogcloud logging buckets describe
:gcloud logging buckets describe _Default --location=global
REST
Per elencare i bucket di log associati a un progetto Google Cloud, utilizza
projects.locations.buckets.list
nell'API Logging.Visualizzare i dettagli di un bucket
Per visualizzare i dettagli di un singolo bucket di log:
Console Google Cloud
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Nel bucket dei log, fai clic su more_vert Altro e poi seleziona Visualizza dettagli del bucket.
La finestra di dialogo elenca i seguenti attributi per il bucket dei log:
- Nome: il nome del bucket di log.
- Descrizione: la descrizione del bucket di log.
- Periodo di conservazione: il numero di giorni per i quali i dati del bucket verranno memorizzati da Cloud Logging.
- Regione: la posizione geografica in cui sono archiviati i dati del bucket.
- Analisi dei log: indica se è stato eseguito l'upgrade del bucket per l'utilizzo di Analisi dei log.
- Analisi BigQuery: indica se un set di dati BigQuery è collegato al tuo bucket.
- Set di dati BigQuery: fornisce un link al set di dati BigQuery, che si apre nella pagina BigQuery Studio. Viene visualizzata anche la data di attivazione del collegamento BigQuery.
gcloud
Esegui il comando
gcloud logging buckets describe
.Ad esempio, il seguente comando riporta i dettagli del bucket
_Default
:gcloud logging buckets describe _Default --location=global
Vengono visualizzati i seguenti attributi per il bucket dei log:
createTime
: un timestamp che indica quando è stato creato il bucket.description
: la descrizione del bucket di log.lifecycleState
: indica se il bucket è in attesa di eliminazione da parte di Cloud Logging.name
: il nome del bucket di log.retentionDays
: il numero di giorni per i quali i dati del bucket verranno memorizzati da Cloud Logging.updateTime
: un timestamp che indica l'ultima volta che il bucket è stato modificato.
REST
Per visualizzare i dettagli di un singolo bucket di log, utilizza
projects.locations.buckets.get
nell'API Logging.Eliminare un bucket
Per eliminare un bucket di log:
Console Google Cloud
Per eliminare un bucket di log:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Individua il bucket che vuoi eliminare e fai clic su more_vertAltro.
Se la colonna Set di dati collegato in BigQuery mostra un link, elimina il set di dati BigQuery collegato:
Fai clic su Modifica bucket.
Deseleziona Crea un nuovo set di dati BigQuery che si colleghi a questo bucket, fai clic su Fine e poi su Aggiorna bucket.
Dopo essere tornato alla pagina Spazio di archiviazione dei log, fai clic su more_vertAltro per il bucket che vuoi eliminare e poi procedi con i passaggi successivi.
Seleziona Elimina bucket.
Nel riquadro di conferma, fai clic su Elimina.
Nella pagina Spazio di archiviazione dei log, il bucket è contrassegnato come in attesa di eliminazione. Il bucket, inclusi tutti i log al suo interno, viene eliminato dopo 7 giorni.
gcloud
Per eliminare un bucket di log, esegui il comando
gcloud logging buckets delete
:gcloud logging buckets delete BUCKET_ID --location=LOCATION
Non puoi eliminare un bucket di log se contiene un set di dati BigQuery collegato:
- Per elencare i link associati a un bucket di log, esegui il comando
gcloud logging links list
. - Per eliminare un set di dati collegato, esegui il comando
gcloud logging links delete
.
REST
Per eliminare un bucket, utilizza
projects.locations.buckets.delete
nell'API Logging.È un errore eliminare un bucket di log se contiene un set di dati BigQuery collegato. Devi eliminare il set di dati collegato prima di eliminare il bucket dei log:
- Per elencare i link associati a un bucket di log, esegui il metodo
projects.locations.buckets.links.list
. - Per eliminare un set di dati collegato, esegui il metodo
projects.locations.buckets.links.delete
.
Un bucket eliminato rimane in questo stato in attesa per 7 giorni e il logging continua a instradare i log al bucket durante questo periodo. Per interrompere il routing dei log in un bucket eliminato, puoi eliminare i sink di log che hanno quel bucket come destinazione oppure modificare il filtro per i sink in modo da interrompere il routing dei log nel bucket eliminato.
Non puoi creare un nuovo bucket di log che utilizzi lo stesso nome di un bucket eliminato in stato di attesa.
Ripristinare un bucket eliminato
Puoi ripristinare o annullare l'eliminazione di un bucket di log in stato di eliminazione in attesa. Per ripristinare un bucket di log:
Console Google Cloud
Per ripristinare un bucket di log in attesa di eliminazione:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Per il bucket da ripristinare, fai clic su more_vert Altro e poi seleziona Ripristina bucket eliminato.
Nel riquadro di conferma, fai clic su Ripristina.
Nella pagina Storage dei log, l'indicatore di eliminazione in attesa viene rimosso dal bucket di log.
gcloud
Per ripristinare un bucket di log in attesa di eliminazione, esegui il comando
gcloud logging buckets undelete
:gcloud logging buckets undelete BUCKET_ID --location=LOCATION
REST
Per ripristinare un bucket in attesa di eliminazione, utilizza
projects.locations.buckets.undelete
nell'API Logging.Avviso sui byte di log mensili archiviati nei bucket di log
Per creare un criterio di avviso, nella pagina Archiviazione dei log della console Google Cloud, fai clic su add_alert Crea avviso di utilizzo. Questo pulsante apre la pagina Crea criterio di avviso in Monitoring e compila il campo del tipo di metrica con
logging.googleapis.com/billing/bytes_ingested
.Per creare un criterio di avviso che si attivi quando il numero di byte di log scritti nei bucket dei log supera il limite definito dall'utente per Cloud Logging, utilizza le impostazioni seguenti.
Campo Nuova condizione
ValoreRisorsa e metrica Nel menu Risorse, seleziona Globale.
Nel menu Categorie di metriche, seleziona Metrica basata su log.
Nel menu Metriche, seleziona Byte di log mensili importati.Filtro Nessuno. Tra serie temporali
Aggregazione di serie temporalisum
Finestra temporale continua 60 m
Funzione finestra temporale continua max
Campo Configura trigger di avviso
ValoreTipo di condizione Threshold
Trigger di avviso Any time series violates
Posizione soglia Above threshold
Valore soglia Sei tu a determinare il valore accettabile. Finestra di ripetizione test Il valore minimo accettabile è di 30 minuti. Per ulteriori informazioni sui criteri di avviso, consulta la sezione Panoramica degli avvisi.
Scrivere in un bucket
Non scrivi direttamente i log in un bucket di log. Devi invece scrivere i log in una risorsa Google Cloud: un progetto, una cartella o un'organizzazione Google Cloud. I canali nella risorsa principale inoltrano quindi i log alle destinazioni, inclusi i bucket di log. Un sink inoltra i log a una destinazione del bucket di log quando i log corrispondono al filtro del sink e il sink dispone dell'autorizzazione per inoltrarli al bucket.
Leggere da un bucket
Ogni bucket di log ha un insieme di visualizzazioni di log. Per leggere i log da un bucket di log, devi avere accesso a una visualizzazione di log nel bucket di log. Le visualizzazioni dei log ti consentono di concedere a un utente accesso solo a un sottoinsieme di log archiviati in un bucket dei log. Per informazioni su come configurare le visualizzazioni log e su come concedere l'accesso a visualizzazioni log specifiche, consulta Configurare le visualizzazioni log in un bucket log.
Per leggere i log da un bucket di log:
Console Google Cloud
-
Nella console Google Cloud, vai alla pagina Esplora log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Per personalizzare i log visualizzati in Esplora log, fai clic su Perfeziona ambito e seleziona un'opzione. Ad esempio, puoi visualizzare i log archiviati in un progetto o per visualizzazione di log.
Fai clic su Applica. Il riquadro Risultati delle query viene ricaricato con i log corrispondenti all'opzione selezionata.
Per ulteriori informazioni, consulta la panoramica di Esplora log: perfeziona l'ambito.
gcloud
Per leggere i log da un bucket di log, utilizza il comando
gcloud logging read
e aggiungi unLOG_FILTER
per selezionare i dati:gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID
REST
Per leggere i log da un bucket di log, utilizza il metodo entries.list. Imposta
resourceNames
per specificare il bucket e la visualizzazione del log appropriati e impostafilter
per selezionare i dati.Per informazioni dettagliate sulla sintassi di filtro, consulta Lingua delle query di Logging.
Configurare la conservazione personalizzata
Quando crei un bucket di log, hai la possibilità di personalizzare il periodo di conservazione dei log del bucket da parte di Cloud Logging. Puoi configurare il periodo di conservazione per qualsiasi bucket di log definito dall'utente e anche per il bucket di log
_Default
.Se accorci il periodo di conservazione del bucket, è previsto un periodo di tolleranza di 7 giorni durante il quale i log scaduti non vengono eliminati. Non puoi eseguire query o visualizzare i log scaduti, ma, in questi 7 giorni, puoi ripristinare l'accesso completo estendendo la conservazione del bucket. I log archiviati durante il periodo di tolleranza vengono conteggiati ai fini dei costi di conservazione.
Per aggiornare il periodo di conservazione di un bucket di log:
Console Google Cloud
Per aggiornare il periodo di conservazione di un bucket di log:
-
Nella console Google Cloud, vai alla pagina Archiviazione dei log:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Logging.
Per il bucket che vuoi aggiornare, fai clic su more_vert Altro e poi seleziona Modifica bucket.
Nel campo Conservazione, inserisci il numero di giorni, tra 1 e 3650, durante i quali vuoi che Cloud Logging conservi i log.
Fai clic su Aggiorna bucket. La nuova durata di conservazione viene visualizzata nell'elenco Bucket di log.
gcloud
Per aggiornare il periodo di conservazione di un bucket di log, esegui il comando
gcloud logging buckets update
dopo aver impostato un valore per RETENTION_DAYS:gcloud logging buckets update BUCKET_ID --location=LOCATION --retention-days=RETENTION_DAYS
Ad esempio, per conservare i log nel bucket
_Default
nella posizioneglobal
per un anno, il comando sarà il seguente:gcloud logging buckets update _Default --location=global --retention-days=365
Se estendi il periodo di conservazione di un bucket, le regole di conservazione vengono applicate in futuro e non in modo retroattivo. I log non possono essere recuperati al termine del periodo di conservazione applicabile.
Metodi API asincroni
La risposta di un metodo asincrono come
projects.locations.buckets.createAsync
è un oggettoOperation
.Le applicazioni che chiamano un metodo API asincrono devono eseguire il polling dell'endpoint
operation.get
finché il valore del campoOperation.done
non ètrue
:Quando
done
èfalse
, l'operazione è in corso.Per aggiornare le informazioni sullo stato, invia una richiesta
GET
all'endpointoperation.get
.Quando
done
ètrue
, l'operazione è completata e il campoerror
oresponse
è impostato:error
: se impostato, l'operazione asincrona non è riuscita. Il valore di questo campo è un oggettoStatus
che contiene un codice di errore gRPC e un messaggio di errore.response
: se impostato, l'operazione asincrona è stata completata correttamente e il valore riflette il risultato.
Per eseguire il polling di un comando asincrono utilizzando Google Cloud CLI, esegui il seguente comando:
gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID
Per ulteriori informazioni, vedi
gcloud logging operations describe
.Risolvere i problemi comuni
Se riscontri problemi durante l'utilizzo dei bucket di log, consulta i seguenti passaggi per la risoluzione dei problemi e le risposte alle domande più comuni.
Perché non riesco a eliminare questo bucket?
Se stai tentando di eliminare un bucket:
Assicurati di disporre delle autorizzazioni corrette per eliminare il bucket. Per l'elenco delle autorizzazioni di cui hai bisogno, consulta Controllo dell'accesso con IAM.
Determina se il bucket è bloccato elencandone gli attributi. Se il bucket è bloccato, controlla il periodo di conservazione. Non puoi eliminare un bucket bloccato finché tutti i log al suo interno non hanno raggiunto il periodo di conservazione del bucket.
Verifica che il bucket di log non abbia un set di dati BigQuery collegato. Non puoi eliminare un bucket di log con un set di dati collegato.
Il seguente errore viene visualizzato in risposta a un comando
delete
su un bucket di log con un set di dati collegato:FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
Per elencare i link associati a un bucket di log, esegui il comando
gcloud logging links list
o il metodoprojects.locations.buckets.links.list
dell'API.
Quali account di servizio indirizzano i log al mio bucket?
Per determinare se gli account di servizio dispongono delle autorizzazioni IAM per indirizzare i log al tuo bucket, svolgi i seguenti passaggi:
-
Nella console Google Cloud, vai alla pagina IAM:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo IAM e amministrazione.
Nella scheda Autorizzazioni, visualizza per Ruoli. Viene visualizzata una tabella con tutti i ruoli e le entità IAM associati al tuo progetto Google Cloud.
Nella casella di testo filter_list Filtro della tabella, inserisci Logs Bucket Writer.
Vengono visualizzate tutte le entità con il ruolo Logs Bucket Writer. Se un'entità è un account di servizio, il relativo ID contiene la stringa
gserviceaccount.com
.(Facoltativo) Se vuoi impedire a un account di servizio di inoltrare i log al tuo progetto Google Cloud, seleziona la casella di controllo check_box_outline_blank per l'account di servizio e fai clic su Rimuovi.
Perché vedo i log di un progetto Google Cloud anche se li ho esclusi dal mio sink
_Default
?Potresti visualizzare i log in un bucket di log in un progetto Google Cloud centralizzato, che aggrega i log di tutta l'organizzazione.
Se utilizzi Esplora log per accedere a questi log e visualizzare quelli esclusi dall'emissario
_Default
, la visualizzazione potrebbe essere impostata a livello di progetto Google Cloud.Per risolvere il problema, seleziona Visualizzazione log nel menu Perfeziona ambito e poi seleziona la visualizzazione log associata al bucket
_Default
nel tuo progetto Google Cloud. Non dovresti più vedere i log esclusi.Passaggi successivi
Per informazioni sui metodi dell'API log bucket, consulta la documentazione di riferimento di
LogBucket
.Se gestisci un'organizzazione o una cartella, puoi specificare la posizione dei bucket di log
_Default
e_Required
delle risorse secondarie. Puoi anche configurare se i bucket dei log devono utilizzare CMEK e il comportamento della sink di log log_Default
. Per ulteriori informazioni, consulta la pagina Configura le impostazioni predefinite per organizzazioni e cartelle.Per informazioni su come gestire i casi d'uso comuni con i bucket di log, consulta i seguenti argomenti:
Salvo quando diversamente specificato, i contenuti di questa pagina sono concessi in base alla licenza Creative Commons Attribution 4.0, mentre gli esempi di codice sono concessi in base alla licenza Apache 2.0. Per ulteriori dettagli, consulta le norme del sito di Google Developers. Java è un marchio registrato di Oracle e/o delle sue consociate.
Ultimo aggiornamento 2024-11-23 UTC.
- Se prevedi di utilizzare Google Cloud CLI o l'API Cloud Logging per creare o gestire i bucket dei log, comprendi i requisiti di formattazione di