In diesem Dokument wird beschrieben, wie Sie Cloud Logging-Buckets mit
der Google Cloud Console, der Google Cloud CLI und der
Logging API:
Außerdem finden Sie dort Anleitungen zum Erstellen und Verwalten von Log-Buckets auf der Seite
Google Cloud-Projektebene. Sie können im Ordner keine Log-Buckets erstellen
oder auf Organisationsebene; Cloud Logging erstellt jedoch automatisch
_Default
und _Required
Buckets auf Ordner- und Organisationsebene für Sie.
Sie können Log-Buckets so aktualisieren, dass sie Loganalysen verwenden. Mit Loganalysen können Sie SQL-Abfragen für Ihre Logdaten ausführen, um Anwendungs-, Sicherheits- und Netzwerkprobleme zu beheben.
Sie haben zwei Möglichkeiten, Ihre Logdaten mit BigQuery zu analysieren:
Führen Sie ein Upgrade eines Log-Buckets zur Verwendung von Loganalysen durch und erstellen Sie dann einen verknüpftes BigQuery-Dataset In diesem Szenario Logging speichert Ihre Logdaten, BigQuery kann die Logdaten lesen.
Exportieren Sie Ihre Logeinträge nach BigQuery. In diesem Szenario eine Senke erstellen, speichert und verwaltet BigQuery die Daten, und Sie haben die Möglichkeit, partitionierte Tabellen zu verwenden.
Wenn Ihre Logdaten für BigQuery verfügbar sind, können Sie Ihre Log-Daten mit anderen in BigQuery gespeicherten Daten und Sie können aus anderen Tools wie Looker Studio und Looker.
Eine konzeptionelle Übersicht über Buckets finden Sie unter Routing und Speicherübersicht: Log-Buckets.
Hinweis
Gehen Sie für einen Einstieg in Buckets folgendermaßen vor:
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
Achten Sie darauf, dass Ihre IAM-Rolle (Identity and Access Management) Ihnen die folgenden Berechtigungen gewährt: Berechtigungen, die zum Erstellen, Aktualisieren und Verknüpfen von Buckets erforderlich sind.
Die Rolle „Autor von Logkonfigurationen“ (
roles/logging.configWriter
) ist die vordefinierte Mindestrolle, die die erforderlichen Berechtigungen zum Verwalten Buckets. Eine vollständige Liste der Berechtigungen und Rollen finden Sie unter Zugriffssteuerung mit IAMMachen Sie sich mit den Formatierungsanforderungen für
LogBucket
vertraut, einschließlich den unterstützten Regionen in dem Sie Ihre Logs speichern können.Sie sollten eine default resource location (Standardressourcenstandort) in Standardspeicherregion für die Buckets
_Required
und_Default
in Ihrer Organisation.
So rufen Sie mit BigQuery die in einem Log-Bucket gespeicherten Daten auf: Gehen Sie so vor:
Die BigQuery API muss aktiviert sein. Ich um zu prüfen, ob die API aktiviert ist, Auflistung verfügbarer Dienste
Ihre Rolle für Identity and Access Management enthält die Berechtigungen, mit denen Sie Ein verknüpftes Dataset Weitere Informationen finden Sie unter Berechtigungen für verknüpfte BigQuery-Datasets
- Informationen zum Erstellen eines Log-Buckets, der einen vom Kunden verwalteter Verschlüsselungsschlüssel (CMEK), siehe CMEK für den Logspeicher konfigurieren
Bucket erstellen
Sie können maximal 100 Buckets pro Google Cloud-Projekt
So erstellen Sie einen benutzerdefinierten Log-Bucket für Ihr Google Cloud-Projekt: Folgendes:
Google Cloud Console
So erstellen Sie einen Log-Bucket in Ihrem Google Cloud-Projekt:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Klicken Sie auf Log-Bucket erstellen.
Geben Sie einen Namen und eine Beschreibung für den Bucket ein.
Optional: Aktualisieren Sie Ihren Bucket, um Loganalysen zu verwenden.
Wählen Sie Upgrade zur Verwendung von Log Analytics aus.
Wenn Sie einen Bucket für die Verwendung von Log Analytics upgraden, können Sie folgende Abfrage ausführen: auf der Seite Loganalysen mithilfe von SQL-Abfragen ansehen. Ich Sie können Ihre Logs auch weiterhin mit dem Log-Explorer ansehen.
Optional: Um Ihre Logs in BigQuery anzuzeigen, wählen Sie Erstellen Sie ein neues BigQuery-Dataset, das mit diesem Bucket verknüpft ist, und geben Sie einen eindeutigen Dataset-Namen ein.
Wenn Sie diese Option auswählen, kann BigQuery die Daten Daten, die in Ihrem Log-Bucket gespeichert sind. Sie können jetzt Abfragen im BigQuery-Oberfläche, über die Sie Logdaten, und auf Daten aus anderen Tools wie Looker Studio und Looker.
Optional: So wählen Sie die Speicherregion aus. Klicken Sie für Ihre Logs auf das Menü Log-Bucket-Region auswählen und wählen Sie Region Wenn Sie keine Region auswählen, wird die Region
global
verwendet, Das bedeutet, dass sich die Logs in einem der Regionen.Optional: Sie können eine benutzerdefinierte Aufbewahrungsdauer für die Logs im Bucket auf Weiter.
Geben Sie im Feld Aufbewahrungsdauer die Anzahl der Tage ein zwischen 1 Tag und 3.650 Tage fest, an denen Cloud Logging Ihre Logs aufzubewahren. Wenn Sie die Aufbewahrungsdauer nicht anpassen, wird der Standardwert
30 days
verwendet.Sie können den Bucket auch aktualisieren, um nach dem Erstellen die benutzerdefinierte Aufbewahrung anzuwenden können.
Klicken Sie auf Bucket erstellen.
Nachdem der Log-Bucket erstellt wurde, aktualisiert Logging Bucket und erstellt die Dataset-Verknüpfung, wenn diese Optionen ausgewählt wurden.
Es kann einen Moment dauern, bis diese Schritte abgeschlossen sind.
gcloud
Um nur einen Log-Bucket zu erstellen,
Führen Sie den Befehl gcloud logging buckets create
aus. Wenn Sie möchten
um den Log-Bucket für die Verwendung von Loganalysen zu aktualisieren, und fügen Sie
--enable-analytics
und
--async
-Flags
und stellen Sie sicher, dass Sie die Variable LOCATION auf
Für Loganalysen unterstützte Region:
gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS
Das Flag --async
erzwingt
um asynchron zu wechseln. Die Rückkehr von
eine asynchrone Methode ein Operation
-Objekt ist, können
enthält Informationen zum Fortschritt der Methode. Wenn der Parameter
abgeschlossen wird, enthält das Operation
-Objekt den Status. Weitere Informationen
Weitere Informationen finden Sie unter Asynchrone API-Methoden.
Wenn Sie den Log-Bucket nicht für die Verwendung von Loganalysen aktualisieren möchten, gehen Sie so vor:
--enable-analytics
weglassen und
--async
-Flags. Sie können die
die Variable LOCATION auf einen beliebigen
region [Region] an.
Wenn Sie zum Beispiel einen Bucket mit der BUCKET_ID my-bucket
in der Region global
erstellen möchten, würde Ihr Befehl so aussehen:
gcloud logging buckets create my-bucket --location global --description "My first bucket"
Wenn Sie beispielsweise einen Bucket mit der BUCKET_ID erstellen möchten,
my-upgraded-bucket
am Standort global
,
und anschließend den Log-Bucket für die Verwendung von Loganalysen aktualisieren,
würde der Befehl so aussehen:
gcloud logging buckets create my-upgraded-bucket --location global \ --description "My first upgraded bucket" \ --enable-analytics --retention-days=45
API
Verwenden Sie zum Erstellen eines Buckets die Methode
projects.locations.buckets.create
oder die
projects.locations.buckets.createAsync
. Bereiten Sie die Argumente für die Methode so vor:
Legen Sie den Parameter
parent
auf die Ressource fest, in der um den Bucket zu erstellen:projects/PROJECT_ID/locations/LOCATION
Die Variable LOCATION bezieht sich auf die Region, in der Ihre Logs gespeichert werden sollen.
Wenn Sie beispielsweise einen Bucket für das Projekt
my-project
in in der Regionglobal
würde Ihrparent
-Parameter so aussehen: dies:projects/my-project/locations/global
Legen Sie den Parameter
bucketId
fest. z. B.my-bucket
.Sie haben folgende Möglichkeiten:
So erstellen Sie einen Log-Bucket und aktualisieren dann den Log-Bucket, der verwendet werden soll: Loganalysen:
Legen Sie den booleschen Wert
LogBucket.analyticsEnabled
auftrue
fest.Asynchrone Methode aufrufen
projects.locations.buckets.createAsync
um den Bucket zu erstellen.Die Antwort auf die asynchronen Methoden ist ein
Operation
-Objekt. Dieses Objekt enthält Informationen zum Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das ObjektOperation
den Status. Weitere Informationen Weitere Informationen finden Sie unter Asynchrone API-Methoden.Die Methode
createAsync
dauert einige Minuten. Diese Methode generiert keine Fehlermeldung oder schlägt fehl, wenn der boolesche WertanalyticsEnabled
auftrue
gesetzt ist.
Andernfalls rufen Sie die synchrone Methode
projects.locations.buckets.create
um den Bucket zu erstellen.
Nachdem Sie einen Bucket erstellt haben, erstellen Sie eine Senke, um Logeinträge an Ihren Bucket weiterzuleiten und Logansichten konfigurieren können Sie steuern, wer auf die Logs in Ihrem neuen Bucket zugreifen kann und welche Logs zugänglich zu machen. Sie können auch den Bucket aktualisieren, benutzerdefinierte Aufbewahrung und eingeschränkte Felder.
Volumen der in Log-Buckets gespeicherten Logs verfolgen
Auf der Seite Logspeicher in der Google Cloud Console wird das Log-Daten, die in Log-Buckets gespeichert sind:
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Auf der Seite Logspeicher wird eine Zusammenfassung der Statistiken für Ihre Google Cloud-Projekt:
Die folgenden Statistiken werden gemeldet:
Aufnahme des aktuellen Monats: Die Menge der Logdaten, die in Ihrem Google Cloud-Projekt wurde seit dem ersten Tag in Log-Buckets gespeichert des aktuellen Kalendermonats.
Aufnahme im Vormonat: Die Menge der Logdaten, die in Ihrem Google Cloud-Projekt, das im letzten Kalendermonat in Log-Buckets gespeichert wurde.
Prognostizierte Aufnahme bis zum Monatsende: Die geschätzte Menge an Logdaten, die Das Google Cloud-Projekt wird am Ende des Aktueller Kalendermonat basierend auf der aktuellen Nutzung.
Abrechenbarer Speicher im aktuellen Monat: Die Menge der Logdaten, die im länger als 30 Tage aufbewahrt.
Die bisherigen Statistiken enthalten keine Logs in der
_Required
-Bucket. Die Logs in diesem Bucket können nicht ausgeschlossen oder deaktiviert werden.
Auf der Seite Logrouter in der Google Cloud Console finden Sie Tools, die Sie die Gebühren für das Speichern von Logs in Log-Buckets oder für Speicherkapazitäten, die Ihr monatliches Kontingent überschreiten. In diesem Fall können Sie folgende Aktionen ausführen:
- Speichern von Logs auf Bucket-Ebene deaktivieren.
- Bestimmte Logeinträge vom Speichern in Log-Buckets ausschließen
Weitere Informationen finden Sie unter Senken verwalten.
Buckets verwalten
In diesem Abschnitt wird beschrieben, wie Sie Log-Buckets mit der Google Cloud CLI verwalten oder in der Google Cloud Console.
Bucket aktualisieren
Um die Attribute Ihres Buckets zu aktualisieren, z. B. oder Aufbewahrungsdauer:Google Cloud Console
So aktualisieren Sie die Attribute des Buckets:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Klicken Sie für den Bucket, den Sie aktualisieren möchten, auf more_vert Mehr.
Klicken Sie auf Bucket bearbeiten.
Bearbeiten Sie den Bucket nach Bedarf.
Klicken Sie auf Bucket aktualisieren.
gcloud
Führen Sie den Befehl
gcloud logging buckets update
-Befehl:
gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES
Beispiel:
gcloud logging buckets update my-bucket --location=global --description "Updated description"
API
Verwenden Sie zum Aktualisieren der Bucket-Attribute
projects.locations.buckets.patch
in der Logging API.
Bucket zur Verwendung von Loganalysen upgraden
So führen Sie ein Upgrade eines vorhandenen Buckets für die Verwendung von Loganalysen durch: Es gelten Einschränkungen:
- Der Log-Bucket wurde auf Google Cloud-Projektebene erstellt.
- Der Log-Bucket ist entsperrt, es sei denn, es handelt sich um den
_Required
-Bucket. Es gibt keine ausstehenden Aktualisierungen für den Bucket.
Google Cloud Console
So aktualisieren Sie einen vorhandenen Bucket für die Verwendung von Loganalysen:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Suchen Sie den Bucket, für den Sie ein Upgrade ausführen möchten.
Wenn in der Spalte Loganalysen verfügbar Upgrade angezeigt wird, können Sie den Log-Bucket aktualisieren, um Loganalysen zu verwenden. Klicke auf Upgrade.
Ein Dialogfeld wird geöffnet. Klicken Sie auf Bestätigen.
gcloud
Führen Sie den Befehl
gcloud logging buckets update
-Befehl. Du musst
--enable-analytics
festlegen
gekennzeichnet. Wir empfehlen, auch das Tag
--async
-Flag:
gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async
Das Flag --async
erzwingt
um asynchron zu wechseln. Die Rückgabe eines asynchronen
ist ein Operation
-Objekt.
enthält Informationen zum Fortschritt der Methode. Wenn der Parameter
abgeschlossen wird, enthält das Operation
-Objekt den Status. Weitere Informationen
Weitere Informationen finden Sie unter Asynchrone API-Methoden.
API
Verwenden Sie die Methode
projects.locations.buckets.updateAsync
der Cloud Logging API.
Bereiten Sie die Argumente für die Methode so vor:
- Legen Sie den booleschen Wert
LogBucket.analyticsEnabled
auftrue
fest. - Für den Abfrageparameter des Befehls verwenden Sie
updateMask=analyticsEnabled
Die Antwort auf die asynchronen Methoden ist ein
Operation
-Objekt. Dieses Objekt enthält
Informationen zum Fortschritt der Methode. Wenn die Methode
abgeschlossen ist, enthält das Objekt Operation
den Status. Weitere Informationen
Siehe Asynchrone API-Methoden.
Es kann einige Minuten dauern, bis updateAsync
abgeschlossen ist.
Verknüpftes BigQuery-Dataset erstellen
Wenn Sie die Funktionen von BigQuery zur Analyse Ihrer Logdaten, aktualisieren Sie einen Log-Bucket zur Verwendung von Loganalysen und erstellen Sie dann einen verknüpftes Dataset. Bei dieser Konfiguration Logging speichert Ihre Logdaten, BigQuery kann die Logdaten lesen.
Google Cloud Console
Um eine Verknüpfung zu einem BigQuery-Dataset für ein vorhandenes Log-Bucket:
Lesen Sie den Abschnitt Vorbereitung der in diesem Dokument.
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Suchen Sie den Log-Bucket und prüfen Sie, ob die Loganalysen verfügbar sind. wird Öffnen angezeigt.
Wenn in dieser Spalte Upgrade angezeigt wird, wurde der Log-Bucket nicht auf Loganalysen aktualisiert. Konfigurieren Sie Loganalysen:
- Klicken Sie auf Upgrade.
- Klicken Sie im Dialogfeld auf Bestätigen.
Fahren Sie nach Abschluss des Upgrades mit dem nächsten Schritt fort.
Klicken Sie im Log-Bucket auf Mehrmore_vert. Klicken Sie dann auf Bucket bearbeiten.
Das Dialogfeld Log-Bucket bearbeiten wird geöffnet.
Wählen Sie Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist aus und geben Sie den Namen des neuen Datasets ein.
Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie vorhanden ist, erhalten Sie die folgende Fehlermeldung:
Dataset name must be unique in the selected region.
Klicken Sie auf Fertig und dann auf Bucket aktualisieren.
Nachdem Logging den Namen des verknüpften Datasets Logspeicher angezeigt wird, kann es einige Minuten dauern, bis BigQuery erkennt das Dataset.
gcloud
So erstellen Sie ein verknüpftes Dataset für einen Log-Bucket, der aktualisiert wird:
Um Loganalysen zu verwenden, führen Sie den
gcloud logging links create
-Befehl:
gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION
Das Feld LINK_ID muss für Ihr Google Cloud-Projekt eindeutig sein.
Der Befehl links create
ist asynchron. Die Rückgabe eines
ist ein Operation
-Objekt und es kann
enthält Informationen zum Fortschritt der Methode. Wenn der Parameter
abgeschlossen wird, enthält das Operation
-Objekt den Status. Weitere Informationen
Weitere Informationen finden Sie unter Asynchrone API-Methoden.
Die Ausführung des Befehls links create
dauert einige Minuten.
Mit dem folgenden Befehl wird beispielsweise ein verknüpftes Dataset für die
Bucket mit dem Namen my-bucket
:
gcloud logging links create mylink --bucket=my-bucket --location=global
Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, um ein Dataset mit demselben Namen wie ein vorhandenes Dataset zu erstellen, erhalten Sie folgende Fehlermeldung:
BigQuery dataset with name "my-bucket" already exists.
Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der nicht auf Loganalysen aktualisiert wurde, wird der folgende Fehler gemeldet:
A link can only be created for an analytics-enabled bucket.
API
So erstellen Sie ein verknüpftes BigQuery-Dataset für einen vorhandenen Log-Bucket:
das aktualisiert wurde, verwenden Sie Loganalysen, rufen Sie die asynchrone
projects.locations.buckets.links.create
der Cloud Logging API.
Bereiten Sie die Argumente für die Methode so vor:
- Erstellen Sie den Anfragetext für den Befehl
create
. Der Anfragetext ist alsLink
-Objekt formatiert. - Für den Abfrageparameter des Befehls verwenden Sie
linkId=LINK_ID
Die von Ihnen angegebene LINK_ID wird verwendet als Name des Datasets. Daher hat LINK_ID denselben Wert wie die reine Ausgabe-DATASET_ID.
Die Antwort auf die asynchronen Methoden ist ein
Operation
-Objekt. Dieses Objekt enthält
Informationen zum Fortschritt der Methode. Wenn der Parameter
abgeschlossen wird, enthält das Operation
-Objekt den Status. Weitere Informationen
Weitere Informationen finden Sie unter Asynchrone API-Methoden.
Die Methode links.create
dauert einige Minuten.
Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, um ein Dataset mit demselben Namen wie ein vorhandenes Dataset zu erstellen, erhalten Sie folgende Fehlermeldung:
BigQuery dataset with name "my-bucket" already exists.
Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der nicht auf Loganalysen aktualisiert wurde, wird der folgende Fehler gemeldet:
A link can only be created for an analytics-enabled bucket.
Bucket sperren
Wenn Sie einen Bucket für Updates sperren, sperren Sie auch die Aufbewahrungsrichtlinie. Nachdem eine Aufbewahrungsrichtlinie gesperrt ist, können Sie den Bucket bis jeder Logeintrag im Bucket die Aufbewahrungsfrist des Buckets erfüllt hat Punkt.
Wenn Sie verhindern möchten, dass ein Log-Bucket aktualisiert oder gelöscht wird, sperren Sie den Bucket. So sperren Sie den Bucket:
Google Cloud Console
Die Google Cloud Console unterstützt das Sperren eines Log-Buckets nicht.
gcloud
Führen Sie den gcloud logging buckets update
aus, um den Bucket zu sperren.
Befehl mit dem Flag --locked
:
gcloud logging buckets update BUCKET_ID --location=LOCATION --locked
Beispiel:
gcloud logging buckets update my-bucket --location=global --locked
API
Verwenden Sie zum Sperren der Bucket-Attribute
projects.locations.buckets.patch
in der Logging API. Legen Sie den locked
-Parameter auf true
fest.
Buckets auflisten
So listen Sie die mit einem Google Cloud-Projekt verknüpften Log-Buckets auf und sehen wie die Aufbewahrungseinstellungen, gehen Sie so vor:
Google Cloud Console
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
In der Tabelle Log-Buckets werden die Buckets aufgelistet, die dem aktuellen Google Cloud-Projekt
In der Tabelle sind die folgenden Attribute für jeden Log-Bucket aufgeführt:
- Name: Der Name des Log-Buckets.
- Beschreibung: Die Beschreibung des Buckets.
- Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
- Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
- Status: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.
Wenn für einen Bucket das Löschen durch Cloud Logging aussteht: wird der zugehörige Tabelleneintrag mit der Warnung warning gekennzeichnet. .
gcloud
Führen Sie den Befehl gcloud logging buckets list
aus:
gcloud logging buckets list
Für die Log-Buckets werden die folgenden Attribute angezeigt:
LOCATION
ist die Region, in der die Daten des Buckets gespeichert werden.BUCKET_ID
: Der Name des Log-Buckets.RETENTION_DAYS
: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.LIFECYCLE_STATE
: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.LOCKED
: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.CREATE_TIME
: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.UPDATE_TIME
: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.
Sie können auch die Attribute für nur einen Bucket aufrufen. Um beispielsweise
die Details zum Log-Bucket _Default
in der Region global
, führen Sie den
gcloud logging buckets describe
-Befehl:
gcloud logging buckets describe _Default --location=global
API
Verwenden Sie zum Auflisten der mit einem Google Cloud-Projekt verknüpften Log-Buckets
projects.locations.buckets.list
in der Logging API.
Details eines Buckets anzeigen lassen
So rufen Sie die Details eines einzelnen Log-Buckets auf:
Google Cloud Console
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Klicken Sie im Log-Bucket auf more_vert Mehr und dann auf Wählen Sie Bucket-Details ansehen aus.
Das Dialogfeld enthält die folgenden Attribute für den Log-Bucket:
- Name: Der Name des Log-Buckets.
- Beschreibung: Die Beschreibung des Log-Buckets.
- Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
- Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
- Loganalysen: Gibt an, ob der Bucket für die Verwendung aktualisiert wurde Loganalysen.
- BigQuery-Analyse: Gibt an, ob ein Das BigQuery-Dataset ist mit Ihrem Bucket verknüpft.
- BigQuery-Dataset: Enthält einen Link zu Ihrem BigQuery-Dataset, das in der BigQuery Studio. Außerdem wird das Datum angezeigt, an dem die BigQuery-Verknüpfung aktiviert wurde.
gcloud
Führen Sie den Befehl gcloud logging buckets describe
aus.
Mit dem folgenden Befehl werden beispielsweise die Details des _Default
-Objekts ausgegeben.
Bucket:
gcloud logging buckets describe _Default --location=global
Für den Log-Bucket werden die folgenden Attribute angezeigt:
createTime
: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.description
: Die Beschreibung des Log-Buckets.lifecycleState
: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.name
: Der Name des Log-Buckets.retentionDays
: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.updateTime
: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.
API
Zum Anzeigen der Details eines einzelnen Log-Buckets verwenden Sie
projects.locations.buckets.get
in der Logging API.
Buckets löschen
So löschen Sie einen Log-Bucket:
Google Cloud Console
So löschen Sie einen Log-Bucket:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Suchen Sie den Bucket, den Sie löschen möchten, und klicken Sie auf more_vertWeitere Informationen
Wenn in der Spalte Verknüpftes Dataset in BigQuery verknüpfen und dann das verknüpfte BigQuery-Dataset löschen:
Klicken Sie auf Bucket bearbeiten.
Entfernen Sie das Häkchen aus dem Kästchen neben Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist. Klicken Sie dann auf Fertig und anschließend auf Bucket aktualisieren
Wenn Sie zur Seite Logspeicher zurückgekehrt sind, klicken Sie auf more_vertKlicken Sie auf das Dreipunkt-Menü für den Bucket, den Sie löschen möchten, und dann auf fahren Sie mit den nächsten Schritten fort.
Klicken Sie auf Bucket löschen.
Klicken Sie im Bestätigungsfeld auf Löschen.
Auf der Seite Logspeicher wird der Hinweis angezeigt, dass der Löschvorgang des Buckets aussteht. Der Bucket mit allen darin enthaltenen Logs wird dann nach sieben Tagen gelöscht.
gcloud
Führen Sie zum Löschen eines Log-Buckets den Befehl
gcloud logging buckets delete
-Befehl:
gcloud logging buckets delete BUCKET_ID --location=LOCATION
Sie können einen Log-Bucket nicht löschen, wenn mit diesem Bucket BigQuery-Dataset:
- Führen Sie den Befehl
gcloud logging links list
-Befehl. - Um ein verknüpftes Dataset zu löschen, führen Sie den
gcloud logging links delete
-Befehl.
API
Verwenden Sie zum Löschen eines Buckets
projects.locations.buckets.delete
in der Logging API.
Es ist ein Fehler, einen Log-Bucket zu löschen, wenn dieser mit einem BigQuery-Dataset Sie müssen das verknüpfte Dataset löschen, bevor Löschen des Log-Buckets:
- Führen Sie den Befehl
projects.locations.buckets.links.list
. - Um ein verknüpftes Dataset zu löschen, führen Sie den
projects.locations.buckets.links.delete
.
Ein gelöschter Bucket verbleibt sieben Tage im Status "Ausstehend". In diesem Zeitraum werden die Logs von Logging an den Bucket weitergeleitet. Wenn Sie das Routing von Logs an einen gelöschten Bucket beenden möchten, können Sie die Logsenken löschen, die diesen Bucket als Ziel haben. Alternativ haben Sie die Möglichkeit, den Filter für die Senken so zu ändern, dass Logs nicht mehr an den gelöschten Bucket weitergeleitet werden.
Sie können keinen neuen Log-Bucket erstellen, der denselben Namen wie ein gelöschter Bucket hat das sich im Status „Ausstehend“ befindet.
Gelöschten Bucket wiederherstellen
Sie können einen Log-Bucket mit dem Status "Ausstehend" wiederherstellen oder den Löschvorgang aufheben. So stellen Sie einen Log-Bucket wieder her:
Google Cloud Console
So stellen Sie einen Log-Bucket wieder her, der zum Löschen vorgemerkt ist:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Für den Bucket, den Sie wiederherstellen möchten, Klicken Sie auf more_vert Mehr und wählen Sie Gelöschten Bucket wiederherstellen
Klicken Sie im Bestätigungsfeld auf Wiederherstellen.
Auf der Seite Protokollspeicher wird die Anzeige für den ausstehenden Löschvorgang entfernt. aus dem Log-Bucket.
gcloud
Um einen Log-Bucket wiederherzustellen, dessen Löschung aussteht, führen Sie den
gcloud logging buckets undelete
-Befehl:
gcloud logging buckets undelete BUCKET_ID --location=LOCATION
API
Um einen Bucket wiederherzustellen, dessen Löschung aussteht, verwenden Sie
projects.locations.buckets.undelete
in der Logging API.
Benachrichtigung zu monatlichen Logbyte, die in Log-Buckets gespeichert sind
So erstellen Sie eine Benachrichtigungsrichtlinie auf der Seite Logspeicher in der
Klicken Sie in der Google Cloud Console auf add_alert Nutzungsbenachrichtigung erstellen. Dieses
öffnet sich die Seite Benachrichtigungsrichtlinie erstellen in Monitoring.
und füllt das Messwerttyp-Feld mit
logging.googleapis.com/billing/bytes_ingested
So erstellen Sie eine Benachrichtigungsrichtlinie, die ausgelöst wird, wenn die Anzahl der Logbyte, die in Ihre Log-Buckets geschrieben wurden, überschreitet das benutzerdefinierte Limit für Cloud Logging: Verwenden Sie die folgenden Einstellungen.
Neue Bedingung Feld |
Wert |
---|---|
Ressource und Messwert | Wählen Sie im Menü Ressourcen die Option Global aus. Wählen Sie im Menü Messwertkategorien die Option Logbasierter Messwert aus. Wählen Sie im Menü Messwerte die Option Aufgenommene Log-Bytes pro Monat aus. |
Filter | – |
Über Zeitreihen hinweg Zeitreihenaggregation |
sum |
Rollierendes Zeitfenster | 60 m |
Funktion für rollierendes Zeitfenster | max |
Benachrichtigungstrigger konfigurieren Feld |
Wert |
---|---|
Bedingungstyp | Threshold |
Benachrichtigungstrigger | Any time series violates |
Grenzwertposition | Above threshold |
Grenzwert | Sie legen den akzeptablen Wert fest. |
Zeitfenster noch einmal testen | Der kleinste akzeptable Wert liegt bei 30 Minuten. |
Weitere Informationen zu Benachrichtigungsrichtlinien finden Sie unter Benachrichtigungsübersicht:
In einen Bucket schreiben
Sie schreiben Logs nicht direkt in einen Log-Bucket. Stattdessen schreiben Sie Protokolle in Google Cloud-Ressource: ein Google Cloud-Projekt, ein Ordner oder eine Organisation. Die Senken in der übergeordneten Ressource leiten dann die Logs an Ziele weiter, einschließlich Log-Buckets. Eine Senke leitet Logs an ein Log-Bucket-Ziel weiter, wenn die Logs mit dem Filter der Senke übereinstimmen und die Senke berechtigt ist, die Logs an den Log-Bucket weiterzuleiten.
Aus einem Bucket lesen
Jeder Log-Bucket verfügt über eine Reihe von Logansichten. Zum Lesen von Logs aus einem Log-Bucket benötigen Sie Zugriff auf eine Logansicht des Log-Buckets. In Logansichten können Sie einem Nutzer Nur Zugriff auf eine Teilmenge der in einem Log-Bucket gespeicherten Logs. Weitere Informationen wie Sie Logansichten konfigurieren und Zugriff auf bestimmte Logansichten gewähren, Weitere Informationen finden Sie unter Logansichten für einen Log-Bucket konfigurieren.
So lesen Sie Logs aus einem Log-Bucket:
Google Cloud Console
-
Rufen Sie in der Google Cloud Console die Seite Log-Explorer auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
So legen Sie fest, welche Logs im Log-Explorer angezeigt werden: Klicken Sie auf Bereich eingrenzen und wählen Sie eine Option aus. Beispiel: können Sie Logs aufrufen, die in einem Projekt oder nach Logansicht gespeichert sind.
Klicken Sie auf Anwenden. Der Bereich Abfrageergebnisse wird mit den übereinstimmenden Logs aktualisiert. die ausgewählte Option.
Weitere Informationen finden Sie unter Übersicht über den Log-Explorer: Bereich eingrenzen
gcloud
Verwenden Sie zum Lesen von Logs aus einem Log-Bucket die Methode
gcloud logging read
und fügen Sie
ein LOG_FILTER
zum Auswählen
Daten:
gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID
API
Verwenden Sie zum Lesen von Logs aus einem Log-Bucket die Methode
entries.list. Festlegen
resourceNames
, um die entsprechende Bucket- und Logansicht anzugeben, und legen Sie
filter
, um Daten auszuwählen.
Detaillierte Informationen zur Filtersyntax finden Sie unter Logging-Abfragesprache:
Benutzerdefinierte Aufbewahrung konfigurieren
Wenn Sie einen Log-Bucket erstellen, können Sie den Zeitraum anpassen, für den Cloud Logging die Logs des Buckets speichert.
Sie können die Aufbewahrungsdauer für jeden benutzerdefinierten Log-Bucket konfigurieren und außerdem
für den Log-Bucket _Default
.
Wenn Sie die Aufbewahrung des Buckets verkürzen, gilt ein Kulanzzeitraum von 7 Tagen im welche abgelaufenen Logs nicht gelöscht werden. Sie können diese abgelaufenen Logs nicht abfragen oder ansehen In diesen 7 Tagen können Sie den vollen Zugriff wiederherstellen, indem Sie Nutzerbindung. Protokolle, die während des Kulanzzeitraums gespeichert werden, zählen zu Ihrem Aufbewahrungskosten.
So aktualisieren Sie die Aufbewahrungsdauer für einen Log-Bucket:
Google Cloud Console
So aktualisieren Sie die Aufbewahrungsdauer eines Log-Buckets:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Für den Bucket, den Sie aktualisieren möchten, Klicken Sie auf more_vert Mehr und wählen Sie Bucket bearbeiten
Geben Sie im Feld Aufbewahrung die Anzahl der Tage zwischen 1 und 3650 Tagen ein, in denen Cloud Logging die Logs speichern soll.
Klicken Sie auf Bucket aktualisieren. Die neue Aufbewahrungsdauer wird in der Liste Log-Bucket angezeigt.
gcloud
Führen Sie den folgenden Befehl aus, um die Aufbewahrungsdauer für einen Log-Bucket zu aktualisieren:
gcloud logging buckets update
-Befehl, nachdem ein Wert für
RETENTION_DAYS:
gcloud logging buckets update BUCKET_ID --location=LOCATION --retention-days=RETENTION_DAYS
Wenn Sie beispielsweise die Logs im Bucket _Default
im
global
für ein Jahr festgelegt haben, sieht Ihr Befehl so aus:
gcloud logging buckets update _Default --location=global --retention-days=365
Wenn Sie die Aufbewahrungsdauer eines Buckets verlängern, gelten die Aufbewahrungsregeln in Zukunft und nicht rückwirkend. Logs können nach Ablauf der Aufbewahrungsdauer nicht wiederhergestellt werden.
Asynchrone API-Methoden
Die Antwort einer asynchronen Methode wie
projects.locations.buckets.createAsync
ist ein Operation
-Objekt.
Anwendungen, die eine asynchrone API-Methode aufrufen, sollten
operation.get
-Endpunkt
Wert des Felds Operation.done
ist true
:
Wenn
done
den Wertfalse
hat, wird der Vorgang noch ausgeführt.Senden Sie zum Aktualisieren der Statusinformationen eine
GET
-Anfrage an den Endpunktoperation.get
.Wenn
done
den Werttrue
hat, ist der Vorgang abgeschlossen und entweder das Felderror
oderresponse
ist festgelegt:error
: Wenn dies festgelegt ist, ist der asynchrone Vorgang fehlgeschlagen. Der Wert dieses Feldes ist einStatus
-Objekt, das enthält einen gRPC-Fehlercode und eine Fehlermeldung.response
: Wenn dies festgelegt ist, wurde der asynchrone Vorgang erfolgreich abgeschlossen und der Wert spiegelt das Ergebnis wider.
Führen Sie folgenden Befehl aus, um einen asynchronen Befehl mithilfe der Google Cloud CLI abzufragen: Befehl:
gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID
Weitere Informationen finden Sie unter gcloud logging operations describe
.
Häufige Probleme beheben
Wenn bei der Verwendung von Log-Buckets Probleme auftreten, lesen Sie folgende Schritte zur Fehlerbehebung und Antworten auf häufig gestellte Fragen.
Warum kann ich diesen Bucket nicht löschen?
Wenn Sie versuchen, einen Bucket zu löschen, gehen Sie so vor:
Prüfen Sie, ob Sie die erforderlichen Berechtigungen zum Löschen des Buckets haben. Für die Liste der erforderlichen Berechtigungen finden Sie unter Zugriffssteuerung mit IAM
Bestimmen Sie, ob der Bucket gesperrt ist. Listen Sie dazu die Attribute des Buckets auf. Wenn der Bucket gesperrt ist, prüfen Sie die Aufbewahrungsdauer. Sie können gesperrte Buckets erst löschen, wenn alle Logs im Bucket die Aufbewahrungsdauer des Buckets erreicht haben.
Achten Sie darauf, dass der Log-Bucket kein verknüpftes BigQuery-Dataset hat. Sie können einen Log-Bucket mit einem verknüpften Dataset nicht löschen.
Der folgende Fehler wird als Antwort auf den Befehl
delete
in einer Log-Bucket mit einem verknüpften Dataset:FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
Führen Sie den Befehl
gcloud logging links list
-Befehl oder führen Sie denprojects.locations.buckets.links.list
API-Methode.
Welche Dienstkonten leiten Logs an meinen Bucket weiter?
So ermitteln Sie, ob Dienstkonten IAM-Berechtigungen zum Weiterleiten von Logs an Ihren Bucket haben:
-
Öffnen Sie in der Google Cloud Console die Seite IAM:
Rufen Sie IAM auf.
Wenn Sie diese Seite über die Suchleiste finden, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift IAM und Verwaltung.
Wählen Sie aus dem Tab Berechtigungen die Ansicht nach Rollen. Sie sehen eine Tabelle mit allen IAM-Rollen und -Hauptkonten, die mit Ihren Google Cloud-Projekt
Geben Sie in das Textfeld Filter filter_list der Tabelle Log-Bucket-Autor ein.
Sie sehen alle Hauptkonten mit der Rolle Log-Bucket-Autor. Wenn ein Hauptkonto ein Dienstkonto ist, enthält dessen ID den String
gserviceaccount.com
.Optional: Wenn Sie ein Dienstkonto entfernen möchten, damit keine Weiterleitung mehr möglich ist zu Ihrem Google Cloud-Projekt haben, wählen Sie Kästchen check_box_outline_blank für das Dienstkonto und klicken Sie auf Entfernen.
Warum sehe ich Logs für ein Google Cloud-Projekt, obwohl ich sie aus meiner _Default
-Senke ausgeschlossen habe?
Möglicherweise sehen Sie sich Logs in einem Log-Bucket in einem zentralisierten Google Cloud-Projekt, und aggregiert Logs aus Ihrer gesamten Organisation.
Wenn Sie mit dem Log-Explorer auf diese Logs zugreifen und Logs aufrufen,
von der Senke _Default
ausgeschlossen wird, dann ist Ihre Ansicht möglicherweise auf
Google Cloud-Projektebene.
Um das Problem zu beheben, wählen Sie Bereich nach Speicher im
Bereich Bereich eingrenzen
und wählen dann den Bucket _Default
in der
Google Cloud-Projekt Die ausgeschlossenen Logs sollten nun nicht mehr angezeigt werden.
Nächste Schritte
Informationen zu den Methoden der Logs Bucket API finden Sie in der LogBucket
-Referenzdokumentation.
Informationen zur Bewältigung gängiger Anwendungsfälle mit Log-Buckets finden Sie in den folgenden Themen: