In diesem Dokument wird beschrieben, wie Sie Cloud Logging-Buckets mit der Google Cloud Console, der Google Cloud CLI und der Logging API erstellen und verwalten.
Außerdem finden Sie hier Anleitungen zum Erstellen und Verwalten von Log-Buckets auf Google Cloud-Projektebene. Sie können keine Log-Buckets auf Ordner- oder Organisationsebene erstellen. Cloud Logging erstellt jedoch automatisch _Default
- und _Required
-Buckets auf Ordner- und Organisationsebene.
Sie können Log-Buckets so aktualisieren, dass sie Loganalysen verwenden. Mit Loganalysen können Sie SQL-Abfragen für Ihre Logdaten ausführen und so Anwendungs-, Sicherheits- und Netzwerkprobleme beheben.
Sie haben zwei Möglichkeiten, Ihre Logdaten mit BigQuery zu analysieren:
Aktualisieren Sie einen Log-Bucket zur Verwendung von Loganalysen und erstellen Sie dann ein verknüpftes BigQuery-Dataset. In diesem Szenario werden die Logdaten in Logging gespeichert, aber BigQuery kann die Daten lesen.
Exportieren Sie Ihre Logeinträge nach BigQuery. In diesem Szenario müssen Sie eine Senke erstellen, BigQuery speichert und verwaltet die Daten und Sie haben die Möglichkeit, partitionierte Tabellen zu verwenden.
Sobald Ihre Logdaten für BigQuery verfügbar sind, können Sie sie mit anderen in BigQuery gespeicherten Daten zusammenführen und über andere Tools wie Looker Studio und Looker auf diese Daten zugreifen.
Eine konzeptionelle Übersicht über Buckets finden Sie unter Routing und Speicherübersicht: Log-Buckets.
Hinweise
Gehen Sie für einen Einstieg in Buckets folgendermaßen vor:
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
Achten Sie darauf, dass Ihnen Ihre IAM-Rolle (Identity and Access Management) die Berechtigungen zum Erstellen, Aktualisieren und Verknüpfen von Buckets gewährt.
Die Rolle "Autor von Logkonfigurationen" (
roles/logging.configWriter
) ist die minimale vordefinierte Rolle, die die Berechtigungen zum Verwalten von Buckets gewährt. Eine vollständige Liste der Berechtigungen und Rollen finden Sie unter Zugriffssteuerung mit IAM.Machen Sie sich mit den Formatierungsanforderungen für
LogBucket
vertraut, einschließlich der unterstützten Regionen, in denen Sie Ihre Logs speichern können.Sie können einen Standardspeicherort für Ressourcen festlegen, um eine Standardspeicherregion für die Buckets
_Required
und_Default
in Ihrer Organisation anzuwenden.So rufen Sie die in einem Log-Bucket gespeicherten Daten mit BigQuery auf:
Die BigQuery API muss aktiviert sein. Sie können prüfen, ob die API aktiviert ist, indem Sie verfügbare Dienste auflisten.
Ihre Rolle für Identity and Access Management enthält die Berechtigungen, mit denen Sie ein verknüpftes Dataset erstellen können. Weitere Informationen finden Sie unter Berechtigungen für verknüpfte BigQuery-Datasets.
Informationen zum Erstellen eines Log-Buckets, in dem ein vom Kunden verwalteter Verschlüsselungsschlüssel (CMEK) verwendet wird, finden Sie unter CMEK für Logspeicher konfigurieren.
Bucket erstellen
Sie können maximal 100 Buckets pro Google Cloud-Projekt erstellen.
So erstellen Sie einen benutzerdefinierten Log-Bucket für Ihr Google Cloud-Projekt:
Google Cloud Console
So erstellen Sie einen Log-Bucket in Ihrem Google Cloud-Projekt:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Klicken Sie auf Log-Bucket erstellen.
Geben Sie unter Name einen Namen und unter Beschreibung eine Beschreibung für den Bucket ein.
Optional: Aktualisieren Sie Ihren Bucket, um Loganalysen zu verwenden.
Wählen Sie Upgrade zur Verwendung von Log Analytics aus.
Wenn Sie einen Bucket für die Verwendung von Loganalysen upgraden, können Sie Ihre Logs auf der Seite Loganalysen mithilfe von SQL-Abfragen abfragen. Sie können Ihre Logs auch weiterhin mit dem Log-Explorer ansehen.
Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.
Optional: Um Ihre Logs in BigQuery anzusehen, wählen Sie Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist aus und geben Sie einen eindeutigen Dataset-Namen ein.
Wenn Sie diese Option auswählen, kann BigQuery die in Ihrem Log-Bucket gespeicherten Daten lesen. Sie können Abfragen jetzt über die BigQuery-Oberfläche ausführen, um Ihre Logdaten zusammenzuführen und auf Daten aus anderen Tools wie Looker Studio und Looker zuzugreifen.
Optional: Klicken Sie auf das Menü Log-Bucket-Region auswählen und wählen Sie eine Region aus, um die Speicherregion für Ihre Logs auszuwählen. Wenn Sie keine Region auswählen, wird die Region
global
verwendet. Das bedeutet, dass sich die Logs in einer beliebigen Region befinden können.Optional: Klicken Sie auf Weiter, um eine benutzerdefinierte Aufbewahrungsdauer für die Logs im Bucket festzulegen.
Geben Sie im Feld Aufbewahrungsdauer die Anzahl der Tage zwischen 1 und 3.650 Tagen ein, für die Cloud Logging Ihre Logs aufbewahren soll. Wenn Sie die Aufbewahrungsdauer nicht anpassen, wird der Standardwert
30 days
verwendet.Sie können den Bucket auch aktualisieren, um die benutzerdefinierte Aufbewahrung anzuwenden, nachdem Sie ihn erstellt haben.
Klicken Sie auf Bucket erstellen.
Nachdem der Log-Bucket erstellt wurde, aktualisiert Logging ihn und erstellt die Dataset-Verknüpfung, wenn diese Optionen ausgewählt wurden.
Es kann einen Moment dauern, bis diese Schritte abgeschlossen sind.
gcloud
Wenn Sie nur einen Log-Bucket erstellen möchten, führen Sie den Befehl gcloud logging buckets create
aus. Wenn Sie den Log-Bucket für die Verwendung von Loganalysen aktualisieren möchten, fügen Sie die Flags --enable-analytics
und --async
hinzu und legen Sie die Variable LOCATION auf eine für Loganalysen unterstützte Region fest:
gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS
Das Flag --async
erzwingt einen asynchronen Befehl. Eine asynchrone Methode gibt ein Operation
-Objekt zurück. Es enthält Informationen zum Fortschritt der Methode. Nach Abschluss der Methode enthält das Operation
-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.
Wenn Sie den Log-Bucket nicht für die Verwendung von Loganalysen aktualisieren möchten, lassen Sie die Flags --enable-analytics
und --async
weg. Sie können die Variable LOCATION auf eine beliebige unterstützte Region setzen.
Wenn Sie zum Beispiel einen Bucket mit der BUCKET_ID my-bucket
in der Region asia-east2
erstellen möchten, würde Ihr Befehl so aussehen:
gcloud logging buckets create my-bucket --location asia-east2 --description "My first bucket"
Wenn Sie beispielsweise einen Bucket mit dem BUCKET_ID
my-upgraded-bucket
am Standort us
erstellen und dann den Log-Bucket für die Verwendung von Loganalysen aktualisieren möchten, sieht Ihr Befehl so aus:
gcloud logging buckets create my-upgraded-bucket --location us \ --description "My first upgraded bucket" \ --enable-analytics --retention-days=45
API
Verwenden Sie zum Erstellen eines Buckets die Methode projects.locations.buckets.create
oder die Methode projects.locations.buckets.createAsync
. Bereiten Sie die Argumente für die Methode so vor:
Legen Sie den Parameter
parent
auf die Ressource fest, in der der Bucket erstellt werden soll:projects/PROJECT_ID/locations/LOCATION
Die Variable LOCATION bezieht sich auf die Region, in der Ihre Logs gespeichert werden sollen. Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.
Wenn Sie beispielsweise einen Bucket für das Projekt
my-project
in der Regionasia-east2
erstellen möchten, sieht der Parameterparent
so aus:projects/my-project/locations/asia-east2
Legen Sie den Parameter
bucketId
fest, z. B.my-bucket
.Führen Sie einen der folgenden Schritte aus:
So erstellen Sie einen Log-Bucket und aktualisieren ihn dann für die Verwendung von Loganalysen:
Legen Sie den booleschen Wert
LogBucket.analyticsEnabled
auftrue
fest.Rufen Sie die asynchrone Methode
projects.locations.buckets.createAsync
auf, um den Bucket zu erstellen.Die Antwort auf die asynchronen Methoden ist ein
Operation
-Objekt. Dieses Objekt enthält Informationen zum Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das ObjektOperation
den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.Die Methode
createAsync
dauert einige Minuten. Diese Methode erzeugt keine Fehlermeldung und schlägt fehl, wenn der boolesche WertanalyticsEnabled
auftrue
gesetzt ist und die Region für aktualisierte Buckets nicht unterstützt wird. Wenn Sie beispielsweise den Standort aufasia-east2
festlegen, wird der Log-Bucket erstellt, aber kein Upgrade zur Verwendung von Loganalysen durchgeführt.
Andernfalls rufen Sie die synchrone Methode
projects.locations.buckets.create
auf, um den Bucket zu erstellen.
Erstellen Sie nach dem Erstellen eines Buckets eine Senke, um Logeinträge an den Bucket weiterzuleiten, und konfigurieren Sie Logansichten, um zu steuern, wer auf die Logs im neuen Bucket zugreifen kann und welche Logs für sie zugänglich sind. Sie können den Bucket auch aktualisieren, um die benutzerdefinierte Aufbewahrung und eingeschränkte Felder zu konfigurieren.
Volumen der in Log-Buckets gespeicherten Logs verfolgen
Auf der Seite Logspeicher in der Google Cloud Console wird das Volumen der in Log-Buckets gespeicherten Logdaten erfasst:
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Auf der Seite Logspeicher wird eine Zusammenfassung der Statistiken für Ihr Google Cloud-Projekt angezeigt:
Die folgenden Statistiken werden gemeldet:
Aufnahme des aktuellen Monats: Die Menge der Logdaten, die in Ihrem Google Cloud-Projekt seit dem ersten Tag des aktuellen Kalendermonats in Log-Buckets gespeichert wurden.
Aufnahme im Vormonat: Die Menge der Logdaten, die Ihr Google Cloud-Projekt im letzten Kalendermonat in Log-Buckets gespeichert hat.
Prognostizierte Aufnahme bis zum Monatsende: Die geschätzte Menge an Logdaten, die Ihr Google Cloud-Projekt bis zum Ende des aktuellen Kalendermonats in Log-Buckets speichert, basierend auf der aktuellen Nutzung.
Abrechenbarer Speicher im aktuellen Monat: Die Menge der Logdaten, die länger als 30 Tage aufbewahrt werden und abgerechnet werden.
Die vorherigen Statistiken enthalten keine Logs im _Required
-Bucket. Die Logs in diesem Bucket können nicht ausgeschlossen oder deaktiviert werden.
Auf der Seite Logrouter in der Google Cloud Console finden Sie Tools, mit denen Sie die Kosten für das Speichern von Logs in Log-Buckets oder für das Überschreiten Ihres monatlichen Kontingents minimieren können. Sie können Folgendes tun:
- Speichern von Logs auf Bucket-Ebene deaktivieren.
- Bestimmte Logeinträge vom Speichern in Log-Buckets ausschließen
Weitere Informationen finden Sie unter Senken verwalten.
Buckets verwalten
In diesem Abschnitt wird beschrieben, wie Sie Log-Buckets mit der Google Cloud CLI oder der Google Cloud Console verwalten.
Bucket aktualisieren
So aktualisieren Sie die Attribute Ihres Buckets, z. B. die Beschreibung oder die Aufbewahrungsdauer:
Google Cloud Console
So aktualisieren Sie die Attribute des Buckets:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Klicken Sie für den Bucket, den Sie aktualisieren möchten, auf more_vert Mehr.
Klicken Sie auf Bucket bearbeiten.
Bearbeiten Sie den Bucket nach Bedarf.
Klicken Sie auf Bucket aktualisieren.
gcloud
Führen Sie den Befehl gcloud logging buckets update
aus, um die Attribute des Buckets zu aktualisieren:
gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES
Beispiel:
gcloud logging buckets update my-bucket --location=global --description "Updated description"
API
Verwenden Sie projects.locations.buckets.patch
in der Logging API, um die Attribute des Buckets zu aktualisieren.
Bucket zur Verwendung von Log Analytics upgraden
Für das Upgrade eines vorhandenen Buckets für die Verwendung von Loganalysen gelten die folgenden Einschränkungen:
- Der Log-Bucket wurde auf Google Cloud-Projektebene erstellt.
- Der Log-Bucket ist entsperrt, es sei denn, es handelt sich um den
_Required
-Bucket. - Es gibt keine ausstehenden Aktualisierungen für den Bucket.
Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.
Google Cloud Console
So aktualisieren Sie einen vorhandenen Bucket für die Verwendung von Loganalysen:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Suchen Sie den Bucket, für den Sie ein Upgrade ausführen möchten.
Wenn in der Spalte Loganalysen verfügbar Upgrade angezeigt wird, können Sie den Log-Bucket so aktualisieren, dass er Loganalysen verwendet. Klicke auf Upgrade.
Ein Dialogfeld wird geöffnet. Klicken Sie auf Bestätigen.
gcloud
Führen Sie den Befehl gcloud logging buckets update
aus, um den Log-Bucket für die Verwendung von Loganalysen zu aktualisieren. Sie müssen das Flag --enable-analytics
festlegen. Wir empfehlen, auch das Flag --async
anzugeben:
gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async
Das Flag --async
erzwingt einen asynchronen Befehl. Eine asynchrone Methode gibt ein Operation
-Objekt zurück, das Informationen zum Fortschritt der Methode enthält. Nach Abschluss der Methode enthält das Operation
-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.
API
Verwenden Sie die Methode projects.locations.buckets.updateAsync
der Cloud Logging API, um einen Log-Bucket für die Verwendung von Loganalysen zu aktualisieren.
Bereiten Sie die Argumente für die Methode so vor:
- Legen Sie den booleschen Wert
LogBucket.analyticsEnabled
auftrue
fest. - Verwenden Sie für den Abfrageparameter des Befehls
updateMask=analyticsEnabled
.
Die Antwort auf die asynchronen Methoden ist ein Operation
-Objekt. Dieses Objekt enthält Informationen zum Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation
den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.
Es kann einige Minuten dauern, bis updateAsync
abgeschlossen ist.
Verknüpftes BigQuery-Dataset erstellen
Wenn Sie die Funktionen von BigQuery zum Analysieren Ihrer Logdaten nutzen möchten, aktualisieren Sie einen Log-Bucket zur Verwendung von Loganalysen und erstellen Sie dann ein verknüpftes Dataset. Bei dieser Konfiguration speichert Logging Ihre Logdaten, aber BigQuery kann die Logdaten lesen.
Google Cloud Console
So erstellen Sie eine Verknüpfung zu einem BigQuery-Dataset für einen vorhandenen Log-Bucket:
Lesen Sie den Abschnitt Vorbereitung in diesem Dokument.
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Suchen Sie den Log-Bucket und prüfen Sie, ob in der Spalte Loganalysen verfügbar Open (Offen) angezeigt wird.
Wenn in dieser Spalte Upgrade angezeigt wird, wurde der Log-Bucket nicht für die Verwendung von Loganalysen aktualisiert. Konfigurieren Sie Loganalysen:
- Klicken Sie auf Upgrade.
- Klicken Sie im Dialogfeld auf Bestätigen.
Fahren Sie nach Abschluss des Upgrades mit dem nächsten Schritt fort.
Klicken Sie im Log-Bucket auf Mehrmore_vert und dann auf Bucket bearbeiten.
Das Dialogfeld Log-Bucket bearbeiten wird geöffnet.
Wählen Sie Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist aus und geben Sie den Namen des neuen Datasets ein.
Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie den Namen eines vorhandenen Datasets eingeben, wird die folgende Fehlermeldung angezeigt:
Dataset name must be unique in the selected region.
Klicken Sie auf Fertig und dann auf Bucket aktualisieren.
Nachdem Logging den Namen des verknüpften Datasets auf der Seite Logspeicher angezeigt hat, kann es einige Minuten dauern, bis BigQuery das Dataset erkennt.
gcloud
Führen Sie den Befehl gcloud logging links create
aus, um ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der für die Verwendung von Loganalysen aktualisiert wurde:
gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION
Das Feld LINK_ID muss für Ihr Google Cloud-Projekt eindeutig sein.
Der Befehl links create
ist asynchron. Eine asynchrone Methode gibt ein Operation
-Objekt zurück, das Informationen zum Fortschritt der Methode enthält. Nach Abschluss der Methode enthält das Operation
-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.
Die Ausführung des Befehls links create
dauert einige Minuten.
Mit dem folgenden Befehl wird beispielsweise ein verknüpftes Dataset für den Bucket mit dem Namen my-bucket
erstellt:
gcloud logging links create mylink --bucket=my-bucket --location=global
Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, ein Dataset mit demselben Namen wie ein vorhandenes Dataset zu erstellen, wird die folgende Fehlermeldung angezeigt:
BigQuery dataset with name "my-bucket" already exists.
Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, für den kein Upgrade auf Loganalysen durchgeführt wird, wird der folgende Fehler gemeldet:
A link can only be created for an analytics-enabled bucket.
API
Wenn Sie ein verknüpftes BigQuery-Dataset für einen vorhandenen Log-Bucket mit Loganalysen erstellen möchten, für den ein Upgrade durchgeführt wird, rufen Sie die asynchrone Methode projects.locations.buckets.links.create
der Cloud Logging API auf.
Bereiten Sie die Argumente für die Methode so vor:
- Erstellen Sie den Anfragetext für den Befehl
create
. Der Anfragetext ist alsLink
-Objekt formatiert. - Verwenden Sie für den Abfrageparameter des Befehls
linkId=LINK_ID
. Die von Ihnen angegebene LINK_ID wird als Name des Datasets verwendet. Daher hat LINK_ID denselben Wert wie das reine Ausgabe-DATASET_ID.
Die Antwort auf die asynchronen Methoden ist ein Operation
-Objekt. Dieses Objekt enthält Informationen zum Fortschritt der Methode. Nach Abschluss der Methode enthält das Operation
-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.
Die Methode links.create
dauert einige Minuten.
Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, ein Dataset mit demselben Namen wie ein vorhandenes Dataset zu erstellen, wird die folgende Fehlermeldung angezeigt:
BigQuery dataset with name "my-bucket" already exists.
Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, für den kein Upgrade auf Loganalysen durchgeführt wird, wird der folgende Fehler gemeldet:
A link can only be created for an analytics-enabled bucket.
Bucket sperren
Wenn Sie einen Bucket für Updates sperren, sperren Sie damit auch die Aufbewahrungsrichtlinie des Buckets. Nachdem eine Aufbewahrungsrichtlinie gesperrt wurde, können Sie den Bucket erst löschen, wenn für jeden Logeintrag im Bucket die Aufbewahrungsdauer des Buckets abgelaufen ist.
Wenn Sie verhindern möchten, dass ein Log-Bucket aktualisiert oder gelöscht wird, sperren Sie den Bucket. So sperren Sie den Bucket:
Google Cloud Console
Die Google Cloud Console unterstützt das Sperren eines Log-Buckets nicht.
gcloud
Führen Sie zum Sperren des Buckets den Befehl gcloud logging buckets update
mit dem Flag --locked
aus:
gcloud logging buckets update BUCKET_ID --location=LOCATION --locked
Beispiel:
gcloud logging buckets update my-bucket --location=global --locked
API
Verwenden Sie projects.locations.buckets.patch
in der Logging API, um die Attribute Ihres Buckets zu sperren. Legen Sie den locked
-Parameter auf true
fest.
Buckets auflisten
So listen Sie die Log-Buckets auf, die mit einem Google Cloud-Projekt verknüpft sind, und Details wie die Aufbewahrungseinstellungen aufrufen:
Google Cloud Console
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
In der Tabelle Log-Buckets werden die Buckets aufgelistet, die dem aktuellen Google Cloud-Projekt zugeordnet sind.
In der Tabelle sind die folgenden Attribute für jeden Log-Bucket aufgeführt:
- Name: Der Name des Log-Buckets.
- Beschreibung: Die Beschreibung des Buckets.
- Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
- Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
- Status: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.
Wenn ein Bucket zum Löschen durch Cloud Logging aussteht, wird sein Tabelleneintrag mit dem Warnsymbol warning gekennzeichnet.
gcloud
Führen Sie den Befehl gcloud logging buckets list
aus:
gcloud logging buckets list
Für die Log-Buckets werden die folgenden Attribute angezeigt:
LOCATION
ist die Region, in der die Daten des Buckets gespeichert werden.BUCKET_ID
: Der Name des Log-Buckets.RETENTION_DAYS
: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.LIFECYCLE_STATE
: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.LOCKED
: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.CREATE_TIME
: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.UPDATE_TIME
: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.
Sie können auch die Attribute für nur einen Bucket aufrufen. Wenn Sie beispielsweise die Details zum Log-Bucket _Default
in der Region global
aufrufen möchten, führen Sie den Befehl gcloud logging buckets describe
aus:
gcloud logging buckets describe _Default --location=global
API
Verwenden Sie projects.locations.buckets.list
in der Logging API, um die mit einem Google Cloud-Projekt verknüpften Log-Buckets aufzulisten.
Details eines Buckets anzeigen lassen
So rufen Sie die Details eines einzelnen Log-Buckets auf:
Google Cloud Console
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Klicken Sie im Log-Bucket auf more_vert Mehr und wählen Sie dann Bucket-Details ansehen aus.
Das Dialogfeld enthält die folgenden Attribute für den Log-Bucket:
- Name: Der Name des Log-Buckets.
- Beschreibung: Die Beschreibung des Log-Buckets.
- Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
- Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
- Loganalysen: Gibt an, ob Ihr Bucket für die Verwendung von Loganalysen aktualisiert wurde.
- BigQuery-Analyse: Gibt an, ob ein BigQuery-Dataset mit dem Bucket verknüpft ist.
- BigQuery-Dataset: Stellt einen Link zu Ihrem BigQuery-Dataset bereit, das auf der Seite BigQuery Studio geöffnet wird. Außerdem wird das Datum angezeigt, an dem die BigQuery-Verknüpfung aktiviert wurde.
gcloud
Führen Sie den Befehl gcloud logging buckets describe
aus.
Der folgende Befehl meldet beispielsweise die Details des Buckets _Default
:
gcloud logging buckets describe _Default --location=global
Für den Log-Bucket werden die folgenden Attribute angezeigt:
createTime
: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.description
: Die Beschreibung des Log-Buckets.lifecycleState
: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.name
: Der Name des Log-Buckets.retentionDays
: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.updateTime
: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.
API
Verwenden Sie projects.locations.buckets.get
in der Logging API, um die Details eines einzelnen Log-Buckets aufzurufen.
Buckets löschen
So löschen Sie einen Log-Bucket:
Google Cloud Console
So löschen Sie einen Log-Bucket:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Suchen Sie den Bucket, den Sie löschen möchten, und klicken Sie auf more_vertMehr.
Wenn in der Spalte Verknüpftes Dataset in BigQuery ein Link angezeigt wird, löschen Sie das verknüpfte BigQuery-Dataset:
Klicken Sie auf Bucket bearbeiten.
Entfernen Sie das Häkchen bei Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist, klicken Sie auf Fertig und dann auf Bucket aktualisieren.
Wenn Sie zur Seite Logspeicher zurückgekehrt sind, klicken Sie für den zu löschenden Bucket auf das more_vertDreipunkt-Menü und fahren Sie mit den nächsten Schritten fort.
Klicken Sie auf Bucket löschen.
Klicken Sie im Bestätigungsfeld auf Löschen.
Auf der Seite Logspeicher wird der Hinweis angezeigt, dass der Löschvorgang des Buckets aussteht. Der Bucket mit allen darin enthaltenen Logs wird dann nach sieben Tagen gelöscht.
gcloud
Führen Sie zum Löschen eines Log-Buckets den Befehl gcloud logging buckets delete
aus:
gcloud logging buckets delete BUCKET_ID --location=LOCATION
Sie können einen Log-Bucket nicht löschen, wenn mit diesem Bucket ein BigQuery-Dataset verknüpft ist:
- Führen Sie den Befehl
gcloud logging links list
aus, um die Links aufzulisten, die einem Log-Bucket zugeordnet sind. - Führen Sie den Befehl
gcloud logging links delete
aus, um ein verknüpftes Dataset zu löschen.
API
Verwenden Sie zum Löschen eines Buckets projects.locations.buckets.delete
in der Logging API.
Wenn Sie einen Log-Bucket löschen, der mit einem BigQuery-Dataset verknüpft ist, gilt dies als Fehler. Sie müssen das verknüpfte Dataset löschen, bevor Sie den Log-Bucket löschen:
- Führen Sie die Methode
projects.locations.buckets.links.list
aus, um die Links aufzulisten, die einem Log-Bucket zugeordnet sind. - Führen Sie die Methode
projects.locations.buckets.links.delete
aus, um ein verknüpftes Dataset zu löschen.
Ein gelöschter Bucket verbleibt sieben Tage im Status "Ausstehend". In diesem Zeitraum werden die Logs von Logging an den Bucket weitergeleitet. Wenn Sie das Routing von Logs an einen gelöschten Bucket beenden möchten, können Sie die Logsenken löschen, die diesen Bucket als Ziel haben. Alternativ haben Sie die Möglichkeit, den Filter für die Senken so zu ändern, dass Logs nicht mehr an den gelöschten Bucket weitergeleitet werden.
Sie können keinen neuen Log-Bucket erstellen, der denselben Namen wie ein gelöschter Bucket mit dem Status „Ausstehend“ hat.
Gelöschten Bucket wiederherstellen
Sie können einen Log-Bucket mit dem Status "Ausstehend" wiederherstellen oder den Löschvorgang aufheben. So stellen Sie einen Log-Bucket wieder her:
Google Cloud Console
So stellen Sie einen Log-Bucket wieder her, der zum Löschen vorgemerkt ist:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Klicken Sie für den Bucket, den Sie wiederherstellen möchten, auf more_vert Mehr und wählen Sie dann Gelöschten Bucket wiederherstellen aus.
Klicken Sie im Bestätigungsfeld auf Wiederherstellen.
Auf der Seite Logspeicher wird die Anzeige für den ausstehenden Löschvorgang aus dem Log-Bucket entfernt.
gcloud
Führen Sie den Befehl gcloud logging buckets undelete
aus, um einen Log-Bucket wiederherzustellen, der zum Löschen vorgemerkt ist:
gcloud logging buckets undelete BUCKET_ID --location=LOCATION
API
Verwenden Sie projects.locations.buckets.undelete
in der Logging API, um einen Bucket wiederherzustellen, der zum Löschen vorgemerkt ist.
Benachrichtigung zu monatlichen Logbyte, die in Log-Buckets gespeichert sind
Klicken Sie zum Erstellen einer Benachrichtigungsrichtlinie auf der Seite Logspeicher in der Google Cloud Console auf add_alert Nutzungsbenachrichtigung erstellen. Mit dieser Schaltfläche wird in Monitoring die Seite Benachrichtigungsrichtlinie erstellen geöffnet. In das Feld für den Messwerttyp wird logging.googleapis.com/billing/bytes_ingested
eingetragen.
Verwenden Sie die folgenden Einstellungen, um eine Benachrichtigungsrichtlinie zu erstellen, sodass Sie benachrichtigt werden, wenn die Anzahl der in Ihre Log-Buckets geschriebenen Logbyte Ihr benutzerdefiniertes Limit für Cloud Logging überschreitet.
Neue Bedingung Feld |
Wert |
---|---|
Ressource und Messwert | Wählen Sie im Menü Ressourcen die Option Global aus. Wählen Sie im Menü Messwertkategorien die Option Logbasierter Messwert aus. Wählen Sie im Menü Messwerte die Option Monthly log bytes amount (Aufgenommene Log-Daten pro Monat) aus. |
Filter | – |
Über Zeitreihen hinweg Zeitreihenaggregation |
sum |
Rollierendes Zeitfenster | 60 m |
Funktion für rollierendes Zeitfenster | max |
Benachrichtigungstrigger konfigurieren Feld |
Wert |
---|---|
Bedingungstyp | Threshold |
Benachrichtigungstrigger | Any time series violates |
Grenzwertposition | Above threshold |
Grenzwert | Sie legen den akzeptablen Wert fest. |
Zeitfenster noch einmal testen | Der kleinste akzeptable Wert liegt bei 30 Minuten. |
Weitere Informationen zu Benachrichtigungsrichtlinien finden Sie unter Benachrichtigungen.
In einen Bucket schreiben
Sie schreiben Logs nicht direkt in einen Log-Bucket. Stattdessen schreiben Sie Logs in eine Google Cloud-Ressource: ein Google Cloud-Projekt, einen Ordner oder eine Organisation. Die Senken in der übergeordneten Ressource leiten dann die Logs an Ziele weiter, einschließlich Log-Buckets. Eine Senke leitet Logs an ein Log-Bucket-Ziel weiter, wenn die Logs mit dem Filter der Senke übereinstimmen und die Senke berechtigt ist, die Logs an den Log-Bucket weiterzuleiten.
Aus einem Bucket lesen
Jeder Log-Bucket verfügt über eine Reihe von Logansichten. Zum Lesen von Logs aus einem Log-Bucket benötigen Sie Zugriff auf eine Logansicht des Log-Buckets. Mit Logansichten können Sie einem Nutzer nur Zugriff auf einen Teil der Logs gewähren, die in einem Log-Bucket gespeichert sind. Informationen zum Konfigurieren von Logansichten und zum Gewähren des Zugriffs auf bestimmte Logansichten finden Sie unter Logansichten für einen Log-Bucket konfigurieren.
So lesen Sie Logs aus einem Log-Bucket:
Google Cloud Console
-
Rufen Sie in der Google Cloud Console die Seite Log-Explorer auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Wenn Sie anpassen möchten, welche Logs im Log-Explorer angezeigt werden, klicken Sie auf Bereich eingrenzen und wählen Sie eine Option aus:
Wenn Sie alle Logs ansehen möchten, die im aktuellen Projekt generiert oder direkt an dieses weitergeleitet werden, wählen Sie Bereich nach aktuellem Projekt aus.
Wenn Sie bestimmte Logs ansehen möchten, die im aktuellen Projekt in Log-Buckets gespeichert sind, wählen Sie Bereich nach Speicher und dann eine oder mehrere Logansichten aus.
Wenn Sie bestimmte Logs ansehen möchten, die in Log-Buckets gespeichert sind, die sich in verschiedenen Projekten befinden, wählen Sie „Bereich nach Speicher“ aus, klicken Sie in der Auswahl für die Projekt- und Logansicht auf add_circle Projekt importieren und wählen Sie dann eine oder mehrere Logansichten aus.
Klicken Sie auf Anwenden. Der Bereich Abfrageergebnisse wird mit Logs aktualisiert, die der ausgewählten Option entsprechen.
Weitere Informationen zum Anpassen der Logs, die im Log-Explorer angezeigt werden, finden Sie unter Übersicht über den Log-Explorer: Bereich eingrenzen.
gcloud
Wenn Sie Logs aus einem Log-Bucket lesen möchten, verwenden Sie den Befehl gcloud logging read
und fügen einen LOG_FILTER
hinzu, um Daten auszuwählen:
gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID
API
Verwenden Sie zum Lesen von Logs aus einem Log-Bucket die Methode entries.list. Legen Sie resourceNames
fest, um die entsprechende Bucket- und Logansicht anzugeben, und filter
, um Daten auszuwählen.
Ausführliche Informationen zur Filtersyntax finden Sie unter Logging-Abfragesprache.
Benutzerdefinierte Aufbewahrung konfigurieren
Wenn Sie einen Log-Bucket erstellen, können Sie den Zeitraum anpassen, für den Cloud Logging die Logs des Buckets speichert.
Sie können die Aufbewahrungsdauer für jeden benutzerdefinierten Log-Bucket und auch für den Log-Bucket _Default
konfigurieren.
Wenn Sie die Aufbewahrung des Buckets verkürzen, gilt ein Kulanzzeitraum von 7 Tagen, in dem abgelaufene Logs nicht gelöscht werden. Sie können diese abgelaufenen Logs weder abfragen noch aufrufen. In diesen sieben Tagen haben Sie jedoch die Möglichkeit, den vollen Zugriff wiederherzustellen, indem Sie die Aufbewahrung des Buckets verlängern. Logs, die während des Kulanzzeitraums gespeichert werden, werden auf Ihre Aufbewahrungskosten angerechnet.
So aktualisieren Sie die Aufbewahrungsdauer für einen Log-Bucket:
Google Cloud Console
So aktualisieren Sie die Aufbewahrungsdauer eines Log-Buckets:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.
Klicken Sie für den Bucket, den Sie aktualisieren möchten, auf more_vert Mehr und wählen Sie dann Bucket bearbeiten aus.
Geben Sie im Feld Aufbewahrung die Anzahl der Tage zwischen 1 und 3650 Tagen ein, in denen Cloud Logging die Logs speichern soll.
Klicken Sie auf Bucket aktualisieren. Die neue Aufbewahrungsdauer wird in der Liste Log-Bucket angezeigt.
gcloud
Führen Sie zum Aktualisieren der Aufbewahrungsdauer für einen Log-Bucket den Befehl gcloud logging buckets update
aus, nachdem Sie einen Wert für RETENTION_DAYS festgelegt haben:
gcloud logging buckets update BUCKET_ID --location=LOCATION --retention-days=RETENTION_DAYS
Wenn Sie beispielsweise die Logs im Bucket _Default
am Standort global
ein Jahr lang aufbewahren möchten, würde Ihr Befehl so aussehen:
gcloud logging buckets update _Default --location=global --retention-days=365
Wenn Sie die Aufbewahrungsdauer eines Buckets verlängern, gelten die Aufbewahrungsregeln in Zukunft und nicht rückwirkend. Logs können nach Ablauf der Aufbewahrungsdauer nicht wiederhergestellt werden.
Asynchrone API-Methoden
Die Antwort einer asynchronen Methode wie projects.locations.buckets.createAsync
ist ein Operation
-Objekt.
Anwendungen, die eine asynchrone API-Methode aufrufen, sollten den Endpunkt operation.get
abfragen, bis der Wert des Felds Operation.done
true
ist:
Wenn
done
den Wertfalse
hat, wird der Vorgang noch ausgeführt.Senden Sie eine
GET
-Anfrage an den Endpunktoperation.get
, um die Statusinformationen zu aktualisieren.Wenn
done
den Werttrue
hat, ist der Vorgang abgeschlossen und entweder das Felderror
oderresponse
ist festgelegt:error
: Wenn dies festgelegt ist, ist der asynchrone Vorgang fehlgeschlagen. Der Wert dieses Feldes ist einStatus
-Objekt, das einen gRPC-Fehlercode und eine Fehlermeldung enthält.response
: Wenn dies festgelegt ist, wurde der asynchrone Vorgang erfolgreich abgeschlossen und der Wert spiegelt das Ergebnis wider.
Führen Sie den folgenden Befehl aus, um einen asynchronen Befehl mithilfe der Google Cloud CLI abzufragen:
gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID
Weitere Informationen zu gcloud logging operations describe
.
Häufige Probleme beheben
Wenn bei der Verwendung von Log-Buckets Probleme auftreten, lesen Sie folgende Schritte zur Fehlerbehebung und Antworten auf häufig gestellte Fragen.
Warum kann ich diesen Bucket nicht löschen?
Wenn Sie versuchen, einen Bucket zu löschen, gehen Sie so vor:
Prüfen Sie, ob Sie die erforderlichen Berechtigungen zum Löschen des Buckets haben. Eine Liste der erforderlichen Berechtigungen finden Sie unter Zugriffssteuerung mit IAM.
Bestimmen Sie, ob der Bucket gesperrt ist. Listen Sie dazu die Attribute des Buckets auf. Wenn der Bucket gesperrt ist, prüfen Sie die Aufbewahrungsdauer. Sie können gesperrte Buckets erst löschen, wenn alle Logs im Bucket die Aufbewahrungsdauer des Buckets erreicht haben.
Vergewissern Sie sich, dass der Log-Bucket kein verknüpftes BigQuery-Dataset hat. Sie können einen Log-Bucket mit einem verknüpften Dataset nicht löschen.
Der folgende Fehler wird als Antwort auf einen
delete
-Befehl für einen Log-Bucket mit einem verknüpften Dataset angezeigt:FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
Führen Sie den Befehl
gcloud logging links list
oder die API-Methodeprojects.locations.buckets.links.list
aus, um die Links aufzulisten, die einem Log-Bucket zugeordnet sind.
Welche Dienstkonten leiten Logs an meinen Bucket weiter?
So ermitteln Sie, ob Dienstkonten IAM-Berechtigungen zum Weiterleiten von Logs an Ihren Bucket haben:
-
Öffnen Sie in der Google Cloud Console die Seite IAM:
Wenn Sie diese Seite über die Suchleiste finden, wählen Sie das Ergebnis mit der Zwischenüberschrift IAM und Verwaltung aus.
Wählen Sie aus dem Tab Berechtigungen die Ansicht nach Rollen. Sie sehen eine Tabelle mit allen IAM-Rollen und Hauptkonten, die mit Ihrem Google Cloud-Projekt verknüpft sind.
Geben Sie in das Textfeld Filter filter_list der Tabelle Log-Bucket-Autor ein.
Sie sehen alle Hauptkonten mit der Rolle Log-Bucket-Autor. Wenn ein Hauptkonto ein Dienstkonto ist, enthält dessen ID den String
gserviceaccount.com
.Optional: Wenn Sie verhindern möchten, dass ein Dienstkonto Logs an Ihr Google Cloud-Projekt weiterleiten kann, klicken Sie das Kästchen check_box_outline_blank für das Dienstkonto an und klicken Sie auf Entfernen.
Warum sehe ich Logs für ein Google Cloud-Projekt, obwohl ich sie aus meiner _Default
-Senke ausgeschlossen habe?
Sie sehen sich möglicherweise Logs in einem Log-Bucket in einem zentralisierten Google Cloud-Projekt an, in dem Logs aus Ihrer gesamten Organisation zusammengefasst werden.
Wenn Sie mit dem Log-Explorer auf diese Logs zugreifen und Logs aufrufen, die Sie aus der Senke _Default
ausgeschlossen haben, ist Ihre Ansicht möglicherweise auf die Google Cloud-Projektebene beschränkt.
Wählen Sie zum Beheben dieses Problems im Bereich Bereich eingrenzen die Option Bereich nach Speicher und dann den Bucket _Default
in Ihrem Google Cloud-Projekt aus. Die ausgeschlossenen Logs sollten nun nicht mehr angezeigt werden.
Nächste Schritte
Informationen zu den Methoden der Logs Bucket API finden Sie in der LogBucket
-Referenzdokumentation.
Informationen zur Bewältigung gängiger Anwendungsfälle mit Log-Buckets finden Sie in den folgenden Themen: