In diesem Dokument wird beschrieben, wie Sie Cloud Logging-Buckets mit der Google Cloud Console, der Google Cloud CLI und der Logging API erstellen und verwalten.
Außerdem finden Sie darin Anleitungen zum Erstellen und Verwalten von Log-Buckets auf Google Cloud-Projektebene. Sie können keine Log-Buckets auf Ordner- oder Organisationsebene erstellen. Cloud Logging erstellt jedoch automatisch _Default
- und _Required
-Buckets auf Ordner- und Organisationsebene.
Sie können Log-Buckets für die Verwendung von Loganalysen aktualisieren. Mit Log Analytics können Sie SQL-Abfragen für Ihre Logdaten ausführen und so Anwendungs-, Sicherheits- und Netzwerkprobleme beheben. Sie können BigQuery auch verwenden, um die in einem Log-Bucket gespeicherten Daten anzusehen, wenn der Log-Bucket auf die Verwendung von Log Analytics aktualisiert wird und wenn ein verknüpftes BigQuery-Dataset vorhanden ist. Wenn Sie ein verknüpftes Dataset erstellen, können Sie Ihre Logdaten mit anderen in BigQuery gespeicherten Daten zusammenführen und auf Daten aus anderen Tools wie Looker Studio und Looker zugreifen.
Eine konzeptionelle Übersicht über Buckets finden Sie unter Routing und Speicherübersicht: Log-Buckets.
Hinweise
Gehen Sie für einen Einstieg in Buckets folgendermaßen vor:
Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.
Achten Sie darauf, dass Ihre IAM-Rolle (Identity and Access Management) die Berechtigungen zum Erstellen, Upgrade und Verknüpfen von Buckets gewährt.
Die Rolle „Autor von Logkonfigurationen“ (
roles/logging.configWriter
) ist die minimale vordefinierte Rolle, die die zum Verwalten von Buckets erforderlichen Berechtigungen gewährt. Eine vollständige Liste der Berechtigungen und Rollen finden Sie unter Zugriffssteuerung mit IAM.Informieren Sie sich über die Formatierungsanforderungen für
LogBucket
, einschließlich der unterstützten Regionen, in denen Sie Ihre Logs speichern können.Legen Sie gegebenenfalls einen Standardspeicherort für Ressourcen fest, um eine Standardspeicherregion für die Buckets
_Required
und_Default
in Ihrer Organisation anzuwenden.So verwenden Sie BigQuery, um die in einem Log-Bucket gespeicherten Daten anzusehen:
Die BigQuery API muss aktiviert sein. Sie können prüfen, ob die API aktiviert ist, indem Sie die verfügbaren Dienste auflisten.
Ihre Rolle zu Identity and Access Management umfasst die Berechtigungen, mit denen Sie ein verknüpftes Dataset erstellen können. Weitere Informationen finden Sie unter Berechtigungen für verknüpfte BigQuery-Datasets.
Informationen zum Erstellen eines Log-Buckets, der einen vom Kunden verwalteten Verschlüsselungsschlüssel (CMEK) verwendet, finden Sie unter CMEK für den Logspeicher konfigurieren.
Bucket erstellen
Sie können maximal 100 Buckets pro Google Cloud-Projekt erstellen.
So erstellen Sie einen benutzerdefinierten Log-Bucket für Ihr Google Cloud-Projekt:
Google Cloud Console
So erstellen Sie einen Log-Bucket in Ihrem Google Cloud-Projekt:
-
Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:
Klicken Sie auf Log-Bucket erstellen.
Geben Sie unter Name einen Namen und unter Beschreibung eine Beschreibung für den Bucket ein.
Optional: Führen Sie ein Upgrade Ihres Buckets durch, um Log Analytics zu verwenden.
Wählen Sie Upgrade zur Verwendung von Loganalysen aus.
Wenn Sie einen Bucket auf die Verwendung von Log Analytics aktualisieren, können Sie Ihre Logs auf der Seite Loganalysen mithilfe von SQL-Abfragen abfragen. Sie können Ihre Logs auch weiterhin mit dem Log-Explorer ansehen.
Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.
Optional: Wählen Sie zum Ansehen der Logs in BigQuery die Option Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist aus und geben Sie einen eindeutigen Dataset-Namen ein.
Wenn Sie diese Option auswählen, kann BigQuery die in Ihrem Log-Bucket gespeicherten Daten lesen. Sie haben jetzt die Möglichkeit, Abfragen auf der BigQuery-Benutzeroberfläche auszuführen. Dort können Sie Ihre Logdaten zusammenführen und auch auf Daten aus anderen Tools wie Looker Studio und Looker zugreifen.
Optional: Um die Speicherregion für Ihre Logs auszuwählen, klicken Sie auf das Menü Log-Bucket-Region auswählen und wählen Sie eine Region aus. Wenn Sie keine Region auswählen, wird die Region
global
verwendet. Das bedeutet, dass sich die Logs in einer beliebigen Region befinden können.Optional: Klicken Sie auf Weiter, um eine benutzerdefinierte Aufbewahrungsdauer für die Logs im Bucket festzulegen.
Geben Sie im Feld Aufbewahrungsdauer die Anzahl der Tage zwischen 1 und 3.650 Tagen ein, für die Cloud Logging Ihre Logs aufbewahren soll. Wenn Sie die Aufbewahrungsdauer nicht anpassen, wird der Standardwert
30 days
verwendet.Sie können den Bucket auch aktualisieren, um nach dem Erstellen eine benutzerdefinierte Aufbewahrung anzuwenden.
Klicken Sie auf Bucket erstellen.
Nachdem der Log-Bucket erstellt wurde, aktualisiert Logging den Bucket und erstellt die Dataset-Verknüpfung, wenn diese Optionen ausgewählt wurden.
Es kann einen Moment dauern, bis diese Schritte abgeschlossen sind.
gcloud
Wenn Sie nur einen Log-Bucket erstellen möchten, führen Sie den Befehl gcloud logging buckets create
aus. Wenn Sie den Log-Bucket für die Verwendung von Loganalysen aktualisieren möchten, fügen Sie die Flags --enable-analytics
und --async
hinzu und legen Sie die Variable LOCATION auf eine Region fest, die für Loganalysen unterstützt wird:
gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS
Das Flag --async
erzwingt einen asynchronen Befehl. Die Rückgabe einer asynchronen Methode wird über ein Operation
-Objekt zurückgegeben. Es enthält Informationen über den Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation
den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.
Wenn Sie den Log-Bucket nicht auf die Verwendung von Loganalysen upgraden möchten, lassen Sie die Flags --enable-analytics
und --async
weg. Sie können die Variable LOCATION auf eine beliebige unterstützte Region festlegen.
Wenn Sie zum Beispiel einen Bucket mit der BUCKET_ID my-bucket
in der Region asia-east2
erstellen möchten, würde Ihr Befehl so aussehen:
gcloud logging buckets create my-bucket --location asia-east2 --description "My first bucket"
Beispiel: Um einen Bucket mit dem BUCKET_ID
my-upgraded-bucket
am Standort us
zu erstellen und dann den Log-Bucket auf die Verwendung von Log Analytics zu aktualisieren, sieht der Befehl so aus:
gcloud logging buckets create my-upgraded-bucket --location us \ --description "My first upgraded bucket" \ --enable-analytics --retention-days=45
API
Verwenden Sie zum Erstellen eines Buckets die Methode projects.locations.buckets.create
oder projects.locations.buckets.createAsync
. Bereiten Sie die Argumente für die Methode so vor:
Legen Sie den Parameter
parent
auf die Ressource fest, in der der Bucket erstellt werden soll:projects/PROJECT_ID/locations/LOCATION
Die Variable LOCATION bezieht sich auf die Region, in der Ihre Logs gespeichert werden sollen. Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.
Wenn Sie beispielsweise einen Bucket für das Projekt
my-project
in der Regionasia-east2
erstellen möchten, sieht der Parameterparent
so aus:projects/my-project/locations/asia-east2
Legen Sie den Parameter
bucketId
fest, z. B.my-bucket
.Führen Sie einen der folgenden Schritte aus:
So erstellen Sie einen Log-Bucket und führen dann ein Upgrade des Log-Buckets auf die Verwendung von Log Analytics durch:
Legen Sie den booleschen Wert
LogBucket.analyticsEnabled
auftrue
fest.Rufen Sie die asynchrone Methode
projects.locations.buckets.createAsync
auf, um den Bucket zu erstellen.Die Antwort auf die asynchronen Methoden ist ein
Operation
-Objekt. Dieses Objekt enthält Informationen über den Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das ObjektOperation
den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.Die
createAsync
-Methode dauert einige Minuten. Diese Methode generiert keine Fehlermeldung und schlägt fehl, wenn der boolesche WertanalyticsEnabled
auftrue
gesetzt ist und die Region für upgegradete Buckets nicht unterstützt wird. Wenn Sie beispielsweise den Standort aufasia-east2
festlegen, wird der Log-Bucket erstellt, aber nicht auf die Verwendung von Loganalysen aktualisiert.
Andernfalls rufen Sie die synchrone Methode
projects.locations.buckets.create
auf, um den Bucket zu erstellen.
Nachdem Sie einen Bucket erstellt haben, erstellen Sie eine Senke, um Logeinträge an den Bucket weiterzuleiten, und konfigurieren Sie Logansichten, um zu steuern, wer auf die Logs im neuen Bucket zugreifen kann und welche Logs für sie zugänglich sind. Sie können den Bucket auch aktualisieren, um die benutzerdefinierte Aufbewahrung und eingeschränkte Felder zu konfigurieren.
Volumen der in Log-Buckets gespeicherten Logs verfolgen
Auf der Seite Logspeicher in der Google Cloud Console wird die Menge der in Log-Buckets gespeicherten Logdaten erfasst:
Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:
Auf der Seite Logspeicher wird eine Zusammenfassung der Statistiken für Ihr Google Cloud-Projekt angezeigt:
Die folgenden Statistiken werden gemeldet:
Aufnahme im aktuellen Monat: Die Menge der Logdaten, die Ihr Google Cloud-Projekt seit dem ersten Tag des aktuellen Kalendermonats in Log-Buckets gespeichert hat.
Aufnahme im Vormonat: Die Menge der Logdaten, die von Ihrem Google Cloud-Projekt im letzten Kalendermonat in Log-Buckets gespeichert wurden.
Prognostizierte Aufnahme bis Ende des Monats: Die geschätzte Menge an Logdaten, die Ihr Google Cloud-Projekt bis zum Ende des aktuellen Kalendermonats basierend auf der aktuellen Nutzung in Log-Buckets speichert.
Abrechenbarer Speicherplatz im aktuellen Monat: Die in Rechnung gestellte Menge der Logdaten, die mehr als 30 Tage lang aufbewahrt wurden.
Die vorherigen Statistiken enthalten keine Logs im _Required
-Bucket. Die Logs in diesem Bucket können nicht ausgeschlossen oder deaktiviert werden.
Auf der Seite Log Router in der Google Cloud Console finden Sie Tools, mit denen Sie die Kosten für das Speichern von Logs in Log-Buckets oder für Speicher, der Ihr monatliches Kontingent überschreitet, minimieren können. In diesem Fall können Sie folgende Aktionen ausführen:
- Speichern von Logs auf Bucket-Ebene deaktivieren.
- Schließen Sie bestimmte Logeinträge vom Speichern in Log-Buckets aus.
Weitere Informationen finden Sie unter Senken verwalten.
Buckets verwalten
In diesem Abschnitt wird beschrieben, wie Sie Log-Buckets mit der Google Cloud CLI oder der Google Cloud Console verwalten.
Bucket aktualisieren
So aktualisieren Sie die Eigenschaften Ihres Buckets, z. B. die Beschreibung oder die Aufbewahrungsdauer:
Google Cloud Console
So aktualisieren Sie die Eigenschaften Ihres Buckets:
-
Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:
Klicken Sie für den Bucket, den Sie aktualisieren möchten, auf more_vert Mehr.
Klicken Sie auf Bucket bearbeiten.
Bearbeiten Sie den Bucket nach Bedarf.
Klicken Sie auf Bucket aktualisieren.
gcloud
Führen Sie den Befehl gcloud logging buckets update
aus, um die Attribute des Buckets zu aktualisieren:
gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES
Beispiel:
gcloud logging buckets update my-bucket --location=global --description "Updated description"
API
Verwenden Sie zum Aktualisieren der Bucket-Attribute projects.locations.buckets.patch
in der Logging API.
Bucket zur Verwendung von Log Analytics upgraden
Wenn Sie einen vorhandenen Bucket auf die Verwendung von Log Analytics upgraden möchten, gelten die folgenden Einschränkungen:
- Der Log-Bucket wurde auf Google Cloud-Projektebene erstellt.
- Der Log-Bucket ist entsperrt, es sei denn, es ist der
_Required
-Bucket. - Für den Bucket gibt es keine ausstehenden Aktualisierungen.
Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.
Google Cloud Console
So aktualisieren Sie einen vorhandenen Bucket für die Verwendung von Log Analytics:
-
Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:
Suchen Sie den Bucket, für den Sie ein Upgrade durchführen möchten.
Wenn in der Spalte Log Analytics verfügbar die Meldung Upgrade angezeigt wird, können Sie den Log-Bucket aktualisieren, um Log Analytics zu verwenden. Klicke auf Upgrade.
Ein Dialogfeld wird geöffnet. Klicken Sie auf Bestätigen.
gcloud
Führen Sie den Befehl gcloud logging buckets update
aus, um den Log-Bucket für die Verwendung von Log Analytics zu aktualisieren. Sie müssen das Flag --enable-analytics
festlegen und auch das Flag --async
hinzufügen:
gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async
Das Flag --async
erzwingt einen asynchronen Befehl. Die Rückgabe einer asynchronen Methode erfolgt durch ein Operation
-Objekt, das Informationen über den Fortschritt der Methode enthält. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation
den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.
API
Verwenden Sie die Methode projects.locations.buckets.updateAsync
der Cloud Logging API, um einen Log-Bucket auf die Verwendung von Log Analytics zu aktualisieren.
Bereiten Sie die Argumente für die Methode so vor:
- Legen Sie den booleschen Wert
LogBucket.analyticsEnabled
auftrue
fest. - Verwenden Sie
updateMask=analyticsEnabled
als Abfrageparameter des Befehls.
Die Antwort auf die asynchronen Methoden ist ein Operation
-Objekt. Dieses Objekt enthält Informationen über den Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation
den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.
Der Vorgang updateAsync
kann einige Minuten dauern.
Verknüpftes BigQuery-Dataset erstellen
Wenn Sie die Funktionen von BigQuery zum Analysieren Ihrer Logdaten nutzen möchten, führen Sie ein Upgrade eines Log-Buckets zur Verwendung von Log Analytics durch und erstellen Sie dann ein verknüpftes Dataset. Mit dieser Konfiguration können Sie BigQuery verwenden, um die im Log-Bucket gespeicherten Logs zu lesen.
Google Cloud Console
So erstellen Sie eine Verknüpfung zu einem BigQuery-Dataset für einen vorhandenen Log-Bucket:
Lesen Sie den Abschnitt Vorbereitung in diesem Dokument.
-
Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:
Suchen Sie den Log-Bucket und prüfen Sie, ob in der Spalte Loganalysen verfügbar Offen angezeigt wird.
Wenn in dieser Spalte Upgrade angezeigt wird, wurde der Log-Bucket nicht auf die Verwendung von Loganalysen aktualisiert. Loganalysen konfigurieren:
- Klicken Sie auf Upgrade.
- Klicken Sie im Dialogfeld auf Bestätigen.
Fahren Sie nach Abschluss des Upgrades mit dem nächsten Schritt fort.
Klicken Sie im Log-Bucket auf Mehrmore_vert und dann auf Bucket bearbeiten.
Das Dialogfeld Log-Bucket bearbeiten wird geöffnet.
Wählen Sie Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist aus und geben Sie den Namen des neuen Datasets ein.
Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie den Namen eines vorhandenen Datasets eingeben, wird die folgende Fehlermeldung angezeigt:
Dataset name must be unique in the selected region.
Klicken Sie auf Fertig und dann auf Bucket aktualisieren.
Nachdem Logging den Namen des verknüpften Datasets auf der Seite Logspeicher angezeigt hat, kann es einige Minuten dauern, bis BigQuery das Dataset erkennt.
gcloud
Führen Sie den Befehl gcloud logging links create
aus, um ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der für die Verwendung von Log Analytics aktualisiert wurde:
gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION
Das Feld LINK_ID darf für Ihr Google Cloud-Projekt nur einmal vorkommen.
Der Befehl links create
ist asynchron. Die Rückgabe einer asynchronen Methode ist ein Operation
-Objekt, das Informationen über den Fortschritt der Methode enthält. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation
den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.
Die Ausführung des Befehls links create
dauert einige Minuten.
Mit dem folgenden Befehl wird beispielsweise ein verknüpftes Dataset für den Bucket mit dem Namen my-bucket
erstellt:
gcloud logging links create mylink --bucket=my-bucket --location=global
Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, ein Dataset mit demselben Namen wie ein vorhandenes Dataset zu erstellen, wird die folgende Fehlermeldung angezeigt:
BigQuery dataset with name "my-bucket" already exists.
Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der nicht für die Verwendung von Loganalysen aktualisiert wurde, wird der folgende Fehler gemeldet:
A link can only be created for an analytics-enabled bucket.
API
Rufen Sie die asynchrone projects.locations.buckets.links.create
-Methode der Cloud Logging API auf, um ein verknüpftes BigQuery-Dataset für einen vorhandenen Log-Bucket zu erstellen, der mithilfe von Log Analytics aktualisiert wird.
Bereiten Sie die Argumente für die Methode so vor:
- Erstellen Sie den Anfragetext für den Befehl
create
. Der Anfragetext ist alsLink
-Objekt formatiert. - Verwenden Sie
linkId=LINK_ID
als Abfrageparameter des Befehls. Der von Ihnen angegebene LINK_ID wird als Name des Datasets verwendet. Daher hat LINK_ID denselben Wert wie die reine Ausgabe-DATASET_ID.
Die Antwort auf die asynchronen Methoden ist ein Operation
-Objekt. Dieses Objekt enthält Informationen über den Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation
den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.
Die links.create
-Methode dauert einige Minuten.
Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, ein Dataset mit demselben Namen wie ein vorhandenes Dataset zu erstellen, wird die folgende Fehlermeldung angezeigt:
BigQuery dataset with name "my-bucket" already exists.
Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der nicht für die Verwendung von Loganalysen aktualisiert wurde, wird der folgende Fehler gemeldet:
A link can only be created for an analytics-enabled bucket.
Bucket sperren
Wenn Sie einen Bucket für Aktualisierungen sperren, sperren Sie auch die Aufbewahrungsrichtlinie des Buckets. Nachdem eine Aufbewahrungsrichtlinie gesperrt ist, können Sie den Bucket erst löschen, wenn jeder Logeintrag im Bucket die Aufbewahrungsdauer für den Bucket erreicht hat.
Wenn Sie verhindern möchten, dass ein Log-Bucket aktualisiert oder gelöscht wird, sperren Sie den Bucket. So sperren Sie den Bucket:
Google Cloud Console
Das Sperren eines Log-Buckets wird in der Google Cloud Console nicht unterstützt.
gcloud
Führen Sie zum Sperren Ihres Buckets den Befehl gcloud logging buckets update
mit dem Flag --locked
aus:
gcloud logging buckets update BUCKET_ID --location=LOCATION --locked
Beispiel:
gcloud logging buckets update my-bucket --location=global --locked
API
Verwenden Sie zum Sperren der Attribute des Buckets projects.locations.buckets.patch
in der Logging API. Legen Sie den Parameter locked
auf true
fest.
Buckets auflisten
So listen Sie die mit einem Google Cloud-Projekt verknüpften Log-Buckets auf und sehen Details wie Aufbewahrungseinstellungen:
Google Cloud Console
Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:
In der Tabelle Log-Buckets werden die Buckets aufgelistet, die dem aktuellen Google Cloud-Projekt zugeordnet sind.
In der Tabelle sind die folgenden Attribute für jeden Log-Bucket aufgeführt:
- Name: Der Name des Log-Buckets.
- Beschreibung: Die Beschreibung des Buckets.
- Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
- Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
- Status: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.
Wenn für einen Bucket das Löschen durch Cloud Logging ansteht, wird der Tabelleneintrag mit dem Warnsymbol warning gekennzeichnet.
gcloud
Führen Sie den Befehl gcloud logging buckets list
aus:
gcloud logging buckets list
Für die Log-Buckets werden die folgenden Attribute angezeigt:
LOCATION
ist die Region, in der die Daten des Buckets gespeichert werden.BUCKET_ID
: Der Name des Log-Buckets.RETENTION_DAYS
: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.LIFECYCLE_STATE
: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.LOCKED
: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.CREATE_TIME
: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.UPDATE_TIME
: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.
Sie können auch die Attribute für nur einen Bucket aufrufen. Wenn Sie beispielsweise die Details zum Log-Bucket _Default
in der Region global
aufrufen möchten, führen Sie den Befehl gcloud logging buckets describe
aus:
gcloud logging buckets describe _Default --location=global
API
Verwenden Sie projects.locations.buckets.list
in der Logging API, um die mit einem Google Cloud-Projekt verknüpften Log-Buckets aufzulisten.
Details eines Buckets anzeigen lassen
So rufen Sie die Details eines einzelnen Log-Buckets auf:
Google Cloud Console
Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:
Klicken Sie im Log-Bucket auf more_vert Mehr und wählen Sie dann Bucket-Details anzeigen aus.
Im Dialogfeld werden die folgenden Attribute für den Log-Bucket aufgeführt:
- Name: Der Name des Log-Buckets.
- Beschreibung: Die Beschreibung des Log-Buckets.
- Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
- Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
- Loganalysen: Gibt an, ob Ihr Bucket für die Verwendung von Loganalysen aktualisiert wurde.
- BigQuery-Analyse: Gibt an, ob ein BigQuery-Dataset mit dem Bucket verknüpft ist.
- BigQuery-Dataset: Gibt einen Link zu Ihrem BigQuery-Dataset an, das auf der Seite BigQuery Studio geöffnet wird. Außerdem wird das Datum angezeigt, an dem die BigQuery-Verknüpfung aktiviert wurde.
gcloud
Führen Sie den Befehl gcloud logging buckets describe
aus.
Mit dem folgenden Befehl werden beispielsweise die Details des Buckets _Default
zurückgegeben:
gcloud logging buckets describe _Default --location=global
Für den Log-Bucket werden die folgenden Attribute angezeigt:
createTime
: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.description
: Die Beschreibung des Log-Buckets.lifecycleState
: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.name
: Der Name des Log-Buckets.retentionDays
: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.updateTime
: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.
API
Verwenden Sie zum Aufrufen der Details eines einzelnen Log-Buckets projects.locations.buckets.get
in der Logging API.
Buckets löschen
So löschen Sie einen Log-Bucket:
Google Cloud Console
So löschen Sie einen Log-Bucket:
-
Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:
Suchen Sie den Bucket, den Sie löschen möchten, und klicken Sie auf more_vertMehr.
Wenn in der Spalte Verknüpftes Dataset in BigQuery eine Verknüpfung angezeigt wird, löschen Sie das verknüpfte BigQuery-Dataset:
Klicken Sie auf Bucket bearbeiten.
Deaktivieren Sie die Option Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist. Klicken Sie dann auf Fertig und dann auf Bucket aktualisieren.
Nachdem Sie zur Seite Logspeicher zurückgekehrt sind, klicken Sie für den Bucket, den Sie löschen möchten, auf more_vertMehr und fahren Sie mit den nächsten Schritten fort.
Klicken Sie auf Bucket löschen.
Klicken Sie im Bestätigungsfeld auf Löschen.
Auf der Seite Logspeicher wird der Hinweis angezeigt, dass der Löschvorgang des Buckets aussteht. Der Bucket mit allen darin enthaltenen Logs wird dann nach sieben Tagen gelöscht.
gcloud
Führen Sie den Befehl gcloud logging buckets delete
aus, um einen Log-Bucket zu löschen:
gcloud logging buckets delete BUCKET_ID --location=LOCATION
Sie können einen Log-Bucket nicht löschen, wenn er mit einem BigQuery-Dataset verknüpft ist:
- Führen Sie den Befehl
gcloud logging links list
aus, um die mit einem Log-Bucket verknüpften Links aufzulisten. - Führen Sie den Befehl
gcloud logging links delete
aus, um ein verknüpftes Dataset zu löschen.
API
Verwenden Sie zum Löschen eines Buckets projects.locations.buckets.delete
in der Logging API.
Das Löschen eines Log-Buckets führt zu einem Fehler, wenn dieser Bucket mit einem BigQuery-Dataset verknüpft ist. Sie müssen das verknüpfte Dataset löschen, bevor Sie den Log-Bucket löschen:
- Führen Sie die Methode
projects.locations.buckets.links.list
aus, um die mit einem Log-Bucket verknüpften Links aufzulisten. - Führen Sie die Methode
projects.locations.buckets.links.delete
aus, um ein verknüpftes Dataset zu löschen.
Ein gelöschter Bucket verbleibt sieben Tage im Status "Ausstehend". In diesem Zeitraum werden die Logs von Logging an den Bucket weitergeleitet. Wenn Sie das Routing von Logs an einen gelöschten Bucket beenden möchten, können Sie die Logsenken löschen, die diesen Bucket als Ziel haben. Alternativ haben Sie die Möglichkeit, den Filter für die Senken so zu ändern, dass Logs nicht mehr an den gelöschten Bucket weitergeleitet werden.
Sie können keinen neuen Log-Bucket erstellen, der denselben Namen wie ein gelöschter Bucket mit dem Status „Ausstehend“ hat.
Gelöschten Bucket wiederherstellen
Sie können einen Log-Bucket mit dem Status "Ausstehend" wiederherstellen oder den Löschvorgang aufheben. So stellen Sie einen Log-Bucket wieder her:
Google Cloud Console
So stellen Sie einen Log-Bucket wieder her, der gelöscht werden soll:
-
Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:
Klicken Sie für den Bucket, den Sie wiederherstellen möchten, auf more_vert Mehr und wählen Sie dann Gelöschten Bucket wiederherstellen aus.
Klicken Sie im Bestätigungsfeld auf Wiederherstellen.
Auf der Seite Logspeicher wird die Anzeige für den ausstehenden Löschvorgang aus dem Log-Bucket entfernt.
gcloud
Führen Sie den Befehl gcloud logging buckets undelete
aus, um einen Log-Bucket, der zum Löschen vorgemerkt ist, wiederherzustellen:
gcloud logging buckets undelete BUCKET_ID --location=LOCATION
API
Zum Wiederherstellen eines Buckets, dessen Löschen aussteht, verwenden Sie projects.locations.buckets.undelete
in der Logging API.
Benachrichtigung zu monatlichen in Log-Buckets gespeicherten Logbyte
Klicken Sie zum Erstellen einer Benachrichtigungsrichtlinie auf der Seite Logspeicher in der Google Cloud Console auf add_alert Nutzungsbenachrichtigung erstellen. Mit dieser Schaltfläche wird die Seite Benachrichtigungsrichtlinie erstellen in Monitoring geöffnet. Im Messwerttypfeld wird dann logging.googleapis.com/billing/bytes_ingested
angegeben.
Verwenden Sie die folgenden Einstellungen, um eine Benachrichtigungsrichtlinie zu erstellen, die ausgelöst wird, wenn die Anzahl der in Ihre Log-Buckets geschriebenen Logbyte das benutzerdefinierte Limit für Cloud Logging überschreitet.
Neue Bedingung Feld |
Wert |
---|---|
Ressource und Messwert | Wählen Sie im Menü Ressourcen die Option Global aus. Wählen Sie im Menü Messwertkategorien die Option Logbasierter Messwert aus. Wählen Sie im Menü Messwerte die Option Monatlich aufgenommene Logbyte aus. |
Filter | – |
Über Zeitreihen hinweg Zeitreihenaggregation |
sum |
Rollierendes Zeitfenster | 60 m |
Funktion für rollierendes Zeitfenster | max |
Benachrichtigungstrigger konfigurieren Feld |
Wert |
---|---|
Bedingungstyp | Threshold |
Benachrichtigungstrigger | Any time series violates |
Grenzwertposition | Above threshold |
Grenzwert | Sie legen den akzeptablen Wert fest. |
Zeitfenster noch einmal testen | Der kleinste akzeptable Wert liegt bei 30 Minuten. |
Weitere Informationen zu Benachrichtigungsrichtlinien finden Sie in der Benachrichtigungsübersicht.
In einen Bucket schreiben
Sie schreiben Logs nicht direkt in einen Log-Bucket. Stattdessen schreiben Sie Logs in eine Google Cloud-Ressource, ein Google Cloud-Projekt, einen Google Cloud-Ordner oder eine Google Cloud-Organisation. Die Senken in der übergeordneten Ressource leiten dann die Logs an Ziele weiter, einschließlich Log-Buckets. Eine Senke leitet Logs an ein Log-Bucket-Ziel weiter, wenn die Logs mit dem Filter der Senke übereinstimmen und die Senke berechtigt ist, die Logs an den Log-Bucket weiterzuleiten.
Aus einem Bucket lesen
Jeder Log-Bucket verfügt über eine Reihe von Logansichten. Zum Lesen von Logs aus einem Log-Bucket benötigen Sie Zugriff auf eine Logansicht des Log-Buckets. Mit Logansichten können Sie einem Nutzer nur Zugriff auf einen Teil der Logs gewähren, die in einem Log-Bucket gespeichert sind. Informationen zum Konfigurieren von Logansichten und zum Gewähren des Zugriffs auf bestimmte Logansichten finden Sie unter Logansichten für einen Log-Bucket konfigurieren.
So lesen Sie Logs aus einem Log-Bucket:
Google Cloud Console
-
Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Explorer aus:
Klicken Sie zum Anpassen der im Log-Explorer angezeigten Logs auf Bereich optimieren und wählen Sie dann eine Option aus:
Zum Aufrufen aller Logs, die im aktuellen Projekt generiert oder direkt an das aktuelle Projekt weitergeleitet wurden, wählen Sie Umfang nach aktuellem Projekt aus.
Wenn Sie bestimmte Logs aufrufen möchten, die in Log-Buckets im aktuellen Projekt gespeichert sind, wählen Sie Bereich nach Speicher und dann eine oder mehrere Logansichten aus.
Wenn Sie bestimmte Logs aufrufen möchten, die in Log-Buckets gespeichert sind, die sich in verschiedenen Projekten befinden, wählen Sie „Bereich nach Speicher“ aus, klicken Sie in der Auswahl für die Projekt- und Logansicht auf add_circle Projekt importieren und wählen Sie dann eine oder mehrere Logansichten aus.
Klicken Sie auf Anwenden. Der Bereich Abfrageergebnisse wird mit Logs aktualisiert, die der ausgewählten Option entsprechen.
Weitere Informationen dazu, wie Sie anpassen, welche Logs im Log-Explorer angezeigt werden, finden Sie unter Übersicht über den Log-Explorer: Bereich optimieren.
gcloud
Verwenden Sie zum Lesen von Logs aus einem Log-Bucket den Befehl gcloud logging read
und fügen Sie LOG_FILTER
hinzu, um Daten auszuwählen:
gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID
API
Verwenden Sie zum Lesen von Logs aus einem Log-Bucket die Methode entries.list. Legen Sie resourceNames
fest, um den entsprechenden Bucket und die Logansicht anzugeben, und filter
, um Daten auszuwählen.
Ausführliche Informationen zur Filtersyntax finden Sie unter Logging-Abfragesprache.
Benutzerdefinierte Aufbewahrung konfigurieren
Wenn Sie einen Log-Bucket erstellen, können Sie den Zeitraum anpassen, für den Cloud Logging die Logs des Buckets speichert.
Sie können die Aufbewahrungsdauer für jeden benutzerdefinierten Log-Bucket und auch für den Log-Bucket _Default
konfigurieren.
Wenn Sie die Aufbewahrung des Buckets verkürzen, gibt es einen Kulanzzeitraum von 7 Tagen, in dem abgelaufene Logs nicht gelöscht werden. Sie können diese abgelaufenen Logs weder abfragen noch aufrufen, aber in diesen sieben Tagen können Sie den vollständigen Zugriff wiederherstellen, indem Sie die Aufbewahrung des Buckets verlängern. Logs, die während des Kulanzzeitraums gespeichert wurden, werden auf Ihre Aufbewahrungskosten angerechnet.
So aktualisieren Sie die Aufbewahrungsdauer für einen Log-Bucket:
Google Cloud Console
So aktualisieren Sie die Aufbewahrungsdauer eines Log-Buckets:
-
Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:
Klicken Sie für den Bucket, den Sie aktualisieren möchten, auf more_vert Mehr und wählen Sie dann Bucket bearbeiten aus.
Geben Sie im Feld Aufbewahrung die Anzahl der Tage zwischen 1 und 3650 Tagen ein, in denen Cloud Logging die Logs speichern soll.
Klicken Sie auf Bucket aktualisieren. Die neue Aufbewahrungsdauer wird in der Liste Log-Bucket angezeigt.
gcloud
Führen Sie zum Aktualisieren der Aufbewahrungsdauer für einen Log-Bucket den Befehl gcloud logging buckets update
aus, nachdem Sie einen Wert für RETENTION_DAYS festgelegt haben:
gcloud logging buckets update BUCKET_ID --location=LOCATION --retention-days=RETENTION_DAYS
Wenn Sie beispielsweise die Logs im Bucket _Default
am Standort global
für ein Jahr aufbewahren möchten, würde Ihr Befehl so aussehen:
gcloud logging buckets update _Default --location=global --retention-days=365
Wenn Sie die Aufbewahrungsdauer eines Buckets verlängern, gelten die Aufbewahrungsregeln in Zukunft und nicht rückwirkend. Logs können nach Ablauf der Aufbewahrungsdauer nicht wiederhergestellt werden.
Asynchrone API-Methoden
Die Antwort einer asynchronen Methode wie projects.locations.buckets.createAsync
ist ein Operation
-Objekt.
Anwendungen, die eine asynchrone API-Methode aufrufen, sollten den Endpunkt operation.get
abfragen, bis der Wert des Felds Operation.done
true
ist:
Wenn
done
den Wertfalse
hat, wird der Vorgang noch ausgeführt.Senden Sie eine
GET
-Anfrage an den Endpunktoperation.get
, um die Statusinformationen zu aktualisieren.Wenn
done
den Werttrue
hat, ist der Vorgang abgeschlossen und entweder das Felderror
oderresponse
ist festgelegt:error
: Wenn dies festgelegt ist, ist der asynchrone Vorgang fehlgeschlagen. Der Wert dieses Felds ist einStatus
-Objekt, das einen gRPC-Fehlercode und eine Fehlermeldung enthält.response
: Wenn dies festgelegt ist, wurde der asynchrone Vorgang erfolgreich abgeschlossen und der Wert spiegelt das Ergebnis wider.
Führen Sie den folgenden Befehl aus, um einen asynchronen Befehl mithilfe der Google Cloud CLI abzufragen:
gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID
Weitere Informationen zu gcloud logging operations describe
.
Häufige Probleme beheben
Wenn bei der Verwendung von Log-Buckets Probleme auftreten, lesen Sie folgende Schritte zur Fehlerbehebung und Antworten auf häufig gestellte Fragen.
Warum kann ich diesen Bucket nicht löschen?
Wenn Sie versuchen, einen Bucket zu löschen, gehen Sie so vor:
Prüfen Sie, ob Sie die erforderlichen Berechtigungen zum Löschen des Buckets haben. Die Liste der erforderlichen Berechtigungen finden Sie unter Zugriffssteuerung mit IAM.
Bestimmen Sie, ob der Bucket gesperrt ist. Listen Sie dazu die Attribute des Buckets auf. Wenn der Bucket gesperrt ist, prüfen Sie die Aufbewahrungsdauer. Sie können gesperrte Buckets erst löschen, wenn alle Logs im Bucket die Aufbewahrungsdauer des Buckets erreicht haben.
Prüfen Sie, ob der Log-Bucket mit einem BigQuery-Dataset verknüpft ist. Sie können einen Log-Bucket mit einem verknüpften Dataset nicht löschen.
Der folgende Fehler wird als Antwort auf den Befehl
delete
in einem Log-Bucket mit einem verknüpften Dataset angezeigt:FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
Zum Auflisten der Links, die mit einem Log-Bucket verknüpft sind, führen Sie den Befehl
gcloud logging links list
oder die API-Methodeprojects.locations.buckets.links.list
aus.
Welche Dienstkonten leiten Logs an meinen Bucket weiter?
So ermitteln Sie, ob Dienstkonten IAM-Berechtigungen zum Weiterleiten von Logs an Ihren Bucket haben:
-
Wählen Sie im Navigationsbereich der Google Cloud Console IAM aus:
Wählen Sie aus dem Tab Berechtigungen die Ansicht nach Rollen. Sie sehen nun eine Tabelle mit allen IAM-Rollen und Hauptkonten, die Ihrem Google Cloud-Projekt zugeordnet sind.
Geben Sie in das Textfeld Filter filter_list der Tabelle Log-Bucket-Autor ein.
Sie sehen alle Hauptkonten mit der Rolle Log-Bucket-Autor. Wenn ein Hauptkonto ein Dienstkonto ist, enthält dessen ID den String
gserviceaccount.com
.Optional: Wenn ein Dienstkonto nicht mehr in der Lage sein soll, Logs an Ihr Google Cloud-Projekt weiterzuleiten, klicken Sie das Kästchen check_box_outline_blank für das Dienstkonto an und klicken Sie auf Entfernen.
Warum sehe ich Logs für ein Google Cloud-Projekt, obwohl ich sie von meiner _Default
-Senke ausgeschlossen habe?
Möglicherweise sehen Sie sich Logs in einem Log-Bucket in einem zentralisierten Google Cloud-Projekt an, in dem Logs aus Ihrer Organisation zusammengefasst werden.
Wenn Sie den Log-Explorer für den Zugriff auf diese Logs verwenden und Logs sehen, die Sie von der Senke _Default
ausgeschlossen haben, ist Ihre Ansicht möglicherweise auf die Google Cloud-Projektebene beschränkt.
Um dieses Problem zu beheben, wählen Sie im Bereich Bereich optimieren die Option Bereich nach Speicher und dann den Bucket _Default
in Ihrem Google Cloud-Projekt aus. Die ausgeschlossenen Logs sollten nun nicht mehr angezeigt werden.
Nächste Schritte
Informationen zu den Methoden der Logs Bucket API finden Sie in der LogBucket
-Referenzdokumentation.
Informationen zur Bewältigung gängiger Anwendungsfälle mit Log-Buckets finden Sie in den folgenden Themen: