In diesem Dokument wird beschrieben, wie Sie Cloud Logging-Buckets mit der Google Cloud Console, der Google Cloud CLI und der Logging API erstellen und verwalten.
Außerdem finden Sie dort eine Anleitung zum Erstellen und Verwalten von Log-Buckets auf Google Cloud-Projektebene. Sie können keine Log-Buckets auf Ordner- oder Organisationsebene erstellen. In Cloud Logging werden jedoch automatisch die Log-Buckets _Default
und _Required
auf Ordner- und Organisationsebene für Sie erstellt.
Sie können Log-Buckets für die Verwendung von Log Analytics aktualisieren. Mit Log Analytics können Sie SQL-Abfragen auf Ihre Protokolldaten ausführen, um Probleme mit Anwendungen, Sicherheit und Netzwerken zu beheben.
Sie haben zwei Möglichkeiten, Ihre Protokolldaten mit BigQuery zu analysieren:
Erhöhen Sie die Version eines Log-Buckets, um Log Analytics zu verwenden, und erstellen Sie dann ein verknüpftes BigQuery-Dataset. In diesem Szenario werden Ihre Protokolldaten in Logging gespeichert, können aber von BigQuery gelesen werden.
Exportieren Sie Ihre Logeinträge nach BigQuery. In diesem Szenario müssen Sie eine Senke erstellen. BigQuery speichert und verwaltet die Daten und Sie haben die Möglichkeit, partitionierte Tabellen zu verwenden.
Wenn Ihre Protokolldaten für BigQuery verfügbar sind, können Sie sie mit anderen in BigQuery gespeicherten Daten zusammenführen und über andere Tools wie Looker Studio und Looker darauf zugreifen.
Eine konzeptionelle Übersicht über Buckets finden Sie unter Routing und Speicherübersicht: Log-Buckets.
In diesem Dokument wird nicht beschrieben, wie Sie einen Log-Bucket erstellen, der einen vom Kunden verwalteten Verschlüsselungsschlüssel (Customer-Managed Encryption Key, CMEK) verwendet. Weitere Informationen zu diesem Thema finden Sie unter CMEK für den Protokollspeicher konfigurieren.
Hinweise
Gehen Sie für einen Einstieg in Buckets folgendermaßen vor:
- Konfigurieren Sie Ihr Google Cloud-Projekt:
-
Make sure that billing is enabled for your Google Cloud project.
-
Bitten Sie Ihren Administrator, Ihnen die IAM-Rolle Logs Configuration Writer (
roles/logging.configWriter
) für Ihr Projekt zuzuweisen, um die Berechtigungen zu erhalten, die Sie zum Erstellen, Upgraden und Verknüpfen eines Protokoll-Buckets benötigen. Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.Sie können die erforderlichen Berechtigungen auch über benutzerdefinierte Rollen oder andere vordefinierte Rollen erhalten.
Eine vollständige Liste der Berechtigungen und Rollen finden Sie unter Zugriffssteuerung mit IAM.
- Optional: So rufen Sie mit BigQuery die in einem Log-Bucket gespeicherten Daten auf:
- Die BigQuery API muss aktiviert sein. Sie können prüfen, ob die API aktiviert ist, indem Sie verfügbare Dienste auflisten.
- Ihre Identity and Access Management-Rolle umfasst die Berechtigungen, die zum Erstellen eines verknüpften Datensatzes erforderlich sind. Weitere Informationen finden Sie unter Berechtigungen für verknüpfte BigQuery-Datasets.
-
- Machen Sie sich mit den unterstützten Regionen vertraut, in denen Sie Ihre Logs speichern können.
-
Select the tab for how you plan to use the samples on this page:
Console
When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.
gcloud
In the Google Cloud console, activate Cloud Shell.
At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.
REST
Verwenden Sie die von der gcloud CLI bereitgestellten Anmeldedaten, um die REST API-Beispiele auf dieser Seite in einer lokalen Entwicklungsumgebung zu verwenden.
Install the Google Cloud CLI, then initialize it by running the following command:
gcloud init
Weitere Informationen finden Sie unter Für die Verwendung von REST authentifizieren in der Dokumentation zur Google Cloud-Authentifizierung.
- Wenn Sie die Google Cloud CLI oder die Cloud Logging API zum Erstellen oder Verwalten Ihrer Log-Buckets verwenden möchten, sollten Sie sich mit den Formatierungsanforderungen für
LogBucket
vertraut machen.Bucket erstellen
Sie können maximal 100 Buckets pro Google Cloud-Projekt erstellen.
So erstellen Sie einen benutzerdefinierten Log-Bucket für Ihr Google Cloud-Projekt:
Google Cloud Console
So erstellen Sie einen Log-Bucket in Ihrem Google Cloud-Projekt:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Logging ist.
Klicken Sie auf Log-Bucket erstellen.
Geben Sie unter Name einen Namen und unter Beschreibung eine Beschreibung für den Bucket ein.
Optional: Führen Sie ein Upgrade Ihres Buckets für die Verwendung von Log Analytics durch.
Wählen Sie Upgrade durchführen, um Log Analytics zu verwenden aus.
Wenn Sie ein Upgrade eines Buckets für die Verwendung von Log Analytics ausführen, können Sie Ihre Logs auf der Seite Log Analytics mithilfe von SQL-Abfragen abfragen. Sie können Ihre Protokolle auch weiterhin mit dem Log-Explorer aufrufen.
Optional: Wenn Sie Ihre Protokolle in BigQuery aufrufen möchten, wählen Sie Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist aus und geben Sie einen eindeutigen Dataset-Namen ein.
Wenn Sie diese Option auswählen, kann BigQuery die in Ihrem Log-Bucket gespeicherten Daten lesen. Sie können jetzt Abfragen in der BigQuery-Benutzeroberfläche stellen, Ihre Protokolldaten zusammenführen und auf Daten aus anderen Tools wie Looker Studio und Looker zugreifen.
Optional: Wenn Sie die Speicherregion für Ihre Protokolle auswählen möchten, klicken Sie auf das Menü Log-Bucket-Region auswählen und wählen Sie eine Region aus. Wenn Sie keine Region auswählen, wird die Region
global
verwendet. Dies bedeutet, dass sich die Logs in einer beliebigen der unterstützten Regionen befinden können.Optional: Klicken Sie auf Weiter, um eine benutzerdefinierte Aufbewahrungsdauer für die Logs im Bucket festzulegen.
Geben Sie im Feld Aufbewahrungsdauer die Anzahl der Tage zwischen 1 und 3.650 Tagen ein, in denen Cloud Logging die Logs speichern soll. Wenn Sie die Aufbewahrungsdauer nicht anpassen, wird der Standardwert
30 days
verwendet.Sie können Ihren Bucket auch nach der Erstellung aktualisieren, um eine benutzerdefinierte Aufbewahrung anzuwenden.
Klicken Sie auf Bucket erstellen.
Nachdem der Protokoll-Bucket erstellt wurde, wird er durch Logging aktualisiert und der Datensatzlink wird erstellt, sofern diese Optionen ausgewählt wurden.
Es kann einen Moment dauern, bis diese Schritte abgeschlossen sind.
gcloud
Wenn Sie nur einen Protokoll-Bucket erstellen möchten, führen Sie den Befehl
gcloud logging buckets create
aus. Wenn Sie den Log-Bucket für die Verwendung von Log Analytics aktualisieren möchten, fügen Sie die Flags--enable-analytics
und--async
hinzu und legen Sie die Variable LOCATION auf eine unterstützte Region fest:gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS
Das Flag
--async
erzwingt eine asynchrone Ausführung des Befehls. Die Rückgabe einer asynchronen Methode ist einOperation
-Objekt, das Informationen zum Fortschritt der Methode enthält. Nach Abschluss der Methode enthält dasOperation
-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.Wenn Sie den Log-Bucket nicht für die Verwendung von Log Analytics aktualisieren möchten, lassen Sie die Flags
--enable-analytics
und--async
weg.Wenn Sie zum Beispiel einen Bucket mit der BUCKET_ID
my-bucket
in der Regionglobal
erstellen möchten, würde Ihr Befehl so aussehen:gcloud logging buckets create my-bucket --location global --description "My first bucket"
Wenn Sie beispielsweise einen Bucket mit der BUCKET_ID
my-upgraded-bucket
am Speicherortglobal
erstellen und den Log-Bucket dann auf die Verwendung von Log Analytics umstellen möchten, würde Ihr Befehl so aussehen:gcloud logging buckets create my-upgraded-bucket --location global \ --description "My first upgraded bucket" \ --enable-analytics --retention-days=45
REST
Verwenden Sie zum Erstellen eines Buckets die Methode
projects.locations.buckets.create
oderprojects.locations.buckets.createAsync
. Bereiten Sie die Argumente für die Methode so vor:Legen Sie als
parent
-Parameter die Ressource fest, in der der Bucket erstellt werden soll:projects/PROJECT_ID/locations/LOCATION
Die Variable LOCATION bezieht sich auf die Region, in der Ihre Logs gespeichert werden sollen.
Wenn Sie beispielsweise einen Bucket für das Projekt
my-project
in der Regionglobal
erstellen möchten, würde Ihrparent
-Parameter so aussehen:projects/my-project/locations/global
Legen Sie den Parameter
bucketId
fest, z. B.my-bucket
.Führen Sie einen der folgenden Schritte aus:
So erstellen Sie einen Log-Bucket und aktualisieren ihn dann für die Verwendung von Log Analytics:
Legen Sie den booleschen Wert
LogBucket.analyticsEnabled
auftrue
fest.Rufen Sie die asynchrone Methode
projects.locations.buckets.createAsync
auf, um den Bucket zu erstellen.Die Antwort auf die asynchronen Methoden ist ein
Operation
-Objekt. Dieses Objekt enthält Informationen zum Fortschritt der Methode. Nach Abschluss der Methode enthält dasOperation
-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.Die
createAsync
-Methode kann mehrere Minuten dauern. Diese Methode generiert keine Fehlermeldung und schlägt nicht fehl, wenn das boolescheanalyticsEnabled
auftrue
festgelegt ist.
Andernfalls rufen Sie die synchrone Methode
projects.locations.buckets.create
auf, um den Bucket zu erstellen.
Nachdem Sie einen Bucket erstellt haben, erstellen Sie eine Senke, um Logeinträge an Ihren Bucket weiterzuleiten, und konfigurieren Sie Logansichten, um zu steuern, wer auf die Logs in Ihrem neuen Bucket zugreifen kann und auf welche Logs er Zugriff hat. Sie können den Bucket auch aktualisieren, um eine benutzerdefinierte Aufbewahrung und eingeschränkte Felder zu konfigurieren.
Volumen der in Log-Buckets gespeicherten Logs erfassen
Auf der Seite Logspeicher in der Google Cloud Console wird das Volumen der in Log-Buckets gespeicherten Logdaten erfasst:
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Logging ist.
Auf der Seite Logspeicher wird eine Zusammenfassung der Statistiken für Ihr Google Cloud-Projekt angezeigt:
Die folgenden Statistiken werden gemeldet:
Aufnahme im aktuellen Monat: Die Menge der Logdaten, die Ihr Google Cloud-Projekt seit dem ersten Tag des aktuellen Kalendermonats in Log-Buckets gespeichert hat.
Aufnahme im Vormonat: Die Menge der Logdaten, die Ihr Google Cloud-Projekt im letzten Kalendermonat in Log-Buckets gespeichert hat.
Prognostizierte Aufnahme bis Monatsende: Die geschätzte Menge an Logdaten, die Ihr Google Cloud-Projekt bis zum Ende des aktuellen Kalendermonats auf der Grundlage der aktuellen Nutzung in Log-Buckets speichern wird.
Abrechenbarer Speicherplatz im aktuellen Monat: Die Menge der Logdaten, die länger als 30 Tage aufbewahrt wurden und in Rechnung gestellt werden.
Die vorherigen Statistiken enthalten keine Logs im Bucket
_Required
. Die Logs in diesem Bucket können nicht ausgeschlossen oder deaktiviert werden.Auf der Seite Log-Router in der Google Cloud Console finden Sie Tools, mit denen Sie die Gebühren für das Speichern von Protokollen in Protokoll-Buckets oder für den Speicherplatz, der Ihr monatliches Kontingent übersteigt, minimieren können. In diesem Fall können Sie folgende Aktionen ausführen:
- Deaktivieren Sie das Speichern von Protokollen auf Bucket-Ebene.
- Bestimmte Logeinträge von der Speicherung in Log-Buckets ausschließen
Weitere Informationen finden Sie unter Senken verwalten.
Buckets verwalten
In diesem Abschnitt wird beschrieben, wie Sie Ihre Log-Buckets mit der Google Cloud CLI oder der Google Cloud Console verwalten.
Bucket aktualisieren
So aktualisieren Sie die Eigenschaften Ihres Buckets, z. B. die Beschreibung oder die Aufbewahrungsdauer:Google Cloud Console
So aktualisieren Sie die Eigenschaften Ihres Buckets:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Logging ist.
Klicken Sie für den Bucket, den Sie aktualisieren möchten, auf more_vert Mehr.
Klicken Sie auf Bucket bearbeiten.
Bearbeiten Sie den Bucket nach Bedarf.
Klicken Sie auf Bucket aktualisieren.
gcloud
Führen Sie den Befehl
gcloud logging buckets update
aus, um die Eigenschaften Ihres Buckets zu aktualisieren:gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES
Beispiel:
gcloud logging buckets update my-bucket --location=global --description "Updated description"
REST
Verwenden Sie
projects.locations.buckets.patch
in der Logging API, um die Eigenschaften Ihres Buckets zu aktualisieren.Bucket für die Verwendung von Log Analytics upgraden
Beim Upgrade eines vorhandenen Buckets auf Log Analytics gelten die folgenden Einschränkungen:
- Der Log-Bucket wurde auf Google Cloud-Projektebene erstellt.
- Der Log-Bucket ist entsperrt, es sei denn, es handelt sich um den Bucket
_Required
. Es gibt keine ausstehenden Updates für den Bucket.
Google Cloud Console
So führen Sie ein Upgrade eines vorhandenen Buckets auf Log Analytics durch:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Logging ist.
Suchen Sie den Bucket, den Sie upgraden möchten.
Wenn in der Spalte Log Analytics verfügbar Upgrade angezeigt wird, können Sie das Log-Bucket für die Verwendung von Log Analytics upgraden. Klicken Sie auf Upgrade.
Ein Dialogfeld wird geöffnet. Klicken Sie auf Bestätigen.
gcloud
Führen Sie den Befehl
gcloud logging buckets update
aus, um Ihr Log-Bucket für die Verwendung von Log Analytics zu aktualisieren. Sie müssen das Flag--enable-analytics
festlegen. Wir empfehlen, auch das Flag--async
anzugeben:gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async
Das Flag
--async
erzwingt die asynchrone Ausführung des Befehls. Die Rückgabe einer asynchronen Methode ist einOperation
-Objekt, das Informationen zum Fortschritt der Methode enthält. Nach Abschluss der Methode enthält dasOperation
-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.REST
Verwenden Sie die Methode
projects.locations.buckets.updateAsync
der Cloud Logging API, um einen Log-Bucket auf Log Analytics umzustellen.Bereiten Sie die Argumente für die Methode so vor:
- Legen Sie den booleschen Wert
LogBucket.analyticsEnabled
auftrue
fest. - Verwenden Sie für den Abfrageparameter des Befehls
updateMask=analyticsEnabled
.
Die Antwort auf die asynchronen Methoden ist ein
Operation
-Objekt. Dieses Objekt enthält Informationen zum Fortschritt der Methode. Nach Abschluss der Methode enthält dasOperation
-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.Die
updateAsync
kann einige Minuten dauern.Verknüpftes BigQuery-Dataset erstellen
Wenn Sie Ihre Logdaten mit BigQuery analysieren möchten, müssen Sie einen Log-Bucket auf Log Analytics umstellen und dann ein verknüpftes Dataset erstellen. Bei dieser Konfiguration werden Ihre Protokolldaten in Logging gespeichert, können aber von BigQuery gelesen werden.
Google Cloud Console
So erstellen Sie einen Link zu einem BigQuery-Dataset für einen vorhandenen Log-Bucket:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Logging ist.
Suchen Sie den Protokoll-Bucket und prüfen Sie, ob in der Spalte Log Analytics verfügbar der Wert Offen angezeigt wird.
Wenn in dieser Spalte Upgrade angezeigt wird, wurde der Log-Bucket nicht für die Verwendung von Log Analytics aktualisiert. So konfigurieren Sie Log Analytics:
- Klicken Sie auf Upgrade.
- Klicken Sie im Dialogfeld auf Bestätigen.
Fahren Sie nach Abschluss des Upgrades mit dem nächsten Schritt fort.
Klicken Sie beim Log-Bucket auf das Dreipunkt-Menümore_vert und dann auf Bucket bearbeiten.
Das Dialogfeld Protokoll-Bucket bearbeiten wird geöffnet.
Wählen Sie Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist aus und geben Sie den Namen für das neue Dataset ein.
Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie den Namen eines vorhandenen Datensatzes eingeben, wird die folgende Fehlermeldung angezeigt:
Dataset name must be unique in the selected region.
Klicken Sie auf Fertig und dann auf Bucket aktualisieren.
Nachdem der Name des verknüpften Datasets in Logging auf der Seite Logs Storage angezeigt wird, kann es einige Minuten dauern, bis BigQuery das Dataset erkennt.
gcloud
Führen Sie den Befehl
gcloud logging links create
aus, um ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der auf Log Analytics umgestellt wurde:gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION
Die von Ihnen angegebene LINK_ID wird als Name des BigQuery-Datasets verwendet. Der Wert dieses Felds muss für Ihr Google Cloud-Projekt eindeutig sein.
Der Befehl
links create
ist asynchron. Die Rückgabe einer asynchronen Methode ist einOperation
-Objekt, das Informationen zum Fortschritt der Methode enthält. Nach Abschluss der Methode enthält dasOperation
-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.Die Ausführung des Befehls
links create
kann mehrere Minuten dauern.Mit dem folgenden Befehl wird beispielsweise ein verknüpftes Dataset mit dem Namen
mylink
für den Protokoll-Bucketmy-bucket
erstellt:gcloud logging links create mylink --bucket=my-bucket --location=global
Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, einen Datensatz mit demselben Namen wie ein vorhandener Datensatz zu erstellen, erhalten Sie die folgende Fehlermeldung:
BigQuery dataset with name "LINK_ID" already exists.
Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der nicht auf Log Analytics umgestellt wurde, wird der folgende Fehler ausgegeben:
A link can only be created for an analytics-enabled bucket.
REST
Wenn Sie ein verknüpftes BigQuery-Dataset für einen vorhandenen Log-Bucket erstellen möchten, der mit Log Analytics aktualisiert wird, rufen Sie die asynchrone Methode
projects.locations.buckets.links.create
der Cloud Logging API auf.Bereiten Sie die Argumente für die Methode so vor:
- Erstellen Sie den Anfragetext für den Befehl
create
. Der Anfragetext ist alsLink
-Objekt formatiert. - Verwenden Sie für den Abfrageparameter des Befehls
linkId=LINK_ID
. Die von Ihnen angegebene LINK_ID wird als Name des BigQuery-Datasets verwendet. Der Wert dieses Felds muss für Ihr Google Cloud-Projekt eindeutig sein.
Die Antwort auf die asynchronen Methoden ist ein
Operation
-Objekt. Dieses Objekt enthält Informationen zum Fortschritt der Methode. Nach Abschluss der Methode enthält dasOperation
-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.Die
links.create
-Methode kann mehrere Minuten dauern.Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, einen Datensatz mit demselben Namen wie ein vorhandener Datensatz zu erstellen, erhalten Sie die folgende Fehlermeldung:
BigQuery dataset with name "LINK_ID" already exists.
Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der nicht auf Log Analytics umgestellt wurde, wird der folgende Fehler ausgegeben:
A link can only be created for an analytics-enabled bucket.
Bucket sperren
Wenn Sie einen Bucket vor Aktualisierungen sperren, wird auch die Aufbewahrungsrichtlinie des Buckets gesperrt. Nachdem eine Aufbewahrungsrichtlinie gesperrt wurde, können Sie den Bucket erst löschen, wenn die Aufbewahrungsdauer für jeden Logeintrag im Bucket abgelaufen ist.
Wenn Sie verhindern möchten, dass ein Log-Bucket aktualisiert oder gelöscht wird, sperren Sie den Bucket. So sperren Sie den Bucket:
Google Cloud Console
Die Google Cloud Console unterstützt das Sperren eines Log-Buckets nicht.
gcloud
Führen Sie zum Sperren des Buckets den Befehl
gcloud logging buckets update
mit dem Flag--locked
aus:gcloud logging buckets update BUCKET_ID --location=LOCATION --locked
Beispiel:
gcloud logging buckets update my-bucket --location=global --locked
REST
Wenn Sie die Attribute Ihres Buckets sperren möchten, verwenden Sie
projects.locations.buckets.patch
in der Logging API. Legen Sie den Parameterlocked
auftrue
fest.Buckets auflisten
So listen Sie die mit einem Google Cloud-Projekt verknüpften Log-Buckets auf und rufen Details z. B. zu Aufbewahrungseinstellungen auf:
Google Cloud Console
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Logging ist.
In der Tabelle Log-Buckets sind die Buckets aufgeführt, die dem aktuellen Google Cloud-Projekt zugeordnet sind.
In der Tabelle sind die folgenden Attribute für jeden Log-Bucket aufgeführt:
- Name: Der Name des Protokoll-Buckets.
- Beschreibung: Die Beschreibung des Buckets.
- Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
- Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
- Status: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.
Wenn ein Bucket zum Löschen durch Cloud Logging ansteht, wird sein Tabelleneintrag mit dem warning Warnsymbol versehen.
gcloud
Führen Sie den Befehl
gcloud logging buckets list
aus:gcloud logging buckets list
Für die Log-Buckets werden die folgenden Attribute angezeigt:
LOCATION
ist die Region, in der die Daten des Buckets gespeichert werden.BUCKET_ID
: Der Name des Log-Buckets.RETENTION_DAYS
: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.LIFECYCLE_STATE
: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.LOCKED
: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.CREATE_TIME
: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.UPDATE_TIME
: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.
Sie können auch die Attribute für nur einen Bucket aufrufen. Wenn Sie beispielsweise die Details für den Log-Bucket
_Default
in der Regionglobal
aufrufen möchten, führen Sie den Befehlgcloud logging buckets describe
aus:gcloud logging buckets describe _Default --location=global
REST
Verwenden Sie
projects.locations.buckets.list
in der Logging API, um die mit einem Google Cloud-Projekt verknüpften Log-Buckets aufzulisten.Details eines Buckets anzeigen lassen
So rufen Sie die Details eines einzelnen Log-Buckets auf:
Google Cloud Console
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Logging ist.
Klicken Sie für den Log-Bucket auf more_vert Mehr und wählen Sie dann Bucket-Details ansehen aus.
Im Dialogfeld sind die folgenden Attribute für den Log-Bucket aufgeführt:
- Name: Der Name des Protokoll-Buckets.
- Beschreibung: Die Beschreibung des Log-Buckets.
- Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
- Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
- Log Analytics: Gibt an, ob Ihr Bucket für die Verwendung von Log Analytics aktualisiert wurde.
- BigQuery-Analyse: Gibt an, ob ein BigQuery-Dataset mit Ihrem Bucket verknüpft ist.
- BigQuery-Dataset: Hier finden Sie einen Link zu Ihrem BigQuery-Dataset, der die Seite BigQuery Studio öffnet. Außerdem wird das Datum angezeigt, an dem die BigQuery-Verknüpfung aktiviert wurde.
gcloud
Führen Sie den Befehl
gcloud logging buckets describe
aus.Mit dem folgenden Befehl werden beispielsweise die Details des
_Default
-Buckets ausgegeben:gcloud logging buckets describe _Default --location=global
Sie sehen die folgenden Attribute für den Log-Bucket:
createTime
: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.description
: Die Beschreibung des Log-Buckets.lifecycleState
: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.name
: Der Name des Log-Buckets.retentionDays
: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.updateTime
: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.
REST
Wenn Sie die Details eines einzelnen Log-Buckets aufrufen möchten, verwenden Sie
projects.locations.buckets.get
in der Logging API.Buckets löschen
So löschen Sie einen Log-Bucket:
Google Cloud Console
So löschen Sie einen Log-Bucket:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Logging ist.
Suchen Sie den Bucket, den Sie löschen möchten, und klicken Sie auf das more_vertDreipunkt-Menü.
Wenn in der Spalte Verknüpftes Dataset in BigQuery ein Link angezeigt wird, löschen Sie das verknüpfte BigQuery-Dataset:
Klicken Sie auf Bucket bearbeiten.
Entfernen Sie das Häkchen bei Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist, klicken Sie auf Fertig und dann auf Bucket aktualisieren.
Klicken Sie auf der Seite Log-Speicher für den Bucket, den Sie löschen möchten, auf das more_vertDreipunkt-Menü und fahren Sie mit den nächsten Schritten fort.
Klicken Sie auf Bucket löschen.
Klicken Sie im Bestätigungsfeld auf Löschen.
Auf der Seite Logspeicher wird der Hinweis angezeigt, dass der Löschvorgang des Buckets aussteht. Der Bucket mit allen darin enthaltenen Logs wird dann nach sieben Tagen gelöscht.
gcloud
Führen Sie den Befehl
gcloud logging buckets delete
aus, um einen Log-Bucket zu löschen:gcloud logging buckets delete BUCKET_ID --location=LOCATION
Sie können einen Protokoll-Bucket nicht löschen, wenn er ein verknüpftes BigQuery-Dataset hat:
- Führen Sie den Befehl
gcloud logging links list
aus, um die mit einem Log-Bucket verknüpften Links aufzulisten. - Führen Sie den Befehl
gcloud logging links delete
aus, um ein verknüpftes Dataset zu löschen.
REST
Verwenden Sie in der Logging API
projects.locations.buckets.delete
, um einen Bucket zu löschen.Es ist ein Fehler, einen Log-Bucket zu löschen, wenn dieser Bucket ein verknüpftes BigQuery-Dataset hat. Sie müssen das verknüpfte Dataset löschen, bevor Sie den Log-Bucket löschen:
- Wenn Sie die mit einem Log-Bucket verknüpften Links auflisten möchten, führen Sie die Methode
projects.locations.buckets.links.list
aus. - Führen Sie die Methode
projects.locations.buckets.links.delete
aus, um ein verknüpftes Dataset zu löschen.
Ein gelöschter Bucket verbleibt sieben Tage im Status "Ausstehend". In diesem Zeitraum werden die Logs von Logging an den Bucket weitergeleitet. Wenn Sie das Routing von Logs an einen gelöschten Bucket beenden möchten, können Sie die Logsenken löschen, die diesen Bucket als Ziel haben. Alternativ haben Sie die Möglichkeit, den Filter für die Senken so zu ändern, dass Logs nicht mehr an den gelöschten Bucket weitergeleitet werden.
Sie können keinen neuen Log-Bucket mit demselben Namen wie einen gelöschten Bucket erstellen, der sich im Status „Ausstehend“ befindet.
Gelöschten Bucket wiederherstellen
Sie können einen Log-Bucket mit dem Status "Ausstehend" wiederherstellen oder den Löschvorgang aufheben. So stellen Sie einen Log-Bucket wieder her:
Google Cloud Console
So stellen Sie einen Log-Bucket wieder her, dessen Löschvorgang aussteht:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Logging ist.
Klicken Sie für den Bucket, den Sie wiederherstellen möchten, auf more_vert Mehr und wählen Sie dann Gelöschten Bucket wiederherstellen aus.
Klicken Sie im Bestätigungsfeld auf Wiederherstellen.
Auf der Seite Logspeicher wird dann die Anzeige für den ausstehenden Löschvorgang aus dem Log-Bucket entfernt.
gcloud
Wenn Sie einen Log-Bucket wiederherstellen möchten, dessen Löschvorgang aussteht, führen Sie den Befehl
gcloud logging buckets undelete
aus:gcloud logging buckets undelete BUCKET_ID --location=LOCATION
REST
Wenn Sie einen Bucket wiederherstellen möchten, dessen Löschvorgang aussteht, verwenden Sie
projects.locations.buckets.undelete
in der Logging API.Benachrichtigung über die in Log-Buckets gespeicherten Log-Byte pro Monat
Wenn Sie eine Benachrichtigungsrichtlinie erstellen möchten, klicken Sie in der Google Cloud Console auf der Seite Logs Storage (Protokollspeicher) auf add_alert Usage alert erstellen (Nutzungsbenachrichtigung erstellen). Über diese Schaltfläche wird die Seite Benachrichtigungsrichtlinie erstellen in Monitoring geöffnet und das Feld für den Messwerttyp wird mit
logging.googleapis.com/billing/bytes_ingested
ausgefüllt.Verwenden Sie die folgenden Einstellungen, um eine Benachrichtigungsrichtlinie zu erstellen, sodass Sie benachrichtigt werden, wenn die Anzahl der in Ihre Log-Buckets geschriebenen Log-Byte Ihre benutzerdefinierte Grenze für Cloud Logging überschreitet.
Neue Bedingung
Feld
WertRessource und Messwert Wählen Sie im Menü Ressourcen die Option Global aus.
Wählen Sie im Menü Messwertkategorien die Option Logbasierter Messwert aus.
Wählen Sie im Menü Messwerte die Option Täglich aufgenommene Protokoll-Bytes aus.Filter – Über Zeitreihen hinweg
Zeitreihenaggregationsum
Rollierendes Zeitfenster 60 m
Funktion für rollierendes Zeitfenster max
Benachrichtigungstrigger konfigurieren
Feld
WertBedingungstyp Threshold
Benachrichtigungstrigger Any time series violates
Grenzwertposition Above threshold
Grenzwert Sie legen den akzeptablen Wert fest. Zeitfenster noch einmal testen Der kleinste akzeptable Wert liegt bei 30 Minuten. Weitere Informationen zu Benachrichtigungsrichtlinien finden Sie unter Benachrichtigungen.
In einen Bucket schreiben
Sie schreiben Logs nicht direkt in einen Log-Bucket. Stattdessen schreiben Sie Logs in die Google Cloud-Ressource: ein Google Cloud-Projekt, einen Ordner oder eine Organisation. Die Senken in der übergeordneten Ressource leiten dann die Logs an Ziele weiter, einschließlich Log-Buckets. Eine Senke leitet Logs an ein Log-Bucket-Ziel weiter, wenn die Logs mit dem Filter der Senke übereinstimmen und die Senke berechtigt ist, die Logs an den Log-Bucket weiterzuleiten.
Aus einem Bucket lesen
Jeder Log-Bucket verfügt über eine Reihe von Logansichten. Zum Lesen von Logs aus einem Log-Bucket benötigen Sie Zugriff auf eine Logansicht des Log-Buckets. Mit Logansichten können Sie einem Nutzer Zugriff auf nur einen Teil der in einem Log-Bucket gespeicherten Logs gewähren. Informationen zum Konfigurieren von Log-Ansichten und zum Gewähren von Zugriff auf bestimmte Log-Ansichten finden Sie unter Log-Ansichten für einen Log-Bucket konfigurieren.
So lesen Sie Logs aus einem Log-Bucket:
Google Cloud Console
-
Rufen Sie in der Google Cloud Console die Seite Log-Explorer auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Logging ist.
Wenn Sie festlegen möchten, welche Protokolle im Log-Explorer angezeigt werden, klicken Sie auf Bereich verfeinern und wählen Sie eine Option aus. Sie können sich beispielsweise Logs ansehen, die in einem Projekt oder in einer Logansicht gespeichert sind.
Klicken Sie auf Anwenden. Der Bereich Abfrageergebnisse wird mit Logs aktualisiert, die der ausgewählten Option entsprechen.
Weitere Informationen finden Sie unter Log-Explorer – Übersicht: Umfang eingrenzen.
gcloud
Verwenden Sie den Befehl
gcloud logging read
und fügen Sie einLOG_FILTER
hinzu, um Daten auszuwählen:gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID
REST
Verwenden Sie die Methode entries.list, um Protokolle aus einem Protokoll-Bucket zu lesen. Legen Sie mit
resourceNames
den entsprechenden Bucket und die Log-Ansicht fest und wählen Sie mitfilter
die Daten aus.Weitere Informationen zur Filtersyntax finden Sie unter Logging-Abfragesprache.
Benutzerdefinierte Aufbewahrung konfigurieren
Wenn Sie einen Log-Bucket erstellen, können Sie den Zeitraum anpassen, für den Cloud Logging die Logs des Buckets speichert. Sie können die Aufbewahrungsdauer für jeden benutzerdefinierten Log-Bucket und auch für den Log-Bucket
_Default
konfigurieren.Wenn Sie die Aufbewahrungsdauer des Buckets verkürzen, gibt es einen Kulanzzeitraum von 7 Tagen, in dem abgelaufene Protokolle nicht gelöscht werden. Sie können diese abgelaufenen Protokolle nicht abfragen oder aufrufen. Innerhalb dieser 7 Tage können Sie jedoch den vollständigen Zugriff wiederherstellen, indem Sie die Aufbewahrungsdauer des Buckets verlängern. Logs, die während des Kulanzzeitraums gespeichert werden, werden auf Ihre Speicherkosten angerechnet.
So aktualisieren Sie die Aufbewahrungsdauer für einen Log-Bucket:
Google Cloud Console
So aktualisieren Sie die Aufbewahrungsdauer eines Log-Buckets:
-
Rufen Sie in der Google Cloud Console die Seite Logspeicher auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Logging ist.
Klicken Sie für den Bucket, den Sie aktualisieren möchten, auf more_vert Mehr und wählen Sie Bucket bearbeiten aus.
Geben Sie im Feld Aufbewahrung die Anzahl der Tage zwischen 1 und 3650 Tagen ein, in denen Cloud Logging die Logs speichern soll.
Klicken Sie auf Bucket aktualisieren. Die neue Aufbewahrungsdauer wird in der Liste Log-Bucket angezeigt.
gcloud
Führen Sie zum Aktualisieren der Aufbewahrungsdauer für einen Log-Bucket den Befehl
gcloud logging buckets update
aus, nachdem Sie einen Wert für RETENTION_DAYS festgelegt haben:gcloud logging buckets update BUCKET_ID --location=LOCATION --retention-days=RETENTION_DAYS
Wenn Sie beispielsweise die Logs im
_Default
-Bucket am Standortglobal
für eine Dauer von einem Jahr aufbewahren möchten, würde Ihr Befehl so aussehen:gcloud logging buckets update _Default --location=global --retention-days=365
Wenn Sie die Aufbewahrungsdauer eines Buckets verlängern, gelten die Aufbewahrungsregeln in Zukunft und nicht rückwirkend. Logs können nach Ablauf der Aufbewahrungsdauer nicht wiederhergestellt werden.
Asynchrone API-Methoden
Die Antwort einer asynchronen Methode wie
projects.locations.buckets.createAsync
ist einOperation
-Objekt.Anwendungen, die eine asynchrone API-Methode aufrufen, sollten den Endpunkt
operation.get
abfragen, bis das FeldOperation.done
den Werttrue
hat:Wenn
done
den Wertfalse
hat, wird der Vorgang noch ausgeführt.Senden Sie zum Aktualisieren der Statusinformationen eine
GET
-Anfrage an den Endpunktoperation.get
.Wenn
done
den Werttrue
hat, ist der Vorgang abgeschlossen und entweder das Felderror
oderresponse
ist festgelegt:error
: Wenn dies festgelegt ist, ist der asynchrone Vorgang fehlgeschlagen. Der Wert dieses Felds ist einStatus
-Objekt, das einen gRPC-Fehlercode und eine Fehlermeldung enthält.response
: Wenn dies festgelegt ist, wurde der asynchrone Vorgang erfolgreich abgeschlossen und der Wert spiegelt das Ergebnis wider.
Führen Sie den folgenden Befehl aus, um einen asynchronen Befehl mit der Google Cloud CLI abzufragen:
gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID
Weitere Informationen finden Sie unter
gcloud logging operations describe
.Häufige Probleme beheben
Wenn bei der Verwendung von Log-Buckets Probleme auftreten, lesen Sie folgende Schritte zur Fehlerbehebung und Antworten auf häufig gestellte Fragen.
Warum kann ich diesen Bucket nicht löschen?
Wenn Sie versuchen, einen Bucket zu löschen, gehen Sie so vor:
Prüfen Sie, ob Sie die erforderlichen Berechtigungen zum Löschen des Buckets haben. Eine Liste der benötigten Berechtigungen finden Sie unter Zugriffssteuerung mit IAM.
Bestimmen Sie, ob der Bucket gesperrt ist. Listen Sie dazu die Attribute des Buckets auf. Wenn der Bucket gesperrt ist, prüfen Sie die Aufbewahrungsdauer. Sie können gesperrte Buckets erst löschen, wenn alle Logs im Bucket die Aufbewahrungsdauer des Buckets erreicht haben.
Prüfen Sie, ob der Log-Bucket kein verknüpftes BigQuery-Dataset hat. Sie können einen Log-Bucket mit einem verknüpften Dataset nicht löschen.
Der folgende Fehler wird als Antwort auf einen
delete
-Befehl für einen Protokoll-Bucket mit einem verknüpften Datensatz angezeigt:FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
Wenn Sie die mit einem Log-Bucket verknüpften Links auflisten möchten, führen Sie den Befehl
gcloud logging links list
oder die API-Methodeprojects.locations.buckets.links.list
aus.
Welche Dienstkonten leiten Logs an meinen Bucket weiter?
So ermitteln Sie, ob Dienstkonten IAM-Berechtigungen zum Weiterleiten von Logs an Ihren Bucket haben:
-
Öffnen Sie in der Google Cloud Console die Seite IAM:
Rufen Sie IAM auf.
Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift IAM & Admin ist.
Wählen Sie aus dem Tab Berechtigungen die Ansicht nach Rollen. Sie sehen eine Tabelle mit allen IAM-Rollen und -Hauptkonten, die Ihrem Google Cloud-Projekt zugeordnet sind.
Geben Sie in das Textfeld Filter filter_list der Tabelle Log-Bucket-Autor ein.
Sie sehen alle Hauptkonten mit der Rolle Log-Bucket-Autor. Wenn ein Hauptkonto ein Dienstkonto ist, enthält dessen ID den String
gserviceaccount.com
.Optional: Wenn Sie ein Dienstkonto davon abhalten möchten, Logs an Ihr Google Cloud-Projekt weiterzuleiten, aktivieren Sie das Kästchen check_box_outline_blank für das Dienstkonto und klicken Sie auf Entfernen.
Warum sehe ich Logs für ein Google Cloud-Projekt, obwohl ich sie von meiner
_Default
-Senke ausgeschlossen habe?Möglicherweise sehen Sie Logs in einem Log-Bucket in einem zentralisierten Google Cloud-Projekt, in dem Logs aus Ihrer Organisation zusammengefasst werden.
Wenn Sie über den Log-Explorer auf diese Logs zugreifen und Logs sehen, die Sie von der
_Default
-Senke ausgeschlossen haben, ist die Ansicht möglicherweise auf Google Cloud-Projektebene festgelegt.Wählen Sie zum Beheben dieses Problems im Menü Bereich eingrenzen die Option Loganzeige und dann die Loganzeige aus, die dem
_Default
-Bucket in Ihrem Google Cloud-Projekt zugeordnet ist. Die ausgeschlossenen Logs sollten nun nicht mehr angezeigt werden.Nächste Schritte
Informationen zu den Methoden der Logs Bucket API finden Sie in der
LogBucket
-Referenzdokumentation.Wenn Sie eine Organisation oder einen Ordner verwalten, können Sie den Speicherort der
_Default
- und_Required
-Protokoll-Buckets der untergeordneten Ressourcen angeben. Sie können auch konfigurieren, ob für Log-Buckets CMEK verwendet wird, und das Verhalten des_Default
-Log-Sinks. Weitere Informationen finden Sie unter Standardeinstellungen für Organisationen und Ordner konfigurieren.Informationen zur Bewältigung gängiger Anwendungsfälle mit Log-Buckets finden Sie in den folgenden Themen:
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2024-12-22 (UTC).
- Wenn Sie die Google Cloud CLI oder die Cloud Logging API zum Erstellen oder Verwalten Ihrer Log-Buckets verwenden möchten, sollten Sie sich mit den Formatierungsanforderungen für