Log-Buckets konfigurieren

In diesem Dokument wird beschrieben, wie Sie Cloud Logging-Buckets mit der Google Cloud Console, der Google Cloud CLI und der Logging API erstellen und verwalten. Außerdem finden Sie hier Anleitungen zum Erstellen und Verwalten von Log-Buckets auf Google Cloud-Projektebene. Sie können keine Log-Buckets auf Ordner- oder Organisationsebene erstellen. Cloud Logging erstellt jedoch automatisch _Default- und _Required-Buckets auf Ordner- und Organisationsebene.

Sie können Log-Buckets so aktualisieren, dass sie Loganalysen verwenden. Mit Loganalysen können Sie SQL-Abfragen für Ihre Logdaten ausführen und so Anwendungs-, Sicherheits- und Netzwerkprobleme beheben.

Sie haben zwei Möglichkeiten, Ihre Logdaten mit BigQuery zu analysieren:

  • Aktualisieren Sie einen Log-Bucket zur Verwendung von Loganalysen und erstellen Sie dann ein verknüpftes BigQuery-Dataset. In diesem Szenario werden die Logdaten in Logging gespeichert, aber BigQuery kann die Daten lesen.

  • Exportieren Sie Ihre Logeinträge nach BigQuery. In diesem Szenario müssen Sie eine Senke erstellen, BigQuery speichert und verwaltet die Daten und Sie haben die Möglichkeit, partitionierte Tabellen zu verwenden.

Sobald Ihre Logdaten für BigQuery verfügbar sind, können Sie sie mit anderen in BigQuery gespeicherten Daten zusammenführen und über andere Tools wie Looker Studio und Looker auf diese Daten zugreifen.

Eine konzeptionelle Übersicht über Buckets finden Sie unter Routing und Speicherübersicht: Log-Buckets.

Hinweise

Gehen Sie für einen Einstieg in Buckets folgendermaßen vor:

  • Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  • Achten Sie darauf, dass Ihnen Ihre IAM-Rolle (Identity and Access Management) die Berechtigungen zum Erstellen, Aktualisieren und Verknüpfen von Buckets gewährt.

    Die Rolle "Autor von Logkonfigurationen" (roles/logging.configWriter) ist die minimale vordefinierte Rolle, die die Berechtigungen zum Verwalten von Buckets gewährt. Eine vollständige Liste der Berechtigungen und Rollen finden Sie unter Zugriffssteuerung mit IAM.

  • Machen Sie sich mit den Formatierungsanforderungen für LogBucket vertraut, einschließlich der unterstützten Regionen, in denen Sie Ihre Logs speichern können.

  • Sie können einen Standardspeicherort für Ressourcen festlegen, um eine Standardspeicherregion für die Buckets _Required und _Default in Ihrer Organisation anzuwenden.

  • So rufen Sie die in einem Log-Bucket gespeicherten Daten mit BigQuery auf:

  • Informationen zum Erstellen eines Log-Buckets, in dem ein vom Kunden verwalteter Verschlüsselungsschlüssel (CMEK) verwendet wird, finden Sie unter CMEK für Logspeicher konfigurieren.

Bucket erstellen

Sie können maximal 100 Buckets pro Google Cloud-Projekt erstellen.

So erstellen Sie einen benutzerdefinierten Log-Bucket für Ihr Google Cloud-Projekt:

Google Cloud Console

So erstellen Sie einen Log-Bucket in Ihrem Google Cloud-Projekt:

  1. Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:

    Zum Log-Speicher

    Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.

  2. Klicken Sie auf Log-Bucket erstellen.

  3. Geben Sie unter Name einen Namen und unter Beschreibung eine Beschreibung für den Bucket ein.

  4. Optional: Aktualisieren Sie Ihren Bucket, um Loganalysen zu verwenden.

    1. Wählen Sie Upgrade zur Verwendung von Log Analytics aus.

      Wenn Sie einen Bucket für die Verwendung von Loganalysen upgraden, können Sie Ihre Logs auf der Seite Loganalysen mithilfe von SQL-Abfragen abfragen. Sie können Ihre Logs auch weiterhin mit dem Log-Explorer ansehen.

      Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.

    2. Optional: Um Ihre Logs in BigQuery anzusehen, wählen Sie Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist aus und geben Sie einen eindeutigen Dataset-Namen ein.

      Wenn Sie diese Option auswählen, kann BigQuery die in Ihrem Log-Bucket gespeicherten Daten lesen. Sie können Abfragen jetzt über die BigQuery-Oberfläche ausführen, um Ihre Logdaten zusammenzuführen und auf Daten aus anderen Tools wie Looker Studio und Looker zuzugreifen.

  5. Optional: Klicken Sie auf das Menü Log-Bucket-Region auswählen und wählen Sie eine Region aus, um die Speicherregion für Ihre Logs auszuwählen. Wenn Sie keine Region auswählen, wird die Region global verwendet. Das bedeutet, dass sich die Logs in einer beliebigen Region befinden können.

  6. Optional: Klicken Sie auf Weiter, um eine benutzerdefinierte Aufbewahrungsdauer für die Logs im Bucket festzulegen.

    Geben Sie im Feld Aufbewahrungsdauer die Anzahl der Tage zwischen 1 und 3.650 Tagen ein, für die Cloud Logging Ihre Logs aufbewahren soll. Wenn Sie die Aufbewahrungsdauer nicht anpassen, wird der Standardwert 30 days verwendet.

    Sie können den Bucket auch aktualisieren, um die benutzerdefinierte Aufbewahrung anzuwenden, nachdem Sie ihn erstellt haben.

  7. Klicken Sie auf Bucket erstellen.

    Nachdem der Log-Bucket erstellt wurde, aktualisiert Logging ihn und erstellt die Dataset-Verknüpfung, wenn diese Optionen ausgewählt wurden.

    Es kann einen Moment dauern, bis diese Schritte abgeschlossen sind.

gcloud

Wenn Sie nur einen Log-Bucket erstellen möchten, führen Sie den Befehl gcloud logging buckets create aus. Wenn Sie den Log-Bucket für die Verwendung von Loganalysen aktualisieren möchten, fügen Sie die Flags --enable-analytics und --async hinzu und legen Sie die Variable LOCATION auf eine für Loganalysen unterstützte Region fest:

gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS

Das Flag --async erzwingt einen asynchronen Befehl. Eine asynchrone Methode gibt ein Operation-Objekt zurück. Es enthält Informationen zum Fortschritt der Methode. Nach Abschluss der Methode enthält das Operation-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

Wenn Sie den Log-Bucket nicht für die Verwendung von Loganalysen aktualisieren möchten, lassen Sie die Flags --enable-analytics und --async weg. Sie können die Variable LOCATION auf eine beliebige unterstützte Region setzen.

Wenn Sie zum Beispiel einen Bucket mit der BUCKET_ID my-bucket in der Region asia-east2 erstellen möchten, würde Ihr Befehl so aussehen:

gcloud logging buckets create my-bucket --location asia-east2 --description "My first bucket"

Wenn Sie beispielsweise einen Bucket mit dem BUCKET_ID my-upgraded-bucket am Standort us erstellen und dann den Log-Bucket für die Verwendung von Loganalysen aktualisieren möchten, sieht Ihr Befehl so aus:

gcloud logging buckets create my-upgraded-bucket --location us \
      --description "My first upgraded bucket" \
      --enable-analytics --retention-days=45

API

Verwenden Sie zum Erstellen eines Buckets die Methode projects.locations.buckets.create oder die Methode projects.locations.buckets.createAsync. Bereiten Sie die Argumente für die Methode so vor:

  1. Legen Sie den Parameter parent auf die Ressource fest, in der der Bucket erstellt werden soll: projects/PROJECT_ID/locations/LOCATION

    Die Variable LOCATION bezieht sich auf die Region, in der Ihre Logs gespeichert werden sollen. Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.

    Wenn Sie beispielsweise einen Bucket für das Projekt my-project in der Region asia-east2 erstellen möchten, sieht der Parameter parent so aus: projects/my-project/locations/asia-east2

  2. Legen Sie den Parameter bucketId fest, z. B. my-bucket.

  3. Führen Sie einen der folgenden Schritte aus:

    • So erstellen Sie einen Log-Bucket und aktualisieren ihn dann für die Verwendung von Loganalysen:

      1. Legen Sie den booleschen Wert LogBucket.analyticsEnabled auf true fest.

      2. Rufen Sie die asynchrone Methode projects.locations.buckets.createAsync auf, um den Bucket zu erstellen.

        Die Antwort auf die asynchronen Methoden ist ein Operation-Objekt. Dieses Objekt enthält Informationen zum Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

        Die Methode createAsync dauert einige Minuten. Diese Methode erzeugt keine Fehlermeldung und schlägt fehl, wenn der boolesche Wert analyticsEnabled auf true gesetzt ist und die Region für aktualisierte Buckets nicht unterstützt wird. Wenn Sie beispielsweise den Standort auf asia-east2 festlegen, wird der Log-Bucket erstellt, aber kein Upgrade zur Verwendung von Loganalysen durchgeführt.

    • Andernfalls rufen Sie die synchrone Methode projects.locations.buckets.create auf, um den Bucket zu erstellen.

Erstellen Sie nach dem Erstellen eines Buckets eine Senke, um Logeinträge an den Bucket weiterzuleiten, und konfigurieren Sie Logansichten, um zu steuern, wer auf die Logs im neuen Bucket zugreifen kann und welche Logs für sie zugänglich sind. Sie können den Bucket auch aktualisieren, um die benutzerdefinierte Aufbewahrung und eingeschränkte Felder zu konfigurieren.

Volumen der in Log-Buckets gespeicherten Logs verfolgen

Auf der Seite Logspeicher in der Google Cloud Console wird das Volumen der in Log-Buckets gespeicherten Logdaten erfasst:

Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:

Zum Log-Speicher

Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.

Auf der Seite Logspeicher wird eine Zusammenfassung der Statistiken für Ihr Google Cloud-Projekt angezeigt:

Die zusammenfassenden Statistiken geben die Menge der Logdaten an, die für das ausgewählte Projekt in Log-Buckets gespeichert sind.

Die folgenden Statistiken werden gemeldet:

  • Aufnahme des aktuellen Monats: Die Menge der Logdaten, die in Ihrem Google Cloud-Projekt seit dem ersten Tag des aktuellen Kalendermonats in Log-Buckets gespeichert wurden.

  • Aufnahme im Vormonat: Die Menge der Logdaten, die Ihr Google Cloud-Projekt im letzten Kalendermonat in Log-Buckets gespeichert hat.

  • Prognostizierte Aufnahme bis zum Monatsende: Die geschätzte Menge an Logdaten, die Ihr Google Cloud-Projekt bis zum Ende des aktuellen Kalendermonats in Log-Buckets speichert, basierend auf der aktuellen Nutzung.

  • Abrechenbarer Speicher im aktuellen Monat: Die Menge der Logdaten, die länger als 30 Tage aufbewahrt werden und abgerechnet werden.

Die vorherigen Statistiken enthalten keine Logs im _Required-Bucket. Die Logs in diesem Bucket können nicht ausgeschlossen oder deaktiviert werden.

Auf der Seite Logrouter in der Google Cloud Console finden Sie Tools, mit denen Sie die Kosten für das Speichern von Logs in Log-Buckets oder für das Überschreiten Ihres monatlichen Kontingents minimieren können. Sie können Folgendes tun:

  • Speichern von Logs auf Bucket-Ebene deaktivieren.
  • Bestimmte Logeinträge vom Speichern in Log-Buckets ausschließen

Weitere Informationen finden Sie unter Senken verwalten.

Buckets verwalten

In diesem Abschnitt wird beschrieben, wie Sie Log-Buckets mit der Google Cloud CLI oder der Google Cloud Console verwalten.

Bucket aktualisieren

So aktualisieren Sie die Attribute Ihres Buckets, z. B. die Beschreibung oder die Aufbewahrungsdauer:

Google Cloud Console

So aktualisieren Sie die Attribute des Buckets:

  1. Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:

    Zum Log-Speicher

    Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.

  2. Klicken Sie für den Bucket, den Sie aktualisieren möchten, auf Mehr.

  3. Klicken Sie auf Bucket bearbeiten.

  4. Bearbeiten Sie den Bucket nach Bedarf.

  5. Klicken Sie auf Bucket aktualisieren.

gcloud

Führen Sie den Befehl gcloud logging buckets update aus, um die Attribute des Buckets zu aktualisieren:

gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES

Beispiel:

gcloud logging buckets update my-bucket --location=global --description "Updated description"

API

Verwenden Sie projects.locations.buckets.patch in der Logging API, um die Attribute des Buckets zu aktualisieren.

Bucket zur Verwendung von Log Analytics upgraden

Für das Upgrade eines vorhandenen Buckets für die Verwendung von Loganalysen gelten die folgenden Einschränkungen:

  • Der Log-Bucket wurde auf Google Cloud-Projektebene erstellt.
  • Der Log-Bucket ist entsperrt, es sei denn, es handelt sich um den _Required-Bucket.
  • Es gibt keine ausstehenden Aktualisierungen für den Bucket.
  • Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.

Google Cloud Console

So aktualisieren Sie einen vorhandenen Bucket für die Verwendung von Loganalysen:

  1. Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:

    Zum Log-Speicher

    Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.

  2. Suchen Sie den Bucket, für den Sie ein Upgrade ausführen möchten.

  3. Wenn in der Spalte Loganalysen verfügbar Upgrade angezeigt wird, können Sie den Log-Bucket so aktualisieren, dass er Loganalysen verwendet. Klicke auf Upgrade.

    Ein Dialogfeld wird geöffnet. Klicken Sie auf Bestätigen.

gcloud

Führen Sie den Befehl gcloud logging buckets update aus, um den Log-Bucket für die Verwendung von Loganalysen zu aktualisieren. Sie müssen das Flag --enable-analytics festlegen. Wir empfehlen, auch das Flag --async anzugeben:

gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async

Das Flag --async erzwingt einen asynchronen Befehl. Eine asynchrone Methode gibt ein Operation-Objekt zurück, das Informationen zum Fortschritt der Methode enthält. Nach Abschluss der Methode enthält das Operation-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

API

Verwenden Sie die Methode projects.locations.buckets.updateAsync der Cloud Logging API, um einen Log-Bucket für die Verwendung von Loganalysen zu aktualisieren.

Bereiten Sie die Argumente für die Methode so vor:

  1. Legen Sie den booleschen Wert LogBucket.analyticsEnabled auf true fest.
  2. Verwenden Sie für den Abfrageparameter des Befehls updateMask=analyticsEnabled.

Die Antwort auf die asynchronen Methoden ist ein Operation-Objekt. Dieses Objekt enthält Informationen zum Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

Es kann einige Minuten dauern, bis updateAsync abgeschlossen ist.

Wenn Sie die Funktionen von BigQuery zum Analysieren Ihrer Logdaten nutzen möchten, aktualisieren Sie einen Log-Bucket zur Verwendung von Loganalysen und erstellen Sie dann ein verknüpftes Dataset. Bei dieser Konfiguration speichert Logging Ihre Logdaten, aber BigQuery kann die Logdaten lesen.

Google Cloud Console

So erstellen Sie eine Verknüpfung zu einem BigQuery-Dataset für einen vorhandenen Log-Bucket:

  1. Lesen Sie den Abschnitt Vorbereitung in diesem Dokument.

  2. Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:

    Zum Log-Speicher

    Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.

  3. Suchen Sie den Log-Bucket und prüfen Sie, ob in der Spalte Loganalysen verfügbar Open (Offen) angezeigt wird.

    Wenn in dieser Spalte Upgrade angezeigt wird, wurde der Log-Bucket nicht für die Verwendung von Loganalysen aktualisiert. Konfigurieren Sie Loganalysen:

    1. Klicken Sie auf Upgrade.
    2. Klicken Sie im Dialogfeld auf Bestätigen.

    Fahren Sie nach Abschluss des Upgrades mit dem nächsten Schritt fort.

  4. Klicken Sie im Log-Bucket auf Mehr und dann auf Bucket bearbeiten.

    Das Dialogfeld Log-Bucket bearbeiten wird geöffnet.

  5. Wählen Sie Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist aus und geben Sie den Namen des neuen Datasets ein.

    Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie den Namen eines vorhandenen Datasets eingeben, wird die folgende Fehlermeldung angezeigt: Dataset name must be unique in the selected region.

  6. Klicken Sie auf Fertig und dann auf Bucket aktualisieren.

    Nachdem Logging den Namen des verknüpften Datasets auf der Seite Logspeicher angezeigt hat, kann es einige Minuten dauern, bis BigQuery das Dataset erkennt.

gcloud

Führen Sie den Befehl gcloud logging links create aus, um ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der für die Verwendung von Loganalysen aktualisiert wurde:

gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION

Das Feld LINK_ID muss für Ihr Google Cloud-Projekt eindeutig sein.

Der Befehl links create ist asynchron. Eine asynchrone Methode gibt ein Operation-Objekt zurück, das Informationen zum Fortschritt der Methode enthält. Nach Abschluss der Methode enthält das Operation-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

Die Ausführung des Befehls links create dauert einige Minuten.

Mit dem folgenden Befehl wird beispielsweise ein verknüpftes Dataset für den Bucket mit dem Namen my-bucket erstellt:

gcloud logging links create mylink --bucket=my-bucket --location=global

Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, ein Dataset mit demselben Namen wie ein vorhandenes Dataset zu erstellen, wird die folgende Fehlermeldung angezeigt:

BigQuery dataset with name "my-bucket" already exists.

Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, für den kein Upgrade auf Loganalysen durchgeführt wird, wird der folgende Fehler gemeldet:

A link can only be created for an analytics-enabled bucket.

API

Wenn Sie ein verknüpftes BigQuery-Dataset für einen vorhandenen Log-Bucket mit Loganalysen erstellen möchten, für den ein Upgrade durchgeführt wird, rufen Sie die asynchrone Methode projects.locations.buckets.links.create der Cloud Logging API auf.

Bereiten Sie die Argumente für die Methode so vor:

  1. Erstellen Sie den Anfragetext für den Befehl create. Der Anfragetext ist als Link-Objekt formatiert.
  2. Verwenden Sie für den Abfrageparameter des Befehls linkId=LINK_ID. Die von Ihnen angegebene LINK_ID wird als Name des Datasets verwendet. Daher hat LINK_ID denselben Wert wie das reine Ausgabe-DATASET_ID.

Die Antwort auf die asynchronen Methoden ist ein Operation-Objekt. Dieses Objekt enthält Informationen zum Fortschritt der Methode. Nach Abschluss der Methode enthält das Operation-Objekt den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

Die Methode links.create dauert einige Minuten.

Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, ein Dataset mit demselben Namen wie ein vorhandenes Dataset zu erstellen, wird die folgende Fehlermeldung angezeigt:

BigQuery dataset with name "my-bucket" already exists.

Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, für den kein Upgrade auf Loganalysen durchgeführt wird, wird der folgende Fehler gemeldet:

A link can only be created for an analytics-enabled bucket.

Bucket sperren

Wenn Sie einen Bucket für Updates sperren, sperren Sie damit auch die Aufbewahrungsrichtlinie des Buckets. Nachdem eine Aufbewahrungsrichtlinie gesperrt wurde, können Sie den Bucket erst löschen, wenn für jeden Logeintrag im Bucket die Aufbewahrungsdauer des Buckets abgelaufen ist.

Wenn Sie verhindern möchten, dass ein Log-Bucket aktualisiert oder gelöscht wird, sperren Sie den Bucket. So sperren Sie den Bucket:

Google Cloud Console

Die Google Cloud Console unterstützt das Sperren eines Log-Buckets nicht.

gcloud

Führen Sie zum Sperren des Buckets den Befehl gcloud logging buckets update mit dem Flag --locked aus:

gcloud logging buckets update BUCKET_ID --location=LOCATION --locked

Beispiel:

gcloud logging buckets update my-bucket --location=global --locked

API

Verwenden Sie projects.locations.buckets.patch in der Logging API, um die Attribute Ihres Buckets zu sperren. Legen Sie den locked-Parameter auf true fest.

Buckets auflisten

So listen Sie die Log-Buckets auf, die mit einem Google Cloud-Projekt verknüpft sind, und Details wie die Aufbewahrungseinstellungen aufrufen:

Google Cloud Console

Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:

Zum Log-Speicher

Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.

In der Tabelle Log-Buckets werden die Buckets aufgelistet, die dem aktuellen Google Cloud-Projekt zugeordnet sind.

In der Tabelle sind die folgenden Attribute für jeden Log-Bucket aufgeführt:

  • Name: Der Name des Log-Buckets.
  • Beschreibung: Die Beschreibung des Buckets.
  • Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
  • Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
  • Status: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.

Wenn ein Bucket zum Löschen durch Cloud Logging aussteht, wird sein Tabelleneintrag mit dem Warnsymbol gekennzeichnet.

gcloud

Führen Sie den Befehl gcloud logging buckets list aus:

gcloud logging buckets list

Für die Log-Buckets werden die folgenden Attribute angezeigt:

  • LOCATION ist die Region, in der die Daten des Buckets gespeichert werden.
  • BUCKET_ID: Der Name des Log-Buckets.
  • RETENTION_DAYS: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
  • LIFECYCLE_STATE: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.
  • LOCKED: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.
  • CREATE_TIME: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.
  • UPDATE_TIME: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.

Sie können auch die Attribute für nur einen Bucket aufrufen. Wenn Sie beispielsweise die Details zum Log-Bucket _Default in der Region global aufrufen möchten, führen Sie den Befehl gcloud logging buckets describe aus:

gcloud logging buckets describe _Default --location=global

API

Verwenden Sie projects.locations.buckets.list in der Logging API, um die mit einem Google Cloud-Projekt verknüpften Log-Buckets aufzulisten.

Details eines Buckets anzeigen lassen

So rufen Sie die Details eines einzelnen Log-Buckets auf:

Google Cloud Console

Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:

Zum Log-Speicher

Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.

Klicken Sie im Log-Bucket auf Mehr und wählen Sie dann Bucket-Details ansehen aus.

Das Dialogfeld enthält die folgenden Attribute für den Log-Bucket:

  • Name: Der Name des Log-Buckets.
  • Beschreibung: Die Beschreibung des Log-Buckets.
  • Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
  • Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
  • Loganalysen: Gibt an, ob Ihr Bucket für die Verwendung von Loganalysen aktualisiert wurde.
  • BigQuery-Analyse: Gibt an, ob ein BigQuery-Dataset mit dem Bucket verknüpft ist.
  • BigQuery-Dataset: Stellt einen Link zu Ihrem BigQuery-Dataset bereit, das auf der Seite BigQuery Studio geöffnet wird. Außerdem wird das Datum angezeigt, an dem die BigQuery-Verknüpfung aktiviert wurde.

gcloud

Führen Sie den Befehl gcloud logging buckets describe aus.

Der folgende Befehl meldet beispielsweise die Details des Buckets _Default:

gcloud logging buckets describe _Default --location=global

Für den Log-Bucket werden die folgenden Attribute angezeigt:

  • createTime: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.
  • description: Die Beschreibung des Log-Buckets.
  • lifecycleState: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.
  • name: Der Name des Log-Buckets.
  • retentionDays: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
  • updateTime: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.

API

Verwenden Sie projects.locations.buckets.get in der Logging API, um die Details eines einzelnen Log-Buckets aufzurufen.

Buckets löschen

So löschen Sie einen Log-Bucket:

Google Cloud Console

So löschen Sie einen Log-Bucket:

  1. Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:

    Zum Log-Speicher

    Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.

  2. Suchen Sie den Bucket, den Sie löschen möchten, und klicken Sie auf Mehr.

  3. Wenn in der Spalte Verknüpftes Dataset in BigQuery ein Link angezeigt wird, löschen Sie das verknüpfte BigQuery-Dataset:

    1. Klicken Sie auf Bucket bearbeiten.

    2. Entfernen Sie das Häkchen bei Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist, klicken Sie auf Fertig und dann auf Bucket aktualisieren.

      Wenn Sie zur Seite Logspeicher zurückgekehrt sind, klicken Sie für den zu löschenden Bucket auf das Dreipunkt-Menü und fahren Sie mit den nächsten Schritten fort.

  4. Klicken Sie auf Bucket löschen.

  5. Klicken Sie im Bestätigungsfeld auf Löschen.

  6. Auf der Seite Logspeicher wird der Hinweis angezeigt, dass der Löschvorgang des Buckets aussteht. Der Bucket mit allen darin enthaltenen Logs wird dann nach sieben Tagen gelöscht.

gcloud

Führen Sie zum Löschen eines Log-Buckets den Befehl gcloud logging buckets delete aus:

gcloud logging buckets delete BUCKET_ID --location=LOCATION

Sie können einen Log-Bucket nicht löschen, wenn mit diesem Bucket ein BigQuery-Dataset verknüpft ist:

API

Verwenden Sie zum Löschen eines Buckets projects.locations.buckets.delete in der Logging API.

Wenn Sie einen Log-Bucket löschen, der mit einem BigQuery-Dataset verknüpft ist, gilt dies als Fehler. Sie müssen das verknüpfte Dataset löschen, bevor Sie den Log-Bucket löschen:

Ein gelöschter Bucket verbleibt sieben Tage im Status "Ausstehend". In diesem Zeitraum werden die Logs von Logging an den Bucket weitergeleitet. Wenn Sie das Routing von Logs an einen gelöschten Bucket beenden möchten, können Sie die Logsenken löschen, die diesen Bucket als Ziel haben. Alternativ haben Sie die Möglichkeit, den Filter für die Senken so zu ändern, dass Logs nicht mehr an den gelöschten Bucket weitergeleitet werden.

Sie können keinen neuen Log-Bucket erstellen, der denselben Namen wie ein gelöschter Bucket mit dem Status „Ausstehend“ hat.

Gelöschten Bucket wiederherstellen

Sie können einen Log-Bucket mit dem Status "Ausstehend" wiederherstellen oder den Löschvorgang aufheben. So stellen Sie einen Log-Bucket wieder her:

Google Cloud Console

So stellen Sie einen Log-Bucket wieder her, der zum Löschen vorgemerkt ist:

  1. Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:

    Zum Log-Speicher

    Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.

  2. Klicken Sie für den Bucket, den Sie wiederherstellen möchten, auf Mehr und wählen Sie dann Gelöschten Bucket wiederherstellen aus.

  3. Klicken Sie im Bestätigungsfeld auf Wiederherstellen.

  4. Auf der Seite Logspeicher wird die Anzeige für den ausstehenden Löschvorgang aus dem Log-Bucket entfernt.

gcloud

Führen Sie den Befehl gcloud logging buckets undelete aus, um einen Log-Bucket wiederherzustellen, der zum Löschen vorgemerkt ist:

gcloud logging buckets undelete BUCKET_ID --location=LOCATION

API

Verwenden Sie projects.locations.buckets.undelete in der Logging API, um einen Bucket wiederherzustellen, der zum Löschen vorgemerkt ist.

Benachrichtigung zu monatlichen Logbyte, die in Log-Buckets gespeichert sind

Klicken Sie zum Erstellen einer Benachrichtigungsrichtlinie auf der Seite Logspeicher in der Google Cloud Console auf Nutzungsbenachrichtigung erstellen. Mit dieser Schaltfläche wird in Monitoring die Seite Benachrichtigungsrichtlinie erstellen geöffnet. In das Feld für den Messwerttyp wird logging.googleapis.com/billing/bytes_ingested eingetragen.

Verwenden Sie die folgenden Einstellungen, um eine Benachrichtigungsrichtlinie zu erstellen, sodass Sie benachrichtigt werden, wenn die Anzahl der in Ihre Log-Buckets geschriebenen Logbyte Ihr benutzerdefiniertes Limit für Cloud Logging überschreitet.

Neue Bedingung
Feld

Wert
Ressource und Messwert Wählen Sie im Menü Ressourcen die Option Global aus.
Wählen Sie im Menü Messwertkategorien die Option Logbasierter Messwert aus.
Wählen Sie im Menü Messwerte die Option Monthly log bytes amount (Aufgenommene Log-Daten pro Monat) aus.
Filter
Über Zeitreihen hinweg
Zeitreihenaggregation
sum
Rollierendes Zeitfenster 60 m
Funktion für rollierendes Zeitfenster max
Benachrichtigungstrigger konfigurieren
Feld

Wert
Bedingungstyp Threshold
Benachrichtigungstrigger Any time series violates
Grenzwertposition Above threshold
Grenzwert Sie legen den akzeptablen Wert fest.
Zeitfenster noch einmal testen Der kleinste akzeptable Wert liegt bei 30 Minuten.

Weitere Informationen zu Benachrichtigungsrichtlinien finden Sie unter Benachrichtigungen.

In einen Bucket schreiben

Sie schreiben Logs nicht direkt in einen Log-Bucket. Stattdessen schreiben Sie Logs in eine Google Cloud-Ressource: ein Google Cloud-Projekt, einen Ordner oder eine Organisation. Die Senken in der übergeordneten Ressource leiten dann die Logs an Ziele weiter, einschließlich Log-Buckets. Eine Senke leitet Logs an ein Log-Bucket-Ziel weiter, wenn die Logs mit dem Filter der Senke übereinstimmen und die Senke berechtigt ist, die Logs an den Log-Bucket weiterzuleiten.

Aus einem Bucket lesen

Jeder Log-Bucket verfügt über eine Reihe von Logansichten. Zum Lesen von Logs aus einem Log-Bucket benötigen Sie Zugriff auf eine Logansicht des Log-Buckets. Mit Logansichten können Sie einem Nutzer nur Zugriff auf einen Teil der Logs gewähren, die in einem Log-Bucket gespeichert sind. Informationen zum Konfigurieren von Logansichten und zum Gewähren des Zugriffs auf bestimmte Logansichten finden Sie unter Logansichten für einen Log-Bucket konfigurieren.

So lesen Sie Logs aus einem Log-Bucket:

Google Cloud Console

  1. Rufen Sie in der Google Cloud Console die Seite Log-Explorer auf.

    Zum Log-Explorer

    Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.

  2. Wenn Sie anpassen möchten, welche Logs im Log-Explorer angezeigt werden, klicken Sie auf Bereich eingrenzen und wählen Sie eine Option aus:

    • Wenn Sie alle Logs ansehen möchten, die im aktuellen Projekt generiert oder direkt an dieses weitergeleitet werden, wählen Sie Bereich nach aktuellem Projekt aus.

    • Wenn Sie bestimmte Logs ansehen möchten, die im aktuellen Projekt in Log-Buckets gespeichert sind, wählen Sie Bereich nach Speicher und dann eine oder mehrere Logansichten aus.

    • Wenn Sie bestimmte Logs ansehen möchten, die in Log-Buckets gespeichert sind, die sich in verschiedenen Projekten befinden, wählen Sie „Bereich nach Speicher“ aus, klicken Sie in der Auswahl für die Projekt- und Logansicht auf Projekt importieren und wählen Sie dann eine oder mehrere Logansichten aus.

  3. Klicken Sie auf Anwenden. Der Bereich Abfrageergebnisse wird mit Logs aktualisiert, die der ausgewählten Option entsprechen.

Weitere Informationen zum Anpassen der Logs, die im Log-Explorer angezeigt werden, finden Sie unter Übersicht über den Log-Explorer: Bereich eingrenzen.

gcloud

Wenn Sie Logs aus einem Log-Bucket lesen möchten, verwenden Sie den Befehl gcloud logging read und fügen einen LOG_FILTER hinzu, um Daten auszuwählen:

gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID

API

Verwenden Sie zum Lesen von Logs aus einem Log-Bucket die Methode entries.list. Legen Sie resourceNames fest, um die entsprechende Bucket- und Logansicht anzugeben, und filter, um Daten auszuwählen.

Ausführliche Informationen zur Filtersyntax finden Sie unter Logging-Abfragesprache.

Benutzerdefinierte Aufbewahrung konfigurieren

Wenn Sie einen Log-Bucket erstellen, können Sie den Zeitraum anpassen, für den Cloud Logging die Logs des Buckets speichert. Sie können die Aufbewahrungsdauer für jeden benutzerdefinierten Log-Bucket und auch für den Log-Bucket _Default konfigurieren.

Wenn Sie die Aufbewahrung des Buckets verkürzen, gilt ein Kulanzzeitraum von 7 Tagen, in dem abgelaufene Logs nicht gelöscht werden. Sie können diese abgelaufenen Logs weder abfragen noch aufrufen. In diesen sieben Tagen haben Sie jedoch die Möglichkeit, den vollen Zugriff wiederherzustellen, indem Sie die Aufbewahrung des Buckets verlängern. Logs, die während des Kulanzzeitraums gespeichert werden, werden auf Ihre Aufbewahrungskosten angerechnet.

So aktualisieren Sie die Aufbewahrungsdauer für einen Log-Bucket:

Google Cloud Console

So aktualisieren Sie die Aufbewahrungsdauer eines Log-Buckets:

  1. Rufen Sie in der Google Cloud Console die Seite Logspeicher auf:

    Zum Log-Speicher

    Wenn Sie diese Seite über die Suchleiste suchen, wählen Sie das Ergebnis aus, dessen Zwischenüberschrift Monitoring ist.

  2. Klicken Sie für den Bucket, den Sie aktualisieren möchten, auf Mehr und wählen Sie dann Bucket bearbeiten aus.

  3. Geben Sie im Feld Aufbewahrung die Anzahl der Tage zwischen 1 und 3650 Tagen ein, in denen Cloud Logging die Logs speichern soll.

  4. Klicken Sie auf Bucket aktualisieren. Die neue Aufbewahrungsdauer wird in der Liste Log-Bucket angezeigt.

gcloud

Führen Sie zum Aktualisieren der Aufbewahrungsdauer für einen Log-Bucket den Befehl gcloud logging buckets update aus, nachdem Sie einen Wert für RETENTION_DAYS festgelegt haben:

gcloud logging buckets update BUCKET_ID  --location=LOCATION --retention-days=RETENTION_DAYS

Wenn Sie beispielsweise die Logs im Bucket _Default am Standort global ein Jahr lang aufbewahren möchten, würde Ihr Befehl so aussehen:

gcloud logging buckets update _Default --location=global --retention-days=365

Wenn Sie die Aufbewahrungsdauer eines Buckets verlängern, gelten die Aufbewahrungsregeln in Zukunft und nicht rückwirkend. Logs können nach Ablauf der Aufbewahrungsdauer nicht wiederhergestellt werden.

Asynchrone API-Methoden

Die Antwort einer asynchronen Methode wie projects.locations.buckets.createAsync ist ein Operation-Objekt.

Anwendungen, die eine asynchrone API-Methode aufrufen, sollten den Endpunkt operation.get abfragen, bis der Wert des Felds Operation.done true ist:

  • Wenn done den Wert false hat, wird der Vorgang noch ausgeführt.

    Senden Sie eine GET-Anfrage an den Endpunkt operation.get, um die Statusinformationen zu aktualisieren.

  • Wenn done den Wert true hat, ist der Vorgang abgeschlossen und entweder das Feld error oder response ist festgelegt:

    • error: Wenn dies festgelegt ist, ist der asynchrone Vorgang fehlgeschlagen. Der Wert dieses Feldes ist ein Status-Objekt, das einen gRPC-Fehlercode und eine Fehlermeldung enthält.
    • response: Wenn dies festgelegt ist, wurde der asynchrone Vorgang erfolgreich abgeschlossen und der Wert spiegelt das Ergebnis wider.

Führen Sie den folgenden Befehl aus, um einen asynchronen Befehl mithilfe der Google Cloud CLI abzufragen:

gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID

Weitere Informationen zu gcloud logging operations describe.

Häufige Probleme beheben

Wenn bei der Verwendung von Log-Buckets Probleme auftreten, lesen Sie folgende Schritte zur Fehlerbehebung und Antworten auf häufig gestellte Fragen.

Warum kann ich diesen Bucket nicht löschen?

Wenn Sie versuchen, einen Bucket zu löschen, gehen Sie so vor:

  • Prüfen Sie, ob Sie die erforderlichen Berechtigungen zum Löschen des Buckets haben. Eine Liste der erforderlichen Berechtigungen finden Sie unter Zugriffssteuerung mit IAM.

  • Bestimmen Sie, ob der Bucket gesperrt ist. Listen Sie dazu die Attribute des Buckets auf. Wenn der Bucket gesperrt ist, prüfen Sie die Aufbewahrungsdauer. Sie können gesperrte Buckets erst löschen, wenn alle Logs im Bucket die Aufbewahrungsdauer des Buckets erreicht haben.

  • Vergewissern Sie sich, dass der Log-Bucket kein verknüpftes BigQuery-Dataset hat. Sie können einen Log-Bucket mit einem verknüpften Dataset nicht löschen.

    Der folgende Fehler wird als Antwort auf einen delete-Befehl für einen Log-Bucket mit einem verknüpften Dataset angezeigt:

    FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
    

    Führen Sie den Befehl gcloud logging links list oder die API-Methode projects.locations.buckets.links.list aus, um die Links aufzulisten, die einem Log-Bucket zugeordnet sind.

Welche Dienstkonten leiten Logs an meinen Bucket weiter?

So ermitteln Sie, ob Dienstkonten IAM-Berechtigungen zum Weiterleiten von Logs an Ihren Bucket haben:

  1. Öffnen Sie in der Google Cloud Console die Seite IAM:

    Zu IAM

    Wenn Sie diese Seite über die Suchleiste finden, wählen Sie das Ergebnis mit der Zwischenüberschrift IAM und Verwaltung aus.

  2. Wählen Sie aus dem Tab Berechtigungen die Ansicht nach Rollen. Sie sehen eine Tabelle mit allen IAM-Rollen und Hauptkonten, die mit Ihrem Google Cloud-Projekt verknüpft sind.

  3. Geben Sie in das Textfeld Filter der Tabelle Log-Bucket-Autor ein.

    Sie sehen alle Hauptkonten mit der Rolle Log-Bucket-Autor. Wenn ein Hauptkonto ein Dienstkonto ist, enthält dessen ID den String gserviceaccount.com.

  4. Optional: Wenn Sie verhindern möchten, dass ein Dienstkonto Logs an Ihr Google Cloud-Projekt weiterleiten kann, klicken Sie das Kästchen für das Dienstkonto an und klicken Sie auf Entfernen.

Warum sehe ich Logs für ein Google Cloud-Projekt, obwohl ich sie aus meiner _Default-Senke ausgeschlossen habe?

Sie sehen sich möglicherweise Logs in einem Log-Bucket in einem zentralisierten Google Cloud-Projekt an, in dem Logs aus Ihrer gesamten Organisation zusammengefasst werden.

Wenn Sie mit dem Log-Explorer auf diese Logs zugreifen und Logs aufrufen, die Sie aus der Senke _Default ausgeschlossen haben, ist Ihre Ansicht möglicherweise auf die Google Cloud-Projektebene beschränkt.

Wählen Sie zum Beheben dieses Problems im Bereich Bereich eingrenzen die Option Bereich nach Speicher und dann den Bucket _Default in Ihrem Google Cloud-Projekt aus. Die ausgeschlossenen Logs sollten nun nicht mehr angezeigt werden.

Nächste Schritte

Informationen zu den Methoden der Logs Bucket API finden Sie in der LogBucket-Referenzdokumentation.

Informationen zur Bewältigung gängiger Anwendungsfälle mit Log-Buckets finden Sie in den folgenden Themen: