Log-Buckets konfigurieren

In diesem Dokument wird beschrieben, wie Sie Cloud Logging-Buckets mit der Google Cloud Console, der Google Cloud CLI und der Logging API erstellen und verwalten. Außerdem finden Sie darin Anleitungen zum Erstellen und Verwalten von Log-Buckets auf Google Cloud-Projektebene. Sie können keine Log-Buckets auf Ordner- oder Organisationsebene erstellen. Cloud Logging erstellt jedoch automatisch _Default- und _Required-Buckets auf Ordner- und Organisationsebene.

Sie können Log-Buckets für die Verwendung von Loganalysen aktualisieren. Mit Log Analytics können Sie SQL-Abfragen für Ihre Logdaten ausführen und so Anwendungs-, Sicherheits- und Netzwerkprobleme beheben. Sie können BigQuery auch verwenden, um die in einem Log-Bucket gespeicherten Daten anzusehen, wenn der Log-Bucket auf die Verwendung von Log Analytics aktualisiert wird und wenn ein verknüpftes BigQuery-Dataset vorhanden ist. Wenn Sie ein verknüpftes Dataset erstellen, können Sie Ihre Logdaten mit anderen in BigQuery gespeicherten Daten zusammenführen und auf Daten aus anderen Tools wie Looker Studio und Looker zugreifen.

Eine konzeptionelle Übersicht über Buckets finden Sie unter Routing und Speicherübersicht: Log-Buckets.

Hinweise

Gehen Sie für einen Einstieg in Buckets folgendermaßen vor:

  • Die Abrechnung für das Google Cloud-Projekt muss aktiviert sein.

  • Achten Sie darauf, dass Ihre IAM-Rolle (Identity and Access Management) die Berechtigungen zum Erstellen, Upgrade und Verknüpfen von Buckets gewährt.

    Die Rolle „Autor von Logkonfigurationen“ (roles/logging.configWriter) ist die minimale vordefinierte Rolle, die die zum Verwalten von Buckets erforderlichen Berechtigungen gewährt. Eine vollständige Liste der Berechtigungen und Rollen finden Sie unter Zugriffssteuerung mit IAM.

  • Informieren Sie sich über die Formatierungsanforderungen für LogBucket, einschließlich der unterstützten Regionen, in denen Sie Ihre Logs speichern können.

  • Legen Sie gegebenenfalls einen Standardspeicherort für Ressourcen fest, um eine Standardspeicherregion für die Buckets _Required und _Default in Ihrer Organisation anzuwenden.

  • So verwenden Sie BigQuery, um die in einem Log-Bucket gespeicherten Daten anzusehen:

  • Informationen zum Erstellen eines Log-Buckets, der einen vom Kunden verwalteten Verschlüsselungsschlüssel (CMEK) verwendet, finden Sie unter CMEK für den Logspeicher konfigurieren.

Bucket erstellen

Sie können maximal 100 Buckets pro Google Cloud-Projekt erstellen.

So erstellen Sie einen benutzerdefinierten Log-Bucket für Ihr Google Cloud-Projekt:

Google Cloud Console

So erstellen Sie einen Log-Bucket in Ihrem Google Cloud-Projekt:

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:

    Zum Log-Speicher

  2. Klicken Sie auf Log-Bucket erstellen.

  3. Geben Sie unter Name einen Namen und unter Beschreibung eine Beschreibung für den Bucket ein.

  4. Optional: Führen Sie ein Upgrade Ihres Buckets durch, um Log Analytics zu verwenden.

    1. Wählen Sie Upgrade zur Verwendung von Loganalysen aus.

      Wenn Sie einen Bucket auf die Verwendung von Log Analytics aktualisieren, können Sie Ihre Logs auf der Seite Loganalysen mithilfe von SQL-Abfragen abfragen. Sie können Ihre Logs auch weiterhin mit dem Log-Explorer ansehen.

      Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.

    2. Optional: Wählen Sie zum Ansehen der Logs in BigQuery die Option Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist aus und geben Sie einen eindeutigen Dataset-Namen ein.

      Wenn Sie diese Option auswählen, kann BigQuery die in Ihrem Log-Bucket gespeicherten Daten lesen. Sie haben jetzt die Möglichkeit, Abfragen auf der BigQuery-Benutzeroberfläche auszuführen. Dort können Sie Ihre Logdaten zusammenführen und auch auf Daten aus anderen Tools wie Looker Studio und Looker zugreifen.

  5. Optional: Um die Speicherregion für Ihre Logs auszuwählen, klicken Sie auf das Menü Log-Bucket-Region auswählen und wählen Sie eine Region aus. Wenn Sie keine Region auswählen, wird die Region global verwendet. Das bedeutet, dass sich die Logs in einer beliebigen Region befinden können.

  6. Optional: Klicken Sie auf Weiter, um eine benutzerdefinierte Aufbewahrungsdauer für die Logs im Bucket festzulegen.

    Geben Sie im Feld Aufbewahrungsdauer die Anzahl der Tage zwischen 1 und 3.650 Tagen ein, für die Cloud Logging Ihre Logs aufbewahren soll. Wenn Sie die Aufbewahrungsdauer nicht anpassen, wird der Standardwert 30 days verwendet.

    Sie können den Bucket auch aktualisieren, um nach dem Erstellen eine benutzerdefinierte Aufbewahrung anzuwenden.

  7. Klicken Sie auf Bucket erstellen.

    Nachdem der Log-Bucket erstellt wurde, aktualisiert Logging den Bucket und erstellt die Dataset-Verknüpfung, wenn diese Optionen ausgewählt wurden.

    Es kann einen Moment dauern, bis diese Schritte abgeschlossen sind.

gcloud

Wenn Sie nur einen Log-Bucket erstellen möchten, führen Sie den Befehl gcloud logging buckets create aus. Wenn Sie den Log-Bucket für die Verwendung von Loganalysen aktualisieren möchten, fügen Sie die Flags --enable-analytics und --async hinzu und legen Sie die Variable LOCATION auf eine Region fest, die für Loganalysen unterstützt wird:

gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS

Das Flag --async erzwingt einen asynchronen Befehl. Die Rückgabe einer asynchronen Methode wird über ein Operation-Objekt zurückgegeben. Es enthält Informationen über den Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

Wenn Sie den Log-Bucket nicht auf die Verwendung von Loganalysen upgraden möchten, lassen Sie die Flags --enable-analytics und --async weg. Sie können die Variable LOCATION auf eine beliebige unterstützte Region festlegen.

Wenn Sie zum Beispiel einen Bucket mit der BUCKET_ID my-bucket in der Region asia-east2 erstellen möchten, würde Ihr Befehl so aussehen:

gcloud logging buckets create my-bucket --location asia-east2 --description "My first bucket"

Beispiel: Um einen Bucket mit dem BUCKET_ID my-upgraded-bucket am Standort us zu erstellen und dann den Log-Bucket auf die Verwendung von Log Analytics zu aktualisieren, sieht der Befehl so aus:

gcloud logging buckets create my-upgraded-bucket --location us \
      --description "My first upgraded bucket" \
      --enable-analytics --retention-days=45

API

Verwenden Sie zum Erstellen eines Buckets die Methode projects.locations.buckets.create oder projects.locations.buckets.createAsync. Bereiten Sie die Argumente für die Methode so vor:

  1. Legen Sie den Parameter parent auf die Ressource fest, in der der Bucket erstellt werden soll: projects/PROJECT_ID/locations/LOCATION

    Die Variable LOCATION bezieht sich auf die Region, in der Ihre Logs gespeichert werden sollen. Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.

    Wenn Sie beispielsweise einen Bucket für das Projekt my-project in der Region asia-east2 erstellen möchten, sieht der Parameter parent so aus: projects/my-project/locations/asia-east2

  2. Legen Sie den Parameter bucketId fest, z. B. my-bucket.

  3. Führen Sie einen der folgenden Schritte aus:

    • So erstellen Sie einen Log-Bucket und führen dann ein Upgrade des Log-Buckets auf die Verwendung von Log Analytics durch:

      1. Legen Sie den booleschen Wert LogBucket.analyticsEnabled auf true fest.

      2. Rufen Sie die asynchrone Methode projects.locations.buckets.createAsync auf, um den Bucket zu erstellen.

        Die Antwort auf die asynchronen Methoden ist ein Operation-Objekt. Dieses Objekt enthält Informationen über den Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

        Die createAsync-Methode dauert einige Minuten. Diese Methode generiert keine Fehlermeldung und schlägt fehl, wenn der boolesche Wert analyticsEnabled auf true gesetzt ist und die Region für upgegradete Buckets nicht unterstützt wird. Wenn Sie beispielsweise den Standort auf asia-east2 festlegen, wird der Log-Bucket erstellt, aber nicht auf die Verwendung von Loganalysen aktualisiert.

    • Andernfalls rufen Sie die synchrone Methode projects.locations.buckets.create auf, um den Bucket zu erstellen.

Nachdem Sie einen Bucket erstellt haben, erstellen Sie eine Senke, um Logeinträge an den Bucket weiterzuleiten, und konfigurieren Sie Logansichten, um zu steuern, wer auf die Logs im neuen Bucket zugreifen kann und welche Logs für sie zugänglich sind. Sie können den Bucket auch aktualisieren, um die benutzerdefinierte Aufbewahrung und eingeschränkte Felder zu konfigurieren.

Volumen der in Log-Buckets gespeicherten Logs verfolgen

Auf der Seite Logspeicher in der Google Cloud Console wird die Menge der in Log-Buckets gespeicherten Logdaten erfasst:

Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:

Zum Log-Speicher

Auf der Seite Logspeicher wird eine Zusammenfassung der Statistiken für Ihr Google Cloud-Projekt angezeigt:

Die zusammenfassenden Statistiken enthalten die Menge der Logdaten, die in Log-Buckets für das ausgewählte Projekt gespeichert sind.

Die folgenden Statistiken werden gemeldet:

  • Aufnahme im aktuellen Monat: Die Menge der Logdaten, die Ihr Google Cloud-Projekt seit dem ersten Tag des aktuellen Kalendermonats in Log-Buckets gespeichert hat.

  • Aufnahme im Vormonat: Die Menge der Logdaten, die von Ihrem Google Cloud-Projekt im letzten Kalendermonat in Log-Buckets gespeichert wurden.

  • Prognostizierte Aufnahme bis Ende des Monats: Die geschätzte Menge an Logdaten, die Ihr Google Cloud-Projekt bis zum Ende des aktuellen Kalendermonats basierend auf der aktuellen Nutzung in Log-Buckets speichert.

  • Abrechenbarer Speicherplatz im aktuellen Monat: Die in Rechnung gestellte Menge der Logdaten, die mehr als 30 Tage lang aufbewahrt wurden.

Die vorherigen Statistiken enthalten keine Logs im _Required-Bucket. Die Logs in diesem Bucket können nicht ausgeschlossen oder deaktiviert werden.

Auf der Seite Log Router in der Google Cloud Console finden Sie Tools, mit denen Sie die Kosten für das Speichern von Logs in Log-Buckets oder für Speicher, der Ihr monatliches Kontingent überschreitet, minimieren können. In diesem Fall können Sie folgende Aktionen ausführen:

  • Speichern von Logs auf Bucket-Ebene deaktivieren.
  • Schließen Sie bestimmte Logeinträge vom Speichern in Log-Buckets aus.

Weitere Informationen finden Sie unter Senken verwalten.

Buckets verwalten

In diesem Abschnitt wird beschrieben, wie Sie Log-Buckets mit der Google Cloud CLI oder der Google Cloud Console verwalten.

Bucket aktualisieren

So aktualisieren Sie die Eigenschaften Ihres Buckets, z. B. die Beschreibung oder die Aufbewahrungsdauer:

Google Cloud Console

So aktualisieren Sie die Eigenschaften Ihres Buckets:

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:

    Zum Log-Speicher

  2. Klicken Sie für den Bucket, den Sie aktualisieren möchten, auf Mehr.

  3. Klicken Sie auf Bucket bearbeiten.

  4. Bearbeiten Sie den Bucket nach Bedarf.

  5. Klicken Sie auf Bucket aktualisieren.

gcloud

Führen Sie den Befehl gcloud logging buckets update aus, um die Attribute des Buckets zu aktualisieren:

gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES

Beispiel:

gcloud logging buckets update my-bucket --location=global --description "Updated description"

API

Verwenden Sie zum Aktualisieren der Bucket-Attribute projects.locations.buckets.patch in der Logging API.

Bucket zur Verwendung von Log Analytics upgraden

Wenn Sie einen vorhandenen Bucket auf die Verwendung von Log Analytics upgraden möchten, gelten die folgenden Einschränkungen:

  • Der Log-Bucket wurde auf Google Cloud-Projektebene erstellt.
  • Der Log-Bucket ist entsperrt, es sei denn, es ist der _Required-Bucket.
  • Für den Bucket gibt es keine ausstehenden Aktualisierungen.
  • Nicht alle Regionen werden für Loganalysen unterstützt. Weitere Informationen finden Sie unter Unterstützte Regionen.

Google Cloud Console

So aktualisieren Sie einen vorhandenen Bucket für die Verwendung von Log Analytics:

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:

    Zum Log-Speicher

  2. Suchen Sie den Bucket, für den Sie ein Upgrade durchführen möchten.

  3. Wenn in der Spalte Log Analytics verfügbar die Meldung Upgrade angezeigt wird, können Sie den Log-Bucket aktualisieren, um Log Analytics zu verwenden. Klicke auf Upgrade.

    Ein Dialogfeld wird geöffnet. Klicken Sie auf Bestätigen.

gcloud

Führen Sie den Befehl gcloud logging buckets update aus, um den Log-Bucket für die Verwendung von Log Analytics zu aktualisieren. Sie müssen das Flag --enable-analytics festlegen und auch das Flag --async hinzufügen:

gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async

Das Flag --async erzwingt einen asynchronen Befehl. Die Rückgabe einer asynchronen Methode erfolgt durch ein Operation-Objekt, das Informationen über den Fortschritt der Methode enthält. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

API

Verwenden Sie die Methode projects.locations.buckets.updateAsync der Cloud Logging API, um einen Log-Bucket auf die Verwendung von Log Analytics zu aktualisieren.

Bereiten Sie die Argumente für die Methode so vor:

  1. Legen Sie den booleschen Wert LogBucket.analyticsEnabled auf true fest.
  2. Verwenden Sie updateMask=analyticsEnabled als Abfrageparameter des Befehls.

Die Antwort auf die asynchronen Methoden ist ein Operation-Objekt. Dieses Objekt enthält Informationen über den Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

Der Vorgang updateAsync kann einige Minuten dauern.

Wenn Sie die Funktionen von BigQuery zum Analysieren Ihrer Logdaten nutzen möchten, führen Sie ein Upgrade eines Log-Buckets zur Verwendung von Log Analytics durch und erstellen Sie dann ein verknüpftes Dataset. Mit dieser Konfiguration können Sie BigQuery verwenden, um die im Log-Bucket gespeicherten Logs zu lesen.

Google Cloud Console

So erstellen Sie eine Verknüpfung zu einem BigQuery-Dataset für einen vorhandenen Log-Bucket:

  1. Lesen Sie den Abschnitt Vorbereitung in diesem Dokument.

  2. Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:

    Zum Log-Speicher

  3. Suchen Sie den Log-Bucket und prüfen Sie, ob in der Spalte Loganalysen verfügbar Offen angezeigt wird.

    Wenn in dieser Spalte Upgrade angezeigt wird, wurde der Log-Bucket nicht auf die Verwendung von Loganalysen aktualisiert. Loganalysen konfigurieren:

    1. Klicken Sie auf Upgrade.
    2. Klicken Sie im Dialogfeld auf Bestätigen.

    Fahren Sie nach Abschluss des Upgrades mit dem nächsten Schritt fort.

  4. Klicken Sie im Log-Bucket auf Mehr und dann auf Bucket bearbeiten.

    Das Dialogfeld Log-Bucket bearbeiten wird geöffnet.

  5. Wählen Sie Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist aus und geben Sie den Namen des neuen Datasets ein.

    Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie den Namen eines vorhandenen Datasets eingeben, wird die folgende Fehlermeldung angezeigt: Dataset name must be unique in the selected region.

  6. Klicken Sie auf Fertig und dann auf Bucket aktualisieren.

    Nachdem Logging den Namen des verknüpften Datasets auf der Seite Logspeicher angezeigt hat, kann es einige Minuten dauern, bis BigQuery das Dataset erkennt.

gcloud

Führen Sie den Befehl gcloud logging links create aus, um ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der für die Verwendung von Log Analytics aktualisiert wurde:

gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION

Das Feld LINK_ID darf für Ihr Google Cloud-Projekt nur einmal vorkommen.

Der Befehl links create ist asynchron. Die Rückgabe einer asynchronen Methode ist ein Operation-Objekt, das Informationen über den Fortschritt der Methode enthält. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

Die Ausführung des Befehls links create dauert einige Minuten.

Mit dem folgenden Befehl wird beispielsweise ein verknüpftes Dataset für den Bucket mit dem Namen my-bucket erstellt:

gcloud logging links create mylink --bucket=my-bucket --location=global

Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, ein Dataset mit demselben Namen wie ein vorhandenes Dataset zu erstellen, wird die folgende Fehlermeldung angezeigt:

BigQuery dataset with name "my-bucket" already exists.

Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der nicht für die Verwendung von Loganalysen aktualisiert wurde, wird der folgende Fehler gemeldet:

A link can only be created for an analytics-enabled bucket.

API

Rufen Sie die asynchrone projects.locations.buckets.links.create-Methode der Cloud Logging API auf, um ein verknüpftes BigQuery-Dataset für einen vorhandenen Log-Bucket zu erstellen, der mithilfe von Log Analytics aktualisiert wird.

Bereiten Sie die Argumente für die Methode so vor:

  1. Erstellen Sie den Anfragetext für den Befehl create. Der Anfragetext ist als Link-Objekt formatiert.
  2. Verwenden Sie linkId=LINK_ID als Abfrageparameter des Befehls. Der von Ihnen angegebene LINK_ID wird als Name des Datasets verwendet. Daher hat LINK_ID denselben Wert wie die reine Ausgabe-DATASET_ID.

Die Antwort auf die asynchronen Methoden ist ein Operation-Objekt. Dieses Objekt enthält Informationen über den Fortschritt der Methode. Wenn die Methode abgeschlossen ist, enthält das Objekt Operation den Status. Weitere Informationen finden Sie unter Asynchrone API-Methoden.

Die links.create-Methode dauert einige Minuten.

Der Dataset-Name muss für jedes Google Cloud-Projekt eindeutig sein. Wenn Sie versuchen, ein Dataset mit demselben Namen wie ein vorhandenes Dataset zu erstellen, wird die folgende Fehlermeldung angezeigt:

BigQuery dataset with name "my-bucket" already exists.

Wenn Sie versuchen, ein verknüpftes Dataset für einen Log-Bucket zu erstellen, der nicht für die Verwendung von Loganalysen aktualisiert wurde, wird der folgende Fehler gemeldet:

A link can only be created for an analytics-enabled bucket.

Bucket sperren

Wenn Sie einen Bucket für Aktualisierungen sperren, sperren Sie auch die Aufbewahrungsrichtlinie des Buckets. Nachdem eine Aufbewahrungsrichtlinie gesperrt ist, können Sie den Bucket erst löschen, wenn jeder Logeintrag im Bucket die Aufbewahrungsdauer für den Bucket erreicht hat.

Wenn Sie verhindern möchten, dass ein Log-Bucket aktualisiert oder gelöscht wird, sperren Sie den Bucket. So sperren Sie den Bucket:

Google Cloud Console

Das Sperren eines Log-Buckets wird in der Google Cloud Console nicht unterstützt.

gcloud

Führen Sie zum Sperren Ihres Buckets den Befehl gcloud logging buckets update mit dem Flag --locked aus:

gcloud logging buckets update BUCKET_ID --location=LOCATION --locked

Beispiel:

gcloud logging buckets update my-bucket --location=global --locked

API

Verwenden Sie zum Sperren der Attribute des Buckets projects.locations.buckets.patch in der Logging API. Legen Sie den Parameter locked auf true fest.

Buckets auflisten

So listen Sie die mit einem Google Cloud-Projekt verknüpften Log-Buckets auf und sehen Details wie Aufbewahrungseinstellungen:

Google Cloud Console

Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:

Zum Log-Speicher

In der Tabelle Log-Buckets werden die Buckets aufgelistet, die dem aktuellen Google Cloud-Projekt zugeordnet sind.

In der Tabelle sind die folgenden Attribute für jeden Log-Bucket aufgeführt:

  • Name: Der Name des Log-Buckets.
  • Beschreibung: Die Beschreibung des Buckets.
  • Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
  • Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
  • Status: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.

Wenn für einen Bucket das Löschen durch Cloud Logging ansteht, wird der Tabelleneintrag mit dem Warnsymbol gekennzeichnet.

gcloud

Führen Sie den Befehl gcloud logging buckets list aus:

gcloud logging buckets list

Für die Log-Buckets werden die folgenden Attribute angezeigt:

  • LOCATION ist die Region, in der die Daten des Buckets gespeichert werden.
  • BUCKET_ID: Der Name des Log-Buckets.
  • RETENTION_DAYS: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
  • LIFECYCLE_STATE: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.
  • LOCKED: Gibt an, ob der Bucket gesperrt oder nicht gesperrt ist.
  • CREATE_TIME: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.
  • UPDATE_TIME: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.

Sie können auch die Attribute für nur einen Bucket aufrufen. Wenn Sie beispielsweise die Details zum Log-Bucket _Default in der Region global aufrufen möchten, führen Sie den Befehl gcloud logging buckets describe aus:

gcloud logging buckets describe _Default --location=global

API

Verwenden Sie projects.locations.buckets.list in der Logging API, um die mit einem Google Cloud-Projekt verknüpften Log-Buckets aufzulisten.

Details eines Buckets anzeigen lassen

So rufen Sie die Details eines einzelnen Log-Buckets auf:

Google Cloud Console

Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:

Zum Log-Speicher

Klicken Sie im Log-Bucket auf Mehr und wählen Sie dann Bucket-Details anzeigen aus.

Im Dialogfeld werden die folgenden Attribute für den Log-Bucket aufgeführt:

  • Name: Der Name des Log-Buckets.
  • Beschreibung: Die Beschreibung des Log-Buckets.
  • Aufbewahrungsdauer: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
  • Region: Der geografische Ort, an dem die Daten des Buckets gespeichert sind.
  • Loganalysen: Gibt an, ob Ihr Bucket für die Verwendung von Loganalysen aktualisiert wurde.
  • BigQuery-Analyse: Gibt an, ob ein BigQuery-Dataset mit dem Bucket verknüpft ist.
  • BigQuery-Dataset: Gibt einen Link zu Ihrem BigQuery-Dataset an, das auf der Seite BigQuery Studio geöffnet wird. Außerdem wird das Datum angezeigt, an dem die BigQuery-Verknüpfung aktiviert wurde.

gcloud

Führen Sie den Befehl gcloud logging buckets describe aus.

Mit dem folgenden Befehl werden beispielsweise die Details des Buckets _Default zurückgegeben:

gcloud logging buckets describe _Default --location=global

Für den Log-Bucket werden die folgenden Attribute angezeigt:

  • createTime: Ein Zeitstempel, der angibt, wann der Bucket erstellt wurde.
  • description: Die Beschreibung des Log-Buckets.
  • lifecycleState: Gibt an, ob der Bucket von Cloud Logging gelöscht werden soll.
  • name: Der Name des Log-Buckets.
  • retentionDays: Wie viel Tage lang die Daten des Buckets von Cloud Logging gespeichert werden.
  • updateTime: Ein Zeitstempel, der angibt, wann der Bucket zuletzt geändert wurde.

API

Verwenden Sie zum Aufrufen der Details eines einzelnen Log-Buckets projects.locations.buckets.get in der Logging API.

Buckets löschen

So löschen Sie einen Log-Bucket:

Google Cloud Console

So löschen Sie einen Log-Bucket:

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:

    Zum Log-Speicher

  2. Suchen Sie den Bucket, den Sie löschen möchten, und klicken Sie auf Mehr.

  3. Wenn in der Spalte Verknüpftes Dataset in BigQuery eine Verknüpfung angezeigt wird, löschen Sie das verknüpfte BigQuery-Dataset:

    1. Klicken Sie auf Bucket bearbeiten.

    2. Deaktivieren Sie die Option Neues BigQuery-Dataset erstellen, das mit diesem Bucket verknüpft ist. Klicken Sie dann auf Fertig und dann auf Bucket aktualisieren.

      Nachdem Sie zur Seite Logspeicher zurückgekehrt sind, klicken Sie für den Bucket, den Sie löschen möchten, auf Mehr und fahren Sie mit den nächsten Schritten fort.

  4. Klicken Sie auf Bucket löschen.

  5. Klicken Sie im Bestätigungsfeld auf Löschen.

  6. Auf der Seite Logspeicher wird der Hinweis angezeigt, dass der Löschvorgang des Buckets aussteht. Der Bucket mit allen darin enthaltenen Logs wird dann nach sieben Tagen gelöscht.

gcloud

Führen Sie den Befehl gcloud logging buckets delete aus, um einen Log-Bucket zu löschen:

gcloud logging buckets delete BUCKET_ID --location=LOCATION

Sie können einen Log-Bucket nicht löschen, wenn er mit einem BigQuery-Dataset verknüpft ist:

API

Verwenden Sie zum Löschen eines Buckets projects.locations.buckets.delete in der Logging API.

Das Löschen eines Log-Buckets führt zu einem Fehler, wenn dieser Bucket mit einem BigQuery-Dataset verknüpft ist. Sie müssen das verknüpfte Dataset löschen, bevor Sie den Log-Bucket löschen:

Ein gelöschter Bucket verbleibt sieben Tage im Status "Ausstehend". In diesem Zeitraum werden die Logs von Logging an den Bucket weitergeleitet. Wenn Sie das Routing von Logs an einen gelöschten Bucket beenden möchten, können Sie die Logsenken löschen, die diesen Bucket als Ziel haben. Alternativ haben Sie die Möglichkeit, den Filter für die Senken so zu ändern, dass Logs nicht mehr an den gelöschten Bucket weitergeleitet werden.

Sie können keinen neuen Log-Bucket erstellen, der denselben Namen wie ein gelöschter Bucket mit dem Status „Ausstehend“ hat.

Gelöschten Bucket wiederherstellen

Sie können einen Log-Bucket mit dem Status "Ausstehend" wiederherstellen oder den Löschvorgang aufheben. So stellen Sie einen Log-Bucket wieder her:

Google Cloud Console

So stellen Sie einen Log-Bucket wieder her, der gelöscht werden soll:

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:

    Zum Log-Speicher

  2. Klicken Sie für den Bucket, den Sie wiederherstellen möchten, auf Mehr und wählen Sie dann Gelöschten Bucket wiederherstellen aus.

  3. Klicken Sie im Bestätigungsfeld auf Wiederherstellen.

  4. Auf der Seite Logspeicher wird die Anzeige für den ausstehenden Löschvorgang aus dem Log-Bucket entfernt.

gcloud

Führen Sie den Befehl gcloud logging buckets undelete aus, um einen Log-Bucket, der zum Löschen vorgemerkt ist, wiederherzustellen:

gcloud logging buckets undelete BUCKET_ID --location=LOCATION

API

Zum Wiederherstellen eines Buckets, dessen Löschen aussteht, verwenden Sie projects.locations.buckets.undelete in der Logging API.

Benachrichtigung zu monatlichen in Log-Buckets gespeicherten Logbyte

Klicken Sie zum Erstellen einer Benachrichtigungsrichtlinie auf der Seite Logspeicher in der Google Cloud Console auf Nutzungsbenachrichtigung erstellen. Mit dieser Schaltfläche wird die Seite Benachrichtigungsrichtlinie erstellen in Monitoring geöffnet. Im Messwerttypfeld wird dann logging.googleapis.com/billing/bytes_ingested angegeben.

Verwenden Sie die folgenden Einstellungen, um eine Benachrichtigungsrichtlinie zu erstellen, die ausgelöst wird, wenn die Anzahl der in Ihre Log-Buckets geschriebenen Logbyte das benutzerdefinierte Limit für Cloud Logging überschreitet.

Neue Bedingung
Feld

Wert
Ressource und Messwert Wählen Sie im Menü Ressourcen die Option Global aus.
Wählen Sie im Menü Messwertkategorien die Option Logbasierter Messwert aus.
Wählen Sie im Menü Messwerte die Option Monatlich aufgenommene Logbyte aus.
Filter
Über Zeitreihen hinweg
Zeitreihenaggregation
sum
Rollierendes Zeitfenster 60 m
Funktion für rollierendes Zeitfenster max
Benachrichtigungstrigger konfigurieren
Feld

Wert
Bedingungstyp Threshold
Benachrichtigungstrigger Any time series violates
Grenzwertposition Above threshold
Grenzwert Sie legen den akzeptablen Wert fest.
Zeitfenster noch einmal testen Der kleinste akzeptable Wert liegt bei 30 Minuten.

Weitere Informationen zu Benachrichtigungsrichtlinien finden Sie in der Benachrichtigungsübersicht.

In einen Bucket schreiben

Sie schreiben Logs nicht direkt in einen Log-Bucket. Stattdessen schreiben Sie Logs in eine Google Cloud-Ressource, ein Google Cloud-Projekt, einen Google Cloud-Ordner oder eine Google Cloud-Organisation. Die Senken in der übergeordneten Ressource leiten dann die Logs an Ziele weiter, einschließlich Log-Buckets. Eine Senke leitet Logs an ein Log-Bucket-Ziel weiter, wenn die Logs mit dem Filter der Senke übereinstimmen und die Senke berechtigt ist, die Logs an den Log-Bucket weiterzuleiten.

Aus einem Bucket lesen

Jeder Log-Bucket verfügt über eine Reihe von Logansichten. Zum Lesen von Logs aus einem Log-Bucket benötigen Sie Zugriff auf eine Logansicht des Log-Buckets. Mit Logansichten können Sie einem Nutzer nur Zugriff auf einen Teil der Logs gewähren, die in einem Log-Bucket gespeichert sind. Informationen zum Konfigurieren von Logansichten und zum Gewähren des Zugriffs auf bestimmte Logansichten finden Sie unter Logansichten für einen Log-Bucket konfigurieren.

So lesen Sie Logs aus einem Log-Bucket:

Google Cloud Console

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Explorer aus:

    Zum Log-Explorer

  2. Klicken Sie zum Anpassen der im Log-Explorer angezeigten Logs auf Bereich optimieren und wählen Sie dann eine Option aus:

    • Zum Aufrufen aller Logs, die im aktuellen Projekt generiert oder direkt an das aktuelle Projekt weitergeleitet wurden, wählen Sie Umfang nach aktuellem Projekt aus.

    • Wenn Sie bestimmte Logs aufrufen möchten, die in Log-Buckets im aktuellen Projekt gespeichert sind, wählen Sie Bereich nach Speicher und dann eine oder mehrere Logansichten aus.

    • Wenn Sie bestimmte Logs aufrufen möchten, die in Log-Buckets gespeichert sind, die sich in verschiedenen Projekten befinden, wählen Sie „Bereich nach Speicher“ aus, klicken Sie in der Auswahl für die Projekt- und Logansicht auf Projekt importieren und wählen Sie dann eine oder mehrere Logansichten aus.

  3. Klicken Sie auf Anwenden. Der Bereich Abfrageergebnisse wird mit Logs aktualisiert, die der ausgewählten Option entsprechen.

Weitere Informationen dazu, wie Sie anpassen, welche Logs im Log-Explorer angezeigt werden, finden Sie unter Übersicht über den Log-Explorer: Bereich optimieren.

gcloud

Verwenden Sie zum Lesen von Logs aus einem Log-Bucket den Befehl gcloud logging read und fügen Sie LOG_FILTER hinzu, um Daten auszuwählen:

gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=VIEW_ID

API

Verwenden Sie zum Lesen von Logs aus einem Log-Bucket die Methode entries.list. Legen Sie resourceNames fest, um den entsprechenden Bucket und die Logansicht anzugeben, und filter, um Daten auszuwählen.

Ausführliche Informationen zur Filtersyntax finden Sie unter Logging-Abfragesprache.

Benutzerdefinierte Aufbewahrung konfigurieren

Wenn Sie einen Log-Bucket erstellen, können Sie den Zeitraum anpassen, für den Cloud Logging die Logs des Buckets speichert. Sie können die Aufbewahrungsdauer für jeden benutzerdefinierten Log-Bucket und auch für den Log-Bucket _Default konfigurieren.

Wenn Sie die Aufbewahrung des Buckets verkürzen, gibt es einen Kulanzzeitraum von 7 Tagen, in dem abgelaufene Logs nicht gelöscht werden. Sie können diese abgelaufenen Logs weder abfragen noch aufrufen, aber in diesen sieben Tagen können Sie den vollständigen Zugriff wiederherstellen, indem Sie die Aufbewahrung des Buckets verlängern. Logs, die während des Kulanzzeitraums gespeichert wurden, werden auf Ihre Aufbewahrungskosten angerechnet.

So aktualisieren Sie die Aufbewahrungsdauer für einen Log-Bucket:

Google Cloud Console

So aktualisieren Sie die Aufbewahrungsdauer eines Log-Buckets:

  1. Wählen Sie im Navigationsbereich der Google Cloud Console Logging und anschließend Log-Speicher aus:

    Zum Log-Speicher

  2. Klicken Sie für den Bucket, den Sie aktualisieren möchten, auf Mehr und wählen Sie dann Bucket bearbeiten aus.

  3. Geben Sie im Feld Aufbewahrung die Anzahl der Tage zwischen 1 und 3650 Tagen ein, in denen Cloud Logging die Logs speichern soll.

  4. Klicken Sie auf Bucket aktualisieren. Die neue Aufbewahrungsdauer wird in der Liste Log-Bucket angezeigt.

gcloud

Führen Sie zum Aktualisieren der Aufbewahrungsdauer für einen Log-Bucket den Befehl gcloud logging buckets update aus, nachdem Sie einen Wert für RETENTION_DAYS festgelegt haben:

gcloud logging buckets update BUCKET_ID  --location=LOCATION --retention-days=RETENTION_DAYS

Wenn Sie beispielsweise die Logs im Bucket _Default am Standort global für ein Jahr aufbewahren möchten, würde Ihr Befehl so aussehen:

gcloud logging buckets update _Default --location=global --retention-days=365

Wenn Sie die Aufbewahrungsdauer eines Buckets verlängern, gelten die Aufbewahrungsregeln in Zukunft und nicht rückwirkend. Logs können nach Ablauf der Aufbewahrungsdauer nicht wiederhergestellt werden.

Asynchrone API-Methoden

Die Antwort einer asynchronen Methode wie projects.locations.buckets.createAsync ist ein Operation-Objekt.

Anwendungen, die eine asynchrone API-Methode aufrufen, sollten den Endpunkt operation.get abfragen, bis der Wert des Felds Operation.done true ist:

  • Wenn done den Wert false hat, wird der Vorgang noch ausgeführt.

    Senden Sie eine GET-Anfrage an den Endpunkt operation.get, um die Statusinformationen zu aktualisieren.

  • Wenn done den Wert true hat, ist der Vorgang abgeschlossen und entweder das Feld error oder response ist festgelegt:

    • error: Wenn dies festgelegt ist, ist der asynchrone Vorgang fehlgeschlagen. Der Wert dieses Felds ist ein Status-Objekt, das einen gRPC-Fehlercode und eine Fehlermeldung enthält.
    • response: Wenn dies festgelegt ist, wurde der asynchrone Vorgang erfolgreich abgeschlossen und der Wert spiegelt das Ergebnis wider.

Führen Sie den folgenden Befehl aus, um einen asynchronen Befehl mithilfe der Google Cloud CLI abzufragen:

gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID

Weitere Informationen zu gcloud logging operations describe.

Häufige Probleme beheben

Wenn bei der Verwendung von Log-Buckets Probleme auftreten, lesen Sie folgende Schritte zur Fehlerbehebung und Antworten auf häufig gestellte Fragen.

Warum kann ich diesen Bucket nicht löschen?

Wenn Sie versuchen, einen Bucket zu löschen, gehen Sie so vor:

  • Prüfen Sie, ob Sie die erforderlichen Berechtigungen zum Löschen des Buckets haben. Die Liste der erforderlichen Berechtigungen finden Sie unter Zugriffssteuerung mit IAM.

  • Bestimmen Sie, ob der Bucket gesperrt ist. Listen Sie dazu die Attribute des Buckets auf. Wenn der Bucket gesperrt ist, prüfen Sie die Aufbewahrungsdauer. Sie können gesperrte Buckets erst löschen, wenn alle Logs im Bucket die Aufbewahrungsdauer des Buckets erreicht haben.

  • Prüfen Sie, ob der Log-Bucket mit einem BigQuery-Dataset verknüpft ist. Sie können einen Log-Bucket mit einem verknüpften Dataset nicht löschen.

    Der folgende Fehler wird als Antwort auf den Befehl delete in einem Log-Bucket mit einem verknüpften Dataset angezeigt:

    FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
    

    Zum Auflisten der Links, die mit einem Log-Bucket verknüpft sind, führen Sie den Befehl gcloud logging links list oder die API-Methode projects.locations.buckets.links.list aus.

Welche Dienstkonten leiten Logs an meinen Bucket weiter?

So ermitteln Sie, ob Dienstkonten IAM-Berechtigungen zum Weiterleiten von Logs an Ihren Bucket haben:

  1. Wählen Sie im Navigationsbereich der Google Cloud Console IAM aus:

    Zu IAM

  2. Wählen Sie aus dem Tab Berechtigungen die Ansicht nach Rollen. Sie sehen nun eine Tabelle mit allen IAM-Rollen und Hauptkonten, die Ihrem Google Cloud-Projekt zugeordnet sind.

  3. Geben Sie in das Textfeld Filter der Tabelle Log-Bucket-Autor ein.

    Sie sehen alle Hauptkonten mit der Rolle Log-Bucket-Autor. Wenn ein Hauptkonto ein Dienstkonto ist, enthält dessen ID den String gserviceaccount.com.

  4. Optional: Wenn ein Dienstkonto nicht mehr in der Lage sein soll, Logs an Ihr Google Cloud-Projekt weiterzuleiten, klicken Sie das Kästchen für das Dienstkonto an und klicken Sie auf Entfernen.

Warum sehe ich Logs für ein Google Cloud-Projekt, obwohl ich sie von meiner _Default-Senke ausgeschlossen habe?

Möglicherweise sehen Sie sich Logs in einem Log-Bucket in einem zentralisierten Google Cloud-Projekt an, in dem Logs aus Ihrer Organisation zusammengefasst werden.

Wenn Sie den Log-Explorer für den Zugriff auf diese Logs verwenden und Logs sehen, die Sie von der Senke _Default ausgeschlossen haben, ist Ihre Ansicht möglicherweise auf die Google Cloud-Projektebene beschränkt.

Um dieses Problem zu beheben, wählen Sie im Bereich Bereich optimieren die Option Bereich nach Speicher und dann den Bucket _Default in Ihrem Google Cloud-Projekt aus. Die ausgeschlossenen Logs sollten nun nicht mehr angezeigt werden.

Nächste Schritte

Informationen zu den Methoden der Logs Bucket API finden Sie in der LogBucket-Referenzdokumentation.

Informationen zur Bewältigung gängiger Anwendungsfälle mit Log-Buckets finden Sie in den folgenden Themen: