Diese Seite enthält Details zu den Limits für die Nutzung von Cloud Logging.
Nutzungslimits für Cloud Logging
Für die Nutzung von Cloud Logging gelten folgende Limits. Mit der Mit Ausnahme der Limits für die Anzahl der Log-Buckets und -Senken sind diese Limits fixed; können Sie sie nicht erhöhen oder verringern.
Kategorie | Maximalwert |
---|---|
Größe eines
LogEntry |
256 KB1 |
Größe eines Audit-Logeintrags | 512 KiB |
Anzahl der Label | 64 pro LogEntry |
Länge eines LogEntry -Labelschlüssels |
512 B2 |
Länge eines LogEntry -Labelwerts |
64 KB2 |
Länge einer Logging-Abfragesprache | 20.000 Zeichen |
Abfrage-Fanout4 | 200 Buckets |
Anzahl von Waschbecken | 200 pro Google Cloud-Projekt3 |
Länge einer Einschlussfilter für Senken | 20.000 Zeichen |
Länge einer Senkenausschlussfilter | 20.000 Zeichen |
Anzahl der Ausschlussfilter | 50 pro Senke |
Anzahl von Log-Buckets | 100 pro Google Cloud-Projekt3,4,5 |
Anzahl von benutzerdefinierte indexierte Felder | 20 pro Log-Bucket |
Anzahl von Logansichten | 30 pro Log-Bucket |
Ältester Zeitstempel, der in Log-Buckets gespeichert werden kann6 | 30 Tage zurückliegen |
Zeitstempel in der Zukunft, der in Log-Buckets gespeichert werden kann6 | Bis zu 1 Tag in der Zukunft |
Anzahl von Logbereiche pro Ressource7 | 100 |
Anzahl der Logansichten und ‐projekte, die in einem Logbereich enthalten sind7 | 100 |
Anzahl der Projekte, die in einem Logbereich enthalten sind7 | 50 |
1 Dieses angenäherte Limit basiert auf internen Datengrößen und nicht auf der tatsächlichen Größe der REST API-Anfrage.
2 Cloud Logging kürzt zu große Labelschlüssel und Werte, wenn deren zugehörigen Logeinträge geschrieben werden.
3 Dieses Limit gilt auch für Abrechnungskonten, Ordner und Organisationen. Es ist nicht hierarchisch. Beispiel: Wenn Sie mehrere Google Cloud-Projekte in einer Organisation haben, können Sie bis zu 200 Senken für jedes Google Cloud-Projekt konfigurieren. Für dieselbe Organisation könnten Sie bis zu 200 Senken auf Organisationsebene konfigurieren.
4 Dieses Limit ist die maximale Anzahl von Buckets, die Logeinträge für eine Ressource. Weitere Informationen finden Sie unter Abfrage gibt einen Fehler zurück.
5 Dieses Limit umfasst Buckets, die bald gelöscht werden.
6 Logeinträge mit Zeitstempeln außerhalb dieser Grenzen sind
aus Log-Buckets abgelehnt. Die Logging API akzeptiert Einträge mit älteren Zeitstempeln. Diese Einträge können an Senken weitergeleitet, aber nicht im Protokollspeicher gespeichert werden. Einträge mit Zeitstempeln werden von der Logging API abgelehnt
mehr als einem Tag in der Zukunft liegt, und gibt eine
INVALID_ARGUMENT
Fehler.
7 Logbereiche befinden sich in der öffentlichen Vorschau.
Kontingente und Limits der Logging API
Die folgenden Limits gelten für Ihre Nutzung der Logging API. Sie können Änderungen der Kontingente und Limits der Logging API anfordern für finden Sie unter Auf dieser Seite erfahren Sie, wie Sie Änderungen am Cloud Logging API-Kontingent anfordern.
Kategorie | Höchstwert |
---|---|
API-Nutzung | Ihr Kontingent können Sie im API-Dashboard aufrufen. Wählen Sie dazu eine API und dann Kontingente aus. |
Lebensdauer der API-Seitentoken | 24 Stunden |
Anzahl der offenen Live-Tailing-Sitzungen | 10 pro Google Cloud-Projekt3 |
Anzahl der zurückgegebenen Live-Tailing-Einträge | 60.000 pro Minute |
Anzahl der eingeschränkten Felder | 20 pro Bucket |
Größe eines eingeschränkten Felds | 800 B |
Größe einer entries.write -Anfrage |
10 MB |
Anzahl der entries.write -Anfragen |
120.000 pro Minute und Google Cloud-Projekt1, 3 |
Anzahl der entries.list -Anfragen |
60 pro Minute und pro Google Cloud-Projekt2, 3 |
Anzahl der verschiedenen Ressourcennamen in einem einzelnen entries.write -Befehl4 |
1000 |
Kontrollanfragen5 pro Minute | 600 |
Kontrollanfragen5 pro Tag | 1.000 pro Google Cloud-Projekt |
Anzahl der Google Cloud-Projekte oder anderer Ressourcennamen in einem einzelne entries.list -Anfrage |
100 |
Anzahl gleichzeitiger Kopiervorgänge | 1 pro Google Cloud-Projekt3 |
Rate der Exporte in ein Pub/Sub-Thema6 | 60 GB pro Minute pro Google Cloud-Projekt |
1 Durch die Verwendung von Ausschlussfiltern wirkt sich diese Anzahl nicht auf diese Zahl aus.
da Logs nach der entries.write
-Anfrage ausgeschlossen werden
erstellt wird.
2 Dies ist die Standardeinstellung.
3 Dieses Limit gilt auch für Rechnungskonten, Ordner und und nicht hierarchisch ist.
4 Das Feld logName
eines Logeintrags gibt
Ressourcenname des Logeintrags.
5 Das tägliche Kontingent für Kontrollanfragen gilt für API-Anfragen. zum Erstellen und Aktualisieren von Ausschlüssen und Senken. Die Das Kontroll-/Anfragekontingent pro Minute gilt für alles, was auch in das tägliche Kontingent für Kontrollanfragen und API-Anfragen zum Löschen von Protokollen und Logbasierte Messwerte verwalten.
6 Wenn die Exportrate das Kontingent überschreitet, lautet der Fehler:
in einem Logeintrag erfasst. Das Zusammenfassungsfeld zeigt einen Senkenkonfigurationsfehler an
und der Fehlercode wird als topic_over_quota
aufgeführt.
Änderungen am Cloud Logging API-Kontingent anfordern
In der Google Cloud Console können Sie höhere oder niedrigere Logging API-Limits anfordern. Weitere Informationen finden Sie unter Kontingente aufrufen und verwalten.
Wenn die Fehlermeldung Edit is not allowed for this quota
ausgegeben wird, können Sie den Support kontaktieren, um Änderungen am Kontingent anzufordern. Die Abrechnung muss auf dem
Google Cloud-Projekt, um die Kästchen anzuklicken.
Nutzung von entries.list
optimieren
Die erwartete Verwendung von entries.list
ist die Suche nach übereinstimmenden
Logs. Diese Methode eignet sich nicht für das umfangreiche Abrufen von Logeinträgen. Wenn Sie Ihr entries.list
-Kontingent regelmäßig aufbrauchen, haben Sie folgende Möglichkeiten:
Achten Sie darauf, dass Sie die Cloud Logging API effizient verwenden. Weitere Informationen Siehe Nutzung der API optimieren.
Wenn Sie im Voraus wissen, dass die zu analysierenden Logeinträge die zulässigen
entries.list
-Kontingent und konfigurieren Sie dann eine Logsenke, um Ihre Logs an ein unterstütztes Ziel.
- Zum Analysieren von Logeinträgen außerhalb von Logging haben Sie folgende Möglichkeiten: Logeinträge rückwirkend kopieren, die bereits in Logging in Cloud Storage-Buckets Wenn Sie Protokolle kopieren nach einem Cloud Storage-Bucket haben, können Sie Logeinträge für Auditoren außerhalb von Logging und Ausführen von Skripts in Cloud Storage
- So aggregieren und analysieren Sie Ihre Logeinträge in Logging: Einen Log-Bucket zur Verwendung von Loganalysen erstellen oder upgraden Mit Log Analytics können Sie Ihre Logeinträge mithilfe von BigQuery-Standard-SQL
Logbasierte Messwerte
Für die Nutzung von benutzerdefinierten logbasierten Messwerten. Mit Ausnahme der Messwertdeskriptoren Diese Limits sind unveränderlich. können Sie sie nicht erhöhen oder verringern.
Kategorie | Maximalwert |
---|---|
Anzahl der Labels | 10 pro Messwert |
Länge des Labelwerts | 1.024 B |
Länge der Labelbeschreibung | 800 B |
Länge eines Filters | 20.000 Zeichen |
Länge von Messwertdeskriptoren | 8.000 B |
Anzahl der Messwertdeskriptoren | 500 pro Google Cloud-Projekt2 |
Anzahl der aktiven Zeitachsen1 | 30.000 pro Messwert |
Anzahl der Histogramm-Buckets | 200 pro benutzerdefiniertem Verteilungsmesswert |
Datenaufbewahrung | Siehe Cloud Monitoring: Datenaufbewahrung |
1 Eine Zeitachse ist aktiv, wenn Sie in den vergangenen 24 Stunden Datenpunkte darauf geschrieben haben.
2 Dieses Limit gilt auch für Rechnungskonten, Ordner und und nicht hierarchisch ist.
Audit-Logging
Die maximale Größe von Audit-Logs wird im folgenden Tabelle. Diese Werte können Ihnen helfen, den Platz zu schätzen, den Sie in Ihrem Senkenziele angeben.
Audit-Logtyp | Maximalgröße |
---|---|
Administratoraktivität | 512 KiB |
Datenzugriff | 512 KiB |
Systemereignis | 512 KiB |
Richtlinie abgelehnt | 512 KiB |
Aufbewahrungsdauer für Logs
Folgende Aufbewahrungsdauern von Cloud Logging gelten für Log-Buckets, unabhängig davon, welche Arten Logs im Bucket enthalten sind oder ob sie von einem anderen Speicherort kopiert wurden. Die Aufbewahrungsinformationen sind:
Bucket | Standardmäßige Aufbewahrungsdauer | Benutzerdefinierte Aufbewahrung |
---|---|---|
_Required |
400 Tage | Nicht konfigurierbar |
_Default |
30 Tage | Konfigurierbar |
Benutzerdefiniert | 30 Tage | Konfigurierbar |
Für die _Default
- und benutzerdefinierten Log-Buckets können Sie Folgendes konfigurieren:
zum Aufbewahren Ihrer Logs
1 Tag und
3.650 Tage. Informationen zum Einrichten der Aufbewahrung
finden Sie unter
Benutzerdefinierte Aufbewahrung konfigurieren
Preise
In Cloud Logging fallen keine Kosten für das Weiterleiten von Logs an einen
unterstütztes Ziel; Am Ziel fallen jedoch möglicherweise Gebühren an.
Mit Ausnahme des _Required
-Log-Buckets fallen in Cloud Logging Kosten für das Streamen von Logs in Log-Buckets und für die Speicherung über die standardmäßige Aufbewahrungsdauer des Log-Buckets hinaus an.
Für das Kopieren von Logs, das Definieren von Log-Bereichen oder das Ausführen von Abfragen über die Seiten Log-Explorer oder Log Analytics fallen in Cloud Logging keine Gebühren an.
Weitere Informationen finden Sie in folgenden Dokumenten:
- Preisübersicht für Cloud Logging
Zielkosten:
- Gebühren für die Erzeugung von VPC-Flusslogs werden angewendet, wenn Sie Ihre Virtual Private Cloud-Flusslogs senden und dann von Cloud Logging ausschließen.