Dieses Dokument enthält aktuelle Beschränkungen und Nutzungslimits bei der Verwendung des Schutzes sensibler Daten. Weitere Informationen finden Sie auf der Seite "Preise".
Die Limits gelten für alle Google Cloud Console-Projekte sowie für alle Anwendungen und IP-Adressen, die dieses Projekt verwenden.
Sie können in der Google Cloud Console niedrigere Kontingente festlegen.
Anfragekontingente
Das aktuelle API-Anfragekontingent für den Schutz sensibler Daten ist:
Anfragekontingent | Wert |
---|---|
Anfragen pro Minute | 600 |
Ressourcenlimits
Sensitive Data Protection erzwingt folgende Limits für gespeicherte Ressourcen pro Projekt.
Ressource | Limit |
---|---|
Maximale Anzahl Vorlagen | 1000 |
Maximale Anzahl Job-Trigger | 1000 |
Maximale Anzahl aktive Jobs | 1000 |
Maximale Anzahl gespeicherte Infotypen | 30 |
Maximale Anzahl von Erkennungskonfigurationen | 100 |
Limits für die Inhaltsprüfung und De-Identifikation
Der Schutz sensibler Daten erzwingt folgende Nutzungslimits für das Prüfen und Entfernen von Identitätsmerkmalen von Inhalten, die direkt in Form von Text oder Bildern an die DLP API gesendet werden:
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Anzahl von regulären benutzerdefinierten Wörterbüchern pro Anfrage | 10 |
Maximale Größe jedes Zitats (ein mit Ergebnissen zurückgegebenes Kontext-Snippet des Texts, der eine Übereinstimmung ausgelöst hat) | 4 KB |
Maximale Anzahl von Tabellenwerten | 50.000 |
Maximale Anzahl von Transformationen pro Anfrage | 100 |
Maximale Anzahl von Prüfregeln pro Set | 10 |
Maximale Anzahl von Ergebnissen pro Anfrage | 3.000 |
Maximale Größe einzelner Anfragen, mit Ausnahme von projects.image.redact |
0,5 MB |
Maximale Größe jeder projects.image.redact -Anfrage |
4 MB |
Wenn Sie Dateien prüfen möchten, die größer als diese Grenzwerte sind, speichern Sie diese Dateien in Cloud Storage und führen Sie einen Prüfungsjob aus.
Limits für die Speicherprüfung
Der Schutz sensibler Daten erzwingt folgende Nutzungslimits für die Prüfung von Google Cloud Storage-Repositories:
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Gesamtscangröße | 2 TB |
Maximale Größe jedes Zitats (ein mit Ergebnissen zurückgegebenes Kontext-Snippet des Texts, der eine Übereinstimmung ausgelöst hat) | 4 KB |
Limits für die De-Identifikation von Daten im Speicher
Beim Schutz sensibler Daten gilt das folgende Nutzungslimit, wenn Sie Daten im Speicher de-identifizieren:
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Dateigröße | 60.000 KB |
Limits für die Datenprofilerstellung
Sensitive Data Protection erzwingt folgende Nutzungslimits für die Profilerstellung von Daten:
Diese Limits gelten global für alle Datenkonfigurationen auf Organisations- und Projektebene.
Limits für BigQuery-Profilierung
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Anzahl von BigQuery-Tabellen | 200.000 |
Maximale Summe der Spalten in allen BigQuery-Tabellen, für die ein Profil erstellt werden soll | 20.000.000 |
Beispiel: Limits auf Organisationsebene
Angenommen, Sie haben eine Organisation mit zwei Ordnern und erstellen für jeden Ordner eine Scankonfiguration. Die Gesamtzahl der Tabellen, für die ein Profil erstellt werden soll, darf 200.000 nicht überschreiten. Die Gesamtzahl der Spalten in diesen Tabellen darf 20.000.000 nicht überschreiten.
Beispiel: Limits auf Projektebene
Wenn Sie die Profilerstellung auf Projektebene konfigurieren, darf die Gesamtzahl der Tabellen in diesem Projekt 200.000 nicht überschreiten. Die Gesamtzahl der Spalten in diesen Tabellen darf 20.000.000 nicht überschreiten.
Cloud SQL-Profilierungslimits
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Anzahl von Datenbanken pro Instanz | 1.000 |
Maximale Anzahl von Tabellen pro Datenbank | 20.000 |
Limits für benutzerdefinierte infoTypes
Sensitive Data Protection erzwingt folgende Limits für benutzerdefinierte InfoTypes.
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Größe der Wortliste, die pro benutzerdefiniertem Wörterbuch direkt in die Anforderungsnachricht übergeben wird | 128 KB |
Maximale Größe der Wortliste, die pro benutzerdefiniertem Wörterbuch als Datei in Cloud Storage festgelegt wird | 512 KB |
Maximale Anzahl von Bestandteilen (kontinuierliche Sequenzen, die nur Buchstaben, nur Ziffern, nur Zeichen ohne Buchstaben oder nur Zeichen ohne Ziffern enthalten) pro Wortgruppe eines regulären benutzerdefinierten Wörterbuchs | 40 |
Maximale Gesamtgröße aller gespeicherten benutzerdefinierten Wörterbücher pro Anfrage | 5 MB |
Maximale Anzahl eingebundener und benutzerdefinierter infoTypes pro Anfrage | 150 |
Maximale Anzahl von Erkennungsregeln pro benutzerdefiniertem Infotyp | 5 |
Maximale Anzahl von benutzerdefinierten Infotypen pro Anfrage | 30 |
Maximale Anzahl von regulären benutzerdefinierten Wörterbüchern pro Anfrage | 10 |
Maximale Länge regulärer Ausdrücke | 1000 |
Gespeicherte infoType-Limits
Der Schutz sensibler Daten erzwingt folgende Limits zum Erstellen gespeicherter infoTypes.
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Größe einer in Cloud Storage gespeicherten Eingabedatei | 200 MB |
Maximale Gesamtgröße aller in Cloud Storage gespeicherten Eingabedateien | 1 GB |
Maximale Anzahl der in Cloud Storage gespeicherten Eingabedateien | 100 |
Maximale Größe einer Eingabespalte in BigQuery | 1 GB |
Maximale Anzahl der Eingabetabellenzeilen in BigQuery | 5.000.000 |
Maximale Größe der Ausgabedateien | 500 MB |
Avro-Scanlimits
Im Allgemeinen gelten bei Avro-Dateien dieselben Limits für den Schutz sensibler Daten und BigQuery. Bei Erreichen dieser Limits wird als Fallback binär gescannt. Für Anfragen zur Inspektion von Inhalten und Jobs für Speicherinspektionen in Avro-Dateien gelten die folgenden Limits:
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Größe für einen einzelnen Avro-Block | 100 MB |
Maximale Größe für eine einzelne Avro-Datei | 1 TB |
Maximale Anzahl von Spalten in einer Avro-Datei | 10.000 |
Maximale Ebene der verschachtelten Felder | 15 |
Limits für das Scannen von PDFs und Microsoft-Produkten
Diese Limits gelten beim Scannen der folgenden Dateitypen:
- Microsoft Word
- Microsoft Excel
- Microsoft PowerPoint
Bei Erreichen dieser Limits wird als Fallback binär gescannt.
Art des Limits | Nutzungslimit |
---|---|
Maximale Größe einer einzelnen PDF-Datei in Cloud Storage. Dateien, die dieses Limit überschreiten, werden binär gescannt. | 150 MB, bis zu 10.000 Seiten |
Maximale Größe einer einzelnen Word-Datei in Cloud Storage. Dateien, die dieses Limit überschreiten, werden binär gescannt. | 30 MB |
Maximale Größe einer einzelnen Excel-Datei in Cloud Storage. Dateien, die dieses Limit überschreiten, werden binär gescannt. | 30 MB |
Maximale Größe einer einzelnen PowerPoint-Datei in Cloud Storage. Dateien, die dieses Limit überschreiten, werden binär gescannt. | 30 MB |
Diese Limits gelten für diese Dateitypen auch dann, wenn Sie eine maximale Bytegröße pro Datei festlegen.
Kontingent erhöhen
Sie können Ihre Kontingente bis zu den Maximalwerten erhöhen. Wählen Sie dazu im Dashboard von Google Cloud auf der Seite Kontingente die Option Kontingente bearbeiten aus. Wenn Sie eine Erhöhung des Kontingents anfordern möchten, geben Sie für Ihr Kontingent die gewünschte Erhöhung und eine Begründung an und senden Sie diese Aktualisierung. Sie werden benachrichtigt, sobald Ihr Antrag eingegangen ist. Möglicherweise werden Sie um weitere Informationen zu Ihrem Antrag gebeten. Nach Prüfung des Antrags wird Ihnen mitgeteilt, ob er genehmigt oder abgelehnt wurde.
Kontingentabhängigkeiten
Abhängig von den verwendeten Funktionen benötigen Sie möglicherweise zusätzliche Kontingente.
- Pub/Sub: Wenn Sie Pub/Sub verwenden, benötigen Sie möglicherweise zusätzliche Kontingente.
- BigQuery:
- Die Streaming API wird verwendet, um Ergebnisse für Inspektionsjobs zu speichern, für die Kontingentwerte und andere Einschränkungen gelten.
google.cloud.bigquery.storage.v1beta1.BigQueryStorage
, das den Inhalt von Zeilen in einer Tabelle auflistet, unterliegt Kontingentlimits.
Mehr über Dienstunterbrechungen erfahren
Der Schutz sensibler Daten bietet Funktionen, die von anderen Google Cloud-Diensten abhängen. Aufgrund dieser Abhängigkeiten können Sie davon ausgehen, dass die Zuverlässigkeit von Sensitive Data Protection mit der Zuverlässigkeit dieser Produkte vergleichbar ist.
Bei wiederkehrenden Fehlern bemühen wir uns, die Vorgänge so lange zu wiederholen, bis die Fehler behoben sind. Wenn die oben genannten Dienste jedoch unterbrochen werden, kann sich dies negativ auf die Leistung auswirken.
Im Google Cloud Status-Dashboard finden Sie alle bekannten Dienstunterbrechungen. Sie können auch den JSON-Feed oder RSS-Feed für Aktualisierungen zum Google Cloud Status-Dashboard abonnieren, um entsprechende Push-Mitteilungen zu erhalten.