Cette page fait référence à des pages expliquant comment utiliser Cloud Data Loss Prevention avec BigQuery.
Guides de démarrage rapide
- Guide de démarrage rapide: planifier une analyse d'inspection Cloud DLP
- Planifiez l'inspection périodique d'un bucket Cloud Storage, d'une table BigQuery ou d'un genre Datastore. Pour obtenir des instructions détaillées, consultez la page Créer et planifier des tâches d'inspection Cloud DLP.
Guides d'utilisation
Cette section fournit une liste classée de guides basés sur les tâches, qui illustrent comment utiliser Cloud DLP avec BigQuery.
Inspection
- Inspecter le stockage et les bases de données pour identifier les données sensibles
- Créez une tâche unique qui recherche des données sensibles dans un bucket Cloud Storage, une table BigQuery ou un genre Datastore.
- Créer et planifier des tâches d'inspection Cloud DLP
- Créez et planifiez un déclencheur de tâche qui recherche des données sensibles dans un bucket Cloud Storage, une table BigQuery ou un genre Datastore. Un déclencheur de tâche automatise la création de tâches Cloud DLP à intervalles réguliers.
Utiliser les résultats des analyses
- Envoyer les résultats des analyses Cloud DLP à Data Catalog
- Analysez une table BigQuery, puis envoyez les résultats à Data Catalog pour créer automatiquement des tags basés sur les résultats de Cloud DLP.
- Envoyer les résultats des analyses Cloud DLP à Security Command Center
- Analysez un bucket Cloud Storage, une table BigQuery ou un genre Datastore, puis envoyez les résultats à Security Command Center.
- Examiner les résultats des analyses DLP et créer des rapports
- Utilisez BigQuery pour exécuter des analyses sur les résultats de Cloud DLP.
- Interroger les résultats Cloud DLP dans BigQuery
- Examinez des exemples de requêtes que vous pouvez utiliser dans BigQuery pour analyser les résultats identifiés par Cloud DLP.
Analyse des risques de la restauration de l'identification
- Mesurer le risque de désanonymisation et de divulgation
Analysez les données structurées stockées dans une table BigQuery et calculez les métriques de risque de restauration de l'identification suivantes :
- Calculer des statistiques numériques et catégoriques
Détermine les valeurs minimales et maximales, ainsi que les quantiles d'une colonne BigQuery individuelle.
- Visualiser le risque d'anonymisation à l'aide de Looker Studio
Mesurez le k-anonymat d'un ensemble de données, puis visualisez-le dans Looker Studio.
Tutoriels
- Anonymiser des données BigQuery au moment de la requête
- Suivez un tutoriel pas à pas qui utilise des fonctions distantes BigQuery pour anonymiser et anonymiser des données dans les résultats de requête en temps réel.
- Anonymiser et désanonymiser les informations personnelles dans les ensembles de données à grande échelle à l'aide de Cloud DLP
- Examinez une architecture de référence pour créer un pipeline de transformation de données automatisé qui anonymise les données sensibles telles que les informations personnelles.
Bonnes pratiques
- Sécuriser un entrepôt de données BigQuery qui stocke des données confidentielles
- Présentation de l'architecture et des bonnes pratiques de gouvernance des données lors de la création, du déploiement et de l'exploitation d'un entrepôt de données dans Google Cloud, y compris l'anonymisation des données, le traitement différentiel des données confidentielles et les contrôles d'accès au niveau des colonnes.
Contributions de la communauté
Les éléments suivants sont détenus et gérés par des membres de la communauté, et non par l'équipe Cloud DLP. Pour toute question concernant ces éléments, contactez leurs propriétaires respectifs.
- Créer des tags Data Catalog en inspectant les données BigQuery avec Cloud Data Loss Prevention
- Inspectez les données BigQuery à l'aide de l'API Cloud Data Loss Prevention, puis utilisez l'API Data Catalog pour créer des tags au niveau des colonnes en fonction des éléments sensibles trouvés par Cloud DLP.
- Architecture de planification sans serveur basée sur des événements avec Cloud DLP
- Configurez une application de planification sans serveur basée sur des événements, qui utilise l'API Cloud Data Loss Prevention pour inspecter les données BigQuery.
- Détection d'anomalies en temps réel à l'aide de l'analyse de flux et des services d'IA de Google Cloud
- Découvrez un modèle d'intelligence artificielle en temps réel (IA) pour détecter les anomalies dans les fichiers journaux. Cette démonstration de faisabilité exploite Pub/Sub, Dataflow, BigQuery ML et Cloud DLP.
- Importation d'une base de données relationnelle dans BigQuery avec Dataflow et Cloud DLP
- Utilisez Dataflow et Cloud DLP pour tokeniser et importer de manière sécurisée les données d'une base de données relationnelle dans BigQuery. Cet exemple explique comment tokeniser les données permettant d'identifier personnellement les utilisateurs avant de les rendre persistantes.
Tarifs
Lorsque vous inspectez une table BigQuery, des frais vous sont facturés par Cloud DLP, conformément aux tarifs des tâches d'inspection de stockage.
De plus, lorsque vous enregistrez les résultats d'inspection dans une table BigQuery, des frais BigQuery s'appliquent.