Cette page contient des références aux pages qui expliquent comment utiliser Cloud Data Loss Prevention avec BigQuery.
Guides de démarrage rapide
- Guide de démarrage rapide: Programmer une analyse d'inspection Cloud DLP
- Planifiez l'inspection périodique d'un bucket Cloud Storage, d'une table BigQuery ou d'un genre Datastore. Pour obtenir des instructions détaillées, consultez la page Créer et planifier des tâches d'inspection Cloud DLP.
Guides d'utilisation
Cette section fournit une liste classée de guides basés sur les tâches, qui illustrent comment utiliser Cloud DLP avec BigQuery.
Inspection
- Inspecter le stockage et les bases de données pour identifier les données sensibles
- Créez une tâche unique qui recherche des données sensibles dans un bucket Cloud Storage, une table BigQuery ou un genre Datastore.
- Créer et planifier des tâches d'inspection Cloud DLP
- Créez et planifiez un déclencheur de tâche qui recherche des données sensibles dans un bucket Cloud Storage, une table BigQuery ou un genre Datastore. Un déclencheur de tâche automatise la création de tâches Cloud DLP à intervalles réguliers.
Utiliser les résultats des analyses
- Envoyer les résultats de l'analyse Cloud DLP à Data Catalog
- Analysez une table BigQuery, puis envoyez les résultats à Data Catalog pour créer automatiquement des tags basés sur les résultats de Cloud DLP.
- Envoyer les résultats de l'analyse Cloud DLP à Security Command Center
- Analysez un bucket Cloud Storage, une table BigQuery ou un genre Datastore, puis envoyez les résultats à Security Command Center.
- Examiner les résultats des analyses DLP et créer des rapports
- Utilisez BigQuery pour exécuter des analyses sur les résultats de Cloud DLP.
- Interroger les résultats Cloud DLP dans BigQuery
- Examinez des exemples de requêtes que vous pouvez utiliser dans BigQuery pour analyser les résultats identifiés par Cloud DLP.
Analyse des risques de la restauration de l'identification
- Mesurer le risque de restauration de l'identification et de divulgation
Analysez les données structurées stockées dans une table BigQuery et calculez les métriques de risque de restauration de l'identification suivantes :
- Calculer des statistiques numériques et catégoriques
Détermine les valeurs minimales et maximales, ainsi que les quantiles d'une colonne BigQuery individuelle.
- Visualiser le risque de restauration de l'identification à l'aide de Data Studio
Mesurez l'an-anonymat d'un ensemble de données, puis visualisez-le dans Google Data Studio.
Tutoriels
- Supprimer et restaurer l'identification des informations personnelles à l'aide de Cloud DLP
Créez un pipeline de transformation des données automatisé pour anonymiser des données sensibles telles que les informations personnelles. Il s'agit d'une série en quatre parties concernant les sujets suivants :
- Anonymiser et désanonymiser les informations personnelles dans les ensembles de données à grande échelle à l'aide de Cloud DLP
- Créer des modèles de transformation pour la suppression de l'identification des données personnelles dans le système de protection contre la perte de données
- Exécuter un pipeline Dataflow automatisé pour supprimer l'identification d'un ensemble de données personnelles
- Valider les données anonymisées dans BigQuery et restaurer l'identification des informations personnelles
- Création d'une solution de détection d'anomalies sécurisée à l'aide de Dataflow, BigQuery ML et Cloud Data Loss Prevention
Créer une solution sécurisée de détection d'anomalies pour les réseaux de télécommunications
- Déployer une solution pour migrer des données sensibles
Mettez en œuvre une solution de jetonisation des données de bout en bout, conçue pour migrer des données sensibles dans BigQuery,
Bonnes pratiques
- Sécuriser un entrepôt de données BigQuery qui stocke des données confidentielles
- Présentation de l'architecture et bonnes pratiques pour la gouvernance des données lors de la création, du déploiement et de l'exploitation d'un entrepôt de données dans Google Cloud, y compris l'anonymisation des données, le traitement différentiel des données confidentielles et les contrôles d'accès au niveau des colonnes.
Contributions de la communauté
Les éléments suivants sont détenus et gérés par des membres de la communauté, et non par l'équipe Cloud DLP. Pour toute question concernant ces éléments, contactez leurs propriétaires respectifs.
- Créer des tags Data Catalog en inspectant les données BigQuery avec Cloud Data Loss Prevention
- Inspectez les données BigQuery à l'aide de l'API Cloud Data Loss Prevention, puis utilisez l'API Data Catalog pour créer des tags au niveau des colonnes en fonction des éléments sensibles trouvés par Cloud DLP.
- Architecture de planification sans serveur basée sur des événements avec Cloud DLP
- Configurez une application de planification sans serveur basée sur des événements, qui utilise l'API Cloud Data Loss Prevention pour inspecter les données BigQuery.
- Détection d'anomalies en temps réel à l'aide de l'analyse de flux et des services d'IA de Google Cloud
- Découvrez un modèle d'intelligence artificielle en temps réel (IA) pour détecter les anomalies dans les fichiers journaux. Cette démonstration de faisabilité exploite Pub/Sub, Dataflow, BigQuery ML et Cloud DLP.
- Importer une base de données relationnelle dans BigQuery à l'aide de Dataflow et de Cloud DLP
- Utilisez Dataflow et Cloud DLP pour segmenter et importer en toute sécurité les données d'une base de données relationnelle dans BigQuery. Cet exemple montre comment segmenter les données personnelles avant qu'elles ne soient persistantes.
Tarification
Lorsque vous inspectez une table BigQuery, des frais Cloud DLP vous sont facturés, conformément aux tarifs des tâches d'inspection de stockage.
De plus, lorsque vous enregistrez les résultats d'inspection dans une table BigQuery, les frais BigQuery s'appliquent.