Utiliser Cloud DLP avec BigQuery

Cette page contient des références aux pages qui expliquent comment utiliser Cloud Data Loss Prevention avec BigQuery.

Guides de démarrage rapide

Guide de démarrage rapide: Programmer une analyse d'inspection Cloud DLP
Planifiez l'inspection périodique d'un bucket Cloud Storage, d'une table BigQuery ou d'un genre Datastore. Pour obtenir des instructions détaillées, consultez la page Créer et planifier des tâches d'inspection Cloud DLP.

Guides d'utilisation

Cette section fournit une liste classée de guides basés sur les tâches, qui illustrent comment utiliser Cloud DLP avec BigQuery.

Inspection

Inspecter le stockage et les bases de données pour identifier les données sensibles
Créez une tâche unique qui recherche des données sensibles dans un bucket Cloud Storage, une table BigQuery ou un genre Datastore.
Créer et planifier des tâches d'inspection Cloud DLP
Créez et planifiez un déclencheur de tâche qui recherche des données sensibles dans un bucket Cloud Storage, une table BigQuery ou un genre Datastore. Un déclencheur de tâche automatise la création de tâches Cloud DLP à intervalles réguliers.

Utiliser les résultats des analyses

Envoyer les résultats de l'analyse Cloud DLP à Data Catalog
Analysez une table BigQuery, puis envoyez les résultats à Data Catalog pour créer automatiquement des tags basés sur les résultats de Cloud DLP.
Envoyer les résultats de l'analyse Cloud DLP à Security Command Center
Analysez un bucket Cloud Storage, une table BigQuery ou un genre Datastore, puis envoyez les résultats à Security Command Center.
Examiner les résultats des analyses DLP et créer des rapports
Utilisez BigQuery pour exécuter des analyses sur les résultats de Cloud DLP.
Interroger les résultats Cloud DLP dans BigQuery
Examinez des exemples de requêtes que vous pouvez utiliser dans BigQuery pour analyser les résultats identifiés par Cloud DLP.

Analyse des risques de la restauration de l'identification

Mesurer le risque de restauration de l'identification et de divulgation

Analysez les données structurées stockées dans une table BigQuery et calculez les métriques de risque de restauration de l'identification suivantes :

Calculer des statistiques numériques et catégoriques

Détermine les valeurs minimales et maximales, ainsi que les quantiles d'une colonne BigQuery individuelle.

Visualiser le risque de restauration de l'identification à l'aide de Data Studio

Mesurez l'an-anonymat d'un ensemble de données, puis visualisez-le dans Google Data Studio.

Tutoriels

Supprimer et restaurer l'identification des informations personnelles à l'aide de Cloud DLP

Créez un pipeline de transformation des données automatisé pour anonymiser des données sensibles telles que les informations personnelles. Il s'agit d'une série en quatre parties concernant les sujets suivants :

Création d'une solution de détection d'anomalies sécurisée à l'aide de Dataflow, BigQuery ML et Cloud Data Loss Prevention

Créer une solution sécurisée de détection d'anomalies pour les réseaux de télécommunications

Déployer une solution pour migrer des données sensibles

Mettez en œuvre une solution de jetonisation des données de bout en bout, conçue pour migrer des données sensibles dans BigQuery,

Bonnes pratiques

Sécuriser un entrepôt de données BigQuery qui stocke des données confidentielles
Présentation de l'architecture et bonnes pratiques pour la gouvernance des données lors de la création, du déploiement et de l'exploitation d'un entrepôt de données dans Google Cloud, y compris l'anonymisation des données, le traitement différentiel des données confidentielles et les contrôles d'accès au niveau des colonnes.

Contributions de la communauté

Les éléments suivants sont détenus et gérés par des membres de la communauté, et non par l'équipe Cloud DLP. Pour toute question concernant ces éléments, contactez leurs propriétaires respectifs.

Créer des tags Data Catalog en inspectant les données BigQuery avec Cloud Data Loss Prevention
Inspectez les données BigQuery à l'aide de l'API Cloud Data Loss Prevention, puis utilisez l'API Data Catalog pour créer des tags au niveau des colonnes en fonction des éléments sensibles trouvés par Cloud DLP.
Architecture de planification sans serveur basée sur des événements avec Cloud DLP
Configurez une application de planification sans serveur basée sur des événements, qui utilise l'API Cloud Data Loss Prevention pour inspecter les données BigQuery.
Détection d'anomalies en temps réel à l'aide de l'analyse de flux et des services d'IA de Google Cloud
Découvrez un modèle d'intelligence artificielle en temps réel (IA) pour détecter les anomalies dans les fichiers journaux. Cette démonstration de faisabilité exploite Pub/Sub, Dataflow, BigQuery ML et Cloud DLP.
Importer une base de données relationnelle dans BigQuery à l'aide de Dataflow et de Cloud DLP
Utilisez Dataflow et Cloud DLP pour segmenter et importer en toute sécurité les données d'une base de données relationnelle dans BigQuery. Cet exemple montre comment segmenter les données personnelles avant qu'elles ne soient persistantes.

Tarification

Lorsque vous inspectez une table BigQuery, des frais Cloud DLP vous sont facturés, conformément aux tarifs des tâches d'inspection de stockage.

De plus, lorsque vous enregistrez les résultats d'inspection dans une table BigQuery, les frais BigQuery s'appliquent.