Utiliser Cloud DLP avec BigQuery

Cette page contient des références de pages expliquant comment utiliser Cloud Data Loss Prevention (DLP) avec BigQuery.

Guides de démarrage rapide

Guide de démarrage rapide: planifier une analyse d'inspection Cloud DLP
Planifiez une inspection périodique d'un bucket Cloud Storage, d'une table BigQuery ou d'un genre Datastore. Pour obtenir des instructions détaillées, consultez la page Créer et planifier des tâches d'inspection Cloud DLP.

Guides d'utilisation

Dans cette section, nous vous proposons une liste classée de guides basés sur des tâches, qui vous expliquent comment utiliser Cloud DLP avec BigQuery.

Inspection

Inspecter le stockage et les bases de données pour identifier les données sensibles
Créez une tâche unique qui recherche des données sensibles dans un bucket Cloud Storage, une table BigQuery ou un genre Datastore.
Créer et planifier des tâches d'inspection Cloud DLP
Créer et planifier un déclencheur de tâche qui recherche des données sensibles dans un bucket Cloud Storage, une table BigQuery ou un genre Datastore Un déclencheur de tâche automatise la création périodique de tâches Cloud DLP.

Utiliser les résultats d'analyse

Envoyer les résultats des analyses Cloud DLP à Data Catalog
Analyser une table BigQuery, puis envoyer les résultats à Data Catalog pour créer automatiquement des tags en fonction des résultats de Cloud DLP.
Envoyer les résultats des analyses Cloud DLP à Security Command Center
Analysez un bucket Cloud Storage, une table BigQuery ou un genre Datastore, puis envoyez les résultats à Security Command Center.
Analyser les résultats des analyses DLP et créer des rapports
Utiliser BigQuery pour exécuter des analyses sur les résultats de Cloud DLP.
Interroger les résultats Cloud DLP dans BigQuery
Consultez des exemples de requêtes que vous pouvez utiliser dans BigQuery pour analyser les résultats identifiés par Cloud DLP.

Analyse des risques de la restauration de l'identification

Mesurer le risque de restauration de l'identification et de divulgation

Analysez les données structurées stockées dans une table BigQuery, puis calculez les métriques de risque de restauration de l'identification suivantes:

Calculer des statistiques numériques et catégoriques

Déterminer les valeurs minimales, maximales et quantiles pour une colonne BigQuery individuelle.

Visualiser le risque lié à la restauration des éléments d'identification à l'aide de Data Studio

Mesurez le k-anonymat d'un ensemble de données, puis visualisez-le dans Google Data Studio.

Tutoriels

Anonymiser et désanonymiser les informations personnelles à l'aide de Cloud DLP

Créez un pipeline de transformation des données automatisé pour anonymiser les données sensibles telles que les informations personnelles. Il s'agit d'une série en quatre parties qui aborde les sujets suivants:

Créer une solution sécurisée de détection des anomalies à l'aide de Dataflow, BigQuery ML et Cloud Data Loss Prevention (DLP)

Créez une solution sécurisée de détection d'anomalies pour les réseaux de télécommunications.

Déployer une solution pour migrer des données sensibles

Mettez en œuvre une solution de tokenisation de données de bout en bout conçue pour migrer les données sensibles dans BigQuery.

Contributions de la communauté

Les éléments suivants appartiennent et sont gérés par les membres de la communauté, et non par l'équipe Cloud DLP. Pour toute question concernant ces éléments, contactez leurs propriétaires respectifs.

Créer des tags Data Catalog en inspectant les données BigQuery à l'aide de Cloud Data Loss Prevention (DLP)
Inspectez les données BigQuery à l'aide de l'API Cloud Data Loss Prevention, puis utilisez l'API Data Catalog pour créer des tags au niveau des colonnes en fonction des éléments sensibles détectés par Cloud DLP.
Architecture de planification sans serveur basée sur des événements avec Cloud DLP
Configurez une application de planification sans serveur basée sur des événements, qui utilise l'API Cloud Data Loss Prevention pour inspecter les données BigQuery.
Détection d'anomalies en temps réel à l'aide de l'analyse de flux et de services d'IA de Google Cloud
Découvrez un modèle d'intelligence artificielle en temps réel (IA) permettant de détecter des anomalies dans les fichiers journaux. Cette démonstration de faisabilité exploite Pub/Sub, Dataflow, BigQuery ML et Cloud DLP.
Importer une base de données relationnelle dans BigQuery à l'aide de Dataflow et de Cloud DLP
Utilisez Dataflow et Cloud DLP pour tokeniser et importer des données de manière sécurisée dans BigQuery à partir d'une base de données relationnelle. Cet exemple explique comment tokeniser les informations personnelles avant qu'elles ne deviennent persistantes.

Tarifs

L'inspection d'une table BigQuery entraîne des frais pour Cloud DLP, conformément aux tarifs des tâches d'inspection de stockage.

De plus, des frais BigQuery s'appliquent lorsque vous enregistrez les résultats d'inspection dans une table BigQuery.