Cet article explique en détail comment créer une tâche d'inspection Cloud Data Loss Prevention et comment planifier des tâches d'inspection récurrentes en créant un déclencheur de tâche. Pour savoir rapidement comment créer un déclencheur de tâche à l'aide de l'interface utilisateur Cloud DLP, consultez la section Démarrage rapide – Créer un déclencheur de tâche Cloud DLP.
À propos des tâches d'inspection et des déclencheurs de tâche
Lorsque Cloud DLP effectue une analyse d'inspection pour identifier les données sensibles, chaque analyse s'exécute en tant que tâche. Cloud DLP crée et exécute une ressource de tâche chaque fois que vous lui demandez d'inspecter vos dépôts de stockage Google Cloud, y compris les buckets Cloud Storage, les tables BigQuery, les genres Datastore et les données externes.
Vous programmez des tâches d'analyse d'inspection Cloud DLP en créant des déclencheurs de tâche. Un déclencheur de tâche automatise la création de tâches DLP de manière périodique et peut également être exécuté à la demande.
Pour en savoir plus sur les tâches et les déclencheurs de tâche dans Cloud DLP, consultez la page conceptuelle Tâches et déclencheurs de tâches.
Créer une tâche d'inspection
Pour créer une tâche d'inspection Cloud DLP, procédez comme suit :
Console
Dans la console Google Cloud, accédez à la page Protection contre la perte de données.
Cliquez sur l'onglet Inspection, puis sur Créer une tâche et des déclencheurs de tâches.
Vous pouvez également cliquer sur le bouton suivant :
La page "Créer une tâche" contient les sections suivantes :
Choisir les données d'entrée
Nom
Saisissez un nom pour la tâche. Vous pouvez utiliser des lettres, des chiffres et des traits d'union. Nommer votre tâche est facultatif Si vous n'indiquez pas de nom, Cloud DLP attribue à la tâche un identifiant de numéro unique.
Emplacement
Dans le menu Type de stockage, choisissez le type de dépôt qui stockera les données que vous souhaitez analyser :
- Cloud Storage : saisissez l'URL du bucket que vous souhaitez analyser, ou sélectionnez Inclure/Exclure dans le menu Type d'emplacement, puis cliquez sur Parcourir pour accéder au bucket ou au sous-dossier à analyser. Cochez la case Analyser le dossier de manière récursive pour analyser le répertoire spécifié et tous les répertoires contenus. Ne cochez pas la case si vous ne souhaitez analyser que le répertoire spécifié.
- BigQuery : saisissez les identifiants du projet, de l'ensemble de données et de la table à analyser.
- Datastore : saisissez les identifiants du projet, de l'espace de noms (facultatif) et du genre à analyser.
- Mixte: vous pouvez ajouter les étiquettes requises, les étiquettes facultatives et les options de gestion des données tabulaires. Pour en savoir plus, consultez Types de métadonnées que vous pouvez fournir.
Échantillonnage
L'échantillonnage est une méthode facultative permettant d'économiser des ressources si vous disposez d'une très grande quantité de données.
Sous Sampling (Échantillonnage), vous pouvez choisir d’analyser toutes les données sélectionnées ou d'échantillonner les données en analysant un certain pourcentage. L'échantillonnage fonctionne différemment selon le type de dépôt de stockage utilisé pour l'analyse :
- Pour BigQuery, vous pouvez échantillonner un sous-ensemble du nombre total de lignes sélectionnées, correspondant au pourcentage spécifié de fichiers à inclure dans l'analyse.
- Pour Cloud Storage, si un fichier dépasse la taille spécifiée dans Max byte size to scan per file (Taille d'octets maximale à analyser par fichier), Cloud DLP effectue l'analyse jusqu'à cette valeur, puis passe au fichier suivant.
Pour activer l'échantillonnage, choisissez l'une des options suivantes dans le premier menu :
- Démarrer l'échantillonnage à partir du début : Cloud DLP lance l'analyse partielle au début des données. Pour BigQuery, l'analyse démarre à la première ligne. Pour Cloud Storage, l'analyse démarre au début de chaque fichier et s'arrête une fois que Cloud DLP a analysé les données jusqu'à la taille de fichier maximale spécifiée.
- Démarrer l'échantillonnage à partir d'un emplacement aléatoire : Cloud DLP démarre l'analyse partielle à partir d'un emplacement aléatoire dans les données. Pour BigQuery, l'analyse se lance sur une ligne au hasard. Pour Cloud Storage, ce paramètre ne s'applique qu'aux fichiers qui dépassent une taille maximale spécifiée. Cloud DLP analyse intégralement les fichiers dont la taille est inférieure à la taille maximale indiquée. Les fichiers dont la taille dépasse la taille maximale autorisée sont analysés jusqu'à concurrence de cette taille maximale.
Pour effectuer une analyse partielle, vous devez également choisir le pourcentage de données que vous souhaitez analyser. Utilisez le curseur pour définir le pourcentage.
Vous pouvez également affiner les fichiers ou les enregistrements par date. Pour en savoir plus, consultez la section Programmation plus loin dans cette rubrique.
Configuration avancée
Lorsque vous créez une tâche pour une analyse de buckets Cloud Storage ou de tables BigQuery, vous pouvez affiner votre recherche en spécifiant une configuration avancée. Plus précisément, vous pouvez configurer les éléments suivants :
- Fichiers (Cloud Storage seulement) : types de fichiers à analyser, y compris les fichiers texte, les fichiers binaires et les fichiers image.
- Champs d'identification (BigQuery uniquement) : identifiants de ligne uniques dans la table.
- Pour Cloud Storage, si un fichier dépasse la taille spécifiée dans Max byte size to scan per file (Taille d'octets maximale à analyser par fichier), Cloud DLP effectue l'analyse jusqu'à cette valeur, puis passe au fichier suivant.
Pour activer l'échantillonnage, choisissez le pourcentage de données à analyser. Utilisez le curseur pour définir le pourcentage. Sélectionnez ensuite l'une des options suivantes dans le premier menu :
- Démarrer l'échantillonnage à partir du début : Cloud DLP lance l'analyse partielle au début des données. Pour BigQuery, l'analyse démarre à la première ligne. Pour Cloud Storage, l'analyse démarre au début de chaque fichier et s'arrête une fois que Cloud DLP a analysé les données jusqu'à la taille de fichier maximale spécifiée (voir ci-dessus).
- Démarrer l'échantillonnage à partir d'un emplacement aléatoire : Cloud DLP démarre l'analyse partielle à partir d'un emplacement aléatoire dans les données. Pour BigQuery, l'analyse se lance sur une ligne au hasard. Pour Cloud Storage, ce paramètre ne s'applique qu'aux fichiers qui dépassent une taille maximale spécifiée. Cloud DLP analyse intégralement les fichiers dont la taille est inférieure à la taille maximale indiquée. Les fichiers dont la taille dépasse la taille maximale autorisée sont analysés jusqu'à concurrence de cette taille maximale.
Fichiers
Pour les fichiers stockés dans Cloud Storage, l'onglet Files (Fichiers) permet de spécifier les types à inclure dans l'analyse.
Vous pouvez choisir parmi plusieurs formats : binaire, texte, image, CSV, TSV, Microsoft Word, Microsoft Excel, Microsoft Powerpoint, PDF et Apache Avro. Pour obtenir la liste exhaustive des extensions de fichiers que Cloud DLP peut analyser dans des buckets Cloud Storage, consultez la section FileType
.
Si vous sélectionnez Binaire, Cloud DLP analyse les fichiers de types non reconnus.
Champs d'identification
Pour les tables dans BigQuery, vous pouvez demander à Cloud DLP d'inclure les valeurs des colonnes de clé primaire de la table dans les résultats du champ Identifying fields (Champs d'identification). Vous pouvez ainsi associer les résultats aux lignes de table qui les contiennent.
Saisissez les noms des colonnes qui identifient de manière unique chaque ligne du tableau. Si nécessaire, spécifiez des champs imbriqués à l'aide de la notation par points. Vous pouvez ajouter autant de champs que vous le souhaitez.
Vous devez également activer l'action Enregistrer dans BigQuery pour exporter les résultats vers BigQuery. Lorsque les résultats sont exportés vers BigQuery, chaque résultat contient les valeurs correspondantes des champs d'identification. Pour en savoir plus, consultez la section identifyingFields
.
Configurer la détection
La section Configurer la détection vous permet de spécifier les types de données sensibles que vous souhaitez analyser. Cette section est facultative. Si vous ne la complétez pas, Cloud DLP recherche un ensemble d'infoTypes par défaut dans vos données.
Modèle
Vous pouvez également exploiter un modèle Cloud DLP pour réutiliser les informations de configuration spécifiées précédemment.
Si vous avez déjà créé un modèle que vous souhaitez utiliser, cliquez sur le champ Nom du modèle pour afficher une liste des modèles d'inspection existants. Choisissez ou saisissez le nom du modèle que vous souhaitez utiliser.
Pour plus d'informations sur la création de modèles, reportez-vous à la section Créer des modèles d'inspection Cloud DLP.
InfoTypes
Les détecteurs d'infoType trouvent des données sensibles d'un certain type. Par exemple, le détecteur d'infoType intégré US_SOCIAL_SECURITY_NUMBER
de Cloud DLP identifie les numéros de sécurité sociale américains. En plus des détecteurs d'infoTypes intégrés, vous pouvez créer vos propres détecteurs d'infoTypes personnalisés.
Sous InfoTypes, choisissez le détecteur d'infoType qui correspond au type de données que vous souhaitez analyser. Nous vous déconseillons de laisser cette section vide. Cloud DLP analyse alors vos données avec un ensemble d'infoTypes par défaut, qui peut inclure des infoTypes dont vous n'avez pas besoin. Vous trouverez plus d'informations sur chaque détecteur dans la documentation de référence sur les détecteurs d'infoType.
Pour en savoir plus sur la gestion des infoTypes intégrés et personnalisés dans cette section, consultez la page Gérer les infoTypes via la console Google Cloud.
Ensembles de règles d'inspection
Inspection rulesets allow you to customize both built-in and custom infoType detectors using context rules. The two types of inspection rules are:
- Exclusion rules, which help exclude false or unwanted findings.
- Hotword rules, which help detect additional findings.
To add a new ruleset, first specify one or more built-in or custom infoType detectors in the InfoTypes section. These are the infoType detectors that your rulesets will be modifying. Then, do the following:
- Click in the Choose infoTypes field. The infoType or infoTypes you specified previously appear below the field in a menu, as shown here:
- Choose an infoType from the menu, and then click Add rule. A menu appears with the two options Hotword rule and Exclusion rule.

For hotword rules, choose Hotword rules. Then, do the following:
- In the Hotword field, enter a regular expression that Cloud DLP should look for.
- From the Hotword proximity menu, choose whether the hotword you entered is found before or after the chosen infoType.
- In Hotword distance from infoType, enter the approximate number of characters between the hotword and the chosen infoType.
- In Confidence level adjustment, choose whether to assign matches a fixed likelihood level, or to increase or decrease the default likelihood level by a certain amount.
For exclusion rules, choose Exclusion rules. Then, do the following:
- In the Exclude field, enter a regular expression (regex) that Cloud DLP should look for.
- From the Matching type menu, choose one of the following:
- Full match: The finding must completely match the regex.
- Partial match: A substring of the finding can match the regex.
- Inverse match: The finding doesn't match the regex.
You can add additional hotword or exclusion rules and rulesets to further refine your scan results.
Seuil de confiance
Chaque fois que Cloud DLP détecte une correspondance potentielle pour des données sensibles, il lui attribue une valeur de probabilité sur une échelle allant de "Très peu probable" à "Très probable". Lorsque vous définissez une valeur de probabilité ici, vous indiquez à Cloud DLP de ne rechercher que les données qui correspondent à cette valeur de probabilité ou à une valeur supérieure.
La valeur par défaut "Possible" est suffisante dans la plupart des cas. Si vous obtenez régulièrement des correspondances trop larges lorsque vous utilisez ce modèle, déplacez le curseur vers le haut. Si vous obtenez trop peu de correspondances, déplacez le curseur vers le bas.
Lorsque vous avez terminé, cliquez sur Continuer.
Ajouter des actions
À l'étape Ajouter des actions, sélectionnez une ou plusieurs actions que vous souhaitez que Cloud DLP effectue une fois la tâche terminée.
Vous pouvez configurer les actions suivantes:
Enregistrer dans BigQuery: enregistrez les résultats de la tâche DLP dans une table BigQuery. Avant de visualiser ou d'analyser les résultats, assurez-vous d'avoir terminé la tâche.
À chaque analyse, Cloud DLP enregistre les résultats d'analyse dans la table BigQuery que vous spécifiez. Les résultats exportés contiennent des détails sur l'emplacement et la probabilité de correspondance de chaque résultat. Si vous souhaitez que chaque résultat comprenne la chaîne correspondant au détecteur d'infoType, activez l'option Inclure les guillemets.
Si vous ne spécifiez pas d'ID de table, BigQuery attribue un nom par défaut à une nouvelle table la première fois que l'analyse s'exécute. Si vous spécifiez une table existante, Cloud DLP y ajoute les résultats d'analyse.
Si vous n'enregistrez pas les résultats dans BigQuery, ceux-ci ne contiennent que des statistiques sur le nombre et les infoTypes des résultats.
Lorsque des données sont écrites dans une table BigQuery, l'utilisation de la facturation et des quotas est appliquée au projet contenant la table de destination.
Publier sur Pub/Sub: publiez une notification contenant le nom de la tâche DLP en tant qu'attribut dans un canal Pub/Sub. Vous pouvez spécifier un ou plusieurs sujets auxquels envoyer le message de notification. Assurez-vous que le compte de service Cloud DLP qui exécute la tâche d'analyse dispose d'un accès en publication sur le sujet.
Publier dans Security Command Center: publier un résumé des résultats de la tâche dans Security Command Center. Pour en savoir plus, consultez la section Envoyer les résultats des analyses Cloud DLP à Security Command Center.
Publier dans Dataplex: envoyez les résultats de la tâche à Dataplex, le service de gestion des métadonnées de Google Cloud.
Notifier par e-mail: envoyez un e-mail lorsque la tâche est terminée. Cet e-mail est envoyé aux propriétaires de projets IAM et aux contacts essentiels techniques.
Publier sur Cloud Monitoring: envoyez les résultats d'inspection à Cloud Monitoring dans la suite Google Cloud Operations.
Créer une copie anonymisée: anonymisez tous les résultats dans les données inspectées et écrivez le contenu anonymisé dans un nouveau fichier. Vous pouvez ensuite utiliser la copie anonymisée dans vos processus métier à la place des données contenant des informations sensibles. Pour en savoir plus, consultez la section Créer une copie anonymisée des données Cloud Storage à l'aide de Cloud DLP dans la console Google Cloud.
Pour en savoir plus, consultez Actions.
Lorsque vous avez fini de sélectionner des actions, cliquez sur Continue (Continuer).
Examen
La section Examen contient un résumé au format JSON des paramètres de tâche que vous venez de spécifier.
Cliquez sur Créer pour créer la tâche (si vous n'avez pas spécifié de programmation) et exécuter la tâche une fois. La page d'informations de la tâche apparaît, qui contient son état et d'autres informations. Si la tâche est en cours d'exécution, vous pouvez cliquer sur le bouton Annuler pour l'arrêter. Vous pouvez également supprimer la tâche en cliquant sur Supprimer.
Pour revenir à la page principale Cloud DLP, cliquez sur la flèche Retour dans la console Google Cloud.
Protocole
Une tâche est représentée dans l'API DLP par la ressource DlpJobs
. Vous pouvez créer une tâche à l'aide de la méthode projects.dlpJobs.create
de la ressource DlpJob
.
Cet exemple de code JSON peut être envoyé dans une requête POST au point de terminaison REST Cloud DLP. Cet exemple de code JSON montre comment créer une tâche dans Cloud DLP. La tâche est une analyse d'inspection Datastore.
Pour l'essayer rapidement, vous pouvez utiliser l'explorateur d'API intégré ci-dessous. N'oubliez pas que la requête aboutit, même une requête créée dans l'explorateur d'API, créera une tâche. Pour obtenir des informations générales sur l'utilisation du format JSON pour envoyer des requêtes à l'API DLP, consultez le guide de démarrage rapide au format JSON.
Entrée JSON :
{
"inspectJob": {
"storageConfig": {
"bigQueryOptions": {
"tableReference": {
"projectId": "bigquery-public-data",
"datasetId": "san_francisco_sfpd_incidents",
"tableId": "sfpd_incidents"
}
},
"timespanConfig": {
"startTime": "2020-01-01T00:00:01Z",
"endTime": "2020-01-31T23:59:59Z",
"timestampField": {
"name": "timestamp"
}
}
},
"inspectConfig": {
"infoTypes": [
{
"name": "PERSON_NAME"
},
{
"name": "STREET_ADDRESS"
}
],
"excludeInfoTypes": false,
"includeQuote": true,
"minLikelihood": "LIKELY"
},
"actions": [
{
"saveFindings": {
"outputConfig": {
"table": {
"projectId": "[PROJECT-ID]",
"datasetId": "[DATASET-ID]"
}
}
}
}
]
}
}
Sortie JSON :
La sortie suivante indique que la tâche a été créé avec succès.
{
"name": "projects/[PROJECT-ID]/dlpJobs/[JOB-ID]",
"type": "INSPECT_JOB",
"state": "PENDING",
"inspectDetails": {
"requestedOptions": {
"snapshotInspectTemplate": {},
"jobConfig": {
"storageConfig": {
"bigQueryOptions": {
"tableReference": {
"projectId": "bigquery-public-data",
"datasetId": "san_francisco_sfpd_incidents",
"tableId": "sfpd_incidents"
}
},
"timespanConfig": {
"startTime": "2020-01-01T00:00:01Z",
"endTime": "2020-01-31T23:59:59Z",
"timestampField": {
"name": "timestamp"
}
}
},
"inspectConfig": {
"infoTypes": [
{
"name": "PERSON_NAME"
},
{
"name": "STREET_ADDRESS"
}
],
"minLikelihood": "LIKELY",
"limits": {},
"includeQuote": true
},
"actions": [
{
"saveFindings": {
"outputConfig": {
"table": {
"projectId": "[PROJECT-ID]",
"datasetId": "[DATASET-ID]",
"tableId": "[TABLE-ID]"
}
}
}
}
]
}
},
"result": {}
},
"createTime": "2020-07-10T07:26:33.643Z"
}
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Créer un déclencheur de tâche :
Pour créer un déclencheur de tâche Cloud DLP, procédez comme suit :
Console
Dans la console Google Cloud, accédez à la page Protection contre la perte de données.
Cliquez sur l'onglet Inspection, puis sur Créer une tâche et des déclencheurs de tâches.
Vous pouvez également cliquer sur le bouton suivant :
La page "Créer un déclencheur de tâche" contient les sections suivantes :
Choisir les données d'entrée
Nom
Saisissez un nom pour le déclencheur de tâche. Vous pouvez utiliser des lettres, des chiffres et des traits d'union. Nommer votre déclencheur de tâche est facultatif. Si vous ne saisissez pas de nom, Cloud DLP attribuera au déclencheur de tâche un identifiant unique.
Emplacement
Dans le menu Type de stockage, choisissez le type de dépôt qui stockera les données que vous souhaitez analyser :
- Cloud Storage : saisissez l'URL du bucket que vous souhaitez analyser, ou sélectionnez Inclure/Exclure dans le menu Type d'emplacement, puis cliquez sur Parcourir pour accéder au bucket ou au sous-dossier à analyser. Cochez la case Analyser le dossier de manière récursive pour analyser le répertoire spécifié et tous les répertoires contenus. Ne cochez pas la case si vous ne souhaitez analyser que le répertoire spécifié.
- BigQuery : saisissez les identifiants du projet, de l'ensemble de données et de la table à analyser.
- Datastore : saisissez les identifiants du projet, de l'espace de noms (facultatif) et du genre à analyser.
Échantillonnage
L'échantillonnage est une méthode facultative permettant d'économiser des ressources si vous disposez d'une très grande quantité de données.
Sous Sampling (Échantillonnage), vous pouvez choisir d’analyser toutes les données sélectionnées ou d'échantillonner les données en analysant un certain pourcentage. L'échantillonnage fonctionne différemment selon le type de dépôt de stockage utilisé pour l'analyse :
- Pour BigQuery, vous pouvez échantillonner un sous-ensemble du nombre total de lignes sélectionnées, correspondant au pourcentage spécifié de fichiers à inclure dans l'analyse.
- Pour Cloud Storage, si un fichier dépasse la taille spécifiée dans Max byte size to scan per file (Taille d'octets maximale à analyser par fichier), Cloud DLP effectue l'analyse jusqu'à cette valeur, puis passe au fichier suivant.
Pour activer l'échantillonnage, choisissez l'une des options suivantes dans le premier menu :
- Démarrer l'échantillonnage à partir du début : Cloud DLP lance l'analyse partielle au début des données. Pour BigQuery, l'analyse démarre à la première ligne. Pour Cloud Storage, l'analyse démarre au début de chaque fichier et s'arrête une fois que Cloud DLP a analysé les données jusqu'à la taille de fichier maximale spécifiée (voir ci-dessus).
- Démarrer l'échantillonnage à partir d'un emplacement aléatoire : Cloud DLP démarre l'analyse partielle à partir d'un emplacement aléatoire dans les données. Pour BigQuery, l'analyse se lance sur une ligne au hasard. Pour Cloud Storage, ce paramètre ne s'applique qu'aux fichiers qui dépassent une taille maximale spécifiée. Cloud DLP analyse intégralement les fichiers dont la taille est inférieure à la taille maximale indiquée. Les fichiers dont la taille dépasse la taille maximale autorisée sont analysés jusqu'à concurrence de cette taille maximale.
Pour effectuer une analyse partielle, vous devez également choisir le pourcentage de données que vous souhaitez analyser. Utilisez le curseur pour définir le pourcentage.
Configuration avancée
Lorsque vous créez un déclencheur de tâche pour une analyse des buckets Cloud Storage ou des tables BigQuery, vous pouvez affiner votre recherche en spécifiant une configuration avancée. Plus précisément, vous pouvez configurer les éléments suivants :
- Fichiers (Cloud Storage seulement) : types de fichiers à analyser, y compris les fichiers texte, les fichiers binaires et les fichiers image.
- Champs d'identification (BigQuery uniquement) : identifiants de ligne uniques dans la table.
- Pour Cloud Storage, si un fichier dépasse la taille spécifiée dans Max byte size to scan per file (Taille d'octets maximale à analyser par fichier), Cloud DLP effectue l'analyse jusqu'à cette valeur, puis passe au fichier suivant.
Pour activer l'échantillonnage, choisissez le pourcentage de données à analyser. Utilisez le curseur pour définir le pourcentage. Sélectionnez ensuite l'une des options suivantes dans le premier menu :
- Démarrer l'échantillonnage à partir du début : Cloud DLP lance l'analyse partielle au début des données. Pour BigQuery, l'analyse démarre à la première ligne. Pour Cloud Storage, l'analyse démarre au début de chaque fichier et s'arrête une fois que Cloud DLP a analysé les données jusqu'à la taille de fichier maximale spécifiée (voir ci-dessus).
- Démarrer l'échantillonnage à partir d'un emplacement aléatoire : Cloud DLP démarre l'analyse partielle à partir d'un emplacement aléatoire dans les données. Pour BigQuery, l'analyse se lance sur une ligne au hasard. Pour Cloud Storage, ce paramètre ne s'applique qu'aux fichiers qui dépassent une taille maximale spécifiée. Cloud DLP analyse intégralement les fichiers dont la taille est inférieure à la taille maximale indiquée. Les fichiers dont la taille dépasse la taille maximale autorisée sont analysés jusqu'à concurrence de cette taille maximale.
Fichiers
Pour les fichiers stockés dans Cloud Storage, l'onglet Files (Fichiers) permet de spécifier les types à inclure dans l'analyse.
Vous pouvez choisir parmi des fichiers binaires, texte, image, Microsoft Word, Microsoft Excel, Microsoft Powerpoint, PDF et Apache Avro. Pour obtenir la liste exhaustive des extensions de fichiers que Cloud DLP peut analyser dans des buckets Cloud Storage, consultez la section FileType
.
Si vous sélectionnez Binaire, Cloud DLP analyse les fichiers de types non reconnus.
Champs d'identification
Pour les tables dans BigQuery, vous pouvez demander à Cloud DLP d'inclure les valeurs des colonnes de clé primaire de la table dans les résultats du champ Identifying fields (Champs d'identification). Vous pouvez ainsi associer les résultats aux lignes de table qui les contiennent.
Saisissez les noms des colonnes qui identifient de manière unique chaque ligne du tableau. Si nécessaire, spécifiez des champs imbriqués à l'aide de la notation par points. Vous pouvez ajouter autant de champs que vous le souhaitez.
Vous devez également activer l'action Enregistrer dans BigQuery pour exporter les résultats vers BigQuery. Lorsque les résultats sont exportés vers BigQuery, chaque résultat contient les valeurs correspondantes des champs d'identification. Pour en savoir plus, consultez la section identifyingFields
.
Configurer la détection
La section Configurer la détection vous permet de spécifier les types de données sensibles que vous souhaitez analyser. Cette section est facultative. Si vous ne la complétez pas, Cloud DLP recherche un ensemble d'infoTypes par défaut dans vos données.
Modèle
Vous pouvez également exploiter un modèle Cloud DLP pour réutiliser les informations de configuration spécifiées précédemment.
Si vous avez déjà créé un modèle que vous souhaitez utiliser, cliquez sur le champ Nom du modèle pour afficher une liste des modèles d'inspection existants. Choisissez ou saisissez le nom du modèle que vous souhaitez utiliser.
Pour plus d'informations sur la création de modèles, reportez-vous à la section Créer des modèles d'inspection Cloud DLP.
InfoTypes
Les détecteurs d'infoType trouvent des données sensibles d'un certain type. Par exemple, le détecteur d'infoType intégré US_SOCIAL_SECURITY_NUMBER
de Cloud DLP identifie les numéros de sécurité sociale américains. En plus des détecteurs d'infoType intégrés, vous pouvez créer vos propres détecteurs d'infoType personnalisés.
Sous InfoTypes, choisissez le détecteur d'infoType qui correspond au type de données que vous souhaitez analyser. Vous pouvez également laisser ce champ vide pour rechercher tous les infoTypes par défaut. Vous trouverez plus d'informations sur chaque détecteur dans la documentation de référence sur les détecteurs d'infoType.
Vous pouvez également ajouter des détecteurs d'infoType personnalisés dans la section InfoTypes personnalisés, et personnaliser les détecteurs d'infoType intégrés et personnalisés dans la section Ensembles de règles d'inspection.
InfoTypes personnalisés
Ensembles de règles d'inspection
Inspection rulesets allow you to customize both built-in and custom infoType detectors using context rules. The two types of inspection rules are:
- Exclusion rules, which help exclude false or unwanted findings.
- Hotword rules, which help detect additional findings.
To add a new ruleset, first specify one or more built-in or custom infoType detectors in the InfoTypes section. These are the infoType detectors that your rulesets will be modifying. Then, do the following:
- Click in the Choose infoTypes field. The infoType or infoTypes you specified previously appear below the field in a menu, as shown here:
- Choose an infoType from the menu, and then click Add rule. A menu appears with the two options Hotword rule and Exclusion rule.

For hotword rules, choose Hotword rules. Then, do the following:
- In the Hotword field, enter a regular expression that Cloud DLP should look for.
- From the Hotword proximity menu, choose whether the hotword you entered is found before or after the chosen infoType.
- In Hotword distance from infoType, enter the approximate number of characters between the hotword and the chosen infoType.
- In Confidence level adjustment, choose whether to assign matches a fixed likelihood level, or to increase or decrease the default likelihood level by a certain amount.
For exclusion rules, choose Exclusion rules. Then, do the following:
- In the Exclude field, enter a regular expression (regex) that Cloud DLP should look for.
- From the Matching type menu, choose one of the following:
- Full match: The finding must completely match the regex.
- Partial match: A substring of the finding can match the regex.
- Inverse match: The finding doesn't match the regex.
You can add additional hotword or exclusion rules and rulesets to further refine your scan results.
Seuil de confiance
Chaque fois que Cloud DLP détecte une correspondance potentielle pour des données sensibles, il lui attribue une valeur de probabilité sur une échelle allant de "Très peu probable" à "Très probable". Lorsque vous définissez une valeur de probabilité ici, vous indiquez à Cloud DLP de ne rechercher que les données qui correspondent à cette valeur de probabilité ou à une valeur supérieure.
La valeur par défaut "Possible" est suffisante dans la plupart des cas. Si vous obtenez régulièrement des correspondances trop larges lorsque vous utilisez ce modèle, déplacez le curseur vers le haut. Si vous obtenez trop peu de correspondances, déplacez le curseur vers le bas.
Lorsque vous avez terminé, cliquez sur Continuer.
Ajouter des actions
À l'étape Ajouter des actions, sélectionnez une ou plusieurs actions que vous souhaitez que Cloud DLP effectue une fois la tâche terminée.
Vous pouvez configurer les actions suivantes:
Enregistrer dans BigQuery: enregistrez les résultats de la tâche DLP dans une table BigQuery. Avant de visualiser ou d'analyser les résultats, assurez-vous d'avoir terminé la tâche.
À chaque analyse, Cloud DLP enregistre les résultats d'analyse dans la table BigQuery que vous spécifiez. Les résultats exportés contiennent des détails sur l'emplacement et la probabilité de correspondance de chaque résultat. Si vous souhaitez que chaque résultat comprenne la chaîne correspondant au détecteur d'infoType, activez l'option Inclure les guillemets.
Si vous ne spécifiez pas d'ID de table, BigQuery attribue un nom par défaut à une nouvelle table la première fois que l'analyse s'exécute. Si vous spécifiez une table existante, Cloud DLP y ajoute les résultats d'analyse.
Si vous n'enregistrez pas les résultats dans BigQuery, ceux-ci ne contiennent que des statistiques sur le nombre et les infoTypes des résultats.
Lorsque des données sont écrites dans une table BigQuery, l'utilisation de la facturation et des quotas est appliquée au projet contenant la table de destination.
Publier sur Pub/Sub: publiez une notification contenant le nom de la tâche DLP en tant qu'attribut dans un canal Pub/Sub. Vous pouvez spécifier un ou plusieurs sujets auxquels envoyer le message de notification. Assurez-vous que le compte de service Cloud DLP qui exécute la tâche d'analyse dispose d'un accès en publication sur le sujet.
Publier dans Security Command Center: publier un résumé des résultats de la tâche dans Security Command Center. Pour en savoir plus, consultez la section Envoyer les résultats des analyses Cloud DLP à Security Command Center.
Publier dans Dataplex: envoyez les résultats de la tâche à Dataplex, le service de gestion des métadonnées de Google Cloud.
Notifier par e-mail: envoyez un e-mail lorsque la tâche est terminée. Cet e-mail est envoyé aux propriétaires de projets IAM et aux contacts essentiels techniques.
Publier sur Cloud Monitoring: envoyez les résultats d'inspection à Cloud Monitoring dans la suite Google Cloud Operations.
Créer une copie anonymisée: anonymisez tous les résultats dans les données inspectées et écrivez le contenu anonymisé dans un nouveau fichier. Vous pouvez ensuite utiliser la copie anonymisée dans vos processus métier à la place des données contenant des informations sensibles. Pour en savoir plus, consultez la section Créer une copie anonymisée des données Cloud Storage à l'aide de Cloud DLP dans la console Google Cloud.
Pour en savoir plus, consultez Actions.
Lorsque vous avez fini de sélectionner des actions, cliquez sur Continue (Continuer).
Horaires
Dans la section Programmation, vous disposez de deux options :
- Specify timespan (Spécifier l'intervalle de temps) : cette option limite par date le nombre de fichiers ou de lignes à analyser. Cliquez sur Heure de début pour spécifier l'horodatage de fichier le plus ancien à inclure. Laissez cette valeur vide pour spécifier tous les fichiers. Cliquez sur Heure de fin pour spécifier le dernier horodatage de fichier à inclure. Laissez cette valeur vide pour ne spécifier aucune limite d'horodatage postérieure.
- Créer un déclencheur pour exécuter la tâche selon une programmation régulière : cette option crée le déclencheur de tâche et le configure pour exécuter la tâche selon le calendrier spécifié. La valeur par défaut est également la valeur minimale, soit 24 heures. La valeur maximale est de 540 jours. Si vous souhaitez que Cloud DLP n'analyse que les nouveaux fichiers ou les nouvelles lignes, cochez la case Limiter les analyses au nouveau contenu.
Examen
La section Examen contient un résumé au format JSON des paramètres de tâche que vous venez de spécifier.
Cliquez sur Créer pour créer le déclencheur de tâche (si vous avez spécifié une programmation). La page d'informations du déclencheur de tâche apparaît, qui contient l'état et d'autres informations. Si la tâche est en cours d'exécution, vous pouvez cliquer sur le bouton Annuler pour l'arrêter. Vous pouvez également supprimer le déclencheur de tâche en cliquant sur Supprimer.
Pour revenir à la page principale Cloud DLP, cliquez sur la flèche Retour dans la console Google Cloud.
Protocole
Un déclencheur de tâche est représenté dans l'API DLP par la ressource JobTrigger
. Pour créer un déclencheur de tâche, vous pouvez utiliser la méthode projects.jobTriggers.create
de la ressource JobTrigger
.
Cet exemple de code JSON peut être envoyé dans une requête POST au point de terminaison REST Cloud DLP. Il montre comment créer un déclencheur de tâche dans Cloud DLP. La tâche lancée par ce déclencheur est une analyse d'inspection Cloud Datastore. Le déclencheur de tâche créé est exécuté toutes les 86 400 secondes (soit toutes les 24 heures).
Pour l'essayer rapidement, vous pouvez utiliser l'explorateur d'API intégré ci-dessous. Gardez à l'esprit qu'une requête réussie, même dans l'API Explorer, entraînera la création d'un déclencheur de tâche planifiée. Pour obtenir des informations générales sur l'utilisation du format JSON pour envoyer des requêtes à l'API DLP, consultez le guide de démarrage JSON.
Entrée JSON :
{
"jobTrigger":{
"displayName":"JobTrigger1",
"description":"Starts a DLP scan job of a Datastore kind",
"triggers":[
{
"schedule":{
"recurrencePeriodDuration":"86400s"
}
}
],
"status":"HEALTHY",
"inspectJob":{
"storageConfig":{
"datastoreOptions":{
"kind":{
"name":"Example-Kind"
},
"partitionId":{
"projectId":"[PROJECT_ID]",
"namespaceId":"[NAMESPACE_ID]"
}
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"PHONE_NUMBER"
}
],
"excludeInfoTypes":false,
"includeQuote":true,
"minLikelihood":"LIKELY"
},
"actions":[
{
"saveFindings":{
"outputConfig":{
"table":{
"projectId":"[PROJECT_ID]",
"datasetId":"[BIGQUERY_DATASET_NAME]",
"tableId":"[BIGQUERY_TABLE_NAME]"
}
}
}
}
]
}
}
}
Sortie JSON :
La sortie suivante indique que le déclencheur de tâche a été créé avec succès.
{
"name":"projects/[PROJECT_ID]/jobTriggers/[JOB_TRIGGER_NAME]",
"displayName":"JobTrigger1",
"description":"Starts a DLP scan job of a Datastore kind",
"inspectJob":{
"storageConfig":{
"datastoreOptions":{
"partitionId":{
"projectId":"[PROJECT_ID]",
"namespaceId":"[NAMESPACE_ID]"
},
"kind":{
"name":"Example-Kind"
}
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"PHONE_NUMBER"
}
],
"minLikelihood":"LIKELY",
"limits":{
},
"includeQuote":true
},
"actions":[
{
"saveFindings":{
"outputConfig":{
"table":{
"projectId":"[PROJECT_ID]",
"datasetId":"[BIGQUERY_DATASET_NAME]",
"tableId":"[BIGQUERY_TABLE_NAME]"
}
}
}
}
]
},
"triggers":[
{
"schedule":{
"recurrencePeriodDuration":"86400s"
}
}
],
"createTime":"2018-11-30T01:52:41.171857Z",
"updateTime":"2018-11-30T01:52:41.171857Z",
"status":"HEALTHY"
}
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Node.js
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Go
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
PHP
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
C#
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Répertorier toutes les tâches
Pour répertorier toutes les tâches du projet en cours, procédez comme suit :
Console
Dans la console Google Cloud, accédez à la page Protection contre la perte de données.
Cliquez sur l'onglet Inspection, puis sur le sous-onglet Inspecter les tâches.
La console affiche la liste de toutes les tâches du projet en cours, avec leur identifiant, leur état, leur date de création et leur heure de fin. Vous pouvez obtenir plus d'informations sur une tâche (et consulter un résumé de ses résultats) en cliquant sur son identifiant.
Protocole
La ressource DlpJob
possède une méthode projects.dlpJobs.list
qui vous permet de répertorier toutes les tâches.
Pour répertorier toutes les tâches actuellement définies dans votre projet, envoyez une requête GET au point de terminaison dlpJobs
, comme indiqué ici :
URL :
GET https://dlp.googleapis.com/v2/projects/[PROJECT-ID]/dlpJobs?key={YOUR_API_KEY}
Le résultat JSON suivant répertorie l'une des tâches renvoyées. Notez que la structure de la tâche reflète celle de la ressource DlpJob
.
Sortie JSON :
{
"jobs":[
{
"name":"projects/[PROJECT-ID]/dlpJobs/i-5270277269264714623",
"type":"INSPECT_JOB",
"state":"DONE",
"inspectDetails":{
"requestedOptions":{
"snapshotInspectTemplate":{
},
"jobConfig":{
"storageConfig":{
"cloudStorageOptions":{
"fileSet":{
"url":"[CLOUD-STORAGE-URL]"
},
"fileTypes":[
"FILE_TYPE_UNSPECIFIED"
],
"filesLimitPercent":100
},
"timespanConfig":{
"startTime":"2019-09-08T22:43:16.623Z",
"enableAutoPopulationOfTimespanConfig":true
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"US_SOCIAL_SECURITY_NUMBER"
},
{
"name":"CANADA_SOCIAL_INSURANCE_NUMBER"
}
],
"minLikelihood":"LIKELY",
"limits":{
},
"includeQuote":true
},
"actions":[
{
"saveFindings":{
"outputConfig":{
"table":{
"projectId":"[PROJECT-ID]",
"datasetId":"[DATASET-ID]",
"tableId":"[TABLE-ID]"
}
}
}
}
]
}
},
"result":{
...
}
},
"createTime":"2019-09-09T22:43:16.918Z",
"startTime":"2019-09-09T22:43:16.918Z",
"endTime":"2019-09-09T22:43:53.091Z",
"jobTriggerName":"projects/[PROJECT-ID]/jobTriggers/sample-trigger2"
},
...
Pour l'essayer rapidement, vous pouvez utiliser l'explorateur d'API intégré ci-dessous. Pour obtenir des informations générales sur l'utilisation de JSON pour envoyer des requêtes à l'API DLP, consultez le guide de démarrage rapide au format JSON.
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Node.js
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Go
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
PHP
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
C#
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Répertorier tous les déclencheurs de tâche
Pour répertorier tous les déclencheurs de tâche du projet en cours, procédez comme suit :
Console
Dans la console Google Cloud, accédez à la page Protection contre la perte de données.
Accéder à la protection contre la perte de données
Dans l'onglet Inspection, dans le sous-onglet Job déclencheurs (Déclencheurs de tâche), la console affiche la liste de tous les déclencheurs de tâche pour le projet en cours.
Protocole
La ressource JobTrigger
possède une méthode projects.jobTriggers.list
qui vous permet de répertorier tous les déclencheurs de tâche.
Pour répertorier tous les déclencheurs de tâche actuellement définis dans votre projet, envoyez une requête GET au point de terminaison jobTriggers
, comme indiqué ici :
URL :
GET https://dlp.googleapis.com/v2/projects/[PROJECT-ID]/jobTriggers?key={YOUR_API_KEY}
La sortie JSON suivante indique la présence du déclencheur de tâche que nous avons créé dans la section précédente. Notez que la structure du déclencheur de tâche reflète celle de la ressource JobTrigger
.
Sortie JSON :
{
"jobTriggers":[
{
"name":"projects/[PROJECT_ID]/jobTriggers/[JOB_TRIGGER_NAME]",
"displayName":"JobTrigger1",
"description":"Starts a DLP scan job of a Datastore kind",
"inspectJob":{
"storageConfig":{
"datastoreOptions":{
"partitionId":{
"projectId":"[PROJECT_ID]",
"namespaceId":"[NAMESPACE_ID]"
},
"kind":{
"name":"Example-Kind"
}
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"PHONE_NUMBER"
}
],
"minLikelihood":"LIKELY",
"limits":{
},
"includeQuote":true
},
"actions":[
{
"saveFindings":{
"outputConfig":{
"table":{
"projectId":"[PROJECT_ID]",
"datasetId":"[BIGQUERY_DATASET_NAME]",
"tableId":"[BIGQUERY_TABLE_NAME]"
}
}
}
}
]
},
"triggers":[
{
"schedule":{
"recurrencePeriodDuration":"86400s"
}
}
],
"createTime":"2018-11-30T01:52:41.171857Z",
"updateTime":"2018-11-30T01:52:41.171857Z",
"status":"HEALTHY"
},
...
],
"nextPageToken":"KkwKCQjivJ2UpPreAgo_Kj1wcm9qZWN0cy92ZWx2ZXR5LXN0dWR5LTE5NjEwMS9qb2JUcmlnZ2Vycy8xNTA5NzEyOTczMDI0MDc1NzY0"
}
Pour l'essayer rapidement, vous pouvez utiliser l'explorateur d'API intégré ci-dessous. Pour obtenir des informations générales sur l'utilisation de JSON pour envoyer des requêtes à l'API DLP, consultez le guide de démarrage rapide au format JSON.
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Node.js
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Go
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
PHP
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
C#
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Supprimer une offre d'emploi
Pour supprimer une tâche de votre projet, y compris ses résultats, procédez comme suit : Tous les résultats enregistrés en externe (dans BigQuery, par exemple) ne sont pas modifiés par cette opération.
Console
Dans la console Google Cloud, accédez à la page Protection contre la perte de données.
Cliquez sur l'onglet Inspection, puis sur le sous-onglet Inspecter les tâches. La console Google Cloud affiche la liste de toutes les tâches du projet en cours.
Dans la colonne Actions associée au déclencheur de tâche que vous souhaitez supprimer, cliquez sur le menu Autres actions (représenté par trois points disposés verticalement)
, puis cliquez sur Delete (Supprimer).
Vous pouvez également cliquer sur l'identifiant de la tâche à supprimer dans la liste des tâches. Sur la page d'informations de la tâche, cliquez sur Delete (Supprimer).
Protocole
Pour supprimer une tâche du projet en cours, envoyez une requête DELETE au point de terminaison dlpJobs
, comme indiqué ici. Remplacez le champ [JOB-IDENTIFIER]
par l'identifiant de la tâche, qui commence par i-
.
URL :
DELETE https://dlp.googleapis.com/v2/projects/[PROJECT-ID]/dlpJobs/[JOB-IDENTIFIER]?key={YOUR_API_KEY}
Si la requête aboutit, l'API DLP renvoie une réponse positive. Pour vérifier que la tâche a bien été supprimée, répertoriez toutes les tâches.
Pour l'essayer rapidement, vous pouvez utiliser l'explorateur d'API intégré ci-dessous. Pour obtenir des informations générales sur l'utilisation de JSON pour envoyer des requêtes à l'API DLP, consultez le guide de démarrage rapide au format JSON.
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Node.js
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Go
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
PHP
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
C#
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Supprimer un déclencheur de tâche
Console
Dans la console Google Cloud, accédez à la page Protection contre la perte de données.
Accéder à la protection contre la perte de données
Dans l'onglet Inspection, dans le sous-onglet Déclencheurs de tâche, la console affiche la liste de tous les déclencheurs de tâche pour le projet en cours.
Dans la colonne Actions associée au déclencheur de tâche que vous souhaitez supprimer, cliquez sur le menu Autres actions (représenté par trois points disposés verticalement)
, puis cliquez sur Delete (Supprimer).
Sinon, dans la liste des déclencheurs de tâche, cliquez sur le nom de la tâche que vous souhaitez supprimer. Sur la page d'informations du déclencheur de tâche, cliquez sur Supprimer.
Protocole
Pour supprimer un déclencheur de tâche du projet en cours, envoyez une requête DELETE au point de terminaison jobTriggers
, comme indiqué ici. Remplacez le champ [JOB-TRIGGER-NAME]
par le nom du déclencheur de tâche.
URL :
DELETE https://dlp.googleapis.com/v2/projects/[PROJECT-ID]/jobTriggers/[JOB-TRIGGER-NAME]?key={YOUR_API_KEY}
Si la requête aboutit, l'API DLP renvoie une réponse positive. Pour vérifier que le déclencheur de tâche a bien été supprimé, répertoriez tous les déclencheurs de tâche.
Pour l'essayer rapidement, vous pouvez utiliser l'explorateur d'API intégré ci-dessous. Pour obtenir des informations générales sur l'utilisation de JSON pour envoyer des requêtes à l'API DLP, consultez le guide de démarrage rapide au format JSON.
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Node.js
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Python
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Go
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
PHP
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
C#
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Obtenir une tâche
Pour obtenir une tâche à partir de votre projet, ainsi que ses résultats, procédez comme suit : Tous les résultats enregistrés en externe (dans BigQuery, par exemple) ne sont pas modifiés par cette opération.
Protocole
Pour obtenir une tâche à partir du projet actuel, envoyez une requête GET au point de terminaison dlpJobs
, comme indiqué ici. Remplacez le champ [JOB-IDENTIFIER]
par l'identifiant de la tâche, qui commence par i-
.
URL :
GET https://dlp.googleapis.com/v2/projects/[PROJECT-ID]/dlpJobs/[JOB-IDENTIFIER]?key={YOUR_API_KEY}
Si la requête aboutit, l'API DLP renvoie une réponse positive.
Pour l'essayer rapidement, vous pouvez utiliser l'explorateur d'API intégré ci-dessous. Pour obtenir des informations générales sur l'utilisation de JSON pour envoyer des requêtes à l'API DLP, consultez le guide de démarrage rapide au format JSON.
Java
Pour savoir comment installer et utiliser la bibliothèque cliente pour Cloud DLP, consultez Bibliothèques clientes Cloud DLP.
Pour vous authentifier auprès de Cloud DLP, configurez les Identifiants par défaut de l'application. Pour en savoir plus, consultez Configurer l'authentification pour un environnement de développement local.
Forcer l'exécution immédiate d'un déclencheur de tâche
Une fois le déclencheur de tâche créé, vous pouvez forcer son exécution immédiate à des fins de test. Pour ce faire, exécutez la commande suivante:
curl --request POST \
-H "Content-Type: application/json" \
-H "Accept: application/json" \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "X-Goog-User-Project: PROJECT_ID" \
'https://dlp.googleapis.com/v2/JOB_TRIGGER_NAME:activate'
Remplacez les éléments suivants :
- PROJECT_ID: ID du projet Google Cloud à facturer les frais d'accès associés à la requête.
- JOB_TRIGGER_NAME: nom complet de la ressource du déclencheur de tâche, par exemple
projects/my-project/locations/global/jobTriggers/123456789
.
Mettre à jour un déclencheur de tâche existant
En plus de créer, répertorier et supprimer des déclencheurs de tâche, vous pouvez également les mettre à jour. Pour modifier la configuration d'un déclencheur de tâche existant, procédez comme suit :
Console
Dans la console Google Cloud, accédez à la page Protection contre la perte de données.
Cliquez sur l'onglet Inspection, puis sur le sous-onglet Tâche déclencheurs.
La console affiche une liste de tous les déclencheurs de tâche du projet en cours.
Dans la colonne Actions du déclencheur de tâche que vous souhaitez supprimer, cliquez sur Plus more_vert, puis sur Afficher les détails
Sur la page de détail du déclencheur de tâche, cliquez sur Modifier.
Sur la page de modification du déclencheur, vous pouvez modifier l'emplacement des données d'entrée, les détails de détection (modèles, info-types ou probabilités), les actions post-analyse et la programmation. Une fois les modifications terminées, cliquez sur Enregistrer.
Protocole
Utilisez la méthode projects.jobTriggers.patch
pour envoyer de nouvelles valeurs JobTrigger
à l'API DLP afin de mettre à jour ces valeurs dans un déclencheur de tâche spécifié.
Par exemple, considérons le déclencheur de tâche simple ci-après. Ce code JSON représente le déclencheur de tâche et a été renvoyé après l'envoi d'une requête GET au point de terminaison du déclencheur de tâche du projet actuel.
Sortie JSON :
{
"name":"projects/[PROJECT_ID]/jobTriggers/[JOB_TRIGGER_NAME]",
"inspectJob":{
"storageConfig":{
"cloudStorageOptions":{
"fileSet":{
"url":"gs://dlptesting/*"
},
"fileTypes":[
"FILE_TYPE_UNSPECIFIED"
],
"filesLimitPercent":100
},
"timespanConfig":{
"enableAutoPopulationOfTimespanConfig":true
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"US_SOCIAL_SECURITY_NUMBER"
}
],
"minLikelihood":"POSSIBLE",
"limits":{
}
},
"actions":[
{
"jobNotificationEmails":{
}
}
]
},
"triggers":[
{
"schedule":{
"recurrencePeriodDuration":"86400s"
}
}
],
"createTime":"2019-03-06T21:19:45.774841Z",
"updateTime":"2019-03-06T21:19:45.774841Z",
"status":"HEALTHY"
}
Le code JSON suivant, lorsqu'il est envoyé avec une requête PATCH au point de terminaison spécifié, met à jour le déclencheur de tâche considéré avec un nouvel infoType à analyser, ainsi qu'une nouvelle valeur minimale de probabilité. Notez que vous devez également spécifier l'attribut updateMask
avec une valeur au format FieldMask
.
Entrée JSON :
PATCH https://dlp.googleapis.com/v2/projects/[PROJECT_ID]/jobTriggers/[JOB_TRIGGER_NAME]?key={YOUR_API_KEY}
{
"jobTrigger":{
"inspectJob":{
"inspectConfig":{
"infoTypes":[
{
"name":"US_INDIVIDUAL_TAXPAYER_IDENTIFICATION_NUMBER"
}
],
"minLikelihood":"LIKELY"
}
}
},
"updateMask":"inspectJob(inspectConfig(infoTypes,minLikelihood))"
}
Une fois que vous avez envoyé ce code JSON à l'URL spécifiée, les lignes ci-dessous représentant le déclencheur de tâche mis à jour sont renvoyées. Notez que les valeurs d'infoType et de probabilité d'origine ont été remplacées par les nouvelles valeurs.
Sortie JSON :
{
"name":"projects/[PROJECT_ID]/jobTriggers/[JOB_TRIGGER_NAME]",
"inspectJob":{
"storageConfig":{
"cloudStorageOptions":{
"fileSet":{
"url":"gs://dlptesting/*"
},
"fileTypes":[
"FILE_TYPE_UNSPECIFIED"
],
"filesLimitPercent":100
},
"timespanConfig":{
"enableAutoPopulationOfTimespanConfig":true
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"US_INDIVIDUAL_TAXPAYER_IDENTIFICATION_NUMBER"
}
],
"minLikelihood":"LIKELY",
"limits":{
}
},
"actions":[
{
"jobNotificationEmails":{
}
}
]
},
"triggers":[
{
"schedule":{
"recurrencePeriodDuration":"86400s"
}
}
],
"createTime":"2019-03-06T21:19:45.774841Z",
"updateTime":"2019-03-06T21:27:01.650183Z",
"lastRunTime":"1970-01-01T00:00:00Z",
"status":"HEALTHY"
}
Pour l'essayer rapidement, vous pouvez utiliser l'explorateur d'API intégré ci-dessous. Pour obtenir des informations générales sur l'utilisation de JSON pour envoyer des requêtes à l'API DLP, consultez le guide de démarrage rapide au format JSON.
Latence de la tâche
Aucun objectif de niveau de service (SLO) n'est garanti pour les tâches et les déclencheurs de tâches. La latence dépend de plusieurs facteurs, y compris la quantité de données à analyser, le dépôt de stockage analysé, le type et le nombre d'infoTypes analysés, la région dans laquelle la tâche est traitée et les ressources de calcul disponibles dans cette région. Par conséquent, la latence des tâches d'inspection ne peut pas être déterminée à l'avance.
Pour réduire la latence des tâches, essayez les solutions suivantes :
- Si l'échantillonnage est disponible pour votre tâche ou déclencheur de tâche, activez-le.
Évitez d'activer les infoTypes dont vous n'avez pas besoin. Bien que les éléments suivants soient utiles dans certains scénarios, ces infoTypes peuvent ralentir l'exécution des requêtes par rapport à celles qui ne les incluent pas:
PERSON_NAME
FEMALE_NAME
MALE_NAME
FIRST_NAME
LAST_NAME
DATE_OF_BIRTH
LOCATION
STREET_ADDRESS
ORGANIZATION_NAME
Spécifiez toujours les infoTypes explicitement. N'utilisez pas de liste d'infoTypes vide.
Si possible, utilisez une autre région de traitement.
Si vous rencontrez toujours des problèmes de latence avec les tâches après avoir essayé ces techniques, envisagez d'utiliser des requêtes content.inspect
ou content.deidentify
à la place des tâches. Ces méthodes sont couvertes par le contrat de niveau de service. Pour en savoir plus, consultez le Contrat de niveau de service Cloud DLP.
Limiter les analyses au nouveau contenu
Vous pouvez configurer votre déclencheur de tâche pour définir automatiquement la date et l'heure des fichiers stockés dans Cloud Storage ou BigQuery. Lorsque vous définissez l'objet TimespanConfig
pour qu'il soit inséré automatiquement, Cloud DLP n'analyse que les données ajoutées ou modifiées depuis la dernière exécution du déclencheur:
...
timespan_config {
enable_auto_population_of_timespan_config: true
}
...
Déclencher des tâches en cas d'importation de fichiers
En plus de la compatibilité des déclencheurs de tâches, qui est intégrée à Cloud DLP, Google Cloud dispose également de nombreux autres composants que vous pouvez utiliser pour intégrer ou déclencher des tâches DLP. Par exemple, vous pouvez utiliser Cloud Functions pour déclencher une analyse DLP chaque fois qu'un fichier est importé dans Cloud Storage.
Pour savoir comment configurer cette opération, consultez la section Automatiser la classification des données importées dans Cloud Storage.
Étapes suivantes
- Découvrez comment créer une copie anonymisée des données dans le stockage.