En este tema, se describe en detalle cómo crear un trabajo de inspección de Cloud Data Loss Prevention y cómo programar trabajos de inspección recurrentes mediante la creación de un activador de trabajo. Para obtener una explicación rápida acerca de cómo crear un activador de trabajo nuevo con la IU de Cloud DLP, consulta la página sobre la guía de inicio rápido para crear un activador de trabajo de Cloud DLP.
Acerca de los trabajos de inspección y activadores de trabajos
Cuando Cloud DLP realiza un análisis de inspección para identificar datos sensibles, cada análisis se ejecuta como un trabajo. Cloud DLP crea y ejecuta un recurso de trabajo cada vez que le indicas que inspeccione tus repositorios de Google Cloud Storage, incluidos los depósitos de Cloud Storage, las tablas de BigQuery y los tipos de Datastore.
Para programar trabajos de análisis de inspección de Cloud DLP, crea activadores de trabajo. Un activador de trabajo automatiza la creación de trabajos de DLP de forma periódica y también se puede ejecutar a pedido.
Para obtener más información sobre trabajos y activadores de trabajo en Cloud DLP, consulta la página conceptual Activadores de trabajos.
Crea un trabajo de inspección nuevo
Para crear un trabajo de inspección nuevo de Cloud DLP, sigue estos pasos:
Console
En Cloud Console, abre Cloud DLP.
En el menú Create (Crear), elige Job or job trigger (Trabajo o activador de trabajo).
También puedes hacer clic en el siguiente botón:
La página Crear trabajo contiene las secciones siguientes:
Elige los datos de entrada
Nombre
Ingresa un nombre para el trabajo. Puedes usar letras, números y guiones. Asignar un nombre a tu trabajo es opcional. Si no ingresas un nombre, Cloud DLP le dará al trabajo un identificador de número único.
Location
En el menú Tipo de almacenamiento, elige el tipo de repositorio que almacena los datos que deseas analizar:
- Cloud Storage: ingresa la URL del bucket que deseas analizar o selecciona Incluir/excluir en el menú Tipo de ubicación y, luego, haz clic en Examinar para navegar al bucket o subcarpeta que deseas analizar. Selecciona la casilla de verificación Analizar carpeta de forma recurrente para analizar el directorio especificado y todos los directorios contenidos. Déjalo sin seleccionar para analizar solo el directorio especificado y nada más.
- BigQuery: ingresa los identificadores del proyecto, el conjunto de datos y la tabla que deseas analizar.
- Datastore: ingresa los identificadores para el proyecto, el espacio de nombres (opcional) y el tipo que deseas analizar.
Muestreo
El muestreo es una forma opcional de ahorrar recursos si tienes una gran cantidad de datos.
En Muestreo, puedes elegir si deseas analizar todos los datos seleccionados o tomar muestras de un porcentaje determinado. El muestreo funciona de manera diferente según el tipo de repositorio de almacenamiento que analices:
- Para BigQuery, puedes muestrear un subconjunto del total de filas seleccionadas, que corresponde al porcentaje de archivos que especificas en el análisis.
- En el caso de Cloud Storage, si algún archivo excede el tamaño especificado en el tamaño máximo de bytes para analizar por archivo, Cloud DLP lo escanea hasta ese tamaño máximo y luego pasa al siguiente archivo.
Para activar el muestreo, elige una de las siguientes opciones del primer menú:
- Iniciar el muestreo desde la parte superior: Cloud DLP inicia el análisis parcial al comienzo de los datos. Para BigQuery, esto inicia el análisis en la primera fila. En el caso de Cloud Storage, esto inicia el análisis al comienzo de cada archivo y lo detiene una vez que Cloud DLP analiza hasta cualquier tamaño máximo de archivo (ver arriba).
- Iniciar el muestreo desde el inicio aleatorio: Cloud DLP inicia el análisis parcial en una ubicación aleatoria dentro de los datos. Para BigQuery, esto inicia el análisis en una fila aleatoria. Para Cloud Storage, esta configuración solo se aplica a los archivos que superan cualquier tamaño máximo especificado. Cloud DLP analiza los archivos por debajo del tamaño máximo en su totalidad y los archivos por encima del tamaño máximo hasta el máximo.
Para realizar un análisis parcial, también debes elegir qué porcentaje de los datos deseas analizar. Usa el control deslizante para establecer el porcentaje.
Configuración avanzada
Cuando creas un trabajo para un análisis de depósitos de Cloud Storage o tablas de BigQuery, puedes limitar tu búsqueda si especificas una configuración avanzada. Específicamente, puedes configurar lo siguiente:
- Archivos (solo Cloud Storage): los tipos de archivo que se deben analizar, incluidos los archivos de texto, binarios e imágenes.
- Campos de identificación (solo BigQuery): identificadores de fila únicos dentro de la tabla.
- En el caso de Cloud Storage, si algún archivo excede el tamaño especificado en el tamaño máximo de bytes para analizar por archivo, Cloud DLP lo escanea hasta ese tamaño máximo y luego pasa al siguiente archivo.
Para activar el muestreo, elige el porcentaje de datos que deseas analizar. Usa el control deslizante para establecer el porcentaje. Luego, elige una de las siguientes opciones del primer menú:
- Iniciar el muestreo desde la parte superior: Cloud DLP inicia el análisis parcial al comienzo de los datos. Para BigQuery, esto inicia el análisis en la primera fila. En el caso de Cloud Storage, esto inicia el análisis al comienzo de cada archivo y lo detiene una vez que Cloud DLP analiza hasta cualquier tamaño máximo de archivo (ver arriba).
- Iniciar el muestreo desde el inicio aleatorio: Cloud DLP inicia el análisis parcial en una ubicación aleatoria dentro de los datos. Para BigQuery, esto inicia el análisis en una fila aleatoria. Para Cloud Storage, esta configuración solo se aplica a los archivos que superan cualquier tamaño máximo especificado. Cloud DLP analiza los archivos por debajo del tamaño máximo en su totalidad y los archivos por encima del tamaño máximo hasta el máximo.
Archivos
Para los archivos almacenados en Cloud Storage, puedes especificar los tipos que se incluirán en tu análisis en Archivos.
Puedes elegir entre archivos binarios, de texto, de imágenes, de Microsoft Word, de Microsoft Excel, de Microsoft PowerPoint, PDF y Apache Avro. En la página de referencia de la API, se incluye una lista exhaustiva de las extensiones de archivo que Cloud DLP puede analizar en FileType
.
Ten en cuenta que elegir Binario hace que Cloud DLP analice archivos de tipos que no se reconocen.
Campos de identificación
Para las tablas en BigQuery, en Identificación de campos, puedes indicar a Cloud DLP que analice solo las filas que tienen valores en un campo o campos específicos.
Para agregar un campo, haz clic en Agregar campo de identificación. Ingresa el nombre del campo con la notación de puntos para especificar campos anidados, si es necesario.
Puedes agregar todos los campos que desees. Para quitar un campo, haz clic en Borrar elemento (el ícono de la papelera) junto al campo que deseas borrar.
Configurar detección
En la sección Configura la detección especificas los tipos de datos sensibles que deseas analizar. Completar esta sección es opcional. Si omites esta sección, Cloud DLP analizará tus datos en busca de un conjunto predeterminado de Infotipos.
Plantilla
De manera opcional, puedes usar una plantilla de Cloud DLP para reutilizar la información de configuración que especificaste anteriormente.
Si ya creaste una plantilla que deseas usar, haz clic en el campo Nombre de la plantilla para ver una lista de las plantillas de inspección existentes. Elige o escribe el nombre de la plantilla que deseas usar.
Para obtener más información sobre la creación de plantillas, consulta la página sobre cómo crear plantillas de inspección de Cloud DLP.
Infotipos
Los detectores de Infotipo encuentran datos sensibles de un tipo determinado. Por ejemplo, el detector de Infotipo integrado US_SOCIAL_SECURITY_NUMBER
de Cloud DLP busca números de identificación personal de EE.UU. Además de los detectores de Infotipo incorporados, puedes crear tus propios detectores de Infotipo personalizados.
En Infotipos, elige el detector de Infotipo que corresponda al tipo de datos que deseas analizar. También puedes dejar este campo en blanco para buscar todos los Infotipos predeterminados. Para obtener más información sobre cada detector, consulta la referencia del detector de Infotipo.
También puedes agregar detectores de Infotipo personalizados en la sección Infotipos personalizados y personalizar los detectores de Infotipos integrados y personalizados en la sección Conjuntos de reglas de inspección.
Infotipos personalizados
To add a custom infoType detector:
- Click Add custom infoType.
- Choose the type of custom infoType detector you want to create:
- Words or phrases: Matches on one or more words or phrases that you enter into the field. Use this custom infoType when you have just a few words or phrases to search for. Give your custom infoType a name, and then, under List of words or phrases, type the word or phrase you want Cloud DLP to match on. To search on multiple words or phrases, press Enter after each one. For more information, see Creating a regular custom dictionary detector.
- Dictionary path: Searches your content for items in a list of words and phrases. The list is stored in a text file in Cloud Storage. Use this custom infoType when you have anywhere from a few to several hundred thousand words or phrases to search for. This method is also useful if your list contains sensitive elements and you don't want to store them inside of a job or template. Give your custom infoType a name, and then, under Dictionary location, enter or browse to the Cloud Storage path where the dictionary file is stored. For more information, see Creating a regular custom dictionary detector.
- Regex: Matches content based on a regular expression. Give your custom infoType a name, and then, in the Regex field, enter a regex pattern to match words and phrases. See the supported regex syntax.
- Stored infoType: This option adds a stored custom dictionary detector, which is a kind of dictionary detector that is built from either a large text file stored in Cloud Storage or a single column of a BigQuery table. Use this kind of custom infoType when you have anywhere from several hundred thousand to tens of millions of words or phrases to search for. Be aware that this is the only option in this menu for which you must have already created the stored infoType to use it. Give your custom infoType a name (different from the name you gave the stored infoType), and then, in the Stored infoType field, enter the name of the stored infoType. For more information about creating stored custom dictionaries, see Creating a stored custom dictionary detector.
Click Add custom infoType again to add additional custom infoType detectors.
Conjuntos de reglas de inspección
Inspection rulesets allow you to customize both built-in and custom infoType detectors using context rules. The two types of inspection rules are:
- Exclusion rules, which help exclude false or unwanted findings.
- Hotword rules, which help detect additional findings.
To add a new ruleset, first specify one or more built-in or custom infoType detectors in the InfoTypes section. These are the infoType detectors that your rulesets will be modifying. Then, do the following:
- Click in the Choose infoTypes field. The infoType or infoTypes you specified previously appear below the field in a menu, as shown here:
- Choose an infoType from the menu, and then click Add rule. A menu appears with the two options Hotword rule and Exclusion rule.

For hotword rules, choose Hotword rules. Then, do the following:
- In the Hotword field, enter a regular expression that Cloud DLP should look for.
- From the Hotword proximity menu, choose whether the hotword you entered is found before or after the chosen infoType.
- In Hotword distance from infoType, enter the approximate number of characters between the hotword and the chosen infoType.
- In Confidence level adjustment, choose whether to assign matches a fixed likelihood level, or to increase or decrease the default likelihood level by a certain amount.
For exclusion rules, choose Exclusion rules. Then, do the following:
- In the Exclude field, enter a regular expression (regex) that Cloud DLP should look for.
- From the Matching type menu, choose one of the following:
- Full match: The finding must completely match the regex.
- Partial match: A substring of the finding can match the regex.
- Inverse match: The finding doesn't match the regex.
You can add additional hotword or exclusion rules and rulesets to further refine your scan results.
Umbral de confianza
Cada vez que Cloud DLP detecta una posible coincidencia con datos sensibles, le asigna un valor de probabilidad en una escala de “Muy improbable” a “Muy probable”. Cuando configuras un valor de probabilidad aquí, le indicas a Cloud DLP que solo haga coincidir los datos que se corresponden con ese valor de probabilidad o uno superior.
El valor predeterminado de “Posible” es suficiente para la mayoría de los propósitos. Si habitualmente obtienes coincidencias demasiado amplias, mueve el control deslizante hacia arriba. Si tienes muy pocas coincidencias, mueve el control deslizante hacia abajo.
Cuando finalices, haz clic en Continuar.
Agrega acciones
En el paso Agrega acciones, selecciona la acción o las acciones que deseas que realice Cloud DLP después de que se complete el trabajo.
Tus opciones son las siguientes:
- Guardar en BigQuery: mediante esta opción, se guardan los resultados en una tabla de BigQuery. Los resultados que se almacenan en BigQuery contienen detalles sobre la ubicación de cada resultado y la probabilidad de coincidencia. Si no almacenas los resultados, el trabajo completado solo contendrá estadísticas sobre el número y los Infotipos de los resultados. Si no especificas un ID de tabla, BigQuery asigna un nombre predeterminado a una tabla nueva. Si especificas una tabla existente, los resultados se agregan a ella. Selecciona la casilla de verificación Incluir cita para incluir texto contextual en cada resultado de coincidencia.
- Publicar en Pub/Sub: con esta opción, se envía un mensaje de notificación a un Pub/Sub cuando se completa el trabajo. Haz clic en Nuevo tema para especificar uno o más nombres de temas en los que deseas publicar la notificación.
- Publicar en Google Cloud Security Command Center: mediante esta opción, se publica un resumen de tus resultados en Security Command Center. Para obtener más información, consulta la página sobre cómo enviar resultados de análisis de Cloud DLP a Security Command Center.
- Publicar en Data Catalog: elige esta opción para enviar los resultados de la inspección a Data Catalog, el servicio de administración de metadatos de Google Cloud.
- Publicar en Stackdriver: Elige esta opción para enviar los resultados de la inspección a Cloud Monitoring, Google Cloud's operations suite.
- Notificar por correo electrónico: con esta opción, se logra que Cloud DLP envíe un correo electrónico a los propietarios y editores del proyecto cuando se complete el trabajo.
Cuando finalices de seleccionar las acciones, haz clic en Continuar.
Repaso
La sección Revisa contiene un resumen con formato JSON de la configuración del trabajo que acabas de especificar.
Haz clic en Crear para crear el trabajo (si no especificaste un programa) y ejecutar el trabajo una vez. Aparecerá la página de información del trabajo, que contiene el estado y otra información. Si el trabajo se encuentra en ejecución, puedes hacer clic en el botón Cancelar para detenerlo. También puedes borrar el trabajo si haces clic en Borrar.
Para volver a la página principal de Cloud DLP, haz clic en la flecha Atrás en Cloud Console.
Protocolo
Un trabajo se representa en la API de DLP con el recurso DlpJobs
. Puedes crear un trabajo nuevo mediante el método projects.dlpJobs.create
del recurso DlpJob
.
Este JSON de muestra se puede enviar en una solicitud POST al extremo REST de Cloud DLP especificado. En este JSON de ejemplo, se muestra cómo crear un trabajo en Cloud DLP. El trabajo es un análisis de inspección de Datastore.
Para intentar realizar esto con rapidez, puedes usar el Explorador de API que se incorpora a continuación. Ten en cuenta que una solicitud correcta, incluso una creada en el Explorador de API, creará un trabajo. Si quieres obtener información general sobre el uso de JSON para enviar solicitudes a la API de DLP, consulta la guía de inicio rápido de JSON.
Entrada de JSON:
{
"inspectJob": {
"storageConfig": {
"bigQueryOptions": {
"tableReference": {
"projectId": "bigquery-public-data",
"datasetId": "san_francisco_sfpd_incidents",
"tableId": "sfpd_incidents"
}
},
"timespanConfig": {
"startTime": "2020-01-01T00:00:01Z",
"endTime": "2020-01-31T23:59:59Z",
"timestampField": {
"name": "timestamp"
}
}
},
"inspectConfig": {
"infoTypes": [
{
"name": "PERSON_NAME"
},
{
"name": "STREET_ADDRESS"
}
],
"excludeInfoTypes": false,
"includeQuote": true,
"minLikelihood": "LIKELY"
},
"actions": [
{
"saveFindings": {
"outputConfig": {
"table": {
"projectId": "[PROJECT-ID]",
"datasetId": "[DATASET-ID]"
}
}
}
}
]
}
}
Salida de JSON:
El siguiente resultado indica que el trabajo se creó de forma correcta.
{
"name": "projects/[PROJECT-ID]/dlpJobs/[JOB-ID]",
"type": "INSPECT_JOB",
"state": "PENDING",
"inspectDetails": {
"requestedOptions": {
"snapshotInspectTemplate": {},
"jobConfig": {
"storageConfig": {
"bigQueryOptions": {
"tableReference": {
"projectId": "bigquery-public-data",
"datasetId": "san_francisco_sfpd_incidents",
"tableId": "sfpd_incidents"
}
},
"timespanConfig": {
"startTime": "2020-01-01T00:00:01Z",
"endTime": "2020-01-31T23:59:59Z",
"timestampField": {
"name": "timestamp"
}
}
},
"inspectConfig": {
"infoTypes": [
{
"name": "PERSON_NAME"
},
{
"name": "STREET_ADDRESS"
}
],
"minLikelihood": "LIKELY",
"limits": {},
"includeQuote": true
},
"actions": [
{
"saveFindings": {
"outputConfig": {
"table": {
"projectId": "[PROJECT-ID]",
"datasetId": "[DATASET-ID]",
"tableId": "[TABLE-ID]"
}
}
}
}
]
}
},
"result": {}
},
"createTime": "2020-07-10T07:26:33.643Z"
}
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Crea un activador de trabajo nuevo:
Para crear un activador de trabajo nuevo de Cloud DLP, sigue estos pasos:
Console
En Cloud Console, abre Cloud DLP.
En el menú Create (Crear), elige Job or job trigger (Trabajo o activador de trabajo).
También puedes hacer clic en el siguiente botón:
En la página Crear activador de trabajo, se incluyen las siguientes secciones:
Elige los datos de entrada
Nombre
Ingresa un nombre para el activador de trabajo. Puedes usar letras, números y guiones. Asignar un nombre al activador de trabajo es opcional. Si no ingresas un nombre, Cloud DLP le dará un identificador de número único al activador de trabajo.
Location
En el menú Tipo de almacenamiento, elige el tipo de repositorio que almacena los datos que deseas analizar:
- Cloud Storage: ingresa la URL del bucket que deseas analizar o selecciona Incluir/excluir en el menú Tipo de ubicación y, luego, haz clic en Examinar para navegar al bucket o subcarpeta que deseas analizar. Selecciona la casilla de verificación Analizar carpeta de forma recurrente para analizar el directorio especificado y todos los directorios contenidos. Déjalo sin seleccionar para analizar solo el directorio especificado y nada más.
- BigQuery: ingresa los identificadores del proyecto, el conjunto de datos y la tabla que deseas analizar.
- Datastore: ingresa los identificadores para el proyecto, el espacio de nombres (opcional) y el tipo que deseas analizar.
Muestreo
El muestreo es una forma opcional de ahorrar recursos si tienes una gran cantidad de datos.
En Muestreo, puedes elegir si deseas analizar todos los datos seleccionados o tomar muestras de un porcentaje determinado. El muestreo funciona de manera diferente según el tipo de repositorio de almacenamiento que analices:
- Para BigQuery, puedes muestrear un subconjunto del total de filas seleccionadas, que corresponde al porcentaje de archivos que especificas en el análisis.
- En el caso de Cloud Storage, si algún archivo excede el tamaño especificado en el tamaño máximo de bytes para analizar por archivo, Cloud DLP lo escanea hasta ese tamaño máximo y luego pasa al siguiente archivo.
Para activar el muestreo, elige una de las siguientes opciones del primer menú:
- Iniciar el muestreo desde la parte superior: Cloud DLP inicia el análisis parcial al comienzo de los datos. Para BigQuery, esto inicia el análisis en la primera fila. En el caso de Cloud Storage, esto inicia el análisis al comienzo de cada archivo y lo detiene una vez que Cloud DLP analiza hasta cualquier tamaño máximo de archivo (ver arriba).
- Iniciar el muestreo desde el inicio aleatorio: Cloud DLP inicia el análisis parcial en una ubicación aleatoria dentro de los datos. Para BigQuery, esto inicia el análisis en una fila aleatoria. Para Cloud Storage, esta configuración solo se aplica a los archivos que superan cualquier tamaño máximo especificado. Cloud DLP analiza los archivos por debajo del tamaño máximo en su totalidad y los archivos por encima del tamaño máximo hasta el máximo.
Para realizar un análisis parcial, también debes elegir qué porcentaje de los datos deseas analizar. Usa el control deslizante para establecer el porcentaje.
Configuración avanzada
Cuando creas un trabajo de activador para un análisis de depósitos de Cloud Storage o tablas de BigQuery, puedes limitar la búsqueda si especificas una configuración avanzada. Específicamente, puedes configurar lo siguiente:
- Archivos (solo Cloud Storage): los tipos de archivo que se deben analizar, incluidos los archivos de texto, binarios e imágenes.
- Campos de identificación (solo BigQuery): identificadores de fila únicos dentro de la tabla.
- En el caso de Cloud Storage, si algún archivo excede el tamaño especificado en el tamaño máximo de bytes para analizar por archivo, Cloud DLP lo escanea hasta ese tamaño máximo y luego pasa al siguiente archivo.
Para activar el muestreo, elige el porcentaje de datos que deseas analizar. Usa el control deslizante para establecer el porcentaje. Luego, elige una de las siguientes opciones del primer menú:
- Iniciar el muestreo desde la parte superior: Cloud DLP inicia el análisis parcial al comienzo de los datos. Para BigQuery, esto inicia el análisis en la primera fila. En el caso de Cloud Storage, esto inicia el análisis al comienzo de cada archivo y lo detiene una vez que Cloud DLP analiza hasta cualquier tamaño máximo de archivo (ver arriba).
- Iniciar el muestreo desde el inicio aleatorio: Cloud DLP inicia el análisis parcial en una ubicación aleatoria dentro de los datos. Para BigQuery, esto inicia el análisis en una fila aleatoria. Para Cloud Storage, esta configuración solo se aplica a los archivos que superan cualquier tamaño máximo especificado. Cloud DLP analiza los archivos por debajo del tamaño máximo en su totalidad y los archivos por encima del tamaño máximo hasta el máximo.
Archivos
Para los archivos almacenados en Cloud Storage, puedes especificar los tipos que se incluirán en tu análisis en Archivos.
Puedes elegir entre archivos binarios, de texto, de imágenes, de Microsoft Word, de Microsoft Excel, de Microsoft PowerPoint, PDF y Apache Avro. En la página de referencia de la API, se incluye una lista exhaustiva de las extensiones de archivo que Cloud DLP puede analizar en FileType
.
Ten en cuenta que elegir Binario hace que Cloud DLP analice archivos de tipos que no se reconocen.
Campos de identificación
Para las tablas en BigQuery, en Identificación de campos, puedes indicar a Cloud DLP que analice solo las filas que tienen valores en un campo o campos específicos.
Para agregar un campo, haz clic en Agregar campo de identificación. Ingresa el nombre del campo con la notación de puntos para especificar campos anidados, si es necesario.
Puedes agregar todos los campos que desees. Para quitar un campo, haz clic en Borrar elemento (el ícono de la papelera) junto al campo que deseas borrar.
Configurar detección
En la sección Configura la detección especificas los tipos de datos sensibles que deseas analizar. Completar esta sección es opcional. Si omites esta sección, Cloud DLP analizará tus datos en busca de un conjunto predeterminado de Infotipos.
Plantilla
De manera opcional, puedes usar una plantilla de Cloud DLP para reutilizar la información de configuración que especificaste anteriormente.
Si ya creaste una plantilla que deseas usar, haz clic en el campo Nombre de la plantilla para ver una lista de las plantillas de inspección existentes. Elige o escribe el nombre de la plantilla que deseas usar.
Para obtener más información sobre la creación de plantillas, consulta la página sobre cómo crear plantillas de inspección de Cloud DLP.
Infotipos
Los detectores de Infotipo encuentran datos sensibles de un tipo determinado. Por ejemplo, el detector de Infotipo integrado US_SOCIAL_SECURITY_NUMBER
de Cloud DLP busca números de identificación personal de EE.UU. Además de los detectores de Infotipo incorporados, puedes crear tus propios detectores de Infotipo personalizados.
En Infotipos, elige el detector de Infotipo que corresponda al tipo de datos que deseas analizar. También puedes dejar este campo en blanco para buscar todos los Infotipos predeterminados. Para obtener más información sobre cada detector, consulta la referencia del detector de Infotipo.
También puedes agregar detectores de Infotipo personalizados en la sección Infotipos personalizados y personalizar los detectores de Infotipos integrados y personalizados en la sección Conjuntos de reglas de inspección.
Infotipos personalizados
To add a custom infoType detector:
- Click Add custom infoType.
- Choose the type of custom infoType detector you want to create:
- Words or phrases: Matches on one or more words or phrases that you enter into the field. Use this custom infoType when you have just a few words or phrases to search for. Give your custom infoType a name, and then, under List of words or phrases, type the word or phrase you want Cloud DLP to match on. To search on multiple words or phrases, press Enter after each one. For more information, see Creating a regular custom dictionary detector.
- Dictionary path: Searches your content for items in a list of words and phrases. The list is stored in a text file in Cloud Storage. Use this custom infoType when you have anywhere from a few to several hundred thousand words or phrases to search for. This method is also useful if your list contains sensitive elements and you don't want to store them inside of a job or template. Give your custom infoType a name, and then, under Dictionary location, enter or browse to the Cloud Storage path where the dictionary file is stored. For more information, see Creating a regular custom dictionary detector.
- Regex: Matches content based on a regular expression. Give your custom infoType a name, and then, in the Regex field, enter a regex pattern to match words and phrases. See the supported regex syntax.
- Stored infoType: This option adds a stored custom dictionary detector, which is a kind of dictionary detector that is built from either a large text file stored in Cloud Storage or a single column of a BigQuery table. Use this kind of custom infoType when you have anywhere from several hundred thousand to tens of millions of words or phrases to search for. Be aware that this is the only option in this menu for which you must have already created the stored infoType to use it. Give your custom infoType a name (different from the name you gave the stored infoType), and then, in the Stored infoType field, enter the name of the stored infoType. For more information about creating stored custom dictionaries, see Creating a stored custom dictionary detector.
Click Add custom infoType again to add additional custom infoType detectors.
Conjuntos de reglas de inspección
Inspection rulesets allow you to customize both built-in and custom infoType detectors using context rules. The two types of inspection rules are:
- Exclusion rules, which help exclude false or unwanted findings.
- Hotword rules, which help detect additional findings.
To add a new ruleset, first specify one or more built-in or custom infoType detectors in the InfoTypes section. These are the infoType detectors that your rulesets will be modifying. Then, do the following:
- Click in the Choose infoTypes field. The infoType or infoTypes you specified previously appear below the field in a menu, as shown here:
- Choose an infoType from the menu, and then click Add rule. A menu appears with the two options Hotword rule and Exclusion rule.

For hotword rules, choose Hotword rules. Then, do the following:
- In the Hotword field, enter a regular expression that Cloud DLP should look for.
- From the Hotword proximity menu, choose whether the hotword you entered is found before or after the chosen infoType.
- In Hotword distance from infoType, enter the approximate number of characters between the hotword and the chosen infoType.
- In Confidence level adjustment, choose whether to assign matches a fixed likelihood level, or to increase or decrease the default likelihood level by a certain amount.
For exclusion rules, choose Exclusion rules. Then, do the following:
- In the Exclude field, enter a regular expression (regex) that Cloud DLP should look for.
- From the Matching type menu, choose one of the following:
- Full match: The finding must completely match the regex.
- Partial match: A substring of the finding can match the regex.
- Inverse match: The finding doesn't match the regex.
You can add additional hotword or exclusion rules and rulesets to further refine your scan results.
Umbral de confianza
Cada vez que Cloud DLP detecta una posible coincidencia con datos sensibles, le asigna un valor de probabilidad en una escala de “Muy improbable” a “Muy probable”. Cuando configuras un valor de probabilidad aquí, le indicas a Cloud DLP que solo haga coincidir los datos que se corresponden con ese valor de probabilidad o uno superior.
El valor predeterminado de “Posible” es suficiente para la mayoría de los propósitos. Si habitualmente obtienes coincidencias demasiado amplias, mueve el control deslizante hacia arriba. Si tienes muy pocas coincidencias, mueve el control deslizante hacia abajo.
Cuando finalices, haz clic en Continuar.
Agrega acciones
En el paso Agrega acciones, selecciona la acción o las acciones que deseas que realice Cloud DLP después de que se complete el trabajo.
Tus opciones son las siguientes:
- Guardar en BigQuery: mediante esta opción, se guardan los resultados en una tabla de BigQuery. Los resultados que se almacenan en BigQuery contienen detalles sobre la ubicación de cada resultado y la probabilidad de coincidencia. Si no almacenas los resultados, el trabajo completado solo contendrá estadísticas sobre el número y los Infotipos de los resultados. Si no especificas un ID de tabla, BigQuery asigna un nombre predeterminado a una tabla nueva. Si especificas una tabla existente, los resultados se agregan a ella. Selecciona la casilla de verificación Incluir cita para incluir texto contextual en cada resultado de coincidencia.
- Publicar en Pub/Sub: con esta opción, se envía un mensaje de notificación a un Pub/Sub cuando se completa el trabajo. Haz clic en Nuevo tema para especificar uno o más nombres de temas en los que deseas publicar la notificación.
- Publicar en Google Cloud Security Command Center: mediante esta opción, se publica un resumen de tus resultados en Security Command Center. Para obtener más información, consulta la página sobre cómo enviar resultados de análisis de Cloud DLP a Security Command Center.
- Publicar en Data Catalog: elige esta opción para enviar los resultados de la inspección a Data Catalog, el servicio de administración de metadatos de Google Cloud.
- Publicar en Stackdriver: Elige esta opción para enviar los resultados de la inspección a Cloud Monitoring, Google Cloud's operations suite.
- Notificar por correo electrónico: con esta opción, se logra que Cloud DLP envíe un correo electrónico a los propietarios y editores del proyecto cuando se complete el trabajo.
Cuando finalices de seleccionar las acciones, haz clic en Continuar.
Programa
En la sección Programación, tienes las siguientes dos opciones:
- Especificar intervalo de tiempo: se limitan los archivos o las filas para analizar por fecha. Haz clic en Hora de inicio para especificar la marca de tiempo del archivo más antigua que se debe incluir. Deja este valor en blanco para especificar todos los archivos. Haz clic en Hora de finalización para especificar la marca de tiempo del archivo más reciente. Deja este valor en blanco para no especificar un límite de marca de tiempo superior.
- Crear un activador para ejecutar el trabajo en una programación periódica: se crea el activador del trabajo y se configura para ejecutar el trabajo que especificaste en una programación periódica. El valor predeterminado también es el valor mínimo: 24 horas. El valor máximo es de 60 días. Si solo deseas que Cloud DLP analice archivos o filas nuevos, selecciona la casilla de verificación Limitar análisis solo a contenido nuevo.
Revisa
La sección Revisa contiene un resumen con formato JSON de la configuración del trabajo que acabas de especificar.
Haz clic en Crear para crear el activador de trabajo (si especificaste un programa). Aparecerá la página de información del activador de trabajo, que contiene el estado y otra información. Si el trabajo se encuentra en ejecución, puedes hacer clic en el botón Cancelar para detenerlo. También puedes borrar el activador de trabajo si haces clic en Borrar.
Para volver a la página principal de Cloud DLP, haz clic en la flecha Atrás en Cloud Console.
Protocolo
Un recurso de trabajo se representa en la API de DLP con el recurso JobTrigger
. Puedes crear un activador de trabajo nuevo mediante el método projects.jobTriggers.create
del recurso JobTrigger
.
Este JSON de muestra se puede enviar en una solicitud POST al extremo REST de Cloud DLP especificado. En este JSON de ejemplo, se muestra cómo crear un activador de trabajo en Cloud DLP. El trabajo que iniciará este activador es un análisis de inspección de Datastore. El activador de trabajo que se crea se ejecuta cada 86,400 segundos (o 24 horas).
Para intentar realizar esto con rapidez, puedes usar el Explorador de API que se incorpora a continuación. Ten en cuenta que una solicitud correcta, incluso una creada en el Explorador de API, creará un activador de trabajo programado nuevo. Si quieres obtener información general sobre el uso de JSON para enviar solicitudes a la API de DLP, consulta la guía de inicio rápido de JSON.
Entrada de JSON:
{
"jobTrigger":{
"displayName":"JobTrigger1",
"description":"Starts a DLP scan job of a Datastore kind",
"triggers":[
{
"schedule":{
"recurrencePeriodDuration":"86400s"
}
}
],
"status":"HEALTHY",
"inspectJob":{
"storageConfig":{
"datastoreOptions":{
"kind":{
"name":"Example-Kind"
},
"partitionId":{
"projectId":"[PROJECT_ID]",
"namespaceId":"[NAMESPACE_ID]"
}
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"PHONE_NUMBER"
}
],
"excludeInfoTypes":false,
"includeQuote":true,
"minLikelihood":"LIKELY"
},
"actions":[
{
"saveFindings":{
"outputConfig":{
"table":{
"projectId":"[PROJECT_ID]",
"datasetId":"[BIGQUERY_DATASET_NAME]",
"tableId":"[BIGQUERY_TABLE_NAME]"
}
}
}
}
]
}
}
}
Resultado de JSON:
En el resultado siguiente, se indica que el activador de trabajo se creó de manera correcta.
{
"name":"projects/[PROJECT_ID]/jobTriggers/[JOB_TRIGGER_NAME]",
"displayName":"JobTrigger1",
"description":"Starts a DLP scan job of a Datastore kind",
"inspectJob":{
"storageConfig":{
"datastoreOptions":{
"partitionId":{
"projectId":"[PROJECT_ID]",
"namespaceId":"[NAMESPACE_ID]"
},
"kind":{
"name":"Example-Kind"
}
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"PHONE_NUMBER"
}
],
"minLikelihood":"LIKELY",
"limits":{
},
"includeQuote":true
},
"actions":[
{
"saveFindings":{
"outputConfig":{
"table":{
"projectId":"[PROJECT_ID]",
"datasetId":"[BIGQUERY_DATASET_NAME]",
"tableId":"[BIGQUERY_TABLE_NAME]"
}
}
}
}
]
},
"triggers":[
{
"schedule":{
"recurrencePeriodDuration":"86400s"
}
}
],
"createTime":"2018-11-30T01:52:41.171857Z",
"updateTime":"2018-11-30T01:52:41.171857Z",
"status":"HEALTHY"
}
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
Go
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
PHP
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
C#
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Enumera todos los trabajos
Para enumerar todos los trabajos del proyecto actual, sigue estos pasos:
Console
En Cloud Console, abre Cloud DLP.
En la pestaña Trabajos y activadores de trabajos, haz clic en la pestaña Todos los trabajos.
La consola muestra una lista de todos los trabajos del proyecto actual, incluidos sus identificadores de trabajo, el estado, la hora de creación y la hora de finalización. Para obtener más información sobre cualquier trabajo, incluido un resumen de sus resultados, haz clic en su identificador.
Protocolo
El recurso DlpJob
tiene un método projects.dlpJobs.list
con el que puedes enumerar todos los trabajos.
Para enumerar todos los trabajos definidos actualmente en tu proyecto, envía una solicitud GET al extremo dlpJobs
, como se muestra aquí:
URL:
GET https://dlp.googleapis.com/v2/projects/[PROJECT-ID]/dlpJobs?key={YOUR_API_KEY}
En el siguiente resultado de JSON, se enumera uno de los trabajos que se muestran. Ten en cuenta que la estructura del trabajo refleja la del recurso DlpJob
.
Salida de JSON:
{
"jobs":[
{
"name":"projects/[PROJECT-ID]/dlpJobs/i-5270277269264714623",
"type":"INSPECT_JOB",
"state":"DONE",
"inspectDetails":{
"requestedOptions":{
"snapshotInspectTemplate":{
},
"jobConfig":{
"storageConfig":{
"cloudStorageOptions":{
"fileSet":{
"url":"[CLOUD-STORAGE-URL]"
},
"fileTypes":[
"FILE_TYPE_UNSPECIFIED"
],
"filesLimitPercent":100
},
"timespanConfig":{
"startTime":"2019-09-08T22:43:16.623Z",
"enableAutoPopulationOfTimespanConfig":true
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"US_SOCIAL_SECURITY_NUMBER"
},
{
"name":"CANADA_SOCIAL_INSURANCE_NUMBER"
}
],
"minLikelihood":"LIKELY",
"limits":{
},
"includeQuote":true
},
"actions":[
{
"saveFindings":{
"outputConfig":{
"table":{
"projectId":"[PROJECT-ID]",
"datasetId":"[DATASET-ID]",
"tableId":"[TABLE-ID]"
}
}
}
}
]
}
},
"result":{
...
}
},
"createTime":"2019-09-09T22:43:16.918Z",
"startTime":"2019-09-09T22:43:16.918Z",
"endTime":"2019-09-09T22:43:53.091Z",
"jobTriggerName":"projects/[PROJECT-ID]/jobTriggers/sample-trigger2"
},
...
Para intentar realizar esto con rapidez, puedes usar el Explorador de API que se incorpora a continuación. Si quieres obtener información general sobre el uso de JSON para enviar solicitudes a la API de DLP, consulta la guía de inicio rápido de JSON.
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
Go
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
PHP
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
C#
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Enumera todos los activadores de trabajo
Para enumerar todos los activadores de trabajo del proyecto actual, sigue estos pasos:
Console
En Cloud Console, abre Cloud DLP.
En la pestaña Activadores de trabajos y trabajos, haz clic en la pestaña Activadores de trabajos.
La consola muestra una lista de todos los activadores de trabajo para el proyecto actual.
Protocolo
El recurso JobTrigger
tiene un método projects.jobTriggers.list
con el que puedes enumerar todos los activadores de trabajo.
Para enumerar todos los activadores de trabajo definidos actualmente en tu proyecto, envía una solicitud GET al extremo jobTriggers
, como se muestra a continuación:
URL:
GET https://dlp.googleapis.com/v2/projects/[PROJECT-ID]/jobTriggers?key={YOUR_API_KEY}
En la siguiente salida de JSON, se muestra el activador de trabajo que se creó en la sección anterior. Ten en cuenta que la estructura del activador de trabajo refleja la del recurso JobTrigger
.
Salida de JSON:
{
"jobTriggers":[
{
"name":"projects/[PROJECT_ID]/jobTriggers/[JOB_TRIGGER_NAME]",
"displayName":"JobTrigger1",
"description":"Starts a DLP scan job of a Datastore kind",
"inspectJob":{
"storageConfig":{
"datastoreOptions":{
"partitionId":{
"projectId":"[PROJECT_ID]",
"namespaceId":"[NAMESPACE_ID]"
},
"kind":{
"name":"Example-Kind"
}
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"PHONE_NUMBER"
}
],
"minLikelihood":"LIKELY",
"limits":{
},
"includeQuote":true
},
"actions":[
{
"saveFindings":{
"outputConfig":{
"table":{
"projectId":"[PROJECT_ID]",
"datasetId":"[BIGQUERY_DATASET_NAME]",
"tableId":"[BIGQUERY_TABLE_NAME]"
}
}
}
}
]
},
"triggers":[
{
"schedule":{
"recurrencePeriodDuration":"86400s"
}
}
],
"createTime":"2018-11-30T01:52:41.171857Z",
"updateTime":"2018-11-30T01:52:41.171857Z",
"status":"HEALTHY"
},
...
],
"nextPageToken":"KkwKCQjivJ2UpPreAgo_Kj1wcm9qZWN0cy92ZWx2ZXR5LXN0dWR5LTE5NjEwMS9qb2JUcmlnZ2Vycy8xNTA5NzEyOTczMDI0MDc1NzY0"
}
Para intentar realizar esto con rapidez, puedes usar el Explorador de API que se incorpora a continuación. Si quieres obtener información general sobre el uso de JSON para enviar solicitudes a la API de DLP, consulta la guía de inicio rápido de JSON.
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
Go
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
PHP
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
C#
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Borra un trabajo
Para borrar un trabajo de tu proyecto, que incluye sus resultados, haz lo siguiente. Cualquier resultado guardado externamente (como en BigQuery) no se ve afectado por esta operación.
Console
En Cloud Console, abre Cloud DLP.
En la pestaña Jobs & job triggers (Trabajos y activadores de trabajos), haz clic en la pestaña All jobs (Todos los trabajos). Google Cloud Console muestra una lista de todos los trabajos del proyecto actual.
En la columna Actions (Acciones) del activador de trabajo que deseas borrar, haz clic en el menú de más acciones (se muestra como tres puntos distribuidos verticalmente)
y, luego, haz clic en Delete (Borrar).
De forma alternativa, en la lista de trabajos, haz clic en el identificador del trabajo que deseas borrar. En la página de detalles del trabajo, haz clic en Borrar.
Protocolo
Para borrar un trabajo del proyecto actual, envía una solicitud DELETE al extremo dlpJobs
, como se muestra aquí. Reemplaza el campo [JOB-IDENTIFIER]
con el identificador del trabajo, que comienza con i-
.
URL:
DELETE https://dlp.googleapis.com/v2/projects/[PROJECT-ID]/dlpJobs/[JOB-IDENTIFIER]?key={YOUR_API_KEY}
Si la solicitud se realizó correctamente, la API de DLP mostrará una respuesta exitosa. Para verificar que el trabajo se borró correctamente, enumera todos los trabajos.
Para intentar realizar esto con rapidez, puedes usar el Explorador de API que se incorpora a continuación. Si quieres obtener información general sobre el uso de JSON para enviar solicitudes a la API de DLP, consulta la guía de inicio rápido de JSON.
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
Go
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
PHP
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
C#
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Borra un activador de trabajo
Para borrar un activador de trabajo existente, sigue estos pasos:
Console
En Cloud Console, abre Cloud DLP.
En la pestaña Jobs & job triggers (Activadores de trabajos y trabajos), haz clic en la pestaña Job triggers (Activadores de trabajos). En la consola, se muestra una lista de todos los activadores de trabajo para el proyecto actual.
En la columna Actions (Acciones) para el activador de trabajo que deseas borrar, haz clic en el menú Más acciones (que se muestra como tres puntos ordenados verticalmente)
y, luego, haz clic en Delete (Borrar).
Como alternativa, en la lista de activadores de trabajo, haz clic en el nombre del activador de trabajo que deseas borrar. En la página de detalles del activador de trabajo, haz clic en Borrar.
Protocolo
Para borrar un activador de trabajo del proyecto actual, envía una solicitud DELETE al extremo jobTriggers
, como se muestra aquí. Reemplaza el campo [JOB-TRIGGER-NAME]
con el nombre del activador del trabajo.
URL:
DELETE https://dlp.googleapis.com/v2/projects/[PROJECT-ID]/jobTriggers/[JOB-TRIGGER-NAME]?key={YOUR_API_KEY}
Si la solicitud se realizó correctamente, la API de DLP mostrará una respuesta exitosa. Para verificar si se borró el activador de trabajo de manera correcta, enumera todos los activadores de trabajo.
Para intentar realizar esto con rapidez, puedes usar el Explorador de API que se incorpora a continuación. Si quieres obtener información general sobre el uso de JSON para enviar solicitudes a la API de DLP, consulta la guía de inicio rápido de JSON.
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Node.js
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
Python
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
Go
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta Bibliotecas cliente de Cloud DLP.
PHP
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
C#
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Obtener un trabajo
Para obtener un trabajo de tu proyecto, que incluye sus resultados, haz lo siguiente. Cualquier resultado guardado externamente (como en BigQuery) no se ve afectado por esta operación.
Protocolo
Para obtener un trabajo del proyecto actual, envía una solicitud GET al extremo dlpJobs
, como se muestra aquí. Reemplaza el campo [JOB-IDENTIFIER]
con el identificador del trabajo, que comienza con i-
.
URL:
GET https://dlp.googleapis.com/v2/projects/[PROJECT-ID]/dlpJobs/[JOB-IDENTIFIER]?key={YOUR_API_KEY}
Si la solicitud se realizó correctamente, la API de DLP mostrará una respuesta exitosa.
Para intentar realizar esto con rapidez, puedes usar el Explorador de API que se incorpora a continuación. Si quieres obtener información general sobre el uso de JSON para enviar solicitudes a la API de DLP, consulta la guía de inicio rápido de JSON.
Java
Si deseas obtener información para instalar y usar la biblioteca cliente de Cloud DLP, consulta las Bibliotecas cliente de Cloud DLP.
Actualiza un activador de trabajo existente
Además de crear, enumerar y borrar activadores de trabajo, también puedes actualizar un activador de trabajo existente. Para cambiar la configuración de un activador de trabajo existente, sigue estos pasos:
Console
En Cloud Console, abre Cloud DLP.
Haz clic en la pestaña Job triggers (Activadores de trabajo). En la consola se muestra una lista de todos los activadores de trabajo para el proyecto actual.
En la columna Acciones para el activador de trabajo que deseas borrar, haz clic en Más more_vert, y luego haz clic en Ver detalles.
En la página de detalles del activador de trabajo, haz clic en Edit (Editar).
En la página del activador de edición, puedes cambiar la ubicación de los datos de entrada; detalles de detección, como plantillas, Infotipos o probabilidades; las acciones posteriores al análisis y la programación del activador de trabajo. Cuando finalices de realizar cambios, haz clic en Guardar.
Protocolo
Usa el método projects.jobTriggers.patch
para enviar nuevos valores JobTrigger
a la API de DLP a fin de actualizar esos valores dentro de un activador de trabajo especificado.
Por ejemplo, considera el siguiente activador de trabajo simple. Este JSON representa el activador del trabajo y se mostró después de enviar una solicitud GET al extremo del activador de trabajo del proyecto actual.
Salida de JSON:
{
"name":"projects/[PROJECT_ID]/jobTriggers/[JOB_TRIGGER_NAME]",
"inspectJob":{
"storageConfig":{
"cloudStorageOptions":{
"fileSet":{
"url":"gs://dlptesting/*"
},
"fileTypes":[
"FILE_TYPE_UNSPECIFIED"
],
"filesLimitPercent":100
},
"timespanConfig":{
"enableAutoPopulationOfTimespanConfig":true
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"US_SOCIAL_SECURITY_NUMBER"
}
],
"minLikelihood":"POSSIBLE",
"limits":{
}
},
"actions":[
{
"jobNotificationEmails":{
}
}
]
},
"triggers":[
{
"schedule":{
"recurrencePeriodDuration":"86400s"
}
}
],
"createTime":"2019-03-06T21:19:45.774841Z",
"updateTime":"2019-03-06T21:19:45.774841Z",
"status":"HEALTHY"
}
El siguiente JSON, cuando se envía con una solicitud PATCH al extremo especificado, actualiza el activador de trabajo determinado con un nuevo Infotipo para analizar, así como una nueva probabilidad mínima. Ten en cuenta que también debes especificar el atributo updateMask
y que su valor está en formato FieldMask
.
Entrada de JSON:
PATCH https://dlp.googleapis.com/v2/projects/[PROJECT_ID]/jobTriggers/[JOB_TRIGGER_NAME]?key={YOUR_API_KEY}
{
"jobTrigger":{
"inspectJob":{
"inspectConfig":{
"infoTypes":[
{
"name":"US_INDIVIDUAL_TAXPAYER_IDENTIFICATION_NUMBER"
}
],
"minLikelihood":"LIKELY"
}
}
},
"updateMask":"inspectJob(inspectConfig(infoTypes,minLikelihood))"
}
Después de enviar este JSON a la URL especificada, muestra lo siguiente, que representa el activador de trabajo actualizado. Ten en cuenta que los valores de Infotipo y probabilidad originales se reemplazaron por los nuevos.
Salida de JSON:
{
"name":"projects/[PROJECT_ID]/jobTriggers/[JOB_TRIGGER_NAME]",
"inspectJob":{
"storageConfig":{
"cloudStorageOptions":{
"fileSet":{
"url":"gs://dlptesting/*"
},
"fileTypes":[
"FILE_TYPE_UNSPECIFIED"
],
"filesLimitPercent":100
},
"timespanConfig":{
"enableAutoPopulationOfTimespanConfig":true
}
},
"inspectConfig":{
"infoTypes":[
{
"name":"US_INDIVIDUAL_TAXPAYER_IDENTIFICATION_NUMBER"
}
],
"minLikelihood":"LIKELY",
"limits":{
}
},
"actions":[
{
"jobNotificationEmails":{
}
}
]
},
"triggers":[
{
"schedule":{
"recurrencePeriodDuration":"86400s"
}
}
],
"createTime":"2019-03-06T21:19:45.774841Z",
"updateTime":"2019-03-06T21:27:01.650183Z",
"lastRunTime":"1970-01-01T00:00:00Z",
"status":"HEALTHY"
}
Para intentar realizar esto con rapidez, puedes usar el Explorador de API que se incorpora a continuación. Si quieres obtener información general sobre el uso de JSON para enviar solicitudes a la API de DLP, consulta la guía de inicio rápido de JSON.
Usa un activador de trabajo
En esta sección, se describe cómo usar los activadores de trabajo para analizar solo el contenido nuevo y cómo activar los trabajos cada vez que se sube un archivo a Cloud Storage mediante Cloud Functions.
Limita el análisis solo al contenido nuevo
También puedes configurar una opción para establecer de forma automática la fecha del período de los archivos almacenados en Cloud Storage o BigQuery. Una vez que configures el objeto TimespanConfig
para que se complete automáticamente, Cloud DLP solo analizará los datos que se agregaron o modificaron desde la última ejecución:
...
timespan_config {
enable_auto_population_of_timespan_config: true
}
...
Activa trabajos en la carga de archivos
Además de la compatibilidad con activadores de trabajo integrados en Cloud DLP, Google Cloud también tiene una variedad de otros componentes que se pueden usar para integrar o activar trabajos de DLP. Por ejemplo, puedes usar Cloud Functions para activar un análisis de DLP cada vez que se suba un archivo a Cloud Storage.
Para obtener instrucciones paso a paso sobre cómo hacerlo, consulta Cómo automatizar la clasificación de datos subidos a Cloud Storage.