Cette page explique comment créer une analyse de profil de données à l'aide de la console Google Cloud, de Google Cloud CLI ou de l'API REST.
Pour en savoir plus sur les analyses de profil de données Dataplex, consultez la page À propos du profilage de données.
Avant de commencer
Dans la console Google Cloud, activez l'API Dataplex.
Autorisations
Pour profiler des tables BigQuery, vous devez disposer des autorisations suivantes:
Pour exécuter une analyse de profil de données sur une table BigQuery, vous devez disposer d'une autorisation de lecture de la table BigQuery et d'une autorisation de création d'une tâche BigQuery dans le projet utilisé pour analyser la table.
Si la table BigQuery et l'analyse du profil de données se trouvent dans des projets différents, vous devez attribuer au compte de service Dataplex l'autorisation de lecture sur la table BigQuery correspondante.
Si les données BigQuery sont organisées dans un lac Dataplex, vous avez besoin des rôles Dataplex
roles/dataplex.metadataReader
etroles/dataplex.viewer
pour créer une analyse de profil de données. Cela accorde les autorisations suivantes:dataplex.lakes.list
dataplex.lakes.get
dataplex.zones.list
dataplex.zones.get
dataplex.entities.list
dataplex.entities.get
dataplex.operations.get
Si vous analysez une table externe BigQuery à partir de Cloud Storage, attribuez au compte de service Dataplex le rôle Lecteur des objets Cloud Storage (
roles/storage.objectViewer
) ou les autorisations suivantes pour le bucket:storage.buckets.get
storage.objects.get
Si vous souhaitez publier les résultats de l'analyse du profil de données sur les pages BigQuery et Data Catalog de la console Google Cloud pour les tables sources, vous devez disposer du rôle IAM "Éditeur de données BigQuery" (
roles/bigquery.dataEditor
) sur la table. Vous devez également disposer de toutes les autorisations suivantes:bigquery.tables.get
bigquery.tables.update
bigquery.tables.updateData
bigquery.tables.delete
Pour exporter les résultats de l'analyse vers une table BigQuery, votre compte de service Dataplex doit disposer du rôle Éditeur de données BigQuery (
roles/bigquery.dataEditor
). Cela accorde les autorisations suivantes:bigquery.datasets.get
bigquery.tables.create
bigquery.tables.get
bigquery.tables.getData
bigquery.tables.update
bigquery.tables.updateData
Si vous devez accéder à des colonnes protégées par des règles d'accès au niveau des colonnes BigQuery, attribuez les autorisations du compte de service Dataplex à ces colonnes. L'utilisateur qui crée ou met à jour une analyse de données doit également disposer d'autorisations pour les colonnes.
Si des règles d'accès BigQuery au niveau des lignes sont activées pour une table, vous ne pouvez analyser que les lignes visibles par le compte de service Dataplex. Notez que les droits d'accès de l'utilisateur individuel ne sont pas évalués pour les règles au niveau des lignes.
Rôles et autorisations d'analyse des données
Pour utiliser le profilage des données, un administrateur de projet attribue un rôle prédéfini avec des autorisations déjà accordées ou accorde des autorisations individuelles. Les rôles sont les suivants:
roles/dataplex.dataScanAdmin
: accès complet aux ressourcesDataScan
.roles/dataplex.dataScanEditor
: accès en écriture aux ressourcesDataScan
.roles/dataplex.dataScanViewer
: accès en lecture aux ressourcesDataScan
, à l'exception des résultats.roles/dataplex.dataScanDataViewer
: accès en lecture aux ressourcesDataScan
, y compris aux résultats.
Le tableau suivant répertorie les autorisations d'analyse des données:
Nom de l'autorisation | Accorde l'autorisation d'effectuer les opérations suivantes: |
---|---|
dataplex.datascans.create |
Créer un objet DataScan |
dataplex.datascans.delete |
Supprimer un objet DataScan |
dataplex.datascans.get |
Afficher les détails de DataScan en excluant les résultats |
dataplex.datascans.getData |
Afficher les détails de DataScan , y compris les résultats |
dataplex.datascans.list |
Lister les DataScan |
dataplex.datascans.run |
Exécuter un DataScan |
dataplex.datascans.update |
Mettre à jour la description d'un DataScan |
dataplex.datascans.getIamPolicy |
Afficher les autorisations IAM actuelles de l'analyse |
dataplex.datascans.setIamPolicy |
Définir les autorisations IAM sur l'analyse |
Créer une analyse de profil de données
Console
Dans la console Google Cloud, accédez à la page Profil.
Cliquez sur Créer une analyse de profil de données.
Saisissez un nom à afficher.
Pour modifier l'ID d'analyse généré automatiquement, fournissez le vôtre. Consultez la convention d'attribution de noms des ressources.
Facultatif : saisissez une Description.
Dans le champ Table, cliquez sur Parcourir.
Sélectionnez un tableau, puis cliquez sur Sélectionner.
Dans le champ Champ d'application, sélectionnez Incrémentiel ou Intégralité des données.
- Si vous choisissez Données incrémentielles, dans le champ Colonne de code temporel, sélectionnez une colonne de type
DATE
ouTIMESTAMP
dans votre table BigQuery, qui augmente de façon linéaire et permet d'identifier de nouveaux enregistrements. Pour les tables partitionnées sur une colonne de typeDATE
ouTIMESTAMP
, nous vous recommandons d'utiliser la colonne de partition comme champ d'horodatage.
- Si vous choisissez Données incrémentielles, dans le champ Colonne de code temporel, sélectionnez une colonne de type
Pour appliquer l'échantillonnage à l'analyse de votre profil de données, sélectionnez un pourcentage d'échantillonnage dans la liste Taille d'échantillonnage.
- Choisissez une valeur de pourcentage comprise entre 0,0% et 100,0 %, avec trois chiffres après la virgule au maximum.
- Pour les ensembles de données plus volumineux, choisissez un pourcentage d'échantillonnage inférieur. Par exemple, pour une table d'environ 1 PB, si vous saisissez une valeur comprise entre 0,1 et 1 %, Dataplex échantillonne entre 1 et 10 To de données.
- Vous devez disposer d'au moins 100 enregistrements dans les données échantillonnées pour obtenir un résultat.
- Pour les analyses de données incrémentielles, Dataplex applique l'échantillonnage au dernier incrément.
Pour filtrer par ligne, cliquez sur Filtres, puis sélectionnez Filtrer les lignes.
Saisissez une expression SQL valide pouvant être utilisée dans une clause
WHERE
en syntaxe GoogleSQL. Par exemple :col1 >= 0
.Le filtre peut être une combinaison de conditions SQL sur plusieurs colonnes. Exemple :
col1 >= 0 AND col2 < 10
.
Facultatif: Cliquez sur Filtres. Cochez la case Filtrer les colonnes.
a. Dans le champ Inclure les colonnes, cliquez sur Parcourir.
- Spécifiez les colonnes à inclure dans l'analyse du profil. Sélectionnez les colonnes de votre choix en cochant les cases correspondantes, puis cliquez sur Sélectionner.
b. Dans le champ Colonnes à exclure, cliquez sur Parcourir.
- Spécifiez les colonnes à exclure de l'analyse du profil. Sélectionnez les colonnes de votre choix en cochant les cases correspondantes, puis cliquez sur Sélectionner.
Facultatif: Publiez les résultats de l'analyse du profil de données sur les pages BigQuery et Data Catalog de la console Google Cloud pour la table source. Cochez la case Publier les résultats dans les interfaces utilisateur de BigQuery et de Dataplex Catalog.
Vous pouvez consulter les derniers résultats de l'analyse dans l'onglet Profil de données des pages BigQuery et Data Catalog pour la table source. Pour permettre aux utilisateurs d'accéder aux résultats d'analyse publiés, consultez la section Partager les résultats publiés.
L'option de publication peut ne pas être disponible dans les cas suivants:
- Vous ne disposez pas des autorisations nécessaires pour la table.
- Une autre analyse de la qualité des données est configurée pour publier les résultats.
Pour en savoir plus sur les autorisations requises pour afficher les résultats publiés, consultez la section Autorisations.
Facultatif: exportez les résultats de l'analyse vers une table standard BigQuery. Cliquez sur Parcourir pour sélectionner un ensemble de données BigQuery existant dans lequel stocker les résultats de l'analyse du profil de données.
Si la table spécifiée n'existe pas, Dataplex la crée pour vous. Si vous utilisez une table existante, assurez-vous qu'elle est compatible avec le schéma de table décrit plus loin dans cette section.
(Facultatif) Ajoutez des libellés. Les libellés sont des paires
key:value
qui vous permettent de regrouper des objets associés ou de les combiner à d'autres ressources Google Cloud .Sous Options de programmation, choisissez l'une des options suivantes:
Répéter: exécutez votre tâche d'analyse du profil de données selon un calendrier: quotidien, hebdomadaire, mensuel ou personnalisé. Spécifiez la fréquence d'exécution de l'analyse et l'heure. Si vous choisissez "Custom" (Personnalisé), utilisez le format cron pour spécifier la planification.
À la demande: créez votre analyse de profil de données et exécutez-la à tout moment à l'aide de l'action "Exécuter maintenant".
Cliquez sur Créer.
gcloud
Pour créer une analyse de profil de données, exécutez la commande suivante:
gcloud dataplex datascans create data-profile DATASCAN \ --location=LOCATION \ --data-source-entity=DATA_SOURCE_ENTITY | --data-source-resource=DATA_SOURCE_RESOURCE
Remplacez les variables suivantes :
DATASCAN
: nom de l'analyse du profil de données.LOCATION
: région dans laquelle créer l'analyse du profil de données. Google CloudDATA_SOURCE_ENTITY
: entité Dataplex contenant les données pour l'analyse du profil de données. Exemple :projects/test-project/locations/test-location/lakes/test-lake/zones/test-zone/entities/test-entity
.DATA_SOURCE_RESOURCE
: nom de la ressource contenant les données pour l'analyse du profil de données. Exemple ://bigquery.googleapis.com/projects/test-project/datasets/test-dataset/tables/test-table
.
Pour en savoir plus sur les arguments facultatifs, consultez la documentation de référence de gcloud CLI.
REST
Utilisez l'explorateur d'API pour créer une analyse de profil de données.
Créer plusieurs analyses de profil de données
Console
Dans la console Google Cloud, accédez à la page Profil.
Cliquez sur Créer plusieurs analyses de profil.
Saisissez un préfixe d'ID. Dataplex génère automatiquement des ID d'analyse à l'aide du préfixe et des suffixes uniques fournis.
Saisissez une description pour toutes les analyses de profil des données.
Dans le champ Ensemble de données, cliquez sur Parcourir. Sélectionnez un ensemble de données à partir duquel choisir des tables. Cliquez sur Sélectionner.
Si l'ensemble de données est multirégional, sélectionnez une région dans laquelle créer les analyses de profil de données.
Sélectionnez Options de configuration courantes:
Dans le champ Champ d'application, sélectionnez Incrémentiel ou Intégralité des données.
Pour appliquer l'échantillonnage à vos analyses de profil de données, sélectionnez un pourcentage d'échantillonnage dans la liste Taille d'échantillonnage.
Choisissez une valeur en pourcentage comprise entre 0,0% et 100,0 %, avec trois chiffres après la virgule au maximum.
Pour afficher les résultats de toutes les analyses, sélectionnez Publication. Vous pouvez consulter les résultats dans l'onglet Profil des détails de la table BigQuery ou Data Catalog. Assurez-vous de disposer des autorisations
bigquery.tables.update
sur les tables sources.Sous Options de programmation, choisissez l'une des options suivantes:
Répéter: exécutez vos tâches d'analyse de profil des données selon un calendrier. Indiquez la fréquence d'exécution de l'analyse (quotidienne, hebdomadaire, mensuelle ou personnalisée) et l'heure. Si vous choisissez "Personnalisé", utilisez le format cron pour spécifier la planification.
À la demande: créez vos jobs d'analyse de profil des données et exécutez-les à tout moment en cliquant sur Exécuter.
Dans l'option Choisir des tables, cliquez sur Parcourir. Sélectionnez un ou plusieurs des tableaux à numériser. Cliquez sur Sélectionner.
Sélectionnez Paramètres supplémentaires:
Pour enregistrer les résultats de vos analyses de profils de données dans une table BigQuery de votre choix, sélectionnez une table dans Exporter les résultats d'analyse vers une table BigQuery. Dataplex copie et enregistre automatiquement les résultats dans cette table pour chaque tâche d'analyse.
Cliquez sur Parcourir pour sélectionner un ensemble de données.
Saisissez une table BigQuery dans laquelle enregistrer les résultats. Il peut s'agir d'une table existante, utilisée par d'autres analyses de profil de données Dataplex pour enregistrer les résultats. Si aucune table ne porte le nom spécifié, Dataplex en crée une.
Ajoutez des libellés pour annoter l'analyse de votre profil de données.
Cliquez sur Exécuter l'analyse pour créer et exécuter toutes les analyses. Cette option n'est disponible que pour les analyses à la demande.
Cliquez sur Créer pour créer toutes les analyses.
gcloud
Non compatible
REST
Non compatible
Exporter le schéma de la table
Si vous souhaitez exporter les résultats de l'analyse du profil de données vers une table BigQuery existante, assurez-vous qu'elle est compatible avec le schéma de table suivant:
Nom de la colonne | Type de données de la colonne | Nom du sous-champ (le cas échéant) |
Type de données du sous-champ | Mode | Exemple |
---|---|---|---|---|---|
data_profile_scan | struct/record |
resource_name |
string |
nullable | //dataplex.googleapis.com/projects/test-project/locations/europe-west2/datascans/test-datascan |
project_id |
string |
nullable | test-project |
||
location |
string |
nullable | us-central1 |
||
data_scan_id |
string |
nullable | test-datascan |
||
data_source | struct/record |
resource_name |
string |
nullable | Cas de l'entité://dataplex.googleapis.com/projects/test-project/locations/europe-west2/lakes/test-lake/zones/test-zone/entities/test-entity
Cas de la table : //bigquery.googleapis.com/projects/test-project/datasets/test-dataset/tables/test-table
|
dataplex_entity_project_id |
string |
nullable | test-project |
||
dataplex_entity_project_number |
integer |
nullable | 123456789012 |
||
dataplex_lake_id |
string |
nullable | (Valable uniquement si la source est une entité)test-lake
|
||
dataplex_zone_id |
string |
nullable | (Valable uniquement si la source est une entité)test-zone |
||
dataplex_entity_id |
string |
nullable | (Valable uniquement si la source est une entité)test-entity |
||
table_project_id |
string |
nullable | dataplex-table |
||
table_project_number |
int64 |
nullable | 345678901234 |
||
dataset_id |
string |
nullable | (Valide uniquement si la source est une table)test-dataset |
||
table_id |
string |
nullable | (Valide uniquement si la source est une table)test-table |
||
data_profile_job_id | string |
nullable | caeba234-cfde-4fca-9e5b-fe02a9812e38 |
||
data_profile_job_configuration | json |
trigger |
string |
nullable | ondemand /schedule |
incremental |
boolean |
nullable | true /false |
||
sampling_percent |
float |
nullable | (0-100)20.0 (indique 20%) |
||
row_filter |
string |
nullable | col1 >= 0 AND col2 < 10 |
||
column_filter |
json |
nullable | {"include_fields":["col1","col2"], "exclude_fields":["col3"]} |
||
job_labels | json |
nullable | {"key1":value1} |
||
job_start_time | timestamp |
nullable | 2023-01-01 00:00:00 UTC |
||
job_end_time | timestamp |
nullable | 2023-01-01 00:00:00 UTC |
||
job_rows_scanned | integer |
nullable | 7500 |
||
column_name | string |
nullable | column-1 |
||
column_type | string |
nullable | string |
||
column_mode | string |
nullable | repeated |
||
percent_null | float |
nullable | (0,0 à 100,0)20.0 (indique 20%) |
||
percent_unique | float |
nullable | (0,0-100,0)92.5 |
||
min_string_length | integer |
nullable | (Valable uniquement si le type de colonne est une chaîne)10 |
||
max_string_length | integer |
nullable | (Valable uniquement si le type de colonne est une chaîne)4 |
||
average_string_length | float |
nullable | (Valable uniquement si le type de colonne est une chaîne)7.2 |
||
min_value | float |
nullable | (Valable uniquement si le type de colonne est numérique : entier/flottant) | ||
max_value | float |
nullable | (Valable uniquement si le type de colonne est numérique : entier/à virgule flottante) | ||
valeur_moyenne | float |
nullable | (Valable uniquement si le type de colonne est numérique : entier/à virgule flottante) | ||
écart_type | float |
nullable | (Valable uniquement si le type de colonne est numérique : entier/à virgule flottante) | ||
quartile_lower | integer |
nullable | (Valable uniquement si le type de colonne est numérique : entier/à virgule flottante) | ||
quartile_median | integer |
nullable | (Valable uniquement si le type de colonne est numérique : entier/à virgule flottante) | ||
quartile_upper | integer |
nullable | (Valable uniquement si le type de colonne est numérique : entier/à virgule flottante) | ||
top_n | struct/record - repeated |
value |
string |
nullable | "4009" |
count |
integer |
nullable | 20 |
||
percent |
float |
nullable | 10 (indique 10%) |
Configuration du tableau d'exportation
Lorsque vous exportez vers des tables BigQueryExport, suivez ces consignes:
- Pour le champ
resultsTable
, utilisez le format ://bigquery.googleapis.com/projects/{project-id}/datasets/{dataset-id}/tables/{table-id}
. - Utilisez une table standard BigQuery.
- Si la table n'existe pas au moment de la création ou de la mise à jour de l'analyse, Dataplex la crée pour vous.
- Par défaut, la table est partitionnée quotidiennement sur la colonne
job_start_time
. - Si vous souhaitez que la table soit partitionnée dans d'autres configurations ou si vous ne souhaitez pas de partitionnement, recréez la table avec le schéma et les configurations requis, puis fournissez la table précréée comme table de résultats.
- Assurez-vous que la table des résultats se trouve au même emplacement que la table source.
- Si VPC-SC est configuré sur le projet, le tableau des résultats doit se trouver dans le même périmètre VPC-SC que le tableau source.
- Si la table est modifiée lors de l'étape d'exécution de l'analyse, le job en cours d'exécution exporte les données vers la table de résultats précédente, et le changement de table prend effet à partir du prochain job d'analyse.
- Ne modifiez pas le schéma de la table. Si vous avez besoin de colonnes personnalisées, créez une vue sur le tableau.
- Pour réduire les coûts, définissez une date d'expiration sur la partition en fonction de votre cas d'utilisation. Pour en savoir plus, consultez la section Définir le délai d'expiration de la partition.
Analyser un profil de données
Console
- Dans la console Google Cloud, accédez à la page Profil de Dataplex. Accéder à "Profil"
- Cliquez sur l'analyse du profil de données à exécuter.
- Cliquez sur Exécuter maintenant.
gcloud
Pour exécuter une analyse de profil de données, exécutez la commande suivante:
gcloud dataplex datascans run DATASCAN \ --location=LOCATION
Remplacez les variables suivantes :
DATASCAN
: nom de l'analyse du profil de données.LOCATION
: région dans laquelle l'analyse du profil de données a été créée. Google Cloud
Pour en savoir plus sur les arguments facultatifs, consultez la documentation de référence de gcloud CLI.
REST
Utilisez APIs Explorer pour exécuter l'analyse de votre profil de données.
Afficher les résultats de l'analyse de profil de données
Console
Toutes les analyses de profil de données que vous créez s'affichent sur la page Profil.
Pour afficher les résultats détaillés d'une analyse, cliquez sur son nom.
La section Aperçu affiche les analyses, l'heure de chaque analyse, le nombre d'enregistrements de table analysés et l'état de la tâche.
La section Configuration de l'analyse du profil contient des informations sur l'analyse.
gcloud
Pour afficher les résultats d'une analyse de profil de données, exécutez la commande suivante:
gcloud dataplex datascans jobs describe JOB \ --location=LOCATION \ --datascan=DATASCAN \ --view=FULL
Remplacez les variables suivantes :
JOB
: ID de la tâche d'analyse du profil de données.LOCATION
: région dans laquelle l'analyse du profil de données a été créée. Google CloudDATASCAN
: nom de l'analyse du profil de données à laquelle la tâche appartient.--view=FULL
: pour afficher le résultat de l'analyse, spécifiezFULL
.
Pour en savoir plus sur les arguments facultatifs, consultez la documentation de référence de gcloud CLI.
REST
Utilisez APIs Explorer pour afficher les résultats d'une analyse de profil de données.
Afficher la tâche d'analyse de profil de données la plus récente
Console
L'onglet Derniers résultats de la tâche fournit des informations sur la dernière tâche lorsqu'au moins une exécution a réussi. Il liste les colonnes de la table scannée et les statistiques sur les colonnes détectées lors de l'analyse.
gcloud
Pour afficher l'analyse de profil de données la plus récente, exécutez la commande suivante:
gcloud dataplex datascans describe DATASCAN \ --location=LOCATION \ --view=FULL
Remplacez les variables suivantes :
DATASCAN
: nom de l'analyse du profil de données pour laquelle afficher la tâche la plus récente.LOCATION
: région dans laquelle l'analyse du profil de données a été créée. Google Cloud--view=FULL
: pour afficher le résultat de l'analyse, spécifiezFULL
.
Pour en savoir plus sur les arguments facultatifs, consultez la documentation de référence de gcloud CLI.
REST
Utilisez APIs Explorer pour afficher la tâche d'analyse la plus récente.
Afficher toutes les tâches d'analyse de profil de données
Dataplex enregistre l'historique des analyses de profil de données des 300 dernières tâches ou de l'année précédente, selon la première éventualité.
Console
L'onglet Historique des tâches fournit des informations sur les tâches précédentes. Il liste toutes les tâches, le nombre d'enregistrements analysés dans chaque tâche, l'état de la tâche, le temps d'exécution de la tâche, etc.
Pour afficher les informations détaillées sur une tâche, cliquez sur l'une des tâches sous ID de la tâche.
gcloud
Pour afficher toutes les tâches d'une analyse de profil de données, exécutez la commande suivante:
gcloud dataplex datascans jobs list \ --location=LOCATION \ --datascan=DATASCAN
Remplacez les variables suivantes :
LOCATION
: région dans laquelle l'analyse du profil de données a été créée. Google CloudDATASCAN
: nom de l'analyse du profil de données pour afficher toutes les tâches.
Pour en savoir plus sur les arguments facultatifs, consultez la documentation de référence de gcloud CLI.
REST
Utilisez APIs Explorer pour afficher toutes les tâches d'analyse.
Partager les résultats publiés
Lorsque vous créez une analyse de profil de données, si vous avez choisi de publier les résultats de l'analyse sur les pages BigQuery et Data Catalog de la console Google Cloud, les derniers résultats de l'analyse seront disponibles dans l'onglet Profil de données de ces pages.
Vous pouvez autoriser les utilisateurs de votre organisation à accéder aux résultats d'analyse publiés. Pour accorder l'accès aux résultats de l'analyse, procédez comme suit:
Dans la console Google Cloud, accédez à la page Profil.
Cliquez sur l'analyse du profil de données dont vous souhaitez partager les résultats.
Accédez à l'onglet Autorisations.
Cliquez sur Accorder l'accès.
Dans le champ Nouveaux comptes principaux, ajoutez le compte principal auquel vous souhaitez accorder l'accès.
Dans le champ Sélectionner un rôle, sélectionnez Lecteur de données Dataplex DataScan.
Cliquez sur Enregistrer.
Pour supprimer l'accès aux résultats d'analyse publiés pour un compte principal, procédez comme suit:
Dans la console Google Cloud, accédez à la page Profil.
Cliquez sur l'analyse du profil de données dont vous souhaitez partager les résultats.
Accédez à l'onglet Autorisations.
Sélectionnez le compte principal pour lequel vous souhaitez supprimer le rôle Lecteur de données Dataplex DataScan.
Cliquez sur Supprimer l'accès.
Cliquez sur Confirmer.
Mettre à jour une analyse de profil de données
Console
Dans la console Google Cloud, accédez à la page Profil.
Sur la ligne de l'analyse que vous souhaitez modifier, cliquez sur > Modifier.
Modifiez les valeurs.
Cliquez sur Enregistrer.
gcloud
Pour mettre à jour une analyse de profil de données, exécutez la commande suivante:
gcloud dataplex datascans update data-profile DATASCAN \ --location=LOCATION \ --description=DESCRIPTION
Remplacez les variables suivantes :
DATASCAN
: nom de l'analyse du profil de données à mettre à jour.LOCATION
: région dans laquelle l'analyse du profil de données a été créée. Google CloudDESCRIPTION
: nouvelle description de l'analyse du profil de données.
Pour connaître les champs de spécification à mettre à jour, consultez la documentation de référence de gcloud CLI.
REST
Utilisez l'explorateur d'API pour modifier une analyse de profil de données.
Supprimer une analyse de profil de données
Console
Dans la console Google Cloud, accédez à la page Profil. Accédez à Profil Dataplex.
Cliquez sur l'analyse que vous souhaitez supprimer.
Cliquez sur Supprimer.
gcloud
Pour supprimer une analyse de profil de données, exécutez la commande suivante:
gcloud dataplex datascans delete \ DATASCAN --location=LOCATION \ --async
Remplacez les variables suivantes :
DATASCAN
: nom de l'analyse du profil de données à supprimer.LOCATION
: région dans laquelle l'analyse du profil de données a été créée. Google Cloud
Pour en savoir plus sur les arguments facultatifs, consultez la documentation de référence de gcloud CLI.
REST
Utilisez l'explorateur d'API pour supprimer l'analyse de votre profil de données.
Étape suivante
- Découvrez le profilage de données.
- En savoir plus sur la qualité automatique des données
- Découvrez comment utiliser la qualité automatique des données.