Cette page explique comment créer une analyse de profil de données à l'aide du la console Google Cloud, Google Cloud CLI ou l'API REST.
Pour en savoir plus sur les analyses de profil de données Dataplex, consultez la page À propos du profilage de données.
Avant de commencer
Dans la console Google Cloud, activez l'API Dataplex.
Autorisations
Pour profiler des tables BigQuery, vous devez disposer des autorisations suivantes:
Pour analyser un profil de données sur une table BigQuery, vous avez besoin des éléments suivants : l'autorisation de lire la table BigQuery et l'autorisation créer un job BigQuery dans le projet utilisé pour analyser la table.
Si la table BigQuery et l'analyse du profil de données se trouvent dans projets différents, vous devez attribuer au service Dataplex de lecture sur la table BigQuery correspondante.
Si les données BigQuery sont organisées dans un lac Dataplex, vous avez besoin des rôles Dataplex
roles/dataplex.metadataReader
etroles/dataplex.viewer
pour créer une analyse de profil de données. Cela accorde les autorisations suivantes :dataplex.lakes.list
dataplex.lakes.get
dataplex.zones.list
dataplex.zones.get
dataplex.entities.list
dataplex.entities.get
dataplex.operations.get
Si vous analysez une table externe BigQuery à partir de Cloud Storage, attribuez au compte de service Dataplex le rôle Lecteur d'objets Cloud Storage (
roles/storage.objectViewer
) ou les autorisations suivantes pour le bucket :storage.buckets.get
storage.objects.get
Si vous souhaitez publier les résultats de l'analyse du profil de données sur les pages BigQuery et Data Catalog de la console Google Cloud pour les tables sources, vous devez disposer du rôle IAM Éditeur de données BigQuery (
roles/bigquery.dataEditor
) ou de l'autorisationbigquery.tables.update
sur la table.Pour exporter les résultats d'analyse vers une table BigQuery, Le compte de service Dataplex a besoin du rôle BigQuery Éditeur de données (
roles/bigquery.dataEditor
). Vous bénéficiez ainsi des avantages suivants : autorisations:bigquery.datasets.get
bigquery.tables.create
bigquery.tables.get
bigquery.tables.getData
bigquery.tables.update
bigquery.tables.updateData
Si vous devez accéder à des colonnes protégées par des règles d'accès au niveau des colonnes BigQuery, attribuez les autorisations du compte de service Dataplex à ces colonnes. L'utilisateur qui crée ou met à jour une analyse de données a également besoin d'autorisations pour les colonnes.
Si des règles d'accès BigQuery au niveau des lignes sont activées pour une table, vous ne pouvez analyser que les lignes visibles par le compte de service Dataplex. Notez que les règles au niveau des lignes ne tiennent pas compte des droits d'accès d'un utilisateur donné.
Rôles et autorisations d'analyse de données
Pour utiliser le profilage des données, un administrateur de projet attribue un rôle prédéfini avec des autorisations déjà accordées, ou accorde des autorisations individuelles. Rôles sont les suivantes:
roles/dataplex.dataScanAdmin
: accès complet aux ressourcesDataScan
.roles/dataplex.dataScanEditor
: accès en écriture aux ressourcesDataScan
.roles/dataplex.dataScanViewer
: accès en lecture aux ressourcesDataScan
, à l'exclusion des résultats.roles/dataplex.dataScanDataViewer
: accès en lecture aux ressourcesDataScan
, y compris aux résultats.
Le tableau suivant répertorie les autorisations d'analyse des données :
Nom de l'autorisation | Accorde l'autorisation d'effectuer les opérations suivantes: |
---|---|
dataplex.datascans.create |
Créer un objet DataScan |
dataplex.datascans.delete |
Supprimer un objet DataScan |
dataplex.datascans.get |
Afficher DataScan détails excluant les résultats |
dataplex.datascans.getData |
Afficher les détails de DataScan , y compris les résultats |
dataplex.datascans.list |
Répertorier les DataScan |
dataplex.datascans.run |
Exécuter une DataScan |
dataplex.datascans.update |
Mettre à jour la description d'un DataScan |
dataplex.datascans.getIamPolicy |
Afficher les autorisations IAM actuelles sur l'analyse |
dataplex.datascans.setIamPolicy |
Définir des autorisations IAM sur l'analyse |
Créer une analyse de profil de données
Console
Dans la console Google Cloud, accédez à la page Profil.
Cliquez sur Créer une analyse de profil de données.
Saisissez un nom dans le champ Nom à afficher.
Pour modifier l'ID d'analyse généré automatiquement, fournissez le vôtre. Voir Convention d'attribution de noms aux ressources :
Facultatif : saisissez une Description.
Dans le champ Table, cliquez sur Parcourir.
Sélectionnez une table, puis cliquez sur Sélectionner.
Dans le champ Portée, sélectionnez Incrémentiel ou Données complètes.
- Si vous sélectionnez Données incrémentielles, dans le champ Colonne Horodatage,
sélectionnez une colonne de type
DATE
ouTIMESTAMP
dans votre table BigQuery qui augmente de façon linéaire et peut être utilisé pour identifier de nouveaux enregistrements. Pour les tables partitionnées sur une colonne de typeDATE
ouTIMESTAMP
, nous vous recommandons d'utiliser la colonne de partition comme champ d'horodatage.
- Si vous sélectionnez Données incrémentielles, dans le champ Colonne Horodatage,
sélectionnez une colonne de type
Pour appliquer l'échantillonnage à l'analyse de votre profil de données, sélectionnez un pourcentage d'échantillonnage dans la liste Taille d'échantillonnage.
- Choisissez une valeur en pourcentage comprise entre 0,0% et 100,0% avec jusqu'à Trois chiffres décimaux.
- Pour les ensembles de données plus volumineux, choisissez un pourcentage d'échantillonnage plus faible. Par exemple : pour une table d'environ 1 Po, si vous saisissez une valeur comprise entre 0,1% et 1%, Dataplex échantillonne entre 1 et 10 To de données.
- Les données échantillonnées doivent comporter au moins 100 enregistrements pour renvoyer un résultat.
- Pour les analyses de données incrémentielles, Dataplex applique l'échantillonnage au dernier incrément.
Pour filtrer par ligne, cliquez sur Filtres, puis sélectionnez Filtrer les lignes.
Saisissez une expression SQL valide pouvant être utilisée dans une clause
WHERE
en syntaxe SQL standard BigQuery. Par exemple :col1 >= 0
.Le filtre peut être une combinaison de conditions SQL sur plusieurs colonnes. Exemple :
col1 >= 0 AND col2 < 10
.
(Facultatif) Cliquez sur Filtres. Cochez la case Filtrer les colonnes.
a. Dans le champ Inclure les colonnes, cliquez sur Parcourir.
- Spécifiez les colonnes à inclure dans l'analyse du profil. Sélectionnez l'icône les colonnes de votre choix en cochant les cases et en cliquant sur Sélectionner.
b. Dans le champ Colonnes à exclure, cliquez sur Parcourir.
- Spécifiez les colonnes à exclure de l'analyse du profil. Sélectionnez l'icône les colonnes de votre choix en cochant les cases et en cliquant sur Sélectionner.
Facultatif: Publiez les résultats de l'analyse du profil de données dans le les pages BigQuery et Data Catalog de la console Google Cloud pour la table source. Cochez la case Publier les résultats dans les interfaces utilisateur de BigQuery et de Dataplex Catalog.
Vous pouvez afficher les derniers résultats d'analyse dans l'onglet Profil de données sous Pages BigQuery et Data Catalog pour la source tableau. Pour permettre aux utilisateurs d'accéder aux résultats d'analyse publiés, consultez la section Partager les résultats publiés.
L'option de publication peut ne pas être disponible dans les cas suivants:
- Vous ne disposez pas des autorisations nécessaires pour la table.
- Une autre analyse de la qualité des données est configurée pour publier les résultats.
Pour en savoir plus sur les autorisations requises pour afficher les les résultats publiés, consultez la section Autorisations.
Facultatif : exportez les résultats de l'analyse vers une table standard BigQuery. Cliquez sur Parcourir pour sélectionner un fichier BigQuery existant pour stocker les résultats de l'analyse du profil de données.
Si la table spécifiée n'existe pas, Dataplex la crée pour vous. Si vous utilisez une table existante, assurez-vous qu'elle est compatible avec le schéma de table décrit plus loin dans cette section.
(Facultatif) Ajoutez des libellés. Les libellés sont des paires
key:value
qui vous permettent de regrouper des objets associés ou de les combiner à d'autres ressources Google Cloud.Sous Options de programmation, sélectionnez l'une des options suivantes:
Répéter : exécutez la tâche d'analyse de votre profil de données selon un planning défini (tous les jours) hebdomadaire, mensuel ou personnalisé. Spécifiez la fréquence d'exécution de l'analyse à quelle heure. Si vous choisissez "Personnalisé", utilisez le format cron pour spécifier la planification.
À la demande : créez votre analyse de profil de données et exécutez-la à tout moment à l'aide de l'action "Exécuter maintenant".
Cliquez sur Créer.
gcloud
Pour créer une analyse de profil de données, exécutez la commande suivante :
gcloud dataplex datascans create data-profile DATASCAN \ --location=LOCATION \ --data-source-entity=DATA_SOURCE_ENTITY | --data-source-resource=DATA_SOURCE_RESOURCE
Remplacez les variables suivantes :
DATASCAN
: nom de l'analyse du profil de données.LOCATION
: région Google Cloud dans laquelle créer l'analyse du profil de données.DATA_SOURCE_ENTITY
: Dataplex entité contenant les données pour l'analyse du profil de données. Exemple :projects/test-project/locations/test-location/lakes/test-lake/zones/test-zone/entities/test-entity
.DATA_SOURCE_RESOURCE
: nom de la ressource contenant les données pour l'analyse du profil de données. Exemple ://bigquery.googleapis.com/projects/test-project/datasets/test-dataset/tables/test-table
.
Pour en savoir plus sur les arguments facultatifs, consultez la documentation de référence de gcloud CLI.
REST
Utilisez APIs Explorer pour créer une analyse de profil de données.
Créer plusieurs analyses de profil de données
Console
Dans la console Google Cloud, accédez à la page Profil.
Cliquez sur Créer plusieurs analyses de profil.
Saisissez un préfixe d'ID. Dataplex génère automatiquement des ID d'analyse à l'aide du préfixe et des suffixes uniques fournis.
Saisissez une description pour toutes les analyses de profil de données.
Dans le champ Ensemble de données, cliquez sur Parcourir. Sélectionnez un ensemble de données pour choisir des tables Cliquez sur Sélectionner.
Si l'ensemble de données est multirégional, sélectionnez une région dans laquelle créer les analyses de profil de données.
Sélectionnez Common configuration options (Options de configuration courantes) :
Dans le champ Portée, sélectionnez Incrémentiel ou Données complètes.
Pour appliquer l'échantillonnage à vos analyses de profil de données, sélectionnez un pourcentage d'échantillonnage dans la liste Taille d'échantillonnage.
Choisissez une valeur en pourcentage comprise entre 0,0 % et 100,0 %, avec trois chiffres après la virgule au maximum.
Pour afficher les résultats de toutes les analyses, sélectionnez Publication. Vous pouvez affichez les résultats dans l'onglet Profil de la BigQuery ou Détails de la table Data Catalog. Assurez-vous de disposer des autorisations
bigquery.tables.update
sur les tables sources.Sous Options de programmation, choisissez l'une des options suivantes :
Répéter: exécutez les tâches d'analyse de votre profil de données de façon planifiée. Spécifiez la fréquence d'exécution de l'analyse (quotidienne, hebdomadaire, mensuelle ou personnalisée) et l'heure. Si vous choisissez "Personnalisé", utilisez le format cron pour spécifier la planification.
À la demande : créez vos jobs d'analyse de profil des données et exécutez-les à tout moment en cliquant sur Exécuter.
Dans l'option Choisir des tables, cliquez sur Parcourir. Sélectionnez une ou plusieurs les tables à analyser. Cliquez sur Sélectionner.
Sélectionnez Paramètres supplémentaires:
Pour enregistrer les résultats de l'analyse de vos profils de données dans une table BigQuery de votre choix, sélectionnez une table dans Exporter les résultats d'analyse vers une table BigQuery. Dataplex copie et enregistre automatiquement les résultats dans cette table pour chaque tâche d'analyse.
Cliquez sur Parcourir pour sélectionner un ensemble de données.
Saisissez une table BigQuery dans laquelle enregistrer les résultats. Cela peut être une table existante utilisée par d'autres données Dataplex pour enregistrer les résultats. Si aucune table ne porte le nom spécifié, Dataplex en crée une.
Ajoutez des libellés pour annoter l'analyse de votre profil de données.
Cliquez sur Exécuter l'analyse pour créer et exécuter toutes les analyses. Cette option n'est disponible disponibles pour les analyses à la demande.
Cliquez sur Créer pour créer toutes les analyses.
gcloud
Non compatible
REST
Non compatible
Exporter le schéma de la table
Si vous souhaitez exporter les résultats de l'analyse du profil de données vers une table BigQuery existante, assurez-vous qu'elle est compatible avec le schéma de table suivant :
Nom de la colonne | Type de données de la colonne | Nom du sous-champ (le cas échéant) |
Type de données du sous-champ | Mode | Exemple |
---|---|---|---|---|---|
data_profile_scan | struct/record |
resource_name |
string |
pouvant avoir une valeur nulle | //dataplex.googleapis.com/projects/test-project/locations/europe-west2/datascans/test-datascan |
project_id |
string |
pouvant avoir une valeur nulle | test-project |
||
location |
string |
pouvant avoir une valeur nulle | us-central1 |
||
data_scan_id |
string |
nullable | test-datascan |
||
data_source | struct/record |
resource_name |
string |
pouvant avoir une valeur nulle | Cas de l'entité://dataplex.googleapis.com/projects/test-project/locations/europe-west2/lakes/test-lake/zones/test-zone/entities/test-entity
Scénario du tableau: //bigquery.googleapis.com/projects/test-project/datasets/test-dataset/tables/test-table
|
dataplex_entity_project_id |
string |
nullable | test-project |
||
dataplex_entity_project_number |
integer |
pouvant avoir une valeur nulle | 123456789012 |
||
dataplex_lake_id |
string |
pouvant avoir une valeur nulle | (Valable uniquement si la source est une entité)test-lake
|
||
dataplex_zone_id |
string |
pouvant avoir une valeur nulle | (Valable uniquement si la source est une entité)test-zone |
||
dataplex_entity_id |
string |
pouvant avoir une valeur nulle | (Valable uniquement si la source est une entité)test-entity |
||
table_project_id |
string |
pouvant avoir une valeur nulle | dataplex-table |
||
table_project_number |
int64 |
pouvant avoir une valeur nulle | 345678901234 |
||
dataset_id |
string |
pouvant avoir une valeur nulle | (Valide uniquement si la source est une table)test-dataset |
||
table_id |
string |
pouvant avoir une valeur nulle | (Valide uniquement si la source est une table)test-table |
||
data_profile_job_id | string |
pouvant avoir une valeur nulle | caeba234-cfde-4fca-9e5b-fe02a9812e38 |
||
data_profile_job_configuration | json |
trigger |
string |
pouvant avoir une valeur nulle | ondemand /schedule |
incremental |
boolean |
nullable | true /false |
||
sampling_percent |
float |
nullable | (0-100)20.0 (indique 20 %) |
||
row_filter |
string |
nullable | col1 >= 0 AND col2 < 10 |
||
column_filter |
json |
nullable | {"include_fields":["col1","col2"], "exclude_fields":["col3"]} |
||
job_labels | json |
pouvant avoir une valeur nulle | {"key1":value1} |
||
job_start_time | timestamp |
nullable | 2023-01-01 00:00:00 UTC |
||
job_end_time | timestamp |
pouvant avoir une valeur nulle | 2023-01-01 00:00:00 UTC |
||
job_rows_scanned | integer |
nullable | 7500 |
||
column_name | string |
nullable | column-1 |
||
column_type | string |
pouvant avoir une valeur nulle | string |
||
column_mode | string |
pouvant avoir une valeur nulle | repeated |
||
percent_null | float |
pouvant avoir une valeur nulle | (0,0 à 100,0)20.0 (indique 20 %) |
||
percent_unique | float |
nullable | (0,0-100,0)92.5 |
||
min_string_length | integer |
nullable | (Valide uniquement si le type de colonne est chaîne)10 |
||
max_string_length | integer |
pouvant avoir une valeur nulle | (Valide uniquement si le type de colonne est chaîne)4 |
||
average_string_length | float |
nullable | (Valide uniquement si le type de colonne est chaîne)7.2 |
||
min_value | float |
pouvant avoir une valeur nulle | (Valide uniquement si le type de colonne est numérique - entier/flottant) | ||
max_value | float |
pouvant avoir une valeur nulle | (Valide uniquement si le type de colonne est numérique - entier/flottant) | ||
valeur_moyenne | float |
pouvant avoir une valeur nulle | (Valable uniquement si le type de colonne est numérique : entier/à virgule flottante) | ||
standard_deviation | float |
nullable | (Valable uniquement si le type de colonne est numérique : entier/à virgule flottante) | ||
quartile_lower | integer |
pouvant avoir une valeur nulle | (Valide uniquement si le type de colonne est numérique - entier/flottant) | ||
quartile_median | integer |
nullable | (Valable uniquement si le type de colonne est numérique : entier/à virgule flottante) | ||
quartile_upper | integer |
nullable | (Valable uniquement si le type de colonne est numérique : entier/à virgule flottante) | ||
top_n | struct/record - repeated |
value |
string |
nullable | "4009" |
count |
integer |
pouvant avoir une valeur nulle | 20 |
||
percent |
float |
pouvant avoir une valeur nulle | 10 (indique 10 %) |
Exporter la configuration de la table
Lorsque vous exportez des données vers BigQueryExport , suivez les consignes ci-dessous:
- Pour le champ
resultsTable
, utilisez le format ://bigquery.googleapis.com/projects/{project-id}/datasets/{dataset-id}/tables/{table-id}
. - Utilisez une table standard BigQuery.
- Si la table n'existe pas au moment de la création ou de la mise à jour de l'analyse, Dataplex la crée pour vous.
- Par défaut, la table est partitionnée quotidiennement sur la colonne
job_start_time
. - Si vous souhaitez que la table soit partitionnée dans d'autres configurations ou si vous ne voulez pas la partition, puis recréez la table avec la le schéma et les configurations, puis fournissez la table pré-créée en tant que tableau de résultats.
- Assurez-vous que la table des résultats se trouve au même emplacement que la table source.
- Si VPC-SC est configuré sur le projet, la table de résultats doit se trouver dans le le même périmètre VPC-SC que la table source.
- Si la table est modifiée lors de l'étape d'exécution de l'analyse, le job en cours d'exécution exporte les données vers la table de résultats précédente, et le changement de table prend effet à partir du prochain job d'analyse.
- Ne modifiez pas le schéma de la table. Si vous avez besoin de colonnes personnalisées, créez une vue sur le tableau.
- Pour réduire les coûts, définissez un délai d'expiration sur la partition en fonction de votre cas d'utilisation. Pour en savoir plus, découvrez comment définir le délai d'expiration de la partition.
Exécuter une analyse de profil de données
Console
- Dans la console Google Cloud, accédez à Dataplex Profil. Accéder à "Profil"
- Cliquez sur l'analyse du profil de données à exécuter.
- Cliquez sur Exécuter maintenant.
gcloud
Pour exécuter une analyse de profil de données, exécutez la commande suivante :
gcloud dataplex datascans run DATASCAN \ --location=LOCATION
Remplacez les variables suivantes :
DATASCAN
: nom de l'analyse du profil de données.LOCATION
: région Google Cloud dans laquelle l'analyse du profil de données a été créée.
Pour connaître les arguments facultatifs, consultez la documentation de référence de la gcloud CLI.
REST
Utilisez APIs Explorer pour exécuter l'analyse de votre profil de données.
Afficher les résultats de l'analyse de profil de données
Console
Toutes les analyses de profil de données que vous créez s'affichent sur la page Profil.
Pour afficher les résultats détaillés d'une analyse, cliquez sur son nom.
La section Overview (Aperçu) affiche les analyses, l'heure de chaque analyse, le nombre d'enregistrements de table analysés et l'état de la tâche.
La section Configuration de l'analyse du profil contient des informations sur l'analyse.
gcloud
Pour afficher les résultats d'une analyse de profil de données, exécutez la commande suivante :
gcloud dataplex datascans jobs describe JOB \ --location=LOCATION \ --datascan=DATASCAN \ --view=FULL
Remplacez les variables suivantes :
JOB
: ID de la tâche d'analyse du profil de données.LOCATION
: région Google Cloud dans laquelle l'analyse du profil de données a été créée.DATASCAN
: nom de l'analyse du profil de données auquel appartient l'offre d'emploi.--view=FULL
: pour afficher le résultat de l'analyse, spécifiezFULL
.
Pour connaître les arguments facultatifs, consultez la documentation de référence de la gcloud CLI.
REST
Utilisez APIs Explorer pour afficher les résultats d'une analyse de profil de données.
Afficher le job d'analyse du profil de données le plus récent
Console
Onglet Résultats des dernières tâches, lorsqu'au moins une tâche a réussi s'exécute, fournit des informations sur le dernier job. Il répertorie les éléments analysés les colonnes et les statistiques du tableau sur les colonnes trouvées dans l'analyse.
gcloud
Pour afficher l'analyse de profil de données la plus récente, exécutez la commande suivante :
gcloud dataplex datascans describe DATASCAN \ --location=LOCATION \ --view=FULL
Remplacez les variables suivantes :
DATASCAN
: nom de l'analyse du profil de données pour laquelle afficher la tâche la plus récente.LOCATION
: région Google Cloud dans laquelle l'analyse du profil de données a été créée.--view=FULL
: pour afficher le résultat de l'analyse, spécifiezFULL
.
Pour en savoir plus sur les arguments facultatifs, consultez la documentation de référence de gcloud CLI.
REST
Utilisez APIs Explorer pour afficher la tâche d'analyse la plus récente.
Afficher toutes les tâches d'analyse de profil de données
Dataplex enregistre l'historique d'analyse du profil de données des 300 derniers d’emploi ou pour l’année passée, selon la première échéance atteinte.
Console
L'onglet Historique des tâches fournit des informations sur les tâches précédentes. Il liste toutes les tâches, le nombre d'enregistrements analysés dans chaque tâche, l'état de la tâche, le temps d'exécution de la tâche, etc.
Pour afficher les informations détaillées sur une tâche, cliquez sur l'une des tâches sous ID de la tâche.
gcloud
Pour afficher toutes les tâches d'une analyse de profil de données, exécutez la commande suivante :
gcloud dataplex datascans jobs list \ --location=LOCATION \ --datascan=DATASCAN
Remplacez les variables suivantes :
LOCATION
: région Google Cloud dans laquelle l'analyse du profil de données a été créée.DATASCAN
: nom de l'analyse du profil de données à afficher tous les emplois.
Pour en savoir plus sur les arguments facultatifs, consultez la documentation de référence de gcloud CLI.
REST
Utilisez APIs Explorer pour afficher toutes les tâches d'analyse.
Partager les résultats publiés
Lors de la création d'une analyse de profil de données, si vous avez choisi de publier les résultats de l'analyse sur les pages BigQuery et Data Catalog console Google Cloud, les derniers résultats de l'analyse sont disponibles dans la l'onglet Profil de données de ces pages.
Vous pouvez autoriser les utilisateurs de votre organisation à accéder les résultats d'analyse publiés. Pour accorder l'accès aux résultats de l'analyse, procédez comme suit :
Dans la console Google Cloud, accédez à la page Profil.
Cliquez sur l'analyse de profil de données dont vous souhaitez partager les résultats.
Accédez à l'onglet Autorisations.
Cliquez sur Accorder l'accès.
Dans le champ Nouveaux comptes principaux, ajoutez le compte principal auquel vous souhaitez accorder l'accès.
Dans le champ Sélectionnez un rôle, choisissez Lecteur de données Dataplex DataScan.
Cliquez sur Enregistrer.
Pour supprimer l'accès aux résultats d'analyse publiés pour un compte principal, procédez comme suit :
Dans la console Google Cloud, accédez à la page Profil.
Cliquez sur l'analyse de profil de données dont vous souhaitez partager les résultats.
Accédez à l'onglet Autorisations.
Sélectionnez le compte principal pour lequel vous souhaitez supprimer le lecteur de données Dataplex DataScan. rôle de ressource.
Cliquez sur Supprimer l'accès.
Cliquez sur Confirmer.
Mettre à jour une analyse de profil de données
Console
Dans la console Google Cloud, accédez à la page Profil.
Sur la ligne de l'analyse que vous souhaitez modifier, cliquez sur > Modifier.
Modifiez les valeurs.
Cliquez sur Enregistrer.
gcloud
Pour mettre à jour une analyse de profil de données, exécutez la commande suivante:
gcloud dataplex datascans update data-profile DATASCAN \ --location=LOCATION \ --description=DESCRIPTION
Remplacez les variables suivantes :
DATASCAN
: nom de l'analyse du profil de données à mettre à jour.LOCATION
: région Google Cloud dans laquelle l'analyse du profil de données a été créée.DESCRIPTION
: nouvelle description de l'analyse du profil de données.
Pour en savoir plus sur les champs de spécification à mettre à jour, consultez la documentation de référence de gcloud CLI.
REST
Utilisez APIs Explorer pour modifier une analyse de profil de données.
Supprimer une analyse de profil de données
Console
Dans la console Google Cloud, accédez à la page Profil. Accédez au profil Dataplex.
Cliquez sur l'analyse que vous souhaitez supprimer.
Cliquez sur Supprimer.
gcloud
Pour supprimer une analyse de profil de données, exécutez la commande suivante :
gcloud dataplex datascans delete \ DATASCAN --location=LOCATION \ --async
Remplacez les variables suivantes :
DATASCAN
: nom de l'analyse du profil de données à atteindre supprimer.LOCATION
: région Google Cloud dans laquelle les données l'analyse de profil a été créée.
Pour en savoir plus sur les arguments facultatifs, consultez la documentation de référence de gcloud CLI.
REST
Utilisez APIs Explorer pour supprimer l'analyse de votre profil de données.
Étape suivante
- En savoir plus sur le profilage de données
- En savoir plus sur la qualité des données automatiques
- Découvrez comment utiliser la qualité automatique des données.