Ce guide décrit les métadonnées Dataplex et explique comment les gérer à l'aide des API Dataplex.
Présentation
Dataplex analyse les éléments suivants:
- Éléments de données structurées et semi-structurées dans des lacs de données pour extraire les métadonnées d'une table dans des entités de table
- Données non structurées, telles que des images et des textes, pour extraire les métadonnées de l'ensemble de fichiers dans des entités d'ensemble de fichiers
Vous pouvez utiliser l'API Dataplex Metadata pour effectuer l'une des opérations suivantes :
- Afficher, modifier et supprimer les métadonnées d'entité de table et d'ensemble de fichiers
- Créer vos propres métadonnées d'entité de table ou d'ensemble de fichiers
Vous pouvez également analyser les métadonnées Dataplex de l'une des manières suivantes :
- Data Catalog pour la recherche et le taggage
- Dataproc Metastore et BigQuery pour l'interrogation des métadonnées de table et le traitement des analyses
API Dataplex
Cette section récapitule les API Dataplex et les ressources clés. avec eux.
API du plan de contrôle
L'API du plan de contrôle Dataplex permet de créer et de gérer les ressources de lac, de zone et d'élément.
Lac : instance de service Dataplex qui permet de gérer les ressources de stockage dans les projets d'une organisation.
Zone : regroupement logique d'éléments dans un lac. Utilisez plusieurs zones dans un lac pour organiser les données en fonction de leur état de préparation, de leur charge de travail ou de leur structure organisationnelle.
Composants: Les ressources de stockage, avec des données stockées dans des buckets Cloud Storage Ensembles de données BigQuery associés à une zone au sein d'un lac.
API Metadata
Utiliser l'API Dataplex Metadata pour créer et gérer des métadonnées dans les entités et les partitions de table et d'ensemble de fichiers. Dataplex analyse les données dans un lac ou que vous fournissez, pour créer des entités et des partitions. Les entités et les partitions gèrent les références aux composants et aux emplacements de stockage physiques associés.
Concepts clés
- Entité de table :
Métadonnées pour les données structurées avec des schémas bien définis. Les entités de table sont identifiées de façon unique par l'ID de l'entité et l'emplacement des données. Les métadonnées d'entité de table sont interrogeable dans BigQuery et Dataproc Metastore:
- Objets Cloud Storage:métadonnées pour les objets Cloud Storage accessibles via les API Cloud Storage.
- Tables BigQuery : métadonnées des tables BigQuery, auxquelles on accède via les API BigQuery.
- Entité d'ensemble de fichiers:
Métadonnées sur les données non structurées, généralement sans schéma. Les ensembles de fichiers sont identifiés de façon unique par l'ID de l'entité et l'emplacement des données. Chaque ensemble de fichiers possède format de données.
- Partitions:
Métadonnées d'un sous-ensemble de données dans une entité de table ou de fichier, identifiées par un ensemble de paires clé-valeur et un emplacement de données.
Essayer l'API
Consultez les pages de documentation de référence des API Dataplex lakes.zones.entities et lakes.zones.partitions pour afficher les paramètres et les champs associés à chaque API. Utilisez le panneau Essayer cette API qui accompagne la documentation de référence de chaque méthode d'API pour envoyer des requêtes API à l'aide de différents paramètres et champs. Vous pouvez créer, afficher et envoyer vos requêtes sans avoir à générer d'identifiants, puis afficher les réponses renvoyées par le service.
Les sections suivantes fournissent des informations pour vous aider à comprendre et utiliser les API de métadonnées Dataplex.
Entités
Lister les entités
Pour limiter la liste des entités renvoyées par le service, ajoutez des paramètres de requête filter à l'URL de la requête list entities
.
Obtenir l'entité
Par défaut, la réponse Get Entity
contient des métadonnées d'entité de base. Pour récupérer des métadonnées de schéma supplémentaires, ajoutez le
afficher
à l'URL de la requête.
Détails de compatibilité : bien que les métadonnées Dataplex soient enregistrées de manière centralisée dans l'API de métadonnées, seules les métadonnées de table d'entité compatibles avec BigQuery et Apache Hive Metastore sont publiées dans BigQuery et Dataproc Metastore.
L'API Get Entity
renvoie une
Message CompatibilityStatus
, qui indique si les métadonnées de la table sont compatibles avec BigQuery et Hive Metastore
et, si ce n'est pas le cas, le motif de l'incompatibilité.
Mettre à jour l'entité
Utilisez cette API pour modifier les métadonnées d'une entité, y compris si vous, ou Dataplex gère les métadonnées des entités.
- Cette API effectue un remplacement complet de tous les paramètres modifiables Entity (Entité). Les champs d'entité suivants sont immuables. Si vous les spécifiez dans une mise à jour, requête, ils seront ignorés:
- Spécifiez une valeur pour tous les champs d'entité modifiables, y compris tous schema, même si les valeurs ne sont pas modifiées.
- Fournissez le paramètre
ETag
. Pour obtenir l'ETag, envoyez d'abord un
entities.get,
qui renvoie l'
etag
de l'entité dans la réponse. - Mise à jour des champs de schéma:vous pouvez mettre à jour le schéma de table détecté par
Dataplex pour améliorer sa précision:
- Si le schéma est un ensemble de fichiers, laissez tous les champs de schéma vides.
- Pour définir un champ répété, définissez le paramètre
mode
à
REPEATED
. Pour définir un champ de structure, définissez le type surRECORD
. - Vous pouvez définir le champ
userManaged
du schéma pour spécifier si vous ou Dataplex gérez les métadonnées de la table. Le paramètre par défaut est "Géré par Dataplex". SiuserManaged
est défini sur "true", ce paramètre est inclus dans les informations renvoyées par une requêteentities.get
si EntityView est défini surSCHEMA
ouFULL
.
- Mise à jour des champs de partition:
- Pour les données partitionnées non Hive, la détection Dataplex génère automatiquement des clés de partition. Par exemple, pour le chemin d'accès aux données
gs://root/2020/12/31
, clés de partitionnementp0
,p1
etp2
sont générées. Pour rendre les requêtes plus intuitives, vous pouvez remplacerp0
,p1
etp2
paryear
,month
etday
, respectivement. - Si vous définissez le style de partitionnement sur le style HIVE, le champ de partitionnement est immuable.
- Pour les données partitionnées non Hive, la détection Dataplex génère automatiquement des clés de partition. Par exemple, pour le chemin d'accès aux données
- Mise à jour des autres champs de métadonnées:vous pouvez mettre à jour les champs générés automatiquement. mimeType, CompressionFormat, CsvOptions et JsonOptions pour faciliter la découverte de Dataplex. La découverte Dataplex utilisera les nouvelles valeurs lors de sa prochaine exécution.
Créer une entité
Utilisez l'API entities.create
pour créer des entités de métadonnées de table ou d'ensemble de fichiers.
Renseignez les champs obligatoires et les champs facultatifs pertinents, ou laissez le service de découverte Dataplex les renseigner.
Supprimer l'entité
- Fournissez le paramètre
ETag
. Pour obtenir l'ETag, envoyez d'abord un
entities.get,
qui renvoie l'
etag
de l'entité dans la réponse.
Si les données sous-jacentes d'une table ou d'un ensemble de fichiers dans une zone brute sont supprimées, les métadonnées de la table ou de l'ensemble de fichiers sont automatiquement supprimées lors de la prochaine analyse de découverte. Si les données sous-jacentes d'une table d'une zone de données organisées sont supprimé, les métadonnées de la table ne sont pas supprimées en conséquence, mais plutôt l'action sur les données est signalée. Pour résoudre ce problème, supprimez explicitement la table de métadonnées via l'API Metadata.
Partitions
Lister les partitions
Pour limiter la liste des partitions renvoyées par le service, ajoutez
filtre
paramètres de requête à l'URL de requête list partitions
.
Exemples :
?filter="Country=US AND State=CA AND City=Sunnyvale"
?filter="year < 2000 AND month > 12 AND Date > 10"
Obtenir la partition
Pour obtenir une partition, vous devez compléter l'URL de la requête en ajoutant le paramètre
les valeurs de clé à la fin de l'URL, formatées pour être lues comme
partitions/value1/value2/…./value10
Exemple : si une partition contient des valeurs, {Country=US, State=CA, City=Sunnyvale}
, l'URL de la requête get doit se terminer par /partitions/US/CA/Sunnyvale
.
Important : Les valeurs d'URL ajoutées doivent être encodées deux fois. Par exemple, url_encode(url_encode(value))
peut être utilisé pour encoder "US:CA/CA#Sunnyvale" afin que l'URL de la requête se termine par /partitions/US%253ACA/CA%2523Sunnyvale
. Le champ "name" dans la réponse
conserve le format encodé.
Créer une partition
Pour créer une partition personnalisée pour votre source de données, utilisez l'API partitions.create
. Spécifiez les attributs
position
par un chemin d'accès Cloud Storage.
Supprimer la partition
Complétez l'URL de la requête en ajoutant des valeurs de clé de partitionnement à la fin de
l'URL de la requête, dans le format suivant : partitions/value1/value2/…./value10
.
Exemple: Si une partition possède des valeurs, {Country=US, State=CA, City=Sunnyvale}
,
l'URL de la requête doit se terminer par /partitions/US/CA/Sunnyvale
.
Important : Les valeurs d'URL ajoutées doivent être conformes à la norme RFC-1034 ou doivent être encodées deux fois, par exemple US:/CA#/Sunnyvale
en tant que US%3A/CA%3A/Sunnyvale
.
Étape suivante
- Apprenez-en plus sur l'accès aux métadonnées dans Apache Spark.