Sie können Dataplex Catalog-Metadaten importieren, Einträge und deren Aspekte – von einem Drittanbietersystem in Dataplex.
So importieren Sie Metadaten:
Legen Sie den Jobbereich fest.
Außerdem erfahren Sie, wie Dataplex die Vergleichslogik anwendet Synchronisierungsmodus für Einträge und Aspekte.
Erstellen Sie eine oder mehrere Metadaten-Importdateien, die die zu importierenden Daten definieren.
Speichern Sie die Metadatenimportdateien in einem Cloud Storage-Bucket.
Führen Sie einen Metadatenimportjob aus.
Bei den Schritten auf dieser Seite wird vorausgesetzt, dass Sie mit den Dataplex Catalog-Konzepte, einschließlich Eintragsgruppen, Eintragstypen, und Aspekttypen. Weitere Informationen finden Sie unter Dataplex-Katalog – Übersicht
Hinweise
Führen Sie die Aufgaben in diesem Abschnitt aus, bevor Sie Metadaten importieren.
Erforderliche Rollen
Um sicherzustellen,
Dataplex-Dienstkonto
die erforderlichen Berechtigungen für den Zugriff
auf den Cloud Storage-Bucket hat,
um dem Dataplex-Dienstkonto die
IAM-Rolle „Storage-Objekt-Betrachter“ (roles/storage.objectViewer
)
und die Berechtigung storage.buckets.get
für den Bucket.
Um die Berechtigungen zu erhalten, die Sie zum Verwalten von Metadatenjobs benötigen, bitten Sie Ihren Administrator, Ihnen folgenden IAM-Rollen:
-
Nutzer des Dataplex-Eintragstyps (
roles/dataplex.entryTypeUser
) für den Eintragstyp oder das Projekt, in dem der Eintragstyp definiert ist -
Dataplex Aspect Type User (
roles/dataplex.aspectTypeUser
) für den Aspekttyp oder das Projekt, in dem der Aspekttyp definiert ist -
Metadatenjobs erstellen:
-
Importeur von Dataplex-Eintragsgruppen (
roles/dataplex.entryGroupImporter
) für das Projekt oder die Ressource -
Dataplex Entry Owner (
roles/dataplex.entryOwner
) für das Projekt oder die Ressource
-
Importeur von Dataplex-Eintragsgruppen (
-
Metadatenjobs ansehen:
Dataplex-Metadatenjob-Betrachter (
roles/dataplex.metadataJobViewer
) für das Projekt -
Metadatenjobs erstellen, ansehen und abbrechen:
Inhaber von Dataplex-Metadatenjobs (
roles/dataplex.metadataJobOwner
) für das Projekt
Weitere Informationen zum Zuweisen von Rollen finden Sie unter Zugriff auf Projekte, Ordner und Organisationen verwalten.
Sie können die erforderlichen Berechtigungen auch über benutzerdefinierte Rollen oder andere vordefinierte Rollen erhalten.
Google Cloud-Ressourcen erstellen
Bereiten Sie die folgenden Google Cloud-Ressourcen vor:
- Eintragsgruppe erstellen für die Einträge, die Sie importieren möchten.
- Aspekttypen erstellen für die Aspekte, die Sie importieren möchten.
- Eintragstypen erstellen für die Einträge, die Sie importieren möchten.
- Cloud Storage-Bucket erstellen zum Speichern Ihrer Metadaten-Importdateien.
Komponenten eines Metadatenjobs
Beachten Sie beim Importieren von Metadaten die folgenden Komponenten eines Metadatenjobs:
- Jobumfang: die Eintragsgruppe, Eintragstypen und Aspekttypen, die einbezogen werden sollen für den Job.
- Synchronisierungsmodus: Gibt an, ob die Einträge und Aspekte im Job vollständig oder inkrementell aktualisiert werden sollen.
- Metadaten-Importdatei: Datei, die die für die Einträge festzulegenden Werte definiert und Aspekte in Ihrem Job. Sie können mehrere Metadaten-Importdateien in der Metadatenjob erstellen. Sie speichern die Dateien in Cloud Storage.
- Vergleichslogik: Bestimmt, welche Einträge und Aspekte in Dataplex geändert werden sollen.
Jobbereich
Der Jobumfang definiert die Eintragsgruppe, die Eintragstypen und optional die Aspekttypen, die in einen Metadatenjob einbezogen werden sollen. Beim Importieren Metadaten ändern Sie die Einträge und Aspekte, die zu Ressourcen innerhalb der des Jobs aus.
Beachten Sie die folgenden Richtlinien, um den Jobumfang zu definieren:
Eintragsgruppe: Geben Sie eine einzelne Eintragsgruppe an, die in den Job aufgenommen werden soll. Der Job ändert nur die Einträge, die zu dieser Eintragsgruppe gehören. Die Eintragsgruppe und der Job müssen sich in derselben Region befinden.
Eingabetypen: Geben Sie einen oder mehrere Eingabetypen an, die in den Job aufgenommen werden sollen. Der Job ändert nur die Einträge, die zu diesen Eintragstypen gehören. Der Standort eines Eintragstyps muss entweder mit dem Standort des Jobs übereinstimmen oder muss der Eintragstyp global sein.
Aspekttypen: Optional. Geben Sie einen oder mehrere Aspekttypen an, die einbezogen werden sollen die Sie brauchen. Wenn Sie einen Bereich für Aspekttypen angeben, ändert der Job die zu diesen Aspekttypen gehören. Der Standort eines Aspekttyps muss entweder mit dem Standort des Jobs übereinstimmen oder muss der Aspekttyp global sein.
Sie geben den Jobbereich beim Erstellen eines Metadatenjobs an.
Synchronisierungsmodus
Der Synchronisierungsmodus gibt an, ob ein vollständiges Update oder eine inkrementelle Aktualisierung der Einträge und Aspekte in einem Metadatenjob.
FULL
: wird für Einträge unterstützt. Alle Einträge im Bereich des Jobs sind geändert.Wenn ein Eintrag in Dataplex vorhanden, aber nicht im Metadatenimportdatei gelöscht wird, wird der Eintrag beim Ausführen des Metadatenjobs gelöscht.
Eine vollständige Synchronisierung wird für Aspekte nicht unterstützt.
INCREMENTAL
: Unterstützt für Aspekte. Nur ein Aspekt wird geändert. Die Metadaten-Importdatei enthält einen Verweis auf den Aspekt imupdateMask
undaspectKeys
. Weitere Informationen zu diese Felder in der Metadaten-Importdatei finden Sie in der Abschnitt Struktur eines Importelements in diesem Dokument.Die inkrementelle Synchronisierung wird für Einträge nicht unterstützt.
Sie geben den Synchronisierungsmodus an, wenn Sie einen Metadatenjob erstellen.
Metadaten-Importdatei
Die Metadaten-Importdatei ist eine Sammlung der Einträge und Aspekte, die Sie die Sie ändern möchten. Hier werden die Werte für alle Felder festgelegt, die zu diesen Einträgen und Aspekten gehören. Sie bereiten die Datei vor, bevor Sie einen Metadatenjob ausführen.
Sie können mehrere Metadatenimportdateien im selben Metadatenjob bereitstellen.
Die Einträge, die Sie in der Datei angeben, ersetzen alle vorhandenen Einträge für alle Ressourcen, die in den Geltungsbereich des Jobs fallen. Das bedeutet, dass Sie
muss Werte für alle Einträge in einem Job enthalten, nicht nur für die Werte,
die Sie hinzufügen oder aktualisieren möchten. Wenn Sie eine Liste der aktuellen Einträge in Ihrem Projekt als Ausgangspunkt verwenden möchten, verwenden Sie die entries.list
API-Methode.
Alle Einträge und Aspekte, die Sie in der Datei angeben, müssen zum Eintragsgruppen, Eintragstypen und Aspekttypen, die Sie im Bereich des Jobs definieren.
Folgen Sie den Richtlinien in den folgenden Abschnitten, um eine Metadaten-Importdatei zu erstellen.
Struktur der Datei
Jede Zeile in der Metadaten-Importdatei enthält ein JSON-Objekt, das dem entsprechenden auf ein Importelement. Ein Importelement ist ein Objekt, das die Werte für für einen Eintrag und die angehängten Aspekte ändern.
Sie können mehrere Importelemente in einer einzelnen Metadatenimportdatei angeben. Geben Sie dasselbe Importelement jedoch nicht mehrmals in einem Metadatenjob an. Verwenden Sie
Zeilenumbruchzeichen (0x0a
), um die einzelnen Importelemente zu trennen.
Eine Metadaten-Importdatei mit einem Zeilenumbruchzeichen zwischen den einzelnen Importelementen wie im folgenden Beispiel:
{ "entry": { "name": "entry 1", #Information about entry 1 }
{ "entry": { "name": "entry 2", #Information about entry 2 }
Struktur eines Importelements
Jedes Importelement in der Metadaten-Importdatei enthält die folgenden Felder. Das folgende Beispiel ist zur besseren Lesbarkeit mit Zeilenumbrüchen formatiert. Wenn Sie die Datei speichern, setzen Sie jedoch nur nach jedem Importelement ein Zeilenumbruchzeichen. Fügen Sie keine Zeilenumbrüche zwischen den Feldern eines einzelnen Importelements ein.
{
"entry": {
"name": "ENTRY_NAME",
"entryType": "ENTRY_TYPE",
"entrySource": {
"resource": "RESOURCE",
"system": "SYSTEM",
"platform": "PLATFORM",
"displayName": "DISPLAY_NAME",
"description": "DESCRIPTION",
"createTime": "ENTRY_CREATE_TIMESTAMP",
"updateTime": "ENTRY_UPDATE_TIMESTAMP"
}
"aspects": {
"ASPECT": {
"data": {
"KEY": "VALUE"
},
"aspectSource": {
"createTime": "ASPECT_CREATE_TIMESTAMP"
"updateTime": "ASPECT_UPDATE_TIMESTAMP"
}
},
# Additional aspect maps
},
"parentEntry": "PARENT_ENTRY",
"fullyQualifiedName": "FULLY_QUALIFIED_NAME"
},
"updateMask": "UPDATE_MASK_FIELDS",
"aspectKeys": [
"ASPECT_KEY",
# Additional aspect keys
],
}
Ersetzen Sie Folgendes:
- ENTRY_NAME: der relative Ressourcenname des Eintrags.
im Format
projects/PROJECT_ID_OR_NUMBER/locations/LOCATION_ID/entryGroups/ENTRY_GROUP_ID/entries/ENTRY_ID
. - ENTRY_TYPE: der relative Ressourcenname des
Eintragstyp, der zum Erstellen dieses Eintrags verwendet wurde, im Format
projects/PROJECT_ID_OR_NUMBER/locations/LOCATION_ID/entryTypes/ENTRY_TYPE_ID
. entrySource
: Informationen aus dem Quellsystem über die Datenressource, die wird durch den Eintrag dargestellt:- RESOURCE: der Name der Ressource in der Quelle System.
- SYSTEM: der Name des Quellsystems.
- PLATFORM: die Plattform, die das Quellsystem enthält.
- DISPLAY_NAME: ein nutzerfreundlicher Anzeigename.
- DESCRIPTION: eine Beschreibung des Eintrags.
- ENTRY_CREATE_TIMESTAMP: die Zeit, zu der der Eintrag erstellt wurde die im Quellsystem erstellt wurden.
- ENTRY_UPDATE_TIMESTAMP: die Zeit, zu der der Eintrag erstellt wurde im Quellsystem aktualisiert werden.
aspects
: die Aspekte, die an den Eintrag angehängt sind. Dasaspect
-Objekt und ihre Daten werden als Aspektkarte bezeichnet.ASPECT: ein Aspekt, der an den Eintrag angehängt ist. Je nachdem, wie der Aspekt an den Eintrag angehängt ist, verwenden Sie eine der folgenden Optionen: Formate:
- Wenn der Aspekt direkt mit dem Eintrag verknüpft ist, geben Sie den relativen Ressourcennamen seines Aspekttyps im Format
PROJECT_ID_OR_NUMBER.LOCATION_ID.ASPECT_TYPE_ID
an. - Wenn der Aspekt mit dem Pfad des Eintrags verknüpft ist, geben Sie den Pfad des Aspekttyps im Format
PROJECT_ID_OR_NUMBER.LOCATION_ID.ASPECT_TYPE_ID@PATH
an.
- Wenn der Aspekt direkt mit dem Eintrag verknüpft ist, geben Sie den relativen Ressourcennamen seines Aspekttyps im Format
KEY und VALUE: der Inhalt des Aspekts gemäß dem Schema des Aspekttyps. Der Inhalt muss codiert sein als UTF-8. Die maximale Größe des Felds beträgt 120 KB.
ASPECT_CREATE_TIMESTAMP: der Zeitpunkt, zu dem der Aspekt erstellt wurde des Quellsystems.
ASPECT_UPDATE_TIMESTAMP: Der Zeitpunkt, zu dem der Aspekt im Quellsystem aktualisiert wurde.
PARENT_ENTRY: der Ressourcenname des übergeordneten Eintrags.
FULLY_QUALIFIED_NAME: Ein Name für den Eintrag, auf den ein externes System verweisen kann.
UPDATE_MASK_FIELDS: die zu aktualisierenden Felder in Pfaden, die relativ zur Ressource
Entry
. Trennen Sie die einzelnen Felder durch Kommas.Im
FULL
-Eintragssynchronisierungsmodus nimmt Dataplex die Pfade aller der Felder für einen Eintrag, der geändert werden kann, einschließlich Aspekten.Das Feld
update_mask
wird ignoriert, wenn ein Eintrag erstellt oder neu erstellt wird.ASPECT_KEY: die zu ändernden Aspekte. Unterstützt die folgenden Syntaxen:
ASPECT_TYPE_REFERENCE
: entspricht dem Aspekttyp für Aspekte, die direkt mit dem Eintrag verknüpft sind.ASPECT_TYPE_REFERENCE@PATH
: mit dem Aspekttyp und dem angegebenen Pfad übereinstimmt.ASPECT_TYPE_REFERENCE@*
: entspricht dem Aspekttyp für alle Pfade.
Ersetzen Sie
ASPECT_TYPE_REFERENCE
durch einen Verweis auf den Aspekttyp im FormatPROJECT_ID_OR_NUMBER.LOCATION_ID.ASPECT_TYPE_ID
.Wenn Sie dieses Feld leer lassen, wird davon ausgegangen, dass genau die Aspekte angegeben sind, die im angegebenen Eintrag vorhanden sind.
Im
FULL
-Eintragssynchronisierungsmodus fügt Dataplex die Schlüssel für alle erforderlichen Aspekte eines Eintrags.
Anforderungen an Dateien
Für den Import von Metadaten gelten folgende Anforderungen:
- Die Datei muss als JSON-Zeilen formatiert sein.
. Dabei handelt es sich um eine durch Zeilenumbruch getrennte JSON-Datei. Verwenden Sie ein Zeilenvorschubzeichen (
0x0a
), um die Importelemente voneinander zu trennen. - Die Datei muss die UTF-8-Zeichencodierung verwenden.
- Unterstützte Dateiendungen sind
.jsonl
und.json
. - Die Dateigröße darf maximal 1 GiB betragen.
- Die Einträge und Aspekte, die Sie in der Datei angeben, müssen Teil des den Bereich des Importjobs aus.
- Die Datei muss in einen Cloud Storage-Bucket hochgeladen werden. Speichern Sie die Datei nicht in einem Ordner mit dem Namen
CLOUD_STORAGE_URI/deletions/
.
Vergleichslogik
Dataplex ermittelt, welche Einträge und Aspekte zu ändern sind, indem es die Werte und Zeitstempel, die Sie in der Metadaten-Importdatei mit den Werten angeben und Zeitstempel, die in Ihrem Projekt vorhanden sind.
Im Allgemeinen aktualisiert Dataplex die Werte in Ihrem Projekt, wenn mindestens eine vorgeschlagene Änderung in der Metadatenimportdatei den Status Ihres Projekts beim Ausführen des Jobs ändert, ohne veraltete Daten einzuführen. Auf die vorgeschlagene Änderung muss in der Metadatenimportdatei im Feld „Update-Maske“ oder im Feld „Aspektschlüssel“ verwiesen werden.
Dataplex führt für jeden Eintrag, der zum Bereich des Jobs gehört, eine Folgendes tun:
- Erstellt einen Eintrag und angehängte Aspekte. Enthält die Metadaten-Importdatei einen Eintrag, der in Ihrem Projekt nicht vorhanden ist, Dataplex erstellt den Eintrag und die angehängten Aspekte.
- Löscht einen Eintrag und angehängte Aspekte. Wenn in Ihrem Projekt, aber die Metadaten-Importdatei enthält nicht den Eintrag Dataplex löscht den Eintrag und die angehängten Aspekte aus der Projekt arbeiten.
Aktualisiert einen Eintrag und angehängte Aspekte. Wenn ein Eintrag in beiden in der Metadaten-Importdatei und in Ihrem Projekt Dataplex wertet die Zeitstempel der Eintragsquelle und die Zeitstempel der Aspektquelle aus, die mit dem Eintrag verknüpft sind, um zu bestimmen, welche Werte geändert werden sollen. Gehen Sie dann so vor: Dataplex führt eine oder mehrere der folgenden Aktionen aus:
- Der Eintrag wird neu erstellt. Wenn die Eintragsquelle einen Zeitstempel im Metadaten-Importdatei aktueller als der entsprechende Zeitstempel in der Projekt erstellen, erstellt Dataplex den Eintrag in Ihrem Projekt neu.
- Aktualisiert den Eintrag Wenn der Zeitstempel der Eintragsquelle in den Metadaten aktualisiert wird aktueller als der entsprechende Zeitstempel im Projekt ist, Dataplex aktualisiert den Eintrag in Ihrem Projekt.
- Erstellt einen Aspekt. Wenn ein Aspekt im Eingabeobjekt im Metadatenimportdatei, die aber nicht im Aktualisierungsmaskenfeld enthalten ist, Dataplex erstellt den Aspekt.
- Löscht einen Aspekt. Wenn ein Aspekt nicht im Eingabeobjekt in die Metadaten-Importdatei enthält, aber im Feld für die Aktualisierungsmaske enthalten ist, Dataplex löscht den Aspekt.
Aktualisiert einen Aspekt. Wenn der Zeitstempel der Aspektquelle in den Metadaten aktualisiert wird aktueller als der entsprechende Zeitstempel im Projekt ist, Dataplex aktualisiert den Aspekt in Ihrem Projekt. Dataplex aktualisiert den Aspekt auch, wenn der angehängte Eintrag Es fehlt ein Zeitstempel für die Aktualisierung der Eintragsquelle oder der Zeitstempel der Eintragsquelle in der Metadatenimportdatei aktueller als der entsprechende Zeitstempel im Projekt ist.
Hat jedoch mindestens ein Aspekt in der Metadaten-Importdatei eine ältere als der entsprechende Zeitstempel in Ihrem Projekt. Dataplex nimmt keine Updates für den angehängten Eintrag vor.
Metadaten-Importdatei erstellen
Erstellen Sie vor dem Importieren von Metadaten eine Metadaten-Importdatei für Ihren Job. Gehen Sie dazu so vor:
- So bereiten Sie eine Metadatenimportdatei vor: die zuvor in diesem Dokument beschriebenen Richtlinien entsprechen.
- Laden Sie die Datei in einen Cloud Storage-Bucket hoch.
Sie können mehrere Metadatenimportdateien im selben Metadatenjob bereitstellen. Bis Mehrere Dateien bereitstellen und im selben Cloud Storage speichern Bucket. Wenn Sie den Job ausführen, geben Sie einen Bucket und keine bestimmte Datei an. Dataplex nimmt Metadaten aus allen Dateien auf, die in Bucket, einschließlich Dateien in Unterordnern
Metadatenimportjob ausführen
Nachdem Sie eine Metadatenimportdatei erstellt haben, führen Sie einen Metadatenimportjob mithilfe der Methode der API erstellen.
REST
Verwenden Sie für den Import von Metadaten die Methode
metadataJobs.create
-Methode.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER: Nummer Ihres Google Cloud-Projekts oder die Projekt-ID.
- LOCATION_ID: der Google Cloud-Standort, z. B.
us-central1
. - METADATA_JOB_ID: Optional. Die Metadatenjob-ID.
CLOUD_STORAGE_URI: der URI des Cloud Storage-Bucket oder -Ordner mit den Metadaten-Importdateien. Weitere Informationen zu den Dateianforderungen finden Sie unter Metadatenimportdatei.
- ENTRY_GROUP: Der relative Ressourcenname der Eintragsgruppe, die für den Job relevant ist, im Format
projects/PROJECT_ID_OR_NUMBER/locations/LOCATION_ID/entryGroups/ENTRY_GROUP_ID
. Geben Sie nur eine Eintragsgruppe an. Weitere Informationen finden Sie unter Jobbereich. ENTRY_TYPE: der relative Ressourcenname eines Eintragstyps, der im Umfang des Jobs, im Format
projects/PROJECT_ID_OR_NUMBER/locations/LOCATION_ID/entryTypes/ENTRY_TYPE_ID
. Weitere Informationen finden Sie unter Jobbereich.- ASPECT_TYPE: Optional. Der relative Ressourcenname eines Aspekts
Typ, der für den Job infrage kommt, im Format
projects/PROJECT_ID_OR_NUMBER/locations/LOCATION_ID/aspectTypes/ASPECT_TYPE_ID
Weitere Informationen finden Sie unter Jobbereich. - LOG_LEVEL: die Ebene der zu erfassenden Logs, z. B.
INFO
oderDEBUG
. Weitere Informationen finden Sie unter Jobprotokolle ansehen und Fehler beheben.
HTTP-Methode und URL:
POST https://dataplex.googleapis.com/v1/projects/PROJECT_NUMBER/locations/LOCATION_ID/metadataJobs?metadataJobId=METADATA_JOB_ID
JSON-Text anfordern:
{ "type": IMPORT, "import_spec": { "source_storage_uri": gs://CLOUD_STORAGE_URI/, "scope": { "entryGroups": [ ENTRY_GROUP ], "entry_types": [ ENTRY_TYPE ], "aspect_types": [ ASPECT_TYPE ] }, "entry_sync_mode": FULL, "aspect_sync_mode": INCREMENTAL, "log_level": LOG_LEVEL } }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Die Antwort identifiziert einen Vorgang mit langer Ausführungszeit.
Details zu einem Metadatenjob abrufen
Um Informationen zu einem Metadatenjob abzurufen, z. B. den Status des Jobs und den Anzahl der geänderten Einträge enthält, führen Sie die folgenden Schritte aus. Weitere Informationen zur Fehlerbehebung bei fehlgeschlagenen Jobs finden Sie in der Abschnitt Joblogs aufrufen und Fehler beheben in diesem Dokument.
REST
Um Informationen zu einem Metadatenjob abzurufen, verwenden Sie den
metadataJobs.get
-Methode.
Liste mit Metadatenjobs abrufen
Sie können eine Liste der neuesten Metadatenjobs abrufen. Ältere Jobs, die einen Endstatus erreicht haben, werden regelmäßig aus dem System gelöscht.
REST
Eine Liste der neuesten Metadatenjobs erhalten Sie über die Methode
metadataJobs.list
-Methode.
Metadatenjob abbrechen
Sie können einen Metadatenjob abbrechen, den Sie nicht ausführen möchten.
REST
Verwenden Sie zum Abbrechen eines Metadatenjobs die
metadataJobs.cancel
-Methode.
Joblogs ansehen und Fehler beheben
Verwenden Sie Cloud Logging, um Logs für einen Metadatenjob anzusehen. Weitere Informationen finden Sie unter Dataplex-Logs überwachen
Sie konfigurieren die Logebene beim Erstellen eines Metadatenjobs. Folgende Protokollebenen sind verfügbar:
INFO
: stellt Logs auf Gesamtjobebene bereit. Enthält aggregierte Logs über Elemente importieren, aber nicht angibt, welches Importelement einen Fehler aufweist.DEBUG
: stellt detaillierte Logs für jedes Importelement bereit. Logging auf Debug-Ebene verwenden um Probleme mit bestimmten Importelementen zu beheben. Verwenden Sie beispielsweise Logging auf Debug-Ebene, um Ressourcen zu identifizieren, die im Job fehlen Einträge oder Aspekte, die nicht dem zugehörigen Eintragstyp oder Aspekttyp oder andere Fehlkonfigurationen in der Metadatenimportdatei.
Validierungsfehler
Dataplex validiert die Metadaten-Importdateien mit dem aktuellen in Ihrem Projekt verwenden. Wenn es ein Validierungsproblem gibt, kann der Jobstatus einen der folgenden Status zurückgeben:
FAILED
: tritt auf, wenn die Metadaten-Importdatei einen Fehler enthält. Dataplex importiert keine Metadaten und der Job schlägt fehl. Beispiele der Metadaten-Importdatei enthält folgende Fehler:- Ein Element in der Datei kann nicht in ein gültiges Importelement geparst werden
- Ein Eintrag oder Aspekt in der Datei gehört zu einer Eintragsgruppe, einem Eintragstyp oder Aspekttyp, der nicht zum Aufgabenbereich des Jobs gehört
- Derselbe Eintragsname wird im Job mehrmals angegeben
- Ein Aspekttyp, der in der Aspektzuordnung oder den Aspektschlüsseln angegeben ist verwendet das Format PROJECT_ID_OR_NUMBER.LOCATION_ID.ASPECT_TYPE_ID@OPTIONAL_PATH
SUCCEEDED_WITH_ERRORS
: geschieht, wenn die Metadaten-Importdatei geparst, aber der Import eines Elements in der Datei würde zu einem Eintrag in in einem uneinheitlichen Zustand ist. Dataplex ignoriert Einträge erstellt, aber die restlichen Metadaten werden aus der Datei importiert.
Verwenden Sie Joblogs, um den Fehler zu beheben.
Nächste Schritte
- In Dataplex Catalog nach Daten-Assets suchen
- Aspekte verwalten und Metadaten anreichern
- Einträge verwalten und benutzerdefinierte Quellen aufnehmen