En este documento, se describe cómo importar metadatos de una fuente externa a Dataplex Universal Catalog ejecutando una canalización de conectividad administrada en Workflows.
Para configurar una canalización de conectividad administrada, debes crear un conector para tu fuente de datos. Luego, ejecuta la canalización en Workflows. La canalización extrae metadatos de tu fuente de datos y, luego, los importa a Dataplex Universal Catalog. Si es necesario, la canalización también crea grupos de entradas de Dataplex Universal Catalog en tu proyecto Google Cloud .
Para obtener más información sobre la conectividad administrada, consulta la Descripción general de la conectividad administrada.
Antes de comenzar
Antes de importar metadatos, completa las tareas de esta sección.
Crea un conector
Un conector extrae los metadatos de tu fuente de datos y genera un archivo de importación de metadatos que Dataplex Universal Catalog puede importar. El conector es una imagen de Artifact Registry que se puede ejecutar en Dataproc Serverless.
Crea un conector personalizado que extraiga metadatos de tu fuente externa.
Para ver un ejemplo de conector que puedes usar como plantilla de referencia para compilar tu propio conector, consulta Cómo desarrollar un conector personalizado para la importación de metadatos.
Configura recursos Google Cloud
-
Enable the Workflows, Dataproc, Cloud Storage, Dataplex, Secret Manager, Artifact Registry, and Cloud Scheduler APIs.
Si no planeas ejecutar la canalización de forma programada, no es necesario que habilites la API de Cloud Scheduler.
Crea secretos en Secret Manager para almacenar las credenciales de tu fuente de datos externa.
Configura tu red de nube privada virtual (VPC) para ejecutar cargas de trabajo de Dataproc Serverless para Spark.
Crea un bucket de Cloud Storage para almacenar los archivos de importación de metadatos.
Crea los siguientes recursos de Dataplex Universal Catalog:
Crea tipos de aspectos personalizados para las entradas que deseas importar.
Crea tipos de entrada personalizados para las entradas que deseas importar.
Roles requeridos
Una cuenta de servicio representa la identidad de un flujo de trabajo y determina qué permisos tiene el flujo de trabajo y a qué Google Cloud recursos puede acceder. Necesitas una cuenta de servicio para Workflows (para ejecutar la canalización) y para Dataproc Serverless (para ejecutar el conector).
Puedes usar la cuenta de servicio predeterminada de Compute Engine (PROJECT_NUMBER-compute@developer.gserviceaccount.com
) o crear tu propia cuenta de servicio (o cuentas) para ejecutar la canalización de conectividad administrada.
Console
En la consola de Google Cloud , ve a la página IAM.
Selecciona el proyecto al que deseas importar metadatos.
Haz clic en
Otorgar acceso y, luego, ingresa la dirección de correo electrónico de la cuenta de servicio.Asigna los siguientes roles a la cuenta de servicio:
- Escritor de registros
- Propietario del grupo de entrada de Dataplex
- Propietario de trabajos de metadatos de Dataplex
- Editor del catálogo de Dataplex
- Editor de Dataproc
- Trabajador de Dataproc
- Secret Manager Secret Accessor: En el secreto que almacena las credenciales de tu fuente de datos
- Usuario de objetos de almacenamiento: En el bucket de Cloud Storage
- Lector de Artifact Registry: En el repositorio de Artifact Registry que contiene la imagen del conector
- Usuario de cuenta de servicio: Si usas diferentes cuentas de servicio, otorga a la cuenta de servicio que ejecuta Workflows este rol en la cuenta de servicio que ejecuta los trabajos por lotes de Dataproc Serverless.
- Workflows Invoker: Si deseas programar la canalización
Guarda los cambios.
gcloud
Otorga roles a la cuenta de servicio. Ejecuta los siguientes comandos:
gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/logging.logWriter gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/dataplex.entryGroupOwner gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/dataplex.metadataJobOwner gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/dataplex.catalogEditor gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/dataproc.editor gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/dataproc.worker
Reemplaza lo siguiente:
-
PROJECT_ID
: Es el nombre del proyecto Google Cloudde destino al que se importarán los metadatos. SERVICE_ACCOUNT_ID
: Es la cuenta de servicio, comomy-service-account@my-project.iam.gserviceaccount.com
.
-
Otorga a la cuenta de servicio los siguientes roles a nivel del recurso:
gcloud secrets add-iam-policy-binding SECRET_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/secretmanager.secretaccessor gcloud projects add-iam-policy-binding PROJECT_ID \ --member="serviceAccount:SERVICE_ACCOUNT_ID" \ --role=roles/storage.objectUser \ --condition=resource.name.startsWith('projects/_/buckets/BUCKET_ID') gcloud artifacts repositories add-iam-policy-binding REPOSITORY \ --location=REPOSITORY_LOCATION \ --member=SERVICE_ACCOUNT_ID} \ --role=roles/artifactregistry.reader
Reemplaza lo siguiente:
SECRET_ID
: Es el ID del secreto que almacena las credenciales de tu fuente de datos. Usa el formatoprojects/PROJECT_ID/secrets/SECRET_ID
.BUCKET_ID
: Es el nombre del bucket de Cloud Storage.REPOSITORY
: Es el repositorio de Artifact Registry que contiene la imagen del conector.REPOSITORY_LOCATION
: Es la ubicación de Google Clouden la que se aloja el repositorio.
Otorga a la cuenta de servicio que ejecuta Workflows el rol de
roles/iam.serviceAccountUser
en la cuenta de servicio que ejecuta los trabajos por lotes de Dataproc Serverless. Debes otorgar este rol incluso si usas la misma cuenta de servicio para Workflows y Dataproc Serverless.gcloud iam service-accounts add-iam-policy-binding \ serviceAccount:SERVICE_ACCOUNT_ID \ --member='SERVICE_ACCOUNT_ID' \ --role='roles/iam.serviceAccountUser'
Si usas diferentes cuentas de servicio, el valor de la marca
--member
es la cuenta de servicio que ejecuta los trabajos por lotes de Dataproc Serverless.Si deseas programar la canalización, otorga a la cuenta de servicio el siguiente rol:
gcloud projects add-iam-policy-binding PROJECT_ID \ --member="SERVICE_ACCOUNT_ID" \ --role=roles/workflows.invoker
Importar metadatos
Para importar metadatos, crea y, luego, ejecuta un flujo de trabajo que ejecute la canalización de conectividad administrada. De manera opcional, también puedes crear un programa para ejecutar la canalización.
Console
Crea el flujo de trabajo. Proporciona la siguiente información:
- Cuenta de servicio: Es la cuenta de servicio que configuraste en la sección Roles obligatorios de este documento.
Encriptación: Selecciona Google-managed encryption key.
Define workflow: Proporciona el siguiente archivo de definición:
Para ejecutar la canalización a pedido, ejecuta el flujo de trabajo.
Proporciona los siguientes argumentos de tiempo de ejecución:
Reemplaza lo siguiente:
-
PROJECT_ID
: Es el nombre del proyecto Google Cloudde destino al que se importarán los metadatos. -
LOCATION_ID
: Es la ubicación de destino Google Cloud en la que se ejecutarán los trabajos de Dataproc Serverless y de importación de metadatos, y en la que se importarán los metadatos. -
ENTRY_GROUP_ID
: Es el ID del grupo de entradas en el que se importarán los metadatos. El ID del grupo de entrada puede contener letras en minúscula, números y guiones.El nombre completo del recurso de este grupo de entradas es
projects/PROJECT_ID/locations/LOCATION_ID/entryGroups/ENTRY_GROUP_ID
. -
CREATE_ENTRY_GROUP_BOOLEAN
: Si deseas que la canalización cree el grupo de entradas si aún no existe en tu proyecto, establece este valor entrue
. -
BUCKET_ID
: Es el nombre del bucket de Cloud Storage en el que se almacenará el archivo de importación de metadatos que genera el conector. Cada ejecución del flujo de trabajo crea una carpeta nueva. -
SERVICE_ACCOUNT_ID
: la cuenta de servicio que configuraste en la sección Roles obligatorios de este documento. La cuenta de servicio ejecuta el conector en Dataproc Serverless. -
ADDITIONAL_CONNECTOR_ARGUMENTS
: Es una lista de argumentos adicionales que se pasarán al conector. Para ver ejemplos, consulta Desarrolla un conector personalizado para la importación de metadatos. Encierra cada argumento entre comillas dobles y sepáralos con comas. -
CONTAINER_IMAGE
: Es la imagen de contenedor personalizada del conector alojada en Artifact Registry. -
ENTRY_TYPES
: Es una lista de tipos de entrada que están dentro del alcance de la importación, en el formatoprojects/PROJECT_ID/locations/LOCATION_ID/entryTypes/ENTRY_TYPE_ID
. ElLOCATION_ID
debe ser la mismaGoogle Cloud ubicación en la que importas metadatos oglobal
. -
ASPECT_TYPES
: Es una lista de tipos de aspectos que están dentro del alcance de la importación, en el formatoprojects/PROJECT_ID/locations/LOCATION_ID/aspectTypes/ASPECT_TYPE_ID
. ElLOCATION_ID
debe ser la mismaGoogle Cloud ubicación en la que importas metadatos oglobal
. -
Opcional: Para el argumento
NETWORK_TAGS
, proporciona una lista de etiquetas de red. -
Opcional: Para el argumento
NETWORK_URI
, proporciona el URI de la red de VPC que se conecta a la fuente de datos. Si proporcionas una red, omite el argumento de subred. -
Opcional: Para el argumento
SUBNETWORK_URI
, proporciona el URI de la subred que se conecta a la fuente de datos. Si proporcionas una subred, omite el argumento de red.
Según la cantidad de metadatos que importes, es posible que la canalización tarde varios minutos o más en ejecutarse. Para obtener más información sobre cómo ver el progreso, consulta Cómo acceder a los resultados de la ejecución del flujo de trabajo.
Una vez que finalice la ejecución de la canalización, puedes buscar los metadatos importados en Dataplex Universal Catalog.
-
Opcional: Si deseas ejecutar la canalización según un programa, crea un programa con Cloud Scheduler. Proporciona la siguiente información:
- Frecuencia: Es una expresión unix-cron que define el programa para ejecutar la canalización.
- Argumento del flujo de trabajo: Son los argumentos de tiempo de ejecución para el conector, como se describió en el paso anterior.
- Cuenta de servicio: Es la cuenta de servicio. La cuenta de servicio administra el programador.
gcloud
Guarda la siguiente definición de carga de trabajo como un archivo YAML:
Define variables de Bash, crea el flujo de trabajo y, de manera opcional, crea un programa para ejecutar la canalización:
Reemplaza lo siguiente:
-
PROJECT_ID
: Es el nombre del proyecto Google Cloudde destino al que se importarán los metadatos. -
LOCATION_ID
: Es la ubicación de destino Google Cloud en la que se ejecutarán los trabajos de Dataproc Serverless y de importación de metadatos, y en la que se importarán los metadatos. -
SERVICE_ACCOUNT_ID
: la cuenta de servicio que configuraste en la sección Roles obligatorios de este documento. WORKFLOW_DEFINITION_FILE
: Es la ruta de acceso al archivo YAML de definición del flujo de trabajo.WORKFLOW_NAME
: El nombre del flujo de trabajo.WORKFLOW_ARGUMENTS
: Son los argumentos del tiempo de ejecución que se pasarán al conector. Los argumentos están en formato JSON:En Cloud Scheduler, las comillas dobles dentro de la cadena entre comillas se escapan con barras inversas (\). Por ejemplo:
--message-body="{\"argument\": \"{\\\"key\\\": \\\"value\\\"}\"}"
.Reemplaza lo siguiente:
-
ENTRY_GROUP_ID
: Es el ID del grupo de entradas en el que se importarán los metadatos. El ID del grupo de entrada puede contener letras en minúscula, números y guiones.El nombre completo del recurso de este grupo de entradas es
projects/PROJECT_ID/locations/LOCATION_ID/entryGroups/ENTRY_GROUP_ID
. -
CREATE_ENTRY_GROUP_BOOLEAN
: Si deseas que la canalización cree el grupo de entradas si aún no existe en tu proyecto, establece este valor entrue
. -
BUCKET_ID
: Es el nombre del bucket de Cloud Storage en el que se almacenará el archivo de importación de metadatos que genera el conector. Cada ejecución del flujo de trabajo crea una carpeta nueva. -
ADDITIONAL_CONNECTOR_ARGUMENTS
: Es una lista de argumentos adicionales que se pasarán al conector. Para ver ejemplos, consulta Desarrolla un conector personalizado para la importación de metadatos. -
CONTAINER_IMAGE
: Es la imagen de contenedor personalizada del conector alojada en Artifact Registry. -
ENTRY_TYPES
: Es una lista de tipos de entrada que están dentro del alcance de la importación, en el formatoprojects/PROJECT_ID/locations/LOCATION_ID/entryTypes/ENTRY_TYPE_ID
. ElLOCATION_ID
debe ser la mismaGoogle Cloud ubicación en la que importas metadatos oglobal
. -
ASPECT_TYPES
: Es una lista de tipos de aspectos que están dentro del alcance de la importación, en el formatoprojects/PROJECT_ID/locations/LOCATION_ID/aspectTypes/ASPECT_TYPE_ID
. ElLOCATION_ID
debe ser la mismaGoogle Cloud ubicación en la que importas metadatos oglobal
. -
Opcional: Para el argumento
NETWORK_TAGS
, proporciona una lista de etiquetas de red. -
Opcional: Para el argumento
NETWORK_URI
, proporciona el URI de la red de VPC que se conecta a la fuente de datos. Si proporcionas una red, omite el argumento de subred. -
Opcional: Para el argumento
SUBNETWORK_URI
, proporciona el URI de la subred que se conecta a la fuente de datos. Si proporcionas una subred, omite el argumento de red.
-
CRON_SCHEDULE_EXPRESSION
: Es una expresión cron que define el programa para ejecutar la canalización. Por ejemplo, para ejecutar la programación a la medianoche todos los días, usa la expresión0 0 * * *
.
-
Para ejecutar la canalización a pedido, ejecuta el flujo de trabajo:
Los argumentos del flujo de trabajo están en formato JSON, pero no se escapan.
Según la cantidad de metadatos que importes, es posible que el flujo de trabajo tarde varios minutos o más en ejecutarse. Para obtener más información sobre cómo ver el progreso, consulta Cómo acceder a los resultados de la ejecución del flujo de trabajo.
Una vez que finalice la ejecución de la canalización, puedes buscar los metadatos importados en Dataplex Universal Catalog.
Terraform
Clona el repositorio
cloud-dataplex
.El repositorio incluye los siguientes archivos de Terraform:
main.tf
: Define los recursos Google Cloud que se crearán.variables.tf
: Declara las variables.byo-connector.tfvars
: Define las variables de tu canalización de conectividad administrada.
Edita el archivo
.tfvars
para reemplazar los marcadores de posición por la información de tu conector.Reemplaza lo siguiente:
-
PROJECT_ID
: Es el nombre del proyecto Google Cloudde destino al que se importarán los metadatos. -
LOCATION_ID
: Es la ubicación de destino Google Cloud en la que se ejecutarán los trabajos de Dataproc Serverless y de importación de metadatos, y en la que se importarán los metadatos. -
SERVICE_ACCOUNT_ID
: la cuenta de servicio que configuraste en la sección Roles obligatorios de este documento. -
CRON_SCHEDULE_EXPRESSION
: Es una expresión cron que define el programa para ejecutar la canalización. Por ejemplo, para ejecutar la programación a la medianoche todos los días, usa la expresión0 0 * * *
. -
ENTRY_GROUP_ID
: Es el ID del grupo de entradas en el que se importarán los metadatos. El ID del grupo de entrada puede contener letras en minúscula, números y guiones.El nombre completo del recurso de este grupo de entradas es
projects/PROJECT_ID/locations/LOCATION_ID/entryGroups/ENTRY_GROUP_ID
. -
CREATE_ENTRY_GROUP_BOOLEAN
: Si deseas que la canalización cree el grupo de entradas si aún no existe en tu proyecto, establece este valor entrue
. -
BUCKET_ID
: Es el nombre del bucket de Cloud Storage en el que se almacenará el archivo de importación de metadatos que genera el conector. Cada ejecución del flujo de trabajo crea una carpeta nueva. -
ADDITIONAL_CONNECTOR_ARGUMENTS
: Es una lista de argumentos adicionales que se pasarán al conector. Para ver ejemplos, consulta Desarrolla un conector personalizado para la importación de metadatos. Encierra cada argumento entre comillas dobles y sepáralos con comas. -
CONTAINER_IMAGE
: Es la imagen de contenedor personalizada del conector alojada en Artifact Registry. -
ENTRY_TYPES
: Es una lista de tipos de entrada que están dentro del alcance de la importación, en el formatoprojects/PROJECT_ID/locations/LOCATION_ID/entryTypes/ENTRY_TYPE_ID
. ElLOCATION_ID
debe ser la mismaGoogle Cloud ubicación en la que importas metadatos oglobal
. -
ASPECT_TYPES
: Es una lista de tipos de aspectos que están dentro del alcance de la importación, en el formatoprojects/PROJECT_ID/locations/LOCATION_ID/aspectTypes/ASPECT_TYPE_ID
. ElLOCATION_ID
debe ser la mismaGoogle Cloud ubicación en la que importas metadatos oglobal
. -
Opcional: Para el argumento
NETWORK_TAGS
, proporciona una lista de etiquetas de red. -
Opcional: Para el argumento
NETWORK_URI
, proporciona el URI de la red de VPC que se conecta a la fuente de datos. Si proporcionas una red, omite el argumento de subred. -
Opcional: Para el argumento
SUBNETWORK_URI
, proporciona el URI de la subred que se conecta a la fuente de datos. Si proporcionas una subred, omite el argumento de red.
-
Inicializa Terraform mediante este comando:
terraform init
Valida Terraform con tu archivo
.tfvars
:terraform plan --var-file=CONNECTOR_VARIABLES_FILE.tfvars
Reemplaza
CONNECTOR_VARIABLES_FILE
por el nombre de tu archivo de definiciones de variables.Implementa Terraform con tu archivo
.tfvars
:terraform apply --var-file=CONNECTOR_VARIABLES_FILE.tfvars
Terraform crea un flujo de trabajo y un trabajo de Cloud Scheduler en el proyecto especificado. Workflows ejecuta la canalización según la programación que especifiques.
Según la cantidad de metadatos que importes, es posible que el flujo de trabajo tarde varios minutos o más en ejecutarse. Para obtener más información sobre cómo ver el progreso, consulta Cómo acceder a los resultados de la ejecución del flujo de trabajo.
Una vez que finalice la ejecución de la canalización, puedes buscar los metadatos importados en Dataplex Universal Catalog.
Ver registros de trabajos
Usa Cloud Logging para ver los registros de una canalización de conectividad administrada. La carga útil del registro incluye un vínculo a los registros del trabajo por lotes de Dataproc Serverless y el trabajo de importación de metadatos, según corresponda. Para obtener más información, consulta Cómo ver los registros de flujo de trabajo.
Soluciona problemas
Usa las siguientes sugerencias para solucionar problemas:
- Configura el nivel de registro del trabajo de importación para el trabajo de metadatos de modo que use el registro a nivel de depuración en lugar del registro a nivel de información.
- Revisa los registros del trabajo por lotes de Dataproc Serverless (para ejecuciones del conector) y el trabajo de importación de metadatos. Para obtener más información, consulta Cómo consultar registros de trabajos de Dataproc sin servidores para Spark y Cómo consultar registros de trabajos de metadatos.
- Si no se puede importar una entrada con la canalización y el mensaje de error no proporciona suficiente información, intenta crear una entrada personalizada con los mismos detalles en un grupo de entradas de prueba. Para obtener más información, consulta Crea una entrada personalizada.
¿Qué sigue?
- Acerca de la administración de metadatos en Dataplex Universal Catalog
- Desarrolla un conector personalizado para la importación de metadatos