En esta página, se describe cómo administrar el control de acceso cuando implementas y ejecutas una canalización. que usa clústeres de Dataproc en otro proyecto de Google Cloud.
Situación
De forma predeterminada, cuando una instancia de Cloud Data Fusion se inicia en un proyecto de Google Cloud, implementa y ejecuta canalizaciones Clústeres de Dataproc dentro del mismo proyecto. Sin embargo, tu organización puede requerir que uses clústeres en otro proyecto. Para este caso de uso, debes administrar el acceso entre los proyectos. En la siguiente página, se describe cómo puedes cambiar la configuración de baseline (predeterminada) y aplicar los controles de acceso adecuados.
Antes de comenzar
Para comprender las soluciones de este caso de uso, necesitas el siguiente contexto:
- Conocimiento de los conceptos básicos de Cloud Data Fusion
- Estar familiarizado con Identity and Access Management (IAM) para Cloud Data Fusion
- Estar familiarizado con las herramientas de redes de Cloud Data Fusion
Suposiciones y alcance
Este caso de uso tiene los siguientes requisitos:
- Una instancia privada de Cloud Data Fusion Por motivos de seguridad, es posible que una organización requiera que uses este tipo de instancia.
- Una fuente y un receptor de BigQuery
- Control de acceso con IAM, no basado en roles (RBAC).
Solución
Esta solución compara la arquitectura específica del caso de uso con el modelo de referencia configuración.
Arquitectura
En los siguientes diagramas, se compara la arquitectura del proyecto para crear una instancia de Cloud Data Fusion y ejecutar canalizaciones cuando usas clústeres en el mismo proyecto (línea de base) y en un proyecto diferente a través de la VPC del proyecto de usuario.
Arquitectura de referencia
En este diagrama, se muestra la arquitectura de referencia de los proyectos:
Para la configuración del modelo de referencia, creas una instancia privada de Cloud Data Fusion y ejecutas una canalización sin personalización adicional:
- Usas uno de los perfiles de procesamiento integrados
- La fuente y el receptor están en el mismo proyecto que la instancia.
- No se otorgaron roles adicionales a ninguna de las cuentas de servicio.
Para obtener más información sobre los proyectos de usuario y cliente, consulta Herramientas de redes.
Arquitectura de casos de uso
Este diagrama muestra la arquitectura del proyecto cuando usas clústeres en otro proyecto:
Configuraciones
En las siguientes secciones, se comparan las configuraciones del modelo de referencia con el caso de uso parámetros de configuración específicos para usar clústeres de Dataproc en proyecto diferente a través de la VPC predeterminada del proyecto de usuario.
En las siguientes descripciones de casos de uso, el proyecto del cliente es donde se ejecuta la instancia de Cloud Data Fusion, y el proyecto de Dataproc es donde se inicia el clúster de Dataproc.
VPC e instancia del proyecto del usuario
Modelo de referencia | Caso de uso |
---|---|
En el diagrama de arquitectura de referencia anterior, el proyecto de usuario
contiene los siguientes componentes:
|
No se necesita ninguna configuración adicional para este caso de uso. |
Proyecto del cliente
Modelo de referencia | Caso de uso |
---|---|
En tu proyecto de Google Cloud, implementas y ejecutas canalizaciones. De forma predeterminada, los clústeres de Dataproc se inician en este proyecto cuando ejecutas tus canalizaciones. | En este caso de uso, administras dos proyectos. En esta página,
proyecto del cliente se refiere a dónde Cloud Data Fusion
se ejecutan las instancias de VM. El proyecto de Dataproc hace referencia al lugar donde se inician los clústeres de Dataproc. |
VPC del cliente
Modelo de referencia | Caso de uso |
---|---|
Desde tu perspectiva (la del cliente), la VPC del cliente es donde se encuentra Cloud Data Fusion de forma lógica. Conclusión clave: Puedes encontrar los detalles de la VPC del cliente en la página Redes de VPC de tu proyecto. |
No se necesita ninguna configuración adicional para este caso de uso. |
Subred de Cloud Data Fusion
Modelo de referencia | Caso de uso |
---|---|
Desde tu perspectiva (del cliente), esta subred es donde Cloud Data Fusion se ubica de forma lógica. Conclusión clave: La región de esta subred es la misma que la ubicación de la instancia de Cloud Data Fusion en el proyecto del usuario. |
No se necesita ninguna configuración adicional para este caso de uso. |
Subred de Dataproc
Modelo de referencia | Caso de uso |
---|---|
La subred en la que se inician los clústeres de Dataproc cuando cuando ejecutes una canalización. Conclusiones clave:
|
Esta es una subred nueva en la que se inician los clústeres de Dataproc cuando ejecutas una canalización. Conclusiones clave:
|
Fuentes y receptores
Modelo de referencia | Caso de uso |
---|---|
Las fuentes de las que se extraen los datos y los receptores en los que se cargan, como las fuentes y los receptores de BigQuery Conclusión clave:
|
Las configuraciones de control de acceso específicas del caso de uso que se muestran en esta página son para las fuentes y los destinos de BigQuery. |
Cloud Storage
Modelo de referencia | Caso de uso |
---|---|
Es el bucket de almacenamiento en el proyecto del cliente que ayuda a transferir archivos entre Cloud Data Fusion y Dataproc. Conclusiones clave:
|
No se necesita ninguna configuración adicional para este caso de uso. |
Buckets temporales que usan la fuente y el receptor
Modelo de referencia | Caso de uso |
---|---|
Los buckets temporales creados por los complementos para tus fuentes y receptores como los trabajos de carga que inició el complemento del receptor de BigQuery. Conclusiones clave:
|
Para este caso de uso, el bucket se puede crear en cualquier proyecto. |
Buckets que son fuentes o receptores de datos para complementos
Modelo de referencia | Caso de uso |
---|---|
Los buckets de clientes, que especificas en la configuración de complementos como el complemento de Cloud Storage y el FTP Complemento de Cloud Storage. | No se necesita ninguna configuración adicional para este caso de uso. |
IAM: Agente de servicio de la API de Cloud Data Fusion
Modelo de referencia | Caso de uso |
---|---|
Cuando la API de Cloud Data Fusion está habilitada, el
Nube
Rol de agente de servicio de la API de Data Fusion
( Conclusiones clave:
|
Para este caso de uso, otorga el rol de agente de servicio de la API de Cloud Data Fusion a la cuenta de servicio en el proyecto de Dataproc. Luego, otorga los siguientes roles en ese proyecto:
|
IAM: Cuenta de servicio de Dataproc
Modelo de referencia | Caso de uso |
---|---|
La cuenta de servicio que se usa para ejecutar la canalización como un trabajo en el clúster de Dataproc. De forma predeterminada, es la cuenta de servicio de Compute Engine. Opcional: En la configuración del modelo de referencia, puedes cambiar el valor predeterminado a otra cuenta de servicio del mismo proyecto. Otorga los siguientes roles de IAM a la cuenta de servicio nueva:
|
En este ejemplo de caso de uso, se supone que usas
Cuenta de servicio de Compute Engine ( Otorga los siguientes roles al servicio predeterminado de Compute Engine en el proyecto de Dataproc.
Otorga el rol Usuario de cuenta de servicio a Cloud Data Fusion Cuenta de servicio en la cuenta de servicio predeterminada de Compute Engine de el proyecto de Dataproc. Esta acción se debe realizar en el proyecto de Dataproc. Agrega la cuenta de servicio predeterminada de Compute Engine de la del proyecto de Dataproc al proyecto de Cloud Data Fusion. Otorga también los siguientes roles:
|
API
Modelo de referencia | Caso de uso |
---|---|
Cuando habilitas la API de Cloud Data Fusion, también se habilitan
las siguientes APIs. Para obtener más información sobre estas APIs, visita la
APIs y de Google Cloud en tu proyecto.
Cuando habilitas la API de Cloud Data Fusion, las siguientes cuentas de servicio se agregan automáticamente a tu proyecto:
|
Para este caso de uso, habilita las siguientes APIs en el proyecto que contiene el proyecto de Dataproc:
|
Claves de encriptación
Modelo de referencia | Caso de uso |
---|---|
En la configuración del modelo de referencia, las claves de encriptación pueden ser administradas por Google o CMEK. Conclusiones clave: Si usas CMEK, la configuración de tu modelo de referencia requiere lo siguiente:
Según los servicios usados en tu canalización, como BigQuery o Cloud Storage, las cuentas de servicio deben tener la función de Encriptador/Desencriptador de CryptoKey de Cloud KMS:
|
Si no usas CMEK, no es necesario realizar cambios adicionales para este caso de uso. Si usas CMEK, la función de Encriptador/Desencriptador de CryptoKey de Cloud KMS debe a la siguiente cuenta de servicio a nivel de clave en el proyecto en el que se crea:
Según los servicios usados en tu canalización, como BigQuery, Cloud Storage y otras cuentas de servicio también debe tener la función de Encriptador/Desencriptador de CryptoKey de Cloud KMS en el nivel clave. Por ejemplo:
|
Luego de establecer estos parámetros de configuración específicos para casos de uso, comiencen a ejecutarse en clústeres de otro proyecto.
¿Qué sigue?
- Obtén más información sobre las herramientas de redes en Cloud Data Fusion.
- Consulta la referencia de funciones básicas y predefinidas de IAM.