En esta página, se explica la terminología y los conceptos básicos del procesamiento de canalizaciones en Cloud Data Fusion.
El rendimiento de la canalización depende de los siguientes aspectos:
- El tamaño y las características de tus datos
- La estructura de tu canalización
- Tamaño del clúster
- Complementos que usa tu canalización de Cloud Data Fusion
Terminología del procesamiento de canalizaciones en Cloud Data Fusion
La siguiente terminología se aplica al procesamiento de canalizaciones en Cloud Data Fusion.
- Tipo de máquina
- Tipo de máquinas virtuales (VM) que se usan (CPU, memoria).
- Clúster
- Un grupo de VMs que trabajan en conjunto para controlar tareas de procesamiento de datos a gran escala.
- Nodos principales y trabajadores
- Máquinas físicas o virtuales que pueden realizar el procesamiento. Los nodos principales suelen coordinar el trabajo. Los nodos trabajadores ejecutan ejecutores que procesan datos. Tienen características de la máquina (cantidad de memoria y cantidad de vCores disponibles para los procesos).
- vCPU, núcleos o CPUs
- Un recurso que realiza procesamiento. Por lo general, tus nodos proporcionan una cantidad determinada de núcleos, y tus ejecutores solicitan una o varias CPUs. Equilibra esto junto con la memoria, o podrías subutilizar el clúster.
- Driver
- Una sola VM que actúa como coordinador central de todo el clúster. Administra tareas, programa el trabajo en los nodos de trabajo y supervisa el progreso de los trabajos.
- Ejecutores
- Varias VMs que realizan las tareas de procesamiento de datos reales, según las instrucciones del controlador Tus datos se particionan y distribuyen entre estos ejecutores para el procesamiento en paralelo. Para usar todos los ejecutores, debes tener suficientes divisiones.
- División o partición
- Un conjunto de datos se divide en divisiones (otras particiones de nombres) para procesar los datos en paralelo. Si no tienes suficientes divisiones, no podrás usar todo el clúster.
Descripción general de los ajustes de rendimiento
Las canalizaciones se ejecutan en clústeres de máquinas. Cuando eliges ejecutar canalizaciones de Cloud Data Fusion en clústeres de Dataproc (que es el aprovisionador recomendado), se usa YARN (Yet Another Resource Negotiator) en segundo plano. Dataproc usa YARN para la administración de recursos dentro del clúster. Cuando envías una canalización de Cloud Data Fusion a un clúster de Dataproc, el trabajo subyacente de Apache Spark aprovecha YARN para la asignación de recursos y la programación de tareas.
Un clúster consta de nodos principales y trabajadores. Por lo general, los nodos principales son responsables de coordinar el trabajo, mientras que los nodos trabajadores realizan el trabajo real. Por lo general, los clústeres tienen una pequeña cantidad de nodos principales (uno o tres) y una gran cantidad de trabajadores. YARN se usa como sistema de coordinación de trabajo. YARN ejecuta un servicio de Resource Manager en el nodo principal y un servicio de Node Manager en cada nodo trabajador. Los administradores de recursos se coordinan entre todos los administradores de nodos para determinar dónde crear y ejecutar contenedores en el clúster.
En cada nodo trabajador, el administrador de nodos reserva una parte de la memoria y las CPUs de la máquina disponibles para ejecutar contenedores de YARN. Por ejemplo, en un clúster de Dataproc, si tus nodos de trabajo son VMs n1-standard-4 (4 CPU, 15 GB de memoria), cada administrador de nodos reservará 4 CPU y 12 GB de memoria para ejecutar contenedores de YARN. Los 3 GB de memoria restantes se dejan para los otros servicios de Hadoop que se ejecutan en el nodo.
Cuando se ejecuta una canalización en YARN, se inicia un controlador de flujo de trabajo de canalización, un controlador de Spark y muchos ejecutores de Spark en Dataproc.
El controlador de flujo de trabajo es responsable de iniciar uno o más programas de Spark que conforman una canalización. Por lo general, el controlador de flujo de trabajo no realiza mucho trabajo. Cada programa de Spark ejecuta un solo controlador de Spark y varios ejecutores de Spark. El controlador coordina el trabajo entre los ejecutores, pero por lo general no realiza ningún trabajo real. Los ejecutores de Spark realizan la mayor parte del trabajo real.
¿Qué sigue?
- Obtén información sobre el procesamiento en paralelo en Cloud Data Fusion.