Descripción general del rendimiento de la canalización

En esta página, se explican la terminología y los conceptos básicos del procesamiento de canalizaciones Cloud Data Fusion.

El rendimiento de la canalización depende de los siguientes aspectos:

  • El tamaño y las características de tus datos
  • La estructura de tu canalización
  • Tamaño del clúster
  • Complementos que utiliza tu canalización de Cloud Data Fusion

Terminología de procesamiento de canalizaciones en Cloud Data Fusion

La siguiente terminología se aplica al procesamiento de canalizaciones en Cloud Data Fusion.

Tipo de máquina
Tipo de máquinas virtuales (VMs) utilizadas (CPU, memoria)
Clúster
Un grupo de VMs que trabajan juntas para manejar tareas de procesamiento de datos a gran escala.
Nodos principales y trabajadores
Máquinas físicas o virtuales que pueden realizar el procesamiento Por lo general, los nodos principales coordinar el trabajo. Los nodos trabajadores ejecutan ejecutores que procesan datos. Tienen características de la máquina (cantidad de memoria y de vCore disponibles para procesos).
Núcleos virtuales, núcleos o CPU
Es un recurso que se encarga de la computación. Por lo general, los nodos proporcionan una cierta cantidad de Los núcleos y tus ejecutores solicitan una o varias CPU. Equilibra esto junto con memoria o tu clúster no uses.
Driver
Una VM única que actúa como el coordinador central de todo el clúster. Integra administra tareas, programa trabajos en todos los nodos trabajadores y supervisa su progreso.
Ejecutores
Varias VMs que realizan las tareas reales de procesamiento de datos, según lo indica el controlador. Tus datos se particionan y distribuyen en estos ejecutores para y procesamiento paralelo. Para usar todos los ejecutores, debes tener suficientes divisiones.
Divisiones o particiones
Un conjunto de datos se divide en divisiones (otras particiones de nombre) para procesar datos en en paralelo. Si no tienes suficientes divisiones, no puedes usar todo clúster.

Descripción general del ajuste de rendimiento

Las canalizaciones se ejecutan en clústeres de máquinas. Cuando eliges ejecutar Canalizaciones de Cloud Data Fusion en clústeres de Dataproc (que es la aprovisionador recomendado), usa YARN (Yet Another Resource Negotiator) detrás del en segundo plano. Dataproc usa YARN para administrar recursos en en el clúster. Cuando envías una canalización de Cloud Data Fusion a un Clúster de Dataproc, el trabajo subyacente de Apache Spark aprovecha YARN para asignar recursos y programar tareas.

Un clúster consta de nodos principales y trabajadores. Por lo general, los nodos principales son de coordinar el trabajo, mientras que los nodos trabajadores realizan el trabajo real. Por lo general, los clústeres tendrán una pequeña cantidad de nodos principales (uno o tres) y un una gran cantidad de trabajadores. YARN se usa como sistema de coordinación del trabajo. Ejecución de YARN un servicio de Resource Manager en el nodo principal y un servicio de Node Manager en cada uno nodo trabajador. Resource Manager coordina entre todos los Node Managers determinar dónde crear y ejecutar contenedores en el clúster.

Administradores de recursos y de nodos de YARN

En cada nodo trabajador, el administrador de nodos reserva una parte de la la memoria de la máquina y las CPU para ejecutar contenedores YARN. Por ejemplo, en un Clúster de Dataproc, si tus nodos trabajadores son VMs n1-standard-4 (4 CPU, 15 GB de memoria), cada Node Manager reservará 4 CPU y 12 GB de memoria para ejecutar contenedores YARN Los 3 GB restantes de memoria para los otros servicios de Hadoop que se ejecutan en el nodo.

Cuando una canalización se ejecuta en YARN, inicia un controlador de flujo de trabajo de la canalización, un el controlador de Spark y muchos ejecutores de Spark en Dataproc.

Controladores y ejecutores

El controlador del flujo de trabajo es responsable de iniciar uno o más programas de Spark. que conforman una canalización. Por lo general, el controlador del flujo de trabajo no realiza mucho trabajo. Cada El programa Spark ejecuta un solo controlador y varios ejecutores de Spark. El las coordenadas del controlador funcionan entre los ejecutores, pero, por lo general, no realiza ninguna el trabajo real. La mayor parte del trabajo real lo realizan los ejecutores de Spark.

¿Qué sigue?