De forma predeterminada, Cloud Data Fusion usaba el escalamiento automático como el perfil de procesamiento. Calcular el mejor número de trabajadores del clúster (nodos) para una carga de trabajo es difícil, y un tamaño de clúster único para una canalización completa a menudo no es ideal. El ajuste de escala automático de Dataproc proporciona un mecanismo para automatizar y habilita el ajuste de escala automático de VM de trabajador del clúster. Para ver más consulta Ajuste de escala automático
En la página Configuración de procesamiento, en la que puedes ver una lista de perfiles, hay una columna Total de núcleos, que tiene la cantidad máxima de CPUs virtuales a las que puede escalar el perfil, como Up to 84
.
Si deseas usar el perfil de procesamiento de Dataproc, puedes administrar los tamaños de los clústeres según el tamaño de la canalización.
Nodo principal
Los nodos de instancia principal usan recursos de forma proporcional a la cantidad de canalizaciones o aplicaciones adicionales que se ejecutan en el clúster. Si ejecutas canalizaciones en clústeres efímeros, usa 2 CPU y 8 GB de memoria para los nodos principales. Si usas clústeres persistentes, es posible que necesites nodos principales más grandes para mantenerse al día con el flujo de trabajo. Para saber si necesitas nodos principales más grandes, puede supervisar el uso de la memoria y de la CPU en el nodo. Recomendamos que dimensiones tus nodos trabajadores con al menos 2 CPU y 8 GB de memoria. Si has configuraste tus canalizaciones para usar mayores cantidades de memoria, debes usar con trabajadores más grandes.
A fin de minimizar el tiempo de ejecución, asegúrate de que tu clúster tenga suficientes nodos para permitir el procesamiento lo más paralelo posible.
Trabajadores
En las siguientes secciones, se describen aspectos del tamaño de los nodos trabajadores.
CPU y memoria
Recomendamos que definas el tamaño de tus nodos trabajadores con al menos 2 CPU y 8 GB
memoria. Si configuraste tus canalizaciones para que usen más memoria, usa
con trabajadores más grandes. Por ejemplo, con un nodo trabajador de 4 CPU y 15 GB, cada
tendrá 4 CPU y 12 GB disponibles para ejecutar contenedores YARN. Si tu canalización está configurada para ejecutar 1 CPU, 8 GB de ejecutores, YARN no puede ejecutar más de un contenedor por nodo de trabajo. Cada nodo trabajador tendría 3 CPU y 4 GB adicionales que se desperdician porque no se pueden usar para ejecutar nada. Para maximizar el uso de recursos en tu clúster, te recomendamos que la memoria de YARN y las CPU sean un múltiplo exacto de la cantidad necesaria por ejecutor de Spark. Puedes verificar cuánta memoria reservó cada trabajador para YARN
verificando la propiedad yarn.nodemanager.resource.memory-mb
en YARN.
Si usas Dataproc, la memoria disponible para YARN contenedores serán aproximadamente el 75% de la memoria de la VM. El tamaño mínimo del contenedor de YARN también se ajusta según el tamaño de las VMs de trabajador. En la siguiente tabla, se proporcionan algunos tamaños de trabajadores comunes y su configuración de YARN correspondiente.
CPU de trabajador | Memoria del trabajador (GB) | Memoria de nodo YARN (GB) | Memoria de asignación mínima de YARN (MB) |
---|---|---|---|
1 | 4 | 3 | 256 |
2 | 8 | 6 | 512 |
4 | 16 | 12 | 1024 |
8 | 32 | 24 | 1024 |
16 | 64 | 51 | 1024 |
Ten en cuenta que Spark solicita más memoria que la memoria del ejecutor
para la canalización, y YARN redondea la cantidad solicitada. Por ejemplo, supongamos que configuraste la memoria del ejecutor en 2,048 MB y no le asignaste un valor a spark.yarn.executor.memoryOverhead
, lo que significa que se usa el valor predeterminado de 384 MB. Esto significa que Spark solicita 2,048 MB + 384 MB.
de cada ejecutor, que YARN redondea hacia arriba a un múltiplo exacto del
una asignación mínima. Cuando se ejecuta en un nodo de trabajo de 8 GB, como la asignación mínima de YARN es de 512 MB, se redondea a 2.5 GB. Esto significa que cada trabajador puede ejecutar dos contenedores, agotando todas las CPU disponibles, pero dejando sin usar 1 GB de memoria de YARN (6 GB - 2.5 GB - 2.5 GB). Esto significa que el tamaño del nodo trabajador puede ser un poco más pequeño, o bien los ejecutores pueden tener un poco más de memoria.
Cuando se ejecuta en un nodo de trabajo de 16 GB, 2048 MB + 1024 MB se redondean a 3 GB porque la asignación mínima de YARN es de 1024 MB.
Esto significa que cada nodo trabajador puede ejecutar cuatro contenedores, con todas las CPU y la memoria de YARN en uso.
Para contextualizar, la siguiente tabla muestra los tamaños de trabajadores recomendados según algunos tamaños de ejecutores comunes.
CPU del ejecutor | Memoria del ejecutor (MB) | CPU del trabajador | Memoria del trabajador ( GB) |
---|---|---|---|
1 | 2,048 | 4 | 15 |
1 | 3072 | 4 | 21 |
1 | 4,096 | 4 | 26 |
2 | 8192 | 4 | 26 |
Por ejemplo, un nodo de trabajo de 26 GB se traduce en 20 GB de memoria que se pueden usar para ejecutar contenedores de YARN. Con la memoria del ejecutor establecida en 4 GB, se agrega 1 GB como sobrecarga, lo que significa 5 GB de contenedores YARN para cada ejecutor. Esto significa que el trabajador puede ejecutar cuatro contenedores sin dejar recursos adicionales. También puedes multiplicar el tamaño de los trabajadores. Por ejemplo, si la memoria del ejecutor está configurada en 4,096 GB, un trabajador con 8 CPU y 52 GB de memoria también funcionan bien. Las VMs de Compute Engine restringen la cantidad de memoria que puede tener según la cantidad de núcleos. Por ejemplo, una VM con 4 núcleos debe tener al menos 7.25 GB de memoria y, como máximo, 26 GB de memoria. Esto significa que un ejecutor Configurada para usar 1 CPU y 8 GB de memoria usa 2 CPU y 26 GB de memoria en la VM. Si, en cambio, los ejecutores se configuran para usar 2 CPU y 8 GB de memoria, se utilizan todas las CPU.
Disco
El disco es importante para algunas canalizaciones, pero no para todas. Si tu canalización No debe contener Shuffle, el disco solo se usará cuando Spark se quede sin memoria. y necesita volcar los datos al disco. Para estos tipos de canalizaciones, el tamaño del disco por lo general no tendrán un gran impacto en el rendimiento. Si tu canalización redistribuye muchos datos, el rendimiento del disco hará una diferencia. Si que estás usando Dataproc, se recomienda que uses tamaños de disco de al menos 1 TB, a medida que el rendimiento del disco aumenta con su tamaño. Para obtener información sobre el rendimiento del disco, consulta Configura discos para cumplir con los requisitos de rendimiento.
Cantidad de trabajadores
Para minimizar el tiempo de ejecución, asegúrate de que tu clúster sea lo suficientemente grande como para que pueda ejecutarse tanto como sea posible en paralelo. Por ejemplo, tu fuente de canalización lee los datos con 100 divisiones, debes asegurarte de que sea lo suficientemente grande para ejecutar 100 ejecutores a la vez.
La forma más fácil de saber si tu clúster tiene un tamaño pequeño es observar el código memoria pendiente a lo largo del tiempo. Si estás usando Dataproc, un gráfico puede se encuentran en la página de detalles del clúster.
Si la memoria pendiente es alta durante períodos prolongados, puedes aumentar la cantidad de trabajadores para agregar esa capacidad adicional a tu clúster. En el ejemplo anterior, el clúster debería aumentarse en alrededor de 28 GB para garantizar que se alcance el nivel máximo de paralelismo.
Modo de flexibilidad mejorada (EFM)
EFM te permite especificar que solo se involucren los nodos de trabajador principal cuando se mezclen los datos. Dado que los trabajadores secundarios ya no son responsables de los datos de shuffle intermedios, cuando se quitan de un clúster, los trabajos de Spark no se retrasan ni generan errores. Dado que los trabajadores principales nunca se reducen, el clúster se reduce con más estabilidad y eficiencia. Si ejecutas canalizaciones con barajas en un clúster estático, te recomendamos que uses EFM.
Para obtener más información sobre EFM, consulta Modo de flexibilidad mejorada de Dataproc.