De forma predeterminada, Cloud Data Fusion usaba el escalamiento automático como perfil de procesamiento. Es difícil calcular la mejor cantidad de trabajadores (nodos) del clúster para una carga de trabajo, y un tamaño único del clúster para toda la canalización no suele ser lo ideal. El ajuste de escala automático de Dataproc proporciona un mecanismo para automatizar la administración de recursos del clúster y habilitar el ajuste de escala automático de la VM de trabajador del clúster. Para obtener más información, consulta Ajuste de escala automático.
En la página Configuración de procesamiento, en la que puedes ver una lista de perfiles, hay una columna Total de núcleos, que tiene la cantidad máxima de CPUs virtuales a las que puede escalar el perfil, como Up to 84
.
Si deseas usar el perfil de procesamiento de Dataproc , puedes administrar los tamaños de los clústeres según el tamaño de la canalización.
Nodo principal
Los nodos de instancia principal usan recursos de forma proporcional a la cantidad de canalizaciones o aplicaciones adicionales que se ejecutan en el clúster. Si ejecutas canalizaciones en clústeres efímeros, usa 2 CPU y 8 GB de memoria para los nodos principales. Si usas clústeres persistentes, es posible que necesites nodos principales más grandes para mantenerse al día con el flujo de trabajo. Para comprender si necesitas nodos principales más grandes, puedes supervisar el uso de la memoria y la CPU en el nodo. Recomendamos que dimensiones tus nodos trabajadores con al menos 2 CPU y 8 GB de memoria. Si configuraste tus canalizaciones para usar grandes cantidades de memoria, debes usar trabajadores más grandes.
A fin de minimizar el tiempo de ejecución, asegúrate de que tu clúster tenga suficientes nodos para permitir el procesamiento lo más paralelo posible.
Trabajadores
En las siguientes secciones, se describen los aspectos relacionados con el tamaño de los nodos de trabajo.
CPU y memoria
Recomendamos que dimensiones tus nodos trabajadores con al menos 2 CPU y 8 GB de memoria. Si configuraste tus canalizaciones para usar grandes cantidades de memoria, usa trabajadores más grandes. Por ejemplo, con un nodo de trabajo de 4 CPU y 15 GB, cada trabajador tendrá 4 CPU y 12 GB disponibles para ejecutar contenedores de YARN. Si tu canalización está configurada para ejecutar 1 CPU, 8 GB de ejecutores, YARN no puede ejecutar más de un contenedor por nodo de trabajo. Cada nodo trabajador tendría 3 CPU y 4 GB adicionales que se desperdician porque no se pueden usar para ejecutar nada. Para maximizar el uso de recursos en tu clúster, te recomendamos que la memoria de YARN y las CPU sean un múltiplo exacto de la cantidad necesaria por ejecutor de Spark. Puedes verificar cuánta memoria reservó cada trabajador para YARN
comprobando la propiedad yarn.nodemanager.resource.memory-mb
en YARN.
Si usas Dataproc, la memoria disponible para los contenedores de YARN será aproximadamente el 75% de la memoria de la VM. El tamaño mínimo del contenedor de YARN también se ajusta según el tamaño de las VMs de trabajo. En la siguiente tabla, se proporcionan algunos tamaños de trabajadores comunes y su configuración de YARN correspondiente.
CPU del trabajador | Memoria del trabajador (GB) | Memoria del nodo YARN (GB) | Memoria de asignación mínima de YARN (MB) |
---|---|---|---|
1 | 4 | 3 | 256 |
2 | 8 | 6 | 512 |
4 | 16 | 12 | 1024 |
8 | 32 | 24 | 1024 |
16 | 64 | 51 | 1024 |
Ten en cuenta que Spark solicita más memoria que la memoria del ejecutor configurada para la canalización y que YARN redondea ese importe solicitado hacia arriba. Por ejemplo, supongamos que configuraste la memoria del ejecutor en 2, 048 MB y no le asignaste un valor a spark.yarn.executor.memoryOverhead
, lo que significa que se usa el valor predeterminado de 384 MB. Eso significa que Spark solicita 2,048 MB + 384 MB para cada ejecutor, que YARN redondea a un múltiplo exacto de la asignación mínima de YARN. Cuando se ejecuta en un nodo de trabajo de 8 GB, como la asignación mínima de YARN es de 512 MB, se redondea a 2.5 GB. Esto significa que cada trabajador puede ejecutar dos contenedores, agotando todas las CPU disponibles, pero dejando sin usar 1 GB de memoria de YARN (6 GB - 2.5 GB - 2.5 GB). Esto significa que el tamaño del nodo trabajador puede ser un poco más pequeño, o bien los ejecutores pueden tener un poco más de memoria.
Cuando se ejecuta en un nodo de trabajo de 16 GB, 2048 MB + 1024 MB se redondean a 3 GB porque la asignación mínima de YARN es de 1024 MB.
Esto significa que cada nodo trabajador puede ejecutar cuatro contenedores, con todas las CPU y la memoria de YARN en uso.
Para brindar contexto, en la siguiente tabla, se muestran los tamaños de trabajadores recomendados según algunos tamaños de ejecutor comunes.
CPU del ejecutor | Memoria del ejecutor (MB) | CPU del trabajador | Memoria del trabajador ( GB) |
---|---|---|---|
1 | 2,048 | 4 | 15 |
1 | 3072 | 4 | 21 |
1 | 4096 | 4 | 26 |
2 | 8192 | 4 | 26 |
Por ejemplo, un nodo de trabajo de 26 GB se traduce en 20 GB de memoria que se pueden usar para ejecutar contenedores de YARN. Con la memoria del ejecutor establecida en 4 GB, se agrega 1 GB como sobrecarga, lo que significa 5 GB de contenedores YARN para cada ejecutor. Esto significa que el trabajador puede ejecutar cuatro contenedores sin dejar recursos adicionales. También puedes multiplicar el tamaño de los trabajadores. Por ejemplo, si la memoria del ejecutor se establece en 4096 GB, un trabajador con 8 CPU y 52 GB de memoria también funcionaría bien. Las VMs de Compute Engine restringen la cantidad de memoria que puede tener la VM según la cantidad de núcleos. Por ejemplo, una VM con 4 núcleos debe tener al menos 7.25 GB de memoria y, como máximo, 26 GB. Esto significa que un ejecutor configurado para usar 1 CPU y 8 GB de memoria usa 2 CPU y 26 GB de memoria en la VM. Si, en cambio, los ejecutores se configuran para usar 2 CPU y 8 GB de memoria, se utilizan todas las CPU.
Disco
El disco es importante para algunas canalizaciones, pero no para todas. Si tu canalización no contiene ninguna redistribución, el disco solo se usará cuando Spark se quede sin memoria y necesite volcar datos en el disco. En el caso de estos tipos de canalizaciones, el tamaño y el tipo de disco, por lo general, no tendrán un gran impacto en el rendimiento. Si tu canalización redistribuye muchos datos, el rendimiento del disco hará la diferencia. Si usas Dataproc, se recomienda que uses tamaños de disco de al menos 1 TB, ya que el rendimiento del disco escala verticalmente con el tamaño del disco. Para obtener información sobre el rendimiento del disco, consulta Configura discos para cumplir con los requisitos de rendimiento.
Cantidad de trabajadores
Para minimizar el tiempo de ejecución, asegúrate de que tu clúster sea lo suficientemente grande como para que pueda ejecutarse tanto como sea posible en paralelo. Por ejemplo, si la fuente de tu canalización lee datos con 100 divisiones, te recomendamos que te asegures de que el clúster sea lo suficientemente grande como para ejecutar 100 ejecutores a la vez.
La forma más sencilla de saber si tu clúster tiene un tamaño insuficiente es observar la memoria pendiente de YARN con el tiempo. Si usas Dataproc, puedes encontrar un gráfico en la página de detalles del clúster.
Si la memoria pendiente es alta durante períodos prolongados, puedes aumentar la cantidad de trabajadores para agregar esa capacidad adicional a tu clúster. En el ejemplo anterior, se debe aumentar el clúster en aproximadamente 28 GB para garantizar que se alcance el nivel máximo de paralelismo.
Modo de flexibilidad mejorada (EFM)
EFM te permite especificar que solo se involucren los nodos de trabajador principal cuando se mezclen los datos. Dado que los trabajadores secundarios ya no son responsables de los datos de shuffle intermedios, cuando se quitan de un clúster, los trabajos de Spark no se retrasan ni generan errores. Dado que los trabajadores principales nunca se reducen, el clúster se reduce con más estabilidad y eficiencia. Si ejecutas canalizaciones con barajas en un clúster estático, te recomendamos que uses EFM.
Para obtener más información sobre el MFE, consulta Modo de flexibilidad mejorada de Dataproc.