Soluciona problemas de retrasos en los trabajos

En esta página, se enumeran causas comunes de retrasos en la programación de trabajos de Dataproc. información que pueda ayudarte a evitarlos.

Descripción general

Los siguientes son motivos comunes por los que se retrasa un trabajo de Dataproc (limitado):

  • Hay demasiados trabajos en ejecución
  • Uso elevado de la memoria del sistema
  • No hay suficiente memoria libre
  • Se superó el límite de frecuencia

Por lo general, el mensaje de demora de la tarea se emite en el siguiente formato:

Awaiting execution [SCHEDULER_MESSAGE]"

En las siguientes secciones, se proporcionan posibles causas y soluciones para situaciones específicas de demoras de trabajos.

Demasiados trabajos en ejecución

Mensaje del programador:

Throttling job ### (and maybe others): Too many running jobs (current=xx max=xx)

Causas:

Se excede la cantidad máxima de trabajos simultáneos basados en la memoria de la VM principal (el el controlador de trabajos se ejecuta en la VM de la instancia principal del clúster de Dataproc). De forma predeterminada, Dataproc reserva 3.5 GB de memoria para las aplicaciones, y permite 1 trabajo por GB.

Ejemplo: El tipo de máquina n1-standard-4 tiene 15GB de memoria. Con 3.5GB reservado para la sobrecarga, Queda 11.5GB. Cuando se redondea a un número entero, 11GB está disponible para hasta 11 trabajos simultáneos.

Soluciones:

  1. Supervisa las métricas de registro, como el uso de la CPU y la memoria, para estimar los requisitos del trabajo.

  2. Cuando creas un clúster de trabajo, sucede lo siguiente:

    1. Usa un tipo de máquina con más memoria para la VM principal del clúster.

    2. Si 1GB por trabajo es más de lo que necesitas, establece la dataproc:dataproc.scheduler.driver-size-mb propiedad del clúster a menos de 1024.

    3. Establece el dataproc:dataproc.scheduler.max-concurrent-jobs. propiedad del clúster a un valor adecuado a los requisitos de tu trabajo.

Memoria del sistema alta o no hay suficiente memoria libre

Mensaje del programador:

Throttling job xxx_____JOBID_____xxx (and maybe others): High system memory usage (current=xx%)

Throttling job xxx_____JOBID_____xxx (and maybe others): Not enough free memory (current=xx min=xx)

Causas:

De forma predeterminada, el agente de Dataproc limita el envío de trabajos cuando el uso de la memoria alcanza el 90% (0.9). Cuando se alcanza este límite, no se pueden programar trabajos nuevos.

La cantidad de memoria libre necesaria para programar otro trabajo en el clúster no es suficiente.

Solución:

  1. Cuando creas un clúster, sucede lo siguiente:

    1. Aumentar el valor de la dataproc:dataproc.scheduler.max-memory-used propiedad del clúster. Por ejemplo, configúralo por encima del valor predeterminado 0.90 como 0.95.
    2. Aumenta el valor de la propiedad del clúster dataproc.scheduler.min-free-memory.mb. El valor predeterminado es 256 MB.

Se superó el límite de la tasa de trabajo

Mensaje del programador:

Throttling job xxx__JOBID___xxx (and maybe others): Rate limit

Causas:

El agente de Dataproc alcanzó el límite de frecuencia de envío de trabajos.

Soluciones:

  1. De forma predeterminada, el envío de trabajos del agente de Dataproc se limita a 1.0 QPS, que puedes configurar con un valor diferente cuando creas un clúster con dataproc:dataproc.scheduler.job-submission-rate propiedad del clúster.

Consulta el estado del trabajo.

Para ver el estado y los detalles del trabajo, consulta Supervisión y depuración del trabajo.