Resolver erros de falta de memória da VM

Nesta página, você encontra informações sobre erros de falta de memória (OOM) do Dataproc em VMs do Compute Engine e explica as etapas que podem ser seguidas para resolver esses erros.

Efeitos do erro de OOM

Quando as VMs do Dataproc no Compute Engine encontram erros de falta de memória (OOM, na sigla em inglês), os efeitos incluem as seguintes condições:

  • As VMs mestre e de worker ficam congeladas por um período.

  • Os erros de falta de memória (OOM) das VMs principais fazem com que os jobs falhem com erros de "tarefa não adquirida".

  • Os erros de falta de memória da VM worker causam a perda do nó no HDFS do YARN, o que atrasa a execução do job do Dataproc.

Controles de memória do YARN

O Apache YARN oferece os seguintes tipos de controles de memória:

  • Baseado em pesquisa (legado)
  • Estrito
  • Elastic

Por padrão, o Dataproc não define yarn.nodemanager.resource.memory.enabled para ativar os controles de memória do YARN pelos seguintes motivos:

  • O controle estrito de memória pode causar o encerramento de contêineres quando há memória suficiente se os tamanhos dos contêineres não estiverem configurados corretamente.
  • Os requisitos de controle de memória elástica podem afetar negativamente a execução do job.
  • Os controles de memória do YARN podem não impedir erros de falta de memória quando os processos consomem memória de forma agressiva.

Proteção de memória do Dataproc

Quando uma VM de cluster do Dataproc está sob pressão de memória, a proteção de memória do Dataproc encerra processos ou contêineres até que a condição de falta de memória seja removida.

O Dataproc oferece proteção de memória para os seguintes nós de cluster nas seguintes versões de imagem do Dataproc no Compute Engine:

Papel 1.5 2.0 2.1 2.2
VM principal 1.5.74+ 2.0.48+ todas todas
VM de worker Não disponível 2.0.76+ 2.1.24+ todas
VM do pool de motoristas Não disponível 2.0.76+ 2.1.24+ todas

Identificar e confirmar encerramentos de proteção de memória

Use as informações a seguir para identificar e confirmar o encerramento de jobs devido à pressão na memória.

Encerramentos de processos

  • Os processos encerrados pela proteção de memória do Dataproc saem com o código 137 ou 143.

  • Quando o Dataproc encerra um processo devido à pressão na memória, as seguintes ações ou condições podem ocorrer:

    • O Dataproc incrementa a métrica cumulativa dataproc.googleapis.com/node/problem_count e define reason como ProcessKilledDueToMemoryPressure. Consulte Coleta de métricas de recursos do Dataproc.
    • O Dataproc grava um registro google.dataproc.oom-killer com a mensagem: "A process is killed due to memory pressure: process name. Para ver essas mensagens, ative o Logging e use o seguinte filtro de registro:
      resource.type="cloud_dataproc_cluster"
      resource.labels.cluster_name="CLUSTER_NAME"
      resource.labels.cluster_uuid="CLUSTER_UUID"
      jsonPayload.message:"A process is killed due to memory pressure:"
      

Encerramentos de jobs do pool de nós mestre ou de driver

  • Quando um job de pool de nós mestre ou de driver do Dataproc é encerrado devido à pressão da memória, ele falha com o código de erro Driver received SIGTERM/SIGKILL signal and exited with INT. Para ver essas mensagens, ative o Logging e use o seguinte filtro de registro:

    resource.type="cloud_dataproc_cluster"
    resource.labels.cluster_name="CLUSTER_NAME"
    resource.labels.cluster_uuid="CLUSTER_UUID"
    jsonPayload.message:"Driver received SIGTERM/SIGKILL signal and exited with"
        

    • Verifique o log google.dataproc.oom-killer ou dataproc.googleapis.com/node/problem_count para confirmar se a proteção de memória do Dataproc encerrou o job (consulte Encerramentos de processos).

    Soluções:

    • Se o cluster tiver um pool de drivers, aumente driver-required-memory-mb para o uso real de memória do job.
    • Se o cluster não tiver um pool de drivers, recrie-o, reduzindo o número máximo de jobs simultâneos em execução no cluster.
    • Use um tipo de máquina de nó mestre com mais memória.

Encerramentos de contêineres YARN do nó de trabalho

  • O Dataproc grava a seguinte mensagem no gerenciador de recursos do YARN: container id exited with code EXIT_CODE. Para ver essas mensagens, ative o Logging e use o seguinte filtro de registro:

    resource.type="cloud_dataproc_cluster"
    resource.labels.cluster_name="CLUSTER_NAME"
    resource.labels.cluster_uuid="CLUSTER_UUID"
    jsonPayload.message:"container" AND "exited with code" AND "which potentially signifies memory pressure on NODE
    
  • Se um contêiner for encerrado com code INT, verifique o registro google.dataproc.oom-killer ou o dataproc.googleapis.com/node/problem_count para confirmar se a proteção de memória do Dataproc encerrou o job (consulte Encerramentos de processos).

    Soluções:

    • Verifique se os tamanhos dos contêineres estão configurados corretamente.
    • Considere diminuir yarn.nodemanager.resource.memory-mb. Essa propriedade controla a quantidade de memória usada para programar contêineres do YARN.
    • Se os contêineres de job falharem constantemente, verifique se a distorção de dados está causando um aumento no uso de contêineres específicos. Se for o caso, faça uma nova partição do job ou aumente o tamanho do worker para atender aos requisitos de memória adicionais.