Acciones de inicialización

Cuando creas un clúster de Dataproc, puedes especificar acciones de inicialización en ejecutables o secuencias de comandos que Dataproc ejecutará en todos los nodos en tu clúster de Dataproc inmediatamente después de configurar el clúster. A menudo, las acciones de inicialización configuran dependencias de trabajo, como la instalación de paquetes de Python, para que los trabajos puedan enviarse al clúster sin tener que instalar dependencias cuando se ejecutan los trabajos.

Puedes encontrar secuencias de comandos de acciones de inicialización de ejemplo en las siguientes ubicaciones: Nota: Google no admite estos ejemplos.

Consideraciones y lineamientos importantes

  • No crees clústeres de producción que hagan referencia a acciones de inicialización ubicadas en los buckets públicos de gs://goog-dataproc-initialization-actions-REGION. Estas secuencias de comandos se proporcionan como implementaciones de referencia. Se sincronizan con los cambios en curso del repositorio de GitHub, y las actualizaciones de estas secuencias de comandos pueden interrumpir la creación del clúster. En su lugar, copia la acción de inicialización del bucket público en una carpeta de bucket de Cloud Storage con control de versiones, como se muestra en el siguiente ejemplo:

    REGION=COMPUTE_REGION
    gcloud storage cp gs://goog-dataproc-initialization-actions-${REGION}/cloud-sql-proxy/cloud-sql-proxy.sh \
        gs://my-bucket/cloud-sql-proxy/v1.0/cloud-sql-proxy.sh
    
    Luego, crea el clúster; para ello, haz referencia a la copia en Cloud Storage:
    gcloud dataproc clusters create CLUSTER_NAME \
        --region=${REGION} \
        --initialization-actions=gs://my-bucket/cloud-sql-proxy/v1.0/cloud-sql-proxy.sh \
        ...other flags...
    

  • Las acciones de inicialización se ejecutan en cada nodo en serie durante la creación del clúster. También se ejecutan en cada nodo agregado cuando se realiza el escalamiento o el ajuste de escala automático de los clústeres.

  • Cuando actualices las acciones de inicialización, por ejemplo, cuando sincronices tus acciones de inicialización de Cloud Storage con los cambios realizados en las acciones de inicialización del bucket público o del repositorio de GitHub, crea una carpeta nueva (preferentemente con un nombre de versión) para recibir las acciones de inicialización actualizadas. En cambio, si actualizas la acción de inicialización en su lugar, los nodos nuevos, como los que agrega el escalador automático, ejecutarán la acción de inicialización actualizada en su lugar, no la acción de inicialización de la versión anterior que se ejecutó en los nodos existentes. Estas diferencias en las acciones de inicialización pueden generar nodos de clúster incoherentes o dañados.

  • Las acciones de inicialización se ejecutan como el usuario root. No necesitas usar sudo.

  • Usa rutas de acceso absolutas en las acciones de inicialización.

  • Usa una línea shebang en las acciones de inicialización para indicar cómo debe interpretarse la secuencia de comandos (como #!/bin/bash o #!/usr/bin/python).

  • Si una acción de inicialización termina con un código de salida que no es cero, la operación de creación del clúster presentará un estado de "ERROR". Para depurar la acción de inicialización, usa SSH para conectarte a las instancias de VM del clúster y, luego, examina los registros. Luego de solucionar el problema de la acción de inicialización, puedes borrar y, luego, volver a crear el clúster.

  • Si creas un clúster de Dataproc con direcciones IP internas solamente, los intentos de acceder a github.com a través de Internet en una acción de inicialización fallarán, a menos que hayas configurado rutas para dirigir el tráfico a través de Cloud NAT o una Cloud VPN. Sin acceso a Internet, puedes habilitar Acceso privado a Google y colocar las dependencias de trabajos en Cloud Storage; los nodos del clúster pueden descargar las dependencias de Cloud Storage desde IP internas.

  • Puedes usar imágenes personalizadas de Dataproc en vez de acciones de inicialización para configurar dependencias de trabajos.

  • Procesamiento de inicialización:

    • Clústeres de imágenes anteriores a la versión 2.0:
      • Instancia principal: Para permitir que las acciones de inicialización se ejecuten en instancias principales para escribir archivos en HDFS, las acciones de inicialización del nodo principal no se inician hasta que HDFS admite operaciones de escritura (hasta que HDFS salga del modo seguro y haya unido al menos dos DataNodes de HDFS).
      • Trabajador: Si configuras la propiedad de clúster dataproc:dataproc.worker.custom.init.actions.mode en RUN_BEFORE_SERVICES, cada trabajador ejecuta sus acciones de inicialización antes de iniciar su datanode de HDFS y daemons de nodemanager de YARN. Dataproc no ejecuta acciones de inicialización de la instancia principal hasta que HDFS admite operaciones de escritura, lo que requiere que se ejecuten 2 daemons de datanode de HDFS, configurar esta propiedad puede aumentar el tiempo de creación del clúster.
    • Clústeres de imágenes posteriores a la versión 2.0:

      • Instancia principal: Las acciones de inicialización del nodo principal pueden ejecutarse antes de que se pueda escribir en HDFS. Si ejecutas acciones de inicialización que habilitan por etapas archivos en HDFS o que dependen de la disponibilidad de los servicios dependientes de HDFS, como Ranger, configura la propiedad del clúster dataproc.master.custom.init.actions.mode en RUN_AFTER_SERVICES. Nota: Debido a que esta configuración de propiedad puede aumentar el tiempo de creación de los clústeres; consulta la explicación sobre el retraso de creación de los clústeres para los trabajadores de clústeres de imagen anteriores a 2.0, úsalo solo cuando (como práctica general, confía en la configuración predeterminada RUN_BEFORE_SERVICES para esta propiedad).
      • Trabajador: La propiedad de clúster dataproc:dataproc.worker.custom.init.actions.mode se establece en RUN_BEFORE_SERVICES y no se puede pasar al clúster cuando se crea el clúster (no puedes cambiar la configuración de la propiedad). Cada trabajador ejecuta sus acciones de inicialización antes de iniciar su datanode HDFS y daemons de nodemanager de YARN. Debido a que Dataproc no espera a que HDFS se pueda escribir antes de ejecutar las acciones de inicialización de la instancia principal, las acciones de inicialización de la instancia principal y del trabajador se ejecutan en paralelo.
    • Recomendaciones:

      • Usa metadatos para determinar la función de un nodo a fin de ejecutar forma condicional una acción de inicialización en ellos (consulta Usa metadatos del clúster).
      • Bifurca una copia de una acción de inicialización en un bucket de Cloud Storage a fin de lograr estabilidad (consulta Cómo se usan las acciones de inicialización).
      • Agrega reintentos cuando descargas de Internet para estabilizar la acción de inicialización.

Usa acciones de inicialización

Las acciones de inicialización del clúster se pueden especificar independientemente de cómo creas el clúster:

Comando de gcloud

Cuando creas un clúster con el comando gcloud dataproc clusters create, especifica una o más ubicaciones de Cloud Storage (URI) separadas por comas de las secuencias de comandos o los ejecutables de inicialización con la marca --initialization-actions. Nota: Varios "/" consecutivos en un URI de ubicación de Cloud Storage después del "gs://" inicial, como "gs://bucket/my//object//name", no son compatibles. Ejecuta gcloud dataproc clusters create --help para obtener información sobre el comando.

gcloud dataproc clusters create cluster-name \
    --region=${REGION} \
    --initialization-actions=Cloud Storage URI(s) (gs://bucket/...) \
    --initialization-action-timeout=timeout-value (default=10m) \
    ... other flags ...
Notas:
  • Usa la marca --initialization-action-timeout a fin de especificar un tiempo de espera para la acción de inicialización. El tiempo de espera predeterminado es de 10 minutos. Si el ejecutable o la secuencia de comandos de inicialización no se completó al final del tiempo de espera, Dataproc cancela la acción de inicialización.
  • Usa la propiedad de clúster dataproc:dataproc.worker.custom.init.actions.mode para ejecutar la acción de inicialización en los trabajadores principales antes de que se inicien el administrador de nodos y los daemons de datanode.

API de REST

Especifica uno o más ejecutables o secuencias de comandos en un array ClusterConfig.initializationActions como parte de una solicitud a la API clusters.create.

Ejemplo

POST /v1/projects/my-project-id/regions/us-central1/clusters/
{
  "projectId": "my-project-id",
  "clusterName": "example-cluster",
  "config": {
    "configBucket": "",
    "gceClusterConfig": {
      "subnetworkUri": "default",
      "zoneUri": "us-central1-b"
    },
    "masterConfig": {
      "numInstances": 1,
      "machineTypeUri": "n1-standard-4",
      "diskConfig": {
        "bootDiskSizeGb": 500,
        "numLocalSsds": 0
      }
    },
    "workerConfig": {
      "numInstances": 2,
      "machineTypeUri": "n1-standard-4",
      "diskConfig": {
        "bootDiskSizeGb": 500,
        "numLocalSsds": 0
      }
    },
    "initializationActions": [
      {
        "executableFile": "gs://cloud-example-bucket/my-init-action.sh"
      }
    ]
  }
}

Console

  • Abre la página de Dataproc Crear un clúster y, luego, selecciona el panel Personalizar clúster.
  • En la sección Acciones de inicialización, ingresa la ubicación del bucket de Cloud Storage de cada acción de inicialización en los campos Archivo ejecutable. Haz clic en Explorar para abrir la página del navegador de Cloud Storage en la consola de Google Cloud y seleccionar una secuencia de comandos o un archivo ejecutable. Haz clic en Agregar acción de inicialización para agregar cada archivo.
  • Aplica argumentos a las acciones de inicialización

    Dataproc establece valores especiales de metadatos para las instancias que se ejecutan en tus clústeres. Puedes configurar tus propios metadatos personalizados como una forma de aplicar argumentos a las acciones de inicialización.

    gcloud dataproc clusters create cluster-name \
        --region=${REGION} \
        --initialization-actions=Cloud Storage URI(s) (gs://bucket/...) \
        --metadata=name1=value1,name2=value2... \
        ... other flags ...
    

    Los valores de metadatos se pueden leer dentro de las acciones de inicialización de la siguiente manera:

    var1=$(/usr/share/google/get_metadata_value attributes/name1)
    

    Selección de nodos

    Si quieres limitar las acciones de inicialización para los nodos principales, del controlador o del trabajador, puedes agregar una lógica de selección de nodos simple a tu ejecutable o secuencia de comandos.

    ROLE=$(/usr/share/google/get_metadata_value attributes/dataproc-role)
    if [[ "${ROLE}" == 'Master' ]]; then
      ... master specific actions ...
    else if [[ "${ROLE}" == 'Driver' ]]; then
      ... driver specific actions ...
    else
      ... worker specific actions ...
    fi
    

    Staging de binarios

    Una situación de inicialización del clúster común es la etapa de pruebas de los binarios de trabajo en un clúster para eliminar la necesidad de habilitar a etapa los binarios cada vez que se envía un trabajo. Por ejemplo, supongamos que la siguiente secuencia de comandos de inicialización se almacena en gs://my-bucket/download-job-jar.sh, una ubicación del bucket de Cloud Storage:

    #!/bin/bash
    ROLE=$(/usr/share/google/get_metadata_value attributes/dataproc-role)
    if [[ "${ROLE}" == 'Master' ]]; then
      gcloud storage cp gs://my-bucket/jobs/sessionalize-logs-1.0.jar home/username
    fi
    

    La ubicación de esta secuencia de comandos puede pasarse al comando gcloud dataproc clusters create:

    gcloud dataproc clusters create my-dataproc-cluster \
        --region=${REGION} \
        --initialization-actions=gs://my-bucket/download-job-jar.sh
    

    Dataproc ejecutará esta secuencia de comandos en todos los nodos y, como consecuencia de la lógica de selección de nodos de la secuencia de comandos, descargará el jar al nodo principal. Por lo tanto, los trabajos enviados pueden usar el jar previo a la etapa de pruebas:

    gcloud dataproc jobs submit hadoop \
        --cluster=my-dataproc-cluster \
        --region=${REGION} \
        --jar=file:///home/username/sessionalize-logs-1.0.jar
    

    Muestras de acciones de inicialización

    Las secuencias de comandos de acciones de inicialización de uso frecuente y otros ejemplos se ubican en gs://goog-dataproc-initialization-actions-<REGION>, un depósito público regional de Cloud Storage, y en un repositorio de GitHub. Para contribuir a una secuencia de comandos, revisa el documento CONTRIBUTING.md y, a continuación, presenta una solicitud de extracción.

    Logging

    El resultado de la ejecución de cada acción de inicialización se registra para cada instancia en /var/log/dataproc-initialization-script-X.log; X es el índice basado en cero de cada secuencia de comandos de acción de inicialización sucesiva. Por ejemplo, si tu clúster tiene dos acciones de inicialización, los resultados se registrarán en /var/log/dataproc-initialization-script-0.log y /var/log/dataproc-initialization-script-1.log.

    ¿Qué sigue?

    Explora las acciones de inicialización de GitHub.