SSD locales de Cloud Dataproc

Puedes adjuntar unidades de estado sólido locales (SSD locales) a los nodos principales, trabajadores primarios o trabajadores secundarios en tu clúster. De forma predeterminada, los SSD locales se usan a fin de escribir y leer archivos para instalación nueva de Apache Hadoop y Apache Spark, como las salidas aleatorias. Los SSD locales pueden proporcionar un rendimiento de lectura y escritura más rápido en comparación con los tiempos de escritura y lectura de los discos persistentes.

Usa SSD locales

Comando de gcloud

Usa el comando gcloud dataproc clusters create con las marcas ‑‑num-master-local-ssds, ‑‑num-workers-local-ssds y --num-preemptible-worker-local-ssds para adjuntar los SSD locales a los nodos trabajadores principales, primarios y secundarios (interrumpibles) del clúster, respectivamente.

Ejemplo:

gcloud dataproc clusters create cluster-name \
    ‑‑num-master-local-ssds=1 \
    ‑‑num-worker-local-ssds=1  \
    --num-preemptible-worker-local-ssds=1 \
    ... other args ...

API de REST

Configura el campo numLocalSsds en el InstanceGroupConfig masterConfig, workerConfig y secondaryWorkerConfig en una solicitud cluster.create a la API para adjuntar los SSD locales a los nodos trabajadores principales, primarios y secundarios (interrumpibles), respectivamente.

Console

Crea un clúster y adjunta los SSD locales a los nodos trabajadores primarios desde la página Create a cluster (Crear un clúster) de Cloud Dataproc de Google Cloud Platform Console.

¿Te sirvió esta página? Envíanos tu opinión:

Enviar comentarios sobre…

Documentación de Cloud Dataproc
¿Necesitas ayuda? Visita nuestra página de asistencia.