Dataproc en GKE te permite ejecutar aplicaciones de macrodatos mediante la API de jobs
de Dataproc en clústeres de GKE.
Usa Google Cloud Console, Google Cloud CLI o la API de Dataproc (solicitud HTTP o bibliotecas cliente de Cloud) para crear un clúster virtual de Dataproc en GKE y, luego, envía un trabajo de Spark, PySpark, SparkR o Spark-SQL al servicio de Dataproc.
Dataproc en GKE es compatible con las versiones Spark 2.4 y Spark 3.1.
Cómo funciona Dataproc en GKE
Dataproc en GKE implementa clústeres virtuales de Dataproc en un clúster de GKE. A diferencia de los clústeres de Dataproc en Compute Engine, los clústeres virtuales de Dataproc en GKE no incluyen VM principales y de trabajador independientes. En cambio, cuando creas un clúster virtual de Dataproc en GKE, Dataproc en GKE crea grupos de nodos dentro de un clúster de GKE. Los trabajos de Dataproc en GKE se ejecutan como pods en estos grupos de nodos. GKE administra los grupos de nodos y la programación de pods en los grupos de nodos.