Faire évoluer des clusters

Après avoir créé un cluster Dataproc, vous pouvez procéder au scaling du cluster en augmentant ou en diminuant le nombre de nœuds de calcul principaux ou secondaires dans le cluster. Vous pouvez procéder au scaling d'un cluster Dataproc à n'importe quel moment, même lorsqu'il contient des tâches en cours d'exécution.

Pourquoi procéder au scaling d'un cluster Dataproc ?

  1. Pour augmenter le nombre de nœuds de calcul et ainsi augmenter la rapidité d'exécution d'une tâche.
  2. Pour diminuer le nombre de nœuds de calcul et faire des économies (consultez notamment la section Mise hors service concertée, ce qui permet de ne pas perdre le travail en cours lors de la réduction de la taille d'un cluster).
  3. Pour augmenter le nombre de nœuds afin d'étendre l'espace de stockage HDFS (système de fichiers distribué Hadoop) disponible.

Comme il est possible de procéder au scaling d'un cluster plusieurs fois, vous pouvez augmenter/diminuer la taille du cluster en une fois, puis diminuer/augmenter sa taille ultérieurement.

Utiliser le scaling

Vous pouvez procéder au scaling de votre cluster Dataproc de trois manières :

  1. Utilisez l'outil de ligne de commande gcloud dans le SDK Cloud.
  2. Modifier la configuration du cluster dans la console Google Cloud.
  3. Utiliser l'API REST.

Les nœuds de calcul récemment ajoutés à un cluster utiliseront le même type de machine que les nœuds de calcul existants. Par exemple, si un cluster est créé avec des nœuds de calcul utilisant le type de machine n1-standard-8, les nouveaux nœuds de calcul utiliseront également le type de machine n1-standard-8.

Vous pouvez ajuster le nombre de nœuds de calcul primaires, le nombre de nœuds de calcul secondaires (préemptifs), ou les deux. Ainsi, si vous ne modifiez que le nombre de nœuds de calcul préemptifs, le nombre de nœuds de calcul primaires reste inchangé.

gcloud

Pour procéder au scaling d'un cluster avec gcloud dataproc clusters update, exécutez la commande suivante :
gcloud dataproc clusters update cluster-name \
    --region=region \
    [--num-workers and/or --num-secondary-workers]=new-number-of-workers
cluster-name correspond au nom du cluster à mettre à jour et new-number-of-workers correspond au nombre mis à jour de nœuds de calcul primaires et/ou secondaires. Par exemple, pour procéder au scaling d'un cluster nommé "dataproc-1" afin qu'il exploite cinq nœuds de calcul primaires, exécutez la commande suivante :
gcloud dataproc clusters update dataproc-1 \
    --region=region \
    --num-workers=5
...
Waiting on operation [operations/projects/project-id/operations/...].
Waiting for cluster update operation...done.
Updated [https://dataproc.googleapis.com/...].
clusterName: my-test-cluster
...
  masterDiskConfiguration:
    bootDiskSizeGb: 500
  masterName: dataproc-1-m
  numWorkers: 5
  ...
  workers:
  - my-test-cluster-w-0
  - my-test-cluster-w-1
  - my-test-cluster-w-2
  - my-test-cluster-w-3
  - my-test-cluster-w-4
...

API REST

Consultez la page qui traite de clusters.patch.

Exemple

PATCH /v1/projects/project-id/regions/us-central1/clusters/example-cluster?updateMask=config.worker_config.num_instances,config.secondary_worker_config.num_instances
{
  "config": {
    "workerConfig": {
      "numInstances": 4
    },
    "secondaryWorkerConfig": {
      "numInstances": 2
    }
  },
  "labels": null
}

Console

Une fois le cluster créé, vous pouvez lui appliquer un scaling en ouvrant la page Cluster details (Détails du cluster) depuis la page Clusters de Cloud console, puis en cliquant sur le bouton Edit (Modifier) de l'onglet Configuration.
Renseignez une nouvelle valeur dans les champs Worker nodes (Nœuds de calcul) et/ou Preemptible worker nodes (Nœuds de calcul préemptifs). Dans la capture d'écran suivante, ces valeurs ont respectivement été mises à jour sur "5" et "2".
Cliquez sur Enregistrer pour mettre à jour le cluster.

Mise hors service concertée

Lorsque vous réduisez la taille d'un cluster, le travail en cours peut s'arrêter avant la fin. Si vous utilisez Dataproc v 1.2 ou une version ultérieure, vous pouvez utiliser la mise hors service concertée, qui intègre la mise hors service concertée des nœuds YARN pour terminer le travail en cours sur un nœud de calcul avant qu'il soit retiré du cluster Cloud Dataproc.

Mise hors service concertée et nœuds de calcul secondaires

Le groupe de nœuds de calcul préemptifs (secondaires) continue de provisionner ou de supprimer des nœuds de calcul pour atteindre la taille souhaitée, même après qu'une opération de scaling de cluster a été marquée comme étant terminée. Si vous tentez une mise hors service concertée sur un nœud de calcul secondaire et que vous recevez un message d'erreur semblable au suivant :

"Le groupe de nœuds de calcul secondaire ne peut pas être modifié en dehors de Dataproc. Si vous avez récemment créé ou mis à jour ce cluster, attendez quelques minutes avant de procéder à une mise hors service concertée, afin de permettre à toutes les instances secondaires de rejoindre ou de quitter le cluster. Taille attendue du groupe de nœuds de calcul secondaires : x, taille réelle : y",

attendez quelques minutes, puis répétez la demande de mise hors service concertée.

Sachez également que :

  • vous pouvez forcer la mise hors service des nœuds de calcul préemptifs à tout moment ;
  • vous pouvez procéder à la mise hors service concertée des nœuds de calcul primaires à tout moment.

Utiliser la mise hors service concertée

La mise hors service concertée Dataproc intègre la mise hors service concertée des nœuds YARN pour terminer le travail en cours sur un nœud de calcul avant qu'il ne soit supprimé du cluster Cloud Dataproc. Par défaut, la mise hors service concertée est désactivée. Vous pouvez l'activer en définissant un délai avant expiration lorsque vous mettez à jour votre cluster dans le but de le délester d'un ou plusieurs nœuds de calcul.

gcloud

Lorsque vous mettez à jour un cluster dans le but de supprimer un ou plusieurs nœuds de calcul, exécutez la commande gcloud dataproc clusters update avec l'option --graceful-decommission-timeout. Les valeurs du délai (chaîne) peuvent être définies sur "0s" (la valeur par défaut ; mise hors service forcée, et non concertée) ou sur une durée positive exprimée par rapport à l'heure actuelle (par exemple, "3s"). La durée maximale est d'1 jour.
gcloud dataproc clusters update cluster-name \
    --region=region \
    --graceful-decommission-timeout="timeout-value" \
    [--num-workers and/or --num-secondary-workers]=decreased-number-of-workers \
    ... other args ...

API REST

Consultez la section clusters.patch.gracefulDecommissionTimeout. Les valeurs du délai (chaîne) peuvent être définies sur "0" (la valeur par défaut ; mise hors service forcée, et non concertée) ou sur une durée en secondes (par exemple, "3s"). La durée maximale est d'1 jour.

Console

Une fois le cluster créé, vous pouvez sélectionner la mise hors service concertée d'un cluster en ouvrant la page Cluster Details (Détails du cluster) des Clusters Cloud Console, puis cliquez sur le bouton Edit (Modifier) dans l'onglet Configuration.
Dans la section Graceful Decommissioning (Mise hors service concertée), cochez la case "Use graceful decommissioning" (Utiliser la mise hors service concertée), puis sélectionnez une valeur pour le délai.
Cliquez sur Enregistrer pour mettre à jour le cluster.