Ce guide explique comment entraîner un modèle sur Google Kubernetes Engine (GKE) à l'aide de Ray, de PyTorch et du module complémentaire Ray Operator.
À propos de Ray
Ray est un framework de calcul Open Source évolutif pour les applications d'IA et de ML. L'Ray Train est un composant de Ray conçu pour l'entraînement et le réglage de modèles distribués. Vous pouvez utiliser l'API Ray Train pour faire évoluer l'entraînement sur plusieurs machines et pour les intégrer à des bibliothèques de machine learning telles que PyTorch.
Vous pouvez déployer des jobs d'entraînement Ray à l'aide de la ressource RayCluster ou RayJob. Vous devez utiliser une ressource RayJob lors du déploiement de tâches Ray en production pour les raisons suivantes.
- La ressource RayJob crée un cluster Ray éphémère qui peut être automatiquement supprimé une fois la tâche terminée.
- La ressource RayJob accepte les règles de nouvelle tentative pour une exécution de tâches résilientes.
- Vous pouvez gérer les tâches Ray à l'aide des modèles d'API Kubernetes connus.
Objectifs
Ce guide est destiné aux clients d'IA générative, aux utilisateurs nouveaux ou existants de GKE, aux ingénieurs en ML, aux ingénieurs MLOps (DevOps) ou aux administrateurs de plate-forme qui s'intéressent à l'utilisation des fonctionnalités d'orchestration de conteneurs Kubernetes pour diffuser des modèles utilisant Ray.
- créer un cluster GKE ;
- Créez un cluster Ray à l'aide de la ressource personnalisée RayCluster.
- Entraîner un modèle à l'aide d'un job Ray.
- Déployer un job Ray à l'aide de la ressource personnalisée RayJob.
Coûts
Dans ce document, vous utilisez les composants facturables suivants de Google Cloud :
Obtenez une estimation des coûts en fonction de votre utilisation prévue à l'aide du simulateur de coût.
Une fois que vous avez terminé les tâches décrites dans ce document, vous pouvez éviter de continuer à payer des frais en supprimant les ressources que vous avez créées. Pour en savoir plus, consultez la section Effectuer un nettoyage.
Avant de commencer
Cloud Shell est préinstallé avec les logiciels dont vous avez besoin dans ce tutoriel, y compris kubectl
et gcloud CLI. Si vous n'utilisez pas Cloud Shell, vous devez installer gcloud CLI.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the GKE API:
gcloud services enable container.googleapis.com
- Install the Google Cloud CLI.
-
To initialize the gcloud CLI, run the following command:
gcloud init
-
Create or select a Google Cloud project.
-
Create a Google Cloud project:
gcloud projects create PROJECT_ID
Replace
PROJECT_ID
with a name for the Google Cloud project you are creating. -
Select the Google Cloud project that you created:
gcloud config set project PROJECT_ID
Replace
PROJECT_ID
with your Google Cloud project name.
-
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the GKE API:
gcloud services enable container.googleapis.com
-
Grant roles to your user account. Run the following command once for each of the following IAM roles:
roles/container.clusterAdmin, roles/container.admin
gcloud projects add-iam-policy-binding PROJECT_ID --member="user:USER_IDENTIFIER" --role=ROLE
- Replace
PROJECT_ID
with your project ID. -
Replace
USER_IDENTIFIER
with the identifier for your user account. For example,user:myemail@example.com
. - Replace
ROLE
with each individual role.
- Replace
- Installez Ray.
Préparer votre environnement
Pour préparer votre environnement, procédez comme suit :
Lancez une session Cloud Shell depuis la console Google Cloud en cliquant sur
Activer Cloud Shell dans la console Google Cloud. Une session s'ouvre dans le volet inférieur de la console Google Cloud.
Définissez les variables d'environnement :
export PROJECT_ID=PROJECT_ID export CLUSTER_NAME=ray-cluster export COMPUTE_REGION=us-central1 export COMPUTE_ZONE=us-central1-c export CLUSTER_VERSION=CLUSTER_VERSION export TUTORIAL_HOME=`pwd`
Remplacez les éléments suivants :
PROJECT_ID
: ID de votre projet Google Cloud.CLUSTER_VERSION
: version de GKE à utiliser. Doit être1.30.1
ou une version ultérieure.
Clonez le dépôt GitHub.
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples
Accédez au répertoire de travail :
cd kubernetes-engine-samples/ai-ml/gke-ray/raytrain/pytorch-mnist
Créer un cluster GKE
Créez un cluster GKE Autopilot ou Standard:
Autopilot
Créez un cluster Autopilot :
gcloud container clusters create-auto ${CLUSTER_NAME} \
--enable-ray-operator \
--cluster-version=${CLUSTER_VERSION} \
--location=${COMPUTE_REGION}
Standard
Créez un cluster standard :
gcloud container clusters create ${CLUSTER_NAME} \
--addons=RayOperator \
--cluster-version=${CLUSTER_VERSION} \
--machine-type=e2-standard-8 \
--location=${COMPUTE_ZONE} \
--num-nodes=4
Déployer une ressource RayCluster
Déployez une ressource RayCluster sur votre cluster:
Examinez le fichier manifeste suivant :
Ce fichier manifeste décrit une ressource personnalisée RayCluster.
Appliquez le fichier manifeste à votre cluster GKE :
kubectl apply -f ray-cluster.yaml
Vérifiez que la ressource RayCluster est prête:
kubectl get raycluster
Le résultat ressemble à ce qui suit :
NAME DESIRED WORKERS AVAILABLE WORKERS CPUS MEMORY GPUS STATUS AGE pytorch-mnist-cluster 2 2 6 20Gi 0 ready 63s
Dans ce résultat,
ready
dans la colonneSTATUS
indique que la ressource RayCluster est prête.
Se connecter à la ressource RayCluster
Connectez-vous à la ressource RayCluster pour envoyer un job Ray.
Vérifiez que GKE a créé le service RayCluster:
kubectl get svc pytorch-mnist-cluster-head-svc
Le résultat ressemble à ce qui suit :
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE pytorch-mnist-cluster-head-svc ClusterIP 34.118.238.247 <none> 10001/TCP,8265/TCP,6379/TCP,8080/TCP 109s
Établissez une session de transfert de port vers l'en-tête Ray:
kubectl port-forward svc/pytorch-mnist-cluster-head-svc 8265:8265 2>&1 >/dev/null &
Vérifiez que le client Ray peut se connecter au cluster Ray à l'aide de localhost:
ray list nodes --address http://localhost:8265
Le résultat ressemble à ce qui suit :
Stats: ------------------------------ Total: 3 Table: ------------------------------ NODE_ID NODE_IP IS_HEAD_NODE STATE NODE_NAME RESOURCES_TOTAL LABELS 0 1d07447d7d124db641052a3443ed882f913510dbe866719ac36667d2 10.28.1.21 False ALIVE 10.28.1.21 CPU: 2.0 ray.io/node_id: 1d07447d7d124db641052a3443ed882f913510dbe866719ac36667d2 # Several lines of output omitted
Entraîner un modèle
Entraînez un modèle PyTorch à l'aide de l'ensemble de données Faashion MNIST:
Envoyez une tâche Ray et attendez que la tâche soit terminée:
ray job submit --submission-id pytorch-mnist-job --working-dir . --runtime-env-json='{"pip": ["torch", "torchvision"]}' --address http://localhost:8265 -- python train.py
Le résultat ressemble à ce qui suit :
Job submission server address: http://localhost:8265 -------------------------------------------- Job 'pytorch-mnist-job' submitted successfully -------------------------------------------- Next steps Query the logs of the job: ray job logs pytorch-mnist-job Query the status of the job: ray job status pytorch-mnist-job Request the job to be stopped: ray job stop pytorch-mnist-job Handling connection for 8265 Tailing logs until the job exits (disable with --no-wait): ... ...
Vérifiez l'état de la tâche:
ray job status pytorch-mnist
Le résultat ressemble à ce qui suit :
Job submission server address: http://localhost:8265 Status for job 'pytorch-mnist-job': RUNNING Status message: Job is currently running.
Attendez que la valeur de
Status for job
soitCOMPLETE
. Cette opération peut prendre 15 minutes, voire plus.Affichez les journaux des jobs Ray:
ray job logs pytorch-mnist
Le résultat ressemble à ce qui suit :
Training started with configuration: ╭─────────────────────────────────────────────────╮ │ Training config │ ├──────────────────────────────────────────────────┤ │ train_loop_config/batch_size_per_worker 8 │ │ train_loop_config/epochs 10 │ │ train_loop_config/lr 0.001 │ ╰─────────────────────────────────────────────────╯ # Several lines omitted Training finished iteration 10 at 2024-06-19 08:29:36. Total running time: 9min 18s ╭───────────────────────────────╮ │ Training result │ ├────────────────────────────────┤ │ checkpoint_dir_name │ │ time_this_iter_s 25.7394 │ │ time_total_s 351.233 │ │ training_iteration 10 │ │ accuracy 0.8656 │ │ loss 0.37827 │ ╰───────────────────────────────╯ # Several lines omitted ------------------------------- Job 'pytorch-mnist' succeeded -------------------------------
Déployer une ressource RayJob
La ressource personnalisée RayJob gère le cycle de vie d'une ressource RayCluster lors de l'exécution d'un seul job Ray.
Examinez le fichier manifeste suivant :
Ce fichier manifeste décrit une ressource personnalisée RayJob.
Appliquez le fichier manifeste à votre cluster GKE :
kubectl apply -f ray-job.yaml
Vérifiez que la ressource RayJob est en cours d'exécution:
kubectl get rayjob
Le résultat ressemble à ce qui suit :
NAME JOB STATUS DEPLOYMENT STATUS START TIME END TIME AGE pytorch-mnist-job RUNNING Running 2024-06-19T15:43:32Z 2m29s
Dans ce résultat, la colonne
DEPLOYMENT STATUS
indique que la ressource RayJob estRunning
.Affichez l'état de la ressource RayJob:
kubectl logs -f -l job-name=pytorch-mnist-job
Le résultat ressemble à ce qui suit :
Training started with configuration: ╭─────────────────────────────────────────────────╮ │ Training config │ ├──────────────────────────────────────────────────┤ │ train_loop_config/batch_size_per_worker 8 │ │ train_loop_config/epochs 10 │ │ train_loop_config/lr 0.001 │ ╰─────────────────────────────────────────────────╯ # Several lines omitted Training finished iteration 10 at 2024-06-19 08:29:36. Total running time: 9min 18s ╭───────────────────────────────╮ │ Training result │ ├────────────────────────────────┤ │ checkpoint_dir_name │ │ time_this_iter_s 25.7394 │ │ time_total_s 351.233 │ │ training_iteration 10 │ │ accuracy 0.8656 │ │ loss 0.37827 │ ╰───────────────────────────────╯ # Several lines omitted ------------------------------- Job 'pytorch-mnist' succeeded -------------------------------
Vérifiez que la tâche Ray est terminée:
kubectl get rayjob
Le résultat ressemble à ce qui suit :
NAME JOB STATUS DEPLOYMENT STATUS START TIME END TIME AGE pytorch-mnist-job SUCCEEDED Complete 2024-06-19T15:43:32Z 2024-06-19T15:51:12Z 9m6s
Dans ce résultat, la colonne
DEPLOYMENT STATUS
indique que la ressource RayJob estComplete
.
Effectuer un nettoyage
Supprimer le projet
Delete a Google Cloud project:
gcloud projects delete PROJECT_ID
Supprimer des ressources individuelles
Si vous avez utilisé un projet existant et que vous ne souhaitez pas le supprimer, vous pouvez supprimer les ressources individuelles. Pour supprimer le cluster, saisissez:
gcloud container clusters delete ${CLUSTER_NAME}
Étape suivante
- Découvrez des architectures de référence, des schémas et des bonnes pratiques concernant Google Cloud. Consultez notre Cloud Architecture Center.