Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.

Cluster GKE avec Cloud TPU à l'aide d'un VPC partagé

Ce guide vous explique comment :

  • Configurer un cluster GKE Cloud TPU à l'aide d'un réseau VPC partagé
  • Configurez les API et les plages d'adresses IP requises pour garantir la communication entre le cluster, le VPC partagé et les services gérés par Google.
  • Créez des plages CIDR secondaires pour les pods et les services des clusters.

Avant de commencer

concepts

Ces concepts seront fréquemment utilisés dans ce guide:

  • Projet hôte: projet contenant un ou plusieurs réseaux VPC partagés. Dans ce guide, ce projet contient votre VPC partagé.

  • Projet de service : projet associé à un projet hôte par un administrateur de VPC partagé. Ce rattachement lui permet de participer au VPC partagé. Dans ce guide, ce projet contient votre cluster Cloud TPU.

Conditions requises

Activer les API

  1. Activez les API suivantes sur la console Google Cloud pour votre projet hôte:

  2. Activez les API suivantes dans la console Google Cloud pour votre projet de service:

Configurer la plage d'adresses IP pour l'appairage de VPC vers les services gérés par Google

Procédez comme suit pour réserver une plage d'adresses IP dans le réseau VPC partagé dans le projet hôte. La plage sera utilisée par tous les services gérés par Google dans ce réseau VPC. Cloud TPU est l'un des services gérés par Google.

  1. Répertoriez les plages d'adresses IP existantes dans le réseau VPC partagé.

    $ gcloud beta compute networks list-ip-addresses network \
    --project=host-project-id
    
  2. Choisissez une plage disponible et réservez-la dans le réseau VPC partagé.

    $ gcloud beta compute addresses create peering-name \
      --global \
      --prefix-length=16 \
      --network=network \
      --purpose=VPC_PEERING \
      --project=host-project-id
    

    peering-name spécifie le nom de la connexion d'appairage de VPC. Ce nom sera utilisé à l'étape suivante.

  3. Créez une connexion d'appairage de réseaux VPC entre le projet hôte et les services gérés par Google.

    $ gcloud beta services vpc-peerings connect \
      --service=servicenetworking.googleapis.com \
      --network=network \
      --ranges=peering-name \
      --project=host-project-id
    

Créer des plages d'adresses IP secondaires pour le cluster

Dans votre réseau VPC partagé, sélectionnez ou créez un sous-réseau et ajoutez deux plages CIDR secondaires pour les pods et les services du cluster.

Ces plages concernent respectivement les pods et les services de votre cluster. Les noms de plage seront utilisés dans les étapes suivantes.

  • subnet sera le sous-réseau du réseau network de votre projet hôte.

  • tier-1-name sera le nom de la plage secondaire utilisée par les pods GKE dans subnet.

  • tier-2-name sera le nom de la plage secondaire utilisée par les services GKE dans subnet.

Créer un cluster GKE avec Cloud TPU

La commande suivante montre comment créer un GKE à l'aide des plages CIDR existantes de votre réseau VPC partagé, ce qui permet d'activer Cloud TPU:

$ gcloud beta container clusters create cluster-name \
  --enable-ip-alias \
  --network projects/host-project-id/global/networks/network \
  --subnetwork projects/host-project-id/regions/region/subnetworks/subnet \
  --cluster-secondary-range-name tier-1-name \
  --services-secondary-range-name tier-2-name \
  --scopes=cloud-platform \
  --enable-tpu \
  --enable-tpu-service-networking \
  --project=service-project-id

Suivez les étapes de spécification de pod du guide Exécuter des applications Cloud TPU sur GKE pour créer une tâche utilisant des ressources Cloud TPU.

Effectuer un nettoyage

Une fois que vous n'avez plus besoin d'utiliser Cloud TPU sur GKE, nettoyez les ressources pour éviter que des frais supplémentaires ne soient imputés à votre compte de facturation Cloud.

  1. Supprimez la plage d'adresses IP d'appairage réservée.

    $ gcloud beta compute addresses delete peering-name \
      --global \
      --project=host-project-id
    
  2. Suivez les instructions de la section Effectuer un nettoyage sur la configuration de clusters avec un VPC partagé pour supprimer le cluster et les ressources réseau.