Gérer des clusters depuis la console Google Cloud

Ce document explique comment gérer GKE sur VMware dans la console Google Cloud. Cela inclut la gestion de base, comme la possibilité de se connecter aux clusters et d'afficher leurs charges de travail, ainsi que l'activation de la gestion du cycle de vie des clusters afin de pouvoir les mettre à niveau, les mettre à jour et les supprimer.

Membres du parc et console

Tous les clusters GKE sur VMware doivent être membres d'un parc, un moyen unifié d'afficher et de gérer plusieurs clusters et leurs charges de travail. Chaque parc de clusters est associé à un projet hôte de parc.

Dans GKE sur VMware, un cluster d'administrateur est enregistré dans un parc au moment de sa création en spécifiant le projet hôte de ce parc dans la section gkeConnect du fichier de configuration du cluster. GKE sur VMware utilise ces informations pour enregistrer votre cluster dans le projet de parc spécifié. Si l'enregistrement échoue, vous pouvez essayer à nouveau d'effectuer l'enregistrement en exécutant gkectl update credentials register.

Notez que vous n'avez pas besoin de mettre à jour la clé de compte de service connect-register lorsque vous relancez l'enregistrement. En d'autres termes, vous pouvez continuer à utiliser votre compte de service connect-register d'origine. Pour en savoir plus sur cette commande, consultez la section Effectuer une rotation des clés de compte de service.

Dans GKE sur VMware, un cluster d'utilisateur est enregistré dans un parc au moment de sa création:

  • Lorsque vous créez un cluster d'utilisateur à l'aide de gkectl, vous spécifiez le projet hôte de votre parc dans la section gkeConnect du fichier de configuration du cluster. GKE sur VMware utilise ces informations pour enregistrer votre cluster dans le projet de parc spécifié.

  • Lorsque vous créez un cluster d'utilisateur à l'aide d'un outil standard (la console, Google Cloud CLI ou Terraform), le cluster devient automatiquement membre du parc dans le projet que vous spécifiez.

Les membres de votre parc en dehors de Google Cloud, tels que GKE sur VMware, sont affichés dans la console du projet hôte de votre parc, avec d'autres clusters de parc tels que GKE sur Google Cloud. La mesure dans laquelle vous pouvez gérer GKE sur VMware à partir de la console dépend des éléments suivants:

  • Si vous avez configuré l'authentification, vous pouvez vous connecter à vos clusters et afficher leurs charges de travail et d'autres détails.

  • Si vous avez activé la gestion du cycle de vie des clusters, vous pouvez également mettre à niveau, mettre à jour ou supprimer des clusters d'utilisateur à l'aide de la console. Si cette fonctionnalité n'est pas activée, vous ne pouvez gérer le cycle de vie du cluster qu'à l'aide de gkectl sur votre poste de travail administrateur.

Afficher les clusters enregistrés

Tous les clusters de votre parc sont affichés sur la page Clusters Anthos de la console. Cela vous donne à la fois un aperçu de l'ensemble de votre parc et, pour GKE sur VMware, vous permet de voir quels clusters sont gérés par l'API GKE On-Prem.

Pour afficher les clusters de votre parc:

  1. Dans la console, accédez à la page Clusters Anthos.

    Accéder à la page "Clusters Anthos"

  2. Sélectionnez le projet Google Cloud.

    • Si vm Anthos (VMware) s'affiche dans la colonne Type, le cluster est géré par l'API GKE On-Prem.

    • Si Externe s'affiche dans la colonne Type, cela signifie que le cluster n'est pas géré par l'API GKE On-Prem.

    Liste des clusters GKE Enterprise

Pour afficher plus de détails sur un cluster, les utilisateurs doivent se connecter et s'authentifier auprès du cluster. Pour ce faire, vous devez :

Configurer l'authentification

Comme décrit précédemment, tous les clusters de parc apparaissent dans les listes de clusters GKE et GKE Enterprise de la console. Toutefois, pour afficher plus de détails tels que les nœuds et les charges de travail (et pour effectuer des tâches de gestion du cycle de vie du cluster si la fonctionnalité est activée), les utilisateurs doivent se connecter au cluster et s'authentifier auprès du cluster. Pour ce faire, vos clusters enregistrés doivent être configurés avec l'une des méthodes d'authentification suivantes:

  • Identité Google: cette option permet aux utilisateurs de se connecter à l'aide de leur identité Google Cloud, qui est l'adresse e-mail associée à votre compte Google Cloud. Utilisez cette option si les utilisateurs ont déjà accès à Google Cloud avec leur identité Google. Si vous avez créé le cluster dans la console, vous pouvez vous y connecter à l'aide de votre identité Google, mais vous devrez configurer l'authentification pour les autres utilisateurs.

    La connexion avec l'identité Google est l'approche la plus simple pour l'authentification dans la console, en particulier si vous testez GKE sur VMware avec une installation minimale. Nous avons donc décrit plus en détail la procédure de configuration ci-dessous dans la section Configurer l'authentification de l'identité Google.

  • OpenID Connect (OIDC): cette option permet aux utilisateurs de se connecter aux clusters depuis la console à l'aide de leur identité depuis un fournisseur d'identité OIDC tiers tel que Okta ou Microsoft AD FS. Vous pouvez utiliser cette option si vos utilisateurs disposent déjà de noms d'utilisateur, de mots de passe et d'adhésions à des groupes de sécurité auprès de votre fournisseur. Vous pouvez découvrir comment configurer l'authentification OIDC tierce pour vos clusters dans les guides suivants:

  • Jeton de support: si les solutions précédentes fournies par Google ne sont pas adaptées à votre organisation, vous pouvez configurer l'authentification à l'aide d'un compte de service Kubernetes et de son jeton de support pour vous connecter. Pour en savoir plus, consultez la section Configurer à l'aide d'un jeton de support.

Attribuer les rôles requis

L'accès à la console est contrôlé par Identity and Access Management (IAM). Ces rôles IAM sont requis quelle que soit la méthode d'authentification choisie. Pour gérer le cycle de vie du cluster dans la console, vous devez attribuer des rôles IAM.

  • Pour permettre aux utilisateurs d'accéder à la console, vous devez au minimum leur attribuer les rôles suivants:

    • roles/container.viewer. Ce rôle permet aux utilisateurs d'afficher la page "Clusters GKE" et les autres ressources de conteneur dans la console. Pour en savoir plus sur les autorisations incluses dans ce rôle ou pour attribuer un rôle doté d'autorisations de lecture/écriture, consultez la section Rôles Kubernetes Engine dans la documentation IAM.

    • roles/gkehub.viewer. Ce rôle permet aux utilisateurs d'afficher les clusters en dehors de Google Cloud dans la console. Pour en savoir plus sur les autorisations incluses dans ce rôle ou pour attribuer un rôle doté d'autorisations de lecture/écriture, consultez la section Rôles GKE Hub dans la documentation IAM.

  • Pour permettre aux utilisateurs de gérer le cycle de vie du cluster dans la console, accordez le rôle IAM roles/gkeonprem.admin. Le rôle roles/gkeonprem.admin accorde aux utilisateurs un accès administrateur à l'API GKE On-Prem, que la console utilise pour gérer le cycle de vie du cluster. Pour en savoir plus sur les autorisations incluses dans ce rôle, consultez la section Rôles GKE On-Prem dans la documentation IAM.

Les commandes suivantes montrent comment attribuer les rôles minimaux nécessaires pour gérer le cycle de vie du cluster dans la console:

gcloud projects add-iam-policy-binding FLEET_HOST_PROJECT_ID \
    --member=MEMBER \
    --role=roles/container.viewer

gcloud projects add-iam-policy-binding FLEET_HOST_PROJECT_ID \
    --member=MEMBER \
    --role=roles/gkehub.viewer

gcloud projects add-iam-policy-binding FLEET_HOST_PROJECT_ID \
    --member=MEMBER \
    --role=roles/gkeonprem.admin

où :

  • FLEET_HOST_PROJECT_ID est le projet hôte du parc. Pour les clusters créés à l'aide de gkectl, il s'agit du projet que vous avez configuré dans la section gkeConnect du fichier de configuration du cluster d'utilisateur. Pour les clusters créés dans la console, il s'agit du projet que vous avez choisi lors de la création du cluster.

  • MEMBER est l'adresse e-mail de l'utilisateur au format user:emailID, par exemple: user:alice@example.com.

Activer la gestion du cycle de vie des clusters dans la console

Les clusters d'utilisateur créés à l'aide d'outils standards (la console, la gcloud CLI ou Terraform) sont automatiquement enregistrés dans l'API GKE On-Prem et vous permettent d'effectuer des tâches de gestion du cycle de vie des clusters dans la console. Si vous souhaitez activer cette fonctionnalité pour les clusters d'utilisateur créés à l'aide de gkectl, suivez la procédure décrite dans la section Configurer un cluster d'utilisateur à gérer par l'API GKE On-Prem. Lorsque la gestion du cycle de vie des clusters est activée, vous pouvez effectuer les tâches suivantes à partir de la console:

Configurer l'authentification de l'identité Google

Pour permettre aux utilisateurs de se connecter au cluster à l'aide de leur identité Google, vous devez configurer les éléments suivants:

Configurer l'autorisation RBAC

Le serveur d'API Kubernetes de chaque cluster doit être en mesure d'autoriser les requêtes provenant de la console. Pour configurer l'autorisation, vous devez configurer des stratégies de contrôle des accès basé sur les rôles (RBAC) Kubernetes sur chaque cluster.

Si vous avez utilisé un outil standard pour créer le cluster d'utilisateur, vous disposez peut-être déjà des stratégies RBAC appropriées qui vous accordent un accès administrateur complet au cluster. L'API GKE On-Prem ajoute automatiquement votre compte Google en tant qu'administrateur dans les cas suivants:

  • Vous avez créé le cluster d'utilisateur dans la console.

  • Vous avez créé le cluster d'utilisateur à l'aide de gcloud CLI et votre compte Google a été spécifié dans l'option --admin-users de la commande de création de cluster.

  • Vous avez créé le cluster d'utilisateur à l'aide de Terraform et votre compte Google a été spécifié dans le champ authorization.admin_users.username.

Les clusters d'utilisateur créés à l'aide de gkectl ne vous accordent pas les stratégies RBAC pour administrer le cluster à l'aide de la console. Vous devez vous ajouter vous-même après la création du cluster. Quel que soit l'outil utilisé pour créer le cluster, vous pourrez ajouter d'autres utilisateurs en tant qu'administrateurs après la création du cluster.

Vous pouvez utiliser l'une des méthodes suivantes pour accorder un accès administrateur au cluster. Deux commandes gcloud différentes sont fournies.

  • La commande gcloud ... generate-gateway-rbac doit être exécutée sur votre poste de travail administrateur, car elle nécessite d'accéder au fichier kubeconfig et au contexte du cluster (qui ne se trouvent généralement que sur votre poste de travail administrateur). La commande generate-gateway-rbac vous permet de personnaliser les règles RBAC, mais les adresses e-mail des utilisateurs ne sont pas affichées en tant qu'administrateurs dans la section Détails du cluster de la console.

  • La commande gcloud ... update peut être exécutée sur votre poste de travail administrateur ou sur tout ordinateur ayant accès à l'API GKE On-Prem.

generate-gateway-rbac

  1. Se connecter au poste de travail administrateur

  2. Exécutez la commande suivante pour mettre à jour les composants:

    gcloud components update
    
  3. Générez et appliquez les stratégies RBAC à votre cluster pour les utilisateurs et les comptes de service:

    gcloud container fleet memberships generate-gateway-rbac  \
        --membership=MEMBERSHIP_NAME \
        --role=ROLE \
        --users=USERS \
        --project=FLEET_HOST_PROJECT_ID \
        --kubeconfig=KUBECONFIG_PATH \
        --context=KUBECONFIG_CONTEXT \
        --apply
    

    Remplacez les éléments suivants :

    • MEMBERSHIP_NAME: nom utilisé pour représenter de manière unique le cluster dans son parc. Dans GKE sur VMware, le nom de l'appartenance et le nom du cluster sont identiques.
    • ROLE: rôle Kubernetes que vous souhaitez attribuer aux utilisateurs du cluster. Pour accorder aux utilisateurs un accès complet à toutes les ressources du cluster dans tous les espaces de noms, spécifiez clusterrole/cluster-admin. Pour fournir un accès en lecture seule, spécifiez clusterrole/view. Vous pouvez également créer un rôle personnalisé, par exemple: role/mynamespace/namespace-reader. Le rôle personnalisé doit déjà exister avant que vous puissiez exécuter la commande.
    • USERS : adresses e-mail des utilisateurs (comptes utilisateur ou comptes de service) auxquels vous souhaitez accorder les autorisations, sous la forme d'une liste d'éléments séparés par une virgule. Exemple : --users=foo@example.com,test-acct@test-project.iam.gserviceaccount.com.
    • FLEET_HOST_PROJECT_ID: ID du projet hôte du parc.
    • KUBECONFIG_PATH: chemin d'accès local où votre fichier kubeconfig contenant une entrée pour le cluster est stocké.
    • KUBECONFIG_CONTEXT : contexte du cluster tel qu'il apparaît dans le fichier kubeconfig. Vous pouvez obtenir le contexte actuel à partir de la ligne de commande en exécutant la commande kubectl config current-context. Que vous utilisiez le contexte actuel ou non, assurez-vous qu'il fonctionne pour l'accès au cluster en exécutant une commande simple telle que la suivante :

      kubectl get namespaces \
        --kubeconfig=KUBECONFIG_PATH \
        --context=KUBECONFIG_CONTEXT

    Après avoir exécuté gcloud container fleet memberships generate-gateway-rbac, un résultat semblable à ce qui suit s'affiche à la fin du résultat, qui est tronqué pour des raisons de lisibilité:

    Validating input arguments.
    Specified Cluster Role is: clusterrole/cluster-admin
    Generated RBAC policy is:
    --------------------------------------------
    ...
    Applying the generate RBAC policy to cluster with kubeconfig: /usr/local/google/home/foo/.kube/config, context: kind-kind
    Writing RBAC policy for user: foo@example.com to cluster.
    Successfully applied the RBAC policy to cluster.
    

    Il s'agit du contexte permettant d'accéder au cluster via la passerelle Connect.

    Pour en savoir plus sur la commande generate-gateway-rbac, consultez le guide de référence de gcloud CLI.

update

  1. Exécutez la commande suivante pour mettre à jour les composants:

    gcloud components update
    
  2. Pour chaque utilisateur devant disposer du rôle clusterrole/cluster-admin, incluez l'option --admin-users et exécutez la commande suivante. Vous ne pouvez pas spécifier plusieurs utilisateurs dans une même option. Veillez à inclure votre compte Google dans la commande, car celle-ci remplace la liste des autorisations par les utilisateurs que vous avez spécifiés dans la commande.

    gcloud container vmware clusters update USER_CLUSTER_NAME \
      --admin-users YOUR_GOOGLE_ACCOUNT \
      --admin-users ADMIN_GOOGLE_ACCOUNT_1 \
    

En plus d'accorder le rôle Kubernetes clusterrole/cluster-admin, la commande accorde aux stratégies RBAC les utilisateurs nécessaires pour accéder au cluster via la passerelle Connect.

Console

Pour appliquer les stratégies RBAC aux utilisateurs, procédez comme suit dans la console:

  1. Dans la console, accédez à la page Clusters Anthos.

    Accéder à la page "Clusters Anthos"

  2. Sélectionnez le projet Google Cloud dans lequel se trouve le cluster d'utilisateur.

  3. Dans la liste des clusters, cliquez sur le nom du cluster puis sur Afficher les détails dans le panneau Détails.

  4. Dans la section Autorisation, cliquez sur le champ Utilisateurs administrateurs du cluster et saisissez l'adresse e-mail de chaque utilisateur.

  5. Une fois l'ajout des utilisateurs terminé, cliquez sur OK.

Informations complémentaires