Présentation de GKE


Cette page décrit Google Kubernetes Engine (GKE), un service Kubernetes géré qui vous permet de déployer et d'exploiter des applications conteneurisées à grande échelle à l'aide de l'infrastructure de Google. Cette page est destinée aux administrateurs de plate-forme qui recherchent une solution Kubernetes gérée, évolutive et automatisée. Avant de lire cette page, assurez-vous de connaître les concepts liés à Kubernetes.

GKE est une mise en œuvre gérée par Google de la plate-forme d'orchestration de conteneurs Open Source Kubernetes. Kubernetes a été développé par Google, qui s'appuie sur des années d'expérience dans l'exploitation de charges de travail de production à grande échelle sur Borg, notre système interne de gestion des clusters.

Commencer à utiliser GKE

Vous pouvez commencer à explorer GKE en quelques minutes. Vous pouvez utiliser la version gratuite de GKE, qui vous permet de commencer à utiliser Kubernetes sans encourir les frais de gestion des clusters.

  1. Premiers pas dans la console Google Cloud

  2. Lisez le guide de démarrage rapide pour déployer une application Web conteneurisée.
  3. Lisez la présentation d'Autopilot, qui fournit des instructions détaillées et des ressources pour planifier et exploiter votre plate-forme.

Quand utiliser GKE ?

GKE est idéal si vous avez besoin d'une plate-forme vous permettant de configurer l'infrastructure qui exécute vos applications conteneurisées, comme la mise en réseau, le scaling, le matériel et la sécurité. GKE fournit pour vous la puissance opérationnelle de Kubernetes tout en gérant la plupart des composants sous-jacents, tels que le plan de contrôle et les nœuds.

Avantages de GKE

Le tableau suivant décrit certains des avantages à utiliser GKE comme plate-forme Kubernetes gérée :

Avantages de GKE
Gestion des plates-formes
  • Nœuds entièrement gérés dans GKE en mode Autopilot avec renforcement intégré et application automatique des bonnes pratiques de configurations.
  • Expérience de mise à niveau gérée avec des canaux de publication pour améliorer la sécurité, la fiabilité et la conformité.
  • Intervalles de maintenance et exclusions flexibles qui vous permettent de configurer le type et le champ d'application de la mise à niveau pour répondre aux besoins de l'entreprise et aux contraintes d'architecture.
  • En mode GKE Standard, des stratégies de mise à niveau des nœuds flexibles permettent d'optimiser la disponibilité et de gérer les interruptions.
  • Scaling automatique des nœuds en fonction du nombre de pods du cluster avec le mode Autopilot ou avec le provisionnement automatique des nœuds en mode Standard.
  • Réparation automatique des nœuds pour gérer l'état et la disponibilité des nœuds.
  • Surveillance et journalisation intégrées.
  • Options CI/CD intégrées à Google Cloud avec Cloud Build et Cloud Deploy.
Stratégie de sécurité améliorée
Optimisation des coûts
  • En mode Autopilot, vous ne payez que pour les ressources de calcul demandées par vos pods en cours d'exécution.

    En mode GKE standard, vous payez pour toutes les ressources des nœuds, quelles que soient les requêtes de pod.

  • Réduisez vos coûts en exécutant des charges de travail tolérantes aux pannes, telles que les jobs par lot sur des pods Spot.
  • Réduction des coûts opérationnels en mode Autopilot, car Google gère à la fois les nœuds et le plan de contrôle.
Fiabilité et disponibilité
Bonne pratique:

Configurer le pipeline CI/CD de l'application pour qu'il utilise Cloud Build, Cloud Deploy et Artifact Registry. Les services gérés de compilation et de déploiement vous permettent d'optimiser la sécurité, l'évolutivité et la simplicité.

Cas d'utilisation de GKE

GKE et Kubernetes sont utilisés dans différents secteurs, tels que la robotique, la santé, le commerce, l'enseignement, les jeux vidéo et les services financiers. Voici quelques exemples de charges de travail que vous pouvez exécuter :

Pour les études de cas par secteur et par application, consultez la page Clients Google Cloud.

Fonctionnement de GKE

Un environnement GKE est constitué de nœuds, qui sont des machines virtuelles (VM) Compute Engine, regroupées pour former un cluster. Vous empaquetez les applications (également appelées charges de travail) dans des conteneurs. Vous déployez des ensembles de conteneurs en tant que pods sur vos nœuds. L'API Kubernetes permet d'interagir avec vos charges de travail, y compris pour l'administration, le scaling et la surveillance.

Les clusters Kubernetes disposent d'un ensemble de nœuds de gestion appelés plan de contrôle, qui exécutent des composants système tels que le serveur d'API Kubernetes. Dans GKE, Google gère le plan de contrôle et les composants du système à votre place. En mode Autopilot, qui est la méthode recommandée pour exécuter GKE, Google gère également vos nœuds de calcul. Google met automatiquement à niveau les versions des composants pour améliorer leur stabilité et leur sécurité, garantir une haute disponibilité et assurer l'intégrité des données stockées dans l'espace de stockage persistant du cluster.

Pour en savoir plus, consultez la page Architecture d'un cluster GKE.

Bonne pratique:

Si vous exécutez vos charges de travail dans des VM, envisagez d'utiliser Migrate for GKE pour les conteneuriser sans avoir à réécrire les applications ni à modifier le code source.

Versions et fonctionnalités de Kubernetes

GKE met automatiquement à niveau votre plan de contrôle vers de nouvelles versions de Kubernetes qui ajoutent des fonctionnalités et des améliorations dans le projet Open Source. La version de Kubernetes sélectionnée pour les mises à niveau automatiques dépend de la version stable de la version disponible de GKE que vous avez sélectionnée lors de la création du cluster. Vous pouvez également mettre à niveau manuellement votre plan de contrôle vers une version de Kubernetes différente de celle sélectionnée par GKE pour une mise à niveau. Pour obtenir des informations détaillées sur les versions et les mises à niveau, consultez les notes de version et la section Gestion des versions et mises à niveau de GKE. Si vous utilisez le mode GKE Standard et que vous ne vous inscrivez pas à une version disponible, vous ne recevrez pas de mises à niveau automatiques.

GKE inclut la plupart des fonctionnalités Kubernetes bêta et stables. Vous pouvez utiliser les API bêta de la version 1.24 et des versions ultérieures.

Bonne pratique:

Si vous voulez essayer des fonctionnalités Kubernetes moins stables en phase alpha, utilisez des clusters standards alpha. De plus, n'activez pas les API bêta dans les clusters de production, ou réfléchissez bien aux conséquences avant de le faire.

Modes de fonctionnement

GKE est doté des modes de fonctionnement Autopilot et Standard, qui vous offrent différents niveaux de flexibilité, de responsabilité et de contrôle.

Si vous souhaitez en savoir plus avant de choisir un mode, consultez la section Choisir un mode de fonctionnement GKE.

Bonne pratique:

Google vous recommande d'utiliser le mode Autopilot entièrement géré. Dans ce mode, Google Cloud gère vos nœuds pour vous et fournit une expérience axée sur les charges de travail, économique et prête pour la production. N'utilisez le mode standard que si vous avez un besoin spécifique de gérer manuellement les pools de nœuds et les clusters.

Étape suivante