Présentation de GKE

Google Kubernetes Engine (GKE) est un environnement géré grâce auquel vous pouvez déployer, gérer et faire évoluer vos applications en conteneurs à l'aide de l'infrastructure Google. Il comprend plusieurs machines (en particulier, les instances Compute Engine) regroupées pour former un cluster.

Orchestration de cluster avec GKE

Les clusters GKE sont basés sur le système de gestion de clusters open source Kubernetes. Les mécanismes de Kubernetes vous permettent d'interagir avec votre cluster. Grâce aux commandes et aux ressources proposées, vous pouvez déployer et gérer vos applications, effectuer des tâches d'administration, définir des stratégies et surveiller l'état de vos charges de travail déployées.

Kubernetes et les services Google les plus couramment utilisés reposent sur les mêmes principes de conception et présentent les mêmes avantages tels que la gestion automatique, la surveillance et la vérification de la vivacité pour les conteneurs d'applications, le scaling automatique et les mises à jour progressives. Lorsque vous faites fonctionner vos applications dans un cluster, vous utilisez des technologies qui sont le fruit de plus de 10 années d'expérience que Google a consacrées à l'exécution de charges de travail de production dans des conteneurs.

Kubernetes sur Google Cloud

Quand vous exécutez un cluster GKE, vous bénéficiez également des avantages qu'offrent les fonctionnalités avancées de gestion de clusters proposées par Google Cloud, y compris :

Versions et fonctionnalités de Kubernetes

Les plans de contrôle de cluster GKE sont automatiquement mis à niveau pour exécuter les nouvelles versions de Kubernetes à mesure qu'elles deviennent stables, vous permettant ainsi de profiter des nouvelles fonctionnalités du projet Kubernetes Open Source.

Les nouvelles fonctionnalités de Kubernetes sont répertoriées sous les noms Alpha, Bêta ou Stable, en fonction de leur état de développement. Dans la plupart des cas, les fonctionnalités de Kubernetes répertoriées en tant que version Bêta ou version Stable sont incluses dans GKE. Les fonctionnalités Alpha de Kubernetes sont disponibles dans des clusters alpha GKE spéciaux.

Charges de travail GKE

GKE fonctionne avec des applications en conteneur. Il s'agit d'applications intégrées dans des instances d'espace utilisateur isolées et indépendantes de la plate-forme, par exemple à l'aide de Docker. Dans GKE et Kubernetes, ces conteneurs, qu'il s'agisse d'applications ou de tâches par lot, sont appelés collectivement charges de travail. Avant de déployer une charge de travail sur un cluster GKE, vous devez d'abord la conditionner dans un conteneur.

GKE permet d'utiliser des conteneurs Docker. Pour en savoir plus sur les images de nœuds acceptées par GKE pour vos charges de travail, consultez la page Images de nœuds.

Google Cloud fournit des outils d'intégration et de livraison continues pour vous aider à créer et à diffuser des conteneurs d'applications. Vous pouvez utiliser Cloud Build pour créer des images de conteneurs (telles que Docker) à partir de nombreux dépôts de code source, et Artifact Registry ou Container Registry pour stocker et diffuser vos images de conteneurs.

Modes de fonctionnement

Le niveau de flexibilité, de responsabilité et de contrôle dont vous avez besoin pour vos clusters détermine le mode de fonctionnement à utiliser dans GKE. Les clusters GKE offrent deux modes de fonctionnement :

  • Autopilot : gère l'ensemble du cluster et de l'infrastructure de nœuds à votre place. Autopilot fournit une expérience Kubernetes autonome pour vous permettre de vous concentrer sur vos charges de travail et de ne payer que pour les ressources nécessaires pour exécuter vos applications. Les clusters Autopilot sont préconfigurés avec une configuration de cluster optimisée, prête pour les charges de travail de production.

  • Standard : fournit une grande flexibilité dans la configuration des nœuds et un contrôle total sur la gestion de vos clusters et de votre infrastructure de nœuds. Pour les clusters créés à l'aide du mode Standard, vous déterminez les configurations nécessaires pour vos charges de travail de production et vous payez pour les nœuds que vous utilisez.

Pour plus d'informations sur ces modes et pour en savoir plus sur Autopilot, consultez la page Présentation d'Autopilot.

Étape suivante