Cette page décrit Google Kubernetes Engine (GKE), un service Kubernetes géré qui vous permet de déployer et d'exploiter des applications conteneurisées à grande échelle à l'aide de l'infrastructure de Google. Cette page est destinée aux administrateurs de plate-forme qui recherchent une solution Kubernetes gérée, évolutive et automatisée. Avant de lire cette page, assurez-vous de connaître les concepts liés à Kubernetes.
GKE est une mise en œuvre gérée par Google de la plate-forme d'orchestration de conteneurs Open Source Kubernetes. Kubernetes a été développé par Google, qui s'appuie sur des années d'expérience dans l'exploitation de charges de travail de production à grande échelle sur Borg, notre système interne de gestion des clusters.
Commencer à utiliser GKE
Vous pouvez commencer à explorer GKE en quelques minutes. Vous pouvez utiliser la version gratuite de GKE, qui vous permet de commencer à utiliser Kubernetes sans encourir les frais de gestion des clusters.
- Lisez le guide de démarrage rapide pour déployer une application Web conteneurisée.
- Lisez la présentation d'Autopilot, qui fournit des instructions détaillées et des ressources pour planifier et exploiter votre plate-forme.
Quand utiliser GKE ?
GKE est idéal si vous avez besoin d'une plate-forme vous permettant de configurer l'infrastructure qui exécute vos applications conteneurisées, comme la mise en réseau, le scaling, le matériel et la sécurité. GKE fournit pour vous la puissance opérationnelle de Kubernetes tout en gérant la plupart des composants sous-jacents, tels que le plan de contrôle et les nœuds.
Avantages de GKE
Le tableau suivant décrit certains des avantages à utiliser GKE comme plate-forme Kubernetes gérée :
Avantages de GKE | |
---|---|
Gestion des plates-formes |
|
Stratégie de sécurité améliorée |
|
Optimisation des coûts |
|
Fiabilité et disponibilité |
|
Configurer le pipeline CI/CD de l'application pour qu'il utilise Cloud Build, Cloud Deploy et Artifact Registry. Les services gérés de compilation et de déploiement vous permettent d'optimiser la sécurité, l'évolutivité et la simplicité.
Cas d'utilisation de GKE
GKE et Kubernetes sont utilisés dans différents secteurs, tels que la robotique, la santé, le commerce, l'enseignement, les jeux vidéo et les services financiers. Voici quelques exemples de charges de travail que vous pouvez exécuter :
- Opérations d'IA et de ML
- Traitement des données à grande échelle
- Plates-formes de jeux en ligne évolutives
- Applications fiables en cas de charges importantes
Pour les études de cas par secteur et par application, consultez la page Clients Google Cloud.
Fonctionnement de GKE
Un environnement GKE est constitué de nœuds, qui sont des machines virtuelles (VM) Compute Engine, regroupées pour former un cluster. Vous empaquetez les applications (également appelées charges de travail) dans des conteneurs. Vous déployez des ensembles de conteneurs en tant que pods sur vos nœuds. L'API Kubernetes permet d'interagir avec vos charges de travail, y compris pour l'administration, le scaling et la surveillance.
Les clusters Kubernetes disposent d'un ensemble de nœuds de gestion appelés plan de contrôle, qui exécutent des composants système tels que le serveur d'API Kubernetes. Dans GKE, Google gère le plan de contrôle et les composants du système à votre place. En mode Autopilot, qui est la méthode recommandée pour exécuter GKE, Google gère également vos nœuds de calcul. Google met automatiquement à niveau les versions des composants pour améliorer leur stabilité et leur sécurité, garantir une haute disponibilité et assurer l'intégrité des données stockées dans l'espace de stockage persistant du cluster.
Pour en savoir plus, consultez la page Architecture d'un cluster GKE.
Si vous exécutez vos charges de travail dans des VM, envisagez d'utiliser Migrate for GKE pour les conteneuriser sans avoir à réécrire les applications ni à modifier le code source.
Versions et fonctionnalités de Kubernetes
GKE met automatiquement à niveau votre plan de contrôle vers de nouvelles versions de Kubernetes qui ajoutent des fonctionnalités et des améliorations dans le projet Open Source. La version de Kubernetes sélectionnée pour les mises à niveau automatiques dépend de la version stable de la version disponible de GKE que vous avez sélectionnée lors de la création du cluster. Vous pouvez également mettre à niveau manuellement votre plan de contrôle vers une version de Kubernetes différente de celle sélectionnée par GKE pour une mise à niveau. Pour obtenir des informations détaillées sur les versions et les mises à niveau, consultez les notes de version et la section Gestion des versions et mises à niveau de GKE. Si vous utilisez le mode GKE Standard et que vous ne vous inscrivez pas à une version disponible, vous ne recevrez pas de mises à niveau automatiques.
GKE inclut la plupart des fonctionnalités Kubernetes bêta et stables. Vous pouvez utiliser les API bêta de la version 1.24 et des versions ultérieures.
Si vous voulez essayer des fonctionnalités Kubernetes moins stables en phase alpha, utilisez des clusters standards alpha. De plus, n'activez pas les API bêta dans les clusters de production, ou réfléchissez bien aux conséquences avant de le faire.
Modes de fonctionnement
GKE est doté des modes de fonctionnement Autopilot et Standard, qui vous offrent différents niveaux de flexibilité, de responsabilité et de contrôle.
Si vous souhaitez en savoir plus avant de choisir un mode, consultez la section Choisir un mode de fonctionnement GKE.
Google vous recommande d'utiliser le mode Autopilot entièrement géré. Dans ce mode, Google Cloud gère vos nœuds pour vous et fournit une expérience axée sur les charges de travail, économique et prête pour la production. N'utilisez le mode standard que si vous avez un besoin spécifique de gérer manuellement les pools de nœuds et les clusters.
Étape suivante
- Apprenez à déployer une application en conteneur dans GKE.
- Obtenez plus d'informations sur les types de clusters.
- Apprenez-en plus sur Kubernetes.