Façonnez la livraison de logiciels de demain et faites entendre votre voix. Répondez à l'enquête 2022 sur l'état du DevOps dès aujourd'hui.

Accéder à

Google Kubernetes Engine

Un moyen simple de déployer, faire évoluer et gérer automatiquement Kubernetes.

Les nouveaux clients peuvent bénéficier de 300 $ de crédits gratuits pour essayer GKE.

  • Exécutez vos applications sur la plate-forme Kubernetes gérée la plus automatisée et évolutive qui soit

  • Démarrez rapidement en installant des clusters en un seul clic et effectuez un scaling à la hausse (jusqu'à 15 000 nœuds).

  • Exploitez un plan de contrôle haute disponibilité comprenant des clusters multizones et régionaux.

  • Éliminez les coûts opérationnels avec la fonctionnalité innovante d'autoscaling quadridirectionnel.

  • Sécurisez votre infrastructure par défaut grâce, entre autres, à l'analyse des failles des images de conteneurs et au chiffrement des données.

Avantages

Accélérez le développement d'applications sans compromettre la sécurité

Développez une grande variété d'applications grâce à la prise en charge des applications avec état, des applications sans serveur et des accélérateurs d'applications. Utilisez les outils CI/CD Kubernetes natifs pour sécuriser et accélérer chaque étape du cycle de compilation et de déploiement.

Optimisez les opérations avec les canaux de publication

Choisissez le canal qui répond à vos besoins commerciaux. Rapides, standards et stables, les canaux de publication proposent différentes fréquences de mise à niveau des nœuds et offrent des niveaux d'assistance en rapport avec le canal utilisé.

Obtenez l'aide des ingénieurs SRE de Google pour réduire les opérations à J+2

Faites appel à nos ingénieurs en fiabilité des sites (SRE), et recentrez-vous sur vos applications. Nos ingénieurs SRE surveillent en continu votre cluster et ses ressources de calcul, de mise en réseau et de stockage.

Principales fonctionnalités

Principales fonctionnalités

Deux modes de fonctionnement, un seul environnement GKE

GKE propose désormais deux modes de fonctionnement : Standard et Autopilot. Nous développons le mode Standard depuis le lancement de GKE. Celui-ci vous permet de contrôler complètement les nœuds, tout en ayant la possibilité d'ajuster et d'exécuter des charges de travail administratives personnalisées. Le tout nouveau mode Autopilot est une solution automatique entièrement gérée qui supervise toute l'infrastructure du cluster, sans que vous ayez à vous préoccuper de la configuration et de la surveillance. Grâce à sa facturation au pod, vous ne payez que pour les pods en cours d'exécution. Les composants système, les coûts du système d'exploitation et la capacité non allouée ne vous sont pas facturés.

Autoscaling des pods et des clusters

GKE est le premier service Kubernetes entièrement géré du secteur qui inclut l'API Kubernetes complète, l'autoscaling quadridirectionnel, des canaux de distribution et la compatibilité multicluster. L'autoscaling de pods horizontal peut être basé sur l'utilisation du processeur ou sur des métriques personnalisées. L'autoscaling des clusters fonctionne par pool de nœuds. L'autoscaling de pods vertical analyse en continu l'utilisation de la mémoire et des processeurs des pods, et ajuste automatiquement les demandes de ressources mémoire et de processeurs en conséquence.

Applications et modèles Kubernetes intégrés

Accédez à des solutions conteneurisées adaptées aux entreprises accompagnées de modèles de déploiement prédéfinis, offrant portabilité, attribution de licences simplifiée et facturation consolidée. Au-delà de simples images de conteneurs, il s'agit d'applications Open Source commerciales conçues par Google, permettant aux développeurs d'augmenter leur productivité. Effectuez des déploiements par clic sur site ou dans des clouds tiers depuis Google Cloud Marketplace.

Mise en réseau et sécurité natives pour les conteneurs

GKE Sandbox fournit une seconde ligne de défense entre les charges de travail conteneurisées sur GKE et augmente leur niveau de sécurité. Les clusters GKE sont nativement compatibles avec la stratégie réseau de Kubernetes consistant à restreindre le trafic avec des règles de pare-feu au niveau des pods. Les clusters privés dans GKE peuvent être restreints à un point de terminaison privé ou public auquel seules certaines plages d'adresses peuvent accéder.

Migrer facilement des charges de travail traditionnelles vers des conteneurs GKE

Migrate for Anthos and GKE permet de moderniser les applications traditionnelles facilement et rapidement en passant de machines virtuelles à des conteneurs natifs. Notre approche unique basée sur l'automatisation consiste à extraire les éléments critiques de vos applications à partir de la VM, pour que vous puissiez facilement les insérer dans des conteneurs hébergés dans Google Kubernetes Engine ou des clusters Anthos sans vous encombrer des couches de VM (telles que l'OS invité) qui ne sont plus nécessaires avec les conteneurs. Ce produit est également compatible avec GKE Autopilot.

Découvrir toutes les fonctionnalités

Documentation

Documentation

Bonne pratique
Bonnes pratiques pour exploiter des conteneurs

Découvrez les bonnes pratiques pour exploiter des conteneurs dans GKE.

Tutoriel
Tutoriel GKE : déployer une application Web en conteneurs

Créez une application simple, empaquetez-la dans un conteneur, puis déployez l'image de conteneur dans GKE, le tout directement dans l'éditeur Cloud Shell.

Bonne pratique
Préparer un environnement GKE pour la production

Respectez les conseils et la méthodologie pour intégrer vos charges de travail à GKE de manière plus sécurisée, plus fiable et plus économique.

Tutoriel
Renforcer votre cluster GKE

Découvrez comment mettre en œuvre nos conseils pour renforcer votre cluster GKE.

Tutoriel
Ressources GKE

Apprenez-en davantage sur les fonctionnalités, les mises à jour, les prix, etc.

Tutoriel
Possibilités de développement offertes par Google Cloud

Découvrez les guides techniques des ressources Google Cloud permettant d'exploiter tout le potentiel de GKE.

Cas d'utilisation

Cas d'utilisation

Cas d'utilisation
Pipeline de livraison continue

Accélérez le développement des applications et les itérations en facilitant le déploiement, la mise à jour et la gestion de vos applications et services. Configurez GKE, Cloud Source Repositories, Cloud Build et Spinnaker pour les services Google Cloud pour compiler, tester et déployer automatiquement une application. Une fois le code de l'application mis à jour, ces modifications amènent le pipeline de livraison continue à répéter automatiquement ces opérations (compilation, test et déploiement) pour la nouvelle version.

Diagramme illustrant comment les développeurs peuvent créer un pipeline de livraison continue
Cas d'utilisation
Migrer une application à deux niveaux vers GKE

Migrate for Anthos vous permet de migrer des charges de travail et de les convertir directement dans des conteneurs dans GKE. Effectuez la migration d'une application LAMP à deux niveaux, avec des VM d'applications et de bases de données, de VMware vers GKE. Améliorez la sécurité en rendant la base de données accessible depuis le conteneur de l'application seulement, et non depuis l'extérieur du cluster. Remplacez l'accès SSH par un accès authentifié via une interface système grâce à kubectl. Consultez les journaux système du conteneur grâce à l'intégration automatique de Cloud Logging.

Diagramme illustrant comment migrer des charges de travail et les convertir dans GKE

Toutes les fonctionnalités

Toutes les fonctionnalités

Sauvegarde pour GKE Sauvegarde pour GKE est une fonctionnalité simple et cloud native permettant aux clients qui exécutent des charges de travail avec état sur GKE de protéger, gérer et restaurer leurs applications conteneurisées et leurs données.
Gestion de l'authentification et des accès Contrôlez les accès dans votre cluster à l'aide de vos comptes Google et de rôles configurés.
Réseau hybride Réservez une plage d'adresses IP pour votre cluster afin que ses adresses IP coexistent avec celles de votre réseau privé via Google Cloud VPN.
Sécurité et conformité GKE est géré par l'équipe de sécurité Google, composée de plus de 750 spécialistes. De plus, cet environnement est conforme à la loi HIPAA et à la norme PCI DSS.
Surveillance et journalisation intégrées Activez Cloud Logging et Cloud Monitoring en cochant simplement les cases correspondantes, afin d'analyser facilement les performances de votre application.
Options des clusters Choisissez des clusters adaptés à la disponibilité, à la stabilité des versions, à l'isolation et aux exigences de trafic des pods de vos charges de travail.
Autoscaling Configurez le scaling automatique du déploiement de votre application en fonction de l'utilisation des ressources (processeur et mémoire).
Mise à niveau automatique Maintenez votre cluster automatiquement à jour en utilisant la dernière version de Kubernetes. Les mises à jour de Kubernetes sont rapidement disponibles dans GKE.
Réparation automatique Lorsque la réparation automatique est activée, si un nœud est défaillant lors d'une vérification de l'état, GKE lance un processus pour le réparer.
Limites de ressources Kubernetes vous permet de préciser le nombre de processeurs et la quantité de mémoire (RAM) dont chaque conteneur a besoin, afin d'organiser les charges de travail au sein de votre cluster de façon optimale.
Isolation du conteneur Utilisez GKE Sandbox pour établir une seconde ligne de défense entre les charges de travail conteneurisées sur GKE et augmenter leur niveau de sécurité.
Compatibilité avec les applications avec état GKE n'est pas réservé aux applications à 12 facteurs. Vous pouvez associer un espace de stockage persistant aux conteneurs et même héberger des bases de données complètes.
Compatibilité avec les images Docker GKE est compatible avec le format de conteneur Docker.
Entièrement géré Les clusters GKE sont entièrement gérés par les ingénieurs en fiabilité des sites (SRE) de Google, qui assurent la disponibilité et l'actualisation de vos clusters.
OS spécialement conçu pour les conteneurs GKE s'exécute sur Container-Optimized OS, un système d'exploitation renforcé mis au point et géré par Google.
Registre de conteneurs privés L'intégration de Google Container Registry facilite le stockage de vos images Docker privées ainsi que leur accès.
Compilations rapides et cohérentes Utilisez Cloud Build pour déployer de manière fiable vos conteneurs sur GKE sans avoir à configurer l'authentification.
Portabilité des charges de travail sur site et dans le cloud GKE est conforme au programme Certified Kubernetes, ce qui rend possible la portabilité des charges de travail vers d'autres plates-formes Kubernetes, entre plusieurs clouds et sur site.
Compatibilité avec les GPU et TPU GKE est compatible avec les GPU et TPU, et facilite l'exécution du ML, des GPU généraux, du HPC ainsi que d'autres charges de travail auxquelles sont appliqués des accélérateurs matériels spécialisés.
Tableau de bord intégré Cloud Console propose des tableaux de bord utiles pour les clusters de votre projet et leurs ressources. Vous pouvez vous en servir pour afficher, inspecter, gérer et supprimer les ressources de vos clusters.
VM Spot Des instances de calcul abordables, adaptées aux tâches par lots et aux charges de travail tolérantes aux pannes. Les VM Spot permettent de faire jusqu'à 91 % d'économies tout en offrant des performances et des capacités identiques à celles des VM standards.
Compatibilité avec les disques persistants Stockage de blocs fiable et offrant de hautes performances pour les instances de conteneurs. Les données sont stockées de manière redondante afin de garantir leur intégrité, de permettre leur chiffrement automatique et d'offrir la flexibilité nécessaire pour redimensionner l'espace de stockage sans interruption. Vous pouvez créer des disques persistants au format HDD ou SSD. Vous pouvez également prendre des instantanés de votre disque persistant et en créer d'autres à partir de ces instantanés.
Compatibilité avec le SSD local GKE offre un stockage de blocs sur un disque dur SSD local dont les données sont toujours chiffrées. Les disques SSD locaux sont rattachés physiquement au serveur qui héberge l'instance de machine virtuelle. Ils permettent un nombre très élevé d'opérations d'entrée/de sortie par seconde (IOPS) et offrent une latence très faible par rapport aux disques persistants.
Équilibrage de charge au niveau mondial Notre technologie d'équilibrage de charge vous aide à répartir les requêtes entrantes sur des pools d'instances dans différentes régions. Vous optimisez ainsi le débit, la disponibilité et les performances, tout en limitant les coûts.
Compatibilité avec Linux et Windows Entièrement compatible avec les charges de travail Linux et Windows, GKE peut exécuter des nœuds Windows Server et Linux.
Compatibilité avec le cloud hybride et multicloud Profitez de Kubernetes et de la technologie cloud dans votre propre centre de données. Bénéficiez de l'expérience GKE avec des installations simples, rapides et gérées, ainsi que des mises à jour validées par Google depuis Anthos.
Conteneurs sans serveur Exécutez des conteneurs sans serveur et sans état, sans avoir à gérer l'infrastructure, et redimensionnez-les automatiquement avec Cloud Run.
Mesure de l'utilisation Visibilité précise sur vos clusters Kubernetes. Consultez l'utilisation des ressources de vos clusters GKE réparties par étiquettes et par espaces de noms, et distribuez-la à des entités représentatives.
Canaux de publication Les canaux de publication permettent de mieux contrôler les mises à jour automatiques que chaque cluster reçoit en fonction de ses exigences de stabilité et de ses charges de travail. Vous pouvez choisir parmi trois catégories : rapide, standard ou stable. Chaque canal a une fréquence de publication différente et cible différents types de charges de travail.
Sécurité sur la chaîne d'approvisionnement logicielle Vérifiez, appliquez et améliorez la sécurité des packages et composants d'infrastructure utilisés pour les images de conteneurs avec Container Analysis.
Facturation à la seconde La facturation s'effectue par tranches d'une seconde. Vous ne payez que le temps de calcul que vous utilisez.

Tarification

Tarification

Chaque compte de facturation bénéficie d'un cluster Autopilot ou d'un cluster zonal gratuit.

À l'exception des clusters Anthos, les frais de gestion s'élèvent à 0,10 $ par cluster et par heure. Les pods des utilisateurs des clusters Autopilot sont facturés à la seconde pour les cœurs de processeurs, la mémoire et le stockage éphémère, jusqu'à leur suppression. Les coûts de calcul s'appliquent aux nœuds de calcul des clusters standards, jusqu'à la suppression des clusters.

Partenaires

Accélérez le développement de vos applications avec nos partenaires

Développez votre application en faisant appel au partenaire qui saura vous aider avec les outils CI/CD Kubernetes natifs ou en utilisant une solution partenaire prête à l'emploi.