Téléchargez votre exemplaire gratuit du tableau d'évaluation Gartner des solutions pour les services de cloud public Kubernetes

Accéder à

Google Kubernetes Engine

Un moyen simple de déployer, faire évoluer et gérer automatiquement Kubernetes.

Les nouveaux clients peuvent bénéficier de 300 $ de crédits gratuits pour essayer GKE.

  • action/check_circle_24px Créé avec Sketch.

    Exécutez Kubernetes sur une plate-forme développée par son plus grand contributeur en termes d'ingénierie.

  • action/check_circle_24px Créé avec Sketch.

    Démarrez rapidement en installant des clusters en un seul clic et effectuez un scaling à la hausse (jusqu'à 15 000 nœuds).

  • action/check_circle_24px Créé avec Sketch.

    Tirez profit d'un plan de contrôle à haute disponibilité comprenant des clusters multizones et régionaux.

  • action/check_circle_24px Créé avec Sketch.

    Éliminez les coûts opérationnels avec la fonctionnalité innovante d'autoscaling quadridirectionnel.

  • action/check_circle_24px Créé avec Sketch.

    Sécurisez votre infrastructure par défaut grâce, entre autres, à l'analyse des failles des images de conteneurs et au chiffrement des données.

Avantages

Accélérez le développement d'applications sans compromettre la sécurité

Développez une grande variété d'applications grâce à la prise en charge des applications avec état, des applications sans serveur et des accélérateurs d'applications. Utilisez les outils CI/CD Kubernetes natifs pour sécuriser et accélérer chaque étape du cycle de compilation et de déploiement.

Optimisez les opérations avec les canaux de publication

Choisissez le canal qui répond à vos besoins commerciaux. Rapides, standards et stables, les canaux de publication proposent différentes fréquences de mise à niveau des nœuds et offrent des niveaux d'assistance en rapport avec le canal utilisé.

Obtenez l'aide des ingénieurs SRE de Google pour réduire les opérations à J+2

Faites appel à nos ingénieurs en fiabilité des sites (SRE), et recentrez-vous sur vos applications. Nos ingénieurs SRE surveillent en continu votre cluster et ses ressources de calcul, de mise en réseau et de stockage.

Principales fonctionnalités

Principales fonctionnalités

Deux modes de fonctionnement, un seul environnement GKE

GKE propose désormais deux modes de fonctionnement : Standard et Autopilot. Nous développons le mode Standard depuis le lancement de GKE. Celui-ci vous permet de contrôler complètement les nœuds, tout en ayant la possibilité d'ajuster et d'exécuter des charges de travail administratives personnalisées. Le tout nouveau mode Autopilot est une solution automatique entièrement gérée qui supervise l'infrastructure du cluster, sans que vous ayez à vous préoccuper de la configuration et de la surveillance. Grâce à sa facturation au pod, vous ne payez que pour les pods en cours d'exécution. Les composants système, les coûts du système d'exploitation et la capacité non allouée ne vous sont pas facturés.

Autoscaling des pods et des clusters

GKE est le premier service Kubernetes entièrement géré qui inclut l'API Kubernetes complète, l'autoscaling quadridirectionnel, des canaux de distribution et la compatibilité multicluster. L'autoscaling de pods horizontal peut être basé sur l'utilisation du processeur ou sur des métriques personnalisées. L'autoscaling des clusters fonctionne par pool de nœuds. L'autoscaling de pods vertical analyse en continu l'utilisation de la mémoire et des processeurs des pods, et ajuste automatiquement les demandes de ressources mémoire et de processeur en conséquence.

Applications et modèles Kubernetes intégrés

Accédez à des solutions conteneurisées prêtes à l'emploi dotées de modèles de déploiement prédéfinis, offrant portabilité, attribution de licences simplifiée et facturation consolidée. Au-delà de simples images de conteneurs, il s'agit d'applications Open Source commerciales conçues par Google, permettant aux développeurs d'augmenter leur productivité. Effectuez des déploiements par clic sur site ou dans des clouds tiers depuis Google Cloud Marketplace.

Mise en réseau et sécurité natives pour les conteneurs

GKE Sandbox fournit une seconde ligne de défense entre les charges de travail conteneurisées sur GKE et augmente leur niveau de sécurité. Les clusters GKE sont nativement compatibles avec la stratégie réseau de Kubernetes consistant à restreindre le trafic avec des règles de pare-feu au niveau des pods. Des clusters privés dans GKE peuvent être restreints vers un point de terminaison privé ou un point de terminaison public auquel seules certaines plages d'adresses peuvent accéder.

Afficher toutes les fonctionnalités

Nouveautés

Documentation

Documentation

Bonne pratique
Bonnes pratiques pour exploiter des conteneurs

Découvrez les bonnes pratiques pour exploiter des conteneurs dans GKE.

Tutoriel
Tutoriel GKE : déployer une application Web en conteneurs

Créez une application simple, empaquetez-la dans un conteneur, puis déployez l'image de conteneur dans GKE, le tout directement dans l'éditeur Cloud Shell.

Bonne pratique
Préparer un environnement GKE pour la production

Respectez les conseils et la méthodologie pour intégrer vos charges de travail à GKE de manière plus sécurisée, plus fiable et plus économique.

Tutoriel
Renforcer votre cluster GKE

Découvrez comment mettre en œuvre nos conseils pour renforcer votre cluster GKE.

Tutoriel
Ressources GKE

Apprenez-en davantage sur les fonctionnalités, les mises à jour, les prix et autres.

Tutoriel
Possibilités de développement offertes par Google Cloud

Découvrez les guides techniques des ressources Google Cloud permettant d'exploiter tout le potentiel de GKE.

Cas d'utilisation

Cas d'utilisation

Cas d'utilisation
Pipeline de livraison continue

Accélérez le développement des applications et les itérations en facilitant le déploiement, la mise à jour et la gestion de vos applications et services. Configurez GKE, Cloud Source Repositories, Cloud Build et Spinnaker pour les services Google Cloud pour compiler, tester et déployer automatiquement une application. Une fois le code de l'application mis à jour, ces modifications amènent le pipeline de livraison continue à répéter automatiquement ces opérations (compilation, test et déploiement) pour la nouvelle version.

Diagramme illustrant comment les développeurs peuvent créer un pipeline de livraison continue
Cas d'utilisation
Migrer une application à deux niveaux vers GKE

Migrate for Anthos vous permet de migrer des charges de travail et de les convertir directement dans des conteneurs dans GKE. Effectuez la migration d'une application LAMP à deux niveaux, avec des VM d'applications et de bases de données, de VMware vers GKE. Améliorez la sécurité en rendant la base de données accessible depuis le conteneur de l'application seulement, et non depuis l'extérieur du cluster. Remplacez l'accès SSH par un accès authentifié via une interface système grâce à kubectl. Consultez les journaux du système du conteneur grâce à l'intégration automatique de Cloud Logging.

Diagramme illustrant comment migrer des charges de travail et les convertir dans GKE

Toutes les fonctionnalités

Toutes les fonctionnalités

Gestion de l'authentification et des accès Contrôlez les accès dans votre cluster à l'aide de vos comptes Google et de rôles configurés.
Réseau hybride Réservez une plage d'adresses IP pour votre cluster afin que ses adresses IP coexistent avec celles de votre réseau privé via Google Cloud VPN.
Sécurité et conformité GKE est géré par l'équipe de sécurité Google, composée de plus de 750 spécialistes. De plus, cet environnement est conforme à la loi HIPAA et à la norme PCI DSS.
Surveillance et journalisation intégrées Activez Cloud Logging et Cloud Monitoring en cochant simplement les cases correspondantes, afin d'analyser facilement les performances de votre application.
Options des clusters Choisissez des clusters adaptés à la disponibilité, à la stabilité des versions, à l'isolation et aux exigences de trafic des pods de vos charges de travail.
Autoscaling Effectuez le scaling automatique du déploiement de votre application en fonction de l'utilisation des ressources (processeur et mémoire).
Mise à niveau automatique Maintenez votre cluster automatiquement à jour en utilisant la dernière version de Kubernetes. Les mises à jour de Kubernetes sont rapidement disponibles dans GKE.
Réparation automatique Lorsque la réparation automatique est activée, si un nœud est défaillant lors d'une vérification de l'état, GKE lance un processus pour le réparer.
Limites de ressources Kubernetes vous permet de préciser le nombre de processeurs et la quantité de mémoire (RAM) dont chaque conteneur a besoin, afin d'organiser les charges de travail au sein de votre cluster de façon optimale.
Isolation du conteneur Utilisez GKE Sandbox pour établir une seconde ligne de défense entre les charges de travail conteneurisées sur GKE et augmenter leur niveau de sécurité.
Compatibilité avec les applications avec état GKE n'est pas réservé aux applications 12 facteurs. Vous pouvez associer un espace de stockage persistant aux conteneurs et même héberger des bases de données complètes.
Compatibilité avec les images Docker GKE est compatible avec le format de conteneur Docker.
Entièrement géré Les clusters GKE sont entièrement gérés par les ingénieurs en fiabilité des sites (SRE) de Google, qui assurent la disponibilité et l'actualisation de vos clusters.
OS spécialement conçu pour les conteneurs GKE s'exécute sur Container-Optimized OS, un système d'exploitation renforcé mis au point et géré par Google.
Registre de conteneurs privés L'intégration de Google Container Registry facilite le stockage de vos images Docker privées ainsi que leur accès.
Compilations rapides et cohérentes Utilisez Cloud Build pour déployer de manière fiable vos conteneurs sur GKE sans avoir à configurer l'authentification.
Portabilité des charges de travail sur site et dans le cloud GKE est conforme au programme Certified Kubernetes, ce qui rend possible la portabilité des charges de travail vers d'autres plates-formes Kubernetes, entre plusieurs clouds et sur site.
Assistance GPU et TPU GKE est compatible avec les GPU et TPU, et facilite l'exécution du ML, des GPU généraux, du HPC ainsi que d'autres charges de travail auxquelles sont appliqués des accélérateurs matériels spécialisés.
Tableau de bord intégré Cloud Console propose des tableaux de bord utiles pour les clusters de votre projet et leurs ressources. Vous pouvez vous en servir pour afficher, inspecter, gérer et supprimer les ressources de vos clusters.
VM préemptives Instances abordables et à courte durée de vie conçues pour exécuter des tâches par lot et des charges de travail tolérantes aux pannes. Les VM préemptives permettent de faire jusqu'à 80 % d'économies tout en offrant des performances et des capacités identiques à celles des VM standards.
Compatibilité avec les disques persistants Stockage de blocs fiable et offrant de hautes performances pour les instances de conteneurs. Les données sont stockées de manière redondante afin de garantir leur intégrité, de permettre leur chiffrement automatique et d'offrir la flexibilité nécessaire pour redimensionner l'espace de stockage sans interruption. Vous pouvez créer des disques persistants au format HDD ou SSD. Vous pouvez également prendre des instantanés de votre disque persistant et en créer d'autres à partir de ces instantanés.
Compatibilité avec le SSD local GKE offre un stockage de blocs sur un disque dur SSD local dont les données sont toujours chiffrées. Les disques SSD locaux sont rattachés physiquement au serveur qui héberge l'instance de machine virtuelle. Ils permettent un nombre très élevé d'opérations d'entrée/de sortie par seconde (IOPS) et offrent une latence très faible par rapport aux disques persistants.
Équilibrage de charge au niveau mondial Notre technologie d'équilibrage de charge vous aide à répartir les requêtes entrantes sur des pools d'instances dans différentes régions. Vous optimisez ainsi le débit, la disponibilité et les performances, tout en limitant les coûts.
Compatibilité avec Linux et Windows Entièrement compatible avec les charges de travail Linux et Windows, GKE peut exécuter des nœuds Windows Server et Linux.
Compatibilité avec le cloud hybride et multicloud Profitez de Kubernetes et de la technologie cloud dans votre propre centre de données. Bénéficiez de l'expérience GKE avec des installations simples, rapides et gérées, ainsi que des mises à jour validées par Google depuis Anthos GKE.
Conteneurs sans serveur Exécutez des conteneurs sans serveur et sans état, sans avoir à gérer l'infrastructure, et redimensionnez-les automatiquement avec Cloud Run.
Mesure de l'utilisation Visibilité précise sur vos clusters Kubernetes. Consultez l'utilisation des ressources de votre cluster GKE réparties par libellé et par espace de noms, et distribuez-la à des entités représentatives.
Canaux de publication Les canaux de publication permettent de mieux contrôler les mises à jour automatiques que chaque cluster reçoit en fonction de ses exigences de stabilité et de ses charges de travail. Vous pouvez choisir parmi trois catégories : rapide, standard ou stable. Chaque canal a une fréquence de publication différente et cible différents types de charges de travail.
Sécurité sur la chaîne d'approvisionnement logicielle Vérifiez, appliquez et améliorez la sécurité des packages et composants d'infrastructure utilisés pour les images de conteneurs avec Container Analysis.
Facturation à la seconde La facturation s'effectue par tranches d'une seconde. Vous ne payez que le temps de calcul que vous utilisez.

Tarification

Tarification

Chaque compte de facturation bénéficie d'un cluster Autopilot ou d'un cluster zonal gratuit.

À l'exception des clusters Anthos, les frais de gestion s'élèvent à 0,10 $ par cluster et par heure. Les pods des utilisateurs des clusters Autopilot sont facturés à la seconde pour les cœurs de processeurs, la mémoire et le stockage éphémère, jusqu'à leur suppression. Les coûts de calcul s'appliquent aux nœuds de calcul des clusters standards, jusqu'à la suppression des clusters.