Le service Kubernetes entièrement automatisé le plus évolutif
Mettez vos conteneurs en mode Autopilot. Vous n'aurez ainsi plus besoin de gérer les nœuds ni la capacité, et réduirez les coûts de cluster, quel que soit votre niveau d'expertise dans l'exploitation de clusters.
Le mode Autopilot de GKE est une plate-forme Kubernetes pratique et entièrement gérée. Il régit l'infrastructure de calcul sous-jacente de votre cluster (sans que vous n'ayez besoin de la configurer ni de la surveiller), tout en offrant une expérience Kubernetes complète. Grâce à la facturation au pod, vous ne payez que pour les pods en cours d'exécution. Les composants système, le système d'exploitation et la capacité non allouée ne vous sont pas facturés (soit jusqu'à 85 % d'économies sur les coûts liés aux ressources et à l'efficacité opérationnelle).
Mise en réseau et sécurité natives pour les conteneurs
Les clusters mis en réseau de façon privée dans GKE peuvent être limités à un point de terminaison privé ou public auquel seules certaines plages d'adresses peuvent accéder. Pour le mode de fonctionnement Standard, GKE Sandbox fournit une seconde ligne de défense entre les charges de travail conteneurisées sur GKE et augmente leur niveau de sécurité.
Les clusters GKE sont intrinsèquement compatibles avec la stratégie réseau de Kubernetes consistant à restreindre le trafic avec des règles de pare-feu au niveau des pods.
Accédez à des solutions conteneurisées adaptées aux entreprises, qui s'accompagnent de modèles de déploiement prédéfinis et qui offrent portabilité, attribution de licences simplifiée et facturation consolidée. Au-delà de simples images de conteneurs, il s'agit d'applications Open Source commerciales conçues par Google, permettant aux développeurs d'augmenter leur productivité. Effectuez des déploiements par clic sur site ou dans des clouds tiers depuis Google Cloud Marketplace.
GKE implémente l'API Kubernetes complète, l'autoscaling quadridirectionnel, les canaux de publication, la compatibilité multicluster et le scaling à la hausse jusqu'à 15 000 nœuds.
L'autoscaling de pods horizontal peut être basé sur l'utilisation du processeur ou sur des métriques personnalisées. L'autoscaling des clusters fonctionne par pool de nœuds. L'autoscaling de pods vertical analyse en continu l'utilisation de la mémoire et des processeurs des pods, et ajuste automatiquement les demandes de ressources mémoire et de processeurs en conséquence.
Outils automatisés pour migrer facilement des charges de travail
Migrate to Containers permet de moderniser les applications traditionnelles facilement et rapidement, en passant de machines virtuelles à des conteneurs. Notre approche unique basée sur l'automatisation consiste à extraire les éléments critiques de vos applications à partir de la VM, pour que vous puissiez facilement les insérer dans des conteneurs hébergés dans GKE ou des clusters Anthos sans vous encombrer des couches de VM (telles que l'OS invité) qui ne sont plus nécessaires.
Ce produit est également compatible avec GKE Autopilot.
Sauvegarde pour GKE est une fonctionnalité simple permettant aux clients qui exécutent des charges de travail avec état sur GKE de protéger, gérer et restaurer leurs applications conteneurisées et leurs données.
Identity and Access Management
Contrôlez les accès dans votre cluster à l'aide de vos comptes Google et de rôles configurés.
Réseau hybride
Réservez une plage d'adresses IP pour votre cluster afin que ses adresses IP coexistent avec celles de votre réseau privé via Google Cloud VPN.
Sécurité et conformité
GKE est géré par une équipe de sécurité Google composée de plus de 750 spécialistes. De plus, cet environnement est conforme à la loi HIPAA et à la norme PCI DSS.
Surveillance et journalisation intégrées
Activez Cloud Logging et Cloud Monitoring en cochant simplement les cases correspondantes, afin d'analyser facilement les performances de votre application.
Options de cluster
Choisissez des clusters adaptés aux exigences de disponibilité, de stabilité des versions, d'isolation et de trafic des pods de vos charges de travail.
Autoscaling
Configurez le scaling automatique du déploiement de votre application en fonction de l'utilisation des ressources (processeur et mémoire).
Mise à niveau automatique
Maintenez votre cluster automatiquement à jour en utilisant la dernière version de Kubernetes.
Réparation automatique
Lorsque la réparation automatique est activée, si un nœud est déclaré défaillant lors d'une vérification de l'état, GKE lance un processus pour le réparer.
Limites de ressources
Kubernetes vous permet de préciser le nombre de processeurs et la quantité de mémoire (RAM) dont chaque conteneur a besoin, afin d'organiser les charges de travail au sein de votre cluster de façon optimale.
Isolement du conteneur
Utilisez GKE Sandbox pour établir une seconde ligne de défense entre les charges de travail conteneurisées sur GKE et augmenter leur niveau de sécurité.
Compatibilité avec les applications avec état
GKE n'est pas réservé aux applications à 12 facteurs. Vous pouvez associer un espace de stockage persistant aux conteneurs et même héberger des bases de données complètes.
Compatibilité avec les images Docker
GKE est compatible avec le format de conteneur Docker.
OS spécialement conçu pour les conteneurs
GKE s'exécute sur Container-Optimized OS, un système d'exploitation renforcé mis au point et géré par Google.
Registre de conteneurs privés
L'intégration de Google Container Registry facilite le stockage de vos images Docker privées ainsi que l'accès à ces images.
Compilations rapides et cohérentes
Utilisez Cloud Build pour déployer de manière fiable vos conteneurs sur GKE sans avoir à configurer l'authentification.
Portabilité des charges de travail sur site et dans le cloud
GKE est conforme au programme Certified Kubernetes, ce qui rend possible la portabilité des charges de travail vers d'autres plates-formes Kubernetes, entre plusieurs clouds et sur site.
Compatibilité avec les GPU et TPU
GKE est compatible avec les GPU et TPU, et facilite l'exécution du ML, des GPU à usage général, du HPC ainsi que d'autres charges de travail auxquelles sont appliqués des accélérateurs matériels spécialisés.
Tableau de bord intégré
La console Google Cloud propose des tableaux de bord utiles pour les clusters de votre projet et leurs ressources. Vous pouvez vous en servir pour afficher, inspecter, gérer et supprimer les ressources de vos clusters.
VM Spot
Des instances de calcul abordables, adaptées aux jobs par lots et aux charges de travail tolérantes aux pannes.
Les VM Spot permettent de faire jusqu'à 91 % d'économies tout en offrant des performances et des capacités identiques à celles des VM standards.
Compatibilité avec les disques persistants
Stockage de blocs fiable et offrant de hautes performances pour les instances de conteneurs. Les données sont stockées de manière redondante, ce qui permet de garantir leur intégrité, d'activer le chiffrement automatique de ces données et d'offrir la flexibilité nécessaire pour redimensionner l'espace de stockage sans interruption. Vous pouvez créer des disques persistants au format HDD ou SSD. Vous pouvez également prendre des instantanés de votre disque persistant et en créer d'autres à partir de ces instantanés.
Compatibilité avec le SSD local
GKE offre un stockage de blocs sur un disque dur SSD local dont les données sont toujours chiffrées. Les disques SSD locaux sont rattachés physiquement au serveur qui héberge l'instance de machine virtuelle. Ils permettent un nombre très élevé d'opérations d'entrée/de sortie par seconde (IOPS) et offrent une latence très faible par rapport aux disques persistants.
Équilibrage de charge au niveau mondial
Notre technologie d'équilibrage de charge vous aide à répartir les requêtes entrantes sur des pools d'instances dans différentes régions. Vous optimisez ainsi le débit, la disponibilité et les performances, tout en limitant les coûts.
Compatibilité avec Linux et Windows
Entièrement compatible avec les charges de travail Linux et Windows, GKE peut exécuter des nœuds Windows Server et Linux.
Compatibilité avec le cloud hybride et les approches multicloud
Profitez de Kubernetes et de la technologie cloud dans votre propre centre de données. Bénéficiez de l'expérience GKE avec des installations simples, rapides et gérées, ainsi que des mises à jour validées par Google depuis Anthos.
Conteneurs sans serveur
Exécutez des conteneurs sans serveur et sans état, sans avoir à gérer l'infrastructure, et redimensionnez-les automatiquement avec Cloud Run.
Mesure de l'utilisation
Visibilité précise sur vos clusters Kubernetes. Consultez l'utilisation des ressources de vos clusters GKE, répartie par étiquettes et par espaces de noms, et distribuez-la à des entités représentatives.
Canaux de publication
Les canaux de publication permettent de mieux contrôler les mises à jour automatiques que chaque cluster reçoit en fonction de ses exigences de stabilité et de ses charges de travail. Vous pouvez choisir parmi trois catégories : rapide, standard ou stable. Chaque canal a une fréquence de publication différente et cible des types de charges de travail spécifiques.
Sécurité sur la chaîne d'approvisionnement logicielle
Vérifiez, appliquez et améliorez la sécurité des packages et composants d'infrastructure utilisés pour les images de conteneurs avec Container Analysis.
Facturation à la seconde
La facturation s'effectue par tranches d'une seconde. Vous ne payez que le temps de calcul que vous utilisez.
Fonctionnement
Un cluster GKE comporte un plan de contrôle et des machines appelés "nœuds". Les nœuds exécutent les services nécessaires aux conteneurs qui constituent vos charges de travail. Le plan de contrôle décide de ce qui s'exécute sur ces nœuds : il gère entre autres la planification et le scaling. Le mode Autopilot prend en charge cette complexité. Il vous suffit de déployer et d'exécuter vos applications.
Dans cet atelier, vous allez découvrir comment créer un pipeline de livraison continue à l'aide de Google Kubernetes Engine, Google Cloud Source Repositories, Google Cloud Container Builder et Spinnaker. Après avoir créé un exemple d'application, vous allez configurer ces services pour qu'ils conçoivent, testent et déploient le pipeline de façon automatique.
Migrate to Containers vous permet de migrer des charges de travail et de les convertir directement en conteneurs dans GKE. Effectuez la migration d'une application LAMP à deux niveaux, avec des VM d'applications et de bases de données, de VMware vers GKE.
Faites appel à un partenaire de confiance pour bénéficier de Google Kubernetes Engine sur site et de la gestion optimale de Kubernetes sur votre infrastructure privée. Vous pouvez également sélectionner l'un des services de migration proposés sur Google Cloud Marketplace.
Créez une application Web conteneurisée, testez-la localement, puis déployez-la sur un cluster Google Kubernetes Engine (GKE), le tout directement depuis l'éditeur Cloud Shell. À la fin de ce court tutoriel, vous saurez comment créer, modifier et déboguer une application Kubernetes.
Current déploie et exécute ses applications sur GKE
Current, l'une des principales banques "challenger" de New York, héberge désormais la plupart de ses applications dans des conteneurs Docker (y compris l'API GraphQL, essentielle à l'entreprise) et utilise GKE pour automatiser le déploiement des clusters et la gestion des applications conteneurisées.
Une fois les crédits gratuits utilisés, le coût total est basé sur le mode de fonctionnement du cluster, les frais de gestion du cluster et les frais d'entrée multicluster applicables.
Version gratuite
La version gratuite de GKE fournit 74,40 $ de crédits mensuels par compte de facturation, appliqués aux clusters zonaux et Autopilot.
Gratuit
Mode de fonctionnement du cluster
Mode standard
Utilise des nœuds Compute Engine dans le cluster. Chaque instance vous est facturée selon les tarifs de Compute Engine.
0,10 $
par cluster et par heure
Mode Autopilot
Un tarif forfaitaire par cluster, auquel il faut ajouter les ressources de processeur, de mémoire et de calcul provisionnées pour vos pods.
0,10 $
par cluster et par heure
Frais de gestion des clusters
Les frais de gestion s'appliquent à tous les clusters GKE, quels que soient leur mode de fonctionnement, leur taille et leur topologie.
0,10 $
par cluster et par heure
Tarifs d'entrées multicluster
SKU spécifique
La tarification individuelle d'une entrée multicluster est basée sur le nombre de pods considérés comme des backends Multi Cluster Ingress.
3 $
par pod de backend et par mois (730 heures)
Anthos
Une entrée multicluster est incluse dans Anthos sans frais supplémentaires.
Gratuit
pour les utilisateurs d'Anthos
Fonctionnement des tarifs de GKE
Une fois les crédits gratuits utilisés, le coût total est basé sur le mode de fonctionnement du cluster, les frais de gestion du cluster et les frais d'entrée multicluster applicables.
Service
Description
Prix (USD)
Version gratuite
La version gratuite de GKE fournit 74,40 $ de crédits mensuels par compte de facturation, appliqués aux clusters zonaux et Autopilot.
Gratuit
Mode de fonctionnement du cluster
Mode standard
Utilise des nœuds Compute Engine dans le cluster. Chaque instance vous est facturée selon les tarifs de Compute Engine.
0,10 $
par cluster et par heure
Mode Autopilot
Un tarif forfaitaire par cluster, auquel il faut ajouter les ressources de processeur, de mémoire et de calcul provisionnées pour vos pods.
0,10 $
par cluster et par heure
Frais de gestion des clusters
Les frais de gestion s'appliquent à tous les clusters GKE, quels que soient leur mode de fonctionnement, leur taille et leur topologie.
0,10 $
par cluster et par heure
Tarifs d'entrées multicluster
SKU spécifique
La tarification individuelle d'une entrée multicluster est basée sur le nombre de pods considérés comme des backends Multi Cluster Ingress.
3 $
par pod de backend et par mois (730 heures)
Anthos
Une entrée multicluster est incluse dans Anthos sans frais supplémentaires.
Gratuit
pour les utilisateurs d'Anthos
Simulateur de coût
Estimez vos coûts GKE mensuels (l'estimation inclut les tarifs et les frais spécifiques à une région).