Icône GKE

Google Kubernetes Engine (GKE)

Le service Kubernetes entièrement automatisé le plus évolutif

Mettez vos conteneurs en mode Autopilot et exécutez de façon sécurisée vos charges de travail d'entreprise à grande échelle, quel que soit votre niveau d'expertise sur Kubernetes.

Les nouveaux clients peuvent bénéficier de 300 $ de crédits pour essayer GKE.


Fonctionnalités

Vitesse accrue, risque réduit et coût total de possession (TCO) moindre

GKE Enterprise, la nouvelle édition Premium de GKE, offre des fonctionnalités permettant aux équipes chargées des plates-formes de bénéficier d'une rapidité accrue : configuration et observation de plusieurs clusters au même endroit ; définition de la configuration en fonction des équipes plutôt que des clusters ; fourniture d'options en libre-service aux développeurs pour le déploiement et la gestion de leurs applications. Vous pouvez réduire les risques à l'aide des fonctionnalités de sécurité avancées et de la gestion de configuration basée sur GitOps. Réduisez le coût total de possession (TCO) en vous appuyant sur une solution entièrement intégrée et gérée, et bénéficiez d'un ROI de près de 196 % en trois ans.

Éditions flexibles

L'édition GKE Standard offre une gestion entièrement automatisée du cycle de vie des clusters, l'autoscaling des pods et des clusters, la visibilité des coûts et l'optimisation automatisée des coûts d'infrastructure. Elle inclut tous les avantages existants de GKE, et propose les modes de fonctionnement Autopilot et Standard. GKE Enterprise, la nouvelle édition Premium de GKE, offre tous les avantages mentionnés précédemment, ainsi que des fonctionnalités de gestion, de gouvernance, de sécurité et de configuration pour plusieurs équipes et clusters, le tout pilotable via une console unifiée, et enfin un maillage de services intégré.

Expérience Kubernetes sans serveur avec Autopilot

Le mode Autopilot de GKE est une solution pratique qui régit l'infrastructure de calcul sous-jacente à votre cluster, tout en vous offrant une expérience Kubernetes complète. Vous n'avez rien à configurer ni à surveiller à ce niveau. Grâce à la facturation au pod, vous ne payez que pour les pods en cours d'exécution. Les composants système, le système d'exploitation et la capacité non allouée ne vous sont pas facturés (ce qui représente une économie pouvant atteindre 85 % sur les coûts liés aux ressources et à l'efficacité opérationnelle). Les modes de fonctionnement Autopilot et Standard sont disponibles dans l'édition GKE Enterprise.

Mise en réseau et sécurité natives pour les conteneurs

Les clusters mis en réseau de façon privée dans GKE peuvent être limités à un point de terminaison privé ou public auquel seules certaines plages d'adresses peuvent accéder.Pour le mode de fonctionnement Standard, GKE Sandbox fournit une seconde ligne de défense entre les charges de travail conteneurisées sur GKE et augmente leur niveau de sécurité. Les clusters GKE sont intrinsèquement compatibles avec la stratégie réseau de Kubernetes consistant à restreindre le trafic avec des règles de pare-feu au niveau des pods.

Autoscaling des pods et des clusters

GKE implémente l'API Kubernetes complète, l'autoscaling quadridirectionnel, les canaux de publication, la compatibilité multicluster et le scaling à la hausse jusqu'à 15 000 nœuds. L'autoscaling horizontal des pods peut être basé sur l'utilisation du processeur ou sur des métriques personnalisées. L'autoscaling des clusters fonctionne par pool de nœuds. L'autoscaling vertical des pods analyse en continu l'utilisation de la mémoire et des processeurs des pods, et ajuste automatiquement les demandes de ressources mémoire et de processeurs en conséquence.

Applications et modèles Kubernetes intégrés

Accédez à des solutions conteneurisées adaptées aux entreprises, qui s'accompagnent de modèles de déploiement prédéfinis et qui offrent portabilité, attribution de licences simplifiée et facturation consolidée. Au-delà de simples images de conteneurs, il s'agit d'applications Open Source commerciales conçues par Google, permettant aux développeurs d'augmenter leur productivité. Effectuez des déploiements par clic sur site ou dans des clouds tiers depuis Google Cloud Marketplace.

Compatibilité avec les GPU et TPU

GKE est compatible avec les GPU et TPU, et facilite l'exécution du ML, des GPU à usage général, du HPC ainsi que d'autres charges de travail auxquelles sont appliqués des accélérateurs matériels spécialisés.

Gestion de plusieurs équipes avec les niveaux d'accès d'équipes de parc

Utilisez des parcs pour organiser vos clusters et vos charges de travail, et attribuez facilement des ressources à plusieurs équipes pour accroître la vitesse de traitement des tâches et déléguer la propriété de ces ressources. Les niveaux d'accès d'équipe vous permettent de définir des sous-ensembles de ressources de parc par équipe, chaque niveau d'accès étant associé à un ou plusieurs clusters membres du parc.

Gestion multicluster avec les parcs

Vous pouvez choisir d'utiliser plusieurs clusters pour dissocier les services entre divers environnements, niveaux, paramètres régionaux, équipes ou fournisseurs d'infrastructure. Les parcs ainsi que les composants et fonctionnalités Google Cloud associés à ceux-ci contribuent à faciliter la gestion de plusieurs clusters.

Sauvegarde pour GKE

Sauvegarde pour GKE est une fonctionnalité simple permettant aux clients qui exécutent des charges de travail avec état sur GKE de protéger, gérer et restaurer leurs applications conteneurisées et leurs données.

Compatibilité multicloud avec la portabilité des charges de travail

GKE est conforme au programme Certified Kubernetes, ce qui rend possible la portabilité des charges de travail vers d'autres plates-formes Kubernetes, entre plusieurs clouds et sur site. Vous pouvez également exécuter vos applications n'importe où de manière cohérente à l'aide de GKE sur Google Cloud, GKE sur AWS ou GKE sur Azure.

Compatibilité hybride

Profitez de Kubernetes et de la technologie cloud dans votre propre centre de données grâce à Google Distributed Cloud. Bénéficiez de l'expérience GKE avec des installations simples, rapides et gérées, ainsi que des mises à niveau validées par Google.

Maillage de services géré

Gérez, observez et sécurisez vos services en vous appuyant sur l'implémentation par Google d'Istio, un projet Open Source offrant d'excellentes performances. Simplifiez la gestion et la surveillance du trafic avec un maillage de services entièrement géré.

GitOps géré

Créez et appliquez des configurations et des règles de sécurité cohérentes pour l'ensemble des clusters, parcs et équipes avec le déploiement de configuration GitOps géré.

Gestion de l'authentification et des accès

Contrôlez les accès dans votre cluster à l'aide de vos comptes Google et de rôles configurés.

Réseau hybride

Réservez une plage d'adresses IP pour votre cluster afin que ses adresses IP coexistent avec celles de votre réseau privé via Google Cloud VPN.

Sécurité et conformité

GKE est géré par une équipe de sécurité Google composée de plus de 750 spécialistes. De plus, cet environnement est conforme à la loi HIPAA et à la norme PCI DSS.

Surveillance et journalisation intégrées

Activez Cloud Logging et Cloud Monitoring en cochant simplement les cases correspondantes, afin d'analyser facilement les performances de votre application.

Options de cluster

Choisissez des clusters adaptés aux exigences de disponibilité, de stabilité des versions, d'isolation et de trafic des pods de vos charges de travail.

Autoscaling

Configurez le scaling automatique du déploiement de votre application en fonction de l'utilisation des ressources (processeur et mémoire).

Mise à niveau automatique

Maintenez votre cluster automatiquement à jour en utilisant la dernière version de Kubernetes.

Réparation automatique

Lorsque la réparation automatique est activée, si un nœud est déclaré défaillant lors d'une vérification de l'état, GKE lance un processus pour le réparer.

Limites de ressources

Kubernetes vous permet de préciser le nombre de processeurs et la quantité de mémoire (RAM) dont chaque conteneur a besoin, afin d'organiser les charges de travail au sein de votre cluster de façon optimale.

Isolement du conteneur

Utilisez GKE Sandbox pour établir une seconde ligne de défense entre les charges de travail conteneurisées sur GKE et augmenter leur niveau de sécurité.

Prise en charge des applications avec état

GKE n'est pas réservé aux applications 12 facteurs. Vous pouvez associer un espace de stockage sur disque persistant aux conteneurs et même héberger des bases de données complètes.

Compatibilité avec les images Docker

GKE est compatible avec le format de conteneur Docker.

OS spécialement conçu pour les conteneurs

GKE s'exécute sur Container-Optimized OS, un système d'exploitation renforcé mis au point et géré par Google.

Registre de conteneurs privés

L'intégration de Google Container Registry facilite le stockage de vos images Docker privées ainsi que l'accès à ces images.

Compilations rapides et cohérentes

Utilisez Cloud Build pour déployer de manière fiable vos conteneurs sur GKE sans avoir à configurer l'authentification.

Tableau de bord intégré

La console Google Cloud propose des tableaux de bord utiles pour les clusters de votre projet et leurs ressources. Vous pouvez vous en servir pour afficher, inspecter, gérer et supprimer les ressources de vos clusters.

VM Spot

Des instances de calcul abordables et à courte durée de vie, adaptées aux tâches par lots et aux charges de travail tolérantes aux pannes. Les VM Spot permettent de faire jusqu'à 91 % d'économies tout en offrant des performances et des capacités identiques à celles des VM standards.

Compatibilité avec les disques persistants

Stockage de blocs fiable et offrant de hautes performances pour les instances de conteneurs. Les données sont stockées de manière redondante, ce qui permet de garantir leur intégrité, d'activer le chiffrement automatique de ces données et d'offrir la flexibilité nécessaire pour redimensionner l'espace de stockage sans interruption. Vous pouvez créer des disques persistants au format HDD ou SSD. Vous pouvez également prendre des instantanés de votre disque persistant et en créer d'autres à partir de ces instantanés.

Compatibilité avec le SSD local

GKE offre un stockage de blocs sur un disque dur SSD local dont les données sont toujours chiffrées. Les disques SSD locaux sont rattachés physiquement au serveur qui héberge l'instance de machine virtuelle. Ils permettent un nombre très élevé d'opérations d'entrée/de sortie par seconde (IOPS) et offrent une latence très faible par rapport aux disques persistants.

Équilibrage de charge global

Notre technologie d'équilibrage de charge vous aide à répartir les requêtes entrantes sur des pools d'instances dans différentes régions. Vous optimisez ainsi le débit, la disponibilité et les performances, tout en limitant les coûts.

Compatibilité avec Linux et Windows

Entièrement compatible avec les charges de travail Linux et Windows, GKE peut exécuter des nœuds Windows Server et Linux.

Conteneurs sans serveur

Exécutez des conteneurs sans serveur et sans état, sans avoir à gérer l'infrastructure, et redimensionnez-les automatiquement avec Cloud Run.

Mesure de l'utilisation

Visibilité précise sur vos clusters Kubernetes. Consultez l'utilisation des ressources de vos clusters GKE, répartie par étiquettes et par espaces de noms, et distribuez-la à des entités représentatives.

Canaux de publication

Les canaux de publication permettent de mieux contrôler les mises à jour automatiques que chaque cluster reçoit en fonction de ses exigences de stabilité et de ses charges de travail. Vous pouvez choisir parmi trois catégories : rapide, standard ou stable. Chaque canal a une fréquence de publication différente et cible des types de charges de travail spécifiques.

Sécurité sur la chaîne d'approvisionnement logicielle

Vérifiez, appliquez et améliorez la sécurité des packages et composants d'infrastructure utilisés pour les images de conteneurs avec Artifact Analysis.

Facturation à la seconde

La facturation s'effectue par tranches d'une seconde. Vous ne payez que le temps de calcul que vous utilisez.

Fonctionnement

Un cluster GKE comporte un plan de contrôle et des machines appelés "nœuds". Les nœuds exécutent les services nécessaires aux conteneurs qui constituent vos charges de travail. Le plan de contrôle décide ensuite de ce qui s'exécute sur ces nœuds : il gère entre autres la planification et le scaling. Le mode Autopilot prend en charge cette complexité. Il vous suffit de déployer et d'exécuter vos applications.

Schéma technique de GKE
Google Kubernetes Engine en une minute (1:21)

Utilisations courantes

Gérer une infrastructure multicluster

Simplifier les déploiements multicluster avec les parcs

Utilisez des parcs pour simplifier la gestion des déploiements multicluster, par exemple pour dissocier les environnements de production et hors production, ou séparer les services entre les niveaux, les sites ou les équipes. Un parc vous permet de regrouper et de normaliser des clusters Kubernetes, ce qui facilite l'administration de l'infrastructure et l'adoption des bonnes pratiques de Google.
En savoir plus sur la gestion de parc
Infrastructure multicluster

    Simplifier les déploiements multicluster avec les parcs

    Utilisez des parcs pour simplifier la gestion des déploiements multicluster, par exemple pour dissocier les environnements de production et hors production, ou séparer les services entre les niveaux, les sites ou les équipes. Un parc vous permet de regrouper et de normaliser des clusters Kubernetes, ce qui facilite l'administration de l'infrastructure et l'adoption des bonnes pratiques de Google.
    En savoir plus sur la gestion de parc
    Infrastructure multicluster

      Trouver le bon partenaire pour gérer une infrastructure multicluster

      Gérez de manière sécurisée les charges de travail et l'infrastructure multicluster avec l'aide des partenaires de lancement de l'édition Enterprise.
      Trouver un partenaire GKE
      Logos des partenaires de lancement

        Exécuter de façon sécurisée des charges de travail d'IA optimisées

        Exécuter des charges de travail d'IA optimisées avec l'orchestration de plates-formes

        Une plate-forme de ML et d'IA robuste offre les éléments suivants : (i) orchestration d'infrastructure compatible avec les GPU pour l'entraînement et l'inférence des charges de travail à grande échelle, (ii) intégration flexible avec des frameworks de calcul et de traitement des données distribués, et (iii) possibilité pour plusieurs équipes d'utiliser la même infrastructure dans l'optique d'optimiser l'utilisation des ressources.

        En savoir plus sur l'orchestration de l'IA et du ML sur GKE
        Frameworks

        Exécuter des charges de travail d'IA optimisées avec l'orchestration de plates-formes

        Une plate-forme de ML et d'IA robuste offre les éléments suivants : (i) orchestration d'infrastructure compatible avec les GPU pour l'entraînement et l'inférence des charges de travail à grande échelle, (ii) intégration flexible avec des frameworks de calcul et de traitement des données distribués, et (iii) possibilité pour plusieurs équipes d'utiliser la même infrastructure dans l'optique d'optimiser l'utilisation des ressources.

        En savoir plus sur l'orchestration de l'IA et du ML sur GKE
        Frameworks

        Des GPU partagés dans GKE aident à trouver des neutrinos

        Découvrez le témoignage des équipes du San Diego Supercomputer Center (SDSC) et de l'université du Wisconsin de Madison, qui s'appuient sur le partage de GPU dans Google Kubernetes Engine pour détecter des neutrinos au niveau du pôle Sud avec l'IceCube Neutrino Observatory, un observatoire à l'échelle de la gigatonne.
        Lisez cet article pour en savoir plus
        Pôle Sud

        Intégration et livraison continues

        Créer un pipeline de livraison continue

        Dans cet atelier, vous allez découvrir comment créer un pipeline de livraison continue à l'aide de Google Kubernetes Engine, Google Cloud Source Repositories, Google Cloud Container Builder et Spinnaker. Après avoir créé un exemple d'application, vous allez configurer ces services pour qu'ils conçoivent, testent et déploient le pipeline de façon automatique.
        Démarrer l'atelier pratique
        Diagramme

        Créer un pipeline de livraison continue

        Dans cet atelier, vous allez découvrir comment créer un pipeline de livraison continue à l'aide de Google Kubernetes Engine, Google Cloud Source Repositories, Google Cloud Container Builder et Spinnaker. Après avoir créé un exemple d'application, vous allez configurer ces services pour qu'ils conçoivent, testent et déploient le pipeline de façon automatique.
        Démarrer l'atelier pratique
        Diagramme

        Déployer et exécuter des applications

        Déployer une application Web conteneurisée

        Créez une application Web conteneurisée, testez-la localement, puis déployez-la sur un cluster Google Kubernetes Engine (GKE), le tout directement depuis l'éditeur Cloud Shell. À la fin de ce court tutoriel, vous saurez comment créer, modifier et déboguer une application Kubernetes.
        Démarrer le tutoriel

        Déployer une application Web conteneurisée

        Créez une application Web conteneurisée, testez-la localement, puis déployez-la sur un cluster Google Kubernetes Engine (GKE), le tout directement depuis l'éditeur Cloud Shell. À la fin de ce court tutoriel, vous saurez comment créer, modifier et déboguer une application Kubernetes.
        Démarrer le tutoriel

        Trouver le bon partenaire pour déployer et exécuter votre solution

        Déployez et exécutez votre solution sur GKE avec l'aide de nos partenaires de confiance tels que WALT Labs, Zencore, FTG et bien d'autres.

          Current déploie et exécute ses applications sur GKE

          Current, l'une des principales banques "challenger" de New York, héberge désormais la plupart de ses applications dans des conteneurs Docker (y compris l'API GraphQL, essentielle à l'entreprise) et utilise GKE pour automatiser le déploiement des clusters et la gestion des applications conteneurisées.
          Découvrir comment Current a déployé ses applications avec GKE
          Cartes de crédit Visa délivrées par Current (l'entreprise)

          Migrer des charges de travail

          Migrer une application à deux niveaux vers GKE

          Migrate to Containers vous permet de migrer des charges de travail et de les convertir directement en conteneurs dans GKE. Effectuez la migration d'une application LAMP à deux niveaux, avec des VM d'applications et de bases de données, de VMware vers GKE.
          Schéma de référence

          Migrer une application à deux niveaux vers GKE

          Migrate to Containers vous permet de migrer des charges de travail et de les convertir directement en conteneurs dans GKE. Effectuez la migration d'une application LAMP à deux niveaux, avec des VM d'applications et de bases de données, de VMware vers GKE.
          Schéma de référence

          Partenaires et services de migration

          Faites appel à un partenaire de confiance pour bénéficier de Google Kubernetes Engine sur site et de la gestion optimale de Kubernetes sur votre infrastructure privée. Vous pouvez également sélectionner l'un des services de migration proposés sur Google Cloud Marketplace.
          Rechercher un partenaire de migration

          Tarification

          Fonctionnement des tarifs de GKEUne fois les crédits gratuits utilisés, le coût total est basé sur l'édition, le mode de fonctionnement du cluster, les frais de gestion du cluster et les frais de transfert de données entrant applicables.
          ServiceDescriptionPrix (USD)
          Version gratuite

          La version gratuite de GKE fournit 74,40 $ de crédits mensuels par compte de facturation, appliqués aux clusters zonaux et Autopilot.

          Gratuit

          Kubernetes

          Édition Enterprise

          Inclut toutes les fonctionnalités de l'édition Standard, mais également les opérations inter-équipes, la gestion multicluster et l'accès en libre-service, des fonctionnalités avancées de sécurité, de maillage de services et de configuration, ainsi qu'une console unifiée.

          0,0083 $

          par vCPU et par heure

          Édition Standard

          Inclut la gestion entièrement automatisée du cycle de vie des clusters, l'autoscaling des pods et des clusters, la visibilité des coûts et l'optimisation automatisée des coûts d'infrastructure.

          0,10 $

          par cluster et par heure

          Calcul

          Mode Autopilot : ressources de processeur, de mémoire et de calcul provisionnées pour vos pods.

          Mode Standard : chaque instance vous est facturée selon les tarifs de Compute Engine.

          Consultez les tarifs de Compute Engine.

          Apprenez-en davantage sur les tarifs de GKE. Afficher le détail des tarifs

          Fonctionnement des tarifs de GKE

          Une fois les crédits gratuits utilisés, le coût total est basé sur l'édition, le mode de fonctionnement du cluster, les frais de gestion du cluster et les frais de transfert de données entrant applicables.

          Version gratuite
          Description

          La version gratuite de GKE fournit 74,40 $ de crédits mensuels par compte de facturation, appliqués aux clusters zonaux et Autopilot.

          Prix (USD)

          Gratuit

          Kubernetes
          Description

          Édition Enterprise

          Inclut toutes les fonctionnalités de l'édition Standard, mais également les opérations inter-équipes, la gestion multicluster et l'accès en libre-service, des fonctionnalités avancées de sécurité, de maillage de services et de configuration, ainsi qu'une console unifiée.

          Prix (USD)

          0,0083 $

          par vCPU et par heure

          Édition Standard

          Inclut la gestion entièrement automatisée du cycle de vie des clusters, l'autoscaling des pods et des clusters, la visibilité des coûts et l'optimisation automatisée des coûts d'infrastructure.

          Description

          0,10 $

          par cluster et par heure

          Calcul
          Description

          Mode Autopilot : ressources de processeur, de mémoire et de calcul provisionnées pour vos pods.

          Mode Standard : chaque instance vous est facturée selon les tarifs de Compute Engine.

          Prix (USD)

          Consultez les tarifs de Compute Engine.

          Apprenez-en davantage sur les tarifs de GKE. Afficher le détail des tarifs

          Simulateur de coût

          Estimez vos coûts GKE mensuels (l'estimation inclut les tarifs et les frais spécifiques à une région).

          Devis personnalisé

          Contactez notre équipe commerciale pour obtenir un devis personnalisé pour votre entreprise.

          Commencer votre démonstration de faisabilité

          Les nouveaux clients bénéficient de 300 $ de crédits

          Déployer une application dans un cluster GKE

          Obtenir l'aide d'un expert pour évaluer et implémenter GKE

          Déploiement par clic des applications Kubernetes

          Découvrez comment déployer des applications et configurer la surveillance

          Google Cloud
          • ‪English‬
          • ‪Deutsch‬
          • ‪Español‬
          • ‪Español (Latinoamérica)‬
          • ‪Français‬
          • ‪Indonesia‬
          • ‪Italiano‬
          • ‪Português (Brasil)‬
          • ‪简体中文‬
          • ‪繁體中文‬
          • ‪日本語‬
          • ‪한국어‬
          Console
          • Transformation numérique
          • Accélérez la reprise des activités de votre entreprise et assurez-vous un avenir plus serein grâce à des solutions permettant d'effectuer un déploiement hybride et multicloud, de générer des insights intelligents et de maintenir les employés connectés.
          • Faites des économies grâce à notre approche transparente concernant la tarification
          • Le paiement à l'usage de Google Cloud permet de réaliser des économies automatiques basées sur votre utilisation mensuelle et des tarifs réduits pour les ressources prépayées. Contactez-nous dès aujourd'hui afin d'obtenir un devis.
          Google Cloud