Google Kubernetes Engine

Cluster de conteneurs GKE dans Google Cloud
Exécutez des applications avancées sur un service Kubernetes sécurisé et géré

GKE est une plate-forme de qualité professionnelle pour applications en conteneurs. Elle permet d'exécuter des API, des services de backend et des applications Web simples comme complexes, avec et sans état, incluant IA et ML, sous Linux et Windows. Tirez profit de fonctionnalités inédites, comme notre autoscaling quadridirectionnel et notre gestion sans contrainte. Optimisez le provisionnement des GPU et des TPU, utilisez des outils intégrés pour les développeurs et profitez de l'assistance multicluster des ingénieurs SRE.

  • Démarrez rapidement en installant des clusters d'un seul clic.
  • Tirez profit d'un plan de contrôle à haute disponibilité comprenant des clusters multizones et régionaux.
  • Éliminez les coûts opérationnels grâce à la réparation automatique, à la mise à niveau automatique et aux canaux de publication.
  • Sécurisez votre infrastructure par défaut grâce, entre autres, à l'analyse des failles des images de conteneurs et au chiffrement des données.
  • Surveillance Stackdriver intégrée avec des vues spécifiques aux infrastructures, aux applications et à Kubernetes.

Accélérez le développement d'applications sans compromettre la sécurité

Développez une grande variété d'applications pour des accélérateurs d'applications et applications avec état et sans serveur. Utilisez les outils CI/CD Kubernetes natifs pour sécuriser et accélérer chaque étape du cycle de compilation et de déploiement.

Rationalisez les opérations avec les canaux de publication

Choisissez le canal qui répond à vos besoins commerciaux. Rapides, standards et stables, les canaux de publication proposent différentes fréquences de mise à niveau des nœuds et offrent des niveaux d'assistance en rapport avec le canal utilisé.

Laissez les ingénieurs SRE de Google gérer l'infrastructure

Gagnez du temps pour vous concentrer sur vos applications grâce à l'aide des ingénieurs en fiabilité des sites (SRE) de Google. Nos ingénieurs SRE surveillent en continu votre cluster et ses ressources de calcul, de mise en réseau et de stockage.

Principales fonctionnalités

Pour les développeurs

Applications Kubernetes

Des solutions en conteneurs prêtes à l'emploi dotées de modèles de déploiement prédéfinis, offrant portabilité, licences simplifiées et facturation consolidée. Au-delà de simples images de conteneurs, il s'agit d'applications Open Source commerciales conçues par Google, permettant aux développeurs d'augmenter leur productivité et disponibles dès maintenant sur Google Cloud Marketplace.

Pour les opérateurs de plate-forme

Autoscaling des pods et des clusters

Autoscaling horizontal des pods basé sur l'utilisation des processeurs ou des métriques personnalisées, autoscaling des clusters qui fonctionne par pool de nœuds, autoscaling vertical des pods qui analyse en continu l'utilisation de la mémoire et des processeurs des pods, et qui ajuste dynamiquement les demandes de ressources mémoire et de processeur dans la réponse. Scaling automatique du pool de nœuds et des clusters à travers différents pools de nœuds, en fonction des exigences changeantes des charges de travail.

Pour les administrateurs de sécurité

Sécurité des charges de travail et du réseau

GKE Sandbox fournit une seconde ligne de défense entre les charge de travail conteneurisées sur GKE et augmente leur niveau de sécurité. Les clusters GKE sont nativement compatibles avec la règle de réseau Kubernetes consistant à restreindre le trafic avec des règles de pare-feu au niveau des pods. Des clusters privés dans GKE peuvent être restreints vers un point de terminaison privé ou un point de terminaison public auquel seules certaines plages d'adresses peuvent accéder.

Découvrir toutes les fonctionnalités

Témoignages de clients

Sélection

  • Divise par 10 le temps de réponse moyen de l'API aux requêtes

  • Double le nombre de nœuds Kubernetes en quelques secondes

  • Identifie des points de contrôle pour améliorer les processus les plus longs

Secteur

  • Commerce de détail et biens de consommation

Voir d'autres clients

Nouveautés

Documentation

Tutoriel
Démarrage rapide de GKE

Indique comment déployer une application en conteneurs avec GKE. Suivez les étapes par vous-même ou essayez l'atelier de formation inclus.

Bonne pratique
Bonnes pratiques pour exploiter des conteneurs

Découvrez les bonnes pratiques pour exploiter des conteneurs dans GKE.

Tutoriel
Tutoriel GKE : déployer une application Web en conteneurs

Dans ce tutoriel, vous découvrirez comment empaqueter une application Web dans une image de conteneur Docker et exécuter cette image sur un cluster GKE.

Tutoriel
Atelier ludique

Déployez une application en conteneurs avec GKE en moins de 30 minutes. Marquez des points et gagnez des badges en cours de route.

Bonne pratique
Préparer un environnement GKE pour la production

Respectez les conseils et la méthodologie pour intégrer vos charges de travail à GKE de manière plus sécurisée, plus fiable et plus économique.

Cas d'utilisation courants

Développement d'applications modernes

GKE accélère le développement des applications et les itérations en facilitant le déploiement, la mise à jour, et la gestion de vos applications et services.

Pipeline de diffusion continue

Pipeline de diffusion continue utilisant GKE, Cloud Source Repositories, Cloud Build et Spinnaker pour Google Cloud. Configurez ces services pour compiler, tester et déployer automatiquement une application. Une fois le code de l'application mis à jour, ces modifications amènent le pipeline de diffusion continue à répéter automatiquement ces opérations (compilation, test et déploiement) pour la nouvelle version.

Architecture illustrant un pipeline de diffusion continue avec GKEDevelopersUsersCloud SourceRepositoriesSpinnakerCloud LoadBalancingCloud StorageCloud BuildGoogleKubernetes Enginemy-app-canarymy-app-prodGoogleKubernetes EngineGoogleKubernetes EngineRedisCloud Memorystore

Migration de VM vers des conteneurs

Migrate for Anthos vous permet de migrer des charges de travail et de les convertir directement en conteneurs dans GKE. Les charges de travail cibles peuvent inclure des serveurs physiques et des VM sur site, sur Compute Engine ou dans d'autres clouds, ce qui vous permet de transformer facilement votre infrastructure existante. Et surtout, Migrate for Anthos est disponible sans frais supplémentaires et ne nécessite pas d'abonnement Anthos.

Migrer une application à deux niveaux vers GKE

Effectuez la migration d'une application LAMP à deux niveaux, avec des VM d'applications et de bases de données, de VMware vers GKE. Améliorez la sécurité en rendant la base de données accessible depuis le conteneur de l'application seulement, et non depuis l'extérieur du cluster. Remplacez l'accès SSH par un accès authentifié via une interface système grâce à kubectl. Consultez les journaux du système du conteneur grâce à l'intégration automatique de Stackdriver.

Architecture illustrant la migration d'une application à deux niveaux vers GKEGoogle Kubernetes EngineOn-premises Domain ControllerCorp DNSUsersOn-premises SubnetVPN InterconnectVPC Subnet SubnetVPCApp SVCNetwork PolicyDatabase SVCuser-space only- systemd+App Container user-space only- systemd+Database Container Cloud Extension

Toutes les fonctionnalités

Gestion de l'authentification et des accès Contrôlez les accès dans votre cluster à l'aide de vos comptes Google et de rôles configurés.
Réseau hybride Réservez une plage d'adresses IP pour votre cluster afin que ses adresses IP coexistent avec celles de votre réseau privé via Google Cloud VPN.
Sécurité et conformité GKE est géré par l'équipe de sécurité Google, composée de plus de 750 spécialistes. De plus, cet environnement est conforme à la loi HIPAA et à la norme PCI DSS 3.1.
Surveillance et journalisation intégrées Activez Stackdriver Logging et Stackdriver Monitoring en cochant simplement les cases correspondantes, afin d'analyser facilement les performances de votre application.
Options des clusters Choisissez des clusters adaptés à la disponibilité, à la stabilité des versions, à l'isolation et aux exigences de trafic des pods de vos charges de travail.
Autoscaling Effectuez le scaling automatique du déploiement de votre application en fonction de l'utilisation des ressources (processeur et mémoire).
Mise à niveau automatique Maintenez votre cluster automatiquement à jour en utilisant la dernière version de Kubernetes. Les mises à jour de Kubernetes sont rapidement disponibles dans GKE.
Réparation automatique Lorsque la réparation automatique est activée, si un nœud est défaillant lors d'une vérification de l'état, GKE lance un processus pour le réparer.
Limites de ressources Kubernetes vous permet de préciser le nombre de processeurs et la quantité de mémoire (RAM) dont chaque conteneur a besoin, afin d'organiser les charges de travail au sein de votre cluster de façon optimale.
Isolement du conteneur Utilisez GKE Sandbox pour établir une seconde ligne de défense entre les charges de travail conteneurisées sur GKE et augmenter leur niveau de sécurité.
Prise en charge des applications avec état GKE n'est pas réservé aux applications 12 facteurs. Vous pouvez associer un espace de stockage sur disque persistant aux conteneurs et même héberger des bases de données complètes.
Compatibilité avec les images Docker GKE est compatible avec le format de conteneur Docker.
Entièrement géré Les clusters GKE sont entièrement gérés par les ingénieurs en fiabilité des sites (SRE) de Google, qui assurent la disponibilité et l'actualisation de vos clusters.
OS spécialement conçu pour les conteneurs GKE s'exécute sur Container-Optimized OS, un système d'exploitation renforcé mis au point et géré par Google.
Registre de conteneurs privés L'intégration de Google Container Registry facilite le stockage de vos images Docker privées ainsi que leur accès.
Compilations rapides et cohérentes Utilisez Cloud Build pour déployer de manière fiable vos conteneurs sur GKE sans avoir à configurer l'authentification.
Portabilité des charges de travail sur site et dans le cloud GKE est conforme au programme Certified Kubernetes, ce qui rend possible la portabilité des charges de travail sur d'autres plates-formes Kubernetes, entre plusieurs clouds et sur site.
Assistance GPU et TPU GKE est compatible avec les GPU et TPU, et facilite l'exécution du ML, des GPU généraux, du HPC ainsi que d'autres charges de travail auxquelles sont appliqués des accélérateurs matériels spécialisés.
Tableau de bord intégré Cloud Console propose des tableaux de bord utiles pour les clusters de votre projet et leurs ressources. Vous pouvez vous en servir pour afficher, inspecter, gérer et supprimer les ressources de vos clusters.
VM préemptives Instances abordables et à courte durée de vie conçues pour exécuter des tâches par lot et des charges de travail tolérantes aux pannes. Les VM préemptives permettent de faire jusqu'à 80 % d'économies tout en offrant des performances et des capacités identiques à celles des VM standards.
Compatibilité avec les disques persistants Stockage de blocs fiable et offrant de hautes performances pour les instances de conteneurs. Les données sont enregistrées de manière redondante pour assurer l'intégrité, la flexibilité nécessaire pour redimensionner le stockage sans interruption et le chiffrement automatique. Vous pouvez créer des disques persistants au format HDD ou SSD. Vous pouvez également prendre des instantanés de votre disque persistant et en créer d'autres à partir de ces instantanés.
Compatibilité avec le SSD local GKE offre un stockage de blocs sur un disque dur SSD local dont les données sont toujours chiffrées. Les disques SSD locaux sont rattachés physiquement au serveur qui héberge l'instance de machine virtuelle. Ils permettent un nombre très élevé d'opérations d'entrée/sortie par seconde (IOPS) et offrent une latence très faible par rapport aux disques persistants.
Équilibrage de charge au niveau mondial Notre technologie d'équilibrage de charge vous aide à répartir les requêtes entrantes sur des pools d'instances dans différentes régions. Vous optimisez ainsi le débit, la disponibilité et les performances, tout en limitant les coûts.
Compatibilité avec Linux et Windows Entièrement compatible avec les charges de travail Linux et Windows, GKE peut exécuter des nœuds Windows Server et Linux.
Compatibilité avec le cloud hybride et multicloud Tirez profit de Kubernetes et de la technologie cloud dans votre propre centre de données. Bénéficiez de l'expérience GKE avec des installations simples, rapides et gérées, ainsi que des mises à jour validées par Google depuis Anthos GKE.
Conteneurs sans serveur Exécutez des conteneurs sans serveur et sans état sans avoir à gérer l'infrastructure et redimensionnez-les automatiquement avec Cloud Run.
Mesure de l'utilisation Visibilité précise sur vos clusters Kubernetes. Consultez l'utilisation des ressources de votre cluster GKE réparties par libellé et par espace de noms, et distribuez-la à des entités représentatives.
Canaux de publication Les canaux de publication permettent de mieux contrôler les mises à jour automatiques que chaque cluster reçoit en fonction de ses exigences de stabilité et de ses charges de travail. Vous pouvez choisir parmi trois catégories : rapide, standard ou stable. Chaque canal a une fréquence de publication différente et cible différents types de charges de travail.
Sécurité sur la chaîne d'approvisionnement logicielle Vérifiez, appliquez et améliorez la sécurité des packages et composants d'infrastructure utilisés pour les images de conteneurs avec Container Analysis.
Facturation à la seconde La facturation s'effectue par tranches d'une seconde. Vous ne payez que le temps de calcul que vous utilisez.

Tarifs

La facturation de GKE est basée sur la tarification des instances Compute Engine pour chaque nœud de votre cluster, jusqu'à la suppression du cluster.

Afficher le détail des tarifs