Tarifs de Google Kubernetes Engine
Cette page explique la tarification des éditions, des ressources de calcul, du mode de fonctionnement du cluster, les frais de gestion des clusters et les frais d'entrée applicables dans Google Kubernetes Engine (GKE).
Édition Standard
Inclut la gestion entièrement automatisée du cycle de vie des clusters, l'autoscaling des pods et des clusters, la visibilité des coûts et l'optimisation automatisée des coûts d'infrastructure. Tarifs de 0,10 $par cluster et par heure.
Édition Enterprise
Inclut les fonctionnalités de l'édition Standard et un accès multi-équipes, multicluster et en libre-service opérations, sécurité avancée, maillage de services, configuration, bonnes pratiques des métriques d'observabilité et une console unifiée. Tarif de 0,00822 $par vCPU par heure.
En activant GKE Enterprise dans votre projet, vous bénéficiez d'une utilisation complète de GKE Plate-forme d'entreprise, y compris avec des fonctionnalités hybrides et multicloud Une fois la fonctionnalité activée, Les frais de GKE Enterprise s'appliquent à tous les clusters GKE Enterprise en fonction du nombre de processeurs virtuels pour le cluster GKE Enterprise, facturés à l'heure. Un vCPU est considéré comme "géré". par GKE Enterprise lorsqu'elles sont considérées comme des ressources de calcul programmables par le plan de contrôle GKE Enterprise, c'est-à-dire tous les vCPU et en excluant (pour les options sur site) à la fois le cluster d'administrateur les nœuds du plan de contrôle. Pour en savoir plus sur les Pour connaître les fonctionnalités de GKE Enterprise dans chaque environnement, consultez le guide des options de déploiement.
Si vous utilisez des clusters Autopilot avec GKE Enterprise, vous êtes facturé par vCPU au niveau Enterprise en plus du modèle de tarification décrit dans la section Tarifs d'Autopilot.
Grille tarifaire
GKE Enterprise propose un paiement à l'usage : GKE vous est facturé des clusters Enterprise à mesure que vous les utilisez aux tarifs indiqués ci-dessous. Vous pouvez commencez à utiliser GKE Enterprise avec paiement à l'usage dès que vous le souhaitez en suivant les consultez nos guides de configuration.
Les tarifs sont indiqués en dollars américains (USD). Si vous ne payez pas en USD, les tarifs indiqués dans votre devise sur la page des SKU Cloud Platform s'appliquent. À la fin de chaque cycle de facturation, une facture indiquant l'utilisation que vous en faites est envoyée et frais.
Environnements de cloud public | Paiement à l'usage Prix catalogue (horaire) |
Paiement à l'usage Prix catalogue (mensuel) M |
---|---|---|
GKE Enterprise GC | 0,00822 $ /processeur virtuel | 6 $/processeur virtuel |
GKE Enterprise Multicloud (AWS) AWS | 0,00822 $ /processeur virtuel | 6 $/processeur virtuel |
GKE Enterprise multicloud (Azure) AZ | 0,00822 $ /processeur virtuel | 6 $/processeur virtuel |
GKE Enterprise Multicloud (clusters associés) AC | 0,00822 $ /processeur virtuel | 6 $/processeur virtuel |
Environnements sur site | Paiement à l'usage (à l'heure) | Paiement à l'usage (mensuel) Prix (mensuel) M |
---|---|---|
GDC (vSphere) | 0,03288 $/processeur virtuel | 24 $/processeur virtuel |
GDC (bare metal) BM, BM2 | 0,03288 $/processeur virtuel | 24 $/processeur virtuel |
M : tarif mensuel estimé sur la base de 730 heures par mois.
GC – La tarification de GKE Enterprise sur Google Cloud n'inclut pas les frais liés aux ressources Google Cloud telles que Compute Engine, Cloud Load Balancing et Cloud Storage.
AWS – La tarification de GKE Enterprise sur AWS n'inclut pas les coûts associés aux ressources AWS telles que EC2, ELB et S3. Le client est responsable des frais liés à ses ressources AWS.
AZ : la tarification de GKE Enterprise sur Azure n'inclut pas les coûts associés aux ressources Azure telles que les VM, les équilibreurs de charge et le stockage Azure. Le client est responsable des frais liés à ses ressources Azure.
BM : pour GKE Enterprise / GDC (logiciels uniquement) sur bare metal, si l'hyper-threading est activé, un processeur équivaut à deux processeurs virtuels à des fins de tarification. Si l'hyperthreading n'est pas activé, un processeur équivaut à un vCPU.
BM2 : l'environnement d'exécution des VM est une fonctionnalité qui peut être activée sur GKE Enterprise / GDC (logiciel uniquement) sur bare metal. L'utilisation d'un autre SKU ou d'un tarif supplémentaire n'est pas nécessaire.
AC : pour les clusters conformes à la norme CNCF. En savoir plus
Si vous êtes un nouveau client GKE Enterprise, vous pouvez essayer GKE Enterprise gratuitement pendant 90 jours maximum. L'infrastructure applicable vous est toujours facturée pendant l'essai. Pour vous inscrire, accédez à la console GKE et activez l'essai.
Si vous souhaitez à tout moment arrêter d'utiliser GKE Enterprise, suivez les instructions dans la section Désactiver GKE Enterprise.
Mode Autopilot
Les clusters Autopilot génèrent des frais fixes de 0,10 $/heure pour chaque cluster au-delà de la version gratuite, en plus des frais liés aux charges de travail que vous exécutez. Autopilot utilise un modèle de provisionnement basé sur les charges de travail, dans lequel les ressources sont provisionnées en fonction des exigences spécifiées dans la spécification des pods de vos charges de travail. GKE inclut un contrat de niveau de service financé par un financement, offrant une disponibilité de 99,95% pour le plan de contrôle, et de 99,9% pour les pods Autopilot dans plusieurs zones ou de 99,99% pour les pods GKE Enterprise Autopilot dans plusieurs régions. Les remises sur engagement d'utilisation vous permettent de réduire les coûts des charges de travail dont l'utilisation des ressources est prévisible.
Par défaut, les charges de travail que vous créez sont provisionnées sur notre plate-forme informatique à usage général. Seules les ressources demandées par les pods vous sont facturées (et non la capacité de calcul inutilisée ou les frais généraux du système). Si vos charges de travail doivent évoluer au-delà de 28 vCPU, vous pouvez utiliser les classes de calcul "Équilibrée" ou "Scaling horizontal". Elles suivent la même approche du provisionnement et de la facturation des calculs basés sur les pods.
Vous pouvez également demander du matériel spécifique, tel que des accélérateurs ou des séries de machines Compute Engine pour vos charges de travail. Pour ces charges de travail spécialisées, Autopilot provisionne des nœuds disposant au minimum de la capacité de calcul demandée pour la charge de travail, et vous facture l'intégralité du nœud. Ce modèle de calcul basé sur les nœuds est idéal pour les charges de travail ayant des exigences matérielles spécifiques. Toutefois, vous devez réfléchir à la façon d'utiliser pleinement les ressources provisionnées.
Ces approches de provisionnement et de facturation des calculs signifient que vous pouvez utiliser du matériel de calcul spécifique pour des charges de travail spécialisées tout en utilisant l'approche plus simple de provisionnement des calculs basés sur les pods pour tout le reste.
Pods sans configuration matérielle spécifique
La plate-forme à usage général par défaut et les classes de calcul "Équilibrée" et "Scaling horizontal" utilisent un modèle de facturation basé sur les pods. Vous êtes facturé par tranches d'une seconde pour les ressources de processeur, de mémoire et de stockage éphémère demandées par vos pods en cours d'exécution dans les demandes de ressources de pod, sans durée minimale. Ce modèle de facturation s'applique à la plate-forme à usage général par défaut, ainsi qu'aux classes de calcul "Équilibrée" et "Scaling horizontal". Ce modèle doit tenir compte des points suivants:
Autopilot définit une valeur par défaut si aucune demande de ressource n'a été définie, et augmente les valeurs qui ne respectent pas les minimums ou le ratio processeur/mémoire requis. Définissez les demandes de ressources en fonction des besoins de vos charges de travail pour obtenir le meilleur prix.
Vous ne payez que pour les pods en cours de création ou d'exécution (ceux en phase Running et ceux dont l'état ContainerCreating est dans la phase "Pending"). Les pods en attente de planification et ceux qui sont arrêtés (comme les pods marqués comme réussis ou en échec) ne sont pas facturés.
Vous n'êtes pas facturé pour les pods système, la surcharge du système d'exploitation, l'espace non alloué ou les pods non planifiés. Pour un coût optimal, définissez les demandes de ressources et le nombre d'instances répliquées de pods appropriés pour vos charges de travail. Avec le modèle de facturation basé sur les pods, la taille ou la quantité de nœuds sous-jacentes n'ont pas d'importance pour la facturation.
Pods à usage général (par défaut)
*Les prix au comptant sont dynamiques et peuvent changer jusqu'à une fois tous les 30 jours, mais proposez toujours des remises de 60 à 91% sur le prix standard correspondant. pour le processeur, la mémoire et le GPU.
Pods de classe de calcul équilibrés et à scaling horizontal
*Les prix au comptant sont dynamiques et peuvent changer jusqu'à une fois tous les 30 jours, mais proposez toujours des remises de 60 à 91% sur le prix standard correspondant. pour le processeur, la mémoire et le GPU.
Pods ayant des exigences matérielles spécifiques
Autopilot utilise un modèle de facturation basé sur les nœuds lorsque vous demandez du matériel spécifique, comme des accélérateurs ou des séries de machines Compute Engine. Lorsque vos pods demandent ces types de ressources matérielles, GKE alloue les types de machines Compute Engine prédéfinis qui correspondent le mieux aux demandes (ils peuvent donc être plus importants que ce que votre pod a demandé). Les ressources de VM sous-jacentes vous sont facturées, auxquelles s'appliquent les remises applicables telles que les remises sur engagement d'utilisation de Compute Engine, ainsi qu'un supplément de gestion sur les ressources de calcul.
Étant donné que l'intégralité de la machine est facturée, assurez-vous que ces charges de travail spécialisées utilisent efficacement l'ensemble des ressources des machines provisionnées. Cela ne s'applique pas au modèle de facturation par défaut basé sur les pods, qui convient parfaitement aux petites charges de travail (celles qui demandent beaucoup moins de ressources que la plus petite taille de machine de la série de machines) et aux charges de travail qui ne correspondent pas efficacement aux types de machines Compute Engine prédéfinis.
Primes de gestion des nœuds pour les accélérateurs et des séries de machines spécifiques
*Les prix au comptant sont dynamiques et peuvent changer jusqu'à une fois tous les 30 jours, mais
proposez toujours des remises de 60 à 91% sur le prix standard correspondant.
pour le processeur, la mémoire et le GPU.
Mode standard
Les clusters créés en mode standard font l'objet de frais de gestion s'élevant à 0,10 $ par cluster et par heure, indépendamment de la taille ou de la topologie du cluster, après le niveau gratuit. Les frais de gestion des clusters GKE ne s'appliquent pas aux clusters GKE Enterprise.
En mode Standard, GKE utilise des instances de nœuds de calcul dans le cluster des instances Compute Engine. Chacune de ces instances vous est facturée conformément aux tarifs de Compute Engine, jusqu'à ce que les nœuds soient supprimés. Les ressources Compute Engine sont facturées à la seconde avec des frais d'utilisation d'une minute au minimum.
Compute Engine propose des remises sur engagement d'utilisation qui s'appliquent aux instances Compute Engine du cluster. Pour en savoir plus, consultez la page Remises sur engagement d'utilisation dans Compute Engine.
GKE intègre un contrat de niveau de service soutenu financièrement, garantissant une disponibilité de 99,95 % pour le plan de contrôle des clusters régionaux et de 99,5 % pour le plan de contrôle des clusters zonaux.
Frais de gestion des clusters et version gratuite
Les frais de gestion des clusters de 0,10 $ par cluster et par heure (facturés par seconde) s'appliquent à tous les clusters GKE indépendamment du mode de fonctionnement, de la taille ou de la topologie du cluster.
La version gratuite de GKE fournit 74,40 $ de crédits mensuels par compte de facturation, appliqués aux clusters zonaux et Autopilot. Si vous n'utilisez qu'un seul cluster zonal ou Autopilot, ce crédit couvrira au minimum le coût total de ce cluster chaque mois. Les crédits de version gratuite non utilisés ne sont pas appliqués et ne peuvent pas être appliqués à d'autres SKU (par exemple, ils ne peuvent pas être appliqués à des frais de calcul, ni aux frais de cluster pour les clusters régionaux).
Les conditions suivantes s'appliquent aux frais de gestion de clusters :
Les frais restent les mêmes, indépendamment de la taille ou de la topologie du cluster. Les clusters à zone unique, multizones, régionaux ou Autopilot génèrent tous les mêmes frais fixes par cluster.
Ces frais ne s'appliquent pas aux clusters GKE Enterprise.
L'exemple suivant montre comment les frais de gestion des clusters et le crédit de la version gratuite sont appliqués aux comptes de facturation d'une organisation. Dans cet exemple, les heures de fonctionnement des clusters régionaux et zonaux de votre organisation sont indiquées, à l'exception de GKE Enterprise d'heures de cluster. Le montant total facturable est calculé mensuellement, et le crédit mensuel offert est appliqué.
Comptes de facturation de l'entreprise | Heures de fonctionnement mensuelles des clusters Autopilot | Heures de fonctionnement mensuelles des clusters régionaux | Heures de fonctionnement mensuelles des clusters zonaux | Crédit de la version gratuite utilisé |
Total mensuel des frais de gestion des clusters GKE (à 0,10 $/heure par cluster) |
---|---|---|---|---|---|
compte_1 | 744 | 0 | 0 | 74,40 $ | 0 $ |
compte_2 | 0 | 1000 | 500 | 50 $ | 100 $ |
compte_3 | 1000 | 1000 | 1000 | 74,40 $ | 225,60 $ |
Période d'assistance étendue
Les clusters utilisant la version disponible étendue peuvent conserver leur version mineure de GKE et bénéficier d'une assistance étendue au-delà de la période d'assistance standard. Avec la compatibilité étendue, vous pouvez conserver une version mineure de GKE, compatible, pendant 24 mois maximum. Des frais supplémentaires de gestion des clusters GKE prolongés vous seront facturés une fois que le cluster aura atteint la fin de la période d'assistance standard. L'utilisation de la version disponible étendue n'entraîne aucuns frais supplémentaires pendant la période d'assistance standard. Vous pouvez à tout moment passer à une version mineure couverte par la période d'assistance standard. Pour en savoir plus, consultez la page Obtenir un support à long terme avec le canal étendu.
Tarifs de 0,50 $par cluster et par heure. Les frais de gestion des clusters GKE pour une période prolongée s'ajoutent aux frais de gestion des clusters GKE de 0,10 $par cluster et par heure, soit un total de 0,60 $par cluster et par heure. Les frais de gestion des clusters GKE étendues sont inclus dans l'édition GKE Enterprise.
Multi Cluster Ingress
La valeur Multi Cluster Ingress est sont inclus dans GKE Enterprise. Vous n'avez donc pas besoin des frais d'utilisation d'Multi Cluster Ingress dans un cluster GKE Enterprise sur Google Cloud. Si vous avez des clusters GKE sans licence GKE Enterprise, facturé au tarif autonome lorsque vous utilisez Multi Cluster Ingress. La la fonctionnalité d'Multi Cluster Ingress reste la même, que vous l'utilisiez Licences GKE Enterprise ou tarifs autonomes. Vous pouvez changer votre façon facturés à tout moment par de l'enregistrement ou de la désinscription dans GKE Enterprise.
Dans tous les cas, les équilibreurs de charge et le trafic associés aux ressources MultiClusterIngress
sont facturés séparément, conformément aux tarifs de l'équilibreur de charge.
Licences GKE Enterprise
Multi Cluster Ingress est inclus dans GKE Enterprise. Si vous activez le paramètre
l'API GKE Enterprise (gcloud services enable anthos.googleapis.com
) et votre
les clusters sont enregistrés dans un parc ;
l'utilisation de Multi Cluster Ingress ne génère aucuns frais supplémentaires.
Tarification autonome
La tarification autonome des entrées multiclusters est basée sur le nombre de pods considérés comme des backends d'entrée multicluster pour un coût de 3 $ par pod backend et par mois (730 heures). Cette tarification est d'environ 0,0041096 $ par pod backend et par heure, facturée par tranche de 5 minutes.
Le nombre de pods backend correspond au nombre total de pods membres des ressources MultiClusterService
sur l'ensemble des clusters GKE de votre projet. L'exemple suivant montre comment les pods backend sont comptabilisés :
L'objet Ingress multicluster ne facture que les pods qui sont des backends directs des ressources MultiClusterIngress
. Les pods qui ne sont pas des backends de l'objet Ingress multicluster ne sont pas facturés.
Dans cet exemple, il existe trois ressources MultiClusterService
sur deux clusters avec des backends de pod. Les pods qui sont membres des services A, B et C ne sont pas des backends directs et ne sont pas facturés selon la tarification autonome.
Tous les pods membres de plusieurs ressources MultiClusterService
sont facturés pour chaque MultiClusterService
dont ils sont membres. Deux pods sont membres à la fois des ressources MultiClusterService
D et E.
Le tableau suivant récapitule le coût mensuel total de la facturation autonome pour les deux clusters de l'exemple :
MultiClusterService | Pods | Coût mensuel |
---|---|---|
D | 3 | 9 $ |
E | 4 | 12 $ |
F | 1 | 3 $ |
Total | 8 | 24 $ |
Pour en savoir plus sur la manière de configurer la facturation de l'entrée multicluster, consultez la section sur l'activation des API.
Sauvegarde pour GKE
La sauvegarde pour GKE est un service distinct de GKE qui peut être utilisé pour protéger et gérer les données GKE.
Le service de sauvegarde pour GKE génère des frais selon deux dimensions: d'abord, des frais de gestion des sauvegardes GKE, basés sur le nombre de pods GKE protégés, et des frais de stockage de sauvegarde basés sur la quantité de données stockées (Gio). Ces deux types de frais sont calculés sur une base mensuelle, comme pour la facturation des autres fonctionnalités de GKE.
Par exemple, un client disposant d'un seul plan de sauvegarde dans l'Iowa (us-central1), qui sauvegarde en moyenne 20 pods par mois et stocke 200 Gio de données de stockage de sauvegarde dans l'Iowa, devra payer 25,60 $de frais. Ces 25,60 $incluent 20 $par mois pour la gestion des sauvegardes GKE (20 x 1,00 $ / pod-mois) et 5,60 $pour le stockage des sauvegardes (200 x 0,028 $ / Gio par mois).
À partir du 26 juin 2023, de nouveaux frais de transfert de données sortantes seront appliqués aux sauvegardes stockées dans une région différente de celle du cluster GKE source. Ces frais sont basés sur les régions source et de destination, ainsi que sur le nombre d'octets transférés pour chaque région "interrégionale". opération de sauvegarde:
Emplacement du cluster GKE | Emplacement de la sauvegarde | |||||||
---|---|---|---|---|---|---|---|---|
Amérique septentrionale | Europe | Asie | Indonésie | Océanie | Moyen-Orient | Amérique latine | Afrique | |
Amérique septentrionale | 0,02 $/Gio | 0,05 $/Gio | 0,08 $/Gio | 0,10 $/Gio | 0,10 $/Gio | 0,11 $/Gio | 0,14 $/Gio | 0,11 $/Gio |
Europe | 0,05 $/Gio | 0,02 $/Gio | 0,08 $/Gio | 0,10 $/Gio | 0,10 $/Gio | 0,11 $/Gio | 0,14 $/Gio | 0,11 $/Gio |
Asie | 0,08 $/Gio | 0,08 $/Gio | 0,08 $/Gio | 0,10 $/Gio | 0,10 $/Gio | 0,11 $/Gio | 0,14 $/Gio | 0,11 $/Gio |
Indonésie | 0,10 $/Gio | 0,10 $/Gio | 0,10 $/Gio | N/A | 0,08 $/Gio | 0,11 $/Gio | 0,14 $/Gio | 0,14 $/Gio |
Océanie | 0,10 $/Gio | 0,10 $/Gio | 0,10 $/Gio | 0,08 $/Gio | 0,08 $/Gio | 0,11 $/Gio | 0,14 $/Gio | 0,14 $/Gio |
Moyen-Orient | 0,11 $/Gio | 0,11 $/Gio | 0,11 $/Gio | 0,11 $/Gio | 0,11 $/Gio | 0,08 $/Gio | 0,14 $/Gio | 0,11 $/Gio |
Amérique latine | 0,14 $/Gio | 0,14 $/Gio | 0,14 $/Gio | 0,14 $/Gio | 0,14 $/Gio | 0,14 $/Gio | 0,14 $/Gio | 0,14 $/Gio |
Afrique | 0,11 $/Gio | 0,11 $/Gio | 0,11 $/Gio | 0,14 $/Gio | 0,14 $/Gio | 0,11 $/Gio | 0,14 $/Gio | N/A |
Simulateur de coût
Vous pouvez également utiliser le Simulateur de coût Google Cloud pour estimer vos frais GKE mensuels, dont les frais de gestion des clusters et les tarifs des nœuds de calcul.
Étape suivante
- Consultez la documentation de Google Kubernetes Engine.
- Faites vos premiers pas avec Google Kubernetes Engine
- Essayez le Simulateur de coût.
- Découvrez les solutions et cas d'utilisation de Google Kubernetes Engine.