En esta página, se muestra cómo ver las métricas de uso relacionadas con los costos para tus clústeres de Google Kubernetes Engine (GKE). Estas métricas describen la eficacia con la que tus clústeres y cargas de trabajo de GKE usan los recursos de Compute Engine que pagas.
Puedes usar esta información para optimizar la proporción entre costo y rendimiento de tus clústeres y cargas de trabajo.
Métricas de optimización de costos
En la pestaña Optimización de costos en la consola de Google Cloud, puedes ver las siguientes métricas para tus clústeres y cargas de trabajo:
Uso de CPU: Muestra un gráfico de barras que muestra la relación entre las siguientes métricas de CPU:
Usado: La cantidad de CPU que usan todos los contenedores en el clúster o la carga de trabajo. Se calcula a partir de la métrica container/cpu/core_usage_time.
Solicitada: La cantidad de CPU que solicitan todos los contenedores en el clúster o la carga de trabajo. Se calcula a partir de la métrica container/cpu/request_cores.
Asignable: La cantidad de CPU asignada a todos los nodos del clúster.
Esta métrica se muestra en la página Clústeres. Se calcula a partir de la métrica node/cpu/allocatable_cores. En el caso de los clústeres de Autopilot, no hay un valor asignable, ya que Google ajusta las asignaciones de CPU de forma automática.
Límite: El límite de CPU para todos los contenedores en una carga de trabajo. Esta métrica se muestra en la página Cargas de trabajo. Se calcula a partir de la métrica container/cpu/limit_cores.
Horas de CPU: La cantidad total de horas de núcleo en todos los nodos de una carga de trabajo o clúster dentro del período seleccionado. Se calcula a partir de la métrica node/cpu/total_cores (para clústeres estándar) y la métrica container/cpu/request_cores (para clústeres Autopilot y cargas de trabajo).
Uso de memoria: muestra un gráfico de barras que muestra la relación entre las siguientes métricas de memoria:
Usado: La cantidad de memoria que usan todos los contenedores en un clúster o carga de trabajo. Se calcula a partir de la métrica container/memory/used_bytes.
Solicitada: La cantidad de memoria solicitada para todos los contenedores en un clúster o carga de trabajo. Se calcula a partir de la métrica container/memory/request_bytes.
Asignable: La cantidad de memoria asignada a todos los nodos del clúster. Esta métrica se muestra en la página Clústeres. Se calcula a partir de la métrica node/memory/allocatable_bytes. En el caso de los clústeres de Autopilot, no hay un valor asignable, ya que Google ajusta las asignaciones de memoria de forma automática.
Límite: El límite de memoria de todos los contenedores de una carga de trabajo. Esta métrica se muestra en la página Cargas de trabajo. Se calcula a partir de la métrica container/memory/limit_bytes.
Horas de memoria: La cantidad total de memoria en todos los nodos de una carga de trabajo o clúster dentro del período seleccionado. Se calcula a partir de la métrica node/memory/total_bytes (para los clústeres) y la métrica container/memory/requested_bytes (para clústeres Autopilot y cargas de trabajo).
Visualiza las métricas
Para ver las métricas de uso relacionadas con los costos, realiza los siguientes pasos en la consola de Google Cloud:
Para ver las métricas a nivel de clúster, dirígete a la página Clústeres de Kubernetes.
Elige el período en el que las métricas se promedian (uso) o se acumulan (horas totales). Por ejemplo, 1 día, 1 mes y más. Si el ciclo de vida del clúster o la carga de trabajo es menor que el período seleccionado, se muestran las métricas acumuladas durante la vida útil del clúster o la carga de trabajo. Por ejemplo, eliges un período de 1 día, pero la carga de trabajo se creó hace solo 4 horas, por lo que solo se muestran 4 horas de métricas.
Mantén el cursor sobre la métrica de uso para ver más detalles.
Las métricas de optimización de costos se mostrarán para los modos de clúster de la siguiente manera:
Los clústeres estándar siempre habrán usado métricas solicitadas y asignables visibles en el momento de la creación debido a la inclusión de componentes de GKE administrados en el cálculo general (espacio de nombres de kube-system).
Los clústeres de Autopilot solo muestran métricas cuando implementas cargas de trabajo con solicitudes especificadas en el clúster. Esto se debe al modelo de precios de Autopilot. Los clústeres de Autopilot no muestran métricas asignables porque solo pagas por los recursos solicitados por tus cargas de trabajo en ejecución.
Las cargas de trabajo implementadas en clústeres de Standard que no tengan solicitudes o límites especificados no mostrarán una proporción en el gráfico. En su lugar, el gráfico de barras representará solo la métrica de uso de la carga de trabajo.
Las cargas de trabajo implementadas en clústeres de Autopilot que no tengan solicitudes o límites especificados tendrán valores predeterminados aplicados a los contenedores y mostrarán las proporciones en todo momento.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2024-06-26 (UTC)"],[],[],null,["# View cost-related optimization metrics\n\n[Autopilot](/kubernetes-engine/docs/concepts/autopilot-overview) [Standard](/kubernetes-engine/docs/concepts/choose-cluster-mode)\n\n*** ** * ** ***\n\nThis page shows you how to view cost-related utilization metrics for your\nGoogle Kubernetes Engine (GKE) clusters. These metrics describe how effectively your\nGKE clusters and workloads are utilizing the Compute Engine\nresources you pay for.\n\nYou can use this information to optimize the cost-to-performance ratio of your\nclusters and workloads.\n\nCost optimization metrics\n-------------------------\n\nIn the **Cost Optimization** tab in the Google Cloud console, you can view the following\nmetrics for your clusters and workloads:\n\n- **CPU utilization:** Displays a bar chart that shows the relationship between the following CPU metrics:\n - **Used** : The amount of CPU used by all containers in the cluster or workload. Calculated from the [`container/cpu/core_usage_time`](/monitoring/api/metrics_kubernetes#kubernetes/container/cpu/core_usage_time) metric.\n - **Requested** : The amount of CPU requested by all containers in the cluster or workload. Calculated from the [`container/cpu/request_cores`](/monitoring/api/metrics_kubernetes#kubernetes/container/cpu/request_cores) metric.\n - **Allocatable** : The amount of CPU allocated to all nodes in the cluster. This metric is shown on the Clusters page. Calculated from the [`node/cpu/allocatable_cores`](/monitoring/api/metrics_kubernetes#kubernetes/node/cpu/allocatable_cores) metric. For Autopilot clusters, there is no allocatable value because Google automatically adjusts CPU allocations.\n - **Limit** : The CPU limit for all containers in a workload. This metric is shown on the Workloads page. Calculated from the [`container/cpu/limit_cores`](/monitoring/api/metrics_kubernetes#kubernetes/container/cpu/limit_cores) metric.\n- **CPU hours** : The total number of core hours on all nodes in a workload or cluster within the selected timeframe. Calculated from the [`node/cpu/total_cores`](/monitoring/api/metrics_kubernetes#kubernetes/node/cpu/total_cores) metric (for Standard clusters) and the [`container/cpu/request_cores`](/monitoring/api/metrics_kubernetes#kubernetes/container/cpu/request_cores) metric (for Autopilot clusters and workloads).\n- **Memory utilization** : Displays a bar chart that shows the relationship between the following memory metrics:\n - **Used** : The amount of memory used by all containers in a cluster or workload. Calculated from the [`container/memory/used_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/container/memory/used_bytes) metric.\n - **Requested** : The amount of memory requested for all containers in a cluster or workload. Calculated from the [`container/memory/request_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/container/memory/request_bytes) metric.\n - **Allocatable** : The amount of memory allocated to all nodes in the cluster. This metric is shown on the Clusters page. Calculated from the [`node/memory/allocatable_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/node/memory/allocatable_bytes) metric. For Autopilot clusters, there is no allocatable value because Google automatically adjusts memory allocations.\n - **Limit** : The memory limit for all containers in a workload. This metric is shown on the Workloads page. Calculated from the [`container/memory/limit_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/container/memory/limit_bytes) metric.\n- **Memory hours** : The total amount of memory on all nodes in a workload or cluster within the selected timeframe. Calculated from the [`node/memory/total_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/node/memory/total_bytes) metric (for clusters) and the [`container/memory/requested_bytes`](/monitoring/api/metrics_kubernetes#kubernetes/container/memory/requested_bytes) metric (for Autopilot clusters and workloads).\n\nView the metrics\n----------------\n\nTo view cost-related utilization metrics, perform the following steps in the\nGoogle Cloud console :\n\n1. To see cluster-level metrics, go to the **Kubernetes Clusters** page.\n\n [Go to Kubernetes Clusters](https://console.cloud.google.com/kubernetes/list)\n\n To see workload-level metrics, go to the **Workloads** page.\n\n [Go to Workloads](https://console.cloud.google.com/kubernetes/workload)\n2. Select the **Cost Optimization** tab.\n\n3. Choose the timeframe over which the metrics are averaged (utilization) or\n accumulated (total hours). For example, 1 day, 1 month, and more. If the\n lifetime of the cluster or workload is less than the selected timeframe,\n metrics accumulated for the lifetime of cluster or workload displays. For\n example, you choose a timeframe of 1 day but the workload was created only\n 4 hours ago, so only 4 hours of metrics are displayed.\n\n4. Hold the pointer over the utilization metric to see further details.\n\nCost optimization metrics will display for cluster modes as follows:\n\n- Standard clusters will always have used, requested and allocatable metrics visible at creation time due to the inclusion of managed GKE components in the overall calculation (kube-system namespace).\n\n\u003c!-- --\u003e\n\n- Autopilot clusters only display metrics when you deploy workloads with specified requests to the cluster. This is due to the [Autopilot pricing](/kubernetes-engine/pricing#autopilot_mode) model. Autopilot clusters don't show allocatable metrics because you only pay for resources requested by your running workloads.\n\nWorkloads deployed to Standard clusters that don't have requests or\nlimits specified, won't show a ratio on the chart. Instead, the bar chart\nwill represent just the workload usage metric.\n\nWorkloads deployed to Autopilot clusters that don't have requests or\nlimits specified, will have [default](/kubernetes-engine/docs/concepts/autopilot-overview#default_container_resource_requests)\nvalues applied to the containers, and will show the ratios at all times.\n\nWhat's next\n-----------\n\n- Learn about [Best practices for running cost-optimized applications on GKE](/architecture/best-practices-for-running-cost-effective-kubernetes-applications-on-gke).\n- Read the [Create a cost-optimized cluster in just a few clicks](/blog/products/containers-kubernetes/gke-setup-guide-automates-creation-of-cost-optimized-cluster) blog post.\n- Learn how to [view observability metrics](/kubernetes-engine/docs/how-to/view-observability-metrics)."]]