GKE Inference Gateway

En este documento se describe cómo configurar tu implementación de Google Kubernetes Engine para que puedas usar Google Cloud Managed Service para Prometheus y recoger métricas de GKE Inference Gateway. En este documento se explica cómo hacer lo siguiente:

  • Configura GKE Inference Gateway para que genere informes de métricas.
  • Accede a un panel de control de Cloud Monitoring para ver las métricas.

Estas instrucciones solo se aplican si usas la recogida gestionada con Managed Service para Prometheus. Si utilizas la recogida autodesplegada, consulta la documentación de GKE Inference Gateway para obtener información sobre la instalación.

Estas instrucciones se proporcionan como ejemplo y deberían funcionar en la mayoría de los entornos de Kubernetes. Si tienes problemas para instalar una aplicación o un exportador debido a políticas de seguridad o de la organización restrictivas, te recomendamos que consultes la documentación de código abierto para obtener ayuda.

Para obtener información sobre GKE Inference Gateway, consulta GKE Inference Gateway.

Requisitos previos

Para recoger métricas del exportador de Inference Gateway de GKE mediante Managed Service para Prometheus y la recogida gestionada, tu despliegue debe cumplir los siguientes requisitos:

  • Tu clúster debe ejecutar la versión 1.28.15-gke.2475000 de Google Kubernetes Engine o una posterior.
  • Debes ejecutar Managed Service para Prometheus con la recogida gestionada habilitada. Para obtener más información, consulta el artículo Empezar a utilizar la recogida gestionada.

El exportador de GKE Inference Gateway expone automáticamente las métricas en formato Prometheus, por lo que no tienes que instalarlo por separado.

Para verificar que el exportador de GKE Inference Gateway emite métricas en los endpoints esperados, haz lo siguiente:

  1. Añade un secreto, una ServiceAccount, un ClusterRole y un ClusterBinding. Los endpoints de observabilidad del exportador de GKE Inference Gateway están protegidos por el token de autenticación. Para obtener las credenciales, el cliente necesita un secreto que se asigne a una cuenta de servicio con el ClusterRole conectado para la regla nonResourceURLs: "/metrics", verbs: get. Para obtener más información, consulta el artículo Crear un secreto para una cuenta de servicio.

  2. Configura la redirección de puertos con el siguiente comando:

    kubectl -n NAMESPACE_NAME port-forward POD_NAME 9090
    
  3. En otra ventana, haz lo siguiente:

    1. Para obtener el token, ejecuta el siguiente comando:

      TOKEN=$(kubectl -n default get secret inference-gateway-sa-metrics-reader-secret  -o jsonpath='{.secrets[0].name}' -o jsonpath='{.data.token}' | base64 --decode)
      
    2. Accede al endpoint localhost:9090/metrics mediante la utilidad curl:

      curl -H "Authorization: Bearer $TOKEN" localhost:9090/metrics
      

Crear un secreto para una cuenta de servicio

Para proteger el endpoint del exportador de GKE Inference Gateway, el operador de Managed Service para Prometheus requiere un secreto para la recogida de métricas autorizada en el espacio de nombres gmp-system.

Si tu clúster usa el modo Autopilot, sustituye gmp-system por gke-gmp-system.

Puedes usar la siguiente configuración de Secret, ServiceAccount, ClusterRole y ClusterRoleBinding:

# Copyright 2025 Google LLC
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
#     https://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.

apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: inference-gateway-metrics-reader
rules:
- nonResourceURLs:
  - /metrics
  verbs:
  - get
---
apiVersion: v1
kind: ServiceAccount
metadata:
  name: inference-gateway-sa-metrics-reader
  namespace: default
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: inference-gateway-sa-metrics-reader-role-binding
  namespace: default
subjects:
- kind: ServiceAccount
  name: inference-gateway-sa-metrics-reader
  namespace: default
roleRef:
  kind: ClusterRole
  name: inference-gateway-metrics-reader
  apiGroup: rbac.authorization.k8s.io
---
apiVersion: v1
kind: Secret
metadata:
  name: inference-gateway-sa-metrics-reader-secret
  namespace: default
  annotations:
    kubernetes.io/service-account.name: inference-gateway-sa-metrics-reader
type: kubernetes.io/service-account-token
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  name: inference-gateway-sa-metrics-reader-secret-read
rules:
- resources:
  - secrets
  apiGroups: [""]
  verbs: ["get", "list", "watch"]
  resourceNames: ["inference-gateway-sa-metrics-reader-secret"]
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: gmp-system:collector:inference-gateway-sa-metrics-reader-secret-read
  namespace: default
roleRef:
  name: inference-gateway-sa-metrics-reader-secret-read
  kind: ClusterRole
  apiGroup: rbac.authorization.k8s.io
subjects:
- name: collector
  namespace: gmp-system
  kind: ServiceAccount

Para obtener más información, consulta la guía de métricas y observabilidad del exportador.

Para aplicar los cambios de configuración de un archivo local, ejecuta el siguiente comando:

kubectl apply -n NAMESPACE_NAME -f FILE_NAME

También puedes usar Terraform para gestionar tus configuraciones.

Definir un recurso de ClusterPodMonitoring

Para el descubrimiento de destinos, el operador de Managed Service for Prometheus requiere un recurso ClusterPodMonitoring que corresponda al exportador de GKE Inference Gateway en el mismo espacio de nombres.

Puedes usar la siguiente configuración de ClusterPodMonitoring:

# Copyright 2025 Google LLC
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
#     https://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.

apiVersion: monitoring.googleapis.com/v1
kind: ClusterPodMonitoring
metadata:
  name: inference-optimized-gateway-monitoring
  labels:
    app.kubernetes.io/name: inference-optimized-gateway
    app.kubernetes.io/part-of: google-cloud-managed-prometheus
spec:
  endpoints:
  - port: metrics
    scheme: http
    interval: 5s
    path: /metrics
    authorization:
      type: Bearer
      credentials:
        secret:
          name: inference-gateway-sa-metrics-reader-secret
          key: token
          namespace: default
  selector:
    matchLabels:
      app: inference-gateway-ext-proc

GKE Inference Gateway usa el recurso ClusterPodMonitoring en lugar del recurso PodMonitoring porque necesita acceder al secreto desde otro espacio de nombres.

En el selector matchLabels de la configuración de ClusterPodMonitoring, puede sustituir el valor app de inference-gateway-ext-proc por etiquetas de su implementación de GKE Inference Gateway. Asegúrese de que los valores de los campos port y matchLabels coincidan con los de los pods de GKE Inference Gateway que quiera monitorizar.

Para aplicar los cambios de configuración de un archivo local, ejecuta el siguiente comando:

kubectl apply -n NAMESPACE_NAME -f FILE_NAME

También puedes usar Terraform para gestionar tus configuraciones.

Verificar la configuración

Puede usar el Explorador de métricas para verificar que ha configurado correctamente el exportador de Inference Gateway de GKE. Cloud Monitoring puede tardar uno o dos minutos en ingerir tus métricas.

Para comprobar que las métricas se han insertado, haz lo siguiente:

  1. En la Google Cloud consola, ve a la página  Explorador de métricas:

    Ve al explorador de métricas.

    Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuya sección sea Monitorización.

  2. En la barra de herramientas del panel de creación de consultas, selecciona el botón cuyo nombre sea  MQL o  PromQL.
  3. Verifica que PromQL esté seleccionado en el interruptor Idioma. El interruptor de idioma se encuentra en la misma barra de herramientas que te permite dar formato a tu consulta.
  4. Introduce y ejecuta la siguiente consulta:
    inference_model_request_total{cluster="CLUSTER_NAME", namespace="NAMESPACE_NAME"}

Ver paneles de control

La integración de Cloud Monitoring incluye el panel de control Resumen de Prometheus de GKE Inference Gateway. Los paneles de control se instalan automáticamente al configurar la integración. También puedes ver vistas previas estáticas de los paneles de control sin instalar la integración.

Para ver un panel de control instalado, siga estos pasos:

  1. En la Google Cloud consola, ve a la página  Paneles de control:

    Ve a Paneles.

    Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuya sección sea Monitorización.

  2. Seleccione la pestaña Lista de paneles.
  3. Elige la categoría Integraciones.
  4. Haga clic en el nombre del panel de control (por ejemplo, GKE Inference Gateway Prometheus Overview).

Para ver una vista previa estática del panel de control, siga estos pasos:

  1. En la Google Cloud consola, ve a la página  Integraciones:

    Ve a Integraciones.

    Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuya sección sea Monitorización.

  2. Haz clic en el filtro de plataforma de implementación Kubernetes Engine.
  3. Busca la integración de GKE Inference Gateway y haz clic en Ver detalles.
  4. Seleccione la pestaña Paneles.

Solución de problemas

Para obtener información sobre cómo solucionar problemas de ingestión de métricas, consulta la sección Problemas con la recogida de datos de los exportadores del artículo Solucionar problemas del lado de la ingestión.