En este documento se describe cómo configurar tu implementación de Google Kubernetes Engine para que puedas usar Google Cloud Managed Service para Prometheus y recoger métricas de TensorFlow Serving. En este documento se explica cómo hacer lo siguiente:
- Configura TF Serving para que genere informes de métricas.
- Accede a un panel de control de Cloud Monitoring para ver las métricas.
Estas instrucciones solo se aplican si usas la recogida gestionada con Managed Service para Prometheus. Si usas la recogida autodesplegada, consulta la documentación de TF Serving para obtener información sobre la instalación.
Estas instrucciones se proporcionan como ejemplo y deberían funcionar en la mayoría de los entornos de Kubernetes. Si tienes problemas para instalar una aplicación o un exportador debido a políticas de seguridad o de la organización restrictivas, te recomendamos que consultes la documentación de código abierto para obtener ayuda.
Para obtener información sobre TensorFlow Serving, consulta TF Serving. Para obtener información sobre cómo configurar TF Serving en Google Kubernetes Engine, consulta la guía de TF Serving para GKE.
Requisitos previos
Para recoger métricas de TF Serving mediante el servicio gestionado de Prometheus y la recogida gestionada, tu despliegue debe cumplir los siguientes requisitos:
- Tu clúster debe ejecutar la versión 1.28.15-gke.2475000 de Google Kubernetes Engine o una posterior.
- Debes ejecutar Managed Service para Prometheus con la recogida gestionada habilitada. Para obtener más información, consulta el artículo Empezar a utilizar la recogida gestionada.
TF Serving expone métricas en formato Prometheus cuando se usa la marca --monitoring_config_file
para especificar un archivo que contiene un búfer de protocolo MonitoringConfig.
A continuación, se muestra un ejemplo de un búfer de protocolo MonitoringConfig:
Si sigues la guía de configuración de Google Kubernetes Engine, Sirve un modelo con una sola GPU en GKE, el búfer de protocolo MonitoringConfig se define como parte de la configuración predeterminada.
Si vas a configurar TF Serving por tu cuenta, haz lo siguiente para especificar el búfer de protocolo MonitoringConfig:
Crea un archivo llamado
monitoring_config.txt
que contenga el búfer de protocolo MonitoringConfig en el directorio model antes de subir el directorio al segmento de Cloud Storage.Sube el directorio del modelo al depósito de Cloud Storage:
gcloud storage cp MODEL_DIRECTORY gs://CLOUD_STORAGE_BUCKET_NAME --recursive
Define la variable de entorno
PATH_TO_MONITORING_CONFIG
en la ruta del archivomonitoring_config.txt
subido, por ejemplo:export PATH_TO_MONITORING_CONFIG=/data/tfserve-model-repository/monitoring_config.txt
Añade la siguiente marca y valor al comando del contenedor en el archivo YAML de implementación del contenedor:
"--monitoring_config=$PATH_TO_MONITORING_CONFIG"
Por ejemplo, el comando podría tener el siguiente aspecto:
command: [ "tensorflow_model_server", "--model_name=$MODEL_NAME", "--model_base_path=/data/tfserve-model-repository/$MODEL_NAME", "--rest_api_port=8000", "--monitoring_config_file=$PATH_TO_MONITORING_CONFIG" ]
Modificar la configuración de TF Serving
Modifica la configuración de TF Serving como se muestra en el siguiente ejemplo:
Debes añadir a tu configuración las líneas que vayan precedidas del símbolo +
.
Para aplicar los cambios de configuración de un archivo local, ejecuta el siguiente comando:
kubectl apply -n NAMESPACE_NAME -f FILE_NAME
También puedes usar Terraform para gestionar tus configuraciones.
Para verificar que TF Serving emite métricas en los endpoints esperados, haz lo siguiente:- Configura la redirección de puertos con el siguiente comando:
kubectl -n NAMESPACE_NAME port-forward POD_NAME 8000
- Accede al endpoint
localhost:8000/monitoring/prometheus/metrics
mediante el navegador o la utilidadcurl
en otra sesión de terminal.
Definir un recurso de PodMonitoring
Para la detección de destinos, el operador de Managed Service para Prometheus requiere un recurso PodMonitoring que corresponda a TF Serving en el mismo espacio de nombres.
Puedes usar la siguiente configuración de PodMonitoring:
Para aplicar los cambios de configuración de un archivo local, ejecuta el siguiente comando:
kubectl apply -n NAMESPACE_NAME -f FILE_NAME
También puedes usar Terraform para gestionar tus configuraciones.
Verificar la configuración
Puede usar Explorador de métricas para verificar que ha configurado correctamente TF Serving. Cloud Monitoring puede tardar uno o dos minutos en ingerir tus métricas.
Para comprobar que las métricas se han insertado, haz lo siguiente:
-
En la Google Cloud consola, ve a la página leaderboard Explorador de métricas:
Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuya sección sea Monitorización.
- En la barra de herramientas del panel de creación de consultas, selecciona el botón cuyo nombre sea code MQL o code PromQL.
- Verifica que PromQL esté seleccionado en el interruptor Idioma. El interruptor de idioma se encuentra en la misma barra de herramientas que te permite dar formato a tu consulta.
- Introduce y ejecuta la siguiente consulta:
up{job="tfserve", cluster="CLUSTER_NAME", namespace="NAMESPACE_NAME"}
Ver paneles de control
La integración de Cloud Monitoring incluye el panel de control Descripción general de TensorFlow Serving Prometheus. Los paneles de control se instalan automáticamente al configurar la integración. También puedes ver vistas previas estáticas de los paneles de control sin instalar la integración.
Para ver un panel de control instalado, siga estos pasos:
-
En la Google Cloud consola, ve a la página
Paneles de control:
Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuya sección sea Monitorización.
- Seleccione la pestaña Lista de paneles.
- Elige la categoría Integraciones.
- Haga clic en el nombre del panel de control (por ejemplo, TensorFlow Serving Prometheus Overview [Resumen de Prometheus de TensorFlow Serving]).
Para ver una vista previa estática del panel de control, siga estos pasos:
-
En la Google Cloud consola, ve a la página
Integraciones:
Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuya sección sea Monitorización.
- Haz clic en el filtro de plataforma de implementación Kubernetes Engine.
- Busca la integración de TensorFlow Serving y haz clic en Ver detalles.
- Seleccione la pestaña Paneles.
Solución de problemas
Para obtener información sobre cómo solucionar problemas de ingestión de métricas, consulta la sección Problemas con la recogida de datos de los exportadores del artículo Solucionar problemas del lado de la ingestión.