Los registros y las métricas te permiten monitorizar tus servicios y solucionar problemas relacionados con el rendimiento de los servicios. Puedes ver los registros y las métricas de los servicios de Vertex AI mediante los recursos de monitorización y registro del dispositivo aislado de Google Distributed Cloud (GDC). También puedes crear consultas para monitorizar métricas específicas de Vertex AI.
En esta página se describe cómo consultar y ver registros y métricas de los servicios de Vertex AI en Grafana.
Esta página también contiene consultas de ejemplo que puedes usar para monitorizar la plataforma y los servicios de Vertex AI, como el reconocimiento óptico de caracteres (OCR), Speech-to-Text y Vertex AI Translation.
Antes de empezar
Para obtener los permisos que necesitas para ver los registros y las métricas de Vertex AI, pide al administrador de gestión de identidades y accesos de tu proyecto que te conceda el rol Lector de Grafana de proyecto (project-grafana-viewer
) en el espacio de nombres de tu proyecto.
Visualizar registros y métricas en paneles de control
Puedes ver las métricas y los registros de Vertex AI en los paneles de control. Por ejemplo, puedes crear una consulta para ver cómo afecta Vertex AI al uso de la CPU.
Sigue estos pasos para ver los registros y las métricas de Vertex AI en los paneles de control:
Inicia sesión en la consola de GDC y selecciona tu proyecto.
En el menú de navegación, haz clic en Vertex AI > APIs preentrenadas.
En la página APIs preentrenadas, comprueba que la API de Vertex AI del servicio que quieras monitorizar esté habilitada.
Haz clic en Monitor services in Grafana (Monitorizar servicios en Grafana) para abrir la página principal de Grafana.
En el menú de navegación de la página principal, haga clic en Explorar Explorar para abrir la página Explorar.
En el menú de la página Explorar, seleccione una de las siguientes fuentes de datos:
- Registros operativos: recupera los registros operativos.
- Registros de auditoría: recupera los registros de auditoría.
- Prometheus recupera métricas.
Si quiere mostrar métricas, introduzca una consulta con expresiones de PromQL (lenguaje de consulta de Prometheus).
Si quieres mostrar registros, introduce una consulta con expresiones de LogQL (lenguaje de consulta de registros).
En la página se muestran las métricas o los registros que coinciden con tu consulta.
Consultas de ejemplo
La siguiente tabla contiene consultas de ejemplo para monitorizar la plataforma Vertex AI en su entorno:
Plataforma Vertex AI | |||
---|---|---|---|
Fuente de datos | Descripción | Componente | Consulta |
Métricas | Porcentaje de uso de CPU del contenedor | Operador de nivel 1 | rate(container_cpu_usage_seconds_total{namespace="ai-system",container="l1operator"}[30s]) * 100 |
Operador de nivel 2 | rate(container_cpu_usage_seconds_total{namespace="ai-system",container="l2operator"}[30s]) * 100 |
||
Uso de memoria del contenedor en MB | Operador de nivel 1 | container_memory_usage_bytes{namespace="ai-system",container="l1operator"} * 1e-6 |
|
Operador de nivel 2 | container_memory_usage_bytes{namespace="ai-system",container="l2operator"} * 1e-6 |
||
Registros operativos | Registros de operadores de nivel 1 | Operador de nivel 1 | {service_name="vai-l1operator"} |
Registros de operadores de nivel 2 | Operador de nivel 2 | {service_name="vai-l2operator"} |
|
Registros de auditoría |
Registros de auditoría del frontend de la plataforma | Frontend del complemento web de Vertex AI | {service_name="istio"} |~ upstream_cluster:.*(vai-web-plugin-frontend.ai-system) |
Registros de auditoría del backend de la plataforma | Backend del complemento web de Vertex AI | {service_name="istio"} |~ upstream_cluster:.*(vai-web-plugin-backend.ai-system) |
En la siguiente tabla se incluyen consultas de ejemplo para monitorizar los servicios de la API Vertex AI, como OCR, Speech-to-Text y Vertex AI Translation, en tu entorno:
Servicios de Vertex AI | |||
---|---|---|---|
Fuente de datos | Descripción | Servicio | Consulta |
Métricas | El efecto de una API preentrenada en el uso de la CPU de . |
OCR | rate(container_cpu_usage_seconds_total{namespace="g-vai-ocr-sie",container="CONTAINER_NAME"}[30s]) * 100 CONTAINER_NAME values: vision-extractor | vision-frontend | vision-vms-ocr |
Speech‑to‑Text | rate(container_cpu_usage_seconds_total{namespace="g-vai-speech-sie",container="CONTAINER_NAME"}[30s]) * 100 |
||
Vertex AI Translation | rate(container_cpu_usage_seconds_total{namespace="g-vai-translation-sie",container="CONTAINER_NAME"}[30s]) * 100 CONTAINER_NAME values: translation-aligner | translation-frontend | translation-prediction |
||
Usa la etiqueta de filtro destination_service para obtener la tasa de errores de los últimos 60 minutos. |
OCR | rate(istio_requests_total{destination_service=~".*g-vai-ocr-sie.svc.cluster.local",response_code=~"[4-5][0-9][0-9]"}[60m]) |
|
Speech‑to‑Text | rate(istio_requests_total{destination_service=~".*g-vai-speech-sie.svc.cluster.local",response_code=~"[4-5][0-9][0-9]"}[60m]) |
||
Vertex AI Translation | rate(istio_requests_total{destination_service=~".*g-vai-translation-sie.svc.cluster.local",response_code=~"[4-5][0-9][0-9]"}[60m]) |
||
Registros operativos | Registros operativos de los servicios de Vertex AI |
OCR | {namespace="g-vai-ocr-sie"} |
Speech‑to‑Text | {namespace="g-vai-speech-sie"} |
||
Vertex AI Translation | {namespace="g-vai-translation-sie"} |
||
Registros de auditoría | Registros de auditoría de los servicios de Vertex AI |
OCR | {service_name="istio"} |= "vision-frontend-server" |
Speech‑to‑Text | {service_name="istio"} |= "speech-frontend-server" |
||
Vertex AI Translation | {service_name="istio"} |= "translation-frontend-server" |