En este documento, se muestra cómo configurar el registro y la supervisión para los componentes del sistema en Google Distributed Cloud.
De forma predeterminada, Cloud Logging, Cloud Monitoring y Google Cloud Managed Service para Prometheus están habilitados.
Para obtener más información sobre las opciones, consulta Descripción general del registro y la supervisión.
Recursos supervisados
Los recursos supervisados son la forma en que Google representa recursos como clústeres, nodos, Pods y contenedores. Para obtener más información, consulta la documentación Tipos de recursos supervisados de Cloud Monitoring.
Para consultar los registros y las métricas, debes conocer al menos estas etiquetas de recursos:
project_id
: Es el ID del proyecto del proyecto de supervisión de registros del clúster. Proporcionaste este valor en el campostackdriver.projectID
del archivo de configuración del clúster.location
: Es una región de Google Cloud en la que deseas almacenar los registros de Cloud Logging y las métricas de Cloud Monitoring. Es recomendable elegir una región cercana al centro de datos local. Proporcionaste este valor durante la instalación en el campostackdriver.clusterLocation
del archivo de configuración del clúster.cluster_name
: Es el nombre del clúster que elegiste cuando creaste el clúster.Puedes recuperar el valor
cluster_name
para el clúster de administrador o de usuario si inspeccionas el recurso personalizado de Stackdriver:kubectl get stackdriver stackdriver --namespace kube-system \ --kubeconfig CLUSTER_KUBECONFIG --output yaml | grep 'clusterName:'
donde
CLUSTER_KUBECONFIG
es la ruta al archivo kubeconfig del clúster de administrador o de usuario para el que se requiere el nombre del clúster.
Usa Cloud Logging
No tienes que realizar ninguna acción para habilitar Cloud Logging en un clúster.
Sin embargo, debes especificar el proyecto de Google Cloud en el que quieres ver los registros. En el archivo de configuración del clúster, debes especificar el proyecto de Google Cloud en la sección stackdriver
.
Puedes acceder a los registros mediante el Explorador de registros en la consola de Google Cloud. Por ejemplo, para acceder a los registros de un contenedor, sigue estos pasos:
- En la consola de Google Cloud, abre el Visor de registros del proyecto.
- Busca registros para un contenedor de la siguiente manera:
- Haz clic en el cuadro desplegable del catálogo de registros en la parte superior izquierda y selecciona Contenedor de Kubernetes.
- Selecciona el nombre del clúster, el espacio de nombres y un contenedor de la jerarquía.
Visualiza los registros de los controladores en el clúster de arranque
Busca el nombre del Pod onprem-admin-cluster-controller / clusterapi-controllers
De forma predeterminada, el nombre del clúster de similares es
gkectl-bootstrap-cluster
."ADMIN_CLUSTER_NAME" resource.type="k8s_container" resource.labels.cluster_name="gkectl-bootstrap-cluster"
Modifica la consulta con el nombre del Pod que encuentres y obtén el registro
resource.type="k8s_container" resource.labels.cluster_name="gkectl-bootstrap-cluster" resource.labels.pod_name="POD_NAME"
Usar Cloud Monitoring
No tienes que realizar ninguna acción para habilitar Cloud Monitoring en un clúster.
Sin embargo, debes especificar el proyecto de Google Cloud en el que deseas ver las métricas.
En el archivo de configuración del clúster, debes especificar el proyecto de Google Cloud en la sección stackdriver
.
Puedes elegir entre más de 1,500 métricas mediante el Explorador de métricas. Para acceder al Explorador de métricas, sigue estos pasos:
En la consola de Google Cloud, selecciona Monitoring o usa el siguiente botón:
Selecciona Recursos > Explorador de métricas.
También puedes ver las métricas en los paneles de la consola de Google Cloud. Para obtener información sobre cómo crear paneles y ver métricas, consulta Crea paneles.
Visualiza los datos de supervisión a nivel de la flota
Para obtener una vista general del uso de recursos de tu flota con datos de Cloud Monitoring, incluido GKE en VMware, puedes usar la descripción general de GKE Enterprise en la consola de Google Cloud. Consulta Usa la descripción general de GKE Enterprise para obtener más información.
Límites predeterminados de cuota de Cloud Monitoring
Google Distributed Cloud Monitoring tiene un límite predeterminado de 6,000 llamadas a la API por minuto para cada proyecto. Si superas este límite, es posible que no se muestren las métricas. Si necesitas un límite de supervisión más alto, solicita uno a través de la consola de Google Cloud.
Usa Managed Service para Prometheus
Google Cloud Managed Service para Prometheus es parte de Cloud Monitoring y está disponible de forma predeterminada. Los beneficios del servicio administrado para Prometheus incluyen los siguientes:
Puedes seguir usando la supervisión existente basada en Prometheus sin alterar las alertas ni los paneles de Grafana.
Si usas GKE y Google Distributed Cloud, puedes usar el mismo PromQL para las métricas de todos tus clústeres. También puedes usar la pestaña PROMQL en el Explorador de métricas de la consola de Google Cloud.
Inhabilita y habilita Managed Service para Prometheus
El servicio administrado para Prometheus está habilitado de forma predeterminada en Google Distributed Cloud.
Sigue estos pasos para inhabilitar Managed Service para Prometheus en un clúster:
Abre el objeto de Stackdriver llamado
stackdriver
para editarlo:kubectl --kubeconfig CLUSTER_KUBECONFIG --namespace kube-system \ edit stackdriver stackdriver
Agrega la puerta de funciones
enableGMPForSystemMetrics
y establécela enfalse
:apiVersion: addons.gke.io/v1alpha1 kind: Stackdriver metadata: name: stackdriver namespace: kube-system spec: featureGates: enableGMPForSystemMetrics: false
Cierra la sesión de edición.
Visualiza datos de métricas
Cuando el servicio administrado para Prometheus está habilitado, las métricas de los siguientes componentes tienen un formato diferente sobre cómo se almacenan y consultan en Cloud Monitoring:
- kube-apiserver
- kube-scheduler
- kube-controller-manager
- kubelet y cadvisor
- kube-state-metrics
- exportador de nodos
En el formato nuevo, puedes consultar las métricas anteriores mediante PromQL o el lenguaje de consulta de Monitoring (MQL).
Ejemplo de PromQL:
histogram_quantile(0.95, sum(rate(apiserver_request_duration_seconds_bucket[5m])) by (le))
Para usar MQL, configura el recurso supervisado como prometheus_target
y agrega el tipo de Prometheus como sufijo de la métrica.
Ejemplo de MQL:
fetch prometheus_target | metric 'kubernetes.io/anthos/apiserver_request_duration_seconds/histogram' | align delta(5m) | every 5m | group_by [], [value_histogram_percentile: percentile(value.histogram, 95)]
Configura paneles de Grafana con Managed Service para Prometheus
Para usar Grafana con los datos de métricas de Managed Service para Prometheus, sigue los pasos que se indican en Consulta con Grafana para autenticar y configurar una fuente de datos de Grafana y consultar datos de Managed Service para Prometheus.
Se proporciona un conjunto de paneles de Grafana de muestra en el repositorio anthos-samples en GitHub. Para instalar los paneles de muestra, haz lo siguiente:
Descarga los archivos
.json
de muestra:git clone https://github.com/GoogleCloudPlatform/anthos-samples.git cd anthos-samples/gmp-grafana-dashboards
Si tu fuente de datos de Grafana se creó con un nombre diferente con
Managed Service for Prometheus
, cambia el campodatasource
en todos los archivos.json
:sed -i "s/Managed Service for Prometheus/[DATASOURCE_NAME]/g" ./*.json
Reemplaza [DATASOURCE_NAME] por el nombre de la fuente de datos en tu Grafana que apunta al servicio
frontend
de Prometheus.Accede a la IU de Grafana desde tu navegador y selecciona + Import en el menú Dashboards.
Sube el archivo
.json
o copia y pega el contenido del archivo y selecciona Load. Una vez que se haya cargado correctamente el contenido del archivo, selecciona Importar. De manera opcional, también puedes cambiar el nombre del panel y el UID antes de la importación.El panel importado debería cargarse correctamente si Google Distributed Cloud y la fuente de datos están configurados correctamente. Por ejemplo, en la siguiente captura de pantalla, se muestra el panel que configuró
cluster-capacity.json
.
Recursos adicionales
Si quieres obtener más información sobre Managed Service para Prometheus, consulta los siguientes vínculos:
Las métricas del plano de control de GKE son compatibles con PromQL
Usa Managed Service para Prometheus para aplicaciones de usuarios en Google Distributed Cloud
Usa Prometheus y Grafana
A partir de la versión 1.16, Prometheus y Grafana no están disponibles en los clústeres creados recientemente. Recomendamos que uses el servicio administrado para Prometheus como reemplazo de la supervisión en el clúster.
Si actualizas un clúster 1.15 que tenga Prometheus y Grafana habilitados a 1.16, Prometheus y Grafana seguirán funcionando como están, pero no se actualizarán ni se les aplicarán parches de seguridad.
Si deseas borrar todos los recursos de Prometheus y Grafana después de actualizar a la versión 1.16, ejecuta el siguiente comando:
kubectl --kubeconfig KUBECONFIG delete -n kube-system \ statefulsets,services,configmaps,secrets,serviceaccounts,clusterroles,clusterrolebindings,certificates,deployments \ -l addons.gke.io/legacy-pg=true
Como alternativa al uso de los componentes de Prometheus y Grafana incluidos en las versiones anteriores de Google Distributed Cloud, puedes cambiar a una versión comunitaria de código abierto de Prometheus y Grafana.
Problema conocido
En los clústeres de usuario, Prometheus y Grafana se inhabilitan de forma automática durante la actualización. Sin embargo, los datos y las métricas de configuración no se pierden.
Para solucionar este problema, después de la actualización, abre monitoring-sample
a fin de editarlo y establece enablePrometheus
en true
.
Accede a las métricas de supervisión desde los paneles de Grafana
Grafana muestra las métricas recopiladas de los clústeres. Para ver estas métricas, debes acceder a los paneles de Grafana:
Obtén el nombre del Pod de Grafana que se ejecuta en el espacio de nombres
kube-system
de un clúster de usuario:kubectl --kubeconfig [USER_CLUSTER_KUBECONFIG] -n kube-system get pods
En el ejemplo anterior, [USER_CLUSTER_KUBECONFIG] es el archivo kubeconfig del clúster de usuario.
El Pod de Grafana tiene un servidor HTTP que escucha en el puerto localhost 3000 de TCP. Reenvía un puerto local al puerto 3000 en el Pod para que puedas ver los paneles de Grafana desde un navegador web.
Por ejemplo, supongamos que el nombre del Pod es
grafana-0
. Para reenviar el puerto 50000 al puerto 3000 en el Pod, ingresa este comando:kubectl --kubeconfig [USER_CLUSTER_KUBECONFIG] -n kube-system port-forward grafana-0 50000:3000
Desde un navegador web, ve a
http://localhost:50000
.En la página de acceso, accede
admin
para el nombre de usuario y la contraseña.Si el acceso se realiza correctamente, verás un mensaje para cambiar la contraseña. Después de cambiar la contraseña predeterminada, se debe cargar el panel principal de Grafana del clúster de usuario.
Para acceder a otros paneles, haz clic en el menú desplegable Página principal en la esquina superior izquierda de la página.
Para ver un ejemplo del uso de Grafana, consulta Crea un panel de Grafana.
Accede a las alertas
Prometheus Alertmanager recopila alertas del servidor de Prometheus. Puedes ver estas alertas en un panel de Grafana. Para ver las alertas, debes acceder al panel:
El contenedor en el Pod
alertmanager-0
escucha en el puerto TCP 9093. Reenvía un puerto local al puerto 9093 en el Pod:kubectl --kubeconfig [USER_CLUSTER_KUBECONFIG] port-forward \ -n kube-system alertmanager-0 50001:9093
Desde un navegador web, ve a
http://localhost:50001
.
Cambia la configuración de Prometheus Alertmanager
Puedes cambiar la configuración predeterminada de Prometheus Alertmanager si editas el archivo monitoring.yaml
del clúster de usuario. Debes hacerlo si deseas enviar alertas a un destino específico, en lugar de mantenerlas en el panel. Puedes obtener información sobre cómo configurar Alertmanager en la documentación de Configuración de Prometheus.
Para cambiar la configuración de Alertmanager, sigue estos pasos:
Realiza una copia del archivo de manifiesto
monitoring.yaml
del clúster de usuario:kubectl --kubeconfig [USER_CLUSTER_KUBECONFIG] -n kube-system \ get monitoring monitoring-sample -o yaml > monitoring.yaml
Para configurar Alertmanager, realiza los cambios en los campos de
spec.alertmanager.yml
. Cuando termines, guarda el manifiesto que cambiaste.Aplica el manifiesto al clúster:
kubectl apply --kubeconfig [USER_CLUSTER_KUBECONIFG] -f monitoring.yaml
Crea un panel de Grafana
Implementaste una aplicación que expone una métrica, verificaste que la métrica se exponga y verificaste que Prometheus recopile la métrica. Ahora puedes agregar la métrica a nivel de la aplicación a un panel personalizado de Grafana.
Para crear un panel de Grafana, sigue estos pasos:
- Si es necesario, obtén acceso a Grafana.
- En el Panel principal, haz clic en el menú desplegable Página principal en la esquina superior izquierda de la página.
- En el menú del lado derecho, haz clic en Panel nuevo.
- En la sección Panel nuevo, haz clic en Grafo. Aparecerá un panel de grafo vacío.
- Haz clic en Título del panel y, luego, en Editar. En el panel Grafo inferior, se abrirá en la pestaña Métricas.
- En el menú desplegable Fuente de datos, selecciona usuario. Haz clic en Agregar consulta y, luego, ingresa
foo
en el campo búsqueda. - Haz clic en el botón Volver al panel en la esquina superior derecha de la pantalla. Se muestra el panel.
- Para guardar el panel, haz clic en Guardar panel en la esquina superior derecha de la pantalla. Elige un nombre para el panel y, luego, haz clic en Guardar.
Inhabilita Prometheus y Grafana
A partir de la versión 1.16, Prometheus y Grafana ya no se controlan con el campo enablePrometheus
en el objeto monitoring-sample
.
Consulta Usa Prometheus y Grafana para obtener más detalles.
Ejemplo: agrega métricas a nivel de la aplicación a un panel de Grafana
En las siguientes secciones, se explica cómo agregar métricas en una aplicación. En esta sección, completarás las siguientes tareas:
- Implementar una aplicación de ejemplo que exponga una métrica llamada
foo
- Verificar que Prometheus exponga y extraiga la métrica
- Crear un panel de Grafana personalizado
Implementa la aplicación de ejemplo
La aplicación de ejemplo se ejecuta en un Pod único. El contenedor del Pod expone una métrica, foo
, con un valor constante de 40
.
Crea el siguiente manifiesto del Pod, pro-pod.yaml
:
apiVersion: v1 kind: Pod metadata: name: prometheus-example annotations: prometheus.io/scrape: 'true' prometheus.io/port: '8080' prometheus.io/path: '/metrics' spec: containers: - image: registry.k8s.io/prometheus-dummy-exporter:v0.1.0 name: prometheus-example command: - /bin/sh - -c - ./prometheus_dummy_exporter --metric-name=foo --metric-value=40 --port=8080
Luego, aplica el manifiesto del Pod al clúster de usuario:
kubectl --kubeconfig [USER_CLUSTER_KUBECONFIG] apply -f pro-pod.yaml
Verifica que la métrica esté expuesta y recopilada
El contenedor en el Pod
prometheus-example
escucha en el puerto TCP 8080. Reenvía un puerto local al puerto 8080 en el Pod:kubectl --kubeconfig [USER_CLUSTER_KUBECONFIG] port-forward prometheus-example 50002:8080
Para verificar que la aplicación exponga la métrica, ejecuta el siguiente comando:
curl localhost:50002/metrics | grep foo
El comando muestra el siguiente resultado:
# HELP foo Custom metric # TYPE foo gauge foo 40
El contenedor en el Pod
prometheus-0
escucha en el puerto TCP 9090. Reenvía un puerto local al puerto 9090 en el Pod:kubectl --kubeconfig [USER_CLUSTER_KUBECONFIG] port-forward prometheus-0 50003:9090
Para verificar que Prometheus copie la métrica, navega a http://localhost:50003/targets, que te llevará al Pod
prometheus-0
en el grupo de destinoprometheus-io-pods
.Para ver las métricas en Prometheus, navega a http://localhost:50003/graph. En el campo de búsqueda, ingresa
foo
y, luego, haz clic en Ejecutar. La página debe mostrar la métrica.
Configura el recurso personalizado de Stackdriver
Cuando creas un clúster, GKE en VMware crea automáticamente un recurso personalizado de Stackdriver. Puedes editar la especificación en el recurso personalizado a fin de anular los valores predeterminados para las solicitudes de CPU y memoria y los límites de un componente de Stackdriver, y puedes anular por separado el tamaño y la clase de almacenamiento predeterminados.
Anula valores predeterminados para solicitudes y límites de CPU y memoria
Sigue estos pasos para anular estos valores predeterminados:
Abre tu recurso personalizado de Stackdriver en un editor de línea de comandos:
kubectl --kubeconfig=KUBECONFIG -n kube-system edit stackdriver stackdriver
donde KUBECONFIG es la ruta de acceso a tu archivo kubeconfig del clúster. Puede ser un clúster de administrador o de usuario.
En el recurso personalizado de Stackdriver, agrega el campo
resourceAttrOverride
en la secciónspec
:resourceAttrOverride: POD_NAME_WITHOUT_RANDOM_SUFFIX/CONTAINER_NAME: LIMITS_OR_REQUESTS: RESOURCE: RESOURCE_QUANTITY
Ten en cuenta que el campo
resourceAttrOverride
anula todos los límites y solicitudes predeterminados existentes para el componente que especificas. Los siguientes componentes son compatibles conresourceAttrOverride
:- gke-metrics-agent/gke-metrics-agent
- stackdriver-log-forwarder/stackdriver-log-forwarder
- stackdriver-metadata-agent-cluster-level/metadata-agent
- node-exporter/node-exporter
- kube-state-metrics/kube-state-metrics
Un archivo de ejemplo tiene el siguiente aspecto
apiVersion: addons.gke.io/v1alpha1 kind: Stackdriver metadata: name: stackdriver namespace: kube-system spec: projectID: my-project clusterName: my-cluster clusterLocation: us-west-1a resourceAttrOverride: gke-metrics-agent/gke-metrics-agent: requests: cpu: 110m memory: 240Mi limits: cpu: 200m memory: 4.5Gi
Guarda los cambios y cierra el editor de la línea de comandos.
Verifica el estado de los Pods:
kubectl --kubeconfig=KUBECONFIG -n kube-system get pods | grep gke-metrics-agent
Por ejemplo, un Pod en buen estado se ve de la siguiente manera:
gke-metrics-agent-4th8r 1/1 Running 0 5d19h
Verifica las especificaciones del pod del componente para asegurarte de que los recursos estén configurados correctamente.
kubectl --kubeconfig=KUBECONFIG -n kube-system describe pod POD_NAME
En el ejemplo anterior,
POD_NAME
es el nombre del Pod que acabas de cambiar. Por ejemplo,stackdriver-prometheus-k8s-0
La respuesta es similar a la siguiente:
Name: gke-metrics-agent-4th8r Namespace: kube-system ... Containers: gke-metrics-agent: Limits: cpu: 200m memory: 4.5Gi Requests: cpu: 110m memory: 240Mi ...
Anula los valores predeterminados del tamaño de almacenamiento
Sigue estos pasos para anular estos valores predeterminados:
Abre tu recurso personalizado de Stackdriver en un editor de línea de comandos:
kubectl --kubeconfig=KUBECONFIG -n kube-system edit stackdriver stackdriver
Agrega el campo
storageSizeOverride
en la secciónspec
. Puedes usar el componentestackdriver-prometheus-k8s
ostackdriver-prometheus-app
. Esta sección tiene el siguiente formato:storageSizeOverride: STATEFULSET_NAME: SIZE
En este ejemplo, se usan el statefulset
stackdriver-prometheus-k8s
y el tamaño120Gi
.apiVersion: addons.gke.io/v1alpha1 kind: Stackdriver metadata: name: stackdriver namespace: kube-system spec: projectID: my-project clusterName: my-cluster clusterLocation: us-west-1a storageSizeOverride: stackdriver-prometheus-k8s: 120Gi
Guarda las modificaciones y cierra el editor de la línea de comandos.
Verifica el estado de los Pods:
kubectl --kubeconfig=KUBECONFIG -n kube-system get pods | grep stackdriver
Por ejemplo, un Pod en buen estado se ve de la siguiente manera:stackdriver-prometheus-k8s-0 2/2 Running 0 5d19h
Verifica las especificaciones del Pod del componente para asegurarte de que el tamaño de almacenamiento se anule de forma correcta.
kubectl --kubeconfig=KUBECONFIG -n kube-system describe statefulset STATEFULSET_NAME
La respuesta es similar a la siguiente:
Volume Claims: Name: my-statefulset-persistent-volume-claim StorageClass: my-storage-class Labels: Annotations: Capacity: 120Gi Access Modes: [ReadWriteOnce]
Anula los valores predeterminados de la clase de almacenamiento
Requisito previo
Primero debes crear una StorageClass que desees usar.
A fin de anular la clase de almacenamiento predeterminada para volúmenes persistentes reclamados por componentes de registro y supervisión, sigue estos pasos:
Abre tu recurso personalizado de Stackdriver en un editor de línea de comandos:
kubectl --kubeconfig=KUBECONFIG -n kube-system edit stackdriver stackdriver
donde KUBECONFIG es la ruta de acceso a tu archivo kubeconfig del clúster. Puede ser un clúster de administrador o de usuario.
Agrega el campo
storageClassName
en la secciónspec
:storageClassName: STORAGECLASS_NAME
Ten en cuenta que el campo
storageClassName
anula la clase de almacenamiento predeterminada existente y se aplica a todos los componentes de registro y supervisión con volúmenes persistentes reclamados. Un archivo de ejemplo se ve de la siguiente manera:apiVersion: addons.gke.io/v1alpha1 kind: Stackdriver metadata: name: stackdriver namespace: kube-system spec: projectID: my-project clusterName: my-cluster clusterLocation: us-west-1a proxyConfigSecretName: my-secret-name enableVPC:
optimizedMetrics: true storageClassName: my-storage-class Guarden los cambios.
Verifica el estado de los Pods:
kubectl --kubeconfig=KUBECONFIG -n kube-system get pods | grep stackdriver
Por ejemplo, un Pod en buen estado se ve de la siguiente manera:
stackdriver-prometheus-k8s-0 1/1 Running 0 5d19h
Verifica las especificaciones del pod de un componente para asegurarte de que la clase de almacenamiento esté configurada correctamente.
kubectl --kubeconfig=KUBECONFIG -n kube-system describe statefulset STATEFULSET_NAME
Por ejemplo, si usas el conjunto con estado
stackdriver-prometheus-k8s
, la respuesta se verá de la siguiente manera:Volume Claims: Name: stackdriver-prometheus-data StorageClass: my-storage-class Labels: Annotations: Capacity: 120Gi Access Modes: [ReadWriteOnce]
Inhabilita las métricas optimizadas
De forma predeterminada, los agentes de métricas que se ejecutan en el clúster recopilan y, también, informan un conjunto optimizado de métricas de contenedores, kubelet y kube-state-metrics a Stackdriver. Si necesitas métricas adicionales, te recomendamos que busques un reemplazo en la lista de métricas de GKE Enterprise.
Estos son algunos ejemplos de reemplazos que puedes usar:
Métrica inhabilitada | Reemplazos |
---|---|
kube_pod_start_time |
container/uptime |
kube_pod_container_resource_requests |
container/cpu/request_cores container/memory/request_bytes |
kube_pod_container_resource_limits |
container/cpu/limit_cores container/memory/limit_bytes |
Para inhabilitar la configuración predeterminada de las métricas optimizadas de kube-state-metrics (no recomendado), haz lo siguiente:
Abre tu recurso personalizado de Stackdriver en un editor de línea de comandos:
kubectl --kubeconfig=KUBECONFIG -n kube-system edit stackdriver stackdriver
donde KUBECONFIG es la ruta de acceso a tu archivo kubeconfig del clúster. Puede ser un clúster de administrador o de usuario.
Configura el campo
optimizedMetrics
comofalse
:apiVersion: addons.gke.io/v1alpha1 kind: Stackdriver metadata: name: stackdriver namespace: kube-system spec: projectID: my-project clusterName: my-cluster clusterLocation: us-west-1a proxyConfigSecretName: my-secret-name enableVPC:
optimizedMetrics: false storageClassName: my-storage-class Guarda los cambios y cierra el editor de la línea de comandos.
Problema conocido: condición de error de Cloud Monitoring
(ID de problema 159761921)
En ciertas condiciones, el pod predeterminado de Cloud Monitoring, implementado de forma predeterminada en cada clúster nuevo, puede dejar de responder.
Cuando se actualizan los clústeres, por ejemplo, los datos de almacenamiento se pueden dañar cuando se reinician los pods en statefulset/prometheus-stackdriver-k8s
.
En particular, el pod de supervisión stackdriver-prometheus-k8s-0
puede originar un bucle cuando los datos dañados evitan que prometheus-stackdriver-sidecar
escriba en el PersistentVolume
de almacenamiento del clúster.
Sigue los pasos que aparecen a continuación para diagnosticar y recuperar el error de forma manual.
Diagnostica la falla de Cloud Monitoring
Cuando el pod de supervisión tenga errores, los registros informarán lo siguiente:
{"log":"level=warn ts=2020-04-08T22:15:44.557Z caller=queue_manager.go:534 component=queue_manager msg=\"Unrecoverable error sending samples to remote storage\" err=\"rpc error: code = InvalidArgument desc = One or more TimeSeries could not be written: One or more points were written more frequently than the maximum sampling period configured for the metric.: timeSeries[0-114]; Unknown metric: kubernetes.io/anthos/scheduler_pending_pods: timeSeries[196-198]\"\n","stream":"stderr","time":"2020-04-08T22:15:44.558246866Z"}
{"log":"level=info ts=2020-04-08T22:15:44.656Z caller=queue_manager.go:229 component=queue_manager msg=\"Remote storage stopped.\"\n","stream":"stderr","time":"2020-04-08T22:15:44.656798666Z"}
{"log":"level=error ts=2020-04-08T22:15:44.663Z caller=main.go:603 err=\"corruption after 29032448 bytes: unexpected non-zero byte in padded page\"\n","stream":"stderr","time":"2020-04-08T22:15:44.663707748Z"}
{"log":"level=info ts=2020-04-08T22:15:44.663Z caller=main.go:605 msg=\"See you next time!\"\n","stream":"stderr","time":"2020-04-08T22:15:44.664000941Z"}
Recuperación del error de Cloud Monitoring
Para recuperar manualmente Cloud Monitoring, haz lo siguiente:
Detén la supervisión del clúster. Reduce la escala verticalmente del operador
stackdriver
para evitar la conciliación de supervisión:kubectl --kubeconfig /ADMIN_CLUSTER_KUBCONFIG --namespace kube-system scale deployment stackdriver-operator --replicas 0
Borra las cargas de trabajo de la canalización de supervisión:
kubectl --kubeconfig /ADMIN_CLUSTER_KUBCONFIG --namespace kube-system delete statefulset stackdriver-prometheus-k8s
Borra las PersistentVolumeClaims (PVC) de la canalización de supervisión:
kubectl --kubeconfig /ADMIN_CLUSTER_KUBCONFIG --namespace kube-system delete pvc -l app=stackdriver-prometheus-k8s
Reinicia la supervisión del clúster. Escala verticalmente el operador de Stackdriver para reinstalar una canalización de supervisión nueva y reanudar la conciliación:
kubectl --kubeconfig /ADMIN_CLUSTER_KUBCONFIG --namespace kube-system scale deployment stackdriver-operator --replicas=1