5 de abril del 2024
Google Distributed Cloud (GDC) con air gap 1.12.2 está disponible.
Consulta la descripción general del producto para obtener información sobre las funciones de Distributed Cloud.
Se ha actualizado la versión de la imagen del SO Rocky Linux a 20240306 para aplicar los parches de seguridad y las actualizaciones importantes más recientes. Se han corregido las siguientes vulnerabilidades de seguridad:
Se han corregido las siguientes vulnerabilidades de seguridad de imágenes de contenedor:
Se ha corregido una vulnerabilidad de Microsoft Visual Studio Code en la infraestructura de Operations Suite (OI) actualizando Microsoft Visual Studio Code a la versión 1.86.2.
Se han corregido varias vulnerabilidades de Google Chrome en la infraestructura de Operations Suite (OI) al actualizar a la versión 122.0.6261.69.
Se han corregido las vulnerabilidades relacionadas con el SO Ubuntu precompilado.
Se ha actualizado la imagen base de gcr.io/distroless/libc
al digest sha256:4f834e207f2721977094aeec4c9daee7032c5daec2083c0be97760f4306e4f88
para aplicar los últimos parches de seguridad y actualizaciones importantes.
Gestión de clústeres:
- Es posible que los clústeres de usuario con la versión 1.27.x de Kubernetes tengan grupos de nodos que no se inicialicen.
- El PodCIDR IPv4 necesario no está disponible.
Almacenamiento de archivos y en bloque:
-
Al actualizar de la versión 1.11.1 a la 1.12.2, es posible que falle el lanzamiento del subcomponente
file-netapp-trident
.
Cortafuegos:
bm-system-machine-init
falla en el primer nodo. Las políticas de cortafuegos de IDPS predeterminadas no admiten las IPs personalizadas de la organización para la interconexión Direct Connect (DX).
Módulo de seguridad de hardware (HSM):
- El estado de un secreto rotable de módulos de seguridad de hardware es desconocido.
Redes más bajas:
- Es posible que los switches de red que tengan precargada una versión inferior a la 9.3.10 no puedan iniciarse.
- Se agota el tiempo de espera de algunas conexiones al nodo
org-admin
.
Redes:
- GDC no puede crear ACLs de conmutación a partir de políticas de tráfico durante el proceso de arranque inicial.
Servidor NTP:
- El SO del nodo tiene una hora no sincronizada.
Almacenamiento de objetos:
- Es posible que los segmentos de almacenamiento de objetos no estén listos después de actualizar la organización raíz.
Monitorización:
-
Configurar el webhook de ServiceNow provoca que la gestión del ciclo de vida (LCM) vuelva a conciliar y revierta los cambios realizados en el objeto
ConfigMap
mon-alertmanager-servicenow-webhook-backend
y en el objetoSecret
mon-alertmanager-servicenow-webhook-backend
en el espacio de nombresmon-system
. -
El subcomponente
mon-common
no implementa el objeto de telemetría de Istio en el espacio de nombresmon-system
. - La clase de almacenamiento de métricas no está definida correctamente en la configuración.
-
El ConfigMap
mon-prober-backend-prometheus-config
se restablece para que no incluya ningún trabajo de comprobación y se activa la alertaMON-A0001
.
Servidores físicos:
- Un
NodePool
tiene un servidor en estado desconocido durante la creación. - No se puede actualizar el firmware de los nodos de una organización.
Registro de artefactos del sistema:
- El pod del servicio de trabajo no está listo.
Sistema de incidencias:
- La sincronización de la base de conocimientos del sistema de gestión de incidencias falla.
- El sistema de incidencias no tiene un upstream correcto.
Vertex AI:
-
El
MonitoringTarget
muestra el estadoNot Ready
cuando se están creando clústeres de usuarios, lo que provoca que las APIs preentrenadas muestren continuamente el estadoEnabling
en la interfaz de usuario.
Máquinas virtuales:
- Los pods del importador fallan o se quedan bloqueados.
- Los discos de las máquinas virtuales pueden tardar mucho tiempo en aprovisionarse.
- Es posible que VMRuntime no esté listo debido a un error en la instalación de network-controller-manager.
Cambio:
Cambio:
- El subcomponente
unet-nodenetworkpolicy-infra
falla durante la actualización. - El clúster del sistema falla durante la actualización de la versión 1.11.x a la 1.12.2.
- El subcomponente
file-observability
falla enorg-1-system-cluster
al actualizar de la versión 1.11.x a la 1.12.2. - La
HSMupgrade
falla al actualizar de la versión 1.11.x a la 1.12.2. - Los pods de Loki se quedan en estado de finalización durante más de 1,5 horas al actualizar de la versión 1.11.x a la 1.12.2.
- Falla la conexión SSH a una VM con una IP de gestión y los registros de cilium al actualizar de la versión 1.11.x a la 1.12.2.
- La actualización del almacenamiento de objetos muestra un error durante la comprobación posterior o previa al vuelo.
-
El subcomponente
mz-etcd
actualizaspec.deployTarget
yspec.Namespace
, lo que provoca que falle la actualización de la versión 1.11.x a la 1.12.x. -
Si falla un
OSPolicy
NTP, se impide que se ejecuten todos los demásOSPolicies
.
Gestión de clústeres:
- Se ha corregido el problema que provocaba que la operación de eliminación del espacio de nombres se quedara en el estado
Terminating
al eliminar un clúster de usuarios.
Registro:
- Se ha corregido el problema que provocaba que las instancias de Loki no recogieran registros de auditoría ni registros operativos.
-
Se ha corregido el problema con
ValidatingWebhookConfiguration
,MutatingWebhookConfiguration
yMonitoringRule
recursos implementados por el componente de registro que no se podían actualizar de la versión 1.11.x a la 1.12.x. - Se ha corregido el problema que provocaba que los registros del servidor de la API de Kubernetes no se reenviaran a un destino SIEM externo al habilitar la exportación de registros.
Monitorización:
- Se ha corregido el problema que provocaba que no se pudieran eliminar los contenedores de Cortex al actualizar de la versión 1.11.x a la 1.12.2.
Servidor NTP:
Se ha corregido un problema con el bucle de fallos del pod del servidor de retransmisión NTP.
Servidores físicos:
- Se ha corregido el problema que provocaba que los servidores se quedaran bloqueados en la fase
Inspecting
durante el arranque.
Cambio:
- Se ha corregido un problema que provocaba que la actualización in situ de nodos del SO dejara de responder.
- Se ha corregido el problema que impedía actualizar los clústeres de usuarios debido a un error de conciliación.
Copia de seguridad y restauración de volúmenes:
- Se ha corregido el problema que impedía que las copias de seguridad de volúmenes resolvieran los contenedores de organizaciones.
Gestor de complementos:
La versión de Google Distributed Cloud se ha actualizado a la 1.28.300-gke.131 para aplicar los últimos parches de seguridad y actualizaciones importantes.
Para obtener más información, consulta las notas de la versión 1.28.300-gke.131 de Google Distributed Cloud.