Notas de la versión 1.12.2 de Google Distributed Cloud con air gap

5 de abril del 2024


Google Distributed Cloud (GDC) con air gap 1.12.2 está disponible.
Consulta la descripción general del producto para obtener información sobre las funciones de Distributed Cloud.


Se ha actualizado la versión de la imagen del SO Rocky Linux a 20240306 para aplicar los parches de seguridad y las actualizaciones importantes más recientes. Se han corregido las siguientes vulnerabilidades de seguridad:


Se han corregido las siguientes vulnerabilidades de seguridad de imágenes de contenedor:


Se ha corregido una vulnerabilidad de Microsoft Visual Studio Code en la infraestructura de Operations Suite (OI) actualizando Microsoft Visual Studio Code a la versión 1.86.2.


Se han corregido varias vulnerabilidades de Google Chrome en la infraestructura de Operations Suite (OI) al actualizar a la versión 122.0.6261.69.


Se han corregido las vulnerabilidades relacionadas con el SO Ubuntu precompilado.


Se ha actualizado la imagen base de gcr.io/distroless/libc al digest sha256:4f834e207f2721977094aeec4c9daee7032c5daec2083c0be97760f4306e4f88 para aplicar los últimos parches de seguridad y actualizaciones importantes.


Gestión de clústeres:

  • Es posible que los clústeres de usuario con la versión 1.27.x de Kubernetes tengan grupos de nodos que no se inicialicen.
  • El PodCIDR IPv4 necesario no está disponible.

Almacenamiento de archivos y en bloque:

  • Al actualizar de la versión 1.11.1 a la 1.12.2, es posible que falle el lanzamiento del subcomponente file-netapp-trident.

Cortafuegos:

  • bm-system-machine-init falla en el primer nodo. Las políticas de cortafuegos de IDPS predeterminadas no admiten las IPs personalizadas de la organización para la interconexión Direct Connect (DX).

Módulo de seguridad de hardware (HSM):

  • El estado de un secreto rotable de módulos de seguridad de hardware es desconocido.

Redes más bajas:

  • Es posible que los switches de red que tengan precargada una versión inferior a la 9.3.10 no puedan iniciarse.
  • Se agota el tiempo de espera de algunas conexiones al nodo org-admin.

Redes:

  • GDC no puede crear ACLs de conmutación a partir de políticas de tráfico durante el proceso de arranque inicial.

Servidor NTP:

  • El SO del nodo tiene una hora no sincronizada.

Almacenamiento de objetos:

  • Es posible que los segmentos de almacenamiento de objetos no estén listos después de actualizar la organización raíz.

Monitorización:

  • Configurar el webhook de ServiceNow provoca que la gestión del ciclo de vida (LCM) vuelva a conciliar y revierta los cambios realizados en el objeto ConfigMap mon-alertmanager-servicenow-webhook-backend y en el objeto Secret mon-alertmanager-servicenow-webhook-backend en el espacio de nombres mon-system.
  • El subcomponente mon-common no implementa el objeto de telemetría de Istio en el espacio de nombres mon-system.
  • La clase de almacenamiento de métricas no está definida correctamente en la configuración.
  • El ConfigMap mon-prober-backend-prometheus-config se restablece para que no incluya ningún trabajo de comprobación y se activa la alerta MON-A0001.

Servidores físicos:

  • Un NodePool tiene un servidor en estado desconocido durante la creación.
  • No se puede actualizar el firmware de los nodos de una organización.

Registro de artefactos del sistema:

  • El pod del servicio de trabajo no está listo.

Sistema de incidencias:

  • La sincronización de la base de conocimientos del sistema de gestión de incidencias falla.
  • El sistema de incidencias no tiene un upstream correcto.

Vertex AI:

  • El MonitoringTarget muestra el estado Not Ready cuando se están creando clústeres de usuarios, lo que provoca que las APIs preentrenadas muestren continuamente el estado Enabling en la interfaz de usuario.

Máquinas virtuales:

  • Los pods del importador fallan o se quedan bloqueados.
  • Los discos de las máquinas virtuales pueden tardar mucho tiempo en aprovisionarse.
  • Es posible que VMRuntime no esté listo debido a un error en la instalación de network-controller-manager.

Cambio:

Cambio:

  • El subcomponente unet-nodenetworkpolicy-infra falla durante la actualización.
  • El clúster del sistema falla durante la actualización de la versión 1.11.x a la 1.12.2.
  • El subcomponente file-observability falla en org-1-system-cluster al actualizar de la versión 1.11.x a la 1.12.2.
  • La HSMupgrade falla al actualizar de la versión 1.11.x a la 1.12.2.
  • Los pods de Loki se quedan en estado de finalización durante más de 1,5 horas al actualizar de la versión 1.11.x a la 1.12.2.
  • Falla la conexión SSH a una VM con una IP de gestión y los registros de cilium al actualizar de la versión 1.11.x a la 1.12.2.
  • La actualización del almacenamiento de objetos muestra un error durante la comprobación posterior o previa al vuelo.
  • El subcomponente mz-etcd actualiza spec.deployTarget y spec.Namespace, lo que provoca que falle la actualización de la versión 1.11.x a la 1.12.x.
  • Si falla un OSPolicy NTP, se impide que se ejecuten todos los demás OSPolicies.

Gestión de clústeres:

  • Se ha corregido el problema que provocaba que la operación de eliminación del espacio de nombres se quedara en el estado Terminating al eliminar un clúster de usuarios.

Registro:

  • Se ha corregido el problema que provocaba que las instancias de Loki no recogieran registros de auditoría ni registros operativos.
  • Se ha corregido el problema con ValidatingWebhookConfiguration, MutatingWebhookConfiguration y MonitoringRule recursos implementados por el componente de registro que no se podían actualizar de la versión 1.11.x a la 1.12.x.
  • Se ha corregido el problema que provocaba que los registros del servidor de la API de Kubernetes no se reenviaran a un destino SIEM externo al habilitar la exportación de registros.

Monitorización:

  • Se ha corregido el problema que provocaba que no se pudieran eliminar los contenedores de Cortex al actualizar de la versión 1.11.x a la 1.12.2.

Servidor NTP:

  • Se ha corregido un problema con el bucle de fallos del pod del servidor de retransmisión NTP.

Servidores físicos:

  • Se ha corregido el problema que provocaba que los servidores se quedaran bloqueados en la fase Inspecting durante el arranque.

Cambio:

  • Se ha corregido un problema que provocaba que la actualización in situ de nodos del SO dejara de responder.
  • Se ha corregido el problema que impedía actualizar los clústeres de usuarios debido a un error de conciliación.

Copia de seguridad y restauración de volúmenes:

  • Se ha corregido el problema que impedía que las copias de seguridad de volúmenes resolvieran los contenedores de organizaciones.

Gestor de complementos: