Notes de version de Google Distributed Cloud sous air gap 1.12.2

5 avril 2024


Google Distributed Cloud (GDC) sous air gap 1.12.2 est disponible.
Consultez la présentation du produit pour en savoir plus sur les fonctionnalités de Distributed Cloud.


Mise à jour de la version de l'image de l'OS Rocky Linux vers la version 20240306 pour appliquer les derniers correctifs de sécurité et les mises à jour importantes. Les failles de sécurité suivantes ont été corrigées :


Les failles de sécurité suivantes concernant les images de conteneurs ont été corrigées :


Correction d'une faille de sécurité avec Microsoft Visual Studio Code dans l'infrastructure Operations Suite (OI) en mettant à jour Microsoft Visual Studio Code vers la version 1.86.2.


Correction de plusieurs failles de sécurité dans Google Chrome au niveau de l'infrastructure Operations Suite (OI) en passant à la version 122.0.6261.69.


Correction des failles liées à l'OS Ubuntu précompilé.


Mise à jour de l'image de base gcr.io/distroless/libc vers le condensé sha256:4f834e207f2721977094aeec4c9daee7032c5daec2083c0be97760f4306e4f88 pour appliquer les derniers correctifs de sécurité et les mises à jour importantes.


Gestion des clusters :

  • Il est possible que les pools de nœuds des clusters d'utilisateur avec la version 1.27.x de Kubernetes ne s'initialisent pas.
  • Le PodCIDR IPv4 requis n'est pas disponible.

Stockage de fichiers et par blocs :

  • Lors de la mise à niveau de la version 1.11.1 vers la version 1.12.2, le déploiement du sous-composant file-netapp-trident peut échouer.

Pare-feu :

  • bm-system-machine-init échoue sur le premier nœud. Les stratégies de pare-feu IDPS par défaut ne sont pas compatibles avec les adresses IP personnalisées de l'organisation pour l'interconnexion Direct Connect (DX).

Module de sécurité matérielle (HSM) :

  • Un secret rotatif pour les modules de sécurité matériels est dans un état inconnu.

Mise en réseau de niveau inférieur :

  • Les commutateurs réseau préchargés avec une version antérieure à 9.3.10 peuvent ne pas réussir l'amorçage.
  • Certaines connexions au nœud org-admin expirent.

Mise en réseau :

  • GDC ne parvient pas à créer des ACL de commutateur à partir des règles de trafic lors du processus d'amorçage initial.

Serveur NTP :

  • L'heure de l'OS du nœud n'est pas synchronisée.

Stockage d'objets :

  • Il est possible que les buckets de stockage d'objets ne soient pas prêts après la mise à niveau de l'organisation racine.

Surveillance :

  • La configuration du webhook ServiceNow entraîne une nouvelle réconciliation et une restauration des modifications apportées à l'objet ConfigMap mon-alertmanager-servicenow-webhook-backend et à l'objet Secret mon-alertmanager-servicenow-webhook-backend dans l'espace de noms mon-system par la gestion du cycle de vie (LCM).
  • Le sous-composant mon-common ne déploie pas l'objet de télémétrie Istio dans l'espace de noms mon-system.
  • La classe de stockage des métriques est définie de manière incorrecte dans la configuration.
  • Le ConfigMap mon-prober-backend-prometheus-config est réinitialisé pour n'inclure aucune tâche de sonde, et l'alerte MON-A0001 est déclenchée.

Serveurs physiques :

  • Un NodePool a un serveur dans un état inconnu lors de sa création.
  • La mise à niveau du micrologiciel du nœud échoue sur une organisation.

Registre d'artefacts système :

  • Le pod du service de tâches n'est pas prêt.

Système de gestion des demandes :

  • La synchronisation de la base de connaissances du système de billetterie échoue.
  • Le système de gestion des demandes ne dispose d'aucun élément opérationnel en amont.

Vertex AI :

  • L'MonitoringTarget affiche l'état Not Ready lorsque des clusters d'utilisateur sont en cours de création, ce qui entraîne l'affichage continu de l'état Enabling dans l'interface utilisateur pour les API pré-entraînées.

Machines virtuelles :

  • Les pods de l'importateur échouent ou sont bloqués.
  • Le provisionnement des disques de machine virtuelle peut prendre beaucoup de temps.
  • Il est possible que VMRuntime ne soit pas prêt en raison d'un échec de l'installation de network-controller-manager.

Mettre à niveau :

Mettre à niveau :

  • Le sous-composant unet-nodenetworkpolicy-infra échoue lors de la mise à niveau.
  • Échec de la mise à niveau du cluster système de la version 1.11.x vers la version 1.12.2.
  • Le sous-composant file-observability échoue sur org-1-system-cluster lors de la mise à niveau de la version 1.11.x vers la version 1.12.2.
  • La mise à niveau de HSMupgrade échoue lorsque vous passez de la version 1.11.x à la version 1.12.2.
  • Les pods Loki sont bloqués dans un état d'arrêt pendant plus d'une heure et demie lors de la mise à niveau de la version 1.11.x vers la version 1.12.2.
  • La connexion SSH à une VM avec une adresse IP de gestion et les journaux Cilium échouent lors de la mise à niveau de la version 1.11.x vers la version 1.12.2.
  • La mise à niveau du stockage d'objets affiche une erreur lors de la vérification post-vol ou pré-vol.
  • Les mises à jour du sous-composant mz-etcd spec.deployTarget et spec.Namespace entraînent l'échec de la mise à niveau de la version 1.11.x vers la version 1.12.x.
  • Un échec NTP OSPolicy empêche l'exécution de tous les autres OSPolicies.

Gestion des clusters :

  • Correction du problème lié à l'opération de suppression de l'espace de noms bloquée à l'état Terminating lors de la suppression d'un cluster d'utilisateur.

Journalisation :

  • Correction du problème lié aux instances Loki qui ne collectaient pas les journaux d'audit ni les journaux opérationnels.
  • Correction du problème lié aux ressources ValidatingWebhookConfiguration, MutatingWebhookConfiguration et MonitoringRule déployées par le composant Log qui ne pouvaient pas passer de la version 1.11.x à la version 1.12.x.
  • Correction du problème lié au fait que les journaux du serveur d'API Kubernetes n'étaient pas transférés vers une destination SIEM externe lorsque l'exportation des journaux était activée.

Surveillance :

  • Correction du problème d'échec de suppression du bucket Cortex lors de la mise à niveau de la version 1.11.x vers la version 1.12.2.

Serveur NTP :

  • Correction d'un problème de boucle de plantage du pod du serveur relais NTP.

Serveurs physiques :

  • Correction du problème qui bloquait les serveurs dans la phase Inspecting lors de l'amorçage.

Mettre à niveau :

  • Correction du problème qui pouvait entraîner l'arrêt de la réponse de la mise à niveau sur place de l'OS du nœud.
  • Correction du problème de blocage des mises à niveau de clusters d'utilisateur en raison d'une erreur de réconciliation.

Sauvegarde et restauration de volumes :

  • Correction du problème qui empêchait les sauvegardes de volumes de résoudre les buckets d'organisation.

Gestionnaire de modules complémentaires :