Clustersicherheit härten

In diesem Dokument wird beschrieben, wie Sie die Sicherheit Ihrer Google Distributed Cloud-Cluster erhöhen können.

Container mit SELinux schützen

Sie können Ihre Container sichern, indem Sie SELinux aktivieren, das für Red Hat Enterprise Linux (RHEL) unterstützt wird. Wenn auf Ihren Hostcomputern RHEL ausgeführt wird und Sie SELinux für Ihren Cluster aktivieren möchten, müssen Sie SELinux auf allen Hostcomputern aktivieren. Weitere Informationen finden Sie unter Container mit SELinux sichern.

seccomp verwenden, um Container einzuschränken

Der sichere Computing-Modus (seccomp) ist in Version 1.11 von Google Distributed Cloud und höher verfügbar. Durch die Ausführung von Containern mit einem seccomp-Profil wird die Sicherheit Ihres Clusters verbessert, da die Systemaufrufe eingeschränkt werden, die Container für den Kernel ausführen dürfen. Dadurch verringert sich die Wahrscheinlichkeit, dass Kernel-Sicherheitslücken ausgenutzt werden.

Das standardmäßige Profil seccomp enthält eine Liste der Systemaufrufe, die ein Container ausführen darf. Alle Systemaufrufe, die nicht in der Liste enthalten sind, sind nicht zulässig. seccomp ist in Version 1.11 von Google Distributed Cloud standardmäßig aktiviert. Das bedeutet, dass alle Systemcontainer und Kundenarbeitslasten mit dem Standardprofil seccomp der Containerlaufzeit ausgeführt werden. Auch Container und Arbeitslasten, für die in ihren Konfigurationsdateien kein seccomp-Profil angegeben ist, unterliegen seccomp-Einschränkungen.

seccomp clusterweite oder für bestimmte Arbeitslasten deaktivieren

Sie können seccomp nur während der Clustererstellung oder beim Clusterupgrade deaktivieren. bmctl update kann nicht zum Deaktivieren dieser Funktion verwendet werden. Wenn Sie seccomp in einem Cluster deaktivieren möchten, fügen Sie der Konfigurationsdatei des Clusters den folgenden Abschnitt clusterSecurity hinzu:

apiVersion: baremetal.cluster.gke.io/v1
kind: Cluster
metadata:
  name: example
  namespace: cluster-example
spec:
...
  clusterSecurity:
    enableSeccomp: false
...

Im unwahrscheinlichen Fall, dass einige Ihrer Arbeitslasten Systemaufrufe ausführen müssen, die seccomp standardmäßig blockiert, müssen Sie seccomp nicht für den gesamten Cluster deaktivieren. Stattdessen können Sie einzelne Arbeitslasten, die in unconfined mode ausgeführt werden sollen, einzeln auswählen. Wenn Sie eine Arbeitslast in unconfined mode ausführen, wird diese Arbeitslast von den Einschränkungen befreit, die das Profil seccomp für den Rest des Clusters erzwingt.

Zum Ausführen eines Containers in unconfined mode fügen Sie dem Pod-Manifest den folgenden securityContext-Abschnitt hinzu:

apiVersion: v1
kind: Pod
....
spec:
  securityContext:
    seccompProfile:
      type: Unconfined
....

Container nicht als root-Nutzer ausführen

Prozesse in Containern werden standardmäßig als root ausgeführt. Dies stellt ein potenzielles Sicherheitsproblem dar, da ein Prozess, der den Container verlässt, als root auf dem Hostcomputer ausgeführt wird. Es wird daher empfohlen, alle Arbeitslasten als Nutzer ohne Rootberechtigung auszuführen.

In den folgenden Abschnitten werden zwei Möglichkeiten zum Ausführen von Containern als Nicht-Root-Nutzer beschrieben.

Methode 1: USER-Anweisung in Dockerfile hinzufügen

Diese Methode verwendet Dockerfile, um sicherzustellen, dass Container nicht als root-Nutzer ausgeführt werden. In einem Dockerfile können Sie angeben, welcher Nutzer in einem Container ausgeführt werden soll. Das folgende Snippet aus einem Dockerfile zeigt, wie das geht:

....

#Add a user with userid 8877 and name nonroot
RUN useradd −u 8877 nonroot

#Run Container as nonroot
USER nonroot
....

In diesem Beispiel erstellt der Linux-Befehl useradd -u einen Nutzer namens nonroot im Container. Dieser Nutzer hat die Nutzer-ID (UID) 8877.

In der nächsten Zeile von Dockerfile wird der Befehl USER nonroot ausgeführt. Dieser Befehl gibt an, dass Befehle ab diesem Punkt im Image als Nutzer-nonroot ausgeführt werden.

Gewähren Sie Berechtigungen der UID 8877, damit die Containerprozesse für nonroot ordnungsgemäß ausgeführt werden können.

Methode 2: securityContext-Felder in der Kubernetes-Manifestdatei hinzufügen

Bei dieser Methode wird eine Kubernetes-Manifestdatei verwendet, um sicherzustellen, dass Container nicht als root-Nutzer ausgeführt werden. Die Sicherheitseinstellungen werden für einen Pod festgelegt und diese werden wiederum auf alle Container innerhalb des Pods angewendet.

Das folgende Beispiel zeigt einen Auszug aus einer Manifestdatei für einen bestimmten Pod:

apiVersion: v1
kind: Pod
metadata:
  name: name-of-pod
spec:
  securityContext:
    runAsUser: 8877
    runAsGroup: 8877
....

Das Feld runAsUser gibt an, dass für alle Container im Pod alle Prozesse mit der Nutzer-ID 8877 ausgeführt werden. Das Feld runAsGroup gibt an, dass diese Prozesse die primäre Gruppen-ID (GID) 8877 haben. Denken Sie daran, der UID 8877 die erforderlichen und ausreichenden Berechtigungen zu erteilen, damit die Containerprozesse ordnungsgemäß ausgeführt werden können.

Dadurch wird sichergestellt, dass Prozesse in einem Container als UID 8877 ausgeführt werden, die weniger Berechtigungen als Root hat.

Systemcontainer in Google Distributed Cloud helfen bei der Installation und Verwaltung von Clustern. Die von diesen Containern verwendeten UIDs und GIDs können durch das Feld startUIDRangeRootlessContainers in der Clusterspezifikation gesteuert werden. startUIDRangeRootlessContainers ist ein optionales Feld. Wenn nicht angegeben, hat es den Wert 2000. Zulässige Werte für startUIDRangeRootlessContainers sind 1000-57000. Der Wert für startUIDRangeRootlessContainers kann nur während Upgrades geändert werden. Die Systemcontainer verwenden die UIDs und GIDs im Bereich startUIDRangeRootlessContainers bis startUIDRangeRootlessContainers + 2999.

Das folgende Beispiel zeigt einen Auszug aus einer Manifestdatei für eine Cluster-Ressource:

apiVersion: baremetal.cluster.gke.io/v1
kind: Cluster
metadata:
  name: name-of-cluster
spec:
 clusterSecurity:
    startUIDRangeRootlessContainers: 5000
...

Wählen Sie den Wert für startUIDRangeRootlessContainers aus, damit sich die von den Systemcontainern verwendeten UID- und die GID-Bereiche nicht mit denen überschneiden, die Nutzerarbeitslasten zugewiesen sind.

"Modus ohne Root" deaktivieren

Ab Google Distributed Cloud-Release 1.10 werden Container und Steuerungsebenen von Kubernetes standardmäßig als Nutzer ohne Root ausgeführt. Google Distributed Cloud weist diesen Nutzern UIDs und GIDs im Bereich 2000 bis 4999 zu. Diese Zuweisung kann jedoch zu Problemen führen, wenn diese UIDs und GIDs bereits Prozessen zugewiesen wurden, die in Ihrer Umgebung ausgeführt werden.

Ab der Google Distributed Cloud-Version 1.11 können Sie den „Modus ohne Root“ deaktivieren, wenn Sie Ihren Cluster aktualisieren. Wenn der „Modus ohne Root“ deaktiviert ist, werden Kubernetes-Steuerungsebenencontainer und -Systemcontainer als Root-Nutzer ausgeführt.

Um den „Modus ohne Root“ zu deaktivieren, führen Sie folgende Schritte aus:

  1. Fügen Sie der Konfigurationsdatei des Clusters den folgenden Abschnitt clusterSecurity hinzu:

    apiVersion: baremetal.cluster.gke.io/v1
    kind: Cluster
    metadata:
      name: example
      namespace: cluster-example
    spec:
    ...
      clusterSecurity:
        enableRootlessContainers: false
    ...
    
  2. Cluster upgraden Weitere Informationen finden Sie unter Cluster aktualisieren.

Möglichkeit einschränken, dass sich Arbeitslasten selbst ändern

Bestimmte Kubernetes-Arbeitslasten, insbesondere Systemarbeitslasten, haben die Berechtigung, sich selbst zu ändern. Beispielsweise werden einige Arbeitslasten automatisch vertikal skaliert. Dies ist zwar praktisch, kann einem Angreifer, der bereits einen Knoten manipuliert hat, aber auch die Möglichkeit bieten, im Cluster weiter zu eskalieren. Ein Angreifer kann beispielsweise dafür sorgen, dass sich eine Arbeitslast auf dem Knoten selbst ändert, um als ein privilegierteres Dienstkonto ausgeführt zu werden, das im selben Namespace vorhanden ist.

Idealerweise sollten Arbeitslasten nicht die Berechtigung erhalten, sich selbst zu ändern. Wenn eine Selbständerung erforderlich ist, können Sie die Berechtigungen einschränken, indem Sie Gatekeeper- oder Policy Controller-Einschränkungen anwenden, z. B. NoUpdateServiceAccount aus der Open-Source-Gatekeeper-Bibliothek, die mehrere nützliche Sicherheitsrichtlinien bietet.

Wenn Sie Richtlinien bereitstellen, müssen die Controller, die den Clusterlebenszyklus verwalten, normalerweise die Möglichkeit haben, die Richtlinien zu umgehen. Dies ist erforderlich, damit die Controller Änderungen am Cluster vornehmen können, indem sie z. B. Clusterupgrades anwenden. Wenn Sie beispielsweise die Richtlinie NoUpdateServiceAccount für Google Distributed Cloud bereitstellen, müssen Sie die folgenden Parameter in Constraint festlegen:

parameters:
  allowedGroups:
  - system:masters
  allowedUsers: []

Schreibgeschützten Port für Kubelet deaktivieren

Ab Version 1.15.0 deaktiviert Google Distributed Cloud standardmäßig Port 10255, den schreibgeschützten Kubelet-Port. Alle Kundenarbeitslasten, die für das Lesen von Daten aus diesem unsicheren Kubelet-Port 10255 konfiguriert sind, sollten zur Verwendung des sicheren Kubelet-Ports 10250 migrieren.

Nur bei Clustern, die mit Version 1.15.0 oder höher erstellt wurden, ist dieser Port standardmäßig deaktiviert. Der schreibgeschützte Kubelet-Port 10255 bleibt für Cluster zugänglich, die mit einer Version vor 1.15.0 erstellt wurden, auch nach einem Cluster-Upgrade auf Version 1.15.0 oder höher.

Diese Änderung wurde vorgenommen, da das Kubelet Informationen mit niedriger Vertraulichkeit über Port 10255 weiterleitet, der nicht authentifiziert ist. Die Informationen enthalten die vollständigen Konfigurationsinformationen für alle Pods, die auf einem Knoten ausgeführt werden. Dies kann für einen Angreifer wertvoll sein. Außerdem werden Messwerte und Statusinformationen bereitgestellt, die für das Unternehmen relevante Informationen liefern können.

Das Deaktivieren des schreibgeschützten kubelet-Ports wird von der CIS-Kubernetes-Benchmark empfohlen.

Wartung

Das Monitoring von Sicherheitsbulletins und das Upgrade Ihrer Cluster sind wichtige Sicherheitsmaßnahmen, die ergriffen werden sollten, wenn Ihre Cluster einsatzbereit sind.

Sicherheitsbulletins überwachen

Das Sicherheitsteam von GKE Enterprise veröffentlicht Sicherheitsbulletins für Sicherheitslücken mit hohem und kritischem Schweregrad.

Diese Bulletins folgen einem gängigen Schema zur Sicherheitslückennummer für Google Cloud und sind über die Hauptseite der Google Cloud-Bulletins und die Google Distributed Cloud-Versionshinweise verknüpft.

Verwenden Sie diesen XML-Feed, um Sicherheitsbulletins für Google Distributed Cloud und ähnliche Produkte zu abonnieren. Abonnieren

Wenn Kunden Maßnahmen ergreifen müssen, um diese Sicherheitslücken mit hohem und kritischem Schweregrad zu adressieren, kontaktiert Google Kunden per E-Mail. Darüber hinaus kann Google Kunden mit Supportverträgen auch über Supportkanäle kontaktieren.

Weitere Informationen darüber, wie Google Sicherheitslücken und Patches für GKE und GKE Enterprise verwaltet, finden Sie unter Sicherheitspatches.

Cluster aktualisieren

Kubernetes implementiert regelmäßig neue Sicherheits-Features und bietet Sicherheitspatches. Google Distributed Cloud-Releases enthalten Kubernetes-Sicherheitserweiterungen, die Sicherheitslücken beheben, die sich auf Ihre Cluster auswirken können.

Sie sind selbst dafür verantwortlich, Ihre Google Distributed Cloud-Cluster auf dem neuesten Stand zu halten. Lesen Sie für jede Version die Versionshinweise. Um Sicherheitsrisiken für Ihre Cluster zu minimieren, sollten Sie jeden Monat neue Patchversionen und Nebenversionen alle vier Monate aktualisieren.

Einer der vielen Vorteile eines Upgrades eines Clusters besteht darin, dass die kubeconfig-Datei des Clusters automatisch aktualisiert wird. Die kubeconfig-Datei authentifiziert einen Nutzer bei einem Cluster. Die kubeconfig-Datei wird Ihrem Clusterverzeichnis hinzugefügt, wenn Sie einen Cluster mit bmctl erstellen. Der Standardname und der Standardpfad sind bmctl-workspace/CLUSTER_NAME/CLUSTER_NAME-kubeconfig. Wenn Sie ein Cluster upgraden, wird die kubeconfig-Datei dieses Clusters automatisch verlängert. Andernfalls läuft die Datei „kubeconfig” ein Jahr nach ihrer Erstellung ab.

Informationen zum Upgrade Ihrer Cluster finden Sie unter Cluster upgraden.

VPC Service Controls mit Cloud Interconnect oder Cloud VPN verwenden

Cloud Interconnect bietet Verbindungen mit niedriger Latenz und hoher Verfügbarkeit, mit denen Sie Daten zuverlässig zwischen Ihren lokalen Bare-Metal-Maschinen und VPC-Netzwerken (Virtual Private Cloud) von Google Cloud übertragen können. Weitere Informationen zu Cloud Interconnect finden Sie unter Bereitstellung mit Dedicated Interconnect – Übersicht.

Mit Cloud VPN können Sie Ihr Peer-Netzwerk über eine IPsec-VPN-Verbindung sicher mit Ihrem Virtual Private Cloud-Netzwerk (VPC) verbinden. Weitere Informationen zu Cloud VPN finden Sie unter Cloud VPN – Übersicht.

VPC Service Controls funktioniert entweder mit Cloud Interconnect oder Cloud VPN, um die Sicherheit Ihrer Cluster zu erhöhen. VPC Service Controls hilft, das Risiko der Daten-Exfiltration zu verringern. Mithilfe von VPC Service Controls können Sie Projekte in Perimeterbereiche einfügen, die Ressourcen und Services vor Anfragen schützen, die ihren Ursprung außerhalb des Perimeters haben. Weitere Informationen zu Dienstperimetern finden Sie unter Informationen zu Dienstperimetern und deren Konfiguration.

Zum vollständigen Schutz von Google Distributed Cloud müssen Sie die eingeschränkte VIP verwenden und die folgenden APIs für den Dienstperimeter hinzu:

  • Artifact Registry API (artifactregistry.googleapis.com)
  • Resource Manager API (cloudresourcemanager.googleapis.com)
  • Compute Engine API (compute.googleapis.com)
  • Connect Gateway API (connectgateway.googleapis.com)
  • Google Container Registry API (containerregistry.googleapis.com)
  • GKE Connect API (gkeconnect.googleapis.com)
  • GKE Hub API (gkehub.googleapis.com)
  • GKE On-Prem API (gkeonprem.googleapis.com)
  • API für Identitäts- und Zugriffsverwaltung (IAM) (iam.googleapis.com)
  • Cloud Logging API (logging.googleapis.com)
  • Cloud Monitoring API (monitoring.googleapis.com)
  • Config Monitoring for Ops API (opsconfigmonitoring.googleapis.com)
  • Service Control API (servicecontrol.googleapis.com)
  • Cloud Storage API (storage.googleapis.com)

Wenn Sie bmctl zum Erstellen oder Aktualisieren eines Clusters verwenden, verwenden Sie das Flag --skip-api-check, um den Aufruf der Service Usage API (serviceusage.googleapis.com) zu umgehen. Die Service Usage API wird von VPC Service Controls nicht unterstützt.