Clustersicherheit härten

In diesem Dokument wird beschrieben, wie Sie die Sicherheit Ihrer Google Distributed Cloud-Cluster erhöhen können.

Container mit SELinux schützen

Sie können Ihre Container sichern, indem Sie SELinux aktivieren. Es wird für Red Hat Enterprise Linux (RHEL) unterstützt. Wenn auf Ihren Hostmaschinen RHEL ausgeführt wird und Sie SELinux für Ihren Cluster aktivieren möchten, müssen Sie SELinux auf allen Hostcomputern aktivieren. Weitere Informationen finden Sie unter Container mit SELinux sichern.

seccomp verwenden, um Container einzuschränken

Der sichere Computing-Modus (seccomp) ist ab Version 1.11 von Google Distributed Cloud verfügbar. Die Ausführung von Containern mit einem seccomp-Profil erhöht die Sicherheit des Clusters, da die Systemaufrufe eingeschränkt werden, die Container an den Kernel senden dürfen. Dies verringert das Risiko, dass Kernel-Sicherheitslücken ausgenutzt werden.

Das standardmäßige Profil seccomp enthält eine Liste der Systemaufrufe, die ein Container ausführen darf. Alle Systemaufrufe, die nicht in der Liste enthalten sind, sind nicht zulässig. seccomp ist in Version 1.11 von Google Distributed Cloud standardmäßig aktiviert. Das bedeutet, dass alle Systemcontainer und Kundenarbeitslasten mit dem Standardprofil seccomp der Containerlaufzeit ausgeführt werden. Auch Container und Arbeitslasten, für die in ihren Konfigurationsdateien kein seccomp-Profil angegeben ist, unterliegen seccomp-Einschränkungen.

seccomp clusterweite oder für bestimmte Arbeitslasten deaktivieren

Sie können seccomp nur während der Clustererstellung oder beim Clusterupgrade deaktivieren. bmctl update kann nicht zum Deaktivieren dieser Funktion verwendet werden. Wenn Sie seccomp in einem Cluster deaktivieren möchten, fügen Sie der Konfigurationsdatei des Clusters den folgenden Abschnitt clusterSecurity hinzu:

apiVersion: baremetal.cluster.gke.io/v1
kind: Cluster
metadata:
  name: example
  namespace: cluster-example
spec:
...
  clusterSecurity:
    enableSeccomp: false
...

Im unwahrscheinlichen Fall, dass einige Ihrer Arbeitslasten Systemaufrufe ausführen müssen, die seccomp standardmäßig blockiert, müssen Sie seccomp nicht für den gesamten Cluster deaktivieren. Stattdessen können Sie einzelne Arbeitslasten, die in unconfined mode ausgeführt werden sollen, einzeln auswählen. Wenn Sie eine Arbeitslast in unconfined mode ausführen, wird diese Arbeitslast von den Einschränkungen befreit, die das Profil seccomp für den Rest des Clusters erzwingt.

Zum Ausführen eines Containers in unconfined mode fügen Sie dem Pod-Manifest den folgenden securityContext-Abschnitt hinzu:

apiVersion: v1
kind: Pod
....
spec:
  securityContext:
    seccompProfile:
      type: Unconfined
....

Container nicht als root-Nutzer ausführen

Prozesse in Containern werden standardmäßig als root ausgeführt. Dies stellt ein potenzielles Sicherheitsproblem dar, da ein Prozess, der den Container verlässt, als root auf dem Hostcomputer ausgeführt wird. Es wird daher empfohlen, alle Arbeitslasten als Nutzer ohne Rootberechtigung auszuführen.

In den folgenden Abschnitten werden zwei Möglichkeiten zum Ausführen von Containern als Nicht-Root-Nutzer beschrieben.

Methode 1: USER-Anweisung in Dockerfile hinzufügen

Diese Methode verwendet Dockerfile, um sicherzustellen, dass Container nicht als root-Nutzer ausgeführt werden. In einem Dockerfile können Sie angeben, welcher Nutzer in einem Container ausgeführt werden soll. Das folgende Snippet aus einem Dockerfile zeigt, wie das geht:

....

#Add a user with userid 8877 and name nonroot
RUN useradd −u 8877 nonroot

#Run Container as nonroot
USER nonroot
....

In diesem Beispiel erstellt der Linux-Befehl useradd -u im Container einen Nutzer namens nonroot. Dieser Nutzer hat die Nutzer-ID (UID) 8877.

In der nächsten Zeile von Dockerfile wird der Befehl USER nonroot ausgeführt. Dieser Befehl gibt an, dass Befehle ab diesem Punkt im Image als Nutzer-nonroot ausgeführt werden.

Gewähren Sie Berechtigungen der UID 8877, damit die Containerprozesse für nonroot ordnungsgemäß ausgeführt werden können.

Methode 2: securityContext-Felder in der Kubernetes-Manifestdatei hinzufügen

Bei dieser Methode wird eine Kubernetes-Manifestdatei verwendet, um sicherzustellen, dass Container nicht als root-Nutzer ausgeführt werden. Die Sicherheitseinstellungen werden für einen Pod festgelegt und diese werden wiederum auf alle Container innerhalb des Pods angewendet.

Das folgende Beispiel zeigt einen Auszug aus einer Manifestdatei für einen bestimmten Pod:

apiVersion: v1
kind: Pod
metadata:
  name: name-of-pod
spec:
  securityContext:
    runAsUser: 8877
    runAsGroup: 8877
....

Das Feld runAsUser gibt an, dass für alle Container im Pod alle Prozesse mit der Nutzer-ID 8877 ausgeführt werden. Das Feld runAsGroup gibt an, dass diese Prozesse die primäre Gruppen-ID (GID) 8877 haben. Denken Sie daran, der UID 8877 die erforderlichen und ausreichenden Berechtigungen zu erteilen, damit die Containerprozesse ordnungsgemäß ausgeführt werden können.

Dadurch wird sichergestellt, dass Prozesse in einem Container als UID 8877 ausgeführt werden, die weniger Berechtigungen als Root hat.

Systemcontainer in Google Distributed Cloud unterstützen das Installieren und Verwalten von Clustern. Die von diesen Containern verwendeten UIDs und GIDs können in der Clusterspezifikation über das Feld startUIDRangeRootlessContainers gesteuert werden. startUIDRangeRootlessContainers ist ein optionales Feld, das, wenn es nicht angegeben ist, den Wert 2000 hat. Zulässige Werte für startUIDRangeRootlessContainers sind 100057000. Der Wert startUIDRangeRootlessContainers kann nur während Upgrades geändert werden. Die Systemcontainer verwenden die UIDs und GIDs im Bereich von startUIDRangeRootlessContainers bis startUIDRangeRootlessContainers + 2999.

Das folgende Beispiel zeigt einen Auszug einer Manifestdatei für eine Clusterressource:

apiVersion: baremetal.cluster.gke.io/v1
kind: Cluster
metadata:
  name: name-of-cluster
spec:
 clusterSecurity:
    startUIDRangeRootlessContainers: 5000
...

Wählen Sie den Wert für startUIDRangeRootlessContainers aus, damit sich die von den Systemcontainern verwendeten UID- und GID-Bereiche nicht mit denen überschneiden, die Nutzerarbeitslasten zugewiesen sind.

"Modus ohne Root" deaktivieren

Ab Google Distributed Cloud Release 1.10 werden Container der Steuerungsebene und Systemcontainer von Kubernetes standardmäßig als Nicht-Root-Nutzer ausgeführt. Google Distributed Cloud weist diesen Nutzern UIDs und GIDs im Bereich 20004999 zu. Diese Zuweisung kann jedoch zu Problemen führen, wenn diese UIDs und GIDs bereits Prozessen zugewiesen wurden, die in Ihrer Umgebung ausgeführt werden.

Ab Google Distributed Cloud-Release 1.11 können Sie den Root-Modus beim Upgrade Ihres Clusters deaktivieren. Wenn der Modus ohne Root deaktiviert ist, werden Container der Steuerungsebene und Systemcontainer von Kubernetes als Root-Nutzer ausgeführt.

So deaktivieren Sie den Root-Modus:

  1. Fügen Sie der Konfigurationsdatei des Clusters den folgenden Abschnitt clusterSecurity hinzu:

    apiVersion: baremetal.cluster.gke.io/v1
    kind: Cluster
    metadata:
      name: example
      namespace: cluster-example
    spec:
    ...
      clusterSecurity:
        enableRootlessContainers: false
    ...
    
  2. Aktualisieren Sie Ihren Cluster. Weitere Informationen finden Sie unter Cluster upgraden.

Möglichkeit einschränken, dass sich Arbeitslasten selbst ändern

Bestimmte Kubernetes-Arbeitslasten, insbesondere Systemarbeitslasten, haben die Berechtigung, sich selbst zu ändern. Beispielsweise werden einige Arbeitslasten automatisch vertikal skaliert. Dies ist zwar praktisch, kann einem Angreifer, der bereits einen Knoten manipuliert hat, aber auch die Möglichkeit bieten, im Cluster weiter zu eskalieren. Ein Angreifer kann beispielsweise dafür sorgen, dass sich eine Arbeitslast auf dem Knoten selbst ändert, um als ein privilegierteres Dienstkonto ausgeführt zu werden, das im selben Namespace vorhanden ist.

Idealerweise sollten Arbeitslasten nicht die Berechtigung erhalten, sich von vornherein selbst zu ändern. Wenn eine Selbständerung erforderlich ist, können Sie die Berechtigungen einschränken, indem Sie Gatekeeper- oder Policy Controller-Einschränkungen anwenden, z. B. NoUpdateServiceAccount aus der Open-Source-Gatekeeper-Bibliothek, die mehrere nützliche Sicherheitsrichtlinien bietet.

Wenn Sie Richtlinien bereitstellen, müssen Sie in der Regel zulassen, dass die Controller, die den Clusterlebenszyklus verwalten, die Richtlinien umgehen dürfen. Dies ist erforderlich, damit die Controller Änderungen am Cluster vornehmen können, indem sie z. B. Clusterupgrades anwenden. Wenn Sie beispielsweise die Richtlinie NoUpdateServiceAccount in Google Distributed Cloud bereitstellen, müssen Sie die folgenden Parameter in Constraint festlegen:

parameters:
  allowedGroups:
  - system:masters
  allowedUsers: []

Schreibgeschützten Kubelet-Port deaktivieren

Ab Version 1.15.0 deaktiviert Google Distributed Cloud standardmäßig den schreibgeschützten kubelet-Port 10255. Alle Kundenarbeitslasten, die für das Lesen von Daten aus diesem unsicheren Kubelet-Port 10255 konfiguriert sind, sollten zum sicheren Kubelet-Port 10250 migrieren.

Nur bei Clustern, die mit Version 1.15.0 oder höher erstellt wurden, ist dieser Port standardmäßig deaktiviert. Der schreibgeschützte kubelet-Port 10255 bleibt für Cluster zugänglich, die mit einer niedrigeren Version als 1.15.0 erstellt wurden, auch nach einem Clusterupgrade auf Version 1.15.0 oder höher.

Diese Änderung wurde vorgenommen, weil kubelet Informationen mit geringer Vertraulichkeit über den nicht authentifizierten Port 10255 verliert. Die Informationen umfassen die vollständigen Konfigurationsinformationen für alle Pods, die auf einem Knoten ausgeführt werden, was für einen Angreifer wertvoll sein kann. Außerdem werden Messwerte und Statusinformationen angezeigt, die geschäftsrelevante Informationen liefern können.

Das Deaktivieren des schreibgeschützten kubelet-Ports wird gemäß der CIS-Kubernetes-Benchmark empfohlen.

Wartung

Das Monitoring von Sicherheitsbulletins und das Upgrade Ihrer Cluster sind wichtige Sicherheitsmaßnahmen, die ergriffen werden sollten, wenn Ihre Cluster einsatzbereit sind.

Sicherheitsbulletins überwachen

Das GKE-Sicherheitsteam veröffentlicht Sicherheitsbulletins für Sicherheitslücken mit hohem und kritischem Schweregrad.

Diese Bulletins folgen einem gängigen Google Cloud-Nummerierungsschema für Sicherheitslücken und sind auf der Hauptseite der Google Cloud-Bulletins und in den Versionshinweisen für Google Distributed Cloud verlinkt.

Mit diesem XML-Feed können Sie Sicherheitsbulletins für Google Distributed Cloud und ähnliche Produkte abonnieren. Abonnieren

Wenn Kunden Maßnahmen ergreifen müssen, um diese Sicherheitslücken mit hohem und kritischem Schweregrad zu adressieren, kontaktiert Google Kunden per E-Mail. Darüber hinaus kann Google Kunden mit Supportverträgen auch über Supportkanäle kontaktieren.

Weitere Informationen dazu, wie Google Sicherheitslücken und Patches für GKE und GKE Enterprise verwaltet, finden Sie unter Sicherheitspatches.

Cluster aktualisieren

Kubernetes implementiert regelmäßig neue Sicherheits-Features und bietet Sicherheitspatches. Google Distributed Cloud-Releases enthalten Kubernetes-Sicherheitsverbesserungen, die Sicherheitslücken schließen, die sich auf Ihre Cluster auswirken können.

Sie sind dafür verantwortlich, Ihre GKE on Bare Metal-Cluster auf dem neuesten Stand zu halten. Lesen Sie zu jedem Release die Versionshinweise. Um Sicherheitsrisiken für Ihre Cluster zu minimieren, sollten Sie jeden Monat eine Aktualisierung auf neue Patchversionen und alle vier Monate auf Nebenversionen vornehmen.

Einer der vielen Vorteile des Upgrades eines Clusters besteht darin, dass die kubectl-Datei des Clusters automatisch aktualisiert wird. Die kubeconfig-Datei authentifiziert einen Nutzer bei einem Cluster. Die kubeconfig-Datei wird Ihrem Clusterverzeichnis hinzugefügt, wenn Sie einen Cluster mit bmctl erstellen. Der Standardname und der Standardpfad sind bmctl-workspace/CLUSTER_NAME/CLUSTER_NAME-kubeconfig. Wenn Sie ein Cluster upgraden, wird die kubeconfig-Datei dieses Clusters automatisch verlängert. Andernfalls läuft die Datei „kubeconfig” ein Jahr nach ihrer Erstellung ab.

Informationen zum Upgrade Ihrer Cluster finden Sie unter Cluster upgraden.

VPC Service Controls mit Cloud Interconnect oder Cloud VPN verwenden

Cloud Interconnect bietet Verbindungen mit niedriger Latenz und Hochverfügbarkeit, mit denen Sie Daten zuverlässig zwischen Ihren lokalen Bare-Metal-Maschinen und VPC-Netzwerken (Virtual Private Cloud) von Google Cloud übertragen können. Weitere Informationen zu Cloud Interconnect finden Sie in der Übersicht zur Bereitstellung von Dedicated Interconnect.

Mit Cloud VPN können Sie Ihr Peer-Netzwerk über eine IPsec-VPN-Verbindung sicher mit Ihrem VPC-Netzwerk (Virtual Private Cloud) verbinden. Weitere Informationen zu Cloud VPN finden Sie unter Cloud VPN – Übersicht.

VPC Service Controls kann entweder mit Cloud Interconnect oder Cloud VPN verwendet werden, um für zusätzliche Sicherheit für Ihre Cluster zu sorgen. Mit VPC Service Controls können Sie das Risiko der Daten-Exfiltration verringern. Mit VPC Service Controls können Sie Projekte zu Dienstperimetern hinzufügen, die Ressourcen und Dienste vor Anfragen schützen, die von außerhalb des Perimeters stammen. Weitere Informationen zu Dienstperimetern finden Sie unter Details und Konfiguration von Dienstperimetern.

Zum vollständigen Schutz von Google Distributed Cloud müssen Sie die eingeschränkte VIP verwenden und dem Dienstperimeter die folgenden APIs hinzufügen:

  • Artifact Registry API (artifactregistry.googleapis.com)
  • Resource Manager API (cloudresourcemanager.googleapis.com)
  • Compute Engine API (compute.googleapis.com)
  • Connect Gateway API (connectgateway.googleapis.com)
  • Google Container Registry API (containerregistry.googleapis.com)
  • GKE Connect API (gkeconnect.googleapis.com)
  • GKE Hub API (gkehub.googleapis.com)
  • GKE On-Prem API (gkeonprem.googleapis.com)
  • Identity and Access Management (IAM) API (iam.googleapis.com)
  • Cloud Logging API (logging.googleapis.com)
  • Cloud Monitoring API (monitoring.googleapis.com)
  • Config Monitoring für Ops API (opsconfigmonitoring.googleapis.com)
  • Service Control API (servicecontrol.googleapis.com)
  • Cloud Storage API (storage.googleapis.com)

Wenn Sie bmctl zum Erstellen oder Aktualisieren eines Clusters verwenden, verwenden Sie das Flag --skip-api-check, um den Aufruf der Service Usage API (serviceusage.googleapis.com) zu umgehen. Die Service Usage API wird von VPC Service Controls nicht unterstützt.