In diesem Dokument wird beschrieben, wie Sie die Sicherheit Ihrer Google Distributed Cloud-Cluster erhöhen können.
Container mit SELinux schützen
Sie können Ihre Container sichern, indem Sie SELinux aktivieren, das für Red Hat Enterprise Linux (RHEL) unterstützt wird. Wenn auf Ihren Hostcomputern RHEL ausgeführt wird und Sie SELinux für Ihren Cluster aktivieren möchten, müssen Sie SELinux auf allen Hostcomputern aktivieren. Weitere Informationen finden Sie unter Container mit SELinux sichern.
seccomp
verwenden, um Container einzuschränken
Der sichere Computing-Modus (seccomp
) ist in Version 1.11 von Google Distributed Cloud und höher verfügbar. Durch die Ausführung von Containern mit einem seccomp
-Profil wird die Sicherheit Ihres Clusters verbessert, da die Systemaufrufe eingeschränkt werden, die Container für den Kernel ausführen dürfen. Dadurch verringert sich die Wahrscheinlichkeit, dass Kernel-Sicherheitslücken ausgenutzt werden.
Das standardmäßige Profil seccomp
enthält eine Liste der Systemaufrufe, die ein Container ausführen darf. Alle Systemaufrufe, die nicht in der Liste enthalten sind, sind nicht zulässig. seccomp
ist in Version 1.11 von Google Distributed Cloud standardmäßig aktiviert. Das bedeutet, dass alle Systemcontainer und Kundenarbeitslasten mit dem Standardprofil seccomp
der Containerlaufzeit ausgeführt werden. Auch Container und Arbeitslasten, für die in ihren Konfigurationsdateien kein seccomp
-Profil angegeben ist, unterliegen seccomp
-Einschränkungen.
seccomp
clusterweite oder für bestimmte Arbeitslasten deaktivieren
Sie können seccomp
nur während der Clustererstellung oder beim Clusterupgrade deaktivieren.
bmctl update
kann nicht zum Deaktivieren dieser Funktion verwendet werden. Wenn Sie seccomp
in einem Cluster deaktivieren möchten, fügen Sie der Konfigurationsdatei des Clusters den folgenden Abschnitt clusterSecurity
hinzu:
apiVersion: baremetal.cluster.gke.io/v1
kind: Cluster
metadata:
name: example
namespace: cluster-example
spec:
...
clusterSecurity:
enableSeccomp: false
...
Im unwahrscheinlichen Fall, dass einige Ihrer Arbeitslasten Systemaufrufe ausführen müssen, die seccomp
standardmäßig blockiert, müssen Sie seccomp
nicht für den gesamten Cluster deaktivieren. Stattdessen können Sie einzelne Arbeitslasten, die in unconfined mode
ausgeführt werden sollen, einzeln auswählen. Wenn Sie eine Arbeitslast in unconfined mode
ausführen, wird diese Arbeitslast von den Einschränkungen befreit, die das Profil seccomp
für den Rest des Clusters erzwingt.
Zum Ausführen eines Containers in unconfined mode
fügen Sie dem Pod-Manifest den folgenden securityContext
-Abschnitt hinzu:
apiVersion: v1
kind: Pod
....
spec:
securityContext:
seccompProfile:
type: Unconfined
....
Container nicht als root
-Nutzer ausführen
Prozesse in Containern werden standardmäßig als root
ausgeführt. Dies stellt ein potenzielles Sicherheitsproblem dar, da ein Prozess, der den Container verlässt, als root
auf dem Hostcomputer ausgeführt wird. Es wird daher empfohlen, alle Arbeitslasten als Nutzer ohne Rootberechtigung auszuführen.
In den folgenden Abschnitten werden zwei Möglichkeiten zum Ausführen von Containern als Nicht-Root-Nutzer beschrieben.
Methode 1: USER
-Anweisung in Dockerfile
hinzufügen
Diese Methode verwendet Dockerfile
, um sicherzustellen, dass Container nicht als root
-Nutzer ausgeführt werden. In einem Dockerfile
können Sie angeben, welcher Nutzer in einem Container ausgeführt werden soll. Das folgende Snippet aus einem Dockerfile
zeigt, wie das geht:
....
#Add a user with userid 8877 and name nonroot
RUN useradd −u 8877 nonroot
#Run Container as nonroot
USER nonroot
....
In diesem Beispiel erstellt der Linux-Befehl useradd -u
einen Nutzer namens nonroot
im Container. Dieser Nutzer hat die Nutzer-ID (UID) 8877
.
In der nächsten Zeile von Dockerfile
wird der Befehl USER nonroot
ausgeführt. Dieser Befehl gibt an, dass Befehle ab diesem Punkt im Image als Nutzer-nonroot
ausgeführt werden.
Gewähren Sie Berechtigungen der UID 8877
, damit die Containerprozesse für nonroot
ordnungsgemäß ausgeführt werden können.
Methode 2: securityContext-Felder in der Kubernetes-Manifestdatei hinzufügen
Bei dieser Methode wird eine Kubernetes-Manifestdatei verwendet, um sicherzustellen, dass Container nicht als root
-Nutzer ausgeführt werden. Die Sicherheitseinstellungen werden für einen Pod festgelegt und diese werden wiederum auf alle Container innerhalb des Pods angewendet.
Das folgende Beispiel zeigt einen Auszug aus einer Manifestdatei für einen bestimmten Pod:
apiVersion: v1
kind: Pod
metadata:
name: name-of-pod
spec:
securityContext:
runAsUser: 8877
runAsGroup: 8877
....
Das Feld runAsUser
gibt an, dass für alle Container im Pod alle Prozesse mit der Nutzer-ID 8877
ausgeführt werden. Das Feld runAsGroup
gibt an, dass diese Prozesse die primäre Gruppen-ID (GID) 8877
haben. Denken Sie daran, der UID 8877
die erforderlichen und ausreichenden Berechtigungen zu erteilen, damit die Containerprozesse ordnungsgemäß ausgeführt werden können.
Dadurch wird sichergestellt, dass Prozesse in einem Container als UID 8877
ausgeführt werden, die weniger Berechtigungen als Root hat.
Systemcontainer in Google Distributed Cloud helfen bei der Installation und Verwaltung von Clustern.
Die von diesen Containern verwendeten UIDs und GIDs können durch das Feld startUIDRangeRootlessContainers
in der Clusterspezifikation gesteuert werden. startUIDRangeRootlessContainers
ist ein optionales Feld. Wenn nicht angegeben, hat es den Wert 2000
. Zulässige Werte für startUIDRangeRootlessContainers
sind 1000
-57000
. Der Wert für startUIDRangeRootlessContainers
kann nur während Upgrades geändert werden. Die Systemcontainer verwenden die UIDs und GIDs im Bereich startUIDRangeRootlessContainers
bis startUIDRangeRootlessContainers
+ 2999.
Das folgende Beispiel zeigt einen Auszug aus einer Manifestdatei für eine Cluster-Ressource:
apiVersion: baremetal.cluster.gke.io/v1
kind: Cluster
metadata:
name: name-of-cluster
spec:
clusterSecurity:
startUIDRangeRootlessContainers: 5000
...
Wählen Sie den Wert für startUIDRangeRootlessContainers
aus, damit sich die von den Systemcontainern verwendeten UID- und die GID-Bereiche nicht mit denen überschneiden, die Nutzerarbeitslasten zugewiesen sind.
"Modus ohne Root" deaktivieren
Ab Google Distributed Cloud-Release 1.10 werden Container und Steuerungsebenen von Kubernetes standardmäßig als Nutzer ohne Root ausgeführt.
Google Distributed Cloud weist diesen Nutzern UIDs und GIDs im Bereich 2000
bis 4999
zu. Diese Zuweisung kann jedoch zu Problemen führen, wenn diese UIDs und GIDs bereits Prozessen zugewiesen wurden, die in Ihrer Umgebung ausgeführt werden.
Ab der Google Distributed Cloud-Version 1.11 können Sie den „Modus ohne Root“ deaktivieren, wenn Sie Ihren Cluster aktualisieren. Wenn der „Modus ohne Root“ deaktiviert ist, werden Kubernetes-Steuerungsebenencontainer und -Systemcontainer als Root-Nutzer ausgeführt.
Um den „Modus ohne Root“ zu deaktivieren, führen Sie folgende Schritte aus:
Fügen Sie der Konfigurationsdatei des Clusters den folgenden Abschnitt
clusterSecurity
hinzu:apiVersion: baremetal.cluster.gke.io/v1 kind: Cluster metadata: name: example namespace: cluster-example spec: ... clusterSecurity: enableRootlessContainers: false ...
Cluster upgraden Weitere Informationen finden Sie unter Cluster aktualisieren.
Möglichkeit einschränken, dass sich Arbeitslasten selbst ändern
Bestimmte Kubernetes-Arbeitslasten, insbesondere Systemarbeitslasten, haben die Berechtigung, sich selbst zu ändern. Beispielsweise werden einige Arbeitslasten automatisch vertikal skaliert. Dies ist zwar praktisch, kann einem Angreifer, der bereits einen Knoten manipuliert hat, aber auch die Möglichkeit bieten, im Cluster weiter zu eskalieren. Ein Angreifer kann beispielsweise dafür sorgen, dass sich eine Arbeitslast auf dem Knoten selbst ändert, um als ein privilegierteres Dienstkonto ausgeführt zu werden, das im selben Namespace vorhanden ist.
Idealerweise sollten Arbeitslasten nicht die Berechtigung erhalten, sich selbst zu ändern. Wenn eine Selbständerung erforderlich ist, können Sie die Berechtigungen einschränken, indem Sie Gatekeeper- oder Policy Controller-Einschränkungen anwenden, z. B. NoUpdateServiceAccount aus der Open-Source-Gatekeeper-Bibliothek, die mehrere nützliche Sicherheitsrichtlinien bietet.
Wenn Sie Richtlinien bereitstellen, müssen die Controller, die den Clusterlebenszyklus verwalten, normalerweise die Möglichkeit haben, die Richtlinien zu umgehen. Dies ist erforderlich, damit die Controller Änderungen am Cluster vornehmen können, indem sie z. B. Clusterupgrades anwenden. Wenn Sie beispielsweise die Richtlinie NoUpdateServiceAccount
für Google Distributed Cloud bereitstellen, müssen Sie die folgenden Parameter in Constraint
festlegen:
parameters:
allowedGroups:
- system:masters
allowedUsers: []
Schreibgeschützten Port für Kubelet deaktivieren
Ab Version 1.15.0 deaktiviert Google Distributed Cloud standardmäßig Port 10255
, den schreibgeschützten Kubelet-Port. Alle Kundenarbeitslasten, die für das Lesen von Daten aus diesem unsicheren Kubelet-Port 10255
konfiguriert sind, sollten zur Verwendung des sicheren Kubelet-Ports 10250 migrieren.
Nur bei Clustern, die mit Version 1.15.0 oder höher erstellt wurden, ist dieser Port standardmäßig deaktiviert. Der schreibgeschützte Kubelet-Port 10255
bleibt für Cluster zugänglich, die mit einer Version vor 1.15.0 erstellt wurden, auch nach einem Cluster-Upgrade auf Version 1.15.0 oder höher.
Diese Änderung wurde vorgenommen, da das Kubelet Informationen mit niedriger Vertraulichkeit über Port 10255
weiterleitet, der nicht authentifiziert ist. Die Informationen enthalten die vollständigen Konfigurationsinformationen für alle Pods, die auf einem Knoten ausgeführt werden. Dies kann für einen Angreifer wertvoll sein. Außerdem werden Messwerte und Statusinformationen bereitgestellt, die für das Unternehmen relevante Informationen liefern können.
Das Deaktivieren des schreibgeschützten kubelet-Ports wird von der CIS-Kubernetes-Benchmark empfohlen.
Wartung
Das Monitoring von Sicherheitsbulletins und das Upgrade Ihrer Cluster sind wichtige Sicherheitsmaßnahmen, die ergriffen werden sollten, wenn Ihre Cluster einsatzbereit sind.
Sicherheitsbulletins überwachen
Das Sicherheitsteam von GKE Enterprise veröffentlicht Sicherheitsbulletins für Sicherheitslücken mit hohem und kritischem Schweregrad.
Diese Bulletins folgen einem gängigen Schema zur Sicherheitslückennummer für Google Cloud und sind über die Hauptseite der Google Cloud-Bulletins und die Google Distributed Cloud-Versionshinweise verknüpft.
Wenn Kunden Maßnahmen ergreifen müssen, um diese Sicherheitslücken mit hohem und kritischem Schweregrad zu adressieren, kontaktiert Google Kunden per E-Mail. Darüber hinaus kann Google Kunden mit Supportverträgen auch über Supportkanäle kontaktieren.
Weitere Informationen darüber, wie Google Sicherheitslücken und Patches für GKE und GKE Enterprise verwaltet, finden Sie unter Sicherheitspatches.
Cluster aktualisieren
Kubernetes implementiert regelmäßig neue Sicherheits-Features und bietet Sicherheitspatches. Google Distributed Cloud-Releases enthalten Kubernetes-Sicherheitserweiterungen, die Sicherheitslücken beheben, die sich auf Ihre Cluster auswirken können.
Sie sind selbst dafür verantwortlich, Ihre Google Distributed Cloud-Cluster auf dem neuesten Stand zu halten. Lesen Sie für jede Version die Versionshinweise. Um Sicherheitsrisiken für Ihre Cluster zu minimieren, sollten Sie jeden Monat neue Patchversionen und Nebenversionen alle vier Monate aktualisieren.
Einer der vielen Vorteile eines Upgrades eines Clusters besteht darin, dass die kubeconfig-Datei des Clusters automatisch aktualisiert wird. Die kubeconfig-Datei authentifiziert einen Nutzer bei einem Cluster. Die kubeconfig-Datei wird Ihrem Clusterverzeichnis hinzugefügt, wenn Sie einen Cluster mit bmctl
erstellen. Der Standardname und der Standardpfad sind bmctl-workspace/CLUSTER_NAME/CLUSTER_NAME-kubeconfig
.
Wenn Sie ein Cluster upgraden, wird die kubeconfig-Datei dieses Clusters automatisch verlängert. Andernfalls läuft die Datei „kubeconfig” ein Jahr nach ihrer Erstellung ab.
Informationen zum Upgrade Ihrer Cluster finden Sie unter Cluster upgraden.
VPC Service Controls mit Cloud Interconnect oder Cloud VPN verwenden
Cloud Interconnect bietet Verbindungen mit niedriger Latenz und hoher Verfügbarkeit, mit denen Sie Daten zuverlässig zwischen Ihren lokalen Bare-Metal-Maschinen und VPC-Netzwerken (Virtual Private Cloud) von Google Cloud übertragen können. Weitere Informationen zu Cloud Interconnect finden Sie unter Bereitstellung mit Dedicated Interconnect – Übersicht.
Mit Cloud VPN können Sie Ihr Peer-Netzwerk über eine IPsec-VPN-Verbindung sicher mit Ihrem Virtual Private Cloud-Netzwerk (VPC) verbinden. Weitere Informationen zu Cloud VPN finden Sie unter Cloud VPN – Übersicht.
VPC Service Controls funktioniert entweder mit Cloud Interconnect oder Cloud VPN, um die Sicherheit Ihrer Cluster zu erhöhen. VPC Service Controls hilft, das Risiko der Daten-Exfiltration zu verringern. Mithilfe von VPC Service Controls können Sie Projekte in Perimeterbereiche einfügen, die Ressourcen und Services vor Anfragen schützen, die ihren Ursprung außerhalb des Perimeters haben. Weitere Informationen zu Dienstperimetern finden Sie unter Informationen zu Dienstperimetern und deren Konfiguration.
Zum vollständigen Schutz von Google Distributed Cloud müssen Sie die eingeschränkte VIP verwenden und die folgenden APIs für den Dienstperimeter hinzu:
- Artifact Registry API (
artifactregistry.googleapis.com
) - Resource Manager API (
cloudresourcemanager.googleapis.com
) - Compute Engine API (
compute.googleapis.com
) - Connect Gateway API (
connectgateway.googleapis.com
) - Google Container Registry API (
containerregistry.googleapis.com
) - GKE Connect API (
gkeconnect.googleapis.com
) - GKE Hub API (
gkehub.googleapis.com
) - GKE On-Prem API (
gkeonprem.googleapis.com
) - API für Identitäts- und Zugriffsverwaltung (IAM) (
iam.googleapis.com
) - Cloud Logging API (
logging.googleapis.com
) - Cloud Monitoring API (
monitoring.googleapis.com
) - Config Monitoring for Ops API (
opsconfigmonitoring.googleapis.com
) - Service Control API (
servicecontrol.googleapis.com
) - Cloud Storage API (
storage.googleapis.com
)
Wenn Sie bmctl
zum Erstellen oder Aktualisieren eines Clusters verwenden, verwenden Sie das Flag --skip-api-check
, um den Aufruf der Service Usage API (serviceusage.googleapis.com
) zu umgehen. Die Service Usage API wird von VPC Service Controls nicht unterstützt.