GKE on Azure-Architektur

GKE on Azure ist ein verwalteter Dienst, mit dem Sie Kubernetes-Cluster in Ihrem Azure-Konto bereitstellen, betreiben und skalieren können.

Architektur von GKE on Azure, die den Google Cloud-Dienst und Cluster mit einer Steuerungsebene und Knotenpools zeigt

Ressourcenverwaltung

GKE on Azure verwendet Azure APIs, um die für Ihren Cluster erforderlichen Ressourcen bereitzustellen, einschließlich virtueller Maschinen, verwalteter Laufwerke, VM-Skalierungsgruppen, Netzwerksicherheitsgruppen und Load-Balancern.

Sie können Cluster mit der Google Cloud CLI oder der GKE Multi-Cloud API erstellen, beschreiben und löschen.

Bei Azure authentifizieren

Beim Einrichten von GKE on Azure erstellen Sie eine Azure Active Directory-Anwendung (Azure AD) und ein Dienstprinzipal mit den erforderlichen Berechtigungen. Außerdem erstellen Sie ein Clientzertifikat, mit dem sich die GKE Multi-Cloud API als Dienstprinzipal der Anwendung authentifiziert.

Weitere Informationen zu Azure AD- und Diensthauptkonten finden Sie unter Anwendungs- und Diensthauptkonto-Objekte in Azure Active Directory.

Weitere Informationen dazu finden Sie in der Authentifizierungsübersicht.

Ressourcen in Google Cloud

GKE on Azure verwendet ein Google Cloud-Projekt zum Speichern von Clusterkonfigurationsinformationen in Google Cloud.

Flotten und Connect

GKE on Azure registriert jeden Cluster bei der Erstellung in einer Flotte. Connect ermöglicht den Zugriff auf Features zur Cluster- und Arbeitslastverwaltung von Google Cloud. Der Name der Fleet-Mitgliedschaft eines Clusters entspricht dem Clusternamen.

Sie können Features wie Config Management und Anthos Service Mesh in Ihrer Flotte aktivieren.

Clusterarchitektur

GKE on Azure stellt Cluster mit privaten Subnetzen in Ihrem Azure Virtual Network bereit. Jedes Cluster besteht aus den folgenden Komponenten:

  • Steuerungsebene: Die Kubernetes-Steuerungsebene verwendet eine Hochverfügbarkeitsarchitektur mit drei Replikaten. Auf jedem Replikat werden alle Kubernetes-Komponenten ausgeführt, einschließlich kube-apiserver, kube-controller-manager, kube-scheduler und etcd. Jede etcd-Instanz speichert Daten auf einem Azure Disk-Laufwerk und verwendet eine Netzwerkschnittstelle für die Kommunikation mit anderen etcd-Instanzen. Ein Standard-Load-Balancer wird verwendet, um den Traffic auf den Kubernetes API-Endpunkt kube-apiserver zu verteilen.

    Sie können eine Steuerungsebene in mehreren Zonen oder in einer einzelnen Zone erstellen. Weitere Informationen finden Sie unter Budget erstellen.

  • Knotenpools: Ein Knotenpool ist eine Gruppe von Kubernetes-Worker-Knoten mit derselben Konfiguration, einschließlich Instanztyp, Laufwerkskonfiguration und Instanzprofil. Alle Knoten in einem Knotenpool werden im selben Subnetz ausgeführt. Für Hochverfügbarkeit können Sie mehrere Knotenpools in verschiedenen Subnetzen in derselben Azure-Region bereitstellen.

Nächste Schritte