Traffic Director mit Hybridkonnektivitäts-Netzwerkendpunktgruppen
Traffic Director unterstützt Umgebungen außerhalb von Google Cloud einschließlich lokaler Rechenzentren und anderer öffentlicher Clouds, die über Hybridkonnektivität erreichbar sind.
Sie konfigurieren Traffic Director dafür so, dass Ihr Service Mesh Traffic an Endpunkte außerhalb von Google Cloud senden kann. Zu diesen Endpunkten gehören:
- Lokale Load-Balancer.
- Serveranwendungen auf einer VM-Instanz in einer anderen Cloud.
- Andere Ziele, die Sie mit Hybridkonnektivität erreichen können und die mit einer IP-Adresse und einem Port erreichbar sind.
Sie fügen dazu einer Netzwerk-Endpunktgruppe (NEG) mit Hybridkonnektivität die IP-Adresse und den Port jedes Endpunkts hinzu. Hybridkonnektivitäts-NEGs sind vom Typ NON_GCP_PRIVATE_IP_PORT
.
Die Unterstützung von Traffic Director für lokale und Multi-Cloud-Dienste bietet folgende Vorteile:
- Sie können Traffic global weiterleiten, auch an die Endpunkte lokaler und Multi-Cloud-Dienste.
- Sie können die Vorteile von Traffic Director und Service Mesh einschließlich Funktionen wie Service Discovery und erweiterte Trafficverwaltung für Dienste nutzen, die in Ihrer vorhandenen Infrastruktur außerhalb von Google Cloud ausgeführt werden.
- Sie können die Traffic Director-Funktionen mit Cloud Load Balancing kombinieren, um Google Cloud-Netzwerkdienste in mehrere Umgebungen einzubinden.
Hybridkonnektivitäts-NEGs (NON_GCP_PRIVATE_IP_PORT
-NEGs) werden mit proxylosen gRPC-Clients nicht unterstützt.
Anwendungsfälle
Mit Traffic Director kann das Netzwerk zwischen VM- und containerbasierten Diensten in mehreren Umgebungen konfiguriert werden. Dazu gehören unter anderem:
- Google Cloud
- Lokale Rechenzentren
- Andere öffentliche Clouds
Mesh-Traffic an einen lokalen Speicherort oder zu einer anderen Cloud weiterleiten
Der einfachste Anwendungsfall für dieses Feature ist das Trafficrouting. Ihre Anwendung führt einen Traffic Director-Envoy-Proxy aus . Traffic Director informiert den Client über Ihre Dienste und die Endpunkte jedes Dienstes.
Wenn im obigen Diagramm Ihre Anwendung eine Anfrage an den on-prem
-Dienst sendet, prüft der Traffic Director-Client die ausgehende Anfrage und aktualisiert ihr Ziel. Als Ziel wird ein Endpunkt festgelegt, der mit dem on-prem
-Dienst (in diesem Fall 10.2.0.1
) verknüpft ist. Die Anfrage wird dann über Cloud VPN oder Cloud Interconnect an das vorgesehene Ziel weitergeleitet.
Wenn Sie weitere Endpunkte hinzufügen müssen, aktualisieren Sie Traffic Director, um sie dem Dienst hinzuzufügen. Sie müssen den Anwendungscode nicht ändern.
Vorhandenen lokalen Dienst zu Google Cloud migrieren
Durch Senden von Traffic an einen Endpunkt außerhalb von Google Cloud können Sie Traffic an andere Umgebungen weiterleiten. Diese Funktion lässt sich mit der erweiterten Trafficverwaltung kombinieren, um Dienste zwischen Umgebungen zu migrieren.
Das obige Diagramm erweitert das vorherige Muster. Anstatt Traffic Director so zu konfigurieren, dass der gesamte Traffic an den on-prem
-Dienst gesendet wird, wird Traffic Director mithilfe der gewichteten Trafficaufteilung für die Aufteilung von Traffic auf zwei Dienste konfiguriert.
Bei der Trafficaufteilung können Sie mit dem Senden von 0 % des Traffics an den cloud
-Dienst und von 100 % an den on-prem
-Dienst beginnen. Anschließend erhöhen Sie bei Bedarf schrittweise den Anteil des an den cloud
-Dienst gesendeten Traffics. Schließlich senden Sie 100 % des Traffics an den cloud
-Dienst und deaktivieren den on-prem
-Dienst.
Edge-Netzwerkdienste von Google Cloud für lokale und Multi-Cloud-Bereitstellungen
Diese Funktionalität kann auch mit den vorhandenen Netzwerklösungen von Google Cloud kombiniert werden. Google Cloud bietet eine breite Palette von Netzwerkdiensten, wie z. B. ein globales externes Load-Balancing mit Google Cloud Armor für den DDoS-Schutz (Distributed Denial of Service), mit denen Sie jetzt in Verbindung mit Traffic Director neue Funktionen für Ihre lokalen oder Multi-Cloud-Dienste bereitstellen können. Diese lokalen oder Multi-Cloud-Dienste müssen dabei nicht über das öffentliche Internet verfügbar sein.
Im obigen Diagramm gelangt Traffic von Clients im öffentlichen Internet von einem Google Cloud-Load-Balancer, z. B. unserem globalen externen Application Load Balancer, in das Google Cloud-Netzwerk. Sobald der Traffic den Load-Balancer erreicht, können Sie Edge-Netzwerkdienste wie den DDoS-Schutz von Google Cloud Armor oder die IAP-Nutzerauthentifizierung (Identity-Aware Proxy) anwenden. Weitere Informationen finden Sie unter Edge-Netzwerkdienste für Bereitstellungen in mehreren Umgebungen.
Nachdem Sie diese Dienste angewendet haben, wird der Traffic in Google Cloud kurz unterbrochen. Eine Anwendung oder ein eigenständiger Proxy (von Traffic Director konfiguriert) leitet den Traffic dann über Cloud VPN oder Cloud Interconnect an Ihren lokalen Dienst weiter.
Ressourcen und Architektur von Google Cloud
Dieser Abschnitt enthält Hintergrundinformationen zu den Google Cloud-Ressourcen, mit denen Sie ein von Traffic Director verwaltetes Service Mesh für lokale und Multi-Cloud-Umgebungen bereitstellen können.
Das folgende Diagramm zeigt die Google Cloud-Ressourcen, die Unterstützung von lokalen und Multi-Cloud-Diensten für Traffic Director ermöglichen. Die Schlüsselressource ist die NEG und deren Netzwerkendpunkte. Alle anderen Ressourcen werden im Rahmen der Standardeinrichtung von Traffic Director konfiguriert. Der Einfachheit halber sind im Diagramm keine Optionen wie mehrere globale Back-End-Dienste zu sehen.
Zum Konfigurieren von Traffic Director verwenden Sie die API-Ressource des globalen Back-End-Dienstes. Ein Dienst ist ein logisches Konstrukt, das Folgendes kombiniert:
- Richtlinien, die angewendet werden sollen, wenn ein Client versucht, Traffic an den Dienst zu senden
- Ein oder mehrere Back-Ends oder Endpunkte, die den Traffic verarbeiten, der für den Dienst bestimmt ist
Lokale und Multi-Cloud-Dienste sind mit jedem anderen von Traffic Director konfigurierten Dienst vergleichbar. Der Hauptunterschied besteht darin, dass Sie für die Konfiguration der Endpunkte dieser Dienste eine Hybridkonnektivitäts-NEG verwenden. Bei diesen NEGs ist der Netzwerk-Endpunkt-Typ auf NON_GCP_PRIVATE_IP_PORT
gesetzt. Die Endpunkte, die Sie den Hybridkonnektivitäts-NEGs hinzufügen, müssen gültige IP:port
-Kombinationen sein, die Ihre Clients erreichen können, z. B. über Hybridkonnektivität wie Cloud VPN oder Cloud Interconnect.
Jede NEG hat einen Netzwerkendpunkttyp und kann nur Netzwerkendpunkte eines Typs enthalten. Dieser Typ bestimmt Folgendes:
- Das Ziel, an das Ihre Dienste Traffic senden können
- Das Verhalten der Systemdiagnose
Beim Erstellen der NEG konfigurieren Sie diese so, dass Traffic an ein lokales oder Multi-Cloud-Ziel gesendet werden kann.
- Legen Sie für den Netzwerkendpunkttyp
NON_GCP_PRIVATE_IP_PORT
fest. Dieser Wert stellt eine erreichbare IP-Adresse dar. Wenn dies eine lokale IP-Adresse oder die IP-Adresse eines anderen Cloud-Anbieters ist, muss sie von Google Cloud über Hybridkonnektivität erreichbar sein, etwa in Form der Konnektivität über Cloud VPN oder Cloud Interconnect. - Geben Sie eine Google Cloud-Zone an, mit der die geografische Entfernung zwischen Google Cloud und Ihrer lokalen oder Multi-Cloud-Umgebung minimiert wird. Wenn Sie beispielsweise einen Dienst in einer lokalen Umgebung in Frankfurt hosten, können Sie beim Erstellen der NEG die Google Cloud-Zone
europe-west3-a
angeben.
Das Verhalten von Systemdiagnosen für Netzwerkendpunkte dieses Typs unterscheidet sich von Systemdiagnosen für andere Arten von Netzwerkendpunkten. Während andere Typen von Netzwerkendpunkten das zentrale System von Google Cloud verwenden, nutzen NON_GCP_PRIVATE_IP_PORT
-Netzwerkendpunkte das Verfahren der verteilten Systemdiagnose von Envoy. Weitere Informationen finden Sie im Abschnitt Einschränkungen und weitere Überlegungen.
Informationen zu Konnektivität und Netzwerken
Ihre Traffic Director-Clients wie Envoy-Proxys müssen unter trafficdirector.googleapis.com:443
eine Verbindung zu Traffic Director herstellen können. Wenn Sie die Verbindung zur Traffic Director-Steuerungsebene verlieren, geschieht Folgendes:
- Für vorhandene Traffic Director-Clients kann dann keine Änderung der Konfiguration von Traffic Director übernommen werden. Sie funktionieren weiterhin gemäß ihrer aktuellen Konfiguration.
- Neue Traffic Director-Clients können keine Verbindung zu Traffic Director herstellen. Das Service Mesh kann erst verwendet werden, wenn die Verbindung wiederhergestellt ist.
Wenn Sie Traffic zwischen Google Cloud und lokalen oder Multi-Cloud-Umgebungen senden möchten, müssen die Umgebungen über Hybridkonnektivität verbunden sein. Wir empfehlen eine Hochverfügbarkeitsverbindung, die von Cloud VPN oder Cloud Interconnect aktiviert wird.
Die IP-Adressen und IP-Adressbereiche für lokale, andere Cloud- und Google Cloud-Subnetze dürfen sich nicht überschneiden.
Einschränkungen und weitere Aspekte
Im Folgenden sind die Einschränkungen bei der Verwendung von Hybridkonnektivitäts-NEGs aufgeführt:
Einstellen von proxyBind
Sie können den Wert von proxyBind
nur festlegen und ändern, wenn Sie einen targetHttpProxy
neu erstellen.
Ein vorhandener targetHttpProxy
lässt sich nicht aktualisieren.
Konnektivität und Unterbrechung der Konnektivität
Weitere Informationen zu Anforderungen und Einschränkungen von Verbindungen finden Sie unter Informationen zu Konnektivität und Netzwerken.
Gemischte Backend-Typen
Ein Back-End-Dienst kann VM- oder NEG-Back-Ends haben. Wenn ein Back-End-Dienst NEG-Back-Ends hat, müssen alle NEGs denselben Netzwerk-Endpunkttyp enthalten. Sie können keinen Back-End-Dienst mit mehreren NEGs mit jeweils unterschiedlichen Endpunkttypen haben.
Eine URL-Zuordnung kann Hostregeln haben, die in verschiedene Back-End-Dienste aufgelöst werden. Möglicherweise haben Sie einen Back-End-Dienst mit ausschließlich NEGs für Hybridkonnektivität (mit lokalen Endpunkten) und einen Back-End-Dienst mit eigenständigen NEGs (mit GKE-Endpunkten). Die URL-Zuordnung kann Regeln wie die gewichtete Trafficaufteilung enthalten, die den Traffic auf jeden dieser Back-End-Dienste aufteilen.
NEG mit Endpunkten vom Typ NON_GCP_PRIVATE_IP_PORT
mit Google Cloud-Back-Ends verwenden
Es ist möglich, einen Back-End-Dienst mit einer NEG für Hybridkonnektivität zu erstellen, die auf Back-Ends in Google Cloud verweist. Dieses Konzept wird allerdings nicht empfohlen. Für Hybridkonnektivitäts-NEGs haben zentrale Systemdiagnosen keinen Nutzen. Eine Beschreibung der zentralen Systemdiagnose und der verteilten Systemdiagnose finden Sie unter Systemdiagnose.
Endpunktregistrierung
Wenn Sie einer NEG einen Endpunkt hinzufügen möchten, müssen Sie die NEG aktualisieren. Dies kann entweder manuell geschehen oder mithilfe der Google Cloud NEG REST APIs oder die Google Cloud CLI automatisiert werden.
Wenn eine neue Instanz eines Dienstes gestartet wird, können Sie die Instanz mithilfe von Google Cloud APIs bei der von Ihnen konfigurierten NEG registrieren. Bei Verwendung von verwalteten Instanzgruppen von Compute Engine (Managed Instance Groups, MIGs) oder GKE (in Google Cloud) wird die Endpunktregistrierung automatisch vom MIG- oder NEG-Controller ausgeführt.
Systemdiagnose
Das Verhalten von Systemdiagnosen unterscheidet sich vom Standardverhalten der zentralen Systemdiagnose, wenn Sie Hybridkonnektivitäts-NEGs verwenden:
- Bei Netzwerkendpunkten vom Typ
NON_GCP_PRIVATE_IP_PORT
konfiguriert Traffic Director deren Clients so, dass Systemdiagnosen über die Datenebene verarbeitet werden. Envoy-Instanzen führen eigene Systemdiagnosen aus und nutzen eigene Verfahren, um das Senden von Anfragen an fehlerhafte Back-Ends zu unterbinden. - Da die Systemdiagnosen von der Datenebene verarbeitet werden, können Sie den Status einer Systemdiagnose nicht mit der Google Cloud Console, der API oder der Google Cloud CLI abrufen.
In der Praxis bedeutet die Verwendung von NON_GCP_PRIVATE_IP_PORT
Folgendes:
- Da Traffic Director-Clients die Systemdiagnosen verteilt ausführen, kann es vorkommen, dass der Netzwerktraffic aufgrund von Systemdiagnosen zunimmt. Die Zunahme hängt von der Anzahl der Traffic Director-Clients und der Anzahl der Endpunkte ab, die jeder Client für die Systemdiagnose benötigt. Beispiel:
- Wenn Sie einer Hybridkonnektivitäts-NEG einen weiteren Endpunkt hinzufügen, führen vorhandene Traffic Director-Clients möglicherweise eine Systemdiagnose für die Endpunkte in Hybridkonnektivitäts-NEGs aus.
- Wenn Sie Ihrem Service Mesh eine weitere Instanz hinzufügen, z. B. eine VM-Instanz, die Ihren Anwendungscode und einen Traffic Director-Client ausführt, führt die neue Instanz möglicherweise Systemdiagnosen für die Endpunkte in Hybridkonnektivitäts-NEGs aus.
- Netzwerktraffic aufgrund von Systemdiagnosen steigt quadratisch (
O(n^2)
) an.
VPC-Netzwerk
Ein Service Mesh wird eindeutig durch seinen VPC-Netzwerknamen (Virtual Private Cloud) identifiziert. Für Traffic Director-Clients gilt die Konfiguration von Traffic Director auf Grundlage des in der Bootstrap-Konfiguration angegebenen VPC-Netzwerks. Deshalb müssen Sie, auch wenn sich Ihr Mesh-Netzwerk komplett außerhalb eines Google Cloud-Rechenzentrums befindet, in Ihrer Bootstrap-Konfiguration einen gültigen VPC-Netzwerknamen angeben.
Dienstkonto
In Google Cloud ist der Standard-Envoy-Bootstrap so konfiguriert, dass Dienstkontoinformationen entweder aus einer Compute Engine-Bereitstellungsumgebung oder aus einer GKE-Deployment-Umgebung oder aus beiden Umgebungen gelesen werden. Bei Ausführung außerhalb von Google Cloud müssen Sie in Ihrem Envoy-Bootstrap explizit ein Dienstkonto, einen Netzwerknamen und eine Projektnummer angeben. Für dieses Dienstkonto sind ausreichende Berechtigungen für das Herstellen einer Verbindung zur Traffic Director API erforderlich.
Nächste Schritte
- Informationen zum Konfigurieren von Traffic Director für lokale und Multi-Cloud-Bereitstellungen finden Sie unter Edge-Netzwerkdienste für Bereitstellungen mit mehreren Umgebungen.
- Weitere Informationen zu Traffic Director finden Sie in der Übersicht zu Traffic Director.
- Weitere Informationen zu Internet-NEGs finden Sie unter Traffic Director mit Internetnetzwerk-Endpunktgruppen.