Traffic Director mit Hybridkonnektivitäts-Netzwerkendpunktgruppen

Traffic Director unterstützt Umgebungen außerhalb von Google Cloud einschließlich lokaler Rechenzentren und anderer öffentlicher Clouds, die über Hybridkonnektivität erreichbar sind.

Sie konfigurieren Traffic Director dafür so, dass Ihr Service Mesh Traffic an Endpunkte außerhalb von Google Cloud senden kann. Zu diesen Endpunkten gehören:

  • Lokale Load-Balancer.
  • Serveranwendungen auf einer VM-Instanz in einer anderen Cloud.
  • Andere Ziele, die Sie mit Hybridkonnektivität erreichen können und die mit einer IP-Adresse und einem Port erreichbar sind.

Sie fügen dazu einer Netzwerk-Endpunktgruppe (NEG) mit Hybridkonnektivität die IP-Adresse und den Port jedes Endpunkts hinzu. Hybridkonnektivitäts-NEGs sind vom Typ NON_GCP_PRIVATE_IP_PORT.

Die Unterstützung von Traffic Director für lokale und Multi-Cloud-Dienste bietet folgende Vorteile:

  • Sie können Traffic global weiterleiten, auch an die Endpunkte lokaler und Multi-Cloud-Dienste.
  • Sie können die Vorteile von Traffic Director und Service Mesh einschließlich Funktionen wie Service Discovery und erweiterte Trafficverwaltung für Dienste nutzen, die in Ihrer vorhandenen Infrastruktur außerhalb von Google Cloud ausgeführt werden.
  • Sie können die Traffic Director-Funktionen mit Cloud Load Balancing kombinieren, um Google Cloud-Netzwerkdienste in mehrere Umgebungen einzubinden.

Hybridkonnektivitäts-NEGs (NON_GCP_PRIVATE_IP_PORT-NEGs) werden mit proxylosen gRPC-Clients nicht unterstützt.

Anwendungsfälle

Mit Traffic Director kann das Netzwerk zwischen VM- und containerbasierten Diensten in mehreren Umgebungen konfiguriert werden. Dazu gehören unter anderem:

  • Google Cloud
  • Lokale Rechenzentren
  • Andere öffentliche Clouds

Mesh-Traffic an einen lokalen Speicherort oder zu einer anderen Cloud weiterleiten

Der einfachste Anwendungsfall für dieses Feature ist das Trafficrouting. Ihre Anwendung führt einen Traffic Director-Envoy-Proxy aus . Traffic Director informiert den Client über Ihre Dienste und die Endpunkte jedes Dienstes.

Mesh-Traffic an einen lokalen Speicherort oder zu einer anderen Cloud weiterleiten
Routing des Mesh-Traffics zu einem lokalen Speicherort oder zu einer anderen Cloud (zum Vergrößern klicken)

Wenn im obigen Diagramm Ihre Anwendung eine Anfrage an den on-prem-Dienst sendet, prüft der Traffic Director-Client die ausgehende Anfrage und aktualisiert ihr Ziel. Als Ziel wird ein Endpunkt festgelegt, der mit dem on-prem-Dienst (in diesem Fall 10.2.0.1) verknüpft ist. Die Anfrage wird dann über Cloud VPN oder Cloud Interconnect an das vorgesehene Ziel weitergeleitet.

Wenn Sie weitere Endpunkte hinzufügen müssen, aktualisieren Sie Traffic Director, um sie dem Dienst hinzuzufügen. Sie müssen den Anwendungscode nicht ändern.

Vorhandenen lokalen Dienst zu Google Cloud migrieren

Durch Senden von Traffic an einen Endpunkt außerhalb von Google Cloud können Sie Traffic an andere Umgebungen weiterleiten. Diese Funktion lässt sich mit der erweiterten Trafficverwaltung kombinieren, um Dienste zwischen Umgebungen zu migrieren.

Migration von einem lokalen Standort zu Google Cloud.
Von einem lokalen Speicherort zu Google Cloud migrieren (zum Vergrößern klicken)

Das obige Diagramm erweitert das vorherige Muster. Anstatt Traffic Director so zu konfigurieren, dass der gesamte Traffic an den on-prem-Dienst gesendet wird, wird Traffic Director mithilfe der gewichteten Trafficaufteilung für die Aufteilung von Traffic auf zwei Dienste konfiguriert.

Bei der Trafficaufteilung können Sie mit dem Senden von 0 % des Traffics an den cloud-Dienst und von 100 % an den on-prem-Dienst beginnen. Anschließend erhöhen Sie bei Bedarf schrittweise den Anteil des an den cloud-Dienst gesendeten Traffics. Schließlich senden Sie 100 % des Traffics an den cloud-Dienst und deaktivieren den on-prem-Dienst.

Edge-Netzwerkdienste von Google Cloud für lokale und Multi-Cloud-Bereitstellungen

Diese Funktionalität kann auch mit den vorhandenen Netzwerklösungen von Google Cloud kombiniert werden. Google Cloud bietet eine breite Palette von Netzwerkdiensten, wie z. B. ein globales externes Load-Balancing mit Google Cloud Armor für den DDoS-Schutz (Distributed Denial of Service), mit denen Sie jetzt in Verbindung mit Traffic Director neue Funktionen für Ihre lokalen oder Multi-Cloud-Dienste bereitstellen können. Diese lokalen oder Multi-Cloud-Dienste müssen dabei nicht über das öffentliche Internet verfügbar sein.

Bereitstellungen in mehreren Umgebungen.
Bereitstellungen in mehreren Umgebungen (zum Vergrößern klicken)

Im obigen Diagramm gelangt Traffic von Clients im öffentlichen Internet von einem Google Cloud-Load-Balancer, z. B. unserem globalen externen Application Load Balancer, in das Google Cloud-Netzwerk. Sobald der Traffic den Load-Balancer erreicht, können Sie Edge-Netzwerkdienste wie den DDoS-Schutz von Google Cloud Armor oder die IAP-Nutzerauthentifizierung (Identity-Aware Proxy) anwenden. Weitere Informationen finden Sie unter Edge-Netzwerkdienste für Bereitstellungen in mehreren Umgebungen.

Nachdem Sie diese Dienste angewendet haben, wird der Traffic in Google Cloud kurz unterbrochen. Eine Anwendung oder ein eigenständiger Proxy (von Traffic Director konfiguriert) leitet den Traffic dann über Cloud VPN oder Cloud Interconnect an Ihren lokalen Dienst weiter.

Ressourcen und Architektur von Google Cloud

Dieser Abschnitt enthält Hintergrundinformationen zu den Google Cloud-Ressourcen, mit denen Sie ein von Traffic Director verwaltetes Service Mesh für lokale und Multi-Cloud-Umgebungen bereitstellen können.

Das folgende Diagramm zeigt die Google Cloud-Ressourcen, die Unterstützung von lokalen und Multi-Cloud-Diensten für Traffic Director ermöglichen. Die Schlüsselressource ist die NEG und deren Netzwerkendpunkte. Alle anderen Ressourcen werden im Rahmen der Standardeinrichtung von Traffic Director konfiguriert. Der Einfachheit halber sind im Diagramm keine Optionen wie mehrere globale Back-End-Dienste zu sehen.

Compute Engine-Ressourcen für lokale und Multi-Cloud-Dienste.
Compute Engine-Ressourcen für lokale und Multi-Cloud-Dienste (zum Vergrößern klicken)

Zum Konfigurieren von Traffic Director verwenden Sie die API-Ressource des globalen Back-End-Dienstes. Ein Dienst ist ein logisches Konstrukt, das Folgendes kombiniert:

  1. Richtlinien, die angewendet werden sollen, wenn ein Client versucht, Traffic an den Dienst zu senden
  2. Ein oder mehrere Back-Ends oder Endpunkte, die den Traffic verarbeiten, der für den Dienst bestimmt ist

Lokale und Multi-Cloud-Dienste sind mit jedem anderen von Traffic Director konfigurierten Dienst vergleichbar. Der Hauptunterschied besteht darin, dass Sie für die Konfiguration der Endpunkte dieser Dienste eine Hybridkonnektivitäts-NEG verwenden. Bei diesen NEGs ist der Netzwerk-Endpunkt-Typ auf NON_GCP_PRIVATE_IP_PORT gesetzt. Die Endpunkte, die Sie den Hybridkonnektivitäts-NEGs hinzufügen, müssen gültige IP:port-Kombinationen sein, die Ihre Clients erreichen können, z. B. über Hybridkonnektivität wie Cloud VPN oder Cloud Interconnect.

Jede NEG hat einen Netzwerkendpunkttyp und kann nur Netzwerkendpunkte eines Typs enthalten. Dieser Typ bestimmt Folgendes:

  • Das Ziel, an das Ihre Dienste Traffic senden können
  • Das Verhalten der Systemdiagnose

Beim Erstellen der NEG konfigurieren Sie diese so, dass Traffic an ein lokales oder Multi-Cloud-Ziel gesendet werden kann.

  • Legen Sie für den Netzwerkendpunkttyp NON_GCP_PRIVATE_IP_PORT fest. Dieser Wert stellt eine erreichbare IP-Adresse dar. Wenn dies eine lokale IP-Adresse oder die IP-Adresse eines anderen Cloud-Anbieters ist, muss sie von Google Cloud über Hybridkonnektivität erreichbar sein, etwa in Form der Konnektivität über Cloud VPN oder Cloud Interconnect.
  • Geben Sie eine Google Cloud-Zone an, mit der die geografische Entfernung zwischen Google Cloud und Ihrer lokalen oder Multi-Cloud-Umgebung minimiert wird. Wenn Sie beispielsweise einen Dienst in einer lokalen Umgebung in Frankfurt hosten, können Sie beim Erstellen der NEG die Google Cloud-Zone europe-west3-a angeben.

Das Verhalten von Systemdiagnosen für Netzwerkendpunkte dieses Typs unterscheidet sich von Systemdiagnosen für andere Arten von Netzwerkendpunkten. Während andere Typen von Netzwerkendpunkten das zentrale System von Google Cloud verwenden, nutzen NON_GCP_PRIVATE_IP_PORT-Netzwerkendpunkte das Verfahren der verteilten Systemdiagnose von Envoy. Weitere Informationen finden Sie im Abschnitt Einschränkungen und weitere Überlegungen.

Informationen zu Konnektivität und Netzwerken

Ihre Traffic Director-Clients wie Envoy-Proxys müssen unter trafficdirector.googleapis.com:443 eine Verbindung zu Traffic Director herstellen können. Wenn Sie die Verbindung zur Traffic Director-Steuerungsebene verlieren, geschieht Folgendes:

  • Für vorhandene Traffic Director-Clients kann dann keine Änderung der Konfiguration von Traffic Director übernommen werden. Sie funktionieren weiterhin gemäß ihrer aktuellen Konfiguration.
  • Neue Traffic Director-Clients können keine Verbindung zu Traffic Director herstellen. Das Service Mesh kann erst verwendet werden, wenn die Verbindung wiederhergestellt ist.

Wenn Sie Traffic zwischen Google Cloud und lokalen oder Multi-Cloud-Umgebungen senden möchten, müssen die Umgebungen über Hybridkonnektivität verbunden sein. Wir empfehlen eine Hochverfügbarkeitsverbindung, die von Cloud VPN oder Cloud Interconnect aktiviert wird.

Die IP-Adressen und IP-Adressbereiche für lokale, andere Cloud- und Google Cloud-Subnetze dürfen sich nicht überschneiden.

Einschränkungen und weitere Aspekte

Im Folgenden sind die Einschränkungen bei der Verwendung von Hybridkonnektivitäts-NEGs aufgeführt:

Einstellen von proxyBind

Sie können den Wert von proxyBind nur festlegen und ändern, wenn Sie einen targetHttpProxy neu erstellen. Ein vorhandener targetHttpProxy lässt sich nicht aktualisieren.

Konnektivität und Unterbrechung der Konnektivität

Weitere Informationen zu Anforderungen und Einschränkungen von Verbindungen finden Sie unter Informationen zu Konnektivität und Netzwerken.

Gemischte Backend-Typen

Ein Back-End-Dienst kann VM- oder NEG-Back-Ends haben. Wenn ein Back-End-Dienst NEG-Back-Ends hat, müssen alle NEGs denselben Netzwerk-Endpunkttyp enthalten. Sie können keinen Back-End-Dienst mit mehreren NEGs mit jeweils unterschiedlichen Endpunkttypen haben.

Eine URL-Zuordnung kann Hostregeln haben, die in verschiedene Back-End-Dienste aufgelöst werden. Möglicherweise haben Sie einen Back-End-Dienst mit ausschließlich NEGs für Hybridkonnektivität (mit lokalen Endpunkten) und einen Back-End-Dienst mit eigenständigen NEGs (mit GKE-Endpunkten). Die URL-Zuordnung kann Regeln wie die gewichtete Trafficaufteilung enthalten, die den Traffic auf jeden dieser Back-End-Dienste aufteilen.

NEG mit Endpunkten vom Typ NON_GCP_PRIVATE_IP_PORT mit Google Cloud-Back-Ends verwenden

Es ist möglich, einen Back-End-Dienst mit einer NEG für Hybridkonnektivität zu erstellen, die auf Back-Ends in Google Cloud verweist. Dieses Konzept wird allerdings nicht empfohlen. Für Hybridkonnektivitäts-NEGs haben zentrale Systemdiagnosen keinen Nutzen. Eine Beschreibung der zentralen Systemdiagnose und der verteilten Systemdiagnose finden Sie unter Systemdiagnose.

Endpunktregistrierung

Wenn Sie einer NEG einen Endpunkt hinzufügen möchten, müssen Sie die NEG aktualisieren. Dies kann entweder manuell geschehen oder mithilfe der Google Cloud NEG REST APIs oder die Google Cloud CLI automatisiert werden.

Wenn eine neue Instanz eines Dienstes gestartet wird, können Sie die Instanz mithilfe von Google Cloud APIs bei der von Ihnen konfigurierten NEG registrieren. Bei Verwendung von verwalteten Instanzgruppen von Compute Engine (Managed Instance Groups, MIGs) oder GKE (in Google Cloud) wird die Endpunktregistrierung automatisch vom MIG- oder NEG-Controller ausgeführt.

Systemdiagnose

Das Verhalten von Systemdiagnosen unterscheidet sich vom Standardverhalten der zentralen Systemdiagnose, wenn Sie Hybridkonnektivitäts-NEGs verwenden:

  • Bei Netzwerkendpunkten vom Typ NON_GCP_PRIVATE_IP_PORT konfiguriert Traffic Director deren Clients so, dass Systemdiagnosen über die Datenebene verarbeitet werden. Envoy-Instanzen führen eigene Systemdiagnosen aus und nutzen eigene Verfahren, um das Senden von Anfragen an fehlerhafte Back-Ends zu unterbinden.
  • Da die Systemdiagnosen von der Datenebene verarbeitet werden, können Sie den Status einer Systemdiagnose nicht mit der Google Cloud Console, der API oder der Google Cloud CLI abrufen.

In der Praxis bedeutet die Verwendung von NON_GCP_PRIVATE_IP_PORT Folgendes:

  • Da Traffic Director-Clients die Systemdiagnosen verteilt ausführen, kann es vorkommen, dass der Netzwerktraffic aufgrund von Systemdiagnosen zunimmt. Die Zunahme hängt von der Anzahl der Traffic Director-Clients und der Anzahl der Endpunkte ab, die jeder Client für die Systemdiagnose benötigt. Beispiel:
    • Wenn Sie einer Hybridkonnektivitäts-NEG einen weiteren Endpunkt hinzufügen, führen vorhandene Traffic Director-Clients möglicherweise eine Systemdiagnose für die Endpunkte in Hybridkonnektivitäts-NEGs aus.
    • Wenn Sie Ihrem Service Mesh eine weitere Instanz hinzufügen, z. B. eine VM-Instanz, die Ihren Anwendungscode und einen Traffic Director-Client ausführt, führt die neue Instanz möglicherweise Systemdiagnosen für die Endpunkte in Hybridkonnektivitäts-NEGs aus.
    • Netzwerktraffic aufgrund von Systemdiagnosen steigt quadratisch (O(n^2)) an.

VPC-Netzwerk

Ein Service Mesh wird eindeutig durch seinen VPC-Netzwerknamen (Virtual Private Cloud) identifiziert. Für Traffic Director-Clients gilt die Konfiguration von Traffic Director auf Grundlage des in der Bootstrap-Konfiguration angegebenen VPC-Netzwerks. Deshalb müssen Sie, auch wenn sich Ihr Mesh-Netzwerk komplett außerhalb eines Google Cloud-Rechenzentrums befindet, in Ihrer Bootstrap-Konfiguration einen gültigen VPC-Netzwerknamen angeben.

Dienstkonto

In Google Cloud ist der Standard-Envoy-Bootstrap so konfiguriert, dass Dienstkontoinformationen entweder aus einer Compute Engine-Bereitstellungsumgebung oder aus einer GKE-Deployment-Umgebung oder aus beiden Umgebungen gelesen werden. Bei Ausführung außerhalb von Google Cloud müssen Sie in Ihrem Envoy-Bootstrap explizit ein Dienstkonto, einen Netzwerknamen und eine Projektnummer angeben. Für dieses Dienstkonto sind ausreichende Berechtigungen für das Herstellen einer Verbindung zur Traffic Director API erforderlich.

Nächste Schritte