VPC Service Controls-konformen privaten Endpunkt aufrufen

Sie können die Dienstregistrierung von Service Directory mit Workflows verwenden, um HTTP-Aufrufe aus Ihrer Workflowausführung an einen privaten Endpunkt zu richten. Durch Erstellen eines privaten Endpunkts in einem VPC-Netzwerk (Virtual Private Cloud) kann der Endpunkt VPC Service Controls-konform sein.

VPC Service Controls bietet eine zusätzliche Sicherheitsebene, die unabhängig von Identity and Access Management (IAM) ist. Während IAM eine detaillierte identitätsbasierte Zugriffssteuerung ermöglicht, ermöglicht VPC Service Controls eine umfassendere kontextbasierte Perimetersicherheit, einschließlich der Kontrolle ausgehender Datenübertragungen im gesamten Perimeter.

  • Service Directory ist eine Dienst-Registry, in der Informationen zu registrierten Netzwerkdiensten gespeichert werden, einschließlich ihrer Namen, Standorte und Attribute. Unabhängig von ihrer Infrastruktur können Sie Dienste automatisch registrieren und ihre Details erfassen. Auf diese Weise können Sie Dienste in großem Maßstab für alle Ihre Dienstendpunkte erkennen, veröffentlichen und verbinden.

  • Ein VPC-Netzwerk stellt die Verbindung zu Ihren VM-Instanzen bereit und ermöglicht es Ihnen, mithilfe interner IP-Adressen private Endpunkte in Ihrem VPC-Netzwerk zu erstellen. HTTP-Aufrufe an eine VPC-Netzwerkressource werden über ein privates Netzwerk gesendet, wobei IAM und VPC Service Controls erzwungen werden.

  • VPC Service Controls ist ein Google Cloud-Feature, mit dem Sie einen Dienstperimeter einrichten und eine Datenübertragungsgrenze erstellen können. Sie können VPC Service Controls mit Workflows verwenden, um Ihre Dienste zu schützen und das Risiko der Daten-Exfiltration zu verringern.

In diesem Dokument erfahren Sie, wie Sie eine VM in einem VPC-Netzwerk als Service Directory-Endpunkt registrieren. So können Sie Ihrem Workflow einen Service Directory-Dienstnamen zuweisen. Die Workflowausführung verwendet die aus der Dienstregistrierung abgerufenen Informationen, um die entsprechende HTTP-Anfrage zu senden, ohne an ein öffentliches Netzwerk zu gehen.

Dieses Diagramm bietet einen Überblick:

HTTP-Anfrage mit Informationen aus Service Directory an eine Portnummer auf einer VM-Instanz senden

Hier ist eine allgemeine Liste der erforderlichen Aufgaben:

  1. Gewähren Sie dem Cloud Workflows-Dienst-Agent Berechtigungen, damit der Dienst-Agent Service Directory-Ressourcen ansehen und mithilfe von Service Directory auf VPC-Netzwerke zugreifen kann.
  2. Erstellen Sie ein VPC-Netzwerk, um Netzwerkfunktionen bereitzustellen.
  3. Erstellen Sie eine VPC-Firewallregel, damit Sie Traffic zu oder von VM-Instanzen in Ihrem VPC-Netzwerk zulassen oder ablehnen können.
  4. Erstellen Sie eine VM-Instanz im VPC-Netzwerk. Eine Compute Engine-VM-Instanz ist eine virtuelle Maschine, die in der Infrastruktur von Google gehostet wird. Die Begriffe Compute Engine-Instanz, VM-Instanz und VM sind synonym und werden synonym verwendet.
  5. Anwendung auf der VM bereitstellen Sie können eine Anwendung auf Ihrer VM-Instanz ausführen und prüfen, ob der Traffic wie erwartet bereitgestellt wird.
  6. Konfigurieren Sie Service Directory so, dass Ihre Workflowausführung einen Service Directory-Endpunkt aufrufen kann.
  7. Workflow erstellen und bereitstellen Der Wert private_service_name in Ihrem Workflow gibt den Service Directory-Endpunkt an, den Sie im vorherigen Schritt registriert haben.

Cloud Workflows-Dienst-Agent Berechtigungen gewähren

Einige Google Cloud-Dienste haben Dienst-Agenten damit Dienste auf Ihre Ressourcen zugreifen können. Wenn eine API einen Dienst-Agent erfordert, erstellt Google den Dienst-Agent, nachdem Sie die API aktiviert und verwendet haben.

  1. Wenn Sie zum ersten Mal einen Workflow bereitstellen, wird der Cloud Workflows-Dienst-Agent automatisch im folgenden Format erstellt:

    service-PROJECT_NUMBER@gcp-sa-workflows.iam.gserviceaccount.com

    Mit diesem Befehl können Sie das Dienstkonto manuell in einem Projekt ohne Workflows erstellen:

    gcloud beta services identity create \
        --service=workflows.googleapis.com \
        --project=PROJECT_ID

    Ersetzen Sie PROJECT_ID durch die Google Cloud-Projekt-ID.

  2. Weisen Sie dem Workflows-Dienst-Agent die Rolle „Service Directory-Betrachter“ (servicedirectory.viewer) für das Projekt zu, um Service Directory-Ressourcen anzusehen:

    gcloud projects add-iam-policy-binding PROJECT_ID \
        --member=serviceAccount:service-PROJECT_NUMBER@gcp-sa-workflows.iam.gserviceaccount.com \
        --role=roles/servicedirectory.viewer

    Ersetzen Sie PROJECT_NUMBER durch Ihre Google Cloud-Projektnummer. Sie finden Ihre Projektnummer auf der Willkommensseite der Google Cloud Console oder durch Ausführen des folgenden Befehls:

    gcloud projects describe PROJECT_ID --format='value(projectNumber)'
  3. Wenn Sie mithilfe von Service Directory auf VPC-Netzwerke zugreifen möchten, weisen Sie dem Workflows-Dienst-Agent die Rolle „Autorisierter Private Service Connect-Dienst“ (roles/servicedirectory.pscAuthorizedService) für das Projekt zu:

    gcloud projects add-iam-policy-binding PROJECT_ID \
        --member=serviceAccount:service-PROJECT_NUMBER@gcp-sa-workflows.iam.gserviceaccount.com \
        --role=roles/servicedirectory.pscAuthorizedService

VPC-Netzwerk erstellen

Ein VPC-Netzwerk ist eine virtuelle Version eines physischen Netzwerks, die innerhalb des Produktionsnetzwerks von Google implementiert wurde. Sie ermöglicht eine Verbindung für Ihre Compute Engine-VM-Instanzen.

Sie können ein VPC-Netzwerk im automatischen oder benutzerdefinierten Modus erstellen. Jedes neu erstellte Netzwerk muss innerhalb desselben Projekts einen eindeutigen Namen haben.

Mit dem folgenden Befehl wird beispielsweise ein VPC-Netzwerk im automatischen Modus erstellt:

gcloud compute networks create NETWORK_NAME \
    --subnet-mode=auto

Ersetzen Sie NETWORK_NAME durch einen Namen für das VPC-Netzwerk.

Weitere Informationen finden Sie unter VPC-Netzwerke erstellen und verwalten.

VPC-Firewallregel erstellen

Mit VPC-Firewallregeln können Sie Traffic zu oder von VM-Instanzen in einem VPC-Netzwerk basierend auf Portnummer, Tag oder Protokoll zulassen oder ablehnen.

VPC-Firewallregeln werden auf Netzwerkebene definiert und gelten nur für das Netzwerk, in dem sie erstellt werden. Der Name für jede Regel muss jedoch für das Projekt eindeutig sein.

Mit dem folgenden Befehl wird beispielsweise eine Firewallregel für ein angegebenes VPC-Netzwerk erstellt und eingehender Traffic von jeder IPv4-Adresse (0.0.0.0/0) zugelassen. Mit dem Flag-Wert --rules von all wird die Regel auf alle Protokolle und Zielports angewendet.

gcloud compute firewall-rules create RULE_NAME \
    --network=projects/PROJECT_ID/global/networks/NETWORK_NAME \
    --direction=INGRESS \
    --action=ALLOW \
    --source-ranges=0.0.0.0/0 \
    --rules=all

Ersetzen Sie RULE_NAME durch einen Namen für die Firewallregel.

Weitere Informationen finden Sie unter VPC-Firewallregeln verwenden.

VM-Instanz im VPC-Netzwerk erstellen

VM-Instanzen umfassen Google Kubernetes Engine-Cluster (GKE), Instanzen der flexiblen App Engine-Umgebung und andere Google Cloud-Produkte, die auf Compute Engine-VMs basieren. Zur Unterstützung des privaten Netzwerkzugriffs kann eine VPC-Netzwerkressource eine VM-Instanz, eine Cloud Interconnect-IP-Adresse oder ein interner Layer-4-Load-Balancer sein.

Auf Compute Engine-Instanzen können von Google bereitgestellte öffentliche Images für Linux und Windows Server sowie private benutzerdefinierte Images ausgeführt werden, die Sie erstellen oder aus vorhandenen Systemen importieren können. Sie können auch Docker-Container bereitstellen.

Sie können die Maschinenattribute Ihrer Instanzen auswählen, z. B. die Anzahl der virtuellen CPUs und die Größe des Arbeitsspeichers, und zwar entweder mit einer Reihe vordefinierter Maschinentypen oder durch Erstellen eigener benutzerdefinierter Maschinentypen.

Mit dem folgenden Befehl wird beispielsweise eine Linux-VM-Instanz aus einem öffentlichen Image mit einer Netzwerkschnittstelle erstellt, die mit dem zuvor erstellten VPC-Netzwerk verbunden ist.

  1. Erstellen und starten Sie eine VM-Instanz:

    gcloud compute instances create VM_NAME \
        --image-family=debian-11 \
        --image-project=debian-cloud \
        --machine-type=e2-micro \
        --network-interface network=projects/PROJECT_ID/global/networks/NETWORK_NAME

    Ersetzen Sie VM_NAME durch einen Namen für die VM.

  2. Wenn Sie aufgefordert werden, die Zone für die Instanz zu bestätigen, geben Sie y ein.

    Nachdem Sie die VM-Instanz erstellt haben, notieren Sie sich die INTERNAL_IP-Adresse, die zurückgegeben wird.

  3. Rufen Sie in der Google Cloud Console die Seite VM-Instanzen auf.

    Zur Seite „VM-Instanzen“

  4. Klicken Sie in der Spalte Name auf den Namen der entsprechenden VM-Instanz.

  5. Wenn die VM ausgeführt wird, klicken Sie auf Beenden, um sie zu beenden.

  6. Klicken Sie zum Bearbeiten der VM auf Bearbeiten.

  7. Wählen Sie im Bereich Netzwerk > Firewalls die Option HTTP-Traffic zulassen oder HTTPS-Traffic zulassen aus, um HTTP- oder HTTPS-Traffic an die VM zuzulassen.

    Klicken Sie für dieses Beispiel das Kästchen HTTP-Traffic zulassen an.

    Compute Engine fügt Ihrer VM ein Netzwerk-Tag hinzu, das die Firewallregel mit der VM verknüpft. Anschließend wird die entsprechende Firewallregel für eingehenden Traffic erstellt, die den gesamten eingehenden Traffic über tcp:80 (HTTP) oder tcp:443 (HTTPS) zulässt.

  8. Um die Änderungen zu speichern, klicken Sie auf Speichern.

  9. Klicken Sie auf Starten/Fortsetzen, um die VM neu zu starten.

Weitere Informationen finden Sie unter VM-Instanz erstellen und starten.

Anwendung auf der VM bereitstellen

Um die Netzwerkkonfiguration zu testen und zu bestätigen, dass der Traffic wie erwartet bereitgestellt wird, können Sie auf Ihrer VM eine einfache Anwendung bereitstellen, die einen Port überwacht.

Mit den folgenden Befehlen wird beispielsweise ein Node.js-Webdienst erstellt, der Port 3000 überwacht.

  1. Stellen Sie eine SSH-Verbindung zu Ihrer VM-Instanz her.

  2. Aktualisieren Sie die Paket-Repositorys:

    sudo apt update
  3. Installieren Sie NVM, Node.js und npm.

    Weitere Informationen finden Sie unter Node.js-Entwicklungsumgebung einrichten.

  4. Erstellen Sie interaktiv eine package.json-Datei:

    npm init

    Beispiel:

    {
    "name": "test",
    "version": "1.0.0",
    "description": "",
    "main": "index.js",
    "scripts": {
    "test": "hello"
    },
    "author": "",
    "license": "ISC"
    }
  5. Installieren Sie Express, ein Webanwendungs-Framework für Node.js:

    npm install express
  6. Schreiben Sie den Code für die Test-App:

    vim app.js

    Im folgenden Beispiel wird eine Anwendung erstellt, die auf GET-Anfragen an den Stammpfad (/) mit dem Text „Hello, world!“ antwortet.

    const express = require('express');
    const app = express();
    
    app.get('/', (req, res) => {
      res.status(200).send('Hello, world!').end();
    });
    
    app.listen(3000, () => {
      console.log('Sample app listening on port 3000.');
    });

    Notieren Sie sich den Port, den die App überwacht. Wenn Sie den Endpunkt für den Service Directory-Dienst konfigurieren, muss dieselbe Portnummer verwendet werden.

  7. Prüfen Sie, ob die App Port 3000 überwacht:

    node app.js

Compute Engine bietet eine Reihe von Bereitstellungsoptionen. Weitere Informationen finden Sie unter Compute Engine-Bereitstellungsstrategie für Arbeitslast auswählen.

Service Directory konfigurieren

Damit das Aufrufen eines privaten Endpunkts über eine Workflowausführung unterstützt wird, müssen Sie einen Service Directory-Namespace einrichten, einen Dienst im Namespace registrieren und dem Dienst einen Endpunkt hinzufügen.

Mit den folgenden Befehlen erstellen Sie beispielsweise einen Namespace, einen Dienst und einen Endpunkt, der das VPC-Netzwerk und die interne IP-Adresse Ihrer VM-Instanz angibt.

  1. Erstellen Sie einen Namespace:

    gcloud service-directory namespaces create NAMESPACE \
        --location=REGION
    

    Ersetzen Sie Folgendes:

    • NAMESPACE: die ID des Namespace oder die vollständig qualifizierte Kennung für den Namespace.
    • REGION: Die Google Cloud-Region, die den Namespace enthält, z. B. us-central1.
  2. Dienst erstellen:

    gcloud service-directory services create SERVICE \
        --namespace=NAMESPACE \
        --location=REGION
    

    Ersetzen Sie SERVICE durch den Namen des Dienstes, den Sie erstellen.

  3. Konfigurieren Sie einen Endpunkt.

    gcloud service-directory endpoints create ENDPOINT \
        --namespace=NAMESPACE \
        --service=SERVICE \
        --network=projects/PROJECT_NUMBER/locations/global/networks/NETWORK_NAME \
        --port=PORT_NUMBER \
        --address=IP_ADDRESS \
        --location=REGION
    

    Ersetzen Sie Folgendes:

    • ENDPOINT: der Name des Endpunkts, den Sie erstellen.
    • PORT_NUMBER: der Port, auf dem der Endpunkt ausgeführt wird, z. B. 3000.
    • IP_ADDRESS: die IPv6- oder IPv4-Adresse des Endpunkts. Dies ist die interne IP-Adresse, die Sie zuvor notiert haben.

Weitere Informationen finden Sie unter Service Directory konfigurieren und Privaten Netzwerkzugriff konfigurieren.

Workflow erstellen und bereitstellen

Das Aufrufen oder Aufrufen eines privaten Endpunkts aus Workflows erfolgt über eine HTTP-Anfrage. Die gängigsten HTTP-Anfragemethoden haben eine Aufrufverknüpfung (z. B. http.get und http.post). Sie können jedoch jede Art von HTTP-Anfrage senden, indem Sie das Feld call auf http.request setzen und den Anfragetyp im Feld method angeben. Weitere Informationen finden Sie unter HTTP-Anfrage stellen.

  1. Erstellen Sie eine Quellcodedatei für Ihren Workflow:

    touch call-private-endpoint.JSON_OR_YAML
    

    Ersetzen Sie JSON_OR_YAML je nach Format Ihres Workflows durch yaml oder json.

  2. Kopieren Sie in einem Texteditor den folgenden Workflow (in diesem Fall ein HTTP-Protokoll für den Wert url) in Ihre Quellcodedatei:

    YAML

    main:
      steps:
        - checkHttp:
            call: http.get
            args:
              url: http://IP_ADDRESS
              private_service_name: "projects/PROJECT_ID/locations/REGION/namespaces/NAMESPACE/services/SERVICE"
            result: res
        - ret:
            return: ${res}

    JSON

    {
      "main": {
        "steps": [
          {
            "checkHttp": {
              "call": "http.get",
              "args": {
                "url": "http://IP_ADDRESS",
                "private_service_name": "projects/PROJECT_ID/locations/REGION/namespaces/NAMESPACE/services/SERVICE"
              },
              "result": "res"
            }
          },
          {
            "ret": {
              "return": "${res}"
            }
          }
        ]
      }
    }

    Der Wert private_service_name muss ein String sein, der einen registrierten Service Directory-Dienstnamen im folgenden Format angibt:

    projects/PROJECT_ID/locations/LOCATION/namespaces/NAMESPACE_NAME/services/SERVICE_NAME

  3. Stellen Sie den Workflow bereit. Zu Testzwecken können Sie das Compute Engine-Standarddienstkonto an den Workflow anhängen, um seine Identität darzustellen:

    gcloud workflows deploy call-private-endpoint \
        --source=call-private-endpoint.JSON_OR_YAML \
        --location=REGION \
        --service-account=PROJECT_NUMBER-compute@developer.gserviceaccount.com
    
  4. Führen Sie den Workflow aus:

    gcloud workflows run call-private-endpoint \
        --location=REGION

    Das Ergebnis sollte in etwa so aussehen:

    argument: 'null'
    duration: 0.650784403s
    endTime: '2023-06-09T18:19:52.570690079Z'
    name: projects/968807934019/locations/us-central1/workflows/call-private-endpoint/executions/4aac88d3-0b54-419b-b364-b6eb973cc932
    result: '{"body":"Hello, world!","code":200,"headers":{"Connection":"keep-alive","Content-Length":"21","Content-Type":"text/html;
    charset=utf-8","Date":"Fri, 09 Jun 2023 18:19:52 GMT","Etag":"W/\"15-NFaeBgdti+9S7zm5kAdSuGJQm6Q\"","Keep-Alive":"timeout=5","X-Powered-By":"Express"}}'
    startTime: '2023-06-09T18:19:51.919905676Z'
    state: SUCCEEDED
    

Nächste Schritte