Knative Serving einrichten

Hier erfahren Sie, wie Sie Ihre Installation von Knative Serving einrichten und konfigurieren.

Hinweise

Sie müssen Knative Serving auf Ihrem GKE-Cluster installiert haben. Weitere Informationen zu den Voraussetzungen für GKE-Cluster und zur Installation von Knative Serving finden Sie in der Installationsanleitung.

Authentifizierung mit Workload Identity Federation for GKE einrichten

Sie können Workload Identity-Föderation for GKE verwenden, um Ihre Knative Serving-Dienste bei Google Cloud APIs und -Diensten zu authentifizieren. Sie müssen die Workload Identity Federation for GKE einrichten, bevor Sie Dienste in Ihrem Cluster bereitstellen, da sonst jeder Dienst, der vor der Aktivierung der Workload Identity Federation for GKE in Ihrem Cluster vorhanden ist, migriert werden muss. Weitere Informationen zur Verwendung der Identitätsföderation von Arbeitslasten für GKE.

Messwerte mit der Identitätsföderation von Arbeitslasten für GKE aktivieren

Wenn Sie Messwerte wie die Anzahl der Berichtsanfragen oder die Anfragelatenz für Google Cloud Observability aktivieren möchten, müssen Sie Schreibberechtigungen für Cloud Monitoring manuell festlegen. Weitere Informationen finden Sie unter Messwerte mit Workload Identity-Föderation für GKE aktivieren.

HTTPS und benutzerdefinierte Domains konfigurieren

Informationen zum Aktivieren von HTTPS und zum Festlegen einer benutzerdefinierten Domain finden Sie auf den folgenden Seiten:

Cloud Service Mesh einrichten

Informationen zum Konfigurieren von Cloud Service Mesh-Optionen für Knative serving finden Sie unter Optionen für die clusterinterne Steuerungsebene, einschließlich Anleitungen fürPrivates internes Netzwerk einrichten.

Privates internes Netzwerk einrichten

Die Bereitstellung von Diensten in einem internen Netzwerk ist nützlich für Unternehmen, die ihren Mitarbeitern interne Anwendungen zur Verfügung stellen, und für Dienste, die von Clients verwendet werden, die außerhalb des Knative-Serving-Clusters ausgeführt werden. Mit dieser Konfiguration können andere Ressourcen in Ihrem Netzwerk über eine private, interne IP-Adresse (RFC 1918), die nicht öffentlich zugänglich ist, mit dem Dienst kommunizieren.

Um Ihr internes Netzwerk erstellen, konfigurieren Sie Cloud Service Mesh so, dass internes TCP/UDP-Load-Balancing anstelle eines öffentlichen, externen Netzwerk-Load-Balancers verwendet wird. Anschließend können Sie Ihre Knative Serving-Dienste an einer internen IP-Adresse in Ihrem VPC-Netzwerk bereitstellen.

Hinweise

So richten Sie den internen Load-Balancer ein:

  1. Aktivieren Sie das Feature des internen Load-Balancers in Cloud Service Mesh.

    Der interne Load-Balancer ist ein optionales Feature, das Sie bei der Installation von Cloud Service Mesh oder durch Aktualisierung Ihrer vorhandenen Installation konfigurieren können.

    Führen Sie die Schritte unter Optionale Features auf der Steuerungsebene im Cluster aktivieren aus und fügen Sie die Skriptoption --option internal-load-balancer ein.

    Wenn Sie die Option --option internal-load-balancer angeben, ruft das Skript automatisch die benutzerdefinierte Ressource Internen Load-Balancer aktivieren von GitHub ab. Wenn Sie die benutzerdefinierte Ressource ändern möchten, folgen Sie stattdessen der Anleitung zur Verwendung der Option --custom_overlay.

  2. Führen Sie den folgenden Befehl aus, um Updates für Ihren GKE-Cluster zu beobachten:

    kubectl -n INGRESS_NAMESPACE get svc istio-ingressgateway --watch

    Ersetzen Sie INGRESS_NAMESPACE durch den Namespace Ihres Cloud Service Mesh-Ingress-Dienstes. Geben Sie istio-system an, wenn Sie Cloud Service Mesh mit der Standardkonfiguration installiert haben.

    1. Beachten Sie die Annotation cloud.google.com/load-balancer-type: Internal.
    2. Warten Sie, bis der Wert von IP im Ingress-Load-Balancer zu einer privaten IP-Adresse wechselt.
    3. Drücken Sie Ctrl+C, um die Updates zu beenden, sobald im Feld IP eine private IP-Adresse angezeigt wird.
  3. Für private Cluster in Google Cloud müssen Sie Ports öffnen. Weitere Informationen finden Sie in der Cloud Service Mesh-Dokumentation unter Ports auf einem privaten Cluster öffnen.

So prüfen Sie die interne Verbindung nach Ihren Änderungen:

  1. Stellen Sie einen Dienst mit dem Namen sample für Knative Serving im Namespace default bereit:

    gcloud run deploy sample \
    --image gcr.io/knative-samples/helloworld \
    --namespace default
    --platform gke
    
  2. Erstellen Sie eine Compute Engine-VM in derselben Zone, in der sich der GKE-Cluster befindet:

    VM=cloudrun-gke-ilb-tutorial-vm
    
    gcloud compute instances create $VM
    
  3. Speichern Sie die private IP-Adresse des Istio-Ingress-Gateways in einer Umgebungsvariablen namens EXTERNAL_IP und einer Datei namens external-ip.txt:

    export EXTERNAL_IP=$(kubectl -n INGRESS_NAMESPACE get svc istio-ingressgateway \
        -o jsonpath='{.status.loadBalancer.ingress[0].ip}' | tee external-ip.txt)

    Ersetzen Sie INGRESS_NAMESPACE durch den Namespace Ihres Cloud Service Mesh-Ingress-Dienstes. Geben Sie istio-system an, wenn Sie Cloud Service Mesh mit der Standardkonfiguration installiert haben.

  4. Kopieren Sie die Datei mit der IP-Adresse in die VM:

    gcloud compute scp external-ip.txt $VM:~
    
  5. Stellen Sie eine SSH-Verbindung zur VM her:

    gcloud compute ssh $VM
    
  6. Testen Sie in der SSH-Sitzung den Beispieldienst:

    curl -s -w'\n' -H Host:sample.default.nip.io $(cat external-ip.txt)
    

    Die Ausgabe sieht so aus:

    Hello World!
    
  7. Verlassen Sie die SSH-Sitzung:

    exit
    

Mehrmandantenfähige Umgebung einrichten

In mehrmandantenfähigen Anwendungsfällen müssen Sie Knative Serving-Dienste in einem Google Kubernetes Engine-Cluster verwalten und bereitstellen, der sich außerhalb Ihres aktuellen Projekts befindet. Weitere Informationen zur GKE-Mehrmandantenfähigkeit finden Sie unter Cluster-Mehrmandantenfähigkeit.

Informationen zur Konfiguration der Mandantenfähigkeit für Knative Serving finden Sie unter Projektübergreifende Mandantenfähigkeit.

Nächste Schritte