Schritt 1: Cluster erstellen

In diesem Schritt wird erläutert, wie Sie den Cluster erstellen, in dem Sie Apigee Hybrid ausführen. Die Anleitungen variieren je nach Plattform, auf der Sie Hybrid ausführen.

Dedizierte und freigegebene Cluster im Vergleich

Sie können einen neuen, dedizierten Cluster für Apigee Hybrid erstellen, wie in diesem Schritt erläutert, oder Sie können ihn in einem Cluster installieren, in dem andere Arbeitslasten ausgeführt werden.

  • Dedizierter Cluster: (Empfohlen) Das Erstellen eines dedizierten Clusters für Apigee Hybrid fügt Isolation hinzu und vereinfacht den Gesamtaufwand für die Wartung des Clusters und seiner Apigee Hybridarbeitslasten.
  • Freigegebener Cluster: Wenn Sie Apigee Hybrid in einem Cluster mit anderen Arbeitslasten installieren, müssen Sie Ihren Cluster auf die Versionen und Features aktualisieren, die gemeinsam für Apigee Hybrid und für Ihre anderen Arbeitslasten erforderlich sind, und diese auch warten. Möglicherweise möchten Sie einen Plan entwickeln, bei dem eine oder mehrere Arbeitslasten migriert werden, wenn Konflikte zwischen unterstützten Versionen und Anforderungen auftreten.

Es wird empfohlen, einen dedizierten Cluster zu verwenden. Die Konfiguration eines freigegebenen Clusters ist ein erweiterter Anwendungsfall und wird in den Installationsschritten nicht weiter erläutert.

Cluster erstellen

Gehen Sie entsprechend der Anleitung für Ihre ausgewählte Plattform vor.

GKE

Cluster in GKE erstellen

In diesen Schritten wird erläutert, wie Sie einen GKE-Cluster in Ihrem Google Cloud-Projekt konfigurieren und erstellen.

Apigee empfiehlt, einen regionalen Cluster statt eines zonalen Clusters zu erstellen. Wenn Sie mit der Unterscheidung zwischen Regionen und Zonen nicht vertraut sind, finden Sie weitere Informationen unter Regionen und Zonen. Die verfügbaren Regionen sind unter Verfügbare Regionen und Zonen aufgeführt. Beachten Sie beispielsweise, dass us-west1 ein gültiger Regionsname ist, während us-west1-a eine Zone in der Region ist.

  1. Prüfen Sie, ob Sie eine Version von GKE verwenden, die für die Hybrid-Version 1.9.4 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. (Nur private GKE-Cluster) Wenn Sie einen privaten Cluster erstellen, fügen Sie eine Firewallregel hinzu, um Port 9443 für die Kommunikation zwischen GKE-Masterknoten und GKE-Worker-Knoten zuzulassen und den GKE-Mastern den Zugriff auf mutierende Apigee Webhooks zu ermöglichen. Folgen Sie der Anleitung unter Firewallregeln für bestimmte Anwendungsfälle hinzufügen in der Google Kubernetes Engine-Dokumentation. Weitere Informationen finden Sie unter Private Cluster in GKE.

    Sie müssen diese Regel nicht hinzufügen, wenn Sie einen Standard- oder einen öffentlichen Cluster erstellen.

  4. Erstellen Sie den Cluster. Folgen Sie dazu der Anleitung unter Regionalen Cluster mit einem Mehrzonenknotenpool erstellen. Es ist in Ordnung, den Cluster nur mit dem Standardknotenpool zu erstellen. Im nächsten Schritt konfigurieren und erstellen Sie die erforderlichen Apigee Hybrid-Knotenpools.

    Fahren Sie erst mit dem nächsten Schritt fort, wenn die Clustererstellung erfolgreich abgeschlossen wurde.

  5. Erstellen Sie zwei Knotenpools. Folgen Sie dazu der Anleitung unter Knotenpools hinzufügen und verwalten. Achten Sie darauf, die Knotenpools mit den in der folgenden Tabelle aufgeführten Mindestanforderungen zu konfigurieren.

    Mindestanforderungen für Knotenpools

    Achten Sie darauf, diese Mindestanforderungen beim Erstellen der Knotenpools zu erfüllen. Wenn Sie die Cloud Console verwenden, müssen Sie sowohl die Abschnitte Knotenpooldetails als auch die Knoten konfigurieren.

    Knotenpoolname Beschreibung Minimale Knotenanzahl Mindestmaschinentyp
    apigee-data Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. 1 pro Zone
    (3 pro Region)
    e2-standard-4
    (4 vCPUs, 16 GB Arbeitsspeicher)
    apigee-runtime Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird. 1 pro Zone
    (3 pro Region)
    e2-standard-4
    (4 vCPUs, 16 GB Arbeitsspeicher)

    Weitere Informationen zur Konfiguration von Knotenpools finden Sie unter Dedizierte Knotenpools konfigurieren.

  6. (Optional) Sie können den Knotenpool default bei Bedarf löschen. Siehe Knotenpool löschen.
  7. Achten Sie darauf, dass Ihr Cluster als Standardcluster für kubectl festgelegt ist. Weitere Informationen finden Sie unter Standardcluster für Befehle von kubectl festlegen.
  8. Konfigurieren Sie den nichtflüchtigen SSD-Speicher (Solid State Disk) für Cassandra. Die Verwendung lokaler SSDs wird nicht unterstützt. Weitere Informationen finden Sie in der Kubernetes-Dokumentation unter Standardspeicherklasse ändern.

    1. Rufen Sie den Namen der aktuellen Standard-StorageClass ab:
      kubectl get sc

      Beispiel:

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
    2. Beschreiben Sie die StorageClass mit dem Namen standard-rwo. Der Typ lautet pd-balanced:
      kubectl describe sc standard-rwo

      Beispiel:

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
        IsDefaultClass:        Yes
        Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
        Provisioner:           pd.csi.storage.gke.io
        Parameters:            type=pd-balanced
        AllowVolumeExpansion:  True
        MountOptions:          <none>
        ReclaimPolicy:         Delete
        VolumeBindingMode:     WaitForFirstConsumer
        Events:                <none>
    3. Erstellen Sie eine neue Datei mit dem Namen storageclass.yaml:
    4. Fügen Sie diesen Code in die Datei ein. Beachten Sie, dass der Name der neuen Klasse apigee-sc ist. Sie können einen beliebigen Namen verwenden. Beachten Sie auch, dass der Speichertyp pd-ssd ist:
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
    5. Wenden Sie die neue StorageClass auf Ihren Kubernetes-Cluster an:
      kubectl apply -f storageclass.yaml
    6. Führen Sie die folgenden beiden Befehle aus, um die Standard-StorageClass zu ändern:
      kubectl patch storageclass standard-rwo \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. Führen Sie den folgenden Befehl aus, um zu prüfen, ob die neue Standard-StorageClass apigee-sc heißt:
      kubectl get sc

      Beispiel:

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
  9. Erstellen Sie die folgenden Umgebungsvariablen. Diese Variablen werden in den folgenden gcloud-Befehlen verwendet.

    Linux / MacOS

    export CLUSTER_NAME="YOUR_CLUSTER_NAME"
    export CLUSTER_LOCATION="YOUR_CLUSTER_LOCATION"

    Windows

    set CLUSTER_NAME="YOUR_CLUSTER_NAME"
    set CLUSTER_LOCATION=YOUR_CLUSTER_LOCATION
    set PROJECT_ID=YOUR_PROJECT_ID

    Wobei:

    • CLUSTER_NAME: Der Name Ihres Clusters.
    • CLUSTER_LOCATION: Region, in der Sie den Cluster erstellt haben.
  10. Prüfen Sie die Knotenpoolkonfigurationen:

    Regionale Cluster

    gcloud container node-pools list \
      --cluster=${CLUSTER_NAME} \
      --region=${CLUSTER_LOCATION} \
      --project=${PROJECT_ID}

    Zonale Cluster

    gcloud container node-pools list \
      --cluster=${CLUSTER_NAME} \
      --zone=${CLUSTER_LOCATION} \
      --project=${PROJECT_ID}
  11. Workload Identity auf dem Cluster aktivieren. Dieser Vorgang kann bis zu 30 Minuten dauern:

    Regionale Cluster

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --project ${PROJECT_ID} \
      --region ${CLUSTER_LOCATION}

    Zonale Cluster

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID}

    Weitere Informationen finden Sie unter Workload Identity aktivieren.

  12. Rufen Sie mit dem folgenden Befehl die Anmeldedaten gcloud des soeben erstellten Clusters ab:

    Regionale Cluster

    gcloud container clusters get-credentials ${CLUSTER_NAME} \
      --region ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID}

    Zonale Cluster

    gcloud container clusters get-credentials ${CLUSTER_NAME} \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID}
  13. Für Installationen in GKE bietet Apigee die Möglichkeit, mit Workload Identity eine Verbindung zu Google Cloud-Diensten herzustellen, ohne Google-Dienstkonten mit lokal gespeicherten Zertifikaten zu verwenden. Weitere Informationen zur Arbeitslastidentität finden Sie unter Workload Identity mit Apigee Hybrid aktivieren.

    Optional: Aktivieren Sie Workload Identity für jeden Knotenpool mit den folgenden Befehlen. Dieser Vorgang kann pro Knotenpool bis zu 30 Minuten dauern:

    Regionale Cluster

    gcloud container node-pools update apigee-data \
      --cluster=$CLUSTER_NAME \
      --region $CLUSTER_LOCATION \
      --project $PROJECT_ID \
      --workload-metadata=GKE_METADATA
    gcloud container node-pools update apigee-runtime \
      --cluster=$CLUSTER_NAME \
      --region $CLUSTER_LOCATION \
      --project $PROJECT_ID \
      --workload-metadata=GKE_METADATA

    Zonale Cluster

    gcloud container node-pools update apigee-data \
      --cluster=$CLUSTER_NAME \
      --zone $CLUSTER_LOCATION \
      --project $PROJECT_ID \
      --workload-metadata=GKE_METADATA
    gcloud container node-pools update apigee-runtime \
      --cluster=$CLUSTER_NAME \
      --zone $CLUSTER_LOCATION \
      --project $PROJECT_ID \
      --workload-metadata=GKE_METADATA

Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

GKE On-Prem

Cluster in GKE On-Prem erstellen

In diesen Schritten wird erläutert, wie Sie einen GKE On-Prem-Cluster für Apigee Hybrid konfigurieren und erstellen.

  1. Prüfen Sie, ob Sie eine lokale Anthos-Version von Anthos verwenden, die für die Hybrid-Version 1.9.4 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Erstellen Sie den Cluster. Folgen Sie dazu der Anleitung unter Einfache Cluster erstellen. Es ist in Ordnung, den Cluster nur mit dem Standardknotenpool zu erstellen. Im nächsten Schritt konfigurieren und erstellen Sie die erforderlichen Apigee Hybrid-Knotenpools.

    Fahren Sie erst mit dem nächsten Schritt fort, wenn die Clustererstellung erfolgreich abgeschlossen wurde.

  4. Erstellen Sie zwei Knotenpools. Folgen Sie dazu der Anleitung unter Knotenpools erstellen und verwalten. Konfigurieren Sie die Knotenpools mit den in der folgenden Tabelle aufgeführten Mindestanforderungen.

    Mindestanforderungen für Knotenpools

    Achten Sie darauf, diese Mindestanforderungen beim Erstellen der Knotenpools zu erfüllen.

    Knotenpoolname Beschreibung Minimale Knotenanzahl Mindestmaschinentyp
    apigee-data Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. 1 pro Zone
    (3 pro Region)
    e2-standard-4
    (4 vCPUs, 16 GB Arbeitsspeicher)
    apigee-runtime Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird. 1 pro Zone
    (3 pro Region)
    e2-standard-4
    (4 vCPUs, 16 GB Arbeitsspeicher)

    Weitere Informationen zur Konfiguration von Knotenpools finden Sie unter Dedizierte Knotenpools konfigurieren.

  5. (Optional) Sie können den Knotenpool default bei Bedarf löschen. Siehe Knotenpool löschen.
  6. Konfigurieren Sie den nichtflüchtigen SSD-Speicher (Solid State Disk) für Cassandra. Die Verwendung lokaler SSDs wird nicht unterstützt. Weitere Informationen finden Sie in der Kubernetes-Dokumentation unter Standardspeicherklasse ändern.

    1. Rufen Sie den Namen der aktuellen Standard-StorageClass ab:
      kubectl get sc

      Beispiel:

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
    2. Beschreiben Sie die StorageClass mit dem Namen standard-rwo. Der Typ lautet pd-balanced:
      kubectl describe sc standard-rwo

      Beispiel:

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
      IsDefaultClass:        Yes
      Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
      Provisioner:           pd.csi.storage.gke.io
      Parameters:            type=pd-balanced
      AllowVolumeExpansion:  True
      MountOptions:          <none>
      ReclaimPolicy:         Delete
      VolumeBindingMode:     WaitForFirstConsumer
      Events:                <none>
    3. Erstellen Sie eine neue Datei mit dem Namen storageclass.yaml:
    4. Fügen Sie diesen Code in die Datei ein. Beachten Sie, dass der Name der neuen Klasse apigee-sc ist. Sie können einen beliebigen Namen verwenden. Beachten Sie auch, dass der Speichertyp pd-ssd ist:
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
    5. Wenden Sie die neue StorageClass auf Ihren Kubernetes-Cluster an:
      kubectl apply -f storageclass.yaml
    6. Führen Sie die folgenden beiden Befehle aus, um die Standard-StorageClass zu ändern:
      kubectl patch storageclass standard-rwo \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. Führen Sie den folgenden Befehl aus, um zu prüfen, ob die neue Standard-StorageClass apigee-sc heißt:
      kubectl get sc

      Beispiel:

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h

Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

Anthos on Bare Metal

Cluster in Anthos on Bare Metal erstellen

In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in Anthos auf Bare-Metal konfigurieren und erstellen. Mit Anthos auf Bare-Metal-Servern können Sie Kubernetes-Cluster direkt auf Ihren eigenen Maschinenressourcen ausführen.

  1. Prüfen Sie, ob Sie eine Version von Anthos on Bare Metal verwenden, die für die Hybrid-Version 1.9.4 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Lesen Sie die Übersicht über die Voraussetzungen für die Installation und die Erstellung von Clustern: Übersicht.
  4. Erstellen Sie den Cluster mit zwei Knotenpools, die wie unten beschrieben konfiguriert sind:
    • Folgen Sie der Anleitung zur Clustererstellung unter Anthos Clusters on Bare Metal-Kurzanleitung.
    • Erstellen Sie mindestens zwei Knotenpools: Konfigurieren Sie die Knotenpools mit den in der folgenden Tabelle aufgeführten Mindestanforderungen.

      Die Mindestkonfigurationen für einen Cluster sind:

      Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool
      Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird.
      Labelname apigee-data apigee-runtime
      Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region)
      CPU 4 4
      RAM 15 15
      Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD
      Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann.

      Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.

Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

AKS

Cluster auf AKS erstellen

In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in AKS konfigurieren und erstellen.

  1. Prüfen Sie, ob Sie eine Version von AKS verwenden, die für die Hybrid-Version 1.9.4 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Erstellen Sie den Cluster entweder mit der Azure-Befehlszeile oder dem Azure-Portal und erstellen Sie zwei Knotenpools wie unten beschrieben.

    Die Mindestkonfigurationen für einen Cluster sind:

    Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool
    Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird.
    Labelname apigee-data apigee-runtime
    Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region)
    CPU 4 4
    RAM 15 15
    Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD
    Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann.

    Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.

  4. Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

EKS

Cluster auf EKS erstellen

In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in EKS konfigurieren und erstellen.

  1. Prüfen Sie, ob Sie eine Version von EKS verwenden, die für die Hybrid-Version 1.9.4 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Wenn Sie die Kubernetes-Version 1.24 oder höher verwenden, prüfen Sie, ob Sie den Kubernetes CSI-Treiber für Amazon EBS installiert haben.
  4. Gehen Sie nach der folgenden Anleitung vor, um einen Nutzercluster zu erstellen und zwei Knotenpools zu erstellen, wie unten beschrieben.

    Die Mindestkonfigurationen für einen Cluster sind:

    Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool
    Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird.
    Labelname apigee-data apigee-runtime
    Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region)
    CPU 4 4
    RAM 15 15
    Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD
    Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann.

    Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.

Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

GKE on AWS

Cluster in GKE in AWS erstellen

In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in GKE in AWS konfigurieren und erstellen.

  1. Prüfen Sie, ob Sie eine Version von GKE verwenden, die für die Hybrid-Version 1.9.4 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Gehen Sie nach der folgenden Anleitung vor, um einen Nutzercluster zu erstellen und zwei Knotenpools zu erstellen, wie unten beschrieben.

    Die Mindestkonfigurationen für einen Cluster sind:

    Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool
    Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird.
    Labelname apigee-data apigee-runtime
    Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region)
    CPU 4 4
    RAM 15 15
    Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD
    Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann.

    Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.

Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

OpenShift

Cluster in OpenShift erstellen

In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in OpenShift konfigurieren und erstellen.

  1. Prüfen Sie, ob Sie eine Version von OpenShift verwenden, die für die Hybrid-Version 1.9.4 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Erstellen Sie den OpenShift-Cluster zur Bereitstellung auf der Laufzeitebene. Installieren Sie Apigee dann in Ihrem OpenShift-Nutzercluster und erstellen Sie zwei Knotenpools.

    Als Teil der OpenShift-Installation installieren und konfigurieren Sie das oc-Befehlszeilentool. Siehe Erste Schritte mit der OpenShift-Befehlszeile in der OpenShift-Dokumentation.

    Die Mindestkonfigurationen für einen Cluster sind:

    Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool
    Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird.
    Labelname apigee-data apigee-runtime
    Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region)
    CPU 4 4
    RAM 15 15
    Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD
    Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann.

    Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.

Wenn Sie einen Cluster installiert haben, fahren Sie mit dem nächsten Schritt fort.

 

1 (WEITER) Schritt 2: cert-manager installieren 3 4 5 6 7 8 9 10