Schritt 1: Cluster erstellen

In diesem Schritt wird erläutert, wie Sie den Cluster erstellen, in dem Sie Apigee Hybrid ausführen. Die Anleitungen variieren je nach Plattform, auf der Sie Hybrid ausführen. Bevor Sie beginnen, sollten Sie die folgenden Informationen lesen:

Cluster erstellen

Gehen Sie entsprechend der Anleitung für Ihre ausgewählte Plattform vor.

GKE

Cluster in GKE erstellen

In diesen Schritten wird erläutert, wie Sie einen GKE-Cluster in Ihrem Google Cloud-Projekt konfigurieren und erstellen.

Apigee empfiehlt, einen regionalen Cluster statt eines zonalen Clusters zu erstellen. Wenn Sie mit der Unterscheidung zwischen Regionen und Zonen nicht vertraut sind, finden Sie weitere Informationen unter Regionen und Zonen. Die verfügbaren Regionen sind unter Verfügbare Regionen und Zonen aufgeführt. Beachten Sie beispielsweise, dass us-west1 ein gültiger Regionsname ist, während us-west1-a eine Zone in der Region ist.

  1. Prüfen Sie, ob Sie eine Version von GKE verwenden, die für die Hybrid-Version 1.13.0. unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. (Nur private GKE-Cluster) Wenn Sie einen privaten Cluster in GKE erstellen, fügen Sie eine Firewallregel hinzu, um Port 9443 für die Kommunikation zwischen GKE-Masterknoten und GKE-Worker-Knoten zuzulassen und den GKE-Mastern den Zugriff auf mutierende Apigee Webhooks zu ermöglichen. Folgen Sie der Anleitung unter Firewallregeln für bestimmte Anwendungsfälle hinzufügen in der Google Kubernetes Engine-Dokumentation. Weitere Informationen finden Sie unter Private Cluster in GKE.

    Sie müssen diese Regel nicht hinzufügen, wenn Sie einen Standard- oder einen öffentlichen Cluster erstellen.

  4. Erstellen Sie einen Standardcluster. Folgen Sie dazu der Anleitung unter Regionalen Cluster mit einem Mehrzonenknotenpool erstellen. Es ist in Ordnung, den Cluster nur mit dem Standardknotenpool zu erstellen. Im nächsten Schritt konfigurieren und erstellen Sie die erforderlichen Apigee Hybrid-Knotenpools.

    Fahren Sie erst mit dem nächsten Schritt fort, wenn die Clustererstellung erfolgreich abgeschlossen wurde.

  5. Erstellen Sie zwei Knotenpools. Folgen Sie dazu der Anleitung unter Knotenpools hinzufügen und verwalten. Achten Sie darauf, die Knotenpools mit den in der folgenden Tabelle aufgeführten Mindestanforderungen zu konfigurieren.

    Mindestanforderungen für Knotenpools

    Achten Sie darauf, diese Mindestanforderungen beim Erstellen der Knotenpools zu erfüllen. Wählen Sie je nach der Apigee Hybrid-Installation, die Sie erstellen, den Wert Produktion oder Nicht-Produktion aus. Nicht-Produktionsinstallationen eignen sich zum Testen und Demonstrieren, aber nicht für den Produktionstraffic. Wenn Sie die Cloud Console verwenden, müssen Sie sowohl die Abschnitte Knotenpooldetails als auch die Knoten konfigurieren.

    Knotenpoolname Beschreibung Minimale Knotenanzahl Produktion
    Mindestmaschinentyp
    Nicht-Produktion
    Mindestmaschinentyp
    apigee-data Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. 1 pro Zone
    (3 pro Region)
    e2-standard-8
    (8vCPU, 32 GB Arbeitsspeicher)
    e2-standard-4
    (4 vCPUs, 16 GB Arbeitsspeicher)
    apigee-runtime Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird. 1 pro Zone
    (3 pro Region)
    e2-standard-8
    (8vCPU, 32 GB Arbeitsspeicher)
    e2-standard-4
    (4 vCPUs, 16 GB Arbeitsspeicher)

    Weitere Informationen zur Konfiguration von Knotenpools finden Sie unter Dedizierte Knotenpools konfigurieren.

  6. (Optional) Sie können den Knotenpool default bei Bedarf löschen. Siehe Knotenpool löschen.
  7. Erstellen Sie die folgenden Umgebungsvariablen, falls noch nicht geschehen. Diese Variablen werden in den folgenden gcloud-Befehlen verwendet.

    Linux / MacOS

    export CLUSTER_NAME="YOUR_CLUSTER_NAME"
    export CLUSTER_LOCATION="YOUR_CLUSTER_LOCATION"
    export PROJECT_ID="YOUR_PROJECT_ID"

    Windows

    set CLUSTER_NAME="YOUR_CLUSTER_NAME"
    set CLUSTER_LOCATION=YOUR_CLUSTER_LOCATION
    set PROJECT_ID=YOUR_PROJECT_ID

    Wobei:

    • CLUSTER_NAME: Der Name Ihres Clusters.
    • CLUSTER_LOCATION: Region, in der Sie den Cluster erstellt haben.
    • PROJECT_ID: Ihre Google Cloud-Projekt-ID.
  8. Prüfen Sie die Knotenpoolkonfigurationen:

    Regionale Cluster

    gcloud container node-pools list \
    --cluster=${CLUSTER_NAME} \
    --region=${CLUSTER_LOCATION} \
    --project=${PROJECT_ID}

    Zonale Cluster

    gcloud container node-pools list \
    --cluster=${CLUSTER_NAME} \
    --zone=${CLUSTER_LOCATION} \
    --project=${PROJECT_ID}
  9. Ihr Cluster muss als Standardcluster für kubectl eingestellt sein. Rufen Sie dazu die

    gcloud-Anmeldeinformationen des Clusters ab, den Sie gerade erstellt haben:

    Regionale Cluster

      gcloud container clusters get-credentials ${CLUSTER_NAME} \
        --region ${CLUSTER_LOCATION} \
        --project ${PROJECT_ID}

    Zonale Cluster

      gcloud container clusters get-credentials ${CLUSTER_NAME} \
        --zone ${CLUSTER_LOCATION} \
        --project ${PROJECT_ID}

    Weitere Informationen finden Sie unter Standardcluster für kubectl-Befehle festlegen.

  10. Konfigurieren Sie den nichtflüchtigen SSD-Speicher (Solid State Disk) für Cassandra. Die Verwendung lokaler SSDs wird nicht unterstützt. Weitere Informationen finden Sie in der Kubernetes-Dokumentation unter Standardspeicherklasse ändern.

    1. Rufen Sie den Namen der aktuellen Standard-StorageClass ab:
      kubectl get sc

      Beispiel:

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
    2. Beschreiben Sie die StorageClass mit dem Namen standard-rwo. Der Typ lautet pd-balanced:
      kubectl describe sc standard-rwo

      Beispiel:

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
        IsDefaultClass:        Yes
        Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
        Provisioner:           pd.csi.storage.gke.io
        Parameters:            type=pd-balanced
        AllowVolumeExpansion:  True
        MountOptions:          <none>
        ReclaimPolicy:         Delete
        VolumeBindingMode:     WaitForFirstConsumer
        Events:                <none>
    3. Erstellen Sie eine neue Datei mit dem Namen storageclass.yaml:
    4. Fügen Sie diesen Code in die Datei ein. Beachten Sie, dass der Name der neuen Speicher-Klasse apigee-sc ist. Sie können einen beliebigen Namen verwenden. Beachten Sie auch, dass der Speichertyp pd-ssd ist:
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
    5. Wenden Sie die neue StorageClass auf Ihren Kubernetes-Cluster an:
      kubectl apply -f storageclass.yaml
    6. Führen Sie die folgenden beiden Befehle aus, um die Standard-StorageClass zu ändern:
      kubectl patch storageclass standard-rwo \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. Führen Sie den folgenden Befehl aus, um zu prüfen, ob die neue Standard-StorageClass apigee-sc heißt:
      kubectl get sc

      Beispiel:

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
  11. Workload Identity für den Cluster aktivieren. Workload Identity ermöglicht Arbeitslasten in Ihren GKE-Clustern, die Identität von Identity and Access Management (IAM)-Dienstkonten für den Zugriff auf Google Cloud-Dienste anzunehmen. Dieser Vorgang kann bis zu 30 Minuten dauern:

    Regionale Cluster

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --project ${PROJECT_ID} \
      --region ${CLUSTER_LOCATION}

    Zonale Cluster

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID}
  12. Prüfen Sie mit dem folgenden Befehl, ob Workload Identity erfolgreich aktiviert wurde:

    Regionale Cluster

    gcloud container clusters describe ${CLUSTER_NAME} \
      --project ${PROJECT_ID} \
      --region ${CLUSTER_LOCATION} | grep -i "workload"

    Zonale Cluster

    gcloud container clusters describe ${CLUSTER_NAME} \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID} | grep -i "workload"

Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

Google Distributed Cloud auf VMware

Cluster auf VMware erstellen

In diesen Schritten wird erläutert, wie Sie einen GKE-Cluster für Apigee Hybrid als Teil einer reinen Software-Bereitstellung von Google Distributed Cloud auf VMware konfigurieren und erstellen.

  1. Prüfen Sie, ob Sie eine Version von Google Distributed Cloud verwenden, die für die Hybrid-Version 1.13.0 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Erstellen Sie den Cluster. Folgen Sie dazu der Anleitung unter Einfache Cluster erstellen. Es ist in Ordnung, den Cluster nur mit dem Standardknotenpool zu erstellen. Im nächsten Schritt konfigurieren und erstellen Sie die erforderlichen Apigee Hybrid-Knotenpools.

    Fahren Sie erst mit dem nächsten Schritt fort, wenn die Clustererstellung erfolgreich abgeschlossen wurde.

  4. Erstellen Sie zwei Knotenpools. Folgen Sie dazu der Anleitung unter Knotenpools erstellen und verwalten. Konfigurieren Sie die Knotenpools mit den in der folgenden Tabelle aufgeführten Mindestanforderungen.

    Mindestanforderungen für Knotenpools

    Achten Sie darauf, diese Mindestanforderungen beim Erstellen der Knotenpools zu erfüllen. Wählen Sie je nach der Apigee Hybrid-Installation, die Sie erstellen, die Werte Produktion oder Nicht-Produktion aus. Nicht-Produktionsinstallationen eignen sich zum Testen und Demonstrieren, aber nicht für den Produktionstraffic.

    Knotenpoolname Beschreibung Minimale Knotenanzahl Produktion
    Mindestmaschinentyp
    Nicht-Produktion
    Mindestmaschinentyp
    apigee-data Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. 1 pro Zone
    (3 pro Region)
    e2-standard-8
    (8 vCPU, 16 GB Arbeitsspeicher)
    e2-standard-4
    (4 vCPUs, 16 GB Arbeitsspeicher)
    apigee-runtime Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird. 1 pro Zone
    (3 pro Region)
    e2-standard-8
    (8 vCPU, 16 GB Arbeitsspeicher)
    e2-standard-4
    (4 vCPUs, 16 GB Arbeitsspeicher)

    Weitere Informationen zur Konfiguration von Knotenpools finden Sie unter Dedizierte Knotenpools konfigurieren.

  5. (Optional) Sie können den Knotenpool default bei Bedarf löschen. Siehe Knotenpool löschen.
  6. Konfigurieren Sie den nichtflüchtigen SSD-Speicher (Solid State Disk) für Cassandra. Die Verwendung lokaler SSDs wird nicht unterstützt. Weitere Informationen finden Sie in der Kubernetes-Dokumentation unter Standardspeicherklasse ändern.

    1. Rufen Sie den Namen der aktuellen Standard-StorageClass ab:
      kubectl get sc

      Beispiel:

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
    2. Beschreiben Sie die StorageClass mit dem Namen standard-rwo. Der Typ lautet pd-balanced:
      kubectl describe sc standard-rwo

      Beispiel:

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
      IsDefaultClass:        Yes
      Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
      Provisioner:           pd.csi.storage.gke.io
      Parameters:            type=pd-balanced
      AllowVolumeExpansion:  True
      MountOptions:          <none>
      ReclaimPolicy:         Delete
      VolumeBindingMode:     WaitForFirstConsumer
      Events:                <none>
    3. Erstellen Sie eine neue Datei mit dem Namen storageclass.yaml:
    4. Fügen Sie diesen Code in die Datei ein. Beachten Sie, dass der Name der neuen Speicher-Klasse apigee-sc ist. Sie können einen beliebigen Namen verwenden. Beachten Sie auch, dass der Speichertyp pd-ssd ist:
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
    5. Wenden Sie die neue StorageClass auf Ihren Kubernetes-Cluster an:
      kubectl apply -f storageclass.yaml
    6. Führen Sie die folgenden beiden Befehle aus, um die Standard-StorageClass zu ändern:
      kubectl patch storageclass standard-rwo \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. Führen Sie den folgenden Befehl aus, um zu prüfen, ob die neue Standard-StorageClass apigee-sc heißt:
      kubectl get sc

      Beispiel:

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h

Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

Google Distributed Cloud in Bare-Metal

Cluster in Bare-Metal erstellen

In diesen Schritten wird erläutert, wie Sie einen GKE-Cluster für Apigee Hybrid als Teil einer reinen Softwarebereitstellung von Google Distributed Cloud auf Bare-Metal-Hardware konfigurieren und erstellen. Mit Google Distributed Cloud auf Bare-Metal können Sie Kubernetes-Cluster direkt auf Ihren eigenen Maschinenressourcen ausführen.

  1. Prüfen Sie, ob Sie eine Version von Google Distributed Cloud verwenden, die für die Hybrid-Version 1.13.0 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Lesen Sie die Übersicht über die Voraussetzungen für die Installation und die Erstellung von Clustern: Übersicht.
  4. Erstellen Sie den Cluster mit zwei Knotenpools, die wie unten beschrieben konfiguriert sind:
    • Folgen Sie der Anleitung zur Clustererstellung unter Einfache Cluster erstellen.
    • Erstellen Sie mindestens zwei Knotenpools: Konfigurieren Sie die Knotenpools mit den in der folgenden Tabelle aufgeführten Mindestanforderungen.

      Die Mindestkonfigurationen für einen Cluster sind:

      Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool
      Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird.
      Labelname apigee-data apigee-runtime
      Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region)
      CPU 8 (Prod)
      4 (Nicht-Produktion)
      8 (Prod)
      4 (Nicht-Produktion)
      RAM 32 (Prod)
      16 (Nicht-Produktion)
      32 (Prod)
      16 (Nicht-Produktion)
      Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD
      Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann.
      Netzwerkbandbreite für jeden Maschineninstanztyp 1 Gbit/s 1 Gbit/s

      Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.

Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

AKS

Cluster auf AKS erstellen

In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in AKS konfigurieren und erstellen.

  1. Prüfen Sie, ob Sie eine Version von AKS verwenden, die für die Hybrid-Version 1.13.0 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Erstellen Sie den Cluster entweder mit der Azure-Befehlszeile oder dem Azure-Portal und erstellen Sie zwei Knotenpools wie unten beschrieben.

    Die Mindestkonfigurationen für einen Cluster sind:

    Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool
    Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird.
    Labelname apigee-data apigee-runtime
    Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region)
    CPU 8 (Prod)
    4 (Nicht-Produktion)
    8 (Prod)
    4 (Nicht-Produktion)
    RAM 32 (Prod)
    16 (Nicht-Produktion)
    32 (Prod)
    16 (Nicht-Produktion)
    Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD
    Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann.
    Netzwerkbandbreite für jeden Maschineninstanztyp 1 Gbit/s 1 Gbit/s

    Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.

  4. Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

EKS

Cluster auf EKS erstellen

In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in EKS konfigurieren und erstellen.

  1. Prüfen Sie, ob Sie eine Version von EKS verwenden, die für die Hybrid-Version 1.13.0 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Wenn Sie die Kubernetes-Version 1.24 oder höher verwenden, prüfen Sie, ob Sie den Kubernetes CSI-Treiber für Amazon EBS installiert haben.
  4. Gehen Sie nach der folgenden Anleitung vor, um einen Nutzercluster zu erstellen und zwei Knotenpools zu erstellen, wie unten beschrieben.

    Die Mindestkonfigurationen für einen Cluster sind:

    Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool
    Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird.
    Labelname apigee-data apigee-runtime
    Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region)
    CPU 8 (Prod)
    4 (Nicht-Produktion)
    8 (Prod)
    4 (Nicht-Produktion)
    RAM 32 (Prod)
    16 (Nicht-Produktion)
    32 (Prod)
    16 (Nicht-Produktion)
    Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD
    Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann.
    Netzwerkbandbreite für jeden Maschineninstanztyp 1 Gbit/s 1 Gbit/s

    Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.

Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

GKE on AWS

Cluster in GKE in AWS erstellen

In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in GKE in AWS konfigurieren und erstellen.

  1. Prüfen Sie, ob Sie eine Version von GKE on AWS verwenden, die für die Hybrid-Version 1.13.0. unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Gehen Sie nach der folgenden Anleitung vor, um einen Nutzercluster zu erstellen und zwei Knotenpools zu erstellen, wie unten beschrieben.

    Die Mindestkonfigurationen für einen Cluster sind:

    Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool
    Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird.
    Labelname apigee-data apigee-runtime
    Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region)
    CPU 8 (Prod)
    4 (Nicht-Produktion)
    8 (Prod)
    4 (Nicht-Produktion)
    RAM 32 (Prod)
    16 (Nicht-Produktion)
    32 (Prod)
    16 (Nicht-Produktion)
    Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD
    Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann.
    Netzwerkbandbreite für jeden Maschineninstanztyp 1 Gbit/s 1 Gbit/s

    Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.

Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.

OpenShift

Cluster in OpenShift erstellen

In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in OpenShift konfigurieren und erstellen.

  1. Prüfen Sie, ob Sie eine Version von OpenShift verwenden, die für die Hybrid-Version 1.13.0 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
  2. Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
  3. Erstellen Sie den OpenShift-Cluster zur Bereitstellung auf der Laufzeitebene. Installieren Sie Apigee dann in Ihrem OpenShift-Nutzercluster und erstellen Sie zwei Knotenpools.

    Als Teil der OpenShift-Installation installieren und konfigurieren Sie das oc-Befehlszeilentool. Siehe Erste Schritte mit der OpenShift-Befehlszeile in der OpenShift-Dokumentation.

    Die Mindestkonfigurationen für einen Cluster sind:

    Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool
    Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird.
    Labelname apigee-data apigee-runtime
    Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region)
    CPU 8 (Prod)
    4 (Nicht-Produktion)
    8 (Prod)
    4 (Nicht-Produktion)
    RAM 32 (Prod)
    16 (Nicht-Produktion)
    32 (Prod)
    16 (Nicht-Produktion)
    Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD
    Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann.
    Netzwerkbandbreite für jeden Maschineninstanztyp 1 Gbit/s 1 Gbit/s

    Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.

Wenn Sie einen Cluster installiert haben, fahren Sie mit dem nächsten Schritt fort.

 

Nächster Schritt

1 (ALS NÄCHSTES) Schritt 2: Helm-Diagramme herunterladen 3 4 5 6 7 8 9 10 11 12