In diesem Schritt wird erläutert, wie Sie den Cluster erstellen, in dem Sie Apigee Hybrid ausführen. Die Anleitungen variieren je nach Plattform, auf der Sie Hybrid ausführen. Bevor Sie beginnen, sollten Sie die folgenden Informationen lesen:
- Minimale Clusterkonfigurationen
- Dedizierte Knotenpools konfigurieren
- Cassandra für die Produktion konfigurieren
- Authentifizierung für Cassandra konfigurieren
- StorageClass-Konfiguration
- Verwendung von sicheren Ports
Cluster erstellen
Gehen Sie entsprechend der Anleitung für Ihre ausgewählte Plattform vor.
GKE
Cluster in GKE erstellen
In diesen Schritten wird erläutert, wie Sie einen GKE-Cluster in Ihrem Google Cloud-Projekt konfigurieren und erstellen.
Apigee empfiehlt, regionale Cluster statt zonaler Cluster zu erstellen. Wenn Sie mit der Unterscheidung zwischen Regionen und Zonen nicht vertraut sind, finden Sie weitere Informationen unter Regionen und Zonen.
Die verfügbaren Regionen sind unter Verfügbare Regionen und Zonen aufgeführt. Beachten Sie beispielsweise, dass us-west1
ein gültiger Regionsname ist, während us-west1-a
eine Zone in der Region ist.
- Prüfen Sie, ob Sie eine Version von GKE verwenden, die für die Hybrid-Version 1.11.2. unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
- Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
- (Nur private GKE-Cluster) Wenn Sie einen privaten Cluster in GKE erstellen, fügen Sie eine Firewallregel hinzu, um Port 9443 für die Kommunikation zwischen GKE-Masterknoten und GKE-Worker-Knoten zuzulassen und den GKE-Mastern den Zugriff auf mutierende Apigee Webhooks zu ermöglichen. Folgen Sie der Anleitung unter Firewallregeln für bestimmte Anwendungsfälle hinzufügen in der Google Kubernetes Engine-Dokumentation. Weitere Informationen finden Sie unter Private Cluster in GKE.
Sie müssen diese Regel nicht hinzufügen, wenn Sie einen Standard- oder einen öffentlichen Cluster erstellen.
- Erstellen Sie einen Standardcluster. Folgen Sie dazu der Anleitung unter Regionalen Cluster mit einem Mehrzonenknotenpool erstellen.
Es ist in Ordnung, den Cluster nur mit dem Standardknotenpool zu erstellen. Im nächsten Schritt konfigurieren und erstellen Sie die erforderlichen Apigee Hybrid-Knotenpools.
Fahren Sie erst mit dem nächsten Schritt fort, wenn die Clustererstellung erfolgreich abgeschlossen wurde.
- Erstellen Sie zwei Knotenpools. Folgen Sie dazu der Anleitung unter Knotenpools hinzufügen und verwalten. Achten Sie darauf, die Knotenpools mit den in der folgenden Tabelle aufgeführten Mindestanforderungen zu konfigurieren.
Mindestanforderungen für Knotenpools
Achten Sie darauf, diese Mindestanforderungen beim Erstellen der Knotenpools zu erfüllen. Wenn Sie die Cloud Console verwenden, müssen Sie sowohl die Abschnitte Knotenpooldetails als auch die Knoten konfigurieren.
Knotenpoolname Beschreibung Minimale Knotenanzahl Mindestmaschinentyp apigee-data
Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. 1 pro Zone
(3 pro Region)e2-standard-4
(4 vCPUs, 16 GB Arbeitsspeicher)apigee-runtime
Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird. 1 pro Zone
(3 pro Region)e2-standard-4
(4 vCPUs, 16 GB Arbeitsspeicher)Weitere Informationen zur Konfiguration von Knotenpools finden Sie unter Dedizierte Knotenpools konfigurieren.
- (Optional) Sie können den Knotenpool
default
bei Bedarf löschen. Siehe Knotenpool löschen. - Erstellen Sie die folgenden Umgebungsvariablen, falls noch nicht geschehen. Diese Variablen werden in den folgenden gcloud-Befehlen verwendet.
Linux / MacOS
export CLUSTER_NAME="YOUR_CLUSTER_NAME"
export CLUSTER_LOCATION="YOUR_CLUSTER_LOCATION"
export PROJECT_ID="YOUR_PROJECT_ID"
Windows
set CLUSTER_NAME="YOUR_CLUSTER_NAME"
set CLUSTER_LOCATION=YOUR_CLUSTER_LOCATION
set PROJECT_ID=YOUR_PROJECT_ID
Wobei:
-
CLUSTER_NAME
: Der Name Ihres Clusters. -
CLUSTER_LOCATION
: Region, in der Sie den Cluster erstellt haben. -
PROJECT_ID
: Ihre Google Cloud-Projekt-ID.
-
- Prüfen Sie die Knotenpoolkonfigurationen:
Regionale Cluster
gcloud container node-pools list \ --cluster=${CLUSTER_NAME} \ --region=${CLUSTER_LOCATION} \ --project=${PROJECT_ID}
Zonale Cluster
gcloud container node-pools list \ --cluster=${CLUSTER_NAME} \ --zone=${CLUSTER_LOCATION} \ --project=${PROJECT_ID}
- Ihr Cluster muss als Standardcluster für
kubectl
eingestellt sein. Rufen Sie dazu diegcloud
-Anmeldeinformationen des Clusters ab, den Sie gerade erstellt haben:Regionale Cluster
gcloud container clusters get-credentials ${CLUSTER_NAME} \ --region ${CLUSTER_LOCATION} \ --project ${PROJECT_ID}
Zonale Cluster
gcloud container clusters get-credentials ${CLUSTER_NAME} \ --zone ${CLUSTER_LOCATION} \ --project ${PROJECT_ID}
Weitere Informationen finden Sie unter Standardcluster für kubectl-Befehle festlegen.
-
Konfigurieren Sie den nichtflüchtigen SSD-Speicher (Solid State Disk) für Cassandra. Die Verwendung lokaler SSDs wird nicht unterstützt. Weitere Informationen finden Sie in der Kubernetes-Dokumentation unter Standardspeicherklasse ändern.
- Rufen Sie den Namen der aktuellen Standard-StorageClass ab:
kubectl get sc
Beispiel:
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo (default) pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h - Beschreiben Sie die StorageClass mit dem Namen
standard-rwo
. Der Typ lautetpd-balanced
:kubectl describe sc standard-rwo
Beispiel:
kubectl describe sc standard-rwo
Name: standard-rwo IsDefaultClass: Yes Annotations: components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false Provisioner: pd.csi.storage.gke.io Parameters: type=pd-balanced AllowVolumeExpansion: True MountOptions: <none> ReclaimPolicy: Delete VolumeBindingMode: WaitForFirstConsumer Events: <none>
- Erstellen Sie eine neue Datei mit dem Namen
storageclass.yaml
: - Fügen Sie diesen Code in die Datei ein. Beachten Sie, dass der Name der neuen Speicher-Klasse
apigee-sc
ist. Sie können einen beliebigen Namen verwenden. Beachten Sie auch, dass der Speichertyppd-ssd
ist:--- kind: StorageClass apiVersion: storage.k8s.io/v1 metadata: name: "apigee-sc" provisioner: kubernetes.io/gce-pd parameters: type: pd-ssd replication-type: none volumeBindingMode: WaitForFirstConsumer allowVolumeExpansion: true
- Wenden Sie die neue StorageClass auf Ihren Kubernetes-Cluster an:
kubectl apply -f storageclass.yaml
- Führen Sie die folgenden beiden Befehle aus, um die Standard-StorageClass zu ändern:
kubectl patch storageclass standard-rwo \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
kubectl patch storageclass apigee-sc \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
- Führen Sie den folgenden Befehl aus, um zu prüfen, ob die neue Standard-StorageClass
apigee-sc
heißt:kubectl get sc
Beispiel:
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE apigee-sc (default) kubernetes.io/gce-pd Delete WaitForFirstConsumer true 14h premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h
- Rufen Sie den Namen der aktuellen Standard-StorageClass ab:
- Workload Identity für den Cluster aktivieren. Workload Identity ermöglicht Arbeitslasten in Ihren GKE-Clustern, die Identität von Identity and Access Management (IAM)-Dienstkonten für den Zugriff auf Google Cloud-Dienste anzunehmen. Dieser Vorgang kann bis zu 30 Minuten dauern:
Regionale Cluster
gcloud container clusters update ${CLUSTER_NAME} \ --workload-pool=${PROJECT_ID}.svc.id.goog \ --project ${PROJECT_ID} \ --region ${CLUSTER_LOCATION}
Zonale Cluster
gcloud container clusters update ${CLUSTER_NAME} \ --workload-pool=${PROJECT_ID}.svc.id.goog \ --zone ${CLUSTER_LOCATION} \ --project ${PROJECT_ID}
- Prüfen Sie mit dem folgenden Befehl, ob Workload Identity erfolgreich aktiviert wurde:
Regionale Cluster
gcloud container clusters describe ${CLUSTER_NAME} \ --project ${PROJECT_ID} \ --region ${CLUSTER_LOCATION} | grep -i "workload"
Zonale Cluster
gcloud container clusters describe ${CLUSTER_NAME} \ --zone ${CLUSTER_LOCATION} \ --project ${PROJECT_ID} | grep -i "workload"
Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.
GKE On-Prem
Cluster in GKE On-Prem erstellen
In diesen Schritten wird erläutert, wie Sie einen GKE On-Prem-Cluster für Apigee Hybrid konfigurieren und erstellen.
- Prüfen Sie, ob Sie eine Version von Google Distributed Cloud verwenden, die für die Hybrid-Version 1.11.2 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
- Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
- Erstellen Sie den Cluster. Folgen Sie dazu der Anleitung unter Einfache Cluster erstellen.
Es ist in Ordnung, den Cluster nur mit dem Standardknotenpool zu erstellen. Im nächsten Schritt konfigurieren und erstellen Sie die erforderlichen Apigee Hybrid-Knotenpools.
Fahren Sie erst mit dem nächsten Schritt fort, wenn die Clustererstellung erfolgreich abgeschlossen wurde.
- Erstellen Sie zwei Knotenpools. Folgen Sie dazu der Anleitung unter Knotenpools erstellen und verwalten. Konfigurieren Sie die Knotenpools mit den in der folgenden Tabelle aufgeführten Mindestanforderungen.
Mindestanforderungen für Knotenpools
Achten Sie darauf, diese Mindestanforderungen beim Erstellen der Knotenpools zu erfüllen.
Knotenpoolname Beschreibung Minimale Knotenanzahl Mindestmaschinentyp apigee-data
Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. 1 pro Zone
(3 pro Region)e2-standard-4
(4 vCPUs, 16 GB Arbeitsspeicher)apigee-runtime
Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird. 1 pro Zone
(3 pro Region)e2-standard-4
(4 vCPUs, 16 GB Arbeitsspeicher)Weitere Informationen zur Konfiguration von Knotenpools finden Sie unter Dedizierte Knotenpools konfigurieren.
- (Optional) Sie können den Knotenpool
default
bei Bedarf löschen. Siehe Knotenpool löschen. -
Konfigurieren Sie den nichtflüchtigen SSD-Speicher (Solid State Disk) für Cassandra. Die Verwendung lokaler SSDs wird nicht unterstützt. Weitere Informationen finden Sie in der Kubernetes-Dokumentation unter Standardspeicherklasse ändern.
- Rufen Sie den Namen der aktuellen Standard-StorageClass ab:
kubectl get sc
Beispiel:
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo (default) pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h - Beschreiben Sie die StorageClass mit dem Namen
standard-rwo
. Der Typ lautetpd-balanced
:kubectl describe sc standard-rwo
Beispiel:
kubectl describe sc standard-rwo
Name: standard-rwo IsDefaultClass: Yes Annotations: components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false Provisioner: pd.csi.storage.gke.io Parameters: type=pd-balanced AllowVolumeExpansion: True MountOptions: <none> ReclaimPolicy: Delete VolumeBindingMode: WaitForFirstConsumer Events: <none>
- Erstellen Sie eine neue Datei mit dem Namen
storageclass.yaml
: - Fügen Sie diesen Code in die Datei ein. Beachten Sie, dass der Name der neuen Speicher-Klasse
apigee-sc
ist. Sie können einen beliebigen Namen verwenden. Beachten Sie auch, dass der Speichertyppd-ssd
ist:--- kind: StorageClass apiVersion: storage.k8s.io/v1 metadata: name: "apigee-sc" provisioner: kubernetes.io/gce-pd parameters: type: pd-ssd replication-type: none volumeBindingMode: WaitForFirstConsumer allowVolumeExpansion: true
- Wenden Sie die neue StorageClass auf Ihren Kubernetes-Cluster an:
kubectl apply -f storageclass.yaml
- Führen Sie die folgenden beiden Befehle aus, um die Standard-StorageClass zu ändern:
kubectl patch storageclass standard-rwo \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
kubectl patch storageclass apigee-sc \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
- Führen Sie den folgenden Befehl aus, um zu prüfen, ob die neue Standard-StorageClass
apigee-sc
heißt:kubectl get sc
Beispiel:
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE apigee-sc (default) kubernetes.io/gce-pd Delete WaitForFirstConsumer true 14h premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h
- Rufen Sie den Namen der aktuellen Standard-StorageClass ab:
Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.
Google Distributed Cloud on Bare Metal
Cluster in Google Distributed Cloud on Bare Metal erstellen
In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in Anthos auf Bare-Metal konfigurieren und erstellen. Mit Anthos auf Bare-Metal-Servern können Sie Kubernetes-Cluster direkt auf Ihren eigenen Maschinenressourcen ausführen.
- Prüfen Sie, ob Sie eine Version von Google Distributed Cloud on Bare Metal verwenden, die für die Hybrid-Version 1.11.2 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
- Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
- Lesen Sie die Übersicht über die Voraussetzungen für die Installation und die Erstellung von Clustern: Übersicht.
- Erstellen Sie den Cluster mit zwei Knotenpools, die wie unten beschrieben konfiguriert sind:
- Folgen Sie der Anleitung zur Clustererstellung Einfache Cluster erstellen in der Dokumentation zu Google Distributed Cloud on Bare Metal.
- Erstellen Sie mindestens zwei Knotenpools: Konfigurieren Sie die Knotenpools mit den in der folgenden Tabelle aufgeführten Mindestanforderungen.
Die Mindestkonfigurationen für einen Cluster sind:
Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird. Labelname apigee-data apigee-runtime Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region) CPU 4 4 RAM 15 15 Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. Netzwerkbandbreite für jeden Maschineninstanztyp 1 Gbit/s 1 Gbit/s Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.
Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.
AKS
Cluster auf AKS erstellen
In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in AKS konfigurieren und erstellen.
- Prüfen Sie, ob Sie eine Version von AKS verwenden, die für die Hybrid-Version 1.11.2 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
- Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
- Erstellen Sie den Cluster entweder mit der Azure-Befehlszeile oder dem Azure-Portal und erstellen Sie zwei Knotenpools wie unten beschrieben.
Die Mindestkonfigurationen für einen Cluster sind:
Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird. Labelname apigee-data apigee-runtime Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region) CPU 4 4 RAM 15 15 Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. Netzwerkbandbreite für jeden Maschineninstanztyp 1 Gbit/s 1 Gbit/s Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.
Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.
EKS
Cluster auf EKS erstellen
In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in EKS konfigurieren und erstellen.
- Prüfen Sie, ob Sie eine Version von EKS verwenden, die für die Hybrid-Version 1.11.2 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
- Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
- Wenn Sie die Kubernetes-Version 1.24 oder höher verwenden, prüfen Sie, ob Sie den Kubernetes CSI-Treiber für Amazon EBS installiert haben.
- Gehen Sie nach der folgenden Anleitung vor, um einen Nutzercluster zu erstellen und zwei Knotenpools zu erstellen, wie unten beschrieben.
Die Mindestkonfigurationen für einen Cluster sind:
Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird. Labelname apigee-data apigee-runtime Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region) CPU 4 4 RAM 15 15 Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. Netzwerkbandbreite für jeden Maschineninstanztyp 1 Gbit/s 1 Gbit/s Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.
Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.
GKE on AWS
Cluster in GKE in AWS erstellen
In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in GKE in AWS konfigurieren und erstellen.
- Prüfen Sie, ob Sie eine Version von GKE verwenden, die für die Hybrid-Version 1.11.2. unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
- Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
- Gehen Sie nach der folgenden Anleitung vor, um einen Nutzercluster zu erstellen und zwei Knotenpools zu erstellen, wie unten beschrieben.
Die Mindestkonfigurationen für einen Cluster sind:
Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird. Labelname apigee-data apigee-runtime Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region) CPU 4 4 RAM 15 15 Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. Netzwerkbandbreite für jeden Maschineninstanztyp 1 Gbit/s 1 Gbit/s Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.
Nachdem Sie einen Cluster installiert haben und dieser ausgeführt wird, fahren Sie mit dem nächsten Schritt fort.
OpenShift
Cluster in OpenShift erstellen
In diesen Schritten wird erläutert, wie Sie einen Cluster für Apigee Hybrid in OpenShift konfigurieren und erstellen.
- Prüfen Sie, ob Sie eine Version von OpenShift verwenden, die für die Hybrid-Version 1.11.2 unterstützt wird. Weitere Informationen finden Sie unter Von Apigee Hybrid unterstützte Plattformen und Versionen
- Die Uhren auf allen Knoten und Anwendungsservern müssen mit dem Network Time Protocol (NTP) synchronisiert werden, wie unter Voraussetzungen beschrieben. Die Cassandra-Datenbank verwendet die NTP-Synchronisierung (Network Time Protocol), um die Datenkonsistenz zu gewährleisten. Wenn Sie Hybrid in mehreren Regionen installieren möchten, achten Sie darauf, dass sie in allen Regionen mit NTP synchronisiert werden.
- Erstellen Sie den OpenShift-Cluster zur Bereitstellung auf der Laufzeitebene. Installieren Sie Apigee dann in Ihrem OpenShift-Nutzercluster und erstellen Sie zwei Knotenpools.
Als Teil der OpenShift-Installation installieren und konfigurieren Sie das
oc
-Befehlszeilentool. Siehe Erste Schritte mit der OpenShift-Befehlszeile in der OpenShift-Dokumentation.Die Mindestkonfigurationen für einen Cluster sind:
Konfiguration Zustandsorientierter Knotenpool Zustandsloser Knotenpool Zweck Ein zustandsorientierter Knotenpool, der für die Cassandra-Datenbank verwendet wird. Ein zustandsloser Knotenpool, der vom Laufzeitnachrichtenverarbeiter verwendet wird. Labelname apigee-data apigee-runtime Anzahl von Knoten 1 pro Zone (3 pro Region) 1 pro Zone (3 pro Region) CPU 4 4 RAM 15 15 Speicher dynamic Verwaltet mit der ApigeeDeployment-CRD Mindest-IOPS für Laufwerk 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. 2.000 IOPS mit SAN oder direkt angehängtem Speicher. NFS wird nicht empfohlen, selbst wenn es die erforderlichen IOPS unterstützen kann. Netzwerkbandbreite für jeden Maschineninstanztyp 1 Gbit/s 1 Gbit/s Weitere Informationen zur Mindestclusterkonfiguration finden Sie unter Minimale Clusterkonfigurationen.
Wenn Sie einen Cluster installiert haben, fahren Sie mit dem nächsten Schritt fort.
1 (WEITER) Schritt 2: Helm-Diagramme herunterladen 3 4 5 6 7 8 9 10 11 12