Cette étape explique comment créer le cluster dans lequel vous exécuterez Apigee hybrid. Les instructions varient en fonction de la plate-forme sur laquelle vous exécutez Apigee hybrid. Avant de commencer, veillez à lire les informations suivantes :
- Configurations de base du cluster
- Configurer des pools de nœuds dédiés
- Configurer Cassandra pour la production
- Configurer l'authentification pour Cassandra
- Configuration de StorageClass
- Utilisation des ports sécurisés
Créer votre cluster
Suivez les étapes pour votre plate-forme.
GKE
Créer un cluster sur GKE
Ces étapes expliquent comment configurer et créer un cluster GKE dans votre projet Google Cloud.
Apigee recommande de créer un cluster régional plutôt qu'un cluster zonal. Si vous ne connaissez pas la distinction entre les régions et les zones, consultez la page Régions et zones.
Les régions disponibles sont répertoriées dans la section Régions et zones disponibles. Sachez simplement que, par exemple, us-west1
est un nom de région valide, tandis que us-west1-a
est une zone de la région.
- Assurez-vous d'utiliser une version de GKE compatible avec la version 1.13.2 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous envisagez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont synchronisées avec NTP dans toutes les régions.
- (Clusters privés GKE uniquement) Si vous créez un cluster privé sur GKE, ajoutez une règle de pare-feu afin d'autoriser le port 9443 pour la communication entre les nœuds maîtres GKE et les nœuds de calcul GKE et permettre aux maîtres GKE d'accéder aux webhooks de mutation Apigee. Suivez la procédure décrite à la section Ajouter des règles de pare-feu pour des cas d'utilisation spécifiques dans la documentation de Google Kubernetes Engine. Pour en savoir plus, consultez la section Clusters privés dans GKE.
Vous n'avez pas besoin d'ajouter cette règle si vous créez un cluster standard ou public.
- Créez un cluster standard en suivant les instructions de la section Créer un cluster régional comportant un pool de nœuds multizone.
Vous pouvez créer le cluster avec le pool de nœuds par défaut uniquement. Vous allez configurer et créer les pools de nœuds Apigee hybrid requis à l'étape suivante.
.
Ne passez à l'étape suivante qu'une fois le cluster créé.
- Créez deux pools de nœuds en suivant les instructions de la section Ajouter et gérer des pools de nœuds. Veillez à configurer les pools de nœuds avec les exigences minimales répertoriées dans le tableau ci-dessous.
Configuration minimale d'un pool de nœuds
Veillez à respecter ces exigences minimales lors de la création des pools de nœuds. Veillez à sélectionner la valeur Prod ou Hors production en fonction de l'installation Apigee hybrid que vous créez. Les installations hors production conviennent aux tests et aux démonstrations, mais ne sont pas suffisantes pour le trafic de production. Si vous utilisez la console Cloud, veillez à configurer les sections Détails du pool de nœuds et Nœuds.
Nom du pool de nœuds Description Nombre minimal de nœuds Type de machine
minimal
en productionType de machine
minimal
hors productionapigee-data
Un pool de nœuds avec état utilisé pour la base de données Cassandra. 1 par zone
(3 par région)e2-standard-8
(8 vCPU, 32 Go de mémoire)e2-standard-4
(4 vCPU, 16 Go de mémoire)apigee-runtime
Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. 1 par zone
(3 par région)e2-standard-8
(8 vCPU, 32 Go de mémoire)e2-standard-4
(4 vCPU, 16 Go de mémoire)Pour en savoir plus sur la configuration des pools de nœuds, consultez la page Configurer des pools de nœuds dédiés.
- (Facultatif) Si vous le souhaitez, vous pouvez supprimer le pool de nœuds
default
. Consultez la page Supprimer un pool de nœuds. - Si ce n'est pas déjà fait, créez les variables d'environnement suivantes. Ces variables sont utilisées dans les commandes gcloud suivantes.
Linux/MacOS
export CLUSTER_NAME="YOUR_CLUSTER_NAME"
export CLUSTER_LOCATION="YOUR_CLUSTER_LOCATION"
export PROJECT_ID="YOUR_PROJECT_ID"
Windows
set CLUSTER_NAME="YOUR_CLUSTER_NAME"
set CLUSTER_LOCATION=YOUR_CLUSTER_LOCATION
set PROJECT_ID=YOUR_PROJECT_ID
Où :
-
CLUSTER_NAME
: nom de votre cluster. -
CLUSTER_LOCATION
: région dans laquelle vous avez créé votre cluster. -
PROJECT_ID
: ID de votre projet Google Cloud.
-
- Vérifiez les configurations du pool de nœuds :
Clusters régionaux
gcloud container node-pools list \ --cluster=${CLUSTER_NAME} \ --region=${CLUSTER_LOCATION} \ --project=${PROJECT_ID}
Cluster zonal
gcloud container node-pools list \ --cluster=${CLUSTER_NAME} \ --zone=${CLUSTER_LOCATION} \ --project=${PROJECT_ID}
- Assurez-vous que votre cluster est défini comme cluster par défaut pour
kubectl
en obtenant les Identifiantsgcloud
du cluster que vous venez de créer :Clusters régionaux
gcloud container clusters get-credentials ${CLUSTER_NAME} \ --region ${CLUSTER_LOCATION} \ --project ${PROJECT_ID}
Cluster zonal
gcloud container clusters get-credentials ${CLUSTER_NAME} \ --zone ${CLUSTER_LOCATION} \ --project ${PROJECT_ID}
Consultez Définir un cluster par défaut pour les commandes kubectl.
-
Configurez le disque SSD persistant pour Cassandra. L'utilisation des disques SSD locaux n'est pas prise en charge. Pour plus d'informations, consultez la section Modifier la classe de stockage par défaut dans la documentation de Kubernetes.
- Obtenez le nom de la classe StorageClass actuelle par défaut :
kubectl get sc
Exemple :
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo (default) pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h - Décrivez la StorageClass nommée
standard-rwo
. Notez que son type estpd-balanced
:kubectl describe sc standard-rwo
Exemple :
kubectl describe sc standard-rwo
Name: standard-rwo IsDefaultClass: Yes Annotations: components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false Provisioner: pd.csi.storage.gke.io Parameters: type=pd-balanced AllowVolumeExpansion: True MountOptions: <none> ReclaimPolicy: Delete VolumeBindingMode: WaitForFirstConsumer Events: <none>
- Créez un fichier appelé
storageclass.yaml
. - Ajoutez ce code au fichier. Notez que le nom de la nouvelle classe de stockage est
apigee-sc
. Vous pouvez utiliser n'importe quel nom. Notez également que le type de stockage estpd-ssd
:--- kind: StorageClass apiVersion: storage.k8s.io/v1 metadata: name: "apigee-sc" provisioner: kubernetes.io/gce-pd parameters: type: pd-ssd replication-type: none volumeBindingMode: WaitForFirstConsumer allowVolumeExpansion: true
- Appliquez la nouvelle StorageClass à votre cluster Kubernetes :
kubectl apply -f storageclass.yaml
- Exécutez les deux commandes suivantes pour modifier la StorageClass par défaut :
kubectl patch storageclass standard-rwo \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
kubectl patch storageclass apigee-sc \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
- Exécutez cette commande pour vérifier que la nouvelle StorageClass par défaut est appelée
apigee-sc
:kubectl get sc
Exemple :
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE apigee-sc (default) kubernetes.io/gce-pd Delete WaitForFirstConsumer true 14h premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h
- Obtenez le nom de la classe StorageClass actuelle par défaut :
- Activer Workload Identity pour le cluster Workload Identity permet aux charges de travail de vos clusters GKE d'emprunter l'identité des comptes de service Identity and Access Management (IAM) pour accéder aux services Google Cloud. Cette opération peut prendre jusqu'à 30 minutes.
Clusters régionaux
gcloud container clusters update ${CLUSTER_NAME} \ --workload-pool=${PROJECT_ID}.svc.id.goog \ --project ${PROJECT_ID} \ --region ${CLUSTER_LOCATION}
Cluster zonal
gcloud container clusters update ${CLUSTER_NAME} \ --workload-pool=${PROJECT_ID}.svc.id.goog \ --zone ${CLUSTER_LOCATION} \ --project ${PROJECT_ID}
- Vérifiez à l'aide de la commande suivante si Workload Identity a bien été activé :
Clusters régionaux
gcloud container clusters describe ${CLUSTER_NAME} \ --project ${PROJECT_ID} \ --region ${CLUSTER_LOCATION} | grep -i "workload"
Cluster zonal
gcloud container clusters describe ${CLUSTER_NAME} \ --zone ${CLUSTER_LOCATION} \ --project ${PROJECT_ID} | grep -i "workload"
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
Google Distributed Cloud sur VMware
Créer un cluster sur VMware
Ces étapes expliquent comment configurer et créer un cluster GKE pour Apigee hybrid lors d'un déploiement Google Distributed Cloud sur VMware uniquement sur le logiciel.
- Assurez-vous d'utiliser une version de Google Distributed Cloud compatible avec la version 1.13.2 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Créez le cluster en suivant les instructions de la section Créer des clusters de base.
Vous pouvez créer le cluster avec le pool de nœuds par défaut uniquement. Vous allez configurer et créer les pools de nœuds Apigee hybrid requis à l'étape suivante.
Ne passez à l'étape suivante qu'une fois le cluster créé.
- Créez deux pools de nœuds en suivant les instructions de la page Créer et gérer des pools de nœuds. Configurez les pools de nœuds en respectant les exigences minimales répertoriées dans le tableau ci-dessous.
Configuration minimale d'un pool de nœuds
Veillez à respecter ces exigences minimales lors de la création des pools de nœuds. Sélectionnez les valeurs Prod ou Hors production en fonction de l'installation d'Apigee hybrid que vous créez. Les installations hors production conviennent aux tests et aux démonstrations, mais ne sont pas suffisantes pour le trafic de production.
Nom du pool de nœuds Description Nombre minimal de nœuds Type de machine
minimal
en productionType de machine
minimal
hors productionapigee-data
Un pool de nœuds avec état utilisé pour la base de données Cassandra. 1 par zone
(3 par région)e2-standard-8
(8 vCPU, 16 Go de mémoire)e2-standard-4
(4 vCPU, 16 Go de mémoire)apigee-runtime
Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. 1 par zone
(3 par région)e2-standard-8
(8 vCPU, 16 Go de mémoire)e2-standard-4
(4 vCPU, 16 Go de mémoire)Pour en savoir plus sur la configuration des pools de nœuds, consultez la page Configurer des pools de nœuds dédiés.
- (Facultatif) Si vous le souhaitez, vous pouvez supprimer le pool de nœuds
default
. Consultez la page Supprimer un pool de nœuds. -
Configurez le disque SSD persistant pour Cassandra. L'utilisation des disques SSD locaux n'est pas prise en charge. Pour plus d'informations, consultez la section Modifier la classe de stockage par défaut dans la documentation de Kubernetes.
- Obtenez le nom de la classe StorageClass actuelle par défaut :
kubectl get sc
Exemple :
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo (default) pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h - Décrivez la StorageClass nommée
standard-rwo
. Notez que son type estpd-balanced
:kubectl describe sc standard-rwo
Exemple :
kubectl describe sc standard-rwo
Name: standard-rwo IsDefaultClass: Yes Annotations: components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false Provisioner: pd.csi.storage.gke.io Parameters: type=pd-balanced AllowVolumeExpansion: True MountOptions: <none> ReclaimPolicy: Delete VolumeBindingMode: WaitForFirstConsumer Events: <none>
- Créez un fichier appelé
storageclass.yaml
. - Ajoutez ce code au fichier. Notez que le nom de la nouvelle classe de stockage est
apigee-sc
. Vous pouvez utiliser n'importe quel nom. Notez également que le type de stockage estpd-ssd
:--- kind: StorageClass apiVersion: storage.k8s.io/v1 metadata: name: "apigee-sc" provisioner: kubernetes.io/gce-pd parameters: type: pd-ssd replication-type: none volumeBindingMode: WaitForFirstConsumer allowVolumeExpansion: true
- Appliquez la nouvelle StorageClass à votre cluster Kubernetes :
kubectl apply -f storageclass.yaml
- Exécutez les deux commandes suivantes pour modifier la StorageClass par défaut :
kubectl patch storageclass standard-rwo \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
kubectl patch storageclass apigee-sc \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
- Exécutez cette commande pour vérifier que la nouvelle StorageClass par défaut est appelée
apigee-sc
:kubectl get sc
Exemple :
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE apigee-sc (default) kubernetes.io/gce-pd Delete WaitForFirstConsumer true 14h premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h
- Obtenez le nom de la classe StorageClass actuelle par défaut :
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
Google Distributed Cloud sur bare metal
Créer un cluster sur bare metal
Ces étapes expliquent comment configurer et créer un cluster GKE pour Apigee hybrid lors d'un déploiement Google Distributed Cloud exclusivement logiciel sur bare metal. Google Distributed Cloud sur bare metal vous permet d'exécuter des clusters Kubernetes directement sur vos propres ressources machine.
- Assurez-vous d'utiliser une version de Google Distributed Cloud compatible avec la version 1.13.2 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Consultez les pages Présentation des conditions préalables à l'installation et Créer des clusters : présentation.
- Créez le cluster avec deux pools de nœuds configurés comme décrit ci-dessous :
- Suivez les instructions de création de cluster dans la section Créer des clusters de base.
- Créez au moins deux pools de nœuds : Configurez les pools de nœuds en respectant les exigences minimales répertoriées dans le tableau ci-dessous.
Les configurations de cluster minimales sont les suivantes :
Configuration Pool de nœuds avec état Pool de nœuds sans état Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. Nom du libellé apigee-data apigee-runtime Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région) Processeur 8 (production)
4 (hors production)8 (production)
4 (hors production)RAM 32 (production)
16 hors production)32 (production)
16 hors production)Stockage dynamic Gestion avec le CRD ApigeeDeployment IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. Bande passante réseau pour chaque type d'instance de machine 1 Gbit/s 1 Gbit/s Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
AKS
Créer un cluster sur AKS
Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur AKS.
- Assurez-vous d'utiliser une version d'AKS compatible avec la version 1.13.2 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Créez le cluster à l'aide de la CLI Azure ou du portail Azure, puis créez deux pools de nœuds comme décrit ci-dessous.
Les configurations de cluster minimales sont les suivantes :
Configuration Pool de nœuds avec état Pool de nœuds sans état Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. Nom du libellé apigee-data apigee-runtime Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région) Processeur 8 (production)
4 (hors production)8 (production)
4 (hors production)RAM 32 (production)
16 hors production)32 (production)
16 hors production)Stockage dynamic Gestion avec le CRD ApigeeDeployment IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. Bande passante réseau pour chaque type d'instance de machine 1 Gbit/s 1 Gbit/s Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
EKS
Créer un cluster sur EKS
Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur EKS.
- Assurez-vous d'utiliser une version d'EKS compatible avec la version 1.13.2 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Si vous utilisez Kubernetes 1.24 ou une version ultérieure, assurez-vous d'avoir installé le pilote CSI Kubernetes pour Amazon EBS.
- Suivez les instructions pour créer un cluster d'utilisateur et deux pools de nœuds, comme décrit ci-dessous.
Les configurations de cluster minimales sont les suivantes :
Configuration Pool de nœuds avec état Pool de nœuds sans état Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. Nom du libellé apigee-data apigee-runtime Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région) Processeur 8 (production)
4 (hors production)8 (production)
4 (hors production)RAM 32 (production)
16 hors production)32 (production)
16 hors production)Stockage dynamic Gestion avec le CRD ApigeeDeployment IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. Bande passante réseau pour chaque type d'instance de machine 1 Gbit/s 1 Gbit/s Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
GKE sur AWS
Créer un cluster sur GKE sur AWS
Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur GKE sur AWS.
- Assurez-vous d'utiliser une version de GKE sur AWS compatible avec la version 1.13.2 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Suivez les instructions pour créer un cluster d'utilisateur et deux pools de nœuds, comme décrit ci-dessous.
Les configurations de cluster minimales sont les suivantes :
Configuration Pool de nœuds avec état Pool de nœuds sans état Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. Nom du libellé apigee-data apigee-runtime Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région) Processeur 8 (production)
4 (hors production)8 (production)
4 (hors production)RAM 32 (production)
16 hors production)32 (production)
16 hors production)Stockage dynamic Gestion avec le CRD ApigeeDeployment IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. Bande passante réseau pour chaque type d'instance de machine 1 Gbit/s 1 Gbit/s Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
OpenShift
Créer un cluster sur OpenShift
Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur OpenShift.
- Assurez-vous d'utiliser une version d'OpenShift compatible avec la version 1.13.2 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Créez le cluster OpenShift à déployer sur le plan d'exécution, installez Apigee sur votre cluster d'utilisateur OpenShift et créez deux pools de nœuds.
Dans le cadre de l'installation d'OpenShift, installez et configurez l'outil CLI
oc
. Consultez la section Premiers pas avec la CLI OpenShift dans la documentation OpenShift.Les configurations de cluster minimales sont les suivantes :
Configuration Pool de nœuds avec état Pool de nœuds sans état Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. Nom du libellé apigee-data apigee-runtime Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région) Processeur 8 (production)
4 (hors production)8 (production)
4 (hors production)RAM 32 (production)
16 hors production)32 (production)
16 hors production)Stockage dynamic Gestion avec le CRD ApigeeDeployment IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. Bande passante réseau pour chaque type d'instance de machine 1 Gbit/s 1 Gbit/s Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.
Une fois le cluster installé, passez à l'étape suivante.