Cette étape explique comment créer le cluster dans lequel vous exécuterez Apigee hybrid. Les instructions varient en fonction de la plate-forme sur laquelle vous exécutez Apigee hybrid.
Clusters dédiés ou clusters partagés
Vous pouvez créer un cluster dédié Apigee hybrid, comme expliqué dans cette étape, ou l'installer dans un cluster qui exécute d'autres charges de travail.
- Cluster dédié : (recommandé) la création d'un cluster dédié Apigee hybrid renforce l'isolation et simplifie l'effort global nécessaire pour gérer le cluster et ses charges de travail Apigee hybrid.
- Cluster partagé : si vous installez Apigee hybrid dans un cluster exécutant d'autres charges de travail, vous devez mettre à niveau et gérer votre cluster avec les versions et les fonctionnalités requises en commun par Apigee hybrid et vos autres charges de travail. Vous pouvez développer un plan pour migrer une ou plusieurs charges de travail en cas de conflits entre les versions compatibles et les exigences.
Il est recommandé d'utiliser un cluster dédié. La configuration du cluster partagé est un cas d'utilisation avancé. Elle n'est pas abordée plus en détail dans les étapes d'installation.
Créer votre cluster
Suivez les étapes pour votre plate-forme.
GKE
Créer un cluster sur GKE
Ces étapes expliquent comment configurer et créer un cluster GKE dans votre projet Google Cloud.
Apigee vous recommande de créer un cluster régional plutôt qu'un cluster zonal. Si vous ne connaissez pas la distinction entre les régions et les zones, consultez la page Régions et zones.
Les régions disponibles sont répertoriées dans la section Régions et zones disponibles. Sachez simplement que, par exemple, us-west1
est un nom de région valide, tandis que us-west1-a
est une zone de la région.
- Assurez-vous d'utiliser une version de GKE compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous envisagez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont synchronisées avec NTP dans toutes les régions.
- (Clusters privés GKE uniquement) Si vous créez un cluster privé, ajoutez une règle de pare-feu afin d'autoriser le port 9443 pour la communication entre les nœuds maîtres GKE et les nœuds de calcul GKE et permettre aux maîtres GKE d'accéder aux webhooks de mutation Apigee. Suivez la procédure décrite à la section Ajouter des règles de pare-feu pour des cas d'utilisation spécifiques dans la documentation de Google Kubernetes Engine. Pour en savoir plus, consultez la section Clusters privés dans GKE.
Vous n'avez pas besoin d'ajouter cette règle si vous créez un cluster standard ou public.
- Créez le cluster en suivant les instructions de la section Créer un cluster régional avec un pool de nœuds multizone.
Vous pouvez créer le cluster avec le pool de nœuds par défaut uniquement. Vous allez configurer et créer les pools de nœuds Apigee hybrid requis à l'étape suivante.
Ne passez à l'étape suivante qu'une fois le cluster créé.
- Créez deux pools de nœuds en suivant les instructions de la section Ajouter et gérer des pools de nœuds. Veillez à configurer les pools de nœuds avec les exigences minimales répertoriées dans le tableau ci-dessous.
Configuration minimale d'un pool de nœuds
Veillez à respecter ces exigences minimales lors de la création des pools de nœuds. Si vous utilisez la console Cloud, veillez à configurer les sections Détails du pool de nœuds et Nœuds.
Nom du pool de nœuds Description Nombre minimal de nœuds Type de machine
minimalapigee-data
Un pool de nœuds avec état utilisé pour la base de données Cassandra. 1 par zone
(3 par région)e2-standard-4
(4 vCPU, 16 Go de mémoire)apigee-runtime
Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. 1 par zone
(3 par région)e2-standard-4
(4 vCPU, 16 Go de mémoire)Pour en savoir plus sur la configuration des pools de nœuds, consultez la page Configurer des pools de nœuds dédiés.
- (Facultatif) Si vous le souhaitez, vous pouvez supprimer le pool de nœuds
default
. Consultez la page Supprimer un pool de nœuds. - Assurez-vous que votre cluster est défini comme cluster par défaut pour
kubectl
. Consultez Définir un cluster par défaut pour les commandes kubectl. -
Configurez le disque SSD persistant pour Cassandra. L'utilisation des disques SSD locaux n'est pas prise en charge. Pour plus d'informations, consultez la section Modifier la classe de stockage par défaut dans la documentation de Kubernetes.
- Obtenez le nom de la classe StorageClass actuelle par défaut :
kubectl get sc
Exemple :
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo (default) pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h - Décrivez la StorageClass nommée
standard-rwo
. Notez que son type estpd-balanced
:kubectl describe sc standard-rwo
Exemple :
kubectl describe sc standard-rwo
Name: standard-rwo IsDefaultClass: Yes Annotations: components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false Provisioner: pd.csi.storage.gke.io Parameters: type=pd-balanced AllowVolumeExpansion: True MountOptions: <none> ReclaimPolicy: Delete VolumeBindingMode: WaitForFirstConsumer Events: <none>
- Créez un fichier appelé
storageclass.yaml
. - Ajoutez ce code au fichier. Notez que le nom de la nouvelle classe est
apigee-sc
. Vous pouvez utiliser n'importe quel nom. Notez également que le type de stockage estpd-ssd
:--- kind: StorageClass apiVersion: storage.k8s.io/v1 metadata: name: "apigee-sc" provisioner: kubernetes.io/gce-pd parameters: type: pd-ssd replication-type: none volumeBindingMode: WaitForFirstConsumer allowVolumeExpansion: true
- Appliquez la nouvelle StorageClass à votre cluster Kubernetes :
kubectl apply -f storageclass.yaml
- Exécutez les deux commandes suivantes pour modifier la StorageClass par défaut :
kubectl patch storageclass standard-rwo \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
kubectl patch storageclass apigee-sc \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
- Exécutez cette commande pour vérifier que la nouvelle StorageClass par défaut est appelée
apigee-sc
:kubectl get sc
Exemple :
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE apigee-sc (default) kubernetes.io/gce-pd Delete WaitForFirstConsumer true 14h premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h
- Obtenez le nom de la classe StorageClass actuelle par défaut :
- Créez les variables d'environnement suivantes. Ces variables sont utilisées dans les commandes gcloud qui suivent.
Linux/MacOS
export CLUSTER_NAME="YOUR_CLUSTER_NAME"
export CLUSTER_LOCATION="YOUR_CLUSTER_LOCATION"
Windows
set CLUSTER_NAME="YOUR_CLUSTER_NAME"
set CLUSTER_LOCATION=YOUR_CLUSTER_LOCATION
set PROJECT_ID=YOUR_PROJECT_ID
Où :
-
CLUSTER_NAME
: nom de votre cluster. CLUSTER_LOCATION
: région dans laquelle vous avez créé votre cluster.
-
- Vérifiez les configurations du pool de nœuds :
Clusters régionaux
gcloud container node-pools list \ --cluster=${CLUSTER_NAME} \ --region=${CLUSTER_LOCATION} \ --project=${PROJECT_ID}
Cluster zonal
gcloud container node-pools list \ --cluster=${CLUSTER_NAME} \ --zone=${CLUSTER_LOCATION} \ --project=${PROJECT_ID}
- Activez Workload Identity sur le cluster. Cette opération peut prendre jusqu'à 30 minutes.
Clusters régionaux
gcloud container clusters update ${CLUSTER_NAME} \ --workload-pool=${PROJECT_ID}.svc.id.goog \ --project ${PROJECT_ID} \ --region ${CLUSTER_LOCATION}
Cluster zonal
gcloud container clusters update ${CLUSTER_NAME} \ --workload-pool=${PROJECT_ID}.svc.id.goog \ --zone ${CLUSTER_LOCATION} \ --project ${PROJECT_ID}
Pour en savoir plus, consultez la page Activer Workload Identity.
- Obtenez les identifiants
gcloud
du cluster que vous venez de créer à l'aide de la commande suivante :Clusters régionaux
gcloud container clusters get-credentials ${CLUSTER_NAME} \ --region ${CLUSTER_LOCATION} \ --project ${PROJECT_ID}
Cluster zonal
gcloud container clusters get-credentials ${CLUSTER_NAME} \ --zone ${CLUSTER_LOCATION} \ --project ${PROJECT_ID}
- Pour les installations sur GKE, Apigee permet d'utiliser Workload Identity pour se connecter aux services Google Cloud sans utiliser de comptes de service Google, avec des certificats stockés localement. Pour en savoir plus sur Workload Identity, consultez la page Activer Workload Identity avec Apigee hybrid.
Facultatif : Activez Workload Identity pour chaque pool de nœuds à l'aide des commandes suivantes. Cette opération peut prendre jusqu'à 30 minutes par pool de nœuds.
Clusters régionaux
gcloud container node-pools update apigee-data \ --cluster=$CLUSTER_NAME \ --region $CLUSTER_LOCATION \ --project $PROJECT_ID \ --workload-metadata=GKE_METADATA
gcloud container node-pools update apigee-runtime \ --cluster=$CLUSTER_NAME \ --region $CLUSTER_LOCATION \ --project $PROJECT_ID \ --workload-metadata=GKE_METADATA
Cluster zonal
gcloud container node-pools update apigee-data \ --cluster=$CLUSTER_NAME \ --zone $CLUSTER_LOCATION \ --project $PROJECT_ID \ --workload-metadata=GKE_METADATA
gcloud container node-pools update apigee-runtime \ --cluster=$CLUSTER_NAME \ --zone $CLUSTER_LOCATION \ --project $PROJECT_ID \ --workload-metadata=GKE_METADATA
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
GKE On-Prem
Créer un cluster sur GKE On-Prem
Ces étapes expliquent comment configurer et créer un cluster GKE On-Prem pour Apigee hybrid.
- Assurez-vous d'utiliser une version d'Anthos sur site ou d'Anthos sur VMWare compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Créez le cluster en suivant les instructions de la section Créer des clusters de base.
Vous pouvez créer le cluster avec le pool de nœuds par défaut uniquement. Vous allez configurer et créer les pools de nœuds Apigee hybrid requis à l'étape suivante.
Ne passez à l'étape suivante qu'une fois le cluster créé.
- Créez deux pools de nœuds en suivant les instructions de la page Créer et gérer des pools de nœuds. Configurez les pools de nœuds en respectant les exigences minimales répertoriées dans le tableau ci-dessous.
Configuration minimale d'un pool de nœuds
Veillez à respecter ces exigences minimales lors de la création des pools de nœuds.
Nom du pool de nœuds Description Nombre minimal de nœuds Type de machine
minimalapigee-data
Un pool de nœuds avec état utilisé pour la base de données Cassandra. 1 par zone
(3 par région)e2-standard-4
(4 vCPU, 16 Go de mémoire)apigee-runtime
Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. 1 par zone
(3 par région)e2-standard-4
(4 vCPU, 16 Go de mémoire)Pour en savoir plus sur la configuration des pools de nœuds, consultez la page Configurer des pools de nœuds dédiés.
- (Facultatif) Si vous le souhaitez, vous pouvez supprimer le pool de nœuds
default
. Consultez la page Supprimer un pool de nœuds. -
Configurez le disque SSD persistant pour Cassandra. L'utilisation des disques SSD locaux n'est pas prise en charge. Pour plus d'informations, consultez la section Modifier la classe de stockage par défaut dans la documentation de Kubernetes.
- Obtenez le nom de la classe StorageClass actuelle par défaut :
kubectl get sc
Exemple :
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo (default) pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h - Décrivez la StorageClass nommée
standard-rwo
. Notez que son type estpd-balanced
:kubectl describe sc standard-rwo
Exemple :
kubectl describe sc standard-rwo
Name: standard-rwo IsDefaultClass: Yes Annotations: components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false Provisioner: pd.csi.storage.gke.io Parameters: type=pd-balanced AllowVolumeExpansion: True MountOptions: <none> ReclaimPolicy: Delete VolumeBindingMode: WaitForFirstConsumer Events: <none>
- Créez un fichier appelé
storageclass.yaml
. - Ajoutez ce code au fichier. Notez que le nom de la nouvelle classe est
apigee-sc
. Vous pouvez utiliser n'importe quel nom. Notez également que le type de stockage estpd-ssd
:--- kind: StorageClass apiVersion: storage.k8s.io/v1 metadata: name: "apigee-sc" provisioner: kubernetes.io/gce-pd parameters: type: pd-ssd replication-type: none volumeBindingMode: WaitForFirstConsumer allowVolumeExpansion: true
- Appliquez la nouvelle StorageClass à votre cluster Kubernetes :
kubectl apply -f storageclass.yaml
- Exécutez les deux commandes suivantes pour modifier la StorageClass par défaut :
kubectl patch storageclass standard-rwo \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
kubectl patch storageclass apigee-sc \ -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
- Exécutez cette commande pour vérifier que la nouvelle StorageClass par défaut est appelée
apigee-sc
:kubectl get sc
Exemple :
kubectl get sc
NAME PROVISIONER RECLAIMPOLICY VOLUMEBINDINGMODE ALLOWVOLUMEEXPANSION AGE apigee-sc (default) kubernetes.io/gce-pd Delete WaitForFirstConsumer true 14h premium-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h standard kubernetes.io/gce-pd Delete Immediate true 15h standard-rwo pd.csi.storage.gke.io Delete WaitForFirstConsumer true 15h
- Obtenez le nom de la classe StorageClass actuelle par défaut :
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
Anthos sur bare metal
Créer un cluster sur Anthos sur bare metal
Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur Anthos sur bare metal. Les clusters Anthos sur bare metal vous permettent d'exécuter des clusters Kubernetes directement sur vos propres ressources machine.
- Assurez-vous d'utiliser une version d'Anthos sur bare metal compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Consultez les pages Présentation des conditions préalables à l'installation et Créer des clusters : présentation.
- Créez le cluster avec deux pools de nœuds configurés comme décrit ci-dessous :
- Suivez les instructions de création du cluster du guide de démarrage rapide des clusters Anthos sur bare metal.
- Créez au moins deux pools de nœuds : Configurez les pools de nœuds en respectant les exigences minimales répertoriées dans le tableau ci-dessous.
Les configurations de cluster minimales sont les suivantes :
Configuration Pool de nœuds avec état Pool de nœuds sans état Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. Nom du libellé apigee-data apigee-runtime Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région) Processeur 4 4 RAM 15 15 Stockage dynamic Gestion avec le CRD ApigeeDeployment IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
AKS
Créer un cluster sur AKS
Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur AKS.
- Assurez-vous d'utiliser une version d'AKS compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Créez le cluster à l'aide de la CLI Azure ou du portail Azure, puis créez deux pools de nœuds comme décrit ci-dessous.
Les configurations de cluster minimales sont les suivantes :
Configuration Pool de nœuds avec état Pool de nœuds sans état Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. Nom du libellé apigee-data apigee-runtime Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région) Processeur 4 4 RAM 15 15 Stockage dynamic Gestion avec le CRD ApigeeDeployment IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
EKS
Créer un cluster sur EKS
Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur EKS.
- Assurez-vous d'utiliser une version d'EKS compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Si vous utilisez Kubernetes 1.24 ou une version ultérieure, assurez-vous d'avoir installé le pilote CSI Kubernetes pour Amazon EBS.
- Suivez les instructions pour créer un cluster d'utilisateur et deux pools de nœuds, comme décrit ci-dessous.
Les configurations de cluster minimales sont les suivantes :
Configuration Pool de nœuds avec état Pool de nœuds sans état Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. Nom du libellé apigee-data apigee-runtime Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région) Processeur 4 4 RAM 15 15 Stockage dynamic Gestion avec le CRD ApigeeDeployment IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
GKE sur AWS
Créer un cluster sur GKE sur AWS
Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur GKE sur AWS.
- Assurez-vous d'utiliser une version de GKE compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Suivez les instructions pour créer un cluster d'utilisateur et deux pools de nœuds, comme décrit ci-dessous.
- Documentation de présentation de GKE sur AWS.
- Présentation de l'installation d'Anthos clusters on AWS.
Les configurations de cluster minimales sont les suivantes :
Configuration Pool de nœuds avec état Pool de nœuds sans état Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. Nom du libellé apigee-data apigee-runtime Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région) Processeur 4 4 RAM 15 15 Stockage dynamic Gestion avec le CRD ApigeeDeployment IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.
Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.
OpenShift
Créer un cluster sur OpenShift
Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur OpenShift.
- Assurez-vous d'utiliser une version d'OpenShift compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
- Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
- Créez le cluster OpenShift à déployer sur le plan d'exécution, installez Apigee sur votre cluster d'utilisateur OpenShift et créez deux pools de nœuds.
Dans le cadre de l'installation d'OpenShift, installez et configurez l'outil CLI
oc
. Consultez la section Premiers pas avec la CLI OpenShift dans la documentation OpenShift.Les configurations de cluster minimales sont les suivantes :
Configuration Pool de nœuds avec état Pool de nœuds sans état Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. Nom du libellé apigee-data apigee-runtime Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région) Processeur 4 4 RAM 15 15 Stockage dynamic Gestion avec le CRD ApigeeDeployment IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.
Une fois le cluster installé, passez à l'étape suivante.
1 (SUITE) Étape 2 : Installer cert-manager 3 4 5 6 7 8 9 10