Étape 1 : Créer un cluster

Cette étape explique comment créer le cluster dans lequel vous exécuterez Apigee hybrid. Les instructions varient en fonction de la plate-forme sur laquelle vous exécutez Apigee hybrid. Avant de commencer, veillez à lire les informations suivantes :

Créer votre cluster

Suivez les étapes pour votre plate-forme.

GKE

Créer un cluster sur GKE

Ces étapes expliquent comment configurer et créer un cluster GKE dans votre projet Google Cloud.

Apigee recommande de créer un cluster régional plutôt qu'un cluster zonal. Si vous ne connaissez pas la distinction entre les régions et les zones, consultez la page Régions et zones. Les régions disponibles sont répertoriées dans la section Régions et zones disponibles. Sachez simplement que, par exemple, us-west1 est un nom de région valide, tandis que us-west1-a est une zone de la région.

  1. Assurez-vous d'utiliser une version de GKE compatible avec la version 1.12.0 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous envisagez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont synchronisées avec NTP dans toutes les régions.
  3. (Clusters privés GKE uniquement) Si vous créez un cluster privé sur GKE, ajoutez une règle de pare-feu afin d'autoriser le port 9443 pour la communication entre les nœuds maîtres GKE et les nœuds de calcul GKE et permettre aux maîtres GKE d'accéder aux webhooks de mutation Apigee. Suivez la procédure décrite à la section Ajouter des règles de pare-feu pour des cas d'utilisation spécifiques dans la documentation de Google Kubernetes Engine. Pour en savoir plus, consultez la section Clusters privés dans GKE.

    Vous n'avez pas besoin d'ajouter cette règle si vous créez un cluster standard ou public.

  4. Créez un cluster standard en suivant les instructions de la section Créer un cluster régional comportant un pool de nœuds multizone. Vous pouvez créer le cluster avec le pool de nœuds par défaut uniquement. Vous allez configurer et créer les pools de nœuds Apigee hybrid requis à l'étape suivante. .

    Ne passez à l'étape suivante qu'une fois le cluster créé.

  5. Créez deux pools de nœuds en suivant les instructions de la section Ajouter et gérer des pools de nœuds. Veillez à configurer les pools de nœuds avec les exigences minimales répertoriées dans le tableau ci-dessous.

    Configuration minimale d'un pool de nœuds

    Veillez à respecter ces exigences minimales lors de la création des pools de nœuds. Si vous utilisez la console Cloud, veillez à configurer les sections Détails du pool de nœuds et Nœuds.

    Nom du pool de nœuds Description Nombre minimal de nœuds Type de machine
    minimal
    apigee-data Un pool de nœuds avec état utilisé pour la base de données Cassandra. 1 par zone
    (3 par région)
    e2-standard-4
    (4 vCPU, 16 Go de mémoire)
    apigee-runtime Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. 1 par zone
    (3 par région)
    e2-standard-4
    (4 vCPU, 16 Go de mémoire)

    Pour en savoir plus sur la configuration des pools de nœuds, consultez la page Configurer des pools de nœuds dédiés.

  6. (Facultatif) Si vous le souhaitez, vous pouvez supprimer le pool de nœuds default. Consultez la page Supprimer un pool de nœuds.
  7. Si ce n'est pas déjà fait, créez les variables d'environnement suivantes. Ces variables sont utilisées dans les commandes gcloud suivantes.

    Linux/MacOS

    export CLUSTER_NAME="YOUR_CLUSTER_NAME"
    export CLUSTER_LOCATION="YOUR_CLUSTER_LOCATION"
    export PROJECT_ID="YOUR_PROJECT_ID"

    Windows

    set CLUSTER_NAME="YOUR_CLUSTER_NAME"
    set CLUSTER_LOCATION=YOUR_CLUSTER_LOCATION
    set PROJECT_ID=YOUR_PROJECT_ID

    Où :

    • CLUSTER_NAME : nom de votre cluster.
    • CLUSTER_LOCATION : région dans laquelle vous avez créé votre cluster.
    • PROJECT_ID : ID de votre projet Google Cloud.
  8. Vérifiez les configurations du pool de nœuds :

    Clusters régionaux

    gcloud container node-pools list \
    --cluster=${CLUSTER_NAME} \
    --region=${CLUSTER_LOCATION} \
    --project=${PROJECT_ID}

    Cluster zonal

    gcloud container node-pools list \
    --cluster=${CLUSTER_NAME} \
    --zone=${CLUSTER_LOCATION} \
    --project=${PROJECT_ID}
  9. Assurez-vous que votre cluster est défini comme cluster par défaut pour kubectl en obtenant les

    Identifiants gcloud du cluster que vous venez de créer :

    Clusters régionaux

      gcloud container clusters get-credentials ${CLUSTER_NAME} \
        --region ${CLUSTER_LOCATION} \
        --project ${PROJECT_ID}

    Cluster zonal

      gcloud container clusters get-credentials ${CLUSTER_NAME} \
        --zone ${CLUSTER_LOCATION} \
        --project ${PROJECT_ID}

    Consultez Définir un cluster par défaut pour les commandes kubectl.

  10. Configurez le disque SSD persistant pour Cassandra. L'utilisation des disques SSD locaux n'est pas prise en charge. Pour plus d'informations, consultez la section Modifier la classe de stockage par défaut dans la documentation de Kubernetes.

    1. Obtenez le nom de la classe StorageClass actuelle par défaut :
      kubectl get sc

      Exemple :

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
      
    2. Décrivez la StorageClass nommée standard-rwo. Notez que son type est pd-balanced :
      kubectl describe sc standard-rwo

      Exemple :

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
        IsDefaultClass:        Yes
        Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
        Provisioner:           pd.csi.storage.gke.io
        Parameters:            type=pd-balanced
        AllowVolumeExpansion:  True
        MountOptions:          <none>
        ReclaimPolicy:         Delete
        VolumeBindingMode:     WaitForFirstConsumer
        Events:                <none>
    3. Créez un fichier appelé storageclass.yaml.
    4. Ajoutez ce code au fichier. Notez que le nom de la nouvelle classe de stockage est apigee-sc. Vous pouvez utiliser n'importe quel nom. Notez également que le type de stockage est pd-ssd :
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
      
    5. Appliquez la nouvelle StorageClass à votre cluster Kubernetes :
      kubectl apply -f storageclass.yaml
    6. Exécutez les deux commandes suivantes pour modifier la StorageClass par défaut :
      kubectl patch storageclass standard-rwo \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. Exécutez cette commande pour vérifier que la nouvelle StorageClass par défaut est appelée apigee-sc :
      kubectl get sc

      Par exemple :

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
      
  11. Activer Workload Identity pour le cluster Workload Identity permet aux charges de travail de vos clusters GKE d'emprunter l'identité des comptes de service Identity and Access Management (IAM) pour accéder aux services Google Cloud. Cette opération peut prendre jusqu'à 30 minutes.

    Clusters régionaux

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --project ${PROJECT_ID} \
      --region ${CLUSTER_LOCATION}

    Cluster zonal

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID}
  12. Vérifiez à l'aide de la commande suivante si Workload Identity a bien été activé :

    Clusters régionaux

    gcloud container clusters describe ${CLUSTER_NAME} \
      --project ${PROJECT_ID} \
      --region ${CLUSTER_LOCATION} | grep -i "workload"

    Cluster zonal

    gcloud container clusters describe ${CLUSTER_NAME} \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID} | grep -i "workload"

Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

GKE On-Prem

Créer un cluster sur GKE On-Prem

Ces étapes expliquent comment configurer et créer un cluster GKE On-Prem pour Apigee hybrid.

  1. Assurez-vous d'utiliser une version d'Anthos sur site ou d'Anthos sur VMWare compatible avec la version 1.12.0 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Créez le cluster en suivant les instructions de la section Créer des clusters de base. Vous pouvez créer le cluster avec le pool de nœuds par défaut uniquement. Vous allez configurer et créer les pools de nœuds Apigee hybrid requis à l'étape suivante.

    Ne passez à l'étape suivante qu'une fois le cluster créé.

  4. Créez deux pools de nœuds en suivant les instructions de la page Créer et gérer des pools de nœuds. Configurez les pools de nœuds en respectant les exigences minimales répertoriées dans le tableau ci-dessous.

    Configuration minimale d'un pool de nœuds

    Veillez à respecter ces exigences minimales lors de la création des pools de nœuds.

    Nom du pool de nœuds Description Nombre minimal de nœuds Type de machine
    minimal
    apigee-data Un pool de nœuds avec état utilisé pour la base de données Cassandra. 1 par zone
    (3 par région)
    e2-standard-4
    (4 vCPU, 16 Go de mémoire)
    apigee-runtime Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. 1 par zone
    (3 par région)
    e2-standard-4
    (4 vCPU, 16 Go de mémoire)

    Pour en savoir plus sur la configuration des pools de nœuds, consultez la page Configurer des pools de nœuds dédiés.

  5. (Facultatif) Si vous le souhaitez, vous pouvez supprimer le pool de nœuds default. Consultez la page Supprimer un pool de nœuds.
  6. Configurez le disque SSD persistant pour Cassandra. L'utilisation des disques SSD locaux n'est pas prise en charge. Pour plus d'informations, consultez la section Modifier la classe de stockage par défaut dans la documentation de Kubernetes.

    1. Obtenez le nom de la classe StorageClass actuelle par défaut :
      kubectl get sc

      Exemple :

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
      
    2. Décrivez la StorageClass nommée standard-rwo. Notez que son type est pd-balanced :
      kubectl describe sc standard-rwo

      Exemple :

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
      IsDefaultClass:        Yes
      Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
      Provisioner:           pd.csi.storage.gke.io
      Parameters:            type=pd-balanced
      AllowVolumeExpansion:  True
      MountOptions:          <none>
      ReclaimPolicy:         Delete
      VolumeBindingMode:     WaitForFirstConsumer
      Events:                <none>
    3. Créez un fichier appelé storageclass.yaml.
    4. Ajoutez ce code au fichier. Notez que le nom de la nouvelle classe de stockage est apigee-sc. Vous pouvez utiliser n'importe quel nom. Notez également que le type de stockage est pd-ssd :
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
      
    5. Appliquez la nouvelle StorageClass à votre cluster Kubernetes :
      kubectl apply -f storageclass.yaml
    6. Exécutez les deux commandes suivantes pour modifier la StorageClass par défaut :
      kubectl patch storageclass standard-rwo \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. Exécutez cette commande pour vérifier que la nouvelle StorageClass par défaut est appelée apigee-sc :
      kubectl get sc

      Exemple :

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
      

Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

Anthos sur bare metal

Créer un cluster sur Anthos sur bare metal

Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur Anthos sur bare metal. Les clusters Anthos sur bare metal vous permettent d'exécuter des clusters Kubernetes directement sur vos propres ressources machine.

  1. Assurez-vous d'utiliser une version d'Anthos sur bare metal compatible avec la version 1.12.0 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Consultez les pages Présentation des conditions préalables à l'installation et Créer des clusters : présentation.
  4. Créez le cluster avec deux pools de nœuds configurés comme décrit ci-dessous :
    • Suivez les instructions de création du cluster du guide de démarrage rapide des clusters Anthos sur bare metal.
    • Créez au moins deux pools de nœuds : Configurez les pools de nœuds en respectant les exigences minimales répertoriées dans le tableau ci-dessous.

      Les configurations de cluster minimales sont les suivantes :

      Configuration Pool de nœuds avec état Pool de nœuds sans état
      Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution.
      Nom du libellé apigee-data apigee-runtime
      Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région)
      Processeur 4 4
      Mémoire RAM 15 15
      Stockage dynamic Gestion avec le CRD ApigeeDeployment
      IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises.
      Bande passante réseau pour chaque type d'instance de machine 1 Gbit/s 1 Gbit/s

      Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.

Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

AKS

Créer un cluster sur AKS

Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur AKS.

  1. Assurez-vous d'utiliser une version d'AKS compatible avec la version 1.12.0 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Créez le cluster à l'aide de la CLI Azure ou du portail Azure, puis créez deux pools de nœuds comme décrit ci-dessous.

    Les configurations de cluster minimales sont les suivantes :

    Configuration Pool de nœuds avec état Pool de nœuds sans état
    Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution.
    Nom du libellé apigee-data apigee-runtime
    Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région)
    Processeur 4 4
    Mémoire RAM 15 15
    Stockage dynamic Gestion avec le CRD ApigeeDeployment
    IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises.
    Bande passante réseau pour chaque type d'instance de machine 1 Gbit/s 1 Gbit/s

    Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.

  4. Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

EKS

Créer un cluster sur EKS

Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur EKS.

  1. Assurez-vous d'utiliser une version d'EKS compatible avec la version 1.12.0 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Si vous utilisez Kubernetes 1.24 ou une version ultérieure, assurez-vous d'avoir installé le pilote CSI Kubernetes pour Amazon EBS.
  4. Suivez les instructions pour créer un cluster d'utilisateur et deux pools de nœuds, comme décrit ci-dessous.

    Les configurations de cluster minimales sont les suivantes :

    Configuration Pool de nœuds avec état Pool de nœuds sans état
    Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution.
    Nom du libellé apigee-data apigee-runtime
    Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région)
    Processeur 4 4
    Mémoire RAM 15 15
    Stockage dynamic Gestion avec le CRD ApigeeDeployment
    IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises.
    Bande passante réseau pour chaque type d'instance de machine 1 Gbit/s 1 Gbit/s

    Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.

Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

GKE sur AWS

Créer un cluster sur GKE sur AWS

Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur GKE sur AWS.

  1. Assurez-vous d'utiliser une version de GKE compatible avec la version 1.12.0 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Suivez les instructions pour créer un cluster d'utilisateur et deux pools de nœuds, comme décrit ci-dessous.

    Les configurations de cluster minimales sont les suivantes :

    Configuration Pool de nœuds avec état Pool de nœuds sans état
    Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution.
    Nom du libellé apigee-data apigee-runtime
    Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région)
    Processeur 4 4
    Mémoire RAM 15 15
    Stockage dynamic Gestion avec le CRD ApigeeDeployment
    IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises.
    Bande passante réseau pour chaque type d'instance de machine 1 Gbit/s 1 Gbit/s

    Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.

Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

OpenShift

Créer un cluster sur OpenShift

Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur OpenShift.

  1. Assurez-vous d'utiliser une version d'OpenShift compatible avec la version 1.12.0 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Créez le cluster OpenShift à déployer sur le plan d'exécution, installez Apigee sur votre cluster d'utilisateur OpenShift et créez deux pools de nœuds.

    Dans le cadre de l'installation d'OpenShift, installez et configurez l'outil CLI oc. Consultez la section Premiers pas avec la CLI OpenShift dans la documentation OpenShift.

    Les configurations de cluster minimales sont les suivantes :

    Configuration Pool de nœuds avec état Pool de nœuds sans état
    Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution.
    Nom du libellé apigee-data apigee-runtime
    Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région)
    Processeur 4 4
    Mémoire RAM 15 15
    Stockage dynamic Gestion avec le CRD ApigeeDeployment
    IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises.
    Bande passante réseau pour chaque type d'instance de machine 1 Gbit/s 1 Gbit/s

    Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.

Une fois le cluster installé, passez à l'étape suivante.

 

Étape suivante

1 (SUITE) Étape 2 : Télécharger les charts Helm 3 4 5 6 7 8 9 10 11 12