Étape 1 : Créer un cluster

Cette étape explique comment créer le cluster dans lequel vous exécuterez Apigee hybrid. Les instructions varient en fonction de la plate-forme sur laquelle vous exécutez Apigee hybrid.

Clusters dédiés ou clusters partagés

Vous pouvez créer un cluster dédié Apigee hybrid, comme expliqué dans cette étape, ou l'installer dans un cluster qui exécute d'autres charges de travail.

  • Cluster dédié : (recommandé) la création d'un cluster dédié Apigee hybrid renforce l'isolation et simplifie l'effort global nécessaire pour gérer le cluster et ses charges de travail Apigee hybrid.
  • Cluster partagé : si vous installez Apigee hybrid dans un cluster exécutant d'autres charges de travail, vous devez mettre à niveau et gérer votre cluster avec les versions et les fonctionnalités requises en commun par Apigee hybrid et vos autres charges de travail. Vous pouvez développer un plan pour migrer une ou plusieurs charges de travail en cas de conflits entre les versions compatibles et les exigences.

Il est recommandé d'utiliser un cluster dédié. La configuration du cluster partagé est un cas d'utilisation avancé. Elle n'est pas abordée plus en détail dans les étapes d'installation.

Créer votre cluster

Suivez les étapes pour votre plate-forme.

GKE

Créer un cluster sur GKE

Ces étapes expliquent comment configurer et créer un cluster GKE dans votre projet Google Cloud.

Apigee vous recommande de créer un cluster régional plutôt qu'un cluster zonal. Si vous ne connaissez pas la distinction entre les régions et les zones, consultez la page Régions et zones. Les régions disponibles sont répertoriées dans la section Régions et zones disponibles. Sachez simplement que, par exemple, us-west1 est un nom de région valide, tandis que us-west1-a est une zone de la région.

  1. Assurez-vous d'utiliser une version de GKE compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous envisagez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont synchronisées avec NTP dans toutes les régions.
  3. (Clusters privés GKE uniquement) Si vous créez un cluster privé, ajoutez une règle de pare-feu afin d'autoriser le port 9443 pour la communication entre les nœuds maîtres GKE et les nœuds de calcul GKE et permettre aux maîtres GKE d'accéder aux webhooks de mutation Apigee. Suivez la procédure décrite à la section Ajouter des règles de pare-feu pour des cas d'utilisation spécifiques dans la documentation de Google Kubernetes Engine. Pour en savoir plus, consultez la section Clusters privés dans GKE.

    Vous n'avez pas besoin d'ajouter cette règle si vous créez un cluster standard ou public.

  4. Créez le cluster en suivant les instructions de la section Créer un cluster régional avec un pool de nœuds multizone. Vous pouvez créer le cluster avec le pool de nœuds par défaut uniquement. Vous allez configurer et créer les pools de nœuds Apigee hybrid requis à l'étape suivante.

    Ne passez à l'étape suivante qu'une fois le cluster créé.

  5. Créez deux pools de nœuds en suivant les instructions de la section Ajouter et gérer des pools de nœuds. Veillez à configurer les pools de nœuds avec les exigences minimales répertoriées dans le tableau ci-dessous.

    Configuration minimale d'un pool de nœuds

    Veillez à respecter ces exigences minimales lors de la création des pools de nœuds. Si vous utilisez la console Cloud, veillez à configurer les sections Détails du pool de nœuds et Nœuds.

    Nom du pool de nœuds Description Nombre minimal de nœuds Type de machine
    minimal
    apigee-data Un pool de nœuds avec état utilisé pour la base de données Cassandra. 1 par zone
    (3 par région)
    e2-standard-4
    (4 vCPU, 16 Go de mémoire)
    apigee-runtime Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. 1 par zone
    (3 par région)
    e2-standard-4
    (4 vCPU, 16 Go de mémoire)

    Pour en savoir plus sur la configuration des pools de nœuds, consultez la page Configurer des pools de nœuds dédiés.

  6. (Facultatif) Si vous le souhaitez, vous pouvez supprimer le pool de nœuds default. Consultez la page Supprimer un pool de nœuds.
  7. Assurez-vous que votre cluster est défini comme cluster par défaut pour kubectl. Consultez Définir un cluster par défaut pour les commandes kubectl.
  8. Configurez le disque SSD persistant pour Cassandra. L'utilisation des disques SSD locaux n'est pas prise en charge. Pour plus d'informations, consultez la section Modifier la classe de stockage par défaut dans la documentation de Kubernetes.

    1. Obtenez le nom de la classe StorageClass actuelle par défaut :
      kubectl get sc

      Exemple :

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
    2. Décrivez la StorageClass nommée standard-rwo. Notez que son type est pd-balanced :
      kubectl describe sc standard-rwo

      Exemple :

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
        IsDefaultClass:        Yes
        Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
        Provisioner:           pd.csi.storage.gke.io
        Parameters:            type=pd-balanced
        AllowVolumeExpansion:  True
        MountOptions:          <none>
        ReclaimPolicy:         Delete
        VolumeBindingMode:     WaitForFirstConsumer
        Events:                <none>
    3. Créez un fichier appelé storageclass.yaml.
    4. Ajoutez ce code au fichier. Notez que le nom de la nouvelle classe est apigee-sc. Vous pouvez utiliser n'importe quel nom. Notez également que le type de stockage est pd-ssd :
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
    5. Appliquez la nouvelle StorageClass à votre cluster Kubernetes :
      kubectl apply -f storageclass.yaml
    6. Exécutez les deux commandes suivantes pour modifier la StorageClass par défaut :
      kubectl patch storageclass standard-rwo \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. Exécutez cette commande pour vérifier que la nouvelle StorageClass par défaut est appelée apigee-sc :
      kubectl get sc

      Exemple :

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
  9. Créez les variables d'environnement suivantes. Ces variables sont utilisées dans les commandes gcloud qui suivent.

    Linux/MacOS

    export CLUSTER_NAME="YOUR_CLUSTER_NAME"
    export CLUSTER_LOCATION="YOUR_CLUSTER_LOCATION"

    Windows

    set CLUSTER_NAME="YOUR_CLUSTER_NAME"
    set CLUSTER_LOCATION=YOUR_CLUSTER_LOCATION
    set PROJECT_ID=YOUR_PROJECT_ID

    Où :

    • CLUSTER_NAME : nom de votre cluster.
    • CLUSTER_LOCATION : région dans laquelle vous avez créé votre cluster.
  10. Vérifiez les configurations du pool de nœuds :

    Clusters régionaux

    gcloud container node-pools list \
      --cluster=${CLUSTER_NAME} \
      --region=${CLUSTER_LOCATION} \
      --project=${PROJECT_ID}

    Cluster zonal

    gcloud container node-pools list \
      --cluster=${CLUSTER_NAME} \
      --zone=${CLUSTER_LOCATION} \
      --project=${PROJECT_ID}
  11. Activez Workload Identity sur le cluster. Cette opération peut prendre jusqu'à 30 minutes.

    Clusters régionaux

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --project ${PROJECT_ID} \
      --region ${CLUSTER_LOCATION}

    Cluster zonal

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID}

    Pour en savoir plus, consultez la page Activer Workload Identity.

  12. Obtenez les identifiants gcloud du cluster que vous venez de créer à l'aide de la commande suivante :

    Clusters régionaux

    gcloud container clusters get-credentials ${CLUSTER_NAME} \
      --region ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID}

    Cluster zonal

    gcloud container clusters get-credentials ${CLUSTER_NAME} \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID}
  13. Pour les installations sur GKE, Apigee permet d'utiliser Workload Identity pour se connecter aux services Google Cloud sans utiliser de comptes de service Google, avec des certificats stockés localement. Pour en savoir plus sur Workload Identity, consultez la page Activer Workload Identity avec Apigee hybrid.

    Facultatif : Activez Workload Identity pour chaque pool de nœuds à l'aide des commandes suivantes. Cette opération peut prendre jusqu'à 30 minutes par pool de nœuds.

    Clusters régionaux

    gcloud container node-pools update apigee-data \
      --cluster=$CLUSTER_NAME \
      --region $CLUSTER_LOCATION \
      --project $PROJECT_ID \
      --workload-metadata=GKE_METADATA
    gcloud container node-pools update apigee-runtime \
      --cluster=$CLUSTER_NAME \
      --region $CLUSTER_LOCATION \
      --project $PROJECT_ID \
      --workload-metadata=GKE_METADATA

    Cluster zonal

    gcloud container node-pools update apigee-data \
      --cluster=$CLUSTER_NAME \
      --zone $CLUSTER_LOCATION \
      --project $PROJECT_ID \
      --workload-metadata=GKE_METADATA
    gcloud container node-pools update apigee-runtime \
      --cluster=$CLUSTER_NAME \
      --zone $CLUSTER_LOCATION \
      --project $PROJECT_ID \
      --workload-metadata=GKE_METADATA

Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

GKE On-Prem

Créer un cluster sur GKE On-Prem

Ces étapes expliquent comment configurer et créer un cluster GKE On-Prem pour Apigee hybrid.

  1. Assurez-vous d'utiliser une version d'Anthos sur site ou d'Anthos sur VMWare compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Créez le cluster en suivant les instructions de la section Créer des clusters de base. Vous pouvez créer le cluster avec le pool de nœuds par défaut uniquement. Vous allez configurer et créer les pools de nœuds Apigee hybrid requis à l'étape suivante.

    Ne passez à l'étape suivante qu'une fois le cluster créé.

  4. Créez deux pools de nœuds en suivant les instructions de la page Créer et gérer des pools de nœuds. Configurez les pools de nœuds en respectant les exigences minimales répertoriées dans le tableau ci-dessous.

    Configuration minimale d'un pool de nœuds

    Veillez à respecter ces exigences minimales lors de la création des pools de nœuds.

    Nom du pool de nœuds Description Nombre minimal de nœuds Type de machine
    minimal
    apigee-data Un pool de nœuds avec état utilisé pour la base de données Cassandra. 1 par zone
    (3 par région)
    e2-standard-4
    (4 vCPU, 16 Go de mémoire)
    apigee-runtime Un pool de nœuds sans état utilisé par le processeur de messages d'exécution. 1 par zone
    (3 par région)
    e2-standard-4
    (4 vCPU, 16 Go de mémoire)

    Pour en savoir plus sur la configuration des pools de nœuds, consultez la page Configurer des pools de nœuds dédiés.

  5. (Facultatif) Si vous le souhaitez, vous pouvez supprimer le pool de nœuds default. Consultez la page Supprimer un pool de nœuds.
  6. Configurez le disque SSD persistant pour Cassandra. L'utilisation des disques SSD locaux n'est pas prise en charge. Pour plus d'informations, consultez la section Modifier la classe de stockage par défaut dans la documentation de Kubernetes.

    1. Obtenez le nom de la classe StorageClass actuelle par défaut :
      kubectl get sc

      Exemple :

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
    2. Décrivez la StorageClass nommée standard-rwo. Notez que son type est pd-balanced :
      kubectl describe sc standard-rwo

      Exemple :

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
      IsDefaultClass:        Yes
      Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
      Provisioner:           pd.csi.storage.gke.io
      Parameters:            type=pd-balanced
      AllowVolumeExpansion:  True
      MountOptions:          <none>
      ReclaimPolicy:         Delete
      VolumeBindingMode:     WaitForFirstConsumer
      Events:                <none>
    3. Créez un fichier appelé storageclass.yaml.
    4. Ajoutez ce code au fichier. Notez que le nom de la nouvelle classe est apigee-sc. Vous pouvez utiliser n'importe quel nom. Notez également que le type de stockage est pd-ssd :
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
    5. Appliquez la nouvelle StorageClass à votre cluster Kubernetes :
      kubectl apply -f storageclass.yaml
    6. Exécutez les deux commandes suivantes pour modifier la StorageClass par défaut :
      kubectl patch storageclass standard-rwo \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. Exécutez cette commande pour vérifier que la nouvelle StorageClass par défaut est appelée apigee-sc :
      kubectl get sc

      Exemple :

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h

Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

Anthos sur bare metal

Créer un cluster sur Anthos sur bare metal

Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur Anthos sur bare metal. Les clusters Anthos sur bare metal vous permettent d'exécuter des clusters Kubernetes directement sur vos propres ressources machine.

  1. Assurez-vous d'utiliser une version d'Anthos sur bare metal compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Consultez les pages Présentation des conditions préalables à l'installation et Créer des clusters : présentation.
  4. Créez le cluster avec deux pools de nœuds configurés comme décrit ci-dessous :
    • Suivez les instructions de création du cluster du guide de démarrage rapide des clusters Anthos sur bare metal.
    • Créez au moins deux pools de nœuds : Configurez les pools de nœuds en respectant les exigences minimales répertoriées dans le tableau ci-dessous.

      Les configurations de cluster minimales sont les suivantes :

      Configuration Pool de nœuds avec état Pool de nœuds sans état
      Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution.
      Nom du libellé apigee-data apigee-runtime
      Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région)
      Processeur 4 4
      Mémoire RAM 15 15
      Stockage dynamic Gestion avec le CRD ApigeeDeployment
      IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises.

      Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.

Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

AKS

Créer un cluster sur AKS

Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur AKS.

  1. Assurez-vous d'utiliser une version d'AKS compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Créez le cluster à l'aide de la CLI Azure ou du portail Azure, puis créez deux pools de nœuds comme décrit ci-dessous.

    Les configurations de cluster minimales sont les suivantes :

    Configuration Pool de nœuds avec état Pool de nœuds sans état
    Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution.
    Nom du libellé apigee-data apigee-runtime
    Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région)
    Processeur 4 4
    Mémoire RAM 15 15
    Stockage dynamic Gestion avec le CRD ApigeeDeployment
    IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises.

    Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.

  4. Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

EKS

Créer un cluster sur EKS

Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur EKS.

  1. Assurez-vous d'utiliser une version d'EKS compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Si vous utilisez Kubernetes 1.24 ou une version ultérieure, assurez-vous d'avoir installé le pilote CSI Kubernetes pour Amazon EBS.
  4. Suivez les instructions pour créer un cluster d'utilisateur et deux pools de nœuds, comme décrit ci-dessous.

    Les configurations de cluster minimales sont les suivantes :

    Configuration Pool de nœuds avec état Pool de nœuds sans état
    Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution.
    Nom du libellé apigee-data apigee-runtime
    Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région)
    Processeur 4 4
    Mémoire RAM 15 15
    Stockage dynamic Gestion avec le CRD ApigeeDeployment
    IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises.

    Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.

Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

GKE sur AWS

Créer un cluster sur GKE sur AWS

Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur GKE sur AWS.

  1. Assurez-vous d'utiliser une version de GKE compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Suivez les instructions pour créer un cluster d'utilisateur et deux pools de nœuds, comme décrit ci-dessous.

    Les configurations de cluster minimales sont les suivantes :

    Configuration Pool de nœuds avec état Pool de nœuds sans état
    Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution.
    Nom du libellé apigee-data apigee-runtime
    Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région)
    Processeur 4 4
    Mémoire RAM 15 15
    Stockage dynamic Gestion avec le CRD ApigeeDeployment
    IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises.

    Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.

Une fois le cluster installé et en cours d'exécution, passez à l'étape suivante.

OpenShift

Créer un cluster sur OpenShift

Ces étapes expliquent comment configurer et créer un cluster pour Apigee hybrid sur OpenShift.

  1. Assurez-vous d'utiliser une version d'OpenShift compatible avec la version 1.9.4 d'Apigee hybrid. Consultez Plates-formes et versions compatibles avec Apigee hybrid.
  2. Assurez-vous que les horloges de tous les nœuds et serveurs d'applications sont synchronisées avec le protocole NTP (Network Time Protocol), comme expliqué dans la section Prérequis. La base de données Cassandra s'appuie sur la synchronisation NTP (Network Time Protocol) pour maintenir la cohérence des données. Si vous prévoyez d'installer Apigee hybrid dans plusieurs régions, assurez-vous qu'elles sont toutes synchronisées à l'aide du protocole NTP.
  3. Créez le cluster OpenShift à déployer sur le plan d'exécution, installez Apigee sur votre cluster d'utilisateur OpenShift et créez deux pools de nœuds.

    Dans le cadre de l'installation d'OpenShift, installez et configurez l'outil CLI oc. Consultez la section Premiers pas avec la CLI OpenShift dans la documentation OpenShift.

    Les configurations de cluster minimales sont les suivantes :

    Configuration Pool de nœuds avec état Pool de nœuds sans état
    Objectif Un pool de nœuds avec état utilisé pour la base de données Cassandra. Un pool de nœuds sans état utilisé par le processeur de messages d'exécution.
    Nom du libellé apigee-data apigee-runtime
    Nombre de nœuds 1 par zone (3 par région) 1 par zone (3 par région)
    Processeur 4 4
    Mémoire RAM 15 15
    Stockage dynamic Gestion avec le CRD ApigeeDeployment
    IOPS du disque minimales 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises. 2 000 IOPS avec stockage SAN ou associé directement NFS n'est pas recommandé, même s'il peut accepter les IOPS requises.

    Pour en savoir plus sur la configuration minimale du cluster, consultez la section Configurations de base du cluster.

Une fois le cluster installé, passez à l'étape suivante.

 

1 (SUITE) Étape 2 : Installer cert-manager 3 4 5 6 7 8 9 10