Etapa 1: criar um cluster

Nesta etapa, explicamos como criar o cluster em que você executará a Apigee híbrida. As instruções variam de acordo com a plataforma em que você está executando o híbrido. Antes de começar, leia as seguintes informações:

Crie o cluster

Siga as etapas de acordo com a plataforma selecionada.

GKE

Crie um cluster no GKE

Nestas etapas, explicamos como configurar e criar um cluster do GKE no projeto do Google Cloud.

A Apigee recomenda criar um cluster regional no lugar de um cluster zonal. Se você não estiver familiarizado com a distinção entre regiões e zonas, consulte Regiões e zonas. As regiões disponíveis estão listadas em Regiões e zonas disponíveis. Observe que, por exemplo, us-west1 é um nome de região válido, enquanto us-west1-a é uma zona na região.

  1. Verifique se você está usando uma versão do GKE compatível com a versão híbrida 1.13.0. Consulte Plataformas e versões híbridas compatíveis com a Apigee
  2. Verifique se os relógios de todos os nós e servidores de aplicativos estão sincronizados com o Network Time Protocol (NTP), conforme explicado nos Pré-requisitos. O banco de dados do Cassandra depende da sincronização do Network Time Protocol (NTP) para manter a consistência dos dados. Se você planeja instalar um aplicativo híbrido em várias regiões, verifique se elas estão sincronizadas com o NTP em todas as regiões.
  3. (Somente clusters particulares do GKE), se você estiver criando um cluster particular no GKE, adicione uma regra de firewall para permitir que a porta 9443 se comunique entre os nós mestres do GKE e os nós de trabalho do GKE e permitir que os mestres do GKE acessem os webhooks de modificação da Apigee de dois minutos. Siga o procedimento em Como adicionar regras de firewall para casos de uso específicos na documentação do Google Kubernetes Engine. Para mais informações, consulte Clusters particulares no GKE.

    Você não precisará adicionar essa regra se estiver criando um cluster padrão ou público.

  4. Crie um cluster padrão seguindo as instruções em Criar um cluster regional com um pool de nós de várias zonas. Não há problema em criar o cluster apenas com o pool de nós padrão. Você configurará e criará os pools de nós híbridos da Apigee necessários na próxima etapa.

    Vá para a próxima etapa somente depois que a criação do cluster for concluída.

  5. Crie dois pools de nós seguindo as instruções em Adicionar e gerenciar pools de nós. Configure os pools de nós com os requisitos mínimos listados na tabela abaixo.

    Requisitos mínimos do pool de nós

    Certifique-se de atender a esses requisitos mínimos ao criar os pools de nós. Selecione o valor para Prod ou Non-prod, dependendo da instalação da Apigee híbrida que você está criando. Instalações Non-prod são adequadas para testes e demonstrações, mas não são suficientes para o tráfego de produção. Se você estiver usando o console do Cloud, configure as seções Detalhes do pool de nós e Nós.

    Nome do pool de nós Descrição Mínimo de nós Tipo de máquina
    mínimo
    de produção
    Tipo de máquina
    mínimo
    de não produção
    apigee-data Um pool de nós com estado usado para o banco de dados do Cassandra. 1 por zona
    (3 por região)
    e2-standard-8
    (8 vCPUs, 32 GB de memória)
    e2-standard-4
    (4 vCPUs, 16 GB de memória)
    apigee-runtime Um pool de nós sem estado usado pelo processador de mensagens do ambiente de execução. 1 por zona
    (3 por região)
    e2-standard-8
    (8 vCPUs, 32 GB de memória)
    e2-standard-4
    (4 vCPUs, 16 GB de memória)

    Para mais detalhes sobre a configuração do pool de nós, consulte Configurar pools de nós dedicados.

  6. (Opcional) Se quiser, exclua o pool de nós default. Consulte Excluir um pool de nós.
  7. Se ainda não tiver feito isso, crie as variáveis de ambiente a seguir. Essas variáveis são usadas nos seguintes comandos do gcloud.

    Linux / MacOS

    export CLUSTER_NAME="YOUR_CLUSTER_NAME"
    export CLUSTER_LOCATION="YOUR_CLUSTER_LOCATION"
    export PROJECT_ID="YOUR_PROJECT_ID"

    Windows

    set CLUSTER_NAME="YOUR_CLUSTER_NAME"
    set CLUSTER_LOCATION=YOUR_CLUSTER_LOCATION
    set PROJECT_ID=YOUR_PROJECT_ID

    Em que:

    • CLUSTER_NAME: o nome do cluster.
    • CLUSTER_LOCATION: a região em que o cluster foi criado.
    • PROJECT_ID: o ID do projeto do Google Cloud.
  8. Verifique as configurações do pool de nós:

    Clusters regionais

    gcloud container node-pools list \
    --cluster=${CLUSTER_NAME} \
    --region=${CLUSTER_LOCATION} \
    --project=${PROJECT_ID}

    Clusters zonais

    gcloud container node-pools list \
    --cluster=${CLUSTER_NAME} \
    --zone=${CLUSTER_LOCATION} \
    --project=${PROJECT_ID}
  9. Para verificar se o cluster está definido como o padrão para kubectl, acesse o

    Credenciais gcloud do cluster que você acabou de criar:

    Clusters regionais

      gcloud container clusters get-credentials ${CLUSTER_NAME} \
        --region ${CLUSTER_LOCATION} \
        --project ${PROJECT_ID}

    Clusters zonais

      gcloud container clusters get-credentials ${CLUSTER_NAME} \
        --zone ${CLUSTER_LOCATION} \
        --project ${PROJECT_ID}

    Consulte Definir um cluster padrão para os comandos do kubectl.

  10. Configurar o armazenamento de disco de estado sólido (SSD) permanente para o Cassandra. Não é possível usar SSDs locais. Para mais informações, consulte Alterar a classe de armazenamento padrão na documentação do Kubernetes.

    1. Consiga o nome da StorageClass padrão atual:
      kubectl get sc

      Exemplo:

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
      
    2. Descreva a StorageClass chamada standard-rwo. Observe que o tipo dela é pd-balanced:
      kubectl describe sc standard-rwo

      Por exemplo:

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
        IsDefaultClass:        Yes
        Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
        Provisioner:           pd.csi.storage.gke.io
        Parameters:            type=pd-balanced
        AllowVolumeExpansion:  True
        MountOptions:          <none>
        ReclaimPolicy:         Delete
        VolumeBindingMode:     WaitForFirstConsumer
        Events:                <none>
    3. Crie um novo arquivo chamado storageclass.yaml.
    4. Adicione este código ao arquivo. Observe que o nome da nova classe de armazenamento é apigee-sc. Use o nome que preferir. Além disso, o tipo de armazenamento é pd-ssd:
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
      
    5. Aplique a nova StorageClass ao cluster do Kubernetes:
      kubectl apply -f storageclass.yaml
    6. Execute os dois comandos a seguir para alterar a StorageClass padrão:
      kubectl patch storageclass standard-rwo \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. Execute este comando para verificar se a nova StorageClass padrão é chamada apigee-sc:
      kubectl get sc

      Exemplo:

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
      
  11. Ative a identidade da carga de trabalho para o cluster. A Identidade da carga de trabalho permite que as cargas de trabalho nos clusters do GKE representem contas de serviço de gerenciamento de identidade e acesso (IAM) para acessar serviços do Google Cloud. Esta operação pode levar até 30 minutos:

    Clusters regionais

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --project ${PROJECT_ID} \
      --region ${CLUSTER_LOCATION}

    Clusters zonais

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID}
  12. Verifique se a Identidade da carga de trabalho foi ativada com o seguinte comando:

    Clusters regionais

    gcloud container clusters describe ${CLUSTER_NAME} \
      --project ${PROJECT_ID} \
      --region ${CLUSTER_LOCATION} | grep -i "workload"

    Clusters zonais

    gcloud container clusters describe ${CLUSTER_NAME} \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID} | grep -i "workload"

Quando tiver um cluster instalado e em execução, vá para a próxima etapa.

Google Distributed Cloud no VMware

Criar um cluster no VMware

Estas etapas explicam como configurar e criar um cluster do GKE para a Apigee híbrida como parte de uma implantação do Google Distributed Cloud (somente software) no VMware.

  1. Verifique se você está usando uma versão do Google Distributed Cloud compatível com a versão híbrida 1.13.0. Consulte Plataformas e versões híbridas compatíveis com a Apigee
  2. Verifique se os relógios de todos os nós e servidores de aplicativos estão sincronizados com o Network Time Protocol (NTP), conforme explicado nos Pré-requisitos. O banco de dados do Cassandra depende da sincronização do Network Time Protocol (NTP) para manter a consistência dos dados. Se você planeja instalar um aplicativo híbrido em várias regiões, verifique se ele está sincronizado com o NTP em todas as regiões.
  3. Crie o cluster seguindo as instruções em Criar clusters básicos. Não há problema em criar o cluster apenas com o pool de nós padrão. Você configurará e criará os pools de nós híbridos da Apigee necessários na próxima etapa.

    Vá para a próxima etapa somente depois que a criação do cluster for concluída.

  4. Crie dois pools de nós seguindo as instruções em Como criar e gerenciar pools de nós. Configure os pools de nós com os requisitos mínimos listados na tabela abaixo.

    Requisitos mínimos do pool de nós

    Certifique-se de atender a esses requisitos mínimos ao criar os pools de nós. Selecione os valores para Prod ou Non-prod, dependendo da instalação da Apigee híbrida que você está criando. Instalações Non-prod são adequadas para testes e demonstrações, mas não são suficientes para o tráfego de produção.

    Nome do pool de nós Descrição Mínimo de nós Tipo de máquina
    mínimo
    de produção
    Tipo de máquina
    mínimo
    de não produção
    apigee-data Um pool de nós com estado usado para o banco de dados do Cassandra. 1 por zona
    (3 por região)
    e2-standard-8
    (8 vCPUs, 16 GB de memória)
    e2-standard-4
    (4 vCPUs, 16 GB de memória)
    apigee-runtime Um pool de nós sem estado usado pelo processador de mensagens do ambiente de execução. 1 por zona
    (3 por região)
    e2-standard-8
    (8 vCPUs, 16 GB de memória)
    e2-standard-4
    (4 vCPUs, 16 GB de memória)

    Para mais detalhes sobre a configuração do pool de nós, consulte Configurar pools de nós dedicados.

  5. (Opcional) Se quiser, exclua o pool de nós default. Consulte Excluir um pool de nós.
  6. Configurar o armazenamento de disco de estado sólido (SSD) permanente para o Cassandra. Não é possível usar SSDs locais. Para mais informações, consulte Alterar a classe de armazenamento padrão na documentação do Kubernetes.

    1. Consiga o nome da StorageClass padrão atual:
      kubectl get sc

      Exemplo:

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
      
    2. Descreva a StorageClass chamada standard-rwo. Observe que o tipo dela é pd-balanced:
      kubectl describe sc standard-rwo

      Exemplo:

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
      IsDefaultClass:        Yes
      Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
      Provisioner:           pd.csi.storage.gke.io
      Parameters:            type=pd-balanced
      AllowVolumeExpansion:  True
      MountOptions:          <none>
      ReclaimPolicy:         Delete
      VolumeBindingMode:     WaitForFirstConsumer
      Events:                <none>
    3. Crie um novo arquivo chamado storageclass.yaml.
    4. Adicione este código ao arquivo. O nome da nova classe de armazenamento é apigee-sc. Use o nome que preferir. Além disso, o tipo de armazenamento é pd-ssd:
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
      
    5. Aplique a nova StorageClass ao cluster do Kubernetes:
      kubectl apply -f storageclass.yaml
    6. Execute os dois comandos a seguir para alterar a StorageClass padrão:
      kubectl patch storageclass standard-rwo \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. Execute este comando para verificar se a nova StorageClass padrão é chamada apigee-sc:
      kubectl get sc

      Exemplo:

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
      

Quando tiver um cluster instalado e em execução, vá para a próxima etapa.

Google Distributed Cloud em bare metal

Criar um cluster em bare metal

Estas etapas explicam como configurar e criar um cluster do GKE para a Apigee híbrida como parte de uma implantação somente de software do Google Distributed Cloud em bare metal. O Google Distributed Cloud em bare metal permite executar clusters do Kubernetes diretamente na sua própria máquina do Google Cloud.

  1. Verifique se você está usando uma versão do Google Distributed Cloud compatível com a versão híbrida 1.13.0. Consulte Plataformas e versões híbridas compatíveis com a Apigee
  2. Verifique se os relógios de todos os nós e servidores de aplicativos estão sincronizados com o Network Time Protocol (NTP), conforme explicado nos Pré-requisitos. O banco de dados do Cassandra depende da sincronização do Network Time Protocol (NTP) para manter a consistência dos dados. Se você planeja instalar um aplicativo híbrido em várias regiões, verifique se elas estão sincronizadas com o NTP em todas as regiões.
  3. Consulte a Visão geral dos pré-requisitos de instalação e Como criar clusters: visão geral.
  4. Crie o cluster com dois pools de nós configurados conforme descrito abaixo:
    • Siga as instruções em Criar clusters básicos.
    • Crie no mínimo dois pools de nós. Configure os pools de nós com os requisitos mínimos listados na tabela abaixo.

      As configurações mínimas do cluster são:

      Configuração Pool de nós com estado Pool de nós sem estado
      Finalidade Um pool de nós com estado usado para o banco de dados do Cassandra. Um pool de nós sem estado usado pelo processador de mensagens do ambiente de execução.
      Nome do rótulo apigee-data apigee-runtime
      Número de nós 1 por zona (3 por região) 1 por zona (3 por região)
      CPU 8 (produção)
      4 (não produção)
      8 (produção)
      4 (não produção)
      RAM 32 (produção)
      16 (não produção)
      32 (produção)
      16 (não produção)
      Armazenamento dynamic Gerenciada com o CRD ApigeeDeployment
      IOPS mínimas do disco 2.000 IOPS com SAN ou armazenamento anexado diretamente. O NFS não é recomendado, mesmo que seja compatível com as IOPS necessárias. 2.000 IOPS com SAN ou armazenamento anexado diretamente. O NFS não é recomendado, mesmo que seja compatível com as IOPS necessárias.
      Largura de banda da rede para cada tipo de instância de máquina 1 Gbps 1 Gbps

      Para mais detalhes sobre a configuração mínima do cluster, consulte: Configurações mínimas do cluster

Quando tiver um cluster instalado e em execução, vá para a próxima etapa.

AKS

Criar um cluster no AKS

Estas etapas explicam como configurar e criar um cluster para a Apigee híbrida no AKS.

  1. Verifique se você está usando uma versão do AKS compatível com a versão híbrida 1.13.0. Consulte Plataformas e versões híbridas compatíveis com a Apigee
  2. Verifique se os relógios de todos os nós e servidores de aplicativos estão sincronizados com o Network Time Protocol (NTP), conforme explicado nos Pré-requisitos. O banco de dados do Cassandra depende da sincronização do Network Time Protocol (NTP) para manter a consistência dos dados. Se você planeja instalar um aplicativo híbrido em várias regiões, verifique se ele está sincronizado com o NTP em todas as regiões.
  3. Crie o cluster usando a CLI do Azure ou o Portal do Azure e crie dois pools de nós, conforme descrito abaixo.

    As configurações mínimas do cluster são:

    Configuração Pool de nós com estado Pool de nós sem estado
    Finalidade Um pool de nós com estado usado para o banco de dados do Cassandra. Um pool de nós sem estado usado pelo processador de mensagens do ambiente de execução.
    Nome do rótulo apigee-data apigee-runtime
    Número de nós 1 por zona (3 por região) 1 por zona (3 por região)
    CPU 8 (produção)
    4 (não produção)
    8 (produção)
    4 (não produção)
    RAM 32 (produção)
    16 (não produção)
    32 (produção)
    16 (não produção)
    Armazenamento dynamic Gerenciada com o CRD ApigeeDeployment
    IOPS mínimas do disco 2.000 IOPS com SAN ou armazenamento anexado diretamente. O NFS não é recomendado, mesmo que seja compatível com as IOPS necessárias. 2.000 IOPS com SAN ou armazenamento anexado diretamente. O NFS não é recomendado, mesmo que seja compatível com as IOPS necessárias.
    Largura de banda da rede para cada tipo de instância de máquina 1 Gbps 1 Gbps

    Para mais detalhes sobre a configuração mínima do cluster, consulte: Configurações mínimas do cluster

  4. Quando tiver um cluster instalado e em execução, vá para a próxima etapa.

EKS

Criar um cluster no EKS

Estas etapas explicam como configurar e criar um cluster para a Apigee híbrida no EKS.

  1. Verifique se você está usando uma versão do EKS compatível com a versão híbrida 1.13.0. Consulte Plataformas e versões híbridas compatíveis com a Apigee
  2. Verifique se os relógios de todos os nós e servidores de aplicativos estão sincronizados com o Network Time Protocol (NTP), conforme explicado nos Pré-requisitos. O banco de dados do Cassandra depende da sincronização do Network Time Protocol (NTP) para manter a consistência dos dados. Se você planeja instalar um aplicativo híbrido em várias regiões, verifique se elas estão sincronizadas com o NTP em todas as regiões.
  3. Se você estiver usando o Kubernetes versão 1.24 ou mais recente, verifique se instalou o driver CSI do Kubernetes para Amazon EBS.
  4. Use as instruções a seguir para criar um cluster de usuário e dois pools de nós, conforme descrito abaixo.

    As configurações mínimas do cluster são:

    Configuração Pool de nós com estado Pool de nós sem estado
    Finalidade Um pool de nós com estado usado para o banco de dados do Cassandra. Um pool de nós sem estado usado pelo processador de mensagens do ambiente de execução.
    Nome do rótulo apigee-data apigee-runtime
    Número de nós 1 por zona (3 por região) 1 por zona (3 por região)
    CPU 8 (produção)
    4 (não produção)
    8 (produção)
    4 (não produção)
    RAM 32 (produção)
    16 (não produção)
    32 (produção)
    16 (não produção)
    Armazenamento dynamic Gerenciada com o CRD ApigeeDeployment
    IOPS mínimas do disco 2.000 IOPS com SAN ou armazenamento anexado diretamente. O NFS não é recomendado, mesmo que seja compatível com as IOPS necessárias. 2.000 IOPS com SAN ou armazenamento anexado diretamente. O NFS não é recomendado, mesmo que seja compatível com as IOPS necessárias.
    Largura de banda da rede para cada tipo de instância de máquina 1 Gbps 1 Gbps

    Para mais detalhes sobre a configuração mínima do cluster, consulte: Configurações mínimas do cluster

Quando tiver um cluster instalado e em execução, vá para a próxima etapa.

GKE na AWS

Criar um cluster no GKE na AWS

Estas etapas explicam como configurar e criar um cluster para a Apigee híbrida no GKE na AWS.

  1. Verifique se você está usando uma versão do GKE na AWS compatível com a versão híbrida 1.13.0. Consulte Plataformas e versões híbridas compatíveis com a Apigee
  2. Verifique se os relógios de todos os nós e servidores de aplicativos estão sincronizados com o Network Time Protocol (NTP), conforme explicado nos Pré-requisitos. O banco de dados do Cassandra depende da sincronização do Network Time Protocol (NTP) para manter a consistência dos dados. Se você planeja instalar um aplicativo híbrido em várias regiões, verifique se elas estão sincronizadas com o NTP em todas as regiões.
  3. Use as instruções a seguir para criar um cluster de usuário e dois pools de nós, conforme descrito abaixo.

    As configurações mínimas do cluster são:

    Configuração Pool de nós com estado Pool de nós sem estado
    Finalidade Um pool de nós com estado usado para o banco de dados do Cassandra. Um pool de nós sem estado usado pelo processador de mensagens do ambiente de execução.
    Nome do rótulo apigee-data apigee-runtime
    Número de nós 1 por zona (3 por região) 1 por zona (3 por região)
    CPU 8 (produção)
    4 (não produção)
    8 (produção)
    4 (não produção)
    RAM 32 (produção)
    16 (não produção)
    32 (produção)
    16 (não produção)
    Armazenamento dynamic Gerenciada com o CRD ApigeeDeployment
    IOPS mínimas do disco 2.000 IOPS com SAN ou armazenamento anexado diretamente. O NFS não é recomendado, mesmo que seja compatível com as IOPS necessárias. 2.000 IOPS com SAN ou armazenamento anexado diretamente. O NFS não é recomendado, mesmo que seja compatível com as IOPS necessárias.
    Largura de banda da rede para cada tipo de instância de máquina 1 Gbps 1 Gbps

    Para mais detalhes sobre a configuração mínima do cluster, consulte: Configurações mínimas do cluster

Quando tiver um cluster instalado e em execução, vá para a próxima etapa.

OpenShift

Criar um cluster no OpenShift

Estas etapas explicam como configurar e criar um cluster para a Apigee híbrida no OpenShift.

  1. Verifique se você está usando uma versão do OpenShift compatível com a versão híbrida 1.13.0. Consulte Plataformas e versões híbridas compatíveis com a Apigee
  2. Verifique se os relógios de todos os nós e servidores de aplicativos estão sincronizados com o Network Time Protocol (NTP), conforme explicado nos Pré-requisitos. O banco de dados do Cassandra depende da sincronização do Network Time Protocol (NTP) para manter a consistência dos dados. Se você planeja instalar um aplicativo híbrido em várias regiões, verifique se elas estão sincronizadas com o NTP em todas as regiões.
  3. Crie o cluster do OpenShift para implantar no plano do ambiente de execução, instale a Apigee no cluster de usuário do OpenShift e crie dois pools de nós.

    Como parte da instalação do OpenShift, instale e configure a ferramenta da CLI oc. Consulte Primeiros passos com a CLI do OpenShift na documentação do OpenShift.

    As configurações mínimas do cluster são:

    Configuração Pool de nós com estado Pool de nós sem estado
    Finalidade Um pool de nós com estado usado para o banco de dados do Cassandra. Um pool de nós sem estado usado pelo processador de mensagens do ambiente de execução.
    Nome do rótulo apigee-data apigee-runtime
    Número de nós 1 por zona (3 por região) 1 por zona (3 por região)
    CPU 8 (produção)
    4 (não produção)
    8 (produção)
    4 (não produção)
    RAM 32 (produção)
    16 (não produção)
    32 (produção)
    16 (não produção)
    Armazenamento dynamic Gerenciada com o CRD ApigeeDeployment
    IOPS mínimas do disco 2.000 IOPS com SAN ou armazenamento anexado diretamente. O NFS não é recomendado, mesmo que seja compatível com as IOPS necessárias. 2.000 IOPS com SAN ou armazenamento anexado diretamente. O NFS não é recomendado, mesmo que seja compatível com as IOPS necessárias.
    Largura de banda da rede para cada tipo de instância de máquina 1 Gbps 1 Gbps

    Para mais detalhes sobre a configuração mínima do cluster, consulte: Configurações mínimas do cluster

Depois de instalar um cluster, acesse a próxima etapa.

 

Próxima etapa

1 (PRÓXIMA) Etapa 2: faça o download dos gráficos do Helm 3 4 5 6 7 8 9 10 11