1단계: 클러스터 만들기

이 단계에서는 Apigee Hybrid를 실행할 클러스터를 만드는 방법을 설명합니다. 이 안내는 하이브리드를 실행하는 플랫폼에 따라 다릅니다. 시작하기 전에 다음 정보를 검토하세요.

클러스터 만들기

선택한 플랫폼의 단계를 따르세요.

GKE

GKE에서 클러스터 만들기

이 단계에서는 Google Cloud 프로젝트에서 GKE 클러스터를 구성하고 만드는 방법을 설명합니다.

Apigee에서는 영역 클러스터 대신 리전 클러스터를 만드는 것이 좋습니다. 리전과 영역 간의 차이에 익숙하지 않으면 리전 및 영역을 참조하세요. 사용 가능한 리전은 사용 가능한 리전 및 영역에 나열되어 있습니다. 예를 들어 us-west1이 유효한 리전 이름이고, us-west1-a는 이 리전에 있는 영역입니다.

  1. Hybrid 버전 1.12.3에 지원되는 GKE 버전을 사용하고 있는지 확인합니다. Apigee Hybrid 지원 플랫폼 및 버전을 참조하세요.
  2. 기본 요건에 설명된 대로 모든 노드 및 애플리케이션 서버의 시계가 네트워크 시간 프로토콜(NTP)과 동기화되어 있는지 확인합니다. Cassandra 데이터베이스는 데이터 일관성을 유지 관리하기 위해 네트워크 시간 프로토콜(NTP) 동기화에 의존합니다. 여러 리전에 하이브리드를 설치하려는 경우 모든 리전에서 NTP와 동기화되어 있는지 확인합니다.
  3. (GKE 비공개 클러스터만 해당) GKE에서 비공개 클러스터를 만드는 경우 GKE 마스터 노드와 GKE 워커 노드 간의 통신에 포트 9443을 허용하고 GKE 마스터에서 Apigee 변형 웹훅에 액세스할 수 있도록 방화벽 규칙을 추가합니다. Google Kubernetes Engine 문서의 특정 사용 사례에 대한 방화벽 규칙 추가 절차를 따릅니다. 자세한 내용은 GKE의 비공개 클러스터를 참조하세요.

    표준 또는 공개 클러스터를 만드는 경우 이 규칙을 추가할 필요가 없습니다.

  4. 멀티 영역 노드 풀로 리전 클러스터 만들기의 안내에 따라 표준 클러스터를 만드세요. 기본 노드 풀로만 클러스터를 만들어도 좋습니다. 다음 단계에서 필요한 Apigee Hybrid 노드 풀을 구성하고 만듭니다.

    클러스터 만들기가 성공적으로 완료된 후에만 다음 단계로 이동합니다.

  5. 노드 풀 추가 및 관리의 안내를 따라 2개의 노드 풀을 만듭니다. 아래 표에 나열된 최소 요구사항에 따라 노드 풀을 구성해야 합니다.

    최소 노드 풀 요구사항

    노드 풀을 만들 때 이러한 최소 요구사항을 충족해야 합니다. 빌드 중인 Apigee Hybrid 설치에 따라 프로덕션 또는 비프로덕션 값을 선택해야 합니다. 비프로덕션 설치는 테스트 및 데모에 적합하지만 프로덕션 트래픽으로는 충분하지 않습니다. Cloud 콘솔을 사용하는 경우 노드 풀 세부정보노드 섹션을 모두 구성해야 합니다.

    노드 풀 이름 설명 최소 노드 프로덕션
    최소
    머신 유형
    비프로덕션
    최소
    머신 유형
    apigee-data Cassandra 데이터베이스의 스테이트풀(Stateful) 노드 풀 영역당 1개
    (리전당 3개)
    e2-standard-8
    (vCPU 8개, 32GB 메모리)
    e2-standard-4
    (vCPU 4개, 16GB 메모리)
    apigee-runtime 런타임 메시지 프로세서에 사용되는 스테이트리스(Stateless) 노드 풀 영역당 1개
    (리전당 3개)
    e2-standard-8
    (vCPU 8개, 32GB 메모리)
    e2-standard-4
    (vCPU 4개, 16GB 메모리)

    노드 풀 구성에 대한 자세한 내용은 전용 노드 풀 구성을 참조하세요.

  6. (선택사항) 원하는 경우 default 노드 풀을 삭제할 수 있습니다. 노드 풀 삭제를 참조하세요.
  7. 아직 다음 환경 변수를 만들지 않았으면 만듭니다. 이러한 변수는 다음 gcloud 명령어에 사용됩니다.

    Linux/macOS

    export CLUSTER_NAME="YOUR_CLUSTER_NAME"
    export CLUSTER_LOCATION="YOUR_CLUSTER_LOCATION"
    export PROJECT_ID="YOUR_PROJECT_ID"

    Windows

    set CLUSTER_NAME="YOUR_CLUSTER_NAME"
    set CLUSTER_LOCATION=YOUR_CLUSTER_LOCATION
    set PROJECT_ID=YOUR_PROJECT_ID

    각 항목의 의미는 다음과 같습니다.

    • CLUSTER_NAME: 클러스터 이름입니다.
    • CLUSTER_LOCATION: 클러스터를 만든 리전입니다.
    • PROJECT_ID: Google Cloud 프로젝트 ID입니다.
  8. 노드 풀 구성을 확인하세요.

    리전 클러스터

    gcloud container node-pools list \
    --cluster=${CLUSTER_NAME} \
    --region=${CLUSTER_LOCATION} \
    --project=${PROJECT_ID}

    영역 클러스터

    gcloud container node-pools list \
    --cluster=${CLUSTER_NAME} \
    --zone=${CLUSTER_LOCATION} \
    --project=${PROJECT_ID}
  9. 클러스터가 kubectl의 기본 클러스터로 설정되었는지

    방금 만든 클러스터의 gcloud 사용자 인증 정보를 가져와 확인하세요.

    리전 클러스터

      gcloud container clusters get-credentials ${CLUSTER_NAME} \
        --region ${CLUSTER_LOCATION} \
        --project ${PROJECT_ID}

    영역 클러스터

      gcloud container clusters get-credentials ${CLUSTER_NAME} \
        --zone ${CLUSTER_LOCATION} \
        --project ${PROJECT_ID}

    kubectl 명령어의 기본 클러스터 설정을 참조하세요.

  10. Cassandra용으로 영구 솔리드 스테이트 디스크(SSD) 스토리지를 구성합니다. 로컬 SSD 사용은 지원되지 않습니다. 자세한 내용은 Kubernetes 문서의 기본 스토리지 클래스 변경을 참조하세요.

    1. 현재 기본 StorageClass의 이름을 가져옵니다.
      kubectl get sc

      예를 들면 다음과 같습니다.

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
    2. standard-rwo라는 StorageClass를 설명합니다. 유형은 pd-balanced입니다.
      kubectl describe sc standard-rwo

      예를 들면 다음과 같습니다.

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
        IsDefaultClass:        Yes
        Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
        Provisioner:           pd.csi.storage.gke.io
        Parameters:            type=pd-balanced
        AllowVolumeExpansion:  True
        MountOptions:          <none>
        ReclaimPolicy:         Delete
        VolumeBindingMode:     WaitForFirstConsumer
        Events:                <none>
    3. storageclass.yaml라는 새 파일을 만듭니다.
    4. 이 코드를 파일에 추가합니다. 새 스토리지 클래스 이름은 apigee-sc입니다. 원하는 이름을 사용할 수 있습니다. 또한 스토리지 유형은 pd-ssd입니다.
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
    5. 새 StorageClass를 Kubernetes 클러스터에 적용합니다.
      kubectl apply -f storageclass.yaml
    6. 다음 두 명령어를 실행하여 기본 StorageClass를 변경합니다.
      kubectl patch storageclass standard-rwo \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
      -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. 다음 명령어를 실행하여 새 기본 StorageClass를 apigee-sc라고 하는지 확인합니다.
      kubectl get sc

      예를 들면 다음과 같습니다.

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
  11. 클러스터에 워크로드 아이덴티티를 사용 설정합니다. 워크로드 아이덴티티를 사용 설정하면 GKE 클러스터의 워크로드가 Google Cloud 서비스에 액세스하기 위해 Identity and Access Management(IAM) 서비스 계정을 가장할 수 있습니다. 이 작업은 최대 30분이 걸릴 수 있습니다.

    리전 클러스터

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --project ${PROJECT_ID} \
      --region ${CLUSTER_LOCATION}

    영역 클러스터

    gcloud container clusters update ${CLUSTER_NAME} \
      --workload-pool=${PROJECT_ID}.svc.id.goog \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID}
  12. 다음 명령어를 사용하여 워크로드 아이덴티티가 성공적으로 사용 설정되었는지 확인합니다.

    리전 클러스터

    gcloud container clusters describe ${CLUSTER_NAME} \
      --project ${PROJECT_ID} \
      --region ${CLUSTER_LOCATION} | grep -i "workload"

    영역 클러스터

    gcloud container clusters describe ${CLUSTER_NAME} \
      --zone ${CLUSTER_LOCATION} \
      --project ${PROJECT_ID} | grep -i "workload"

클러스터를 설치하여 실행 중이면 다음 단계로 이동합니다.

VMware용 Google Distributed Cloud

VMware용 클러스터 만들기

다음 단계에서는 소프트웨어 전용 VMware용 Google Distributed Cloud 배포의 일부로 Apigee Hybrid용 GKE 클러스터를 구성하고 만드는 방법을 설명합니다.

  1. Hybrid 버전 1.12.3에 지원되는 Google Distributed Cloud 버전을 사용하고 있는지 확인합니다. Apigee Hybrid 지원 플랫폼 및 버전을 참조하세요.
  2. 기본 요건에 설명된 대로 모든 노드 및 애플리케이션 서버의 시계가 네트워크 시간 프로토콜(NTP)과 동기화되어 있는지 확인합니다. Cassandra 데이터베이스는 데이터 일관성을 유지 관리하기 위해 네트워크 시간 프로토콜(NTP) 동기화에 의존합니다. 여러 리전에 하이브리드를 설치하려는 경우 모든 리전에서 NTP와 동기화되어 있는지 확인합니다.
  3. 기본 클러스터 만들기의 안내에 따라 클러스터를 만듭니다. 기본 노드 풀로만 클러스터를 만들어도 좋습니다. 다음 단계에서 필요한 Apigee Hybrid 노드 풀을 구성하고 만듭니다.

    클러스터 만들기가 성공적으로 완료된 후에만 다음 단계로 이동합니다.

  4. 노드 풀 만들기 및 관리의 안내에 따라 2개의 노드 풀을 만듭니다. 아래 표에 나열된 최소 요구사항에 따라 노드 풀을 구성합니다.

    최소 노드 풀 요구사항

    노드 풀을 만들 때 이러한 최소 요구사항을 충족해야 합니다. 빌드 중인 Apigee Hybrid 설치에 따라 프로덕션 또는 비프로덕션 값을 선택합니다. 비프로덕션 설치는 테스트 및 데모에 적합하지만 프로덕션 트래픽으로는 충분하지 않습니다.

    노드 풀 이름 설명 최소 노드 프로덕션
    최소
    머신 유형
    비프로덕션
    최소
    머신 유형
    apigee-data Cassandra 데이터베이스의 스테이트풀(Stateful) 노드 풀 영역당 1개
    (리전당 3개)
    e2-standard-8
    (vCPU 8개, 16GB 메모리)
    e2-standard-4
    (vCPU 4개, 16GB 메모리)
    apigee-runtime 런타임 메시지 프로세서에 사용되는 스테이트리스(Stateless) 노드 풀 영역당 1개
    (리전당 3개)
    e2-standard-8
    (vCPU 8개, 16GB 메모리)
    e2-standard-4
    (vCPU 4개, 16GB 메모리)

    노드 풀 구성에 대한 자세한 내용은 전용 노드 풀 구성을 참조하세요.

  5. (선택사항) 원하는 경우 default 노드 풀을 삭제할 수 있습니다. 노드 풀 삭제를 참조하세요.
  6. Cassandra용으로 영구 솔리드 스테이트 디스크(SSD) 스토리지를 구성합니다. 로컬 SSD 사용은 지원되지 않습니다. 자세한 내용은 Kubernetes 문서의 기본 스토리지 클래스 변경을 참조하세요.

    1. 현재 기본 StorageClass의 이름을 가져옵니다.
      kubectl get sc

      예:

      kubectl get sc
        NAME                    PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        premium-rwo             pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard                kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo (default)  pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
    2. standard-rwo라는 StorageClass를 설명합니다. 유형은 pd-balanced입니다.
      kubectl describe sc standard-rwo

      예:

      kubectl describe sc standard-rwo
      Name:                  standard-rwo
      IsDefaultClass:        Yes
      Annotations:           components.gke.io/layer=addon,storageclass.kubernetes.io/is-default-class=false
      Provisioner:           pd.csi.storage.gke.io
      Parameters:            type=pd-balanced
      AllowVolumeExpansion:  True
      MountOptions:          <none>
      ReclaimPolicy:         Delete
      VolumeBindingMode:     WaitForFirstConsumer
      Events:                <none>
    3. storageclass.yaml라는 새 파일을 만듭니다.
    4. 이 코드를 파일에 추가합니다. 새 스토리지 클래스 이름은 apigee-sc입니다. 원하는 이름을 사용할 수 있습니다. 또한 스토리지 유형은 pd-ssd입니다.
      ---
      kind: StorageClass
      apiVersion: storage.k8s.io/v1
      metadata:
        name: "apigee-sc"
      provisioner: kubernetes.io/gce-pd
      parameters:
        type: pd-ssd
        replication-type: none
      volumeBindingMode: WaitForFirstConsumer
      allowVolumeExpansion: true
    5. 새 StorageClass를 Kubernetes 클러스터에 적용합니다.
      kubectl apply -f storageclass.yaml
    6. 다음 두 명령어를 실행하여 기본 StorageClass를 변경합니다.
      kubectl patch storageclass standard-rwo \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"false"}}}'
      kubectl patch storageclass apigee-sc \
        -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'
    7. 다음 명령어를 실행하여 새 기본 StorageClass를 apigee-sc라고 하는지 확인합니다.
      kubectl get sc

      예:

      kubectl get sc
        NAME                  PROVISIONER             RECLAIMPOLICY   VOLUMEBINDINGMODE      ALLOWVOLUMEEXPANSION   AGE
        apigee-sc (default)   kubernetes.io/gce-pd    Delete          WaitForFirstConsumer   true                   14h
        premium-rwo           pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h
        standard              kubernetes.io/gce-pd    Delete          Immediate              true                   15h
        standard-rwo          pd.csi.storage.gke.io   Delete          WaitForFirstConsumer   true                   15h

클러스터를 설치하여 실행 중이면 다음 단계로 이동합니다.

베어메탈용 Google Distributed Cloud

베어메탈용 클러스터 만들기

다음 단계에서는 베어메탈용 Google Distributed Cloud의 소프트웨어 전용 배포의 일부로 Apigee Hybrid용 GKE 클러스터를 구성하고 만드는 방법을 설명합니다. 베어메탈용 Google Distributed Cloud를 사용하면 자체 머신 리소스에서 Kubernetes 클러스터를 직접 실행할 수 있습니다.

  1. Hybrid 버전 1.12.3에 지원되는 Google Distributed Cloud 버전을 사용하고 있는지 확인합니다. Apigee Hybrid 지원 플랫폼 및 버전을 참조하세요.
  2. 기본 요건에 설명된 대로 모든 노드 및 애플리케이션 서버의 시계가 네트워크 시간 프로토콜(NTP)과 동기화되어 있는지 확인합니다. Cassandra 데이터베이스는 데이터 일관성을 유지 관리하기 위해 네트워크 시간 프로토콜(NTP) 동기화에 의존합니다. 여러 리전에 하이브리드를 설치하려는 경우 모든 리전에서 NTP와 동기화되어 있는지 확인합니다.
  3. 설치 기본 요건 개요클러스터 만들기: 개요를 검토합니다.
  4. 아래에 설명된 대로 2개의 노드 풀이 구성된 클러스터를 만듭니다.
    • 기본 클러스터 만들기의 클러스터 만들기 안내를 따릅니다.
    • 노드 풀을 최소 2개 이상 만듭니다. 아래 표에 나열된 최소 요구사항에 따라 노드 풀을 구성합니다.

      클러스터의 최소 구성은 다음과 같습니다.

      구성 스테이트풀(Stateful) 노드 풀 스테이트리스(Stateless) 노드 풀
      목적 Cassandra 데이터베이스의 스테이트풀(Stateful) 노드 풀 런타임 메시지 프로세서에 사용되는 스테이트리스(Stateless) 노드 풀
      라벨 이름 apigee-data apigee-runtime
      노드 수 영역당 1개(리전당 3개) 영역당 1개(리전당 3개)
      CPU 8(프로덕션)
      4(비프로덕션)
      8(프로덕션)
      4(비프로덕션)
      RAM 32(프로덕션)
      16(비프로덕션)
      32(프로덕션)
      16(비프로덕션)
      스토리지 동적 ApigeeDeployment CRD로 관리
      최소 디스크 IOPS SAN 또는 직접 연결된 스토리지를 사용하는 경우 2,000IOPS. NFS는 필요한 IOPS를 지원할 수 있는 경우에도 권장되지 않습니다. SAN 또는 직접 연결된 스토리지를 사용하는 경우 2,000IOPS. NFS는 필요한 IOPS를 지원할 수 있는 경우에도 권장되지 않습니다.
      각 머신 인스턴스 유형의 네트워크 대역폭 1Gbps 1Gbps

      최소 클러스터 구성에 대한 자세한 내용은 최소 클러스터 구성을 참조하세요.

클러스터를 설치하여 실행 중이면 다음 단계로 이동합니다.

AKS

AKS에 클러스터 만들기

이 단계에서는 AKS에서 Apigee Hybrid에 대해 클러스터를 구성하고 만드는 방법을 설명합니다.

  1. Hybrid 버전 1.12.3에 지원되는 AKS 버전을 사용 중인지 확인합니다. Apigee Hybrid 지원 플랫폼 및 버전을 참조하세요.
  2. 기본 요건에 설명된 대로 모든 노드 및 애플리케이션 서버의 시계가 네트워크 시간 프로토콜(NTP)과 동기화되어 있는지 확인합니다. Cassandra 데이터베이스는 데이터 일관성을 유지 관리하기 위해 네트워크 시간 프로토콜(NTP) 동기화에 의존합니다. 여러 리전에 하이브리드를 설치하려는 경우 모든 리전에서 NTP와 동기화되어 있는지 확인합니다.
  3. Azure CLI 또는 Azure 포털을 사용하여 클러스터를 만들고 아래 설명에 따라 2개의 노드 풀을 만듭니다.

    클러스터의 최소 구성은 다음과 같습니다.

    구성 스테이트풀(Stateful) 노드 풀 스테이트리스(Stateless) 노드 풀
    목적 Cassandra 데이터베이스의 스테이트풀(Stateful) 노드 풀 런타임 메시지 프로세서에 사용되는 스테이트리스(Stateless) 노드 풀
    라벨 이름 apigee-data apigee-runtime
    노드 수 영역당 1개(리전당 3개) 영역당 1개(리전당 3개)
    CPU 8(프로덕션)
    4(비프로덕션)
    8(프로덕션)
    4(비프로덕션)
    RAM 32(프로덕션)
    16(비프로덕션)
    32(프로덕션)
    16(비프로덕션)
    스토리지 동적 ApigeeDeployment CRD로 관리
    최소 디스크 IOPS SAN 또는 직접 연결된 스토리지를 사용하는 경우 2,000IOPS. NFS는 필요한 IOPS를 지원할 수 있는 경우에도 권장되지 않습니다. SAN 또는 직접 연결된 스토리지를 사용하는 경우 2,000IOPS. NFS는 필요한 IOPS를 지원할 수 있는 경우에도 권장되지 않습니다.
    각 머신 인스턴스 유형의 네트워크 대역폭 1Gbps 1Gbps

    최소 클러스터 구성에 대한 자세한 내용은 최소 클러스터 구성을 참조하세요.

  4. 클러스터를 설치하여 실행 중이면 다음 단계로 이동합니다.

EKS

EKS에 클러스터 만들기

이 단계에서는 EKS에서 Apigee Hybrid에 대해 클러스터를 구성하고 만드는 방법을 설명합니다.

  1. Hybrid 버전 1.12.3에 지원되는 EKS 버전을 사용하고 있는지 확인합니다. Apigee Hybrid 지원 플랫폼 및 버전을 참조하세요.
  2. 기본 요건에 설명된 대로 모든 노드 및 애플리케이션 서버의 시계가 네트워크 시간 프로토콜(NTP)과 동기화되어 있는지 확인합니다. Cassandra 데이터베이스는 데이터 일관성을 유지 관리하기 위해 네트워크 시간 프로토콜(NTP) 동기화에 의존합니다. 여러 리전에 하이브리드를 설치하려는 경우 모든 리전에서 NTP와 동기화되어 있는지 확인합니다.
  3. Kubernetes 버전 1.24 이상을 사용하는 경우 Amazon EBS용 Kubernetes CSI 드라이버가 설치되어 있는지 확인합니다.
  4. 다음 안내에 따라 아래 설명된 대로 사용자 클러스터를 만들고 2개의 노드 풀을 만듭니다.

    클러스터의 최소 구성은 다음과 같습니다.

    구성 스테이트풀(Stateful) 노드 풀 스테이트리스(Stateless) 노드 풀
    목적 Cassandra 데이터베이스의 스테이트풀(Stateful) 노드 풀 런타임 메시지 프로세서에 사용되는 스테이트리스(Stateless) 노드 풀
    라벨 이름 apigee-data apigee-runtime
    노드 수 영역당 1개(리전당 3개) 영역당 1개(리전당 3개)
    CPU 8(프로덕션)
    4(비프로덕션)
    8(프로덕션)
    4(비프로덕션)
    RAM 32(프로덕션)
    16(비프로덕션)
    32(프로덕션)
    16(비프로덕션)
    스토리지 동적 ApigeeDeployment CRD로 관리
    최소 디스크 IOPS SAN 또는 직접 연결된 스토리지를 사용하는 경우 2,000IOPS. NFS는 필요한 IOPS를 지원할 수 있는 경우에도 권장되지 않습니다. SAN 또는 직접 연결된 스토리지를 사용하는 경우 2,000IOPS. NFS는 필요한 IOPS를 지원할 수 있는 경우에도 권장되지 않습니다.
    각 머신 인스턴스 유형의 네트워크 대역폭 1Gbps 1Gbps

    최소 클러스터 구성에 대한 자세한 내용은 최소 클러스터 구성을 참조하세요.

클러스터를 설치하여 실행 중이면 다음 단계로 이동합니다.

GKE on AWS

GKE on AWS에 클러스터 만들기

이 단계에서는 GKE on AWS에서 Apigee Hybrid에 대해 클러스터를 구성하고 만드는 방법을 설명합니다.

  1. Hybrid 버전 1.12.3에 지원되는 AWS용 GKE 버전을 사용하고 있는지 확인합니다. Apigee Hybrid 지원 플랫폼 및 버전을 참조하세요.
  2. 기본 요건에 설명된 대로 모든 노드 및 애플리케이션 서버의 시계가 네트워크 시간 프로토콜(NTP)과 동기화되어 있는지 확인합니다. Cassandra 데이터베이스는 데이터 일관성을 유지 관리하기 위해 네트워크 시간 프로토콜(NTP) 동기화에 의존합니다. 여러 리전에 하이브리드를 설치하려는 경우 모든 리전에서 NTP와 동기화되어 있는지 확인합니다.
  3. 다음 안내에 따라 아래 설명된 대로 사용자 클러스터를 만들고 2개의 노드 풀을 만듭니다.

    클러스터의 최소 구성은 다음과 같습니다.

    구성 스테이트풀(Stateful) 노드 풀 스테이트리스(Stateless) 노드 풀
    목적 Cassandra 데이터베이스의 스테이트풀(Stateful) 노드 풀 런타임 메시지 프로세서에 사용되는 스테이트리스(Stateless) 노드 풀
    라벨 이름 apigee-data apigee-runtime
    노드 수 영역당 1개(리전당 3개) 영역당 1개(리전당 3개)
    CPU 8(프로덕션)
    4(비프로덕션)
    8(프로덕션)
    4(비프로덕션)
    RAM 32(프로덕션)
    16(비프로덕션)
    32(프로덕션)
    16(비프로덕션)
    스토리지 동적 ApigeeDeployment CRD로 관리
    최소 디스크 IOPS SAN 또는 직접 연결된 스토리지를 사용하는 경우 2,000IOPS. NFS는 필요한 IOPS를 지원할 수 있는 경우에도 권장되지 않습니다. SAN 또는 직접 연결된 스토리지를 사용하는 경우 2,000IOPS. NFS는 필요한 IOPS를 지원할 수 있는 경우에도 권장되지 않습니다.
    각 머신 인스턴스 유형의 네트워크 대역폭 1Gbps 1Gbps

    최소 클러스터 구성에 대한 자세한 내용은 최소 클러스터 구성을 참조하세요.

클러스터를 설치하여 실행 중이면 다음 단계로 이동합니다.

OpenShift

OpenShift에서 클러스터 만들기

이 단계에서는 OpenShift에서 Apigee Hybrid에 대해 클러스터를 구성하고 만드는 방법을 설명합니다.

  1. Hybrid 버전 1.12.3에 지원되는 OpenShift 버전을 사용하고 있는지 확인합니다. Apigee Hybrid 지원 플랫폼 및 버전을 참조하세요.
  2. 기본 요건에 설명된 대로 모든 노드 및 애플리케이션 서버의 시계가 네트워크 시간 프로토콜(NTP)과 동기화되어 있는지 확인합니다. Cassandra 데이터베이스는 데이터 일관성을 유지 관리하기 위해 네트워크 시간 프로토콜(NTP) 동기화에 의존합니다. 여러 리전에 하이브리드를 설치하려는 경우 모든 리전에서 NTP와 동기화되어 있는지 확인합니다.
  3. OpenShift 클러스터를 빌드하여 런타임 영역에 배포하고 OpenShift 사용자 클러스터에 Apigee를 설치하고 2개의 노드 풀을 만듭니다.

    OpenShift 설치의 일부로 oc CLI 도구를 설치하고 구성합니다. OpenShift 문서의 OpenShift CLI 시작하기를 참조하세요.

    클러스터의 최소 구성은 다음과 같습니다.

    구성 스테이트풀(Stateful) 노드 풀 스테이트리스(Stateless) 노드 풀
    목적 Cassandra 데이터베이스의 스테이트풀(Stateful) 노드 풀 런타임 메시지 프로세서에 사용되는 스테이트리스(Stateless) 노드 풀
    라벨 이름 apigee-data apigee-runtime
    노드 수 영역당 1개(리전당 3개) 영역당 1개(리전당 3개)
    CPU 8(프로덕션)
    4(비프로덕션)
    8(프로덕션)
    4(비프로덕션)
    RAM 32(프로덕션)
    16(비프로덕션)
    32(프로덕션)
    16(비프로덕션)
    스토리지 동적 ApigeeDeployment CRD로 관리
    최소 디스크 IOPS SAN 또는 직접 연결된 스토리지를 사용하는 경우 2,000IOPS. NFS는 필요한 IOPS를 지원할 수 있는 경우에도 권장되지 않습니다. SAN 또는 직접 연결된 스토리지를 사용하는 경우 2,000IOPS. NFS는 필요한 IOPS를 지원할 수 있는 경우에도 권장되지 않습니다.
    각 머신 인스턴스 유형의 네트워크 대역폭 1Gbps 1Gbps

    최소 클러스터 구성에 대한 자세한 내용은 최소 클러스터 구성을 참조하세요.

클러스터를 설치한 후 다음 단계로 이동합니다.

 

다음 단계

1 (다음) 2단계: Helm 차트 다운로드 3 4 5 6 7 8 9 10 11 12