이 문서에서는 Google Distributed Cloud 설치를 위한 CPU, RAM, 스토리지 요구사항을 설명합니다.
여기에 제공된 요구사항은 프로덕션 환경에 적합합니다. 개념 증명 데모에 적합한 최소한의 요구사항은 최소 CPU, RAM, 스토리지 요구사항을 참조하세요.
관리자 워크스테이션의 CPU, RAM, 스토리지 요구사항
관리자 워크스테이션을 만들려면 먼저 관리자 워크스테이션 구성 파일을 작성합니다. 구성 파일에서 vSphere 클러스터, vSphere 리소스 풀, vSphere 데이터 스토어를 지정합니다.
vSphere 클러스터는 ESXi를 실행하는 물리적 호스트 집합이고 리소스 풀에는 이러한 ESXi 호스트에서 제공되는 리소스 부분에 대한 예약이 포함되어 있습니다.
리소스 풀은 관리자 워크스테이션 및 풀에 속하는 다른 VM의 요구사항을 지원하기에 충분한 CPU 및 RAM을 포함해야 합니다. 마찬가지로 Datastore는 관리자 워크스테이션 및 Datastore를 사용하는 다른 VM의 요구사항을 지원하기에 충분한 스토리지를 포함해야 합니다.
관리자 워크스테이션의 요구사항은 다음과 같습니다.
- vCPU 4개(가상 CPU)
- RAM 8GiB
- 100GiB
Google Distributed Cloud는 CPU 마이크로아키텍처 수준 v3(x86-64-v3) 이상에서 x86-64 vCPU만 지원합니다.
관리자 클러스터의 CPU, RAM, 스토리지 요구사항
관리자 클러스터를 만들려면 먼저 관리자 클러스터 구성 파일을 작성합니다. 구성 파일에서 vSphere 클러스터, vSphere 리소스 풀, vSphere 데이터 스토어를 지정합니다.
vSphere 클러스터는 ESXi를 실행하는 물리적 호스트 집합이고 리소스 풀에는 이러한 ESXi 호스트에서 제공되는 리소스 부분에 대한 예약이 포함되어 있습니다.
리소스 풀은 관리자 클러스터 및 풀에 속하는 다른 VM의 요구사항을 지원하기에 충분한 CPU 및 RAM을 포함해야 합니다. 마찬가지로 Datastore는 관리자 클러스터 및 Datastore를 사용하는 다른 VM의 요구사항을 지원하기에 충분한 스토리지를 포함해야 합니다.
관리자 클러스터에는 하나 이상 연결된 사용자 클러스터가 포함됩니다. 연결된 각 사용자 클러스터에 대해 관리자 클러스터에는 하나 또는 세 개의 노드가 있습니다. 이러한 노드는 사용자 클러스터의 컨트롤 플레인 구성요소를 실행하며 이를 사용자 클러스터 컨트롤 플레인 노드라고 합니다.
고가용성(HA) 사용자 클러스터의 경우 관리자 클러스터에 3개의 컨트롤 플레인 노드가 포함됩니다. 비HA 사용자 클러스터의 경우 관리자 클러스터에 하나의 컨트롤 플레인 노드가 포함됩니다.
관리자 클러스터에는 다음과 같은 스토리지 요구사항이 있습니다.
VM 템플릿용 40GiB
etcd 객체 데이터를 저장할 수 있는 100GiB
네트워크 중단 시 로그 및 측정항목을 버퍼링하기 위한 Google Cloud Observability용 240GiB
Prometheus가 사용 설정된 경우 Prometheus가 측정항목 데이터를 저장하기 위한 506GiB
각 노드에 대해 40GiB 여기에는 사용자 클러스터 컨트롤 플레인의 역할을 하는 노드가 포함됩니다.
각 사용자 클러스터 컨트롤 플레인 노드에 대해 다음 스토리지가 필요합니다.
- 감사 로그용으로 만든 PVC를 처리하기 위한 추가 10GiB
- etcd 객체 데이터용으로 만든 PVC를 처리하기 위한 추가 5GiB
- etcd 이벤트 데이터용으로 만든 PVC를 처리하기 위한 추가 5GiB
다음 표에서는 관리자 클러스터의 노드에 대한 CPU, RAM, 스토리지 요구사항을 보여줍니다.
노드 | 요구사항 | 목적 |
---|---|---|
관리자 클러스터 컨트롤 플레인 |
|
관리자 클러스터의 컨트롤 플레인을 실행합니다. |
부가기능 |
2개 VM의 각 요구사항은 다음과 같습니다.
|
관리자 클러스터에 대한 부가기능을 실행합니다. |
사용자 클러스터 컨트롤 플레인 |
각 사용자 클러스터에 대해 하나 또는 세 개의 VM. 각 VM의 요구사항은 다음과 같습니다.
|
사용자 클러스터의 컨트롤 플레인을 실행합니다. |
* Google Distributed Cloud는 CPU 마이크로아키텍처 수준 v3(x86-64-v3) 이상에서 x86-64 vCPU만 지원합니다.
사용자 클러스터의 CPU, RAM, 스토리지 요구사항
사용자 클러스터를 만들기 전에 사용자 클러스터 구성 파일을 작성합니다. 구성 파일에서 vSphere 클러스터, vSphere 리소스 풀, vSphere 데이터 스토어를 지정합니다.
vSphere 클러스터는 ESXi를 실행하는 물리적 호스트 집합이고 리소스 풀에는 이러한 ESXi 호스트에서 제공되는 리소스 부분에 대한 예약이 포함되어 있습니다.
리소스 풀은 사용자 클러스터 및 풀에 속하는 다른 VM의 요구사항을 지원하기에 충분한 CPU 및 RAM을 포함해야 합니다. 마찬가지로 Datastore는 사용자 클러스터 및 Datastore를 사용하는 다른 VM의 요구사항을 지원하기에 충분한 스토리지를 포함해야 합니다.
사용자 클러스터에는 다음과 같은 스토리지 요구사항이 있습니다.
각 노드에 대해 40GiB
네트워크 중단 시 로그 및 측정항목을 버퍼링하기 위한 Google Cloud Observability용 240GiB
Prometheus가 사용 설정된 경우 Prometheus가 측정항목 데이터를 저장하기 위한 506GiB
다음 표에서는 사용자 클러스터의 각 노드에 대한 CPU, RAM, 스토리지의 기본값을 보여줍니다. 워크로드의 요구사항에 따라 값을 조정할 수 있습니다. 워크로드의 노드에서 사용할 수 있는 CPU 개수 및 RAM 크기를 결정하려면 워크로드에 사용할 수 있는 리소스를 참조하세요.
사용자 클러스터 구성 파일의 nodePools
섹션에서 CPU 및 RAM 값을 지정할 수 있습니다.
노드 | 요구사항 | 목적 |
---|---|---|
사용자 클러스터 컨트롤 플레인 |
각 사용자 클러스터에 대해 하나 또는 세 개의 VM. 각 VM의 요구사항은 다음과 같습니다.
|
사용자 클러스터의 컨트롤 플레인을 실행합니다. |
워커 노드 | 다음은 개별 워커 노드의 기본값입니다.
|
사용자 클러스터 노드는 워크로드가 실행되는 가상 머신입니다. 사용자 클러스터 노드에 필요한 리소스는 실행하려는 워크로드에 따라 다릅니다. |
* Google Distributed Cloud는 CPU 마이크로아키텍처 수준 v3(x86-64-v3) 이상에서 x86-64 vCPU만 지원합니다.
Seesaw 부하 분산기의 CPU, RAM, 스토리지 요구사항
Seesaw 부하 분산기를 사용하는 클러스터를 만들려는 경우 추가 리소스 요구사항이 있습니다. 자세한 내용은 Seesaw VM의 VM 리소스 프로비저닝을 참조하세요.
CPU, RAM, 스토리지 요구사항의 예시
vSphere 데이터 센터가 2개 있다고 가정합니다.
데이터 센터 1에는 클러스터 1이라는 vSphere 클러스터가 있고 클러스터 1에는 리소스 풀 1이라는 리소스 풀이 있습니다. 클러스터 1에는 ESXi를 실행하는 물리적 호스트가 4개 있습니다.
데이터 센터 2에는 클러스터 2라는 vSphere 클러스터가 있고 클러스터 2에는 리소스 풀 2라는 리소스 풀이 있습니다. 클러스터 2에는 ESXi를 실행하는 물리적 호스트가 8개 있습니다.
관리자 워크스테이션 및 관리자 클러스터를 리소스 풀 1에 배치하도록 결정하고 Datastore 1을 사용합니다.
사용자 클러스터가 리소스 풀 2에 배치되도록 결정하고 Datastore 2를 사용합니다. 사용자 클러스터에서는 Prometheus를 사용 설정하지 않습니다.
Seesaw 부하 분산기를 사용하지 않도록 결정합니다.
이러한 2개 사용자 클러스터를 만듭니다.
각 워커 노드에 vCPU 6개, RAM 16GiB, 스토리지 40GiB가 필요하다고 생각하는 경우의 사용자 클러스터입니다. 이 사용자 클러스터에는 20개의 노드가 있게 됩니다. 이 사용자 클러스터에 대해 HA 컨트롤 플레인이 필요하므로, 이 사용자 클러스터의 컨트롤 플레인 역할을 하는 관리자 클러스터에 3개의 노드가 있게 됩니다. 각 사용자 클러스터 컨트롤 플레인 노드는 vCPU 4개 및 RAM 8GiB로 구성됩니다.
각 워커 노드에 vCPU 4개, RAM 8GiB, 스토리지 40GiB가 필요하다고 생각하는 경우의 두 번째 사용자 클러스터입니다. 이 사용자 클러스터에는 8개의 노드가 있게 됩니다. 이 사용자 클러스터에는 HA 컨트롤 플레인이 필요하지 않으므로, 이 사용자 클러스터에 대해 컨트롤 플레인으로 작동하는 노드가 관리자 클러스터에 하나만 있게 됩니다. 사용자 클러스터 컨트롤 플레인 노드는 vCPU 3개 및 RAM 5GMiB로 구성됩니다.
리소스 풀 1 및 Datastore 1의 요구사항
리소스 풀 1에는 클러스터 1의 ESXi 호스트 4개로 제공되는 CPU 및 RAM의 일부가 예약되었습니다. 리소스 풀 1은 관리자 워크스테이션 및 관리자 클러스터의 요구사항을 충족하도록 CPU 및 RAM이 충분해야 합니다. 그리고 Datastore 1은 관리자 워크스테이션 및 관리자 클러스터의 요구사항을 충족하도록 스토리지가 충분해야 합니다.
관리자 클러스터에는 자체 컨트롤 플레인 노드, 부가기능을 위한 2개 노드, 첫 번째 사용자 클러스터의 컨트롤 플레인을 위한 3개 노드, 두 번째 사용자 클러스터의 컨트롤 플레인을 위한 1개 노드가 포함되어 있습니다. 따라서 관리자 클러스터에는 7개의 노드가 있습니다.
관리자 워크스테이션에는 다음과 같이 세 가지 리소스 요구사항이 있습니다.
예시: 관리자 워크스테이션 요구사항 | ||
---|---|---|
vCPU | vCPU 4개 | |
RAM | 8GiB | |
스토리지 | 50GiB |
관리자 클러스터의 리소스 요구사항은 다음과 같습니다.
예시: 관리자 클러스터 요구사항 | ||
---|---|---|
vCPU |
관리자 클러스터 컨트롤 플레인 노드 1개 x vCPU 2개/노드 + 부가기능 노드 2개 x vCPU 4개/노드 + 사용자 클러스터 컨트롤 플레인 노드 3개 x vCPU 4개/노드 + 사용자 클러스터 컨트롤 플레인 노드 1개 x vCPU 3개/노드 |
vCPU 25개 |
RAM |
관리자 클러스터 컨트롤 플레인 노드 1개 x GiB 4개/노드 + 부가기능 노드 2개 x 16GiB/노드 + 사용자 클러스터 컨트롤 플레인 노드 3개 x 8GiB/노드 + 사용자 클러스터 컨트롤 플레인 노드 1개 x 5GiB/노드 |
65GiB |
스토리지 | VM 템플릿용 40GiB + etcd 객체 데이터용 100GiB + Google Cloud Observability용 240GiB + 관리자 클러스터 컨트롤 플레인 노드 1개 x 40GiB/노드 + 부가기능 노드 2개 x 40GiB/노드 + 사용자 클러스터 컨트롤 플레인 노드 4개 x 60GiB/노드 |
740GiB |
다음 표에서는 관리자 워크스테이션 및 관리자 클러스터의 총 CPU, RAM, 스토리지 요구사항을 보여줍니다. 리소스 풀 1 및 Datastore 1에서 이러한 리소스를 제공할 수 있어야 합니다.
예시: 리소스 풀 1 및 Datastore 1의 총 요구사항 | ||
---|---|---|
vCPU | vCPU 29개 | |
RAM | 73GiB | |
스토리지 | 790GiB |
리소스 풀 2 및 Datastore 2의 요구사항
리소스 풀 2에는 클러스터 2의 ESXi 호스트 8개로 제공되는 CPU 및 RAM의 일부가 예약되었습니다. 리소스 풀 2에는 두 사용자 클러스터 모두의 요구사항을 충족하도록 CPU 및 RAM이 충분해야 합니다. 그리고 Datastore 1에는 두 사용자 클러스터 모두의 요구사항을 충족하도록 충분한 스토리지가 있어야 합니다.
첫 번째 사용자 클러스터의 리소스 요구사항은 다음과 같습니다.
예시: 첫 번째 사용자 클러스터 요구사항 | ||
---|---|---|
CPU | 노드 20개 x vCPU 6개/노드 | vCPU 120개 |
RAM | 노드 20개 x 16GiB/노드 | 320GiB |
스토리지 |
Google Cloud Observability용 240GiB + 노드 20개 x 40GiB/노드 |
1,040GiB |
두 번째 사용자 클러스터의 리소스 요구사항은 다음과 같습니다.
예시: 두 번째 사용자 클러스터 요구사항 | ||
---|---|---|
CPU | 노드 8개 x vCPU 4개/노드 | vCPU 32개 |
RAM | 노드 8개 x 8GiB/노드 | 64GiB |
스토리지 |
Google Cloud Observability용 240GiB + 노드 8개 x 40GiB/노드 |
560GiB |
다음 표에서는 사용자 클러스터 2개의 총 CPU, RAM, 스토리지 요구사항을 보여줍니다. 리소스 풀 2 및 Datastore 2에서 이러한 리소스를 제공할 수 있어야 합니다.
예시: 리소스 풀 2 및 Datastore 2의 총 요구사항 | |
---|---|
CPU | vCPU 152개 |
RAM | 384GiB |
스토리지 | 1,600GiB |
리소스 오버커밋
vSphere는 메모리 오버커밋 및 CPU 오버커밋과 같은 리소스 오버커밋을 지원합니다. 따라서 클러스터의 리소스 풀에서 예약되는 총 리소스가 클러스터의 ESXi 호스트에서 제공되는 물리적 리소스보다 클 수 있습니다.
이 문서에 표시된 요구사항은 예약된 가상 리소스의 요구사항입니다. 개념 증명 시연을 위해 필요한 물리적 리소스에 대한 설명은 최소 CPU, RAM, 스토리지 요구사항을 참조하세요.
리소스 경합 모니터링
리소스 풀 및 Datastore가 구성된 가상 리소스를 지원할 수 있도록 리소스 경합 신호를 모니터링해야 합니다. 자세한 내용은 VM 상태 대시보드 만들기를 참조하세요.
디스크 프로비저닝
다음 표에서는 여러 스토리지 디스크의 VMware 씬 및 씩 디스크 프로비저닝 정책을 보여줍니다.
스토리지 디스크 | 크기 | 디스크 프로비저닝 정책 | |
---|---|---|---|
기본값 | 사용자 선택 | ||
관리자 etcd | 100GB | 씬 | 아니요 |
사용자 etcd | 40GB | 씬 | 아니요 |
노드 OS/부팅 디스크 | 40GB - 기본값 및 최소 (사용자 구성 가능) |
씩 (느리게 비워짐) |
아니요 |
기타(예: 로그) | 240GB | 씬 | 아니요 |
사용자 워크로드 | — | 씬 | 예 |