本文档介绍了在具有使用 kubeception 的用户集群的情况下,安装 Google Distributed Cloud 时的 CPU、RAM 和存储要求。
什么是 kubeception?
术语 kubeception 用于传达 Kubernetes 集群用于创建和管理其他 Kubernetes 集群的想法。在 Google Distributed Cloud 环境中,kubeception 指的是用户集群的控制平面在管理员集群中的一个或多个节点上运行的情况。
我们不建议使用 kubeception。我们建议您改为使用 Controlplane V2。使用 Controlplane V2 时,用户集群的控制平面节点位于用户集群本身中。
如需了解使用控制平面 V2 的安装中的资源要求,请参阅 CPU、RAM 和存储要求。
管理员工作站的 CPU、RAM 和存储空间要求
创建管理员工作站之前,请填写管理员工作站配置文件。在配置文件中,您可以指定 vSphere 集群、vSphere 资源池和 vSphere datastore。
vSphere 集群是运行 ESXi 的一组物理主机,并且资源池预留了这些 ESXi 主机上可用的部分资源。
资源池必须具有足够的 CPU 和 RAM,以满足您的管理员工作站以及属于该池的任何其他虚拟机的要求。同样,数据存储区必须具有足够的存储空间来支持管理员工作站和使用该数据存储区的任何其他虚拟机的要求。
管理员工作站有以下要求:
- 4 个 vCPU(虚拟 CPU)
- 8 GiB 的 RAM
- 100 GiB
Google Distributed Cloud 仅支持 CPU 微架构级别为 v3 (x86-64-v3) 及更高版本的 x86-64 vCPU。
管理员集群的 CPU、RAM 和存储空间要求
创建管理员集群之前,请先填写管理员集群配置文件。在配置文件中,您可以指定 vSphere 集群、vSphere 资源池和 vSphere 数据存储区
资源池必须具有足够的 CPU 和 RAM 以支持管理员集群的要求以及属于该池的任何其他虚拟机。同样,数据存储区必须具有足够的存储空间,才能满足管理员集群以及使用该数据存储区的任何其他虚拟机的要求。
管理员集群有一个或多个关联的用户集群。对于每个关联的用户集群,管理员集群都有一个或三个节点。这些节点为用户集群运行控制层面组件,它们被称为用户集群控制层面节点。
对于高可用性 (HA) 用户集群,管理员集群有三个控制层面节点。对于非高可用性用户集群,管理员集群有一个控制平面节点。
管理员集群有以下存储空间要求:
虚拟机模板为 40 GiB
100 GiB 来存储 etcd 对象数据
240 GiB 供 Google Cloud Observability 在网络中断期间缓冲日志和指标
如果启用了 Prometheus,则为 Prometheus 提供 506 GiB,用于存储指标数据
对于每个节点,40 GiB。这包括充当用户集群控制层面的节点。
对于每个用户集群控制层面节点:
- 还有 10 GiB,用于满足为审核日志创建的 PVC
- 额外 5 GiB,用于满足为 etcd 对象数据创建的 PVC
- 额外 5 GiB,用于满足为 etcd 事件数据创建的 PVC
下表介绍了管理员集群中节点的 CPU、RAM 和存储空间要求:
节点 | 要求 | 用途 |
---|---|---|
管理员集群控制层面 |
|
运行管理员集群的控制平面。 |
附加内容 |
两个虚拟机,每个虚拟机都有以下要求:
|
为管理员集群运行插件。 |
用户集群控制层面 |
对于每个用户集群,一个或三个虚拟机。每个虚拟机都有以下要求:
|
运行用户集群的控制平面。 |
* Google Distributed Cloud 仅支持 CPU 微架构级别为 v3 (x86-64-v3) 及更高版本的 x86-64 vCPU。
用户集群的 CPU、RAM 和存储空间要求
在创建用户集群之前,请填写用户集群配置文件。在配置文件中,您可以指定 vSphere 集群、vSphere 资源池和 vSphere 数据存储区。
资源池必须具有足够的 CPU 和 RAM 来支持用户集群以及属于该池的任何其他虚拟机的要求。同样,数据存储区必须具有足够的存储空间,以支持用户集群以及使用数据存储区的任何其他虚拟机的要求。
用户集群有以下存储空间要求:
对于每个节点,40 GiB
240 GiB 供 Google Cloud Observability 在网络中断期间缓冲日志和指标
如果启用了 Prometheus,则为 Prometheus 提供 506 GiB,用于存储指标数据
下表介绍了用户集群中每个节点的 CPU、RAM 和存储空间的默认值。根据工作负载的需求,您可能想要调整这些值。要确定某个节点可为您的工作负载提供多少 CPU 和 RAM,请参阅可供您的工作负载使用的资源。您可以在用户集群配置文件的 nodePools
部分中指定 CPU 和 RAM 的值。
节点 | 要求 | 用途 |
---|---|---|
用户集群控制层面 |
对于每个用户集群,一个或三个虚拟机。每个虚拟机都有以下要求:
|
运行用户集群的控制平面。 |
工作器节点 | 以下是单个工作器节点的默认值:
|
用户集群节点是运行工作负载的虚拟机。用户集群节点所需的资源取决于您要运行的工作负载。 |
* Google Distributed Cloud 仅支持 CPU 微架构级别为 v3 (x86-64-v3) 及更高版本的 x86-64 vCPU。
CPU、RAM 和存储空间要求示例
假设您有两个 vSphere 数据中心:
数据中心 1 具有名为集群 1 的 vSphere 集群,而集群 1 具有名为资源池 1 的资源池。有 4 个物理主机在集群 1 中运行 ESXi。
数据中心 2 包含名为集群 2 的 vSphere 集群,而集群 2 具有名为资源池 2 的资源池。集群 2 中有八个运行 ESXi 的物理主机。
您确定管理员工作站和管理员集群将位于资源池 1 中并使用 Datastore 1。
您确定用户集群将位于资源池 2 中并使用数据存储区 2。您不打算在用户集群中启用 Prometheus。
您希望创建以下两个用户集群:
您认为每个工作器节点需要 6 个 vCPU、16 GiB RAM 和 40 GiB 存储空间的用户集群。此用户集群将有 20 个节点。您希望此用户集群具有高可用性控制平面,因此管理员集群中有三个节点将充当此用户集群的控制平面。每个用户集群控制平面节点将配置 4 个 vCPU 和 8 GiB 的 RAM。
第二个用户集群,您认为每个工作器节点需要 4 个 vCPU、8 GiB 的 RAM 和 40 GiB 的存储空间。此用户集群将有 8 个节点。您不需要此用户集群具有高可用性控制平面,因此管理员集群中只有一个节点充当此用户集群的控制平面。用户集群控制平面节点将配置有 3 个 vCPU 和 5 GMiB 的 RAM。
资源池 1 和 Datastore 1 的要求
资源池 1 保留了集群 1 中四个 ESXi 主机提供的 CPU 和 RAM 的一部分。资源池 1 必须具有足够的 CPU 和 RAM 才能满足管理员工作站和管理员集群的要求。Datastore 1 必须具有足够的存储空间来满足管理员工作站和管理员集群的要求。
管理员集群有自己的控制平面节点、两个用于插件的节点、三个用于第一个用户集群控制平面的节点,以及一个用于第二个用户集群控制平面的节点。因此,管理员集群有 7 个节点。
回想一下,管理员工作站有以下资源要求:
示例:管理员工作站要求 | ||
---|---|---|
vCPU | 4 个 vCPU | |
RAM | 8 GiB | |
存储 | 50 GiB |
管理员集群具有以下资源要求:
示例:管理员集群要求 | ||
---|---|---|
vCPU |
1 个管理员集群控制层面 x 2 个 vCPU/节点 + 2 个插件节点 x 4 个 vCPU/节点 + 3 个用户集群控制层面 x 4 个 vCPU/节点+ 1 个用户集群控制层面节点 x 3 个 vCPU/节点 |
25 个 vCPU |
RAM |
1 个管理员集群控制层面 x 4 GiB/节点 + 2 个插件节点 x 16 GiB/节点 + 3 个用户集群控制层面 x 8 GiB/节点+ 1 个用户集群控制层面节点 x 5 GiB/节点 |
65 GiB |
存储 |
40 GiB(用于虚拟机模板)+ 100 GiB(用于 etcd 对象数据)+ 240 GiB(用于 Google Cloud Observability)+ 1 个管理员集群控制平面节点 x 40 GiB/节点 + 2 个插件节点 x 40 GiB/节点 + 4 个用户集群控制平面节点 x 60 GiB/节点 |
740 GiB |
下表提供了管理员工作站和管理员集群的总 CPU、RAM 和存储空间要求。资源池 1 和 Datastore 1 必须能够提供这些资源:
示例:资源池 1 和 Datastore 1 的总要求 | ||
---|---|---|
vCPU | 29 个 vCPU | |
RAM | 73 GiB | |
存储 | 790 GiB |
资源池 2 和 Datastore 2 的要求
资源池 2 保留了集群 2 中 8 个 ESXi 主机提供的 CPU 和 RAM 的一部分。资源池 2 必须具有足够的 CPU 和 RAM 以满足两个用户集群的要求。Datastore 1 必须具有足够的存储空间,以满足这两个用户集群的要求。
第一个用户集群具有以下资源要求:
示例:第一个用户集群要求 | ||
---|---|---|
CPU | 20 个节点 x 6 个 vCPU/节点 | 120 个 vCPU |
RAM | 20 个节点 x 16 GiB/节点 | 320 GiB |
存储 |
240 GiB(用于 Google Cloud Observability)+ 20 个节点 x 40 GiB/节点 |
1040 GiB |
第二个用户集群具有以下资源要求:
示例:第二个用户集群要求 | ||
---|---|---|
CPU | 8 个节点 x 4 个 vCPU/节点 | 32 个 vCPU |
RAM | 8 个节点 x 8 GiB/节点 | 64 GiB |
存储 |
240 GiB(用于 Google Cloud Observability)+ 8 个节点 x 40 GiB/节点 |
560 GiB |
下表给出了两个用户集群的总 CPU、RAM 和存储空间要求。资源池 2 和 Datastore 2 必须能够提供以下资源:
示例:资源池 2 和 Datastore 2 的总要求 | |
---|---|
CPU | 152 vCPUs |
RAM | 384 GiB |
存储 | 1,600 GiB |
资源过度使用
vSphere 支持资源过度使用,例如内存过度使用和 CPU 过度使用。因此,集群中资源池预留的总资源可能会大于集群中 ESXi 主机提供的物理资源。
本文档中提供的要求适用于预留虚拟资源。如需了解概念验证演示的最低 CPU、RAM 和存储要求,请参阅设置极简基础设施。
监控资源争用
您应该监控资源争用信号,以确保资源池和数据存储区可以支持已配置的虚拟资源。如需了解详情,请参阅创建虚拟机运行状况信息中心。
磁盘预配
下表展示了用于不同存储磁盘的 VMware 精简和密集磁盘预配政策。
存储磁盘 | 大小 | 磁盘预配政策 | |
---|---|---|---|
默认 | 让用户自行选择 | ||
管理员 etcd | 100 GB | 细 | 否 |
用户 etcd | 40 GB | 细 | 否 |
节点操作系统/启动磁盘 | 40 GB - 默认值和最小值 (用户可配置) |
密集 (延迟为零) |
否 |
其他(例如日志) | 240 GB | 细 | 否 |
用户工作负载 | — | 细 | 是 |