创建用户集群,以允许部署容器工作负载。
准备工作
如需获得创建用户集群所需的权限,请让组织 IAM 管理员为您授予 User Cluster Admin 角色(user-cluster-admin
角色)。
创建用户集群
如需获得创建用户集群所需的权限,请让您的 IAM 管理员为您授予 User Cluster Admin 角色(user-cluster-admin
角色)。
完成以下步骤以创建用户集群:
控制台
在导航菜单中,选择集群。
点击创建集群。
在名称字段中,指定用户集群的名称。
选择 GDC 集群版本。每个版本都对应于一个不同的 Kubernetes 版本。
点击下一步。
为集群配置网络设置。创建集群后,您将无法更改这些网络设置。用户集群的默认且唯一受支持的互联网协议是互联网通信协议第四版 (IPv4)。
如果您想创建专用负载均衡器节点,请输入要创建的节点数。默认情况下,您会收到零个节点,并且负载平衡器流量会通过控制节点运行。
选择要使用的服务 CIDR(无类别域间路由)。您的已部署服务(例如负载平衡器)会从此范围中分配 IP 地址。
选择要使用的 Pod CIDR。集群会从此范围中为您的 Pod 和虚拟机分配 IP 地址。
点击下一步。
查看为用户集群自动生成的默认节点池的详细信息。点击 edit 修改以修改默认节点池。
如需创建其他节点池,请选择添加节点池。在修改默认节点池或添加新节点池时,您可以使用以下选项对其进行自定义:
- 为节点池分配名称。创建节点池后,您将无法修改名称。
- 指定要在节点池中创建的工作器节点数。
选择最符合工作负载要求的机器类。 查看以下设置的列表:
- 机器类型
- CPU
- 内存
点击保存。
点击创建以创建用户集群。
API
如需直接使用 API 创建新的用户集群,请将自定义资源应用到您的 GDC 实例:
创建
Cluster
自定义资源并将其保存为 YAML 文件,例如cluster.yaml
:apiVersion: cluster.gdc.goog/v1 kind: Cluster metadata: name: CLUSTER_NAME namespace: platform spec: clusterNetwork: podCIDRSize: POD_CIDR serviceCIDRSize: SERVICE_CIDR initialVersion: kubernetesVersion: KUBERNETES_VERSION loadBalancer: ingressServiceIPSize: LOAD_BALANCER_POOL_SIZE nodePools: - machineTypeName: MACHINE_TYPE name: NODE_POOL_NAME nodeCount: NUMBER_OF_WORKER_NODES taints: TAINTS labels: LABELS releaseChannel: channel: UNSPECIFIED
替换以下内容:
CLUSTER_NAME
:集群的名称。 集群名称不得以-system
结尾。-system
后缀专为 GDC 创建的集群预留。POD_CIDR
:分配 Pod 虚拟 IP 地址的网络范围的大小。如果未设置,则使用默认值21
。SERVICE_CIDR
:从中分配服务虚拟 IP 地址的网络范围的大小。如果未设置,则使用默认值23
。KUBERNETES_VERSION
:集群的 Kubernetes 版本,例如1.26.5-gke.2100
。如需列出可供配置的 Kubernetes 版本,请参阅列出集群的可用 Kubernetes 版本。LOAD_BALANCER_POOL_SIZE
:负载均衡器服务使用的不重叠 IP 地址池的大小。如果未设置,则使用默认值20
。MACHINE_TYPE
:节点池的工作器节点的机器类型。查看可用机器类型,了解可配置的资源。NODE_POOL_NAME
:节点池的名称。NUMBER_OF_WORKER_NODES
:要在节点池中预配的工作器节点数。TAINTS
:要应用于此节点池的节点的污点。这是一个可选字段。LABELS
:要应用于此节点池的节点的标签。它包含一个键值对列表。此字段为可选字段。
将自定义资源应用到您的 GDC 实例:
kubectl apply -f cluster.yaml --kubeconfig ADMIN_CLUSTER_KUBECONFIG
将
ADMIN_CLUSTER_KUBECONFIG
替换为组织管理员集群的 kubeconfig 文件路径。
列出集群可用的 Kubernetes 版本
您可以使用 kubectl
CLI 列出 GDC 实例中的可用 Kubernetes 版本:
kubectl get userclustermetadata.upgrade.private.gdc.goog \
-o=custom-columns=K8S-VERSION:.spec.kubernetesVersion \
--kubeconfig ADMIN_CLUSTER_KUBECONFIG
将 ADMIN_CLUSTER_KUBECONFIG
替换为管理员集群的 kubeconfig 文件路径。
输出类似于以下内容:
K8S-VERSION
1.25.10-gke.2100
1.26.5-gke.2100
1.27.4-gke.500
支持用户集群中的 GPU 资源
GDC 为用户集群提供 NVIDIA 图形处理单元 (GPU) 支持,并以用户工作负载的形式运行 GPU 设备。对于已预配 GPU 机器的集群,默认启用 GPU 支持。在利用 Deep Learning Containers 之前,请确保您的用户集群支持 GPU 设备。例如,如果您打算运行 Deep Learning Containers,请确保您创建的用户集群至少包含一个 GPU 节点。
用户集群可以直接使用 GDC 控制台或 API 创建。确保您为用户集群预配 GPU 机器,以支持其关联容器上的 GPU 工作负载。如需了解详情,请参阅创建用户集群。
支持的 NVIDIA GPU 卡
GDC 集群支持 A100 PCIe 80 GB NVIDIA GPU。如需启用此支持,请在用户集群中配置 a2-ultragpu-1g-gdc
机器类型。