高级专用集群配置


本页面介绍了创建专用集群时可能需要的一些高级配置。如需了解专用集群的基本配置,请参阅创建专用集群

授予专用节点出站互联网访问权限

如需为专用节点提供出站互联网访问权限(例如从外部注册表拉取映像),请使用 Cloud NAT 创建并配置一个 Cloud Router 路由器。Cloud NAT 允许专用集群通过互联网建立出站连接,以发送和接收数据包。

Cloud Router 路由器允许区域内的所有节点将 Cloud NAT 用于所有主要 IP 范围和别名 IP 范围。此外,它还会为 NAT 网关自动分配外部 IP 地址。

有关创建和配置 Cloud Router 路由器的说明,请参阅 Cloud NAT 文档中的创建使用 Cloud Router 路由器的 Cloud NAT 配置

在共享 VPC 网络中创建专用集群

如需了解如何在共享 VPC 网络中创建专用集群,请参阅在共享 VPC 中创建专用集群

将 Windows Server 容器应用部署到专用集群

如需了解如何将 Windows Server 容器应用部署到专用集群,请参阅 Windows 节点池文档

在全球范围内访问控制层面的专用端点

控制平面的专用端点由控制平面的 VPC 网络中的内部直通式网络负载均衡器实现。内部客户端或通过 Cloud VPN 隧道和 Cloud Interconnect VLAN 连接进行连接的客户端可以访问内部直通式网络负载均衡器。

默认情况下,这些客户端必须与负载均衡器位于同一区域

启用控制平面全球访问权限时,可在全球范围内访问内部直通式网络负载均衡器:客户端虚拟机和本地系统可以从任意区域连接到控制平面的专用端点(受授权网络配置的限制)。

如需详细了解内部直通式网络负载均衡器和全球访问权限,请参阅内部负载均衡器和连接的网络

启用控制层面专用端点全球访问权限

默认情况下,在创建专用集群时,系统不会为控制层面的专用端点启用全球访问权限。如需启用控制层面全球访问权限,请根据您的集群模式使用以下工具:

  • 对于标准集群,您可以使用 Google Cloud CLI 或 Google Cloud 控制台。
  • 对于 Autopilot 集群,您可以使用 google_container_cluster Terraform 资源。

控制台

如需创建启用了控制层面全球访问权限的新专用集群,请执行以下步骤:

  1. 转到 Google Cloud 控制台中的 Google Kubernetes Engine 页面。

    转到 Google Kubernetes Engine

  2. 点击 创建,然后在Standard 或 Autopilot 部分中点击配置

  3. 输入名称

  4. 在导航窗格中,点击网络

  5. 选择专用集群

  6. 选中启用控制层面全局访问权限复选框。

  7. 根据需要配置其他字段。

  8. 点击创建

如需为现有专用集群启用控制层面全球访问权限,请执行以下步骤:

  1. 转到 Google Cloud 控制台中的 Google Kubernetes Engine 页面。

    转到 Google Kubernetes Engine

  2. 在要修改的集群旁边,点击 操作,然后点击 修改

  3. 网络部分的控制平面全球访问权限旁边,点击 修改

  4. 修改控制平面全球访问权限对话框中,选中启用控制平面全球访问权限复选框。

  5. 点击保存更改

gcloud

添加 --enable-master-global-access 标志以创建启用了控制层面专用端点的全球访问权限的专用集群:

gcloud container clusters create CLUSTER_NAME \
    --enable-private-nodes \
    --enable-master-global-access

您还可以为现有专用集群启用控制层面专用端点的全球访问权限:

gcloud container clusters update CLUSTER_NAME \
    --enable-master-global-access

验证控制层面专用端点全球访问权限

如需验证是否启用了控制层面专用端点的全球访问权限,请运行以下命令并查看其输出。

gcloud container clusters describe CLUSTER_NAME

输出包括 privateClusterConfig 部分,您可以在其中查看 masterGlobalAccessConfig 的状态。

privateClusterConfig:
  enablePrivateNodes: true
  masterIpv4CidrBlock: 172.16.1.0/28
  peeringName: gke-1921aee31283146cdde5-9bae-9cf1-peer
  privateEndpoint: 172.16.1.2
  publicEndpoint: 34.68.128.12
  masterGlobalAccessConfig:
    enabled: true

从其他网络访问控制平面的专用端点

创建 GKE 专用集群并停用控制平面的公共端点后,您必须使用 kubectl 等工具通过控制平面的专用端点来管理该集群。您可以从其他网络访问集群控制平面的专用端点,包括:

  • 使用 Cloud VPN 隧道或 Cloud Interconnect VLAN 连接来连接到集群的 VPC 网络的本地网络
  • 使用 Cloud VPN 隧道连接到集群的 VPC 网络的另一个 VPC 网络

下图展示了本地网络和 GKE 控制层面节点之间的路由路径:

显示本地 VPC 和集群控制平面之间的路由的图表

如需允许其他网络中的系统连接到集群的控制平面专用端点,请完成以下要求:

  1. 识别并记录集群及其控制平面专用端点的相关网络信息。

    gcloud container clusters describe CLUSTER_NAME \
       --location=COMPUTE_LOCATION \
       --format="yaml(network, privateClusterConfig)"
    

    替换以下内容:

    在该命令的输出中,找到并记录以下信息以在后续步骤中使用:

    • network:集群的 VPC 网络的名称或 URI。
    • privateEndpoint:控制平面专用端点的 IPv4 地址或所属的 IPv4 CIDR 范围 (masterIpv4CidrBlock)。
    • peeringName:用于将集群的 VPC 网络连接到控制平面的 VPC 网络的 VPC 网络对等互连连接的名称。

    输出类似于以下内容:

    network: cluster-network
    privateClusterConfig:
      enablePrivateNodes: true
      masterGlobalAccessConfig:
        enabled: true
      masterIpv4CidrBlock: 172.16.1.0/28
      peeringName: gke-1921aee31283146cdde5-9bae-9cf1-peer
      privateEndpoint: 172.16.1.2
      publicEndpoint: 34.68.128.12
    
  2. 考虑启用控制平面专用端点全球访问权限,以允许数据包从集群的 VPC 网络中的任何区域进入。启用控制平面专用端点全球访问权限后,您可以使用位于任何区域(而不仅仅是集群所在区域)的 Cloud VPN 隧道或 Cloud Interconnect VLAN 连接来连接到专用端点。

  3. 为另一个网络中的 privateEndpoint IP 地址或 masterIpv4CidrBlock IP 地址范围创建路由。由于控制平面的专用端点 IP 地址始终在 masterIpv4CidrBlock IPv4 地址范围内,为 privateEndpoint IP 地址或其所属范围创建路由可为数据包提供从其他网络到控制平面专用端点的路径:

    • 另一个网络使用 Cloud Interconnect VLAN 连接或使用动态 (BGP) 路由的 Cloud VPN 隧道连接到集群的 VPC 网络:使用 Cloud Router 路由器自定义路由通告。如需了解详情,请参阅 Cloud Router 文档中的通告自定义 IP 范围

    • 另一个网络使用不使用动态路由的传统 VPN 隧道连接到集群的 VPC 网络:您必须在另一个网络中配置静态路由。

  4. 配置集群的 VPC 网络,以将其在对等互连关系中的自定义路由导出到控制平面的 VPC 网络。Google Cloud 始终会将控制平面的 VPC 网络配置为从集群的 VPC 网络导入自定义路由。 此步骤为数据包提供了从控制平面的专用端点返回另一个网络的路径。

    如需启用从集群的 VPC 网络导出的自定义路由,请使用以下命令:

    gcloud compute networks peerings update PEERING_NAME \
        --network=CLUSTER_VPC_NETWORK \
        --export-custom-routes
    

    请替换以下内容:

    • PEERING_NAME:将集群的 VPC 网络连接到控制平面 VPC 网络的对等互连的名称
    • CLUSTER_VPC_NETWORK:集群的 VPC 网络的名称或 URI

    为 VPC 启用自定义路由导出后,创建与 Google Cloud IP 范围重叠的路由可能会破坏您的集群。

    如需详细了解如何更新现有 VPC 网络对等互连连接的路由交换,请参阅更新对等互连连接

    集群的 VPC 网络中的自定义路由包括目的地为其他网络(例如本地网络)中的 IP 地址范围的路由。如需确保这些路由成为控制平面的 VPC 网络中的有效对等互连自定义路由,请参阅来自其他网络的受支持目的地

来自其他网络的受支持目的地

另一个网络向集群 VPC 网络中的 Cloud Router 路由器发送的地址范围必须遵循以下条件:

  • 虽然集群的 VPC 可以接受默认路由 (0.0.0.0/0),但控制平面的 VPC 网络始终拒绝默认路由,因为它已经有本地默认路由。 如果另一个网络向您的 VPC 网络发送默认路由,则另一个网络还必须发送需要连接到控制平面专用端点的系统的特定目的地。如需了解详情,请参阅路由顺序

  • 如果控制平面的 VPC 网络接受有效替换默认路由的路由,则这些路由会中断与 Google Cloud API 和服务的连接,从而中断集群控制平面。作为代表性示例,另一个网络不得通告目的地为 0.0.0.0/1128.0.0.0/1 的路由。如需了解替代方法,请参阅上一点。

请监控 Cloud Router 路由器限制,特别是已知路由的唯一目的地数量上限。

使用 VPC Service Controls 保护专用集群

为进一步保障 GKE 专用集群的安全,您可以使用 VPC Service Controls 来保护它们。

VPC Service Controls 可为 GKE 专用集群提供额外的安全保护,有助于降低发生数据渗漏的风险。使用 VPC Service Controls,您可以将项目添加到服务边界,从而防止资源和服务受到源自边界外部的请求的影响。

如需详细了解服务边界,请参阅服务边界详情和配置

如果您在 VPC Service Controls 服务边界内将 Artifact Registry 与 GKE 专用集群搭配使用,则必须配置到受限虚拟 IP 的路由以防止数据渗漏。