使用預留區域資源


本頁說明如何在特定 GKE 工作負載中,使用預留的 Compute Engine 區域資源。這些容量預留可高度確保特定硬體可供工作負載使用。

請務必先熟悉 Compute Engine 預留資源的概念,例如消耗類型、共用類型和佈建類型。詳情請參閱「Compute Engine 可用區資源的預留項目」。

本頁內容適用於下列對象:

  • 應用程式運算子:部署應盡快執行的工作負載,通常會使用 GPU 等專用硬體。
  • 平台管理員 希望確保工作負載在最佳化硬體上執行,且符合應用程式和機構需求。

關於 GKE 中的預留項目用量

Compute Engine 容量預留功能可讓您在 Google Cloud 可用區中佈建特定硬體設定,時間可以是立即或未來指定時間。接著,您就能在 GKE 中使用這項預留容量。

視 GKE 作業模式而定,您可以採用下列預訂類型:

  • Autopilot 模式:僅限特定預訂。
  • 標準模式:特定預留項目或任何相符的預留項目。

如要啟用保留項目,以便建立資源,您必須指定預留相依性,例如 anyspecific

GKE 中的預留資源用量選項

在 GKE 中,您可以在工作負載資訊清單中使用 Kubernetes nodeSelectors,或建立會使用預留資源的標準模式節點集區,直接在個別工作負載中使用預留資源。本頁說明直接在個別資源中選取預訂項目的方法。

您也可以使用自訂運算類別,將 GKE 設為在建立新節點的擴充作業期間使用預留項目。平台管理員可以透過自訂運算類別,定義節點設定的階層,供 GKE 在節點擴縮期間優先處理,確保工作負載在您選取的硬體上執行。

您可以在自訂運算類別設定中指定預留項目,這樣一來,使用該自訂運算類別的任何 GKE 工作負載,都會向 GKE 指出要使用該運算類別的指定預留項目。

如要瞭解詳情,請參閱「關於自訂運算類別」頁面的「使用 Compute Engine 預留項目」。

事前準備

開始之前,請確認你已完成下列工作:

  • 啟用 Google Kubernetes Engine API。
  • 啟用 Google Kubernetes Engine API
  • 如要使用 Google Cloud CLI 執行這項工作,請安裝初始化 gcloud CLI。如果您先前已安裝 gcloud CLI,請執行 gcloud components update,取得最新版本。

在 Autopilot 叢集中使用容量預留資源

Autopilot 叢集支援取用相同專案或共用專案中 Compute Engine 容量預留項目的資源。您必須將目標預訂的消耗類型屬性設為 specific,並在資訊清單中明確選取該預訂。如果未明確指定保留項目,Autopilot 叢集就不會使用保留項目。如要進一步瞭解預留資源的消耗類型,請參閱預留的運作方式

這些預留項目符合 Compute 彈性承諾使用折扣的資格。您必須使用 AcceleratorPerformance 計算類別,才能使用容量預留。

  • 開始之前,請建立 Autopilot 叢集,並執行下列版本:

    • 如要使用預留的加速器 (例如 GPU),請使用 1.28.6-gke.1095000 以上版本
    • 如要在特定機器系列上執行 Pod,且每個 Pod 都在自己的節點上,請使用 1.28.6-gke.1369000 以上版本,或 1.29.1-gke.1575000 以上版本。

為 Autopilot 建立容量預留項目

Autopilot Pod 可以使用與叢集位於同一專案的保留項目,也可以使用來自不同專案的共用保留項目,但這些保留項目必須具有特定用量類型屬性。如要使用預留的硬體,請在資訊清單中明確參照該預留項目。您可以在 Autopilot 中使用預訂項目,適用於下列類型的硬體:

  • 下列任一類型的 GPU:

    • nvidia-b200:NVIDIA B200 (180 GB)
    • nvidia-h200-141gb:NVIDIA H200 (141 GB)
    • nvidia-h100-mega-80gb:NVIDIA H100 Mega (80 GB)
    • nvidia-h100-80gb:NVIDIA H100 (80 GB)
    • nvidia-a100-80gb:NVIDIA A100 (80 GB)
    • nvidia-tesla-a100:NVIDIA A100 (40GB)
    • nvidia-l4:NVIDIA L4
    • nvidia-tesla-t4:NVIDIA T4

  • 下列任一類型的 TPU:

    • tpu-v6e-slice:TPU v6e 配量
    • tpu-v5p-slice:TPU v5p 配量
    • tpu-v5-lite-podslice:TPU v5 Lite PodSlice
    • tpu-v5-lite-device:TPU v5 Lite 裝置
    • tpu-v4-lite-device:TPU v4 Lite 裝置
    • tpu-v4-podslice:TPU v4 PodSlice
    • tpu-v3-device:TPU v3 裝置
    • tpu-v3-slice:TPU v3 PodSlice

如要建立容量預留項目,請參閱下列資源。預訂必須符合下列條件:

  • 機器類型、加速器類型和加速器數量與工作負載消耗的資源相符。
  • 保留項目使用「特定」消耗類型。舉例來說,在 gcloud CLI 中,您必須在建立預留項目時指定 --require-specific-reservation 旗標。

  • 為單一專案建立預留項目

  • 建立共用預留項目

GKE 會自動將所選特定預訂項目中的所有本機 SSD 連接至節點。您不需要在工作負載資訊清單中選取個別的本機 SSD。舉例來說,如果您選取的預留項目包含兩個本機 SSD,GKE 從該預留項目建立的節點就會附加兩個本機 SSD。

在 Autopilot 中使用同一專案的特定預留項目

本節說明如何使用與叢集位於同一專案中的特定容量預留項目。您可以使用 kubectl 或 Terraform。

kubectl

  1. 將下列資訊清單儲存為 specific-autopilot.yaml。這個資訊清單含有會耗用特定預留項目的節點選取器。您可以使用 VM 執行個體或加速器。

    VM 執行個體

      apiVersion: v1
      kind: Pod
      metadata:
        name: specific-same-project-pod
      spec:
        nodeSelector:
          cloud.google.com/compute-class: Performance
          cloud.google.com/machine-family: MACHINE_SERIES
          cloud.google.com/reservation-name: RESERVATION_NAME
          cloud.google.com/reservation-affinity: "specific"
        containers:
        - name: my-container
          image: "k8s.gcr.io/pause"
          resources:
            requests:
              cpu: 2
              memory: "4Gi"
    

    更改下列內容:

    • MACHINE_SERIES:包含特定容量預留項目中 VM 機器類型的機器系列。舉例來說,如果預訂的機器類型為 c3-standard-4,請在 MACHINE_SERIES 欄位中指定 c3
    • RESERVATION_NAME:Compute Engine 容量預留的名稱。

    GPU 加速器

      apiVersion: v1
      kind: Pod
      metadata:
        name: specific-same-project-pod
      spec:
        nodeSelector:
          cloud.google.com/gke-accelerator: ACCELERATOR
          cloud.google.com/reservation-name: RESERVATION_NAME
          cloud.google.com/reservation-affinity: "specific"
        containers:
        - name: my-container
          image: "k8s.gcr.io/pause"
          resources:
            requests:
              cpu: 12
              memory: "50Gi"
              ephemeral-storage: "200Gi"
            limits:
              nvidia.com/gpu: QUANTITY
    

    更改下列內容:

    • ACCELERATOR:您在 Compute Engine 容量預留中預留的加速器。必須是下列其中一個值:
      • nvidia-b200:NVIDIA B200 (180 GB)
      • nvidia-h200-141gb:NVIDIA H200 (141 GB)
      • nvidia-h100-mega-80gb:NVIDIA H100 Mega (80 GB)
      • nvidia-h100-80gb:NVIDIA H100 (80 GB)
      • nvidia-a100-80gb:NVIDIA A100 (80 GB)
      • nvidia-tesla-a100:NVIDIA A100 (40GB)
      • nvidia-l4:NVIDIA L4
      • nvidia-tesla-t4:NVIDIA T4
    • RESERVATION_NAME:Compute Engine 容量預留的名稱。
    • QUANTITY:要附加至容器的 GPU 數量。必須是指定 GPU 支援的數量,詳情請參閱「支援的 GPU 數量」。

    TPU 加速器

      apiVersion: v1
      kind: Pod
      metadata:
        name: specific-same-project-pod
      spec:
        nodeSelector:
          cloud.google.com/gke-tpu-accelerator: ACCELERATOR
          cloud.google.com/gke-tpu-topology: TOPOLOGY
          cloud.google.com/reservation-name: RESERVATION_NAME
          cloud.google.com/reservation-affinity: "specific"
        containers:
        - name: my-container
          image: "k8s.gcr.io/pause"
          resources:
            requests:
              cpu: 12
              memory: "50Gi"
              ephemeral-storage: "200Gi"
            limits:
              google.com/tpu: QUANTITY
    

    更改下列內容:

    • ACCELERATOR:您在 Compute Engine 容量預留中預留的加速器。必須是下列其中一個值:
      • tpu-v6e-slice:TPU v6e 配量
      • tpu-v5p-slice:TPU v5p 配量
      • tpu-v5-lite-podslice:TPU v5 Lite PodSlice
      • tpu-v5-lite-device:TPU v5 Lite 裝置
      • tpu-v4-lite-device:TPU v4 Lite 裝置
      • tpu-v4-podslice:TPU v4 PodSlice
      • tpu-v3-device:TPU v3 裝置
      • tpu-v3-slice:TPU v3 PodSlice
    • TOPOLOGY:TPU 拓撲。
    • RESERVATION_NAME:Compute Engine 容量預留的名稱。
    • QUANTITY:要附加至容器的 TPU 數量。必須與 TPU 拓撲一致。
  2. 部署 Pod:

    kubectl apply -f specific-autopilot.yaml
    

Autopilot 會使用指定預留項目中的預留容量,佈建新節點來放置 Pod。

Terraform

如要使用 Terraform,在與 VM 執行個體相同的專案中,使用特定預留項目,請參閱下列範例:

resource "kubernetes_pod_v1" "default_pod" {
  metadata {
    name = "specific-same-project-pod"
  }

  spec {
    node_selector = {
      "cloud.google.com/compute-class"        = "Performance"
      "cloud.google.com/machine-family"       = "c3"
      "cloud.google.com/reservation-name"     = google_compute_reservation.specific_pod.name
      "cloud.google.com/reservation-affinity" = "specific"
    }

    container {
      name  = "my-container"
      image = "registry.k8s.io/pause"

      resources {
        requests = {
          cpu               = 2
          memory            = "8Gi"
          ephemeral-storage = "1Gi"
        }
      }

      security_context {
        allow_privilege_escalation = false
        run_as_non_root            = false

        capabilities {
          add  = []
          drop = ["NET_RAW"]
        }
      }
    }

    security_context {
      run_as_non_root     = false
      supplemental_groups = []

      seccomp_profile {
        type = "RuntimeDefault"
      }
    }
  }

  depends_on = [
    google_compute_reservation.specific_pod
  ]
}

如要使用 Terraform,在與 Accelerator 運算類別相同的專案中,使用特定預留項目,請參閱下列範例:

resource "kubernetes_pod_v1" "default_accelerator" {
  metadata {
    name = "specific-same-project-accelerator"
  }

  spec {
    node_selector = {
      "cloud.google.com/compute-class"        = "Accelerator"
      "cloud.google.com/gke-accelerator"      = "nvidia-l4"
      "cloud.google.com/reservation-name"     = google_compute_reservation.specific_accelerator.name
      "cloud.google.com/reservation-affinity" = "specific"
    }

    container {
      name  = "my-container"
      image = "registry.k8s.io/pause"

      resources {
        requests = {
          cpu               = 2
          memory            = "7Gi"
          ephemeral-storage = "1Gi"
          "nvidia.com/gpu"  = 1

        }
        limits = {
          "nvidia.com/gpu" = 1
        }
      }

      security_context {
        allow_privilege_escalation = false
        run_as_non_root            = false

        capabilities {
          add  = []
          drop = ["NET_RAW"]
        }
      }
    }

    security_context {
      run_as_non_root     = false
      supplemental_groups = []

      seccomp_profile {
        type = "RuntimeDefault"
      }
    }
  }

  depends_on = [
    google_compute_reservation.specific_accelerator
  ]
}

如要進一步瞭解如何使用 Terraform,請參閱「GKE 的 Terraform 支援」。

在 Autopilot 中耗用特定共用預留項目

本節使用下列詞彙:

  • 擁有者專案:擁有預留項目並與其他專案共用該項目的專案。
  • 消費者專案:執行工作負載的專案,這些工作負載會耗用共用預留資源。

如要使用共用預留項目,您必須在擁有該預留項目的專案中,授予 GKE 服務代理程式預留項目存取權。請執行下列步驟:

  1. 在擁有者專案中,建立包含 compute.reservations.list 權限的自訂 IAM 角色:

    gcloud iam roles create ROLE_NAME \
        --project=OWNER_PROJECT_ID \
        --permissions='compute.reservations.list'
    

    更改下列內容:

    • ROLE_NAME:新角色的名稱。
    • OWNER_PROJECT_ID:擁有容量預留項目的專案 ID。
  2. 在擁有者專案中,授予用戶專案的 GKE 服務代理列出共用預留項目的權限:

    gcloud projects add-iam-policy-binding OWNER_PROJECT_ID \
        --project=OWNER_PROJECT_ID \
        --member=serviceAccount:service-CONSUMER_PROJECT_NUMBER@container-engine-robot.iam.gserviceaccount.com \
        --role='projects/OWNER_PROJECT_ID/roles/ROLE_NAME'
    

    CONSUMER_PROJECT_NUMBER 替換為消費者專案的專案編號 (數字)。如要尋找這個號碼,請參閱資源管理員說明文件中的「識別專案」一節。

  3. 將下列資訊清單儲存為 shared-autopilot.yaml。這份資訊清單含有 nodeSelector,可告知 GKE 要使用特定共用預留資源。

    VM 執行個體

    apiVersion: v1
    kind: Pod
    metadata:
      name: performance-pod
    spec:
      nodeSelector:
        cloud.google.com/compute-class: Performance
        cloud.google.com/machine-family: MACHINE_SERIES
        cloud.google.com/reservation-name: RESERVATION_NAME
        cloud.google.com/reservation-project: OWNER_PROJECT_ID
        cloud.google.com/reservation-affinity: "specific"
      containers:
      - name: my-container
        image: "k8s.gcr.io/pause"
        resources:
          requests:
            cpu: 2
            memory: "4Gi"
    

    更改下列內容:

    • MACHINE_SERIES:包含特定容量預留項目中 VM 機器類型的機器系列。舉例來說,如果預留項目適用於 c3-standard-4 機器類型,請在 MACHINE_SERIES 欄位中指定 c3
    • RESERVATION_NAME:Compute Engine 容量預留的名稱。
    • OWNER_PROJECT_ID:擁有容量預留項目的專案 ID。

    GPU 加速器

    apiVersion: v1
    kind: Pod
    metadata:
      name: specific-same-project-pod
    spec:
      nodeSelector:
        cloud.google.com/gke-accelerator: ACCELERATOR
        cloud.google.com/reservation-name: RESERVATION_NAME
        cloud.google.com/reservation-project: OWNER_PROJECT_ID
        cloud.google.com/reservation-affinity: "specific"
      containers:
      - name: my-container
        image: "k8s.gcr.io/pause"
        resources:
          requests:
            cpu: 12
            memory: "50Gi"
            ephemeral-storage: "200Gi"
          limits:
            nvidia.com/gpu: QUANTITY
    

    更改下列內容:

    • ACCELERATOR:您在 Compute Engine 容量預留中預留的加速器。必須是下列其中一個值:
      • nvidia-b200:NVIDIA B200 (180 GB)
      • nvidia-h200-141gb:NVIDIA H200 (141 GB)
      • nvidia-h100-mega-80gb:NVIDIA H100 Mega (80 GB)
      • nvidia-h100-80gb:NVIDIA H100 (80 GB)
      • nvidia-a100-80gb:NVIDIA A100 (80 GB)
      • nvidia-tesla-a100:NVIDIA A100 (40GB)
      • nvidia-l4:NVIDIA L4
      • nvidia-tesla-t4:NVIDIA T4
    • RESERVATION_NAME:Compute Engine 容量預留的名稱。
    • OWNER_PROJECT_ID:擁有容量預留項目的專案 ID。
    • QUANTITY:要附加至容器的 GPU 數量。必須是指定 GPU 支援的數量,詳情請參閱「支援的 GPU 數量」。

    TPU 加速器

    apiVersion: v1
    kind: Pod
    metadata:
      name: specific-shared-project-pod
    spec:
      nodeSelector:
        cloud.google.com/gke-tpu-accelerator: ACCELERATOR
        cloud.google.com/gke-tpu-topology: TOPOLOGY
        cloud.google.com/reservation-name: RESERVATION_NAME
        cloud.google.com/reservation-project: OWNER_PROJECT_ID
        cloud.google.com/reservation-affinity: "specific"
      containers:
      - name: my-container
        image: "k8s.gcr.io/pause"
        resources:
          requests:
            cpu: 12
            memory: "50Gi"
            ephemeral-storage: "200Gi"
          limits:
            google.com/tpu: QUANTITY
    

    更改下列內容:

    • ACCELERATOR:您在 Compute Engine 容量預留中預留的加速器。必須是下列其中一個值:
      • tpu-v6e-slice:TPU v6e 配量
      • tpu-v5p-slice:TPU v5p 配量
      • tpu-v5-lite-podslice:TPU v5 Lite PodSlice
      • tpu-v5-lite-device:TPU v5 Lite 裝置
      • tpu-v4-lite-device:TPU v4 Lite 裝置
      • tpu-v4-podslice:TPU v4 PodSlice
      • tpu-v3-device:TPU v3 裝置
      • tpu-v3-slice:TPU v3 PodSlice
    • TOPOLOGY:TPU 拓撲。
    • RESERVATION_NAME:Compute Engine 容量預留的名稱。
    • OWNER_PROJECT_ID:擁有容量預留項目的專案 ID。
    • QUANTITY:要附加至容器的 TPU 數量。必須與 TPU 拓撲一致。
  4. 部署 Pod:

    kubectl apply -f shared-autopilot.yaml
    

Autopilot 會使用指定預留項目中的預留容量,佈建新節點來放置 Pod。

在 Autopilot 中耗用特定預留項目模塊

本節說明如何使用與叢集位於相同專案或共用專案中的特定容量預留區塊。這項功能僅適用於特定加速器。 您可以使用 kubectl 設定 Pod,以取用預留區塊。

  1. 將下列資訊清單儲存為 reservation-block-autopilot.yaml。這個資訊清單含有會耗用特定預留項目的節點選取器。

    Local Project

    apiVersion: v1
    kind: Pod
    metadata:
      name: specific-same-project-pod
    spec:
      nodeSelector:
        cloud.google.com/gke-accelerator: ACCELERATOR
        cloud.google.com/reservation-name: RESERVATION_NAME
        cloud.google.com/reservation-affinity: "specific"
        cloud.google.com/reservation-blocks: RESERVATION_BLOCKS_NAME
      
      containers:
      - name: my-container
        image: "k8s.gcr.io/pause"
        resources:
          requests:
            cpu: 12
            memory: "50Gi"
            ephemeral-storage: "200Gi"
          limits:
            nvidia.com/gpu: QUANTITY
    

    更改下列內容:

    • ACCELERATOR:您在 Compute Engine 容量預留中預留的加速器。必須是下列其中一個值:
      • nvidia-b200:NVIDIA B200 (180 GB)
      • nvidia-h200-141gb:NVIDIA H200 (141 GB)
    • RESERVATION_NAME:Compute Engine 容量預留的名稱。
    • RESERVATION_BLOCKS_NAME:Compute Engine 容量預留區塊的名稱。
    • QUANTITY:要附加至容器的 GPU 數量。必須是指定 GPU 支援的數量,詳情請參閱「支援的 GPU 數量」。

    如為其他專案擁有的預留資源,請在 spec.nodeSelector 欄位中加入 cloud.google.com/reservation-project: OWNER_PROJECT_ID。將 OWNER_PROJECT_ID 替換為擁有容量預留項目的專案 ID。

  2. 部署 Pod:

    kubectl apply -f reservation-block-autopilot.yaml
    

    Autopilot 會使用指定預留區塊中的預留容量,佈建新節點來放置 Pod。

排解 Autopilot 中保留項目用量的問題

  • 請確認機型、加速器類型、本機 SSD 設定和加速器數量,與工作負載使用的資源相符。如需必須相符的屬性完整清單,請參閱「Compute Engine 容量預留屬性」。
  • 確認保留項目是使用特定親和性建立。
  • 使用共用預留項目時,請確保用戶專案中的 GKE 服務代理有權列出擁有者專案中的共用預留項目。

在 GKE Standard 中使用預留執行個體

建立叢集或節點集區時,您可以指定 --reservation-affinity 標記,指出預訂資源的消耗模式。

使用任何相符的預留項目

您可以使用 gcloud CLI 或 Terraform 建立預留項目和執行個體,以使用任何預留項目。

gcloud

如要自動使用任何相符的保留項目,請將預留相依性旗標設為 --reservation-affinity=any。由於 any 是 Compute Engine 中定義的預設值,因此您可以完全省略預留項目親和性標記。

any 預留項目消耗模式中,節點會先從所有單一專案預留項目取得容量,再從任何共用預留項目取得容量,因為共用預留項目可供其他專案使用。如要進一步瞭解系統如何自動消耗執行個體,請參閱「消耗順序」。

  1. 為三個 VM 執行個體建立預留項目:

    gcloud compute reservations create RESERVATION_NAME \
        --machine-type=MACHINE_TYPE --vm-count=3
    

    更改下列內容:

    • RESERVATION_NAME:要建立的預訂名稱。
    • MACHINE_TYPE:用於預留的機器類型 (僅限名稱)。例如:n1-standard-2
  2. 確認預留項目是否已成功建立:

    gcloud compute reservations describe RESERVATION_NAME
    
  3. 建立具有單一節點的叢集,以使用任何相符的預留項目:

    gcloud container clusters create CLUSTER_NAME \
        --machine-type=MACHINE_TYPE --num-nodes=1 \
        --reservation-affinity=any
    

    CLUSTER_NAME 替換為要建立的叢集名稱。

  4. 建立具有三個節點的節點集區,以使用任何相符的預留項目:

    gcloud container node-pools create NODEPOOL_NAME \
        --cluster CLUSTER_NAME --num-nodes=3 \
        --machine-type=MACHINE_TYPE --reservation-affinity=any
    

    NODEPOOL_NAME 替換為要建立的節點集區名稱。

節點總數為四個,超過預訂容量。其中三個節點會使用預留項目,最後一個節點則會從一般 Compute Engine 資源集區取得容量。

Terraform

如要使用 Terraform 建立三個 VM 執行個體的預留項目,請參閱下列範例:

resource "google_compute_reservation" "any_reservation" {
  name = "any-reservation"
  zone = "us-central1-a"

  specific_reservation {
    count = 3

    instance_properties {
      machine_type = "e2-medium"
    }
  }
}

如要使用 Terraform 建立叢集,並使用任何相符的預留項目,請參閱下列範例:

resource "google_container_cluster" "default" {
  name     = "gke-standard-zonal-cluster"
  location = "us-central1-a"

  initial_node_count = 1

  node_config {
    machine_type = "e2-medium"

    reservation_affinity {
      consume_reservation_type = "ANY_RESERVATION"
    }
  }

  depends_on = [
    google_compute_reservation.any_reservation
  ]
}

如要使用 Terraform 建立具有三個節點的節點集區,以使用任何相符的預留項目,請參閱下列範例:

resource "google_container_node_pool" "any_node_pool" {
  name     = "gke-standard-zonal-any-node-pool"
  cluster  = google_container_cluster.default.name
  location = google_container_cluster.default.location

  initial_node_count = 3
  node_config {
    machine_type = "e2-medium"

    reservation_affinity {
      consume_reservation_type = "ANY_RESERVATION"
    }
  }
}

如要進一步瞭解如何使用 Terraform,請參閱「GKE 的 Terraform 支援」。

使用特定單一專案預留項目

如要使用特定保留項目,請將保留項目相依性旗標設為 --reservation-affinity=specific,並提供特定保留項目名稱。在這個模式中,執行個體必須從區域中的指定預訂項目取得容量。如果預留項目容量不足,要求就會失敗。

如要建立預留項目和執行個體來使用特定預留項目,請按照下列步驟操作。您可以使用 gcloud CLI 或 Terraform。

gcloud

  1. 為三個 VM 執行個體建立特定保留項目:

    gcloud compute reservations create RESERVATION_NAME \
        --machine-type=MACHINE_TYPE --vm-count=3 \
        --require-specific-reservation
    

    更改下列內容:

    • RESERVATION_NAME:要建立的預訂名稱。
    • MACHINE_TYPE:用於預留的機器類型 (僅限名稱)。例如:n1-standard-2
  2. 建立具有單一節點的節點集區,以使用特定單一專案預留項目:

    gcloud container node-pools create NODEPOOL_NAME \
        --cluster CLUSTER_NAME \
        --machine-type=MACHINE_TYPE --num-nodes=1 \
        --reservation-affinity=specific --reservation=RESERVATION_NAME
    

    更改下列內容:

    • NODEPOOL_NAME:要建立的節點集區名稱。
    • CLUSTER_NAME:您建立的叢集名稱。

Terraform

如要使用 Terraform 建立特定預留項目,請參閱下列範例:

resource "google_compute_reservation" "specific_reservation" {
  name = "specific-reservation"
  zone = "us-central1-a"

  specific_reservation {
    count = 1

    instance_properties {
      machine_type = "e2-medium"
    }
  }

  specific_reservation_required = true
}

如要建立具有單一節點的節點集區,並使用 Terraform 消耗特定單一專案預留項目,請參閱下列範例:

resource "google_container_node_pool" "specific_node_pool" {
  name     = "gke-standard-zonal-specific-node-pool"
  cluster  = google_container_cluster.default.name
  location = google_container_cluster.default.location

  initial_node_count = 1
  node_config {
    machine_type = "e2-medium"

    reservation_affinity {
      consume_reservation_type = "SPECIFIC_RESERVATION"
      key                      = "compute.googleapis.com/reservation-name"
      values                   = [google_compute_reservation.specific_reservation.name]
    }
  }

  depends_on = [
    google_compute_reservation.specific_reservation
  ]
}

如要進一步瞭解如何使用 Terraform,請參閱「GKE 的 Terraform 支援」。

使用特定共用預留項目

如要建立特定共用預留項目並使用該項目,請按照下列步驟操作。您可以使用 gcloud CLI 或 Terraform。

  1. 請按照「允許及限制專案建立和修改共用預留項目」一文中的步驟操作。

gcloud

  1. 建立特定共用預留項目:

    gcloud compute reservations create RESERVATION_NAME \
        --machine-type=MACHINE_TYPE --vm-count=3 \
        --zone=ZONE \
        --require-specific-reservation \
        --project=OWNER_PROJECT_ID \
        --share-setting=projects \
        --share-with=CONSUMER_PROJECT_IDS
    

    更改下列內容:

    • RESERVATION_NAME:要建立的預訂名稱。
    • MACHINE_TYPE:預留項目使用的機型類型名稱。例如:n1-standard-2
    • OWNER_PROJECT_ID:您要建立共用預留資源的專案 ID。如果省略 --project 標記,GKE 預設會將目前專案做為擁有者專案。
    • CONSUMER_PROJECT_IDS:以半形逗號分隔的專案 ID 清單,列出要與這個預留項目共用的專案。例如:project-1,project-2。最多可加入 100 個消費者專案。 這些專案必須與擁有者專案位於同一個機構。 請勿加入 OWNER_PROJECT_ID,因為預設情況下,這項預留項目可能會耗用該執行個體。
  2. 使用共用預留項目:

      gcloud container node-pools create NODEPOOL_NAME \
          --cluster CLUSTER_NAME \
          --machine-type=MACHINE_TYPE --num-nodes=1 \
          --reservation-affinity=specific \
          --reservation=projects/OWNER_PROJECT_ID/reservations/RESERVATION_NAME
    

    更改下列內容:

    • NODEPOOL_NAME:要建立的節點集區名稱。
    • CLUSTER_NAME:您建立的叢集名稱。

Terraform

如要使用 Terraform 建立特定共用預留項目,請參閱下列範例:

resource "google_compute_reservation" "specific_reservation" {
  name = "specific-reservation"
  zone = "us-central1-a"

  specific_reservation {
    count = 1

    instance_properties {
      machine_type = "e2-medium"
    }
  }

  specific_reservation_required = true
}

如要使用 Terraform 消耗特定共用預留項目,請參閱下列範例:

resource "google_container_node_pool" "specific_node_pool" {
  name     = "gke-standard-zonal-specific-node-pool"
  cluster  = google_container_cluster.default.name
  location = google_container_cluster.default.location

  initial_node_count = 1
  node_config {
    machine_type = "e2-medium"

    reservation_affinity {
      consume_reservation_type = "SPECIFIC_RESERVATION"
      key                      = "compute.googleapis.com/reservation-name"
      values                   = [google_compute_reservation.specific_reservation.name]
    }
  }

  depends_on = [
    google_compute_reservation.specific_reservation
  ]
}

如要進一步瞭解如何使用 Terraform,請參閱「GKE 的 Terraform 支援」。

從特定預留項目使用執行個體的其他注意事項

建立具有特定保留項目相依性的節點集區時 (包括叢集建立期間的預設節點集區),節點集區的大小會受到節點集區整個生命週期的特定保留項目容量限制。這會影響下列 GKE 功能:

  • 多區域叢集:在區域或多區域叢集中,節點集區的節點可以跨越多個區域。由於預留項目是單一區域,因此需要多個預留項目。如要在這些叢集中建立使用特定預留項目的節點集區,您必須在節點集區的每個區域中,建立名稱和機器屬性完全相同的特定預留項目。
  • 叢集自動調度資源和節點集區升級:如果特定預留容量沒有額外容量,節點集區升級或節點集區自動調度資源可能會失敗,因為這兩項作業都需要建立額外執行個體。如要解決這個問題,請變更預留大小,或釋出部分繫結資源。

使用 GPU 預留項目

如要建立會耗用 GPU 預留項目的標準節點集區,或耗用容量位於單一區域的任何預留項目,您必須在新增節點集區時指定 --node-locations 標記。建立地區標準叢集多區域標準叢集時,指定節點位置可確保 GKE 只會在您預留 GPU 容量的區域中建立節點。

如需建立使用 GPU 的節點集區的詳細操作說明,請參閱「建立 GPU 節點集區」。

使用 TPU 預留項目

如要建立會耗用 TPU 預留項目的標準節點集區,請務必在新增節點集區時指定 --node-locations 旗標。建立區域 Standard 叢集多區域 Standard 叢集時,指定節點位置可確保 GKE 只會在您預留 TPU 容量的區域中建立節點。

TPU 預留項目與其他機型不同。建立 TPU 預訂時,請考量下列 TPU 專屬事項:

  • GKE 中使用 TPU 時,SPECIFIC--reservation-affinity 標記唯一支援的值。

如需建立使用 TPU 的節點集區的詳細操作說明,請參閱「建立 TPU 節點集區」。

建立不使用保留項目的節點

如要避免使用任何預留項目的資源,請將相依性設為 --reservation-affinity=none

  1. 建立不會耗用任何預留項目的叢集:

    gcloud container clusters create CLUSTER_NAME --reservation-affinity=none
    

    CLUSTER_NAME 替換為要建立的叢集名稱。

  2. 建立不會使用任何保留項目的節點集區:

    gcloud container node-pools create NODEPOOL_NAME \
        --cluster CLUSTER_NAME \
        --reservation-affinity=none
    

    NODEPOOL_NAME 替換為要建立的節點集區名稱。

以下為各區域間可用的預訂項目

如果使用在多個區域中執行的節點集區,且各區域的預留項目數量不相等,可以使用 --location_policy=ANY 旗標。這可確保將新節點新增至叢集時,系統會在仍有未用保留項目的區域中建立節點。

正在清除所用資源

如要避免系統向您的 Cloud Billing 帳戶收取您在本頁面中使用資源的相關費用:

  1. 針對每個叢集執行下列指令,刪除您建立的叢集:

    gcloud container clusters delete CLUSTER_NAME
    
  2. 針對每個預留項目執行下列指令,刪除您建立的預留項目:

    gcloud compute reservations delete RESERVATION_NAME
    

後續步驟