Esegui il provisioning e utilizza l'archiviazione temporanea basata su SSD locali


Questa pagina spiega come eseguire il provisioning dello spazio di archiviazione SSD locale sui cluster Google Kubernetes Engine (GKE) e come configurare i carichi di lavoro per consumare i dati dell'archiviazione temporanea supportata da SSD locali collegati ai nodi nel tuo cluster.

Per saperne di più sul supporto degli SSD locali su GKE, consulta Informazioni sull'archiviazione degli SSD locali.

Prima di iniziare

Prima di iniziare, assicurati di aver eseguito le seguenti attività:

  • Abilita l'API Google Kubernetes Engine.
  • Abilita l'API Google Kubernetes Engine
  • Se vuoi utilizzare Google Cloud CLI per questa attività, installa e quindi initialize gcloud CLI. Se hai già installato gcloud CLI, ottieni la versione più recente eseguendo gcloud components update.

Crea un cluster o un pool di nodi con archiviazione temporanea supportata da SSD locali

Utilizza Google Cloud CLI per creare un cluster o un pool di nodi con archiviazione temporanea supportata da SSD locali.

Utilizza l'opzione --ephemeral-storage-local-ssd per collegare lo spazio di archiviazione temporaneo locale completamente gestito supportato da volumi SSD locali. Questo spazio di archiviazione è legato al ciclo di vita dei pod. Quando i tuoi pod richiedono l'archiviazione temporanea, GKE li pianifica per l'esecuzione su nodi in cui sono presenti volumi SSD locali configurati come archiviazione temporanea. Se vuoi un controllo più specializzato o granulare sulle unità SSD locali, ti consigliamo di utilizzare invece l'archiviazione a blocchi non elaborati supportati da SSD locali.

Se è abilitata la scalabilità automatica del cluster, GKE scala automaticamente i nodi quando il cluster ha bisogno di più spazio di archiviazione temporaneo. I pod possono accedere ai dati sui volumi SSD locali tramite il volume emptyDir.

Il comando gcloud CLI da eseguire per creare il cluster o il pool di nodi dipende dalla generazione di serie di macchine del tipo di macchina selezionato. Ad esempio, i tipi di macchine N1 e N2 appartengono rispettivamente a una serie di macchine di prima e seconda generazione, mentre i tipi C3 appartengono a una serie di macchine di terza generazione.

Crea un cluster con SSD locale

1a o 2a generazione

Se utilizzi un tipo di macchina di una serie di macchine di prima o seconda generazione, crea il cluster specificando l'opzione --ephemeral-storage-local-ssd count=NUMBER_OF_DISKS. Questa opzione esegue il provisioning del numero specificato di volumi SSD locali su ciascun nodo da utilizzare per l'archiviazione temporanea dei kubelet.

Queste impostazioni si applicano solo al pool di nodi predefinito. Se i pool di nodi successivi hanno bisogno di un SSD locale, specificalo durante la creazione del pool di nodi.

Per creare un cluster in esecuzione su GKE versione 1.25.3-gke.1800 o successiva in cui il pool predefinito utilizza volumi SSD locali, esegui questo comando:

gcloud container clusters create CLUSTER_NAME \
    --ephemeral-storage-local-ssd count=NUMBER_OF_DISKS \
    --machine-type=MACHINE_TYPE \
    --release-channel CHANNEL_NAME

Sostituisci quanto segue:

  • CLUSTER_NAME: il nome del cluster.
  • NUMBER_OF_DISKS: il numero di volumi SSD locali di cui eseguire il provisioning su ciascun nodo. Questi volumi vengono combinati in un unico volume logico durante la configurazione del nodo. Il numero massimo di volumi varia in base al tipo di macchina e alla regione. Tieni presente che una parte della capacità degli SSD locali è riservata all'uso del sistema.
  • MACHINE_TYPE: tipo di macchina da utilizzare. Questo campo è obbligatorio perché l'SSD locale non può essere utilizzato con il tipo e2-medium predefinito.
  • CHANNEL_NAME: un canale di rilascio che include versioni di GKE successive alla 1.25.3-gke.1800. Se preferisci non utilizzare un canale di rilascio, puoi anche usare il flag --cluster-version anziché --release-channel, specificando una versione valida successiva a 1.25.3-gke.1800. Per determinare le versioni valide, utilizza il comando gcloud container get-server-config.

3a generazione

Se utilizzi un tipo di macchina di una serie di macchine di terza generazione, non devi specificare le opzioni SSD locale quando crei un cluster. Il numero di dischi collegati a ciascun nodo dipende dal tipo di macchina.

Per creare un cluster, esegui questo comando:

gcloud container clusters create CLUSTER_NAME \
  --machine-type=MACHINE_TYPE \
  --cluster-version CLUSTER_VERSION

Sostituisci quanto segue:

  • CLUSTER_NAME: il nome del cluster.
  • MACHINE_TYPE: il tipo di macchina da utilizzare da una serie di macchine di terza generazione.
  • CLUSTER_VERSION: una versione del cluster GKE che supporta SSD locale sui tipi di macchine di una serie di macchine di terza generazione.

Crea un pool di nodi con SSD locale

1a o 2a generazione

Per creare un pool di nodi in esecuzione su GKE versione 1.25.3-gke.1800 o successiva che utilizza volumi SSD locali, esegui questo comando:

gcloud container node-pools create POOL_NAME \
    --cluster=CLUSTER_NAME \
    --ephemeral-storage-local-ssd count=NUMBER_OF_DISKS \
    --machine-type=MACHINE_TYPE

Sostituisci quanto segue:

  • POOL_NAME: il nome del nuovo pool di nodi.
  • CLUSTER_NAME: il nome del cluster.
  • NUMBER_OF_DISKS: il numero di volumi SSD locali di cui eseguire il provisioning su ciascun nodo. Questi volumi vengono combinati in un unico volume logico durante la configurazione del nodo. Il numero massimo di volumi varia in base al tipo di macchina e alla regione. Tieni presente che una parte della capacità degli SSD locali è riservata all'uso del sistema.
  • MACHINE_TYPE: tipo di macchina da utilizzare. Questo campo è obbligatorio perché l'SSD locale non può essere utilizzato con il tipo e2-medium predefinito.

3a generazione

Se utilizzi un tipo di macchina di una serie di macchine di terza generazione, non è necessario specificare le opzioni SSD locale quando si crea un pool di nodi. Il numero di volumi collegati a ciascun nodo dipende dal tipo di macchina.

Per creare un pool di nodi, esegui questo comando:

gcloud container node-pools create POOL_NAME \
  --cluster=CLUSTER_NAME \
  --machine-type=MACHINE_TYPE \
  --node-version NODE_VERSION

Sostituisci quanto segue:

  • POOL_NAME: il nome del nuovo pool di nodi.
  • CLUSTER_NAME: il nome del cluster.
  • MACHINE_TYPE: il tipo di macchina da utilizzare da una serie di macchine di terza generazione.
  • NODE_VERSION: una versione del pool di nodi GKE che supporta SSD locale sui tipi di macchine di una serie di macchine di terza generazione.

I nodi nel pool di nodi vengono creati con un'etichetta cloud.google.com/gke-ephemeral-storage-local-ssd=true. Puoi verificare le etichette eseguendo questo comando:

kubectl describe node NODE_NAME

Usa l'archiviazione temporanea basata su SSD locali con i cluster Autopilot

Puoi usare l'SSD locale nelle seguenti classi di calcolo Autopilot:

  • Performance
  • Accelerator

Per la classe Performance, segui le istruzioni per utilizzare le unità SSD locali nei pod della classe Performance.

Per la classe di calcolo Accelerator, puoi utilizzare l'SSD locale per l'archiviazione temporanea se utilizzi GPU NVIDIA L4 ed esegui la patch GKE versione 1.28.6-gke.1369000 e successive o 1.29.1-gke.1575000 e successive. Le GPU NVIDIA H100 (80 GB) e NVIDIA A100 (80 GB) utilizzano sempre SSD locali per l'archiviazione temporanea e non puoi specificare il seguente selettore di nodi per queste GPU.

Per utilizzare SSD locale per l'archiviazione temporanea, aggiungi il nodeSelector cloud.google.com/gke-ephemeral-storage-local-ssd: "true" al manifest del carico di lavoro. La specifica del pod dovrebbe essere simile al seguente esempio:

apiVersion: v1
kind: Pod
metadata:
  name: l4-localssd-pod
spec:
  containers:
  - name: my-gpu-container
    image: nvidia/cuda:11.0.3-runtime-ubuntu20.04
    command: ["/bin/bash", "-c", "--"]
    args: ["while true; do sleep 600; done;"]
    resources:
      requests:
        cpu: 16
        memory: 64Gi
        ephemeral-storage: 800Gi
      limits:
       cpu: 16
       memory: 64Gi
       ephemeral-storage: 800Gi
       nvidia.com/gpu: 8
  nodeSelector:
    cloud.google.com/gke-accelerator: nvidia-l4
    cloud.google.com/compute-class: Accelerator
    cloud.google.com/gke-ephemeral-storage-local-ssd: "true"

Utilizzo del parametro API legacy

L'opzione --local-ssd-count è un parametro API legacy che supporta l'SSD locale SCSI. La serie di macchine di terza generazione di Compute Engine non supporta SCSI e solo NVMe. Dovresti utilizzare questa opzione solo con i cluster Windows Server. Se attualmente utilizzi il parametro API legacy su cluster Linux, ti consigliamo di utilizzare invece l'opzione --ephemeral-storage-local-ssd.

SSD locale su cluster Windows Server

Quando utilizzi l'SSD locale con i tuoi cluster che eseguono pool di nodi Windows Server, devi accedere al nodo e formattare il volume prima di utilizzarlo. Nell'esempio seguente, il volume SSD locale è formattato con il file system NTFS. Puoi anche creare directory sotto il volume. In questo esempio, le directory si trovano nel disco D.

PS C:\> Get-Disk | Where partitionstyle -eq 'raw' | Initialize-Disk -PartitionStyle MBR -PassThru | New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem ntfs -Confirm:$false
PS C:\> mkdir D:\test-ssd

Accedi a volumi SSD locali

L'esempio seguente mostra come accedere allo spazio di archiviazione temporaneo supportato da SSD locali.

Archiviazione temporanea come volume emptyDir

Un pool di nodi GKE può essere configurato in modo da utilizzare SSD locale per l'archiviazione temporanea, inclusi volumi emptyDir.

Il seguente manifest dei pod utilizza un emptyDir e un selettore dei nodi di cloud.google.com/gke-ephemeral-storage-local-ssd. Puoi applicare una tecnica simile per i manifest di deployment o i manifest StatefulSet.

Quando scegli la richiesta di risorse di archiviazione temporanea, considera la capacità SSD locale prenotata per l'uso da parte del sistema.

apiVersion: v1
kind: Pod
metadata:
  name: POD_NAME
spec:
  containers:
    - name: CONTAINER_NAME
      image: "registry.k8s.io/pause"
      resources:
        requests:
          ephemeral-storage: "200Gi"
      volumeMounts:
        - mountPath: /cache
          name: scratch-volume
  nodeSelector:
    cloud.google.com/gke-ephemeral-storage-local-ssd: "true"
  volumes:
    - name: scratch-volume
      emptyDir: {}

Risoluzione dei problemi

Per istruzioni sulla risoluzione dei problemi, consulta Risoluzione dei problemi di archiviazione in GKE.

Passaggi successivi