Aggiungi un'SSD locale alla tua VM

Le unità SSD locali sono progettate per casi d'uso di archiviazione temporanea, come cache o spazio di elaborazione di scraping. Poiché le unità SSD locali si trovano sulla macchina fisica su cui è in esecuzione la VM, possono essere create solo durante il processo di creazione della VM. Le unità SSD locali non possono essere utilizzate come dispositivi di avvio.

Per le serie di macchine di terza generazione, una quantità prestabilita di dischi SSD locali viene aggiunta alla VM al momento della creazione. L'unico modo per aggiungere spazio di archiviazione SSD locale a queste VM è:

  • Per C3 e C3D, l'archiviazione SSD locale è disponibile solo con determinati tipi di macchine, come c3-standard-88-lssd.
  • Per le serie Z3, A3 e A2 ultra, ogni tipo di macchina è dotato di archiviazione SSD locale.

Per i tipi di macchine M3 e di prima e seconda generazione, devi specificare i dischi SSD locali durante la creazione della VM.

Dopo aver creato un disco SSD locale, devi formattare e montare il dispositivo prima di poterlo utilizzare.

Per informazioni sulla quantità di spazio di archiviazione SSD locale disponibile con i vari tipi di macchine e sul numero di dischi SSD locali che puoi collegare a una VM, vedi Scegliere un numero valido di SSD locali.

Prima di iniziare

  • Consulta le limitazioni delle unità SSD locali prima di utilizzare le unità SSD locali.
  • Esamina gli scenari di persistenza dei dati per i dischi SSD locali.
  • Se aggiungi SSD locali a istanze di macchine virtuali (VM) con GPU collegate, consulta Disponibilità di SSD locali per regioni e zone GPU.
  • Se non l'hai ancora fatto, configura l'autenticazione. L'autenticazione è il processo mediante il quale viene verificata l'identità per l'accesso ai servizi e alle API Google Cloud. Per eseguire codice o esempi da un ambiente di sviluppo locale, puoi autenticarti in Compute Engine nel seguente modo.

    Seleziona la scheda relativa a come prevedi di utilizzare gli esempi in questa pagina:

    Console

    Quando utilizzi la console Google Cloud per accedere ai servizi e alle API di Google Cloud, non devi configurare l'autenticazione.

    gcloud

    1. Installa Google Cloud CLI, quindi initialize eseguendo questo comando:

      gcloud init
    2. Imposta una regione e una zona predefinite.

    Terraform

    Per utilizzare gli esempi Terraform in questa pagina da un ambiente di sviluppo locale, installa e inizializza gcloud CLI, quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

    1. Installa Google Cloud CLI.
    2. Per initialize gcloud CLI, esegui questo comando:

      gcloud init
    3. Crea credenziali di autenticazione locali per il tuo Account Google:

      gcloud auth application-default login

    Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.

    Go

    Per utilizzare gli esempi Go in questa pagina da un ambiente di sviluppo locale, installa e inizializza gcloud CLI, quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

    1. Installa Google Cloud CLI.
    2. Per initialize gcloud CLI, esegui questo comando:

      gcloud init
    3. Crea credenziali di autenticazione locali per il tuo Account Google:

      gcloud auth application-default login

    Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.

    Java

    Per utilizzare gli esempi Java in questa pagina da un ambiente di sviluppo locale, installa e inizializza gcloud CLI, quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

    1. Installa Google Cloud CLI.
    2. Per initialize gcloud CLI, esegui questo comando:

      gcloud init
    3. Crea credenziali di autenticazione locali per il tuo Account Google:

      gcloud auth application-default login

    Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.

    Python

    Per utilizzare gli esempi Python in questa pagina da un ambiente di sviluppo locale, installa e inizializza gcloud CLI, quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

    1. Installa Google Cloud CLI.
    2. Per initialize gcloud CLI, esegui questo comando:

      gcloud init
    3. Crea credenziali di autenticazione locali per il tuo Account Google:

      gcloud auth application-default login

    Per ulteriori informazioni, consulta Configura l'autenticazione per un ambiente di sviluppo locale.

    REST

    Per utilizzare gli esempi di API REST in questa pagina in un ambiente di sviluppo locale, devi utilizzare le credenziali che fornisci a gcloud CLI.

      Installa Google Cloud CLI, quindi initialize eseguendo questo comando:

      gcloud init

Crea una VM con un SSD locale

Puoi creare una VM con spazio di archiviazione su disco SSD locale utilizzando la console Google Cloud, gcloud CLI o l'API Compute Engine.

Console

  1. Vai alla pagina Crea un'istanza.

    Vai a Crea un'istanza

  2. Specifica il nome, la regione e la zona per la tua VM. Se vuoi, aggiungi tag o etichette.

  3. Nella sezione Configurazione macchina, scegli la famiglia di macchine che contiene il tipo di macchina di destinazione.

  4. Seleziona una serie dall'elenco Serie, quindi scegli il tipo di macchina.

    • Per le serie di macchine di terza generazione C3 e C3D, scegli un tipo di macchina che termini con -lssd.
    • Per Z3, A3 e A2 ultra, ogni tipo di macchina include uno spazio di archiviazione SSD locale.
    • Per le serie M3 o di prima e seconda generazione, dopo aver selezionato il tipo di macchina:
      1. Espandi la sezione Opzioni avanzate.
      2. Espandi Dischi, fai clic su Aggiungi SSD locale ed esegui le seguenti operazioni:
        1. Nella pagina Configura SSD locale, scegli il tipo di interfaccia del disco.
        2. Seleziona il numero di dischi desiderato dall'elenco Capacità del disco.
        3. Fai clic su Salva.
  5. Continua con il processo di creazione della VM.

  6. Dopo aver creato la VM con dischi SSD locali, devi formattare e montare ogni dispositivo prima di poter utilizzare i dischi.

gcloud

  • Per le serie di macchine Ultra Z3, A3 e A2, al fine di creare una VM con dischi SSD locali collegati, crea una VM che utilizza uno dei tipi di macchina disponibili per quella serie seguendo le istruzioni per creare un'istanza.

  • Per le serie di macchine C3 o C3D, per creare una VM con dischi SSD locali collegati, segui le istruzioni per creare un'istanza, ma specifica un tipo di istanza che includa i dischi SSD locali (-lssd).

    Ad esempio, puoi creare una VM C3 con due partizioni SSD locali che utilizzano l'interfaccia del disco NVMe come segue:

    gcloud compute instances create example-c3-instance \
       --zone ZONE \
       --machine-type c3-standard-8-lssd \
       --image-project IMAGE_PROJECT \
       --image-family IMAGE_FAMILY
    
  • Per le serie M3 e di prima e seconda generazione, per creare una VM con dischi SSD locali collegati, segui le istruzioni per creare un'istanza, ma utilizza il flag --local-ssd per creare e collegare un disco SSD locale. Per creare più dischi SSD locali, aggiungi altri flag --local-ssd. Facoltativamente, puoi anche impostare valori per l'interfaccia e il nome del dispositivo per ogni flag --local-ssd.

    Ad esempio, puoi creare una VM M3 con quattro dischi SSD locali e specificare il tipo di interfaccia del disco come segue:

    gcloud compute instances VM_NAME \
       --machine-type m3-ultramem-64 \
       --zone ZONE \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE \
       --image-project IMAGE_PROJECT \
       --image-family IMAGE_FAMILY
    

Sostituisci quanto segue:

  • VM_NAME: il nome della nuova VM
  • ZONE: la zona in cui creare la VM. Questo flag è facoltativo se hai configurato la proprietà compute/zone dellgcloud CLI o la variabile di ambiente CLOUDSDK_COMPUTE_ZONE.
  • INTERFACE_TYPE: il tipo di interfaccia del disco che vuoi utilizzare per il dispositivo SSD locale. Specifica nvme se stai creando una VM M3 o se l'immagine disco di avvio ha driver NVMe ottimizzati. Specifica scsi per le altre immagini.
  • DEVICE-NAME: facoltativo: un nome che indica il nome del disco da utilizzare nel link simbolico (link simbolico) del sistema operativo guest.
  • IMAGE_FAMILY: una delle famiglie di immagini disponibili da installare sul disco di avvio
  • IMAGE_PROJECT: il progetto di immagine a cui appartiene la famiglia di immagini

Se necessario, puoi collegare gli SSD locali a una VM di prima o seconda generazione utilizzando una combinazione di nvme e scsi per partizioni diverse. Le prestazioni del dispositivo nvme dipendono dall'immagine del disco di avvio per l'istanza. Le VM di terza generazione supportano solo l'interfaccia del disco NVMe.

Dopo aver creato una VM con SSD locale, devi formattare e montare ogni dispositivo prima di poterlo utilizzare.

Terraform

Per creare una VM con dischi SSD locali collegati, puoi utilizzare la risorsa google_compute_instance.


# Create a VM with a local SSD for temporary storage use cases

resource "google_compute_instance" "default" {
  name         = "my-vm-instance-with-scratch"
  machine_type = "n2-standard-8"
  zone         = "us-central1-a"

  boot_disk {
    initialize_params {
      image = "debian-cloud/debian-11"
    }
  }

  # Local SSD interface type; NVME for image with optimized NVMe drivers or SCSI
  # Local SSD are 375 GiB in size
  scratch_disk {
    interface = "SCSI"
  }

  network_interface {
    network = "default"
    access_config {}
  }
}

Per scoprire come applicare o rimuovere una configurazione Terraform, consulta Comandi Terraform di base.

Per generare il codice Terraform, puoi utilizzare il componente Codice equivalente nella console Google Cloud.
  1. Nella console Google Cloud, vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic su Crea istanza.
  3. Specifica i parametri desiderati.
  4. Nella parte superiore o inferiore della pagina, fai clic su Codice equivalente e poi sulla scheda Terraform per visualizzare il codice Terraform.

Go

Go

Prima di provare questo esempio, segui le istruzioni di configurazione di Go disponibili nella guida rapida di Compute Engine sull'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Go di Compute Engine.

Per eseguire l'autenticazione in Compute Engine, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

import (
	"context"
	"fmt"
	"io"

	compute "cloud.google.com/go/compute/apiv1"
	computepb "cloud.google.com/go/compute/apiv1/computepb"
	"google.golang.org/protobuf/proto"
)

// createWithLocalSSD creates a new VM instance with Debian 10 operating system and a local SSD attached.
func createWithLocalSSD(w io.Writer, projectID, zone, instanceName string) error {
	// projectID := "your_project_id"
	// zone := "europe-central2-b"
	// instanceName := "your_instance_name"

	ctx := context.Background()
	instancesClient, err := compute.NewInstancesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewInstancesRESTClient: %w", err)
	}
	defer instancesClient.Close()

	imagesClient, err := compute.NewImagesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewImagesRESTClient: %w", err)
	}
	defer imagesClient.Close()

	// List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details.
	newestDebianReq := &computepb.GetFromFamilyImageRequest{
		Project: "debian-cloud",
		Family:  "debian-10",
	}
	newestDebian, err := imagesClient.GetFromFamily(ctx, newestDebianReq)
	if err != nil {
		return fmt.Errorf("unable to get image from family: %w", err)
	}

	req := &computepb.InsertInstanceRequest{
		Project: projectID,
		Zone:    zone,
		InstanceResource: &computepb.Instance{
			Name: proto.String(instanceName),
			Disks: []*computepb.AttachedDisk{
				{
					InitializeParams: &computepb.AttachedDiskInitializeParams{
						DiskSizeGb:  proto.Int64(10),
						SourceImage: newestDebian.SelfLink,
						DiskType:    proto.String(fmt.Sprintf("zones/%s/diskTypes/pd-standard", zone)),
					},
					AutoDelete: proto.Bool(true),
					Boot:       proto.Bool(true),
					Type:       proto.String(computepb.AttachedDisk_PERSISTENT.String()),
				},
				{
					InitializeParams: &computepb.AttachedDiskInitializeParams{
						DiskType: proto.String(fmt.Sprintf("zones/%s/diskTypes/local-ssd", zone)),
					},
					AutoDelete: proto.Bool(true),
					Type:       proto.String(computepb.AttachedDisk_SCRATCH.String()),
				},
			},
			MachineType: proto.String(fmt.Sprintf("zones/%s/machineTypes/n1-standard-1", zone)),
			NetworkInterfaces: []*computepb.NetworkInterface{
				{
					Name: proto.String("global/networks/default"),
				},
			},
		},
	}

	op, err := instancesClient.Insert(ctx, req)
	if err != nil {
		return fmt.Errorf("unable to create instance: %w", err)
	}

	if err = op.Wait(ctx); err != nil {
		return fmt.Errorf("unable to wait for the operation: %w", err)
	}

	fmt.Fprintf(w, "Instance created\n")

	return nil
}

Java

Java

Prima di provare questo esempio, segui le istruzioni di configurazione di Java disponibili nella guida rapida di Compute Engine sull'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Java di Compute Engine.

Per eseguire l'autenticazione in Compute Engine, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.


import com.google.cloud.compute.v1.AttachedDisk;
import com.google.cloud.compute.v1.AttachedDiskInitializeParams;
import com.google.cloud.compute.v1.Image;
import com.google.cloud.compute.v1.ImagesClient;
import com.google.cloud.compute.v1.Instance;
import com.google.cloud.compute.v1.InstancesClient;
import com.google.cloud.compute.v1.NetworkInterface;
import com.google.cloud.compute.v1.Operation;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreateWithLocalSsd {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // projectId: project ID or project number of the Cloud project you want to use.
    String projectId = "your-project-id";
    // zone: name of the zone to create the instance in. For example: "us-west3-b"
    String zone = "zone-name";
    // instanceName: name of the new virtual machine (VM) instance.
    String instanceName = "instance-name";

    createWithLocalSsd(projectId, zone, instanceName);
  }

  // Create a new VM instance with Debian 10 operating system and SSD local disk.
  public static void createWithLocalSsd(String projectId, String zone, String instanceName)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {

    int diskSizeGb = 10;
    boolean boot = true;
    boolean autoDelete = true;
    String diskType = String.format("zones/%s/diskTypes/pd-standard", zone);
    // Get the latest debian image.
    Image newestDebian = getImageFromFamily("debian-cloud", "debian-10");
    List<AttachedDisk> disks = new ArrayList<>();

    // Create the disks to be included in the instance.
    disks.add(
        createDiskFromImage(diskType, diskSizeGb, boot, newestDebian.getSelfLink(), autoDelete));
    disks.add(createLocalSsdDisk(zone));

    // Create the instance.
    Instance instance = createInstance(projectId, zone, instanceName, disks);

    if (instance != null) {
      System.out.printf("Instance created with local SSD: %s", instance.getName());
    }

  }

  // Retrieve the newest image that is part of a given family in a project.
  // Args:
  //    projectId: project ID or project number of the Cloud project you want to get image from.
  //    family: name of the image family you want to get image from.
  private static Image getImageFromFamily(String projectId, String family) throws IOException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `imagesClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (ImagesClient imagesClient = ImagesClient.create()) {
      // List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details
      return imagesClient.getFromFamily(projectId, family);
    }
  }

  // Create an AttachedDisk object to be used in VM instance creation. Uses an image as the
  // source for the new disk.
  //
  // Args:
  //    diskType: the type of disk you want to create. This value uses the following format:
  //        "zones/{zone}/diskTypes/(pd-standard|pd-ssd|pd-balanced|pd-extreme)".
  //        For example: "zones/us-west3-b/diskTypes/pd-ssd"
  //
  //    diskSizeGb: size of the new disk in gigabytes.
  //
  //    boot: boolean flag indicating whether this disk should be used as a
  //    boot disk of an instance.
  //
  //    sourceImage: source image to use when creating this disk.
  //    You must have read access to this disk. This can be one of the publicly available images
  //    or an image from one of your projects.
  //    This value uses the following format: "projects/{project_name}/global/images/{image_name}"
  //
  //    autoDelete: boolean flag indicating whether this disk should be deleted
  //    with the VM that uses it.
  private static AttachedDisk createDiskFromImage(String diskType, int diskSizeGb, boolean boot,
      String sourceImage, boolean autoDelete) {

    AttachedDiskInitializeParams attachedDiskInitializeParams =
        AttachedDiskInitializeParams.newBuilder()
            .setSourceImage(sourceImage)
            .setDiskSizeGb(diskSizeGb)
            .setDiskType(diskType)
            .build();

    AttachedDisk bootDisk = AttachedDisk.newBuilder()
        .setInitializeParams(attachedDiskInitializeParams)
        // Remember to set auto_delete to True if you want the disk to be deleted when you delete
        // your VM instance.
        .setAutoDelete(autoDelete)
        .setBoot(boot)
        .build();

    return bootDisk;
  }

  // Create an AttachedDisk object to be used in VM instance creation. The created disk contains
  // no data and requires formatting before it can be used.
  // Args:
  //    zone: The zone in which the local SSD drive will be attached.
  private static AttachedDisk createLocalSsdDisk(String zone) {

    AttachedDiskInitializeParams attachedDiskInitializeParams =
        AttachedDiskInitializeParams.newBuilder()
            .setDiskType(String.format("zones/%s/diskTypes/local-ssd", zone))
            .build();

    AttachedDisk disk = AttachedDisk.newBuilder()
        .setType(AttachedDisk.Type.SCRATCH.name())
        .setInitializeParams(attachedDiskInitializeParams)
        .setAutoDelete(true)
        .build();

    return disk;
  }

  // Send an instance creation request to the Compute Engine API and wait for it to complete.
  // Args:
  //    projectId: project ID or project number of the Cloud project you want to use.
  //    zone: name of the zone to create the instance in. For example: "us-west3-b"
  //    instanceName: name of the new virtual machine (VM) instance.
  //    disks: a list of compute.v1.AttachedDisk objects describing the disks
  //           you want to attach to your new instance.
  private static Instance createInstance(String projectId, String zone, String instanceName,
      List<AttachedDisk> disks)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `instancesClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (InstancesClient instancesClient = InstancesClient.create()) {

      // machineType: machine type of the VM being created. This value uses the
      // following format: "zones/{zone}/machineTypes/{type_name}".
      // For example: "zones/europe-west3-c/machineTypes/f1-micro"
      String typeName = "n1-standard-1";
      String machineType = String.format("zones/%s/machineTypes/%s", zone, typeName);

      // networkLink: name of the network you want the new instance to use.
      // For example: "global/networks/default" represents the network
      // named "default", which is created automatically for each project.
      String networkLink = "global/networks/default";

      // Collect information into the Instance object.
      Instance instance = Instance.newBuilder()
          .setName(instanceName)
          .setMachineType(machineType)
          .addNetworkInterfaces(NetworkInterface.newBuilder().setName(networkLink).build())
          .addAllDisks(disks)
          .build();

      Operation response = instancesClient.insertAsync(projectId, zone, instance)
          .get(3, TimeUnit.MINUTES);

      if (response.hasError()) {
        throw new Error("Instance creation failed ! ! " + response);
      }
      System.out.println("Operation Status: " + response.getStatus());
      return instancesClient.get(projectId, zone, instanceName);
    }

  }

}

Python

Python

Prima di provare questo esempio, segui le istruzioni di configurazione di Python disponibili nella guida rapida di Compute Engine sull'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python di Compute Engine.

Per eseguire l'autenticazione in Compute Engine, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

from __future__ import annotations

import re
import sys
from typing import Any
import warnings

from google.api_core.extended_operation import ExtendedOperation
from google.cloud import compute_v1

def get_image_from_family(project: str, family: str) -> compute_v1.Image:
    """
    Retrieve the newest image that is part of a given family in a project.

    Args:
        project: project ID or project number of the Cloud project you want to get image from.
        family: name of the image family you want to get image from.

    Returns:
        An Image object.
    """
    image_client = compute_v1.ImagesClient()
    # List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details
    newest_image = image_client.get_from_family(project=project, family=family)
    return newest_image

def disk_from_image(
    disk_type: str,
    disk_size_gb: int,
    boot: bool,
    source_image: str,
    auto_delete: bool = True,
) -> compute_v1.AttachedDisk:
    """
    Create an AttachedDisk object to be used in VM instance creation. Uses an image as the
    source for the new disk.

    Args:
         disk_type: the type of disk you want to create. This value uses the following format:
            "zones/{zone}/diskTypes/(pd-standard|pd-ssd|pd-balanced|pd-extreme)".
            For example: "zones/us-west3-b/diskTypes/pd-ssd"
        disk_size_gb: size of the new disk in gigabytes
        boot: boolean flag indicating whether this disk should be used as a boot disk of an instance
        source_image: source image to use when creating this disk. You must have read access to this disk. This can be one
            of the publicly available images or an image from one of your projects.
            This value uses the following format: "projects/{project_name}/global/images/{image_name}"
        auto_delete: boolean flag indicating whether this disk should be deleted with the VM that uses it

    Returns:
        AttachedDisk object configured to be created using the specified image.
    """
    boot_disk = compute_v1.AttachedDisk()
    initialize_params = compute_v1.AttachedDiskInitializeParams()
    initialize_params.source_image = source_image
    initialize_params.disk_size_gb = disk_size_gb
    initialize_params.disk_type = disk_type
    boot_disk.initialize_params = initialize_params
    # Remember to set auto_delete to True if you want the disk to be deleted when you delete
    # your VM instance.
    boot_disk.auto_delete = auto_delete
    boot_disk.boot = boot
    return boot_disk

def local_ssd_disk(zone: str) -> compute_v1.AttachedDisk():
    """
    Create an AttachedDisk object to be used in VM instance creation. The created disk contains
    no data and requires formatting before it can be used.

    Args:
        zone: The zone in which the local SSD drive will be attached.

    Returns:
        AttachedDisk object configured as a local SSD disk.
    """
    disk = compute_v1.AttachedDisk()
    disk.type_ = compute_v1.AttachedDisk.Type.SCRATCH.name
    initialize_params = compute_v1.AttachedDiskInitializeParams()
    initialize_params.disk_type = f"zones/{zone}/diskTypes/local-ssd"
    disk.initialize_params = initialize_params
    disk.auto_delete = True
    return disk

def wait_for_extended_operation(
    operation: ExtendedOperation, verbose_name: str = "operation", timeout: int = 300
) -> Any:
    """
    Waits for the extended (long-running) operation to complete.

    If the operation is successful, it will return its result.
    If the operation ends with an error, an exception will be raised.
    If there were any warnings during the execution of the operation
    they will be printed to sys.stderr.

    Args:
        operation: a long-running operation you want to wait on.
        verbose_name: (optional) a more verbose name of the operation,
            used only during error and warning reporting.
        timeout: how long (in seconds) to wait for operation to finish.
            If None, wait indefinitely.

    Returns:
        Whatever the operation.result() returns.

    Raises:
        This method will raise the exception received from `operation.exception()`
        or RuntimeError if there is no exception set, but there is an `error_code`
        set for the `operation`.

        In case of an operation taking longer than `timeout` seconds to complete,
        a `concurrent.futures.TimeoutError` will be raised.
    """
    result = operation.result(timeout=timeout)

    if operation.error_code:
        print(
            f"Error during {verbose_name}: [Code: {operation.error_code}]: {operation.error_message}",
            file=sys.stderr,
            flush=True,
        )
        print(f"Operation ID: {operation.name}", file=sys.stderr, flush=True)
        raise operation.exception() or RuntimeError(operation.error_message)

    if operation.warnings:
        print(f"Warnings during {verbose_name}:\n", file=sys.stderr, flush=True)
        for warning in operation.warnings:
            print(f" - {warning.code}: {warning.message}", file=sys.stderr, flush=True)

    return result

def create_instance(
    project_id: str,
    zone: str,
    instance_name: str,
    disks: list[compute_v1.AttachedDisk],
    machine_type: str = "n1-standard-1",
    network_link: str = "global/networks/default",
    subnetwork_link: str = None,
    internal_ip: str = None,
    external_access: bool = False,
    external_ipv4: str = None,
    accelerators: list[compute_v1.AcceleratorConfig] = None,
    preemptible: bool = False,
    spot: bool = False,
    instance_termination_action: str = "STOP",
    custom_hostname: str = None,
    delete_protection: bool = False,
) -> compute_v1.Instance:
    """
    Send an instance creation request to the Compute Engine API and wait for it to complete.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.
        disks: a list of compute_v1.AttachedDisk objects describing the disks
            you want to attach to your new instance.
        machine_type: machine type of the VM being created. This value uses the
            following format: "zones/{zone}/machineTypes/{type_name}".
            For example: "zones/europe-west3-c/machineTypes/f1-micro"
        network_link: name of the network you want the new instance to use.
            For example: "global/networks/default" represents the network
            named "default", which is created automatically for each project.
        subnetwork_link: name of the subnetwork you want the new instance to use.
            This value uses the following format:
            "regions/{region}/subnetworks/{subnetwork_name}"
        internal_ip: internal IP address you want to assign to the new instance.
            By default, a free address from the pool of available internal IP addresses of
            used subnet will be used.
        external_access: boolean flag indicating if the instance should have an external IPv4
            address assigned.
        external_ipv4: external IPv4 address to be assigned to this instance. If you specify
            an external IP address, it must live in the same region as the zone of the instance.
            This setting requires `external_access` to be set to True to work.
        accelerators: a list of AcceleratorConfig objects describing the accelerators that will
            be attached to the new instance.
        preemptible: boolean value indicating if the new instance should be preemptible
            or not. Preemptible VMs have been deprecated and you should now use Spot VMs.
        spot: boolean value indicating if the new instance should be a Spot VM or not.
        instance_termination_action: What action should be taken once a Spot VM is terminated.
            Possible values: "STOP", "DELETE"
        custom_hostname: Custom hostname of the new VM instance.
            Custom hostnames must conform to RFC 1035 requirements for valid hostnames.
        delete_protection: boolean value indicating if the new virtual machine should be
            protected against deletion or not.
    Returns:
        Instance object.
    """
    instance_client = compute_v1.InstancesClient()

    # Use the network interface provided in the network_link argument.
    network_interface = compute_v1.NetworkInterface()
    network_interface.network = network_link
    if subnetwork_link:
        network_interface.subnetwork = subnetwork_link

    if internal_ip:
        network_interface.network_i_p = internal_ip

    if external_access:
        access = compute_v1.AccessConfig()
        access.type_ = compute_v1.AccessConfig.Type.ONE_TO_ONE_NAT.name
        access.name = "External NAT"
        access.network_tier = access.NetworkTier.PREMIUM.name
        if external_ipv4:
            access.nat_i_p = external_ipv4
        network_interface.access_configs = [access]

    # Collect information into the Instance object.
    instance = compute_v1.Instance()
    instance.network_interfaces = [network_interface]
    instance.name = instance_name
    instance.disks = disks
    if re.match(r"^zones/[a-z\d\-]+/machineTypes/[a-z\d\-]+$", machine_type):
        instance.machine_type = machine_type
    else:
        instance.machine_type = f"zones/{zone}/machineTypes/{machine_type}"

    instance.scheduling = compute_v1.Scheduling()
    if accelerators:
        instance.guest_accelerators = accelerators
        instance.scheduling.on_host_maintenance = (
            compute_v1.Scheduling.OnHostMaintenance.TERMINATE.name
        )

    if preemptible:
        # Set the preemptible setting
        warnings.warn(
            "Preemptible VMs are being replaced by Spot VMs.", DeprecationWarning
        )
        instance.scheduling = compute_v1.Scheduling()
        instance.scheduling.preemptible = True

    if spot:
        # Set the Spot VM setting
        instance.scheduling.provisioning_model = (
            compute_v1.Scheduling.ProvisioningModel.SPOT.name
        )
        instance.scheduling.instance_termination_action = instance_termination_action

    if custom_hostname is not None:
        # Set the custom hostname for the instance
        instance.hostname = custom_hostname

    if delete_protection:
        # Set the delete protection bit
        instance.deletion_protection = True

    # Prepare the request to insert an instance.
    request = compute_v1.InsertInstanceRequest()
    request.zone = zone
    request.project = project_id
    request.instance_resource = instance

    # Wait for the create operation to complete.
    print(f"Creating the {instance_name} instance in {zone}...")

    operation = instance_client.insert(request=request)

    wait_for_extended_operation(operation, "instance creation")

    print(f"Instance {instance_name} created.")
    return instance_client.get(project=project_id, zone=zone, instance=instance_name)

def create_with_ssd(
    project_id: str, zone: str, instance_name: str
) -> compute_v1.Instance:
    """
    Create a new VM instance with Debian 10 operating system and SSD local disk.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.

    Returns:
        Instance object.
    """
    newest_debian = get_image_from_family(project="debian-cloud", family="debian-10")
    disk_type = f"zones/{zone}/diskTypes/pd-standard"
    disks = [
        disk_from_image(disk_type, 10, True, newest_debian.self_link, True),
        local_ssd_disk(zone),
    ]
    instance = create_instance(project_id, zone, instance_name, disks)
    return instance

REST

Utilizza instances.insert method per creare una VM da una famiglia di immagini o da una versione specifica di un'immagine del sistema operativo.

  • Per le serie di macchine Z3, A3 e A2 Ultra, al fine di creare una VM con dischi SSD locali collegati, crea una VM che utilizzi uno dei tipi di macchina disponibili per quella serie.
  • Per le serie di macchine C3 o C3D, per creare una VM con dischi SSD locali collegati, specifica un tipo di istanza che includa dischi SSD locali (-lssd).

    Ecco un payload di richiesta di esempio che crea una VM C3 con un disco di avvio di Ubuntu e due dischi SSD locali:

    {
     "machineType":"zones/us-central1-c/machineTypes/c3-standard-8-lssd",
     "name":"c3-with-local-ssd",
     "disks":[
        {
           "type":"PERSISTENT",
           "initializeParams":{
              "sourceImage":"projects/ubuntu-os-cloud/global/images/family/ubuntu-2204-lts"
           },
           "boot":true
        }
     ],
     "networkInterfaces":[
        {
           "network":"global/networks/default"
    }
     ]
    }
    
  • Per le serie di macchine M3 e di prima e seconda generazione, per creare una VM con dischi SSD locali collegati, puoi aggiungere dispositivi SSD locali durante la creazione della VM utilizzando la proprietà initializeParams. Devi anche fornire le seguenti proprietà:

    • diskType: imposta su SSD locale
    • autoDelete: impostato su true
    • type: imposta su SCRATCH

    Le seguenti proprietà non possono essere utilizzate con i dispositivi SSD locali:

    • diskName
    • Proprietà sourceImage
    • diskSizeGb

    Ecco un payload di richiesta di esempio che crea una VM M3 con un disco di avvio e quattro dischi SSD locali:

    {
     "machineType":"zones/us-central1-f/machineTypes/m3-ultramem-64",
     "name":"local-ssd-instance",
     "disks":[
        {
         "type":"PERSISTENT",
         "initializeParams":{
            "sourceImage":"projects/ubuntu-os-cloud/global/images/family/ubuntu-2204-lts"
         },
         "boot":true
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
     ],
     "networkInterfaces":[
        {
           "network":"global/networks/default"
        }
     ]
    }
    

Dopo aver creato un disco SSD locale, devi formattare e montare ogni dispositivo prima di poterlo utilizzare.

Per ulteriori informazioni sulla creazione di un'istanza mediante REST, consulta la pagina relativa all'API Compute Engine.

Formattare e montare un dispositivo SSD locale

Puoi formattare e montare singolarmente ogni disco SSD locale oppure combinare più dischi SSD locali in un unico volume logico.

Formatta e monta singole partizioni SSD locali

Il modo più semplice per connettere le unità SSD locali all'istanza è formattare e montare ogni dispositivo con una singola partizione. In alternativa, puoi combinare più partizioni in un unico volume logico.

Istanze Linux

Formatta e monta il nuovo SSD locale sulla tua istanza Linux. Puoi usare qualsiasi formato di partizionamento e configurazione di cui hai bisogno. Per questo esempio, crea una singola partizione ext4.

  1. Vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic sul pulsante SSH accanto all'istanza a cui è collegata la nuova unità SSD locale. Il browser apre una connessione di terminale per l'istanza.

  3. Nel terminale, usa il comando find per identificare l'SSD locale che vuoi montare.

    $ find /dev/ | grep google-local-nvme-ssd
    

    Gli SSD locali in modalità SCSI hanno nomi standard come google-local-ssd-0. Gli SSD locali in modalità NVMe hanno nomi simili a google-local-nvme-ssd-0, come mostrato nell'output seguente:

     $ find /dev/ | grep google-local-nvme-ssd
    
     /dev/disk/by-id/google-local-nvme-ssd-0
    
  4. Formatta l'SSD locale con un file system ext4. Questo comando elimina tutti i dati esistenti dall'SSD locale.

    $ sudo mkfs.ext4 -F /dev/disk/by-id/[SSD_NAME]
    

    Sostituisci [SSD_NAME] con l'ID dell'unità SSD locale che vuoi formattare. Ad esempio, specifica google-local-nvme-ssd-0 per formattare il primo SSD locale NVMe nell'istanza.

  5. Utilizza il comando mkdir per creare una directory in cui montare il dispositivo.

    $ sudo mkdir -p /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con il percorso della directory in cui vuoi montare il disco SSD locale.

  6. Monta l'SSD locale sulla VM.

    $ sudo mount /dev/[SSD_NAME] /mnt/disks/[MNT_DIR]
    

    Sostituisci quanto segue:

    • [SSD_NAME]: l'ID dell'unità SSD locale che vuoi montare.
    • [MNT_DIR]: la directory in cui vuoi montare l'SSD locale.
  7. Configurare l'accesso in lettura e scrittura al dispositivo. Per questo esempio, concedi l'accesso in scrittura al dispositivo a tutti gli utenti.

    $ sudo chmod a+w /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'unità SSD locale.

Facoltativamente, puoi aggiungere l'SSD locale al file /etc/fstab in modo che il dispositivo venga montato di nuovo automaticamente al riavvio dell'istanza. Questa voce non conserva i dati sull'SSD locale se l'istanza si arresta. Per dettagli completi, consulta Persistenza dei dati degli SSD locali.

Quando specifichi il file della voce /etc/fstab, assicurati di includere l'opzione nofail in modo che l'istanza possa continuare ad avviarsi anche se non è presente l'SSD locale. Ad esempio, se acquisisci uno snapshot del disco di avvio e crei una nuova istanza senza dischi SSD locali collegati, l'istanza può continuare il processo di avvio e non metterla in pausa a tempo indeterminato.

  1. Crea la voce /etc/fstab. Usa il comando blkid per trovare l'UUID per il file system sul dispositivo e modifica il file /etc/fstab in modo da includere l'UUID con le opzioni di montaggio. Puoi completare questo passaggio con un singolo comando.

    Ad esempio, per un SSD locale in modalità NVMe, utilizza il seguente comando:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/disk/by-id/google-local-nvme-ssd-0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Per un SSD locale in una modalità non NVMe come SCSI, utilizza il seguente comando:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/disk/by-id/google-local-ssd-0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'SSD locale.

  2. Usa il comando cat per verificare che le voci /etc/fstab siano corrette:

    $ cat /etc/fstab
    

Se crei uno snapshot dal disco di avvio di questa istanza e lo utilizzi per creare un'istanza separata che non ha SSD locali, modifica il file /etc/fstab e rimuovi la voce per questo SSD locale. Anche se l'opzione nofail è attiva, mantieni il file /etc/fstab sincronizzato con le partizioni collegate all'istanza e rimuovi queste voci prima di creare lo snapshot del disco di avvio.

Istanze Windows

Utilizza lo strumento Gestione disco di Windows per formattare e montare un'unità SSD locale su un'istanza Windows.

  1. Connettiti all'istanza tramite RDP. Per questo esempio, vai alla pagina Istanze VM e fai clic sul pulsante RDP accanto all'istanza a cui sono collegate le unità SSD locali. Dopo aver inserito nome utente e password, si apre una finestra con l'interfaccia desktop del server.

  2. Fai clic con il pulsante destro del mouse sul pulsante Start di Windows e seleziona Gestione disco.

    Seleziona lo strumento Gestione disco di Windows dal menu di scelta rapida sul pulsante Start di Windows.

  3. Se non hai mai inizializzato l'SSD locale, lo strumento ti chiede di selezionare uno schema di partizionamento per le nuove partizioni. Seleziona GPT e fai clic su OK.

    Selezione di uno schema di partizione nella finestra di inizializzazione del disco.

  4. Dopo l'inizializzazione dell'SSD locale, fai clic con il tasto destro del mouse sullo spazio su disco non allocato e seleziona Nuovo volume semplice.

    Creazione di un nuovo volume semplice dal disco collegato.

  5. Segui le istruzioni della nuova procedura guidata per il volume semplice per configurare il nuovo volume. Puoi utilizzare qualsiasi formato di partizione, ma per questo esempio seleziona NTFS. Seleziona anche Esegui un formato rapido per velocizzare il processo di formattazione.

    Selezione del tipo di formato della partizione nella procedura guidata Nuovo volume semplice.

  6. Dopo aver completato la procedura guidata e la formattazione del volume, controlla il nuovo SSD locale per assicurarti che abbia lo stato Healthy.

    Visualizza l'elenco dei dischi riconosciuti da Windows, verifica che lo stato dell'SSD locale sia Integro.

Ecco fatto. Ora puoi scrivere file sull'SSD locale.

Formatta e monta più partizioni SSD locali in un unico volume logico

A differenza delle SSD permanenti, le unità SSD locali hanno una capacità fissa di 375 GB per ogni dispositivo collegato all'istanza. Se vuoi combinare più partizioni SSD locali in un unico volume logico, devi definire personalmente la gestione del volume nelle partizioni.

Istanze Linux

Usa mdadm per creare un array RAID 0. Questo esempio formatta l'array con un singolo file system ext4, ma puoi applicare qualsiasi file system che preferisci.

  1. Vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic sul pulsante SSH accanto all'istanza a cui è collegata la nuova unità SSD locale. Il browser apre una connessione di terminale per l'istanza.

  3. Nel terminale, installa lo strumento mdadm. Il processo di installazione di mdadm include un prompt dell'utente che interrompe gli script, quindi eseguilo manualmente.

    Debian e Ubuntu:

    $ sudo apt update && sudo apt install mdadm --no-install-recommends
    

    CentOS e RHEL:

    $ sudo yum install mdadm -y
    

    SLES e openSUSE:

    $ sudo zypper install -y mdadm
    

  4. Utilizza il comando find per identificare tutte le unità SSD locali che vuoi montare insieme.

    In questo esempio, l'istanza ha otto partizioni SSD locali in modalità NVMe:

    $  find /dev/ | grep google-local-nvme-ssd
    
     /dev/disk/by-id/google-local-nvme-ssd-7
     /dev/disk/by-id/google-local-nvme-ssd-6
     /dev/disk/by-id/google-local-nvme-ssd-5
     /dev/disk/by-id/google-local-nvme-ssd-4
     /dev/disk/by-id/google-local-nvme-ssd-3
     /dev/disk/by-id/google-local-nvme-ssd-2
     /dev/disk/by-id/google-local-nvme-ssd-1
     /dev/disk/by-id/google-local-nvme-ssd-0
    

    find non garantisce un ordine. Non è un problema se i dispositivi sono elencati in un ordine diverso, purché il numero di righe di output corrisponda al numero previsto di partizioni SSD. Gli SSD locali in modalità SCSI hanno nomi standard come google-local-ssd. Gli SSD locali in modalità NVMe hanno nomi simili a google-local-nvme-ssd.

  5. Utilizza mdadm per combinare più dispositivi SSD locali in un unico array denominato /dev/md0. In questo esempio, unisce otto dispositivi SSD locali in modalità NVMe. Per i dispositivi SSD locali in modalità SCSI, specifica i nomi ottenuti dal comando find:

    $ sudo mdadm --create /dev/md0 --level=0 --raid-devices=8 \
     /dev/disk/by-id/google-local-nvme-ssd-0 \
     /dev/disk/by-id/google-local-nvme-ssd-1 \
     /dev/disk/by-id/google-local-nvme-ssd-2 \
     /dev/disk/by-id/google-local-nvme-ssd-3 \
     /dev/disk/by-id/google-local-nvme-ssd-4 \
     /dev/disk/by-id/google-local-nvme-ssd-5 \
     /dev/disk/by-id/google-local-nvme-ssd-6 \
     /dev/disk/by-id/google-local-nvme-ssd-7
    
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    
    

    Puoi confermare i dettagli dell'array con mdadm --detail. Se aggiungi il flag --prefer=by-id, verranno elencati i dispositivi che utilizzano i percorsi /dev/disk/by-id.

     sudo mdadm --detail --prefer=by-id /dev/md0
     

    L'output dovrebbe essere simile al seguente per ogni dispositivo nell'array.

     ...
     Number   Major   Minor   RaidDevice State
        0      259      0         0      active sync   /dev/disk/by-id/google-local-nvme-ssd-0
     ...
     

  6. Formatta l'array /dev/md0 completo con un file system ext4.

    $ sudo mkfs.ext4 -F /dev/md0
    
  7. Crea una directory in cui puoi montare /dev/md0. Per questo esempio, crea la directory /mnt/disks/ssd-array:

    $ sudo mkdir -p /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui vuoi montare l'array SSD locale.

  8. Monta l'array /dev/md0 nella directory /mnt/disks/ssd-array:

    $ sudo mount /dev/md0 /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui vuoi montare l'array SSD locale.

  9. Configurare l'accesso in lettura e scrittura al dispositivo. Per questo esempio, concedi l'accesso in scrittura al dispositivo a tutti gli utenti.

    $ sudo chmod a+w /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'array SSD locale.

Facoltativamente, puoi aggiungere l'SSD locale al file /etc/fstab in modo che il dispositivo venga montato di nuovo automaticamente al riavvio dell'istanza. Questa voce non conserva i dati sull'SSD locale se l'istanza si arresta. Per maggiori dettagli, consulta Persistenza dei dati degli SSD locali.

Quando specifichi il file della voce /etc/fstab, assicurati di includere l'opzione nofail in modo che l'istanza possa continuare ad avviarsi anche se non è presente l'SSD locale. Ad esempio, se acquisisci uno snapshot del disco di avvio e crei una nuova istanza senza unità SSD locali collegate, l'istanza può continuare il processo di avvio e non può essere messa in pausa a tempo indeterminato.

  1. Crea la voce /etc/fstab. Usa il comando blkid per trovare l'UUID per il file system sul dispositivo e modifica il file /etc/fstab in modo da includere l'UUID con le opzioni di montaggio. Specifica l'opzione nofail per consentire l'avvio del sistema anche se l'SSD locale non è disponibile.Puoi completare questo passaggio con un singolo comando. Ad esempio:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/md0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'array SSD locale.

  2. Se usi un nome di dispositivo come /dev/md0 nel file /etc/fstab al posto dell'UUID, devi modificare il file /etc/mdadm/mdadm.conf per assicurarti che l'array venga riassemblato automaticamente all'avvio. Per farlo, segui questi due passaggi:

    1. Assicurati che l'array di dischi venga scansionato e riassemblato automaticamente all'avvio.
      $ sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
      
    2. Aggiorna initramfs in modo che l'array sia disponibile durante il processo di fase iniziale di avvio.
      $ sudo update-initramfs -u
      
  3. Usa il comando cat per verificare che le voci /etc/fstab siano corrette:

    $ cat /etc/fstab
    

Se crei uno snapshot dal disco di avvio di questa istanza e lo utilizzi per creare un'istanza separata che non ha SSD locali, modifica il file /etc/fstab e rimuovi la voce per questo array SSD locale. Anche se l'opzione nofail è attiva, mantieni il file /etc/fstab sincronizzato con le partizioni collegate all'istanza e rimuovi queste voci prima di creare lo snapshot del disco di avvio.

Istanze Windows

Utilizza lo strumento Gestione disco di Windows per formattare e montare un array di SSD locali su un'istanza Windows.

  1. Connettiti all'istanza tramite RDP. Per questo esempio, vai alla pagina Istanze VM e fai clic sul pulsante RDP accanto all'istanza a cui sono collegate le unità SSD locali. Dopo aver inserito nome utente e password, si apre una finestra con l'interfaccia desktop del server.

  2. Fai clic con il pulsante destro del mouse sul pulsante Start di Windows e seleziona Gestione disco.

    Seleziona lo strumento Gestione disco di Windows dal menu di scelta rapida sul pulsante Start di Windows.

  3. Se non hai mai inizializzato gli SSD locali, lo strumento ti chiede di selezionare uno schema di partizionamento per le nuove partizioni. Seleziona GPT e fai clic su OK.

    Selezione di uno schema di partizione nella finestra di inizializzazione del disco.

  4. Dopo l'inizializzazione dell'SSD locale, fai clic con il tasto destro del mouse sullo spazio su disco non allocato e seleziona Nuovo volume con strisce.

    Creazione di un nuovo volume con striscia dal disco collegato.

  5. Seleziona le partizioni SSD locali che vuoi includere nell'array con strisce. Per questo esempio, seleziona tutte le partizioni per combinarle in un unico dispositivo SSD locale.

    Selezione delle partizioni SSD locali da includere nell'array.

  6. Segui le istruzioni della procedura guidata per il nuovo volume con Striped per configurare il nuovo volume. Puoi utilizzare qualsiasi formato di partizione, ma per questo esempio seleziona NTFS. Seleziona anche Esegui un formato rapido per velocizzare il processo di formattazione.

    Selezionare il tipo di formato della partizione nella procedura guidata nuovo volume con strisce.

  7. Dopo aver completato la procedura guidata e la formattazione del volume, controlla il nuovo SSD locale per assicurarti che abbia lo stato Healthy.

    Visualizza l'elenco dei dischi riconosciuti da Windows, verifica che lo stato dell'SSD locale sia Integro.

Ora puoi scrivere file sull'SSD locale.

Passaggi successivi