Aggiungi un SSD locale alla tua VM

Le unità SSD locali sono progettate per casi d'uso temporanei come cache o spazio di elaborazione di graffi. Poiché le unità SSD locali si trovano sulla macchina fisica su cui è in esecuzione la VM, è possibile crearle solo durante il processo di creazione della VM. Gli SSD locali non possono essere utilizzati come dispositivi di avvio.

Per le serie di macchine di terza generazione, alla VM viene aggiunta una quantità prestabilita di dischi SSD locali quando la crei. L'unico modo per aggiungere spazio di archiviazione SSD locale a queste VM è:

  • Per C3 e C3D, l'archiviazione SSD locale è disponibile solo con alcuni tipi di macchine, come c3-standard-88-lssd.
  • Per le serie Z3, A3 e A2 ultra, ogni tipo di macchina è dotato di spazio di archiviazione SSD locale.

Per i tipi di macchine M3 e di prima e seconda generazione, devi specificare i dischi SSD locali quando crei la VM.

Dopo aver creato un disco SSD locale, devi formattare e montare il dispositivo prima di poterlo utilizzare.

Per informazioni sulla quantità di spazio di archiviazione SSD locale disponibile con i vari tipi di macchine e sul numero di dischi SSD locali che puoi collegare a una VM, consulta Scegliere un numero valido di SSD locali.

Prima di iniziare

  • Consulta le limitazioni degli SSD locali prima di utilizzare gli SSD locali.
  • Esamina gli scenari di persistenza dei dati per i dischi SSD locali.
  • Se aggiungi SSD locali a istanze di macchine virtuali (VM) a cui sono collegate GPU, consulta la pagina Disponibilità di SSD locali per regioni e zone GPU.
  • Se non l'hai già fatto, configura l'autenticazione. L'autenticazione è il processo mediante il quale viene verificata l'identità dell'utente per ottenere l'accesso ai servizi e alle API Google Cloud. Per eseguire codice o esempi da un ambiente di sviluppo locale, puoi eseguire l'autenticazione in Compute Engine come segue.

    Select the tab for how you plan to use the samples on this page:

    Console

    When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.

    gcloud

    1. Installa Google Cloud CLI, quindi initialize eseguendo questo comando:

      gcloud init
    2. Set a default region and zone.
    3. Terraform

      Per utilizzare gli esempi Terraform in questa pagina in un ambiente di sviluppo locale, installa e inizializza gcloud CLI, quindi configura le Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per maggiori informazioni, consulta Set up authentication for a local development environment.

      Go

      Per utilizzare gli Go esempi in questa pagina in un ambiente di sviluppo locale, installa e inizializza gcloud CLI, quindi configura le Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per maggiori informazioni, consulta Set up authentication for a local development environment.

      Java

      Per utilizzare gli Java esempi in questa pagina in un ambiente di sviluppo locale, installa e inizializza gcloud CLI, quindi configura le Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per maggiori informazioni, consulta Set up authentication for a local development environment.

      Python

      Per utilizzare gli Python esempi in questa pagina in un ambiente di sviluppo locale, installa e inizializza gcloud CLI, quindi configura le Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per maggiori informazioni, consulta Set up authentication for a local development environment.

      REST

      Per utilizzare gli esempi di API REST in questa pagina in un ambiente di sviluppo locale, utilizzi le credenziali che fornisci a gcloud CLI.

        Installa Google Cloud CLI, quindi initialize eseguendo questo comando:

        gcloud init

      Per maggiori informazioni, consulta Autenticazione per l'utilizzo di REST nella documentazione sull'autenticazione di Google Cloud.

Crea una VM con un SSD locale

Puoi creare una VM con spazio di archiviazione su disco SSD locale utilizzando la console Google Cloud, gcloud CLI o l'API Compute Engine.

Console

  1. Vai alla pagina Crea un'istanza.

    Vai a Crea un'istanza

  2. Specifica il nome, la regione e la zona per la tua VM. Se vuoi, aggiungi tag o etichette.

  3. Nella sezione Configurazione macchina, scegli la famiglia di macchine che contiene il tipo di macchina di destinazione.

  4. Seleziona una serie dall'elenco Serie, quindi scegli il tipo di macchina.

    • Per la serie di macchine di terza generazione C3 e C3D, scegli un tipo di macchina che termini con -lssd.
    • Per Z3, A3 e A2 ultra, ogni tipo di macchina è dotato di spazio di archiviazione SSD locale.
    • Per M3, o serie di macchine di prima e seconda generazione, dopo aver selezionato il tipo di macchina, segui questi passaggi:
      1. Espandi la sezione Opzioni avanzate.
      2. Espandi Dischi, fai clic su Aggiungi SSD locale e segui questi passaggi:
        1. Nella pagina Configura SSD locale, scegli il tipo di interfaccia del disco.
        2. Seleziona il numero di dischi desiderato dall'elenco Capacità del disco.
        3. Fai clic su Salva.
  5. Continua con il processo di creazione della VM.

  6. Dopo aver creato la VM con dischi SSD locali, devi formattare e montare ogni dispositivo prima di poter utilizzare i dischi.

gcloud

  • Per le serie di macchine ultra Z3, A3 e A2, per creare una VM con dischi SSD locali collegati, crea una VM che utilizzi uno qualsiasi dei tipi di macchine disponibili per quella serie seguendo le istruzioni per creare un'istanza.

  • Per la serie di macchine C3 o C3D, per creare una VM con dischi SSD locali collegati, segui le istruzioni per creare un'istanza, ma specifica un tipo di istanza che includa i dischi SSD locali (-lssd).

    Ad esempio, puoi creare una VM C3 con due partizioni SSD locali che utilizzano l'interfaccia del disco NVMe come segue:

    gcloud compute instances create example-c3-instance \
       --zone ZONE \
       --machine-type c3-standard-8-lssd \
       --image-project IMAGE_PROJECT \
       --image-family IMAGE_FAMILY
    
  • Per M3 e le serie di macchine di prima e seconda generazione, per creare una VM con dischi SSD locali collegati, segui le istruzioni per creare un'istanza, ma utilizza il flag --local-ssd per creare e collegare un disco SSD locale. Per creare più dischi SSD locali, aggiungi altri flag --local-ssd. Se vuoi, puoi anche impostare i valori per l'interfaccia e il nome del dispositivo per ogni flag --local-ssd.

    Ad esempio, puoi creare una VM M3 con quattro dischi SSD locali e specificare il tipo di interfaccia del disco come segue:

    gcloud compute instances VM_NAME \
       --machine-type m3-ultramem-64 \
       --zone ZONE \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE \
       --image-project IMAGE_PROJECT \
       --image-family IMAGE_FAMILY
    

Sostituisci quanto segue:

  • VM_NAME: il nome della nuova VM
  • ZONE: la zona in cui creare la VM. Questo flag è facoltativo se hai configurato la proprietà compute/zone dellgcloud CLI o la variabile di ambiente CLOUDSDK_COMPUTE_ZONE.
  • INTERFACE_TYPE: il tipo di interfaccia del disco che vuoi utilizzare per il dispositivo SSD locale. Specifica nvme se stai creando una VM M3 o se l'immagine del tuo disco di avvio ha driver NVMe ottimizzati. Specifica scsi per le altre immagini.
  • DEVICE-NAME: (facoltativo) un nome che indica il nome del disco da utilizzare nel link simbolico del sistema operativo guest (link simbolico).
  • IMAGE_FAMILY: una delle famiglie di immagini disponibili che vuoi installare sul disco di avvio
  • IMAGE_PROJECT: il progetto immagine a cui appartiene la famiglia di immagini.

Se necessario, puoi collegare gli SSD locali a una VM di prima o seconda generazione utilizzando una combinazione di nvme e scsi per le diverse partizioni. Le prestazioni del dispositivo nvme dipendono dall'immagine del disco di avvio per la tua istanza. Le VM di terza generazione supportano solo l'interfaccia del disco NVMe.

Dopo aver creato una VM con SSD locale, devi formattare e montare ogni dispositivo prima di poterlo utilizzare.

Terraform

Per creare una VM con dischi SSD locali collegati, puoi utilizzare la risorsa google_compute_instance.


# Create a VM with a local SSD for temporary storage use cases

resource "google_compute_instance" "default" {
  name         = "my-vm-instance-with-scratch"
  machine_type = "n2-standard-8"
  zone         = "us-central1-a"

  boot_disk {
    initialize_params {
      image = "debian-cloud/debian-11"
    }
  }

  # Local SSD interface type; NVME for image with optimized NVMe drivers or SCSI
  # Local SSD are 375 GiB in size
  scratch_disk {
    interface = "SCSI"
  }

  network_interface {
    network = "default"
    access_config {}
  }
}

Per scoprire come applicare o rimuovere una configurazione Terraform, vedi Comandi Terraform di base.

Per generare il codice Terraform, puoi utilizzare il componente Codice equivalente nella console Google Cloud.
  1. Nella console Google Cloud, vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic su Crea istanza.
  3. Specifica i parametri che preferisci.
  4. Nella parte superiore o inferiore della pagina, fai clic su Codice equivalente, quindi sulla scheda Terraform per visualizzare il codice Terraform.

Go

Go

Prima di provare questo esempio, segui le istruzioni per la configurazione di Go nella guida rapida di Compute Engine mediante l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Go di Compute Engine.

Per eseguire l'autenticazione su Compute Engine, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

import (
	"context"
	"fmt"
	"io"

	compute "cloud.google.com/go/compute/apiv1"
	computepb "cloud.google.com/go/compute/apiv1/computepb"
	"google.golang.org/protobuf/proto"
)

// createWithLocalSSD creates a new VM instance with Debian 10 operating system and a local SSD attached.
func createWithLocalSSD(w io.Writer, projectID, zone, instanceName string) error {
	// projectID := "your_project_id"
	// zone := "europe-central2-b"
	// instanceName := "your_instance_name"

	ctx := context.Background()
	instancesClient, err := compute.NewInstancesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewInstancesRESTClient: %w", err)
	}
	defer instancesClient.Close()

	imagesClient, err := compute.NewImagesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewImagesRESTClient: %w", err)
	}
	defer imagesClient.Close()

	// List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details.
	newestDebianReq := &computepb.GetFromFamilyImageRequest{
		Project: "debian-cloud",
		Family:  "debian-12",
	}
	newestDebian, err := imagesClient.GetFromFamily(ctx, newestDebianReq)
	if err != nil {
		return fmt.Errorf("unable to get image from family: %w", err)
	}

	req := &computepb.InsertInstanceRequest{
		Project: projectID,
		Zone:    zone,
		InstanceResource: &computepb.Instance{
			Name: proto.String(instanceName),
			Disks: []*computepb.AttachedDisk{
				{
					InitializeParams: &computepb.AttachedDiskInitializeParams{
						DiskSizeGb:  proto.Int64(10),
						SourceImage: newestDebian.SelfLink,
						DiskType:    proto.String(fmt.Sprintf("zones/%s/diskTypes/pd-standard", zone)),
					},
					AutoDelete: proto.Bool(true),
					Boot:       proto.Bool(true),
					Type:       proto.String(computepb.AttachedDisk_PERSISTENT.String()),
				},
				{
					InitializeParams: &computepb.AttachedDiskInitializeParams{
						DiskType: proto.String(fmt.Sprintf("zones/%s/diskTypes/local-ssd", zone)),
					},
					AutoDelete: proto.Bool(true),
					Type:       proto.String(computepb.AttachedDisk_SCRATCH.String()),
				},
			},
			MachineType: proto.String(fmt.Sprintf("zones/%s/machineTypes/n1-standard-1", zone)),
			NetworkInterfaces: []*computepb.NetworkInterface{
				{
					Name: proto.String("global/networks/default"),
				},
			},
		},
	}

	op, err := instancesClient.Insert(ctx, req)
	if err != nil {
		return fmt.Errorf("unable to create instance: %w", err)
	}

	if err = op.Wait(ctx); err != nil {
		return fmt.Errorf("unable to wait for the operation: %w", err)
	}

	fmt.Fprintf(w, "Instance created\n")

	return nil
}

Java

Java

Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nella guida rapida di Compute Engine mediante l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Java di Compute Engine.

Per eseguire l'autenticazione su Compute Engine, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.


import com.google.cloud.compute.v1.AttachedDisk;
import com.google.cloud.compute.v1.AttachedDiskInitializeParams;
import com.google.cloud.compute.v1.Image;
import com.google.cloud.compute.v1.ImagesClient;
import com.google.cloud.compute.v1.Instance;
import com.google.cloud.compute.v1.InstancesClient;
import com.google.cloud.compute.v1.NetworkInterface;
import com.google.cloud.compute.v1.Operation;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreateWithLocalSsd {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // projectId: project ID or project number of the Cloud project you want to use.
    String projectId = "your-project-id";
    // zone: name of the zone to create the instance in. For example: "us-west3-b"
    String zone = "zone-name";
    // instanceName: name of the new virtual machine (VM) instance.
    String instanceName = "instance-name";

    createWithLocalSsd(projectId, zone, instanceName);
  }

  // Create a new VM instance with Debian 10 operating system and SSD local disk.
  public static void createWithLocalSsd(String projectId, String zone, String instanceName)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {

    int diskSizeGb = 10;
    boolean boot = true;
    boolean autoDelete = true;
    String diskType = String.format("zones/%s/diskTypes/pd-standard", zone);
    // Get the latest debian image.
    Image newestDebian = getImageFromFamily("debian-cloud", "debian-10");
    List<AttachedDisk> disks = new ArrayList<>();

    // Create the disks to be included in the instance.
    disks.add(
        createDiskFromImage(diskType, diskSizeGb, boot, newestDebian.getSelfLink(), autoDelete));
    disks.add(createLocalSsdDisk(zone));

    // Create the instance.
    Instance instance = createInstance(projectId, zone, instanceName, disks);

    if (instance != null) {
      System.out.printf("Instance created with local SSD: %s", instance.getName());
    }

  }

  // Retrieve the newest image that is part of a given family in a project.
  // Args:
  //    projectId: project ID or project number of the Cloud project you want to get image from.
  //    family: name of the image family you want to get image from.
  private static Image getImageFromFamily(String projectId, String family) throws IOException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `imagesClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (ImagesClient imagesClient = ImagesClient.create()) {
      // List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details
      return imagesClient.getFromFamily(projectId, family);
    }
  }

  // Create an AttachedDisk object to be used in VM instance creation. Uses an image as the
  // source for the new disk.
  //
  // Args:
  //    diskType: the type of disk you want to create. This value uses the following format:
  //        "zones/{zone}/diskTypes/(pd-standard|pd-ssd|pd-balanced|pd-extreme)".
  //        For example: "zones/us-west3-b/diskTypes/pd-ssd"
  //
  //    diskSizeGb: size of the new disk in gigabytes.
  //
  //    boot: boolean flag indicating whether this disk should be used as a
  //    boot disk of an instance.
  //
  //    sourceImage: source image to use when creating this disk.
  //    You must have read access to this disk. This can be one of the publicly available images
  //    or an image from one of your projects.
  //    This value uses the following format: "projects/{project_name}/global/images/{image_name}"
  //
  //    autoDelete: boolean flag indicating whether this disk should be deleted
  //    with the VM that uses it.
  private static AttachedDisk createDiskFromImage(String diskType, int diskSizeGb, boolean boot,
      String sourceImage, boolean autoDelete) {

    AttachedDiskInitializeParams attachedDiskInitializeParams =
        AttachedDiskInitializeParams.newBuilder()
            .setSourceImage(sourceImage)
            .setDiskSizeGb(diskSizeGb)
            .setDiskType(diskType)
            .build();

    AttachedDisk bootDisk = AttachedDisk.newBuilder()
        .setInitializeParams(attachedDiskInitializeParams)
        // Remember to set auto_delete to True if you want the disk to be deleted when you delete
        // your VM instance.
        .setAutoDelete(autoDelete)
        .setBoot(boot)
        .build();

    return bootDisk;
  }

  // Create an AttachedDisk object to be used in VM instance creation. The created disk contains
  // no data and requires formatting before it can be used.
  // Args:
  //    zone: The zone in which the local SSD drive will be attached.
  private static AttachedDisk createLocalSsdDisk(String zone) {

    AttachedDiskInitializeParams attachedDiskInitializeParams =
        AttachedDiskInitializeParams.newBuilder()
            .setDiskType(String.format("zones/%s/diskTypes/local-ssd", zone))
            .build();

    AttachedDisk disk = AttachedDisk.newBuilder()
        .setType(AttachedDisk.Type.SCRATCH.name())
        .setInitializeParams(attachedDiskInitializeParams)
        .setAutoDelete(true)
        .build();

    return disk;
  }

  // Send an instance creation request to the Compute Engine API and wait for it to complete.
  // Args:
  //    projectId: project ID or project number of the Cloud project you want to use.
  //    zone: name of the zone to create the instance in. For example: "us-west3-b"
  //    instanceName: name of the new virtual machine (VM) instance.
  //    disks: a list of compute.v1.AttachedDisk objects describing the disks
  //           you want to attach to your new instance.
  private static Instance createInstance(String projectId, String zone, String instanceName,
      List<AttachedDisk> disks)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `instancesClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (InstancesClient instancesClient = InstancesClient.create()) {

      // machineType: machine type of the VM being created. This value uses the
      // following format: "zones/{zone}/machineTypes/{type_name}".
      // For example: "zones/europe-west3-c/machineTypes/f1-micro"
      String typeName = "n1-standard-1";
      String machineType = String.format("zones/%s/machineTypes/%s", zone, typeName);

      // networkLink: name of the network you want the new instance to use.
      // For example: "global/networks/default" represents the network
      // named "default", which is created automatically for each project.
      String networkLink = "global/networks/default";

      // Collect information into the Instance object.
      Instance instance = Instance.newBuilder()
          .setName(instanceName)
          .setMachineType(machineType)
          .addNetworkInterfaces(NetworkInterface.newBuilder().setName(networkLink).build())
          .addAllDisks(disks)
          .build();

      Operation response = instancesClient.insertAsync(projectId, zone, instance)
          .get(3, TimeUnit.MINUTES);

      if (response.hasError()) {
        throw new Error("Instance creation failed ! ! " + response);
      }
      System.out.println("Operation Status: " + response.getStatus());
      return instancesClient.get(projectId, zone, instanceName);
    }

  }

}

Python

Python

Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nella guida rapida di Compute Engine mediante l'utilizzo delle librerie client. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python di Compute Engine.

Per eseguire l'autenticazione su Compute Engine, configura Credenziali predefinite dell'applicazione. Per maggiori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

from __future__ import annotations

import re
import sys
from typing import Any
import warnings

from google.api_core.extended_operation import ExtendedOperation
from google.cloud import compute_v1


def get_image_from_family(project: str, family: str) -> compute_v1.Image:
    """
    Retrieve the newest image that is part of a given family in a project.

    Args:
        project: project ID or project number of the Cloud project you want to get image from.
        family: name of the image family you want to get image from.

    Returns:
        An Image object.
    """
    image_client = compute_v1.ImagesClient()
    # List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details
    newest_image = image_client.get_from_family(project=project, family=family)
    return newest_image


def disk_from_image(
    disk_type: str,
    disk_size_gb: int,
    boot: bool,
    source_image: str,
    auto_delete: bool = True,
) -> compute_v1.AttachedDisk:
    """
    Create an AttachedDisk object to be used in VM instance creation. Uses an image as the
    source for the new disk.

    Args:
         disk_type: the type of disk you want to create. This value uses the following format:
            "zones/{zone}/diskTypes/(pd-standard|pd-ssd|pd-balanced|pd-extreme)".
            For example: "zones/us-west3-b/diskTypes/pd-ssd"
        disk_size_gb: size of the new disk in gigabytes
        boot: boolean flag indicating whether this disk should be used as a boot disk of an instance
        source_image: source image to use when creating this disk. You must have read access to this disk. This can be one
            of the publicly available images or an image from one of your projects.
            This value uses the following format: "projects/{project_name}/global/images/{image_name}"
        auto_delete: boolean flag indicating whether this disk should be deleted with the VM that uses it

    Returns:
        AttachedDisk object configured to be created using the specified image.
    """
    boot_disk = compute_v1.AttachedDisk()
    initialize_params = compute_v1.AttachedDiskInitializeParams()
    initialize_params.source_image = source_image
    initialize_params.disk_size_gb = disk_size_gb
    initialize_params.disk_type = disk_type
    boot_disk.initialize_params = initialize_params
    # Remember to set auto_delete to True if you want the disk to be deleted when you delete
    # your VM instance.
    boot_disk.auto_delete = auto_delete
    boot_disk.boot = boot
    return boot_disk


def local_ssd_disk(zone: str) -> compute_v1.AttachedDisk():
    """
    Create an AttachedDisk object to be used in VM instance creation. The created disk contains
    no data and requires formatting before it can be used.

    Args:
        zone: The zone in which the local SSD drive will be attached.

    Returns:
        AttachedDisk object configured as a local SSD disk.
    """
    disk = compute_v1.AttachedDisk()
    disk.type_ = compute_v1.AttachedDisk.Type.SCRATCH.name
    initialize_params = compute_v1.AttachedDiskInitializeParams()
    initialize_params.disk_type = f"zones/{zone}/diskTypes/local-ssd"
    disk.initialize_params = initialize_params
    disk.auto_delete = True
    return disk


def wait_for_extended_operation(
    operation: ExtendedOperation, verbose_name: str = "operation", timeout: int = 300
) -> Any:
    """
    Waits for the extended (long-running) operation to complete.

    If the operation is successful, it will return its result.
    If the operation ends with an error, an exception will be raised.
    If there were any warnings during the execution of the operation
    they will be printed to sys.stderr.

    Args:
        operation: a long-running operation you want to wait on.
        verbose_name: (optional) a more verbose name of the operation,
            used only during error and warning reporting.
        timeout: how long (in seconds) to wait for operation to finish.
            If None, wait indefinitely.

    Returns:
        Whatever the operation.result() returns.

    Raises:
        This method will raise the exception received from `operation.exception()`
        or RuntimeError if there is no exception set, but there is an `error_code`
        set for the `operation`.

        In case of an operation taking longer than `timeout` seconds to complete,
        a `concurrent.futures.TimeoutError` will be raised.
    """
    result = operation.result(timeout=timeout)

    if operation.error_code:
        print(
            f"Error during {verbose_name}: [Code: {operation.error_code}]: {operation.error_message}",
            file=sys.stderr,
            flush=True,
        )
        print(f"Operation ID: {operation.name}", file=sys.stderr, flush=True)
        raise operation.exception() or RuntimeError(operation.error_message)

    if operation.warnings:
        print(f"Warnings during {verbose_name}:\n", file=sys.stderr, flush=True)
        for warning in operation.warnings:
            print(f" - {warning.code}: {warning.message}", file=sys.stderr, flush=True)

    return result


def create_instance(
    project_id: str,
    zone: str,
    instance_name: str,
    disks: list[compute_v1.AttachedDisk],
    machine_type: str = "n1-standard-1",
    network_link: str = "global/networks/default",
    subnetwork_link: str = None,
    internal_ip: str = None,
    external_access: bool = False,
    external_ipv4: str = None,
    accelerators: list[compute_v1.AcceleratorConfig] = None,
    preemptible: bool = False,
    spot: bool = False,
    instance_termination_action: str = "STOP",
    custom_hostname: str = None,
    delete_protection: bool = False,
) -> compute_v1.Instance:
    """
    Send an instance creation request to the Compute Engine API and wait for it to complete.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.
        disks: a list of compute_v1.AttachedDisk objects describing the disks
            you want to attach to your new instance.
        machine_type: machine type of the VM being created. This value uses the
            following format: "zones/{zone}/machineTypes/{type_name}".
            For example: "zones/europe-west3-c/machineTypes/f1-micro"
        network_link: name of the network you want the new instance to use.
            For example: "global/networks/default" represents the network
            named "default", which is created automatically for each project.
        subnetwork_link: name of the subnetwork you want the new instance to use.
            This value uses the following format:
            "regions/{region}/subnetworks/{subnetwork_name}"
        internal_ip: internal IP address you want to assign to the new instance.
            By default, a free address from the pool of available internal IP addresses of
            used subnet will be used.
        external_access: boolean flag indicating if the instance should have an external IPv4
            address assigned.
        external_ipv4: external IPv4 address to be assigned to this instance. If you specify
            an external IP address, it must live in the same region as the zone of the instance.
            This setting requires `external_access` to be set to True to work.
        accelerators: a list of AcceleratorConfig objects describing the accelerators that will
            be attached to the new instance.
        preemptible: boolean value indicating if the new instance should be preemptible
            or not. Preemptible VMs have been deprecated and you should now use Spot VMs.
        spot: boolean value indicating if the new instance should be a Spot VM or not.
        instance_termination_action: What action should be taken once a Spot VM is terminated.
            Possible values: "STOP", "DELETE"
        custom_hostname: Custom hostname of the new VM instance.
            Custom hostnames must conform to RFC 1035 requirements for valid hostnames.
        delete_protection: boolean value indicating if the new virtual machine should be
            protected against deletion or not.
    Returns:
        Instance object.
    """
    instance_client = compute_v1.InstancesClient()

    # Use the network interface provided in the network_link argument.
    network_interface = compute_v1.NetworkInterface()
    network_interface.network = network_link
    if subnetwork_link:
        network_interface.subnetwork = subnetwork_link

    if internal_ip:
        network_interface.network_i_p = internal_ip

    if external_access:
        access = compute_v1.AccessConfig()
        access.type_ = compute_v1.AccessConfig.Type.ONE_TO_ONE_NAT.name
        access.name = "External NAT"
        access.network_tier = access.NetworkTier.PREMIUM.name
        if external_ipv4:
            access.nat_i_p = external_ipv4
        network_interface.access_configs = [access]

    # Collect information into the Instance object.
    instance = compute_v1.Instance()
    instance.network_interfaces = [network_interface]
    instance.name = instance_name
    instance.disks = disks
    if re.match(r"^zones/[a-z\d\-]+/machineTypes/[a-z\d\-]+$", machine_type):
        instance.machine_type = machine_type
    else:
        instance.machine_type = f"zones/{zone}/machineTypes/{machine_type}"

    instance.scheduling = compute_v1.Scheduling()
    if accelerators:
        instance.guest_accelerators = accelerators
        instance.scheduling.on_host_maintenance = (
            compute_v1.Scheduling.OnHostMaintenance.TERMINATE.name
        )

    if preemptible:
        # Set the preemptible setting
        warnings.warn(
            "Preemptible VMs are being replaced by Spot VMs.", DeprecationWarning
        )
        instance.scheduling = compute_v1.Scheduling()
        instance.scheduling.preemptible = True

    if spot:
        # Set the Spot VM setting
        instance.scheduling.provisioning_model = (
            compute_v1.Scheduling.ProvisioningModel.SPOT.name
        )
        instance.scheduling.instance_termination_action = instance_termination_action

    if custom_hostname is not None:
        # Set the custom hostname for the instance
        instance.hostname = custom_hostname

    if delete_protection:
        # Set the delete protection bit
        instance.deletion_protection = True

    # Prepare the request to insert an instance.
    request = compute_v1.InsertInstanceRequest()
    request.zone = zone
    request.project = project_id
    request.instance_resource = instance

    # Wait for the create operation to complete.
    print(f"Creating the {instance_name} instance in {zone}...")

    operation = instance_client.insert(request=request)

    wait_for_extended_operation(operation, "instance creation")

    print(f"Instance {instance_name} created.")
    return instance_client.get(project=project_id, zone=zone, instance=instance_name)


def create_with_ssd(
    project_id: str, zone: str, instance_name: str
) -> compute_v1.Instance:
    """
    Create a new VM instance with Debian 10 operating system and SSD local disk.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.

    Returns:
        Instance object.
    """
    newest_debian = get_image_from_family(project="debian-cloud", family="debian-12")
    disk_type = f"zones/{zone}/diskTypes/pd-standard"
    disks = [
        disk_from_image(disk_type, 10, True, newest_debian.self_link, True),
        local_ssd_disk(zone),
    ]
    instance = create_instance(project_id, zone, instance_name, disks)
    return instance

REST

Utilizza instances.insert method per creare una VM da una famiglia di immagini o da una versione specifica di un'immagine del sistema operativo.

  • Per le serie di macchine ultra Z3, A3 e A2, per creare una VM con dischi SSD locali collegati, crea una VM che utilizzi uno dei tipi di macchine disponibili per quella serie.
  • Per la serie di macchine C3 o C3D, per creare una VM con dischi SSD locali collegati, specifica un tipo di istanza che includa i dischi SSD locali (-lssd).

    Ecco un payload di esempio che crea una VM C3 con un disco di avvio Ubuntu e due dischi SSD locali:

    {
     "machineType":"zones/us-central1-c/machineTypes/c3-standard-8-lssd",
     "name":"c3-with-local-ssd",
     "disks":[
        {
           "type":"PERSISTENT",
           "initializeParams":{
              "sourceImage":"projects/ubuntu-os-cloud/global/images/family/ubuntu-2204-lts"
           },
           "boot":true
        }
     ],
     "networkInterfaces":[
        {
           "network":"global/networks/default"
    }
     ]
    }
    
  • Per M3 e le serie di macchine di prima e seconda generazione, per creare una VM con dischi SSD locali collegati, puoi aggiungere dispositivi SSD locali durante la creazione delle VM utilizzando la proprietà initializeParams. Devi anche fornire le seguenti proprietà:

    • diskType: imposta su SSD locale
    • autoDelete: impostato su true
    • type: impostata su SCRATCH

    Le seguenti proprietà non possono essere utilizzate con i dispositivi SSD locali:

    • diskName
    • sourceImage proprietà
    • diskSizeGb

    Ecco un payload di esempio che crea una VM M3 con un disco di avvio e quattro dischi SSD locali:

    {
     "machineType":"zones/us-central1-f/machineTypes/m3-ultramem-64",
     "name":"local-ssd-instance",
     "disks":[
        {
         "type":"PERSISTENT",
         "initializeParams":{
            "sourceImage":"projects/ubuntu-os-cloud/global/images/family/ubuntu-2204-lts"
         },
         "boot":true
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
     ],
     "networkInterfaces":[
        {
           "network":"global/networks/default"
        }
     ]
    }
    

Dopo aver creato un disco SSD locale, devi formattare e montare ogni dispositivo prima di poterlo utilizzare.

Per ulteriori informazioni sulla creazione di un'istanza mediante REST, consulta la pagina relativa all'API Compute Engine.

Formattare e montare un dispositivo SSD locale

Puoi formattare e montare ogni disco SSD locale singolarmente oppure combinare più dischi SSD locali in un unico volume logico.

Formatta e monta singole partizioni SSD locali

Il modo più semplice per connettere gli SSD locali all'istanza è formattare e montare ogni dispositivo con una singola partizione. In alternativa, puoi combinare più partizioni in un unico volume logico.

Istanze Linux

Formatta e monta il nuovo SSD locale sulla tua istanza Linux. Puoi utilizzare qualsiasi formato e configurazione di partizione di cui hai bisogno. Per questo esempio, crea una singola partizione ext4.

  1. Vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic sul pulsante SSH accanto all'istanza a cui è collegato il nuovo SSD locale. Il browser apre una connessione terminale all'istanza.

  3. Nel terminale, utilizza il comando find per identificare l'SSD locale che vuoi montare.

    $ find /dev/ | grep google-local-nvme-ssd
    

    Le unità SSD locali in modalità SCSI hanno nomi standard come google-local-ssd-0. Le unità SSD locali in modalità NVMe hanno nomi simili a google-local-nvme-ssd-0, come mostrato nell'output seguente:

     $ find /dev/ | grep google-local-nvme-ssd
    
     /dev/disk/by-id/google-local-nvme-ssd-0
    
  4. Formatta l'SSD locale con un file system ext4. Questo comando elimina tutti i dati esistenti dall'SSD locale.

    $ sudo mkfs.ext4 -F /dev/disk/by-id/[SSD_NAME]
    

    Sostituisci [SSD_NAME] con l'ID dell'SSD locale che vuoi formattare. Ad esempio, specifica google-local-nvme-ssd-0 per formattare il primo SSD locale NVMe nell'istanza.

  5. Utilizza il comando mkdir per creare una directory in cui montare il dispositivo.

    $ sudo mkdir -p /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con il percorso della directory in cui vuoi montare il disco SSD locale.

  6. Monta l'SSD locale sulla VM.

    $ sudo mount /dev/[SSD_NAME] /mnt/disks/[MNT_DIR]
    

    Sostituisci quanto segue:

    • [SSD_NAME]: l'ID dell'SSD locale che vuoi montare.
    • [MNT_DIR]: la directory in cui vuoi montare l'SSD locale.
  7. Configura l'accesso in lettura e scrittura al dispositivo. In questo esempio, concedi l'accesso in scrittura al dispositivo a tutti gli utenti.

    $ sudo chmod a+w /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'SSD locale.

Facoltativamente, puoi aggiungere l'SSD locale al file /etc/fstab in modo che il dispositivo venga montato di nuovo automaticamente al riavvio dell'istanza. Questa voce non conserva i dati sul tuo SSD locale se l'istanza si arresta. Per i dettagli completi, consulta Persistenza dei dati degli SSD locali.

Quando specifichi il file della voce /etc/fstab, assicurati di includere l'opzione nofail per consentire all'istanza di continuare ad avviarsi anche se l'SSD locale non è presente. Ad esempio, se acquisisci uno snapshot del disco di avvio e crei una nuova istanza senza dischi SSD locali collegati, l'istanza può continuare il processo di avvio e non essere messa in pausa per sempre.

  1. Crea la voce /etc/fstab. Utilizza il comando blkid per trovare l'UUID per il file system sul dispositivo e modificare il file /etc/fstab per includere l'UUID con le opzioni di montaggio. Puoi completare questo passaggio con un solo comando.

    Ad esempio, per un SSD locale in modalità NVMe, utilizza il seguente comando:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/disk/by-id/google-local-nvme-ssd-0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Per un SSD locale in modalità non NVMe, ad esempio SCSI, utilizza il seguente comando:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/disk/by-id/google-local-ssd-0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'SSD locale.

  2. Utilizza il comando cat per verificare che le voci /etc/fstab siano corrette:

    $ cat /etc/fstab
    

Se crei uno snapshot dal disco di avvio di questa istanza e lo utilizzi per creare un'istanza separata che non ha SSD locali, modifica il file /etc/fstab e rimuovi la voce per questo SSD locale. Anche con l'opzione nofail attiva, mantieni il file /etc/fstab sincronizzato con le partizioni collegate all'istanza e rimuovi queste voci prima di creare lo snapshot del disco di avvio.

Istanze Windows

Utilizza lo strumento Gestione disco di Windows per formattare e montare un SSD locale su un'istanza Windows.

  1. Connettiti all'istanza tramite RDP. Per questo esempio, vai alla pagina Istanze VM e fai clic sul pulsante RDP accanto all'istanza a cui sono collegati gli SSD locali. Dopo aver inserito il nome utente e la password, si apre una finestra con l'interfaccia desktop del server.

  2. Fai clic con il pulsante destro del mouse sul pulsante Start di Windows e seleziona Gestione disco.

    Seleziona lo strumento Gestione dischi di Windows dal menu di scelta rapida nel pulsante Start di Windows.

  3. Se non hai mai inizializzato l'SSD locale, lo strumento richiede di selezionare uno schema di partizionamento per le nuove partizioni. Seleziona GPT e fai clic su Ok.

    Selezione di uno schema di partizione nella finestra di inizializzazione del disco.

  4. Dopo l'inizializzazione dell'SSD locale, fai clic con il tasto destro del mouse sullo spazio su disco non allocato e seleziona Nuovo volume semplice.

    Creazione di un nuovo volume semplice dal disco collegato.

  5. Segui le istruzioni della procedura guidata nuovo volume semplice per configurare il nuovo volume. Puoi utilizzare qualsiasi formato di partizione desiderato, ma per questo esempio seleziona NTFS. Seleziona anche Esegui una formattazione rapida per velocizzare la procedura di formattazione.

    Selezione del tipo di formato di partizione nella procedura guidata Nuovo volume semplice.

  6. Dopo aver completato la procedura guidata e aver terminato la formattazione del volume, controlla che il nuovo SSD locale sia nello stato Healthy.

    Visualizzando l&#39;elenco dei dischi riconosciuti da Windows, verifica che lo stato dell&#39;SSD locale sia Integro.

Ecco fatto. Ora puoi scrivere file sull'SSD locale.

Formatta e monta più partizioni SSD locali in un unico volume logico

A differenza degli SSD permanenti, gli SSD locali hanno una capacità fissa di 375 GB per ogni dispositivo che colleghi all'istanza. Se vuoi combinare più partizioni SSD locali in un unico volume logico, devi definire personalmente la gestione del volume tra queste partizioni.

Istanze Linux

Utilizza mdadm per creare un array RAID 0. In questo esempio l'array viene formattato con un singolo file system ext4, ma puoi applicare qualsiasi file system che preferisci.

  1. Vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic sul pulsante SSH accanto all'istanza a cui è collegato il nuovo SSD locale. Il browser apre una connessione terminale all'istanza.

  3. Nel terminale, installa lo strumento mdadm. Il processo di installazione di mdadm include un prompt dell'utente che interrompe gli script, quindi esegui questo processo manualmente.

    Debian e Ubuntu:

    $ sudo apt update && sudo apt install mdadm --no-install-recommends
    

    CentOS e RHEL:

    $ sudo yum install mdadm -y
    

    SLES e openSUSE:

    $ sudo zypper install -y mdadm
    

  4. Utilizza il comando find per identificare tutte le unità SSD locali che vuoi montare insieme.

    Per questo esempio, l'istanza ha otto partizioni SSD locali in modalità NVMe:

    $  find /dev/ | grep google-local-nvme-ssd
    
     /dev/disk/by-id/google-local-nvme-ssd-7
     /dev/disk/by-id/google-local-nvme-ssd-6
     /dev/disk/by-id/google-local-nvme-ssd-5
     /dev/disk/by-id/google-local-nvme-ssd-4
     /dev/disk/by-id/google-local-nvme-ssd-3
     /dev/disk/by-id/google-local-nvme-ssd-2
     /dev/disk/by-id/google-local-nvme-ssd-1
     /dev/disk/by-id/google-local-nvme-ssd-0
    

    find non garantisce che verrà effettuato un ordine. Se i dispositivi sono elencati in un ordine diverso, è sufficiente che il numero di righe di output corrisponda al numero previsto di partizioni SSD. Le unità SSD locali in modalità SCSI hanno nomi standard come google-local-ssd. Le unità SSD locali in modalità NVMe hanno nomi come google-local-nvme-ssd.

  5. Utilizza mdadm per combinare più dispositivi SSD locali in un unico array denominato /dev/md0. Questo esempio unisce otto dispositivi SSD locali in modalità NVMe. Per i dispositivi SSD locali in modalità SCSI, specifica i nomi ottenuti dal comando find:

    $ sudo mdadm --create /dev/md0 --level=0 --raid-devices=8 \
     /dev/disk/by-id/google-local-nvme-ssd-0 \
     /dev/disk/by-id/google-local-nvme-ssd-1 \
     /dev/disk/by-id/google-local-nvme-ssd-2 \
     /dev/disk/by-id/google-local-nvme-ssd-3 \
     /dev/disk/by-id/google-local-nvme-ssd-4 \
     /dev/disk/by-id/google-local-nvme-ssd-5 \
     /dev/disk/by-id/google-local-nvme-ssd-6 \
     /dev/disk/by-id/google-local-nvme-ssd-7
    
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    
    

    Puoi confermare i dettagli dell'array con mdadm --detail. Se aggiungi il flag --prefer=by-id, i dispositivi verranno elencati utilizzando i percorsi /dev/disk/by-id.

     sudo mdadm --detail --prefer=by-id /dev/md0
     

    L'output dovrebbe essere simile al seguente per ogni dispositivo nell'array.

     ...
     Number   Major   Minor   RaidDevice State
        0      259      0         0      active sync   /dev/disk/by-id/google-local-nvme-ssd-0
     ...
     

  6. Formatta l'array /dev/md0 completo con un file system ext4.

    $ sudo mkfs.ext4 -F /dev/md0
    
  7. Crea una directory in cui puoi montare /dev/md0. Per questo esempio, crea la directory /mnt/disks/ssd-array:

    $ sudo mkdir -p /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui vuoi montare l'array SSD locale.

  8. Monta l'array /dev/md0 nella directory /mnt/disks/ssd-array:

    $ sudo mount /dev/md0 /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui vuoi montare l'array SSD locale.

  9. Configura l'accesso in lettura e scrittura al dispositivo. In questo esempio, concedi l'accesso in scrittura al dispositivo a tutti gli utenti.

    $ sudo chmod a+w /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'array SSD locale.

Facoltativamente, puoi aggiungere l'SSD locale al file /etc/fstab in modo che il dispositivo venga montato di nuovo automaticamente al riavvio dell'istanza. Questa voce non conserva i dati sul tuo SSD locale se l'istanza si arresta. Per maggiori dettagli, consulta Persistenza dei dati degli SSD locali.

Quando specifichi il file della voce /etc/fstab, assicurati di includere l'opzione nofail per consentire all'istanza di continuare ad avviarsi anche se l'SSD locale non è presente. Ad esempio, se acquisisci uno snapshot del disco di avvio e crei una nuova istanza senza SSD locali collegati, l'istanza può continuare il processo di avvio e non essere messa in pausa a tempo indeterminato.

  1. Crea la voce /etc/fstab. Utilizza il comando blkid per trovare l'UUID per il file system sul dispositivo e modificare il file /etc/fstab per includere l'UUID con le opzioni di montaggio. Specifica l'opzione nofail per consentire l'avvio del sistema anche se l'SSD locale non è disponibile.Puoi completare questo passaggio con un singolo comando. Ad esempio:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/md0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'array SSD locale.

  2. Se utilizzi un nome dispositivo come /dev/md0 nel file /etc/fstab anziché l'UUID, devi modificare il file /etc/mdadm/mdadm.conf per assicurarti che l'array venga riassemblato automaticamente all'avvio. Per farlo, completa questi due passaggi:

    1. Assicurati che l'array di dischi venga scansionato e riassemblato automaticamente all'avvio.
      $ sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
      
    2. Aggiorna initramfs in modo che l'array sia disponibile durante il processo di fase iniziale di avvio.
      $ sudo update-initramfs -u
      
  3. Utilizza il comando cat per verificare che le voci /etc/fstab siano corrette:

    $ cat /etc/fstab
    

Se crei uno snapshot dal disco di avvio di questa istanza e lo utilizzi per creare un'istanza separata che non ha SSD locali, modifica il file /etc/fstab e rimuovi la voce per questo array di SSD locali. Anche con l'opzione nofail attiva, mantieni il file /etc/fstab sincronizzato con le partizioni collegate all'istanza e rimuovi queste voci prima di creare lo snapshot del disco di avvio.

Istanze Windows

Utilizza lo strumento Gestione del disco di Windows per formattare e montare un array di SSD locali su un'istanza Windows.

  1. Connettiti all'istanza tramite RDP. Per questo esempio, vai alla pagina Istanze VM e fai clic sul pulsante RDP accanto all'istanza a cui sono collegati gli SSD locali. Dopo aver inserito il nome utente e la password, si apre una finestra con l'interfaccia desktop del server.

  2. Fai clic con il pulsante destro del mouse sul pulsante Start di Windows e seleziona Gestione disco.

    Seleziona lo strumento Gestione dischi di Windows dal menu di scelta rapida nel pulsante Start di Windows.

  3. Se non hai mai inizializzato le unità SSD locali, lo strumento ti chiede di selezionare uno schema di partizionamento per le nuove partizioni. Seleziona GPT e fai clic su Ok.

    Selezione di uno schema di partizione nella finestra di inizializzazione del disco.

  4. Dopo l'inizializzazione dell'SSD locale, fai clic con il tasto destro del mouse sullo spazio su disco non allocato e seleziona Nuovo volume Striped.

    Creazione di un nuovo volume sottoposto a striping dal disco collegato.

  5. Seleziona le partizioni SSD locali che vuoi includere nell'array di striping. Per questo esempio, seleziona tutte le partizioni per combinarle in un singolo dispositivo SSD locale.

    Selezione delle partizioni SSD locali da includere nell&#39;array.

  6. Segui le istruzioni nella procedura guidata del nuovo volume Striped per configurare il nuovo volume. Puoi utilizzare qualsiasi formato di partizione desiderato, ma per questo esempio seleziona NTFS. Seleziona anche Esegui una formattazione rapida per velocizzare la procedura di formattazione.

    Selezione del tipo di formato di partizione nella procedura guidata Nuovo volume Striped.

  7. Dopo aver completato la procedura guidata e aver terminato la formattazione del volume, controlla che il nuovo SSD locale sia nello stato Healthy.

    Visualizzando l&#39;elenco dei dischi riconosciuti da Windows, verifica che lo stato dell&#39;SSD locale sia Integro.

Ora puoi scrivere file sull'SSD locale.

Passaggi successivi