Aggiungi un SSD locale alla tua VM

Gli SSD locali sono progettati per casi d'uso di archiviazione temporanei come cache o nello spazio di elaborazione temporaneo. Poiché le unità SSD locali si trovano sul su cui è in esecuzione la tua VM, possono essere create solo durante processo di creazione di un progetto. Gli SSD locali non possono essere utilizzati come dispositivi di avvio.

Per serie di macchine di terza generazione, viene aggiunta una quantità prestabilita di dischi SSD locali alla VM quando la crei. L'unico per aggiungere spazio di archiviazione SSD locale a queste VM è:

  • Per C3 e C3D, l'archiviazione SSD locale è disponibile solo con determinate macchine di testo, ad esempio c3-standard-88-lssd.
  • Per le serie di macchine Z3, A3 e A2 ultra, ogni tipo di macchina include Archiviazione SSD locale.

Per i tipi di macchina M3 e di prima e seconda generazione, è necessario specificare Dischi SSD locali durante la creazione della VM.

Dopo aver creato un disco SSD locale, devi formattare e montare il dispositivo prima di poterlo utilizzare.

Per informazioni sulla quantità di spazio di archiviazione SSD locale disponibile con varie di macchine e il numero di dischi SSD locali che per collegarti a una VM, Scegli un numero valido di SSD locali.

Prima di iniziare

  • Esamina il Limitazioni degli SSD locali prima di utilizzare gli SSD locali.
  • Esamina il persistenza dei dati per i dischi SSD locali.
  • Se aggiungi SSD locali a istanze di macchine virtuali (VM) con GPU collegate, consulta Disponibilità di SSD locali per regioni e zone della GPU.
  • Se non l'hai già fatto, configura l'autenticazione. Autenticazione è Il processo di verifica dell'identità per l'accesso ai servizi e alle API di Google Cloud. Per eseguire codice o esempi da un ambiente di sviluppo locale, puoi eseguire l'autenticazione Compute Engine come segue.

    Select the tab for how you plan to use the samples on this page:

    Console

    When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.

    gcloud

    1. Installa Google Cloud CLI, quindi initialize eseguendo questo comando:

      gcloud init
    2. Set a default region and zone.
    3. Terraform

      Per utilizzare gli esempi di Terraform in questa pagina in un ambiente dell'ambiente di sviluppo, installare e inizializzare gcloud CLI quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per ulteriori informazioni, vedi Set up authentication for a local development environment.

      Vai

      Per utilizzare gli Go esempi in questa pagina in una località dell'ambiente di sviluppo, installare e inizializzare gcloud CLI quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per ulteriori informazioni, vedi Set up authentication for a local development environment.

      Java

      Per utilizzare gli Java esempi in questa pagina in una località dell'ambiente di sviluppo, installare e inizializzare gcloud CLI quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per ulteriori informazioni, vedi Set up authentication for a local development environment.

      Python

      Per utilizzare gli Python esempi in questa pagina in una località dell'ambiente di sviluppo, installare e inizializzare gcloud CLI quindi configura Credenziali predefinite dell'applicazione con le tue credenziali utente.

      1. Installa Google Cloud CLI.
      2. Per initialize gcloud CLI, esegui questo comando:

        gcloud init
      3. Crea credenziali di autenticazione locali per il tuo Account Google:

        gcloud auth application-default login

      Per ulteriori informazioni, vedi Set up authentication for a local development environment.

      REST

      Per utilizzare gli esempi di API REST in questa pagina in un ambiente di sviluppo locale, utilizzi le credenziali che fornisci a gcloud CLI.

        Installa Google Cloud CLI, quindi initialize eseguendo questo comando:

        gcloud init

      Per ulteriori informazioni, vedi Esegui l'autenticazione per l'utilizzo di REST nella documentazione sull'autenticazione di Google Cloud.

Crea una VM con un SSD locale

Puoi creare una VM con spazio di archiviazione su disco SSD locale utilizzando la console Google Cloud, gcloud CLI o API Compute Engine.

Console

  1. Vai alla pagina Crea un'istanza.

    Vai a Crea un'istanza

  2. Specifica il nome, la regione e la zona per la tua VM. Se vuoi, puoi aggiungere tag o etichette.

  3. Nella sezione Configurazione macchina, scegli la famiglia di macchine contiene il tipo di macchina target.

  4. Seleziona una serie dall'elenco Serie, quindi scegli il tipo di macchina.

    • Per la serie di macchine di terza generazione C3 e C3D, scegli un tipo di macchina che termini con -lssd.
    • Per Z3, A3 e A2 ultra, ogni tipo di macchina è dotato di SSD locale archiviazione.
    • Per M3, o serie di macchine di prima e seconda generazione, dopo aver selezionato tipo di macchina, segui questi passaggi:
      1. Espandi la sezione Opzioni avanzate.
      2. Espandi Dischi, fai clic su Aggiungi SSD locale e segui questi passaggi:
          .
        1. Nella pagina Configura SSD locale, scegli il tipo di interfaccia del disco.
        2. Seleziona il numero di dischi desiderato da Capacità del disco dall'elenco di lettura.
        3. Fai clic su Salva.
  5. Continua con il processo di creazione della VM.

  6. Dopo aver creato la VM con dischi SSD locali, devi formattare e montare ciascun dispositivo prima di poter usare il i dischi permanenti.

gcloud

  • Per le serie di macchine ultra Z3, A3 e A2, per creare una VM con dischi SSD locali collegati, crea una VM che utilizzi uno qualsiasi tipi di macchine disponibili per quella serie seguendo le istruzioni per per creare un'istanza.

  • Per la serie di macchine C3 o C3D, creare una VM con Dischi SSD locali, segui le istruzioni per crea un'istanza, ma specifica un tipo di istanza che includa i dischi SSD locali (-lssd).

    Ad esempio, puoi creare una VM C3 con due partizioni SSD locali usa l'interfaccia del disco NVMe come segue:

    gcloud compute instances create example-c3-instance \
       --zone ZONE \
       --machine-type c3-standard-8-lssd \
       --image-project IMAGE_PROJECT \
       --image-family IMAGE_FAMILY
    
  • Per M3 e le serie di macchine di prima e seconda generazione, per creare una VM con dischi SSD locali collegati, segui le istruzioni per creare un'istanza, ma usa il flag --local-ssd per creare e collegare un disco SSD locale. A crea più dischi SSD locali, aggiungi altri flag --local-ssd. Se vuoi, puoi anche impostare i valori per l'interfaccia e il nome del dispositivo. per ogni flag --local-ssd.

    Ad esempio, puoi creare una VM M3 con quattro dischi SSD locali specifica il tipo di interfaccia del disco come segue:

    gcloud compute instances VM_NAME \
       --machine-type m3-ultramem-64 \
       --zone ZONE \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE \
       --image-project IMAGE_PROJECT \
       --image-family IMAGE_FAMILY
    

Sostituisci quanto segue:

  • VM_NAME: il nome della nuova VM
  • ZONE: la zona in cui creare la VM. Questo flag è facoltativo se hai configurato gcloud CLI compute/zone o la variabile di ambiente CLOUDSDK_COMPUTE_ZONE.
  • INTERFACE_TYPE: il tipo di interfaccia del disco che per il dispositivo SSD locale. Specifica nvme se stai creando una VM M3 o se l'immagine disco di avvio dispone di driver NVMe ottimizzati. Specifica scsi per le altre immagini.
  • DEVICE-NAME: (facoltativo) un nome che indica la nome del disco da utilizzare nel sistema operativo guest link simbolico (link simbolico).
  • IMAGE_FAMILY: uno dei famiglie di immagini disponibili che vuoi installare sul disco di avvio
  • IMAGE_PROJECT: il valore progetto immagine in cui la famiglia di immagini appartiene a

Se necessario, puoi collegare un SSD locale a un primo o a un secondo di nuova generazione utilizzando una combinazione di nvme e scsi per partizioni di Compute Engine. Le prestazioni per il dispositivo nvme dipendono dal disco di avvio per la tua istanza. Le VM di terza generazione supportano solo il disco NVMe a riga di comando.

Dopo aver creato una VM con un SSD locale, devi formattare e montare ogni dispositivo prima di possono utilizzarlo.

Terraform

Per creare una VM con dischi SSD locali collegati, puoi utilizzare il comando google_compute_instance risorsa.


# Create a VM with a local SSD for temporary storage use cases

resource "google_compute_instance" "default" {
  name         = "my-vm-instance-with-scratch"
  machine_type = "n2-standard-8"
  zone         = "us-central1-a"

  boot_disk {
    initialize_params {
      image = "debian-cloud/debian-11"
    }
  }

  # Local SSD interface type; NVME for image with optimized NVMe drivers or SCSI
  # Local SSD are 375 GiB in size
  scratch_disk {
    interface = "SCSI"
  }

  network_interface {
    network = "default"
    access_config {}
  }
}

Per scoprire come applicare o rimuovere una configurazione Terraform, consulta: Comandi Terraform di base.

Per generare il codice Terraform, puoi utilizzare il componente Codice equivalente nella console Google Cloud.
  1. Nella console Google Cloud, vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic su Crea istanza.
  3. Specifica i parametri che preferisci.
  4. Nella parte superiore o inferiore della pagina, fai clic su Codice equivalente, quindi la scheda Terraform per visualizzare il codice Terraform.

Vai

Go

Prima di provare questo esempio, segui le istruzioni per la configurazione di Go nel Guida rapida di Compute Engine con librerie client. Per ulteriori informazioni, consulta API Go Compute Engine documentazione di riferimento.

Per eseguire l'autenticazione su Compute Engine, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.

import (
	"context"
	"fmt"
	"io"

	compute "cloud.google.com/go/compute/apiv1"
	computepb "cloud.google.com/go/compute/apiv1/computepb"
	"google.golang.org/protobuf/proto"
)

// createWithLocalSSD creates a new VM instance with Debian 10 operating system and a local SSD attached.
func createWithLocalSSD(w io.Writer, projectID, zone, instanceName string) error {
	// projectID := "your_project_id"
	// zone := "europe-central2-b"
	// instanceName := "your_instance_name"

	ctx := context.Background()
	instancesClient, err := compute.NewInstancesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewInstancesRESTClient: %w", err)
	}
	defer instancesClient.Close()

	imagesClient, err := compute.NewImagesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewImagesRESTClient: %w", err)
	}
	defer imagesClient.Close()

	// List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details.
	newestDebianReq := &computepb.GetFromFamilyImageRequest{
		Project: "debian-cloud",
		Family:  "debian-12",
	}
	newestDebian, err := imagesClient.GetFromFamily(ctx, newestDebianReq)
	if err != nil {
		return fmt.Errorf("unable to get image from family: %w", err)
	}

	req := &computepb.InsertInstanceRequest{
		Project: projectID,
		Zone:    zone,
		InstanceResource: &computepb.Instance{
			Name: proto.String(instanceName),
			Disks: []*computepb.AttachedDisk{
				{
					InitializeParams: &computepb.AttachedDiskInitializeParams{
						DiskSizeGb:  proto.Int64(10),
						SourceImage: newestDebian.SelfLink,
						DiskType:    proto.String(fmt.Sprintf("zones/%s/diskTypes/pd-standard", zone)),
					},
					AutoDelete: proto.Bool(true),
					Boot:       proto.Bool(true),
					Type:       proto.String(computepb.AttachedDisk_PERSISTENT.String()),
				},
				{
					InitializeParams: &computepb.AttachedDiskInitializeParams{
						DiskType: proto.String(fmt.Sprintf("zones/%s/diskTypes/local-ssd", zone)),
					},
					AutoDelete: proto.Bool(true),
					Type:       proto.String(computepb.AttachedDisk_SCRATCH.String()),
				},
			},
			MachineType: proto.String(fmt.Sprintf("zones/%s/machineTypes/n1-standard-1", zone)),
			NetworkInterfaces: []*computepb.NetworkInterface{
				{
					Name: proto.String("global/networks/default"),
				},
			},
		},
	}

	op, err := instancesClient.Insert(ctx, req)
	if err != nil {
		return fmt.Errorf("unable to create instance: %w", err)
	}

	if err = op.Wait(ctx); err != nil {
		return fmt.Errorf("unable to wait for the operation: %w", err)
	}

	fmt.Fprintf(w, "Instance created\n")

	return nil
}

Java

Java

Prima di provare questo esempio, segui le istruzioni per la configurazione di Java nel Guida rapida di Compute Engine con librerie client. Per ulteriori informazioni, consulta API Java Compute Engine documentazione di riferimento.

Per eseguire l'autenticazione su Compute Engine, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.


import com.google.cloud.compute.v1.AttachedDisk;
import com.google.cloud.compute.v1.AttachedDiskInitializeParams;
import com.google.cloud.compute.v1.Image;
import com.google.cloud.compute.v1.ImagesClient;
import com.google.cloud.compute.v1.Instance;
import com.google.cloud.compute.v1.InstancesClient;
import com.google.cloud.compute.v1.NetworkInterface;
import com.google.cloud.compute.v1.Operation;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreateWithLocalSsd {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // projectId: project ID or project number of the Cloud project you want to use.
    String projectId = "your-project-id";
    // zone: name of the zone to create the instance in. For example: "us-west3-b"
    String zone = "zone-name";
    // instanceName: name of the new virtual machine (VM) instance.
    String instanceName = "instance-name";

    createWithLocalSsd(projectId, zone, instanceName);
  }

  // Create a new VM instance with Debian 10 operating system and SSD local disk.
  public static void createWithLocalSsd(String projectId, String zone, String instanceName)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {

    int diskSizeGb = 10;
    boolean boot = true;
    boolean autoDelete = true;
    String diskType = String.format("zones/%s/diskTypes/pd-standard", zone);
    // Get the latest debian image.
    Image newestDebian = getImageFromFamily("debian-cloud", "debian-10");
    List<AttachedDisk> disks = new ArrayList<>();

    // Create the disks to be included in the instance.
    disks.add(
        createDiskFromImage(diskType, diskSizeGb, boot, newestDebian.getSelfLink(), autoDelete));
    disks.add(createLocalSsdDisk(zone));

    // Create the instance.
    Instance instance = createInstance(projectId, zone, instanceName, disks);

    if (instance != null) {
      System.out.printf("Instance created with local SSD: %s", instance.getName());
    }

  }

  // Retrieve the newest image that is part of a given family in a project.
  // Args:
  //    projectId: project ID or project number of the Cloud project you want to get image from.
  //    family: name of the image family you want to get image from.
  private static Image getImageFromFamily(String projectId, String family) throws IOException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `imagesClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (ImagesClient imagesClient = ImagesClient.create()) {
      // List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details
      return imagesClient.getFromFamily(projectId, family);
    }
  }

  // Create an AttachedDisk object to be used in VM instance creation. Uses an image as the
  // source for the new disk.
  //
  // Args:
  //    diskType: the type of disk you want to create. This value uses the following format:
  //        "zones/{zone}/diskTypes/(pd-standard|pd-ssd|pd-balanced|pd-extreme)".
  //        For example: "zones/us-west3-b/diskTypes/pd-ssd"
  //
  //    diskSizeGb: size of the new disk in gigabytes.
  //
  //    boot: boolean flag indicating whether this disk should be used as a
  //    boot disk of an instance.
  //
  //    sourceImage: source image to use when creating this disk.
  //    You must have read access to this disk. This can be one of the publicly available images
  //    or an image from one of your projects.
  //    This value uses the following format: "projects/{project_name}/global/images/{image_name}"
  //
  //    autoDelete: boolean flag indicating whether this disk should be deleted
  //    with the VM that uses it.
  private static AttachedDisk createDiskFromImage(String diskType, int diskSizeGb, boolean boot,
      String sourceImage, boolean autoDelete) {

    AttachedDiskInitializeParams attachedDiskInitializeParams =
        AttachedDiskInitializeParams.newBuilder()
            .setSourceImage(sourceImage)
            .setDiskSizeGb(diskSizeGb)
            .setDiskType(diskType)
            .build();

    AttachedDisk bootDisk = AttachedDisk.newBuilder()
        .setInitializeParams(attachedDiskInitializeParams)
        // Remember to set auto_delete to True if you want the disk to be deleted when you delete
        // your VM instance.
        .setAutoDelete(autoDelete)
        .setBoot(boot)
        .build();

    return bootDisk;
  }

  // Create an AttachedDisk object to be used in VM instance creation. The created disk contains
  // no data and requires formatting before it can be used.
  // Args:
  //    zone: The zone in which the local SSD drive will be attached.
  private static AttachedDisk createLocalSsdDisk(String zone) {

    AttachedDiskInitializeParams attachedDiskInitializeParams =
        AttachedDiskInitializeParams.newBuilder()
            .setDiskType(String.format("zones/%s/diskTypes/local-ssd", zone))
            .build();

    AttachedDisk disk = AttachedDisk.newBuilder()
        .setType(AttachedDisk.Type.SCRATCH.name())
        .setInitializeParams(attachedDiskInitializeParams)
        .setAutoDelete(true)
        .build();

    return disk;
  }

  // Send an instance creation request to the Compute Engine API and wait for it to complete.
  // Args:
  //    projectId: project ID or project number of the Cloud project you want to use.
  //    zone: name of the zone to create the instance in. For example: "us-west3-b"
  //    instanceName: name of the new virtual machine (VM) instance.
  //    disks: a list of compute.v1.AttachedDisk objects describing the disks
  //           you want to attach to your new instance.
  private static Instance createInstance(String projectId, String zone, String instanceName,
      List<AttachedDisk> disks)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `instancesClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (InstancesClient instancesClient = InstancesClient.create()) {

      // machineType: machine type of the VM being created. This value uses the
      // following format: "zones/{zone}/machineTypes/{type_name}".
      // For example: "zones/europe-west3-c/machineTypes/f1-micro"
      String typeName = "n1-standard-1";
      String machineType = String.format("zones/%s/machineTypes/%s", zone, typeName);

      // networkLink: name of the network you want the new instance to use.
      // For example: "global/networks/default" represents the network
      // named "default", which is created automatically for each project.
      String networkLink = "global/networks/default";

      // Collect information into the Instance object.
      Instance instance = Instance.newBuilder()
          .setName(instanceName)
          .setMachineType(machineType)
          .addNetworkInterfaces(NetworkInterface.newBuilder().setName(networkLink).build())
          .addAllDisks(disks)
          .build();

      Operation response = instancesClient.insertAsync(projectId, zone, instance)
          .get(3, TimeUnit.MINUTES);

      if (response.hasError()) {
        throw new Error("Instance creation failed ! ! " + response);
      }
      System.out.println("Operation Status: " + response.getStatus());
      return instancesClient.get(projectId, zone, instanceName);
    }

  }

}

Python

Python

Prima di provare questo esempio, segui le istruzioni per la configurazione di Python nel Guida rapida di Compute Engine con librerie client. Per ulteriori informazioni, consulta API Python Compute Engine documentazione di riferimento.

Per eseguire l'autenticazione su Compute Engine, configura Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.

from __future__ import annotations

import re
import sys
from typing import Any
import warnings

from google.api_core.extended_operation import ExtendedOperation
from google.cloud import compute_v1


def get_image_from_family(project: str, family: str) -> compute_v1.Image:
    """
    Retrieve the newest image that is part of a given family in a project.

    Args:
        project: project ID or project number of the Cloud project you want to get image from.
        family: name of the image family you want to get image from.

    Returns:
        An Image object.
    """
    image_client = compute_v1.ImagesClient()
    # List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details
    newest_image = image_client.get_from_family(project=project, family=family)
    return newest_image


def disk_from_image(
    disk_type: str,
    disk_size_gb: int,
    boot: bool,
    source_image: str,
    auto_delete: bool = True,
) -> compute_v1.AttachedDisk:
    """
    Create an AttachedDisk object to be used in VM instance creation. Uses an image as the
    source for the new disk.

    Args:
         disk_type: the type of disk you want to create. This value uses the following format:
            "zones/{zone}/diskTypes/(pd-standard|pd-ssd|pd-balanced|pd-extreme)".
            For example: "zones/us-west3-b/diskTypes/pd-ssd"
        disk_size_gb: size of the new disk in gigabytes
        boot: boolean flag indicating whether this disk should be used as a boot disk of an instance
        source_image: source image to use when creating this disk. You must have read access to this disk. This can be one
            of the publicly available images or an image from one of your projects.
            This value uses the following format: "projects/{project_name}/global/images/{image_name}"
        auto_delete: boolean flag indicating whether this disk should be deleted with the VM that uses it

    Returns:
        AttachedDisk object configured to be created using the specified image.
    """
    boot_disk = compute_v1.AttachedDisk()
    initialize_params = compute_v1.AttachedDiskInitializeParams()
    initialize_params.source_image = source_image
    initialize_params.disk_size_gb = disk_size_gb
    initialize_params.disk_type = disk_type
    boot_disk.initialize_params = initialize_params
    # Remember to set auto_delete to True if you want the disk to be deleted when you delete
    # your VM instance.
    boot_disk.auto_delete = auto_delete
    boot_disk.boot = boot
    return boot_disk


def local_ssd_disk(zone: str) -> compute_v1.AttachedDisk():
    """
    Create an AttachedDisk object to be used in VM instance creation. The created disk contains
    no data and requires formatting before it can be used.

    Args:
        zone: The zone in which the local SSD drive will be attached.

    Returns:
        AttachedDisk object configured as a local SSD disk.
    """
    disk = compute_v1.AttachedDisk()
    disk.type_ = compute_v1.AttachedDisk.Type.SCRATCH.name
    initialize_params = compute_v1.AttachedDiskInitializeParams()
    initialize_params.disk_type = f"zones/{zone}/diskTypes/local-ssd"
    disk.initialize_params = initialize_params
    disk.auto_delete = True
    return disk


def wait_for_extended_operation(
    operation: ExtendedOperation, verbose_name: str = "operation", timeout: int = 300
) -> Any:
    """
    Waits for the extended (long-running) operation to complete.

    If the operation is successful, it will return its result.
    If the operation ends with an error, an exception will be raised.
    If there were any warnings during the execution of the operation
    they will be printed to sys.stderr.

    Args:
        operation: a long-running operation you want to wait on.
        verbose_name: (optional) a more verbose name of the operation,
            used only during error and warning reporting.
        timeout: how long (in seconds) to wait for operation to finish.
            If None, wait indefinitely.

    Returns:
        Whatever the operation.result() returns.

    Raises:
        This method will raise the exception received from `operation.exception()`
        or RuntimeError if there is no exception set, but there is an `error_code`
        set for the `operation`.

        In case of an operation taking longer than `timeout` seconds to complete,
        a `concurrent.futures.TimeoutError` will be raised.
    """
    result = operation.result(timeout=timeout)

    if operation.error_code:
        print(
            f"Error during {verbose_name}: [Code: {operation.error_code}]: {operation.error_message}",
            file=sys.stderr,
            flush=True,
        )
        print(f"Operation ID: {operation.name}", file=sys.stderr, flush=True)
        raise operation.exception() or RuntimeError(operation.error_message)

    if operation.warnings:
        print(f"Warnings during {verbose_name}:\n", file=sys.stderr, flush=True)
        for warning in operation.warnings:
            print(f" - {warning.code}: {warning.message}", file=sys.stderr, flush=True)

    return result


def create_instance(
    project_id: str,
    zone: str,
    instance_name: str,
    disks: list[compute_v1.AttachedDisk],
    machine_type: str = "n1-standard-1",
    network_link: str = "global/networks/default",
    subnetwork_link: str = None,
    internal_ip: str = None,
    external_access: bool = False,
    external_ipv4: str = None,
    accelerators: list[compute_v1.AcceleratorConfig] = None,
    preemptible: bool = False,
    spot: bool = False,
    instance_termination_action: str = "STOP",
    custom_hostname: str = None,
    delete_protection: bool = False,
) -> compute_v1.Instance:
    """
    Send an instance creation request to the Compute Engine API and wait for it to complete.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.
        disks: a list of compute_v1.AttachedDisk objects describing the disks
            you want to attach to your new instance.
        machine_type: machine type of the VM being created. This value uses the
            following format: "zones/{zone}/machineTypes/{type_name}".
            For example: "zones/europe-west3-c/machineTypes/f1-micro"
        network_link: name of the network you want the new instance to use.
            For example: "global/networks/default" represents the network
            named "default", which is created automatically for each project.
        subnetwork_link: name of the subnetwork you want the new instance to use.
            This value uses the following format:
            "regions/{region}/subnetworks/{subnetwork_name}"
        internal_ip: internal IP address you want to assign to the new instance.
            By default, a free address from the pool of available internal IP addresses of
            used subnet will be used.
        external_access: boolean flag indicating if the instance should have an external IPv4
            address assigned.
        external_ipv4: external IPv4 address to be assigned to this instance. If you specify
            an external IP address, it must live in the same region as the zone of the instance.
            This setting requires `external_access` to be set to True to work.
        accelerators: a list of AcceleratorConfig objects describing the accelerators that will
            be attached to the new instance.
        preemptible: boolean value indicating if the new instance should be preemptible
            or not. Preemptible VMs have been deprecated and you should now use Spot VMs.
        spot: boolean value indicating if the new instance should be a Spot VM or not.
        instance_termination_action: What action should be taken once a Spot VM is terminated.
            Possible values: "STOP", "DELETE"
        custom_hostname: Custom hostname of the new VM instance.
            Custom hostnames must conform to RFC 1035 requirements for valid hostnames.
        delete_protection: boolean value indicating if the new virtual machine should be
            protected against deletion or not.
    Returns:
        Instance object.
    """
    instance_client = compute_v1.InstancesClient()

    # Use the network interface provided in the network_link argument.
    network_interface = compute_v1.NetworkInterface()
    network_interface.network = network_link
    if subnetwork_link:
        network_interface.subnetwork = subnetwork_link

    if internal_ip:
        network_interface.network_i_p = internal_ip

    if external_access:
        access = compute_v1.AccessConfig()
        access.type_ = compute_v1.AccessConfig.Type.ONE_TO_ONE_NAT.name
        access.name = "External NAT"
        access.network_tier = access.NetworkTier.PREMIUM.name
        if external_ipv4:
            access.nat_i_p = external_ipv4
        network_interface.access_configs = [access]

    # Collect information into the Instance object.
    instance = compute_v1.Instance()
    instance.network_interfaces = [network_interface]
    instance.name = instance_name
    instance.disks = disks
    if re.match(r"^zones/[a-z\d\-]+/machineTypes/[a-z\d\-]+$", machine_type):
        instance.machine_type = machine_type
    else:
        instance.machine_type = f"zones/{zone}/machineTypes/{machine_type}"

    instance.scheduling = compute_v1.Scheduling()
    if accelerators:
        instance.guest_accelerators = accelerators
        instance.scheduling.on_host_maintenance = (
            compute_v1.Scheduling.OnHostMaintenance.TERMINATE.name
        )

    if preemptible:
        # Set the preemptible setting
        warnings.warn(
            "Preemptible VMs are being replaced by Spot VMs.", DeprecationWarning
        )
        instance.scheduling = compute_v1.Scheduling()
        instance.scheduling.preemptible = True

    if spot:
        # Set the Spot VM setting
        instance.scheduling.provisioning_model = (
            compute_v1.Scheduling.ProvisioningModel.SPOT.name
        )
        instance.scheduling.instance_termination_action = instance_termination_action

    if custom_hostname is not None:
        # Set the custom hostname for the instance
        instance.hostname = custom_hostname

    if delete_protection:
        # Set the delete protection bit
        instance.deletion_protection = True

    # Prepare the request to insert an instance.
    request = compute_v1.InsertInstanceRequest()
    request.zone = zone
    request.project = project_id
    request.instance_resource = instance

    # Wait for the create operation to complete.
    print(f"Creating the {instance_name} instance in {zone}...")

    operation = instance_client.insert(request=request)

    wait_for_extended_operation(operation, "instance creation")

    print(f"Instance {instance_name} created.")
    return instance_client.get(project=project_id, zone=zone, instance=instance_name)


def create_with_ssd(
    project_id: str, zone: str, instance_name: str
) -> compute_v1.Instance:
    """
    Create a new VM instance with Debian 10 operating system and SSD local disk.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.

    Returns:
        Instance object.
    """
    newest_debian = get_image_from_family(project="debian-cloud", family="debian-12")
    disk_type = f"zones/{zone}/diskTypes/pd-standard"
    disks = [
        disk_from_image(disk_type, 10, True, newest_debian.self_link, True),
        local_ssd_disk(zone),
    ]
    instance = create_instance(project_id, zone, instance_name, disks)
    return instance

REST

Utilizza la instances.insert method creare una VM da una famiglia di immagini o da una versione specifica dell'immagine del sistema operativo.

  • Per le serie di macchine ultra Z3, A3 e A2, per creare una VM dischi SSD locali collegati, crea una VM che utilizzi una delle tipi di macchina per quella serie.
  • Per la serie di macchine C3 o C3D, creare una VM con SSD locale collegato specifica un tipo di istanza che includa i dischi SSD locali (-lssd).

    Ecco un payload di esempio per la creazione di una VM C3 con Ubuntu disco di avvio e due dischi SSD locali:

    {
     "machineType":"zones/us-central1-c/machineTypes/c3-standard-8-lssd",
     "name":"c3-with-local-ssd",
     "disks":[
        {
           "type":"PERSISTENT",
           "initializeParams":{
              "sourceImage":"projects/ubuntu-os-cloud/global/images/family/ubuntu-2204-lts"
           },
           "boot":true
        }
     ],
     "networkInterfaces":[
        {
           "network":"global/networks/default"
    }
     ]
    }
    
  • Per M3 e le serie di macchine di prima e seconda generazione, per creare una VM con dischi SSD locali collegati, puoi aggiungere dispositivi SSD locali Creazione di una VM mediante la proprietà initializeParams. Devi inoltre forniscono le seguenti proprietà:

    • diskType: imposta su SSD locale
    • autoDelete: impostato su true
    • type: impostata su SCRATCH

    Le seguenti proprietà non possono essere utilizzate con i dispositivi SSD locali:

    • diskName
    • sourceImage proprietà
    • diskSizeGb

    Ecco un payload di richiesta di esempio che crea una VM M3 con un disco di avvio e quattro dischi SSD locali:

    {
     "machineType":"zones/us-central1-f/machineTypes/m3-ultramem-64",
     "name":"local-ssd-instance",
     "disks":[
        {
         "type":"PERSISTENT",
         "initializeParams":{
            "sourceImage":"projects/ubuntu-os-cloud/global/images/family/ubuntu-2204-lts"
         },
         "boot":true
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
     ],
     "networkInterfaces":[
        {
           "network":"global/networks/default"
        }
     ]
    }
    

Dopo aver creato un disco SSD locale, devi formattare e montare ogni dispositivo prima di possono utilizzarlo.

Per ulteriori informazioni sulla creazione di un'istanza mediante REST, consulta API Compute Engine.

Formattare e montare un dispositivo SSD locale

Puoi formattare e montare ogni disco SSD locale singolarmente oppure combinare più dischi SSD locali in un unico volume logico.

Formatta e monta singole partizioni SSD locali

Il modo più semplice per connettere gli SSD locali alla tua istanza è formattare e montare ogni dispositivo con una singola partizione. In alternativa, puoi combinare più partizioni in un unico volume logico.

Istanze Linux

Formatta e monta il nuovo SSD locale sulla tua istanza Linux. Puoi utilizzare qualsiasi il formato e la configurazione necessari. Per questo esempio, crea una singola partizione ext4.

  1. Vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic sul pulsante SSH accanto all'istanza a cui è collegato il nuovo SSD locale. Il browser apre una connessione terminale all'istanza.

  3. Nel terminale, usa il comando find per identificare l'SSD locale che vuoi montare.

    $ find /dev/ | grep google-local-nvme-ssd
    

    Le unità SSD locali in modalità SCSI hanno nomi standard come google-local-ssd-0. Le unità SSD locali in modalità NVMe hanno nomi simili a google-local-nvme-ssd-0, come mostrato nell'output seguente:

     $ find /dev/ | grep google-local-nvme-ssd
    
     /dev/disk/by-id/google-local-nvme-ssd-0
    
  4. Formatta l'SSD locale con un file system ext4. Questo comando elimina tutti i dati esistenti dall'SSD locale.

    $ sudo mkfs.ext4 -F /dev/disk/by-id/[SSD_NAME]
    

    Sostituisci [SSD_NAME] con l'ID dell'SSD locale che vuoi formato. Ad esempio, specifica google-local-nvme-ssd-0 per formattare il file il primo SSD locale NVMe sull'istanza.

  5. Usa il comando mkdir per creare una directory in cui montare dispositivo.

    $ sudo mkdir -p /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con il percorso della directory in cui vuoi montare il disco SSD locale.

  6. Monta l'SSD locale sulla VM.

    $ sudo mount /dev/[SSD_NAME] /mnt/disks/[MNT_DIR]
    

    Sostituisci quanto segue:

    • [SSD_NAME]: l'ID dell'SSD locale che vuoi montare.
    • [MNT_DIR]: la directory in cui vuoi montare l'SSD locale.
  7. Configura l'accesso in lettura e scrittura al dispositivo. Per questo esempio, concedi accesso in scrittura al dispositivo per tutti gli utenti.

    $ sudo chmod a+w /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato SSD locale.

Facoltativamente, puoi aggiungere l'SSD locale al file /etc/fstab in modo che il dispositivo si rimonta automaticamente al riavvio dell'istanza. Questo non conserva i dati sul tuo SSD locale se l'istanza si arresta. Consulta Persistenza dei dati degli SSD locali per informazioni dettagliate.

Quando specifichi il file della voce /etc/fstab, assicurati di includere i campi nofail in modo che l'istanza possa continuare ad avviarsi anche se L'SSD locale non è presente. Ad esempio, se crei uno snapshot della fase di avvio disco e crea una nuova istanza senza dischi SSD locali collegati, l'istanza può continuare il processo di avvio senza metterla in pausa a tempo indeterminato.

  1. Crea la voce /etc/fstab. Usa il comando blkid per trovare UUID per il file system sul dispositivo e modifica il file /etc/fstab per includere l'UUID nelle opzioni di montaggio. Puoi completare questo passaggio con un solo comando.

    Ad esempio, per un SSD locale in modalità NVMe, utilizza il seguente comando:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/disk/by-id/google-local-nvme-ssd-0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Per un SSD locale in modalità non NVMe, ad esempio SCSI, utilizza il seguente comando:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/disk/by-id/google-local-ssd-0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'SSD locale.

  2. Usa il comando cat per verificare che le voci /etc/fstab siano risposta corretta:

    $ cat /etc/fstab
    

Se crei uno snapshot dal disco di avvio di questa istanza e lo utilizzi per creare un'istanza separata che non abbia SSD locali, modifica /etc/fstab e rimuovi la voce per questo SSD locale. Uniforme con l'opzione nofail attiva, mantieni sincronizzato il file /etc/fstab con le partizioni collegate all'istanza e rimuovile prima di creare lo snapshot del disco di avvio.

Istanze Windows

Utilizza le finestre Strumento Gestione del disco per formattare e montare un SSD locale su un'istanza Windows.

  1. Connettiti all'istanza mediante RDP. Per questo esempio, vai alla sezione Pagina Istanze VM e fai clic sul pulsante RDP accanto all'istanza che ha gli SSD locali. in allegato. Dopo aver inserito il nome utente e la password, viene visualizzata una finestra con l'interfaccia desktop del tuo server.

  2. Fai clic con il pulsante destro del mouse sul pulsante Start di Windows e seleziona Gestione disco.

    Seleziona lo strumento Gestione disco di Windows dal menu di scelta rapida nel pulsante Start di Windows.

  3. Se non hai mai inizializzato l'SSD locale, lo strumento richiede devi selezionare uno schema di partizionamento per le nuove partizioni. Seleziona GPT e fai clic su OK.

    Selezione di uno schema di partizione nella finestra di inizializzazione del disco.

  4. Dopo l'inizializzazione dell'SSD locale, fai clic con il tasto destro del mouse sul disco non allocato. spazio e seleziona New Simple Volume (Nuovo volume semplice).

    Creazione di un nuovo volume semplice dal disco collegato.

  5. Segui le istruzioni della procedura guidata nuovo volume semplice per configurare il nuovo volume. Puoi usare qualsiasi formato di partizione desiderato, ma per in questo esempio seleziona NTFS. Consulta anche l'articolo Eseguire un formato rapido. per velocizzare il processo di formattazione.

    Selezione del tipo di formato di partizione nella procedura guidata Nuovo volume semplice.

  6. Dopo aver completato la procedura guidata e aver completato la formattazione del volume, controlla il nuovo SSD locale per assicurarti che sia nello stato Healthy.

    Visualizzando l&#39;elenco dei dischi riconosciuti da Windows, verifica che lo stato dell&#39;SSD locale sia Integro.

Ecco fatto. Ora puoi scrivere file sull'SSD locale.

Formatta e monta più partizioni SSD locali in un unico volume logico

A differenza degli SSD permanenti, gli SSD locali hanno una capacità fissa di 375 GB per ogni dispositivo che colleghi all'istanza. Se vuoi combinare più partizioni SSD locali in un unico volume logico, devi definire personalmente la gestione del volume su queste partizioni.

Istanze Linux

Utilizza mdadm per creare un array RAID 0. Questo esempio formatta l'array con un singolo file system ext4, ma puoi applicare qualsiasi file system che preferisci.

  1. Vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic sul pulsante SSH accanto all'istanza a cui è collegato il nuovo SSD locale. Il browser apre una connessione terminale all'istanza.

  3. Nel terminale, installa lo strumento mdadm. Il processo di installazione di mdadm include un prompt utente che interrompe gli script, quindi esegui questo manualmente.

    Debian e Ubuntu:

    $ sudo apt update && sudo apt install mdadm --no-install-recommends
    

    CentOS e RHEL:

    $ sudo yum install mdadm -y
    

    SLES e openSUSE:

    $ sudo zypper install -y mdadm
    

  4. Utilizza il comando find per identificare tutte le unità SSD locali che ti interessano. da montare insieme.

    Per questo esempio, l'istanza ha otto SSD locali in modalità NVMe:

    $  find /dev/ | grep google-local-nvme-ssd
    
     /dev/disk/by-id/google-local-nvme-ssd-7
     /dev/disk/by-id/google-local-nvme-ssd-6
     /dev/disk/by-id/google-local-nvme-ssd-5
     /dev/disk/by-id/google-local-nvme-ssd-4
     /dev/disk/by-id/google-local-nvme-ssd-3
     /dev/disk/by-id/google-local-nvme-ssd-2
     /dev/disk/by-id/google-local-nvme-ssd-1
     /dev/disk/by-id/google-local-nvme-ssd-0
    

    find non garantisce che verrà effettuato un ordine. Va bene se i dispositivi sono elencate in un ordine diverso purché il numero di righe di output corrisponda al numero previsto di partizioni SSD. Le unità SSD locali in modalità SCSI hanno nomi standard come google-local-ssd. Le unità SSD locali in modalità NVMe hanno nomi come google-local-nvme-ssd.

  5. Utilizza mdadm per combinare più dispositivi SSD locali in un unico array denominato /dev/md0. Questo esempio unisce otto dispositivi SSD locali in NVMe . Per i dispositivi SSD locali in modalità SCSI, specifica i nomi ottenuto dal comando find:

    $ sudo mdadm --create /dev/md0 --level=0 --raid-devices=8 \
     /dev/disk/by-id/google-local-nvme-ssd-0 \
     /dev/disk/by-id/google-local-nvme-ssd-1 \
     /dev/disk/by-id/google-local-nvme-ssd-2 \
     /dev/disk/by-id/google-local-nvme-ssd-3 \
     /dev/disk/by-id/google-local-nvme-ssd-4 \
     /dev/disk/by-id/google-local-nvme-ssd-5 \
     /dev/disk/by-id/google-local-nvme-ssd-6 \
     /dev/disk/by-id/google-local-nvme-ssd-7
    
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    
    

    Puoi confermare i dettagli dell'array con mdadm --detail. Aggiunta in corso... Il flag --prefer=by-id elencherà i dispositivi utilizzando i percorsi /dev/disk/by-id.

     sudo mdadm --detail --prefer=by-id /dev/md0
     

    L'output dovrebbe essere simile al seguente per ogni dispositivo nell'array.

     ...
     Number   Major   Minor   RaidDevice State
        0      259      0         0      active sync   /dev/disk/by-id/google-local-nvme-ssd-0
     ...
     

  6. Formatta l'array /dev/md0 completo con un file system ext4.

    $ sudo mkfs.ext4 -F /dev/md0
    
  7. Crea una directory in cui puoi montare /dev/md0. Per questo esempio, crea la directory /mnt/disks/ssd-array:

    $ sudo mkdir -p /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui vuoi montare il Array SSD locale.

  8. Monta l'array /dev/md0 nella directory /mnt/disks/ssd-array:

    $ sudo mount /dev/md0 /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui vuoi montare il Array SSD locale.

  9. Configura l'accesso in lettura e scrittura al dispositivo. Per questo esempio, concedi accesso in scrittura al dispositivo per tutti gli utenti.

    $ sudo chmod a+w /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato il server locale un array SSD.

Facoltativamente, puoi aggiungere l'SSD locale al file /etc/fstab in modo che il dispositivo si rimonta automaticamente al riavvio dell'istanza. Questo non conserva i dati sul tuo SSD locale se l'istanza si arresta. Consulta Persistenza dei dati degli SSD locali per maggiori dettagli.

Quando specifichi il file della voce /etc/fstab, assicurati di includere i campi nofail in modo che l'istanza possa continuare ad avviarsi anche se L'SSD locale non è presente. Ad esempio, se crei uno snapshot della fase di avvio disco e crea una nuova istanza senza SSD locali collegati, può continuare il processo di avvio senza essere messo in pausa a tempo indeterminato.

  1. Crea la voce /etc/fstab. Usa il comando blkid per trovare UUID per il file system sul dispositivo e modifica il file /etc/fstab per includere l'UUID nelle opzioni di montaggio. Specifica il valore nofail per consentire l'avvio del sistema anche se l'SSD locale è non disponibile.Puoi completare questo passaggio con un solo comando. Per esempio:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/md0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato il server locale un array SSD.

  2. Se utilizzi un nome di dispositivo come /dev/md0 nel file /etc/fstab anziché l'UUID, devi modificare il file /etc/mdadm/mdadm.conf per assicurarsi che l'array venga riassemblato automaticamente all'avvio. Per farlo, completa questi due passaggi:

    1. Assicurati che l'array di dischi venga scansionato e riassemblato automaticamente al momento dell'avvio.
      $ sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
      
    2. Aggiorna initramfs in modo che l'array sia disponibile durante il processo di fase iniziale di avvio.
      $ sudo update-initramfs -u
      
  3. Usa il comando cat per verificare che le voci /etc/fstab siano risposta corretta:

    $ cat /etc/fstab
    

Se crei uno snapshot dal disco di avvio di questa istanza e lo utilizzi per creare un'istanza separata che non abbia SSD locali, modifica /etc/fstab e rimuovi la voce per questo array SSD locale. Uniforme con l'opzione nofail attiva, mantieni sincronizzato il file /etc/fstab con le partizioni collegate all'istanza e rimuovile prima di creare lo snapshot del disco di avvio.

Istanze Windows

Utilizza le finestre Strumento Gestione del disco per formattare e montare un array di SSD locali su un'istanza Windows.

  1. Connettiti all'istanza mediante RDP. Per questo esempio, vai alla sezione Pagina Istanze VM e fai clic sul pulsante RDP accanto all'istanza che ha gli SSD locali. in allegato. Dopo aver inserito il nome utente e la password, viene visualizzata una finestra con l'interfaccia desktop del tuo server.

  2. Fai clic con il pulsante destro del mouse sul pulsante Start di Windows e seleziona Gestione disco.

    Seleziona lo strumento Gestione disco di Windows dal menu di scelta rapida nel pulsante Start di Windows.

  3. Se non hai mai inizializzato gli SSD locali, lo strumento richiede devi selezionare uno schema di partizionamento per le nuove partizioni. Seleziona GPT e fai clic su OK.

    Selezione di uno schema di partizione nella finestra di inizializzazione del disco.

  4. Dopo l'inizializzazione dell'SSD locale, fai clic con il tasto destro del mouse sul disco non allocato. spazio e seleziona Nuovo volume Striped.

    Creazione di un nuovo volume sottoposto a striping dal disco collegato.

  5. Seleziona le partizioni SSD locali che vuoi includere nella un array di dati. Per questo esempio, seleziona tutte le partizioni per combinarle in un singolo dispositivo SSD locale.

    Selezione delle partizioni SSD locali da includere nell&#39;array.

  6. Segui le istruzioni nella procedura guidata del nuovo volume Striped per configurare il nuovo volume. Puoi usare qualsiasi formato di partizione desiderato, ma per in questo esempio seleziona NTFS. Consulta anche l'articolo Eseguire un formato rapido. per velocizzare il processo di formattazione.

    Selezione del tipo di formato di partizione nella procedura guidata Nuovo volume Striped.

  7. Dopo aver completato la procedura guidata e aver completato la formattazione del volume, controlla il nuovo SSD locale per assicurarti che sia nello stato Healthy.

    Visualizzando l&#39;elenco dei dischi riconosciuti da Windows, verifica che lo stato dell&#39;SSD locale sia Integro.

Ora puoi scrivere file sull'SSD locale.

Passaggi successivi