Aggiungi un'unità SSD locale alla VM


Le unità SSD locali sono progettate per casi d'uso in cui è necessario spazio di archiviazione temporaneo, come le cache o uno spazio di elaborazione temporaneo. Le unità SSD locali si trovano sulla macchina fisica su cui è in esecuzione la VM, pertanto è possibile crearle solo in fase di creazione della VM. Non è possibile usare le unità SSD come dispositivi di avvio.

Nella serie di macchine di terza generazione, al momento della creazione di una VM viene aggiunta una quantità predefinita di dischi SSD locali. Il solo modo per aggiungere spazio di archiviazione SSD locale a queste VM è il seguente:

  • Per le serie C3 e C3D, lo spazio di archiviazione SSD locale è disponibile solo su alcuni tipi di macchine, ad esempio c3-standard-88-lssd.
  • Per le serie Z3, A3 e A2 Ultra, tutti i tipi di macchine sono dotate di spazio di archiviazione SSD locale.

Per la serie M3 e i tipi di macchine di prima e seconda generazione, è necessario specificare i dischi SSD locali in fase di creazione della VM.

Dopo aver creato un disco SSD locale, per poterlo utilizzare è necessario prima formattare e montare il dispositivo.

Per informazioni sulla quantità di spazio di archiviazione su SSD locale disponibile con i vari tipi di macchine e sul numero di dischi SSD locali collegabili a una VM, vedi Scegli un numero valido di dischi SSD locali.

Prima di iniziare

Crea una VM con un'unità SSD locale

Puoi creare una VM con spazio di archiviazione su disco SSD locale utilizzando Google Cloud console, gcloud CLI o l'API Compute Engine.

Console

  1. Vai alla pagina Crea un'istanza.

    Vai a Crea un'istanza

  2. Specifica il nome, la regione e la zona della VM. Puoi anche aggiungere tag o etichette.

  3. Nella sezione Configurazione macchina, scegli la famiglia di macchine che contiene il tipo di macchina di destinazione.

  4. Seleziona una serie dall'elenco Serie, quindi scegli il tipo di macchina.

    • Per le serie di macchine di terza generazione C3 e C3D, scegli un tipo di macchina il cui nome termina con -lssd.
    • Per le serie Z3, A3 e A2 Ultra, ogni tipo di macchina include già spazio di archiviazione SSD locale.
    • Per le serie di macchine M3 o di prima e seconda generazione, dopo aver selezionato il tipo di macchina, procedi nel seguente modo:
      1. Espandi la sezione Opzioni avanzate.
      2. Espandi Dischi, fai clic su Aggiungi SSD locale e segui questi passaggi:
        1. Nella pagina Configura SSD locale, scegli il tipo di interfaccia del disco.
        2. Seleziona il numero di dischi dall'elenco Capacità disco.
        3. Fai clic su Salva.
  5. Continua con il processo di creazione della VM.

  6. Dopo aver creato la VM con i dischi SSD locali, devi formattare e montare ogni dispositivo per poterli utilizzare.

gcloud

  • Per le serie di macchine ultra Z3, A3 e A2, per creare una VM con dischi SSD locali collegati, crea una VM che utilizzi uno dei tipi di macchine disponibili per quella serie, seguendo le istruzioni per creare un'istanza.

  • Per la serie di macchine C3 o C3D, per creare una VM con dischi SSD locali collegati, segui le istruzioni per creare un'istanza, ma specifica un tipo di istanza che includa i dischi SSD locali (-lssd).

    Ad esempio, puoi creare una VM C3 con due partizioni SSD locali che utilizzino l'interfaccia del disco NVMe come segue:

    gcloud compute instances create example-c3-instance \
       --zone ZONE \
       --machine-type c3-standard-8-lssd \
       --image-project IMAGE_PROJECT \
       --image-family IMAGE_FAMILY
    
  • Per le serie di macchine M3 e di prima e seconda generazione, per creare una VM con dischi SSD locali collegati, segui le istruzioni per creare un'istanza, ma utilizza il flag --local-ssd per creare e collegare un disco SSD locale. Per creare più dischi SSD locali, aggiungi altri flag --local-ssd. Facoltativamente, puoi anche impostare i valori dell'interfaccia e il nome del dispositivo per ogni flag --local-ssd.

    Ad esempio, puoi creare una VM M3 con quattro dischi SSD locali e specificare il tipo di interfaccia del disco come segue:

    gcloud compute instances create VM_NAME \
       --machine-type m3-ultramem-64 \
       --zone ZONE \
       --local-ssd interface=INTERFACE_TYPE,device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE,device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE,device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE \
       --image-project IMAGE_PROJECT \
       --image-family IMAGE_FAMILY
    

Sostituisci i seguenti valori:

  • VM_NAME: il nome della nuova VM
  • ZONE: la zona in cui creare la VM. Questo flag è facoltativo se hai configurato la proprietà compute/zone di gcloud CLI o la variabile di ambiente CLOUDSDK_COMPUTE_ZONE.
  • INTERFACE_TYPE: il tipo di interfaccia del disco che vuoi utilizzare per il dispositivo SSD locale. Specifica nvme se crei una VM M3 o se l'immagine disco di avvio contiene driver NVMe ottimizzati. Specifica scsi per le altre immagini.
  • (Facoltativo) DEVICE-NAME: un nome del disco da utilizzare nel link simbolico (symlink) del sistema operativo guest.
  • IMAGE_FAMILY: una delle famiglie di immagini disponibili che vuoi installare sul disco di avvio.
  • IMAGE_PROJECT: il progetto di immagini a cui appartiene la famiglia di immagini.

Se necessario, puoi collegare le unità SSD locali a una VM di prima o seconda generazione utilizzando una combinazione di nvme e scsi per partizioni diverse. Le prestazioni del dispositivo nvme dipendono dall'immagine del disco di avvio dell'istanza. Le VM di terza generazione supportano solo l'interfaccia del disco NVMe.

Dopo aver creato una VM con disco SSD locale, per poterla utilizzare devi prima formattare e montare ogni dispositivo.

Terraform

Per creare una VM con dischi SSD locali collegati, puoi utilizzare la risorsa google_compute_instance.


# Create a VM with a local SSD for temporary storage use cases

resource "google_compute_instance" "default" {
  name         = "my-vm-instance-with-scratch"
  machine_type = "n2-standard-8"
  zone         = "us-central1-a"

  boot_disk {
    initialize_params {
      image = "debian-cloud/debian-11"
    }
  }

  # Local SSD interface type; NVME for image with optimized NVMe drivers or SCSI
  # Local SSD are 375 GiB in size
  scratch_disk {
    interface = "SCSI"
  }

  network_interface {
    network = "default"
    access_config {}
  }
}

Per scoprire come applicare o rimuovere una configurazione Terraform, consulta Comandi Terraform di base.

Per generare il codice Terraform, puoi utilizzare il componente Codice equivalente nella console Google Cloud .
  1. Nella console Google Cloud , vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic su Crea istanza.
  3. Specifica i parametri che ti interessano.
  4. Nella parte superiore o inferiore della pagina, fai clic su Codice equivalente e quindi sulla scheda Terraform per visualizzare il codice Terraform.

Go

Go

Prima di provare questo esempio, segui le istruzioni di configurazione di Go nella sezione Utilizzo delle librerie client della Guida rapida di Compute Engine. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Go di Compute Engine.

Per effettuare l'autenticazione in Compute Engine, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.

import (
	"context"
	"fmt"
	"io"

	compute "cloud.google.com/go/compute/apiv1"
	computepb "cloud.google.com/go/compute/apiv1/computepb"
	"google.golang.org/protobuf/proto"
)

// createWithLocalSSD creates a new VM instance with Debian 10 operating system and a local SSD attached.
func createWithLocalSSD(w io.Writer, projectID, zone, instanceName string) error {
	// projectID := "your_project_id"
	// zone := "europe-central2-b"
	// instanceName := "your_instance_name"

	ctx := context.Background()
	instancesClient, err := compute.NewInstancesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewInstancesRESTClient: %w", err)
	}
	defer instancesClient.Close()

	imagesClient, err := compute.NewImagesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewImagesRESTClient: %w", err)
	}
	defer imagesClient.Close()

	// List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details.
	newestDebianReq := &computepb.GetFromFamilyImageRequest{
		Project: "debian-cloud",
		Family:  "debian-12",
	}
	newestDebian, err := imagesClient.GetFromFamily(ctx, newestDebianReq)
	if err != nil {
		return fmt.Errorf("unable to get image from family: %w", err)
	}

	req := &computepb.InsertInstanceRequest{
		Project: projectID,
		Zone:    zone,
		InstanceResource: &computepb.Instance{
			Name: proto.String(instanceName),
			Disks: []*computepb.AttachedDisk{
				{
					InitializeParams: &computepb.AttachedDiskInitializeParams{
						DiskSizeGb:  proto.Int64(10),
						SourceImage: newestDebian.SelfLink,
						DiskType:    proto.String(fmt.Sprintf("zones/%s/diskTypes/pd-standard", zone)),
					},
					AutoDelete: proto.Bool(true),
					Boot:       proto.Bool(true),
					Type:       proto.String(computepb.AttachedDisk_PERSISTENT.String()),
				},
				{
					InitializeParams: &computepb.AttachedDiskInitializeParams{
						DiskType: proto.String(fmt.Sprintf("zones/%s/diskTypes/local-ssd", zone)),
					},
					AutoDelete: proto.Bool(true),
					Type:       proto.String(computepb.AttachedDisk_SCRATCH.String()),
				},
			},
			MachineType: proto.String(fmt.Sprintf("zones/%s/machineTypes/n1-standard-1", zone)),
			NetworkInterfaces: []*computepb.NetworkInterface{
				{
					Name: proto.String("global/networks/default"),
				},
			},
		},
	}

	op, err := instancesClient.Insert(ctx, req)
	if err != nil {
		return fmt.Errorf("unable to create instance: %w", err)
	}

	if err = op.Wait(ctx); err != nil {
		return fmt.Errorf("unable to wait for the operation: %w", err)
	}

	fmt.Fprintf(w, "Instance created\n")

	return nil
}

Java

Java

Prima di provare questo esempio, segui le istruzioni di configurazione di Java nella sezione Utilizzo delle librerie client della Guida rapida di Compute Engine. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Java di Compute Engine.

Per effettuare l'autenticazione in Compute Engine, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.


import com.google.cloud.compute.v1.AttachedDisk;
import com.google.cloud.compute.v1.AttachedDiskInitializeParams;
import com.google.cloud.compute.v1.Image;
import com.google.cloud.compute.v1.ImagesClient;
import com.google.cloud.compute.v1.Instance;
import com.google.cloud.compute.v1.InstancesClient;
import com.google.cloud.compute.v1.NetworkInterface;
import com.google.cloud.compute.v1.Operation;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreateWithLocalSsd {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // projectId: project ID or project number of the Cloud project you want to use.
    String projectId = "your-project-id";
    // zone: name of the zone to create the instance in. For example: "us-west3-b"
    String zone = "zone-name";
    // instanceName: name of the new virtual machine (VM) instance.
    String instanceName = "instance-name";

    createWithLocalSsd(projectId, zone, instanceName);
  }

  // Create a new VM instance with Debian 11 operating system and SSD local disk.
  public static void createWithLocalSsd(String projectId, String zone, String instanceName)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {

    int diskSizeGb = 10;
    boolean boot = true;
    boolean autoDelete = true;
    String diskType = String.format("zones/%s/diskTypes/pd-standard", zone);
    // Get the latest debian image.
    Image newestDebian = getImageFromFamily("debian-cloud", "debian-11");
    List<AttachedDisk> disks = new ArrayList<>();

    // Create the disks to be included in the instance.
    disks.add(
        createDiskFromImage(diskType, diskSizeGb, boot, newestDebian.getSelfLink(), autoDelete));
    disks.add(createLocalSsdDisk(zone));

    // Create the instance.
    Instance instance = createInstance(projectId, zone, instanceName, disks);

    if (instance != null) {
      System.out.printf("Instance created with local SSD: %s", instance.getName());
    }

  }

  // Retrieve the newest image that is part of a given family in a project.
  // Args:
  //    projectId: project ID or project number of the Cloud project you want to get image from.
  //    family: name of the image family you want to get image from.
  private static Image getImageFromFamily(String projectId, String family) throws IOException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `imagesClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (ImagesClient imagesClient = ImagesClient.create()) {
      // List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details
      return imagesClient.getFromFamily(projectId, family);
    }
  }

  // Create an AttachedDisk object to be used in VM instance creation. Uses an image as the
  // source for the new disk.
  //
  // Args:
  //    diskType: the type of disk you want to create. This value uses the following format:
  //        "zones/{zone}/diskTypes/(pd-standard|pd-ssd|pd-balanced|pd-extreme)".
  //        For example: "zones/us-west3-b/diskTypes/pd-ssd"
  //
  //    diskSizeGb: size of the new disk in gigabytes.
  //
  //    boot: boolean flag indicating whether this disk should be used as a
  //    boot disk of an instance.
  //
  //    sourceImage: source image to use when creating this disk.
  //    You must have read access to this disk. This can be one of the publicly available images
  //    or an image from one of your projects.
  //    This value uses the following format: "projects/{project_name}/global/images/{image_name}"
  //
  //    autoDelete: boolean flag indicating whether this disk should be deleted
  //    with the VM that uses it.
  private static AttachedDisk createDiskFromImage(String diskType, int diskSizeGb, boolean boot,
      String sourceImage, boolean autoDelete) {

    AttachedDiskInitializeParams attachedDiskInitializeParams =
        AttachedDiskInitializeParams.newBuilder()
            .setSourceImage(sourceImage)
            .setDiskSizeGb(diskSizeGb)
            .setDiskType(diskType)
            .build();

    AttachedDisk bootDisk = AttachedDisk.newBuilder()
        .setInitializeParams(attachedDiskInitializeParams)
        // Remember to set auto_delete to True if you want the disk to be deleted when you delete
        // your VM instance.
        .setAutoDelete(autoDelete)
        .setBoot(boot)
        .build();

    return bootDisk;
  }

  // Create an AttachedDisk object to be used in VM instance creation. The created disk contains
  // no data and requires formatting before it can be used.
  // Args:
  //    zone: The zone in which the local SSD drive will be attached.
  private static AttachedDisk createLocalSsdDisk(String zone) {

    AttachedDiskInitializeParams attachedDiskInitializeParams =
        AttachedDiskInitializeParams.newBuilder()
            .setDiskType(String.format("zones/%s/diskTypes/local-ssd", zone))
            .build();

    AttachedDisk disk = AttachedDisk.newBuilder()
        .setType(AttachedDisk.Type.SCRATCH.name())
        .setInitializeParams(attachedDiskInitializeParams)
        .setAutoDelete(true)
        .build();

    return disk;
  }

  // Send an instance creation request to the Compute Engine API and wait for it to complete.
  // Args:
  //    projectId: project ID or project number of the Cloud project you want to use.
  //    zone: name of the zone to create the instance in. For example: "us-west3-b"
  //    instanceName: name of the new virtual machine (VM) instance.
  //    disks: a list of compute.v1.AttachedDisk objects describing the disks
  //           you want to attach to your new instance.
  private static Instance createInstance(String projectId, String zone, String instanceName,
      List<AttachedDisk> disks)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `instancesClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (InstancesClient instancesClient = InstancesClient.create()) {

      // machineType: machine type of the VM being created. This value uses the
      // following format: "zones/{zone}/machineTypes/{type_name}".
      // For example: "zones/europe-west3-c/machineTypes/f1-micro"
      String typeName = "n1-standard-1";
      String machineType = String.format("zones/%s/machineTypes/%s", zone, typeName);

      // networkLink: name of the network you want the new instance to use.
      // For example: "global/networks/default" represents the network
      // named "default", which is created automatically for each project.
      String networkLink = "global/networks/default";

      // Collect information into the Instance object.
      Instance instance = Instance.newBuilder()
          .setName(instanceName)
          .setMachineType(machineType)
          .addNetworkInterfaces(NetworkInterface.newBuilder().setName(networkLink).build())
          .addAllDisks(disks)
          .build();

      Operation response = instancesClient.insertAsync(projectId, zone, instance)
          .get(3, TimeUnit.MINUTES);

      if (response.hasError()) {
        throw new Error("Instance creation failed ! ! " + response);
      }
      System.out.println("Operation Status: " + response.getStatus());
      return instancesClient.get(projectId, zone, instanceName);
    }

  }

}

Python

Python

Prima di provare questo esempio, segui le istruzioni di configurazione di Python nella sezione Utilizzo delle librerie client della Guida rapida di Compute Engine. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python di Compute Engine.

Per effettuare l'autenticazione in Compute Engine, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.

from __future__ import annotations

import re
import sys
from typing import Any
import warnings

from google.api_core.extended_operation import ExtendedOperation
from google.cloud import compute_v1


def get_image_from_family(project: str, family: str) -> compute_v1.Image:
    """
    Retrieve the newest image that is part of a given family in a project.

    Args:
        project: project ID or project number of the Cloud project you want to get image from.
        family: name of the image family you want to get image from.

    Returns:
        An Image object.
    """
    image_client = compute_v1.ImagesClient()
    # List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details
    newest_image = image_client.get_from_family(project=project, family=family)
    return newest_image


def disk_from_image(
    disk_type: str,
    disk_size_gb: int,
    boot: bool,
    source_image: str,
    auto_delete: bool = True,
) -> compute_v1.AttachedDisk:
    """
    Create an AttachedDisk object to be used in VM instance creation. Uses an image as the
    source for the new disk.

    Args:
         disk_type: the type of disk you want to create. This value uses the following format:
            "zones/{zone}/diskTypes/(pd-standard|pd-ssd|pd-balanced|pd-extreme)".
            For example: "zones/us-west3-b/diskTypes/pd-ssd"
        disk_size_gb: size of the new disk in gigabytes
        boot: boolean flag indicating whether this disk should be used as a boot disk of an instance
        source_image: source image to use when creating this disk. You must have read access to this disk. This can be one
            of the publicly available images or an image from one of your projects.
            This value uses the following format: "projects/{project_name}/global/images/{image_name}"
        auto_delete: boolean flag indicating whether this disk should be deleted with the VM that uses it

    Returns:
        AttachedDisk object configured to be created using the specified image.
    """
    boot_disk = compute_v1.AttachedDisk()
    initialize_params = compute_v1.AttachedDiskInitializeParams()
    initialize_params.source_image = source_image
    initialize_params.disk_size_gb = disk_size_gb
    initialize_params.disk_type = disk_type
    boot_disk.initialize_params = initialize_params
    # Remember to set auto_delete to True if you want the disk to be deleted when you delete
    # your VM instance.
    boot_disk.auto_delete = auto_delete
    boot_disk.boot = boot
    return boot_disk


def local_ssd_disk(zone: str) -> compute_v1.AttachedDisk():
    """
    Create an AttachedDisk object to be used in VM instance creation. The created disk contains
    no data and requires formatting before it can be used.

    Args:
        zone: The zone in which the local SSD drive will be attached.

    Returns:
        AttachedDisk object configured as a local SSD disk.
    """
    disk = compute_v1.AttachedDisk()
    disk.type_ = compute_v1.AttachedDisk.Type.SCRATCH.name
    initialize_params = compute_v1.AttachedDiskInitializeParams()
    initialize_params.disk_type = f"zones/{zone}/diskTypes/local-ssd"
    disk.initialize_params = initialize_params
    disk.auto_delete = True
    return disk


def wait_for_extended_operation(
    operation: ExtendedOperation, verbose_name: str = "operation", timeout: int = 300
) -> Any:
    """
    Waits for the extended (long-running) operation to complete.

    If the operation is successful, it will return its result.
    If the operation ends with an error, an exception will be raised.
    If there were any warnings during the execution of the operation
    they will be printed to sys.stderr.

    Args:
        operation: a long-running operation you want to wait on.
        verbose_name: (optional) a more verbose name of the operation,
            used only during error and warning reporting.
        timeout: how long (in seconds) to wait for operation to finish.
            If None, wait indefinitely.

    Returns:
        Whatever the operation.result() returns.

    Raises:
        This method will raise the exception received from `operation.exception()`
        or RuntimeError if there is no exception set, but there is an `error_code`
        set for the `operation`.

        In case of an operation taking longer than `timeout` seconds to complete,
        a `concurrent.futures.TimeoutError` will be raised.
    """
    result = operation.result(timeout=timeout)

    if operation.error_code:
        print(
            f"Error during {verbose_name}: [Code: {operation.error_code}]: {operation.error_message}",
            file=sys.stderr,
            flush=True,
        )
        print(f"Operation ID: {operation.name}", file=sys.stderr, flush=True)
        raise operation.exception() or RuntimeError(operation.error_message)

    if operation.warnings:
        print(f"Warnings during {verbose_name}:\n", file=sys.stderr, flush=True)
        for warning in operation.warnings:
            print(f" - {warning.code}: {warning.message}", file=sys.stderr, flush=True)

    return result


def create_instance(
    project_id: str,
    zone: str,
    instance_name: str,
    disks: list[compute_v1.AttachedDisk],
    machine_type: str = "n1-standard-1",
    network_link: str = "global/networks/default",
    subnetwork_link: str = None,
    internal_ip: str = None,
    external_access: bool = False,
    external_ipv4: str = None,
    accelerators: list[compute_v1.AcceleratorConfig] = None,
    preemptible: bool = False,
    spot: bool = False,
    instance_termination_action: str = "STOP",
    custom_hostname: str = None,
    delete_protection: bool = False,
) -> compute_v1.Instance:
    """
    Send an instance creation request to the Compute Engine API and wait for it to complete.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.
        disks: a list of compute_v1.AttachedDisk objects describing the disks
            you want to attach to your new instance.
        machine_type: machine type of the VM being created. This value uses the
            following format: "zones/{zone}/machineTypes/{type_name}".
            For example: "zones/europe-west3-c/machineTypes/f1-micro"
        network_link: name of the network you want the new instance to use.
            For example: "global/networks/default" represents the network
            named "default", which is created automatically for each project.
        subnetwork_link: name of the subnetwork you want the new instance to use.
            This value uses the following format:
            "regions/{region}/subnetworks/{subnetwork_name}"
        internal_ip: internal IP address you want to assign to the new instance.
            By default, a free address from the pool of available internal IP addresses of
            used subnet will be used.
        external_access: boolean flag indicating if the instance should have an external IPv4
            address assigned.
        external_ipv4: external IPv4 address to be assigned to this instance. If you specify
            an external IP address, it must live in the same region as the zone of the instance.
            This setting requires `external_access` to be set to True to work.
        accelerators: a list of AcceleratorConfig objects describing the accelerators that will
            be attached to the new instance.
        preemptible: boolean value indicating if the new instance should be preemptible
            or not. Preemptible VMs have been deprecated and you should now use Spot VMs.
        spot: boolean value indicating if the new instance should be a Spot VM or not.
        instance_termination_action: What action should be taken once a Spot VM is terminated.
            Possible values: "STOP", "DELETE"
        custom_hostname: Custom hostname of the new VM instance.
            Custom hostnames must conform to RFC 1035 requirements for valid hostnames.
        delete_protection: boolean value indicating if the new virtual machine should be
            protected against deletion or not.
    Returns:
        Instance object.
    """
    instance_client = compute_v1.InstancesClient()

    # Use the network interface provided in the network_link argument.
    network_interface = compute_v1.NetworkInterface()
    network_interface.network = network_link
    if subnetwork_link:
        network_interface.subnetwork = subnetwork_link

    if internal_ip:
        network_interface.network_i_p = internal_ip

    if external_access:
        access = compute_v1.AccessConfig()
        access.type_ = compute_v1.AccessConfig.Type.ONE_TO_ONE_NAT.name
        access.name = "External NAT"
        access.network_tier = access.NetworkTier.PREMIUM.name
        if external_ipv4:
            access.nat_i_p = external_ipv4
        network_interface.access_configs = [access]

    # Collect information into the Instance object.
    instance = compute_v1.Instance()
    instance.network_interfaces = [network_interface]
    instance.name = instance_name
    instance.disks = disks
    if re.match(r"^zones/[a-z\d\-]+/machineTypes/[a-z\d\-]+$", machine_type):
        instance.machine_type = machine_type
    else:
        instance.machine_type = f"zones/{zone}/machineTypes/{machine_type}"

    instance.scheduling = compute_v1.Scheduling()
    if accelerators:
        instance.guest_accelerators = accelerators
        instance.scheduling.on_host_maintenance = (
            compute_v1.Scheduling.OnHostMaintenance.TERMINATE.name
        )

    if preemptible:
        # Set the preemptible setting
        warnings.warn(
            "Preemptible VMs are being replaced by Spot VMs.", DeprecationWarning
        )
        instance.scheduling = compute_v1.Scheduling()
        instance.scheduling.preemptible = True

    if spot:
        # Set the Spot VM setting
        instance.scheduling.provisioning_model = (
            compute_v1.Scheduling.ProvisioningModel.SPOT.name
        )
        instance.scheduling.instance_termination_action = instance_termination_action

    if custom_hostname is not None:
        # Set the custom hostname for the instance
        instance.hostname = custom_hostname

    if delete_protection:
        # Set the delete protection bit
        instance.deletion_protection = True

    # Prepare the request to insert an instance.
    request = compute_v1.InsertInstanceRequest()
    request.zone = zone
    request.project = project_id
    request.instance_resource = instance

    # Wait for the create operation to complete.
    print(f"Creating the {instance_name} instance in {zone}...")

    operation = instance_client.insert(request=request)

    wait_for_extended_operation(operation, "instance creation")

    print(f"Instance {instance_name} created.")
    return instance_client.get(project=project_id, zone=zone, instance=instance_name)


def create_with_ssd(
    project_id: str, zone: str, instance_name: str
) -> compute_v1.Instance:
    """
    Create a new VM instance with Debian 10 operating system and SSD local disk.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.

    Returns:
        Instance object.
    """
    newest_debian = get_image_from_family(project="debian-cloud", family="debian-12")
    disk_type = f"zones/{zone}/diskTypes/pd-standard"
    disks = [
        disk_from_image(disk_type, 10, True, newest_debian.self_link, True),
        local_ssd_disk(zone),
    ]
    instance = create_instance(project_id, zone, instance_name, disks)
    return instance

REST

Utilizza instances.insert method per creare una VM da una famiglia di immagini o da una versione specifica di un'immagine sistema operativo.

  • Nelle serie di macchine Ultra Z3, A3 e A2, per creare una VM con dischi SSD locali collegati, crea una VM che utilizzi uno dei tipi di macchine disponibili per quella serie.
  • Nelle serie di macchine C3 o C3D, per creare una VM con dischi SSD locali collegati, specifica un tipo di istanza che contenga dischi SSD locali (-lssd).

    Di seguito è riportato un payload di richiesta di esempio, che crea una VM C3 con disco di avvio Ubuntu e due dischi SSD locali:

    {
     "machineType":"zones/us-central1-c/machineTypes/c3-standard-8-lssd",
     "name":"c3-with-local-ssd",
     "disks":[
        {
           "type":"PERSISTENT",
           "initializeParams":{
              "sourceImage":"projects/ubuntu-os-cloud/global/images/family/ubuntu-2204-lts"
           },
           "boot":true
        }
     ],
     "networkInterfaces":[
        {
           "network":"global/networks/default"
    }
     ]
    }
    
  • Nelle serie di macchine M3 e di prima e seconda generazione, per creare una VM con dischi SSD locali collegati, puoi aggiungere i dispositivi SSD locali in fase di creazione della VM, utilizzando la proprietà initializeParams. Devi specificare anche le seguenti proprietà:

    • diskType: impostato su SSD locale
    • autoDelete: impostato su true
    • type: impostato su SCRATCH

    Non è possibile utilizzare le seguenti proprietà con i dispositivi SSD locali:

    • diskName
    • Proprietà sourceImage
    • diskSizeGb

    Di seguito è riportato un payload di richiesta di esempio, che crea una VM M3 con disco di avvio Ubuntu e quattro dischi SSD locali:

    {
     "machineType":"zones/us-central1-f/machineTypes/m3-ultramem-64",
     "name":"local-ssd-instance",
     "disks":[
        {
         "type":"PERSISTENT",
         "initializeParams":{
            "sourceImage":"projects/ubuntu-os-cloud/global/images/family/ubuntu-2204-lts"
         },
         "boot":true
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
     ],
     "networkInterfaces":[
        {
           "network":"global/networks/default"
        }
     ]
    }
    

Dopo aver creato un disco SSD locale, devi formattare e montare ogni dispositivo per poterlo utilizzare.

Per ulteriori informazioni sulla creazione di un'istanza con REST, vedi l'API Compute Engine.

Formatta e monta un dispositivo SSD locale

Puoi formattare e montare i dischi SSD locali singolarmente oppure combinare più dischi SSD locali in un unico volume logico.

Formatta e monta singole partizioni SSD locali

Il modo più semplice per collegare le unità SSD locali all'istanza è formattare e montare ogni dispositivo con una singola partizione. In alternativa, puoi combinare più partizioni in un unico volume logico.

Istanze Linux

Formatta e monta la nuova unità SSD locale sull'istanza Linux. Puoi utilizzare il formato e la configurazione della partizione che preferisci. Per questo esempio, crea una singola partizione ext4.

  1. Vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic sul pulsante SSH accanto all'istanza a cui è collegata la nuova unità SSD locale. Il browser apre una connessione terminale all'istanza.

  3. Nel terminale, utilizza il comando find per identificare l'unità SSD locale che vuoi montare.

    $ find /dev/ | grep google-local-nvme-ssd
    

    Le unità SSD locali in modalità SCSI hanno nomi standard come google-local-ssd-0. Le unità SSD locali in modalità NVMe hanno nomi come google-local-nvme-ssd-0, come si vede nel seguente output:

     $ find /dev/ | grep google-local-nvme-ssd
    
     /dev/disk/by-id/google-local-nvme-ssd-0
    
  4. Formatta l'unità SSD locale con un file system ext4. Questo comando elimina tutti i dati esistenti sull'unità SSD locale.

    $ sudo mkfs.ext4 -F /dev/disk/by-id/[SSD_NAME]
    

    Sostituisci [SSD_NAME] con l'ID dell'unità SSD locale che vuoi formattare. Ad esempio, specifica google-local-nvme-ssd-0 per formattare la prima SSD locale NVMe nell'istanza.

  5. Utilizza il comando mkdir per creare una directory in cui montare il dispositivo.

    $ sudo mkdir -p /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con il percorso della directory in cui vuoi montare il disco SSD locale.

  6. Monta l'unità SSD locale nella VM.

    $ sudo mount /dev/disk/by-id/[SSD_NAME] /mnt/disks/[MNT_DIR]
    

    Sostituisci i seguenti valori:

    • [SSD_NAME]: l'ID dell'unità SSD locale che vuoi montare.
    • [MNT_DIR]: la directory in cui vuoi montare l'unità SSD locale.
  7. Configura l'accesso in lettura e scrittura al dispositivo. Per questo esempio, concedi l'accesso in scrittura al dispositivo per tutti gli utenti.

    $ sudo chmod a+w /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'unità SSD locale.

Facoltativamente, puoi aggiungere l'unità SSD locale al file /etc/fstab, in modo che il dispositivo sia montato di nuovo automaticamente al riavvio dell'istanza. Con questa impostazione, in caso di arresto dell'istanza, i dati sull'unità SSD locale non vengono conservati. Per informazioni dettagliate, vedi Persistenza dei dati nell'unità SSD locale.

Quando specifichi la voce di file /etc/fstab, assicurati di includere l'opzione nofail, in modo che l'istanza possa continuare ad avviarsi anche se l'unità SSD locale non è presente. Ad esempio, se acquisisci uno snapshot del disco di avvio e crei una nuova istanza senza collegare alcun disco SSD locale, l'istanza può continuare il processo di avvio, invece di essere messa in pausa indefinitamente.

  1. Crea la voce /etc/fstab. Utilizza il comando blkid per trovare l'UUID del file system sul dispositivo e modifica il file /etc/fstab in modo che includa l'UUID con le opzioni di montaggio. Puoi completare questo passaggio con un solo comando.

    Ad esempio, per un'unità SSD locale in modalità NVMe, usa il seguente comando:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/disk/by-id/google-local-nvme-ssd-0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Per un'unità SSD locale in una modalità non NVMe, come SCSI, usa il seguente comando:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/disk/by-id/google-local-ssd-0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'unità SSD locale.

  2. Usa il comando cat per verificare che le voci /etc/fstab siano corrette:

    $ cat /etc/fstab
    

Se crei uno snapshot dal disco di avvio di questa istanza e lo usi per creare un'istanza separata senza SSD locali, modifica il file /etc/fstab e rimuovi la voce relativa a questa unità SSD locale. Anche se è attiva l'opzione nofail, mantieni il file /etc/fstab sincronizzato con le partizioni collegate all'istanza e rimuovi le voci prima di creare lo snapshot del disco di avvio.

Istanze Windows

Usa lo strumento di gestione del disco di Windows per formattare e montare un'unità SSD locale su un'istanza Windows.

  1. Effettua la connessione all'istanza tramite RDP. Per questo esempio, vai alla pagina Istanze VM e fai clic sul pulsante RDP accanto all'istanza con le unità SSD locali collegate. Dopo che hai inserito il nome utente e la password, si apre una finestra con l'interfaccia desktop del server.

  2. Fai clic con il tasto destro del mouse sul pulsante di avvio di Windows e seleziona Gestione disco.

    Selezione dello strumento Gestione disco di Windows dal menu visualizzato facendo clic con il tasto destro del mouse sul pulsante Start di Windows.

  3. Se non hai mai inizializzato l'unità SSD locale, lo strumento chiederà di selezionare uno schema di partizione per le nuove partizioni. Seleziona GPT e fai clic su Ok.

    Selezione di uno schema di partizione nella finestra di inizializzazione del disco.

  4. Dopo l'inizializzazione dell'unità SSD locale, fai clic con il tasto destro del mouse sullo spazio su disco non allocato e seleziona Nuovo volume semplice.

    Creazione di un nuovo volume semplice dal disco collegato.

  5. Segui le istruzioni nella procedura guidata Nuovo volume semplice per configurare il nuovo volume. Puoi utilizzare qualsiasi formato di partizione; tuttavia, ai fini di questo esempio, seleziona NTFS. Seleziona anche Esegui una formattazione rapida per velocizzare la procedura di formattazione.

    Selezione del tipo di formato della partizione nella procedura guidata Nuovo volume semplice.

  6. Al termine della procedura guidata e della formattazione del volume, verifica che la nuova unità SSD locale abbia lo stato Healthy.

    Visualizzazione dell&#39;elenco dei dischi riconosciuti da Windows e verifica dello stato Integro dell&#39;unità SSD locale.

Ecco fatto. Ora puoi scrivere file sull'unità SSD locale.

Formatta e monta più partizioni SSD locali in un unico volume logico

A differenza delle unità SSD permanenti, le SSD locali hanno una capacità fissa di 375 GB per ogni dispositivo collegato all'istanza. Se vuoi combinare più partizioni SSD locali in un unico volume logico, devi definire autonomamente la gestione del volume nelle partizioni.

Istanze Linux

Usa mdadm per creare un array RAID 0. In questo esempio, l'array è formattato con un unico file system ext4, ma puoi applicare qualsiasi file system preferisci.

  1. Vai alla pagina Istanze VM.

    Vai a Istanze VM

  2. Fai clic sul pulsante SSH accanto all'istanza a cui è collegata la nuova unità SSD locale. Il browser apre una connessione terminale all'istanza.

  3. Nel terminale, installa lo strumento mdadm. Il processo di installazione di mdadm include un prompt all'utente che interrompe gli script, pertanto esegui manualmente il processo.

    Debian e Ubuntu:

    $ sudo apt update && sudo apt install mdadm --no-install-recommends
    

    CentOS e RHEL:

    $ sudo yum install mdadm -y
    

    SLES e openSUSE:

    $ sudo zypper install -y mdadm
    

  4. Utilizza il comando find per identificare tutte le unità SSD locali che vuoi montare insieme.

    In questo esempio, l'istanza comprende otto partizioni SSD locali in modalità NVMe:

    $  find /dev/ | grep google-local-nvme-ssd
    
     /dev/disk/by-id/google-local-nvme-ssd-7
     /dev/disk/by-id/google-local-nvme-ssd-6
     /dev/disk/by-id/google-local-nvme-ssd-5
     /dev/disk/by-id/google-local-nvme-ssd-4
     /dev/disk/by-id/google-local-nvme-ssd-3
     /dev/disk/by-id/google-local-nvme-ssd-2
     /dev/disk/by-id/google-local-nvme-ssd-1
     /dev/disk/by-id/google-local-nvme-ssd-0
    

    find non garantisce un ordinamento preciso. I dispositivi possono essere elencati in un altro ordine, ma il numero di righe di output deve corrispondere al numero previsto di partizioni dell'unità SSD. Le unità SSD locali in modalità SCSI hanno nomi standard come google-local-ssd. Le unità SSD locali in modalità NVMe hanno nomi come google-local-nvme-ssd.

  5. Utilizza mdadm per combinare più dispositivi SSD locali in un unico array denominato /dev/md0. In questo esempio sono stati combinati otto dispositivi SSD locali in modalità NVMe. Per i dispositivi SSD locali in modalità SCSI, specifica i nomi ricevuti con il comando find:

    $ sudo mdadm --create /dev/md0 --level=0 --raid-devices=8 \
     /dev/disk/by-id/google-local-nvme-ssd-0 \
     /dev/disk/by-id/google-local-nvme-ssd-1 \
     /dev/disk/by-id/google-local-nvme-ssd-2 \
     /dev/disk/by-id/google-local-nvme-ssd-3 \
     /dev/disk/by-id/google-local-nvme-ssd-4 \
     /dev/disk/by-id/google-local-nvme-ssd-5 \
     /dev/disk/by-id/google-local-nvme-ssd-6 \
     /dev/disk/by-id/google-local-nvme-ssd-7
    
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    
    

    Puoi verificare i dettagli dell'array con mdadm --detail. L'aggiunta del flag --prefer=by-id elenca i dispositivi che utilizzano i percorsi /dev/disk/by-id.

     sudo mdadm --detail --prefer=by-id /dev/md0
     

    L'output dovrebbe essere simile a questo per ogni dispositivo dell'array.

     ...
     Number   Major   Minor   RaidDevice State
        0      259      0         0      active sync   /dev/disk/by-id/google-local-nvme-ssd-0
     ...
     

  6. Formatta l'array /dev/md0 completo con un file system ext4.

    $ sudo mkfs.ext4 -F /dev/md0
    
  7. Crea una directory in cui montare /dev/md0. Per questo esempio crea la directory /mnt/disks/ssd-array:

    $ sudo mkdir -p /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'array SSD locale.

  8. Monta l'array /dev/md0 nella directory /mnt/disks/ssd-array:

    $ sudo mount /dev/md0 /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'array SSD locale.

  9. Configura l'accesso in lettura e scrittura al dispositivo. Per questo esempio, concedi l'accesso in scrittura al dispositivo per tutti gli utenti.

    $ sudo chmod a+w /mnt/disks/[MNT_DIR]
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'array SSD locale.

Facoltativamente, puoi aggiungere l'unità SSD locale al file /etc/fstab, in modo che il dispositivo sia montato di nuovo automaticamente al riavvio dell'istanza. Con questa impostazione, in caso di arresto dell'istanza, i dati sull'unità SSD locale non vengono conservati. Per informazioni dettagliate, consulta la sezione Persistenza dei dati nell'unità SSD locale.

Quando specifichi la voce di file /etc/fstab, assicurati di includere l'opzione nofail, in modo che l'istanza possa continuare ad avviarsi anche se l'unità SSD locale non è presente. Ad esempio, se acquisisci uno snapshot del disco di avvio e crei una nuova istanza senza alcuna unità SSD locale collegata, l'istanza può continuare il processo di avvio, invece di essere messa in pausa indefinitamente.

  1. Crea la voce /etc/fstab. Utilizza il comando blkid per trovare l'UUID del file system sul dispositivo e modifica il file /etc/fstab in modo che includa l'UUID con le opzioni di montaggio. Specifica l'opzione nofail per consentire l'avvio del sistema anche se l'unità SSD locale non è disponibile. Puoi completare questo passaggio con un unico comando. Ad esempio:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/md0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Sostituisci [MNT_DIR] con la directory in cui hai montato l'array SSD locale.

  2. Se nel file /etc/fstab utilizzi un nome dispositivo come /dev/md0 anziché l'UUID, devi modificare il file /etc/mdadm/mdadm.conf per assicurarti che l'array venga riassemblato automaticamente all'avvio. A questo scopo, segui questi due passaggi:

    1. Assicurati che l'array di dischi venga scansionato e ricomposto automaticamente all'avvio.
      $ sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
      
    2. Aggiorna initramfs in modo che l'array sia disponibile durante il processo di fase iniziale di avvio.
      $ sudo update-initramfs -u
      
  3. Usa il comando cat per verificare che le voci /etc/fstab siano corrette:

    $ cat /etc/fstab
    

Se crei uno snapshot dal disco di avvio di questa istanza e lo usi per creare un'istanza separata senza SSD locali, modifica il file /etc/fstab e rimuovi la voce relativa a questo array SSD locale. Anche se è attiva l'opzione nofail, mantieni il file /etc/fstab sincronizzato con le partizioni collegate all'istanza e rimuovi le voci prima di creare lo snapshot del disco di avvio.

Istanze Windows

Usa lo strumento di gestione del disco di Windows per formattare e montare un array SSD locale su un'istanza Windows.

  1. Effettua la connessione all'istanza tramite RDP. Per questo esempio, vai alla pagina Istanze VM e fai clic sul pulsante RDP accanto all'istanza con le unità SSD locali collegate. Dopo che hai inserito il nome utente e la password, si apre una finestra con l'interfaccia desktop del server.

  2. Fai clic con il tasto destro del mouse sul pulsante di avvio di Windows e seleziona Gestione disco.

    Selezione dello strumento Gestione disco di Windows dal menu visualizzato facendo clic con il tasto destro del mouse sul pulsante Start di Windows.

  3. Se non hai mai inizializzato le unità SSD locali, lo strumento chiederà di selezionare uno schema di partizione per le nuove partizioni. Seleziona GPT e fai clic su Ok.

    Selezione di uno schema di partizione nella finestra di inizializzazione del disco.

  4. Dopo l'inizializzazione dell'unità SSD locale, fai clic con il tasto destro del mouse sullo spazio su disco non allocato e seleziona Nuovo volume con striping.

    Creazione di un nuovo volume con striping dal disco collegato.

  5. Seleziona le partizioni dell'unità SSD locale che vuoi includere nell'array con striping. Per questo esempio, seleziona tutte le partizioni per combinarle in un unico dispositivo SSD locale.

    Selezione delle partizioni dell&#39;unità SSD locale da includere nell&#39;array.

  6. Segui le istruzioni nella procedura guidata Nuovo volume con striping per configurare il nuovo volume. Puoi utilizzare qualsiasi formato di partizione; tuttavia, ai fini di questo esempio, seleziona NTFS. Seleziona anche Esegui una formattazione rapida per velocizzare la procedura di formattazione.

    Selezione del tipo di formato della partizione nella procedura guidata Nuovo volume con striping.

  7. Al termine della procedura guidata e della formattazione del volume, verifica che la nuova unità SSD locale abbia lo stato Healthy.

    Visualizzazione dell&#39;elenco dei dischi riconosciuti da Windows e verifica dello stato Integro dell&#39;unità SSD locale.

Ora puoi scrivere file sull'unità SSD locale.

Passaggi successivi