Menambahkan SSD Lokal ke VM


SSD Lokal dirancang untuk kasus penggunaan penyimpanan sementara, seperti cache atau ruang pemrosesan scratch. Karena SSD Lokal terletak di mesin fisik tempat VM Anda berjalan, SSD hanya dapat dibuat selama proses pembuatan VM. SSD Lokal tidak dapat digunakan sebagai perangkat booting.

Untuk seri mesin generasi ketiga, sejumlah disk SSD Lokal ditambahkan ke VM saat Anda membuatnya. Satu-satunya cara untuk menambahkan penyimpanan SSD Lokal ke VM ini adalah:

  • Untuk C3 dan C3D, penyimpanan SSD Lokal hanya tersedia dengan jenis mesin tertentu, seperti c3-standard-88-lssd.
  • Untuk seri mesin ultra Z3, A3, dan A2, setiap jenis mesin dilengkapi dengan penyimpanan SSD Lokal.

Untuk jenis mesin M3 serta generasi pertama dan kedua, Anda harus menentukan disk SSD Lokal saat membuat VM.

Setelah membuat disk SSD Lokal, Anda harus memformat dan memasang perangkat sebelum dapat menggunakannya.

Untuk mengetahui informasi tentang jumlah penyimpanan SSD Lokal yang tersedia di berbagai jenis mesin, dan jumlah disk SSD Lokal yang dapat Anda pasang ke VM, baca artikel Memilih jumlah SSD Lokal yang valid.

Sebelum memulai

  • Tinjau Batasan SSD lokal sebelum menggunakan SSD Lokal.
  • Tinjau skenario persistensi data untuk disk SSD Lokal.
  • Jika Anda menambahkan SSD Lokal ke instance virtual machine (VM) yang memiliki GPU yang terpasang, lihat Ketersediaan SSD Lokal berdasarkan region dan zona GPU.
  • Siapkan autentikasi, jika Anda belum melakukannya. Autentikasi adalah proses verifikasi identitas Anda untuk akses ke layanan dan API Google Cloud. Untuk menjalankan kode atau contoh dari lingkungan pengembangan lokal, Anda dapat melakukan autentikasi ke Compute Engine sebagai berikut.

    Pilih tab untuk melihat bagaimana Anda berencana menggunakan contoh di halaman ini:

    Konsol

    Saat menggunakan Konsol Google Cloud untuk mengakses API dan layanan Google Cloud, Anda tidak perlu menyiapkan autentikasi.

    gcloud

    1. Instal Google Cloud CLI, lalu initialize dengan menjalankan perintah berikut:

      gcloud init
    2. Menetapkan region dan zona default.

    Terraform

    Untuk menggunakan contoh Terraform di halaman ini dari lingkungan pengembangan lokal, instal dan lakukan inisialisasi gcloud CLI, lalu siapkan Kredensial Default Aplikasi dengan kredensial pengguna Anda.

    1. Menginstal Google Cloud CLI.
    2. Untuk initialize gcloud CLI, jalankan perintah berikut:

      gcloud init
    3. Buat kredensial autentikasi lokal untuk Akun Google Anda:

      gcloud auth application-default login

    Untuk informasi selengkapnya, lihat Siapkan autentikasi untuk lingkungan pengembangan lokal.

    Go

    Untuk menggunakan contoh Go di halaman ini dari lingkungan pengembangan lokal, instal dan lakukan inisialisasi gcloud CLI, lalu siapkan Kredensial Default Aplikasi dengan kredensial pengguna Anda.

    1. Menginstal Google Cloud CLI.
    2. Untuk initialize gcloud CLI, jalankan perintah berikut:

      gcloud init
    3. Buat kredensial autentikasi lokal untuk Akun Google Anda:

      gcloud auth application-default login

    Untuk informasi selengkapnya, lihat Siapkan autentikasi untuk lingkungan pengembangan lokal.

    Java

    Untuk menggunakan contoh Java di halaman ini dari lingkungan pengembangan lokal, instal dan lakukan inisialisasi gcloud CLI, lalu siapkan Kredensial Default Aplikasi dengan kredensial pengguna Anda.

    1. Menginstal Google Cloud CLI.
    2. Untuk initialize gcloud CLI, jalankan perintah berikut:

      gcloud init
    3. Buat kredensial autentikasi lokal untuk Akun Google Anda:

      gcloud auth application-default login

    Untuk informasi selengkapnya, lihat Siapkan autentikasi untuk lingkungan pengembangan lokal.

    Python

    Untuk menggunakan contoh Python di halaman ini dari lingkungan pengembangan lokal, instal dan lakukan inisialisasi gcloud CLI, lalu siapkan Kredensial Default Aplikasi dengan kredensial pengguna Anda.

    1. Menginstal Google Cloud CLI.
    2. Untuk initialize gcloud CLI, jalankan perintah berikut:

      gcloud init
    3. Buat kredensial autentikasi lokal untuk Akun Google Anda:

      gcloud auth application-default login

    Untuk informasi selengkapnya, lihat Siapkan autentikasi untuk lingkungan pengembangan lokal.

    REST

    Untuk menggunakan contoh REST API di halaman ini dalam lingkungan pengembangan lokal, gunakan kredensial yang Anda berikan ke gcloud CLI.

      Instal Google Cloud CLI, lalu initialize dengan menjalankan perintah berikut:

      gcloud init

Membuat VM dengan SSD Lokal

Anda dapat membuat VM dengan penyimpanan disk SSD Lokal menggunakan konsol Google Cloud, gcloud CLI, atau Compute Engine API.

Konsol

  1. Buka halaman Create an instance.

    Buka Buat instance

  2. Tentukan nama, region, dan zona untuk VM Anda. Secara opsional, tambahkan tag atau label.

  3. Di bagian Konfigurasi mesin, pilih kelompok mesin yang berisi jenis mesin target Anda.

  4. Pilih seri dari daftar Seri, lalu pilih jenis mesin.

    • Untuk seri mesin generasi ketiga C3 dan C3D, pilih jenis mesin yang berakhiran -lssd.
    • Untuk Z3, A3, dan A2 ultra, setiap jenis mesin dilengkapi dengan penyimpanan SSD Lokal.
    • Untuk M3, atau seri mesin generasi pertama dan kedua, setelah memilih jenis mesin, lakukan tindakan berikut:
      1. Luaskan bagian Advanced options.
      2. Luaskan Disks, klik Add Local SSD, lalu lakukan langkah berikut:
        1. Di halaman Konfigurasi SSD Lokal, pilih jenis antarmuka disk.
        2. Pilih jumlah disk yang Anda inginkan dari daftar Kapasitas disk.
        3. Klik Save.
  5. Lanjutkan dengan proses pembuatan VM.

  6. Setelah membuat VM dengan disk SSD Lokal, Anda harus memformat dan memasang setiap perangkat sebelum dapat menggunakan disk.

gcloud

  • Untuk seri mesin ultra Z3, A3, dan A2, guna membuat VM dengan disk SSD Lokal yang terpasang, buat VM yang menggunakan salah satu jenis mesin yang tersedia untuk seri tersebut dengan mengikuti petunjuk untuk membuat instance.

  • Untuk seri mesin C3 atau C3D, untuk membuat VM dengan disk SSD Lokal terpasang, ikuti petunjuk untuk membuat instance, tetapi tentukan jenis instance yang mencakup disk SSD Lokal (-lssd).

    Misalnya, Anda dapat membuat VM C3 dengan dua partisi SSD Lokal yang menggunakan antarmuka disk NVMe sebagai berikut:

    gcloud compute instances create example-c3-instance \
       --zone ZONE \
       --machine-type c3-standard-8-lssd \
       --image-project IMAGE_PROJECT \
       --image-family IMAGE_FAMILY
    
  • Untuk seri mesin M3 serta generasi pertama dan kedua, untuk membuat VM dengan disk SSD Lokal yang terpasang, ikuti petunjuk untuk membuat instance, tetapi gunakan flag --local-ssd untuk membuat dan memasang disk SSD Lokal. Untuk membuat beberapa disk SSD Lokal, tambahkan lebih banyak flag --local-ssd. Secara opsional, Anda juga dapat menetapkan nilai untuk antarmuka dan nama perangkat untuk setiap flag --local-ssd.

    Misalnya, Anda dapat membuat VM M3 dengan empat disk SSD Lokal dan menentukan jenis antarmuka disk sebagai berikut:

    gcloud compute instances VM_NAME \
       --machine-type m3-ultramem-64 \
       --zone ZONE \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE device-name=DEVICE-NAME \
       --local-ssd interface=INTERFACE_TYPE \
       --image-project IMAGE_PROJECT \
       --image-family IMAGE_FAMILY
    

Ganti kode berikut:

  • VM_NAME: nama untuk VM baru
  • ZONE: zona tempat VM dibuat. Tanda ini bersifat opsional jika Anda telah mengonfigurasi properti compute/zone gcloud CLI atau variabel lingkungan CLOUDSDK_COMPUTE_ZONE.
  • INTERFACE_TYPE: jenis antarmuka disk yang ingin Anda gunakan untuk perangkat SSD Lokal. Tentukan nvme jika membuat VM M3 atau jika boot disk image Anda memiliki driver NVMe yang dioptimalkan. Tentukan scsi untuk gambar lainnya.
  • DEVICE-NAME: Opsional: Nama yang menunjukkan nama disk yang akan digunakan di symbolic link (symlink) sistem operasi tamu.
  • IMAGE_FAMILY: salah satu kelompok gambar yang tersedia yang ingin Anda instal pada boot disk
  • IMAGE_PROJECT: project gambar yang memiliki kelompok gambar tersebut

Jika perlu, Anda dapat memasang SSD Lokal ke VM generasi pertama atau kedua menggunakan kombinasi nvme dan scsi untuk partisi yang berbeda. Performa untuk perangkat nvme bergantung pada boot disk image untuk instance Anda. VM generasi ketiga hanya mendukung antarmuka disk NVMe.

Setelah membuat VM dengan SSD Lokal, Anda harus memformat dan memasang setiap perangkat sebelum dapat menggunakannya.

Terraform

Untuk membuat VM dengan disk SSD Lokal yang terpasang, Anda dapat menggunakan resource google_compute_instance.


# Create a VM with a local SSD for temporary storage use cases

resource "google_compute_instance" "default" {
  name         = "my-vm-instance-with-scratch"
  machine_type = "n2-standard-8"
  zone         = "us-central1-a"

  boot_disk {
    initialize_params {
      image = "debian-cloud/debian-11"
    }
  }

  # Local SSD interface type; NVME for image with optimized NVMe drivers or SCSI
  # Local SSD are 375 GiB in size
  scratch_disk {
    interface = "SCSI"
  }

  network_interface {
    network = "default"
    access_config {}
  }
}

Untuk mempelajari cara menerapkan atau menghapus konfigurasi Terraform, lihat Perintah dasar Terraform.

Untuk membuat kode Terraform, Anda dapat menggunakan komponen Kode yang setara di konsol Google Cloud.
  1. Di Konsol Google Cloud, buka halaman Instance VM.

    Buka Instance VM

  2. Klik Create instance.
  3. Tentukan parameter yang Anda inginkan.
  4. Di bagian atas atau bawah halaman, klik Kode yang setara, lalu klik tab Terraform untuk melihat kode Terraform.

Go

Go

Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Go di panduan memulai Compute Engine menggunakan library klien. Untuk informasi selengkapnya, lihat dokumentasi referensi API Go Compute Engine.

Untuk melakukan autentikasi ke Compute Engine, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.

import (
	"context"
	"fmt"
	"io"

	compute "cloud.google.com/go/compute/apiv1"
	computepb "cloud.google.com/go/compute/apiv1/computepb"
	"google.golang.org/protobuf/proto"
)

// createWithLocalSSD creates a new VM instance with Debian 10 operating system and a local SSD attached.
func createWithLocalSSD(w io.Writer, projectID, zone, instanceName string) error {
	// projectID := "your_project_id"
	// zone := "europe-central2-b"
	// instanceName := "your_instance_name"

	ctx := context.Background()
	instancesClient, err := compute.NewInstancesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewInstancesRESTClient: %w", err)
	}
	defer instancesClient.Close()

	imagesClient, err := compute.NewImagesRESTClient(ctx)
	if err != nil {
		return fmt.Errorf("NewImagesRESTClient: %w", err)
	}
	defer imagesClient.Close()

	// List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details.
	newestDebianReq := &computepb.GetFromFamilyImageRequest{
		Project: "debian-cloud",
		Family:  "debian-10",
	}
	newestDebian, err := imagesClient.GetFromFamily(ctx, newestDebianReq)
	if err != nil {
		return fmt.Errorf("unable to get image from family: %w", err)
	}

	req := &computepb.InsertInstanceRequest{
		Project: projectID,
		Zone:    zone,
		InstanceResource: &computepb.Instance{
			Name: proto.String(instanceName),
			Disks: []*computepb.AttachedDisk{
				{
					InitializeParams: &computepb.AttachedDiskInitializeParams{
						DiskSizeGb:  proto.Int64(10),
						SourceImage: newestDebian.SelfLink,
						DiskType:    proto.String(fmt.Sprintf("zones/%s/diskTypes/pd-standard", zone)),
					},
					AutoDelete: proto.Bool(true),
					Boot:       proto.Bool(true),
					Type:       proto.String(computepb.AttachedDisk_PERSISTENT.String()),
				},
				{
					InitializeParams: &computepb.AttachedDiskInitializeParams{
						DiskType: proto.String(fmt.Sprintf("zones/%s/diskTypes/local-ssd", zone)),
					},
					AutoDelete: proto.Bool(true),
					Type:       proto.String(computepb.AttachedDisk_SCRATCH.String()),
				},
			},
			MachineType: proto.String(fmt.Sprintf("zones/%s/machineTypes/n1-standard-1", zone)),
			NetworkInterfaces: []*computepb.NetworkInterface{
				{
					Name: proto.String("global/networks/default"),
				},
			},
		},
	}

	op, err := instancesClient.Insert(ctx, req)
	if err != nil {
		return fmt.Errorf("unable to create instance: %w", err)
	}

	if err = op.Wait(ctx); err != nil {
		return fmt.Errorf("unable to wait for the operation: %w", err)
	}

	fmt.Fprintf(w, "Instance created\n")

	return nil
}

Java

Java

Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Java di panduan memulai Compute Engine menggunakan library klien. Untuk informasi selengkapnya, lihat dokumentasi referensi API Java Compute Engine.

Untuk melakukan autentikasi ke Compute Engine, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.


import com.google.cloud.compute.v1.AttachedDisk;
import com.google.cloud.compute.v1.AttachedDiskInitializeParams;
import com.google.cloud.compute.v1.Image;
import com.google.cloud.compute.v1.ImagesClient;
import com.google.cloud.compute.v1.Instance;
import com.google.cloud.compute.v1.InstancesClient;
import com.google.cloud.compute.v1.NetworkInterface;
import com.google.cloud.compute.v1.Operation;
import java.io.IOException;
import java.util.ArrayList;
import java.util.List;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class CreateWithLocalSsd {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // projectId: project ID or project number of the Cloud project you want to use.
    String projectId = "your-project-id";
    // zone: name of the zone to create the instance in. For example: "us-west3-b"
    String zone = "zone-name";
    // instanceName: name of the new virtual machine (VM) instance.
    String instanceName = "instance-name";

    createWithLocalSsd(projectId, zone, instanceName);
  }

  // Create a new VM instance with Debian 10 operating system and SSD local disk.
  public static void createWithLocalSsd(String projectId, String zone, String instanceName)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {

    int diskSizeGb = 10;
    boolean boot = true;
    boolean autoDelete = true;
    String diskType = String.format("zones/%s/diskTypes/pd-standard", zone);
    // Get the latest debian image.
    Image newestDebian = getImageFromFamily("debian-cloud", "debian-10");
    List<AttachedDisk> disks = new ArrayList<>();

    // Create the disks to be included in the instance.
    disks.add(
        createDiskFromImage(diskType, diskSizeGb, boot, newestDebian.getSelfLink(), autoDelete));
    disks.add(createLocalSsdDisk(zone));

    // Create the instance.
    Instance instance = createInstance(projectId, zone, instanceName, disks);

    if (instance != null) {
      System.out.printf("Instance created with local SSD: %s", instance.getName());
    }

  }

  // Retrieve the newest image that is part of a given family in a project.
  // Args:
  //    projectId: project ID or project number of the Cloud project you want to get image from.
  //    family: name of the image family you want to get image from.
  private static Image getImageFromFamily(String projectId, String family) throws IOException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `imagesClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (ImagesClient imagesClient = ImagesClient.create()) {
      // List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details
      return imagesClient.getFromFamily(projectId, family);
    }
  }

  // Create an AttachedDisk object to be used in VM instance creation. Uses an image as the
  // source for the new disk.
  //
  // Args:
  //    diskType: the type of disk you want to create. This value uses the following format:
  //        "zones/{zone}/diskTypes/(pd-standard|pd-ssd|pd-balanced|pd-extreme)".
  //        For example: "zones/us-west3-b/diskTypes/pd-ssd"
  //
  //    diskSizeGb: size of the new disk in gigabytes.
  //
  //    boot: boolean flag indicating whether this disk should be used as a
  //    boot disk of an instance.
  //
  //    sourceImage: source image to use when creating this disk.
  //    You must have read access to this disk. This can be one of the publicly available images
  //    or an image from one of your projects.
  //    This value uses the following format: "projects/{project_name}/global/images/{image_name}"
  //
  //    autoDelete: boolean flag indicating whether this disk should be deleted
  //    with the VM that uses it.
  private static AttachedDisk createDiskFromImage(String diskType, int diskSizeGb, boolean boot,
      String sourceImage, boolean autoDelete) {

    AttachedDiskInitializeParams attachedDiskInitializeParams =
        AttachedDiskInitializeParams.newBuilder()
            .setSourceImage(sourceImage)
            .setDiskSizeGb(diskSizeGb)
            .setDiskType(diskType)
            .build();

    AttachedDisk bootDisk = AttachedDisk.newBuilder()
        .setInitializeParams(attachedDiskInitializeParams)
        // Remember to set auto_delete to True if you want the disk to be deleted when you delete
        // your VM instance.
        .setAutoDelete(autoDelete)
        .setBoot(boot)
        .build();

    return bootDisk;
  }

  // Create an AttachedDisk object to be used in VM instance creation. The created disk contains
  // no data and requires formatting before it can be used.
  // Args:
  //    zone: The zone in which the local SSD drive will be attached.
  private static AttachedDisk createLocalSsdDisk(String zone) {

    AttachedDiskInitializeParams attachedDiskInitializeParams =
        AttachedDiskInitializeParams.newBuilder()
            .setDiskType(String.format("zones/%s/diskTypes/local-ssd", zone))
            .build();

    AttachedDisk disk = AttachedDisk.newBuilder()
        .setType(AttachedDisk.Type.SCRATCH.name())
        .setInitializeParams(attachedDiskInitializeParams)
        .setAutoDelete(true)
        .build();

    return disk;
  }

  // Send an instance creation request to the Compute Engine API and wait for it to complete.
  // Args:
  //    projectId: project ID or project number of the Cloud project you want to use.
  //    zone: name of the zone to create the instance in. For example: "us-west3-b"
  //    instanceName: name of the new virtual machine (VM) instance.
  //    disks: a list of compute.v1.AttachedDisk objects describing the disks
  //           you want to attach to your new instance.
  private static Instance createInstance(String projectId, String zone, String instanceName,
      List<AttachedDisk> disks)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `instancesClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (InstancesClient instancesClient = InstancesClient.create()) {

      // machineType: machine type of the VM being created. This value uses the
      // following format: "zones/{zone}/machineTypes/{type_name}".
      // For example: "zones/europe-west3-c/machineTypes/f1-micro"
      String typeName = "n1-standard-1";
      String machineType = String.format("zones/%s/machineTypes/%s", zone, typeName);

      // networkLink: name of the network you want the new instance to use.
      // For example: "global/networks/default" represents the network
      // named "default", which is created automatically for each project.
      String networkLink = "global/networks/default";

      // Collect information into the Instance object.
      Instance instance = Instance.newBuilder()
          .setName(instanceName)
          .setMachineType(machineType)
          .addNetworkInterfaces(NetworkInterface.newBuilder().setName(networkLink).build())
          .addAllDisks(disks)
          .build();

      Operation response = instancesClient.insertAsync(projectId, zone, instance)
          .get(3, TimeUnit.MINUTES);

      if (response.hasError()) {
        throw new Error("Instance creation failed ! ! " + response);
      }
      System.out.println("Operation Status: " + response.getStatus());
      return instancesClient.get(projectId, zone, instanceName);
    }

  }

}

Python

Python

Sebelum mencoba contoh ini, ikuti petunjuk penyiapan Python di panduan memulai Compute Engine menggunakan library klien. Untuk informasi selengkapnya, lihat dokumentasi referensi API Python Compute Engine.

Untuk melakukan autentikasi ke Compute Engine, siapkan Kredensial Default Aplikasi. Untuk mengetahui informasi selengkapnya, baca Menyiapkan autentikasi untuk lingkungan pengembangan lokal.

from __future__ import annotations

import re
import sys
from typing import Any
import warnings

from google.api_core.extended_operation import ExtendedOperation
from google.cloud import compute_v1

def get_image_from_family(project: str, family: str) -> compute_v1.Image:
    """
    Retrieve the newest image that is part of a given family in a project.

    Args:
        project: project ID or project number of the Cloud project you want to get image from.
        family: name of the image family you want to get image from.

    Returns:
        An Image object.
    """
    image_client = compute_v1.ImagesClient()
    # List of public operating system (OS) images: https://cloud.google.com/compute/docs/images/os-details
    newest_image = image_client.get_from_family(project=project, family=family)
    return newest_image

def disk_from_image(
    disk_type: str,
    disk_size_gb: int,
    boot: bool,
    source_image: str,
    auto_delete: bool = True,
) -> compute_v1.AttachedDisk:
    """
    Create an AttachedDisk object to be used in VM instance creation. Uses an image as the
    source for the new disk.

    Args:
         disk_type: the type of disk you want to create. This value uses the following format:
            "zones/{zone}/diskTypes/(pd-standard|pd-ssd|pd-balanced|pd-extreme)".
            For example: "zones/us-west3-b/diskTypes/pd-ssd"
        disk_size_gb: size of the new disk in gigabytes
        boot: boolean flag indicating whether this disk should be used as a boot disk of an instance
        source_image: source image to use when creating this disk. You must have read access to this disk. This can be one
            of the publicly available images or an image from one of your projects.
            This value uses the following format: "projects/{project_name}/global/images/{image_name}"
        auto_delete: boolean flag indicating whether this disk should be deleted with the VM that uses it

    Returns:
        AttachedDisk object configured to be created using the specified image.
    """
    boot_disk = compute_v1.AttachedDisk()
    initialize_params = compute_v1.AttachedDiskInitializeParams()
    initialize_params.source_image = source_image
    initialize_params.disk_size_gb = disk_size_gb
    initialize_params.disk_type = disk_type
    boot_disk.initialize_params = initialize_params
    # Remember to set auto_delete to True if you want the disk to be deleted when you delete
    # your VM instance.
    boot_disk.auto_delete = auto_delete
    boot_disk.boot = boot
    return boot_disk

def local_ssd_disk(zone: str) -> compute_v1.AttachedDisk():
    """
    Create an AttachedDisk object to be used in VM instance creation. The created disk contains
    no data and requires formatting before it can be used.

    Args:
        zone: The zone in which the local SSD drive will be attached.

    Returns:
        AttachedDisk object configured as a local SSD disk.
    """
    disk = compute_v1.AttachedDisk()
    disk.type_ = compute_v1.AttachedDisk.Type.SCRATCH.name
    initialize_params = compute_v1.AttachedDiskInitializeParams()
    initialize_params.disk_type = f"zones/{zone}/diskTypes/local-ssd"
    disk.initialize_params = initialize_params
    disk.auto_delete = True
    return disk

def wait_for_extended_operation(
    operation: ExtendedOperation, verbose_name: str = "operation", timeout: int = 300
) -> Any:
    """
    Waits for the extended (long-running) operation to complete.

    If the operation is successful, it will return its result.
    If the operation ends with an error, an exception will be raised.
    If there were any warnings during the execution of the operation
    they will be printed to sys.stderr.

    Args:
        operation: a long-running operation you want to wait on.
        verbose_name: (optional) a more verbose name of the operation,
            used only during error and warning reporting.
        timeout: how long (in seconds) to wait for operation to finish.
            If None, wait indefinitely.

    Returns:
        Whatever the operation.result() returns.

    Raises:
        This method will raise the exception received from `operation.exception()`
        or RuntimeError if there is no exception set, but there is an `error_code`
        set for the `operation`.

        In case of an operation taking longer than `timeout` seconds to complete,
        a `concurrent.futures.TimeoutError` will be raised.
    """
    result = operation.result(timeout=timeout)

    if operation.error_code:
        print(
            f"Error during {verbose_name}: [Code: {operation.error_code}]: {operation.error_message}",
            file=sys.stderr,
            flush=True,
        )
        print(f"Operation ID: {operation.name}", file=sys.stderr, flush=True)
        raise operation.exception() or RuntimeError(operation.error_message)

    if operation.warnings:
        print(f"Warnings during {verbose_name}:\n", file=sys.stderr, flush=True)
        for warning in operation.warnings:
            print(f" - {warning.code}: {warning.message}", file=sys.stderr, flush=True)

    return result

def create_instance(
    project_id: str,
    zone: str,
    instance_name: str,
    disks: list[compute_v1.AttachedDisk],
    machine_type: str = "n1-standard-1",
    network_link: str = "global/networks/default",
    subnetwork_link: str = None,
    internal_ip: str = None,
    external_access: bool = False,
    external_ipv4: str = None,
    accelerators: list[compute_v1.AcceleratorConfig] = None,
    preemptible: bool = False,
    spot: bool = False,
    instance_termination_action: str = "STOP",
    custom_hostname: str = None,
    delete_protection: bool = False,
) -> compute_v1.Instance:
    """
    Send an instance creation request to the Compute Engine API and wait for it to complete.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.
        disks: a list of compute_v1.AttachedDisk objects describing the disks
            you want to attach to your new instance.
        machine_type: machine type of the VM being created. This value uses the
            following format: "zones/{zone}/machineTypes/{type_name}".
            For example: "zones/europe-west3-c/machineTypes/f1-micro"
        network_link: name of the network you want the new instance to use.
            For example: "global/networks/default" represents the network
            named "default", which is created automatically for each project.
        subnetwork_link: name of the subnetwork you want the new instance to use.
            This value uses the following format:
            "regions/{region}/subnetworks/{subnetwork_name}"
        internal_ip: internal IP address you want to assign to the new instance.
            By default, a free address from the pool of available internal IP addresses of
            used subnet will be used.
        external_access: boolean flag indicating if the instance should have an external IPv4
            address assigned.
        external_ipv4: external IPv4 address to be assigned to this instance. If you specify
            an external IP address, it must live in the same region as the zone of the instance.
            This setting requires `external_access` to be set to True to work.
        accelerators: a list of AcceleratorConfig objects describing the accelerators that will
            be attached to the new instance.
        preemptible: boolean value indicating if the new instance should be preemptible
            or not. Preemptible VMs have been deprecated and you should now use Spot VMs.
        spot: boolean value indicating if the new instance should be a Spot VM or not.
        instance_termination_action: What action should be taken once a Spot VM is terminated.
            Possible values: "STOP", "DELETE"
        custom_hostname: Custom hostname of the new VM instance.
            Custom hostnames must conform to RFC 1035 requirements for valid hostnames.
        delete_protection: boolean value indicating if the new virtual machine should be
            protected against deletion or not.
    Returns:
        Instance object.
    """
    instance_client = compute_v1.InstancesClient()

    # Use the network interface provided in the network_link argument.
    network_interface = compute_v1.NetworkInterface()
    network_interface.network = network_link
    if subnetwork_link:
        network_interface.subnetwork = subnetwork_link

    if internal_ip:
        network_interface.network_i_p = internal_ip

    if external_access:
        access = compute_v1.AccessConfig()
        access.type_ = compute_v1.AccessConfig.Type.ONE_TO_ONE_NAT.name
        access.name = "External NAT"
        access.network_tier = access.NetworkTier.PREMIUM.name
        if external_ipv4:
            access.nat_i_p = external_ipv4
        network_interface.access_configs = [access]

    # Collect information into the Instance object.
    instance = compute_v1.Instance()
    instance.network_interfaces = [network_interface]
    instance.name = instance_name
    instance.disks = disks
    if re.match(r"^zones/[a-z\d\-]+/machineTypes/[a-z\d\-]+$", machine_type):
        instance.machine_type = machine_type
    else:
        instance.machine_type = f"zones/{zone}/machineTypes/{machine_type}"

    instance.scheduling = compute_v1.Scheduling()
    if accelerators:
        instance.guest_accelerators = accelerators
        instance.scheduling.on_host_maintenance = (
            compute_v1.Scheduling.OnHostMaintenance.TERMINATE.name
        )

    if preemptible:
        # Set the preemptible setting
        warnings.warn(
            "Preemptible VMs are being replaced by Spot VMs.", DeprecationWarning
        )
        instance.scheduling = compute_v1.Scheduling()
        instance.scheduling.preemptible = True

    if spot:
        # Set the Spot VM setting
        instance.scheduling.provisioning_model = (
            compute_v1.Scheduling.ProvisioningModel.SPOT.name
        )
        instance.scheduling.instance_termination_action = instance_termination_action

    if custom_hostname is not None:
        # Set the custom hostname for the instance
        instance.hostname = custom_hostname

    if delete_protection:
        # Set the delete protection bit
        instance.deletion_protection = True

    # Prepare the request to insert an instance.
    request = compute_v1.InsertInstanceRequest()
    request.zone = zone
    request.project = project_id
    request.instance_resource = instance

    # Wait for the create operation to complete.
    print(f"Creating the {instance_name} instance in {zone}...")

    operation = instance_client.insert(request=request)

    wait_for_extended_operation(operation, "instance creation")

    print(f"Instance {instance_name} created.")
    return instance_client.get(project=project_id, zone=zone, instance=instance_name)

def create_with_ssd(
    project_id: str, zone: str, instance_name: str
) -> compute_v1.Instance:
    """
    Create a new VM instance with Debian 10 operating system and SSD local disk.

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone: name of the zone to create the instance in. For example: "us-west3-b"
        instance_name: name of the new virtual machine (VM) instance.

    Returns:
        Instance object.
    """
    newest_debian = get_image_from_family(project="debian-cloud", family="debian-10")
    disk_type = f"zones/{zone}/diskTypes/pd-standard"
    disks = [
        disk_from_image(disk_type, 10, True, newest_debian.self_link, True),
        local_ssd_disk(zone),
    ]
    instance = create_instance(project_id, zone, instance_name, disks)
    return instance

REST

Gunakan instances.insert method untuk membuat VM dari kelompok image atau dari versi image sistem operasi tertentu.

  • Untuk seri mesin ultra Z3, A3, dan A2, agar dapat membuat VM dengan disk SSD Lokal terpasang, buat VM yang menggunakan salah satu jenis mesin yang tersedia untuk seri tersebut.
  • Untuk seri mesin C3 atau C3D, guna membuat VM dengan disk SSD Lokal yang terpasang, tentukan jenis instance yang mencakup disk SSD Lokal (-lssd).

    Berikut adalah contoh payload permintaan yang membuat VM C3 dengan boot disk Ubuntu dan dua disk SSD Lokal:

    {
     "machineType":"zones/us-central1-c/machineTypes/c3-standard-8-lssd",
     "name":"c3-with-local-ssd",
     "disks":[
        {
           "type":"PERSISTENT",
           "initializeParams":{
              "sourceImage":"projects/ubuntu-os-cloud/global/images/family/ubuntu-2204-lts"
           },
           "boot":true
        }
     ],
     "networkInterfaces":[
        {
           "network":"global/networks/default"
    }
     ]
    }
    
  • Untuk seri mesin M3 dan generasi pertama dan kedua, untuk membuat VM dengan disk SSD Lokal terpasang, Anda dapat menambahkan perangkat SSD Lokal selama pembuatan VM menggunakan properti initializeParams. Anda juga harus menyediakan properti berikut:

    • diskType: Tetapkan ke SSD Lokal
    • autoDelete: Tetapkan ke true
    • type: Tetapkan ke SCRATCH

    Properti berikut tidak dapat digunakan dengan perangkat SSD Lokal:

    • diskName
    • Properti sourceImage
    • diskSizeGb

    Berikut adalah contoh payload permintaan yang membuat VM M3 dengan boot disk dan empat disk SSD Lokal:

    {
     "machineType":"zones/us-central1-f/machineTypes/m3-ultramem-64",
     "name":"local-ssd-instance",
     "disks":[
        {
         "type":"PERSISTENT",
         "initializeParams":{
            "sourceImage":"projects/ubuntu-os-cloud/global/images/family/ubuntu-2204-lts"
         },
         "boot":true
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
        {
           "type":"SCRATCH",
           "initializeParams":{
              "diskType":"zones/us-central1-f/diskTypes/local-ssd"
           },
           "autoDelete":true,
           "interface": "NVME"
        },
     ],
     "networkInterfaces":[
        {
           "network":"global/networks/default"
        }
     ]
    }
    

Setelah membuat disk SSD Lokal, Anda harus memformat dan memasang setiap perangkat sebelum dapat menggunakannya.

Untuk informasi lebih lanjut tentang pembuatan instance menggunakan REST, lihat Compute Engine API.

Memformat dan memasang perangkat SSD Lokal

Anda dapat memformat dan memasang setiap disk SSD Lokal satu per satu, atau menggabungkan beberapa disk SSD Lokal ke dalam satu volume logis.

Memformat dan memasang partisi SSD Lokal satu per satu

Cara termudah untuk menghubungkan SSD Lokal ke instance Anda adalah dengan memformat dan memasang setiap perangkat dengan satu partisi. Atau, Anda dapat menggabungkan beberapa partisi menjadi satu volume logis.

Instance Linux

Format dan pasang SSD Lokal baru di instance Linux Anda. Anda dapat menggunakan format partisi dan konfigurasi apa pun yang diperlukan. Untuk contoh ini, buat satu partisi ext4.

  1. Buka halaman Instance VM.

    Buka instance VM

  2. Klik tombol SSH di samping instance yang memiliki SSD Lokal baru yang terpasang. Browser akan membuka koneksi terminal ke instance.

  3. Di terminal, gunakan perintah find untuk mengidentifikasi SSD Lokal yang ingin Anda pasang.

    $ find /dev/ | grep google-local-nvme-ssd
    

    SSD Lokal dalam mode SCSI memiliki nama standar seperti google-local-ssd-0. SSD Lokal dalam mode NVMe memiliki nama seperti google-local-nvme-ssd-0, seperti yang ditunjukkan dalam output berikut:

     $ find /dev/ | grep google-local-nvme-ssd
    
     /dev/disk/by-id/google-local-nvme-ssd-0
    
  4. Memformat SSD Lokal dengan sistem file ext4. Perintah ini menghapus semua data yang sudah ada dari SSD Lokal.

    $ sudo mkfs.ext4 -F /dev/disk/by-id/[SSD_NAME]
    

    Ganti [SSD_NAME] dengan ID SSD Lokal yang ingin Anda format. Misalnya, tentukan google-local-nvme-ssd-0 untuk memformat SSD Lokal NVMe pertama pada instance.

  5. Gunakan perintah mkdir untuk membuat direktori tempat Anda dapat memasang perangkat.

    $ sudo mkdir -p /mnt/disks/[MNT_DIR]
    

    Ganti [MNT_DIR] dengan jalur direktori tempat Anda ingin memasang disk SSD Lokal.

  6. Pasang SSD Lokal ke VM.

    $ sudo mount /dev/[SSD_NAME] /mnt/disks/[MNT_DIR]
    

    Ganti kode berikut:

    • [SSD_NAME]: ID SSD Lokal yang ingin Anda pasang.
    • [MNT_DIR]: direktori tempat Anda ingin memasang SSD Lokal.
  7. Konfigurasi akses baca dan tulis ke perangkat. Untuk contoh ini, berikan akses tulis ke perangkat untuk semua pengguna.

    $ sudo chmod a+w /mnt/disks/[MNT_DIR]
    

    Ganti [MNT_DIR] dengan direktori tempat Anda memasang SSD Lokal.

Secara opsional, Anda dapat menambahkan SSD Lokal ke file /etc/fstab agar perangkat terpasang kembali secara otomatis saat instance dimulai ulang. Entri ini tidak menyimpan data di SSD Lokal Anda jika instance berhenti. Lihat Persistensi data SSD Lokal untuk mengetahui detail selengkapnya.

Saat menentukan file /etc/fstab entri, pastikan untuk menyertakan opsi nofail sehingga instance dapat terus melakukan booting meskipun SSD Lokal tidak ada. Misalnya, jika Anda mengambil snapshot boot disk dan membuat instance baru tanpa memasang disk SSD Lokal, instance dapat melanjutkan proses startup dan tidak dijeda tanpa batas.

  1. Buat entri /etc/fstab. Gunakan perintah blkid untuk menemukan UUID sistem file pada perangkat dan edit file /etc/fstab untuk menyertakan UUID tersebut dengan opsi pemasangan. Anda dapat menyelesaikan langkah ini dengan satu perintah.

    Misalnya, untuk SSD Lokal dalam mode NVMe, gunakan perintah berikut:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/disk/by-id/google-local-nvme-ssd-0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Untuk SSD Lokal dalam mode non-NVMe seperti SCSI, gunakan perintah berikut:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/disk/by-id/google-local-ssd-0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Ganti [MNT_DIR] dengan direktori tempat Anda memasang SSD Lokal.

  2. Gunakan perintah cat untuk memverifikasi bahwa entri /etc/fstab Anda sudah benar:

    $ cat /etc/fstab
    

Jika Anda membuat snapshot dari boot disk instance ini dan menggunakannya untuk membuat instance terpisah yang tidak memiliki SSD Lokal, edit file /etc/fstab dan hapus entri untuk SSD Lokal ini. Meskipun jika opsi nofail diterapkan, selalu sinkronkan file /etc/fstab dengan partisi yang dilampirkan ke instance Anda, dan hapus entri ini sebelum Anda membuat snapshot boot disk.

Instance Windows

Gunakan alat Pengelolaan Disk Windows untuk memformat dan memasang SSD Lokal di instance Windows.

  1. Hubungkan ke instance melalui RDP. Untuk contoh ini, buka halaman Instance VM, lalu klik tombol RDP di samping instance yang memasang SSD Lokal. Setelah Anda memasukkan nama pengguna dan sandi, jendela akan terbuka dengan antarmuka desktop untuk server Anda.

  2. Klik kanan tombol Start Windows dan pilih Pengelolaan Disk.

    Memilih alat Windows Disk Manager dari menu klik kanan pada tombol Start Windows.

  3. Jika Anda belum melakukan inisialisasi SSD Lokal sebelumnya, alat ini akan meminta Anda memilih skema partisi untuk partisi baru. Pilih GPT dan klik OKE.

    Memilih skema partisi di jendela inisialisasi disk.

  4. Setelah SSD Lokal dimulai, klik kanan ruang disk yang belum teralokasi, lalu pilih New Simple Volume.

    Membuat volume sederhana baru dari disk yang terpasang.

  5. Ikuti petunjuk di Wizard Volume Sederhana Baru untuk mengonfigurasi volume baru. Anda dapat menggunakan format partisi apa pun yang disukai, tetapi untuk contoh ini, pilih NTFS. Selain itu, centang Lakukan format cepat untuk mempercepat proses pemformatan.

    Memilih jenis format partisi di Wizard Volume Sederhana Baru.

  6. Setelah Anda menyelesaikan wizard dan volume selesai memformat, periksa SSD Lokal baru untuk memastikannya memiliki status Healthy.

    Dengan melihat daftar disk yang dikenali oleh Windows, pastikan SSD Lokal memiliki status Responsif.

Selesai! Sekarang Anda dapat menulis file ke SSD Lokal.

Memformat dan memasang beberapa partisi SSD Lokal ke dalam satu volume logis

Tidak seperti SSD persisten, SSD Lokal memiliki kapasitas tetap 375 GB untuk setiap perangkat yang Anda pasang ke instance. Jika ingin menggabungkan beberapa partisi SSD Lokal menjadi satu volume logis, Anda harus menentukan sendiri pengelolaan volume di seluruh partisi ini.

Instance Linux

Gunakan mdadm untuk membuat array RAID 0. Contoh ini memformat array dengan satu sistem file ext4, tetapi Anda dapat menerapkan sistem file apa pun yang Anda inginkan.

  1. Buka halaman Instance VM.

    Buka instance VM

  2. Klik tombol SSH di samping instance yang memiliki SSD Lokal baru yang terpasang. Browser akan membuka koneksi terminal ke instance.

  3. Di terminal, instal alat mdadm. Proses penginstalan untuk mdadm menyertakan perintah pengguna yang menghentikan skrip, jadi jalankan proses ini secara manual.

    Debian dan Ubuntu:

    $ sudo apt update && sudo apt install mdadm --no-install-recommends
    

    CentOS dan RHEL:

    $ sudo yum install mdadm -y
    

    SLES dan openSUSE:

    $ sudo zypper install -y mdadm
    

  4. Gunakan perintah find untuk mengidentifikasi semua SSD Lokal yang ingin Anda pasang bersama.

    Untuk contoh ini, instance memiliki delapan partisi SSD Lokal dalam mode NVMe:

    $  find /dev/ | grep google-local-nvme-ssd
    
     /dev/disk/by-id/google-local-nvme-ssd-7
     /dev/disk/by-id/google-local-nvme-ssd-6
     /dev/disk/by-id/google-local-nvme-ssd-5
     /dev/disk/by-id/google-local-nvme-ssd-4
     /dev/disk/by-id/google-local-nvme-ssd-3
     /dev/disk/by-id/google-local-nvme-ssd-2
     /dev/disk/by-id/google-local-nvme-ssd-1
     /dev/disk/by-id/google-local-nvme-ssd-0
    

    find tidak menjamin pengurutan. Tidak masalah jika perangkat tercantum dalam urutan yang berbeda selama jumlah baris output sesuai dengan jumlah partisi SSD yang diharapkan. SSD Lokal dalam mode SCSI memiliki nama standar seperti google-local-ssd. SSD Lokal dalam mode NVMe memiliki nama seperti google-local-nvme-ssd.

  5. Gunakan mdadm untuk menggabungkan beberapa perangkat SSD Lokal ke dalam satu array bernama /dev/md0. Contoh ini menggabungkan delapan perangkat SSD Lokal dalam mode NVMe. Untuk perangkat SSD Lokal dalam mode SCSI, tentukan nama yang Anda peroleh dari perintah find:

    $ sudo mdadm --create /dev/md0 --level=0 --raid-devices=8 \
     /dev/disk/by-id/google-local-nvme-ssd-0 \
     /dev/disk/by-id/google-local-nvme-ssd-1 \
     /dev/disk/by-id/google-local-nvme-ssd-2 \
     /dev/disk/by-id/google-local-nvme-ssd-3 \
     /dev/disk/by-id/google-local-nvme-ssd-4 \
     /dev/disk/by-id/google-local-nvme-ssd-5 \
     /dev/disk/by-id/google-local-nvme-ssd-6 \
     /dev/disk/by-id/google-local-nvme-ssd-7
    
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    
    

    Anda dapat mengonfirmasi detail array dengan mdadm --detail. Menambahkan flag --prefer=by-id akan mencantumkan perangkat yang menggunakan jalur /dev/disk/by-id.

     sudo mdadm --detail --prefer=by-id /dev/md0
     

    Output akan terlihat seperti berikut untuk setiap perangkat dalam array.

     ...
     Number   Major   Minor   RaidDevice State
        0      259      0         0      active sync   /dev/disk/by-id/google-local-nvme-ssd-0
     ...
     

  6. Format array /dev/md0 lengkap dengan sistem file ext4.

    $ sudo mkfs.ext4 -F /dev/md0
    
  7. Buat direktori tempat Anda dapat memasang /dev/md0. Untuk contoh ini, buat direktori /mnt/disks/ssd-array:

    $ sudo mkdir -p /mnt/disks/[MNT_DIR]
    

    Ganti [MNT_DIR] dengan direktori tempat Anda ingin memasang array SSD Lokal.

  8. Pasang array /dev/md0 ke direktori /mnt/disks/ssd-array:

    $ sudo mount /dev/md0 /mnt/disks/[MNT_DIR]
    

    Ganti [MNT_DIR] dengan direktori tempat Anda ingin memasang array SSD Lokal.

  9. Konfigurasi akses baca dan tulis ke perangkat. Untuk contoh ini, berikan akses tulis ke perangkat untuk semua pengguna.

    $ sudo chmod a+w /mnt/disks/[MNT_DIR]
    

    Ganti [MNT_DIR] dengan direktori tempat Anda memasang array SSD Lokal.

Secara opsional, Anda dapat menambahkan SSD Lokal ke file /etc/fstab agar perangkat terpasang kembali secara otomatis saat instance dimulai ulang. Entri ini tidak menyimpan data di SSD Lokal Anda jika instance berhenti. Lihat Persistensi data SSD Lokal untuk mengetahui detailnya.

Saat menentukan file /etc/fstab entri, pastikan untuk menyertakan opsi nofail sehingga instance dapat terus melakukan booting meskipun SSD Lokal tidak ada. Misalnya, jika Anda mengambil snapshot boot disk dan membuat instance baru tanpa memasang SSD Lokal, instance dapat melanjutkan proses startup dan tidak dijeda tanpa batas.

  1. Buat entri /etc/fstab. Gunakan perintah blkid untuk menemukan UUID sistem file pada perangkat dan edit file /etc/fstab untuk menyertakan UUID tersebut dengan opsi pemasangan. Tentukan opsi nofail untuk mengizinkan sistem melakukan booting meskipun SSD Lokal tidak tersedia. Anda dapat menyelesaikan langkah ini dengan satu perintah. Misalnya:

    $ echo UUID=`sudo blkid -s UUID -o value /dev/md0` /mnt/disks/[MNT_DIR] ext4 discard,defaults,nofail 0 2 | sudo tee -a /etc/fstab
    

    Ganti [MNT_DIR] dengan direktori tempat Anda memasang array SSD Lokal.

  2. Jika menggunakan nama perangkat seperti /dev/md0 dalam file /etc/fstab, bukan UUID, Anda harus mengedit file /etc/mdadm/mdadm.conf untuk memastikan array disusun ulang secara otomatis saat booting. Untuk melakukannya, selesaikan dua langkah berikut:

    1. Pastikan array disk dipindai dan disusun ulang secara otomatis saat booting.
      $ sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
      
    2. Perbarui initramfs sehingga array akan tersedia selama proses boot awal.
      $ sudo update-initramfs -u
      
  3. Gunakan perintah cat untuk memverifikasi bahwa entri /etc/fstab Anda sudah benar:

    $ cat /etc/fstab
    

Jika Anda membuat snapshot dari boot disk instance ini dan menggunakannya untuk membuat instance terpisah yang tidak memiliki SSD Lokal, edit file /etc/fstab dan hapus entri untuk array SSD Lokal ini. Meskipun jika opsi nofail diterapkan, selalu sinkronkan file /etc/fstab dengan partisi yang dilampirkan ke instance Anda, dan hapus entri ini sebelum Anda membuat snapshot boot disk.

Instance Windows

Gunakan alat Pengelolaan Disk Windows untuk memformat dan memasang array SSD Lokal pada instance Windows.

  1. Hubungkan ke instance melalui RDP. Untuk contoh ini, buka halaman Instance VM, lalu klik tombol RDP di samping instance yang memasang SSD Lokal. Setelah Anda memasukkan nama pengguna dan sandi, jendela akan terbuka dengan antarmuka desktop untuk server Anda.

  2. Klik kanan tombol Start Windows dan pilih Pengelolaan Disk.

    Memilih alat Windows Disk Manager dari menu klik kanan pada tombol Start Windows.

  3. Jika Anda belum melakukan inisialisasi SSD Lokal sebelumnya, alat ini akan meminta Anda memilih skema partisi untuk partisi baru. Pilih GPT dan klik OKE.

    Memilih skema partisi di jendela inisialisasi disk.

  4. Setelah SSD Lokal diinisialisasi, klik kanan ruang disk yang belum dialokasikan, lalu pilih New Striped Volume.

    Membuat volume striped baru dari disk yang terpasang.

  5. Pilih partisi SSD Lokal yang ingin Anda sertakan dalam array striped. Untuk contoh ini, pilih semua partisi untuk menggabungkannya ke dalam satu perangkat SSD Lokal.

    Memilih partisi SSD Lokal yang akan disertakan dalam array.

  6. Ikuti petunjuk di Wizard Volume Striped Baru untuk mengonfigurasi volume baru. Anda dapat menggunakan format partisi apa pun yang disukai, tetapi untuk contoh ini, pilih NTFS. Selain itu, centang Lakukan format cepat untuk mempercepat proses pemformatan.

    Memilih jenis format partisi di Wizard Volume Striped Baru.

  7. Setelah Anda menyelesaikan wizard dan volume selesai memformat, periksa SSD Lokal baru untuk memastikannya memiliki status Healthy.

    Dengan melihat daftar disk yang dikenali oleh Windows, pastikan SSD Lokal memiliki status Responsif.

Sekarang Anda dapat menulis file ke SSD Lokal.

Langkah selanjutnya