Persistent Disk-Volumes zwischen VMs freigeben


Sie können das Volume eines nichtflüchtigen SSD-Speichers im Modus für mehrere Autoren gleichzeitig an zwei N2-VM-Instanzen anhängen, damit beide VMs auf dem Laufwerk lesen und schreiben können. Wenn Sie den Schreibmodus für mehrere Autoren für neue Persistent Disk-Volumes aktivieren möchten, erstellen Sie ein neues Persistent Disk-Volume und geben Sie das Flag --multi-writer in der gcloud-Befehlszeile oder das Attribut multiWriter in der Compute Engine-API an.

Persistent Disk-Volumes im Modus für mehrere Autoren bieten eine gemeinsame Blockspeicherfunktion und stellen eine infrastrukturelle Grundlage für das Erstellen verteilter Speichersysteme und ähnlicher hochverfügbarer Dienste dar. Wenn Sie Persistent Disk-Volumes im Modus für mehrere Autoren verwenden, sollten Sie ein Speichersoftwaresystem mit horizontaler Skalierung verwenden, das den Zugriff auf nichtflüchtige Speichergeräte über mehrere VMs koordiniert. Beispiele für diese Speichersysteme sind Lustre und IBM Spectrum Scale. Die meisten Dateisysteme mit einzelner VM wie EXT4, XFS und NTFS sind nicht für die Verwendung mit einem gemeinsamen Blockspeicher vorgesehen. Weitere Informationen finden Sie in diesem Dokument unter Best Practices. Wenn Sie einen vollständig verwalteten Dateispeicher benötigen, können Sie eine Filestore-Dateifreigabe auf Ihren Compute Engine-VMs bereitstellen.

Persistent Disk-Volumes im Modus für mehrere Autoren unterstützen eine Teilmenge von SCSI-3 Persistent Reservations-Befehlen (SCSI PR). Anwendungen mit hoher Verfügbarkeit können diese Befehle für E/A-Komponenten und Failover-Konfigurationen verwenden.

Die folgenden SCSI-PR-Befehle werden unterstützt:

  • IN {REPORT CAPABILITIES, READ FULL STATUS, READ RESERVATION, READ KEYS}
  • OUT {REGISTER, REGISTER AND IGNORE EXISTING KEY, RESERVE, PREEMPT, CLEAR, RELEASE}

Hinweise

  • Richten Sie die Authentifizierung ein, falls Sie dies noch nicht getan haben. Bei der Authentifizierung wird Ihre Identität für den Zugriff auf Google Cloud-Dienste und APIs überprüft. Zur Ausführung von Code oder Beispielen aus einer lokalen Entwicklungsumgebung können Sie sich so bei Compute Engine authentifizieren.

    Wählen Sie den Tab für die Verwendung der Beispiele auf dieser Seite aus:

    Console

    Wenn Sie über die Google Cloud Console auf Google Cloud-Dienste und -APIs zugreifen, müssen Sie die Authentifizierung nicht einrichten.

    gcloud

    1. Installieren Sie die Google Cloud CLI und initialisieren Sie sie mit folgendem Befehl:

      gcloud init
    2. Legen Sie eine Standardregion und -zone fest.

    Java

    Wenn Sie die Java-Beispiele auf dieser Seite aus einer lokalen Entwicklungsumgebung heraus verwenden möchten, installieren und initialisieren Sie die gcloud CLI und richten dann die Standardanmeldedaten für Anwendungen mit Ihren Nutzeranmeldedaten ein.

    1. Installieren Sie die Google Cloud CLI.
    2. Führen Sie folgenden Befehl aus, um die gcloud CLI zu initialisieren:

      gcloud init
    3. Erstellen Sie lokale Anmeldedaten zur Authentifizierung für Ihr Google-Konto:

      gcloud auth application-default login

    Weitere Informationen: Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

    Python

    Wenn Sie die Python-Beispiele auf dieser Seite aus einer lokalen Entwicklungsumgebung heraus verwenden möchten, installieren und initialisieren Sie die gcloud CLI und richten dann die Standardanmeldedaten für Anwendungen mit Ihren Nutzeranmeldedaten ein.

    1. Installieren Sie die Google Cloud CLI.
    2. Führen Sie folgenden Befehl aus, um die gcloud CLI zu initialisieren:

      gcloud init
    3. Erstellen Sie lokale Anmeldedaten zur Authentifizierung für Ihr Google-Konto:

      gcloud auth application-default login

    Weitere Informationen: Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

    REST

    Verwenden Sie die von der gcloud CLI bereitgestellten Anmeldedaten, um die REST API-Beispiele auf dieser Seite in einer lokalen Entwicklungsumgebung zu verwenden.

      Installieren Sie die Google Cloud CLI und initialisieren Sie sie mit folgendem Befehl:

      gcloud init

Einschränkungen

  • Nur für Persistent Disk-Volumes vom Typ SSD verfügbar.
  • Sie können ein Persistent Disk-Volume im Modus für mehrere Autoren in jeder Zone erstellen. Sie können dieses Laufwerk jedoch nur an VMs an folgenden Speicherorten anhängen:
    • australia-southeast1
    • europe-west1
    • us-central1 (nur in den Zonen us-central1-a und us-central1-c)
    • us-east1 (nur in der Zone us-east1-d)
    • us-west1 (nur in den Zonen us-west1-b und us-west1-c)
  • Angehängten VMs muss der N2-Maschinentyp zugewiesen sein.
  • Mindestgröße: 10 GB
  • Maximale Anzahl von angehängten VMs: 2
  • Persistent Disk-Volumes im Modus für mehrere Autoren unterstützen keine Messwerte zu Persistent Disk.
  • Laufwerke im Modus für mehrere Autoren können nicht in den Lesemodus Modus wechseln.
  • Sie können keine Laufwerk-Images oder Snapshots verwenden, um Persistent Disk-Volumes im Modus für mehrere Autoren zu erstellen.
  • Im Modus für mehrere Autoren können keine Snapshots oder Images von Persistent Disk-Volumes erstellt werden.
  • Niedrigere IOPS-Limits. Weitere Informationen finden Sie unter Laufwerkleistung.
  • Sie können die Größe eines Persistent Disk-Volumes mit mehreren Autoren nicht ändern.
  • Wenn Sie eine VM mit der Google Cloud CLI erstellen, können Sie mit dem Flag --create-disk kein Persistent Disk-Volume mit mehreren Autoren erstellen.

Best Practices

  • E/A-Komponenten, die SCSI PR-Befehle verwenden, führen zu einem Absturz mit einheitlichem Persistent Disk-Daten. Einige Dateisysteme haben keine Absturzkonsistenz und können daher beschädigt werden, wenn Sie SCSI PR-Befehle verwenden.
  • Viele Dateisysteme wie EXT4, XFS und NTFS sind nicht für die gemeinsame Nutzung mit Blockspeicher ausgelegt und haben keine Synchronisierungs- oder Ausführungsvorgänge für Prozesse von mehreren VM-Instanzen.
  • Bevor Sie Persistent Disk-Volumes im Modus für mehrere Autoren verwenden, stellen Sie sicher, dass Sie Ihr Dateisystem verstehen und wissen, wie es sicher mit freigegebenem Blockspeicher und gleichzeitigem Zugriff von mehreren VMs verwendet werden kann.

Leistung

Persistent Disk-Volumes, die im Modus für mehrere Autoren erstellt werden, haben bestimmte IOPS- und Durchsatzlimits.

Modus für mehrere Autoren mit zonalem nichtflüchtigem SSD-Speicher
Maximale IOPS (kontinuierlich)
Lese-IOPS pro GB 30
Schreib-IOPS pro GB 30
Lese-IOPS pro Instanz 15.000–100.000*
Schreibe-IOPS pro Instanz 15.000–100.000*
Maximaler Durchsatz (kontinuierlich, MB/s)
Lesedurchsatz pro GB 0,48
Schreibdurchsatz pro GB 0,48
Lesedurchsatz pro Instanz 240–1.200*
Schreibdurchsatz pro Instanz 240–1.200*
* Die IOPS- und Durchsatzleistung nichtflüchtiger Speicher ist neben anderen Faktoren von der Laufwerkgröße, der Anzahl der Instanz-vCPUs und der E/A-Blockgröße abhängig.
Das Anhängen eines Laufwerks mit mehreren Autoren zu mehreren VM-Instanzen hat keine Auswirkungen auf die Gesamtleistung oder die Kosten. Jede Maschine erhält innerhalb des Leistungslimits des Speichers einen bestimmten Anteil.

Informationen zum Freigeben nichtflüchtiger Speicher zwischen mehreren VMs finden Sie unter Nichtflüchtige Speicher zwischen VMs freigeben.

Zonales Persistent Disk-Volume mit VM-Instanzen teilen

In diesem Abschnitt werden die verschiedenen Methoden zur Freigabe zonaler Persistent Disk-Volumes zwischen mehreren VMs erläutert.

Laufwerk im Lesemodus für mehrere VMs freigeben

Sie können ein Persistent Disk-Volume ohne Startfunktion an mehrere VMs im Lesemodus anhängen und damit statische Daten zwischen mehreren VMs freigeben. Das Freigeben von statischen Daten zwischen mehreren VMs eines Persistent Disk-Volumes ist kostengünstiger als die Replikation Ihrer Daten auf individuelle Laufwerke für einzelne VMs.

Wenn Sie dynamischen Speicherplatz zwischen mehreren VMs freigeben müssen, haben Sie folgende Möglichkeiten:

Console

  1. Rufen Sie in der Google Cloud Console die Seite VM-Instanzen auf.

    Zur Seite „VM-Instanzen“

  2. Klicken Sie in der Liste der VMs in Ihrem Projekt auf den Namen der VM, der Sie das Laufwerk hinzufügen möchten. Die Seite VM-Instanzdetails wird geöffnet.

  3. Klicken Sie auf der Seite "Instanzdetails" auf Bearbeiten.

  4. Klicken Sie im Bereich Zusätzliche Laufwerke auf eine der folgenden Optionen:

    1. Neues Laufwerk hinzufügen, um der VM ein Laufwerk im schreibgeschützten Modus hinzuzufügen.
    2. Vorhandenes Laufwerk hinzufügen, um ein vorhandenes Laufwerk auszuwählen und es im schreibgeschützten Modus an Ihre VM anzuhängen.
  5. Legen Sie weitere Optionen für das Laufwerk fest.

  6. Klicken Sie auf Fertig, um die Änderungen zu übernehmen.

  7. Klicken Sie auf Speichern, um Ihre Änderungen für die VM zu übernehmen.

  8. Stellen Sie eine Verbindung zur VM her und stellen Sie das Laufwerk bereit.

  9. Wiederholen Sie diesen Vorgang, um das Laufwerk anderen VMs im Lesemodus hinzuzufügen.

gcloud

Verwenden Sie in der gcloud CLI den Befehl compute instances attach-disk und geben Sie das Flag --mode mit der Option ro an.

gcloud compute instances attach-disk INSTANCE_NAME \
  --disk DISK_NAME \
  --mode ro

Ersetzen Sie Folgendes:

  • INSTANCE_NAME: Name der VM, an die Sie das zonale Persistent Disk-Volume anhängen möchten.
  • DISK_NAME: durch den Namen des Laufwerks, das Sie anhängen möchten.

Nachdem Sie das Laufwerk angehängt haben, verbinden Sie die VM und stellen Sie das Laufwerk bereit.

Wiederholen Sie diesen Befehl für jede VM, der Sie dieses Laufwerk im Lesemodus hinzufügen möchten.

Java

Java

Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Java in der Compute Engine-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Compute Engine Java API.

Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Compute Engine zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.


import com.google.cloud.compute.v1.AttachDiskInstanceRequest;
import com.google.cloud.compute.v1.AttachedDisk;
import com.google.cloud.compute.v1.InstancesClient;
import com.google.cloud.compute.v1.Operation;
import java.io.IOException;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.TimeoutException;

public class AttachDisk {

  public static void main(String[] args)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // TODO(developer): Replace these variables before running the sample.
    // Project ID or project number of the Cloud project you want to use.
    String projectId = "your-project-id";

    // Name of the zone in which the instance you want to use resides.
    String zone = "zone-name";

    // Name of the compute instance you want to attach a disk to.
    String instanceName = "instance-name";

    // Full or partial URL of a persistent disk that you want to attach. This can be either
    // be a regional or zonal disk.
    // Valid formats:
    //     * https://www.googleapis.com/compute/v1/projects/{project}/zones/{zone}/disks/{disk_name}
    //     * /projects/{project}/zones/{zone}/disks/{disk_name}
    //     * /projects/{project}/regions/{region}/disks/{disk_name}
    String diskLink = String.format("/projects/%s/zones/%s/disks/%s",
        "project", "zone", "disk_name");

    // Specifies in what mode the disk will be attached to the instance. Available options are
    // `READ_ONLY` and `READ_WRITE`. Disk in `READ_ONLY` mode can be attached to
    // multiple instances at once.
    String mode = "READ_ONLY";

    attachDisk(projectId, zone, instanceName, diskLink, mode);
  }

  // Attaches a non-boot persistent disk to a specified compute instance.
  // The disk might be zonal or regional.
  // You need following permissions to execute this action:
  // https://cloud.google.com/compute/docs/disks/regional-persistent-disk#expandable-1
  public static void attachDisk(String projectId, String zone, String instanceName, String diskLink,
      String mode)
      throws IOException, ExecutionException, InterruptedException, TimeoutException {
    // Initialize client that will be used to send requests. This client only needs to be created
    // once, and can be reused for multiple requests. After completing all of your requests, call
    // the `instancesClient.close()` method on the client to safely
    // clean up any remaining background resources.
    try (InstancesClient instancesClient = InstancesClient.create()) {

      AttachDiskInstanceRequest attachDiskInstanceRequest = AttachDiskInstanceRequest.newBuilder()
          .setProject(projectId)
          .setZone(zone)
          .setInstance(instanceName)
          .setAttachedDiskResource(AttachedDisk.newBuilder()
              .setSource(diskLink)
              .setMode(mode)
              .build())
          .build();

      Operation response = instancesClient.attachDiskAsync(attachDiskInstanceRequest)
          .get(3, TimeUnit.MINUTES);

      if (response.hasError()) {
        System.out.println("Attach disk failed! " + response);
        return;
      }
      System.out.println("Attach disk - operation status: " + response.getStatus());
    }
  }
}

Python

Python

Bevor Sie dieses Beispiel anwenden, folgen Sie den Schritten zur Einrichtung von Python in der Compute Engine-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Compute Engine Python API.

Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Compute Engine zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.

from __future__ import annotations

import sys
from typing import Any

from google.api_core.extended_operation import ExtendedOperation
from google.cloud import compute_v1

def wait_for_extended_operation(
    operation: ExtendedOperation, verbose_name: str = "operation", timeout: int = 300
) -> Any:
    """
    Waits for the extended (long-running) operation to complete.

    If the operation is successful, it will return its result.
    If the operation ends with an error, an exception will be raised.
    If there were any warnings during the execution of the operation
    they will be printed to sys.stderr.

    Args:
        operation: a long-running operation you want to wait on.
        verbose_name: (optional) a more verbose name of the operation,
            used only during error and warning reporting.
        timeout: how long (in seconds) to wait for operation to finish.
            If None, wait indefinitely.

    Returns:
        Whatever the operation.result() returns.

    Raises:
        This method will raise the exception received from `operation.exception()`
        or RuntimeError if there is no exception set, but there is an `error_code`
        set for the `operation`.

        In case of an operation taking longer than `timeout` seconds to complete,
        a `concurrent.futures.TimeoutError` will be raised.
    """
    result = operation.result(timeout=timeout)

    if operation.error_code:
        print(
            f"Error during {verbose_name}: [Code: {operation.error_code}]: {operation.error_message}",
            file=sys.stderr,
            flush=True,
        )
        print(f"Operation ID: {operation.name}", file=sys.stderr, flush=True)
        raise operation.exception() or RuntimeError(operation.error_message)

    if operation.warnings:
        print(f"Warnings during {verbose_name}:\n", file=sys.stderr, flush=True)
        for warning in operation.warnings:
            print(f" - {warning.code}: {warning.message}", file=sys.stderr, flush=True)

    return result

def attach_disk(
    project_id: str, zone: str, instance_name: str, disk_link: str, mode: str
) -> None:
    """
    Attaches a non-boot persistent disk to a specified compute instance. The disk might be zonal or regional.

    You need following permissions to execute this action:
    https://cloud.google.com/compute/docs/disks/regional-persistent-disk#expandable-1

    Args:
        project_id: project ID or project number of the Cloud project you want to use.
        zone:name of the zone in which the instance you want to use resides.
        instance_name: name of the compute instance you want to attach a disk to.
        disk_link: full or partial URL to a persistent disk that you want to attach. This can be either
            regional or zonal disk.
            Expected formats:
                * https://www.googleapis.com/compute/v1/projects/[project]/zones/[zone]/disks/[disk_name]
                * /projects/[project]/zones/[zone]/disks/[disk_name]
                * /projects/[project]/regions/[region]/disks/[disk_name]
        mode: Specifies in what mode the disk will be attached to the instance. Available options are `READ_ONLY`
            and `READ_WRITE`. Disk in `READ_ONLY` mode can be attached to multiple instances at once.
    """
    instances_client = compute_v1.InstancesClient()

    request = compute_v1.AttachDiskInstanceRequest()
    request.project = project_id
    request.zone = zone
    request.instance = instance_name
    request.attached_disk_resource = compute_v1.AttachedDisk()
    request.attached_disk_resource.source = disk_link
    request.attached_disk_resource.mode = mode

    operation = instances_client.attach_disk(request)

    wait_for_extended_operation(operation, "disk attachement")

REST

Erstellen Sie mit der API eine POST-Anfrage an die Methode compute.instances.attachDisk. Legen Sie im Anfragetext den Parameter mode als READ_ONLY fest.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances/INSTANCE_NAME/attachDisk

{
 "source": "zones/ZONE/disks/DISK_NAME",
 "mode": "READ_ONLY"
}

Ersetzen Sie Folgendes:

  • INSTANCE_NAME: Name der VM, an die Sie das zonale Persistent Disk-Volume anhängen möchten.
  • PROJECT_ID: Ihre Projekt-ID.
  • ZONE: Zone, in der sich das Laufwerk befindet
  • DISK_NAME: Name des Laufwerks, das Sie anhängen

Nachdem Sie das Laufwerk angehängt haben, verbinden Sie die VM und stellen Sie das Laufwerk bereit.

Wiederholen Sie diese Anfrage für jede VM, der Sie dieses Laufwerk im Lesemodus hinzufügen möchten.

Volume eines nichtflüchtigen SSD-Speichers im Modus für mehrere Autoren für VMs freigeben

Sie können das Volume eines nichtflüchtigen SSD-Speichers im Modus für mehrere Autoren zwischen N2-VMs in derselben Zone freigeben. Weitere Informationen zur Funktionsweise dieses Modus finden Sie unter Modus für mehrere Autoren für Persistent Disk. So können Sie Persistent Disk-Volumes mit mehreren Autoren erstellen und anhängen:

gcloud

Führen Sie die folgenden Schritte aus, um ein zonales Persistent Disk-Volume mit der gcloud CLI zu erstellen und anzuhängen:

  1. Verwenden Sie den Befehl gcloud beta compute disks create, um ein zonales Persistent Disk-Volume zu erstellen. Fügen Sie das Flag --multi-writer ein, um anzugeben, dass das Laufwerk für die VMs im Modus für mehrere Autoren freigegeben werden muss.

    gcloud beta compute disks create DISK_NAME \
       --size DISK_SIZE \
       --type pd-ssd \
       --multi-writer
    

    Ersetzen Sie Folgendes:

    • DISK_NAME: Name des neuen Laufwerks
    • DISK_SIZE: die Größe des neuen Laufwerks in GB. Die zulässigen Größen reichen von 1 GB bis 65.536 GB für Volumes nichtflüchtiger SSD-Speicher oder 200 GB bis 65.536 GB für Standard-Persistent Disk-Volumes im Modus für mehrere Autoren.
  2. Nachdem Sie das Laufwerk erstellt haben, hängen Sie es an eine laufende oder gestoppte VM mit einem N2-Maschinentyp an. Führen Sie folgenden gcloud compute instances attach-disk-Befehl aus:

    gcloud compute instances attach-disk INSTANCE_NAME \
       --disk DISK_NAME
    

    Ersetzen Sie Folgendes:

    • INSTANCE_NAME: Name der N2-VM, der Sie das neue zonale Persistent Disk-Volume hinzufügen
    • DISK_NAME: Name des neuen Laufwerks, das Sie an die VM anhängen.
  3. Wiederholen Sie den Befehl gcloud compute instances attach-disk. Ersetzen Sie dabei INSTANCE_NAME durch den Namen der zweiten VM.

Nachdem Sie ein neues Laufwerk erstellt und an die VM angehängt haben, formatieren Sie das Laufwerk und stellen Sie es mit einem freigegebenen Laufwerksdateisystem bereit. Die meisten Dateisysteme können freigegebenen Speicher nicht nutzen. Prüfen Sie, ob Ihr Dateisystem diese Funktionen unterstützt, bevor Sie es mit einer Persistent Disk für mehrere Autoren verwenden. Sie können das Laufwerk nicht für mehreren VMs bereitstellen, indem Sie genauso vorgehen wie beim Bereitstellen des Laufwerks für einer einzelnen VM.

REST

Mit der Compute Engine API können Sie einen nichtflüchtigen SSD-Speicher erstellen und an N2-VMs im Modus für mehrere Autoren anhängen.

  1. Senden Sie mit der API eine POST-Anfrage zum Erstellen eines zonalen Persistent Disk-Volumes mithilfe der Methode disks.insert. Fügen Sie die Attribute name, sizeGb und type hinzu. Wenn Sie das neue Laufwerk leer, unformatiert und ohne Startfunktion erstellen möchten, geben Sie weder ein Quell-Image noch einen Quell-Snapshot für dieses Laufwerk an. Fügen Sie das Attribut multiWriter mit dem Wert True ein, um anzugeben, dass das Laufwerk zwischen den VMs im Modus für mehrere Autoren gemeinsam nutzbar sein muss.

    POST https://compute.googleapis.com/compute/beta/projects/PROJECT_ID/zones/ZONE/disks
    
    {
    "name": "DISK_NAME",
    "sizeGb": "DISK_SIZE",
    "type": "zones/ZONE/diskTypes/pd-ssd",
    "multiWriter": "True"
    }
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Ihre Projekt-ID.
    • ZONE ist die Zone, in der sich Ihre VM und das neue Laufwerk befinden
    • DISK_NAME: Name des neuen Laufwerks
    • DISK_SIZE: die Größe des neuen Laufwerks in GB. Die zulässigen Größen reichen von 1 GB bis 65.536 GB für Volumes nichtflüchtiger SSD-Speicher oder 200 GB bis 65.536 GB für Standard-Persistent Disk-Volumes im Modus für mehrere Autoren.
  2. Erstellen Sie eine POST-Anfrage an die Methode compute.instances.attachDisk und fügen Sie die URL dem zonalen Persistent Disk-Volume hinzu, das Sie gerade erstellt haben.

    POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances/INSTANCE_NAME/attachDisk
    
    {
    "source": "/compute/v1/projects/PROJECT_ID/zones/ZONE/disks/DISK_NAME"
    }
    

    Ersetzen Sie Folgendes:

    • PROJECT_ID: Ihre Projekt-ID.
    • ZONE ist die Zone, in der sich Ihre VM und das neue Laufwerk befinden
    • INSTANCE_NAME: Name der VM, der Sie das neue Persistent Disk-Volume hinzufügen.
    • DISK_NAME: Name des neuen Laufwerks
  3. Wiederholen Sie den Befehl disks.insert, aber geben Sie stattdessen die zweite VM an.

Nachdem Sie ein neues Laufwerk erstellt und an die VM angehängt haben, formatieren Sie das Laufwerk und stellen Sie es mit einem freigegebenen Laufwerksdateisystem bereit. Die meisten Dateisysteme können freigegebenen Speicher nicht nutzen. Prüfen Sie, ob Ihr Dateisystem diese Funktionen unterstützt, bevor Sie es mit einer Persistent Disk für mehrere Autoren verwenden.

Nächste Schritte