Leistung des nichtflüchtigen Speichers optimieren


Nichtflüchtige Speicher liefern die in der Tabelle mit den Speichertypen angegebene Leistung, wenn die VM ausreichend genutzt wird, um die Leistungslimits zu erreichen. Nachdem Sie die Größe der nichtflüchtigen Speicher-Volumes an Ihre Leistungsanforderungen angepasst haben, müssen Sie unter Umständen noch die Arbeitslast und das Betriebssystem feinabstimmen.

In den folgenden Abschnitten werden VM- und Arbeitslasteigenschaften beschrieben, die sich auf die Laufwerksleistung auswirken. Außerdem werden einige wichtige Elemente erläutert, die sich zur Leistungsoptimierung anpassen lassen. Einige Vorschläge und deren Anwendung auf bestimmte Arten von Arbeitslasten.

Faktoren, die sich auf die Laufwerksleistung auswirken

In den folgenden Abschnitten werden Faktoren beschrieben, die sich auf die Laufwerksleistung einer VM auswirken.

Obergrenzen für ausgehenden Netzwerktraffic bei Schreibvorgängen

Ihre VM hat eine Obergrenze für ausgehenden Netzwerktraffic, die vom Maschinentyp der VM abhängt.

Compute Engine speichert Daten auf Persistent Disk mit mehreren parallelen Schreibvorgängen, um eine integrierte Redundanz zu gewährleisten. Zusätzlich führt jede Schreibanfrage zu einem gewissen Overhead, der zusätzliche Schreibbandbreite beansprucht.

Der maximale Schreibtraffic, den eine VM-Instanz ausgeben kann, ist die Obergrenze für ausgehenden Netzwerktraffic geteilt durch einen Bandbreitenmultiplikator für die Replikation und Overhead.

Die Obergrenzen für ausgehenden Netzwerktraffic werden in der Spalte Maximale Bandbreite für ausgehenden Traffic (Gbit/s) in den Maschinentyptabellen für Maschinenfamilien vom Typ allgemeiner Zweck, computing-optimiert, speicheroptimiert, arbeitsspeicheroptimiert und beschleunigeroptimiert aufgeführt.

Der Bandbreitenmultiplikator beträgt bei voller Netzwerkauslastung etwa 1,16x, was bedeutet, dass 16 % der geschriebenen Byte Overhead sind. Bei einer regionalen Persistent Disk beträgt der Bandbreitenmultiplikator etwa 2,32x, um zusätzlichen Replikationsaufwand zu berücksichtigen.

Wenn die Lese- und Schreibvorgänge des Persistent Disk mit der Bandbreite für ausgehenden Netzwerktraffic konkurrieren, werden 60 % der vom Maschinentyp definierten maximalen Bandbreite für ausgehenden Netzwerktraffic für Schreibvorgänge auf Persistent Disk zugewiesen. Die verbleibenden 40 % stehen dem restlichen ausgehenden Netzwerktraffic zur Verfügung. Ausführliche Informationen zu anderem ausgehendem Netzwerktraffic finden Sie unter Bandbreite des ausgehenden Traffics.

Das folgende Beispiel zeigt, wie die maximale Schreibbandbreite für einen Persistent Disk auf einer N1-VM-Instanz berechnet wird. Die Bandbreitenzuweisung ist der Teil der Bandbreite des ausgehenden Netzwerktraffics, der Persistent Disk zugewiesen ist. Die maximale Schreibbandbreite ist die maximale Schreibbandbreite, die an den Áufwand angepasst ist.

Anzahl an VM-vCPUs Obergrenze für ausgehenden Netzwerktraffic (MB/s) Bandbreitenzuweisung (MB/s) Maximale Schreibbandbreite (MB/s) Maximale Schreibbandbreite bei voller Netzwerkauslastung (MB/s)
1 250 150 216 129
2–7 1.250 750 1.078 647
8–15 2.000 1.200 1.724 1.034
16+ 4.000 2.400 3.448 2.069

Sie können die maximale Bandbreite von Persistent Disk mit den folgenden Formeln berechnen:

N1-VM mit 1 vCPU

Die Obergrenze für ausgehenden Netzwerktraffic beträgt:

2 Gbit/s / 8 Bits = 0,25 GB pro Sekunde = 250 MB pro Sekunde

Die Zuordnung der Bandbreite von Persistent Disk bei voller Netzwerkauslastung beträgt:

250 MB pro Sekunde x 0,6 = 150 MB pro Sekunde

Die maximale Schreibbandbreite ohne Netzwerkkonflikte bei Persistent Disk beträgt:

  • Zonale Laufwerke: 250 MB pro Sekunde / 1,16 ~= 216 MB pro Sekunde
  • Regionale Laufwerke: 250 MB pro Sekunde / 2,32 ~= 108 MB pro Sekunde

Die maximale Schreibbandbreite bei Persistent Disk bei voller Netzwerkauslastung beträgt:

  • Zonale Laufwerke: 150 MB pro Sekunde / 1,16 ~= 129 MB pro Sekunde
  • Regionale Laufwerke: 150 MB pro Sekunde / 2,32 ~= 65 MB pro Sekunde

Die Limits für ausgehenden Netzwerktraffic stellen eine Obergrenze für die Leistung dar. Andere Faktoren können zu einer Reduzierung der Leistung unter diesem Niveau führen. In den folgenden Abschnitten finden Sie Informationen zu anderen Leistungseinschränkungen.

Gleichzeitige Lese- und Schreibvorgänge

Bei standardmäßigem Persistent Disk werden für gleichzeitige Lese- und Schreibvorgänge dieselben Ressourcen verwendet. Wenn die VM mehr Lesedurchsatz oder IOPS verwendet, kann sie weniger Schreibvorgänge ausführen. Umgekehrt können Instanzen mit einem höheren Schreibdurchsatz oder höheren IOPS weniger Lesevorgänge ausführen.

Persistent Disk-Volumes können gleichzeitig nicht ihren maximalen Durchsatz und die IOPS-Limits für Lese- und Schreibvorgänge erreichen.

Der Durchsatz wird als IOPS * I/O size berechnet. Wenn Sie die maximalen Durchsatzlimits für gleichzeitige Lese- und Schreibvorgänge auf SSD Persistent Disk nutzen möchten, verwenden Sie einen E/A-Wert, bei dem Lese- und Schreib-IOPS kombiniert den IOPS-Grenzwert nicht überschreiten.

Die folgende Tabelle enthält die IOPS-Limits pro VM für gleichzeitiges Lesen und Schreiben.

Nichtflüchtiger Standardspeicher Nichtflüchtiger SSD-Speicher (8 vCPUs) Nichtflüchtiger SSD-Speicher (über 32+ vCPUs) Nichtflüchtiger SSD-Speicher (über 64+ vCPUs)
Lesen Schreiben Lesen Schreiben Lesen Schreiben Lesen Schreiben
7.500 0 15.000 0 60.000 0 100.000 0
5.625 3.750 11.250 3.750 45.000 15.000 75.000 25.000
3.750 7.500 7.500 7.500 30.000 30.000 50.000 50.000
1875 11.250 3.750 11.250 15.000 45.000 25.000 75.000
0 15.000 0 15.000 0 60.000 0 100.000

Die IOPS-Werte in dieser Tabelle basieren auf einer E/A-Größe von 8 KB. Andere E/A-Größen wie 16 KB können bei gleicher Verteilung der Lese- und Schreibvorgänge andere IOPS-Werte haben.

In der folgenden Tabelle sind die Durchsatzlimits (MB/s) pro VM für gleichzeitiges Lesen und Schreiben aufgeführt.

Nichtflüchtiger Standardspeicher Nichtflüchtiger SSD-Speicher (6–14 vCPUs) Nichtflüchtiger SSD-Speicher (über 16 vCPUs)
Lesen Schreiben Lesen Schreiben Lesen Schreiben
1.200 0 800* 800* 1.200* 1.200*
900 100
600 200
300 300
0 400

* Bei SSD Persistent Disk sind der maximale Lesedurchsatz und der maximale Schreibdurchsatz nicht voneinander abhängig. Daher sind diese Limits konstant.

Logische Volume-Größe

Persistent Disk kann bis zu 64 TiB groß sein und Sie können einzelne logische Volumes mit bis zu 257 TiB mithilfe der Verwaltung logischer Volumes in Ihrer VM erstellen. Ein größeres Volume hat folgende Auswirkungen auf die Leistung:

  • Nicht alle lokalen Dateisysteme funktionieren in dieser Speichergrößenordnung gut. Häufige Abläufe wie die Bereitstellung und die Dateisystemüberprüfung dauern möglicherweise länger als erwartet.
  • Die maximale Leistung der Persistent Disk wird bei kleineren Größen erreicht. Das Lesen und Schreiben im Speicher auf einer VM dauert länger. Wenn Ihre Anwendung dies unterstützt, sollten Sie mehrere VMs verwenden, um den Gesamtsystemdurchsatz zu erhöhen.
  • Das Erstellen von Snapshots für große Anzahlen von Persistent Disk kann länger als erwartet dauern und ohne sorgfältige Abstimmung mit Ihrer Anwendung zu einer inkonsistenten Darstellung Ihres logischen Volumes führen.

Mehrere Laufwerke, die an eine einzelne VM-Instanz angehängt sind

Die Leistungsgrenzen von Laufwerken, wenn mehrere Laufwerke an eine VM angehängt sind, hängen davon ab, ob die Laufwerke denselben oder unterschiedliche Typen haben.

Mehrere Laufwerke desselben Typs

Wenn Sie mehrere Laufwerke des gleichen Typs an eine VM-Instanz im selben Modus angehängt haben (z. B. Lesen/Schreiben), entsprechen die Leistungsgrenzen den Limits eines einzelnen Laufwerks, das kombiniert ist. Größe dieser Laufwerke. Wenn Sie alle Laufwerke zu 100 % verwenden, wird das Leistungslimit unabhängig von der relativen Laufwerkgröße gleichmäßig auf die Laufwerke aufgeteilt.

Angenommen, Sie haben ein Laufwerk mit 200 GB pd-standard und ein Laufwerk mit pd-standard mit 1.000 GB. Wenn Sie das Laufwerk mit 1.000 GB nicht verwenden, kann das Laufwerk mit 200 GB die Leistungsgrenze eines Standardlaufwerks mit 1.200 GB erreichen. Wenn Sie beide Laufwerke zu 100 % verwenden, hat jedes Laufwerk die Leistungsgrenze eines pd-standard-Laufwerks von 600 GB (1.200 GB / 2 Laufwerke = 600-GB-Laufwerk).

Mehrere Laufwerke unterschiedlicher Typen

Wenn Sie an eine VM verschiedene Arten von Laufwerken anhängen, ist die maximal mögliche Leistung die Leistungsgrenze des schnellsten Laufwerks, das von der VM unterstützt wird. Die Gesamtleistung der angehängten Laufwerke überschreitet nicht die Leistungsgrenzen des schnellsten Laufwerks, das von der VM unterstützt wird.

Laufwerke für IOPS oder durchsatzorientierte Arbeitslasten optimieren

Leistungsempfehlungen hängen davon ab, ob Sie die IOPS oder den Durchsatz maximieren möchten.

IOPS-orientierte Arbeitslasten

Datenbanken, ob SQL oder NoSQL, haben Nutzungsmuster mit zufälligem Zugriff auf Daten. Google empfiehlt für IOPS-orientierte Arbeitslasten die folgenden Werte:

  • Werte für E/A-Warteschlangentiefen von 1 pro 400 bis 800 IOPS, bis zu einem Limit von 64 auf großen Volumes

  • Eine freie CPU pro 2.000 zufälliger Lese-IOPS und eine freie CPU pro 2.500 zufälliger Schreib-IOPS

  • Verwenden Sie für Ihren VM-Maschinentyp Google Cloud Hyperdisk Extrem-Laufwerke, mit denen Sie die bereitgestellten IOPS ändern können.

In den Best Practices für MongoDB, Apache Cassandra und andere Datenbankanwendungen werden meist niedrigere Readahead-Werte empfohlen.

Durchsatzorientierte Arbeitslasten

Streamingvorgänge, wie ein Hadoop-Job, profitieren vom schnellen sequenziellen Lesen. Durch höhere E/A-Größen kann sich außerdem die Streamingleistung verbessern.

  • Verwenden Sie eine E/A-Größe von mindestens 256 KB.

  • Verwenden Sie für Ihren VM-Maschinentyp Hyperdisk Throughput-Laufwerke, mit denen Sie den bereitgestellten Durchsatz ändern können.

  • Verwenden Sie für einen nichtflüchtigen Standardspeicher nach Möglichkeit acht oder mehr parallele sequenzielle E/A-Streams. Standard Persistent Disk sind so ausgelegt, dass die E/A-Leistung für den sequenziellen Laufwerkszugriff optimiert wird, ähnlich wie bei einer physischen HDD-Festplatte.

  • Achten Sie darauf, dass Ihre Anwendung auf großen Laufwerken für einen angemessenen, temporären Datenspeicherort optimiert ist.

    Wenn Ihre Anwendung auf Daten zugreift, die über verschiedene Teile eines Laufwerks über einen kurzen Zeitraum (mehrere Hundert GB pro vCPU) verteilt wurden, werden Sie keinen optimalen IOPS-Wert erreichen. Sie sollten den temporären Datenspeicherort optimieren und Faktoren wie Fragmentierung des Laufwerks und Zufälligkeit des Zugriffs auf Teile des Laufwerks abwägen, um eine optimale Leistung zu erzielen.

  • Achten Sie bei nichtflüchtigen SSD-Speichern darauf, dass der E/A-Planer im Betriebssystem entsprechend Ihren Anforderungen konfiguriert ist.

    Prüfen Sie auf Linux-basierten Systemen, ob der E/A-Planer auf none eingestellt ist. Dieser E/A-Planer ordnet Anfragen nicht neu an und eignet sich ideal für schnelle, zufällige E/A-Geräte.

    1. Prüfen Sie in der Befehlszeile den E/A-Zeitplan, der von Ihrem Linux-Computer verwendet wird:

      cat /sys/block/sda/queue/scheduler
      

      Die Ausgabe sieht in etwa so aus:

      [mq-deadline] none
      

      Der derzeit aktive E/A-Planer wird in eckigen Klammern ([]) angezeigt.

    2. Wenn der E/A-Planer nicht auf none festgelegt ist, führen Sie einen der folgenden Schritte aus:

      • Um Ihren Standard-E/A-Planer in none zu ändern, legen Sie im Eintrag GRUB_CMDLINE_LINUX der GRUB-Konfigurationsdatei elevator=none fest. Im Allgemeinen ist diese Datei in /etc/default/grub gespeichert. Bei einigen älteren Distributionen kann sie jedoch in einem anderen Verzeichnis gespeichert sein.
      GRUB_CMDLINE_LINUX="elevator=none vconsole.keymap=us console=ttyS0,38400n8 vconsole.font=latarcyrheb-sun16
      

      Nachdem Sie die GRUB-Konfigurationsdatei aktualisiert haben, konfigurieren Sie den Bootloader auf dem System, damit er in Compute Engine gestartet werden kann.

      • Alternativ können Sie den E/A-Planer zur Laufzeit ändern:
      echo 'none' > sudo /sys/block/sda/queue/scheduler
      

      Wenn Sie diese Methode verwenden, wechselt das System beim Neustart wieder zum Standard-E/A-Planer. Führen Sie noch einmal den Befehl cat aus, um den E/A-Planer zu prüfen.

Arbeitslaständerungen, die die Laufwerksleistung verbessern können

Bestimmte Arbeitslastverhalten können die Leistung von E/A-Vorgängen auf den angehängten Laufwerken verbessern.

Hohe E/A-Warteschlangentiefe verwenden

Nichtflüchtige Speicher haben eine höhere Latenz als lokal angehängte Laufwerke wie lokale SSDs, da sie mit dem Netzwerk verbunden sind. Sie können einen sehr hohen IOPS-Wert und Durchsatz bieten, aber Sie müssen dafür sorgen, dass genügend E/A-Anfragen parallel ausgeführt werden. Die Anzahl der parallel ausgeführten E/A-Anfragen wird als E/A-Warteschlangentiefe bezeichnet.

In den folgenden Tabellen finden Sie die empfohlene E/A-Warteschlangentiefe, um ein bestimmtes Leistungsniveau zu erreichen. Beachten Sie, dass in der folgenden Tabelle eine geringfügige Überschätzung der typischen Latenz verwendet wird, um konservative Empfehlungen anzuzeigen. Im Beispiel wird davon ausgegangen, dass Sie eine E/A-Größe von 16 KB verwenden.

Genügend E/A-Vorgänge mit hoher E/A-Größe generieren

  • Hohe E/A-Größe verwenden

    Verwenden Sie eine E/A-Größe von mindestens 256 KB, damit die Anwendungsleistung nicht durch IOPS-Limits und Latenz beeinträchtigt wird.

    Verwenden Sie große Stripes für verteilte Dateisystemanwendungen. Eine zufällige E/A-Arbeitslast mit großen Stripes (mindestens 4 MB) erzielt bei Standard-Persistent Disk eine hervorragende Leistung, da die Arbeitslast mehrere sequenzielle Stream-Laufwerkszugriffe genau simuliert.

  • Für die Generierung ausreichender E/A-Vorgänge durch die Anwendung sorgen

    Achten Sie darauf, dass Ihre Anwendung genügend E/A-Vorgänge generiert, um die IOPS- und Durchsatzlimits des Laufwerks vollständig zu nutzen. Sehen Sie sich die Messwerte zur Nutzung und Leistung von nichtflüchtigen Speichern in Cloud Monitoring an, um das E/A-Muster Ihrer Arbeitslast besser zu verstehen.

  • Ausreichend verfügbare CPU-Kapazität auf der Instanz bereitstellen, auf der die E/A-Vorgänge generiert werden

    Wenn die VM-Instanz nicht genügend CPU-Kapazität hat, kann die Anwendung die oben angegebenen IOPS nicht verarbeiten. Wir empfehlen eine verfügbare CPU pro 2.000–2.500 IOPS des erwarteten Traffics.

Hohe E/A-Lasten auf einen maximalen Span begrenzen

Ein Span bezeichnet einen zusammenhängenden Bereich logischer Blockadressen auf einem einzelnen physischen Laufwerk. Bei schweren E/A-Lasten wird eine maximale Leistung erzielt, wenn sie auf einen bestimmten maximalen Span beschränkt sind. Dies hängt vom Maschinentyp der VM ab, an die das Laufwerk angehängt ist, wie in der folgenden Tabelle dargestellt.

Maschinentyp Empfohlener maximaler Span
  • m2-megamem-416
  • C2D-VMs
25 TB
Alle anderen Maschinentypen 50 TB

Spans auf separaten Persistent Disks, die zusammen maximal 50 TB haben, können zu Leistungszwecken als ein Span von 50 TB betrachtet werden.

Betriebssystemänderungen zur Verbesserung der Laufwerksleistung

In einigen Fällen können Sie Funktionen auf Betriebssystemebene aktivieren oder deaktivieren oder die angehängten Laufwerke auf bestimmte Arten konfigurieren, um die Laufwerkleistung zu verbessern.

ext3-Dateisysteme unter Linux nicht verwenden

Die Verwendung des ext3-Dateisystems in einer Linux-VM kann bei hoher Schreiblast zu einer sehr schlechten Leistung führen. Verwenden Sie nach Möglichkeit ext4. Der ext4-Dateisystemtreiber ist abwärtskompatibel mit ext3/ext2 und unterstützt die Bereitstellung von ext3-Dateisystemen. Das ext4-Dateisystem ist auf den meisten Linux-Betriebssystemen die Standardeinstellung.

Wenn Sie nicht zu ext4 migrieren können, können Sie als Behelfslösung die ext3-Dateisysteme mit der Bereitstellungsoption data=journal bereitstellen. Dies verbessert die Schreib-IOPS auf Kosten des Schreibdurchsatzes. Die Migration zu ext4 kann einige Benchmarks um das bis zu 7-Fache verbessern.

Verzögerte Initialisierung deaktivieren und DISCARD-Befehle aktivieren

Persistent Disks unterstützen Verwerfungsvorgänge oder TRIM-Befehle, mit denen Betriebssysteme die Laufwerke über nicht mehr verwendete Blöcke informieren können. Die Discard-Unterstützung ermöglicht dem Betriebssystem, Laufwerksblöcke als nicht mehr benötigt zu markieren, ohne dass der Aufwand für die Nullsetzung der Blöcke anfällt.

Bei den meisten Linux-Betriebssystemen aktivieren Sie Verwerfungsvorgänge, wenn Sie einen Persistent Disk auf Ihrer VM bereitstellen. Windows Server 2012 R2-VMs ermöglichen standardmäßig das Verwerfen von Vorgängen, wenn Sie einen Persistent Disk bereitstellen.

Das Aktivieren von Discard kann die allgemeine Laufzeitleistung steigern und außerdem die Leistung Ihres Laufwerks bei der anfänglichen Bereitstellung beschleunigen. Das Formatieren eines ganzen Laufwerk-Volumes kann zeitaufwendig sein, weshalb Lazy Formatting gängig ist. Der Nachteil ist, dass die Kosten für ein "lazy formatting" oftmals dann bezahlt werden, wenn das Datenvolumen das erste Mal bereitgestellt wird. Durch die Deaktivierung der verzögerten Initialisierung und die Aktivierung von Verwerfungsvorgängen können Sie schnelle Formatierungs- und Bereitstellungsvorgänge erhalten.

  • Deaktivieren Sie die verzögerte Initialisierung und aktivieren Sie Verwerfungsvorgänge beim Formatieren eines Laufwerks. Übergeben Sie dazu die folgenden Parameter an mkfs.ext4:

    -E lazy_itable_init=0,lazy_journal_init=0,discard
    

    Der Parameter lazy_journal_init=0 funktioniert nicht auf Instanzen mit CentOS 6- oder RHEL 6-Images. Formatieren Sie für VMs, die diese Betriebssysteme verwenden, den Persistent Disk ohne diesen Parameter.

    -E lazy_itable_init=0,discard
    
  • Aktivieren Sie Verwerfungsvorgänge beim Bereitstellen eines Laufwerks. Übergeben Sie dazu das folgende Flag an den Befehl mount:

    -o discard
    

Persistent Disk funktioniert gut mit aktivierten Verwerfungsvorgängen. Optional können Sie doch auch fstrim in regelmäßigen Abständen zusätzlich zu oder anstelle von Verwerfungsvorgängen ausführen. Wenn Sie keine Verwerfungsvorgänge verwenden, führen Sie fstrim aus, bevor Sie einen Snapshot Ihres Bootlaufwerks erstellen. Durch das Trimmen des Dateisystems können Sie kleinere Snapshot-Images erstellen und dadurch die Kosten für deren Speicherung reduzieren.

Readahead-Wert anpassen

Zur Verbesserung der E/A-Leistung nutzen Betriebssysteme Techniken wie Readahead. Dabei werden von einer Datei mehr Daten als angefordert in den Arbeitsspeicher gelesen, da davon ausgegangen wird, dass nachfolgende Lesevorgänge diese Daten benötigen. Ein höherer Readahead-Wert erhöht den Durchsatz, allerdings auf Kosten des Arbeitsspeichers und der IOPS-Werte. Ein niedrigerer Readahead-Wert erhöht die IOPS-Werte, jedoch zulasten des Durchsatzes.

Auf Linux-Systemen können Sie den Readahead-Wert mit dem Befehl "blockdev" abrufen und festlegen:

$ sudo blockdev --getra /dev/DEVICE_ID
$ sudo blockdev --setra VALUE /dev/DEVICE_ID

Der Readahead-Wert ist <desired_readahead_bytes> / 512 Byte.

Beispiel: Bei einem 8-MB-Readahead sind 8 MB = 8.388.608 Byte (8 * 1024 * 1024).

8388608 bytes / 512 bytes = 16384

Legen Sie für "blockdev" 16384 fest:

$ sudo blockdev --setra 16384 /dev/DEVICE_ID

VM ändern oder neue VM erstellen

Für jeden VM-Maschinentyp gibt es Limits, die sich auf die Leistung der angehängten Laufwerke auswirken können. Zu diesen Limits gehören:

  • Die Leistung von Persistent Disk erhöht sich, wenn die Anzahl der verfügbaren vCPUs zunimmt.
  • Hyperdisk wird nicht von allen Maschinentypen unterstützt.
  • Die Preise für ausgehenden Netzwerktraffic erhöhen sich, wenn die Anzahl der verfügbaren vCPUs zunimmt.

Freie CPUs sicherstellen

Für das Lesen und Schreiben in nichtflüchtigen Speicher sind CPU-Zyklen auf der VM erforderlich. Wenn Sie sehr hohe, konsistente IOPS-Level erreichen möchten, benötigen Sie freie CPUs für die E/A-Verarbeitung.

Wenn Sie die Anzahl der mit Ihrer VM verfügbaren vCPUs erhöhen möchten, können Sie eine neue VM erstellen oder den Maschinentyp einer VM-Instanz bearbeiten.

Neue VM erstellen, um neue Funktionen zu erhalten

Neuere Laufwerkstypen werden nicht von allen Maschinenserien oder Maschinentypen unterstützt. Hyperdisk bietet höhere IOPS- oder Durchsatzraten für Ihre Arbeitslasten, ist jedoch derzeit nur mit wenigen Maschinen verfügbar und erfordert mindestens 64 vCPUs.

Neue VM-Maschinen werden in der Regel auf neueren CPUs ausgeführt, die eine bessere Leistung als ihre Vorgänger bieten. Außerdem können neuere CPUs zusätzliche Funktionen unterstützen, um die Leistung Ihrer Arbeitslasten zu verbessern, z. B. Advanced Matrix Extensions (AMX) oder Intel Advanced Vector Extensions (AVX-512).

Nächste Schritte