In diesem Dokument werden die Maschinenfamilien, Maschinenserien und Maschinentypen beschrieben, aus denen Sie zum Erstellen einer VM-Instanz oder einer Bare-Metal-Instanz mit den benötigten Ressourcen auswählen können. Wenn Sie eine Compute-Instanz erstellen, wählen Sie einen Maschinentyp aus einer Maschinenfamilie aus, die die für diese Instanz verfügbaren Ressourcen bestimmt.
Sie können aus mehreren Maschinenfamilien wählen. Jede Maschinenfamilie ist weiter in Maschinenserien und vordefinierte Maschinentypen in jeder Serie unterteilt. In der N2-Maschinenreihe in der Maschinenfamilie für allgemeine Zwecke können Sie beispielsweise den Maschinentyp n2-standard-4
auswählen.
Alle Maschinenserien unterstützen Spot-VMs (und VMs auf Abruf) mit Ausnahme der M2-, M3- und X4-Maschinenserien sowie der C3-Bare-Metal-Maschinentypen.
- Für allgemeine Zwecke – das beste Preis-Leistungs-Verhältnis für eine Vielzahl von Arbeitslasten.
- Speicheroptimiert: Am besten geeignet für Arbeitslasten mit geringer Kernnutzung und hoher Speicherdichte.
- Computing-optimiert – die höchste Leistung pro Kern in Compute Engine und für rechenintensive Arbeitslasten optimiert
- Speicheroptimiert – ideal für arbeitsspeicherintensive Arbeitslasten, mit mehr Arbeitsspeicher pro Kern als bei anderen Maschinenfamilien und bis zu 12 TB Arbeitsspeicher.
- Beschleunigungsoptimiert – ideal für extrem parallelisierte CUDA-Computing-Arbeitslasten (Compute Unified Device Architecture), z. B. maschinelles Lernen (ML) und Hochleistungs-Computing (HPC). Diese Familie ist die beste Option für Arbeitslasten, die GPUs erfordern.
Compute Engine-Terminologie
In dieser Dokumentation werden die folgenden Begriffe verwendet:
Maschinenfamilie: Eine ausgewählte Reihe von Prozessor- und Hardwarekonfigurationen, die für bestimmte Arbeitslasten optimiert sind.
Maschinenserie: Maschinenfamilien werden weiter nach Serie, Generation und Prozessortyp klassifiziert.
- Jede Serie konzentriert sich auf einen anderen Aspekt der Rechenleistung oder Leistung. Die E-Serie bietet beispielsweise effiziente VMs zu niedrigen Kosten, während die C-Serie eine bessere Leistung bietet.
- Die Generation wird durch eine aufsteigende Zahl angegeben. Die N1-Serie für die Maschinenfamilie für allgemeine Zwecke ist beispielsweise die ältere Version der N2-Serie. Eine höhere Generations- oder Seriennummer weist normalerweise auf neuere zugrunde liegende CPU-Plattformen oder -Technologien hin. Die M3-Serie, die auf dem skalierbaren Intel Xeon-Prozessor der 3. Generation (Ice Lake) ausgeführt wird, ist beispielsweise eine neuere Generation als die M2-Serie, die auf dem skalierbaren Intel Xeon-Prozessor der 2. Generation (Cascade Lake) ausgeführt wird.
Generierung | Intel | Logo: AMD | Arm |
Maschinenreihe der 4. Generation | N4, C4, X4 | – | C4A |
3. Generation Maschinenserie | C3, H3, Z3, M3, A3 | C3D | – |
2. Generation Maschinenserie | N2, E2, C2, M2, A2, G2 | N2D, C2D, T2D, E2 | T2A |
- Maschinentyp: Jede Maschinenreihe bietet mindestens einen Maschinentyp. Jeder Maschinentyp bietet eine Reihe von Ressourcen für Ihre Compute-Instanz, z. B. vCPUs, Arbeitsspeicher, Laufwerke und GPUs. Wenn ein vordefinierter Maschinentyp nicht Ihren Anforderungen entspricht, können Sie bei einigen Maschinenserien auch einen benutzerdefinierten Maschinentyp erstellen.
In den folgenden Abschnitten werden die verschiedenen Maschinentypen beschrieben.
Vordefinierte Maschinentypen
Vordefinierte Maschinentypen haben eine nicht konfigurierbare Arbeitsspeicher- und vCPU-Anzahl. Bei vordefinierten Maschinentypen wird eine Vielzahl von vCPU-zu-Arbeitsspeicher-Verhältnissen verwendet:
highcpu
– 1 bis 3 GB Arbeitsspeicher pro vCPU, in der Regel 2 GB Arbeitsspeicher pro vCPU.standard
– 3 bis 7 GB Arbeitsspeicher pro vCPU, in der Regel 4 GB Arbeitsspeicher pro vCPU.highmem
– 7 bis 14 GB Arbeitsspeicher pro vCPU, in der Regel 8 GB Arbeitsspeicher pro vCPU.megamem
– 14 bis 19 GB Arbeitsspeicher pro vCPUhypermem
– 19 bis 24 GB Arbeitsspeicher pro vCPU, in der Regel 21 GB Arbeitsspeicher pro vCPUultramem
– 24 bis 31 GB Arbeitsspeicher pro vCPU
Ein Maschinentyp c3-standard-22
hat beispielsweise 22 vCPUs und als Maschinentyp standard
auch 88 GB Arbeitsspeicher.
Maschinentypen mit lokalem SSD
Maschinentypen mit lokalem SSD sind ein spezieller vordefinierter Maschinentyp. Der Name des Maschinentyps endet auf -lssd
. Wenn Sie eine Compute-Instanz mit einem dieser Maschinentypen erstellen, werden lokale SSD-Laufwerke automatisch an die Instanz angehängt.
Diese Maschinentypen sind mit den Maschinenserien C3 und C3D verfügbar. Andere Maschinenserien unterstützen auch lokale SSD-Laufwerke, verwenden aber keinen -lssd
-Maschinentyp. Weitere Informationen dazu, welche Maschinentypen Sie mit lokalen SSDs verwenden können, finden Sie unter Gültige Anzahl lokaler SSDs auswählen.
Bare-Metal-Maschinentypen
Bare-Metal-Maschinentypen sind ein spezieller vordefinierter Maschinentyp. Der Name des Maschinentyps endet auf -metal
. Wenn Sie eine Compute-Instanz mit einem dieser Maschinentypen erstellen, ist auf der Instanz kein Hypervisor installiert. Sie können Hyperdisk-Speicher genauso wie bei einer VM-Instanz an eine Bare-Metal-Instanz anhängen. Bare-Metal-Instanzen können in VPC-Netzwerken und Subnetzen genauso wie VM-Instanzen verwendet werden.
Diese Maschinentypen sind mit den C3- und X4-Maschinenserien verfügbar.
Benutzerdefinierte Maschinentypen
Wenn keiner der vordefinierten Maschinentypen Ihren Anforderungen entspricht, können Sie eine VM-Instanz mit einem benutzerdefinierten Maschinentyp für die Maschinenserien N und E in der Maschinenfamilie für allgemeine Zwecke erstellen. .
Die Nutzungskosten eines benutzerdefinierten Maschinentyps sind etwas höher als die eines gleichwertigen vordefinierten Maschinentyps. Außerdem gibt es Einschränkungen bei der Menge an Arbeitsspeicher und vCPUs, die Sie für einen benutzerdefinierten Maschinentyp auswählen können. Die On-Demand-Preise für benutzerdefinierte Maschinentypen enthalten einen Aufschlag von 5% auf die On-Demand- und Bindungspreise für vordefinierte Maschinentypen.
Mit erweitertem Arbeitsspeicher, der nur für benutzerdefinierte Maschinentypen verfügbar ist, können Sie eine Arbeitsspeichermenge für den benutzerdefinierten Maschinentyp ohne vCPU-basierte Einschränkung angeben. Anstatt die Standardarbeitsspeichergröße basierend auf der angegebenen Anzahl von vCPUs zu verwenden, können Sie eine Menge erweiterten Arbeitsspeichers bis zum Limit der Maschinenreihe angeben.
Weitere Informationen finden Sie unter VM mit benutzerdefiniertem Maschinentyp erstellen.
Maschinentypen mit gemeinsam genutztem Kern
Die E2- und die N1-Serie enthalten Maschinentypen mit gemeinsam genutztem Kern. Diese Maschinentypen haben einen physischen Kern, der eine kostengünstige Methode zum Ausführen kleiner, nicht ressourcenintensiver Anwendungen sein kann.
E2: Bietet zwei vCPUs für kurzzeitiges Bursting.
N1: bietet Maschinentypen mit gemeinsam genutztem Kern
f1-micro
undg1-small
, die bis zu 1 vCPU für kurzzeitiges Bursting zur Verfügung haben.
Empfehlungen für Maschinenfamilien und -serien
Die folgenden Tabellen enthalten Empfehlungen für verschiedene Arbeitslasten.
Arbeitslasten für allgemeine Zwecke | |||
---|---|---|---|
N4, N2, N2D, N1 | C4A, C4, C3, C3D | E2 | Tau T2D, Tau T2A |
Ausgewogenes Preis-Leistungs-Verhältnis für eine Vielzahl von Maschinentypen | Konstant hohe Leistung für eine Vielzahl von Arbeitslasten | Kosteneffizientes Computing für den Alltag | Optimale Leistungs-Kosten-Verhältnis pro Kern für Arbeitslasten mit horizontaler Skalierung |
|
|
|
|
Optimierte Arbeitslasten |
|||
---|---|---|---|
Speicheroptimiert | Computing-optimiert | Speicheroptimiert | Beschleunigungsoptimiert |
Z3 | H3, C2, C2D | X4, M3, M2, M1 | A3, A2, G2 |
Höchstes Verhältnis von Blockspeicher zu Rechenoperationen für speicherintensive Arbeitslasten | Ultra-hohe Leistung für rechenintensive Arbeitslasten | Höchstes Verhältnis von Arbeitsspeicher pro Rechenoperationen für arbeitsspeicherintensive Arbeitslasten | Für beschleunigte Hochleistungs-Computing-Arbeitslasten optimiert |
|
|
|
|
Nachdem Sie eine Compute-Instanz erstellt haben, können Sie die Größenempfehlungen verwenden, um die Ressourcennutzung basierend auf Ihrer Arbeitslast zu optimieren. Weitere Informationen finden Sie unter Empfehlungen für Maschinentypen für VMs anwenden.
Anleitung für Maschinenfamilien für allgemeine Zwecke
Die Maschinenfamilie für allgemeine Zwecke bietet mehrere Maschinenserien mit dem besten Preis-Leistungs-Verhältnis für eine Vielzahl von Arbeitslasten.
Compute Engine bietet Maschinenserien für allgemeine Zwecke, die entweder in der x86- oder der ARM-Architektur ausgeführt werden.
x86
- Die C4-Maschinenserie ist auf der Intel Emerald Rapids-CPU-Plattform verfügbar und wird von Titanium unterstützt. C4-Maschinentypen sind für eine konstant hohe Leistung optimiert und können auf bis zu 192 vCPUs mit 1,5 TB DDR5-Arbeitsspeicher skaliert werden. C4 ist in den Konfigurationen
highcpu
(2 GB pro vCPU),standard
(3,75 GB pro vCPU) undhighmem
(7,75 GB pro vCPU) verfügbar. - Die N4-Maschinenserie ist auf der Intel Emerald Rapids-CPU-Plattform verfügbar und wird von Titanium unterstützt. N4-Maschinentypen sind sowohl mit vordefinierten als auch mit benutzerdefinierten Formen für Flexibilität und Kosten optimiert und können auf bis zu 80 vCPUs mit 640 GB DDR5-Arbeitsspeicher skaliert werden. N4 ist in den Konfigurationen
highcpu
(2 GB pro vCPU),standard
(4 GB pro vCPU) undhighmem
(8 GB pro vCPU) verfügbar. - Die N2-Maschinenserie hat bis zu 128 vCPUs und 8 GB Arbeitsspeicher pro vCPU und ist auf den CPU-Plattformen Intel Ice Lake und Intel Cascade Lake verfügbar.
- Die N2D-Maschinenserien haben bis zu 224 vCPUs und 8 GB Arbeitsspeicher pro vCPU und sind auf AMD EPYC Rome-Plattformen der zweiten Generation und AMD EPYC Milan-Plattformen der dritten Generation verfügbar.
- Die C3-Maschinenserie bietet bis zu 176 vCPUs und 2, 4 oder 8 GB Arbeitsspeicher pro vCPU auf der Intel Sapphire Rapids-CPU-Plattform und Titanium. C3-Instanzen sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten.
- Die C3D-Maschinenserie bietet bis zu 360 vCPUs und 2, 4 oder 8 GB Arbeitsspeicher pro vCPU auf der AMD EPYC Genoa CPU-Plattform und Titanium. C3D-Instanzen sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten.
- Die E2-Maschinenserie hat bis zu 32 virtuelle Kerne (vCPUs) mit bis zu 128 GB Arbeitsspeicher und maximal 8 GB pro vCPU sowie die niedrigsten Kosten aller Maschinenserien. Die E2-Maschinenserie hat eine vordefinierte CPU-Plattform, die entweder einen Intel-Prozessor oder einen AMD EPYC Rome-Prozessor der zweiten Generation ausführt. Der Prozessor wird beim Erstellen der Instanz für Sie ausgewählt. Diese Maschinenserie bietet eine Vielzahl von Computing-Ressourcen für den günstigsten Preis in Compute Engine, insbesondere in Kombination mit Rabatten für zugesicherte Nutzung.
- Tau T2D-Maschinen bieten einen optimierten Satz von Funktionen zum Hochskalieren. Jede VM-Instanz kann bis zu 60 vCPUs und 4 GB Arbeitsspeicher pro vCPU haben und ist auf AMD EPYC Milan-Prozessoren der dritten Generation verfügbar. Die Maschinenserie Tau T2D verwendet kein Cluster-Threading. Daher entspricht eine vCPU einem gesamten Kern.
- VMs der N1-Maschinenserie können bis zu 96 vCPUs und bis zu 6,5 GB Arbeitsspeicher pro vCPU haben und sind auf den CPU-Plattformen Intel Sandy Bridge, Ivy Bridge, Haswell, Broadwell und Skylake verfügbar.
Arm
Die C4A-Maschinenreihe ist die zweite Maschinenreihe in Google Cloud, die auf Arm-Prozessoren ausgeführt wird, und die erste, die auf der Google Axion-CPU ausgeführt wird, die die Arm V9-Architektur unterstützt. C4A-VMs werden von der Titanium-IPU mit Netzwerkauslagerungen unterstützt. Dadurch wird die VM-Leistung verbessert, da die Verarbeitung auf dem Host reduziert wird.
C4A-VMs können bis zu 72 vCPUs mit bis zu 8 GB Arbeitsspeicher pro vCPU haben und unterstützen eine einzelne UMA-Domain. Bei C4A-VMs wird kein gleichzeitiges Multithreading (SMT) verwendet. Eine vCPU in einer C4A-Instanz entspricht einem ganzen Kern.
Die Tau T2A-Maschinenreihe ist die erste Maschinenreihe in Google Cloud, die auf Arm-Prozessoren ausgeführt wird. Tau T2A-Maschinen sind für ein attraktives Preis-Leistungs-Verhältnis optimiert. Jede VM kann bis zu 48 vCPUs mit 4 GB Arbeitsspeicher pro vCPU haben. Die Tau T2A-Maschinenserie wird auf einem Ampere Altra-Prozessor mit 64 Kernen, einem Arm-Befehlssatz und einer Kernkernfrequenz von 3 GHz ausgeführt. Tau T2A-Maschinentypen unterstützen einen einzelnen NUMA-Knoten. Eine vCPU entspricht einem gesamten Kern.
Leitfaden zur speicheroptimierten Maschinenfamilie
Die speicheroptimierte Maschinenfamilie eignet sich ideal für horizontal skalierbare Datenbanken, Datenbanken mit horizontaler Skalierung, Loganalysen, Data Warehouse-Angebote und andere Datenbankarbeitslasten. Diese Familie bietet eine hohe Dichte und eine hohe Leistung bei lokalen SSDs.
- Z3-Instanzen können bis zu 176 vCPUs, 1.408 GB Arbeitsspeicher und 36 TiB lokalen SSD haben. Z3 wird auf dem skalierbaren Intel Xeon-Prozessor (Codename Sapphire Rapids) mit DDR5-Arbeitsspeicher und Titanium-Auslagerungsprozessoren ausgeführt. Z3 vereint die neuesten Innovationen in den Bereichen Computing, Netzwerk und Speicher auf einer einzigen Plattform. Z3-Instanzen sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten.
Leitfaden zur computing-optimierten Maschinenfamilie
Die computing-optimierte Maschinenfamilie ist für die Ausführung rechengebundener Anwendungen optimiert, da sie die höchste Leistung pro Kern bietet.
- H3-Instanzen bieten 88 vCPUs und 352 GB DDR5-Arbeitsspeicher. H3-Instanzen werden auf der Intel Sapphire Rapids-CPU-Plattform und Titanium-Auslagerungsprozessoren ausgeführt. H3-Instanzen sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten. H3 bietet Leistungsverbesserungen für eine Vielzahl von HPC-Arbeitslasten, z. B. molekulare Dynamik, Berechnungsgeographie, Finanzrisikoanalyse, Wettermodellierung, Frontend- und Backend-EDA und Berechnungsdynamik.
- C2-Instanzen bieten bis zu 60 vCPUs und 4 GB Arbeitsspeicher pro vCPU und sind auf der CPU-Plattform Intel Cascade Lake verfügbar.
- C2D-Instanzen bieten bis zu 112 vCPUs und bis zu 8 GB Arbeitsspeicher pro vCPU und sind auf der AMD EPYC Milan-Plattform der dritten Generation verfügbar.
Leitfaden zur speicheroptimierten Maschinenfamilie
Die speicheroptimierte Maschinenfamilie umfasst Maschinenreihen, die sich ideal für OLAP- und OLTP-SAP-Arbeitslasten, genomische Modellierung, elektronische Designautomatisierung und Ihre speicherintensivsten HPC-Arbeitslasten eignen. Diese Familie bietet mit bis zu 32 TB mehr Arbeitsspeicher pro Kern als jede andere Maschinenfamilie.
- X4-Bare-Metal-Instanzen bieten bis zu 1.920 vCPUs mit 17 GB Arbeitsspeicher pro vCPU. X4 bietet Maschinentypen mit 16, 24 und 32 TB Arbeitsspeicher und ist auf der CPU-Plattform Intel Sapphire Rapids verfügbar.
- M3-Instanzen bieten bis zu 128 vCPUs mit bis zu 30,5 GB Arbeitsspeicher pro vCPU und sind auf der Intel Ice Lake-CPU-Plattform verfügbar.
- M2-Instanzen sind als Maschinentypen mit 6 TB, 9 TB und 12 TB verfügbar und auf der Intel Cascade Lake-CPU-Plattform verfügbar.
- M1-Instanzen bieten bis zu 160 vCPUs, 14, 9 GB bis 24 GB Arbeitsspeicher pro vCPU und sind auf den CPU-Plattformen Intel Skylake und Broadwell verfügbar.
Leitfaden zur beschleunigungsoptimierten Maschinenfamilie
Die beschleunigungsoptimierte Maschinenfamilie eignet sich ideal für massenhaft parallelisierte CUDA-Computing-Arbeitslasten (Compute Unified Device Architecture), wie: Machine Learning (ML) und Hochleistungs-Computing (HPC). Diese Familie ist die optimale Wahl für Arbeitslasten, die GPUs erfordern.
- A3-Instanzen bieten bis zu 208 vCPUs mit 9 GB Arbeitsspeicher pro vCPU. Jeder A3-Maschinentyp hat entweder 1, 2, 4 oder 8 angehängte NVIDIA H100-GPUs. A3s haben eine maximale Netzwerkbandbreite von bis zu 1.800 Gbit/s und sind auf der Intel Sapphire Rapids-CPU-Plattform verfügbar.
- A2-Instanzen bieten 12 bis 96 vCPUs und bis zu 1.360 GB Arbeitsspeicher. Jeder A2-Maschinentyp hat entweder 1, 2, 4, 8 oder 16 angehängte NVIDIA A100-GPUs. A2-Instanzen haben eine maximale Netzwerkbandbreite von bis zu 100 Gbit/s und sind auf der Intel Cascade Lake-CPU-Plattform verfügbar.
- G2-Instanzen bieten 4 bis 96 vCPUs und bis zu 432 GB Arbeitsspeicher. Jeder G2-Maschinentyp hat entweder 1, 2, 4 oder 8 NVIDIA L4-GPUs. G2-Instanzen haben eine maximale Netzwerkbandbreite von bis zu 100 Gbit/s und sind auf der Intel Cascade Lake-CPU-Plattform verfügbar.
Maschinenserienvergleich
Verwenden Sie die folgende Tabelle, um jede Maschinenfamilien zu vergleichen und zu ermitteln, welche Familie für Ihre Arbeitslast geeignet ist. Wenn Sie sich danach immer noch nicht sicher sind, welche Familie für Ihre Arbeitslast am besten geeignet ist, beginnen Sie mit der Maschinenfamilie für allgemeine Zwecke. Weitere Informationen zu allen unterstützten Prozessoren finden Sie unter CPU-Plattformen.
Informationen dazu, wie sich Ihre Auswahl auf die Leistung von an Compute-Instanzen angehängten Laufwerk-Volumes auswirkt, finden Sie unter:
- Nichtflüchtiger Speicher: Leistung von Laufwerken nach Maschinentyp und Anzahl der vCPUs
- Google Cloud Hyperdisk: Hyperdisk-Leistungsgrenzen
Vergleichen Sie die Eigenschaften verschiedener Maschinenserien von C4A bis G2. Sie können bestimmte Attribute im Feld Instanzeigenschaften zum Vergleich auswählen auswählen, um sie für alle Maschinenserien in der folgenden Tabelle zu vergleichen.
Für allgemeine Zwecke | Für allgemeine Zwecke | Für allgemeine Zwecke | Für allgemeine Zwecke | Für allgemeine Zwecke | Für allgemeine Zwecke | Für allgemeine Zwecke | Für allgemeine Zwecke | Für allgemeine Zwecke | Für allgemeine Zwecke | Kostenoptimiert | Speicheroptimiert | Computing-optimiert | Computing-optimiert | Computing-optimiert | Speicheroptimiert | Speicheroptimiert | Speicheroptimiert | Speicheroptimiert | Beschleunigungsoptimiert | Beschleunigungsoptimiert | Beschleunigungsoptimiert | Beschleunigungsoptimiert |
Google Axion | Intel Emerald Rapids | Intel Sapphire Rapids | AMD EPYC Genoa | Intel Emerald Rapids | Intel Cascade Lake und Ice Lake | AMD EPYC Rome und EPYC Milan | Intel Skylake, Broadwell, Haswell, Sandy Bridge und Ivy Bridge | AMD EPYC Milan | Ampere Altra | Intel Skylake, Broadwell und Haswell, AMD EPYC Rome und EPYC Milan | Intel Sapphire Rapids | Intel Sapphire Rapids | Intel Cascade Lake | AMD EPYC Milan | Intel Sapphire Rapids | Intel Ice Lake | Intel Cascade Lake | Intel Skylake und Broadwell | Intel Skylake, Broadwell, Haswell, Sandy Bridge und Ivy Bridge | Intel Sapphire Rapids | Intel Cascade Lake | Intel Cascade Lake |
Arm | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | Arm | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 |
1 bis 72 | 2 bis 192 | 4 bis 176 | 4 bis 360 | 2 bis 80 | 2 bis 128 | 2 bis 224 | 1 bis 96 | 1 bis 60 | 1 bis 48 | 0,25 bis 32 | 88 oder 176 | 88 | 4 bis 60 | 2 bis 112 | 960 bis 1.920 | 32 bis 128 | 208 bis 416 | 40 bis 160 | 1 bis 96 | 208 | 12 bis 96 | 4 bis 96 |
Core | Thread | Thread | Thread | Thread | Thread | Thread | Thread | Core | Core | Thread | Thread | Core | Thread | Thread | Thread | Thread | Thread | Thread | Thread | Thread | Thread | Thread |
2 bis 576 GB | 2 bis 1.488 GB | 4 bis 1.408 GB | 4 bis 2.880 GB | 2 bis 640 GB | 2 bis 864 GB | 2 bis 896 GB | 1,8 bis 624 GB | 4 bis 240 GB | 4 bis 192 GB | 1 bis 128 GB | 704 oder 1.408 GB | 352 GB | 16 bis 240 GB | 4 bis 896 GB | 16.384 bis 32.768 GB | 976 bis 3.904 GB | 5.888 bis 11.776 GB | 961 bis 3.844 GB | 3.75 bis 624 GB | 1872 GB | 85 bis 1360 GB | 16 bis 432 GB |
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||||
— | — | — | — | — | — | — | — | |||||||||||||||
VM | VM | VM und Bare Metal | VM | VM | VM | VM | VM | VM | VM | VM | VM | VM | VM | VM | Bare Metal | VM | VM | VM | VM | VM | VM | VM |
— | — | — | — | — | — | — | — | — | — | — | — | |||||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | ||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | ||||
NVMe | NVMe | NVMe | NVMe | NVMe | SCSI und NVMe | SCSI und NVMe | SCSI und NVMe | SCSI und NVMe | NVMe | SCSI | NVMe | NVMe | SCSI und NVMe | SCSI und NVMe | NVMe | NVMe | SCSI | SCSI und NVMe | SCSI und NVMe | NVMe | SCSI und NVMe | NVMe |
— | — | — | — | — | — | — | — | — | — | — | — | — | ||||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | ||||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | ||||
— | — | — | — | — | — | — | — | — | ||||||||||||||
0 | 0 | 12 TiB | 12 TiB | 0 | 9 TiB | 9 TiB | 9 TiB | 0 | 0 | 0 | 36 TiB | 0 | 3 TiB | 3 TiB | 0 | 3 TiB | 0 | 3 TiB | 9 TiB | 6 TiB | 3 TiB | 3 TiB |
— | — | — | — | — | Zonal und regional | Zonal und regional | Zonal und regional | Zonal | Zonal | Zonal und regional | — | — | Zonal | Zonal | — | — | Zonal | Zonal | Zonal und regional | — | Zonal | — |
— | — | Zonal | Zonal | — | Zonal und regional | Zonal und regional | Zonal und regional | Zonal | Zonal | Zonal und regional | Zonal | Zonal | Zonal | Zonal | — | Zonal | Zonal | Zonal | Zonal und regional | Zonal | Zonal | Zonal |
— | — | Zonal | Zonal | — | Zonal und regional | Zonal und regional | Zonal und regional | Zonal | Zonal | Zonal und regional | Zonal | — | Zonal | Zonal | — | Zonal | Zonal | Zonal | Zonal und regional | Zonal | Zonal | Zonal |
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | ||||
gVNIC | gVNIC | gVNIC und IDPF | gVNIC | gVNIC | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | gVNIC | gVNIC und VirtIO-Net | gVNIC | gVNIC | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | IDPF | gVNIC | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | gVNIC | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net |
10 bis 50 Gbit/s | 10 bis 100 Gbit/s | 23 bis 100 Gbit/s | 20 bis 100 Gbit/s | 10 bis 50 Gbit/s | 10 bis 32 Gbit/s | 10 bis 32 Gbit/s | 2 bis 32 Gbit/s | 10 bis 32 Gbit/s | 10 bis 32 Gbit/s | 1 bis 16 Gbit/s | 23 bis 100 Gbit/s | Bis zu 200 Gbit/s | 10 bis 32 Gbit/s | 10 bis 32 Gbit/s | bis zu 100 Gbit/s | bis zu 32 Gbit/s | bis zu 32 Gbit/s | bis zu 32 Gbit/s | 2 bis 32 Gbit/s | bis zu 1.800 Gbit/s | 24 bis 100 Gbit/s | 10 bis 100 Gbit/s |
50 bis 100 Gbit/s | 50 bis 200 Gbit/s | 50 bis 200 Gbit/s | 50 bis 200 Gbit/s | — | 50 bis 100 Gbit/s | 50 bis 100 Gbit/s | — | — | — | — | 50 bis 200 Gbit/s | — | 50 bis 100 Gbit/s | 50 bis 100 Gbit/s | — | 50 bis 100 Gbit/s | — | — | 50 bis 100 Gbit/s | bis zu 1.800 Gbit/s | 50 bis 100 Gbit/s | 50 bis 100 Gbit/s |
0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 | 8 | 16 | 8 |
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||||
ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | Ressourcenbasierte CUDs | — | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | Ressourcenbasierte CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs |
— | — | — | ||||||||||||||||||||
1,28 | 1,46 | 1,00 | 2,29 | 1,04 | 1,43 | 1,50 | 1,00 | 0,96 |
GPUs und Compute-Instanzen
GPUs werden verwendet, um Arbeitslasten zu beschleunigen, und werden für N1-, A3-, A2- und G2-VM-Instanzen unterstützt. Bei VMs, die N1-Maschinentypen verwenden, können Sie GPUs während oder nach der VM-Erstellung an die VM anhängen. Bei VMs, die A2- oder G2-Maschinentypen verwenden, werden die GPUs beim Erstellen der VM automatisch angehängt. GPUs können nicht mit anderen Maschinenserien verwendet werden.
Für VM-Instanzen mit einer geringeren Anzahl von GPUs ist eine Höchstanzahl von vCPUs vorgegeben. Im Allgemeinen ermöglicht es Ihnen eine höhere Anzahl von GPUs, Instanzen mit einer größeren Anzahl von vCPUs und mehr Arbeitsspeicher zu erstellen. Weitere Informationen finden Sie unter GPUs in Compute Engine.
Nächste Schritte
- VM erstellen und starten
- VM mit einem benutzerdefinierten Maschinentyp erstellen
- Kurzanleitung: Linux-VM verwenden
- Kurzanleitung: Windows-VM verwenden
- Weitere Informationen zum Anhängen von Blockspeicher an Ihre VMs.