Leitfaden zu Ressourcen und Vergleichen für Maschinenfamilien


In diesem Dokument werden die Maschinenfamilien, Maschinenserien und Maschinentypen beschrieben, aus denen Sie zum Erstellen einer VM-Instanz mit den benötigten Ressourcen auswählen können. Wenn Sie eine VM erstellen, wählen Sie einen Maschinentyp aus einer Maschinenfamilie aus, die die für diese VM verfügbaren Ressourcen bestimmt. Sie können aus mehreren Maschinenfamilien wählen. Jede Maschinenfamilie ist weiter in Maschinenserien und vordefinierte Maschinentypen in jeder Serie unterteilt. In der N2-Serie in der Maschinentypen für allgemeine Zwecke können Sie beispielsweise den Maschinentyp n2-standard-4 auswählen.

Alle Maschinenserien unterstützen Spot-VMs (und VMs auf Abruf) mit Ausnahme der M2-, M3- und H3-Maschinenserien.

Hinweis: Dies ist eine Liste von Compute Engine-Maschinenfamilien. Eine ausführliche Erläuterung der einzelnen Maschinenfamilien finden Sie auf den folgenden Seiten:
  • Für allgemeine Zwecke – das beste Preis-Leistungs-Verhältnis für eine Vielzahl von Arbeitslasten.
  • Speicheroptimiert – am besten für Arbeitslasten mit geringer Kernnutzung und hoher Speicherdichte.
  • Computing-optimiert – die höchste Leistung pro Kern in Compute Engine und für rechenintensive Arbeitslasten optimiert
  • Speicheroptimiert – ideal für arbeitsspeicherintensive Arbeitslasten, mit mehr Arbeitsspeicher pro Kern als bei anderen Maschinenfamilien und bis zu 12 TB Arbeitsspeicher.
  • Beschleunigungsoptimiert – ideal für extrem parallelisierte CUDA-Computing-Arbeitslasten (Compute Unified Device Architecture), z. B. maschinelles Lernen (ML) und Hochleistungs-Computing (HPC). Diese Familie ist die beste Option für Arbeitslasten, die GPUs erfordern.

VM-Terminologie

In dieser Dokumentation werden die folgenden Begriffe verwendet:

  • Maschinenfamilie: Eine ausgewählte Reihe von Prozessor- und Hardwarekonfigurationen, die für bestimmte Arbeitslasten optimiert sind. Wenn Sie eine VM erstellen, wählen Sie einen vordefinierten oder benutzerdefinierten Maschinentyp aus Ihrer bevorzugten Maschinenfamilie.

  • Maschinenserie: Maschinenfamilien werden weiter nach Serie und Generierung klassifiziert. Die N1-Serie für die Maschinenfamilie für allgemeine Zwecke ist beispielsweise die ältere Version der N2-Serie. Eine höhere Generationsnummer oder Seriennummer weist normalerweise auf neuere zugrunde liegende CPU-Plattformen oder -Technologien hin. Die M3-Serie ist beispielsweise die neuere Generation der M2-Serie.

  • Maschinentyp: Jede Maschinentypen hat vordefinierte Maschinentypen, die eine Reihe von Ressourcen für Ihre VM bereitstellen. Wenn ein vordefinierter Maschinentyp nicht Ihren Anforderungen entspricht, können Sie bei einigen Maschinenserien auch einen benutzerdefinierten Maschinentyp erstellen.

Generierung Intel Logo: AMD Arm
3. Generation Maschinenserie C3, Z3, H3, M3, A3 C3D
2. Generation Maschinenserie E2, N2, C2, M2, A2, G2 N2D, C2D, T2D, E2 T2A
1. Generation Maschinenserie N1, M1

Empfehlungen für Maschinenfamilien und -serien

Die folgenden Tabellen enthalten Empfehlungen für verschiedene Arbeitslasten.

Arbeitslasten für allgemeine Zwecke
E2 N2, N2D, N1 C3, C3D Tau T2D, Tau T2A
Kosteneffizientes Computing für den Alltag Ausgewogenes Preis-Leistungs-Verhältnis für eine Vielzahl von Maschinentypen Konstant hohe Leistung für eine Vielzahl von Arbeitslasten Optimale Leistungs-Kosten-Verhältnis pro Kern für Arbeitslasten mit horizontaler Skalierung
  • Webserver mit geringem Traffic
  • Backoffice-Apps
  • Containerisierte Mikrodienste
  • Mikrodienste
  • Virtuelle Desktops
  • Entwicklungs- und Testumgebungen
  • Web- und Anwendungsserver mit geringem Traffic
  • Containerisierte Mikrodienste
  • Business-Intelligence-Anwendungen
  • Virtuelle Desktops
  • CRM-Anwendungen
  • Datenpipelines
  • Web- und Anwendungsserver mit hohem Traffic
  • Datenbanken
  • In-Memory-Caches
  • Ad-Server
  • Game Servers
  • Datenanalyse
  • Medienstreaming und -transcodierung
  • CPU-basiertes ML-Training und -Inferenz
  • Arbeitslasten mit horizontaler Skalierung
  • Web-Serving
  • Containerisierte Mikrodienste
  • Medientranscodierung
  • Umfassende Java-Anwendungen

  • Optimierte Arbeitslasten
    Speicheroptimiert Computing-optimiert Speicheroptimiert Beschleunigungsoptimiert
    Z3 (Vorschau) H3, C2, C2D M3, M2, M1 A3, A2, G2
    Höchstes Verhältnis von Blockspeicher zu Rechenressourcen für speicherintensive Arbeitslasten Ultra-hohe Leistung für rechenintensive Arbeitslasten Höchstes Verhältnis von Arbeitsspeicher pro Rechenoperationen für arbeitsspeicherintensive Arbeitslasten Für beschleunigte Hochleistungs-Computing-Arbeitslasten optimiert
    • Dateiserver
    • Flash-optimierte Datenbanken
    • Analysen mit Hochskalierung
    • Andere Datenbanken
    • Computing-gebundene Arbeitslasten
    • Hochleistungs-Webserver
    • Game Servers
    • Hochleistungs-Computing (HPC)
    • Medientranscodierung
    • Arbeitslasten modellieren und simulieren
    • KI/ML
    • Mittlere bis sehr große SAP HANA-In-Memory-Datenbanken
    • In-Memory-Datenspeicher wie Redis
    • Simulation
    • Hochleistungsdatenbanken wie Microsoft SQL Server, MySQL
    • Electronic Design-Automatisierung
    • Generative KI-Modelle wie die folgenden:
      • Large Language Models (LLM)
      • Diffusion-Modelle
      • Generative Adversarial Networks (GAN)
    • CUDA-fähiges ML-Training und -Inferenz
    • Hochleistungs-Computing (HPC)
    • Massiv parallelisierte Berechnungen
    • BERT Natural Language Processing
    • Deep Learning Recommendation Model (DLRM)
    • Videotranscodierung
    • Remote-Visualisierungs-Workstation

    Nachdem Sie eine VM erstellt haben, können Sie die Größenempfehlungen verwenden, um die Ressourcennutzung basierend auf Ihrer Arbeitslast zu optimieren. Weitere Informationen finden Sie unter Empfehlungen für Maschinentypen für VMs anwenden.

    Anleitung für Maschinenfamilien für allgemeine Zwecke

    Die Maschinenfamilie für allgemeine Zwecke bietet mehrere Maschinenserien mit dem besten Preis-Leistungs-Verhältnis für eine Vielzahl von Arbeitslasten.

    Compute Engine bietet Maschinenserien für allgemeine Zwecke, die entweder in der x86- oder der ARM-Architektur ausgeführt werden.

    x86

    • Die E2-Maschinenserie hat bis zu 32 virtuelle Kerne (vCPUs) mit bis zu 128 GB Arbeitsspeicher und maximal 8 GB pro vCPU sowie die niedrigsten Kosten aller Maschinenserien. Die E2-Maschinenserie hat eine vordefinierte CPU-Plattform, die entweder einen Intel-Prozessor oder einen AMD EPYC Rome-Prozessor der zweiten Generation ausführt. Der Prozessor wird beim Erstellen der VM für Sie ausgewählt. Diese Maschinenserie bietet eine Vielzahl von Computing-Ressourcen für den günstigsten Preis in Compute Engine, insbesondere in Kombination mit Rabatten für zugesicherte Nutzung.
    • N2-Maschinenserien haben bis zu 128 vCPUs und 8 GB Arbeitsspeicher pro vCPU und sind auf den CPU-Plattformen Intel Ice Lake und Intel Cascade Lake verfügbar.
    • N2D-Maschinenserien haben bis zu 224 vCPUs und 8 GB Arbeitsspeicher pro vCPU und sind auf AMD EPYC Rome-Plattformen der zweiten Generation und AMD EPYC Milan-Plattformen der dritten Generation verfügbar.
    • Die C3-Maschinenserie bietet bis zu 176 vCPUs und 2, 4 oder 8 GB Arbeitsspeicher pro vCPU auf der Intel Sapphire Rapids-CPU-Plattform und der benutzerdefinierten Intel Infrastructure Processing Unit (IPU) von Google. C3-VMs sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten.
    • Die C3D-Maschinenserie bietet bis zu 360 vCPUs und 2, 4 oder 8 GB Arbeitsspeicher pro vCPU auf der AMD EPYC Genoa CPU-Plattform und der benutzerdefinierten Intel Infrastructure Processing Unit (IPU) von Google. C3-VMs sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten.
    • Tau T2D-Maschinen bieten einen optimierten Satz von Funktionen zum Hochskalieren. Jede VM kann bis zu 60 vCPUs und 4 GB Arbeitsspeicher pro vCPU haben und ist auf AMD EPYC Milan-Prozessoren der dritten Generation verfügbar. Die Maschinenserie Tau T2D verwendet kein Cluster-Threading. Daher entspricht eine vCPU einem gesamten Kern.
    • VMs der N1-Maschinenserie können bis zu 96 vCPUs und bis zu 6,5 GB Arbeitsspeicher pro vCPU haben und sind auf den CPU-Plattformen Intel Sandy Bridge, Ivy Bridge, Haswell, Broadwell und Skylake verfügbar.

    Die E2- und die N1-Serie enthalten Maschinentypen mit gemeinsam genutztem Kern. Diese Maschinentypen teilen sich einen physischen Kern, was eine kostengünstige Methode zum Ausführen kleiner, nicht ressourcenintensiver Anwendungen sein kann.

    • E2: bietet 2 vCPUs für kurzzeitiges Bursting.

    • N1: bietet Maschinentypen mit gemeinsam genutztem Kern f1-micro und g1-small, die bis zu 1 vCPU für kurzzeitiges Bursting zur Verfügung haben.

    Arm

    • Tau T2A-Maschinen sind die erste Maschinenreihe in Google Cloud, die auf Arm-Prozessoren ausgeführt werden. Die Tau T2A-Maschine ist für ein attraktives Preis-Leistungs-Verhältnis optimiert. Jede VM kann bis zu 48 vCPUs mit 4 GB Arbeitsspeicher pro vCPU haben. Die Tau T2A-Maschinenserie wird auf einem Ampere Altra-Prozessor mit 64 Kernen, einem Arm-Befehlssatz und einer Kernkernfrequenz von 3 GHz ausgeführt. Tau T2A-Maschinentypen unterstützen einen einzelnen NUMA-Knoten. Eine vCPU entspricht einem gesamten Kern.

    Leitfaden zur speicheroptimierten Maschinenfamilie

    Die speicheroptimierte Maschinenfamilie eignet sich ideal für horizontal skalierbare Datenbanken, Datenbanken mit horizontaler Skalierung, Loganalysen, Data Warehouse-Angebote und andere Datenbankarbeitslasten. Diese Familie bietet lokale SSDs mit hoher Dichte und hoher Leistung.

    • Z3-VMs können bis zu 176 vCPUs, 1.408 GB Arbeitsspeicher und 36 TiB lokale SSD haben. Z3 wird auf dem skalierbaren Intel Xeon-Prozessor (Codename Sapphire Rapids) mit DDR5-Arbeitsspeicher und Titanium-Auslagerungsprozessoren ausgeführt. Z3 fasst die neuesten Computing-, Netzwerk- und Speicherinnovationen auf einer Plattform zusammen. Z3-VMs sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten.

    Leitfaden zur computing-optimierten Maschinenfamilie

    Die computing-optimierte Maschinenfamilie ist für die Ausführung rechengebundener Anwendungen optimiert, da sie die höchste Leistung pro Kern bietet.

    • H3-VMs bieten 88 vCPUs und 352 GB DDR5-Arbeitsspeicher. H3-VMs werden auf der Intel Sapphire Rapids-CPU-Plattform und der benutzerdefinierten Intel Infrastructure Processing Unit (IPU) von Google ausgeführt. H3-VMs sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten. H3 bietet Leistungsverbesserungen für eine Vielzahl von HPC-Arbeitslasten, z. B. molekulare Dynamik, Berechnungsgeographie, Finanzrisikoanalyse, Wettermodellierung, Frontend- und Backend-EDA und Berechnungsdynamik.
    • C2-VMs bieten bis zu 60 vCPUs und 4 GB Arbeitsspeicher pro vCPU und sind auf der Intel Cascade Lake-CPU-Plattform verfügbar.
    • C2D-VMs bieten bis zu 112 vCPUs und bis zu 8 GB Arbeitsspeicher pro vCPU und sind auf der AMD EPYC Milan-Plattform der dritten Generation verfügbar.

    Leitfaden zur speicheroptimierten Maschinenfamilie

    Die speicheroptimierte Maschinenfamilie umfasst Maschinenreihen, die sich ideal für OLAP- und OLTP-SAP-Arbeitslasten, genomische Modellierung, elektronische Designautomatisierung und Ihre speicherintensivsten HPC-Arbeitslasten eignen. Diese Familie bietet mit bis zu 12 TB mehr Arbeitsspeicher pro Kern als jede andere Maschinenfamilie.

    • M1-VMs bieten bis zu 160 vCPUs, 14,9 GB bis 24 GB Arbeitsspeicher pro vCPU und sind auf den CPU-Plattformen Intel Skylake und Broadwell verfügbar.
    • M2-VMs sind als Maschinentypen mit 6 TB, 9 TB und 12 TB verfügbar und auf der Intel Cascade Lake-CPU-Plattform verfügbar.
    • M3-VMs bieten bis zu 128 vCPUs mit bis zu 30,5 GB Arbeitsspeicher pro vCPU und sind auf der Intel Ice Lake CPU-Plattform verfügbar.

    Leitfaden zur beschleunigungsoptimierten Maschinenfamilie

    Die beschleunigungsoptimierte Maschinenfamilie eignet sich ideal für massenhaft parallelisierte CUDA-Computing-Arbeitslasten (Compute Unified Device Architecture), wie: Machine Learning (ML) und Hochleistungs-Computing (HPC). Diese Familie ist die optimale Wahl für Arbeitslasten, die GPUs erfordern.

    • A3-VMs bieten 208 vCPUs und 1.872 GB Arbeitsspeicher und sind auf der CPU-Plattform "Intel Sapphire Rapids" verfügbar.
    • A2-VMs bieten 12 bis 96 vCPUs und bis zu 1.360 GB Arbeitsspeicher. Sie sind auf der Intel Cascade Lake-CPU-Plattform verfügbar.
    • G2-VMs bieten 4 bis 96 vCPUs und bis zu 432 GB Arbeitsspeicher. Sie sind auf der Intel Cascade Lake-CPU-Plattform verfügbar.

    Maschinenserienvergleich

    Verwenden Sie die folgende Tabelle, um jede Maschinenfamilien zu vergleichen und zu ermitteln, welche Familie für Ihre Arbeitslast geeignet ist. Wenn Sie sich danach immer noch nicht sicher sind, welche Familie für Ihre Arbeitslast am besten geeignet ist, beginnen Sie mit der Maschinenfamilie für allgemeine Zwecke. Weitere Informationen zu allen unterstützten Prozessoren finden Sie unter CPU-Plattformen.

    Informationen dazu, wie sich Ihre Auswahl auf die Leistung von an VMs angehängten Laufwerk-Volumes auswirkt, finden Sie unter:

    Vergleichen Sie die Eigenschaften verschiedener Maschinentypen von C3 bis G2. Sie können bestimmte Attribute im Feld VM-Attribute zum Vergleich auswählen auswählen, um sie für alle VM-Maschinentypen in der folgenden Tabelle zu vergleichen.

    Für allgemeine Zwecke Für allgemeine Zwecke Für allgemeine Zwecke Für allgemeine Zwecke Für allgemeine Zwecke Für allgemeine Zwecke Für allgemeine Zwecke Kostenoptimiert Speicheroptimiert Computing-optimiert Computing-optimiert Computing-optimiert Speicheroptimiert Speicheroptimiert Speicheroptimiert Beschleunigungsoptimiert Beschleunigungsoptimiert Beschleunigungsoptimiert Beschleunigungsoptimiert
    Intel Sapphire Rapids AMD EPYC Genoa Intel Cascade Lake und Ice Lake AMD EPYC Rome und EPYC Milan Intel Skylake, Broadwell, Haswell, Sandy Bridge und Ivy Bridge AMD EPYC Milan Ampere Altra Intel Skylake, Broadwell und Haswell, AMD EPYC Rome und EPYC Milan Intel Sapphire Rapids Intel Sapphire Rapids Intel Cascade Lake AMD EPYC Milan Intel Ice Lake Intel Cascade Lake Intel Skylake und Broadwell Intel Skylake, Broadwell, Haswell, Sandy Bridge und Ivy Bridge Intel Sapphire Rapids Intel Cascade Lake Intel Cascade Lake
    x86 x86 x86 x86 x86 x86 Arm x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86
    4 bis 176 4 bis 360 2 bis 128 2 bis 224 1 bis 96 1 bis 60 1 bis 48 0,25 bis 32 88 oder 176 88 4 bis 60 2 bis 112 32 bis 128 208 bis 416 40 bis 160 1 bis 96 208 12 bis 96 4 bis 96
    Thread Thread Thread Thread Thread Kernprodukt Kernprodukt Thread Thread Kernprodukt Thread Thread Thread Thread Thread Thread Thread Thread Thread
    4 bis 1.408 GB 4 bis 2.880 GB 2 bis 864 GB 2 bis 896 GB 1,8 bis 624 GB 4 bis 240 GB 4 bis 192 GB 1 bis 128 GB 704 oder 1.408 GB 352 GB 16 bis 240 GB 4 bis 896 GB 976 bis 3.904 GB 5.888 bis 11.776 GB 961 bis 3.844 GB 3.75 bis 624 GB 1872 GB 85 bis 1360 GB 16 bis 432 GB
    NVMe NVMe SCSI und NVMe SCSI und NVMe SCSI und NVMe SCSI und NVMe NVMe SCSI und NVMe NVMe NVMe SCSI und NVMe SCSI und NVMe NVMe SCSI SCSI und NVMe SCSI und NVMe NVMe SCSI und NVMe NVMe
    12 TiB 12 TiB 9 TiB 9 TiB 9 TiB 0 0 0 36 TiB 0 3 TiB 3 TiB 3 TiB 0 3 TiB 9 TiB 6 TB 3 TiB 3 TiB
    Zonal und regional Zonal und regional Zonal und regional Zonal Zonal Zonal und regional Zonal Zonal Zonal Zonal Zonal und regional Zonal
    Zonal Zonal Zonal und regional Zonal und regional Zonal und regional Zonal Zonal Zonal und regional Zonal Zonal Zonal Zonal Zonal Zonal Zonal Zonal und regional Zonal Zonal Zonal
    Zonal Zonal Zonal und regional Zonal und regional Zonal und regional Zonal Zonal Zonal und regional Zonal Zonal Zonal Zonal Zonal Zonal Zonal und regional Zonal Zonal Zonal
    gVNIC gVNIC gVNIC und VirtIO-Net gVNIC und VirtIO-Net gVNIC und VirtIO-Net gVNIC und VirtIO-Net gVNIC gVNIC und VirtIO-Net gVNIC gVNIC gVNIC und VirtIO-Net gVNIC und VirtIO-Net gVNIC gVNIC und VirtIO-Net gVNIC und VirtIO-Net gVNIC und VirtIO-Net gVNIC gVNIC und VirtIO-Net gVNIC und VirtIO-Net
    23 bis 100 Gbit/s 20 bis 100 Gbit/s 10 bis 32 Gbit/s 10 bis 32 Gbit/s 2 bis 32 Gbit/s 10 bis 32 Gbit/s 10 bis 32 Gbit/s 1 bis 16 Gbit/s 23 bis 100 Gbit/s Bis zu 200 Gbit/s 10 bis 32 Gbit/s 10 bis 32 Gbit/s 32 Gbit/s 32 Gbit/s 32 Gbit/s 2 bis 32 Gbit/s 200 Gbit/s 24 bis 100 Gbit/s 10 bis 100 Gbit/s
    50 bis 200 Gbit/s 50 bis 200 Gbit/s 50 bis 100 Gbit/s 50 bis 100 Gbit/s 50 bis 200 Gbit/s 50 bis 100 Gbit/s 50 bis 100 Gbit/s 50 bis 100 Gbit/s 200 Gbit/s 50 bis 100 Gbit/s 50 bis 100 Gbit/s
    0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 8 16 8
    ressourcenbasierten CUDs und flexiblen CUDs ressourcenbasierten CUDs und flexiblen CUDs ressourcenbasierten CUDs und flexiblen CUDs ressourcenbasierten CUDs und flexiblen CUDs ressourcenbasierten CUDs und flexiblen CUDs Ressourcenbasierte CUDs ressourcenbasierten CUDs und flexiblen CUDs ressourcenbasierten CUDs und flexiblen CUDs Ressourcenbasierte CUDs ressourcenbasierten CUDs und flexiblen CUDs ressourcenbasierten CUDs und flexiblen CUDs Ressourcenbasierte CUDs Ressourcenbasierte CUDs Ressourcenbasierte CUDs Ressourcenbasierte CUDs Ressourcenbasierte CUDs Ressourcenbasierte CUDs Ressourcenbasierte CUDs
    1,28 1,46 1,00 2,29 1,04 1,43 1,50 1,00 0,96

    GPUs und VMs

    GPUs werden verwendet, um Arbeitslasten zu beschleunigen, und werden für N1-, A3-, A2- und G2-VMs unterstützt. Bei VMs, die N1-Maschinentypen verwenden, können Sie der VM während oder nach der VM-Erstellung GPUs hinzufügen. Bei VMs, die A4-,A2- oder G2-Maschinentypen verwenden, werden die GPUs beim Erstellen der VM automatisch angehängt. GPUs können nicht mit anderen Maschinenserien verwendet werden.

    Für VMs mit einer geringeren Anzahl von GPUs ist eine Höchstanzahl von vCPUs vorgegeben. Im Allgemeinen ermöglicht es Ihnen eine höhere Anzahl von GPUs, VMs mit einer größeren Anzahl von vCPUs und mehr Arbeitsspeicher zu erstellen. Weitere Informationen finden Sie unter GPUs in Compute Engine.

    Nächste Schritte