マシン ファミリーのリソースと比較ガイド


このドキュメントでは、必要なリソースを備えた仮想マシン(VM)インスタンスを作成するために選択できるマシン ファミリー、マシンシリーズ、マシンタイプについて説明します。VM を作成するときに、その VM に使用可能なリソースを決定するマシン ファミリーからマシンタイプを選択します。選択できるマシン ファミリーは複数あり、各マシン ファミリーは、マシンシリーズや各シリーズ内の事前定義されたマシンタイプにさらに編成されます。たとえば、汎用マシン ファミリーの N2 シリーズの中では、n2-standard-4 マシンタイプを選択できます。

M2、M3、H3 マシンシリーズを除き、すべてのマシンシリーズは Spot VM(およびプリエンプティブル VM)をサポートしています。

注: これは Compute Engine のマシン ファミリーのリストです。各ファミリーの詳細については、以下のページをご覧ください。
  • 汎用 - さまざまなワークロードで優れたコスト パフォーマンスを発揮します。
  • コンピューティング最適化 - Compute Engine でコアあたりのパフォーマンスが最も高く、コンピューティング負荷の高いワークロードに最適です。
  • メモリ最適化 - メモリ使用量の多いワークロードに最適です。他のマシン ファミリーよりもコアあたりのメモリ容量が多く、最大で 12 TB のメモリを搭載しています。
  • アクセラレータ最適化 - 機械学習(ML)やハイ パフォーマンス コンピューティング(HPC)など、超並列 CUDA(Compute Unified Device Architecture)コンピューティング ワークロードに理想的なファミリーです。このファミリーは、GPU を必要とするワークロードに最適です。

このドキュメントでは、次の用語を使用します。

  • マシン ファミリー: 特定のワークロードに合わせて最適化されたプロセッサとハードウェアから構成される一連のセット。VM インスタンスを作成する際は、優先マシン ファミリーから事前定義されたマシンタイプまたはカスタム マシンタイプを選択します。

  • シリーズ: マシン ファミリーはシリーズと世代でさらに分類されます。たとえば、汎用マシン ファミリー内の N1 シリーズは、N2 シリーズの旧バージョンです。世代またはシリーズ番号が高いほど、基盤となる CPU プラットフォームまたはテクノロジーが新しくなります。たとえば、M3 シリーズは M2 シリーズの新しい世代です。

  • マシンタイプ: すべてのマシンシリーズには事前定義されたマシンタイプがあり、これによって VM にリソースセットが提供されます。事前定義されたマシンタイプでニーズを満たせない場合は、いくつかのマシンシリーズのカスタム マシンタイプを作成することもできます。

マシン ファミリーとシリーズの推奨事項

次の表に、ワークロードごとの推奨事項を示します。

ワークロード タイプ
汎用のワークロード コンピューティング最適化 メモリ最適化 アクセラレータ最適化
E2 N2、N2D、N1 C3、C3D Tau T2D、Tau T2A H3、C2、C2D M3、M2、M1 A2、G2
低コストで日々のコンピューティングを実現 幅広いマシンタイプでバランスの取れた価格とパフォーマンスを実現 さまざまなワークロードに対して一貫して高いパフォーマンスを実現 スケールアウト ワークロードに最適なコアあたりのパフォーマンスと費用を実現 超高パフォーマンスでコンピューティング負荷の高いワークロードを実現 メモリ使用量の多いワークロード向けに最大のメモリ対コンピューティング比率を実現 高速のハイ パフォーマンス コンピューティング ワークロード向けに最適化
  • トラフィック量の少ないウェブサーバー
  • バックオフィス アプリ
  • コンテナ化されたマイクロサービス
  • マイクロサービス
  • 仮想デスクトップ
  • 開発環境とテスト環境
  • 低~中レベルのトラフィック量のウェブサーバーとアプリサーバー
  • コンテナ化されたマイクロサービス
  • ビジネス インテリジェンス アプリ
  • 仮想デスクトップ
  • CRM アプリケーション
  • データ パイプライン
  • トラフィックの多いウェブサーバーとアプリサーバー
  • データベース
  • メモリ内キャッシュ
  • 広告サーバー
  • ゲームサーバー
  • データ分析
  • メディア ストリーミングとコード変換
  • CPU ベースの ML トレーニングと推論
  • ワークロードのスケールアウト
  • ウェブサービス
  • コンテナ化されたマイクロサービス
  • メディアのコード変換
  • 大規模 Java アプリケーション
  • 計算依存型ワークロード
  • 高性能なウェブサーバー
  • ゲームサーバー
  • ハイ パフォーマンス コンピューティング(HPC)
  • メディアのコード変換
  • ワークロードのモデリングとシミュレーション
  • AI / ML
  • 中規模から特大規模の SAP HANA インメモリ データベース
  • Redis などのインメモリ データストア
  • シミュレーション
  • Microsoft SQL Server、MySQL などのハイ パフォーマンス データベース
  • 電子設計自動化
  • Compute Unified Device Architecture(CUDA)対応の ML トレーニングと推論
  • ハイ パフォーマンス コンピューティング(HPC)
  • 超並列コンピューティング
  • BERT 自然言語処理
  • ディープ ラーニング レコメンデーション モデル(DLRM)
  • 動画のコード変換
  • リモート可視化ワークステーション
  • VM を作成したら、サイズ適正化の推奨事項を使用し、ワークロードに基づいてリソース使用量を最適化できます。詳細については、VM インスタンスに対する推奨マシンタイプの適用をご覧ください。

    汎用マシン ファミリー ガイド

    汎用マシン ファミリーでは、さまざまなワークロードに最適な価格性能比のマシンシリーズが複数提供されています。

    Compute Engine では、x86 アーキテクチャまたは Arm アーキテクチャのいずれかで動作する汎用マシンシリーズを提供しています。

    x86

    • E2 マシンシリーズは最大 32 基の vCPU と 128 GB のメモリ(vCPU あたり最大 8 GB)を備え、すべてのマシンシリーズの中で最も低コストです。E2 マシンシリーズには、Intel プロセッサまたは第 2 世代の AMD EPYC™ Rome プロセッサを実行する CPU プラットフォームが事前に定義されています。このプロセッサは、VM を作成する際に選択されます。このマシンシリーズには、特に確約利用割引と組み合わせることで Compute Engine の最低価格となるさまざまなコンピューティング リソースが用意されています。
    • N2 マシンシリーズは 最大 128 基の vCPU、vCPU あたり 8 GB のメモリを備え、Intel Ice Lake と Cascade Lake CPU プラットフォームで使用できます。
    • N2D マシンシリーズは、最大 224 基の vCPU、vCPU あたり 8 GB のメモリを備え、第 2 世代の AMD EPYC Rome および第 3 世代 AMD EPYC Milan プラットフォームで使用できます。
    • C3 マシンシリーズは、最大 176 基の vCPU、vCPU あたり 2、4 または 8 GB のメモリを備え、Intel Sapphire Rapids CPU プラットフォームと Google のカスタム Intel Infrastructure Processing Unit(IPU)で使用できます。C3 VM は基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。
    • C3D マシンシリーズは、最大 360 基の vCPU、vCPU あたり 2、4、または 8 GB のメモリを備え、AMD EPYC Genoa CPU プラットフォームと Google のカスタム Intel Infrastructure Processing Unit(IPU)で使用できます。C3D VM は基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。
    • Tau T2D マシンシリーズには、スケールアウト用に最適化された機能セットが用意されています。各 VM は最大 60 基の vCPU、vCPU あたり 4 GB のメモリを備え、第 3 世代の AMD EPYC Milan プロセッサで使用できます。Tau T2D マシンシリーズはクラスタ スレッディングを使用しないため、vCPU はコア全体に相当します。
    • N1 マシンシリーズの VM は、最大 96 基の vCPU、vCPU あたり最大 6.5 GB のメモリを備え、Intel Sandy Bridge、Ivy Bridge、Haswell、Broadwell、Skylake CPU のプラットフォームで使用できます。

    E2 シリーズと N1 シリーズには、共有コア マシンタイプが含まれています。このようなマシンタイプでは物理的なコアを時分割で使用します。この方法は、小規模でリソース消費量がそれほど多くないアプリを実行する場合に費用対効果に優れていることがあります。

    • E2: 短時間のバースト用に 2 基の vCPU を提供します。

    • N1: 短時間のバーストに使用できる最大 1 基 vCPU を備えた f1-microg1-small の共有コア マシンタイプを提供します。

    Arm

    • Tau T2A マシンシリーズは、Arm プロセッサで動作する Google Cloud 初のマシンシリーズです。Tau T2A マシンは、パフォーマンスを魅力的な価格で提供するように最適化されています。各 VM には最大 48 基の vCPU、vCPU あたり 4 GB のメモリを搭載できます。Tau T2A マシンシリーズは、Arm 命令セットを備えた 64 コアの Ampere Altra プロセッサで動作し、全コア周波数は 3 GHz です。Tau T2A マシンタイプは単一の NUMA ノードをサポートし、vCPU はコア全体に相当します。

    コンピューティング最適化マシン ファミリー ガイド

    コンピューティング最適化マシン ファミリーは、コアあたりの最大のパフォーマンスを提供することによってコンピューティング依存型のアプリケーションを実行するように最適化されています。

    • H3 VM は、88 基の仮想コア(vCPU)と 352 GB の DDR5 メモリを備えています。H3 VM は、Intel Sapphire Rapids CPU プラットフォームと Google のカスタム Intel Infrastructure Processing Unit(IPU)で実行されます。H3 VM は基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。H3 は、分子動力学、計算地球科学、金融リスク分析、気象モデリング、フロントエンドとバックエンドの EDA、計算流体力学など、さまざまな HPC ワークロードのパフォーマンスを向上させます。
    • C2 VM は、最大 60 基の vCPU、vCPU あたり 4 GB のメモリを備え、Intel Cascade Lake CPU プラットフォームで使用できます。
    • C2D VM は、最大 112 基の vCPU、vCPU あたり最大 8 GB のメモリを備え、第 3 世代の AMD EPYC Milan プラットフォームで使用できます。

    メモリ最適化マシン ファミリー ガイド

    メモリ最適化マシン ファミリーには、OLAP と OLTP SAP のワークロード、ゲノム モデリング、電子設計自動化、最も多くのメモリを消費する HPC ワークロードに最適なマシンシリーズが用意されています。このファミリーは他のマシン ファミリーより 1 コアあたりのメモリ容量が大きく、最大 12 TB です。

    • M1 VM は、最大 160 基の vCPU、vCPU あたり 14.9 GB~24 GB のメモリを備え、Intel Skylake プラットフォームと Broadwell CPU プラットフォームで使用できます。
    • M2 VM は 6 TB、9 TB、12 TB の各マシンタイプで使用できます。また、Intel Cascade Lake CPU プラットフォームで使用できます。
    • M3 VM は最大 128 基の vCPU、vCPU あたり最大 30.5 GB のメモリを備え、Intel Ice Lake CPU プラットフォームで使用できます。

    アクセラレータ最適化マシン ファミリー ガイド

    アクセラレータ最適化マシン ファミリーは、機械学習(ML)とハイ パフォーマンス コンピューティング(HPC)などの超並列 CUDA(Compute Unified Device Architecture)コンピューティング ワークロードに最適です。このファミリーは、GPU を必要とするワークロードに最適な選択です。

    • A2 VM は、12~96 基の vCPU、最大 1,360 GB のメモリを備え、Intel Cascade Lake CPU プラットフォームで使用できます。
    • G2 VM は、4~96 基の vCPU、最大 432 GB のメモリを備え、Intel Cascade Lake CPU プラットフォームで使用できます。

    マシンシリーズの比較

    次の表を使用して各マシン ファミリーを比較し、ワークロードに適したものを判断してください。このセクションを確認してもワークロードに最適なファミリーが不明な場合は、汎用マシン ファミリーから始めてください。サポートされているすべてのプロセッサの詳細については、CPU プラットフォームをご覧ください。

    選択内容が VM に接続されているディスク ボリュームのパフォーマンスにどのように影響するかについては、以下をご覧ください。

    N1 からG2 までの異なるマシンタイプの特性を比較します。[比較する VM プロパティを選択する] フィールドで特定のプロパティを選択すると、以下の表ですべての VM マシンタイプのプロパティを比較できます。

    汎用 汎用 汎用 汎用 汎用 汎用 汎用 コスト最適化 コンピューティング最適化 コンピューティング最適化 コンピューティング最適化 メモリ最適化 メモリ最適化 メモリ最適化 アクセラレータ最適化 アクセラレータ最適化 アクセラレータ最適化
    Intel Sapphire Rapids AMD EPYC Genoa Intel Cascade Lake、Ice Lake AMD EPYC Rome、EPYC Milan Intel Skylake、Broadwell、Haswell、Sandy Bridge、Ivy Bridge AMD EPYC Milan Ampere Altra Intel Skylake、Broadwell、Haswell、AMD EPYC Rome、EPYC Milan Intel Sapphire Rapids Intel Cascade Lake AMD EPYC Milan Intel Ice Lake Intel Cascade Lake Intel Skylake、Broadwell Intel Skylake、Broadwell、Haswell、Sandy Bridge、Ivy Bridge Intel Cascade Lake Intel Cascade Lake
    x86 x86 x86 x86 x86 x86 Arm x86 x86 x86 x86 x86 x86 x86 x86 x86 x86
    4~176 4~360 2~128 2~224 1~96 1~60 1~48 0.25~32 88 4~60 2~112 32~128 208~416 40~160 1~96 12~96 4~96
    スレッド スレッド スレッド スレッド スレッド コア コア スレッド コア スレッド スレッド スレッド スレッド スレッド スレッド スレッド スレッド
    8~1,408 GB 8~2,880 GB 2~864 GB 2~896 GB 1.8~624 GB 4~240 GB 4~192 GB 1~128 GB 352 GB 16~240 GB 4~896 GB 976~3,904 GB 5,888~11,776 GB 961~3,844 GB 3.75~624 GB 85~1,360 GB 16~432 GB
    NVMe NVMe SCSI、NVMe SCSI、NVMe SCSI、NVMe SCSI、NVMe NVMe SCSI、NVMe NVMe SCSI、NVMe SCSI、NVMe NVMe SCSI、NVMe SCSI、NVMe SCSI、NVMe SCSI、NVMe NVMe
    12 TB 12 TB 9 TB 9 TB 9 TB 0 0 0 0 3 TB 3 TB 3 TB 0 3 TB 9 TB 3 TB 3 TB
    ゾーン、リージョン ゾーン、リージョン ゾーン、リージョン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン ゾーン ゾーン、リージョン ゾーン
    ゾーン ゾーン ゾーン、リージョン ゾーン、リージョン ゾーン、リージョン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン
    ゾーン ゾーン ゾーン、リージョン ゾーン、リージョン ゾーン、リージョン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン
    gVNIC gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC gVNIC、VirtIO-Net gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net
    23~100 Gbps 20~100 Gbps 10~32 Gbps 10~32 Gbps 2~32 Gbps 10~32 Gbps 10~32 Gbps 1~16 Gbps 最大 200 Gbps 10~32 Gbps 10~32 Gbps 32 Gbps 32 Gbps 32 Gbps 2~32 Gbps 24~100 Gbps 10~100 Gbps
    50~200 Gbps 50~200 Gbps 50~100 Gbps 50~100 Gbps 50~100 Gbps 50~100 Gbps 50~100 Gbps 50~100 Gbps 50~100 Gbps
    0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 16 8
    リソースベースの CUD、フレキシブル CUD リソースベースの CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD
    1.28 1.46 1.00 2.29 1.04 1.43 1.50 1.00 0.96

    GPU と VM

    GPU はワークロードの高速化に使用され、N1、A2、G2 VM でサポートされます。N1 マシンタイプを使用する VM では、VM の作成中または作成後に GPU を VM に接続します。A2 または G2 マシンタイプを使用する VM では、VM を作成すると GPU が自動的に接続されます。GPU は、他のマシンシリーズと一緒に使用することはできません。

    GPU 数が少ない VM の場合は、vCPU の最大数に制限されます。一般的に、GPU の数が多いほど、vCPU 数が多くメモリサイズが大きいインスタンスを作成できます。詳細については、Compute Engine の GPU をご覧ください。

    次のステップ