G4 VM の一般提供開始: ビジュアル コンピューティングと AI 向けの NVIDIA GPU ポートフォリオが拡大
Roy Kim
Director, Product Management
Dai Vu
Managing Director, Marketplace & ISV GTM Programs
※この投稿は米国時間 2025 年 10 月 21 日に、Google Cloud blog に投稿されたものの抄訳です。
今日のマルチモーダル ワークロードの多くは、必要なパフォーマンスとスループットを実現するために、GPU ベースのアクセラレータ、大容量の GPU メモリ、プロフェッショナル グラフィックスを強力に組み合わせる必要があります。このたび、Google は NVIDIA の RTX PRO 6000 Blackwell Server エディション GPU を搭載した G4 VM の一般提供を開始しました。G4 の追加により、Google の包括的な NVIDIA GPU ポートフォリオがさらに拡充され、A シリーズ VM の高いスケーラビリティと G2 VM の費用対効果が補完されています。このたび利用可能になった G4 VM では、レイテンシの影響を受けやすいアプリケーションや特定の規制要件があるアプリケーションについて、これまで以上に多くの Google Cloud リージョンで GPU を利用できるようになりました。
Google はさらに、Google Cloud Marketplace で仮想マシンイメージ(VMI)として NVIDIA Omniverse が一般提供されることも発表しました。G4 で実行すると、NVIDIA Omniverse ライブラリを活用した産業用デジタルツインと物理 AI シミュレーション アプリケーションをこれまで以上に簡単に開発、デプロイできます。G4 VM は、エンタープライズ デジタルツインに必要な、要求の厳しいリアルタイム レンダリングと物理的に正確なシミュレーションを実行するために必要なインフラストラクチャ(最大 768 GB の GDDR7 メモリ、NVIDIA Tensor コア、第 4 世代のレイ トレーシング(RT)コア)を提供します。これらを組み合わせることで、産業用デジタルツインやロボット シミュレーションのアプリケーションを構築、デプロイ、操作するためのスケーラブルなクラウド環境を実現します。
ユニバーサル GPU プラットフォーム
G4 VM は、G2 インスタンスの最大 9 倍のスループットを実現し、パフォーマンスが大幅に向上しています。これにより、マルチモーダル AI 推論、写真のようにリアルなデザインと可視化、NVIDIA Omniverse で開発されたアプリケーションを使用したロボット シミュレーションなど、幅広いワークロードで結果を次のレベルへと引き上げます。G4 は現在、1、2、4、8 個の NVIDIA RTX PRO 6000 Blackwell GPU オプションで提供されており、近日中に GPU の一部オプションも提供される予定です。
GA4 を使用してビジネスを革新し、加速させる方法をいくつかご紹介します。
AI のトレーニング、ファインチューニング、推論
-
生成 AI の高速化と効率化: FP4 精度をサポートする G4 の高効率コンピューティングにより、LLM のファインチューニングと推論が高速化され、マルチモーダル モデルやテキストから画像への変換モデルなどのリアルタイム生成 AI アプリケーションを作成できます。
-
マルチインスタンス GPU(MIG)サポートによるリソースの最適化: G4 では、1 つの GPU を最大 4 つの完全に分離された MIG インスタンスに安全に分割できます。各インスタンスは、独自の高帯域幅メモリ、コンピューティング コア、専用のメディア エンジンを備えています。この機能は、リソース、分離、サービス品質を保証しながら、複数の小規模で異なるワークロードを同時に実行できるようにすることで、費用対効果を最大化します。
-
柔軟なモデル容量とスケーリング: 高度な量子化手法、MIG パーティショニング、マルチ GPU 構成を活用して、300 億未満から 1,000 億を超えるパラメータを持つ幅広いモデルをサービングできます。
NVIDIA Omniverse とシミュレーション
-
NVIDIA Omniverse の統合: 物理ベースのシミュレーションと OpenUSD を使用してシミュレーション アプリケーションを構築、接続し、リアルタイムのインタラクティビティと AI で加速されたデジタルツインの開発を可能にする基盤を選択します。
-
大規模なデジタルツインの高速化: 独自の、または商用のコンピュータ支援エンジニアリングおよびシミュレーション ソフトウェアを高速化して、複雑なデジタルツイン環境で数十億のセルを含むシナリオを実行します。
-
準リアルタイムの物理分析: G4 の並列コンピューティング能力とメモリを活用して膨大な計算領域を処理し、高忠実度のシミュレーションのための準リアルタイムの流体力学解析や複雑な物理分析を実現します。
-
ロボット開発: オープンソースの参照ロボット シミュレーション フレームワークである NVIDIA Isaac Sim により、物理環境と仮想環境で AI 駆動型ロボットの作成、トレーニング、シミュレーションを行えるようになりました。Isaac Sim が Google Cloud Marketplace で利用可能になりました。
AI を活用したレンダリング、グラフィック、仮想ワークステーション
-
AI 拡張コンテンツ作成: ニューラル シェーダーと第 5 世代 NVIDIA Tensor コアを活用して、AI をプログラマブル レンダリング パイプラインに直接統合します。これにより、リアルタイムのシネマティック レンダリングやコンテンツ作成の強化など、次の10年間の AI 拡張グラフィックスのイノベーションを推進します。
-
大規模なシーンの処理: 大容量メモリ(G4 では GPU あたり最大 96 GB)を活用して、大規模で複雑な 3D モデルや写真のようにリアルなビジュアリゼーションを、驚くほどのディテールと精度で作成およびレンダリングできます。
-
仮想ワークステーション: デジタルツイン、シミュレーション、VFX ワークロードを促進します。G4 は、NVIDIA DLSS 4 のすべての機能、動画ストリーミングとコード変換のための最新の NVENC/NVDEC エンコーダ、リアルタイム レイ トレーシングのための第 4 世代 RT コアの完全サポートにより、飛躍的に機能向上しています。
Google Cloud が NVIDIA RTX PRO 6000 をスケール
最新の生成 AI モデルは、単一の GPU の VRAM を超えることが多く、これらのワークロードを処理するにはマルチ GPU 構成を使用する必要があります。このアプローチは一般的ですが、AI アーキテクチャ間の通信速度がボトルネックとなり、パフォーマンスが低下する可能性があります。G4 VM のマルチ GPU パフォーマンスを大幅に向上させるために、強化された PCIe ベースの P2P データパスを実装しました。このデータパスは、All-Reduce などの重要な集団演算を最適化します。All-Reduce は、モデルを GPU 間で分割するために不可欠です。G4 の強化されたピアツーピア機能により、モデル提供にテンソル並列処理を使用すると、標準の非 P2P 製品と比較して、スループットが最大 168% 向上し、レイテンシ(トークン間のレイテンシ)が 41% 低下します。
生成 AI アプリケーションの場合、この技術的な差別化は次のように表れます。
-
ユーザー エクスペリエンスの向上: レイテンシが低くなると、AI サービスからの応答が速くなり、よりインタラクティブでリアルタイムなアプリケーションが可能になります。
-
スケーラビリティの向上: スループットの向上により、1 台の仮想マシンからより多くの同時ユーザーにサービスを提供できるようになり、サービスの費用対効果とスケーラビリティが大幅に向上します。
G4 VM と統合された Google Cloud サービス
G4 VM は複数の Google Cloud サービスと完全に統合されているため、AI ワークロードを初日から加速できます。
-
Google Kubernetes Engine(GKE): G4 GPU は GKE を通じて一般提供されています。GKE は最近、GKE Standard クラスタを含むすべての対象クラスタに Autopilot を拡張したため、GKE のコンテナ最適化コンピューティング プラットフォームを利用して G4 GPU を迅速にスケールし、費用を最適化できます。GKE Inference Gateway を追加することで、G4 のメリットをさらに拡大し、AI サービングのレイテンシを短縮してスループットを向上させることができます。
-
Vertex AI: 推論とトレーニングの両方で、G4 の大容量 GPU メモリ(GPU あたり 96 GB、合計 768 GB)、ネイティブの FP4 精度サポート、グローバルなプレゼンスが大きなメリットとなります。
-
Dataproc: G4 VM は、Dataproc マネージド分析プラットフォームで完全にサポートされており、大規模な Spark および Hadoop ワークロードを高速化できます。これにより、データ サイエンティストとデータ エンジニアは、ML と大規模データ処理のワークロードのパフォーマンスを大幅に向上させることができます。
-
Cloud Run: Google のサーバーレス プラットフォームの AI インフラストラクチャ オプションが NVIDIA RTX PRO 6000 にまで拡張されました。これにより、フルマネージドでシンプル、従量課金制の GPU を使用して、好みの LLM でリアルタイムの AI 推論を実行したり、メディア レンダリングを行ったりできます。
-
Hyperdisk ML、Managed Lustre、Cloud Storage: HPC および大規模な AI / ML ワークロードでローカル ストレージを超えて拡張する必要がある場合は、G4 をさまざまな Google Cloud ストレージ サービスに接続できます。低レイテンシでインスタンスあたり最大 50 万 IO を実現する Hyperdisk ML は、優れた選択肢です。同じゾーン内の高パフォーマンスのファイル ストレージには、Managed Lustre が永続ストレージに最適な並列ファイル システムを提供し、最大 1 TB/秒の速度を実現します。最後に、推論などのユースケースで Anywhere Cache のような強力な機能を使用して、ほぼ無制限のグローバル容量が必要な場合は、トレーニング データセット、モデル アーティファクト、特徴量ストアのプライマリで高可用性かつグローバルにスケーラブルなストレージ プラットフォームとして Cloud Storage を選択します。
お客様の声
お客様が G4 を使用してビジネス内でイノベーションを起こし、加速させている方法をご紹介します。
「Google Cloud G4 VM 上の NVIDIA Omniverse の組み合わせが、当社のクリエイティブな変革の真の原動力となっています。これにより、チームは従来の制作に数週間かかっていた時間を数時間に短縮し、グローバル規模で写真のようにリアルな 3D 広告環境を即座に生成できるようになります。また、ブランドのコンプライアンスを完璧に確保できるため、デジタル マーケティングにおけるスピードとパーソナライズを再定義する機能となっています。」- WPP、クリエイティブ AI 担当シニア バイス プレジデント、Perry Nightingale 氏

「Google Cloud G4 VM のパワーを Altair One に取り入れることで、イノベーションをさらに推進するために必要な速度、規模、視覚的な忠実度で、最も要求の厳しいシミュレーションや流体力学のワークロードを実行できるようになります。」- Altair、チーフ エンジニア(分析、HPC、IoT、デジタルツイン)、Yeshwant Mummaneni 氏
Google Cloud のメリット
Google Cloud を選択するということは、具体的な成果を上げるために設計されたプラットフォームを選択することを意味します。新しい G4 VM はその好例です。Google のカスタム P2P インターコネクトにより、基盤となる NVIDIA RTX PRO 6000 Blackwell GPU のスループットが最大 168% 向上します。Google の包括的なポートフォリオ全体で、最適化されたパフォーマンスに重点が置かれています。G4 は、既存の A シリーズと G2 GPU を完璧に補完し、あらゆるワークロードに最適なインフラストラクチャを提供します。Google は、単なるパフォーマンスの向上のみならず、価値実現までの時間を短縮するターンキー ソリューションも提供しています。NVIDIA Omniverse が Google Cloud Marketplace で利用可能になったことで、フルマネージドでスケーラブルなプラットフォームにエンタープライズ クラスのデジタルツインとシミュレーション アプリケーションを即座にデプロイできます。
G4 のリソースはすぐに利用できます。ご利用を開始するには、Google Cloud コンソールから G4 VM を選択するだけです。NVIDIA Omniverse と Isaac Sim は、Google Cloud のコミットメントをその支払いに充てることができる、認定された Google Cloud Marketplace ソリューションです。詳細については、Google Cloud セールスチームまたは販売パートナーにお問い合わせください。
-プロダクト管理担当ディレクター、Roy Kim
-Marketplace および ISV GTM プログラム担当マネージング ディレクター、Dai Vu

