NVIDIA と Google Cloud

NVIDIA と Google Cloud は、機械学習、ハイ パフォーマンス コンピューティング、データ分析、グラフィックス、ゲームのワークロードなど、最も要求の厳しいワークロードに対応するアクセラレータ最適化ソリューションを提供しています。

NVIDIA と Google Cloud のロゴ

利点

NVIDIA の高速なコンピューティング性能をGoogle Cloud で大規模に実現

さまざまなワークロードのパフォーマンスを向上

Google Cloud では最新の NVIDIA GPU を利用でき、NVIDIA H100、A100、L4、T4、P100、P4、V100 などの GPU を搭載した Compute Engine インスタンスを簡単にプロビジョニングして、要件の厳しい幅広いワークロード処理を加速できます。

秒単位の課金で費用を削減

Google Cloud では秒単位で料金が発生するため、必要な分だけを支払うことができ、また毎月最大 30% の割引が自動的に適用されます。同じ稼働時間でスケーラブルなパフォーマンスを維持しながら、初期費用を節約できます。

カスタムマシン構成でワークロードを改善

必要なプロセッサ数、メモリ量、NVIDIA GPU 数の正確な比率を決めてインスタンスを正確に構成し、ワークロードを改善できるので、システムの制限に合わせてワークロードを変更する必要はありません。

主な機能

Google Cloud での NVIDIA のテクノロジー

NVIDIA H100 Tensor Core GPU 搭載の A3 VM

NVIDIA H100 Tensor Core GPU を搭載した A3 VM は、特に要件の厳しい生成 AI ワークロードと LLM のトレーニングとサービングに特化して構築されています。NVIDIA GPU と Google Cloud の最先端のインフラストラクチャ テクノロジーを組み合わせることで、大規模なスケールとパフォーマンスが実現し、スーパーコンピューティング機能が大きく飛躍します。

詳細

NVIDIA A100® Tensor Core GPU 搭載の A2 VM

アクセラレータ最適化 A2 VM は、NVIDIA Ampere A100 Tensor Core GPU をベースとしています。A100 GPU は、旧世代と比較して GPU 1 個あたり最大 20 倍のコンピューティング パフォーマンスを誇ります。これらの VM は、コンピューティングでの最も難しい課題に対処できるように、AI、データ分析、ハイ パフォーマンス コンピューティングのあらゆる規模での高速化を実現するように設計されています。

詳細

NVIDIA L4 Tensor Core GPU 搭載の G2 VM

G2 は、新たに発表された NVIDIA L4 Tensor Core GPU を搭載した業界初のクラウド VM で、生成 AI などの大規模な推論 AI ワークロードに特化して設計されています。G2 は、AI 推論ワークロードに対して最先端の費用対効果を実現します。G2 は、汎用 GPU として機能し、HPC、グラフィック、動画のコード変換のワークロード パフォーマンスを大幅に向上させます。

詳細

Google Kubernetes Engine による自動スケーリング

Google Kubernetes Engine(GKE)を使用して、NVIDIA GPU を搭載したクラスタをオンデマンドでシームレスに作成し、負荷分散を行い、GPU リソースを自動的にスケールアップまたはスケールダウンして運用コストを最小限に抑えることができます。NVIDIA A100 GPU でのマルチインスタンス GPU(MIG)のサポートにより、GKE はマルチユーザー、マルチモデルの AI 推論ワークロードで、細かな粒度で適切なサイズの GPU アクセラレーションをプロビジョニングできるようになりました。

NVIDIA CloudXR™ と RTX 仮想ワークステーション

NVIDIA RTX™ テクノロジーを基盤として開発された画期的なイノベーションである NVIDIA CloudXR により、NVIDIA RTX Virtual Workstation を仮想マシンイメージ(VMI)として使用し、Google Cloud Marketplace から高品質の XR にアクセスできるようになりました。ユーザーは高品質の没入型エクスペリエンスを簡単に設定、スケーリング、使用でき、クラウドから XR ワークフローをストリーミングできます。

準備ができたらお問い合わせ

ドキュメント

NVIDIA のテクノロジーを Google Cloud にデプロイするための技術リソース

Google Cloud Basics

Compute Engine の GPU

Compute Engine は、仮想マシン インスタンスに追加できる GPU を備えています。GPU の機能と、使用できる GPU ハードウェアのタイプについて、詳細をご確認ください。
Google Cloud Basics

クラウド内でのモデルのトレーニングに GPU を使用する

画像分類、動画分析、自然言語処理など、多くのディープ ラーニング モデルのトレーニング プロセスを高速化します。

Tutorial

Google Kubernetes Engine 上の GPU

Google Kubernetes Engine クラスタのノードで GPU ハードウェア アクセラレータを使用する方法をご確認ください。
Google Cloud Basics

Dataproc クラスタへの GPU の追加

GPU を Dataproc クラスタの Compute Engine マスターノードおよびワーカーノードに接続して、ML やデータ処理などの特定のワークロードを高速化します。

お探しのものが見つからない場合

次のステップ

問題点をお知らせください。Google Cloud のエキスパートが、最適なソリューションを見つけるお手伝いをいたします。

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
コンソール
  • Google Cloud プロダクト
  • 100 種類を超えるプロダクトをご用意しています。新規のお客様には、ワークロードの実行、テスト、デプロイができる無料クレジット $300 分を差し上げます。また、すべてのお客様に 25 以上のプロダクトを無料でご利用いただけます(毎月の使用量上限があります)。
Google Cloud