NVIDIA と Google Cloud は、機械学習、ハイ パフォーマンス コンピューティング、データ分析、グラフィックス、ゲームのワークロードなど、最も要求の厳しいワークロードに対応するアクセラレータ最適化ソリューションを提供しています。
利点
さまざまなワークロードのパフォーマンスを向上
Google Cloud では最新の NVIDIA GPU を利用でき、NVIDIA H100、A100、L4、T4、P100、P4、V100 などの GPU を搭載した Compute Engine インスタンスを簡単にプロビジョニングして、要件の厳しい幅広いワークロード処理を加速できます。
秒単位の課金で費用を削減
Google Cloud では秒単位で料金が発生するため、必要な分だけを支払うことができ、また毎月最大 30% の割引が自動的に適用されます。同じ稼働時間でスケーラブルなパフォーマンスを維持しながら、初期費用を節約できます。
カスタムマシン構成でワークロードを改善
必要なプロセッサ数、メモリ量、NVIDIA GPU 数の正確な比率を決めてインスタンスを正確に構成し、ワークロードを改善できるので、システムの制限に合わせてワークロードを変更する必要はありません。
主な機能
NVIDIA H100 Tensor Core GPU を搭載した A3 VM は、特に要件の厳しい生成 AI ワークロードと LLM のトレーニングとサービングに特化して構築されています。NVIDIA GPU と Google Cloud の最先端のインフラストラクチャ テクノロジーを組み合わせることで、大規模なスケールとパフォーマンスが実現し、スーパーコンピューティング機能が大きく飛躍します。
アクセラレータ最適化 A2 VM は、NVIDIA Ampere A100 Tensor Core GPU をベースとしています。A100 GPU は、旧世代と比較して GPU 1 個あたり最大 20 倍のコンピューティング パフォーマンスを誇ります。これらの VM は、コンピューティングでの最も難しい課題に対処できるように、AI、データ分析、ハイ パフォーマンス コンピューティングのあらゆる規模での高速化を実現するように設計されています。
G2 は、新たに発表された NVIDIA L4 Tensor Core GPU を搭載した業界初のクラウド VM で、生成 AI などの大規模な推論 AI ワークロードに特化して設計されています。G2 は、AI 推論ワークロードに対して最先端の費用対効果を実現します。G2 は、汎用 GPU として機能し、HPC、グラフィック、動画のコード変換のワークロード パフォーマンスを大幅に向上させます。
Google Kubernetes Engine(GKE)を使用して、NVIDIA GPU を搭載したクラスタをオンデマンドでシームレスに作成し、負荷分散を行い、GPU リソースを自動的にスケールアップまたはスケールダウンして運用コストを最小限に抑えることができます。NVIDIA A100 GPU でのマルチインスタンス GPU(MIG)のサポートにより、GKE はマルチユーザー、マルチモデルの AI 推論ワークロードで、細かな粒度で適切なサイズの GPU アクセラレーションをプロビジョニングできるようになりました。
NVIDIA RTX™ テクノロジーを基盤として開発された画期的なイノベーションである NVIDIA CloudXR により、NVIDIA RTX Virtual Workstation を仮想マシンイメージ(VMI)として使用し、Google Cloud Marketplace から高品質の XR にアクセスできるようになりました。ユーザーは高品質の没入型エクスペリエンスを簡単に設定、スケーリング、使用でき、クラウドから XR ワークフローをストリーミングできます。
準備ができたらお問い合わせ
Google Cloud と NVIDIA がビジネスの変革にどのように役立つかについての詳細をご確認ください。
導入事例
ドキュメント
画像分類、動画分析、自然言語処理など、多くのディープ ラーニング モデルのトレーニング プロセスを高速化します。
最新情報