NVIDIA と Google Cloud Platform

Google Cloud Platform で NVIDIA Tesla T4 GPU の提供を開始しました。
オンデマンド ウェブセミナーで詳細をご覧ください。

お問い合わせ

Google Cloud Platform で NVIDIA Tesla K80、P4、T4、P100、V100 GPU の提供を開始

天候変動の予測。癌を治療する新薬。重要な課題のいくつかはすぐにでも解決する必要がありますが、そのためには、膨大な量のコンピューティングが必要です。

NVIDIA と Google Cloud は連携して、大きな資本支出や基盤インフラストラクチャの複雑な管理をすることなく、これらの課題をより早く解決できるようにお手伝いします。NVIDIA Tesla の K80、P4、T4、P100、V100 GPU は、現在そのすべてが Google Cloud Platform で一般提供されています。Google Cloud Platform で NVIDIA GPU を利用することにより、これまで何日もかかっていたディープ ラーニング、アナリティクス、物理シミュレーション、動画のコード変換、分子モデリングなどの計算が数時間で処理できるようになります。また Google Cloud Platform で NVIDIA GRID 仮想ワークステーションを活用することで、作業場所に縛られることなく、グラフィックを多用するワークロードを高速で処理できます。

nvidia

Google Cloud Platform で NVIDIA GPU を使用するメリット

複雑なコンピューティングのパフォーマンス向上
機械学習(トレーニング、推論)、医学分析、地震探査、動画のコード変換、仮想ワークステーション、科学シミュレーションなど、複雑でコンピューティング負荷の高いワークロードを高速化します。NVIDIA Tesla K80、P4、P100、T4、V100 を利用した Google Compute Engine インスタンスを簡単にプロビジョニングし、複雑でコンピューティング負荷の高いワークロードを処理できます。
秒単位の課金で費用を削減
Google Cloud Platform は秒単位で料金が発生するため、必要な分だけを支払うことができ、毎月最大 30% の割引が自動的に適用されます。最初の設備投資を節約しながら、NVIDIA Tesla GPU に期待される 24 時間 365 日の稼働時間とスケーラブルなパフォーマンスを実現できます。
カスタムマシン構成でワークロードを改善
必要なプロセッサ数、メモリ量、NVIDIA GPU 数の比率を決めてインスタンスを正確に構成し、ワークロードを改善できるので、システムの制限に合わせてワークロードを変更する必要はありません。また、NVIDIA GPU クラウド コンテナ レジストリの GPU 最適化コンテナを活用して、Google Cloud Platform で DL や HPC のワークロードを高速化できるというメリットもあります。
AI Platform とのシームレスな統合
トランザクション レコード、センサーログ、画像、動画などによって毎日生成される爆発的な量のデータに対処しましょう。NVIDIA GPU 高速化クラウド コンピューティング リソースを使用すれば、データをクラウドから移動しなくても、データから分析情報を得ることができます。NVIDIA Tesla K80、P4、P100、V100 GPU は AI Platform と緊密に統合され、TensorFlow フレームワークを使って大規模なデータセットで機械学習(ML)モデルをトレーニングするのに必要な時間が劇的に短縮されます。また、Cloud DataflowBigQueryCloud StorageAI Platform Notebooks とも緊密に統合されます。
ML トレーニング時間を短縮し、効率的な ML 推論を提供
現代の複雑な課題を ML で解決するには、飛躍的に複雑化するディープ ラーニング モデルを現実的な時間内でトレーニングする必要があります。Google Cloud Platform の NVIDIA Tesla T4 GPU と V100 GPU は、このようなモデルのトレーニングに必要な時間を、数週間から数時間へと劇的に短縮します。さらに、桁違いに高いスループットにより、トレーニング済みモデルを使った推論が効率化され、レイテンシが低くなり、ユーザー エクスペリエンスが向上します。
Google のグローバル インフラストラクチャで構築

Google が高性能のディープ ラーニング プロダクトを開発するために使用しているハードウェアの一部をそのまま利用するため、独自のインフラストラクチャにかかる設備投資や IT 運用を気にする必要がありません。Google Cloud Platform で NVIDIA Tesla K80、P4、P100、T4、V100 GPU を使用する場合、仮想マシンにハードウェアがパススルーされるため、ベアメタル パフォーマンスをそのまま活かせます。

NVIDIA GRID と Tesla P4、T4、P100 GPU を仮想ワークステーションで利用すると、クリエイターや技術のプロフェッショナルが、負荷の高いアプリケーションにクラウドからアクセスできるようになります。

Google Cloud Platform で利用できる NVIDIA GPU

Google Cloud Platform 上の NVIDIA Tesla K80 GPU

NVIDIA Tesla K80 は Google Cloud で一般提供されています。少数の強力なサーバー インスタンスで優れたパフォーマンスを提供することにより、モデルのトレーニングにかかる時間と HPC の費用を劇的に削減します。実際のアプリケーションで 5〜10 倍以上のパフォーマンス向上を実現する設計になっています。

550 を超える業界トップクラスの HPC アプリケーションがすでに NVIDIA GPU をサポートしています。この中には、上位 15 の HPC アプリケーションとディープ ラーニング フレームワークがすべて含まれます。デュアル GPU 設計、動的 GPU ブーストなどの特長を備える Tesla K80 は、こうしたアプリケーションに優れたパフォーマンスを提供するように構築されています。

Compute Engine で NVIDIA K80 を試す
Google Cloud Platform 上の NVIDIA Tesla P4 GPU と T4 GPU

NVIDIA Tesla P4 GPU と T4 GPU が Compute Engine で一般提供されました。

推論プラットフォーム

NVIDIA Tesla P4 GPU と T4 GPU は、ディープ ラーニング ワークロードを実行するスケールアウト サーバーの効率を高め、レスポンスに優れた AI ベースのサービスを実現します。P4 と T4 は、推論のレイテンシを短縮し、エネルギー効率が高くなるよう設計されています。これにより、以前はレイテンシの制約が原因で不可能だった AI サービスの提供が可能になります。

仮想ワークステーション

NVIDIA Tesla P4 と T4 により、インタラクティブでフォトリアリスティックな没入型環境を可視化する際に直面する最大の課題にも対処できる能力を備えた仮想ワークステーションをデザイナー、エンジニア、サイエンティスト、グラフィック アーティストに提供できます。NVIDIA GRID を使用すると、対象分野の専門家はデスクから解放され、場所やデバイスをほぼ選ばずに、極めて負荷の高い専門的なアプリケーションやデータにアクセスできます。

動画のコード変換

NVIDIA Tesla P4 は、ハードウェア アクセラレーションを備えた専用デコード エンジンと推論を行う GPU を並行して使用し、最大 18 本のフル HD 動画ストリームをリアルタイムにコード変換して推論でき、T4 は最大 38 本のフル HD 動画ストリームを同様に処理できます。動画パイプラインにディープ ラーニングを統合することで、これまで不可能だったスマートで革新的な動画サービスをユーザーに提供できます。

Compute Engine で NVIDIA P4 を試す
Google Cloud Platform 上の NVIDIA Tesla P100 GPU

NVIDIA Tesla P100 は Google Cloud Platform で一般提供されています。

統合型スーパーコンピューティング

HPC と ML の両方のアプリケーションで、スループットを向上させ、コストを節約できるように設計されています。NVIDIA Pascal アーキテクチャを採用した Tesla P100 は、HPC ワークロードと ML ワークロードに対して、倍精度で 4.7 TFLOPS、単精度で 9.3 TFLOPS のパフォーマンスを実現します。

HBM2 を実装した CoWoS による効率の向上

アプリケーションでは、多くの場合、データの処理よりもデータの待機に時間とエネルギーがかかっています。NVIDIA Tesla P100 は、HBM2 テクノロジーを実装した CoWoS(Chip on Wafer on Substrate)を追加することにより、コンピューティングとデータを同じパッケージに緊密に統合し、前例のないコンピューティング効率を実現します。この統合により、前世代のソリューションと比べてメモリ帯域幅が最大で 3 倍になり、アプリケーションのパフォーマンスが飛躍的に向上します。

ページ マイグレーション エンジンによって単純化された並列プログラミング

並列プログラミングが、Pascal アーキテクチャによって大幅に単純化されました。ページ マイグレーション エンジンにより、デベロッパーはデータ移動の管理から解放され、コンピューティング パフォーマンスの調整に集中できます。また、仮想メモリのページングがサポートされるため、GPU の物理メモリサイズを超えてアプリケーションをスケールできます。統合メモリ テクノロジーにより、デベロッパーはインスタンス全体で 1 つのメモリ空間を扱うことができ、生産性が劇的に向上します。

Compute Engine で NVIDIA P100 を試す
Google Cloud Platform 上の NVIDIA Tesla V100 GPU

NVIDIA Tesla V100 GPU は、Compute EngineGoogle Kubernetes Engine で一般提供されました。

要求の厳しい現代のワークロードや業界では、特に高速のハードウェア アクセラレータが必要とされています。この一般提供により、1 台の VM で最大で 8 個の NVIDIA Tesla V100 GPU、96 個の vCPU、624 GB のシステムメモリを選択し、最大 1,000 TFLOPS もの混合精度のハードウェア アクセラレーション パフォーマンスが得られるようになりました。次世代の NVIDIA NVLink インターコネクトは最大 300 GB/秒の GPU 間の帯域幅(PCIe の 9 倍)を実現し、ディープ ラーニングと HPC ワークロードのパフォーマンスが最大 40% 向上します。

NVIDIA GPU の料金とリージョンごとの提供に関する最新情報については、GPU のドキュメントをご覧ください。

Compute Engine で NVIDIA V100 を試す
Google Kubernetes Engine 上の NVIDIA GPU

Google Kubernetes Engine(GKE)の NVIDIA GPU(一般提供)は、最新の GKE リリースから広く使用できます。

GKE で GPU を使用することで、機械学習、画像処理、財務モデリングなどコンピューティング負荷の高いアプリケーションの機能が大幅に向上します。CUDA ワークロードをコンテナにパッケージ化することで、ハードウェアや VM を管理せずに、GKE の NVIDIA GPU の膨大な処理能力の恩恵をいつでも必要なときに受けることができます。

NVIDIA Tesla P4、V100、P100、K80 GPU が一般提供されました。

Kubernetes Engine の GPU
NVIDIA GPU Cloud と Google Cloud Platform: GCP に NVIDIA GPU Cloud のサポートを追加

Google Cloud Platform に NVIDIA GPU Cloud のサポートが追加されました。NVIDIA GPU Cloud(NGC)を使用することで、ディープ ラーニング、HPC アプリケーション、HPC 可視化のために GPU 高速化ソフトウェア コンテナに簡単にアクセスできます。NGC コンテナは、Google Cloud Platform で NVIDIA Tesla V100 および P100 GPU を最大限に活用する GPU 高速化ソフトウェアを実行するために最適化、事前統合されています。NVIDIA GPU 高速化ソフトウェアと NVIDIA GPU を簡単に利用できるため、Google Cloud Platform では、本番環境品質の GPU 最適化ソフトウェアを短時間でデプロイ可能です。

Google Cloud Platform Marketplace で NVIDIA CPU Cloud Image を使ってみる

参考情報