AI インフラストラクチャ
すべての ML ワークロードに対するスケーラビリティ、パフォーマンス、費用対効果に優れたインフラストラクチャ。
-
高パフォーマンスのトレーニングから低コストの推論まで、あらゆるユースケースに対応した AI アクセラレータ
-
AI ワークロードに特化した Vertex AI のフルマネージド インフラストラクチャでスケーリングを高速化
-
Google Research とパートナーが構築した、最適化されたインフラストラクチャによる画期的なアルゴリズム
利点
パフォーマンスとコストを大規模に最適化する
Google Cloud では、GPU、TPU、CPU のいずれかを選択して、高パフォーマンスのトレーニング、低コストの推論、大規模なデータ処理など、さまざまなユースケースをサポートできます。
マネージド インフラストラクチャで迅速な結果を提供する
Vertex AI のマネージド インフラストラクチャを利用して、より迅速かつ効率的にスケーリングできます。 ML 環境を迅速に設定し、オーケストレーションを自動化し、大規模なクラスタを管理して、低レイテンシ アプリケーションを設定します。
最先端の AI でイノベーションを加速する
Google Research、DeepMind、パートナーが提供する最先端の AI を利用して、ML からより多くの価値を引き出せます。
主な機能
主な機能
あらゆるユースケースに対応した柔軟でスケーラブルなハードウェア
Google Cloud では、GPU、TPU、CPU のいずれかを選択して、高パフォーマンスのトレーニング、低コストの推論、大規模なデータ処理など、さまざまなユースケースをサポートできます。Tensor Processing Unit(TPU)を使用したディープ ニューラル ネットワークのトレーニングと実行を、最適化されたコストとトレーニング時間で大規模に実施して、作業を迅速に進めることができます。
コスト効率の高い推論やスケールアップ、スケールアウトのトレーニングに役立つ、さまざまな NVIDIA GPU から選択できます。すべての機械学習モデルが同じというわけではなく、モデルによってハードウェア アクセラレーションのレベルが異なります。最後に、Compute Engine で VM インスタンスを起動するときに CPU プラットフォームにアクセスします。Compute Engine は、VM 向けに Intel 製プロセッサと AMD 製プロセッサの両方を幅広く提供しています。
低レイテンシのサービス
Vertex AI は、ML プロセスを自動的に管理するために必要な専用のインフラストラクチャを提供します。自動スケーリング、プライベート エンドポイント、幅広い CPU と GPU を備えたフルマネージド エンドポイントにデプロイします。
最適化された TensorFlow ランタイムは、表形式モデルで最大 8 倍のスループットと 6 倍のレイテンシで、GPU と CPU にまたがってモデル事前コンパイルを可能にします。
大規模トレーニング
Vertex AI は、お客様がマルチノード トレーニングをスケーリングしてトレーニング時間を短縮できるマネージド ネットワーク機能を提供します。
マネージド トレーニング ジョブ: キュー管理、NVIDIA GPU と TPU、組み込みのハイパーパラメータ最適化を使用して、トレーニング ジョブを送信して記憶します。
Reduction Server: 同期データ並列型アルゴリズムの分散 GPU トレーニングを最適化して、トレーニング時間とコストを最大 30% ~ 40% 削減します。
Cloud Storage FUSE と NFS: Cloud Storage AutoClass をサポートする Vertex AI 内の組み込みのファイル オプションとオブジェクト ストレージ オプションにより、ML トレーニング ジョブを簡素化して加速します。
最先端の AI アルゴリズム
最適化されたインフラストラクチャが組み込まれ、複雑な AI ユースケースを合理化するために Google Research が開発した最先端の AI アルゴリズムを利用できます。NAS、TabNet、Alphafold、NVIDIA Merlin などのアルゴリズムにより、複雑さを軽減し、価値創出までの時間を短縮できます。
柔軟性の高いオープンなプラットフォーム
Google は、お客様にとって最適な ML フレームワークまたはインフラストラクチャ サービスをお客様が自由に選択できるようにしています。
単一の統合データと AI クラウド プラットフォームから ML ワークロード用に任意のツール、API、フレームワークに簡単にアクセスして使用できるようにすることで、チームは各自の好みや効率的な開発に適したフレームワークを選択できるようになります。
Deep Learning VM やコンテナなどの充実した構成要素セットや、VM やGoogle Kubernetes Engine(GKE)の独自のカスタム ソフトウェア スタックを設計するためのキュレートされた ISV サービスのマーケットプレイスにアクセスします。
最新情報
最新情報
ドキュメント
ドキュメント
クラウド内でのモデルのトレーニングに GPU を使用する
GPU は、画像分類、動画分析、自然言語処理などのタスクについて、ディープ ラーニング モデルのトレーニング プロセスを高速化できます。
TPU を使用したモデルのトレーニング
TPU は、機械学習ワークロードを高速化するために使用される、Google 独自開発の ASIC です。Cloud TPU を使用して、AI Platform Training でトレーニング ジョブを実行できます。
TPU のディープ ラーニングに特化した設計とは
ディープ ラーニングのコンピューティング要件と、CPU、GPU、TPU でタスクを処理する方法について説明します。
ディープ ラーニング VM
Deep Learning VM Image は、データ サイエンスと機械学習のタスクに最適化されています。主要な ML フレームワークとツールがプリインストールされており、GPU で動作します。
AI Platform Deep Learning Containers
AI Platform Deep Learning Containers は、パフォーマンスが最適化された一貫性のある環境で、ワークフローのプロトタイプ作成と実装を迅速に行えます。GPU で動作します。
Cloud AI プロダクトは、Google の SLA ポリシーに準拠しています。これらの SLA ポリシーで保証されているレイテンシや可用性は、他の Google Cloud サービスと異なる場合があります。