コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。
ジャンプ先

AI インフラストラクチャ

あらゆる ML ワークロードに対応する、スケーラブルで高パフォーマンスで費用対効果に優れたインフラストラクチャです。

  • 高パフォーマンスのトレーニングから低コストの推論まで、あらゆるユースケースに対応できる AI アクセラレータ

  • AI ワークロードに特化した Vertex AI のフルマネージド インフラストラクチャで迅速にスケーリング

  • Google Research とパートナーが構築した、最適化されたインフラストラクチャによる画期的なアルゴリズム

利点

パフォーマンスとコストを大規模に最適化する

Google Cloud では、高パフォーマンスのトレーニング、低コストな推論、大規模なデータ処理など、さまざまなユースケースをサポートするため、GPU、TPU、または CPU から選択できます。

マネージド インフラストラクチャで迅速な結果を提供する

Vertex AI のマネージド インフラストラクチャを利用して、より迅速かつ効率的にスケーリングできます。 ML 環境を迅速に設定し、オーケストレーションを自動化し、大規模なクラスタを管理して、低レイテンシ アプリケーションを設定します。

最先端の AI でイノベーションを加速する

Google Research、DeepMind、パートナーが提供する最先端の AI を利用して、ML からより多くの価値を引き出せます。

主な機能

主な機能

あらゆるユースケースに対応する、柔軟でスケーラブルなハードウェア

Google Cloud では、高パフォーマンスのトレーニング、低コストな推論、大規模なデータ処理など、さまざまなユースケースをサポートするため、GPU、TPU、または CPU から選択できます。Tensor Processing Unit(TPU)により、コストとトレーニング時間を最適化し、ディープ ニューラル ネットワークを大規模にトレーニングして実行します。

さまざまな NVIDIA GPU が、費用対効果の高い推論や、スケールアップまたはスケールアウトのトレーニングに役立ちます。すべての機械学習モデルが同じであるとは限りません。また、モデルによってハードウェア アクセラレーションのレベルが異なります。最後に、Compute Engine で VM インスタンスを起動するときに CPU プラットフォームにアクセスします。 Compute Engine は、VM 向けに Intel 製プロセッサと AMD 製プロセッサの両方を幅広く提供しています。

低レイテンシでの提供

Vertex AI は、ML プロセスを自動的に管理するために必要な専用のインフラストラクチャを提供します。自動スケーリング、プライベート エンドポイント、幅広い CPU と GPU を備えたフルマネージドのエンドポイントにデプロイします。

最適化された TensorFlow ランタイムは、表形式モデルで最大 8 倍のスループットと 6 倍のレイテンシで、GPU と CPU にまたがってモデル事前コンパイルを可能にします。

大規模トレーニング

Vertex AI はマネージド ネットワーク機能を提供し、お客様がマルチノード トレーニングをスケーリングしてトレーニング時間を短縮するのを支援します。

マネージド トレーニング ジョブ: キュー管理、NVIDIA GPU と TPU、組み込みのハイパーパラメータ最適化により、トレーニング ジョブを送信および削除できます。

Reduction Server: 同期データ並列型アルゴリズムの分散 GPU トレーニングを最適化し、トレーニング時間とコストを最大 30%~ 40% 削減します。

Cloud Storage FUSE と NFS: Cloud Storage AutoClass をサポートし、Vertex AI 内の組み込みのファイルとオブジェクト ストレージのオプションを使用して ML トレーニング ジョブを簡素化して高速化します。

最先端の AI アルゴリズム

Google Research が開発した最先端の AI アルゴリズムにアクセスし、最適化されたインフラストラクチャが組み込まれた複雑な AI ユースケースを合理化します。NAS、TabNet、Alphafold、NVIDIA Merlin などのアルゴリズムを使用して、複雑さを軽減し、価値創出までの時間を短縮します。

柔軟性の高いオープンなプラットフォーム

Google は、お客様にとって最適な ML フレームワークまたはインフラストラクチャのサービスを自由に選択できるように取り組んでいます。

単一の統合データと AI クラウド プラットフォームから ML ワークロード用に任意のツール、API、フレームワークに簡単にアクセスして使用できるようにすることで、チームは各自の好みや効率的な開発に適したフレームワークを選択できるようになります。

Deep Learning VM やコンテナなどの充実した構成要素セットや、VM やGoogle Kubernetes Engine(GKE)の独自のカスタム ソフトウェア スタックを設計するためのキュレートされた ISV サービスのマーケットプレイスにアクセスします。

ドキュメント

ドキュメント

Google Cloud の基礎
クラウド内でのモデルのトレーニングに GPU を使用する

GPU は、画像分類、動画分析、自然言語処理などのタスクについて、ディープ ラーニング モデルのトレーニング プロセスを高速化できます。

Google Cloud の基礎
TPU を使用したモデルのトレーニング

TPU は、機械学習ワークロードを高速化するために使用される、Google 独自開発の ASIC です。Cloud TPU を使用して、AI Platform Training でトレーニング ジョブを実行できます。

チュートリアル
TPU のディープ ラーニングに特化した設計とは

ディープ ラーニングのコンピューティング要件と、CPU、GPU、TPU でタスクを処理する方法について説明します。

Google Cloud の基礎
ディープ ラーニング VM

Deep Learning VM Image は、データ サイエンスと機械学習のタスクに最適化されています。主要な ML フレームワークとツールがプリインストールされており、GPU で動作します。

Google Cloud の基礎
AI Platform Deep Learning Containers

AI Platform Deep Learning Containers は、パフォーマンスが最適化された一貫性のある環境で、ワークフローのプロトタイプ作成と実装を迅速に行えます。GPU で動作します。

料金

料金

AI インフラストラクチャの料金は、選択したプロダクトに基づいて計算されます。AI インフラストラクチャは無料でお試しいただけます。

Cloud TPU Cloud GPU
単一デバイスの TPU タイプと TPU Pod タイプの TPU 料金については、TPU の料金をご覧ください。 Compute Engine で利用可能な GPU タイプとリージョンごとの GPU 料金については、GPU の料金をご覧ください。