AI インフラストラクチャ

費用対効果の高い方法でディープ ラーニング モデルと機械学習モデルをトレーニングするための、あらゆるビジネス向けのオプション。

Google Cloud 無料トライアル
  • action/check_circle_24px Sketch で作成。

    低コストの推論から高パフォーマンスのトレーニングまで、あらゆるユースケースに対応する AI アクセラレータ

  • action/check_circle_24px Sketch で作成。

    高パフォーマンスの Cloud GPU と Cloud TPU による反復処理の高速化

  • action/check_circle_24px Sketch で作成。

    開発とデプロイのためのさまざまなサービスを簡単に開始

主な機能

主な機能

Cloud TPU

Tensor Processing Unit(TPU)は、ディープ ニューラル ネットワークをトレーニングし実行するための、カスタム開発された ASIC です。より強力で正確なモデルを、高速かつスケーラブルに、費用対効果の高い方法でトレーニングし、実行します。

Cloud GPU

さまざまな NVIDIA GPU が、費用対効果の高い推論や、スケールアップまたはスケールアウトのトレーニングに役立ちます。GPU で RAPID と Spark を活用してディープ ラーニングを行います。Google Cloud で GPU ワークロードを実行すると、業界をリードするストレージ、ネットワーキング、データ分析テクノロジーを活用できます。

CPU

Compute Engine で VM インスタンスを起動するとき、CPU プラットフォームにアクセスします。Compute Engine は、VM 向けに Intel 製プロセッサと AMD 製プロセッサの両方を幅広く提供しています。

導入事例

ドキュメント

ドキュメント

Google Cloud の基礎
クラウド内でのモデルのトレーニングに GPU を使用する

GPU は、画像分類、動画分析、自然言語処理などのタスクについて、ディープ ラーニング モデルのトレーニング プロセスを高速化できます。

Google Cloud の基礎
TPU を使用したモデルのトレーニング

TPU は、機械学習ワークロードを高速化するために使用される、Google 独自開発の ASIC です。Cloud TPU を使用して、AI Platform Training でトレーニング ジョブを実行できます。

チュートリアル
TPU のディープ ラーニングに特化した設計とは

ディープ ラーニングのコンピューティング要件と、CPU、GPU、TPU でタスクを処理する方法について説明します。

Google Cloud の基礎
ディープ ラーニング VM

Deep Learning VM Image は、データ サイエンスと機械学習のタスクに最適化されています。主要な ML フレームワークとツールがプリインストールされており、GPU で動作します。

Google Cloud の基礎
AI Platform Deep Learning Containers

AI Platform Deep Learning Containers は、パフォーマンスが最適化された一貫性のある環境であり、ワークフローのプロトタイプ作成と実装を迅速に行えます。GPU で動作します。

料金

料金

AI インフラストラクチャの料金は、選択したプロダクトに基づいて計算されます。AI インフラストラクチャは無料でお試しいただけます。

Cloud TPU Cloud GPU
単一デバイスの TPU タイプと TPU Pod タイプの TPU 料金については、TPU の料金をご覧ください。 Compute Engine で利用可能な GPU タイプとリージョンごとの GPU 料金については、GPU の料金をご覧ください。