AI インフラストラクチャ
-
低コストの推論から高パフォーマンスのトレーニングまで、あらゆるユースケースに対応する AI アクセラレータ
-
高パフォーマンスの Cloud GPU と Cloud TPU による反復処理の高速化
-
開発とデプロイのためのさまざまなサービスを簡単に開始
主な機能
主な機能
Cloud TPU
Tensor Processing Unit(TPU)は、ディープ ニューラル ネットワークをトレーニングして実行するための、カスタム開発された ASIC です。より強力で正確なモデルを、高速かつスケーラブルに、費用対効果の高い方法でトレーニングし、実行します。
Cloud GPU
さまざまな NVIDIA GPU が、費用対効果の高い推論や、スケールアップまたはスケールアウトのトレーニングに役立ちます。GPU で RAPID と Spark を活用してディープ ラーニングを行います。Google Cloud で GPU ワークロードを実行すると、業界をリードするストレージ、ネットワーキング、データ分析テクノロジーを活用できます。
CPU
Compute Engine で VM インスタンスを起動するとき、CPU プラットフォームにアクセスします。Compute Engine は、VM 向けに Intel 製プロセッサと AMD 製プロセッサの両方を幅広く提供しています。
ドキュメント
ドキュメント
クラウド内でのモデルのトレーニングに GPU を使用する
GPU は、画像分類、動画分析、自然言語処理などのタスクについて、ディープ ラーニング モデルのトレーニング プロセスを高速化できます。
TPU を使用したモデルのトレーニング
TPU は、機械学習ワークロードを高速化するために使用される、Google 独自開発の ASIC です。Cloud TPU を使用して、AI Platform Training でトレーニング ジョブを実行できます。
TPU のディープ ラーニングに特化した設計とは
ディープ ラーニングのコンピューティング要件と、CPU、GPU、TPU でタスクを処理する方法について説明します。
ディープ ラーニング VM
Deep Learning VM Image は、データ サイエンスと機械学習のタスクに最適化されています。主要な ML フレームワークとツールがプリインストールされており、GPU で動作します。
AI Platform Deep Learning Containers
AI Platform Deep Learning Containers は、パフォーマンスが最適化された一貫性のある環境で、ワークフローのプロトタイプ作成と実装を迅速に行えます。GPU で動作します。
Cloud AI プロダクトは、Google の SLA ポリシーに準拠しています。これらの SLA ポリシーで保証されているレイテンシや可用性は、他の Google Cloud サービスと異なる場合があります。