移動
AI インフラストラクチャ

AI インフラストラクチャ

あらゆる AI ワークロードに対応する、スケーラブルで高パフォーマンスかつ費用対効果の高いインフラストラクチャ。

  • 高パフォーマンスのトレーニングから低コストの推論まで、あらゆるユースケースに対応する AI アクセラレータ

  • Google Kubernetes Engine または Google Compute Engine で GPU と TPU を使用してスケーリングを高速化

  • Vertex AI、Google Kubernetes Engine、Cloud HPC Toolkit 向けのデプロイ可能なソリューション

利点

パフォーマンスとコストを大規模に最適化する

Google Cloud では、GPU、TPU、CPU から選択して、ハイパフォーマンスのトレーニング、低コストの推論、大規模なデータ処理などのさまざまなユースケースに対応できます。

マネージド インフラストラクチャで迅速な結果を提供する

Vertex AI のマネージド インフラストラクチャを利用して、より迅速かつ効率的にスケーリングできます。ML 環境を迅速に設定し、オーケストレーションを自動化し、大規模なクラスタを管理して、低レイテンシ アプリケーションを設定します。

AI に特化したソフトウェアによる開発

大規模なワークロードの管理に GKE を活用することで、AI 開発の生産性が向上します。自動スケーリング、ワークロード オーケストレーション、自動アップグレードのサポートを利用して、基盤モデルをトレーニングし、提供することができます。

主な機能

主な機能

あらゆるユースケースに対応した柔軟でスケーラブルなハードウェア

AI ワークロードに万能な方法はありません。そのため、NVIDIA、Intel、AMD、Arm などの業界ハードウェア パートナーとともに、Google は、最もデータ インテンシブなモデルをトレーニング、提供するための TPUGPUCPU 全体で、AI に最適化された幅広いコンピューティング オプションをお客様に提供します。

操作、管理、拡張が容易

これまで、Cloud TPU と Cloud GPU で大規模な AI ワークロードをオーケストレーションするには、障害、ロギング、モニタリング、その他の基本的なオペレーションの処理に手作業が必要でした。最もスケーラブルでフルマネージドの Kubernetes サービスである Google Kubernetes Engine(GKE)により、TPU と GPU の運用に必要な作業が大幅に簡素化されます。Cloud TPU と Cloud GPU での大規模な AI ワークロード オーケストレーションの管理に GKE を活用することで、AI 開発の生産性が向上します。

また、マネージド サービスによるインフラストラクチャ抽象化の手軽さを求める組織向けに、Vertex AI は、Cloud TPU と Cloud GPU を使用したさまざまなフレームワークとライブラリによるトレーニングをサポートするようになりました。

AI モデルを飛躍的にスケーリング

AI に最適化された Google のインフラストラクチャは、何十億ものユーザーにサービスを提供する YouTube、Gmail、Google マップ、Google Play、Android といった Google プロダクトに求められるグローバルなスケーラビリティとパフォーマンスを提供できるように構築されています。 Google の AI インフラストラクチャ ソリューションはすべて、Google Cloud の Jupiter データセンター ネットワークによって支えられています。このネットワークは、基本的なサービスから高負荷 AI ワークロードに至るまでに対応する、業界最高水準のスケールアウト機能をサポートします。

柔軟性の高いオープンなプラットフォーム

数十年にわたり、Google は TensorFlow や JAX のような重要な AI プロジェクトに貢献してきました。 Google は PyTorch Foundation を創設し、最近では新しい業界コンソーシアムである OpenXLA プロジェクトを発表しました。さらに、Google は 主要な CNCF オープンソース コントリビューターであり、TFX、MLIR、OpenXLA、KubeFlow、Kubernetes などの OSS への 20 年以上の貢献に加え、Project Jupyter や NumFOCverteUS などのデータ サイエンス コミュニティにとって重要な OSS プロジェクトのスポンサーシップを行っています。

また、Google Cloud の AI インフラストラクチャ サービスは、TensorFlow、PyTorch、MXNet などの多くの一般的な AI フレームワークに組み込まれているため、特定のフレームワークやハードウェア アーキテクチャに制約されることなく、お好みのフレームワークを使用し続けることができます。

ドキュメント

ドキュメント

Google Cloud の基礎

GKE 上の AI Infrastructure ツール

Google Kubernetes Engine(GKE)のプラットフォーム オーケストレーション機能を使用して、最適化された AI/ML ワークロードを実行します。
Google Cloud の基礎

Deep Learning VM Image

Deep Learning VM Image は、データ サイエンスと機械学習のタスクに最適化されています。主要な ML フレームワークとツールがプリインストールされており、GPU で動作します。
Google Cloud の基礎

Deep Learning Containers

Deep Learning Containers は、パフォーマンスが最適化された一貫性のある環境であり、CPU または GPU でワークフローのプロトタイピングと実装を迅速に行うことができます。
チュートリアル

Tensor Processing Unit は AI または ML 用にどのように最適化されていますか?

ML のコンピューティング要件と、TPU がどのようにタスク処理に特化して設計されているのかについて学習します。
Google Cloud の基礎

TPU システム アーキテクチャ

TPU は Google が独自に開発した ASIC であり、ML ワークロードの高速化に使用されます。この TPU の基盤となるシステム アーキテクチャについて一から学びます。

お探しのものが見つからない場合

料金

料金

AI Infrastructure の料金は、選択したプロダクトに基づいて計算されます。Colab または Google Cloud の無料枠では、Google の AI Infrastructure を無料でお試しいただけます。

Cloud TPU
Cloud GPU
単一デバイスの TPU タイプと TPU Pod タイプの TPU 料金については、TPU の料金をご覧ください。
GPU の種類とリージョンごとの GPU の料金については、GPU の料金をご覧ください。

Cloud AI プロダクトは、Google の SLA ポリシーに準拠しています。これらの SLA ポリシーで保証されているレイテンシや可用性は、他の Google Cloud サービスと異なる場合があります。

次のステップ

$300 分の無料クレジットと 20 以上の Always Free プロダクトを活用して、Google Cloud で構築を開始しましょう。

Google Cloud
  • ‪English‬
  • ‪Deutsch‬
  • ‪Español‬
  • ‪Español (Latinoamérica)‬
  • ‪Français‬
  • ‪Indonesia‬
  • ‪Italiano‬
  • ‪Português (Brasil)‬
  • ‪简体中文‬
  • ‪繁體中文‬
  • ‪日本語‬
  • ‪한국어‬
コンソール
  • Google の透明性の高い料金設定の手法で費用を削減
  • Google Cloud の従量課金制では、毎月の使用量と、リソース料金の前払い割引に基づいて自動的に割引が適用されます。見積もりをご希望の場合は、今すぐお問い合わせください。
Google Cloud