あらゆる AI ワークロードに対応する、スケーラブルで高パフォーマンスかつ費用対効果の高いインフラストラクチャ。
高パフォーマンスのトレーニングから低コストの推論まで、あらゆるユースケースに対応する AI アクセラレータ
Google Kubernetes Engine または Google Compute Engine で GPU と TPU を使用してスケーリングを高速化
Vertex AI、Google Kubernetes Engine、Cloud HPC Toolkit 向けのデプロイ可能なソリューション
AI ハイパーコンピュータ アーキテクチャをデプロイして、Google の AI Infrastructure を最大限に活用する
利点
Google Cloud では、GPU、TPU、CPU から選択して、ハイパフォーマンスのトレーニング、低コストの推論、大規模なデータ処理などのさまざまなユースケースに対応できます。
Vertex AI のマネージド インフラストラクチャを利用して、より迅速かつ効率的にスケーリングできます。ML 環境を迅速に設定し、オーケストレーションを自動化し、大規模なクラスタを管理して、低レイテンシ アプリケーションを設定します。
大規模なワークロードの管理に GKE を活用することで、AI 開発の生産性が向上します。自動スケーリング、ワークロード オーケストレーション、自動アップグレードのサポートを利用して、基盤モデルをトレーニングし、提供することができます。
主な機能
これまで、Cloud TPU と Cloud GPU で大規模な AI ワークロードをオーケストレーションするには、障害、ロギング、モニタリング、その他の基本的なオペレーションの処理に手作業が必要でした。最もスケーラブルでフルマネージドの Kubernetes サービスである Google Kubernetes Engine(GKE)により、TPU と GPU の運用に必要な作業が大幅に簡素化されます。Cloud TPU と Cloud GPU での大規模な AI ワークロード オーケストレーションの管理に GKE を活用することで、AI 開発の生産性が向上します。
また、マネージド サービスによるインフラストラクチャ抽象化の手軽さを求める組織向けに、Vertex AI は、Cloud TPU と Cloud GPU を使用したさまざまなフレームワークとライブラリによるトレーニングをサポートするようになりました。
AI に最適化された Google のインフラストラクチャは、何十億ものユーザーにサービスを提供する YouTube、Gmail、Google マップ、Google Play、Android といった Google プロダクトに求められるグローバルなスケーラビリティとパフォーマンスを提供できるように構築されています。 Google の AI インフラストラクチャ ソリューションはすべて、Google Cloud の Jupiter データセンター ネットワークによって支えられています。このネットワークは、基本的なサービスから高負荷 AI ワークロードに至るまでに対応する、業界最高水準のスケールアウト機能をサポートします。
数十年にわたり、Google は TensorFlow や JAX のような重要な AI プロジェクトに貢献してきました。 Google は PyTorch Foundation を創設し、最近では新しい業界コンソーシアムである OpenXLA プロジェクトを発表しました。さらに、Google は 主要な CNCF オープンソース コントリビューターであり、TFX、MLIR、OpenXLA、KubeFlow、Kubernetes などの OSS への 20 年以上の貢献に加え、Project Jupyter や NumFOCverteUS などのデータ サイエンス コミュニティにとって重要な OSS プロジェクトのスポンサーシップを行っています。
また、Google Cloud の AI インフラストラクチャ サービスは、TensorFlow、PyTorch、MXNet などの多くの一般的な AI フレームワークに組み込まれているため、特定のフレームワークやハードウェア アーキテクチャに制約されることなく、お好みのフレームワークを使用し続けることができます。
導入事例
AI によってさまざまな業界でイノベーションへの道が開かれる中、企業は Google のオープンで柔軟かつ高性能なインフラストラクチャを活用するための手段として、Google Cloud を選んでいます。
最新情報
ドキュメント
ユースケース
Cloud TPU マルチスライス トレーニングは、数万個の TPU チップで高速かつ容易に信頼性の高い大規模な AI モデルのトレーニングを行えるフルスタック テクノロジーです。
Google Cloud のオープン ソフトウェア エコシステムでは、使い慣れたツールとフレームワークでアプリケーションを構築しながら、AI ハイパーコンピュータ アーキテクチャのコスト パフォーマンスのメリットを活用できます。
Cloud TPU v5e GPU と NVIDIA L4 GPU は、最新の LLM や生成 AI モデルなどの幅広い AI ワークロードに対して、高性能で費用対効果の高い推論を実現します。どちらも、以前のモデルよりもコスト パフォーマンスが大幅に向上します。また、Google Cloud の AI ハイパーコンピュータ アーキテクチャにより、お客様はデプロイを業界をリードするレベルにスケーリングできます。
Cloud AI プロダクトは、Google の SLA ポリシーに準拠しています。これらの SLA ポリシーで保証されているレイテンシや可用性は、他の Google Cloud サービスと異なる場合があります。