GKE での AI / ML オーケストレーションに関するドキュメント
Google Kubernetes Engine(GKE)のプラットフォーム オーケストレーション機能を使用して、最適化された AI / ML ワークロードを実行します。Google Kubernetes Engine(GKE)を使用すると、マネージド型の Kubernetes と次の機能のメリットをすべて活用し、プロダクション レディかつ堅牢な AI / ML プラットフォームを実装できます。
- 大規模なワークロードのトレーニングとサービングのために GPU と TPU をサポートするインフラストラクチャ オーケストレーション
- 分散コンピューティングとデータ処理フレームワークの柔軟な統合
- リソースを最大限に活用するため、同じインフラストラクチャで複数のチームをサポートする
ドキュメント リソース
クイックスタートやガイド、主なリファレンス、一般的な問題のヘルプをご覧いただけます。
GKE でオープンモデルを提供する
-
新規!
Optimum TPU を活用し、GKE 上で TPU を使用してオープンソース モデルをサービングする
-
チュートリアル
GKE の GPU と Hugging Face TGI を使用して Gemma を提供する
-
チュートリアル
GKE で GPU と vLLM を使用して Gemma を提供する
-
チュートリアル
NVIDIA Triton と TensorRT-LLM を備えた GKE で GPU を使用して Gemma を提供する
-
チュートリアル
GKE で TPU と JetStream を使用して Gemma をサービングする
-
チュートリアル
クイックスタート: GKE Autopilot の単一の GPU でモデルを提供する
費用の最適化とジョブのオーケストレーション
関連リソース
Google Cloud Skills Boost のセルフペース トレーニング、ユースケース、リファレンス アーキテクチャ、コードサンプル、Google Cloud サービスの使用方法と接続方法の例をご覧ください。