
Google の最高パフォーマンスの POSIX 準拠並列ファイル システムを使用して、HPC と AI のトレーニングとサービス提供を加速します。
機能
AI の真のコストは単なるストレージではありません。それはアイドル状態のコンピューティングにあります。Managed Lustre は、高価なアセットを最大限に活用するために必要な高スループット、低レイテンシのデータ配信を実現します。データ配信を最適化し、迅速なチェックポイント処理を加速することで、アクセラレータの使用率が大幅に向上し、オーバーヘッドが削減され、1 ドルあたりのパフォーマンスが向上します。
大規模なディープ ラーニング モデルのトレーニングには、膨大なデータセットが必要です。DDN EXAScaler をベースとした Managed Lustre は、データアクセスを分散し、トレーニング時間を短縮して、より迅速な分析情報、より高い精度、複雑な AI プロジェクトの処理を可能にします。拡張性により、データ量の増加に対応してパフォーマンスを維持できるので、ストレージがボトルネックになるのを防止できます。Managed Lustre について概説した Omdia の動画をこちらでご覧いただけます。
エージェント AI は引き続き大規模なコンテキスト ウィンドウを活用しており、エンドユーザーが LLM とやり取りする際に応答性の高いエクスペリエンスを提供するうえで、ストレージの課題が生じる可能性があります。コンテキスト ウィンドウが大きいと、アクセラレータのローカルメモリが枯渇しやすくなり、モデルが外部ストレージにアクセスする必要があるため、レイテンシの影響を受けやすくなります。
業界全体でイノベーションを推進
| 業種 |
|---|
AI と ML データ不足を解消し、基盤モデルを大規模にトレーニングできます。Managed Lustre はコンピューティングとストレージを分離することで、ミリ秒未満の外部 KV キャッシュ保存により、最も高価なアクセラレータを完全な飽和状態に保ち、LLM 推論のスループットを向上させています。 Google Cloud での AI の詳細をご覧ください。 |
医療とライフ サイエンス 画期的なイノベーションの推進による新たな治療法の開発創薬の加速、複雑なゲノム シーケンスの分析、AI 主導の Medical Imaging Suite の強化に必要な極めて高い IOPS を実現し、研究者や臨床医が分析情報を得るまでの時間を大幅に短縮します。 Google Cloud のヘルスケアとライフ サイエンス業界向けソリューションをご覧ください。 |
マシンビジョン、ロボット工学、自律走行車 ソフトウェア定義車両のパイプラインを加速します。イノベーターがペタバイト規模のセンサー テレメトリーを簡単に取り込めるようにする一方で、空気力学、安全、熱最適化のシミュレーションのためのゼロレイテンシ ストレージで研究開発エンジニアリングを強化します。 Google Cloud の自動車業界向けソリューションの詳細をご確認ください。 |
メディアとエンターテイメント 妥協のないストレージ パフォーマンスで、制作の締め切りを遵守しましょう。シームレスな高解像度動画編集、リアルタイムの VFX レンダリング、ポストプロダクション ワークフローの高速化に必要な非常に高いスループットをスタジオで実現できます。 Google Cloud のメディアとエンターテイメント業界向けソリューションをご覧ください。 |
AI と ML
データ不足を解消し、基盤モデルを大規模にトレーニングできます。Managed Lustre はコンピューティングとストレージを分離することで、ミリ秒未満の外部 KV キャッシュ保存により、最も高価なアクセラレータを完全な飽和状態に保ち、LLM 推論のスループットを向上させています。
Google Cloud での AI の詳細をご覧ください。
医療とライフ サイエンス
画期的なイノベーションの推進による新たな治療法の開発創薬の加速、複雑なゲノム シーケンスの分析、AI 主導の Medical Imaging Suite の強化に必要な極めて高い IOPS を実現し、研究者や臨床医が分析情報を得るまでの時間を大幅に短縮します。
Google Cloud のヘルスケアとライフ サイエンス業界向けソリューションをご覧ください。
マシンビジョン、ロボット工学、自律走行車
ソフトウェア定義車両のパイプラインを加速します。イノベーターがペタバイト規模のセンサー テレメトリーを簡単に取り込めるようにする一方で、空気力学、安全、熱最適化のシミュレーションのためのゼロレイテンシ ストレージで研究開発エンジニアリングを強化します。
Google Cloud の自動車業界向けソリューションの詳細をご確認ください。
メディアとエンターテイメント
妥協のないストレージ パフォーマンスで、制作の締め切りを遵守しましょう。シームレスな高解像度動画編集、リアルタイムの VFX レンダリング、ポストプロダクション ワークフローの高速化に必要な非常に高いスループットをスタジオで実現できます。
Google Cloud のメディアとエンターテイメント業界向けソリューションをご覧ください。
料金
| Managed Lustre の料金 | Managed Lustre の料金は、主にロケーションとサービスレベルに基づいています。 |
|---|---|
| サービスレベル | 料金 |
1 TiB あたり 1,000 MB/秒 スループットが重要な AI / ML トレーニングなどの高パフォーマンス ワークロードに最適です。 | $0.60~(GiB 単位/月) |
1 TiB あたり 500 MB/秒 高パフォーマンスのバランス型に最適: 大量のスループットを必要とするものの、価格とパフォーマンスのバランスを取ることがメリットにつながる、要求の厳しい AI / ML ワークロード、複雑な HPC アプリケーション、データ集約型の分析に最適です。 | $0.34~(GiB 単位/月) |
1 TiB あたり 250 MB/秒 汎用 HPC とスループット重視の AI に最適: 幅広い HPC ワークロード、AI / ML 推論、データの前処理、従来の NFS よりも大幅に優れたパフォーマンスを必要とするアプリケーションに適しており、費用対効果の高い価格設定となっています。 | $0.21~(GiB 単位/月) |
1 TiB あたり 125 MB/秒 並列アクセスが必要な容量重視のワークロードに最適: 大容量と並列ファイル システム アクセスが重要なシナリオ向けに設計されています。入出力が制約になる並列タスクが少ない場合に適しています。 | $0.145~(GiB 単位/月) |
Google Cloud の料金を確認する。すべての料金の詳細を見る。
Managed Lustre の料金
Managed Lustre の料金は、主にロケーションとサービスレベルに基づいています。
1 TiB あたり 1,000 MB/秒
スループットが重要な AI / ML トレーニングなどの高パフォーマンス ワークロードに最適です。
$0.60~(GiB 単位/月)
1 TiB あたり 500 MB/秒
高パフォーマンスのバランス型に最適: 大量のスループットを必要とするものの、価格とパフォーマンスのバランスを取ることがメリットにつながる、要求の厳しい AI / ML ワークロード、複雑な HPC アプリケーション、データ集約型の分析に最適です。
$0.34~(GiB 単位/月)
1 TiB あたり 250 MB/秒
汎用 HPC とスループット重視の AI に最適: 幅広い HPC ワークロード、AI / ML 推論、データの前処理、従来の NFS よりも大幅に優れたパフォーマンスを必要とするアプリケーションに適しており、費用対効果の高い価格設定となっています。
$0.21~(GiB 単位/月)
1 TiB あたり 125 MB/秒
並列アクセスが必要な容量重視のワークロードに最適: 大容量と並列ファイル システム アクセスが重要なシナリオ向けに設計されています。入出力が制約になる並列タスクが少ない場合に適しています。
$0.145~(GiB 単位/月)
Google Cloud の料金を確認する。すべての料金の詳細を見る。
ビジネスケース
Managed Lustre を使用しているお客様の事例
「企業がディープフェイクの音声、動画、画像を検出してブロックできるかどうかは、モデルの性能にかかっています。Managed Lustre は、動的なデータセットを使用したモデルのトレーニングを成功させるうえで不可欠です。GPU の性能を完全に引き出せているため、当社が評価した他のストレージ ソリューションよりも 6 倍高速です。」
同社の成功事例はこちらからご覧いただけます。
—Resemble AI、CEO、Zohaib Ahmed 氏
「Managed Lustre を使用することで、他の Google Cloud ソリューションと比較して、AFEELA Intelligent Drive の AI モデル トレーニングを 3 倍にスケールできます。」
—ソニー・ホンダモビリティ株式会社、AI & データ分析プラットフォーム担当シニア マネージャー、片岡基氏
「Managed Lustre を VTC(Vertex トレーニング クラスタ)と統合することで、Salesforce AI Research での典型的なオンボーディングのボトルネックが解消され、推論ワークロードを迅速に実行できるようになりました。この高スループット、低レイテンシのストレージにより、B200 GPU では完全に飽和状態が維持され、H200 と比較して大規模言語モデルの推論で大幅なパフォーマンスの向上を実現できます。お客様にとっては、以前のレイテンシよりはるかに低いレイテンシで複雑な推論を処理できる、より高速で応答性の高い AI エージェントに直結します。
— Salesforce、プリンシパル ソフトウェア エンジニア、Lavanya Karanam 氏
「Google Cloud に移行したことで、研究速度が抜本的に変わりました。私の仕事は、膨大なデータセットを用いた大規模なニューラル ネットワークのトレーニングです。このデータセットには、クラスタチームがアップロードした Common Corpus の全データも含まれており、私もクラスタから直接アクセスできるようになっています。この完全なデータセットへのアクセスは、これ以外のインフラストラクチャでは、到底実現できなかったでしょう。マネージド Lustre のおかげで、以前はパイプラインのボトルネックとなっていたデータ取り込みが今では数秒で完了できるようになったほか、GPU を常に最大限活用して、キュー待ちの時間も大幅に短縮されました。その結果、私が行っているすべての実験で、分析情報が得られるまでの時間が大幅に短縮されました。」
— オールド ドミニオン大学、バージニア州モデリング・分析・シミュレーション センター(VMASC)、リサーチ アシスタント プロフェッサー、Christopher J. Lynch 博士
「Managed Lustre のおかげで、数学的推論モデルのトレーニング テストの実行中に発生する中断が少なくとも 50% 削減されたので、テストを 2 倍多く実行できるようになりました。このサービスを「ホット」チェックポイントのリージョン キャッシュとして統合したことで、起動の速度、信頼性、利便性が向上し、チェックポイントの永続化も実現できました。このワークフローでは、トレーニング ジョブがチェックポイントを書き込み、後続の推論ジョブや新しいトレーニング ジョブがオフライン システムでそのチェックポイントを使用します。これにより、データ取得速度が最大 15 倍向上し、起動時間が 50% 以上短縮されます。Lustre は追加設定なしで信頼性の高いマウント ファイル システムとして使用でき、高いパフォーマンスを発揮するので、当社の研究チームは、より自力で新しいトレーニング テクノロジーのテストを行えるようになりました。これにより、他のストレージから同じデータを取得するよりも高いパフォーマンスを維持しながら、イテレーション サイクルを簡単に 2 倍に増やすことができます。」
—Harmonic、インフラストラクチャ責任者、Riley Patterson 氏
Managed Lustre で GKE ワークロードをスケーリング
Google Kubernetes Engine(GKE)で Managed Lustre CSI ドライバを使用して、コンテナ化された AI、ML、HPC ワークロード向けに高性能ストレージをシームレスにプロビジョニングする方法を説明するガイド。ブログを読む
Managed Lustre で AI と HPC を高速化
Managed Lustre でハイ パフォーマンス コンピューティング ワークロード向けの並列ファイル システムのデプロイを簡素化する方法の概要。ブログを読む
Managed Lustre を使用した外部 KV キャッシュ
Lustre を使用して大規模言語モデル(LLM)推論の KV キャッシュをオフロードし、TPU / GPU のメモリ オーバーヘッドを削減する方法について詳しく説明します。ブログを読む




