IT 業界の予測: ワークロードに最適化された極めて信頼性の高いインフラストラクチャの時代が到来
Google Cloud Japan Team
※この投稿は米国時間 2022 年 12 月 14 日に、Google Cloud blog に投稿されたものの抄訳です。
編集者注: この投稿は Google Cloud のエキスパートが IT 業界の今後を予測しているシリーズの一部です。今後数年間の IT 業界の変化について予測した内容の一覧をご覧ください。
予測: 2025 年までに、クラウド インフラストラクチャに関する意思決定の半分以上が AI と機械学習(ML)によって自動化される
Google のインフラストラクチャは、数十億のユーザーをサポートするスケールアウト機能を活かして設計されており、検索、YouTube、Gmail などのサービスを毎日支えています。そのためには、グローバル スケールのコンピューティングとストレージのシステムを他に先駆けて開発し、新たなイノベーションによってネットワーク レイテンシや距離の制限を縮小する必要がありました。その過程において、Google ではクラウド インフラストラクチャを単に便利なものではなく、インスピレーションや新しい機能の源泉ととらえるようになりました。
しかしながら、この業界のクラウド インフラストラクチャに対する需要が増え続けている一方で、基盤となるハードウェアから得られる効率性は頭打ちになっています。過去には、年間 30~40% のパフォーマンス向上が見られ、多くの場合、これらは単一のインフラストラクチャ構成で大部分のワークロードのニーズを満たせるレベルでした。こうした改善が落ち着き、AI / ML や分析などの新しいワークロードが出現するにつれ、インフラストラクチャの種類や機能も爆発的に増えてきました。その一方で、特定のワークロードに適したインフラストラクチャ コンポーネントの組み合わせを選択するという負担は、依然として組織のクラウド アーキテクトにのしかかっています。
しかし、2025 年までに、インフラストラクチャに関する意思決定の負担と複雑さは AI と ML の自動化の機能によって解消されると予測しています。これは、専用のインフラストラクチャ、規範的なアーキテクチャ、エコシステムを自動的に組み合わせて、ワークロードに最適化された極めて信頼性の高いインフラストラクチャを提供するものです。したがって、クラウド アーキテクトはビジネス ロジックとイノベーションの実現に注力できるようになり、そのロジックを基盤となるインフラストラクチャに割り当てることに煩わされずに済むようになります。
Google ではすでにこのビジョンを実現するための投資を行っており、新しい C3 VM 用の Infrastructure Processing Unit(IPU)や、新しい Tensor Processing Unit 用の水冷ボードなどのカスタム シリコンを構築しています。後者の TPU v4 プラットフォームは、おそらく世界で最速、最大かつ最も効率的な機械学習スーパーコンピュータです。競合と比較して、大規模なワークロードを最大 80% 速く、50% 安価にトレーニングできます。言い換えれば、TPU v4 は重要な ML / AI サービスのパフォーマンスを半分の費用でほぼ 2 倍にし、組織がビジネス サービスで大規模な学習と推論を活用して実現できることに新たな可能性を切り開きます。
この IPU と TPU は、クラウド インフラストラクチャに関する意思決定を自動化するための基盤となるものです。ワークロードのパフォーマンスと信頼性を向上させるプロアクティブなインフラストラクチャの推奨のために、テレメトリ データと ML ベースの分析をサポートできます。
ハードウェアの仕様を決定して適切なインフラストラクチャを構築する代わりに、ワークロードを指定するだけで済みます。AI と ML がその負担を引き受け、予算、パフォーマンス、スケーリングの要件に基づいて最適なオプションを推奨、構成、特定します。私たちにとって最も喜ばしいことは、これによりサービス イノベーションを大幅に速いペースで実現できることです。そして、これが優れたクラウド インフラストラクチャの最終目標です。
- システムおよびサービス インフラストラクチャ部門バイス プレジデント兼ゼネラル マネージャー、Amin Vahdat