AI ワークロードとは、AI または ML システムを強化する計算タスクとプロセスの集合です。AI アプリケーションが学習、予測、新しいコンテンツの生成を行うために必要な、ヘビーデューティなコンピューティングと考えてください。これらのワークロードは、ML システムを推進する主要なステージ(データの準備、モデルのトレーニング、推論、モニタリング)を網羅しているため、AI を構築する専門家にとって不可欠なものとなります。
AI ワークロード タイプ | AI ライフサイクルにおける主な機能 | 必要な計算のフォーカス |
データの準備 | 元データをクレンジング、変換、フォーマットして、モデルの準備が整った状態にする。 | データの操作に高 I/O(入力/出力)と CPU を多用する処理が必要。 |
モデルのトレーニング | 準備したデータを使用して AI モデルを教え、精度を高めるためにパラメータを繰り返し調整する。 | 極めて高いコンピューティング能力(GPU/TPU)、大容量メモリ、並列処理。 |
モデルの推論 | トレーニングされたモデルをデプロイして、新しいデータに対するリアルタイムの予測や出力の生成を行う。 | 低レイテンシと高スループットを実現するには、多くの場合、専用のエッジまたはクラウド ハードウェアが必要。 |
生成 AI | 大規模な基盤モデルを使用して、テキスト、画像、コードなどの新しいコンテンツを作成する。 | 大規模な推論とファインチューニングには、ハイエンドの GPU / TPU が必要。 |
コンピュータ ビジョン | 機械が画像や動画などのビジュアル データを解釈し、それに基づいて行動できるようにする。 | 大量のデータ スループットと、ディープ ラーニングに特化した高速化。 |
自然言語処理(NLP) | 翻訳や要約などのタスクのために人間の言語を処理して理解する。 | GPU アクセラレーションによるトレーニングと、リアルタイム アプリケーション向けの低レイテンシのサービングの組み合わせ。 |
AI ワークロード タイプ
AI ライフサイクルにおける主な機能
必要な計算のフォーカス
データの準備
元データをクレンジング、変換、フォーマットして、モデルの準備が整った状態にする。
データの操作に高 I/O(入力/出力)と CPU を多用する処理が必要。
モデルのトレーニング
準備したデータを使用して AI モデルを教え、精度を高めるためにパラメータを繰り返し調整する。
極めて高いコンピューティング能力(GPU/TPU)、大容量メモリ、並列処理。
モデルの推論
トレーニングされたモデルをデプロイして、新しいデータに対するリアルタイムの予測や出力の生成を行う。
低レイテンシと高スループットを実現するには、多くの場合、専用のエッジまたはクラウド ハードウェアが必要。
生成 AI
大規模な基盤モデルを使用して、テキスト、画像、コードなどの新しいコンテンツを作成する。
大規模な推論とファインチューニングには、ハイエンドの GPU / TPU が必要。
コンピュータ ビジョン
機械が画像や動画などのビジュアル データを解釈し、それに基づいて行動できるようにする。
大量のデータ スループットと、ディープ ラーニングに特化した高速化。
自然言語処理(NLP)
翻訳や要約などのタスクのために人間の言語を処理して理解する。
GPU アクセラレーションによるトレーニングと、リアルタイム アプリケーション向けの低レイテンシのサービングの組み合わせ。
AI ワークロードは主に、データ集約型であること、大規模なデータセット(多くの場合構造化されていない)を処理すること、コンピューティング負荷が高いこと、トレーニングに GPU などの特殊な並列処理ハードウェアを必要とすることが特徴です。一方、リレーショナル データベースやシンプルなウェブサーバーなどの従来のワークロードは、一貫したトランザクション スループットに重点を置いており、通常は標準的な CPU アーキテクチャ向けに最適化されています。
トレーニング ワークロードは、新しいモデルを作成する場合や、既存のモデルに新しいデータをフィードすることで大幅な改善を図る場合に選択します。これには、高いコンピューティング能力が必要になることがあり、費用も高くなる可能性があります。
推論ワークロードは、モデルが完成して本番環境にデプロイした後、リアルタイムの予測やバッチ予測を行う必要がある場合に使用します。この場合、トランザクションあたりの費用を抑えつつ、低レイテンシと高スループットが優先されます。
新たなトレンドとしては、インフラストラクチャ管理を抽象化するための GPU 対応サーバーレス プラットフォームの活用、柔軟なリソース利用のためのマルチクラウド オーケストレーションの導入、ゼロからのトレーニングを最小限に抑え、ファインチューニングと効率的なサービングに重点を置いた基盤モデルの活用などが挙げられます。
AI ワークロードはデジタル トランスフォーメーションの中核を担います。高い影響力を持つ実世界のアプリケーションをほぼすべての業界に提供し、データを実用的な価値に変えます。
AI ワークロードは、小売、e コマース、メディア企業のレコメンデーション エンジンを強化できます。たとえば、あるストリーミング会社では、数十億件の視聴習慣データに基づいてトレーニングされた高度な ML モデルを使用して、高度にパーソナライズされたコンテンツを提案しています。
重要な機器にセンサーを設置することで、大量の時系列データを生成できます。AI ワークロードは、このデータを継続的に分析して、数日前または数週間前に機械の故障を予測できるため、計画的なメンテナンスが可能になります。
金融機関では、ML ワークロードを使用して数百万件のトランザクションをリアルタイムで分析しています。これらのモデルは不正を示すパターンを特定でき、一部のシステムでは不正なトランザクションを高い精度と低い誤検知率で検出することが可能です。
コンピュータ ビジョンのワークロードは、X 線、CT スキャン、MRI などの医療画像の分析に使用されます。これらの AI モデルは、潜在的な異常(初期段階の腫瘍など)を検出でき、多くの場合、そのスピードと一貫性により、人間の臨床医がより迅速かつ正確な診断を下すのに役立ちます。
生成 AI モデルに基づくワークロードは、クリエイティブ分野や技術分野の変革に役立っています。マーケティング コピーの自動生成、広告用のリアルな画像合成、オンライン ミーティングの要約作成、さらには、デベロッパーを支援するコードブロックの提案や補完などに活用されています。
Google Cloud は、Google 独自の AI の進化を支えるインフラストラクチャを基盤として、強力な統合エコシステムを提供します。AI および ML ワークロードのホスティング、スケーリング、オーケストレーション、ガバナンスに最適なプラットフォームです。
Vertex AI は、ML モデルの構築、デプロイ、スケーリングを可能にする、すべてのクラウド サービスをまとめた統合 ML プラットフォームです。MLOps ライフサイクル全体を単一の環境で提供できるため、データ サイエンティストやエンジニアはツールの統合ではなくモデル開発に集中できます。
Google Cloud には、Cloud TPU や Cloud GPU など、幅広いコンピューティング オプションが用意されています。Cloud TPU(Tensor Processing Unit)は、大規模な AI モデルを提供することを目的に設計されています。NVIDIA 画像処理装置(GPU)を搭載した Cloud GPU は、さまざまな AI ワークロードや HPC ワークロード向けに、柔軟かつ高性能なコンピューティングを提供します。
Vertex AI Pipelines を使用すると、Kubeflow などのオープンソース ツールを使用して、ML ワークフロー全体を自動化、管理、モニタリングできます。これは、データ準備、トレーニング、デプロイのための信頼性が高く再現可能なプロセスを作成するうえで不可欠です。
Google Cloud の Identity and Access Management(IAM)は、AI リソース、データ、モデルへのアクセス権限や管理機能をきめ細かく制御できます。これにより、許可された担当者およびサービスのみが機密性の高い AI ワークロードとやり取りできるようになり、厳格な規制基準とセキュリティ基準を満たすことができます。
Google Kubernetes Engine(GKE)は、コンテナ化された AI ワークロードの実行に不可欠な、フルマネージドでスケーラブルな Kubernetes サービスです。複雑なクラスタのオーケストレーションと管理を可能にし、ハードウェア アクセラレーターの柔軟性を備え、パブリック クラウドとオンプレミス システムをシームレスにまたいで AI 環境を拡張できます。
AI ワークロードの導入は、主として、効率性、優れたスケーラビリティ、データドリブンなイノベーションを迅速に推進する能力に重点を置くことで、ビジネスと技術の両面で大きなメリットが得られます。これにより、組織は事後対応型の運用から、よりプロアクティブでインテリジェントな戦略へと移行できます。
スケーラビリティとパフォーマンス向上
AI ワークロード、特にクラウドでは、膨大なデータセットや複雑なモデルを処理するために、数百の GPU を追加するなどして、リソースをオンデマンドでスケーリングできます。多額の先行投資は必要ありません。
運用コストの最適化
クラウドベースの AI プラットフォームでは、実際に使用したコンピューティング リソースに対してのみ料金を支払うため、使用しない期間も料金を支払う専用のオンプレミス ハードウェア クラスタを維持する場合よりも費用を最適化できます。
標準化 / 合理化されたデプロイ パイプライン
AI ワークロード向けのプラットフォームでは、MLOps(機械学習オペレーション)ツールを使用して、データの準備からモデルのデプロイやモニタリングに至るまで、エンドツーエンドのライフサイクルを自動化および標準化します。
セキュリティとガバナンスの統合
クラウド プラットフォームには、ID とアクセスの管理(IAM)やネットワーク セキュリティなどの組み込みのセキュリティ機能が用意されており、AI 環境に直接統合されています。これにより、規制コンプライアンスやガバナンスの要件を満たすプロセスを簡素化できます。
ハイブリッド環境とマルチクラウド環境のサポート
AI ソリューションは柔軟に実行できるように設計されています。コンテナとオーケストレーション ツールを活用し、パブリック クラウド プロバイダをまたいでワークロードを管理、実行できます。
トレーニング済みの ML モデルを推論用にデプロイすることは、AI ワークロードを本番環境に移行するうえで重要なステップです。Vertex AI は、基盤となるインフラストラクチャを処理するマネージド サービスを提供することで、このプロセスを簡素化します。
トレーニング済みモデルを Model Registry にアップロードする
マネージド エンドポイントを作成する
エンドポイントにモデルをデプロイする
オンライン予測の送受信
エンドポイントのモニタリングと管理