AI ワークロードとは

AI ワークロードとは、AI または ML システムを強化する計算タスクとプロセスの集合です。AI アプリケーションが学習、予測、新しいコンテンツの生成を行うために必要な、ヘビーデューティなコンピューティングと考えてください。これらのワークロードは、ML システムを推進する主要なステージ(データの準備、モデルのトレーニング、推論、モニタリング)を網羅しているため、AI を構築する専門家にとって不可欠なものとなります。

AI ワークロードのオーケストレーション オプション

AI ワークロードの種類

AI / ML ワークロードは、大きく 2 つの方法で分類できます。

  • AI ライフサイクルにおける段階 (データの前処理、トレーニング、推論など)
  • 実行するタスクの種類 自然言語処理やコンピュータ ビジョンなど)

これらのタイプを理解することで、技術的な意思決定者は、それぞれのタイプに必要なインフラストラクチャ、コンピューティング能力、オーケストレーション戦略を計画できます。

AI ワークロード タイプ

AI ライフサイクルにおける主な機能

必要な計算のフォーカス

データの準備


元データをクレンジング、変換、フォーマットして、モデルの準備が整った状態にする。

データの操作に高 I/O(入力/出力)と CPU を多用する処理が必要。

モデルのトレーニング

準備したデータを使用して AI モデルを教え、精度を高めるためにパラメータを繰り返し調整する。

極めて高いコンピューティング能力(GPU/TPU)、大容量メモリ、並列処理。

モデルの推論

トレーニングされたモデルをデプロイして、新しいデータに対するリアルタイムの予測や出力の生成を行う。

低レイテンシと高スループットを実現するには、多くの場合、専用のエッジまたはクラウド ハードウェアが必要。

生成 AI

大規模な基盤モデルを使用して、テキスト、画像、コードなどの新しいコンテンツを作成する。

大規模な推論とファインチューニングには、ハイエンドの GPU / TPU が必要。

コンピュータ ビジョン


機械が画像や動画などのビジュアル データを解釈し、それに基づいて行動できるようにする。

大量のデータ スループットと、ディープ ラーニングに特化した高速化。

自然言語処理(NLP)

翻訳や要約などのタスクのために人間の言語を処理して理解する。

GPU アクセラレーションによるトレーニングと、リアルタイム アプリケーション向けの低レイテンシのサービングの組み合わせ。

AI ワークロード タイプ

AI ライフサイクルにおける主な機能

必要な計算のフォーカス

データの準備


元データをクレンジング、変換、フォーマットして、モデルの準備が整った状態にする。

データの操作に高 I/O(入力/出力)と CPU を多用する処理が必要。

モデルのトレーニング

準備したデータを使用して AI モデルを教え、精度を高めるためにパラメータを繰り返し調整する。

極めて高いコンピューティング能力(GPU/TPU)、大容量メモリ、並列処理。

モデルの推論

トレーニングされたモデルをデプロイして、新しいデータに対するリアルタイムの予測や出力の生成を行う。

低レイテンシと高スループットを実現するには、多くの場合、専用のエッジまたはクラウド ハードウェアが必要。

生成 AI

大規模な基盤モデルを使用して、テキスト、画像、コードなどの新しいコンテンツを作成する。

大規模な推論とファインチューニングには、ハイエンドの GPU / TPU が必要。

コンピュータ ビジョン


機械が画像や動画などのビジュアル データを解釈し、それに基づいて行動できるようにする。

大量のデータ スループットと、ディープ ラーニングに特化した高速化。

自然言語処理(NLP)

翻訳や要約などのタスクのために人間の言語を処理して理解する。

GPU アクセラレーションによるトレーニングと、リアルタイム アプリケーション向けの低レイテンシのサービングの組み合わせ。

AI ワークロードに関するよくある質問

AI ワークロードは主に、データ集約型であること、大規模なデータセット(多くの場合構造化されていない)を処理すること、コンピューティング負荷が高いこと、トレーニングに GPU などの特殊な並列処理ハードウェアを必要とすることが特徴です。一方、リレーショナル データベースやシンプルなウェブサーバーなどの従来のワークロードは、一貫したトランザクション スループットに重点を置いており、通常は標準的な CPU アーキテクチャ向けに最適化されています。

トレーニング ワークロードは、新しいモデルを作成する場合や、既存のモデルに新しいデータをフィードすることで大幅な改善を図る場合に選択します。これには、高いコンピューティング能力が必要になることがあり、費用も高くなる可能性があります。

推論ワークロードは、モデルが完成して本番環境にデプロイした後、リアルタイムの予測やバッチ予測を行う必要がある場合に使用します。この場合、トランザクションあたりの費用を抑えつつ、低レイテンシと高スループットが優先されます。

最大の課題となるのは、通常は、オーケストレーション(GPUTPU の大規模なクラスタを効率的に調整すること)、データ マネジメント(ペタバイト規模のデータへの高速かつ信頼性の高いアクセスを確保すること)、費用管理(高価なコンピューティング リソースの使用量を管理して、アイドル状態のインフラストラクチャへの過剰な支出を防ぐこと)に関連するものです。

新たなトレンドとしては、インフラストラクチャ管理を抽象化するための GPU 対応サーバーレス プラットフォームの活用、柔軟なリソース利用のためのマルチクラウド オーケストレーションの導入、ゼロからのトレーニングを最小限に抑え、ファインチューニングと効率的なサービングに重点を置いた基盤モデルの活用などが挙げられます。

AI ワークロードの一般的なユースケース

AI ワークロードはデジタル トランスフォーメーションの中核を担います。高い影響力を持つ実世界のアプリケーションをほぼすべての業界に提供し、データを実用的な価値に変えます。

パーソナライズされたカスタマー エクスペリエンス

AI ワークロードは、小売、e コマース、メディア企業のレコメンデーション エンジンを強化できます。たとえば、あるストリーミング会社では、数十億件の視聴習慣データに基づいてトレーニングされた高度な ML モデルを使用して、高度にパーソナライズされたコンテンツを提案しています。

製造業における予測メンテナンス

重要な機器にセンサーを設置することで、大量の時系列データを生成できます。AI ワークロードは、このデータを継続的に分析して、数日前または数週間前に機械の故障を予測できるため、計画的なメンテナンスが可能になります。

不正行為の検出と財務リスク分析

金融機関では、ML ワークロードを使用して数百万件のトランザクションをリアルタイムで分析しています。これらのモデルは不正を示すパターンを特定でき、一部のシステムでは不正なトランザクションを高い精度と低い誤検知率で検出することが可能です。

医療画像と診断

コンピュータ ビジョンのワークロードは、X 線、CT スキャン、MRI などの医療画像の分析に使用されます。これらの AI モデルは、潜在的な異常(初期段階の腫瘍など)を検出でき、多くの場合、そのスピードと一貫性により、人間の臨床医がより迅速かつ正確な診断を下すのに役立ちます。

生成 AI とコンテンツ制作

生成 AI モデルに基づくワークロードは、クリエイティブ分野や技術分野の変革に役立っています。マーケティング コピーの自動生成、広告用のリアルな画像合成、オンライン ミーティングの要約作成、さらには、デベロッパーを支援するコードブロックの提案や補完などに活用されています。

Google Cloud での AI ワークロードの実装

Google Cloud は、Google 独自の AI の進化を支えるインフラストラクチャを基盤として、強力な統合エコシステムを提供します。AI および ML ワークロードのホスティング、スケーリング、オーケストレーション、ガバナンスに最適なプラットフォームです。

Vertex AI は、ML モデルの構築、デプロイ、スケーリングを可能にする、すべてのクラウド サービスをまとめた統合 ML プラットフォームです。MLOps ライフサイクル全体を単一の環境で提供できるため、データ サイエンティストやエンジニアはツールの統合ではなくモデル開発に集中できます。

Google Cloud には、Cloud TPU や Cloud GPU など、幅広いコンピューティング オプションが用意されています。Cloud TPU(Tensor Processing Unit)は、大規模な AI モデルを提供することを目的に設計されています。NVIDIA 画像処理装置(GPU)を搭載した Cloud GPU は、さまざまな AI ワークロードや HPC ワークロード向けに、柔軟かつ高性能なコンピューティングを提供します。


Vertex AI Pipelines を使用すると、Kubeflow などのオープンソース ツールを使用して、ML ワークフロー全体を自動化、管理、モニタリングできます。これは、データ準備、トレーニング、デプロイのための信頼性が高く再現可能なプロセスを作成するうえで不可欠です。

Google Cloud の Identity and Access Management(IAM)は、AI リソース、データ、モデルへのアクセス権限や管理機能をきめ細かく制御できます。これにより、許可された担当者およびサービスのみが機密性の高い AI ワークロードとやり取りできるようになり、厳格な規制基準とセキュリティ基準を満たすことができます。

Google Kubernetes Engine(GKE)は、コンテナ化された AI ワークロードの実行に不可欠な、フルマネージドでスケーラブルな Kubernetes サービスです。複雑なクラスタのオーケストレーションと管理を可能にし、ハードウェア アクセラレーターの柔軟性を備え、パブリック クラウドとオンプレミス システムをシームレスにまたいで AI 環境を拡張できます。

AI ワークロードのメリット

AI ワークロードの導入は、主として、効率性、優れたスケーラビリティ、データドリブンなイノベーションを迅速に推進する能力に重点を置くことで、ビジネスと技術の両面で大きなメリットが得られます。これにより、組織は事後対応型の運用から、よりプロアクティブでインテリジェントな戦略へと移行できます。

スケーラビリティとパフォーマンス向上

AI ワークロード、特にクラウドでは、膨大なデータセットや複雑なモデルを処理するために、数百の GPU を追加するなどして、リソースをオンデマンドでスケーリングできます。多額の先行投資は必要ありません。

運用コストの最適化

クラウドベースの AI プラットフォームでは、実際に使用したコンピューティング リソースに対してのみ料金を支払うため、使用しない期間も料金を支払う専用のオンプレミス ハードウェア クラスタを維持する場合よりも費用を最適化できます。

標準化 / 合理化されたデプロイ パイプライン

AI ワークロード向けのプラットフォームでは、MLOps(機械学習オペレーション)ツールを使用して、データの準備からモデルのデプロイやモニタリングに至るまで、エンドツーエンドのライフサイクルを自動化および標準化します。

セキュリティとガバナンスの統合

クラウド プラットフォームには、ID とアクセスの管理(IAM)やネットワーク セキュリティなどの組み込みのセキュリティ機能が用意されており、AI 環境に直接統合されています。これにより、規制コンプライアンスやガバナンスの要件を満たすプロセスを簡素化できます。

ハイブリッド環境とマルチクラウド環境のサポート

AI ソリューションは柔軟に実行できるように設計されています。コンテナとオーケストレーション ツールを活用し、パブリック クラウド プロバイダをまたいでワークロードを管理、実行できます。

Vertex AI を使用してモデル推論ワークロードをデプロイする手順

トレーニング済みの ML モデルを推論用にデプロイすることは、AI ワークロードを本番環境に移行するうえで重要なステップです。Vertex AI は、基盤となるインフラストラクチャを処理するマネージド サービスを提供することで、このプロセスを簡素化します。

トレーニング済みモデルを Model Registry にアップロードする

  • 最初の手順は、トレーニング済みモデルのアーティファクトを取得して Vertex AI Model Registry にアップロードすることです。この中央リポジトリは、モデルを安全に保存してバージョン管理し、デプロイの準備を整えます。

マネージド エンドポイントを作成する

  • 次に、モデル専用のリアルタイム HTTP サーバーであるエンドポイントを作成します。このエンドポイントは、アプリケーションが予測を取得するために呼び出す URL です。N1 CPU マシンや、高速処理のための特定の GPU タイプなど、使用するコンピューティング リソースのタイプを定義します。

エンドポイントにモデルをデプロイする

  • エンドポイントを作成したら、モデルの特定のバージョンをデプロイします。このステップでは、モデルと予測サーバーコードを含むコンテナ イメージ(多くの場合、Vertex AI が提供するビルド済みのイメージ)を指定します。また、トラフィック分割を構成して、新しいモデル バージョンを完全にロールアウトする前に、ライブ トラフィックのごく一部でテストできるようにします。

オンライン予測の送受信

  • デプロイが完了すると、モデルをオンライン予測に使用できます。アプリケーションは、HTTP リクエストを介してエンドポイントの URL に入力データ(ペイロード)を送信します。その後、マネージド サービスが推論ワークロードを処理し、予測や結果を準リアルタイムで返します。

エンドポイントのモニタリングと管理

  • 最後のステップは継続的なモニタリングです。Vertex AI の統合ツールを使用して、エンドポイントの健全性(レイテンシ、エラー率、リソース使用率)とモデル自体のパフォーマンス(ドリフト、スキュー、予測の品質)を追跡し、推論ワークロードの信頼性と精度を長期にわたって維持します。

Google Cloud でビジネスの課題を解決する

新規のお客様には、Google Cloud で使用できる無料クレジット $300 分を差し上げます。

参考情報

  • GKE での AI/ML ワークロードの概要: Google Kubernetes Engine は、コンテナ化された AI および ML ワークロードをデプロイおよびスケーリングするためのマネージド プラットフォームを提供し、GPU や TPU などのハードウェア アクセラレータを使用した大規模なトレーニングと推論をサポートします。
  • AI / ML ワークロードのストレージを設計する: このガイドは、AI および ML ワークフロー向けのストレージ戦略を設計するのに役立ちます。レイテンシ、スループット、容量などの特定の要件に基づいて、Cloud Storage や Managed Lustre などのサービスを推奨しています。

次のステップ

$300 分の無料クレジットと 20 以上の Always Free プロダクトを活用して、Google Cloud で構築を開始しましょう。

  • Google Cloud プロダクト
  • 100 種類を超えるプロダクトをご用意しています。新規のお客様には、ワークロードの実行、テスト、デプロイができる無料クレジット $300 分を差し上げます。また、すべてのお客様に 25 以上のプロダクトを無料でご利用いただけます(毎月の使用量上限があります)。
Google Cloud