コンテンツに移動
リテール

エッジでの推論が小売業者向けの新たな AI ユースケースを実現

2025年1月21日
Mike Ensor

Tech Lead Google Distributed Cloud, Google

※この投稿は米国時間 2025 年 1 月 14 日に、Google Cloud blog に投稿されたものの抄訳です。

小売業者にとって、データに基づいてインテリジェントな意思決定をリアルタイムで行えることは、もはや強みではなく、必須条件となっています。時代の先端を行くには、AI を受け入れる必要がありますが、現在のテクノロジーを全面的に見直すには費用がかかるため、多くの小売業者は導入に慎重です。従来型の AI 実装には多額の先行投資が必要なこともありますが、既存のアセットを生かして AI を活用することも可能です。

セキュリティ カメラや POS システムなどのアセットを使い、予算を圧迫することなく、店舗分析、取引の迅速化、スタッフの支援、損失防止、そしてパーソナライズが可能です。この投稿では、遠隔地にあるクラウド サーバーに頼らずに、AI に最適化されたアプリケーションをローカル デバイスで実行する「エッジ推論」という手法で、小売業のアセットを強力なツールに変える方法を探っていきます。

小売業が AI 基盤を築く方法

小売業者は、ビジネスの至るところで、AI に活用できるアセットを見つけることができます。ハンドブック、トレーニング資料、運用手順の大規模なリポジトリを AI 用アセットに変えることで、従業員の生産性を向上できます。

店舗設備、人的資源、損失防止のデジタル マニュアル、分野固有の情報を、エージェント ベースの AI アシスタントと組み合わせることで、コンテキストに応じた「次のアクションのアシスタント」を実現することもできます。AI に最適化されたアプリケーションをクラウドからエッジまで拡張することで、販売員が AI アシスタントに「次は何をすればいいか」を尋ね、その質問に対してパーソナライズされた具体的な回答をすぐに受け取れます。

エッジの処理能力の判断ポイント: CPU GPU

次に、アプリケーションを動作させるのに適切なハードウェアという重要な判断について見ていきます。2 つの主なオプションは CPU(中央処理装置)と GPU(画像処理装置)で、それぞれに長所と短所があります。情報に基づいて適切な選択を行うには、具体的なユースケースを理解し、パフォーマンスの要件、帯域幅、モデルの処理と、費用に関する考慮事項のバランスをとる必要があります。意思決定の際、特にリージョン DC とエッジのどちらにデプロイするか選ぶ際には、以下の表を参考にしてください。

意思決定のマトリックス(表):

機能

CPU

GPU

ユースケース(例)

費用

低い

高い

基本的な分析、人数計測、簡単な物体検出

パフォーマンス

必須: 汎用的なタスクに適切

オプション: 並列処理に適切

複雑な AI、映像分析、高解像度の画像処理、ML モデルのトレーニング

消費電力

低い

高い

遠隔地、小さなフォーム ファクタのデバイス

レイテンシ

低(並列タスク向け)

リアルタイムのアプリケーション、即時の分析情報

デプロイするロケーション

エッジまたはリージョン DC

通常はエッジだが、リージョン DC でも可能

レイテンシ、帯域幅、データ処理のニーズで判断

小売業の意思決定者の主な判断基準

  • AI モデルの複雑さ: 基本的な物体検出など、小売業のユースケースに特化した AI モデルは多くの場合、CPU で効率的に実行できます。リアルタイムの映像分析や、大規模なデータセットを使ったおすすめのパーソナライズなど、より複雑なモデルには、一般に GPU の並列処理能力が必要となります。

  • データの量と速度: 大量のデータを高速で処理する場合は、ニーズに対応するために GPU が必要となる場合があります。データセットが小さく、スループットが低い場合は、CPU で十分かもしれません。

  • レイテンシの要件: リアルタイムの不正検出など、超低レイテンシを求められるユースケースでは、GPU のほうが、特にデータソースに近いエッジにあると、処理速度が速くなります。ただし、GPU をリージョンに置いた場合、エッジとリージョン DC との間のネットワーク レイテンシがこのメリットを打ち消す可能性があります。

  • 予算: 通常は GPU のほうが CPU よりも費用が高くなります。判断を下す前に、GPU を利用するソリューションに投資した場合の予算と見込まれる費用対効果をよく検討しましょう。可能な場合は、CPU ベースのソリューションとして始め、絶対に必要な場合にのみ GPU にアップグレードするようにします。

  • 消費電力: GPU は一般に CPU よりも多くの電力を消費します。エッジへのデプロイ時、特に利用可能な電力が限られているロケーションでは、この点が重要な検討事項となります。電力と冷却を一元管理しているリージョン DC にデプロイする場合は、それほど問題にはなりません。

  • デプロイするロケーション: 処理能力とデータソースとの距離がレイテンシに大きく影響します。リアルタイムのユースケースでは、エッジ(店舗内)にデプロイすると、レイテンシを最小限に抑えることができます。リージョン DC は、ネットワーク レイテンシが発生するため、即時の対応を必要とするアプリケーションには不向きです。ただし、高い処理能力を必要とするが低レイテンシは必要としない一部のタスク(夜間の在庫分析など)は、リソースをプールして一元管理できるリージョン DC が適している可能性があります。

すべての AI ML で新しいテクノロジーへの投資が必要となるわけではありません。多くの AI / ML ベースのユースケースは、GPU を使わずに必要な結果を生み出せます。たとえば、Google Distributed Cloud のインタラクティブ ゲーム Price-a-Tray で参照されている、ストレージ分析と迅速な決済手続きの目視検査を考えてみましょう。動画ストリームが 25 FPS で動作を続ける間、推論は 5 FPS で実行されます。その後、1 つのシステムで動画ストリーム、検出、境界ボックスが実行されるのではなく、返された情報の上に境界ボックスが描かれます。この例では、多くの処理を複数のコアとスレッドに分散できるため、CPU のより効率的な使用が可能になっています。

これに対して、GPU のほうが理にかなっている場合もあります。非常に高い適合率が求められる場合、モデルの量子化に伴い忠実度が低下すると、質が許容可能な基準を下回る可能性があるため、GPU が必要となることが多くなります。商品のトラッキングの例で、ミリメートル単位の移動の精度が求められる場合、ある程度高速で移動する商品に 5 FPS は十分ではなく、GPU が必要となる可能性が高くなります。

https://storage.googleapis.com/gweb-cloudblog-publish/images/image1_5Xp0EUJ.max-2000x2000.png

GPU CPU の間には専用アクセラレータの世界もあります。アクセラレータは、システムの周辺機器、または CPU に対する特殊な命令セットの形で存在します。CPU は高度な行列乗算によるテンソル操作がオンチップにある状態で製造され、ML / AI モデルのパフォーマンスを大幅に高めます。1 つの具体例として、OpenVINO 向けにコンパイルされたモデルの実行があります。また、Google Distributed CloudGDC)の Server Rack の各エディションでは、Intel Core プロセッサが使われています。これは柔軟性の向上を念頭に設計された、行列演算に対応するアーキテクチャであり、従来の ML モデルサービスのサービングと比べて ML モデルのパフォーマンスを高めます。

ビジネスへの AI の導入

既存のインフラストラクチャを有効に活用し、AI をエッジにデプロイすることで、小売業者は最先端のカスタマー エクスペリエンスを提供し、運用を効率化し、従業員の生産性を向上できます。

Google Distributed Cloud を利用して小売ブランドを変革させる方法をさらに詳しくご確認ください。

- GoogleGoogle Distributed Cloud 担当テクニカル リード Mike Ensor

 

投稿先