コンテンツに移動
AI & 機械学習

AI でカスタマー エクスペリエンスをオンラインと実店舗で拡大する方法

2025年10月23日
https://storage.googleapis.com/gweb-cloudblog-publish/images/livex-ai-dreamforce-hero.max-2600x2600.png
Jia Li

Co-Founder, President & Chief AI Officer, LiveX AI

Lisa Shen

Senior Product Manager, Google Cloud

※この投稿は米国時間 2025 年 10 月 15 日に、Google Cloud blog に投稿されたものの抄訳です。

急成長中の企業のカスタマー サービス チームは、顧客からの問い合わせが急増しているという厳しい現実に直面しています。しかし、このような急増に合わせて人的チームを拡大することは、必ずしも持続可能ではありません。

インテリジェントな AI ツールは、これに新たな道を開きます。AI ツールは日常的な質問に自動的に対応できるため、従業員は共感、判断、創造的な問題解決を必要とする、より複雑なカスタマー サービス業務に集中できます。

LiveX AI を使用すると、企業は自然な会話機能を大規模に提供する高度な AI システムを構築、デプロイできます。これらは、チャットボット、コールセンターのエージェント、さらには実店舗での 3D ホログラフィック ペルソナとしてさえ活躍する可能性があります。

数千件の同時リアルタイム インタラクションを低レイテンシで処理するには、強力で弾力的なインフラストラクチャが必要です。特に、複雑な問題を人間のエージェントにシームレスにエスカレーションする場合はなおさらです。

この共同技術投稿では、LiveX AI が Google Cloud 上でインテリジェントなカスタマー エクスペリエンス システムを構築、スケーリングするために使用している技術ブループリントを紹介し、適切なサービスの組み合わせによってこの変革がどのように可能になるかを示します。

このアーキテクチャが重要な理由: 実績ある費用対効果

このアーキテクチャは、測定可能なビジネス効果をもたらします。

  • Wyze のセルフサービス率は 90%以上: スマートホームのリーダーである Wyze は、LiveX AI を導入して 90% を超すセルフサービス率を達成しました。これにより、サポートチームは人間の専門知識が必要な複雑なケースに集中できるようになり、全体的なカスタマー エクスペリエンスが向上しました。

  • Pictory のコンバージョンが 3 倍に: 動画作成プラットフォームの Pictory は、LiveX AI を使用してウェブサイトの訪問者に積極的に働きかけ、見込み顧客を絞り込むことで、コンバージョンが 3 倍に増加しました。

これらの成果は、Google Cloud 上に構築された高度でスケーラブルかつ安全なアーキテクチャによってのみ実現可能です。

スケーリングに対応するプラットフォーム機能

LiveX AI プラットフォームは、本番環境に対応できるように設計されており、企業はインテリジェントなカスタマー エクスペリエンス システムを簡単にデプロイできます。これは、Google Cloud の Cloud Run と Google Kubernetes Engine(GKE)で実行され、それらとともにスケーリングされる主要な機能によって実現されています。

  • AgentFlow オーケストレーション: 会話フロー、知識の検索、タスクの実行を管理するコーディネーション レイヤ。日常的な問い合わせは自動的にルーティングされ、複雑な問題は完全なコンテキストとともに人間のエージェントにエスカレーションされます。

  • 設計段階から多言語に対応: 強力な AI モデルと Google のグローバル規模のインフラストラクチャを活用して、100 以上の言語でネイティブ品質の回答を提供できるように構築されています。

  • シームレスな統合: 内部と外部の API に安全に接続して、システムはアカウント情報にアクセスし、返品を処理し、サブスクリプションを管理します。これにより、人間のエージェントに取り次いだ際に完全なコンテキストが得られます。

  • カスタマイズ可能なナレッジ グラウンディング: 特定のビジネス知識でトレーニングされ、チームの専門知識に沿った正確で一貫性のある回答を確保します。

  • 自然なインターフェース: ウェブ、モバイル、電話の各チャネルで、チャット、音声、アバターのインターフェースを介してデプロイされます。
https://storage.googleapis.com/gweb-cloudblog-publish/images/Figure_1_LiveX_human_like_agents.max-900x900.png

図 1: LiveX の実店舗での 3D アシスタント

技術的ブループリント: Google Cloud でインテリジェントなカスタマー エクスペリエンス システムを構築する

LiveX AI のアーキテクチャは、パフォーマンス、スケーラビリティ、費用効率を最適化するためにインテリジェントに階層化されています。各レイヤを支える Google Cloud サービスは次のとおりです。

https://storage.googleapis.com/gweb-cloudblog-publish/images/Figure_2_Architecture_Blueprint.max-2200x2200.png

図 2: Google Cloud 上の LiveX AI カスタマー サービス エージェントのアーキテクチャ

フロントエンド レイヤ

ウェブ、モバイル、音声チャネル全体でリアルタイム通信を管理するには、セッション管理、チャネル統合、API ゲートウェイ サービスを処理する軽量のマイクロサービスが必要です。

Cloud Run は、このワークロードに理想的なプラットフォームです。フルマネージドのサーバーレス ソリューションであるため、トラフィックの急増時にはゼロから数千のインスタンスに自動的にスケールアップし、その後スケールダウンするため、LiveX AI は実際に使用するコンピューティングに対してのみ料金を支払います。

オーケストレーションと AI エンジン

プラットフォームのコアである AgentFlow  は、会話の状態を管理し、顧客の意図を解釈して、回答を調整します。問題に人間の専門知識が必要な場合は、完全なコンテキストとともにエージェントにルーティングします。システムは自然言語入力を処理して顧客の意図を判断し、リクエストを複数ステップの計画に分解して、データベース(Cloud SQL など)や外部プラットフォーム(Stripe、Zendesk、Intercom、Salesforce、Shopify)に接続します。これにより、AI エージェントと人間のエージェントの両方が顧客のコンテキストを完全に把握できます。

Cloud Run によるオーケストレーションは、リクエスト トラフィックに基づいて自動的にスケーリングし、会話の負荷変動を従量課金制で完璧に処理します。

GKE for AI inference は、リアルタイム AI に必要な専門的機能を提供します。

  • GPU 管理: GKE のクラスタ オートスケーラーは、必要な場合にのみ GPU ノードプールを動的にプロビジョニングするため、コストのかかるアイドル時間を防ぐことができます。Spot VM は、トレーニング費用を大幅に削減します。

  • ハードウェア アクセラレーション: NVIDIA GPU と Google TPU とシームレスに統合し、マルチインスタンス GPU(MIG)もサポートして、高価なアクセラレータの使用率を最大化します。

  • 低レイテンシ: 特殊なハードウェアと推論ゲートウェイをきめ細かく制御することでインテリジェントなロード バランシングが可能になり、リアルタイムで応答します。

この基盤により、LiveX AI は、需要がピークに達したときでも数百万のユーザーに同時に対応し、しかも 1 秒未満の応答時間を維持できます。

ナレッジ、統合レイヤ

一般公開されているよくある質問から、安全なアカウントの詳細まで、ナレッジレイヤは、システムが有用な回答を提供するために必要なすべての情報を提供します。

Doc Processor(Cloud Run 上)は、検索拡張生成(RAG)システムのベクトル データベースにナレッジベースを構築して維持し、API Gateway は構成と認証を管理します。長期保存には、LiveX AI は管理データベースとして Cloud SQL を使用し、短期的なコンテキストは Google Cloud Memorystore に保存しています。

最終的には

この設計には 3 つの主な利点があります。実際の需要に合う弾力的なスケーリング、サーバーレスとマネージド GKE サービスによる費用効率、大規模なリアルタイム会話型 AI に必要なパフォーマンスです。

今後の展望: カスタマー エクスペリエンス チームを大規模に支援

カスタマー サービス センターの未来は、人間のエージェントが最も得意とすること、つまり共感、判断、創造的な問題解決を増幅するインテリジェント システムが中心となります。企業がこのアプローチを採用すると、繰り返し行われる問い合わせの負担から担当者が解放され、一人ひとりの顧客に合わせて長期的な関係を築ける対応を提供できるようになります。

AI を活用したカスタマー エクスペリエンス システムを評価しているチームにとって、このアーキテクチャは実績のあるブループリントとなります。まず、Cloud Run を使用してフロントエンドを弾力的にスケーリングし、GKE を AI 推論ワークロードに活用して、既存のプラットフォームとのシームレスな統合を確保してください。

LiveX AI と Google Cloud のパートナーシップは、適切なプラットフォームとインフラストラクチャを合わせることによってカスタマー サービス業務がどのように変革できるかを示しています。インテリジェントな自動化と、弾力的で費用効率の高いインフラストラクチャを組み合わせることで、企業は問い合わせの急増に対応しながら、担当者が顧客との長期的な関係を構築できるようにします。

  • LiveX AI がチームの効率的なスケーリングにどのように役立つかについては、LiveX AI プラットフォームをご覧ください。

  • このソリューションを支えるインフラストラクチャを使用して独自の生成 AI アプリケーションを構築するには、GKECloud Run を使用して開発を始めてください。

Jia Li、LiveX AI、共同創業者、社長兼最高 AI 責任者

Lisa Shen 、Google Cloud、シニア プロダクト マネージャー

投稿先