Apigee によるエンタープライズ対応の生成 AI

Apigee の API 管理プラットフォームを使用して AI アプリケーションを管理し、保護し、開発者に LLM API を構築し、複数のクラウドにわたって LLM モデルにアクセスするための一貫した方法を提供します。

Apigee で AI アプリケーションを保護し、スケーリングする

AI ソリューションの開発、シームレスなアプリケーション統合、効果的なスケーリングのために設計された Apigee の特定の AI 機能の詳細

エンタープライズ対応の AI ゲートウェイを実装する

Apigee のコア API ゲートウェイ機能には、AI アプリケーションのトラフィックを管理するためのネイティブ機能が含まれており、サービス消費の一貫した API 契約を提供します。  

次の機能が含まれています。

  • モデル抽象化
  • マルチクラウド モデル ルーティング
  • リクエスト / レスポンスの拡充
  • RAG の統合
  • サードパーティ システムへのエージェントの接続性(Google Cloud の Application Integration プラットフォームを使用)
  • 高可用性のための LLM サーキット ブレーカー パターン
  • セマンティック キャッシュ



エンタープライズ対応の AI ゲートウェイを実装する

Apigee のコア API ゲートウェイ機能には、AI アプリケーションのトラフィックを管理するためのネイティブ機能が含まれており、サービス消費の一貫した API 契約を提供します。  

次の機能が含まれています。

  • モデル抽象化
  • マルチクラウド モデル ルーティング
  • リクエスト / レスポンスの拡充
  • RAG の統合
  • サードパーティ システムへのエージェントの接続性(Google Cloud の Application Integration プラットフォームを使用)
  • 高可用性のための LLM サーキット ブレーカー パターン
  • セマンティック キャッシュ



企業のコンテキストに基づくエージェント ワークフローを強化

AI エージェントは、LLM の機能を活用してエンドユーザーのためにタスクを遂行します。エージェントの構築には、Agentspace などのノーコードまたはローコードのプラットフォームから、LangChain や LlamaIndex などのフルコードのフレームワークまで、さまざまなツールを使用できます。Apigee は AI アプリケーションとエージェントの間で仲介役として機能します。

Apigee で Gemini Code Assist が一般提供されたことで、Cloud Code と Gemini Chat の両方のインターフェースで自然言語を使用して API 仕様を迅速に作成できるようになりました。API Hub を通じて組織の API エコシステムを活用することで、ネストされたオブジェクトのサポートと API の重複の予防検出を備えた、一貫性のある安全な API のためのエンタープライズ コンテキストが提供されます。

次の機能が含まれています。

  • Apigee API Hub: 自社 API とサードパーティ API およびワークフローをカタログ化する
  • 費用管理のためのトークン制限の適用
  • マルチエージェント オーケストレーション
  • 認証と認可
  • パフォーマンスを最適化するためのセマンティック キャッシュ
  • エンタープライズ コンテキストによる API 仕様の生成(Gemini Code Assist を使用)



LLM のアクセスと使用を全社的に管理

Apigee のネイティブ ポリシーと配信機能により、生成 AI プラットフォーム チームは AI アプリケーションと LLM の使用を効率的に管理できます。

次の機能が含まれています。

  • モデルへのセルフサービス アクセスを可能にする統合デベロッパー ポータル
  • モデルのアクセスと使用の制限をポリシーベースできめ細かく制御
  • トークンの使用制限のモニタリングとレポート
  • LLM の監査とロギング



AI アプリケーションのパフォーマンスと高可用性を維持する

Apigee は、AI アプリケーションの詳細なオブザーバビリティを提供し、生成 AI の費用を管理、最適化し、組織の AI 使用を効率的に管理できるようにします。

次の機能が含まれています。

  • モデルの使用状況とアプリケーション トークンの消費状況の可視化
  • 社内費用のレポート作成と最適化
  • 実際のトークン数に基づいて使用状況をモニタリングするカスタム ダッシュボード(Looker Studio とのインテグレーションを通じて)
  • AI アプリケーションのログ記録

エンドユーザーとブランドを保護しながら LLM API を保護する

Apigee は、LLM API の安全なゲートウェイとして機能し、API キー、OAuth 2.0、JWT 検証でアクセスを制御し、レート制限と割り当てを適用して不正使用と過負荷を防止します。Apigee の Advanced API Security は、さらに高度な保護機能を提供します。

能力:

  • Model Armor のインテグレーションと、プロンプトとレスポンスのサニタイズのためのポリシーの適用
  • 認証と認可
  • 不正使用と異常検出
  • OWASP トップ 10 API および LLM セキュリティ リスクの軽減
  • LLM API セキュリティ構成ミスの検出
  • Google SecOps とサードパーティの SIEM の統合




生成 AI に対応した API エコシステム

堅牢な API 管理プラットフォームで開発を合理化し、モデルを迅速にデプロイする。

ユースケースに適した Apigee AI ソリューション

Apigee による AI アプリケーションの管理

クラウド全体で LLM モデルへのデベロッパーのアクセスを管理し、モデルの使用状況とトークンの消費量を可視化して、費用のレポートと最適化を行います。

Apigee で AI アプリケーションを保護する

Apigee を Model Armor のプロンプトとレスポンスのサニタリングのためのポリシー適用ポイントとして使用し、OWASP LLM と API のトップ 10 のセキュリティ リスクを軽減します。

Apigee による AI アプリケーションのモニタリング

LLM API をほぼリアルタイムでモニタリングするカスタム ダッシュボードを作成して、API が利用可能であり、期待どおりに動作していることを確認して、サービスが中断されないようにします。

Apigee で AI アプリケーションを収益化する

AI アプリケーションの API の使用料金をデベロッパーに請求する料金プランを追加し、API の収益をデベロッパーと共有するように料金プランを構成します。

生成 AI の可能性を最大限に引き出すには

Apigee で、ソリューションに生成 AI の可能性を引き出しましょう。Apigee の堅牢な運用化機能を利用して、安全でスケーラブル、かつ最適化されたデプロイを自信を持って構築できます。

準備ができたら、Apigee の生成 AI サンプルのページをご覧ください。


  • Google Cloud プロダクト
  • 100 種類を超えるプロダクトをご用意しています。新規のお客様には、ワークロードの実行、テスト、デプロイができる無料クレジット $300 分を差し上げます。また、すべてのお客様に 25 以上のプロダクトを無料でご利用いただけます(毎月の使用量上限があります)。
Google Cloud