Reasoning Engine は、Vertex AI でオーケストレーション フレームワークをカスタマイズしてデプロイできるマネージド サービスです。LLM に委任する推論の量と、カスタマイズされたコードで処理する量を柔軟に選択できます。
既存の生成 AI アプリケーションがある場合は、Reasoning Engine を使用して、Vertex AI 上の本番環境に対応したクラウドネイティブなサービスに変換できます。
Reasoning Engine は、LangChain または独自のオープンソース Python フレームワークと互換性があります。詳細については、Reasoning Engine を使用するをご覧ください。
Reasoning Engine のメリット
- 自由にカスタマイズ可能: 生成 AI アプリケーション シナリオのロジックをカスタマイズし、オープンソース フレームワークを組み込むことができます。
- 本番環境対応: コードとパッケージの依存関係のみを提供します。残りは Vertex AI が管理します。モニタリング、ロギング、パフォーマンス指標にアクセスできます。
- Google Cloud と Vertex AI エコシステムとのインテグレーション: Vertex AI のインフラストラクチャとビルド済みのコンテナを使用して、LLM アプリケーションのデプロイを迅速に行うことができます。BigQuery などの Google Cloud サービス、関数呼び出し、Vertex AI 拡張機能との連携はシームレスで安全です。
Reasoning Engine を使用する
Reasoning Engine を使用するプロセスは次のとおりです。
ステップ | 説明 |
---|---|
1. 環境を準備する | Google プロジェクトを設定し、Vertex AI SDK for Python をインストールします。 |
2. アプリケーションを開発する | Vertex AI にデプロイ可能な形式で LangChain アプリケーションを開発します。 |
3. アプリケーションをデプロイして提供する | アプリケーションを Reasoning Engine にデプロイし、コンテンツをクエリします。 |
4. デプロイされたアプリケーションを管理する | デプロイされたアプリケーションを管理および削除して、不要な料金が発生しないようにします。 |
Reasoning Engine と関数呼び出し
Reasoning Engine を関数呼び出しと組み合わせて使用すると、ユーザー向けのツールを使用した生成 AI エクスペリエンスを構築できます。
- 柔軟性と管理: Reasoning Engine は、関数の宣言、パラメータの記述、API 呼び出しを完全に管理できます。LangChain での開発、または他のオーケストレーション フレームワークと推論チェーンでの開発を選択できます。
- 検索拡張生成(RAG)を超える処理: RAG 実装を使用すると、非構造化ドキュメントをインタラクティブに検索できます。Reasoning Engine は、関数呼び出しに加えて、構造化されたデータの処理、外部システムからの情報の取得、API 呼び出しによるアクションの実行など、さまざまな処理を行うことができます。
- 迅速なプロトタイピング: Reasoning Engine と関数呼び出しは、LLM を外部システムに接続するためのシンプルなソリューションです。これにより、反復処理を迅速に行い、新しいアイデアを探求できます。LangChain、ReAct、その他のフレームワークを使用する必要はありません。
- 独自のスタックがない: Reasoning Engine と関数呼び出しでは、いつもと同じように Python 関数と API 呼び出しを使用できます。OpenAPI 仕様、追加の YAML ファイル、ボイラープレート コードは必要ありません。
- 組み込みのインテグレーション: 関数呼び出しは Gemini 1.0 Pro の組み込み機能です。Reasoning Engine は Vertex AI のサービスです。2 つのシステム間のすべてのインタラクションは Vertex AI によって処理されるため、データのシリアル化やパイプは必要ありません。