Google Cloud には、生成 AI アプリケーションの構築のライフサイクル全体に対応するさまざまなプロダクトとツールが用意されています。

生成 AI アプリケーションの構築について学習する

Vertex AI の生成 AI

Google の大規模な生成 AI モデルにアクセスできるため、AI を活用したアプリケーションでモデルを使用するためのテスト、チューニング、デプロイが可能になります。

Gemini クイックスタート

Google Cloud の AI / ML プラットフォームである Vertex AI を介して Gemini API にリクエストを送信する方法を説明します。

生成 AI アプリケーションのインフラストラクチャを選択する

ユースケースに最適なプロダクトとツールを選択し、使用を開始するために必要なドキュメントにアクセスします。

生成 AI の使用が適している場合

生成 AI、従来の AI、またはその両方の組み合わせのいずれが、お客様のビジネス ユースケースに適しているかを判断します。

生成 AI アプリケーションを開発する

生成 AI アプリケーション開発の各段階における課題への対処方法について説明します。

コードサンプルとサンプル アプリケーション

一般的なユースケースのコードサンプルを確認し、安全性、効率、復元性、パフォーマンス、費用対効果に優れた生成 AI アプリケーションのサンプルをデプロイします。

モデルの探索とホスティング

Google Cloud では、Vertex AI で最先端の基盤モデルのセット(Gemini など)を提供しています。サードパーティ モデルを Vertex AI Model Garden にデプロイすることも、GKE、Cloud Run、Compute Engine 上のセルフホストにデプロイすることもできます。

Vertex AI の Google モデル(Gemini、Imagen)

ML モデル ライブラリから Google のモデルとアセットを探し、テスト、カスタマイズ、デプロイを行います。

Vertex AI Model Garden のその他のモデル

ML モデル ライブラリから厳選された OSS モデルとアセットを探し、テスト、カスタマイズ、デプロイを行います。

HuggingFace によるテキスト生成モデル

HuggingFace テキスト生成モデルを Vertex AI または Google Kubernetes Engine(GKE)にデプロイする方法について説明します。

GKE での AI / ML オーケストレーション

GKE は AI / ML ワークロードを効率的にオーケストレートし、GPU と TPU を使用してスケーラブルな生成 AI のトレーニングとサービングを実現します。

Compute Engine の GPU

GPU を VM インスタンスに割り当て、Compute Engine で生成 AI ワークロードを高速化します。

プロンプトの設計とエンジニアリング

プロンプト設計とは、プロンプトとレスポンスのペアを作成して、言語モデルに追加のコンテキストと指示を与えるプロセスです。プロンプトを作成したら、プリトレーニング用のプロンプト データセットとしてモデルにフィードします。モデルが予測を処理し、組み込みの指示が返されます。

Vertex AI Studio

Google の Gemini と PaLM 2 の大規模言語モデル(LLM)に送信されるプロンプトを設計、テスト、カスタマイズします。

プロンプト戦略の概要

プロンプト エンジニアリング ワークフローと、モデルのレスポンスに影響を与えるために使用できる一般的な戦略について説明します。
特定のユースケースのプロンプトとレスポンスの例を紹介します。

グラウンディングと RAG

グラウンディングは、AI モデルをデータソースに接続して、回答の精度を高め、ハルシネーションを減らします。一般的なグラウンディング手法である RAG は、関連情報を検索してモデルのプロンプトに追加し、出力が事実と最新情報に基づくものであることを確認します。

Vertex AI のグラウンディング

Vertex AI モデルは、Google 検索または Vertex AI Search に保存されている独自のデータでグラウンディングできます。
Google 検索でグラウンディングを使用すると、モデルをインターネットで入手できる最新の知識に接続できます。

AlloyDB でのベクトル エンベディング

AlloyDB を使用してベクトル エンベディングを生成して保存し、pgvector 拡張機能によりエンベディングをインデックスに登録してクエリします。

Cloud SQL と pgvector

ベクトル エンベディングを Postgres SQL に保存し、pgvector 拡張機能によりエンベディングをインデックスに登録してクエリします。

BigQuery データの LangChain アプリケーションへの統合

LangChain を使用して BigQuery からデータを抽出し、モデルの回答を拡充してグラウンディングを行います。

Firestore でのベクトル エンベディング

Firestore データからベクトル エンベディングを作成し、インデックスに登録してクエリします。

Memorystore(Redis)のベクトル エンベディング

LangChain を使用して Memorystore からデータを抽出し、モデルのレスポンスを拡充してグラウンディングを行います。

エージェントと関数呼び出し

エージェントを使用すると、会話型ユーザー インターフェースを簡単に設計してモバイルアプリに統合できます。また、関数呼び出しによりモデルの機能を拡張できます。

Vertex AI Agent Builder

Google の基盤モデル、検索技術、会話型 AI テクノロジーを活用して、エンタープライズ グレードの生成 AI アプリケーションを構築します。

Vertex AI 関数呼び出し

モデルに関数の呼び出しを追加して、抽出されたカレンダー情報に基づいて予約を取るなどのアクションを可能にします。

モデルのカスタマイズとトレーニング

特定の用語について言語モデルをトレーニングする場合など、特殊なタスクでは、プロンプト設計やグラウンディングだけでは十分なトレーニングを実施できない場合があります。このシナリオでは、モデルをチューニングしてパフォーマンスを改善したり、独自のモデルをトレーニングします。

Vertex AI でモデルを評価する

Vertex AI で、基盤モデルとチューニング済みの生成 AI モデルのパフォーマンスを評価できます。

Vertex AI モデルをチューニングする

汎用基盤モデルを利用すると、チューニングによって特定のタスクのパフォーマンスを改善できます。

Cloud TPU

TPU は Google が独自に開発した ASIC で、LLM のトレーニングなどの ML ワークロードを高速化するために使用されます。

構築を開始する

LangChain は、プロンプトにコンテキストを組み込み、モデルのレスポンスに基づいて対応できるようにする生成 AI アプリ用オープンソース フレームワークです。
一般的なユースケースのコードサンプルを確認し、安全性、効率、復元性、パフォーマンス、費用対効果に優れた生成 AI アプリケーションのサンプルをデプロイします。