生成 AI

Google Cloud のツールとプロダクトを使用して生成 AI アプリケーションを構築して実装するためのドキュメントとリソース。

  • Gemini 2.0 Flash Thinking をご利用いただけます。
  • AI API や BigQuery などの人気プロダクトの毎月の無料使用枠をご利用いただけます。
  • 自動請求は行われず、契約も不要です。

常に無料で利用可能な 20 以上のプロダクトを確認する

AI API、VM、データ ウェアハウスなど、一般的なユースケース向けの 20 以上のプロダクトを無料でご利用いただけます。

生成 AI アプリケーションの構築について学習する

Google の大規模な生成 AI モデルにアクセスできるため、AI を活用したアプリケーションでモデルを使用するためのテスト、チューニング、デプロイが可能になります。
Google Cloud の AI / ML プラットフォームである Vertex AI を介して Gemini API にリクエストを送信する方法を説明します。
GKE のパワーを活用して、高性能で費用対効果の高いサービングとトレーニングを実現するカスタマイズ可能な AI/ML プラットフォームを構築できます。業界トップクラスのスケールと柔軟なインフラストラクチャ オプションを備えています。
生成 AI、従来の AI、またはその両方の組み合わせのいずれが、お客様のビジネス ユースケースに適しているかを判断します。
生成 AI アプリケーション開発の各段階における課題への対処方法について説明します。
一般的なユースケースのコードサンプルを確認し、安全性、効率、復元性、パフォーマンス、費用対効果に優れた生成 AI アプリケーションのサンプルをデプロイします。
生成 AI に関連する特定の用語について学習します。

生成 AI ツール

生成 AI ツールのリスト(Cloud コンソールの下に表示される Vertex AI Studio、Colab Enterprise/Notebooks、Workbench など)と SDK/API は個別の項目として表示されます。

生成 AI の開発フロー

モデルの選択(Model Garden を含む)、プロンプト エンジニアリング(プロンプト ギャラリー、Vertex AI Studio、プロンプトの比較、プロンプトの最適化を含む)、チューニング(トレーニングとチューニングを含む)、最適化(蒸留を含む)、デプロイ(Model Registry、オンライン予測、バッチ予測を含む)、モニタリングの 6 つのステージを含む生成 AI 開発フローの図。モデルの選択、プロンプト エンジニアリング、チューニング、最適化の各ステージは、[評価] というラベルの付いたループ サブサイクルの一部です。

モデルの探索とホスティング

Google Cloud では、Vertex AI を通じて最先端の基盤モデルのセット(Gemini など)を提供しています。サードパーティ モデルを Vertex AI Model Garden にデプロイすることも、GKE、Cloud Run、Compute Engine 上のセルフホストにデプロイすることもできます。

ML モデル ライブラリから Google のモデルとアセットを探し、テスト、カスタマイズ、デプロイを行います。
ML モデル ライブラリから厳選された OSS モデルとアセットを探し、テスト、カスタマイズ、デプロイを行います。
HuggingFace テキスト生成モデルを Vertex AI または Google Kubernetes Engine(GKE)にデプロイする方法について説明します。
GPU を VM インスタンスに割り当て、Compute Engine で生成 AI ワークロードを高速化します。

プロンプトの設計とエンジニアリング

プロンプト設計とは、プロンプトとレスポンスのペアを作成して、言語モデルに追加のコンテキストと指示を与えるプロセスです。プロンプトを作成したら、プリトレーニング用のプロンプト データセットとしてモデルにフィードします。モデルが予測を処理し、組み込みの指示が返されます。

Google の Gemini と PaLM 2 の大規模言語モデル(LLM)に送信されるプロンプトを設計、テスト、カスタマイズします。
プロンプト エンジニアリング ワークフローと、モデルのレスポンスに影響を与えるために使用できる一般的な戦略について説明します。
特定のユースケースのプロンプトとレスポンスの例を紹介します。

グラウンディングと RAG

グラウンディングは、AI モデルをデータソースに接続して、回答の精度を高め、ハルシネーションを減らします。一般的なグラウンディング手法である RAG は、関連情報を検索してモデルのプロンプトに追加し、出力が事実と最新情報に基づくものであることを確認します。

Vertex AI モデルは、Google 検索または Vertex AI Search に保存されている独自のデータでグラウンディングできます。
Google 検索でグラウンディングを使用すると、モデルをインターネットで入手できる最新の知識に接続できます。
AlloyDB を使用してベクトル エンベディングを生成して保存し、pgvector 拡張機能によりエンベディングをインデックスに登録してクエリします。
ベクトル エンベディングを Postgres SQL に保存し、pgvector 拡張機能によりエンベディングをインデックスに登録してクエリします。
LangChain を使用して BigQuery からデータを抽出し、モデルの回答を拡充してグラウンディングを行います。
Firestore データからベクトル エンベディングを作成し、インデックスに登録してクエリします。
LangChain を使用して Memorystore からデータを抽出し、モデルのレスポンスを拡充してグラウンディングを行います。

エージェントと関数呼び出し

エージェントを使用すると、会話型ユーザー インターフェースを簡単に設計してモバイルアプリに統合できます。また、関数呼び出しによりモデルの機能を拡張できます。

Google の基盤モデル、検索技術、会話型 AI テクノロジーを活用して、エンタープライズ グレードの生成 AI アプリケーションを構築します。
モデルに関数の呼び出しを追加して、抽出されたカレンダー情報に基づいて予約を取るなどのアクションを可能にします。

モデルのカスタマイズとトレーニング

特定の用語について言語モデルをトレーニングする場合など、特殊なタスクでは、プロンプト設計やグラウンディングだけでは十分なトレーニングを実施できない場合があります。このシナリオでは、モデルをチューニングしてパフォーマンスを改善する、または独自のモデルをトレーニングすることが可能です。

Vertex AI で、基盤モデルとチューニング済みの生成 AI モデルのパフォーマンスを評価できます。
汎用基盤モデルを利用すると、チューニングによって特定のタスクのパフォーマンスを改善できます。
TPU は Google が独自に開発した ASIC で、LLM のトレーニングなどの ML ワークロードを高速化するために使用されます。

構築を開始

LangChain は、プロンプトにコンテキストを組み込み、モデルのレスポンスに基づいて対応できるようにする生成 AI アプリ用オープンソース フレームワークです。
一般的なユースケースのコードサンプルを確認し、安全性、効率、復元性、パフォーマンス、費用対効果に優れた生成 AI アプリケーションのサンプルをデプロイします。