生成 AI の概要

この初心者向けガイドでは、生成 AI のコア テクノロジーを紹介し、それらがどのように連携して chatbot やアプリケーションを強化しているのかを説明します。生成 AI(GenAI や gen AI とも呼ばれます)は機械学習(ML)の分野の 1 つで、ML モデルを開発して、新しいコンテンツを生成するために使用します。

生成 AI モデルは、サイズが大きく、自然言語を理解して生成できるため、大規模言語モデル(LLM)と呼ばれることが多いです。ただし、これらのモデルでできることは、モデルのトレーニングに使用されたデータに応じて、テキスト、画像、動画、音声といった複数のモダリティからコンテンツを理解して生成することです。複数のモダリティのデータを使用するモデルは、マルチモーダル モデルと呼ばれます。

コンテンツの生成

生成 AI モデルで実世界での用途において役立つコンテンツを生成するためには、次の機能が必要です。

  • 新しいタスクの実行方法を学習する:

    生成 AI モデルは、一般的なタスクを実行するように設計されています。ユースケースに固有のタスクをモデルに実行させる場合は、モデルをカスタマイズできることが必要になります。Vertex AI では、モデルのチューニングによってモデルをカスタマイズできます。

  • 外部情報にアクセスする:

    生成 AI モデルは膨大な量のデータでトレーニングされます。ただし、これらのモデルが有用であるためには、トレーニング データ以外の情報にアクセスできる必要があります。たとえば、生成 AI モデルを活用したカスタマー サービス chatbot を作成する場合、モデルは提供している商品やサービスに関する情報にアクセスする必要があります。Vertex AI では、グラウンディング機能と関数呼び出し機能を使用して、モデルが外部情報にアクセスできるようにします。

  • 有害なコンテンツをブロックする:

    生成 AI モデルでは、不適切なテキストや配慮に欠けるテキストなど、予期しない出力が生成される場合があります。安全性を維持し、不正使用を防ぐため、モデルには、有害な可能性があると判断されたプロンプトと回答をブロックする安全フィルタが必要です。Vertex AI には、生成 AI サービスの責任ある使用を促進する安全機能が組み込まれています。

次の図は、これらのさまざまな機能が連携して目的のコンテンツを生成する仕組みを示しています。

生成 AI ワークフローの図

プロンプト

プロンプト

通常、生成 AI ワークフローは、プロンプトから始まります。プロンプトとは、回答を引き出すために生成 AI モデルに送信する自然言語のリクエストを指します。モデルによっては、プロンプトにテキスト、画像、動画、音声、ドキュメントなどのモダリティだけでなく、複数のモダリティ(マルチモーダル)を含めることができます。

モデルから期待するレスポンスを引き出すためのプロンプトを記述する作業は、プロンプト設計と呼ばれています。プロンプト設計は試行錯誤のプロセスですが、プロンプト設計には原則と戦略があり、それらを使用して期待どおりの動作をするようにモデルを誘導します。Vertex AI Studio には、プロンプトを管理するためのプロンプト管理ツールが用意されています。

基盤モデル

基盤モデル

プロンプトは、レスポンスを生成するために生成 AI モデルに送信されます。Vertex AI には、以下のようにさまざまな生成 AI 基盤モデルがあります。これらのモデルには、API を介してアクセスできます。

  • Gemini API: 高度な推論、マルチターン チャット、コード生成、マルチモーダル プロンプト。
  • Imagen API: 画像生成、画像編集、画像キャプション。
  • MedLM: 医学関連の質問応答と要約。(限定公開一般提供

モデルのサイズ、モダリティ、費用はそれぞれ異なります。Google のモデル、オープンモデル、Google パートナーのモデルについては、Model Garden で調べることができます。

モデルのカスタマイズ

モデルのカスタマイズ

Google の基盤モデルのデフォルトの動作は、複雑なプロンプトを使わなくても常に期待する結果が生成されるようにカスタマイズできます。このカスタマイズ プロセスをモデル チューニングと呼びます。モデル チューニングを行うと、プロンプトを簡素化できるため、リクエストの費用とレイテンシを削減する効果があります。

Vertex AI には、チューニングしたモデルのパフォーマンスの評価に役立つモデル評価ツールも用意されています。チューニングしたモデルをプロダクション レディな状態にした後は、エンドポイントにデプロイして標準の MLOps ワークフローと同様にパフォーマンスをモニタリングできます。

外部情報にアクセスする

拡張

Vertex AI には、モデルが外部 API とリアルタイムの情報にアクセスできるようにする方法が複数あります。

  • グラウンディング: モデルの回答を、独自のデータやウェブ検索などの信頼できる情報源に接続し、ハルシネーションを減らします。
  • RAG: モデルを外部の情報源(ドキュメントやデータベースなど)に接続し、より正確で有益なレスポンスを生成します。
  • 関数呼び出し: モデルが外部 API とやり取りして、リアルタイム情報を取得し、現実世界のタスクを実行できるようにします。

引用チェック

引用チェック

レスポンスが生成されると、Vertex AI は引用をレスポンスに含める必要があるかどうかチェックします。レスポンスにあるテキストの大半が特定の情報源に由来する場合は、その情報源がレスポンスの引用メタデータに追加されます。

責任ある AI と安全性

責任ある AI と安全性

プロンプトとレスポンスが返される前に通過するチェックの最終レイヤは、安全フィルタです。Vertex AI では、プロンプトとレスポンスの両方について、プロンプトやレスポンスがどの程度安全カテゴリに属しているかを確認します。1 つ以上のカテゴリでしきい値を超えると、レスポンスはブロックされ、Vertex AI からフォールバック レスポンスが返されます。

レスポンス

レスポンス

プロンプトとレスポンスが安全フィルタのチェックに合格すると、レスポンスが返されます。通常、回答は一度にすべてが返されます。ただし、Vertex AI では、ストリーミングを有効にして、回答の生成に合わせて徐々に受け取ることもできます。

Vertex AI Studio コンソール エクスペリエンス

無料トライアルで Vertex AI Studio を使用する場合、または Google Cloud にログインしていない場合、一部の機能は使用できません。Vertex AI Studio を試すには、Google Cloud コンソールの Vertex AI Studio 利用規約ウィンドウで同意します。

Google Cloud アカウントなしで使用する Google Cloud 無料トライアル アカウントで使用する 既存の Google Cloud アカウントで使用する
ログインが必要 ×
1 分あたりのクエリ数(QPM) すべてのマルチモーダル モデルで 2 QPM 割り当て上限を確認する 割り当て上限を確認する
提供されるクレジット $0 90 日間、最大 $300 $0
プロンプト ギャラリー ×
プロンプト デザイナー はい
プロンプトを保存する ×
プロンプトの履歴 ×
拡張パラメータ × いいえ
チューニング × いいえ
API の使用 ×
課金が必要 × いいえ
利用方法 Vertex AI Studio に移動 無料トライアルに登録 コンソールで Vertex AI Studio を試す

Vertex AI で生成 AI を使ってみる