Vertex AI での生成 AI の概要

Vertex AI での生成 AI(別名: genAI)により、Google の大規模な生成 AI モデルにアクセスできるため、AI を活用したアプリケーションでモデルを使用するためのテスト、チューニング、デプロイが可能になります。このページでは、Vertex AI での生成 AI ワークフローの概要、利用可能な機能とモデルについて説明し、使用を開始するためのリソースを紹介します。

生成 AI ワークフロー

次の図に生成 AI ワークフローの概要を示します。

生成 AI ワークフローの図

プロンプト

プロンプト

通常、生成 AI ワークフローは、プロンプトから始まります。プロンプトとは、レスポンスを引き出すために言語モデルに送信される自然言語によるリクエストのことです。モデルから期待するレスポンスを引き出すためのプロンプトを記述する作業は、プロンプト設計と呼ばれています。プロンプト設計は試行錯誤のプロセスですが、プロンプト設計には原則と戦略があり、それを使用して期待通りの動作をするようにモデルを誘導します。

基盤モデル

基盤モデル

プロンプトは、レスポンスを生成するためにモデルに送信されます。Vertex AI には、API を通じてアクセスできる、以下のようにさまざまな生成 AI 基盤モデルがあります。

  • Gemini API: 高度な推論、マルチターン チャット、コード生成、マルチモーダル プロンプト。
  • PaLM API: 自然言語タスク、テキスト エンベディング、マルチターン チャット。
  • Codey API: コード生成、コード補完、コードチャット。
  • Imagen API: 画像生成、画像編集、画像キャプション。
  • MedLM: 医学関連の質問応答と要約。(限定公開一般提供

モデルのサイズ、モダリティ、費用はそれぞれ異なります。Google 独自のモデルと OSS モデルについては、Model Garden で調べることができます。

モデルのカスタマイズ

モデルのカスタマイズ

Google の基盤モデルのデフォルトの動作は、複雑なプロンプトを使わなくても常に期待する結果が生成されるようにカスタマイズできます。このカスタマイズ プロセスをモデル チューニングと呼びます。モデル チューニングを行うと、プロンプトを簡素化できるため、リクエストの費用とレイテンシを削減する効果があります。

Vertex AI には、チューニングしたモデルのパフォーマンスの評価に役立つモデル評価ツールも用意されています。チューニングしたモデルを本番環境で使用できる状態にした後は、エンドポイントにデプロイして標準の MLOps ワークフローと同様にパフォーマンスをモニタリングできます。

Vertex AI グラウンディング サービス

グラウンディング

モデルのレスポンスを、信頼できる情報源(独自のデータコーパスなど)に基づくものにする必要がある場合は、Vertex AI でグラウンディングを使用できます。グラウンディングは、特に未知のトピックに関してモデルのハルシネーションを減らす効果がありまる。また、モデルが新しい情報を利用できるようにもなります。

引用チェック

引用チェック

レスポンスが生成されると、Vertex AI は引用をレスポンスに含める必要があるかどうかチェックします。レスポンスにあるテキストの大半が特定の情報源に由来する場合は、その情報源がレスポンスの引用メタデータに追加されます。

責任ある AI と安全性

責任ある AI と安全性

プロンプトとレスポンスが返される前に通過するチェックの最終レイヤは、安全フィルタです。Vertex AI では、プロンプトとレスポンスの両方について、プロンプトやレスポンスがどの程度安全カテゴリに属しているかを確認します。1 つ以上のカテゴリでしきい値を超えると、レスポンスはブロックされ、Vertex AI からフォールバック レスポンスが返されます。

レスポンス

レスポンス

プロンプトとレスポンスが安全フィルタのチェックに合格すると、レスポンスが返されます。通常、レスポンスは一度にすべてが返されます。ただし、ストリーミングを有効にして、レスポンスの生成に合わせて徐々に受け取ることもできます。

生成 AI API とモデル

Vertex AI で利用可能な生成 AI モデル(基盤モデル)は、そのモデルで生成するように設計されたコンテンツの種類によって分類されます。このコンテンツには、テキスト、チャット、画像、コード、動画、マルチモーダル データ、エンベディングがあります。各モデルは、Google Cloud プロジェクト専用のパブリッシャー エンドポイントを通じて公開されます。そのため、特定のユースケース向けにチューニングする場合を除いて、基盤モデルをデプロイする必要はありません。

Gemini API サービス

Vertex AI Gemini API には、Google DeepMind が開発した Gemini モデルのパブリッシャー エンドポイントが含まれています。

  • Gemini Pro は、自然言語タスク、マルチターン テキストとコードチャット、コード生成を処理するように設計されています。
  • Gemini Pro Vision は、マルチモーダル プロンプトをサポートしています。プロンプト リクエストにテキスト、画像、動画を含めて、テキストやコードのレスポンスを得ることができます。

PaLM API サービス

Vertex AI PaLM API には、Google の Pathways Language Model 2(PaLM 2)のパブリッシャー エンドポイントが含まれています。PaLM 2 は、自然言語プロンプトに応じてテキストやコードを生成する大規模言語モデル(LLM)です。

  • PaLM API for Text は、分類、要約、エンティティ抽出などの言語タスク向けに微調整されています。
  • PaLM API for Chat はマルチターン チャット用に微調整されています。同モデルはチャット内の以前のメッセージを追跡し、それを新しいレスポンスを生成するためのコンテキストとして使用します。

その他の生成 AI サービス

  • Codey API はコードを生成します。Codey API のモデルには、コードを生成するモデル、コード補完用コードを提案するモデル、デベロッパーがコード関連の疑問をチャットで質問できるモデルの 3 種類が存在します。詳細については、コードモデルの概要をご覧ください。

  • Text Embedding API は、入力テキストのベクトル エンベディングを生成します。エンベディングは、セマンティック検索、レコメンデーション、分類、外れ値検出などのタスクに使用できます。

  • マルチモーダル エンベディングは、画像とテキスト入力に基づいてエンベディング ベクトルを生成します。これらのエンベディングは、画像分類やコンテンツのレコメンデーションなど、後続の他のタスクに使用できます。詳細については、マルチモーダル エンベディングのページをご覧ください。

  • Google の text-to-image 基盤モデルである Imagen を使用すると、組織はあらゆるビジネスニーズに応じて、スタジオ撮影並みの品質を持つ画像を大規模に生成してカスタマイズできます。詳細については、Vertex AI の Imagen の概要をご覧ください。

  • MedLM は、医療業界向けに微調整された基盤モデルのファミリーです。続きは、MedLM モデルの概要をご覧ください。

Vertex AI Studio

Vertex AI Studio は、生成 AI モデルを迅速にプロトタイピングおよびテストするための Google Cloud コンソール ツールです。サンプル プロンプトのテスト、独自のプロンプトの設計、基盤モデルのカスタマイズを行い、アプリケーションのニーズを満たすタスクを処理できます。このページでは、Vertex AI Studio で実行できる次のような異なるタスクについて説明します。

  • サンプル プロンプトを使ってモデルをテストする。
  • 独自のプロンプトを設計して保存する。
  • 基盤モデルをチューニングする。
  • 音声、テキスト間で変換する。

サンプル プロンプトを使ってモデルをテストする

Vertex AI Studio の [言語] セクションにあるプロンプト ギャラリーには、モデルの機能をデモンストレーションするうえで役立つさまざまなサンプル プロンプトが用意されています。サンプル プロンプトは、要約、分類、抽出などのタスクタイプ別に分類されています。各プロンプトには、指定されたモデルとパラメータ値が事前に構成されています。そのため、サンプル プロンプトを開き、[送信] をクリックするだけで、モデルを取得してレスポンスを生成できます。

プロンプト UI

独自のプロンプトを設計して保存する

プロンプト設計とは、言語モデルから望ましいレスポンスを引き出すプロンプトを手動で作成するプロセスです。プロンプトを慎重に作成することで、目的の結果を生成するようにモデルを調整できます。プロンプト設計は、特定のユースケースに合わせて適応させた言語モデルをテストする効率的な方法です。

Vertex AI Studio では、独自のプロンプトを作成して保存できます。新しいプロンプトを作成するときに、プロンプト テキストを入力して使用するモデルを指定し、パラメータ値を構成します。レスポンスを生成して、プロンプトをテストします。目的の結果が得られるまで、プロンプトとその構成の調整を繰り返します。プロンプト設計が完了したら、Vertex AI Studio に保存します。

レスポンスの引用

Vertex AI Studio で text-bison などのテキストモデルを使用している場合は、入力に基づいたテキスト レスポンスを受け取ります。Google の機能は、オリジナルのコンテンツを生成することを目的としており、既存のコンテンツを詳細に複製することは目的にしていません。Vertex AI Studio がウェブページから長い引用を行う場合は、出力にそのページが引用されます。

テキストの引用

レスポンスの品質は、温度(出力のランダム性)を微調整して変えることができます。また、Vertex AI Studio で他のレスポンス パラメータを試すこともできます。

引用は、Vertex AI Studio と API で利用できます。責任ある AI と引用について詳しくは、引用メタデータをご覧ください。

Model Garden で生成 AI モデルを調べる

Model Garden は、Google 独自の厳選された OSS モデルやアセットを調査、テスト、カスタマイズ、デプロイする場合に便利なプラットフォームです。Vertex AI で使用可能な生成 AI モデルと API を探索するには、Google Cloud コンソールで Model Garden に移動します。

Model Garden に移動

使用可能なモデルや機能など、Model Garden の詳細については、Model Garden で AI モデルを調べるをご覧ください。

基盤モデルをチューニングする

プロンプト設計は迅速な実験に適していますが、トレーニング データが使用可能な場合は、モデル自体をチューニングすることで、より高い品質を実現できます。モデルを調整すると、モデルで実行されるタスクの例に基づいてモデルのレスポンスをカスタマイズできます。

基盤モデルをチューニングする方法については、基盤モデルをチューニングするをご覧ください。

音声とテキスト間で変換する

Vertex AI Studio の音声ツールでは、テキストのスニペットを音声ファイルに変換し、再生することやダウンロードすることが可能です。複数の音声から選択して、発話速度を調整できます。

逆に、音声ファイルがある場合は、それを Vertex AI Studio にアップロードして、テキストに書き起こすこともできます。

詳細については、次のページをご覧ください。

Vertex AI Studio を試す

Vertex AI Studio は、Google Cloud コンソールの [Vertex AI] ページにあります。

[Vertex AI Studio] に移動

認証とセキュリティ管理

Vertex AI は、CMEK、VPC Service Controls、データ所在地、アクセスの透明性をサポートしています。生成 AI の機能にはいくつかの制限があります。詳細については、生成 AI のセキュリティ管理をご覧ください。

使ってみる