Vertex AI の生成 AI の概要

Vertex AI の生成 AI を使用すると、Google の高度なグローバル インフラストラクチャでホストされている最先端の生成 AI モデルを活用したプロダクション レディなアプリケーションを構築できます。

使ってみる


エンタープライズ向け

エンタープライズ向け

エンタープライズ グレードのセキュリティ、データ所在地、アクセスの透明性、低レイテンシを備えた生成 AI アプリケーションを大規模にデプロイします。

最先端の機能

最先端の機能

Gemini 1.5 Pro でサポートされている 2,000,000 トークンのコンテキスト ウィンドウを使用して、アプリの機能を拡張します。

オープン プラットフォーム

オープン プラットフォーム

Vertex AI では、Anthropic Claude 3.5 Sonnet、Meta Llama 3、Mistral AI Mixtral 8x7B など、サードパーティの AI 企業が提供する 100 を超えるモデルにアクセスできます。

中核となる機能

  • マルチモーダル処理

    複数の種類の入力メディア(画像、動画、音声、ドキュメントなど)を同時に処理します。

  • エンベディングの生成

    エンベディングを生成し、検索、分類、クラスタリング、外れ値検出などのタスクを実行します。

  • モデルのチューニング

    特定のタスクをより高い精度と正確さで実行するようにモデルを適応させます。

  • 関数呼び出し

    モデルを外部 API に接続して、モデルの機能を拡張します。

  • グラウンディング

    モデルを外部データソースに接続して、回答のハルシネーションを減らします。

  • 画像の生成

    自然言語テキスト プロンプトを使用して画像を生成、編集します。


Vertex AI と Google AI の違い

Gemini API では Vertex AI と Google AI のどちらでも Gemini モデルの機能をアプリケーションに組み込むことができます。どのプラットフォームが適しているかは、目標によって異なります。詳しくは、次の表をご覧ください。

API 対象 機能
Vertex AI Gemini API
  • スケーリングされたデプロイ
  • エンタープライズ
  • テクニカル サポート
  • モダリティベースの料金
  • 補償の確保
  • Model Garden の 100 以上のモデル
Google AI Gemini API
  • テスト
  • プロトタイピング
  • 使いやすさ
  • 無料枠
  • トークンベースの料金

Google AI から Vertex AI に移行する

Vertex AI SDK を使用してビルドする

Vertex AI には、次の言語の SDK が用意されています。

Python

from vertexai.generative_models import GenerativeModel
model = GenerativeModel(model_name="gemini-1.5-flash")
response = model.generate_content([Part.from_uri(IMAGE_URI, mime_type="image/jpeg"),"What is this?"])

Node.js

const vertexAI = new VertexAI({project: projectId, location: location});
const generativeVisionModel = vertexAI.getGenerativeModel({ model: "gemini-1.5-flash"});

const result = await model.generateContent([
  "What is this?",
  {inlineData: {data: imgDataInBase64, mimeType: 'image/png'}}
]);

Java

public static void main(String[] args) throws Exception {
  try (VertexAI vertexAi = new VertexAI(PROJECT_ID, LOCATION); ) {
    GenerativeModel model = new GenerativeModel("gemini-1.5-flash", vertexAI);
  List<Content> contents = new ArrayList<>();
  contents.add(ContentMaker
                .fromMultiModalData(
                    "What is this?",
                    PartMaker.fromMimeTypeAndData("image/jpeg", IMAGE_URI)));
  GenerateContentResponse response = model.generateContent(contents);
  }
}

Go

model := client.GenerativeModel("gemini-1.5-flash", "us-central1")
img := genai.ImageData("jpeg", image_bytes)
prompt := genai.Text("What is this?")
resp, err := model.GenerateContent(ctx, img, prompt)

C#

var predictionServiceClient = new PredictionServiceClientBuilder {
  Endpoint = $"{location}-aiplatform.googleapis.com"
}.Build();

var generateContentRequest = new GenerateContentRequest {
  Model = $"projects/{projectId}/locations/{location}/publishers/google/models/gemini-1.5-flash",
  Contents = {
    new Content {
      Role = "USER",
      Parts = {
        new Part {Text = "What's in this?"},
        new Part {FileData = new() {MimeType = "image/jpeg", FileUri = fileUri}}
      }
    }
  }
};

GenerateContentResponse response = await predictionServiceClient.GenerateContentAsync(generateContentRequest);

使ってみる

その他の利用方法