Vertex AI の生成 AI を使用すると、Google の高度なグローバル インフラストラクチャでホストされている最先端の生成 AI モデルを活用したプロダクション レディなアプリケーションを構築できます。
エンタープライズ向け エンタープライズ グレードのセキュリティ、データ所在地、アクセスの透明性、低レイテンシを備えた生成 AI アプリケーションを大規模にデプロイします。 |
|
最先端の機能 Gemini 1.5 Pro でサポートされている 2,000,000 トークンのコンテキスト ウィンドウを使用して、アプリの機能を拡張します。 |
|
オープン プラットフォーム Vertex AI では、Anthropic Claude 3.5 Sonnet、Meta Llama 3、Mistral AI Mixtral 8x7B など、サードパーティの AI 企業が提供する 100 を超えるモデルにアクセスできます。 |
中核となる機能
-
マルチモーダル処理
複数の種類の入力メディア(画像、動画、音声、ドキュメントなど)を同時に処理します。
-
エンベディングの生成
エンベディングを生成し、検索、分類、クラスタリング、外れ値検出などのタスクを実行します。
-
モデルのチューニング
特定のタスクをより高い精度と正確さで実行するようにモデルを適応させます。
-
関数呼び出し
モデルを外部 API に接続して、モデルの機能を拡張します。
-
グラウンディング
モデルを外部データソースに接続して、レスポンスのハルシネーションを減らします。
-
Vertex AI と Google AI の違い
Gemini API では Vertex AI と Google AI のどちらでも Gemini モデルの機能をアプリケーションに組み込むことができます。どのプラットフォームが適しているかは、目標によって異なります。詳しくは、次の表をご覧ください。
API | 対象 | 機能 |
---|---|---|
Vertex AI Gemini API |
|
|
Google AI と Gemini API |
|
|
Vertex AI SDK を使用してビルドする
Vertex AI には、次の言語の SDK が用意されています。
Python
from vertexai.generative_models import GenerativeModel
model = GenerativeModel(model_name="gemini-1.5-flash")
response = model.generate_content([Part.from_uri(IMAGE_URI, mime_type="image/jpeg"),"What is this?"])
Node.js
const vertexAI = new VertexAI({project: projectId, location: location});
const generativeVisionModel = vertexAI.getGenerativeModel({ model: "gemini-1.5-flash"});
const result = await model.generateContent([
"What is this?",
{inlineData: {data: imgDataInBase64, mimeType: 'image/png'}}
]);
Java
public static void main(String[] args) throws Exception {
try (VertexAI vertexAi = new VertexAI(PROJECT_ID, LOCATION); ) {
GenerativeModel model = new GenerativeModel("gemini-1.5-flash", vertexAI);
List<Content> contents = new ArrayList<>();
contents.add(ContentMaker
.fromMultiModalData(
"What is this?",
PartMaker.fromMimeTypeAndData("image/jpeg", IMAGE_URI)));
GenerateContentResponse response = model.generateContent(contents);
}
}
Go
model := client.GenerativeModel("gemini-1.5-flash", "us-central1")
img := genai.ImageData("jpeg", image_bytes)
prompt := genai.Text("What is this?")
resp, err := model.GenerateContent(ctx, img, prompt)
C#
var predictionServiceClient = new PredictionServiceClientBuilder {
Endpoint = $"{location}-aiplatform.googleapis.com"
}.Build();
var generateContentRequest = new GenerateContentRequest {
Model = $"projects/{projectId}/locations/{location}/publishers/google/models/gemini-1.5-flash",
Contents = {
new Content {
Role = "USER",
Parts = {
new Part {Text = "What's in this?"},
new Part {FileData = new() {MimeType = "image/jpeg", FileUri = fileUri}}
}
}
}
};
GenerateContentResponse response = await predictionServiceClient.GenerateContentAsync(generateContentRequest);
使ってみる
-
Vertex AI で Gemini API をお試しください
新規のお客様には、$300 分の無料クレジットを差し上げます
-
Vertex AI Studio を試す
セットアップ不要でプロンプトをテストします。
-
OpenAI コードから Vertex AI モデルを呼び出す
OpenAI ライブラリを使用して Vertex AI モデルを呼び出します。
その他の利用方法
- Model Garden でトレーニング済みモデルを確認する。
- Python、Node.js、Java、Go、C# の Vertex AI Gemini API SDK リファレンスを確認する。
- Azure OpenAI から Vertex AI に移行する方法を確認する。
- 責任ある AI のベスト プラクティスと Vertex AI の安全フィルタについて学習する。
- 料金の詳細について学ぶ。