Vertex AI は、オープンモデルのキュレーション リストをマネージド モデルとしてサポートしています。これらのオープンモデルは、モデルとしてのサービス(MaaS)として Vertex AI で使用でき、マネージド API として提供されます。マネージド オープンモデルを使用する場合、リクエストは引き続き Vertex AI エンドポイントに送信されます。マネージド オープン モデルはサーバーレスであるため、インフラストラクチャのプロビジョニングや管理は必要ありません。
マネージド オープンモデルは Model Garden で見つけることができます。Model Garden を使用してモデルをデプロイすることもできます。詳細については、Model Garden で AI モデルを確認するをご覧ください。
オープンモデル
次のオープンモデルは、Vertex AI Model Garden(MaaS)でマネージド API として提供されます。
モデル名 | モダリティ | 説明 | クイックスタート |
---|---|---|---|
gpt-oss 120B | 言語 | 推論タスクで高いパフォーマンスを発揮する 120B モデル。 | モデルカード |
gpt-oss 20B | 言語 | 効率性と、消費者向けハードウェアおよびエッジ ハードウェアへのデプロイ用に最適化された 20B モデル。 | モデルカード |
Qwen3-Next-80B の思考 | 言語、コード | 複雑な問題解決と深い推論に特化した Qwen3-Next モデル ファミリーのモデル。 | モデルカード |
Qwen3-Next-80B Instruct | 言語、コード | 特定のコマンドに従うことに特化した Qwen3-Next ファミリーのモデル。 | モデルカード |
Qwen3 Coder | 言語、コード | 高度なソフトウェア開発タスク用に開発されたオープンウェイト モデル。 | モデルカード |
Qwen3 235B | 言語 | 体系的な推論と迅速な会話を切り替える「ハイブリッド思考」機能を備えたオープンウェイト モデル。 | モデルカード |
DeepSeek-V3.1 | 言語 | 思考モードと非思考モードの両方をサポートする DeepSeek のハイブリッド モデル。 | モデルカード |
DeepSeek R1(0528) | 言語 | DeepSeek の DeepSeek R1 モデルの最新バージョン。 | モデルカード |
Llama 4 Maverick 17B-128E | 言語、ビジョン | コーディング、推論、画像処理の機能を備えた、最大かつ最高性能の Llama 4 モデル。Llama 4 Maverick 17B-128E は、Mixture of Experts(MoE)アーキテクチャと早期融合を使用するマルチモーダル モデルです。 | モデルカード |
Llama 4 Scout 17B-16E | 言語、ビジョン | Llama 4 Scout 17B-16E は、そのサイズクラスで最先端の結果を提供し、複数のベンチマークで以前の Llama 世代や他のオープンモデルや独自のモデルを上回っています。Llama 4 Scout 17B-16E は、Mixture-of-Experts(MoE)アーキテクチャと早期融合を使用するマルチモーダル モデルです。 | モデルカード |
Llama 3.3 | 言語 | Llama 3.3 は、テキストのみの 70B 指示用にチューニングされたモデルです。テキストのみのアプリケーションに使用すると、Llama 3.1 70B と Llama 3.2 90B と比較してパフォーマンスが向上します。また、一部のアプリケーションでは、Llama 3.3 70B のパフォーマンスが Llama 3.1 405B に近づきます。 | モデルカード |
Llama 3.2(プレビュー) | 言語、ビジョン | チャートやグラフの分析、画像キャプションなど、画像推論をサポートできる中規模の 90B マルチモーダル モデル。 | モデルカード |
Llama 3.1 | 言語 |
多言語の会話のユースケース用に最適化された多言語 LLM のコレクション。一般的な業界ベンチマークでは、利用可能なオープンソース チャットモデルやクローズド チャットモデルの多くを上回るパフォーマンスを発揮します。 Llama 3.1 405B は一般提供(GA)されています。 Llama 3.1 8B と Llama 3.1 70B はプレビュー版です。 |
モデルカード |
次のオープン エンベディング モデルは、Vertex AI Model Garden(MaaS)でマネージド API として提供されます。
モデル名 | 説明 | 出力のサイズ | シーケンスの最大長 | サポートされているテキスト言語 | クイックスタート |
---|---|---|---|---|---|
multilingual-e5-small | E5 ファミリーのテキスト エンベディング モデルの一部。Small バリアントには 12 個のレイヤが含まれています。 | 最大 384 | 512 トークン | サポートされている言語 | モデルカード |
multilingual-e5-large | E5 ファミリーのテキスト エンベディング モデルの一部。Large バリアントには 24 レイヤが含まれています。 | 最大 1,024 | 512 トークン | サポートされている言語 | モデルカード |
リージョン エンドポイントとグローバル エンドポイント
リージョン エンドポイントの場合、リクエストは指定されたリージョンから処理されます。データ所在地に関する要件がある場合や、モデルがグローバル エンドポイントをサポートしていない場合は、リージョン エンドポイントを使用します。
グローバル エンドポイントを使用すると、Google は使用しているモデルでサポートされている任意のリージョンからリクエストを処理して提供できます。これにより、レイテンシが増加する場合があります。グローバル エンドポイントは、全体的な可用性を高め、エラーを減らすのに役立ちます。
グローバル エンドポイントを使用する場合、リージョン エンドポイントとの料金差はありません。ただし、グローバル エンドポイントの割り当てとサポートされているモデルの機能は、リージョン エンドポイントと異なる場合があります。詳細については、関連するサードパーティ モデルのページをご覧ください。
グローバル エンドポイントを指定する
グローバル エンドポイントを使用するには、リージョンを global
に設定します。
たとえば、curl コマンドのリクエスト URL は次の形式を使用します。
https://aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/global/publishers/PUBLISHER_NAME/models/MODEL_NAME
Vertex AI SDK の場合、リージョン エンドポイントがデフォルトです。グローバル エンドポイントを使用するには、リージョンを GLOBAL
に設定します。
グローバル API エンドポイントの使用を制限する
リージョナル エンドポイントの使用を強制するには、constraints/gcp.restrictEndpointUsage
組織のポリシーの制約を使用して、グローバル API エンドポイントへのリクエストをブロックします。詳細については、エンドポイントの使用の制限をご覧ください。
ユーザーにオープンモデルへのアクセス権を付与する
オープンモデルを有効にしてプロンプト リクエストを実行するには、 Google Cloud管理者が必要な権限を設定し、組織のポリシーで必要な API の使用が許可されていることを確認する必要があります。
オープンモデルの使用に必要な権限を設定する
オープンモデルを使用するには、次のロールと権限が必要です。
Consumer Procurement Entitlement 管理者 Identity and Access Management(IAM)ロールが必要です。このロールを付与されたユーザーは、Model Garden でオープンモデルを有効にできます。
aiplatform.endpoints.predict
権限が必要です。この権限は、Vertex AI ユーザー IAM ロールに含まれています。詳細については、Vertex AI ユーザーとアクセス制御をご覧ください。
コンソール
Consumer Procurement Entitlement 管理者 IAM ロールをユーザーに付与するには、[IAM] ページに移動します。
[プリンシパル] 列で、オープンモデルへのアクセスを有効にするユーザー プリンシパルを見つけて、その行の [プリンシパルを編集] をクリックします。
権限の編集ペインで、
(「別のロールを追加」)をクリックします。[ロールを選択] で、[Consumer Procurement Entitlement 管理者] を選択します。
権限の編集ペインで、[
別のロールを追加] をクリックします。[ロールを選択] で、[Vertex AI ユーザー] を選択します。
[保存] をクリックします。
gcloud
-
In the Google Cloud console, activate Cloud Shell.
Model Garden でオープンモデルを有効にするために必要な Consumer Procurement Entitlement 管理者のロールを付与します。
gcloud projects add-iam-policy-binding PROJECT_ID \ --member=PRINCIPAL --role=roles/consumerprocurement.entitlementManager
プロンプト リクエストを行うために必要な
aiplatform.endpoints.predict
権限を含む Vertex AI ユーザーロールを付与します。gcloud projects add-iam-policy-binding PROJECT_ID \ --member=PRINCIPAL --role=roles/aiplatform.user
PRINCIPAL
は、プリンシパルの ID に置き換えます。ID の形式はuser|group|serviceAccount:email
またはdomain:domain
です(例:user:cloudysanfrancisco@gmail.com
、group:admins@example.com
、serviceAccount:test123@example.domain.com
、domain:example.domain.com
)。以下を含むポリシー バインディングのリストが出力されます。
- members: - user:PRINCIPAL role: roles/roles/consumerprocurement.entitlementManager
詳細については、単一のロールを付与すると
gcloud projects add-iam-policy-binding
をご覧ください。
オープンモデルへのアクセスに関する組織のポリシーを設定する
オープンモデルを有効にするには、組織のポリシーで次の API を許可する必要があります。Cloud Commerce Consumer Procurement API - cloudcommerceconsumerprocurement.googleapis.com
組織でサービスの使用を制限するように組織のポリシーを設定している場合、組織管理者は組織のポリシーを設定することで、cloudcommerceconsumerprocurement.googleapis.com
が許可されていることを確認する必要があります。
また、Model Garden でのモデルの使用を制限する組織のポリシーがある場合は、ポリシーでオープンモデルへのアクセスを許可する必要があります。詳細については、モデルへのアクセスを制御するをご覧ください。
オープンモデルの規制遵守
Vertex AI の生成 AI の認定は、Vertex AI を使用してオープンモデルがマネージド API として使用される場合にも引き続き適用されます。モデル自体の詳細が必要な場合は、それぞれのモデルカードで追加情報を確認するか、それぞれのモデルのパブリッシャーにお問い合わせください。
データは、Vertex AI のオープンモデル用に選択されたリージョンまたはマルチリージョン内に保存されますが、データ処理のリージョン化は異なる場合があります。オープンモデルのデータ処理に関するコミットメントの詳細なリストについては、オープンモデルのデータ所在地をご覧ください。
オープンモデルを含む Vertex AI API を使用する場合、お客様のプロンプトとモデルのレスポンスは第三者と共有されません。Google は、お客様の指示に従ってのみお客様のデータを処理します。詳細については、Cloud のデータ処理に関する追加条項をご覧ください。