端對端 AutoML 表格工作流程的服務帳戶
這個工作流程會使用下列服務帳戶:
服務帳戶 | 說明 | 預設主體 | 預設名稱 | 可以覆寫 |
---|---|---|---|---|
Vertex AI Pipelines 的服務帳戶 | 執行管道的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
Dataflow 工作站的服務帳戶 | 執行 Dataflow 工作站的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
AI Platform Service Agent | 執行訓練容器的服務帳戶。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
否 |
您可以將部分服務帳戶變更為所選帳戶。如需 Google Cloud 控制台或 API 的專屬操作說明,請參閱「使用端對端 AutoML 訓練模型」。
Vertex AI Pipelines 服務帳戶
在管道專案中,將下列角色授予 Vertex AI Pipelines 的服務帳戶:
角色 | 權限 |
---|---|
Vertex AI 使用者 |
aiplatform.metadataStores.get 允許服務帳戶建立管道工作。aiplatform.models.upload 允許服務帳戶上傳模型。
|
Storage 物件管理員 | 服務帳戶具備 Storage 物件管理員的 storage.objects.get 和 storage.objects.create 權限後,即可存取管道作業根目錄的值區。即使您未使用 Cloud Storage 資料來源,服務帳戶仍需要這些權限。 |
Dataflow 開發人員 | dataflow.jobs.create 允許服務帳戶在評估期間建立 Dataflow 工作。 |
服務帳戶使用者 |
iam.serviceAccounts.actAs 允許 Vertex AI Pipelines 服務帳戶在評估期間,以 Dataflow 工作站服務帳戶的身分執行作業。
|
Dataflow 工作站的服務帳戶
在管道專案中,將下列角色授予 Dataflow 工作站的服務帳戶:
角色 | 權限 |
---|---|
Dataflow 工作者 | 這個角色可讓服務帳戶存取執行 Dataflow 工作所需的資源。 |
Storage 物件管理員 | 這個角色可讓服務帳戶存取 Cloud Storage 值區。即使您未使用 Cloud Storage 資料來源,服務帳戶仍需要這些權限。這個角色包含「Storage 物件檢視者」角色授予的所有權限。 |
此外,請根據資料來源類型,將下列角色授予 Dataflow 工作站服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
標準 BigQuery 資料表 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 工作使用者 | 執行管道的專案 | |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 工作使用者 | 執行管道的專案 | |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
BigQuery 外部資料表,其中包含來源 Cloud Storage 檔案 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 工作使用者 | 執行管道的專案 | |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
具有來源 Cloud Storage 檔案的 BigQuery 外部資料表的 BigQuery 檢視區塊 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 工作使用者 | 執行管道的專案 | |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
Cloud Storage 檔案 | Storage 物件檢視者 | 檔案所屬的專案 |
下表說明這些角色:
角色 | 權限 |
---|---|
BigQuery 資料編輯者 | bigquery.jobs.get 和 bigquery.jobs.create 權限可讓服務帳戶使用 BigQuery 資料集。bigquery.jobs.create 允許服務帳戶在產生統計資料和範例時,建立暫時的 BigQuery 資料集。這個角色包含「BigQuery 資料檢視者」角色授予的所有權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 允許服務帳戶使用 BigQuery 資料集。 |
BigQuery 資料檢視者 | 這個角色可讓服務帳戶存取 BigQuery 資料集。 |
Storage 物件檢視者 | storage.objects.get 允許服務帳戶存取 Cloud Storage 檔案。 |
AI 平台服務代理人
請確認管道專案中的 AI Platform 服務代理人具備下列角色:
角色 | 權限 |
---|---|
Vertex AI 服務代理 |
這個角色會授予服務代理程式權限。這些權限包括 storage.object.get 權限,以及存取 Artifact Registry 存放區中容器映像檔的權利。 |
如果資料來源是來自其他專案的 BigQuery 資料集,請在資料集專案中,將下列角色授予 AI Platform 服務代理程式:
角色 | 權限 |
---|---|
BigQuery 資料檢視者 | bigquery.tables.get 允許服務帳戶在啟動 Dataflow 工作前取得 BigQuery 資料集資訊。 |
如果資料來源是來自其他專案的 Cloud Storage 檔案,請在檔案專案中將下列角色授予 AI Platform 服務代理程式:
Storage 物件檢視者 | storage.objects.list 允許服務帳戶在啟動 Dataflow 工作前取得 Cloud Storage 檔案的資訊。 |
表格預測工作流程的服務帳戶
這個工作流程會使用下列服務帳戶:
服務帳戶 | 說明 | 預設主體 | 預設名稱 | 可以覆寫 |
---|---|---|---|---|
Vertex AI Pipelines 的服務帳戶 | 執行管道的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
Dataflow 工作站的服務帳戶 | 執行 Dataflow 工作站的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
AI Platform Service Agent | 執行訓練容器的服務帳戶。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
否 |
您可以將部分服務帳戶變更為所選帳戶。如要瞭解詳情,請參閱「使用 Tabular Workflow 訓練預測模型」。
Vertex AI Pipelines 服務帳戶
在管道專案中,將下列角色授予 Vertex AI Pipelines 的服務帳戶:
角色 | 權限 |
---|---|
Vertex AI 使用者 |
aiplatform.metadataStores.get 允許服務帳戶建立管道工作。aiplatform.models.upload 允許服務帳戶上傳模型。
|
BigQuery 資料編輯者 | bigquery.tables.create 允許服務帳戶在啟動 Dataflow 工作前,為特徵轉換引擎建立臨時資料表。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。這個角色包含「BigQuery 資料檢視者」角色授予的所有權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 允許服務帳戶在啟動 Dataflow 工作前,為 Feature Transform Engine 執行 BigQuery 工作。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
服務帳戶使用者 |
iam.serviceAccounts.actAs 允許 Vertex AI Pipelines 服務帳戶在評估期間,以 Dataflow 工作站服務帳戶的身分執行作業。
|
Dataflow 開發人員 | 這個角色提供執行 Dataflow 工作所需的資源存取權。 |
此外,請根據資料來源類型,將下列角色授予 Vertex AI Pipelines 服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
Cloud Storage 檔案 | Storage 管理員 | 檔案所屬的專案 |
標準 BigQuery 資料表 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
BigQuery 外部資料表,其中包含來源 Cloud Storage 檔案 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
具有來源 Cloud Storage 檔案的 BigQuery 外部資料表的 BigQuery 檢視區塊 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 |
下表說明這些角色:
BigQuery 資料檢視者 | bigquery.tables.get 授予服務帳戶資料集存取權。在啟動管道的 Feature Transform Engine 步驟中的 Dataflow 工作之前,服務帳戶需要這項存取權。 |
Storage 物件檢視者 | storage.objects.get 允許服務帳戶存取來源 Cloud Storage 檔案。 |
Storage 物件管理員 | storage.objects.get 和 storage.objects.create 權限可讓服務帳戶存取管道作業根目錄的值區。即使資料來源不是 Cloud Storage 檔案,服務帳戶也需要在管道專案中具備這些權限。這個角色包含「Storage 物件檢視者」角色授予的所有權限。 |
Storage 管理員 | storage.buckets.* 權限可讓服務帳戶在管道的 Feature Transform Engine 步驟中驗證 Cloud Storage 值區。這個角色包含「Storage 物件管理員」角色授予的所有權限。 |
如果您要評估模型,請提供 BigQuery 資料集,做為預測範例的目的地。在包含這個資料集的專案中,將下列角色授予 Vertex AI Pipelines 服務帳戶:
角色 | 權限 |
---|---|
BigQuery 資料檢視者 | 這個角色可讓服務帳戶查看 BigQuery 資料。 |
BigQuery 工作使用者 | bigquery.jobs.create 允許服務帳戶建立 BigQuery 工作。 |
Dataflow 工作站的服務帳戶
在管道專案中,將下列角色授予 Dataflow 工作站的服務帳戶:
角色 | 權限 |
---|---|
Storage 物件管理員 | 這個角色可讓服務帳戶存取 Cloud Storage 值區。即使資料來源不是 Cloud Storage 檔案,服務帳戶也需要這些權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 允許服務帳戶執行管道的 Feature Transform Engine 步驟。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
Dataflow 工作者 | 服務帳戶需要這個角色授予的所有權限。 |
此外,請根據資料來源類型,將下列角色授予 Dataflow 工作站服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
標準 BigQuery 資料表 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
BigQuery 外部資料表,其中包含來源 Cloud Storage 檔案 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
具有來源 Cloud Storage 檔案的 BigQuery 外部資料表的 BigQuery 檢視區塊 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
Cloud Storage 檔案 | BigQuery 資料檢視者 | 執行管道的專案 |
下表說明這些角色:
角色 | 權限 |
---|---|
BigQuery 資料檢視者 | bigquery.tables.get 可在管道的特徵轉換引擎步驟中存取資料集。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
BigQuery 資料編輯者 | 這個角色可讓服務帳戶在管道的特徵轉換引擎步驟中查詢資料表及建立臨時資料表。這個角色包含「BigQuery 資料檢視者」角色授予的所有權限。 |
Storage 物件檢視者 | storage.objects.get 可讓服務帳戶存取 Cloud Storage 檔案。 |
AI 平台服務代理人
請確認管道專案中的 AI Platform 服務代理人具備下列角色:
角色 | 權限 |
---|---|
Vertex AI 服務代理 |
這個角色會授予服務代理程式權限。這些權限包括 storage.object.get 權限,以及存取 Artifact Registry 存放區中容器映像檔的權利。 |
如果您要評估模型,請提供 BigQuery 資料集,做為預測範例的目的地。在包含這個資料集的專案中,將下列角色授予 Vertex AI Pipelines 服務帳戶:
角色 | 權限 |
---|---|
BigQuery 資料編輯者 | 這個角色可讓服務帳戶編輯 BigQuery 資料。 |
BigQuery 工作使用者 | bigquery.jobs.create 允許服務帳戶建立 BigQuery 工作。 |
TabNet 適用的 Tabular Workflow、廣度和深度學習適用的 Tabular Workflow,以及 Prophet 的服務帳戶
這些工作流程會使用下列服務帳戶:
服務帳戶 | 說明 | 預設主體 | 預設名稱 | 可以覆寫 |
---|---|---|---|---|
Vertex AI Pipelines 的服務帳戶 | 執行管道的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
Dataflow 工作站的服務帳戶 | 執行 Dataflow 工作站的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
AI Platform Service Agent | 執行訓練容器的服務帳戶。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
否 |
您可以將部分服務帳戶變更為所選帳戶。如需 TabNet 適用的 Tabular Workflow 操作說明,請參閱「使用 TabNet 訓練模型」。如需廣度和深度學習適用的 Tabular Workflow 操作說明,請參閱「使用廣度和深度模型訓練模型」。如需 Prophet 操作說明,請參閱「使用 Prophet 進行預測」。
Vertex AI Pipelines 服務帳戶
在管道專案中,將下列角色授予 Vertex AI Pipelines 的服務帳戶:
角色 | 權限 |
---|---|
Vertex AI 使用者 |
aiplatform.metadataStores.get 允許服務帳戶建立管道工作。aiplatform.models.upload 允許服務帳戶上傳模型。
|
BigQuery 資料編輯者 | bigquery.tables.create 允許服務帳戶在啟動 Dataflow 工作前,為特徵轉換引擎建立臨時資料表。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。這個角色包含「BigQuery 資料檢視者」角色授予的所有權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 允許服務帳戶在啟動 Dataflow 工作前,為 Feature Transform Engine 執行 BigQuery 工作。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
服務帳戶使用者 |
iam.serviceAccounts.actAs 允許 Vertex AI Pipelines 服務帳戶在評估期間,以 Dataflow 工作站服務帳戶的身分執行作業。
|
Dataflow 開發人員 | 這個角色提供執行 Dataflow 工作所需的資源存取權。 |
此外,請根據資料來源類型,將下列角色授予 Vertex AI Pipelines 服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
Cloud Storage 檔案 | Storage 管理員 | 檔案所屬的專案 |
標準 BigQuery 資料表 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
BigQuery 外部資料表,其中包含來源 Cloud Storage 檔案 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
具有來源 Cloud Storage 檔案的 BigQuery 外部資料表的 BigQuery 檢視區塊 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 |
下表說明這些角色:
BigQuery 資料檢視者 | bigquery.tables.get 授予服務帳戶資料集存取權。在啟動管道的 Feature Transform Engine 步驟中的 Dataflow 工作之前,服務帳戶需要這項存取權。 |
Storage 物件檢視者 | storage.objects.get 允許服務帳戶存取來源 Cloud Storage 檔案。 |
Storage 物件管理員 | storage.objects.get 和 storage.objects.create 權限可讓服務帳戶存取管道作業根目錄的值區。即使資料來源不是 Cloud Storage 檔案,服務帳戶也需要在管道專案中具備這些權限。這個角色包含「Storage 物件檢視者」角色授予的所有權限。 |
Storage 管理員 | storage.buckets.* 權限可讓服務帳戶在管道的 Feature Transform Engine 步驟中驗證 Cloud Storage 值區。這個角色包含「Storage 物件管理員」角色授予的所有權限。 |
Dataflow 工作站的服務帳戶
在管道專案中,將下列角色授予 Dataflow 工作站的服務帳戶:
角色 | 權限 |
---|---|
Storage 物件管理員 | 這個角色可讓服務帳戶存取 Cloud Storage 值區。即使資料來源不是 Cloud Storage 檔案,服務帳戶也需要這些權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 允許服務帳戶執行管道的 Feature Transform Engine 步驟。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
Dataflow 工作者 | 服務帳戶需要這個角色授予的所有權限。 |
此外,請根據資料來源類型,將下列角色授予 Dataflow 工作站服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
標準 BigQuery 資料表 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
BigQuery 外部資料表,其中包含來源 Cloud Storage 檔案 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
具有來源 Cloud Storage 檔案的 BigQuery 外部資料表的 BigQuery 檢視區塊 | BigQuery 資料編輯者 | 執行管道的專案 |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
Cloud Storage 檔案 | BigQuery 資料檢視者 | 執行管道的專案 |
下表說明這些角色:
角色 | 權限 |
---|---|
BigQuery 資料檢視者 | bigquery.tables.get 可在管道的特徵轉換引擎步驟中存取資料集。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
BigQuery 資料編輯者 | 這個角色可讓服務帳戶在管道的特徵轉換引擎步驟中查詢資料表及建立臨時資料表。這個角色包含「BigQuery 資料檢視者」角色授予的所有權限。 |
Storage 物件檢視者 | storage.objects.get 可讓服務帳戶存取 Cloud Storage 檔案。 |
AI 平台服務代理人
請確認管道專案中的 AI Platform 服務代理人具備下列角色:
角色 | 權限 |
---|---|
Vertex AI 服務代理 |
這個角色會授予服務代理程式權限。這些權限包括 storage.object.get 權限,以及存取 Artifact Registry 存放區中容器映像檔的權利。 |
ARIMA+ 的服務帳戶
這個工作流程會使用下列服務帳戶:
服務帳戶 | 說明 | 預設主體 | 預設名稱 | 可以覆寫 |
---|---|---|---|---|
Vertex AI Pipelines 的服務帳戶 | 執行管道的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
AI Platform Service Agent | 執行訓練容器的服務帳戶。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
否 |
您可以將 Vertex AI Pipelines 服務帳戶變更為您選擇的帳戶。詳情請參閱「使用 ARIMA+ 進行預測」。
Vertex AI Pipelines 服務帳戶
在管道專案中,將下列角色授予 Vertex AI Pipelines 的服務帳戶:
角色 | 權限 |
---|---|
Vertex AI 使用者 |
aiplatform.metadataStores.get 允許服務帳戶建立管道工作。aiplatform.models.upload 允許服務帳戶上傳模型。
|
BigQuery 資料編輯者 | bigquery.tables.create 允許服務帳戶在啟動 Dataflow 工作前,為特徵轉換引擎建立臨時資料表。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。這個角色包含「BigQuery 資料檢視者」角色授予的所有權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 允許服務帳戶在啟動 Dataflow 工作前,為 Feature Transform Engine 執行 BigQuery 工作。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
服務帳戶使用者 |
iam.serviceAccounts.actAs 允許 Vertex AI Pipelines 服務帳戶在評估期間,以 Dataflow 工作站服務帳戶的身分執行作業。
|
Dataflow 開發人員 | 這個角色提供執行 Dataflow 工作所需的資源存取權。 |
此外,請根據資料來源類型,將下列角色授予 Vertex AI Pipelines 服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
Cloud Storage 檔案 | Storage 管理員 | 檔案所屬的專案 |
標準 BigQuery 資料表 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 資料表所屬的專案 | |
BigQuery 外部資料表,其中包含來源 Cloud Storage 檔案 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
具有來源 Cloud Storage 檔案的 BigQuery 外部資料表的 BigQuery 檢視區塊 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視者 | 檢視表所屬的專案 | |
BigQuery 資料檢視者 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 |
下表說明這些角色:
BigQuery 資料檢視者 | bigquery.tables.get 授予服務帳戶資料集存取權。在啟動管道的 Feature Transform Engine 步驟中的 Dataflow 工作之前,服務帳戶需要這項存取權。 |
Storage 物件檢視者 | storage.objects.get 允許服務帳戶存取來源 Cloud Storage 檔案。 |
Storage 物件管理員 | storage.objects.get 和 storage.objects.create 權限可讓服務帳戶存取管道作業根目錄的值區。即使資料來源不是 Cloud Storage 檔案,服務帳戶也需要在管道專案中具備這些權限。這個角色包含「Storage 物件檢視者」角色授予的所有權限。 |
Storage 管理員 | storage.buckets.* 權限可讓服務帳戶在管道的 Feature Transform Engine 步驟中驗證 Cloud Storage 值區。這個角色包含「Storage 物件管理員」角色授予的所有權限。 |
AI 平台服務代理人
請確認管道專案中的 AI Platform 服務代理人具備下列角色:
角色 | 權限 |
---|---|
Vertex AI 服務代理 |
這個角色會授予服務代理程式權限。這些權限包括 storage.object.get 權限,以及存取 Artifact Registry 存放區中容器映像檔的權利。 |