Contas de serviço para fluxos de trabalho tabulares

Nesta página, explicamos as contas de serviço dos seguintes fluxos de trabalho tabulares:

Contas de serviço do fluxo de trabalho tabular para o AutoML de ponta a ponta

Esse fluxo de trabalho usa as seguintes contas de serviço:

Conta de serviço Descrição Principal padrão Nome padrão Pode ser modificada
Conta de serviço para Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Conta de serviço para o worker do Dataflow A conta de serviço que executa os workers do Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente de serviço do AI Platform A conta de serviço que executa os contêineres de treinamento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

Algumas das contas de serviço podem ser alteradas para uma conta de sua escolha. Consulte Treinar um modelo com o AutoML completo para receber instruções específicas do Console do Google Cloud ou da API.

Conta de serviço do Vertex AI Pipelines

É necessário conceder os seguintes papéis à conta de serviço do Vertex AI Pipelines no projeto do pipeline:

Papel Permissões
Usuário da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie um job de pipeline. aiplatform.models.upload permite que a conta de serviço faça o upload do modelo.
Administrador de objetos do Storage As permissões storage.objects.get e storage.objects.create do administrador de objetos do Storage permitem que a conta de serviço acesse o bucket do diretório raiz do job do pipeline. A conta de serviço precisa dessas permissões mesmo que você não esteja usando uma origem de dados do Cloud Storage.
Desenvolvedor do Dataflow dataflow.jobs.create permite que a conta de serviço crie jobs do Dataflow durante a avaliação.
Usuário da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do worker do Dataflow durante a avaliação.

Conta de serviço para o worker do Dataflow

É necessário conceder os seguintes papéis à conta de serviço do worker do Dataflow no projeto do pipeline:

Papel Permissões
Worker do Dataflow Com esse papel, a conta de serviço pode acessar os recursos necessários para executar jobs do Dataflow.
Administrador de objetos do Storage Com esse papel, a conta de serviço pode acessar os buckets do Cloud Storage. A conta de serviço precisa dessas permissões mesmo que você não esteja usando uma origem de dados do Cloud Storage. Esse papel inclui todas as permissões concedidas pelo papel Leitor de objetos do Storage.

Além disso, é necessário conceder os seguintes papéis à conta de serviço de worker do Dataflow com base no tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel:
Tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Usuário de jobs do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Visualização do BigQuery de uma tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Usuário de jobs do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Usuário de jobs do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Usuário de jobs do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Arquivo do Cloud Storage Leitor de objetos do Storage Projeto ao qual o arquivo pertence

A tabela a seguir explica essas funções:

Papel Permissões
Editor de dados do BigQuery As permissões bigquery.jobs.get e bigquery.jobs.create permitem que a conta de serviço use conjuntos de dados do BigQuery. bigquery.jobs.create permite que a conta de serviço crie conjuntos de dados temporários do BigQuery durante a geração de estatísticas e exemplos. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço use um conjunto de dados do BigQuery.
Visualizador de dados do BigQuery Esse papel concede à conta de serviço acesso ao conjunto de dados do BigQuery.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse um arquivo do Cloud Storage.

Agente de serviço do AI Platform

É necessário garantir que o seguinte papel seja concedido ao Agente de serviço do AI Platform no projeto do pipeline:

Papel Permissões
Agente de serviço da Vertex AI Esse papel concede permissões para agentes de serviço. Essas permissões incluem a permissão storage.object.get e os direitos de acesso a imagens de contêiner no repositório do Artifact Registry.

Se a sua fonte de dados for um conjunto de dados do BigQuery de outro projeto, conceda os seguintes papéis ao agente de serviço do AI Platform no projeto do conjunto de dados:

Papel Permissões
Visualizador de dados do BigQuery bigquery.tables.get permite que a conta de serviço receba informações sobre o conjunto de dados do BigQuery antes de iniciar um job do Dataflow.

Se a fonte de dados for um arquivo do Cloud Storage de outro projeto, conceda os seguintes papéis ao agente de serviço do AI Platform no projeto do arquivo:

Leitor de objetos do Storage storage.objects.list permite que a conta de serviço receba informações sobre o arquivo do Cloud Storage antes de iniciar um job do Dataflow.

Contas de serviço para o Fluxo de trabalho tabular para previsão

Esse fluxo de trabalho usa as seguintes contas de serviço:

Conta de serviço Descrição Principal padrão Nome padrão Pode ser modificada
Conta de serviço para Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Conta de serviço para o worker do Dataflow A conta de serviço que executa os workers do Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente de serviço do AI Platform A conta de serviço que executa os contêineres de treinamento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

Algumas das contas de serviço podem ser alteradas para uma conta de sua escolha. Para saber mais, consulte Treinar um modelo com fluxo de trabalho tabular para previsão.

Conta de serviço do Vertex AI Pipelines

É necessário conceder os seguintes papéis à conta de serviço do Vertex AI Pipelines no projeto do pipeline:

Papel Permissões
Usuário da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie um job de pipeline. aiplatform.models.upload permite que a conta de serviço faça o upload do modelo.
Editor de dados do BigQuery bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que a fonte de dados não seja um conjunto de dados do BigQuery. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço execute jobs do BigQuery para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que a fonte de dados não seja um conjunto de dados do BigQuery.
Usuário da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do worker do Dataflow durante a avaliação.
Desenvolvedor do Dataflow Esse papel fornece acesso aos recursos necessários para executar jobs do Dataflow.

Além disso, conceda os seguintes papéis à conta de serviço do Vertex AI Pipelines com base no tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel:
Arquivo do Cloud Storage Administrador do Storage Projeto ao qual o arquivo pertence
Tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Visualização do BigQuery de uma tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence

A tabela a seguir explica essas funções:

Visualizador de dados do BigQuery bigquery.tables.get concede à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa desse acesso antes de iniciar o job do Dataflow na etapa do mecanismo de transformação de recursos do pipeline.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse o arquivo de origem do Cloud Storage.
Administrador de objetos do Storage As permissões storage.objects.get e storage.objects.create permitem que a conta de serviço acesse o bucket do diretório raiz do job do pipeline. A conta de serviço precisa dessas permissões no projeto do pipeline, mesmo que a fonte de dados não seja um arquivo do Cloud Storage. Esse papel inclui todas as permissões concedidas pelo papel Leitor de objetos do Storage.
Administrador do Storage As permissões storage.buckets.* permitem que a conta de serviço valide o bucket do Cloud Storage na etapa do mecanismo de transformação de recursos do pipeline. Esse papel inclui todas as permissões concedidas pelo papel Administrador de objetos do Storage.

Se você estiver realizando uma avaliação de modelo, será necessário fornecer um conjunto de dados do BigQuery para servir como destino para os exemplos previstos. No projeto que contém esse conjunto de dados, conceda os seguintes papéis à conta de serviço do Vertex AI Pipelines:

Papel Permissões
Visualizador de dados do BigQuery Esse papel permite que a conta de serviço visualize os dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço crie jobs do BigQuery.

Conta de serviço para o worker do Dataflow

É necessário conceder os seguintes papéis à conta de serviço do worker do Dataflow no projeto do pipeline:

Papel Permissões
Administrador de objetos do Storage Com esse papel, a conta de serviço pode acessar os buckets do Cloud Storage. A conta de serviço precisa dessas permissões mesmo que a fonte de dados não seja um arquivo do Cloud Storage.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço execute a etapa do mecanismo de transformação de recursos do pipeline. A conta de serviço precisa dessa permissão mesmo que a fonte de dados não seja um conjunto de dados do BigQuery.
Worker do Dataflow A conta de serviço precisa de todas as permissões concedidas por esse papel.

Além disso, é necessário conceder os seguintes papéis à conta de serviço de worker do Dataflow com base no tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel:
Tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Visualização do BigQuery de uma tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Arquivo do Cloud Storage Visualizador de dados do BigQuery Projeto que executa o pipeline

A tabela a seguir explica essas funções:

Papel Permissões
Visualizador de dados do BigQuery bigquery.tables.get fornece acesso ao conjunto de dados na etapa Feature Transform Engine do pipeline. A conta de serviço precisa dessa permissão mesmo que a fonte de dados não seja um conjunto de dados do BigQuery.
Editor de dados do BigQuery Esse papel permite que a conta de serviço consulte a tabela e crie tabelas temporárias durante a etapa do mecanismo de transformação de recursos do pipeline. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse um arquivo do Cloud Storage.

Agente de serviço do AI Platform

É necessário garantir que o seguinte papel seja concedido ao Agente de serviço do AI Platform no projeto do pipeline:

Papel Permissões
Agente de serviço da Vertex AI Esse papel concede permissões para agentes de serviço. Essas permissões incluem a permissão storage.object.get e os direitos de acesso a imagens de contêiner no repositório do Artifact Registry.

Se você estiver realizando uma avaliação de modelo, será necessário fornecer um conjunto de dados do BigQuery para servir como destino para os exemplos previstos. No projeto que contém esse conjunto de dados, conceda os seguintes papéis à conta de serviço do Vertex AI Pipelines:

Papel Permissões
Editor de dados do BigQuery Esse papel permite que a conta de serviço edite dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço crie jobs do BigQuery.

Contas de serviço do fluxo de trabalho tabular para TabNet e para fluxo de trabalho tabular para Wide & Deep e Prophet

Esses fluxos de trabalho usam as seguintes contas de serviço:

Conta de serviço Descrição Principal padrão Nome padrão Pode ser modificada
Conta de serviço para Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Conta de serviço para o worker do Dataflow A conta de serviço que executa os workers do Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente de serviço do AI Platform A conta de serviço que executa os contêineres de treinamento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

Algumas das contas de serviço podem ser alteradas para uma conta de sua escolha. Para instruções sobre o fluxo de trabalho tabular para o TabNet, consulte Treinar um modelo com o TabNet. Para instruções sobre o fluxo de trabalho tabular para largura e profundidade, consulte Treinar um modelo com largura e profundidade. Para instruções do Prophet, consulte Previsão com Prophet.

Conta de serviço do Vertex AI Pipelines

É necessário conceder os seguintes papéis à conta de serviço do Vertex AI Pipelines no projeto do pipeline:

Papel Permissões
Usuário da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie um job de pipeline. aiplatform.models.upload permite que a conta de serviço faça o upload do modelo.
Editor de dados do BigQuery bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que a fonte de dados não seja um conjunto de dados do BigQuery. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço execute jobs do BigQuery para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que a fonte de dados não seja um conjunto de dados do BigQuery.
Usuário da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do worker do Dataflow durante a avaliação.
Desenvolvedor do Dataflow Esse papel fornece acesso aos recursos necessários para executar jobs do Dataflow.

Além disso, conceda os seguintes papéis à conta de serviço do Vertex AI Pipelines com base no tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel:
Arquivo do Cloud Storage Administrador do Storage Projeto ao qual o arquivo pertence
Tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Visualização do BigQuery de uma tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence

A tabela a seguir explica essas funções:

Visualizador de dados do BigQuery bigquery.tables.get concede à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa desse acesso antes de iniciar o job do Dataflow na etapa do mecanismo de transformação de recursos do pipeline.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse o arquivo de origem do Cloud Storage.
Administrador de objetos do Storage As permissões storage.objects.get e storage.objects.create permitem que a conta de serviço acesse o bucket do diretório raiz do job do pipeline. A conta de serviço precisa dessas permissões no projeto do pipeline, mesmo que a fonte de dados não seja um arquivo do Cloud Storage. Esse papel inclui todas as permissões concedidas pelo papel Leitor de objetos do Storage.
Administrador do Storage As permissões storage.buckets.* permitem que a conta de serviço valide o bucket do Cloud Storage na etapa do mecanismo de transformação de recursos do pipeline. Esse papel inclui todas as permissões concedidas pelo papel Administrador de objetos do Storage.

Conta de serviço para o worker do Dataflow

É necessário conceder os seguintes papéis à conta de serviço do worker do Dataflow no projeto do pipeline:

Papel Permissões
Administrador de objetos do Storage Com esse papel, a conta de serviço pode acessar os buckets do Cloud Storage. A conta de serviço precisa dessas permissões mesmo que a fonte de dados não seja um arquivo do Cloud Storage.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço execute a etapa do mecanismo de transformação de recursos do pipeline. A conta de serviço precisa dessa permissão mesmo que a fonte de dados não seja um conjunto de dados do BigQuery.
Worker do Dataflow A conta de serviço precisa de todas as permissões concedidas por esse papel.

Além disso, é necessário conceder os seguintes papéis à conta de serviço de worker do Dataflow com base no tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel:
Tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Visualização do BigQuery de uma tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Arquivo do Cloud Storage Visualizador de dados do BigQuery Projeto que executa o pipeline

A tabela a seguir explica essas funções:

Papel Permissões
Visualizador de dados do BigQuery bigquery.tables.get fornece acesso ao conjunto de dados na etapa do mecanismo de transformação de elementos do pipeline. A conta de serviço precisa dessa permissão mesmo que a fonte de dados não seja um conjunto de dados do BigQuery.
Editor de dados do BigQuery Esse papel permite que a conta de serviço consulte a tabela e crie tabelas temporárias durante a etapa do mecanismo de transformação de recursos do pipeline. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse um arquivo do Cloud Storage.

Agente de serviço do AI Platform

É necessário garantir que o seguinte papel seja concedido ao Agente de serviço do AI Platform no projeto do pipeline:

Papel Permissões
Agente de serviço da Vertex AI Esse papel concede permissões para agentes de serviço. Essas permissões incluem a permissão storage.object.get e os direitos de acesso a imagens de contêiner no repositório do Artifact Registry.

Contas de serviço para ARIMA+

Esse fluxo de trabalho usa as seguintes contas de serviço:

Conta de serviço Descrição Principal padrão Nome padrão Pode ser modificada
Conta de serviço para Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente de serviço do AI Platform A conta de serviço que executa os contêineres de treinamento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

A conta de serviço do Vertex AI Pipelines pode ser alterada para uma conta de sua preferência. Consulte Previsão com ARIMA+ para mais informações.

Conta de serviço do Vertex AI Pipelines

É necessário conceder os seguintes papéis à conta de serviço do Vertex AI Pipelines no projeto do pipeline:

Papel Permissões
Usuário da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie um job de pipeline. aiplatform.models.upload permite que a conta de serviço faça o upload do modelo.
Editor de dados do BigQuery bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que a fonte de dados não seja um conjunto de dados do BigQuery. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço execute jobs do BigQuery para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que a fonte de dados não seja um conjunto de dados do BigQuery.
Usuário da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do worker do Dataflow durante a avaliação.
Desenvolvedor do Dataflow Esse papel fornece acesso aos recursos necessários para executar jobs do Dataflow.

Além disso, conceda os seguintes papéis à conta de serviço do Vertex AI Pipelines com base no tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel:
Arquivo do Cloud Storage Administrador do Storage Projeto ao qual o arquivo pertence
Tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Visualização do BigQuery de uma tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence

A tabela a seguir explica essas funções:

Visualizador de dados do BigQuery bigquery.tables.get concede à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa desse acesso antes de iniciar o job do Dataflow na etapa do mecanismo de transformação de recursos do pipeline.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse o arquivo de origem do Cloud Storage.
Administrador de objetos do Storage As permissões storage.objects.get e storage.objects.create permitem que a conta de serviço acesse o bucket do diretório raiz do job do pipeline. A conta de serviço precisa dessas permissões no projeto do pipeline, mesmo que a fonte de dados não seja um arquivo do Cloud Storage. Esse papel inclui todas as permissões concedidas pelo papel Leitor de objetos do Storage.
Administrador do Storage As permissões storage.buckets.* permitem que a conta de serviço valide o bucket do Cloud Storage na etapa do mecanismo de transformação de recursos do pipeline. Esse papel inclui todas as permissões concedidas pelo papel Administrador de objetos do Storage.

Agente de serviço do AI Platform

É necessário garantir que o seguinte papel seja concedido ao Agente de serviço do AI Platform no projeto do pipeline:

Papel Permissões
Agente de serviço da Vertex AI Esse papel concede permissões para agentes de serviço. Essas permissões incluem a permissão storage.object.get e os direitos de acesso a imagens de contêiner no repositório do Artifact Registry.