Contas de serviço para fluxos de trabalho tabulares

Nesta página, explicamos as contas de serviço para os seguintes fluxos de trabalho tabulares:

Contas de serviço do fluxo de trabalho tabular para o AutoML de ponta a ponta

Esse fluxo de trabalho usa as seguintes contas de serviço:

Conta de serviço Descrição Principal padrão Nome padrão Pode ser modificada
Conta de serviço para Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Conta de serviço para o worker do Dataflow A conta de serviço que executa os workers do Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente de serviço do AI Platform A conta de serviço que executa os contêineres de treinamento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

Algumas das contas de serviço podem ser alteradas para uma conta de sua escolha. Consulte Treinar um modelo com o AutoML completo para receber instruções específicas do Console do Google Cloud ou da API.

Conta de serviço do Vertex AI Pipelines

É preciso conceder os seguintes papéis à conta de serviço do Vertex AI Pipelines no projeto do pipeline:

Papel Permissões
Usuário da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie um job de pipeline. aiplatform.models.upload permite que a conta de serviço faça upload do modelo.
Administrador de objetos do Storage As permissões storage.objects.get e storage.objects.create do administrador de objetos do Storage permitem que a conta de serviço acesse o bucket do diretório raiz do job do pipeline. A conta de serviço precisa dessas permissões mesmo que você não esteja usando uma fonte de dados do Cloud Storage.
Desenvolvedor do Dataflow dataflow.jobs.create permite que a conta de serviço crie jobs do Dataflow durante a avaliação.
Usuário da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do worker do Dataflow durante a avaliação.

Conta de serviço para o worker do Dataflow

Você precisa conceder os seguintes papéis à conta de serviço do worker do Dataflow no projeto de pipeline:

Papel Permissões
Worker do Dataflow Esse papel permite que a conta de serviço acesse os recursos necessários para executar jobs do Dataflow.
Administrador de objetos do Storage Esse papel permite que a conta de serviço acesse os buckets do Cloud Storage. A conta de serviço precisa dessas permissões mesmo que você não esteja usando uma fonte de dados do Cloud Storage. Esse papel inclui todas as permissões concedidas pelo papel Leitor de objetos do Storage.

Você também precisa conceder os seguintes papéis à conta de serviço do worker do Dataflow com base no seu tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel
Tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Usuário de jobs do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
A visualização do BigQuery de uma tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Usuário de jobs do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery, que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Usuário de jobs do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
A visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Usuário de jobs do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Arquivo do Cloud Storage Leitor de objetos do Storage Projeto a que o arquivo pertence

A tabela a seguir fornece uma explicação sobre esses papéis:

Papel Permissões
Editor de dados do BigQuery Com as permissões bigquery.jobs.get e bigquery.jobs.create, a conta de serviço pode usar conjuntos de dados do BigQuery. bigquery.jobs.create permite que a conta de serviço crie conjuntos de dados temporários do BigQuery durante a estatística e a geração de exemplos. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço use um conjunto de dados do BigQuery.
Visualizador de dados do BigQuery Esse papel fornece à conta de serviço acesso ao conjunto de dados do BigQuery.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse um arquivo do Cloud Storage.

Agente de serviço do AI Platform

Verifique se o papel a seguir foi concedido ao agente de serviço do AI Platform no projeto de pipeline:

Papel Permissões
Agente de serviço da Vertex AI Esse papel concede permissões para agentes de serviço. Essas permissões incluem a permissão storage.object.get e os direitos de acesso a imagens de contêiner no repositório do Artifact Registry.

Se a fonte de dados for um conjunto de dados do BigQuery de outro projeto, conceda os seguintes papéis ao agente de serviço do AI Platform no projeto do conjunto de dados:

Papel Permissões
Visualizador de dados do BigQuery bigquery.tables.get permite que a conta de serviço receba informações sobre o conjunto de dados do BigQuery antes de iniciar um job do Dataflow.

Se a fonte de dados for um arquivo do Cloud Storage de outro projeto, conceda os seguintes papéis ao agente de serviço do AI Platform no projeto de arquivo:

Leitor de objetos do Storage storage.objects.list permite que a conta de serviço receba informações sobre o arquivo do Cloud Storage antes de iniciar um job do Dataflow.

Contas de serviço para o Fluxo de trabalho tabular para previsão

Esse fluxo de trabalho usa as seguintes contas de serviço:

Conta de serviço Descrição Principal padrão Nome padrão Pode ser modificada
Conta de serviço para Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Conta de serviço para o worker do Dataflow A conta de serviço que executa os workers do Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente de serviço do AI Platform A conta de serviço que executa os contêineres de treinamento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

Algumas das contas de serviço podem ser alteradas para uma conta de sua escolha. Para saber mais, consulte Treinar um modelo com fluxo de trabalho tabular para previsão.

Conta de serviço do Vertex AI Pipelines

É preciso conceder os seguintes papéis à conta de serviço do Vertex AI Pipelines no projeto do pipeline:

Papel Permissões
Usuário da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie um job de pipeline. aiplatform.models.upload permite que a conta de serviço faça upload do modelo.
Editor de dados do BigQuery bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que sua fonte de dados não seja um conjunto de dados do BigQuery. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço execute jobs do BigQuery para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que sua fonte de dados não seja um conjunto de dados do BigQuery.
Usuário da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do worker do Dataflow durante a avaliação.
Desenvolvedor do Dataflow Esse papel fornece acesso aos recursos necessários para executar jobs do Dataflow.

Além disso, você precisa conceder os seguintes papéis à conta de serviço do Vertex AI Pipelines com base no seu tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel
Arquivo do Cloud Storage Administrador do Storage Projeto a que o arquivo pertence
Tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
A visualização do BigQuery de uma tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery, que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
A visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence

A tabela a seguir fornece uma explicação sobre esses papéis:

Visualizador de dados do BigQuery bigquery.tables.get fornece à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa desse acesso antes de iniciar o job do Dataflow na etapa Feature Transform Engine do pipeline.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse o arquivo de origem do Cloud Storage.
Administrador de objetos do Storage Com as permissões storage.objects.get e storage.objects.create, a conta de serviço pode acessar o bucket do diretório raiz do job do pipeline. A conta de serviço precisa dessas permissões no projeto do pipeline, mesmo que a fonte de dados não seja um arquivo do Cloud Storage. Esse papel inclui todas as permissões concedidas pelo papel Leitor de objetos do Storage.
Administrador do Storage Com as permissões de storage.buckets.*, a conta de serviço pode validar o bucket do Cloud Storage na etapa Feature Transform Engine do pipeline. Esse papel inclui todas as permissões concedidas pelo papel Administrador de objetos do Storage.

Se você estiver realizando uma avaliação de modelo, será necessário fornecer um conjunto de dados do BigQuery para servir como destino para os exemplos previstos. No projeto que contém esse conjunto de dados, conceda os seguintes papéis à conta de serviço do Vertex AI Pipelines:

Papel Permissões
Visualizador de dados do BigQuery Esse papel permite que a conta de serviço visualize os dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço crie jobs do BigQuery.

Conta de serviço para o worker do Dataflow

Você precisa conceder os seguintes papéis à conta de serviço do worker do Dataflow no projeto de pipeline:

Papel Permissões
Administrador de objetos do Storage Esse papel permite que a conta de serviço acesse os buckets do Cloud Storage. A conta de serviço precisa dessas permissões mesmo que sua fonte de dados não seja um arquivo do Cloud Storage.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço execute a etapa do Feature Transform Engine do pipeline. A conta de serviço precisa dessa permissão mesmo que sua fonte de dados não seja um conjunto de dados do BigQuery.
Worker do Dataflow A conta de serviço precisa de todas as permissões concedidas por esse papel.

Você também precisa conceder os seguintes papéis à conta de serviço do worker do Dataflow com base no seu tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel
Tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
A visualização do BigQuery de uma tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery, que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
A visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Arquivo do Cloud Storage Visualizador de dados do BigQuery Projeto que executa o pipeline

A tabela a seguir fornece uma explicação sobre esses papéis:

Papel Permissões
Visualizador de dados do BigQuery bigquery.tables.get fornece acesso ao conjunto de dados na etapa Feature Transform do pipeline. A conta de serviço precisa dessa permissão mesmo que sua fonte de dados não seja um conjunto de dados do BigQuery.
Editor de dados do BigQuery Com esse papel, a conta de serviço pode consultar a tabela e criar tabelas temporárias durante a etapa "Feature Transform Engine" do pipeline. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse um arquivo do Cloud Storage.

Agente de serviço do AI Platform

Verifique se o papel a seguir foi concedido ao agente de serviço do AI Platform no projeto de pipeline:

Papel Permissões
Agente de serviço da Vertex AI Esse papel concede permissões para agentes de serviço. Essas permissões incluem a permissão storage.object.get e os direitos de acesso a imagens de contêiner no repositório do Artifact Registry.

Se você estiver realizando uma avaliação de modelo, será necessário fornecer um conjunto de dados do BigQuery para servir como destino para os exemplos previstos. No projeto que contém esse conjunto de dados, conceda os seguintes papéis à conta de serviço do Vertex AI Pipelines:

Papel Permissões
Editor de dados do BigQuery Esse papel permite que a conta de serviço edite dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço crie jobs do BigQuery.

Contas de serviço do fluxo de trabalho tabular para TabNet e para fluxo de trabalho tabular para Wide & Deep e Prophet

Esses fluxos de trabalho usam as seguintes contas de serviço:

Conta de serviço Descrição Principal padrão Nome padrão Pode ser modificada
Conta de serviço para Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Conta de serviço para o worker do Dataflow A conta de serviço que executa os workers do Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente de serviço do AI Platform A conta de serviço que executa os contêineres de treinamento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

Algumas das contas de serviço podem ser alteradas para uma conta de sua escolha. Para fluxos de trabalho tabulares para o TabNet, consulte treinar um modelo com o TabNet. Para um fluxo de trabalho tabular para instruções de amplitude e profundidade, consulte Treinar um modelo com amplitude e profundidade. Para instruções do Prophet, consulte Previsão com Prophet.

Conta de serviço do Vertex AI Pipelines

É preciso conceder os seguintes papéis à conta de serviço do Vertex AI Pipelines no projeto do pipeline:

Papel Permissões
Usuário da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie um job de pipeline. aiplatform.models.upload permite que a conta de serviço faça upload do modelo.
Editor de dados do BigQuery bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que sua fonte de dados não seja um conjunto de dados do BigQuery. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço execute jobs do BigQuery para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que sua fonte de dados não seja um conjunto de dados do BigQuery.
Usuário da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do worker do Dataflow durante a avaliação.
Desenvolvedor do Dataflow Esse papel fornece acesso aos recursos necessários para executar jobs do Dataflow.

Além disso, você precisa conceder os seguintes papéis à conta de serviço do Vertex AI Pipelines com base no seu tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel
Arquivo do Cloud Storage Administrador do Storage Projeto a que o arquivo pertence
Tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
A visualização do BigQuery de uma tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery, que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
A visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence

A tabela a seguir fornece uma explicação sobre esses papéis:

Visualizador de dados do BigQuery bigquery.tables.get fornece à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa desse acesso antes de iniciar o job do Dataflow na etapa Feature Transform Engine do pipeline.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse o arquivo de origem do Cloud Storage.
Administrador de objetos do Storage Com as permissões storage.objects.get e storage.objects.create, a conta de serviço pode acessar o bucket do diretório raiz do job do pipeline. A conta de serviço precisa dessas permissões no projeto do pipeline, mesmo que a fonte de dados não seja um arquivo do Cloud Storage. Esse papel inclui todas as permissões concedidas pelo papel Leitor de objetos do Storage.
Administrador do Storage Com as permissões de storage.buckets.*, a conta de serviço pode validar o bucket do Cloud Storage na etapa Feature Transform Engine do pipeline. Esse papel inclui todas as permissões concedidas pelo papel Administrador de objetos do Storage.

Conta de serviço para o worker do Dataflow

Você precisa conceder os seguintes papéis à conta de serviço do worker do Dataflow no projeto de pipeline:

Papel Permissões
Administrador de objetos do Storage Esse papel permite que a conta de serviço acesse os buckets do Cloud Storage. A conta de serviço precisa dessas permissões mesmo que sua fonte de dados não seja um arquivo do Cloud Storage.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço execute a etapa do Feature Transform Engine do pipeline. A conta de serviço precisa dessa permissão mesmo que sua fonte de dados não seja um conjunto de dados do BigQuery.
Worker do Dataflow A conta de serviço precisa de todas as permissões concedidas por esse papel.

Você também precisa conceder os seguintes papéis à conta de serviço do worker do Dataflow com base no seu tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel
Tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
A visualização do BigQuery de uma tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery, que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
A visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
Arquivo do Cloud Storage Visualizador de dados do BigQuery Projeto que executa o pipeline

A tabela a seguir fornece uma explicação sobre esses papéis:

Papel Permissões
Visualizador de dados do BigQuery bigquery.tables.get fornece acesso ao conjunto de dados na etapa Feature Transform do pipeline. A conta de serviço precisa dessa permissão mesmo que sua fonte de dados não seja um conjunto de dados do BigQuery.
Editor de dados do BigQuery Com esse papel, a conta de serviço pode consultar a tabela e criar tabelas temporárias durante a etapa "Feature Transform Engine" do pipeline. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse um arquivo do Cloud Storage.

Agente de serviço do AI Platform

Verifique se o papel a seguir foi concedido ao agente de serviço do AI Platform no projeto de pipeline:

Papel Permissões
Agente de serviço da Vertex AI Esse papel concede permissões para agentes de serviço. Essas permissões incluem a permissão storage.object.get e os direitos de acesso a imagens de contêiner no repositório do Artifact Registry.

Contas de serviço de ARIMA+

Esse fluxo de trabalho usa as seguintes contas de serviço:

Conta de serviço Descrição Principal padrão Nome padrão Pode ser modificada
Conta de serviço para Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente de serviço do AI Platform A conta de serviço que executa os contêineres de treinamento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

A conta de serviço do Vertex AI Pipelines pode ser alterada para uma conta de sua escolha. Consulte Previsão com ARIMA+ para mais informações.

Conta de serviço do Vertex AI Pipelines

É preciso conceder os seguintes papéis à conta de serviço do Vertex AI Pipelines no projeto do pipeline:

Papel Permissões
Usuário da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie um job de pipeline. aiplatform.models.upload permite que a conta de serviço faça upload do modelo.
Editor de dados do BigQuery bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que sua fonte de dados não seja um conjunto de dados do BigQuery. Esse papel inclui todas as permissões concedidas pelo papel Leitor de dados do BigQuery.
Usuário de jobs do BigQuery bigquery.jobs.create permite que a conta de serviço execute jobs do BigQuery para o Feature Transform Engine antes de iniciar um job do Dataflow. A conta de serviço precisa dessa permissão mesmo que sua fonte de dados não seja um conjunto de dados do BigQuery.
Usuário da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do worker do Dataflow durante a avaliação.
Desenvolvedor do Dataflow Esse papel fornece acesso aos recursos necessários para executar jobs do Dataflow.

Além disso, você precisa conceder os seguintes papéis à conta de serviço do Vertex AI Pipelines com base no seu tipo de fonte de dados:

Fonte de dados Papel Onde conceder o papel
Arquivo do Cloud Storage Administrador do Storage Projeto a que o arquivo pertence
Tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela pertence
A visualização do BigQuery de uma tabela padrão do BigQuery Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela pertence
Tabela externa do BigQuery, que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence
A visualização do BigQuery de uma tabela externa do BigQuery que tem um arquivo de origem do Cloud Storage Administrador de objetos do Storage Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto a que a visualização pertence
Visualizador de dados do BigQuery Projeto a que a tabela externa pertence
Leitor de objetos do Storage Projeto a que o arquivo de origem pertence

A tabela a seguir fornece uma explicação sobre esses papéis:

Visualizador de dados do BigQuery bigquery.tables.get fornece à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa desse acesso antes de iniciar o job do Dataflow na etapa Feature Transform Engine do pipeline.
Leitor de objetos do Storage storage.objects.get permite que a conta de serviço acesse o arquivo de origem do Cloud Storage.
Administrador de objetos do Storage Com as permissões storage.objects.get e storage.objects.create, a conta de serviço pode acessar o bucket do diretório raiz do job do pipeline. A conta de serviço precisa dessas permissões no projeto do pipeline, mesmo que a fonte de dados não seja um arquivo do Cloud Storage. Esse papel inclui todas as permissões concedidas pelo papel Leitor de objetos do Storage.
Administrador do Storage Com as permissões de storage.buckets.*, a conta de serviço pode validar o bucket do Cloud Storage na etapa Feature Transform Engine do pipeline. Esse papel inclui todas as permissões concedidas pelo papel Administrador de objetos do Storage.

Agente de serviço do AI Platform

Verifique se o papel a seguir foi concedido ao agente de serviço do AI Platform no projeto de pipeline:

Papel Permissões
Agente de serviço da Vertex AI Esse papel concede permissões para agentes de serviço. Essas permissões incluem a permissão storage.object.get e os direitos de acesso a imagens de contêiner no repositório do Artifact Registry.