Contas de serviço para fluxos de trabalho tabulares

Esta página explica as contas de serviço para os seguintes fluxos de trabalho tabulares:

Contas de serviço para o fluxo de trabalho tabular para o AutoML ponto a ponto

Este fluxo de trabalho usa as seguintes contas de serviço:

Conta de serviço Descrição Principal predefinido Nome predefinido Pode ser substituído
Conta de serviço para o Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Conta de serviço para o worker do Dataflow A conta de serviço que executa os trabalhadores do Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente do serviço da AI Platform A conta de serviço que executa os contentores de preparação. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

Pode alterar algumas das contas de serviço para uma conta à sua escolha. Consulte o artigo Prepare um modelo com o AutoML de extremo a extremo para obter instruções específicas da Google Cloud consola ou da API.

Conta de serviço para o Vertex AI Pipelines

Conceda as seguintes funções à conta de serviço dos Vertex AI Pipelines no projeto de pipeline:

Função Autorizações
Utilizador da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie uma tarefa de pipeline. aiplatform.models.upload permite que a conta de serviço carregue o modelo.
Administrador de objetos de armazenamento As autorizações storage.objects.get e storage.objects.create de administrador de objetos de armazenamento permitem que a conta de serviço aceda ao contentor do diretório raiz da tarefa do pipeline. A conta de serviço precisa destas autorizações, mesmo que não esteja a usar uma origem de dados do Cloud Storage.
Programador do Dataflow dataflow.jobs.create permite que a conta de serviço crie tarefas do Dataflow durante a avaliação.
Utilizador da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do trabalhador do Dataflow durante a avaliação.

Conta de serviço para o worker do Dataflow

Conceda as seguintes funções à conta de serviço do trabalhador do Dataflow no projeto do pipeline:

Função Autorizações
Dataflow Worker Esta função permite que a conta de serviço aceda aos recursos necessários para executar tarefas do Dataflow.
Administrador de objetos de armazenamento Esta função permite que a conta de serviço aceda aos contentores do Cloud Storage. A conta de serviço precisa destas autorizações, mesmo que não esteja a usar uma origem de dados do Cloud Storage. Esta função inclui todas as autorizações concedidas pela função Leitor de objetos de armazenamento.

Além disso, conceda as seguintes funções à conta de serviço do trabalhador do Dataflow com base no tipo de origem de dados:

Origem de dados Função Onde conceder a função
Tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Utilizador de tarefas do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Vista do BigQuery de uma tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Utilizador de tarefas do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Editor de dados do BigQuery Projeto que executa o pipeline
Utilizador de tarefas do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Editor de dados do BigQuery Projeto que executa o pipeline
Utilizador de tarefas do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence
Ficheiro do Cloud Storage Storage Object Viewer Projeto ao qual o ficheiro pertence

A tabela seguinte explica estas funções:

Função Autorizações
Editor de dados do BigQuery As autorizações bigquery.jobs.get e bigquery.jobs.create permitem que a conta de serviço use conjuntos de dados do BigQuery. bigquery.jobs.create permite que a conta de serviço crie conjuntos de dados temporários do BigQuery durante a geração de estatísticas e exemplos. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery.
Utilizador de tarefas do BigQuery bigquery.jobs.create permite que a conta de serviço use um conjunto de dados do BigQuery.
Visualizador de dados do BigQuery Esta função concede à conta de serviço acesso ao conjunto de dados do BigQuery.
Storage Object Viewer storage.objects.get permite que a conta de serviço aceda a um ficheiro do Cloud Storage.

Agente de serviço da AI Platform

Certifique-se de que o agente do serviço AI Platform no projeto do pipeline tem a seguinte função:

Função Autorizações
Agente de serviço da Vertex AI Esta função concede autorizações aos agentes de serviço. Estas autorizações incluem a autorização storage.object.get e os direitos de acesso a imagens de contentores no repositório do Artifact Registry.

Se a sua origem de dados for um conjunto de dados do BigQuery de outro projeto, conceda as seguintes funções ao agente de serviço do AI Platform no projeto do conjunto de dados:

Função Autorizações
Visualizador de dados do BigQuery bigquery.tables.get permite que a conta de serviço obtenha informações sobre o conjunto de dados do BigQuery antes de iniciar uma tarefa do Dataflow.

Se a sua origem de dados for um ficheiro do Google Cloud Storage de outro projeto, conceda as seguintes funções ao agente de serviço do AI Platform no projeto do ficheiro:

Storage Object Viewer storage.objects.list permite que a conta de serviço obtenha informações sobre o ficheiro do Cloud Storage antes de iniciar uma tarefa do Dataflow.

Contas de serviço para o fluxo de trabalho tabular para previsões

Este fluxo de trabalho usa as seguintes contas de serviço:

Conta de serviço Descrição Principal predefinido Nome predefinido Pode ser substituído
Conta de serviço para o Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Conta de serviço para o worker do Dataflow A conta de serviço que executa os trabalhadores do Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente do serviço da AI Platform A conta de serviço que executa os contentores de preparação. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

Pode alterar algumas das contas de serviço para uma conta à sua escolha. Para saber mais, consulte o artigo Forme um modelo com o fluxo de trabalho tabular para previsões.

Conta de serviço para o Vertex AI Pipelines

Conceda as seguintes funções à conta de serviço dos Vertex AI Pipelines no projeto de pipeline:

Função Autorizações
Utilizador da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie uma tarefa de pipeline. aiplatform.models.upload permite que a conta de serviço carregue o modelo.
Editor de dados do BigQuery bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery.
Utilizador de tarefas do BigQuery bigquery.jobs.create permite que a conta de serviço execute tarefas do BigQuery para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery.
Utilizador da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do trabalhador do Dataflow durante a avaliação.
Programador do Dataflow Esta função fornece acesso aos recursos necessários para executar tarefas do Dataflow.

Além disso, conceda as seguintes funções à conta de serviço do Vertex AI Pipelines com base no tipo de origem de dados:

Origem de dados Função Onde conceder a função
Ficheiro do Cloud Storage Administrador de armazenamento Projeto ao qual o ficheiro pertence
Tabela padrão do BigQuery Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Vista do BigQuery de uma tabela padrão do BigQuery Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence

A tabela seguinte explica estas funções:

Visualizador de dados do BigQuery bigquery.tables.get fornece à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa deste acesso antes de iniciar a tarefa do Dataflow no passo do Feature Transform Engine do pipeline.
Storage Object Viewer storage.objects.get permite que a conta de serviço aceda ao ficheiro de origem do Cloud Storage.
Administrador de objetos de armazenamento As autorizações storage.objects.get e storage.objects.create permitem que a conta de serviço aceda ao contentor do diretório raiz da tarefa de pipeline. A conta de serviço precisa destas autorizações no projeto do pipeline, mesmo que a sua origem de dados não seja um ficheiro do Cloud Storage. Esta função inclui todas as autorizações concedidas pela função Leitor de objetos de armazenamento.
Administrador de armazenamento As autorizações storage.buckets.* permitem que a conta de serviço valide o contentor do Cloud Storage no passo Feature Transform Engine do pipeline. Esta função inclui todas as autorizações concedidas pela função Administrador de objetos de armazenamento.

Se realizar a avaliação do modelo, forneça um conjunto de dados do BigQuery para servir como destino dos exemplos previstos. No projeto que contém este conjunto de dados, conceda as seguintes funções à conta de serviço do Vertex AI Pipelines:

Função Autorizações
Visualizador de dados do BigQuery Esta função permite que a conta de serviço veja os dados do BigQuery.
Utilizador de tarefas do BigQuery bigquery.jobs.create permite que a conta de serviço crie tarefas do BigQuery.

Conta de serviço para o worker do Dataflow

Conceda as seguintes funções à conta de serviço do trabalhador do Dataflow no projeto do pipeline:

Função Autorizações
Administrador de objetos de armazenamento Esta função permite que a conta de serviço aceda aos contentores do Cloud Storage. A conta de serviço precisa destas autorizações, mesmo que a sua origem de dados não seja um ficheiro do Cloud Storage.
Utilizador de tarefas do BigQuery bigquery.jobs.create permite que a conta de serviço execute o passo do Feature Transform Engine do pipeline. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery.
Dataflow Worker A conta de serviço precisa de todas as autorizações concedidas por esta função.

Além disso, conceda as seguintes funções à conta de serviço do trabalhador do Dataflow com base no tipo de origem de dados:

Origem de dados Função Onde conceder a função
Tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Vista do BigQuery de uma tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence
Ficheiro do Cloud Storage Visualizador de dados do BigQuery Projeto que executa o pipeline

A tabela seguinte explica estas funções:

Função Autorizações
Visualizador de dados do BigQuery bigquery.tables.get fornece acesso ao conjunto de dados no passo Feature Transform Engine do pipeline. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery.
Editor de dados do BigQuery Esta função permite que a conta de serviço consulte a tabela e crie tabelas temporárias durante o passo do Feature Transform Engine do pipeline. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery.
Storage Object Viewer storage.objects.get permite que a conta de serviço aceda a um ficheiro do Cloud Storage.

Agente de serviço da AI Platform

Certifique-se de que o agente do serviço AI Platform no projeto do pipeline tem a seguinte função:

Função Autorizações
Agente de serviço da Vertex AI Esta função concede autorizações aos agentes de serviço. Estas autorizações incluem a autorização storage.object.get e os direitos de acesso a imagens de contentores no repositório do Artifact Registry.

Se realizar a avaliação do modelo, forneça um conjunto de dados do BigQuery para servir como destino dos exemplos previstos. No projeto que contém este conjunto de dados, conceda as seguintes funções à conta de serviço do Vertex AI Pipelines:

Função Autorizações
Editor de dados do BigQuery Esta função permite que a conta de serviço edite dados do BigQuery.
Utilizador de tarefas do BigQuery bigquery.jobs.create permite que a conta de serviço crie tarefas do BigQuery.

Contas de serviço para o fluxo de trabalho tabular para o TabNet, o fluxo de trabalho tabular para o Wide & Deep e o Prophet

Estes fluxos de trabalho usam as seguintes contas de serviço:

Conta de serviço Descrição Principal predefinido Nome predefinido Pode ser substituído
Conta de serviço para o Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Conta de serviço para o worker do Dataflow A conta de serviço que executa os trabalhadores do Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente do serviço da AI Platform A conta de serviço que executa os contentores de preparação. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

Pode alterar algumas das contas de serviço para uma conta à sua escolha. Para instruções do fluxo de trabalho tabular para o TabNet, consulte o artigo Forme um modelo com o TabNet. Para instruções do fluxo de trabalho tabular para o modelo amplo e profundo, consulte o artigo Forme um modelo com o modelo amplo e profundo. Para ver instruções do Prophet, consulte o artigo Previsão com o Prophet.

Conta de serviço para o Vertex AI Pipelines

Conceda as seguintes funções à conta de serviço dos Vertex AI Pipelines no projeto de pipeline:

Função Autorizações
Utilizador da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie uma tarefa de pipeline. aiplatform.models.upload permite que a conta de serviço carregue o modelo.
Editor de dados do BigQuery bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery.
Utilizador de tarefas do BigQuery bigquery.jobs.create permite que a conta de serviço execute tarefas do BigQuery para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery.
Utilizador da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do trabalhador do Dataflow durante a avaliação.
Programador do Dataflow Esta função fornece acesso aos recursos necessários para executar tarefas do Dataflow.

Além disso, conceda as seguintes funções à conta de serviço do Vertex AI Pipelines com base no tipo de origem de dados:

Origem de dados Função Onde conceder a função
Ficheiro do Cloud Storage Administrador de armazenamento Projeto ao qual o ficheiro pertence
Tabela padrão do BigQuery Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Vista do BigQuery de uma tabela padrão do BigQuery Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence

A tabela seguinte explica estas funções:

Visualizador de dados do BigQuery bigquery.tables.get fornece à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa deste acesso antes de iniciar a tarefa do Dataflow no passo do Feature Transform Engine do pipeline.
Storage Object Viewer storage.objects.get permite que a conta de serviço aceda ao ficheiro de origem do Cloud Storage.
Administrador de objetos de armazenamento As autorizações storage.objects.get e storage.objects.create permitem que a conta de serviço aceda ao contentor do diretório raiz da tarefa de pipeline. A conta de serviço precisa destas autorizações no projeto do pipeline, mesmo que a sua origem de dados não seja um ficheiro do Cloud Storage. Esta função inclui todas as autorizações concedidas pela função Leitor de objetos de armazenamento.
Administrador de armazenamento As autorizações storage.buckets.* permitem que a conta de serviço valide o contentor do Cloud Storage no passo Feature Transform Engine do pipeline. Esta função inclui todas as autorizações concedidas pela função Administrador de objetos de armazenamento.

Conta de serviço para o worker do Dataflow

Conceda as seguintes funções à conta de serviço do trabalhador do Dataflow no projeto do pipeline:

Função Autorizações
Administrador de objetos de armazenamento Esta função permite que a conta de serviço aceda aos contentores do Cloud Storage. A conta de serviço precisa destas autorizações, mesmo que a sua origem de dados não seja um ficheiro do Cloud Storage.
Utilizador de tarefas do BigQuery bigquery.jobs.create permite que a conta de serviço execute o passo do Feature Transform Engine do pipeline. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery.
Dataflow Worker A conta de serviço precisa de todas as autorizações concedidas por esta função.

Além disso, conceda as seguintes funções à conta de serviço do trabalhador do Dataflow com base no tipo de origem de dados:

Origem de dados Função Onde conceder a função
Tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Vista do BigQuery de uma tabela padrão do BigQuery Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Editor de dados do BigQuery Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence
Ficheiro do Cloud Storage Visualizador de dados do BigQuery Projeto que executa o pipeline

A tabela seguinte explica estas funções:

Função Autorizações
Visualizador de dados do BigQuery bigquery.tables.get fornece acesso ao conjunto de dados no passo Feature Transform Engine do pipeline. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery.
Editor de dados do BigQuery Esta função permite que a conta de serviço consulte a tabela e crie tabelas temporárias durante o passo do Feature Transform Engine do pipeline. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery.
Storage Object Viewer storage.objects.get permite que a conta de serviço aceda a um ficheiro do Cloud Storage.

Agente de serviço da AI Platform

Certifique-se de que o agente do serviço AI Platform no projeto do pipeline tem a seguinte função:

Função Autorizações
Agente de serviço da Vertex AI Esta função concede autorizações aos agentes de serviço. Estas autorizações incluem a autorização storage.object.get e os direitos de acesso a imagens de contentores no repositório do Artifact Registry.

Contas de serviço para ARIMA+

Este fluxo de trabalho usa as seguintes contas de serviço:

Conta de serviço Descrição Principal predefinido Nome predefinido Pode ser substituído
Conta de serviço para o Vertex AI Pipelines A conta de serviço que executa o pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Sim
Agente do serviço da AI Platform A conta de serviço que executa os contentores de preparação. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Não

Pode alterar a conta de serviço do Vertex AI Pipelines para uma conta à sua escolha. Consulte o artigo Previsão com ARIMA+ para mais informações.

Conta de serviço para o Vertex AI Pipelines

Conceda as seguintes funções à conta de serviço dos Vertex AI Pipelines no projeto de pipeline:

Função Autorizações
Utilizador da Vertex AI aiplatform.metadataStores.get permite que a conta de serviço crie uma tarefa de pipeline. aiplatform.models.upload permite que a conta de serviço carregue o modelo.
Editor de dados do BigQuery bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery.
Utilizador de tarefas do BigQuery bigquery.jobs.create permite que a conta de serviço execute tarefas do BigQuery para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery.
Utilizador da conta de serviço iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do trabalhador do Dataflow durante a avaliação.
Programador do Dataflow Esta função fornece acesso aos recursos necessários para executar tarefas do Dataflow.

Além disso, conceda as seguintes funções à conta de serviço do Vertex AI Pipelines com base no tipo de origem de dados:

Origem de dados Função Onde conceder a função
Ficheiro do Cloud Storage Administrador de armazenamento Projeto ao qual o ficheiro pertence
Tabela padrão do BigQuery Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Vista do BigQuery de uma tabela padrão do BigQuery Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela pertence
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem Administrador de objetos de armazenamento Projeto que executa o pipeline
Visualizador de dados do BigQuery Projeto ao qual a vista pertence
Visualizador de dados do BigQuery Projeto ao qual a tabela externa pertence
Storage Object Viewer Projeto ao qual o ficheiro de origem pertence

A tabela seguinte explica estas funções:

Visualizador de dados do BigQuery bigquery.tables.get fornece à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa deste acesso antes de iniciar a tarefa do Dataflow no passo do Feature Transform Engine do pipeline.
Storage Object Viewer storage.objects.get permite que a conta de serviço aceda ao ficheiro de origem do Cloud Storage.
Administrador de objetos de armazenamento As autorizações storage.objects.get e storage.objects.create permitem que a conta de serviço aceda ao contentor do diretório raiz da tarefa de pipeline. A conta de serviço precisa destas autorizações no projeto do pipeline, mesmo que a sua origem de dados não seja um ficheiro do Cloud Storage. Esta função inclui todas as autorizações concedidas pela função Leitor de objetos de armazenamento.
Administrador de armazenamento As autorizações storage.buckets.* permitem que a conta de serviço valide o contentor do Cloud Storage no passo Feature Transform Engine do pipeline. Esta função inclui todas as autorizações concedidas pela função Administrador de objetos de armazenamento.

Agente de serviço da AI Platform

Certifique-se de que o agente do serviço AI Platform no projeto do pipeline tem a seguinte função:

Função Autorizações
Agente de serviço da Vertex AI Esta função concede autorizações aos agentes de serviço. Estas autorizações incluem a autorização storage.object.get e os direitos de acesso a imagens de contentores no repositório do Artifact Registry.