- Fluxo de trabalho tabular para AutoML integral
- Fluxo de trabalho tabular para previsões
- Fluxo de trabalho tabular para a TabNet
- Fluxo de trabalho tabular para dados amplos e detalhados
- Prophet
- ARIMA+
Contas de serviço para o fluxo de trabalho tabular para o AutoML ponto a ponto
Este fluxo de trabalho usa as seguintes contas de serviço:
Conta de serviço | Descrição | Principal predefinido | Nome predefinido | Pode ser substituído |
---|---|---|---|---|
Conta de serviço para o Vertex AI Pipelines | A conta de serviço que executa o pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sim |
Conta de serviço para o worker do Dataflow | A conta de serviço que executa os trabalhadores do Dataflow | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sim |
Agente do serviço da AI Platform | A conta de serviço que executa os contentores de preparação. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
Não |
Pode alterar algumas das contas de serviço para uma conta à sua escolha. Consulte o artigo Prepare um modelo com o AutoML de extremo a extremo para obter instruções específicas da Google Cloud consola ou da API.
Conta de serviço para o Vertex AI Pipelines
Conceda as seguintes funções à conta de serviço dos Vertex AI Pipelines no projeto de pipeline:
Função | Autorizações |
---|---|
Utilizador da Vertex AI |
aiplatform.metadataStores.get permite que a conta de serviço crie uma tarefa de pipeline. aiplatform.models.upload permite que a conta de serviço carregue o modelo.
|
Administrador de objetos de armazenamento | As autorizações storage.objects.get e storage.objects.create de administrador de objetos de armazenamento permitem que a conta de serviço aceda ao contentor do diretório raiz da tarefa do pipeline. A conta de serviço precisa destas autorizações, mesmo que não esteja a usar uma origem de dados do Cloud Storage. |
Programador do Dataflow | dataflow.jobs.create permite que a conta de serviço crie tarefas do Dataflow durante a avaliação. |
Utilizador da conta de serviço |
iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do trabalhador do Dataflow durante a avaliação.
|
Conta de serviço para o worker do Dataflow
Conceda as seguintes funções à conta de serviço do trabalhador do Dataflow no projeto do pipeline:
Função | Autorizações |
---|---|
Dataflow Worker | Esta função permite que a conta de serviço aceda aos recursos necessários para executar tarefas do Dataflow. |
Administrador de objetos de armazenamento | Esta função permite que a conta de serviço aceda aos contentores do Cloud Storage. A conta de serviço precisa destas autorizações, mesmo que não esteja a usar uma origem de dados do Cloud Storage. Esta função inclui todas as autorizações concedidas pela função Leitor de objetos de armazenamento. |
Além disso, conceda as seguintes funções à conta de serviço do trabalhador do Dataflow com base no tipo de origem de dados:
Origem de dados | Função | Onde conceder a função |
---|---|---|
Tabela padrão do BigQuery | Editor de dados do BigQuery | Projeto que executa o pipeline |
Utilizador de tarefas do BigQuery | Projeto que executa o pipeline | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Vista do BigQuery de uma tabela padrão do BigQuery | Editor de dados do BigQuery | Projeto que executa o pipeline |
Utilizador de tarefas do BigQuery | Projeto que executa o pipeline | |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Editor de dados do BigQuery | Projeto que executa o pipeline |
Utilizador de tarefas do BigQuery | Projeto que executa o pipeline | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence | |
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Editor de dados do BigQuery | Projeto que executa o pipeline |
Utilizador de tarefas do BigQuery | Projeto que executa o pipeline | |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence | |
Ficheiro do Cloud Storage | Storage Object Viewer | Projeto ao qual o ficheiro pertence |
A tabela seguinte explica estas funções:
Função | Autorizações |
---|---|
Editor de dados do BigQuery | As autorizações bigquery.jobs.get e bigquery.jobs.create permitem que a conta de serviço use conjuntos de dados do BigQuery. bigquery.jobs.create permite que a conta de serviço crie conjuntos de dados temporários do BigQuery durante a geração de estatísticas e exemplos. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery. |
Utilizador de tarefas do BigQuery | bigquery.jobs.create permite que a conta de serviço use um conjunto de dados do BigQuery. |
Visualizador de dados do BigQuery | Esta função concede à conta de serviço acesso ao conjunto de dados do BigQuery. |
Storage Object Viewer | storage.objects.get permite que a conta de serviço aceda a um ficheiro do Cloud Storage. |
Agente de serviço da AI Platform
Certifique-se de que o agente do serviço AI Platform no projeto do pipeline tem a seguinte função:
Função | Autorizações |
---|---|
Agente de serviço da Vertex AI |
Esta função concede autorizações aos agentes de serviço. Estas autorizações incluem a autorização storage.object.get e os direitos de acesso a imagens de contentores no repositório do Artifact Registry.
|
Se a sua origem de dados for um conjunto de dados do BigQuery de outro projeto, conceda as seguintes funções ao agente de serviço do AI Platform no projeto do conjunto de dados:
Função | Autorizações |
---|---|
Visualizador de dados do BigQuery | bigquery.tables.get permite que a conta de serviço obtenha informações sobre o conjunto de dados do BigQuery antes de iniciar uma tarefa do Dataflow. |
Se a sua origem de dados for um ficheiro do Google Cloud Storage de outro projeto, conceda as seguintes funções ao agente de serviço do AI Platform no projeto do ficheiro:
Storage Object Viewer | storage.objects.list permite que a conta de serviço obtenha informações sobre o ficheiro do Cloud Storage antes de iniciar uma tarefa do Dataflow. |
Contas de serviço para o fluxo de trabalho tabular para previsões
Este fluxo de trabalho usa as seguintes contas de serviço:
Conta de serviço | Descrição | Principal predefinido | Nome predefinido | Pode ser substituído |
---|---|---|---|---|
Conta de serviço para o Vertex AI Pipelines | A conta de serviço que executa o pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sim |
Conta de serviço para o worker do Dataflow | A conta de serviço que executa os trabalhadores do Dataflow | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sim |
Agente do serviço da AI Platform | A conta de serviço que executa os contentores de preparação. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
Não |
Pode alterar algumas das contas de serviço para uma conta à sua escolha. Para saber mais, consulte o artigo Forme um modelo com o fluxo de trabalho tabular para previsões.
Conta de serviço para o Vertex AI Pipelines
Conceda as seguintes funções à conta de serviço dos Vertex AI Pipelines no projeto de pipeline:
Função | Autorizações |
---|---|
Utilizador da Vertex AI |
aiplatform.metadataStores.get permite que a conta de serviço crie uma tarefa de pipeline. aiplatform.models.upload permite que a conta de serviço carregue o modelo.
|
Editor de dados do BigQuery | bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery. |
Utilizador de tarefas do BigQuery | bigquery.jobs.create permite que a conta de serviço execute tarefas do BigQuery para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. |
Utilizador da conta de serviço |
iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do trabalhador do Dataflow durante a avaliação.
|
Programador do Dataflow | Esta função fornece acesso aos recursos necessários para executar tarefas do Dataflow. |
Além disso, conceda as seguintes funções à conta de serviço do Vertex AI Pipelines com base no tipo de origem de dados:
Origem de dados | Função | Onde conceder a função |
---|---|---|
Ficheiro do Cloud Storage | Administrador de armazenamento | Projeto ao qual o ficheiro pertence |
Tabela padrão do BigQuery | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Vista do BigQuery de uma tabela padrão do BigQuery | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence | |
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence |
A tabela seguinte explica estas funções:
Visualizador de dados do BigQuery | bigquery.tables.get fornece à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa deste acesso antes de iniciar a tarefa do Dataflow no passo do Feature Transform Engine do pipeline. |
Storage Object Viewer | storage.objects.get permite que a conta de serviço aceda ao ficheiro de origem do Cloud Storage. |
Administrador de objetos de armazenamento | As autorizações storage.objects.get e storage.objects.create permitem que a conta de serviço aceda ao contentor do diretório raiz da tarefa de pipeline. A conta de serviço precisa destas autorizações no projeto do pipeline, mesmo que a sua origem de dados não seja um ficheiro do Cloud Storage. Esta função inclui todas as autorizações concedidas pela função Leitor de objetos de armazenamento. |
Administrador de armazenamento | As autorizações storage.buckets.* permitem que a conta de serviço valide o contentor do Cloud Storage no passo Feature Transform Engine do pipeline. Esta função inclui todas as autorizações concedidas pela função Administrador de objetos de armazenamento. |
Se realizar a avaliação do modelo, forneça um conjunto de dados do BigQuery para servir como destino dos exemplos previstos. No projeto que contém este conjunto de dados, conceda as seguintes funções à conta de serviço do Vertex AI Pipelines:
Função | Autorizações |
---|---|
Visualizador de dados do BigQuery | Esta função permite que a conta de serviço veja os dados do BigQuery. |
Utilizador de tarefas do BigQuery | bigquery.jobs.create permite que a conta de serviço crie tarefas do BigQuery. |
Conta de serviço para o worker do Dataflow
Conceda as seguintes funções à conta de serviço do trabalhador do Dataflow no projeto do pipeline:
Função | Autorizações |
---|---|
Administrador de objetos de armazenamento | Esta função permite que a conta de serviço aceda aos contentores do Cloud Storage. A conta de serviço precisa destas autorizações, mesmo que a sua origem de dados não seja um ficheiro do Cloud Storage. |
Utilizador de tarefas do BigQuery | bigquery.jobs.create permite que a conta de serviço execute o passo do Feature Transform Engine do pipeline. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. |
Dataflow Worker | A conta de serviço precisa de todas as autorizações concedidas por esta função. |
Além disso, conceda as seguintes funções à conta de serviço do trabalhador do Dataflow com base no tipo de origem de dados:
Origem de dados | Função | Onde conceder a função |
---|---|---|
Tabela padrão do BigQuery | Editor de dados do BigQuery | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Vista do BigQuery de uma tabela padrão do BigQuery | Editor de dados do BigQuery | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Editor de dados do BigQuery | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence | |
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Editor de dados do BigQuery | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence | |
Ficheiro do Cloud Storage | Visualizador de dados do BigQuery | Projeto que executa o pipeline |
A tabela seguinte explica estas funções:
Função | Autorizações |
---|---|
Visualizador de dados do BigQuery | bigquery.tables.get fornece acesso ao conjunto de dados no passo Feature Transform Engine do pipeline. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. |
Editor de dados do BigQuery | Esta função permite que a conta de serviço consulte a tabela e crie tabelas temporárias durante o passo do Feature Transform Engine do pipeline. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery. |
Storage Object Viewer | storage.objects.get permite que a conta de serviço aceda a um ficheiro do Cloud Storage. |
Agente de serviço da AI Platform
Certifique-se de que o agente do serviço AI Platform no projeto do pipeline tem a seguinte função:
Função | Autorizações |
---|---|
Agente de serviço da Vertex AI |
Esta função concede autorizações aos agentes de serviço. Estas autorizações incluem a autorização storage.object.get e os direitos de acesso a imagens de contentores no repositório do Artifact Registry.
|
Se realizar a avaliação do modelo, forneça um conjunto de dados do BigQuery para servir como destino dos exemplos previstos. No projeto que contém este conjunto de dados, conceda as seguintes funções à conta de serviço do Vertex AI Pipelines:
Função | Autorizações |
---|---|
Editor de dados do BigQuery | Esta função permite que a conta de serviço edite dados do BigQuery. |
Utilizador de tarefas do BigQuery | bigquery.jobs.create permite que a conta de serviço crie tarefas do BigQuery. |
Contas de serviço para o fluxo de trabalho tabular para o TabNet, o fluxo de trabalho tabular para o Wide & Deep e o Prophet
Estes fluxos de trabalho usam as seguintes contas de serviço:
Conta de serviço | Descrição | Principal predefinido | Nome predefinido | Pode ser substituído |
---|---|---|---|---|
Conta de serviço para o Vertex AI Pipelines | A conta de serviço que executa o pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sim |
Conta de serviço para o worker do Dataflow | A conta de serviço que executa os trabalhadores do Dataflow | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sim |
Agente do serviço da AI Platform | A conta de serviço que executa os contentores de preparação. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
Não |
Pode alterar algumas das contas de serviço para uma conta à sua escolha. Para instruções do fluxo de trabalho tabular para o TabNet, consulte o artigo Forme um modelo com o TabNet. Para instruções do fluxo de trabalho tabular para o modelo amplo e profundo, consulte o artigo Forme um modelo com o modelo amplo e profundo. Para ver instruções do Prophet, consulte o artigo Previsão com o Prophet.
Conta de serviço para o Vertex AI Pipelines
Conceda as seguintes funções à conta de serviço dos Vertex AI Pipelines no projeto de pipeline:
Função | Autorizações |
---|---|
Utilizador da Vertex AI |
aiplatform.metadataStores.get permite que a conta de serviço crie uma tarefa de pipeline. aiplatform.models.upload permite que a conta de serviço carregue o modelo.
|
Editor de dados do BigQuery | bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery. |
Utilizador de tarefas do BigQuery | bigquery.jobs.create permite que a conta de serviço execute tarefas do BigQuery para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. |
Utilizador da conta de serviço |
iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do trabalhador do Dataflow durante a avaliação.
|
Programador do Dataflow | Esta função fornece acesso aos recursos necessários para executar tarefas do Dataflow. |
Além disso, conceda as seguintes funções à conta de serviço do Vertex AI Pipelines com base no tipo de origem de dados:
Origem de dados | Função | Onde conceder a função |
---|---|---|
Ficheiro do Cloud Storage | Administrador de armazenamento | Projeto ao qual o ficheiro pertence |
Tabela padrão do BigQuery | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Vista do BigQuery de uma tabela padrão do BigQuery | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence | |
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence |
A tabela seguinte explica estas funções:
Visualizador de dados do BigQuery | bigquery.tables.get fornece à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa deste acesso antes de iniciar a tarefa do Dataflow no passo do Feature Transform Engine do pipeline. |
Storage Object Viewer | storage.objects.get permite que a conta de serviço aceda ao ficheiro de origem do Cloud Storage. |
Administrador de objetos de armazenamento | As autorizações storage.objects.get e storage.objects.create permitem que a conta de serviço aceda ao contentor do diretório raiz da tarefa de pipeline. A conta de serviço precisa destas autorizações no projeto do pipeline, mesmo que a sua origem de dados não seja um ficheiro do Cloud Storage. Esta função inclui todas as autorizações concedidas pela função Leitor de objetos de armazenamento. |
Administrador de armazenamento | As autorizações storage.buckets.* permitem que a conta de serviço valide o contentor do Cloud Storage no passo Feature Transform Engine do pipeline. Esta função inclui todas as autorizações concedidas pela função Administrador de objetos de armazenamento. |
Conta de serviço para o worker do Dataflow
Conceda as seguintes funções à conta de serviço do trabalhador do Dataflow no projeto do pipeline:
Função | Autorizações |
---|---|
Administrador de objetos de armazenamento | Esta função permite que a conta de serviço aceda aos contentores do Cloud Storage. A conta de serviço precisa destas autorizações, mesmo que a sua origem de dados não seja um ficheiro do Cloud Storage. |
Utilizador de tarefas do BigQuery | bigquery.jobs.create permite que a conta de serviço execute o passo do Feature Transform Engine do pipeline. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. |
Dataflow Worker | A conta de serviço precisa de todas as autorizações concedidas por esta função. |
Além disso, conceda as seguintes funções à conta de serviço do trabalhador do Dataflow com base no tipo de origem de dados:
Origem de dados | Função | Onde conceder a função |
---|---|---|
Tabela padrão do BigQuery | Editor de dados do BigQuery | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Vista do BigQuery de uma tabela padrão do BigQuery | Editor de dados do BigQuery | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Editor de dados do BigQuery | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence | |
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Editor de dados do BigQuery | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence | |
Ficheiro do Cloud Storage | Visualizador de dados do BigQuery | Projeto que executa o pipeline |
A tabela seguinte explica estas funções:
Função | Autorizações |
---|---|
Visualizador de dados do BigQuery | bigquery.tables.get fornece acesso ao conjunto de dados no passo Feature Transform Engine do pipeline. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. |
Editor de dados do BigQuery | Esta função permite que a conta de serviço consulte a tabela e crie tabelas temporárias durante o passo do Feature Transform Engine do pipeline. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery. |
Storage Object Viewer | storage.objects.get permite que a conta de serviço aceda a um ficheiro do Cloud Storage. |
Agente de serviço da AI Platform
Certifique-se de que o agente do serviço AI Platform no projeto do pipeline tem a seguinte função:
Função | Autorizações |
---|---|
Agente de serviço da Vertex AI |
Esta função concede autorizações aos agentes de serviço. Estas autorizações incluem a autorização storage.object.get e os direitos de acesso a imagens de contentores no repositório do Artifact Registry.
|
Contas de serviço para ARIMA+
Este fluxo de trabalho usa as seguintes contas de serviço:
Conta de serviço | Descrição | Principal predefinido | Nome predefinido | Pode ser substituído |
---|---|---|---|---|
Conta de serviço para o Vertex AI Pipelines | A conta de serviço que executa o pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sim |
Agente do serviço da AI Platform | A conta de serviço que executa os contentores de preparação. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
Não |
Pode alterar a conta de serviço do Vertex AI Pipelines para uma conta à sua escolha. Consulte o artigo Previsão com ARIMA+ para mais informações.
Conta de serviço para o Vertex AI Pipelines
Conceda as seguintes funções à conta de serviço dos Vertex AI Pipelines no projeto de pipeline:
Função | Autorizações |
---|---|
Utilizador da Vertex AI |
aiplatform.metadataStores.get permite que a conta de serviço crie uma tarefa de pipeline. aiplatform.models.upload permite que a conta de serviço carregue o modelo.
|
Editor de dados do BigQuery | bigquery.tables.create permite que a conta de serviço crie tabelas temporárias para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. Esta função inclui todas as autorizações concedidas pela função visualizador de dados do BigQuery. |
Utilizador de tarefas do BigQuery | bigquery.jobs.create permite que a conta de serviço execute tarefas do BigQuery para o Feature Transform Engine antes de iniciar uma tarefa do Dataflow. A conta de serviço precisa desta autorização, mesmo que a sua origem de dados não seja um conjunto de dados do BigQuery. |
Utilizador da conta de serviço |
iam.serviceAccounts.actAs permite que a conta de serviço do Vertex AI Pipelines atue como a conta de serviço do trabalhador do Dataflow durante a avaliação.
|
Programador do Dataflow | Esta função fornece acesso aos recursos necessários para executar tarefas do Dataflow. |
Além disso, conceda as seguintes funções à conta de serviço do Vertex AI Pipelines com base no tipo de origem de dados:
Origem de dados | Função | Onde conceder a função |
---|---|---|
Ficheiro do Cloud Storage | Administrador de armazenamento | Projeto ao qual o ficheiro pertence |
Tabela padrão do BigQuery | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Vista do BigQuery de uma tabela padrão do BigQuery | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela pertence | |
Tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence | |
Vista do BigQuery de uma tabela externa do BigQuery que tem um ficheiro do Cloud Storage de origem | Administrador de objetos de armazenamento | Projeto que executa o pipeline |
Visualizador de dados do BigQuery | Projeto ao qual a vista pertence | |
Visualizador de dados do BigQuery | Projeto ao qual a tabela externa pertence | |
Storage Object Viewer | Projeto ao qual o ficheiro de origem pertence |
A tabela seguinte explica estas funções:
Visualizador de dados do BigQuery | bigquery.tables.get fornece à conta de serviço acesso ao conjunto de dados. A conta de serviço precisa deste acesso antes de iniciar a tarefa do Dataflow no passo do Feature Transform Engine do pipeline. |
Storage Object Viewer | storage.objects.get permite que a conta de serviço aceda ao ficheiro de origem do Cloud Storage. |
Administrador de objetos de armazenamento | As autorizações storage.objects.get e storage.objects.create permitem que a conta de serviço aceda ao contentor do diretório raiz da tarefa de pipeline. A conta de serviço precisa destas autorizações no projeto do pipeline, mesmo que a sua origem de dados não seja um ficheiro do Cloud Storage. Esta função inclui todas as autorizações concedidas pela função Leitor de objetos de armazenamento. |
Administrador de armazenamento | As autorizações storage.buckets.* permitem que a conta de serviço valide o contentor do Cloud Storage no passo Feature Transform Engine do pipeline. Esta função inclui todas as autorizações concedidas pela função Administrador de objetos de armazenamento. |
Agente de serviço da AI Platform
Certifique-se de que o agente do serviço AI Platform no projeto do pipeline tem a seguinte função:
Função | Autorizações |
---|---|
Agente de serviço da Vertex AI |
Esta função concede autorizações aos agentes de serviço. Estas autorizações incluem a autorização storage.object.get e os direitos de acesso a imagens de contentores no repositório do Artifact Registry.
|