Account di servizio per i flussi di lavoro tabulari

Questa pagina illustra gli account di servizio per i seguenti flussi di lavoro tabulari:

Account di servizio per il flusso di lavoro tabulare per AutoML end-to-end

Questo flusso di lavoro utilizza i seguenti account di servizio:

Service account Descrizione Principale predefinito Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
Account di servizio per il worker Dataflow L'account di servizio che esegue i worker Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
AI Platform Service Agent L'account di servizio che esegue i container di addestramento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent No

Alcuni account di servizio possono essere modificati con un account a tua scelta. Consulta Addestrare un modello con AutoML end-to-end per istruzioni specifiche per la console Google Cloud o l'API.

Account di servizio per Vertex AI Pipelines

Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
Amministratore oggetti Storage Le autorizzazioni storage.objects.get e storage.objects.create di Amministratore oggetti Storage consentono all'account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni anche se non utilizzi un'origine dati Cloud Storage.
Dataflow Developer dataflow.jobs.create consente all'account di servizio di creare job Dataflow durante la valutazione.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.

Service account per il worker Dataflow

Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:

Ruolo Autorizzazioni
Worker Dataflow Questo ruolo consente al service account di accedere alle risorse necessarie per eseguire i job Dataflow.
Amministratore oggetti Storage Questo ruolo consente all'account di servizio di accedere ai bucket Cloud Storage. L'account di servizio necessita di queste autorizzazioni anche se non utilizzi un'origine dati Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.

Devi inoltre concedere i seguenti ruoli all'account di servizio worker Dataflow in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
Tabella BigQuery standard BigQuery Data Editor Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Vista BigQuery di una tabella BigQuery standard BigQuery Data Editor Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery contenente un file Cloud Storage di origine Editor dati BigQuery Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
Vista BigQuery di una tabella esterna BigQuery che contiene un file Cloud Storage di origine BigQuery Data Editor Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
File Cloud Storage Storage Object Viewer Progetto a cui appartiene il file

La tabella seguente fornisce una spiegazione di questi ruoli:

Ruolo Autorizzazioni
Editor dati BigQuery Le autorizzazioni bigquery.jobs.get e bigquery.jobs.create consentono all'account di servizio di utilizzare i set di dati BigQuery. bigquery.jobs.create consente all'account di servizio di creare set di dati BigQuery temporanei durante le statistiche e la generazione di esempi. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di utilizzare un set di dati BigQuery.
Visualizzatore dati BigQuery Questo ruolo fornisce all'account di servizio l'accesso al set di dati BigQuery.
Storage Object Viewer storage.objects.get consente all'account di servizio di accedere a un file Cloud Storage.

AI Platform Service Agent

Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:

Ruolo Autorizzazioni
Agente di servizio Vertex AI Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.

Se l'origine dati è un set di dati BigQuery di un altro progetto, devi concedere quanto segue ruoli all'agente di servizio AI Platform nel progetto del set di dati:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery bigquery.tables.get consente all'account di servizio di ottenere informazioni sul set di dati BigQuery prima di avviare un job Dataflow.

Se l'origine dati è un file Cloud Storage di un altro progetto, devi concedere quanto segue ruoli all'agente di servizio AI Platform nel progetto file:

Storage Object Viewer storage.objects.list consente all'account di servizio di ottenere informazioni sul file Cloud Storage prima di avviare un job Dataflow.

Account di servizio per il flusso di lavoro tabulare per la previsione

Questo flusso di lavoro utilizza i seguenti account di servizio:

Service account Descrizione Principale predefinito Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
Account di servizio per il worker Dataflow L'account di servizio che esegue i worker Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
AI Platform Service Agent L'account di servizio che esegue i container di addestramento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent No

Alcuni account di servizio possono essere sostituiti con un account a tua scelta. A Per ulteriori informazioni, consulta Addestrare un modello con il flusso di lavoro tabulare per la previsione.

Account di servizio per Vertex AI Pipelines

Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
Editor dati BigQuery bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
Sviluppatore Dataflow Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow.

Devi inoltre concedere i ruoli seguenti all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
File Cloud Storage Amministratore Storage Progetto a cui appartiene il file
Tabella BigQuery standard Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Vista BigQuery di una tabella BigQuery standard Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery con un file Cloud Storage di origine Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine

La tabella seguente fornisce una spiegazione di questi ruoli:

Visualizzatore dati BigQuery bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio ha bisogno di questo accesso prima di avviare il job Dataflow nel passaggio del motore di trasformazione dei feature della pipeline.
Storage Object Viewer storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine.
Storage Object Admin Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.
Amministratore Storage Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage.

Se stai eseguendo la valutazione del modello, devi fornire un set di dati BigQuery da utilizzare come destinazione per gli esempi previsti. Nel progetto che contiene questo set di dati, devi concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery Questo ruolo consente all'account di servizio di visualizzare i dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di creare job BigQuery.

Service account per il worker Dataflow

Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:

Ruolo Autorizzazioni
Amministratore oggetti Storage Questo ruolo consente all'account di servizio di accedere ai bucket Cloud Storage. L'account di servizio ha bisogno di queste autorizzazioni anche se l'origine dati non è un file Cloud Storage.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire il passaggio dell'Feature Transform Engine della pipeline. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Worker Dataflow L'account di servizio deve avere tutte le autorizzazioni concesse da questo ruolo.

Devi inoltre concedere i ruoli seguenti all'account di servizio worker Dataflow in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
Tabella BigQuery standard Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Vista BigQuery di una tabella BigQuery standard BigQuery Data Editor Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery contenente un file Cloud Storage di origine Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
Vista BigQuery di una tabella esterna BigQuery che contiene un file Cloud Storage di origine Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la vista
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
File Cloud Storage Visualizzatore dati BigQuery Progetto che esegue la pipeline

La tabella seguente fornisce una spiegazione di questi ruoli:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery bigquery.tables.get fornisce l'accesso al set di dati nel passaggio del motore di trasformazione delle funzionalità della pipeline. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
BigQuery Data Editor Questo ruolo consente all'account di servizio di eseguire query sulla tabella e creare tabelle temporanee durante il passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Storage Object Viewer storage.objects.get consente all'account di servizio di accedere a un file di Cloud Storage.

AI Platform Service Agent

Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:

Ruolo Autorizzazioni
Agente di servizio Vertex AI Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.

Se stai eseguendo la valutazione del modello, devi fornire un set di dati BigQuery da utilizzare come destinazione per gli esempi previsti. Nel progetto che contiene questo set di dati, devi concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines:

Ruolo Autorizzazioni
BigQuery Data Editor Questo ruolo consente all'account di servizio di modificare i dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di creare job BigQuery.

Account di servizio per Tabular Workflow per TabNet e Tabular Workflow per Wide & Deep e Prophet

Questi flussi di lavoro utilizzano i seguenti account di servizio:

Service account Descrizione Principale predefinito Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
Account di servizio per il worker Dataflow L'account di servizio che esegue i worker Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
Agente di servizio AI Platform L'account di servizio che esegue i container di addestramento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent No

Alcuni account di servizio possono essere modificati con un account a tua scelta. Per Per le istruzioni del flusso di lavoro tabulare per TabNet, vedi Addestramento di un modello con TabNet. Per le istruzioni sul flusso di lavoro tabulare per Wide & Deep, consulta Addestrare un modello con Wide & Deep. Per le istruzioni su Prophet, consulta Predizione con Prophet.

Account di servizio per Vertex AI Pipelines

Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
BigQuery Data Editor bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
Dataflow Developer Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow.

Devi inoltre concedere i ruoli seguenti all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
File Cloud Storage Amministratore Storage Progetto a cui appartiene il file
Tabella BigQuery standard Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Vista BigQuery di una tabella BigQuery standard Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery con un file Cloud Storage di origine Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
Vista BigQuery di una tabella esterna BigQuery che contiene un file Cloud Storage di origine Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine

La tabella seguente fornisce una spiegazione di questi ruoli:

Visualizzatore dati BigQuery bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio necessita di questo accesso prima di avviare il job Dataflow nel passaggio Feature Transform Engine della pipeline.
Visualizzatore oggetti Storage storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine.
Amministratore oggetti Storage Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.
Amministratore Storage Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio Feature Transform Engine della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage.

Account di servizio per il worker Dataflow

Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:

Ruolo Autorizzazioni
Amministratore oggetti Storage Questo ruolo consente all'account di servizio di accedere ai bucket Cloud Storage. L'account di servizio ha bisogno di queste autorizzazioni anche se l'origine dati non è un file Cloud Storage.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire il passaggio del motore di trasformazione delle caratteristiche della pipeline. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Worker Dataflow L'account di servizio deve avere tutte le autorizzazioni concesse da questo ruolo.

Devi inoltre concedere i ruoli seguenti all'account di servizio worker Dataflow in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
Tabella BigQuery standard BigQuery Data Editor Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Visualizzazione BigQuery di una tabella BigQuery standard Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery con un file Cloud Storage di origine BigQuery Data Editor Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine Editor dati BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
File Cloud Storage Visualizzatore dati BigQuery Progetto che esegue la pipeline

La tabella seguente fornisce una spiegazione di questi ruoli:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery bigquery.tables.get fornisce l'accesso al set di dati nel passaggio del motore di trasformazione delle funzionalità della pipeline. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
BigQuery Data Editor Questo ruolo consente all'account di servizio di eseguire query sulla tabella e di creare tabelle temporanee durante il passaggio del motore di trasformazione delle caratteristiche della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Storage Object Viewer storage.objects.get consente all'account di servizio di accedere a un file di Cloud Storage.

AI Platform Service Agent

Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:

Ruolo Autorizzazioni
Agente di servizio Vertex AI Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.

Account di servizio per ARIMA+

Questo flusso di lavoro utilizza i seguenti account di servizio:

Service account Descrizione Principale predefinito Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
Agente di servizio AI Platform L'account di servizio che esegue i container di addestramento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent No

L'account di servizio di Vertex AI Pipelines può essere modificato in un account a tua scelta. Per ulteriori informazioni, consulta la sezione Previsione con ARIMA+.

Account di servizio per Vertex AI Pipelines

Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
BigQuery Data Editor bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
Dataflow Developer Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow.

Devi inoltre concedere i ruoli seguenti all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
File Cloud Storage Amministratore Storage Progetto a cui appartiene il file
Tabella BigQuery standard Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Visualizzazione BigQuery di una tabella BigQuery standard Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery con un file Cloud Storage di origine Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Visualizzatore oggetti Storage Progetto a cui appartiene il file di origine
Vista BigQuery di una tabella esterna BigQuery che contiene un file Cloud Storage di origine Amministratore oggetti Storage Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine

La tabella seguente fornisce una spiegazione di questi ruoli:

Visualizzatore dati BigQuery bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio ha bisogno di questo accesso prima di avviare il job Dataflow nel passaggio del motore di trasformazione dei feature della pipeline.
Visualizzatore oggetti Storage storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine.
Amministratore oggetti Storage Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory radice del job della pipeline. L'account di servizio richiede queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.
Amministratore Storage Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage.

AI Platform Service Agent

Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:

Ruolo Autorizzazioni
Vertex AI Service Agent Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.