Account di servizio per i flussi di lavoro tabulari

Questa pagina illustra gli account di servizio per i seguenti flussi di lavoro tabulari:

Account di servizio per il flusso di lavoro tabulare per AutoML end-to-end

Questo flusso di lavoro utilizza i seguenti account di servizio:

Service account Descrizione Principale predefinito Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
Account di servizio per il worker Dataflow L'account di servizio che esegue i worker Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
AI Platform Service Agent L'account di servizio che esegue i container di addestramento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent No

Alcuni account di servizio possono essere sostituiti con un account a tua scelta. Consulta Addestrare un modello con AutoML end-to-end per istruzioni specifiche per la console Google Cloud o l'API.

Account di servizio per Vertex AI Pipelines

Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
Storage Object Admin Le autorizzazioni storage.objects.get e storage.objects.create di amministratore oggetti Storage consentono all'account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni anche se non utilizzi un'origine dati Cloud Storage.
Dataflow Developer dataflow.jobs.create Consente all'account di servizio di creare job Dataflow durante la valutazione.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.

Service account per il worker Dataflow

Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:

Ruolo Autorizzazioni
Dataflow Worker Questo ruolo consente al account di servizio di accedere alle risorse necessarie per eseguire i job Dataflow.
Storage Object Admin Questo ruolo consente al account di servizio di accedere ai bucket Cloud Storage. L'account di servizio ha bisogno di queste autorizzazioni anche se non utilizzi un'origine dati Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.

Inoltre, devi concedere i seguenti ruoli all'account di servizio worker Dataflow in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
Tabella BigQuery standard BigQuery Data Editor Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Visualizzazione BigQuery di una tabella BigQuery standard BigQuery Data Editor Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery con un file Cloud Storage di origine BigQuery Data Editor Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine BigQuery Data Editor Progetto che esegue la pipeline
Utente job BigQuery Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
File Cloud Storage Storage Object Viewer Progetto a cui appartiene il file

La tabella seguente fornisce una spiegazione di questi ruoli:

Ruolo Autorizzazioni
BigQuery Data Editor Le autorizzazioni bigquery.jobs.get e bigquery.jobs.create consentono all'account di servizio di utilizzare i set di dati BigQuery. bigquery.jobs.create consente all'account di servizio di creare set di dati BigQuery temporanei durante la generazione di statistiche ed esempi. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di utilizzare un set di dati BigQuery.
Visualizzatore dati BigQuery Questo ruolo fornisce all'account di servizio l'accesso al set di dati BigQuery.
Storage Object Viewer storage.objects.get consente all'account di servizio di accedere a un file di Cloud Storage.

AI Platform Service Agent

Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:

Ruolo Autorizzazioni
Vertex AI Service Agent Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.

Se l'origine dati è un set di dati BigQuery di un altro progetto, devi concedere i seguenti ruoli all'agente di servizio AI Platform nel progetto del set di dati:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery bigquery.tables.get consente all'account di servizio di ottenere informazioni sul set di dati BigQuery prima di lanciare un job Dataflow.

Se l'origine dati è un file Cloud Storage di un altro progetto, devi concedere i seguenti ruoli all'agente di servizio AI Platform nel progetto del file:

Storage Object Viewer storage.objects.list consente all'account di servizio di ottenere informazioni sul file Cloud Storage prima di lanciare un job Dataflow.

Account di servizio per il flusso di lavoro tabulare per la previsione

Questo flusso di lavoro utilizza i seguenti account di servizio:

Service account Descrizione Principale predefinito Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
Account di servizio per il worker Dataflow L'account di servizio che esegue i worker Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
AI Platform Service Agent L'account di servizio che esegue i container di addestramento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent No

Alcuni account di servizio possono essere sostituiti con un account a tua scelta. Per approfondire, consulta Addestrare un modello con il flusso di lavoro tabulare per la previsione.

Account di servizio per Vertex AI Pipelines

Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
BigQuery Data Editor bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
Dataflow Developer Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow.

Devi inoltre concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
File Cloud Storage Amministratore Storage Progetto a cui appartiene il file
Tabella BigQuery standard Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Visualizzazione BigQuery di una tabella BigQuery standard Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery con un file Cloud Storage di origine Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine

La tabella seguente fornisce una spiegazione di questi ruoli:

Visualizzatore dati BigQuery bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio ha bisogno di questo accesso prima di avviare il job Dataflow nel passaggio del motore di trasformazione dei feature della pipeline.
Storage Object Viewer storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine.
Storage Object Admin Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.
Amministratore Storage Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage.

Se stai eseguendo la valutazione del modello, devi fornire un set di dati BigQuery da utilizzare come destinazione per gli esempi previsti. Nel progetto che contiene questo set di dati, devi concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery Questo ruolo consente all'account di servizio di visualizzare i dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di creare job BigQuery.

Service account per il worker Dataflow

Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:

Ruolo Autorizzazioni
Storage Object Admin Questo ruolo consente al account di servizio di accedere ai bucket Cloud Storage. L'account di servizio ha bisogno di queste autorizzazioni anche se l'origine dati non è un file Cloud Storage.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire il passaggio dell'Feature Transform Engine della pipeline. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Dataflow Worker L'account di servizio ha bisogno di tutte le autorizzazioni concesse da questo ruolo.

Inoltre, devi concedere i seguenti ruoli all'account di servizio worker Dataflow in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
Tabella BigQuery standard BigQuery Data Editor Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Visualizzazione BigQuery di una tabella BigQuery standard BigQuery Data Editor Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery con un file Cloud Storage di origine BigQuery Data Editor Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine BigQuery Data Editor Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
File Cloud Storage Visualizzatore dati BigQuery Progetto che esegue la pipeline

La tabella seguente fornisce una spiegazione di questi ruoli:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery bigquery.tables.get fornisce l'accesso al set di dati nel passaggio del motore di trasformazione delle funzionalità della pipeline. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
BigQuery Data Editor Questo ruolo consente all'account di servizio di eseguire query sulla tabella e creare tabelle temporanee durante il passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Storage Object Viewer storage.objects.get consente all'account di servizio di accedere a un file di Cloud Storage.

AI Platform Service Agent

Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:

Ruolo Autorizzazioni
Vertex AI Service Agent Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.

Se stai eseguendo la valutazione del modello, devi fornire un set di dati BigQuery da utilizzare come destinazione per gli esempi previsti. Nel progetto che contiene questo set di dati, devi concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines:

Ruolo Autorizzazioni
BigQuery Data Editor Questo ruolo consente all'account di servizio di modificare i dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di creare job BigQuery.

Service account per Tabular Workflow per TabNet, Tabular Workflow per Wide & Deep e Prophet

Questi flussi di lavoro utilizzano i seguenti account di servizio:

Service account Descrizione Principale predefinito Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
Account di servizio per il worker Dataflow L'account di servizio che esegue i worker Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
AI Platform Service Agent L'account di servizio che esegue i container di addestramento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent No

Alcuni account di servizio possono essere sostituiti con un account a tua scelta. Per le istruzioni sul flusso di lavoro tabulare per TabNet, consulta Addestrare un modello con TabNet. Per le istruzioni sul flusso di lavoro tabulare per Wide & Deep, consulta Addestrare un modello con Wide & Deep. Per le istruzioni su Prophet, consulta Predizione con Prophet.

Account di servizio per Vertex AI Pipelines

Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
BigQuery Data Editor bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
Dataflow Developer Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow.

Devi inoltre concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
File Cloud Storage Amministratore Storage Progetto a cui appartiene il file
Tabella BigQuery standard Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Visualizzazione BigQuery di una tabella BigQuery standard Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery con un file Cloud Storage di origine Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine

La tabella seguente fornisce una spiegazione di questi ruoli:

Visualizzatore dati BigQuery bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio ha bisogno di questo accesso prima di avviare il job Dataflow nel passaggio del motore di trasformazione dei feature della pipeline.
Storage Object Viewer storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine.
Storage Object Admin Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.
Amministratore Storage Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage.

Service account per il worker Dataflow

Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:

Ruolo Autorizzazioni
Storage Object Admin Questo ruolo consente al account di servizio di accedere ai bucket Cloud Storage. L'account di servizio ha bisogno di queste autorizzazioni anche se l'origine dati non è un file Cloud Storage.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire il passaggio dell'Feature Transform Engine della pipeline. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Dataflow Worker L'account di servizio ha bisogno di tutte le autorizzazioni concesse da questo ruolo.

Inoltre, devi concedere i seguenti ruoli all'account di servizio worker Dataflow in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
Tabella BigQuery standard BigQuery Data Editor Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Visualizzazione BigQuery di una tabella BigQuery standard BigQuery Data Editor Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery con un file Cloud Storage di origine BigQuery Data Editor Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine BigQuery Data Editor Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
File Cloud Storage Visualizzatore dati BigQuery Progetto che esegue la pipeline

La tabella seguente fornisce una spiegazione di questi ruoli:

Ruolo Autorizzazioni
Visualizzatore dati BigQuery bigquery.tables.get fornisce l'accesso al set di dati nel passaggio del motore di trasformazione delle funzionalità della pipeline. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
BigQuery Data Editor Questo ruolo consente all'account di servizio di eseguire query sulla tabella e creare tabelle temporanee durante il passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Storage Object Viewer storage.objects.get consente all'account di servizio di accedere a un file di Cloud Storage.

AI Platform Service Agent

Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:

Ruolo Autorizzazioni
Vertex AI Service Agent Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.

Account di servizio per ARIMA+

Questo flusso di lavoro utilizza i seguenti account di servizio:

Service account Descrizione Principale predefinito Nome predefinito Può essere ignorata
Account di servizio per Vertex AI Pipelines L'account di servizio che esegue la pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
AI Platform Service Agent L'account di servizio che esegue i container di addestramento. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent No

L'account di servizio di Vertex AI Pipelines può essere modificato in un account a tua scelta. Per ulteriori informazioni, consulta la sezione Previsione con ARIMA+.

Account di servizio per Vertex AI Pipelines

Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:

Ruolo Autorizzazioni
Utente Vertex AI aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
BigQuery Data Editor bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery.
Utente job BigQuery bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery.
Utente account di servizio iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
Dataflow Developer Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow.

Devi inoltre concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:

Origine dati Ruolo Dove concedere il ruolo
File Cloud Storage Amministratore Storage Progetto a cui appartiene il file
Tabella BigQuery standard Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Visualizzazione BigQuery di una tabella BigQuery standard Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella
Tabella esterna BigQuery con un file Cloud Storage di origine Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine Storage Object Admin Progetto che esegue la pipeline
Visualizzatore dati BigQuery Progetto a cui appartiene la visualizzazione
Visualizzatore dati BigQuery Progetto a cui appartiene la tabella esterna
Storage Object Viewer Progetto a cui appartiene il file di origine

La tabella seguente fornisce una spiegazione di questi ruoli:

Visualizzatore dati BigQuery bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio ha bisogno di questo accesso prima di avviare il job Dataflow nel passaggio del motore di trasformazione dei feature della pipeline.
Storage Object Viewer storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine.
Storage Object Admin Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage.
Amministratore Storage Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage.

AI Platform Service Agent

Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:

Ruolo Autorizzazioni
Vertex AI Service Agent Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.