Questa pagina illustra gli account di servizio per i seguenti flussi di lavoro tabulari:
- Flusso di lavoro tabulare per AutoML end-to-end
- Flusso di lavoro tabulare per la previsione
- Flusso di lavoro tabulare per TabNet
- Flusso di lavoro tabulare per Wide & Deep
- Prophet
- ARIMA+
Account di servizio per il flusso di lavoro tabulare per AutoML end-to-end
Questo flusso di lavoro utilizza i seguenti account di servizio:
Service account | Descrizione | Principale predefinito | Nome predefinito | Può essere ignorata |
---|---|---|---|---|
Account di servizio per Vertex AI Pipelines | L'account di servizio che esegue la pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
Account di servizio per il worker Dataflow | L'account di servizio che esegue i worker Dataflow | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
AI Platform Service Agent | L'account di servizio che esegue i container di addestramento. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
No |
Alcuni account di servizio possono essere sostituiti con un account a tua scelta. Consulta Addestrare un modello con AutoML end-to-end per istruzioni specifiche per la console Google Cloud o l'API.
Account di servizio per Vertex AI Pipelines
Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Utente Vertex AI |
aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
|
Storage Object Admin | Le autorizzazioni storage.objects.get e storage.objects.create di amministratore oggetti Storage consentono all'account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni anche se non utilizzi un'origine dati Cloud Storage. |
Dataflow Developer | dataflow.jobs.create Consente all'account di servizio di creare job Dataflow durante la valutazione. |
Utente account di servizio |
iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
|
Service account per il worker Dataflow
Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Dataflow Worker | Questo ruolo consente al account di servizio di accedere alle risorse necessarie per eseguire i job Dataflow. |
Storage Object Admin | Questo ruolo consente al account di servizio di accedere ai bucket Cloud Storage. L'account di servizio ha bisogno di queste autorizzazioni anche se non utilizzi un'origine dati Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage. |
Inoltre, devi concedere i seguenti ruoli all'account di servizio worker Dataflow in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo |
---|---|---|
Tabella BigQuery standard | BigQuery Data Editor | Progetto che esegue la pipeline |
Utente job BigQuery | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Visualizzazione BigQuery di una tabella BigQuery standard | BigQuery Data Editor | Progetto che esegue la pipeline |
Utente job BigQuery | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Tabella esterna BigQuery con un file Cloud Storage di origine | BigQuery Data Editor | Progetto che esegue la pipeline |
Utente job BigQuery | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | BigQuery Data Editor | Progetto che esegue la pipeline |
Utente job BigQuery | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
File Cloud Storage | Storage Object Viewer | Progetto a cui appartiene il file |
La tabella seguente fornisce una spiegazione di questi ruoli:
Ruolo | Autorizzazioni |
---|---|
BigQuery Data Editor | Le autorizzazioni bigquery.jobs.get e bigquery.jobs.create consentono all'account di servizio di utilizzare i set di dati BigQuery. bigquery.jobs.create consente all'account di servizio di creare set di dati BigQuery temporanei durante la generazione di statistiche ed esempi. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di utilizzare un set di dati BigQuery. |
Visualizzatore dati BigQuery | Questo ruolo fornisce all'account di servizio l'accesso al set di dati BigQuery. |
Storage Object Viewer | storage.objects.get consente all'account di servizio di accedere a un file di Cloud Storage. |
AI Platform Service Agent
Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Vertex AI Service Agent |
Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.
|
Se l'origine dati è un set di dati BigQuery di un altro progetto, devi concedere i seguenti ruoli all'agente di servizio AI Platform nel progetto del set di dati:
Ruolo | Autorizzazioni |
---|---|
Visualizzatore dati BigQuery | bigquery.tables.get consente all'account di servizio di ottenere informazioni sul set di dati BigQuery prima di lanciare un job Dataflow. |
Se l'origine dati è un file Cloud Storage di un altro progetto, devi concedere i seguenti ruoli all'agente di servizio AI Platform nel progetto del file:
Storage Object Viewer | storage.objects.list consente all'account di servizio di ottenere informazioni sul file Cloud Storage prima di lanciare un job Dataflow. |
Account di servizio per il flusso di lavoro tabulare per la previsione
Questo flusso di lavoro utilizza i seguenti account di servizio:
Service account | Descrizione | Principale predefinito | Nome predefinito | Può essere ignorata |
---|---|---|---|---|
Account di servizio per Vertex AI Pipelines | L'account di servizio che esegue la pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
Account di servizio per il worker Dataflow | L'account di servizio che esegue i worker Dataflow | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
AI Platform Service Agent | L'account di servizio che esegue i container di addestramento. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
No |
Alcuni account di servizio possono essere sostituiti con un account a tua scelta. Per approfondire, consulta Addestrare un modello con il flusso di lavoro tabulare per la previsione.
Account di servizio per Vertex AI Pipelines
Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Utente Vertex AI |
aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
|
BigQuery Data Editor | bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Utente account di servizio |
iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
|
Dataflow Developer | Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow. |
Devi inoltre concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo | |
---|---|---|---|
File Cloud Storage | Amministratore Storage | Progetto a cui appartiene il file | |
Tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | ||
Visualizzazione BigQuery di una tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | ||
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | ||
Tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | ||
Storage Object Viewer | Progetto a cui appartiene il file di origine | ||
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | ||
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | ||
Storage Object Viewer | Progetto a cui appartiene il file di origine |
La tabella seguente fornisce una spiegazione di questi ruoli:
Visualizzatore dati BigQuery | bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio ha bisogno di questo accesso prima di avviare il job Dataflow nel passaggio del motore di trasformazione dei feature della pipeline. |
Storage Object Viewer | storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine. |
Storage Object Admin | Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage. |
Amministratore Storage | Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage. |
Se stai eseguendo la valutazione del modello, devi fornire un set di dati BigQuery da utilizzare come destinazione per gli esempi previsti. Nel progetto che contiene questo set di dati, devi concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines:
Ruolo | Autorizzazioni |
---|---|
Visualizzatore dati BigQuery | Questo ruolo consente all'account di servizio di visualizzare i dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di creare job BigQuery. |
Service account per il worker Dataflow
Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Storage Object Admin | Questo ruolo consente al account di servizio di accedere ai bucket Cloud Storage. L'account di servizio ha bisogno di queste autorizzazioni anche se l'origine dati non è un file Cloud Storage. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di eseguire il passaggio dell'Feature Transform Engine della pipeline. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Dataflow Worker | L'account di servizio ha bisogno di tutte le autorizzazioni concesse da questo ruolo. |
Inoltre, devi concedere i seguenti ruoli all'account di servizio worker Dataflow in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo |
---|---|---|
Tabella BigQuery standard | BigQuery Data Editor | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Visualizzazione BigQuery di una tabella BigQuery standard | BigQuery Data Editor | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Tabella esterna BigQuery con un file Cloud Storage di origine | BigQuery Data Editor | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | BigQuery Data Editor | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
File Cloud Storage | Visualizzatore dati BigQuery | Progetto che esegue la pipeline |
La tabella seguente fornisce una spiegazione di questi ruoli:
Ruolo | Autorizzazioni |
---|---|
Visualizzatore dati BigQuery | bigquery.tables.get fornisce l'accesso al set di dati nel passaggio del motore di trasformazione delle funzionalità della pipeline. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
BigQuery Data Editor | Questo ruolo consente all'account di servizio di eseguire query sulla tabella e creare tabelle temporanee durante il passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Storage Object Viewer | storage.objects.get consente all'account di servizio di accedere a un file di Cloud Storage. |
AI Platform Service Agent
Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Vertex AI Service Agent |
Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.
|
Se stai eseguendo la valutazione del modello, devi fornire un set di dati BigQuery da utilizzare come destinazione per gli esempi previsti. Nel progetto che contiene questo set di dati, devi concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines:
Ruolo | Autorizzazioni |
---|---|
BigQuery Data Editor | Questo ruolo consente all'account di servizio di modificare i dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di creare job BigQuery. |
Service account per Tabular Workflow per TabNet, Tabular Workflow per Wide & Deep e Prophet
Questi flussi di lavoro utilizzano i seguenti account di servizio:
Service account | Descrizione | Principale predefinito | Nome predefinito | Può essere ignorata |
---|---|---|---|---|
Account di servizio per Vertex AI Pipelines | L'account di servizio che esegue la pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
Account di servizio per il worker Dataflow | L'account di servizio che esegue i worker Dataflow | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
AI Platform Service Agent | L'account di servizio che esegue i container di addestramento. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
No |
Alcuni account di servizio possono essere sostituiti con un account a tua scelta. Per le istruzioni sul flusso di lavoro tabulare per TabNet, consulta Addestrare un modello con TabNet. Per le istruzioni sul flusso di lavoro tabulare per Wide & Deep, consulta Addestrare un modello con Wide & Deep. Per le istruzioni su Prophet, consulta Predizione con Prophet.
Account di servizio per Vertex AI Pipelines
Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Utente Vertex AI |
aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
|
BigQuery Data Editor | bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Utente account di servizio |
iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
|
Dataflow Developer | Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow. |
Devi inoltre concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo | |
---|---|---|---|
File Cloud Storage | Amministratore Storage | Progetto a cui appartiene il file | |
Tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | ||
Visualizzazione BigQuery di una tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | ||
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | ||
Tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | ||
Storage Object Viewer | Progetto a cui appartiene il file di origine | ||
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | ||
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | ||
Storage Object Viewer | Progetto a cui appartiene il file di origine |
La tabella seguente fornisce una spiegazione di questi ruoli:
Visualizzatore dati BigQuery | bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio ha bisogno di questo accesso prima di avviare il job Dataflow nel passaggio del motore di trasformazione dei feature della pipeline. |
Storage Object Viewer | storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine. |
Storage Object Admin | Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage. |
Amministratore Storage | Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage. |
Service account per il worker Dataflow
Devi concedere i seguenti ruoli all'account di servizio per il worker Dataflow nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Storage Object Admin | Questo ruolo consente al account di servizio di accedere ai bucket Cloud Storage. L'account di servizio ha bisogno di queste autorizzazioni anche se l'origine dati non è un file Cloud Storage. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di eseguire il passaggio dell'Feature Transform Engine della pipeline. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Dataflow Worker | L'account di servizio ha bisogno di tutte le autorizzazioni concesse da questo ruolo. |
Inoltre, devi concedere i seguenti ruoli all'account di servizio worker Dataflow in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo |
---|---|---|
Tabella BigQuery standard | BigQuery Data Editor | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Visualizzazione BigQuery di una tabella BigQuery standard | BigQuery Data Editor | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Tabella esterna BigQuery con un file Cloud Storage di origine | BigQuery Data Editor | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | BigQuery Data Editor | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
File Cloud Storage | Visualizzatore dati BigQuery | Progetto che esegue la pipeline |
La tabella seguente fornisce una spiegazione di questi ruoli:
Ruolo | Autorizzazioni |
---|---|
Visualizzatore dati BigQuery | bigquery.tables.get fornisce l'accesso al set di dati nel passaggio del motore di trasformazione delle funzionalità della pipeline. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
BigQuery Data Editor | Questo ruolo consente all'account di servizio di eseguire query sulla tabella e creare tabelle temporanee durante il passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Storage Object Viewer | storage.objects.get consente all'account di servizio di accedere a un file di Cloud Storage. |
AI Platform Service Agent
Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Vertex AI Service Agent |
Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.
|
Account di servizio per ARIMA+
Questo flusso di lavoro utilizza i seguenti account di servizio:
Service account | Descrizione | Principale predefinito | Nome predefinito | Può essere ignorata |
---|---|---|---|---|
Account di servizio per Vertex AI Pipelines | L'account di servizio che esegue la pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
AI Platform Service Agent | L'account di servizio che esegue i container di addestramento. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
No |
L'account di servizio di Vertex AI Pipelines può essere modificato in un account a tua scelta. Per ulteriori informazioni, consulta la sezione Previsione con ARIMA+.
Account di servizio per Vertex AI Pipelines
Devi concedere i seguenti ruoli all'account di servizio per Vertex AI Pipelines nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Utente Vertex AI |
aiplatform.metadataStores.get consente all'account di servizio di creare un job della pipeline. aiplatform.models.upload consente all'account di servizio di caricare il modello.
|
BigQuery Data Editor | bigquery.tables.create consente all'account di servizio di creare tabelle temporanee per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di lanciare un job Dataflow. L'account di servizio ha bisogno di questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Utente account di servizio |
iam.serviceAccounts.actAs consente all'account di servizio Vertex AI Pipelines di agire come account di servizio worker Dataflow durante la valutazione.
|
Dataflow Developer | Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow. |
Devi inoltre concedere i seguenti ruoli all'account di servizio Vertex AI Pipelines in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo | |
---|---|---|---|
File Cloud Storage | Amministratore Storage | Progetto a cui appartiene il file | |
Tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | ||
Visualizzazione BigQuery di una tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | ||
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | ||
Tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | ||
Storage Object Viewer | Progetto a cui appartiene il file di origine | ||
Visualizzazione BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | ||
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | ||
Storage Object Viewer | Progetto a cui appartiene il file di origine |
La tabella seguente fornisce una spiegazione di questi ruoli:
Visualizzatore dati BigQuery | bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. L'account di servizio ha bisogno di questo accesso prima di avviare il job Dataflow nel passaggio del motore di trasformazione dei feature della pipeline. |
Storage Object Viewer | storage.objects.get consente all'account di servizio di accedere al file Cloud Storage di origine. |
Storage Object Admin | Le autorizzazioni storage.objects.get e storage.objects.create consentono all'account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage. |
Amministratore Storage | Le autorizzazioni storage.buckets.* consentono all'account di servizio di convalidare il bucket Cloud Storage nel passaggio del motore di trasformazione delle funzionalità della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage. |
AI Platform Service Agent
Devi assicurarti che il seguente ruolo venga concesso all'agente di servizio della piattaforma AI nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Vertex AI Service Agent |
Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.
|