Comptes de service pour les workflows tabulaires

Cette page explique les comptes de service pour les workflows tabulaires suivants :

Comptes de service pour le workflow tabulaire pour AutoML de bout en bout

Ce workflow utilise les comptes de service suivants :

Compte de service Description Principal par défaut Nom par défaut Peut être ignoré
Compte de service pour Vertex AI Pipelines Le compte de service qui exécute le pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Oui
Compte de service pour le nœud de calcul Dataflow Compte de service qui exécute les nœuds de calcul Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Oui
Agent de service AI Platform Compte de service qui exécute les conteneurs d'entraînement. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Non

Vous pouvez remplacer certains des comptes de service par le compte de votre choix. Pour en savoir plus sur la console Google Cloud ou l'API, consultez la page Entraîner un modèle avec AutoML de bout en bout.

Compte de service pour Vertex AI Pipelines

Vous devez attribuer les rôles suivants au compte de service pour Vertex AI Pipelines dans le projet de pipeline :

Rôle Autorisations
Utilisateur Vertex AI aiplatform.metadataStores.get permet au compte de service de créer une tâche de pipeline. aiplatform.models.upload permet au compte de service d'importer le modèle.
Administrateur des objets Storage Les autorisations storage.objects.get et storage.objects.create de l'administrateur des objets de l'espace de stockage permettent au compte de service d'accéder au bucket pour le répertoire racine de la tâche de pipeline. Le compte de service a besoin de ces autorisations même si vous n'utilisez pas de source de données Cloud Storage.
Développeur Dataflow dataflow.jobs.create permet au compte de service de créer des tâches Dataflow pendant l'évaluation.
Utilisateur du compte de service iam.serviceAccounts.actAs permet au compte de service Vertex AI Pipelines d'agir en tant que compte de service de nœud de calcul Dataflow lors de l'évaluation.

Compte de service pour le nœud de calcul Dataflow

Vous devez attribuer les rôles suivants au compte de service pour le nœud de calcul Dataflow dans le projet de pipeline :

Rôle Autorisations
Nœud de calcul Dataflow Ce rôle permet au compte de service d'accéder aux ressources nécessaires pour exécuter des tâches Dataflow.
Administrateur des objets Storage Ce rôle permet au compte de service d'accéder aux buckets Cloud Storage. Le compte de service a besoin de ces autorisations même si vous n'utilisez pas de source de données Cloud Storage. Ce rôle inclut toutes les autorisations accordées par le rôle Lecteur des objets de l'espace de stockage.

Vous devez également attribuer les rôles suivants au compte de service de nœud de calcul Dataflow en fonction de votre type de source de données :

Source de données Rôle Où attribuer le rôle
Table BigQuery standard Éditeur de données BigQuery Projet exécutant le pipeline
Utilisateur de tâche BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table appartient
Vue BigQuery d'une table BigQuery standard Éditeur de données BigQuery Projet exécutant le pipeline
Utilisateur de tâche BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table appartient
Table externe BigQuery, qui comporte un fichier Cloud Storage source Éditeur de données BigQuery Projet exécutant le pipeline
Utilisateur de tâche BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source
Vue BigQuery d'une table externe BigQuery contenant un fichier Cloud Storage source Éditeur de données BigQuery Projet exécutant le pipeline
Utilisateur de tâche BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source
Fichier Cloud Storage Lecteur des objets Storage Projet auquel le fichier appartient

Le tableau suivant explique ces rôles :

Rôle Autorisations
Éditeur de données BigQuery Les autorisations bigquery.jobs.get et bigquery.jobs.create permettent au compte de service d'utiliser des ensembles de données BigQuery. bigquery.jobs.create permet au compte de service de créer des ensembles de données BigQuery temporaires lors de la génération de statistiques et d'exemples. Ce rôle inclut toutes les autorisations accordées par le rôle Lecteur de données BigQuery.
Utilisateur de tâche BigQuery bigquery.jobs.create permet au compte de service d'utiliser un ensemble de données BigQuery.
Lecteur de données BigQuery Ce rôle fournit au compte de service l'accès à l'ensemble de données BigQuery.
Lecteur des objets Storage storage.objects.get permet au compte de service d'accéder à un fichier Cloud Storage.

Agent de service AI Platform

Vous devez vous assurer que le rôle suivant a été attribué à l'agent de service AI Platform dans le projet de pipeline :

Rôle Autorisations
Agent de service Vertex AI Ce rôle accorde des autorisations aux agents de service. Ces autorisations incluent l'autorisation storage.object.get et les droits d'accès aux images de conteneurs dans le dépôt Artifact Registry.

Si votre source de données est un ensemble de données BigQuery d'un autre projet, vous devez attribuer les rôles suivants à l'agent de service AI Platform du projet de l'ensemble de données :

Rôle Autorisations
Lecteur de données BigQuery bigquery.tables.get permet au compte de service d'obtenir des informations sur l'ensemble de données BigQuery avant de lancer une tâche Dataflow.

Si votre source de données est un fichier Cloud Storage d'un autre projet, vous devez attribuer les rôles suivants à l'agent de service AI Platform du projet de fichier :

Lecteur des objets Storage storage.objects.list permet au compte de service d'obtenir des informations sur le fichier Cloud Storage avant de lancer une tâche Dataflow.

Comptes de service pour le workflow tabulaire pour les prévisions

Ce workflow utilise les comptes de service suivants :

Compte de service Description Principal par défaut Nom par défaut Peut être ignoré
Compte de service pour Vertex AI Pipelines Le compte de service qui exécute le pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Oui
Compte de service pour le nœud de calcul Dataflow Compte de service qui exécute les nœuds de calcul Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Oui
Agent de service AI Platform Compte de service qui exécute les conteneurs d'entraînement. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Non

Vous pouvez remplacer certains des comptes de service par le compte de votre choix. Pour savoir comment entraîner un modèle, consultez la section Entraîner un modèle avec Workflow tabulaire pour les prévisions.

Compte de service pour Vertex AI Pipelines

Vous devez attribuer les rôles suivants au compte de service pour Vertex AI Pipelines dans le projet de pipeline :

Rôle Autorisations
Utilisateur Vertex AI aiplatform.metadataStores.get permet au compte de service de créer une tâche de pipeline. aiplatform.models.upload permet au compte de service d'importer le modèle.
Éditeur de données BigQuery bigquery.tables.create permet au compte de service de créer des tables temporaires pour Feature Transform Engine avant de lancer une tâche Dataflow. Le compte de service nécessite cette autorisation même si votre source de données n'est pas un ensemble de données BigQuery. Ce rôle inclut toutes les autorisations accordées par le rôle Lecteur de données BigQuery.
Utilisateur de tâche BigQuery bigquery.jobs.create permet au compte de service d'exécuter des tâches BigQuery pour Feature Transform Engine avant de lancer une tâche Dataflow. Le compte de service nécessite cette autorisation même si votre source de données n'est pas un ensemble de données BigQuery.
Utilisateur du compte de service iam.serviceAccounts.actAs permet au compte de service Vertex AI Pipelines d'agir en tant que compte de service de nœud de calcul Dataflow lors de l'évaluation.
Développeur Dataflow Ce rôle fournit un accès aux ressources nécessaires à l'exécution des tâches Dataflow.

Vous devez également attribuer les rôles suivants au compte de service Vertex AI Pipelines en fonction de votre type de source de données :

Source de données Rôle Où attribuer le rôle
Fichier Cloud Storage Administrateur Storage Projet auquel le fichier appartient
Table BigQuery standard Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table appartient
Vue BigQuery d'une table BigQuery standard Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table appartient
Table externe BigQuery, qui comporte un fichier Cloud Storage source Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source
Vue BigQuery d'une table externe BigQuery contenant un fichier Cloud Storage source Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source

Le tableau suivant explique ces rôles :

Lecteur de données BigQuery bigquery.tables.get fournit au compte de service un accès à l'ensemble de données. Le compte de service a besoin de cet accès avant de lancer la tâche Dataflow à l'étape Feature Transform Engine du pipeline.
Lecteur des objets Storage storage.objects.get permet au compte de service d'accéder au fichier Cloud Storage source.
Administrateur des objets Storage Les autorisations storage.objects.get et storage.objects.create permettent au compte de service d'accéder au bucket pour le répertoire racine de la tâche de pipeline. Le compte de service a besoin de ces autorisations dans le projet de pipeline, même si votre source de données n'est pas un fichier Cloud Storage. Ce rôle inclut toutes les autorisations accordées par le rôle Lecteur des objets de l'espace de stockage.
Administrateur Storage Les autorisations storage.buckets.* permettent au compte de service de valider le bucket Cloud Storage à l'étape Feature Transform Engine du pipeline. Ce rôle inclut toutes les autorisations accordées par le rôle Administrateur des objets de l'espace de stockage.

Si vous effectuez une évaluation de modèle, vous devez fournir un ensemble de données BigQuery qui servira de destination pour les exemples prédits. Dans le projet contenant cet ensemble de données, vous devez attribuer les rôles suivants au compte de service Vertex AI Pipelines :

Rôle Autorisations
Lecteur de données BigQuery Ce rôle permet au compte de service d'afficher les données BigQuery.
Utilisateur de tâche BigQuery bigquery.jobs.create permet au compte de service de créer des jobs BigQuery.

Compte de service pour le nœud de calcul Dataflow

Vous devez attribuer les rôles suivants au compte de service pour le nœud de calcul Dataflow dans le projet de pipeline :

Rôle Autorisations
Administrateur des objets Storage Ce rôle permet au compte de service d'accéder aux buckets Cloud Storage. Le compte de service a besoin de ces autorisations même si votre source de données n'est pas un fichier Cloud Storage.
Utilisateur de tâche BigQuery bigquery.jobs.create permet au compte de service d'effectuer l'étape Feature Transform Engine du pipeline. Le compte de service nécessite cette autorisation même si votre source de données n'est pas un ensemble de données BigQuery.
Nœud de calcul Dataflow Le compte de service a besoin de toutes les autorisations accordées par ce rôle.

Vous devez également attribuer les rôles suivants au compte de service de nœud de calcul Dataflow en fonction de votre type de source de données :

Source de données Rôle Où attribuer le rôle
Table BigQuery standard Éditeur de données BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table appartient
Vue BigQuery d'une table BigQuery standard Éditeur de données BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table appartient
Table externe BigQuery, qui comporte un fichier Cloud Storage source Éditeur de données BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source
Vue BigQuery d'une table externe BigQuery contenant un fichier Cloud Storage source Éditeur de données BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source
Fichier Cloud Storage Lecteur de données BigQuery Projet exécutant le pipeline

Le tableau suivant explique ces rôles :

Rôle Autorisations
Lecteur de données BigQuery bigquery.tables.get permet d'accéder à l'ensemble de données à l'étape Feature Transform Engine du pipeline. Le compte de service nécessite cette autorisation même si votre source de données n'est pas un ensemble de données BigQuery.
Éditeur de données BigQuery Ce rôle permet au compte de service d'interroger la table et de créer des tables temporaires lors de l'étape Feature Transform Engine du pipeline. Ce rôle inclut toutes les autorisations accordées par le rôle Lecteur de données BigQuery.
Lecteur des objets Storage storage.objects.get permet au compte de service d'accéder à un fichier Cloud Storage.

Agent de service AI Platform

Vous devez vous assurer que le rôle suivant a été attribué à l'agent de service AI Platform dans le projet de pipeline :

Rôle Autorisations
Agent de service Vertex AI Ce rôle accorde des autorisations aux agents de service. Ces autorisations incluent l'autorisation storage.object.get et les droits d'accès aux images de conteneurs dans le dépôt Artifact Registry.

Si vous effectuez une évaluation de modèle, vous devez fournir un ensemble de données BigQuery qui servira de destination pour les exemples prédits. Dans le projet contenant cet ensemble de données, vous devez attribuer les rôles suivants au compte de service Vertex AI Pipelines :

Rôle Autorisations
Éditeur de données BigQuery Ce rôle permet au compte de service de modifier les données BigQuery.
Utilisateur de tâche BigQuery bigquery.jobs.create permet au compte de service de créer des jobs BigQuery.

Comptes de service pour le workflow tabulaire pour TabNet, et le workflow tabulaire pour Large et profond, et Prophet

Ces workflows utilisent les comptes de service suivants :

Compte de service Description Principal par défaut Nom par défaut Peut être ignoré
Compte de service pour Vertex AI Pipelines Le compte de service qui exécute le pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Oui
Compte de service pour le nœud de calcul Dataflow Compte de service qui exécute les nœuds de calcul Dataflow PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Oui
Agent de service AI Platform Compte de service qui exécute les conteneurs d'entraînement. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Non

Vous pouvez remplacer certains des comptes de service par le compte de votre choix. Pour obtenir des instructions sur le workflow tabulaire pour TabNet, consultez la page Entraîner un modèle avec TabNet. Pour obtenir des instructions tabulaires pour Large et profond, consultez la page Entraîner un modèle avec Large et profond. Pour obtenir des instructions sur Prophet, consultez la section Effectuer des prévisions avec Prophet.

Compte de service pour Vertex AI Pipelines

Vous devez attribuer les rôles suivants au compte de service pour Vertex AI Pipelines dans le projet de pipeline :

Rôle Autorisations
Utilisateur Vertex AI aiplatform.metadataStores.get permet au compte de service de créer une tâche de pipeline. aiplatform.models.upload permet au compte de service d'importer le modèle.
Éditeur de données BigQuery bigquery.tables.create permet au compte de service de créer des tables temporaires pour Feature Transform Engine avant de lancer une tâche Dataflow. Le compte de service nécessite cette autorisation même si votre source de données n'est pas un ensemble de données BigQuery. Ce rôle inclut toutes les autorisations accordées par le rôle Lecteur de données BigQuery.
Utilisateur de tâche BigQuery bigquery.jobs.create permet au compte de service d'exécuter des tâches BigQuery pour Feature Transform Engine avant de lancer une tâche Dataflow. Le compte de service nécessite cette autorisation même si votre source de données n'est pas un ensemble de données BigQuery.
Utilisateur du compte de service iam.serviceAccounts.actAs permet au compte de service Vertex AI Pipelines d'agir en tant que compte de service de nœud de calcul Dataflow lors de l'évaluation.
Développeur Dataflow Ce rôle fournit un accès aux ressources nécessaires à l'exécution des tâches Dataflow.

Vous devez également attribuer les rôles suivants au compte de service Vertex AI Pipelines en fonction de votre type de source de données :

Source de données Rôle Où attribuer le rôle
Fichier Cloud Storage Administrateur Storage Projet auquel le fichier appartient
Table BigQuery standard Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table appartient
Vue BigQuery d'une table BigQuery standard Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table appartient
Table externe BigQuery, qui comporte un fichier Cloud Storage source Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source
Vue BigQuery d'une table externe BigQuery contenant un fichier Cloud Storage source Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source

Le tableau suivant explique ces rôles :

Lecteur de données BigQuery bigquery.tables.get fournit au compte de service un accès à l'ensemble de données. Le compte de service a besoin de cet accès avant de lancer la tâche Dataflow à l'étape Feature Transform Engine du pipeline.
Lecteur des objets Storage storage.objects.get permet au compte de service d'accéder au fichier Cloud Storage source.
Administrateur des objets Storage Les autorisations storage.objects.get et storage.objects.create permettent au compte de service d'accéder au bucket pour le répertoire racine de la tâche de pipeline. Le compte de service a besoin de ces autorisations dans le projet de pipeline, même si votre source de données n'est pas un fichier Cloud Storage. Ce rôle inclut toutes les autorisations accordées par le rôle Lecteur des objets de l'espace de stockage.
Administrateur Storage Les autorisations storage.buckets.* permettent au compte de service de valider le bucket Cloud Storage à l'étape Feature Transform Engine du pipeline. Ce rôle inclut toutes les autorisations accordées par le rôle Administrateur des objets de l'espace de stockage.

Compte de service pour le nœud de calcul Dataflow

Vous devez attribuer les rôles suivants au compte de service pour le nœud de calcul Dataflow dans le projet de pipeline :

Rôle Autorisations
Administrateur des objets Storage Ce rôle permet au compte de service d'accéder aux buckets Cloud Storage. Le compte de service a besoin de ces autorisations même si votre source de données n'est pas un fichier Cloud Storage.
Utilisateur de tâche BigQuery bigquery.jobs.create permet au compte de service d'effectuer l'étape Feature Transform Engine du pipeline. Le compte de service nécessite cette autorisation même si votre source de données n'est pas un ensemble de données BigQuery.
Nœud de calcul Dataflow Le compte de service a besoin de toutes les autorisations accordées par ce rôle.

Vous devez également attribuer les rôles suivants au compte de service de nœud de calcul Dataflow en fonction de votre type de source de données :

Source de données Rôle Où attribuer le rôle
Table BigQuery standard Éditeur de données BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table appartient
Vue BigQuery d'une table BigQuery standard Éditeur de données BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table appartient
Table externe BigQuery, qui comporte un fichier Cloud Storage source Éditeur de données BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source
Vue BigQuery d'une table externe BigQuery contenant un fichier Cloud Storage source Éditeur de données BigQuery Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source
Fichier Cloud Storage Lecteur de données BigQuery Projet exécutant le pipeline

Le tableau suivant explique ces rôles :

Rôle Autorisations
Lecteur de données BigQuery bigquery.tables.get permet d'accéder à l'ensemble de données à l'étape Feature Transform Engine du pipeline. Le compte de service nécessite cette autorisation même si votre source de données n'est pas un ensemble de données BigQuery.
Éditeur de données BigQuery Ce rôle permet au compte de service d'interroger la table et de créer des tables temporaires lors de l'étape Feature Transform Engine du pipeline. Ce rôle inclut toutes les autorisations accordées par le rôle Lecteur de données BigQuery.
Lecteur des objets Storage storage.objects.get permet au compte de service d'accéder à un fichier Cloud Storage.

Agent de service AI Platform

Vous devez vous assurer que le rôle suivant a été attribué à l'agent de service AI Platform dans le projet de pipeline :

Rôle Autorisations
Agent de service Vertex AI Ce rôle accorde des autorisations aux agents de service. Ces autorisations incluent l'autorisation storage.object.get et les droits d'accès aux images de conteneurs dans le dépôt Artifact Registry.

Comptes de service pour ARIMA+

Ce workflow utilise les comptes de service suivants :

Compte de service Description Principal par défaut Nom par défaut Peut être ignoré
Compte de service pour Vertex AI Pipelines Le compte de service qui exécute le pipeline PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account Oui
Agent de service AI Platform Compte de service qui exécute les conteneurs d'entraînement. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent Non

Vous pouvez remplacer le compte de service Vertex AI Pipelines par le compte de votre choix. Pour en savoir plus, consultez la page Effectuer des prévisions avec ARIMA+.

Compte de service pour Vertex AI Pipelines

Vous devez attribuer les rôles suivants au compte de service pour Vertex AI Pipelines dans le projet de pipeline :

Rôle Autorisations
Utilisateur Vertex AI aiplatform.metadataStores.get permet au compte de service de créer une tâche de pipeline. aiplatform.models.upload permet au compte de service d'importer le modèle.
Éditeur de données BigQuery bigquery.tables.create permet au compte de service de créer des tables temporaires pour Feature Transform Engine avant de lancer une tâche Dataflow. Le compte de service nécessite cette autorisation même si votre source de données n'est pas un ensemble de données BigQuery. Ce rôle inclut toutes les autorisations accordées par le rôle Lecteur de données BigQuery.
Utilisateur de tâche BigQuery bigquery.jobs.create permet au compte de service d'exécuter des tâches BigQuery pour Feature Transform Engine avant de lancer une tâche Dataflow. Le compte de service nécessite cette autorisation même si votre source de données n'est pas un ensemble de données BigQuery.
Utilisateur du compte de service iam.serviceAccounts.actAs permet au compte de service Vertex AI Pipelines d'agir en tant que compte de service de nœud de calcul Dataflow lors de l'évaluation.
Développeur Dataflow Ce rôle fournit un accès aux ressources nécessaires à l'exécution des tâches Dataflow.

Vous devez également attribuer les rôles suivants au compte de service Vertex AI Pipelines en fonction de votre type de source de données :

Source de données Rôle Où attribuer le rôle
Fichier Cloud Storage Administrateur Storage Projet auquel le fichier appartient
Table BigQuery standard Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table appartient
Vue BigQuery d'une table BigQuery standard Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table appartient
Table externe BigQuery, qui comporte un fichier Cloud Storage source Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source
Vue BigQuery d'une table externe BigQuery contenant un fichier Cloud Storage source Administrateur des objets Storage Projet exécutant le pipeline
Lecteur de données BigQuery Projet auquel la vue appartient
Lecteur de données BigQuery Projet auquel la table externe appartient
Lecteur des objets Storage Projet auquel appartient le fichier source

Le tableau suivant explique ces rôles :

Lecteur de données BigQuery bigquery.tables.get fournit au compte de service un accès à l'ensemble de données. Le compte de service a besoin de cet accès avant de lancer la tâche Dataflow à l'étape Feature Transform Engine du pipeline.
Lecteur des objets Storage storage.objects.get permet au compte de service d'accéder au fichier Cloud Storage source.
Administrateur des objets Storage Les autorisations storage.objects.get et storage.objects.create permettent au compte de service d'accéder au bucket pour le répertoire racine de la tâche de pipeline. Le compte de service a besoin de ces autorisations dans le projet de pipeline, même si votre source de données n'est pas un fichier Cloud Storage. Ce rôle inclut toutes les autorisations accordées par le rôle Lecteur des objets de l'espace de stockage.
Administrateur Storage Les autorisations storage.buckets.* permettent au compte de service de valider le bucket Cloud Storage à l'étape Feature Transform Engine du pipeline. Ce rôle inclut toutes les autorisations accordées par le rôle Administrateur des objets de l'espace de stockage.

Agent de service AI Platform

Vous devez vous assurer que le rôle suivant a été attribué à l'agent de service AI Platform dans le projet de pipeline :

Rôle Autorisations
Agent de service Vertex AI Ce rôle accorde des autorisations aux agents de service. Ces autorisations incluent l'autorisation storage.object.get et les droits d'accès aux images de conteneurs dans le dépôt Artifact Registry.