AI Platform Training impose des limites à l'attribution et à l'utilisation des ressources, et applique des quotas appropriés pour chaque projet. Les règles spécifiques varient en fonction de la disponibilité des ressources, du profil de l'utilisateur, de l'historique d'utilisation du service et d'autres facteurs. Elles peuvent en outre être modifiées sans préavis.
Les limites de quota actuelles du système sont décrites ci-dessous.
Limites concernant les requêtes de service
Le nombre de requêtes d'API individuelles que vous pouvez effectuer par intervalle de 60 secondes est limité. Chaque limite s'applique à une API particulière ou à un groupe d'API, tel que décrit dans les sections suivantes.
Vous pouvez consulter les quotas de requêtes de votre projet dans la Gestionnaire d'API pour AI Platform Training dans la console Google Cloud. Pour demander une augmentation du quota, cliquez sur l'icône de modification située à côté de la limite de quota, puis sur Demander un quota supérieur.
Requêtes de tâche
Les limites suivantes s'appliquent aux requêtes projects.jobs.create (tâches cumulées d'entraînement et de prédiction par lot) :
Durée | Limite |
---|---|
60 secondes | 60 |
Requêtes de prédiction en ligne
Les limites suivantes s'appliquent aux requêtes projects.predict :
Durée | Limite |
---|---|
60 secondes | 600 000 |
Requêtes de gestion de ressources
Les limites suivantes s'appliquent au total cumulé de toutes les requêtes acceptées qui sont indiquées dans cette liste :
Requêtes list pour projects.jobs, projects.models, projects.models.versions et projects.operations
Requêtes get pour projects.jobs, projects.models, projects.models.versions et projects.operations
Requêtes delete pour projects.models et projects.models.versions
Requêtes create pour projects.models et projects.models.versions
Requêtes cancel pour projects.jobs et projects.operations
Requêtes envoyées à projects.models.versions.setDefault
Durée | Limite |
---|---|
60 secondes | 300 |
Toutes les requêtes delete indiquées ci-dessus et toutes les requêtes create de versions sont également limitées à un total cumulé de 10 requêtes simultanées.
Limites concernant l'utilisation simultanée de machines virtuelles
L'utilisation par votre projet des ressources de traitement Google Cloud est mesurée selon le nombre de machines virtuelles utilisées. Cette section décrit les limites applicables à l'utilisation simultanée de ces ressources dans le cadre de votre projet.
Limites relatives à l'utilisation simultanée de processeurs à des fins d’entraînement
Le nombre de processeurs virtuels utilisés simultanément pour un projet type évolue en fonction de l'historique d'utilisation de votre projet.
- Nombre total de processeurs utilisés simultanément : 20 processeurs minimum, avec un scaling jusqu'à une valeur typique de 450 processeurs. Ces limites correspondent au nombre maximal cumulé de processeurs utilisés simultanément, quel que soit le type de machine.
Certaines régions possèdent des quotas par défaut supplémentaires. Lorsque vous utilisez des processeurs dans ces régions, ils sont comptabilisés dans le quota régional ainsi que dans le quota total :
asia-northeast2
: 20 processeursasia-northeast3
: 20 processeurseurope-north1
: 20 processeurseurope-west3
: 20 processeurseurope-west6
: 20 processeursus-east4
: 20 processeursus-west2
: 20 processeursus-west3
: 20 processeurs
Les processeurs que vous utilisez lors de l'entraînement d'un modèle ne sont pas considérés comme des processeurs pour Compute Engine, et le quota pour AI Platform Training ne vous permet pas d'accéder aux VM Compute Engine pour d'autres besoins de calcul. Pour lancer une VM Compute Engine, vous devez faire une demande de quota Compute Engine en suivant la procédure indiquée dans la documentation Compute Engine.
Limites concernant l'utilisation simultanée de GPU à des fins d'entraînement
Lors de la première utilisation d'AI Platform Training, le nombre de GPU pouvant être utilisés simultanément pour l'entraînement des modèles de ML est limité comme suit pour un projet type :
Nombre total de GPU utilisés simultanément. Il s'agit du nombre maximal de GPU utilisés en même temps, par type. Par exemple :
- Nombre de GPU A100 simultanés : 8
- Nombre de GPU P4 simultanés : 8
- Nombre de GPU P100 simultanés : 30
- Nombre de GPU V100 simultanés : 8
- Nombre de GPU T4 simultanés : 6
Certaines régions possèdent des quotas par défaut supplémentaires. Lorsque vous utilisez les GPU suivants dans les régions répertoriées, ils sont comptabilisés dans le quota régional ainsi que dans le quota total :
- GPU P4 dans
asia-southeast1
: 4 - GPU P4 dans
us-east4
: 1 - GPU P4 dans
us-west2
: 1 - GPU T4 dans
asia-northeast3
: 1 - GPU T4 dans
asia-southeast1
: 4
Notez que les quotas d'un projet dépendent de plusieurs facteurs. Ils peuvent donc être inférieurs à ceux indiqués ci-dessus pour votre projet. Les GPU que vous utilisez lors de l'entraînement d'un modèle ne sont pas considérés comme des GPU pour Compute Engine, et le quota pour AI Platform Training ne vous permet pas d'accéder aux VM Compute Engine à l'aide des GPU. Pour lancer une VM Compute Engine utilisant un GPU, vous devez faire une demande de quota de GPU Compute Engine en suivant la procédure indiquée dans la documentation Compute Engine.
Si vous avez besoin de davantage de GPU pour AI Platform Training, consultez la section Demander une augmentation de quota de ce guide.
Pour en savoir plus sur les GPU, découvrez comment utiliser les GPU pour entraîner des modèles dans le cloud.
Limites relatives à l'utilisation simultanée de TPU à des fins d'entraînement
Comme pour les GPU, le quota de TPU pour AI Platform Training est distinct de votre quota Cloud TPU, que vous pouvez utiliser directement avec des VM Compute Engine. Les TPU que vous utilisez lors de l'entraînement d'un modèle ne sont pas considérés comme des TPU pour Compute Engine, et le quota pour AI Platform Training ne vous permet pas d'accéder aux VM Compute Engine à l'aide des TPU.
La console Google Cloud n'affiche que votre quota Cloud TPU pour Compute Engine. Pour demander un quota Cloud TPU à utiliser avec Compute Engine, envoyez une demande à l'équipe Cloud TPU.
Tous les projets Google Cloud se voient attribuer un quota d'au moins un Cloud TPU par défaut pour AI Platform Training. Les quotas sont attribués en unités de 8 cœurs de TPU par Cloud TPU. Ce quota ne s'affiche pas dans la console Google Cloud.
Demander une augmentation de quota
Les quotas indiqués sur cette page sont attribués par projet, et ils peuvent augmenter au fil du temps selon l'utilisation. Si vous avez besoin de davantage de capacité de traitement, vous pouvez demander une augmentation du quota de l'une des manières suivantes :
Utilisez Google Cloud Console pour demander des augmentations des quotas répertoriés dans le Gestionnaire d'API pour AI Platform Training :
Accédez à la section du quota que vous souhaitez augmenter.
Cliquez sur l'icône en forme de crayon à côté de la valeur du quota en bas du graphique d'utilisation de ce quota.
Saisissez le chiffre correspondant à l'augmentation demandée :
Si la valeur souhaitée est comprise dans la plage affichée dans la boîte de dialogue de la limite du quota, saisissez votre nouvelle valeur et cliquez sur Enregistrer.
Si vous souhaitez augmenter le quota au-delà du maximum affiché, cliquez sur Demander un quota supérieur et suivez les instructions de la seconde méthode ci-dessous pour demander une augmentation.
Si vous souhaitez augmenter un quota qui n'est pas répertorié dans la console Google Cloud (par exemple des quotas de GPU), remplissez le formulaire de demande de quota AI Platform pour demander une augmentation de quota. Ces requêtes sont traitées de la manière la plus optimale possible, ce qui signifie qu'aucun contrat de niveau de service ni aucun objectif de niveau de service (SLO) n'est impliqué dans l'examen de ces requêtes.
Limites concernant l'utilisation simultanée de disques à des fins d’entraînement
Le nombre de disques virtuels utilisés simultanément pour un projet type évolue en fonction de l'historique d'utilisation de votre projet :
- Nombre total de disques utilisés simultanément : à partir de 4 000 Go pour les disques durs standards (HDD) et 500 Go pour les disques durs SSD, avec un scaling vers une valeur typique de 180 000 Go pour les disques durs HDD et 75 000 Go pour les SSD. Ces limites correspondent au nombre maximal cumulé de disques utilisés simultanément, quel que soit le type de machine.
Les disques que vous utilisez lors de l'entraînement d'un modèle ne sont pas comptabilisés comme des disques pour Compute Engine, et le quota pour AI Platform Training ne vous permet pas d'accéder aux instances de machines virtuelles (VM) Compute Engine pour d'autres besoins de calcul. Si vous souhaitez créer une VM Compute Engine, vous devez demander du quota Compute Engine.
Étape suivante
- Découvrez les bases d'AI Platform.
- Apprenez à intégrer AI Platform Training à des solutions de machine learning.