Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Une ressource persistante Vertex AI est un cluster de longue durée que vous pouvez créer pour exécuter des tâches d'entraînement personnalisées. Une fois un job d'entraînement terminé, la ressource persistante reste disponible pour exécuter d'autres jobs d'entraînement jusqu'à ce que vous la supprimiez. Vous pouvez utiliser une ressource persistante pour garantir la disponibilité des ressources de calcul et pour réduire le temps de démarrage du job normalement nécessaire à la création de ressources de calcul. Les ressources persistantes sont compatibles avec toutes les VM et tous les GPU compatibles avec les jobs d'entraînement personnalisés. Cette page explique quand utiliser une ressource persistante et fournit des informations sur la facturation et les quotas.
Quand utiliser une ressource persistante ?
Nous vous recommandons d'utiliser des ressources persistantes dans les scénarios suivants :
Vous souhaitez garantir la disponibilité de la capacité pour les charges de travail de ML critiques ou pendant les périodes de pics. Contrairement aux tâches personnalisées, où le service d'entraînement libère la ressource une fois la tâche terminée, la ressource persistante reste disponible jusqu'à sa suppression.
Vous envoyez le même job de nombreuses fois et pouvez bénéficier de la mise en cache des données et des images en exécutant les jobs sur la même ressource persistante.
Vous exécutez de nombreux jobs d'entraînement de courte durée pour lesquels le temps d'entraînement réel est plus court que temps de démarrage des jobs.
Vous êtes facturé(e) pour la durée totale d'exécution d'une ressource persistante, qu'une tâche soit exécutée sur cette ressource ou non. Pour chaque instance du pool de ressources persistantes, vous êtes facturé(e) à l'heure d'utilisation du cœur. Les tâches exécutées sur une ressource persistante ne sont pas facturées séparément.
Vous êtes facturé(e) uniquement pour la ressource persistante.
Si vous configurez l'autoscaling pour votre ressource persistante, vous ne payez que pour les instances provisionnées. Par exemple, si min-replica-count est défini sur 4, les instances 4 sont toujours provisionnées et cela correspond au montant minimal qui vous est facturé. Lorsque votre charge de travail augmente, le pool de ressources peut évoluer jusqu'à 6 pour répondre à la demande accrue. Les instances provisionnées pour 6 vous sont facturées jusqu'à ce que votre pool de ressources évolue à nouveau. Pour éviter de payer pour les nœuds inactifs, utilisez l'autoscaling pour votre ressource persistante ou supprimez-la lorsque vous n'en avez plus besoin. Pour en savoir plus sur la tarification, consultez la section Modèles entraînés personnalisés de la page "Tarifs de Vertex AI".
Quotas
Les ressources persistantes utilisent votre quota d'entraînement. Par conséquent, vérifiez que vous disposez d'un quota suffisant pour créer des ressources persistantes. Pour en savoir plus sur les quotas, consultez la page Quotas et limites d'entraînement.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[],[],null,["# Overview of persistent resources\n\nA Vertex AI persistent resource is a long-running cluster that you can\ncreate to run custom training jobs. After a training job completes, the\npersistent resource remains available to run other training jobs until you\ndelete it. You can use a persistent resource to ensure compute resource\navailability and to reduce the job startup time that's otherwise needed for\ncompute resource creation. Persistent resources support all VMs and GPUs that\nare supported by custom training jobs. This page explains when to use a\npersistent resource and gives you information about billing and quota.\n\nWhen to use a persistent resource\n---------------------------------\n\nWe recommend using persistent resources in the following scenarios:\n\n- You want to ensure capacity availability for critical ML workloads or during peak seasons. Unlike custom jobs, where the training service releases the resource after job completion, persistent resource remains available until it's deleted.\n- You're submitting the same job multiple times and can benefit from data and image caching by running the jobs on the same persistent resource.\n- You run many short-lived training jobs where the actual training time is shorter than the job startup time.\n\nFor more context on when to and why use a persistent resource, see the blog post\n[Bringing capacity assurance and faster startup times to Vertex AI Training](/blog/products/ai-machine-learning/vertex-ai-persistent-resources-and-capacity-assurance).\n\nBilling details\n---------------\n\nYou are billed for the entire duration that a persistent resource is in a\nrunning state, regardless of whether there is a job running on the persistent\nresource. For each instance in the persistent resource pool, you are billed by\ncore hour. All jobs running on a persistent resource are not separately charged.\nYou are billed only for the persistent resource.\n\nIf you set up auto scaling for your persistent resource, you only pay\nfor the provisioned instances. For example, if `min-replica-count` is set to `4`,\n`4` instances are always provisioned and this is the minimum amount you're billed\nfor. When your workload increases, the resource pool might scale up to `6` to\naccommodate the increased demand. Then, you're billed for the `6` provisioned instances\nuntil your resource pool scales down again. To avoid paying for idle nodes,\nuse auto scaling for your persistent resource, or delete it when you no longer\nneed it. To learn more about pricing, see the [Custom-trained models](/vertex-ai/pricing#custom-trained_models)\nsection in the Vertex AI pricing page.\n\nQuotas\n------\n\nPersistent resources use your training quota, so verify you have sufficient\nquota for persistent resource creation. To learn more about quotas, see [Training quotas and limits](/vertex-ai/docs/quotas#training).\n\nWhat's next\n-----------\n\n- [Create and use a persistent resource](/vertex-ai/docs/training/persistent-resource-create).\n- [Run training jobs on a persistent resource](/vertex-ai/docs/training/persistent-resource-train).\n- [Get information about a persistent resource](/vertex-ai/docs/training/persistent-resource-get).\n- [Reboot a persistent resource](/vertex-ai/docs/training/persistent-resource-reboot).\n- [Delete a persistent resource](/vertex-ai/docs/training/persistent-resource-delete)."]]