Buckets de préproduction Serverless pour Apache Spark
Restez organisé à l'aide des collections
Enregistrez et classez les contenus selon vos préférences.
Ce document fournit des informations sur les buckets de préproduction Serverless pour Apache Spark.
Serverless pour Apache Spark crée un bucket de préproduction Cloud Storage dans votre projet ou réutilise un bucket de préproduction existant issu de précédentes demandes de création de lot. Il s'agit du bucket par défaut créé par les clusters Dataproc sur Compute Engine. Pour en savoir plus, consultez Buckets de préproduction et temporaires Dataproc.
Serverless pour Apache Spark stocke les dépendances de charge de travail, les fichiers de configuration et la sortie de la console du pilote de tâches dans le bucket de préproduction.
Serverless pour Apache Spark définit des buckets de préproduction régionaux dans des emplacements Cloud Storage en fonction de la zone Compute Engine dans laquelle votre charge de travail est déployée, puis crée et gère ces buckets par emplacement au niveau du projet.
Les buckets de préproduction créés par Serverless pour Apache Spark sont partagés entre les charges de travail d'une même région et sont créés avec une durée de conservation de suppression réversible Cloud Storage définie sur 0 seconde.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[[["\u003cp\u003eDataproc Serverless utilizes Cloud Storage staging buckets to store workload dependencies, config files, and job driver console output.\u003c/p\u003e\n"],["\u003cp\u003eThese staging buckets are created by Dataproc Serverless within your project, or an existing one is reused, similar to the default bucket used with Dataproc on Compute Engine clusters.\u003c/p\u003e\n"],["\u003cp\u003eDataproc Serverless creates regional staging buckets, which are shared across workloads within the same region, based on the Compute Engine zone where the workload is deployed.\u003c/p\u003e\n"],["\u003cp\u003eThe staging buckets created by Dataproc Serverless can be identified by filtering for the \u003ccode\u003edataproc-staging-\u003c/code\u003e prefix in Cloud Storage, and they are created with a 0-second soft delete retention.\u003c/p\u003e\n"]]],[],null,["# Serverless for Apache Spark staging buckets\n\nThis document provides information about Serverless for Apache Spark staging buckets.\nServerless for Apache Spark creates a Cloud Storage staging bucket in your project\nor reuses an existing staging bucket from previous batch\ncreation requests. This is the default bucket created by\nDataproc on Compute Engine clusters. For more\ninformation, see\n[Dataproc staging and temp buckets](/dataproc/docs/concepts/configuring-clusters/staging-bucket).\n\nServerless for Apache Spark stores workload dependencies, config files, and\njob driver console output in the staging bucket.\n\nServerless for Apache Spark sets regional staging buckets in\n[Cloud Storage locations](/storage/docs/locations#location-r)\naccording to the Compute Engine zone where your workload is deployed,\nand then creates and manages these project-level, per-location buckets.\nServerless for Apache Spark-created staging buckets are shared among\nworkloads in the same region, and are created with a\nCloud Storage [soft delete retention](/storage/docs/soft-delete#retention-duration)\nduration set to 0 seconds.\n| To locate the Dataproc default staging bucket, in the Google Cloud console, go to **[Cloud Storage](https://console.cloud.google.com/storage/browser)** and filter the results using the `dataproc-staging-` prefix."]]