Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Dieses Dokument enthält Informationen zu Staging-Buckets für Serverless für Apache Spark.
Mit Serverless for Apache Spark wird ein Cloud Storage-Staging-Bucket in Ihrem Projekt erstellt oder ein vorhandener Staging-Bucket aus vorherigen Anfragen zur Batcherstellung wiederverwendet. Dies ist der Standard-Bucket, der von Dataproc in Compute Engine-Clustern erstellt wird. Weitere Informationen finden Sie unter Dataproc-Staging- und temporäre Buckets.
Bei Serverless for Apache Spark werden Arbeitslastabhängigkeiten, Konfigurationsdateien und die Konsolenausgabe des Jobtreibers im Staging-Bucket gespeichert.
Serverless für Apache Spark legt regionale Staging-Buckets an Cloud Storage-Speicherorten entsprechend der Compute Engine-Zone fest, in der Ihre Arbeitslast bereitgestellt wird. Anschließend werden diese Buckets auf Projektebene pro Speicherort erstellt und verwaltet.
Von Serverless für Apache Spark erstellte Staging-Buckets werden für Workloads in derselben Region freigegeben und mit einer Aufbewahrungsdauer für das vorläufige Löschen von 0 Sekunden erstellt.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-11 (UTC)."],[],[],null,[]]