Benutzerdefinierte Container in Dataflow verwenden
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Sie können die Laufzeitumgebung für Nutzercode in Dataflow-Pipelines anpassen, indem Sie ein benutzerdefiniertes Container-Image bereitstellen. Benutzerdefinierte Container werden für Pipelines unterstützt, die Dataflow Runner v2 verwenden.
Wenn Dataflow Worker-VMs startet, werden Docker-Container-Images verwendet, um Container-SDK-Prozesse auf den Workern zu starten. Standardmäßig verwendet eine Pipeline ein vorkonfiguriertes Apache Beam-Image.
Sie können jedoch ein benutzerdefiniertes Container-Image für Ihren Dataflow-Job angeben.
Wenn Sie ein benutzerdefiniertes Container-Image angeben, startet Dataflow Worker, die das angegebene Image abrufen.
Benutzerdefinierte Container können aus folgenden Gründen verwendet werden:
Pipelineabhängigkeiten vorinstallieren, um die Startzeit des Workers zu verkürzen.
Pipelineabhängigkeiten vorinstallieren, die in öffentlichen Repositories nicht verfügbar sind.
Pipelineabhängigkeiten vorinstallieren, wenn der Zugriff auf öffentliche Repositories deaktiviert ist. Der Zugriff kann aus Sicherheitsgründen deaktiviert sein.
Große Dateien vorab bereitstellen, um die Startzeit des Workers zu reduzieren.
Drittanbieter-Software wird im Hintergrund ausgeführt.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-04 (UTC)."],[[["\u003cp\u003eDataflow pipelines using Runner v2 support the use of custom container images to customize the runtime environment of user code.\u003c/p\u003e\n"],["\u003cp\u003eBy default, Dataflow pipelines use prebuilt Apache Beam images, but users can specify their own custom container images for their Dataflow jobs.\u003c/p\u003e\n"],["\u003cp\u003eCustom containers allow users to preinstall pipeline dependencies, including those not in public repositories, and to manage dependencies when access to public repositories is restricted.\u003c/p\u003e\n"],["\u003cp\u003eUsing custom containers also allows you to prestage large files and launch third-party software to customize the execution environment.\u003c/p\u003e\n"],["\u003cp\u003eThe main use cases of custom containers are to reduce worker start time, customize the environment, and to manage dependencies.\u003c/p\u003e\n"]]],[],null,["# Use custom containers in Dataflow\n\nYou can customize the runtime environment of user code in Dataflow\npipelines by supplying a custom container image. Custom containers are\nsupported for pipelines that use Dataflow\n[Runner v2](/dataflow/docs/runner-v2).\n\nWhen Dataflow starts up worker VMs, it uses Docker container\nimages to launch containerized SDK processes on the workers. By default, a\npipeline uses a prebuilt\n[Apache Beam image](https://hub.docker.com/search?q=apache%2Fbeam&type=image).\nHowever, you can provide a custom container image for your Dataflow job.\nWhen you specify a custom container image, Dataflow launches workers\nthat pull the specified image.\n\nYou might use a custom container for the following reasons:\n\n- Preinstall pipeline dependencies to reduce worker start time.\n- Preinstall pipeline dependencies that are not available in public repositories.\n- Preinstall pipeline dependencies when access to public repositories is turned off. Access might be turned off for security reasons.\n- Prestage large files to reduce worker start time.\n- Launch third-party software in the background.\n- Customize the execution environment.\n\nFor more information about custom containers in Apache Beam, see the\n[Apache Beam custom container guide](https://beam.apache.org/documentation/runtime/environments/).\nFor examples of Python pipelines that use custom containers, see\n[Dataflow custom containers](https://github.com/GoogleCloudPlatform/python-docs-samples/tree/main/dataflow/custom-containers).\n\nNext steps\n----------\n\n- [Build custom container images](/dataflow/docs/guides/build-container-image)\n- [Build multi-architecture container images](/dataflow/docs/guides/multi-architecture-container)\n- [Run a Dataflow job in a custom container](/dataflow/docs/guides/run-custom-container)\n- [Troubleshoot custom containers](/dataflow/docs/guides/troubleshoot-custom-container)"]]