Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Auf dieser Seite wird erläutert, wie Sie Arm-VMs als Worker für Batch- und Streaming-Dataflow-Jobs verwenden.
Sie können die Tau T2A-Maschinenreihe und die C4A-Maschinenreihe (Vorabversion) von Arm-Prozessoren verwenden, um Dataflow-Jobs auszuführen. Da die Arm-Architektur auf Energieeffizienz ausgelegt ist, erzielen Sie mit diesen VMs bei einigen Arbeitslasten ein besseres Preis-Leistungs-Verhältnis. Weitere Informationen zu Arm-VMs finden Sie unter Arm-VMs in Compute.
Voraussetzungen
Die folgenden Apache Beam SDKs unterstützen Arm-VMs:
Apache Beam Java SDK Version 2.50.0 oder höher
Apache Beam Python SDK Version 2.50.0 oder höher
Apache Beam Go SDK Version 2.50.0 oder höher
Wählen Sie eine Region aus, in der Tau T2A- oder C4A-Maschinen verfügbar sind. Weitere Informationen finden Sie unter verfügbare Regionen und Zonen.
Container-Images mit mehreren Architekturen verwenden
Wenn Sie einen benutzerdefinierten Container in Dataflow verwenden, muss der Container der Architektur der Worker-VMs entsprechen. Wenn Sie einen benutzerdefinierten Container auf ARM-VMs verwenden möchten, empfehlen wir, ein Image mit mehreren Architekturen zu erstellen. Weitere Informationen finden Sie unter Container-Image mit mehreren Architekturen erstellen.
Preise
Ihnen werden die Rechenressourcen von Dataflow in Rechnung gestellt.
Die Preise für Dataflow sind unabhängig von der Maschinentypfamilie. Weitere Informationen finden Sie unter Dataflow-Preise.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-04 (UTC)."],[[["\u003cp\u003eArm VMs, including Tau T2A and C4A machine series, can be used as workers for Dataflow batch and streaming jobs, offering improved price-performance for certain workloads due to their power efficiency.\u003c/p\u003e\n"],["\u003cp\u003eArm VM support requires specific Apache Beam SDK versions (2.50.0 or later for Java, Python, and Go), availability in select regions, use of Runner v2, and Streaming Engine for streaming jobs.\u003c/p\u003e\n"],["\u003cp\u003eRunning Dataflow jobs on Arm VMs requires setting the \u003ccode\u003eworkerMachineType\u003c/code\u003e (Java) or \u003ccode\u003emachine_type\u003c/code\u003e/\u003ccode\u003eworker_machine_type\u003c/code\u003e (Python/Go) pipeline option and specifying an ARM machine type.\u003c/p\u003e\n"],["\u003cp\u003eThere are several limitations to consider, such as unsupported GPUs, Cloud Profiler, Dataflow Prime, worker VM metrics, and container image pre-building, in addition to the limitations that also apply to Tau T2A and C4A machines.\u003c/p\u003e\n"],["\u003cp\u003eUsing custom containers require multi-architecture images, to ensure they match the architecture of the worker VMs.\u003c/p\u003e\n"]]],[],null,["# Use Arm VMs on Dataflow\n\nThis page explains how to use Arm VMs as workers for batch and streaming\nDataflow jobs.\n\nYou can use the\n[Tau T2A machine series](/compute/docs/general-purpose-machines#t2a_machines)\nand [C4A machine series](/compute/docs/general-purpose-machines#c4a_series)\n([Preview](/products#product-launch-stages)) of\nArm processors to run Dataflow jobs. Because Arm architecture is\noptimized for power efficiency, using these VMs yields better price for\nperformance for some workloads. For more information about Arm VMs, see\n[Arm VMs on Compute](/compute/docs/instances/arm-on-compute).\n\nRequirements\n------------\n\n- The following Apache Beam SDKs support Arm VMs:\n - Apache Beam Java SDK versions 2.50.0 or later\n - Apache Beam Python SDK versions 2.50.0 or later\n - Apache Beam Go SDK versions 2.50.0 or later\n- Select a region where Tau T2A or C4A machines are available. For more information, see [Available regions and zones](/compute/docs/regions-zones#available).\n- Use [Runner v2](/dataflow/docs/runner-v2) to run the job.\n- Streaming jobs must use [Streaming Engine](/dataflow/docs/streaming-engine).\n\nLimitations\n-----------\n\n- All [Tau T2A limitations](/compute/docs/general-purpose-machines#t2a_limitations) and [C4A limitations](/compute/docs/general-purpose-machines#supported_disk_types_for_c4a) apply.\n- [GPUs](/dataflow/docs/gpu) are not supported.\n- [Cloud Profiler](/dataflow/docs/guides/profiling-a-pipeline) is not supported.\n- [Dataflow Prime](/dataflow/docs/guides/enable-dataflow-prime) is not supported.\n- Receiving worker VM metrics from [Cloud Monitoring](/dataflow/docs/guides/using-cloud-monitoring#receive_worker_vm_metrics_from_the_agent) is not supported.\n- [Container image pre-building](/dataflow/docs/guides/build-container-image#prebuild) is not supported.\n\nRun a job using Arm VMs\n-----------------------\n\nTo use Arm VMs, set the following pipeline option. \n\n### Java\n\nSet the `workerMachineType` pipeline option and specify an\n[ARM machine type](/compute/docs/instances/arm-on-compute).\n\nFor more information about setting pipeline options, see\n[Set Dataflow pipeline options](/dataflow/docs/guides/setting-pipeline-options).\n\n### Python\n\nSet the `machine_type` pipeline option and specify an\n[ARM machine type](/compute/docs/instances/arm-on-compute).\n\nFor more information about setting pipeline options, see\n[Set Dataflow pipeline options](/dataflow/docs/guides/setting-pipeline-options).\n\n### Go\n\nSet the `worker_machine_type` pipeline option and specify an\n[ARM machine type](/compute/docs/instances/arm-on-compute).\n\nFor more information about setting pipeline options, see\n[Set Dataflow pipeline options](/dataflow/docs/guides/setting-pipeline-options).\n\nUse multi-architecture container images\n---------------------------------------\n\nIf you use a custom container in Dataflow, the container must\nmatch the architecture of the worker VMs. If you plan to use a custom\ncontainer on ARM VMs, we recommend building a multi-architecture image. For more\ninformation, see\n[Build a multi-architecture container image](/dataflow/docs/guides/multi-architecture-container).\n\nPricing\n-------\n\nYou are billed for Dataflow compute resources.\nDataflow pricing is independent of the machine type family. For\nmore information, see [Dataflow pricing](/dataflow/pricing).\n\nWhat's next\n-----------\n\n- [Set Dataflow pipeline options](/dataflow/docs/guides/setting-pipeline-options)\n- [Use custom containers in Dataflow](/dataflow/docs/guides/using-custom-containers)"]]