Connector für Dataflow
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Workflow-Connector, der die integrierte Funktion definiert, mit der in einem Workflow auf Dataflow zugegriffen wird.
Weitere Informationen
Eine ausführliche Dokumentation, die dieses Codebeispiel enthält, finden Sie hier:
Codebeispiel
Nächste Schritte
Wenn Sie nach Codebeispielen für andere Google Cloud -Produkte suchen und filtern möchten, können Sie den Google Cloud -Beispielbrowser verwenden.
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],[],[],[],null,["# Connector for Dataflow\n\nWorkflows connector that defines the built-in function used to access Dataflow within a workflow.\n\nExplore further\n---------------\n\n\nFor detailed documentation that includes this code sample, see the following:\n\n- [Dataflow API Connector Overview](/workflows/docs/reference/googleapis/dataflow/Overview)\n\nCode sample\n-----------\n\n### YAML\n\n # This workflow demonstrates how to use the Cloud Dataflow connector.\n # The workflow creates a word count job using a Dataflow public job template\n # and uses a Cloud Storage bucket as temporary storage for temp files.\n # The bucket resource is deleted after the job completes.\n # Expected successful output: \"SUCCESS\"\n\n - init:\n assign:\n - project_id: ${sys.get_env(\"GOOGLE_CLOUD_PROJECT_ID\")}\n - location: \"us-central1\"\n - zone: \"us-central1-a\"\n - bucket_name: \"[fill in a bucket name]\"\n - job_name: \"[fill in a job name]\"\n - input_file: \"gs://dataflow-samples/shakespeare/kinglear.txt\"\n - output_storage_file_prefix: ${\"gs://\" + bucket_name + \"/counts\"}\n - temp_location: ${\"gs://\" + bucket_name + \"/counts/temp\"}\n - template_path: \"gs://dataflow-templates-us-central1/latest/Word_Count\"\n - create_bucket:\n call: googleapis.storage.v1.buckets.insert\n args:\n project: ${project_id}\n body:\n name: ${bucket_name}\n - create_job:\n call: googleapis.dataflow.v1b3.projects.locations.templates.create\n args:\n projectId: ${project_id}\n location: ${location}\n body:\n jobName: ${job_name}\n parameters:\n inputFile: ${input_file}\n output: ${output_storage_file_prefix}\n environment:\n numWorkers: 1\n maxWorkers: 2\n zone: ${zone}\n tempLocation: ${temp_location}\n gcsPath: ${template_path}\n - delete_bucket_object1:\n call: googleapis.storage.v1.objects.delete\n args:\n bucket: ${bucket_name}\n object: ${\"counts-00000-of-00003\"}\n - delete_bucket_object2:\n call: googleapis.storage.v1.objects.delete\n args:\n bucket: ${bucket_name}\n object: ${\"counts-00001-of-00003\"}\n - delete_bucket_object3:\n call: googleapis.storage.v1.objects.delete\n args:\n bucket: ${bucket_name}\n object: ${\"counts-00002-of-00003\"}\n - delete_bucket:\n call: googleapis.storage.v1.buckets.delete\n args:\n bucket: ${bucket_name}\n - the_end:\n return: \"SUCCESS\"\n\nWhat's next\n-----------\n\n\nTo search and filter code samples for other Google Cloud products, see the\n[Google Cloud sample browser](/docs/samples?product=workflows)."]]