Dataflow 用途

Dataflow 的設計宗旨是支援大規模的串流和批次管道。Dataflow 是以開放原始碼的 Apache Beam 架構為基礎。
本頁面提供教學課程和應用實例的連結,協助您快速上手。
資料遷移
將 Kafka 資料處理至 BigQuery
本教學課程說明如何執行 Dataflow 範本,從 Managed Service for Apache Kafka 讀取資料,並將記錄寫入 BigQuery 資料表。
將 Pub/Sub 中的資料處理至 BigQuery
本教學課程說明如何執行 Dataflow 範本,從 Pub/Sub 讀取以 JSON 編碼的訊息,並將這些訊息寫入 BigQuery 資料表。
Dataflow ML
使用 RunInference 和 Embeddings
這份筆記本說明如何在 Apache Beam 管道中使用 ML 模型,並使用 RunInference 轉換。
在管道中使用 GPU
這個筆記本說明如何使用 vLLM 和 GPU 執行機器學習推論作業。vLLM 是用於 LLM 推論和服務的程式庫。
其他資源
參考模式
常見 Dataflow 用途的範例程式碼和技術參考指南連結。
電子商務串流管道
在本教學課程中,您將建立管道,轉換來自 Pub/Sub 的電子商務資料,並將資料輸出至 BigQuery 和 Bigtable。
HPC 高度平行工作負載
您可以在單一管道中執行高度平行化的工作負載,進而提升效率,並簡化工作流程管理。