Dataflow のユースケース

Dataflow は、大規模なストリーミング パイプラインとバッチ パイプラインをサポートするように設計されています。Dataflow は、オープンソースの Apache Beam フレームワークで構築されています。

このページでは、開始に役立つチュートリアルとサンプル ユースケースへのリンクを示します。

データの移動

このチュートリアルでは、Managed Service for Apache Kafka から読み取り、レコードを BigQuery テーブルに書き込む Dataflow テンプレートの実行方法について説明します。
このチュートリアルでは、JSON 形式でエンコードされたメッセージを Pub/Sub から読み取り、BigQuery テーブルに書き込む Dataflow テンプレートの実行方法について説明します。

Dataflow ML

このノートブックでは、RunInference 変換を使用する Apache Beam パイプラインで ML モデルを使用する方法を説明します。
このノートブックでは、vLLM と GPU を使用した ML 推論の実行方法を示します。vLLM は、LLM の推論とサービング用のライブラリです。

その他のリソース

Dataflow の一般的なユースケースで使用されるサンプルコードと、技術リファレンス ガイドへのリンク。
このチュートリアルでは、Pub/Sub から e コマースデータを変換し、そのデータを BigQuery および Bigtable に出力するパイプラインを作成します。
Dataflow を使用すると、高度に並列化されたワークロードを単一のパイプラインで実行できるため、効率が向上し、ワークフローを管理しやすくなります。