Apache Kafka から Dataflow に読み込む
bookmark_borderbookmark
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
Apache Kafka から読み込む Dataflow パイプラインの作成方法について説明します
もっと見る
このコードサンプルを含む詳細なドキュメントについては、以下をご覧ください。
コードサンプル
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["わかりにくい","hardToUnderstand","thumb-down"],["情報またはサンプルコードが不正確","incorrectInformationOrSampleCode","thumb-down"],["必要な情報 / サンプルがない","missingTheInformationSamplesINeed","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["その他","otherDown","thumb-down"]],[],[[["This content demonstrates how to create a Dataflow pipeline that reads data from Apache Kafka, utilizing both Java and Python code examples."],["The Java code example uses the Managed I/O transform to read messages from Kafka, extract the payload, convert it to a string, and write it to a text file."],["The Python example reads messages from a specified Kafka topic, extracts the message payload, subdivides the output into fixed 5-second windows, and then writes the data to a text file."],["Both examples highlight the importance of setting up Application Default Credentials (ADC) for authentication to Dataflow, with links provided to documentation for this process."],["You can find additional code samples for Dataflow and other Google Cloud products in the Google Cloud sample browser."]]],[]]