查看 Application Integration 支援的連接器。
Dataflow - 建立工作任務
您可以使用「Dataflow - Create Job」(Dataflow - 建立工作) 工作,在 Cloud Dataflow 中建立工作,以執行使用其中一個 Apache Beam SDK 建構的資料管道。
Cloud Dataflow 是全代管的 Google Cloud 服務,可執行串流和批次資料處理管道。
事前準備
在設定「Dataflow - Create Job」工作之前,請務必在 Google Cloud 專案中執行下列工作:
- 啟用 Dataflow API (
dataflow.googleapis.com
)。 - 建立驗證設定檔。Application Integration 會使用驗證設定檔,連線至「Dataflow - Create Job」工作的驗證端點。
如要瞭解如何授予服務帳戶其他角色或權限,請參閱「授予、變更及撤銷存取權」。
設定「Dataflow - Create Job」工作
- 前往 Google Cloud 控制台的「Application Integration」頁面。
- 在導覽選單中,按一下「整合」。
系統隨即會顯示「整合」頁面,列出 Google Cloud 專案中可用的所有整合功能。
- 選取現有整合,或按一下「建立整合」建立新整合。
如要建立新的整合項目:
- 在「建立整合」窗格中輸入名稱和說明。
- 選取整合作業的區域。
- 選取整合的服務帳戶。如要變更或更新整合的服務帳戶詳細資料,請隨時前往整合工具列的「整合摘要」 窗格。
- 按一下「建立」,新建立的整合服務會在整合服務編輯器中開啟。
- 在整合編輯器的導覽列中,按一下「Tasks」(工作),即可查看可用工作和連結器的清單。
- 在整合服務編輯器中,按一下並放置「Dataflow - Create Job」(Dataflow - 建立工作) 元素。
- 在設計工具中,按一下「Dataflow - Create Job」(Dataflow - 建立工作) 元素,即可查看「Dataflow - Create Job」(Dataflow - 建立工作) 任務設定窗格。
- 前往「驗證」,然後選取要使用的現有驗證設定檔。
(選用步驟) 如果您尚未建立驗證設定檔,請在設定工作前按一下「+ 新增驗證設定檔」,然後按照「建立新的驗證設定檔」一文中的步驟操作。
- 前往「Task Input」(任務輸入內容),然後使用下列「Task input parameters」(任務輸入參數) 表格,設定顯示的輸入欄位。
系統會自動儲存輸入欄位的變更。
工作輸入參數
下表說明「Dataflow - Create Job」工作的輸入參數:
資源 | 資料類型 | 說明 |
---|---|---|
區域 | 字串 | 工作適用的 Cloud Dataflow 位置。 |
ProjectsId | 字串 | 您的 Google Cloud 專案 ID。 |
位置 | 字串 | 包含這項工作的地區端點。 |
要求 | JSON | 請參閱要求 JSON 結構。 |
工作輸出
「Dataflow - Create Job」(Dataflow - 建立工作) 工作會傳回新建立的 Job 例項。
錯誤處理策略
工作錯誤處理策略會指定工作因暫時性錯誤而失敗時,系統應採取的動作。如要瞭解如何使用錯誤處理策略,以及不同類型的錯誤處理策略,請參閱「錯誤處理策略」。
配額與限制
如要瞭解配額和限制,請參閱配額和限制。
後續步驟
- 新增邊緣和邊緣條件。
- 測試並發布整合項目。
- 設定觸發條件。
- 新增資料對應工作。
- 請參閱 Google Cloud 服務的所有工作。