このページでは、Cloud Data Fusion バージョン 6.5 以降で接続を作成および管理する方法について説明します。接続によって、データソースへの接続に必要な機密データ(ユーザー認証情報やホスト情報など)が保存されます。
Cloud Data Fusion バージョン 6.5 では、以下によって接続のエクスペリエンスが改善されています。
- 管理者が、[Pipeline Studio]、[Wrangler]、または [Namespace 管理者] ページから接続を作成、複製、インポート、エクスポート、削除できるようにする。
- デベロッパーが、データ パイプライン内で管理者が作成した接続を使用、再利用できるようにする。
Cloud Data Fusion 6.5 より前のバージョンでは、パイプラインを作成するときに接続を作成します。データ サイエンティストと ETL デベロッパーは、パイプラインを作成するたびに認証情報(接続 IP、ポート、パスワードなど)を提供します。バージョン 6.5 以降では、管理者が Cloud Data Fusion パイプラインの接続を作成、管理でき、デベロッパーは認証情報を提供する必要なしにこれらの接続を使用できます。
始める前に
Cloud Data Fusion インスタンスのバージョン 6.5 以降を作成、または 6.5 以降にアップグレードします。
Cloud Data Fusion の管理者のロールが必要です。
接続の作成
管理者の場合、チームがパイプラインで使用できる再利用可能な接続を作成する手順は次のとおりです。
Cloud Data Fusion UI で、左上隅にあるメニュー アイコン(
)をクリックします。メニューの下部にある [Namespace 管理者] をクリックします。
[接続] タブをクリックします。
[Add connection] をクリックします。
作成する接続のタイプをクリックします(例: GCS)。
接続プロパティを構成します。
[Test Connection] をクリックします。
成功メッセージが表示されたら、[作成] をクリックします。
その他メニューを使用すると、作成した接続をエクスポートまたは複製できます。
プラグインでの接続の使用
プラグインで接続を使用すると、接続の作成時に構成されたすべてのプロパティがプラグインに継承されます。サポートされているプラグインのいずれかで接続を使用するには、次の手順を行います。
[Pipeline Studio] で、既存のパイプラインを開きます。
[Source] で、接続を使用するソース プラグインをクリックします。接続は、次のバッチソース プラグインでのみ使用できます。
- BigQuery
- Cloud Storage
- Kafka
- Amazon S3
- Cloud Spanner
表示されるソースノードの上にポインタを置き、[Properties] をクリックします。
[接続を使用] を [はい] に設定します。
[Browse Connections] をクリックします。既存の接続を選択するか、新しい接続を作成できます。接続を選択すると、その接続に関連するすべてのプロパティが表示されなくなります。接続プロパティは接続に保存されます。
残りの必須プラグイン プロパティを構成します。
[検証] をクリックします。
ダイアログ ボックスの右上にある X ボタンをクリックします。
[Pipeline Studio] でパイプラインの作成を続行します。
接続のインポート
接続をインポートする手順は次のとおりです。
[Namespace 管理者] ページで、[接続] をクリックします。
[インポート] をクリックします。
インポートする JSON ファイルに移動します。
接続の名前を入力し、他のプロパティを入力します。
接続のエクスポート
接続のエクスポートは、その接続の他のチームメンバーとの共有、バージョン管理への追加、開発環境からテスト環境や本番環境へのデプロイに役立ちます。
接続をエクスポートする手順は次のとおりです。
[Namespace 管理者] ページで、[接続] をクリックします。
エクスポートする接続を見つけます。
[Namespace 管理者] ページで、その他アイコン
をクリックして [エクスポート] をクリックします。Cloud Data Fusion は接続プロパティを JSON ファイルにエクスポートします。
次のステップ
- Cloud Data Fusion について学ぶ。
- チュートリアルのいずれかに取り組む。