レイク内のデータアセットを管理する

このページでは、Cloud Storage バケットと BigQuery データセットを既存の Dataplex ゾーンのアセットとして追加、アップグレード、削除する方法について説明します。

概要

アセットは、Cloud Storage または BigQuery に保存されているデータにマッピングされます。別々の Google Cloud プロジェクトに保存されているデータをアセットとしてレイク内の 1 つのゾーンにマッピングできます。既存の Cloud Storage バケットまたは BigQuery データセットを接続して、レイク内で管理できます。

始める前に

  • まだ作成していない場合は、レイクゾーンを作成します。

  • 大部分の gcloud lakes コマンドでは、ロケーションを指定する必要があります。ロケーションは、--location フラグを使用して指定できます。

アクセス制御

  • アセットを削除するには、dataplex.lakes.deletedataplex.zones.delete、または dataplex.assets.delete の IAM 権限を含む IAM ロールを付与します。Dataplex に固有の roles/dataplex.admin ロールと roles/dataplex.editor ロールを使用して、これらの権限を付与できます。

  • アセットを追加するには、権限 create - dataplex.lakes.createdataplex.zones.create、または dataplex.assets.create を含む IAM ロールを付与します。roles/dataplex.admin ロールと roles/dataplex.editor ロールには、これらの権限が含まれています。

  • また、従来のロールの roles/ownerroles/editor も、ユーザーやグループへの権限の付与に使用できます。

  • Dataplex レイクに接続されているリソースに対しては、Dataplex サービスを承認する必要があります。承認は、レイクが作成されたプロジェクトのリソースに対して自動的に暗黙的に付与されます。他のプロジェクトのリソースに対しては、Dataplex サービスを明示的に承認します。

詳細については、Dataplex IAM とアクセス制御をご覧ください。

Cloud Storage バケットに対するロールを付与する

別のプロジェクトの Cloud Storage バケットをレイクに接続するには、コンソールのレイクの詳細ページから取得した Dataplex サービス アカウント(service-PROJECT_NUMBER@gcp-sa-dataplex.iam.gserviceaccount.com)に、バケットを含むプロジェクトの Dataplex サービス アカウントのロール(roles/dataplex.serviceAgent)を付与する必要があります。このロールは、バケットに対して前提となる管理者レベルのロールを Dataplex サービスに提供し、バケット自体に権限を設定できるようにします。

BigQuery データセットに対するロールを付与する

別のプロジェクトの BigQuery データセットをレイクに接続するには、データセットに対する BigQuery 管理者ロールを Dataplex サービス アカウントに付与する必要があります。

VPC Service Controls の注意事項

Dataplex が、VPC Service Controls の境界を超えることはありません。レイクにアセットを追加する前に、基盤となるバケットやデータセットがレイクと同じ VPC Service Controls ネットワークにあることを確認してください。

詳細については、VPC Service Controls と Dataplex をご覧ください。

アセットを追加する

Cloud Storage バケットや BigQuery データセット アセットを追加するには、Dataplex API メソッド lakes.zones.assets.create を発行するか、ローカル ブラウザで [データゾーン] ページを開いてバケットまたはデータセットを追加します。

Dataplex レイク リージョンと Cloud Storage バケットのリージョンのいずれかに重なる部分がない場合は、バケットをレイク内のゾーンに追加することはできません。

Cloud Storage アセットのリージョンのロケーションと、公開データセットの作成時に Dataplex がバケットのロケーションを扱う方法の詳細については、リージョン リソースをご覧ください。

コンソール

  1. Google Cloud コンソールで [Dataplex] ページを開きます。

    Google Cloud コンソールで [Dataplex] を開く

  2. [管理] ページで、Cloud Storage バケットまたは BigQuery データセットを追加するレイクをクリックします。レイクページが開きます。

    レイクの詳細ページ
  3. [ゾーン] タブで、アセットを追加するデータゾーンの名前をクリックします。そのデータゾーンの [データゾーン] ページが開きます。

  4. [アセット] タブで、[+ アセットを追加] をクリックします。[アセットの追加] ページが開きます。

  5. [アセットを追加] をクリックします。

  6. [タイプ] フィールドで、[BigQuery データセット] または [Cloud Storage バケット] を選択します。

  7. [表示名] フィールドに、新しいアセットの名前を入力します。

  8. [ID] フィールドに、アセットの一意の ID を入力します。

  9. (省略可)説明を入力します。

  10. アセットのタイプに基づいて、[データセット] フィールドまたは [バケット] フィールドで [参照] をクリックして、Cloud Storage バケットまたは BigQuery データセットを見つけて選択します。

  11. オプション: アセットタイプが Cloud Storage バケットで、Dataplex でアセットを管理する場合は、[マネージドにアップグレード] チェックボックスをオンにします。このオプションを選択すると、アセットを個別にアップグレードする必要がなくなります。このオプションは BigQuery データセットでは使用できません。

  12. [続行] をクリックします。

  13. 残りのパラメータ値を選択します。セキュリティ設定の詳細については、レイクのセキュリティをご覧ください。

  14. [送信] をクリックしてアセットを追加します。

  15. データゾーンのページに戻り、新しいアセットがアセットリストに表示されていることを確認します。

REST

API Explorer を使用し、API の手順に沿ってバケットを追加します。

正常に追加されると、データゾーンは自動的にアクティブ状態になります。失敗した場合、データゾーンは以前の正常な状態にロールバックされます。

Cloud Storage バケット アセットをアップグレードする

Cloud Storage バケットタイプのアセットを追加すると、Dataplex は、そのアセットでホストされているテーブルの BigQuery 外部テーブルを自動的に公開します。

Cloud Storage バケット アセットをアップグレードすると、Dataplex は、接続された外部テーブルを削除して BigLake テーブルを作成します。BigLake テーブルでは、行レベル、列レベル、動的データ マスキングなど、より詳細なセキュリティがサポートされています。

Cloud Storage バケット アセットは、Google Cloud コンソールか Dataplex API メソッドのパッチを発行することでアップグレードできます。

コンソール

  1. Google Cloud コンソールで [Dataplex] ページを開きます。

    Dataplex に移動

  2. [管理] ページで、レイクの名前をクリックします。レイクページが開きます。

  3. [ゾーン] タブで、データゾーンの名前をクリックします。データゾーンのページが開きます。

  4. [アセット] タブで、アップグレードするアセットの名前をクリックします。

  5. [マネージドにアップグレード] をクリックします。

REST

Cloud Explorer を使用し、API の手順に沿ってバケット アセットをアップグレードします。

Cloud Storage バケット アセットをダウングレードする

Cloud Storage バケット アセットをダウングレードすると、Dataplex は接続された BigLake テーブルを削除し、外部テーブルを作成します。

Cloud Storage バケット アセットをダウングレードするには、Google Cloud コンソールを使用するか、Dataplex API メソッドのパッチを発行し、ResourceSpecreadAccessModeフィールドを DIRECT にします。

コンソール

  1. Google Cloud コンソールで [Dataplex] ページを開きます。

    Dataplex に移動

  2. [管理] ページで、レイクの名前をクリックします。レイクページが開きます。

  3. [ゾーン] タブで、データゾーンの名前をクリックします。データゾーンのページが開きます。

  4. [アセット] タブで、アップグレードするアセットの名前をクリックします。

  5. [マネージドからダウングレード] をクリックします。

REST

Cloud Explorer を使用し、API の手順に従ってバケット アセットをダウングレードします。ResourceSpec で必ず readAccessMode フィールドを DIRECT に設定してください。

アセットを削除する

Cloud Storage バケットや BigQuery データセット アセットは、Google Cloud コンソールを使用するか Dataplex API メソッド lakes.zones.assets.delete を発行することで削除できます。アセットを別のゾーンに接続する前に、データゾーンやレイクから削除します。

次の手順では、Google Cloud コンソールまたは Dataplex API を使用して Dataplex アセットを削除する方法を説明します。

コンソール

  1. Google Cloud コンソールで [Dataplex] ページを開きます。

    Google Cloud コンソールで [Dataplex] を開く

  2. [管理] ページで、Cloud Storage バケットまたは BigQuery データセットを削除するレイクをクリックします。そのレイクのレイクページが開きます。

    レイクの詳細ページ
  3. [ゾーン] タブで、Cloud Storage バケットまたは BigQuery データセットを削除するデータゾーンの名前をクリックします。そのデータゾーンの [データゾーン] ページが開きます。

  4. [アセット] タブで、アセット名の左側にあるチェックボックスをオンにして、アセットを選択します。

  5. [アセットを削除] をクリックして、アセットを削除します。

  6. ダイアログで [Delete] をクリックして、削除を確定します。

REST

Cloud Explorer を使用し、API の手順に沿ってバケットを削除します。

次のステップ