Bigtable to JSON テンプレート

Bigtable to JSON テンプレートは、Bigtable テーブルからデータを読み取り、Cloud Storage バケットに JSON 形式で書き込むパイプラインです。

パイプラインの要件

  • Bigtable テーブルが存在している必要があります。
  • パイプラインを実行する前に、出力用の Cloud Storage バケットが存在している必要があります。

テンプレートのパラメータ

パラメータ 説明
bigtableProjectId データを読み取る Bigtable インスタンスを含む Google Cloud プロジェクトの ID。
bigtableInstanceId テーブルが含まれている Bigtable インスタンスの ID。
bigtableTableId 読み取り元の Bigtable テーブルの ID。
filenamePrefix JSON ファイル名の接頭辞。たとえば、table1- となります。値が指定されていない場合、デフォルトは part です。
outputDirectory 省略可: 出力 JSON ファイルが保存されている Cloud Storage パス。例: gs://your-bucket/your-path/
userOption 省略可: 有効な値は FLATTEN または NONE です。FLATTEN は、行を単一レベルにフラット化します。NONE は、行全体を JSON 文字列として格納します。デフォルトは NONE です。
columnsAliases 省略可: Vertex AI Vector Search インデックスに必要な列のカンマ区切りリスト。Vertex AI Vector Search には列 idembedding が必要です。fromfamily:fromcolumn;to という表記を使用できます。たとえば、列が rowkeycf:my_embedding で、rowkey とエンベディング列の名前が異なる場合は、cf:my_embedding;embeddingrowkey;id を指定します。このオプションは、userOption の値が FLATTEN の場合にのみ使用します。

テンプレートを実行する

コンソール

  1. Dataflow の [テンプレートからジョブを作成] ページに移動します。
  2. [テンプレートからジョブを作成] に移動
  3. [ジョブ名] フィールドに、固有のジョブ名を入力します。
  4. (省略可)[リージョン エンドポイント] で、プルダウン メニューから値を選択します。デフォルトのリージョンは us-central1 です。

    Dataflow ジョブを実行できるリージョンのリストについては、Dataflow のロケーションをご覧ください。

  5. [Dataflow テンプレート] プルダウン メニューから、the Bigtable to JSON template を選択します。
  6. 表示されたパラメータ フィールドに、パラメータ値を入力します。
  7. [ジョブを実行] をクリックします。

gcloud CLI

シェルまたはターミナルで、テンプレートを実行します。

gcloud dataflow jobs run JOB_NAME \
    --gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/Cloud_Bigtable_to_GCS_Json \
    --project=PROJECT_ID \
    --region=REGION_NAME \
    --parameters \
       bigtableProjectId=BIGTABLE_PROJECT_ID,\
       bigtableInstanceId=BIGTABLE_INSTANCE_ID,\
       bigtableTableId=BIGTABLE_TABLE_ID,\
       filenamePrefix=FILENAME_PREFIX,\

次のように置き換えます。

  • JOB_NAME: 一意の任意のジョブ名
  • VERSION: 使用するテンプレートのバージョン

    使用できる値は次のとおりです。

    • latest: 最新バージョンのテンプレートを使用します。このテンプレートは、バケット内で日付のない親フォルダ(gs://dataflow-templates-REGION_NAME/latest/)にあります。
    • バージョン名(例: 2023-09-12-00_RC00)。特定のバージョンのテンプレートを使用します。このテンプレートは、バケット内で対応する日付の親フォルダ(gs://dataflow-templates-REGION_NAME/)にあります。
  • REGION_NAME: Dataflow ジョブをデプロイするリージョン(例: us-central1
  • BIGTABLE_PROJECT_ID: プロジェクト ID
  • BIGTABLE_INSTANCE_ID: インスタンス ID
  • BIGTABLE_TABLE_ID: テーブル ID
  • FILENAME_PREFIX: JSON ファイルの接頭辞

API

REST API を使用してテンプレートを実行するには、HTTP POST リクエストを送信します。API とその認証スコープの詳細については、projects.templates.launch をご覧ください。

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Cloud_Bigtable_to_GCS_Json
{
   "jobName": "JOB_NAME",
   "parameters": {
     "bigtableProjectId": "BIGTABLE_PROJECT_ID",
     "bigtableInstanceId": "BIGTABLE_INSTANCE_ID",
     "bigtableTableId": "BIGTABLE_TABLE_ID",
     "filenamePrefix": "FILENAME_PREFIX",
   },
   "environment": { "maxWorkers": "10" }
}

次のように置き換えます。

  • PROJECT_ID: Dataflow ジョブを実行する Google Cloud プロジェクトの ID
  • JOB_NAME: 一意の任意のジョブ名
  • VERSION: 使用するテンプレートのバージョン

    使用できる値は次のとおりです。

    • latest: 最新バージョンのテンプレートを使用します。このテンプレートは、バケット内で日付のない親フォルダ(gs://dataflow-templates-REGION_NAME/latest/)にあります。
    • バージョン名(例: 2023-09-12-00_RC00)。特定のバージョンのテンプレートを使用します。このテンプレートは、バケット内で対応する日付の親フォルダ(gs://dataflow-templates-REGION_NAME/)にあります。
  • LOCATION: Dataflow ジョブをデプロイするリージョン(例: us-central1
  • BIGTABLE_PROJECT_ID: プロジェクト ID
  • BIGTABLE_INSTANCE_ID: インスタンス ID
  • BIGTABLE_TABLE_ID: テーブル ID
  • FILENAME_PREFIX: JSON ファイルの接頭辞

次のステップ