データのインポートとエクスポート

このページでは、Bigtable との間でデータをインポートおよびエクスポートするために利用できる方法について説明します。

BigQuery からデータをエクスポートする

BigQuery データを Bigtable にエクスポートするには、Bigtable へのデータのエクスポート(リバース ETL)をご覧ください。(プレビュー)

テンプレートを使用してデータを移動またはコピーする

BigQuery

次の Dataflow テンプレートを使用すると、BigQuery から Bigtable にデータをエクスポートできます。

Apache Cassandra to Bigtable

次の Dataflow テンプレートを使用すると、Apache Cassandra から Bigtable にデータをエクスポートできます。

Avro ファイル

次の Dataflow テンプレートを使用すると、Bigtable から Avro ファイルとしてデータをエクスポートし、そのデータを Bigtable に再インポートできます。テンプレートを実行するには、Google Cloud CLI または Google Cloud コンソールを使用します。ソースコードは GitHub にあります。

Parquet ファイル

次の Dataflow テンプレートを使用すると、Bigtable から Parquet ファイルとしてデータをエクスポートし、そのデータを Bigtable に再インポートできます。テンプレートを実行するには、gcloud CLI または Google Cloud コンソールを使用します。ソースコードは GitHub にあります。

SequenceFiles

次の Dataflow テンプレートを使用すると、Bigtable から SequenceFiles としてデータをエクスポートし、そのデータを Bigtable に再インポートできます。テンプレートを実行するには、Google Cloud CLI または Google Cloud コンソールを使用します。

テーブルページからエクスポートする

Google Cloud コンソールの [テーブル] ページから Avro ファイル、Parquet ファイル、SequenceFiles を直接エクスポートすることもできます。

  1. Google Cloud コンソールで Bigtable インスタンスのリストを開きます。

    インスタンスのリストを開く

  2. エクスポートするテーブルが含まれているインスタンスをクリックします。

  3. 左側のペインで [テーブル] をクリックします。

    [テーブル] ページに、インスタンス内のテーブルのリストが表示されます。

  4. エクスポートするテーブル名の横にある [テーブル アクション] メニューをクリックします。

  5. [Cloud Storage にエクスポートする形式] メニュー セクションで、目的のファイル形式をクリックします。

    部分的に完了した Dataflow テンプレートがコンソールに表示されます。

  6. フォームの残りの部分に記入し、[ジョブを実行] をクリックします。

CSV データをインポートする

cbt CLI を使用して、CSV ファイルから Bigtable テーブルにデータをインポートできます。詳細については、入力ファイルに基づいて多数の行をバッチ書き込みするをご覧ください。

次のステップ