データのインポートとエクスポート
このページでは、Bigtable との間でデータをインポートおよびエクスポートするために利用できる方法について説明します。
BigQuery からデータをエクスポートする
BigQuery データを Bigtable にエクスポートするには、Bigtable へのデータのエクスポート(リバース ETL)をご覧ください。(プレビュー)
テンプレートを使用してデータを移動またはコピーする
BigQuery
次の Dataflow テンプレートを使用すると、BigQuery から Bigtable にデータをエクスポートできます。
Apache Cassandra to Bigtable
次の Dataflow テンプレートを使用すると、Apache Cassandra から Bigtable にデータをエクスポートできます。
Avro ファイル
次の Dataflow テンプレートを使用すると、Bigtable から Avro ファイルとしてデータをエクスポートし、そのデータを Bigtable に再インポートできます。テンプレートを実行するには、Google Cloud CLI または Google Cloud コンソールを使用します。ソースコードは GitHub にあります。
Parquet ファイル
次の Dataflow テンプレートを使用すると、Bigtable から Parquet ファイルとしてデータをエクスポートし、そのデータを Bigtable に再インポートできます。テンプレートを実行するには、gcloud CLI または Google Cloud コンソールを使用します。ソースコードは GitHub にあります。
SequenceFiles
次の Dataflow テンプレートを使用すると、Bigtable から SequenceFiles としてデータをエクスポートし、そのデータを Bigtable に再インポートできます。テンプレートを実行するには、Google Cloud CLI または Google Cloud コンソールを使用します。
テーブルページからエクスポートする
Google Cloud コンソールの [テーブル] ページから Avro ファイル、Parquet ファイル、SequenceFiles を直接エクスポートすることもできます。
Google Cloud コンソールで Bigtable インスタンスのリストを開きます。
エクスポートするテーブルが含まれているインスタンスをクリックします。
左側のペインで [テーブル] をクリックします。
[テーブル] ページに、インスタンス内のテーブルのリストが表示されます。
エクスポートするテーブル名の横にある
[テーブル アクション] メニューをクリックします。[Cloud Storage にエクスポートする形式] メニュー セクションで、目的のファイル形式をクリックします。
部分的に完了した Dataflow テンプレートがコンソールに表示されます。
フォームの残りの部分に記入し、[ジョブを実行] をクリックします。
CSV データをインポートする
cbt
CLI を使用して、CSV ファイルから Bigtable テーブルにデータをインポートできます。詳細については、入力ファイルに基づいて多数の行をバッチ書き込みするをご覧ください。