Importe e exporte dados

Esta página apresenta os métodos disponíveis para importar e exportar dados para o Bigtable e a partir deste.

Importe dados para o Bigtable

Para importar dados do BigQuery para o Bigtable, consulte o artigo Exporte dados para o Bigtable (ETL inverso) na documentação do BigQuery.

Pode executar consultas contínuas nos seus dados do BigQuery e exportar os resultados para o Bigtable em tempo real através da ETL inversa. Para mais informações, consulte o artigo Introdução às consultas contínuas na documentação do BigQuery.

Mova ou copie dados através de um modelo

Pode usar os seguintes modelos do Dataflow para mover ou copiar dados entre o Bigtable e outras origens ou destinos.

BigQuery

O seguinte modelo do Dataflow permite-lhe exportar dados do BigQuery para o Bigtable.

Apache Cassandra para o Bigtable

O seguinte modelo do Dataflow permite-lhe exportar dados do Apache Cassandra para o Bigtable.

Ficheiros Avro

Os seguintes modelos do Dataflow permitem exportar dados do Bigtable como ficheiros Avro e, em seguida, importar os dados novamente para o Bigtable. Pode executar os modelos através da CLI do Google Cloud ou da Google Cloud consola. O código fonte está no GitHub.

Ficheiros Parquet

Os seguintes modelos do Dataflow permitem-lhe exportar dados do Bigtable como ficheiros Parquet e, em seguida, importar os dados novamente para o Bigtable. Pode executar os modelos através da CLI gcloud ou da Google Cloud consola. O código fonte está no GitHub.

SequenceFiles

Os seguintes modelos do Dataflow permitem exportar dados do Bigtable como SequenceFiles e, em seguida, importar os dados novamente para o Bigtable. Pode executar os modelos através da CLI do Google Cloud ou da Google Cloud consola.

Importe a partir da página Tabelas

Pode executar muitos dos métodos de importação descritos nesta página através da Google Cloud consola. Importe os seguintes tipos de dados da página Tabelas:

  • Dados CSV
  • Dados do BigQuery
  • Ficheiros Avro
  • Espaços de chaves e tabelas do Cassandra
  • Ficheiros Parquet
  • Ficheiros SequenceFile

Consola

  1. Abra a lista de instâncias do Bigtable na Google Cloud consola.

    Abra a lista de instâncias

  2. Clique na instância que contém a tabela que quer importar.

  3. Clique em Tabelas no painel esquerdo.

    A página Tabelas apresenta uma lista de tabelas na instância.

  4. Junto ao nome da tabela para a qual quer importar dados, clique no menu Ação da tabela.

  5. Clique em Importar dados e, de seguida, selecione o tipo de dados que quer importar:

    • Se selecionar Avro, Parquet, SequenceFile ou Cassandra, a consola apresenta um modelo do Dataflow parcialmente concluído. Preencha o modelo de tarefa e clique em Executar tarefa.
    • Se selecionar CSV, é apresentada a janela de terminal da cbtCLI. Para mais informações, consulte a secção Importe dados CSV deste documento.
    • Se selecionar o BigQuery, o BigQuery Studio é aberto. Preencha a consulta de ETL inverso e execute-a.

Exporte a partir da página Tabelas

Pode executar alguns dos métodos de exportação descritos nesta página através da Google Cloud consola. Exporte os seguintes tipos de dados da página Tabelas:

  • Ficheiros Avro
  • Ficheiros Parquet
  • Ficheiros SequenceFile

Consola

  1. Abra a lista de instâncias do Bigtable na Google Cloud consola.

    Abra a lista de instâncias

  2. Clique na instância que contém a tabela que quer exportar.

  3. Clique em Tabelas no painel esquerdo.

    A página Tabelas apresenta uma lista de tabelas na instância.

  4. Junto ao nome da tabela, clique no menu Ação da tabela.

  5. Clique em Exportar dados e, de seguida, selecione o tipo de ficheiro que quer exportar.

    A consola apresenta um modelo do Dataflow parcialmente concluído.

  6. Preencha o modelo de tarefa e clique em Executar tarefa.

Importe dados CSV

Pode importar dados de um ficheiro CSV para uma tabela do Bigtable através da CLI cbt. Para o fazer, tem de se certificar de que o seu ambiente, como o Cloud Shell, consegue aceder ao ficheiro CSV. Pode transferir o ficheiro CSV para o Cloud Shell de uma das seguintes formas:

Carregue um ficheiro CSV local:

  1. No Cloud Shell, clique no menu Mais e selecione Carregar.
  2. Selecione o ficheiro CSV no seu computador local.
  3. Depois de carregar o ficheiro, faça referência ao ficheiro pelo respetivo nome no comando da cbtCLI.

Copie um ficheiro CSV do Cloud Storage:

A cbt CLI não suporta diretamente a importação de um contentor do Cloud Storage. Primeiro, tem de copiar o ficheiro CSV do Cloud Storage para o seu ambiente do Cloud Shell. Para mais informações, consulte o artigo Carregue um objeto para um contentor.

Depois de o ficheiro CSV estar disponível no seu ambiente, use o comando cbtCLI para importar os dados. Para ver um comando de exemplo, consulte o artigo Escreva em lote muitas linhas com base no ficheiro de entrada.

O que se segue?