Importe e exporte dados
Esta página apresenta os métodos disponíveis para importar e exportar dados para o Bigtable e a partir deste.
Importe dados para o Bigtable
Para importar dados do BigQuery para o Bigtable, consulte o artigo Exporte dados para o Bigtable (ETL inverso) na documentação do BigQuery.
Pode executar consultas contínuas nos seus dados do BigQuery e exportar os resultados para o Bigtable em tempo real através da ETL inversa. Para mais informações, consulte o artigo Introdução às consultas contínuas na documentação do BigQuery.
Mova ou copie dados através de um modelo
Pode usar os seguintes modelos do Dataflow para mover ou copiar dados entre o Bigtable e outras origens ou destinos.
BigQuery
O seguinte modelo do Dataflow permite-lhe exportar dados do BigQuery para o Bigtable.
Apache Cassandra para o Bigtable
O seguinte modelo do Dataflow permite-lhe exportar dados do Apache Cassandra para o Bigtable.
Ficheiros Avro
Os seguintes modelos do Dataflow permitem exportar dados do Bigtable como ficheiros Avro e, em seguida, importar os dados novamente para o Bigtable. Pode executar os modelos através da CLI do Google Cloud ou da Google Cloud consola. O código fonte está no GitHub.
Ficheiros Parquet
Os seguintes modelos do Dataflow permitem-lhe exportar dados do Bigtable como ficheiros Parquet e, em seguida, importar os dados novamente para o Bigtable. Pode executar os modelos através da CLI gcloud ou da Google Cloud consola. O código fonte está no GitHub.
SequenceFiles
Os seguintes modelos do Dataflow permitem exportar dados do Bigtable como SequenceFiles e, em seguida, importar os dados novamente para o Bigtable. Pode executar os modelos através da CLI do Google Cloud ou da Google Cloud consola.
Importe a partir da página Tabelas
Pode executar muitos dos métodos de importação descritos nesta página através da Google Cloud consola. Importe os seguintes tipos de dados da página Tabelas:
- Dados CSV
- Dados do BigQuery
- Ficheiros Avro
- Espaços de chaves e tabelas do Cassandra
- Ficheiros Parquet
Ficheiros SequenceFile
Consola
Abra a lista de instâncias do Bigtable na Google Cloud consola.
Clique na instância que contém a tabela que quer importar.
Clique em Tabelas no painel esquerdo.
A página Tabelas apresenta uma lista de tabelas na instância.
Junto ao nome da tabela para a qual quer importar dados, clique no menu
Ação da tabela.Clique em Importar dados e, de seguida, selecione o tipo de dados que quer importar:
- Se selecionar Avro, Parquet, SequenceFile ou Cassandra, a consola apresenta um modelo do Dataflow parcialmente concluído. Preencha o modelo de tarefa e clique em Executar tarefa.
- Se selecionar CSV, é apresentada a janela de terminal da
cbt
CLI. Para mais informações, consulte a secção Importe dados CSV deste documento. - Se selecionar o BigQuery, o BigQuery Studio é aberto. Preencha a consulta de ETL inverso e execute-a.
Exporte a partir da página Tabelas
Pode executar alguns dos métodos de exportação descritos nesta página através da Google Cloud consola. Exporte os seguintes tipos de dados da página Tabelas:
- Ficheiros Avro
- Ficheiros Parquet
Ficheiros SequenceFile
Consola
Abra a lista de instâncias do Bigtable na Google Cloud consola.
Clique na instância que contém a tabela que quer exportar.
Clique em Tabelas no painel esquerdo.
A página Tabelas apresenta uma lista de tabelas na instância.
Junto ao nome da tabela, clique no menu
Ação da tabela.Clique em Exportar dados e, de seguida, selecione o tipo de ficheiro que quer exportar.
A consola apresenta um modelo do Dataflow parcialmente concluído.
Preencha o modelo de tarefa e clique em Executar tarefa.
Importe dados CSV
Pode importar dados de um ficheiro CSV para uma tabela do Bigtable através da CLI cbt
. Para o fazer, tem de se certificar de que o seu ambiente, como o Cloud Shell, consegue aceder ao ficheiro CSV. Pode transferir o ficheiro CSV para o Cloud Shell de uma das seguintes formas:
Carregue um ficheiro CSV local:
- No Cloud Shell, clique no menu Mais e selecione Carregar.
- Selecione o ficheiro CSV no seu computador local.
- Depois de carregar o ficheiro, faça referência ao ficheiro pelo respetivo nome no comando da
cbt
CLI.
Copie um ficheiro CSV do Cloud Storage:
A
cbt
CLI
não suporta diretamente a importação de um contentor do Cloud Storage. Primeiro, tem de copiar o ficheiro CSV do Cloud Storage para o seu ambiente do Cloud Shell. Para mais informações, consulte o artigo
Carregue um objeto para um contentor.
Depois de o ficheiro CSV estar disponível no seu ambiente, use o comando
cbt
CLI
para importar os dados. Para ver um comando de exemplo, consulte o artigo
Escreva em lote muitas linhas com base no ficheiro de entrada.
O que se segue?
- Crie, copie ou restaure a partir de uma cópia de segurança do Bigtable.
- Explore conceitos relacionados com a conceção de um esquema do Bigtable.
- Migre para o Bigtable.