Importa y exporta datos

En esta página, se enumeran los métodos disponibles para importar y exportar datos desde y hacia Bigtable.

Importa datos a Bigtable

Para importar datos de BigQuery a Bigtable, consulta Exporta datos a Bigtable (ETL inverso) en la documentación de BigQuery.

Puedes ejecutar consultas continuas en tus datos de BigQuery y exportar los resultados a Bigtable en tiempo real con la ETL inversa. Para obtener más información, consulta Introducción a las consultas continuas en la documentación de BigQuery.

Cómo mover o copiar datos con una plantilla

Puedes usar las siguientes plantillas de Dataflow para mover o copiar datos entre Bigtable y otras fuentes o destinos.

BigQuery

La siguiente plantilla de Dataflow te permite exportar datos de BigQuery a Bigtable.

Apache Cassandra a Bigtable

La siguiente plantilla de Dataflow te permite exportar datos de Apache Cassandra a Bigtable.

Archivos Avro

Las siguientes plantillas de Dataflow te permiten exportar datos de Bigtable como archivos Avro y, luego, importarlos de nuevo a Bigtable. Puedes ejecutar las plantillas con Google Cloud CLI o la consola de Google Cloud . El código fuente está en GitHub.

Archivos Parquet

Las siguientes plantillas de Dataflow te permiten exportar datos desde Bigtable como archivos de Parquet y, luego, volver a importar dichos datos a Bigtable. Puedes ejecutar las plantillas con gcloud CLI o la consola de Google Cloud . El código fuente está en GitHub.

SequenceFiles

Las siguientes plantillas de Dataflow te permiten exportar datos de Bigtable como archivos SequenceFiles y, luego, importarlos de nuevo a Bigtable. Puedes ejecutar las plantillas con Google Cloud CLI o la consola de Google Cloud .

Importa desde la página Tablas

Puedes ejecutar muchos de los métodos de importación que se describen en esta página con la consola deGoogle Cloud . Importa los siguientes tipos de datos desde la página Tablas:

  • Datos CSV
  • Datos de BigQuery
  • Archivos Avro
  • Espacios de claves y tablas de Cassandra
  • Archivos Parquet
  • Archivos SequenceFile

Console

  1. Abre la lista de instancias de Bigtable en la Google Cloud consola.

    Abrir la lista de instancias

  2. Haz clic en la instancia que contiene la tabla que deseas importar.

  3. Haz clic en Tablas en el panel izquierdo.

    En la página Tablas, se mostrará una lista de tablas de la instancia.

  4. Junto al nombre de la tabla en la que deseas importar datos, haz clic en el menú Acción de tabla.

  5. Haz clic en Importar datos y, luego, selecciona el tipo de datos que deseas importar:

    • Si seleccionas Avro, Parquet, SequenceFile o Cassandra, la consola mostrará una plantilla de Dataflow parcialmente completada. Completa la plantilla de trabajo y haz clic en Ejecutar trabajo.
    • Si seleccionas CSV, se abrirá la ventana de terminal de la CLI de cbt. Para obtener más información, consulta la sección Importa datos CSV de este documento.
    • Si seleccionas BigQuery, se abrirá BigQuery Studio. Completa la consulta de ETL inversa y ejecútala.

Exporta desde la página Tablas

Puedes ejecutar algunos de los métodos de exportación que se describen en esta página con la consola deGoogle Cloud . Exporta los siguientes tipos de datos desde la página Tablas:

  • Archivos Avro
  • Archivos Parquet
  • Archivos SequenceFile

Console

  1. Abre la lista de instancias de Bigtable en la Google Cloud consola.

    Abrir la lista de instancias

  2. Haz clic en la instancia que contiene la tabla que deseas exportar.

  3. Haz clic en Tablas en el panel izquierdo.

    En la página Tablas, se mostrará una lista de tablas de la instancia.

  4. Junto al nombre de la tabla, haz clic en el menú Acción de tabla.

  5. Haz clic en Exportar datos y, luego, selecciona el tipo de archivo que quieres exportar.

    En la consola, se mostrará una plantilla de Dataflow parcialmente completada.

  6. Completa la plantilla de trabajo y haz clic en Ejecutar trabajo.

Importa datos CSV

Puedes importar datos de un archivo CSV a una tabla de Bigtable con la CLI de cbt. Para ello, debes asegurarte de que tu entorno, como Cloud Shell, pueda acceder al archivo CSV. Puedes transferir tu archivo CSV a Cloud Shell de una de las siguientes maneras:

Sube un archivo CSV local:

  1. En Cloud Shell, haz clic en el menú Más y selecciona Subir.
  2. Selecciona el archivo CSV de tu máquina local.
  3. Después de subir el archivo, haz referencia a él por su nombre en el comando de la CLI de cbt.

Copia un archivo CSV de Cloud Storage:

La CLI de cbt no admite directamente la importación desde un bucket de Cloud Storage. Primero debes copiar el archivo CSV de Cloud Storage a tu entorno de Cloud Shell. Para obtener más información, consulta Cómo subir un objeto a un bucket.

Una vez que el archivo CSV esté disponible en tu entorno, usa el comando de la CLI cbt para importar los datos. Para ver un comando de ejemplo, consulta Escribe por lotes muchas filas según el archivo de entrada.

¿Qué sigue?