Importar y exportar datos

En esta página se enumeran los métodos disponibles para importar y exportar datos a Bigtable y desde este servicio.

Importar datos a Bigtable

Para importar datos de BigQuery a Bigtable, consulta el artículo Exportar datos a Bigtable (ETL inverso) de la documentación de BigQuery.

Puedes ejecutar consultas continuas en tus datos de BigQuery y exportar los resultados a Bigtable en tiempo real mediante ETL inversa. Para obtener más información, consulta la introducción a las consultas continuas en la documentación de BigQuery.

Mover o copiar datos con una plantilla

Puede usar las siguientes plantillas de Dataflow para mover o copiar datos entre Bigtable y otras fuentes o destinos.

BigQuery

La siguiente plantilla de Dataflow te permite exportar datos de BigQuery a Bigtable.

Apache Cassandra a Bigtable

La siguiente plantilla de Dataflow te permite exportar datos de Apache Cassandra a Bigtable.

Archivos Avro

Las siguientes plantillas de Dataflow te permiten exportar datos de Bigtable como archivos Avro y, a continuación, volver a importar los datos en Bigtable. Puedes ejecutar las plantillas mediante la CLI de Google Cloud o la Google Cloud consola. El código fuente está en GitHub.

Archivos Parquet

Las siguientes plantillas de Dataflow te permiten exportar datos de Bigtable como archivos Parquet y, a continuación, volver a importar los datos en Bigtable. Puedes ejecutar las plantillas mediante la CLI de gcloud o la Google Cloud consola. El código fuente está en GitHub.

SequenceFiles

Las siguientes plantillas de Dataflow te permiten exportar datos de Bigtable como archivos de secuencia y, a continuación, volver a importarlos en Bigtable. Puedes ejecutar las plantillas mediante la CLI de Google Cloud o la Google Cloud consola.

Importar desde la página Tablas

Puedes ejecutar muchos de los métodos de importación que se describen en esta página mediante laGoogle Cloud consola. Importa los siguientes tipos de datos de la página Tablas:

  • Datos CSV
  • Datos de BigQuery
  • Archivos Avro
  • Espacios de claves y tablas de Cassandra
  • Archivos Parquet
  • Archivos SequenceFile

Consola

  1. Abre la lista de instancias de Bigtable en la Google Cloud consola.

    Abrir la lista de instancias

  2. Haz clic en la instancia que contenga la tabla que quieras importar.

  3. En el panel de la izquierda, haz clic en Tablas.

    En la página Tablas se muestra una lista de las tablas de la instancia.

  4. Junto al nombre de la tabla en la que quieras importar datos, haz clic en el menú Acción de tabla.

  5. Haz clic en Importar datos y, a continuación, selecciona el tipo de datos que quieras importar:

    • Si selecciona Avro, Parquet, SequenceFile o Cassandra, la consola mostrará una plantilla de Dataflow parcialmente completada. Rellena la plantilla de tarea y haz clic en Ejecutar tarea.
    • Si seleccionas CSV, se abrirá la ventana de terminal de la cbtCLI. Para obtener más información, consulta la sección Importar datos CSV de este documento.
    • Si seleccionas BigQuery, se abrirá BigQuery Studio. Rellena la consulta de ETL inverso y ejecútala.

Exportar desde la página Tablas

Puedes ejecutar algunos de los métodos de exportación que se describen en esta página mediante laGoogle Cloud consola. Exporta los siguientes tipos de datos de la página Tablas:

  • Archivos Avro
  • Archivos Parquet
  • Archivos SequenceFile

Consola

  1. Abre la lista de instancias de Bigtable en la Google Cloud consola.

    Abrir la lista de instancias

  2. Haz clic en la instancia que contenga la tabla que quieras exportar.

  3. En el panel de la izquierda, haz clic en Tablas.

    En la página Tablas se muestra una lista de las tablas de la instancia.

  4. Junto al nombre de la tabla, haz clic en el menú Acción de tabla.

  5. Haz clic en Exportar datos y, a continuación, selecciona el tipo de archivo que quieras exportar.

    La consola muestra una plantilla de Dataflow parcialmente completada.

  6. Rellena la plantilla de tarea y haz clic en Ejecutar tarea.

Importar datos CSV

Puede importar datos de un archivo CSV a una tabla de Bigtable mediante la CLI cbt. Para ello, debes asegurarte de que tu entorno, como Cloud Shell, pueda acceder al archivo CSV. Puedes obtener tu archivo CSV en Cloud Shell de una de las siguientes formas:

Subir un archivo CSV local:

  1. En Cloud Shell, haz clic en el menú Más y selecciona Subir.
  2. Selecciona el archivo CSV de tu equipo local.
  3. Después de subir el archivo, haz referencia a él por su nombre en el comando de la cbt CLI.

Copiar un archivo CSV de Cloud Storage:

La CLI cbt no admite directamente la importación desde un segmento de Cloud Storage. Primero debes copiar el archivo CSV de Cloud Storage a tu entorno de Cloud Shell. Para obtener más información, consulta Subir un objeto a un contenedor.

Una vez que el archivo CSV esté disponible en tu entorno, usa el comando de la cbtCLI para importar los datos. Para ver un comando de ejemplo, consulta Escribir muchas filas por lotes en función del archivo de entrada.

Siguientes pasos