En este documento, se describe cómo leer datos de BigQuery a Dataflow mediante el conector de E/S de BigQuery de Apache Beam.
Descripción general
El conector de E/S de BigQuery admite dos opciones para leer desde BigQuery:
- Lecturas directas de tablas. Esta opción es la más rápida, ya que usa la API de lectura de almacenamiento de BigQuery.
- Exportar trabajo. Con esta opción, BigQuery ejecuta un trabajo de exportación que escribe los datos de la tabla en Cloud Storage. Luego, el conector lee los datos exportados desde Cloud Storage. Esta opción es menos eficiente, porque requiere el paso de exportación.
Los trabajos de exportación son la opción predeterminada. Para especificar lecturas directas, llama a withMethod(Method.DIRECT_READ)
.
El conector serializa los datos de la tabla en un PCollection
. Cada elemento en PCollection
representa una sola fila de la tabla. El conector admite los siguientes métodos de serialización:
- Lee los datos como registros con formato Avro. Con este método, proporcionas una función que analiza los registros de Avro en un tipo de datos personalizado.
- Lee los datos como objetos
TableRow
. Este método es conveniente porque no requiere un tipo de datos personalizado. Sin embargo, suele tener un rendimiento menor que leer los registros con formato Avro.
Paralelismo
El paralelismo en este conector depende del método de lectura:
Lecturas directas: el conector de E/S produce una cantidad dinámica de transmisiones, según el tamaño de la solicitud de exportación. Lee estas transmisiones directamente desde BigQuery en paralelo.
Trabajos de exportación: BigQuery determina cuántos archivos se escriben en Cloud Storage. La cantidad de archivos depende de la consulta y del volumen de datos. El conector de E/S lee los archivos exportados en paralelo.
Rendimiento
En la siguiente tabla, se muestran las métricas de rendimiento de varias opciones de lectura de E/S de BigQuery. Las cargas de trabajo se ejecutaron en un trabajador e2-standard2
, con el SDK de Apache Beam 2.49.0 para Java. No usaron Runner v2.
100 millones de registros | 1 KB | 1 columna | Capacidad de procesamiento (bytes) | Capacidad de procesamiento (elementos) |
---|---|---|
Lectura de almacenamiento | 120 MBps | 88,000 elementos por segundo |
Exportación de Avro | 105 MBps | 78,000 elementos por segundo |
Exportación de Json | 110 MBps | 81,000 elementos por segundo |
Estas métricas se basan en canalizaciones por lotes simples. Están diseñadas para comparar el rendimiento entre los conectores de E/S y no representan necesariamente las canalizaciones del mundo real. El rendimiento de la canalización de Dataflow es complejo y es una función del tipo de VM, los datos que se procesan, el rendimiento de las fuentes y los receptores externos y el código de usuario. Las métricas se basan en la ejecución del SDK de Java y no representan las características de rendimiento de otros SDK de lenguaje. Para obtener más información, consulta Rendimiento de E/S de Beam.
Prácticas recomendadas
En general, recomendamos usar lecturas de tablas directas (
Method.DIRECT_READ
). La API de Storage Read es más adecuada para canalizaciones de datos que para trabajos de exportación, ya que no necesita el paso intermedio de exportar datos.Si usas lecturas directas, se te cobra por el uso de la API de Storage Read. Consulta Precios de extracción de datos en la página de precios de BigQuery.
Los trabajos de exportación no tienen costo adicional. Sin embargo, los trabajos de exportación tienen límites. Para movimientos de datos grandes, en los que la puntualidad es una prioridad y el costo es ajustable, se recomiendan las lecturas directas.
La API de Storage Read tiene límites de cuota. Usa las métricas de Google Cloud para supervisar el uso de la cuota.
Cuando usas la API de lectura de almacenamiento, es posible que veas errores de vencimiento y tiempo de espera de sesión en los registros, como los siguientes:
DEADLINE_EXCEEDED
Server Unresponsive
StatusCode.FAILED_PRECONDITION details = "there was an error operating on 'projects/<projectID>/locations/<location>/sessions/<sessionID>/streams/<streamID>': session
Estos errores pueden ocurrir cuando una operación tarda más que el tiempo de espera, por lo general, en canalizaciones que se ejecutan durante más de 6 horas. Para mitigar este problema, cambia a las exportaciones de archivos.
Cuando uses el SDK de Java, considera crear una clase que represente el esquema de la tabla de BigQuery. Luego, llama a
useBeamSchema
en tu canalización para convertir de forma automática entre los tipos deRow
de Apache Beam y BigQueryTableRow
. Para ver un ejemplo de una clase de esquema, consultaExampleModel.java
.
Ejemplos
Los ejemplos de código de esta sección usan lecturas de tablas directas.
Para usar un trabajo de exportación, omite la llamada a withMethod
o especifica Method.EXPORT
. Luego, configura la opción de canalización --tempLocation
a fin de especificar un depósito de Cloud Storage para los archivos exportados.
En estos ejemplos de código, se supone que la tabla de origen tiene las siguientes columnas:
name
(string)age
(entero)
Especificado como un archivo de esquema JSON:
[
{"name":"user_name","type":"STRING","mode":"REQUIRED"},
{"name":"age","type":"INTEGER","mode":"REQUIRED"}
]
Lee registros con formato Avro
Para leer datos de BigQuery en registros con formato Avro, usa el método read(SerializableFunction)
. Este método toma una función definida por la aplicación que analiza objetos SchemaAndRecord
y muestra un tipo de datos personalizado. El resultado del conector es una PCollection
de tu tipo de datos personalizado.
El siguiente código lee un PCollection<MyData>
de una tabla de BigQuery, en la que MyData
es una clase definida por la aplicación.
Java
Para autenticarte en Dataflow, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
El método read
toma una interfaz SerializableFunction<SchemaAndRecord, T>
, que define una función para convertir de los registros de Avro en una clase de datos personalizada. En el ejemplo de código anterior, el método MyData.apply
implementa esta función de conversión. La función de ejemplo analiza los campos name
y age
del registro de Avro y muestra una instancia MyData
.
Para especificar qué tabla de BigQuery leer, llama al método from
, como se muestra en el ejemplo anterior. Para obtener más información, consulta Nombres de tablas en la documentación del conector de E/S de BigQuery.
Lectura de objetos TableRow
El método readTableRows
lee datos de BigQuery en un PCollection
de objetos TableRow
. Cada TableRow
es un mapa de pares clave-valor que contiene una sola fila de datos de tabla. Especifica la tabla de BigQuery que se leerá mediante una llamada al método from
.
El siguiente código lee un PCollection<TableRows>
de una tabla de BigQuery.
Java
Para autenticarte en Dataflow, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
En este ejemplo, también se muestra cómo acceder a los valores del diccionario TableRow
.
Los valores enteros se codifican como cadenas para coincidir con el formato de JSON exportado de BigQuery.
Proyección y filtrado de columnas
Cuando se usan lecturas directas (Method.DIRECT_READ
), puedes hacer que las operaciones de lectura sean más eficientes si reduces la cantidad de datos que se leen de BigQuery y que se envían a través de la red.
- Proyección de columnas: Llama a
withSelectedFields
para leer un subconjunto de columnas de la tabla. Esto permite realizar lecturas eficientes cuando las tablas contienen muchas columnas. - Filtrado de filas: Llama a
withRowRestriction
para especificar un predicado que filtre los datos en el servidor.
Los predicados de filtro deben ser determinísticos y no se admite la agregación.
En el siguiente ejemplo, se proyectan las columnas "user_name"
y "age"
, y se filtran las filas que no coinciden con el predicado "age > 18"
.
Java
Para autenticarte en Dataflow, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
Lee desde el resultado de una consulta
En los ejemplos anteriores, se muestra cómo leer filas de una tabla. También puedes leer del resultado de una consulta en SQL llamando a fromQuery
. Este enfoque traslada parte del trabajo de procesamiento a BigQuery. También puedes usar este método para leer desde una vista de BigQuery o una vista materializada si ejecutas una consulta en la vista.
En el siguiente ejemplo, se ejecuta una consulta en un conjunto de datos públicos de BigQuery y se leen los resultados. Una vez que se ejecuta la canalización, puedes ver el trabajo de consulta en tu historial de trabajos de BigQuery.
Java
Para autenticarte en Dataflow, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
¿Qué sigue?
- Lee la documentación del conector de E/S de BigQuery.
- Consulta la lista de plantillas que proporciona Google.