Conector de BigQuery

Puedes usar un conector de BigQuery para habilitar el acceso de lectura o escritura de manera programática a BigQuery. Esta es una forma ideal de procesar datos que se almacenan en BigQuery. El acceso a la línea de comandos no está expuesto. El conector de BigQuery es una biblioteca que permite que las aplicaciones de Spark y Hadoop procesen datos de BigQuery y escriban datos en BigQuery con su terminología nativa.

Consideraciones sobre el precio

Cuando usas el conector, los cargos incluyen tarifas de uso de BigQuery. Es posible que también se apliquen los siguientes cargos específicos del servicio:

  • Cloud Storage: el conector descarga datos en un depósito de Cloud Storage antes o durante la ejecución del trabajo. Una vez que el trabajo se completa con éxito, los datos se borran de Cloud Storage. Se te cobra por este almacenamiento según los precios de Cloud Storage. Para evitar cargos excesivos, revisa tu cuenta de Cloud Storage y quita los archivos temporales innecesarios.
  • API de BigQuery Storage: para lograr un mejor rendimiento, el conector lee los datos con la API de BigQuery Storage. Se te cobra por este uso según los precios de la API de BigQuery Storage.

Conectores disponibles

Los siguientes conectores de BigQuery están disponibles para su uso en el ecosistema de Hadoop:

  1. El conector de Spark BigQuery agrega una fuente de datos de Spark, que permite que DataFrames interactúe directamente con las tablas de BigQuery mediante operaciones read y write conocidas.
  2. El conector de Hadoop BigQuery permite que los asignadores y reductores de Hadoop interactúen con las tablas de BigQuery mediante versiones abstractas de las clases InputFormat y OutputFormat.

Usa los conectores

Para un inicio rápido mediante el conector de BigQuery, consulta los siguientes ejemplos:

Qué sigue