Exporta resultados de consultas a Blob Storage

En este documento, se describe cómo exportar el resultado de una consulta que se ejecuta en una tabla de BigLake a tu Azure Blob Storage.

Para obtener más información sobre cómo fluyen los datos entre BigQuery y Azure Blob Storage, consulta Flujo de datos cuando se exportan datos.

Antes de comenzar

Asegúrate de que tienes los siguientes recursos:

Exportar resultados de consultas

BigQuery Omni escribe en la ubicación especificada de Azure Blob Storage, sin importar el contenido existente. La consulta de exportación puede reemplazar los datos existentes o combinar el resultado de la consulta con los datos existentes. Recomendamos que exportes el resultado de la consulta a un contenedor vacío de Blob Storage.

  1. En la consola de Google Cloud, ve a la página de BigQuery.

    Ir a BigQuery

  2. En el campo Editor de consultas, ingresa una consulta de exportación de GoogleSQL.

    EXPORT DATA WITH CONNECTION \`CONNECTION_REGION.CONNECTION_NAME\`
    OPTIONS(
      uri="azure://AZURE_STORAGE_ACCOUNT_NAME.blob.core.windows.net/CONTAINER_NAME/FILE_PATH/*",
      format="FORMAT"
    )
    AS QUERY
    

    Reemplaza lo siguiente:

    • CONNECTION_REGION: La región en la que se creó la conexión.
    • CONNECTION_NAME: el nombre de conexión que creaste con el permiso necesario para escribir en el contenedor.
    • AZURE_STORAGE_ACCOUNT_NAME: el nombre de la cuenta de Blob Storage en la que deseas escribir el resultado de la consulta.
    • CONTAINER_NAME: el nombre del contenedor en el que deseas escribir el resultado de la consulta.
    • FILE_PATH: la ruta en la que deseas escribir el archivo exportado. Debe contener exactamente un comodín * en cualquier lugar del directorio hoja de la string de ruta de acceso, por ejemplo, ../aa/*, ../aa/b*c, ../aa/*bc y ../aa/bc*. BigQuery reemplaza * por 0000..N, según la cantidad de archivos exportados. BigQuery determina el recuento y los tamaños de archivos. Si BigQuery decide exportar dos archivos, entonces se reemplaza * en el nombre de archivo del primer archivo por 000000000000 y * en el segundo nombre del archivo, se reemplaza por 000000000001.
    • FORMAT: Los formatos compatibles son JSON, AVRO, CSV y PARQUET.
    • QUERY: la consulta para analizar los datos que se almacenan en una tabla de BigLake.

Soluciona problemas

Si obtienes un error relacionado con quota failure, verifica si reservaste capacidad para tus consultas. Para obtener más información sobre las reservas de ranuras, consulta Antes de comenzar en este documento.

Limitaciones

Para obtener una lista completa de las limitaciones que se aplican a las tablas de BigLake basadas en Amazon S3 y Blob Storage, consulta Limitaciones.

¿Qué sigue?