Carga datos de Cloud Storage a BigQuery con Workflows

Last reviewed 2021-05-12 UTC

En este instructivo, se muestra cómo ejecutar flujos de trabajo sin servidores de manera confiable mediante Workflows, Cloud Functions y Firestore para cargar datos sin procesar, como registros de eventos, desde Cloud Storage hasta BigQuery. Por lo general, las plataformas de estadísticas tienen una herramienta de organización para cargar datos de forma periódica en BigQuery mediante trabajos de BigQuery y, luego, transformar los datos para proporcionar métricas empresariales mediante instrucciones de SQL, incluidas las instrucciones de lenguaje de procedimiento de BigQuery. Este instructivo está dirigido a desarrolladores y arquitectos que deseen compilar canalizaciones de procesamiento de datos sin servidores controladas por eventos. En el instructivo, se supone que estás familiarizado con YAML, SQL y Python.

Arquitectura

En el siguiente diagrama, se muestra la arquitectura de alto nivel de una canalización sin servidores de extracción, carga y transformación (ELT) con Workflows.

Canalización de extracción, carga y transformación

En el diagrama anterior, considera una plataforma de venta minorista que recopila eventos de ventas de forma periódica como archivos de varias tiendas y, luego, los escribe en un bucket de Cloud Storage. Los eventos se usan para proporcionar métricas empresariales mediante la importación y el procesamiento en BigQuery. Esta arquitectura proporciona un sistema de organización confiable y sin servidores para importar tus archivos a BigQuery y se divide en los siguientes dos módulos:

  • Lista de archivos: Mantiene la lista de archivos sin procesar agregados a un bucket de Cloud Storage en una colección de Firestore. Este módulo funciona a través de una función de Cloud Functions que se activa por un evento de almacenamiento de Finalización del objeto, que se genera cuando se agrega un archivo nuevo al bucket de Cloud Storage. El nombre del archivo se agrega al array files de la colección llamada new en Firestore.
  • Flujo de trabajo: Ejecuta los flujos de trabajo programados. Cloud Scheduler activa un flujo de trabajo que ejecuta una serie de pasos según una sintaxis basada en YAML para organizar la carga y, luego, transformar los datos en BigQuery mediante una llamada a Cloud Functions. Los pasos del flujo de trabajo llaman a Cloud Functions para ejecutar las siguientes tareas:

    • Crear y, luego, iniciar un trabajo de carga de BigQuery.
    • Consultar el estado del trabajo de carga.
    • Crear y, luego, iniciar el trabajo de consulta de transformación.
    • Consultar el estado del trabajo de transformación.

Usar las transacciones para mantener la lista de archivos nuevos en Firestore ayuda a garantizar que no se pierda ningún archivo cuando un flujo de trabajo los importe a BigQuery. Las ejecuciones separadas del flujo de trabajo se hacen idempotentes mediante el almacenamiento de metadatos y estados de trabajo en Firestore.

Objetivos

  • Crea una base de datos de Firestore.
  • Configurar un activador de Cloud Function para hacer un seguimiento de los archivos que se agregaron al bucket de Cloud Storage en Firestore.
  • Implementar Cloud Functions para ejecutar y supervisar trabajos de BigQuery.
  • Implementar y ejecutar un flujo de trabajo para automatizar el proceso.

Costos

En este documento, usarás los siguientes componentes facturables de Google Cloud:

Para generar una estimación de costos en función del uso previsto, usa la calculadora de precios. Es posible que los usuarios nuevos de Google Cloud califiquen para obtener una prueba gratuita.

Cuando finalices las tareas que se describen en este documento, puedes borrar los recursos que creaste para evitar que continúe la facturación. Para obtener más información, consulta Cómo realizar una limpieza.

Antes de comenzar

  1. En la página del selector de proyectos de la consola de Google Cloud, selecciona o crea un proyecto de Google Cloud.

    Ir al selector de proyectos

  2. Asegúrate de que la facturación esté habilitada para tu proyecto de Google Cloud.

  3. Habilita las API de Cloud Build, Cloud Functions, Identity and Access Management, Resource Manager, and Workflows.

    Habilita las API

  4. Ve a la página Te damos la bienvenida y toma nota del ID del proyecto para usarlo en un paso posterior.

    Ir a la Página de bienvenida

  5. En la consola de Google Cloud, activa Cloud Shell.

    Activar Cloud Shell

Prepare el entorno

Para preparar tu entorno, crea una base de datos de Firestore, clona las muestras de código del repositorio de GitHub, crea recursos con Terraform, edita el archivo YAML de Workflows y, luego, instala los requisitos para el generador de archivos.

  1. Para crear una base de datos de Firestore, sigue estos pasos:

    1. En la consola de Google Cloud, ve a la página Firestore.

      Ir a Firestore

    2. Haz clic en Seleccionar modo nativo.

    3. En el menú Selecciona una ubicación, selecciona la región en la que deseas alojar la base de datos de Firestore. Te recomendamos que elijas una región cercana a tu ubicación física.

    4. Haga clic en Create database.

  2. En Cloud Shell, clona el repositorio de código fuente:

    cd $HOME && git clone https://github.com/GoogleCloudPlatform/workflows-demos
    cd workflows-demos/workflows-bigquery-load
    
  3. En Cloud Shell, crea los siguientes recursos con Terraform:

    terraform init
    terraform apply \
        -var project_id=PROJECT_ID \
        -var region=REGION \
        -var zone=ZONE \
        --auto-approve
    

    Reemplaza lo siguiente:

    • PROJECT_ID: El ID del proyecto de Google Cloud.
    • REGION: Es una ubicación geográfica específica de Google Cloud para alojar tus recursos, por ejemplo, us-central1
    • ZONE: es una ubicación dentro de una región para alojar tus recursos, por ejemplo, us-central1-b.

    Deberías ver un mensaje similar al siguiente: Apply complete! Resources: 7 added, 0 changed, 1 destroyed.

    Terraform puede ayudarte a crear, cambiar y actualizar la infraestructura a gran escala de forma segura y predecible. Los siguientes recursos se crean en tu proyecto:

    • Cuentas de servicio con los privilegios necesarios para garantizar un acceso seguro a tus recursos
    • Un conjunto de datos de BigQuery llamado serverless_elt_dataset y una tabla llamada word_count para cargar los archivos entrantes.
    • Un bucket de Cloud Storage llamado ${project_id}-ordersbucket para los archivos de entrada de etapa de pruebas.
    • Las siguientes cinco funciones de Cloud Functions:
      • file_add_handler agrega el nombre de los archivos que se agregan al bucket de Cloud Storage a la colección de Firestore.
      • create_job crea un trabajo de carga nuevo de BigQuery y asocia los archivos de la colección de Firebase con el trabajo.
      • create_query crea un nuevo trabajo de consulta de BigQuery.
      • poll_bigquery_job obtiene el estado de un trabajo de BigQuery.
      • run_bigquery_job inicia un trabajo de BigQuery.
  4. Obtén las URL de las funciones de Cloud Functions create_job, create_query, poll_job y run_bigquery_job que implementaste en el paso anterior.

    gcloud functions describe create_job | grep url
    gcloud functions describe poll_bigquery_job | grep url
    gcloud functions describe run_bigquery_job | grep url
    gcloud functions describe create_query | grep url
    

    El resultado es similar al siguiente:

    url: https://REGION-PROJECT_ID.cloudfunctions.net/create_job
    url: https://REGION-PROJECT_ID.cloudfunctions.net/poll_bigquery_job
    url: https://REGION-PROJECT_ID.cloudfunctions.net/run_bigquery_job
    url: https://REGION-PROJECT_ID.cloudfunctions.net/create_query
    

    Toma nota de estas URLs, ya que son necesarias cuando implementes tu flujo de trabajo.

Crea e implementa un flujo de trabajo

  1. En Cloud Shell, abre el archivo de origen para el flujo de trabajo, workflow.yaml:

    main:
      steps:
        - constants:
            assign:
              - create_job_url: CREATE_JOB_URL
              - poll_job_url: POLL_BIGQUERY_JOB_URL
              - run_job_url: RUN_BIGQUERY_JOB_URL
              - create_query_url: CREATE_QUERY_URL
              - region: BQ_REGION
              - table_name: BQ_DATASET_TABLE_NAME
            next: createJob
    
        - createJob:
            call: http.get
            args:
              url: ${create_job_url}
              auth:
                  type: OIDC
              query:
                  region: ${region}
                  table_name: ${table_name}
            result: job
            next: setJobId
    
        - setJobId:
            assign:
              - job_id: ${job.body.job_id}
            next: jobCreateCheck
    
        - jobCreateCheck:
            switch:
              - condition: ${job_id == Null}
                next: noOpJob
            next: runLoadJob
    
        - runLoadJob:
            call: runBigQueryJob
            args:
                job_id: ${job_id}
                run_job_url: ${run_job_url}
                poll_job_url: ${poll_job_url}
            result: jobStatus
            next: loadRunCheck
    
        - loadRunCheck:
            switch:
              - condition: ${jobStatus == 2}
                next: createQueryJob
            next: failedLoadJob
    
        - createQueryJob:
            call: http.get
            args:
              url: ${create_query_url}
              query:
                  qs: "select count(*) from serverless_elt_dataset.word_count"
                  region: "US"
              auth:
                  type: OIDC
            result: queryjob
            next: setQueryJobId
    
        - setQueryJobId:
            assign:
              - qid: ${queryjob.body.job_id}
            next: queryCreateCheck
    
        - queryCreateCheck:
            switch:
              - condition: ${qid == Null}
                next: failedQueryJob
            next: runQueryJob
    
        - runQueryJob:
            call: runBigQueryJob
            args:
              job_id: ${qid}
              run_job_url: ${run_job_url}
              poll_job_url: ${poll_job_url}
            result: queryJobState
            next: runQueryCheck
    
        - runQueryCheck:
            switch:
              - condition: ${queryJobState == 2}
                next: allDone
            next: failedQueryJob
    
        - noOpJob:
            return: "No files to import"
            next: end
    
        - allDone:
            return: "All done!"
            next: end
    
        - failedQueryJob:
            return: "Query job failed"
            next: end
    
        - failedLoadJob:
            return: "Load job failed"
            next: end
    
    runBigQueryJob:
      params: [job_id, run_job_url, poll_job_url]
      steps:
        - startBigQueryJob:
            try:
              call: http.get
              args:
                  url: ${run_job_url}
                  query:
                    job_id: ${job_id}
                  auth:
                    type: OIDC
                  timeout: 600
              result: submitJobState
            retry: ${http.default_retry}
            next: validateSubmit
    
        - validateSubmit:
            switch:
              - condition: ${submitJobState.body.status == 1}
                next: sleepAndPollLoad
            next: returnState
    
        - returnState:
            return: ${submitJobState.body.status}
    
        - sleepAndPollLoad:
            call: sys.sleep
            args:
              seconds: 5
            next: pollJob
    
        - pollJob:
            try:
              call: http.get
              args:
                url: ${poll_job_url}
                query:
                  job_id: ${job_id}
                auth:
                  type: OIDC
                timeout: 600
              result: pollJobState
            retry:
              predicate: ${http.default_retry_predicate}
              max_retries: 10
              backoff:
                initial_delay: 1
                max_delay: 60
                multiplier: 2
            next: stateCheck
    
        - stateCheck:
            switch:
              - condition: ${pollJobState.body.status == 2}
                return: ${pollJobState.body.status}
              - condition: ${pollJobState.body.status == 3}
                return: ${pollJobState.body.status}
            next: sleepAndPollLoad

    Reemplaza lo siguiente:

    • CREATE_JOB_URL: la URL de la función para crear un trabajo nuevo.
    • POLL_BIGQUERY_JOB_URL: la URL de la función que consulta el estado de un trabajo en ejecución.
    • RUN_BIGQUERY_JOB_URL: la URL de la función para iniciar un trabajo de carga de BigQuery.
    • CREATE_QUERY_URL: la URL de la función que inicia un trabajo de consulta de BigQuery.
    • BQ_REGION: la región de BigQuery en la que se almacenan los datos, por ejemplo, US
    • BQ_DATASET_TABLE_NAME: Es el nombre de la tabla del conjunto de datos de BigQuery en el formato PROJECT_ID.serverless_elt_dataset.word_count.
  2. Implementa el archivo workflow:

    gcloud workflows deploy WORKFLOW_NAME \
        --location=WORKFLOW_REGION \
        --description='WORKFLOW_DESCRIPTION' \
        --service-account=workflow-runner@PROJECT_ID.iam.gserviceaccount.com \
        --source=workflow.yaml
    

    Reemplaza lo siguiente:

    • WORKFLOW_NAME: el nombre único del flujo de trabajo.
    • WORKFLOW_REGION: la región en la que se implementa el flujo de trabajo, por ejemplo, us-central1
    • WORKFLOW_DESCRIPTION: la descripción del flujo de trabajo.
  3. Crea un entorno virtual de Python 3 y, luego, instala los requisitos para el generador de archivos:

    sudo apt-get install -y python3-venv
    python3 -m venv env
    . env/bin/activate
    cd generator
    pip install -r requirements.txt
    

Genera archivos para importar

La secuencia de comandos gen.py de Python genera contenido aleatorio en formato Avro. El esquema es el mismo que el de la tabla word_count de BigQuery. Estos archivos de Avro se copian en el bucket de Cloud Storage especificado.

En Cloud Shell, genera los archivos:

python gen.py -p PROJECT_ID \
    -o PROJECT_ID-ordersbucket \
    -n RECORDS_PER_FILE \
    -f NUM_FILES \
    -x FILE_PREFIX

Reemplaza lo siguiente:

  • RECORDS_PER_FILE: la cantidad de registros en un solo archivo.
  • NUM_FILES: la cantidad total de archivos que se subirán
  • FILE_PREFIX: el prefijo de los nombres de los archivos generados.

Visualiza entradas de archivos en Firestore

Cuando se copian los archivos en Cloud Storage, se activa la función handle_new_file de Cloud Functions. Esta función agrega la lista de archivos al array de la lista en el documento new de la colección jobs de Firestore.

Para ver la lista de archivos, en Google Cloud Console, ve a la página Datos de Firestore.

Ir a Datos

Lista de archivos agregados a la colección.

Activa el flujo de trabajo

Los flujos de trabajo vinculan una serie de tareas sin servidores desde Google Cloud y los servicios de API. Los pasos individuales de este flujo de trabajo se ejecutan como Cloud Functions y el estado se almacena en Firestore. Todas las llamadas a Cloud Functions se autentican mediante la cuenta de servicio del flujo de trabajo.

En Cloud Shell, ejecuta el flujo de trabajo como se indica a continuación:

gcloud workflows execute WORKFLOW_NAME

En el siguiente diagrama, se muestran los pasos que se usaron en el flujo de trabajo:

Pasos usados en el flujo de trabajo principal y secundario.

El flujo de trabajo se divide en dos partes: el flujo de trabajo principal y el flujo de trabajo secundario. El flujo de trabajo principal controla la creación de trabajos y la ejecución condicional mientras que el flujo de trabajo secundario ejecuta un trabajo de BigQuery. El flujo de trabajo realiza las siguientes operaciones:

  • Cloud Function create_job crea un objeto de trabajo nuevo, obtiene la lista de archivos agregados a Cloud Storage desde el documento de Firestore y asocia los archivos con el trabajo de carga. Si no hay archivos para cargar, la función no crea un trabajo nuevo.
  • Cloud Function create_query toma la consulta que debe ejecutarse junto con la región de BigQuery en la que se debe ejecutar la consulta. La función crea el trabajo en Firestore y muestra el ID del trabajo.
  • Cloud Function run_bigquery_job obtiene el ID del trabajo que se debe ejecutar y, luego, llama a la API de BigQuery para enviar el trabajo.
  • En lugar de esperar a que el trabajo se complete en Cloud Functions, puedes consultar de forma periódica el estado del trabajo.
    • Cloud Function poll_bigquery_job proporciona el estado del trabajo. Se llama de forma reiterada hasta que se completa el trabajo.
    • Para agregar un retraso entre las llamadas a la Cloud Function poll_bigquery_job, se llama a una rutina sleep desde Workflows.

Visualiza el estado del trabajo

Puedes ver la lista de archivos y el estado del trabajo.

  1. En la consola de Google Cloud, ve a la página Datos de Firestore.

    Ir a Datos

  2. Se genera un identificador único (UUID) para cada trabajo. Para ver los job_type y status, haz clic en el ID de trabajo. Cada trabajo puede tener uno de los siguientes tipos y estados:

    • job_type: Es el tipo de trabajo que ejecuta el flujo de trabajo con uno de los siguientes valores:

      • 0: Carga datos en BigQuery.
      • 1: Ejecuta una consulta en BigQuery.
    • status: Es el estado actual del trabajo con uno de los siguientes valores:

      • 0: Se creó el trabajo, pero no se inició.
      • 1: El trabajo se está ejecutando.
      • 2: El trabajo se completó correctamente.
      • 3: Se produjo un error y el trabajo no se completó correctamente.

    El objeto de trabajo también contiene atributos de metadatos como la región del conjunto de datos de BigQuery, el nombre de la tabla de BigQuery y, si es un trabajo de consulta, la cadena de consulta que se ejecuta.

Lista de archivos con el estado del trabajo destacado.

Visualiza datos en BigQuery

Para confirmar que el trabajo de ELT se realizó de forma correcta, verifica que los datos aparezcan en la tabla.

  1. En la consola de Google Cloud, ve a la página Editor de BigQuery.

    Ir al editor

  2. Haz clic en la tabla serverless_elt_dataset.word_count.

  3. Haz clic en la pestaña Vista previa.

    Pestaña Vista previa que muestra los datos de la tabla.

Programa el flujo de trabajo

Para ejecutar el flujo de trabajo de forma periódica, puedes usar Cloud Scheduler.

Limpia

La manera más fácil de eliminar la facturación es borrar el proyecto de Google Cloud que creaste para el instructivo. Como alternativa, puedes borrar los recursos individuales.

Borra los recursos individuales

  1. En Cloud Shell, quita todos los recursos creados mediante Terraform:

    cd $HOME/bigquery-workflows-load
    terraform destroy \
    -var project_id=PROJECT_ID \
    -var region=REGION \
    -var zone=ZONE \
    --auto-approve
    
  2. En la consola de Google Cloud, ve a la página Datos de Firestore.

    Ir a Datos

  3. Junto a Trabajos, haz clic en Menú y selecciona Borrar.

    Ruta de acceso del menú para borrar una colección.

Borra el proyecto

  1. En la consola de Google Cloud, ve a la página Administrar recursos.

    Ir a Administrar recursos

  2. En la lista de proyectos, elige el proyecto que quieres borrar y haz clic en Borrar.
  3. En el diálogo, escribe el ID del proyecto y, luego, haz clic en Cerrar para borrar el proyecto.

¿Qué sigue?