Descubre las diferentes arquitecturas con las que implementar analíticas en tiempo real en la sesión de Next Generar valor al instante con analíticas en tiempo real.

Ir a

Dataflow

Procesamiento de datos de streaming y por lotes unificado, rápido, rentable y sin servidor

Los nuevos clientes reciben 300 USD en crédito gratuito para invertirlos en Dataflow o en otros productos de Google Cloud durante los primeros 90 días. 

  • action/check_circle_24px Creado con Sketch

    Servicio totalmente gestionado de procesamiento de datos

  • action/check_circle_24px Creado con Sketch

    Aprovisionamiento y gestión automáticos de recursos de procesamiento

  • action/check_circle_24px Creado con Sketch

    Autoescalado horizontal de recursos de trabajadores para sacarles el máximo partido

  • action/check_circle_24px Creado con Sketch

    Innovación en software libre motivada por la comunidad mediante el SDK de Apache Beam

  • action/check_circle_24px Creado con Sketch

    Procesamiento exacto, fiable y uniforme

Ventajas

Haz analíticas de datos de streaming con rapidez

Dataflow permite desarrollar flujos de procesamiento de datos de streaming con menos latencia de datos de manera rápida y más sencilla.

Simplifica las operaciones y la gestión

Como Dataflow funciona sin servidor, desaparece la sobrecarga operativa que generan las cargas de trabajo de ingeniería de datos. Así, los equipos se pueden dedicar a programar en lugar de a gestionar clústeres de servidores.

Reduce el coste total de propiedad

Dataflow combina el autoescalado de recursos con las funciones de procesamiento por lotes con optimización de costes. Por eso, ofrece una capacidad casi ilimitada para gestionar cargas de trabajo temporales y con picos, y sin gastar más de la cuenta.

Características principales

Características principales

Autoescalado de recursos y restablecimiento dinámico del equilibrio de trabajo

Reduce al mínimo la latencia del flujo de procesamiento, aumenta la utilización de recursos y disminuye los costes de procesamiento de los registros de datos mediante el autoescalado de recursos basado en datos. El sistema realiza particiones automáticas de las entradas de datos que, a su vez, se nivelan constantemente para equilibrar la utilización de recursos de trabajadores y reducir el efecto de las "claves en caliente" en el rendimiento del flujo de procesamiento.

Programación y precios flexibles para el procesamiento por lotes

Algunas tareas se pueden programar de forma más flexible, por ejemplo, para ejecutarlas por la noche. En estos casos, el procesamiento por lotes cuesta menos si usas FlexRS, que es la programación flexible de recursos. Las tareas flexibles se ponen en cola, con la garantía de que se ejecutarán en un plazo máximo de seis horas.

Patrones de IA en tiempo real listos para usar

Las funciones de inteligencia artificial (IA) en tiempo real que ofrece Dataflow se habilitan mediante patrones listos para usarse, lo que te proporciona un sistema capaz de reaccionar al instante a grandes cantidades de eventos con una inteligencia casi humana. Los clientes pueden elaborar soluciones inteligentes de todo tipo, como análisis predictivos, detección de anomalías, personalización en tiempo real y otros usos de analíticas avanzadas. 

Ver todas las características

Documentación

Documentación

Tutorial
Guía de inicio rápido de Dataflow con Python

Configura tu proyecto de Google Cloud y el entorno de desarrollo de Python, hazte con el SDK de Apache Beam para Python y ejecuta y modifica el ejemplo de WordCount en el servicio Dataflow.

Tutorial
Usar Dataflow SQL

Usa la interfaz de usuario de Dataflow SQL para crear consultas SQL y desplegar las tareas de Dataflow que las ejecutan.

Tutorial
Instalar el SDK de Apache Beam

Instala el SDK de Apache Beam para ejecutar los flujos de procesamiento en el servicio Dataflow.

Tutorial
Aprendizaje automático con Apache Beam y TensorFlow

Preprocesa y entrena modelos de aprendizaje automático de energía molecular con Apache Beam, Dataflow y TensorFlow. Después, úsalos para hacer predicciones.

Tutorial
Tutorial de recuento de palabras de Dataflow usando Java

En este tutorial, aprenderás los conceptos básicos del servicio Cloud Dataflow. Para ello, ejecutarás un sencillo flujo de procesamiento de ejemplo usando el SDK de Apache Beam para Java.

Tutorial
Experimentos prácticos: procesar datos con Google Cloud Dataflow

Descubre cómo procesar un conjunto de datos basado en texto en tiempo real mediante Python y Dataflow para, posteriormente, almacenarlo en BigQuery.

Tutorial
Experimentos prácticos: procesamiento de streaming con Pub/Sub y Dataflow

Aprende a usar Dataflow para leer mensajes publicados en un tema de Pub/Sub, visualizar mensajes en función de sus marcas de tiempo y escribir mensajes en Cloud Storage.

Aspectos básicos de Google Cloud
Recursos de Dataflow

Consulta información sobre precios, cuotas de recursos y preguntas frecuentes, entre otros.

Usos

Casos prácticos

Uso
Analíticas de streaming

Gracias a las analíticas de streaming de Google, los datos están más organizados y son más útiles. Además, puedes acceder a ellos desde el instante en que se generan. Nuestra solución de streaming se basa en Dataflow, en Pub/Sub y en BigQuery. Aprovisiona los recursos que hacen falta para ingerir, procesar y analizar volúmenes variables de datos en tiempo real para obtener información empresarial útil al instante. Además de reducir la complejidad, este aprovisionamiento abstracto facilita que tanto analistas como ingenieros de datos hagan analíticas en tiempo real.

Flujo de 5 columnas: Activadores, Ingestión, Enriquecimiento, Análisis y Activación. Cada columna tiene una sección superior y otra inferior. En la sección superior de la columna Activadores se muestran varios dispositivos perimetrales (dispositivos móviles, sitios web, almacenes de datos e Internet de las cosas). Desde los dispositivos, los datos pasan a Pub/Sub, en la columna Ingestión y, después, a Apache Beam y al streaming de Dataflow, en la columna Enriquecimiento. Después, pasan a la columna Análisis y Activación, desde donde vuelven a los dispositivos perimetrales de la columna 1. Los datos van y vienen desde Apache Beam, en la columna 3, hacia BigQuery, AI Platform y Bigtable, en la columna Análisis. Los tres elementos pasan por la reposición y el reprocesamiento por lotes de Dataflow. Después, los datos pasan desde BigQuery a la columna Activación y, en concreto, a Data Studio, las herramientas de inteligencia empresarial de terceros y Cloud Functions, desde donde vuelven a los dispositivos perimetrales en la columna 1. En la sección inferior de las columnas, aparece el texto "Flujo de creación". En la columna Activadores se muestra el texto "Configura una fuente para enviar los mensajes de evento al tema de Pub/Sub". En la columna Ingestión, se lee "Crea temas de Pub/Sub y suscripciones" En la columna Enriquecimiento, se muestra el texto "Despliega tareas de Dataflow de streaming o por lotes con plantillas, la interfaz de línea de comandos o los cuadernos". En la columna Análisis se lee "Crea conjuntos de datos, tablas y modelos para recibir la emisión". Finalmente, en la columna Activación, se muestra el texto "Crea paneles en tiempo real y haz llamadas a APIs externas".
Uso
Procesamiento de datos de sensores y de registros

Obtén información valiosa para tu empresa a partir de tu red mundial de dispositivos con una plataforma inteligente del Internet de las cosas.

Todas las características

Todas las características

Autoescalado vertical (nuevo en Dataflow Prime) Ajusta dinámicamente la capacidad de computación asignada a cada trabajador según el uso. El autoescalado vertical va de la mano del autoescalado horizontal para adaptar los trabajadores a las necesidades del flujo de procesamiento sin problemas y de la forma más adecuada.
Ajuste adecuado (nuevo en Dataflow Prime) Con la función de ajuste adecuado, se crean grupos de recursos específicos que se optimizan para cada fase con el objetivo de reducir el desaprovechamiento de recursos.
Diagnósticos inteligentes (nuevo en Dataflow Prime) Conjunto de varias funciones. En primer lugar, se incluye la gestión de flujos de procesamiento de datos basados en objetivos de nivel de servicio. En segundo lugar, se ofrecen funciones de visualización que permiten a los usuarios inspeccionar su gráfico de tareas de una forma visual e identificar cuellos de botella. Por último, se incluyen recomendaciones automáticas para identificar y ajustar los problemas de rendimiento y disponibilidad. 
Streaming Engine Streaming Engine separa la computación del espacio de almacenamiento de estados y traslada partes de la ejecución de flujos de procesamiento fuera de las máquinas virtuales de trabajadores para ubicarlas en el backend del servicio Dataflow. Eso mejora considerablemente el autoescalado y la latencia de los datos.
Autoescalado horizontal Con el autoescalado horizontal, el servicio Dataflow puede seleccionar de forma automática la cantidad adecuada de instancias de trabajador necesarias para ejecutar las tareas. También es posible reasignar de manera dinámica más o menos trabajadores durante la ejecución de las tareas para adaptarse a sus requisitos específicos.
Dataflow Shuffle La función basada en servicios Dataflow Shuffle hace que la operación Shuffle, que se utiliza para agrupar y unir datos de flujos de procesamiento por lotes, se realice en el backend del servicio Dataflow en lugar de en las máquinas virtuales de trabajadores. De este modo, los flujos de procesamiento por lotes se pueden escalar de manera óptima y sin necesidad de ajustes para manejar cientos de terabytes.
Dataflow SQL Dataflow SQL te permite aplicar tus conocimientos de SQL para desarrollar flujos de procesamiento de streaming de Dataflow directamente desde la interfaz web de BigQuery. Puedes combinar los datos de streaming de Pub/Sub con archivos de Cloud Storage o tablas de BigQuery, escribir resultados en BigQuery y crear paneles en tiempo real mediante Hojas de cálculo de Google u otras herramientas de inteligencia empresarial.
FlexRS Dataflow FlexRS reduce los costes del procesamiento por lotes mediante técnicas avanzadas de programación, el servicio Dataflow Shuffle y una combinación de instancias de máquina virtual interrumpible y máquinas virtuales convencionales.
Plantillas de Dataflow Con las plantillas de Dataflow, podrás compartir fácilmente tus flujos de procesamiento con los miembros del equipo y con toda la organización. Si lo prefieres, también puedes utilizar alguna de las muchas plantillas creadas por Google para implementar tareas de procesamiento de datos sencillas pero útiles. Se incluyen plantillas de captura de datos de cambios para casos prácticos de analíticas en tiempo real. Con las plantillas flexibles, podrás crear plantillas a partir de cualquier flujo de procesamiento de Dataflow.
Integración con Notebooks Crea flujos de procesamiento desde cero de forma iterativa con Vertex AI Notebooks y despliégalos con el ejecutor de Dataflow. Para crear flujos de procesamiento de Apache Beam paso a paso, inspecciona los gráficos de los flujos en un flujo de trabajo de lectura, evaluación, impresión y bucle (REPL). Con Notebooks, que está disponible en Vertex AI de Google, podrás escribir flujos de procesamiento en un entorno intuitivo gracias a los frameworks de ciencia de datos y de aprendizaje automático de última generación.
Captura de datos de cambios en tiempo real Sincroniza o replica datos de forma fiable y con una latencia mínima en varias fuentes de datos heterogéneas para mejorar las analíticas en tiempo real. Las plantillas de Dataflow ampliables se integran con Datastream para replicar datos procedentes de Cloud Storage en BigQuery, PostgreSQL o Cloud Spanner. El conector de Debezium de Apache Beam es una opción de código abierto para ingerir los cambios de datos desde MySQL, PostgreSQL, SQL Server y Db2.
Monitorización integrada Con la monitorización integrada de Dataflow, podrás acceder directamente a las métricas de las tareas para solucionar problemas en los flujos de procesamiento por lotes y de streaming. Podrás acceder a los gráficos de monitorización desde los niveles de visibilidad de paso y de trabajador, así como configurar alertas según condiciones concretas, como que haya datos inactivos o que la latencia del sistema sea elevada.
Claves de encriptado gestionadas por el cliente Puedes crear flujos de procesamiento por lotes o de streaming y protegerlos con claves de encriptado gestionadas por el cliente (CMEK), así como acceder a datos de fuentes y de sumideros que estén protegidos con ese tipo de claves.
Controles de Servicio de VPC de Dataflow Gracias a la integración de Dataflow con los Controles de Servicio de VPC, te resultará más fácil evitar las filtraciones externas de datos. Esta capa de seguridad adicional reforzará tu entorno de procesamiento de datos.
IP privadas Si desactivas las IP públicas, proteges mejor la infraestructura de procesamiento de datos. Al no utilizar direcciones IP públicas para tus trabajadores de Dataflow, también reduces el número de direcciones que consumes de cara a la cuota de tus proyectos de Google Cloud.

Precios

Precios

Las tareas de Dataflow se facturan por segundos, según el uso real de trabajadores de procesamiento por lotes o de streaming de Dataflow. Si utilizas otros recursos, como Cloud Storage o Pub/Sub, se te cobrarán las tarifas correspondientes a cada servicio.

Partners

Descubrir soluciones de partners

Algunos Google Cloud Partners han desarrollado integraciones con Dataflow para ejecutar tareas potentes de procesamiento de datos de forma rápida y sencilla, independientemente de su tamaño.