Dataflow
Procesamiento de datos de streaming y por lotes unificado, rápido, rentable y sin servidor
Los nuevos clientes reciben 300 USD en crédito gratis para invertirlos en Dataflow.
-
Servicio totalmente gestionado de procesamiento de datos
-
Aprovisionamiento y gestión automáticos de recursos de procesamiento
-
Autoescalado horizontal de recursos de trabajadores para sacarles el máximo partido
-
Innovación en software libre motivada por la comunidad mediante el SDK de Apache Beam
-
Procesamiento exacto, fiable y uniforme
Ventajas
Haz analíticas de datos de streaming con rapidez
Dataflow permite desarrollar flujos de procesamiento de datos de streaming con menos latencia de datos de manera rápida y más sencilla.
Simplifica las operaciones y la gestión
Como Dataflow funciona sin servidor, desaparece la sobrecarga operativa que generan las cargas de trabajo de ingeniería de datos. Así, los equipos se pueden dedicar a programar en lugar de a gestionar clústeres de servidores.
Reduce el coste total de propiedad
Dataflow combina el autoescalado de recursos con las funciones de procesamiento por lotes con optimización de costes. Por eso, ofrece una capacidad casi ilimitada para gestionar cargas de trabajo temporales y con picos, y sin gastar más de la cuenta.
Características principales
Características principales
Autoescalado de recursos y restablecimiento dinámico del equilibrio de trabajo
Reduce al mínimo la latencia del flujo de procesamiento, aumenta la utilización de recursos y disminuye los costes de procesamiento de los registros de datos mediante el autoescalado de recursos basado en datos. El sistema realiza particiones automáticas de las entradas de datos que, a su vez, se nivelan constantemente para equilibrar la utilización de recursos de trabajadores y reducir el efecto de las "claves en caliente" en el rendimiento del flujo de procesamiento.
Programación y precios flexibles para el procesamiento por lotes
Algunas tareas se pueden programar de forma más flexible, por ejemplo, para ejecutarlas por la noche. En estos casos, el procesamiento por lotes cuesta menos si usas FlexRS, que es la programación flexible de recursos. Las tareas flexibles se ponen en cola, con la garantía de que se ejecutarán en un plazo máximo de seis horas.
Patrones de IA en tiempo real listos para usar
Las funciones de inteligencia artificial (IA) en tiempo real que ofrece Dataflow se habilitan mediante patrones listos para usarse, lo que te proporciona un sistema capaz de reaccionar al instante a grandes cantidades de eventos con una inteligencia casi humana. Los clientes pueden elaborar soluciones inteligentes de todo tipo, como análisis predictivos, detección de anomalías, personalización en tiempo real y otros usos de analíticas avanzadas.
Documentación
Documentación
Procesamiento de datos sin servidor con Dataflow: Foundations
Formación básica sobre todo lo que necesitas saber sobre Dataflow.
Guía de inicio rápido de Dataflow con Python
Configura tu proyecto de Google Cloud y el entorno de desarrollo de Python, hazte con el SDK de Apache Beam para Python y ejecuta y modifica el ejemplo de WordCount en el servicio Dataflow.
Usar Dataflow SQL
Usa la interfaz de usuario de Dataflow SQL para crear consultas SQL y desplegar las tareas de Dataflow que las ejecutan.
Instalar el SDK de Apache Beam
Instala el SDK de Apache Beam para ejecutar los flujos de procesamiento en el servicio Dataflow.
Aprendizaje automático con Apache Beam y TensorFlow
Preprocesa y entrena modelos de aprendizaje automático de energía molecular con Apache Beam, Dataflow y TensorFlow. Después, úsalos para hacer predicciones.
Tutorial de recuento de palabras de Dataflow usando Java
En este tutorial, aprenderás los conceptos básicos del servicio Cloud Dataflow. Para ello, ejecutarás un sencillo flujo de procesamiento de ejemplo usando el SDK de Apache Beam para Java.
Experimentos prácticos: procesar datos con Google Cloud Dataflow
Descubre cómo procesar un conjunto de datos basado en texto en tiempo real mediante Python y Dataflow para, posteriormente, almacenarlo en BigQuery.
Experimentos prácticos: procesamiento de streaming con Pub/Sub y Dataflow
Aprende a usar Dataflow para leer mensajes publicados en un tema de Pub/Sub, visualizar mensajes en función de sus marcas de tiempo y escribir mensajes en Cloud Storage.
Recursos de Dataflow
Consulta información sobre precios, cuotas de recursos y preguntas frecuentes, entre otros.
Usos
Usos
Gracias a las analíticas de streaming de Google, los datos están más organizados y son más útiles. Además, puedes acceder a ellos desde el instante en que se generan. Nuestra solución de streaming se basa en Dataflow, en Pub/Sub y en BigQuery. Aprovisiona los recursos que hacen falta para ingerir, procesar y analizar volúmenes variables de datos en tiempo real para obtener información empresarial útil al instante. Además de reducir la complejidad, este aprovisionamiento abstracto facilita que tanto analistas como ingenieros de datos hagan analíticas en tiempo real.
Dataflow envía eventos de streaming a las soluciones AI Platform y TensorFlow Extended (TFX) de Google Cloud para habilitar las analíticas predictivas, la detección de fraudes, la personalización en tiempo real y otros usos de analíticas avanzadas. TFX usa Dataflow y Apache Beam como motor de procesamiento distribuido de datos en diversos aspectos del ciclo de vida del aprendizaje automático, y todos ellos son compatibles con la integración y la entrega continuas (CI/CD) para aprendizaje automático mediante flujos de procesamiento de Kubeflow.
Obtén información valiosa para tu empresa a partir de tu red mundial de dispositivos con una plataforma inteligente del Internet de las cosas.
Todas las características
Todas las características
Autoescalado vertical (nuevo en Dataflow Prime) | Ajusta dinámicamente la capacidad de computación asignada a cada trabajador según el uso. El autoescalado vertical va de la mano del autoescalado horizontal para adaptar los trabajadores a las necesidades del flujo de procesamiento sin problemas y de la forma más adecuada. |
Ajuste adecuado (nuevo en Dataflow Prime) | Con la función de ajuste adecuado, se crean grupos de recursos específicos que se optimizan para cada fase con el objetivo de reducir el desaprovechamiento de recursos. |
Diagnósticos inteligentes (nuevo en Dataflow Prime) | Conjunto de varias funciones. En primer lugar, se incluye la gestión de flujos de procesamiento de datos basados en objetivos de nivel de servicio. En segundo lugar, se ofrecen funciones de visualización que permiten a los usuarios inspeccionar su gráfico de tareas de una forma visual e identificar cuellos de botella. Por último, se incluyen recomendaciones automáticas para identificar y ajustar los problemas de rendimiento y disponibilidad. |
Streaming Engine | Streaming Engine separa la computación del espacio de almacenamiento de estados y traslada partes de la ejecución de flujos de procesamiento fuera de las máquinas virtuales de trabajadores para ubicarlas en el backend del servicio Dataflow. Eso mejora considerablemente el autoescalado y la latencia de los datos. |
Autoescalado horizontal | Con el autoescalado horizontal, el servicio Dataflow puede seleccionar de forma automática la cantidad adecuada de instancias de trabajador necesarias para ejecutar las tareas. También es posible reasignar de manera dinámica más o menos trabajadores durante la ejecución de las tareas para adaptarse a sus requisitos específicos. |
Dataflow Shuffle | La función basada en servicios Dataflow Shuffle hace que la operación Shuffle, que se utiliza para agrupar y unir datos de flujos de procesamiento por lotes, se realice en el backend del servicio Dataflow en lugar de en las máquinas virtuales de trabajadores. De este modo, los flujos de procesamiento por lotes se pueden escalar de manera óptima y sin necesidad de ajustes para manejar cientos de terabytes. |
Dataflow SQL | Dataflow SQL te permite aplicar tus conocimientos de SQL para desarrollar flujos de procesamiento de streaming de Dataflow directamente desde la interfaz web de BigQuery. Puedes combinar los datos de streaming de Pub/Sub con archivos de Cloud Storage o tablas de BigQuery, escribir resultados en BigQuery y crear paneles en tiempo real mediante Hojas de cálculo de Google u otras herramientas de inteligencia empresarial. |
FlexRS | Dataflow FlexRS reduce los costes del procesamiento por lotes mediante técnicas avanzadas de programación, el servicio Dataflow Shuffle y una combinación de instancias de máquina virtual interrumpible y máquinas virtuales convencionales. |
Plantillas de Dataflow | Con las plantillas de Dataflow, podrás compartir fácilmente tus flujos de procesamiento con los miembros del equipo y con toda la organización. Si lo prefieres, también puedes utilizar alguna de las muchas plantillas creadas por Google para implementar tareas de procesamiento de datos sencillas pero útiles. Se incluyen plantillas de captura de datos de cambios para casos prácticos de analíticas en tiempo real. Con las plantillas flexibles, podrás crear plantillas a partir de cualquier flujo de procesamiento de Dataflow. |
Integración con Notebooks | Crea flujos de procesamiento desde cero de forma iterativa con Vertex AI Notebooks y despliégalos con el ejecutor de Dataflow. Para crear flujos de procesamiento de Apache Beam paso a paso, inspecciona los gráficos de los flujos en un flujo de trabajo de lectura, evaluación, impresión y bucle (REPL). Con Notebooks, que está disponible en Vertex AI de Google, podrás escribir flujos de procesamiento en un entorno intuitivo gracias a los frameworks de ciencia de datos y de aprendizaje automático de última generación. |
Captura de datos de cambios en tiempo real | Sincroniza o replica datos de forma fiable y con una latencia mínima en varias fuentes de datos heterogéneas para mejorar las analíticas en tiempo real. Las plantillas de Dataflow ampliables se integran con Datastream para replicar datos procedentes de Cloud Storage en BigQuery, PostgreSQL o Cloud Spanner. El conector de Debezium de Apache Beam es una opción de código abierto para ingerir los cambios de datos desde MySQL, PostgreSQL, SQL Server y Db2. |
Monitorización integrada | Con la monitorización integrada de Dataflow, podrás acceder directamente a las métricas de las tareas para solucionar problemas en los flujos de procesamiento por lotes y de streaming. Podrás acceder a los gráficos de monitorización desde los niveles de visibilidad de paso y de trabajador, así como configurar alertas según condiciones concretas, como que haya datos inactivos o que la latencia del sistema sea elevada. |
Claves de encriptado gestionadas por el cliente | Puedes crear flujos de procesamiento por lotes o de streaming y protegerlos con claves de encriptado gestionadas por el cliente (CMEK), así como acceder a datos de fuentes y de sumideros que estén protegidos con ese tipo de claves. |
Controles de Servicio de VPC de Dataflow | Gracias a la integración de Dataflow con los Controles de Servicio de VPC, te resultará más fácil evitar las filtraciones externas de datos. Esta capa de seguridad adicional reforzará tu entorno de procesamiento de datos. |
IP privadas | Si desactivas las IP públicas, proteges mejor la infraestructura de procesamiento de datos. Al no utilizar direcciones IP públicas para tus trabajadores de Dataflow, también reduces el número de direcciones que consumes de cara a la cuota de tus proyectos de Google Cloud. |
Precios
Precios
Las tareas de Dataflow se facturan por segundos, según el uso real de trabajadores de procesamiento por lotes o de streaming de Dataflow. Si utilizas otros recursos, como Cloud Storage o Pub/Sub, se te cobrarán las tarifas correspondientes a cada servicio.
Los productos de inteligencia artificial de Cloud cumplen las políticas del acuerdo de nivel de servicio. Pueden ofrecer garantías de latencia o disponibilidad diferentes respecto a otros servicios de Google Cloud.