Asociaciones e integraciones de Dataflow

Los socios de Google Cloud integraron Dataflow con algunos de los productos líderes en la industria para el análisis y el procesamiento de datos. Las integraciones se realizan con API abiertas proporcionadas por Dataflow.

Integraciones de servicios de Dataflow

Logotipo de Confluent

Confluent Cloud es un servicio de transmisión de datos completamente administrado basado en Apache Kafka de código abierto. Los ingenieros que quieran complilar aplicaciones de transmisión pueden comenzar en minutos con un clúster de Kafka completamente desarrollado y servicios relacionados. Al ofrecer el ANS más alto de la industria y respaldado por la profunda experiencia de los creadores de Apache Kafka, Confluent Cloud le permite implementar aplicaciones críticas para su empresa a cualquier escala y con plena confianza. Dataflow ofrece integración total con Apache Kafka como fuente/receptor para las canalizaciones de transmisión, y Confluent Cloud puede ayudar a reducir aún más la sobrecarga de administración para tu infraestructura de transmisión.

Logotipo de Talend

Talend Cloud ofrece una plataforma única para tareas de integración de datos simples y complejas en la nube pública, privada e híbrida, además de entornos locales, y permite una mayor colaboración entre los equipos de TI y de negocios. Combinada con soluciones de autoservicio y cientos de conectores preconfigurados de aplicaciones SaaS, Talend le permite satisfacer de manera rentable las demandas de volúmenes de datos, usuarios y casos prácticos cada vez mayores. Talend Cloud ofrece a los desarrolladores un editor visual para construir canalizaciones de datos ejecutadas con el servicio de Dataflow.

Logotipo de Snowplow

Con Snowplow, puedes recopilar datos de eventos enriquecidos y de alta calidad de todas tus plataformas y productos. Sus datos están disponibles en tiempo real y se envían a BigQuery o a su almacén de datos, donde pueden unirse fácilmente a otros conjuntos de datos y usarse para impulsar herramientas de IE, informes personalizados o modelos de aprendizaje automático.

La canalización de Snowplow usa Dataflow para el procesamiento de datos y se ejecuta en tu proyecto de Google Cloud, lo que te otorga la propiedad y el control completos de tus datos. Consulte un ejemplo de extremo a extremo aquí.

Corredores del SDK de Dataflow

Logotipo de Ververica

Ververica habilita estadísticas de transmisiones para masas a través de su plataforma de código abierto Apache Flink, un motor de procesamiento de transmisión que proporciona distribución de datos, comunicación y tolerancia a errores para cálculos distribuidos sobre flujos de datos. Apache Flink proporciona un backend portátil para tus programas escritos en Apache Beam, el SDK de código abierto para Dataflow. Obtén más información sobre el corredor de Flink aquí o la vista en GitHub.