Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Datastream es un servicio de replicación y captura de datos modificados (CDC) sin servidores y fácil de usar que te permite sincronizar datos de manera confiable y con una latencia mínima.
Ofrece una replicación sin interrupciones de datos de bases de datos operativas en BigQuery. Además, admite la escritura de la transmisión de eventos de cambio en Cloud Storage y ofrece una integración optimizada en plantillas de Dataflow para crear flujos de trabajo personalizados con el objetivo de cargar datos en una amplia variedad de destinos, como Cloud SQL y Spanner. También puedes usar Datastream para aprovechar la transmisión de eventos directamente desde Cloud Storage y crear arquitecturas controladas por eventos. Datastream admite fuentes de Oracle, MySQL, SQL Server, PostgreSQL (incluido AlloyDB para PostgreSQL), MongoDB (versión preliminar) y Salesforce (versión preliminar).
Estos son algunos de los beneficios de Datastream:
Configuración fluida de canalizaciones ELT (extracción, carga y transformación) para la replicación de datos de baja latencia, lo que permite obtener estadísticas casi en tiempo real en BigQuery.
No tiene servidores, por lo que no hay recursos que aprovisionar o administrar, y el servicio aumenta y disminuye su escala verticalmente de manera automática según sea necesario, con un tiempo de inactividad mínimo.
Experiencias de configuración y supervisión fáciles de usar que alcanzan un tiempo de obtención de valor muy rápido.
Integración en lo mejor de la cartera de Google Cloud servicios de datos' para la integración de datos en Datastream, Dataflow, Pub/Sub, BigQuery y mucho más.
Sincronización y unificación de transmisiones de datos en aplicaciones y bases de datos heterogéneas.
Seguridad, con opciones de conectividad privada y la seguridad que esperas deGoogle Cloud.
Es preciso y confiable, con informes de estado transparentes y una flexibilidad de procesamiento rigurosa ante los cambios en los datos y esquemas.
Compatibilidad con varios casos de uso, incluidos el análisis, la replicación de bases de datos y la sincronización para migraciones y configuraciones de nube híbrida, y para la compilación de arquitecturas controladas por eventos.
Casos de uso
Las capacidades de transmisión de Datastream habilitan una variedad de casos de uso:
Replica y sincroniza datos en toda tu organización con una latencia mínima
Puedes sincronizar datos en aplicaciones y bases de datos heterogéneas de manera confiable, con baja latencia y con un impacto mínimo en el rendimiento de la fuente. Libera el poder de las transmisiones de datos para las estadísticas, la replicación de bases de datos, la migración a la nube y las arquitecturas controladas por eventos en entornos híbridos.
Aumenta o reduce la escala verticalmente sin interrupciones con una arquitectura sin servidores
Ponte en marcha rápidamente con un servicio sin servidores y fácil de usar que se adapta sin problemas a medida que cambian tus volúmenes de datos. Enfócate en obtener estadísticas actualizadas a partir de tus datos y responder a los problemas de alta prioridad, en lugar de administrar la infraestructura, ajustar el rendimiento o aprovisionar recursos.
Integración con el Google Cloud paquete de integración de datos
Conecta los datos de tu organización con el Google Cloud paquete de productos de integración de datos. Integra Datastream con plantillas de trabajos de Dataflow para leer datos de un bucket de Cloud Storage y cargarlos en una variedad de destinos, como BigQuery, Spanner y Cloud SQL.
Elementos de experiencia
Datastream tiene tres elementos principales:
Las configuraciones de conectividad privada permiten que Datastream se comunique con una fuente de datos a través de una red privada (de forma interna dentro deGoogle Cloudo con fuentes externas conectadas a través de VPN o Interconnect). Esta comunicación se realiza a través de una conexión de intercambio de tráfico de la nube privada virtual (VPC).
Los perfiles de conexión representan la información de conectividad tanto para una fuente como para un destino. Un flujo usará esta información.
Las transmisiones usan la información en los perfiles de conexión para transferir datos de CDC y reabastecimiento de la fuente al destino.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[[["\u003cp\u003eDatastream is a serverless change data capture (CDC) and replication service that synchronizes data from various operational databases, including Oracle, MySQL, SQL Server, PostgreSQL, and Salesforce, into BigQuery, Cloud Storage, and other destinations.\u003c/p\u003e\n"],["\u003cp\u003eThis service offers low-latency data replication, enabling near real-time insights, seamless scaling, and easy setup and monitoring without the need for manual resource management.\u003c/p\u003e\n"],["\u003cp\u003eDatastream integrates with Google Cloud's data services like Dataflow, Pub/Sub, and BigQuery to build ELT pipelines and is designed to unify data streams across heterogeneous databases and applications.\u003c/p\u003e\n"],["\u003cp\u003eThe platform supports a variety of use cases, such as analytics, database replication, migration and synchronization across hybrid-cloud environments, and building event-driven architectures with minimal latency.\u003c/p\u003e\n"]]],[],null,["# Datastream overview\n\nDatastream is a serverless and easy-to-use change data capture (CDC) and replication service that lets you synchronize data reliably, and with minimal latency.\n\nDatastream provides seamless replication of data from operational databases into BigQuery. In addition, Datastream supports writing the change event stream into Cloud Storage, and offers streamlined integration with Dataflow templates to build custom workflows for loading data into a wide range of destinations, such as Cloud SQL and Spanner. You can also use Datastream to take advantage of the event stream directly from Cloud Storage to realize event-driven architectures. Datastream supports Oracle, MySQL, SQL Server, PostgreSQL (including AlloyDB for PostgreSQL), MongoDB ([Preview](/products#product-launch-stages)) and Salesforce ([Preview](/products#product-launch-stages)) sources.\n\nBenefits of Datastream include:\n\n- Seamless setup of ELT (Extract, Load, Transform) pipelines for low-latency data replication to enable near real-time insights in BigQuery.\n- Being serverless so there are no resources to provision or manage, and the service scales up and down automatically, as needed, with minimal downtime.\n- Easy-to-use setup and monitoring experiences that achieve super-fast time-to-value.\n- Integration across the best of Google Cloud data services' portfolio for data integration across Datastream, Dataflow, Pub/Sub, BigQuery, and more.\n- Synchronizing and unifying data streams across heterogeneous databases and applications.\n- Security, with private connectivity options and the security you expect from Google Cloud.\n- Being accurate and reliable, with transparent status reporting and robust processing flexibility in the face of data and schema changes.\n- Supporting multiple use cases, including analytics, database replication, and synchronization for migrations and hybrid-cloud configurations, and for building event-driven architectures.\n\nUse cases\n---------\n\nThe streaming capabilities of Datastream enable a variety of use cases:\n\n- **Replicating and synchronizing data across your organization with minimal\n latency**\n\n You can synchronize data across heterogeneous databases and applications\n reliably, with low latency, and with minimal impact to the performance of\n your source. Unlock the power of data streams for analytics, database\n replication, cloud migration, and event-driven architectures across hybrid\n environments.\n- **Scale up or down with a serverless architecture seamlessly**\n\n Get up and running fast with a serverless and easy-to-use service that\n scales seamlessly as your data volumes shift. Focus on deriving up-to-date\n insights from your data and responding to high-priority issues, instead of\n managing infrastructure, performance tuning, or resource provisioning.\n- **Integrate with the Google Cloud data integration suite**\n\n Connect data across your organization with the Google Cloud data\n integration suite of products. Integrate Datastream with\n Dataflow job templates to read data from a Cloud Storage bucket\n and load it into a variety of destinations, such as BigQuery,\n Spanner, and Cloud SQL.\n\nExperience elements\n-------------------\n\nThere are three main elements in Datastream:\n\n- **Private connectivity configurations** enable Datastream to communicate with a data source over a private network (internally within Google Cloud, or with external sources connected over VPN or Interconnect). This communication happens through a Virtual Private Cloud (VPC) peering connection.\n- **Connection profiles** represent connectivity information to both a source and a destination. This information will be used by a stream.\n- **Streams** use the information in the connection profiles to transfer CDC and backfill data from the source to the destination.\n\nWhat's next\n-----------\n\n- Start replicating your data [from a source database to BigQuery datasets](/datastream/docs/quickstart-replication-to-bigquery).\n- Learn more about [key concepts and features](/datastream/docs/behavior-overview) of Datastream.\n- Find out how to create [private connectivity configurations](/datastream/docs/create-a-private-connectivity-configuration), [connection profiles](/datastream/docs/create-connection-profiles) and [streams](/datastream/docs/create-a-stream)."]]