Preguntas frecuentes

Descripción general

En este tema, encontrarás respuestas a las preguntas frecuentes sobre cómo usar Datastream. Estas preguntas frecuentes están asociadas con lo siguiente:

  • Preguntas generales sobre Datastream y la captura de datos modificados (CDC)
  • Captura de datos modificados (CDC) de MySQL
  • Captura de datos modificados (CDC) de Oracle
  • Casos de uso comunes de Datastream
  • Cómo se integra Datastream en los servicios de datos de Google Cloud
  • Las fuentes y los destinos que admite Datastream
  • El comportamiento y las limitaciones de Datastream
  • Seguridad y conectividad
  • Procesamiento de archivos de Datastream
  • Supervisión de Datastream
  • Precios
  • Información adicional sobre Datastream

Preguntas generales sobre Datastream y la captura de datos modificados (CDC)

Pregunta Respuesta
¿Qué es Datastream?

Datastream es un servicio de replicación y captura de datos modificados (CDC) sin servidores y fácil de usar, que te permite sincronizar flujos de datos entre aplicaciones y bases de datos heterogéneas de manera confiable y con una latencia mínima. Datastream admite la transmisión de cambios en datos de bases de datos de Oracle y MySQL a Cloud Storage.

El servicio te ofrece una integración optimizada con las plantillas de Dataflow a fin de potenciar las vistas materializadas actualizadas en BigQuery para las estadísticas, replicar las bases de datos en Cloud SQL o Cloud Spanner a fin de sincronizar las bases de datos, o aprovechar las transmisiones directamente desde Cloud Storage para realizar arquitecturas controladas por eventos. Datastream también se integra en Cloud Data Fusion si deseas compilar canalizaciones de datos con transformaciones a BigQuery.

¿Qué es CDC?

CDC es un enfoque para la integración de datos que te permite integrar y analizar datos más rápido, con menos recursos del sistema. Es un método para extraer solo los últimos cambios (actualizaciones, inserciones o eliminaciones) de una fuente de datos, a menudo mediante la lectura del registro de cambios que la fuente mantiene para su propia integridad transaccional interna.

CDC es un mecanismo altamente eficiente para limitar el impacto en la fuente cuando se cargan datos nuevos en almacenes de datos operativos. Además, elimina la necesidad de realizar actualizaciones de cargas masivas y las ventanas de lotes inconvenientes, ya que permite la carga incremental o la transmisión en tiempo real de los cambios de datos a un destino de datos.

La CDC se puede usar en muchos casos prácticos que obtienen valor de un acceso constante a los cambios de datos a medida que ocurren, como estadísticas, sincronización de datos en sistemas distribuidos geográficamente y arquitecturas controladas por eventos.

¿Qué es el reabastecimiento? Además de los cambios en curso, Datastream también usa el reabastecimiento para extraer todos los datos existentes desde una fuente y, luego, transmitirlos a un destino. Como resultado, el destino se "reabastece" con todos los datos históricos de la fuente.
¿Cuáles son los métodos mediante los cuales Datastream transmite datos? Datastream transmite datos de una fuente a un destino mediante uno de estos dos métodos:
  • CDC: captura cambios continuos de la fuente en tiempo real.
  • Reabastecimiento: proporciona una instantánea histórica de datos que existen en una tabla.
¿Qué es una transmisión de cambios? Una transmisión de cambios es una secuencia de eventos que Datastream emite a un destino, como Cloud Storage, para el consumo descendente. El resultado de una transmisión de cambios que se escribe en un destino es un conjunto de archivos que contienen eventos de registro de cambios de una tabla de base de datos específica durante un período. Estos eventos representan inserciones, actualizaciones y eliminaciones en esa tabla desde la fuente, y los servicios como Dataflow para las arquitecturas controladas por eventos pueden consumir y procesar los eventos en una etapa posterior al destino.
¿Qué es una vista materializada?

Una vista materializada es una representación 1 a 1 actualizada de una tabla de origen en un destino. Un ejemplo de este tipo de vista es una tabla de base de datos de Oracle cuyos cambios se replican continuamente en una tabla de BigQuery. Como resultado, la tabla de BigQuery se mantiene actualizada mediante los cambios transmitidos desde la tabla de Oracle.

Las vistas materializadas aprovechan las transmisiones de cambios porque consumen cada evento de cambio y lo usan para actualizar la vista materializada. Datastream entrega vistas materializadas a destinos como BigQuery, Cloud SQL y Cloud Spanner a través de la integración con Dataflow mediante el uso de plantillas que extraen los eventos de transmisión de cambios desde el destino y la actualización de las tablas de destino según corresponda.

¿Datastream requiere un agente en el origen? No es necesario instalar un agente en la fuente. Datastream usa interfaces existentes (como Oracle LogMiner) para extraer los datos del origen.
¿Qué ocurre con el impacto en el rendimiento que tiene el uso de Datastream en una base de datos de producción?

La CDC es un mecanismo altamente eficiente para limitar el impacto en la fuente cuando se cargan datos nuevos en almacenes de datos de destino. La CDC también elimina la necesidad de actualizar cargas de forma masiva y las ventanas de lotes inconvenientes, ya que habilita la carga incremental o la transmisión en tiempo real de los cambios de datos a un destino.

Además, Datastream minimiza el impacto de un reabastecimiento inicial mediante la limitación de la cantidad de tareas de reabastecimiento simultáneas y te ofrece el control para decidir qué objetos reabastecer y cuándo hacerlo.

¿Puedes copiar los archivos de registro de la fuente a Google Cloud? No. Datastream consulta los registros directamente en el servidor de la base de datos, y solo los cambios en las tablas especificadas se escriben en el destino.
¿Datastream también puede transferir datos históricos? Sí. De forma predeterminada, Datastream obtiene todos los datos históricos de las tablas de base de datos de tu fuente que especifiques, en paralelo a la transmisión de CDC. Datastream te brinda la flexibilidad de obtener datos históricos de algunas o todas las tablas de bases de datos en tu fuente. Además, cuando configuras la transmisión, puedes elegir inhabilitar el reabastecimiento histórico.
¿Cuál es el tamaño máximo de fila que admite Datastream? En la actualidad, Datastream se limita a filas de no más de 3 MB.
¿Datastream garantiza el orden? Datastream no garantiza el orden. Proporciona metadatos adicionales sobre cada evento, que se pueden usar para garantizar la coherencia eventual en el bucket de destino. Según la fuente, la tasa y la frecuencia de los cambios, y otros parámetros, la coherencia eventual se puede lograr en un período de 1 hora en general.
¿Datastream garantiza la entrega exactamente una vez? No. Datastream garantiza la entrega al menos una vez. Los metadatos adicionales que Datastream escribe en cada evento se pueden usar para quitar los datos duplicados.
¿Cómo controla Datastream los cambios de esquema en una fuente? Datastream recupera el esquema de la fuente de forma periódica. Sin embargo, entre las recuperaciones de esquema, es posible que algunos cambios de esquema no se detecten, lo que podría causar discrepancias de datos. Planeamos capturar los eventos del lenguaje de definición de datos en tiempo real para resolver esta limitación actual.
¿Manejan bases de datos encriptadas? Sí.
¿Datastream puede transmitir tablas y columnas específicas desde una fuente? Sí. Con Datastream, puedes especificar listas de inclusión y exclusión para tablas y esquemas, a fin de transmitir solo los datos que deseas de una fuente a un destino. En el caso de las tablas incluidas, puedes excluir columnas específicas de las tablas para ajustar con mayor precisión los datos que deseas transmitir al destino. Sin embargo, las vistas materializadas no se pueden replicar.
¿Cómo se mueve una transmisión a otro proyecto o región?
  1. Crea una transmisión en una región o proyecto nuevo con la misma configuración que la transmisión existente, pero no selecciones la casilla de verificación Reabastecer datos históricos.
  2. Inicia la transmisión que creaste.
  3. Después de que la transmisión que creaste tenga el estado RUNNING, pausa la transmisión existente.
  4. De manera opcional, selecciona la casilla de verificación Reabastecer datos históricos para modificar la transmisión nueva. Los datos existentes en las tablas que se agreguen a la transmisión en el futuro se transmitirán desde el origen hasta el destino.
¿Cómo maneja Datastream las transacciones no confirmadas en los archivos de registro de la base de datos? Cuando los archivos de registro de la base de datos contienen transacciones sin confirmar, si las transacciones se revierten, la base de datos lo refleja en los archivos de registro como operaciones "inversas" de lenguaje de manipulación de datos (DML). Por ejemplo, una operación INSERT revertida tendrá una operación DELETE correspondiente. Datastream lee estas operaciones desde los archivos de registro.
¿Cuál es la disponibilidad regional de Datastream?

Para ver una lista de las regiones en las que Datastream está disponible, consulta Listas de IP permitidas y regiones.

Captura de datos modificados (CDC) de MySQL

Pregunta Respuesta
¿Cómo Datastream obtiene datos de MySQL? Datastream usa el registro binario de MySQL para extraer los eventos de cambio de MySQL
¿Datastream admite instancias de réplica de lectura de Cloud SQL para MySQL?

Sí, Datastream admite instancias de réplica de lectura para las versiones 5.7 y 8.0 de Cloud SQL para MySQL.

Puedes habilitar el registro binario en estas instancias. Para hacerlo, ejecuta el siguiente comando de gcloud:


gcloud sql instances patch INSTANCE_NAME -- enable-bin-log

Para obtener más información, consulta Registro binario en réplicas de lectura.

¿Datastream bloquea las tablas de base de datos de MySQL? ¿Por qué Datastream requiere permisos LOCK TABLE?

En la mayoría de los casos, Datastream no necesitará bloquear las tablas. Sin embargo, en ciertas condiciones (por ejemplo, MySQL 8 con un motor de almacenamiento InnoDB y el nivel de aislamiento configurado en REPEATABLE READ), Datastream adquiere bloqueos en las tablas durante el reabastecimiento.

Captura de datos modificados (CDC) de Oracle

Pregunta Respuesta
¿Cómo Datastream obtiene datos de Oracle? Datastream usa Oracle LogMiner para extraer los datos de los registros de rehacer de Oracle.
¿Datastream requiere una licencia GoldenGate de Oracle? No. Datastream usa Oracle LogMiner para leer los datos de los registros de rehacer de la base de datos.
¿Qué sucederá cuando ya no se admita Oracle LogMiner? Oracle será compatible con futuras versiones. Por el momento, Oracle LogMiner sigue disponible en todas las versiones de Oracle con disponibilidad general.
¿Datastream admite la encriptación de datos en tránsito desde bases de datos de Oracle?

Datastream admite la encriptación de datos en tránsito según Oracle Net Services. Datastream se ejecuta en modo REQUESTED.

¿Datastream admite una arquitectura de multiusuario de Oracle, en particular, bases de datos de contenedores (CDB) y bases de datos conectables (PDB)? Por el momento, Datastream no es compatible con CDB y PDB, pero esto está en nuestra hoja de ruta.

Casos de uso

Pregunta Respuesta
¿Cuáles son algunos casos de uso comunes de Datastream?

Datastream es un servicio de replicación y de CDC, lo que significa que es flexible en varios casos prácticos que pueden beneficiarse del acceso a datos de cambios en transmisión continua. Los casos de uso más comunes de Datastream, en orden de frecuencia, son los siguientes:

  1. Estadísticas: Si integras Datastream con plantillas de Dataflow para cargar datos en BigQuery, puedes obtener vistas materializadas actualizadas de los datos de origen en BigQuery. Puedes usar estos datos en actualización continua a fin de compilar paneles actualizados para los datos. Esto se puede usar, por ejemplo, para supervisar tus sistemas y obtener estadísticas actualizadas sobre el estado de tu empresa.
  2. Situaciones de replicación y sincronización de bases de datos: Si integras Datastream con plantillas de Dataflow para cargar datos en Cloud SQL o Cloud Spanner, puedes obtener vistas materializadas actualizadas de tus datos de origen en estas bases de datos. Puedes usar estos datos actualizados de forma continua en las bases de datos de destino para una migración de base de datos con tiempo de inactividad bajo desde el origen hasta el destino, o para configuraciones de nube híbrida, en las que el origen y el destino residen en diferentes entornos de hosting.
  3. Arquitecturas controladas por eventos: Las arquitecturas modernas basadas en microservicios dependen de los concentradores de datos centrales que se actualizan con eventos continuamente de toda la organización para que sean controlados por eventos. Mediante la escritura continua de datos de eventos en destinos como Cloud Storage, puedes compilar arquitecturas controladas por eventos que se basen en el consumo de datos de eventos desde estos destinos.

Integraciones

Pregunta Respuesta
¿Cómo se integra Datastream en los servicios de datos de Google Cloud?

Datastream complementa y mejora el paquete de datos de Google Cloud mediante la replicación de datos de CDC desde las fuentes a varios servicios de Google Cloud. Mediante la integración continua en estos servicios, Datastream se adapta al ecosistema más amplio de Google Cloud.

Datastream se integra en los siguientes servicios de datos:

  • Dataflow: Datastream se integra con Dataflow a través de plantillas de Dataflow. Estas plantillas leen datos de Cloud Storage y los cargan en BigQuery, Cloud SQL para PostgreSQL o Cloud Spanner. El objetivo de estas plantillas es mantener vistas materializadas actualizadas de las tablas de origen replicadas en los destinos. Las plantillas están disponibles en la IU de Dataflow y están diseñadas para archivos generados por Datastream a fin de lograr un procesamiento fácil y listo para usar.
  • Cloud Data Fusion: Datastream se integra en Cloud Data Fusion mediante la alimentación de un conector de Oracle con la función de replicación de Cloud Data Fusion. Puedes crear una fuente de replicación de Oracle que Datastream “alimente” de forma interna y transparente para compilar una canalización de datos con facilidad. Esta canalización incluye transformaciones enriquecidas para los datos de Oracle que Datastream transmite a Cloud Data Fusion.
  • Cloud Storage: Datastream se integra en Cloud Storage y escribe en él como un destino de transmisión de cambios.
  • Cloud SQL, Cloud Spanner y BigQuery: Datastream se integra en estas bases de datos de destino. Con las plantillas de Dataflow, puedes mantener vistas materializadas actualizadas en las bases de datos.

Fuentes y destinos

Pregunta Respuesta
¿Qué fuentes y destinos admite Datastream?
  • Fuentes: Datastream admite datos de transmisión desde fuentes de Oracle y MySQL, tanto alojadas en la nube como autoadministradas. Para obtener más información sobre las fuentes compatibles, consulta Comportamiento y limitaciones.
  • Destinos: Datastream admite la escritura de cambios en los datos de los archivos que se transmiten a Cloud Storage. Puedes usar las plantillas de Dataflow a fin de transferir estos datos de Cloud Storage a BigQuery, Cloud Spanner y Cloud SQL para PostgreSQL.
¿Datastream puede manejar bases de datos encriptadas? Sí.

Comportamiento y limitaciones

Pregunta Respuesta
¿Qué versiones de origen admite Datastream?

Para MySQL, Datastream admite las versiones 5.6, 5.7 y 8.0. Se admite cualquier base de datos que cumpla con MySQL, incluidas, entre otras, las siguientes opciones:

  • Una base de datos autoalojada, ya sea local o en cualquier proveedor de servicios en la nube
  • Cloud SQL para MySQL
  • AWS RDS MySQL y Aurora MySQL
  • MariaDB
  • Alibaba Cloud PolarDB
  • Percona Server para MySQL

Para Oracle, Datastream admite la versión 11g 2 y posteriores (no RAC en la configuración de SCAN, CDB/PDB ni DB autónomo). Se admite cualquier base de datos compatible con Oracle, incluidas, entre otras, las siguientes opciones:

  • Una base de datos autoalojada, ya sea local o en cualquier proveedor de servicios en la nube
  • AWS RDS
  • Oracle Cloud
¿Cómo extrae Datastream los datos de las fuentes?

Para MySQL, Datastream procesa el registro binario de MySQL a fin de extraer eventos de cambio.

En Oracle, Datastream usa LogMiner y la configuración de registro complementaria para extraer datos de los registros de rehacer de Oracle.

¿Puedes copiar archivos de registro directamente de una fuente a Google Cloud? Datastream no copia la totalidad de los archivos de registro, pero consulta los archivos de registro directamente desde el servidor de la base de datos y solo replica los cambios de las tablas especificadas en el destino.
Para las fuentes de Oracle, ¿Datastream requiere una licencia GoldenGate? Datastream no requiere una licencia GoldenGate porque usa Oracle LogMiner para leer los datos de los registros redo de la base de datos.
¿Qué sucederá cuando Oracle LogMiner no sea compatible con las versiones más recientes? Oracle dejó de ser compatible con la opción CONTINUOUS_MINE de LogMiner, sin embargo, Datastream no usa esta opción, por lo que esta baja no afecta a Datastream.
¿Cuáles son las limitaciones de los datos que Datastream puede procesar?

Existen limitaciones generales, limitaciones para las fuentes de MySQL y limitaciones para las fuentes de Oracle.

Las limitaciones generales incluyen lo siguiente:

  • Capacidad de procesamiento: aproximadamente 5 MBPS con un límite máximo de tamaño de fila de 3 MB.
  • Algunas operaciones de lenguaje de definición de datos (DDL) no se admiten durante la replicación, como las siguientes:
    • Quitar una columna desde el centro de una tabla. Esto puede causar una discrepancia de datos porque los valores están asociados con la columna incorrecta.
    • Cambiar el tipo de datos de una columna Esto puede generar una discrepancia de datos porque los datos no se asignaron de forma adecuada al tipo unificado correcto de Datastream y pueden corromperse.
    • Las eliminaciones en cascada se ignoran.
    • El truncamiento de tablas se ignora.

Las limitaciones de MySQL incluyen la incompatibilidad del reabastecimiento con tablas que no tienen una clave primaria y tienen más de 100 millones de filas.

Las limitaciones de Oracle incluyen las siguientes:

  • Compatibilidad de columnas:
    • Algunos tipos de datos no son compatibles y se replican con valores NULL. Estos tipos de datos incluyen tipos de datos abstractos (ADT), ANYDATA, colecciones (VARRAY), BLOB/CLOB/LOB/NCLOB, LONG, UDT, UROWID y XMLType.
  • Características de Oracle no compatibles:
    • Tablas externas
    • Vínculos a bases de datos (dblinks)
    • Tablas de solo índice (IOT)
    • La seguridad de etiquetas de Oracle (OLS) no se replica.
  • El reabastecimiento no es compatible con tablas de más de 100 millones de filas.

¿Qué datos se incluyen en cada evento que genera Datastream? Cada evento generado (para inserciones, actualizaciones y eliminaciones) incluye la fila completa de datos de la fuente, con el valor y el tipo de datos de cada columna. Cada evento también incluye metadatos de eventos que se pueden usar para establecer el ordenamiento y garantizar que las entregas se realicen exactamente una vez.
¿Datastream garantiza el orden? Aunque Datastream no garantiza el orden, proporciona metadatos adicionales para cada evento. Estos metadatos se pueden usar para garantizar la coherencia eventual en el destino. Según la fuente, la tasa y la frecuencia de los cambios, y otros parámetros, la coherencia eventual se puede lograr en un período de 1 hora por lo general.
¿Datastream garantiza la entrega exactamente una vez? Datastream garantiza la entrega al menos una vez. Puedes borrar datos duplicados si usas metadatos adicionales que Datastream escribe en cada evento.
¿Cómo representa Datastream los tipos de datos de la fuente para usarlos en el procesamiento posterior?

Datastream hace que el procesamiento posterior de datos en todas las fuentes de datos sea fácil y directo mediante la normalización de los tipos de datos en todas las fuentes. Datastream toma el tipo de datos de origen original (por ejemplo, un tipo NUMERIC de MySQL o un tipo NUMBER de Oracle) y lo normaliza en un tipo unificado de Datastream.

Los tipos unificados representan un superconjunto sin pérdidas de todos los tipos de fuente posibles, y la normalización significa que los datos de diferentes fuentes se pueden procesar con facilidad y consultar con posterioridad sin importar su fuente.

Si un sistema descendente necesita conocer el tipo de datos de origen, puede hacerlo a través de una llamada de la API al registro de esquemas de Datastream. Este registro almacena esquemas actualizados con control de versiones para cada fuente de datos. La API de registro de esquemas también permite una resolución de desvío de esquemas rápida debido a que los esquemas de las bases de datos de origen cambian.

¿Cómo maneja Datastream los cambios de estructura (esquema) en la fuente? Datastream realiza un seguimiento continuo de los cambios en la estructura de datos de origen. Los esquemas se almacenan en el registro de esquemas de Datastream, y cada evento hace referencia al esquema en el momento en que se genera. Esto permite que Datastream, o bien otros procesos descendentes, realicen un seguimiento de los cambios de esquema en tiempo real y se ajusten a estos cambios, lo que garantiza que todos los datos se transmitan y carguen en el destino correctamente.

Seguridad y conectividad

Pregunta Respuesta
¿Datastream es un servicio seguro para datos sensibles? Datastream admite varias configuraciones de conectividad privada y segura para proteger los datos en tránsito a medida que se transmiten desde un origen hasta un destino. Una vez que se replican los datos, se encriptan de forma predeterminada y aprovechan los controles de seguridad de Cloud Storage. Todos los datos que estén almacenados en búfer por Datastream se encriptan en reposo.
¿Qué opciones de conectividad están disponibles para conectar tus fuentes a Datastream?

Existen tres tipos de métodos de conectividad que puedes configurar:

  • Lista de IP permitidas: Este método te proporciona conectividad pública mediante una lista de direcciones IP regionales de Datastream permitidas en la fuente. Cuando creas tu transmisión, Datastream muestra estas direcciones IP en la IU.
  • Túnel SSH de reenvío: Este método proporciona conectividad segura a través de redes públicas, ya que aprovecha un bastión SSH configurado por el cliente, además de incluir direcciones IP regionales en la lista de IP permitidas.
  • Conectividad privada mediante el intercambio de tráfico entre VPC: Usa este método para conectarte a tus bases de datos alojadas en Google Cloud mediante la red interna de Google Cloud o aprovecha una VPN o interconexión existente mediante el intercambio de tráfico de VPC entre la red privada de Datastream y la VPC de Google Cloud de tu organización.
¿Cómo puedo limitar el procesamiento de datos sensibles de Datastream?

Datastream te permite especificar qué elementos de datos específicos (esquemas, tablas y columnas) de tu fuente deseas transmitir a un destino y qué elementos deseas excluir de la transmisión.

Los registros de la base de datos pueden contener datos de cambios de elementos que se excluyeron en tu definición de transmisión. Debido a que no puedes filtrar estos elementos en la fuente, Datastream leerá, pero ignorará, los datos asociados con los elementos.

¿Cómo mantiene Datastream la seguridad de las credenciales de la base de datos? Todos los metadatos del usuario (incluidos el nombre de usuario y la contraseña que se usan para acceder a las fuentes de datos) se encriptan en tránsito y en reposo. El acceso a estos metadatos se supervisa y se audita.

Procesa archivos de Datastream

Pregunta Respuesta
¿Cómo se crean los archivos en Cloud Storage? Datastream crea una carpeta para cada tabla. En cada carpeta, Datastream rota el archivo (o crea un archivo nuevo) cada vez que alcanza el umbral de tamaño o tiempo definido por el usuario. Datastream también rota el archivo cada vez que se detecta un cambio de esquema. El nombre del archivo se compone de una clave de esquema única (basada en un hash del esquema), seguida de la marca de tiempo del primer evento del archivo. Por razones de seguridad, las personas no deben leer o comprender estos nombres de archivo.
Si los datos en Cloud Storage no están ordenados, ¿cómo se pueden reordenar los eventos antes de cargarlos en el destino? Cada evento contiene varios campos de metadatos que identifican de forma única la fila en el registro de rehacer de Oracle. En particular:
  • rs_id, que en realidad está compuesto por tres valores (por ejemplo, 0x0073c9.000a4e4c.01d0). rs_id identifica de forma única el registro dentro del registro de rehacer.
  • ssn, que se usa cuando el registro en el registro de rehacer es demasiado largo. Debido a esto, Oracle LogMiner divide el registro en varias filas.
Para ordenar los eventos, debes ordenarlos por cada parte de rs_id y, luego, por ssn.
Si se crean varios archivos para la misma marca de tiempo, ¿en qué orden deben procesarse? Debido a que el orden dentro de los archivos y entre ellos no está garantizado, la mejor manera de determinar el orden en que se procesan los archivos es obtener todos los eventos de todos los archivos para la marca de tiempo específica y, luego, aplicar el orden mediante el método mencionado antes.
¿Cómo se manejan las actualizaciones de la clave primaria? ¿Hay información de antes y después del evento? El campo de metadatos row_id identifica de forma única la fila que cambia. Para garantizar la integridad de los datos, consolida los datos según el valor asociado con el campo row_id, en lugar de depender de la clave primaria.

Supervisa Datastream

Pregunta Respuesta
¿Cómo puedo saber cuándo se copiaron todos mis datos históricos en el bucket de Cloud Storage de destino? Datastream proporciona información sobre su estado actual en los archivos de registro. Se crea una entrada de registro para indicar cuándo se terminó de reabastecer una tabla.

Precios

Pregunta Respuesta
¿Cuáles son los precios de Datastream?

Datastream se cobra según el volumen (GB) de datos que se transmite desde tu origen hacia un destino.

Para obtener más información sobre los precios de Datastream, consulta Precios.

¿Cómo se calcula el tamaño de los datos? La facturación se calcula según el tamaño de los datos sin procesar (sin comprimir) que se transmiten del origen al destino. Datastream solo cobra por los datos que se transmiten al destino.
Si usas Datastream con Dataflow o Cloud Data Fusion, ¿qué pagas? Cada servicio tiene un precio y se cobra por separado.

Información adicional

Pregunta Respuesta
¿Qué sucede si tengo preguntas o problemas adicionales con el uso de Datastream? El equipo de asistencia de Google puede brindar asistencia si tienes problemas para usar Datastream. Además, la guía de solución de problemas controla los problemas comunes que pueden surgir cuando usas Datastream.