Haz clic en el flujo del que quieras ver información detallada. Esta información aparece en la página Detalles del flujo.
Ver información general
La información general sobre una emisión incluye lo siguiente:
El nombre y el estado de la secuencia.
Los perfiles de conexión de origen y destino que usa el flujo para transferir datos de una base de datos de origen a un destino.
Tipos de perfiles de conexión.
Ver información detallada
Además de ver información general sobre un flujo, puedes hacer clic en él para ver información adicional, como la siguiente:
Región en la que se almacena la emisión. Los flujos se guardan en una región, como todos los recursos. Los flujos solo pueden usar perfiles de conexión y configuraciones de conectividad privada que estén en la misma región.
Cuándo se creó, se actualizó por última vez o se recuperó el flujo.
Cualquier etiqueta añadida a la emisión. Estas etiquetas se usan para organizar la emisión.
En función de la base de datos de origen, el método de CDC que haya seleccionado para el flujo.
Las tablas y los esquemas de la base de datos de origen que Datastream debe incluir al procesar el flujo.
Las tablas y los esquemas de la base de datos de origen que Datastream debe excluir al procesar el flujo.
En todas las fuentes, excepto PostgreSQL, el método de CDC definido para el flujo.
En el caso de las fuentes de Oracle, el método de acceso al archivo de registro.
Indica si el relleno histórico está habilitado o inhabilitado en el stream.
Si está habilitado, indica cuántos esquemas y tablas de la base de datos de origen se excluyen de la reposición.
En el caso de los destinos de BigQuery:
Indica si el conjunto de datos de destino es dinámico o predeterminado.
Si el modo de escritura del flujo es Combinar o Solo añadir.
Si has seleccionado Modo de combinación, la configuración del límite de antigüedad se aplicará a las nuevas tablas de BigQuery creadas por Datastream.
Además, en el caso de los destinos de las tablas de BigLake Iceberg:
El identificador de la conexión de BigQuery que usas para tu flujo.
El identificador de recursos uniforme (URI) del segmento de Cloud Storage en el que almacenas tus datos.
En el caso de los destinos de Cloud Storage:
Ubicación del destino al que la secuencia transfiere esquemas, tablas y datos de una base de datos de origen.
El formato de los archivos escritos en el destino. Datastream admite dos formatos de salida: Avro y JSON.
Si tus datos están cifrados con una clave gestionada por Google o por ti.
Un enlace y la ruta a la clave de cifrado gestionada por el cliente (si gestionas el cifrado).
Un enlace para crear una política de alertas para el flujo.
El estado de cuántos backfills están en curso, pendientes o fallidos.
Número de eventos que Datastream ha procesado y cargado en el destino en los últimos 7 días.
Número de eventos que Datastream no ha podido procesar en los últimos 7 días.
El gráfico Actualización de datos. En este gráfico se muestra el intervalo de tiempo entre los datos que residen en la fuente y los datos que el flujo transfiere al destino. Se calcula como el tiempo transcurrido desde que Datastream comprobó por última vez si había datos nuevos en la fuente.
[[["Es fácil de entender","easyToUnderstand","thumb-up"],["Me ofreció una solución al problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Es difícil de entender","hardToUnderstand","thumb-down"],["La información o el código de muestra no son correctos","incorrectInformationOrSampleCode","thumb-down"],["Me faltan las muestras o la información que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-10 (UTC)."],[[["\u003cp\u003eYou can view high-level stream information, including its name, status, and the source and destination connection profiles it uses.\u003c/p\u003e\n"],["\u003cp\u003eDetailed stream information available includes the stream's region, creation/update times, labels, CDC method, and included/excluded tables and schemas.\u003c/p\u003e\n"],["\u003cp\u003eFor BigQuery destinations, details such as the dataset type, write mode, and staleness limit configurations can be viewed.\u003c/p\u003e\n"],["\u003cp\u003eFor Cloud Storage destinations, details on the destination location and the output file format (Avro or JSON) are available.\u003c/p\u003e\n"],["\u003cp\u003eYou can view data encryption information, event processing statistics, data freshness, and links to alerting policies for the stream.\u003c/p\u003e\n"]]],[],null,["# View a stream\n\nIn this page, you learn how to get information about your streams.\n\nTo view high-level and detailed information about a stream, do the following:\n\n1. Go to the **Streams** page in the Google Cloud Console.\n\n [Go to the Streams page](https://console.cloud.google.com/datastream/streams)\n2. Click the stream for which you want to see detailed information. This information appears on the **Stream details** page.\n\nView high-level information\n---------------------------\n\nHigh-level information about a stream includes:\n\n- The name and status of the stream.\n- The source and destination connection profiles that the stream uses to transfer data from a source database into a destination.\n- The profile types of the connection profiles.\n\nView detailed information\n-------------------------\n\nIn addition to viewing high-level information about a stream, you can click a stream to see additional information, including:\n\n- The region where the stream is stored. Streams, like all resources, are saved in a region. Streams can only use connection profiles and private connectivity configurations that are in the same region.\n- When the stream was created, last updated, or recovered.\n- Any labels added to the stream. These labels are used to organize the stream.\n- Depending on the source database, the CDC method that you selected for the stream.\n- The tables and schemas in the source database which Datastream should include when processing the stream.\n- The tables and schemas in the source database that Datastream should exclude when processing the stream.\n- For all sources apart from PostgreSQL, the CDC method set for the stream.\n- For Oracle sources: the log file access method.\n- Whether [historical backfill](/datastream/docs/create-a-stream#backfillhistoricaldata) is enabled or disabled for the stream.\n - If it's enabled, how many schemas and tables in the source database are excluded from backfilling.\n- For BigQuery destinations:\n\n - Whether the destination dataset is a dynamic or default dataset.\n - Whether the write mode for the stream is set to **Merge** or **Append-only**.\n - If you selected **Merge mode**, the staleness limit configuration applied to the new BigQuery tables created by Datastream.\n\n Additionally, for BigLake Iceberg tables destinations:\n - The identifier of the BigQuery connection that you use for your stream.\n - The uniform resource identifier (URI) of the Cloud Storage bucket where you store your data.\n- For Cloud Storage destinations:\n\n - The location of the destination into which the stream transfers schemas, tables, and data from a source database.\n - The format of files written to the destination. Datastream supports two output formats: Avro and JSON.\n- Whether your data is encrypted with a key that's managed by Google (Google-managed) or by you (Customer-managed).\n\n- A link and the path to the customer-managed encryption key (if you're managing the encryption).\n\n- A link to create an alerting policy for the stream.\n\n- A status of how many backfills are in progress, pending, or failed.\n\n- The number of events that are processed and loaded to the destination by Datastream in the last 7 days.\n\n- The number of events that Datastream couldn't process in the last 7\n days.\n\n - The Data freshness graph. This graph displays the time gap between data residing in the source and the data being transferred into the destination by the stream. This is calculated as the time elapsed since Datastream last checked for new data in the source.\n\n For more information about this graph, see\n [Monitor a stream](/datastream/docs/monitor-a-stream).\n\nWhat's next\n-----------\n\n- To learn more about streams, see [Stream lifecycle](/datastream/docs/stream-states-and-actions).\n- To learn how to modify your streams, see [Modify a stream](/datastream/docs/modify-a-stream).\n- To learn how to monitor a stream, see [Monitor a stream](/datastream/docs/monitor-a-stream).\n- To learn how to delete an existing stream, see [Delete a stream](/datastream/docs/delete-a-stream)."]]