Fai clic sullo stream di cui vuoi visualizzare informazioni dettagliate. Queste informazioni vengono visualizzate nella pagina Dettagli stream.
Visualizzare informazioni di alto livello
Le informazioni di alto livello su uno stream includono:
Il nome e lo stato dello stream.
I profili di connessione di origine e di destinazione utilizzati dal flusso per trasferire i dati da un database di origine a una destinazione.
I tipi di profilo dei profili di connessione.
Visualizzare informazioni dettagliate
Oltre a visualizzare informazioni generali su uno stream, puoi fare clic su uno stream per visualizzare ulteriori informazioni, tra cui:
La regione in cui è archiviato lo stream. Gli stream, come tutte le risorse, vengono salvati in una regione. I flussi possono utilizzare solo profili di connessione e configurazioni di connettività privata che si trovano nella stessa regione.
Quando è stato creato, aggiornato o recuperato lo stream.
Qualsiasi etichetta aggiunta allo stream. Queste etichette vengono utilizzate per organizzare lo stream.
A seconda del database di origine, il metodo CDC selezionato per lo stream.
Le tabelle e gli schemi nel database di origine che Datastream deve includere durante l'elaborazione dello stream.
Le tabelle e gli schemi nel database di origine che Datastream deve escludere durante l'elaborazione dello stream.
Per tutte le origini, ad eccezione di PostgreSQL, il metodo CDC impostato per lo stream.
Per le origini Oracle: il metodo di accesso ai file di log.
Indica se il backfill storico è attivato o disattivato per lo stream.
Se è attivata, indica il numero di schemi e tabelle nel database di origine esclusi dal backfill.
Per le destinazioni BigQuery:
Indica se il set di dati di destinazione è un set di dati dinamico o predefinito.
Se la modalità di scrittura per lo stream è impostata su Unione o Solo aggiunta.
Se hai selezionato Modalità di unione, la configurazione del limite di inattività applicata alle nuove tabelle BigQuery create da Datastream.
Inoltre, per le destinazioni delle tabelle BigLake Iceberg:
L'identificatore della connessione BigQuery che utilizzi per lo
stream.
L'URI (Uniform Resource Identifier) del bucket Cloud Storage in cui
archiviare i dati.
Per le destinazioni Cloud Storage:
La posizione della destinazione in cui lo stream trasferisce schemi, tabelle e dati da un database di origine.
Il formato dei file scritti nella destinazione. Datastream supporta due formati di output: Avro e JSON.
Se i dati sono criptati con una chiave gestita da Google (gestita da Google) o da te (gestita dal cliente).
Un link e il percorso della chiave di crittografia gestita dal cliente (se gestisci la crittografia).
Un link per creare un criterio di avviso per lo stream.
Uno stato che indica quanti backfill sono in corso, in attesa o non riusciti.
Il numero di eventi elaborati e caricati nella destinazione da Datastream negli ultimi 7 giorni.
Il numero di eventi che Datastream non è riuscito a elaborare negli ultimi 7 giorni.
Il grafico Aggiornamento dei dati. Questo grafico mostra il divario temporale tra i dati
presenti nell'origine e i dati trasferiti nella destinazione
dal flusso. Viene calcolato come il tempo trascorso dall'ultima verifica di Datastream relativa ai nuovi dati nell'origine.
[[["Facile da capire","easyToUnderstand","thumb-up"],["Il problema è stato risolto","solvedMyProblem","thumb-up"],["Altra","otherUp","thumb-up"]],[["Difficile da capire","hardToUnderstand","thumb-down"],["Informazioni o codice di esempio errati","incorrectInformationOrSampleCode","thumb-down"],["Mancano le informazioni o gli esempi di cui ho bisogno","missingTheInformationSamplesINeed","thumb-down"],["Problema di traduzione","translationIssue","thumb-down"],["Altra","otherDown","thumb-down"]],["Ultimo aggiornamento 2025-09-04 UTC."],[[["\u003cp\u003eYou can view high-level stream information, including its name, status, and the source and destination connection profiles it uses.\u003c/p\u003e\n"],["\u003cp\u003eDetailed stream information available includes the stream's region, creation/update times, labels, CDC method, and included/excluded tables and schemas.\u003c/p\u003e\n"],["\u003cp\u003eFor BigQuery destinations, details such as the dataset type, write mode, and staleness limit configurations can be viewed.\u003c/p\u003e\n"],["\u003cp\u003eFor Cloud Storage destinations, details on the destination location and the output file format (Avro or JSON) are available.\u003c/p\u003e\n"],["\u003cp\u003eYou can view data encryption information, event processing statistics, data freshness, and links to alerting policies for the stream.\u003c/p\u003e\n"]]],[],null,["# View a stream\n\nIn this page, you learn how to get information about your streams.\n\nTo view high-level and detailed information about a stream, do the following:\n\n1. Go to the **Streams** page in the Google Cloud Console.\n\n [Go to the Streams page](https://console.cloud.google.com/datastream/streams)\n2. Click the stream for which you want to see detailed information. This information appears on the **Stream details** page.\n\nView high-level information\n---------------------------\n\nHigh-level information about a stream includes:\n\n- The name and status of the stream.\n- The source and destination connection profiles that the stream uses to transfer data from a source database into a destination.\n- The profile types of the connection profiles.\n\nView detailed information\n-------------------------\n\nIn addition to viewing high-level information about a stream, you can click a stream to see additional information, including:\n\n- The region where the stream is stored. Streams, like all resources, are saved in a region. Streams can only use connection profiles and private connectivity configurations that are in the same region.\n- When the stream was created, last updated, or recovered.\n- Any labels added to the stream. These labels are used to organize the stream.\n- Depending on the source database, the CDC method that you selected for the stream.\n- The tables and schemas in the source database which Datastream should include when processing the stream.\n- The tables and schemas in the source database that Datastream should exclude when processing the stream.\n- For all sources apart from PostgreSQL, the CDC method set for the stream.\n- For Oracle sources: the log file access method.\n- Whether [historical backfill](/datastream/docs/create-a-stream#backfillhistoricaldata) is enabled or disabled for the stream.\n - If it's enabled, how many schemas and tables in the source database are excluded from backfilling.\n- For BigQuery destinations:\n\n - Whether the destination dataset is a dynamic or default dataset.\n - Whether the write mode for the stream is set to **Merge** or **Append-only**.\n - If you selected **Merge mode**, the staleness limit configuration applied to the new BigQuery tables created by Datastream.\n\n Additionally, for BigLake Iceberg tables destinations:\n - The identifier of the BigQuery connection that you use for your stream.\n - The uniform resource identifier (URI) of the Cloud Storage bucket where you store your data.\n- For Cloud Storage destinations:\n\n - The location of the destination into which the stream transfers schemas, tables, and data from a source database.\n - The format of files written to the destination. Datastream supports two output formats: Avro and JSON.\n- Whether your data is encrypted with a key that's managed by Google (Google-managed) or by you (Customer-managed).\n\n- A link and the path to the customer-managed encryption key (if you're managing the encryption).\n\n- A link to create an alerting policy for the stream.\n\n- A status of how many backfills are in progress, pending, or failed.\n\n- The number of events that are processed and loaded to the destination by Datastream in the last 7 days.\n\n- The number of events that Datastream couldn't process in the last 7\n days.\n\n - The Data freshness graph. This graph displays the time gap between data residing in the source and the data being transferred into the destination by the stream. This is calculated as the time elapsed since Datastream last checked for new data in the source.\n\n For more information about this graph, see\n [Monitor a stream](/datastream/docs/monitor-a-stream).\n\nWhat's next\n-----------\n\n- To learn more about streams, see [Stream lifecycle](/datastream/docs/stream-states-and-actions).\n- To learn how to modify your streams, see [Modify a stream](/datastream/docs/modify-a-stream).\n- To learn how to monitor a stream, see [Monitor a stream](/datastream/docs/monitor-a-stream).\n- To learn how to delete an existing stream, see [Delete a stream](/datastream/docs/delete-a-stream)."]]