Cliquez sur le flux pour lequel vous souhaitez afficher des informations détaillées. Ces informations sont disponibles sur la page Détails du flux.
Afficher les informations générales
Les informations générales sur un flux incluent les éléments suivants :
Nom et état du flux.
Profils de connexion source et de destination utilisés par le flux pour transférer des données d'une base de données source vers une destination.
Types de profils de connexion.
Afficher les informations détaillées
En plus d'afficher des informations générales sur un flux, vous pouvez cliquer sur un flux pour afficher des informations supplémentaires, telles que :
Région dans laquelle le flux est stocké. Comme toutes les ressources, les flux sont enregistrés dans une région. Les flux ne peuvent utiliser que des profils de connexion et des configurations de connectivité privée situés dans la même région.
Date de création, de dernière mise à jour ou de récupération du flux.
Tous les libellés ajoutés au flux. Ces libellés permettent d'organiser le flux.
La méthode CDC que vous avez sélectionnée pour le flux, en fonction de la base de données source.
Les tables et schémas de la base de données source que Datastream doit inclure lors du traitement du flux.
Les tables et schémas de la base de données source que Datastream doit exclure lors du traitement du flux.
Pour toutes les sources, à l'exception de PostgreSQL, la méthode CDC définie pour le flux.
Pour les sources Oracle : méthode d'accès aux fichiers journaux.
Si cette option est activée, combien de schémas et de tables de la base de données source sont exclus du remplissage.
Pour les destinations BigQuery :
Indique si l'ensemble de données de destination est un ensemble de données dynamique ou par défaut.
Indique si le mode d'écriture du flux est défini sur Merge (Fusionner) ou Append-only (Ajout uniquement).
Si vous avez sélectionné Mode Fusionner, la configuration de la limite d'obsolescence appliquée aux nouvelles tables BigQuery créées par Datastream.
De plus, pour les destinations de tables BigLake Iceberg :
Identifiant de la connexion BigQuery que vous utilisez pour votre flux.
Identifiant URI (Uniform Resource Identifier) du bucket Cloud Storage dans lequel vous stockez vos données.
Pour les destinations Cloud Storage :
Emplacement de la destination dans laquelle le flux transfère les schémas, les tables et les données d'une base de données source.
Format des fichiers écrits dans la destination. Datastream accepte deux formats de sortie : Avro et JSON.
Indique si vos données sont chiffrées à l'aide d'une clé gérée par Google ou par vous.
Un lien et le chemin d'accès à la clé de chiffrement gérée par le client (si vous gérez le chiffrement).
Lien permettant de créer une règle d'alerte pour le flux.
Nombre de remplissages en cours, en attente ou ayant échoué.
Nombre d'événements traités et chargés vers la destination par Datastream au cours des sept derniers jours.
Nombre d'événements que Datastream n'a pas pu traiter au cours des sept derniers jours.
Graphique de fraîcheur des données. Ce graphique indique l'écart temporel entre les données résidant dans la source et celles qui sont transférées vers la destination par le flux. Il s'agit du temps écoulé depuis la dernière vérification par Datastream de la présence de nouvelles données dans la source.
Pour savoir comment supprimer un flux existant, consultez Supprimer un flux.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/09/04 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Difficile à comprendre","hardToUnderstand","thumb-down"],["Informations ou exemple de code incorrects","incorrectInformationOrSampleCode","thumb-down"],["Il n'y a pas l'information/les exemples dont j'ai besoin","missingTheInformationSamplesINeed","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/09/04 (UTC)."],[[["\u003cp\u003eYou can view high-level stream information, including its name, status, and the source and destination connection profiles it uses.\u003c/p\u003e\n"],["\u003cp\u003eDetailed stream information available includes the stream's region, creation/update times, labels, CDC method, and included/excluded tables and schemas.\u003c/p\u003e\n"],["\u003cp\u003eFor BigQuery destinations, details such as the dataset type, write mode, and staleness limit configurations can be viewed.\u003c/p\u003e\n"],["\u003cp\u003eFor Cloud Storage destinations, details on the destination location and the output file format (Avro or JSON) are available.\u003c/p\u003e\n"],["\u003cp\u003eYou can view data encryption information, event processing statistics, data freshness, and links to alerting policies for the stream.\u003c/p\u003e\n"]]],[],null,["# View a stream\n\nIn this page, you learn how to get information about your streams.\n\nTo view high-level and detailed information about a stream, do the following:\n\n1. Go to the **Streams** page in the Google Cloud Console.\n\n [Go to the Streams page](https://console.cloud.google.com/datastream/streams)\n2. Click the stream for which you want to see detailed information. This information appears on the **Stream details** page.\n\nView high-level information\n---------------------------\n\nHigh-level information about a stream includes:\n\n- The name and status of the stream.\n- The source and destination connection profiles that the stream uses to transfer data from a source database into a destination.\n- The profile types of the connection profiles.\n\nView detailed information\n-------------------------\n\nIn addition to viewing high-level information about a stream, you can click a stream to see additional information, including:\n\n- The region where the stream is stored. Streams, like all resources, are saved in a region. Streams can only use connection profiles and private connectivity configurations that are in the same region.\n- When the stream was created, last updated, or recovered.\n- Any labels added to the stream. These labels are used to organize the stream.\n- Depending on the source database, the CDC method that you selected for the stream.\n- The tables and schemas in the source database which Datastream should include when processing the stream.\n- The tables and schemas in the source database that Datastream should exclude when processing the stream.\n- For all sources apart from PostgreSQL, the CDC method set for the stream.\n- For Oracle sources: the log file access method.\n- Whether [historical backfill](/datastream/docs/create-a-stream#backfillhistoricaldata) is enabled or disabled for the stream.\n - If it's enabled, how many schemas and tables in the source database are excluded from backfilling.\n- For BigQuery destinations:\n\n - Whether the destination dataset is a dynamic or default dataset.\n - Whether the write mode for the stream is set to **Merge** or **Append-only**.\n - If you selected **Merge mode**, the staleness limit configuration applied to the new BigQuery tables created by Datastream.\n\n Additionally, for BigLake Iceberg tables destinations:\n - The identifier of the BigQuery connection that you use for your stream.\n - The uniform resource identifier (URI) of the Cloud Storage bucket where you store your data.\n- For Cloud Storage destinations:\n\n - The location of the destination into which the stream transfers schemas, tables, and data from a source database.\n - The format of files written to the destination. Datastream supports two output formats: Avro and JSON.\n- Whether your data is encrypted with a key that's managed by Google (Google-managed) or by you (Customer-managed).\n\n- A link and the path to the customer-managed encryption key (if you're managing the encryption).\n\n- A link to create an alerting policy for the stream.\n\n- A status of how many backfills are in progress, pending, or failed.\n\n- The number of events that are processed and loaded to the destination by Datastream in the last 7 days.\n\n- The number of events that Datastream couldn't process in the last 7\n days.\n\n - The Data freshness graph. This graph displays the time gap between data residing in the source and the data being transferred into the destination by the stream. This is calculated as the time elapsed since Datastream last checked for new data in the source.\n\n For more information about this graph, see\n [Monitor a stream](/datastream/docs/monitor-a-stream).\n\nWhat's next\n-----------\n\n- To learn more about streams, see [Stream lifecycle](/datastream/docs/stream-states-and-actions).\n- To learn how to modify your streams, see [Modify a stream](/datastream/docs/modify-a-stream).\n- To learn how to monitor a stream, see [Monitor a stream](/datastream/docs/monitor-a-stream).\n- To learn how to delete an existing stream, see [Delete a stream](/datastream/docs/delete-a-stream)."]]