Questions fréquentes

Présentation

Dans cette rubrique, vous trouverez les réponses aux questions fréquentes concernant l'utilisation de Datastream. Cette FAQ est associée à:

  • Questions générales sur Datastream et la capture de données modifiées
  • Capture de données modifiées sur MySQL (CDC)
  • Capture de données modifiées pour Oracle (DCC)
  • Cas d'utilisation courants de Datastream
  • Comment Datastream s'intègre aux services de données Google Cloud
  • Informations sur l'aperçu et les versions en disponibilité générale de Datastream
  • Comportement et limitations de Datastream
  • Sécurité et connectivité
  • Traiter des fichiers Datastream
  • Surveiller un flux de données
  • Tarifs
  • Informations supplémentaires sur Datastream

Questions générales sur Datastream et la capture de données modifiées

Question Répondre
Qu'est-ce que Datastream ?

Datastream est un service de capture de données sans serveur et facile à utiliser qui vous permet de synchroniser des flux de données entre des bases de données et des applications hétérogènes, avec une latence minimale. Datastream permet de transférer en streaming les données des bases de données Oracle et MySQL dans Cloud Storage.

Ce service vous permet d'intégrer plus facilement vos modèles Dataflow afin d'optimiser les vues matérialisées à jour dans BigQuery pour les analyses, de répliquer leurs bases de données dans Cloud SQL ou Cloud Spanner pour la synchronisation de votre base de données, ou d'exploiter les flux directement depuis Cloud Storage pour réaliser des architectures basées sur des événements. s'affiche en haut de l'écran. Datastream s'intègre également à Cloud Data Fusion si vous souhaitez créer des pipelines de données avec des transformations dans BigQuery.

Qu'est-ce que le CDC ?

CDC est une approche de l'intégration de données qui vous permet d'intégrer et d'analyser des données plus rapidement, avec moins de ressources système. Il s'agit d'une méthode permettant d'extraire uniquement les dernières modifications (mises à jour, insertions ou suppressions) d'une source de données, souvent en lisant le journal des modifications que la source conserve pour son propre intégrité transactionnelle interne.

Le CDC est un mécanisme très efficace qui permet de limiter l'impact de la source sur le chargement de nouvelles données dans les magasins de données opérationnels et les entrepôts de données. Il évite d'avoir à mettre à jour les charges et à traiter des lots par lots en activant le chargement incrémentiel ou en temps réel de de destination.

La CDC peut être utilisée dans de nombreux cas d'utilisation qui tirent parti de l'accès constant aux changements de données à mesure qu'ils surviennent, tels que les analyses, la synchronisation des données sur des systèmes distribués géographiquement et les architectures évènementielles.

Qu'est-ce que les annonces de remplissage ? En plus des modifications continues, Datastream utilise également le remplissage pour extraire toutes les données existantes d'une source, puis les insérer en destination. Par conséquent, la destination est "remplissant" avec toutes les données d'historique de la source.
Quelles sont les méthodes d'insertion utilisées par flux de données ? L'une des deux méthodes suivantes permet d'insérer des données en flux continu d'une source vers une destination :
  • CDC: capturer en temps réel les modifications apportées à la source
  • Remplissage: fournit un instantané historique des données existant dans une table.
Qu'est-ce qu'un flux de modifications ? Un flux de modifications est une séquence d'événements que Datastream émet à une destination (telle que Cloud Storage) pour une consommation en aval. Le résultat d'un flux de modifications écrit dans une destination est un ensemble de fichiers qui contiennent les événements du journal des modifications d'une table de base de données spécifique sur une période donnée. Ces événements représentent des insertions, des mises à jour et des suppressions à cette table de la source. Les événements peuvent être utilisés et traités en aval de la destination par des services tels que Dataflow pour les architectures évènementielles.
Qu'est-ce qu'une vue matérialisée ?

Une vue matérialisée est une représentation actualisée d'une table source dans une destination. Il peut s'agir, par exemple, d'une table de base de données Oracle dans laquelle les modifications de cette table sont répliquées en continu dans une table BigQuery. Par conséquent, la table BigQuery est mise à jour à l'aide des modifications diffusées en streaming depuis la table Oracle.

Les vues matérialisées exploitent les flux de modifications en consommant chaque événement de modification et en l'utilisant pour mettre à jour la vue matérialisée. Datastream fournit des vues matérialisées dans des destinations telles que BigQuery, Cloud SQL et Cloud Spanner grâce à l'intégration à Dataflow. Les modèles permettent d'extraire les événements de flux de modifications de la destination et de mettre à jour les tables de destination en conséquence.

Datastream nécessite-t-il un agent pour la source ? Vous n'avez pas besoin d'installer d'agent sur la source. Datastream utilise des interfaces existantes (telles que Oracle LogMiner) pour extraire les données de la source.
Qu'en est-il de l'utilisation de Datastream sur une base de données de production sur les performances ?

Le CDC est un mécanisme très efficace permettant de limiter l'impact sur les sources lorsque des données sont chargées dans des datastores et entrepôts de données de destination. De plus, il n'est plus nécessaire de mettre à jour le chargement groupé ni de recourir à des fenêtres de traitement par lot en activant le chargement incrémentiel ou en temps réel de modifications des données dans une destination.

En outre, Datastream minimise l'impact d'un remplissage initial en limitant le nombre de tâches de remplissage simultanées, et vous donne la possibilité de choisir les objets à remplir et de les rembourser.

Pouvez-vous copier les fichiers journaux de la source vers Google Cloud ? Non. Datastream interroge les journaux directement sur le serveur de base de données et seules les modifications apportées aux tables spécifiées sont écrites dans la destination.
Datastream peut-il également transférer des données de l'historique ? Oui. Par défaut, Datastream récupère toutes les données d'historique des tables de base de données de votre source, en parallèle du flux CDC. Datastream vous offre la flexibilité nécessaire pour obtenir des données d'historique provenant de la totalité ou d'une partie des tables de base de données de votre source. En outre, lorsque vous configurez votre flux, vous pouvez choisir de désactiver l'historique des annonces de remplissage.
Quelle est la taille de ligne maximale acceptée par Datastream ? Actuellement, Datastream est limité aux lignes ne dépassant pas 3 Mo.
Datastream garantit-il une commande ? Datastream ne garantit pas l'ordonnancement. Il fournit des métadonnées supplémentaires sur chaque événement, pour assurer une cohérence à terme dans le bucket de destination. En fonction de la source, de la fréquence et de la fréquence des modifications, ainsi que d'autres paramètres, vous pouvez obtenir une cohérence à terme dans une fenêtre d'une heure.
Datastream garantit-t-il une livraison "exactement une fois" ? Non. La diffusion des données est au moins une fois. Les métadonnées supplémentaires écrites par Datastream dans chaque événement peuvent être utilisées pour supprimer les données en double.
Comment Datastream gère-t-il les modifications du schéma d'une source ? Datastream récupère régulièrement le schéma à partir de la source. Cependant, entre les récupérations de schéma, certaines modifications de schéma peuvent ne pas être détectées, ce qui peut entraîner des écarts de données. Nous prévoyons de capturer en temps réel les événements de langue de définition de données, ce qui va résoudre cette limitation actuelle.
Gérez-vous les bases de données chiffrées ? Oui.
Datastream peut-il diffuser des tables et des colonnes spécifiques d'une source ? Oui. Avec Datastream, vous pouvez spécifier des listes d'inclusion et d'exclusion pour les tables et les schémas, afin de ne diffuser que les données souhaitées depuis une source vers une destination. Pour les tableaux inclus, vous pouvez exclure des colonnes spécifiques des tableaux afin d'affiner avec précision les données qui doivent être diffusées dans la destination. Toutefois, les vues matérialisées ne peuvent pas être répliquées.
Comment déplacer un flux vers un autre projet ou une autre région ?
  1. Créez un flux dans une nouvelle région ou projet avec la même configuration que le flux existant, mais ne cochez pas la case Renseigner les données de l'historique.
  2. Démarrez le flux que vous avez créé.
  3. Une fois que l'état du flux que vous avez créé est RUNNING, mettez le flux en veille.
  4. Si vous le souhaitez, modifiez le nouveau flux en cochant la case Renseigner les données de l'historique. Les données des tables ajoutées à la diffusion future seront diffusées à partir de la source vers la destination.

Capture de données modifiées sur MySQL (CDC)

Question Répondre
Comment Datastream extrait-il les données de MySQL ? Datastream utilise le journal binaire de MySQL pour extraire les événements de modification de MySQL.

Capture de données modifiées pour Oracle (DCC)

Question Répondre
Comment Datastream récupère-t-il les données d'Oracle ? Datastream utilise Oracle LogMiner pour extraire les données des journaux de rétablissement d'Oracle.
Datastream nécessite-t-il une licence GoldenGate d'Oracle ? Non. Datastream utilise Oracle LogMiner pour lire les données des journaux de rétablissement de la base de données.
Que se passe-t-il lorsque Oracle LogMiner n'est plus compatible ? Oracle sera compatible avec les futures versions. Pour l'instant, Oracle LogMiner est disponible dans toutes les versions d'Oracle accessibles à tous.
Datastream est-il compatible avec l'architecture mutualisée d'Oracle, en particulier les bases de données de conteneurs (CDB) et les bases de données interconnectables ? Datastream n'est actuellement pas compatible avec les CDB et les PDB, mais elle figure sur notre feuille de route.

Cas d'utilisation

Question Répondre
Quels sont les cas d'utilisation courants de Datastream ?

Datastream est un service de CDC et de réplication, ce qui signifie qu'il est flexible dans divers cas d'utilisation pouvant bénéficier de l'accès aux données de streaming en continu. Voici les cas d'utilisation les plus courants de Datastream, par ordre de popularité:

  1. Analyse:en intégrant Datastream à des modèles Dataflow pour charger des données dans BigQuery, vous pouvez obtenir des vues matérialisées à jour des données sources dans BigQuery. Vous pouvez utiliser ces données mises à jour en continu pour créer des tableaux de bord à jour pour les données. Cette fonctionnalité peut être utile, par exemple, pour surveiller vos systèmes et pour obtenir des insights à jour sur l'état de votre entreprise.
  2. Scénarios de réplication et de réplication des bases de données:en intégrant Datastream à des modèles Dataflow pour charger des données dans Cloud SQL ou Cloud Spanner, vous pouvez obtenir des vues matérialisées à jour de vos données source dans ces bases de données. Vous pouvez utiliser ces données mises à jour en continu dans les bases de données de destination pour effectuer une migration de base de données à faible temps d'arrêt de la source vers la destination ou pour les configurations du cloud hybride, où la source et la destination se trouvent dans des environnements d'hébergement différents.
  3. Architectures basées sur des événements:les architectures modernes basées sur des microservices reposent sur les hubs centralisés de données mis à jour avec des événements en continu dans toute votre organisation pour être événementiels. En écrivant les données d'événements en continu dans des destinations telles que Cloud Storage, vous pouvez créer des architectures basées sur des événements et basées sur la consommation de données d'événements à partir de ces destinations.

Intégrations

Question Répondre
Comment Datastream est-il intégré aux services de données Google Cloud ?

Datastream complète et améliore la suite de données Google Cloud en fournissant une réplication de données CDC à partir de sources vers divers services Google Cloud. L'intégration fluide à ces services permet à Datastream de s'intégrer à l'écosystème Google Cloud, plus vaste.

Datastream s'intègre aux services de données suivants:

  • Dataflow:Datastream s'intègre à Dataflow via des modèles Dataflow. Ces modèles lisent des données depuis Cloud Storage et les chargent dans BigQuery, Cloud SQL pour PostgreSQL ou Cloud Spanner. Ces modèles ont pour objectif de maintenir des vues matérialisées à jour des tables sources répliquées dans les destinations. Les modèles sont disponibles dans l'interface utilisateur de Dataflow et sont créés pour les fichiers générés par Datastream pour un traitement simple et prêt à l'emploi.
  • Cloud Data Fusion:Datastream s'intègre à Cloud Data Fusion en alimentant un connecteur Oracle via la fonctionnalité de réplication de Cloud Data Fusion. Vous pouvez créer une source d'Oracle de réplication que Datastream "puissance" exécute en toute transparence de manière transparente pour créer un pipeline de données. Ce pipeline inclut des transformations enrichies pour les données Oracle dans lesquelles Datastream instreame les données dans Cloud Data Fusion.
  • Cloud Storage:Datastream s'intègre à Cloud Storage en écrivant dans ce dernier comme destination de streaming en continu.
  • Cloud SQL, Cloud Spanner et BigQuery:Datastream s'intègre à ces bases de données de destination. Grâce aux modèles Dataflow, vous pouvez maintenir des vues matérialisées à jour dans les bases de données.

Aperçu et disponibilité générale

Question Répondre
Quand les aperçus et les versions en disponibilité générale de Datastream seront-ils disponibles ? La version de l'aperçu de Datastream est actuellement disponible. La version en disponibilité générale sera disponible d'ici la fin de l'année.
Quelles sources et destinations sont compatibles avec l'aperçu de Datastream ?
  • Sources:Datastream accepte les flux de données provenant de sources Oracle et MySQL, hébergées par le cloud et autogérées. Pour en savoir plus sur la compatibilité des sources, consultez la section Comportement et limites.
  • Destinations:Datastream accepte l'écriture des données dans les fichiers diffusés en flux continu dans Cloud Storage. Vous pouvez ensuite transférer ces données de Cloud Storage vers BigQuery, Cloud Spanner et Cloud SQL pour PostgreSQL à l'aide de modèles Dataflow.
Quelles sources et destinations sont compatibles avec Datastream pour GA ? Data Studio sera compatible avec les mêmes sources et destinations pour GA que pour l'aperçu.
Datastream peut-il gérer des bases de données chiffrées ? Oui.
Quelle est la disponibilité régionale de Datastream ?

Pour afficher la liste des régions dans lesquelles Datastream est disponible, consultez Listes d'adresses IP et régions autorisées.

Pour GA, Datastream sera disponible dans toutes les régions.

Comportement et limitations

Question Répondre
Quelles versions sources sont compatibles avec Datastream ?

Pour MySQL, Datastream est compatible avec les versions 5.6, 5.7 et 8.0. Toute base de données compatible avec MySQL est compatible, entre autres:

  • Une base de données auto-hébergée, sur site ou sur n'importe quel fournisseur cloud
  • Cloud SQL pour MySQL
  • AWS RDS MySQL et Aurora MySQL
  • MariaDB
  • Alibaba Cloud PolarDB
  • Percona Server pour MySQL

Pour Oracle, Datastream est compatible avec les versions 11, 12, 12, 12, 18 et 18c (pas RAC dans les configurations SCAN, CDB/PDB ou les bases de données autonomes). Toute base de données compatible avec Oracle est compatible, y compris, mais sans s'y limiter:

  • Une base de données auto-hébergée, sur site ou sur n'importe quel fournisseur cloud
  • AWS RDS
  • Oracle Cloud
Comment Datastream extrait-il les données des sources ?

Pour MySQL, Datastream traite le journal binaire MySQL pour extraire les événements de modification.

Pour Oracle, Datastream utilise LogMiner et des paramètres de journalisation supplémentaires pour extraire les données des journaux de rétablissement d'Oracle.

Pouvez-vous copier des fichiers journaux directement à partir d'une source vers Google Cloud ? Datastream ne copie pas l'intégralité des fichiers journaux, mais interroge directement les fichiers journaux du serveur de base de données et ne réplique que les modifications des tables spécifiées vers la destination.
Pour les sources Oracle, Datastream nécessite-t-il une licence GoldenGate ? Datastream n'a pas besoin d'une licence GoldenGate, car il utilise les données d'Oracle LogMiner pour lire les données des journaux Rre de la base de données.
Que se passe-t-il lorsque Oracle LogMiner ne sera pas compatible avec les versions plus récentes ? LogMiner n'étant plus compatible avec Oracle 20 et les versions ultérieures, toutes les sources Oracle antérieures à cette version peuvent continuer à utiliser LogMiner avec Datastream en toute sécurité.
Quelles sont les limites applicables aux données que Datastream peut traiter ?

Il existe des limites générales, des limites pour les sources MySQL et des limites pour les sources Oracle.

Les limites générales sont les suivantes:

  • Débit: 5 Mo/s avec une taille maximale de ligne de 3 Mo.
  • Certaines opérations de langage de définition de données (LDD) ne sont pas disponibles lors de la réplication, y compris :
    • Supprimer une colonne au milieu d'une table. Cela peut générer un écart dans les données, car les valeurs sont associées à la mauvaise colonne.
    • Modifier le type de données d'une colonne. Cela peut entraîner un écart dans les données, car les données ne sont pas mappées correctement avec le type de données unifié Datastream. De plus, les données peuvent être corrompues.
    • Les suppressions en cascade sont ignorées.
    • La troncature de table est ignorée.

Les limites de MySQL incluent le remplissage de tables pour les tables qui n'ont pas de clé primaire et d'une taille supérieure à 100 Go.

Les limites Oracle sont les suivantes:

  • Compatibilité avec les colonnes:
    • Certains types de données ne sont pas compatibles et sont répliqués avec des valeurs NULL. Ces types de données incluent des types de données abstraits (ADT), ANYDATA, des collections (VARRAY), BLOB/CLOB/LOB/NCLOB, LONG, UDT, UROWID et XMLType.
  • Fonctionnalités Oracle non compatibles:
    • Tables externes
    • Liens vers une base de données (dblinks)
    • Tables d'index uniquement
    • OLS (Oracle Label Security) n'est pas répliqué.
  • Les fichiers de plus de 100 Go ne sont pas acceptés.

Quelles sont les données incluses dans chaque événement généré par Datastream ? Chaque événement généré (pour les insertions, les mises à jour et les suppressions) inclut la totalité de la ligne de données de la source, avec le type de données et la valeur de chaque colonne. Chaque événement inclut également des métadonnées d'événement permettant d'établir un ordre et de garantir une distribution "exactement une fois".
Datastream garantit-il une commande ? Bien que Datastream ne garantit pas l'ordonnancement, il fournit des métadonnées supplémentaires pour chaque événement. Ces métadonnées peuvent être utilisées pour garantir la cohérence à terme de la destination. En fonction de la source, de la fréquence et de la fréquence des modifications, ainsi que d'autres paramètres, vous pouvez généralement obtenir une cohérence à terme dans une période d'une heure.
Datastream garantit-t-il une livraison "exactement une fois" ? La diffusion des données est au moins une fois. Vous pouvez éliminer les données en double en utilisant d'autres métadonnées que Datastream écrit pour chaque événement.
Comment Datastream représente-t-il les types de données de la source en vue d'un traitement en aval ?

Datastream facilite le traitement en aval des données sur l'ensemble des sources de données en normalisant les types de données dans toutes les sources. Datastream utilise le type de données source d'origine (par exemple, un type NUMERIC MySQL ou un type NUMBER Oracle) et le normalise en un type unifié Datastream.

Les types unifiés représentent un sur-ensemble de tous les types de sources possibles, tandis que la normalisation signifie que les données provenant de différentes sources peuvent être traitées facilement et qu'elles sont soumises à des requêtes en aval de manière indépendante.

Si un système en aval a besoin de connaître le type de données source, il peut le faire via un appel d'API au registre de schémas de Datastream. Ce registre stocke des schémas à versions gérées pour chaque source de données. L'API Schema Registry permet également d'accélérer la résolution de flux en aval, car les schémas de base de données source changent.

Comment Datastream gère-t-il les modifications de structure (schéma) dans la source ? Datastream suit en permanence les modifications apportées à la structure de données source. Les schémas sont stockés dans le registre de schémas de Datastream, et chaque événement référence le schéma au moment de sa génération. Cela permet à Datastream ou à d'autres processus en aval d'effectuer le suivi des modifications de schéma en temps réel et de les ajuster en fonction de ces modifications, ce qui garantit que toutes les données sont diffusées et chargées correctement vers la destination.

Sécurité et connectivité

Question Répondre
Datastream est-il un service sécurisé pour les données sensibles ? Datastream accepte plusieurs configurations de connectivité privée sécurisées pour protéger les données en transit entre une source et une destination. Une fois les données répliquées, elles sont chiffrées, par défaut, et exploitent les contrôles de sécurité de Cloud Storage. Toutes les données mises en mémoire tampon par Datastream sont chiffrées au repos.
Quelles sont les options de connectivité disponibles pour connecter vos sources à Datastream ?

Il existe trois types de méthodes de connectivité que vous pouvez configurer:

  • Liste d'autorisation IP:cette méthode vous permet d'obtenir une connectivité publique en répertoriant les adresses IP régionales de Datastream sur la source. Lorsque vous créez votre flux, Datastream affiche ces adresses IP dans l'interface utilisateur.
  • Tunnel SSH de transfert:cette méthode vous permet d'obtenir une connectivité sécurisée sur les réseaux publics en exploitant un bastion SSH configuré par le client en plus d'autoriser la liste des adresses IP régionales.
  • Connectivité privée via l'appairage de VPC:utilisez cette méthode pour vous connecter à vos bases de données hébergées par Google Cloud via le réseau interne de Google Cloud. Vous pouvez aussi exploiter un VPN ou une interconnexion existant en établissant un appairage de VPC entre le réseau privé de Datastream et le réseau Google de votre organisation. VPC Cloud.
Comment puis-je limiter le traitement des données sensibles dans Datastream ?

Datastream vous permet de spécifier les éléments de données spécifiques (schémas, tables et colonnes) de la source que vous souhaitez insérer dans une destination, ainsi que les éléments à exclure des flux.

Les journaux de base de données peuvent contenir des données de modification provenant d'éléments qui ont été exclus de votre définition de flux. Étant donné que vous ne pouvez pas filtrer ces éléments au niveau de la source, le flux de données lit, mais ignore toutes les données associées aux éléments.

Traiter les fichiers Datastream

Question Répondre
Comment les fichiers sont-ils créés dans Cloud Storage ? Datastream crée un dossier pour chaque table. Dans chaque dossier, Datastream alterne le fichier (ou crée un fichier) lorsqu'il atteint le seuil ou la durée définis par l'utilisateur. Datastream alterne également le fichier chaque fois qu'une modification de schéma est détectée. Le nom de fichier sera composé d'une clé de schéma unique (basée sur un hachage du schéma), suivie de l'horodatage du premier événement du fichier. Pour des raisons de sécurité, ces noms de fichiers ne sont pas conçus pour être lus ou compris par les utilisateurs.
Si les données présentes dans Cloud Storage ne sont pas ordonnées, comment les événements peuvent-ils être réorganisés avant d'être chargés dans la destination ? Chaque événement contient plusieurs champs de métadonnées qui identifient de manière unique la ligne dans le journal de rétablissement de la commande Oracle. Plus précisément :
  • rs_id, qui est en réalité composée de trois valeurs (par exemple, 0x0073c9.000a4e4c.01d0). La valeur rs_id identifie de manière unique l'enregistrement dans le journal de rétablissement.
  • ssn, qui est utilisé lorsque l'enregistrement du journal de rétablissement est trop long. De ce fait, Oracle LogMiner divise l'enregistrement en plusieurs lignes.
Pour trier les événements, vous devez trier chaque partie de l'rs_id, puis par ssn.
Si plusieurs fichiers sont créés pour le même horodatage, dans quel ordre ils doivent être traités ? Étant donné que le tri dans les fichiers n'est pas garanti, le meilleur moyen de déterminer l'ordre de traitement des fichiers consiste à récupérer tous les événements de tous les fichiers pour l'horodatage spécifique, puis à les classer par le biais de la méthode mentionnée ci-dessus.
Comment les mises à jour de la clé primaire sont-elles traitées ? Existe-t-il des informations avant et après l'événement ? Le champ de métadonnées row_id identifie de manière unique la ligne modifiée. Pour garantir l'intégrité des données, consolidez les données en fonction de la valeur associée au champ row_id, au lieu de compter sur la clé primaire.

Surveiller le flux de données

Question Répondre
Comment savoir si toutes mes données d'historique ont été copiées dans le bucket Cloud Storage de destination ? Datastream fournit des informations sur son état actuel dans les fichiers journaux. Une entrée de journal est créée pour indiquer quand le remplissage d'une table est terminé.

Tarifs

Question Répondre
Quelle est la tarification de Datastream ?

Le prix de Datastream est basé sur le volume (Go) de données diffusées en streaming depuis votre source vers une destination.

Pour en savoir plus sur la tarification de Datastream, consultez la page Tarifs.

Comment calculez-vous la taille des données ? La facturation est calculée en fonction de la taille des données brutes (non compressées) diffusées depuis la source vers la destination. Seules les données transmises en flux continu sont facturées uniquement.
Si vous utilisez Datastream avec Dataflow ou Cloud Data Fusion, que vous payez-vous ? Chaque service est facturé séparément et facturé séparément.

Informations supplémentaires

Question Répondre
Que faire si j'ai d'autres questions ou problèmes d'utilisation de Datastream ? L'équipe d'assistance Google peut vous aider si vous rencontrez des problèmes avec l'utilisation de Datastream. En outre, le guide de dépannage traite des problèmes courants que vous êtes susceptible de rencontrer lors de l'utilisation de Datastream.