在本页中,您将找到有关使用 Datastream 的常见问题解答 (FAQ)。此常见问题解答与以下内容相关联:
- 关于 Datastream 和变更数据捕获 (CDC) 的常见问题
- 一般来源行为和限制
- MySQL 来源行为和限制
- Oracle 来源行为和限制
- PostgreSQL 源行为和限制(包括 AlloyDB for PostgreSQL)
- SQL Server 源行为和限制
- Salesforce 源行为和限制
- BigQuery 目标位置行为
- Cloud Storage 目标位置行为
- 使用 DataStream 的常见用例
- Datastream 如何与 Google Cloud 数据服务集成
- 安全性和连接性
- 监控 Datastream
- 价格
- 有关 DataStream 的其他信息
关于 Datastream 和变更数据捕获 (CDC) 的常见问题
问题 | 答案 |
---|---|
什么是 Datastream? | Datastream 是一种无服务器且易于使用的变更数据捕获 (CDC) 和复制服务。利用 Datastream,您可以直接从 AlloyDB for PostgreSQL、PostgreSQL、MySQL、SQL Server 和 Oracle 等关系型数据库源,以及从 Salesforce 和 MongoDB,将数据无缝复制到 BigQuery。Datastream 具有现代企业所需的规模、速度、安全性和简便性。借助无服务器、自动扩缩的架构,Datastream 可让您设置可实现低延迟数据复制的 ELT(提取、加载和转换)流水线,从而获得近乎实时的数据洞见。 Datastream 还能够跨异构数据库和应用可靠地同步数据流,同时将延迟时间缩至最短。您可以将该服务与 Dataflow 模板集成,以将数据库复制到 Cloud SQL 或 Spanner 中,从而实现数据库同步;也可以直接利用 Cloud Storage 中的事件流来实现事件驱动型架构。 |
Datastream 通过哪些方法流式传输数据? | Datastream 通过以下两种方法之一将数据从来源流式传输到目标位置:
|
什么是 CDC? |
CDC 是一种数据集成方法,可让您使用较少的系统资源更快地集成和分析数据。该方法通常读取来源为其自身内部事务完整性而保留的更改日志,从数据源仅拉取最新更改(更新、插入或删除)。 在将新数据加载到运营数据存储区和数据仓库时,CDC 是一种高效的机制,用于限制对来源的影响。此外,借助 CDC,您可以实现将数据变更增量加载或近乎实时地流式传输到数据目标位置,从而无需批量加载更新和不方便的批处理窗口。 CDC 可用于许多从不断访问发生的数据变更中获得价值的用例,如分析、跨地理分布系统的数据同步和事件驱动架构。 |
回填是什么? | 除了持续更改之外,Datastream 还使用回填从来源拉取所有现有数据,然后将数据流式传输到目标位置。因此,系统会使用来源的所有历史数据“回填”目标位置。回填分为两种类型:
|
在执行回填时,是否需要考虑任何限制? |
如需了解回填限制,请参阅相应来源类型的已知限制页面:
|
建议按什么顺序执行 CDC 和回填操作? | 在大多数情况下,这里无需特别考虑。在数据流中启用回填后,Datastream 会同时执行回填和 CDC。在某些极端情况下,例如复制无法使用 Datastream 回填的超大型表时,您可能需要先将数据加载到 BigQuery 中,然后再启动数据流。 |
我可以监控 CDC 和回填操作的状态吗? | 您可以按对象监控回填状态:
CDC 状态实际上就是数据流状态。如果 CDC 操作失败,则整个流都会失败。 Cloud Monitoring 中还提供其他对象级指标。如需了解详情,请参阅 Cloud Monitoring 文档。 |
变更数据流与复制有何区别? | 变更流是 Datastream 发送到目标位置以供下游使用的事件序列。写入到 Cloud Storage 的变更流的结果是一组文件,其中包含在一段时间内来自特定表的变更日志事件。这些事件代表对相应表的插入、更新和删除操作,并且这些事件可以通过 Dataflow 等服务在 Cloud Storage 下游使用和处理,以用于事件驱动型架构等用例。 在 Datastream 中,复制是指目标位置中来源表的一对一最新表示形式。例如,Oracle 中的某个表,其更改会持续复制到 BigQuery 表,而 BigQuery 表会使用从 Oracle 表流式传输的更改保持最新。复制通过使用每个变更事件并使用它来更新目标来利用变更数据流。Datastream 可直接复制到 BigQuery,还可与 Dataflow 集成,利用模板从 Cloud Storage 拉取变更流事件并相应地更新目标表,从而支持 Cloud SQL 和 Spanner 等其他目标位置。 |
Datastream 是否需要在来源上安装代理? | 您不必在来源上安装代理。Datastream 使用现有接口(如 Oracle LogMiner)从来源中获取数据。 |
单个数据流中可以包含多少个表? | Datastream 可以在单个数据流中处理最多 10,000 个表。虽然将数据库拆分为多个数据流可能出于某些业务考虑(例如,在复制 PostgreSQL 来源中的大型事务时,针对不同的逻辑流使用不同的数据流),但从技术角度来看,没有必要这样做。不过,每个数据流都会增加源数据库的负载。对于 CDC 而言,此类负载可以忽略不计,但对于回填而言,此类负载可能非常大。 |
Datastream 的使用对生产数据库的性能影响如何? |
在将新数据加载到目标数据存储区和数据仓库时,CDC 是一种高效的机制,用于限制对来源的影响。借助 CDC,您可以实现将数据变更增量加载或近乎实时地流式传输到目标位置,从而无需批量加载更新和不方便的批处理窗口。 此外,Datastream 通过限制同时回填任务的数量并让您控制要回填哪些对象以及何时回填,来最大限度地减少初始回填的影响。 |
您能否将日志文件从来源复制到 Google Cloud? | 不能。Datastream 直接查询数据库服务器上的日志,只有指定表的变更才会写入目标位置。 |
Datastream 能否转移历史数据? | 可以。默认情况下,Datastream 会并行 CDC 流,从您指定的来源数据库表中获取所有历史数据。Datastream 可让您灵活地从来源中的部分或所有数据库表获取历史数据。此外,在配置数据流时,您可以选择停用历史回填。 |
Datastream 能否保证正好一次传送? | 不可以。DataStream 至少传送一次。Datastream 写入每个事件的其他元数据可用于移除重复数据。 |
Datastream 是否可以处理加密的数据库? | 可以。 |
DataStream 是否可以从数据源流式传输特定表和列? | 可以。借助 Datastream,您可以指定包含和排除表和架构的列表,以便仅将所需的数据从来源流式传输到目标位置。对于包含的表,您可以排除表的特定列,从而进一步微调要流式传输到目标位置中的数据。但是,无法复制具体化视图。 |
如何将数据流移至其他项目或区域? | |
Datastream 如何处理数据库日志文件中未提交的事务? | 当数据库日志文件包含未提交的事务时,如果回滚了任何事务,则数据库会在日志文件中将其反映为“反向”数据操纵语言 (DML) 操作。例如,回滚 INSERT 操作具有相应的 DELETE 操作。Datastream 从日志文件中读取这些操作。 |
Datastream 的区域可用性如何? | 如需查看可使用 Datastream 的区域列表,请参阅 IP 许可名单和区域。 |
一般来源行为和限制
问题 | 答案 |
---|---|
Datastream 支持哪些来源? | Datastream 支持来自 Oracle、MySQL、PostgreSQL、AlloyDB for PostgreSQL、SQL Server、Salesforce(预览版)和 MongoDB(预览版)来源的流式数据,包括云托管数据和自行管理的数据。如需了解特定于来源的版本,请参阅以下页面:
|
Datastream 是否可以处理加密的数据库? | 可以。 |
Datastream 如何从来源中提取数据? | 对于 MySQL,Datastream 会处理 MySQL 二进制日志以提取变更事件。 对于 Oracle,Datastream 会使用 LogMiner 和补充日志记录设置从 Oracle 的重做日志中提取数据。 对于 PostgreSQL 和 AlloyDB for PostgreSQL,Datastream 依赖于 PostgreSQL 的逻辑解码功能。逻辑解码会公开提交到数据库的所有更改,并允许使用和处理这些更改。 对于 SQL Server,Datastream 使用事务日志跟踪数据操纵语言 (DML) 更改。 |
您能否将日志文件直接从来源复制到 Google Cloud? | Datastream 不会复制整个日志文件,而是直接从数据库服务器查询日志文件,只会将指定表中的变更复制到目标位置。 |
Datastream 可以处理的数据有哪些限制? |
存在一般限制,以及适用于特定数据库来源的限制。 一般限制包括:
如需了解特定来源的限制,请参阅以下页面:
|
Datastream 生成的每个事件中都包含哪些数据? | 每个生成的事件(插入、更新和删除事件)都包含来自来源的整行数据,以及每列的数据类型和值。每个事件还包括可用于建立排序并确保正好一次传送的事件元数据。 |
Datastream 能否保证排序? | 虽然 Datastream 不保证排序,但它为每个事件提供了其他元数据。此元数据可用于确保目标位置中的最终一致性。通常,可以在 1 小时内实现最终一致性,具体取决于来源、变更的比率和频率以及其他参数。 |
Datastream 能否保证正好一次传送? | Datastream 为至少一次传送。您可以使用 Datastream 写入每个事件的其他元数据来消除重复数据。 |
Datastream 如何表示来自来源的数据类型以供下游处理? | 在写入无架构的目标位置(例如 Cloud Storage)时,Datastream 会对所有来源的数据类型进行标准化,从而简化跨来源的数据下游处理。Datastream 接受原始来源数据类型(例如 MySQL 或 PostgreSQL 统一类型表示所有可能的来源类型的无损超集,标准化意味着不同来源的数据可以轻松地处理,并以与来源无关的方式在下游进行查询。 |
Datastream 如何处理来源中的结构(架构)更改? | Datastream 会定期从来源提取架构。架构存储在 Datastream 的内部架构注册表中,每个事件都会在生成架构时引用该架构。这样,Datastream 就可以跟踪架构更改并根据这些更改进行调整,从而确保所有数据均已流式传输并正确加载到目标位置。但是,在架构提取之间,某些架构变更可能无法检测到,从而可能导致数据差异。 |
我删除了源数据库中的一列,但该列仍显示在目标数据库中。为什么? | Datastream 不会删除目标位置中的列。您必须手动删除列。此行为是故意的,因为在某些情况下,您可能希望在目标中保留已删除的列。例如,Datastream 会将重命名源中的列解读为删除一个列并添加另一个列。在这种情况下,您不希望丢失目标中的原始列。 |
由于验证失败,数据流无法启动,但我认为这是错误,或者我想尝试运行数据流。如何才能通过此验证? | 您可以通过添加 force=true 标志并跳过验证检查,使用 API 启动数据流。请注意,跳过验证并不能保证数据流能够运行,如果数据库缺少必要的配置或权限,数据流仍可能会失败。
|
我可以重启失败的流式传输吗? | 您可以解决 Datastream 报告的错误,从而修复状态为 您还可以恢复状态为 |
Datastream 是否会锁定数据库表? | 不需要。Datastream 不需要锁定表。 |
每个来源的限制页面都指出,数据流最多可以有 10,000 个表。这是否意味着,Datastream 无法同时针对 10,000 个以上的表并行运行 CDC 操作? | 不是。上述限制是针对每个直播的。您可以拥有多个数据流,但表格总数不得超过 1 万个。 |
MySQL 来源行为和限制
问题 | 答案 |
---|---|
Datastream 如何从 MySQL 获取数据? | Datastream 使用 MySQL 的二进制日志从 MySQL 中提取变更事件 |
Datastream 是否支持 Cloud SQL for MySQL 读取副本实例? | 是的,Datastream 支持 5.7 和 8.0 版 Cloud SQL for MySQL 的读取副本实例。 您可以针对这些实例启用二进制日志记录功能。为此,请执行以下 gcloud CLI 命令: gcloud sql instances patch INSTANCE_NAME -- enable-bin-log 如需了解详情,请参阅读取副本的二进制日志记录功能。 |
Datastream 至少需要哪些权限才能从源 MySQL 数据库复制数据? | 您必须向 Datastream 用户授予以下权限,才能从 MySQL 数据库复制数据:
|
Datastream 是否支持二进制日志压缩? | 不支持。Datastream 不支持使用二进制日志事务压缩来压缩事务事件。停用二进制日志事务压缩,以便在 Datastream 中使用 MySQL 的变更数据捕获功能。 |
您的组织不允许向其所有表和数据库授予 SELECT 权限。您还可以使用 Datastream 吗? |
您可以向要复制的特定表或数据库中的整个架构授予 GRANT SELECT ON DATABASE_NAME.TABLE_NAME TO USER_NAME@'%'; GRANT SELECT ON DATABASE_NAME.* TO USER_NAME@'%'; 替换以下内容:
如果您想将权限限制为特定主机名,请将 |
Oracle 来源行为和限制
问题 | 答案 |
---|---|
Datastream 如何从 Oracle 获取数据? | Datastream 使用 Oracle LogMiner 从 Oracle 的重做日志中提取数据。 |
Datastream 是否需要 Oracle 的 GoldenGate 许可? | 不需要。Datastream 不需要 GoldenGate 许可,因为它使用 Oracle LogMiner 从数据库的重做日志中读取数据。 |
如果 Oracle LogMiner 不再受支持,会发生什么情况? | Oracle LogMiner 仍可在所有正式版 Oracle 中使用,并且 Datastream 将在所有未来版本中继续支持 LogMiner。Oracle 已停止支持 LogMiner CONTINUOUS_MINE 选项,但 Datastream 不使用此选项,因此该弃用对 Datastream 没有影响。 |
Datastream 是否支持对来自 Oracle 数据库的传输中的数据进行加密? | Datastream 支持基于 Oracle 网络服务对传输中的数据加密。Datastream 以 |
Datastream 是否支持安全套接字层 (SSL) 和传输层安全协议 (TLS) 加密? | 支持,Datastream 支持使用 TCPS 协议建立 SSL/TLS 加密连接,以连接到 Oracle 源。 |
Datastream 是否支持 Oracle 多租户架构,尤其是容器数据库 (CDB) 和可插入数据库 (PDB)? | 可以。Datastream 支持 Oracle 多租户架构 (CDB/PDB),但您只能在一个流中复制单个可插入数据库。 |
您所在的组织不允许授予 GRANT SELECT ANY TABLE 权限。您还可以使用 Datastream 吗? |
如果您无法授予
如需使用 Datastream 流式传输更改,您还需要对流中包含的所有表拥有读取权限。 如需启动数据流,请使用 API 绕过验证。如需了解详情,请参阅开始直播。 |
Datastream 是否支持从 Oracle 读取副本实例进行复制? | 只要 Oracle 读取副本实例按照配置指南进行配置,Datastream 就支持从该实例进行复制。 |
Datastream 是否支持 Oracle SCAN RAC 数据库? | 是的,会。不过,您无法使用 Datastream 在 Oracle Real Application Clusters (RAC) 环境中通过单个客户端访问名称 (SCAN) 功能直接连接到数据库。如需克服此限制,请直接连接到其中一个节点,或使用 Oracle Connection Manager。您还可以使用反向代理解决方案(例如 HAProxy)创建专用连接配置。 |
PostgreSQL 源行为和限制
问题 | 答案 |
---|---|
Datastream 如何从 PostgreSQL 获取数据? | Datastream 使用 PostgreSQL 的逻辑解码功能从 PostgreSQL 中提取变更事件 |
Datastream 是否支持从 AlloyDB for PostgreSQL 或 AlloyDB Omni 源进行复制? | 可以。Datastream 同时支持这两种来源。如需了解如何配置源 AlloyDB for PostgreSQL 数据库,请参阅配置 AlloyDB for PostgreSQL 数据库。如需了解如何配置源 AlloyDB Omni 数据库,请参阅配置自管理的 PostgreSQL 数据库。 |
Datastream 是否支持从 PostgreSQL 读取副本实例进行复制? | 不支持。Datastream 不支持从 PostgreSQL 的读取副本实例进行复制。 |
Datastream 是否支持行级安全性 (RLS)? | Datastream 不支持复制已启用 RLS 的表。不过,您可以使用 BYPASSRLS 子句绕过此限制:
ALTER USER USER_NAME BYPASSRLS; 将 USER_NAME 替换为 Datastream 用于连接到数据库的用户的名称,您希望为该用户绕过 RLS 政策。 |
从 PostgreSQL 源复制时,Datastream 是否支持并发 CDC 操作? | 不可以。PostgreSQL 复制依赖于复制槽的概念,而复制槽不支持并发连接。一次只能有一个 CDC 任务从复制槽读取数据。例如,如果您从源数据库中删除大量记录,复制槽可能会因删除事件过多而过载。在处理完复制槽队列中已有的删除事件之前,对来源所做的任何后续更改都会延迟。 如需了解复制大型交易数据时的建议方法,请参阅诊断问题。 |
Datastream 是否支持安全套接字层 (SSL) 和传输层安全协议 (TLS) 加密? | 支持,Datastream 支持 SSL/TLS 加密的连接。 |
SQL Server 源行为和限制
问题 | 答案 |
---|---|
Datastream 支持哪些 SQL Server 版本? | Datastream 支持支持变更数据捕获的 SQL Server 数据库版本。如需查看受支持的 SQL Server 版本和版的完整列表,请参阅版本。 |
Datastream CDC 复制功能如何适用于 SQL Server 源? | Datastream 数据注入流程会使用事务日志或更改表,具体取决于源配置。如需了解详情,请参阅源 SQL Server 数据库。 |
Datastream 至少需要哪些权限才能从源 SQL Server 数据库复制数据? | 您必须向 Datastream 用户授予以下角色和权限,才能从 SQL Server 数据库复制数据: 对于更改表 CDC 方法:
此外,对于事务日志 CDC 方法:
如需详细了解如何配置来源,请参阅相应数据库类型的配置页面。 |
为什么在使用事务日志时需要进行配置,例如更改轮询间隔和设置截断保护措施? | 如果您使用事务日志从 SQL Server 源复制数据,但日志在 Datastream 读取之前被截断,则会发生数据丢失。您可以选择更改轮询间隔并设置截断保护措施,但这样做可提供额外的保护层,确保 Datastream 即使在出现停机或连接问题的情况下也能读取数据。如需了解详情,请参阅配置源 SQL Server 数据库。 |
从 SQL Server 源复制时应选择哪种 CDC 方法? | 您可以根据源 SQL Server 数据库配置选择以下两种可用的 CDC 方法之一:
如需了解详情,请参阅 SQL Server 作为来源的概览。 |
Salesforce 源行为和限制
问题 | 答案 |
---|---|
什么是 Salesforce 组织? | Salesforce 组织(也称为组织)是您专属的 Salesforce 部署,类似于数据库实例。组织具有一组已获许可的用户,并存储所有客户数据和应用。 |
什么是 Salesforce 对象、记录和字段? | 对象是类实体,类似于关系型数据库中的表。可以是标准广告,也可以是自定义广告。标准对象默认包含在 Salesforce 中,而自定义对象由用户创建,用于存储特定于其使用情形的数据。 记录是对象的特定实例,类似于关系数据库中的行。 字段是对象的特定属性,类似于关系数据库中的列。 |
BigQuery 目标位置行为
问题 | 答案 |
---|---|
Datastream 和 BigQuery 如何协同工作以复制源数据库中的更改? | Datastream 会持续从源数据库读取更改流,并使用 Storage Write API 将 upsert 和删除事件流式传输到 BigQuery 目标表。然后,BigQuery 会根据表过时配置将更改应用到表中。 |
数据操纵语言 (DML) 操作在 BigQuery 中是如何应用的? |
|
Datastream 和 BigQuery 如何处理事件顺序? | BigQuery 使用事件元数据和内部更改序列号 (CSN) 以正确的顺序将事件应用到表中。如需详细了解事件元数据,请参阅事件和数据流。 |
将 BigQuery 与 Datastream 搭配使用时,BigQuery 费用是如何计算的? | BigQuery 费用与 Datastream 费用分开计算和收取。如需了解如何控制 BigQuery 费用,请参阅 BigQuery CDC 价格。 |
将数据流式传输到 BigQuery 时,Datastream 支持的最大行大小是多少? | Datastream 支持的最大行大小为 20 MB。 |
当您将数据流式传输到 BigQuery 时,表会添加 前缀。您能否更改此行为,使 BigQuery 中的表遵循与源数据库中相同的结构? |
为 BigQuery 目标位置配置数据集时,您可以为每个架构创建一个数据集,也可以为所有架构创建一个数据集。如果您为每个架构创建一个数据集,则来源中的每个架构都会映射到 BigQuery 中的一个数据集,并且来源架构中的所有表都会映射到相应数据集中的表。如果您选择“为所有架构选择单个数据集”选项,系统会按照 BigQuery 中的表格命名惯例,在表格名称前添加 前缀。 |
CDC 能否捕获源架构更改,例如在源中插入或删除列时?这些更改是否会自动反映在目标 BigQuery 数据集中已填充的表中? | Datastream 会自动检测新列,并将其添加到新行的目标架构中,但不会添加到已复制到目标位置的行中。Datastream 会忽略已删除的列,并在目标位置使用 NULL 值填充这些列。然后,您可以在 BigQuery 中手动删除这些列。 |
Cloud Storage 目标位置行为
问题 | 答案 |
---|---|
如何在 Cloud Storage 中创建文件? | Datastream 会为每个表创建一个文件夹。在每个文件夹中,Datastream 会在达到用户定义的大小或时间阈值时轮替文件(或创建新文件)。每当检测到架构更改时,Datastream 也会轮替文件。文件名将由唯一的架构键(基于架构的哈希)组成,后跟文件中第一个事件的时间戳。出于安全考虑,这些文件名不应被人们阅读或理解。 |
如果 Cloud Storage 中的数据未排序,那么事件在加载到目标位置之前如何重新排序? | 每个事件都包含多个元数据字段,这些字段唯一标识日志文件中的行,并允许您对事件进行排序。这些字段包括: 对于 Oracle 数据源:
对于 MySQL 来源:
对于 PostgreSQL 源:
如需详细了解元数据字段,请参阅特定于来源的元数据。 |
如果为同一时间戳创建多个文件,应该按什么顺序处理它们? | 由于无法保证文件内部和文件之间的排序,因此确定源文件处理顺序的最佳方法是获取特定时间戳的所有文件中的所有事件,然后使用本部分前面提到的方法应用排序。 |
如何处理主键更新?活动中是否存在事前和事后信息? | 当行的主键发生更改时,Datastream 会针对该更改生成两个事件:UPDATE-DELETE 和 UPDATE-INSERT 。UPDATE-DELETE 事件表示更新之前的数据,UPDATE-INSERT 表示更新之后的数据。如需详细了解特定于来源的元数据,请参阅事件和数据流。 |
将数据流式传输到 Cloud Storage 时,Datastream 支持的最大行大小是多少? | Datastream 支持的最大行大小为 100 MB。 |
使用场景
问题 | 答案 |
---|---|
使用 DataStream 的常见使用场景有哪些? | Datastream 是 CDC 和复制服务,这意味着它适用于各种使用场景,这些使用场景可以受益于对持续流式传输变更数据的访问。Datastream 最常见的用例如下:
|
集成
问题 | 答案 |
---|---|
Datastream 如何与 Google Cloud 数据服务集成? | Datastream 通过提供从来源到各种 Google Cloud 服务的 CDC 数据复制,补充和增强 Google Cloud 数据套件。Datastream 通过与这些服务无缝集成,可以融入更大的 Google Cloud 生态系统中。 Datastream 与以下数据服务集成:
|
Dataflow 中的 Datastream-to-BigQuery 模板在数据操纵语言 (DML) 操作数量方面是否有任何限制? | 否。该模板使用流式插入 API 将数据加载到 BigQuery 中。因此,DML 操作的数量没有限制。不过,您需要遵守一些配额限制。 |
安全性和连接性
问题 | 答案 |
---|---|
Datastream 是否是敏感数据的安全服务? | Datastream 支持多个安全的专用连接配置,以便在从来源流式传输到目标位置时保护传输中的数据。复制数据后,默认情况下系统会对该数据进行加密,并利用 BigQuery 或 Cloud Storage 的安全控制措施。Datastream 缓冲的任何数据都会进行静态加密。 |
哪些连接选项可用于将来源连接到 Datastream? | 您可以配置以下三种类型的连接方法:
|
如何限制 Datastream 对敏感数据的处理? |
通过 Datastream,您可以指定要流式传输到目标位置的特定数据元素(架构、表和列),以及要排除进行流式传输的元素。 数据库日志可能包含数据流定义中已排除的元素中的变更数据。由于您无法在来源处过滤这些元素,因此 Datastream 将读取(但忽略)与元素关联的任何数据。 |
Datastream 如何确保数据库凭据的安全? | 无论您是使用 Secret Manager 存储密码,还是在创建连接配置文件时手动输入密码,所有用户元数据在传输中和静态时都会进行加密,并且 Google 会将其存储在自己的专有存储系统中。系统会跟踪和审核对此元数据的访问。 |
为什么创建专用连接配置页面上显示,您必须向 Datastream 服务账号授予 roles/compute.networkAdmin 角色,才能在共享 VPC 上创建专用连接配置? |
只有在创建 VPC 对等互连时才需要 networkAdmin 角色。对等互连建立后,您不再需要该角色。如果您的组织不允许向 Datastream 服务账号授予 networkAdmin 角色,请创建一个具有以下特定权限的自定义角色:
动态选择 IP 范围
创建对等互联的网络
预留 IP 地址
|
我可以使用 Private Service Connect 创建专用连接配置吗? | 不支持。Datastream 不支持 Private Service Connect。 |
监控 Datastream
问题 | 答案 |
---|---|
如何知道我的所有历史数据何时已复制到目标位置? | Datastream 提供日志文件中关于其当前状态的信息。系统会创建一个日志条目,用于指示表完成回填的时间。 |
延迟时间偶尔会增加,然后随着时间的推移逐渐减少。这是正常情况吗? | 当源生成的数据流事件吞吐量增加时,Datastream 会自动纵向扩容。不过,为了保护源数据库和 Datastream,Datastream 在任何时间可以打开的并发连接和进程数量都有限制。当事件吞吐量大幅增加时,延迟时间可能会暂时性地急剧增加,但随着积压的事件得到处理,延迟时间预计会逐渐减少。 |
价格
问题 | 答案 |
---|---|
Datastream 的价格如何? | Datastream 的价格取决于从来源处理到目标位置的数据量 (GB)。 如需详细了解 Datastream 的价格信息,请参阅价格。 |
如何计算数据的大小? | 费用取决于 Datastream 处理的数据量。Datastream 仅对流式传输到目标位置的数据收费。 |
如果您将 Datastream 与 BigQuery 或 Dataflow 搭配使用,则需要支付什么费用? | 每项服务均单独定价和计费。 |
其他信息
问题 | 答案 |
---|---|
如果我使用 Datastream 还有其他疑问或问题,该怎么办? | 如果您在使用 Datastream 时遇到问题,Google 的支持团队可以为您提供支持。此外,问题排查指南还将处理您在使用 DataStream 时可能会遇到的常见问题。 |
后续步骤
- 详细了解 Datastream。
- 了解 Datastream 的主要概念和功能。
- 了解 Datastream 支持的来源。
- 了解 Datastream 支持的目标。