本页面包含有关对支持的数据库引擎的 Cloud SQL 问题进行故障排除的提示。其中一些提示仅适用于特定的数据库引擎,而其他提示则适用于所有数据库引擎。
如需了解特定数据库引擎的问题排查提示,请参阅各自的相关页面:
检查您的疑问或问题是否已在以下某个页面中得到解决:
本页面包含以下主题:
- 备份与恢复
- 克隆
- 连接
- 创建实例
- 外部主实例
- 外部副本
- 标志
- 高可用性
- 导入和导出
- 与 Vertex AI 集成
- 关联的服务器
- Logging
- 管理实例
- Private Service Connect
- 复制
备份与恢复
问题 | 问题排查 |
---|---|
您无法查看当前操作的状态。 | Google Cloud 控制台仅在操作完成后报告成功或失败,而不会显示警告或其他更新。 运行 |
您想要了解发起按需备份操作的人员。 | 界面未显示开始操作的用户。 查看日志并按文本进行过滤以查找用户。您可能需要对私密信息使用审核日志。相关日志文件包括:
|
实例被删除后,您将无法再备份该实例。 | 完全清除实例后,将无法恢复数据。但是,如果恢复实例,则其备份也会被恢复。如需详细了解如何恢复已删除的实例,请参阅恢复备份。 如果您已完成导出操作,请创建新实例,然后执行导入操作以重新创建数据库。导出数据将写入 Cloud Storage,导入数据从此处进行读取。 |
自动备份停滞了数小时,无法取消。 | 备份可能需要很长时间,具体取决于数据库大小。
如果您确实需要取消该操作,可以要求客户服务对实例执行 |
如果 SQL 转储文件中引用的一个或多个用户不存在,恢复操作可能会失败。 | 在恢复 SQL 转储之前,拥有对象或获得了对转储数据库中的对象权限的所有数据库用户都必须存在于目标数据库中。否则,恢复操作将无法使用原始所有权或权限重新创建对象。 在恢复 SQL 转储之前,先创建数据库用户。 |
您想要将自动备份的天数从 7 天增加到 30 天,或更长时间。 | 您可以
配置要保留的自动备份的数量。系统会根据配置的保留期限值定期删除自动备份。遗憾的是,这也意味着当前可见的备份是所有可以用于恢复的自动备份。 如需无限期地保留备份,您可以创建按需备份,因为它们的删除方式与自动备份不同。按需备份会无限期保留。也就是说,按需备份会一直保留,直到被删除或它们所属的实例被删除为止。由于该类型的备份不会自动删除,因此可能会影响结算。 |
自动备份失败,但您未收到电子邮件通知。 | 如需让 Cloud SQL 通知您备份的状态,请配置基于日志的提醒。 |
实例反复失败,因为它在故障状态和备份恢复状态之间循环。恢复后尝试连接并使用数据库失败。 |
可以尝试的操作:
|
您发现执行备份/恢复操作时丢失数据。 | 表创建为未记录。例如:
从备份中还原时不包含这些表:
解决方法是,如果您想要通过备份恢复这些表,请避免使用未记录的表。如果您要从包含未记录的表的数据库进行恢复,则可以将数据库转储到一个文件,并在将转储文件修改为 |
克隆
问题 | 问题排查 |
---|---|
克隆失败并显示 constraints/sql.restrictAuthorizedNetworks 错误。 |
克隆操作被 Authorized Networks 配置阻止。在 Google Cloud 控制台的“连接”部分中为公共 IP 地址配置了 Authorized Networks ,并且出于安全考虑,不允许克隆。如果可以,请移除 Cloud SQL 实例中的所有 |
错误消息:Failed to create subnetwork. Couldn't find free
blocks in allocated IP ranges. Please allocate new ranges for this service
provider. Help Token: [help-token-id]. |
您正尝试使用 Google Cloud 控制台克隆具有专用 IP 地址的实例,但您未指定要使用的已分配 IP 范围,并且未创建具有指定范围的来源实例。因此,克隆的实例是在随机范围内创建的。 使用 |
连接
问题 | 问题排查 |
---|---|
Aborted connection 。 |
可能的问题:
应用必须能够容忍网络故障并遵循最佳做法,例如连接池和重试。大多数连接池程序会尽可能捕获这些错误。否则,应用必须正常重试或失败。 对于连接重试,我们建议使用以下方法:
结合使用这些方法有助于减少限制。 |
FATAL: database 'user' does not exist 。 |
gcloud sql connect --user 仅适用于默认的 postgres 用户。使用默认用户进行连接,然后更改用户。 |
您想知道是谁处于连接状态。 | 登录到数据库并运行以下命令:SELECT datname, usename, application_name as appname, client_addr, state, now() - backend_start as conn_age, now() - state_change as last_activity_age FROM pg_stat_activity WHERE backend_type = 'client backend' ORDER BY 6 DESC LIMIT 20 |
创建实例
问题 | 问题排查 |
---|---|
错误消息:Failed to create subnetwork. Router status is
temporarily unavailable. Please try again later. Help Token:
[token-ID] 。 |
尝试再次创建 Cloud SQL 实例。 |
错误消息:Failed to create subnetwork. Required
'compute.projects.get' permission for PROJECT_ID 。 |
当您使用专用 IP 地址创建实例时,系统会使用 Service Networking API 即时创建一个服务账号。如果您是最近才启用了 Service Networking API,则服务账号可能无法创建,实例创建会失败。在这种情况下,您必须等待服务账号在整个系统中传播,或使用所需权限手动添加。 |
导出
问题 | 问题排查 |
---|---|
HTTP Error 409: Operation failed because another operation was
already in progress. |
您的实例已有一项待处理的操作。一次只能执行一项操作。在当前操作完成后尝试您的请求。 |
HTTP Error 403: The service account does not have the required
permissions for the bucket. |
确保存储桶已存在,并且 Cloud SQL 实例(正在执行导出)的服务账号具有 Storage Object Creator 角色 (roles/storage.objectCreator ) 以允许导出到存储桶。请参阅适用于 Cloud Storage 的 IAM 角色。 |
CSV 导出成功,但 SQL 导出失败。 | CSV 和 SQL 格式的导出方式不同。SQL 格式会导出整个数据库,可能需要较长的时间才能完成。CSV 格式可让您定义要导出的数据库元素。 使用 CSV 导出以仅导出您需要的文件。 |
导出时间太长。 | Cloud SQL 不支持并发同步操作。
使用导出分流。概括来讲,在进行导出分流时,Cloud SQL 会启动一个分流实例来执行导出,而不是在源实例上发起导出。导出分流具有多项优势,包括可提高源实例的性能,以及在导出操作期间取消屏蔽管理操作。使用导出分流时,总延迟时间会增加,因为启动分流实例需要时间。通常,对于规模合理的导出,延迟时间并不明显。但是,如果导出作业足够小,那么您可能会注意到延迟时间有所增加。 |
创建扩展程序错误。 | 转储文件包含对不受支持的扩展程序的引用。 |
使用 pg_dumpall 时出错。 |
使用带有 --global 标志的 pg_dumpall 实用程序需要超级用户角色,但 Cloud SQL 不支持此角色。为防止在执行包含用户名的导出操作时发生错误,请同时使用 --no-role-passwords 标志。 |
导出操作在导出任何内容之前超时,并显示错误消息 Could not receive data from client: Connection reset
by peer. |
如果 Cloud Storage 在特定时间范围内(通常是大约七分钟内)未收到任何数据,则连接会重置。初始导出查询的运行时间可能过长。 使用 |
您希望自动执行导出。 | Cloud SQL 不提供自动执行导出的方法。
您可以使用 Cloud Scheduler、Pub/Sub 和 Cloud Run functions 等 Google Cloud 产品构建自己的自动导出系统,类似自动备份一文所述。 |
外部主实例
问题 | 问题排查 |
---|---|
Lost connection to MySQL server during query when dumping table 。 |
来源可能不可用,或者转储包含的数据包过大。
确保外部主实例可供连接。您还可以修改源实例上的 net_read_timeout 和 net_write_timeout 标志的值,以停止出现此错误。如需详细了解这些标志的允许值,请参阅配置数据库标志。 如需详细了解如何使用 |
初始数据迁移成功,但未复制任何数据。 | 一个可能的根本原因是源数据库已定义了复制标志,导致部分或所有数据库更改没有被复制。 确保没有以冲突的方式设置 在主实例上运行 |
初始数据迁移成功,但一段时间后数据复制停止工作。 | 可以尝试的操作:
|
mysqld check failed: data disk is full 。 |
副本实例的数据磁盘已满。
增加副本实例的磁盘大小。 您可以手动增加磁盘大小或启用存储空间自动扩容功能。 |
外部副本
问题 | 问题排查 |
---|---|
错误消息:The slave is connecting ... master has purged
binary logs containing GTIDs that the slave requires 。 |
主 Cloud SQL 实例具有自动备份和二进制日志,并且启用了时间点恢复,因此它应该具有副本可以捕获的足够的日志。但在这种情况下,虽然存在二进制日志,但副本不知道从哪个行开始读取。 使用正确的标志设置创建一个新的转储文件,并使用该文件配置外部副本
|
标志
问题 | 问题排查 |
---|
高可用性
问题 | 问题排查 |
---|---|
找不到手动故障切换的指标。 | 只有自动故障切换会纳入指标。 |
Cloud SQL 实例资源(CPU 和 RAM)使用率接近 100%,导致高可用性实例发生故障。 | 实例机器大小对于负载而言过小。
对实例进行修改以升级为更大的机器,从而获得更多 CPU 和内存。 |
导入
问题 | 问题排查 |
---|---|
HTTP Error 409: Operation failed because another operation was already in progress 。 |
您的实例已有一项待处理的操作。一次只能执行一项操作。在当前操作完成后尝试您的请求。 |
导入操作花费的时间太长。 | 过多的有效连接可能会干扰导入操作。
关闭未使用的操作。检查 Cloud SQL 实例的 CPU 和内存用量,以确保有大量的可用资源。确保将最多资源用于导入操作的最佳方法是在开始执行操作之前重启实例。 重启后,系统会执行以下操作:
|
如果转储文件中引用的一个或多个用户不存在,导入操作可能会失败。 | 在导入转储文件之前,拥有对象或获得了对转储数据库中的对象权限的所有数据库用户都必须存在于目标数据库中。否则,导入操作将无法使用原始所有权或权限重新创建对象。 在导入之前,先创建数据库用户。 |
导入操作因表不存在而失败。 | 表可以与其他表有外键依赖关系,根据操作的顺序,其中一个或多个表可能在导入操作期间还不存在。 可以尝试的操作: 在转储文件的开头添加以下行: SET FOREIGN_KEY_CHECKS=0; 此外,请在转储文件的末尾添加以下行: SET FOREIGN_KEY_CHECKS=1; 这些设置会在导入操作执行期间停用数据完整性检查,并在加载数据后重新激活数据完整性检查。这不会影响数据库中数据的完整性,因为数据在创建转储文件期间已经过验证。 |
与 Vertex AI 集成
问题 | 问题排查 |
---|---|
错误消息:Google ML integration API is supported only on Postgres version 12 or above. |
如需在 Cloud SQL 中启用 Vertex AI 集成,您必须拥有 Cloud SQL for PostgreSQL 数据库版本 12 或更高版本。如需将数据库升级到此版本,请参阅就地升级数据库主要版本。 |
错误消息:Google ML Integration API is not supported on shared core instance. Please upsize your machine type. |
如果您为实例的机器类型选择了共享核心,则无法在 Cloud SQL 中启用 Vertex AI 集成。将机器类型升级到专用核心。如需了解详情,请参阅机器类型。 |
错误消息:Google ML Integration is unsupported for this maintenance version. Please follow https://cloud.google.com/sql/docs/postgres/self-service-maintenance to update the maintenance version of the instance. |
如需在 Cloud SQL 中启用 Vertex AI 集成,实例的维护版本必须为 R20240130 或更高版本。如需将实例升级到此版本,请参阅自助维护。 |
错误消息:Cannot invoke ml_predict_row if 'cloudsql.enable_google_ml_integration' is off. |
cloudsql.enable_google_ml_integration 数据库标志已关闭。Cloud SQL 无法与 Vertex AI 集成。如需启用此标志,请使用 gcloud sql instances patch 命令:gcloud sql instances patch INSTANCE_NAME --database-flags cloudsql.enable_google_ml_integration=on 将 INSTANCE_NAME 替换为 Cloud SQL 主实例的名称。 |
错误消息:Failed to connect to remote host: Connection refused. |
Cloud SQL 与 Vertex AI 之间的集成未启用。如需启用此集成,请使用 gcloud sql instances patch 命令:gcloud sql instances patch INSTANCE_NAME 将 INSTANCE_NAME 替换为 Cloud SQL 主实例的名称。 |
错误消息:Vertex AI API has not been used in project PROJECT_ID before or it is disabled. Enable it by visiting /apis/api/aiplatform.googleapis.com/overview?project=PROJECT_ID then retry. |
未启用 Vertex AI API。如需详细了解如何启用此 API,请参阅启用数据库与 Vertex AI 的集成。 |
错误消息:Permission 'aiplatform.endpoints.predict' denied on resource. |
系统未向 Cloud SQL 实例所在项目的 Cloud SQL 服务账号添加 Vertex AI 权限。如需详细了解如何向该服务账号添加这些权限,请参阅启用数据库与 Vertex AI 的集成。 |
错误消息:Publisher Model `projects/PROJECT_ID/locations/REGION_NAME/publishers/google/models/MODEL_NAME` not found. |
Vertex AI 中不存在机器学习模型或 LLM。 |
错误消息:Resource exhausted: grpc: received message larger than max. |
Cloud SQL 传递给 Vertex AI 的请求大小超过 gRPC 限制(每个请求 4 MB)。 |
错误消息:Cloud SQL attempts to send a request to Vertex AI. However, the instance is in the %s region, but the Vertex AI endpoint is in the %s region. Make sure the instance and endpoint are in the same region. |
Cloud SQL 尝试向 Vertex AI 发送请求。但是,实例位于一个区域,而 Vertex AI 端点位于其他区域。如需解决此问题,实例和端点必须位于同一区域。 |
错误消息:The Vertex AI endpoint isn't formatted properly. |
Vertex AI 端点的格式不正确。如需了解详情,请参阅使用专用端点进行在线预测。 |
错误消息:Quota exceeded for aiplatform.googleapis.com/online_prediction_requests_per_base_model with base model: textembedding-gecko. |
Cloud SQL 传递给 Vertex AI 的请求数超过了每个项目每个模型每个区域每分钟 1,500 个请求的限制。 |
关联的服务器
错误消息 | 问题排查 |
---|---|
Msg 7411, Level 16, State 1, Line 25
|
DataAccess 选项已停用。运行以下命令以启用数据访问权限:EXEC sp_serveroption @server='LINKED_SERVER_NAME', @optname='data access', @optvalue='TRUE' 将 LINKED_SERVER_NAME 替换为关联服务器的名称。 |
Access to the remote server is denied because no
login-mapping exists. (Microsoft SQL Server, Error: 7416)
|
如果您在建立加密连接时遇到该问题,则需要在访问关联的服务器时尝试以其他方式提供用户 ID。要执行此操作,请运行以下命令:EXEC master.dbo.sp_addlinkedserver @server = N'LINKED_SERVER_NAME', @srvproduct= N'', @provider= N'SQLNCLI', @datasrc= N'TARGET_SERVER_ID', @provstr= N'Encrypt=yes;TrustServerCertificate=yes;User ID=USER_ID' 替换以下内容:
|
日志记录
问题 | 问题排查 |
---|---|
未找到审核日志。 | 只有当操作是经过身份验证的用户进行的 API 调用(用于创建、修改或读取用户创建的数据),或者操作访问配置文件或资源元数据时,才会写入数据访问日志。 |
在日志中找不到操作信息。 | 您想要详细了解某项操作。
例如,用户已被删除,但您找不到谁执行了此操作。日志显示操作已开始,但未提供任何更多信息。您必须为要记录的详细个人身份信息 (PII) 等启用审核日志记录。 |
某些日志是从 Cloud SQL for SQL Server 实例的 error.log 日志进行过滤。 |
过滤后的日志包括不带时间戳的 AD 日志,以及 Login failed for user 'x'. Reason: Token-based server access
validation failed with an infrastructure error. Login lacks connect endpoint
permission. [CLIENT: 127.0.0.1] 。这些日志会进行过滤,因为它们可能会引起混乱。 |
Logging 占用了大量磁盘空间。 | 有三种类型的日志文件占用磁盘空间:重做日志、常规日志和二进制日志。 连接到数据库并运行以下命令以获取每种类型的详细信息: SHOW VARIABLES LIKE 'innodb_log_file%'; SELECT ROUND(SUM(LENGTH(argument)/POW(1024,2),2) AS GB from mysql.general_log; SHOW BINARY LOGS; |
日志文件难以读取。 | 最好以 json 或文本形式查看日志。您可以使用 gcloud logging read 命令以及 Linux 后处理命令来下载日志。如需将日志下载为 JSON,请执行以下操作: gcloud logging read \ "resource.type=cloudsql_database \ AND logName=projects/PROJECT_ID \ /logs/cloudsql.googleapis.com%2FLOG_NAME" \ --format json \ --project=PROJECT_ID \ --freshness="1d" \ > downloaded-log.json 如需将日志下载为 TEXT,请执行以下操作: gcloud logging read \ "resource.type=cloudsql_database \ AND logName=projects/PROJECT_ID \ /logs/cloudsql.googleapis.com%2FLOG_NAME" \ --format json \ --project=PROJECT_ID \ --freshness="1d"| jq -rnc --stream 'fromstream(1|truncate_stream(inputs)) \ | .textPayload' \ --order=asc > downloaded-log.txt |
在 PostgreSQL 日志中找不到查询日志。 | 您需要启用 pgaudit 标志。
|
管理实例
问题 | 问题排查 |
---|---|
重启 MySQL 后性能下降。 | Cloud SQL 允许在 InnoDB 缓冲区池中缓存数据。 但是,重启后,此缓存始终为空,并且所有读取操作都需要往返后端才能获取数据。因此,在缓存被填满之前,查询可能比预期慢。 |
崩溃恢复速度缓慢。 | 可能已累积大型 general_log 。
您可以通过阻止累积大型 general_log 来缩短崩溃恢复时间。如果启用了 general_log ,请截断表并仅在短时间内启用 general_log 。您可以通过连接到数据库并运行以下查询来了解常规日志的大小: SELECT ROUND(SUM(LENGTH(argument)/POW(1024,2)),2) from mysql.general_log;
|
您想要了解哪些内容占满了存储空间。 | 例如,您发现数据库仅使用了 3 GB,但存储空间却显示使用了 14 GB。表未占用的大多数空间都被二进制日志和/或临时文件占用了。 可以尝试的操作:
|
查询被阻止。 | 查询可能锁定 MySQL 数据库,导致所有后续查询被阻止/超时。 连接到数据库并执行以下查询:
列表中的第一项可能是占用锁的项,后续项正在等待获取该锁。
|
您无法手动删除二进制日志。 | 无法手动删除二进制日志。 二进制日志会连同其相关联的自动备份自动删除,通常是大约七天后删除。 |
您想要查找有关临时文件的信息。 | 名为 ibtmp1 的文件用于存储临时数据。此文件在数据库重启时重置。 如需查找有关临时文件使用情况的信息,请连接到数据库并执行以下查询:
|
您想要了解表的大小。 | 此信息可以在数据库中找到。
连接到数据库并执行以下查询:
|
mysqld 收到了信号 11。 | 尝试重构查询,使其不会创建过多的连接。如果没有解决问题,请与客户服务联系。信号 11 通常表示 MySQL 软件问题。
|
InnoDB: page_cleaner: 1000ms intended loop took 5215ms. The
settings might not be optimal. |
页面清理线程无法跟上实例上的更改速率。
页面清理线程每秒扫描缓冲池一次,以将脏页从缓冲池刷入磁盘。您看到的警告表明它有许多脏页要刷入,并且将一批脏页刷入磁盘需要的时间超过了一秒。 如有可能,对实例进行分片。使用多个较小的 Cloud SQL 实例要优于使用一个大型实例。 |
您想了解当前正在运行的查询。 | 连接到数据库并运行以下查询:
|
您想了解特定字段使用的单位。 | 连接到数据库并运行以下查询(使用您自己的 FIELD_NAME ):
|
您想要查找数据库设置的当前值。 | 连接到数据库并运行以下查询(使用您自己的 SETTING_NAME ):
运行 |
您想要停止被屏蔽的后台进程。 | 用户需要具备 pg_signal_backend 角色。
运行以下命令:
|
实例即将消耗 100% 的交易 ID。 | 您的内部监控服务警告实例即将消耗 100% 的事务 ID。您需要避免事务封装,这可以阻止写入。 Autovacuum 作业可能会被屏蔽,或者无法及时回收事务 ID 以跟上工作负载。 为避免因事务封装问题而导致服务中断,您可以查看这些自服务的提示以了解如何处理 TXID 封装。 如需了解常规调整建议,请参阅对 PostgreSQL 的 Vacuum 操作进行优化、监控和问题排查。 |
临时存储使自动存储空间增加。 | 启用了自动存储空间。
重启会删除临时文件,但不会减少存储空间。只有客户服务才能重置实例大小。 |
数据被自动删除。 | 很有可能是某个脚本正在您的环境中的某个位置运行。
查看删除时间点前后的日志,看看是否有在信息中心或其他自动化进程中运行的恶意脚本。 |
无法删除实例。 | 您可能会看到错误消息 ERROR: (gcloud.sql.instances.delete) HTTP Error
409: The instance or operation is not in an appropriate state to handle the
request ,或者实例可能具有 INSTANCE_RISKY_FLAG_CONFIG 标志状态。以下是一些可能的原因:
|
实例因临时数据大小较大而停滞。 | 系统可以一次创建多个临时表,具体取决于查询和负载。 遗憾的是,除了重启该服务,没有其他任何方法能缩小 一种缓解方法是使用 |
升级过程中出现严重错误。 | 日志可能会显示更多信息,但在任何情况下都可能需要客户服务来强制重新创建实例。 |
实例在磁盘空间用尽后重启时停滞。 | 未启用存储空间自动扩容功能。 如果实例的存储空间不足,并且未启用存储空间自动扩容功能,则实例将进入离线状态。为避免此问题,您可以对实例进行修改,以启用存储空间自动扩容功能。 |
本地主实例停滞。 | Google Cloud 无法帮助处理非 Cloud SQL 实例。 |
重启时关停速度缓慢。 | 实例关停时,任何未在 60 秒内终止的未完成连接都会导致关停异常。 通过使用持续时间少于 60 秒的连接,可以避免大多数异常关停,包括来自数据库命令提示符的连接。如果您将这些连接保持打开状态数小时或数天,则关停可能会出现异常情况。 |
无法删除用户。 | 用户在数据库中可能有依赖于该用户的对象。您需要删除这些对象或将其重新分配给其他用户。 确定哪些对象依赖于该用户,然后删除这些对象或将其重新分配给其他用户。 |
某些查询运行速度缓慢。 | 查询可能会由于多种原因而缓慢运行,主要是由于特定数据库方面。可能会涉及 Cloud SQL 的一个原因是当来源(写入或读取)资源和目的地 (Cloud SQL) 资源位于不同区域时发生网络延迟。 请参阅一般性能提示,具体而言: 对于缓慢的数据库插入、更新或删除操作,请考虑以下事项:
为了缩短延迟时间,建议您在同一区域中查找来源资源和目的地资源。 |
表明内存不足,但监控图表未显示。 | 实例可能会失败并报告 Out of memory ,但 Google Cloud 控制台或 Cloud Monitoring 图表似乎显示仍然剩余内存。除了工作负载以外,其他因素(例如活跃连接和内部开销进程的数量)可能也会影响内存使用量。这些指标不一定会反映在监控图表中。 确保该实例的开销足以满足您的工作负载和一些额外开销。 |
恢复已删除的实例。 | 删除某个实例时,该实例上的所有数据(包括备份)都会永久丢失。 如需保留数据,请在删除实例之前将数据导出到 Cloud Storage。 Cloud SQL Admin 角色具有删除实例的权限。为防止意外删除,请仅在需要时授予此角色。 |
您想要重命名现有 Cloud SQL 实例。 | 不支持重命名现有实例。
可采用其他方法通过创建新实例来实现此目标。
在这两种情况下,您都可以在操作完成后删除旧实例。建议您使用克隆路由,因为它不会影响性能,并且您无需重新进行任何实例配置设置(例如标志、机器类型、存储空间大小和内存)。 |
删除实例时出错。 | 如果为实例启用了删除保护,请确认您计划删除该实例。然后,先停用删除保护,再删除该实例。 |
Private Service Connect
问题 | 问题排查 |
---|---|
实例的服务连接不接受 Private Service Connect 端点。 |
|
复制
问题 | 问题排查 |
---|---|
创建时读取副本未开始复制。 | 日志文件中可能有更具体的错误信息。在 Cloud Logging 中查看日志以找到实际错误。 |
无法创建只读副本 - invalidFlagValue 错误 | 请求中的某个标志无效。它可能是您明确提供的标志,也可能是设置为默认值的标志。 首先,检查 如果 |
无法创建只读副本 - 未知错误。 | 日志文件中可能有更具体的错误信息。在 Cloud Logging 中查看日志以找到实际错误。 如果错误为 |
磁盘已满。 | 主实例磁盘大小可能在副本创建期间变满。 修改主实例以将其升级为更大的磁盘。 |
副本实例占用的内存过多。 | 副本使用临时内存来缓存经常请求的读取操作,这可能会导致其占用的内存多于主实例。 重启副本实例以收回临时内存空间。 |
已停止复制。 | 已达到存储空间上限,且未启用存储空间自动扩容功能。 修改实例以启用 |
复制延迟一直很高。 | 写入负载过高,副本无法处理。当副本上的 SQL 线程无法与 IO 线程保持同步时,会发生复制延迟。某些类型的查询和工作负载会导致指定架构出现暂时性或永久性的高复制延迟。下面列出了复制延迟的部分常见原因:
以下是一些可行的解决方案:
|
副本创建失败并超时。 | 主实例上长时间运行的未提交事务可能会导致只读副本创建失败。
停止所有正在运行的查询后重新创建副本。 |