Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
En este documento, se enumeran los errores que pueden surgir cuando se usan discos con la interfaz de memoria rápida no volátil (NVMe).
Puedes usar la interfaz NVMe para SSD locales y discos persistentes (Persistent Disk o Google Cloud Hyperdisk). Solo la serie de máquina más reciente, como Tau T2A, M3, C3, C3D y H3, usan la interfaz NVMe para Persistent Disk. Las Confidential VMs también usan Persistent Disk NVMe. Todas las demás series de máquinas de Compute Engine usan la interfaz de disco SCSI para los discos persistentes.
Error de tiempo de espera de operación de E/S
Si te encuentras con errores de tiempo de espera de E/S, la latencia podría superar el parámetro de tiempo de espera predeterminado para las operaciones de E/S enviadas a dispositivos NVMe.
A fin de aumentar el parámetro de tiempo de espera para las operaciones de E/S enviadas a dispositivos NVMe, agrega las siguientes líneas al archivo /lib/udev/rules.d/65-gce-disk-naming.rules y, luego, reinicia la VM:
Los discos desconectados aún aparecen en el sistema operativo de una instancia de procesamiento
En las VMs que usan la versión 6.0 a 6.2 del kernel de Linux, las operaciones que involucran el método instances.detachDisk de la API de Compute Engine o el comando gcloud compute instances detach-disk pueden no funcionar como se espera.
La consola de Google Cloud muestra el dispositivo como quitado, los metadatos de la instancia de procesamiento (comando compute disks describe) muestran el dispositivo como quitado, pero el punto de activación del dispositivo y los symlinks creados por reglas udev aún son visibles en el sistema operativo invitado.
Mensaje de error:
Intentar leer desde el disco desconectado en la VM da como resultado errores de E/S:
sudo head /dev/nvme0n3
head: error reading '/dev/nvme0n3': Input/output error
Problema:
Las imágenes del sistema operativo que usan un kernel de Linux 6.0-6.2, pero no incluyen un backport de una corrección NVMe, no reconocen cuando se desconecta un disco NVMe.
Solución:
Reinicia la VM para completar el proceso de eliminación del disco.
Para evitar este problema, usa un sistema operativo con una versión de kernel de Linux que no tenga este problema:
5.19 o una versión posterior
6.3 o una versión posterior
Puedes usar el comando uname -r en el SO invitado para ver la versión de kernel de Linux.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-09-04 (UTC)"],[[["\u003cp\u003eThis document details common errors encountered when using disks with the NVMe interface, including I/O timeout errors, detached disk visibility issues, and symlink creation failures.\u003c/p\u003e\n"],["\u003cp\u003eI/O timeout errors on NVMe devices can be resolved by increasing the timeout parameter, typically by modifying the \u003ccode\u003e/lib/udev/rules.d/65-gce-disk-naming.rules\u003c/code\u003e file, although most Google-provided OS images already have this change implemented.\u003c/p\u003e\n"],["\u003cp\u003eDetached NVMe disks might remain visible in the guest OS on VMs using Linux kernel versions 6.0 to 6.2 without a specific NVMe fix; rebooting the VM is required to fully detach the disk, and using kernel versions 5.19 or older, or 6.3 or newer, avoids this issue.\u003c/p\u003e\n"],["\u003cp\u003eC3 and C3D VMs with Local SSDs and certain public SUSE images or custom images might require manual configuration of \u003ccode\u003eudev\u003c/code\u003e rules to create the necessary symlinks for Local SSD devices, which involves updating or creating the \u003ccode\u003e65-gce-disk-naming.rules\u003c/code\u003e and \u003ccode\u003egoogle_nvme_id\u003c/code\u003e files.\u003c/p\u003e\n"]]],[],null,["# Troubleshooting NVMe disks\n\n*** ** * ** ***\n\nThis document lists errors that you might encounter when using disks with the\nnonvolatile memory express (NVMe) interface.\n\nYou can use the NVMe interface for Local SSDs and persistent disks (Persistent Disk\nor Google Cloud Hyperdisk). Only the\nmost recent machine series, such as Tau T2A, M3, C3, C3D, and H3 use the\n[NVMe](http://wikipedia.org/wiki/NVM_Express) interface for\nPersistent Disk. Confidential VMs also use NVMe for Persistent Disk. All other\nCompute Engine machine series use the\n[SCSI](http://wikipedia.org/wiki/SCSI) disk interface for\npersistent disks.\n\nI/O operation timeout error\n---------------------------\n\nIf you are encountering I/O timeout errors, latency could be exceeding the\ndefault timeout parameter for I/O operations submitted to NVMe devices.\n\n**Error message**: \n\n```\n[1369407.045521] nvme nvme0: I/O 252 QID 2 timeout, aborting\n[1369407.050941] nvme nvme0: I/O 253 QID 2 timeout, aborting\n[1369407.056354] nvme nvme0: I/O 254 QID 2 timeout, aborting\n[1369407.061766] nvme nvme0: I/O 255 QID 2 timeout, aborting\n[1369407.067168] nvme nvme0: I/O 256 QID 2 timeout, aborting\n[1369407.072583] nvme nvme0: I/O 257 QID 2 timeout, aborting\n[1369407.077987] nvme nvme0: I/O 258 QID 2 timeout, aborting\n[1369407.083395] nvme nvme0: I/O 259 QID 2 timeout, aborting\n[1369407.088802] nvme nvme0: I/O 260 QID 2 timeout, aborting\n...\n```\n\n\u003cbr /\u003e\n\n**Resolution**:\n\nTo resolve this issue, increase the value of the timeout parameter.\n| **Note:** Most of the operating system images provided by Google already include this change.\n\n1. View the current value of the timeout parameter.\n\n 1. Determine which NVMe controller is used by the persistent disk or Local SSD volume. \n\n ```\n ls -l /dev/disk/by-id\n ```\n 2. Display the `io_timeout` setting, specified in seconds, for the disk.\n\n ```\n cat /sys/class/nvme/CONTROLLER_ID/NAMESPACE/queue/io_timeout\n ```\n Replace the following:\n\n \u003cbr /\u003e\n\n - \u003cvar translate=\"no\"\u003eCONTROLLER_ID\u003c/var\u003e: the ID of the NVMe disk controller, for example, `nvme1`\n - \u003cvar translate=\"no\"\u003eNAMESPACE\u003c/var\u003e: the namespace of the NVMe disk, for example, `nvme1n1`\n\n If you only have a single disk that uses NVMe, then use the command: \n\n ```\n cat /sys/class/nvme/nvme0/nvme0n1/queue/io_timeout\n ```\n\n \u003cbr /\u003e\n\n2. To increase the timeout parameter for I/O operations submitted to NVMe\n devices, add the following line to the\n `/lib/udev/rules.d/65-gce-disk-naming.rules` file, and then restart the VM:\n\n ```\n KERNEL==\"nvme*n*\", ENV{DEVTYPE}==\"disk\", ATTRS{model}==\"nvme_card-pd\", ATTR{queue/io_timeout}=\"4294967295\"\n ```\n\nDetached disks still appear in the operating system of a compute instance\n-------------------------------------------------------------------------\n\nOn VMs that use Linux kernel version 6.0 to 6.2, operations\ninvolving the Compute Engine API method `instances.detachDisk` or the\n`gcloud compute instances detach-disk` command might not work as expected.\nThe Google Cloud console shows the device as removed, the compute instance metadata\n(`compute disks describe` command) shows the device as removed, but the device\nmount point and any symlinks created by udev rules are still visible in the\nguest operating system.\n\n**Error message**:\n\nAttempting to read from the detached disk on the VM results in I/O errors: \n\n```\nsudo head /dev/nvme0n3\n\nhead: error reading '/dev/nvme0n3': Input/output error\n```\n\n**Issue**:\n\nOperating system images that use a Linux 6.0-6.2 kernel but don't include\na backport of a [NVMe fix](https://github.com/torvalds/linux/commit/0dd6fff2aad4e35633fef1ea72838bec5b47559a)\nfail to recognize when an NVMe disk is detached.\n\n**Resolution**:\n\nReboot the VM to complete the process of removing the disk.\n\nTo avoid this issue, use an operating system with a\nLinux kernel version that doesn't have this problem:\n\n- 5.19 or older\n- 6.3 or newer\n\nYou can use the `uname -r` command in the guest OS to view the Linux kernel\nversion.\n\nWhat's next?\n------------\n\n- Learn about [Persistent Disk](/compute/docs/disks/persistent-disks).\n- Learn about [Local SSDs](/compute/docs/disks/local-ssd).\n- [Configure disks to meet performance requirements](/compute/docs/disks/performance).\n- Learn about [symlinks](/compute/docs/disks/disk-symlinks)."]]