En este documento, se explica cómo habilitar el Kit de desarrollo del plano de datos (DPDK) en una instancia de máquina virtual (VM) para acelerar el procesamiento de paquetes de red.
El DPDK es un framework para aplicaciones de alto rendimiento que requieren un procesamiento de paquetes rápido, baja latencia y un rendimiento coherente. DPDK proporciona un conjunto de bibliotecas de plano de datos y un controlador de interfaz de red (NIC) que omite la red del kernel y se ejecuta directamente en el espacio del usuario. Por ejemplo, habilitar DPDK en tu VM es útil cuando ejecutas lo siguiente:
- Implementaciones de virtualización de funciones de red (NFV) 
- Aplicaciones de redes definidas por software (SDN) 
- Aplicaciones de transmisión de video por Internet o por voz sobre IP 
Puedes ejecutar DPDK en una VM que use uno de los siguientes tipos de NIC virtuales (vNIC):
- Recomendado: gVNIC - Una interfaz de red virtual, segura y de alto rendimiento, diseñada específicamente para Compute Engine y que tiene éxito con virtIO como la vNIC de nueva generación. 
- 
Un controlador de Ethernet de código abierto que permite a las VMs acceder a hardware físico de manera eficiente, como el almacenamiento en bloque y los adaptadores de red. 
Un problema con la ejecución de DPDK en un entorno virtual, en lugar de en hardware físico, es que los entornos virtuales no admiten SR-IOV ni la unidad de administración de memoria de E/S (IOMMU) para aplicaciones de alto rendimiento. Para superar esta limitación, debes ejecutar DPDK en direcciones físicas de invitado en lugar de direcciones virtuales de host con uno de los siguientes controladores:
Antes de comenzar
- 
  
  Si aún no lo hiciste, configura la autenticación.
  La autenticación verifica tu identidad para acceder a los servicios y las APIs de Google Cloud . Para ejecutar código o muestras desde un entorno de desarrollo local, puedes autenticarte en Compute Engine seleccionando una de las siguientes opciones:
  
   
   
     
   
  
   
   
     
   
  
   
   
     
   
  
 
 
 
  
    
      Select the tab for how you plan to use the samples on this page: ConsoleWhen you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication. gcloud- 
 
 
  
  
   
   
  
   
   
  
   
   
     
   
  
  
   
   
  
   
   
  
   
   
  
 
 
   
   
      Instala Google Cloud CLI. Después de la instalación, inicializa Google Cloud CLI ejecutando el siguiente comando: gcloud initSi usas un proveedor de identidad externo (IdP), primero debes acceder a gcloud CLI con tu identidad federada. 
- Set a default region and zone.
 RESTPara usar las muestras de la API de REST en esta página en un entorno de desarrollo local, debes usar las credenciales que proporciones a gcloud CLI. Instala Google Cloud CLI. Después de la instalación, inicializa Google Cloud CLI ejecutando el siguiente comando: gcloud initSi usas un proveedor de identidad externo (IdP), primero debes acceder a gcloud CLI con tu identidad federada. Para obtener más información, consulta Autentícate para usar REST en la documentación de autenticación de Google Cloud . RequisitosCuando crees una VM para ejecutar DPDK, asegúrate de lo siguiente: - Para evitar la falta de conectividad de red cuando ejecutes tus aplicaciones, usa dos redes de nube privada virtual: - Una red de VPC para el plano de control 
- Una red de VPC para el plano de datos 
 
- Ambas redes de VPC deben especificar lo siguiente: - Una subred con un rango de direcciones IP único 
- La misma región para sus subredes 
- El mismo tipo de VNIC, ya sea gVNIC o VirtIO-Net 
 
- Cuando crees la VM, haz lo siguiente: - Debes especificar la misma región que las subredes de las dos redes de VPC. 
- Debes especificar el tipo de vNIC que planeas usar con DPDK. 
- Debes especificar una serie de máquinas compatible para gVNIC o VirtIO-Net. 
 
 RestriccionesEjecutar DPDK en una VM tiene las siguientes restricciones: - Solo puedes usar subredes de pila única para las dos redes de VPC que se usan en la VM. 
- Si usas gVNIC como el tipo de vNIC para las dos redes de VPC, asegúrate de lo siguiente: - Debes usar la versión 22.11 o posterior de DPDK. 
- Solo puedes usar imágenes de disco compatibles. 
 
- Si deseas habilitar el rendimiento de redes Tier_1 por VM para obtener un mayor rendimiento de la red cuando crees la VM, debes especificar lo siguiente: - gVNIC como el tipo de vNIC 
- Un tipo de máquina compatible con 30 CPUs virtuales o más 
 
 Descripción general de las funciones y versiones de DPDKGoogle recomienda usar la versión más reciente del controlador DPDK para aprovechar las funciones y correcciones de errores más recientes. En la siguiente lista, se proporciona una descripción general de lo que está disponible con cada versión del controlador de DPDK: - 24.07
- Se modificó la compatibilidad con el tamaño del anillo (para todos los tipos de máquinas compatibles).
- Asistencia para procesos secundarios.
 
- 24.03
- Compatibilidad con RSS (para todos los tipos de máquinas compatibles)
- 23.11
- Compatibilidad con el tamaño del búfer de RX (para todos los tipos de máquinas compatibles)
- Compatibilidad con tramas jumbo (9 K) para los tipos de máquinas de tercera generación y posteriores
 
- 23.07
- Se agregó compatibilidad con tipos de máquinas de tercera generación y posteriores.
- Compatibilidad con marcos jumbo (9 K) para tipos de máquinas de primera y segunda generación
 
- 23.03
- Compatibilidad con las estadísticas de informes: - Estadísticas de software para todos los tipos de máquinas compatibles.
- Son estadísticas de hardware para los tipos de máquinas de primera y segunda generación.
 
- 22.11
- Versión inicial del controlador con compatibilidad para tipos de máquinas de primera y segunda generación.
 Configura una VM para ejecutar DPDKEn esta sección, se explica cómo crear una VM para ejecutar DPDK. Crea las redes de VPCCrea dos redes de VPC, una para el plano de datos y otra para el plano de control, con la consola de Google Cloud , Google Cloud CLI o la API de Compute Engine. Puedes especificar estas redes más adelante cuando crees la VM. Console- Crea una red de VPC para el plano de datos: - En la consola de Google Cloud , ve a Redes de VPC. - Esta acción abrirá la página Redes de VPC. 
- Haz clic en Crear red de VPC. - Se abrirá la página Crear una red de VPC. 
- En el campo Nombre, ingresa el nombre de tu red. 
- En la sección Subred nueva, haz lo siguiente: - En el campo Nombre, ingresa el nombre de tu subred. 
- En el menú Región, selecciona una región para tu subred. 
- Selecciona IPv4 (pila única) (predeterminado). 
- En el Rango de IPv4, ingresa una dirección de rango IPv4 válida en notación CIDR. 
- Haz clic en Listo. 
 
- Haz clic en Crear. - Esta acción abrirá la página Redes de VPC. La creación de la red de VPC puede tardar hasta un minuto en completarse. 
 
- Crea una red de VPC para el plano de control con una regla de firewall que permita conexiones SSH a la VM: - Vuelve a hacer clic en Crear red de VPC. - Se abrirá la página Crear una red de VPC. 
- En el campo Nombre, ingresa el nombre de tu red. 
- En la sección Subred nueva, haz lo siguiente: - En el campo Nombre, ingresa un nombre para la subred. 
- En el menú Región, selecciona la misma región que especificaste para la subred de la red del plano de datos. 
- Selecciona IPv4 (pila única) (predeterminado). 
- En el Rango de IPv4, ingresa una dirección de rango IPv4 válida en notación CIDR. 
- Haz clic en Listo. 
 
- En la pestaña Reglas de firewall de IPv4, selecciona la casilla de verificación NETWORK_NAME-allow-ssh. - Aquí, NETWORK_NAME es el nombre de la red que especificaste en los pasos anteriores. 
- Haz clic en Crear. - Esta acción abrirá la página Redes de VPC. La creación de la red de VPC puede tardar hasta un minuto en completarse. 
 
 gcloud- Para crear una red de VPC para el plano de datos, sigue estos pasos: - Crea una red de VPC con una subred creada manualmente con el comando - gcloud compute networks createcon la marca- --subnet-modeestablecida en- custom.- gcloud compute networks create DATA_PLANE_NETWORK_NAME \ --bgp-routing-mode=regional \ --mtu=MTU \ --subnet-mode=custom- Reemplaza lo siguiente: - DATA_PLANE_NETWORK_NAME: el nombre de la red de VPC del plano de datos.
- MTU: es la unidad de transmisión máxima (MTU), que es el tamaño de paquete más grande de la red. El valor debe ser de entre- 1300y- 8896. El valor predeterminado es- 1460. Antes de configurar la MTU en un valor superior a- 1460, consulta la Unidad de transmisión máxima.
 
- Crea una subred para la red del plano de datos de la VPC que acabas de crear con el comando - gcloud compute networks subnets create.- gcloud compute networks subnets create DATA_PLANE_SUBNET_NAME \ --network=DATA_PLANE_NETWORK_NAME \ --range=DATA_PRIMARY_RANGE \ --region=REGION- Reemplaza lo siguiente: - DATA_PLANE_SUBNET_NAME: Es el nombre de la subred de la red del plano de datos.
- DATA_PLANE_NETWORK_NAME: Es el nombre de la red del plano de datos que especificaste en los pasos anteriores.
- DATA_PRIMARY_RANGE: Un rango IPv4 válido para la subred en notación CIDR.
- REGION: la región en la que se creará la subnet.
 
 
- Para crear una red de VPC para el plano de control con una regla de firewall que permita conexiones SSH a la VM, sigue estos pasos: - Crea una red de VPC con una subred creada manualmente con el comando - gcloud compute networks createcon la marca- --subnet-modeestablecida en- custom.- gcloud compute networks create CONTROL_PLANE_NETWORK_NAME \ --bgp-routing-mode=regional \ --mtu=MTU \ --subnet-mode=custom- Reemplaza lo siguiente: - CONTROL_PLANE_NETWORK_NAME: el nombre de la red de VPC del plano de control.
- MTU: Es la MTU, que es el tamaño de paquete más grande de la red. El valor debe ser de entre- 1300y- 8896. El valor predeterminado es- 1460. Antes de configurar la MTU en un valor superior a- 1460, consulta la Unidad de transmisión máxima.
 
- Crea una subred para la red del plano de control de la VPC que acabas de crear con el comando - gcloud compute networks subnets create.- gcloud compute networks subnets create CONTROL_PLANE_SUBNET_NAME \ --network=CONTROL_PLANE_NETWORK_NAME \ --range=CONTROL_PRIMARY_RANGE \ --region=REGION- Reemplaza lo siguiente: - CONTROL_PLANE_SUBNET_NAME: Es el nombre de la subred de la red del plano de control.
- CONTROL_PLANE_NETWORK_NAME: El nombre de la red del plano de control que especificaste en los pasos anteriores.
- CONTROL_PRIMARY_RANGE: Un rango IPv4 válido para la subred en notación CIDR.
- REGION: La región en la que se crea la subred, que debe coincidir con la región que especificaste en la subred de la red del plano de datos.
 
- Crea una regla de firewall de VPC que permita conexiones SSH a la red del plano de control con el comando - gcloud compute firewall-rules createcon la marca- --allowestablecida en- tcp:22.- gcloud compute firewall-rules create FIREWALL_RULE_NAME \ --action=allow \ --network=CONTROL_PLANE_NETWORK_NAME \ --rules=tcp:22- Reemplaza lo siguiente: - FIREWALL_RULE_NAME: Es el nombre de la regla de firewall.
- CONTROL_PLANE_NETWORK_NAME: El nombre de la red del plano de control que creaste en los pasos anteriores.
 
 
 API- Para crear una red de VPC para el plano de datos, sigue estos pasos: - Crea una red de VPC con una subred creada manualmente realizando una solicitud - POSTal método- networks.insertcon el campo- autoCreateSubnetworksestablecido en- false.- POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/global/networks { "autoCreateSubnetworks": false, "name": "DATA_PLANE_NETWORK_NAME", "mtu": MTU }- Reemplaza lo siguiente: - PROJECT_ID: el ID del proyecto del proyecto actual.
- DATA_PLANE_NETWORK_NAME: el nombre de la red del plano de datos.
- MTU: es la unidad de transmisión máxima (MTU), que es el tamaño de paquete más grande de la red. El valor debe ser de entre- 1300y- 8896. El valor predeterminado es- 1460. Antes de configurar la MTU en un valor superior a- 1460, consulta la Unidad de transmisión máxima.
 
- Crea una subred para la red del plano de datos de la VPC realizando una solicitud - POSTal método- subnetworks.insert.- POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION/subnetworks { "ipCidrRange": "DATA_PRIMARY_RANGE", "name": "DATA_PLANE_SUBNET_NAME", "network": "projects/PROJECT_ID/global/networks/DATA_PLANE_NETWORK_NAME" }- Reemplaza lo siguiente: - PROJECT_ID: el ID del proyecto en el que se encuentra la red del plano de datos.
- REGION: La región en la que deseas crear la subred.
- DATA_PRIMARY_RANGE: El rango IPv4 principal para la subred nueva, en notación CIDR.
- DATA_PLANE_SUBNET_NAME: Es el nombre de la subred de la red del plano de datos que creaste en el paso anterior.
- DATA_PLANE_NETWORK_NAME: El nombre de la red del plano de datos que creaste en el paso anterior.
 
 
- Para crear una red de VPC para el plano de control con una regla de firewall que permita conexiones SSH a la VM, sigue estos pasos: - Crea una red de VPC con una subred creada manualmente realizando una solicitud - POSTal método- networks.insertcon el campo- autoCreateSubnetworksestablecido en- false.- POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/global/networks { "autoCreateSubnetworks": false, "name": "CONTROL_PLANE_NETWORK_NAME", "mtu": MTU }- Reemplaza lo siguiente: - PROJECT_ID: el ID del proyecto del proyecto actual.
- CONTROL_PLANE_NETWORK_NAME: el nombre de la red del plano de control.
- MTU: Es la MTU, que es el tamaño de paquete más grande de la red. El valor debe ser de entre- 1300y- 8896. El valor predeterminado es- 1460. Antes de configurar la MTU en un valor superior a- 1460, consulta la Unidad de transmisión máxima.
 
- Crea una subred para la red de control de datos de la VPC realizando una solicitud - POSTal método- subnetworks.insert.- POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION/subnetworks { "ipCidrRange": "CONTROL_PRIMARY_RANGE", "name": "CONTROL_PLANE_SUBNET_NAME", "network": "projects/PROJECT_ID/global/networks/CONTROL_PLANE_NETWORK_NAME" }- Reemplaza lo siguiente: - PROJECT_ID: e ID del proyecto en el que se encuentra la red del plano de control.
- REGION: La región en la que deseas crear la subred.
- CONTROL_PRIMARY_RANGE: El rango IPv4 principal para la subred nueva, en notación CIDR.
- CONTROL_PLANE_SUBNET_NAME: El nombre de la subred de la red del plano de control que creaste en el paso anterior.
- CONTROL_PLANE_NETWORK_NAME: El nombre de la red del plano de control que creaste en el paso anterior.
 
- Crea una regla de firewall de VPC que permita conexiones SSH a la red del plano de control con una solicitud - POSTal método- firewalls.insert. En la solicitud, configura el campo- IPProtocolcomo- tcpy el campo- portscomo- 22.- POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/global/firewalls { "allowed": [ { "IPProtocol": "tcp", "ports": [ "22" ] } ], "network": "projects/PROJECT_ID/global/networks/CONTROL_PLANE_NETWORK_NAME" }- Reemplaza lo siguiente: - PROJECT_ID: e ID del proyecto en el que se encuentra la red del plano de control.
- CONTROL_PLANE_NETWORK_NAME: El nombre de la red del plano de control que creaste en los pasos anteriores.
 
 
 Para obtener más opciones de configuración cuando crees una red de VPC, consulta Crea y administra redes de VPC. Crea una VM que use las redes de VPC para DPDKCrea una VM que habilite gVNIC o virtIO-Net en las dos redes de VPC que creaste anteriormente con la Google Cloud consola, gcloud CLI y la API de Compute Engine. Recomendación: Especifica Ubuntu LTS o Ubuntu Pro como la imagen del sistema operativo debido a su compatibilidad con el administrador de paquetes para los controladores de UIO y VFIO sin IOMMU. Si no quieres especificar ninguno de estos sistemas operativos, se recomienda especificar Debian 11 o versiones posteriores para un procesamiento de paquetes más rápido. ConsoleCrea una VM que use las dos subredes de red de VPC que creaste en los pasos anteriores de la siguiente manera: - En la Google Cloud consola, ve a Instancias de VM. - Se abre la página Instancias de VM. 
- Haz clic en Crear instancia. - Se abrirá la página Crea una instancia. 
- En el campo Nombre, ingresa el nombre de tu VM. 
- En el menú Región, selecciona la misma región en la que creaste tus redes en los pasos anteriores. 
- En el menú Zona, selecciona una zona para tu VM. 
- En la sección Configuración de la máquina, haz lo siguiente: - Selecciona una de las opciones siguientes: - Para cargas de trabajo comunes, selecciona la pestaña Uso general (predeterminada). 
- Para cargas de trabajo de rendimiento intensivo, selecciona la pestaña Optimizado para procesamiento. 
- Para las cargas de trabajo de proporciones de memoria a CPU virtuales altas, selecciona la pestaña Memoria optimizada. 
- Para las cargas de trabajo que usan unidades de procesamiento de gráficos (GPU), selecciona la pestaña GPUs. 
 
- Opcional. Si especificaste GPUs en el paso anterior y deseas cambiar la GPU que se conectará a la VM, realiza una o más de las siguientes acciones: - En el menú Tipo de GPU, selecciona un tipo de GPU. 
- En el menú Cantidad de GPU, selecciona la cantidad. 
 
- En el menú Serie, selecciona una serie de máquinas. 
- En el menú Tipo de máquina, selecciona un tipo de máquina. 
- Opcional: Expande Configuración avanzada y sigue las indicaciones para personalizar aún más la máquina de esta VM. 
 
- Opcional: En la sección Disco de arranque, haz clic en Cambiar y, luego, sigue las instrucciones para cambiar la imagen de disco. 
- Expanda la sección Opciones avanzadas. 
- Expande la sección Herramientas de redes. 
- En la sección Configuración del rendimiento de la red, haz lo siguiente: - En el menú Tarjeta de interfaz de red, selecciona una de las siguientes opciones: - Para usar gVNIC, selecciona gVNIC. 
- Para usar VirtIO-Net, selecciona VirtIO. 
 
- Opcional: Para obtener un mayor rendimiento de la red y reducir la latencia, selecciona la casilla de verificación Habilitar redes de nivel 1. 
 
- En la sección Interfaces de red, haz lo siguiente: - En la fila default, haz clic en Borrar elemento "default". 
- Haz clic en Agregar interfaz de red. - Aparecerá la sección Nueva interfaz de red. 
- En el menú Red, selecciona la red del plano de control que creaste en los pasos anteriores. 
- Haz clic en Listo. 
- Vuelve a hacer clic en Agregar interfaz de red. - Aparecerá la sección Nueva interfaz de red. 
- En el menú Red, selecciona la red del plano de datos que creaste en los pasos anteriores. 
- Haz clic en Listo. 
 
- Haz clic en Crear. - Se abre la página Instancias de VM. La creación de la VM puede tardar hasta un minuto en completarse. 
 gcloudCrea una VM que use las dos subredes de red de VPC que creaste en los pasos anteriores con el comando gcloud compute instances createcon las siguientes marcas:gcloud compute instances create VM_NAME \ --image-family=IMAGE_FAMILY \ --image-project=IMAGE_PROJECT \ --machine-type=MACHINE_TYPE \ --network-interface=network=CONTROL_PLANE_NETWORK_NAME,subnet=CONTROL_PLANE_SUBNET_NAME,nic-type=VNIC_TYPE \ --network-interface=network=DATA_PLANE_NETWORK_NAME,subnet=DATA_PLANE_SUBNET_NAME,nic-type=VNIC_TYPE \ --zone=ZONEReemplaza lo siguiente: - VM_NAME: el nombre de la VM.
- IMAGE_FAMILY: Es la familia de imágenes del sistema operativo con el que se inicializará el disco de arranque. Como alternativa, puedes especificar la marca- --image=IMAGEy reemplazar- IMAGEpor una versión específica de una imagen. Obtén información para ver una lista de imágenes disponibles en el proyecto de imágenes de Compute Engine.
- IMAGE_PROJECT: El nombre del proyecto de imagen que contiene la imagen de disco.
- MACHINE_TYPE: Es un tipo de máquina, predefinido o personalizado, para la VM.
- VNIC_TYPE: El tipo de vNIC que se usará para el plano de control y las redes del plano de datos. El valor debe ser uno de los siguientes:- Para usar gVNIC, especifica - GVNIC.
- Para usar VirtIO-Net, especifica - VIRTIO_NET.
 
- CONTROL_PLANE_NETWORK_NAME: El nombre de la red del plano de control que creaste en los pasos anteriores.
- CONTROL_PLANE_SUBNET_NAME: Es el nombre de la subred para la red del plano de control que creaste en los pasos anteriores.
- DATA_PLANE_NETWORK_NAME: Es el nombre de la red del plano de datos que creaste en los pasos anteriores.
- DATA_PLANE_SUBNET_NAME: Es el nombre de la subred para la red del plano de control que creaste automáticamente en los pasos anteriores.
- ZONE: La zona en la que se creará la VM. Especifica una zona dentro de la misma región de la subred que creaste en los pasos anteriores.
 Por ejemplo, para crear una VM llamada dpdk-vmen la zonaus-central1-aque especifica un disco persistente SSD de 512 GB, un tipo de máquina C2 predefinido con 60 CPUs virtuales, herramientas de redes de nivel 1 y datos de plano de control y una red del plano de control que usen gVNIC, ejecuta el siguiente comando:gcloud compute instances create dpdk-vm \ --boot-disk-size=512GB \ --boot-disk-type=pd-ssd \ --image-project=ubuntu-os-cloud \ --image-family=ubuntu-2004-lts \ --machine-type=c2-standard-60 \ --network-performance-configs=total-egress-bandwidth-tier=TIER_1 \ --network-interface=network=control,subnet=control,nic-type=GVNIC \ --network-interface=network=data,subnet=data,nic-type=GVNIC \ --zone=us-central1-aAPICrea una VM que use las dos subredes de red de VPC que creaste en los pasos anteriores mediante una solicitud POSTal métodoinstances.insertcon los siguientes campos:POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances { "name": "VM_NAME", "machineType": "MACHINE_TYPE", "disks": [ { "initializeParams": { "sourceImage": "projects/IMAGE_PROJECT/global/images/IMAGE_FAMILY" } } ], "networkInterfaces": [ { "network": "global/networks/CONTROL_PLANE_NETWORK_NAME", "subnetwork": "regions/REGION/subnetworks/CONTROL_PLANE_SUBNET_NAME", "nicType": "VNIC_TYPE" }, { "network": "global/networks/DATAPLANE_NETWORK_NAME", "subnetwork": "regions/REGION/subnetworks/DATA_PLANE_SUBNET_NAME", "nicType": "VNIC_TYPE" } ] }Reemplaza lo siguiente: - PROJECT_ID: Es el ID del proyecto en el que se encuentran la red de VPC del plano de control y la red de VPC del plano de datos.
- ZONE: La zona en la que se creará la VM.
- VM_NAME: el nombre de la VM.
- MACHINE_TYPE: Es un tipo de máquina, predefinido o personalizado, para la VM.
- IMAGE_PROJECT: El nombre del proyecto de imagen que contiene la imagen de disco.
- IMAGE_FAMILY: Es la familia de imágenes del sistema operativo con el que se inicializará el disco de arranque. Como alternativa, puedes especificar una versión específica de una imagen. Obtén información para ver una lista de imágenes en el proyecto de imágenes de Compute Engine.
- CONTROL_PLANE_NETWORK_NAME: El nombre de la red del plano de control que creaste en los pasos anteriores.
- REGION: Es la región en la que existen las subredes de las redes del plano de control y del plano de datos.
- CONTROL_PLANE_SUBNET_NAME: Es el nombre de la subred para la red del plano de control que creaste en los pasos anteriores.
- VNIC_TYPE: El tipo de vNIC que se usará para el plano de control y las redes del plano de datos. El valor debe ser uno de los siguientes:- Para usar gVNIC, especifica - GVNIC.
- Para usar VirtIO-Net, especifica - VIRTIO_NET.
 
- DATA_PLANE_NETWORK_NAME: Es el nombre de la red del plano de datos que creaste en los pasos anteriores.
- DATA_PLANE_SUBNET_NAME: Es el nombre de la subred para la red del plano de control que creaste en los pasos anteriores.
 Por ejemplo, para crear una VM llamada dpdk-vmen la zonaus-central1-aque especifica un disco persistente SSD de 512 GB, un tipo de máquina C2 predefinido con 60 CPUs virtuales, herramientas de redes de nivel 1 y datos plano y una red del plano de control que usen gVNIC, realiza la siguiente solicitudPOST:POST https://compute.googleapis.com/compute/v1/projects/example-project/zones/us-central1-a/instances { "name": "dpdk-vm", "machineType": "c2-standard-60", "disks": [ { "initializeParams": { "diskSizeGb": "512GB", "diskType": "pd-ssd", "sourceImage": "projects/ubuntu-os-cloud/global/images/ubuntu-2004-lts" }, "boot": true } ], "networkInterfaces": [ { "network": "global/networks/control", "subnetwork": "regions/us-central1/subnetworks/control", "nicType": "GVNIC" }, { "network": "global/networks/data", "subnetwork": "regions/us-central1/subnetworks/data", "nicType": "GVNIC" } ], "networkPerformanceConfig": { "totalEgressBandwidthTier": "TIER_1" } }Para obtener más opciones de configuración cuando crees una VM, consulta Crea y, luego, inicia una instancia de VM. Instala DPDK en tu VMPara instalar DPDK en tu VM, sigue estos pasos: - Conéctate a la VM que creaste en la sección anterior con SSH. 
- Configura las dependencias para la instalación de DPDK: - sudo apt-get update && sudo apt-get upgrade -yq sudo apt-get install -yq build-essential ninja-build python3-pip \ linux-headers-$(uname -r) pkg-config libnuma-dev sudo pip install pyelftools meson
- Instala DPDK: - wget https://fast.dpdk.org/rel/dpdk-23.07.tar.xz tar xvf dpdk-23.07.tar.xz cd dpdk-23.07
- Para compilar DPDK con los ejemplos, haz lo siguiente: - meson setup -Dexamples=all build sudo ninja -C build install; sudo ldconfig
 Instala el controladorPara preparar DPDK para que se ejecute en un controlador, instala el controlador seleccionando uno de los siguientes métodos: Instala un VFIO sin IOMMUPara instalar el controlador VFIO sin IOMMU, sigue estos pasos: - Comprueba si VFIO está habilitado: - cat /boot/config-$(uname -r) | grep NOIOMMU- Si VFIO no está habilitado, sigue los pasos que se indican en Instala UIO. 
- Habilita el modo sin IOMMU en VFIO: - sudo bash -c 'echo 1 > /sys/module/vfio/parameters/enable_unsafe_noiommu_mode'
 Instala UIOPara instalar el controlador UIO en DPDK, selecciona uno de los siguientes métodos: Instala UIO con GitPara instalar el controlador UIO en DPDK con git, sigue estos pasos:- Clona el repositorio de git - igb_uioen un disco de tu VM:- git clone https://dpdk.org/git/dpdk-kmods
- Desde el directorio principal del repositorio de git clonado, compila el módulo y, luego, instala el controlador de UIO en DPDK: - pushd dpdk-kmods/linux/igb_uio sudo make sudo depmod && sudo insmod igb_uio.ko popd
 Instala UIO con paquetes de LinuxPara instalar el controlador de UIO en DPDK con paquetes de Linux, sigue estos pasos: - Instala el paquete - dpdk-igb-uio-dkms:- sudo apt-get install -y dpdk-igb-uio-dkms
- Instala el controlador de UIO en DPDK: - sudo modprobe igb_uio
 Vincula DPDK a un controlador y pruébaloPara vincular DPDK al controlador que instalaste en la sección anterior, sigue estos pasos: - Obtén el número de ranura de interconexión de componentes periféricos (PCI) para la interfaz de red actual: - sudo lspci | grep -e "gVNIC" -e "Virtio network device"- Por ejemplo, si la VM usa - ens4como interfaz de red, el número de ranura PCI es- 00:04.0.
- Detén la interfaz de red conectada al adaptador de red: - sudo ip link set NETWORK_INTERFACE_NAME down- Reemplaza - NETWORK_INTERFACE_NAMEpor el nombre de la interfaz de red especificada en las redes de VPC. Para ver qué interfaz de red usa la VM, consulta la configuración de la interfaz de red:- sudo ifconfig
- Vincula DPDK al controlador: - sudo dpdk-devbind.py --bind=DRIVER PCI_SLOT_NUMBER- Reemplaza lo siguiente: - DRIVER: Es el controlador en el que se vinculará DPDK. Especifica uno de los siguientes valores:- Controlador de UIO: - igb_uio
- Controlador VFIO sin IOMMU: - vfio-pci
 
- PCI_SLOT_NUMBER: El número de ranura de PCI de la interfaz de red actual con formato- 00:0NUMBER.0.
 
- Crea el directorio - /mnt/hugey, luego, crea algunas páginas grandes para que DPDK las use para los búferes:- sudo mkdir /mnt/huge sudo mount -t hugetlbfs -o pagesize=1G none /mnt/huge sudo bash -c 'echo 4 > /sys/kernel/mm/hugepages/hugepages-1048576kB/nr_hugepages' sudo bash -c 'echo 1024 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages'
- Para probar que DPDK puede usar la interfaz de red que creaste en los pasos anteriores, ejecuta la aplicación de ejemplo - testpmdque se incluye con las bibliotecas de DPDK:- sudo ./build/app/dpdk-testpmd- Para obtener más información sobre las pruebas de DPDK, consulta Opciones de línea de comandos de Testpmd. 
 Desvincula el DPDKDespués de usar DPDK, puedes desvincularlo del controlador que instalaste en la sección anterior. Para desvincular DPDK, sigue estos pasos: - Desvincula el DPDK del controlador: - sudo dpdk-devbind.py -u PCI_SLOT_NUMBER- Reemplaza - PCI_SLOT_NUMBERpor el número de ranura PCI que especificaste en los pasos anteriores. Si deseas verificar el número de ranura PCI de la interfaz de red actual, haz lo siguiente:- sudo lspci | grep -e "gVNIC" -e "Virtio network device"- Por ejemplo, si la VM usa - ens4como interfaz de red, el número de ranura PCI es- 00:04.0.
- Vuelve a cargar el controlador de red de Compute Engine: - sudo bash -c 'echo PCI_SLOT_NUMBER > /sys/bus/pci/drivers/VNIC_DIRECTORY/bind' sudo ip link set NETWORK_INTERFACE_NAME up- Reemplaza lo siguiente: - PCI_SLOT_NUMBER: Es el número de ranura PCI que especificaste en los pasos anteriores.
- VNIC_DIRECTORY: el directorio del vNIC. Según el tipo de vNIC que uses, especifica uno de los siguientes valores:- gVNIC: - gvnic
- VirtIO-Net: - virtio-pci
 
- NETWORK_INTERFACE_NAME: el nombre de la interfaz de red que especificaste en la sección anterior.
 
 ¿Qué sigue?- Revisa las tarifas de ancho de banda de red para tu tipo de máquina. 
- Obtén más información para crear y administrar redes de VPC. 
- Obtén más información sobre la configuración de MTU más alta con marcos jumbo. 
- Obtén más información sobre la optimización de TCP para el rendimiento de la red. 
 Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados. Última actualización: 2025-10-19 (UTC) -