En este documento, se explica cómo habilitar el kit de desarrollo de plano de datos (DPDK) en una instancia de máquina virtual (VM) para obtener un procesamiento de paquetes de red más rápido.
DPDK es un framework para aplicaciones intensivas en rendimiento que requieren un procesamiento de paquetes rápido, una latencia baja y un rendimiento coherente. DPDK proporciona un conjunto de bibliotecas de plano de datos y un controlador de interfaz de red (NIC) que omite la red del kernel y se ejecuta directamente en el espacio de usuario. Por ejemplo, habilitar DPDK en tu VM es útil cuando ejecutas lo siguiente:
Implementaciones de virtualización de funciones de red (NFV)
Aplicaciones de red definida por software (SDN)
Aplicaciones de transmisión de video por Internet o por voz sobre IP
Puedes ejecutar DPDK en una VM con uno de los siguientes tipos de NIC virtual (vNIC):
Opción recomendada: gVNIC
Una interfaz de red virtual, segura y de alto rendimiento, diseñada específicamente para Compute Engine y que tiene éxito con virtIO como la vNIC de nueva generación.
-
Un controlador de Ethernet de código abierto que permite a las VMs acceder a hardware físico de manera eficiente, como el almacenamiento en bloque y los adaptadores de red.
Un problema con la ejecución de DPDK en un entorno virtual, en lugar de en hardware físico, es que los entornos virtuales no son compatibles con SR-IOV ni con la unidad de administración de memoria de E/S (IOMMU) para aplicaciones de alto rendimiento. Para superar esta limitación, debes ejecutar DPDK en direcciones físicas de invitado en lugar de direcciones virtuales de host con uno de los siguientes controladores:
Antes de comenzar
-
Si aún no lo hiciste, configura la autenticación.
La autenticación es el proceso mediante el cual se verifica tu identidad para acceder a los servicios y las API de Google Cloud.
Para ejecutar código o muestras desde un entorno de desarrollo local, puedes autenticarte en Compute Engine seleccionando una de las siguientes opciones:
Select the tab for how you plan to use the samples on this page:
Console
When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.
gcloud
-
Install the Google Cloud CLI, then initialize it by running the following command:
gcloud init
- Set a default region and zone.
Para evitar la falta de conectividad de red cuando ejecutas tus aplicaciones, usa dos redes de nube privada virtual:
Una red de VPC para el plano de control
Una red de VPC para el plano de datos
Las dos redes de VPC deben especificar lo siguiente:
Una subred con un rango de direcciones IP único
La misma región para sus subredes
El mismo tipo de vNIC: gVNIC o VirtIO-Net
Cuando crees la VM, haz lo siguiente:
Debes especificar la misma región que las subredes de las dos redes de VPC.
Debes especificar el tipo de vNIC que planeas usar con DPDK.
Debes especificar una serie de máquinas compatible para gVNIC o VirtIO-Net.
Solo puedes usar subredes de pila única para las dos redes de VPC que se usan en la VM.
Si usas gVNIC como el tipo de vNIC para las dos redes de VPC, asegúrate de lo siguiente:
Debes usar la versión 22.11 o posterior de DPDK.
Solo puedes usar imágenes de disco compatibles.
Si deseas habilitar el rendimiento de redes de nivel 1 por VM para obtener un rendimiento de red más alto cuando crees la VM, debes especificar lo siguiente:
gVNIC como el tipo de vNIC
Un tipo de máquina compatible con 30 CPUs virtuales o más
Crea una red de VPC para el plano de datos:
En la consola de Google Cloud, ve a Redes de VPC.
Esta acción abrirá la página Redes de VPC.
Haz clic en
Crear red de VPC.Se abrirá la página Crear una red de VPC.
En el campo Nombre, ingresa el nombre de tu red.
En la sección Subred nueva, haz lo siguiente:
En el campo Nombre, ingresa el nombre de tu subred.
En el menú Región, selecciona una región para tu subred.
Selecciona IPv4 (pila única) (predeterminado).
En el Rango de IPv4, ingresa una dirección de rango IPv4 válida en notación CIDR.
Haz clic en Listo.
Haz clic en Crear.
Esta acción abrirá la página Redes de VPC. La creación de la red de VPC puede tardar hasta un minuto en completarse.
Crea una red de VPC para el plano de control con una regla de firewall que permita conexiones SSH a la VM:
Vuelve a hacer clic en
Crear red de VPC.Se abrirá la página Crear una red de VPC.
En el campo Nombre, ingresa el nombre de tu red.
En la sección Subred nueva, haz lo siguiente:
En el campo Nombre, ingresa un nombre para la subred.
En el menú Región, selecciona la misma región que especificaste para la subred de la red del plano de datos.
Selecciona IPv4 (pila única) (predeterminado).
En el Rango de IPv4, ingresa una dirección de rango IPv4 válida en notación CIDR.
Haz clic en Listo.
En la pestaña Reglas de firewall de IPv4, selecciona la casilla de verificación NETWORK_NAME-allow-ssh.
en el que NETWORK_NAME es el nombre de la red que especificaste en los pasos anteriores.
Haz clic en Crear.
Esta acción abrirá la página Redes de VPC. La creación de la red de VPC puede tardar hasta un minuto en completarse.
Para crear una red de VPC para el plano de datos, sigue estos pasos:
Crea una red de VPC con una subred creada de forma manual con el comando
gcloud compute networks create
con la marca--subnet-mode
establecida encustom
.gcloud compute networks create DATA_PLANE_NETWORK_NAME \ --bgp-routing-mode=regional \ --mtu=MTU \ --subnet-mode=custom
Reemplaza lo siguiente:
DATA_PLANE_NETWORK_NAME
: el nombre de la red de VPC del plano de datos.MTU
: es la unidad de transmisión máxima (MTU), que es el tamaño de paquete más grande de la red. El valor debe ser de entre1300
y8896
. El valor predeterminado es1460
. Antes de configurar la MTU en un valor superior a1460
, consulta la Unidad de transmisión máxima.
Crea una subred para la red de plano de datos de VPC que acabas de crear con el comando
gcloud compute networks subnets create
.gcloud compute networks subnets create DATA_PLANE_SUBNET_NAME \ --network=DATA_PLANE_NETWORK_NAME \ --range=DATA_PRIMARY_RANGE \ --region=REGION
Reemplaza lo siguiente:
DATA_PLANE_SUBNET_NAME
: Es el nombre de la subred de la red del plano de datos.DATA_PLANE_NETWORK_NAME
: El nombre de la red del plano de datos que especificaste en los pasos anteriores.DATA_PRIMARY_RANGE
: Un rango IPv4 válido para la subred, en notación CIDR.REGION
: la región en la que se creará la subnet.
Para crear una red de VPC para el plano de control con una regla de firewall que permita conexiones SSH a la VM, sigue estos pasos:
Crea una red de VPC con una subred creada de forma manual con el comando
gcloud compute networks create
con la marca--subnet-mode
establecida encustom
.gcloud compute networks create CONTROL_PLANE_NETWORK_NAME \ --bgp-routing-mode=regional \ --mtu=MTU \ --subnet-mode=custom
Reemplaza lo siguiente:
CONTROL_PLANE_NETWORK_NAME
: el nombre de la red de VPC del plano de control.MTU
: Es la MTU, que es el tamaño de paquete más grande de la red. El valor debe ser de entre1300
y8896
. El valor predeterminado es1460
. Antes de configurar la MTU en un valor superior a1460
, consulta la Unidad de transmisión máxima.
Crea una subred para la red del plano de control de la VPC que acabas de crear con el comando
gcloud compute networks subnets create
.gcloud compute networks subnets create CONTROL_PLANE_SUBNET_NAME \ --network=CONTROL_PLANE_NETWORK_NAME \ --range=CONTROL_PRIMARY_RANGE \ --region=REGION
Reemplaza lo siguiente:
CONTROL_PLANE_SUBNET_NAME
: Es el nombre de la subred de la red del plano de control.CONTROL_PLANE_NETWORK_NAME
: El nombre de la red del plano de control que especificaste en los pasos anteriores.CONTROL_PRIMARY_RANGE
: Un rango IPv4 válido para la subred, en notación CIDR.REGION
: La región en la que se crea la subred, que debe coincidir con la región que especificaste en la subred de la red del plano de datos.
Crea una regla de firewall de VPC que permita la conexión SSH a la red del plano de control con el comando
gcloud compute firewall-rules create
con la marca--allow
establecida entcp:22
.gcloud compute firewall-rules create FIREWALL_RULE_NAME \ --action=allow \ --network=CONTROL_PLANE_NETWORK_NAME \ --rules=tcp:22
Reemplaza lo siguiente:
FIREWALL_RULE_NAME
: Es el nombre de la regla de firewall.CONTROL_PLANE_NETWORK_NAME
: El nombre de la red del plano de control que creaste en los pasos anteriores.
Para crear una red de VPC para el plano de datos, sigue estos pasos:
Para crear una red de VPC con una subred creada de forma manual, realiza una solicitud
POST
al métodonetworks.insert
con el campoautoCreateSubnetworks
establecido enfalse
.POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/global/networks { "autoCreateSubnetworks": false, "name": "DATA_PLANE_NETWORK_NAME", "mtu": MTU }
Reemplaza lo siguiente:
PROJECT_ID
: el ID del proyecto del proyecto actual.DATA_PLANE_NETWORK_NAME
: el nombre de la red del plano de datos.MTU
: es la unidad de transmisión máxima (MTU), que es el tamaño de paquete más grande de la red. El valor debe ser de entre1300
y8896
. El valor predeterminado es1460
. Antes de configurar la MTU en un valor superior a1460
, consulta la Unidad de transmisión máxima.
Para crear una subred para la red del plano de datos de la VPC, realiza una solicitud
POST
al métodosubnetworks.insert
.POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION/subnetworks { "ipCidrRange": "DATA_PRIMARY_RANGE", "name": "DATA_PLANE_SUBNET_NAME", "network": "projects/PROJECT_ID/global/networks/DATA_PLANE_NETWORK_NAME" }
Reemplaza lo siguiente:
PROJECT_ID
: el ID del proyecto en el que se encuentra la red del plano de datos.REGION
: La región en la que deseas crear la subred.DATA_PRIMARY_RANGE
: El rango IPv4 principal para la subred nueva, en notación CIDR.DATA_PLANE_SUBNET_NAME
: El nombre de la subred de la red del plano de datos que creaste en el paso anterior.DATA_PLANE_NETWORK_NAME
: El nombre de la red del plano de datos que creaste en el paso anterior.
Para crear una red de VPC para el plano de control con una regla de firewall que permita la conexión SSH a la VM, sigue estos pasos:
Para crear una red de VPC con una subred creada de forma manual, realiza una solicitud
POST
al métodonetworks.insert
con el campoautoCreateSubnetworks
establecido enfalse
.POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/global/networks { "autoCreateSubnetworks": false, "name": "CONTROL_PLANE_NETWORK_NAME", "mtu": MTU }
Reemplaza lo siguiente:
PROJECT_ID
: el ID del proyecto del proyecto actual.CONTROL_PLANE_NETWORK_NAME
: el nombre de la red del plano de control.MTU
: Es la MTU, que es el tamaño de paquete más grande de la red. El valor debe ser de entre1300
y8896
. El valor predeterminado es1460
. Antes de configurar la MTU en un valor superior a1460
, consulta la Unidad de transmisión máxima.
Para crear una subred para la red de control de datos de la VPC, realiza una solicitud
POST
al métodosubnetworks.insert
.POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/regions/REGION/subnetworks { "ipCidrRange": "CONTROL_PRIMARY_RANGE", "name": "CONTROL_PLANE_SUBNET_NAME", "network": "projects/PROJECT_ID/global/networks/CONTROL_PLANE_NETWORK_NAME" }
Reemplaza lo siguiente:
PROJECT_ID
: e ID del proyecto en el que se encuentra la red del plano de control.REGION
: La región en la que deseas crear la subred.CONTROL_PRIMARY_RANGE
: El rango IPv4 principal para la subred nueva, en notación CIDR.CONTROL_PLANE_SUBNET_NAME
: El nombre de la subred de la red del plano de control que creaste en el paso anterior.CONTROL_PLANE_NETWORK_NAME
: El nombre de la red del plano de control que creaste en el paso anterior.
Crea una regla de firewall de VPC que permita la conexión SSH a la red del plano de control mediante una solicitud
POST
al métodofirewalls.insert
. En la solicitud, configura el campoIPProtocol
comotcp
y el campoports
como22
.POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/global/firewalls { "allowed": [ { "IPProtocol": "tcp", "ports": [ "22" ] } ], "network": "projects/PROJECT_ID/global/networks/CONTROL_PLANE_NETWORK_NAME" }
Reemplaza lo siguiente:
PROJECT_ID
: e ID del proyecto en el que se encuentra la red del plano de control.CONTROL_PLANE_NETWORK_NAME
: El nombre de la red del plano de control que creaste en los pasos anteriores.
En la consola de Google Cloud, ve a Instancias de VM.
Se abre la página Instancias de VM.
Haz clic en
Crear instancia.Se abrirá la página Crea una instancia.
En el campo Nombre, ingresa el nombre de tu VM.
En el menú Región, selecciona la misma región en la que creaste tus redes en los pasos anteriores.
En el menú Zona, selecciona una zona para tu VM.
En la sección Configuración de la máquina, haz lo siguiente:
Selecciona una de las opciones siguientes:
Para cargas de trabajo comunes, selecciona la pestaña Uso general (predeterminada).
Para cargas de trabajo de rendimiento intensivo, selecciona la pestaña Optimizado para procesamiento.
Para las cargas de trabajo de proporciones de memoria a CPU virtuales altas, selecciona la pestaña Memoria optimizada.
Para las cargas de trabajo que usan unidades de procesamiento de gráficos (GPU), selecciona la pestaña GPUs.
Opcional. Si especificaste GPUs en el paso anterior y deseas cambiar la GPU que se conectará a la VM, haz una o más de las siguientes acciones:
En el menú Tipo de GPU, selecciona un tipo de GPU.
En el menú Cantidad de GPU, selecciona la cantidad.
En el menú Serie, selecciona una serie de máquinas.
En el menú Tipo de máquina, selecciona un tipo de máquina.
Opcional: Expande Configuración avanzada y sigue las indicaciones para personalizar aún más la máquina de esta VM.
Opcional: En la sección Disco de arranque, haz clic en Cambiar y, luego, sigue las instrucciones para cambiar la imagen de disco.
Expanda la sección Opciones avanzadas.
Expande la sección Herramientas de redes.
En la sección Configuración del rendimiento de la red, haz lo siguiente:
En el menú Tarjeta de interfaz de red, selecciona una de las siguientes opciones:
Para usar gVNIC, selecciona gVNIC.
Para usar VirtIO-Net, selecciona VirtIO.
Opcional: Para obtener un mayor rendimiento de red y una latencia reducida, selecciona la casilla de verificación Habilitar redes Tier_1.
En la sección Interfaces de red, haz lo siguiente:
En la fila default, haz clic en
Borrar elemento "default".Haz clic en Agregar interfaz de red.
Aparecerá la sección Nueva interfaz de red.
En el menú Red, selecciona la red del plano de control que creaste en los pasos anteriores.
Haz clic en Listo.
Vuelve a hacer clic en Agregar interfaz de red.
Aparecerá la sección Nueva interfaz de red.
En el menú Red, selecciona la red del plano de datos que creaste en los pasos anteriores.
Haz clic en Listo.
Haz clic en Crear.
Se abre la página Instancias de VM. La creación de la VM puede tardar hasta un minuto en completarse.
VM_NAME
: el nombre de la VM.IMAGE_FAMILY
: Es la familia de imágenes del sistema operativo con la que se inicializará el disco de arranque. Como alternativa, puedes especificar la marca--image=IMAGE
y reemplazarIMAGE
por una versión específica de una imagen. Obtén información para ver una lista de imágenes disponibles en el proyecto de imágenes de Compute Engine.IMAGE_PROJECT
: El nombre del proyecto de imagen que contiene la imagen de disco.MACHINE_TYPE
: Es un tipo de máquina, predefinido o personalizado, de la VM.VNIC_TYPE
: El tipo de vNIC que se usará para el plano de control y las redes del plano de datos. El valor debe ser uno de los siguientes:Para usar gVNIC, especifica
GVNIC
.Para usar VirtIO-Net, especifica
VIRTIO_NET
.
CONTROL_PLANE_NETWORK_NAME
: El nombre de la red del plano de control que creaste en los pasos anteriores.CONTROL_PLANE_SUBNET_NAME
: Es el nombre de la subred para la red del plano de control que creaste en los pasos anteriores.DATA_PLANE_NETWORK_NAME
: El nombre de la red del plano de datos que creaste en los pasos anteriores.DATA_PLANE_SUBNET_NAME
: Es el nombre de la subred para la red del plano de control que creaste automáticamente en los pasos anteriores.ZONE
: La zona en la que se creará la VM. Especifica una zona dentro de la misma región de la subred que creaste en los pasos anteriores.PROJECT_ID
: Es el ID del proyecto en el que se encuentran la red de VPC del plano de control y la red de VPC del plano de datos.ZONE
: La zona en la que se creará la VM.VM_NAME
: el nombre de la VM.MACHINE_TYPE
: Es un tipo de máquina, predefinido o personalizado, de la VM.IMAGE_PROJECT
: El nombre del proyecto de imagen que contiene la imagen de disco.IMAGE_FAMILY
: Es la familia de imágenes del sistema operativo con la que se inicializará el disco de arranque. Como alternativa, puedes especificar una versión específica de una imagen. Obtén información para ver una lista de imágenes en el proyecto de imágenes de Compute Engine.CONTROL_PLANE_NETWORK_NAME
: El nombre de la red del plano de control que creaste en los pasos anteriores.REGION
: La región en la que existen las subredes del plano de control y las redes del plano de datos.CONTROL_PLANE_SUBNET_NAME
: Es el nombre de la subred para la red del plano de control que creaste en los pasos anteriores.VNIC_TYPE
: El tipo de vNIC que se usará para el plano de control y las redes del plano de datos. El valor debe ser uno de los siguientes:Para usar gVNIC, especifica
GVNIC
.Para usar VirtIO-Net, especifica
VIRTIO_NET
.
DATA_PLANE_NETWORK_NAME
: El nombre de la red del plano de datos que creaste en los pasos anteriores.DATA_PLANE_SUBNET_NAME
: Es el nombre de la subred para la red del plano de control que creaste en los pasos anteriores.Conéctate a la VM que creaste en la sección anterior mediante SSH.
Configura las dependencias para la instalación de DPDK:
sudo apt-get update && sudo apt-get upgrade -yq sudo apt-get install -yq build-essential ninja-build python3-pip \ linux-headers-$(uname -r) pkg-config libnuma-dev sudo pip install pyelftools meson
Instala DPDK:
wget https://fast.dpdk.org/rel/dpdk-23.07.tar.xz tar xvf dpdk-23.07.tar.xz cd dpdk-23.07
Para compilar DPDK con los ejemplos, haz lo siguiente:
meson setup -Dexamples=all build sudo ninja -C build install; sudo ldconfig
Comprueba si VFIO está habilitado:
cat /boot/config-$(uname -r) | grep NOIOMMU
Si VFIO no está habilitado, sigue los pasos que se indican en Instala UIO.
Habilita el modo sin IOMMU en VFIO:
sudo bash -c 'echo 1 > /sys/module/vfio/parameters/enable_unsafe_noiommu_mode'
Clona el repositorio de git
igb_uio
en un disco de tu VM:git clone https://dpdk.org/git/dpdk-kmods
Desde el directorio principal del repositorio de git clonado, compila el módulo y, luego, instala el controlador de UIO en DPDK:
pushd dpdk-kmods/linux/igb_uio sudo make sudo depmod && sudo insmod igb_uio.ko popd
Instala el paquete
dpdk-igb-uio-dkms
:sudo apt-get install -y dpdk-igb-uio-dkms
Instala el controlador de UIO en DPDK:
sudo modprobe igb_uio
Obtén el número de ranura de interconexión de componentes periféricos (PCI) de la interfaz de red actual:
sudo lspci | grep -e "gVNIC" -e "Virtio network device"
Por ejemplo, si la VM usa
ens4
como interfaz de red, el número de ranura PCI es00:04.0
.Detén la interfaz de red conectada al adaptador de red:
sudo ip link set NETWORK_INTERFACE_NAME down
Reemplaza
NETWORK_INTERFACE_NAME
por el nombre de la interfaz de red especificada en las redes de VPC. Para ver qué interfaz de red usa la VM, consulta la configuración de la interfaz de red:sudo ifconfig
Vincula DPDK al controlador:
sudo dpdk-devbind.py --bind=DRIVER PCI_SLOT_NUMBER
Reemplaza lo siguiente:
DRIVER
: Es el controlador en el que se vinculará DPDK. Especifica uno de los siguientes valores:Controlador de UIO:
igb_uio
Controlador de VFIO sin IOMMU:
vfio-pci
PCI_SLOT_NUMBER
: El número de ranura de PCI de la interfaz de red actual con formato00:0NUMBER.0
.
Crea el directorio
/mnt/huge
y, luego, crea algunas páginas grandes para que DPDK las use en los búferes:sudo mkdir /mnt/huge sudo mount -t hugetlbfs -o pagesize=1G none /mnt/huge sudo bash -c 'echo 4 > /sys/kernel/mm/hugepages/hugepages-1048576kB/nr_hugepages' sudo bash -c 'echo 1024 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages'
Ejecuta la aplicación de ejemplo
testpmd
que se incluye con las bibliotecas de DPDK para probar que DPDK pueda usar la interfaz de red que creaste en los pasos anteriores:sudo ./build/app/dpdk-testpmd
Para obtener más información sobre cómo probar DPDK, consulta Opciones de línea de comandos de testpmd.
Desvincula el DPDK del controlador:
sudo dpdk-devbind.py -u PCI_SLOT_NUMBER
Reemplaza
PCI_SLOT_NUMBER
por el número de ranura PCI que especificaste en los pasos anteriores. Si deseas verificar el número de ranura PCI de la interfaz de red actual, haz lo siguiente:sudo lspci | grep -e "gVNIC" -e "Virtio network device"
Por ejemplo, si la VM usa
ens4
como interfaz de red, el número de ranura PCI es00:04.0
.Vuelve a cargar el controlador de red de Compute Engine:
sudo bash -c 'echo PCI_SLOT_NUMBER > /sys/bus/pci/drivers/VNIC_DIRECTORY/bind' sudo ip link set NETWORK_INTERFACE_NAME up
Reemplaza lo siguiente:
PCI_SLOT_NUMBER
: Es el número de ranura PCI que especificaste en los pasos anteriores.VNIC_DIRECTORY
: el directorio del vNIC. Según el tipo de vNIC que uses, especifica uno de los siguientes valores:gVNIC:
gvnic
VirtIO-Net:
virtio-pci
NETWORK_INTERFACE_NAME
: el nombre de la interfaz de red que especificaste en la sección anterior.
Revisa las tarifas de ancho de banda de red para tu tipo de máquina.
Obtén más información para crear y administrar redes de VPC.
Obtén más información sobre la configuración de MTU más alta con tramas jumbo.
Obtén más información sobre la optimización de TCP para el rendimiento de la red.
REST
Para usar las muestras de la API de REST en esta página en un entorno de desarrollo local, debes usar las credenciales que proporcionas a la CLI de gcloud.
Install the Google Cloud CLI, then initialize it by running the following command:
gcloud init
Si deseas obtener más información, consulta Autentica para usar REST en la documentación de autenticación de Google Cloud.
Requisitos
Cuando crees una VM para ejecutar DPDK, asegúrate de lo siguiente:
Restricciones
Ejecutar DPDK en una VM tiene las siguientes restricciones:
Configura una VM para ejecutar DPDK
En esta sección, se explica cómo crear una VM para ejecutar DPDK.
Crea las redes de VPC
Crea dos redes de VPC, para el plano de datos y el plano de control, con la consola de Google Cloud, Google Cloud CLI o la API de Compute Engine. Luego, puedes especificar estas redes cuando crees la VM.
Console
gcloud
API
Para obtener más opciones de configuración cuando crees una red de VPC, consulta Crea y administra redes de VPC.
Crea una VM que use las redes de VPC para DPDK
Crea una VM que habilite gVNIC o virtIO-Net en las dos redes de VPC que creaste anteriormente con la consola de Google Cloud, gcloud CLI y la API de Compute Engine.
Opción recomendada: Especifica Ubuntu LTS o Ubuntu Pro como la imagen del sistema operativo debido a la compatibilidad del administrador de paquetes con los controladores de VFIO sin UIO ni IOMMU. Si no quieres especificar ninguno de estos sistemas operativos, se recomienda especificar Debian 11 o versiones posteriores para un procesamiento de paquetes más rápido.
Console
Crea una VM que use las dos subredes de red de VPC que creaste en los pasos anteriores. Para ello, haz lo siguiente:
gcloud
Crea una VM que use las dos subredes de red de VPC que creaste en los pasos anteriores mediante el comando
gcloud compute instances create
con las siguientes marcas:gcloud compute instances create VM_NAME \ --image-family=IMAGE_FAMILY \ --image-project=IMAGE_PROJECT \ --machine-type=MACHINE_TYPE \ --network-interface=network=CONTROL_PLANE_NETWORK_NAME,subnet=CONTROL_PLANE_SUBNET_NAME,nic-type=VNIC_TYPE \ --network-interface=network=DATA_PLANE_NETWORK_NAME,subnet=DATA_PLANE_SUBNET_NAME,nic-type=VNIC_TYPE \ --zone=ZONE
Reemplaza lo siguiente:
Por ejemplo, para crear una VM llamada
dpdk-vm
en la zonaus-central1-a
que especifica un disco persistente SSD de 512 GB, un tipo de máquina C2 predefinido con 60 CPUs virtuales, herramientas de redes de nivel 1 y datos de plano de control y una red del plano de control que usen gVNIC, ejecuta el siguiente comando:gcloud compute instances create dpdk-vm \ --boot-disk-size=512GB \ --boot-disk-type=pd-ssd \ --image-project=ubuntu-os-cloud \ --image-family=ubuntu-2004-lts \ --machine-type=c2-standard-60 \ --network-performance-configs=total-egress-bandwidth-tier=TIER_1 \ --network-interface=network=control,subnet=control,nic-type=GVNIC \ --network-interface=network=data,subnet=data,nic-type=GVNIC \ --zone=us-central1-a
API
Crea una VM que use las dos subredes de red de VPC que creaste en los pasos anteriores mediante una solicitud
POST
al métodoinstances.insert
con los siguientes campos:POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances { "name": "VM_NAME", "machineType": "MACHINE_TYPE", "disks": [ { "initializeParams": { "sourceImage": "projects/IMAGE_PROJECT/global/images/IMAGE_FAMILY" } } ], "networkInterfaces": [ { "network": "global/networks/CONTROL_PLANE_NETWORK_NAME", "subnetwork": "regions/REGION/subnetworks/CONTROL_PLANE_SUBNET_NAME", "nicType": "VNIC_TYPE" }, { "network": "global/networks/DATAPLANE_NETWORK_NAME", "subnetwork": "regions/REGION/subnetworks/DATA_PLANE_SUBNET_NAME", "nicType": "VNIC_TYPE" } ] }
Reemplaza lo siguiente:
Por ejemplo, para crear una VM llamada
dpdk-vm
en la zonaus-central1-a
que especifica un disco persistente SSD de 512 GB, un tipo de máquina C2 predefinido con 60 CPUs virtuales, herramientas de redes de nivel 1 y datos plano y una red del plano de control que usen gVNIC, realiza la siguiente solicitudPOST
:POST https://compute.googleapis.com/compute/v1/projects/example-project/zones/us-central1-a/instances { "name": "dpdk-vm", "machineType": "c2-standard-60", "disks": [ { "initializeParams": { "diskSizeGb": "512GB", "diskType": "pd-ssd", "sourceImage": "projects/ubuntu-os-cloud/global/images/ubuntu-2004-lts" }, "boot": true } ], "networkInterfaces": [ { "network": "global/networks/control", "subnetwork": "regions/us-central1/subnetworks/control", "nicType": "GVNIC" }, { "network": "global/networks/data", "subnetwork": "regions/us-central1/subnetworks/data", "nicType": "GVNIC" } ], "networkPerformanceConfig": { "totalEgressBandwidthTier": "TIER_1" } }
Para obtener más opciones de configuración cuando crees una VM, consulta Crea y, luego, inicia una instancia de VM.
Instala DPDK en tu VM
Para instalar DPDK en tu VM, sigue estos pasos:
Instala el controlador
Para preparar DPDK para que se ejecute en un controlador, selecciona uno de los siguientes métodos para instalarlo:
Instala un VFIO sin IOMMU
Para instalar el controlador VFIO sin IOMMU, sigue estos pasos:
Instala UIO
Para instalar el controlador de UIO en DPDK, selecciona uno de los siguientes métodos:
Instala UIO con git
Para instalar el controlador de UIO en DPDK con
git
, sigue estos pasos:Instala UIO con paquetes de Linux
Para instalar el controlador de UIO en DPDK con paquetes de Linux, sigue estos pasos:
Vincula DPDK a un controlador y pruébalo
Para vincular DPDK al controlador que instalaste en la sección anterior, sigue estos pasos:
Desvincula el DPDK
Después de usar DPDK, puedes desvincularlo del controlador que instalaste en la sección anterior. Para desvincular DPDK, sigue estos pasos:
¿Qué sigue?
Salvo que se indique lo contrario, el contenido de esta página está sujeto a la licencia Atribución 4.0 de Creative Commons, y los ejemplos de código están sujetos a la licencia Apache 2.0. Para obtener más información, consulta las políticas del sitio de Google Developers. Java es una marca registrada de Oracle o sus afiliados.
Última actualización: 2024-12-22 (UTC)
-