Calcolo della velocità effettiva di rete tramite Interconnect

Questo tutorial descrive come calcolare il throughput della rete, sia all'interno di Google Cloud sia nelle sedi cloud on-premise o di terze parti collegate tramite Cloud Interconnect. Questo documento descrive come analizzare i risultati, elenca le variabili che possono influire sul rendimento della rete e fornisce alcuni suggerimenti per la risoluzione dei problemi.

Limitazioni e considerazioni

  • Si applicano le limitazioni di Cloud Interconnect. Per ulteriori informazioni, consulta Quote di Cloud Interconnect.
  • Limiti NIC: Google Cloud tiene conto della larghezza di banda di ogni istanza di macchina virtuale (VM), non di ogni interfaccia di rete (NIC) o indirizzo IP. Il tipo di macchina di una VM definisce la sua velocità in uscita massima; tuttavia, questa velocità può essere raggiunta solo in situazioni specifiche. Consulta questa tabella per il numero di vCPU per tipo di macchina.
  • Si applicano gli altri dispositivi nel percorso (firewall, switch con piccoli buffer e dispositivi di altri fornitori) e le relative limitazioni. Per mitigare queste limitazioni, svolgi le seguenti attività.

    • Raccogli le statistiche di rete su firewall e switch nel percorso.
    • Per i test di Cloud Interconnect, aggira il maggior numero possibile di dispositivi tra l'host on-premise e il dispositivo Google Edge.
    • Identifica e verifica tutti i dispositivi nel percorso tra la rete on-premise e la VM Google Cloud per verificare se possono essere la causa di problemi di throughput.

Panoramica degli strumenti per la misurazione della velocità effettiva di rete

Questo tutorial mostra l'utilizzo dei seguenti strumenti per calcolare il throughput della rete:

  • iPerf3: uno strumento di test di rete che può creare stream di dati TCP/UDP (monothread o multithread) e misurare il throughput della rete che li trasporta.

    Nota: iPerf3 è consigliato solo per macchine con una sola CPU.

  • Netperf: uno strumento simile a iPerf3, ma adatto per i test di throughput su istanze multi-CPU vincolate alla CPU su una singola CPU.

  • tcpdump: un analizzatore di pacchetti della riga di comando che acquisisce i dettagli dei pacchetti e le comunicazioni TCP/IP per la risoluzione dei problemi più avanzata. Lo strumento tcpdump è compatibile con altri strumenti, come Wireshark.

  • Netstat: un'utilità di rete a riga di comando che mostra le connessioni di rete per il protocollo Transmission Control Protocol (sia in entrata che in uscita), le tabelle di routing e diverse interfacce di rete (controller di interfaccia di rete o interfaccia di rete definita dal software) e le statistiche dei protocolli di rete.

  • mtr: uno strumento di diagnostica della rete che esegue sia le funzioni traceroute che ping. Esegue sondaggi sui router sul percorso dell'itinerario limitando il numero di hop che i singoli pacchetti possono attraversare e ascolta le risposte relative alla loro scadenza.

Misurare il throughput con iPerf3

Segui questa procedura per misurare la velocità in entrata e in uscita di una singola istanza VM.

Scegli un tipo di macchina di grandi dimensioni

Per eseguire test di throughput, utilizza un tipo di macchina di grandi dimensioni, ad esempio n1-standard-8. Questo tipo di macchina offre un limite massimo di throughput in uscita di 16 Gbps, pertanto il throughput in uscita per VM non interferisce con i test.

Installa gli strumenti

Installa iPerf3, mtr, netstat e tcpdump su un'istanza VM Linux

Per le distribuzioni basate su Debian, esegui i seguenti comandi:

    sudo apt-get update
    sudo apt-get install iperf3 tcpdump mtr netstat

Per le distribuzioni basate su Redhat, esegui i seguenti comandi:

    yum update
    yum install iperf3 tcpdump mtr netstat

Installa netperf

Per le distribuzioni basate su Debian, esegui i seguenti comandi:

    sudo apt-get install git build-essential autoconf texinfo -y
    git clone https://github.com/HewlettPackard/netperf.git
    cd netperf
    ./autogen.sh
    ./configure --enable-histogram --enable-demo=yes
    make
    cp src/netserver ~/.local/bin
    cp src/netperf ~/.local/bin

Per le distribuzioni basate su Redhat, esegui i seguenti comandi:

    sudo yum install git build-essential autoconf texinfo -y
    git clone https://github.com/HewlettPackard/netperf.git
    cd netperf
    ./autogen.sh
    ./configure --enable-histogram --enable-demo=yes
    make
    cp src/netserver ~/.local/bin
    cp src/netperf ~/.local/bin

Esegui i test di prerequisito

  1. Assicurati che le dimensioni collegamento VLAN siano configurate correttamente. Per ulteriori informazioni, consulta Modificare i collegamenti VLAN.
  2. Su entrambe le estremità della connessione (ogni terminale), esegui il comando top o htop per monitorare l'utilizzo della CPU.
  3. Raccogli le statistiche di rete utilizzando il comando netstat prima di eseguire qualsiasi esame.

    netstat -s >> netstat.log
    
  4. In un altro terminale, esegui il comando tcpdump prima di qualsiasi acquisizione con il valore parametro snaplen pari a 128.

    Esegui questo comando su entrambi gli endpoint.

    sudo /usr/sbin/tcpdump -s 128 -i [DEVICE_INTERFACE] host [IP_ADDRESS of remote side] -w mycap.pcap
    
  5. Ottieni le dimensioni della memoria in lettura e scrittura sugli host di origine e di destinazione.

    $ sysctl net.ipv4.tcp_rmem
    $ sysctl net.ipv4.tcp_wmem
    $ sysctl net.core.rmem_max
    $ sysctl net.core.rmem_default
    $ net.core.wmem_max
    $ net.core.wmem_default
    $ uname -r
    $ cat /etc/os-release
    

Esegui i test iperf3

A causa della limitazione di 3 Gbps per ogni flusso, ti consigliamo di eseguire più stream paralleli di test iperf3. Ti consigliamo di eseguire almeno quattro test e un massimo di dieci per compensare le limitazioni della larghezza di banda e ottenere risultati utili.

  1. In un altro terminale, esegui il server iperf3 su un'estremità della connessione (una VM o un computer on-premise). Più stream richiedono più iperf3 server.

  2. Esegui lo strumento iPerf3 con il flag udp per il test di Cloud Interconnect. Se viene raggiunto il throughput desiderato con UDP, devi eseguire ulteriori passaggi per la risoluzione dei problemi.

  3. Per eseguire più server iperf3 dalla riga di comando, esegui i seguenti comandi:

    $ iperf3 -s -p 5101&; iperf3 -s -t 30 -p 5102&; iperf3 -s  -p 5103 &
    
  4. Utilizza il seguente script bash per eseguire più server iperf3:

    #!/bin/bash
    #start iperf3 server running in background
    
    for i in `seq 0 9`;
    do
            iperf3 -s  -B 10.0.100.35 -t 30 -u -p 521$i &
    done
    

Per impostazione predefinita, iperf3 client viene eseguito per 10 secondi, il che potrebbe non essere sufficiente per consentire al TCP di raggiungere la velocità in bit massima. Imposta il valore DURATION su almeno 30 secondi per ottenere risultati più affidabili.

    iperf3 -c [server IP address] -P [THREADS] -t [DURATION]

Script bash per eseguire più stream UDP iperf3

echo "UDP iperf test - 10 streams"
for i in `seq 0 9`;
do
       iperf3 -B 10.0.100.35 -c 192.168.50.3 --logfile ~/gcpvm_client-521$i.log -u -b 1G  -l 1390 -t10 -p 521$i    &

done

Script bash per eseguire più stream TCP iperf3

echo "UDP iperf test - 10 streams"
for i in `seq 0 9`;
do
       iperf3 -B 10.0.100.35 -c 192.168.50.3 --logfile ~/gcpvm_client-521$i.log -b 1G  -l 1390 -t10 -p 521$i    &

done

Durante l'esecuzione del test iperf3, monitora il carico della CPU su entrambi i dispositivi. Se il carico della CPU è vicino al 100%, la CPU è un collo di bottiglia per un thread iperf3. In questo caso, utilizza lo strumento Netperf, perché supporta più CPU.

Se non riesci a eseguire Netperf, puoi avviare più server e client iPerf3 su terminali e porte diversi contemporaneamente.

Analizza i risultati del test

Procedi nel seguente modo.

  1. Controlla i risultati del client iperf3 per verificare la larghezza di banda e la perdita di pacchetti.
  2. Controlla i risultati del server iperf3 per verificare la presenza di pacchetti fuori sequenza.
  3. Esegui l'analisi dell'acquisizione dei pacchetti. Esegui il seguente comando per convertire il file pcap in un file di testo.

    tcpdump -A -[PCAP-FILENAME].pcap > [TXT-FILENAME].txt
    
  4. Esegui il seguente comando per ottenere il totale dei pacchetti e dei pacchetti fuori ordine.

    grep -e "Total" -A1 pcap [TXT-FILENAME]
    

    L'output è il seguente:

    gcpvm-send-5210.txt:Total UDP packets: 874032
    gcpvm-send-5210.txt:Total out-of-order packets: 0, missing packets: 0
    gcpvm-send-5211.txt:Total UDP packets: 791218
    gcpvm-send-5211.txt:Total out-of-order packets: 0, missing packets: 0
    gcpvm-send-5212.txt:Total UDP packets: 961510
    gcpvm-send-5212.txt:Total out-of-order packets: 0, missing packets: 0
    gcpvm-send-5213.txt:Total UDP packets: 961517
    gcpvm-send-5213.txt:Total out-of-order packets: 0, missing packets: 0
    gcpvm-send-5214.txt:Total UDP packets: 961501
    gcpvm-send-5214.txt:Total out-of-order packets: 0, missing packets: 0
    gcpvm-send-5215.txt:Total UDP packets: 961521
    gcpvm-send-5215.txt:Total out-of-order packets: 0, missing packets: 0
    gcpvm-send-5216.txt:Total UDP packets: 889932
    gcpvm-send-5216.txt:Total out-of-order packets: 0, missing packets: 0
    gcpvm-send-5217.txt:Total UDP packets: 961483
    gcpvm-send-5217.txt:Total out-of-order packets: 0, missing packets: 0
    gcpvm-send-5218.txt:Total UDP packets: 961479
    gcpvm-send-5218.txt:Total out-of-order packets: 0, missing packets: 0
    gcpvm-send-5219.txt:Total UDP packets: 961518
    gcpvm-send-5219.txt:Total out-of-order packets: 0, missing packets: 0
    

    La seguente analisi mostra la perdita di pacchetti durante un test delle prestazioni:

    $ grep -e "Total" -A1 onPrem-send-*.txt
    

    L'output è il seguente:

    "Total" -A1 onPrem-send-*.txt
    onPrem-send-5210.txt:Total UDP packets: 858698
    onPrem-send-5210.txt:Total out-of-order packets: 0, missing packets: 5408
    --
    onPrem-send-5211.txt:Total UDP packets: 857667
    onPrem-send-5211.txt:Total out-of-order packets: 0, missing packets: 4929
    --
    onPrem-send-5212.txt:Total UDP packets: 857126
    onPrem-send-5212.txt:Total out-of-order packets: 0, missing packets: 5349
    --
    onPrem-send-5213.txt:Total UDP packets: 857424
    onPrem-send-5213.txt:Total out-of-order packets: 0, missing packets: 5495
    --
    onPrem-send-5214.txt:Total UDP packets: 857139
    onPrem-send-5214.txt:Total out-of-order packets: 0, missing packets: 4692
    --
    onPrem-send-5215.txt:Total UDP packets: 857175
    onPrem-send-5215.txt:Total out-of-order packets: 0, missing packets: 4789
    --
    onPrem-send-5216.txt:Total UDP packets: 857104
    onPrem-send-5216.txt:Total out-of-order packets: 0, missing packets: 5196
    --
    onPrem-send-5217.txt:Total UDP packets: 857122
    onPrem-send-5217.txt:Total out-of-order packets: 0, missing packets: 5423
    --
    onPrem-send-5218.txt:Total UDP packets: 857383
    onPrem-send-5218.txt:Total out-of-order packets: 0, missing packets: 5283
    --
    onPrem-send-5219.txt:Total UDP packets: 857313
    onPrem-send-5219.txt:Total out-of-order packets: 0, missing packets: 4934
    
  5. Accedi alla pagina del dispositivo per controllare il throughput della porta.

  6. Se l'output di netstat mostra errori di lettura/scrittura, potrebbe essere necessaria la regolazione del flusso collettivo TCP/UDP.

  7. Se sono presenti pacchetti fuori sequenza, le acquisizioni dei pacchetti devono essere eseguite nei gateway VPN per ulteriori analisi. Per ulteriori informazioni su come eseguire acquisizioni di pacchetti nei gateway VPN, apri una richiesta di assistenza.

  8. Se il test UDP iperf3 raggiunge la velocità in bit desiderata, il problema deve essere altrove e potrebbe essere necessaria la regolazione del TCP.