Checklist masalah performa jaringan Solusi Bare Metal

Halaman ini menyediakan checklist masalah untuk memecahkan masalah performa jaringan. Diagram alir di bawah menunjukkan jalur yang harus diikuti saat memecahkan masalah ini.

Diagram alir

Melakukan uji kecepatan (uji throughput)

Lakukan pengujian kecepatan antara VM Compute Engine atau server aplikasi dan server Solusi Bare Metal jika ada masalah bandwidth antara host jump dan server Solusi Bare Metal.

Pastikan server sumber berada di region yang sama dengan server Solusi Bare Metal karena pengujian lintas region dapat menghasilkan throughput yang lebih rendah dan mungkin tidak menampilkan nilai throughput yang diharapkan.

Poin penting lainnya yang perlu diperiksa adalah jenis mesin mesin sumber dan bandwidth keluar maksimum (Gbps) yang disediakan oleh setiap jenis mesin seperti yang dijelaskan di halaman jenis mesin Compute Engine.

Alat iperf3 harus selalu dijalankan dengan beberapa stream paralel, karena menjalankan iperf3 dengan satu stream TCP memiliki batasan bandwidth.

Login ke server Solusi Bare Metal dan jalankan server iperf3 untuk menerima koneksi TCP dari klien.

iperf3 -s 192.168.1.10
-----------------------------------------------------------
Server listening on 5201
-----------------------------------------------------------

Biarkan koneksi server tetap terbuka, jalankan iperf3 dari VM Compute Engine untuk menguji throughput

iperf3 -c 192.168.1.10 -P 128
Connecting to host 192.168.1.10, port 5201
[SUM]   0.00-10.00  sec  10.3 GBytes  8.85 Gbits/sec  150161             sender
[SUM]   0.00-10.00  sec  10.3 GBytes  8.82 Gbits/sec                  receiver

Jika Anda tidak mendapatkan kecepatan/bandwidth yang diinginkan, periksa apakah masalah Anda termasuk dalam salah satu skenario berikut.

Skenario 1: Jump host adalah VM kecil dengan batasan bandwidth keluar maksimum

Anda dapat menemukan batas bandwidth traffic keluar maksimum untuk semua jenis server di halaman jenis mesin Compute Engine.

Jika menggunakan VM Compute Engine (misalnya, n1-standard-1) di region yang sama dengan server Solusi Bare Metal dengan Partner Interconnect 5 Gbps, Anda akan melihat hal berikut:

iperf3 -c 192.168.1.10 -P 128
Connecting to host 192.168.1.10, port 5201
[SUM]   0.00-10.00  sec  2.31 GBytes  1.98 Gbits/sec  129             sender
[SUM]   0.00-10.00  sec  2.24 GBytes  1.93 Gbits/sec                  receiver

Hasil ini menunjukkan bahwa meskipun memiliki dua interkoneksi dengan kecepatan masing-masing 5 Gbps, kita masih belum mendapatkan performa yang diinginkan. Hal ini karena bandwidth traffic keluar maksimum yang didukung oleh mesin n1-standard-1 adalah 2 Gbps.

Solusi: beralih ke VM yang lebih besar untuk mendapatkan hasil yang diinginkan.

Skenario 2: Host jump berada di region yang berbeda dengan server Solusi Bare Metal.

Saat melakukan pengujian kecepatan antar-server lintas region, Anda tidak mendapatkan hasil yang diinginkan karena latensi add-on lintas region.

Berikut adalah pengujian kecepatan antara VM Compute Engine di us-central1 dan server Solusi Bare Metal di southamerica-east1

iperf3 -c 192.168.1.10 -P 128
Connecting to host 192.168.1.10, port 5201
[SUM]   0.00-10.00  sec  3.12 GBytes  2.68 Gbits/sec  15569             sender
[SUM]   0.00-10.00  sec  3.02 GBytes  2.60 Gbits/sec                  receiver

Ada penurunan bandwidth/kecepatan yang cukup besar saat kita menghubungkan lintas wilayah.

Solusi: hubungkan ke server Solusi Bare Metal dari region yang sama.

Skenario 3: iperf3 berjalan dengan beberapa streaming paralel.

Berikut ini menunjukkan hasil dari menjalankan iperf3 dengan satu aliran TCP

iperf3 -c 192.168.1.10
Connecting to host 192.168.1.10, port 5201
[  5] local 10.158.0.6 port 40382 connected to 192.168.1.10 port 5201

[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec   325 MBytes  2.72 Gbits/sec  162   1.72 MBytes
[  5]   1.00-2.00   sec   345 MBytes  2.89 Gbits/sec   42   1.36 MBytes
[  5]   2.00-3.00   sec   345 MBytes  2.89 Gbits/sec    0   1.53 MBytes
[  5]   3.00-4.00   sec   344 MBytes  2.88 Gbits/sec    0   1.68 MBytes
[  5]   4.00-5.00   sec   345 MBytes  2.89 Gbits/sec   67   1.32 MBytes
[  5]   5.00-6.00   sec   345 MBytes  2.89 Gbits/sec    0   1.49 MBytes
[  5]   6.00-7.00   sec   345 MBytes  2.89 Gbits/sec    0   1.65 MBytes
[  5]   7.00-8.00   sec   344 MBytes  2.88 Gbits/sec    0   1.79 MBytes
[  5]   8.00-9.00   sec   321 MBytes  2.69 Gbits/sec   64   1.39 MBytes
[  5]   9.00-10.00  sec   324 MBytes  2.72 Gbits/sec   91   1.13 MBytes
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec  3.30 GBytes  2.84 Gbits/sec  426             sender
[  5]   0.00-10.00  sec  3.30 GBytes  2.83 Gbits/sec                  receiver

Menjalankan iperf3 dari server yang sama, tetapi menggunakan beberapa aliran TCP akan membantu mencapai performa yang diinginkan.

iperf3 -c 192.168.1.10 -P 128
Connecting to host 192.168.1.10, port 5201
[SUM]   0.00-10.00  sec  10.3 GBytes  8.85 Gbits/sec  150161             sender
[SUM]   0.00-10.00  sec  10.3 GBytes  8.82 Gbits/sec                  receiver

Solusi: Gunakan beberapa streaming paralel dengan iperf3.

Langkah 2: Ukur latensi jaringan

Anda dapat melihat latensi bolak-balik rata-rata di bawah 2&nbps;ms jika Anda terhubung dalam region yang sama.

Gunakan ping untuk memeriksa latensi antar-server. Anda juga dapat menggunakan mtr untuk mendapatkan latensi rata-rata.

ping 192.168.1.10
PING 192.168.1.10 (192.168.1.10) 56(84) bytes of data.
64 bytes from 192.168.1.10: icmp_seq=1 ttl=88 time=1.78 ms
64 bytes from 192.168.1.10: icmp_seq=2 ttl=88 time=0.507 ms
64 bytes from 192.168.1.10: icmp_seq=3 ttl=88 time=0.659 ms
64 bytes from 192.168.1.10: icmp_seq=4 ttl=88 time=0.735 ms
64 bytes from 192.168.1.10: icmp_seq=5 ttl=88 time=0.592 ms
64 bytes from 192.168.1.10: icmp_seq=6 ttl=88 time=0.550 ms
64 bytes from 192.168.1.10: icmp_seq=7 ttl=88 time=0.552 ms
64 bytes from 192.168.1.10: icmp_seq=8 ttl=88 time=0.588 ms
64 bytes from 192.168.1.10: icmp_seq=9 ttl=88 time=0.614 ms
^C
--- 192.168.1.10 ping statistics ---
9 packets transmitted, 9 received, 0% packet loss, time 169ms
rtt min/avg/max/mdev = 0.507/0.730/1.781/0.378 ms

Latensi minimum, rata-rata, dan maksimum berada dalam 2 md, yang merupakan latensi yang dijanjikan antara region Google Cloud dan ekstensi region.

Atau, Anda juga dapat menggunakan MTR untuk mengukur latensi secara dinamis.

mtr --curses 192.168.1.10

test-arka (10.158.0.6)                                                                                                                                                                                                               2020-12-11T08:08:51+0000
Keys:  Help   Display mode   Restart statistics   Order of fields   quit
                                                                                                                                                                                                                     Packets               Pings
 host                                                                                                                                                                                                              Loss%   Snt   Last   Avg  Best  Wrst StDev
 1. ???
 2. 192.168.1.10                                                                                                                                                                                                    0.0%    16       0.7    0.7   0.6   1.5   0.2

Dengan menggunakan mtr, Anda juga akan melihat performa jaringan yang diinginkan.

Jika Anda melihat latensi rata-rata melebihi 2&nbps;ms, periksa apakah koneksi terjadi dalam region yang sama. Melakukan pengujian latensi lintas region akan menyebabkan overhead latensi tambahan seperti yang ditunjukkan berikut.

ping 192.168.1.10
PING 192.168.1.10 (192.168.1.10) 56(84) bytes of data.
64 bytes from 192.168.1.10: icmp_seq=1 ttl=59 time=144 ms
64 bytes from 192.168.1.10: icmp_seq=2 ttl=59 time=142 ms
64 bytes from 192.168.1.10: icmp_seq=3 ttl=59 time=142 ms
64 bytes from 192.168.1.10: icmp_seq=4 ttl=59 time=142 ms
64 bytes from 192.168.1.10: icmp_seq=5 ttl=59 time=142 ms
64 bytes from 192.168.1.10: icmp_seq=6 ttl=59 time=142 ms
^C
--- 192.168.1.10 ping statistics ---
6 packets transmitted, 6 received, 0% packet loss, time 5003ms
rtt min/avg/max/mdev = 142.004/142.390/144.079/0.845 ms

Solusi: terhubung dalam region yang sama.

Langkah 3: Periksa jumlah hop

Jika Anda mendapatkan perbedaan dalam pengujian sebelumnya, periksa jumlah hop antara host jump dan host Bare Metal Solution. Pengenalan hop yang tidak perlu dapat menghambat performa jaringan.

traceroute 192.168.1.10
traceroute to 192.168.1.10 (192.168.1.10), 30 hops max, 60 byte packets
 1  * * *
 2  169.254.215.122 (169.254.215.122)  2.713 ms *  1.757 ms
 3  192.168.1.10 (192.168.1.10)  2.656 ms  2.595 ms *
traceroute 192.168.1.10
traceroute to 192.168.1.10 (192.168.1.10), 30 hops max, 60 byte packets
 1  * * *
 2  192.168.1.10 (192.168.1.10)  2.323 ms  2.260 ms  2.353 ms

Saat melakukan pengujian antara instance Compute Engine di region yang sama dengan server Solusi Bare Metal, Anda seharusnya tidak melihat hop apa pun, atau maksimal satu hop untuk router pusat data sisi host.

Pada contoh di atas, IP 169.254.215.122 adalah IP pusat data sisi host. Anda dapat memeriksa alamat seperti ini di halaman Konektivitas Hybrid -> Interconnect di konsol.

Jika Anda melihat hop untuk rentang IP 169.254.0.0, tidak perlu khawatir karena ini adalah Google Cloud IP router cloud internal. Jika Anda melihat hop tambahan selain ini, Anda mungkin perlu mempelajari lebih lanjut hop tambahan dan mungkin juga perlu menghubungi dukungan tentang tempat dan cara hop tambahan diperkenalkan.