Checklist masalah performa jaringan Solusi Bare Metal
Halaman ini menyediakan checklist masalah untuk memecahkan masalah performa jaringan. Diagram alir di bawah menunjukkan jalur yang harus diikuti saat memecahkan masalah ini.
Melakukan uji kecepatan (uji throughput)
Lakukan pengujian kecepatan antara VM Compute Engine atau server aplikasi dan server Solusi Bare Metal jika ada masalah bandwidth antara host jump dan server Solusi Bare Metal.
Pastikan server sumber berada di region yang sama dengan server Solusi Bare Metal karena pengujian lintas region dapat menghasilkan throughput yang lebih rendah dan mungkin tidak menampilkan nilai throughput yang diharapkan.
Poin penting lainnya yang perlu diperiksa adalah jenis mesin mesin sumber dan bandwidth keluar maksimum (Gbps) yang disediakan oleh setiap jenis mesin seperti yang dijelaskan di halaman jenis mesin Compute Engine.
Alat iperf3
harus selalu dijalankan dengan beberapa stream
paralel, karena menjalankan iperf3
dengan satu stream TCP memiliki batasan
bandwidth.
Login ke server Solusi Bare Metal dan jalankan server iperf3
untuk menerima koneksi TCP dari klien.
iperf3 -s 192.168.1.10
-----------------------------------------------------------
Server listening on 5201
-----------------------------------------------------------
Biarkan koneksi server tetap terbuka, jalankan iperf3 dari VM Compute Engine untuk menguji throughput
iperf3 -c 192.168.1.10 -P 128
Connecting to host 192.168.1.10, port 5201
[SUM] 0.00-10.00 sec 10.3 GBytes 8.85 Gbits/sec 150161 sender
[SUM] 0.00-10.00 sec 10.3 GBytes 8.82 Gbits/sec receiver
Jika Anda tidak mendapatkan kecepatan/bandwidth yang diinginkan, periksa apakah masalah Anda termasuk dalam salah satu skenario berikut.
Skenario 1: Jump host adalah VM kecil dengan batasan bandwidth keluar maksimum
Anda dapat menemukan batas bandwidth traffic keluar maksimum untuk semua jenis server di halaman jenis mesin Compute Engine.
Jika menggunakan VM Compute Engine (misalnya, n1-standard-1
) di region yang sama dengan server Solusi Bare Metal dengan Partner Interconnect 5 Gbps, Anda akan melihat hal berikut:
iperf3 -c 192.168.1.10 -P 128
Connecting to host 192.168.1.10, port 5201
[SUM] 0.00-10.00 sec 2.31 GBytes 1.98 Gbits/sec 129 sender
[SUM] 0.00-10.00 sec 2.24 GBytes 1.93 Gbits/sec receiver
Hasil ini menunjukkan bahwa meskipun memiliki dua
interkoneksi dengan kecepatan masing-masing
5 Gbps, kita masih belum mendapatkan performa yang diinginkan. Hal ini karena
bandwidth traffic keluar maksimum yang didukung oleh mesin n1-standard-1
adalah 2 Gbps.
Solusi: beralih ke VM yang lebih besar untuk mendapatkan hasil yang diinginkan.
Skenario 2: Host jump berada di region yang berbeda dengan server Solusi Bare Metal.
Saat melakukan pengujian kecepatan antar-server lintas region, Anda tidak mendapatkan hasil yang diinginkan karena latensi add-on lintas region.
Berikut adalah pengujian kecepatan antara VM Compute Engine di us-central1
dan server Solusi Bare Metal di southamerica-east1
iperf3 -c 192.168.1.10 -P 128
Connecting to host 192.168.1.10, port 5201
[SUM] 0.00-10.00 sec 3.12 GBytes 2.68 Gbits/sec 15569 sender
[SUM] 0.00-10.00 sec 3.02 GBytes 2.60 Gbits/sec receiver
Ada penurunan bandwidth/kecepatan yang cukup besar saat kita menghubungkan lintas wilayah.
Solusi: hubungkan ke server Solusi Bare Metal dari region yang sama.
Skenario 3: iperf3 berjalan dengan beberapa streaming paralel.
Berikut ini menunjukkan hasil dari menjalankan iperf3
dengan satu aliran TCP
iperf3 -c 192.168.1.10
Connecting to host 192.168.1.10, port 5201
[ 5] local 10.158.0.6 port 40382 connected to 192.168.1.10 port 5201
[ ID] Interval Transfer Bitrate Retr Cwnd
[ 5] 0.00-1.00 sec 325 MBytes 2.72 Gbits/sec 162 1.72 MBytes
[ 5] 1.00-2.00 sec 345 MBytes 2.89 Gbits/sec 42 1.36 MBytes
[ 5] 2.00-3.00 sec 345 MBytes 2.89 Gbits/sec 0 1.53 MBytes
[ 5] 3.00-4.00 sec 344 MBytes 2.88 Gbits/sec 0 1.68 MBytes
[ 5] 4.00-5.00 sec 345 MBytes 2.89 Gbits/sec 67 1.32 MBytes
[ 5] 5.00-6.00 sec 345 MBytes 2.89 Gbits/sec 0 1.49 MBytes
[ 5] 6.00-7.00 sec 345 MBytes 2.89 Gbits/sec 0 1.65 MBytes
[ 5] 7.00-8.00 sec 344 MBytes 2.88 Gbits/sec 0 1.79 MBytes
[ 5] 8.00-9.00 sec 321 MBytes 2.69 Gbits/sec 64 1.39 MBytes
[ 5] 9.00-10.00 sec 324 MBytes 2.72 Gbits/sec 91 1.13 MBytes
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval Transfer Bitrate Retr
[ 5] 0.00-10.00 sec 3.30 GBytes 2.84 Gbits/sec 426 sender
[ 5] 0.00-10.00 sec 3.30 GBytes 2.83 Gbits/sec receiver
Menjalankan iperf3
dari server yang sama, tetapi menggunakan beberapa aliran TCP akan membantu
mencapai performa yang diinginkan.
iperf3 -c 192.168.1.10 -P 128
Connecting to host 192.168.1.10, port 5201
[SUM] 0.00-10.00 sec 10.3 GBytes 8.85 Gbits/sec 150161 sender
[SUM] 0.00-10.00 sec 10.3 GBytes 8.82 Gbits/sec receiver
Solusi: Gunakan beberapa streaming paralel dengan iperf3
.
Langkah 2: Ukur latensi jaringan
Anda dapat melihat latensi bolak-balik rata-rata di bawah 2&nbps;ms jika Anda terhubung dalam region yang sama.
Gunakan ping
untuk memeriksa latensi antar-server. Anda juga dapat menggunakan mtr
untuk
mendapatkan latensi rata-rata.
ping 192.168.1.10
PING 192.168.1.10 (192.168.1.10) 56(84) bytes of data.
64 bytes from 192.168.1.10: icmp_seq=1 ttl=88 time=1.78 ms
64 bytes from 192.168.1.10: icmp_seq=2 ttl=88 time=0.507 ms
64 bytes from 192.168.1.10: icmp_seq=3 ttl=88 time=0.659 ms
64 bytes from 192.168.1.10: icmp_seq=4 ttl=88 time=0.735 ms
64 bytes from 192.168.1.10: icmp_seq=5 ttl=88 time=0.592 ms
64 bytes from 192.168.1.10: icmp_seq=6 ttl=88 time=0.550 ms
64 bytes from 192.168.1.10: icmp_seq=7 ttl=88 time=0.552 ms
64 bytes from 192.168.1.10: icmp_seq=8 ttl=88 time=0.588 ms
64 bytes from 192.168.1.10: icmp_seq=9 ttl=88 time=0.614 ms
^C
--- 192.168.1.10 ping statistics ---
9 packets transmitted, 9 received, 0% packet loss, time 169ms
rtt min/avg/max/mdev = 0.507/0.730/1.781/0.378 ms
Latensi minimum, rata-rata, dan maksimum berada dalam 2 md, yang merupakan latensi yang dijanjikan antara region Google Cloud dan ekstensi region.
Atau, Anda juga dapat menggunakan MTR
untuk mengukur latensi secara dinamis.
mtr --curses 192.168.1.10
test-arka (10.158.0.6) 2020-12-11T08:08:51+0000
Keys: Help Display mode Restart statistics Order of fields quit
Packets Pings
host Loss% Snt Last Avg Best Wrst StDev
1. ???
2. 192.168.1.10 0.0% 16 0.7 0.7 0.6 1.5 0.2
Dengan menggunakan mtr
, Anda juga akan melihat performa jaringan yang diinginkan.
Jika Anda melihat latensi rata-rata melebihi 2&nbps;ms, periksa apakah koneksi terjadi dalam region yang sama. Melakukan pengujian latensi lintas region akan menyebabkan overhead latensi tambahan seperti yang ditunjukkan berikut.
ping 192.168.1.10
PING 192.168.1.10 (192.168.1.10) 56(84) bytes of data.
64 bytes from 192.168.1.10: icmp_seq=1 ttl=59 time=144 ms
64 bytes from 192.168.1.10: icmp_seq=2 ttl=59 time=142 ms
64 bytes from 192.168.1.10: icmp_seq=3 ttl=59 time=142 ms
64 bytes from 192.168.1.10: icmp_seq=4 ttl=59 time=142 ms
64 bytes from 192.168.1.10: icmp_seq=5 ttl=59 time=142 ms
64 bytes from 192.168.1.10: icmp_seq=6 ttl=59 time=142 ms
^C
--- 192.168.1.10 ping statistics ---
6 packets transmitted, 6 received, 0% packet loss, time 5003ms
rtt min/avg/max/mdev = 142.004/142.390/144.079/0.845 ms
Solusi: terhubung dalam region yang sama.
Langkah 3: Periksa jumlah hop
Jika Anda mendapatkan perbedaan dalam pengujian sebelumnya, periksa jumlah hop antara host jump dan host Bare Metal Solution. Pengenalan hop yang tidak perlu dapat menghambat performa jaringan.
traceroute 192.168.1.10
traceroute to 192.168.1.10 (192.168.1.10), 30 hops max, 60 byte packets
1 * * *
2 169.254.215.122 (169.254.215.122) 2.713 ms * 1.757 ms
3 192.168.1.10 (192.168.1.10) 2.656 ms 2.595 ms *
traceroute 192.168.1.10
traceroute to 192.168.1.10 (192.168.1.10), 30 hops max, 60 byte packets
1 * * *
2 192.168.1.10 (192.168.1.10) 2.323 ms 2.260 ms 2.353 ms
Saat melakukan pengujian antara instance Compute Engine di region yang sama dengan server Solusi Bare Metal, Anda seharusnya tidak melihat hop apa pun, atau maksimal satu hop untuk router pusat data sisi host.
Pada contoh di atas, IP 169.254.215.122
adalah IP pusat data sisi host.
Anda dapat memeriksa alamat seperti ini di halaman
Konektivitas Hybrid -> Interconnect
di konsol.
Jika Anda melihat hop untuk rentang IP 169.254.0.0
, tidak perlu khawatir karena ini adalah Google Cloud IP router cloud internal. Jika Anda melihat
hop tambahan selain ini, Anda mungkin perlu mempelajari lebih lanjut
hop tambahan dan mungkin juga perlu menghubungi dukungan tentang tempat dan cara
hop tambahan diperkenalkan.