Tentang alur traffic
Halaman ini menjelaskan cara Log Aliran VPC melaporkan log aliran untuk kasus penggunaan umum. Lihat bagian berikut untuk mengetahui contoh aliran traffic yang diambil sampelnya oleh Log Aliran VPC.
Alur VM
Bagian berikut menyertakan contoh cara VPC Flow Logs mengambil sampel traffic yang dikirim dari dan diterima oleh instance virtual machine (VM). Untuk mengetahui informasi tentang cara Log Aliran VPC melaporkan log aliran untuk Pod Google Kubernetes Engine (GKE), lihat Aliran GKE.
Aliran VM-ke-VM dalam jaringan VPC yang sama
Untuk aliran VM-ke-VM di jaringan VPC yang sama, log aliran
dilaporkan dari VM yang meminta dan merespons, selama kedua VM berada di
subnet yang mengaktifkan Log Aliran VPC. Dalam contoh ini, VM 10.10.0.2
mengirim permintaan dengan 1.224 byte ke VM 10.50.0.2
, yang juga berada di subnet yang mengaktifkan logging. Selanjutnya, 10.50.0.2
akan merespons permintaan tersebut dengan balasan yang berisi 5.342 byte. Permintaan dan balasan dicatat dari VM yang meminta dan merespons.
Seperti yang dilaporkan oleh VM yang meminta (10.10.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.10.0.2 | 10.50.0.2 | 1.224 |
src_instance.* dest_instance.* src_vpc.* dest_vpc.* |
balasan | 10.50.0.2 | 10.10.0.2 | 5.342 |
src_instance.* dest_instance.* src_vpc.* dest_vpc.* |
Seperti yang dilaporkan oleh VM yang merespons (10.50.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | byte | Anotasi |
permintaan | 10.10.0.2 | 10.50.0.2 | 1.224 |
src_instance.* dest_instance.* src_vpc.* dest_vpc.* |
balasan | 10.50.0.2 | 10.10.0.2 | 5.342 |
src_instance.* dest_instance.* src_vpc.* dest_vpc.* |
Aliran VM-ke-alamat IP eksternal
Untuk aliran yang melintasi internet antara VM yang ada dalam jaringan VPC dan endpoint dengan alamat IP eksternal, log aliran dilaporkan dari VM yang ada di jaringan VPC saja:
- Untuk aliran keluar, log dilaporkan dari VM jaringan VPC yang merupakan sumber traffic.
- Untuk aliran masuk, log dilaporkan dari VM jaringan VPC yang merupakan tujuan traffic.
Dalam contoh ini, VM 10.10.0.2
bertukar paket melalui internet dengan endpoint yang memiliki alamat IP eksternal 203.0.113.5
. Traffic keluar
sebesar 1.224 byte yang dikirim dari 10.10.0.2
ke 203.0.113.5
dilaporkan dari
VM sumber, 10.10.0.2
. Traffic masuk sebesar 5.342 byte yang dikirim dari 203.0.113.5
ke 10.10.0.2
dilaporkan dari tujuan traffic, VM 10.10.0.2
.
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
---|---|---|---|---|
permintaan | 10.10.0.2 | 203.0.113.5 | 1.224 |
src_instance.* src_vpc.* dest_location.* internet_routing_details.* |
balasan | 203.0.113.5 | 10.10.0.2 | 5.342 |
dest_instance.* dest_vpc.* src_location.* |
Aliran VM-ke-VM untuk VPC Bersama
Untuk aliran VM-ke-VM untuk VPC Bersama, Anda dapat mengaktifkan Log Aliran VPC untuk subnet dalam project host. Misalnya, subnet 10.10.0.0/20
termasuk dalam jaringan VPC Bersama yang ditentukan dalam project host. Anda dapat melihat log aliran dari VM milik subnet ini, termasuk yang dibuat oleh project layanan. Dalam contoh ini, project layanan disebut "web server", "recommendation",
"database".
Untuk aliran VM-ke-VM, jika kedua VM berada di project yang sama, atau dalam kasus jaringan bersama, project host yang sama, anotasi untuk project ID, dan sejenisnya akan diberikan untuk endpoint lainnya dalam koneksi. Jika VM lain berada di project yang berbeda, anotasi untuk VM lainnya tidak akan diberikan.
Tabel berikut menunjukkan aliran seperti yang dilaporkan oleh 10.10.0.10
atau
10.10.0.20
.
src_vpc.project_id
dandest_vpc.project_id
ditujukan untuk project host karena subnet VPC adalah milik project host.src_instance.project_id
dandest_instance.project_id
ditujukan untuk project layanan karena instance termasuk dalam project layanan.
connection .src_ip |
src_instance .project_id |
src_vpc .project_id |
connection .dest_ip |
dest_instance .project_id |
dest_vpc .project_id |
---|---|---|---|---|---|
10.10.0.10 | server web | host_project | 10.10.0.20 | rekomendasi | host_project |
Project layanan tidak memiliki jaringan VPC Bersama dan tidak memiliki akses ke log aliran jaringan VPC Bersama.
Aliran VM-ke-VM untuk Peering Jaringan VPC
Kecuali jika kedua VM berada dalam project Google Cloud yang sama, aliran VM-ke-VM untuk jaringan VPC yang di-peering dilaporkan dengan cara yang sama seperti untuk endpoint eksternal—project dan informasi anotasi lain untuk VM lain tidak disediakan. Jika kedua VM berada di project yang sama, meskipun di jaringan yang berbeda, informasi project dan anotasi lainnya juga akan diberikan untuk VM lainnya.
Dalam contoh ini, subnet VM 10.10.0.2
di project analytics-prod dan VM 10.50.0.2
di project webserver-test terhubung melalui Peering Jaringan VPC.
Jika Log Aliran VPC diaktifkan di project analytics-prod, traffic
(1.224 byte) yang dikirim dari 10.10.0.2
ke 10.50.0.2
dilaporkan dari VM 10.10.0.2
, yang merupakan sumber aliran. Traffic (5.342 byte) yang dikirim dari 10.50.0.2
ke 10.10.0.2
juga dilaporkan dari VM 10.10.0.2
, yang merupakan tujuan aliran.
Dalam contoh ini, Log Aliran VPC tidak diaktifkan di project webserver-test, sehingga tidak ada log yang dicatat oleh VM 10.50.0.2
.
pelapor | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
---|---|---|---|---|
sumber | 10.10.0.2 | 10.50.0.2 | 1.224 |
src_instance.* src_vpc.* |
tujuan | 10.50.0.2 | 10.10.0.2 | 5.342 |
dest_instance.* dest_vpc.* |
Aliran VM dengan Cloud Load Balancing
Untuk alur melalui Cloud Load Balancing, VPC Flow Logs menganotasi traffic yang dikirim melalui Load Balancer Jaringan passthrough, Load Balancer Jaringan proxy, atau Load Balancer Aplikasi. Contoh berikut mengasumsikan bahwa load balancer ini dikonfigurasi sebagai load balancer internal.
Aliran VM-ke-VM melalui Load Balancer Jaringan passthrough internal
Saat Anda menambahkan VM ke layanan backend untuk Load Balancer Jaringan passthrough internal, Google Cloud akan menambahkan alamat IP load balancer ke server tabel perutean lokal VM. Hal ini memungkinkan VM menerima paket permintaan dengan tujuan yang ditetapkan ke alamat IP load balancer. Saat VM membalas, VM akan mengirimkan responsnya secara langsung. Namun, alamat IP sumber untuk paket respons ditetapkan ke alamat IP load balancer, bukan VM yang mengalami load balancing.
Aliran VM-ke-VM yang dikirim melalui Load Balancer Jaringan passthrough internal dilaporkan dari sumber dan tujuan.
Seperti yang dilaporkan oleh VM klien (192.168.1.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 192.168.1.2 | 10.240.0.200 | 1.224 |
src_instance.* src_vpc.* load_balancing.forwarding_rule_project_id load_balancing.reporter load_balancing.type load_balancing.scheme load_balancing.forwarding_rule_name load_balancing.backend_service_name load_balancing.vpc.* |
balasan | 10.240.0.200 | 192.168.1.2 | 5.342 |
dest_instance.* dest_vpc.* load_balancing.forwarding_rule_project_id load_balancing.reporter load_balancing.type load_balancing.scheme load_balancing.forwarding_rule_name load_balancing.backend_service_name load_balancing.vpc.* |
Seperti yang dilaporkan oleh VM backend (10.240.0.3) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | byte | Anotasi |
permintaan | 192.168.1.2 | 10.240.0.200 | 1.224 |
src_instance.* dest_instance.* src_vpc.* dest_vpc.* load_balancing.* (semua kolom kecuali url_map_name) |
balasan | 10.240.0.200 | 192.168.1.2 | 5.342 |
src_instance.* dest_instance.* src_vpc.* dest_vpc.* load_balancing.* (semua kolom kecuali url_map_name) |
Dalam permintaan yang didistribusikan load balancer ke VM backend, alamat IP sumber ditetapkan ke alamat IP VM klien. Artinya, VM backend dapat menyediakan informasi src_instance
dan dest_instance
tentang VM klien. Namun, tidak seperti VM backend, VM klien tidak dapat menambahkan
informasi src_instance
dan dest_instance
tentang VM backend ke
laporannya karena mengirimkan permintaan ke dan menerima respons dari
alamat IP load balancer, bukan VM backend.
Aliran VM-ke-Load Balancer Jaringan proxy internal dan VM-ke-Load Balancer Aplikasi internal
Aliran traffic melalui Load Balancer Jaringan proxy internal atau Load Balancer Aplikasi internal dilaporkan oleh VM klien, selama VM klien berada di subnet yang mengaktifkan Log Aliran VPC. Misalnya, VM klien dengan alamat IP 10.10.0.2
mengirim permintaan dengan 1.224 byte ke endpoint load balancer, 10.10.0.3
. Permintaan tersebut kemudian mencapai backend. Selanjutnya, backend akan merespons permintaan tersebut dengan balasan yang berisi 5.342 byte.
Permintaan dan balasan dicatat di VM klien. Log dari VM klien tersedia di project Google Cloud tempat VM berada.
Seperti yang dilaporkan oleh VM klien (10.10.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.10.0.2 | 10.10.0.3 | 1.224 |
src_instance.* src_vpc.* load_balancing.forwarding_rule_project_id load_balancing.reporter load_balancing.type load_balancing.scheme load_balancing.url_map_name (untuk Application Load Balancer) load_balancing.forwarding_rule_name load_balancing.vpc.* |
balasan | 10.10.0.3 | 10.10.0.2 | 5.342 |
dest_instance.* dest_vpc.* load_balancing.forwarding_rule_project_id load_balancing.reporter load_balancing.type load_balancing.scheme load_balancing.url_map_name (untuk Application Load Balancer) load_balancing.forwarding_rule_name load_balancing.vpc.* |
Alur VM ke VM melalui Private Service Connect
Untuk traffic VM-ke-VM melalui Private Service Connect, VPC Flow Logs mengambil sampel alur antara konsumen Private Service Connect dan layanan yang dipublikasikan.
Endpoint Private Service Connect ke layanan yang dipublikasikan
Aliran traffic ke layanan yang dipublikasikan Private Service Connect
dilaporkan dari VM konsumen dan produsen selama kedua VM berada di subnet
yang mengaktifkan Log Aliran VPC. Dalam contoh ini, VM konsumen,
10.10.0.2
, mengirim permintaan dengan 1.224 byte ke
endpoint Private Service Connect, 10.10.0.3
. Di VPC produsen, alamat IP sumber permintaan diterjemahkan ke alamat IP di subnet lampiran layanan, yang dalam contoh ini adalah 10.40.0.2
. Alamat IP tujuan permintaan diterjemahkan
ke alamat IP Load Balancer Jaringan passthrough internal, 10.50.0.3
. Permintaan tersebut kemudian menjangkau VM backend, 10.50.0.2
, yang juga berada di subnet yang mengaktifkan logging.
Selanjutnya, 10.50.0.2
akan merespons permintaan tersebut dengan balasan yang berisi 5.342
byte. Permintaan dan balasan dicatat dari VM yang meminta dan merespons. Log dari VM konsumen tersedia di
project konsumen, dan log dari VM produsen tersedia di
project produsen.
Seperti yang dilaporkan oleh VM konsumen (10.10.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.10.0.2 | 10.10.0.3 | 1.224 |
src_instance.* src_vpc.* psc.reporter psc.psc_endpoint.* psc.psc_attachment.* |
balasan | 10.10.0.3 | 10.10.0.2 | 5.342 |
dest_instance.* dest_vpc.* psc.reporter psc.psc_endpoint.* psc.psc_attachment.* |
Seperti yang dilaporkan oleh VM produsen (10.50.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.40.0.2 | 10.50.0.3 | 1.224 |
dest_instance.* dest_vpc.* psc.reporter psc.psc_attachment.* |
balasan | 10.50.0.3 | 10.40.0.2 | 5.342 |
src_instance.* src_vpc.* psc.reporter psc.psc_attachment.* |
Alur VM-ke-Google API
Untuk traffic VM ke Google API melalui alamat IP eksternal VM, Akses Google Pribadi, atau endpoint Private Service Connect, VPC Flow Logs menganotasi data log dengan informasi Google API. Bagian berikut memberikan contoh cara Log Aliran VPC menganotasi data log untuk VM yang mengakses Google API global melalui endpoint Private Service Connect.
VM ke Google API global melalui Private Service Connect
Aliran traffic ke Google API dilaporkan oleh VM konsumen, selama VM berada di subnet yang mengaktifkan VPC Flow Logs. Dalam contoh ini, VM konsumen, 10.10.0.2
, mengirim permintaan dengan 1.224 byte ke endpoint Private Service Connect, 10.10.110.10
. Permintaan tersebut
akan diteruskan ke layanan Google yang sesuai, misalnya, Cloud Storage. Selanjutnya, Cloud Storage akan merespons permintaan tersebut dengan balasan yang berisi 5.342 byte. Permintaan dan balasan dicatat dari VM yang meminta.
Seperti yang dilaporkan oleh VM konsumen (10.10.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.10.0.2 | 10.10.110.10 | 1.224 |
src_instance.* src_vpc.* psc.reporter psc.psc_endpoint.* dest_google_service.* |
balasan | 10.10.110.10 | 10.10.0.2 | 5.342 |
src_google_service.* dest_instance.* dest_vpc.* psc.reporter psc.psc_endpoint.* |
Aliran GKE
Bagian berikut menyertakan contoh cara Log Aliran VPC mengambil sampel traffic GKE dari dan ke Pod.
Aliran Pod ke ClusterIP
Dalam contoh ini, traffic dikirim dari Pod klien (10.4.0.2
) ke cluster-service
(10.0.32.2:80
). Tujuan ditetapkan ke alamat IP Pod server yang dipilih (10.4.0.3
) pada port target (8080
).
Di edge node, flow diambil sampelnya dua kali dengan port dan alamat IP
yang diterjemahkan. Untuk kedua titik pengambilan sampel, kita akan mengidentifikasi bahwa Pod tujuan
mendukung cluster-service
layanan pada port 8080
, dan menganotasi data dengan
detail Service serta detail Pod. Jika traffic dirutekan ke Pod di node yang sama, traffic tidak akan meninggalkan node dan tidak diambil sampelnya sama sekali.
Dalam contoh ini, data berikut ditemukan.
pelapor | connection.src_ip | connection.dst_ip | bytes_sent | Anotasi |
---|---|---|---|---|
SRC | 10.4.0.2 | 10.4.0.3 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* src_gke_details.pod.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
DEST | 10.4.0.2 | 10.4.0.3 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* src_gke_details.pod.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
Aliran LoadBalancer eksternal GKE
Traffic dari alamat IP eksternal ke layanan GKE (35.35.35.35
) dirutekan ke node dalam cluster—10.0.12.2
dalam contoh ini—untuk perutean. Secara default, Load Balancer Jaringan passthrough eksternal mendistribusikan traffic ke semua node dalam cluster, bahkan yang tidak menjalankan Pod yang relevan. Traffic mungkin
memerlukan hop ekstra untuk mencapai Pod yang relevan. Untuk mengetahui informasi selengkapnya, lihat Jaringan di luar cluster.
Traffic dirutekan dari node (10.0.12.2
) ke Pod server yang dipilih (10.4.0.2
). Kedua hop dicatat karena semua edge node diambil sampelnya. Jika traffic dirutekan ke Pod di node yang sama—10.4.0.3
dalam contoh ini—hop kedua tidak akan dicatat dalam log karena tidak meninggalkan node.
Hop kedua dicatat ke dalam log oleh titik pengambilan sampel dari kedua node. Untuk hop pertama, kami mengidentifikasi Service berdasarkan IP load balancer dan port Service (80
). Untuk hop kedua, kami mengidentifikasi bahwa Pod tujuan mendukung Service pada port target (8080
).
Dalam contoh ini, data berikut ditemukan.
pelapor | connection.src_ip | connection.dst_ip | bytes_sent | Anotasi |
---|---|---|---|---|
DEST | 203.0.113.1 | 35.35.35.35 | 1.224 |
src_location.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.service.* |
SRC | 10.0.12.2 | 10.4.0.2 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
DEST | 10.0.12.2 | 10.4.0.2 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
Aliran Ingres GKE
Koneksi dari alamat IP eksternal ke tujuan Ingress dihentikan di layanan Cloud Load Balancing. Koneksi dipetakan ke Service NodePort sesuai dengan URL. Untuk melayani permintaan, load balancer
(130.211.0.1
) terhubung ke salah satu node cluster (10.0.12.2
) untuk perutean
menggunakan NodePort layanan. Secara default, saat membuat objek Ingress, pengontrol Ingress GKE mengonfigurasi load balancer HTTP(S) yang mendistribusikan traffic di semua node dalam cluster, termasuk yang tidak menjalankan Pod yang relevan. Traffic mungkin memerlukan hop ekstra untuk mencapai
Pod yang relevan. Untuk mengetahui informasi selengkapnya, lihat Jaringan di luar cluster.
Traffic dirutekan dari node (10.0.12.2
) ke Pod server yang dipilih (10.4.0.2
).
Kedua hop dicatat karena semua edge node diambil sampelnya. Untuk hop pertama, kami mengidentifikasi Service berdasarkan NodePort (60000
) Service. Untuk hop kedua, kita mengidentifikasi bahwa Pod tujuan mendukung Service pada port target (8080
). Hop kedua dicatat oleh titik pengambilan sampel kedua node.
Namun, jika traffic dirutekan ke Pod pada node yang sama (10.4.0.3
), hop kedua tidak akan dicatat dalam log karena traffic tidak meninggalkan node.
Dalam contoh ini, data berikut ditemukan.
pelapor | connection.src_ip | connection.dst_ip | bytes_sent | Anotasi |
---|---|---|---|---|
DEST | 130.211.0.1 | 10.0.12.2 | 1.224 |
dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.service.* |
SRC | 10.0.12.2 | 10.4.0.2 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
DEST | 10.0.12.2 | 10.4.0.2 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
Aliran Ingress GKE menggunakan load balancing berbasis container
Permintaan dari alamat IP eksternal ke tujuan Ingress yang menggunakan load balancing berbasis container dihentikan di load balancer. Dalam jenis Ingress ini, Pod adalah objek inti untuk load balancing.
Kemudian, permintaan dikirim dari load balancer (130.211.0.1
) langsung ke Pod yang dipilih (10.4.0.2
). Kami mengidentifikasi bahwa Pod tujuan mendukung Service pada port target (8080).
Dalam contoh ini, data berikut ditemukan.
pelapor | connection.src_ip | connection.dst_ip | bytes_sent | Anotasi |
---|---|---|---|---|
DEST | 130.211.0.1 | 10.4.0.2 | 1.224 |
dest_instance.* dest_vpc.* dest_gke_details.cluster.* dest_gke_details.pod.* dest_gke_details.service.* |
Pod ke aliran eksternal
Traffic dari Pod (10.4.0.3
) ke IP eksternal (203.0.113.1
) dimodifikasi oleh penyamaran IP sehingga paket dikirim dari IP node (10.0.12.2
), bukan alamat IP Pod. Secara default, cluster GKE dikonfigurasi untuk menyamarkan traffic ke tujuan eksternal. Untuk mengetahui informasi selengkapnya, lihat
Agen penyamaran IP.
Agar dapat melihat anotasi Pod untuk traffic ini, Anda dapat mengonfigurasi agen penyamaran agar tidak menyamarkan alamat IP Pod. Dalam kasus semacam ini, untuk mengizinkan traffic ke internet, Anda dapat mengonfigurasi Cloud NAT, yang memproses alamat IP Pod. Untuk mengetahui informasi lebih lanjut tentang Cloud NAT dengan GKE, tinjau interaksi GKE.
Dalam contoh ini, data berikut ditemukan.
pelapor | connection.src_ip | connection.dst_ip | bytes_sent | Anotasi |
---|---|---|---|---|
SRC | 10.0.12.2 | 203.0.113.1 | 1.224 |
src_instance.* src_vpc.* src_gke_details.cluster.* dest_location.* internet_routing_details.* |
Alur konektivitas hybrid
Untuk traffic antara Google Cloud dan jaringan lokal, Log Alur VPC menganotasi alur antara instance VM—termasuk instance yang digunakan sebagai node GKE—dan endpoint lokal, antara Google API dan endpoint lokal, serta traffic transit antara endpoint lokal. Contoh berikut menjelaskan cara VPC Flow Logs menganotasi aliran antara instance VM di jaringan VPC dan endpoint lokal.
Untuk aliran antara VM yang ada di jaringan VPC dan endpoint lokal dengan alamat IP internal, log aliran dilaporkan dariGoogle Cloud saja. Referensi berikut melaporkan log alur:
- VM. Melaporkan log aliran jika subnet yang terhubung ke VM telah mengaktifkan Log Aliran VPC.
- Gateway yang menghubungkan jaringan VPC ke endpoint lokal. Melaporkan log alur jika gateway mengaktifkan Log Aliran VPC.
Pada diagram sebelumnya, endpoint lokal 10.30.0.2
mengirim permintaan
dengan 1.224 byte ke VM 10.0.0.2
di jaringan VPC melalui
Cloud Interconnect. Selanjutnya, 10.0.0.2
VM akan merespons permintaan tersebut dengan
balasan yang berisi 5.243 byte. Permintaan dan balasan dicatat dari lampiran VLAN untuk Cloud Interconnect dan VM.
Seperti yang dilaporkan oleh lampiran VLAN | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.30.0.2 | 10.10.0.2 | 1.224 |
reporter src_gateway.* dest_instance.* dest_vpc.* |
balasan | 10.10.0.2 | 10.30.0.2 | 5.342 |
reporter src_instance.* src_vpc.* dest_gateway.* |
Seperti yang dilaporkan oleh VM (10.10.0.2) | ||||
---|---|---|---|---|
permintaan/balasan | connection.src_ip | connection.dest_ip | bytes_sent | Anotasi |
permintaan | 10.30.0.2 | 10.10.0.2 | 1.224 |
reporter src_gateway.* dest_instance.* dest_vpc.* |
balasan | 10.10.0.2 | 10.30.0.2 | 5.342 |
reporter src_instance.* src_vpc.* dest_gateway.* |