Tentang alur traffic

Halaman ini menjelaskan cara Log Aliran VPC melaporkan log aliran untuk kasus penggunaan umum. Lihat bagian berikut untuk mengetahui contoh aliran traffic yang diambil sampelnya oleh Log Aliran VPC.

Alur VM

Bagian berikut menyertakan contoh cara VPC Flow Logs mengambil sampel traffic yang dikirim dari dan diterima oleh instance virtual machine (VM). Untuk mengetahui informasi tentang cara Log Aliran VPC melaporkan log aliran untuk Pod Google Kubernetes Engine (GKE), lihat Aliran GKE.

Aliran VM-ke-VM dalam jaringan VPC yang sama

Aliran VM dalam jaringan VPC.
Aliran VM dalam jaringan VPC (klik untuk memperbesar).

Untuk aliran VM-ke-VM di jaringan VPC yang sama, log aliran dilaporkan dari VM yang meminta dan merespons, selama kedua VM berada di subnet yang mengaktifkan Log Aliran VPC. Dalam contoh ini, VM 10.10.0.2 mengirim permintaan dengan 1.224 byte ke VM 10.50.0.2, yang juga berada di subnet yang mengaktifkan logging. Selanjutnya, 10.50.0.2 akan merespons permintaan tersebut dengan balasan yang berisi 5.342 byte. Permintaan dan balasan dicatat dari VM yang meminta dan merespons.

Seperti yang dilaporkan oleh VM yang meminta (10.10.0.2)
permintaan/balasan connection.src_ip connection.dest_ip bytes_sent Anotasi
permintaan 10.10.0.2 10.50.0.2 1.224 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*
balasan 10.50.0.2 10.10.0.2 5.342 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*
Seperti yang dilaporkan oleh VM yang merespons (10.50.0.2)
permintaan/balasan connection.src_ip connection.dest_ip byte Anotasi
permintaan 10.10.0.2 10.50.0.2 1.224 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*
balasan 10.50.0.2 10.10.0.2 5.342 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*

Aliran VM-ke-alamat IP eksternal

Aliran VM-ke-alamat IP eksternal.
Aliran VM-ke-alamat IP eksternal (klik untuk memperbesar).

Untuk aliran yang melintasi internet antara VM yang ada dalam jaringan VPC dan endpoint dengan alamat IP eksternal, log aliran dilaporkan dari VM yang ada di jaringan VPC saja:

  • Untuk aliran keluar, log dilaporkan dari VM jaringan VPC yang merupakan sumber traffic.
  • Untuk aliran masuk, log dilaporkan dari VM jaringan VPC yang merupakan tujuan traffic.

Dalam contoh ini, VM 10.10.0.2 bertukar paket melalui internet dengan endpoint yang memiliki alamat IP eksternal 203.0.113.5. Traffic keluar sebesar 1.224 byte yang dikirim dari 10.10.0.2 ke 203.0.113.5 dilaporkan dari VM sumber, 10.10.0.2. Traffic masuk sebesar 5.342 byte yang dikirim dari 203.0.113.5 ke 10.10.0.2 dilaporkan dari tujuan traffic, VM 10.10.0.2.

permintaan/balasan connection.src_ip connection.dest_ip bytes_sent Anotasi
permintaan 10.10.0.2 203.0.113.5 1.224 src_instance.*
src_vpc.*
dest_location.*
internet_routing_details.*
balasan 203.0.113.5 10.10.0.2 5.342 dest_instance.*
dest_vpc.*
src_location.*

Aliran VM-ke-VM untuk VPC Bersama

Aliran VPC Bersama.
Aliran VPC Bersama (klik untuk memperbesar).

Untuk aliran VM-ke-VM untuk VPC Bersama, Anda dapat mengaktifkan Log Aliran VPC untuk subnet dalam project host. Misalnya, subnet 10.10.0.0/20 termasuk dalam jaringan VPC Bersama yang ditentukan dalam project host. Anda dapat melihat log aliran dari VM milik subnet ini, termasuk yang dibuat oleh project layanan. Dalam contoh ini, project layanan disebut "web server", "recommendation", "database".

Untuk aliran VM-ke-VM, jika kedua VM berada di project yang sama, atau dalam kasus jaringan bersama, project host yang sama, anotasi untuk project ID, dan sejenisnya akan diberikan untuk endpoint lainnya dalam koneksi. Jika VM lain berada di project yang berbeda, anotasi untuk VM lainnya tidak akan diberikan.

Tabel berikut menunjukkan aliran seperti yang dilaporkan oleh 10.10.0.10 atau 10.10.0.20.

  • src_vpc.project_id dan dest_vpc.project_id ditujukan untuk project host karena subnet VPC adalah milik project host.
  • src_instance.project_id dan dest_instance.project_id ditujukan untuk project layanan karena instance termasuk dalam project layanan.
connection
.src_ip
src_instance
.project_id
src_vpc
.project_id
connection
.dest_ip
dest_instance
.project_id
dest_vpc
.project_id
10.10.0.10 server web host_project 10.10.0.20 rekomendasi host_project

Project layanan tidak memiliki jaringan VPC Bersama dan tidak memiliki akses ke log aliran jaringan VPC Bersama.

Aliran VM-ke-VM untuk Peering Jaringan VPC

Aliran Peering Jaringan VPC.
Aliran Peering Jaringan VPC (klik untuk memperbesar).

Kecuali jika kedua VM berada dalam project Google Cloud yang sama, aliran VM-ke-VM untuk jaringan VPC yang di-peering dilaporkan dengan cara yang sama seperti untuk endpoint eksternal—project dan informasi anotasi lain untuk VM lain tidak disediakan. Jika kedua VM berada di project yang sama, meskipun di jaringan yang berbeda, informasi project dan anotasi lainnya juga akan diberikan untuk VM lainnya.

Dalam contoh ini, subnet VM 10.10.0.2 di project analytics-prod dan VM 10.50.0.2 di project webserver-test terhubung melalui Peering Jaringan VPC. Jika Log Aliran VPC diaktifkan di project analytics-prod, traffic (1.224 byte) yang dikirim dari 10.10.0.2 ke 10.50.0.2 dilaporkan dari VM 10.10.0.2, yang merupakan sumber aliran. Traffic (5.342 byte) yang dikirim dari 10.50.0.2 ke 10.10.0.2 juga dilaporkan dari VM 10.10.0.2, yang merupakan tujuan aliran.

Dalam contoh ini, Log Aliran VPC tidak diaktifkan di project webserver-test, sehingga tidak ada log yang dicatat oleh VM 10.50.0.2.

pelapor connection.src_ip connection.dest_ip bytes_sent Anotasi
sumber 10.10.0.2 10.50.0.2 1.224 src_instance.*
src_vpc.*
tujuan 10.50.0.2 10.10.0.2 5.342 dest_instance.*
dest_vpc.*

Aliran VM dengan Cloud Load Balancing

Untuk alur melalui Cloud Load Balancing, VPC Flow Logs menganotasi traffic yang dikirim melalui Load Balancer Jaringan passthrough, Load Balancer Jaringan proxy, atau Load Balancer Aplikasi. Contoh berikut mengasumsikan bahwa load balancer ini dikonfigurasi sebagai load balancer internal.

Aliran VM-ke-VM melalui Load Balancer Jaringan passthrough internal

Aliran Load Balancer Jaringan passthrough internal.
Aliran Load Balancer Jaringan passthrough internal (klik untuk memperbesar).

Saat Anda menambahkan VM ke layanan backend untuk Load Balancer Jaringan passthrough internal, Google Cloud akan menambahkan alamat IP load balancer ke server tabel perutean lokal VM. Hal ini memungkinkan VM menerima paket permintaan dengan tujuan yang ditetapkan ke alamat IP load balancer. Saat VM membalas, VM akan mengirimkan responsnya secara langsung. Namun, alamat IP sumber untuk paket respons ditetapkan ke alamat IP load balancer, bukan VM yang mengalami load balancing.

Aliran VM-ke-VM yang dikirim melalui Load Balancer Jaringan passthrough internal dilaporkan dari sumber dan tujuan.

Seperti yang dilaporkan oleh VM klien (192.168.1.2)
permintaan/balasan connection.src_ip connection.dest_ip bytes_sent Anotasi
permintaan 192.168.1.2 10.240.0.200 1.224 src_instance.*
src_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.forwarding_rule_name
load_balancing.backend_service_name
load_balancing.vpc.*
balasan 10.240.0.200 192.168.1.2 5.342 dest_instance.*
dest_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.forwarding_rule_name
load_balancing.backend_service_name
load_balancing.vpc.*
Seperti yang dilaporkan oleh VM backend (10.240.0.3)
permintaan/balasan connection.src_ip connection.dest_ip byte Anotasi
permintaan 192.168.1.2 10.240.0.200 1.224 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*
load_balancing.* (semua kolom kecuali url_map_name)
balasan 10.240.0.200 192.168.1.2 5.342 src_instance.*
dest_instance.*
src_vpc.*
dest_vpc.*
load_balancing.* (semua kolom kecuali url_map_name)

Dalam permintaan yang didistribusikan load balancer ke VM backend, alamat IP sumber ditetapkan ke alamat IP VM klien. Artinya, VM backend dapat menyediakan informasi src_instance dan dest_instance tentang VM klien. Namun, tidak seperti VM backend, VM klien tidak dapat menambahkan informasi src_instance dan dest_instance tentang VM backend ke laporannya karena mengirimkan permintaan ke dan menerima respons dari alamat IP load balancer, bukan VM backend.

Aliran VM-ke-Load Balancer Jaringan proxy internal dan VM-ke-Load Balancer Aplikasi internal

Aliran traffic melalui Load Balancer Jaringan proxy internal atau Load Balancer Aplikasi internal dilaporkan oleh VM klien, selama VM klien berada di subnet yang mengaktifkan Log Aliran VPC. Misalnya, VM klien dengan alamat IP 10.10.0.2 mengirim permintaan dengan 1.224 byte ke endpoint load balancer, 10.10.0.3. Permintaan tersebut kemudian mencapai backend. Selanjutnya, backend akan merespons permintaan tersebut dengan balasan yang berisi 5.342 byte. Permintaan dan balasan dicatat di VM klien. Log dari VM klien tersedia di project Google Cloud tempat VM berada.

Seperti yang dilaporkan oleh VM klien (10.10.0.2)
permintaan/balasan connection.src_ip connection.dest_ip bytes_sent Anotasi
permintaan 10.10.0.2 10.10.0.3 1.224 src_instance.*
src_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.url_map_name (untuk Application Load Balancer)
load_balancing.forwarding_rule_name
load_balancing.vpc.*
balasan 10.10.0.3 10.10.0.2 5.342 dest_instance.*
dest_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.url_map_name (untuk Application Load Balancer)
load_balancing.forwarding_rule_name
load_balancing.vpc.*

Alur VM ke VM melalui Private Service Connect

Untuk traffic VM-ke-VM melalui Private Service Connect, VPC Flow Logs mengambil sampel alur antara konsumen Private Service Connect dan layanan yang dipublikasikan.

Endpoint Private Service Connect ke layanan yang dipublikasikan

Alur VM melalui Private Service Connect.
Aliran VM melalui Private Service Connect (klik untuk memperbesar).

Aliran traffic ke layanan yang dipublikasikan Private Service Connect dilaporkan dari VM konsumen dan produsen selama kedua VM berada di subnet yang mengaktifkan Log Aliran VPC. Dalam contoh ini, VM konsumen, 10.10.0.2, mengirim permintaan dengan 1.224 byte ke endpoint Private Service Connect, 10.10.0.3. Di VPC produsen, alamat IP sumber permintaan diterjemahkan ke alamat IP di subnet lampiran layanan, yang dalam contoh ini adalah 10.40.0.2. Alamat IP tujuan permintaan diterjemahkan ke alamat IP Load Balancer Jaringan passthrough internal, 10.50.0.3. Permintaan tersebut kemudian menjangkau VM backend, 10.50.0.2, yang juga berada di subnet yang mengaktifkan logging. Selanjutnya, 10.50.0.2 akan merespons permintaan tersebut dengan balasan yang berisi 5.342 byte. Permintaan dan balasan dicatat dari VM yang meminta dan merespons. Log dari VM konsumen tersedia di project konsumen, dan log dari VM produsen tersedia di project produsen.

Seperti yang dilaporkan oleh VM konsumen (10.10.0.2)
permintaan/balasan connection.src_ip connection.dest_ip bytes_sent Anotasi
permintaan 10.10.0.2 10.10.0.3 1.224 src_instance.*
src_vpc.*
psc.reporter
psc.psc_endpoint.*
psc.psc_attachment.*
balasan 10.10.0.3 10.10.0.2 5.342 dest_instance.*
dest_vpc.*
psc.reporter
psc.psc_endpoint.*
psc.psc_attachment.*
Seperti yang dilaporkan oleh VM produsen (10.50.0.2)
permintaan/balasan connection.src_ip connection.dest_ip bytes_sent Anotasi
permintaan 10.40.0.2 10.50.0.3 1.224 dest_instance.*
dest_vpc.*
psc.reporter
psc.psc_attachment.*
balasan 10.50.0.3 10.40.0.2 5.342 src_instance.*
src_vpc.*
psc.reporter
psc.psc_attachment.*

Alur VM-ke-Google API

Untuk traffic VM ke Google API melalui alamat IP eksternal VM, Akses Google Pribadi, atau endpoint Private Service Connect, VPC Flow Logs menganotasi data log dengan informasi Google API. Bagian berikut memberikan contoh cara Log Aliran VPC menganotasi data log untuk VM yang mengakses Google API global melalui endpoint Private Service Connect.

VM ke Google API global melalui Private Service Connect

Alur VM ke Google API melalui Private Service Connect.
Aliran VM ke Google API melalui Private Service Connect (klik untuk memperbesar).

Aliran traffic ke Google API dilaporkan oleh VM konsumen, selama VM berada di subnet yang mengaktifkan VPC Flow Logs. Dalam contoh ini, VM konsumen, 10.10.0.2, mengirim permintaan dengan 1.224 byte ke endpoint Private Service Connect, 10.10.110.10. Permintaan tersebut akan diteruskan ke layanan Google yang sesuai, misalnya, Cloud Storage. Selanjutnya, Cloud Storage akan merespons permintaan tersebut dengan balasan yang berisi 5.342 byte. Permintaan dan balasan dicatat dari VM yang meminta.

Seperti yang dilaporkan oleh VM konsumen (10.10.0.2)
permintaan/balasan connection.src_ip connection.dest_ip bytes_sent Anotasi
permintaan 10.10.0.2 10.10.110.10 1.224 src_instance.*
src_vpc.*
psc.reporter
psc.psc_endpoint.*
dest_google_service.*
balasan 10.10.110.10 10.10.0.2 5.342 src_google_service.*
dest_instance.*
dest_vpc.*
psc.reporter
psc.psc_endpoint.*

Aliran GKE

Bagian berikut menyertakan contoh cara Log Aliran VPC mengambil sampel traffic GKE dari dan ke Pod.

Aliran Pod ke ClusterIP

Aliran IP pod ke cluster.
Aliran pod ke IP cluster (klik untuk memperbesar).

Dalam contoh ini, traffic dikirim dari Pod klien (10.4.0.2) ke cluster-service (10.0.32.2:80). Tujuan ditetapkan ke alamat IP Pod server yang dipilih (10.4.0.3) pada port target (8080).

Di edge node, flow diambil sampelnya dua kali dengan port dan alamat IP yang diterjemahkan. Untuk kedua titik pengambilan sampel, kita akan mengidentifikasi bahwa Pod tujuan mendukung cluster-service layanan pada port 8080, dan menganotasi data dengan detail Service serta detail Pod. Jika traffic dirutekan ke Pod di node yang sama, traffic tidak akan meninggalkan node dan tidak diambil sampelnya sama sekali.

Dalam contoh ini, data berikut ditemukan.

pelapor connection.src_ip connection.dst_ip bytes_sent Anotasi
SRC 10.4.0.2 10.4.0.3 1.224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
src_gke_details.pod.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*
DEST 10.4.0.2 10.4.0.3 1.224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
src_gke_details.pod.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

Aliran LoadBalancer eksternal GKE

Alur load balancer eksternal.
Aliran load balancer eksternal (klik untuk memperbesar).

Traffic dari alamat IP eksternal ke layanan GKE (35.35.35.35) dirutekan ke node dalam cluster—10.0.12.2 dalam contoh ini—untuk perutean. Secara default, Load Balancer Jaringan passthrough eksternal mendistribusikan traffic ke semua node dalam cluster, bahkan yang tidak menjalankan Pod yang relevan. Traffic mungkin memerlukan hop ekstra untuk mencapai Pod yang relevan. Untuk mengetahui informasi selengkapnya, lihat Jaringan di luar cluster.

Traffic dirutekan dari node (10.0.12.2) ke Pod server yang dipilih (10.4.0.2). Kedua hop dicatat karena semua edge node diambil sampelnya. Jika traffic dirutekan ke Pod di node yang sama—10.4.0.3 dalam contoh ini—hop kedua tidak akan dicatat dalam log karena tidak meninggalkan node. Hop kedua dicatat ke dalam log oleh titik pengambilan sampel dari kedua node. Untuk hop pertama, kami mengidentifikasi Service berdasarkan IP load balancer dan port Service (80). Untuk hop kedua, kami mengidentifikasi bahwa Pod tujuan mendukung Service pada port target (8080).

Dalam contoh ini, data berikut ditemukan.

pelapor connection.src_ip connection.dst_ip bytes_sent Anotasi
DEST 203.0.113.1 35.35.35.35 1.224 src_location.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.service.*
SRC 10.0.12.2 10.4.0.2 1.224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*
DEST 10.0.12.2 10.4.0.2 1.224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

Aliran Ingres GKE

Aliran traffic masuk.
Aliran Ingress (klik untuk memperbesar).

Koneksi dari alamat IP eksternal ke tujuan Ingress dihentikan di layanan Cloud Load Balancing. Koneksi dipetakan ke Service NodePort sesuai dengan URL. Untuk melayani permintaan, load balancer (130.211.0.1) terhubung ke salah satu node cluster (10.0.12.2) untuk perutean menggunakan NodePort layanan. Secara default, saat membuat objek Ingress, pengontrol Ingress GKE mengonfigurasi load balancer HTTP(S) yang mendistribusikan traffic di semua node dalam cluster, termasuk yang tidak menjalankan Pod yang relevan. Traffic mungkin memerlukan hop ekstra untuk mencapai Pod yang relevan. Untuk mengetahui informasi selengkapnya, lihat Jaringan di luar cluster. Traffic dirutekan dari node (10.0.12.2) ke Pod server yang dipilih (10.4.0.2).

Kedua hop dicatat karena semua edge node diambil sampelnya. Untuk hop pertama, kami mengidentifikasi Service berdasarkan NodePort (60000) Service. Untuk hop kedua, kita mengidentifikasi bahwa Pod tujuan mendukung Service pada port target (8080). Hop kedua dicatat oleh titik pengambilan sampel kedua node. Namun, jika traffic dirutekan ke Pod pada node yang sama (10.4.0.3), hop kedua tidak akan dicatat dalam log karena traffic tidak meninggalkan node.

Dalam contoh ini, data berikut ditemukan.

pelapor connection.src_ip connection.dst_ip bytes_sent Anotasi
DEST 130.211.0.1 10.0.12.2 1.224 dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.service.*
SRC 10.0.12.2 10.4.0.2 1.224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*
DEST 10.0.12.2 10.4.0.2 1.224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

Aliran Ingress GKE menggunakan load balancing berbasis container

Aliran Ingress menggunakan load balancing berbasis container.
Aliran Ingress menggunakan load balancing native container (klik untuk memperbesar).

Permintaan dari alamat IP eksternal ke tujuan Ingress yang menggunakan load balancing berbasis container dihentikan di load balancer. Dalam jenis Ingress ini, Pod adalah objek inti untuk load balancing. Kemudian, permintaan dikirim dari load balancer (130.211.0.1) langsung ke Pod yang dipilih (10.4.0.2). Kami mengidentifikasi bahwa Pod tujuan mendukung Service pada port target (8080).

Dalam contoh ini, data berikut ditemukan.

pelapor connection.src_ip connection.dst_ip bytes_sent Anotasi
DEST 130.211.0.1 10.4.0.2 1.224 dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

Pod ke aliran eksternal

Pod ke aliran eksternal.
Pod ke aliran eksternal (klik untuk memperbesar).

Traffic dari Pod (10.4.0.3) ke IP eksternal (203.0.113.1) dimodifikasi oleh penyamaran IP sehingga paket dikirim dari IP node (10.0.12.2), bukan alamat IP Pod. Secara default, cluster GKE dikonfigurasi untuk menyamarkan traffic ke tujuan eksternal. Untuk mengetahui informasi selengkapnya, lihat Agen penyamaran IP.

Agar dapat melihat anotasi Pod untuk traffic ini, Anda dapat mengonfigurasi agen penyamaran agar tidak menyamarkan alamat IP Pod. Dalam kasus semacam ini, untuk mengizinkan traffic ke internet, Anda dapat mengonfigurasi Cloud NAT, yang memproses alamat IP Pod. Untuk mengetahui informasi lebih lanjut tentang Cloud NAT dengan GKE, tinjau interaksi GKE.

Dalam contoh ini, data berikut ditemukan.

pelapor connection.src_ip connection.dst_ip bytes_sent Anotasi
SRC 10.0.12.2 203.0.113.1 1.224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_location.*
internet_routing_details.*

Alur konektivitas hybrid

Untuk traffic antara Google Cloud dan jaringan lokal, Log Alur VPC menganotasi alur antara instance VM—termasuk instance yang digunakan sebagai node GKE—dan endpoint lokal, antara Google API dan endpoint lokal, serta traffic transit antara endpoint lokal. Contoh berikut menjelaskan cara VPC Flow Logs menganotasi aliran antara instance VM di jaringan VPC dan endpoint lokal.

Aliran VM ke jaringan lokal.
Aliran VM-ke-lokal (klik untuk memperbesar).

Untuk aliran antara VM yang ada di jaringan VPC dan endpoint lokal dengan alamat IP internal, log aliran dilaporkan dariGoogle Cloud saja. Referensi berikut melaporkan log alur:

  • VM. Melaporkan log aliran jika subnet yang terhubung ke VM telah mengaktifkan Log Aliran VPC.
  • Gateway yang menghubungkan jaringan VPC ke endpoint lokal. Melaporkan log alur jika gateway mengaktifkan Log Aliran VPC.

Pada diagram sebelumnya, endpoint lokal 10.30.0.2 mengirim permintaan dengan 1.224 byte ke VM 10.0.0.2 di jaringan VPC melalui Cloud Interconnect. Selanjutnya, 10.0.0.2 VM akan merespons permintaan tersebut dengan balasan yang berisi 5.243 byte. Permintaan dan balasan dicatat dari lampiran VLAN untuk Cloud Interconnect dan VM.

Seperti yang dilaporkan oleh lampiran VLAN
permintaan/balasan connection.src_ip connection.dest_ip bytes_sent Anotasi
permintaan 10.30.0.2 10.10.0.2 1.224 reporter
src_gateway.*
dest_instance.*
dest_vpc.*
balasan 10.10.0.2 10.30.0.2 5.342 reporter
src_instance.*
src_vpc.*
dest_gateway.*
Seperti yang dilaporkan oleh VM (10.10.0.2)
permintaan/balasan connection.src_ip connection.dest_ip bytes_sent Anotasi
permintaan 10.30.0.2 10.10.0.2 1.224 reporter
src_gateway.*
dest_instance.*
dest_vpc.*
balasan 10.10.0.2 10.30.0.2 5.342 reporter
src_instance.*
src_vpc.*
dest_gateway.*

Langkah selanjutnya