關於流量

本頁面說明虛擬私有雲流量記錄如何回報常見流量的記錄。如需範例,請參閱下列章節:

VM 流程

以下各節提供範例,說明虛擬私有雲流量記錄如何註解虛擬機器 (VM) 執行個體的傳入和傳出流量。

同一虛擬私有雲網路中的 VM 對 VM 流程

虛擬私有雲網路中的 VM 流程。
虛擬私有雲網路內的 VM 流程 (按一下可放大)。

在同一個虛擬私有雲網路中的 VM 對 VM 流程,提出要求的 VM 和負責回應的 VM 都會回報流程記錄,前提是這兩個 VM 皆位於已啟用虛擬私有雲流程記錄功能的子網路。在這個範例中,VM 10.10.0.2會傳送有 1,224 個位元組的要求至 VM 10.50.0.2,後者同樣位於啟用了記錄功能的子網路中。10.50.0.2 回應該項要求時,會傳送有 5,342 個位元組的回覆。提出要求的 VM 和負責回應的 VM 都會一併記錄要求與回覆。

以下流程由提出要求的 VM (10.10.0.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.10.0.2 10.50.0.2 1,224 src_instance.*
src_vpc.*
dest_instance.*
dest_vpc.*
reply 10.50.0.2 10.10.0.2 5,342 src_instance.*
src_vpc.*
dest_instance.*
dest_vpc.*
以下流程由負責回應的 VM (10.50.0.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.10.0.2 10.50.0.2 1,224 src_instance.*
src_vpc.*
dest_instance.*
dest_vpc.*
reply 10.50.0.2 10.10.0.2 5,342 src_instance.*
src_vpc.*
dest_instance.*
dest_vpc.*

VM 到外部 IP 位址的流量

VM 到外部 IP 位址的流程。
VM 到外部 IP 位址的流程 (按一下即可放大)。

如果是 VM (位於 VPC 網路中) 與端點 (具有外部 IP 位址) 之間透過網際網路傳輸的流程,則只有 VPC 網路中的 VM 會回報流程記錄:

  • 輸出流程的記錄會由流量來源 VPC 網路 VM 回報。
  • 輸入流程的記錄則由流量目的地 VPC 網路 VM 回報。

在本例中,VM 10.10.0.2 會透過網際網路與外部 IP 位址為 203.0.113.5 的端點交換封包。從 10.10.0.2 傳出至 203.0.113.5 的 1,224 個位元組流量會由來源 VM 10.10.0.2 回報。從 203.0.113.5 內送至 10.10.0.2 的 5,342 個位元組流量則由流量目的地 VM 10.10.0.2 回報。

request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.10.0.2 203.0.113.5 1,224 src_instance.*
src_vpc.*
dest_location.*
internet_routing_details.*
reply 203.0.113.5 10.10.0.2 5,342 src_location.*
dest_instance.*
dest_vpc.*

共用虛擬私人雲端的 VM 對 VM 流程

共用虛擬私有雲流程。
共用虛擬私有雲流程 (按一下可放大)。

如果是共用虛擬私有雲的 VM 對 VM 流程,您可以為主專案中的子網路啟用虛擬私有雲流程記錄。舉例來說,子網路 10.10.0.0/20 屬於主專案中定義的共用虛擬私有雲網路。您可以查看這個子網路中 VM 的流量記錄,包括服務專案建立的 VM。在本範例中,服務專案稱為「web server」、「recommendation」和「database」。

在 VM 對 VM 流程方面,如果兩個 VM 都在同一個專案中或位於共用網路,則系統會針對連線中的另一個端點提供相同代管專案、專案 ID 註解等資訊。如果另一個 VM 是在不同專案中,系統就不會提供另一個 VM 的註解。

下表列出可能由 10.10.0.1010.10.0.20 回報的流程。

  • 虛擬私有雲子網路屬於代管專案,因此 src_vpc.project_iddest_vpc.project_id 適用於代管專案。
  • 執行個體屬於服務專案,因此 src_instance.project_iddest_instance.project_id 適用於服務專案。
connection
.src_ip
src_instance
.project_id
src_vpc
.project_id
connection
.dest_ip
dest_instance
.project_id
dest_vpc
.project_id
10.10.0.10 網路伺服器 host_project 10.10.0.20 recommendation host_project

服務專案不擁有共用虛擬私有雲端網路,也無法存取共用虛擬私有雲端網路的流量記錄。

虛擬私有雲網路對等互連的 VM 對 VM 流程

虛擬私有雲網路對等互連流程。
虛擬私有雲網路對等互連流程 (按一下即可放大)。

除非兩個 VM 位於同一個 Google Cloud 專案,否則系統會以與外部端點相同的方式,回報對等互連虛擬私有雲網路的 VM 對 VM 流程,不會提供另一個 VM 的專案和其他註解資訊。如果兩個 VM 屬於同一個專案中,即使分別位於不同的網路,系統也會提供另一個 VM 的專案和其他註解資訊。

在本範例中,analytics-prod 專案中 VM 10.10.0.2 和 webserver-test 專案中 VM 10.50.0.2 的子網路是透過虛擬私有雲網路對等互連進行連線。如果 analytics-prod 專案啟用了虛擬私人雲端流程記錄功能,流程來源 VM 10.10.0.2 就會回報從 10.10.0.2 傳送至 10.50.0.2 的流量 (1,224 位元組)。而流量目的地 VM 10.10.0.2 也會回報從 10.50.0.2 傳送至 10.10.0.2 的流量 (5,342 個位元組)。

在本範例中,webserver-test 專案中並未啟用虛擬私有雲流量記錄,因此 VM 10.50.0.2 不會記錄任何記錄檔。

reporter connection.src_ip connection.dest_ip bytes_sent 註解
來源 10.10.0.2 10.50.0.2 1,224 src_instance.*
src_vpc.*
目的地 10.50.0.2 10.10.0.2 5,342 dest_instance.*
dest_vpc.*

透過 Private Service Connect 的 VM 對 VM 流程

虛擬私有雲流量記錄會註解 Private Service Connect 消費者與已發布服務之間的流量。以下範例說明虛擬私有雲端 (VPC) 流量記錄如何為消費者和生產者 VM 註解記錄檔記錄。

VM 流量會透過 Private Service Connect 傳輸。
VM 流量透過 Private Service Connect 傳輸 (按一下可放大)。

只要消費者和生產者 VM 位於已啟用虛擬私有雲端流程記錄的子網路,系統就會回報流向 Private Service Connect 已發布服務的流量。在這個範例中,消費者 VM 10.10.0.2 會傳送 1,224 個位元組的要求至 Private Service Connect 端點 10.10.0.3。在生產者 VPC 中,要求的來源 IP 位址會轉換為服務附件子網路中的 IP 位址,在本例中為 10.40.0.2。要求的目的地 IP 位址會轉換為內部直通式網路負載平衡器的 IP 位址 10.50.0.3。接著,要求會傳送至後端 VM 10.50.0.2,後者同樣位於啟用了記錄功能的子網路中。10.50.0.2 回應該項要求時,會傳送有 5,342 個位元組的回覆。提出要求的 VM 和負責回應的 VM 都會一併記錄要求與回覆。消費者 VM 的記錄位於消費者專案中,而生產者 VM 的記錄則位於生產者專案中。

以下流程由消費者 VM (10.10.0.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.10.0.2 10.10.0.3 1,224 src_instance.*
src_vpc.*
psc.reporter
psc.psc_endpoint.*
psc.psc_attachment.*
reply 10.10.0.3 10.10.0.2 5,342 dest_instance.*
dest_vpc.*
psc.reporter
psc.psc_endpoint.*
psc.psc_attachment.*
以下流程由生產者 VM (10.50.0.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.40.0.2 10.50.0.3 1,224 dest_instance.*
dest_vpc.*
psc.reporter
psc.psc_attachment.*
reply 10.50.0.3 10.40.0.2 5,342 src_instance.*
src_vpc.*
psc.reporter
psc.psc_attachment.*

VM 至 Google API 流程

如果 VM 流量是透過 VM 的外部 IP 位址、私人 Google 存取權或 Private Service Connect 端點傳輸至 Google API,VPC 流量記錄會在記錄中註解 Google API 資訊。

以下範例說明虛擬私有雲流量記錄如何為 VM 透過 Private Service Connect 端點存取全球 Google API 的記錄加上註解。

VM 會透過 Private Service Connect 連線至 Google API。
VM 透過 Private Service Connect 流向 Google API (按一下可放大)。

只要 VM 位於已啟用虛擬私有雲流量記錄功能的子網路,就會回報流向 Google API 的流量。在這個範例中,消費者 VM 10.10.0.2 會傳送 1,224 個位元組的要求至 Private Service Connect 端點 10.10.110.10。要求會轉送至適當的 Google 服務,例如 Cloud Storage。Cloud Storage 接著會回應該要求,並傳送 5,342 個位元組的回覆。提出要求的 VM 會一併記錄要求與回覆。

以下流程由消費者 VM (10.10.0.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.10.0.2 10.10.110.10 1,224 src_instance.*
src_vpc.*
dest_google_service.*
psc.reporter
psc.psc_endpoint.*
reply 10.10.110.10 10.10.0.2 5,342 src_google_service.*
dest_instance.*
dest_vpc.*
psc.reporter
psc.psc_endpoint.*

透過 Cloud Load Balancing 的 VM 流程

虛擬私有雲流程記錄會註解透過直通式網路負載平衡器、Proxy 網路負載平衡器或應用程式負載平衡器傳送的流量。下列範例假設這些負載平衡器已設定為內部負載平衡器。

透過內部直通式網路負載平衡器的 VM 對 VM 流程

內部直通式網路負載平衡器流程。
內部直通式網路負載平衡器流程 (按一下可放大)。

將 VM 新增至內部直通式網路負載平衡器的後端服務時, Google Cloud 會將負載平衡器的 IP 位址新增至 VM 的本機路由表。這樣一來,VM 就能接受目的地設為負載平衡器 IP 位址的要求封包。VM 會在回覆時直接傳送回應;不過,回應封包所設定的來源 IP 位址屬於負載平衡器,而非達到負載平衡的 VM。

透過內部直通式網路負載平衡器傳送的 VM 對 VM 流程,會從來源和目的地回報。

以下流程由用戶端 VM (192.168.1.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 192.168.1.2 10.240.0.200 1,224 src_instance.*
src_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.forwarding_rule_name
load_balancing.backend_service_name
load_balancing.vpc.*
reply 10.240.0.200 192.168.1.2 5,342 dest_instance.*
dest_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.forwarding_rule_name
load_balancing.backend_service_name
load_balancing.vpc.*
以下流程由後端 VM (10.240.0.3) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 192.168.1.2 10.240.0.200 1,224 src_instance.*
src_vpc.*
dest_instance.*
dest_vpc.*
load_balancing.* (url_map_name 除外的所有欄位)
reply 10.240.0.200 192.168.1.2 5,342 src_instance.*
src_vpc.*
dest_instance.*
dest_vpc.*
load_balancing.* (url_map_name 除外的所有欄位)

在負載平衡器分配給後端 VM 的要求中,來源 IP 位址會設為用戶端 VM 的 IP 位址。也就是說,後端 VM 可以提供用戶端 VM 的 src_instancedest_instance 資訊。不過,與後端 VM 不同的是,用戶端 VM 無法將後端 VM 的 src_instancedest_instance 資訊新增至報表,因為用戶端 VM 是將要求傳送至負載平衡器的 IP 位址,並從該位址接收回應,而非後端 VM。

VM 透過內部 Proxy 網路負載平衡器或內部應用程式負載平衡器傳輸流量

只要用戶端 VM 位於已啟用虛擬私有雲端流程記錄的子網路中,用戶端 VM 就會回報透過內部 Proxy 網路負載平衡器內部應用程式負載平衡器傳送的流量。舉例來說,IP 位址為 10.10.0.2 的用戶端 VM 會將 1,224 個位元組的要求傳送至負載平衡器端點 10.10.0.3。要求隨後會傳送到後端。後端回應該項要求時,會傳送有 5,342 個位元組的回覆。用戶端 VM 會一併記錄要求與回覆。用戶端 VM 的記錄檔位於 VM 所屬的 Google Cloud 專案中。

以下流程由用戶端 VM (10.10.0.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.10.0.2 10.10.0.3 1,224 src_instance.*
src_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.url_map_name (適用於應用程式負載平衡器)
load_balancing.forwarding_rule_name
load_balancing.vpc.*
reply 10.10.0.3 10.10.0.2 5,342 dest_instance.*
dest_vpc.*
load_balancing.forwarding_rule_project_id
load_balancing.reporter
load_balancing.type
load_balancing.scheme
load_balancing.url_map_name (適用於應用程式負載平衡器)
load_balancing.forwarding_rule_name
load_balancing.vpc.*

GKE 流程

以下各節提供範例,說明虛擬私有雲流量記錄如何註解進出 Pod 的 GKE 流量。

Pod 到 ClusterIP 的流程

Pod 到叢集 IP 的流程。
Pod 到叢集 IP 的流程 (按一下即可放大)。

在本範例中,流量會從用戶端 Pod (10.4.0.2) 傳送至 cluster-service (10.0.32.2:80)。目的地會解析為所選伺服器 Pod IP 位址 (10.4.0.3) 上的目標通訊埠 (8080)。

在節點邊緣,系統會使用已轉換的 IP 位址和通訊埠,對流量取樣兩次。在兩個取樣點,我們都會識別出目的地 Pod 是通訊埠 8080 上的後端服務 cluster-service,並在記錄中註解 Service 詳細資料和 Pod 詳細資料。如果流量轉送至相同節點上的 Pod,流量不會離開節點,也不會取樣。

在本例中,系統會找到下列記錄。

reporter connection.src_ip connection.dst_ip bytes_sent 註解
SRC 10.4.0.2 10.4.0.3 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
src_gke_details.pod.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*
DEST 10.4.0.2 10.4.0.3 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
src_gke_details.pod.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

GKE 外部 LoadBalancer 流程

外部負載平衡器流程。
外部負載平衡器流程 (按一下可放大)。

從外部 IP 位址到 GKE 服務 (35.35.35.35) 的流量會轉送至叢集中的節點 (本例為 10.0.12.2) 以進行路由。根據預設,外部直通式網路負載平衡器會將流量分配到叢集中的所有節點,即使這些節點未執行相關 Pod 也不例外。流量可能需要額外的躍點才能到達相關 Pod。詳情請參閱「叢集外部的網路」。

流量隨後會從節點 (10.0.12.2) 轉送至所選伺服器 Pod (10.4.0.2)。由於系統會對所有節點邊緣進行取樣,因此這兩次躍點都會記錄下來。如果流量轉送至相同節點上的 Pod (本例中為 10.4.0.3),系統就不會記錄第二個躍點,因為流量不會離開節點。兩個節點的取樣點都會記錄第二個躍點。在第一躍點中,我們會根據負載平衡器 IP 和服務通訊埠 (80) 識別服務。在第二躍點中,我們會識別出目的地 Pod 正在目標通訊埠 (8080) 上支援服務。

在本例中,系統會找到下列記錄。

reporter connection.src_ip connection.dst_ip bytes_sent 註解
DEST 203.0.113.1 35.35.35.35 1,224 src_location.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.service.*
SRC 10.0.12.2 10.4.0.2 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*
DEST 10.0.12.2 10.4.0.2 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

GKE Ingress 流程

輸入流程。
連入流量流程 (按一下即可放大)。

從外部 IP 位址到 Ingress 目的地的連線會在 Cloud Load Balancing 服務中終止。系統會根據網址,將連線對應至 NodePort 服務。為處理要求,負載平衡器 (130.211.0.1) 會連線至其中一個叢集節點 (10.0.12.2),使用服務的 NodePort 進行路由。根據預設,建立 Ingress 物件時,GKE Ingress 控制器會設定 HTTP(S) 負載平衡器,將流量分配到叢集中的所有節點,包括未執行相關 Pod 的節點。流量可能需要額外的躍點才能到達相關 Pod。詳情請參閱「叢集外部網路」。流量隨後會從節點 (10.0.12.2) 轉送至所選伺服器 Pod (10.4.0.2)。

由於系統會對所有節點邊緣取樣,因此會記錄這兩個躍點。在第一個躍點,我們會根據 Service 的 NodePort (60000) 識別 Service。在第二個躍點,我們會識別出目的地 Pod 正在目標通訊埠 (8080) 上支援 Service。兩個節點的取樣點都會記錄第二個躍點。不過,如果流量轉送至相同節點上的 Pod (10.4.0.3),由於流量未離開節點,系統不會記錄第二個躍點。

在本例中,系統會找到下列記錄。

reporter connection.src_ip connection.dst_ip bytes_sent 註解
DEST 130.211.0.1 10.0.12.2 1,224 dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.service.*
SRC 10.0.12.2 10.4.0.2 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*
DEST 10.0.12.2 10.4.0.2 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

使用容器原生負載平衡的 GKE Ingress 流程

使用容器原生負載平衡的 Ingress 流量。
使用容器原生負載平衡的 Ingress 流程 (按一下可放大)。

如果從外部 IP 位址傳送要求至使用容器原生負載平衡的 Ingress 目的地,要求會在負載平衡器終止。在這類 Ingress 中,Pod 是負載平衡的核心物件。接著,負載平衡器 (130.211.0.1) 會直接將要求傳送至所選 Pod (10.4.0.2)。我們發現目的地 Pod 正在目標通訊埠 (8080) 上支援 Service。

在本範例中,系統找到下列記錄。

reporter connection.src_ip connection.dst_ip bytes_sent 註解
DEST 130.211.0.1 10.4.0.2 1,224 dest_instance.*
dest_vpc.*
dest_gke_details.cluster.*
dest_gke_details.pod.*
dest_gke_details.service.*

Pod 到外部流程

Pod 到外部的流程。
從 Pod 到外部的流程 (按一下即可放大)。

IP 位址偽裝功能會修改從 Pod (10.4.0.3) 到外部 IP (203.0.113.1) 的流量,讓封包從節點 IP (10.0.12.2) 傳送,而非 Pod IP 位址。根據預設,GKE 叢集會設定為將流量偽裝成外部目的地。詳情請參閱「IP 偽裝代理程式」。

如要查看這項流量的 Pod 註解,您可以設定偽裝代理程式,不要偽裝 Pod IP 位址。在這種情況下,如要允許流量連上網際網路,您可以設定 Cloud NAT,處理 Pod IP 位址。如要進一步瞭解 Cloud NAT 與 GKE 的搭配使用方式,請參閱 GKE 互動

在本範例中,系統找到下列記錄。

reporter connection.src_ip connection.dst_ip bytes_sent 註解
SRC 10.0.12.2 203.0.113.1 1,224 src_instance.*
src_vpc.*
src_gke_details.cluster.*
dest_location.*
internet_routing_details.*

混合式連線流程

如要透過 Cloud Interconnect 和 Cloud VPN 通道的 VLAN 連結進行混合式連線,虛擬私有雲流量記錄會註解下列流量:

  • VM 執行個體之間的流量,包括做為 GKE 節點的執行個體,以及地端端點
  • Google 服務與地端端點之間的流程
  • 地端端點之間的轉送流程

以下範例說明虛擬私有雲流程記錄檔如何註解虛擬私有雲網路中 VM 執行個體與內部部署端點之間的流程。網路會透過 Cloud Interconnect 的 VLAN 連結連線至端點。

VM 流量流向內部部署網路。
VM 到地端的流程 (按一下即可放大)。

如果是虛擬私有雲網路中的 VM 與內部部署端點 (具有內部 IP 位址) 之間的流程,則Google Cloud 只會回報流程記錄。下列資源會回報流程記錄:

  • 虛擬機器。如果 VM 連線的子網路已啟用虛擬私有雲流量記錄,就會回報流量記錄。
  • 將虛擬私有雲網路連線至地端端點的閘道。如果閘道 (本例為 VLAN 連結) 已啟用虛擬私有雲流量記錄,就會回報流量記錄。

在上圖中,內部部署端點 10.30.0.2 會將 1,224 個位元組的要求傳送至 VPC 網路中的 VM 10.0.0.2。VM 10.0.0.2 回應該項要求時,會傳送有 5,243 個位元組的回覆。VLAN 連結和 VM 都會一併記錄要求與回覆。

VLAN 連結回報的位元組數
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.30.0.2 10.0.0.2 1,224 src_gateway.*
dest_instance.*
dest_vpc.*
reply 10.0.0.2 10.30.0.2 5,342 src_instance.*
src_vpc.*
dest_gateway.*
以下流程由 VM (10.0.0.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.30.0.2 10.0.0.2 1,224 src_gateway.*
dest_instance.*
dest_vpc.*
reply 10.0.0.2 10.30.0.2 5,342 src_instance.*
src_vpc.*
dest_gateway.*

不同專案中虛擬私有雲網路之間的流程

如果為機構設定虛擬私有雲流量記錄,並啟用跨專案註解 (預設),系統會以相同方式註解不同專案中虛擬私有雲網路之間的流量,以及相同專案中虛擬私有雲網路之間的流量;這些流量的記錄會提供連線兩端的資訊。

如果跨專案註解已停用,記錄檔只會提供流量流動回報者的相關資訊。

跨專案註解已啟用

以下範例說明啟用跨專案註解時,虛擬私有雲流量記錄如何註解專案間 VM 對 VM 流量的記錄。透過共用 VPC、VPC 網路對等互連和 Network Connectivity Center 的流量,都可以使用跨專案註解。

機構中的 VM 對 VM 流程。
機構內 VM 對 VM 的流程 (按一下可放大)。

VM 10.0.0.2 會傳送有 1,224 個位元組的要求至 VM 10.0.0.1.2。VM 10.0.0.1.2 回應該項要求時,會傳送有 5,342 個位元組的回覆。提出要求的 VM 和負責回應的 VM 都會一併記錄要求與回覆。

以下流程由提出要求的 VM (10.0.0.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.0.0.2 10.0.1.2 1,224 src_instance.*
src_vpc.*
dest_instance.*
dest_vpc.*
reply 10.0.1.2 10.0.0.2 5,342 src_instance.*
src_vpc.*
dest_instance.*
dest_vpc.*
以下流程由負責回應的 VM (10.0.1.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.0.0.2 10.0.1.2 1,224 src_instance.*
src_vpc.*
dest_instance.*
dest_vpc.*
reply 10.0.1.2 10.0.0.2 5,342 src_instance.*
src_vpc.*
dest_instance.*
dest_vpc.*

跨專案註解已停用

以下範例說明在跨專案註解已停用的情況下,虛擬私有雲流量記錄如何為專案間 VM 對 VM 流量的記錄檔記錄加上註解。

VM 10.0.0.2 會傳送有 1,224 個位元組的要求至 VM 10.0.0.1.2。VM 10.0.0.1.2 回應該項要求時,會傳送有 5,342 個位元組的回覆。提出要求的 VM 和負責回應的 VM 都會一併記錄要求與回覆。但系統不會提供另一個 VM 的資訊。

以下流程由提出要求的 VM (10.0.0.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.0.0.2 10.0.1.2 1,224 src_instance.*
src_vpc.*
reply 10.0.1.2 10.0.0.2 5,342 dest_instance.*
dest_vpc.*
以下流程由負責回應的 VM (10.0.1.2) 回報
request/reply connection.src_ip connection.dest_ip bytes_sent 註解
要求 10.0.0.2 10.0.1.2 1,224 dest_instance.*
dest_vpc.*
reply 10.0.1.2 10.0.0.2 5,342 src_instance.*
src_vpc.*

後續步驟