VMware Engine 的 VLAN 和子網路

Google Cloud VMware Engine 會在部署 VMware Engine 服務的每個區域中建立網路。這個網路是單一 TCP 第 3 層位址空間,預設會啟用路由。在這個區域中建立的所有私有雲和子網路,都不需進行其他設定便可彼此通訊。您可以使用 NSX 為工作負載虛擬機器 (VM) 建立網路區隔 (子網路)。

VLAN 和子網路。

管理 VLAN

Google 會為每個私有雲建立 VLAN (第 2 層網路)。第 2 層流量會留在私有雲的邊界內,讓您隔離私有雲內的本機流量。這些 VLAN 用於管理網路。如要使用工作負載 VM,您必須在私有雲的 NSX Manager 上建立網路區隔。

子網路

您必須在私有雲的 NSX 管理工具上建立網路區隔。每個客戶和區域都會獲派單一私有第 3 層位址空間。您可以設定任何不與私有雲、地端部署網路、私有雲管理網路或其他網路重疊的 IP 位址範圍,也可以設定虛擬私有雲 (VPC) 網路中的子網路 IP 位址範圍。如要詳細瞭解 VMware Engine 如何分配子網路 IP 位址範圍,請參閱「網路需求」。

根據預設,所有子網路都能彼此通訊,因此可減少私有雲之間路由的設定負擔。同一區域內私有雲之間的東向資料會保留在同一層 3 網路,並透過區域內的本機網路基礎架構傳輸。區域內私有雲之間的通訊不需要輸出流量。這種做法可避免在同一專案的不同私有雲中部署不同工作負載時,因 WAN/輸出效能而受到影響。

在私有雲上建立管理子網路

建立私有雲時,VMware Engine 會建立下列管理子網路:

  • 系統管理:ESXi 主機管理網路的 VLAN 和子網路、DNS 伺服器、vCenter Server
  • VMotion:ESXi 主機的 vMotion 網路 VLAN 和子網路
  • VSAN:ESXi 主機的 vSAN 網路適用的 VLAN 和子網路
  • NsxtEdgeUplink1:VLAN 和子網路,用於連至外部網路的 VLAN 上行連結
  • NsxtEdgeUplink2:VLAN 和子網路,用於連至外部網路的 VLAN 上行連結
  • HCXUplink:供 HCX IX (行動性) 和 NE (擴充功能) 設備用來連線至同層級設備,並建立 HCX 服務網格。
  • NsxtHostTransport:主機傳輸區的 VLAN 和子網路

HCX 部署項目網路 CIDR 範圍

在 VMware Engine 上建立私有雲時,VMware Engine 會自動在私有雲上安裝 HCX。您不必再為 HCX 元件指定專屬的 CIDR 範圍。VMware Engine 會自動從您為私有雲指定的管理 CIDR 範圍,為 HCX 元件 (例如 HCX Manager、vMotion 和 WAN Uplink) 分配所需的網路空間。

服務子網路

建立私有雲時,VMware Engine 會自動建立其他服務子網路。您可以針對設備或服務部署情境指定服務子網路,例如儲存、備份、災難復原 (DR)、媒體串流,以及為最大規模的私有雲提供大規模線性處理量和封包處理。服務子網路名稱如下:

  • service-1
  • service-2
  • service-3
  • service-4
  • service-5

服務子網路的虛擬機器通訊會直接從 VMware ESXi 主機連到 Google Cloud 網路基礎架構,實現高速通訊。

設定服務子網路

VMware Engine 建立服務子網路時,不會分配 CIDR 範圍或前置字元。您必須指定不重疊的 CIDR 範圍和前置字串。 第一個可用位址會成為閘道位址。如要分配 CIDR 範圍和前置字串,請編輯其中一個服務子網路。

如果 CIDR 需求有變,可以更新服務子網路。修改現有服務子網路 CIDR 可能會導致附加至該服務子網路的 VM 網路中斷。

設定 vSphere 分散式連接埠群組

如要將 VM 連線至服務子網路,您需要建立新的分散式連接埠群組。這個群組會將服務子網路 ID 對應至 vCenter 私有雲中的網路名稱。

如要執行這項操作,請前往 vCenter 介面的網路設定部分,選取「Datacenter-dvs」,然後選取「New Distributed Port Group」

建立分散式連接埠群組後,您可以在 VM 屬性的網路設定中選取對應名稱,即可連結 VM。

以下是分散式連接埠群組的重要設定值:

  • 通訊埠繫結:靜態繫結
  • 通訊埠分配:彈性
  • 通訊埠數量:120
  • VLAN 類型:VLAN
  • VLAN ID:Google Cloud VMware Engine 介面子網路區段中的對應子網路 ID

最大傳輸單位 (MTU) 是網路層通訊協定支援的最大封包大小 (以位元組為單位),其中包含標頭與資料。為避免與封包片段相關的問題,建議採用下列 MTU 設定:

  • 如果 VM 只與標準私有雲中的其他端點通訊,則可使用最高 8800 位元組的 MTU 設定。

  • 如果 VM 只與延伸私人雲端中的其他端點通訊,則可使用最高 8600 位元組的 MTU 設定。

  • 如果 VM 與私有雲通訊時封裝,請使用標準的 1500 位元組 MTU 設定。這個常見的預設設定適用於以以下方式傳送流量的 VM 介面:

    • 從私人雲端中的 VM 遷移至另一個私人雲端中的 VM
    • 從地端部署端點到私有雲
    • 從私人雲端中的 VM 到地端部署端點
    • 從網際網路到私有雲
    • 從私有雲中的 VM 連線至網際網路
  • 如果 VM 會與網際網路進行通訊,且傳輸的 UDP 流量封包較大,容易遭到切割,請將 MTU 設定為 1370 位元組以下。這項建議適用於使用 VMware Engine 提供的公開連線或 IP 位址進行的通訊。MSS 鉗制通常可解決 TCP 流量流的片段化問題。

  • 如要與封裝的私有雲進行通訊,請根據 VPN 端點設定計算最佳 MTU 設定。一般來說,如果 VM 介面透過下列方式傳送流量,MTU 設定就會是 1350 到 1390 位元組或更低:

    • 從地端部署端點到封裝的私有雲
    • 從私有雲 VM 到封裝的地端部署端點
    • 從一個私有雲中的 VM 遷移至另一個私有雲中的 VM,並進行封裝

如果應用程式無法控制酬載大小上限,這些建議就特別重要。如需計算封裝額外負荷的額外指引,請參閱下列資源: