VLAN et sous-réseaux sur VMware Engine

Google Cloud VMware Engine crée un réseau par région dans laquelle votre service VMware Engine est déployé. Le réseau est un espace d'adressage TCP de couche 3 unique avec routage activé par défaut. Tous les clouds et sous-réseaux privés créés dans cette région peuvent communiquer entre eux sans configuration supplémentaire. Vous pouvez créer des segments de réseau (sous-réseaux) à l'aide de NSX-T pour vos machines virtuelles (VM) de charge de travail.

VLAN et sous-réseaux

VLAN de gestion

Google crée un VLAN (réseau de Couche 2) pour chaque cloud privé. Le trafic de Couche 2 reste dans les limites d'un cloud privé, ce qui vous permet d'isoler le trafic local dans le cloud privé. Ces VLAN sont utilisés pour le réseau de gestion. Pour les VM de charge de travail, vous devez créer des segments de réseau sur le gestionnaire NSX-T de votre cloud privé.

Sous-réseaux

Vous devez créer un segment de réseau dans le gestionnaire NSX-T de votre cloud privé. Un seul espace d'adressage de Couche 3 privé est attribué par client et par région. Vous pouvez configurer n'importe quelle plage d'adresses IP RFC 1918 qui ne chevauche pas d'autres réseaux de votre cloud privé, réseau sur site, réseau de gestion de votre cloud privé ou plages d'adresses IP de sous-réseau de votre réseau de cloud privé virtuel (VPC)

Par défaut, tous les sous-réseaux peuvent communiquer entre eux, ce qui réduit le temps de configuration pour le routage entre clouds privés. Les données Est-Ouest sur les clouds privés d'une même région demeurent sur le même réseau de Couche 3 et sont transférées sur l'infrastructure du réseau local de la région. Aucune sortie n'est requise pour la communication entre les clouds privés d'une région. Cette approche élimine toute perte de performance de WAN/sortie lors du déploiement de différentes charges de travail dans différents clouds privés du même projet.

Plage CIDR de sous-réseaux vSphere/vSAN

VMware Engine déploie les composants de gestion d'un cloud privé dans la plage CIDR des sous-réseaux vSphere/vSAN fournie lors de la création du cloud privé. Chaque cloud privé requiert une plage CIDR de sous-réseau vSphere/vSAN, et la plage CIDR est divisée en différents sous-réseaux lors du déploiement du cloud privé. Les limites de la plage CIDR ne peuvent pas être modifiées après la création du cloud privé sans supprimer le cloud privé.

Le préfixe de la plage CIDR présente les exigences suivantes :

  • Préfixe de la plage CIDR minimale pour les sous-réseaux vSphere/vSAN : /24
  • Préfixe de la plage CIDR maximale des sous-réseaux vSphere/vSAN : /21

Limites de la plage CIDR des sous-réseaux vSphere/vSAN

La taille de la plage CIDR des sous-réseaux vSphere/vSAN affecte la taille de votre cloud privé. Le tableau suivant indique le nombre maximal de nœuds dont vous pouvez disposer, en fonction de la taille de la plage CIDR des sous-réseaux vSphere/vSAN.

Longueur du préfixe CIDR des sous-réseaux vSphere/vSAN spécifiée Nombre maximal de nœuds
/24 26
/23 58
/22 118
/21 220

Lorsque vous sélectionnez votre préfixe de plage CIDR, tenez compte des limites de nœuds sur les ressources dans un cloud privé. Par exemple, les préfixes de plage CIDR /24 et /23 ne sont pas compatibles avec le nombre maximal de nœuds disponibles pour un cloud privé.

Sous-réseaux de gestion créés sur un cloud privé

Lorsque vous créez un cloud privé, les sous-réseaux de gestion suivants sont créés :

  • Gestion du système : VLAN et sous-réseau pour le réseau de gestion des hôtes ESXi, le serveur DNS et le serveur vCenter
  • VMotion : VLAN et sous-réseau pour le réseau vMotion des hôtes ESXi
  • VSAN : VLAN et sous-réseau pour le réseau vSAN des hôtes ESXi
  • NsxtEdgeUplink1 : VLAN et sous-réseau pour les liaisons VLAN avec un réseau externe
  • NsxtEdgeUplink2 : VLAN et sous-réseau pour les liaisons VLAN avec un réseau externe
  • NsxtEdgeTransport : VLAN et sous-réseau utilisés pour les zones de transport contrôlant la couverture des réseaux de couche 2 dans NSX-T
  • NsxtHostTransport : VLAN et sous-réseau pour la zone de transport hôte

Répartition de la plage CIDR du réseau de gestion

La plage CIDR de sous-réseaux vSphere/vSAN spécifiée est divisée en plusieurs sous-réseaux. Le tableau suivant montre un exemple de répartition des préfixes autorisés. L'exemple utilise 192.168.0.0 comme plage CIDR.

CIDR/Préfixe spécifié de sous-réseaux vSphere/vSAN 192.168.0.0/21 192.168.0.0/22 192.168.0.0/23 192.168.0.0/24
Gestion système 192.168.0.0/24 192.168.0.0/24 192.168.0.0/25 192.168.0.0/26
vMotion 192.168.1.0/24 192.168.1.0/25 192.168.0.128/26 192.168.0.64/27
vSAN 192.168.2.0/24 192.168.1.128/25 192.168.0.192/26 192.168.0.96/27
Transport d'hôte NSX-T 192.168.4.0/23 192.168.2.0/24 192.168.1.0/25 192.168.0.128/26
Transport edge NSX-T 192.168.7.208/28 192.168.3.208/28 192.168.1.208/28 192.168.0.208/28
NSX-T Edge liaison montante 1 192.168.7.224/28 192.168.3.224/28 192.168.1.224/28 192.168.0.224/28
NSX-T liaison montante 2 192.168.7.240/28 192.168.3.240/28 192.168.1.240/28 192.168.0.240/28

Plage CIDR du réseau de déploiement HCX

Lorsque vous créez un cloud privé sur VMware Engine, HCX est automatiquement installé sur le cloud privé. Vous pouvez spécifier une plage CIDR du réseau à utiliser par les composants HCX. La plage CIDR doit être /27 ou supérieure.

Le réseau fourni est divisé en trois sous-réseaux. Le gestionnaire HCX est installé dans le sous-réseau de Gestion HCX. Le sous-réseau vMotion HCX est utilisé pour la migration vMotion de machines virtuelles entre votre environnement sur site et le cloud privé VMware Engine. Le sous-réseau WANUplink HCX permet d'établir le tunnel entre votre environnement sur site et le cloud privé VMware Engine.

L'unité de transmission maximale (MTU) correspond à la taille, en octets, du plus grand paquet accepté par un protocole de couche réseau. Elle inclut les en-têtes et les données. Pour éviter les problèmes liés à la fragmentation, nous vous recommandons d'utiliser les paramètres de MTU suivants.

Pour les VM qui ne communiquent qu'avec d'autres points de terminaison dans un cloud privé, vous pouvez utiliser des paramètres de MTU allant jusqu'à de 8 800 octets.

Pour les VM qui communiquent vers ou depuis un cloud privé sans encapsulation, utilisez le paramètre de MTU standard de 1 500 octets. Ce paramètre par défaut commun est valide pour les interfaces de VM qui envoient du trafic des manières suivantes :

  • d'une VM dans un cloud privé vers une VM dans un autre cloud privé
  • d'un point de terminaison sur site vers un cloud privé
  • d'une VM dans un cloud privé vers un point de terminaison sur site
  • d'Internet vers un cloud privé
  • d'une VM dans un cloud privé vers Internet

Pour les VM qui communiquent vers ou depuis un cloud privé ou avec encapsulation, calculez le paramètre de MTU optimal en fonction des configurations des points de terminaison du VPN. Cela se traduit généralement par un paramètre de MTU de 1 350 à 1 390 octets ou moins pour les interfaces de VM qui envoient du trafic des manières suivantes :

  • d'un point de terminaison sur site vers un cloud privé avec encapsulation
  • d'une VM cloud privé vers un point de terminaison sur site avec encapsulation
  • d'une VM cloud privé vers une VM dans un autre cloud privé avec encapsulation

Ces recommandations sont particulièrement importantes dans les cas où une application n'est pas en mesure de contrôler la taille de la charge utile maximale. Pour plus d'informations sur le calcul de la surcharge d'encapsulation, consultez les ressources suivantes :