VLAN et sous-réseaux sur VMware Engine

Google Cloud VMware Engine crée un réseau par région dans laquelle votre service VMware Engine est déployé. Le réseau est un espace d'adressage TCP de couche 3 unique avec routage activé par défaut. Tous les clouds et sous-réseaux privés créés dans cette région peuvent communiquer entre eux sans configuration supplémentaire. Vous pouvez créer des segments de réseau (sous-réseaux) à l'aide de NSX-T pour vos machines virtuelles (VM) de charge de travail.

VLAN et sous-réseaux

VLAN de gestion

Google crée un VLAN (réseau de Couche 2) pour chaque cloud privé. Le trafic de Couche 2 reste dans les limites d'un cloud privé, ce qui vous permet d'isoler le trafic local dans le cloud privé. Ces VLAN sont utilisés pour le réseau de gestion. Pour les VM de charge de travail, vous devez créer des segments de réseau sur le gestionnaire NSX-T de votre cloud privé.

Sous-réseaux

Vous devez créer un segment de réseau dans le gestionnaire NSX-T de votre cloud privé. Un seul espace d'adressage de Couche 3 privé est attribué par client et par région. Vous pouvez configurer n'importe quelle plage d'adresses IP qui ne chevauche pas d'autres réseaux de votre cloud privé, réseau sur site, réseau de gestion de votre cloud privé ou plages d'adresses IP de sous-réseau de votre réseau de cloud privé virtuel (VPC). Pour en savoir plus sur la manière dont VMware Engine alloue les plages d'adresses IP de sous-réseau, consultez la section Configuration réseau requise.

Par défaut, tous les sous-réseaux peuvent communiquer entre eux, ce qui réduit le temps de configuration pour le routage entre clouds privés. Les données Est-Ouest sur les clouds privés d'une même région demeurent sur le même réseau de Couche 3 et sont transférées sur l'infrastructure du réseau local de la région. Aucune sortie n'est requise pour la communication entre les clouds privés d'une région. Cette approche élimine toute perte de performance de WAN/sortie lors du déploiement de différentes charges de travail dans différents clouds privés du même projet.

Sous-réseaux de gestion créés sur un cloud privé

Lorsque vous créez un cloud privé, VMware Engine crée les sous-réseaux de gestion suivants :

  • Gestion du système : VLAN et sous-réseau pour le réseau de gestion des hôtes ESXi, le serveur DNS et le serveur vCenter
  • VMotion : VLAN et sous-réseau pour le réseau vMotion des hôtes ESXi
  • VSAN : VLAN et sous-réseau pour le réseau vSAN des hôtes ESXi
  • NsxtEdgeUplink1 : VLAN et sous-réseau pour les liaisons VLAN avec un réseau externe
  • NsxtEdgeUplink2 : VLAN et sous-réseau pour les liaisons VLAN avec un réseau externe
  • HCXUplink : utilisé par les dispositifs HCX IX (mobilité) et NE (extension) pour atteindre leurs homologues et permettre la création du service de maillage HCX.
  • NsxtHostTransport : VLAN et sous-réseau pour la zone de transport hôte

Plage CIDR du réseau de déploiement HCX

Lorsque vous créez un cloud privé sur VMware Engine, HCX est automatiquement installé sur le cloud privé. Vous pouvez spécifier une plage CIDR du réseau à utiliser par les composants HCX. Le préfixe de la plage CIDR doit être /26 ou /27.

Le réseau fourni est divisé en trois sous-réseaux. Le gestionnaire HCX est installé dans le sous-réseau de Gestion HCX. Le sous-réseau vMotion HCX est utilisé pour la migration vMotion de machines virtuelles entre votre environnement sur site et le cloud privé VMware Engine. Le sous-réseau WANUplink HCX permet d'établir le tunnel entre votre environnement sur site et le cloud privé VMware Engine.

Sous-réseaux de service

Lorsque vous créez un cloud privé, VMware Engine crée automatiquement des sous-réseaux de services supplémentaires. Vous pouvez cibler des sous-réseaux de service pour des scénarios de déploiement d'appareils ou de services, tels que le stockage, la sauvegarde, la reprise après sinistre, le streaming multimédia, et fournir un débit linéaire à grande échelle et un traitement des paquets, même pour les plus grands clouds privés. Les noms des sous-réseaux de service sont les suivants :

  • service-1
  • service-2
  • service-3
  • service-4
  • service-5

Les communications entre machines virtuelles sur un sous-réseau de service quittent l'hôte VMware ESXi directement dans l'infrastructure réseau Google Cloud, ce qui permet une communication à haut débit.

Configurer des sous-réseaux de service

Lorsque VMware Engine crée un sous-réseau de service, il n'attribue pas de plage CIDR ni de préfixe. Vous devez spécifier une plage CIDR et un préfixe qui ne se chevauchent pas. La première adresse utilisable deviendra l'adresse de la passerelle. Pour allouer une plage et un préfixe CIDR, modifiez l'un des sous-réseaux de service.

Les sous-réseaux de service peuvent être mis à jour si les exigences CIDR changent. La modification d'un CIDR de sous-réseau de service existant peut perturber la disponibilité du réseau pour les VM associées à ce sous-réseau de service.

Configurer des groupes de ports distribués vSphere

Pour connecter une VM à un sous-réseau de service, vous devez créer un groupe de ports distribués. Ce groupe met en correspondance l'ID de sous-réseau de service avec un nom de réseau dans un cloud privé vCenter.

Pour ce faire, accédez à la section de configuration du réseau de l'interface vCenter, sélectionnez Datacenter-dvs, puis New Distributed Port Group (Nouveau groupe de ports distribués).

Une fois le groupe de ports distribués créé, vous pouvez associer des VM en sélectionnant le nom correspondant dans la configuration réseau des propriétés de la VM.

Voici les valeurs de configuration critiques du groupe de ports distribués :

  • Liaison de port: liaison statique
  • Allocation de ports : élastique
  • Nombre de ports: 120
  • Type de VLAN: VLAN
  • ID de VLAN : ID de sous-réseau correspondant dans la section "Sous-réseaux" de l'interface Google Cloud VMware Engine

L'unité de transmission maximale (MTU) correspond à la taille, en octets, du plus grand paquet accepté par un protocole de couche réseau. Elle inclut les en-têtes et les données. Pour éviter les problèmes liés à la fragmentation, nous vous recommandons d'utiliser les paramètres de MTU suivants.

Pour les VM qui ne communiquent qu'avec d'autres points de terminaison dans un cloud privé, vous pouvez utiliser des paramètres de MTU allant jusqu'à de 8 800 octets.

Pour les VM qui communiquent vers ou depuis un cloud privé sans encapsulation, utilisez le paramètre de MTU standard de 1 500 octets. Ce paramètre par défaut commun est valide pour les interfaces de VM qui envoient du trafic des manières suivantes :

  • d'une VM dans un cloud privé vers une VM dans un autre cloud privé
  • d'un point de terminaison sur site vers un cloud privé
  • d'une VM dans un cloud privé vers un point de terminaison sur site
  • d'Internet vers un cloud privé
  • d'une VM dans un cloud privé vers Internet

Pour les VM qui communiquent vers ou depuis un cloud privé ou avec encapsulation, calculez le paramètre de MTU optimal en fonction des configurations des points de terminaison du VPN. Cela se traduit généralement par un paramètre de MTU de 1 350 à 1 390 octets ou moins pour les interfaces de VM qui envoient du trafic des manières suivantes :

  • d'un point de terminaison sur site vers un cloud privé avec encapsulation
  • d'une VM cloud privé vers un point de terminaison sur site avec encapsulation
  • d'une VM cloud privé vers une VM dans un autre cloud privé avec encapsulation

Ces recommandations sont particulièrement importantes dans les cas où une application n'est pas en mesure de contrôler la taille de la charge utile maximale. Pour plus d'informations sur le calcul de la surcharge d'encapsulation, consultez les ressources suivantes :