Lorsqu'un commutateur logique NSX-T Data Center requiert une connexion de couche 2 vers un groupe de ports sauvegardé par VLAN ou s'il a besoin d'atteindre un autre périphérique, tel qu'une passerelle, qui réside en dehors d'un déploiement de NSX-T Data Center, vous pouvez utiliser un pont de couche 2 NSX-T Data Center. Cela est particulièrement utile dans un scénario de migration dans lequel vous devez diviser un sous-réseau entre des charges de travail physiques et virtuelles.

Les concepts de NSX-T Data Center impliqués dans le pontage de couche 2 sont des clusters de pont, des points de terminaison de pont et des nœuds de pont. Un cluster de pont est un ensemble de nœuds de pont de haute disponibilité (HA). Un nœud de pont est un nœud de transport qui sert au pontage. Chaque commutateur logique utilisé pour le pontage d'un déploiement virtuel et physique dispose d'un ID de VLAN associé. Un point de terminaison de pont identifie les attributs physiques du pont, tels que l'ID de cluster du pont et l'ID de VLAN associé.

Vous pouvez configurer le pontage de couche 2 à l'aide de nœuds de transport hôtes ESXi ou de nœuds de transport NSX Edge. Pour utiliser des nœuds de transport hôtes ESXi pour le pontage, vous créez un cluster de pont. Pour utiliser des nœuds de transport NSX Edge pour le pontage, vous créez un profil de pont.

Dans l'exemple suivant, deux nœuds de transport NSX-T Data Center font partie de la même zone de transport de superposition. Cela permet d'attacher les commutateurs virtuels distribués (N-VDS, auparavant appelé commutateur hôte) gérés par NSX au même commutateur logique sauvegardé par pont.

Figure 1. Topologie du pont
topologie de pont indiquant un nœud de pont, un nœud de transport et un nœud externe NSX

Le nœud de transport de gauche appartient à un cluster de pont ; il s'agit donc d'un nœud de pont.

Comme le commutateur logique est attaché à un cluster de pont, il est appelé commutateur logique sauvegardé par pont. Pour pouvoir être sauvegardé par pont, un commutateur logique doit se trouver dans une zone de transport de superposition, pas dans une zone de transport VLAN.

Le nœud de transport du milieu ne fait pas partie du cluster de pont. Il s'agit d'un nœud de transport normal. Il peut s'agir d'un hôte KVM ou ESXi. Dans le schéma, une VM sur ce nœud appelée « VM d'app » est attachée au commutateur logique sauvegardé par pont.

Le nœud de droite ne fait pas partie de la superposition NSX-T Data Center. Il peut s'agir de n'importe quel hyperviseur avec une VM (comme indiqué sur le schéma) ou d'un nœud de réseau physique. Si le nœud non-NSX-T Data Center est un hôte ESXi, vous pouvez utiliser un vSwitch standard ou un commutateur distribué vSphere pour l'attachement de port. Il est requis que l'ID de VLAN associé à l'attachement de port corresponde à celui sur le commutateur logique sauvegardé par pont. De plus, la communication a lieu sur la couche 2, donc les deux périphériques finaux doivent avoir des adresses IP sur le même sous-réseau.

Comme indiqué, l'objectif du pont est d'activer la communication de couche 2 entre les deux VM. Lorsque le trafic est transmis entre les deux VM, il traverse le nœud de pont.

Note : Lorsque vous utilisez des machines virtuelles Edge s'exécutant sur un hôte ESXi pour fournir le pontage de couche 2, le groupe de ports sur le commutateur standard ou distribué qui envoie et reçoit le trafic du côté du VLAN doit être en mode Promiscuité. Pour des performances optimales, notez les points suivants :
  • Vous ne devez pas avoir d'autres groupes de ports en mode Promiscuité sur le même hôte partageant le même ensemble de VLAN.
  • Les machines virtuelles Edge actives et en veille doivent se trouver sur des hôtes différents. Si elles se trouvent sur le même hôte, le débit peut chuter à 7 Gbits/s, car le trafic VLAN doit être transféré aux deux machines virtuelles en mode Promiscuité.