Le mode Chemin de données optimisé est un mode de pile de mise en réseau qui, lorsqu'il est configuré, améliore les performances réseau. Il est principalement destiné aux charges de travail NFV, qui offrent des avantages en matière de performances en exploitant la fonctionnalité DPDK.

Le commutateur N-VDS ne peut être configuré dans le mode de chemin de données optimisé que sur un hôte ESXi. ENS prend également en charge le trafic circulant à travers les machines virtuelles Edge.

En mode de chemin de données optimisé, les deux modes de trafic sont pris en charge :

  • Trafic de superposition
  • Trafic VLAN

Cartes réseau VMkernel prises en charge

Avec NSX-T Data Center prenant en charge plusieurs commutateurs hôtes ENS, le nombre maximal de cartes réseau VMkernel prises en charge par hôte est 32.

Processus de haut niveau de configuration du chemin de données optimisé

En tant qu'administrateur réseau, avant de créer des zones de transport prenant en charge N-VDS en mode de chemin de données optimisé, vous devez préparer le réseau avec les cartes et les pilotes réseau pris en charge. Pour améliorer les performances réseau, vous pouvez permettre à la stratégie d'association de source d'équilibreur de charge de reconnaître le nœud NUMA.

Les étapes de haut niveau sont les suivantes :

  1. Utilisez des cartes réseau qui prennent en charge le mode de chemin de données optimisé.

    Reportez-vous au Guide de compatibilité VMware pour savoir quelles cartes réseau prennent en charge le mode de chemin de données optimisé.

    Sur la page Guide de compatibilité VMware, sous la catégorie de Périphériques d'E/S, sélectionnez ESXi 6.7, Type de périphérique d'E/S comme Réseau et Fonctionnalité comme Chemin de données optimisé N-VDS.

  2. Téléchargez et installez les derniers pilotes de carte réseau depuis la page My VMware.
    1. Accédez à Pilotes et outils > CD de pilote.
    2. Téléchargez des pilotes de cartes réseau :

      Pilote de carte réseau VMware ESXi 6.7 ixgben-ens 1.1.3 pour les contrôleurs Intel Ethernet de la gamme 82599, x520, x540, x550 et x552

      Pilote de carte réseau VMware ESXi 6.7 i40en-ens 1.1.3 pour les contrôleurs Intel Ethernet de la gamme X710, XL710, XXV710 et X722

    3. Pour utiliser l'hôte comme hôte ENS, au moins une carte réseau compatible ENS doit être disponible sur le système. En l'absence de cartes réseau compatibles ENS, le plan de gestion n'autorise pas l'ajout d'hôtes aux zones de transport ENS.
    4. Répertoriez le pilote ENS.

      esxcli software vib list | grep -E "i40|ixgben"

    5. Vérifiez si la carte réseau est capable de traiter le trafic du chemin de données d'ENS.
      esxcfg-nics -e
      Name    Driver   ENS Capable   ENS Driven    MAC Address       Description                   
      vmnic0  ixgben   True          False         e4:43:4b:7b:d2:e0 Intel(R) Ethernet Controller X550
      vmnic1  ixgben   True          False         e4:43:4b:7b:d2:e1 Intel(R) Ethernet Controller X550
      vmnic2  ixgben   True          False         e4:43:4b:7b:d2:e2 Intel(R) Ethernet Controller X550
      vmnic3  ixgben   True          False         e4:43:4b:7b:d2:e3 Intel(R) Ethernet Controller X550
      vmnic4  i40en    True          False         3c:fd:fe:7c:47:40 Intel(R) Ethernet Controller X710/X557-AT 10GBASE-T
      vmnic5  i40en    True          False         3c:fd:fe:7c:47:41 Intel(R) Ethernet Controller X710/X557-AT 10GBASE-T
      vmnic6  i40en    True          False         3c:fd:fe:7c:47:42 Intel(R) Ethernet Controller X710/X557-AT 10GBASE-T
      vmnic7  i40en    True          False         3c:fd:fe:7c:47:43 Intel(R) Ethernet Controller X710/X557-AT 10GBASE-T
    6. Installez le pilote ENS.

      esxcli software vib install -v file:///<DriverInstallerURL> --no-sig-check

    7. Vous pouvez également télécharger le pilote sur le système et l'installer.

      wget <DriverInstallerURL>

      esxcli software vib install -v file:///<DriverInstallerURL> --no-sig-check

    8. Redémarrez l'hôte pour charger le pilote. Passez à l'étape suivante.
    9. Pour décharger le pilote, procédez comme suit :

      vmkload_mod -u i40en

      ps | grep vmkdevmgr

      kill -HUP "$(ps | grep vmkdevmgr | awk {'print $1'})"

      ps | grep vmkdevmgr

      kill -HUP <vmkdevmgrProcessID>

      kill -HUP "$(ps | grep vmkdevmgr | awk {'print $1'})"

    10. Pour désinstaller le pilote ENS, esxcli software vib remove --vibname=i40en-ens --force --no-live-install.
  3. Créez une stratégie de liaison montante.

    Reportez-vous à la section Créer un profil de liaison montante.

  4. Créez une zone de transport avec N-VDS en mode de chemin de données optimisé.

    Reportez-vous à la section Créer des zones de transport.

    Note : Zones de transport ENS configurées pour le trafic de superposition : pour une machine virtuelle Microsoft Windows exécutant une version de VMware Tools antérieure à la version 11.0.0 et lorsque le type vNIC est VMXNET3, assurez-vous que le MTU est défini sur 1500. Pour une machine virtuelle Microsoft Windows exécutant vSphere 6.7 U1 et VMware Tools 11.0.0 et versions ultérieures, assurez-vous que le MTU est défini sur une valeur inférieure à 8900. Pour les machines virtuelles exécutant d'autres systèmes d'exploitation pris en charge, assurez-vous que le MTU de la machine virtuelle est défini sur une valeur inférieure à 8900.
  5. Créez un nœud de transport d'hôte. Configurez le N-VDS en mode de chemin de données optimisé avec des cœurs logiques et des nœuds NUMA.

    Reportez-vous à la section Créer un nœud de transport d'hôte autonome ou de serveur bare metal.

Mode de stratégie d'association de source d'équilibreur de charge prenant en charge NUMA

Le mode de stratégie d'association d'équilibreur de charge défini pour un chemin de données optimisé N-VDS prend en charge NUMA lorsque les conditions suivantes sont réunies :
  • La Sensibilité de latence sur les machines virtuelles est Élevée.

  • Le type d'adaptateur réseau utilisé est VMXNET3.

Si l'emplacement de nœud NUMA de la machine virtuelle ou de la carte réseau physique n'est pas disponible, la stratégie d'association de source d'équilibreur de charge ne tient pas compte pas de la prise en charge de NUMA pour aligner des machines virtuelles et des cartes réseau.

La stratégie d'association fonctionne sans prise en charge de NUMA dans les conditions suivantes :
  • La liaison montante LAG est configurée avec des liens physiques de plusieurs nœuds NUMA.
  • La machine virtuelle bénéficie d'une affinité à plusieurs nœuds NUMA.
  • L'hôte ESXi n'a pas pu définir les informations NUMA pour une machine virtuelle ou des liens physiques.

Prise en charge d'ENS pour les applications nécessitant la fiabilité du trafic

Les charges de travail NFV peuvent utiliser les fonctionnalités d'hébergement multiple et de redondance fournies par le protocole SCTP (Stream Control Transmission Protocol) pour augmenter la résilience et la fiabilité du trafic exécuté sur les applications. L'hébergement multiple est la capacité de prendre en charge des chemins redondants entre une machine virtuelle source et une machine virtuelle de destination.

Selon le nombre de cartes réseau physiques disponibles pour être utilisées comme liaison montante pour un réseau de superposition ou un VLAN, ces différents chemins réseau redondants sont disponibles pour permettre à une machine virtuelle d'envoyer le trafic à la machine virtuelle cible. Les chemins redondants sont utilisés lorsque la carte réseau physique liée à un commutateur logique est défaillante. Le commutateur de chemin de données optimisé fournit des chemins réseau redondants entre les hôtes.

Figure 1. Hébergement multiple et redondance du trafic sur ENS

Les tâches de haut niveau sont les suivantes :

  1. Préparer l'hôte comme nœud de transport NSX-T Data Center.
  2. Préparer le VLAN ou la zone de transport de superposition avec deux commutateurs N-VDS en mode de chemin de données optimisé.
  3. Sur le N-VDS 1, lier la première carte réseau physique au commutateur.
  4. Sur le N-VDS 2, lier la deuxième carte réseau physique au commutateur.

Le N-VDS en mode de chemin de données optimisé garantit que si la carte réseau physique 1 (pNIC1) devient indisponible, le trafic provenant de la machine virtuelle 1 est acheminé via le chemin redondant - vNIC 1 → point de terminaison de tunnel 2 → pNIC 2 → VM 2.