Vous devez d'abord ajouter votre hôte ESXi ou l'hôte KVM à l'infrastructure NSX-T Data Center, puis configurer le nœud de transport.

Pour pouvoir faire partie de la superposition NSX-T Data Center, un hôte doit d'abord être ajouté à l'infrastructure NSX-T Data Center.

Un nœud de transport est un nœud qui participe à une superposition NSX-T Data Center ou à une mise en réseau VLAN NSX-T Data Center.

Pour un hôte KVM, vous pouvez préconfigurer le N-VDS ou laisser à NSX Manager le soin d'effectuer la configuration. Pour un hôte ESXi, NSX Manager configure toujours le N-VDS.

Note : Si vous prévoyez de créer des nœuds de transport à partir d'une machine virtuelle modèle, assurez-vous qu'il n'existe aucun certificat sur l'hôte dans /etc/vmware/nsx/. nsx-proxy ne crée pas de certificat s'il en existe déjà un.
Vous pouvez ajouter un maximum de quatre commutateurs N-VDS pour chaque configuration :
  • N-VDS standard créé pour la zone de transport VLAN
  • N-VDS amélioré créé pour la zone de transport VLAN
  • N-VDS standard créé pour la zone de transport de superposition
  • N-VDS amélioré créé pour la zone de transport de superposition

Dans une topologie de cluster à hôte unique exécutant plusieurs commutateurs N-VDS standard de superposition et machines virtuelles Edge sur le même hôte, NSX-T Data Center offre une isolation du trafic telle que le trafic transitant par le premier N-VDS est isolé du trafic transitant par le deuxième N-VDS. Les cartes réseau physiques sur chaque N-VDS doivent être mappées sur la machine virtuelle Edge sur l'hôte pour permettre la connectivité du trafic nord-sud avec le monde externe. Les paquets sortant d'une machine virtuelle sur la première zone de transport doivent être routés via un routeur externe ou une machine virtuelle externe vers la machine virtuelle sur la deuxième zone de transport.

Conditions préalables

  • L'hôte doit être associé au plan de gestion et la connectivité doit être active.
  • Le service de proxy inverse sur tous les nœuds du cluster NSX Manager doit être ACTIVÉ et en cours d'exécution.

    Pour vérifier, exécutez get service http. Si le service est en panne, redémarrez-le en exécutant restart service http sur chaque nœud de NSX Manager. Si le service est toujours en panne, contactez le support VMware.

  • Une zone de transport doit être configurée.
  • Un profil de liaison montante doit être configuré ou vous pouvez utiliser le profil de liaison montante par défaut.
  • Un pool d'adresses IP doit être configuré, ou un serveur DHCP doit être disponible dans le déploiement de réseau.
  • Au moins une carte réseau physique non utilisée doit être disponible sur le nœud hôte.
  • Nom d'hôte
  • Adresse IP de gestion
  • Nom d'utilisateur
  • Mot de passe
  • (Facultatif) (KVM) Empreinte numérique SHA-256 SSL
  • (Facultatif) (ESXi) Empreinte numérique SHA-256 SSL
  • Vérifiez que les modules tiers requis sont installés.

Procédure

  1. (Facultatif) Récupérez l'empreinte numérique de l'hyperviseur de manière à pouvoir la fournir lors de l'ajout de l'hôte à l'infrastructure.
    1. Rassemblez les informations d'empreinte numérique de l'hyperviseur.
      Utilisez un shell Linux.
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      Utilisez l'interface de ligne de commande ESXi de l'hôte.
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. Récupérez l'empreinte numérique SHA-256 d'un hyperviseur KVM ; pour cela, exécutez la commande dans l'hôte KVM.
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. Sélectionnez Système > Infrastructure > Nœuds > Nœuds de transport hôtes.
  3. Dans le champ Géré par, sélectionnez Hôtes autonomes et cliquez sur + Ajouter un nœud hôte.
  4. Sur la page Détails de l'hôte, entrez les détails des champs suivants.
    Option Description
    Nom et description Entrez un nom pour identifier l'hôte autonome.

    Vous pouvez éventuellement ajouter la description du système d'exploitation utilisé pour l'hôte.

    Adresses IP Saisissez l'adresse IP de l'hôte.
    Système d'exploitation Sélectionnez le système d'exploitation dans le menu déroulant.

    Selon votre hôte, vous pouvez sélectionner n'importe lequel des systèmes d'exploitation pris en charge. Reportez-vous à la section Configuration système requise.

    Nom d'utilisateur et mot de passe Entrez le nom d'utilisateur et le mot de passe de l'hôte.
    Empreinte numérique SHA-256 Entrez la valeur d'empreinte de l'hôte pour l'authentification.

    Si vous laissez la valeur d'empreinte vide, vous êtes invité à accepter la valeur fournie par le serveur. Il faut quelques secondes à NSX-T Data Center pour détecter et authentifier l'hôte.

  5. (Requis) Pour un hôte KVM, sélectionnez le type de N-VDS.
    Option Description
    NSX créé NSX Manager crée le N-VDS.

    Cette option est sélectionnée par défaut.

    Préconfiguré Le N-VDS est déjà configuré.
    Pour un hôte ESXi, le type de N-VDS est toujours défini sur Créé par NSX.
  6. Sur la page Configurer NSX, entrez les détails des champs suivants. Vous pouvez configurer plusieurs commutateurs N-VDS sur un seul hôte.
    Option Description
    Nom Entrez un nom pour le commutateur hôte N-VDS.
    Zone de transport Dans le menu déroulant, sélectionnez une zone de transport pour ce nœud de transport.
    Profil de liaison montante Sélectionnez un profil de liaison montante existant dans le menu déroulant ou créez un profil de liaison montante personnalisé. Vous pouvez également utiliser le profil de liaison montante par défaut.

    Plusieurs commutateurs d'hôte N-VDS sur un nœud de transport peuvent appartenir au même segment VLAN ou pool VTEP, ou ils peuvent appartenir à différents segments VLAN ou pools d'adresses IP VTEP.

    La configuration de différents segments VLAN de transport pour différents commutateurs d'hôte N-VDS permet également d'isoler le trafic supplémentaire dans la sous-couche.

    Profil LLDP Par défaut, NSX-T reçoit uniquement les paquets LLDP d'un voisin LLDP.

    Toutefois, NSX-T peut être réglé pour envoyer des paquets LLDP à un voisin LLDP et pour en recevoir de sa part.

    Mappage entre liaisons montantes et cartes réseau physiques

    Mappez des liaisons montantes aux cartes réseau physiques.

  7. Pour un N-VDS préconfiguré, indiquez les informations suivantes.
    Option Description
    ID externe du N-VDS Il doit être identique à celui du N-VDS de la zone de transport à laquelle ce nœud appartient.
    VTEP Nom du point de terminaison de tunnel virtuel.
  8. Visualisez l'état de connexion sur la page Nœuds de transport hôtes. Pendant le processus de configuration, chaque nœud de transport affiche le pourcentage de progression du processus d'installation. Si l'installation échoue à un moment donné, vous pouvez redémarrer le processus en cliquant sur le lien Résoudre disponible en face de l'étape en échec du processus.
    Après l'ajout de l'hôte en tant que nœud de transport, l'état de la connexion à NSX Manager s'affiche comme ACTIF uniquement après que l'hôte a été créé avec succès en tant que nœud de transport.
  9. Vous pouvez également afficher l'état de connexion à l'aide des commandes CLI.
    • Pour ESXi, entrez la commande esxcli network ip connection list | grep 1234.
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLISHED  1000144459  newreno  nsx-cfgagent
       
      
    • Pour KVM, entrez la commande netstat -anp --tcp | grep 1234.
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   ESTABLISHED -
    • Pour Windows, à partir d'une invite de commande, entrez netstat | find "1234"
    • Pour Windows, à partir d'une invite de commande, entrez netstat | find "1235"
  10. Vérifiez que les modules NSX-T Data Center sont installés sur votre hôte.
    Lorsqu'un hôte est ajouté à l'infrastructure NSX-T Data Center, un ensemble de modules NSX-T Data Center sont installés sur l'hôte.

    Les modules sur des différents hôtes sont regroupés comme suit :

    • KVM sur RHEL, CentOS, Oracle Linux ou SUSE - RPM.
    • KVM sur Ubuntu - DEB
    • Sur ESXi, entrez la commande esxcli software vib list | grep nsx.

      La date est le jour où vous avez effectué l'installation.

    • Sur RHEL, CentOS ou Oracle Linux, entrez la commande yum list installed ou rpm -qa.
    • Sur Ubuntu, entrez la commande dpkg --get-selections.
    • Sur SUSE, entrez la commande rpm -qa | grep nsx.
    • Sous Windows, ouvrez le Gestionnaire des tâches. Ou, à partir de la ligne de commande, entrez tasklist /V | grep nsx findstr “nsx ovs
  11. (Facultatif) Modifiez les intervalles d'interrogation de certains processus, si vous disposez de 500 hyperviseurs ou plus.
    NSX Manager peut rencontrer des problèmes de performances et d'utilisation élevée de CPU s'il y a plus de 500 hyperviseurs.
    1. Utilisez la commande CLI NSX-T Data Center copy file ou l'API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file pour copier le script aggsvc_change_intervals.py sur un hôte.
    2. Exécutez le script, qui se trouve dans le magasin de fichiers NSX-T Data Center.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (Facultatif) Rétablissez les valeurs par défaut des intervalles d'interrogation.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

Résultats

Note : Pour un N-VDS créé par NSX-T Data Center, une fois le nœud de transport créé, si vous souhaitez modifier la configuration, telle que l'attribution IP au point de terminaison de tunnel, vous devez le faire via l'interface utilisateur graphique de NSX Manager et non via l'interface de ligne de commande de l'hôte.

Que faire ensuite

Migrez les interfaces réseau à partir d'un commutateur vSphere standard vers un commutateur N-VDS. Reportez-vous à la section Migration de VMkernel vers un commutateur N-VDS.