Vous devez d'abord ajouter votre hôte ESXi ou l'hôte KVM à l'infrastructure NSX-T Data Center, puis configurer le nœud de transport.

Pour pouvoir faire partie de la superposition NSX-T Data Center, un hôte doit d'abord être ajouté à l'infrastructure NSX-T Data Center.

Un nœud de transport est un nœud qui participe à une superposition NSX-T Data Center ou à une mise en réseau VLAN NSX-T Data Center.

Pour un hôte KVM, vous pouvez préconfigurer le N-VDS ou laisser à NSX Manager le soin d'effectuer la configuration. Pour un hôte ESXi, NSX Manager configure toujours le N-VDS.

Note : Si vous prévoyez de créer des nœuds de transport à partir d'une machine virtuelle modèle, assurez-vous qu'il n'existe aucun certificat sur l'hôte dans /etc/vmware/nsx/. nsx-proxy ne crée pas de certificat s'il en existe déjà un.
Vous pouvez ajouter un maximum de quatre commutateurs N-VDS pour chaque configuration :
  • N-VDS standard créé pour la zone de transport VLAN
  • N-VDS amélioré créé pour la zone de transport VLAN
  • N-VDS standard créé pour la zone de transport de superposition
  • N-VDS amélioré créé pour la zone de transport de superposition

Dans une topologie de cluster à hôte unique exécutant plusieurs commutateurs N-VDS standard de superposition et machines virtuelles Edge sur le même hôte, NSX-T Data Center offre une isolation du trafic telle que le trafic transitant par le premier N-VDS est isolé du trafic transitant par le deuxième N-VDS. Les cartes réseau physiques sur chaque N-VDS doivent être mappées sur la machine virtuelle Edge sur l'hôte pour permettre la connectivité du trafic nord-sud avec le monde externe. Les paquets sortant d'une machine virtuelle sur la première zone de transport doivent être routés via un routeur externe ou une machine virtuelle externe vers la machine virtuelle sur la deuxième zone de transport.

Conditions préalables

  • L'hôte doit être associé au plan de gestion et la connectivité doit être active.
  • Le service de proxy inverse sur tous les nœuds du cluster NSX Manager doit être ACTIVÉ et en cours d'exécution.

    Pour vérifier, exécutez get service http. Si le service est en panne, redémarrez-le en exécutant restart service http sur chaque nœud de NSX Manager. Si le service est toujours en panne, contactez le support VMware.

  • Une zone de transport doit être configurée.
  • Un profil de liaison montante doit être configuré ou vous pouvez utiliser le profil de liaison montante par défaut.
  • Un pool d'adresses IP doit être configuré, ou un serveur DHCP doit être disponible dans le déploiement de réseau.
  • Au moins une carte réseau physique non utilisée doit être disponible sur le nœud hôte.
  • Nom d'hôte
  • Adresse IP de gestion
  • Nom d'utilisateur
  • Mot de passe
  • (Facultatif) (KVM) Empreinte numérique SHA-256 SSL
  • (Facultatif) (ESXi) Empreinte numérique SHA-256 SSL
  • Vérifiez que les modules tiers requis sont installés.

Procédure

  1. (Facultatif) Récupérez l'empreinte numérique de l'hyperviseur de manière à pouvoir la fournir lors de l'ajout de l'hôte à l'infrastructure.
    1. Rassemblez les informations d'empreinte numérique de l'hyperviseur.
      Utilisez un shell Linux.
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      Utilisez l'interface de ligne de commande ESXi de l'hôte.
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. Récupérez l'empreinte numérique SHA-256 d'un hyperviseur KVM ; pour cela, exécutez la commande dans l'hôte KVM.
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. (NSX-T Data Center 3.2.1 et versions antérieures) Sélectionnez Système → Infrastructure → Nœuds > Nœuds de transport hôtes.
  3. (NSX-T Data Center 3.2.1 et versions antérieures) Dans le champ Géré par, sélectionnez Hôtes autonomes et cliquez sur + Ajouter un nœud hôte.
  4. (NSX-T Data Center 3.2.2) Sélectionnez Système → Infrastructure → Hôtes.
  5. (NSX-T Data Center 3.2.2) Sélectionnez l'onglet Autonome et cliquez sur + Ajouter un nœud hôte.
  6. Sur la page Détails de l'hôte, entrez les détails des champs suivants.
    Option Description
    Nom Entrez un nom pour identifier l'hôte autonome.
    Adresses IP Saisissez l'adresse IP de l'hôte.
    Système d'exploitation Sélectionnez le système d'exploitation dans le menu déroulant.

    Selon votre hôte, vous pouvez sélectionner n'importe lequel des systèmes d'exploitation pris en charge. Reportez-vous à la section Configuration système requise.

    Nom d'utilisateur et mot de passe Entrez le nom d'utilisateur et le mot de passe de l'hôte.
    Empreinte numérique SHA-256 Entrez la valeur d'empreinte de l'hôte pour l'authentification.

    Si vous laissez la valeur d'empreinte vide, vous êtes invité à accepter la valeur fournie par le serveur. Il faut quelques secondes à NSX-T Data Center pour détecter et authentifier l'hôte.

    Description (Facultatif) Ajoutez une description pour l'hôte.
    Balises Ajoutez des balises et définissez l'étendue des balises.
  7. (Requis) Pour un hôte KVM, sélectionnez le type de N-VDS.
    Option Description
    NSX créé NSX Manager crée le N-VDS.

    Cette option est sélectionnée par défaut.

    Préconfiguré Le N-VDS est déjà configuré.
    Pour un hôte ESXi, le type de N-VDS est toujours défini sur NSX créé.
  8. Dans l'onglet Préparer l'hôte, configurez le commutateur d'hôte utilisé pour préparer l'hôte autonome. Vous pouvez configurer plusieurs commutateurs N-VDS sur un seul hôte.
  9. Cliquez sur Ajouter un commutateur d'hôte et sélectionnez NVDS.
    Option Description
    Nom Entrez un nom pour le commutateur d'hôte NVDS.
    Mode Sélectionnez le mode d'utilisation du commutateur NVDS.
    • Standard
    • Chemin de données optimisé
    • Interruption ENS
    Zone de transport Dans le menu déroulant, sélectionnez une zone de transport qui s'étend sur ce nœud de transport.
    Profil de liaison montante Sélectionnez un profil de liaison montante existant dans le menu déroulant ou créez un profil de liaison montante personnalisé. Vous pouvez également utiliser le profil de liaison montante par défaut.

    Plusieurs commutateurs d'hôte N-VDS sur un nœud de transport peuvent appartenir au même segment VLAN ou pool VTEP, ou ils peuvent appartenir à différents segments VLAN ou pools d'adresses IP VTEP.

    La configuration de différents segments VLAN de transport pour différents commutateurs d'hôte N-VDS permet également d'isoler le trafic supplémentaire dans la sous-couche.

    Profil NIOC Sélectionnez le profil NIOC qui sera appliqué au commutateur hôte.
    Profil LLDP Par défaut, NSX-T reçoit uniquement les paquets LLDP d'un voisin LLDP.

    Toutefois, NSX-T peut être réglé pour envoyer des paquets LLDP à un voisin LLDP et pour en recevoir de sa part.

    Mappage de liaison montante de stratégie d'association

    Mappez des liaisons montantes aux cartes réseau physiques. Si NSX Manager ne peut pas extraire les cartes réseau physiques de l'hôte, entrez manuellement la carte réseau pour terminer le mappage.

    Migration de carte réseau physique uniquement

    Avant de configurer ce champ, tenez compte des points suivants :

    • Déterminez si la carte réseau physique définie est une carte réseau utilisée ou une carte réseau libre.
    • Déterminez si les interfaces VMkernel d'un hôte doivent être migrées en même temps que les cartes réseau physiques.

    Définissez les champs comme suit :

    • Activez Migration de carte réseau physique uniquement si vous souhaitez uniquement migrer des cartes réseau physiques d'un commutateur VSS ou DVS vers un commutateur N-VDS.

    • Désactivez Migration de carte réseau physique uniquement si vous souhaitez migrer une carte réseau physique utilisée et son mappage d'interface VMkernel associé. Une carte réseau physique libre ou disponible est connectée au commutateur N-VDS lorsqu'un mappage de migration d'interface VMkernel est spécifié.

    Sur un hôte avec plusieurs commutateurs hôtes :
    • Si tous les commutateurs hôtes doivent migrer uniquement des cartes réseau physiques, vous pouvez migrer ces cartes en une seule opération.
    • Si certains commutateurs hôtes doivent migrer des interfaces VMkernel et les autres commutateurs hôtes doivent migrer uniquement des cartes réseau physiques :
      1. Lors de la première opération, migrez uniquement les cartes réseau physiques.
      2. Lors de la deuxième opération, migrez les interfaces VMkernel. Assurez-vous que Migration de carte réseau physique uniquement est désactivé.

    La migration de carte réseau physique uniquement et la migration d'interface VMkernel ne sont pas prises en charge simultanément sur plusieurs hôtes.

    Note : Pour migrer une carte du réseau de gestion, configurez son mappage de réseau VMkernel associé et conservez Migration de carte réseau physique uniquement désactivé. Si vous migrez uniquement la carte réseau de gestion, l'hôte perd la connectivité.

    Pour plus d'informations, consultez Migration de VMkernel vers un commutateur N-VDS.

    Mappages de réseau pour l'installation

    Cliquez sur Définir, puis sur Ajouter.

    Mappez l'adaptateur VMkernel ou l'adaptateur physique à des segments VLAN et cliquez sur Appliquer.
    • Dans le menu déroulant Adaptateur VMkernel, sélectionnez Adaptateur VMkernel.
    • Dans le menu déroulant Segments VLAN, sélectionnez Segment VLAN.

    NSX Manager migre les adaptateurs VMkernel vers le segment VLAN mappé sur N-VDS.

    Attention : Assurez-vous que la carte réseau de gestion et l'interface VMkernel de gestion sont migrées vers un segment qui est connecté au même VLAN que celui auquel la carte réseau de gestion était connectée avant la migration. Si vmnic <n> et VMkernel <n> sont migrés vers un VLAN différent, la connectivité à l'hôte est perdue.
    Attention : Pour les cartes réseau physiques liées, assurez-vous que le mappage du commutateur hôte de la carte réseau physique à une interface VMkernel correspond à la configuration spécifiée dans le profil de nœud de transport. Dans le cadre de la procédure de validation, NSX-T Data Center vérifie le mappage et si la validation réussit, la migration d'interfaces VMkernel vers un commutateur N-VDS réussit également. Il est également obligatoire de configurer le mappage réseau pour la désinstallation, car NSX-T Data Center ne stocke pas la configuration de mappage du commutateur hôte après la migration des interfaces VMkernel vers le commutateur N-VDS. Si le mappage n'est pas configuré, la connectivité aux services, tels que vSAN, peut être perdue après la migration de restauration vers le commutateur VSS ou VDS.
    Mappages de réseau pour la désinstallation

    Cliquez sur Définir.

    Pour restaurer la migration des VMkernel attachés à un commutateur N-VDS lors de la désinstallation. Mappez les VMkernel aux groupes de ports sur VSS ou DVS, afin que NSX Manager sache vers quel groupe de ports VMkernel doit être migré de nouveau sur le VSS ou le DVS. Pour un commutateur DVS, assurez-vous que le groupe de ports est de type Éphémère.

    Pour restaurer la migration des VMkernel attachés à un groupe de ports NSX-T créé sur un vSphere Distributed Switch (VDS) lors de la désinstallation, mappez les VMkernel aux groupes de ports sur VSS ou DVS, afin que NSX Manager sache vers quel groupe de ports le VMkernel doit être remigré sur le VSS ou le DVS. Pour un commutateur DVS, assurez-vous que le groupe de ports est de type Éphémère.

    Ajoutez les mappages VMKNIC à PortGroup et cliquez sur Appliquer.
    • Dans le champ Adaptateur VMkernel, entrez le nom de l'adaptateur VMkernel.
    • Dans le champ PortGroup, entrez le nom du groupe de ports de type Éphémère.
    Ajoutez la carte réseau physique aux mappages de profil de liaison montante et cliquez sur Appliquer.
    • Dans le champ Cartes réseaux physiques, entrez le nom de la carte réseau physique.
    • Dans le champ Liaison montante, entrez le nom de la liaison montante.
    Attention : Pour les cartes réseau physiques liées, assurez-vous que le mappage du profil du nœud de transport de la carte réseau physique à l'interface VMkernel correspond à la configuration spécifiée dans le commutateur hôte. Il est obligatoire de configurer le mappage réseau pour la désinstallation, car NSX-T Data Center ne stocke pas la configuration de mappage du commutateur hôte après la migration des interfaces VMkernel vers le commutateur N-VDS. Si le mappage n'est pas configuré, la connectivité aux services, tels que vSAN, peut être perdue après la migration de restauration vers le commutateur VSS ou VDS.
  10. Pour un N-VDS préconfiguré, indiquez les informations suivantes.
    Option Description
    ID externe du N-VDS Il doit être identique à celui du N-VDS de la zone de transport à laquelle ce nœud appartient.
    Zone de transport Dans le menu déroulant, sélectionnez une zone de transport qui s'étend sur ce nœud de transport.
    VTEP Nom du point de terminaison du tunnel virtuel pour que les nœuds de transport communiquent sur un réseau de superposition.
  11. Observez l'état de la connexion sur la page Autonome. Pendant le processus de configuration, chaque nœud de transport affiche le pourcentage de progression du processus d'installation. Si l'installation échoue à un moment donné, vous pouvez redémarrer le processus en cliquant sur le lien Résoudre disponible en face de l'étape en échec du processus.
    Après l'ajout de l'hôte en tant que nœud de transport, l'état de la connexion à NSX Manager s'affiche comme ACTIF uniquement après que l'hôte a été créé avec succès en tant que nœud de transport.
    Note : Une fois le nœud de transport créé, si vous souhaitez modifier la configuration du N-VDS telle que l'attribution IP sur le point de terminaison de tunnel, vous devez le faire via l'interface utilisateur graphique de NSX Manager et non via l'interface de la CLI de l'hôte.
  12. (Facultatif) Sur les hôtes KVM, si la création du nœud de transport échoue en raison de la tentative d'accès de plusieurs processus à la commande dpkg, sélectionnez l'hôte et cliquez sur Réessayer pour redémarrer la création du nœud de transport.
  13. Vous pouvez également afficher l'état de connexion à l'aide des commandes CLI.
    • Pour ESXi, entrez la commande esxcli network ip connection list | grep 1234.
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLISHED  1000144459  newreno  nsx-cfgagent
       
      
    • Pour KVM, entrez la commande netstat -anp --tcp | grep 1234.
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   ESTABLISHED -
    • Pour Windows, à partir d'une invite de commande, entrez netstat | find "1234"
    • Pour Windows, à partir d'une invite de commande, entrez netstat | find "1235"
  14. Vérifiez que les modules NSX-T Data Center sont installés sur votre hôte.
    Lorsqu'un hôte est ajouté à l'infrastructure NSX-T Data Center, un ensemble de modules NSX-T Data Center sont installés sur l'hôte.

    Les modules sur des différents hôtes sont regroupés comme suit :

    • KVM sur RHEL, CentOS, Oracle Linux ou SUSE - RPM.
    • KVM sur Ubuntu - DEB
    • Sur ESXi, entrez la commande esxcli software vib list | grep nsx.

      La date est le jour où vous avez effectué l'installation.

    • Sur RHEL, CentOS ou Oracle Linux, entrez la commande yum list installed ou rpm -qa.
    • Sur Ubuntu, entrez la commande dpkg --get-selections.
    • Sur SUSE, entrez la commande rpm -qa | grep nsx.
    • Sous Windows, ouvrez le Gestionnaire des tâches. Ou, à partir de la ligne de commande, entrez tasklist /V | grep nsx findstr “nsx ovs
  15. (Facultatif) Modifiez les intervalles d'interrogation de certains processus, si vous disposez de 500 hyperviseurs ou plus.
    NSX Manager peut rencontrer des problèmes de performances et d'utilisation élevée de CPU s'il y a plus de 500 hyperviseurs.
    1. Utilisez la commande CLI NSX-T Data Center copy file ou l'API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file pour copier le script aggsvc_change_intervals.py sur un hôte.
    2. Exécutez le script, qui se trouve dans le magasin de fichiers NSX-T Data Center.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (Facultatif) Rétablissez les valeurs par défaut des intervalles d'interrogation.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

Résultats

L'hôte autonome est configuré en tant que nœud de transport.
Important : Si vous déplacez un nœud de transport autonome vers un cluster auquel un profil de nœud de transport est appliqué, NSX-T Data Center donne la priorité au profil de nœud de transport appliqué au cluster et remplace la configuration du nœud de transport autonome. Si les cartes vmnic sur le cluster et l'hôte autonome sont différentes, la connectivité au transport autonome peut être potentiellement perdue.

Que faire ensuite

Migrez les interfaces réseau à partir d'un commutateur vSphere standard vers un commutateur N-VDS. Reportez-vous à la section Migration de VMkernel vers un commutateur N-VDS.