Vous devez d'abord ajouter votre hôte ESXi, l'hôte KVM ou le serveur bare metal à l'infrastructure NSX-T Data Center puis configurer le nœud de transport.

Pour pouvoir faire partie de la superposition NSX-T Data Center, un hôte ou un serveur bare metal doit d'abord être ajouté à l'infrastructure NSX-T Data Center.

Un nœud de transport est un nœud qui participe à une superposition NSX-T Data Center ou à une mise en réseau VLAN NSX-T Data Center.

Pour un hôte KVM ou un serveur bare metal, vous pouvez préconfigurer le N-VDS ou laisser à NSX Manager le soin d'effectuer la configuration. Pour un hôte ESXi, NSX Manager configure toujours le N-VDS.

Note : Si vous prévoyez de créer des nœuds de transport à partir d'une machine virtuelle modèle, assurez-vous qu'il n'existe aucun certificat sur l'hôte dans /etc/vmware/nsx/. nsx-proxy ne crée pas de certificat s'il en existe déjà un.

Le serveur bare metal prend en charge une zone de transport de superposition et VLAN. Vous pouvez utiliser l'interface de gestion pour gérer le serveur bare metal. L'interface d'application vous permet d'accéder aux applications sur le serveur bare metal.

Les cartes réseau physiques uniques fournissent une adresse IP pour les interfaces IP de gestion et d'application.

Les doubles cartes réseau physiques fournissent une carte réseau physique et une adresse IP unique pour l'interface de gestion. Les doubles cartes réseau physiques fournissent également une carte réseau physique et une adresse IP unique pour l'interface d'application.

Plusieurs cartes réseau physiques dans une configuration liée fournissent deux cartes réseau physiques et une adresse IP unique pour l'interface de gestion et l'interface d'application.

Vous pouvez ajouter un maximum de quatre commutateurs N-VDS pour chaque configuration :
  • N-VDS standard créé pour la zone de transport VLAN
  • N-VDS amélioré créé pour la zone de transport VLAN
  • N-VDS standard créé pour la zone de transport de superposition
  • N-VDS amélioré créé pour la zone de transport de superposition

Dans une topologie de cluster à hôte unique exécutant plusieurs commutateurs N-VDS standard de superposition et machines virtuelles Edge sur le même hôte, NSX-T Data Center offre une isolation du trafic telle que le trafic transitant par le premier N-VDS est isolé du trafic transitant par le deuxième N-VDS. Les cartes réseau physiques sur chaque N-VDS doivent être mappées sur la machine virtuelle Edge sur l'hôte pour permettre la connectivité du trafic nord-sud avec le monde externe. Les paquets sortant d'une machine virtuelle sur la première zone de transport doivent être routés via un routeur externe ou une machine virtuelle externe vers la machine virtuelle sur la deuxième zone de transport.

Conditions préalables

  • L'hôte doit être associé au plan de gestion et la connectivité doit être active.
  • Le service de proxy inverse sur tous les nœuds du cluster NSX Manager doit être ACTIVÉ et en cours d'exécution.

    Pour vérifier, exécutez get service http. Si le service est en panne, redémarrez-le en exécutant restart service http sur chaque nœud de NSX Manager. Si le service est toujours en panne, contactez le support VMware.

  • Une zone de transport doit être configurée.
  • Un profil de liaison montante doit être configuré ou vous pouvez utiliser le profil de liaison montante par défaut.
  • Un pool d'adresses IP doit être configuré, ou un serveur DHCP doit être disponible dans le déploiement de réseau.
  • Au moins une carte réseau physique non utilisée doit être disponible sur le nœud hôte.
  • Nom d'hôte
  • Adresse IP de gestion
  • Nom d'utilisateur
  • Mot de passe
  • (Facultatif) (KVM) Empreinte numérique SHA-256 SSL
  • (Facultatif) (ESXi) Empreinte numérique SHA-256 SSL
  • Vérifiez que les modules tiers requis sont installés.

Procédure

  1. (Facultatif) Récupérez l'empreinte numérique de l'hyperviseur de manière à pouvoir la fournir lors de l'ajout de l'hôte à l'infrastructure.
    1. Rassemblez les informations d'empreinte numérique de l'hyperviseur.
      Utilisez un shell Linux.
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      Utilisez l'interface de ligne de commande ESXi de l'hôte.
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. Récupérez l'empreinte numérique SHA-256 d'un hyperviseur KVM ; pour cela, exécutez la commande dans l'hôte KVM.
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. Sélectionnez Système > Infrastructure > Nœuds > Nœuds de transport hôtes.
  3. Dans le champ Géré par, sélectionnez Hôtes autonomes et cliquez sur + Ajouter.
  4. Entrez les détails de l'hôte autonome ou du serveur bare metal à ajouter à l'infrastructure.
    Option Description
    Nom et description Entrez le nom pour identifier l'hôte autonome ou le serveur bare metal.

    Vous pouvez éventuellement ajouter la description du système d'exploitation utilisé pour l'hôte ou le serveur bare metal.

    Adresses IP Entrez l'adresse IP de l'hôte ou du serveur bare metal.
    Système d'exploitation Sélectionnez le système d'exploitation dans le menu déroulant.

    Selon votre hôte ou serveur bare metal, vous pouvez sélectionner n'importe lequel des systèmes d'exploitation pris en charge. Reportez-vous à la section Configuration système requise.

    Important : Parmi les différentes versions de Linux prises en charge, vous devez connaître la différence entre un serveur bare metal exécutant une distribution Linux et l'utilisation d'une distribution Linux comme hôte d'hyperviseur. Par exemple, la sélection d'Ubuntu Server comme système d'exploitation entraîne la configuration d'un serveur bare metal exécutant un serveur Linux, tandis que la sélection d'Ubuntu KVM signifie que l'hyperviseur Linux déployé est Ubuntu.
    Nom d'utilisateur et mot de passe Entrez le nom d'utilisateur et le mot de passe de l'hôte.
    Empreinte numérique SHA-256 Entrez la valeur d'empreinte de l'hôte pour l'authentification.

    Si vous laissez la valeur d'empreinte vide, vous êtes invité à accepter la valeur fournie par le serveur. Il faut quelques secondes à NSX-T Data Center pour détecter et authentifier l'hôte.

  5. (Requis) Pour un hôte KVM ou un serveur bare metal, sélectionnez le type de N-VDS.
    Option Description
    NSX créé NSX Manager crée le N-VDS.

    Cette option est sélectionnée par défaut.

    Préconfiguré Le N-VDS est déjà configuré.
    Pour un hôte ESXi, le type de N-VDS est toujours défini sur Créé par NSX.
  6. Si vous sélectionnez le commutateur N-VDS pour fonctionner en mode Standard (tous les hôtes), entrez une valeur dans les champs suivants. Vous pouvez configurer plusieurs commutateurs N-VDS sur un seul hôte.
    Option Description
    Nom Entrez un nom pour le commutateur hôte N-VDS.
    Zone de transport Dans le menu déroulant, sélectionnez une zone de transport pour ce nœud de transport.
    Profil NIOC Dans le menu déroulant, sélectionnez un profil NIOC pour l'hôte ESXi ou créez un profil NIOC personnalisé.

    Vous pouvez également sélectionner le profil NIOC par défaut.

    Profil de liaison montante Sélectionnez un profil de liaison montante existant dans le menu déroulant ou créez un profil de liaison montante personnalisé.

    Vous pouvez également utiliser le profil de liaison montante par défaut.

    Profil LLDP Par défaut, NSX-T reçoit uniquement les paquets LLDP d'un voisin LLDP.

    Toutefois, NSX-T peut être réglé pour envoyer des paquets LLDP à un voisin LLDP et pour en recevoir de sa part.

    Attribution IP Sélectionnez Utiliser DHCP, Utiliser le pool IP ou Utiliser la liste d'adresses IP statiques.

    Si vous sélectionnez Utiliser la liste d'adresses IP statiques, vous devez spécifier une liste d'adresses IP séparées par des virgules, une passerelle et un masque de sous-réseau.

    Pool IP Si vous avez sélectionné l'option Utiliser le pool IP pour l'attribution d'adresse IP, spécifiez le nom du pool d'adresses IP.
    Mappage de commutateur de stratégie d'association

    Ajoutez des cartes réseau physiques au nœud de transport. Vous pouvez utiliser la liaison montante par défaut ou attribuer une liaison montante existante dans le menu déroulant.

    Migration de carte réseau physique uniquement

    Avant de configurer ce champ, tenez compte des points suivants :

    • Déterminez si la carte réseau physique définie est une carte réseau utilisée ou une carte réseau libre.
    • Déterminez si les interfaces VMkernel d'un hôte doivent être migrées en même temps que les cartes réseau physiques.

    Définissez les champs comme suit :

    • Activez Migration de carte réseau physique uniquement si vous souhaitez uniquement migrer des cartes réseau physiques d'un commutateur VSS ou DVS vers un commutateur N-VDS.

    • Désactivez Migration de carte réseau physique uniquement si vous souhaitez migrer une carte réseau physique utilisée et son mappage d'interface VMkernel associé. Une carte réseau physique libre ou disponible est connectée au commutateur N-VDS lorsqu'un mappage de migration d'interface VMkernel est spécifié.

    Sur un hôte avec plusieurs commutateurs hôtes :
    • Si tous les commutateurs hôtes doivent migrer uniquement des cartes réseau physiques, vous pouvez migrer ces cartes en une seule opération.
    • Si certains commutateurs hôtes doivent migrer des interfaces VMkernel et les autres commutateurs hôtes doivent migrer uniquement des cartes réseau physiques :
      1. Lors de la première opération, migrez uniquement les cartes réseau physiques.
      2. Lors de la deuxième opération, migrez les interfaces VMkernel. Assurez-vous que Migration de carte réseau physique uniquement est désactivé.

    La migration de carte réseau physique uniquement et la migration d'interface VMkernel ne sont pas prises en charge simultanément sur plusieurs hôtes.

    Note : Pour migrer une carte du réseau de gestion, configurez son mappage de réseau VMkernel associé et conservez Migration de carte réseau physique uniquement désactivé. Si vous migrez uniquement la carte réseau de gestion, l'hôte perd la connectivité.

    Pour plus d'informations, consultez Migration de VMkernel vers un commutateur N-VDS.

    Mappages de réseau pour l'installation

    Pour migrer des VMkernel vers le commutateur N-VDS lors de l'installation, mappez les VMkernel à un commutateur logique existant. NSX Manager migre le VMkernel vers le commutateur logique mappé sur N-VDS.

    Attention : Assurez-vous que la carte réseau de gestion et l'interface VMkernel de gestion sont migrées vers un commutateur logique qui est connecté au même VLAN que celui auquel la carte réseau de gestion était connectée avant la migration. Si vmnic <n> et VMkernel <n> sont migrés vers un VLAN différent, la connectivité à l'hôte est perdue.
    Attention : Pour les cartes réseau physiques liées, assurez-vous que le mappage du commutateur hôte de la carte réseau physique à une interface VMkernel correspond à la configuration spécifiée dans le profil de nœud de transport. Dans le cadre de la procédure de validation, NSX-T Data Center vérifie le mappage et si la validation réussit, la migration d'interfaces VMkernel vers un commutateur N-VDS réussit également. Parallèlement, il est obligatoire de configurer le mappage réseau pour la désinstallation, car NSX-T Data Center ne stocke pas la configuration de mappage du commutateur hôte après la migration des interfaces VMkernel vers le commutateur N-VDS. Si le mappage n'est pas configuré, la connectivité aux services, tels que vSAN, peut être perdue après la migration de restauration vers le commutateur VSS ou VDS.

    Pour plus d'informations, consultez Migration de VMkernel vers un commutateur N-VDS.

    Mappages de réseau pour la désinstallation

    Pour restaurer la migration de VMkernel lors de la désinstallation, mappez les VMkernel aux groupes de ports sur VSS ou DVS, afin que NSX Manager sache vers quel groupe de ports VMkernel doit être remigré sur le VSS ou le DVS. Pour un commutateur DVS, assurez-vous que le groupe de ports est de type Éphémère.

    Pour restaurer la migration des VMkernel attachés à un groupe de ports NSX-T créé sur un vSphere Distributed Virtual Switch 7.0 pendant la désinstallation, mappez les VMkernel aux groupes de ports sur VSS ou DVS, afin que NSX Manager sache vers quel groupe de ports le VMkernel doit être remigré sur le VSS ou le DVS. Pour un commutateur DVS, assurez-vous que le groupe de ports est de type Éphémère.

    Attention : Pour les cartes réseau physiques liées, assurez-vous que le mappage du profil du nœud de transport de la carte réseau physique à l'interface VMkernel correspond à la configuration spécifiée dans le commutateur hôte. Il est obligatoire de configurer le mappage réseau pour la désinstallation, car NSX-T Data Center ne stocke pas la configuration de mappage du commutateur hôte après la migration des interfaces VMkernel vers le commutateur N-VDS. Si le mappage n'est pas configuré, la connectivité aux services, tels que vSAN, peut être perdue après la migration de restauration vers le commutateur VSS ou VDS.

    Pour plus d'informations, consultez Migration de VMkernel vers un commutateur N-VDS.

  7. Si vous sélectionnez le commutateur N-VDS pour fonctionner en mode Performances, entrez une valeur dans les champs supplémentaires suivants. Vous pouvez configurer plusieurs commutateurs N-VDS sur un seul hôte.
    Option Description
    (Configuration du CPU)

    Index de nœud NUMA

    Dans le menu déroulant Index de nœud NUMA, sélectionnez le nœud NUMA que vous souhaitez attribuer à un commutateur N-VDS. Le premier nœud NUMA présent sur le nœud est représenté par la valeur 0.

    Vous pouvez déterminer le nombre de nœuds NUMA sur votre hôte en exécutant la commande esxcli hardware memory get.

    Note : Si vous souhaitez modifier le nombre de nœuds NUMA qui ont une affinité avec un commutateur N-VDS, vous pouvez mettre à jour la valeur d'index du nœud NUMA.
    (Configuration du CPU)

    Nombre de fichiers LCore par nœud NUMA

    Dans le menu déroulant Nombre de fichiers Lcore par nœud NUMA, sélectionnez le nombre de cœurs logiques qui doivent être utilisés par le chemin de données optimisé.

    Vous pouvez déterminer le nombre maximal de cœurs logiques pouvant être créés sur le nœud NUMA en exécutant la commande esxcli network ens maxLcores get.

    Note : Si vous avez épuisé les nœuds et les cœurs logiques NUMA disponibles, tout nouveau commutateur ajouté au nœud de transport ne peut pas être activé pour le trafic ENS.
  8. Pour un N-VDS préconfiguré, indiquez les informations suivantes.
    Option Description
    ID externe du N-VDS Il doit être identique à celui du N-VDS de la zone de transport à laquelle ce nœud appartient.
    VTEP Nom du point de terminaison de tunnel virtuel.
  9. Visualisez l'état de connexion sur la page Nœuds de transport hôtes. Pendant le processus de configuration, chaque nœud de transport affiche le pourcentage de progression du processus d'installation. Si l'installation échoue à un moment donné, vous pouvez redémarrer le processus en cliquant sur le lien Résoudre disponible en face de l'étape en échec du processus.
    Après l'ajout de l'hôte ou du serveur bare metal en tant que nœud de transport, l'état de la connexion à NSX Manager s'affiche comme ACTIF uniquement après que l'hôte a été créé avec succès en tant que nœud de transport.
  10. Vous pouvez également afficher l'état de connexion à l'aide des commandes CLI.
    • Pour ESXi, entrez la commande esxcli network ip connection list | grep 1234.
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLISHED  1000144459  newreno  nsx-cfgagent
       
      
    • Pour KVM, entrez la commande netstat -anp --tcp | grep 1234.
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   ESTABLISHED -
    • Pour Windows, à partir d'une invite de commande, entrez netstat | find "1234"
    • Pour Windows, à partir d'une invite de commande, entrez netstat | find "1235"
  11. Vérifiez que les modules de NSX-T Data Center sont installés sur votre hôte ou votre serveur bare metal.
    Suite à l'ajout d'un hôte ou d'un serveur bare metal à l'infrastructure de NSX-T Data Center, une collection de modules NSX-T Data Center est installée sur l'hôte ou sur le serveur bare metal.

    Les modules sur des différents hôtes sont regroupés comme suit :

    • KVM sur RHEL, CentOS, Oracle Linux ou SUSE - RPM.
    • KVM sur Ubuntu - DEB
    • Sur ESXi, entrez la commande esxcli software vib list | grep nsx.

      La date est le jour où vous avez effectué l'installation.

    • Sur RHEL, CentOS ou Oracle Linux, entrez la commande yum list installed ou rpm -qa.
    • Sur Ubuntu, entrez la commande dpkg --get-selections.
    • Sur SUSE, entrez la commande rpm -qa | grep nsx.
    • Sous Windows, ouvrez le Gestionnaire des tâches. Ou, à partir de la ligne de commande, entrez tasklist /V | grep nsx findstr “nsx ovs
  12. (Facultatif) Modifiez les intervalles d'interrogation de certains processus, si vous disposez de 500 hyperviseurs ou plus.
    NSX Manager peut rencontrer des problèmes de performances et d'utilisation élevée de CPU s'il y a plus de 500 hyperviseurs.
    1. Utilisez la commande CLI NSX-T Data Center copy file ou l'API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file pour copier le script aggsvc_change_intervals.py sur un hôte.
    2. Exécutez le script, qui se trouve dans le magasin de fichiers NSX-T Data Center.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (Facultatif) Rétablissez les valeurs par défaut des intervalles d'interrogation.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

Résultats

Note : Pour un N-VDS créé par NSX-T Data Center, une fois le nœud de transport créé, si vous souhaitez modifier la configuration, telle que l'attribution IP au point de terminaison de tunnel, vous devez le faire via l'interface utilisateur graphique de NSX Manager et non via l'interface de ligne de commande de l'hôte.

Que faire ensuite

Migrez les interfaces réseau à partir d'un commutateur vSphere standard vers un commutateur N-VDS. Reportez-vous à la section Migration de VMkernel vers un commutateur N-VDS.