È innanzitutto necessario aggiungere l'host ESXi e l'host KVM all'infrastruttura di NSX-T Data Center e quindi configurare il nodo di trasporto.

Affinché un host faccia parte dell'overlay NSX-T Data Center, è innanzitutto necessario aggiungerlo all'infrastruttura di NSX-T Data Center.

Un nodo di trasporto è un nodo che partecipa a un overlay di NSX-T Data Center o a una rete VLAN di NSX-T Data Center.

Per un host KVM, è possibile preconfigurare N-VDS oppure fare in modo che NSX Manager esegua la configurazione. Per un host ESXi, NSX Manager configura sempre N-VDS.

Nota: Se si prevede di creare nodi di trasporto da una macchina virtuale modello, assicurarsi che nell'host non siano presenti certificati in /etc/vmware/nsx/. nsx-proxy non crea un certificato se ne esiste già uno.
È possibile aggiungere al massimo quattro commutatori N-VDS per ogni configurazione:
  • N-VDS standard creato per la zona di trasporto VLAN
  • N-VDS avanzato creato per la zona di trasporto VLAN
  • N-VDS standard creato per la zona di trasporto overlay
  • N-VDS avanzato creato per la zona di trasporto overlay

In una singola topologia del cluster host che esegue più commutatori N-VDS di overlay standard e una macchina virtuale Edge nello stesso host, NSX-T Data Center fornisce isolamento del traffico in modo che il traffico che passa attraverso il primo N-VDS venga isolato dal traffico che passa attraverso il secondo N-VDS. Le NIC fisiche in ciascun N-VDS devono essere mappate alla macchina virtuale Edge nell'host per consentire la connettività del traffico nord-sud con il mondo esterno. I pacchetti che si spostano fuori da una macchina virtuale nella prima zona di trasporto devono essere instradati tramite un router esterno o una macchina virtuale esterna alla macchina virtuale nella seconda zona di trasporto.

Prerequisiti

  • L'host deve essere unito al piano di gestione e la connettività deve essere attiva.
  • Il servizio di proxy inverso in tutti i nodi del cluster di NSX Manager deve essere Attivo e in esecuzione.

    Per verificare, eseguire get service http. Se il servizio è inattivo, riavviare il servizio eseguendo restart service http su ogni nodo di NSX Manager. Se il servizio è ancora inattivo, contattare il supporto di VMware.

  • È necessario configurare una zona di trasporto.
  • È necessario configurare un profilo uplink oppure è possibile utilizzare il profilo uplink predefinito.
  • È necessario configurare un pool di IP oppure il protocollo DHCP deve essere disponibile nella distribuzione di rete.
  • Deve essere disponibile nel nodo host almeno una NIC fisica inutilizzata.
  • Nome host
  • Indirizzo IP di gestione
  • Nome utente
  • Password
  • (Facoltativo) (KVM) Identificazione personale SSL SHA-256
  • (Facoltativo) (ESXi) Identificazione personale SSL SHA-256
  • Verificare che siano installati i pacchetti di terze parti richiesti.

Procedura

  1. (Facoltativo) Recuperare l'identificazione personale dell'hypervisor affinché sia possibile fornirla quando si aggiunge l'host alla struttura.
    1. Raccogliere le informazioni dell'identificazione personale dell'hypervisor.
      Utilizzare una shell Linux.
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      Usare la CLI ESXi nell'host.
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. Recuperare l'identificazione personale SHA-256 da un hypervisor KVM ed eseguire il comando nell'host KVM.
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. (NSX-T Data Center 3.2.1 e versioni precedenti) Selezionare Sistema → Infrastruttura → Nodi > Nodi di trasporto host.
  3. (NSX-T Data Center 3.2.1 e versioni precedenti) Dal campo a discesa Gestito da, selezionare Host autonomi e fare clic su + Aggiungi nodo host.
  4. (NSX-T Data Center 3.2.2) Selezionare Sistema → Infrastruttura → Host.
  5. (NSX-T Data Center 3.2.2) Selezionare la scheda Autonomo e fare clic su + Aggiungi nodo host.
  6. Nella pagina Dettagli host immettere i dettagli relativi ai seguenti campi.
    Opzione Descrizione
    Nome Immettere il nome per identificare l'host autonomo.
    Indirizzi IP Immettere l'indirizzo IP dell'host.
    Sistema operativo Selezionare il sistema operativo dal menu a discesa.

    In base all'host, è possibile selezionare uno dei sistemi operativi supportati. Vedere Requisiti di sistema.

    Nome utente e password Immettere il nome utente host e la password.
    Identificazione personale SHA-256 Immettere il valore dell'identificazione personale dell'host per l'autenticazione.

    Se si lascia vuoto il valore dell'identificazione personale, viene richiesto di accettare il valore fornito dal server. L'individuazione e l'autenticazione dell'host da parte di NSX-T Data Center richiedono alcuni secondi.

    Descrizione (Facoltativo) Aggiungere la descrizione dell'host.
    Tag Aggiungere tag e definire l'ambito per i tag.
  7. (Obbligatorio) Per un host KVM, selezionare il tipo N-VDS.
    Opzione Descrizione
    NSX creato NSX Manager crea N-VDS.

    Questa opzione è selezionata per impostazione predefinita.

    Preconfigurato L'N-VDS è già configurato.
    Per un host ESXi, il tipo di N-VDS è sempre impostato su NSX creato.
  8. Nella scheda Prepara host, configurare il commutatore host utilizzato per preparare l'host autonomo. È possibile configurare più commutatori N-VDS in un singolo host.
  9. Fare clic su Aggiungi commutatore host e selezionare NVDS.
    Opzione Descrizione
    Nome Immettere un nome per il commutatore host NVDS.
    Modalità Selezionare la modalità di utilizzo del commutatore NVDS.
    • Standard
    • Percorso dati avanzato
    • Interruzione ENS
    Zona di trasporto Dal menu a discesa selezionare una zona di trasporto che si estenda in questo nodo di trasporto.
    Profilo uplink Selezionare un profilo uplink esistente dal menu a discesa o creare un profilo uplink personalizzato. È inoltre possibile utilizzare il profilo uplink predefinito.

    Più commutatori host N-VDS in un nodo di trasporto possono appartenere allo stesso segmento VLAN o pool di IP VTEP oppure a segmenti VLAN o pool di IP VTEP diversi.

    La configurazione di segmenti VLAN di trasporto diversi per commutatori host N-VDS diversi consente l'isolamento del traffico aggiuntivo anche nell'underlay.

    Profilo NIOC Selezionare il profilo NIOC che verrà applicato al commutatore host.
    Profilo LLDP Per impostazione predefinita, NSX-T riceve solo pacchetti LLDP da un router adiacente LLDP.

    Tuttavia, NSX-T può essere impostato per inviare pacchetti LLDP a un router adiacente LLDP e ricevere pacchetti LLDP da un router adiacente LLDP.

    Mappatura uplink criteri di raggruppamento

    Mappare gli uplink alle NIC fisiche. Se NSX Manager non riesce a recuperare le NIC fisiche dell'host, immettere manualmente le NIC per completare la mappatura.

    Migrazione solo PNIC

    Prima di impostare questo campo, considerare i punti seguenti:

    • È necessario sapere se la NIC fisica definita è una NIC utilizzata o una NIC libera.
    • Stabilire se le interfacce VMkernel di un host devono essere migrate insieme alle NIC fisiche.

    Impostare il campo:

    • Abilitare Migrazione solo PNIC se si desidera migrare le NIC fisiche solo da un commutatore VSS o DVS a un commutatore N-VDS.

    • Disabilitare Migrazione solo PNIC se si desidera migrare una NIC fisica utilizzata e la mappatura dell'interfaccia VMkernel associata. Quando viene specificata una mappatura della migrazione dell'interfaccia VMkernel, una NIC fisica libera o disponibile viene collegata al commutatore N-VDS.

    In un host con più commutatori host:
    • Se tutti i commutatori host devono eseguire la migrazione solo delle PNIC, è possibile migrare le PNIC con una singola operazione.
    • Se alcuni commutatori host devono migrare le interfacce VMkernel e gli altri commutatori host devono eseguire la migrazione solo delle PNIC:
      1. Nella prima operazione, migrare solo le PNIC.
      2. Nella seconda operazione, migrare le interfacce VMkernel. Assicurarsi che l'opzione Migrazione solo PNIC sia disabilitata.

    La migrazione solo PNIC e la migrazione delle interfaccia VMkernel non possono essere eseguite contemporaneamente in più host.

    Nota: Per migrare una NIC della rete di gestione, configurare la mappatura della rete VMkernel associata e mantenere l'opzione Migrazione solo PNIC disabilitata. Se si migra solo la NIC di gestione, l'host perde la connettività.

    Per ulteriori informazioni, vedere Migrazione di VMkernel a un commutatore N-VDS.

    Mappature di rete per l'installazione

    Fare clic su Imposta, quindi su Aggiungi.

    Mappare l'adattatore VMkernel o l'adattatore fisico ai segmenti VLAN e fare clic su Applica.
    • Nel menu a discesa Adattatore VMkernel, selezionare Adattatore VMkernel.
    • Nel menu a discesa Segmento VLAN selezionare Segmento VLAN.

    NSX Manager esegue la migrazione degli adattatori VMkernel nel segmento VLAN mappato in N-VDS.

    Attenzione: Assicurarsi che la NIC di gestione e l'interfaccia VMkernel di gestione vengano migrate in un segmento connesso alla stessa VLAN a cui era connessa la NIC di gestione prima della migrazione. Se vmnic <n> e VMkernel <n> vengono migrati in una VLAN diversa, la connettività all'host viene persa.
    Attenzione: Per le NIC fisiche bloccate, assicurarsi che la mappatura del commutatore host della NIC fisica a un'interfaccia VMkernel corrisponda alla configurazione specificata nel profilo del nodo di trasporto. Come parte della procedura di convalida, NSX-T Data Center verifica la mappatura e se la convalida viene superata, la migrazione delle interfacce VMkernel a un commutatore N-VDS viene eseguita correttamente. È inoltre obbligatorio configurare la mappatura di rete per la disinstallazione perché NSX-T Data Center non archivia la configurazione della mappatura del commutatore host dopo la migrazione delle interfacce VMkernel nel commutatore N-VDS. Se la mappatura non è configurata, la connettività ai servizi come vSAN, può essere persa dopo la migrazione al commutatore VSS o VDS.
    Mappature di rete per la disinstallazione

    Fare clic su Imposta.

    Per ripristinare la migrazione dei VMkernel collegati a un commutatore N-VDS durante la disinstallazione. Mappare i VMkernel ai gruppi di porte in VSS o DVS in modo che NSX Manager sappia a quale gruppo di porte deve essere migrato il VMkernel in VSS o DVS. Per un commutatore DVS, verificare che il gruppo di porte sia di tipo Temporaneo.

    Per ripristinare la migrazione dei VMkernel collegati a un gruppo di porte di NSX-T creato in un vSphere Distributed Switch (VDS) durante la disinstallazione, mappare i VMkernel ai gruppi di porte in VSS o DVS, in modo che NSX Manager sappia a quale gruppo di porte il VMkernel deve essere migrato in VSS o DVS. Per un commutatore DVS, verificare che il gruppo di porte sia di tipo Temporaneo.

    Aggiungere VMKNIC alle mappature del gruppo di porte e fare clic su Applica.
    • Nel campo Adattatore VMkernel, immettere il nome dell'adattatore VMkernel.
    • Nel campo Gruppo di porte, immettere il nome del gruppo di porte di tipo Ephemeral.
    Aggiungere la NIC fisica alle mappature dei profili di uplink e fare clic su Applica.
    • Nel campo NIC fisiche, immettere il nome della NIC fisica.
    • Nel campo Uplink, immettere il nome di uplink.
    Attenzione: Per le NIC fisiche bloccate, assicurarsi che la mappatura del profilo del nodo di trasporto della NIC fisica all'interfaccia VMkernel corrisponda alla configurazione specificata nel commutatore host. È obbligatorio configurare la mappatura di rete per la disinstallazione perché NSX-T Data Center non archivia la configurazione della mappatura del commutatore host dopo la migrazione delle interfacce VMkernel nel commutatore N-VDS. Se la mappatura non è configurata, la connettività ai servizi come vSAN, può essere persa dopo la migrazione al commutatore VSS o VDS.
  10. Per un N-VDS preconfigurato, specificare i dettagli seguenti.
    Opzione Descrizione
    ID esterno N-VDS Deve essere uguale al nome N-VDS della zona di trasporto a cui questo nodo appartiene.
    Zona di trasporto Dal menu a discesa selezionare una zona di trasporto che si estenda in questo nodo di trasporto.
    VTEP Nome dell'endpoint del tunnel virtuale che consente ai nodi di trasporto di comunicare in una rete overlay.
  11. Visualizzare lo stato della connessione nella pagina Autonomo. Durante il processo di configurazione, ogni nodo di trasporto visualizza la percentuale di avanzamento del processo di installazione. Se l'installazione non riesce in una fase qualsiasi, è possibile riavviare il processo facendo clic sul collegamento Risolvi disponibile rispetto alla fase non riuscita del processo.
    Dopo aver aggiunto l'host come nodo di trasporto, la connessione allo stato di NSX Manager viene visualizzata come ATTIVA solo dopo che l'host è stato creato correttamente come nodo di trasporto.
    Nota: Dopo la creazione del nodo di trasporto, se si desidera modificare la configurazione di N-VDS, come ad esempio l'assegnazione dell'IP all'endpoint del tunnel, è necessario eseguire questa operazione tramite la GUI di NSX Manager e non attraverso la CLI nell'host.
  12. (Facoltativo) Negli host KVM, se la creazione del nodo di trasporto non riesce a causa di più processi che tentano di accedere al comando dpkg, selezionare l'host e fare clic su Riprova per riavviare la creazione del nodo di trasporto.
  13. In alternativa, è possibile visualizzare lo stato della connessione utilizzando i comandi della CLI.
    • Per ESXi, immettere il comando esxcli network ip connection list | grep 1234.
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLISHED  1000144459  newreno  nsx-cfgagent
       
      
    • Per KVM, immettere il comando netstat -anp --tcp | grep 1234.
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   ESTABLISHED -
    • Per Windows, dal prompt dei comandi immettere netstat | find "1234"
    • Per Windows, dal prompt dei comandi immettere netstat | find "1235"
  14. Verificare che nell'host siano installati i moduli NSX-T Data Center.
    Come risultato dell'aggiunta di un host all'infrastruttura di NSX-T Data Center, nell'host viene installata una raccolta di moduli di NSX-T Data Center.

    I moduli in host diversi sono compressi nel modo seguente:

    • KVM su RHEL, CentOS, Oracle Linux o SUSE - RRPMs.
    • KVM su Ubuntu - DEM
    • In ESXi, immettere il comando esxcli software vib list | grep nsx.

      Questa è la data in cui è stata eseguita l'installazione.

    • In RHEL, CentOS o Oracle Linux, immettere il comando yum list installed o rpm -qa.
    • In Ubuntu, immettere il comando dpkg --get-selections.
    • In SUSE, immettere il comando rpm -qa | grep nsx.
    • In Windows aprire Gestione attività, oppure dalla riga di comando immettere tasklist /V | grep nsx findstr “nsx ovs
  15. (Facoltativo) Modificare gli intervalli di polling di determinati processi, se sono presenti almeno 500 hypervisor.
    NSX Manager potrebbe riscontrare un utilizzo elevato della CPU e problemi di prestazioni se sono presenti più di 500 hypervisor.
    1. Utilizzare il comando della CLI NSX-T Data Center copy file o l'API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file per copiare lo script di aggsvc_change_intervals.py in un host.
    2. Eseguire lo script, che si trova nell'archivio file di NSX-T Data Center.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (Facoltativo) Ripristinare i valori predefiniti degli intervalli di polling.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

risultati

L'host indipendente è configurato come nodo di trasporto.
Importante: Se si sposta un nodo di trasporto autonomo in un cluster a cui è applicato il profilo del nodo di trasporto, NSX-T Data Center ha la precedenza sul profilo del nodo di trasporto applicato al cluster e sostituisce la configurazione del nodo di trasporto autonomo. Le vmnic nel cluster e nell'host indipendente sono diverse. La connettività al trasporto autonomo potrebbe essere persa.

Operazioni successive

Eseguire la migrazione delle interfacce di rete da un commutatore vSphere standard a un commutatore N-VDS. Vedere Migrazione di VMkernel a un commutatore N-VDS.