La creazione di un cluster NSX Manager o Global Manager offre disponibilità e affidabilità elevate. La distribuzione dei nodi tramite l'interfaccia utente è supportata solo negli host ESXi gestiti da vCenter Server che viene aggiunto come gestore delle risorse di elaborazione.

Per la distribuzione di nodi NSX Manager aggiuntivi in un vCenter Server che non viene aggiunto come gestore delle risorse di elaborazione, vedere Formare un cluster di NSX Manager utilizzando la CLI.

Quando si distribuisce un nuovo nodo dall'interfaccia utente, il nodo si connette al primo nodo distribuito per formare un cluster. Tutti i dettagli del repository e la password del primo nodo distribuito vengono sincronizzati con il nuovo nodo distribuito. Il primo nodo è noto come nodo di Orchestrator perché contiene la copia originale dei VIB e i file di installazione necessari per preparare gli host del cluster. Il nodo di Orchestrator consente inoltre di identificare il nodo su cui è in esecuzione il coordinatore aggiornamento. Quando al cluster vengono aggiunti nuovi nodi, NSX utilizza l'IP del repository per sincronizzare il repository dei VIB e i file di installazione nei nuovi nodi del cluster.

Per creare un cluster NSX Manager, distribuire due nodi aggiuntivi in modo da formare un cluster di tre nodi in totale.
Nota: I dati vengono replicati in tutti i nodi NSX Manager attivi del cluster. Pertanto, quando il cluster NSX Manager è stabile, ogni nodo NSX Manager contiene gli stessi dati.

Per creare un cluster Global Manager, distribuire due nodi aggiuntivi in modo da formare un cluster di tre nodi in totale. Se nel Global Manager è installato NSX 3.0.0, è invece opportuno distribuire un solo nodo e non creare un cluster. Vedere Installazione del Global Manager attivo e di standby.

Prerequisiti

  • Verificare che sia installato un nodo NSX Manager o Global Manager. Vedere Installazione di NSX Manager e delle appliance disponibili.
  • Verificare che sia configurato il gestore delle risorse di elaborazione. Vedere Aggiunta di un gestore delle risorse di elaborazione.
  • Verificare che i requisiti di sistema siano soddisfatti. Vedere Requisiti di sistema.
  • Verificare che le porte necessarie siano aperte. Vedere Porte e protocolli.
  • Verificare che un datastore sia configurato e accessibile nell'host ESXi.
  • Verificare di disporre dell'indirizzo IP e del gateway, degli indirizzi IP del server DNS, dell'elenco di ricerca del dominio e dell'elenco di IP o di nomi di dominio completi del server NTP per NSX Manager o Cloud Service Manager da utilizzare.
  • Se non è già presente, creare una rete del gruppo di porte della macchina virtuale di destinazione. Posizionare le appliance NSX in una rete di macchine virtuali di gestione.

    Se si dispone di più reti di gestione, è possibile aggiungere route statiche alle altre reti dall'appliance NSX.

Procedura

  1. Da un browser, accedere con privilegi di amministratore a NSX Manager o Global Manager all'indirizzo https://<indirizzo-ip-manager>.
  2. Distribuire un'appliance.
    • Da NSX Manager selezionare Sistema > Appliance > Aggiungi appliance NSX.
    • Da Global Manager selezionare Sistema > Appliance Global Manager > Aggiungi appliance NSX.
  3. Immettere i dettagli relativi alle informazioni sull'appliance.
    Opzione Descrizione
    Nome host o nome dominio completo Immettere un nome per il nodo.
    Nota: Se si intende distribuire NSX Manager in modalità dual stack (IPv4 e IPv6) e configurare NSX Manager con certificati firmati dall'autorità di certificazione, è necessario impostare un nome di dominio completo con nome di dominio valido.
    Tipo di IP Selezionare il tipo di IP. L'appliance può avere solo indirizzo IPv4 o entrambi gli indirizzi IPv4 e IPv6.
    IPv4/Netmask di gestione Immettere un indirizzo IPv4 da assegnare al nodo.
    IPv4 gateway di gestione Immettere un indirizzo IPv4 del gateway che deve essere utilizzato dal nodo.
    IPv6/Netmask di gestione Immettere un indirizzo IPv6 da assegnare al nodo. Questa opzione viene visualizzata quando Tipo IP è impostato su IPv4 e IPv6.
    IPv6 gateway di gestione Immettere un indirizzo IPv4 del gateway che deve essere utilizzato dal nodo. Questa opzione viene visualizzata quando Tipo IP è impostato su IPv4 e IPv6.
    Server DNS Immettere gli indirizzi IP del server DNS che devono essere utilizzati dal nodo.
    Server NTP Immettere l'indirizzo IP di un server NTP che deve essere utilizzato dal nodo.
    Dimensioni nodo Selezionare il fattore del modulo per distribuire il nodo dalle seguenti opzioni:
    • Piccolo (4 vCPU, 16 GB di RAM, 300 GB di archiviazione)
    • Medio (6 vCPU, 24 GB di RAM, 300 GB di archiviazione)
    • Grande (12 vCPU, 48 GB di RAM, 300 GB di archiviazione)
    Per Global Manager selezionare le dimensioni:
    • Appliance GM Media per distribuzioni fino a quattro posizioni e 128 hypervisor in tutte le posizioni
    • Appliance GM Grande per le distribuzioni di dimensioni maggiori
    Non utilizzare l'appliance GM Piccola per la distribuzione in scala.
  4. Immettere i dettagli della configurazione.
    Opzione Descrizione
    Gestore risorse di elaborazione Selezionare il vCenter Server per eseguire il provisioning delle risorse di elaborazione per la distribuzione del nodo.
    Cluster di elaborazione Selezionare il cluster a cui aggiungere il nodo.
    (Facoltativo) Pool di risorse Selezionare un pool di risorse per il nodo dal menu a discesa.
    (Facoltativo) Host

    Selezionare un host per il nodo dal menu a discesa.

    Datastore Selezionare un datastore per i file del nodo dal menu a discesa.
    Formato disco virtuale
    • Per i datastore NFS, selezionare un formato di disco virtuale tra i criteri di provisioning disponibili nel datastore sottostante.
      • Con l'accelerazione hardware, sono supportati i formati Provisioning thin, Provisioning thick lazy azzerato e Provisioning thick eager azzerato.
      • Senza accelerazione hardware, è supportato solo il formato Provisioning thin.
    • Per i datastore VMFS, sono supportati i formati Provisioning thin, Provisioning thick lazy azzerato e Provisioning thick eager azzerato.
    • Peri i datastore vSAN, non è possibile selezionare un formato di disco virtuale perché il formato è definito dal criterio di archiviazione della macchina virtuale.
      • Il formato del disco è determinato dai criteri di archiviazione vSAN. Il formato del disco virtuale predefinito per vSAN è Provisioning thin. È possibile modificare i criteri di archiviazione vSAN per impostare una percentuale del disco virtuale che deve essere sottoposta a provisioning thick.

    Per impostazione predefinita, il formato del disco virtuale per un nodo NSX Manager o Global Manager è Provisioning thin.

    Nota: È possibile eseguire il provisioning di ogni nodo con un formato di disco diverso in base ai criteri di cui viene eseguito il provisioning nel datastore.
    Rete Fare clic su Seleziona rete per selezionare la rete di gestione per il nodo.
  5. Immettere i dettagli relativi all'accesso e alle credenziali.
    Opzione Descrizione
    Abilita SSH Attivare o disattivare il pulsante per consentire un accesso SSH al nuovo nodo.
    Abilita accesso root Attivare o disattivare il pulsante per consentire l'accesso root al nuovo nodo.
    Credenziali root di sistema

    Impostare la password root e confermarla per il nuovo nodo.

    La password deve essere conforme alle restrizioni di complessità.
    • Almeno 12 caratteri
    • Almeno una lettera minuscola
    • Almeno una lettera maiuscola
    • Almeno una cifra
    • Almeno un carattere speciale
    • Almeno cinque caratteri diversi
    • Le regole di complessità della password predefinite vengono applicate dai seguenti argomenti del modulo PAM di Linux:
      • retry=3: numero massimo di volte per cui è possibile immettere una nuova password prima che venga restituito un errore. Per questo argomento il numero massimo è 3.
      • minlen=12: dimensioni minime accettabili per la nuova password. Oltre al numero di caratteri nella nuova password, il credito (+1 nella lunghezza) viene fornito per ogni tipo di carattere diverso (altri, maiuscoli, minuscoli e numerici).
      • difok=0: numero minimo di byte che devono essere diversi nella nuova password. Indica la somiglianza tra la vecchia password e la nuova password. Se si assegna il valore 0 a difok, non è necessario che alcun byte della vecchia password e della nuova password sia diverso. È consentita una corrispondenza esatta.
      • lcredit=1: credito massimo per la presenza di lettere minuscole nella nuova password. Se è presente al massimo 1 lettera minuscola, ogni lettera verrà conteggiata come +1 per soddisfare il valore di minlen corrente.
      • ucredit=1: credito massimo per la presenza di lettere maiuscole nella nuova password. Se è presente al massimo una lettera maiuscola, ogni lettera verrà conteggiata come +1 per soddisfare il valore di minlen corrente.
      • dcredit=1: credito massimo per la presenza di cifre nella nuova password. Se è presente al massimo una cifra, ogni cifra verrà conteggiata come +1 per soddisfare il valore di minlen corrente.
      • ocredit=1: credito massimo per la presenza di altri caratteri nella nuova password. Se è presente al massimo 1 altro carattere, ogni carattere verrà conteggiato come +1 per soddisfare il valore di minlen corrente.
      • enforce_for_root: la password viene impostata per l'utente root.
      Nota: Per ulteriori dettagli sul modulo PAM di Linux per verificare se la password è valida rispetto alle parole del dizionario, fare riferimento alla pagina man.

      Ad esempio, evitare password semplici e sistematiche come VMware123!123 o VMware12345. Le password che soddisfano gli standard di complessità non sono semplici e sistematiche, ma sono una combinazione di lettere, alfabeti, caratteri speciali e numeri, come VMware123!45, VMware 1!2345 o VMware@1az23x.

    Credenziali CLI admin e Credenziali CLI audit Selezionare la casella di controllo Uguale alla password root per utilizzare la stessa password configurata per l'utente root oppure deselezionare la casella di controllo e impostare una password diversa.
  6. Fare clic su Installa appliance.
    Il nuovo nodo viene distribuito. È possibile tenere traccia del processo di distribuzione nella pagina Sistema > Appliance per NSX Manager, Sistema > Appliance Global Manager per Global Manager o vCenter Server per uno dei due. Non aggiungere altri nodi finché l'installazione non viene completata e il cluster non è stabile.
  7. Attendere il completamento della distribuzione, della formazione del cluster e della sincronizzazione del repository.

    Il processo di unione e di stabilizzazione del cluster potrebbe richiedere da 10 a 15 minuti. Quando il nodo viene avviato (come parte del bringup dell'appliance) e diventa di nuovo attivo, accedere come amministratore alla prima CLI di NSX Manager distribuita. Eseguire get cluster status per visualizzare lo stato. Prima di apportare qualsiasi altra modifica del cluster, verificare che il primo nodo e il secondo nodo siano membri del cluster, che lo stato di ogni gruppo di servizi del cluster sia ATTIVO e lo stato del cluster sia STABILE.

    Nota:
    • Se si riavvia il primo nodo NSX Manager distribuito quando è in corso la distribuzione di un nuovo nodo, la registrazione del nuovo nodo nel cluster potrebbe non riuscire. Viene visualizzato il messaggio Impossibile registrare sulla miniatura del nuovo nodo. Per ridistribuire manualmente il nodo nel cluster, eliminare e distribuire nuovamente il nodo con l'errore.
    • Se la distribuzione di un nodo non riesce, non è possibile riutilizzare lo stesso indirizzo IP per distribuire un altro nodo finché il nodo non riuscito non viene eliminato.
  8. Dopo l'avvio del nodo, accedere alla CLI come amministratore ed eseguire il comando get interface eth0 per verificare che l'indirizzo IP sia stato applicato come previsto.
  9. Verificare che il nodo di NSX Manager, Cloud Service Manager o Global Manager disponga della connettività necessaria.
    Assicurarsi di poter eseguire le seguenti attività.
    • Effettuare il ping del nodo da un'altra macchina.
    • Il nodo può effettuare il ping del gateway predefinito.
    • Il nodo può effettuare il ping degli host hypervisor che si trovano nella stessa rete utilizzando l'interfaccia di gestione.
    • Il nodo può effettuare il ping del server DNS e dell'elenco di IP o nomi di dominio completi del server NTP.
    • Se è stato abilitato SSH, assicurarsi di poter accedere tramite SSH al nodo.

    Se la connettività non viene stabilita, assicurarsi che la scheda di rete dell'appliance virtuale si trovi nella rete o nella VLAN appropriata.

  10. Se il cluster include solo due nodi, aggiungere un'altra appliance.
    • Da NSX Manager selezionare Sistema > Appliance > Aggiungi appliance NSX e ripetere i passaggi di configurazione.
    • Da Global Manager selezionare Sistema > Appliance Global Manager > Aggiungi appliance NSX e ripetere i passaggi di configurazione.
    Importante: Se il nodo di Orchestrator (il primo nodo NSX Managerdistribuito) diventa inattivo o irraggiungibile quando i nodi aggiuntivi nel cluster non hanno ancora completato la replica del primo nodo, le eventuali altre operazioni eseguite nel cluster non riusciranno. Per evitare questo problema, attivare correttamente il primo nodo e quindi eliminare e ridistribuire i nodi aggiuntivi la cui replica dei dati del primo nodo non è stata completata.

Operazioni successive

Configurare NSX Edge. Vedere Installazione di un NSX Edge in ESXi tramite la GUI di vSphere.