La formación de un clúster de NSX Manager o Global Manager ofrece alta disponibilidad y fiabilidad. Puede usar el comando join para crear un clúster.

Requisitos previos

  • Para crear un clúster de NSX Manager, implemente tres nodos.

  • Para crear un clúster de Global Manager, implemente tres nodos. Sin embargo, si su Global Manager tiene NSX-T Data Center 3.0.0 instalado, implemente un solo nodo y no forme ningún clúster. Consulte Instalar Global Manager activo y en espera.

Procedimiento

  1. Abra una sesión de SSH o de la consola en el primer nodo de NSX Manager o Global Manager implementado y, a continuación, inicie sesión con las credenciales de administrador.
  2. En el primer host implementado, ejecute los siguientes comandos:
    1. Ejecute el comando get certificate api thumbprint.
      La salida de comandos es una cadena de números única para este nodo.
    2. Ejecute el comando get cluster config para obtener el identificador de clúster del primer nodo implementado.
      mgr-first> get cluster config
      Cluster Id: 7b50abb9-0402-4ed5-afec-363587c3c705
      Cluster Configuration Version: 0
      Number of nodes in the cluster: 1
      
      ...
  3. Abra una sesión SSH o de la consola en el nuevo nodo e inicie sesión con las credenciales de administrador.
  4. En el nuevo nodo que va a unir al clúster, ejecute el comando join.

    Proporcione la siguiente información sobre el primer nodo implementado en el comando join:

    • Dirección IP
    • ID de clúster (Cluster ID)
    • Nombre de usuario
    • Contraseña
    • Huella digital de certificado
    mgr-new> join <Manager-IP> cluster-id <cluster-id> username <Manager-username> password <Manager-password> thumbprint <Manager-thumbprint>
    El proceso de unión y estabilización del clúster puede tardar entre 10 y 15 minutos. Ejecute get cluster status para ver el estado. Compruebe que el estado de cada grupo de servicios del clúster sea ACTIVO antes de realizar otros cambios en el clúster.
  5. Agregue el tercer nodo al clúster.
    Repita el paso 4 en el tercer nodo.
  6. Compruebe el estado del clúster en la interfaz web.
    • En NSX Manager, inicie sesión en la interfaz web de NSX Manager y seleccione Sistema > Dispositivos.
    • En Global Manager, inicie sesión en la interfaz web de Global Manager y seleccione Sistema > Dispositivos de administrador global.

Resultados

Compruebe el resultado ejecutando el comando get managers en sus hosts.

host> get managers
- 192.168.110.47   Connected

En la IU de NSX Manager en Tejido > Nodo > Hosts, compruebe que esté configurada como Activa la conectividad de MPA del host.

También puede ver el estado del host del tejido con la llamada API GET https://<nsx-mgr>/api/v1/fabric/nodes/<fabric-node-id>/state:

{
  "details": [],
  "state": "success"
}

El plano de administración envía los certificados de host al plano de control y este introduce información del plano de control en los hosts.

Debería ver las direcciones de NSX Controller en /etc/vmware/nsx/controller-info.xml en cada host ESXi o acceder a la CLI mediante get controllers.
[root@host:~] cat /etc/vmware/nsx/controller-info.xml 
<?xml version="1.0" encoding="utf-8"?>
<config>
  <connectionList>
    <connection id="0">
        <server>10.143.1.47</server>
        <port>1234</port>
        <sslEnabled>true</sslEnabled>
        <pemKey>-----BEGIN CERTIFICATE-----...-----END CERTIFICATE-----</pemKey>
    </connection>
    <connection id="1">
        <server>10.143.1.45</server>
        <port>1234</port>
        <sslEnabled>true</sslEnabled>
        <pemKey>-----BEGIN CERTIFICATE-----...-----END CERTIFICATE-----</pemKey>
    </connection>
    <connection id="2">
        <server>10.143.1.46</server>
        <port>1234</port>
        <sslEnabled>true</sslEnabled>
        <pemKey>-----BEGIN CERTIFICATE-----...-----END CERTIFICATE-----</pemKey>
    </connection>
  </connectionList>
</config>
La conexión del host con NSX-T Data Center se inicia y se queda en estado "CIERRE_ESPERA" hasta que el host sea ascendido a nodo de transporte. Puede verlo con el comando esxcli network ip connection list | grep 1234.
# esxcli network ip connection list | grep 1234
tcp  0 0  192.168.210.53:45823  192.168.110.34:1234  CLOSE_WAIT  37256  newreno  netcpa 
Para KVM, el comando es netstat -anp --tcp | grep 1234.
user@host:~$ netstat -anp --tcp | grep 1234
tcp  0  0  192.168.210.54:57794  192.168.110.34:1234   CLOSE_WAIT -

Qué hacer a continuación

Cree una zona de transporte. Consulte Preparar hosts independientes como nodos de transporte.