Primero, agregue el host de ESXi, el host de KVM o el servidor sin sistema operativo al tejido de NSX-T Data Center y, a continuación, configure el nodo de transporte.

Un nodo de tejido es un nodo que se registró con el plano de administración de NSX-T Data Center y que tiene módulos de NSX-T Data Center instalados. Para que un host o un servidor sin sistema operativo formen parte de la superposición de NSX-T Data Center, deben agregarse primero al tejido de NSX-T Data Center.

Un nodo de transporte es un nodo que participa en una superposición de NSX-T Data Center o redes VLAN de NSX-T Data Center.

Para un host o un servidor sin sistema operativo de KVM, puede preconfigurar el N-VDS o puede hacer que NSX Manager realice la configuración. Para un host ESXi, NSX Manager siempre configura el N-VDS.

Nota: Si planea crear nodos de transporte desde una VM de plantilla, asegúrese de que no haya certificados en el host en /etc/vmware/nsx/. El agente netcpa no crea ningún certificado si existe uno.

El servidor sin sistema operativo admite superposición y zona de transporte de VLAN. Puede utilizar la interfaz de administración para administrar el servidor sin sistema operativo. La interfaz de la aplicación permite acceder a las aplicaciones del servidor sin sistema operativo.

Las NIC físicas únicas proporcionan una dirección IP a las interfaces IP de administración y aplicación.

Las NIC físicas dobles proporcionan una NIC física y una dirección IP única a la interfaz de administración. Las NIC físicas dobles también proporcionan una NIC física y una dirección IP única a la interfaz de aplicación.

Varias NIC físicas en una configuración asociada proporcionan NIC físicas dobles y una dirección IP única a la interfaz de administración. Varias NIC físicas en una configuración asociada también proporcionan NIC físicas dobles y una dirección IP única a la interfaz de aplicación.

Puede agregar un máximo de cuatro conmutadores de N-VDS para cada configuración: N-VDS estándar creado para la zona de transporte de VLAN, N-VDS mejorado creado para la zona de transporte de VLAN, N-VDS estándar creado para la zona de transporte de superposición y N-VDS mejorado creado para la zona de transporte de superposición.

En una topología de clúster de host único que ejecuta varios conmutadores de N-VDS estándar de superposición y una máquina virtual de Edge en el mismo host, NSX-T Data Center proporciona aislamiento de tráfico de modo que el tráfico que pasa a través del primer N-VDS esté aislado del tráfico que pasa a través del segundo N-VDS, y así sucesivamente. Las NIC físicas de cada N-VDS deben asignarse a la máquina virtual de Edge en el host para permitir la conectividad del tráfico de norte a sur con el mundo externo. Los paquetes que salen de una máquina virtual en la primera zona de transporte deben redirigirse a través de un enrutador externo o una máquina virtual externa a la máquina virtual en la segunda zona de transporte.

Requisitos previos

  • El host debe estar conectado al plano de administración y la conectividad debe estar activa.
  • Debe haber una zona de transporte configurada.
  • Se debe configurar un perfil de enlace ascendente, o puede utilizar el perfil de enlace ascendente predeterminado.
  • Se debe configurar un grupo de direcciones IP o debe estar disponible el protocolo DHCP en la implementación de la red.
  • Debe haber disponible al menos una tarjeta NIC física no utilizada en el nodo host.
  • Nombre de host
  • Dirección IP de administración
  • Nombre de usuario
  • Contraseña
  • (Opcional) (KVM) Huella digital SHA-256 SSL
  • (Opcional) (ESXi) Huella digital SHA-256 SSL
  • Compruebe que estén instalados los paquetes de terceros requeridos. Consulte Instalar paquetes de terceros en un host de KVM.

Procedimiento

  1. (opcional) Recupere la huella digital del hipervisor para que pueda proporcionarlo al agregar el host al tejido.
    1. Recopile la información de la huella digital del hipervisor.
      Utilice un shell de Linux.
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      Utilice la CLI de ESXi en el host.
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. Recupere la huella digital SHA-256 de un hipervisor de KVM, ejecute el comando en el host de KVM:
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. Seleccione Sistema > Tejido > Nodos > Nodos de transporte de host.
  3. En el campo Administrado por, seleccione Hosts independientes y haga clic en + Agregar.
  4. Introduzca los detalles del host independiente o del servidor sin sistema operativo que se agregará al tejido.
    Opción Descripción
    Nombre y descripción Escriba un nombre para identificar el host independiente o el servidor sin sistema operativo.

    También puede agregar una descripción del sistema operativo utilizado para el host o el servidor sin sistema operativo.

    Direcciones IP Escriba la dirección IP del host o el servidor sin sistema operativo.
    Sistema operativo Seleccione el sistema operativo en el menú desplegable.

    En función del host o el servidor sin sistema operativo, podrá seleccionar uno de los sistemas operativos compatibles. Consulte Requisitos del sistema.

    Importante: Entre los diferentes tipos de Linux admitidos, debe conocer la diferencia entre un servidor nativo que ejecuta una distribución de Linux en lugar de usar una distribución de Linux como un host de hipervisor. Por ejemplo, al seleccionar el servidor Ubuntu como sistema operativo, se configura un servidor nativo en el que se ejecuta un servidor Linux, mientras que si se selecciona KVM de Ubuntu significa que el hipervisor de Linux implementado es Ubuntu.
    Nombre de usuario y contraseña Escriba el nombre de usuario y la contraseña del host.
    Huella digital de SHA-256 Introduzca el valor de la huella digital del host para la autenticación.

    Si deja el valor de huella digital en blanco, se le solicitará que acepte el valor que proporciona el servidor. NSX-T Data Center tarda unos segundos en detectar y autenticar el host.

  5. (Requerido) Para un host de KVM o un servidor sin sistema operativo, seleccione el tipo de N-VDS.
    Opción Descripción
    NSX creado NSX Manager crea el N-VDS.

    Esta opción está seleccionada de manera predeterminada.

    Preconfigurado Ya se configuró el N-VDS.
    Para un host de ESXi, el tipo de N-VDS siempre se establece como NSX creado.
  6. Introduzca los detalles de N-VDS estándar. Se pueden configurar varios conmutadores de N-VDS en un único host.
    Opción Descripción
    Zona de transporte Seleccione la zona de transporte a la que corresponde este nodo de transporte en el menú desplegable.
    Nombre del N-VDS Debe ser igual al nombre del N-VDS de la zona de transporte a la que pertenece este nodo.
    Perfil NIOC Para un host ESXi, seleccione el perfil NIOC en el menú desplegable.
    Perfil de vínculo superior Seleccione un perfil de enlace ascendente en el menú desplegable o cree un perfil personalizado.

    También puede utilizar el perfil de enlace ascendente predeterminado.

    Perfil de LLDP De forma predeterminada, NSX-T solo recibe paquetes LLDP de un vecino LLDP.

    Sin embargo, NSX-T se puede configurar para enviar paquetes LLDP a un vecino LLDP y recibirlos de él.

    Asignación de IP Seleccione Usar DHCP (Use DHCP), Usar grupo de direcciones IP (Use IP Pool) o Usar lista de direcciones IP estáticas (Use Static IP List).

    Si selecciona Usar lista de direcciones IP estáticas (Use Static IP List), debe especificar una lista de direcciones IP separadas por comas, una puerta de enlace y una máscara de subred.

    Grupo de direcciones IP Si seleccionó Usar grupo de direcciones IP (Use IP Pool) para la asignación de direcciones IP, especifique el nombre del grupo de direcciones IP.
    NIC físicas

    Agregue NIC físicas al nodo de transporte. Puede usar el enlace ascendente o asignar uno existente en el menú desplegable.

    Haga clic en Agregar PNIC para configurar NIC físicas adicionales en el nodo de transporte.

    Nota: La migración de las NIC físicas que se agreguen en este campo dependerá de cómo se configuren Migración solamente de PNIC, Asignaciones de red para instalación y Asignaciones de red para desinstalación.
    • Para migrar una NIC física utilizada (por ejemplo, mediante un vSwitch estándar o un conmutador distribuido de vSphere) sin una asignación de VMkernel asociada, asegúrese de que la opción Migración solamente de PNIC esté habilitada. De lo contrario, el nodo de transporte sigue en estado parcialmente correcto y no se puede establecer la conectividad del LCP del nodo de tejido.
    • Para migrar una NIC física utilizada con una asignación de red de VMkernel asociada, deshabilite la opción Migrar solamente de PNIC y configure la asignación de red de VMkernel.

    • Para migrar una NIC física libre, habilite la opción Migrar solamente de PNIC.

    Migración solamente de PNIC

    Antes de establecer este campo, tenga en cuenta los siguientes puntos:

    • Sepa si la NIC física definida es una NIC utilizada o una NIC libre.
    • Determine si las interfaces de VMkernel de un host se deben migrar junto con las NIC físicas.

    Configure el campo:

    • Habilite la opción Migración solamente de PNIC solo si desea migrar las NIC físicas de un conmutador VSS o DVS a un conmutador de N-VDS.

    • Deshabilite la opción Migración solamente de PNIC si va a migrar una NIC física utilizada y su asignación de interfaz de VMkernel asociada. Una NIC física disponible o libre se asocia al conmutador de N-VDS cuando se especifica la asignación de migración de interfaz de VMkernel.

    En un host con varios conmutadores de host:
    • Si todos los conmutadores de host se van a migrar solo a PNIC, puede migrar las PNIC en una sola operación.
    • Si algunos conmutadores de hosts se van a migrar a interfaces de VMkernel y el resto de conmutadores de host se van a migrar solo a PNIC:
      1. En la primera operación, migre solo las PNIC.
      2. En la segunda operación, migre las interfaces de VMkernel. Asegúrese de que la opción Migración solamente de PNIC esté deshabilitada.

    Las opciones Migración solamente de PNIC y Migración de interfaces de VMkernel no se admiten al mismo tiempo en varios hosts.

    Nota: Para migrar una NIC de la red de administración, configure su asignación de red de VMkernel asociado y mantenga la opción Migración solamente de PNIC deshabilitada. Si solo va a migrar la NIC de administración, el host perderá conectividad.

    Para obtener más información, consulte Migrar VMkernel a un conmutador de N-VDS.

    Asignaciones de red para instalación

    Para migrar VMkernel al conmutador de N-VDS durante la instalación, se asignan VMkernel a un conmutador lógico existente. NSX Manager migra el VMkernel al conmutador lógico asignado en N-VDS.

    Precaución: Asegúrese de que la NIC de administración y la interfaz de VMkernel se migran a un conmutador lógico conectado a la misma VLAN a la que estaba conectada la NIC de administración antes de la migración. Si vmnic <n> y VMkernel <n> se migran a una VLAN distinta, se perderá la conectividad con el host.
    Precaución: Para las NIC físicas asignadas, asegúrese de que la asignación de conmutador de host de la NIC física con la interfaz de VMkernel coincide con la configuración especificada en el perfil de nodo de transporte. Como parte del proceso de validación, NSX-T Data Center comprueba la asignación, y si la validación es correcta, la migración de las interfaces de VMkernel a un conmutador de N-VDS es correcta. Al mismo tiempo, es obligatorio configurar la asignación de red para la desinstalación porque NSX-T Data Center no almacena la configuración de asignación del conmutador del host después de migrar las interfaces de VMkernel al conmutador de N-VDS. Si la asignación no está configurada, se puede perder la conectividad con los servicios, como vSAN, después de volver a migrar al conmutador de VSS o VDS.

    Para obtener más información, consulte Migrar VMkernel a un conmutador de N-VDS.

    Asignaciones de red para desinstalación

    Para revertir la migración de VMkernel durante la desinstalación, asigne VMkernel a los grupos de puertos de VSS o DVS, para que NSX Manager sepa a qué grupo de puertos se debe volver a migrar el VMkernel en el VSS o DVS. Para un conmutador de DVS, asegúrese de que el grupo de puertos sea del tipo Efímero.

    Precaución: Para las NIC físicas asignadas, asegúrese de que la asignación de perfil de nodo de transporte de la NIC física con la interfaz de VMkernel coincide con la configuración especificada en el conmutador de host. Es obligatorio configurar la asignación de red para la desinstalación porque NSX-T Data Center no almacena la configuración de asignación del conmutador del host después de migrar las interfaces de VMkernel al conmutador de N-VDS. Si la asignación no está configurada, se puede perder la conectividad con los servicios, como vSAN, después de volver a migrar al conmutador de VSS o VDS.

    Para obtener más información, consulte Migrar VMkernel a un conmutador de N-VDS.

  7. Introduzca los detalles de N-VDS de ruta de datos mejorada. Se pueden configurar varios conmutadores de N-VDS en un único host.
    Opción Descripción
    Nombre del N-VDS Debe ser igual al nombre del N-VDS de la zona de transporte a la que pertenece este nodo.
    Asignación de IP Seleccione Usar DHCP (Use DHCP), Usar grupo de direcciones IP (Use IP Pool) o Usar lista de direcciones IP estáticas (Use Static IP List).

    Si selecciona Usar lista de direcciones IP estáticas (Use Static IP List), debe especificar una lista de direcciones IP separadas por comas, una puerta de enlace y una máscara de subred.

    Grupo de direcciones IP Si seleccionó Usar grupo de direcciones IP para la asignación de direcciones IP, especifique el nombre del grupo de direcciones IP.
    NIC físicas

    Agregue NIC físicas al nodo de transporte. Puede usar el enlace ascendente o asignar uno existente en el menú desplegable.

    Haga clic en Agregar PNIC para configurar NIC físicas adicionales en el nodo de transporte.

    Nota: La migración de las NIC físicas que se agreguen en este campo dependerá de cómo se configuren Migración solamente de PNIC, Asignaciones de red para instalación y Asignaciones de red para desinstalación.
    • Para migrar una NIC física utilizada (por ejemplo, mediante un vSwitch estándar o un conmutador distribuido de vSphere) sin una asignación de VMkernel asociada, asegúrese de que la opción Migración solamente de PNIC esté habilitada. De lo contrario, el nodo de transporte sigue en estado parcialmente correcto y no se puede establecer la conectividad del LCP del nodo de tejido.
    • Para migrar una NIC física utilizada con una asignación de red de VMkernel asociada, deshabilite la opción Migrar solamente de PNIC y configure la asignación de red de VMkernel.

    • Para migrar una NIC física libre, habilite la opción Migrar solamente de PNIC.

    Vínculo superior Seleccione el perfil de enlace ascendente en el menú desplegable.
    Configuración de CPU En el menú desplegable Índice de nodos de NUMA, seleccione el nodo de NUMA que desea asignar a un conmutador N-VDS. El primer nodo de NUMA incluido en el nodo se representa con el valor 0.

    Para averiguar el número de nodos de NUMA en el host, ejecute el comando esxcli hardware memory get.

    Nota: Si desea cambiar el número de nodos de NUMA que tienen afinidad con un conmutador N-VDS, puede actualizar el valor de índice de nodos de NUMA.
      En el menú desplegable Lcore por nodo de NUMA, seleccione el número de núcleos lógicos que debe utilizar la ruta de datos mejorada.

    Para averiguar el número máximo de núcleos lógicos que pueden crearse en el nodo de NUMA, ejecute el comando esxcli network ens maxLcores get.

    Nota: Si se agotaron los nodos de NUMA y los núcleos lógicos disponibles, no podrá habilitarse para el tráfico de ENS ningún conmutador nuevo que se agregue al nodo de transporte.
  8. Para un N-VDS preconfigurado, proporcione los siguientes detalles.
    Opción Descripción
    ID externo del N-VDS Debe ser igual al nombre del N-VDS de la zona de transporte a la que pertenece este nodo.
    VTEP Nombre del endpoint del túnel virtual.
  9. Puede ver el estado de conexión en la página Nodos de transporte de host.
    Después de agregar el host o el servidor sin sistema operativo como nodo de transporte, la conexión con NSX Manager cambia al estado activo en 3-4 minutos.
    Nota:
    Si se produce un error en la preparación del host debido a un error de coincidencia de hash de configuración que provoca un bucle de detección, pruebe una de las siguientes opciones:
    • Introduzca un FQDN falso y reinicie nsx-proxy en el host. Esto forzará que el host y NSX Manager no utilicen el FQDN.
    • O

      Si desea utilizar el modo de FQDN, asegúrese de implementar el dispositivo de NSX Manager con el FQDN para el nombre de host y asegúrese de que las mayúsculas y minúsculas coincidan con la entrada de búsqueda de DNS directa e inversa de la dirección IP de NSX Manager. Este ajuste debe ser coherente en todos los nodos de NSX Manager.

  10. Como alternativa, puede ver el estado de conexión mediante los comandos de la CLI.
    • Para ESXi, escriba el comando esxcli network ip connection list | grep 1234.
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLISHED  1000144459  newreno  netcpa
       
      
    • Para KVM, escriba el comando netstat -anp --tcp | grep 1234.
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   ESTABLISHED -
      
      
  11. Compruebe que los módulos de NSX-T Data Center esté instalados en el host o el servidor sin sistema operativo.
    Como resultado de agregar un host o un servidor sin sistema operativo al tejido de NSX-T Data Center, se instala una colección de módulos de NSX-T Data Center en el host o el servidor sin sistema operativo.

    Los módulos de los diferentes hosts se empaquetan como se indica a continuación:

    • KVM en RHEL o CentOS: RPM
    • KVM en Ubuntu: DEB
    • En ESXi, escriba el comando esxcli software vib list | grep nsx.

      La fecha es el día en que se realizó la instalación.

    • En RHEL o CentOS, escriba el comando yum list installed o rpm -qa.
    • En Ubuntu, escriba el comando dpkg --get-selections.
  12. (opcional) Cambie los intervalos de sondeo de determinados procesos si hay 500 hipervisores o más.
    Es posible que NSX Manager experimente problemas de rendimiento y un alto uso de CPU si hay más de 500 hipervisores.
    1. Utilice el comando copy file de la CLI de NSX-T Data Center o la API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file para copiar el script aggsvc_change_intervals.py en un host.
    2. Ejecute el script, que se encuentra en el almacén de archivos de NSX-T Data Center.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (opcional) Restablezca los valores predeterminados de los intervalos de sondeo.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

Resultados

Nota: Para un N-VDS creado con NSX-T Data Center, si desea cambiar la configuración, como la asignación de direcciones IP al endpoint de túnel, después de crear el nodo de transporte, debe hacerlo a través de la GUI de NSX Manager y no a través de la CLI en el host.

Qué hacer a continuación

Migre las interfaces de red de un conmutador estándar de vSphere a un N-VDS. Consulte Migrar VMkernel a un conmutador de N-VDS.