Primero, agregue el host de ESXi, el host de KVM o el servidor sin sistema operativo al tejido de NSX-T Data Center y, a continuación, configure el nodo de transporte.

Para que un host o un servidor sin sistema operativo formen parte de la superposición de NSX-T Data Center, deben agregarse primero al tejido de NSX-T Data Center.

Un nodo de transporte es un nodo que participa en una superposición de NSX-T Data Center o redes VLAN de NSX-T Data Center.

Para un host o un servidor sin sistema operativo de KVM, puede preconfigurar el N-VDS o puede hacer que NSX Manager realice la configuración. Para un host ESXi, NSX Manager siempre configura el N-VDS.

Nota: Si planea crear nodos de transporte desde una VM de plantilla, asegúrese de que no haya certificados en el host en /etc/vmware/nsx/. nsx-proxy no creará ningún certificado si ya existe uno.

El servidor sin sistema operativo admite superposición y zona de transporte de VLAN. Puede utilizar la interfaz de administración para administrar el servidor sin sistema operativo. La interfaz de la aplicación permite acceder a las aplicaciones del servidor sin sistema operativo.

Las NIC físicas únicas proporcionan una dirección IP a las interfaces IP de administración y aplicación.

Las NIC físicas dobles proporcionan una NIC física y una dirección IP única a la interfaz de administración. Las NIC físicas dobles también proporcionan una NIC física y una dirección IP única a la interfaz de aplicación.

Varias NIC físicas en una configuración asociada proporcionan NIC físicas dobles y una dirección IP única para la interfaz de administración y la interfaz de aplicación.

Puede Agregar un máximo de cuatro conmutadores de N-VDS para cada configuración:
  • N-VDS estándar creado para la zona de transporte de VLAN
  • N-VDS mejorado creado para la zona de transporte de VLAN
  • N-VDS estándar creado para la zona de transporte superpuesta
  • N-VDS mejorado creado para la zona de transporte superpuesta

En una topología de clúster de host único que ejecuta varios conmutadores de N-VDS estándar de superposición y una máquina virtual de Edge en el mismo host, NSX-T Data Center proporciona aislamiento de tráfico de modo que el tráfico que pasa a través del primer N-VDS esté aislado del tráfico que pasa a través del segundo N-VDS. Las NIC físicas de cada N-VDS deben asignarse a la máquina virtual de Edge en el host para permitir la conectividad del tráfico de norte a sur con el mundo externo. Los paquetes que salen de una máquina virtual en la primera zona de transporte deben redirigirse a través de un enrutador externo o una máquina virtual externa a la máquina virtual en la segunda zona de transporte.

Requisitos previos

  • El host debe estar conectado al plano de administración y la conectividad debe estar activa.
  • El servicio de proxy inverso en todos los nodos del clúster de NSX Manager debe estar activo y en ejecución.

    Para comprobarlo, ejecute get service http. Si el servicio está inactivo, reinícielo ejecutando restart service http en cada nodo de NSX Manager. Si el servicio sigue inactivo, póngase en contacto con el soporte de VMware.

  • Debe haber una zona de transporte configurada.
  • Se debe configurar un perfil de enlace ascendente, o puede utilizar el perfil de enlace ascendente predeterminado.
  • Se debe configurar un grupo de direcciones IP o debe estar disponible el protocolo DHCP en la implementación de la red.
  • Debe haber disponible al menos una tarjeta NIC física no utilizada en el nodo host.
  • Nombre de host
  • Dirección IP de administración
  • Nombre de usuario
  • Contraseña
  • (Opcional) (KVM) Huella digital SHA-256 SSL
  • (Opcional) (ESXi) Huella digital SHA-256 SSL
  • Compruebe que estén instalados los paquetes de terceros requeridos.

Procedimiento

  1. (opcional) Recupere la huella digital del hipervisor para que pueda proporcionarlo al agregar el host al tejido.
    1. Recopile la información de la huella digital del hipervisor.
      Utilice un shell de Linux.
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      Utilice la CLI de ESXi en el host.
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. Recupere la huella digital SHA-256 de un hipervisor de KVM, ejecute el comando en el host de KVM:
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. Seleccione Sistema > Tejido > Nodos > Nodos de transporte de host.
  3. En el campo Administrado por, seleccione Hosts independientes y haga clic en + Agregar.
  4. Introduzca los detalles del host independiente o del servidor sin sistema operativo que se agregará al tejido.
    Opción Descripción
    Nombre y descripción Escriba un nombre para identificar el host independiente o el servidor sin sistema operativo.

    También puede agregar una descripción del sistema operativo utilizado para el host o el servidor sin sistema operativo.

    Direcciones IP Escriba la dirección IP del host o el servidor sin sistema operativo.
    Sistema operativo Seleccione el sistema operativo en el menú desplegable.

    En función del host o el servidor sin sistema operativo, podrá seleccionar uno de los sistemas operativos compatibles. Consulte Requisitos del sistema.

    Importante: Entre los diferentes tipos de Linux admitidos, debe conocer la diferencia entre un servidor nativo que ejecuta una distribución de Linux en lugar de usar una distribución de Linux como un host de hipervisor. Por ejemplo, al seleccionar el servidor Ubuntu como sistema operativo, se configura un servidor nativo en el que se ejecuta un servidor Linux, mientras que si se selecciona KVM de Ubuntu significa que el hipervisor de Linux implementado es Ubuntu.
    Nombre de usuario y contraseña Escriba el nombre de usuario y la contraseña del host.
    Huella digital de SHA-256 Introduzca el valor de la huella digital del host para la autenticación.

    Si deja el valor de huella digital en blanco, se le solicitará que acepte el valor que proporciona el servidor. NSX-T Data Center tarda unos segundos en detectar y autenticar el host.

  5. (Requerido) Para un host de KVM o un servidor sin sistema operativo, seleccione el tipo de N-VDS.
    Opción Descripción
    NSX creado NSX Manager crea el N-VDS.

    Esta opción está seleccionada de manera predeterminada.

    Preconfigurado Ya se configuró el N-VDS.
    Para un host de ESXi, el tipo de N-VDS siempre se establece como NSX creado.
  6. Si selecciona el conmutador de N-VDS para que funcione en el modo Estándar (todos los hosts), introduzca un valor en los siguientes campos. Puede configurar varios conmutadores de N-VDS en un mismo host.
    Opción Descripción
    Nombre Introduzca un nombre para el conmutador de host de N-VDS.
    Zona de transporte En el menú desplegable, seleccione una zona de transporte para este nodo de transporte.
    Perfil NIOC En el menú desplegable, seleccione un perfil de NIOC para el host ESXi o cree un perfil de NIOC personalizado.

    También puede usar el perfil de NIOC predeterminado.

    Perfil de vínculo superior Seleccione un perfil de enlace ascendente en el menú desplegable o cree un perfil personalizado.

    También puede utilizar el perfil de enlace ascendente predeterminado.

    Perfil de LLDP De forma predeterminada, NSX-T solo recibe paquetes LLDP de un vecino LLDP.

    Sin embargo, NSX-T se puede configurar para enviar paquetes LLDP a un vecino LLDP y recibirlos de él.

    Asignación de IP Seleccione Usar DHCP (Use DHCP), Usar grupo de direcciones IP (Use IP Pool) o Usar lista de direcciones IP estáticas (Use Static IP List).

    Si selecciona Usar lista de direcciones IP estáticas (Use Static IP List), debe especificar una lista de direcciones IP separadas por comas, una puerta de enlace y una máscara de subred.

    Grupo de direcciones IP Si seleccionó Usar grupo de direcciones IP (Use IP Pool) para la asignación de direcciones IP, especifique el nombre del grupo de direcciones IP.
    Asignación de conmutador de directiva de formación de equipos

    Agregue NIC físicas al nodo de transporte. Puede usar el enlace ascendente o asignar uno existente en el menú desplegable.

    Migración solamente de PNIC

    Antes de establecer este campo, tenga en cuenta los siguientes puntos:

    • Sepa si la NIC física definida es una NIC utilizada o una NIC libre.
    • Determine si las interfaces de VMkernel de un host se deben migrar junto con las NIC físicas.

    Configure el campo:

    • Habilite la opción Migración solamente de PNIC solo si desea migrar las NIC físicas de un conmutador VSS o DVS a un conmutador de N-VDS.

    • Deshabilite la opción Migración solamente de PNIC si va a migrar una NIC física utilizada y su asignación de interfaz de VMkernel asociada. Una NIC física disponible o libre se asocia al conmutador de N-VDS cuando se especifica la asignación de migración de interfaz de VMkernel.

    En un host con varios conmutadores de host:
    • Si todos los conmutadores de host se van a migrar solo a PNIC, puede migrar las PNIC en una sola operación.
    • Si algunos conmutadores de hosts se van a migrar a interfaces de VMkernel y el resto de conmutadores de host se van a migrar solo a PNIC:
      1. En la primera operación, migre solo las PNIC.
      2. En la segunda operación, migre las interfaces de VMkernel. Asegúrese de que la opción Migración solamente de PNIC esté deshabilitada.

    Las opciones Migración solamente de PNIC y Migración de interfaces de VMkernel no se admiten al mismo tiempo en varios hosts.

    Nota: Para migrar una NIC de la red de administración, configure su asignación de red de VMkernel asociado y mantenga la opción Migración solamente de PNIC deshabilitada. Si solo va a migrar la NIC de administración, el host perderá conectividad.

    Para obtener más información, consulte Migrar VMkernel a un conmutador de N-VDS.

    Asignaciones de red para instalación

    Para migrar VMkernel al conmutador de N-VDS durante la instalación, se asignan VMkernel a un conmutador lógico existente. NSX Manager migra el VMkernel al conmutador lógico asignado en N-VDS.

    Precaución: Asegúrese de que la NIC de administración y la interfaz de VMkernel se migran a un conmutador lógico conectado a la misma VLAN a la que estaba conectada la NIC de administración antes de la migración. Si vmnic <n> y VMkernel <n> se migran a una VLAN distinta, se perderá la conectividad con el host.
    Precaución: Para las NIC físicas asignadas, asegúrese de que la asignación de conmutador de host de la NIC física con la interfaz de VMkernel coincide con la configuración especificada en el perfil de nodo de transporte. Como parte del proceso de validación, NSX-T Data Center comprueba la asignación, y si la validación es correcta, la migración de las interfaces de VMkernel a un conmutador de N-VDS es correcta. Al mismo tiempo, es obligatorio configurar la asignación de red para la desinstalación porque NSX-T Data Center no almacena la configuración de asignación del conmutador del host después de migrar las interfaces de VMkernel al conmutador de N-VDS. Si la asignación no está configurada, se puede perder la conectividad con los servicios, como vSAN, después de volver a migrar al conmutador de VSS o VDS.

    Para obtener más información, consulte Migrar VMkernel a un conmutador de N-VDS.

    Asignaciones de red para desinstalación

    Para revertir la migración de VMkernel durante la desinstalación, asigne VMkernel a los grupos de puertos de VSS o DVS, para que NSX Manager sepa a qué grupo de puertos se debe volver a migrar el VMkernel en el VSS o DVS. Para un conmutador de DVS, asegúrese de que el grupo de puertos sea del tipo Efímero.

    Para revertir la migración de VMkernels vinculados a un grupo de puertos de NSX-T creados en un vSphere Distributed Virtual Switch 7.0 durante la desinstalación, asigne los VMkernel a los grupos de puertos de VSS o DVS, para que NSX Manager sepa a qué grupo de puertos se debe volver a migrar el VMkernel en el VSS o DVS. Para un conmutador de DVS, asegúrese de que el grupo de puertos sea del tipo Efímero.

    Precaución: Para las NIC físicas asignadas, asegúrese de que la asignación de perfil de nodo de transporte de la NIC física con la interfaz de VMkernel coincide con la configuración especificada en el conmutador de host. Es obligatorio configurar la asignación de red para la desinstalación porque NSX-T Data Center no almacena la configuración de asignación del conmutador del host después de migrar las interfaces de VMkernel al conmutador de N-VDS. Si la asignación no está configurada, se puede perder la conectividad con los servicios, como vSAN, después de volver a migrar al conmutador de VSS o VDS.

    Para obtener más información, consulte Migrar VMkernel a un conmutador de N-VDS.

  7. Si selecciona el conmutador de N-VDS para que funcione en el modo Rendimiento, introduzca los valores en los siguientes campos adicionales. Puede configurar varios conmutadores de N-VDS en un mismo host.
    Opción Descripción
    (Configuración de CPU)

    Índice de nodos NUMA

    En el menú desplegable Índice de nodos de NUMA, seleccione el nodo de NUMA que desea asignar a un conmutador N-VDS. El primer nodo de NUMA incluido en el nodo se representa con el valor 0.

    Para averiguar el número de nodos de NUMA en el host, ejecute el comando esxcli hardware memory get.

    Nota: Si desea cambiar el número de nodos de NUMA que tienen afinidad con un conmutador N-VDS, puede actualizar el valor de índice de nodos de NUMA.
    (Configuración de CPU)

    Instancias de LCore por nodo de NUMA

    En el menú desplegable Lcore por nodo de NUMA, seleccione el número de núcleos lógicos que debe utilizar la ruta de datos mejorada.

    Para averiguar el número máximo de núcleos lógicos que pueden crearse en el nodo de NUMA, ejecute el comando esxcli network ens maxLcores get.

    Nota: Si se agotaron los nodos de NUMA y los núcleos lógicos disponibles, no podrá habilitarse para el tráfico de ENS ningún conmutador nuevo que se agregue al nodo de transporte.
  8. Para un N-VDS preconfigurado, proporcione los siguientes detalles.
    Opción Descripción
    ID externo del N-VDS Debe ser igual al nombre del N-VDS de la zona de transporte a la que pertenece este nodo.
    VTEP Nombre del endpoint del túnel virtual.
  9. Puede ver el estado de conexión en la página Nodos de transporte de host. Durante el proceso de configuración, cada nodo de transporte muestra el porcentaje de progreso de la instalación. Si se produce un error durante cualquier etapa de la instalación, puede reiniciar el proceso haciendo clic en el vínculo Resolver que está disponible en la etapa con errores del proceso.
    Después de agregar el host o el servidor nativo como nodo de transporte, el estado de la conexión con NSX Manager aparecerá como ACTIVO solo después de que el host se haya creado correctamente como nodo de transporte.
  10. Como alternativa, puede ver el estado de conexión mediante los comandos de la CLI.
    • Para ESXi, introduzca el comando esxcli network ip connection list | grep 1234.
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLECIDO (ESTABLISHED)  1000144459  newreno  nsx-cfgagent
       
      
    • Para KVM, introduzca el comando netstat -anp --tcp | grep 1234.
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   ESTABLECIDO -
    • Para Windows, desde una ventana del símbolo del sistema, introduzca netstat | find "1234"
    • Para Windows, desde una ventana del símbolo del sistema, introduzca netstat | find "1235"
  11. Compruebe que los módulos de NSX-T Data Center esté instalados en el host o el servidor sin sistema operativo.
    Como resultado de agregar un host o un servidor sin sistema operativo al tejido de NSX-T Data Center, se instala una colección de módulos de NSX-T Data Center en el host o el servidor sin sistema operativo.

    Los módulos de los diferentes hosts se empaquetan como se indica a continuación:

    • KVM en RHEL, CentOS, Oracle Linux o SUSE - RPM.
    • KVM en Ubuntu: DEB
    • En ESXi, escriba el comando esxcli software vib list | grep nsx.

      La fecha es el día en que se realizó la instalación.

    • En RHEL, CentOS u Oracle Linux, escriba el comando yum list installed o rpm -qa.
    • En Ubuntu, escriba el comando dpkg --get-selections.
    • En SUSE, escriba el comando rpm -qa | grep nsx.
    • En Windows, abra el Administrador de tareas. O, desde una ventana del símbolo del sistema, introduzca tasklist /V | grep nsx findstr “nsx ovs
  12. (opcional) Cambie los intervalos de sondeo de determinados procesos si hay 500 hipervisores o más.
    Es posible que NSX Manager experimente problemas de rendimiento y un alto uso de CPU si hay más de 500 hipervisores.
    1. Utilice el comando copy file de la CLI de NSX-T Data Center o la API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file para copiar el script aggsvc_change_intervals.py en un host.
    2. Ejecute el script, que se encuentra en el almacén de archivos de NSX-T Data Center.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (opcional) Restablezca los valores predeterminados de los intervalos de sondeo.
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

Resultados

Nota: Para un N-VDS creado con NSX-T Data Center, si desea cambiar la configuración, como la asignación de direcciones IP al endpoint de túnel, después de crear el nodo de transporte, debe hacerlo a través de la GUI de NSX Manager y no a través de la CLI en el host.

Qué hacer a continuación

Migre las interfaces de red de un vSphere Standard Switch a un N-VDS. Consulte Migrar VMkernel a un conmutador de N-VDS.