Un enrutador lógico distribuido (distributed logical router, DLR) es un dispositivo virtual que contiene el plano de control de enrutamiento, a la vez que distribuye el plano de datos de los módulos del kernel en cada host de hipervisor. La función del plano de control del DLR depende de que el clúster de NSX Controller inserte actualizaciones de enrutamiento en los módulos del kernel.

Nota: A partir de NSX Data Center 6.4.4, el término "Enrutador lógico" se reemplaza por "Enrutador lógico distribuido" en vSphere Web Client. En la documentación, ambos términos se utilizan indistintamente; sin embargo, hacen referencia al mismo objeto.
Al implementar un nuevo enrutador lógico, considere lo siguiente:
  • NSX Data Center for vSphere 6.2 y versiones posteriores permiten conectar interfaces lógicas (LIF) enrutadas mediante enrutadores lógicos a una VXLAN conectada en puente a una VLAN.
  • Las interfaces del enrutador lógico y las interfaces puente no pueden conectarse a un dvPortgroup si el identificador de la VLAN está establecido en 0.
  • Una instancia de enrutador lógico determinada no puede conectarse a los conmutadores lógicos que existen en zonas de transporte diferentes. El objetivo de esto es garantizar que todas las instancias de conmutadores lógicos y enrutadores lógicos estén alineadas.
  • No se puede conectar un enrutador lógico a grupos de puertos respaldados por VLAN si ese enrutador lógico se conecta a conmutadores lógicos que abarcan más de un vSphere Distributed Switch (VDS). Esto garantiza la correcta alineación entre instancias del enrutador lógico con dvPortgroups de conmutadores lógicos en los hosts.
  • No deben crearse interfaces de enrutadores lógicos en dos grupos de puertos distribuidos (dvPortgroups) diferentes con el mismo identificador de VLAN si las dos redes están en el mismo conmutador distribuido de vSphere.
  • No deben crearse interfaces de enrutadores lógicos en dos dvPortgroups diferentes con el mismo identificador de VLAN si las dos redes están en conmutadores distribuidos de vSphere diferentes, pero los dos conmutadores distribuidos de vSphere comparten los mismos hosts. En otras palabras, pueden crearse interfaces de enrutadores lógicos en dos redes diferentes con el mismo identificador de VLAN si los dos dvPortgroups están en dos conmutadores distribuidos de vSphere diferentes, siempre que los conmutadores distribuidos de vSphere no compartan un host.
  • Si se configura VXLAN, las interfaces del enrutador lógico se deben conectar a grupos de puertos distribuidos en el vSphere Distributed Switch donde VXLAN esté configurado. No conecte interfaces de enrutadores lógicos a grupos de puertos en otros vSphere Distributed Switches.
En la siguiente lista se describen las características admitidas por tipo de interfaz (interna y de vínculo superior) en el enrutador lógico:
  • Se admiten protocolos de enrutamiento dinámico (BGP y OSPF) solo en las interfaces de vínculo superior.
  • Las reglas de firewall son aplicables solo en las interfaces de enlace ascendente, y están limitadas al tráfico de control y de administración destinado al dispositivo Edge virtual.
  • Para obtener más información sobre la interfaz de administración DLR, consulte el artículo de la base de conocimiento http://kb.vmware.com/kb/2122060 con la guía de interfaz de administración de máquinas virtuales de control DLR para NSX.
Atención: vSphere Fault Tolerance no funciona con la máquina virtual de control del enrutador lógico.

Requisitos previos

  • Debe tener asignada la función de administrador de Enterprise o administrador de NSX.
  • Se debe crear un grupo de identificadores de segmentos local aunque no esté previsto crear conmutadores lógicos.
  • Asegúrese de que el clúster de controladores esté en funcionamiento y disponible antes de crear o modificar la configuración del enrutador lógico. Los enrutadores lógicos no pueden distribuir información de enrutamiento a hosts sin la ayuda de los controladores NSX Controller. Los enrutadores lógicos dependen de los controladores NSX Controller para funcionar, mientras que las puertas de enlace de servicios Edge (Edge Services Gateways, ESG) no.
  • Si se desea conectar un enrutador lógico a los dvPortgroups de VLAN, asegúrese de que todos los hosts del hipervisor con un dispositivo de enrutador lógico instalado puedan comunicarse entre sí en el puerto UDP 6999. Es necesaria la comunicación en este puerto para que funcione el proxy ARP basado en VLAN del enrutador lógico.
  • Determine dónde implementar el dispositivo de enrutador lógico.
    • El host de destino debe formar parte de la misma zona de transporte que los conmutadores lógico conectados a las interfaces del nuevo enrutador lógico.
    • Evite colocarlo en el mismo host que uno o varios de sus ESG ascendentes si utiliza ESG en una configuración ECMP. Puede utilizar reglas de antiafinidad de DRS para aplicar esta práctica, lo que reducirá el impacto de los errores del host en el reenvío de enrutadores lógicos. Estas instrucciones no se aplican si tiene un ESG ascendente individual o en modo de alta disponibilidad. Para obtener más información, consulte Guía de diseño de virtualización de red de NSX en https://communities.vmware.com/docs/DOC-27683.
  • Compruebe que el clúster del host en el que instala el dispositivo del enrutador lógico está preparado para NSX Data Center for vSphere. Consulte cómo preparar el clúster del host para NSX en Guía de instalación de NSX.

Procedimiento

  1. En vSphere Web Client, acceda a Inicio (Home) > Redes y seguridad (Networking & Security) > NSX Edge.
  2. Haga clic en Agregar (Add) y, a continuación, haga clic en Enrutador lógico (Logical Router).
  3. Introduzca el nombre, la descripción y otros detalles del enrutador lógico.
    Opción Descripción
    Nombre (Name)

    Introduzca un nombre para el enrutador lógico con el que quiera que aparezca en el inventario de vCenter.

    Asegúrese de que este nombre sea único en todos los enrutadores lógicos de un solo arrendatario.

    Nombre del host (Host Name)

    Opcional. Introduzca un nombre de host que desee que aparezca para el enrutador lógico en la CLI.

    Si no introduce un nombre de host, la interfaz de línea de comandos muestra el identificador de Edge que se crea automáticamente.

    Descripción Opcional. Escriba una descripción del enrutador lógico.
    Implementar un dispositivo Edge (Deploy Edge Appliance)

    De forma predeterminada, esta opción está seleccionada. Se requiere un dispositivo Edge (también denominado dispositivo virtual de enrutador lógico) para el enrutamiento dinámico y para el firewall del dispositivo de enrutador lógico, que se aplica a los ping del enrutador, al acceso de SSH y al tráfico de enrutamiento dinámico.

    Si solo necesita rutas estáticas y no desea implementar un dispositivo de Edge, desmarque esta opción. No puede agregar un dispositivo Edge al enrutador lógico una vez que este enrutador está creado.

    Alta disponibilidad (High Availability)

    Opcional. De forma predeterminada, HA está deshabilitado. Seleccione esta opción para habilitar y configurar HA en el enrutador lógico.

    Si piensa realizar un enrutamiento dinámico, HA es obligatorio.

    Registro de HA (HA Logging)

    Opcional. De forma predeterminada, Registro de HA (HA logging) está deshabilitado.

    Cuando el registro está habilitado, el nivel de registro predeterminado está configurado como info. Puede cambiarlo si es necesario.

  4. Especifique las opciones de CLI y otras opciones del enrutador lógico.
    Opción Descripción
    Nombre de usuario (User Name) Introduzca un nombre de usuario que desee usar para iniciar sesión en la CLI del Edge.
    Contraseña (Password) Introduzca una contraseña que tenga, al menos, 12 caracteres y que cumpla las siguientes reglas:
    • No debe superar los 255 caracteres
    • Al menos una letra mayúscula y una letra minúscula
    • Al menos un número
    • Al menos un carácter especial
    • No debe incluir el nombre de usuario como subcadena
    • Un carácter no debe repetirse 3 o más veces
    Confirmar contraseña Vuelva a introducir la contraseña para confirmarla.
    Acceso SSH (SSH access)

    Opcional. De forma predeterminada, el acceso SSH está deshabilitado. Si no habilita SSH, puede abrir la consola del dispositivo virtual para seguir accediendo al enrutador lógico.

    Habilitar SSH provoca que el proceso SSH se ejecute en el enrutador. Deberá ajustar la configuración del firewall del enrutador lógico manualmente para permitir el acceso de SSH a la dirección del protocolo del enrutador lógico. La dirección del protocolo se establece cuando se configura el enrutamiento dinámico en el enrutador lógico.

    Modo FIPS (FIPS mode)

    Opcional. De forma predeterminada, el modo FIPS está deshabilitado.

    Al habilitar el modo FIPS, cualquier comunicación segura desde o hacia NSX Edge utiliza algoritmos o protocolos criptográficos permitidos por FIPS.

    Registro del nivel de control de Edge (Edge control level logging) Opcional. De forma predeterminada, el nivel de registro es info.
  5. Configure la implementación de Dispositivo NSX Edge.
    • Si no seleccionó Implementar un dispositivo Edge (Deploy Edge Appliance), no puede agregar ningún dispositivo. Haga clic en Siguiente (Next) para continuar con la configuración.
    • Si seleccionó Implementar dispositivo Edge (Deploy Edge Appliance), introduzca la configuración del dispositivo virtual del enrutador lógico.
    Por ejemplo:
    Opción Valor
    Grupo de recursos y clústeres Administración y Edge
    Almacén de datos ds-1
    Host esxmgt-01a.corp.local
    Reserva de recursos Sistema gestionado
    Para obtener más información sobre la reserva de recursos, consulte "Administrar reservas de recursos de dispositivos NSX Edge" en la Guía de administración de NSX.
  6. Configure la conexión de la interfaz de HA y, de forma opcional, una dirección IP.

    Si seleccionó Implementar dispositivo Edge (Deploy Edge Appliance), debe conectar la interfaz de HA a un grupo de puertos distribuidos o a un conmutador lógico. Si está utilizando esta interfaz solo como una interfaz de HA, utilice un conmutador lógico. Se asigna una subred /30 desde el rango local del vínculo 169.254.0.0/16 y se utiliza para proporcionar una dirección IP para cada uno de los dos dispositivos NSX Edge.

    De manera opcional, si desea utilizar esta interfaz para conectarse a NSX Edge, puede especificar una dirección IP extra y el prefijo de la interfaz de HA.

    Nota:

    Antes de NSX Data Center for vSphere 6.2, la interfaz de HA se denominaba interfaz de administración. No es posible establecer una conexión SSH a la interfaz de HA desde ningún lugar que no se encuentre en la misma subred IP que la interfaz de HA. No se pueden configurar rutas estáticas que apunten hacia afuera de la interfaz de HA, lo que significa que RPF descartará el tráfico entrante. Sin embargo, en teoría, se puede deshabilitar RPF, pero hacerlo es contraproducente para la alta disponibilidad. Para el acceso SSH, también puede utilizar la dirección de protocolo del enrutador lógico, que se establece posteriormente cuando se configura el enrutamiento dinámico.

    En NSX Data Center for vSphere 6.2 y versiones posteriores, la interfaz de HA de un enrutador lógico se excluye automáticamente de la redistribución de rutas.

    Por ejemplo, la siguiente tabla muestra una configuración de interfaz de HA de ejemplo, donde la interfaz de HA está conectada a un grupo dvPortgroup de administración.
    Opción Descripción
    Conectada a Mgmt_VDS-Mgmt
    Dirección IP (IP Address) 192.168.110.60*
    Longitud de prefijo de subred (Subnet Prefix Length) 24
  7. Configure las interfaces de NSX Edge.
    1. Especifique el nombre, el tipo y otra información básica de las interfaces.
      Opción Descripción
      Nombre (Name) Introduzca un nombre para la interfaz.
      Tipo (Type) Seleccione Interno (Internal) o Vínculo superior (Uplink).

      Las interfaces internas están diseñadas para conexiones a conmutadores que permiten la comunicación de máquina virtual a máquina virtual (también denominada de este a oeste). Las interfaces internas se crean como pseudo vNIC en el dispositivo virtual del enrutador lógico. Las interfaces de vínculo superior se utilizan para la comunicación de norte a sur y se crean como vNIC en el dispositivo virtual del enrutador lógico.

      Una interfaz de vínculo superior del enrutador lógico podría conectarse a una puerta de enlace de servicios Edge o a una máquina virtual del enrutador de terceros. Se debe tener al menos una interfaz de vínculo superior para que el enrutamiento dinámico funcione.

      Conectada a Seleccione el grupo de puertos virtual distribuido o el conmutador lógico al que desea conectar esta interfaz.
    2. Configure las subredes de la interfaz.
      Opción Descripción
      Dirección IP principal (Primary IP Address)

      En los enrutadores lógicos, solo se admiten las direcciones IPv4.

      La configuración de la interfaz especificada en este punto se puede modificar más adelante. Es posible agregar, eliminar y modificar interfaces después de implementar un enrutador lógico.

      Longitud de prefijo de subred (Subnet Prefix Length) Introduzca la máscara de subred de la interfaz.
    3. (opcional) Edite el valor de MTU predeterminado, si es necesario. El valor predeterminado del vínculo superior y la interfaz interna es 1500.
      La siguiente tabla muestra dos interfaces internas (aplicación y web) y una interfaz de vínculo superior (a ESG).
      Tabla 1. Ejemplo: Interfaces de NSX Edge
      Nombre (Name) Dirección IP Longitud de prefijo de subred (Subnet Prefix Length) Conectada a
      aplicación 172.16.20.1* 24 aplicación
      web 172.16.10.1* 24 web
      hacia ESG 192.168.10.2* 29 tránsito
  8. Configure las opciones de la puerta de enlace predeterminada.
    Por ejemplo:
    Opción Valor
    vNIC Enlace ascendente
    IP de puerta de enlace (Gateway IP) 192.168.10.1
    MTU 1.500
  9. Asegúrese de que todas las máquinas virtuales conectadas a los conmutadores lógicos tengan sus puertas de enlace predeterminadas establecidas adecuadamente en las direcciones IP de la interfaz del enrutador lógico.

Resultados

En el siguiente ejemplo de topología, la puerta de enlace predeterminada de la máquina virtual de la aplicación es 172.16.20.1. La puerta de enlace predeterminada de la máquina virtual web es 172.16.10.1. Compruebe que las máquinas virtuales puedan hacer ping en sus puertas de enlace predeterminadas y entre sí.

La imagen se describe en el texto adyacente.

Conéctese a NSX Manager con SSH o la consola, y ejecute los siguientes comandos:
  • Vea un listado con toda la información de la instancia del enrutador lógico.

    nsxmgr-l-01a> show logical-router list all
    Edge-id             Vdr Name                      Vdr id              #Lifs
    edge-1              default+edge-1                0x00001388          3
    
  • Vea un listado de los hosts que recibieron información de enrutamiento para el enrutador lógico del clúster de controladores.

    nsxmgr-l-01a> show logical-router list dlr edge-1 host
    ID                   HostName                             
    host-25              192.168.210.52                       
    host-26              192.168.210.53                       
    host-24              192.168.110.53

    En el resultado se incluyen todos los hosts de todos los clústeres de hosts configurados como miembros de la zona de transporte a la que pertenece el conmutador lógico que está conectado al enrutador lógico especificado (en este ejemplo, edge-1).

  • Vea un listado con la información de la tabla de enrutamiento que se comunica a los hosts mediante el enrutador lógico. Las entradas de la tabla de enrutamiento deben ser coherentes en todos los hosts.

    nsx-mgr-l-01a> show logical-router host host-25 dlr edge-1 route
    
    VDR default+edge-1 Route Table
    Legend: [U: Up], [G: Gateway], [C: Connected], [I: Interface]
    Legend: [H: Host], [F: Soft Flush] [!: Reject] [E: ECMP]
    
    Destination     GenMask          Gateway         Flags   Ref Origin   UpTime    Interface
    -----------     -------          -------         -----   --- ------   ------    ---------
    0.0.0.0         0.0.0.0          192.168.10.1    UG      1   AUTO     4101      138800000002
    172.16.10.0     255.255.255.0    0.0.0.0         UCI     1   MANUAL   10195     13880000000b
    172.16.20.0     255.255.255.0    0.0.0.0         UCI     1   MANUAL   10196     13880000000a
    192.168.10.0    255.255.255.248  0.0.0.0         UCI     1   MANUAL   10196     138800000002
    192.168.100.0   255.255.255.0    192.168.10.1    UG      1   AUTO     3802      138800000002
    
  • Vea un listado con información adicional sobre el enrutador desde el punto de vista de uno de los hosts. Este resultado es útil para saber qué controlador se está comunicando con el host.

    nsx-mgr-l-01a> show logical-router host host-25 dlr edge-1 verbose
    
    VDR Instance Information :
    ---------------------------
    
    Vdr Name:                   default+edge-1
    Vdr Id:                     0x00001388
    Number of Lifs:             3
    Number of Routes:           5
    State:                      Enabled
    Controller IP:              192.168.110.203
    Control Plane IP:           192.168.210.52
    Control Plane Active:       Yes
    Num unique nexthops:        1
    Generation Number:          0
    Edge Active:                No
    

Compruebe el campo Dirección IP de controlador (Controller IP) en el resultado del comando show logical-router host host-25 dlr edge-1 verbose.

Acceda a un controlador mediante SSH y ejecute los siguientes comandos para mostrar la información de estado adquirida de las tablas de VNI, VTEP, MAC y ARP del controlador.
  • 192.168.110.202 # show control-cluster logical-switches vni 5000
    VNI      Controller      BUM-Replication ARP-Proxy Connections
    5000     192.168.110.201 Enabled         Enabled   0
    
    La salida para VNI 5000 muestra cero conexiones y el controlador 192.168.110.201 como propietaria de VNI 5000. Inicie sesión en ese controlador para recopilar más información de VNI 5000.
    192.168.110.201 # show control-cluster logical-switches vni 5000
    VNI      Controller      BUM-Replication ARP-Proxy Connections
    5000     192.168.110.201 Enabled         Enabled   3
    
    El resultado en 192.168.110.201 muestra tres conexiones. Compruebe las VNI adicionales.
    192.168.110.201 # show control-cluster logical-switches vni 5001
    VNI      Controller      BUM-Replication ARP-Proxy Connections
    5001     192.168.110.201 Enabled         Enabled   3
    
    192.168.110.201 # show control-cluster logical-switches vni 5002
    VNI      Controller      BUM-Replication ARP-Proxy Connections
    5002     192.168.110.201 Enabled         Enabled   3
    Debido a que 192.168.110.201 es propietaria de las tres conexiones de VNI, se espera ver cero conexiones en el otro controlador 192.168.110.203.
    192.168.110.203 # show control-cluster logical-switches vni 5000
    VNI      Controller      BUM-Replication ARP-Proxy Connections
    5000     192.168.110.201 Enabled         Enabled   0
    
  • Antes de comprobar las tablas de MAC y ARP, haga ping de una máquina virtual a la otra.
    Desde la máquina virtual de la aplicación a la máquina virtual web:
    vmware@app-vm$ ping 172.16.10.10
    PING 172.16.10.10 (172.16.10.10) 56(84) bytes of data.
    64 bytes from 172.16.10.10: icmp_req=1 ttl=64 time=2.605 ms
    64 bytes from 172.16.10.10: icmp_req=2 ttl=64 time=1.490 ms
    64 bytes from 172.16.10.10: icmp_req=3 ttl=64 time=2.422 ms
    
    Revise las tablas de MAC.
    192.168.110.201 # show control-cluster logical-switches mac-table 5000
    VNI      MAC               VTEP-IP         Connection-ID
    5000     00:50:56:a6:23:ae 192.168.250.52  7
    192.168.110.201 # show control-cluster logical-switches mac-table 5001
    VNI      MAC               VTEP-IP         Connection-ID
    5001     00:50:56:a6:8d:72 192.168.250.51  23
    Revise las tablas de ARP.
    192.168.110.201 # show control-cluster logical-switches arp-table 5000
    VNI      IP              MAC               Connection-ID
    5000     172.16.20.10    00:50:56:a6:23:ae 7
    192.168.110.201 # show control-cluster logical-switches arp-table 5001
    VNI      IP              MAC               Connection-ID
    5001     172.16.10.10    00:50:56:a6:8d:72 23

Revise la información del enrutador lógico. Cada instancia del enrutador lógico se procesa en uno de los nodos del controlador.

El subcomando instance del comando show control-cluster logical-routers muestra un listado de los enrutadores lógicos que están conectados a este controlador.

El subcomando interface-summary muestra un listado de las LIF que el controlador adquirió de NSX Manager. Esta información se envía a los hosts que están en los clústeres de hosts administrados en la zona de transporte.

El subcomando routes muestra la tabla de enrutamiento que se envía a este controlador mediante el dispositivo virtual del enrutador lógico (también se conoce como máquina virtual de control). A diferencia de los hosts ESXi, esta tabla de enrutamiento no incluye subredes conectadas directamente, ya que la configuración de LIF proporciona esta información. La información de ruta de los hosts ESXi incluye subredes conectadas directamente porque, en ese caso, se trata de una tabla de reenvío utilizada por la ruta de datos del host ESXi.
  • Vea un listado con todos los enrutadores lógicos conectados a este controlador.
    controller # show control-cluster logical-routers instance all
    LR-Id      LR-Name            Universal Service-Controller Egress-Locale
    0x1388     default+edge-1     false     192.168.110.201    local
    

    Anote el identificador de LR y utilícelo en el siguiente comando.

  • controller # show control-cluster logical-routers interface-summary 0x1388
    Interface                        Type   Id           IP[]
    13880000000b                     vxlan  0x1389       172.16.10.1/24
    13880000000a                     vxlan  0x1388       172.16.20.1/24
    138800000002                     vxlan  0x138a       192.168.10.2/29
    
  • controller # show control-cluster logical-routers routes 0x1388
    Destination        Next-Hop[]      Preference Locale-Id                            Source
    192.168.100.0/24   192.168.10.1    110        00000000-0000-0000-0000-000000000000 CONTROL_VM
    0.0.0.0/0          192.168.10.1    0          00000000-0000-0000-0000-000000000000 CONTROL_VM
    
    [root@comp02a:~] esxcfg-route -l
    VMkernel Routes:
    Network          Netmask          Gateway          Interface
    10.20.20.0       255.255.255.0    Local Subnet     vmk1
    192.168.210.0    255.255.255.0    Local Subnet     vmk0
    default          0.0.0.0          192.168.210.1    vmk0
    
  • Muestre las conexiones del controlador a la VNI específica.
    192.168.110.203 # show control-cluster logical-switches connection-table 5000
    Host-IP         Port  ID
    192.168.110.53  26167 4
    192.168.210.52  27645 5
    192.168.210.53  40895 6
    
    192.168.110.202 # show control-cluster logical-switches connection-table 5001
    Host-IP         Port  ID
    192.168.110.53  26167 4
    192.168.210.52  27645 5
    192.168.210.53  40895 6
    

    Estas direcciones IP de hosts son interfaces vmk0, no VTEP. Las conexiones entre hosts y controladores ESXi se crean en la red de administración. Aquí los números de puerto son puertos TCP efímeros que asigna la pila de direcciones IP del host ESXi cuando el host establece una conexión con el controlador.

  • En el host, puede ver la conexión de red del controlador vinculado al número de puerto.

    [[email protected]:~] #esxcli network ip connection list | grep 26167
    tcp         0       0  192.168.110.53:26167             192.168.110.101:1234  ESTABLISHED     96416  newreno  netcpa-worker
    
  • Muestre las VNI activas en el host. Observe que el resultado es diferente entre los hosts. No todas las VNI están activas en todos los hosts. Una VNI está activa en un host si ese host posee una máquina virtual conectada al conmutador lógico.

    [[email protected]:~] # esxcli network vswitch dvs vmware vxlan network list --vds-name Compute_VDS
    VXLAN ID  Multicast IP               Control Plane                        Controller Connection  Port Count  MAC Entry Count  ARP Entry Count  VTEP Count
    --------  -------------------------  -----------------------------------  ---------------------  ----------  ---------------  ---------------  ----------
        5000  N/A (headend replication)  Enabled (multicast proxy,ARP proxy)  192.168.110.203 (up)            1                0                0           0
        5001  N/A (headend replication)  Enabled (multicast proxy,ARP proxy)  192.168.110.202 (up)            1                0                0           0
    
    Nota: Para habilitar el espacio de nombres vxlan en vSphere 6,0 y versiones posteriores, ejecute el comando /etc/init.d/hostd restart.

    En el caso de conmutadores lógicos en modo híbrido o de unidifusión, el comando esxcli network vswitch dvs vmware vxlan network list --vds-name <vds-name> contiene el siguiente resultado:

    • El plano de control está habilitado.
    • El proxy de multidifusión y el proxy ARP aparecen en el listado. El proxy AARP aparece en el listado aunque se haya deshabilitado la detección de direcciones IP.
    • Una dirección IP de controlador válida aparece en el listado y la conexión está activa.
    • Si un enrutador lógico está conectado al host ESXi, el recuento de puertos es al menos 1, incluso si no hay máquinas virtuales en el host conectado al conmutador lógico. Este puerto es vdrPort, que es un puerto dvPort especial conectado al módulo del kernel del enrutador lógico en el host ESXi.
  • En primer lugar, haga ping de una máquina virtual a otra en una subred diferente y, a continuación, muestre la tabla de MAC. Tenga en cuenta que la MAC interna es la entrada de la máquina virtual, mientras que la MAC externa y la dirección IP externa se refieren a la VTEP.

    ~ # esxcli network vswitch dvs vmware vxlan network mac list --vds-name=Compute_VDS --vxlan-id=5000
    Inner MAC          Outer MAC          Outer IP        Flags
    -----------------  -----------------  --------------  --------
    00:50:56:a6:23:ae  00:50:56:6a:65:c2  192.168.250.52  00000111
    
    ~ # esxcli network vswitch dvs vmware vxlan network mac list --vds-name=Compute_VDS --vxlan-id=5001
    Inner MAC          Outer MAC          Outer IP        Flags
    -----------------  -----------------  --------------  --------
    02:50:56:56:44:52  00:50:56:6a:65:c2  192.168.250.52  00000101
    00:50:56:f0:d7:e4  00:50:56:6a:65:c2  192.168.250.52  00000111
    

Qué hacer a continuación

Cuando instale un Dispositivo NSX Edge, NSX habilita el encendido o apagado automático de la máquina virtual en el host si vSphere HA está deshabilitado en el clúster. Si posteriormente las máquinas virtuales del dispositivo se migran a otros hosts en el clúster, es posible que los hosts nuevos no tengan habilitada la opción de encendido/apagado automático de la máquina virtual. Por este motivo, cuando instale dispositivos NSX Edge en clústeres que tienen vSphere HA deshabilitado, debe comprobar todos los hosts del clúster para asegurarse de que la opción de encendido o apagado automático de las máquinas virtuales esté habilitada. Consulte la sección sobre cómo editar la configuración de encendido y apagado de la máquina Virtual en Administrar máquinas virtuales de vSphere.

Después de implementar el enrutador lógico, haga doble clic en el identificador del enrutador lógico para configurar opciones adicionales, como interfaces, enrutamiento, firewall, puentes y relé DHCP.