Los módulos de kernel del enrutador lógico del host realizan el enrutamiento entre la redes VXLAN y entre las redes virtual y física. Un dispositivo NSX Edge proporciona la capacidad de enrutamiento dinámico, cuando es necesario. Un enrutador lógico universal proporciona el enrutamiento de Este a Oeste entre los conmutadores lógicos universales.

Por qué y cuándo se efectúa esta tarea

Al implementar un nuevo enrutador lógico, considere lo siguiente:

  • La versión 6.2 de NSX y las versiones posteriores permiten conectar interfaces lógicas (logical interfaces, LIF) enrutadas mediante enrutadores lógicos a una VXLAN conectada en puente con una VLAN.

  • Las interfaces del enrutador lógico y las interfaces puente no pueden conectarse a un dvPortgroup si el identificador de la VLAN está establecido en 0.

  • Una instancia de enrutador lógico determinada no puede conectarse a los conmutadores lógicos que existen en zonas de transporte diferentes. El objetivo de esto es garantizar que todas las instancias de conmutadores lógicos y enrutadores lógicos estén alineadas.

  • Los enrutadores lógicos conectados a conmutadores lógicos que abarcan más de un conmutador distribuido de vSphere (vSphere distributed switch, VDS) no se pueden conectar a grupos de puertos respaldados por VLAN. El objetivo de esto es garantizar una correcta alineación de las instancias de enrutadores lógicos con los dvPortgroups de conmutadores lógicos en todos los hosts.

  • No deben crearse interfaces de enrutadores lógicos en dos grupos de puertos distribuidos (dvPortgroups) diferentes con el mismo identificador de VLAN si las dos redes están en el mismo conmutador distribuido de vSphere.

  • No deben crearse interfaces de enrutadores lógicos en dos dvPortgroups diferentes con el mismo identificador de VLAN si las dos redes están en conmutadores distribuidos de vSphere diferentes, pero los dos conmutadores distribuidos de vSphere comparten los mismos hosts. En otras palabras, pueden crearse interfaces de enrutadores lógicos en dos redes diferentes con el mismo identificador de VLAN si los dos dvPortgroups están en dos conmutadores distribuidos de vSphere diferentes, siempre que los conmutadores distribuidos de vSphere no compartan un host.

En la siguiente lista se describen las características admitidas por tipo de interfaz (interna y de vínculo superior) en el enrutador lógico:

  • Se admiten protocolos de enrutamiento dinámico (BGP y OSPF) solo en las interfaces de vínculo superior.

  • Las reglas de firewall son aplicables solo en las interfaces de vínculo superior, y están limitadas al tráfico de control y de administración destinado al dispositivo Edge virtual.

  • Para obtener más información sobre la interfaz de administración de DLR, consulte el artículo de la base de conocimientos relacionado con consideraciones sobre la interfaz de administración de la máquina virtual de control del enrutador lógico distribuido (http://kb.vmware.com/kb/2122060).

Importante:

Si habilita High Availability en NSX Edge en un entorno de Cross-vCenter NSX, los dispositivos NSX Edge activos y en espera deben residir en el mismo vCenter Server. Si migra uno de los miembros de un par HA de NSX Edge a un sistema de vCenter Server diferente, los dos dispositivos de HA dejarán de funcionar como un par HA, y es posible que se interrumpa el tráfico.

Requisitos

  • Se le debe haber asignado la función de administrador de Enterprise o administrador de NSX.

  • Se debe crear un grupo de identificadores de segmentos local aunque no esté previsto crear conmutadores lógicos NSX.

  • Asegúrese de que el clúster de controladores esté en funcionamiento y disponible antes de crear o modificar la configuración del enrutador lógico. Los enrutadores lógicos no pueden distribuir información de enrutamiento a hosts sin la ayuda de los controladores NSX Controller. Los enrutadores lógicos dependen de los controladores NSX Controller para funcionar, mientras que las puertas de enlace de servicios Edge (edge services gateways, ESG) no.

  • Si se desea conectar un enrutador lógico a los dvPortgroups de VLAN, asegúrese de que todos los hosts del hipervisor con un dispositivo de enrutador lógico instalado puedan comunicarse entre sí en el puerto UDP 6999 para que funcione el proxy ARP basado en la VLAN del enrutador lógico.

  • Determine dónde implementar el dispositivo de enrutador lógico.

    • El host de destino debe formar parte de la misma zona de transporte que los conmutadores lógico conectados a las interfaces del nuevo enrutador lógico.

    • Evite colocarlo en el mismo host que uno o varios de sus ESG ascendentes si utiliza ESG en una configuración ECMP. Puede utilizar reglas de anticompatibilidad de DRS para aplicar esto, lo que reducirá el impacto de los errores del host en el reenvío de enrutadores lógicos. Estas instrucciones no se aplican si tiene un ESG ascendente individual o en modo de alta disponibilidad. Para obtener más información, consulte la Guía de diseño de virtualización de redes de VMware NSX for vSphere en https://communities.vmware.com/docs/DOC-27683.

  • Verifique que el clúster del host en el que el dispositivo de enrutador lógico está instalado esté preparado para NSX. Consulte cómo preparar el clúster del host para NSX (Prepare the Host Cluster for NSX) en Guía de instalación de NSX.

  • Determine si necesita habilitar la salida local. La salida local permite enviar rutas a hosts de manera selectiva. Quizás sea conveniente utilizar esta opción si la implementación de NSX se expande a varios sitios. Consulte Topologías de Cross-vCenter NSX para obtener más información. No puede habilitar la salida local después de crear el enrutador lógico universal.

Procedimiento

  1. En vSphere Web Client, desplácese hasta Inicio > Redes y seguridad > NSX Edge (Home > Networking & Security > NSX Edges).
  2. Seleccione la instancia de NSX Manager principal para agregar un enrutador lógico universal.
  3. Haga clic en el icono Agregar (Add) (agregar).
  4. Seleccione Enrutador lógico (distribuido) universal (Universal Logical [Distributed] Router).
  5. (Opcional) : Habilite la salida local.
  6. Introduzca un nombre para el dispositivo.

    Este nombre aparece en el inventario de vCenter. El nombre debe ser único en todos los enrutadores lógicos de un solo arrendatario.

    De manera opcional, también puede introducir un nombre de host. Este nombre aparece en la interfaz de línea de comandos. Si no especifica un nombre de host, la interfaz de línea de comandos muestra el identificador de Edge, que se crea automáticamente.

    De manera opcional, puede introducir una descripción y un arrendatario.

  7. (Opcional) : Implemente un dispositivo Edge.

    La opción Implementar dispositivo Edge (Deploy Edge Appliance) está seleccionada de forma predeterminada. Se requiere un dispositivo Edge (también denominado dispositivo virtual de enrutador lógico) para el enrutamiento dinámico y para el firewall del dispositivo de enrutador lógico, que se aplica a los ping del enrutador, al acceso de SSH y al tráfico de enrutamiento dinámico.

    Puede desactivar la opción de dispositivo Edge si necesita solo rutas estáticas y no desea implementar un dispositivo Edge. No puede agregar un dispositivo Edge al enrutador lógico una vez que este enrutador ya está creado.

  8. (Opcional) : Habilite High Availability.

    La opción Habilitar disponibilidad alta (Enable High Availability) no está seleccionada de forma predeterminada. Seleccione la casilla Habilitar High Availability (Enable High Availability) para habilitar y configurar High Availability. Se requiere High Availability si su intención es utilizar un enrutamiento dinámico.

  9. Escriba y vuelva a escribir una contraseña para el enrutador lógico.

    La contraseña debe tener entre 12 y 255 caracteres, y debe contener lo siguiente:

    • Al menos una letra en mayúscula

    • Al menos una letra en minúscula

    • Al menos un número

    • Al menos un carácter especial

  10. (Opcional) : Habilite SSH.

    De forma predeterminada, SSH no está habilitado. Si no habilita SSH, puede abrir la consola del dispositivo virtual para seguir accediendo al enrutador lógico. Habilitar SSH aquí hace que el proceso de SSH se ejecute en el dispositivo virtual del enrutador lógico, pero además será necesario ajustar manualmente la configuración de firewall del enrutador lógico para permitir el acceso de SSH a la dirección de protocolo del enrutador lógico. La dirección del protocolo se establece cuando se configura el enrutamiento dinámico en el enrutador lógico.

  11. (Opcional) : Habilite el modo FIPS y establezca el nivel de registro.

    De forma predeterminada, el modo FIPS está deshabilitado. Seleccione la casilla Habilitar modo FIPS (Enable FIPS mode) para habilitar el modo FIPS. Al habilitar el modo FIPS, cualquier comunicación segura que vaya a o desde NSX Edge utiliza algoritmos o protocolos criptográficos permitidos por FIPS.

    De forma predeterminada, el registro está en nivel de emergencia.

    Por ejemplo:

  12. Configure la implementación.
    • Si no seleccionó Implementar dispositivo Edge (Deploy Edge Appliance), el icono Agregar (Agregar) (Add) está atenuado. Haga clic en Siguiente (Next) para continuar con la configuración.

    • Si seleccionó Deploy Edge Appliance (Deploy Edge Appliance), introduzca la configuración del dispositivo virtual del enrutador lógico que se agregará al inventario de vCenter.

    Por ejemplo:

  13. Configure las interfaces. En los enrutadores lógicos, solo se admiten las direcciones IPv4.
    1. Configure la conexión de la interfaz HA y, opcionalmente, una dirección IP.

      Si seleccionó Implementar dispositivo Edge (Deploy Edge Appliance), debe conectar la interfaz de HA a un grupo de puertos distribuidos o un conmutador lógico. Si está utilizando esta interfaz solo como una interfaz de HA, VMware recomienda utilizar un conmutador lógico. Se asigna una subred /30 desde el rango local del vínculo 169.254.0.0/16 y se utiliza para proporcionar una dirección IP para cada uno de los dos dispositivos NSX Edge.

      De manera opcional, si desea utilizar esta interfaz para conectarse a NSX Edge, puede especificar una dirección IP adicional y el prefijo de la interfaz de HA.

      Nota:

      Antes de NSX 6.2, la interfaz de HA se denominaba interfaz de administración. No es posible habilitar SSH para acceder a la interfaz de HA desde ningún lugar que no se encuentre en la misma subred IP que la interfaz de HA. No se pueden configurar rutas estáticas que apunten hacia afuera de la interfaz de HA, lo que significa que RPF descartará el tráfico entrante. En teoría, se puede deshabilitar RPF, pero esto sería contraproducente para High Availability. Para el acceso SSH, también puede utilizar la dirección de protocolo del enrutador lógico, que se establece posteriormente cuando se configura el enrutamiento dinámico.

      En NSX 6.2 y versiones posteriores, la interfaz de HA de un enrutador lógico se excluye automáticamente de la redistribución de rutas.

    2. Configure las interfaces de esta instancia de NSX Edge.

      En la sección Configurar interfaces de esta instancia de NSX Edge (Configure interfaces of this NSX Edge), las interfaces internas están diseñadas para conexiones a conmutadores que permiten la comunicación entre máquinas virtuales (a la que a veces se denomina comunicación este-oeste). Las interfaces internas se crean como pseudo vNIC en el dispositivo virtual del enrutador lógico. Las interfaces de vínculo superior se utilizan en la comunicación de Norte a Sur. Es posible que una interfaz del vínculo superior del enrutador lógico se conecte a una puerta de enlace de servicios de NSX Edge, a una máquina virtual del enrutador externo de esta o a un dvPortgroup respaldado por VLAN para que el enrutador lógico se conecte al enrutador físico directamente. Se debe tener al menos una interfaz de vínculo superior para que el enrutamiento dinámico funcione. Las interfaces de vínculo superior se crean como vNIC en el dispositivo virtual del enrutador lógico.

      La configuración de la interfaz especificada en este punto se puede modificar más adelante. Es posible agregar, eliminar y modificar interfaces después de implementar un enrutador lógico.

    El siguiente ejemplo muestra una interfaz de HA conectada al grupo de puertos distribuidos de administración. El ejemplo también muestra dos interfaces internas (aplicación y web) y una interfaz de vínculo superior (a ESG).

  14. Asegúrese de que todas las máquinas virtuales asociadas a los conmutadores lógicos tengan sus puertas de enlace predeterminadas establecidas adecuadamente en las direcciones IP de la interfaz del enrutador lógico.

Resultados

En el siguiente ejemplo de topología, la puerta de enlace predeterminada de la máquina virtual de la aplicación debe ser 172.16.20.1. La puerta de enlace predeterminada de la máquina virtual web debe ser 172.16.10.1. Compruebe que las máquinas virtuales puedan hacer ping en sus puertas de enlace predeterminadas y entre sí.

Inicie sesión en NSX Manager mediante SSH y ejecute los siguientes comandos:

  • Vea un listado con toda la información de la instancia del enrutador lógico.

    nsxmgr-l-01a> show logical-router list all
    Edge-id             Vdr Name                      Vdr id              #Lifs
    edge-1              default+edge-1                0x00001388          3
    

  • Vea un listado de los hosts que recibieron información de enrutamiento para el enrutador lógico del clúster de controladores.

    nsxmgr-l-01a> show logical-router list dlr edge-1 host
    ID                   HostName                             
    host-25              192.168.210.52                       
    host-26              192.168.210.53                       
    host-24              192.168.110.53

    En el resultado se incluyen todos los hosts de todos los clústeres de hosts configurados como miembros de la zona de transporte a la que pertenece el conmutador lógico que está conectado al enrutador lógico especificado (en este ejemplo, edge-1).

  • Vea un listado con la información de la tabla de enrutamiento que se comunica a los hosts mediante el enrutador lógico. Las entradas de la tabla de enrutamiento deben ser coherentes en todos los hosts.

    nsx-mgr-l-01a> show logical-router host host-25 dlr edge-1 route
    
    VDR default+edge-1 Route Table
    Legend: [U: Up], [G: Gateway], [C: Connected], [I: Interface]
    Legend: [H: Host], [F: Soft Flush] [!: Reject] [E: ECMP]
    
    Destination     GenMask          Gateway         Flags   Ref Origin   UpTime    Interface
    -----------     -------          -------         -----   --- ------   ------    ---------
    0.0.0.0         0.0.0.0          192.168.10.1    UG      1   AUTO     4101      138800000002
    172.16.10.0     255.255.255.0    0.0.0.0         UCI     1   MANUAL   10195     13880000000b
    172.16.20.0     255.255.255.0    0.0.0.0         UCI     1   MANUAL   10196     13880000000a
    192.168.10.0    255.255.255.248  0.0.0.0         UCI     1   MANUAL   10196     138800000002
    192.168.100.0   255.255.255.0    192.168.10.1    UG      1   AUTO     3802      138800000002
    

  • Vea un listado con información adicional sobre el enrutador desde el punto de vista de uno de los hosts. Esto es útil para saber qué controlador se está comunicando con el host.

    nsx-mgr-l-01a> show logical-router host host-25 dlr edge-1 verbose
    
    VDR Instance Information :
    ---------------------------
    
    Vdr Name:                   default+edge-1
    Vdr Id:                     0x00001388
    Number of Lifs:             3
    Number of Routes:           5
    State:                      Enabled
    Controller IP:              192.168.110.203
    Control Plane IP:           192.168.210.52
    Control Plane Active:       Yes
    Num unique nexthops:        1
    Generation Number:          0
    Edge Active:                No
    

Compruebe el campo Dirección IP de controlador (Controller IP) en el resultado del comando show logical-router host host-25 dlr edge-1 verbose.

Acceda a un controlador mediante SSH y ejecute los siguientes comandos para mostrar la información de estado adquirida de las tablas de VNI, VTEP, MAC y ARP del controlador.

  • 192.168.110.202 # show control-cluster logical-switches vni 5000
    VNI      Controller      BUM-Replication ARP-Proxy Connections
    5000     192.168.110.201 Enabled         Enabled   0
    

    La salida para VNI 5000 muestra cero conexiones y el controlador 192.168.110.201 como propietaria de VNI 5000. Inicie sesión en ese controlador para recopilar más información de VNI 5000.

    192.168.110.201 # show control-cluster logical-switches vni 5000
    VNI      Controller      BUM-Replication ARP-Proxy Connections
    5000     192.168.110.201 Enabled         Enabled   3
    

    El resultado en 192.168.110.201 muestra tres conexiones. Compruebe las VNI adicionales.

    192.168.110.201 # show control-cluster logical-switches vni 5001
    VNI      Controller      BUM-Replication ARP-Proxy Connections
    5001     192.168.110.201 Enabled         Enabled   3
    

    192.168.110.201 # show control-cluster logical-switches vni 5002
    VNI      Controller      BUM-Replication ARP-Proxy Connections
    5002     192.168.110.201 Enabled         Enabled   3

    Debido a que 192.168.110.201 es propietaria de las tres conexiones de VNI, se esperarían ver cero conexiones en el otro controlador 192.168.110.203.

    192.168.110.203 # show control-cluster logical-switches vni 5000
    VNI      Controller      BUM-Replication ARP-Proxy Connections
    5000     192.168.110.201 Enabled         Enabled   0
    

  • Antes de comprobar las tablas de MAC y ARP, comience a hacer ping de una máquina virtual a la otra.

    Desde la máquina virtual de la aplicación a la máquina virtual web:

    vmware@app-vm$ ping 172.16.10.10
    PING 172.16.10.10 (172.16.10.10) 56(84) bytes of data.
    64 bytes from 172.16.10.10: icmp_req=1 ttl=64 time=2.605 ms
    64 bytes from 172.16.10.10: icmp_req=2 ttl=64 time=1.490 ms
    64 bytes from 172.16.10.10: icmp_req=3 ttl=64 time=2.422 ms
    

    Revise las tablas de MAC.

    192.168.110.201 # show control-cluster logical-switches mac-table 5000
    VNI      MAC               VTEP-IP         Connection-ID
    5000     00:50:56:a6:23:ae 192.168.250.52  7

    192.168.110.201 # show control-cluster logical-switches mac-table 5001
    VNI      MAC               VTEP-IP         Connection-ID
    5001     00:50:56:a6:8d:72 192.168.250.51  23

    Revise las tablas de ARP.

    192.168.110.201 # show control-cluster logical-switches arp-table 5000
    VNI      IP              MAC               Connection-ID
    5000     172.16.20.10    00:50:56:a6:23:ae 7

    192.168.110.201 # show control-cluster logical-switches arp-table 5001
    VNI      IP              MAC               Connection-ID
    5001     172.16.10.10    00:50:56:a6:8d:72 23

Revise la información del enrutador lógico. Cada instancia del enrutador lógico se procesa en uno de los nodos del controlador.

El subcomando instance del comando show control-cluster logical-routers muestra un listado de los enrutadores lógicos que están conectados a este controlador.

El subcomando interface-summary muestra un listado de las LIF que el controlador adquirió de NSX Manager. Esta información se envía a los hosts que están en los clústeres de hosts administrados en la zona de transporte.

El subcomando routes muestra la tabla de enrutamiento que se envía a este controlador mediante el dispositivo virtual del enrutador lógico (también se conoce como máquina virtual de control). Tenga en cuenta que, a diferencia de los hosts ESXi, esta tabla de enrutamiento no incluye subredes conectadas directamente, ya que la configuración de LIF proporciona esta información. La información de ruta de los hosts ESXi incluye subredes conectadas directamente porque, en ese caso, se trata de una tabla de reenvío utilizada por la ruta de datos del host ESXi.

  • Vea un listado con todos los enrutadores lógicos conectados a este controlador.

    controller # show control-cluster logical-routers instance all
    LR-Id      LR-Name            Universal Service-Controller Egress-Locale
    0x1388     default+edge-1     false     192.168.110.201    local
    

    Anote el identificador de LR y utilícelo en el siguiente comando.

  • controller # show control-cluster logical-routers interface-summary 0x1388
    Interface                        Type   Id           IP[]
    13880000000b                     vxlan  0x1389       172.16.10.1/24
    13880000000a                     vxlan  0x1388       172.16.20.1/24
    138800000002                     vxlan  0x138a       192.168.10.2/29
    

  • controller # show control-cluster logical-routers routes 0x1388
    Destination        Next-Hop[]      Preference Locale-Id                            Source
    192.168.100.0/24   192.168.10.1    110        00000000-0000-0000-0000-000000000000 CONTROL_VM
    0.0.0.0/0          192.168.10.1    0          00000000-0000-0000-0000-000000000000 CONTROL_VM
    
    [root@comp02a:~] esxcfg-route -l
    VMkernel Routes:
    Network          Netmask          Gateway          Interface
    10.20.20.0       255.255.255.0    Local Subnet     vmk1
    192.168.210.0    255.255.255.0    Local Subnet     vmk0
    default          0.0.0.0          192.168.210.1    vmk0
    
  • Muestre las conexiones del controlador a la VNI específica.

    192.168.110.203 # show control-cluster logical-switches connection-table 5000
    Host-IP         Port  ID
    192.168.110.53  26167 4
    192.168.210.52  27645 5
    192.168.210.53  40895 6
    
    192.168.110.202 # show control-cluster logical-switches connection-table 5001
    Host-IP         Port  ID
    192.168.110.53  26167 4
    192.168.210.52  27645 5
    192.168.210.53  40895 6
    

    Estas direcciones IP de hosts son interfaces vmk0, no VTEP. Las conexiones entre hosts y controladores ESXi se crean en la red de administración. Aquí los números de puerto son puertos TCP efímeros que asigna la pila de direcciones IP del host ESXi cuando el host establece una conexión con el controlador.

  • En el host, puede ver la conexión de red del controlador vinculado al número de puerto.

    [root@192.168.110.53:~] #esxcli network ip connection list | grep 26167
    tcp         0       0  192.168.110.53:26167             192.168.110.101:1234  ESTABLISHED     96416  newreno  netcpa-worker
    
  • Muestre las VNI activas en el host. Observe que el resultado es diferente entre los hosts. No todas las VNI están activas en todos los hosts. Una VNI está activa en un host si ese host posee una máquina virtual conectada al conmutador lógico.

    [root@192.168.210.52:~] # esxcli network vswitch dvs vmware vxlan network list --vds-name Compute_VDS
    VXLAN ID  Multicast IP               Control Plane                        Controller Connection  Port Count  MAC Entry Count  ARP Entry Count  VTEP Count
    --------  -------------------------  -----------------------------------  ---------------------  ----------  ---------------  ---------------  ----------
        5000  N/A (headend replication)  Enabled (multicast proxy,ARP proxy)  192.168.110.203 (up)            1                0                0           0
        5001  N/A (headend replication)  Enabled (multicast proxy,ARP proxy)  192.168.110.202 (up)            1                0                0           0
    
    Nota:

    Para habilitar el espacio de nombres vxlan en vSphere 6 y versiones posteriores, ejecute el comando /etc/init.d/hostd restart.

    En el caso de conmutadores lógicos en modo híbrido o de unidifusión, el comando esxcli network vswitch dvs vmware vxlan network list --vds-name <vds-name> debe contener el siguiente resultado:

    • El plano de control está habilitado.

    • El proxy de multidifusión y el proxy ARP aparecen en el listado. El proxy AARP aparece en el listado aunque se haya deshabilitado la detección de direcciones IP.

    • Una dirección IP de controlador válida aparece en el listado y la conexión está activa.

    • Si un enrutador lógico está conectado al host ESXi, el recuento de puertos es al menos 1, incluso si no hay máquinas virtuales en el host conectado al conmutador lógico. Este puerto es vdrPort, que es un puerto dvPort especial conectado al módulo del kernel del enrutador lógico en el host ESXi.

  • En primer lugar, haga ping de una máquina virtual a otra en una subred diferente y, a continuación, muestre la tabla de MAC. Tenga en cuenta que la MAC interna es la entrada de la máquina virtual, mientras que la MAC externa y la dirección IP externa se refieren a la VTEP.

    ~ # esxcli network vswitch dvs vmware vxlan network mac list --vds-name=Compute_VDS --vxlan-id=5000
    Inner MAC          Outer MAC          Outer IP        Flags
    -----------------  -----------------  --------------  --------
    00:50:56:a6:23:ae  00:50:56:6a:65:c2  192.168.250.52  00000111
    
    ~ # esxcli network vswitch dvs vmware vxlan network mac list --vds-name=Compute_VDS --vxlan-id=5001
    Inner MAC          Outer MAC          Outer IP        Flags
    -----------------  -----------------  --------------  --------
    02:50:56:56:44:52  00:50:56:6a:65:c2  192.168.250.52  00000101
    00:50:56:f0:d7:e4  00:50:56:6a:65:c2  192.168.250.52  00000111
    

Qué hacer a continuación

Cuando instale un dispositivo NSX Edge, NSX habilita el encendido/apagado automático de la máquina virtual en el host si vSphere HA está deshabilitado en el clúster. Si posteriormente las máquinas virtuales del dispositivo se migran a otros hosts en el clúster, es posible que los hosts nuevos no tengan habilitada la opción de encendido/apagado automático de la máquina virtual. Por este motivo, VMware recomienda que cuando instale dispositivos NSX Edge en clústeres que tienen vSphere deshabilitado, debe comprobar todos los hosts del clúster para asegurarse de que la opción de encendido/apagado automático esté habilitada. Consulte la sección sobre cómo editar la configuración de encendido y apagado de la máquina Virtual en Administrar máquinas virtuales de vSphere.

Después de implementar el enrutador lógico, haga doble clic en el identificador del enrutador lógico para configurar opciones adicionales, como interfaces, enrutamiento, firewall, puentes y relé DHCP.