Consulte los requisitos del sistema para habilitar un Supervisor en tres clústeres de vSphere asignados a zonas de vSphere mediante la pila de redes de NSX y NSX Advanced Load Balancer.
Colocación de zonas de vSphere en sitios físicos
Puede distribuir las zonas de vSphere entre diferentes sitios físicos siempre que la latencia entre los sitios no supere los 100 ms. Por ejemplo, puede distribuir las zonas de vSphere entre dos sitios físicos: una zona de vSphere en el primer sitio y dos en el segundo sitio.
Opciones de implementación de NSX
Para obtener más información sobre las prácticas recomendadas para implementar NSX, consulte Guía de diseño de referencia de NSX.
Requisitos informáticos mínimos para un clúster de Edge y administración
Sistema | Tamaño de implementación mínimo | CPU | Memoria | Almacenamiento |
---|---|---|---|---|
vCenter Server 8 | Pequeño | 2 | 21 GB | 290 GB |
8 hosts ESXi | 2 hosts ESXi | 8 | 64 GB por host | No aplicable |
NSX Manager | Mediano | 6 | 24 GB | 300 GB |
NSX Edge 1 | Grande | 8 | 32 GB | 200 GB |
NSX Edge 2 | Grande | 8 | 32 GB | 200 GB |
Máquinas virtuales del motor de servicio | Se implementan al menos dos máquinas virtuales del motor de servicio por Supervisor | 1 | 2 GB | N/C |
Especificar la capacidad del sistema del controlador
Puede especificar la capacidad del sistema del controlador durante la implementación. La capacidad del sistema se basa en asignaciones de recursos del sistema, como CPU, RAM y disco. La cantidad de recursos que asigne tiene un impacto en el rendimiento del controlador.
Tipo de implementación | Recuento de nodos | Asignaciones recomendadas: CPU | Asignaciones recomendadas: memoria | Asignaciones recomendadas: disco |
---|---|---|---|---|
Demostración/Evaluación del cliente | 1 | 6 | 24 GB | 128 GB |
En las implementaciones de demostración, con un único controlador es suficiente y se utiliza para todas las actividades y los flujos de trabajo del plano de control, así como para los análisis.
En una implementación de producción, se recomienda un clúster de tres nodos.
Para obtener más información, consulte Tamaño del controlador de NSX Advanced Load Balancer.
Requisitos informáticos mínimos para clústeres de dominio de carga de trabajo
Sistema | Tamaño de implementación mínimo | CPU | Memoria | Almacenamiento |
---|---|---|---|---|
Clústeres de vSphere |
|
No aplicable | No aplicable | No aplicable |
8 hosts ESXi |
Para cada clúster de vSphere:
Nota: Asegúrese de que los nombres de los hosts que se unen a los clústeres utilicen letras minúsculas. De lo contrario, se puede producir un error en la activación del
Supervisor.
|
8 | 64 GB por host | No aplicable |
Máquinas virtuales de plano de control de Kubernetes | 3 | 4 | 16 GB | 16 GB |
Requisitos de red
Compruebe la Matriz de interoperabilidad de productos VMware para conocer las versiones de NSX compatibles.
Componente | Cantidad mínima | Configuración necesaria |
---|---|---|
Dispositivo de capa 2 | 1 | La red de administración que controlará el tráfico de Supervisor debe estar en el mismo dispositivo de capa 2. Al menos una NIC física por host que maneja el tráfico de administración debe estar conectada a ese dispositivo de capa 2. |
MTU de red física | 1700 | El tamaño de MTU debe ser 1700 o superior en cualquier grupo de puertos de vSphere Distributed Switch. |
NIC física | Al menos 2 NIC físicas por host si se utiliza vSAN | Para utilizar la CNI de Antrea y obtener un rendimiento de NSX óptimo, cada NIC física en cada host ESXi participante debe admitir la encapsulación GENEVE y debe tenerla habilitada. |
Componente | Cantidad mínima | Configuración necesaria |
---|---|---|
Latencia | 100 ms | La latencia máxima recomendada entre cada clúster que forma parte de una zona de vSphere unida en un Supervisor. |
Servidor NTP y DNS | 1 | Un servidor DNS y un servidor NTP que se pueden utilizar con vCenter Server.
Nota: Configure NTP en todos los hosts ESXi y
vCenter Server.
|
servidor DHCP | 1 | Opcional. Configure un servidor DHCP para adquirir automáticamente direcciones IP para las redes de administración y cargas de trabajo, así como direcciones IP flotantes. El servidor DHCP debe admitir identificadores de cliente y proporcionar servidores DNS compatibles, dominios de búsqueda de DNS y un servidor NTP. Para la red de administración, todas las direcciones IP, como las direcciones IP de las máquinas virtuales del plano de control, una IP flotante, servidores DNS, DNS, dominios de búsqueda y servidor NTP, se adquieren automáticamente desde el servidor DHCP. Supervisor utiliza la configuración de DHCP. Los equilibradores de carga pueden requerir direcciones IP estáticas para la administración. Los ámbitos de DHCP no deben superponerse a estas direcciones IP estáticas. DHCP no se utiliza para direcciones IP virtuales. (VIP) |
Registro de imágenes | 1 | Acceda a un registro para el servicio. |
Componente | Cantidad mínima | Configuración necesaria |
---|---|---|
IP estáticas para las máquinas virtuales del plano de control de Kubernetes | Bloque de 5 | Un bloque de 5 direcciones IP estáticas consecutivas que se asignarán desde la red de administración a las máquinas virtuales del plano de control de Kubernetes en el Supervisor. |
Red de tráfico de administración | 1 | Una red de administración que se puede enrutar a los hosts ESXi, a vCenter Server, a la instancia de Supervisor y a un equilibrador de carga. |
Subred de red de administración | 1 |
La subred que se utiliza para el tráfico de administración entre los hosts ESXi y
vCenter Server, las instancias de NSX Appliance y el plano de control de Kubernetes. El tamaño de la subred debe ser el siguiente:
Nota: La red de administración y la red de carga de trabajo deben estar en subredes diferentes. No se admite la asignación de la misma subred a las redes de administración y carga de trabajo, lo que puede provocar errores y problemas en el sistema.
|
VLAN de red de administración | 1 | Identificador de VLAN de la subred de la red de administración. |
Componente | Cantidad mínima | Configuración necesaria |
---|---|---|
Rango de CIDR del pod de vSphere | /23 direcciones IP privadas | Un rango de CIDR privado que proporciona direcciones IP a los pods de vSphere. Estas direcciones también se utilizan para los nodos del clúster de Tanzu Kubernetes Grid.
Debe especificar un rango de CIDR único del
pod de vSphere para cada clúster.
Nota: El rango de CIDR del
pod de vSphere y el rango de CIDR de las direcciones del servicio de Kubernetes no deben superponerse.
|
Rango de CIDR de servicios de Kubernetes | /16 direcciones IP privadas | Un rango de CIDR privado para asignar direcciones IP a los servicios de Kubernetes. Debe especificar un rango de CIDR único de servicios de Kubernetes para cada Supervisor. |
Rango de CIDR de salida | /27 direcciones IP estáticas | Una anotación de CIDR privado para determinar la IP de egreso de los servicios de Kubernetes. Solo se asigna una dirección IP de egreso para cada espacio de nombres en el Supervisor. La IP de egreso es la dirección que las entidades externas utilizan para comunicarse con los servicios en el espacio de nombres. La cantidad de direcciones IP de egreso limita el número de directivas de egreso que puede tener el Supervisor.
El valor mínimo es un CIDR de /27 o más. Por ejemplo,
10.174.4.96/27
Nota: Las direcciones IP de egreso y las direcciones IP de entrada no deben superponerse.
|
CIDR de entrada | /27 direcciones IP estáticas | Un rango de CIDR privado que se utilizará para las direcciones IP de entradas. La entrada permite aplicar directivas de tráfico a las solicitudes que entran en Supervisor desde redes externas. La cantidad de direcciones IP de entrada limita el número de entradas que puede tener el clúster.
El valor mínimo es un CIDR de /27 o más.
Nota: Las direcciones IP de egreso y las direcciones IP de entrada no deben superponerse.
|
Rango de redes de espacio de nombres | 1 | Uno o varios CIDR de IP para crear subredes o segmentos y asignar direcciones IP a las cargas de trabajo. |
Prefijo de subred de espacio de nombres | 1 | El prefijo de subred que especifica el tamaño de la subred reservada para segmentos de espacios de nombres. El valor predeterminado es 28. |
Componente | Cantidad mínima | V |
---|---|---|
VLAN | 3 | Las IP de VLAN son las direcciones IP de los endpoints de túnel (Tunnel Endpoints, TEP). Los TEP del host ESXi y los TEP de Edge deben ser enrutables.
Las direcciones IP de VLAN son necesarias para lo siguiente:
Nota: El VTEP del host ESXi y el VTEP de Edge deben tener un tamaño de MTU superior a 1600.
Los hosts ESXi y los nodos de NSX-T Edge actúan como endpoints de túnel y se asigna una IP de endpoint de túnel (Tunnel Endpoint, TEP) a cada nodo de Edge y host. Como las IP de TEP para hosts ESXi crean un túnel de superposición con IP de TEP en los nodos de Edge, las IP de VLAN deben poder enrutarse. Se requiere una VLAN adicional para proporcionar conectividad de norte a sur a la puerta de enlace de nivel 0. Los grupos de direcciones IP pueden compartirse entre clústeres. Sin embargo, el grupo de direcciones IP/VLAN de superposición de host no se debe compartir con la VLAN o el grupo de direcciones IP de superposición de Edge.
Nota: Si el TEP del host y el TEP de Edge usan diferentes NIC físicas, pueden utilizar la misma VLAN.
|
IP de vínculo superior de nivel 0 | /24 direcciones IP privadas | La subred de IP que se utiliza para el vínculo superior de nivel 0. Los requisitos para la dirección IP del vínculo superior de nivel 0 son los siguientes:
La IP de administración de Edge, la subred, la puerta de enlace, la IP de vínculo superior, la subred y la puerta de enlace deben ser únicas. |
Servidor NTP y DNS | 1 | La IP del servidor DNS es necesaria para que la controladora de NSX Advanced Load Balancer resuelva correctamente los nombres de host de vCenter Server y ESXi. NTP es opcional, ya que los servidores NTP públicos se utilizan de forma predeterminada. |
Subred de red de datos | 1 | La interfaz de datos de los motores de servicio, también denominados "motores de servicio", se conectan a esta red. Configure un grupo de direcciones IP para los motores de servicio. Las direcciones IP virtuales (VIP) del equilibrador de carga se asignan desde esta red. |
IP de la controladora de NSX Advanced Load Balancer | 1 o 4 | Si implementa la controladora de NSX Advanced Load Balancer como un solo nodo, se requiere una dirección IP estática para su interfaz de administración. Para un clúster de 3 nodos, se requieren 4 direcciones IP . Una para cada máquina virtual de la controladora y otra para la VIP del clúster. Estas direcciones IP deben proceder de la subred de la red de administración. |
Rango de VIP de IPAM | - | Un rango de CIDR privado para asignar direcciones IP a los servicios de Kubernetes. Las direcciones IP deben proceder de la subred de la red de datos. Debe especificar un rango de CIDR de servicios de Kubernetes único para cada clúster supervisor. |
Puertos y protocolos
En esta tabla se especifican los protocolos y los puertos necesarios para administrar la conectividad IP entre NSX Advanced Load Balancer, vCenter Server y otros componentes de vSphere IaaS control plane.
Origen | Destino | Protocolo y puertos |
---|---|---|
Controladora de NSX Advanced Load Balancer | Controladora de NSX Advanced Load Balancer (en el clúster) | TCP 22 (SSH) TCP 443 (HTTPS) TCP 8443 (HTTPS) |
Motor de servicio | Engine de servicio en HA | TCP 9001 para VMware, LSC y NSX-T Cloud |
Motor de servicio | Controladora de NSX Advanced Load Balancer | TCP 22 (SSH) TCP 8443 (HTTPS) TCP 123 (NTP) |
Controladora de NSX Advanced Load Balancer | vCenter Server, ESXi, NSX-T Manager | TCP 443 (HTTPS) |
Nodos del plano de control de supervisor (AKO) | Controladora de NSX Advanced Load Balancer | TCP 443 (HTTPS) |
Para obtener más información sobre los puertos y los protocolos de NSX Advanced Load Balancer, consulte https://ports.esp.vmware.com/home/NSX-Advanced-Load-Balancer.