El equilibrador de carga distribuye las solicitudes de servicio entrantes entre varios servidores de manera que la distribución de la carga sea transparente para los usuarios. El equilibrio de carga permite lograr un uso óptimo de los recursos, lo que maximiza el rendimiento, minimiza el tiempo de respuesta y evita sobrecargas.
El equilibrador de carga de NSX admite dos motores de equilibrio de carga. El equilibrador de carga de 4 capas está basado en paquetes y proporciona un procesamiento de rutas de acceso rápidas. El equilibrador de carga de 7 capas se basa en sockets, y es compatible con las estrategias de administración de tráfico avanzadas y la mitigación de DDOS para los servicios back-end.
El equilibrio de carga para una puerta de enlace Edge de NSX Data Center for vSphere se configura en la interfaz externa debido a que la carga de la puerta de enlace Edge equilibra el tráfico entrante de la red externa. Al configurar servidores virtuales para el equilibrio de carga, especifique una de las direcciones IP disponibles en el VDC de organización.
Conceptos y estrategias de equilibrio de carga
Una estrategia de equilibrio de carga basado en paquetes se implementa en la capa de TCP y UDP. El equilibrio de carga basado en paquetes no detiene la conexión ni regula la solicitud completa. En lugar de eso, tras manipular el paquete, lo envía directamente al servidor seleccionado. Se mantienen las sesiones de TCP y UDP en el equilibrador de carga para que los paquetes de una solo sesión se dirijan al mismo servidor. Puede seleccionar Aceleración habilitada en la configuración global y la configuración de los servidores virtuales relevantes para habilitar el equilibrio de carga basado en paquetes.
Una estrategia de equilibrio de carga basado en sockets se implementa por encima de la interfaz de sockets. Se establecen dos conexiones para una sola solicitud: una conexión orientada al cliente y una conexión orientada al servidor. La conexión orientada al servidor se establece después de la selección del servidor. Para la implementación basada en sockets de HTTP, se recibe la solicitud completa antes de enviarla al servidor seleccionado con manipulación de capa 7 opcional. Para la implementación basada en sockets HTTPS, se intercambia la información de autenticación en la conexión orientada al cliente o la conexión orientada al servidor. El equilibrio de carga basado en sockets es el modo predeterminado para los servidores virtuales TCP, HTTP y HTTPS.
Los conceptos clave para el equilibrador de carga NSX son: servidor virtual, grupo de servidores, miembro de grupo de servidores y supervisión de servicio.
- Servidor virtual
- Resumen de un servicio de aplicación, representado por una combinación única de IP, puerto, protocolos y perfil de aplicación, como TCP o UDP.
- Grupo de servidores
- Grupo de servidores back-end.
- Miembro de grupo de servidores
- Servidor back-end representado como miembro de un grupo.
- Supervisión de servicio
- Definición de la forma de comprobar el estado de mantenimiento de un servidor back-end.
- Perfil de aplicación
- Representación de la configuración de TCP, UDP, persistencia y certificación para una determinada aplicación.
Información general de configuración
Para comenzar, configure las opciones globales para el equilibrador de carga. Ahora, cree un grupo de servidores compuesto por miembros de servidores back-end y asocie una supervisión de servicio al grupo para administrar y compartir los servidores back-end de forma eficiente.
A continuación, cree un perfil de aplicación para definir el comportamiento común de las aplicaciones en un equilibrador de carga, como el cliente SSL, el servidor SSL, el encabezado X-Forwarded-For o la persistencia. La persistencia envía solicitudes posteriores con características similares, como que la cookie o la dirección IP de origen envíen al mismo miembro de grupo, sin ejecutar el algoritmo de equilibrio de carga. Se puede reutilizar el perfil de aplicación en los servidores virtuales.
Cree una regla de aplicación opcional para configurar los ajustes específicos de la aplicación para la manipulación del tráfico, como la coincidencia de cierta dirección URL o nombre de host para que diferentes grupos puedan gestionar diferentes solicitudes. A continuación, cree una supervisión de servicio específica para la aplicación o utilice una supervisión de servicio existente que se ajuste a sus necesidades.
Opcionalmente, puede crear una regla de aplicación para admitir la funcionalidad avanzada de servidores virtuales de 7 capas. Algunos escenarios de uso para reglas de aplicación incluyen la conmutación de contenido, la manipulación de encabezados, las reglas de seguridad y la protección de DOS.
Por último, cree un servidor virtual que conecte el grupo de servidores, el perfil de aplicación y cualquier posible regla de aplicación.
Cuando el servidor virtual recibe una solicitud, el algoritmo de equilibrio de carga tiene en cuenta la configuración del miembro de grupo y el estado de tiempo de ejecución. El algoritmo calcula el grupo apropiado para distribuir el tráfico compuesto por uno o varios miembros. La configuración del miembro de grupo incluye opciones como ponderación, conexión máxima y estado de condición. El estado de tiempo de ejecución incluye las conexiones actuales, el tiempo de respuesta y la información de comprobación de estado. Los métodos de cálculo pueden ser por turnos, por turnos ponderado, mínimo conectado, hash de IP de origen, mínimo conectado ponderado, URL, URI o encabezado HTTP.
Cada grupo se supervisa con la supervisión de servicio asociada. Cuando el equilibrador de carga detecta un problema con un miembro del grupo, el miembro se marca como INACTIVO. Solo se selecciona un servidor ACTIVO cuando se elige un miembro del grupo de servidores. Si no se configura una supervisión de servicio para el grupo de servidores, todos los miembros del grupo se consideran ACTIVOS.
Configurar el equilibrio de carga en la puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal
Los parámetros de configuración global del equilibrador de carga incluyen la habilitación general, la selección del motor de 4 capas o 7 capas, y la especificación de los tipos de eventos que se registrarán.
Procedimiento
- Abra los servicios de puerta de enlace Edge.
- En el panel de navegación principal de la izquierda, seleccione Recursos y, en la barra de navegación superior de la página, seleccione la pestaña Recursos de nube.
- En el panel secundario de la izquierda, seleccione Puertas de enlace Edge.
- Haga clic en el botón de radio junto al nombre de la puerta de enlace Edge de destino y haga clic en Servicios.
- Desplácese hasta Equilibrador de carga > Configuración global.
- Seleccione las opciones que desea habilitar:
Opción Acción Estado Haga clic en el icono de alternancia para habilitar el equilibrador de carga. Habilite Aceleración habilitada para configurar el equilibrador de carga de modo que utilice el motor de capa 4 (el cual es más rápido) en lugar del motor de capa 7. La VIP de TCP de 4 capas se procesa antes que el firewall de puerta de enlace Edge, por lo que no se necesita ninguna regla para permitir el firewall.
Nota:Las VIP de capa 7 para HTTP y HTTPS se procesan después del firewall, de modo que, cuando no se habilita la aceleración, debe haber una regla de firewall de puerta de enlace Edge para permitir el acceso a la VIP de capa 7 para dichos protocolos. Cuando se habilita la aceleración y el grupo de servidores está en un modo no transparente, se agrega una regla SNAT, por lo que debe asegurarse de que el firewall esté habilitado en la puerta de enlace Edge.
Habilitar registro Habilite el registro para que el equilibrador de carga de la puerta de enlace Edge recopile logs de tráfico. Nivel de registro Elija la gravedad de los eventos que se recopilarán en los logs. - Haga clic en Guardar cambios.
Qué hacer a continuación
Configure perfiles de aplicación para el equilibrador de carga. Consulte Crear un perfil de aplicación en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.
Crear un perfil de aplicación en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal
Un perfil de aplicación define el comportamiento del equilibrador de carga para un tipo determinado de tráfico de red. Tras configurar un perfil, este se asocia a un servidor virtual. A continuación, el servidor virtual procesa el tráfico según los valores especificados en el perfil. El uso de perfiles mejora el control de la administración del tráfico de red y hace que las tareas de administración de tráfico sean más sencillas y eficientes.
- Cliente -> HTTPS -> LB (finalizar SSL) -> HTTP -> servidores
- Cliente -> HTTPS -> LB (finalizar SSL) -> HTTPS -> servidores
- Cliente -> HTTPS -> LB (acceso directo SSL) -> HTTPS -> servidores
- Cliente -> HTTP -> LB -> HTTP -> servidores
Procedimiento
- Abra los servicios de puerta de enlace Edge.
- En el panel de navegación principal de la izquierda, seleccione Recursos y, en la barra de navegación superior de la página, seleccione la pestaña Recursos de nube.
- En el panel secundario de la izquierda, seleccione Puertas de enlace Edge.
- Haga clic en el botón de radio junto al nombre de la puerta de enlace Edge de destino y haga clic en Servicios.
- Desplácese hasta Equilibrador de carga > Perfiles de aplicación.
- Haga clic en el botón Crear ().
- Escriba un nombre para el perfil.
- Configure el perfil de aplicación.
Opción Descripción Tipo Seleccione el tipo de protocolo usado para enviar solicitudes al servidor. La lista de parámetros obligatorios depende del protocolo seleccionado. No se pueden introducir parámetros que no sean aplicables para el protocolo seleccionado. Todos los demás parámetros son obligatorios. Habilitar acceso directo SSL Haga clic aquí para habilitar la autenticación SSL que se transferirá al servidor virtual. De lo contrario, la autenticación SSL se realizará en la dirección de destino.
URL de redirección HTTP (HTTP y HTTPS) Introduzca la dirección URL a la que debe redirigirse el tráfico que llega a la dirección de destino. Persistencia Especifique un mecanismo de persistencia para el perfil. La persistencia realiza el seguimiento de los datos de sesión y los almacena. Estos datos pueden ser, por ejemplo, el miembro de grupo específico que ha procesado una solicitud de cliente. Esto garantiza que las solicitudes de cliente se dirijan al mismo miembro de grupo durante toda una sesión o las sesiones posteriores. Las opciones son las siguientes:
- IP de origen
La persistencia de IP de origen realiza un seguimiento de las sesiones en función de la dirección IP de origen. Cuando un cliente solicita una conexión a un servidor virtual que admite la persistencia de afinidad de dirección de origen, el equilibrador de carga comprueba si ese cliente se ha conectado anteriormente y, si es así, devuelve el cliente al mismo miembro de grupo.
- MSRDP
Solo TCP: la persistencia del protocolo de escritorio remoto de Microsoft (Microsoft Remote Desktop Protocol, MSRDP) mantiene sesiones persistentes entre clientes y servidores de Windows que ejecutan el servicio de protocolo de escritorio remoto (Remote Desktop Protocol, RDP) de Microsoft. El escenario recomendado para habilitar la persistencia de MSRDP consiste en crear un grupo de equilibrio de carga que conste de miembros que ejecuten un sistema operativo invitado de Windows Server, en el que todos los miembros pertenezcan a un clúster de Windows y participen en un directorio de sesión de Windows.
- ID de sesión SSL
La persistencia del ID de sesión SSL está disponible cuando se habilita el acceso directo a SSL. La persistencia del ID de sesión SSL garantiza que las conexiones repetidas del mismo cliente se envíen al mismo servidor. La persistencia del ID de sesión permite el uso de la reanudación de la sesión SSL, lo que ahorra tiempo de procesamiento tanto para el cliente como para el servidor.
Nombre de cookie (HTTP y HTTPS) Si ha especificado Cookie como el mecanismo de persistencia, introduzca el nombre de la cookie. La persistencia de cookie usa una cookie para identificar de manera exclusiva la sesión la primera vez que un cliente accede al sitio. El equilibrador de carga hace referencia a esta cookie cuando conecta solicitudes posteriores en la sesión, de modo que todas van al mismo servidor virtual. Modo Seleccione el modo mediante el cual debe insertarse la cookie. Se admiten los siguientes modos: - Insertar
La puerta de enlace Edge envía una cookie. Cuando el servidor envía una o varias cookies, el cliente recibe una cookie adicional (las cookies del servidor más la cookie de la puerta de enlace Edge). Cuando el servidor no envía ninguna cookie, el cliente recibe únicamente la cookie de la puerta de enlace Edge.
- Prefijo
Seleccione esta opción cuando el cliente no admite más de una cookie.Nota: Todos los navegadores aceptan varias cookies. No obstante, puede que una aplicación privada utilice un cliente privado que solo admita una cookie. El servidor web envía la cookie como de costumbre. La puerta de enlace Edge inserta (como un prefijo) la información de cookie en el valor de cookie del servidor. Esta información de cookie adicional se quita cuando la puerta de enlace Edge la envía al servidor.
- Sesión de app Para esta opción, el servidor no envía una cookie. En su lugar, envía la información de la sesión del usuario como una URL. Por ejemplo, http://example.com/admin/UpdateUserServlet;jsessionid=OI24B9ASD7BSSD, donde jsessionid es la información de sesión del usuario y se utiliza para la persistencia. No es posible ver la tabla de persistencia de Sesión de aplicación para solucionar problemas.
Caduca en (segundos) Escriba un período de tiempo en segundos durante el que la persistencia permanece en vigor. Debe ser un número entero positivo entre 1 y 86400. Nota: Para el equilibrio de carga de 7 capas mediante la persistencia de IP de origen de TCP, se agota el tiempo de espera de la entrada de persistencia si no se establecen nuevas conexiones TCP durante un período de tiempo, incluso si las conexiones existentes aún están activas.Insertar encabezado HTTP X-Forwarded-For HTTP y HTTPS: seleccione Insertar encabezado HTTP X-Forwarded-For para identificar la dirección IP de origen de un cliente que se conecta a un servidor web mediante el equilibrador de carga. Nota: No se admite el uso de este encabezado si se habilitó el acceso directo a SSL.Habilitar SSL del lado de grupo Solo HTTPS: seleccione Habilitar SSL del lado de grupo para definir el certificado, las CA o las CRL utilizados para autenticar el equilibrador de carga del lado de servidor en la pestaña Certificados del grupo. - IP de origen
- Solo HTTPS: configure los certificados que se utilizarán con el perfil de aplicación. Si no existen los certificados que necesita, puede crearlos en la pestaña Certificados.
Opción Descripción Certificados del servidor virtual Seleccione el certificado, las CA o las CRL utilizadas para descifrar el tráfico HTTPS. Certificados del grupo Defina el certificado, las CA o las CRL utilizadas para autenticar el equilibrador de carga del lado servidor. Nota: Seleccione Habilitar SSL del lado de grupo para habilitar esta pestaña.Cifrado Seleccione los algoritmos de cifrado (o conjunto de cifrado) que se han negociado durante el protocolo de enlace SSL/TLS. Autenticación de cliente Especifique si la autenticación de cliente se ignorará o será obligatoria. Nota: Si se establece como obligatoria, el cliente debe proporcionar un certificado después de la solicitud o, de lo contrario, se cancelará el protocolo de enlace. - Para mantener los cambios, haga clic en Conservar.
Qué hacer a continuación
Agregue supervisiones del servicio para que el equilibrador de carga defina las comprobaciones de estado para distintos tipos de tráfico de red. Consulte Crear una supervisión del servicio en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.
Crear una supervisión del servicio en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal
Las supervisiones del servicio se crean para definir los parámetros de comprobación de estado de un tipo determinado de tráfico de red. Cuando se asocia una supervisión del servicio a un grupo, se supervisan los miembros del grupo según los parámetros de la supervisión de servicio.
Procedimiento
- Abra los servicios de puerta de enlace Edge.
- En el panel de navegación principal de la izquierda, seleccione Recursos y, en la barra de navegación superior de la página, seleccione la pestaña Recursos de nube.
- En el panel secundario de la izquierda, seleccione Puertas de enlace Edge.
- Haga clic en el botón de radio junto al nombre de la puerta de enlace Edge de destino y haga clic en Servicios.
- Desplácese hasta Equilibrador de carga > Supervisión del servicio.
- Haga clic en el botón Crear ().
- Introduzca un nombre para la supervisión del servicio.
- (opcional) Configure las siguientes opciones para la supervisión del servicio:
Opción Descripción Intervalo Introduzca el intervalo en el que se supervisará un servidor mediante el valor de Método especificado. Tiempo de espera Introduzca el tiempo máximo en segundos durante el cual debe recibirse una respuesta del servidor. Máximo de reintentos Introduzca el número de veces que el valor de Método de supervisión especificado debe fallar de forma secuencial para que el servidor se considere inactivo. Tipo Seleccione la manera en la que desea enviar la solicitud de comprobación de estado al servidor: HTTP, HTTPS, TCP, ICMP o UDP. En función del tipo seleccionado, las opciones restantes del cuadro de diálogo Nueva supervisión del servicio estarán activadas o desactivadas.
Esperado (HTTP y HTTPS) Introduzca la cadena que la supervisión espera hacer coincidir en la línea de estado de la respuesta HTTP o HTTPS (por ejemplo, HTTP/1.1). Método HTTP y HTTPS: seleccione el método que se utilizará para detectar el estado del servidor. URL (HTTP y HTTPS) Introduzca la dirección URL que se utilizará en la solicitud de estado del servidor. Nota: Cuando se selecciona el método POST, debe especificar un valor para Enviar.Enviar (HTTP, HTTPS y UDP) Introduzca los datos que se enviarán. Recibir (HTTP, HTTPS y UDP) Introduzca la cadena que se buscará en el contenido de la respuesta para hacerla coincidir. Nota: Cuando Esperado no coincide, la supervisión no intenta hacer coincidir el contenido de Recibir.Extensión (TODO) Introduzca parámetros de supervisión avanzados como pares con el formato clave=valor. Por ejemplo, warning=10 indica que, cuando un servidor no responde en un intervalo de 10 segundos, su estado se establece como warning. Todos los elementos de extensión deben separarse con un carácter de retorno de carro. Por ejemplo: <extension>delay=2 critical=3 escape</extension>
- Para mantener los cambios, haga clic en Conservar.
Ejemplo: Extensiones admitidas para cada protocolo
Extensión de supervisión | Descripción |
---|---|
no-body | No espera un cuerpo de documento y detiene la lectura después del encabezado HTTP/HTTPS.
Nota: Aún se envía HTTP GET o HTTP POST, pero no un método HEAD.
|
max-age=SECONDS | Advierte cuando un documento tiene una antigüedad superior a la cantidad de segundos indicada por SECONDS. El número puede tener el formato 10m para minutos, 10h para horas o 10d para días. |
content-type=STRING | Especifica un tipo de medios para el encabezado Content-Type en las llamadas POST. |
linespan | Permite que la expresión regular abarque líneas nuevas (debe preceder a -r o -R). |
regex=STRING o ereg=STRING | Busca en la página una expresión regular que reemplaza a STRING en el ejemplo. |
eregi=STRING | Busca en la página una expresión regular que no distingue mayúsculas de minúsculas que reemplaza a STRING en el ejemplo. |
invert-regex | Devuelve CRITICAL cuando lo encuentra y OK cuando no lo encuentra. |
proxy-authorization=AUTH_PAIR | Especifica el par nombre de usuario:contraseña en servidores proxy con autenticación básica. |
useragent=STRING | Envía la cadena en el encabezado HTTP como User Agent. |
header=STRING | Envía cualquier otra etiqueta en el encabezado HTTP. Utilícelo varias veces para encabezados adicionales. |
onredirect=ok|warning|critical|follow|sticky|stickyport | Indica cómo controlar páginas redirigidas. sticky es similar a follow, pero se queda con la dirección IP especificada. stickyport garantiza que el puerto permanezca igual. |
pagesize=INTEGER:INTEGER | Especifica los tamaños de página máximo y mínimo necesarios en bytes. |
warning=DOUBLE | Especifica el tiempo de respuesta en segundos que produce un estado de advertencia. |
critical=DOUBLE | Especifica el tiempo de respuesta en segundos que produce un estado crítico. |
Extensión de supervisión | Descripción |
---|---|
sni | Habilita la compatibilidad de extensión de nombre de host SSL/TLS (SNI). |
certificate=INTEGER | Especifica el número mínimo de días que un certificado debe ser válido. El puerto predeterminado es 443. Cuando se utiliza esta opción, no se comprueba la dirección URL. |
authorization=AUTH_PAIR | Especifica el par nombre de usuario:contraseña en sitios con autenticación básica. |
Extensión de supervisión | Descripción |
---|---|
escape | Permite el uso de \n, \r, \t o \ en una cadena send o quit. Debe aparecer antes de la opción send o quit. De forma predeterminada, no se agrega nada a send y se agrega \r\n al final de quit. |
all | Especifica que todas las cadenas que se esperan deben estar presentes en una respuesta del servidor. De forma predeterminada, se utiliza any. |
quit=STRING | Envía una cadena al servidor para cerrar la conexión correctamente. |
refuse=ok|warn|crit | Acepta rechazos de TCP con los estados ok, warn o criti. De forma predeterminada, utiliza el estado crit. |
mismatch=ok|warn|crit | Acepta faltas de coincidencia de la cadena esperada con los estados ok, warn o crit. De forma predeterminada, utiliza el estado warn. |
jail | Oculta los resultados del socket TCP. |
maxbytes=INTEGER | Cierra la conexión cuando se recibe una cantidad de bytes superior a la especificada. |
delay=INTEGER | Espera el número de segundos especificado entre el envío de la cadena y el sondeo de una respuesta. |
certificate=INTEGER[,INTEGER] | Especifica el número mínimo de días que un certificado debe ser válido. El primer valor es #days para la advertencia y el segundo valor es critical (si no se especifica: 0). |
ssl | Usa SSL para la conexión. |
warning=DOUBLE | Especifica el tiempo de respuesta en segundos que produce un estado de advertencia. |
critical=DOUBLE | Especifica el tiempo de respuesta en segundos que produce un estado crítico. |
Qué hacer a continuación
Agregue grupos de servidores para el equilibrador de carga. Consulte Agregar un grupo de servidores para equilibrio de carga en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.
Agregar un grupo de servidores para equilibrio de carga en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal
Puede añadir un grupo de servidores para gestionar y compartir servidores back-end de forma flexible y eficiente. Un grupo gestiona métodos de distribución de equilibrador de carga y está asociado a la supervisión del servicio para parámetros de comprobación de estado.
Procedimiento
Qué hacer a continuación
Agregue servidores virtuales para el equilibrador de carga. Un servidor virtual tiene una dirección IP pública y atiende todas las solicitudes entrantes del cliente. Consulte Agregar un servidor virtual a una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.
Agregar una regla de aplicación a una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal
Puede escribir una regla de aplicación para manipular y gestionar directamente el tráfico de aplicación de IP.
Procedimiento
Qué hacer a continuación
Asocie la nueva regla de aplicación con un servidor virtual agregado para el equilibrador de carga. Consulte Agregar un servidor virtual a una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.
Agregar un servidor virtual a una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal
Agregue una interfaz de vínculo superior o una puerta de enlace Edge interna de NSX Data Center for vSphere como servidor virtual en VMware Cloud Director. Un servidor virtual tiene una dirección IP pública y atiende todas las solicitudes entrantes del cliente.
De forma predeterminada, el equilibrador de carga cierra la conexión TCP del servidor después de cada solicitud de cliente.
Procedimiento
- Abra los servicios de puerta de enlace Edge.
- En el panel de navegación principal de la izquierda, seleccione Recursos y, en la barra de navegación superior de la página, seleccione la pestaña Recursos de nube.
- En el panel secundario de la izquierda, seleccione Puertas de enlace Edge.
- Haga clic en el botón de radio junto al nombre de la puerta de enlace Edge de destino y haga clic en Servicios.
- Desplácese hasta Equilibrador de carga > Servidores virtuales.
- Haga clic en el botón Agregar ().
- En la pestaña General, configure las siguientes opciones del servidor virtual:
Opción Descripción Habilitar servidor virtual Haga clic aquí para habilitar el servidor virtual. Habilitar aceleración Haga clic aquí para habilitar la aceleración. Perfil de aplicación Seleccione un perfil de aplicación para asociarlo con el servidor virtual. Nombre Escriba un nombre para el servidor virtual. Descripción Escriba una descripción opcional del servidor virtual. Dirección IP Escriba o examine para seleccionar la dirección IP en la que el equilibrador de carga realiza la escucha. Protocolo Seleccione el protocolo que acepta el servidor virtual. Debe seleccionar el mismo protocolo que utiliza el Perfil de aplicación seleccionado. Puerto Escriba el número de puerto en el que el equilibrador de carga realiza la escucha. Grupo predeterminado Elija el grupo de servidores que va a utilizar el equilibrador de carga. Límite de conexiones (Opcional) Escriba el número máximo de conexiones simultáneas que puede procesar el servidor virtual. Límite de velocidad de conexión (CPS) (Opcional) Escriba el número máximo de nuevas solicitudes de conexión entrantes por segundo. - (opcional) Para asociar reglas de aplicación con el servidor virtual, haga clic en la pestaña Avanzado y realice los pasos siguientes:
- Haga clic en el botón Agregar ().
Aparecen las reglas de aplicación creadas para el equilibrador de carga. Si es necesario, agregue reglas de aplicación para el equilibrador de carga. Consulte Agregar una regla de aplicación a una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.
- Haga clic en el botón Agregar ().
- Para mantener los cambios, haga clic en Conservar.
Qué hacer a continuación
Cree una regla de firewall de puerta de enlace Edge para permitir el tráfico hacia el nuevo servidor virtual (la dirección IP de destino). Consulte Agregar una regla de firewall de puerta de enlace Edge de NSX Data Center for vSphere en el VMware Cloud Director Service Provider Admin Portal.