El equilibrador de carga distribuye las solicitudes de servicio entrantes entre varios servidores de manera que la distribución de la carga sea transparente para los usuarios. El equilibrio de carga permite lograr un uso óptimo de los recursos, lo que maximiza el rendimiento, minimiza el tiempo de respuesta y evita sobrecargas.

El equilibrador de carga de NSX admite dos motores de equilibrio de carga. El equilibrador de carga de 4 capas está basado en paquetes y proporciona un procesamiento de rutas de acceso rápidas. El equilibrador de carga de 7 capas se basa en sockets, y es compatible con las estrategias de administración de tráfico avanzadas y la mitigación de DDOS para los servicios back-end.

El equilibrio de carga para una puerta de enlace Edge de NSX Data Center for vSphere se configura en la interfaz externa debido a que la carga de la puerta de enlace Edge equilibra el tráfico entrante de la red externa. Al configurar servidores virtuales para el equilibrio de carga, especifique una de las direcciones IP disponibles en el VDC de organización.

Conceptos y estrategias de equilibrio de carga

Una estrategia de equilibrio de carga basado en paquetes se implementa en la capa de TCP y UDP. El equilibrio de carga basado en paquetes no detiene la conexión ni regula la solicitud completa. En lugar de eso, tras manipular el paquete, lo envía directamente al servidor seleccionado. Se mantienen las sesiones de TCP y UDP en el equilibrador de carga para que los paquetes de una solo sesión se dirijan al mismo servidor. Puede seleccionar Aceleración habilitada en la configuración global y la configuración de los servidores virtuales relevantes para habilitar el equilibrio de carga basado en paquetes.

Una estrategia de equilibrio de carga basado en sockets se implementa por encima de la interfaz de sockets. Se establecen dos conexiones para una sola solicitud: una conexión orientada al cliente y una conexión orientada al servidor. La conexión orientada al servidor se establece después de la selección del servidor. Para la implementación basada en sockets de HTTP, se recibe la solicitud completa antes de enviarla al servidor seleccionado con manipulación de capa 7 opcional. Para la implementación basada en sockets HTTPS, se intercambia la información de autenticación en la conexión orientada al cliente o la conexión orientada al servidor. El equilibrio de carga basado en sockets es el modo predeterminado para los servidores virtuales TCP, HTTP y HTTPS.

Los conceptos clave para el equilibrador de carga NSX son: servidor virtual, grupo de servidores, miembro de grupo de servidores y supervisión de servicio.

Servidor virtual
Resumen de un servicio de aplicación, representado por una combinación única de IP, puerto, protocolos y perfil de aplicación, como TCP o UDP.
Grupo de servidores
Grupo de servidores back-end.
Miembro de grupo de servidores
Servidor back-end representado como miembro de un grupo.
Supervisión de servicio
Definición de la forma de comprobar el estado de mantenimiento de un servidor back-end.
Perfil de aplicación
Representación de la configuración de TCP, UDP, persistencia y certificación para una determinada aplicación.

Información general de configuración

Para comenzar, configure las opciones globales para el equilibrador de carga. Ahora, cree un grupo de servidores compuesto por miembros de servidores back-end y asocie una supervisión de servicio al grupo para administrar y compartir los servidores back-end de forma eficiente.

A continuación, cree un perfil de aplicación para definir el comportamiento común de las aplicaciones en un equilibrador de carga, como el cliente SSL, el servidor SSL, el encabezado X-Forwarded-For o la persistencia. La persistencia envía solicitudes posteriores con características similares, como que la cookie o la dirección IP de origen envíen al mismo miembro de grupo, sin ejecutar el algoritmo de equilibrio de carga. Se puede reutilizar el perfil de aplicación en los servidores virtuales.

Cree una regla de aplicación opcional para configurar los ajustes específicos de la aplicación para la manipulación del tráfico, como la coincidencia de cierta dirección URL o nombre de host para que diferentes grupos puedan gestionar diferentes solicitudes. A continuación, cree una supervisión de servicio específica para la aplicación o utilice una supervisión de servicio existente que se ajuste a sus necesidades.

Opcionalmente, puede crear una regla de aplicación para admitir la funcionalidad avanzada de servidores virtuales de 7 capas. Algunos escenarios de uso para reglas de aplicación incluyen la conmutación de contenido, la manipulación de encabezados, las reglas de seguridad y la protección de DOS.

Por último, cree un servidor virtual que conecte el grupo de servidores, el perfil de aplicación y cualquier posible regla de aplicación.

Cuando el servidor virtual recibe una solicitud, el algoritmo de equilibrio de carga tiene en cuenta la configuración del miembro de grupo y el estado de tiempo de ejecución. El algoritmo calcula el grupo apropiado para distribuir el tráfico compuesto por uno o varios miembros. La configuración del miembro de grupo incluye opciones como ponderación, conexión máxima y estado de condición. El estado de tiempo de ejecución incluye las conexiones actuales, el tiempo de respuesta y la información de comprobación de estado. Los métodos de cálculo pueden ser por turnos, por turnos ponderado, mínimo conectado, hash de IP de origen, mínimo conectado ponderado, URL, URI o encabezado HTTP.

Cada grupo se supervisa con la supervisión de servicio asociada. Cuando el equilibrador de carga detecta un problema con un miembro del grupo, el miembro se marca como INACTIVO. Solo se selecciona un servidor ACTIVO cuando se elige un miembro del grupo de servidores. Si no se configura una supervisión de servicio para el grupo de servidores, todos los miembros del grupo se consideran ACTIVOS.

Configurar el equilibrio de carga en la puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal

Los parámetros de configuración global del equilibrador de carga incluyen la habilitación general, la selección del motor de 4 capas o 7 capas, y la especificación de los tipos de eventos que se registrarán.

Procedimiento

  1. Abra los servicios de puerta de enlace Edge.
    1. En el panel de navegación principal de la izquierda, seleccione Recursos y, en la barra de navegación superior de la página, seleccione la pestaña Recursos de nube.
    2. En el panel secundario de la izquierda, seleccione Puertas de enlace Edge.
    3. Haga clic en el botón de radio junto al nombre de la puerta de enlace Edge de destino y haga clic en Servicios.
  2. Desplácese hasta Equilibrador de carga > Configuración global.
  3. Seleccione las opciones que desea habilitar:
    Opción Acción
    Estado Haga clic en el icono de alternancia para habilitar el equilibrador de carga.

    Habilite Aceleración habilitada para configurar el equilibrador de carga de modo que utilice el motor de capa 4 (el cual es más rápido) en lugar del motor de capa 7. La VIP de TCP de 4 capas se procesa antes que el firewall de puerta de enlace Edge, por lo que no se necesita ninguna regla para permitir el firewall.

    Nota:

    Las VIP de capa 7 para HTTP y HTTPS se procesan después del firewall, de modo que, cuando no se habilita la aceleración, debe haber una regla de firewall de puerta de enlace Edge para permitir el acceso a la VIP de capa 7 para dichos protocolos. Cuando se habilita la aceleración y el grupo de servidores está en un modo no transparente, se agrega una regla SNAT, por lo que debe asegurarse de que el firewall esté habilitado en la puerta de enlace Edge.

    Habilitar registro Habilite el registro para que el equilibrador de carga de la puerta de enlace Edge recopile logs de tráfico.
    Nivel de registro Elija la gravedad de los eventos que se recopilarán en los logs.
  4. Haga clic en Guardar cambios.

Qué hacer a continuación

Configure perfiles de aplicación para el equilibrador de carga. Consulte Crear un perfil de aplicación en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.

Crear un perfil de aplicación en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal

Un perfil de aplicación define el comportamiento del equilibrador de carga para un tipo determinado de tráfico de red. Tras configurar un perfil, este se asocia a un servidor virtual. A continuación, el servidor virtual procesa el tráfico según los valores especificados en el perfil. El uso de perfiles mejora el control de la administración del tráfico de red y hace que las tareas de administración de tráfico sean más sencillas y eficientes.

Al crear un perfil para el tráfico HTTPS, se permiten los siguientes patrones de tráfico HTTPS:
  • Cliente -> HTTPS -> LB (finalizar SSL) -> HTTP -> servidores
  • Cliente -> HTTPS -> LB (finalizar SSL) -> HTTPS -> servidores
  • Cliente -> HTTPS -> LB (acceso directo SSL) -> HTTPS -> servidores
  • Cliente -> HTTP -> LB -> HTTP -> servidores

Procedimiento

  1. Abra los servicios de puerta de enlace Edge.
    1. En el panel de navegación principal de la izquierda, seleccione Recursos y, en la barra de navegación superior de la página, seleccione la pestaña Recursos de nube.
    2. En el panel secundario de la izquierda, seleccione Puertas de enlace Edge.
    3. Haga clic en el botón de radio junto al nombre de la puerta de enlace Edge de destino y haga clic en Servicios.
  2. Desplácese hasta Equilibrador de carga > Perfiles de aplicación.
  3. Haga clic en el botón Crear (botón Crear).
  4. Escriba un nombre para el perfil.
  5. Configure el perfil de aplicación.
    Opción Descripción
    Tipo Seleccione el tipo de protocolo usado para enviar solicitudes al servidor. La lista de parámetros obligatorios depende del protocolo seleccionado. No se pueden introducir parámetros que no sean aplicables para el protocolo seleccionado. Todos los demás parámetros son obligatorios.
    Habilitar acceso directo SSL Haga clic aquí para habilitar la autenticación SSL que se transferirá al servidor virtual.

    De lo contrario, la autenticación SSL se realizará en la dirección de destino.

    URL de redirección HTTP (HTTP y HTTPS) Introduzca la dirección URL a la que debe redirigirse el tráfico que llega a la dirección de destino.
    Persistencia Especifique un mecanismo de persistencia para el perfil.

    La persistencia realiza el seguimiento de los datos de sesión y los almacena. Estos datos pueden ser, por ejemplo, el miembro de grupo específico que ha procesado una solicitud de cliente. Esto garantiza que las solicitudes de cliente se dirijan al mismo miembro de grupo durante toda una sesión o las sesiones posteriores. Las opciones son las siguientes:

    • IP de origen

      La persistencia de IP de origen realiza un seguimiento de las sesiones en función de la dirección IP de origen. Cuando un cliente solicita una conexión a un servidor virtual que admite la persistencia de afinidad de dirección de origen, el equilibrador de carga comprueba si ese cliente se ha conectado anteriormente y, si es así, devuelve el cliente al mismo miembro de grupo.

    • MSRDP

      Solo TCP: la persistencia del protocolo de escritorio remoto de Microsoft (Microsoft Remote Desktop Protocol, MSRDP) mantiene sesiones persistentes entre clientes y servidores de Windows que ejecutan el servicio de protocolo de escritorio remoto (Remote Desktop Protocol, RDP) de Microsoft. El escenario recomendado para habilitar la persistencia de MSRDP consiste en crear un grupo de equilibrio de carga que conste de miembros que ejecuten un sistema operativo invitado de Windows Server, en el que todos los miembros pertenezcan a un clúster de Windows y participen en un directorio de sesión de Windows.

    • ID de sesión SSL

      La persistencia del ID de sesión SSL está disponible cuando se habilita el acceso directo a SSL. La persistencia del ID de sesión SSL garantiza que las conexiones repetidas del mismo cliente se envíen al mismo servidor. La persistencia del ID de sesión permite el uso de la reanudación de la sesión SSL, lo que ahorra tiempo de procesamiento tanto para el cliente como para el servidor.

    Nombre de cookie (HTTP y HTTPS) Si ha especificado Cookie como el mecanismo de persistencia, introduzca el nombre de la cookie. La persistencia de cookie usa una cookie para identificar de manera exclusiva la sesión la primera vez que un cliente accede al sitio. El equilibrador de carga hace referencia a esta cookie cuando conecta solicitudes posteriores en la sesión, de modo que todas van al mismo servidor virtual.
    Modo Seleccione el modo mediante el cual debe insertarse la cookie. Se admiten los siguientes modos:
    • Insertar

      La puerta de enlace Edge envía una cookie. Cuando el servidor envía una o varias cookies, el cliente recibe una cookie adicional (las cookies del servidor más la cookie de la puerta de enlace Edge). Cuando el servidor no envía ninguna cookie, el cliente recibe únicamente la cookie de la puerta de enlace Edge.

    • Prefijo
      Seleccione esta opción cuando el cliente no admite más de una cookie.
      Nota: Todos los navegadores aceptan varias cookies. No obstante, puede que una aplicación privada utilice un cliente privado que solo admita una cookie. El servidor web envía la cookie como de costumbre. La puerta de enlace Edge inserta (como un prefijo) la información de cookie en el valor de cookie del servidor. Esta información de cookie adicional se quita cuando la puerta de enlace Edge la envía al servidor.
    • Sesión de app Para esta opción, el servidor no envía una cookie. En su lugar, envía la información de la sesión del usuario como una URL. Por ejemplo, http://example.com/admin/UpdateUserServlet;jsessionid=OI24B9ASD7BSSD, donde jsessionid es la información de sesión del usuario y se utiliza para la persistencia. No es posible ver la tabla de persistencia de Sesión de aplicación para solucionar problemas.
    Caduca en (segundos) Escriba un período de tiempo en segundos durante el que la persistencia permanece en vigor. Debe ser un número entero positivo entre 1 y 86400.
    Nota: Para el equilibrio de carga de 7 capas mediante la persistencia de IP de origen de TCP, se agota el tiempo de espera de la entrada de persistencia si no se establecen nuevas conexiones TCP durante un período de tiempo, incluso si las conexiones existentes aún están activas.
    Insertar encabezado HTTP X-Forwarded-For HTTP y HTTPS: seleccione Insertar encabezado HTTP X-Forwarded-For para identificar la dirección IP de origen de un cliente que se conecta a un servidor web mediante el equilibrador de carga.
    Nota: No se admite el uso de este encabezado si se habilitó el acceso directo a SSL.
    Habilitar SSL del lado de grupo Solo HTTPS: seleccione Habilitar SSL del lado de grupo para definir el certificado, las CA o las CRL utilizados para autenticar el equilibrador de carga del lado de servidor en la pestaña Certificados del grupo.
  6. Solo HTTPS: configure los certificados que se utilizarán con el perfil de aplicación. Si no existen los certificados que necesita, puede crearlos en la pestaña Certificados.
    Opción Descripción
    Certificados del servidor virtual Seleccione el certificado, las CA o las CRL utilizadas para descifrar el tráfico HTTPS.
    Certificados del grupo Defina el certificado, las CA o las CRL utilizadas para autenticar el equilibrador de carga del lado servidor.
    Nota: Seleccione Habilitar SSL del lado de grupo para habilitar esta pestaña.
    Cifrado Seleccione los algoritmos de cifrado (o conjunto de cifrado) que se han negociado durante el protocolo de enlace SSL/TLS.
    Autenticación de cliente Especifique si la autenticación de cliente se ignorará o será obligatoria.
    Nota: Si se establece como obligatoria, el cliente debe proporcionar un certificado después de la solicitud o, de lo contrario, se cancelará el protocolo de enlace.
  7. Para mantener los cambios, haga clic en Conservar.

Qué hacer a continuación

Agregue supervisiones del servicio para que el equilibrador de carga defina las comprobaciones de estado para distintos tipos de tráfico de red. Consulte Crear una supervisión del servicio en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.

Crear una supervisión del servicio en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal

Las supervisiones del servicio se crean para definir los parámetros de comprobación de estado de un tipo determinado de tráfico de red. Cuando se asocia una supervisión del servicio a un grupo, se supervisan los miembros del grupo según los parámetros de la supervisión de servicio.

Procedimiento

  1. Abra los servicios de puerta de enlace Edge.
    1. En el panel de navegación principal de la izquierda, seleccione Recursos y, en la barra de navegación superior de la página, seleccione la pestaña Recursos de nube.
    2. En el panel secundario de la izquierda, seleccione Puertas de enlace Edge.
    3. Haga clic en el botón de radio junto al nombre de la puerta de enlace Edge de destino y haga clic en Servicios.
  2. Desplácese hasta Equilibrador de carga > Supervisión del servicio.
  3. Haga clic en el botón Crear (botón Crear).
  4. Introduzca un nombre para la supervisión del servicio.
  5. (opcional) Configure las siguientes opciones para la supervisión del servicio:
    Opción Descripción
    Intervalo Introduzca el intervalo en el que se supervisará un servidor mediante el valor de Método especificado.
    Tiempo de espera Introduzca el tiempo máximo en segundos durante el cual debe recibirse una respuesta del servidor.
    Máximo de reintentos Introduzca el número de veces que el valor de Método de supervisión especificado debe fallar de forma secuencial para que el servidor se considere inactivo.
    Tipo Seleccione la manera en la que desea enviar la solicitud de comprobación de estado al servidor: HTTP, HTTPS, TCP, ICMP o UDP.

    En función del tipo seleccionado, las opciones restantes del cuadro de diálogo Nueva supervisión del servicio estarán activadas o desactivadas.

    Esperado (HTTP y HTTPS) Introduzca la cadena que la supervisión espera hacer coincidir en la línea de estado de la respuesta HTTP o HTTPS (por ejemplo, HTTP/1.1).
    Método HTTP y HTTPS: seleccione el método que se utilizará para detectar el estado del servidor.
    URL (HTTP y HTTPS) Introduzca la dirección URL que se utilizará en la solicitud de estado del servidor.
    Nota: Cuando se selecciona el método POST, debe especificar un valor para Enviar.
    Enviar (HTTP, HTTPS y UDP) Introduzca los datos que se enviarán.
    Recibir (HTTP, HTTPS y UDP) Introduzca la cadena que se buscará en el contenido de la respuesta para hacerla coincidir.
    Nota: Cuando Esperado no coincide, la supervisión no intenta hacer coincidir el contenido de Recibir.
    Extensión (TODO) Introduzca parámetros de supervisión avanzados como pares con el formato clave=valor. Por ejemplo, warning=10 indica que, cuando un servidor no responde en un intervalo de 10 segundos, su estado se establece como warning. Todos los elementos de extensión deben separarse con un carácter de retorno de carro. Por ejemplo:
    <extension>delay=2
    critical=3
    escape</extension>
  6. Para mantener los cambios, haga clic en Conservar.

Ejemplo: Extensiones admitidas para cada protocolo

Tabla 1. Extensiones para los protocolos HTTP/HTTPS
Extensión de supervisión Descripción
no-body No espera un cuerpo de documento y detiene la lectura después del encabezado HTTP/HTTPS.
Nota: Aún se envía HTTP GET o HTTP POST, pero no un método HEAD.
max-age=SECONDS Advierte cuando un documento tiene una antigüedad superior a la cantidad de segundos indicada por SECONDS. El número puede tener el formato 10m para minutos, 10h para horas o 10d para días.
content-type=STRING Especifica un tipo de medios para el encabezado Content-Type en las llamadas POST.
linespan Permite que la expresión regular abarque líneas nuevas (debe preceder a -r o -R).
regex=STRING o ereg=STRING Busca en la página una expresión regular que reemplaza a STRING en el ejemplo.
eregi=STRING Busca en la página una expresión regular que no distingue mayúsculas de minúsculas que reemplaza a STRING en el ejemplo.
invert-regex Devuelve CRITICAL cuando lo encuentra y OK cuando no lo encuentra.
proxy-authorization=AUTH_PAIR Especifica el par nombre de usuario:contraseña en servidores proxy con autenticación básica.
useragent=STRING Envía la cadena en el encabezado HTTP como User Agent.
header=STRING Envía cualquier otra etiqueta en el encabezado HTTP. Utilícelo varias veces para encabezados adicionales.
onredirect=ok|warning|critical|follow|sticky|stickyport Indica cómo controlar páginas redirigidas.

sticky es similar a follow, pero se queda con la dirección IP especificada. stickyport garantiza que el puerto permanezca igual.

pagesize=INTEGER:INTEGER Especifica los tamaños de página máximo y mínimo necesarios en bytes.
warning=DOUBLE Especifica el tiempo de respuesta en segundos que produce un estado de advertencia.
critical=DOUBLE Especifica el tiempo de respuesta en segundos que produce un estado crítico.
Tabla 2. Extensiones exclusivas para protocolo HTTPS
Extensión de supervisión Descripción
sni Habilita la compatibilidad de extensión de nombre de host SSL/TLS (SNI).
certificate=INTEGER Especifica el número mínimo de días que un certificado debe ser válido. El puerto predeterminado es 443. Cuando se utiliza esta opción, no se comprueba la dirección URL.
authorization=AUTH_PAIR Especifica el par nombre de usuario:contraseña en sitios con autenticación básica.
Tabla 3. Extensiones para protocolo TCP
Extensión de supervisión Descripción
escape Permite el uso de \n, \r, \t o \ en una cadena send o quit. Debe aparecer antes de la opción send o quit. De forma predeterminada, no se agrega nada a send y se agrega \r\n al final de quit.
all Especifica que todas las cadenas que se esperan deben estar presentes en una respuesta del servidor. De forma predeterminada, se utiliza any.
quit=STRING Envía una cadena al servidor para cerrar la conexión correctamente.
refuse=ok|warn|crit Acepta rechazos de TCP con los estados ok, warn o criti. De forma predeterminada, utiliza el estado crit.
mismatch=ok|warn|crit Acepta faltas de coincidencia de la cadena esperada con los estados ok, warn o crit. De forma predeterminada, utiliza el estado warn.
jail Oculta los resultados del socket TCP.
maxbytes=INTEGER Cierra la conexión cuando se recibe una cantidad de bytes superior a la especificada.
delay=INTEGER Espera el número de segundos especificado entre el envío de la cadena y el sondeo de una respuesta.
certificate=INTEGER[,INTEGER] Especifica el número mínimo de días que un certificado debe ser válido. El primer valor es #days para la advertencia y el segundo valor es critical (si no se especifica: 0).
ssl Usa SSL para la conexión.
warning=DOUBLE Especifica el tiempo de respuesta en segundos que produce un estado de advertencia.
critical=DOUBLE Especifica el tiempo de respuesta en segundos que produce un estado crítico.

Qué hacer a continuación

Agregue grupos de servidores para el equilibrador de carga. Consulte Agregar un grupo de servidores para equilibrio de carga en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.

Agregar un grupo de servidores para equilibrio de carga en una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal

Puede añadir un grupo de servidores para gestionar y compartir servidores back-end de forma flexible y eficiente. Un grupo gestiona métodos de distribución de equilibrador de carga y está asociado a la supervisión del servicio para parámetros de comprobación de estado.

Procedimiento

  1. Abra los servicios de puerta de enlace Edge.
    1. En el panel de navegación principal de la izquierda, seleccione Recursos y, en la barra de navegación superior de la página, seleccione la pestaña Recursos de nube.
    2. En el panel secundario de la izquierda, seleccione Puertas de enlace Edge.
    3. Haga clic en el botón de radio junto al nombre de la puerta de enlace Edge de destino y haga clic en Servicios.
  2. Desplácese hasta Equilibrador de carga > Grupos.
  3. Haga clic en el botón Crear (botón Crear).
  4. Escriba un nombre y, si lo desea, una descripción del grupo de equilibradores de carga.
  5. Seleccione un método de equilibrio para el servicio en el menú desplegable Algoritmo:
    Opción Descripción
    ROUND-ROBIN Cada servidor se utiliza por turnos en función de la ponderación que tenga asignada. Es el algoritmo más uniforme y justo cuando el tiempo de proceso del servidor permanece distribuido de forma equitativa.
    IP-HASH Selecciona un servidor en función de un hash de la dirección IP de origen y de destino de cada paquete.
    LEASTCONN Distribuye las solicitudes del cliente a varios servidores en función del número de conexiones que ya están abiertas en el servidor. Las nuevas conexiones se envían al servidor que tenga el menor número de conexiones abiertas.
    URI Se hace hash de la parte izquierda del URI (delante del signo de interrogación) y se divide por la ponderación total de los servidores en ejecución. El resultado designa el servidor que recibirá la solicitud. Esta opción garantiza que siempre se dirija un URI al mismo servidor mientras que este no se desactive.
    HTTPHEADER

    El nombre del encabezado HTTP se busca en cada solicitud HTTP. El nombre del encabezado entre paréntesis no distingue mayúsculas de minúsculas, lo que es similar a la función ACL 'hdr()'. Si el encabezado está ausente o no contiene ningún valor, se aplica el algoritmo por turnos. El parámetro del algoritmo HTTP HEADER tiene una opción headerName=<name>. Por ejemplo, puede utilizar host como el parámetro del algoritmo HTTP HEADER.

    URL

    El parámetro de URL especificado en el argumento se busca en la cadena de consulta de cada solicitud HTTP GET. Si al parámetro le sigue un signo igual (=) y un valor, al valor se le aplica hash y se divide por el peso total de los servidores en ejecución. El resultado determina el servidor que recibe la solicitud. Este proceso se utiliza para realizar un seguimiento de los identificadores de usuario de las solicitudes y asegurarse de que el mismo identificador de usuario se envíe siempre al mismo servidor, siempre que ningún servidor se active o desactive. Si no se encuentra ningún parámetro ni ningún valor, se aplica un algoritmo por turnos. El parámetro del algoritmo URL tiene una opción urlParam=<url>.

  6. Agregue miembros al grupo.
    1. Haga clic en el botón Agregar (botón Crear).
    2. Introduzca el nombre del miembro de grupo.
    3. Introduzca la dirección IP del miembro de grupo.
    4. Introduzca el puerto en el que el miembro recibirá el tráfico desde el equilibrador de carga.
    5. Introduzca el puerto de supervisión en el que el miembro recibirá las solicitudes de supervisión de estado.
    6. En el cuadro de texto Ponderación, escriba la proporción de tráfico que gestionará este miembro. Debe ser un número entero entre 1 y 256.
    7. (opcional) En el cuadro de texto Conexiones máximas, escriba el número máximo de conexiones simultáneas que el miembro podrá gestionar.
      Cuando el número de solicitudes entrantes supera el valor máximo, las solicitudes se colocan en cola y el equilibrador de carga espera hasta que se libere una conexión.
    8. (opcional) En el cuadro de texto Conexiones mínimas, escriba el número mínimo de conexiones simultáneas que un miembro siempre debe aceptar.
    9. Haga clic en Conservar para agregar el nuevo miembro al grupo.
      La operación puede tardar un minuto en completarse.
  7. (opcional) A fin de lograr que las direcciones IP de cliente sean visibles para los servidores back-end, seleccione Transparente.
    Si no se selecciona Transparente (el valor predeterminado), los servidores back-end ven la dirección IP del origen del tráfico como la dirección IP interna del equilibrador de carga.

    Cuando Transparente está seleccionado, la dirección IP de origen es la dirección IP real del cliente y la puerta de enlace Edge se debe establecer como la puerta de enlace predeterminada para garantizar que los paquetes devueltos pasen por la puerta de enlace Edge.

  8. Para mantener los cambios, haga clic en Conservar.

Qué hacer a continuación

Agregue servidores virtuales para el equilibrador de carga. Un servidor virtual tiene una dirección IP pública y atiende todas las solicitudes entrantes del cliente. Consulte Agregar un servidor virtual a una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.

Agregar una regla de aplicación a una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal

Puede escribir una regla de aplicación para manipular y gestionar directamente el tráfico de aplicación de IP.

Procedimiento

  1. Abra los servicios de puerta de enlace Edge.
    1. En el panel de navegación principal de la izquierda, seleccione Recursos y, en la barra de navegación superior de la página, seleccione la pestaña Recursos de nube.
    2. En el panel secundario de la izquierda, seleccione Puertas de enlace Edge.
    3. Haga clic en el botón de radio junto al nombre de la puerta de enlace Edge de destino y haga clic en Servicios.
  2. Desplácese hasta Equilibrador de carga > Reglas de aplicación.
  3. Haga clic en el botón Agregar (botón Crear).
  4. Introduzca el nombre de la regla de aplicación.
  5. Introduzca el script de la regla de aplicación.
    Para obtener información sobre la sintaxis de las reglas de aplicación, consulte http://cbonte.github.io/haproxy-dconv/2.2/configuration.html.
  6. Para mantener los cambios, haga clic en Conservar.

Qué hacer a continuación

Asocie la nueva regla de aplicación con un servidor virtual agregado para el equilibrador de carga. Consulte Agregar un servidor virtual a una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.

Agregar un servidor virtual a una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal

Agregue una interfaz de vínculo superior o una puerta de enlace Edge interna de NSX Data Center for vSphere como servidor virtual en VMware Cloud Director. Un servidor virtual tiene una dirección IP pública y atiende todas las solicitudes entrantes del cliente.

De forma predeterminada, el equilibrador de carga cierra la conexión TCP del servidor después de cada solicitud de cliente.

Procedimiento

  1. Abra los servicios de puerta de enlace Edge.
    1. En el panel de navegación principal de la izquierda, seleccione Recursos y, en la barra de navegación superior de la página, seleccione la pestaña Recursos de nube.
    2. En el panel secundario de la izquierda, seleccione Puertas de enlace Edge.
    3. Haga clic en el botón de radio junto al nombre de la puerta de enlace Edge de destino y haga clic en Servicios.
  2. Desplácese hasta Equilibrador de carga > Servidores virtuales.
  3. Haga clic en el botón Agregar (botón Crear).
  4. En la pestaña General, configure las siguientes opciones del servidor virtual:
    Opción Descripción
    Habilitar servidor virtual Haga clic aquí para habilitar el servidor virtual.
    Habilitar aceleración Haga clic aquí para habilitar la aceleración.
    Perfil de aplicación Seleccione un perfil de aplicación para asociarlo con el servidor virtual.
    Nombre Escriba un nombre para el servidor virtual.
    Descripción Escriba una descripción opcional del servidor virtual.
    Dirección IP Escriba o examine para seleccionar la dirección IP en la que el equilibrador de carga realiza la escucha.
    Protocolo Seleccione el protocolo que acepta el servidor virtual. Debe seleccionar el mismo protocolo que utiliza el Perfil de aplicación seleccionado.
    Puerto Escriba el número de puerto en el que el equilibrador de carga realiza la escucha.
    Grupo predeterminado Elija el grupo de servidores que va a utilizar el equilibrador de carga.
    Límite de conexiones (Opcional) Escriba el número máximo de conexiones simultáneas que puede procesar el servidor virtual.
    Límite de velocidad de conexión (CPS) (Opcional) Escriba el número máximo de nuevas solicitudes de conexión entrantes por segundo.
  5. (opcional) Para asociar reglas de aplicación con el servidor virtual, haga clic en la pestaña Avanzado y realice los pasos siguientes:
    1. Haga clic en el botón Agregar (botón Crear).
      Aparecen las reglas de aplicación creadas para el equilibrador de carga. Si es necesario, agregue reglas de aplicación para el equilibrador de carga. Consulte Agregar una regla de aplicación a una puerta de enlace Edge de NSX Data Center for vSphere mediante el VMware Cloud Director Service Provider Admin Portal.
  6. Para mantener los cambios, haga clic en Conservar.

Qué hacer a continuación

Cree una regla de firewall de puerta de enlace Edge para permitir el tráfico hacia el nuevo servidor virtual (la dirección IP de destino). Consulte Agregar una regla de firewall de puerta de enlace Edge de NSX Data Center for vSphere en el VMware Cloud Director Service Provider Admin Portal.