O balanceador de carga distribui solicitações de serviço de entrada entre vários servidores de forma que a distribuição de carga seja transparente para os usuários. O balanceamento de carga ajuda a obter o melhor uso dos recursos, maximizando a taxa de transferência, minimizando o tempo de resposta e evitando a sobrecarga.

O balanceador de carga do NSX oferece suporte a dois mecanismos de balanceamento de carga. O balanceador de carga de camada 4 é baseado em pacote e fornece processamento rápido de caminhos. O balanceador de carga de camada 7 é baseado em soquete e oferece suporte para estratégias avançadas de gerenciamento de tráfego e mitigação de DDOS para serviços de back-end.

O balanceamento de carga para um edge gateway do NSX Data Center for vSphere é configurado na interface externa porque esse edge gateway equilibra a carga do tráfego de entrada proveniente da rede externa. Ao configurar servidores virtuais para balanceamento de carga, especifique um dos endereços IP disponíveis no VDC da organização.

Estratégias e conceitos de balanceamento de carga

Uma estratégia de balanceamento de carga baseada em pacote é implementada na camada TCP e UDP. O balanceamento de carga baseado em pacote não interrompe a conexão nem armazena em buffer a solicitação inteira. Em vez disso, depois de manipular o pacote, ele o envia diretamente ao servidor selecionado. As sessões TCP e UDP são mantidas no balanceador de carga, para que os pacotes de uma única sessão sejam direcionados para o mesmo servidor. Você pode selecionar a opção Aceleração Habilitada tanto na configuração global quanto na configuração de servidor virtual relevante para habilitar o balanceamento de carga baseado em pacote.

Uma estratégia de balanceamento de carga baseada em soquete é implementada sobre a interface do soquete. Duas conexões são estabelecidas para uma única solicitação: uma voltada para o cliente e outra voltada para o servidor. A conexão voltada para o servidor é estabelecida após a seleção do servidor. Para a implantação baseada em soquete HTTP, a solicitação inteira é recebida antes do envio ao servidor selecionado com a manipulação L7 opcional. Para uma implementação baseada em soquetes HTTPS, as informações de autenticação são trocadas na conexão voltada para o cliente ou na conexão voltada para o servidor. O balanceamento de carga baseado em soquete é o modo padrão para servidores virtuais TCP, HTTP e HTTPS.

Os principais conceitos do balanceador de carga do NSX são o servidor virtual, o pool de servidores, o membro do pool de servidores e o monitor de serviços.

Servidor virtual
Resumo de um serviço de aplicativo, representado por uma combinação exclusiva de IP, porta, protocolo e perfil de aplicativo, como TCP ou UDP.
Pool de servidores
Grupo de servidores back-end.
Membro do pool de servidores
Representa o servidor back-end como membro em um pool.
Monitor de serviços
Define como testar o status de integridade de um servidor back-end.
Perfil de Aplicativo
Representa a configuração de TCP, UDP, persistência e certificado para um determinado aplicativo.

Visão geral da configuração

Comece definindo opções globais para o balanceador de carga. Em seguida, crie um pool de servidores que consista em membros do servidor back-end e associe um monitor de serviços a esse pool para gerenciar e compartilhar os servidores back-end de forma eficiente.

Em seguida, crie um perfil de aplicativo para definir o comportamento do aplicativo comum em um balanceador de carga, como SSL do cliente, SSL do servidor, x-forwarded-for ou persistência. Persistência envia solicitações subsequentes com características semelhantes, como IP ou o cookie de origem, que devem ser distribuídas para o mesmo membro do pool, sem executar o algoritmo de balanceamento de carga. O perfil do aplicativo pode ser reutilizado em servidores virtuais.

Em seguida, crie uma regra de aplicativo opcional para definir as configurações específicas do aplicativo para manipulação de tráfego, como corresponder uma determinada URL ou um nome de host, para que solicitações diferentes possam ser manipuladas por pools diferentes. Em seguida, você cria um monitor de serviços específico para o seu aplicativo ou pode usar um monitor de serviços existente se ele atender às suas necessidades.

Opcionalmente, você pode criar uma regra de aplicativo para oferecer suporte à funcionalidade avançada de servidores virtuais L7. Alguns casos de uso para regras de aplicativo incluem comutação de conteúdo, manipulação de cabeçalho, regras de segurança e proteção DOS.

Por último, crie um servidor virtual que conecte seu pool de servidores, o perfil de aplicativo e qualquer regra de aplicativo potencial.

Quando o servidor virtual recebe uma solicitação, o algoritmo de balanceamento de carga considera a configuração do membro do pool e o status do tempo de execução. Em seguida, o algoritmo calcula o pool apropriado para distribuir o tráfego que inclui um ou mais membros. A configuração de membros do pool inclui definições como peso, conexão máxima e status da condição. O status de tempo de execução inclui as informações atuais de status de resposta, tempo de resposta e status da verificação de integridade. Os métodos de cálculo podem ser round-robin, round-robin ponderado, menor conexão, hash de IP de origem, menores conexões ponderadas, URL, URI ou cabeçalho HTTP.

Cada pool é monitorado pelo monitor de serviços associado. Quando o balanceador de carga detecta um problema com um membro do pool, ele é marcado como DOWN. Somente o servidor no estado UP é selecionado ao escolher um membro do pool de servidores. Se o pool de servidores não estiver configurado com um monitor de serviços, todos os membros do pool serão considerados UP.

Configurar o balanceamento de carga no edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal

Os parâmetros globais de configuração do balanceador de carga incluem habilitação geral, a seleção do mecanismo de camada 4 ou camada 7 e a especificação dos tipos de eventos para registrar.

Procedimento

  1. Abra Serviços de Edge Gateway.
    1. No painel de navegação esquerdo primário, selecione Recursos e, na barra de navegação superior da página, selecione a guia Recursos de Nuvem.
    2. No painel esquerdo secundário, selecione Edge Gateways.
    3. Clique no botão de opção ao lado do nome do edge gateway de destino e clique em Serviços.
  2. Navegue até Balanceador de Carga > Configuração Global.
  3. Selecione as opções que você deseja habilitar:
    Opção Ação
    Status Habilite o balanceador de carga clicando no ícone de botão de alternância.

    Ative Aceleração Habilitada para configurar o balanceador de carga para usar o mecanismo L4 mais rápido em vez do mecanismo L7. O VIP TCP L4 é processado antes do firewall do edge gateway e, portanto, nenhuma regra de firewall para permissão é necessária.

    Observação:

    Os VIPs L7 para HTTP e HTTPS são processados após o firewall e, portanto, quando você não habilita a aceleração, deve existir uma regra de firewall de edge gateway para permitir o acesso ao VIP L7 para esses protocolos. Quando você habilita a aceleração, e o pool de servidores está em um modo não transparente, uma regra de SNAT é adicionada e, portanto, é necessário garantir que o firewall esteja habilitado no edge gateway.

    Ativar Log Habilite o registro em log para que o balanceador de carga do edge gateway colete logs de tráfego.
    Nível de Log Escolha a gravidade dos eventos a serem coletados nos logs.
  4. Clique em Salvar alterações.

O que Fazer Depois

Configure perfis de aplicativo para o balanceador de carga. Consulte Criar um perfil de aplicativo em um edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal.

Criar um perfil de aplicativo em um edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal

Um perfil de aplicativo define o comportamento do balanceador de carga para um determinado tipo de tráfego de rede. Depois de configurar um perfil, associe-o a um servidor virtual. Em seguida, o servidor virtual processará o tráfego de acordo com os valores especificados no perfil. O uso de perfis aumenta seu controle sobre o gerenciamento do tráfego de rede e torna as tarefas de gerenciamento de tráfego mais fáceis e eficientes.

Quando você cria um perfil para o tráfego HTTPS, os seguintes padrões de tráfego HTTPS são permitidos:
  • Cliente -> HTTPS-> LB (encerrar SSL)-> HTTP -> servidores
  • Cliente -> HTTPS-> LB (encerrar SSL)-> HTTPS -> servidores
  • Cliente -> HTTPS -> LB (SSL passagem)-> -> HTTPS -> servidores
  • Cliente -> HTTP-> LB -> HTTP -> servidores

Procedimento

  1. Abra Serviços de Edge Gateway.
    1. No painel de navegação esquerdo primário, selecione Recursos e, na barra de navegação superior da página, selecione a guia Recursos de Nuvem.
    2. No painel esquerdo secundário, selecione Edge Gateways.
    3. Clique no botão de opção ao lado do nome do edge gateway de destino e clique em Serviços.
  2. Navegue até Balanceador de Carga > Perfis de Aplicativo.
  3. Clique no botão Criar (botão Criar).
  4. Insira um nome para o perfil.
  5. Configure o perfil do aplicativo.
    Opção Descrição
    Tipo Selecione o tipo de protocolo usado para enviar solicitações ao servidor. A lista de parâmetros necessários depende do protocolo selecionado. Não é possível inserir os parâmetros que não são aplicáveis ao protocolo selecionado. Todos os outros parâmetros são obrigatórios.
    Permitir Passagem SSL Clique para habilitar que a autenticação SSL seja transmitida ao servidor virtual.

    Caso contrário, a autenticação SSL ocorrerá no endereço de destino.

    URL de Redirecionamento HTTP (HTTP e HTTPS) Insira a URL para o qual o tráfego que chega no endereço de destino deve ser redirecionado.
    Persistência Especifique um mecanismo de persistência para o perfil.

    A persistência rastreia e armazena dados da sessão, como o membro do pool específico que atendeu a uma solicitação de cliente. Isso garante que as solicitações do cliente sejam direcionadas ao mesmo membro do pool durante toda a vida útil de uma sessão ou durante as sessões subsequentes. As opções são:

    • IP de Origem

      A persistência de IP de origem rastreia sessões com base no endereço IP de origem. Quando um cliente solicita uma conexão com um servidor virtual que oferece suporte à persistência de afinidade de endereço de origem, o balanceador de carga verifica se esse cliente já estava anteriormente conectado e, em caso positivo, o retorna ao mesmo membro do pool.

    • MSRDP

      (Somente TCP) A persistência do protocolo MSRDP mantém sessões persistentes entre clientes Windows e servidores que estão executando o serviço de protocolo RDP da Microsoft. O cenário recomendado para ativar a persistência do MSRDP é criar um pool de balanceamento de carga composto por membros que executam o SO convidado Windows Server no qual todos os membros pertencem a um cluster do Windows e participam de um diretório de sessão do Windows.

    • ID da Sessão SSL

      A persistência do ID da Sessão SSL está disponível quando você ativa a passagem SSL. A persistência do ID da Sessão SSL garante que as conexões repetidas do mesmo cliente sejam enviadas ao mesmo servidor. A persistência do ID da Sessão permite o uso da retomada de sessão SSL, o que poupa tempo de processamento para o cliente e o servidor.

    Nome do Cookie (HTTP e HTTPS) Se você especificou Cookie como o mecanismo de persistência, insira o nome do cookie. A persistência do cookie usa um cookie para identificar de forma exclusiva a sessão na primeira vez que um cliente acessa o site. O balanceador de carga se refere a esse cookie ao conectar solicitações subsequentes na sessão, para que todas sejam direcionadas ao mesmo servidor virtual.
    Modo Selecione o modo pelo qual o cookie deve ser inserido. Os seguintes modos são compatíveis:
    • Inserir

      O edge gateway envia um cookie. Quando o servidor enviar um ou mais cookies, o cliente receberá um cookie extra (os cookies do servidor mais o cookie do edge gateway). Quando o servidor não enviar um cookie, o cliente receberá apenas o cookie do edge gateway.

    • Prefixo
      Selecione essa opção quando o cliente não oferecer suporte a mais de um cookie.
      Observação: Todos os navegadores aceitam vários cookies. Porém, você pode ter um aplicativo patenteado usando um cliente proprietário com suporte apenas para um cookie. O servidor Web envia seu cookie como de costume. O edge gateway injeta (como um prefixo) suas informações de cookie no valor do cookie do servidor. Essas informações adicionadas por cookies são removidas quando o edge gateway as envia ao servidor.
    • Sessão do Aplicativo Para essa opção, o servidor não envia um cookie. Em vez disso, ele envia as informações da sessão do usuário como uma URL. Por exemplo, http://example.com/admin/UpdateUserServlet;jsessionid=OI24B9ASD7BSSD, em que JSESSIONID são as informações da sessão do usuário usadas para a persistência. Não é possível ver a tabela de persistência da sessão do aplicativo para solução de problemas.
    Expira em (segundos) Insira um período de tempo em segundos durante o qual a persistência permanecerá em vigor. Deve ser um número inteiro positivo no intervalo de 1-86400.
    Observação: Para o balanceamento de carga L7 usando a persistência de IP de origem TCP, a entrada de persistência expirará se nenhuma nova conexão TCP for feita por um período de tempo, mesmo se as conexões existentes ainda estiverem ativas.
    Inserir cabeçalho HTTP X-Forwarded-For (HTTP e HTTPS) Selecione o cabeçalho Insert X-Forwarded-For HTTP para identificar o endereço IP de origem de um cliente que se conecta a um servidor Web por meio do balanceador de carga.
    Observação: O uso desse cabeçalho não terá suporte se você tiver ativado a passagem SSL.
    Ativar SSL no Lado do Pool (Somente HTTPS) Selecione Ativar SSL no Lado do Pool para definir o certificado, as CAs ou as CRLs usados para autenticar o balanceador de carga no lado do servidor na guia Certificados do Pool.
  6. (Somente HTTPS) Configure os certificados a serem usados com o perfil do aplicativo. Se os certificados necessários não existirem, você poderá criá-los na guia Certificados.
    Opção Descrição
    Certificados de Servidor Virtual Selecione o certificado, as CAs ou as CRLs usadas para descriptografar o tráfego HTTPS.
    Certificados de Pool Defina o certificado, as CAs ou as CRLs usadas para autenticar o balanceador de carga no lado do servidor.
    Observação: Selecione Habilitar SSL no Lado do Pool para ativar essa guia.
    Codificação Selecione os algoritmos de codificação (ou o pacote de codificação) negociados durante o handshake SSL/TLS.
    Autenticação de Cliente Especifique se a autenticação do cliente deve ser ignorada ou se é necessária.
    Observação: Quando definido como Obrigatório, o cliente deve fornecer um certificado após a solicitação ou o handshake ser cancelado.
  7. Para preservar as alterações, clique em Manter.

O que Fazer Depois

Adicione monitores de serviço para o balanceador de carga para definir verificações de integridade para diferentes tipos de tráfego de rede. Consulte Criar um monitor de serviço em um edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal.

Criar um monitor de serviço em um edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal

Você cria um monitor de serviço para definir parâmetros de verificação de integridade para um determinado tipo de tráfego de rede. Quando você associa um monitor de serviço a um pool, os membros desse pool são monitorados de acordo com os parâmetros do monitor de serviços.

Procedimento

  1. Abra Serviços de Edge Gateway.
    1. No painel de navegação esquerdo primário, selecione Recursos e, na barra de navegação superior da página, selecione a guia Recursos de Nuvem.
    2. No painel esquerdo secundário, selecione Edge Gateways.
    3. Clique no botão de opção ao lado do nome do edge gateway de destino e clique em Serviços.
  2. Navegue até Balanceador de Carga > Monitoramento de Serviços.
  3. Clique no botão Criar (botão Criar).
  4. Insira um nome para o monitor de serviços.
  5. (Opcional) Configure as seguintes opções para o monitor de serviços:
    Opção Descrição
    Intervalo Digite o intervalo no qual um servidor deve ser monitorado usando o Método especificado.
    Tempo Limite Digite o tempo máximo em segundos no qual uma resposta do servidor deve ser recebida.
    Máx. de Novas Tentativas Digite o número de vezes que o Método de monitoramento especificado deve falhar sequencialmente antes de o servidor ser declarado como inoperante.
    Tipo Selecione de que forma você deseja enviar a solicitação de verificação de integridade ao servidor: HTTP, HTTPS, TCP, ICMP ou UDP.

    Dependendo do tipo selecionado, as opções restantes na caixa de diálogo Novo Monitor de Serviço serão ativadas ou desativadas.

    Esperado (HTTP e HTTPS) Digite a cadeia de caracteres que o monitor espera corresponder na linha de status da resposta HTTP ou HTTPS (por exemplo, HTTP/1.1).
    Método (HTTP e HTTPS) Selecione o método a ser usado para detectar o status do servidor.
    URL (HTTP e HTTPS) Digite a URL a ser usada na solicitação de status do servidor.
    Observação: Ao selecionar o método POST, você deve especificar um valor para Enviar.
    Enviar (HTTP, HTTPS, UDP) Digite os dados a serem enviados.
    Receber (HTTP, HTTPS e UDP) Digite a cadeia de caracteres a ser correspondida no conteúdo da resposta.
    Observação: Quando Esperado não corresponde, o monitor não tenta corresponder o conteúdo Receber.
    Extensão (TODOS) Digite parâmetros avançados de monitor como pares de chave=valor. Por exemplo, aviso=10 indica que, quando um servidor não responde dentro de 10 segundos, seu status é definido como aviso. Todos os itens de extensão devem ser separados por um caractere de retorno de carro. Por exemplo:
    <extension>delay=2
    critical=3
    escape</extension>
  6. Para preservar as alterações, clique em Manter.

Exemplo: Extensões com suporte para cada protocolo

Tabela 1. Extensões para protocolos HTTP/HTTPS
Extensão de monitor Descrição
no-body Não aguarda um corpo de documento e interrompe a leitura após o cabeçalho HTTP/HTTPS.
Observação: Um HTTP GET ou HTTP POST ainda é enviado; não é um método HEAD.
max-age=SEGUNDOS Avisa quando um documento tem mais de um número especificado de SEGUNDOS de idade. O número pode estar no formato 10m para minutos, 10h para horas ou 10d para dias.
content-type=CADEIA Especifica um tipo de mídia de cabeçalho Content-Type em chamadas POST.
linespan Permite que regex ocupe novas linhas (deve preceder -r ou -R).
regex=CADEIA ou ereg=CADEIA Procura a regex CADEIA na página.
eregi=CADEIA Procura a regex CADEIA sem distinção entre maiúsculas e minúsculas.
invert-regex Retorna CRITICAL quando encontrado e OK quando não encontrado.
proxy-authorization=AUTH_PAIR Especifica o nome de usuário:senha em servidores proxy com autenticação básica.
useragent=CADEIA Envia a cadeia no cabeçalho HTTP como User Agent.
header=CADEIA Envia quaisquer outras marcas no cabeçalho HTTP. Use várias vezes para cabeçalhos adicionais.
onredirect=ok|warning|critical|follow|sticky|stickyport Indica como lidar com páginas redirecionadas.

sticky é como follow, mas fixo no endereço IP especificado. stickyport garante que a porta permaneça a mesma.

pagesize=INTEIRO:INTEIRO Especifica os tamanhos de página mínimo e máximo necessários, em bytes.
warning=DUPLO Especifica o tempo de resposta em segundos para gerar um status de aviso.
critical=DUPLO Especifica o tempo de resposta em segundos para gerar um status crítico.
Tabela 2. Extensões somente para o protocolo HTTPS
Extensão de monitor Descrição
sni Habilita o suporte à extensão de nome de host SSL/TLS (SNI).
certificate=INTEIRO Especifica o número mínimo de dias que um certificado deve ser válido. A porta padrão é 443. Quando essa opção é usada, a URL não é verificada.
authorization=AUTH_PAIR Especifica o nome de usuário:senha em sites com autenticação básica.
Tabela 3. Extensões para o protocolo TCP
Extensão de monitor Descrição
escape Permite o uso de \n, \r, \t ou \ em uma cadeia send ou quit. Deve vir antes de uma opção send ou quit. Por padrão, nada é adicionado a send, e \r\n é adicionado ao final de quit.
all Especifica que todas as cadeias esperadas precisam ocorrer em uma resposta do servidor. Por padrão, any é usado.
quit=CADEIA Envia uma cadeia ao servidor para encerrar a conexão de forma limpa.
refuse=ok|warn|crit Aceita recusas de TCP com estados ok, warn ou criti. Por padrão, usa o estado crit.
mismatch=ok|warn|crit Aceita incompatibilidades de cadeias esperadas com estados ok, warn ou crit. Por padrão, usa o estado warn.
jail Oculta a saída do soquete TCP.
maxbytes=INTEIRO Encerra a conexão quando mais que o número especificado de bytes são recebidos.
delay=INTEIRO Aguarda o número especificado de segundos entre o envio da cadeia e a sondagem por uma resposta.
certificate=INTEIRO[,INTEIRO] Especifica o número mínimo de dias que um certificado deve ser válido. O primeiro valor é #days para aviso e o segundo valor é crítico (se não especificado - 0).
ssl Usa SSL para a conexão.
warning=DUPLO Especifica o tempo de resposta em segundos para gerar um status de aviso.
critical=DUPLO Especifica o tempo de resposta em segundos para gerar um status crítico.

O que Fazer Depois

Adicione pools de servidores ao seu balanceador de carga. Consulte Adicionar um pool de servidores para balanceamento de carga em um edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal.

Adicionar um pool de servidores para balanceamento de carga em um edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal

Você pode adicionar um pool de servidores para gerenciar e compartilhar servidores back-end de forma flexível e eficiente. Um pool gerencia métodos de distribuição do balanceador de carga e tem um monitor de serviço anexado a ele para parâmetros de verificação de integridade.

Procedimento

  1. Abra Serviços de Edge Gateway.
    1. No painel de navegação esquerdo primário, selecione Recursos e, na barra de navegação superior da página, selecione a guia Recursos de Nuvem.
    2. No painel esquerdo secundário, selecione Edge Gateways.
    3. Clique no botão de opção ao lado do nome do edge gateway de destino e clique em Serviços.
  2. Navegue até Balanceador de Carga > Pools.
  3. Clique no botão Criar (botão Criar).
  4. Digite um nome e, opcionalmente, uma descrição para o novo pool de balanceadores de carga.
  5. Selecione um método de balanceamento para o serviço no menu suspenso Algoritmo:
    Opção Descrição
    ROUND-ROBIN Cada servidor é usado de cada vez, de acordo com o peso atribuído a ele. Esse é o algoritmo mais simples e mais justo quando o tempo de processamento do servidor permanece igualmente distribuído.
    IP-HASH Selecione um servidor com base em um hash do endereço IP de origem e de destino de cada pacote.
    LEASTCONN Distribui solicitações de clientes a vários servidores com base no número de conexões já abertas no servidor. Novas conexões são enviadas ao servidor com o menor número de conexões abertas.
    URI A parte esquerda do URI (antes do ponto de interrogação) recebe um hash e é dividida pelo peso total dos servidores em execução. O resultado designa qual servidor receberá a solicitação. Essa opção garante que um URI seja sempre direcionado ao mesmo servidor, desde que o servidor não fique desativado.
    HTTPHEADER

    O nome do cabeçalho HTTP é pesquisado em cada solicitação HTTP. O nome do cabeçalho entre parênteses não diferencia maiúsculas de minúsculas, assim como a função 'hdr()' da ACL. Se o cabeçalho estiver ausente ou não contiver nenhum valor, o algoritmo Round Robin será aplicado. O parâmetro de algoritmo HTTP HEADER tem uma opção headerName=<name>. Por exemplo, você pode usar host como parâmetro do algoritmo HTTP HEADER.

    URL

    O parâmetro de URL especificado no argumento é pesquisado na cadeia de caracteres de consulta de cada solicitação HTTP GET. Se o parâmetro for seguido por um sinal de igual = e um valor, o valor receberá um hash e será dividido pelo peso total dos servidores em execução. O resultado designa qual servidor recebe a solicitação. Esse processo é usado para rastrear identificadores de usuário em solicitações e garantir que uma mesma ID de usuário seja sempre enviada para o mesmo servidor, desde que nenhum servidor seja ativado ou desativado. Se nenhum valor ou parâmetro for encontrado, será aplicado um algoritmo Round Robin. O parâmetro do algoritmo URL tem uma opção urlParam=<url>.

  6. Adicione membros ao pool.
    1. Clique no botão Adicionar (botão Criar).
    2. Insira o nome do membro do pool.
    3. Insira o endereço IP do membro do pool.
    4. Insira a porta na qual o membro deve receber o tráfego do balanceador de carga.
    5. Insira a porta do monitor na qual o membro deve receber solicitações do monitor de integridade.
    6. Na caixa de texto Peso, digite a proporção de tráfego que esse membro deve manipular. Deve ser um número inteiro no intervalo de 1 a 256.
    7. (Opcional) Na caixa de texto Máx. de Conexões, digite o número máximo de conexões simultâneas que o membro pode manipular.
      Quando o número de solicitações de entrada excede o máximo, as solicitações são enfileiradas e o balanceador de carga aguarda a liberação de uma conexão.
    8. (Opcional) Na caixa de texto Mín. de Conexões, digite o número mínimo de conexões simultâneas que um membro deve sempre aceitar.
    9. Clique em Manter para adicionar o novo membro ao pool.
      A operação pode levar um minuto para ser concluída.
  7. (Opcional) Para tornar os endereços IP de cliente visíveis para os servidores de back-end, selecione Transparente.
    Quando Transparente não está selecionado (o valor padrão), os servidores de back-end veem o endereço IP da origem do tráfego como o endereço IP interno do balanceador de carga.

    Quando Transparente é selecionado, o endereço IP de origem é o endereço IP real do cliente, e o edge gateway deve ser definido como o gateway padrão para garantir que os pacotes de retorno passem pelo edge gateway.

  8. Para preservar as alterações, clique em Manter.

O que Fazer Depois

Adicione servidores virtuais ao seu balanceador de carga. Um servidor virtual tem um endereço IP público e atende a todas as solicitações de cliente recebidas. Consulte Adicionar um servidor virtual a um edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal.

Adicionar uma regra de aplicativo em um edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal

Você pode gravar uma regra de aplicativo para manipular e gerenciar diretamente o tráfego de aplicativos IP.

Procedimento

  1. Abra Serviços de Edge Gateway.
    1. No painel de navegação esquerdo primário, selecione Recursos e, na barra de navegação superior da página, selecione a guia Recursos de Nuvem.
    2. No painel esquerdo secundário, selecione Edge Gateways.
    3. Clique no botão de opção ao lado do nome do edge gateway de destino e clique em Serviços.
  2. Acesse Balanceador de Carga > Regras do Aplicativo.
  3. Clique no botão Adicionar (botão Criar).
  4. Insira o nome da regra de aplicativo.
  5. Insira o script da regra de aplicativo.
    Para obter informações sobre a sintaxe da regra de aplicativo, consulte http://cbonte.github.io/haproxy-dconv/2.2/configuration.html.
  6. Para preservar as alterações, clique em Manter.

O que Fazer Depois

Associe a nova regra de aplicativo a um servidor virtual adicionado ao balanceador de carga. Consulte Adicionar um servidor virtual a um edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal.

Adicionar um servidor virtual a um edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal

Adicione uma interface de uplink ou interna do edge gateway do NSX Data Center for vSphere como um servidor virtual no VMware Cloud Director. Um servidor virtual tem um endereço IP público e atende a todas as solicitações de cliente recebidas.

Por padrão, o balanceador de carga fecha a conexão TCP do servidor após cada solicitação de cliente.

Procedimento

  1. Abra Serviços de Edge Gateway.
    1. No painel de navegação esquerdo primário, selecione Recursos e, na barra de navegação superior da página, selecione a guia Recursos de Nuvem.
    2. No painel esquerdo secundário, selecione Edge Gateways.
    3. Clique no botão de opção ao lado do nome do edge gateway de destino e clique em Serviços.
  2. Acesse Balanceador de Carga > Servidores Virtuais.
  3. Clique no botão Adicionar (botão Criar).
  4. Na guia Geral, configure as seguintes opções para o servidor virtual:
    Opção Descrição
    Ativar Servidor Virtual Clique para ativar o servidor virtual.
    Ativar Aceleração Clique para ativar a aceleração.
    Perfil de Aplicativo Selecione um perfil de aplicativo a ser associado ao servidor virtual.
    Nome Digite um nome para o servidor virtual.
    Descrição Digite uma descrição opcional para o servidor virtual.
    Endereço IP Digite ou procure para selecionar o endereço IP que o balanceador de carga detecta.
    Protocolo Selecione o protocolo que o servidor virtual aceita. Você deve selecionar o mesmo protocolo usado pelo Perfil de Aplicativo selecionado.
    Porta Digite o número da porta que o balanceador de carga escuta.
    Pool Padrão Escolha o pool de servidores que o balanceador de carga vai usar.
    Limite de Conexão (Opcional) Digite o máximo de conexões simultâneas que o servidor virtual pode processar.
    Limite de Taxa de Conexão (CPS) (Opcional) Digite o número máximo de novas solicitações de conexão recebidas por segundo.
  5. (Opcional) Para associar regras de aplicativo ao servidor virtual, clique na guia Avançado e siga estas etapas:
    1. Clique no botão Adicionar (botão Criar).
      As regras de aplicativo criadas para o balanceador de carga são exibidas. Se necessário, adicione regras de aplicativo para o balanceador de carga. Consulte Adicionar uma regra de aplicativo em um edge gateway do NSX Data Center for vSphere usando o VMware Cloud Director Service Provider Admin Portal.
  6. Para preservar as alterações, clique em Manter.

O que Fazer Depois

Crie uma regra de firewall de edge gateway para permitir o tráfego para o novo servidor virtual (o endereço IP de destino). Consulte Adicionar uma regra de firewall do Edge Gateway do NSX Data Center for vSphere no VMware Cloud Director Service Provider Admin Portal