Il bilanciamento del carico distribuisce le richieste di servizio in entrata tra più server in modo da rendere la distribuzione del carico trasparente per gli utenti. Il bilanciamento del carico consente di ottimizzare l'utilizzo delle risorse, massimizzando la velocità effettiva, riducendo al minimo il tempo di risposta ed evitando il sovraccarico.

Il bilanciamento del carico NSX supporta due motori di bilanciamento del carico. Il bilanciamento del carico di livello 4 è basato su pacchetti e fornisce un'elaborazione con percorso rapido. Il bilanciamento del carico di livello 7 è basato su socket e supporta strategie di gestione del traffico avanzate e attenuazione DDOS per i servizi back-end.

Il bilanciamento del carico per un gateway edge NSX Data Center for vSphere viene configurato nell'interfaccia esterna perché il gateway edge esegue il bilanciamento del carico del traffico in entrata dalla rete esterna. Quando si configurano server virtuali per il bilanciamento del carico, specificare uno degli indirizzi IP disponibili presenti nel VDC dell'organizzazione.

Concetti e strategie del bilanciamento del carico

Una strategia di bilanciamento del carico basato su pacchetti viene implementata a livello di TCP e UDP. Il bilanciamento del carico basato su pacchetti non interrompe la connessione e non invia l'intera richiesta al buffer. Dopo la modifica del pacchetto lo invia invece direttamente al server selezionato. Le sessioni TCP e UDP vengono gestite nel bilanciamento del carico in modo che i pacchetti di una singola sessione vengano indirizzati allo stesso server. È possibile selezionare Accelerazione abilitata sia nella configurazione globale sia nella configurazione del server virtuale appropriato per abilitare il bilanciamento del carico basato su pacchetti.

Una strategia di bilanciamento del carico basato su socket viene implementata oltre all'interfaccia del socket. Vengono stabilite due connessioni per una singola richiesta, ovvero una connessione verso il client e una verso il server. La connessione verso il server viene stabilita dopo la selezione del server. Per l'implementazione basata su socket HTTP, l'intera richiesta viene ricevuta prima di inviarla al server selezionato con modifica L7 facoltativa. Per l'implementazione basata su socket HTTPS, le informazioni di autenticazione vengono scambiate nella connessione verso il client o nella connessione verso il server. Il bilanciamento del carico basato su socket è la modalità predefinita per i server virtuali TCP, HTTP e HTTPS.

I concetti chiave del bilanciamento del carico NSX sono server virtuale, pool di server, membro del pool di server e monitor del servizio.

Server virtuale
Astrazione di un servizio di applicazioni, rappresentata da una combinazione univoca di IP, porta, protocollo e profilo di applicazione come TCP o UDP.
Pool di server
Gruppo di server back-end.
Membro del pool di server
Rappresenta il server back-end come membro di un pool.
Monitor del servizio
Definisce la modalità di verifica dello stato di integrità di un server back-end.
Profilo applicazione
Rappresenta TCP, UDP, persistenza e configurazione del certificato per una determinata applicazione.

Panoramica della configurazione

Si inizia impostando opzioni globali per il bilanciamento del carico. Si crea quindi un pool di server contenente membri del server back-end e si associa un monitor del servizio al pool per gestire e condividere i server back-end in modo efficiente.

Si crea quindi un profilo di applicazione per definire il comportamento comune dell'applicazione in un bilanciamento del carico, ad esempio SSL client, SSL server, X-Forwarded-For (XFF) o persistenza. La persistenza invia richieste successive con caratteristiche simili, ad esempio un indirizzo IP di origine o un cookie deve essere distribuito allo stesso membro del pool, senza eseguire l'algoritmo di bilanciamento del carico. Il profilo dell'applicazione può essere riutilizzato nei server virtuali.

Si crea quindi una regola dell'applicazione facoltativa per configurare impostazioni specifiche dell'applicazione per la gestione del traffico, ad esempio la corrispondenza di un determinato URL o nome host, in modo che richieste diverse possano essere gestite da pool diversi. Successivamente si crea un monitor del servizio specifico dell'applicazione oppure è possibile utilizzare un monitor del servizio esistente se soddisfa le proprie esigenze.

Facoltativamente, è possibile creare una regola di applicazione per supportare le funzionalità avanzate dei server virtuali L7. Alcuni casi d'uso per le regole delle applicazioni includono passaggio di contenuti, modifica dell'intestazione, regole di sicurezza e protezione DOS.

Infine, si crea un server virtuale che connette il pool di server, il profilo dell'applicazione e tutte le eventuali regole delle applicazioni.

Quando il server virtuale riceve una richiesta, l'algoritmo di bilanciamento del carico valuta la configurazione del membro del pool e lo stato di runtime. L'algoritmo calcola quindi il pool appropriato per distribuire il traffico che include uno o più membri. La configurazione del membro del pool include impostazioni quali il volume, il numero massimo di connessioni e lo stato della condizione. Lo stato di runtime include informazioni sulle connessioni correnti, sul tempo di risposta e sullo stato di controllo di integrità. I metodi di calcolo possono essere Round Robin, Weighted Round Robin, Least Connection, Source IP Hash, Weighted Least Connection, URL, URI o intestazione HTTP.

Ogni pool viene monitorato dal monitor del servizio associato. Quando il bilanciamento del carico rileva un problema relativo a un membro del pool, viene contrassegnato come Non raggiungibile. Quando si sceglie un membro del pool dal pool di server, viene selezionato solo il server raggiungibile. Se il pool di server non è configurato con un monitor del servizio, tutti i membri del pool sono considerati raggiungibili.

Configurazione del bilanciamento del carico nel gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal

I parametri della configurazione globale del bilanciamento del carico includono l'abilitazione complessiva, la selezione del motore di livello 4 o livello 7 e l'indicazione dei tipi di evento da registrare.

Procedura

  1. Aprire i servizi gateway edge.
    1. Nel riquadro di navigazione principale a sinistra, selezionare Risorse e nella barra di navigazione superiore della pagina, selezionare la scheda Risorse cloud.
    2. Nel riquadro secondario a sinistra, selezionare Gateway edge.
    3. Fare clic sul pulsante di opzione accanto al nome del gateway edge di destinazione e fare clic su Servizi.
  2. Passare a Bilanciamento del carico > Configurazione globale.
  3. Selezionare le opzioni che si desidera abilitare:
    Opzione Azione
    Stato Abilitare il bilanciamento del carico facendo clic sull'icona di attivazione/disattivazione.

    Abilitare Accelerazione abilitata per configurare il bilanciamento del carico in modo che utilizzi il motore L4 più veloce anziché il motore L7. Poiché l'indirizzo VIP TCP L4 viene elaborato prima del firewall del gateway edge, non è necessaria alcuna regola per consentire il firewall.

    Nota:

    Gli indirizzi VIP L7 per HTTP e HTTPS vengono elaborati dopo il firewall. Se non si abilita l'accelerazione, è pertanto necessaria una regola del firewall del gateway edge per consentire l'accesso all'indirizzo VIP L7 per tali protocolli. Se si abilita l'accelerazione e il pool di server è in modalità non trasparente, viene aggiunta una regola SNAT. È pertanto necessario assicurarsi che il firewall sia abilitato nel gateway edge.

    Abilita registrazione Abilitare la registrazione in modo che il bilanciamento del carico del gateway edge raccolga i registri del traffico.
    Livello di registrazione Scegliere il livello di gravità degli eventi da raccogliere nei registri.
  4. Fare clic su Salva modifiche.

Operazioni successive

Configurare i profili di applicazione per il bilanciamento del carico. Vedere Creazione di un profilo di applicazione in un gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal.

Creazione di un profilo di applicazione in un gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal

Un profilo di applicazione consente di definire il comportamento del bilanciamento del carico per un particolare tipo di traffico di rete. Dopo aver configurato un profilo, è possibile associarlo a un server virtuale. Il server virtuale elabora quindi il traffico in base ai valori specificati nel profilo. L'utilizzo di profili consente di ottimizzare il controllo della gestione del traffico di rete, rendendo le attività di gestione del traffico più semplici ed efficienti.

Quando si crea un profilo per il traffico HTTPS, sono consentiti i seguenti modelli di traffico HTTPS:
  • Client -> HTTPS -> LB (termina SSL) -> HTTP -> server
  • Client -> HTTPS -> LB (termina SSL) -> HTTPS -> server
  • Client -> HTTPS-> LB (passthrough SSL) -> HTTPS -> server
  • Client -> HTTP-> LB -> HTTP -> server

Procedura

  1. Aprire i servizi gateway edge.
    1. Nel riquadro di navigazione principale a sinistra, selezionare Risorse e nella barra di navigazione superiore della pagina, selezionare la scheda Risorse cloud.
    2. Nel riquadro secondario a sinistra, selezionare Gateway edge.
    3. Fare clic sul pulsante di opzione accanto al nome del gateway edge di destinazione e fare clic su Servizi.
  2. Passare a Bilanciamento del carico > Profili di applicazione.
  3. Fare clic sul pulsante Crea (Pulsante Crea).
  4. Immettere un nome per il profilo.
  5. Configurare il profilo di applicazione.
    Opzione Descrizione
    Tipo Selezionare il tipo di protocollo utilizzato per inviare le richieste al server. L'elenco dei parametri obbligatori dipende dal protocollo selezionato. Non è possibile immettere parametri non applicabili al protocollo selezionato. Tutti gli altri parametri sono obbligatori.
    Abilita passthrough SSL Fare clic su questa opzione per abilitare il passthrough dell'autenticazione SSL nel server virtuale.

    In case contrario, l'autenticazione SSL viene eseguita all'indirizzo di destinazione.

    URL di reindirizzamento HTTP (HTTP e HTTPS) Immettere l'URL a cui deve essere reindirizzato il traffico che arriva all'indirizzo di destinazione.
    Salvataggio permanente Specificare un meccanismo di salvataggio permanente per il profilo.

    Il salvataggio permanente tiene traccia e archivia i dati della sessione, ad esempio il membro del pool specifico che ha gestito la richiesta di un client. Ciò garantisce che le richieste del client vengano indirizzate allo stesso membro del pool durante l'intera durata di una sessione o durante le sessioni successive. Le opzioni sono:

    • IP origine

      Il salvataggio permanente di IP origine tiene traccia delle sessioni in base all'indirizzo IP di origine. Quando un client richiede una connessione a un server virtuale che supporta il salvataggio permanente dell'affinità dell'indirizzo di origine, il bilanciamento del carico verifica se tale client si è connesso in precedenza. In questo caso, reindirizza il client allo stesso membro del pool.

    • MSRDP

      (Solo TCP) Il salvataggio permanente di Microsoft Remote Desktop Protocol (MSRDP) garantisce il salvataggio permanente delle sessioni tra client e server Windows in cui viene eseguito il servizio Microsoft Remote Desktop Protocol (RDP). È consigliabile abilitare il salvataggio permanente di MSRDP quando si crea un pool di bilanciamento del carico composto da membri che eseguono un sistema operativo guest Windows Server, in cui tutti i membri appartengono a un cluster Windows e partecipano a una directory di sessione Windows.

    • ID sessione SSL

      La persistenza di ID sessione SSL è disponibile quando si abilita il passthrough SSL. La persistenza di ID sessione SSL garantisce che le connessioni ripetute dello stesso client vengano inviate allo stesso server. La persistenza dell'ID sessione consente l'uso della ripresa della sessione SSL, che permette di risparmiare tempo di elaborazione sia per il client sia per il server.

    Nome cookie (HTTP e HTTPS) Se si specifica Cookie come meccanismo di persistenza, immettere il nome del cookie. Il salvataggio permanente di tipo Cookie utilizza un cookie per identificare in modo univoco la sessione la prima volta che un client accede al sito. Il bilanciamento del carico fa riferimento a questo cookie durante la connessione delle richieste successive nella sessione, in modo da indirizzarle tutte allo stesso server virtuale.
    Modalità Selezionare la modalità di inserimento del cookie. Sono supportate le seguenti modalità:
    • Inserisci

      Il gateway edge invia un cookie. Se il server invia uno o più cookie, il client riceve un cookie supplementare (i cookie del server più il cookie del gateway edge). Se il server non invia alcun cookie, il client riceverà soltanto il cookie del gateway edge.

    • Prefisso
      Selezionare questa opzione se il client non supporta più di un cookie.
      Nota: Tutti i browser accettano più cookie. Tuttavia, potrebbe essere presente un'applicazione proprietaria basata su un client proprietario che supporta un solo cookie. Il server Web invia il proprio cookie normalmente. Il gateway edge inserisce (come prefisso) le informazioni relative al proprio cookie nel valore del cookie del server. Queste informazioni aggiuntive sul cookie vengono rimosse quando il gateway edge le invia al server.
    • Sessione app Per questa opzione, il server non invia un cookie. Invia invece le informazioni della sessione utente come URL. Ad esempio, http://example.com/admin/UpdateUserServlet;jsessionid=OI24B9ASD7BSSD, in cui jsessionid corrisponde all'informazione della sessione utente e viene utilizzato per la persistenza. Non è possibile consultare la tabella di salvataggio permanente di Sessione app per la risoluzione dei problemi.
    Scade tra (secondi) Immettere un intervallo di tempo in secondi durante il quale il salvataggio permanente rimane attivo. Il valore deve essere un numero intero positivo compreso nell'intervallo da 1 a 86400.
    Nota: Per il bilanciamento del carico L7 con salvataggio permanente dell'indirizzo IP di origine TCP, la voce salvataggio permanente scade se non vengono stabilite nuove connessioni TCP per un determinato periodo di tempo, anche se le connessioni esistenti sono ancora attive.
    Inserisci intestazione X-Forwarded-For HTTP (HTTP e HTTPS) Selezionare Inserisci intestazione X-Forwarded-For HTTP per identificare l'indirizzo IP di origine di un client che si connette a un server Web tramite il bilanciamento del carico.
    Nota: L'utilizzo di questa intestazione non è supportato se è stato abilitato il passthrough SSL.
    Abilita SSL lato pool (Solo HTTPS) Selezionare Abilita SSL lato pool per definire il certificato, le autorità di certificazione o i CRL utilizzati per l'autenticazione del bilanciamento del carico sul lato server nella scheda Certificati pool.
  6. (Solo HTTPS) Configurare i certificati da utilizzare con il profilo di applicazione. Se i certificati necessari non esistono, è possibile crearli nella scheda Certificati.
    Opzione Descrizione
    Certificati server virtuale Selezionare il certificato, le autorità di certificazione o i CRL utilizzati per decrittografare il traffico HTTPS.
    Certificati pool Definire il certificato, le autorità di certificazione o i CRL utilizzati per l'autenticazione del bilanciamento del carico sul lato server.
    Nota: Selezionare Abilita SSL lato pool per abilitare questa scheda.
    Crittografia Selezionare gli algoritmi di crittografia (o suite di crittografia) negoziati durante l'handshake SSL/TLS.
    Autenticazione client Specificare se l'autenticazione client deve essere ignorata o obbligatoria.
    Nota: Se viene impostata su Obbligatoria, il client deve fornire un certificato dopo la richiesta. In caso contrario, l'handshake viene annullato.
  7. Per salvare le modifiche, fare clic su Mantieni.

Operazioni successive

Aggiungere monitor del servizio per il bilanciamento del carico per definire i controlli di integrità per i diversi tipi di traffico di rete. Vedere Creazione di un monitor del servizio in un gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal.

Creazione di un monitor del servizio in un gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal

È possibile creare un monitor del servizio per definire i parametri di controllo dell'integrità di un particolare tipo di traffico di rete. Quando si associa un monitor del servizio a un pool, i membri del pool vengono monitorati in base ai parametri di tale monitor.

Procedura

  1. Aprire i servizi gateway edge.
    1. Nel riquadro di navigazione principale a sinistra, selezionare Risorse e nella barra di navigazione superiore della pagina, selezionare la scheda Risorse cloud.
    2. Nel riquadro secondario a sinistra, selezionare Gateway edge.
    3. Fare clic sul pulsante di opzione accanto al nome del gateway edge di destinazione e fare clic su Servizi.
  2. Passare a Bilanciamento del carico > Monitoraggio del servizio.
  3. Fare clic sul pulsante Crea (Pulsante Crea).
  4. Immettere un nome per il monitor del servizio.
  5. (Facoltativo) Configurare le opzioni seguenti per il monitor del servizio:
    Opzione Descrizione
    Intervallo Immettere l'intervallo in cui un server deve essere monitorato utilizzando il Metodo specificato.
    Timeout Immettere il tempo massimo in secondi entro il quale si deve ricevere una risposta dal server.
    Tentativi massimi Immettere il numero massimo di tentativi non riusciti consecutivi del Metodo di monitoraggio specificato dopo i quali il server viene dichiarato inattivo.
    Tipo Selezionare la modalità con cui si desidera inviare la richiesta di controllo dell'integrità al server, ovvero HTTP, HTTPS, TCP, ICMP o UDP.

    A seconda del tipo selezionato, le opzioni rimanenti nella finestra di dialogo Nuovo monitor del servizio sono attivate o disattivate.

    Previsto (HTTP e HTTPS) Immettere la stringa che il monitor prevede di trovare nella riga dello stato della risposta HTTP o HTTPS (ad esempio, HTTP/1.1).
    Metodo (HTTP e HTTPS) Selezionare il metodo da utilizzare per rilevare lo stato del server.
    URL (HTTP e HTTPS) Immettere l'URL da utilizzare nella richiesta dello stato del server.
    Nota: Se si seleziona il metodo POST, è necessario specificare un valore per Invia.
    Invia (HTTP, HTTPS, UDP) Immettere i dati da inviare.
    Ricevi (HTTP, HTTPS e UDP) Immettere la stringa che deve essere presente nel contenuto della risposta.
    Nota: Se non viene trovata una corrispondenza con Previsto, il monitor non tenta di trovare la corrispondenza con il contenuto di Ricevi.
    Estensione (TUTTO) Immettere i parametri avanzati del monitor, ad esempio coppie chiave = valore. Ad esempio, avviso=10 indica che se un server non risponde entro 10 secondi, il relativo stato viene impostato su avviso. Tutte le voci dell'estensione devono essere separate da un carattere di ritorno a capo. Ad esempio:
    <extension>delay=2
    critical=3
    escape</extension>
  6. Per salvare le modifiche, fare clic su Mantieni.

Esempio: Estensioni supportate per ciascun protocollo

Tabella 1. Estensioni per i protocolli HTTP/HTTPS
Estensione del monitor Descrizione
no-body Non attende il corpo di un documento e arresta la lettura dopo l'intestazione HTTP/HTTPS.
Nota: Una richiesta HTTP GET o HTTP POST viene comunque inviata. Non si tratta di un metodo HEAD.
max-age=SECONDS Avvisa quando un documento è più vecchio di SECONDS. Il numero può essere espresso nel formato 10m per i minuti, 10h per le ore o 10d per i giorni.
content-type=STRING Specifica un tipo di multimedia con intestazione Content-Type nelle chiamate POST.
linespan Consente alla stringa regex di estendersi su nuove righe (deve precedere -r o -R).
regex=STRING o ereg=STRING Cerca il valore STRING regex nella pagina.
eregi=STRING Cerca nella pagina il valore STRING regex senza distinzione tra maiuscole e minuscole.
invert-regex Restituisce CRITICAL quando trova una corrispondenza e OK quando non la trova.
proxy-authorization=AUTH_PAIR Specifica nome utente:password nei server proxy con autenticazione di base.
useragent=STRING Invia la stringa nell'intestazione HTTP come User Agent.
header=STRING Invia tutti gli altri tag nell'intestazione HTTP. Utilizzarla più volte per ulteriori intestazioni.
onredirect=ok|warning|critical|follow|sticky|stickyport Indica come gestire le pagine reindirizzate.

sticky è simile a follow ma corrisponde all'indirizzo IP specificato. stickyport garantisce che la porta rimanga invariata.

pagesize=INTEGER:INTEGER Specifica le dimensioni minima e massima della pagina espresse in byte.
warning=DOUBLE Specifica il tempo di risposta in secondi trascorso il quale viene restituito uno stato di avviso.
critical=DOUBLE Specifica il tempo di risposta in secondi trascorso il quale viene restituito uno stato critico.
Tabella 2. Estensioni solo per il protocollo HTTPS
Estensione del monitor Descrizione
sni Abilita il supporto dell'estensione del nome host SSL/TLS (SNI).
certificate=INTEGER Specifica il numero minimo di giorni per cui un certificato deve essere valido. La porta predefinita è la 443. Quando viene utilizzata questa opzione, l'URL non viene controllato.
authorization=AUTH_PAIR Specifica nome utente:password nei siti con autenticazione di base.
Tabella 3. Estensioni per il protocollo TCP
Estensione del monitor Descrizione
escape Consente l'utilizzo di \n, \r, \t o \ in una stringa send o quit. Deve precedere un'opzione send o quit. Per impostazione predefinita, non viene aggiunto alcun elemento alla stringa send e \r\n viene aggiunto alla fine della stringa quit.
all Specifica tutte le stringhe previste che devono trovarsi in una risposta del server. Per impostazione predefinita, viene utilizzato any.
quit=STRING Invia una stringa al server per chiudere correttamente la connessione.
refuse=ok|warn|crit Accetta i rifiuti TCP con stato ok, warn o criti. Per impostazione predefinita, utilizza lo stato crit.
mismatch=ok|warn|crit Accetta mancate corrispondenze della stringa prevista con stato ok, warno crit. Per impostazione predefinita, utilizza lo stato warn.
jail Nasconde l'output del socket TCP.
maxbytes=INTEGER Chiude la connessione quando viene ricevuto un numero di byte superiore a quello specificato.
delay=INTEGER Attende il numero di secondi specificato tra l'invio della stringa e il polling di una risposta.
certificate=INTEGER[,INTEGER] Specifica il numero minimo di giorni per cui un certificato deve essere valido. Il primo valore è #days per avviso e il secondo valore è critico (se non specificato - 0).
ssl Utilizza SSL per la connessione.
warning=DOUBLE Specifica il tempo di risposta in secondi trascorso il quale viene restituito uno stato di avviso.
critical=DOUBLE Specifica il tempo di risposta in secondi trascorso il quale viene restituito uno stato critico.

Operazioni successive

Aggiungere pool di server per il bilanciamento del carico. Vedere Aggiunta di un pool di server per il bilanciamento del carico in un gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal.

Aggiunta di un pool di server per il bilanciamento del carico in un gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal

È possibile aggiungere un pool di server per gestire e condividere server backend in modo flessibile ed efficiente. Un pool gestisce i metodi di distribuzione del bilanciamento del carico e dispone di un monitor del servizio collegato per i parametri del controllo di integrità.

Procedura

  1. Aprire i servizi gateway edge.
    1. Nel riquadro di navigazione principale a sinistra, selezionare Risorse e nella barra di navigazione superiore della pagina, selezionare la scheda Risorse cloud.
    2. Nel riquadro secondario a sinistra, selezionare Gateway edge.
    3. Fare clic sul pulsante di opzione accanto al nome del gateway edge di destinazione e fare clic su Servizi.
  2. Passare a Bilanciamento del carico > Pool.
  3. Fare clic sul pulsante Crea (Pulsante Crea).
  4. Digitare un nome e, facoltativamente, una descrizione per il pool del bilanciamento del carico.
  5. Selezionare un metodo di bilanciamento per il servizio dal menu a discesa Algoritmo:
    Opzione Descrizione
    ROUND ROBIN Ciascun server viene utilizzato in sequenza, in base al volume assegnato. Quando il tempo di elaborazione del server è distribuito in modo uniforme, questo è l'algoritmo che garantisce le prestazioni migliori.
    HASH IP Seleziona un server in base all'hash dell'indirizzo IP di origine e destinazione di ciascun pacchetto.
    LEASTCONN Distribuisce le richieste dei client a più server, in base al numero di connessioni già aperte sul server. Le nuove connessioni vengono inviate al server con il minor numero di connessioni aperte.
    URI La parte sinistra dell'URI (prima del punto interrogativo) è elaborata e divisa per il volume totale dei server in esecuzione. Il risultato stabilisce quale server riceve la richiesta. Questa opzione garantisce che l'URI punti sempre allo stesso server, sempre che il server non sia disattivato.
    HTTPHEADER

    In ciascuna richiesta HTTP viene cercato il nome dell'intestazione HTTP. Nel nome dell'intestazione tra parentesi non viene fatta distinzione tra maiuscole e minuscole, in modo simile alla funzione ACL 'hdr()'. Se l'intestazione è assente o non contiene alcun valore, viene applicato l'algoritmo round robin. Il parametro dell'algoritmo HTTP HEADER ha un'unica opzione headerName=<name>. Ad esempio, è possibile utilizzare host come parametro dell'algoritmo HTTP HEADER.

    URL

    Nella stringa di query di ciascuna richiesta HTTP GET viene cercato il parametro dell'URL specificato nell'argomento. Se il parametro è seguito da un segno di uguale (=) e un valore, il valore viene elaborato e diviso per il peso totale dei server in esecuzione. Il risultato stabilisce quale server riceve la richiesta. Questo processo viene utilizzato per tenere traccia degli identificatori utente nelle richieste e assicurare che lo stesso ID utente venga sempre inviato allo stesso server purché nessun server sia attivato o disattivato. Se non viene trovato alcun valore o parametro, viene applicato un algoritmo round robin. Il parametro dell'algoritmo dell'URL ha un'unica opzione urlParam=<url>.

  6. Aggiungere membri al pool.
    1. Fare clic sul pulsante Aggiungi (Pulsante Aggiungi).
    2. Immettere il nome per il membro del pool.
    3. Immettere l'indirizzo IP del membro del pool.
    4. Inserire la porta in cui il membro riceverà il traffico dal bilanciamento del carico.
    5. Inserire la porta di monitoraggio in cui il membro riceverà le richieste di monitoraggio dell'integrità.
    6. Nella casella di testo Peso, specificare la percentuale di traffico che questo membro dovrà gestire. Deve essere un numero intero compreso nell'intervallo da 1 a 256.
    7. (Facoltativo) Nella casella di testo Connessioni massime, digitare il numero massimo di connessioni simultanee che il membro è in grado di gestire.
      Quando il numero di richieste in entrata supera il valore massimo, le richieste vengono messe in coda e il bilanciamento del carico attende che venga rilasciata una connessione.
    8. (Facoltativo) Nella casella di testo Connessioni minime, digitare il numero minimo di connessioni simultanee che un membro deve sempre accettare.
    9. Fare clic su Mantieni per aggiungere il nuovo membro al pool.
      Il completamento dell'operazione può richiedere un minuto.
  7. (Facoltativo) Per rendere gli indirizzi IP client visibili per i server back-end, selezionare Trasparente.
    Quando l'opzione Trasparente non è selezionata (il valore predefinito), i server back-end interpretano l'indirizzo IP dell'origine del traffico come indirizzo IP interno del bilanciamento del carico.

    Quando l'opzione Trasparente è selezionata, l'indirizzo IP di origine è l'indirizzo IP effettivo del client e il gateway edge deve essere impostato come gateway predefinito per garantire che i pacchetti restituiti passino attraverso il gateway edge.

  8. Per salvare le modifiche, fare clic su Mantieni.

Operazioni successive

Aggiungere server virtuali per il bilanciamento del carico. Un server virtuale dispone di un indirizzo IP pubblico e gestisce tutte le richieste client in entrata. Vedere Aggiunta di un server virtuale a un gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal.

Aggiunta di una regola di applicazione in un gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal

È possibile scrivere una regola di applicazione per modificare e gestire direttamente il traffico dell'applicazione IP.

Procedura

  1. Aprire i servizi gateway edge.
    1. Nel riquadro di navigazione principale a sinistra, selezionare Risorse e nella barra di navigazione superiore della pagina, selezionare la scheda Risorse cloud.
    2. Nel riquadro secondario a sinistra, selezionare Gateway edge.
    3. Fare clic sul pulsante di opzione accanto al nome del gateway edge di destinazione e fare clic su Servizi.
  2. Passare a Bilanciamento del carico > Regole di applicazione.
  3. Fare clic sul pulsante Aggiungi (Pulsante Aggiungi).
  4. Immettere il nome della regola di applicazione.
  5. Immettere lo script della regola di applicazione.
    Per informazioni sulla sintassi della regola di applicazione, vedere http://cbonte.github.io/haproxy-dconv/2.2/configuration.html.
  6. Per salvare le modifiche, fare clic su Mantieni.

Operazioni successive

Associare la nuova regola di applicazione a un server virtuale aggiunto per il bilanciamento del carico. Vedere Aggiunta di un server virtuale a un gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal.

Aggiunta di un server virtuale a un gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal

Aggiungere un'interfaccia uplink o interna del gateway edge di NSX Data Center for vSphere come server virtuale in VMware Cloud Director. Un server virtuale dispone di un indirizzo IP pubblico e gestisce tutte le richieste client in entrata.

Per impostazione predefinita, il bilanciamento del carico chiude la connessione TCP del server dopo ciascuna richiesta del client.

Procedura

  1. Aprire i servizi gateway edge.
    1. Nel riquadro di navigazione principale a sinistra, selezionare Risorse e nella barra di navigazione superiore della pagina, selezionare la scheda Risorse cloud.
    2. Nel riquadro secondario a sinistra, selezionare Gateway edge.
    3. Fare clic sul pulsante di opzione accanto al nome del gateway edge di destinazione e fare clic su Servizi.
  2. Passare a Bilanciamento del carico > Server virtuali.
  3. Fare clic sul pulsante Aggiungi (Pulsante Aggiungi).
  4. Nella scheda Generale, configurare le seguenti opzioni per il server virtuale:
    Opzione Descrizione
    Abilita server virtuale Fare clic per abilitare il server virtuale.
    Abilita accelerazione Fare clic per abilitare l'accelerazione.
    Profilo applicazione Selezionare un profilo dell'applicazione da associare al server virtuale.
    Nome Digitare un nome per il server virtuale.
    Descrizione Digitare una descrizione facoltativa per il server virtuale.
    Indirizzo IP Digitare o sfogliare per selezionare l'indirizzo IP su cui è in ascolto il bilanciamento del carico.
    Protocollo Selezionare il protocollo accettato dal server virtuale. È necessario selezionare lo stesso protocollo utilizzato dal Profilo applicazione selezionato.
    Porta Digitare il numero di porta su cui il bilanciamento del carico sta in ascolto.
    Pool predefinito Scegliere il pool di server che verrà utilizzato dal bilanciamento del carico.
    Limite connessione (Facoltativo) Digitare il numero massimo di connessioni simultanee che il server virtuale può elaborare.
    Limite velocità di connessione (CPS) (Facoltativo) Digitare il numero massimo di nuove richieste di connessione in entrata al secondo.
  5. (Facoltativo) Per associare regole di applicazione al server virtuale, fare clic sulla scheda Avanzate e completare i passaggi seguenti:
    1. Fare clic sul pulsante Aggiungi (Pulsante Aggiungi).
      Verranno visualizzate le regole di applicazione create per il bilanciamento del carico. Se necessario, aggiungere regole di applicazione per il bilanciamento del carico. Vedere Aggiunta di una regola di applicazione in un gateway edge di NSX Data Center for vSphere tramite il VMware Cloud Director Service Provider Admin Portal.
  6. Per salvare le modifiche, fare clic su Mantieni.

Operazioni successive

Creare una regola del firewall del gateway edge per consentire il traffico verso il nuovo server virtuale (l'indirizzo IP di destinazione). Vedere Aggiunta di una regola del firewall del gateway edge di NSX Data Center for vSphere nel VMware Cloud Director Service Provider Admin Portal