L'équilibrage de charge répartit les demandes de services entrantes entre plusieurs serveurs de façon à ce que la répartition de charge soit transparente pour les utilisateurs. L'équilibrage de charge favorise une utilisation optimale des ressources, une optimisation du débit, une réduction des temps de réponse, et permet d'éviter la surcharge.

L'équilibrage de charge NSX prend en charge deux moteurs d'équilibrage de charge. L'équilibrage de charge de couche 4 est basé sur des paquets et fournit un traitement de chemin d'accès rapide. L'équilibrage de charge de couche 7 est basé sur des sockets et prend en charge des stratégies de gestion de trafic avancées et l'atténuation DDOS pour les services principaux.

L'équilibrage de charge pour une passerelle Edge NSX Data Center for vSphere est configuré sur l'interface externe, car la charge de la passerelle Edge équilibre le trafic entrant en provenance du réseau externe. Lorsque vous configurez des serveurs virtuels pour l'équilibrage de charge, spécifiez l'une des adresses IP disponibles dont vous disposez dans votre VDC d'organisation.

Stratégies et concepts relatifs à l'équilibrage de charge

Une stratégie d'équilibrage de charge basée sur les paquets est implémentée sur la couche TCP et UDP. L'équilibrage de charge basé sur les paquets n'arrête pas la connexion et ne conserve pas la demande en mémoire tampon. Au lieu de cela, il envoie directement le paquet au serveur sélectionné après l'avoir traité. Les sessions TCP et UDP sont conservées dans l'équilibrage de charge afin que les paquets pour une seule session soient dirigés vers le même serveur. Vous pouvez sélectionner Accélération activée dans la configuration globale et la configuration du serveur virtuel pertinente pour activer l'équilibrage de charge basé sur les paquets.

Une stratégie d'équilibrage de charge basée sur des sockets est implémentée au-dessus de l'interface de socket. Deux connexions sont établies pour une demande unique, une connexion exposée au client et une connexion exposée au serveur. La connexion exposée au serveur est établie après la sélection du serveur. Pour l'implémentation basée sur des sockets HTTP, toute la demande est reçue avant l'envoi au serveur sélectionné avec la manipulation L7 facultative. Pour l'implémentation basée sur des sockets HTTPS, les informations d'authentification sont échangées sur la connexion exposée au client ou la connexion exposée au serveur. L'équilibrage de charge basé sur des sockets est le mode par défaut pour les serveurs virtuels TCP, HTTP et HTTPS.

Les concepts clés de l'équilibrage de charge NSX sont serveur virtuel, pool de serveurs, membre de pool de serveurs et moniteur de services.

Serveur virtuel
Résumé d'un service d'application, représenté par une combinaison unique d'adresse IP, de port, de protocole et de profil d'application tel que TCP ou UDP.
Pool de serveurs
Groupe de serveurs principaux.
Membre de pool de serveurs
Représente le serveur principal en tant que membre d'un pool.
Moniteur de services
Définit comment interroger l'état de santé d'un serveur principal.
Profil d'application
Représente la configuration TCP, UDP, de persistance et de certificat pour une application donnée.

Présentation de la configuration

Vous commencez par définir des options globales pour l'équilibrage de charge. Vous créez un pool de serveurs composé de serveurs membres principaux et associez un moniteur de services au pool pour gérer et partager les serveurs principaux de manière efficace.

Vous créez ensuite un profil d'application pour définir le comportement d'application commun dans un équilibrage de charge, tel que SSL client, SSL serveur, x-transféré-pour ou persistance. La persistance envoie les demandes suivantes avec des caractéristiques semblables de telle sorte qu'une adresse IP source ou un cookie doit être distribué au même membre de pool, sans exécuter l'algorithme d'équilibrage de charge. Le profil d'application peut être réutilisé entre serveurs virtuels.

Vous créez ensuite une règle d'application facultative pour configurer les paramètres spécifiques d'une application pour la manipulation du trafic, tels que la correspondance à une URL ou un nom d'hôte afin que différentes demandes puissent être gérées par différents pools. Ensuite, vous créez un moniteur de services propre à votre application ou vous pouvez utiliser un moniteur de services existant s'il répond à vos besoins.

Vous pouvez éventuellement créer une règle d'application pour prendre en charge les fonctionnalités avancées de serveurs virtuels de niveau 7. Certains cas d'utilisation de règles d'application incluent le changement de contenu, la manipulation d'en-tête, les règles de sécurité et la protection DOS.

Enfin, vous créez un serveur virtuel qui connecte votre pool de serveurs, le profil d'application et les règles d'application potentielles.

Lorsque le serveur virtuel reçoit une demande, l'algorithme d'équilibrage de charge tient compte de la configuration du membre du pool et de l'état d'exécution. L'algorithme calcule ensuite le pool approprié pour distribuer le trafic comprenant un ou plusieurs membres. La configuration d'un membre de pool inclut des paramètres tels que le poids, le nombre maximal de connexions et l'état de condition. L'état d'exécution inclut les connexions actuelles, le temps de réponse et des informations sur l'état du contrôle de santé. Les méthodes de calcul peuvent être round-robin, round-robin pondéré, least connection, hachage IP source, least connections pondérées, URL, URI ou en-tête HTTP.

Chaque pool est surveillé par le moniteur de services associé. Lorsque l'équilibrage de charge détecte un problème sur un membre du pool, ce membre est marqué comme étant hors service. Seul un serveur actif est sélectionné lors du choix d'un membre de pool à partir du pool de serveurs. Si le pool de serveurs n'est pas configuré avec un moniteur de services, tous les membres du pool sont considérés comme étant actifs.

Configurer l'équilibrage de charge sur la passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal

Les paramètres de configuration globale de l'équilibrage de charge comprennent l'activation générale, la sélection du moteur de niveau 4 ou 7 et la spécification des types d'événements à consigner.

Procédure

  1. Ouvrez les services de passerelle Edge.
    1. Dans le panneau de navigation de gauche principal, sélectionnez Ressources et, dans la barre de navigation supérieure de la page, sélectionnez l'onglet Ressources de cloud.
    2. Dans le panneau secondaire de gauche, sélectionnez Passerelles Edge.
    3. Cliquez sur le bouton radio situé en regard du nom de la passerelle Edge cible, puis sur Services.
  2. Accédez à Équilibrage de charge > Configuration globale.
  3. Sélectionnez les options que vous souhaitez activer :
    Option Action
    État Activez l'équilibrage de charge en cliquant sur l'icône Activer/Désactiver.

    Activez l'option Accélération activée pour configurer le service d'équilibrage de charge de sorte qu'il utilise le moteur L4, plus rapide, de préférence au moteur L7. L'adresse IP virtuelle TCP L4 est traitée avant le pare-feu de passerelle Edge. Par conséquent, aucune règle de pare-feu Autoriser n'est requise.

    Note :

    Les adresses IP virtuelles L7 pour HTTP et HTTPS sont traitées après le pare-feu. Ainsi, l'accélération n'est pas activée, une règle de pare-feu de passerelle Edge doit exister afin d'autoriser l'accès à l'adresse IP virtuelle L7 pour ces protocoles. Lorsque l'accélération n'est pas activée et que le pool de serveurs est en mode non transparent, une règle SNAT est ajoutée. Vous devez donc vous assurer que le pare-feu est activé sur la passerelle Edge.

    Activer la journalisation Activez la journalisation afin que l'équilibrage de charge de la passerelle Edge collecte des journaux de trafic.
    Niveau de consignation Choisissez le niveau de gravité des événements à collecter dans les journaux.
  4. Cliquez sur Enregistrer les modifications.

Que faire ensuite

Configurez les profils d'application pour l'équilibrage de charge. Reportez-vous à Créer un profil d'application sur une passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal.

Créer un profil d'application sur une passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal

Un profil d'application définit le comportement de l'équilibrage de charge pour un type particulier de trafic réseau. Après avoir configuré un profil, vous devez l'associer à un serveur virtuel. Le serveur virtuel traite ensuite le trafic conformément aux valeurs spécifiées dans le profil. L'utilisation des profils améliore votre contrôle sur la gestion du trafic réseau et rend les tâches de gestion du trafic plus simples et plus efficaces.

Lorsque vous créez un profil pour le trafic HTTPS, les modèles de trafic HTTPS suivants sont autorisés :
  • Client -> HTTPS -> Équilibrage de charge (désactive SSL) -> HTTP -> Serveurs
  • Client -> HTTPS -> Équilibrage de charge (désactive SSL) -> HTTPS -> Serveurs
  • Client -> HTTPS -> Équilibrage de charge (relais SSL) -> HTTPS -> Serveurs
  • Client -> HTTP -> Équilibrage de charge -> HTTP -> Serveurs

Procédure

  1. Ouvrez les services de passerelle Edge.
    1. Dans le panneau de navigation de gauche principal, sélectionnez Ressources et, dans la barre de navigation supérieure de la page, sélectionnez l'onglet Ressources de cloud.
    2. Dans le panneau secondaire de gauche, sélectionnez Passerelles Edge.
    3. Cliquez sur le bouton radio situé en regard du nom de la passerelle Edge cible, puis sur Services.
  2. Accédez à Équilibrage de charge > Profils d'application.
  3. Cliquez sur le bouton Créer (bouton Créer).
  4. Entrez un nom pour le profil.
  5. Configurez le profil d'application.
    Option Description
    Type Sélectionnez le type de protocole utilisé pour envoyer des demandes au serveur. La liste des paramètres requis dépend du protocole que vous sélectionnez. Il est impossible d'entrer des paramètres qui ne s'appliquent pas au protocole sélectionné. Tous les autres paramètres sont requis.
    Activer le relais SSL Cliquez ici pour que l'authentification SSL soit transmise au serveur virtuel.

    Dans le cas contraire, l'authentification SSL a lieu à l'adresse de destination.

    URL de redirection HTTP (HTTP et HTTPS) Entrez l'URL à laquelle le trafic qui arrive sur l'adresse de destination doit être redirigé.
    Persistance Spécifiez un mécanisme de persistance pour le profil.

    La persistance suit et enregistre les données de session, telles que le membre de pool spécifique qui a pris en charge une demande du client. Cela garantit que les demandes du client sont dirigées vers le même membre du pool tout au long de la durée de vie d'une session ou au cours des sessions ultérieures. Les options sont :

    • IP source

      La persistance IP source suit les sessions en fonction de l'adresse IP source. Lorsqu'un client demande la connexion à un serveur virtuel qui prend en charge la persistance d'affinité des adresses sources, l'équilibrage de charge vérifie si ce client s'est précédemment connecté et, si c'est le cas, renvoie le client vers le même membre de pool.

    • MSRDP

      (TCP uniquement) La persistance du protocole MSRDP (Microsoft Remote Desktop Protocol) maintient des sessions persistantes entre les clients et les serveurs Windows qui exécutent le service Microsoft RDP (Remote Desktop Protocol). Le scénario recommandé pour activer la persistance MSRDP consiste à créer un pool d'équilibrage de charge composé de membres exécutant un système d'exploitation Windows Server invité, dans lequel tous les membres appartiennent à un cluster Windows et participent à un annuaire de sessions Windows.

    • ID de session SSL

      La persistance de l'ID de session SSL est disponible lorsque vous activez le relais SSL. La persistance d'ID de session SSL garantit que les connexions de répétition à partir du même client sont envoyées au même serveur. La persistance de l'ID de session permet l'utilisation de la reprise de session SSL, ce qui permet d'économiser du temps de traitement pour le client et le serveur.

    Nom du cookie (HTTP et HTTPS) Si vous avez spécifié Cookie en tant que mécanisme de persistance, entrez le nom du cookie. La persistance des cookies permet d'utiliser un cookie pour identifier de façon unique la session lorsqu'un client accède au site pour la première fois. L'équilibrage de charge fait référence à ce cookie lorsqu'il connecte les demandes ultérieures pour cette session, de sorte qu'elles soient dirigées vers le même serveur virtuel.
    Mode Sélectionnez le mode suivant lequel le cookie doit être inséré. Les modes suivants sont pris en charge :
    • Insérer

      La passerelle Edge envoie un cookie. Lorsque le serveur envoie un ou plusieurs cookies, le client reçoit un cookie supplémentaire (les cookies du serveur et le cookie de la passerelle Edge). Lorsque le serveur n'envoie pas de cookie, le client reçoit uniquement le cookie de la passerelle Edge.

    • Préfixe
      Sélectionnez cette option lorsque votre client ne prend pas en charge plusieurs cookies.
      Note : Tous les navigateurs acceptent plusieurs cookies. Mais vous pouvez avoir une application propriétaire utilisant un client propriétaire qui ne prend en charge qu'un seul cookie. Le serveur Web envoie ses cookies comme d'habitude. La passerelle Edge injecte (en tant que préfixe) ses informations de cookie dans la valeur de cookie du serveur. Ces informations de cookie supplémentaires sont supprimées lorsque la passerelle Edge les envoie au serveur.
    • Session d'application Pour cette option, le serveur n'envoie pas de cookie. Il envoie plutôt les informations de session d'utilisateur sous forme d'URL. Par exemple, http://example.com/admin/UpdateUserServlet;jsessionid=OI24B9ASD7BSSD, où jsessionid correspond aux informations de session utilisateur qui sont utilisées pour la persistance. Il n'est pas possible d'afficher le tableau de persistance de la session d'application pour le dépannage.
    Expire dans (secondes) Entrez une durée (en secondes) pendant laquelle la persistance reste en vigueur. Doit être un nombre entier positif compris entre 1 et 86 400.
    Note : Pour l'équilibrage de charge de couche 7 utilisant la persistance d'IP source TCP, l'entrée de persistance expire si aucune nouvelle connexion TCP n'est établie pendant une période de temps, même si les connexions existantes sont toujours actives.
    Insérer l'en-tête HTTP X-transféré-pour (HTTP et HTTPS) Sélectionnez l'en-tête Insérer l'en-tête HTTP X-transféré-pour pour vous permettre d'identifier l'adresse IP initiale d'un client se connectant à un serveur Web via l'équilibrage de charge.
    Note : L'utilisation de cet en-tête n'est pas prise en charge si vous avez activé le relais SSL.
    Activer SSL du côté du pool (HTTPS uniquement) Sélectionnez Activer SSL du côté du pool pour définir le certificat, les autorités de certification ou les listes de révocation de certificats (CRL) utilisés pour authentifier l'équilibrage de charge côté serveur dans l'onglet Certificats du pool.
  6. (HTTPS uniquement) Configurez les certificats à utiliser avec le profil d'application. Si les certificats dont vous avez besoin n'existent pas, vous pouvez les créer à partir de l'onglet Certificats.
    Option Description
    Certificats du serveur virtuel Sélectionnez le certificat, les autorités de certification ou les listes de révocation de certificats (CRL) utilisés pour déchiffrer le trafic HTTPS.
    Certificats du pool Définissez le certificat, les autorités de certification ou les listes de révocation de certificats (CRL) utilisés pour authentifier l'équilibrage de charge côté serveur.
    Note : Sélectionnez Activer SSL du côté du pool pour activer cet onglet.
    Chiffrement Sélectionnez les algorithmes de chiffrement (ou la suite de chiffrement) négociés pendant l'établissement de la liaison SSL/TLS.
    Authentification client Spécifiez si l'authentification client doit être ignorée ou requise.
    Note : Lorsqu'elle est définie sur Requise, le client doit fournir un certificat après la demande ou l'établissement de la liaison est annulé.
  7. Pour conserver les modifications, cliquez sur Conserver.

Que faire ensuite

Ajoutez un moniteur de services pour l'équilibrage de charge afin de définir les contrôles de santé pour différents types de trafic réseau. Reportez-vous à Créer un moniteur de services sur une passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal.

Créer un moniteur de services sur une passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal

Vous pouvez créer un moniteur de services pour définir les paramètres de contrôle de santé pour un type particulier de trafic réseau. Lorsque vous associez un moniteur de services à un pool, les membres du pool sont surveillés en fonction des paramètres du moniteur de services.

Procédure

  1. Ouvrez les services de passerelle Edge.
    1. Dans le panneau de navigation de gauche principal, sélectionnez Ressources et, dans la barre de navigation supérieure de la page, sélectionnez l'onglet Ressources de cloud.
    2. Dans le panneau secondaire de gauche, sélectionnez Passerelles Edge.
    3. Cliquez sur le bouton radio situé en regard du nom de la passerelle Edge cible, puis sur Services.
  2. Accédez à Équilibrage de charge > Surveillance des services.
  3. Cliquez sur le bouton Créer (bouton Créer).
  4. Entrez un nom pour le moniteur de services.
  5. (Facultatif) Configurez les options suivantes pour le moniteur de services :
    Option Description
    Intervalle Entrez l'intervalle auquel le serveur doit être surveillé à l'aide de la Méthode spécifiée.
    Expiration Entrez le délai maximal (en secondes) au terme duquel une réponse du serveur doit être reçue.
    Nombre maximal de tentatives Entrez le nombre de fois que la Méthode de surveillance spécifiée doit échouer de manière séquentielle avant que le serveur ne soit déclaré inactif.
    Type Sélectionnez la manière dont vous souhaitez envoyer la demande de contrôle d'intégrité au serveur : HTTP, HTTPS, TCP, ICMP ou UDP.

    En fonction du type sélectionné, les autres options de la boîte de dialogue Nouveau moniteur de services sont actives ou inactives.

    Attendu (HTTP et HTTPS) Entrez la chaîne attendue par le moniteur de sorte qu'elle corresponde à la ligne d'état de la réponse HTTP ou HTTPS (par exemple, HTTP/1.1).
    Méthode (HTTP et HTTPS) Sélectionnez la méthode à utiliser pour détecter l'état du serveur.
    URL (HTTP et HTTPS) Entrez l'URL à utiliser pour la demande d'état du serveur.
    Note : Lorsque vous sélectionnez la méthode POST, vous devez spécifier une valeur pour le champ Envoyer.
    Envoyer (HTTP, HTTPS, UDP) Entrez les données à envoyer.
    Recevoir (HTTP, HTTPS et UDP) Entrez la chaîne qui doit correspondre au contenu de la réponse.
    Note : Lorsque Attendu ne correspond pas, le moniteur ne tente pas de faire correspondre le contenu de Recevoir .
    Extension (TOUS) Entrez les paramètres avancés du moniteur en tant que paires clé=valeurs. Par exemple, avertissement=10 indique que si un serveur ne répond pas dans les 10 secondes, son état est défini comme un avertissement. Tous les éléments de l'extension doivent être séparés par un retour chariot. Par exemple :
    <extension>delay=2
    critical=3
    escape</extension>
  6. Pour conserver les modifications, cliquez sur Conserver.

Exemple : Extensions prises en charge pour chaque protocole

Tableau 1. Extensions pour les protocoles HTTP/HTTPS
Extension du moniteur Description
no-body N'attend pas le corps du document et arrête la lecture après l'en-tête HTTP/HTTPS.
Note : Une méthode HTTP GET ou POST est toujours envoyée, pas une méthode HEAD.
max-age=SECONDS Vous avertit lorsqu'un document est plus ancien que la valeur SECONDS. Le nombre peut être défini sous la forme 10m pour les minutes, 10h pour les heures ou 10d pour les jours.
content-type=STRING Spécifie un type d'en-tête Content-Type dans les appels POST.
linespan Permet à regex de couvrir de nouvelles lignes (doit précéder - r ou -R).
regex=STRING ou ereg=STRING Recherche la chaîne STRING regex dans la page.
eregi=STRING Recherche la chaîne STRING regex non sensible à la casse dans la page.
invert-regex Renvoie CRITICAL lorsqu'un résultat est trouvé et OK lorsqu'il est introuvable.
proxy-authorization=AUTH_PAIR Spécifie le couple identifiant:motdepasse sur les serveurs proxy avec authentification de base.
useragent=STRING Envoie la chaîne dans l'en-tête HTTP en tant que User Agent.
header=STRING Envoie toutes les autres balises dans l'en-tête HTTP. Utilisez cette extension plusieurs fois pour les en-têtes supplémentaires.
onredirect=ok|warning|critical|follow|sticky|stickyport Indique comment gérer les pages redirigées.

sticky fonctionne comme follow mais garde l'adresse IP spécifiée. stickyport garantit que le port reste le même.

pagesize=INTEGER:INTEGER Spécifie les tailles de page minimales et maximales (en octets).
warning=DOUBLE Spécifie le temps de réponse (en secondes) qui doit entraîner un état d'avertissement.
critical=DOUBLE Spécifie le temps de réponse (en secondes) qui doit entraîner un état critique.
Tableau 2. Extensions du protocole HTTPS uniquement
Extension du moniteur Description
sni Active la prise en charge de l'extension de nom d'hôte SSL/TLS (SNI).
certificate=INTEGER Spécifie le nombre minimal de jours pendant lesquels un certificat doit être valide. La valeur par défaut du port est 443. Lorsque cette option est utilisée, l'URL n'est pas vérifiée.
authorization=AUTH_PAIR Spécifie le couple identifiant:motdepasse sur les sites avec authentification de base.
Tableau 3. Extensions du protocole TCP
Extension du moniteur Description
escape Autorise l'utilisation de \n, \r, \t ou \ dans une chaîne send ou quit. Doit précéder une option send ou quit. Par défaut, rien n'est ajouté à send et \r\n est ajouté à la fin de quit.
all Spécifie que toutes les chaînes attendues doivent se produire dans la réponse du serveur. Par défaut, any est utilisée.
quit=STRING Envoie une chaîne vers le serveur afin de fermer proprement la connexion.
refuse=ok|warn|crit Accepte les refus TCP avec des états ok, warn ou criti. Utilise l'état crit par défaut.
mismatch=ok|warn|crit Accepte les non-concordances de chaînes attendues avec des états ok, warn ou crit. Utilise l'état warn par défaut.
jail Masque la sortie à partir du socket TCP.
maxbytes=INTEGER Ferme la connexion lorsqu'un nombre d'octets supérieur au nombre spécifié est reçu.
delay=INTEGER Attend le nombre de secondes spécifié entre l'envoi de la chaîne et l'interrogation d'une réponse.
certificate=INTEGER[,INTEGER] Spécifie le nombre minimal de jours pendant lesquels un certificat doit être valide. La première valeur est #days pour l'avertissement et la seconde valeur est critique (0 si non spécifiée).
ssl Utilise le protocole SSL pour la connexion.
warning=DOUBLE Spécifie le temps de réponse (en secondes) qui doit entraîner un état d'avertissement.
critical=DOUBLE Spécifie le temps de réponse (en secondes) qui doit entraîner un état critique.

Que faire ensuite

Ajouter des pools de serveurs à votre équilibrage de charge. Reportez-vous à Ajouter un pool de serveurs pour l'équilibrage de charge sur une passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal.

Ajouter un pool de serveurs pour l'équilibrage de charge sur une passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal

Vous pouvez ajouter un pool de serveurs pour gérer et partager des serveurs principaux de façon flexible et efficace. Un pool gère les méthodes de distribution d'équilibrage de charge et dispose d'un moniteur de services qui lui est connecté pour les paramètres de contrôle de santé.

Procédure

  1. Ouvrez les services de passerelle Edge.
    1. Dans le panneau de navigation de gauche principal, sélectionnez Ressources et, dans la barre de navigation supérieure de la page, sélectionnez l'onglet Ressources de cloud.
    2. Dans le panneau secondaire de gauche, sélectionnez Passerelles Edge.
    3. Cliquez sur le bouton radio situé en regard du nom de la passerelle Edge cible, puis sur Services.
  2. Accédez à Équilibrage de charge > Pools.
  3. Cliquez sur le bouton Créer (bouton Créer).
  4. Saisissez le nom et la description (facultative) du pool d'équilibrage de charge.
  5. Sélectionnez une méthode d'équilibrage du service dans le menu déroulant Algorithme :
    Option Description
    ROUND-ROBIN Chaque serveur est utilisé l'un après l'autre en fonction du poids qui lui est attribué. Il s'agit de l'algorithme le plus régulier et le plus juste lorsque le temps de traitement du serveur reste distribué équitablement.
    IP-HASH Sélectionne un serveur basé sur un hachage des adresses IP source et de destination de chaque paquet.
    LEASTCONN Distribue les demandes de client à plusieurs serveurs en fonction du nombre de connexions déjà ouvertes sur le serveur. Les nouvelles connexions sont envoyées au serveur ayant le moins de connexions ouvertes.
    URI La partie gauche de l'URI (avant le point d'interrogation) est hachée et divisée par le poids total des serveurs en cours d'exécution. Le résultat indique le serveur qui recevra la demande. Cela permet de toujours diriger un URI vers le même serveur tant que celui-ci n'est pas arrêté.
    HTTPHEADER

    Le nom de l'en-tête HTTP est recherché dans chaque demande HTTP. Le nom d'en-tête entre parenthèses n'est pas sensible à la casse, ce qui est semblable à la fonction ACL « hdr() ». Si l'en-tête est absent ou ne contient aucune valeur, l'algorithme round robin s'applique. Le paramètre d'algorithme HTTP HEADER dispose d'une option headerName=<name>. Par exemple, vous pouvez utiliser host comme paramètre d'algorithme HTTP HEADER.

    URL

    Le paramètre URL spécifié dans l'argument est recherché dans la chaîne de requête de chaque demande HTTP GET. Si le paramètre est suivi du signe égal (=) et d'une valeur, la valeur est hachée et divisée par le poids total des serveurs en cours d'exécution. Le résultat indique le serveur qui reçoit la demande. Ce processus est utilisé pour suivre les identifiants d'utilisateurs dans les demandes et s'assurer qu'un même ID d'utilisateur est toujours envoyé au même serveur tant qu'aucun serveur n'est activé ou arrêté. Si aucune valeur ou aucun paramètre n'est trouvé, un algorithme de répétition alternée s'applique. Le paramètre d'algorithme d'URL dispose d'une option urlParam=<url>.

  6. Ajoutez des membres au pool.
    1. Cliquez sur le bouton Ajouter (bouton Créer).
    2. Entrez le nom du membre du pool.
    3. Entrez l'adresse IP du membre du pool.
    4. Entrez le port sur lequel le membre doit recevoir le trafic de l'équilibrage de charge.
    5. Entrez le port du moniteur sur lequel le membre doit recevoir des demandes du moniteur de santé.
    6. Dans la zone de texte Poids, tapez la proportion du trafic que ce membre doit gérer. Doit être un entier dans la plage 1-256.
    7. (Facultatif) Dans la zone de texte Nombre maximal de connexions, saisissez le nombre maximal de connexions simultanées que le membre peut gérer.
      Lorsque le nombre de demandes entrantes dépasse le maximum, les demandes sont mises en file d'attente et l'équilibrage de charge attend qu'une connexion soit libérée.
    8. (Facultatif) Dans la zone de texte Nombre minimal de connexions, saisissez le nombre minimal de connexions simultanées qu'un membre doit toujours accepter.
    9. Cliquez sur Conserver pour ajouter le nouveau membre au pool.
      L'exécution de l'opération peut prendre quelques instants.
  7. (Facultatif) Pour rendre les adresses IP des clients visibles aux serveurs principaux, sélectionnez Transparent.
    Si Transparent n'est pas sélectionné (valeur par défaut), les serveurs principaux voient l'adresse IP de la source du trafic comme adresse IP interne de l'équilibrage de charge.

    Lorsque Transparent est sélectionné, l'adresse IP source est l'adresse IP réelle du client et la passerelle Edge doit être définie comme passerelle par défaut pour s'assurer que les paquets de retour passent par elle.

  8. Pour conserver les modifications, cliquez sur Conserver.

Que faire ensuite

Ajoutez des serveurs virtuels à votre équilibrage de charge. Un serveur virtuel a une adresse IP publique et traite toutes les demandes entrantes des clients. Reportez-vous à Ajouter un serveur virtuel sur une passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal.

Ajouter une règle d'application sur une passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal

Vous pouvez écrire une règle d'application pour manipuler et gérer directement le trafic IP des applications.

Procédure

  1. Ouvrez les services de passerelle Edge.
    1. Dans le panneau de navigation de gauche principal, sélectionnez Ressources et, dans la barre de navigation supérieure de la page, sélectionnez l'onglet Ressources de cloud.
    2. Dans le panneau secondaire de gauche, sélectionnez Passerelles Edge.
    3. Cliquez sur le bouton radio situé en regard du nom de la passerelle Edge cible, puis sur Services.
  2. Accédez à Équilibrage de charge > Règles d'application.
  3. Cliquez sur le bouton Ajouter (bouton Créer).
  4. Entrez le nom de la règle d'application.
  5. Entrez le script de la règle d'application.
    Pour plus d'informations sur la syntaxe des règles d'application, reportez-vous à la section http://cbonte.github.io/haproxy-dconv/2.2/configuration.html.
  6. Pour conserver les modifications, cliquez sur Conserver.

Que faire ensuite

Associez la nouvelle règle d'application à un serveur virtuel ajouté pour l'équilibrage de charge. Reportez-vous à Ajouter un serveur virtuel sur une passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal.

Ajouter un serveur virtuel sur une passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal

Ajoutez une interface interne ou de liaison montante de passerelle Edge NSX Data Center for vSphere en tant que serveur virtuel dans VMware Cloud Director. Un serveur virtuel a une adresse IP publique et traite toutes les demandes entrantes des clients.

Par défaut, l'équilibrage de charge ferme la connexion TCP du serveur après chaque demande de client.

Procédure

  1. Ouvrez les services de passerelle Edge.
    1. Dans le panneau de navigation de gauche principal, sélectionnez Ressources et, dans la barre de navigation supérieure de la page, sélectionnez l'onglet Ressources de cloud.
    2. Dans le panneau secondaire de gauche, sélectionnez Passerelles Edge.
    3. Cliquez sur le bouton radio situé en regard du nom de la passerelle Edge cible, puis sur Services.
  2. Accédez à Équilibrage de charge > Serveurs virtuels.
  3. Cliquez sur le bouton Ajouter (bouton Créer).
  4. Dans l'onglet Général, configurez les options suivantes pour le serveur virtuel :
    Option Description
    Activer le serveur virtuel Cliquez pour activer le serveur virtuel.
    Activer l'accélération Cliquez pour activer l'accélération.
    Profil d'application Sélectionnez le profil d'application à associer au serveur virtuel.
    Nom Saisissez un nom pour le serveur virtuel.
    Description Saisissez une description (facultative) pour le serveur virtuel.
    Adresse IP Saisissez ou recherchez et sélectionnez l'adresse IP sur laquelle l'équilibrage de charge écoute.
    Protocole Sélectionnez le protocole que le serveur virtuel accepte. Vous devez sélectionner le même protocole que celui utilisé par le Profil d'application sélectionné.
    Port Tapez le numéro du port sur lequel l'équilibrage de charge écoute.
    Pool par défaut Choisissez le pool de serveurs que l'équilibrage de charge utilise.
    Limite de connexion (Facultatif) Saisissez le nombre maximal de connexions simultanées que le serveur virtuel peut traiter.
    Limite de vitesse de connexion (CPS) (Facultatif) Saisissez le nombre maximal de demandes de nouvelles connexions entrantes par seconde.
  5. (Facultatif) Pour associer des règles d'application avec le serveur virtuel, cliquez sur l'onglet Avancé et effectuez les étapes suivantes :
    1. Cliquez sur le bouton Ajouter (bouton Créer).
      Les règles d'application créées pour l'équilibrage de charge s'affichent. Si nécessaire, ajoutez des règles d'application pour l'équilibrage de charge. Reportez-vous à Ajouter une règle d'application sur une passerelle Edge NSX Data Center for vSphere à l'aide du VMware Cloud Director Service Provider Admin Portal.
  6. Pour conserver les modifications, cliquez sur Conserver.

Que faire ensuite

Créez une règle de pare-feu de passerelle Edge pour autoriser le trafic vers le nouveau serveur virtuel (adresse IP de destination). Consultez Ajouter une règle de pare-feu de passerelle Edge NSX Data Center for vSphere dans le VMware Cloud Director Service Provider Admin Portal