Anwendungsprofile sind mit virtuellen Servern verknüpft, um das Load Balancing im Netzwerkverkehr zu verbessern und Aufgaben zur Verwaltung des Datenverkehrs zu vereinfachen.

Mit Anwendungsprofilen definieren Sie das Verhalten eines bestimmten Netzwerkverkehrstyps. Der verknüpfte virtuelle Server verarbeitet den Datenverkehr gemäß den im Anwendungsprofil angegebenen Werten. Fast TCP-, Fast UDP- und HTTP- Anwendungsprofile sind die unterstützten Profiltypen.

Das Anwendungsprofil TCP wird verwendet, wenn standardmäßig kein Anwendungsprofil mit einem virtuellen Server verknüpft ist. TCP- und UDP-Anwendungsprofile werden verwendet, wenn eine Anwendung auf einem TCP- oder UDP-Protokoll ausgeführt wird und kein Load Balancing auf Anwendungsebene benötigt, wie z. B. HTTP-URL-Load Balancing. Diese Profile werden auch verwendet, wenn Sie nur Load Balancing der Schicht 4 benötigen, der leistungsfähiger ist und Verbindungsspiegelung unterstützt.

Das HTTP-Anwendungsprofil wird für HTTP- und HTTPS-Anwendungen verwendet, wenn der Load Balancer Aktionen auf Grundlage von Schicht 7 durchführen muss, wie z. B. das Durchführen von Load Balancing für alle Bildanforderungen auf einem bestimmten Serverpoolmitglied oder das Beenden von HTTPS zum Auslagern von SSL aus Poolmitgliedern. Im Gegensatz zum TCP-Anwendungsprofil beendet das HTTP-Anwendungsprofil die TCP-Verbindung des Clients am Load Balancer und wartet auf die HTTP- bzw. HTTPS-Anforderung des Clients, bevor das Serverpoolmitglied ausgewählt wird.

Abbildung 1. TCP- und UDP-Anwendungsprofil der Schicht 4
Abbildung 2. HTTPS-Anwendungsprofil der Schicht 7

Prozedur

  1. Melden Sie sich mit Administratorrechten bei NSX Manager an.
  2. Wählen Sie Netzwerk > Load Balancing > Profile > Anwendung > Anwendungsprofil hinzufügen aus.
  3. Wählen Sie ein Fast TCP-Anwendungsprofil aus und geben Sie die Profildetails ein.
    Sie können auch die Standardprofileinstellungen für FAST TCP übernehmen.
    Option Beschreibung
    Name und Beschreibung Geben Sie einen Namen und eine Beschreibung für das Fast TCP-Anwendungsprofil ein.
    Leerlaufzeitlimit Geben Sie den Zeitraum in Sekunden ein, während dem ein Server im Leerlauf ausgeführt werden kann, nachdem eine TCP-Verbindung eingerichtet wurde.

    Legen Sie die Leerlaufzeit auf die Leerlaufzeit der tatsächlichen Anwendung fest und fügen Sie ein paar Sekunden hinzu, damit der Load Balancer seine Verbindungen nicht vor der Anwendung schließt.

    HA-Flow-Mirroring Schalten Sie die Schaltfläche um, um alle Flows zum zugehörigen virtuellen Server auf den HA-Standby-Knoten zu spiegeln.
    Zeitlimit vor Schließen der Verbindung Geben Sie den Zeitraum in Sekunden ein, während dem eine TCP-Verbindung (FIN und RST) für eine Anwendung bestehen bleiben muss, bevor die Verbindung geschlossen wird.

    Ein kurzes Zeitlimit ist unter Umständen erforderlich, um schnelle Verbindungsraten zu unterstützen.

    Tags Geben Sie Tags ein, um die Suche zu vereinfachen.

    Sie können ein Tag angeben, um einen Geltungsbereich des Tags festzulegen.

  4. Wählen Sie ein Fast UDP-Anwendungsprofil aus und geben Sie die Profildetails ein.
    Sie können auch die Standardprofileinstellungen für UDP übernehmen.
    Option Beschreibung
    Name und Beschreibung Geben Sie einen Namen und eine Beschreibung für das Fast UDP-Anwendungsprofil ein.
    Leerlaufzeitlimit Geben Sie den Zeitraum in Sekunden ein, während dem ein Server im Leerlauf ausgeführt werden kann, nachdem eine UDP-Verbindung eingerichtet wurde.

    UDP ist ein verbindungsloses Protokoll. Zu Load Balancing-Zwecken wird davon ausgegangen, dass alle UDP-Pakete mit derselben Flow-Signatur (wie z. B. IP-Quell- und IP-Zieladresse oder -ports) und IP-Protokolle, die während des Leerlaufzeitlimits empfangen wurden, zur selben Verbindung gehören und an denselben Server gesendet werden.

    Werden während des Leerlaufzeitlimits keine Pakete empfangen, wird die Verbindung, die als Verknüpfung zwischen der Flow-Signatur und dem ausgewählten Server fungiert, getrennt.

    HA-Flow-Mirroring Schalten Sie die Schaltfläche um, um alle Flows zum zugehörigen virtuellen Server auf den HA-Standby-Knoten zu spiegeln.
    Tags Geben Sie Tags ein, um die Suche zu vereinfachen.

    Sie können ein Tag angeben, um einen Geltungsbereich des Tags festzulegen.

  5. Wählen Sie ein HTTP Anwendungsprofil aus und geben Sie die Profildetails ein.
    Sie können auch die Standardprofileinstellungen für HTTP übernehmen.

    Um eine inaktive Client- oder Server-Kommunikation zu erkennen, verwendet der Load Balancer die Antwortzeitüberschreitungsfunktion des HTTP-Anwendungsprofils, die auf 60 Sekunden eingestellt ist. Wenn der Server während des 60-Sekunden-Intervalls keine Daten sendet, beendet NSX-T Data Center Verbindung auf Client- und Serverseite. Standard-Anwendungsprofile können nicht bearbeitet werden. Erstellen Sie ein benutzerdefiniertes Profil, um die HTTP-Anwendungsprofileinstellungen zu bearbeiten.

    Das HTTP-Anwendungsprofil wird für HTTP- und HTTPS-Anwendungen verwendet.

    Option Beschreibung
    Name und Beschreibung Geben Sie einen Namen und eine Beschreibung für das HTTP-Anwendungsprofil ein.
    Leerlaufzeitlimit Geben Sie die Zeit in Sekunden für die Dauer der Client-Leerlaufverbindungen ein, bevor der Load Balancer sie schließt (FIN).
    Größe des Anforderungsheaders Geben Sie die maximale Puffergröße in Byte an, die zum Speichern von HTTP-Anforderungsheadern verwendet wird.
    Größe des Antwort-Headers

    Geben Sie die maximale Puffergröße in Byte an, die zum Speichern von HTTP-Antwortheadern verwendet wird. Der Standardwert ist 4096 und der Maximalwert ist 65536.

    Umleitung
    • Keine – Wenn eine Website vorübergehend nicht verfügbar ist, erhält der Benutzer eine Meldung mit dem Hinweis, dass die Seite nicht gefunden werden konnte.
    • HTTP-Umleitung – Wenn eine Website vorübergehend nicht verfügbar ist oder verschoben wurde, können eingehende Anfragen für diesen virtuellen Server vorübergehend an eine hier angegebene URL umgeleitet werden. Nur eine statische Umleitung wird unterstützt.

      Wenn „HTTP-Umleitung“ beispielsweise auf http://sitedown.abc.com/sorry.html gesetzt ist, werden ungeachtet der tatsächlichen Anfrage (z. B. http://original_app.site.com/home.html oder http://original_app.site.com/somepage.html) eingehende Anfragen an die angegebene URL umgeleitet, wenn die ursprüngliche Website nicht erreichbar ist.

    • HTTP an HTTPS umleiten – Bestimmte sichere Anwendungen möchten unter Umständen Kommunikation über SSL erzwingen, aber statt Nicht-SSL-Verbindungen abzulehnen, können sie die Clientanfrage zur Verwendung von SSL umleiten. Mithilfe von „HTTP an HTTPS umleiten“ können Sie den Host und die URI-Pfade beibehalten und die Clientanfrage zur Verwendung von SSL umleiten.

      Zur Verwendung von „HTTP an HTTPS umleiten“ muss der virtuelle HTTPS-Server Port 443 aufweisen und dieselbe IP-Adresse des virtuellen Servers muss auf demselben Load Balancer konfiguriert sein.

      Eine Clientanfrage für http://app.com/path/page.html wird beispielsweise an https://app.com/path/page.html umgeleitet. Wenn entweder der Hostname oder die URI während der Umleitung geändert werden muss, z. B. Umleitung an https://secure.app.com/path/page.html, müssen Load Balancing-Regeln verwendet werden.

    Tags Geben Sie Tags ein, um die Suche zu vereinfachen.

    Sie können ein Tag angeben, um einen Geltungsbereich des Tags festzulegen.

    XFF (X-Forwarded-For)
    • Einfügen – Wenn der XFF-HTTP-Header nicht in der eingehenden Anfrage enthalten ist, fügt der Load Balancer einen neuen XFF-Header mit der IP-Adresse des Clients ein. Wenn der XFF-HTTP-Header in der eingehenden Anfrage enthalten ist, hängt der Load Balancer den XFF-Header mit der IP-Adresse des Clients an.
    • Ersetzen – Wenn der XFF-HTTP-Header in der eingehenden Anfrage enthalten ist, ersetzt der Load Balancer den Header.

    Webserver protokollieren jede Anfrage, die sie verarbeiten, mit der IP-Adresse des anfragenden Clients. Diese Protokolle werden zur Fehlerbehebung und Analyse verwendet. Wenn die Bereitstellungstopologie SNAT auf dem Load Balancer erfordert, verwendet der Server die IP-Adresse der Client-SNAT, was dem Zweck der Protokollierung widerspricht.

    Zur Umgehung dieses Problems kann der Load Balancer so konfiguriert werden, dass der XFF-HTTP-Header mit der IP-Adresse des ursprünglichen Clients eingefügt wird. Server können so konfiguriert werden, dass anstelle der IP-Quelladresse der Verbindung die IP-Adresse im XFF-Header aufgezeichnet wird.

    Größe des Anforderungstexts Geben Sie einen Wert für die maximale Größe des Puffers ein, der zum Speichern des HTTP-Anforderungstexts verwendet wird.

    Wenn die Größe nicht angegeben wird, ist die Größe des Anforderungshauptteils unbegrenzt.

    Antwortzeitüberschreitung (Sek.) „Geben Sie die Zeit in Sekunden ein, nach der der Load Balancer auf die HTTP-Antwort des Servers wartet, bevor er beendet wird, die Verbindung zum Poolmitglied schließt und die Anforderung an einen anderen Server erneut versucht.“
    Server-Keep-Alive Schalten Sie die Schaltfläche für den Load Balancer um, um TCP-Multiplexing zu deaktivieren und HTTP-Keep-Alive zu aktivieren.

    Wenn der Client HTTP/1.0 verwendet, führt der Load Balancer ein Upgrade auf das HTTP/1.1-Protokoll durch und HTTP-Keep-Alive wird eingerichtet. Alle HTTP-Anforderungen, die über dieselbe clientseitigen TCP-Verbindung empfangen wurden, werden über eine einzige TCP-Verbindung an denselben Server gesendet, um sicherzustellen, dass keine erneute Autorisierung erforderlich ist.

    Wenn HTTP-Keep-Alive aktiviert ist und Weiterleitungsregeln im Load Balancer konfiguriert sind, hat die Keep-Alive-Einstellung des Servers Vorrang. Dies führt dazu, dass HTTP-Anforderungen an Server gesendet werden, die bereits mit Keep-Alive verbunden sind.

    Möchten Sie den Weiterleitungsregeln immer Vorrang geben, wenn die Bedingungen der Load Balancer-Regel erfüllt sind, deaktivieren Sie die Keep-Alive-Einstellung.

    Beachten Sie, dass die Persistenzeinstellung Vorrang vor der Keep-Alive-Einstellung hat.

    Die Verarbeitung erfolgt in der Reihenfolge Persistenz > Keep-Alive > Load Balancer-Regeln