Der Lastausgleichsdienst verteilt eingehende Dienstanforderungen an mehrere Server und sorgt dabei dafür, dass die Lastverteilung für den Benutzer erkennbar ist. Der Lastausgleich ermöglicht eine optimale Ressourcennutzung, maximalen Durchsatz und minimale Antwortzeiten und verhindert gleichzeitig eine Überlastung.
Der NSX-Lastausgleichsdienst unterstützt zwei Lastausgleichsmodule. Der Ebene-4-Lastausgleich ist paketbasiert und bietet Fast-Path-Verarbeitung. Der Ebene-7-Lastausgleich ist Socket-basiert und unterstützt erweiterte Strategien zur Verwaltung des Datenverkehrs und die DDOS-Minimierung für Back-End-Dienste.
Der Lastausgleich für ein NSX Data Center for vSphere-Edge-Gateway wird in der externen Schnittstelle konfiguriert, da das Edge-Gateway den Lastausgleich für den eingehenden Datenverkehr vom externen Netzwerk durchführt. Wenn Sie virtuelle Server für den Lastausgleich konfigurieren, geben Sie eine der verfügbaren IP-Adressen an, über die Sie in Ihrem Organisations-VDC verfügen.
Strategien und Konzepte für den Lastausgleich
Eine paketbasierte Lastausgleichsstrategie wird auf der TCP- und der UDP-Ebene implementiert. Paketbasierter Lastausgleich hält die Verbindung weder an noch puffert er die gesamte Anforderung. Stattdessen sendet er das geänderte Paket direkt an den ausgewählten Server. TCP- und UDP-Sitzungen werden im Lastausgleichsdienst beibehalten, sodass Pakete für eine einzelne Sitzung an denselben Server geleitet werden. Sie können „Beschleunigung aktiviert“ sowohl in der globalen Konfiguration als auch in der entsprechenden Konfiguration des virtuellen Servers auswählen, um den paketbasierten Lastausgleich zu aktivieren.
Eine Socket-basierte Lastausgleichsstrategie wird zusätzlich zu der Socket-Schnittstelle implementiert. Es werden zwei Verbindungen für eine einzelne Anforderung eingerichtet, nämlich eine clientseitige und eine serverseitige Verbindung. Die serverseitige Verbindung wird nach der Serverauswahl eingerichtet. Bei der HTTP-Socket-basierten Implementierung wird die gesamte Anforderung vor dem Senden an den ausgewählten Server mit optionaler L7-Verarbeitung empfangen. Bei der HTTPS-Socket-Implementierung werden die Authentifizierungsinformationen entweder über die clientseitige Verbindung oder über die serverseitige Verbindung ausgetauscht. Der Socket-basierte Lastausgleich ist der Standardmodus für virtuelle TCP-, HTTP- und HTTPS-Server.
Die grundlegenden Konzepte des NSX-Lastausgleichs sind virtueller Server, Serverpool, Serverpoolmitglied und Dienstüberwachung.
- Virtueller Server
- Zusammenfassender Begriff für einen Anwendungsdienst, der durch eine eindeutige Kombination aus IP, Port, Protokoll und Anwendungsprofil wie TCP oder UDP dargestellt wird.
- Serverpool
- Gruppe von Back-End-Servern.
- Serverpoolmitglied
- Stellt den Back-End-Server als Mitglied in einem Pool dar.
- Dienstüberwachung
- Definiert, wie der Systemzustand eines Back-End-Servers untersucht wird.
- Anwendungsprofil
- Stellt die TCP-, UDP-, Persistenz- und Zertifikatkonfiguration für eine bestimmte Anwendung dar.
Übersicht über die Einrichtung
Zunächst legen Sie globale Optionen für den Lastausgleichsdienst fest. Sie erstellen nun einen Serverpool, der aus Back-End-Server-Mitgliedern besteht, und ordnen dem Pool eine Dienstüberwachung zu, damit die Back-End-Server effizient verwaltet und gemeinsam genutzt werden können.
Anschließend erstellen Sie ein Anwendungsprofil, um das allgemeine Anwendungsverhalten in einem Lastausgleichsdienst – Client-SSL, Server-SSL, X-Forwarded-For oder Persistenz – zu definieren. Bei Wahl von Persistenz werden nachfolgende Anforderungen mit ähnlichen Merkmalen gesendet – beispielsweise dass Quell-IP oder Cookie an dasselbe Poolmitglied gesendet werden müssen, ohne dass der Lastausgleichsalgorithmus ausgeführt wird. Das Anwendungsprofil kann auf allen virtuellen Servern wiederverwendet werden.
Anschließend erstellen Sie eine optionale Anwendungsregel, um anwendungsspezifische Einstellungen für die Manipulation von Datenverkehr zu konfigurieren: beispielsweise das Abgleichen eines bestimmten URL- oder Hostnamens, sodass verschiedene Anforderungen von verschiedenen Pools verarbeitet werden können. Anschließend erstellen Sie eine Dienstüberwachung speziell für Ihre Anwendung oder verwenden eine bereits vorhandene Dienstüberwachung, falls diese Ihre Anforderungen erfüllt.
Optional können Sie eine Anwendungsregel zur Unterstützung von erweiterten Funktionen virtueller L7-Server erstellen. Einige Anwendungsfälle für Anwendungsregeln beinhalten das Wechseln von Inhalten, die Kopfzeilenmanipulation, Sicherheitsregeln und DOS-Schutz.
Abschließend erstellen Sie einen virtuellen Server, der Ihren Serverpool, das Anwendungsprofil und potenzielle Anwendungsregeln miteinander verbindet.
Wenn der virtuelle Server eine Anforderung erhält, berücksichtigt der Lastausgleichsalgorithmus die Poolmitgliedskonfiguration und den Laufzeitstatus. Der Algorithmus berechnet dann den entsprechenden Pool für die Verteilung des Datenverkehrs für ein oder mehrere Mitglieder. Zur Poolmitgliedskonfiguration gehören Einstellungen wie Gewichtung, maximale Verbindung und Bedingungsstatus. Der Laufzeitstatus beinhaltet die aktuellen Verbindungen, die Antwortzeit und Informationen über den Systemstatus. Die Berechnungsmethoden können Round-Robin, gewichtetes Round-Robin, schwächste Verbindung, Quell-IP-Hash, gewichtete schwächste Verbindungen, URL, URI oder HTTP-Header sein.
Jeder Pool wird von der zugehörigen Dienstüberwachung überwacht. Wenn der Lastausgleichsdienst ein Problem bei einem Poolmitglied erkennt, wird das Mitglied als „Nicht erreichbar“ markiert. Beim Auswählen eines Poolmitglieds aus dem Serverpool wird nur ein Server ausgewählt, der als „Erreichbar“ gekennzeichnet ist. Wenn der Serverpool nicht mit einer Dienstüberwachung konfiguriert ist, werden alle Poolmitglieder als „Erreichbar“ betrachtet.
Konfigurieren des Lastausgleichs auf dem NSX Data Center for vSphere-Edge-Gateway mit dem VMware Cloud Director Service Provider Admin Portal
Zu den globalen Konfigurationsparametern des Lastausgleichsdiensts zählen die allgemeine Aktivierung, die Auswahl der Engine für Layer 4 oder Layer 7 und die Angabe der zu protokollierenden Ereignistypen.
Prozedur
- Öffnen Sie „Edge-Gateway-Dienste“.
- Wählen Sie im primären linken Navigationsbereich Ressourcen und dann in der oberen Navigationsleiste der Seite die Registerkarte Cloud-Ressourcen aus.
- Wählen Sie im sekundären linken Bereich Edge-Gateways aus.
- Klicken Sie auf das Optionsfeld neben dem Namen des gewünschten Edge-Gateways und anschließend auf Dienste.
- Navigieren Sie zu Lastausgleichsdienst > Globale Konfiguration.
- Wählen Sie die Optionen, die Sie aktivieren möchten:
Option Aktion Status Aktivieren Sie den Lastausgleichsdienst durch Klicken auf das Symbol zum Umschalten. Aktivieren Sie Beschleunigung aktiviert, um den Lastausgleichsdienst so zu konfigurieren, dass die schnellere L4-Engine anstelle der L7-Engine verwendet wird. L4 TCP VIP wird vor der Edge-Gateway-Firewall verarbeitet, daher ist keine Regel zum Zulassen der Firewall erforderlich.
Hinweis:L7-VIPs für HTTP und HTTP werden nach der Firewall verarbeitet. Wenn Sie die Beschleunigung also nicht aktivieren, muss eine Firewallregel für das Edge-Gateway vorhanden sein, um Zugriff auf L7-VIP für diese Protokolle zuzulassen. Wenn Sie die Beschleunigung aktiviert haben und der Serverpool sich im nicht transparenten Modus befindet, wird eine SNAT-Regel hinzugefügt. Daher müssen Sie sicherstellen, dass die Firewall für das Edge-Gateway aktiviert ist.
Protokollierung aktivieren Aktivieren Sie die Protokollierung, damit der Lastausgleichsdienst des Edge-Gateways Datenverkehrsprotokolle erfasst. Protokollierungsebene Wählen Sie den Schweregrad der Ereignisse aus, die in den Protokollen erfasst werden sollen. - Klicken Sie auf Änderungen speichern.
Nächste Maßnahme
Konfigurieren Sie Anwendungsprofile für den Lastausgleichsdienst. Weitere Informationen finden Sie unter Erstellen eines Anwendungsprofils auf einem NSX Data Center for vSphere-Edge-Gateway mithilfe des VMware Cloud Director Service Provider Admin Portal.
Erstellen eines Anwendungsprofils auf einem NSX Data Center for vSphere-Edge-Gateway mithilfe des VMware Cloud Director Service Provider Admin Portal
Ein Anwendungsprofil definiert das Verhalten des Lastausgleichsdiensts für einen bestimmten Typ des Netzwerkdatenverkehrs. Nach der Profilkonfiguration können Sie es einem virtuellen Server zuordnen. Der virtuelle Server verarbeitet dann den Datenverkehr gemäß den im Profil angegebenen Werten. Durch die Verwendung von Profilen wird Ihre Kontrolle über die Verwaltung des Netzwerkdatenverkehrs verbessert, und die Aufgaben für die Verwaltung des Datenverkehrs werden einfacher und effizienter.
- Client -> HTTPS -> LB (SSL beenden) -> HTTP -> Server
- Client -> HTTPS -> LB (SSL beenden) -> HTTPS -> Server
- Client -> HTTPS -> LB (SSL-Passthrough) -> HTTPS -> Server
- Client -> HTTP -> LB -> HTTP -> Server
Prozedur
- Öffnen Sie „Edge-Gateway-Dienste“.
- Wählen Sie im primären linken Navigationsbereich Ressourcen und dann in der oberen Navigationsleiste der Seite die Registerkarte Cloud-Ressourcen aus.
- Wählen Sie im sekundären linken Bereich Edge-Gateways aus.
- Klicken Sie auf das Optionsfeld neben dem Namen des gewünschten Edge-Gateways und anschließend auf Dienste.
- Navigieren Sie zu Lastausgleichsdienst > Anwendungsprofile.
- Klicken Sie auf die Schaltfläche Erstellen ().
- Geben Sie einen Namen für das Profil ein.
- Konfigurieren Sie das Anwendungsprofil.
Option Beschreibung Typ Wählen Sie den Protokolltyp aus, der zum Senden von Anforderungen an den Server verwendet wird. Die Liste der erforderlichen Parameter hängt vom ausgewählten Protokoll ab. Parameter, die nicht für das von Ihnen ausgewählte Protokoll gelten, können nicht eingegeben werden. Alle anderen Parameter sind erforderlich. SSL-Passthrough aktivieren Klicken Sie, um die Weitergabe der SSL-Authentifizierung an den virtuellen Server zu aktivieren. Andernfalls wird die SSL-Authentifizierung an der Zieladresse ausgeführt.
HTTP-Umleitungs-URL (HTTP und HTTPS) Geben Sie die URL ein, an die der Datenverkehr, der an der Zieladresse ankommt, umgeleitet werden soll. Persistenz Geben Sie einen Persistenzmechanismus für das Profil an. Persistenz verfolgt und speichert Sitzungsdaten, wie z. B. das spezifische Poolmitglied, das eine Clientanforderung bearbeitet hat. Dadurch wird sichergestellt, dass die Clientanforderungen während des Lebenszyklus einer Sitzung oder während nachfolgender Sitzungen demselben Poolmitglied zugeordnet werden. Zu den Optionen gehören:
- Quell-IP
Quell-IP-Persistenz verfolgt Sitzungen basierend auf der IP-Quelladresse. Wenn ein Client eine Verbindung zu einem virtuellen Server anfordert, der die Persistenz der Quelladressen-Affinität unterstützt, überprüft der Lastausgleichsdienst, ob dieser Client zuvor eine Verbindung hergestellt hat, und wenn ja, gibt er den Client an dasselbe Poolmitglied zurück.
- MSRDP
(Nur TCP) MSRDP-Persistenz (Microsoft Remote Desktop Protocol) behält persistente Sitzungen zwischen Windows-Clients und -Servern bei, die den RDP-Dienst (Remote Desktop Protocol) von Microsoft ausführen. Das empfohlene Szenario für die Aktivierung der MSRDP-Persistenz ist die Erstellung eines Lastausgleichspools, der aus Mitgliedern besteht, die ein Windows Server-Gastbetriebssystem ausführen, wobei alle Mitglieder zu einem Windows-Cluster gehören und an einem Windows-Sitzungsverzeichnis teilnehmen.
- SSL-Sitzungs-ID
Persistenz der SSL-Sitzungs-ID ist verfügbar, wenn Sie SSL-Passthrough aktivieren. Persistenz der SSL-Sitzungs-ID stellt sicher, dass wiederholte Verbindungen vom selben Client an denselben Server gesendet werden. Persistenz der SSL-Sitzungs-ID ermöglicht die Wiederaufnahme der SSL-Sitzung, wodurch die Verarbeitungszeit sowohl für den Client als auch für den Server gespeichert wird.
Cookiename (HTTP und HTTPS) Wenn Sie Cookie als Mechanismus für die Persistenz angegeben haben, geben Sie den Cookienamen ein. Die Cookiepersistenz verwendet ein Cookie, um die Sitzung eindeutig zu identifizieren, wenn ein Client zum ersten Mal auf die Site zugreift. Der Lastausgleichsdienst verweist auf dieses Cookie, wenn die Verbindung nachfolgender Anforderungen in der Sitzung hergestellt wird, sodass sie alle an den gleichen virtuellen Server weitergeleitet werden. Modus Wählen Sie den Modus aus, mit dem das Cookie eingefügt werden soll. Die folgenden Modi werden unterstützt: - Einfügen
Das Edge-Gateway sendet ein Cookie. Wenn der Server ein oder mehrere Cookies sendet, empfängt der Client ein zusätzliches Cookie (Server-Cookies und Edge-Gateway-Cookie). Wenn der Server keine Cookies sendet, empfängt der Client nur das Edge-Gateway-Cookie.
- Präfix
Wählen Sie diese Option aus, wenn Ihr Client nur ein Cookie unterstützt.Hinweis: Alle Browser akzeptieren mehrere Cookies. Möglicherweise verfügen Sie jedoch über eine proprietäre Anwendung mit einem proprietären Client, der nur ein Cookie unterstützt. Der Webserver sendet wie üblich sein Cookie. Das Edge-Gateway fügt seine Cookieinformationen in den Server-Cookiewert ein (als Präfix). Diese hinzugefügten Cookieinformationen werden entfernt, wenn das Edge-Gateway sie an den Server sendet.
- App-Sitzung Für diese Option sendet der Server kein Cookie. Stattdessen sendet er die Informationen zur Benutzersitzung als URL. Beispiel: http://example.com/admin/UpdateUserServlet;jsessionid=OI24B9ASD7BSSD, wobei jsessionid die Benutzersitzungsinformationen bezeichnet und für die Persistenz verwendet wird. Es ist nicht möglich, die Persistenztabelle der App-Sitzung zur Fehlerbehebung anzuzeigen.
Läuft ab in (Sekunden) Geben Sie eine Zeitdauer in Sekunden ein, für die die Persistenz wirksam bleibt. Dies muss eine positive Ganzzahl im Bereich von 1-86400 sein. Hinweis: Beim L7-Lastausgleich mit TCP-Quell-IP-Persistenz kommt es zu einer Zeitüberschreitung des Persistenzeintrags, wenn in einem bestimmten Zeitraum keine neuen TCP-Verbindungen hergestellt werden, selbst wenn die bestehenden Verbindungen noch aktiv sind.HTTP-Header 'X-Forwarded-For' einfügen (HTTP und HTTPS) Wählen Sie HTTP-Header 'X-Forwarded-For' einfügen für das Identifizieren der Ursprungs-IP-Adresse eines Clients aus, der eine Verbindung zu einem Webserver über den Lastausgleichsdienst herstellt. Hinweis: Die Verwendung dieses Headers wird nicht unterstützt, wenn Sie SSL-Passthrough aktiviert haben.Pool-seitiges SSL aktivieren (Nur HTTPS) Wählen Sie Pool-seitiges SSL aktivieren aus, um das Zertifikat, die Zertifizierungsstellen oder die CRLs zu definieren, die zur Authentifizierung des Lastausgleichsdiensts über die Serverseite auf der Registerkarte „Pool-Zertifikate“ verwendet werden. - Quell-IP
- (Nur HTTPS) Konfigurieren Sie die Zertifikate, die mit dem Anwendungsprofil verwendet werden. Wenn die benötigten Zertifikate nicht vorhanden sind, können Sie diese über die Registerkarte Zertifikate erstellen.
Option Beschreibung Zertifikate für den virtuellen Server Wählen Sie das Zertifikat, die Zertifizierungsstellen oder CRLs aus, die zum Entschlüsseln des HTTPS-Datenverkehrs verwendet werden. Pool-Zertifikate Definieren Sie das Zertifikat, die Zertifizierungsstellen oder CRLs, die zur Authentifizierung des Lastausgleichsdiensts über die Serverseite verwendet werden. Hinweis: Wählen Sie Pool-seitiges SSL aktivieren aus, um diese Registerkarte zu aktivieren.Schlüssel Wählen Sie die Schlüsselalgorithmen (oder Verschlüsselungs-Suite) aus, die während des SSL/TLS-Handshakes ausgehandelt wurden. Clientauthentifizierung Geben Sie an, ob die Clientauthentifizierung ignoriert werden soll oder erforderlich ist. Hinweis: Wenn Erforderlich festgelegt ist, muss der Client nach der Anforderung ein Zertifikat bereitstellen, oder der Handshake wird abgebrochen. - Klicken Sie zum Beibehalten Ihrer Änderungen auf Behalten.
Nächste Maßnahme
Fügen Sie eine Dienstüberwachung für den Lastausgleichsdienst hinzu, um Systemdiagnosen für verschiedene Arten von Netzwerkdatenverkehr zu definieren. Weitere Informationen finden Sie unter Erstellen einer Dienstüberwachung auf einem NSX Data Center for vSphere-Edge-Gateway mithilfe des VMware Cloud Director Service Provider Admin Portal.
Erstellen einer Dienstüberwachung auf einem NSX Data Center for vSphere-Edge-Gateway mithilfe des VMware Cloud Director Service Provider Admin Portal
Sie können eine Dienstüberwachung erstellen, um Systemdiagnoseparameter für einen bestimmten Typ des Netzwerkdatenverkehrs zu definieren. Wenn Sie eine Dienstüberwachung einem Pool zuweisen, werden die Poolmitglieder gemäß den Dienstüberwachungsparametern überwacht.
Prozedur
- Öffnen Sie „Edge-Gateway-Dienste“.
- Wählen Sie im primären linken Navigationsbereich Ressourcen und dann in der oberen Navigationsleiste der Seite die Registerkarte Cloud-Ressourcen aus.
- Wählen Sie im sekundären linken Bereich Edge-Gateways aus.
- Klicken Sie auf das Optionsfeld neben dem Namen des gewünschten Edge-Gateways und anschließend auf Dienste.
- Navigieren Sie zu Lastausgleichsdienst > Dienstüberwachung.
- Klicken Sie auf die Schaltfläche Erstellen ().
- Geben Sie einen Namen für die Dienstüberwachung ein.
- (Optional) Konfigurieren Sie die folgenden Optionen für die Dienstüberwachung:
Option Beschreibung Intervall Geben Sie das Intervall ein, in dem ein Server unter Verwendung der angegebenen Methode zu überwachen ist. Zeitüberschreitung Geben Sie die maximale Zeit in Sekunden ein, in der eine Antwort vom Server empfangen werden muss. Max. Wiederholungen Geben Sie an, wie oft die angegebene Methode für die Überwachung hintereinander fehlschlagen muss, bevor der Server als ausgefallen erklärt wird. Typ Wählen Sie aus, wie die Systemdiagnoseanforderung an den Server gesendet werden soll: HTTP, HTTPS, TCP, ICMP oder UDP. Je nach ausgewähltem Typ werden die übrigen Optionen im Dialogfeld Neue Dienstüberwachung aktiviert oder deaktiviert.
Erwartet (HTTP und HTTPS) Geben Sie die Zeichenfolge, deren Übereinstimmung die Überwachung erwartet, in die Statuszeile der HTTP- oder HTTPS-Antwort ein (z. B. HTTP/1.1). Methode (HTTP und HTTPS) Wählen Sie die Methode aus, die zum Erkennen des Serverstatus zu verwenden ist. URL (HTTP und HTTPS) Geben Sie die URL ein, die in der Serverstatusanforderung zu verwenden ist. Hinweis: Wenn Sie die POST-Methode auswählen, müssen Sie einen Wert für Senden angeben.Senden (HTTP, HTTPS und UDP) Geben Sie die zu sendenden Daten ein. Empfangen (HTTP, HTTPS und UDP) Geben Sie die Zeichenfolge ein, die im Antwortinhalt abgeglichen werden soll. Hinweis: Wenn Erwartet nicht übereinstimmt, versucht die Überwachung nicht, den Inhalt von Empfangen abzugleichen.Erweiterung (ALLE) Geben Sie erweiterte Überwachungsparameter als Schlüssel=Wert-Paare ein. Beispielsweise bedeutet „warning=10“, dass der Status eines Servers als Warnung festgelegt wird, wenn er nicht innerhalb von 10 Sekunden antwortet. Alle Erweiterungselemente müssen mit einem Wagenrücklaufzeichen getrennt werden. Beispiel: <extension>delay=2 critical=3 escape</extension>
- Klicken Sie zum Beibehalten Ihrer Änderungen auf Behalten.
Beispiel: Erweiterungen unterstützt für jedes Protokoll
Überwachungserweiterung | Beschreibung |
---|---|
no-body | Wartet nicht auf ein Dokumenthauptteil und beendet Lesevorgang nach dem HTTP/HTTPS-Header.
Hinweis: HTTP GET oder HTTP POST wird weiterhin gesendet, und keine HEAD-Methode.
|
max-age=SECONDS | Warnt, wenn ein Dokument älter als SEKUNDEN ist. Die Anzahl kann in der Form „10m“ für Minuten, „10h“ für Stunden oder „10d“ für Tage angegeben werden. |
content-type=STRING | Gibt einen Header-Medientyp „Content-Type“ in POST-Aufrufen an. |
linespan | Lässt zu, dass regex Zeilenvorschübe überbrückt (muss vor „-r“ oder „-R“ stehen). |
regex=STRING oder ereg=STRING | Durchsucht die Seite nach regex-ZEICHENFOLGE. |
eregi=STRING | Durchsucht die Seite nach regex-ZEICHENFOLGE, bei der nicht zwischen Groß- und Kleinschreibung unterschieden wird. |
invert-regex | Gibt CRITICAL zurück, wenn gefunden, und OK, wenn nicht gefunden. |
proxy-authorization=AUTH_PAIR | Gibt Benutzernamen:Kennwort auf Proxyservern mit Standardauthentifizierung an. |
useragent=STRING | Sendet die Zeichenfolge im HTTP-Header als User Agent. |
header=STRING | Sendet alle anderen Tags in den HTTP-Header. Mehrmalige Verwendung für zusätzliche Header. |
onredirect=ok|warning|critical|follow|sticky|stickyport | Gibt an, wie umgeleitete Seiten verarbeitet werden. sticky ist wie follow, aber ist an die angegebene IP-Adresse gebunden. stickyport stellt sicher, dass sich der Port nicht ändert. |
pagesize=INTEGER:INTEGER | Gibt die erforderlichen minimalen und maximalen Seitengrößen in Bytes an. |
warning=DOUBLE | Gibt die Antwortzeit in Sekunden an, nach der ein Warnstatus gemeldet wird. |
critical=DOUBLE | Gibt die Antwortzeit in Sekunden an, nach der ein kritischer Status gemeldet wird. |
Überwachungserweiterung | Beschreibung |
---|---|
sni | Aktiviert die Unterstützung für die SSL/TLS-Hostnamenerweiterung (SNI). |
certificate=INTEGER | Gibt an, wie viele Tage ein Zertifikat mindestens gültig sein muss. Der Port ist standardmäßig auf 443 gesetzt. Wenn diese Option verwendet wird, wird die URL nicht überprüft. |
authorization=AUTH_PAIR | Gibt Benutzernamen:Kennwort auf Sites mit Standardauthentifizierung an. |
Überwachungserweiterung | Beschreibung |
---|---|
escape | Ermöglicht die Verwendung von \n, \r, \t oder \ in einer send- oder quit-Zeichenfolge. Muss einer send- oder quit-Option vorangestellt werden. Standardmäßig wird nichts an „send“ angefügt, und \r\n wird ans Ende von „quit“ angefügt. |
alle | Gibt an, dass alle erwarteten Zeichenfolgen in einer Serverantwort auftreten müssen. Standardmäßig wird any verwendet. |
quit=STRING | Sendet eine Zeichenfolge an den Server, um die Verbindung ordnungsgemäß zu schließen. |
refuse=ok|warn|crit | Akzeptiert TCP-Zurückweisungen mit dem Status ok, warn oder criti. Verwendet standardmäßig den Status crit. |
mismatch=ok|warn|crit | Akzeptiert erwartete Zeichenfolgenkonflikte mit dem Status ok, warn oder crit. Verwendet standardmäßig den Status warn. |
jail | Blendet die Ausgabe im TCP-Socket aus. |
maxbytes=INTEGER | Schließt die Verbindung, wenn mehr als die angegebene Anzahl an Byte empfangen werden. |
delay=INTEGER | Wartet die angegebene Anzahl von Sekunden zwischen dem Senden der Zeichenfolge und dem Abrufen einer Antwort. |
certificate=INTEGER[,INTEGER] | Gibt an, wie viele Tage ein Zertifikat mindestens gültig sein muss. Der erste Wert ist #days für „warning“, und der zweite Wert ist „critical“ (wenn nicht angegeben, -0). |
ssl | Verwendet SSL für die Verbindung. |
warning=DOUBLE | Gibt die Antwortzeit in Sekunden an, nach der ein Warnstatus gemeldet wird. |
critical=DOUBLE | Gibt die Antwortzeit in Sekunden an, nach der ein kritischer Status gemeldet wird. |
Nächste Maßnahme
Fügen Sie Serverpools für Ihren Lastausgleichsdienst hinzu. Weitere Informationen finden Sie unter Hinzufügen eines Serverpools für den Lastausgleich auf einem NSX Data Center for vSphere-Edge-Gateway mithilfe des VMware Cloud Director Service Provider Admin Portal.
Hinzufügen eines Serverpools für den Lastausgleich auf einem NSX Data Center for vSphere-Edge-Gateway mithilfe des VMware Cloud Director Service Provider Admin Portal
Sie können einen Serverpool hinzufügen, um Back-End-Server flexibel und effizient zu verwalten und freizugeben. Ein Pool dient zur Verwaltung von Lastausgleichs-Verteilungsmethoden und ist mit einer Dienstüberwachung für Integritätsprüfungsparameter verbunden.
Prozedur
Nächste Maßnahme
Fügen Sie virtuelle Server für den Lastausgleichsdienst hinzu. Ein virtueller Server hat eine öffentliche IP-Adresse und bedient alle eingehenden Clientanforderungen. Weitere Informationen finden Sie unter Hinzufügen eines virtuellen Servers auf einem NSX Data Center for vSphere-Edge-Gateway mithilfe des VMware Cloud Director Service Provider Admin Portal.
Hinzufügen einer Anwendungsregel auf einem NSX Data Center for vSphere-Edge-Gateway mithilfe des VMware Cloud Director Service Provider Admin Portal
Sie können eine Anwendungsregel schreiben, mit der der IP-Anwendungsdatenverkehr direkt gesteuert und verwaltet werden kann.
Prozedur
Nächste Maßnahme
Ordnen Sie die neue Anwendungsregel einem virtuellen Server für den Lastausgleichsdienst hinzu. Weitere Informationen finden Sie unter Hinzufügen eines virtuellen Servers auf einem NSX Data Center for vSphere-Edge-Gateway mithilfe des VMware Cloud Director Service Provider Admin Portal.
Hinzufügen eines virtuellen Servers auf einem NSX Data Center for vSphere-Edge-Gateway mithilfe des VMware Cloud Director Service Provider Admin Portal
Fügen Sie eine interne oder Uplink-Schnittstelle des NSX Data Center for vSphere-Edge-Gateways als virtuellen Server in VMware Cloud Director hinzu. Ein virtueller Server hat eine öffentliche IP-Adresse und bedient alle eingehenden Clientanforderungen.
Der Lastausgleichsdienst schließt die TCP-Verbindung des Servers standardmäßig nach jeder Clientanforderung.
Prozedur
- Öffnen Sie „Edge-Gateway-Dienste“.
- Wählen Sie im primären linken Navigationsbereich Ressourcen und dann in der oberen Navigationsleiste der Seite die Registerkarte Cloud-Ressourcen aus.
- Wählen Sie im sekundären linken Bereich Edge-Gateways aus.
- Klicken Sie auf das Optionsfeld neben dem Namen des gewünschten Edge-Gateways und anschließend auf Dienste.
- Navigieren Sie zu Lastausgleichsdienst > Virtuelle Server.
- Klicken Sie auf die Schaltfläche Hinzufügen ().
- Konfigurieren Sie auf der Registerkarte Allgemein die folgenden Optionen für den virtuellen Server:
Option Beschreibung Virtuellen Server aktivieren Klicken Sie auf diese Option, um den virtuellen Server zu aktivieren. Beschleunigung aktivieren Klicken Sie auf diese Option, um die Beschleunigung zu aktivieren. Anwendungsprofil Wählen Sie ein Anwendungsprofil aus, das dem virtuellen Server zugeordnet werden soll. Name Geben Sie einen Namen für den virtuellen Server ein. Beschreibung Geben Sie eine optionale Beschreibung für den virtuellen Server ein. IP-Adresse Geben Sie die vom Lastausgleichsdienst überwachte IP-Adresse ein oder suchen Sie nach der Adresse. Protokoll Wählen Sie das vom virtuellen Server akzeptierte Protokoll aus. Sie müssen dasselbe Protokoll auswählen, das vom ausgewählten Anwendungsprofil verwendet wird. Port Geben Sie die vom Lastausgleichsdienst überwachte Portnummer ein. Standardpool Wählen Sie den Serverpool aus, der vom Lastausgleichsdienst verwendet wird. Verbindungsgrenzwert (Optional) Geben Sie die maximale Anzahl an gleichzeitigen Verbindungen ein, die der virtuelle Server verarbeiten kann. Grenzwert für Verbindungsrate (CPS) (Optional) Geben Sie die maximale Anzahl an eingehenden neuen Verbindungsanforderungen pro Sekunde ein. - (Optional) Wenn Sie dem virtuellen Server Anwendungsregeln zuordnen möchten, klicken Sie auf die Registerkarte Erweitert und führen Sie folgende Schritte aus:
- Klicken Sie auf die Schaltfläche Hinzufügen ().
Die für den Lastausgleichsdienst erstellten Anwendungsregeln werden angezeigt. Fügen Sie ggf. Anwendungsregeln für den Lastausgleichsdienst hinzu. Weitere Informationen finden Sie unter Hinzufügen einer Anwendungsregel auf einem NSX Data Center for vSphere-Edge-Gateway mithilfe des VMware Cloud Director Service Provider Admin Portal.
- Klicken Sie auf die Schaltfläche Hinzufügen ().
- Klicken Sie zum Beibehalten Ihrer Änderungen auf Behalten.
Nächste Maßnahme
Erstellen Sie eine Edge-Gateway-Firewallregel, um Datenverkehr zum neuen virtuellen Server (Ziel-IP-Adresse) zuzulassen. Weitere Informationen finden Sie unter Hinzufügen einer NSX Data Center for vSphere-Edge-Gateway-Firewallregel im VMware Cloud Director Service Provider Admin Portal