VMware stellt das High Performance Plug-In (HPP, Hochleistungs-Plug-In) bereit, um die Leistung von Speichergeräten auf Ihrem ESXi-Host zu verbessern.

Das HPP ersetzt das NMP für Hochgeschwindigkeitsgeräte, wie z. B. NVMe. Das HPP ist das Standard-Plug-In, das NVMe-oF-Ziele beansprucht. Innerhalb von ESXi werden die NVMe-oF-Ziele emuliert und den Benutzern als SCSI-Ziele präsentiert. Das HPP unterstützt nur aktiv/aktive und implizite ALUA-Ziele.

In vSphere Version 7.0 Update 1 und früher bleibt NMP das Standard-Plug-In für lokale NVMe-Geräte. Sie können es jedoch durch HPP ersetzen. Ab vSphere 7.0 Update 2 wird HPP das Standard-Plug-In für lokale NVMe- und SCSI-Geräte. Sie können es jedoch durch NMP ersetzen.

HPP-Unterstützung vSphere 7.0 Update 1 vSphere 7.0 Update 2 und Update 3
Speichergeräte Lokale NVMe PCIe

Gemeinsam genutzte NVMe-oF (nur aktiv/aktive und implizite ALUA-Ziele)

Lokales NVMe und SCSI

Gemeinsam genutzte NVMe-oF (nur aktiv/aktive und implizite ALUA-Ziele)

Multipathing Ja Ja
Plug-Ins auf zweiter Ebene Nein

Pfadauswahlschemas (Path Selection Schemes, PSS)

Nein
Dauerhafte SCSI-3-Reservierungen Nein Nein
4Kn-Geräte mit Software-Emulation Nein Ja

Pfadauswahlschemas (Path Selection Schemes)

Zur Unterstützung von Multipathing verwendet das HPP die Pfadauswahlschemas (PSS) bei der Auswahl von physischen Pfaden für E/A-Anforderungen.

Sie können den Befehl vSphere Client oder esxcli verwenden, um den Standard-Pfadauswahlmechanismus zu ändern.

Informationen zum Konfigurieren der Pfadmechanismen im vSphere Client finden Sie unter Ändern der Pfadauswahl-Richtlinie. Informationen zum Konfigurieren mit dem esxcli-Befehl finden Sie unter ESXi- esxcli-HPP-Befehle.

ESXi unterstützt die folgenden Pfadauswahlmechanismen.

FEST
Mit diesem Schema wird ein festgelegter bevorzugter Pfad für E/A-Anforderungen verwendet. Wenn der bevorzugte Pfad nicht zugewiesen ist, wählt der Host den ersten funktionierenden Pfad aus, der beim Systemstart ermittelt wird. Ist der bevorzugte Pfad nicht mehr verfügbar, wählt der Host einen alternativen verfügbaren Pfad aus. Der Host kehrt zum zuvor definierten bevorzugten Pfad zurück, wenn dieser wieder verfügbar ist.

Wenn Sie FEST als Pfadauswahlmechanismus konfigurieren, wählen Sie den bevorzugten Pfad aus.

LB-RR (Lastausgleich – Round Robin)
Dies ist das Standardschema für die von HPP beanspruchten Geräte. Nach der Übertragung einer angegebenen Anzahl von Byte oder E/A-Vorgängen auf einem aktuellen Pfad wählt das Schema den Pfad mithilfe des Round Robin-Algorithmus aus.
Um den LB-RR-Pfadauswahlmechanismus zu konfigurieren, geben Sie die folgenden Eigenschaften an:
  • IOPS gibt die E/A-Anzahl auf dem Pfad an, die als Kriterium zum Wechseln eines Pfads für das Gerät verwendet werden soll.
  • Byte gibt die Byte-Anzahl auf dem Pfad an, die als Kriterium zum Wechseln eines Pfads für das Gerät verwendet werden soll.
LB-IOPS (Lastausgleich – IOPS)
Nach der Übertragung einer angegebenen Anzahl von E/A-Vorgängen auf einem aktuellen Pfad (Standardwert: 1000) wählt das System einen optimalen Pfad aus, der die geringste Anzahl ausstehender E/A-Vorgänge aufweist.

Geben Sie beim Konfigurieren dieses Mechanismus den IOPS-Parameter an, um die E/A-Anzahl auf dem Pfad anzugeben, die als Kriterium zum Wechseln eines Pfads für das Gerät verwendet werden soll.

LB-BYTES (Lastausgleich – Byte)
Nach der Übertragung einer festgelegten Anzahl von Byte auf einem aktuellen Pfad (Standardwert: 10 MB) wählt das System einen optimalen Pfad mit der geringsten Anzahl an ausstehenden Byte aus.

Um diesen Mechanismus zu konfigurieren, verwenden Sie den Parameter Byte, um die Anzahl der Byte auf dem Pfad anzugeben, die als Kriterium zum Wechseln eines Pfads für das Gerät verwendet werden soll.

Lastausgleich – Latenz (LB-Latenz)
Um bessere Ergebnisse beim Lastausgleich zu erzielen, wählt der Mechanismus dynamisch einen optimalen Pfad unter Berücksichtigung der folgenden Pfadmerkmale aus:
  • Der Parameter Zeit für die Latenzauswertung gibt an, in welchem Zeitintervall (in Millisekunden) die Latenz der Pfade ausgewertet werden muss.
  • Der Parameter Sampling-E/As pro Pfad steuert, wie viele Sampling-E/A-Vorgänge auf jedem Pfad ausgegeben werden müssen, um die Latenz des Pfads zu berechnen.

Empfohlene Vorgehensweisen für das HPP

Um den schnellsten Durchsatz mit einem Hochgeschwindigkeits-Speichergerät zu erzielen, sollten Sie diese Empfehlungen beachten.

  • Verwenden Sie die vSphere-Version, die das HPP unterstützt.
  • Verwenden Sie das HPP für lokale NVMe- und SCSI-Geräte sowie für NVMe-oF-Geräte.
  • Wenn Sie NVMe over Fibre Channel-Geräte verwenden, folgen Sie den allgemeinen Empfehlungen für Fibre Channel-Speicher. Weitere Informationen hierzu finden Sie unter Verwenden von ESXi mit Fibre-Channel-SAN.
  • Wenn Sie NVMe-oF verwenden, dürfen Sie keine Transporttypen kombinieren, um auf denselben Namespace zuzugreifen.
  • Stellen Sie bei Verwendung von NVMe-oF-Namespaces sicher, dass die aktiven Pfade dem Host angezeigt werden. Die Namespaces können erst registriert werden, nachdem der aktive Pfad erkannt wurde.
  • Konfigurieren Sie Ihre VMs zur Verwendung von VMware Paravirtual-Controllern. Informationen finden Sie in der Dokumentation vSphere-Administratorhandbuch für virtuelle Maschinen.
  • Legen Sie den latenzsensitiven Schwellenwert fest.
  • Wenn eine einzelne VM einen erheblichen Anteil an der E/A-Arbeitslast des Geräts hat, ziehen Sie die Verteilung des E/A-Durchsatzes auf mehrere virtuelle Festplatten in Betracht. Verbinden Sie die Festplatten mit separaten virtuellen Controllern in der VM.

    Andernfalls wird der E/A-Durchsatz aufgrund der Auslastung des CPU-Kerns, der für die Verarbeitung von E/A-Vorgängen auf einem bestimmten virtuellen Speichercontroller verantwortlich ist, möglicherweise beschränkt.

Weitere Informationen zu Gerätebezeichnern für NVMe-Geräte, die ausschließlich das ID-Format NGUID unterstützen, finden Sie unter NVMe-Geräte mit NGUID-Gerätebezeichnern.