VMware fournit High Performance Plug-In (HPP) pour améliorer les performances des périphériques de stockage sur les hôtes ESXi.

Le HPP remplace le NMP pour les périphériques à haute vitesse, tels que les dispositifs NVMe. Le plug-in HPP est le plug-in par défaut qui réclame les cibles NVMe-oF. Dans ESXi, les cibles NVMe-oF sont émulées et présentées aux utilisateurs en tant que cibles SCSI. Le HPP prend uniquement en charge les cibles ALUA actives/actives et implicites.

À partir de vSphere 7.0 Update 2, HPP devient le plug-in par défaut pour les périphériques NVMe et SCSI locaux, mais vous pouvez le remplacer par NMP.

Prise en charge de HPP vSphere 7.0 Update 2 et versions ultérieures
Périphériques de stockage NVMe et SCSI locaux

NVMe-oF partagé (cibles ALUA actives/actives et implicites uniquement)

Gestion multivoie Oui
Plug-ins de second niveau Non
Réservations persistantes SCSI-3 Non
Périphériques 4Kn avec émulation logicielle Oui

Path Selection Schemes

Pour prendre en charge la gestion multivoie, le HPP utilise les schémas PSS (Path Selection Schemes) lors de la sélection de chemins physiques pour les demandes d'E/S.

Vous pouvez utiliser vSphere Client ou la commande esxcli pour modifier le mécanisme de sélection de chemin par défaut.

Pour plus d'informations sur la configuration des mécanismes de chemin d'accès dans vSphere Client, reportez-vous à Modification de la stratégie de sélection de chemin d'accès. Pour la configuration avec la commande esxcli, reportez-vous à Commandes esxcli HPP d'ESXi.

ESXi prend en charge les mécanismes de sélection de chemin d'accès suivants.

FIXE
Avec ce schéma, un chemin préféré désigné est utilisé pour les demandes d'E/S. Si le chemin préféré n'est pas attribué, l'hôte sélectionne le premier chemin opérationnel détecté au moment du démarrage. Si le chemin préféré devient non disponible, l'hôte sélectionne un autre chemin disponible. L'hôte renvoie le chemin préféré précédemment défini lorsqu'il devient à nouveau disponible.

Lorsque vous configurez FIXED en tant que mécanisme de sélection de chemin d'accès, sélectionnez le chemin préféré.

LB-RR (Load Balance - Round Robin)
Il s'agit du schéma par défaut pour les périphériques revendiqués par HPP. Après le transfert d'un nombre spécifié d'octets ou d'E/S sur un chemin actuel, le schéma sélectionne le chemin d'accès à l'aide de l'algorithme de répétition alternée.
Pour configurer le mécanisme de sélection de chemin d'accès LB-RR, spécifiez les propriétés suivantes :
  • IOPS indique le nombre d'E/S sur le chemin à utiliser comme critère de basculement d'un chemin d'accès pour le périphérique.
  • Octets indique le nombre d'octets sur le chemin à utiliser comme critère de basculement d'un chemin d'accès pour le périphérique.
LB-IOPS (Load Balance - IOPs)
Après le transfert d'un nombre spécifié d'E/S sur un chemin actuel, la valeur par défaut est 1000, le système sélectionne un chemin optimal ayant le moins d'E/S en attente.

Lors de la configuration de ce mécanisme, spécifiez le paramètre IOPS pour indiquer le nombre d'E/S sur le chemin à utiliser comme critère de basculement d'un chemin d'accès pour le périphérique.

LB-BYTES (Load Balance - Bytes)
Après le transfert d'un nombre spécifié d'octets sur un chemin actuel, la valeur par défaut est 10 Mo, le système sélectionne un chemin optimal ayant le moins d'octets en attente.

Pour configurer ce mécanisme, utilisez le paramètre Octets pour indiquer le nombre d'octets sur le chemin à utiliser comme critère de basculement d'un chemin d'accès pour le périphérique.

Load Balance - Latency (LB-Latency)
Pour atteindre de meilleurs résultats d'équilibrage de charge, le mécanisme sélectionne dynamiquement un chemin d'accès optimal en tenant compte des caractéristiques de chemin d'accès suivants :
  • Le paramètre Durée d'évaluation de la latence indique à quel intervalle de temps, en millisecondes, la latence des chemins d'accès doit être évaluée.
  • Le paramètre Exemple d'E/S par chemin contrôle le nombre d'exemples d'E/S qui doivent être émis sur chaque chemin pour calculer la latence du chemin d'accès.

Meilleures pratiques liées au HPP

Pour obtenir le débit le plus rapide d'un périphérique de stockage à haute vitesse, suivez ces recommandations.

  • Utilisez la version vSphere qui prend en charge le HPP.
  • Utilisez HPP pour les périphériques NVMe et SCSI locaux, et les périphériques NVMe-oF.
  • Si vous utilisez des périphériques NVMe over Fibre Channel, suivez les recommandations générales pour le stockage Fibre Channel. Reportez-vous à la section Utilisation d'ESXi avec un SAN Fibre Channel.
  • Si vous utilisez NVMe-oF, ne mélangez pas les types de transport pour accéder au même espace de noms.
  • Lors de l'utilisation d'espaces de noms NVMe-oF, assurez-vous que les chemins actifs sont présentés à l'hôte. Les espaces de noms ne peuvent pas être enregistrés tant que le chemin actif n'est pas découvert.
  • Configurez vos machines virtuelles afin d'utiliser des contrôleurs VMware Paravirtual. Consultez la documentation de Administration d'une machine virtuelle vSphere.
  • Définissez le seuil sensible de latence.
  • Si une seule machine virtuelle effectue une part importante de la charge de travail d'E/S du périphérique, envisagez de répartir les E/S sur plusieurs disques virtuels. Attachez les disques à des contrôleurs virtuels séparés de la machine virtuelle.

    Sinon, le débit d'E/S pourrait être limité en raison de la saturation du processeur principal responsable du traitement des E/S sur un contrôleur de stockage virtuel particulier.

Pour plus d'informations sur les identifiants de périphérique pour les périphériques NVMe qui prennent uniquement en charge le format d'ID NGUID, reportez-vous à la section Périphériques NVMe avec identifiants de périphérique NGUID.