VMware は、ESXi ホスト上のストレージ デバイスのパフォーマンスを向上させる高性能プラグイン (HPP) を提供します。
HPP は、NVMe などの高速デバイスの NMP に代わる機能です。HPP は、NVMe-oF のターゲットを要求するデフォルトのプラグインです。ESXi 内では、NVMe-oF ターゲットがエミュレートされ、ユーザーに SCSI ターゲットとして提示されます。HPP は、アクティブ/アクティブおよび暗黙的な ALUA ターゲットのみをサポートします。
vSphere バージョン 7.0 Update 1 以前では、NMP はローカルの NVMe デバイスのデフォルト プラグインのままですが、HPP に置き換えることができます。vSphere 7.0 Update 2 以降では、HPP がローカルの NVMe および SCSI デバイスのデフォルト プラグインになりますが、NMP に置き換えることができます。
HPP のサポート | vSphere 7.0 Update 1 | vSphere 7.0 Update 2 および Update 3 |
---|---|---|
ストレージ デバイス | ローカル NVMe PCIe 共有 NVMe-oF(アクティブ/アクティブおよび暗黙的な ALUA ターゲットのみ) |
ローカルの NVMe および SCSI 共有 NVMe-oF(アクティブ/アクティブおよび暗黙的な ALUA ターゲットのみ) |
マルチパス | はい | はい |
第 2 レベルのプラグイン | なし パス選択スキーム (PSS) |
なし |
SCSI-3 の永続的な予約 | なし | なし |
ソフトウェア エミュレーションを含む 4Kn デバイス | なし | はい |
パス選択スキーム
マルチパスをサポートするため、HPP は、I/O 要求の物理パスを選択するときにパス選択スキーム (PSS) を使用します。
デフォルトのパス選択メカニズムは、vSphere Client または esxcli コマンドを使用して変更できます。
vSphere Client でのパス メカニズムの設定の詳細については、パス選択ポリシーの変更を参照してください。esxcli コマンドを使用して設定するには、ESXi esxcli HPP コマンドを参照してください。
ESXi は、次のパス選択メカニズムをサポートします。
- 固定
-
このスキームでは、指定した優先パスが I/O 要求に使用されます。優先パスが割り当てられていない場合、ホストは起動時に検出された使用可能な最初のパスを選択します。優先パスが使用できなくなると、ホストは使用可能な代替パスを選択します。ホストは、定義済みの優先パスが再び使用可能になると、そのパスに戻ります。
パス選択メカニズムとして [固定] を設定する場合は、優先パスを選択します。
- LB-RR(ロード バランシング - ラウンド ロビン)
-
これは、HPP が要求するデバイスのデフォルトのスキームです。現在のパスの、指定したバイト数または I/O を転送した後、このスキームはラウンド ロビン アルゴリズムを使用してパスを選択します。
[LB-RR] パス選択メカニズムを設定するには、次のプロパティを指定します。
- [IOPS]:デバイスのパスを切り替える基準として使用するパスの I/O 数を示します。
- [バイト]:デバイスのパスを切り替える基準として使用するパスのバイト数を示します。
- LB-IOPS(ロード バランシング - IOPS)
-
現在のパスの、指定した数の I/O(デフォルトは 1000)を転送した後、システムは未処理の I/O が最も少ない最適なパスを選択します。
このメカニズムを設定する場合は、デバイスのパスを切り替える基準として使用されるパスの I/O 数を示す、[IOPS] パラメータを指定します。
- LB-BYTES(ロード バランシング - バイト)
-
現在のパスで、指定したバイト数(デフォルトは 10 MB)を転送した後、システムは未処理のバイト数が最も少ない最適なパスを選択します。
このメカニズムを設定するには、デバイスのパスを切り替える基準として使用されるパスのバイト数を示す、[バイト] パラメータを使用します。
- ロード バランシング - 遅延(LB-遅延)
-
ロード バランシングの結果を向上させるために、このメカニズムでは、以下のパス特性を考慮して最適なパスを動的に選択します。
- [遅延評価時間] パラメータは、パスの遅延を評価する間隔(ミリ秒)を示します。
- [パスごとのサンプリング I/O] パラメータは、パスの遅延を計算するための、各パスで発行する サンプル I/O の数を制御します。
HPP のベスト プラクティス
高速ストレージ デバイスからのスループットを最大限にするには、次の推奨事項を実行します。
- HPP をサポートするバージョンの vSphere を使用してください。
- ローカルの NVMe および SCSI デバイスと NVMe-oF デバイスに HPP を使用してください。
- NVMe over Fibre Channel デバイスを使用する場合は、ファイバ チャネル ストレージに関する一般的な推奨事項を実行してください。ESXi とファイバ チャネル SAN との併用を参照してください。
- NVMe-oF を使用する場合は、異なる転送タイプを使用して同じ名前空間にアクセスしないでください。
- NVMe-oF の名前空間を使用する場合は、アクティブ パスがホストに提示されていることを確認してください。アクティブなパスが検出されるまで、名前空間は登録できません。
- VMware 準仮想化コントローラを使用するように仮想マシンを構成します。『vSphere の仮想マシン管理』ドキュメントを参照してください。
- 遅延の影響を受けるしきい値を設定します。
- 単一の仮想マシンがデバイスの I/O ワークロードの大幅な共有を推進する場合、複数の仮想ディスク間で I/O を分散することを検討します。仮想マシンの個別の仮想コントローラにディスクを接続します。
そうしない場合、特定の仮想ストレージ コントローラの I/O を処理する CPU コアが飽和状態になり、I/O スループットが制限される可能性があります。
NGUID ID 形式のみをサポートする NVMe デバイスのデバイス識別子については、NGUID デバイス識別子を持つ NVMe デバイスを参照してください。