ESXi ホストのアダプタ構成プロセスでは、TCP ネットワーク アダプタの VMkernel バインドを設定してから、NVMe over TCP のソフトウェア アダプタを追加します。その後、NVMe コントローラを追加できます。

構成プロセス全体で、次のアクションを実行します。
アクション 説明
ESXi ホストに、NVMe over TCP テクノロジーをサポートするアダプタをインストールします。 例:i40en。
NVMe over TCP アダプタの VMkernel バインドの構成 NVMe over TCP で VMkernel バインドを行うには、仮想スイッチを作成し、物理ネットワーク アダプタと VMkernel アダプタを仮想スイッチに接続します。この接続を介して、TCP アダプタが VMkernel アダプタにバインドされます。この構成では、vSphere 標準スイッチまたは vSphere Distributed Switch を使用できます。
ソフトウェア NVMe over TCP アダプタの追加 vSphere Client を使用して、NVMe over TCP のソフトウェア ストレージ アダプタを有効にします。
NVMe over Fabrics のコントローラの追加 NVMe コントローラを追加するには、vSphere Client を使用します。コントローラを追加すると、コントローラに関連付けられている NVMe 名前空間を ESXi ホストで使用できるようになります。ESXi 環境内の名前空間を表す NVMe ストレージ デバイスが、ストレージ デバイス リストに表示されます。

NVMe over TCP アダプタの VMkernel バインドの構成

NVMe over TCP でポートのバインドを行うには、仮想スイッチを作成し、物理ネットワーク アダプタと VMkernel アダプタを仮想スイッチに接続します。この接続を介して、TCP アダプタが VMkernel アダプタにバインドされます。この構成では、vSphere 標準スイッチまたは vSphere Distributed Switch を使用できます。

次の図は、NVMe over TCP アダプタのポート バインドを示しています。

この図は、NVMe over TCP アダプタのポート バインドを示しています。

スイッチの作成に関する詳細については、ドキュメント『vSphere のネットワーク』の「vSphere 標準スイッチの作成」または「vSphere Distributed Switch の作成」を参照してください。

NVMe over TCP を使用したネットワーク トポロジの例

この例では、ホスト上の 2 つの vSphere 標準スイッチおよび 2 つのネットワーク アダプタ (vmnic) が高可用性を実現しています。これらは 2 つの外部スイッチに接続されています。

NVMe over TCP アダプタ用のネットワーク トポロジの構成。

vSphere 標準スイッチを使用した TCP アダプタの VMkernel バインドの構成

vSphere 標準スイッチとスイッチごとに 1 つのアップリンクを使用して、TCP アダプタの VMkernel バインドを構成できます。ネットワーク接続の構成には、各物理ネットワーク アダプタへの仮想 VMkernel アダプタの作成が含まれます。各仮想および物理ネットワーク アダプタ間で 1:1 のマッピングを使用します。

手順

  1. VMkernel アダプタとネットワーク コンポーネントを使用して vSphere 標準スイッチを作成します。
    1. vSphere Client で、ホストを選択し、[ネットワーク] タブをクリックします。
    2. [アクション] > [ネットワークの追加] の順にクリックします。
    3. [VMkernel ネットワーク アダプタ] を選択し、[次へ] をクリックします。
    4. [新しい標準スイッチ] を選択し、[次へ] をクリックします。
    5. [割り当てられたアダプタ] で、[+] をクリックします。
      使用可能な物理アダプタのリストが表示されます。
    6. 必要な物理アダプタ vmnic を選択し、[OK] をクリックします。
      注: TCP/IP アダプタに対応する物理ネットワーク アダプタを選択してください。
    7. [VMkernel ポート設定] で、必要な値を入力します。
      ストレージ パスに VLAN を使用している場合は、VLAN ID を入力します。
    8. [IP 設定] リストで、VMkernel IPv4 設定を入力します。
    9. 適切にタグ付けするには、[使用可能なサービス][NVMe over TCP] を選択します。
  2. スイッチが正しく構成されていることを確認します。
    1. [構成] タブの [ネットワーク] の下で、[仮想スイッチ] を選択します。
    2. スイッチを展開し、構成を確認します。

      次の図は、物理ネットワーク アダプタと VMkernel アダプタが vSphere 標準スイッチに接続されていることを示しています。この接続を介して、TCP アダプタが VMkernel アダプタにバインドされます。

      この図は、物理ネットワーク アダプタと VMkernel アダプタを接続する vSphere 標準スイッチを示しています。

  3. vSphere 標準スイッチの NIC チーミング ポリシーを設定します。
    注: NVMe over TCP アダプタは、フェイルオーバーやロード バランシングなどの NIC チーミング機能をサポートしていません。代わりに、ストレージ マルチパスを利用してこれらの機能を実行します。ただし、NVMe over TCP アダプタを提供するアップリンク上の他のネットワーク ワークロードに NIC チーミングを構成する必要がある場合は、次の手順を実行してください。
    1. [構成] タブをクリックし、[ネットワーク] の下で [仮想スイッチ] を選択します。
    2. 適切な VMkernel アダプタを選択します。
    3. 右クリックし、コンテキスト メニューで [設定の編集] をクリックします。
    4. [チーミングおよびフェイルオーバー] を選択します。
    5. [有効なアダプタ] に、必要な物理アダプタ vmnic を移動します。
    6. [スタンバイ アダプタ] > [フェイルオーバーの順序] に、他の物理アダプタを移動します。
    7. 適切なロード バランシングと他のプロパティを設定します。
    8. この手順を繰り返して、追加の VMkernel アダプタを設定します。
    アダプタが構成されているかどうかを確認するには、 [構成] タブをクリックし、 [VMkernel アダプタ] を選択します。

vSphere Distributed Switch を使用した TCP アダプタの VMkernel バインドの構成

vSphere Distributed Switch とスイッチごとに 1 つのアップリンクを使用して、TCP アダプタの VMkernel ポート バインドを構成できます。ネットワーク接続の構成には、各物理ネットワーク アダプタへの仮想 VMkernel アダプタの作成が含まれます。各仮想および物理ネットワーク アダプタ間で 1:1 のマッピングを使用します。

手順

  1. VMkernel アダプタとネットワーク コンポーネントを使用して vSphere Distributed Switch を作成します。
    1. vSphere Client[データセンター] を選択し、[ネットワーク] タブをクリックします。
    2. [アクション] をクリックし、[Distributed Switch] > [新しい Distributed Switch] の順に選択します。
    3. スイッチの名前を選択します。
      データセンターの場所がホスト内にあることを確認して、 [次へ] をクリックします。
    4. 互換性のある ESXi バージョンを選択して、[次へ] をクリックします。
    5. 必要なアップリンク数を入力し、[終了] をクリックします。
  2. 1 台以上のホストを Distributed Switch に追加します。
    1. vSphere Client[データセンター] を選択し、[Distributed Switch] をクリックします。
      使用可能な DSwitch のリストが表示されます。
    2. DSwitch を右クリックし、メニューから [ホストの追加と管理] を選択します。
    3. [ホストの追加] を選択し、[次へ] をクリックします。
    4. ホストを選択して、[次へ] をクリックします。
    5. [アップリンクの割り当て] を選択します。
    6. vmnic に割り当てる適切なアップリンクを入力します。
    7. VMkernel アダプタを割り当てて、[次へ] をクリックします。
    8. vSphere Client で DSwitch を選択し、[ポート] タブをクリックします。
      ここで、スイッチに対して作成されたアップリンクを確認できます。
  3. NVMe over TCP ストレージ パス用に分散ポート グループを作成します。
    1. vSphere Client で、必要な DSwitch を選択します。
    2. [アクション] をクリックし、[分散ポート グループ] > [新しい分散ポート グループ] の順に選択します。
    3. [設定] で、ポート グループの全般プロパティを入力します。
      特定の VLAN を構成済みの場合は、それを VLAN ID に追加します。
      注: VLAN を適切に構成しないと、ネットワーク接続の問題が発生する可能性があります。
  4. VMkernel アダプタを構成します。
    1. vSphere Client で、[DSwitch] リストを展開し、分散ポート グループを選択します。
    2. [アクション] > [VMkernel アダプタの追加] の順にクリックします。
    3. [メンバー ホストの選択] ダイアログ ボックスで、ホストを選択し、[OK] をクリックします。
    4. [VMkernel アダプタの設定] ダイアログ ボックスで、MTU がスイッチの MTU と一致していることを確認します。
    5. [終了] をクリックします。
    6. TCP 対応の複数の NIC を追加するには、手順 b と手順 c を繰り返します。
  5. 分散ポート グループの NIC チーミング ポリシーを設定します。
    注: NVMe over TCP アダプタは、フェイルオーバーやロード バランシングなどの NIC チーミング機能をサポートしていません。代わりに、ストレージ マルチパスを利用してこれらの機能を実行します。ただし、NVMe over TCP アダプタを提供するアップリンク上の他のネットワーク ワークロードに NIC チーミングを構成する必要がある場合は、次の手順を実行してください。
    1. [分散ポート グループ] で、[アクション] > [設定の編集] の順にクリックします。
    2. [チーミングおよびフェイルオーバー] をクリックし、アクティブなアップリンクを確認します。
    3. 1 つのアップリンクを [アクティブ] としてポート グループに割り当て、他のアップリンクを [未使用] として割り当てます。
      作成された各ポート グループについて、手順 c を繰り返します。

次のタスク

構成が完了したら、 [構成] をクリックし、選択されている NIC の DVSwitch がホストの物理アダプタ タブに表示されているかどうかを確認します。

ソフトウェア NVMe over RDMA または NVMe over TCP アダプタの追加

ESXi では、NVMe over RDMA および NVMe over TCP ソフトウェア アダプタがサポートされています。NVMe over RDMA または NVMe over TCP のソフトウェア ストレージ アダプタを追加するには、vSphere Client を使用します。

前提条件

手順

  1. vSphere Client で、ESXi ホストに移動します。
  2. [設定] タブをクリックします。
  3. [ストレージ] で、[ストレージ アダプタ][ソフトウェア アダプタの追加] アイコンの順にクリックします。
  4. 必要なアダプタ タイプを選択します。
    • [NVMe over RDMA アダプタ]
    • [NVMe over TCP アダプタ]
  5. 手順 4 での選択に応じて、ドロップダウン メニューから適切な RDMA アダプタまたは TCP ネットワーク アダプタ (vmnic) を選択します。
    注: ソフトウェア アダプタを作成できないことを示すエラー メッセージが表示される場合は、アダプタの VMkernel バインドが正しく構成されていることを確認します。詳細については、『 RDMA アダプタの VMkernel バインドの構成』および『 NVMe over TCP アダプタの VMkernel バインドの構成』を参照してください。

結果

ソフトウェア NVMe over RDMA アダプタおよび NVMe over TCP アダプタが vmhba ストレージ アダプタとしてリストに表示されます。他の目的で、基盤となる RDMA および TCP ネットワーク アダプタを解放する必要がある場合は、アダプタを削除できます。 ESXi ホストからのソフトウェア NVMe アダプタの削除を参照してください。

NVMe over Fabrics のコントローラの追加

NVMe コントローラを追加するには、vSphere Client を使用します。コントローラを追加すると、コントローラに関連付けられている NVMe 名前空間を ESXi ホストで使用できるようになります。ESXi 環境内の名前空間を表す NVMe ストレージ デバイスが、ストレージ デバイス リストに表示されます。

前提条件

注: NVMe over Fibre Channel を使用すると、必要なアダプタをインストールした後、その時点で到達可能なすべてのターゲットへの接続が自動的に行われます。後でアダプタを再設定し、コントローラの切断や、ホストの起動時には使用できなかった他のコントローラの接続を行うことができます。

手順

  1. vSphere Client で、ESXi ホストに移動します。
  2. [設定] タブをクリックします。
  3. [ストレージ] で、[ストレージ アダプタ] をクリックし、設定するアダプタ (vmhba#) を選択します。
  4. [コントローラ] タブをクリックして、[コントローラの追加] をクリックします。
  5. [コントローラの追加] ダイアログ ボックスで、次のいずれかの検出方法を選択します。
    オプション 説明
    自動 このオプションは、ホストがコントローラを自動的に検出し、使用可能なコントローラへの接続を許可することを示します。
    1. コントローラを検出するための次のパラメータを指定します。
      • NVMe over RDMA (RoCE v2) の場合は、IP アドレスと転送ポート番号。
      • NVMe over TCP の場合は、IP アドレス、転送ポート番号、ダイジェスト パラメータ。
    2. [コントローラの検出] をクリックします。
    3. コントローラのリストから、使用するコントローラを選択します。
    手動 この方法では、コントローラの詳細を手動で入力します。ホストは、指定されたパラメータを使用して特定のコントローラへの接続を要求します。
    • サブシステム NQN
    • ターゲット ポートの ID。
      • NVMe over RDMA (RoCE v2) の場合は、IP アドレスと転送ポート番号(オプション)。
      • NVMe over TCP の場合は、IP アドレス、転送ポート番号(オプション)、ダイジェスト パラメータ(オプション)。
      • NVMe over Fibre Channel の場合は、WorldWideNodeName および WorldWidePortName。
    • 管理キューのサイズ。コントローラの管理キューのサイズを指定するオプションのパラメータ。デフォルト値は 16 です。
    • キープアライブ タイムアウト。アダプタとコントローラ間のキープ アライブ タイムアウト値を秒単位で指定するオプションのパラメータ。デフォルトのタイムアウト値は 60 秒です。
    注: I/O キュー サイズと I/O キュー番号は、 esxcli を使用した場合にのみ設定できるオプションのパラメータです。

結果

コントローラがコントローラのリストに表示されます。これでホストは、コントローラに関連付けられている NVMe 名前空間を検出できるようになります。ESXi 環境内の名前空間を表す NVMe ストレージ デバイスが、vSphere Client のストレージ デバイス リストに表示されます。