まず ESXi ホスト、KVM ホスト、またはベア メタル サーバを NSX-T Data Center ファブリックに追加してから、トランスポート ノードを設定する必要があります。

ホストまたはベア メタル サーバを NSX-T Data Center オーバーレイの一部にするには、まず NSX-T Data Center ファブリックに追加する必要があります。

トランスポート ノードは、NSX-T Data Center オーバーレイまたは NSX-T Data Center VLAN ネットワークに参加するノードです。

KVM ホストまたはベア メタル サーバの場合は、N-VDS を事前に設定できます。また、NSX Manager で設定を実行することも可能です。 ESXi ホストの場合、N-VDS は常に NSX Manager によって設定されます。

注: テンプレート仮想マシンを使用してトランスポート ノードを作成する場合は、ホストの /etc/vmware/nsx/ に証明書がないことを確認してください。証明書が存在する場合、nsx-proxy は証明書を作成しません。

ベア メタル サーバは、オーバーレイおよび VLAN トランスポート ゾーンをサポートします。管理インターフェイスを使用して、ベア メタル サーバを管理することができます。アプリケーション インターフェイスを使用すると、ベア メタル サーバ上のアプリケーションにアクセスできます。

単一の物理 NIC は、管理 IP インターフェイスとアプリケーション IP インターフェイスの両方に使用される IP アドレスを 1 つ提供します。

デュアル構成物理 NIC は、管理インターフェイス用の物理 NIC および一意の IP アドレスを 1 つずつ提供します。アプリケーション インターフェイス用の物理 NIC および一意の IP アドレスも提供します。

結合構成内の複数の物理 NIC は、管理インターフェイスとアプリケーション インターフェースの両方にデュアル構成物理 NIC と一意の IP アドレスを 1 つずつ提供します。

構成ごとに最大で 4 台の N-VDS スイッチを追加できます。
  • VLAN トランスポート ゾーン用に作成された標準の N-VDS
  • VLAN トランスポート ゾーン用に作成された拡張 N-VDS
  • オーバーレイ トランスポート ゾーン用に作成された標準の N-VDS
  • オーバーレイ トランスポート ゾーン用に作成された拡張 N-VDS

複数の標準オーバーレイ N-VDS スイッチと Edge 仮想マシンが同じホストで実行されている単一ホスト クラスタ トポロジの場合、NSX-T Data Center はトラフィックを分離して、1 番目の N-VDS を経由するトラフィックが 2 番目以降の N-VDS を経由するトラフィックから分離されるようにします。North-South トラフィックと外部ネットワークとの接続を許可するには、各 N-VDS 上の物理 NIC をホスト上の Edge 仮想マシンにマッピングする必要があります。1 番目のトランスポート ゾーンの仮想マシンから送信されるパケットは、外部ルーターまたは外部仮想マシンを経由して、2 番目のトランスポート ゾーン上の仮想マシンにルーティングする必要があります。

前提条件

  • ホストが管理プレーンに追加されていて、接続が確立されている必要があります。
  • トランスポート ゾーンが設定されている必要があります。
  • アップリンク プロファイルが設定されている必要があります。設定されていない場合は、デフォルトのアップリンク プロファイルを使用できます。
  • IP アドレス プールが設定されているか、ネットワーク環境 DHCP が使用できる必要があります。
  • ホスト上で 1 個以上の未使用の物理 NIC が必要です。
  • ホスト名
  • 管理 IP アドレス
  • ユーザー名
  • パスワード
  • (オプション)(KVM) SHA-256 SSL サムプリント
  • (オプション)(ESXi) SHA-256 SSL サムプリント
  • 必要なサードパーティ製パッケージがインストールされていることを確認します。

手順

  1. (オプション) ハイパーバイザー サムプリントを取得して、ホストをファブリックに追加するときに提供できるようにします。
    1. ハイパーバイザー サムプリントの情報を収集します。
      Linux シェルを使用します。
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      ホストで ESXi CLI を使用します。
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. KVM ハイパーバイザーから SHA-256 サムプリントを取得して、KVM ホストでコマンドを実行します。
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. [システム] > [ファブリック] > [ノード] > [ホスト トランスポート ノード] を選択します。
  3. [管理元] フィールドで [スタンドアローン ホスト] を選択し、[+ 追加] をクリックします。
  4. ファブリックに追加するスタンドアローン ホストまたはベア メタル サーバの詳細を入力します。
    オプション 説明
    名前と説明 スタンドアローン ホストまたはベア メタル サーバを識別する名前を入力します。

    必要に応じて、ホストまたはベア メタル サーバで使用するオペレーティング システムの説明を追加することもできます。

    IP アドレス ホストまたはベア メタル サーバの IP アドレスを入力します。
    オペレーティング システム ドロップダウン メニューからオペレーティング システムを選択します。

    ホストまたはベア メタル サーバに応じて、いずれかのサポート対象オペレーティング システムを選択できます。システム要件 を参照してください。

    重要: サポートされている Linux の種類によっては、Linux ディストリビューションを実行しているベアメタル サーバと、ハイパーバイザー ホストとして使用される Linux ディストリビューションの違いを把握しておく必要があります。たとえば、オペレーティング システムとして Ubuntu サーバを選択すると、Linux サーバを実行するベアメタル サーバがセットアップされますが、Ubuntu KVM を選択すると、Linux ハイパーバイザーとして Ubuntu が展開されます。
    ユーザー名とパスワード ホストのユーザー名とパスワードを入力します。
    SHA-256 サムプリント 認証用のホストのサムプリント値を入力します。

    サムプリント値を空白のままにすると、サーバ指定の値を使用するように指示されます。NSX-T Data Center がホストを検出して認証するまで数秒かかります。

  5. (必須) KVM ホストまたはベア メタル サーバの場合は、N-VDS タイプを選択します。
    オプション 説明
    NSX 作成 NSX Manager は N-VDS を作成します。

    このオプションはデフォルトで選択されています。

    事前設定済み N-VDS はすでに設定されています。
    ESXi ホストの場合、N-VDS タイプは常に [NSX 作成] に設定されています。
  6. [標準(すべてのホスト)] モードで動作する N-VDS スイッチを選択する場合は、次のフィールドに値を入力します。1 台のホストに複数の N-VDS スイッチを構成できます。
    オプション 説明
    名前 N-VDS ホスト スイッチの名前を入力します。
    トランスポート ゾーン ドロップダウン メニューから、このトランスポート ノードがあるトランスポート ゾーンを選択します。
    NIOC プロファイル ドロップダウン メニューから ESXi ホストの NIOC プロファイルを選択するか、カスタム NIOC プロファイルを作成します。

    デフォルトの NIOC プロファイルを選択することもできます。

    アップリンク プロファイル ドロップダウン メニューから既存のアップリンク プロファイルを選択するか、アップリンクのカスタム プロファイルを作成します。

    デフォルトのアップリンク プロファイルも使用できます。

    LLDP プロファイル デフォルトでは、NSX-T は LLDP ネイバーから LLDP パケットの受信のみを行います。

    ただし、LLDP パケットを LLDP ネイバーに送信し、LLDP ネイバーから LLDP パケットを受信するように NSX-T を設定できます。

    IP の割り当て [DHCP を使用][IP アドレス プールを使用] または [固定 IP リストを使用] を選択します。

    [固定 IP アドレスのリストを使用] を選択した場合は、IP アドレス、ゲートウェイ、およびサブネット マスクのコンマ区切りのリストを指定する必要があります。

    IP アドレス プール IP 割り当てに [IP アドレス プールを使用] を選択した場合は、IP アドレス プール名を指定します。
    チーミング ポリシー スイッチ マッピング

    トランスポート ノードに物理 NIC を追加します。デフォルトのアップリンクを使用することも、ドロップ ダウン メニューから既存のアップリンクを割り当てることもできます。

    物理 NIC のみの移行

    このフィールドを設定する前に、次の点を考慮してください。

    • 定義されている物理 NIC が使用済み NIC であるか、使用されていない NIC であるかを確認します。
    • ホストの VMkernel インターフェイスを物理 NIC とともに移行する必要があるかどうかを判断します。

    フィールドを次のように設定します。

    • VSS スイッチまたは VDS スイッチから N-VDS スイッチに物理 NIC のみを移行する場合は、[物理 NIC のみの移行] を有効にします。

    • 使用済みの物理 NIC と関連付けられた VMkernel インターフェイス マッピングを移行する場合は、[物理 NIC のみの移行] を無効にします。VMkernel インターフェイスの移行マッピングが指定されている場合は、使用されていない、または使用可能な物理 NIC が N-VDS スイッチに接続されます。

    複数のホスト スイッチを使用しているホストで、次の操作を実行します。
    • すべてのホスト スイッチで物理 NIC のみを移行する場合は、物理 NIC を 1 回の操作で移行できます。
    • VMkernel インターフェイスを移行するホスト スイッチと、物理 NIC のみを移行するホスト スイッチが混在している場合は、次の操作を実行します。
      1. 最初の操作で、物理 NIC のみを移行します。
      2. 次の操作で、VMkernel インターフェイスを移行します。[物理 NIC のみの移行] が無効になっていることを確認します。

    物理 NIC のみの移行と VMkernel インターフェイスの移行は、複数のホストで同時にサポートされません。

    注: 管理ネットワークの NIC を移行するには、関連付けられた VMkernel ネットワークのマッピングを設定し、 [物理 NIC のみの移行] を無効のままにします。管理 NIC のみを移行する場合、ホストの接続は切断されます。

    詳細については、VMkernel の N-VDS スイッチへの移行を参照してください。

    インストール用のネットワーク マッピング

    インストール中に VMkernel を N-VDS スイッチに移行するには、VMkernel を既存の論理スイッチにマッピングします。NSX Manager により、VMkernel が N-VDS 上のマッピングされた論理スイッチに移行されます。

    注意: 管理 NIC が接続されていた VLAN と同じ VLAN に論理スイッチが接続されていて、そこに管理 NIC および管理 VMkernel インターフェイスが移行されることを確認します。vmnic <n> および VMkernel <n> が異なる VLAN に移行された場合は、ホストとの接続が切断されます。
    注意: 固定された物理 NIC の場合は、物理 NIC から VMkernel インターフェイスへのホスト スイッチのマッピングが、トランスポート ノード プロファイルで指定されている設定と一致することを確認します。検証手順の一環として、 NSX-T Data Center はマッピングを検証します。検証が成功すると、VMkernel インターフェイスが正常に N-VDS スイッチに移行したことになります。また、VMkernel インターフェイスを N-VDS スイッチに移行すると、 NSX-T Data Center にホスト スイッチのマッピング設定が保存されなくなるため、アンインストール用のネットワーク マッピングを設定する必要があります。このマッピングが設定されていない場合は、VSS スイッチまたは VDS スイッチに移行し直した後に、vSAN などのサービスとの接続が切断されることがあります。

    詳細については、VMkernel の N-VDS スイッチへの移行を参照してください。

    アンインストール用のネットワーク マッピング

    アンインストール中に VMkernel の移行を元に戻すには、VSS または VDS のポート グループに VMkernel をマッピングして、VMkernel を移行し直す VSS または VDS 上のポート グループを NSX Manager が認識できるようにします。VDS スイッチに移行する場合は、ポート グループのタイプが短期であることを確認します。

    アンインストール中に、vSphere Distributed Virtual Switch 7.0 に作成された NSX-T ポート グループに接続されている VMkernel の移行を元に戻すには、VSS または DVS のポート グループに VMkernel をマッピングして、VMkernel を移行し直す VSS または DVS 上のポート グループを NSX Manager が認識できるようにします。VDS スイッチの場合は、ポート グループのタイプが短期であることを確認します。

    注意: 固定された物理 NIC の場合は、物理 NIC から VMkernel インターフェイスへのトランスポート ノード プロファイルのマッピングが、ホスト スイッチで指定されている設定と一致することを確認します。VMkernel インターフェイスを N-VDS スイッチに移行すると、 NSX-T Data Center にホスト スイッチのマッピング設定が保存されなくなるため、アンインストール用のネットワーク マッピングを設定する必要があります。このマッピングが設定されていない場合は、VSS スイッチまたは VDS スイッチに移行し直した後に、vSAN などのサービスとの接続が切断されることがあります。

    詳細については、VMkernel の N-VDS スイッチへの移行を参照してください。

  7. [パフォーマンス] モードで動作する N-VDS スイッチを選択する場合は、次のフィールドに値を入力します。1 台のホストに複数の N-VDS スイッチを構成できます。
    オプション 説明
    (CPU の設定)

    NUMA ノードのインデックス

    [NUMA ノード インデックス] ドロップダウン メニューで、N-VDS スイッチに割り当てる NUMA ノードを選択します。ノード上にある最初の NUMA ノードは、値 0 で表されます。

    esxcli hardware memory get コマンドを実行して、ホスト上の NUMA ノード数を確認できます。

    注: N-VDS スイッチとアフィニティがある NUMA ノードの数を変更する場合は、NUMA ノード インデックス値を更新することができます。
    (CPU の設定)

    NUMA ノードあたりの LCore 数

    [NUMA ノードあたりの Lcore 数] ドロップダウン メニューで、拡張データパスで使用する必要がある論理コアの数を選択します。

    esxcli network ens maxLcores get コマンドを実行して、NUMA ノード上に作成できる論理コアの最大数を確認できます。

    注: 使用可能な NUMA ノードと論理コアがすべて使用されている場合、トランスポート ノードに追加した新しいスイッチは ENS トラフィック用に有効にすることができません。
  8. 事前設定済みの N-VDS の場合は、次の詳細を提供します。
    オプション 説明
    N-VDS の外部 ID このノードが属するトランスポート ゾーンの N-VDS 名と同じにする必要があります。
    VTEP 仮想トンネル エンドポイントの名前。
  9. [ホスト トランスポート ノード] 画面で接続状態を表示します。構成プロセスでは、各トランスポート ノードにインストール プロセスの進行状況がパーセンテージで表示されます。どのステージでもインストールに失敗した場合は、失敗したステージで使用可能な [解決] リンクをクリックすることで、プロセスを再開できます。
    ホストまたはベアメタル サーバをトランスポート ノードとして追加すると、ホストがトランスポート ノードとして正常に作成された場合にのみ、 NSX Manager との接続状態が UP と表示されます。
  10. または、CLI コマンドを使用して、接続ステータスを表示します。
    • ESXi の場合は、esxcli network ip connection list | grep 1234 コマンドを入力します。
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   [ESTABLISHED]  1000144459  newreno  nsx-cfgagent
       
      
    • KVM で netstat -anp --tcp | grep 1234 コマンドを入力します。
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   [ESTABLISHED] -
    • Windows の場合は、コマンド プロンプトから netstat | find "1234" 入力します。
    • Windows の場合は、コマンド プロンプトから netstat | find "1235" 入力します。
  11. ホストまたはベア メタル サーバに NSX-T Data Center モジュールがインストールされていることを確認します。
    ホストまたはベア メタル サーバを NSX-T Data Center ファブリックに追加すると、一連の NSX-T Data Center モジュールがホストまたはベア メタル サーバにインストールされます。

    次のように、さまざまなホストのモジュールがパッケージ化されています。

    • RHEL、CentOS、SUSE の KVM - RPM
    • Ubuntu の KVM - DEB
    • ESXi で esxcli software vib list | grep nsx コマンドを入力します。

      日付は、インストールの実行日です。

    • RHEL または CentOS で yum list installed コマンドまたは rpm -qa コマンドを入力します。
    • Ubuntu で dpkg --get-selections コマンドを入力します。
    • SUSE で rpm -qa | grep nsx コマンドを入力します。
    • Windows の場合は、タスク マネージャーを開きます。あるいは、コマンド ラインで「tasklist /V | grep nsx findstr “nsx ovs」と入力します。
  12. (オプション) 500 台以上のハイパーバイザーを使用している場合は、特定のプロセッサのポーリング間隔を変更します。
    500 台を超えるハイパーバイザーがある場合は、 NSX Manager の CPU 使用率が上昇し、パフォーマンス上の問題が発生することがあります。
    1. NSX-T Data Center CLI コマンド copy file または API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file を使用して、aggsvc_change_intervals.py スクリプトをホストにコピーします。
    2. NSX-T Data Center ファイル ストアにあるスクリプトを実行します。
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (オプション) ポーリング間隔をデフォルト値に戻します。
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

結果

注: NSX-T Data Center で作成された N-VDS の場合、トランスポート ノードの作成後に、トンネル エンドポイントへの IP アドレスの割り当てなどの設定を変更するには、ホストの CLI ではなく NSX Manager の GUI から行う必要があります。

次のタスク

vSphere 標準スイッチから N-VDS スイッチにネットワーク インターフェイスを移行します。 VMkernel の N-VDS スイッチへの移行 を参照してください。