まず ESXi ホストと KVM ホストを NSX-T Data Center ファブリックに追加してから、トランスポート ノードを構成する必要があります。

ホストを NSX-T Data Center オーバーレイの一部にするには、まず NSX-T Data Center ファブリックに追加する必要があります。

トランスポート ノードは、NSX-T Data Center オーバーレイまたは NSX-T Data Center VLAN ネットワークに参加するノードです。

KVM ホストの場合は、N-VDS を事前に構成できます。また、NSX Manager で構成を実行することも可能です。 ESXi ホストの場合、N-VDS は常に NSX Manager によって構成されます。

注: テンプレート仮想マシンを使用してトランスポート ノードを作成する場合は、ホストの /etc/vmware/nsx/ に証明書がないことを確認してください。証明書が存在する場合、nsx-proxy は証明書を作成しません。
構成ごとに最大で 4 台の N-VDS スイッチを追加できます。
  • VLAN トランスポート ゾーン用に作成された標準の N-VDS
  • VLAN トランスポート ゾーン用に作成された拡張 N-VDS
  • オーバーレイ トランスポート ゾーン用に作成された標準の N-VDS
  • オーバーレイ トランスポート ゾーン用に作成された拡張 N-VDS

複数の標準オーバーレイ N-VDS スイッチと Edge 仮想マシンが同じホストで実行されている単一ホスト クラスタ トポロジの場合、NSX-T Data Center はトラフィックを分離して、1 番目の N-VDS を経由するトラフィックが 2 番目以降の N-VDS を経由するトラフィックから分離されるようにします。North-South トラフィックと外部ネットワークとの接続を許可するには、各 N-VDS 上の物理 NIC をホスト上の Edge 仮想マシンにマッピングする必要があります。1 番目のトランスポート ゾーンの仮想マシンから送信されるパケットは、外部ルーターまたは外部仮想マシンを経由して、2 番目のトランスポート ゾーン上の仮想マシンにルーティングする必要があります。

前提条件

  • ホストが管理プレーンに追加されていて、接続が確立されている必要があります。
  • NSX Manager クラスタのすべてのノードで、リバース プロキシ サービスが稼動中になっている必要があります。

    確認するには、get service http を実行します。サービスが停止している場合は、各 NSX Manager ノードで restart service http を実行して、サービスを再起動します。サービスが停止している場合は、VMware サポートにお問い合わせください。

  • トランスポート ゾーンが構成されている必要があります。
  • アップリンク プロファイルが構成されている必要があります。構成されていない場合は、デフォルトのアップリンク プロファイルを使用できます。
  • IP アドレス プールが構成されているか、ネットワーク環境 DHCP が使用できる必要があります。
  • ホスト上で 1 個以上の未使用の物理 NIC が必要です。
  • ホスト名
  • 管理 IP アドレス
  • ユーザー名
  • パスワード
  • (オプション)(KVM) SHA-256 SSL サムプリント
  • (オプション)(ESXi) SHA-256 SSL サムプリント
  • 必要なサードパーティ製パッケージがインストールされていることを確認します。

手順

  1. (オプション) ハイパーバイザー サムプリントを取得して、ホストをファブリックに追加するときに提供できるようにします。
    1. ハイパーバイザー サムプリントの情報を収集します。
      Linux シェルを使用します。
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      ホストで ESXi CLI を使用します。
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. KVM ハイパーバイザーから SHA-256 サムプリントを取得して、KVM ホストでコマンドを実行します。
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. NSX-T Data Center 3.2.1 以前のバージョン)[システム] → [ファブリック] → [ノード] > [ホスト トランスポート ノード] を選択します。
  3. NSX-T Data Center 3.2.1 以前のバージョン)[管理元] ドロップダウン フィールドから [スタンドアローン ホスト] を選択し、[+ ホスト ノードの追加] をクリックします。
  4. (NSX-T Data Center 3.2.2) [システム] → [ファブリック] → [ホスト] を選択します。
  5. (NSX-T Data Center 3.2.2) [スタンドアローン] タブを選択し、[+ ホスト ノードの追加] をクリックします。
  6. [ホストの詳細] ページで、次のフィールドの詳細を入力します。
    オプション 説明
    名前 スタンドアローン ホストを識別する名前を入力します。
    IP アドレス ホスト IP アドレスを入力します。
    オペレーティング システム ドロップダウン メニューからオペレーティング システムを選択します。

    ホストに応じて、いずれかのサポート対象オペレーティング システムを選択できます。システム要件 を参照してください。

    ユーザー名とパスワード ホストのユーザー名とパスワードを入力します。
    SHA-256 サムプリント 認証用のホストのサムプリント値を入力します。

    サムプリント値を空白のままにすると、サーバ指定の値を使用するように指示されます。NSX-T Data Center がホストを検出して認証するまで数秒かかります。

    説明 (オプション)ホストの説明を追加します。
    タグ タグを追加して、タグの範囲を定義します。
  7. (必須) KVM ホストの場合は、N-VDS タイプを選択します。
    オプション 説明
    NSX 作成 NSX Manager は N-VDS を作成します。

    このオプションはデフォルトで選択されています。

    事前構成済み N-VDS はすでに構成されています。
    ESXi ホストの場合、N-VDS タイプは常に [NSX 作成] に設定されています。
  8. [ホストの準備] タブで、スタンドアローン ホストの準備に使用するホスト スイッチを構成します。1 台のホストに複数の N-VDS スイッチを構成できます。
  9. [ホスト スイッチの追加] をクリックして、[NVDS] を選択します。
    オプション 説明
    名前 NVDS ホスト スイッチの名前を入力します。
    モード NVDS スイッチを使用するモードを選択します。
    • 標準
    • 拡張データパス
    • ENS 割り込み
    トランスポート ゾーン ドロップダウン メニューから、このトランスポート ノードにまたがるトランスポート ゾーンを選択します。
    アップリンク プロファイル ドロップダウン メニューから既存のアップリンク プロファイルを選択するか、アップリンクのカスタム プロファイルを作成します。デフォルトのアップリンク プロファイルも使用できます。

    トランスポート ノード上の複数の N-VDS ホスト スイッチは、同じ VLAN セグメントまたは VTEP プールに属している場合も、別の VLAN セグメントまたは VTEP IP プールに属している場合もあります。

    異なる N-VDS ホスト スイッチに異なるトランスポート VLAN セグメントを構成すると、アンダーレイの追加トラフィックを分離できます。

    NIOC プロファイル ホスト スイッチに適用する NIOC プロファイルを選択します。
    LLDP プロファイル デフォルトでは、NSX-T は LLDP ネイバーから LLDP パケットの受信のみを行います。

    ただし、LLDP パケットを LLDP ネイバーに送信し、LLDP ネイバーから LLDP パケットを受信するように NSX-T を設定できます。

    チーミング ポリシー アップリンク マッピング

    アップリンクを物理 NIC にマッピングします。NSX Manager がホストの物理 NIC を取得できない場合は、NIC を手動で入力してマッピングを完了します。

    物理 NIC のみの移行

    このフィールドを設定する前に、次の点を考慮してください。

    • 定義されている物理 NIC が使用済み NIC であるか、使用されていない NIC であるかを確認します。
    • ホストの VMkernel インターフェイスを物理 NIC とともに移行する必要があるかどうかを判断します。

    フィールドを次のように設定します。

    • VSS スイッチまたは VDS スイッチから N-VDS スイッチに物理 NIC のみを移行する場合は、[物理 NIC のみの移行] を有効にします。

    • 使用済みの物理 NIC と関連付けられた VMkernel インターフェイス マッピングを移行する場合は、[物理 NIC のみの移行] を無効にします。VMkernel インターフェイスの移行マッピングが指定されている場合は、使用されていない、または使用可能な物理 NIC が N-VDS スイッチに接続されます。

    複数のホスト スイッチを使用しているホストで、次の操作を実行します。
    • すべてのホスト スイッチで物理 NIC のみを移行する場合は、物理 NIC を 1 回の操作で移行できます。
    • VMkernel インターフェイスを移行するホスト スイッチと、物理 NIC のみを移行するホスト スイッチが混在している場合は、次の操作を実行します。
      1. 最初の操作で、物理 NIC のみを移行します。
      2. 次の操作で、VMkernel インターフェイスを移行します。[物理 NIC のみの移行] が無効になっていることを確認します。

    物理 NIC のみの移行と VMkernel インターフェイスの移行は、複数のホストで同時にサポートされません。

    注: 管理ネットワークの NIC を移行するには、関連付けられた VMkernel ネットワークのマッピングを構成し、 [物理 NIC のみの移行] を無効のままにします。管理 NIC のみを移行する場合、ホストの接続は切断されます。

    詳細については、VMkernel の N-VDS スイッチへの移行を参照してください。

    インストール用のネットワーク マッピング

    [設定] をクリックして、[追加] をクリックします。

    VLAN セグメントに VMkernel アダプタまたは物理アダプタをマッピングして、 [適用] をクリックします。
    • [VMkernel アダプタ] ドロップダウン メニューから、VMkernel アダプタを選択します。
    • [VLAN セグメント] ドロップダウン メニューから VLAN セグメントを選択します。

    NSX Manager により、VMkernel アダプタが N-VDS 上のマッピングされた VLAN セグメントに移行されます。

    注意: 管理 NIC が接続されていた VLAN と同じ VLAN にセグメントが接続されていて、そこに管理 NIC および管理 VMkernel インターフェイスが移行されることを確認します。vmnic <n> および VMkernel <n> が異なる VLAN に移行された場合は、ホストとの接続が切断されます。
    注意: 固定された物理 NIC の場合は、物理 NIC から VMkernel インターフェイスへのホスト スイッチのマッピングが、トランスポート ノード プロファイルで指定されている構成と一致することを確認します。検証手順の一環として、 NSX-T Data Center はマッピングを検証します。検証が成功すると、VMkernel インターフェイスが正常に N-VDS スイッチに移行したことになります。VMkernel インターフェイスを N-VDS スイッチに移行すると、 NSX-T Data Center にホスト スイッチのマッピング構成が保存されなくなるため、アンインストール用のネットワーク マッピングも構成する必要があります。このマッピングが構成されていない場合は、VSS スイッチまたは VDS スイッチに移行し直した後に、vSAN などのサービスとの接続が切断されることがあります。
    アンインストール用のネットワーク マッピング

    [設定] をクリックします。

    アンインストール中に N-VDS スイッチに接続された VMkernel の移行を元に戻すには、VSS または VDS のポート グループに VMkernel をマッピングして、VMkernel を移行し直す VSS または VDS 上のポート グループを NSX Manager が認識できるようにします。VDS スイッチの場合は、ポート グループのタイプが短期であることを確認します。

    アンインストール中に、vSphere Distributed Switch (VDS) に作成された NSX-T ポート グループに接続されている VMkernel の移行を元に戻すには、VSS または VDS のポート グループに VMkernel をマッピングして、VMkernel を移行し直す VSS または VDS 上のポート グループを NSX Manager が認識できるようにします。VDS スイッチの場合は、ポート グループのタイプが短期であることを確認します。

    vmknic を PortGroup マッピングに追加して、 [適用] をクリックします。
    • [VMkernel アダプタ] フィールドに、VMkernel アダプタ名を入力します。
    • [PortGroup] フィールドに、短期タイプのポートグループ名を入力します。
    物理 NIC をアップリンク プロファイル マッピングに追加して、 [適用] をクリックします。
    • [物理 NIC] フィールドに物理 NIC 名を入力します。
    • [アップリンク] フィールドにアップリンク名を入力します。
    注意: 固定された物理 NIC の場合は、物理 NIC から VMkernel インターフェイスへのトランスポート ノード プロファイルのマッピングが、ホスト スイッチで指定されている構成と一致することを確認します。VMkernel インターフェイスを N-VDS スイッチに移行すると、 NSX-T Data Center にホスト スイッチのマッピング構成が保存されなくなるため、アンインストール用のネットワーク マッピングを構成する必要があります。このマッピングが構成されていない場合は、VSS スイッチまたは VDS スイッチに移行し直した後に、vSAN などのサービスとの接続が切断されることがあります。
  10. 事前構成済みの N-VDS の場合は、次の詳細を提供します。
    オプション 説明
    N-VDS の外部 ID このノードが属するトランスポート ゾーンの N-VDS 名と同じにする必要があります。
    トランスポート ゾーン ドロップダウン メニューから、このトランスポート ノードにまたがるトランスポート ゾーンを選択します。
    VTEP トランスポート ノードがオーバーレイ ネットワーク上で通信するための仮想トンネル エンドポイント名。
  11. [スタンドアローン] ページに接続状態を表示します。構成プロセスでは、各トランスポート ノードにインストール プロセスの進行状況がパーセンテージで表示されます。どのステージでもインストールに失敗した場合は、失敗したステージで使用可能な [解決] リンクをクリックすることで、プロセスを再開できます。
    ホストをトランスポート ノードとして追加すると、ホストがトランスポート ノードとして正常に作成された場合にのみ、 NSX Manager との接続状態が UP と表示されます。
    注: トランスポート ノードの作成後に、トンネル エンドポイントへの IP の割り当てなどの N-VDS の構成を変更するには、ホストの CLI ではなく NSX Manager の GUI から行う必要があります。
  12. (オプション) KVM ホストで、複数のプロセスが dpkg コマンドにアクセスしようとしてトランスポート ノードの作成に失敗した場合は、ホストを選択して [設定] をクリックし、トランスポート ノードの作成を再開します。
  13. または、CLI コマンドを使用して、接続状態を表示します。
    • ESXi の場合は、esxcli network ip connection list | grep 1234 コマンドを入力します。
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   [ESTABLISHED]  1000144459  newreno  nsx-cfgagent
       
      
    • KVM で netstat -anp --tcp | grep 1234 コマンドを入力します。
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   [ESTABLISHED] -
    • Windows の場合は、コマンド プロンプトから netstat | find "1234" 入力します。
    • Windows の場合は、コマンド プロンプトから netstat | find "1235" 入力します。
  14. NSX-T Data Center モジュールがホストにインストールされていることを確認します。
    ホストを NSX-T Data Center ファブリックに追加した結果、 NSX-T Data Center モジュールのコレクションがホストにインストールされます。

    次のように、さまざまなホストのモジュールがパッケージ化されています。

    • RHEL、CentOS、Oracle Linux、SUSE の KVM - RPM
    • Ubuntu の KVM - DEB
    • ESXi で esxcli software vib list | grep nsx コマンドを入力します。

      日付は、インストールの実行日です。

    • RHEL、CentOS または Oracle Linux で yum list installed コマンドまたは rpm -qa コマンドを入力します。
    • Ubuntu で dpkg --get-selections コマンドを入力します。
    • SUSE で rpm -qa | grep nsx コマンドを入力します。
    • Windows の場合は、タスク マネージャーを開きます。あるいは、コマンド ラインで「tasklist /V | grep nsx findstr “nsx ovs」と入力します。
  15. (オプション) 500 台以上のハイパーバイザーを使用している場合は、特定のプロセッサのポーリング間隔を変更します。
    500 台を超えるハイパーバイザーがある場合は、 NSX Manager の CPU 使用率が上昇し、パフォーマンス上の問題が発生することがあります。
    1. NSX-T Data Center CLI コマンド copy file または API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_file を使用して、aggsvc_change_intervals.py スクリプトをホストにコピーします。
    2. NSX-T Data Center ファイル ストアにあるスクリプトを実行します。
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (オプション) ポーリング間隔をデフォルト値に戻します。
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

結果

スタンドアローン ホストがトランスポート ノードとして構成されます。
重要: トランスポート ノード プロファイルが適用されているクラスタにスタンドアローン トランスポート ノードを移動する場合、 NSX-T Data Center は、クラスタに適用されるトランスポート ノード プロファイルを優先し、スタンドアローン トランスポート ノードの構成をオーバーライドします。クラスタとスタンドアローン ホストの vmnic が異なる場合、スタンドアローン トランスポートへの接続が失われる可能性があります。

次のタスク

vSphere 標準スイッチから N-VDS スイッチにネットワーク インターフェイスを移行します。 VMkernel の N-VDS スイッチへの移行 を参照してください。