個々の ESXi ホストで NSX を構成できます

前提条件

  • 準備する個々のホストがパワーオン状態であることを確認します。
  • システム要件を満たしていることを確認します。システム要件を参照してください。
  • NSX Manager クラスタのすべてのノードで、リバース プロキシ サービスが稼動中になっている必要があります。

    確認するには、get service http を実行します。サービスが停止している場合は、各 NSX Manager ノードで restart service http を実行して、サービスを再起動します。サービスが停止している場合は、VMware サポートにお問い合わせください。

  • カスタム ポートまたはデフォルト以外のポートに VMware vCenter を展開場合は、次のルールを NSX Manager に適用します。
    • ホストの準備を開始する前に、IPv4 ルールを NSX Manager に手動で適用する必要があります。
      • iptables -A INPUT -p tcp -m tcp --dport <CUSTOM_PORT> --tcp-flags FIN,SYN,RST,ACK SYN -j ACCEPT
      • iptables -A OUTPUT -p tcp -m tcp --dport <CUSTOM_PORT> --tcp-flags FIN,SYN,RST,ACK SYN -j ACCEPT
    • ホストの準備を開始する前に、IPv6 テーブル ルールを NSX Manager に手動で適用する必要があります。
      • ip6tables -A OUTPUT -o eth0 -p tcp -m tcp --dport <CUSTOM_PORT> --tcp-flags FIN,SYN,RST,ACK SYN -j ACCEPT
      • ip6tables -A INPUT -p tcp -m tcp --dport <CUSTOM_PORT> --tcp-flags FIN,SYN,RST,ACK SYN -j ACCEPT
  • (ロックダウン モードのホスト)vSphere ロックダウン モードの例外リストに期限切れのユーザー アカウント(lldpvim-user など)が含まれている場合、vSphereNSX をインストールできません。このユーザーは自動的に ESXi に作成され、hostd と通信して LLDP ネイバー情報を取得した後に削除されます。インストールを開始する前に、期限切れのユーザー アカウントをすべて削除してください。ロックダウン モードでアクセス権限を持つアカウントの詳細については、『vSphere セキュリティ ガイド』で「ロックダウン モードでのアクセス権を持つアカウントの指定」を参照してください。

手順

  1. ハイパーバイザー サムプリントを取得して、ホストをファブリックに追加するときに提供できるようにします。
    1. ハイパーバイザー サムプリントの情報を収集します。
      Linux シェルを使用します。
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      ホストで ESXi CLI を使用します。
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
  2. ブラウザから、NSX Manager(https://<nsx-manager-ip-address> または https://<nsx-manager-fqdn>)に管理者権限でログインします。
  3. [システム] > [ファブリック] > [ホスト] を選択します。
  4. [その他のノード] を選択して、ホストを選択します。
  5. [ホストの詳細] ページで、次のフィールドの詳細を入力します。
    オプション 説明
    名前 スタンドアローン ホストを識別する名前を入力します。
    IP アドレス ホスト IP アドレスを入力します。
    説明 必要に応じて、ホストで使用するオペレーティング システムの説明を追加することもできます。
    タグ ホストに関連付けるタグを入力します。タグは、特定の OS バージョンや ESXi バージョンなどを持つ、すべてのホストをグループ化する場合に使用できます。
  6. [次へ] をクリックします。
  7. [ホストの準備] タブで、[ホスト スイッチの追加] をクリックします。
  8. [VDS の選択] ドロップダウン メニューから VDS スイッチを選択します。
  9. 次のフィールドを構成します。
    オプション 説明
    名前

    (vSphere クラスタによって管理されるホスト)ホスト スイッチを管理する VMware vCenter を選択します。

    VMware vCenter で作成され、ESXi ホストに接続されている VDS を選択します。

    トランスポート ゾーン

    [表示] セクションで、[オーバーレイ][VLAN] または [すべて] を選択して、ホスト スイッチに必要なトランスポート ゾーンのタイプを表示して選択します。

    これらのトランスポート ゾーンは、関連付けられたホスト スイッチによって認識されます。

    サポートされているトランスポート ゾーン構成:
    • ホスト スイッチごとに複数の VLAN トランスポート ゾーンを追加できます。
    • ホスト スイッチごとに 1 つのオーバーレイ トランスポート ゾーンのみを追加する必要があります。NSX Manager ユーザー インターフェイスでは、複数のオーバーレイ トランスポート ゾーンを追加できません。
    アップリンク プロファイル ドロップダウン メニューから既存のアップリンク プロファイルを選択するか、アップリンクのカスタム プロファイルを作成します。デフォルトのアップリンク プロファイルも使用できます。

    MTU 値を空のままにすると、NSX はグローバル デフォルト MTU 値 1700 を使用します。NSX アップリンク プロファイルに MTU 値を入力すると、その MTU 値がグローバル デフォルト MTU 値をオーバーライドします。

    注: アップリンク プロファイルで定義されたリンク集約グループを VDS アップリンクにマッピングすることはできません。
    IP アドレス タイプ (TEP) [IPv4] または [IPv6] を選択して、トランスポート ノードのトンネル エンドポイント (TEP) の IP バージョンを指定します。
    IPv4 の割り当て

    TEP に IPv4 アドレスを割り当てる方法を選択します。次のオプションがあります。

    • [DHCP を使用]:IPv4 アドレスは DHCP サーバから割り当てられます。
    • [IPv4 プールを使用]:IP アドレス プールから IPv4 アドレスが割り当てられます。TEP に使用する IPv4 プール名を指定します。
    IPv6 の割り当て

    TEP に IPv6 アドレスを割り当てる方法を選択します。次のオプションがあります。

    • [DHCPv6 を使用]:IPv6 アドレスは DHCP サーバから割り当てられます。
    • [IPv6 プールを使用]:IP アドレス プールから IPv6 アドレスが割り当てられます。TEP に使用する IPv6 プール名を指定します。
    • [AutoConf を使用] を使用:IPv6 アドレスはルーター アドバタイズ (RA) から割り当てられます。
    高度な設定

    モード(NSX 4.0.0.1 のみ)

    次のモード オプションから選択します。
    • [標準]NSX によってサポートされているすべてのハイパーバイザーで使用可能な標準モードです。
    • [ENS 割り込み]:拡張データパス モードのバリアントです。
    • [拡張データパス]:ネットワーク パフォーマンスの高速化を実現するモードです。このモードを有効にするには、ノードで VMXNET3 vNIC が有効になっているネットワーク カードを使用する必要があります。NSX Edge ノード、パブリック ゲートウェイではサポートされません。サポートされているハイパーバイザーは ESXi です。ESXi バージョン v6.7 U2 以降をおすすめします。

    モード(NSX 4.0.1.1 以降)

    次のモード オプションから選択します。
    • [標準]:このモードは、すべてのトランスポート ノードに適用されます。トランスポート ノードのデータ プレーンは、アップリンク機能に従ってホスト スイッチ モードを自動的に選択します。
    • [拡張データパス - 標準]:このモードは、拡張データ パス モードのバリアントです。これは、ESXi ハイパーバイザー 7.0 以降のバージョンでのみ使用できます。適用可能性については、アカウントの担当者にお問い合わせください。
    • [拡張データパス - パフォーマンス]:ESXi ホスト トランスポート ノードの拡張データ パス スイッチ モードです。このモードにより、ネットワーク パフォーマンスの高速化が実現されます。ノードで VMXNET3 vNIC が有効になっているネットワーク カードを使用する必要があります。NSX Edge ノード、パブリック ゲートウェイではサポートされません。サポートされているハイパーバイザーは ESXi です。ESXi バージョン v6.7 U2 以降をおすすめします。
    • [レガシー]:このモードは以前は「標準」と呼ばれていました。レガシー フィールドは NSX Manager ユーザー インターフェイスで読み取り専用になっているため、このモードは API を介してのみ選択できます。すべてのトランスポート ノードに適用されます。ホスト スイッチ モードが「レガシー」に設定されている場合、パケット ハンドラ スタックが有効になります。NSX Manager ユーザー インターフェイスで、このモードが「標準」に設定され、[レガシー] フィールドが「はい」に設定されています。
      次のホスト トランスポート ノードまたはトランスポート ノード プロファイル ポリシー API を実行して、ホスト スイッチ モードを「レガシー」に設定できます。
      • ホスト トランスポート ノードの作成または更新:
        PUT https://<NSX-Manager-IP-ADDRESS>/POST/policy/api/v1/infra/sites/<site-id>/enforcement-points/<enforcementpoint-id>/host-transport-nodes/<host-transport-node-id>
      • ポリシー ホスト トランスポート ノード プロファイルの作成または更新:
        PUT https://<NSX-Manager-IP-ADDRESS>/POST/policy/api/v1/infra/host-transport-node-profiles/<transport-node-profile-id>
    CPU 構成
    [CPU 構成] フィールドは、モードが [拡張データパス] に設定されている場合にのみ構成できます。
    1. [設定] をクリックします。
    2. [CPU 構成] 画面で、[追加] をクリックします。
    3. [NUMA ノードのインデックス] および [NUMA ノードあたりの LCore 数] フィールドの値を入力します。
    4. 値を保存するには、[追加] および [保存] をクリックします。
    チーミング ポリシー アップリンク マッピング

    VDS のアップリンクを使用して NSX でアップリンク プロファイルをマッピングする前に、VDS スイッチにアップリンクが構成されていることを確認します。VDS スイッチのアップリンクを構成または表示するには、VMware vCentervSphere Distributed Switch の順に移動します。[アクション]、[設定]、[設定の編集] の順にクリックします。

    選択した NSX アップリンク プロファイルで定義されているアップリンクを VDS アップリンクとマッピングします。マッピングに表示される NSX アップリンクの数は、アップリンク プロファイルの構成によって異なります。

    たとえば、upink-1(アクティブ)の行で、[物理 NIC] 列に移動して編集アイコンをクリックし、VDS アップリンクの名前を入力して、uplink-1(アクティブ)とのマッピングを完了します。同様に、他のアップリンクのマッピングを完了します。

    注: アップリンク/LAG、NIOC プロファイル、LLDP プロファイルは、 VMware vCenter で定義されています。これらの構成は NSX Manager で使用できません。VDS スイッチの VMkernel アダプタを管理するには、 VMware vCenter に移動し、VMkernel アダプタを分散仮想ポート グループまたは NSX ポート グループに接続します。
  10. 複数のトランスポート ゾーンを選択した場合は、これらを同じスイッチに追加できます。新しいスイッチを追加するには、もう一度 [スイッチを追加] をクリックして、他のトランスポート ゾーンに新しいスイッチを構成します。
    NSX スイッチは、単一のオーバーレイ トランスポート ゾーンと複数の VLAN トランスポート ゾーンに同時に接続できます。

  11. [追加] をクリックして、構成を完了します。
  12. (オプション) ESXi の接続状況を確認します。
    # esxcli network ip connection list | grep 1235
    tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   [ESTABLISHED]  1000144459  newreno  nsx-proxy
    
  13. [その他のノード] タブで、クラスタ内のホストの NSX Manager 接続状態が「稼動中」、NSX の構成状態が「成功」であることを確認します。構成プロセスでは、各トランスポート ノードにインストール プロセスの進行状況がパーセンテージで表示されます。どのステージでもインストールに失敗した場合は、失敗したステージで使用可能な [解決] リンクをクリックすることで、プロセスを再開できます。
    トランスポート ゾーンがクラスタ内のホストに適用されていることも確認できます。
    注: トランスポート ノード プロファイルですでに準備されているクラスタのホストを再構成すると、ノードの状態が 設定が一致しません になります。
    注: [その他のノード] タブには、IP アドレスとホストの TEP アドレスが表示されます。TEP アドレスは、ホストの VMkernel NIC に割り当てられたアドレスです。IP アドレスは管理 IP アドレスです。
  14. (オプション) ホストの NSX VIB を削除します。
    1. 1 台以上のホストを選択して、[アクション] > [NSX の削除] の順にクリックします。
    アンインストールには最大で 3 分ほどかかります。 NSX をアンインストールすると、ホストのトランスポート ノードの構成が削除され、ホストはトランスポート ゾーンおよびスイッチから接続解除されます。インストール プロセスと同様に、各トランスポート ノードで完了したアンインストール プロセスの割合を確認できます。どのステージでもアンインストールに失敗した場合は、失敗したステージで使用可能な [解決] リンクをクリックすることで、プロセスを再開できます。
  15. (オプション) トランスポート ゾーンからトランスポート ノードを削除します。
    1. 1 つのトランスポート ノードを選択して、[アクション] > [トランスポート ゾーンから削除] の順にクリックします。

次のタスク

ホストがトランスポート ノードの場合、 NSX Manager のユーザー インターフェイスまたは API を使用して、トランスポート ゾーン、論理スイッチ、論理ルーター、その他のネットワーク コンポーネントをいつでも作成できます。 NSX Edge ノードとホストを管理プレーンに追加するときに、 NSX の論理エンティティと構成状態が自動的に NSX Edge ノードとホストにプッシュされます。 NSX Manager ユーザー インターフェイスまたは API を使用して、トランスポート ゾーン、論理スイッチ、論理ルーター、その他のネットワーク コンポーネントをいつでも作成できます。ホストがトランスポート ノードの場合、これらのエンティティがホストで認識されます。

論理スイッチを作成して、論理ポートを割り当てます。『NSX 管理ガイド』の「高度なスイッチング」セクションを参照してください。