ホストを NSX-T Data Center に追加するときに、NSX-T Data Center カーネル モジュールを RHEL、CentOS、Oracle Linux ホストに手動でインストールできます。

インストールすると、NSX-T Data Center の制御プレーンと管理プレーン ファブリックを構築できます。RPM ファイルにパッケージされた NSX-T Data Center カーネル モジュールは、ハイパーバイザー カーネル内で実行され、分散ルーティング、分散ファイアウォール、ブリッジ機能などのサービスを提供します。

NSX-T Data Center の RPM を手動でダウンロードし、ホスト イメージに加えることができます。ダウンロード パスは NSX-T Data Center のリリースごとに変わる可能性があるため、注意してください。必ず NSX-T Data Center のダウンロード ページを確認し、適切な RPM を入手してください。

前提条件

RHEL、CentOS または Oracle Linux リポジトリへの接続。

手順

  1. 管理者としてホストにログインします。
  2. nsx-lcp ファイルをダウンロードし、/tmp ディレクトリにコピーします。
  3. パッケージを解凍します。
    tar -zxvf nsx-lcp-<release>-rhel7.4_x86_64.tar.gz
  4. パッケージ ディレクトリに移動します。
    cd nsx-lcp-rhel74_x86_64/
  5. パッケージをインストールします。
    sudo yum install *.rpm

    yum インストール コマンドを実行すると、すべての NSX-T Data Center 依存関係が解決されます。ただし、RHEL、CentOS または Oracle Linux ホストからそれぞれのリポジトリにアクセスできることを前提とします。

  6. OVS カーネル モジュールを再読み込みします。
    /usr/share/openvswitch/scripts/ovs-systemd-reload force-reload-kmod

    ハイパーバイザーが OVS インターフェイスで DHCP を使用している場合は、DHCP が構成されているネットワーク インターフェイスを再起動します。ネットワーク インターフェイス上で古い dhclient プロセスを手動で停止し、そのインターフェイスで新しい dhclient プロセスを再開できます。

  7. 確認するには、rpm -qa | egrep 'nsx|openvswitch' コマンドを実行します。
    出力に表示されるインストールされたパッケージは、nsx-rhel74、nsx-centos74、または nsxdirectory ディレクトリ内のパッケージと一致する必要があります。

次のタスク

NSX-T Data Center の管理プレーンにホストを追加します。CLI を使用した NSX Manager クラスタの形成 を参照してください。