必须先将 ESXi 主机、KVM 主机或裸机服务器添加到 NSX-T Data Center Fabric,然后配置传输节点。

要使主机或裸机服务器成为 NSX-T Data Center 覆盖网络的一部分,必须先将其添加到 NSX-T Data Center Fabric。

传输节点是一个加入 NSX-T Data Center 覆盖网络或 NSX-T Data Center VLAN 网络的节点。

对于 KVM 主机或裸机服务器,您可以预配置 N-VDS,也可以让 NSX Manager 执行配置。对于 ESXi 主机,NSX Manager 始终配置 N-VDS。

注: 如果打算从模板虚拟机中创建传输节点,请确保在主机上的 /etc/vmware/nsx/ 中没有任何证书。如果证书存在,则 nsx-proxy 不会创建该证书。

裸机服务器支持覆盖网络和 VLAN 传输区域。可以使用管理接口管理裸机服务器。应用程序接口允许您访问裸机服务器上的应用程序。

单个物理网卡同时为管理接口和应用程序 IP 接口提供 IP 地址。

双物理网卡为管理接口提供物理网卡和唯一 IP 地址。双物理网卡还为应用程序接口提供物理网卡和唯一 IP 地址。

绑定配置中的多个物理网卡同时为管理接口和应用程序接口提供双物理网卡和唯一 IP 地址。

对于每个配置,最多可添加四个 N-VDS 交换机:
  • 为 VLAN 传输区域创建的标准 N-VDS
  • 为 VLAN 传输区域创建的增强型 N-VDS
  • 为覆盖网络传输区域创建的标准 N-VDS
  • 为覆盖网络传输区域创建的增强型 N-VDS

在同一主机上运行多个标准覆盖网络 N-VDS 交换机和 Edge 虚拟机的单个主机集群拓扑中,NSX-T Data Center 提供了流量隔离以便通过第一个 N-VDS 的流量与通过第二个 N-VDS 的流量隔离。每个 N-VDS 上的物理网卡必须映射到主机上的 Edge 虚拟机,以允许与外界的南北向流量连接。从第一个传输区域上的虚拟机移出的数据包必须通过外部路由器或外部虚拟机路由到第二个传输区域上的虚拟机。

前提条件

  • 主机必须已加入管理平面,且连接必须已启动。
  • NSX Manager 集群的所有节点上的反向代理服务必须已启动并正在运行。

    要进行验证,请运行 get service http。如果该服务已关闭,请在每个 NSX Manager 节点上运行 restart service http 以重新启动该服务。如果该服务仍处于关闭状态,请与 VMware 支持部门联系。

  • 必须配置一个传输区域。
  • 必须配置一个上行链路配置文件,也可以使用默认上行链路配置文件。
  • 必须配置一个 IP 池,或者必须在网络部署中具有 DHCP。
  • 必须在主机节点上具有至少一个未使用的物理网卡。
  • 主机名
  • 管理 IP 地址
  • 用户名
  • 密码
  • (可选)(KVM) SHA-256 SSL 指纹
  • (可选)(ESXi) SHA-256 SSL 指纹
  • 确认安装了所需的第三方软件包。

过程

  1. (可选) 检索 Hypervisor 指纹,以便在将主机添加到 Fabric 时提供该指纹。
    1. 收集 Hypervisor 指纹信息。
      使用 Linux shell。
      # echo -n | openssl s_client -connect <esxi-ip-address>:443 2>/dev/null | openssl x509 -noout -fingerprint -sha256
      
      使用主机中的 ESXi CLI。
      [root@host:~] openssl x509 -in /etc/vmware/ssl/rui.crt -fingerprint -sha256 -noout
      SHA256 Fingerprint=49:73:F9:A6:0B:EA:51:2A:15:57:90:DE:C0:89:CA:7F:46:8E:30:15:CA:4D:5C:95:28:0A:9E:A2:4E:3C:C4:F4
    2. 从 KVM Hypervisor 中检索 SHA-256 指纹,在 KVM 主机中运行该命令。
      # awk '{print $2}' /etc/ssh/ssh_host_rsa_key.pub | base64 -d | sha256sum -b | sed 's/ .*$//' | xxd -r -p | base64
  2. 选择系统 > Fabric > 节点 > 主机传输节点
  3. 从“托管主体”字段中,选择独立主机,然后单击 + 添加
  4. 输入要添加到 Fabric 的独立主机或裸机服务器详细信息。
    选项 说明
    名称和说明 输入名称以标识独立主机或裸机服务器。

    可以选择添加用于主机或裸机服务器的操作系统说明。

    IP 地址 输入主机或裸机服务器的 IP 地址。
    操作系统 从下拉菜单中选择操作系统。

    根据主机或裸机服务器,可以选择支持的任何操作系统。请参见系统要求

    重要说明: 在支持的不同 Linux 版本中,您必须了解运行 Linux 发布版本的裸机服务器与使用 Linux 发布版本作为 Hypervisor 主机的裸机服务器之间的区别。例如,选择 Ubuntu 服务器作为操作系统意味着设置一个运行 Linux 服务器的裸机服务器,而选择 Ubuntu KVM 则意味着部署的 Linux Hypervisor 是 Ubuntu。
    用户名和密码 输入主机的用户名和密码。
    SHA-256 指纹 输入主机指纹值以进行身份验证。

    如果将指纹值留空,将提示您接受服务器提供的指纹。NSX-T Data Center 发现主机并对其进行身份验证需要几秒钟的时间。

  5. (必选) 对于 KVM 主机或裸机服务器,选择 N-VDS 类型。
    选项 说明
    NSX 已创建 NSX Manager 创建 N-VDS。

    默认情况下,将选择该选项。

    预配置 已配置 N-VDS。
    对于 ESXi 主机,N-VDS 类型始终设置为 NSX 已创建
  6. 如果您选择 N-VDS 交换机以在标准 (所有主机) 模式下运行,请在以下字段中输入相应的值。您可以在单个主机上配置多个 N-VDS 交换机。
    选项 说明
    名称 输入 N-VDS 主机交换机的名称。
    传输区域 从下拉菜单中,选择该传输节点所在的传输区域。
    NIOC 配置文件 从下拉菜单中,选择 ESXi 主机的 NIOC 配置文件或创建自定义 NIOC 配置文件。

    也可以选择默认 NIOC 配置文件。

    上行链路配置文件 从下拉菜单中选择一个现有的上行链路配置文件,或者创建一个自定义上行链路配置文件。

    也可以使用默认上行链路配置文件。

    LLDP 配置文件 默认情况下,NSX-T 仅接收来自 LLDP 邻居的 LLDP 数据包。

    但是,可以将 NSX-T 设置为与 LLDP 邻居之间收发 LLDP 数据包。

    IP 分配 选择使用 DHCP使用 IP 池使用静态 IP 列表

    如果选择使用静态 IP 列表,您必须指定以逗号分隔的 IP 地址、网关和子网掩码列表。

    IP 池 如果您选择使用 IP 池进行 IP 分配,请指定 IP 池名称。
    绑定策略交换机映射

    将物理网卡添加到传输节点。您可以使用默认上行链路,或者从下拉菜单中分配一个现有的上行链路。

    仅迁移 PNIC

    在设置此字段之前,请考虑以下几点:

    • 了解定义的物理网卡是已用网卡还是可用网卡。
    • 确定主机的 VMkernel 接口是否需要与物理网卡一起迁移。

    设置以下字段:

    • 如果仅希望将物理网卡从 VSS 或 DVS 交换机迁移到 N-VDS 交换机,则启用仅迁移 PNIC

    • 如果要迁移已用的物理网卡及其关联的 VMkernel 接口映射,则禁用仅迁移 PNIC。指定 VMkernel 接口迁移映射时,可用物理网卡将连接到 N-VDS 交换机。

    在具有多个主机交换机的主机上:
    • 如果所有主机交换机都仅迁移 PNIC,则可以在单个操作中迁移 PNIC。
    • 如果一些主机交换机要迁移 VMkernel 接口,而其余的主机交换机要仅迁移 PNIC:
      1. 在第一个操作中,仅迁移 PNIC。
      2. 在第二个操作中,迁移 VMkernel 接口。请确保已禁用仅迁移 PNIC

    不支持同时在多个主机中执行仅迁移 PNIC 和 VMkernel 接口迁移。

    注: 要迁移管理网络网卡,请配置其关联的 VMkernel 网络映射并使 仅迁移 PNIC 保持禁用状态。如果仅迁移管理网卡,则主机将失去连接。

    有关详细信息,请参见 VMkernel 迁移到 N-VDS 交换机

    用于安装的网络映射

    要在安装期间将 VMkernel 迁移到 N-VDS 交换机,请将 VMkernel 映射到现有逻辑交换机。NSX Manager 将 VMkernel 迁移到 N-VDS 上的映射逻辑交换机。

    小心: 确保管理网卡和管理 VMkernel 接口迁移到的逻辑交换机连接到迁移前管理网卡所连接的同一 VLAN。如果 vmnic <n> 和 VMkernel <n> 迁移到不同的 VLAN,则将失去与主机的连接。
    小心: 对于固定的物理网卡,请确保物理网卡到 VMkernel 接口的主机交换机映射与在传输节点配置文件中指定的配置匹配。在验证过程中, NSX-T Data Center 将检查映射,以及验证通过后 VMkernel 接口是否成功迁移到 N-VDS 交换机。同时,必须为卸载配置网络映射,因为将 VMkernel 接口迁移到 N-VDS 交换机后, NSX-T Data Center 不会存储主机交换机的映射配置。如果未配置映射,则迁移回 VSS 或 VDS 交换机后,可能会失去与服务(如 vSAN)的连接。

    有关详细信息,请参见 VMkernel 迁移到 N-VDS 交换机

    用于卸载的网络映射

    要在卸载期间恢复 VMkernel 的迁移,请将 VMkernel 映射到 VSS 或 DVS 上的端口组,以便 NSX Manager 知道必须将 VMkernel 迁移回 VSS 或 DVS 上的哪个端口组。对于 DVS 交换机,请确保端口组的类型为临时

    要在卸载期间恢复连接到在 vSphere 分布式虚拟交换机 7.0 上创建的 NSX-T 端口组的 VMkernel 的迁移,请将 VMkernel 映射到 VSS 或 DVS 上的端口组,以便 NSX Manager 知道必须将 VMkernel 迁移回 VSS 或 DVS 上的哪个端口组。对于 DVS 交换机,请确保端口组的类型为临时

    小心: 对于固定的物理网卡,请确保物理网卡到 VMkernel 接口的传输节点配置文件映射与在主机交换机中指定的配置匹配。必须为卸载配置网络映射,因为将 VMkernel 接口迁移到 N-VDS 交换机后 NSX-T Data Center 不会存储主机交换机的映射配置。如果未配置映射,则迁移回 VSS 或 VDS 交换机后,可能会失去与服务(如 vSAN)的连接。

    有关详细信息,请参见 VMkernel 迁移到 N-VDS 交换机

  7. 如果您选择 N-VDS 交换机以在性能模式下运行,请在以下其他字段中输入相应的值。您可以在单个主机上配置多个 N-VDS 交换机。
    选项 说明
    (CPU 配置)

    NUMA 节点索引

    在“NUMA 节点索引”下拉菜单中,选择要分配给 N-VDS 交换机的 NUMA 节点。节点上存在的第一个 NUMA 节点用值 0 表示。

    可以通过运行 esxcli hardware memory get 命令了解主机上的 NUMA 节点数。

    注: 如果要更改与 N-VDS 交换机具有关联性的 NUMA 节点数,可以更新“NUMA 节点索引”值。
    (CPU 配置)

    每个 NUMA 节点逻辑内核数

    在“每个 NUMA 节点逻辑内核数”下拉菜单中,选择增强型数据路径必须使用的逻辑内核数。

    可以通过运行 esxcli network ens maxLcores get 命令了解可在 NUMA 节点上创建的最大逻辑内核数。

    注: 如果用尽可用 NUMA 节点和逻辑内核,则无法针对 ENS 流量启用添加到传输节点的任何新交换机。
  8. 对于预配置的 N-VDS,请提供以下详细信息。
    选项 说明
    N-VDS 外部 ID 必须与该节点所属传输区域的 N-VDS 名称相同。
    VTEP 虚拟隧道端点名称。
  9. 主机传输节点页面上查看连接状态。在配置过程中,每个传输节点都会显示安装过程的进度百分比。如果安装在任何阶段失败,您可以通过单击针对该过程失败阶段提供的解决链接来重新启动该过程。
    将主机或裸机服务器添加为传输节点后,只有在将主机成功创建为传输节点后,与 NSX Manager 的连接状态才会显示为 已连接
  10. 或者,使用 CLI 命令查看连接状态。
    • 对于 ESXi,输入 esxcli network ip connection list | grep 1234 命令。
      # esxcli network ip connection list | grep 1234
      tcp   0   0  192.168.210.53:20514  192.168.110.34:1234   ESTABLISHED  1000144459  newreno  nsx-cfgagent
       
      
    • 对于 KVM,输入 netstat -anp --tcp | grep 1234 命令。
      user@host:~$ netstat -anp --tcp | grep 1234
      tcp  0   0 192.168.210.54:57794  192.168.110.34:1234   ESTABLISHED -
    • 对于 Windows,在命令提示符下输入 netstat | find "1234"
    • 对于 Windows,在命令提示符下输入 netstat | find "1235"
  11. 确认在主机或裸机服务器上已安装 NSX-T Data Center 模块。
    将主机或裸机服务器添加到 NSX-T Data Center Fabric 后,将在主机或裸机服务器上安装 NSX-T Data Center 模块的集合。

    将打包不同主机上的模块,如下所示:

    • RHEL、CentOS、Oracle Linux 或 SUSE 上的 KVM - RPM。
    • Ubuntu 上的 KVM - DEB
    • 在 ESXi 上,输入命令 esxcli software vib list | grep nsx

      日期为执行安装的日期。

    • 在 RHEL、CentOS 或 Oracle Linux 上,输入 yum list installedrpm -qa 命令。
    • 在 Ubuntu 上,输入命令 dpkg --get-selections
    • 在 SUSE 上,输入命令 rpm -qa | grep nsx
    • 在 Windows 上,打开“任务管理器”。或者,从命令行中输入 tasklist /V | grep nsx findstr “nsx ovs
  12. (可选) 如果具有 500 个或更多 Hypervisor,则更改某些进程的轮询间隔。
    如果具有 500 多个 Hypervisor,则 NSX Manager 可能会遇到 CPU 使用过高和性能问题。
    1. 使用 NSX-T Data Center CLI 命令 copy file 或 API POST /api/v1/node/file-store/<file-name>?action=copy_to_remote_fileaggsvc_change_intervals.py 脚本复制到主机。
    2. 运行位于 NSX-T Data Center 文件存储中的脚本。
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -i 900
    3. (可选) 将轮询间隔改回到默认值。
      python aggsvc_change_intervals.py -m '<NSX ManagerIPAddress>' -u 'admin' -p '<password>' -r

结果

注: 对于 NSX-T Data Center 创建的 N-VDS,创建传输节点后,如果要更改配置,例如,隧道端点的 IP 分配,必须通过 NSX Manager GUI 而不是主机上的 CLI 执行此操作。

下一步做什么

将网络接口从 vSphere 标准交换机迁移到 N-VDS 交换机。请参见 VMkernel 迁移到 N-VDS 交换机