查看在 vSphere 集群上使用 NSX 网络连接堆栈配置 vSphere IaaS control plane 的系统要求。启用 vSphere 集群作为 主管 时,系统会自动为 主管 创建一个 vSphere 区域。
NSX 部署选项
有关部署 NSX 的最佳做法的详细信息,请参见 NSX 参考设计指南。
管理和 Edge 集群的最低计算要求
系统 | 最小部署大小 | CPU | 内存 | 存储 |
---|---|---|---|---|
vCenter Server 8 | 小型 | 2 | 21 GB | 290 GB |
ESXi 主机 8 | 2 个 ESXi 主机 | 8 | 每个主机 64 GB | 不适用 |
NSX Manager | 中等 | 6 | 24 GB | 300 GB |
NSX Edge 1 | 大型 | 8 | 32 GB | 200 GB |
NSX Edge 2 | 大型 | 8 | 32 GB | 200 GB |
服务引擎虚拟机 | 每个 主管 至少部署两个服务引擎虚拟机 | 1 | 2 GB | 不适用 |
指定控制器的系统容量
您可以在部署期间指定控制器的系统容量。系统容量基于系统资源分配,例如 CPU、RAM 和磁盘。分配的资源量会对控制器的性能产生影响。
部署类型 | 节点计数 | 建议的分配 - CPU | 建议的分配 - 内存 | 建议的分配 - 磁盘 |
---|---|---|---|---|
演示/客户评估 | 1 | 6 | 24 GB | 128 GB |
在生产部署中,建议使用三节点集群。
有关详细信息,请参见 NSX Advanced Load Balancer 控制器大小调整。
工作负载域集群的最低计算要求
系统 | 最小部署大小 | CPU | 内存 | 存储 |
---|---|---|---|---|
vSphere 集群 |
|
不适用 | 不适用 | 不适用 |
ESXi 主机 8 |
注: 请确保加入集群的主机的名称使用小写字母。否则,激活
主管 可能会失败。
|
8 | 每个主机 64 GB | 不适用 |
Kubernetes 控制平面虚拟机 | 3 | 4 | 16 GB | 16 GB |
网络要求
查看 VMware 产品互操作性列表,了解支持的 NSX 版本。
组件 | 最小数量 | 所需的配置 |
---|---|---|
物理网络 MTU | 1700 | 在任何 vSphere Distributed Switch 端口组上,MTU 大小必须至少为 1700。 |
物理网卡 | 如果使用 vSAN,则每个主机必须具有至少 2 个物理网卡 | 要使用 Antrea CNI 并获得最佳 NSX 性能,每个参与 ESXi 主机上的每个物理网卡都必须支持并已启用 GENEVE 封装。 |
组件 | 最小数量 | 所需的配置 |
---|---|---|
NTP 和 DNS 服务器 | 1 | 可与 vCenter Server 结合使用的 DNS 服务器和 NTP 服务器。
注: 在所有 ESXi 主机和
vCenter Server 上配置 NTP。
|
DHCP 服务器 | 1 | 可选。配置 DHCP 服务器以自动获取管理网络和工作负载网络的 IP 地址以及浮动 IP。DHCP 服务器必须支持客户端标识符,并提供兼容的 DNS 服务器、DNS 搜索域和 NTP 服务器。 管理网络的所有 IP 地址(如控制平面虚拟机 IP、浮动 IP、DNS 服务器、DNS、搜索域和 NTP 服务器)都将自动从 DHCP 服务器获取。 DHCP 配置由 主管 使用。负载均衡器可能需要静态 IP 地址进行管理。DHCP 范围不应与这些静态 IP 重叠。DHCP 不用于虚拟 IP。(VIPs) |
映像注册表 | 1 | 访问服务注册表。 |
组件 | 最小数量 | 所需的配置 |
---|---|---|
用于 Kubernetes 控制平面虚拟机的静态 IP | 包含 5 个地址的块 | 要从管理网络分配给 主管 中的 Kubernetes 控制平面虚拟机的 5 个连续静态 IP 地址的块。 |
管理流量网络 | 1 | 可路由到 ESXi 主机、vCenter Server、主管 和负载均衡器的管理网络。 |
管理网络子网 | 1 |
用于 ESXi 主机与
vCenter Server、NSX 设备和 Kubernetes 控制平面之间的管理流量的子网。子网的大小必须如下所示:
注: 管理网络和工作负载网络必须位于不同的子网上。不支持将同一子网分配给管理网络和工作负载网络,这可能会导致系统错误和问题。
|
管理网络 VLAN | 1 | 管理网络子网的 VLAN ID。 |
组件 | 最小数量 | 所需的配置 |
---|---|---|
vSphere Pod CIDR 范围 | /23 个专用 IP 地址 | 为 vSphere Pod 提供 IP 地址的专用 CIDR 范围。这些地址也用于 Tanzu Kubernetes Grid 集群节点。
必须为每个集群指定唯一的
vSphere Pod CIDR 范围。
注: Kubernetes 服务地址的
vSphere Pod CIDR 范围和 CIDR 范围不能重叠。
|
Kubernetes 服务 CIDR 范围 | /16 个专用 IP 地址 | 专用 CIDR 范围,用于将 IP 地址分配给 Kubernetes 服务。您必须为每个 主管 指定唯一的 Kubernetes 服务 CIDR 范围。 |
输出 CIDR 范围 | /27 个静态 IP 地址 | 专用 CIDR 注释,用以确定 Kubernetes 服务的输出 IP。仅为 主管 中的每个命名空间分配一个输出 IP 地址。输出 IP 是外部实体用于与命名空间中的服务进行通信的地址。输出 IP 地址的数量限制了 主管 可以拥有的输出策略数。
最小值为 CIDR /27 或更大。例如,
10.174.4.96/27
注: 输出 IP 地址和输入 IP 地址不得重叠。
|
输入 CIDR | /27 个静态 IP 地址 | 要用于输入 IP 地址的专用 CIDR 范围。输入让您能够将流量策略应用到从外部网络进入 主管 的请求。输入 IP 地址的数量限制了集群可以拥有的输入数量。
最小值为 CIDR /27 或更大。
注: 输出 IP 地址和输入 IP 地址不得重叠。
|
命名空间网络范围 | 1 | 一个或多个 IP CIDR,以创建子网/分段并将 IP 地址分配给工作负载。 |
命名空间子网前缀 | 1 | 子网前缀,以指定为命名空间分段预留的子网大小。Default is 28. |
组件 | 最小数量 | 所需的配置 |
---|---|---|
VLAN | 3 | 这些 VLAN IP 是隧道端点 (TEP) 的 IP 地址。ESXi 主机 TEP 和 Edge TEP 必须可路由。
以下对象需要 VLAN IP 地址:
注: ESXi 主机 VTEP 和 Edge VTEP 的 MTU 大小必须大于 1600。
ESXi 主机和 NSX-T Edge 节点充当隧道端点,并会向每个主机和 Edge 节点分配隧道端点 (TEP) IP。 由于 ESXi 主机的 TEP IP 会在 Edge 节点上创建具有 TEP IP 的覆盖通道,因此 VLAN IP 必须可路由。 需要使用额外的 VLAN 来提供与第 0 层网关的南北向连接。 可以在集群之间共享 IP 池。但是,主机覆盖网络 IP 池/VLAN 不得与 Edge 覆盖网络 IP 池/VLAN 共享。
注: 如果主机 TEP 和 Edge TEP 使用不同的物理网卡,则使用相同的 VLAN。
|
第 0 层上行链路 IP | /24 个专用 IP 地址 | 用于第 0 层上行链路的 IP子网。第 0 层上行链路的 IP 地址要求如下所示:
Edge 管理 IP、子网、网关、上行链路 IP、子网和网关必须唯一。 |
NTP 和 DNS 服务器 | 1 | NSX Advanced Load Balancer 控制器需要 DNS 服务器 IP 才能正确解析 vCenter Server 和 ESXi 主机名。NTP 为可选项,因为默认情况下使用公共 NTP 服务器。 |
数据网络子网 | 1 | NSX Advanced Load Balancer 服务引擎(也称为服务引擎)的数据接口连接到此网络。为服务引擎配置 IP 地址池。从此网络分配负载均衡器虚拟 IP (VIP)。 |
NSX Advanced Load Balancer 控制器 IP | 1 或 4 | 如果将 NSX Advanced Load Balancer 控制器部署为单个节点,则需要一个静态 IP 作为其管理接口。 对于 3 节点集群,需要 4 个 IP 地址。每个 NSX Advanced Load Balancer 控制器虚拟机一个,集群 VIP 一个。这些 IP 必须来自管理网络子网。 |
VIP IPAM 范围 | - | 专用 CIDR 范围,用于将 IP 地址分配给 Kubernetes 服务。IP 必须来自数据网络子网。必须为每个主管集群指定唯一的 Kubernetes 服务 CIDR 范围。 |
端口和协议
下表列出了管理 NSX Advanced Load Balancer、vCenter 和其他 vSphere IaaS control plane 组件之间的 IP 连接所需的协议和端口。
源 | 目标 | 协议和端口 |
---|---|---|
NSX Advanced Load Balancer 控制器 | NSX Advanced Load Balancer 控制器(在集群中) | TCP 22 (SSH) TCP 443 (HTTPS) TCP 8443 (HTTPS) |
服务引擎 | 用于实现 HA 的服务引擎 | TCP 9001(对于 VMware、LSC 和 NSX-T 云) |
服务引擎 | NSX Advanced Load Balancer 控制器 | TCP 22 (SSH) TCP 8443 (HTTPS) UDP 123 (NTP) |
Avi 控制器 | vCenter Server、ESXi、NSX-T Manager | TCP 443 (HTTPS) |
主管控制平面节点 (AKO) | NSX Advanced Load Balancer 控制器 | TCP 443 (HTTPS) |
有关 NSX Advanced Load Balancer 的端口和协议的详细信息,请参见 https://ports.esp.vmware.com/home/NSX-Advanced-Load-Balancer。