本参考文档介绍了从 NSX 部署中的 ESXi 主机传输节点收集的各种统计信息。
本文档的第一部分介绍了在 NSX Manager UI 中显示的主机传输节点统计信息。
本文档的其余部分介绍了 ESXi 主机传输节点中运行的各个数据路径模块所收集的统计信息。要查看这些统计信息,必须使用 NSX API 或 NSX Central CLI。这些部分中的“统计信息”列引用了 API 输出中的统计信息名称。要了解用于查看主机传输节点统计信息的 API 工作流,请参见使用 API 监控 NSX 主机传输节点的统计信息。
“数据路径统计信息”选项卡
在 NSX Manager UI 中,此选项卡显示主机传输节点统计信息的汇总值。
统计信息 | 描述 | 引入的版本 |
---|---|---|
接收的广播数据包 |
VDS 从虚拟机接收的广播数据包速率。该统计信息在内部映射到统计信息 - rxbcastpkts。 |
4.2.0 |
发送的广播数据包 |
VDS 向虚拟机发送的广播数据包速率。该统计信息在内部映射到统计信息 - txbcastpkts。 |
4.2.0 |
广播速率限制数据包丢弃数 |
因广播速率限制而丢弃的输入或输出数据包数。 可以使用速率限制来保护网络或虚拟机,使其免受广播风暴等事件的影响。在 NSX Manager UI 中,您可以在 中配置速率限制值。 该统计信息在内部映射到以下详细统计信息:rx_rate_limit_bcast_drops、rx_rate_limit_mcast_drops、tx_rate_limit_bcast_drops 和 tx_rate_limit_mcast_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
DFW |
DFW 模块因各种原因而丢弃的数据包总数。 单击 UI 中的 NSX 数据路径链接,以了解这些丢弃行为的详细信息。 |
4.2.0 |
数据路径 L3 |
数据路径 L3 模块因各种原因而丢弃的数据包总数。 单击 UI 中的 NSX 数据路径链接,以了解这些丢弃行为的详细信息。 |
4.2.0 |
数据路径系统错误 |
由于严重的内部系统错误而丢弃的数据包总数。如果这些统计信息持续增加,则表示 ESXi 主机的资源不足。将一些虚拟机移到其他主机上可能有助于减轻负载。 该统计信息在内部映射到以下详细统计信息:leaf_rx_system_err_drops、uplink_rx_system_err_drops、pkt_attr_error_drops 和 tx_dispatch_queue_too_long_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
快速路径 |
快速路径模块因各种原因而丢弃的数据包总数。 单击 UI 中的 NSX 数据路径链接,以了解这些丢弃行为的详细信息。 |
4.2.0 |
快速路径流量命中 |
ENS/流量缓存模块中的流量表命中率。该统计信息在内部映射到统计信息 - hits。 |
4.2.0 |
快速路径流量未命中 |
慢速路径因流量未命中而处理的数据包速率。该统计信息与下一行中的统计信息不重叠。该统计信息在内部映射到统计信息 - miss。 |
4.2.0 |
快速路径数据包丢弃数 |
流量缓存快速路径在所有端口的接收或发送方向上丢弃的数据包总数。 该统计信息在内部映射到以下详细统计信息:rx_drops、tx_drops、rx_drops_uplink、tx_drops_uplink、rx_drops_sp 和 tx_drops_sp。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
防火墙泛洪限制数据包丢弃数 |
由于各种协议泛洪超出限制而丢弃的数据包数。在内核接口中,为不同的协议各配置了一个泛洪限制。 该统计信息在内部映射到以下详细统计信息:udp_flood_overlimit_drops、tcp_flood_overlimit_drops、icmp_flood_overlimit_drops 和 other_flood_overlimit_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
防火墙内部错误数据包丢弃数 |
防火墙因内部错误而丢弃的数据包数。 该统计信息在内部映射到以下详细统计信息:memory_drops、state_insert_drops、l7_attr_error_drops、lb_reject_drops 和 src_limit_misc。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
防火墙格式错误的数据包丢弃数 |
防火墙因格式错误而丢弃的数据包数。 该统计信息在内部映射到以下详细统计信息:fragment_drops、short_drops、normalize_drops、bad_timestamp_drops 和 proto_cksum_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
防火墙数据包拒绝数 |
防火墙因各种原因而拒绝的数据包数。 该统计信息在内部映射到以下详细统计信息:rx_ipv4_reject_pkts、tx_ipv4_reject_pkts、rx_ipv6_reject_pkts 和 tx_ipv6_reject_pkts。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
防火墙规则接收的数据包丢弃数 |
由于命中丢弃或拒绝分布式防火墙规则而丢弃的已接收数据包数。 该统计信息在内部映射到统计信息 - match_drop_rule_rx_drops。 |
4.2.0 |
防火墙规则发送的数据包丢弃数 |
由于命中丢弃或拒绝分布式防火墙规则而丢弃的已发送数据包数。 该统计信息在内部映射到统计信息 - match_drop_rule_tx_drops。 |
4.2.0 |
防火墙状态检查数据包丢弃数 |
由于状态相关检查而丢弃的数据包数。 该统计信息在内部映射到以下详细统计信息:icmp_err_pkt_drops、alg_handler_drops、syn_expected_drops、ip_option_drops、syn_proxy_drops、spoof_guard_drops、state_mismatch_drops 和 strict_no_syn_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
防火墙状态表完整数据包丢弃数 |
由于达到最大状态限制而丢弃的数据包数。例如,如果 TCP 状态数超出限制,则会导致丢弃。该统计信息在内部映射到统计信息 - state_limit_drops。 |
4.2.0 |
防火墙数据包丢弃总数 |
防火墙由于各种原因丢弃的数据包数。 该统计信息在内部映射到以下详细统计信息:rx_ipv4_reject_pkts、tx_ipv4_reject_pkts、rx_ipv6_reject_pkts、tx_ipv6_reject_pkts、rx_ipv4_drop_pkts、tx_ipv4_drop_pkts、rx_ipv6_drop_pkts、tx_ipv6_drop_pkts、rx_l2_drop_pkts 和 tx_l2_drop_pkts。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
主机交换机网络不匹配数据包丢弃数 |
由于 VNI 或 VLAN 标记不匹配而丢弃的单播、多播和广播数据包数。 该统计信息在内部映射到以下详细统计信息:vlan_tag_mismatch_rx、vlan_tag_mismatch_tx、vni_tag_mismatch_tx、vlan_tag_mismatch_rx_mcast、vlan_tag_mismatch_tx_mcast 和 vni_tag_mismatch_tx_mcast。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
主机交换机接收的伪 MAC 数据包丢弃数 |
由于数据包的源 MAC 与虚拟机适配器的 MAC 不同而丢弃的数据包数(伪丢弃数)。 如果在分段上禁用伪信号或 MAC 学习,就会导致此类丢弃。如果在分段上启用 MAC 学习或伪信号,可以缓解这个问题。 该统计信息在内部映射到统计信息 - forged_transmit_rx_drops。 |
4.2.0 |
L3 跃点限制数据包丢弃数 |
由于活动时间 (TTL) 短而丢弃的 IPv4 或 IPv6 数据包数。每个逻辑路由器实例将通过 TTL 值推断出 1。可使用数据包捕获功能来确定哪些数据包具有低 TTL 值。 该统计信息在内部映射到以下详细统计信息:ttl_ip4_drops 和 ttl_ipv6_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
L3 邻居无法访问的数据包丢弃数 |
由于邻居解析失败而丢弃的 IPv4 或 IPv6 数据包数。 该统计信息在内部映射到以下详细统计信息:arp_hold_pkt_drops 和 ns_hold_pkt_drops。 |
4.2.0 |
L3 无路由数据包丢弃数 |
每个逻辑路由器实例都有自己的路由表,以用于路由查找。如果由于该逻辑路由器实例没有匹配的路由而丢弃了 IPv4 数据包,则该统计信息会增大。 该统计信息在内部映射到以下详细统计信息:no_route_ipv4_drops 和 no_route_ipv6_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
L3 反向路径转发数据包丢弃数 |
由于反向路径转发检查失败而丢弃的 IPv4 或 IPv6 数据包数。分布式路由器可能会检查数据包的源 IP 是否来自有效(可访问)的源,并且可能会根据配置丢弃数据包。 您可以在 NSX Manager UI 中更改此设置。 该统计信息在内部映射到以下详细统计信息:rpf_ipv4_drops 和 rpf_ipv6_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
Mac 学习表已满 |
在从中央控制平面 (CCP) 或对从底层网络接收的数据包进行 MAC 学习时,由于 MAC 表更新失败而导致的数据包丢弃率。 使用以下命令检查主机传输节点上的 MAC 表是否已满: $ nsxcli -c "get segment mac-table" 如果需要,可以增加 MAC 表大小。 该统计信息在内部映射到以下详细统计信息:mac_tbl_update_full 和 mac_tbl_lookup_full。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
接收的多播数据包 |
VDS 从虚拟机接收的多播数据包速率。 该统计信息在内部映射到统计信息 - rx_mcast_pkts。 |
4.2.0 |
发送的多播数据包 |
VDS 向虚拟机发送的多播数据包速率。 该统计信息在内部映射到统计信息 - tx_mcast_pkts。 |
4.2.0 |
覆盖网络数据路径 L2 |
覆盖网络数据路径 L2 模块因各种原因而丢弃的数据包总数。 单击 UI 中的 NSX 数据路径链接,以了解这些丢弃行为的详细信息。 |
4.2.0 |
发送到上行链路的覆盖网络数据路径 |
由于 MAC 表查找失败而泛洪到远程 VTEP 的单播数据包速率。较大的值意味着存在单向 L2 流量或 MAC 表更新问题。 使用以下命令检查主机传输节点上的 MAC 表是否已满: $ nsxcli -c "get segment mac-table" 如果需要,可以增加 MAC 表大小。 该统计信息在内部映射到统计信息 - mac_tbl_lookup_flood。 |
4.2.0 |
控制平面辅助邻居解析覆盖网络失败 |
由于控制平面无法成功协助完成邻居解析而导致的数据包丢弃率。原因可能是,CCP 尚未学习 IP-MAC 映射或系统的数据包缓冲区资源不足。 该统计信息在内部映射到以下详细统计信息:nd_proxy_resp_unknown、arp_proxy_resp_unknown、nd_proxy_req_fail_drops、arp_proxy_req_fail_drops、arp_proxy_resp_drops 和 nd_proxy_resp_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
覆盖网络接收的数据包丢弃数 |
VDL2LeafInput 中由于各种原因而丢弃的数据包数。请参见分支节点收到的其他丢弃原因,以确定具体丢弃原因。 该统计信息在内部映射到以下详细统计信息:leaf_rx_ref_port_not_found_drops 和 leaf_rx_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
覆盖网络发送的数据包丢弃数 |
VDL2LeafOutput 中由于各种原因而丢弃的数据包数。请参见分支节点发送的其他丢弃原因,以确定具体丢弃原因。 该统计信息在内部映射到统计信息 - leaf_tx_drops。 |
4.2.0 |
覆盖网络上行链路接收的数据包丢弃数 |
VDL2UplinkInput 由于各种原因而丢弃的数据包数。请参见上行链路收到的其他丢弃原因,以确定具体丢弃原因。 该统计信息在内部映射到以下详细统计信息:uplink_rx_drops、uplink_rx_guest_vlan_drops、uplink_rx_invalid_encap_drops 和 mcast_proxy_rx_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
覆盖网络上行链路发送的数据包丢弃数 |
VDL2UplinkOutput 由于各种原因而出现的数据包丢弃总数。请参见上行链路发送的其他丢弃原因,以确定具体丢弃原因。 该统计信息在内部映射到以下详细统计信息:uplink_tx_drops、nested_tn_mcast_proxy_same_vlan_tx_drops、nested_tn_mcast_proxy_diff_vlan_tx_drops 和 mcast_poxy_tx_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
PNIC 已接收 (mbps) |
每秒接收的兆位数。该统计信息在内部映射到统计信息 - rxmbps。 |
4.2.0 |
PNIC 已接收 (pps) |
每秒接收的数据包数。该统计信息在内部映射到统计信息 - rxpps。 |
|
PNIC 丢弃的已接收数据包数 |
每秒接收的错误数。非零值通常表明以下两种情况:
该统计信息在内部映射到统计信息 - rxeps。 |
4.2.0 |
PNIC 已发送 (mbps) |
每秒发送的兆位数。该统计信息在内部映射到统计信息 - txmbps |
4.2.0 |
PNIC 已发送 (pps) |
每秒发送的数据包数。该统计信息在内部映射到统计信息 - txpps。 |
4.2.0 |
PNIC 丢弃的已发送数据包数 |
每秒发送的错误数。该统计信息在内部映射到统计信息 - txeps。 |
4.2.0 |
PNIC |
物理网卡数。该统计信息在内部映射到统计信息 - num_pnics。 |
4.2.0 |
数据包解析错误丢弃数 |
未正确解析的 IPv6 邻居发现 (ND) 数据包数。检查日志中是否有错误消息。在端口上执行数据包捕获,以确定数据包格式是否正确。 该统计信息在内部映射到统计信息 - nd_parse_errors。 |
4.2.0 |
仅慢速路径 |
按照设计始终在慢速路径中处理的数据包速率。广播数据包就是一个例子。 该统计信息在内部映射到统计信息 - slowpath。 |
4.2.0 |
SpoofGuard 数据包丢弃数 |
SpoofGuard 丢弃的 IPv4/IPv6/ARP 数据包数。SpoofGuard 通过维护虚拟机名称/MAC 和 IP 地址的参考表来抵御 IP 欺骗攻击。仅在分段或分段端口上启用了 SpoofGuard 时,此统计信息才会递增。 该统计信息在内部映射到以下详细统计信息:spoof_guard_ipv4_drops、spoof_guard_arp_drops、spoof_guard_ipv6_drops、spoof_guard_nd_drops 和 spoof_guard_non_ip_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
交换机安全 |
交换机安全模块因各种原因而丢弃的数据包总数。单击 UI 中的 NSX 数据路径链接,以了解这些丢弃行为的详细信息。 |
4.2.0 |
未知隧道端点 |
由于入站 GENEVE 标签未知而无法学习源外部 MAC,由此导致的数据包丢弃率。 在控制平面中,该统计信息的值较大可能表明传输节点上缺少远程 VTEP 更新。使用 CLI 检查传输节点上的远程 VTEP 表。 该统计信息在内部映射到统计信息 - uplink_rx_skip_mac_learn。 |
4.2.0 |
VNIC 已接收 (mbps) |
每秒接收的兆位数。该统计信息在内部映射到统计信息 - rxmbps。 |
4.2.0 |
VNIC 已接收 (pps) |
每秒接收的数据包数。该统计信息在内部映射到统计信息 - rxpps。 |
4.2.0 |
VNIC 丢弃的已接收数据包数 |
每秒接收的错误数。非零值通常表明以下两种情况:
该统计信息在内部映射到统计信息 - rxeps。 |
4.2.0 |
VNIC 已发送 (mbps) |
每秒发送的兆位数。该统计信息在内部映射到统计信息 - txmbps。 |
4.2.0 |
VNIC 已发送 (pps) |
每秒发送的数据包数。该统计信息在内部映射到统计信息 - txpps。 |
4.2.0 |
VNIC 丢弃的已发送数据包数 |
每秒发送的错误数。非零值通常表明以下情况:
该统计信息在内部映射到统计信息 - txeps。 |
4.2.0 |
VNIC |
虚拟网卡数。该统计信息在内部映射到统计信息 - num_vnics。 |
4.2.0 |
工作负载 BPDU 筛选器数据包丢弃数 |
由于 BPDU 筛选而丢弃的数据包数。如果启用了 BPDU 筛选器,则将丢弃流向已配置的 BPDU 目标 MAC 地址的流量。 该统计信息在内部映射到统计信息 - bpdu_filter_drops。 |
4.2.0 |
工作负载 DHCP 不允许数据包丢弃 |
由于 DHCP 客户端/服务器阻止而丢弃的 DHCPv4 或 DHCPv6 数据包数。 该统计信息在内部映射到以下详细统计信息:dhcp_client_block_ipv6_drops、dhcp_server_block_ipv6_drops、dhcp_client_block_ipv4_drops、dhcp_server_block_ipv4_drops 和 dhcp_client_validate_ipv4_drops。有关更多详细信息,请参见各统计信息定义。 |
4.2.0 |
工作负载 IPv6 RA 防护数据包丢弃数 |
由于 RA 防护而丢弃的 IPv6 路由器通告数据包数。RA 防护功能可筛选出从虚拟机发送的 IPv6 路由器通告(ICMPv6 类型 134)。在 IPv6 部署中,路由器会定期多播路由器通告消息,然后主机会使用这些消息进行自动配置。 您可以使用 RA 防护功能来保护网络,防止未经授权或配置不正确的路由器在连接到网络分段时生成恶意 RA 消息。在 NSX Manager UI 中,您可以在 中配置 RA 防护。 该统计信息在内部映射到统计信息 - ra_guard_drops。 |
4.2.0 |
vSwitch |
vSwitch 模块因各种原因而丢弃的数据包总数。 单击 UI 中的 NSX 数据路径链接,以了解这些丢弃行为的详细信息。 |
|
从上行链路接收的 vSwitch |
从 vSwitch 的一个或多个上行链路接收的、由 vSwitch 泛洪到同一广播域中其他端口的未知单播数据包速率。 在存在启用了 MAC 学习的分段或池端口的情况下,如果泛洪了未知单播数据包,则该统计信息会递增。在 vSwitch MAC 地址表中找不到数据包的目标 MAC 地址时,会发生未知单播泛洪。 在存在 MAC 学习的情况下,如果目标 MAC 从 MAC 地址表中淘汰,则该统计信息会递增。该统计信息在内部映射到统计信息 - unknown_unicast_rx_uplink_pkts。 |
4.2.0 |
发送到上行链路的 vSwitch |
由 vSwitch 泛洪到一个或多个上行链路的未知单播数据包速率。 在存在启用了 MAC 学习的分段或池端口的情况下,如果泛洪了未知单播数据包,则该统计信息会递增。在 vSwitch MAC 地址表中找不到数据包的目标 MAC 地址时,会发生未知单播泛洪。 在存在 MAC 学习的情况下,如果目标 MAC 从 MAC 地址表中淘汰,则该统计信息会递增。该统计信息在内部映射到统计信息 - unknown_unicast_tx_uplink_pkts。 |
4.2.0 |
模块:host_enhanced_fastpath
此数据路径模块提供了 ENS 数据路径模块的主机/基础架构统计信息。此数据路径模块在 NSX Central CLI 中被称为 host-fastpath-ens
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
flow_table_occupancy_0_pct |
直方图:利用率为 0-25% 的流量表数。 |
4.2.0 |
flow_table_occupancy_25_pct |
直方图:利用率为 25-50% 的流量表数。 |
4.2.0 |
flow_table_occupancy_50_pct |
直方图:利用率为 50-75% 的流量表数。 |
4.2.0 |
flow_table_occupancy_75_pct |
直方图:利用率为 75-90% 的流量表数。 |
4.2.0 |
flow_table_occupancy_90_pct |
直方图:利用率为 90-95% 的流量表数。如果活动流量的数量大于流量表大小,您可能会看到流量未命中次数增加,从而导致性能下降。流量表占用直方图统计信息对于确定流量表是否即将占满非常有用。 如果短期连接不断传入,则增加流量表大小并不一定能提高性能。无论流量表大小如何,流量表可能始终处于已满状态。在这种情况下,增加流量表大小也无济于事。EDP 提供了用于检测这种情况的逻辑,并自动启用和禁用流量表来处理这种情况。 |
4.2.0 |
flow_table_occupancy_95_pct |
直方图:利用率为 95% 的流量表数。如果活动流量的数量大于流量表大小,您可能会看到流量未命中次数增加,从而导致性能下降。流量表占用直方图统计信息对于确定流量表是否即将占满非常有用。 如果短期连接不断传入,则增加流量表大小并不一定能提高性能。无论流量表大小如何,流量表可能始终处于已满状态。在这种情况下,增加流量表大小也无济于事。EDP 提供了用于检测这种情况的逻辑,并自动启用和禁用流量表来处理这种情况。 |
4.2.0 |
flow_table_size |
EDP 中流量表的最大大小。 |
4.2.0 |
hits |
ENS 模块中的流量表命中次数。此统计信息可用于计算流量命中/未命中/慢速路径率或计算命中/未命中/慢速路径比率。 |
4.2.0 |
insertion_errors |
流量表插入错误数。当流量表已满(或接近已满)且存在哈希冲突时,可能会发生这种情况。 |
4.2.0 |
miss |
由于流量未命中而由慢速路径处理的数据包。此统计信息不会与此表后面介绍的慢速路径统计信息重叠。此统计信息可用于计算流量命中/未命中/慢速路径率或计算命中/未命中/慢速路径比率。 |
4.2.0 |
num_flow_tables |
用于 EDP 的流量表数。EDP 的每个 EDP 线程具有一个流量表。这对于查看创建和使用了多少个流量表非常有用。 |
4.2.0 |
num_flows |
EDP 中的流量数。 |
4.2.0 |
num_flows_created |
在 EDP 中创建的流量数。使用此统计信息计算流量创建速度,这对于确定工作负载特性将非常有用。流量表占用直方图统计信息将告知您流量表是否已满。 如果流量创建速度较低,并且 num_flows 或流量占用统计信息没有显著变化,则表示流量稳定且处于稳定状态。活动流量数保持稳定。如果流量创建速度较高且 num_flows 增加,则意味着活动流量的数量在不断增加。如果流量创建速度不下降,流量表最终将变满。 如果流量创建速度较高且平均流量大小过大,则应考虑增加流量表大小。平均流量大小 = 命中率 / num_flows_created 率。 平均流量大小的值较小意味着流量的生存周期较短。hits 和 num_flows_created 都将累积。您可以先计算速率值,以获取特定时间段内的平均流量大小。 |
4.2.0 |
slowpath |
按设计始终在慢速路径中处理的数据包。广播数据包就是一个例子。此统计信息可用于计算流量命中/未命中/慢速路径率或计算命中/未命中/慢速路径比率。 |
4.2.0 |
模块:host_fastpath_ens_lcore
此数据路径模块提供了 ENS 模块的预计 Lcore 使用率统计信息。最多显示 16 个按使用率排序的 Lcore。如果配置的 Lcore 少于 16 个,则仅显示具有有效 ID 的 Lcore。此数据路径模块在 NSX Central CLI 中被称为 host-fastpath-ens-lcore
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
lcorerank01_lcoreid |
EDP 性能模式下 CPU 使用率排名第 1 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank01_lcoreusage |
排名第 1 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank02_lcoreid |
EDP 性能模式下 CPU 使用率排名第 2 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank02_lcoreusage |
排名第 2 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank03_lcoreid |
EDP 性能模式下 CPU 使用率排名第 3 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank03_lcoreusage |
排名第 3 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank04_lcoreid |
EDP 性能模式下 CPU 使用率排名第 4 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank04_lcoreusage |
排名第 4 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank05_lcoreid |
EDP 性能模式下 CPU 使用率排名第 5 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank05_lcoreusage |
排名第 5 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank06_lcoreid |
EDP 性能模式下 CPU 使用率排名第 6 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank06_lcoreusage |
排名第 6 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank07_lcoreid |
EDP 性能模式下 CPU 使用率排名第 7 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank07_lcoreusage |
排名第 7 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank08_lcoreid |
EDP 性能模式下 CPU 使用率排名第 8 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank08_lcoreusage |
排名第 8 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank09_lcoreid |
EDP 性能模式下 CPU 使用率排名第 9 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank09_lcoreusage |
排名第 9 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank10_lcoreid |
EDP 性能模式下 CPU 使用率排名第 10 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank10_lcoreusage |
排名第 10 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank11_lcoreid |
EDP 性能模式下 CPU 使用率排名第 11 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank11_lcoreusage |
排名第 11 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank12_lcoreid |
EDP 性能模式下 CPU 使用率排名第 12 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank12_lcoreusage |
排名第 12 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank13_lcoreid |
EDP 性能模式下 CPU 使用率排名第 13 的内核线程的 ID。仅在 ID 有效时显示。 |
|
lcorerank13_lcoreusage |
排名第 13 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank14_lcoreid |
EDP 性能模式下 CPU 使用率排名第 14 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank14_lcoreusage |
排名第 14 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank15_lcoreid |
EDP 性能模式下 CPU 使用率排名第 15 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank15_lcoreusage |
排名第 15 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank16_lcoreid |
EDP 性能模式下 CPU 使用率排名第 16 的内核线程的 ID。仅在 ID 有效时显示。 |
4.2.0 |
lcorerank16_lcoreusage |
排名第 16 的 Lcore 的 CPU 使用率。仅在 ID 有效时显示。 |
4.2.0 |
模块:host_standard_fastpath
此数据路径模块提供了旧版流量缓存数据路径模块的主机/基础架构统计信息。此数据路径模块在 NSX Central CLI 中被称为 host-fastpath-standard
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
flow_table_occupancy_0_pct |
直方图:利用率为 0-25% 的流量表数。 |
4.2.0 |
flow_table_occupancy_25_pct |
直方图:利用率为 25-50% 的流量表数。 |
4.2.0 |
flow_table_occupancy_50_pct |
直方图:利用率为 50-75% 的流量表数。 |
4.2.0 |
flow_table_occupancy_75_pct |
直方图:利用率为 75-90% 的流量表数。 |
4.2.0 |
flow_table_occupancy_90_pct |
直方图:利用率为 90-95% 的流量表数。如果活动流量的数量大于流量表大小,您可能会看到流量未命中次数增加,从而导致性能下降。流量表占用直方图统计信息对于确定流量表是否即将占满非常有用。 如果短期连接不断传入,则增加流量表大小并不一定能提高性能。无论流量表大小如何,流量表可能始终处于已满状态。在这种情况下,增加流量表大小也无济于事。EDP 提供了用于检测这种情况的逻辑,并自动启用和禁用流量表来处理这种情况。 |
4.2.0 |
flow_table_occupancy_95_pct |
直方图:利用率为 95% 的流量表数。如果活动流量的数量大于流量表大小,您可能会看到流量未命中次数增加,从而导致性能下降。流量表占用直方图统计信息对于确定流量表是否即将占满非常有用。 如果短期连接不断传入,则增加流量表大小并不一定能提高性能。无论流量表大小如何,流量表可能始终处于已满状态。在这种情况下,增加流量表大小也无济于事。EDP 提供了用于检测这种情况的逻辑,并自动启用和禁用流量表来处理这种情况。 |
4.2.0 |
flow_table_size |
EDP 中流量表的最大大小。 |
4.2.0 |
hits |
ENS 模块中的流量表命中次数。此统计信息可用于计算流量命中/未命中/慢速路径率或计算命中/未命中/慢速路径比率。 |
4.2.0 |
insertion_errors |
流量表插入错误数。当流量表已满(或接近已满)且存在哈希冲突时,可能会发生这种情况。 |
4.2.0 |
miss |
由于流量未命中而由慢速路径处理的数据包。此统计信息不会与此表后面介绍的慢速路径统计信息重叠。此统计信息可用于计算流量命中/未命中/慢速路径率或计算命中/未命中/慢速路径比率。 |
4.2.0 |
num_flow_tables |
用于 EDP 的流量表数。EDP 的每个 EDP 线程具有一个流量表。这对于查看创建和使用了多少个流量表非常有用。 |
4.2.0 |
num_flows |
EDP 中的流量数。 |
4.2.0 |
num_flows_created |
在 EDP 中创建的流量数。使用此统计信息计算流量创建速度,这对于确定工作负载特性将非常有用。流量表占用直方图统计信息将告知您流量表是否已满。 如果流量创建速度较低,并且 num_flows 或流量占用统计信息没有显著变化,则表示流量稳定且处于稳定状态。活动流量数保持稳定。如果流量创建速度较高且 num_flows 增加,则意味着活动流量的数量在不断增加。如果流量创建速度不下降,流量表最终将变满。 如果流量创建速度较高且平均流量大小过大,则应考虑增加流量表大小。平均流量大小 = 命中率 / num_flows_created 率。 平均流量大小的值较小意味着流量的生存周期较短。hits 和 num_flows_created 都将累积。您可以先计算速率值,以获取特定时间段内的平均流量大小。 |
4.2.0 |
slowpath |
按设计始终在慢速路径中处理的数据包。广播数据包就是一个例子。此统计信息可用于计算流量命中/未命中/慢速路径率或计算命中/未命中/慢速路径比率。 |
4.2.0 |
模块:host_net_thread_nioc
此数据路径模块提供了与 NIOC 相关的网络线程统计信息。此数据路径模块在 NSX Central CLI 中被称为 host-net-thread-nioc
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
hist_0_pct |
直方图:0%-25% 内的线程数 |
4.2.0 |
hist_25_pct |
直方图:25%-50% 内的线程数 |
4.2.0 |
hist_50_pct |
直方图:50%-70% 内的线程数 |
4.2.0 |
hist_70_pct |
直方图:70%-80% 内的线程数 |
4.2.0 |
hist_80_pct |
直方图:80%-85% 内的线程数 |
4.2.0 |
hist_85_pct |
直方图:85%-90% 内的线程数 |
4.2.0 |
hist_90_pct |
直方图:90%-95% 内的线程数 |
4.2.0 |
hist_95_pct |
直方图:95%-97% 内的线程数 |
4.2.0 |
hist_97_pct |
直方图:97%-99% 内的线程数 |
4.2.0 |
hist_99_pct |
直方图:利用率高于 99% 的线程数。 网络数据路径问题表现为三个症状:数据包丢弃、低吞吐量和高延迟。虽然功能问题和性能问题都会出现这些症状,但通常情况下,这些症状是由性能相关的问题引起的。在调查的早期阶段,排除该问题是否与性能有关至关重要。 特别是在基于虚拟化构建的软件定义的网络中,CPU 是影响网络性能的最关键资源。由于市场上网卡的速度都很快,因此网络带宽很少会成为瓶颈。 数据路径中的数据包处理通常涉及一组在管道中执行且与保存数据包的队列和缓冲区相关联的线程。如果从 vCPU 到内核网络线程的管道中的任何线程过载,相应的队列和缓冲区可能会变满,从而导致数据包丢弃。这会限制吞吐量。 除了监控传统网络统计信息外,监控内核网络线程的 CPU 使用率也至关重要。我们不会使用各个线程的 CPU 使用率数字,而是将它们分组并生成直方图。然后,您可以监控 90pct、95pct、97pct、99pct 等直方图 bin,它们可告知您有多少网络线程出现瓶颈。total_CPU 统计信息对于显示在内核中处理数据包所用的 CPU 时间也很有用。 |
4.2.0 |
max_cpu |
最大线程 CPU 占用率 |
4.2.0 |
min_cpu |
最小线程 CPU 占用率 |
4.2.0 |
num_threads |
用于将数据包从 NetIOC 数据包调度程序传送到上行链路的线程数。 |
4.2.0 |
total_cpu |
组中全部网络线程的 CPU 占用率总和。CPU 总占用率用于显示不同线程组和虚拟机之间的总体 CPU 使用率分布。 |
4.2.0 |
模块:host_net_thread_rx
此数据路径模块提供了与 RX 相关的网络线程统计信息。此数据路径模块在 NSX Central CLI 中被称为 host-net-thread-rx
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
hist_0_pct |
直方图:0%-25% 内的线程数 |
4.2.0 |
hist_25_pct |
直方图:25%-50% 内的线程数 |
4.2.0 |
hist_50_pct |
直方图:50%-70% 内的线程数 |
4.2.0 |
hist_70_pct |
直方图:70%-80% 内的线程数 |
4.2.0 |
hist_80_pct |
直方图:80%-85% 内的线程数 |
4.2.0 |
hist_85_pct |
直方图:85%-90% 内的线程数 |
4.2.0 |
hist_90_pct |
直方图:90%-95% 内的线程数 |
4.2.0 |
hist_95_pct |
直方图:95%-97% 内的线程数 |
4.2.0 |
hist_97_pct |
直方图:97%-99% 内的线程数 |
4.2.0 |
hist_99_pct |
直方图:利用率高于 99% 的线程数。 网络数据路径问题表现为三个症状:数据包丢弃、低吞吐量和高延迟。虽然功能问题和性能问题都会出现这些症状,但通常情况下,这些症状是由性能相关的问题引起的。在调查的早期阶段,排除该问题是否与性能有关至关重要。 特别是在基于虚拟化构建的软件定义的网络中,CPU 是影响网络性能的最关键资源。由于市场上网卡的速度都很快,因此网络带宽很少会成为瓶颈。 数据路径中的数据包处理通常涉及一组在管道中执行且与保存数据包的队列和缓冲区相关联的线程。如果从 vCPU 到内核网络线程的管道中的任何线程过载,相应的队列和缓冲区可能会变满,从而导致数据包丢弃。这会限制吞吐量。 除了监控传统网络统计信息外,监控内核网络线程的 CPU 使用率也至关重要。我们不会使用各个线程的 CPU 使用率数字,而是将它们分组并生成直方图。然后,您可以监控 90pct、95pct、97pct、99pct 等直方图 bin,它们可告知您有多少网络线程出现瓶颈。total_CPU 统计信息对于显示在内核中处理数据包所用的 CPU 时间也很有用。 |
4.2.0 |
max_cpu |
最大线程 CPU 占用率 |
4.2.0 |
min_cpu |
最小线程 CPU 占用率 |
4.2.0 |
num_threads |
用于将数据包从 NetIOC 数据包调度程序传送到上行链路的线程数。 |
4.2.0 |
total_cpu |
组中全部网络线程的 CPU 占用率总和。CPU 总占用率用于显示不同线程组和虚拟机之间的总体 CPU 使用率分布。 |
4.2.0 |
模块:host_net_thread_tx
此数据路径模块提供了与 TX 相关的网络线程统计信息。此数据路径模块在 NSX Central CLI 中被称为 host-net-thread-tx
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
hist_0_pct |
直方图:0%-25% 内的线程数 |
4.2.0 |
hist_25_pct |
直方图:25%-50% 内的线程数 |
4.2.0 |
hist_50_pct |
直方图:50%-70% 内的线程数 |
4.2.0 |
hist_70_pct |
直方图:70%-80% 内的线程数 |
4.2.0 |
hist_80_pct |
直方图:80%-85% 内的线程数 |
4.2.0 |
hist_85_pct |
直方图:85%-90% 内的线程数 |
4.2.0 |
hist_90_pct |
直方图:90%-95% 内的线程数 |
4.2.0 |
hist_95_pct |
直方图:95%-97% 内的线程数 |
4.2.0 |
hist_97_pct |
直方图:97%-99% 内的线程数 |
4.2.0 |
hist_99_pct |
直方图:利用率高于 99% 的线程数。 网络数据路径问题表现为三个症状:数据包丢弃、低吞吐量和高延迟。虽然功能问题和性能问题都会出现这些症状,但通常情况下,这些症状是由性能相关的问题引起的。在调查的早期阶段,排除该问题是否与性能有关至关重要。 特别是在基于虚拟化构建的软件定义的网络中,CPU 是影响网络性能的最关键资源。由于市场上网卡的速度都很快,因此网络带宽很少会成为瓶颈。 数据路径中的数据包处理通常涉及一组在管道中执行且与保存数据包的队列和缓冲区相关联的线程。如果从 vCPU 到内核网络线程的管道中的任何线程过载,相应的队列和缓冲区可能会变满,从而导致数据包丢弃。这会限制吞吐量。 除了监控传统网络统计信息外,监控内核网络线程的 CPU 使用率也至关重要。我们不会使用各个线程的 CPU 使用率数字,而是将它们分组并生成直方图。然后,您可以监控 90pct、95pct、97pct、99pct 等直方图 bin,它们可告知您有多少网络线程出现瓶颈。total_CPU 统计信息对于显示在内核中处理数据包所用的 CPU 时间也很有用。 |
4.2.0 |
max_cpu |
最大线程 CPU 占用率 |
4.2.0 |
min_cpu |
最小线程 CPU 占用率 |
4.2.0 |
num_threads |
用于将数据包从 NetIOC 数据包调度程序传送到上行链路的线程数。 |
4.2.0 |
total_cpu |
组中全部网络线程的 CPU 占用率总和。CPU 总占用率用于显示不同线程组和虚拟机之间的总体 CPU 使用率分布。 |
4.2.0 |
模块:host_pcpu
此数据路径模块提供了物理 CPU 的使用率。此数据路径模块在 NSX Central CLI 中被称为 host-pcpu
host-pcpu。
统计信息 | 描述 | 引入的版本 |
---|---|---|
hist_0_pct |
直方图:在 0%-50% 范围内的 CPU 数 |
4.2.0 |
hist_50_pct |
直方图:在 50%-70% 范围内的 CPU 数 |
4.2.0 |
hist_75_pct |
直方图:在 75%-85% 范围内的 CPU 数 |
4.2.0 |
hist_85_pct |
直方图:在 85%-90% 范围内的 CPU 数 |
4.2.0 |
hist_90_pct |
直方图:在 90%-95% 范围内的 CPU 数 |
4.2.0 |
hist_95_pct |
直方图:在 95%-100% 范围内的 CPU 数 |
4.2.0 |
total_cpu |
主机 CPU 总占用率。主机上所有物理 CPU 内核的占用率总和。 网络数据路径问题表现为三个症状:数据包丢弃、低吞吐量和高延迟。虽然功能问题和性能问题都会出现这些症状,但通常情况下,这些症状是由性能相关的问题引起的。在调查的早期阶段,排除该问题是否与性能有关至关重要。 特别是在基于虚拟化构建的软件定义的网络中,CPU 是影响网络性能的最关键资源。由于市场上网卡的速度都很快,因此网络带宽很少会成为瓶颈。 数据路径中的数据包处理通常涉及一组在管道中执行且与保存数据包的队列和缓冲区相关联的线程。如果从 vCPU 到内核网络线程的管道中的任何线程过载,相应的队列和缓冲区可能会变满,从而导致数据包丢弃。这会限制吞吐量。 除了监控传统网络统计信息外,监控内核网络线程的 CPU 使用率也至关重要。我们不会使用各个线程的 CPU 使用率数字,而是将它们分组并生成直方图。然后,您可以监控 90pct、95pct、97pct、99pct 等直方图 bin,它们可告知您有多少网络线程出现瓶颈。total_CPU 统计信息对于显示在内核中处理数据包所用的 CPU 时间也很有用。 |
4.2.0 |
模块:host_uplink
此数据路径模块提供了物理上行链路网卡的使用率。此数据路径模块在 NSX Central CLI 中被称为 host-uplink
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
num_pnics |
物理网卡数 |
4.2.0 |
rx_error_total |
驱动程序统计信息:收到的错误总数。通常,该统计信息应具有与 rx_missed 类似的值。
非零值通常表示存在以下两种情况:
|
4.2.0 |
rx_missed |
驱动程序统计信息:收到的未命中。通常,该统计信息应具有与 rx_error_total 类似的值。
非零值通常表示存在以下两种情况:
|
4.2.0 |
rxeps |
每秒接收的错误数。
非零值通常表示存在以下两种情况:
|
4.2.0 |
rxmbps |
每秒接收的兆位数 |
4.2.0 |
rxpps |
每秒接收的数据包数 |
4.2.0 |
txeps |
每秒发送的错误数 |
4.2.0 |
txmbps |
每秒发送的兆位数 |
4.2.0 |
txpps |
每秒发送的数据包数 |
4.2.0 |
模块:host_vnic
此数据路径模块提供了虚拟网卡的使用率。此数据路径模块在 NSX Central CLI 中被称为 host-vNIC
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
num_vnics |
虚拟网卡数。 |
4.2.0 |
rxeps |
每秒接收的错误数。
非零值通常表明以下两种情况:
|
4.2.0 |
rxmbps |
每秒接收的兆位数。 |
4.2.0 |
rxpps |
每秒接收的数据包数。 |
4.2.0 |
txeps |
每秒发送的错误数。
非零值通常表明以下两种情况:
|
4.2.0 |
txmbps |
每秒发送的兆位数。 |
4.2.0 |
txpps |
每秒发送的数据包数。 |
4.2.0 |
模块:host_vcpu
此数据路径模块提供了虚拟 CPU 的使用率。此数据路径模块在 NSX Central CLI 中被称为 host-vcpu
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
hist_0_pct |
直方图:在 0%-50% 范围内的 CPU 数。 |
4.2.0 |
hist_50_pct |
直方图:在 50%-70% 范围内的 CPU 数。 |
4.2.0 |
hist_75_pct |
直方图:在 75%-85% 范围内的 CPU 数 |
4.2.0 |
hist_85_pct |
直方图:在 85%-90% 范围内的 CPU 数。 |
4.2.0 |
hist_90_pct |
直方图:在 90%-95% 范围内的 CPU 数。 |
4.2.0 |
hist_95_pct |
直方图:在 95%-100% 范围内的 CPU 数。 网络数据路径问题表现为三个症状:数据包丢弃、低吞吐量和高延迟。虽然功能问题和性能问题都会出现这些症状,但通常情况下,这些症状是由性能相关的问题引起的。在调查的早期阶段,排除该问题是否与性能有关至关重要。 特别是在基于虚拟化构建的软件定义的网络中,CPU 是影响网络性能的最关键资源。由于市场上网卡的速度都很快,因此网络带宽很少会成为瓶颈。 数据路径中的数据包处理通常涉及一组在管道中执行且与保存数据包的队列和缓冲区相关联的线程。如果从 vCPU 到内核网络线程的管道中的任何线程过载,相应的队列和缓冲区可能会变满,从而导致数据包丢弃。这会限制吞吐量。 除了监控传统网络统计信息外,监控内核网络线程的 CPU 使用率也至关重要。我们不会使用各个线程的 CPU 使用率数字,而是将它们分组并生成直方图。然后,您可以监控直方图的分段,了解有多少网络线程遇到了瓶颈。total_CPU 统计信息对于显示在内核中处理数据包所用的 CPU 时间也很有用。 |
4.2.0 |
total_cpu |
vCPU 总占用率。主机上所有虚拟机的 CPU 占用率总和。CPU 总占用率用于显示不同线程组和虚拟机之间的总体 CPU 使用率分布。 |
4.2.0 |
模块:fastpath
此模块包括流量缓存 (FC) 和增强型网络堆栈 (ENS) 数据路径模块,这些模块用于处理增强型数据路径数据包。此数据路径模块在 NSX Central CLI 中被称为 nsxt-fp
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
rx_bytes |
流量缓存快速路径在端口接收方向上接收的字节数。 |
4.2.0 |
rx_drops |
流量缓存快速路径在端口接收方向上丢弃的数据包数。这不适用于非 ENS 模式下的流量缓存。 |
4.2.0 |
rx_drops_sp |
在将数据包从流量缓存快速路径发送到慢速路径时丢弃的已接收数据包数。这不适用于非 ENS 模式和标准交换机模式下的流量缓存。 |
4.2.0 |
rx_drops_uplink |
流量缓存快速路径在上行链路端口接收方向上丢弃的数据包数。这不适用于非 ENS 模式和标准交换机模式下的流量缓存。 |
4.2.0 |
rx_pkts |
流量缓存快速路径在端口接收方向上接收的数据包数。 |
4.2.0 |
rx_pkts_sp |
在将数据包从流量缓存快速路径发送到慢速路径时接收的数据包数。这不适用于非 ENS 模式和标准交换机模式下的流量缓存。 |
4.2.0 |
rx_pkts_uplink |
流量缓存快速路径在上行链路端口接收方向上接收的数据包数。 |
4.2.0 |
tx_bytes |
流量缓存快速路径在端口发送方向上发送的字节数。 |
4.2.0 |
tx_drops |
流量缓存快速路径在端口发送方向上丢弃的数据包数。 |
4.2.0 |
tx_drops_sp |
当数据包从慢速路径注入回流量缓存快速路径时,快速路径丢弃的已发送数据包数。这不适用于非 ENS 模式和标准交换机模式下的流量缓存。 |
4.2.0 |
tx_drops_uplink |
流量缓存快速路径在上行链路端口发送方向上丢弃的数据包数。 |
4.2.0 |
tx_pkts |
流量缓存快速路径在端口发送方向上发送的数据包数。 |
4.2.0 |
tx_pkts_sp |
当数据包从慢速路径注入回流量缓存快速路径时快速路径发送的数据包数。这不适用于标准交换机模式。 |
4.2.0 |
tx_pkts_uplink |
流量缓存快速路径在上行链路端口发送方向上发送的数据包数。 |
4.2.0 |
模块:switch_security
通过检查通往分段的流量并丢弃从虚拟机发送的未经授权的数据包,该数据路径模块提供了无状态 L2 和 L3 安全性。在这个表中,Rx 指“从”交换机接收的数据包,Rx 指发送“至”交换机的数据包。此数据路径模块在 NSX Central CLI 中被称为 nsxt-swsec
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
bpdu_filter_drops |
由于 BPDU 筛选而丢弃的数据包数。如果启用了 BPDU 筛选器,则将丢弃流向已配置的 BPDU 目标 MAC 地址的流量。 |
4.2.0 |
dhcp_client_block_ipv4_drops |
由于 DHCP 客户端阻止功能而丢弃的 IPv4 DHCP 数据包数。 DHCP 客户端阻止功能会阻止 DHCP 请求,以禁止虚拟机获取 DHCP IP 地址。如果不希望出现这种情况,可以在分段或分段端口的分段安全配置文件中停用 DHCPv4 客户端阻止功能。要在 NSX Manager 中执行此操作,请导航到 。 |
4.2.0 |
dhcp_client_block_ipv6_drops |
由于 DHCP 客户端阻止功能而丢弃的 IPv6 DHCP 数据包数。 DHCP 客户端阻止功能会阻止 DHCP 请求,以禁止虚拟机获取 DHCP IP 地址。如果不希望出现这种情况,可以在分段或分段端口的分段安全配置文件中停用 DHCPv6 客户端阻止功能。要在 NSX Manager 中执行此操作,请导航到 。 |
4.2.0 |
dhcp_client_validate_ipv4_drops |
由于负载中的地址无效而丢弃的 IPv4 DHCP 数据包数。 网络上的恶意虚拟机可能试图发送无效的 DHCP 数据包,例如没有源 IP、客户端硬件地址与源 MAC 不匹配等。 |
4.2.0 |
dhcp_server_block_ipv4_drops |
由于 DHCP 服务器阻止功能而丢弃的 IPv4 DHCP 数据包数。“DHCP 服务器阻止”阻止从 DHCP 服务器到 DHCP 客户端的流量。 如果不希望出现这种情况,可以在分段或分段端口的分段安全配置文件中禁用 DHCP 服务器阻止功能。要在 NSX Manager 中执行此操作,请导航到 。 |
4.2.0 |
dhcp_server_block_ipv6_drops |
由于 DHCP 服务器阻止功能而丢弃的 DHCPv6 数据包数。 “DHCP 服务器阻止”阻止从 DHCP 服务器到 DHCP 客户端的流量。如果不希望出现这种情况,可以在分段或分段端口的分段安全配置文件中禁用 DHCPv6 服务器阻止功能。要在 NSX Manager 中执行此操作,请导航到 。 |
4.2.0 |
nd_parse_errors |
未正确解析的 IPv6 邻居发现 (ND) 数据包数。 检查日志中是否有错误消息。在端口上执行数据包捕获,以确定数据包格式是否正确。 |
4.2.0 |
ra_guard_drops |
由于 RA 防护而丢弃的 IPv6 路由器通告数据包数。 RA 防护功能可筛选出从虚拟机发送的 IPv6 路由器通告(ICMPv6 类型 134)。在 IPv6 部署中,路由器会定期多播路由器通告消息,然后主机会使用这些消息进行自动配置。 您可以使用 RA 防护功能来保护网络,防止未经授权或配置不正确的路由器在连接到网络分段时生成恶意 RA 消息。在 NSX Manager UI 中,您可以在 中配置 RA 防护。 |
4.2.0 |
rx_arp_pkts |
VDS 从虚拟机接收的 ARP 数据包数。 |
4.2.0 |
rx_garp_pkts |
VDS 从虚拟机接收的免费 ARP (GARP) 数据包数。 |
4.2.0 |
rx_ipv4_pkts |
VDS 从虚拟机接收的 IPv4 数据包数。 |
4.2.0 |
rx_ipv6_pkts |
VDS 从虚拟机接收的 IPv6 数据包数。 |
4.2.0 |
rx_na_pkts |
VDS 从虚拟机接收的 IPv6 邻居发现 (ND) 邻居通告 (NA) 数据包数。 |
4.2.0 |
rx_non_ip_pkts |
VDS 从虚拟机接收的非 IP 数据包数。 |
4.2.0 |
rx_ns_pkts |
VDS 从虚拟机接收的 IPv6 邻居发现 (ND) 邻居请求 (NS) 数据包数。 |
4.2.0 |
rx_rate_limit_bcast_drops |
由于广播速率限制而丢弃的输入数据包数。 可以使用速率限制来保护网络或虚拟机,使其免受广播风暴等事件的影响。在 NSX Manager UI 中,您可以在 中配置速率限制值。 |
4.2.0 |
rx_rate_limit_mcast_drops |
由于多播速率限制而丢弃的输入数据包数。 可以使用速率限制来保护网络或虚拟机,使其免受多播风暴等事件的影响。在 NSX Manager UI 中,您可以在 中配置速率限制值。 |
4.2.0 |
rx_unsolicited_na_pkts |
VDS 从虚拟机接收的未经请求的 IPv6 邻居发现 (ND) 邻居通告 (NA) 数据包数。 |
4.2.0 |
rxbcastpkts |
VDS 从虚拟机接收的广播数据包数。 |
4.2.0 |
rxmcastpkts |
VDS 从虚拟机接收的多播数据包数。 |
4.2.0 |
spoof_guard_arp_drops |
由于 SpoofGuard 而丢弃的 ARP 数据包数。 SpoofGuard 通过跟踪 MAC 和 IP 地址来抵御恶意 ARP 欺骗攻击。仅在分段或分段端口上启用了 SpoofGuard 时,该统计信息才会递增。( ) |
4.2.0 |
spoof_guard_ipv4_drops |
由于 SpoofGuard 而丢弃的 IPv4 数据包数。 SpoofGuard 通过维护虚拟机名称和 IP 地址的参考表来抵御 IP 欺骗。仅在分段或分段端口上启用了 SpoofGuard 时,该统计信息才会递增。( ) |
4.2.0 |
spoof_guard_ipv6_drops |
由于 SpoofGuard 而丢弃的 IPv6 数据包数。 SpoofGuard 通过维护虚拟机名称和 IP 地址的参考表来抵御 IP 欺骗。仅在分段或分段端口上启用了 SpoofGuard 时,该统计信息才会递增。( ) |
4.2.0 |
spoof_guard_nd_drops |
由于 SpoofGuard 而丢弃的 IPv6 邻居发现 (ND) 数据包数。 SpoofGuard 通过筛选出地址与虚拟机地址不匹配的 ND 数据包来抵御 ND 欺骗攻击。仅在分段或分段端口上启用了 SpoofGuard 时,该统计信息才会递增。( ) |
4.2.0 |
spoof_guard_non_ip_drops |
由于 SpoofGuard 而丢弃的非 IP 数据包数。 仅在分段或分段端口上启用了 SpoofGuard 时,该统计信息才会递增。( ) |
4.2.0 |
tx_arp_pkts |
VDS 向虚拟机发送的 ARP 数据包数。 |
4.2.0 |
tx_ipv4_pkts |
VDS 向虚拟机发送的 IPv4 数据包数。 |
4.2.0 |
tx_ipv6_pkts |
VDS 向虚拟机发送的 IPv6 数据包数。 |
4.2.0 |
tx_non_ip_pkts |
VDS 向虚拟机发送的非 IP 数据包数。 |
4.2.0 |
tx_rate_limit_bcast_drops |
由于广播速率限制而丢弃的输出数据包数。 可以使用速率限制来保护网络或虚拟机,使其免受广播风暴等事件的影响。在 NSX Manager UI 中,您可以在 中配置速率限制值。 |
4.2.0 |
tx_rate_limit_mcast_drops |
由于多播速率限制而丢弃的输出数据包数。 可以使用速率限制来保护网络或虚拟机,使其免受多播风暴等事件的影响。在 NSX Manager UI 中,您可以在 中配置速率限制值。 |
4.2.0 |
txbcastpkts |
VDS 向虚拟机发送的广播数据包数。 |
4.2.0 |
txmcastpkts |
VDS 向虚拟机发送的多播数据包数。 |
4.2.0 |
模块:overlay_datapath_l2
此数据路径模块负责工作负载连接。此数据路径模块在 NSX Central CLI 中被称为 nsxt-vdl2
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
arp_proxy_req_fail_drops |
当 CCP 因没有 IP-MAC 绑定而导致 ARP 禁止失败时,上行链路上针对基于数据路径学习重新发送失败的 ARP 请求数。 非零统计信息表明系统的数据包缓冲区资源不足,持续递增应视为严重错误。 |
4.2.0 |
arp_proxy_req_suppress |
VDL2 由于要查询 CCP 来查找 IP-MAC 绑定而禁止的 ARP 请求数。 仅在 CCP 不知道绑定时,上行链路上才会发送这些 ARP 数据包。 |
4.2.0 |
arp_proxy_resp |
CCP 针对来自该传输节点的每个 ARP 禁止请求所提供的有效 IP-MAC 绑定响应数。 |
4.2.0 |
arp_proxy_resp_drops |
与 CCP 提供的 IP-MAC 绑定响应相对应的、无法发送到发出了 ARP 请求的交换机端口的 ARP 响应数。 |
4.2.0 |
arp_proxy_resp_filtered |
根据 CCP 提供的 IP-MAC 绑定响应生成的、未发送到发出了 ARP 请求的交换机端口的 ARP 响应数。 原因可能是,由于流跟踪或者发出了 ARP 请求的端口已不在传输节点中,因此请求了 ARP。 |
4.2.0 |
arp_proxy_resp_unknown |
该传输节点发出的每个 IP-MAC 请求在控制平面中拥有的未知 IP-MAC 绑定数。 收到此消息后,VDL2 模块会在上行链路上重新发送 ARP 请求,以通过数据路径学习 IP-MAC 绑定。 |
4.2.0 |
leaf_rx |
对于分段(逻辑交换机),如果 VDL2LeafInput(覆盖网络 L2)IOChain 成功接收工作负载生成的数据包,则该统计信息会递增。如果没有其他分支节点接收的丢弃,这些数据包将发送到 VDS。 |
4.2.0 |
leaf_rx_drops |
VDL2LeafInput 中由于各种原因而丢弃的数据包数。 请参见分支节点收到的其他丢弃原因,以确定具体丢弃原因。 |
4.2.0 |
leaf_rx_ref_port_not_found_drops |
VDL2LeafInput 分支节点中丢弃的数据包数。如果中继端口不是分段的一部分,就会出现这种情况。 |
4.2.0 |
leaf_rx_system_err_drops |
VDL2LeafInput 中由于各种系统错误(如内存故障、数据包属性更新失败)而丢弃的数据包数。 这通常意味着 ESXi 主机资源不足。将一些虚拟机移到其他主机可能有助于减轻负载。 |
4.2.0 |
leaf_tx |
如果交换机端口的 VDL2LeafOutput(覆盖网络 L2)IOChain 成功处理数据包,则该统计信息会递增。 |
4.2.0 |
leaf_tx_drops |
VDL2LeafOutput 中由于各种原因而丢弃的数据包数。 请参见分支节点发送的其他丢弃原因,以确定具体丢弃原因。 |
4.2.0 |
mac_tbl_lookup_flood |
由于 MAC 表查找失败而泛洪到远程 VTEP 的单播数据包数。较大的值意味着存在单向 L2 流量或 MAC 表更新问题。 使用以下命令检查主机传输节点上的 MAC 表是否已满: $ nsxcli -c "get segment mac-table" 如果需要,可以增加 MAC 表大小。 |
4.2.0 |
mac_tbl_lookup_full |
由于 MAC 表已满,目标 MAC 向控制平面查询远程虚拟机流量失败的次数。 使用以下命令检查主机传输节点上的 MAC 表是否已满: $ nsxcli -c "get segment mac-table" 如果需要,可以增加 MAC 表大小。 |
4.2.0 |
mac_tbl_update_full |
对从底层网络接收的数据包进行 MAC 学习时,MAC 表更新失败的次数。 使用以下命令检查主机传输节点上的 MAC 表是否已满: $ nsxcli -c "get segment mac-table" 如果需要,可以增加 MAC 表大小。 |
4.2.0 |
mcast_proxy_rx_drops |
在 MTEP 传输节点的上行链路上接收但在复制到其他 VTEP 时被丢弃的 BUM 数据包数。 |
4.2.0 |
mcast_proxy_tx_drops |
源自传输节点中工作负载但在上行链路输出中复制后被丢弃的 BUM 数据包数。 如果 uplink_tx_invalid_state_drops 递增,或出现内存不足等系统错误,则该统计信息会递增。 |
4.2.0 |
nd_proxy_req_fail_drops |
当 CCP 因没有 IP-MAC 绑定而导致 ND 禁止失败时,上行链路上针对基于数据路径学习重新发送失败的 ND 请求数。 非零统计信息表明系统的数据包缓冲区资源不足,持续递增应视为严重错误。 |
4.2.0 |
nd_proxy_req_suppress |
VDL2 由于要查询 CCP 来查找 IP-MAC 绑定而禁止的 ND 请求数。 仅在 CCP 不知道绑定时,上行链路上才会发送这些 ND 数据包。 |
4.2.0 |
nd_proxy_resp |
CCP 针对来自该传输节点的每个 ND 禁止请求所提供的有效 IP-MAC 绑定响应数。 这些 ND 响应可能是 CCP 直接响应的结果,也可能是传输节点中已缓存的 ND 条目造成的。 |
4.2.0 |
nd_proxy_resp_drops |
与 CCP 提供的 IP-MAC 绑定响应相对应的、无法发送到发出了 ND 数据包请求的交换机端口的 ND 响应数。 |
4.2.0 |
nd_proxy_resp_filtered |
根据 CCP 提供的 IP-MAC 绑定响应生成的、未发送到发出了 ND 请求的交换机端口的 ND 响应数。 原因可能是,由于流跟踪或者发出了 ND 请求的端口已不在传输节点中,因此请求了 ND。 |
4.2.0 |
nd_proxy_resp_unknown |
该传输节点发出的每个 IPv6-MAC 请求在控制平面中的未知 IPv6-MAC 绑定数。 收到此消息后,VDL2 模块会在上行链路上重新发送 ND 数据包,以通过数据路径学习 IPv6-MAC 绑定。 |
4.2.0 |
nested_tn_mcast_proxy_diff_vlan_tx_drops |
复制到嵌套传输节点但被丢弃的 BUM 数据包数。 嵌套传输节点和此传输节点配置了不同的传输 VLAN ID。检查是否可以从该传输节点的 VTEP VMK 接口访问 VTEP GW IP。 |
4.2.0 |
nested_tn_mcast_proxy_same_vlan_tx_drops |
复制到嵌套传输节点但被丢弃的 BUM 数据包数。 嵌套传输节点和此传输节点配置了相同的传输 VLAN ID。 |
4.2.0 |
uplink_rx |
从 TOR 交换机的上行链路端口接收的数据包数。 当上行链路 Rx 没有丢弃任何数据包时,这些数据包将发送到 VDS。 |
4.2.0 |
uplink_rx_drops |
VDL2UplinkInput 由于各种原因而丢弃的数据包数。 请参见上行链路收到的其他丢弃原因,以确定具体丢弃原因。 |
4.2.0 |
uplink_rx_filtered |
由 TOR 交换机发送但 VDL2 上行链路由于对等 ESXi 传输节点的 IGMP 报告等原因而筛选掉的数据包数。 |
4.2.0 |
uplink_rx_guest_vlan_drops |
由于系统错误导致内部数据包的客户机 VLAN 标记移除失败时,在 VDL2UplinkInput 中丢弃的数据包数。 |
4.2.0 |
uplink_rx_invalid_encap_drops |
在上行链路从底层网络接收的但由于封装标头不正确而丢弃的数据包数。 要了解确切的错误,请运行以下命令捕获数据包并验证封装标头(协议版本、校验和、长度等): pktcap-uw --capture UplinkRcvKernel --uplink --ng -o uplink.pcap |
4.2.0 |
uplink_rx_mcast_invalid_dr_uplink_drops |
由于 vdrPort 与此上行链路无关,在 VDL2 上行链路输入中丢弃的 IP 多播数据包数。 当 TOR 交换机在传输节点的所有上行链路上泛洪多播流量时,可能会出现这种情况。 使用以下命令检查 vdrPort 与上行链路的关联,然后检查是否在未关联的上行链路上接收到被丢弃的数据包: nsxdp-cli vswitch instance list |
4.2.0 |
uplink_rx_skip_mac_learn |
由于入站 GENEVE 标签未知而无法得知源外部 MAC 的数据包数。 在控制平面中,该统计信息的值较大可能表明传输节点上缺少远程 VTEP 更新。 使用以下 CLI 命令检查传输节点上的远程 VTEP 表: nsxcli -c "get global-vtep-table" $ nsxcli -c "get segment vtep-table" 可能的解决办法是在传输节点上重新启动本地控制平面代理 (CfgAgent),通过运行以下命令强制进行完全同步: $ /etc/init.d/nsx-cfgagent restart |
4.2.0 |
uplink_rx_system_err_drops |
VDL2UplinkInput 中由于各种系统错误(如内存故障、数据包属性更新失败)而丢弃的数据包数。 这通常意味着 ESXi 主机资源不足。将一些虚拟机移到其他主机可能有助于减轻负载。 |
4.2.0 |
uplink_rx_wrong_dest_drops |
从底层网络接收但因数据包的目标 IP 与主机上配置的任何 VTEP 都不匹配而丢弃的数据包数。 |
4.2.0 |
uplink_tx |
由 VDS 发送且在上行链路端口 VDL2 IOChain 中接收的数据包数。 当上行链路 Tx 没有丢弃任何数据包时,这些数据包将发送到底层网络。 |
4.2.0 |
uplink_tx_drops |
VDL2UplinkOutput 由于各种原因而出现的数据包丢弃总数。 请参见上行链路发送的其他丢弃原因,以确定具体丢弃原因。 |
4.2.0 |
uplink_tx_flood_rate_limit |
在速率受限的上行链路上泛洪的未知单播数据包数。 |
4.2.0 |
uplink_tx_ignore |
由 VDS 发送但在 VDL2 上行链路输出中被筛选掉且未转发到底层网络的数据包数。 例如,如果分段上没有可复制数据包的 VTEP,则会筛选 BUM 数据包。 |
4.2.0 |
uplink_tx_invalid_frame_drops |
VDL2 上行链路输出中由于找不到封装标头或无法执行内部帧上设置的 TSO 而丢弃的数据包数。这是由于 TCP 数据包过大所致。 |
4.2.0 |
uplink_tx_invalid_state_drops |
VDL2 上行链路输出中由于传输 VLAN 配置不正确而丢弃的数据包数。这是由于传输节点的上行链路配置文件关联不正确或网关 MAC 未解析所致。 使用以下过程在 ESXi 节点上检查是否可从该传输节点的 VTEP VMK 接口访问 VTEP 网关 IP。
|
4.2.0 |
uplink_tx_nested_tn_repl_drops |
当复制到嵌套传输节点时,VDL2 上行链路输出中由于 VTEP 关联不正确而丢弃的 BUM 数据包数。 使用以下命令检查源交换机端口与上行链路的关联: nsxdp-cli vswitch instance list |
4.2.0 |
uplink_tx_non_unicast |
复制到远程 VTEP 的广播或多播数据包数。大速率意味着传输节点必须将这些数据包复制到远程 VTEP,这可能对上行链路层发送队列造成压力。 |
4.2.0 |
uplink_tx_teaming_drops |
VDL2UplinkOutput 中由于与产生流量的交换机端口关联的 VTEP 不可用而丢弃的数据包数。 使用以下命令检查工作负载交换机端口的上行链路关联和绑定状态: nsxdp-cli vswitch instance list |
4.2.0 |
uplink_tx_ucast_flood |
上行链路输出中泛洪的未知单播数据包数。较大的值意味着存在单向 L2 流量或 MAC 表更新问题。 检查单向流量是否在预期范围内或 MAC 表是否已满。 |
4.2.0 |
模块:datapath_l3
该数据路径模块也称为虚拟分布式路由 (VDR),可以在每个 ESXi 主机上路由数据包。此数据路径模块在 NSX Central CLI 中被称为 nsxt-vdrb
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
arp_hold_pkt_drops |
当分布式路由器正在解析 IPv4 ARP 条目时,使用该 ARP 条目的数据包将进行排队。 每个逻辑路由器实例可排队的数据包数量存在上限。达到上限后,将从尾部丢弃最旧的数据包,并且该统计信息会增大,增量为丢弃的旧数据包数。 |
4.2.0 |
arpfaildrops (lta) |
由于 ARP 故障而丢弃的 IPv4 数据包数。 |
4.2.0 |
consumed_icmpv4 |
以与给定分段对应的分布式路由器逻辑路由端口 IP 地址为目标的 IPv4 数据包数。 请记住,从源子网路由数据包后,该统计信息会增大。 |
4.2.0 |
consumed_icmpv6 |
以与给定分段对应的分布式路由器逻辑路由端口 IP 地址为目标的 IPv6 数据包数。请记住,从源子网路由数据包后,该统计信息会增大。 |
4.2.0 |
drop_route_ipv4_drops |
与“丢弃路由”匹配的 IPv4 数据包数。丢弃路由是指配置为有意丢弃匹配数据包的路由。 如果这不符合预期,请检查 ESXi 主机上的路由,并检查管理平面中的配置。 |
4.2.0 |
drop_route_ipv6_drops |
与“丢弃路由”匹配的 IPv6 数据包数。 丢弃路由是指配置为有意丢弃匹配数据包的路由。如果这不符合预期,请检查 ESXi 主机上的路由,并检查管理平面中的配置。 |
4.2.0 |
ndfaildrops (lta) |
由于邻居发现失败而丢弃的 IPv6 数据包数。 |
4.2.0 |
no_nbr_ipv4 |
在分布式路由器的 ARP 表中未找到 IPv4 ARP 条目。 |
4.2.0 |
no_nbr_ipv6 |
在分布式路由器的邻居表中未找到 IPv6 邻居条目。 |
4.2.0 |
no_route_ipv4_drops |
每个逻辑路由器实例都有自己的路由表,以用于路由查找。 由于不存在与该逻辑路由器实例匹配的路由而丢弃 IPv4 数据包时,该统计信息会增大。 |
4.2.0 |
no_route_ipv6_drops |
每个逻辑路由器实例都有自己的路由表,以用于路由查找。 由于不存在与该逻辑路由器实例匹配的路由而丢弃 IPv6 数据包时,该统计信息会增大。 |
4.2.0 |
ns_hold_pkt_drops |
当分布式路由器正在解析 IPv6 邻居条目时,使用该邻居条目的数据包将进行排队。 每个逻辑路由器实例可排队的数据包数量存在上限。达到上限后,将从尾部丢弃最旧的数据包,并且该统计信息会增大,增量为丢弃的旧数据包数。 |
4.2.0 |
pkt_attr_error_drops |
属性操作失败的数据包数。NSX 使用数据包属性来简化数据包处理。 可以分配、设置或取消设置数据包属性。在正常情况下,这种操作不会失败。
可能导致该统计信息递增的原因如下:
|
4.2.0 |
relayed_dhcpv4_req |
中继的 DHCPv4 请求数。 |
4.2.0 |
relayed_dhcpv4_rsp |
中继的 DHCPv4 响应数。 |
4.2.0 |
relayed_dhcpv6_req |
中继的 DHCPv6 请求数。 |
4.2.0 |
relayed_dhcpv6_rsp |
中继的 DHCPv6 响应数。 |
4.2.0 |
rpf_ipv4_drops |
由于反向路径转发检查失败而丢弃的 IPv4 数据包数。 分布式路由器可能会检查数据包的源 IP 是否来自有效(可访问)的源,并且可能会根据配置丢弃数据包。 您可以在 NSX Manager UI 中更改此设置。
要在
NSX Manager UI 中检查当前配置,请执行以下步骤:
|
4.2.0 |
rpf_ipv6_drops |
由于反向路径转发检查失败而丢弃的 IPv6 数据包数。 分布式路由器可能会检查数据包的源 IP 是否来自有效(可访问)的源,并且可能会根据配置丢弃数据包。 您可以在 NSX Manager UI 中更改此设置。
要在
NSX Manager UI 中检查当前配置,请执行以下步骤:
|
4.2.0 |
rx_arp_req |
与给定分段对应的分布式路由器逻辑路由器端口接收的 ARP 请求数据包数。 |
4.2.0 |
rx_ipv4 |
与给定分段对应的分布式路由器逻辑路由端口接收的 IPv4 数据包数。 |
4.2.0 |
rx_ipv6 |
与给定分段对应的分布式路由器逻辑路由端口接收的 IPv6 数据包数。 |
4.2.0 |
rx_pkt_parsing_error_drops |
接收的分布式路由器数据包中解析失败的数据包数。 分布式路由器会对接收的每个数据包进行数据包解析,以读取元数据和标头。 如果该统计信息的数值较大,原因可能是数据包的结构不正确。监控是否出现任何流量失败,并捕获数据包以进行进一步调试。 |
4.2.0 |
rxgarp (lta) |
在分布式路由器上接收的免费 GARP。 |
4.2.0 |
ttl_ipv4_drops |
由于活动时间 (TTL) 短而丢弃的 IPv4 数据包数。每个逻辑路由器实例将通过 TTL 值推断出 1。 可使用数据包捕获功能来确定哪些数据包具有低 TTL 值。如果源中的 TTL 过大,原因可能是路径上的路由跃点过多或数据包正在循环(第二种情况很少见)。 |
4.2.0 |
ttl_ipv6_drops |
由于活动时间 (TTL) 短而丢弃的 IPv6 数据包数。每个逻辑路由器实例将通过 TTL 值推断出 1。 可使用数据包捕获功能来确定哪些数据包具有低 TTL 值。如果源中的 TTL 过大,原因可能是路径上的路由跃点过多或数据包正在循环(第二种情况很少见)。 |
4.2.0 |
tx_arp_rsp |
与给定分段对应的分布式路由器逻辑路由器端口发送的 ARP 请求数据包数。 |
4.2.0 |
tx_dispatch_queue_too_long_drops |
发送分派队列中从尾部丢弃的数据包数。 发送分派队列会存储分布式路由器自生成的数据包,如 ARP 数据包、NS 发现等。 每个数据包都使用数据包处理系统资源。如果正在排队的数据包过多,则将限制队列大小并从尾部丢弃数据包。 |
4.2.0 |
tx_ipv4 |
从与给定分段对应的分布式路由器逻辑路由器端口发出的 IPv4 数据包数。 |
4.2.0 |
tx_ipv6 |
从与给定分段对应的分布式路由器逻辑路由器端口发出的 IPv6 数据包数。 |
4.2.0 |
模块:distributed_firewall
该数据路径模块提供了分布式防火墙功能。在这个表中,Rx 指交换机端口接收的数据包(从虚拟机发送),Tx 指从交换机端口发送的数据包(由虚拟机接收)。此数据路径模块在 NSX Central CLI 中被称为 nsxt-vsip
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
alg_handler_drops |
由于 ALG 处理而丢弃的数据包数。它会跟踪 ALG 状态解码器数据包处理错误。 |
4.2.0 |
bad_offset_drops |
由于偏移量错误而丢弃的数据包数。 |
4.2.0 |
bad_timestamp_drops |
由于时间戳错误而丢弃的数据包数。例如,应丢弃带有旧时间戳的 ACK 数据包以及带有意外时间戳的已接收数据包。 |
4.2.0 |
congestion_drops |
由于拥塞而丢弃的数据包数。例如,在网络接口队列中检测到的拥塞。 |
4.2.0 |
fragment_drops |
由于分段数据包重组失败而丢弃的数据包数。 分片化可将数据包分解为较小的分段,以便通过 MTU 小于原始数据包大小的链路。 |
4.2.0 |
handshake_error_drops |
由于 TCP 三向握手错误而丢弃的数据包数。 当发送方和接收方都包含在三向握手期间发送的 SYN 中时,可能会发生这种情况。此丢弃原因属于 TCP 状态不匹配。 |
4.2.0 |
icmp_err_pkt_drops |
由于额外的 ICMP 错误响应数据包而丢弃的数据包数。 该统计信息会跟踪被丢弃的额外 ICMP 错误响应数据包。 |
4.2.0 |
icmp_error_drops |
由于对 TCP 数据包的 ICMP 错误响应中的排序失败而丢弃的数据包数。 序列号超出预期范围将导致丢弃数据包。 |
4.2.0 |
icmp_flood_overlimit_drops |
由于 ICMP 泛洪超出限制而丢弃的数据包数。内核接口中配置了 ICMP 泛洪限制。 |
4.2.0 |
ignored_offloaded_fpdrops |
由于流量卸载到硬件而丢弃的数据包数。 流量卸载到硬件意味着连接跟踪将由 smartNIC 硬件数据包管道完成。在这种情况下,在软件中获取数据包属于意外行为。由于软件没有最新的 CT 信息(如状态、序列号),因此无法在软件中处理数据包。因此必须丢弃流量。 出现这种情况的原因是,将流量卸载到硬件需要一些时间,而且可能会与已在队列中等待传送到 VSIP 的数据包发生争用。这种丢弃原因针对的是 ENS 快速路径数据包。 |
4.2.0 |
ignored_offloaded_spdrops |
由于流量卸载到硬件而丢弃的数据包数。 流量卸载到硬件意味着连接跟踪将由 smartNIC 硬件数据包管道完成。在这种情况下,在软件中获取数据包属于意外行为。由于软件没有最新的 CT 信息(如状态、序列号),因此无法在软件中处理数据包。因此必须丢弃流量。 出现这种情况的原因是,将流量卸载到硬件需要一些时间,而且可能会与已在队列中等待传送到 VSIP 的数据包发生争用。这种丢弃原因针对的是 IOChain 代码路径,在这里也称为慢速路径。 |
4.2.0 |
ip_option_drops |
由于不允许 IP 选项而丢弃的数据包数。 如果未设置防火墙规则中的 allow_opts,则会丢弃命中该规则的数据包。 |
4.2.0 |
l7_alert_drops |
L7 规则存在但没有匹配项。将生成警示。 |
4.2.0 |
l7_attr_error_drops |
因无法设置状态属性而丢弃的数据包数。
|
4.2.0 |
l7_pending_misc |
该统计信息会跟踪 DPI 目前正在解析的数据包,规则匹配处于挂起状态。 一旦发生 L7 规则匹配,就会对数据包执行相应的规则操作。 |
4.2.0 |
lb_reject_drops |
该统计信息会跟踪因负载均衡器拒绝数据包而导致的丢弃行为。 如果数据包与负载均衡器虚拟服务器匹配,但没有选择池成员,那么将丢弃这些数据包。 |
4.2.0 |
match_drop_rule_rx_drops |
由于命中丢弃或拒绝分布式防火墙规则而丢弃的已接收数据包数。 |
4.2.0 |
match_drop_rule_tx_drops |
由于命中丢弃或拒绝分布式防火墙规则而丢弃的已发送数据包数。 |
4.2.0 |
memory_drops |
由于内存不足而丢弃的数据包数。这是容量级别错误。 |
4.2.0 |
normalize_drops |
由于数据包格式错误而丢弃的数据包数。例如,IP 版本不匹配、TCP 标头偏移与数据包描述总长度不一致 |
4.2.0 |
other_flood_overlimit_drops |
由于其他协议泛洪超出限制而丢弃的数据包数。内核接口中为其他协议配置了泛洪限制。 |
4.2.0 |
pkts_frag_queued_v4_misc |
在数据包分段过程中,数据包分段将添加到分段队列中。这些数据包分段不一定会被丢弃。数据包重组成功意味着不会丢弃任何已分段的数据包。 该统计信息会跟踪已添加到分段队列的 IPv4 数据包。 |
4.2.0 |
pkts_frag_queued_v6_misc |
在数据包分段过程中,数据包分段将添加到分段队列中。这些数据包分段不一定会被丢弃。数据包重组成功意味着不会丢弃任何已分段的数据包。 该统计信息会跟踪已添加到分段队列的 IPv6 数据包。 |
4.2.0 |
proto_cksum_drops |
由于协议校验和不正确而丢弃的数据包数。数据包的校验和验证失败时,就会出现这种情况。 |
4.2.0 |
rx_ipv4_drop_pkts |
丢弃的已接收 IPv4 数据包数。 |
4.2.0 |
rx_ipv4_pass_pkts |
传递的已接收 IPv4 数据包数。 |
4.2.0 |
rx_ipv4_reject_pkts |
被拒绝的已接收 IPv4 数据包数。 |
4.2.0 |
rx_ipv6_drop_pkts |
丢弃的已接收 IPv6 数据包数。 |
4.2.0 |
rx_ipv6_pass_pkts |
传递的已接收 IPv6 数据包数。 |
4.2.0 |
rx_ipv6_reject_pkts |
被拒绝的已接收 IPv6 数据包数。 |
4.2.0 |
rx_l2_drop_pkts |
丢弃的已接收第 2 层数据包数。 |
4.2.0 |
seqno_bad_ack_drops |
由于 TCP 确认转发时间超过一个时间段而丢弃的数据包数。 此丢弃原因属于 TCP 状态不匹配。 |
4.2.0 |
seqno_gt_max_ack_drops |
由于 TCP 序列号大于最大 ACK 编号而丢弃的数据包数。 此丢弃原因属于 TCP 状态不匹配。 |
4.2.0 |
seqno_lt_minack_drops |
由于 TCP 序列号小于最小 ACK 编号而丢弃的数据包数。 此丢弃原因属于 TCP 状态不匹配。 |
4.2.0 |
seqno_old_ack_drops |
由于 TCP 确认返回多个分段而丢弃的数据包数。 此丢弃原因属于 TCP 状态不匹配。 |
4.2.0 |
seqno_old_retrans_drops |
由于 TCP 重新传输时间超过一个时间段而丢弃的数据包数。 此丢弃原因属于 TCP 状态不匹配。 |
4.2.0 |
seqno_outside_window_drops |
由于 TCP 序列号超出窗口而丢弃的数据包数。 此丢弃原因属于 TCP 状态不匹配。 |
4.2.0 |
short_drops |
丢弃的短数据包数。 短数据包是指长度不正确的数据包,例如, |
4.2.0 |
spoof_guard_drops |
由于 SpoofGuard 检查而丢弃的数据包数。 SpoofGuard 是一种工具,用于防止您环境中的虚拟机使用未经授权的 IP 地址发送流量。 |
4.2.0 |
src_limit_misc |
达到源限制的数据包数。 这与防火墙数据包处理有关。出现这种情况的原因是,红黑 (RB) 树中的源节点插入因达到限制而失败。 |
4.2.0 |
state_insert_drops |
由于状态插入失败而丢弃的数据包数。出现这种情况的原因是重复状态插入。 |
4.2.0 |
state_limit_drops |
由于已达到最大状态限制而丢弃的数据包数。 例如,如果 TCP 状态数超出限制,则会导致丢弃。 |
4.2.0 |
state_mismatch_drops |
由于状态不匹配而丢弃的数据包数。 可能有多种原因导致丢弃,如 STRICTNOSYN、HANDSHAKE_SYNSENT 和 SEQ_GT_SEQHI 等。 |
4.2.0 |
strict_no_syn_drops |
由于无同步的严格实施模式而丢弃的数据包数。在严格模式下应出现 SYN 数据包。 |
4.2.0 |
syn_expected_drops |
虽然数据包与负载均衡器虚拟服务器匹配,但它不是 SYN 数据包。因此,系统不应为其创建状态。这会导致丢弃数据包。该统计信息会跟踪这种丢弃行为。 |
4.2.0 |
syn_proxy_drops |
由于 synproxy 而丢弃的数据包数。这可以保护 TCP 服务器免受 SYN FLOOD 等攻击。 |
4.2.0 |
tcp_flood_overlimit_drops |
由于 TCP 泛洪超出限制而丢弃的数据包数。内核接口中配置了 TCP 泛洪限制。 |
4.2.0 |
tx_ipv4_drop_pkts |
丢弃的已发送 IPv4 数据包数。 |
4.2.0 |
tx_ipv4_pass_pkts |
传递的已发送 IPv4 数据包数。 |
4.2.0 |
tx_ipv4_reject_pkts |
被拒绝的已发送 IPv4 数据包数。 |
4.2.0 |
tx_ipv6_drop_pkts |
丢弃的已发送 IPv6 数据包数。 |
4.2.0 |
tx_ipv6_pass_pkts |
传递的已发送 IPv6 数据包数。 |
4.2.0 |
tx_ipv6_reject_pkts |
被拒绝的已发送 IPv6 数据包数。 |
4.2.0 |
tx_l2_drop_pkts |
丢弃的已发送第 2 层数据包数。 |
4.2.0 |
udp_flood_overlimit_drops |
由于 UDP 泛洪超出限制而丢弃的数据包数。内核接口中配置了 UDP 泛洪限制。 |
4.2.0 |
模块:virtual_switch
这个第 2 层数据路径模块负责提供交换功能。该模块根据接口接收数据包所用的 VLAN 和 VNI 在广播域内转发数据包。在这个表中,Rx 指发送“至”交换机的数据包,Tx 指“从”交换机接收的数据包。Mcast 指多播数据包。此数据路径模块在 NSX Central CLI 中被称为 nsxt-vswitch
。
统计信息 | 描述 | 引入的版本 |
---|---|---|
forged_transmit_rx_drops |
由于数据包的源 MAC 与虚拟机适配器的 MAC 不同而丢弃的数据包数(伪丢弃数)。 如果在分段上禁用伪信号或 MAC 学习,就会导致此类丢弃。如果在分段上启用 MAC 学习或伪信号,可以缓解这个问题。 |
4.2.0 |
unknown_unicast_rx_pkts |
由 vSwitch 接收并泛洪到同一广播域中其他端口的未知单播数据包数。 在存在启用了 MAC 学习的分段或池端口的情况下,如果泛洪了未知单播数据包,则该统计信息会递增。在 vSwitch MAC 地址表中找不到数据包的目标 MAC 地址时,会发生未知单播泛洪。 在存在 MAC 学习的情况下,如果目标 MAC 从 MAC 地址表中淘汰,则该统计信息会递增。 |
4.2.0 |
unknown_unicast_rx_uplink_pkts |
从 vSwitch 的一个或多个上行链路接收且由 vSwitch 泛洪到同一广播域中其他端口的未知单播数据包数。 在存在启用了 MAC 学习的分段或池端口的情况下,如果泛洪了未知单播数据包,则该统计信息会递增。在 vSwitch MAC 地址表中找不到数据包的目标 MAC 地址时,会发生未知单播泛洪。 在存在 MAC 学习的情况下,如果目标 MAC 从 MAC 地址表中淘汰,则该统计信息会递增。 |
4.2.0 |
unknown_unicast_tx_pkts |
由 vSwitch 泛洪到同一广播域中其他端口的未知单播数据包数。 在存在启用了 MAC 学习的分段或池端口的情况下,如果泛洪了未知单播数据包,则该统计信息会递增。在 vSwitch MAC 地址表中找不到数据包的目标 MAC 地址时,会发生未知单播泛洪。 在存在 MAC 学习的情况下,如果目标 MAC 从 MAC 地址表中淘汰,则该统计信息会递增。 |
4.2.0 |
unknown_unicast_tx_uplink_pkts |
由 vSwitch 泛洪到一个或多个上行链路的未知单播数据包数。 在存在启用了 MAC 学习的分段或池端口的情况下,如果泛洪了未知单播数据包,则该统计信息会递增。在 vSwitch MAC 地址表中找不到数据包的目标 MAC 地址时,会发生未知单播泛洪。 在存在 MAC 学习的情况下,如果目标 MAC 从 MAC 地址表中淘汰,则该统计信息会递增。 |
4.2.0 |
vlan_tag_mismatch_rx |
由于 VLAN 标记不匹配而丢弃的单播和广播数据包数。 如果根据分段的 VLAN 策略,不允许数据包的 VLAN 标记,则会发生此类丢弃行为。修改分段的 VLAN 策略或者发送带有允许的 VLAN 标记的数据包,都可以缓解此问题。 |
4.2.0 |
vlan_tag_mismatch_rx_mcast |
由于 VLAN 标记不匹配而丢弃的多播数据包数。 如果根据分段的 VLAN 策略,不允许数据包的 VLAN 标记,则会发生此类丢弃行为。修改分段的 VLAN 策略或者发送带有允许的 VLAN 标记的数据包,都可以缓解此问题。 |
4.2.0 |
vlan_tag_mismatch_tx |
由于 VLAN 标记不匹配而丢弃的单播数据包数。 主机交换机会根据数据包的目标地址在其查找表中查找条目。在尝试将数据包转发出端口时,根据分段的 VLAN 策略,如果不允许使用数据包的 VLAN 标记,那么将出现这些丢弃。修改分段的 VLAN 策略或者发送带有允许的 VLAN 标记的数据包,都可以缓解此问题。 |
4.2.0 |
vlan_tag_mismatch_tx_mcast |
由于 VLAN 标记不匹配而丢弃的多播数据包数。 主机交换机会根据数据包的目标地址在其查找表中查找条目。在尝试将数据包转发出端口时,根据分段的 VLAN 策略,如果不允许使用数据包的 VLAN 标记,那么将出现这些丢弃。修改分段的 VLAN 策略或者发送带有允许的 VLAN 标记的数据包,都可以缓解此问题。 |
4.2.0 |
vni_tag_mismatch_tx |
由于 VNI 标记不匹配而丢弃的单播数据包数。 主机交换机会根据数据包的目标地址在其查找表中查找条目。在尝试从端口转发数据包时,如果根据分段的 VNI 策略,不允许数据包的 VNI 标记,则会发生此类丢弃行为。将目标虚拟机移到该覆盖网络分段可以解决这个问题。 |
4.2.0 |
vni_tag_mismatch_tx_mcast |
由于 VNI 标记不匹配而丢弃的多播数据包数。 主机交换机会根据数据包的目标地址在其查找表中查找条目。在尝试从端口转发数据包时,如果根据分段的 VNI 策略,不允许数据包的 VNI 标记,则会发生此类丢弃行为。将目标虚拟机移到该覆盖网络分段可以解决这个问题。 |
4.2.0 |