In dieser Referenzdokumentation werden die verschiedenen Statistiken beschrieben, die von den ESXi-Host-Transportknoten in Ihrer NSX-Bereitstellung erfasst werden.

Im ersten Abschnitt dieses Dokuments werden die Statistiken des Host-Transportknotens beschrieben, die in der Benutzeroberfläche von NSX Manager angezeigt werden.

In den restlichen Abschnitten dieses Dokuments werden die Statistiken beschrieben, die von den verschiedenen Datenpfadmodulen erfasst werden, die auf den ESXi-Host-Transportknoten ausgeführt werden. Um diese Statistiken anzuzeigen, müssen Sie entweder die NSX-APIs oder die zentrale NSX-CLI verwenden. Die Spalte Statistik in diesen Abschnitten bezieht sich auf den Namen der Statistik, wie er in der API-Ausgabe angezeigt wird. Weitere Informationen zum API-Workflow zum Anzeigen der Host-Transportknotenstatistiken finden Sie unter Überwachen von Statistiken von NSX Host-Transportknoten mithilfe von APIs.

Registerkarte „Datenpfad-Statistik“

Auf dieser Registerkarte werden die aggregierten Statistikwerte für einen Host-Transportknoten in der Benutzeroberfläche von NSX Manager angezeigt.

Statistik Beschreibung Version eingeführt

Empfangene Broadcast-Pakete

Rate der vom VDS von der VM empfangenen Broadcast-Pakete. Diese Statistik wird intern der Statistik „rxbcastpkts“ zugeordnet.

4.2.0

Übertragene Broadcast-Pakete

Rate der vom VDS an die VM gesendeten Broadcast-Pakete. Diese Statistik wird intern der Statistik „txbcastpkts“ zugeordnet.

4.2.0

Broadcast-Rate für die Begrenzung von Paketverlusten

Anzahl der eingehenden oder ausgehenden Pakete, die durch die Begrenzung der Broadcast-Rate verworfen wurden.

Ratenbegrenzungen werden verwendet, um das Netzwerk oder VMs vor Ereignissen wie Broadcast-Stürmen zu schützen. Sie können Ratenbegrenzungen in der Benutzeroberfläche von NSX Manager unter Netzwerk > Segmente > Segmentprofil > Segmentsicherheit konfigurieren.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: rx_rate_limit_bcast_drops, rx_rate_limit_mcast_drops, tx_rate_limit_bcast_drops, tx_rate_limit_mcast_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

DFW

Gesamtzahl der Pakete, die vom DFW-Modul aus verschiedenen Gründen verworfen wurden.

Klicken Sie auf den Link NSX-Datenpfad auf der Benutzeroberfläche, um Details zu den Verwerfungen zu erhalten.

4.2.0

Datenpfad L3

Gesamtzahl der Pakete, die aus verschiedenen Gründen vom Datenpfad-L3-Modul verworfen wurden.

Klicken Sie auf den Link NSX-Datenpfad auf der Benutzeroberfläche, um Details zu den Verwerfungen zu erhalten.

4.2.0

Datenpfadsystemfehler

Gesamtzahl der aufgrund von kritischen internen Systemfehlern verworfenen Pakete. Wenn diese Statistiken kontinuierlich steigen, bedeutet dies, dass der ESXi-Host nur noch über wenige Ressourcen verfügt. Das Verschieben bestimmter VMs auf andere Hosts kann dazu beitragen, die Last zu erleichtern.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: leaf_rx_system_err_drops, uplink_rx_system_err_drops, pkt_attr_error_drops, tx_dispatch_queue_too_long_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Fast Path

Gesamtzahl der Pakete, die vom Fastpath-Modul aus verschiedenen Gründen verworfen wurden.

Klicken Sie auf den Link NSX-Datenpfad auf der Benutzeroberfläche, um Details zu den Verwerfungen zu erhalten.

4.2.0

Fastpath-Flow-Treffer

Rate der Treffer in der Flow-Tabelle im ENS-/Flow-Cache-Modul. Diese Statistik wird intern der Statistik „hits“ zugeordnet.

4.2.0

Fastpath-Flow-Fehler

Rate der Pakete, die aufgrund eines Flow-Fehlers von Slowpath verarbeitet werden. Diese Statistik überschneidet sich nicht mit der Statistik in der nächsten Zeile. Diese Statistik wird intern der Statistik „miss“ zugeordnet.

4.2.0

Fastpath-Paketverluste

Gesamtanzahl der Pakete, die vom Flow-Cache-Fastpath in Empfangs- oder Übertragungsrichtung zu allen Ports verworfen wurden.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: rx_drops, tx_drops, rx_drops_uplink, tx_drops_uplink, rx_drops_sp, tx_drops_sp. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – Firewall-Flood-Grenzwert

Anzahl der Pakete, die aufgrund des Grenzwerts für die Protokollüberflutung verworfen wurden. Es gibt einen konfigurierten Flood-Grenzwert für verschiedene Protokolle in der Kernel-Schnittstelle.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: udp_flood_overlimit_drops, tcp_flood_overlimit_drops, icmp_flood_overlimit_drops, other_flood_overlimit_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – Interner Firewallfehler

Anzahl der Pakete, die von der Firewall aufgrund interner Fehler verworfen wurden.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: memory_drops, state_insert_drops, l7_attr_error_drops, lb_reject_drops, src_limit_misc. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – Firewall Falsch formatiert

Anzahl der falsch formatierten Pakete, die von der Firewall verworfen wurden.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: fragment_drops, short_drops, normalize_drops, bad_timestamp_drops, proto_cksum_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketablehnungen durch Firewall

Anzahl der Pakete, die von der Firewall aus verschiedenen Gründen abgelehnt wurden.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts, tx_ipv6_reject_pkts. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – Firewallregel empfangen

Anzahl der empfangenen Pakete, die durch die Regel „Verwerfen“ oder „Ablehnen“ verworfen wurden.

Diese Statistik wird intern der Statistik „match_drop_rule_rx_drops“ zugeordnet.

4.2.0

Paketverluste – Firewallregel übertragen

Anzahl der übertragenen Pakete, die durch die Regel „Verwerfen“ oder „Ablehnen“ verworfen wurden.

Diese Statistik wird intern der Statistik „match_drop_rule_tx_drops“ zugeordnet.

4.2.0

Paketverluste – Firewallstatusprüfung

Anzahl der Pakete, die aufgrund von statusbezogenen Prüfungen verworfen wurden.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: icmp_err_pkt_drops, alg_handler_drops, syn_expected_drops, ip_option_drops, syn_proxy_drops, spoof_guard_drops, state_mismatch_drops, strict_no_syn_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – Firewall-Zustandstabelle voll

Anzahl der Pakete, die aufgrund des erreichten maximalen Grenzwerts für Zustände verworfen wurden. Wenn beispielsweise die Anzahl der TCP-Zustände höher als der Grenzwert ist, führt dies zu einem Verwerfen. Diese Statistik wird intern der Statistik „state_limit_drops“ zugeordnet.

4.2.0

Firewallpaketverluste insgesamt

Die Gesamtanzahl der Pakete, die aus verschiedenen Gründen von der Firewall verworfen wurden.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts, tx_ipv6_reject_pkts, rx_ipv4_drop_pkts, tx_ipv4_drop_pkts, rx_ipv6_drop_pkts, tx_ipv6_drop_pkts, rx_l2_drop_pkts, tx_l2_drop_pkts. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – Host-Switch-Netzwerk stimmt nicht überein

Anzahl der Unicast-, Multicast- und Broadcast-Pakete, die aufgrund von VNI- oder VLAN-Tag-Nichtübereinstimmungen verworfen wurden.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: vlan_tag_mismatch_rx, vlan_tag_mismatch_tx, vni_tag_mismatch_tx, vlan_tag_mismatch_rx_mcast, vlan_tag_mismatch_tx_mcast, vni_tag_mismatch_tx_mcast. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – Host-Switch hat gefälschte MAC empfangen

Anzahl der Pakete, die als gefälscht verworfen wurden, da sich die Quell-MAC des Pakets von der MAC des Adapters der virtuellen Maschine unterscheidet.

Gefälschte Übertragungen oder deaktivierte MAC-Lernvorgänge im Segment führen zu diesen Verwerfungen. Die Aktivierung von MAC Learning oder gefälschten Übertragungen im Segment sollte das Problem abmildern.

Diese Statistik wird intern der Statistik „forged_transmit_rx_drops“ zugeordnet.

4.2.0

Paketverluste – L3-Hop-Grenzwert

Anzahl der IPv4- oder IPv6-Pakete, die aufgrund einer niedrigen TTL (Time-To-Live) verworfen wurden. Jede logische Router-Instanz zieht 1 vom TTL-Wert ab. Verwenden Sie die Paketerfassung, um zu ermitteln, welche Pakete niedrige TTL-Werte aufweisen.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: ttl_ip4_drops, ttl_ipv6_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – L3-Nachbar nicht erreichbar

Anzahl der IPv4- oder IPv6-Pakete, die aufgrund einer fehlgeschlagenen Nachbarauflösung verworfen wurden.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: arp_hold_pkt_drops, ns_hold_pkt_drops.

4.2.0

Paketverluste – L3 keine Route

Jede logische Router-Instanz verfügt über eine eigene Routing-Tabelle für die Routensuche. Diese Statistik steigt, wenn IPv4-Pakete verworfen werden, weil keine übereinstimmenden Routen für diese logische Router-Instanz vorhanden sind.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: no_route_ipv4_drops, no_route_ipv6_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – Umgekehrte L3-Pfadweiterleitung

Anzahl der IPv4- oder IPv6-Pakete, die aufgrund eines Fehlers bei der Überprüfung der umgekehrten Pfadweiterleitung verworfen wurden. Der verteilte Router überprüft möglicherweise, ob die Quell-IP der Pakete von einer gültigen (erreichbaren) Quelle stammt, und verwirft die Pakete möglicherweise basierend auf der Konfiguration.

Sie können diese Einstellung in der Benutzeroberfläche von NSX Manager ändern.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: rpf_ipv4_drops, rpf_ipv6_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Mac Learning – Tabelle voll

Rate der Paketverluste aufgrund von Fehlern bei der Aktualisierung der MAC-Tabelle zum Zeitpunkt des MAC-Lernvorgangs entweder von der zentralen Control Plane (CCP) oder für die vom Underlay-Netzwerk empfangenen Pakete.

Überprüfen Sie mithilfe des folgenden Befehls, ob die MAC-Tabelle auf dem Host-Transportknoten voll ist:

$ nsxcli -c "get segment mac-table"

Erhöhen Sie bei Bedarf die MAC-Tabellengröße.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: mac_tbl_update_full, mac_tbl_lookup_full. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Empfangene Multicast-Pakete

Rate der vom VDS von der VM empfangenen Multicast-Pakete.

Diese Statistik wird intern der Statistik „rx_mcast_pkts“ zugeordnet.

4.2.0

Übertragene Multicast-Pakete

Rate der vom VDS an die VM gesendeten Multicast-Pakete.

Diese Statistik wird intern der Statistik „tx_mcast_pkts“ zugeordnet.

4.2.0

Overlay-Datenpfad L2

Gesamtzahl der Pakete, die aus verschiedenen Gründen vom Overlay-Datenpfad-L2-Modul verworfen wurden.

Klicken Sie auf den Link NSX-Datenpfad auf der Benutzeroberfläche, um Details zu den Verwerfungen zu erhalten.

4.2.0

Overlay-Datenpfad an Uplink übertragen

Rate der Unicast-Pakete, die aufgrund eines MAC-Tabellen-Lookup-Fehlers an Remote-VTEPs geflutet wurden. Hohe Werte deuten auf Probleme mit unidirektionalen L2-Flows oder MAC-Tabellenaktualisierungen hin.

Überprüfen Sie mithilfe des folgenden Befehls, ob die MAC-Tabelle auf dem Host-Transportknoten voll ist:

$ nsxcli -c "get segment mac-table"

Erhöhen Sie bei Bedarf die MAC-Tabellengröße.

Diese Statistik wird intern der Statistik „mac_tbl_lookup_flood“ zugeordnet.

4.2.0

Overlay nicht erfolgreich – Auflösung des unterstützten Nachbarn der Steuerungsebene

Rate des Paketverlusts, weil die Steuerungsebene die Nachbarauflösung nicht erfolgreich unterstützen kann. Die Gründe könnten sein, dass CCP die IP-MAC-Zuordnung noch nicht gelernt hat oder dass das System nur über geringe Paketpufferressourcen verfügt.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: nd_proxy_resp_unknown, arp_proxy_resp_unknown, nd_proxy_req_fail_drops, arp_proxy_req_fail_drops, arp_proxy_resp_drops, nd_proxy_resp_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – Von Overlay empfangen

Anzahl der Pakete, die aus verschiedenen Gründen bei VDL2LeafInput verworfen wurden. Sehen Sie sich die Gründe für das verworfene andere empfangene Leaf an, um den spezifischen Grund für die Verworfenen zu identifizieren.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: leaf_rx_ref_port_not_found_drops, leaf_rx_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – Overlay übertragen

Anzahl der Pakete, die aus verschiedenen Gründen bei VDL2LeafOutput verworfen wurden. Sehen Sie sich die Gründe für das verworfene andere gesendete Leaf an, um den spezifischen Grund für die Verworfenen zu identifizieren.

Diese Statistik wird intern der Statistik „leaf_tx_drops“ zugeordnet.

4.2.0

Paketverluste – Von Overlay-Uplink empfangen

Anzahl der Pakete, die aus verschiedenen Gründen bei VDL2UplinkInput verworfen wurden. Sehen Sie sich die Gründe für das verworfene andere empfangene Uplink an, um den spezifischen Grund für die Verworfenen zu identifizieren.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: uplink_rx_drops, uplink_rx_guest_vlan_drops, uplink_rx_invalid_encap_drops, mcast_proxy_rx_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – Overlay-Uplink Übertragen

Anzahl der Pakete, die aus verschiedenen Gründen bei VDL2UplinkOutput verworfen wurden. Sehen Sie sich die Gründe für das verworfene andere übertragene Uplink an, um den spezifischen Grund für die Verworfenen zu identifizieren.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: uplink_tx_drops, nested_tn_mcast_proxy_same_vlan_tx_drops, nested_tn_mcast_proxy_diff_vlan_tx_drops, mcast_poxy_tx_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Empfangene PNIC (MBit/s)

Empfangene Megabit pro Sekunde. Diese Statistik wird intern der Statistik „rxmbps“ zugeordnet.

4.2.0

Empfangene PNIC (pps)

Empfangene Pakete pro Sekunde. Diese Statistik wird intern der Statistik „rxpps“ zugeordnet.

Verworfene empfangene PNIC

Empfangene Fehler pro Sekunde. Ein anderer Wert als null deutet in der Regel auf die folgenden beiden Fälle hin:
  1. Die PNIC-RX-Ringgröße ist zu klein und der Ring kann aufgrund von Arbeitslastspitzen leicht gefüllt werden. Ziehen Sie in Erwägung, die Ringgröße zu erhöhen.
  2. Die Paketrate ist zu hoch für den Gast. Der Gast kann keine Pakete aus dem PNIC-RX-Ring abrufen, was zu Paketverlusten führt.

Diese Statistik wird intern der Statistik „rxeps“ zugeordnet.

4.2.0

Übertragene PNIC (MBit/s)

Übertragene Megabit pro Sekunde. Diese Statistik wird intern der Statistik „txmbps“ zugeordnet.

4.2.0

Übertragene PNIC (pps)

Übertragene Pakete pro Sekunde. Diese Statistik wird intern der Statistik „txpps“ zugeordnet.

4.2.0

Verloren gegangene übertragene PNIC

Übertragene Fehler pro Sekunde. Diese Statistik wird intern der Statistik „txeps“ zugeordnet.

4.2.0

PNICs

Anzahl physischer Netzwerkkarten. Diese Statistik wird intern der Statistik „num_pnics“ zugeordnet.

4.2.0

Paketverluste – Paketanalysefehler

Anzahl der IPv6-ND-Pakete (Neighbor Discovery), die nicht ordnungsgemäß analysiert wurden. Überprüfen Sie die Protokolle auf Fehlermeldungen. Führen Sie Paketerfassungen am Port durch, um festzustellen, ob die Pakete falsch formatiert sind.

Diese Statistik wird intern der Statistik „nd_parse_errors“ zugeordnet.

4.2.0

Nur Slow-Path

Rate der Pakete, die standardmäßig immer in Slowpath verarbeitet werden. Ein Beispiel ist das Broadcast-Paket.

Diese Statistik wird intern der Statistik „Slowpath“ zugeordnet.

4.2.0

Spoof Guard-Paketverluste

Anzahl der von SpoofGuard verworfenen IPv4-/IPv6-/ARP-Pakete. SpoofGuard schützt vor IP-Spoofing, indem eine Referenztabelle mit VM-Namen/MAC- und IP-Adressen gepflegt wird. Dies steigt nur, wenn SpoofGuard auf dem Segment oder Segmentport aktiviert ist.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: spoof_guard_ipv4_drops, spoof_guard_arp_drops, spoof_guard_ipv6_drops, spoof_guard_nd_drops, spoof_guard_non_ip_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Switch-Sicherheit

Gesamtzahl der Pakete, die aus verschiedenen Gründen vom Switch-Sicherheitsmodul verworfen wurden. Klicken Sie auf den Link NSX-Datenpfad auf der Benutzeroberfläche, um Details zu den Verwerfungen zu erhalten.

4.2.0

Unbekannter Tunnel-Endpoint

Rate der verworfenen Pakete, für die die äußere Quell-MAC nicht erlernt werden kann, da die eingehende GENEVE-Bezeichnung unbekannt ist.

Hohe Werte dieser Statistik können auf fehlende Remote-VTEP-Updates auf dem Transportknoten von der Steuerungsebene hinweisen. Verwenden Sie die CLI, um die Remote-VTEP-Tabelle auf dem Transportknoten zu überprüfen.

Diese Statistik wird intern der Statistik „uplink_rx_skip_mac_learn“ zugeordnet.

4.2.0

Empfangene VNIC (MBit/s)

Empfangene Megabit pro Sekunde. Diese Statistik wird intern der Statistik „rxmbps“ zugeordnet.

4.2.0

Empfangene VNIC (pps)

Empfangene Pakete pro Sekunde. Diese Statistik wird intern der Statistik „rxpps“ zugeordnet.

4.2.0

Verworfene empfangene VNIC

Empfangene Fehler pro Sekunde. Ein anderer Wert als null deutet in der Regel auf die folgenden beiden Fälle hin:
  1. Die VNIC-RX-Ringgröße ist zu klein und der Ring kann aufgrund von Arbeitslastspitzen leicht gefüllt werden. Ziehen Sie in Erwägung, die Ringgröße zu erhöhen.
  2. Die Paketrate ist zu hoch für den Gast. Der Gast kann keine Pakete aus dem VNIC-RX-Ring abrufen, was zu Paketverlusten führt.

Diese Statistik wird intern der Statistik „rxeps“ zugeordnet.

4.2.0

Übertragene VNIC (MBit/s)

Übertragene Megabit pro Sekunde. Diese Statistik wird intern der Statistik „txmbps“ zugeordnet.

4.2.0

Übertragene VNIC (pps)

Übertragene Pakete pro Sekunde. Diese Statistik wird intern der Statistik „txpps“ zugeordnet.

4.2.0

Verloren gegangene übertragene VNIC

Übertragene Fehler pro Sekunde. Ein anderer Wert als null deutet in der Regel auf Folgendes hin:
  • Die Paketrate ist zu hoch für den Uplink.
  • Der Uplink kann keine Pakete aus der Warteschlange des Netzwerk-Stacks ziehen, was zu Paketverlusten führt.

Diese Statistik wird intern der Statistik „txeps“ zugeordnet.

4.2.0

VNICs

Anzahl virtueller Netzwerkkarten. Diese Statistik wird intern der Statistik „num_vnics“ zugeordnet.

4.2.0

Paketverluste – BPDU-Filter für Arbeitslasten

Anzahl der Pakete, die durch BPDU-Filterung verworfen wurden. Wenn der BPDU-Filter aktiviert ist, wird der Datenverkehr zu konfigurierten BPDU-Ziel-MAC-Adressen verworfen.

Diese Statistik wird intern der Statistik „bpdu_filter_drops“ zugeordnet.

4.2.0

Paketverluste – Arbeitslast-DHCP für nicht zulässig

Anzahl der DHCPv4- oder DHCPv6-Pakete, die vom DHCP-Client/Serverblock verworfen wurden.

Diese Statistik wird intern diesen detaillierten Statistiken zugeordnet: dhcp_client_block_ipv6_drops, dhcp_server_block_ipv6_drops, dhcp_client_block_ipv4_drops, dhcp_server_block_ipv4_drops, dhcp_client_validate_ipv4_drops. Weitere Einzelheiten finden Sie in den Definitionen der jeweiligen Statistik.

4.2.0

Paketverluste – IPv6-RA-Guard-Pakete für Arbeitslast

Anzahl der von RA Guard verworfenen IPv6-Routerankündigungspakete. Die Funktion „RA Guard“ filtert von VMs übertragene IPv6-Routerankündigungen (ICMPv6-Typ 134) heraus. In einer IPv6-Bereitstellung senden Router in regelmäßigen Abständen Multicast-Meldungen zur Routerankündigung, die von Hosts für die automatische Konfiguration verwendet werden.

Sie können RA Guard verwenden, um Ihr Netzwerk vor bösartigen RA-Nachrichten zu schützen, die von nicht autorisierten oder nicht ordnungsgemäß konfigurierten Routern generiert werden, die mit dem Netzwerksegment verbunden sind. Sie können RAGuard in der Benutzeroberfläche von NSX Manager unter Netzwerk > Segmente > Segmentprofil > Segmentsicherheit konfigurieren.

Diese Statistik wird intern der Statistik „ra_guard_drops“ zugeordnet.

4.2.0

vSwitch

Gesamtzahl der Pakete, die aus verschiedenen Gründen vom vSwitch-Modul verworfen wurden.

Klicken Sie auf den Link NSX-Datenpfad auf der Benutzeroberfläche, um Details zu den Verwerfungen zu erhalten.

vSwitch von Uplink empfangen

Rate der Pakete, die von einem oder mehreren Uplinks zum vSwitch empfangen wurden, bei denen es sich um unbekannte Unicast-Pakete handelt, die vom vSwitch an andere Ports in derselben Broadcast-Domäne geflutet werden.

Diese Statistik steigt, wenn Pakete unbekannte Unicast-Pakete sind, die bei Vorhandensein von MAC Learning-aktivierten Segmenten oder Sink-Ports geflutet werden. Ein unbekanntes Unicast-Flooding tritt auf, wenn sich die Ziel-MAC-Adresse des Pakets nicht in der Tabelle der vSwitch-MAC-Adressen befindet.

Diese Statistik steigt, wenn eine Ziel-MAC bei Vorhandensein von MAC Learning aus der MAC-Adresstabelle abläuft. Diese Statistik wird intern der Statistik „unknown_unicast_rx_uplink_pkts“ zugeordnet.

4.2.0

vSwitch an Uplink übertragen

Rate der Pakete mit unbekanntem Unicast, die vom vSwitch an einen oder mehrere Uplinks geflutet werden.

Diese Statistik steigt, wenn Pakete unbekannte Unicast-Pakete sind, die bei Vorhandensein von MAC Learning-aktivierten Segmenten oder Sink-Ports geflutet werden. Ein unbekanntes Unicast-Flooding tritt auf, wenn sich die Ziel-MAC-Adresse des Pakets nicht in der Tabelle der vSwitch-MAC-Adressen befindet.

Diese Statistik steigt, wenn eine Ziel-MAC bei Vorhandensein von MAC Learning aus der MAC-Adresstabelle abläuft. Diese Statistik wird intern der Statistik „unknown_unicast_tx_uplink_pkts“ zugeordnet.

4.2.0

Modul: host_enhanced_fastpath

Dieses Datenpfadmodul gibt Host-/Infrastrukturstatistiken für das ENS-Datenpfadmodul an. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als host-fastpath-ens bezeichnet.

Statistik Beschreibung Version eingeführt

flow_table_occupancy_0_pct

Histogramm: Anzahl der Flow-Tabellen mit 0–25 % Auslastung.

4.2.0

flow_table_occupancy_25_pct

Histogramm: Anzahl der Flow-Tabellen mit 25–50 % Auslastung.

4.2.0

flow_table_occupancy_50_pct

Histogramm: Anzahl der Flow-Tabellen mit 50–75 % Auslastung.

4.2.0

flow_table_occupancy_75_pct

Histogramm: Anzahl der Flow-Tabellen mit 75–90 % Auslastung.

4.2.0

flow_table_occupancy_90_pct

Histogramm: Anzahl der Flow-Tabellen mit 90–95 % Auslastung. Wenn die Anzahl der aktiven Flows größer als die Größe der Flow-Tabelle ist, kann es zu einem Anstieg der Flow-Fehler kommen, was zu einem Leistungsabfall führt. Die Statistiken im Histogramm der Flow-Tabellenbelegung sind nützlich, um festzustellen, ob die Flow-Tabellen voll werden.

Das Erhöhen der Flow-Tabellengröße verbessert nicht immer die Leistung, wenn weiterhin kurzlebige Verbindungen eingehen. Die Flow-Tabelle kann unabhängig von der Größe der Flow-Tabelle immer voll sein. Eine große Flow-Tabellengröße wäre in diesem Fall nicht hilfreich. EDP verfügt über eine Logik, um dies zu erkennen und Flow-Tabellen automatisch zu aktivieren und zu deaktivieren, um einen solchen Fall zu behandeln.

4.2.0

flow_table_occupancy_95_pct

Histogramm: Anzahl der Flow-Tabellen mit 95 % Auslastung. Wenn die Anzahl der aktiven Flows größer als die Größe der Flow-Tabelle ist, kann es zu einem Anstieg der Flow-Fehler kommen, was zu einem Leistungsabfall führt. Die Statistiken im Histogramm der Flow-Tabellenbelegung sind nützlich, um festzustellen, ob die Flow-Tabellen voll werden.

Das Erhöhen der Flow-Tabellengröße verbessert nicht immer die Leistung, wenn weiterhin kurzlebige Verbindungen eingehen. Die Flow-Tabelle kann unabhängig von der Größe der Flow-Tabelle immer voll sein. Eine große Flow-Tabellengröße wäre in diesem Fall nicht hilfreich. EDP verfügt über eine Logik, um dies zu erkennen und Flow-Tabellen automatisch zu aktivieren und zu deaktivieren, um einen solchen Fall zu behandeln.

4.2.0

flow_table_size

Maximale Größe der Flow-Tabelle in EDP.

4.2.0

hits

Anzahl der Flow-Tabellentreffer im ENS-Modul. Diese Statistik kann verwendet werden, um die Treffer-/Fehler-/Slowpath-Rate des Flows zu berechnen oder um das Verhältnis von Treffern/Fehlern/Slowpath zu berechnen.

4.2.0

insertion_errors

Anzahl der Fehler beim Einfügen in die Flow-Tabelle. Dies kann passieren, wenn eine Flow-Tabelle voll (oder fast voll) ist und Hash-Konflikte auftreten.

4.2.0

miss

Pakete, die aufgrund eines Flow-Fehlers von Slowpath verarbeitet werden. Diese Statistik überschneidet sich nicht mit der Slowpath-Statistik, die weiter unten in dieser Tabelle beschrieben wird. Diese Statistik kann verwendet werden, um die Treffer-/Fehler-/Slowpath-Rate des Flows zu berechnen oder um das Verhältnis von Treffern/Fehlern/Slowpath zu berechnen.

4.2.0

num_flow_tables

Anzahl der für EDP verwendeten Flow-Tabellen. EDP verfügt über eine Flow-Tabelle pro EDP-Thread. Dies ist nützlich, um zu sehen, wie viele Flow-Tabellen erstellt und verwendet werden.

4.2.0

num_flows

Anzahl der Flows in EDP.

4.2.0

num_flows_created

Anzahl der in EDP erstellten Flows. Verwenden Sie diese Statistik, um die Flow-Erstellungsrate zu berechnen, was nützlich ist, um die Merkmale der Arbeitslast zu bestimmen. Die Statistiken im Histogramm der Flow-Tabellenbelegung geben an, ob die Flow-Tabellen voll sind oder nicht.

Wenn die Flow-Erstellungsrate niedrig ist und keine wesentlichen Änderungen in den Belegungsstatistiken „num_flows“ oder „flow ocupancy“ vorgenommen werden, deutet dies darauf hin, dass der Datenverkehr stabil und in einem stabilen Zustand ist. Die Anzahl der aktiven Flows bleibt stabil. Wenn die Flow-Erstellungsrate hoch ist und die Statistik „num_flows“ steigt, bedeutet dies, dass die Anzahl der aktiven Flows zunimmt. Flow-Tabellen werden schließlich voll, wenn die Flow-Erstellungsrate nicht sinkt.

Wenn die Flow-Erstellungsrate hoch ist und die durchschnittliche Flow-Größe nicht klein ist, sollten Sie die Größe der Flow-Tabelle erhöhen. Durchschnittliche Flow-Größe = Trefferrate/num_flows_created-Rate.

Ein kleiner Wert für die durchschnittliche Flow-Größe bedeutet, dass Flows kurzlebig sind. Sowohl Treffer als auch num_flows_created werden angesammelt. Sie können zuerst die Ratenwerte berechnen, um die durchschnittliche Flow-Größe während eines bestimmten Zeitraums abzurufen.

4.2.0

slowpath

Pakete, die standardmäßig immer in Slowpath verarbeitet werden. Ein Beispiel ist das Broadcast-Paket. Diese Statistik kann verwendet werden, um die Treffer-/Fehler-/Slowpath-Rate des Flows zu berechnen oder um das Verhältnis von Treffern/Fehlern/Slowpath zu berechnen.

4.2.0

Modul: host_fastpath_ens_lcore

Dieses Datenpfadmodul gibt die geschätzten Lcore-Nutzungsstatistiken für das ENS-Modul an. Es werden bis zu 16 nach Nutzung sortierte Lcores angezeigt. Wenn weniger als 16 Lcores konfiguriert sind, werden nur Lcores mit gültigen IDs angezeigt. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als host-fastpath-ens-lcore bezeichnet.

Statistik Beschreibung Version eingeführt

lcorerank01_lcoreid

Die ID des Kernel-Threads mit Rang 1 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank01_lcoreusage

CPU-Nutzung des Lcore mit Rang 1. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank02_lcoreid

Die ID des Kernel-Threads mit Rang 2 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank02_lcoreusage

CPU-Nutzung des Lcore mit Rang 2. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank03_lcoreid

Die ID des Kernel-Threads mit Rang 3 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank03_lcoreusage

CPU-Nutzung des Lcore mit Rang 3. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank04_lcoreid

Die ID des Kernel-Threads mit Rang 4 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank04_lcoreusage

CPU-Nutzung des Lcore mit Rang 4. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank05_lcoreid

Die ID des Kernel-Threads mit Rang 5 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank05_lcoreusage

CPU-Nutzung des Lcore mit Rang 5. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank06_lcoreid

Die ID des Kernel-Threads mit Rang 6 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank06_lcoreusage

CPU-Nutzung des Lcore mit Rang 6. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank07_lcoreid

Die ID des Kernel-Threads mit Rang 7 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank07_lcoreusage

CPU-Nutzung des Lcore mit Rang 7. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank08_lcoreid

Die ID des Kernel-Threads mit Rang 8 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank08_lcoreusage

CPU-Nutzung des Lcore mit Rang 8. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank09_lcoreid

Die ID des Kernel-Threads mit Rang 9 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank09_lcoreusage

CPU-Nutzung des Lcore mit Rang 9. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank10_lcoreid

Die ID des Kernel-Threads mit Rang 10 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank10_lcoreusage

CPU-Nutzung des Lcore mit Rang 10. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank11_lcoreid

Die ID des Kernel-Threads mit Rang 11 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank11_lcoreusage

CPU-Nutzung des Lcore mit Rang 11. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank12_lcoreid

Die ID des Kernel-Threads mit Rang 12 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank12_lcoreusage

CPU-Nutzung des Lcore mit Rang 12. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank13_lcoreid

Die ID des Kernel-Threads mit Rang 13 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

lcorerank13_lcoreusage

CPU-Nutzung des Lcore mit Rang 13. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank14_lcoreid

Die ID des Kernel-Threads mit Rang 14 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank14_lcoreusage

CPU-Nutzung des Lcore mit Rang 14. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank15_lcoreid

Die ID des Kernel-Threads mit Rang 15 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank15_lcoreusage

CPU-Nutzung des Lcore mit Rang 15. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank16_lcoreid

Die ID des Kernel-Threads mit Rang 16 für den EDP-Leistungsmodus in Bezug auf die CPU-Nutzung. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

lcorerank16_lcoreusage

CPU-Nutzung des Lcore mit Rang 16. Wird nur angezeigt, wenn die ID gültig ist.

4.2.0

Modul: host_standard_fastpath

Dieses Datenpfadmodul gibt Host-/Infrastrukturstatistiken für das Legacy-Flow-Cache-Datenpfadmodul an. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als host-fastpath-standard bezeichnet.

Statistik Beschreibung Version eingeführt

flow_table_occupancy_0_pct

Histogramm: Anzahl der Flow-Tabellen mit 0–25 % Auslastung.

4.2.0

flow_table_occupancy_25_pct

Histogramm: Anzahl der Flow-Tabellen mit 25–50 % Auslastung.

4.2.0

flow_table_occupancy_50_pct

Histogramm: Anzahl der Flow-Tabellen mit 50–75 % Auslastung.

4.2.0

flow_table_occupancy_75_pct

Histogramm: Anzahl der Flow-Tabellen mit 75–90 % Auslastung.

4.2.0

flow_table_occupancy_90_pct

Histogramm: Anzahl der Flow-Tabellen mit 90–95 % Auslastung. Wenn die Anzahl der aktiven Flows größer als die Größe der Flow-Tabelle ist, kann es zu einem Anstieg der Flow-Fehler kommen, was zu einem Leistungsabfall führt. Die Statistiken im Histogramm der Flow-Tabellenbelegung sind nützlich, um festzustellen, ob die Flow-Tabellen voll werden.

Das Erhöhen der Flow-Tabellengröße verbessert nicht immer die Leistung, wenn weiterhin kurzlebige Verbindungen eingehen. Die Flow-Tabelle kann unabhängig von der Größe der Flow-Tabelle immer voll sein. Eine große Flow-Tabellengröße wäre in diesem Fall nicht hilfreich. EDP verfügt über eine Logik, um dies zu erkennen und Flow-Tabellen automatisch zu aktivieren und zu deaktivieren, um einen solchen Fall zu behandeln.

4.2.0

flow_table_occupancy_95_pct

Histogramm: Anzahl der Flow-Tabellen mit 95 % Auslastung. Wenn die Anzahl der aktiven Flows größer als die Größe der Flow-Tabelle ist, kann es zu einem Anstieg der Flow-Fehler kommen, was zu einem Leistungsabfall führt. Die Statistiken im Histogramm der Flow-Tabellenbelegung sind nützlich, um festzustellen, ob die Flow-Tabellen voll werden.

Das Erhöhen der Flow-Tabellengröße verbessert nicht immer die Leistung, wenn weiterhin kurzlebige Verbindungen eingehen. Die Flow-Tabelle kann unabhängig von der Größe der Flow-Tabelle immer voll sein. Eine große Flow-Tabellengröße wäre in diesem Fall nicht hilfreich. EDP verfügt über eine Logik, um dies zu erkennen und Flow-Tabellen automatisch zu aktivieren und zu deaktivieren, um einen solchen Fall zu behandeln.

4.2.0

flow_table_size

Maximale Größe der Flow-Tabelle in EDP.

4.2.0

hits

Anzahl der Flow-Tabellentreffer im ENS-Modul. Diese Statistik kann verwendet werden, um die Treffer-/Fehler-/Slowpath-Rate des Flows zu berechnen oder um das Verhältnis von Treffern/Fehlern/Slowpath zu berechnen.

4.2.0

insertion_errors

Anzahl der Fehler beim Einfügen in die Flow-Tabelle. Dies kann passieren, wenn eine Flow-Tabelle voll (oder fast voll) ist und Hash-Konflikte auftreten.

4.2.0

miss

Pakete, die aufgrund eines Flow-Fehlers von Slowpath verarbeitet werden. Diese Statistik überschneidet sich nicht mit der Slowpath-Statistik, die weiter unten in dieser Tabelle beschrieben wird. Diese Statistik kann verwendet werden, um die Treffer-/Fehler-/Slowpath-Rate des Flows zu berechnen oder um das Verhältnis von Treffern/Fehlern/Slowpath zu berechnen.

4.2.0

num_flow_tables

Anzahl der für EDP verwendeten Flow-Tabellen. EDP verfügt über eine Flow-Tabelle pro EDP-Thread. Dies ist nützlich, um zu sehen, wie viele Flow-Tabellen erstellt und verwendet werden.

4.2.0

num_flows

Anzahl der Flows in EDP.

4.2.0

num_flows_created

Anzahl der in EDP erstellten Flows. Verwenden Sie diese Statistik, um die Flow-Erstellungsrate zu berechnen, was nützlich ist, um die Merkmale der Arbeitslast zu bestimmen. Die Statistiken im Histogramm der Flow-Tabellenbelegung geben an, ob die Flow-Tabellen voll sind oder nicht.

Wenn die Flow-Erstellungsrate niedrig ist und keine wesentlichen Änderungen in den Belegungsstatistiken „num_flows“ oder „flow ocupancy“ vorgenommen werden, deutet dies darauf hin, dass der Datenverkehr stabil und in einem stabilen Zustand ist. Die Anzahl der aktiven Flows bleibt stabil. Wenn die Flow-Erstellungsrate hoch ist und die Statistik „num_flows“ steigt, bedeutet dies, dass die Anzahl der aktiven Flows zunimmt. Flow-Tabellen werden schließlich voll, wenn die Flow-Erstellungsrate nicht sinkt.

Wenn die Flow-Erstellungsrate hoch ist und die durchschnittliche Flow-Größe nicht klein ist, sollten Sie die Größe der Flow-Tabelle erhöhen. Durchschnittliche Flow-Größe = Trefferrate/num_flows_created-Rate.

Ein kleiner Wert für die durchschnittliche Flow-Größe bedeutet, dass Flows kurzlebig sind. Sowohl Treffer als auch num_flows_created werden angesammelt. Sie können zuerst die Ratenwerte berechnen, um die durchschnittliche Flow-Größe während eines bestimmten Zeitraums abzurufen.

4.2.0

slowpath

Pakete, die standardmäßig immer in Slowpath verarbeitet werden. Ein Beispiel ist das Broadcast-Paket. Diese Statistik kann verwendet werden, um die Treffer-/Fehler-/Slowpath-Rate des Flows zu berechnen oder um das Verhältnis von Treffern/Fehlern/Slowpath zu berechnen.

4.2.0

Modul: host_net_thread_nioc

Dieses Datenpfadmodul gibt Netzwerk-Thread-Statistiken im Zusammenhang mit NIOC an. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als host-net-thread-nioc bezeichnet.

Statistik Beschreibung Version eingeführt

hist_0_pct

Histogramm: Anzahl der Threads zwischen 0 %–25%

4.2.0

hist_25_pct

Histogramm: Anzahl der Threads zwischen 25%–50%

4.2.0

hist_50_pct

Histogramm: Anzahl der Threads zwischen 50%–70%

4.2.0

hist_70_pct

Histogramm: Anzahl der Threads zwischen 70%–80%

4.2.0

hist_80_pct

Histogramm: Anzahl der Threads zwischen 80%–85%

4.2.0

hist_85_pct

Histogramm: Anzahl der Threads zwischen 85%–90%

4.2.0

hist_90_pct

Histogramm: Anzahl der Threads zwischen 90%–95%

4.2.0

hist_95_pct

Histogramm: Anzahl der Threads zwischen 95%–97%

4.2.0

hist_97_pct

Histogramm: Anzahl der Threads zwischen 97%–99%

4.2.0

hist_99_pct

Histogramm: Anzahl der Threads mit >99 % Auslastung.

Netzwerkdatenpfadprobleme zeigen sich an drei Symptomen: Paketverlusten, niedrigem Durchsatz und hoher Latenz. Obwohl diese Symptome sowohl durch funktionale wie auch durch Leistungsprobleme ausgelöst werden, werden sie in den meisten Fällen durch leistungsbezogene Probleme verursacht. Es ist wichtig, dass in einem frühen Stadium der Untersuchung bestimmt wird, ob das Problem leistungsbezogen ist oder nicht.

In einem softwaredefinierten Netzwerk, das speziell auf Virtualisierung basiert, ist die CPU die wichtigste Ressource für die Netzwerkleistung. Da auf dem Markt immer schnellere Netzwerkkarten verfügbar sind, wird die Netzwerkbandbreite selten zu einem Engpass.

Die Paketverarbeitung im Datenpfad umfasst in der Regel einen Satz von Threads, die in einer Pipeline ausgeführt werden und Warteschlangen und Puffern zugeordnet sind, die Pakete enthalten. Wenn ein Thread in der Pipeline von vCPUs zu Kernel-Netzwerk-Threads überladen wird, können die entsprechenden Warteschlangen und Puffer voll werden, was zu Paketverlusten führt. Dies drosselt den Durchsatz.

Zusätzlich zu den herkömmlichen Netzwerkstatistiken ist es wichtig, die CPU-Nutzung von Kernel-Netzwerkthreads zu überwachen. Anstatt CPU-Nutzungszahlen für einzelne Threads zu verwenden, werden sie gruppiert und ein Histogramm wird generiert. Anschließend können Sie die Histogramm-Bins wie 90pct, 95pct, 97pct und 99pct überwachen und so erfahren, bei wie vielen Netzwerkthreads es zu Engpässen kommt. Die Statistik „total_CPU“ ist auch nützlich, um anzuzeigen, wie viel CPU-Zeit mit der Verarbeitung von Paketen im Kernel verbracht wird.

4.2.0

max_cpu

Maximale CPU-Thread-Nutzung

4.2.0

min_cpu

Minimale CPU-Thread-Nutzung

4.2.0

num_threads

Anzahl der Threads, die für die Bereitstellung von Paketen vom NetIOC-Paket-Scheduler zum Uplink verwendet werden.

4.2.0

total_cpu

Summe der CPU-Nutzung aller Netzwerk-Threads in der Gruppe. Die Gesamtnutzung der CPUs ist nützlich, um die Verteilung der gesamten CPU-Auslastung zwischen verschiedenen Thread-Gruppen und VMs anzuzeigen.

4.2.0

Modul: host_net_thread_rx

Dieses Datenpfadmodul gibt Netzwerk-Thread-Statistiken im Zusammenhang mit RX an. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als host-net-thread-rx bezeichnet.

Statistik Beschreibung Version eingeführt

hist_0_pct

Histogramm: Anzahl der Threads zwischen 0 %–25%

4.2.0

hist_25_pct

Histogramm: Anzahl der Threads zwischen 25%–50%

4.2.0

hist_50_pct

Histogramm: Anzahl der Threads zwischen 50%–70%

4.2.0

hist_70_pct

Histogramm: Anzahl der Threads zwischen 70%–80%

4.2.0

hist_80_pct

Histogramm: Anzahl der Threads zwischen 80%–85%

4.2.0

hist_85_pct

Histogramm: Anzahl der Threads zwischen 85%–90%

4.2.0

hist_90_pct

Histogramm: Anzahl der Threads zwischen 90%–95%

4.2.0

hist_95_pct

Histogramm: Anzahl der Threads zwischen 95%–97%

4.2.0

hist_97_pct

Histogramm: Anzahl der Threads zwischen 97%–99%

4.2.0

hist_99_pct

Histogramm: Anzahl der Threads mit >99 % Auslastung.

Netzwerkdatenpfadprobleme zeigen sich an drei Symptomen: Paketverlusten, niedrigem Durchsatz und hoher Latenz. Obwohl diese Symptome sowohl durch funktionale wie auch durch Leistungsprobleme ausgelöst werden, werden sie in den meisten Fällen durch leistungsbezogene Probleme verursacht. Es ist wichtig, dass in einem frühen Stadium der Untersuchung bestimmt wird, ob das Problem leistungsbezogen ist oder nicht.

In einem softwaredefinierten Netzwerk, das speziell auf Virtualisierung basiert, ist die CPU die wichtigste Ressource für die Netzwerkleistung. Da auf dem Markt immer schnellere Netzwerkkarten verfügbar sind, wird die Netzwerkbandbreite selten zu einem Engpass.

Die Paketverarbeitung im Datenpfad umfasst in der Regel einen Satz von Threads, die in einer Pipeline ausgeführt werden und Warteschlangen und Puffern zugeordnet sind, die Pakete enthalten. Wenn ein Thread in der Pipeline von vCPUs zu Kernel-Netzwerk-Threads überladen wird, können die entsprechenden Warteschlangen und Puffer voll werden, was zu Paketverlusten führt. Dies drosselt den Durchsatz.

Zusätzlich zu den herkömmlichen Netzwerkstatistiken ist es wichtig, die CPU-Nutzung von Kernel-Netzwerkthreads zu überwachen. Anstatt CPU-Nutzungszahlen für einzelne Threads zu verwenden, werden sie gruppiert und ein Histogramm wird generiert. Anschließend können Sie die Histogramm-Bins wie 90pct, 95pct, 97pct und 99pct überwachen und so erfahren, bei wie vielen Netzwerkthreads es zu Engpässen kommt. Die Statistik „total_CPU“ ist auch nützlich, um anzuzeigen, wie viel CPU-Zeit mit der Verarbeitung von Paketen im Kernel verbracht wird.

4.2.0

max_cpu

Maximale CPU-Thread-Nutzung

4.2.0

min_cpu

Minimale CPU-Thread-Nutzung

4.2.0

num_threads

Anzahl der Threads, die für die Bereitstellung von Paketen vom NetIOC-Paket-Scheduler zum Uplink verwendet werden.

4.2.0

total_cpu

Summe der CPU-Nutzung aller Netzwerk-Threads in der Gruppe. Die Gesamtnutzung der CPUs ist nützlich, um die Verteilung der gesamten CPU-Auslastung zwischen verschiedenen Thread-Gruppen und VMs anzuzeigen.

4.2.0

Modul: host_net_thread_tx

Dieses Datenpfadmodul gibt Netzwerk-Thread-Statistiken im Zusammenhang mit TX an. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als host-net-thread-tx„host-net-thread-tx“ bezeichnet.

Statistik Beschreibung Version eingeführt

hist_0_pct

Histogramm: Anzahl der Threads zwischen 0 %–25%

4.2.0

hist_25_pct

Histogramm: Anzahl der Threads zwischen 25%–50%

4.2.0

hist_50_pct

Histogramm: Anzahl der Threads zwischen 50%–70%

4.2.0

hist_70_pct

Histogramm: Anzahl der Threads zwischen 70%–80%

4.2.0

hist_80_pct

Histogramm: Anzahl der Threads zwischen 80%–85%

4.2.0

hist_85_pct

Histogramm: Anzahl der Threads zwischen 85%–90%

4.2.0

hist_90_pct

Histogramm: Anzahl der Threads zwischen 90%–95%

4.2.0

hist_95_pct

Histogramm: Anzahl der Threads zwischen 95%–97%

4.2.0

hist_97_pct

Histogramm: Anzahl der Threads zwischen 97%–99%

4.2.0

hist_99_pct

Histogramm: Anzahl der Threads mit >99 % Auslastung.

Netzwerkdatenpfadprobleme zeigen sich an drei Symptomen: Paketverlusten, niedrigem Durchsatz und hoher Latenz. Obwohl diese Symptome sowohl durch funktionale wie auch durch Leistungsprobleme ausgelöst werden, werden sie in den meisten Fällen durch leistungsbezogene Probleme verursacht. Es ist wichtig, dass in einem frühen Stadium der Untersuchung bestimmt wird, ob das Problem leistungsbezogen ist oder nicht.

In einem softwaredefinierten Netzwerk, das speziell auf Virtualisierung basiert, ist die CPU die wichtigste Ressource für die Netzwerkleistung. Da auf dem Markt immer schnellere Netzwerkkarten verfügbar sind, wird die Netzwerkbandbreite selten zu einem Engpass.

Die Paketverarbeitung im Datenpfad umfasst in der Regel einen Satz von Threads, die in einer Pipeline ausgeführt werden und Warteschlangen und Puffern zugeordnet sind, die Pakete enthalten. Wenn ein Thread in der Pipeline von vCPUs zu Kernel-Netzwerk-Threads überladen wird, können die entsprechenden Warteschlangen und Puffer voll werden, was zu Paketverlusten führt. Dies drosselt den Durchsatz.

Zusätzlich zu den herkömmlichen Netzwerkstatistiken ist es wichtig, die CPU-Nutzung von Kernel-Netzwerkthreads zu überwachen. Anstatt CPU-Nutzungszahlen für einzelne Threads zu verwenden, werden sie gruppiert und ein Histogramm wird generiert. Anschließend können Sie die Histogramm-Bins wie 90pct, 95pct, 97pct und 99pct überwachen und so erfahren, bei wie vielen Netzwerkthreads es zu Engpässen kommt. Die Statistik „total_CPU“ ist auch nützlich, um anzuzeigen, wie viel CPU-Zeit mit der Verarbeitung von Paketen im Kernel verbracht wird.

4.2.0

max_cpu

Maximale CPU-Thread-Nutzung

4.2.0

min_cpu

Minimale CPU-Thread-Nutzung

4.2.0

num_threads

Anzahl der Threads, die für die Bereitstellung von Paketen vom NetIOC-Paket-Scheduler zum Uplink verwendet werden.

4.2.0

total_cpu

Summe der CPU-Nutzung aller Netzwerk-Threads in der Gruppe. Die Gesamtnutzung der CPUs ist nützlich, um die Verteilung der gesamten CPU-Auslastung zwischen verschiedenen Thread-Gruppen und VMs anzuzeigen.

4.2.0

Modul: host_pcpu

Dieses Datenpfadmodul gibt die Nutzung physischer CPUs an. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als host-pcpu„host-pcpu“ bezeichnet.

Statistik Beschreibung Version eingeführt

hist_0_pct

Histogramm: Anzahl der CPUs zwischen 0 %–50 %

4.2.0

hist_50_pct

Histogramm: Anzahl der CPUs zwischen 50%–70%

4.2.0

hist_75_pct

Histogramm: Anzahl der CPUs zwischen 75%–85%

4.2.0

hist_85_pct

Histogramm: Anzahl der CPUs zwischen 85%–90%

4.2.0

hist_90_pct

Histogramm: Anzahl der CPUs zwischen 90%–95%

4.2.0

hist_95_pct

Histogramm: Anzahl der CPUs zwischen 95%–100%

4.2.0

total_cpu

Gesamte Host-CPU-Nutzung. Summe der Nutzung aller physischen CPU-Kerne auf dem Host.

Netzwerkdatenpfadprobleme zeigen sich an drei Symptomen: Paketverlusten, niedrigem Durchsatz und hoher Latenz. Obwohl diese Symptome sowohl durch funktionale wie auch durch Leistungsprobleme ausgelöst werden, werden sie in den meisten Fällen durch leistungsbezogene Probleme verursacht. Es ist wichtig, dass in einem frühen Stadium der Untersuchung bestimmt wird, ob das Problem leistungsbezogen ist oder nicht.

In einem softwaredefinierten Netzwerk, das speziell auf Virtualisierung basiert, ist die CPU die wichtigste Ressource für die Netzwerkleistung. Da auf dem Markt immer schnellere Netzwerkkarten verfügbar sind, wird die Netzwerkbandbreite selten zu einem Engpass.

Die Paketverarbeitung im Datenpfad umfasst in der Regel einen Satz von Threads, die in einer Pipeline ausgeführt werden und Warteschlangen und Puffern zugeordnet sind, die Pakete enthalten. Wenn ein Thread in der Pipeline von vCPUs zu Kernel-Netzwerk-Threads überladen wird, können die entsprechenden Warteschlangen und Puffer voll werden, was zu Paketverlusten führt. Dies drosselt den Durchsatz.

Zusätzlich zu den herkömmlichen Netzwerkstatistiken ist es wichtig, die CPU-Nutzung von Kernel-Netzwerkthreads zu überwachen. Anstatt CPU-Nutzungszahlen für einzelne Threads zu verwenden, werden sie gruppiert und ein Histogramm wird generiert. Anschließend können Sie die Histogramm-Bins wie 90pct, 95pct, 97pct und 99pct überwachen und so erfahren, bei wie vielen Netzwerkthreads es zu Engpässen kommt. Die Statistik „total_CPU“ ist auch nützlich, um anzuzeigen, wie viel CPU-Zeit mit der Verarbeitung von Paketen im Kernel verbracht wird.

4.2.0

Modul: host_uplink

Dieses Datenpfadmodul gibt die Verwendung physischer Uplink-Netzwerkkarten an. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als host-uplink bezeichnet.

Statistik Beschreibung Version eingeführt

num_pnics

Anzahl physischer Netzwerkkarten

4.2.0

rx_error_total

Treiberstatistik: Empfangene Fehler insgesamt. Normalerweise sollte diese Statistik einen ähnlichen Wert wie „rx_missed“ aufweisen.

Ein anderer Wert als null deutet in der Regel auf zwei Fälle hin:
  1. Die PNIC-RX-Ringgröße ist zu klein und der Ring kann aufgrund von Arbeitslastspitzen leicht gefüllt werden. Ziehen Sie in Erwägung, die Ringgröße zu erhöhen.
  2. Die Paketrate ist zu hoch für den Gast. Der Gast kann keine Pakete aus dem PNIC-RX-Ring abrufen, was zu Paketverlusten führt.
4.2.0

rx_missed

Treiberstatistik: Empfangen ausgelassen. Normalerweise sollte diese Statistik einen ähnlichen Wert wie „rx_error_total“ aufweisen.

Ein anderer Wert als null deutet in der Regel auf zwei Fälle hin:
  1. Die PNIC-RX-Ringgröße ist zu klein und der Ring kann aufgrund von Arbeitslastspitzen leicht gefüllt werden. Ziehen Sie in Erwägung, die Ringgröße zu erhöhen.
  2. Die Paketrate ist zu hoch für den Gast. Der Gast kann keine Pakete aus dem PNIC-RX-Ring abrufen, was zu Paketverlusten führt.
4.2.0

rxeps

Empfangene Fehler pro Sekunde

Ein anderer Wert als null deutet in der Regel auf zwei Fälle hin:
  1. Die PNIC-RX-Ringgröße ist zu klein und der Ring kann aufgrund von Arbeitslastspitzen leicht gefüllt werden. Ziehen Sie in Erwägung, die Ringgröße zu erhöhen.
  2. Die Paketrate ist zu hoch für den Gast. Der Gast kann keine Pakete aus dem PNIC-RX-Ring abrufen, was zu Paketverlusten führt.
4.2.0

rxmbps

Empfangene Megabit pro Sekunde

4.2.0

rxpps

Empfangene Pakete pro Sekunde

4.2.0

txeps

Übertragene Fehler pro Sekunde

4.2.0

txmbps

Übertragene Megabit pro Sekunde

4.2.0

txpps

Übertragene Pakete pro Sekunde

4.2.0

Modul: host_vnic

Dieses Datenpfadmodul gibt die Nutzung virtueller Netzwerkkarten an. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als host-vNIC bezeichnet.

Statistik Beschreibung Version eingeführt

num_vnics

Anzahl virtueller Netzwerkkarten.

4.2.0

rxeps

Empfangene Fehler pro Sekunde

Ein anderer Wert als null deutet in der Regel auf die folgenden beiden Fälle hin:
  1. Die VNIC-RX-Ringgröße ist zu klein und der Ring kann aufgrund von Arbeitslastspitzen leicht gefüllt werden. Ziehen Sie in Erwägung, die Ringgröße zu erhöhen.
  2. Die Paketrate ist zu hoch für den Gast. Der Gast kann keine Pakete aus dem VNIC-RX-Ring abrufen, was zu Paketverlusten führt.
4.2.0

rxmbps

Empfangene Megabit pro Sekunde.

4.2.0

rxpps

Empfangene Pakete pro Sekunde

4.2.0

txeps

Übertragene Fehler pro Sekunde

Ein anderer Wert als null deutet in der Regel auf die folgenden beiden Fälle hin:
  1. Die Paketrate ist zu hoch für den Uplink.
  2. Der Uplink kann keine Pakete aus der Warteschlange des Netzwerk-Stacks ziehen, was zu Paketverlusten führt.
4.2.0

txmbps

Übertragene Megabit pro Sekunde.

4.2.0

txpps

Übertragene Pakete pro Sekunde

4.2.0

Modul: host_vcpu

Dieses Datenpfadmodul gibt die Nutzung virtueller CPUs an. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als host-vcpu bezeichnet.

Statistik Beschreibung Version eingeführt

hist_0_pct

Histogramm: Anzahl der CPUs zwischen 0 %–50 %.

4.2.0

hist_50_pct

Histogramm: Anzahl der CPUs zwischen 50%–70%.

4.2.0

hist_75_pct

Histogramm: Anzahl der CPUs zwischen 75%–85%

4.2.0

hist_85_pct

Histogramm: Anzahl der CPUs zwischen 85%–90%.

4.2.0

hist_90_pct

Histogramm: Anzahl der CPUs zwischen 90%–95%.

4.2.0

hist_95_pct

Histogramm: Anzahl der CPUs zwischen 95%–100%.

Netzwerkdatenpfadprobleme zeigen sich an drei Symptomen: Paketverlusten, niedrigem Durchsatz und hoher Latenz. Obwohl diese Symptome sowohl durch funktionale wie auch durch Leistungsprobleme ausgelöst werden, werden sie in den meisten Fällen durch leistungsbezogene Probleme verursacht. Es ist wichtig, dass in einem frühen Stadium der Untersuchung bestimmt wird, ob das Problem leistungsbezogen ist oder nicht.

In einem softwaredefinierten Netzwerk, das speziell auf Virtualisierung basiert, ist die CPU die wichtigste Ressource für die Netzwerkleistung. Da auf dem Markt immer schnellere Netzwerkkarten verfügbar sind, wird die Netzwerkbandbreite selten zu einem Engpass.

Die Paketverarbeitung im Datenpfad umfasst in der Regel einen Satz von Threads, die in einer Pipeline ausgeführt werden und Warteschlangen und Puffern zugeordnet sind, die Pakete enthalten. Wenn ein Thread in der Pipeline von vCPUs zu Kernel-Netzwerk-Threads überladen wird, können die entsprechenden Warteschlangen und Puffer voll werden, was zu Paketverlusten führt. Dies drosselt den Durchsatz.

Zusätzlich zu den herkömmlichen Netzwerkstatistiken ist es wichtig, die CPU-Nutzung von Kernel-Netzwerkthreads zu überwachen. Anstatt CPU-Nutzungszahlen für einzelne Threads zu verwenden, werden sie gruppiert und ein Histogramm wird generiert. Anschließend können Sie die Histogramm-Bins überwachen und so erfahren, bei wie vielen Netzwerkthreads es zu Engpässen kommt. Die Statistik „total_CPU“ ist auch nützlich, um anzuzeigen, wie viel CPU-Zeit mit der Verarbeitung von Paketen im Kernel verbracht wird.

4.2.0

total_cpu

Gesamtnutzung der vCPUs. Summe der CPU Nutzung aller VMs auf dem Host. Die Gesamtnutzung der CPUs ist nützlich, um die Verteilung der gesamten CPU-Auslastung zwischen verschiedenen Thread-Gruppen und VMs anzuzeigen.

4.2.0

Modul: fastpath

Fastpath enthält Datenpfadmodule für Flow-Cache (FC) und den erweiterten Netzwerk-Stack (ENS) für eine verbesserte Datenpfad-Paketverarbeitung. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als nsxt-fp bezeichnet.

Statistik Beschreibung Version eingeführt

rx_bytes

Die Anzahl der empfangenen Byte durch Flow-Cache-Fastpath in Empfangsrichtung von Ports.

4.2.0

rx_drops

Die Anzahl der durch Flow-Cache-Fastpath in Empfangsrichtung von Ports verworfenen Pakete. Dies gilt nicht für Flow-Cache im Nicht-ENS-Modus.

4.2.0

rx_drops_sp

Verworfene empfangene Pakete, wenn Pakete vom Flow-Cache-Fastpath an den Slowpath gesendet werden. Nicht anwendbar für Flow-Cache im Nicht-ENS-Modus und im Standard-Switch-Modus.

4.2.0

rx_drops_uplink

Die Anzahl der durch Flow-Cache-Fastpath in Empfangsrichtung von Uplink-Ports verworfenen Pakete. Nicht anwendbar für Flow-Cache im Nicht-ENS-Modus und im Standard-Switch-Modus.

4.2.0

rx_pkts

Die Anzahl der durch Flow-Cache-Fastpath in Empfangsrichtung von Ports empfangenen Pakete.

4.2.0

rx_pkts_sp

Empfangene Pakete, wenn Pakete vom Flow-Cache-Fastpath an den Slowpath gesendet werden. Nicht anwendbar für Flow-Cache im Nicht-ENS-Modus und im Standard-Switch-Modus.

4.2.0

rx_pkts_uplink

Die Anzahl der durch Flow-Cache-Fastpath in Empfangsrichtung von Uplink-Ports empfangenen Pakete.

4.2.0

tx_bytes

Die Anzahl der durch Flow-Cache-Fastpath übertragenen Byte in Übertragungsrichtung zu Ports.

4.2.0

tx_drops

Die Anzahl der durch Flow-Cache-Fastpath in Übertragungsrichtung zu Ports verworfenen Pakete.

4.2.0

tx_drops_sp

Durch Fastpath übertragene verworfene Pakete, wenn Pakete von Slowpath wieder in den Flow-Cache-Fastpath eingefügt werden. Nicht anwendbar für Flow-Cache im Nicht-ENS-Modus und im Standard-Switch-Modus.

4.2.0

tx_drops_uplink

Die Anzahl der durch Flow-Cache-Fastpath in Übertragungsrichtung zu Uplink-Ports verworfenen Pakete.

4.2.0

tx_pkts

Die Anzahl der durch Flow-Cache-Fastpath in Übertragungsrichtung zu Ports übertragenen Pakete.

4.2.0

tx_pkts_sp

Von Fastpath übertragene Pakete, wenn Pakete von Slowpath wieder in den Flow-Cache-Fastpath eingefügt werden. Nicht anwendbar für den Standard-Switch-Modus.

4.2.0

tx_pkts_uplink

Die Anzahl der durch Flow-Cache-Fastpath in Übertragungsrichtung von Uplink-Ports übertragenen Pakete.

4.2.0

Modul: switch_security

Dieses Datenpfadmodul bietet statusfreie L2- und L3-Sicherheit, indem der Datenverkehr zum Segment überprüft und von VMs gesendete nicht autorisierte Pakete verworfen werden. In dieser Tabelle bezeichnet „Rx“ Pakete, die „vom Switch“ empfangen wurden, und „Rx“ bezeichnet Pakete, die „an den Switch“ gesendet wurden. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als nsxt-swsec bezeichnet.

Statistik Beschreibung Version eingeführt

bpdu_filter_drops

Anzahl der Pakete, die durch BPDU-Filterung verworfen wurden. Wenn der BPDU-Filter aktiviert ist, wird der Datenverkehr zu konfigurierten BPDU-Ziel-MAC-Adressen verworfen.

4.2.0

dhcp_client_block_ipv4_drops

Anzahl der von der DHCP-Clientblockierung verworfenen IPv4-DHCP-Pakete.

Die DHCP-Clientblockierung verhindert, dass eine VM eine DHCP-IP-Adresse erhält, indem DHCP-Anforderungen blockiert werden. Wenn dies nicht erwartet wird, können Sie die DHCPv4-Clientblockierung im Segmentsicherheitsprofil eines Segments oder eines Segmentports deaktivieren. Navigieren Sie dazu in NSX Manager zu Netzwerk > Segmente > Segmentprofil > Segmentsicherheit.

4.2.0

dhcp_client_block_ipv6_drops

Anzahl der von der DHCP-Clientblockierung verworfenen IPv6-DHCP-Pakete.

Die DHCP-Clientblockierung verhindert, dass eine VM eine DHCP-IP-Adresse erhält, indem DHCP-Anforderungen blockiert werden. Wenn dies nicht erwartet wird, können Sie die DHCPv6-Clientblockierung im Segmentsicherheitsprofil eines Segments oder eines Segmentports deaktivieren. Navigieren Sie dazu in NSX Manager zu Netzwerk > Segmente > Segmentprofil > Segmentsicherheit.

4.2.0

dhcp_client_validate_ipv4_drops

Anzahl der aufgrund ungültiger Adressen in der Nutzlast verworfenen IPv4-DHCP-Pakete.

Eine böswillige VM im Netzwerk kann versuchen, ungültige DHCP-Pakete zu senden, z. B. ohne Quell-IP, mit nicht mit der Quell-MAC übereinstimmender Client-Hardwareadresse usw.

4.2.0

dhcp_server_block_ipv4_drops

Anzahl der von der DHCP-Serverblockierung verworfenen IPv4-DHCP-Pakete. Die DHCP-Serverblockierung blockiert Datenverkehr von einem DHCP-Server an einen DHCP-Client.

Wenn dies nicht erwartet wird, können Sie die DHCP-Serverblockierung im Segmentsicherheitsprofil eines Segments oder eines Segmentports deaktivieren. Navigieren Sie dazu in NSX Manager zu Netzwerk > Segmente > Segmentprofil > Segmentsicherheit.

4.2.0

dhcp_server_block_ipv6_drops

Anzahl der vom DHCP-Serverblock verworfenen DHCPv6-Pakete.

Die DHCP-Serverblockierung blockiert Datenverkehr von einem DHCP-Server an einen DHCP-Client. Wenn dies nicht erwartet wird, können Sie die DHCPv6-Serverblockierung über das Segmentsicherheitsprofil eines Segments oder eines Segmentports deaktivieren. Navigieren Sie dazu in NSX Manager zu Netzwerk > Segmente > Segmentprofil > Segmentsicherheit.

4.2.0

nd_parse_errors

Anzahl der IPv6-ND-Pakete (Neighbor Discovery), die nicht ordnungsgemäß analysiert wurden.

Überprüfen Sie die Protokolle auf Fehlermeldungen. Führen Sie Paketerfassungen am Port durch, um festzustellen, ob die Pakete falsch formatiert sind.

4.2.0

ra_guard_drops

Anzahl der von RA Guard verworfenen IPv6-Routerankündigungspakete.

Die Funktion „RA Guard“ filtert von VMs übertragene IPv6-Routerankündigungen (ICMPv6-Typ 134) heraus. In einer IPv6-Bereitstellung senden Router in regelmäßigen Abständen Multicast-Meldungen zur Routerankündigung, die von Hosts für die automatische Konfiguration verwendet werden.

Sie können RA Guard verwenden, um Ihr Netzwerk vor bösartigen RA-Nachrichten zu schützen, die von nicht autorisierten oder nicht ordnungsgemäß konfigurierten Routern generiert werden, die mit dem Netzwerksegment verbunden sind. Sie können RAGuard in der Benutzeroberfläche von NSX Manager unter Netzwerk > Segmente > Segmentprofil > Segmentsicherheit konfigurieren.

4.2.0

rx_arp_pkts

Anzahl der vom VDS von der VM empfangenen ARP-Pakete.

4.2.0

rx_garp_pkts

Anzahl der vom VDS von der VM empfangenen GARP-Pakete (Gratuitous ARP).

4.2.0

rx_ipv4_pkts

Anzahl der vom VDS von der VM empfangenen IPv4-Pakete.

4.2.0

rx_ipv6_pkts

Anzahl der vom VDS von der VM empfangenen IPv6-Pakete.

4.2.0

rx_na_pkts

Anzahl der vom VDS von der VM empfangenen IPv6-ND-NA-Pakete (Neighbor Discovery, Neighbor Advertisement).

4.2.0

rx_non_ip_pkts

Anzahl der vom VDS von der VM empfangenen Nicht-IP-Pakete.

4.2.0

rx_ns_pkts

Anzahl der vom VDS von der VM empfangenen IPv6-ND-NS-Pakete (Neighbor Discovery, Neighbor Solicitation).

4.2.0

rx_rate_limit_bcast_drops

Anzahl der eingehenden Pakete, die durch die Begrenzung der Broadcast-Rate verworfen wurden.

Ratenbegrenzungen können verwendet werden, um das Netzwerk oder VMs vor Ereignissen wie Broadcast-Stürmen zu schützen. Sie können Ratenbegrenzungen in der Benutzeroberfläche von NSX Manager unter Netzwerk > Segmente > Segmentprofil > Segmentsicherheit konfigurieren.

4.2.0

rx_rate_limit_mcast_drops

Anzahl der eingehenden Pakete, die durch die Begrenzung der Multicast-Rate verworfen wurden.

Ratenbegrenzungen können verwendet werden, um das Netzwerk oder VMs vor Ereignissen wie Multicast-Stürmen zu schützen. Sie können Ratenbegrenzungen in der Benutzeroberfläche von NSX Manager unter Netzwerk > Segmente > Segmentprofil > Segmentsicherheit konfigurieren.

4.2.0

rx_unsolicited_na_pkts

Anzahl der vom VDS von der VM empfangenen, nicht angeforderten IPv6-ND-NA-Pakete (Neighbor Discovery, Neighbor Advertisement).

4.2.0

rxbcastpkts

Anzahl der vom VDS von der VM empfangenen Broadcast-Pakete.

4.2.0

rxmcastpkts

Anzahl der vom VDS von der VM empfangenen Multicast-Pakete.

4.2.0

spoof_guard_arp_drops

Anzahl der von SpoofGuard verworfenen ARP-Pakete.

SpoofGuard schützt vor böswilligen ARP-Spoofing-Angriffen, indem MAC- und IP-Adressen nachverfolgt werden. Diese Statistik steigt nur, wenn SpoofGuard auf dem Segment oder Segmentport aktiviert ist. (Netzwerk > Segmente > Segmentprofil > SpoofGuard)

4.2.0

spoof_guard_ipv4_drops

Anzahl der von SpoofGuard verworfenen IPv4-Pakete.

SpoofGuard schützt vor IP-Spoofing, indem eine Referenztabelle mit VM-Namen und IP-Adressen gepflegt wird. Diese Statistik steigt nur, wenn SpoofGuard auf dem Segment oder Segmentport aktiviert ist. (Netzwerk > Segmente > Segmentprofil > SpoofGuard)

4.2.0

spoof_guard_ipv6_drops

Anzahl der von SpoofGuard verworfenen IPv6-Pakete.

SpoofGuard schützt vor IP-Spoofing, indem eine Referenztabelle mit VM-Namen und IP-Adressen gepflegt wird. Diese Statistik steigt nur, wenn SpoofGuard auf dem Segment oder Segmentport aktiviert ist. (Netzwerk > Segmente > Segmentprofil > SpoofGuard)

4.2.0

spoof_guard_nd_drops

Anzahl der von SpoofGuard verworfenen IPv6-ND-Pakete (Neighbor Discovery).

SpoofGuard schützt vor ND-Spoofing, indem ND-Pakete herausgefiltert werden, deren Adressen nicht mit der Adresse der VM übereinstimmen. Diese Statistik steigt nur, wenn SpoofGuard auf dem Segment oder Segmentport aktiviert ist. (Netzwerk > Segmente > Segmentprofil > SpoofGuard)

4.2.0

spoof_guard_non_ip_drops

Anzahl der von SpoofGuard verworfenen Nicht-IP-Pakete.

Diese Statistik steigt nur, wenn SpoofGuard auf dem Segment oder Segmentport aktiviert ist. (Netzwerk > Segmente > Segmentprofil > SpoofGuard)

4.2.0

tx_arp_pkts

Anzahl der vom VDS an die VM gesendeten ARP-Pakete.

4.2.0

tx_ipv4_pkts

Anzahl der vom VDS an die VM gesendeten IPv4-Pakete.

4.2.0

tx_ipv6_pkts

Anzahl der vom VDS an die VM gesendeten IPv6-Pakete.

4.2.0

tx_non_ip_pkts

Anzahl der vom VDS an die VM gesendeten Nicht-IP-Pakete.

4.2.0

tx_rate_limit_bcast_drops

Anzahl der ausgehenden Pakete, die durch die Begrenzung der Broadcast-Rate verworfen wurden.

Ratenbegrenzungen können verwendet werden, um das Netzwerk oder VMs vor Ereignissen wie Broadcast-Stürmen zu schützen. Sie können Ratenbegrenzungen in der Benutzeroberfläche von NSX Manager unter Netzwerk > Segmente > Segmentprofil > Segmentsicherheit konfigurieren.

4.2.0

tx_rate_limit_mcast_drops

Anzahl der ausgehenden Pakete, die durch die Begrenzung der Multicast-Rate verworfen wurden.

Ratenbegrenzungen können verwendet werden, um das Netzwerk oder VMs vor Ereignissen wie Multicast-Stürmen zu schützen. Sie können Ratenbegrenzungen in der Benutzeroberfläche von NSX Manager unter Netzwerk > Segmente > Segmentprofil > Segmentsicherheit konfigurieren.

4.2.0

txbcastpkts

Anzahl der vom VDS an die VM gesendeten Broadcast-Pakete.

4.2.0

txmcastpkts

Anzahl der vom VDS an die VM gesendeten Multicast-Pakete.

4.2.0

Modul: overlay_datapath_l2

Dieses Datenpfadmodul ist für die Arbeitslastkonnektivität verantwortlich. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als nsxt-vdl2 bezeichnet.

Statistik Beschreibung Version eingeführt

arp_proxy_req_fail_drops

Anzahl der ARP-Anforderungen, die nicht für datenpfadbasiertes Lernen erneut auf Uplink gesendet werden konnten, wenn CCP nicht über eine IP-MAC-Bindung verfügt, was zu einem Fehler bei der ARP-Unterdrückung führt.

Eine Statistik ungleich null weist darauf hin, dass das System nur noch über geringe Paketpufferressourcen verfügt. Ein stetiger Anstieg sollte als kritischer Fehler erachtet werden.

4.2.0

arp_proxy_req_suppress

Anzahl der ARP-Anforderungen, die von VDL2 unterdrückt wurden, weil CCP abgefragt wurde, um die IP-MAC-Bindung zu finden.

Diese ARP-Pakete werden nur dann auf Uplink gesendet, wenn CCP die Bindung nicht kennt.

4.2.0

arp_proxy_resp

Anzahl der gültigen IP-MAC-Bindungsantworten von CCP für jede ARP-Unterdrückungsanforderung von diesem Transportknoten.

4.2.0

arp_proxy_resp_drops

Anzahl der ARP-Antworten, die der IP-MAC-Bindungsantwort von CCP entsprechen und die nicht an den Switchport gesendet werden konnten, der die ARP-Anforderung angefordert hat.

4.2.0

arp_proxy_resp_filtered

Anzahl der ARP-Antworten, die anhand der IP-MAC-Bindungsantwort von CCP generiert wurden und nicht an den Switch-Port gesendet werden, der die ARP-Anforderung initiiert hat.

Dies kann vorkommen, wenn ARP aufgrund von Traceflow angefordert wurde oder der Port, der die ARP-Anforderung initiiert hat, nicht mehr im Transportknoten vorhanden war.

4.2.0

arp_proxy_resp_unknown

Anzahl der unbekannten IP-MAC-Bindungen in der Steuerungsebene für jede IP-MAC-Anforderung von diesem Transportknoten.

Beim Empfang dieser Meldung übermittelt das VDL2-Modul die ARP-Anforderung erneut auf den Uplink, um die IP-MAC-Bindung über den Datenpfad zu erlernen.

4.2.0

leaf_rx

Diese Statistik steigt für ein Segment (logischer Switch), wenn ein durch eine Arbeitslast generiertes Paket erfolgreich in der IOChain „VDL2LeafInput (Overlay L2)“ empfangen wird. Diese Pakete werden an VDS gesendet, wenn keine anderen verworfen empfangenen Leafs vorhanden sind.

4.2.0

leaf_rx_drops

Anzahl der Pakete, die aus verschiedenen Gründen bei VDL2LeafInput verworfen wurden.

Sehen Sie sich die Gründe für das verworfene andere empfangene Leaf an, um den spezifischen Grund für die Verworfenen zu identifizieren.

4.2.0

leaf_rx_ref_port_not_found_drops

Anzahl der Paketverluste bei Leaf „VDL2LeafInput“. Dies kann passieren, wenn der Stamm-Port nicht Teil des Segments ist.

4.2.0

leaf_rx_system_err_drops

Anzahl der Paketverwerfungen bei VDL2LeafInput aufgrund verschiedener Systemfehler wie Arbeitsspeicherfehler und Aktualisierungsfehler bei Paketattributen.

Dies bedeutet im Allgemeinen, dass der ESXi-Host nur noch über geringe Ressourcen verfügt. Das Verschieben bestimmter VMs auf andere Hosts kann dazu beitragen, die Last zu erleichtern.

4.2.0

leaf_tx

Diese Statistik steigt, wenn ein Paket erfolgreich von der IOChain „VDL2LeafOutput (Overlay L2)“ für einen Switch-Port verarbeitet wird.

4.2.0

leaf_tx_drops

Anzahl der Pakete, die aus verschiedenen Gründen bei VDL2LeafOutput verworfen wurden.

Sehen Sie sich die Gründe für das verworfene andere gesendete Leaf an, um den spezifischen Grund für die Verworfenen zu identifizieren.

4.2.0

mac_tbl_lookup_flood

Anzahl der Unicast-Pakete, die aufgrund eines MAC-Tabellen-Lookup-Fehlers an Remote-VTEPs geflutet wurden. Hohe Werte deuten auf Probleme mit unidirektionalen L2-Flows oder MAC-Tabellenaktualisierungen hin.

Überprüfen Sie mithilfe des folgenden Befehls, ob die MAC-Tabelle auf dem Host-Transportknoten voll ist:

$ nsxcli -c "get segment mac-table"

Erhöhen Sie bei Bedarf die MAC-Tabellengröße.

4.2.0

mac_tbl_lookup_full

Anzahl der Fehler bei Ziel-MAC-Abfragen an die Steuerungsebene für Datenverkehr zu Remote-VMs, da die MAC-Tabelle bereits voll war.

Überprüfen Sie mithilfe des folgenden Befehls, ob die MAC-Tabelle auf dem Host-Transportknoten voll ist:

$ nsxcli -c "get segment mac-table"

Erhöhen Sie bei Bedarf die MAC-Tabellengröße.

4.2.0

mac_tbl_update_full

Anzahl der Fehler beim Aktualisieren der MAC-Tabelle zum Zeitpunkt des MAC-Lernvorgangs für die vom Underlay empfangenen Pakete.

Überprüfen Sie mithilfe des folgenden Befehls, ob die MAC-Tabelle auf dem Host-Transportknoten voll ist:

$ nsxcli -c "get segment mac-table"

Erhöhen Sie bei Bedarf die MAC-Tabellengröße.

4.2.0

mcast_proxy_rx_drops

Anzahl der auf dem Uplink des MTEP-Transportknotens empfangenen BUM-Pakete, die beim Replizieren auf andere VTEPs verworfen werden.

4.2.0

mcast_proxy_tx_drops

Anzahl der BUM-Pakete, die aus den Arbeitslasten im Transportknoten stammen und nach der Replizierung bei der Uplink-Ausgabe verworfen werden.

Diese Statistik steigt, wenn uplink_tx_invalid_state_drops oder aufgrund von Systemfehlern wie nicht genügend Arbeitsspeicher auftreten.

4.2.0

nd_proxy_req_fail_drops

Anzahl der ND-Anforderungen, die nicht für datenpfadbasiertes Lernen erneut auf Uplink gesendet werden konnten, wenn CCP nicht über eine IP-MAC-Bindung verfügt, was zu einem Fehler bei der ND-Unterdrückung führt.

Eine Statistik ungleich null weist darauf hin, dass das System nur noch über geringe Paketpufferressourcen verfügt. Ein stetiger Anstieg sollte als kritischer Fehler erachtet werden.

4.2.0

nd_proxy_req_suppress

Anzahl der ND-Anforderungen, die von VDL2 unterdrückt wurden, weil CCP abgefragt wurde, um die IP-MAC-Bindung zu finden.

Diese ND-Pakete werden nur dann auf Uplink gesendet, wenn CCP die Bindung nicht kennt.

4.2.0

nd_proxy_resp

Anzahl der gültigen IP-MAC-Bindungsantworten von CCP für jede ND-Unterdrückungsanforderung von diesem Transportknoten.

Diese ND-Antworten können das Ergebnis einer direkten CCP-Antwort sein oder auf einen bereits zwischengespeicherten ND-Eintrag im Transportknoten zurückzuführen sein.

4.2.0

nd_proxy_resp_drops

Anzahl der ND-Antworten, die der IP-MAC-Bindungsantwort von CCP entsprechen und die nicht an den Switchport gesendet werden konnten, der das ND-Paket initiiert hat.

4.2.0

nd_proxy_resp_filtered

Anzahl der ND-Antworten, die anhand der IP-MAC-Bindungsantwort von CCP generiert wurden und nicht an den Switch-Port gesendet werden, der die ND-Anforderung initiiert hat.

Dies kann vorkommen, wenn ND aufgrund von Traceflow angefordert wurde oder der Port, der die ND-Anforderung initiiert hat, nicht mehr im Transportknoten vorhanden war.

4.2.0

nd_proxy_resp_unknown

Anzahl der unbekannten IPv6-MAC-Bindungen in der Steuerungsebene für jede IPv6-MAC-Anforderung von diesem Transportknoten.

Beim Empfang dieser Meldung übermittelt das VDL2-Modul die ND-Pakete erneut auf den Uplink, um die IPv6-MAC-Bindung über den Datenpfad zu erlernen.

4.2.0

nested_tn_mcast_proxy_diff_vlan_tx_drops

Anzahl der verworfenen BUM-Pakete, die für den verschachtelten Transportknoten repliziert wurden.

Der verschachtelte Transportknoten und dieser Transportknoten sind mit einer anderen Transport-VLAN-ID konfiguriert. Überprüfen Sie, ob die VTEP-GW-IP von den VTEP-VMK-Schnittstellen dieses Transportknotens aus erreichbar ist.

4.2.0

nested_tn_mcast_proxy_same_vlan_tx_drops

Anzahl der verworfenen BUM-Pakete, die für den verschachtelten Transportknoten repliziert wurden.

Der verschachtelte Transportknoten und dieser Transportknoten sind mit derselben Transport-VLAN-ID konfiguriert.

4.2.0

uplink_rx

Anzahl der Pakete, die am Uplink-Port vom TOR-Switch empfangen werden.

Diese Pakete werden an VDS gesendet, wenn es keine Verwerfungen bei Uplink-Rx gibt.

4.2.0

uplink_rx_drops

Anzahl der Pakete, die aus verschiedenen Gründen bei VDL2UplinkInput verworfen wurden.

Sehen Sie sich die Gründe für das verworfene andere empfangene Uplink an, um den spezifischen Grund für die Verworfenen zu identifizieren.

4.2.0

uplink_rx_filtered

Anzahl der vom TOR-Switch gesendeten Pakete, die vom VDL2-Uplink aus Gründen wie IGMP-Berichten von Peer-ESXi-Transportknoten gefiltert wurden.

4.2.0

uplink_rx_guest_vlan_drops

Anzahl der Paketverluste bei VDL2UplinkInput, wenn das Entfernen des Gast-VLAN-Tags für das innere Paket aufgrund eines Systemfehlers fehlschlägt.

4.2.0

uplink_rx_invalid_encap_drops

Anzahl der Pakete, die beim Uplink vom Underlay empfangen und aufgrund falscher Kapselungs-Header verworfen werden.

Um den genauen Fehler zu erfahren, führen Sie die Paketerfassung durch und überprüfen Sie die Kapselungs-Header (Protokollversion, Prüfsumme, Länge usw.), indem Sie den folgenden Befehl ausführen:

pktcap-uw --capture UplinkRcvKernel --uplink --ng -o uplink.pcap

4.2.0

uplink_rx_mcast_invalid_dr_uplink_drops

Anzahl der IP-Multicast-Paketverluste bei der VDL2-Uplink-Eingabe, da der vdrPort diesem Uplink nicht zugeordnet ist.

Dies kann passieren, wenn der TOR-Switch den Multicast-Datenverkehr auf alle Uplinks des Transportknotens flutet.

Überprüfen Sie den vdrPort und die Uplink-Zuordnung mithilfe des folgenden Befehls und überprüfen Sie dann, ob das verworfene Paket auf dem nicht zugeordneten Uplink empfangen wurde:

nsxdp-cli vswitch instance list

4.2.0

uplink_rx_skip_mac_learn

Anzahl der Pakete, für die die äußere Quell-MAC nicht erlernt werden kann, da die eingehende GENEVE-Bezeichnung unbekannt ist.

Hohe Werte dieser Statistik können auf fehlende Remote-VTEP-Updates auf dem Transportknoten von der Steuerungsebene hinweisen.

Verwenden Sie die folgenden CLI-Befehle, um die Remote-VTEP-Tabelle auf dem Transportknoten zu überprüfen:

nsxcli -c "get global-vtep-table"

$ nsxcli -c "get segment vtep-table"

Eine mögliche Problemumgehung kann darin bestehen, den lokalen Steuerungsebenen-Agenten (CfgAgent) auf dem Transportknoten neu zu starten, um eine vollständige Synchronisierung zu erzwingen, indem Sie den folgenden Befehl ausführen:

$ /etc/init.d/nsx-cfgagent restart

4.2.0

uplink_rx_system_err_drops

Anzahl der Paketverwerfungen bei VDL2UplinkInput aufgrund verschiedener Systemfehler wie Arbeitsspeicherfehler und Aktualisierungsfehler bei Paketattributen.

Dies bedeutet im Allgemeinen, dass der ESXi-Host nur noch über geringe Ressourcen verfügt. Das Verschieben bestimmter VMs auf andere Hosts kann dazu beitragen, die Last zu erleichtern.

4.2.0

uplink_rx_wrong_dest_drops

Die Anzahl der vom Underlay empfangenen und verworfenen Pakete, da die Ziel-IP des Pakets mit keinem der auf dem Host konfigurierten VTEPs übereinstimmt.

4.2.0

uplink_tx

Anzahl der vom VDS gesendeten Pakete, die an der IOChain „VDL2“ des Uplink-Ports empfangen werden.

Diese Pakete werden an das Underlay-Netzwerk gesendet, wenn es keine Verworfenen bei Uplink Tx gibt.

4.2.0

uplink_tx_drops

Anzahl der Pakete, die aus verschiedenen Gründen bei VDL2UplinkOutput verworfen wurden.

Sehen Sie sich die Gründe für das verworfene andere übertragene Uplink an, um den spezifischen Grund für die Verworfenen zu identifizieren.

4.2.0

uplink_tx_flood_rate_limit

Anzahl der unbekannten Unicast-Pakete, die auf Uplinks mit begrenzter Rate geflutet wurden.

4.2.0

uplink_tx_ignore

Anzahl der von VDS gesendeten Pakete, die bei der VDL2-Uplink-Ausgabe gefiltert und nicht an das Underlay weitergeleitet wurden.

BUM-Pakete werden beispielsweise gefiltert, wenn keine VTEPs im Segment vorhanden sind, auf die die Pakete repliziert werden sollen.

4.2.0

uplink_tx_invalid_frame_drops

Anzahl der Pakete, die bei der VDL2-Uplink-Ausgabe verworfen wurden, da entweder der Encap-Header nicht gefunden werden konnte oder das auf dem inneren Frame festgelegte TSO nicht durchgeführt werden konnte. Dies ist auf große TCP-Pakete zurückzuführen.

4.2.0

uplink_tx_invalid_state_drops

Anzahl der Pakete, die bei der VDL2-Uplink-Ausgabe aufgrund einer falschen Transport-VLAN-Konfiguration verworfen wurden. Dies ist auf eine falsche Uplink-Profilzuordnung auf dem Transportknoten oder auf eine nicht aufgelöste Gateway-MAC zurückzuführen.

Verwenden Sie das folgende Verfahren, um auf einem ESXi-Knoten zu überprüfen, ob die VTEP-Gateway-IP von den VTEP-VMK-Schnittstellen dieses Transportknotens aus erreichbar ist.

  1. Rufen Sie die Gateway-IP ab, indem Sie den folgenden Befehl ausführen: net-vdl2 -l
  2. Rufen Sie den Namen der Netzwerk-Stack-Instanz ab, indem Sie den folgenden Befehl ausführen: esxcfg-vmknic -l
  3. Senden Sie einen Ping an die IP des VTEP-Gateways, indem Sie den folgenden Befehl ausführen: vmkping -I vmk10 -S
4.2.0

uplink_tx_nested_tn_repl_drops

Anzahl der BUM-Pakete, die bei der VDL2-Uplink-Ausgabe während der Replizierung auf den geschachtelten Transportknoten aufgrund einer falschen VTEP-Zuordnung verworfen werden.

Verwenden Sie den folgenden Befehl, um die Zuordnung zwischen Quell-Switchport und Uplink zu überprüfen:

nsxdp-cli vswitch instance list

4.2.0

uplink_tx_non_unicast

Anzahl der auf Remote-VTEPs replizierten Broadcast- oder Multicast-Pakete. Eine hohe Rate bedeutet, dass der Transportknoten diese Pakete auf Remote-VTEPs replizieren muss, was zu einer Belastung der übertragenen Warteschlangen der Uplink-Ebene führen kann.

4.2.0

uplink_tx_teaming_drops

Anzahl der Pakete, die bei VDL2UplinkOutput aufgrund der Nichtverfügbarkeit des VTEP verworfen werden, der mit dem Switchport verknüpft ist, der den Datenverkehr ausgelöst hat.

Verwenden Sie den folgenden Befehl, um die Uplink-Zuordnung des Arbeitslast-Switchports und den Teaming-Status zu überprüfen:

nsxdp-cli vswitch instance list

4.2.0

uplink_tx_ucast_flood

Anzahl der unbekannten Unicast-Pakete, die bei der Uplink-Ausgabe geflutet wurden. Hohe Werte deuten auf Probleme mit unidirektionalem L2-Flow oder MAC-Tabellenaktualisierungen hin.

Überprüfen Sie, ob der unidirektionale Flow erwartet wird oder ob die MAC-Tabelle voll ist.

4.2.0

Modul: datapath_l3

Dieses Datenpfadmodul, auch als Virtual Distributed Routing (VDR) bezeichnet, leitet Pakete auf jedem ESXi-Host weiter. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als nsxt-vdrb bezeichnet.

Statistik Beschreibung Version eingeführt

arp_hold_pkt_drops

Wenn der verteilte Router gerade einen IPv4-ARP-Eintrag auflöst, werden die Pakete, die diesen ARP-Eintrag verwenden, in die Warteschlange gestellt.

Die Anzahl der Pakete, die in die Warteschlange gestellt werden können, ist pro logischer Router-Instanz begrenzt. Wenn die Obergrenze erreicht ist, werden die ältesten Pakete verworfen und diese Statistik um die Anzahl der verworfenen alten Pakete erhöht.

4.2.0

arpfaildrops (lta)

IPv4-Paketverwerfungen aufgrund eines ARP-Fehlers.

4.2.0

consumed_icmpv4

Anzahl der IPv4-Pakete, die für die IP-Adresse eines logischen Routing-Ports des verteilten Routers bestimmt sind, die einem bestimmten Segment entspricht.

Beachten Sie, dass die Statistik nach dem Routing des Pakets aus dem Quellsubnetz steigt.

4.2.0

consumed_icmpv6

Anzahl der IPv6-Pakete, die für die IP-Adresse eines logischen Routing-Ports des verteilten Routers bestimmt sind, die einem bestimmten Segment entspricht. Beachten Sie, dass die Statistik nach dem Routing des Pakets aus dem Quellsubnetz steigt.

4.2.0

drop_route_ipv4_drops

Anzahl der IPv4-Pakete, die mit „Drop-Routen“ übereinstimmen. Drop-Routen sind die Routen, die so konfiguriert sind, dass die entsprechenden Pakete absichtlich verworfen werden.

Wenn dies nicht erwartet wird, überprüfen Sie die Routen auf dem ESXi-Host und die Konfiguration in der Management Plane.

4.2.0

drop_route_ipv6_drops

Anzahl der IPv6-Pakete, die mit „Drop-Routen“ übereinstimmen.

Drop-Routen sind die Routen, die so konfiguriert sind, dass die entsprechenden Pakete absichtlich verworfen werden. Wenn dies nicht erwartet wird, überprüfen Sie die Routen auf dem ESXi-Host und die Konfiguration in der Management Plane.

4.2.0

ndfaildrops (lta)

IPv6-Paketverwerfungen aufgrund eines Fehlers bei der Nachbarerkennung.

4.2.0

no_nbr_ipv4

Kein IPv4-ARP-Eintrag in der ARP-Tabelle des verteilten Routers gefunden.

4.2.0

no_nbr_ipv6

Kein IPv6-Nachbareintrag in der Nachbartabelle des verteilten Routers gefunden.

4.2.0

no_route_ipv4_drops

Jede logische Router-Instanz verfügt über eine eigene Routing-Tabelle für die Routensuche.

Diese Statistik steigt, wenn IPv4-Pakete verworfen werden, weil keine übereinstimmende Route für diese logische Router-Instanz vorhanden ist.

4.2.0

no_route_ipv6_drops

Jede logische Router-Instanz verfügt über eine eigene Routing-Tabelle für die Routensuche.

Diese Statistik steigt, wenn IPv6-Pakete verworfen werden, weil keine übereinstimmende Route für diese logische Router-Instanz vorhanden ist.

4.2.0

ns_hold_pkt_drops

Wenn der verteilte Router gerade einen IPv6-Nachbareintrag auflöst, werden die Pakete, die diesen Nachbareintrag verwenden, in die Warteschlange gestellt.

Die Anzahl der Pakete, die in die Warteschlange gestellt werden können, ist pro logischer Router-Instanz begrenzt. Wenn die Obergrenze erreicht ist, werden die ältesten Pakete verworfen und diese Statistik um die Anzahl der verworfenen alten Pakete erhöht.

4.2.0

pkt_attr_error_drops

Anzahl der Pakete, bei denen der Attributvorgang fehlgeschlagen ist. NSX verwendet Paketattribute, um die Paketverarbeitung zu erleichtern.

Die Paketattribute können zugeteilt, festgelegt oder nicht festgelegt werden. Normalerweise schlägt der Vorgang nicht fehl.

Einige mögliche Gründe für einen Anstieg dieser Statistik sind die folgenden:
  • Paket-Attribut-Heap ist ausgeschöpft.
  • Paketattribut ist beschädigt.
4.2.0

relayed_dhcpv4_req

Weitergeleitete DHCPv4-Anforderungen.

4.2.0

relayed_dhcpv4_rsp

Weitergeleitete DHCPv4-Antworten.

4.2.0

relayed_dhcpv6_req

Weitergeleitete DHCPv6-Anforderungen.

4.2.0

relayed_dhcpv6_rsp

Weitergeleitete DHCPv6-Antworten.

4.2.0

rpf_ipv4_drops

Anzahl der IPv4-Pakete, die aufgrund eines Fehlers bei der Überprüfung der umgekehrten Pfadweiterleitung verworfen wurden.

Der verteilte Router überprüft möglicherweise, ob die Quell-IP der Pakete von einer gültigen (erreichbaren) Quelle stammt, und verwirft die Pakete möglicherweise basierend auf der Konfiguration.

Sie können diese Einstellung in der Benutzeroberfläche von NSX Manager ändern.

Führen Sie die folgenden Schritte aus, um die aktuelle Konfiguration auf der Benutzeroberfläche von NSX Manager zu überprüfen:
  1. Navigieren Sie zu Netzwerk > Segmente.
  2. Bearbeiten Sie das Segment, das für Sie von Interesse ist.
  3. Navigieren Sie zu Zusätzliche Einstellungen.
  4. Überprüfen Sie den URPF-Modus.
4.2.0

rpf_ipv6_drops

Anzahl der IPv6-Pakete, die aufgrund eines Fehlers bei der Überprüfung der umgekehrten Pfadweiterleitung verworfen wurden.

Der verteilte Router überprüft möglicherweise, ob die Quell-IP der Pakete von einer gültigen (erreichbaren) Quelle stammt, und verwirft die Pakete möglicherweise basierend auf der Konfiguration.

Sie können diese Einstellung in der Benutzeroberfläche von NSX Manager ändern.

Führen Sie die folgenden Schritte aus, um die aktuelle Konfiguration auf der Benutzeroberfläche von NSX Manager zu überprüfen:
  1. Navigieren Sie zu Netzwerk > Segmente.
  2. Bearbeiten Sie das Segment, das für Sie von Interesse ist.
  3. Navigieren Sie zu Zusätzliche Einstellungen.
  4. Überprüfen Sie den URPF-Modus.
4.2.0

rx_arp_req

Anzahl der ARP-Anforderungspakete, die vom logischen Router-Port eines verteilten Routers empfangen werden, der einem bestimmten Segment entspricht.

4.2.0

rx_ipv4

Anzahl der IPv4-Pakete, die an einem logischen Routing-Port eines verteilten Routers ankommen, der einem bestimmten Segment entspricht.

4.2.0

rx_ipv6

Anzahl der IPv6-Pakete, die an einem logischen Routing-Port eines Distributed Routers ankommen, der einem bestimmten Segment entspricht.

4.2.0

rx_pkt_parsing_error_drops

Anzahl der Paketanalysefehler für vom verteilten Router empfangene Pakete.

Der verteilte Router führt die Paketanalyse für jedes empfangene Paket durch, um Metadaten und Header zu lesen.

Wenn Sie eine hohe Zahl bei dieser Statistik sehen, könnte dies daran liegen, dass die Pakete nicht korrekt strukturiert sind. Überwachen Sie, ob Datenverkehrsfehler vorliegen, und führen Sie für weiteres Debugging die Paketerfassung durch.

4.2.0

rxgarp (lta)

Gratuitous GARP wurde auf einem verteilten Router empfangen.

4.2.0

ttl_ipv4_drops

Anzahl der IPv4-Pakete, die aufgrund einer niedrigen TTL (Time-To-Live) verworfen wurden. Jede logische Router-Instanz zieht 1 vom TTL-Wert ab.

Verwenden Sie die Paketerfassung, um zu ermitteln, welche Pakete niedrige TTL-Werte aufweisen. Wenn die TTL an der Quelle eher groß ist, sind mögliche Gründe zu viele Routing-Hops auf dem Pfad oder das Paket durchläuft eine Schleife, was selten ist.

4.2.0

ttl_ipv6_drops

Anzahl der IPv6-Pakete, die aufgrund einer niedrigen TTL (Time-To-Live) verworfen wurden. Jede logische Router-Instanz zieht 1 vom TTL-Wert ab.

Verwenden Sie die Paketerfassung, um zu ermitteln, welche Pakete niedrige TTL-Werte aufweisen. Wenn die TTL an der Quelle eher groß ist, sind mögliche Gründe zu viele Routing-Hops auf dem Pfad oder das Paket durchläuft eine Schleife, was selten ist.

4.2.0

tx_arp_rsp

Anzahl der ARP-Anforderungspakete, die vom logischen Router-Port eines verteilten Routers gesendet werden, der einem bestimmten Segment entspricht.

4.2.0

tx_dispatch_queue_too_long_drops

Anzahl der Pakete, die in der Übertragungs-Dispatch-Warteschlange verworfen werden.

Die Übertragungs-Dispatch-Warteschlange enthält selbst generierte Pakete für den verteilten Router wie ARP-Pakete, NS-Erkennung usw.

Jedes Paket verbraucht Systemressourcen für die Paketverarbeitung. Wenn zu viele Pakete in der Warteschlange anfallen, begrenzen Sie die Warteschlangengröße und verwerfen Sie die letzten Pakete.

4.2.0

tx_ipv4

Anzahl der IPv4-Pakete, die von einem logischen Router-Port eines verteilten Routers ausgehen, der einem bestimmten Segment entspricht.

4.2.0

tx_ipv6

Anzahl der IPv6-Pakete, die von einem logischen Router-Port eines verteilten Routers ausgehen, der einem bestimmten Segment entspricht.

4.2.0

Modul: distributed_firewall

Dieses Datapth-Modul bietet Funktionen für verteilte Firewalls. In dieser Tabelle bezieht sich Rx auf Pakete, die vom Switchport empfangen werden (von der VM gesendet), und Tx bezieht sich auf Pakete, die vom Switchport übertragen werden (von der VM empfangen). Dieses Datenpfadmodul wird in der zentralen NSX-CLI als nsxt-vsip bezeichnet.

Statistik Beschreibung Version eingeführt

alg_handler_drops

Anzahl der Pakete, die aufgrund der ALG-Verarbeitung verworfen wurden. Verfolgt Fehler bei der Verarbeitung von ALG-Status-Decoder-Paketen.

4.2.0

bad_offset_drops

Anzahl der Pakete, die aufgrund eines fehlerhaften Offset verworfen wurden.

4.2.0

bad_timestamp_drops

Anzahl der Pakete, die aufgrund eines ungültigen Zeitstempels verworfen wurden. Beispielsweise sollten ACK-Pakete mit einem alten Zeitstempel und empfangene Pakete mit unerwartetem Zeitstempel verworfen werden.

4.2.0

congestion_drops

Anzahl der Pakete, die aufgrund einer Überlastung verworfen wurden. Beispielsweise bei einer erkannten Überlastung in der Warteschlange für eine Netzwerkschnittstelle.

4.2.0

fragment_drops

Anzahl der Pakete, die aufgrund einer fehlgeschlagenen Neuzusammensetzung fragmentierter Pakete verworfen wurden.

Fragmentierung bricht Pakete in kleinere Fragmente auf, sodass die resultierenden Teile einen Link passieren können, dessen MTU kleiner als die ursprüngliche Paketgröße ist.

4.2.0

handshake_error_drops

Anzahl der Pakete, die aufgrund eines TCP-Dreiwege-Handshake-Fehlers verworfen wurden.

Dies kann passieren, wenn sowohl der Absender als auch der Empfänger während des Dreiwege-Handshakes in SYN gesendet werden. Dieser Grund für eine Verwerfung ist ein Typ von nicht übereinstimmendem TCP-Status.

4.2.0

icmp_err_pkt_drops

Anzahl der Pakete, die aufgrund zusätzlicher ICMP-Fehlerantwortpakete verworfen wurden.

Diese Statistik verfolgt die zusätzlichen Pakete der ICMP-Fehlerantwort, die verworfen werden.

4.2.0

icmp_error_drops

Anzahl der Pakete, die aufgrund eines Sequenzfehlers in der ICMP-Fehlerantwort auf das TCP-Paket verworfen wurden.

Wenn Sequenznummern außerhalb des erwarteten Bereichs liegen, führt dies zu einer Verwerfung.

4.2.0

icmp_flood_overlimit_drops

Anzahl der Pakete, die aufgrund der Überschreitung eines ICMP-Flood-Grenzwerts verworfen wurden. Es ist ein konfigurierter ICMP-Flood-Grenzwert in der Kernel-Schnittstelle vorhanden.

4.2.0

ignored_offloaded_fpdrops

Anzahl der Pakete, die aufgrund eines an die Hardware ausgelagerten Flows verworfen wurden.

Das Auslagern des Flows auf die Hardware bedeutet, dass die Verbindungsverfolgung durch die Hardware-Paketpipeline einer smartNIC durchgeführt wird. In diesem Fall ist der Erhalt eines Pakets in der Software unerwartet. Das Paket kann nicht in der Software verarbeitet werden, da die Software über keine aktuellen CT-Informationen (z. B. Zustände, Sequenznummern) verfügt. Daher muss der Datenverkehr verworfen werden.

Dieser Fall kann auftreten, weil das Auslagern eines Flows auf die Hardware einige Zeit in Anspruch nimmt und es zu einem Wettlauf mit Paketen kommen kann, die bereits in die Warteschlange gestellt wurden, um an VSIP geliefert zu werden. Dieser Verwerfungsgrund gilt für die ENS-Fastpath-Pakete.

4.2.0

ignored_offloaded_spdrops

Anzahl der Pakete, die aufgrund eines an die Hardware ausgelagerten Flows verworfen wurden.

Das Auslagern des Flows auf die Hardware bedeutet, dass die Verbindungsverfolgung durch die Hardware-Paketpipeline einer smartNIC durchgeführt wird. In diesem Fall ist der Erhalt eines Pakets in der Software unerwartet. Das Paket kann nicht in der Software verarbeitet werden, da die Software über keine aktuellen CT-Informationen (z. B. Zustände, Sequenznummern) verfügt. Daher muss der Datenverkehr verworfen werden.

Dieser Fall kann auftreten, weil das Auslagern eines Flows auf die Hardware einige Zeit in Anspruch nimmt und es zu einem Wettlauf mit Paketen kommen kann, die bereits in die Warteschlange gestellt wurden, um an VSIP geliefert zu werden. Dieser Verwerfungsgrund gilt für den IOChain-Codepfad, der in diesem Kontext auch als Slowpath bezeichnet wird.

4.2.0

ip_option_drops

Anzahl der verworfenen Pakete aufgrund nicht zulässiger IP-Optionen.

Wenn „allow_opts“ in der Firewallregel nicht festgelegt ist, wird das Paket, das auf diese Regel trifft, verworfen.

4.2.0

l7_alert_drops

Die L7-Regel ist vorhanden, aber es gibt keine Übereinstimmung. Eine Warnung wird generiert.

4.2.0

l7_attr_error_drops

Anzahl der Pakete, die aufgrund eines Fehlers beim Festlegen von Statusattributen verworfen wurden.

Dies tritt auf, wenn das Zuteilen oder Ändern von attrconn-L7-Attributen fehlschlägt und dies zu einem Verwerfen führt.

4.2.0

l7_pending_misc

Diese Statistik verfolgt die Pakete, die derzeit von DPI analysiert werden, wobei die Regelübereinstimmung aussteht.

Sobald die Übereinstimmung der L7-Regel eintritt, wird die entsprechende Regelaktion für das Paket durchgeführt.

4.2.0

lb_reject_drops

Diese Statistik verfolgt Verwerfungen aufgrund von Paketen, die vom Load Balancer abgelehnt wurden.

Pakete werden verworfen, wenn sie mit einem virtuellen Server des Load Balancer übereinstimmen, aber kein Poolmitglied ausgewählt ist.

4.2.0

match_drop_rule_rx_drops

Anzahl der empfangenen Pakete, die durch die Regel „Verwerfen“ oder „Ablehnen“ verworfen wurden.

4.2.0

match_drop_rule_tx_drops

Anzahl der übertragenen Pakete, die durch die Regel „Verwerfen“ oder „Ablehnen“ verworfen wurden.

4.2.0

memory_drops

Anzahl der Pakete, die aufgrund eines Mangels an Arbeitsspeicher verworfen wurden. Dies ist ein Fehler auf Kapazitätsebene.

4.2.0

normalize_drops

Anzahl der Pakete, die aufgrund falsch formatierter Pakete verworfen wurden. In diesen Fällen stimmt beispielsweise die IP-Version nicht überein oder der TCP-Header-Offset stimmt nicht mit der Gesamtlänge der Paketbeschreibung überein

4.2.0

other_flood_overlimit_drops

Anzahl der Pakete, die aufgrund eines anderen Grenzwerts für die Protokollüberflutung verworfen wurden. Es ist ein konfigurierter Überflutungsgrenzwert in der Kernel-Schnittstelle für andere Protokolle vorhanden.

4.2.0

pkts_frag_queued_v4_misc

Während der Paketfragmentierung werden die Paketfragmente zur Fragmentwarteschlange hinzugefügt. Diese Paketfragmente werden nicht notwendigerweise verworfen. Ein erfolgreiches Zusammensetzen von Paketen bedeutet, dass keine fragmentierten Pakete verworfen werden.

Diese Statistik verfolgt IPv4-Pakete, die der Fragmentwarteschlange hinzugefügt werden.

4.2.0

pkts_frag_queued_v6_misc

Während der Paketfragmentierung werden die Paketfragmente zur Fragmentwarteschlange hinzugefügt. Diese Paketfragmente werden nicht notwendigerweise verworfen. Ein erfolgreiches Zusammensetzen von Paketen bedeutet, dass keine fragmentierten Pakete verworfen werden.

Diese Statistik verfolgt IPv6-Pakete, die der Fragmentwarteschlange hinzugefügt werden.

4.2.0

proto_cksum_drops

Anzahl der Pakete, die aufgrund einer falschen Protokollprüfsumme verworfen wurden. Dies tritt auf, wenn die Prüfsummenvalidierung des Pakets fehlschlägt.

4.2.0

rx_ipv4_drop_pkts

Anzahl der empfangenen verworfenen IPv4-Pakete.

4.2.0

rx_ipv4_pass_pkts

Anzahl der empfangenen weitergegebenen IPv4-Pakete.

4.2.0

rx_ipv4_reject_pkts

Anzahl der empfangenen abgelehnten IPv4-Pakete.

4.2.0

rx_ipv6_drop_pkts

Anzahl der empfangenen verworfenen IPv6-Pakete.

4.2.0

rx_ipv6_pass_pkts

Anzahl der empfangenen weitergegebenen IPv6-Pakete.

4.2.0

rx_ipv6_reject_pkts

Anzahl der empfangenen abgelehnten IPv6-Pakete.

4.2.0

rx_l2_drop_pkts

Anzahl der empfangenen verworfenen Layer-2-Pakete.

4.2.0

seqno_bad_ack_drops

Anzahl der Pakete, die aufgrund von TCP-Bestätigungen für die Weiterleitung von mehr als einem Fenster verworfen wurden.

Dieser Grund für eine Verwerfung ist ein Typ von nicht übereinstimmendem TCP-Status.

4.2.0

seqno_gt_max_ack_drops

Anzahl der Pakete, die verworfen wurden, weil die TCP-Sequenznummer größer als die maximale ACK-Zahl ist.

Dieser Grund für eine Verwerfung ist ein Typ von nicht übereinstimmendem TCP-Status.

4.2.0

seqno_lt_minack_drops

Anzahl der Pakete, die verworfen wurden, weil die TCP-Sequenznummer kleiner als die minimale ACK-Zahl ist.

Dieser Grund für eine Verwerfung ist ein Typ von nicht übereinstimmendem TCP-Status.

4.2.0

seqno_old_ack_drops

Anzahl der Pakete, die aufgrund der TCP-Bestätigung von mehr als einem Fragment verworfen wurden.

Dieser Grund für eine Verwerfung ist ein Typ von nicht übereinstimmendem TCP-Status.

4.2.0

seqno_old_retrans_drops

Anzahl der Pakete, die aufgrund einer TCP-Neuübertragung verworfen wurden, die älter als ein Fenster ist.

Dieser Grund für eine Verwerfung ist ein Typ von nicht übereinstimmendem TCP-Status.

4.2.0

seqno_outside_window_drops

Anzahl der Pakete, die aufgrund der TCP-Sequenznummer außerhalb des Fensters verworfen wurden.

Dieser Grund für eine Verwerfung ist ein Typ von nicht übereinstimmendem TCP-Status.

4.2.0

short_drops

Anzahl der verworfenen kurzen Pakete.

Kurze Pakete sind Pakete mit falscher Länge, z. B. Pakete mit falsch formatiertem Wert für ip_len.

4.2.0

spoof_guard_drops

Anzahl der Pakete, die aufgrund der SpoofGuard-Prüfung verworfen wurden.

SpoofGuard ist ein Tool, das virtuelle Maschinen in Ihrer Umgebung daran hindert, Datenverkehr von einer nicht für das Senden berechtigten IP-Adresse zu senden.

4.2.0

src_limit_misc

Anzahl der Pakete, die den Quellgrenzwert erreichen.

Dies hängt mit der Verarbeitung von Paketen durch die Firewall zusammen. Dies tritt aufgrund eines Fehlers beim Einfügen des Quellknotens in die RB-Struktur (Rot-Schwarz) auf, da der Grenzwert erreicht wurde.

4.2.0

state_insert_drops

Anzahl der Pakete, die aufgrund eines statusbezogenen Einfügungsfehlers verworfen wurden. Dies ist auf das Einfügen eines doppelten Zustands zurückzuführen.

4.2.0

state_limit_drops

Anzahl der Pakete, die aufgrund des erreichten maximalen Grenzwerts für Zustände verworfen wurden.

Wenn beispielsweise die Anzahl der TCP-Zustände höher als der Grenzwert ist, führt dies zu einem Verwerfen.

4.2.0

state_mismatch_drops

Anzahl der Pakete, die aufgrund eines Zustandskonflikts verworfen wurden.

Es gibt mehrere mögliche Gründe für den Abbruch, z. B. STRICTNOSYN, HANDSHAKE_SYNSENT, SEQ_GT_SEQHI usw.

4.2.0

strict_no_syn_drops

Anzahl der Pakete, die aufgrund des strengen Erzwingungsmodus ohne SYN verworfen wurden. Es wird erwartet, dass das SYN-Paket im strengen Modus erkannt wird.

4.2.0

syn_expected_drops

Das Paket stimmt mit einem virtuellen Server des Load Balancer überein, es handelt sich jedoch nicht um ein SYN-Paket. Daher sollte das System keinen Zustand dafür erstellen. Das führt zu einem verworfenen Paket. Diese Statistik verfolgt diese Verwerfung.

4.2.0

syn_proxy_drops

Anzahl der Pakete, die aufgrund von Synproxy verworfen wurden. Dies dient dem Schutz von TCP-Servern vor Angriffen wie SYN FLOOD.

4.2.0

tcp_flood_overlimit_drops

Anzahl der Pakete, die aufgrund der Überschreitung eines TCP-Flood-Grenzwerts verworfen wurden. Es ist ein konfigurierter TCP-Flood-Grenzwert in der Kernel-Schnittstelle vorhanden.

4.2.0

tx_ipv4_drop_pkts

Anzahl der übertragenen verworfenen IPv4-Pakete.

4.2.0

tx_ipv4_pass_pkts

Anzahl der übertragenen weitergegebenen IPv4-Pakete.

4.2.0

tx_ipv4_reject_pkts

Anzahl der übertragenen abgelehnten IPv4-Pakete.

4.2.0

tx_ipv6_drop_pkts

Anzahl der übertragenen verworfenen IPv6-Pakete.

4.2.0

tx_ipv6_pass_pkts

Anzahl der übertragenen weitergegebenen IPv6-Pakete.

4.2.0

tx_ipv6_reject_pkts

Anzahl der übertragenen abgelehnten IPv6-Pakete.

4.2.0

tx_l2_drop_pkts

Anzahl der übertragenen verworfenen Layer-2-Pakete.

4.2.0

udp_flood_overlimit_drops

Anzahl der Pakete, die aufgrund der Überschreitung eines UDP-Flood-Grenzwerts verworfen wurden. Es ist ein konfigurierter UDP-Flood-Grenzwert in der Kernel-Schnittstelle vorhanden.

4.2.0

Modul: virtual_switch

Dieses Layer-2-Datenpfadmodul ist für die Bereitstellung von Switching-Funktionen verantwortlich. Dieses Modul leitet Pakete innerhalb einer Broadcast-Domäne basierend auf denjenigen VLAN und VNI weiter, auf denen eine Schnittstelle ein Paket empfängt. In dieser Tabelle bezieht sich Rx auf Pakete, die „an den Switch“ gesendet wurden, und Tx bezieht sich auf Pakete, die „vom Switch“ empfangen wurden. Mcast bezieht sich auf Multicast-Pakete. Dieses Datenpfadmodul wird in der zentralen NSX-CLI als nsxt-vswitch bezeichnet.

Statistik Beschreibung Version eingeführt

forged_transmit_rx_drops

Anzahl der Pakete, die als gefälscht verworfen wurden, da sich die Quell-MAC des Pakets von der MAC des Adapters der virtuellen Maschine unterscheidet.

Gefälschte Übertragungen oder deaktivierte MAC-Lernvorgänge im Segment führen zu diesen Verwerfungen. Die Aktivierung von MAC Learning oder gefälschten Übertragungen im Segment sollte das Problem abmildern.

4.2.0

unknown_unicast_rx_pkts

Anzahl der vom vSwitch empfangenen unbekannten Unicast-Pakete, die an andere Ports in derselben Broadcast-Domäne geflutet werden.

Diese Statistik steigt, wenn Pakete unbekannte Unicast-Pakete sind, die bei Vorhandensein von MAC Learning-aktivierten Segmenten oder Sink-Ports geflutet werden. Ein unbekanntes Unicast-Flooding tritt auf, wenn sich die Ziel-MAC-Adresse des Pakets nicht in der Tabelle der vSwitch-MAC-Adressen befindet.

Diese Statistik steigt, wenn eine Ziel-MAC bei Vorhandensein von MAC Learning aus der MAC-Adresstabelle abläuft.

4.2.0

unknown_unicast_rx_uplink_pkts

Anzahl der Pakete, die von einem oder mehreren Uplinks zum vSwitch empfangen wurden, bei denen es sich um unbekannte Unicast-Pakete handelt, die vom vSwitch an andere Ports in derselben Broadcast-Domäne geflutet werden.

Diese Statistik steigt, wenn Pakete unbekannte Unicast-Pakete sind, die bei Vorhandensein von MAC Learning-aktivierten Segmenten oder Sink-Ports geflutet werden. Ein unbekanntes Unicast-Flooding tritt auf, wenn sich die Ziel-MAC-Adresse des Pakets nicht in der Tabelle der vSwitch-MAC-Adressen befindet.

Diese Statistik steigt, wenn eine Ziel-MAC bei Vorhandensein von MAC Learning aus der MAC-Adresstabelle abläuft.

4.2.0

unknown_unicast_tx_pkts

Anzahl der unbekannten Unicast-Pakete, die vom vSwitch an andere Ports in derselben Broadcast-Domäne geflutet wurden.

Diese Statistik steigt, wenn Pakete unbekannte Unicast-Pakete sind, die bei Vorhandensein von MAC Learning-aktivierten Segmenten oder Sink-Ports geflutet werden. Ein unbekanntes Unicast-Flooding tritt auf, wenn sich die Ziel-MAC-Adresse des Pakets nicht in der Tabelle der vSwitch-MAC-Adressen befindet.

Diese Statistik steigt, wenn eine Ziel-MAC bei Vorhandensein von MAC Learning aus der MAC-Adresstabelle abläuft.

4.2.0

unknown_unicast_tx_uplink_pkts

Anzahl der unbekannten Unicast-Pakete, die vom vSwitch auf einen oder mehrere Uplinks geflutet wurden.

Diese Statistik steigt, wenn Pakete unbekannte Unicast-Pakete sind, die bei Vorhandensein von MAC Learning-aktivierten Segmenten oder Sink-Ports geflutet werden. Ein unbekanntes Unicast-Flooding tritt auf, wenn sich die Ziel-MAC-Adresse des Pakets nicht in der Tabelle der vSwitch-MAC-Adressen befindet.

Diese Statistik steigt, wenn eine Ziel-MAC bei Vorhandensein von MAC Learning aus der MAC-Adresstabelle abläuft.

4.2.0

vlan_tag_mismatch_rx

Anzahl der Unicast- und Broadcast-Pakete, die aufgrund einer VLAN-Tag-Nichtübereinstimmung verworfen wurden.

Diese Verwerfungen treten auf, wenn das VLAN-Tag eines Pakets gemäß der VLAN-Richtlinie des Segments nicht zulässig ist. Das Problem kann durch das Ändern der VLAN-Richtlinie des Segments oder das Senden von Paketen mit einem zulässigen VLAN-Tag verringert werden.

4.2.0

vlan_tag_mismatch_rx_mcast

Anzahl der Multicast-Pakete, die aufgrund einer VLAN-Tag-Nichtübereinstimmung verworfen wurden.

Diese Verwerfungen treten auf, wenn das VLAN-Tag eines Pakets gemäß der VLAN-Richtlinie des Segments nicht zulässig ist. Das Problem kann durch das Ändern der VLAN-Richtlinie des Segments oder das Senden von Paketen mit einem zulässigen VLAN-Tag verringert werden.

4.2.0

vlan_tag_mismatch_tx

Anzahl der Unicast-Pakete, die aufgrund einer VLAN-Tag-Nichtübereinstimmung verworfen wurden.

Der Host-Switch sucht auf Basis der Zieladresse des Pakets einen Eintrag in seiner Suchtabelle. Beim Versuch, das Paket von einem Port aus weiterzuleiten, treten diese Verwerfungen auf, wenn das VLAN-Tag eines Pakets gemäß der VLAN-Richtlinie des Segments nicht zulässig ist. Das Problem kann durch das Ändern der VLAN-Richtlinie des Segments oder das Senden von Paketen mit einem zulässigen VLAN-Tag verringert werden.

4.2.0

vlan_tag_mismatch_tx_mcast

Anzahl der Multicast-Pakete, die aufgrund einer VLAN-Tag-Nichtübereinstimmung verworfen wurden.

Der Host-Switch sucht auf Basis der Zieladresse des Pakets einen Eintrag in seiner Suchtabelle. Beim Versuch, das Paket von einem Port aus weiterzuleiten, treten diese Verwerfungen auf, wenn das VLAN-Tag eines Pakets gemäß der VLAN-Richtlinie des Segments nicht zulässig ist. Das Problem kann durch das Ändern der VLAN-Richtlinie des Segments oder das Senden von Paketen mit einem zulässigen VLAN-Tag verringert werden.

4.2.0

vni_tag_mismatch_tx

Anzahl der Unicast-Pakete, die aufgrund einer VNI-Tag-Nichtübereinstimmung verworfen wurden.

Der Host-Switch sucht auf Basis der Zieladresse des Pakets einen Eintrag in seiner Suchtabelle. Beim Versuch, das Paket von einem Port aus weiterzuleiten, treten diese Verwerfungen auf, wenn das VNI-Tag eines Pakets gemäß der VNI-Richtlinie des Segments nicht zulässig ist. Das Problem kann durch das Verschieben der Ziel-VM in dieses Overlay-Segment behoben werden.

4.2.0

vni_tag_mismatch_tx_mcast

Anzahl der Multicast-Pakete, die aufgrund einer VNI-Tag-Nichtübereinstimmung verworfen wurden.

Der Host-Switch sucht auf Basis der Zieladresse des Pakets einen Eintrag in seiner Suchtabelle. Beim Versuch, das Paket von einem Port aus weiterzuleiten, treten diese Verwerfungen auf, wenn das VNI-Tag eines Pakets gemäß der VNI-Richtlinie des Segments nicht zulässig ist. Das Problem kann durch das Verschieben der Ziel-VM in dieses Overlay-Segment behoben werden.

4.2.0