이 참조 설명서에서는 NSX 배포의 ESXi 호스트 전송 노드에서 수집되는 다양한 통계를 설명합니다.

이 문서의 첫 번째 섹션에서는 NSX Manager UI에 표시되는 호스트 전송 노드 통계에 대해 설명합니다.

이 문서의 나머지 섹션에서는 ESXi 호스트 전송 노드에서 실행되는 다양한 데이터 경로 모듈에서 수집되는 통계에 대해 설명합니다. 이러한 통계를 보려면 NSX API 또는 NSX Central CLI를 사용해야 합니다. 이러한 섹션의 통계 열은 API 출력에 표시된 통계의 이름을 나타냅니다. 호스트 전송 노드 통계를 보기 위한 API 워크플로에 대한 자세한 내용은 API를 사용하여 NSX 호스트 전송 노드의 통계 모니터링 항목을 참조하십시오.

데이터 경로 통계 탭

NSX Manager UI의 이 탭에는 호스트 전송 노드에 대한 통계의 집계 값이 표시됩니다.

통계 설명 도입된 릴리스

수신한 브로드캐스트 패킷

VM에서 VDS가 수신한 브로드캐스트 패킷의 비율입니다. 이 통계는 내부적으로 통계 - rxbcastpkts에 매핑됩니다.

4.2.0

전송한 브로드캐스트 패킷

VDS가 VM으로 전송한 브로드캐스트 패킷의 비율입니다. 이 통계는 내부적으로 통계 - txbcastpkts에 매핑됩니다.

4.2.0

패킷 삭제를 제한하는 브로드캐스트 속도

브로드캐스트 속도 제한에 따라 삭제된 수신 또는 송신 패킷 수입니다.

속도 제한은 브로드캐스트 스톰과 같은 이벤트에서 네트워크 또는 VM을 보호하는 데 사용됩니다. NSX Manager UI의 속도 제한 값은 네트워킹 > 세그먼트 > 세그먼트 프로파일 > 세그먼트 보안 에서 구성할 수 있습니다.

이 통계는 내부적으로 rx_rate_limit_bcast_drops, rx_rate_limit_mcast_drops, tx_rate_limit_bcast_drops, tx_rate_limit_mcast_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

DFW

다양한 이유로 DFW 모듈에 의해 삭제된 총 패킷 수입니다.

삭제에 대한 세부 정보를 이해하려면 UI에서 NSX 데이터 경로 링크를 클릭합니다.

4.2.0

데이터 경로 L3

다양한 이유로 데이터 경로 L3 모듈에 의해 삭제된 총 패킷 수입니다.

삭제에 대한 세부 정보를 이해하려면 UI에서 NSX 데이터 경로 링크를 클릭합니다.

4.2.0

데이터 경로 시스템 오류

심각한 내부 시스템 오류로 인해 삭제된 총 패킷 수입니다. 이러한 통계가 지속적으로 증가하면 ESXi 호스트의 리소스가 부족한 것입니다. 일부 VM을 다른 호스트로 이동하면 로드를 완화하는 데 도움이 될 수 있습니다.

이 통계는 내부적으로 leaf_rx_system_err_drops, uplink_rx_system_err_drops, pkt_attr_error_drops, tx_dispatch_queue_too_long_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

빠른 경로

다양한 이유로 빠른 경로 모듈에 의해 삭제된 총 패킷 수입니다.

삭제에 대한 세부 정보를 이해하려면 UI에서 NSX 데이터 경로 링크를 클릭합니다.

4.2.0

빠른 경로 흐름 적중

ENS/흐름 캐시 모듈의 흐름 테이블 적중률입니다. 이 통계는 내부적으로 통계 - hits에 매핑됩니다.

4.2.0

빠른 경로 흐름 누락

흐름 누락으로 인해 느린 경로에서 처리되는 패킷의 비율입니다. 이 통계는 다음 행의 통계와 겹치지 않습니다. 이 통계는 내부적으로 통계 - miss에 매핑됩니다.

4.2.0

빠른 경로 패킷 삭제

모든 포트에 대한 수신 또는 전송 방향에서 흐름 캐시 빠른 경로에 의해 삭제된 총 패킷 수입니다.

이 통계는 내부적으로 rx_drops,tx_drops, rx_drops_uplink, tx_drops_uplink, rx_drops_sp, tx_drops_sp 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

방화벽 플러드 제한 패킷 삭제

다양한 프로토콜이 제한을 초과하여 플러드되어 삭제된 패킷 수입니다. 커널 인터페이스에서 서로 다른 프로토콜에 대해 구성된 플러드 제한이 있습니다.

이 통계는 내부적으로 udp_flood_overlimit_drops, tcp_flood_overlimit_drops, icmp_flood_overlimit_drops, other_flood_overlimit_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

방화벽 내부 오류 패킷 삭제

내부 오류로 인해 방화벽에 의해 삭제된 패킷 수입니다.

이 통계는 내부적으로 memory_drops, state_insert_drops, l7_attr_error_drops, lb_reject_drops, src_limit_misc 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

방화벽 잘못된 형식의 패킷 삭제

방화벽에 의해 삭제된 잘못된 형식의 패킷 수입니다.

이 통계는 내부적으로 fragment_drops, short_drops, normalize_drops, bad_timestamp_drops, proto_cksum_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

방화벽 패킷 거부

다양한 이유로 방화벽에서 거부된 패킷 수입니다.

이 통계는 내부적으로 rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts, tx_ipv6_reject_pkts 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

방화벽 규칙 수신 패킷 삭제

삭제 또는 거부 분산 방화벽 규칙에 적중하여 삭제된 수신 패킷 수입니다.

이 통계는 내부적으로 통계 - match_drop_rule_rx_drops에 매핑됩니다.

4.2.0

방화벽 규칙 전송 패킷 삭제

삭제 또는 거부 분산 방화벽 규칙에 적중하여 삭제된 전송 패킷 수입니다.

이 통계는 내부적으로 통계 - match_drop_rule_tx_drops에 매핑됩니다.

4.2.0

방화벽 상태 확인 패킷 삭제

상태 관련 검사로 인해 삭제된 패킷 수입니다.

이 통계는 icmp_err_pkt_drops, alg_handler_drops, syn_expected_drops, ip_option_drops, syn_proxy_drops, spoof_guard_drops, state_mismatch_drops, strict_no_syn_drops 세부 통계에 내부적으로 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

방화벽 상태 테이블 전체 패킷 삭제

최대 상태 제한에 도달하여 삭제된 패킷 수입니다. 예를 들어 TCP 상태 수가 제한보다 높은 경우 삭제됩니다. 이 통계는 내부적으로 통계 - state_limit_drops에 매핑됩니다.

4.2.0

방화벽 총 패킷 삭제

다양한 이유로 방화벽에 의해 삭제된 총 패킷 수입니다.

이 통계는 rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts, tx_ipv6_reject_pkts, rx_ipv4_drop_pkts, tx_ipv4_drop_pkts, rx_ipv6_drop_pkts, tx_ipv6_drop_pkts, rx_l2_drop_pkts, tx_l2_drop_pkts 세부 통계에 내부적으로 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

호스트 스위치 네트워크 불일치 패킷 삭제

VNI 또는 VLAN 태그 불일치로 인해 삭제된 유니캐스트, 멀티캐스트, 브로드캐스트 패킷 수입니다.

이 통계는 내부적으로 vlan_tag_mismatch_rx, vlan_tag_mismatch_tx, vni_tag_mismatch_tx, vlan_tag_mismatch_rx_mcast, vlan_tag_mismatch_tx_mcast, vni_tag_mismatch_tx_mcast 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

호스트 스위치에서 위조 MAC 패킷 삭제를 수신함

패킷의 소스 MAC가 가상 시스템 어댑터의 MAC과 다르기 때문에 위조 삭제로서 삭제된 패킷 수입니다.

세그먼트에서 위조 전송 또는 MAC 학습을 사용하지 않도록 설정하면 이러한 삭제가 발생합니다. 세그먼트에서 MAC 학습 또는 위조 전송을 사용하도록 설정하면 문제가 완화됩니다.

이 통계는 내부적으로 통계 - forged_transmit_rx_drops에 매핑됩니다.

4.2.0

L3 홉 제한 패킷 삭제

낮은 TTL(Time-To-Live)로 인해 삭제된 IPv4 또는 IPv6 패킷 수입니다. 각 논리적 라우터 인스턴스는 TTL 값에서 1을 추론합니다. 패킷 캡처를 사용하여 TTL 값이 낮은 패킷을 확인합니다.

이 통계는 내부적으로 ttl_ip4_drops, ttl_ipv6_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

L3 인접 항목 연결 불가능 패킷 삭제

인접 항목 확인 실패로 인해 삭제된 IPv4 또는 IPv6 패킷 수입니다.

이 통계는 내부적으로 arp_hold_pkt_drops, ns_hold_pkt_drops 세부 통계에 매핑됩니다.

4.2.0

L3 경로 없는 패킷 삭제

각 논리적 라우터 인스턴스에는 경로 조회를 위한 자체 라우팅 테이블이 있습니다. 이 통계는 해당 논리적 라우터 인스턴스에 대해 일치하는 경로가 없기 때문에 IPv4 패킷이 삭제될 때 증가합니다.

이 통계는 내부적으로 no_route_ipv4_drops, no_route_ipv6_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

L3 역방향 경로 전달 패킷 삭제

역방향 경로 전달 확인 실패로 인해 삭제된 IPv4 또는 IPv6 패킷 수입니다. 분산 라우터는 패킷의 소스 IP가 유효한(연결 가능) 소스에서 들어오는지 확인할 수 있으며 구성에 따라 패킷을 삭제할 수 있습니다.

NSX Manager UI에서 이 설정을 변경할 수 있습니다.

이 통계는 내부적으로 rpf_ipv4_drops, rpf_ipv6_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

Mac 학습 테이블 가득 참

CCP(중앙 제어부)에서 또는 언더레이 네트워크에서 수신된 패킷에 대해 MAC 학습 시의 MAC 테이블 업데이트 실패로 인한 패킷 삭제율입니다.

다음 명령을 사용하여 MAC 테이블이 호스트 전송 노드에서 가득 찼는지 확인합니다.

$ nsxcli -c "get segment mac-table"

필요한 경우 MAC 테이블 크기를 늘립니다.

이 통계는 내부적으로 mac_tbl_update_full, mac_tbl_lookup_full 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

수신한 멀티캐스트 패킷

VM에서 VDS 수신한 멀티캐스트 패킷의 비율입니다.

이 통계는 내부적으로 통계 - rx_mcast_pkts에 매핑됩니다.

4.2.0

전송한 멀티캐스트 패킷

VDS VM으로 전송한 멀티캐스트 패킷의 비율입니다.

이 통계는 내부적으로 통계 - tx_mcast_pkts에 매핑됩니다.

4.2.0

오버레이 데이터 경로 L2

다양한 이유로 오버레이 데이터 경로 L2 모듈에 의해 삭제된 총 패킷 수입니다.

삭제에 대한 세부 정보를 이해하려면 UI에서 NSX 데이터 경로 링크를 클릭합니다.

4.2.0

업링크로 전송되는 오버레이 데이터 경로

MAC 테이블 조회 실패로 인해 원격 VTEP로 플러드된 유니캐스트 패킷의 비율입니다. 값이 크면 단방향 L2 흐름 또는 MAC 테이블 업데이트 문제가 있는 것입니다.

다음 명령을 사용하여 MAC 테이블이 호스트 전송 노드에서 가득 찼는지 확인합니다.

$ nsxcli -c "get segment mac-table"

필요한 경우 MAC 테이블 크기를 늘립니다.

이 통계는 내부적으로 통계 - mac_tbl_lookup_flood에 매핑됩니다.

4.2.0

오버레이 실패 제어부 지원 인접 항목 확인

제어부가 인접 항목 확인에 도움을 줄 수 없는 문제로 인한 패킷 삭제율입니다. 그 이유는 CCP가 IP-MAC 매핑을 아직 학습하지 못했거나 시스템에서 패킷 버퍼 리소스가 부족하기 때문일 수 있습니다.

이 통계는 내부적으로 nd_proxy_resp_unknown, arp_proxy_resp_unknown, nd_proxy_req_fail_drops, arp_proxy_req_fail_drops, arp_proxy_resp_drops, nd_proxy_resp_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

오버레이 수신 패킷 삭제

다양한 이유로 인한 VDL2LeafInput의 패킷 삭제 수입니다. 삭제에 대한 구체적인 이유를 식별하려면 다른 리프 수신 삭제 이유를 참조하십시오.

이 통계는 내부적으로 leaf_rx_ref_port_not_found_drops, leaf_rx_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

오버레이 전송 패킷 삭제

다양한 이유로 인한 VDL2LeafOutput의 총 삭제 수입니다. 삭제에 대한 구체적인 이유를 식별하려면 다른 리프 전송 삭제 이유를 참조하십시오.

이 통계는 내부적으로 통계 - leaf_tx_drops에 매핑됩니다.

4.2.0

오버레이 업링크 수신 패킷 삭제

다양한 이유로 인해 VDL2UplinkInput에서 삭제된 패킷 수입니다. 삭제에 대한 구체적인 이유를 식별하려면 다른 업링크 수신 삭제 이유를 참조하십시오.

이 통계는 내부적으로 uplink_rx_drops, uplink_rx_guest_vlan_drops, uplink_rx_invalid_encap_drops, mcast_proxy_rx_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

오버레이 업링크 전송 패킷 삭제

다양한 이유로 인한 VDL2UplinkOutput의 총 패킷 삭제 수입니다. 삭제에 대한 구체적인 이유를 식별하려면 다른 업링크 전송 삭제 이유를 참조하십시오.

이 통계는 내부적으로 uplink_tx_drops, nested_tn_mcast_proxy_same_vlan_tx_drops, nested_tn_mcast_proxy_diff_vlan_tx_drops, mcast_poxy_tx_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

물리적 NIC가 수신됨(mbps)

초당 수신 메가비트입니다. 이 통계는 내부적으로 통계 - rxmbps에 매핑됩니다.

4.2.0

물리적 NIC가 수신됨(pps)

초당 수신 패킷입니다. 이 통계는 내부적으로 통계 - rxpps에 매핑됩니다.

물리적 NIC 수신 삭제

초당 수신 오류입니다. 0이 아닌 값은 일반적으로 다음과 같은 두 가지 경우를 나타냅니다.
  1. 물리적 NIC RX 링 크기가 너무 작아서 워크로드의 폭발적 증가로 인해 링이 쉽게 채워질 수 있습니다. 링 크기를 늘리는 것을 고려할 수 있습니다.
  2. 패킷 속도가 너무 높아 게스트가 처리할 수 없습니다. 게스트가 물리적 NIC RX 링에서 패킷을 꺼낼 수 없으므로 패킷이 삭제됩니다.

이 통계는 내부적으로 통계 - rxeps에 매핑됩니다.

4.2.0

물리적 NIC가 전송됨(mbps)

초당 전송 메가비트입니다. 이 통계는 내부적으로 통계 - txmbps에 매핑됩니다.

4.2.0

물리적 NIC가 전송됨(pps)

초당 전송 패킷입니다. 이 통계는 내부적으로 통계 - txpps에 매핑됩니다.

4.2.0

물리적 NIC 전송 삭제

초당 전송 오류입니다. 이 통계는 내부적으로 통계 - txeps에 매핑됩니다.

4.2.0

물리적 NIC

물리적 NIC 수입니다. 이 통계는 내부적으로 통계 - num_pnics에 매핑됩니다.

4.2.0

패킷 구문 분석 오류 삭제

올바르게 구문 분석되지 않은 IPv6 ND(인접 항목 검색) 패킷 수입니다. 로그에서 오류 메시지를 확인합니다. 포트에서 패킷 캡처를 수행하여 패킷 형식이 잘못되었는지 여부를 식별합니다.

이 통계는 내부적으로 통계 - nd_parse_errors에 매핑됩니다.

4.2.0

느린 경로만

의도적으로 항상 느린 경로로 처리되는 패킷 속도입니다. 한 가지 예는 브로드캐스트 패킷입니다.

이 통계는 내부적으로 통계 - slowpath에 매핑됩니다.

4.2.0

Spoof guard 패킷 삭제

SpoofGuard에 의해 삭제된 IPv4/IPv6/ARP 패킷 수입니다. SpoofGuard는 VM 이름/MAC 및 IP 주소의 참조 테이블을 유지하여 IP 스푸핑을 방지합니다. 이 수는 세그먼트 또는 세그먼트 포트에서 SpoofGuard를 사용하도록 설정한 경우에만 증가합니다.

이 통계는 내부적으로 spoof_guard_ipv4_drops, spoof_guard_arp_drops, spoof_guard_ipv6_drops, spoof_guard_nd_drops, spoof_guard_non_ip_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

스위치 보안

다양한 이유로 스위치 보안 모듈에 의해 삭제된 총 패킷 수입니다. 삭제에 대한 세부 정보를 이해하려면 UI에서 NSX 데이터 경로 링크를 클릭합니다.

4.2.0

알 수 없는 Tunnel 끝점

수신 GENEVE 레이블을 알 수 없기 때문에 소스 외부 MAC를 학습할 수 없는 패킷 삭제율입니다.

이 통계 값이 큰 경우 제어부에서의 전송 노드 원격 VTEP 업데이트가 누락된 것을 가리킬 수 있습니다. CLI를 사용하여 전송 노드의 원격 VTEP 테이블을 확인합니다.

이 통계는 내부적으로 통계 - uplink_rx_skip_mac_learn에 매핑됩니다.

4.2.0

VNIC가 수신됨(mbps)

초당 수신 메가비트입니다. 이 통계는 내부적으로 통계 - rxmbps에 매핑됩니다.

4.2.0

VNIC가 수신됨(pps)

초당 수신 패킷입니다. 이 통계는 내부적으로 통계 - rxpps에 매핑됩니다.

4.2.0

VNIC 수신 삭제

초당 수신 오류입니다. 0이 아닌 값은 일반적으로 다음과 같은 두 가지 경우를 나타냅니다.
  1. VNIC RX 링 크기가 너무 작아서 워크로드의 폭발적 증가로 인해 링이 쉽게 채워질 수 있습니다. 링 크기를 늘리는 것을 고려할 수 있습니다.
  2. 패킷 속도가 너무 높아 게스트가 처리할 수 없습니다. 게스트가 VNIC RX 링에서 패킷을 꺼낼 수 없으므로 패킷이 삭제됩니다.

이 통계는 내부적으로 통계 - rxeps에 매핑됩니다.

4.2.0

VNIC가 전송됨(mbps)

초당 전송 메가비트입니다. 이 통계는 내부적으로 통계 - txmbps에 매핑됩니다.

4.2.0

VNIC가 전송됨(pps)

초당 전송 패킷입니다. 이 통계는 내부적으로 통계 - txpps에 매핑됩니다.

4.2.0

VNIC 전송 삭제

초당 전송 오류입니다. 0이 아닌 값은 일반적으로 다음을 나타냅니다.
  • 패킷 속도가 너무 높아 업링크가 처리할 수 없습니다.
  • 업링크가 네트워크 스택의 대기열에서 패킷을 끌어올 수 없으므로 패킷이 삭제됩니다.

이 통계는 내부적으로 통계 - txeps에 매핑됩니다.

4.2.0

vNIC

가상 NIC 수입니다. 이 통계는 내부적으로 통계 - num_vnics에 매핑됩니다.

4.2.0

워크로드 BPDU 필터 패킷 삭제

BPDU 필터링에 의해 삭제된 패킷 수입니다. BPDU 필터가 사용하도록 설정되면 구성된 BPDU 대상 MAC 주소로의 트래픽이 삭제됩니다.

이 통계는 내부적으로 통계 - bpdu_filter_drops에 매핑됩니다.

4.2.0

워크로드 DHCP가 허용되지 않는 패킷 삭제

DHCP 클라이언트/서버 차단에 의해 삭제된 DHCPv4 또는 DHCPv6 패킷 수입니다.

이 통계는 내부적으로 dhcp_client_block_ipv6_drops, dhcp_server_block_ipv6_drops, dhcp_client_block_ipv4_drops, dhcp_server_block_ipv4_drops, dhcp_client_validate_ipv4_drops 세부 통계에 매핑됩니다. 자세한 내용은 개별 통계 정의를 참조하십시오.

4.2.0

워크로드 IPv6 RA 가드 패킷 삭제

RA 가드에 의해 삭제된 IPv6 라우터 보급 패킷 수입니다. RA 가드 기능은 VM에서 전송된 IPv6 라우터 보급(ICMPv6 유형 134)을 필터링합니다. IPv6 배포에서 라우터는 호스트가 자동 구성에 사용하는 멀티캐스트 라우터 보급 메시지를 주기적으로 전송합니다.

RA 가드를 사용하여 네트워크 세그먼트에 연결하는 인증되지 않거나 잘못 구성된 라우터에서 생성된 불량 RA 메시지로부터 네트워크를 보호할 수 있습니다. NSX Manager UI의 RA 가드는 네트워킹 > 세그먼트 > 세그먼트 프로파일 > 세그먼트 보안 에서 구성할 수 있습니다.

이 통계는 내부적으로 통계 - ra_guard_drops에 매핑됩니다.

4.2.0

vSwitch

다양한 이유로 vSwitch 모듈에 의해 삭제된 총 패킷 수입니다.

삭제에 대한 세부 정보를 이해하려면 UI에서 NSX 데이터 경로 링크를 클릭합니다.

업링크에서 vSwitch가 수신됨

vSwitch에 의해 동일한 브로드캐스트 도메인의 다른 포트로 플러드된 알 수 없는 유니캐스트인 하나 이상의 업링크에서 vSwitch로 수신된 패킷 비율입니다.

이 통계는 패킷이 MAC 학습 지원 세그먼트 또는 싱크 포트가 있을 때 플러드된 알 수 없는 유니캐스트일 경우 증가합니다. 패킷의 대상 MAC 주소를 vSwitch MAC 주소 테이블에서 찾을 수 없는 경우 알 수 없는 유니캐스트 플러딩이 발생합니다.

이 통계는 MAC 학습이 있을 때 대상 MAC이 MAC 주소 테이블에서 수명 초과되면 증가합니다. 이 통계는 내부적으로 통계 - unknown_unicast_rx_uplink_pkts에 매핑됩니다.

4.2.0

업링크로 전송된 vSwitch

vSwitch에서 하나 이상의 업링크로 플러드된 알 수 없는 유니캐스트 패킷의 비율입니다.

이 통계는 패킷이 MAC 학습 지원 세그먼트 또는 싱크 포트가 있을 때 플러드된 알 수 없는 유니캐스트일 경우 증가합니다. 패킷의 대상 MAC 주소를 vSwitch MAC 주소 테이블에서 찾을 수 없는 경우 알 수 없는 유니캐스트 플러딩이 발생합니다.

이 통계는 MAC 학습이 있을 때 대상 MAC이 MAC 주소 테이블에서 수명 초과되면 증가합니다. 이 통계는 내부적으로 통계 - unknown_unicast_tx_uplink_pkts에 매핑됩니다.

4.2.0

모듈: host_enhanced_fastpath

이 데이터 경로 모듈은 ENS 데이터 경로 모듈에 대한 호스트/인프라 통계를 제공합니다. 이 데이터 경로 모듈은 NSX Central CLI에서 host-fastpath-ens로 알려져 있습니다.

통계 설명 도입된 릴리스

flow_table_occupancy_0_pct

히스토그램: 활용률이 0~25%인 흐름 테이블 수입니다.

4.2.0

flow_table_occupancy_25_pct

히스토그램: 활용률이 25~50%인 흐름 테이블 수입니다.

4.2.0

flow_table_occupancy_50_pct

히스토그램: 활용률이 50~75%인 흐름 테이블 수입니다.

4.2.0

flow_table_occupancy_75_pct

히스토그램: 활용률이 75~90%인 흐름 테이블 수입니다.

4.2.0

flow_table_occupancy_90_pct

히스토그램: 활용률이 90~95%인 흐름 테이블 수입니다. 활성 흐름 수가 흐름 테이블 크기보다 커지면 흐름 누락이 증가하여 성능이 저하될 수 있습니다. 흐름 테이블 점유율 히스토그램 통계는 흐름 테이블이 가득 차고 있는지를 파악하는 데 유용합니다.

단기 연결이 계속 유지되는 경우 흐름 테이블 크기를 늘리더라도 성능이 항상 향상되는 것은 아닙니다. 흐름 테이블 크기와 관계없이 흐름 테이블이 항상 가득 찬 상태일 수 있습니다. 이 경우 큰 흐름 테이블 크기는 도움이 되지 않습니다. EDP에는 이를 감지하고 흐름 테이블을 자동으로 사용하거나 사용하지 않도록 설정하여 이러한 사례를 처리하는 논리가 있습니다.

4.2.0

flow_table_occupancy_95_pct

히스토그램: 활용률이 95%인 흐름 테이블 수입니다. 활성 흐름 수가 흐름 테이블 크기보다 커지면 흐름 누락이 증가하여 성능이 저하될 수 있습니다. 흐름 테이블 점유율 히스토그램 통계는 흐름 테이블이 가득 차고 있는지를 파악하는 데 유용합니다.

단기 연결이 계속 유지되는 경우 흐름 테이블 크기를 늘리더라도 성능이 언제나 향상되는 것은 아닙니다. 흐름 테이블 크기와 관계없이 흐름 테이블이 항상 가득 찬 상태일 수 있습니다. 이 경우 큰 흐름 테이블 크기는 도움이 되지 않습니다. EDP에는 이를 감지하고 흐름 테이블을 자동으로 사용하거나 사용하지 않도록 설정하여 이러한 사례를 처리하는 논리가 있습니다.

4.2.0

flow_table_size

EDP의 흐름 테이블 최대 크기입니다.

4.2.0

hits

ENS 모듈의 흐름 테이블 적중 수입니다. 이 통계는 흐름 적중/누락/느린 경로 속도를 계산하거나 적중/누락/느린 경로 비율을 계산하는 데 사용할 수 있습니다.

4.2.0

insertion_errors

흐름 테이블 삽입 오류 수입니다. 이 오류는 흐름 테이블이 가득 차거나 가득 찬 상태에 가까우며 해시 충돌이 있을 때 발생할 수 있습니다.

4.2.0

miss

흐름 누락으로 인해 느린 경로에서 처리되는 패킷입니다. 이 통계는 이 표의 뒷부분에서 설명하는 느린 경로 통계와 겹치지 않습니다. 이 통계는 흐름 적중/누락/느린 경로 속도를 계산하거나 적중/누락/느린 경로 비율을 계산하는 데 사용할 수 있습니다.

4.2.0

num_flow_tables

EDP에 사용되는 흐름 테이블 수입니다. EDP에는 EDP 스레드당 하나의 흐름 테이블이 있습니다. 따라서 생성 및 사용되는 흐름 테이블의 개수를 확인하는 데 유용합니다.

4.2.0

num_flows

EDP의 흐름 수입니다.

4.2.0

num_flows_created

EDP에서 생성된 흐름 수입니다. 이 통계를 사용하여 흐름 생성 속도를 계산합니다. 이 항목은 워크로드 특성을 결정하는 데 유용합니다. 흐름 테이블 점유율 히스토그램 통계는 흐름 테이블이 가득 찼는지 여부를 알려 줍니다.

흐름 생성 속도가 낮고 num_flows 또는 흐름 점유율 통계에 큰 변화가 없는 경우 트래픽이 안정적이고 안정 상태임을 나타냅니다. 활성 흐름 수는 안정적으로 유지됩니다. 흐름 생성 속도가 높고 num_flows가 증가하면 활성 흐름 수가 증가하고 있음을 나타냅니다. 흐름 생성 속도가 감소되지 않으면 흐름 테이블이 결국 가득 차게 됩니다.

흐름 생성 속도가 높고 평균 흐름 크기가 작지 않은 경우 흐름 테이블 크기를 늘리는 것이 좋습니다. 평균 흐름 크기 = 적중률/num_flows_created 속도

평균 흐름 크기 값이 작으면 흐름의 수명이 짧다는 것을 의미합니다. Hits와 num_flows_created 모두 누적됩니다. 속도 값을 먼저 계산하여 특정 기간 동안의 평균 흐름 크기를 가져올 수 있습니다.

4.2.0

slowpath

의도적으로 항상 느린 경로로 처리되는 패킷입니다. 한 가지 예는 브로드캐스트 패킷입니다. 이 통계는 흐름 적중/누락/느린 경로 속도를 계산하거나 적중/누락/느린 경로 비율을 계산하는 데 사용할 수 있습니다.

4.2.0

모듈: host_fastpath_ens_lcore

이 데이터 경로 모듈은 ENS 모듈에 대한 예상 Lcore 사용량 통계를 제공합니다. 사용량별로 순위가 지정된 최대 16개의 Lcore가 표시됩니다. 16개 미만의 Lcore가 구성된 경우 올바른 ID가 있는 Lcore만 표시됩니다. 이 데이터 경로 모듈은 NSX Central CLI에서 host-fastpath-ens-lcore로 알려져 있습니다.

통계 설명 도입된 릴리스

lcorerank01_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 1순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank01_lcoreusage

1순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank02_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 2순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank02_lcoreusage

2순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank03_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 3순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank03_lcoreusage

3순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank04_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 4순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank04_lcoreusage

4순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank05_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 5순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank05_lcoreusage

5순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank06_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 6순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank06_lcoreusage

6순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank07_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 7순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank07_lcoreusage

7순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank08_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 8순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank08_lcoreusage

8순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank09_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 9순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank09_lcoreusage

9순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank10_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 10순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank10_lcoreusage

10순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank11_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 11순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank11_lcoreusage

11순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank12_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 12순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank12_lcoreusage

12순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank13_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 13순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

lcorerank13_lcoreusage

13순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank14_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 14순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank14_lcoreusage

14순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank15_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 15순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank15_lcoreusage

15순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank16_lcoreid

CPU 사용량 측면에서 EDP 성능 모드에 대한 16순위 커널 스레드의 ID입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

lcorerank16_lcoreusage

16순위 Lcore의 CPU 사용량입니다. ID가 유효한 경우에만 표시됩니다.

4.2.0

모듈: host_standard_fastpath

이 데이터 경로 모듈은 레거시 흐름 캐시 데이터 경로 모듈에 대한 호스트/인프라 통계를 제공합니다. 이 데이터 경로 모듈은 NSX Central CLI에서 host-fastpath-standard로 알려져 있습니다.

통계 설명 도입된 릴리스

flow_table_occupancy_0_pct

히스토그램: 활용률이 0~25%인 흐름 테이블 수입니다.

4.2.0

flow_table_occupancy_25_pct

히스토그램: 활용률이 25~50%인 흐름 테이블 수입니다.

4.2.0

flow_table_occupancy_50_pct

히스토그램: 활용률이 50~75%인 흐름 테이블 수입니다.

4.2.0

flow_table_occupancy_75_pct

히스토그램: 활용률이 75~90%인 흐름 테이블 수입니다.

4.2.0

flow_table_occupancy_90_pct

히스토그램: 활용률이 90~95%인 흐름 테이블 수입니다. 활성 흐름 수가 흐름 테이블 크기보다 커지면 흐름 누락이 증가하여 성능이 저하될 수 있습니다. 흐름 테이블 점유율 히스토그램 통계는 흐름 테이블이 가득 차고 있는지를 파악하는 데 유용합니다.

단기 연결이 계속 유지되는 경우 흐름 테이블 크기를 늘리더라도 성능이 항상 향상되는 것은 아닙니다. 흐름 테이블 크기와 관계없이 흐름 테이블이 항상 가득 찬 상태일 수 있습니다. 이 경우 큰 흐름 테이블 크기는 도움이 되지 않습니다. EDP에는 이를 감지하고 흐름 테이블을 자동으로 사용하거나 사용하지 않도록 설정하여 이러한 사례를 처리하는 논리가 있습니다.

4.2.0

flow_table_occupancy_95_pct

히스토그램: 활용률이 95%인 흐름 테이블 수입니다. 활성 흐름 수가 흐름 테이블 크기보다 커지면 흐름 누락이 증가하여 성능이 저하될 수 있습니다. 흐름 테이블 점유율 히스토그램 통계는 흐름 테이블이 가득 차고 있는지를 파악하는 데 유용합니다.

단기 연결이 계속 유지되는 경우 흐름 테이블 크기를 늘리더라도 성능이 언제나 향상되는 것은 아닙니다. 흐름 테이블 크기와 관계없이 흐름 테이블이 항상 가득 찬 상태일 수 있습니다. 이 경우 큰 흐름 테이블 크기는 도움이 되지 않습니다. EDP에는 이를 감지하고 흐름 테이블을 자동으로 사용하거나 사용하지 않도록 설정하여 이러한 사례를 처리하는 논리가 있습니다.

4.2.0

flow_table_size

EDP의 흐름 테이블 최대 크기입니다.

4.2.0

hits

ENS 모듈의 흐름 테이블 적중 수입니다. 이 통계는 흐름 적중/누락/느린 경로 속도를 계산하거나 적중/누락/느린 경로 비율을 계산하는 데 사용할 수 있습니다.

4.2.0

insertion_errors

흐름 테이블 삽입 오류 수입니다. 이 오류는 흐름 테이블이 가득 차거나 가득 찬 상태에 가까우며 해시 충돌이 있을 때 발생할 수 있습니다.

4.2.0

miss

흐름 누락으로 인해 느린 경로에서 처리되는 패킷입니다. 이 통계는 이 표의 뒷부분에서 설명하는 느린 경로 통계와 겹치지 않습니다. 이 통계는 흐름 적중/누락/느린 경로 속도를 계산하거나 적중/누락/느린 경로 비율을 계산하는 데 사용할 수 있습니다.

4.2.0

num_flow_tables

EDP에 사용되는 흐름 테이블 수입니다. EDP에는 EDP 스레드당 하나의 흐름 테이블이 있습니다. 따라서 생성 및 사용되는 흐름 테이블의 개수를 확인하는 데 유용합니다.

4.2.0

num_flows

EDP의 흐름 수입니다.

4.2.0

num_flows_created

EDP에서 생성된 흐름 수입니다. 이 통계를 사용하여 흐름 생성 속도를 계산합니다. 이 항목은 워크로드 특성을 결정하는 데 유용합니다. 흐름 테이블 점유율 히스토그램 통계는 흐름 테이블이 가득 찼는지 여부를 알려 줍니다.

흐름 생성 속도가 낮고 num_flows 또는 흐름 점유율 통계에 큰 변화가 없는 경우 트래픽이 안정적이고 안정 상태임을 나타냅니다. 활성 흐름 수는 안정적으로 유지됩니다. 흐름 생성 속도가 높고 num_flows가 증가하면 활성 흐름 수가 증가하고 있음을 나타냅니다. 흐름 생성 속도가 감소되지 않으면 흐름 테이블이 결국 가득 차게 됩니다.

흐름 생성 속도가 높고 평균 흐름 크기가 작지 않은 경우 흐름 테이블 크기를 늘리는 것이 좋습니다. 평균 흐름 크기 = 적중률/num_flows_created 속도

평균 흐름 크기 값이 작으면 흐름의 수명이 짧다는 것을 의미합니다. Hits와 num_flows_created 모두 누적됩니다. 속도 값을 먼저 계산하여 특정 기간 동안의 평균 흐름 크기를 가져올 수 있습니다.

4.2.0

slowpath

의도적으로 항상 느린 경로로 처리되는 패킷입니다. 한 가지 예는 브로드캐스트 패킷입니다. 이 통계는 흐름 적중/누락/느린 경로 속도를 계산하거나 적중/누락/느린 경로 비율을 계산하는 데 사용할 수 있습니다.

4.2.0

모듈: host_net_thread_nioc

이 데이터 경로 모듈은 NIOC와 관련된 네트워크 스레드 통계를 제공합니다. 이 데이터 경로 모듈은 NSX Central CLI에서 host-net-thread-nioc로 알려져 있습니다.

통계 설명 도입된 릴리스

hist_0_pct

히스토그램: 0%-25% 내 스레드 수

4.2.0

hist_25_pct

히스토그램: 25%-50% 내 스레드 수

4.2.0

hist_50_pct

히스토그램: 50%-70% 내 스레드 수

4.2.0

hist_70_pct

히스토그램: 70%-80% 내 스레드 수

4.2.0

hist_80_pct

히스토그램: 80%-85% 내 스레드 수

4.2.0

hist_85_pct

히스토그램: 85%-90% 내 스레드 수

4.2.0

hist_90_pct

히스토그램: 90%-95% 내 스레드 수

4.2.0

hist_95_pct

히스토그램: 95%-97% 내 스레드 수

4.2.0

hist_97_pct

히스토그램: 97%-99% 내 스레드 수

4.2.0

hist_99_pct

히스토그램: 활용률이 99%보다 큰 스레드 수입니다.

네트워크 데이터 경로 문제는 패킷 삭제, 낮은 처리량, 긴 지연 시간이라는 세 가지 증상으로 나타납니다. 이러한 증상은 기능적 문제와 성능 문제 모두에서 나타나지만 성능 관련 문제로 인해 발생하는 경우가 많습니다. 초기 조사 단계에서는 문제가 성능과 관련이 있는지 여부를 배제하는 것이 중요합니다.

특히 가상화를 기준으로 구축된 소프트웨어 정의 네트워킹에서 CPU는 네트워크 성능에 영향을 미치는 가장 중요한 리소스입니다. 시장에서 NIC의 속도가 점점 더 빨라지고 있는 지금, 네트워크 대역폭으로 인한 병목 현상이 발생할 일은 거의 없습니다.

데이터 경로의 패킷 처리에는 일반적으로 패킷을 유지하는 대기열 및 버퍼와 연결된 파이프라인에서 실행되는 스레드 집합이 관련됩니다. vCPU의 파이프라인에 있는 스레드가 커널 네트워크 스레드로 오버로드되면 해당 대기열 및 버퍼가 가득 차서 패킷이 삭제될 수 있습니다. 이를 통해 처리량이 조절됩니다.

기존 네트워크 통계 외에 커널 네트워크 스레드의 CPU 사용량을 모니터링하는 것이 중요합니다. 개별 스레드에 대해 CPU 사용량 수치를 사용하는 대신, 개별 스레드를 그룹화하고 히스토그램을 생성합니다. 그런 다음, 90pct, 95pct, 97pct, 99pct와 같은 히스토그램 bin을 모니터링할 수 있으며 이를 통해 병목 상태가 된 네트워킹 스레드 수를 알 수 있습니다. total_CPU 통계는 커널에서 패킷을 처리하는 데 소요되는 CPU 시간을 표시하는 데도 유용합니다.

4.2.0

max_cpu

최대 스레드 CPU 활용률

4.2.0

min_cpu

최소 스레드 CPU 활용률

4.2.0

num_threads

NetIOC 패킷 스케줄러에서 업링크로 패킷을 전달하는 데 사용되는 스레드 수입니다.

4.2.0

total_cpu

그룹에 있는 모든 네트워크 스레드의 CPU 활용률 합계입니다. 총 CPU는 서로 다른 스레드 그룹과 VM 간의 전체 CPU 사용량 분포를 보는 데 유용합니다.

4.2.0

모듈: host_net_thread_rx

이 데이터 경로 모듈은 RX와 관련된 네트워크 스레드 통계를 제공합니다. 이 데이터 경로 모듈은 NSX Central CLI에서 host-net-thread-rx로 알려져 있습니다.

통계 설명 도입된 릴리스

hist_0_pct

히스토그램: 0%-25% 내 스레드 수

4.2.0

hist_25_pct

히스토그램: 25%-50% 내 스레드 수

4.2.0

hist_50_pct

히스토그램: 50%-70% 내 스레드 수

4.2.0

hist_70_pct

히스토그램: 70%-80% 내 스레드 수

4.2.0

hist_80_pct

히스토그램: 80%-85% 내 스레드 수

4.2.0

hist_85_pct

히스토그램: 85%-90% 내 스레드 수

4.2.0

hist_90_pct

히스토그램: 90%-95% 내 스레드 수

4.2.0

hist_95_pct

히스토그램: 95%-97% 내 스레드 수

4.2.0

hist_97_pct

히스토그램: 97%-99% 내 스레드 수

4.2.0

hist_99_pct

히스토그램: 활용률이 99%보다 큰 스레드 수입니다.

네트워크 데이터 경로 문제는 패킷 삭제, 낮은 처리량, 긴 지연 시간이라는 세 가지 증상으로 나타납니다. 이러한 증상은 기능적 문제와 성능 문제 모두에서 나타나지만 성능 관련 문제로 인해 발생하는 경우가 많습니다. 초기 조사 단계에서는 문제가 성능과 관련이 있는지 여부를 배제하는 것이 중요합니다.

특히 가상화를 기준으로 구축된 소프트웨어 정의 네트워킹에서 CPU는 네트워크 성능에 영향을 미치는 가장 중요한 리소스입니다. 시장에서 NIC의 속도가 점점 더 빨라지고 있는 지금, 네트워크 대역폭으로 인한 병목 현상이 발생할 일은 거의 없습니다.

데이터 경로의 패킷 처리에는 일반적으로 패킷을 유지하는 대기열 및 버퍼와 연결된 파이프라인에서 실행되는 스레드 집합이 관련됩니다. vCPU의 파이프라인에 있는 스레드가 커널 네트워크 스레드로 오버로드되면 해당 대기열 및 버퍼가 가득 차서 패킷이 삭제될 수 있습니다. 이를 통해 처리량이 조절됩니다.

기존 네트워크 통계 외에 커널 네트워크 스레드의 CPU 사용량을 모니터링하는 것이 중요합니다. 개별 스레드에 대해 CPU 사용량 수치를 사용하는 대신, 개별 스레드를 그룹화하고 히스토그램을 생성합니다. 그런 다음, 90pct, 95pct, 97pct, 99pct와 같은 히스토그램 bin을 모니터링할 수 있으며 이를 통해 병목 상태가 된 네트워킹 스레드 수를 알 수 있습니다. total_CPU 통계는 커널에서 패킷을 처리하는 데 소요되는 CPU 시간을 표시하는 데도 유용합니다.

4.2.0

max_cpu

최대 스레드 CPU 활용률

4.2.0

min_cpu

최소 스레드 CPU 활용률

4.2.0

num_threads

NetIOC 패킷 스케줄러에서 업링크로 패킷을 전달하는 데 사용되는 스레드 수입니다.

4.2.0

total_cpu

그룹에 있는 모든 네트워크 스레드의 CPU 활용률 합계입니다. 총 CPU는 서로 다른 스레드 그룹과 VM 간의 전체 CPU 사용량 분포를 보는 데 유용합니다.

4.2.0

모듈: host_net_thread_tx

이 데이터 경로 모듈은 TX와 관련된 네트워크 스레드 통계를 제공합니다. 이 데이터 경로 모듈은 NSX Central CLI에서 host-net-thread-txhost-net-thread-tx로 알려져 있습니다.

통계 설명 도입된 릴리스

hist_0_pct

히스토그램: 0%-25% 내 스레드 수

4.2.0

hist_25_pct

히스토그램: 25%-50% 내 스레드 수

4.2.0

hist_50_pct

히스토그램: 50%-70% 내 스레드 수

4.2.0

hist_70_pct

히스토그램: 70%-80% 내 스레드 수

4.2.0

hist_80_pct

히스토그램: 80%-85% 내 스레드 수

4.2.0

hist_85_pct

히스토그램: 85%-90% 내 스레드 수

4.2.0

hist_90_pct

히스토그램: 90%-95% 내 스레드 수

4.2.0

hist_95_pct

히스토그램: 95%-97% 내 스레드 수

4.2.0

hist_97_pct

히스토그램: 97%-99% 내 스레드 수

4.2.0

hist_99_pct

히스토그램: 활용률이 99%보다 큰 스레드 수입니다.

네트워크 데이터 경로 문제는 패킷 삭제, 낮은 처리량, 긴 지연 시간이라는 세 가지 증상으로 나타납니다. 이러한 증상은 기능적 문제와 성능 문제 모두에서 나타나지만 성능 관련 문제로 인해 발생하는 경우가 많습니다. 초기 조사 단계에서는 문제가 성능과 관련이 있는지 여부를 배제하는 것이 중요합니다.

특히 가상화를 기준으로 구축된 소프트웨어 정의 네트워킹에서 CPU는 네트워크 성능에 영향을 미치는 가장 중요한 리소스입니다. 시장에서 NIC의 속도가 점점 더 빨라지고 있는 지금, 네트워크 대역폭으로 인한 병목 현상이 발생할 일은 거의 없습니다.

데이터 경로의 패킷 처리에는 일반적으로 패킷을 유지하는 대기열 및 버퍼와 연결된 파이프라인에서 실행되는 스레드 집합이 관련됩니다. vCPU의 파이프라인에 있는 스레드가 커널 네트워크 스레드로 오버로드되면 해당 대기열 및 버퍼가 가득 차서 패킷이 삭제될 수 있습니다. 이를 통해 처리량이 조절됩니다.

기존 네트워크 통계 외에 커널 네트워크 스레드의 CPU 사용량을 모니터링하는 것이 중요합니다. 개별 스레드에 대해 CPU 사용량 수치를 사용하는 대신, 개별 스레드를 그룹화하고 히스토그램을 생성합니다. 그런 다음, 90pct, 95pct, 97pct, 99pct와 같은 히스토그램 bin을 모니터링할 수 있으며 이를 통해 병목 상태가 된 네트워킹 스레드 수를 알 수 있습니다. total_CPU 통계는 커널에서 패킷을 처리하는 데 소요되는 CPU 시간을 표시하는 데도 유용합니다.

4.2.0

max_cpu

최대 스레드 CPU 활용률

4.2.0

min_cpu

최소 스레드 CPU 활용률

4.2.0

num_threads

NetIOC 패킷 스케줄러에서 업링크로 패킷을 전달하는 데 사용되는 스레드 수입니다.

4.2.0

total_cpu

그룹에 있는 모든 네트워크 스레드의 CPU 활용률 합계입니다. 총 CPU는 서로 다른 스레드 그룹과 VM 간의 전체 CPU 사용량 분포를 보는 데 유용합니다.

4.2.0

모듈: host_pcpu

이 데이터 경로 모듈은 물리적 CPU의 사용량을 제공합니다. 이 데이터 경로 모듈은 NSX Central CLI에서 host-pcpuhost-pcpu로 알려져 있습니다.

통계 설명 도입된 릴리스

hist_0_pct

히스토그램: 0%-50% 내의 CPU 수

4.2.0

hist_50_pct

히스토그램: 50%-70% 내의 CPU 수

4.2.0

hist_75_pct

히스토그램: 75%-85% 내의 CPU 수

4.2.0

hist_85_pct

히스토그램: 85%-90% 내의 CPU 수

4.2.0

hist_90_pct

히스토그램: 90%-95% 내의 CPU 수

4.2.0

hist_95_pct

히스토그램: 95%-100% 내의 CPU 수

4.2.0

total_cpu

총 호스트 CPU 활용률. 호스트의 모든 물리적 CPU 코어의 활용률 합계입니다.

네트워크 데이터 경로 문제는 패킷 삭제, 낮은 처리량, 긴 지연 시간이라는 세 가지 증상으로 나타납니다. 이러한 증상은 기능적 문제와 성능 문제 모두에서 나타나지만 성능 관련 문제로 인해 발생하는 경우가 많습니다. 초기 조사 단계에서는 문제가 성능과 관련이 있는지 여부를 배제하는 것이 중요합니다.

특히 가상화를 기준으로 구축된 소프트웨어 정의 네트워킹에서 CPU는 네트워크 성능에 영향을 미치는 가장 중요한 리소스입니다. 시장에서 NIC의 속도가 점점 더 빨라지고 있는 지금, 네트워크 대역폭으로 인한 병목 현상이 발생할 일은 거의 없습니다.

데이터 경로의 패킷 처리에는 일반적으로 패킷을 유지하는 대기열 및 버퍼와 연결된 파이프라인에서 실행되는 스레드 집합이 관련됩니다. vCPU의 파이프라인에 있는 스레드가 커널 네트워크 스레드로 오버로드되면 해당 대기열 및 버퍼가 가득 차서 패킷이 삭제될 수 있습니다. 이를 통해 처리량이 조절됩니다.

기존 네트워크 통계 외에 커널 네트워크 스레드의 CPU 사용량을 모니터링하는 것이 중요합니다. 개별 스레드에 대해 CPU 사용량 수치를 사용하는 대신, 개별 스레드를 그룹화하고 히스토그램을 생성합니다. 그런 다음, 90pct, 95pct, 97pct, 99pct와 같은 히스토그램 bin을 모니터링할 수 있으며 이를 통해 병목 상태가 된 네트워킹 스레드 수를 알 수 있습니다. total_CPU 통계는 커널에서 패킷을 처리하는 데 소요되는 CPU 시간을 표시하는 데도 유용합니다.

4.2.0

모듈: host_uplink

이 데이터 경로 모듈은 물리적 업링크 NIC의 사용량을 제공합니다. 이 데이터 경로 모듈은 NSX Central CLI에서 host-uplink로 알려져 있습니다.

통계 설명 도입된 릴리스

num_pnics

물리적 NIC 수

4.2.0

rx_error_total

드라이버 통계: 수신된 총 오류 수. 일반적으로 이 통계는 rx_missed와 값이 유사해야 합니다.

0이 아닌 값은 일반적으로 다음 두 가지 경우를 나타냅니다.
  1. 물리적 NIC RX 링 크기가 너무 작아서 워크로드의 폭발적 증가로 인해 링이 쉽게 채워질 수 있습니다. 링 크기를 늘리는 것을 고려할 수 있습니다.
  2. 패킷 속도가 너무 높아 게스트가 처리할 수 없습니다. 게스트가 물리적 NIC RX 링에서 패킷을 꺼낼 수 없으므로 패킷이 삭제됩니다.
4.2.0

rx_missed

드라이버 통계: 수신된 누락 수. 일반적으로 이 통계는 rx_error_total과 값이 유사해야 합니다.

0이 아닌 값은 일반적으로 다음 두 가지 경우를 나타냅니다.
  1. 물리적 NIC RX 링 크기가 너무 작아서 워크로드의 폭발적 증가로 인해 링이 쉽게 채워질 수 있습니다. 링 크기를 늘리는 것을 고려할 수 있습니다.
  2. 패킷 속도가 너무 높아 게스트가 처리할 수 없습니다. 게스트가 물리적 NIC RX 링에서 패킷을 꺼낼 수 없으므로 패킷이 삭제됩니다.
4.2.0

rxeps

초당 수신 오류

0이 아닌 값은 일반적으로 다음 두 가지 경우를 나타냅니다.
  1. 물리적 NIC RX 링 크기가 너무 작아서 워크로드의 폭발적 증가로 인해 링이 쉽게 채워질 수 있습니다. 링 크기를 늘리는 것을 고려할 수 있습니다.
  2. 패킷 속도가 너무 높아 게스트가 처리할 수 없습니다. 게스트가 물리적 NIC RX 링에서 패킷을 꺼낼 수 없으므로 패킷이 삭제됩니다.
4.2.0

rxmbps

초당 수신 메가비트

4.2.0

rxpps

초당 수신 패킷

4.2.0

txeps

초당 전송 오류

4.2.0

txmbps

초당 전송 메가비트

4.2.0

txpps

초당 전송 패킷

4.2.0

모듈: host_vnic

이 데이터 경로 모듈은 가상 NIC의 사용량을 제공합니다. 이 데이터 경로 모듈은 NSX Central CLI에서 host-vNIC로 알려져 있습니다.

통계 설명 도입된 릴리스

num_vnics

가상 NIC 수입니다.

4.2.0

rxeps

초당 수신 오류입니다.

0이 아닌 값은 일반적으로 다음과 같은 두 가지 경우를 나타냅니다.
  1. VNIC RX 링 크기가 너무 작아서 워크로드의 폭발적 증가로 인해 링이 쉽게 채워질 수 있습니다. 링 크기를 늘리는 것을 고려할 수 있습니다.
  2. 패킷 속도가 너무 높아 게스트가 처리할 수 없습니다. 게스트가 VNIC RX 링에서 패킷을 꺼낼 수 없으므로 패킷이 삭제됩니다.
4.2.0

rxmbps

초당 수신 메가비트입니다.

4.2.0

rxpps

초당 수신 패킷입니다.

4.2.0

txeps

초당 전송 오류입니다.

0이 아닌 값은 일반적으로 다음과 같은 두 가지 경우를 나타냅니다.
  1. 패킷 속도가 너무 높아 업링크가 처리할 수 없습니다.
  2. 업링크가 네트워크 스택의 대기열에서 패킷을 끌어올 수 없으므로 패킷이 삭제됩니다.
4.2.0

txmbps

초당 전송 메가비트입니다.

4.2.0

txpps

초당 전송 패킷입니다.

4.2.0

모듈: host_vcpu

이 데이터 경로 모듈은 가상 CPU의 사용량을 제공합니다. 이 데이터 경로 모듈은 NSX Central CLI에서 host-vcpu로 알려져 있습니다.

통계 설명 도입된 릴리스

hist_0_pct

히스토그램: 0%-50% 내의 CPU 수

4.2.0

hist_50_pct

히스토그램: 50%-70% 내의 CPU 수

4.2.0

hist_75_pct

히스토그램: 75%-85% 내의 CPU 수

4.2.0

hist_85_pct

히스토그램: 85%-90% 내의 CPU 수

4.2.0

hist_90_pct

히스토그램: 90%-95% 내의 CPU 수

4.2.0

hist_95_pct

히스토그램: 95%-100% 내의 CPU 수

네트워크 데이터 경로 문제는 패킷 삭제, 낮은 처리량, 긴 지연 시간이라는 세 가지 증상으로 나타납니다. 이러한 증상은 기능적 문제와 성능 문제 모두에서 나타나지만 성능 관련 문제로 인해 발생하는 경우가 많습니다. 초기 조사 단계에서는 문제가 성능과 관련이 있는지 여부를 배제하는 것이 중요합니다.

특히 가상화를 기준으로 구축된 소프트웨어 정의 네트워킹에서 CPU는 네트워크 성능에 영향을 미치는 가장 중요한 리소스입니다. 시장에서 NIC의 속도가 점점 더 빨라지고 있는 지금, 네트워크 대역폭으로 인한 병목 현상이 발생할 일은 거의 없습니다.

데이터 경로의 패킷 처리에는 일반적으로 패킷을 유지하는 대기열 및 버퍼와 연결된 파이프라인에서 실행되는 스레드 집합이 관련됩니다. vCPU의 파이프라인에 있는 스레드가 커널 네트워크 스레드로 오버로드되면 해당 대기열 및 버퍼가 가득 차서 패킷이 삭제될 수 있습니다. 이를 통해 처리량이 조절됩니다.

기존 네트워크 통계 외에 커널 네트워크 스레드의 CPU 사용량을 모니터링하는 것이 중요합니다. 개별 스레드에 대해 CPU 사용량 수치를 사용하는 대신, 개별 스레드를 그룹화하고 히스토그램을 생성합니다. 그런 다음, 히스토그램 bin을 모니터링할 수 있으며 이를 통해 병목 상태가 된 네트워킹 스레드 수를 알 수 있습니다. total_CPU 통계는 커널에서 패킷을 처리하는 데 소요되는 CPU 시간을 표시하는 데도 유용합니다.

4.2.0

total_cpu

총 vCPU 활용률입니다. 호스트에 있는 모든 VM의 CPU 활용률 합계입니다. 총 CPU는 서로 다른 스레드 그룹과 VM 간의 전체 CPU 사용량 분포를 보는 데 유용합니다.

4.2.0

모듈: fastpath

빠른 경로에는 향상된 데이터 경로 패킷 처리를 위한 FC(흐름 캐시) 및 ENS(고급 네트워크 스택) 데이터 경로 모듈이 포함됩니다. 이 데이터 경로 모듈은 NSX Central CLI에서 nsxt-fp로 알려져 있습니다.

통계 설명 도입된 릴리스

rx_bytes

포트에서 수신 방향으로 흐름 캐시 빠른 경로에서 수신된 바이트 수입니다.

4.2.0

rx_drops

포트에서 수신 방향으로 흐름 캐시 빠른 경로에서 삭제된 패킷 수입니다. 비 ENS 모드의 흐름 캐시에는 적용되지 않습니다.

4.2.0

rx_drops_sp

패킷이 흐름 캐시 빠른 경로에서 느린 경로로 전송될 때 수신 패킷 삭제 수입니다. 비 ENS 모드 및 표준 스위치 모드의 흐름 캐시에는 적용되지 않습니다.

4.2.0

rx_drops_uplink

업링크 포트에서 수신 방향으로 흐름 캐시 빠른 경로에서 삭제된 패킷 수입니다. 비 ENS 모드 및 표준 스위치 모드의 흐름 캐시에는 적용되지 않습니다.

4.2.0

rx_pkts

포트에서 수신 방향으로 흐름 캐시 빠른 경로에서 수신된 패킷 수입니다.

4.2.0

rx_pkts_sp

패킷이 흐름 캐시 빠른 경로에서 느린 경로로 전송될 때 수신 패킷 수입니다. 비 ENS 모드 및 표준 스위치 모드의 흐름 캐시에는 적용되지 않습니다.

4.2.0

rx_pkts_uplink

업링크 포트에서 수신 방향으로 흐름 캐시 빠른 경로에서 수신된 패킷 수입니다.

4.2.0

tx_bytes

포트로의 전송 방향으로 흐름 캐시 빠른 경로에서 전송된 바이트 수입니다.

4.2.0

tx_drops

포트로의 전송 방향으로 흐름 캐시 빠른 경로에서 삭제된 패킷 수입니다.

4.2.0

tx_drops_sp

패킷이 느린 경로에서 흐름 캐시 빠른 경로로 다시 삽입될 때 빠른 경로에서 전송 패킷 삭제 수입니다. 비 ENS 모드 및 표준 스위치 모드의 흐름 캐시에는 적용되지 않습니다.

4.2.0

tx_drops_uplink

업링크 포트로의 전송 방향으로 흐름 캐시 빠른 경로에서 삭제된 패킷 수입니다.

4.2.0

tx_pkts

포트로의 전송 방향으로 흐름 캐시 빠른 경로에서 전송된 패킷 수입니다.

4.2.0

tx_pkts_sp

패킷이 느린 경로에서 흐름 캐시 빠른 경로로 다시 삽입될 때 빠른 경로에서 전송된 패킷 수입니다. 표준 스위치 모드에는 적용되지 않습니다.

4.2.0

tx_pkts_uplink

업링크 포트에서 전송 방향으로 흐름 캐시 빠른 경로에서 전송된 패킷 수입니다.

4.2.0

모듈: switch_security

이 데이터 경로 모듈은 세그먼트로 전송되는 트래픽을 확인하고 VM에서 전송된 인증되지 않은 패킷을 삭제하여 상태 비저장 L2 및 L3 보안을 제공합니다. 이 표에서 Rx는 스위치"에서" 받은 패킷을 나타내고 Rx는 스위치"로" 보낸 패킷을 나타냅니다. 이 데이터 경로 모듈은 NSX Central CLI에서 nsxt-swsec로 알려져 있습니다.

통계 설명 도입된 릴리스

bpdu_filter_drops

BPDU 필터링에 의해 삭제된 패킷 수입니다. BPDU 필터가 사용하도록 설정되면 구성된 BPDU 대상 MAC 주소로의 트래픽이 삭제됩니다.

4.2.0

dhcp_client_block_ipv4_drops

DHCP 클라이언트 차단에 의해 삭제된 IPv4 DHCP 패킷 수입니다.

DHCP 클라이언트 차단은 DHCP 요청을 차단하여 VM이 DHCP IP 주소를 획득하지 못하게 합니다. 이 작업이 예상되지 않으면 세그먼트 또는 세그먼트 포트의 세그먼트 보안 프로파일에서 [DHCPv4 클라이언트 차단]을 비활성화할 수 있습니다. NSX Manager에서 이 작업을 수행하려면 네트워킹 > 세그먼트 > 세그먼트 프로파일 > 세그먼트 보안으로 이동합니다.

4.2.0

dhcp_client_block_ipv6_drops

DHCP 클라이언트 차단에 의해 삭제된 IPv6 DHCP 패킷 수입니다.

DHCP 클라이언트 차단은 DHCP 요청을 차단하여 VM이 DHCP IP 주소를 획득하지 못하게 합니다. 이 작업이 예상되지 않으면 세그먼트 또는 세그먼트 포트의 세그먼트 보안 프로파일에서 [DHCPv6 클라이언트 차단]을 비활성화할 수 있습니다. NSX Manager에서 이 작업을 수행하려면 네트워킹 > 세그먼트 > 세그먼트 프로파일 > 세그먼트 보안으로 이동합니다.

4.2.0

dhcp_client_validate_ipv4_drops

페이로드의 주소가 잘못되어 삭제된 IPv4 DHCP 패킷 수입니다.

네트워크의 악성 VM이 잘못된 DHCP 패킷을 보내려고 할 수 있습니다(예: 소스 IP 없음, 클라이언트 하드웨어 주소가 소스 MAC과 일치하지 않음 등).

4.2.0

dhcp_server_block_ipv4_drops

DHCP 서버 차단에 의해 삭제된 IPv4 DHCP 패킷 수입니다. DHCP 서버 차단은 DHCP 서버에서 DHCP 클라이언트로의 트래픽을 차단합니다.

이 작업이 예상되지 않으면 세그먼트 또는 세그먼트 포트의 세그먼트 보안 프로파일에서 [DHCP 서버 차단]을 사용하지 않도록 설정할 수 있습니다. NSX Manager에서 이 작업을 수행하려면 네트워킹 > 세그먼트 > 세그먼트 프로파일 > 세그먼트 보안으로 이동합니다.

4.2.0

dhcp_server_block_ipv6_drops

DHCP 서버 차단에 의해 삭제된 DHCPv6 패킷 수입니다.

DHCP 서버 차단은 DHCP 서버에서 DHCP 클라이언트로의 트래픽을 차단합니다. 이 작업이 예상되지 않으면 세그먼트 또는 세그먼트 포트의 세그먼트 보안 프로파일에서 [DHCPv6 서버 차단]을 사용하지 않도록 설정할 수 있습니다. NSX Manager에서 이 작업을 수행하려면 네트워킹 > 세그먼트 > 세그먼트 프로파일 > 세그먼트 보안으로 이동합니다.

4.2.0

nd_parse_errors

올바르게 구문 분석되지 않은 IPv6 ND(인접 항목 검색) 패킷 수입니다.

로그에서 오류 메시지를 확인합니다. 포트에서 패킷 캡처를 수행하여 패킷 형식이 잘못되었는지 여부를 식별합니다.

4.2.0

ra_guard_drops

RA 가드에 의해 삭제된 IPv6 라우터 보급 패킷 수입니다.

RA 가드 기능은 VM에서 전송된 IPv6 라우터 보급(ICMPv6 유형 134)을 필터링합니다. IPv6 배포에서 라우터는 호스트가 자동 구성에 사용하는 멀티캐스트 라우터 보급 메시지를 주기적으로 전송합니다.

RA 가드를 사용하여 네트워크 세그먼트에 연결하는 인증되지 않거나 잘못 구성된 라우터에서 생성된 불량 RA 메시지로부터 네트워크를 보호할 수 있습니다. NSX Manager UI의 RA 가드는 네트워킹 > 세그먼트 > 세그먼트 프로파일 > 세그먼트 보안 에서 구성할 수 있습니다.

4.2.0

rx_arp_pkts

VM에서 VDS가 수신한 ARP 패킷 수입니다.

4.2.0

rx_garp_pkts

VM에서 VDS 수신한 GARP(무상 ARP) 패킷 수입니다.

4.2.0

rx_ipv4_pkts

VM에서 VDS가 수신한 IPv4 패킷 수입니다.

4.2.0

rx_ipv6_pkts

VM에서 VDS가 수신한 IPv6 패킷 수입니다.

4.2.0

rx_na_pkts

VM에서 VDS가 수신한 IPv6 ND(인접 항목 검색) NA(인접 항목 보급) 패킷 수입니다.

4.2.0

rx_non_ip_pkts

VM에서 VDS가 수신한 비 IP 패킷 수입니다

4.2.0

rx_ns_pkts

VM에서 VDS가 수신한 IPv6 ND(인접 항목 검색) NS(인접 항목 요청) 패킷 수입니다.

4.2.0

rx_rate_limit_bcast_drops

브로드캐스트 속도 제한에 따라 삭제된 수신 패킷 수입니다.

속도 제한은 브로드캐스트 스톰과 같은 이벤트에서 네트워크 또는 VM을 보호하는 데 사용할 수 있습니다. NSX Manager UI의 속도 제한 값은 네트워킹 > 세그먼트 > 세그먼트 프로파일 > 세그먼트 보안 에서 구성할 수 있습니다.

4.2.0

rx_rate_limit_mcast_drops

멀티캐스트 속도 제한에 따라 삭제된 수신 패킷 수입니다.

속도 제한은 멀티캐스트 스톰과 같은 이벤트에서 네트워크 또는 VM을 보호하는 데 사용할 수 있습니다. NSX Manager UI의 속도 제한 값은 네트워킹 > 세그먼트 > 세그먼트 프로파일 > 세그먼트 보안 에서 구성할 수 있습니다.

4.2.0

rx_unsolicited_na_pkts

VM에서 VDS가 수신한 요청되지 않은 IPv6 ND(인접 항목 검색) NA(인접 항목 보급) 패킷 수입니다.

4.2.0

rxbcastpkts

VM에서 VDS가 수신한 브로드캐스트 패킷 수입니다.

4.2.0

rxmcastpkts

VM에서 VDS가 수신한 멀티캐스트 패킷 수입니다.

4.2.0

spoof_guard_arp_drops

SpoofGuard에 의해 삭제된 ARP 패킷 수입니다.

SpoofGuard는 MAC 및 IP 주소를 추적하여 악의적인 ARP 스푸핑 공격으로부터 보호합니다. 이 통계는 세그먼트 또는 세그먼트 포트에서 SpoofGuard를 사용하도록 설정한 경우에만 증가합니다. (네트워킹 > 세그먼트 > 세그먼트 프로파일 > SpoofGuard)

4.2.0

spoof_guard_ipv4_drops

SpoofGuard에 의해 삭제된 IPv4 패킷 수입니다.

SpoofGuard는 VM 이름 및 IP 주소의 참조 테이블을 유지하여 IP 스푸핑을 방지합니다. 이 통계는 세그먼트 또는 세그먼트 포트에서 SpoofGuard를 사용하도록 설정한 경우에만 증가합니다. (네트워킹 > 세그먼트 > 세그먼트 프로파일 > SpoofGuard)

4.2.0

spoof_guard_ipv6_drops

SpoofGuard에 의해 삭제된 IPv6 패킷 수입니다.

SpoofGuard는 VM 이름 및 IP 주소의 참조 테이블을 유지하여 IP 스푸핑을 방지합니다. 이 통계는 세그먼트 또는 세그먼트 포트에서 SpoofGuard를 사용하도록 설정한 경우에만 증가합니다. (네트워킹 > 세그먼트 > 세그먼트 프로파일 > SpoofGuard)

4.2.0

spoof_guard_nd_drops

SpoofGuard에 의해 삭제된 IPv6 ND(인접 항목 검색) 패킷 수입니다.

SpoofGuard는 주소가 VM의 주소와 일치하지 않는 ND 패킷을 필터링하여 ND 스푸핑으로부터 보호합니다. 이 통계는 세그먼트 또는 세그먼트 포트에서 SpoofGuard를 사용하도록 설정한 경우에만 증가합니다. (네트워킹 > 세그먼트 > 세그먼트 프로파일 > SpoofGuard)

4.2.0

spoof_guard_non_ip_drops

SpoofGuard에 의해 삭제된 비 IP 패킷 수입니다.

이 통계는 세그먼트 또는 세그먼트 포트에서 SpoofGuard를 사용하도록 설정한 경우에만 증가합니다. (네트워킹 > 세그먼트 > 세그먼트 프로파일 > SpoofGuard)

4.2.0

tx_arp_pkts

VDS가 VM으로 보낸 ARP 패킷 수입니다.

4.2.0

tx_ipv4_pkts

VDS가 VM으로 보낸 IPv4 패킷 수입니다.

4.2.0

tx_ipv6_pkts

VDS가 VM으로 보낸 IPv6 패킷 수입니다.

4.2.0

tx_non_ip_pkts

VDS가 VM으로 보낸 비 IP 패킷 수입니다.

4.2.0

tx_rate_limit_bcast_drops

브로드캐스트 속도 제한에 따라 삭제된 송신 패킷 수입니다.

속도 제한은 브로드캐스트 스톰과 같은 이벤트에서 네트워크 또는 VM을 보호하는 데 사용할 수 있습니다. NSX Manager UI의 속도 제한 값은 네트워킹 > 세그먼트 > 세그먼트 프로파일 > 세그먼트 보안 에서 구성할 수 있습니다.

4.2.0

tx_rate_limit_mcast_drops

멀티캐스트 속도 제한에 따라 삭제된 송신 패킷 수입니다.

속도 제한은 멀티캐스트 스톰과 같은 이벤트에서 네트워크 또는 VM을 보호하는 데 사용할 수 있습니다. NSX Manager UI의 속도 제한 값은 네트워킹 > 세그먼트 > 세그먼트 프로파일 > 세그먼트 보안 에서 구성할 수 있습니다.

4.2.0

txbcastpkts

VDS가 VM으로 보낸 브로드캐스트 패킷 수입니다.

4.2.0

txmcastpkts

VDS가 VM으로 보낸 멀티캐스트 패킷 수입니다.

4.2.0

모듈: overlay_datapath_l2

이 데이터 경로 모듈은 워크로드 연결을 담당합니다. 이 데이터 경로 모듈은 NSX Central CLI에서 nsxt-vdl2로 알려져 있습니다.

통계 설명 도입된 릴리스

arp_proxy_req_fail_drops

CCP에 IP-MAC 바인딩이 없어 ARP 제거 실패로 이어지는 경우 데이터 경로 기반 학습에 대한 업링크에서 다시 전송하지 못한 ARP 요청 수입니다.

0이 아닌 통계는 시스템에 패킷 버퍼 리소스가 부족하고 지속적인 증분을 심각한 오류로 처리해야 했음을 나타냅니다.

4.2.0

arp_proxy_req_suppress

IP-MAC 바인딩을 찾기 위해 CCP를 쿼리할 때 VDL2에 의해 표시되지 않는 ARP 요청 수입니다.

이러한 ARP 패킷은 CCP가 해당 바인딩을 모르는 경우에만 업링크에서 전송됩니다.

4.2.0

arp_proxy_resp

이 전송 노드의 각 ARP 제거 요청에 대한 CCP의 유효한 IP-MAC 바인딩 응답 수입니다.

4.2.0

arp_proxy_resp_drops

ARP 요청을 수행한 스위치 포트로 전송할 수 없는 CCP의 IP-MAC 바인딩 응답에 해당하는 ARP 응답 수입니다.

4.2.0

arp_proxy_resp_filtered

ARP 요청을 시작한 스위치 포트로 전송되지 않은 CCP의 IP-MAC 바인딩 응답을 기준으로 생성된 ARP 응답 수입니다.

이것은 Traceflow로 인해 ARP가 요청되었거나 ARP 요청을 시작한 포트가 전송 노드에 더 이상 없기 때문에 가능합니다.

4.2.0

arp_proxy_resp_unknown

이 전송 노드의 각 IP-MAC 요청에 대한 제어부의 알 수 없는 IP-MAC 바인딩 수입니다.

이 메시지를 수신하면 VDL2 모듈은 업링크에서 ARP 요청을 다시 전송하여 데이터 경로를 통해 IP-MAC 바인딩을 학습합니다.

4.2.0

leaf_rx

세그먼트(논리적 스위치)의 경우 워크로드 생성 패킷이 VDL2LeafInput(오버레이 L2) IOChain에서 성공적으로 수신되면 이 통계가 증가합니다. 이러한 패킷은 다른 리프 수신 삭제가 없는 경우 VDS로 전송됩니다.

4.2.0

leaf_rx_drops

다양한 이유로 인한 VDL2LeafInput의 패킷 삭제 수입니다.

삭제에 대한 구체적인 이유를 식별하려면 다른 리프 수신 삭제 이유를 참조하십시오.

4.2.0

leaf_rx_ref_port_not_found_drops

VDL2LeafInput 리프의 패킷 삭제 수입니다. 이 문제는 트렁크 포트가 세그먼트의 일부가 아닌 경우에 발생할 수 있습니다.

4.2.0

leaf_rx_system_err_drops

메모리 장애, 패킷 특성 업데이트 실패와 같은 다양한 시스템 오류로 인한 VDL2LeafInput의 패킷 삭제 수입니다.

이것은 일반적으로 ESXi 호스트의 리소스가 부족하다는 것을 의미합니다. 일부 VM을 다른 호스트로 이동하면 로드를 완화하는 데 도움이 될 수 있습니다.

4.2.0

leaf_tx

이 통계는 스위치 포트에 대한 VDL2LeafOutput(오버레이 L2) IOChain에 의해 패킷이 성공적으로 처리될 때 증가합니다.

4.2.0

leaf_tx_drops

다양한 이유로 인한 VDL2LeafOutput의 총 삭제 수입니다.

삭제에 대한 구체적인 이유를 식별하려면 다른 리프 전송 삭제 이유를 참조하십시오.

4.2.0

mac_tbl_lookup_flood

MAC 테이블 조회 실패로 인해 원격 VTEP로 플러드된 유니캐스트 패킷의 수입니다. 값이 크면 단방향 L2 흐름 또는 MAC 테이블 업데이트 문제가 있는 것입니다.

다음 명령을 사용하여 MAC 테이블이 호스트 전송 노드에서 가득 찼는지 확인합니다.

$ nsxcli -c "get segment mac-table"

필요한 경우 MAC 테이블 크기를 늘립니다.

4.2.0

mac_tbl_lookup_full

MAC 테이블이 이미 가득 차서 원격 VM으로의 트래픽에 대한 대상 MAC의 제어부 쿼리가 실패한 횟수입니다.

다음 명령을 사용하여 MAC 테이블이 호스트 전송 노드에서 가득 찼는지 확인합니다.

$ nsxcli -c "get segment mac-table"

필요한 경우 MAC 테이블 크기를 늘립니다.

4.2.0

mac_tbl_update_full

언더레이에서 수신된 패킷에 대한 MAC 학습 시 MAC 테이블 업데이트 실패 수입니다.

다음 명령을 사용하여 MAC 테이블이 호스트 전송 노드에서 가득 찼는지 확인합니다.

$ nsxcli -c "get segment mac-table"

필요한 경우 MAC 테이블 크기를 늘립니다.

4.2.0

mcast_proxy_rx_drops

다른 VTEP로 복제하는 동안 삭제된 MTEP 전송 노드의 업링크에서 수신된 BUM 패킷 수입니다.

4.2.0

mcast_proxy_tx_drops

업링크 출력에서 복제 후 삭제된 전송 노드의 워크로드에서 시작된 BUM 패킷 수입니다.

이 통계는 uplink_tx_invalid_state_drops가 증가하거나 메모리 부족과 같은 시스템 오류가 발생한 경우 증가합니다.

4.2.0

nd_proxy_req_fail_drops

CCP에 IP-MAC 바인딩이 없어 ND 제거 실패로 이어지는 경우 데이터 경로 기반 학습에 대한 업링크에서 다시 전송하지 못한 ND 요청 수입니다.

0이 아닌 통계는 시스템에 패킷 버퍼 리소스가 부족하고 지속적인 증분을 심각한 오류로 처리해야 했음을 나타냅니다.

4.2.0

nd_proxy_req_suppress

IP-MAC 바인딩을 찾기 위해 CCP를 쿼리할 때 VDL2에 의해 표시되지 않는 ND 요청 수입니다.

이러한 ND 패킷은 CCP가 해당 바인딩을 모르는 경우에만 업링크에서 전송됩니다.

4.2.0

nd_proxy_resp

이 전송 노드의 각 ND 제거 요청에 대한 CCP의 유효한 IP-MAC 바인딩 응답 수입니다.

이러한 ND 응답은 직접 CCP 응답의 결과이거나 전송 노드에서 이미 캐시된 ND 항목 때문일 수 있습니다.

4.2.0

nd_proxy_resp_drops

ND 요청을 시작한 스위치 포트로 전송할 수 없는 CCP의 IP-MAC 바인딩 응답에 해당하는 ND 응답 수입니다.

4.2.0

nd_proxy_resp_filtered

ND 요청을 시작한 스위치 포트로 전송되지 않은 CCP의 IP-MAC 바인딩 응답을 기준으로 생성된 ND 응답 수입니다.

이것은 Traceflow로 인해 ND가 요청되었거나 ND 요청을 시작한 포트가 전송 노드에 더 이상 없기 때문에 가능합니다.

4.2.0

nd_proxy_resp_unknown

이 전송 노드의 각 IPv6-MAC 요청에 대한 제어부의 알 수 없는 IPv6-MAC 바인딩 수입니다.

이 메시지를 수신하면 VDL2 모듈은 업링크에서 ND 패킷을 다시 전송하여 데이터 경로를 통해 IPv6-MAC 바인딩을 학습합니다.

4.2.0

nested_tn_mcast_proxy_diff_vlan_tx_drops

중첩된 전송 노드로 복제된 삭제된 BUM 패킷 수입니다.

중첩된 전송 노드와 이 전송 노드는 다른 전송 VLAN ID로 구성됩니다. 이 전송 노드의 VTEP VMK 인터페이스에서 VTEP GW IP에 연결할 수 있는지 확인합니다.

4.2.0

nested_tn_mcast_proxy_same_vlan_tx_drops

중첩된 전송 노드로 복제된 삭제된 BUM 패킷 수입니다.

중첩된 전송 노드와 이 전송 노드는 동일한 전송 VLAN ID로 구성됩니다.

4.2.0

uplink_rx

TOR 스위치로부터 업링크 포트에 수신되는 패킷 수입니다.

이러한 패킷은 업링크 Rx에서 삭제가 없을 때 VDS로 전송됩니다.

4.2.0

uplink_rx_drops

다양한 이유로 인한 VDL2UplinkInput의 패킷 삭제 수입니다.

삭제에 대한 구체적인 이유를 식별하려면 다른 업링크 수신 삭제 이유를 참조하십시오.

4.2.0

uplink_rx_filtered

피어 ESXi 전송 노드의 IGMP 보고서와 같은 이유로 VDL2 업링크에서 필터링된, TOR 스위치에서 전송된 패킷 수입니다.

4.2.0

uplink_rx_guest_vlan_drops

시스템 오류로 인해 내부 패킷에 대해 게스트 VLAN 태그 제거가 실패할 경우의 VDL2UplinkInput의 패킷 삭제 수입니다.

4.2.0

uplink_rx_invalid_encap_drops

잘못된 캡슐화 헤더로 인해 언더레이에서 업링크에 수신되고 삭제된 패킷 수입니다.

정확한 오류를 이해하려면 다음 명령을 실행하여 패킷 캡처를 수행하고 캡슐화 헤더(프로토콜 버전, 체크섬, 길이 등)를 확인합니다.

pktcap-uw --capture UplinkRcvKernel --uplink --ng -o uplink.pcap

4.2.0

uplink_rx_mcast_invalid_dr_uplink_drops

vdrPort가 이 업링크와 연결되지 않았기 때문에 VDL2 업링크 입력에서 발생한 IP 멀티캐스트 패킷 삭제 수입니다.

이 문제는 TOR 스위치가 전송 노드의 모든 업링크에서 멀티캐스트 트래픽을 플러딩할 때 발생할 수 있습니다.

다음 명령을 사용하여 vdrPort 및 업링크 연결을 확인한 다음, 연결되지 않은 업링크에서 삭제된 패킷이 수신되었는지 확인합니다.

nsxdp-cli vswitch instance list

4.2.0

uplink_rx_skip_mac_learn

수신 GENEVE 레이블을 알 수 없기 때문에 소스 외부 MAC를 학습할 수 없는 패킷 수입니다.

이 통계 값이 큰 경우 제어부에서의 전송 노드 원격 VTEP 업데이트가 누락된 것을 가리킬 수 있습니다.

다음 CLI 명령을 사용하여 전송 노드의 원격 VTEP 테이블을 확인합니다.

nsxcli -c "get global-vtep-table"

$ nsxcli -c "get segment vtep-table"

가능한 해결 방법은 다음 명령을 실행하여 전송 노드에서 로컬 제어부 에이전트(CfgAgent)를 다시 시작하여 전체 동기화를 강제로 적용하는 것입니다.

$ /etc/init.d/nsx-cfgagent restart

4.2.0

uplink_rx_system_err_drops

메모리 장애, 패킷 특성 업데이트 실패와 같은 다양한 시스템 오류로 인한 VDL2UplinkInput의 패킷 삭제 수입니다.

이것은 일반적으로 ESXi 호스트의 리소스가 부족하다는 것을 의미합니다. 일부 VM을 다른 호스트로 이동하면 로드를 완화하는 데 도움이 될 수 있습니다.

4.2.0

uplink_rx_wrong_dest_drops

패킷의 대상 IP가 호스트에 구성된 VTEP와 일치하지 않으므로 언더레이에서 수신되고 삭제된 패킷 수입니다.

4.2.0

uplink_tx

업링크 포트의 VDL2 IOChain에서 수신된, VDS에서 전송된 패킷 수입니다.

이러한 패킷은 업링크 Tx에서 삭제가 없을 때 언더레이 네트워크로 전송됩니다.

4.2.0

uplink_tx_drops

다양한 이유로 인한 VDL2UplinkOutput의 총 패킷 삭제 수입니다.

삭제에 대한 구체적인 이유를 식별하려면 다른 업링크 전송 삭제 이유를 참조하십시오.

4.2.0

uplink_tx_flood_rate_limit

속도가 제한된 업링크에서 플러드된 알 수 없는 유니캐스트 패킷 수입니다.

4.2.0

uplink_tx_ignore

VDL2 업링크 출력에서 필터링되고 언더레이로 전달되지 않은, VDS에서 전송된 패킷 수입니다.

예를 들어 패킷을 복제할 VTEP가 세그먼트에 없는 경우 BUM 패킷이 필터링됩니다.

4.2.0

uplink_tx_invalid_frame_drops

캡슐 헤더를 찾을 수 없거나 내부 프레임에 설정된 TSO를 수행할 수 없기 때문에 VDL2 업링크 출력에서 삭제된 패킷 수입니다. 이것은 큰 TCP 패킷 때문에 발생합니다.

4.2.0

uplink_tx_invalid_state_drops

잘못된 전송 VLAN 구성으로 인해 VDL2 업링크 출력에서 삭제된 패킷 수입니다. 이것은 전송 노드의 업링크 프로파일 연결이 잘못되었거나 게이트웨이 MAC가 확인되지 않았기 때문입니다.

다음 절차를 사용하여 이 전송 노드의 VTEP VMK 인터페이스에서 VTEP 게이트웨이 IP에 연결할 수 있는지 여부를 ESXi 노드에서 확인합니다.

  1. net-vdl2 -l 명령을 실행하여 게이트웨이 IP를 표시합니다.
  2. esxcfg-vmknic -l 명령을 실행하여 네트워크 스택 인스턴스 이름을 표시합니다.
  3. vmkping -I vmk10 -S 명령을 실행하여 VTEP 게이트웨이 IP를 ping합니다.
4.2.0

uplink_tx_nested_tn_repl_drops

잘못된 VTEP 연결로 인해 중첩된 전송 노드로 복제하는 동안 VDL2 업링크 출력에서 삭제된 BUM 패킷 수입니다.

다음 명령을 사용하여 소스 스위치 포트에서 업링크로의 연결로 확인합니다.

nsxdp-cli vswitch instance list

4.2.0

uplink_tx_non_unicast

원격 VTEP에 복제된 브로드캐스트 또는 멀티캐스트 패킷 수입니다. 속도가 크면 전송 노드가 이러한 패킷을 원격 VTEP에 복제해야 하므로 업링크 계층 전송 대기열에 스트레스가 발생할 수 있습니다.

4.2.0

uplink_tx_teaming_drops

트래픽을 시작한 스위치 포트와 연결된 VTEP가 사용 가능하지 않기 때문에 VDL2UplinkOutput에서 삭제된 패킷 수입니다.

다음 명령을 사용하여 워크로드 스위치 포트의 업링크 연결 및 팀 구성 상태를 확인합니다.

nsxdp-cli vswitch instance list

4.2.0

uplink_tx_ucast_flood

업링크 출력에서 플러드된 알 수 없는 유니캐스트 패킷 수입니다. 값이 크면 단방향 L2 흐름 또는 MAC 테이블 업데이트 문제가 있는 것입니다.

단방향 흐름이 필요한지 또는 MAC 테이블이 가득 찼는지를 확인합니다.

4.2.0

모듈: datapath_l3

VDR(가상 분산 라우팅)으로도 알려진 이 데이터 경로 모듈은 모든 ESXi 호스트에서 패킷을 라우팅합니다. 이 데이터 경로 모듈은 NSX Central CLI에서 nsxt-vdrb로 알려져 있습니다.

통계 설명 도입된 릴리스

arp_hold_pkt_drops

분산 라우터가 IPv4 ARP 항목을 확인하는 중이면 이 ARP 항목을 사용하는 패킷이 대기열에 추가됩니다.

대기열에 포함할 수 있는 패킷 수는 논리적 라우터 인스턴스별로 제한됩니다. 한도에 도달하면 가장 오래된 패킷은 끝부터 삭제되고 이 통계는 삭제된 이전 패킷 수만큼 증가합니다.

4.2.0

arpfaildrops(lta)

ARP 실패로 인한 IPv4 패킷 삭제입니다.

4.2.0

consumed_icmpv4

지정된 세그먼트에 해당하는 분산 라우터의 논리적 라우팅 포트 IP 주소로 향하는 IPv4 패킷 수입니다.

소스 서브넷에서 패킷을 라우팅한 후 통계가 늘어나게 됩니다.

4.2.0

consumed_icmpv6

지정된 세그먼트에 해당하는 분산 라우터의 논리적 라우팅 포트 IP 주소로 향하는 IPv6 패킷 수입니다. 소스 서브넷에서 패킷을 라우팅한 후 통계가 늘어나게 됩니다.

4.2.0

drop_route_ipv4_drops

"삭제 경로"와 일치하는 IPv4 패킷 수입니다. 삭제 경로는 일치하는 패킷을 의도적으로 삭제하도록 구성된 경로입니다.

필요한 경우 ESXi 호스트의 경로를 확인하고 관리부에서 구성을 확인합니다.

4.2.0

drop_route_ipv6_drops

"삭제 경로"와 일치하는 IPv6 패킷 수입니다.

삭제 경로는 일치하는 패킷을 의도적으로 삭제하도록 구성된 경로입니다. 필요한 경우 ESXi 호스트의 경로를 확인하고 관리부에서 구성을 확인합니다.

4.2.0

ndfaildrops(lta)

인접 항목 검색 실패로 인한 IPv6 패킷 삭제입니다.

4.2.0

no_nbr_ipv4

분산 라우터의 ARP 테이블에서 IPv4 ARP 항목을 찾을 수 없습니다.

4.2.0

no_nbr_ipv6

분산 라우터의 인접 항목 테이블에서 IPv6 인접 항목을 찾을 수 없습니다.

4.2.0

no_route_ipv4_drops

각 논리적 라우터 인스턴스에는 경로 조회를 위한 자체 라우팅 테이블이 있습니다.

이 통계는 해당 논리적 라우터 인스턴스에 대해 일치하는 경로가 존재하지 않기 때문에 IPv4 패킷이 삭제될 때 증가합니다.

4.2.0

no_route_ipv6_drops

각 논리적 라우터 인스턴스에는 경로 조회를 위한 자체 라우팅 테이블이 있습니다.

이 통계는 해당 논리적 라우터 인스턴스에 대해 일치하는 경로가 존재하지 않기 때문에 IPv6 패킷이 삭제될 때 증가합니다.

4.2.0

ns_hold_pkt_drops

분산 라우터가 IPv6 인접 항목을 확인하는 중이면 이 인접 항목을 사용하는 패킷이 대기열에 추가됩니다.

대기열에 포함할 수 있는 패킷 수는 논리적 라우터 인스턴스별로 제한됩니다. 한도에 도달하면 가장 오래된 패킷은 끝부터 삭제되고 이 통계는 삭제된 이전 패킷 수만큼 증가합니다.

4.2.0

pkt_attr_error_drops

특성 작업에 실패한 패킷 수입니다. NSX는 패킷 특성을 사용하여 패킷 처리를 용이하게 합니다.

패킷 특성을 할당, 설정 또는 설정 해제할 수 있습니다. 일반적인 경우 작업이 실패하지 않습니다.

이 통계가 증분되는 몇 가지 가능한 이유는 다음과 같습니다.
  • 패킷 특성 힙이 모두 고갈되었습니다.
  • 패킷 특성이 손상되었습니다.
4.2.0

relayed_dhcpv4_req

릴레이된 DHCPv4 요청입니다.

4.2.0

relayed_dhcpv4_rsp

릴레이된 DHCPv4 응답입니다.

4.2.0

relayed_dhcpv6_req

릴레이된 DHCPv6 요청입니다.

4.2.0

relayed_dhcpv6_rsp

릴레이된 DHCPv6 응답입니다.

4.2.0

rpf_ipv4_drops

역방향 경로 전달 확인 실패로 인해 삭제된 IPv4 패킷 수입니다.

분산 라우터는 패킷의 소스 IP가 유효한(연결 가능) 소스에서 들어오는지 확인할 수 있으며 구성에 따라 패킷을 삭제할 수 있습니다.

NSX Manager UI에서 이 설정을 변경할 수 있습니다.

NSX Manager UI에서 현재 구성을 확인하려면 다음 단계를 수행합니다.
  1. 네트워킹 > 세그먼트로 이동합니다.
  2. 관심 있는 세그먼트를 편집합니다.
  3. 추가 설정으로 이동합니다.
  4. URPF 모드를 확인합니다.
4.2.0

rpf_ipv6_drops

역방향 경로 전달 확인 실패로 인해 삭제된 IPv6 패킷 수입니다.

분산 라우터는 패킷의 소스 IP가 유효한(연결 가능) 소스에서 들어오는지 확인할 수 있으며 구성에 따라 패킷을 삭제할 수 있습니다.

NSX Manager UI에서 이 설정을 변경할 수 있습니다.

NSX Manager UI에서 현재 구성을 확인하려면 다음 단계를 수행합니다.
  1. 네트워킹 > 세그먼트로 이동합니다.
  2. 관심 있는 세그먼트를 편집합니다.
  3. 추가 설정으로 이동합니다.
  4. URPF 모드를 확인합니다.
4.2.0

rx_arp_req

지정된 세그먼트에 해당하는 분산 라우터의 논리적 라우터 포트에서 수신된 ARP 요청 패킷 수입니다.

4.2.0

rx_ipv4

지정된 세그먼트에 해당하는 분산 라우터의 논리적 라우팅 포트로 들어오는 IPv4 패킷 수입니다.

4.2.0

rx_ipv6

지정된 세그먼트에 해당하는 분산 라우터의 논리적 라우팅 포트로 들어오는 IPv6 패킷 수입니다.

4.2.0

rx_pkt_parsing_error_drops

수신된 분산 라우터 패킷에 대한 패킷 구문 분석 실패 수입니다.

분산 라우터는 수신된 각 패킷에 대해 패킷 구문 분석 작업을 수행하여 메타데이터 및 헤더를 읽습니다.

이 통계에 대해 높은 수가 표시될 경우 가능한 한 가지 이유는 패킷이 올바르게 구성되지 않았기 때문일 수 있습니다. 트래픽 장애가 있는지 모니터링하고 패킷 캡처를 수행하여 추가적으로 디버깅합니다.

4.2.0

rxgarp(lta)

분산 라우터에서 무상 GARP가 수신되었습니다.

4.2.0

ttl_ipv4_drops

낮은 TTL(Time-To-Live)로 인해 삭제된 IPv4 패킷 수입니다. 각 논리적 라우터 인스턴스는 TTL 값에서 1을 추론합니다.

패킷 캡처를 사용하여 TTL 값이 낮은 패킷을 확인합니다. TTL이 소스에서 상당히 큰 경우 드물지만 경로 또는 패킷에 루핑되는 라우팅 홉이 너무 많기 때문일 수 있습니다.

4.2.0

ttl_ipv6_drops

낮은 TTL(Time-To-Live)로 인해 삭제된 IPv6 패킷 수입니다. 각 논리적 라우터 인스턴스는 TTL 값에서 1을 추론합니다.

패킷 캡처를 사용하여 TTL 값이 낮은 패킷을 확인합니다. TTL이 소스에서 상당히 큰 경우 드물지만 경로 또는 패킷에 루핑되는 라우팅 홉이 너무 많기 때문일 수 있습니다.

4.2.0

tx_arp_rsp

지정된 세그먼트에 해당하는 분산 라우터의 논리적 라우터 포트에서 전송된 ARP 요청 패킷 수입니다.

4.2.0

tx_dispatch_queue_too_long_drops

전송 디스패치 대기열에서 끝부터 삭제되는 패킷 수입니다.

전송 디스패치 대기열에는 ARP 패킷, NS 검색 등과 같은 분산 라우터 자체 생성 패킷이 포함됩니다.

각 패킷은 패킷 처리 시스템 리소스를 사용합니다. 너무 많은 패킷이 대기열에 있는 경우 대기열 크기를 제한하고 패킷 끝부터 삭제합니다.

4.2.0

tx_ipv4

지정된 세그먼트에 해당하는 분산 라우터의 논리적 라우터 포트에서 나가는 IPv4 패킷 수입니다.

4.2.0

tx_ipv6

지정된 세그먼트에 해당하는 분산 라우터의 논리적 라우터 포트에서 나가는 IPv6 패킷 수입니다.

4.2.0

모듈: distributed_firewall

이 데이터 경로 모듈은 분산 방화벽 기능을 제공합니다. 이 표에서 Rx는 스위치 포트에서 수신된(VM에서 전송) 패킷을 나타내고, Tx는 스위치 포트에서 전송된(VM에서 수신) 패킷을 나타냅니다. 이 데이터 경로 모듈은 NSX Central CLI에서 nsxt-vsip로 알려져 있습니다.

통계 설명 도입된 릴리스

alg_handler_drops

ALG 처리로 인해 삭제된 패킷 수입니다. ALG 상태 디코더 패킷 처리 오류를 추적합니다.

4.2.0

bad_offset_drops

잘못된 오프셋으로 인해 삭제된 패킷 수입니다.

4.2.0

bad_timestamp_drops

잘못된 타임 스탬프로 인해 삭제된 패킷 수입니다. 예를 들어 이전 타임 스탬프를 포함하는 ACK 패킷은 예기치 않은 타임 스탬프가 있는 수신된 패킷을 삭제해야 합니다.

4.2.0

congestion_drops

정체로 인해 삭제된 패킷 수입니다. 예를 들어 네트워크 인터페이스의 대기열에서 정체가 감지되었습니다.

4.2.0

fragment_drops

조각화된 패킷의 재조립 실패로 인해 삭제된 패킷 수입니다.

조각화는 패킷을 더 작은 조각으로 나누므로 결과 조각은 원래 패킷 크기보다 MTU가 더 작은 링크를 통과할 수 있습니다.

4.2.0

handshake_error_drops

TCP 3방향 핸드셰이크 오류로 인해 삭제된 패킷 수입니다.

이 문제는 발신자와 수신자가 모두 3방향 핸드셰이크 중에 전송된 SYN에 있을 때 발생할 수 있습니다. 이 삭제 이유는 TCP 상태 불일치에 속합니다.

4.2.0

icmp_err_pkt_drops

추가 ICMP 오류 응답 패킷으로 인해 삭제된 패킷 수입니다.

이 통계는 삭제된 추가 ICMP 오류 응답 패킷을 추적합니다.

4.2.0

icmp_error_drops

TCP 패킷에 대한 ICMP 오류 응답의 시퀀스 실패로 인해 삭제된 패킷 수입니다.

시퀀스 번호가 예상 범위를 벗어나면 삭제됩니다.

4.2.0

icmp_flood_overlimit_drops

ICMP 플러드 제한 초과로 인해 삭제된 패킷 수입니다. 커널 인터페이스에 ICMP 플러드 제한이 구성되어 있습니다.

4.2.0

ignored_offloaded_fpdrops

하드웨어로 오프로드된 흐름으로 인해 삭제된 패킷 수입니다.

하드웨어로 오프로드된 흐름은 smartNIC의 하드웨어 패킷 파이프라인에 의해 연결 추적이 수행되고 있음을 의미합니다. 이 경우 소프트웨어에서 패킷을 가져오는 것은 예기치 않은 작업입니다. 소프트웨어에 최신 CT 정보(예: 상태, 시퀀스 번호)가 없으므로 소프트웨어에서 패킷을 처리할 수 없습니다. 따라서 트래픽이 삭제됩니다.

이 문제는 하드웨어로 흐름을 오프로드하는 데 다소 시간이 걸리고 VSIP에 전달하기 위해 이미 대기된 패킷과 경합할 수 있기 때문에 발생할 수 있습니다. 이 삭제 이유는 ENS 빠른 경로 패킷에 대한 것입니다.

4.2.0

ignored_offloaded_spdrops

하드웨어로 오프로드된 흐름으로 인해 삭제된 패킷 수입니다.

하드웨어로 오프로드된 흐름은 smartNIC의 하드웨어 패킷 파이프라인에 의해 연결 추적이 수행되고 있음을 의미합니다. 이 경우 소프트웨어에서 패킷을 가져오는 것은 예기치 않은 작업입니다. 소프트웨어에 최신 CT 정보(예: 상태, 시퀀스 번호)가 없으므로 소프트웨어에서 패킷을 처리할 수 없습니다. 따라서 트래픽이 삭제됩니다.

이 문제는 하드웨어로 흐름을 오프로드하는 데 다소 시간이 걸리고 VSIP에 전달하기 위해 이미 대기된 패킷과 경합할 수 있기 때문에 발생할 수 있습니다. 이 삭제 이유는 이 컨텍스트에서 느린 경로라고도 하는 IOChain 코드 경로에 대한 것입니다.

4.2.0

ip_option_drops

IP 옵션이 허용되지 않기 때문에 삭제된 패킷 수입니다.

방화벽 규칙의 allow_opts가 설정되지 않으면 해당 규칙을 적중하는 패킷이 삭제됩니다.

4.2.0

l7_alert_drops

L7 규칙이 있지만 일치하는 패킷이 없습니다. 경고가 생성됩니다.

4.2.0

l7_attr_error_drops

상태 특성을 설정하지 못해 삭제된 패킷 수입니다.

이 문제는 attrconn L7 특성 할당 또는 수정이 실패하고 이로 인해 삭제가 수행될 때 발생합니다.

4.2.0

l7_pending_misc

이 통계는 현재 DPI에 의해 구문 분석되고 있어서 규칙 일치가 보류 중인 패킷을 추적합니다.

일단 L7 규칙 일치가 발생하면 패킷에 대해 해당 규칙 작업이 수행됩니다.

4.2.0

lb_reject_drops

이 통계는 로드 밸런서에서 거부된 패킷으로 인한 삭제를 추적합니다.

로드 밸런서 가상 서버와 일치하지만 풀 멤버가 선택되지 않은 경우 패킷이 삭제됩니다.

4.2.0

match_drop_rule_rx_drops

삭제 또는 거부 분산 방화벽 규칙에 적중하여 삭제된 수신 패킷 수입니다.

4.2.0

match_drop_rule_tx_drops

삭제 또는 거부 분산 방화벽 규칙에 적중하여 삭제된 전송 패킷 수입니다.

4.2.0

memory_drops

메모리 부족으로 인해 삭제된 패킷 수입니다. 이것은 용량 수준 오류입니다.

4.2.0

normalize_drops

잘못된 형식의 패킷으로 인해 삭제된 패킷 수입니다. IP 버전 불일치, TCP 헤더 오프셋과 패킷 설명 총 길이의 불일치를 예로 들 수 있습니다.

4.2.0

other_flood_overlimit_drops

다른 프로토콜 플러드 제한 초과로 인해 삭제된 패킷 수입니다. 다른 프로토콜에 대해 커널 인터페이스에 구성된 플러드 제한이 있습니다.

4.2.0

pkts_frag_queued_v4_misc

패킷 조각화 중에 패킷 조각이 조각 대기열에 추가됩니다. 이러한 패킷 조각이 반드시 삭제되는 것은 아닙니다. 패킷 재조립에 성공하면 조각화된 패킷이 삭제되지 않는 것을 의미합니다.

이 통계는 조각 대기열에 추가된 IPv4 패킷을 추적합니다.

4.2.0

pkts_frag_queued_v6_misc

패킷 조각화 중에 패킷 조각이 조각 대기열에 추가됩니다. 이러한 패킷 조각이 반드시 삭제되는 것은 아닙니다. 패킷 재조립에 성공하면 조각화된 패킷이 삭제되지 않는 것을 의미합니다.

이 통계는 조각 대기열에 추가된 IPv6 패킷을 추적합니다.

4.2.0

proto_cksum_drops

잘못된 프로토콜 체크섬으로 인해 삭제된 패킷 수입니다. 이 문제는 패킷의 체크섬 유효성 검사가 실패할 때 발생합니다.

4.2.0

rx_ipv4_drop_pkts

수신된 IPv4 삭제 패킷 수입니다.

4.2.0

rx_ipv4_pass_pkts

수신된 IPv4 전달 패킷 수입니다.

4.2.0

rx_ipv4_reject_pkts

수신된 IPv4 거부 패킷 수입니다.

4.2.0

rx_ipv6_drop_pkts

수신된 IPv6 삭제 패킷 수입니다.

4.2.0

rx_ipv6_pass_pkts

수신된 IPv6 전달 패킷 수입니다.

4.2.0

rx_ipv6_reject_pkts

수신된 IPv6 거부 패킷 수입니다.

4.2.0

rx_l2_drop_pkts

수신된 계층 2 삭제 패킷 수입니다.

4.2.0

seqno_bad_ack_drops

TCP 확인이 둘 이상의 기간을 지나쳤기 때문에 발생하는 삭제된 패킷 수입니다.

이 삭제 이유는 TCP 상태 불일치에 속합니다.

4.2.0

seqno_gt_max_ack_drops

TCP 시퀀스 번호가 최대 ACK 수보다 크기 때문에 삭제된 패킷 수입니다.

이 삭제 이유는 TCP 상태 불일치에 속합니다.

4.2.0

seqno_lt_minack_drops

TCP 시퀀스 번호가 최소 ACK 번호보다 작기 때문에 삭제된 패킷 수입니다.

이 삭제 이유는 TCP 상태 불일치에 속합니다.

4.2.0

seqno_old_ack_drops

TCP 확인이 둘 이상의 패킷 조각 이전으로 돌아왔기 때문에 발생하는 삭제된 패킷 수입니다.

이 삭제 이유는 TCP 상태 불일치에 속합니다.

4.2.0

seqno_old_retrans_drops

TCP 재전송이 둘 이상의 기간 이전이므로 삭제된 패킷 수입니다.

이 삭제 이유는 TCP 상태 불일치에 속합니다.

4.2.0

seqno_outside_window_drops

TCP 시퀀스 번호가 기간을 벗어나기 때문에 삭제된 패킷 수입니다.

이 삭제 이유는 TCP 상태 불일치에 속합니다.

4.2.0

short_drops

삭제된 짧은 패킷 수입니다.

짧은 패킷은 잘못된 길이를 가진 패킷(예: 잘못된 형식의 ip_len 값이 있는 패킷)입니다.

4.2.0

spoof_guard_drops

SpoofGuard 검사로 인해 삭제된 패킷 수입니다.

SpoofGuard는 작업 환경의 가상 시스템이 트래픽을 끝낼 권한이 없는 IP 주소를 사용하여 트래픽을 전송하지 못하게 하도록 설계된 도구입니다.

4.2.0

src_limit_misc

소스 제한을 적중하는 패킷 수입니다.

이것은 방화벽 패킷 처리와 관련이 있습니다. 이 문제는 제한에 도달하여 RB(Red-Black) 트리에서 소스 노드를 삽입하지 못하여 발생합니다.

4.2.0

state_insert_drops

상태 삽입 실패로 인해 삭제된 패킷 수입니다. 이 문제는 중복된 상태 삽입으로 인해 발생합니다.

4.2.0

state_limit_drops

최대 상태 제한에 도달하여 삭제된 패킷 수입니다.

예를 들어 TCP 상태 수가 제한보다 높은 경우 삭제됩니다.

4.2.0

state_mismatch_drops

상태 불일치로 인해 삭제된 패킷 수입니다.

삭제의 이유에는 STRICTNOSYN, HANDSHAKE_SYNSENT, SEQ_GT_SEQHI 등의 여러 가지가 있습니다.

4.2.0

strict_no_syn_drops

syn이 없는 strict 적용 모드로 인해 삭제된 패킷 수입니다. SYN 패킷은 strict 모드로 표시되어야 합니다.

4.2.0

syn_expected_drops

패킷이 로드 밸런서 가상 서버와 일치하지만 SYN 패킷이 아닙니다. 따라서 시스템에서 해당 상태를 생성해서는 안 됩니다. 이에 따라 패킷이 삭제됩니다. 이 통계는 이 삭제를 추적합니다.

4.2.0

syn_proxy_drops

synproxy로 인해 삭제된 패킷 수입니다. 이것은 SYN FLOOD와 같은 공격으로부터 TCP 서버를 보호하기 위한 것입니다.

4.2.0

tcp_flood_overlimit_drops

TCP 플러드 제한 초과로 인해 삭제된 패킷 수입니다. 커널 인터페이스에 TCP 플러드 제한이 구성되어 있습니다.

4.2.0

tx_ipv4_drop_pkts

전송된 IPv4 삭제 패킷 수입니다.

4.2.0

tx_ipv4_pass_pkts

전송된 IPv4 전달 패킷 수입니다.

4.2.0

tx_ipv4_reject_pkts

전송된 IPv4 거부 패킷 수입니다.

4.2.0

tx_ipv6_drop_pkts

전송된 IPv6 삭제 패킷 수입니다.

4.2.0

tx_ipv6_pass_pkts

전송된 IPv6 전달 패킷 수입니다.

4.2.0

tx_ipv6_reject_pkts

전송된 IPv6 거부 패킷 수입니다.

4.2.0

tx_l2_drop_pkts

전송된 계층 2 삭제 패킷 수입니다.

4.2.0

udp_flood_overlimit_drops

UDP 플러드 제한 초과로 인해 삭제된 패킷 수입니다. 커널 인터페이스에 UDP 플러드 제한이 구성되어 있습니다.

4.2.0

모듈: virtual_switch

이 계층 2 데이터 경로 모듈은 스위칭 기능을 제공합니다. 이 모듈은 인터페이스가 패킷을 수신하는 VLAN 및 VNI를 기준으로 브로드캐스트 도메인 내에서 패킷을 전달합니다. 이 표에서 Rx는 스위치"로" 보낸 패킷을 나타내고 Tx는 스위치"에서" 받은 패킷을 나타냅니다. Mcast는 멀티캐스트 패킷을 나타냅니다. 이 데이터 경로 모듈은 NSX Central CLI에서 nsxt-vswitch로 알려져 있습니다.

통계 설명 도입된 릴리스

forged_transmit_rx_drops

패킷의 소스 MAC가 가상 시스템 어댑터의 MAC과 다르기 때문에 위조 삭제로서 삭제된 패킷 수입니다.

세그먼트에서 위조 전송 또는 MAC 학습을 사용하지 않도록 설정하면 이러한 삭제가 발생합니다. 세그먼트에서 MAC 학습 또는 위조 전송을 사용하도록 설정하면 문제가 완화됩니다.

4.2.0

unknown_unicast_rx_pkts

동일한 브로드캐스트 도메인의 다른 포트로 플러드되고 vSwitch에서 수신된 알 수 없는 유니캐스트 패킷 수입니다.

이 통계는 패킷이 MAC 학습 지원 세그먼트 또는 싱크 포트가 있을 때 플러드된 알 수 없는 유니캐스트일 경우 증가합니다. 패킷의 대상 MAC 주소를 vSwitch MAC 주소 테이블에서 찾을 수 없는 경우 알 수 없는 유니캐스트 플러딩이 발생합니다.

이 통계는 MAC 학습이 있을 때 대상 MAC이 MAC 주소 테이블에서 수명 초과되면 증가합니다.

4.2.0

unknown_unicast_rx_uplink_pkts

vSwitch에 의해 동일한 브로드캐스트 도메인의 다른 포트로 플러드된 알 수 없는 유니캐스트인 하나 이상의 업링크에서 vSwitch로 수신된 패킷 수입니다.

이 통계는 패킷이 MAC 학습 지원 세그먼트 또는 싱크 포트가 있을 때 플러드된 알 수 없는 유니캐스트일 경우 증가합니다. 패킷의 대상 MAC 주소를 vSwitch MAC 주소 테이블에서 찾을 수 없는 경우 알 수 없는 유니캐스트 플러딩이 발생합니다.

이 통계는 MAC 학습이 있을 때 대상 MAC이 MAC 주소 테이블에서 수명 초과되면 증가합니다.

4.2.0

unknown_unicast_tx_pkts

vSwitch에 의해 동일한 브로드캐스트 도메인의 다른 포트로 플러드된 알 수 없는 유니캐스트 패킷 수입니다.

이 통계는 패킷이 MAC 학습 지원 세그먼트 또는 싱크 포트가 있을 때 플러드된 알 수 없는 유니캐스트일 경우 증가합니다. 패킷의 대상 MAC 주소를 vSwitch MAC 주소 테이블에서 찾을 수 없는 경우 알 수 없는 유니캐스트 플러딩이 발생합니다.

이 통계는 MAC 학습이 있을 때 대상 MAC이 MAC 주소 테이블에서 수명 초과되면 증가합니다.

4.2.0

unknown_unicast_tx_uplink_pkts

vSwitch에서 하나 이상의 업링크로 플러드된 알 수 없는 유니캐스트 패킷의 수입니다.

이 통계는 패킷이 MAC 학습 지원 세그먼트 또는 싱크 포트가 있을 때 플러드된 알 수 없는 유니캐스트일 경우 증가합니다. 패킷의 대상 MAC 주소를 vSwitch MAC 주소 테이블에서 찾을 수 없는 경우 알 수 없는 유니캐스트 플러딩이 발생합니다.

이 통계는 MAC 학습이 있을 때 대상 MAC이 MAC 주소 테이블에서 수명 초과되면 증가합니다.

4.2.0

vlan_tag_mismatch_rx

VLAN 태그 불일치로 인해 삭제된 유니캐스트 및 브로드캐스트 패킷 수입니다.

이러한 삭제는 세그먼트의 VLAN 정책에 따라 패킷의 VLAN 태그가 허용되지 않을 때 발생합니다. 세그먼트의 VLAN 정책을 수정하거나 허용된 VLAN 태그를 사용하여 패킷을 전송하면 문제가 완화될 수 있습니다.

4.2.0

vlan_tag_mismatch_rx_mcast

VLAN 태그 불일치로 인해 삭제된 멀티캐스트 패킷 수입니다.

이러한 삭제는 세그먼트의 VLAN 정책에 따라 패킷의 VLAN 태그가 허용되지 않을 때 발생합니다. 세그먼트의 VLAN 정책을 수정하거나 허용된 VLAN 태그를 사용하여 패킷을 전송하면 문제가 완화될 수 있습니다.

4.2.0

vlan_tag_mismatch_tx

VLAN 태그 불일치로 인해 삭제된 유니캐스트 패킷 수입니다.

호스트 스위치는 패킷의 대상 주소를 기준으로 조회 테이블에서 항목을 찾습니다. 포트 외부로 패킷을 전달하려고 할 때 이러한 삭제는 세그먼트의 VLAN 정책에 따라 패킷의 VLAN 태그가 허용되지 않으면 발생합니다. 세그먼트의 VLAN 정책을 수정하거나 허용된 VLAN 태그를 사용하여 패킷을 전송하면 문제가 완화될 수 있습니다.

4.2.0

vlan_tag_mismatch_tx_mcast

VLAN 태그 불일치로 인해 삭제된 멀티캐스트 패킷 수입니다.

호스트 스위치는 패킷의 대상 주소를 기준으로 조회 테이블에서 항목을 찾습니다. 포트 외부로 패킷을 전달하려고 할 때 이러한 삭제는 세그먼트의 VLAN 정책에 따라 패킷의 VLAN 태그가 허용되지 않으면 발생합니다. 세그먼트의 VLAN 정책을 수정하거나 허용된 VLAN 태그를 사용하여 패킷을 전송하면 문제가 완화될 수 있습니다.

4.2.0

vni_tag_mismatch_tx

VNI 태그 불일치로 인해 삭제된 유니캐스트 패킷 수입니다.

호스트 스위치는 패킷의 대상 주소를 기준으로 조회 테이블에서 항목을 찾습니다. 포트 외부로 패킷을 전달하려고 할 때 이러한 삭제는 세그먼트의 VNI 정책에 따라 패킷의 VNI 태그가 허용되지 않으면 발생합니다. 대상 VM을 이 오버레이 세그먼트로 이동하면 문제가 해결될 수 있습니다.

4.2.0

vni_tag_mismatch_tx_mcast

VNI 태그 불일치로 인해 삭제된 멀티캐스트 패킷 수입니다.

호스트 스위치는 패킷의 대상 주소를 기준으로 조회 테이블에서 항목을 찾습니다. 포트 외부로 패킷을 전달하려고 할 때 이러한 삭제는 세그먼트의 VNI 정책에 따라 패킷의 VNI 태그가 허용되지 않으면 발생합니다. 대상 VM을 이 오버레이 세그먼트로 이동하면 문제가 해결될 수 있습니다.

4.2.0