Questa documentazione di riferimento descrive le varie statistiche raccolte dai nodi di trasporto host ESXi nella distribuzione di NSX.

La prima sezione di questo documento descrive le statistiche del nodo di trasporto host visibili nell'interfaccia utente di NSX Manager.

Le sezioni rimanenti di questo documento descrivono le statistiche raccolte dai vari moduli del percorso dati in esecuzione nei nodi di trasporto host ESXi. Per visualizzare queste statistiche, è necessario utilizzare le API di NSX o la CLI centrale NSX. La colonna Statistiche in queste sezioni fa riferimento al nome della statistica come visualizzato nell'output dell'API. Per ulteriori informazioni sul flusso di lavoro dell'API per la visualizzazione delle statistiche del nodo di trasporto host, vedere Monitoraggio delle statistiche dei nodi di trasporto host NSX tramite API.

Scheda Statistiche percorso dati

In questa scheda vengono visualizzati i valori aggregati delle statistiche per un nodo di trasporto host nell'interfaccia utente di NSX Manager.

Statistica Descrizione Versione introdotta

Pacchetti broadcast ricevuti

Frequenza di pacchetti broadcast ricevuti dal VDS dalla macchina virtuale. Questa statistica viene mappata internamente alla statistica - rxbcastpkts.

4.2.0

Pacchetti broadcast trasmessi

Frequenza di pacchetti di broadcast inviati dal VDS alla macchina virtuale. Questa statistica viene mappata internamente alla statistica - txbcastpkts.

4.2.0

Eliminazione dei pacchetti di limitazione della velocità di trasmissione

Numero di pacchetti in ingresso o in uscita eliminati in base ai limiti di velocità di trasmissione.

I limiti di velocità sono utilizzati per proteggere la rete o le macchine virtuali da eventi come tempeste di trasmissioni. È possibile configurare i valori dei limiti di velocità nell'interfaccia utente di NSX Manager in Rete > Segmenti > Profilo segmento > Sicurezza segmento.

Questa statistica viene mappata internamente a queste statistiche dettagliate: rx_rate_limit_bcast_drops, rx_rate_limit_mcast_drops, tx_rate_limit_bcast_drops tx_rate_limit_mcast_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

DFW

Pacchetti totali eliminati dal modulo DFW per vari motivi.

Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni.

4.2.0

Percorso dati L3

Pacchetti totali eliminati dal modulo Percorso dati L3 per vari motivi.

Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni.

4.2.0

Errore di sistema del percorso dati

Pacchetti totali eliminati a causa di errori critici del sistema interno. Se queste statistiche aumentano in modo coerente, significa che le risorse dell'host ESXi sono in esaurimento. Lo spostamento di alcune macchine virtuali in altri host potrebbe aiutare il carico.

Questa statistica viene mappata internamente a queste statistiche dettagliate: leaf_rx_system_err_drops, uplink_rx_system_err_drops, pkt_attr_error_drops, tx_dispatch_queue_too_long_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Percorso rapido

Pacchetti totali eliminati dal modulo fastpath per vari motivi.

Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni.

4.2.0

Flusso Fastpath Hit

Frequenza di riscontri della tabella di flusso nel modulo della cache ENS/flusso. Questa statistica viene mappata internamente alla statistica - riscontri.

4.2.0

Flusso FastPath mancante

Frequenza dei pacchetti elaborati da slowpath a causa di una mancata riuscita del flusso. Questa statistica non si sovrappone alla statistica nella riga successiva. Questa statistica viene mappata internamente alla statistica correlata alla mancata riuscita del flusso.

4.2.0

Eliminazioni dei pacchetti fastpath

Numero totale di pacchetti eliminati da fastpath della cache del flusso, nella direzione di ricezione o trasmissione a tutte le porte.

Questa statistica viene mappata internamente a queste statistiche dettagliate: rx_drops, tx_drops, rx_drops_uplink, tx_drops_uplink, rx_drops_sp tx_drops_sp. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazioni dei pacchetti del limite di flooding del firewall

Numero di pacchetti eliminati a causa di vari protocolli che superano il limite di flooding. Nell'interfaccia del kernel è configurato un limite di flooding per diversi protocolli.

Questa statistica viene mappata internamente a queste statistiche dettagliate: udp_flood_overlimit_drops, tcp_flood_overlimit_drops, icmp_flood_overlimit_drops, other_flood_overlimit_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazioni dei pacchetti di errori interni del firewall

Numero di pacchetti eliminati dal firewall a causa di errori interni.

Questa statistica viene mappata internamente a queste statistiche dettagliate: memory_drops, state_insert_drops, l7_attr_error_drops, lb_reject_drops src_limit_misc. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazioni dei pacchetti non formattati nel firewall

Numero di pacchetti non formattati eliminati dal firewall.

Questa statistica viene mappata internamente a queste statistiche dettagliate: fragment_drops, short_drops, normalize_drops, bad_timestamp_drops proto_cksum_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Rifiuti di pacchetti del firewall

Numero di pacchetti rifiutati dal firewall per vari motivi.

Questa statistica viene mappata internamente a queste statistiche dettagliate: rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts, tx_ipv6_reject_pkts. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazioni di pacchetti ricevuti dalla regola del firewall

Numero di pacchetti ricevuti eliminati rilasciando o rifiutando la regola del firewall distribuito.

Questa statistica viene mappata internamente alla statistica - match_drop_rule_rx_drops.

4.2.0

Eliminazioni di pacchetti trasmessi dalla regola del firewall

Numero di pacchetti trasmessi eliminati rilasciando o rifiutando la regola del firewall distribuito.

Questa statistica viene mappata internamente alla statistica - match_drop_rule_tx_drops.

4.2.0

Eliminazione dei pacchetti del controllo dello stato del firewall

Numero di pacchetti eliminati a causa di controlli correlati allo stato.

Questa statistica viene mappata internamente a queste statistiche dettagliate: icmp_err_pkt_drops, alg_handler_drops, syn_expected_drops, ip_option_drops, syn_proxy_drops, spoof_guard_drops, state_mismatch_drops strict_no_syn_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazioni dei pacchetti completi della tabella di stato del firewall

Numero di pacchetti eliminati a causa del limite massimo di stati raggiunto. Ad esempio, se il numero di stati TCP è superiore al limite, si verifica l'eliminazione. Questa statistica viene mappata internamente alla statistica - state_limit_drops.

4.2.0

Eliminazioni dei pacchetti totali del firewall

Numero totale di pacchetti eliminati dal firewall per vari motivi.

Questa statistica viene mappata internamente a queste statistiche dettagliate: rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts, tx_ipv6_reject_pkts, rx_ipv4_drop_pkts, tx_ipv4_drop_pkts, rx_ipv6_drop_pkts, tx_ipv6_drop_pkts, rx_l2_drop_pkts tx_l2_drop_pkts. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazione dei pacchetti di mancata corrispondenza della rete hostswitch

Numero di pacchetti unicast, multicast e broadcast eliminati a causa della mancata corrispondenza dei tag VNI o VLAN.

Questa statistica viene mappata internamente a queste statistiche dettagliate: vlan_tag_mismatch_rx, vlan_tag_mismatch_tx, vni_tag_mismatch_tx, vlan_tag_mismatch_rx_mcast, vlan_tag_mismatch_tx_mcast vni_tag_mismatch_tx_mcast. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazione dei pacchetti MAC contraffatti ricevuti da hostswitch

Numero di pacchetti eliminati come eliminazioni contraffatte perché il MAC di origine del pacchetto è diverso dal MAC della scheda della macchina virtuale.

Le trasmissioni contraffatte o l'acquisizione MAC disabilitata nel segmento causano queste interruzioni. L'abilitazione dell'acquisizione MAC o delle trasmissioni contraffatte nel segmento dovrebbe attenuare il problema.

Questa statistica viene mappata internamente alla statistica - forged_transmit_rx_drops.

4.2.0

Eliminazioni pacchetti limite hop L3

Numero di pacchetti IPv4 o IPv6 eliminati a causa del TTL (Time-To-Live) basso. Ogni istanza del router logico dedurrà 1 dal valore TTL. Utilizzare l'acquisizione di pacchetti per determinare quali pacchetti hanno valori TTL bassi.

Questa statistica viene mappata internamente a queste statistiche dettagliate: ttl_ip4_drops, ttl_ipv6_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazioni dei pacchetti router adiacente L3 non raggiungibile

Numero di pacchetti IPv4 o IPv6 eliminati a causa della risoluzione del router adiacente non riuscita.

Questa statistica viene mappata internamente a queste statistiche dettagliate: arp_hold_pkt_drops, ns_hold_pkt_drops.

4.2.0

Eliminazione dei pacchetti L3 senza route

Ogni istanza del router logico dispone della propria tabella di routing per le ricerche di route. Questa statistica aumenta quando i pacchetti IPv4 vengono eliminati a causa della mancanza di route corrispondente per tale istanza del router logico.

Questa statistica viene mappata internamente a queste statistiche dettagliate: no_route_ipv4_drops, no_route_ipv6_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazioni dei pacchetti di inoltro percorso inverso L3

Numero di pacchetti IPv4 o IPv6 eliminati a causa di un errore del controllo di inoltro percorso inverso. Il router distribuito può verificare se l'IP di origine dei pacchetti proviene da un'origine valida (raggiungibile) e può eliminare i pacchetti in base alla configurazione.

È possibile modificare questa impostazione nell'interfaccia utente di NSX Manager.

Questa statistica viene mappata internamente a queste statistiche dettagliate: rpf_ipv4_drops, rpf_ipv6_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Tabella di acquisizione Mac completa

Frequenza di eliminazione dei pacchetti a causa di errori di aggiornamento della tabella MAC al momento dell'acquisizione MAC dal piano di controllo centrale (CCP) o per i pacchetti ricevuti dalla rete underlay.

Verificare che la tabella MAC sia piena nel nodo di trasporto host utilizzando il comando seguente:

$ nsxcli -c "get segment mac-table"

Se necessario, aumentare le dimensioni della tabella MAC.

Questa statistica viene mappata internamente a queste statistiche dettagliate: mac_tbl_update_full, mac_tbl_lookup_full. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Pacchetti multicast ricevuti

Frequenza di pacchetti multicast ricevuti dal VDS dalla macchina virtuale.

Questa statistica viene mappata internamente alla statistica: rx_mcast_pkts.

4.2.0

Pacchetti multicast trasmessi

Frequenza di pacchetti multicast inviati dal VDS alla macchina virtuale.

Questa statistica viene mappata internamente alla statistica: tx_mcast_pkts.

4.2.0

Percorso dati overlay L2

Pacchetti totali eliminati dal modulo L2 percorso dati overlay per vari motivi.

Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni.

4.2.0

Percorso dati overlay trasmesso all'uplink

Frequenza di pacchetti unicast inoltrati a VTEP remoti a causa di un errore di ricerca della tabella MAC. I valori grandi implicano flussi L2 unidirezionali o problemi di aggiornamento della tabella MAC.

Verificare che la tabella MAC sia piena nel nodo di trasporto host utilizzando il comando seguente:

$ nsxcli -c "get segment mac-table"

Se necessario, aumentare le dimensioni della tabella MAC.

Questa statistica viene mappata internamente alla statistica: mac_tbl_lookup_flood.

4.2.0

Risoluzione router adiacente assistito del pannello di controllo con overlay non riuscito

Frequenza di eliminazione dei pacchetti perché il piano di controllo non è in grado di assistere correttamente durante la risoluzione del router adiacente. I motivi potrebbero essere il fatto che CCP non abbia ancora appreso la mappatura IP-MAC oppure che il sistema stia esaurendo la risorsa buffer dei pacchetti.

Questa statistica viene mappata internamente a queste statistiche dettagliate: nd_proxy_resp_unknown, arp_proxy_resp_unknown, nd_proxy_req_fail_drops, arp_proxy_req_fail_drops, arp_proxy_resp_drops nd_proxy_resp_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazioni dei pacchetti ricevuti dall'overlay

Numero di pacchetti eliminati in VDL2LeafInput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione ricevuti da Leaf per identificare il motivo specifico delle eliminazioni.

Questa statistica viene mappata internamente a queste statistiche dettagliate: leaf_rx_ref_port_not_found_drops, leaf_rx_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazioni dei pacchetti trasmessi dall'overlay

Numero totale di eliminazioni in VDL2LeafOutput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione trasmessi da Leaf per identificare il motivo specifico delle eliminazioni.

Questa statistica viene mappata internamente alla statistica: leaf_tx_drops.

4.2.0

Eliminazioni dei pacchetti ricevuti dall'uplink dell'overlay

Numero di pacchetti eliminati in VDL2UplinkInput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione ricevuti dall'uplink per identificare il motivo specifico delle eliminazioni.

Questa statistica viene mappata internamente a queste statistiche dettagliate: uplink_rx_drops, uplink_rx_guest_vlan_drops, uplink_rx_invalid_encap_drops mcast_proxy_rx_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazioni dei pacchetti trasmessi dall'uplink dell'overlay

Numero totale di pacchetti eliminati in VDL2UplinkOutput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione trasmessi dall'uplink per identificare il motivo specifico delle interruzioni.

Questa statistica viene mappata internamente a queste statistiche dettagliate: uplink_tx_drops, nested_tn_mcast_proxy_same_vlan_tx_drops, nested_tn_mcast_proxy_diff_vlan_tx_drops mcast_poxy_tx_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

PNIC ricevuta (mbps)

Megabit ricevuti al secondo. Questa statistica viene mappata internamente alla statistica: rxmbps.

4.2.0

PNIC ricevuta (pps)

Pacchetti ricevuti al secondo. Questa statistica viene mappata internamente alla statistica: rxpps.

Eliminazioni ricevute da PNIC

Errori ricevuti al secondo. Un valore diverso da zero indica in genere i due casi seguenti:
  1. Le dimensioni dell'anello RX della PNIC sono troppo piccole. L'anello può essere facilmente riempito a causa di picchi di carico di lavoro. È possibile aumentare le dimensioni dell'anello.
  2. La velocità dei pacchetti è troppo elevata e il guest non riesce a gestirla. Il guest non è in grado di estrarre i pacchetti dall'anello RX della PNIC e causa quindi l'eliminazione dei pacchetti.

Questa statistica viene mappata internamente alla statistica: rxep.

4.2.0

PNIC trasmessa (mbps)

Megabit trasmessi al secondo. Questa statistica viene mappata internamente alla statistica: txmbps

4.2.0

PNIC trasmessa (pps)

Pacchetti trasmessi al secondo. Questa statistica viene mappata internamente alla statistica: txpps.

4.2.0

Eliminazioni PNIC trasmessa

Errori trasmessi al secondo. Questa statistica viene mappata internamente alla statistica: txep.

4.2.0

PNIC

Numero delle NIC fisiche. Questa statistica viene mappata internamente alla statistica: num_pnics.

4.2.0

Eliminazioni di errori di analisi dei pacchetti

Numero di pacchetti ND (Neighbor Discovery) IPv6 che non sono stati analizzati correttamente. Esaminare i registri per cercare i messaggi di errore. Eseguire le catture di pacchetti nella porta per identificare se i pacchetti non sono formattati.

Questa statistica viene mappata internamente alla statistica: nd_parse_errors.

4.2.0

Solo SlowPath

Frequenza di pacchetti che vengono sempre elaborati in slowpath per impostazione predefinita. Un esempio è il pacchetto broadcast.

Questa statistica viene mappata internamente alla statistica: slowpath.

4.2.0

Eliminazioni dei pacchetti SpoofGuard

Numero di pacchetti IPv4/IPv6/ARP eliminati da SpoofGuard. SpoofGuard protegge dallo spoofing IP mantenendo una tabella di riferimento di nomi/indirizzi MAC e IP delle macchine virtuali. Questo valore verrà incrementato solo se SpoofGuard è abilitato nel segmento o nella porta del segmento.

Questa statistica viene mappata internamente a queste statistiche dettagliate: spoof_guard_ipv4_drops, spoof_guard_arp_drops, spoof_guard_ipv6_drops, spoof_guard_nd_drops spoof_guard_non_ip_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Sicurezza commutatore

Pacchetti totali eliminati dal modulo Sicurezza commutatore per vari motivi. Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni.

4.2.0

Endpoint tunnel sconosciuto

Frequenza di eliminazioni dei pacchetti per cui non è possibile apprendere il MAC esterno di origine perché l'etichetta GENEVE in entrata è sconosciuta.

I valori grandi di questa statistica possono indicare la mancanza di aggiornamenti VTEP remoti nel nodo di trasporto dal piano di controllo. Utilizzare la CLI per verificare la tabella VTEP remota nel nodo di trasporto.

Questa statistica viene mappata internamente alla statistica: uplink_rx_skip_mac_learn.

4.2.0

VNIC ricevuta (mbps)

Megabit ricevuti al secondo. Questa statistica viene mappata internamente alla statistica: rxmbps.

4.2.0

VNIC ricevuta (pps)

Pacchetti ricevuti al secondo. Questa statistica viene mappata internamente alla statistica: rxpps.

4.2.0

Eliminazioni ricevute da VNIC

Errori ricevuti al secondo. Un valore diverso da zero indica in genere i due casi seguenti:
  1. Le dimensioni dell'anello RX della VNIC sono troppo piccole. L'anello può essere facilmente riempito a causa di picchi di carico di lavoro. È possibile aumentare le dimensioni dell'anello.
  2. La velocità dei pacchetti è troppo elevata e il guest non riesce a gestirla. Il guest non è in grado di estrarre i pacchetti dall'anello RX della VNIC, causando eliminazioni dei pacchetti.

Questa statistica viene mappata internamente alla statistica: rxep.

4.2.0

VNIC trasmessa (mbps)

Megabit trasmessi al secondo. Questa statistica viene mappata internamente alla statistica: txmbps.

4.2.0

VNIC trasmessa (pps)

Pacchetti trasmessi al secondo. Questa statistica viene mappata internamente alla statistica: txpps.

4.2.0

Eliminazioni VNIC trasmessa

Errori trasmessi al secondo. Un valore diverso da zero indica in genere quanto segue:
  • La velocità dei pacchetti è troppo elevata per poter essere gestita dall'uplink.
  • L'uplink non è in grado di estrarre i pacchetti dalla coda dello stack di rete, causando l'eliminazione dei pacchetti.

Questa statistica viene mappata internamente alla statistica: txep.

4.2.0

vNIC

Numero delle NIC virtuali. Questa statistica viene mappata internamente alla statistica: num_vnics.

4.2.0

Eliminazioni dei pacchetti di filtro BPDU del carico di lavoro

Numero di pacchetti eliminati dal filtro BPDU. Quando il filtro BPDU è abilitato, il traffico all'indirizzo MAC di destinazione BPDU configurato viene eliminato.

Questa statistica viene mappata internamente alla statistica: bpdu_filter_drops.

4.2.0

Il DHCP del carico di lavoro non ha consentito l'eliminazione di pacchetti

Numero di pacchetti DHCPv4 o DHCPv6 eliminati dal blocco client/server DHCP.

Questa statistica viene mappata internamente a queste statistiche dettagliate: dhcp_client_block_ipv6_drops, dhcp_server_block_ipv6_drops, dhcp_client_block_ipv4_drops, dhcp_server_block_ipv4_drops dhcp_client_validate_ipv4_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche.

4.2.0

Eliminazioni dei pacchetti della protezione RA IPv6 del carico di lavoro

Numero di pacchetti di annuncio del router IPv6 eliminati da RA Guard. La funzionalità RA Guard filtra gli annunci del router IPv6 (ICMPv6 di tipo 134) trasmessi dalle macchine virtuali. In una distribuzione IPv6, i router utilizzano periodicamente messaggi di annuncio del router multicast, che vengono utilizzati dagli host per la configurazione automatica.

È possibile utilizzare RA Guard per proteggere la rete da messaggi RA non autorizzati generati da router non autorizzati o configurati in modo improprio che si connettono al segmento di rete. È possibile configurare RA Guard nell'interfaccia utente di NSX Manager in Rete > Segmenti > Profilo segmento > Sicurezza segmento.

Questa statistica viene mappata internamente alla statistica: ra_guard_drops.

4.2.0

vSwitch

Pacchetti totali eliminati dal modulo vSwitch per vari motivi.

Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni.

vSwitch ricevuto da uplink

Frequenza di pacchetti ricevuti da uno o più uplink al vSwitch che sono unicast sconosciuti inoltrati ad altre porte dello stesso dominio di broadcast da vSwitch.

Questa statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch.

Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC. Questa statistica viene mappata internamente alla statistica: unknown_unicast_rx_uplink_pkts.

4.2.0

vSwitch trasmesso ad uplink

Frequenza di pacchetti unicast sconosciuti inoltrati tramite vSwitch a uno o più uplink.

La statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch.

Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC. Questa statistica viene mappata internamente alla statistica: unknown_unicast_tx_uplink_pkts.

4.2.0

Modulo: host_enhanced_fastpath

Questo modulo del percorso dati fornisce statistiche host/infrastruttura per il modulo del percorso dati ENS. Questo modulo del percorso dati è noto come host-fastpath-ens nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

flow_table_occupancy_0_pct

Istogramma: numero di tabelle dei flussi con utilizzo 0-25%.

4.2.0

flow_table_occupancy_25_pct

Istogramma: numero di tabelle dei flussi con utilizzo 25-50%.

4.2.0

flow_table_occupancy_50_pct

Istogramma: numero di tabelle dei flussi con utilizzo 50-75%.

4.2.0

flow_table_occupancy_75_pct

Istogramma: numero di tabelle dei flussi con utilizzo 75-90%.

4.2.0

flow_table_occupancy_90_pct

Istogramma: numero di tabelle dei flussi con utilizzo 90-95%. Se il numero di flussi attivi supera le dimensioni della tabella dei flussi, è possibile che si verifichi un aumento degli errori dei flussi, che comporta un peggioramento delle prestazioni. Le statistiche dell'istogramma dell'occupazione della tabella dei flussi sono utili per stabilire se le tabelle dei flussi stanno diventando piene.

L'aumento delle dimensioni della tabella dei flussi non sempre migliora le prestazioni se continuano a essere presenti connessioni di breve durata. È possibile che la tabella dei flussi sia sempre piena indipendentemente dalle sue dimensioni. Una tabella dei flussi di grandi dimensioni non sarebbe utile in questo caso. EDP dispone di una logica per rilevare questo problema e abilitare e disabilitare automaticamente le tabelle dei flussi per gestire tale caso.

4.2.0

flow_table_occupancy_95_pct

Istogramma: numero di tabelle dei flussi con utilizzo 95%. Se il numero di flussi attivi supera le dimensioni della tabella dei flussi, è possibile che si verifichi un aumento degli errori dei flussi, che comporta un peggioramento delle prestazioni. Le statistiche dell'istogramma dell'occupazione della tabella dei flussi sono utili per stabilire se le tabelle dei flussi stanno diventando piene.

L'aumento delle dimensioni della tabella dei flussi non sempre migliora le prestazioni se continuano a essere presenti connessioni di breve durata. È possibile che la tabella dei flussi sia sempre piena indipendentemente dalle sue dimensioni. Una tabella dei flussi di grandi dimensioni non sarebbe utile in questo caso. EDP dispone di una logica per rilevare questo problema e abilitare e disabilitare automaticamente le tabelle dei flussi per gestire tale caso.

4.2.0

flow_table_size

Dimensioni massime della tabella dei flussi in EDP.

4.2.0

hits

Numero di riscontri della tabella dei flussi nel modulo ENS. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath.

4.2.0

insertion_errors

Numero di errori di inserimento della tabella dei flussi. Questo può verificarsi quando una tabella dei flussi è piena (o quasi) e sono presenti collisioni di hash.

4.2.0

miss

Pacchetti elaborati da slowpath a causa di un flusso mancante. Questa statistica non si sovrappone alla statistica slowpath descritta più avanti in questa tabella. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath.

4.2.0

num_flow_tables

Numero di tabelle dei flussi utilizzate per EDP. L'EDP dispone di una tabella dei flussi per ogni thread EDP. Questa statistica è utile per verificare quante tabelle dei flussi vengono create e utilizzate.

4.2.0

num_flows

Numero di flussi in EDP.

4.2.0

num_flows_created

Numero di flussi creati in EDP. Utilizzare questa statistica per calcolare la velocità di creazione del flusso, che sarà utile per stabilire quali sono le caratteristiche del carico di lavoro. Le statistiche dell'istogramma di occupazione della tabella dei flussi indicano se le tabelle dei flussi sono piene o meno.

Se la velocità di creazione del flusso è bassa e non sono presenti modifiche significative nella statistica num_flows o nella statistica di occupazione del flusso, significa che il traffico è stabile e lo stato è stazionario. Il numero di flussi attivi rimane stabile. Se la velocità di creazione del flusso è elevata e num_flows aumenta, significa che il numero di flussi attivi è in aumento. Se la velocità di creazione del flusso non diminuisce, le tabelle dei flussi diventeranno prima o poi piene.

Se la velocità di creazione del flusso è elevata e le dimensioni medie del flusso non sono piccole, è consigliabile aumentare le dimensioni della tabella dei flussi. Dimensioni medie del flusso = frequenza dei riscontri/frequenza di num_flows_created.

Un valore basso per le dimensioni medie del flusso indica che i flussi hanno una durata breve. Sia i riscontri sia num_flows_created si accumulano. È possibile calcolare innanzitutto i valori della velocità per ottenere le dimensioni medie del flusso durante un periodo di tempo specifico.

4.2.0

slowpath

Pacchetti che vengono sempre elaborati in slowpath per impostazione predefinita. Un esempio è il pacchetto broadcast. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath.

4.2.0

Modulo: host_fastpath_ens_lcore

Questo modulo del percorso dati fornisce le statistiche di utilizzo Lcore stimate per il modulo ENS. Vengono visualizzati fino a 16 Lcore classificati in base all'utilizzo. Se sono configurati meno di 16 Lcore, vengono visualizzati solo gli Lcore con ID validi. Questo modulo del percorso dati è noto come host-fastpath-ens-lcore nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

lcorerank01_lcoreid

ID di tango 1 thread di kernel per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank01_lcoreusage

Utilizzo della CPU Lcore rank 1. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank02_lcoreid

ID del thread del kernel di rango 2 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank02_lcoreusage

Utilizzo della CPU Lcore rank 2. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank03_lcoreid

ID del thread del kernel di rango 3 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank03_lcoreusage

Utilizzo della CPU Lcore rank 3. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank04_lcoreid

ID del thread del kernel di rango 4 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank04_lcoreusage

Utilizzo della CPU Lcore rank 4. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank05_lcoreid

ID del thread del kernel di rango 5 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank05_lcoreusage

Utilizzo della CPU Lcore rank 5. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank06_lcoreid

ID del thread del kernel di rango 6 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank06_lcoreusage

Utilizzo della CPU Lcore rank 6. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank07_lcoreid

ID del thread del kernel di rango 7 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank07_lcoreusage

Utilizzo della CPU Lcore rank 7. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank08_lcoreid

ID del thread del kernel di rango 8 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank08_lcoreusage

Utilizzo della CPU Lcore rank 8. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank09_lcoreid

ID del thread del kernel di rango 9 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank09_lcoreusage

Utilizzo della CPU Lcore rank 9. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank10_lcoreid

ID del thread del kernel di rango 10 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank10_lcoreusage

Utilizzo della CPU Lcore rank 10. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank11_lcoreid

ID del thread del kernel di rango 11 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank11_lcoreusage

Utilizzo della CPU Lcore rank 11. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank12_lcoreid

ID del thread del kernel di rango 12 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank12_lcoreusage

Utilizzo della CPU Lcore rank 12. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank13_lcoreid

ID del thread del kernel di rango 13 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

lcorerank13_lcoreusage

Utilizzo della CPU Lcore rank 13. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank14_lcoreid

ID del thread del kernel di rango 14 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank14_lcoreusage

Utilizzo della CPU Lcore rank 14. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank15_lcoreid

ID del thread del kernel di rango 15 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank15_lcoreusage

Utilizzo della CPU Lcore rank 15. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank16_lcoreid

ID del thread del kernel di rango 16 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido.

4.2.0

lcorerank16_lcoreusage

Utilizzo della CPU Lcore rank 16. Verrà visualizzato solo se l'ID è valido.

4.2.0

Modulo: host_standard_fastpath

Questo modulo del percorso dati fornisce statistiche host/infrastruttura per il modulo del percorso dati della cache dei flussi legacy. Questo modulo del percorso dati è noto come host-fastpath-standard nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

flow_table_occupancy_0_pct

Istogramma: numero di tabelle dei flussi con utilizzo 0-25%.

4.2.0

flow_table_occupancy_25_pct

Istogramma: numero di tabelle dei flussi con utilizzo 25-50%.

4.2.0

flow_table_occupancy_50_pct

Istogramma: numero di tabelle dei flussi con utilizzo 50-75%.

4.2.0

flow_table_occupancy_75_pct

Istogramma: numero di tabelle dei flussi con utilizzo 75-90%.

4.2.0

flow_table_occupancy_90_pct

Istogramma: numero di tabelle dei flussi con utilizzo 90-95%. Se il numero di flussi attivi supera le dimensioni della tabella dei flussi, è possibile che si verifichi un aumento degli errori dei flussi, che comporta un peggioramento delle prestazioni. Le statistiche dell'istogramma dell'occupazione della tabella dei flussi sono utili per stabilire se le tabelle dei flussi stanno diventando piene.

L'aumento delle dimensioni della tabella dei flussi non sempre migliora le prestazioni se continuano a essere presenti connessioni di breve durata. È possibile che la tabella dei flussi sia sempre piena indipendentemente dalle sue dimensioni. Una tabella dei flussi di grandi dimensioni non sarebbe utile in questo caso. EDP dispone di una logica per rilevare questo problema e abilitare e disabilitare automaticamente le tabelle dei flussi per gestire tale caso.

4.2.0

flow_table_occupancy_95_pct

Istogramma: numero di tabelle dei flussi con utilizzo 95%. Se il numero di flussi attivi supera le dimensioni della tabella dei flussi, è possibile che si verifichi un aumento degli errori dei flussi, che comporta un peggioramento delle prestazioni. Le statistiche dell'istogramma dell'occupazione della tabella dei flussi sono utili per stabilire se le tabelle dei flussi stanno diventando piene.

L'aumento delle dimensioni della tabella dei flussi non sempre migliora le prestazioni se continuano a essere presenti connessioni di breve durata. È possibile che la tabella dei flussi sia sempre piena indipendentemente dalle sue dimensioni. Una tabella dei flussi di grandi dimensioni non sarebbe utile in questo caso. EDP dispone di una logica per rilevare questo problema e abilitare e disabilitare automaticamente le tabelle dei flussi per gestire tale caso.

4.2.0

flow_table_size

Dimensioni massime della tabella dei flussi in EDP.

4.2.0

hits

Numero di riscontri della tabella dei flussi nel modulo ENS. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath.

4.2.0

insertion_errors

Numero di errori di inserimento della tabella dei flussi. Questo può verificarsi quando una tabella dei flussi è piena (o quasi) e sono presenti collisioni di hash.

4.2.0

miss

Pacchetti elaborati da slowpath a causa di un flusso mancante. Questa statistica non si sovrappone alla statistica slowpath descritta più avanti in questa tabella. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath.

4.2.0

num_flow_tables

Numero di tabelle dei flussi utilizzate per EDP. L'EDP dispone di una tabella dei flussi per ogni thread EDP. Questa statistica è utile per verificare quante tabelle dei flussi vengono create e utilizzate.

4.2.0

num_flows

Numero di flussi in EDP.

4.2.0

num_flows_created

Numero di flussi creati in EDP. Utilizzare questa statistica per calcolare la velocità di creazione del flusso, che sarà utile per stabilire quali sono le caratteristiche del carico di lavoro. Le statistiche dell'istogramma di occupazione della tabella dei flussi indicano se le tabelle dei flussi sono piene o meno.

Se la velocità di creazione del flusso è bassa e non sono presenti modifiche significative nella statistica num_flows o nella statistica di occupazione del flusso, significa che il traffico è stabile e lo stato è stazionario. Il numero di flussi attivi rimane stabile. Se la velocità di creazione del flusso è elevata e num_flows aumenta, significa che il numero di flussi attivi è in aumento. Se la velocità di creazione del flusso non diminuisce, le tabelle dei flussi diventeranno prima o poi piene.

Se la velocità di creazione del flusso è elevata e le dimensioni medie del flusso non sono piccole, è consigliabile aumentare le dimensioni della tabella dei flussi. Dimensioni medie del flusso = frequenza dei riscontri/frequenza di num_flows_created.

Un valore basso per le dimensioni medie del flusso indica che i flussi hanno una durata breve. Sia i riscontri sia num_flows_created si accumulano. È possibile calcolare innanzitutto i valori della velocità per ottenere le dimensioni medie del flusso durante un periodo di tempo specifico.

4.2.0

slowpath

Pacchetti che vengono sempre elaborati in slowpath per impostazione predefinita. Un esempio è il pacchetto broadcast. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath.

4.2.0

Modulo: host_net_thread_nioc

Questo modulo del percorso dati fornisce statistiche del thread di rete correlate a NIOC. Questo modulo del percorso dati è noto come host-net-thread-nioc nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

hist_0_pct

Istogramma: numero di thread compresi tra 0% e 25%

4.2.0

hist_25_pct

Istogramma: numero di thread compresi tra 25% e 50%

4.2.0

hist_50_pct

Istogramma: numero di thread compresi tra 50% e 70%

4.2.0

hist_70_pct

Istogramma: numero di thread compresi tra 70% e 80%

4.2.0

hist_80_pct

Istogramma: numero di thread compresi tra 80% e 85%

4.2.0

hist_85_pct

Istogramma: numero di thread compresi tra 85% e 90%

4.2.0

hist_90_pct

Istogramma: numero di thread compresi tra 90% e 95%

4.2.0

hist_95_pct

Istogramma: numero di thread compresi tra 95% e 97%

4.2.0

hist_97_pct

Istogramma: numero di thread compresi tra 97% e 99%

4.2.0

hist_99_pct

Istogramma: numero di thread con utilizzo maggiore del 99%.

I problemi del percorso dati di rete vengono rivelati da tre sintomi: eliminazioni di pacchetti, velocità effettiva bassa e latenza elevata. Anche se questi sintomi possono essere causati sia da problemi funzionali sia da problemi relativi alle prestazioni, il più delle volte sono causati da problemi relativi alle prestazioni. È fondamentale stabilire se il problema è correlato alle prestazioni o meno nella fase iniziale dell'indagine.

Nelle reti definite dal software, specialmente quelle basate sulla virtualizzazione, la CPU è la risorsa più critica che influisce sulle prestazioni di rete. Con le schede NIC più veloci disponibili sul mercato, la larghezza di banda della rete diventa raramente un impedimento.

L'elaborazione dei pacchetti nel percorso dati implica in genere un set di thread eseguiti in una pipeline, associati a code e buffer che contengono pacchetti. Quando un thread nella pipeline, dai thread della vCPU ai thread di rete del kernel, diventa sovraccarico, le code e i buffer corrispondenti possono riempirsi causando l'eliminazione dei pacchetti. Questo limita la velocità effettiva.

È fondamentale monitorare l'utilizzo della CPU dei thread di rete del kernel oltre alle statistiche di rete tradizionali. Anziché usare i numeri di utilizzo della CPU per i singoli thread, sono stati raggruppati per generare un istogramma. È quindi possibile monitorare i bin dell'istogramma come 90pct, 95pct, 97pct e 99pct, che indicano in quanti thread di rete si stanno verificando colli di bottiglia. La statistica total_CPU è anche utile perché indica la quantità di tempo della CPU impiegata per l'elaborazione dei pacchetti nel kernel.

4.2.0

max_cpu

Utilizzo massimo della CPU del thread

4.2.0

min_cpu

Utilizzo minimo della CPU del thread

4.2.0

num_threads

Numero di thread utilizzati per il recapito dei pacchetti dall'utilità di pianificazione dei pacchetti NetIOC all'uplink.

4.2.0

total_cpu

Somma dell'utilizzo della CPU di tutti i thread di rete nel gruppo. La CPU totale è utile per visualizzare le distribuzioni dell'utilizzo complessivo della CPU tra diversi gruppi di thread e macchine virtuali.

4.2.0

Modulo: host_net_thread_rx

Questo modulo del percorso dati fornisce statistiche del thread di rete correlate a RX. Questo modulo del percorso dati è noto come host-net-thread-rx nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

hist_0_pct

Istogramma: numero di thread compresi tra 0% e 25%

4.2.0

hist_25_pct

Istogramma: numero di thread compresi tra 25% e 50%

4.2.0

hist_50_pct

Istogramma: numero di thread compresi tra 50% e 70%

4.2.0

hist_70_pct

Istogramma: numero di thread compresi tra 70% e 80%

4.2.0

hist_80_pct

Istogramma: numero di thread compresi tra 80% e 85%

4.2.0

hist_85_pct

Istogramma: numero di thread compresi tra 85% e 90%

4.2.0

hist_90_pct

Istogramma: numero di thread compresi tra 90% e 95%

4.2.0

hist_95_pct

Istogramma: numero di thread compresi tra 95% e 97%

4.2.0

hist_97_pct

Istogramma: numero di thread compresi tra 97% e 99%

4.2.0

hist_99_pct

Istogramma: numero di thread con utilizzo maggiore del 99%.

I problemi del percorso dati di rete vengono rivelati da tre sintomi: eliminazioni di pacchetti, velocità effettiva bassa e latenza elevata. Anche se questi sintomi possono essere causati sia da problemi funzionali sia da problemi relativi alle prestazioni, il più delle volte sono causati da problemi relativi alle prestazioni. È fondamentale stabilire se il problema è correlato alle prestazioni o meno nella fase iniziale dell'indagine.

Nelle reti definite dal software, specialmente quelle basate sulla virtualizzazione, la CPU è la risorsa più critica che influisce sulle prestazioni di rete. Con le schede NIC più veloci disponibili sul mercato, la larghezza di banda della rete diventa raramente un impedimento.

L'elaborazione dei pacchetti nel percorso dati implica in genere un set di thread eseguiti in una pipeline, associati a code e buffer che contengono pacchetti. Quando un thread nella pipeline, dai thread della vCPU ai thread di rete del kernel, diventa sovraccarico, le code e i buffer corrispondenti possono riempirsi causando l'eliminazione dei pacchetti. Questo limita la velocità effettiva.

È fondamentale monitorare l'utilizzo della CPU dei thread di rete del kernel oltre alle statistiche di rete tradizionali. Anziché usare i numeri di utilizzo della CPU per i singoli thread, sono stati raggruppati per generare un istogramma. È quindi possibile monitorare i bin dell'istogramma come 90pct, 95pct, 97pct e 99pct, che indicano in quanti thread di rete si stanno verificando colli di bottiglia. La statistica total_CPU è anche utile perché indica la quantità di tempo della CPU impiegata per l'elaborazione dei pacchetti nel kernel.

4.2.0

max_cpu

Utilizzo massimo della CPU del thread

4.2.0

min_cpu

Utilizzo minimo della CPU del thread

4.2.0

num_threads

Numero di thread utilizzati per il recapito dei pacchetti dall'utilità di pianificazione dei pacchetti NetIOC all'uplink.

4.2.0

total_cpu

Somma dell'utilizzo della CPU di tutti i thread di rete nel gruppo. La CPU totale è utile per visualizzare le distribuzioni dell'utilizzo complessivo della CPU tra diversi gruppi di thread e macchine virtuali.

4.2.0

Modulo: host_net_thread_tx

Questo modulo del percorso dati fornisce statistiche del thread di rete correlate a TX. Questo modulo del percorso dati è noto come host-net-thread-txhost-net-thread-tx nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

hist_0_pct

Istogramma: numero di thread compresi tra 0% e 25%

4.2.0

hist_25_pct

Istogramma: numero di thread compresi tra 25% e 50%

4.2.0

hist_50_pct

Istogramma: numero di thread compresi tra 50% e 70%

4.2.0

hist_70_pct

Istogramma: numero di thread compresi tra 70% e 80%

4.2.0

hist_80_pct

Istogramma: numero di thread compresi tra 80% e 85%

4.2.0

hist_85_pct

Istogramma: numero di thread compresi tra 85% e 90%

4.2.0

hist_90_pct

Istogramma: numero di thread compresi tra 90% e 95%

4.2.0

hist_95_pct

Istogramma: numero di thread compresi tra 95% e 97%

4.2.0

hist_97_pct

Istogramma: numero di thread compresi tra 97% e 99%

4.2.0

hist_99_pct

Istogramma: numero di thread con utilizzo maggiore del 99%.

I problemi del percorso dati di rete vengono rivelati da tre sintomi: eliminazioni di pacchetti, velocità effettiva bassa e latenza elevata. Anche se questi sintomi possono essere causati sia da problemi funzionali sia da problemi relativi alle prestazioni, il più delle volte sono causati da problemi relativi alle prestazioni. È fondamentale stabilire se il problema è correlato alle prestazioni o meno nella fase iniziale dell'indagine.

Nelle reti definite dal software, specialmente quelle basate sulla virtualizzazione, la CPU è la risorsa più critica che influisce sulle prestazioni di rete. Con le schede NIC più veloci disponibili sul mercato, la larghezza di banda della rete diventa raramente un impedimento.

L'elaborazione dei pacchetti nel percorso dati implica in genere un set di thread eseguiti in una pipeline, associati a code e buffer che contengono pacchetti. Quando un thread nella pipeline, dai thread della vCPU ai thread di rete del kernel, diventa sovraccarico, le code e i buffer corrispondenti possono riempirsi causando l'eliminazione dei pacchetti. Questo limita la velocità effettiva.

È fondamentale monitorare l'utilizzo della CPU dei thread di rete del kernel oltre alle statistiche di rete tradizionali. Anziché usare i numeri di utilizzo della CPU per i singoli thread, sono stati raggruppati per generare un istogramma. È quindi possibile monitorare i bin dell'istogramma come 90pct, 95pct, 97pct e 99pct, che indicano in quanti thread di rete si stanno verificando colli di bottiglia. La statistica total_CPU è anche utile perché indica la quantità di tempo della CPU impiegata per l'elaborazione dei pacchetti nel kernel.

4.2.0

max_cpu

Utilizzo massimo della CPU del thread

4.2.0

min_cpu

Utilizzo minimo della CPU del thread

4.2.0

num_threads

Numero di thread utilizzati per il recapito dei pacchetti dall'utilità di pianificazione dei pacchetti NetIOC all'uplink.

4.2.0

total_cpu

Somma dell'utilizzo della CPU di tutti i thread di rete nel gruppo. La CPU totale è utile per visualizzare le distribuzioni dell'utilizzo complessivo della CPU tra diversi gruppi di thread e macchine virtuali.

4.2.0

Modulo: host_pcpu

Questo modulo del percorso dati fornisce l'utilizzo di CPU fisiche. Questo modulo del percorso dati è noto come host-pcpuhost-pcpu nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

hist_0_pct

Istogramma: numero di CPU tra 0% e 50%

4.2.0

hist_50_pct

Istogramma: numero di CPU tra 50% e 70%

4.2.0

hist_75_pct

Istogramma: numero di CPU tra 75% e 85%

4.2.0

hist_85_pct

Istogramma: numero di CPU tra 85% e 90%

4.2.0

hist_90_pct

Istogramma: numero di CPU tra 90% e 95%

4.2.0

hist_95_pct

Istogramma: numero di CPU tra 95% e 100%

4.2.0

total_cpu

Utilizzo totale della CPU host. Somma dell'utilizzo di tutti i core della CPU fisica nell'host.

I problemi del percorso dati di rete vengono rivelati da tre sintomi: eliminazioni di pacchetti, velocità effettiva bassa e latenza elevata. Anche se questi sintomi possono essere causati sia da problemi funzionali sia da problemi relativi alle prestazioni, il più delle volte sono causati da problemi relativi alle prestazioni. È fondamentale stabilire se il problema è correlato alle prestazioni o meno nella fase iniziale dell'indagine.

Nelle reti definite dal software, specialmente quelle basate sulla virtualizzazione, la CPU è la risorsa più critica che influisce sulle prestazioni di rete. Con le schede NIC più veloci disponibili sul mercato, la larghezza di banda della rete diventa raramente un impedimento.

L'elaborazione dei pacchetti nel percorso dati implica in genere un set di thread eseguiti in una pipeline, associati a code e buffer che contengono pacchetti. Quando un thread nella pipeline, dai thread della vCPU ai thread di rete del kernel, diventa sovraccarico, le code e i buffer corrispondenti possono riempirsi causando l'eliminazione dei pacchetti. Questo limita la velocità effettiva.

È fondamentale monitorare l'utilizzo della CPU dei thread di rete del kernel oltre alle statistiche di rete tradizionali. Anziché usare i numeri di utilizzo della CPU per i singoli thread, sono stati raggruppati per generare un istogramma. È quindi possibile monitorare i bin dell'istogramma come 90pct, 95pct, 97pct e 99pct, che indicano in quanti thread di rete si stanno verificando colli di bottiglia. La statistica total_CPU è anche utile perché indica la quantità di tempo della CPU impiegata per l'elaborazione dei pacchetti nel kernel.

4.2.0

Modulo: host_uplink

Questo modulo del percorso dati fornisce l'utilizzo delle NIC di uplink fisici. Questo modulo del percorso dati è noto come host-uplink nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

num_pnics

Numero di NIC fisiche

4.2.0

rx_error_total

Statistiche driver: totale errori ricevuti. In genere, questa statistica deve avere un valore simile a rx_missed.

Un valore diverso da zero indica in genere due casi:
  1. Le dimensioni dell'anello RX della PNIC sono troppo piccole. L'anello può essere facilmente riempito a causa di picchi di carico di lavoro. È possibile aumentare le dimensioni dell'anello.
  2. La velocità dei pacchetti è troppo elevata e il guest non riesce a gestirla. Il guest non è in grado di estrarre i pacchetti dall'anello RX della PNIC e causa quindi l'eliminazione dei pacchetti.
4.2.0

rx_missed

Statistiche driver: ricevute perse. In genere, questa statistica deve avere un valore simile a rx_error_total.

Un valore diverso da zero indica in genere due casi:
  1. Le dimensioni dell'anello RX della PNIC sono troppo piccole. L'anello può essere facilmente riempito a causa di picchi di carico di lavoro. È possibile aumentare le dimensioni dell'anello.
  2. La velocità dei pacchetti è troppo elevata e il guest non riesce a gestirla. Il guest non è in grado di estrarre i pacchetti dall'anello RX della PNIC e causa quindi l'eliminazione dei pacchetti.
4.2.0

rxeps

Errori ricevuti al secondo.

Un valore diverso da zero indica in genere due casi:
  1. Le dimensioni dell'anello RX della PNIC sono troppo piccole. L'anello può essere facilmente riempito a causa di picchi di carico di lavoro. È possibile aumentare le dimensioni dell'anello.
  2. La velocità dei pacchetti è troppo elevata e il guest non riesce a gestirla. Il guest non è in grado di estrarre i pacchetti dall'anello RX della PNIC e causa quindi l'eliminazione dei pacchetti.
4.2.0

rxmbps

Megabit ricevuti al secondo

4.2.0

rxpps

Pacchetti ricevuti al secondo

4.2.0

txeps

Errori trasmessi al secondo

4.2.0

txmbps

Megabit trasmessi al secondo

4.2.0

txpps

Pacchetti trasmessi al secondo

4.2.0

Modulo: host_vnic

Questo modulo del percorso dati fornisce l'utilizzo di NIC virtuali. Questo modulo del percorso dati è noto come host-vNIC nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

num_vnics

Numero delle NIC virtuali.

4.2.0

rxeps

Errori ricevuti al secondo.

Un valore diverso da zero indica in genere i due casi seguenti:
  1. Le dimensioni dell'anello RX della VNIC sono troppo piccole. L'anello può essere facilmente riempito a causa di picchi di carico di lavoro. È possibile aumentare le dimensioni dell'anello.
  2. La velocità dei pacchetti è troppo elevata e il guest non riesce a gestirla. Il guest non è in grado di estrarre i pacchetti dall'anello RX della VNIC, causando eliminazioni dei pacchetti.
4.2.0

rxmbps

Megabit ricevuti al secondo.

4.2.0

rxpps

Pacchetti ricevuti al secondo.

4.2.0

txeps

Errori trasmessi al secondo.

Un valore diverso da zero indica in genere i due casi seguenti:
  1. La velocità dei pacchetti è troppo elevata per poter essere gestita dall'uplink.
  2. L'uplink non è in grado di estrarre i pacchetti dalla coda dello stack di rete, causando l'eliminazione dei pacchetti.
4.2.0

txmbps

Megabit trasmessi al secondo.

4.2.0

txpps

Pacchetti trasmessi al secondo.

4.2.0

Modulo: host_vcpu

Questo modulo del percorso dati fornisce l'utilizzo di CPU virtuali. Questo modulo del percorso dati è noto come host-vcpu nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

hist_0_pct

Istogramma: numero di CPU tra 0% e 50%.

4.2.0

hist_50_pct

Istogramma: numero di CPU tra 50% e 70%.

4.2.0

hist_75_pct

Istogramma: numero di CPU tra 75% e 85%

4.2.0

hist_85_pct

Istogramma: numero di CPU tra 85% e 90%.

4.2.0

hist_90_pct

Istogramma: numero di CPU tra 90% e 95%.

4.2.0

hist_95_pct

Istogramma: numero di CPU tra 95% e 100%.

I problemi del percorso dati di rete vengono rivelati da tre sintomi: eliminazioni di pacchetti, velocità effettiva bassa e latenza elevata. Anche se questi sintomi possono essere causati sia da problemi funzionali sia da problemi relativi alle prestazioni, il più delle volte sono causati da problemi relativi alle prestazioni. È fondamentale stabilire se il problema è correlato alle prestazioni o meno nella fase iniziale dell'indagine.

Nelle reti definite dal software, specialmente quelle basate sulla virtualizzazione, la CPU è la risorsa più critica che influisce sulle prestazioni di rete. Con le schede NIC più veloci disponibili sul mercato, la larghezza di banda della rete diventa raramente un impedimento.

L'elaborazione dei pacchetti nel percorso dati implica in genere un set di thread eseguiti in una pipeline, associati a code e buffer che contengono pacchetti. Quando un thread nella pipeline, dai thread della vCPU ai thread di rete del kernel, diventa sovraccarico, le code e i buffer corrispondenti possono riempirsi causando l'eliminazione dei pacchetti. Questo limita la velocità effettiva.

È fondamentale monitorare l'utilizzo della CPU dei thread di rete del kernel oltre alle statistiche di rete tradizionali. Anziché usare i numeri di utilizzo della CPU per i singoli thread, sono stati raggruppati per generare un istogramma. È quindi possibile monitorare i contenitori dell'istogramma, che indicano quanti thread di rete stanno ottenendo colli di bottiglia. La statistica total_CPU è anche utile perché indica la quantità di tempo della CPU impiegata per l'elaborazione dei pacchetti nel kernel.

4.2.0

total_cpu

Utilizzo totale di vCPU. Somma dell'utilizzo della CPU di tutte le macchine virtuali nell'host. La CPU totale è utile per visualizzare le distribuzioni dell'utilizzo complessivo della CPU tra diversi gruppi di thread e macchine virtuali.

4.2.0

Modulo: fastpath

FastPath include moduli del percorso dati FC (Flow-Cache) ed ENS (Enhanced Network Stack) per l'elaborazione dei pacchetti del percorso dati avanzato. Questo modulo del percorso dati è noto come nsxt-fp nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

rx_bytes

Numero di byte ricevuti da fastpath della cache del flusso, nella direzione di ricezione dalle porte.

4.2.0

rx_drops

Numero di pacchetti eliminati da fastpath della cache del flusso, nella direzione di ricezione dalle porte. Questa operazione non è applicabile per la cache del flusso in modalità non ENS.

4.2.0

rx_drops_sp

I pacchetti ricevuti vengono eliminati quando vengono inviati a slowpath da fastpath della cache del flusso. Non applicabile per la cache del flusso in modalità non ENS e in modalità di commutazione standard.

4.2.0

rx_drops_uplink

Numero di pacchetti eliminati da fastpath della cache del flusso nella direzione di ricezione dalle porte di uplink. Non applicabile per la cache del flusso in modalità non ENS e in modalità di commutazione standard.

4.2.0

rx_pkts

Numero di pacchetti ricevuti da fastpath della cache del flusso nella direzione di ricezione dalle porte.

4.2.0

rx_pkts_sp

Pacchetti ricevuti quando i pacchetti vengono inviati a slowpath da fastpath della cache del flusso. Non applicabile per la cache del flusso in modalità non ENS e in modalità di commutazione standard.

4.2.0

rx_pkts_uplink

Numero di pacchetti ricevuti da fastpath della cache del flusso nella direzione di ricezione dalle porte di uplink.

4.2.0

tx_bytes

Numero di byte trasmessi da fastpath della cache del flusso nella direzione di trasmissione alle porte.

4.2.0

tx_drops

Numero di pacchetti eliminati da fastpath della cache del flusso nella direzione di trasmissione alle porte.

4.2.0

tx_drops_sp

I pacchetti trasmessi vengono eliminati da fastpath quando i pacchetti vengono inseriti di nuovo in fastpath della cache del flusso da slowpath. Non applicabile per la cache del flusso in modalità non ENS e in modalità di commutazione standard.

4.2.0

tx_drops_uplink

Numero di pacchetti eliminati da fastpath della cache del flusso nella direzione di trasmissione alle porte di uplink.

4.2.0

tx_pkts

Numero di pacchetti trasmessi da fastpath della cache del flusso nella direzione di trasmissione alle porte.

4.2.0

tx_pkts_sp

Pacchetti trasmessi da fastpath quando i pacchetti vengono inseriti di nuovo in fastpath della cache del flusso da slowpath. Non applicabile per la modalità di commutazione standard.

4.2.0

tx_pkts_uplink

Numero di pacchetti trasmessi da fastpath della cache del flusso nella direzione Da trasmissione alle porte di uplink.

4.2.0

Modulo: switch_security

Questo modulo del percorso dati offre sicurezza L2 e L3 stateless controllando il traffico verso il segmento ed eliminando pacchetti non autorizzati inviati dalle macchine virtuali. In questa tabella, Rx si riferisce ai pacchetti ricevuti "dal" commutatore e Rx fa riferimento ai pacchetti inviati "al" commutatore. Questo modulo del percorso dati è noto come nsxt-swsec nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

bpdu_filter_drops

Numero di pacchetti eliminati dal filtro BPDU. Quando il filtro BPDU è abilitato, il traffico all'indirizzo MAC di destinazione BPDU configurato viene eliminato.

4.2.0

dhcp_client_block_ipv4_drops

Numero di pacchetti DHCP IPv4 eliminati dal blocco client DHCP.

Il blocco client DHCP impedisce a una macchina virtuale di acquisire indirizzo IP DHCP bloccando le richieste DHCP. Se questa operazione non è prevista, è possibile disattivare il blocco client DHCPv4 dal profilo di sicurezza del segmento di un segmento o di una porta del segmento. Per farlo in NSX Manager, passare a Rete > Segmenti > Profilo segmento > Sicurezza segmento.

4.2.0

dhcp_client_block_ipv6_drops

Numero di pacchetti DHCP IPv6 eliminati dal blocco client DHCP.

Il blocco client DHCP impedisce a una macchina virtuale di acquisire indirizzo IP DHCP bloccando le richieste DHCP. Se questa operazione non è prevista, è possibile disattivare il blocco client DHCPv6 dal profilo di sicurezza del segmento di un segmento o di una porta del segmento. Per farlo in NSX Manager, passare a Rete > Segmenti > Profilo segmento > Sicurezza segmento.

4.2.0

dhcp_client_validate_ipv4_drops

Numero di pacchetti DHCP IPv4 eliminati perché gli indirizzi nel payload non erano validi.

È possibile che una macchina virtuale dannosa nella rete stia tentando di inviare pacchetti DHCP non validi, ad esempio senza IP di origine, con l'indirizzo hardware client non corrispondente al MAC di origine e così via.

4.2.0

dhcp_server_block_ipv4_drops

Numero di pacchetti DHCP IPv4 eliminati dal blocco server DHCP. Il blocco server DHCP blocca il traffico da un server DHCP a un client DHCP.

Se questa operazione non è prevista, è possibile disabilitare il blocco server DHCP dal profilo di sicurezza del segmento di un segmento o di una porta del segmento. Per farlo in NSX Manager, passare a Rete > Segmenti > Profilo segmento > Sicurezza segmento.

4.2.0

dhcp_server_block_ipv6_drops

Numero di pacchetti DHCPv6 eliminati dal blocco server DHCP.

Il blocco server DHCP blocca il traffico da un server DHCP a un client DHCP. Se questa operazione non è prevista, è possibile disabilitare il blocco server DHCPv6 dal profilo di sicurezza del segmento di un segmento o di una porta del segmento. Per farlo in NSX Manager, passare a Rete > Segmenti > Profilo segmento > Sicurezza segmento.

4.2.0

nd_parse_errors

Numero di pacchetti ND (Neighbor Discovery) IPv6 che non sono stati analizzati correttamente.

Esaminare i registri per cercare i messaggi di errore. Eseguire le catture di pacchetti nella porta per identificare se i pacchetti non sono formattati.

4.2.0

ra_guard_drops

Numero di pacchetti di annuncio del router IPv6 eliminati da RA Guard.

La funzionalità RA Guard filtra gli annunci del router IPv6 (ICMPv6 di tipo 134) trasmessi dalle macchine virtuali. In una distribuzione IPv6, i router utilizzano periodicamente messaggi di annuncio del router multicast, che vengono utilizzati dagli host per la configurazione automatica.

È possibile utilizzare RA Guard per proteggere la rete da messaggi RA non autorizzati generati da router non autorizzati o configurati in modo improprio che si connettono al segmento di rete. È possibile configurare RA Guard nell'interfaccia utente di NSX Manager in Rete > Segmenti > Profilo segmento > Sicurezza segmento.

4.2.0

rx_arp_pkts

Numero di pacchetti ARP ricevuti dal VDS dalla macchina virtuale.

4.2.0

rx_garp_pkts

Numero di pacchetti ARP gratuiti (GARP) ricevuti dal VDS dalla macchina virtuale.

4.2.0

rx_ipv4_pkts

Numero di pacchetti IPv4 ricevuti dal VDS dalla macchina virtuale.

4.2.0

rx_ipv6_pkts

Numero di pacchetti IPv6 ricevuti dal VDS dalla macchina virtuale.

4.2.0

rx_na_pkts

Numero di pacchetti ND IPv6 (Neighbor Discovery) NA (Neighbor Advertisement) ricevuti dal VDS dalla macchina virtuale.

4.2.0

rx_non_ip_pkts

Numero di pacchetti non IP ricevuti dal VDS dalla macchina virtuale

4.2.0

rx_ns_pkts

Numero di pacchetti ND IPv6 (Neighbor Discovery) NS (Neighbor Solicitation) ricevuti dal VDS dalla macchina virtuale.

4.2.0

rx_rate_limit_bcast_drops

Numero di pacchetti in ingresso eliminati in base ai limiti di velocità di trasmissione.

I limiti di velocità possono essere utilizzati per proteggere la rete o le macchine virtuali da eventi come tempeste di trasmissioni. È possibile configurare i valori dei limiti di velocità nell'interfaccia utente di NSX Manager in Rete > Segmenti > Profilo segmento > Sicurezza segmento.

4.2.0

rx_rate_limit_mcast_drops

Numero di pacchetti in ingresso eliminati in base ai limiti di velocità multicast.

I limiti di velocità possono essere utilizzati per proteggere la rete o le macchine virtuali da eventi come tempeste multicast. È possibile configurare i valori dei limiti di velocità nell'interfaccia utente di NSX Manager in Rete > Segmenti > Profilo segmento > Sicurezza segmento.

4.2.0

rx_unsolicited_na_pkts

Numero di pacchetti ND non richiesti IPv6 (Neighbor Discovery) NA (Neighbor Advertisement) non sollecitati ricevuti dal VDS dalla macchina virtuale.

4.2.0

rxbcastpkts

Numero di pacchetti broadcast ricevuti dal VDS dalla macchina virtuale.

4.2.0

rxmcastpkts

Numero di pacchetti multicast ricevuti dal VDS dalla macchina virtuale.

4.2.0

spoof_guard_arp_drops

Numero di pacchetti ARP eliminati da SpoofGuard.

SpoofGuard protegge da attacchi di spoofing ARP dannosi tenendo traccia degli indirizzi MAC e IP. Questa statistica verrà incrementata solo quando SpoofGuard è abilitato nel segmento o nella porta del segmento. (Rete > Segmenti > Profilo segmento > SpoofGuard)

4.2.0

spoof_guard_ipv4_drops

Numero di pacchetti IPv4 eliminati da SpoofGuard.

SpoofGuard protegge dallo spoofing IP mantenendo una tabella di riferimento di nomi e indirizzi IP delle macchine virtuali. Questa statistica verrà incrementata solo quando SpoofGuard è abilitato nel segmento o nella porta del segmento. (Rete > Segmenti > Profilo segmento > SpoofGuard)

4.2.0

spoof_guard_ipv6_drops

Numero di pacchetti IPv6 eliminati da SpoofGuard.

SpoofGuard protegge dallo spoofing IP mantenendo una tabella di riferimento di nomi e indirizzi IP delle macchine virtuali. Questa statistica verrà incrementata solo quando SpoofGuard è abilitato nel segmento o nella porta del segmento. (Rete > Segmenti > Profilo segmento > SpoofGuard)

4.2.0

spoof_guard_nd_drops

Numero di pacchetti Neighbor Discovery (ND) IPv6 eliminati da SpoofGuard.

SpoofGuard protegge dallo spoofing ND filtrando i pacchetti ND i cui indirizzi non corrispondono all'indirizzo della macchina virtuale. Questa statistica verrà incrementata solo quando SpoofGuard è abilitato nel segmento o nella porta del segmento. (Rete > Segmenti > Profilo segmento > SpoofGuard)

4.2.0

spoof_guard_non_ip_drops

Numero di pacchetti non IP eliminati da SpoofGuard.

Questa statistica verrà incrementata solo quando SpoofGuard è abilitato nel segmento o nella porta del segmento. (Rete > Segmenti > Profilo segmento > SpoofGuard)

4.2.0

tx_arp_pkts

Numero di pacchetti ARP inviati dal VDS alla macchina virtuale.

4.2.0

tx_ipv4_pkts

Numero di pacchetti IPv4 inviati dal VDS alla macchina virtuale.

4.2.0

tx_ipv6_pkts

Numero di pacchetti IPv6 inviati dal VDS alla macchina virtuale.

4.2.0

tx_non_ip_pkts

Numero di pacchetti non IP inviati dal VDS alla macchina virtuale.

4.2.0

tx_rate_limit_bcast_drops

Numero di pacchetti in uscita eliminati in base al limite di velocità di trasmissione.

I limiti di velocità possono essere utilizzati per proteggere la rete o le macchine virtuali da eventi come tempeste di trasmissioni. È possibile configurare i valori dei limiti di velocità nell'interfaccia utente di NSX Manager in Rete > Segmenti > Profilo segmento > Sicurezza segmento.

4.2.0

tx_rate_limit_mcast_drops

Numero di pacchetti in uscita eliminati in base al limite di velocità multicast.

I limiti di velocità possono essere utilizzati per proteggere la rete o le macchine virtuali da eventi come tempeste multicast. È possibile configurare i valori dei limiti di velocità nell'interfaccia utente di NSX Manager in Rete > Segmenti > Profilo segmento > Sicurezza segmento.

4.2.0

txbcastpkts

Numero di pacchetti broadcast inviati dal VDS alla macchina virtuale.

4.2.0

txmcastpkts

Numero di pacchetti multicast inviati dal VDS alla macchina virtuale.

4.2.0

Modulo: overlay_datapath_l2

Questo modulo del percorso dati è responsabile della connettività del carico di lavoro. Questo modulo del percorso dati è noto come nsxt-vdl2 nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

arp_proxy_req_fail_drops

Impossibile inviare nuovamente il numero di richieste ARP sull'uplink per l'apprendimento basato sul percorso dati quando CCP non dispone di un binding IP-MAC causando un errore di soppressione ARP.

Le statistiche non zero indicano che il sistema sta esaurendo la risorsa buffer dei pacchetti e l'incremento continuo deve essere considerato come un errore critico.

4.2.0

arp_proxy_req_suppress

Numero di richieste ARP soppresse da VDL2 eseguendo una query in CCP per trovare il binding IP-MAC.

Questi pacchetti ARP vengono inviati sull'uplink solo quando CCP non conosce il binding.

4.2.0

arp_proxy_resp

Numero di risposte di binding IP-MAC valide da CCP per ogni richiesta di soppressione ARP da questo nodo di trasporto.

4.2.0

arp_proxy_resp_drops

Numero di risposte ARP corrispondenti alla risposta del binding IP-MAC da parte di CCP che non è stato possibile inviare alla porta di commutazione che ha effettuato la richiesta ARP.

4.2.0

arp_proxy_resp_filtered

Numero di risposte ARP generate in base alla risposta del binding IP-MAC da CCP non inviate alla porta del commutatore che ha avviato la richiesta ARP.

Ciò è possibile perché ARP è stato richiesto a causa di traceflow o la porta che ha avviato la richiesta ARP non era più presente nel nodo di trasporto.

4.2.0

arp_proxy_resp_unknown

Numero di binding IP-MAC sconosciuti nel piano di controllo per ogni richiesta IP-MAC da questo nodo di trasporto.

Alla ricezione di questo messaggio, il modulo VDL2 invia di nuovo la richiesta ARP sull'uplink per acquisire il binding IP-MAC tramite il percorso dati.

4.2.0

leaf_rx

Per un segmento (commutatore logico), questa statistica viene incrementata quando un pacchetto generato dal carico di lavoro viene ricevuto correttamente in IOChain VDL2LeafInput (Overlay L2). Questi pacchetti vengono inviati a VDS se non ci sono altre eliminazioni ricevute da Leaf.

4.2.0

leaf_rx_drops

Numero di pacchetti eliminati in VDL2LeafInput a causa di vari motivi.

Vedere gli altri motivi dell'eliminazione ricevuti da Leaf per identificare il motivo specifico delle eliminazioni.

4.2.0

leaf_rx_ref_port_not_found_drops

Numero di pacchetti eliminati in Leaf VDL2LeafInput. Questa situazione può verificarsi se la porta trunk non fa parte del segmento.

4.2.0

leaf_rx_system_err_drops

Numero di pacchetti eliminati in VDL2LeafInput a causa di vari errori di sistema come un errore di memoria e un errore di aggiornamento dell'attributo dei pacchetti.

Questo in genere significa che le risorse dell'host ESXi sono scarse. Lo spostamento di alcune macchine virtuali in altri host potrebbe semplificare il carico.

4.2.0

leaf_tx

Questa statistica aumenta quando un pacchetto viene elaborato correttamente dall'IOChain VDL2LeafOutput (Overlay L2) per una porta del commutatore.

4.2.0

leaf_tx_drops

Numero totale di eliminazioni in VDL2LeafOutput a causa di vari motivi.

Vedere gli altri motivi dell'eliminazione trasmessi da Leaf per identificare il motivo specifico delle eliminazioni.

4.2.0

mac_tbl_lookup_flood

Numero di pacchetti unicast inoltrati ai VTEP remoti a causa di un errore di ricerca della tabella MAC. I valori grandi implicano flussi L2 unidirezionali o problemi di aggiornamento della tabella MAC.

Verificare che la tabella MAC sia piena nel nodo di trasporto host utilizzando il comando seguente:

$ nsxcli -c "get segment mac-table"

Se necessario, aumentare le dimensioni della tabella MAC.

4.2.0

mac_tbl_lookup_full

Numero di volte in cui la query MAC di destinazione sul piano di controllo per il traffico verso le macchine virtuali remote non è riuscita perché la tabella MAC è già piena.

Verificare che la tabella MAC sia piena nel nodo di trasporto host utilizzando il comando seguente:

$ nsxcli -c "get segment mac-table"

Se necessario, aumentare le dimensioni della tabella MAC.

4.2.0

mac_tbl_update_full

Numero di errori di aggiornamento della tabella MAC al momento dell'acquisizione MAC per i pacchetti ricevuti dall'underlay.

Verificare che la tabella MAC sia piena nel nodo di trasporto host utilizzando il comando seguente:

$ nsxcli -c "get segment mac-table"

Se necessario, aumentare le dimensioni della tabella MAC.

4.2.0

mcast_proxy_rx_drops

Numero di pacchetti BUM ricevuti nell'uplink del nodo di trasporto MTEP che vengono eliminati durante la replica in altri VTEP.

4.2.0

mcast_proxy_tx_drops

Numero di pacchetti BUM originati dai carichi di lavoro nel nodo di trasporto eliminati dopo la replica nell'output dell'uplink.

Questa statistica aumenta se uplink_tx_invalid_state_drops aumenta o a causa di errori di sistema come memoria insufficiente.

4.2.0

nd_proxy_req_fail_drops

Impossibile inviare nuovamente il numero di richieste ND sull'uplink per l'apprendimento basato sul percorso dati quando il CCP non dispone di un binding IP-MAC causando un errore di soppressione ND.

Le statistiche non zero indicano che il sistema sta esaurendo la risorsa buffer dei pacchetti e l'incremento continuo deve essere considerato come un errore critico.

4.2.0

nd_proxy_req_suppress

Numero di richieste ND soppresse da VDL2 eseguendo una query in CCP per trovare il binding IP-MAC.

Questi pacchetti ND vengono inviati sull'uplink solo se CCP non conosce il binding.

4.2.0

nd_proxy_resp

Numero di risposte di binding IP-MAC valide da CCP per ogni richiesta di soppressione ND da questo nodo di trasporto.

Queste risposte ND potrebbero essere il risultato di una risposta CCP diretta o dovute a una voce ND già memorizzata nella cache nel nodo di trasporto.

4.2.0

nd_proxy_resp_drops

Numero di risposte ND corrispondenti alla risposta del binding IP-MAC da parte di CCP che non è stato possibile inviare alla porta di commutazione che ha avviato il pacchetto ND.

4.2.0

nd_proxy_resp_filtered

Numero di risposte ND generate in base alla risposta del binding IP-MAC da CCP non inviate alla porta del commutatore che ha avviato la richiesta ND.

Ciò è possibile perché ND è stato richiesto a causa di traceflow o la porta che ha avviato la richiesta ND non era più presente nel nodo di trasporto.

4.2.0

nd_proxy_resp_unknown

Numero di binding IPv6-MAC sconosciuti nel piano di controllo per ogni richiesta IPv6-MAC da questo nodo di trasporto.

Alla ricezione di questo messaggio, il modulo VDL2 invia di nuovo i pacchetti ND sull'uplink per acquisire il binding IPv6-MAC tramite il percorso dati.

4.2.0

nested_tn_mcast_proxy_diff_vlan_tx_drops

Numero di pacchetti BUM eliminati replicati verso il nodo di trasporto nidificato.

Il nodo di trasporto nidificato e questo nodo di trasporto sono configurati con ID VLAN di trasporto diversi. Verificare che l'IP VTEP GW sia raggiungibile dalle interfacce VTEP VMK di questo nodo di trasporto.

4.2.0

nested_tn_mcast_proxy_same_vlan_tx_drops

Numero di pacchetti BUM eliminati replicati verso il nodo di trasporto nidificato.

Il nodo di trasporto nidificato e questo nodo di trasporto sono configurati con lo stesso ID VLAN di trasporto.

4.2.0

uplink_rx

Numero di pacchetti ricevuti nella porta di uplink dal commutatore TOR.

Questi pacchetti verranno inviati a VDS quando non si verificano eliminazioni nell'Rx uplink.

4.2.0

uplink_rx_drops

Numero di pacchetti eliminati in VDL2UplinkInput a causa di vari motivi.

Vedere gli altri motivi dell'eliminazione ricevuti dall'uplink per identificare il motivo specifico delle eliminazioni.

4.2.0

uplink_rx_filtered

Numero di pacchetti inviati dal commutatore TOR, che vengono filtrati in corrispondenza dell'uplink VDL2 per motivi come i report IGMP dai nodi di trasporto ESXi peer.

4.2.0

uplink_rx_guest_vlan_drops

Numero di pacchetti eliminati in VDL2UplinkInput quando la rimozione del tag VLAN guest non riesce per il pacchetto interno a causa di un errore del sistema.

4.2.0

uplink_rx_invalid_encap_drops

Numero di pacchetti ricevuti in uplink dall'underlay e eliminati a causa di intestazioni di incapsulamento errate.

Per comprendere l'errore esatto, eseguire l'acquisizione di pacchetti e verificare le intestazioni di incapsulamento (versione del protocollo, checksum, lunghezza e così via) eseguendo il comando seguente:

pktcap-uw --capture UplinkRcvKernel --uplink --ng -o uplink.pcap

4.2.0

uplink_rx_mcast_invalid_dr_uplink_drops

Numero di pacchetti multicast IP eliminati nell'input di uplink VDL2 poiché la vdrPort non è associata a questo uplink.

Ciò può verificarsi quando il commutatore TOR esegue il flooding del traffico multicast in tutti gli uplink del nodo di trasporto.

Verificare l'associazione vdrPort e uplink utilizzando il comando seguente, quindi verificare se il pacchetto eliminato è stato ricevuto nell'uplink non associato:

nsxdp-cli vswitch instance list

4.2.0

uplink_rx_skip_mac_learn

Numero di pacchetti per i quali non è possibile acquisire il MAC esterno di origine perché l'etichetta GENEVE in entrata è sconosciuta.

I valori grandi per questa statistica possono indicare la mancanza di aggiornamenti VTEP remoti nel nodo di trasporto dal piano di controllo.

Utilizzare i seguenti comandi CLI per controllare la tabella VTEP remota nel nodo di trasporto:

nsxcli -c "get global-vtep-table"

$ nsxcli -c "get segment vtep-table"

Una possibile soluzione può essere il riavvio dell'agente del piano di controllo locale (CfgAgent) nel nodo di trasporto per forzare una sincronizzazione completa eseguendo il comando seguente:

$ /etc/init.d/nsx-cfgagent restart

4.2.0

uplink_rx_system_err_drops

Numero di pacchetti eliminati in VDL2UplinkInput a causa di vari errori di sistema come un errore di memoria e un errore di aggiornamento dell'attributo dei pacchetti.

Questo in genere significa che le risorse dell'host ESXi sono scarse. Lo spostamento di alcune macchine virtuali in altri host potrebbe semplificare il carico.

4.2.0

uplink_rx_wrong_dest_drops

Numero di pacchetti ricevuti dall'underlay ed eliminati perché l'IP di destinazione del pacchetto non corrisponde ad alcun VTEP configurato nell'host.

4.2.0

uplink_tx

Numero di pacchetti inviati dal VDS ricevuti in IOChain VDL2 della porta di uplink.

Questi pacchetti verranno inviati alla rete underlay quando non si verificano eliminazioni in uplink Tx.

4.2.0

uplink_tx_drops

Numero totale di pacchetti eliminati in VDL2UplinkOutput a causa di vari motivi.

Vedere gli altri motivi dell'eliminazione trasmessi dall'uplink per identificare il motivo specifico delle interruzioni.

4.2.0

uplink_tx_flood_rate_limit

Numero di pacchetti unicast sconosciuti inoltrati agli uplink con velocità limitata.

4.2.0

uplink_tx_ignore

Numero di pacchetti inviati da VDS filtrati in base all'output dell'uplink VDL2 e non inoltrati all'underlay.

Ad esempio, i pacchetti BUM vengono filtrati se nel segmento non sono presenti VTEP per replicare i pacchetti.

4.2.0

uplink_tx_invalid_frame_drops

Numero di pacchetti eliminati nell'output dell'uplink VDL2 perché non è stato possibile trovare l'intestazione dell'incapsulare o perché non è stato possibile eseguire il TSO impostato nel frame interno. Ciò è dovuto a pacchetti TCP di grandi dimensioni.

4.2.0

uplink_tx_invalid_state_drops

Numero di pacchetti eliminati nell'output dell'uplink VDL2 a causa di una configurazione VLAN di trasporto errata. Ciò è dovuto a un'associazione errata del profilo di uplink nel nodo di trasporto o al fatto che il MAC del gateway non viene risolto.

Utilizzare la procedura seguente per verificare in un nodo ESXi se l'IP del gateway VTEP è raggiungibile dalle interfacce VMK VTEP di questo nodo di trasporto.

  1. Ottenere l'IP gateway eseguendo il comando seguente: net-vdl2 -l
  2. Recuperare il nome dell'istanza dello stack di rete eseguendo il comando seguente: esxcfg-vmknic -l
  3. Eseguire il ping dell'IP del gateway VTEP eseguendo il comando seguente: vmkping -I vmk10 -S
4.2.0

uplink_tx_nested_tn_repl_drops

Numero di pacchetti BUM eliminati nell'output dell'uplink VDL2 durante la replica nel nodo di trasporto nidificato a causa di un'associazione VTEP errata.

Utilizzare il comando seguente per controllare la porta di commutazione di origine all'associazione dell'uplink:

nsxdp-cli vswitch instance list

4.2.0

uplink_tx_non_unicast

Numero di pacchetti broadcast o multicast replicati in VTEP remoti. La frequenza elevata implica che il nodo di trasporto debba replicare questi pacchetti in VTEP remoti, causando uno stress sulle code trasmesse a livello di uplink.

4.2.0

uplink_tx_teaming_drops

Numero di pacchetti eliminati in VDL2UplinkOutput a causa della mancata disponibilità del VTEP associato al commutatore che ha originato il traffico.

Utilizzare il comando seguente per verificare l'associazione di uplink della porta di commutazione e lo stato del raggruppamento:

nsxdp-cli vswitch instance list

4.2.0

uplink_tx_ucast_flood

Numero di pacchetti unicast sconosciuti inoltrati all'output di uplink. I valori grandi implicano un flusso L2 unidirezionale o problemi di aggiornamento della tabella MAC.

Controllare se il flusso unidirezionale è previsto o se la tabella MAC è piena.

4.2.0

Modulo: datapath_l3

Questo modulo del percorso dati, noto anche come VDR (Virtual Distributed Routing), instrada i pacchetti in ogni host ESXi. Questo modulo del percorso dati è noto come nsxt-vdrb nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

arp_hold_pkt_drops

Quando il router distribuito è in fase di risoluzione di una voce ARP IPv4, i pacchetti che utilizzano questa voce ARP verranno messi in coda.

Il numero di pacchetti che può essere inserito in coda è limitato per ogni istanza del router logico. Quando viene raggiunto il limite massimo, i pacchetti meno recenti vengono eliminati e questa statistica aumenta in base al numero di pacchetti non recenti che vengono eliminati.

4.2.0

arpfaildrops (lta)

Pacchetti IPv4 eliminati a causa di un errore ARP.

4.2.0

consumed_icmpv4

Numero di pacchetti IPv4 destinati a un indirizzo IP della porta di routing logico del router distribuito corrispondente a un determinato segmento.

Tenere presente che le statistiche aumenteranno dopo il routing del pacchetto dalla subnet di origine.

4.2.0

consumed_icmpv6

Numero di pacchetti IPv6 destinati a un indirizzo IP della porta di routing logico del router distribuito corrispondente a un determinato segmento. Tenere presente che le statistiche aumenteranno dopo il routing del pacchetto dalla subnet di origine.

4.2.0

drop_route_ipv4_drops

Numero di pacchetti IPv4 corrispondenti alle "route di eliminazione". Le route di eliminazione sono le route configurate per eliminare appositamente i pacchetti corrispondenti.

Se non è previsto, verificare le route sull'host ESXi e verificare la configurazione nel piano di gestione.

4.2.0

drop_route_ipv6_drops

Numero di pacchetti IPv6 corrispondenti alle "route di eliminazione".

Le route di eliminazione sono le route configurate per eliminare appositamente i pacchetti corrispondenti. Se non è previsto, verificare le route sull'host ESXi e verificare la configurazione nel piano di gestione.

4.2.0

ndfaildrops (lta)

I pacchetti IPv6 vengono eliminati a causa di un errore Neighbor Discovery.

4.2.0

no_nbr_ipv4

Nessuna voce ARP IPv4 trovata nella tabella ARP del router distribuito.

4.2.0

no_nbr_ipv6

Nessuna voce del router adiacente IPv6 trovata nella tabella router adiacente del router distribuito.

4.2.0

no_route_ipv4_drops

Ogni istanza del router logico dispone della propria tabella di routing per le ricerche di route.

Questa statistica aumenta quando i pacchetti IPv4 vengono eliminati a causa della mancanza di route corrispondente esistente per tale istanza del router logico.

4.2.0

no_route_ipv6_drops

Ogni istanza del router logico dispone della propria tabella di routing per le ricerche di route.

Questa statistica aumenta quando i pacchetti IPv6 vengono eliminati a causa della mancanza di route corrispondente esistente per tale istanza del router logico.

4.2.0

ns_hold_pkt_drops

Quando il router distribuito è in corso di risoluzione di una voce del router adiacente IPv6, i pacchetti che utilizzano questa voce del router adiacente verranno messi in coda.

Il numero di pacchetti può essere inserito in coda è limitato per ogni istanza del router logico. Quando viene raggiunto il limite massimo, i pacchetti meno recenti vengono eliminati e questa statistica aumenta in base al numero di pacchetti non recenti che vengono eliminati.

4.2.0

pkt_attr_error_drops

Numero di pacchetti per cui l'operazione di attributo non è riuscita. NSX utilizza gli attributi dei pacchetti per facilitare l'elaborazione dei pacchetti.

Gli attributi dei pacchetti possono essere allocati, impostati o non impostati. In casi regolari, l'operazione non avrà esito negativo.

Alcuni motivi per aumentare questa statistica potrebbero essere i seguenti:
  • L'heap dell'attributo del pacchetto è esaurito.
  • l'attributo del pacchetto è danneggiato.
4.2.0

relayed_dhcpv4_req

Richieste DHCPv4 inoltrate.

4.2.0

relayed_dhcpv4_rsp

Risposte DHCPv4 inoltrate.

4.2.0

relayed_dhcpv6_req

Richieste DHCPv6 inoltrate.

4.2.0

relayed_dhcpv6_rsp

Risposte DHCPv6 inoltrate.

4.2.0

rpf_ipv4_drops

Numero di pacchetti IPv4 eliminati a causa di un errore del controllo di inoltro percorso inverso.

Il router distribuito può verificare se l'IP di origine dei pacchetti proviene da un'origine valida (raggiungibile) e può eliminare i pacchetti in base alla configurazione.

È possibile modificare questa impostazione nell'interfaccia utente di NSX Manager.

Per verificare la configurazione corrente nell'interfaccia utente di NSX Manager, eseguire i passaggi seguenti:
  1. Passare a Rete > Segmenti.
  2. Modificare il segmento desiderato.
  3. Passare a Impostazioni aggiuntive.
  4. Verificare la Modalità URPF.
4.2.0

rpf_ipv6_drops

Numero di pacchetti IPv6 eliminati a causa di un errore della verifica di inoltro percorso inverso.

Il router distribuito può verificare se l'IP di origine dei pacchetti proviene da un'origine valida (raggiungibile) e può eliminare i pacchetti in base alla configurazione.

È possibile modificare questa impostazione nell'interfaccia utente di NSX Manager.

Per verificare la configurazione corrente nell'interfaccia utente di NSX Manager, eseguire i passaggi seguenti:
  1. Passare a Rete > Segmenti.
  2. Modificare il segmento desiderato.
  3. Passare a Impostazioni aggiuntive.
  4. Verificare la Modalità URPF.
4.2.0

rx_arp_req

Numero di pacchetti di richieste ARP ricevuti dalla porta del router logico di un router distribuito corrispondente a un determinato segmento.

4.2.0

rx_ipv4

Numero di pacchetti IPv4 che arrivano a una porta di routing logico di un router distribuito corrispondente a un determinato segmento.

4.2.0

rx_ipv6

Numero di pacchetti IPv6 che arrivano a una porta di routing logico di un router distribuito corrispondente a un determinato segmento.

4.2.0

rx_pkt_parsing_error_drops

Numero di errori di analisi dei pacchetti per i pacchetti del router distribuito ricevuti.

Il router distribuito esegue l'analisi dei pacchetti per ogni pacchetto ricevuto per leggere metadati e intestazioni.

Se viene visualizzato un numero elevato per questa statistica, è possibile che i pacchetti non siano strutturati correttamente. Monitorare se si verifica un errore del traffico ed eseguire l'acquisizione di pacchetti per eseguire ulteriormente il debug.

4.2.0

rxgarp (lta)

GARP gratuito ricevuto su un router distribuito.

4.2.0

ttl_ipv4_drops

Numero di pacchetti IPv4 eliminati a causa del TTL (Time-To-Live) basso. Ogni istanza del router logico dedurrà 1 dal valore TTL.

Utilizzare l'acquisizione di pacchetti per determinare quali pacchetti hanno valori TTL bassi. Se il TTL è abbastanza grande nell'origine, i possibili motivi sono troppi hop di routing nel percorso o il pacchetto è in loop, il che è raro.

4.2.0

ttl_ipv6_drops

Numero di pacchetti IPv6 eliminati a causa del TTL (Time-To-Live) basso. Ogni istanza del router logico dedurrà 1 dal valore TTL.

Utilizzare l'acquisizione di pacchetti per determinare quali pacchetti hanno valori TTL bassi. Se il TTL è abbastanza grande nell'origine, i possibili motivi sono troppi hop di routing nel percorso o il pacchetto è in loop, il che è raro.

4.2.0

tx_arp_rsp

Numero di pacchetti di richieste ARP inviate dalla porta del router logico di un router distribuito corrispondente a un determinato segmento.

4.2.0

tx_dispatch_queue_too_long_drops

Numero di pacchetti eliminati dalla coda di invio.

La coda di invio della trasmissione contiene pacchetti auto generati dal router distribuito, ad esempio pacchetti ARP, esplorazione NS e così via.

Ogni pacchetto utilizza le risorse di sistema di gestione dei pacchetti. Se troppi pacchetti vengono inseriti in coda, limitare le dimensioni della coda ed eliminare i pacchetti dalla coda.

4.2.0

tx_ipv4

Numero di pacchetti IPv4 in uscita dalla porta di un router logico di un router distribuito corrispondente a un determinato segmento.

4.2.0

tx_ipv6

Numero di pacchetti IPv6 in uscita dalla porta di un router logico di un router distribuito corrispondente a un determinato segmento.

4.2.0

Modulo: distributed_firewall

Questo modulo del percorso dati fornisce la funzionalità del firewall distribuito. In questa tabella, Rx fa riferimento ai pacchetti ricevuti dalla porta di commutazione (inviati dalla macchina virtuale) e Tx fa riferimento ai pacchetti trasmessi dalla porta di commutazione (ricevuti dalla macchina virtuale). Questo modulo del percorso dati è noto come nsxt-vsip nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

alg_handler_drops

Numero di pacchetti eliminati a causa della gestione di ALG. Tiene traccia dell'errore di gestione dei pacchetti del decodificatore dello stato ALG.

4.2.0

bad_offset_drops

Numero di pacchetti eliminati a causa dell'offset non corretto.

4.2.0

bad_timestamp_drops

Numero di pacchetti eliminati a causa di data e ora non corrette. Ad esempio, i pacchetti ACK che trasportano data e ora precedenti e i pacchetti ricevuti con data e ora imprevisti devono essere eliminati.

4.2.0

congestion_drops

Numero di pacchetti eliminati a causa della congestione. Ad esempio, la congestione rilevata nella coda per un'interfaccia di rete.

4.2.0

fragment_drops

Numero di pacchetti eliminati a causa di un riassemblaggio non riuscito dei pacchetti frammentati.

La frammentazione rompe i pacchetti in frammenti più piccoli in modo che le parti risultanti possano passare attraverso un link con MTU inferiore rispetto alle dimensioni del pacchetto originale.

4.2.0

handshake_error_drops

Numero di pacchetti eliminati a causa di un errore di handshake a tre vie TCP.

Ciò può verificarsi quando il mittente e il destinatario sono in SYN inviato durante l'handshake a tre vie. Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP.

4.2.0

icmp_err_pkt_drops

Numero di pacchetti eliminati a causa di ulteriori pacchetti di risposte di errore ICMP.

Questa statistica tiene traccia dei pacchetti di risposte di errore ICMP aggiuntivi che vengono eliminati.

4.2.0

icmp_error_drops

Numero di pacchetti eliminati a causa di un errore di sequenza nella risposta di errore ICMP al pacchetto TCP.

Quando i numeri di sequenza non rientrano nell'intervallo previsto, si verifica un'eliminazione.

4.2.0

icmp_flood_overlimit_drops

Numero di pacchetti eliminati a causa dell'overlimit del flood ICMP. Nell'interfaccia del kernel è configurato un limite del flood ICMP.

4.2.0

ignored_offloaded_fpdrops

Numero di pacchetti eliminati a causa dell'offload del flusso nell'hardware.

L'offload del flusso nell'hardware significa che il monitoraggio della connessione viene eseguito dalla pipeline dei pacchetti hardware di una smartNIC. In questo caso, la presenza di un pacchetto nel software non è prevista. Il pacchetto non può essere elaborato nel software perché il software non dispone di informazioni CT aggiornate (ad esempio, stati, numeri di sequenza). Il traffico deve quindi essere eliminato.

Questo caso può verificarsi perché l'offload di un flusso nell'hardware richiede un po' di tempo e può essere eseguito con i pacchetti già inseriti in coda per essere recapitati al VSIP. Questa eliminazione è dovuta ai pacchetti fastpath ENS.

4.2.0

ignored_offloaded_spdrops

Numero di pacchetti eliminati a causa dell'offload del flusso nell'hardware.

L'offload del flusso nell'hardware significa che il monitoraggio della connessione viene eseguito dalla pipeline dei pacchetti hardware di una smartNIC. In questo caso, la presenza di un pacchetto nel software non è prevista. Il pacchetto non può essere elaborato nel software perché il software non dispone di informazioni CT aggiornate (ad esempio, stati, numeri di sequenza). Il traffico deve quindi essere eliminato.

Questo caso può verificarsi perché l'offload di un flusso nell'hardware richiede un po' di tempo e può essere eseguito con i pacchetti già inseriti in coda per essere recapitati al VSIP. Il motivo di questa eliminazione è il percorso del codice IOChain, noto anche come slowpath in questo contesto.

4.2.0

ip_option_drops

Numero di pacchetti eliminati perché le opzioni IP non sono consentite.

Se allow_opts nella regola del firewall non è impostata, il pacchetto che tocca quella regola viene eliminato.

4.2.0

l7_alert_drops

La regola L7 è presente ma non è presente alcuna corrispondenza. Viene generato un avviso.

4.2.0

l7_attr_error_drops

Numero di pacchetti eliminati a causa di un errore di impostazione degli attributi di stato.

Ciò si verifica quando la modifica o l'allocazione degli attributi L7 attrconn non riesce e si verifica un'eliminazione.

4.2.0

l7_pending_misc

Questa statistica tiene traccia dei pacchetti che vengono analizzati da DPI al momento. La corrispondenza della regola è in sospeso.

Quando si verifica la corrispondenza della regola L7, viene eseguita l'azione della regola corrispondente nel pacchetto.

4.2.0

lb_reject_drops

Questa statistica tiene traccia delle eliminazioni dovute al pacchetto rifiutato dal bilanciamento del carico.

I pacchetti vengono eliminati se corrisponde a un server virtuale di bilanciamento del carico ma non è selezionato alcun membro del pool.

4.2.0

match_drop_rule_rx_drops

Numero di pacchetti ricevuti eliminati rilasciando o rifiutando la regola del firewall distribuito.

4.2.0

match_drop_rule_tx_drops

Numero di pacchetti trasmessi eliminati rilasciando o rifiutando la regola del firewall distribuito.

4.2.0

memory_drops

Numero di pacchetti eliminati a causa della mancanza di memoria. Si tratta di un errore a livello di capacità.

4.2.0

normalize_drops

Numero di pacchetti eliminati a causa della formattazione errata dei pacchetti. Ad esempio, versione IP non corrispondente, offset intestazione TCP incoerente con la lunghezza totale della descrizione del pacchetto

4.2.0

other_flood_overlimit_drops

Numero di pacchetti eliminati a causa dell'overlimit di flood di altri protocolli. Nell'interfaccia del kernel per altri protocolli è presente un limite flood.

4.2.0

pkts_frag_queued_v4_misc

Durante la frammentazione dei pacchetti, i frammenti dei pacchetti vengono aggiunti alla coda dei frammenti. Questi frammenti di pacchetti non vengono necessariamente eliminati. Un riassemblaggio dei pacchetti riuscito indica che non vengono eliminati pacchetti frammentati.

Questa statistica tiene traccia dei pacchetti IPv4 aggiunti alla coda dei frammenti.

4.2.0

pkts_frag_queued_v6_misc

Durante la frammentazione dei pacchetti, i frammenti dei pacchetti vengono aggiunti alla coda dei frammenti. Questi frammenti di pacchetti non vengono necessariamente eliminati. Un riassemblaggio dei pacchetti riuscito indica che non vengono eliminati pacchetti frammentati.

Questa statistica tiene traccia dei pacchetti IPv6 aggiunti alla coda dei frammenti.

4.2.0

proto_cksum_drops

Numero di pacchetti eliminati a causa di un checksum del protocollo errato. Ciò si verifica quando la convalida del checksum del pacchetto non riesce.

4.2.0

rx_ipv4_drop_pkts

Numero di pacchetti IPv4 ricevuti eliminati.

4.2.0

rx_ipv4_pass_pkts

Numero di pacchetti IPv4 ricevuti passati.

4.2.0

rx_ipv4_reject_pkts

Numero di pacchetti IPv4 ricevuti rifiutati.

4.2.0

rx_ipv6_drop_pkts

Numero di pacchetti IPv6 ricevuti eliminati.

4.2.0

rx_ipv6_pass_pkts

Numero di pacchetti IPv6 ricevuti passati.

4.2.0

rx_ipv6_reject_pkts

Numero di pacchetti IPv6 ricevuti rifiutati.

4.2.0

rx_l2_drop_pkts

Numero di pacchetti di livello 2 ricevuti eliminati.

4.2.0

seqno_bad_ack_drops

Numero di pacchetti eliminati a causa della conferma TCP di inoltro di più di una finestra.

Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP.

4.2.0

seqno_gt_max_ack_drops

Numero di pacchetti eliminati a causa del numero di sequenza TCP maggiore del numero ACK massimo.

Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP.

4.2.0

seqno_lt_minack_drops

Numero di pacchetti eliminati a causa del numero di sequenza TCP inferiore rispetto al numero ACK minimo.

Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP.

4.2.0

seqno_old_ack_drops

Numero di pacchetti eliminati perché TCP conferma più di un frammento.

Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP.

4.2.0

seqno_old_retrans_drops

Numero di pacchetti eliminati a causa di una ritrasmissione TCP precedente a una finestra.

Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP.

4.2.0

seqno_outside_window_drops

Numero di pacchetti eliminati a causa del numero di sequenza TCP esterno alla finestra.

Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP.

4.2.0

short_drops

Numero di pacchetti brevi eliminati.

I pacchetti brevi sono pacchetti con lunghezza non corretta, ad esempio pacchetti con valore ip_len non valido.

4.2.0

spoof_guard_drops

Numero di pacchetti eliminati a causa del controllo di SpoofGuard.

SpoofGuard è uno strumento progettato per impedire alle macchine virtuali dell'ambiente di inviare traffico con un indirizzo IP non è autorizzato.

4.2.0

src_limit_misc

Numero di pacchetti che hanno raggiunto il limite di origine.

Ciò è correlato all'elaborazione dei pacchetti del firewall. Ciò si verifica a causa di un errore di inserimento del nodo di origine nella struttura Red-Black (RB) a causa del limite raggiunto.

4.2.0

state_insert_drops

Numero di pacchetti eliminati a causa di un errore di inserimento dello stato. Ciò si verifica a causa dell'inserimento dello stato duplicato.

4.2.0

state_limit_drops

Numero di pacchetti eliminati a causa del limite massimo di stati raggiunto.

Ad esempio, se il numero di stati TCP è superiore al limite, si verifica l'eliminazione.

4.2.0

state_mismatch_drops

Numero di pacchetti eliminati a causa della mancata corrispondenza dello stato.

Esistono diversi motivi per cui è necessaria l'eliminazione, ad esempio STRICTNOSYN, HANDSHAKE_SYNSENT, SEQ_GT_SEQHI e così via.

4.2.0

strict_no_syn_drops

Numero di pacchetti eliminati a causa della modalità di applicazione rigida senza SYN. È previsto che il pacchetto SYN sia visualizzato in modalità restrittiva.

4.2.0

syn_expected_drops

Il pacchetto corrisponde a un server virtuale di bilanciamento del carico, ma non è un pacchetto SYN. Pertanto, il sistema non dovrebbe creare uno stato per esso. Ciò comporta l'eliminazione del pacchetto. Questa statistica tiene traccia di questa eliminazione.

4.2.0

syn_proxy_drops

Numero di pacchetti eliminati a causa di synproxy. Ciò consente di proteggere i server TCP da attacchi come SYN FLOOD.

4.2.0

tcp_flood_overlimit_drops

Numero di pacchetti eliminati a causa dell'overlimit del flood TCP. Nell'interfaccia del kernel è configurato un limite di flood TCP.

4.2.0

tx_ipv4_drop_pkts

Numero di pacchetti IPv4 trasmessi eliminati.

4.2.0

tx_ipv4_pass_pkts

Numero di pacchetti IPv4 trasmessi.

4.2.0

tx_ipv4_reject_pkts

Numero di pacchetti IPv4 trasmessi rifiutati.

4.2.0

tx_ipv6_drop_pkts

Numero di pacchetti IPv6 trasmessi eliminati.

4.2.0

tx_ipv6_pass_pkts

Numero di pacchetti IPv6 trasmessi passati.

4.2.0

tx_ipv6_reject_pkts

Numero di pacchetti IPv6 trasmessi rifiutati.

4.2.0

tx_l2_drop_pkts

Numero di pacchetti di livello 2 trasmessi eliminati.

4.2.0

udp_flood_overlimit_drops

Numero di pacchetti eliminati a causa dell'overlimit del flood UDP. Nell'interfaccia del kernel è configurato un limite di flood UDP.

4.2.0

Modulo: virtual_switch

Questo modulo del percorso dati di livello 2 è responsabile della funzionalità di commutazione. Questo modulo inoltra i pacchetti all'interno di un dominio di broadcast in base alla VLAN e VNI in cui un'interfaccia riceve un pacchetto. In questa tabella, Rx si riferisce ai pacchetti inviati "al" commutatore e Tx fa riferimento ai pacchetti ricevuti "dal" commutatore. Mcast si riferisce ai pacchetti multicast. Questo modulo del percorso dati è noto come nsxt-vswitch nella CLI centrale NSX.

Statistica Descrizione Versione introdotta

forged_transmit_rx_drops

Numero di pacchetti eliminati come eliminazioni contraffatte perché il MAC di origine del pacchetto è diverso dal MAC della scheda della macchina virtuale.

Le trasmissioni contraffatte o l'acquisizione MAC disabilitata nel segmento causano queste interruzioni. L'abilitazione dell'acquisizione MAC o delle trasmissioni contraffatte nel segmento dovrebbe attenuare il problema.

4.2.0

unknown_unicast_rx_pkts

Numero di pacchetti unicast sconosciuti ricevuti da vSwitch inoltrati ad altre porte dello stesso dominio di broadcast.

La statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch.

Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC.

4.2.0

unknown_unicast_rx_uplink_pkts

Numero di pacchetti ricevuti da uno o più uplink al vSwitch che sono unicast sconosciuti inoltrati ad altre porte dello stesso dominio di broadcast da vSwitch.

La statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch.

Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC.

4.2.0

unknown_unicast_tx_pkts

Numero di pacchetti unicast sconosciuti inoltrati ad altre porte dello stesso dominio di broadcast da vSwitch.

La statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch.

Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC.

4.2.0

unknown_unicast_tx_uplink_pkts

Numero di pacchetti unicast sconosciuti inoltrati tramite vSwitch a uno o più uplink.

La statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch.

Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC.

4.2.0

vlan_tag_mismatch_rx

Numero di pacchetti unicast e broadcast eliminati a causa di una mancata corrispondenza del tag VLAN.

Queste interruzioni si verificano quando il tag VLAN di un pacchetto non è consentito in base al criterio VLAN del segmento. La modifica del criterio VLAN del segmento o l'invio di pacchetti con un tag VLAN consentito può attenuare il problema.

4.2.0

vlan_tag_mismatch_rx_mcast

Numero di pacchetti multicast eliminati a causa di una mancata corrispondenza del tag VLAN.

Queste interruzioni si verificano quando il tag VLAN di un pacchetto non è consentito in base al criterio VLAN del segmento. La modifica del criterio VLAN del segmento o l'invio di pacchetti con un tag VLAN consentito può attenuare il problema.

4.2.0

vlan_tag_mismatch_tx

Numero di pacchetti unicast eliminati a causa di una mancata corrispondenza del tag VLAN.

Il commutatore host individua una voce nella tabella di ricerca in base all'indirizzo di destinazione del pacchetto. Quando si tenta di inoltrare il pacchetto da una porta, queste interruzioni si verificano quando il tag VLAN di un pacchetto non è consentito in base al criterio VLAN del segmento. La modifica del criterio VLAN del segmento o l'invio di pacchetti con un tag VLAN consentito può attenuare il problema.

4.2.0

vlan_tag_mismatch_tx_mcast

Numero di pacchetti multicast eliminati a causa di una mancata corrispondenza del tag VLAN.

Il commutatore host individua una voce nella tabella di ricerca in base all'indirizzo di destinazione del pacchetto. Quando si tenta di inoltrare il pacchetto da una porta, queste interruzioni si verificano quando il tag VLAN di un pacchetto non è consentito in base al criterio VLAN del segmento. La modifica del criterio VLAN del segmento o l'invio di pacchetti con un tag VLAN consentito può attenuare il problema.

4.2.0

vni_tag_mismatch_tx

Numero di pacchetti unicast eliminati a causa di una mancata corrispondenza del tag VNI.

Il commutatore host individua una voce nella tabella di ricerca in base all'indirizzo di destinazione del pacchetto. Quando si tenta di inoltrare il pacchetto da una porta, queste interruzioni si verificano quando il tag VNI di un pacchetto non è consentito in base al criterio VNI del segmento. Lo spostamento della macchina virtuale di destinazione in questo segmento di overlay può risolvere il problema.

4.2.0

vni_tag_mismatch_tx_mcast

Numero di pacchetti multicast eliminati a causa di una mancata corrispondenza del tag VNI.

Il commutatore host individua una voce nella tabella di ricerca in base all'indirizzo di destinazione del pacchetto. Quando si tenta di inoltrare il pacchetto da una porta, queste interruzioni si verificano quando il tag VNI di un pacchetto non è consentito in base al criterio VNI del segmento. Lo spostamento della macchina virtuale di destinazione in questo segmento di overlay può risolvere il problema.

4.2.0