Questa documentazione di riferimento descrive le varie statistiche raccolte dai nodi di trasporto host ESXi nella distribuzione di NSX.
La prima sezione di questo documento descrive le statistiche del nodo di trasporto host visibili nell'interfaccia utente di NSX Manager.
Le sezioni rimanenti di questo documento descrivono le statistiche raccolte dai vari moduli del percorso dati in esecuzione nei nodi di trasporto host ESXi. Per visualizzare queste statistiche, è necessario utilizzare le API di NSX o la CLI centrale NSX. La colonna Statistiche in queste sezioni fa riferimento al nome della statistica come visualizzato nell'output dell'API. Per ulteriori informazioni sul flusso di lavoro dell'API per la visualizzazione delle statistiche del nodo di trasporto host, vedere Monitoraggio delle statistiche dei nodi di trasporto host NSX tramite API.
Scheda Statistiche percorso dati
In questa scheda vengono visualizzati i valori aggregati delle statistiche per un nodo di trasporto host nell'interfaccia utente di NSX Manager.
Statistica | Descrizione | Versione introdotta |
---|---|---|
Pacchetti broadcast ricevuti |
Frequenza di pacchetti broadcast ricevuti dal VDS dalla macchina virtuale. Questa statistica viene mappata internamente alla statistica - rxbcastpkts. |
4.2.0 |
Pacchetti broadcast trasmessi |
Frequenza di pacchetti di broadcast inviati dal VDS alla macchina virtuale. Questa statistica viene mappata internamente alla statistica - txbcastpkts. |
4.2.0 |
Eliminazione dei pacchetti di limitazione della velocità di trasmissione |
Numero di pacchetti in ingresso o in uscita eliminati in base ai limiti di velocità di trasmissione. I limiti di velocità sono utilizzati per proteggere la rete o le macchine virtuali da eventi come tempeste di trasmissioni. È possibile configurare i valori dei limiti di velocità nell'interfaccia utente di NSX Manager in . Questa statistica viene mappata internamente a queste statistiche dettagliate: rx_rate_limit_bcast_drops, rx_rate_limit_mcast_drops, tx_rate_limit_bcast_drops tx_rate_limit_mcast_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
DFW |
Pacchetti totali eliminati dal modulo DFW per vari motivi. Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni. |
4.2.0 |
Percorso dati L3 |
Pacchetti totali eliminati dal modulo Percorso dati L3 per vari motivi. Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni. |
4.2.0 |
Errore di sistema del percorso dati |
Pacchetti totali eliminati a causa di errori critici del sistema interno. Se queste statistiche aumentano in modo coerente, significa che le risorse dell'host ESXi sono in esaurimento. Lo spostamento di alcune macchine virtuali in altri host potrebbe aiutare il carico. Questa statistica viene mappata internamente a queste statistiche dettagliate: leaf_rx_system_err_drops, uplink_rx_system_err_drops, pkt_attr_error_drops, tx_dispatch_queue_too_long_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Percorso rapido |
Pacchetti totali eliminati dal modulo fastpath per vari motivi. Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni. |
4.2.0 |
Flusso Fastpath Hit |
Frequenza di riscontri della tabella di flusso nel modulo della cache ENS/flusso. Questa statistica viene mappata internamente alla statistica - riscontri. |
4.2.0 |
Flusso FastPath mancante |
Frequenza dei pacchetti elaborati da slowpath a causa di una mancata riuscita del flusso. Questa statistica non si sovrappone alla statistica nella riga successiva. Questa statistica viene mappata internamente alla statistica correlata alla mancata riuscita del flusso. |
4.2.0 |
Eliminazioni dei pacchetti fastpath |
Numero totale di pacchetti eliminati da fastpath della cache del flusso, nella direzione di ricezione o trasmissione a tutte le porte. Questa statistica viene mappata internamente a queste statistiche dettagliate: rx_drops, tx_drops, rx_drops_uplink, tx_drops_uplink, rx_drops_sp tx_drops_sp. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazioni dei pacchetti del limite di flooding del firewall |
Numero di pacchetti eliminati a causa di vari protocolli che superano il limite di flooding. Nell'interfaccia del kernel è configurato un limite di flooding per diversi protocolli. Questa statistica viene mappata internamente a queste statistiche dettagliate: udp_flood_overlimit_drops, tcp_flood_overlimit_drops, icmp_flood_overlimit_drops, other_flood_overlimit_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazioni dei pacchetti di errori interni del firewall |
Numero di pacchetti eliminati dal firewall a causa di errori interni. Questa statistica viene mappata internamente a queste statistiche dettagliate: memory_drops, state_insert_drops, l7_attr_error_drops, lb_reject_drops src_limit_misc. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazioni dei pacchetti non formattati nel firewall |
Numero di pacchetti non formattati eliminati dal firewall. Questa statistica viene mappata internamente a queste statistiche dettagliate: fragment_drops, short_drops, normalize_drops, bad_timestamp_drops proto_cksum_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Rifiuti di pacchetti del firewall |
Numero di pacchetti rifiutati dal firewall per vari motivi. Questa statistica viene mappata internamente a queste statistiche dettagliate: rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts, tx_ipv6_reject_pkts. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazioni di pacchetti ricevuti dalla regola del firewall |
Numero di pacchetti ricevuti eliminati rilasciando o rifiutando la regola del firewall distribuito. Questa statistica viene mappata internamente alla statistica - match_drop_rule_rx_drops. |
4.2.0 |
Eliminazioni di pacchetti trasmessi dalla regola del firewall |
Numero di pacchetti trasmessi eliminati rilasciando o rifiutando la regola del firewall distribuito. Questa statistica viene mappata internamente alla statistica - match_drop_rule_tx_drops. |
4.2.0 |
Eliminazione dei pacchetti del controllo dello stato del firewall |
Numero di pacchetti eliminati a causa di controlli correlati allo stato. Questa statistica viene mappata internamente a queste statistiche dettagliate: icmp_err_pkt_drops, alg_handler_drops, syn_expected_drops, ip_option_drops, syn_proxy_drops, spoof_guard_drops, state_mismatch_drops strict_no_syn_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazioni dei pacchetti completi della tabella di stato del firewall |
Numero di pacchetti eliminati a causa del limite massimo di stati raggiunto. Ad esempio, se il numero di stati TCP è superiore al limite, si verifica l'eliminazione. Questa statistica viene mappata internamente alla statistica - state_limit_drops. |
4.2.0 |
Eliminazioni dei pacchetti totali del firewall |
Numero totale di pacchetti eliminati dal firewall per vari motivi. Questa statistica viene mappata internamente a queste statistiche dettagliate: rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts, tx_ipv6_reject_pkts, rx_ipv4_drop_pkts, tx_ipv4_drop_pkts, rx_ipv6_drop_pkts, tx_ipv6_drop_pkts, rx_l2_drop_pkts tx_l2_drop_pkts. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazione dei pacchetti di mancata corrispondenza della rete hostswitch |
Numero di pacchetti unicast, multicast e broadcast eliminati a causa della mancata corrispondenza dei tag VNI o VLAN. Questa statistica viene mappata internamente a queste statistiche dettagliate: vlan_tag_mismatch_rx, vlan_tag_mismatch_tx, vni_tag_mismatch_tx, vlan_tag_mismatch_rx_mcast, vlan_tag_mismatch_tx_mcast vni_tag_mismatch_tx_mcast. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazione dei pacchetti MAC contraffatti ricevuti da hostswitch |
Numero di pacchetti eliminati come eliminazioni contraffatte perché il MAC di origine del pacchetto è diverso dal MAC della scheda della macchina virtuale. Le trasmissioni contraffatte o l'acquisizione MAC disabilitata nel segmento causano queste interruzioni. L'abilitazione dell'acquisizione MAC o delle trasmissioni contraffatte nel segmento dovrebbe attenuare il problema. Questa statistica viene mappata internamente alla statistica - forged_transmit_rx_drops. |
4.2.0 |
Eliminazioni pacchetti limite hop L3 |
Numero di pacchetti IPv4 o IPv6 eliminati a causa del TTL (Time-To-Live) basso. Ogni istanza del router logico dedurrà 1 dal valore TTL. Utilizzare l'acquisizione di pacchetti per determinare quali pacchetti hanno valori TTL bassi. Questa statistica viene mappata internamente a queste statistiche dettagliate: ttl_ip4_drops, ttl_ipv6_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazioni dei pacchetti router adiacente L3 non raggiungibile |
Numero di pacchetti IPv4 o IPv6 eliminati a causa della risoluzione del router adiacente non riuscita. Questa statistica viene mappata internamente a queste statistiche dettagliate: arp_hold_pkt_drops, ns_hold_pkt_drops. |
4.2.0 |
Eliminazione dei pacchetti L3 senza route |
Ogni istanza del router logico dispone della propria tabella di routing per le ricerche di route. Questa statistica aumenta quando i pacchetti IPv4 vengono eliminati a causa della mancanza di route corrispondente per tale istanza del router logico. Questa statistica viene mappata internamente a queste statistiche dettagliate: no_route_ipv4_drops, no_route_ipv6_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazioni dei pacchetti di inoltro percorso inverso L3 |
Numero di pacchetti IPv4 o IPv6 eliminati a causa di un errore del controllo di inoltro percorso inverso. Il router distribuito può verificare se l'IP di origine dei pacchetti proviene da un'origine valida (raggiungibile) e può eliminare i pacchetti in base alla configurazione. È possibile modificare questa impostazione nell'interfaccia utente di NSX Manager. Questa statistica viene mappata internamente a queste statistiche dettagliate: rpf_ipv4_drops, rpf_ipv6_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Tabella di acquisizione Mac completa |
Frequenza di eliminazione dei pacchetti a causa di errori di aggiornamento della tabella MAC al momento dell'acquisizione MAC dal piano di controllo centrale (CCP) o per i pacchetti ricevuti dalla rete underlay. Verificare che la tabella MAC sia piena nel nodo di trasporto host utilizzando il comando seguente: $ nsxcli -c "get segment mac-table" Se necessario, aumentare le dimensioni della tabella MAC. Questa statistica viene mappata internamente a queste statistiche dettagliate: mac_tbl_update_full, mac_tbl_lookup_full. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Pacchetti multicast ricevuti |
Frequenza di pacchetti multicast ricevuti dal VDS dalla macchina virtuale. Questa statistica viene mappata internamente alla statistica: rx_mcast_pkts. |
4.2.0 |
Pacchetti multicast trasmessi |
Frequenza di pacchetti multicast inviati dal VDS alla macchina virtuale. Questa statistica viene mappata internamente alla statistica: tx_mcast_pkts. |
4.2.0 |
Percorso dati overlay L2 |
Pacchetti totali eliminati dal modulo L2 percorso dati overlay per vari motivi. Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni. |
4.2.0 |
Percorso dati overlay trasmesso all'uplink |
Frequenza di pacchetti unicast inoltrati a VTEP remoti a causa di un errore di ricerca della tabella MAC. I valori grandi implicano flussi L2 unidirezionali o problemi di aggiornamento della tabella MAC. Verificare che la tabella MAC sia piena nel nodo di trasporto host utilizzando il comando seguente: $ nsxcli -c "get segment mac-table" Se necessario, aumentare le dimensioni della tabella MAC. Questa statistica viene mappata internamente alla statistica: mac_tbl_lookup_flood. |
4.2.0 |
Risoluzione router adiacente assistito del pannello di controllo con overlay non riuscito |
Frequenza di eliminazione dei pacchetti perché il piano di controllo non è in grado di assistere correttamente durante la risoluzione del router adiacente. I motivi potrebbero essere il fatto che CCP non abbia ancora appreso la mappatura IP-MAC oppure che il sistema stia esaurendo la risorsa buffer dei pacchetti. Questa statistica viene mappata internamente a queste statistiche dettagliate: nd_proxy_resp_unknown, arp_proxy_resp_unknown, nd_proxy_req_fail_drops, arp_proxy_req_fail_drops, arp_proxy_resp_drops nd_proxy_resp_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazioni dei pacchetti ricevuti dall'overlay |
Numero di pacchetti eliminati in VDL2LeafInput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione ricevuti da Leaf per identificare il motivo specifico delle eliminazioni. Questa statistica viene mappata internamente a queste statistiche dettagliate: leaf_rx_ref_port_not_found_drops, leaf_rx_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazioni dei pacchetti trasmessi dall'overlay |
Numero totale di eliminazioni in VDL2LeafOutput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione trasmessi da Leaf per identificare il motivo specifico delle eliminazioni. Questa statistica viene mappata internamente alla statistica: leaf_tx_drops. |
4.2.0 |
Eliminazioni dei pacchetti ricevuti dall'uplink dell'overlay |
Numero di pacchetti eliminati in VDL2UplinkInput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione ricevuti dall'uplink per identificare il motivo specifico delle eliminazioni. Questa statistica viene mappata internamente a queste statistiche dettagliate: uplink_rx_drops, uplink_rx_guest_vlan_drops, uplink_rx_invalid_encap_drops mcast_proxy_rx_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazioni dei pacchetti trasmessi dall'uplink dell'overlay |
Numero totale di pacchetti eliminati in VDL2UplinkOutput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione trasmessi dall'uplink per identificare il motivo specifico delle interruzioni. Questa statistica viene mappata internamente a queste statistiche dettagliate: uplink_tx_drops, nested_tn_mcast_proxy_same_vlan_tx_drops, nested_tn_mcast_proxy_diff_vlan_tx_drops mcast_poxy_tx_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
PNIC ricevuta (mbps) |
Megabit ricevuti al secondo. Questa statistica viene mappata internamente alla statistica: rxmbps. |
4.2.0 |
PNIC ricevuta (pps) |
Pacchetti ricevuti al secondo. Questa statistica viene mappata internamente alla statistica: rxpps. |
|
Eliminazioni ricevute da PNIC |
Errori ricevuti al secondo. Un valore diverso da zero indica in genere i due casi seguenti:
Questa statistica viene mappata internamente alla statistica: rxep. |
4.2.0 |
PNIC trasmessa (mbps) |
Megabit trasmessi al secondo. Questa statistica viene mappata internamente alla statistica: txmbps |
4.2.0 |
PNIC trasmessa (pps) |
Pacchetti trasmessi al secondo. Questa statistica viene mappata internamente alla statistica: txpps. |
4.2.0 |
Eliminazioni PNIC trasmessa |
Errori trasmessi al secondo. Questa statistica viene mappata internamente alla statistica: txep. |
4.2.0 |
PNIC |
Numero delle NIC fisiche. Questa statistica viene mappata internamente alla statistica: num_pnics. |
4.2.0 |
Eliminazioni di errori di analisi dei pacchetti |
Numero di pacchetti ND (Neighbor Discovery) IPv6 che non sono stati analizzati correttamente. Esaminare i registri per cercare i messaggi di errore. Eseguire le catture di pacchetti nella porta per identificare se i pacchetti non sono formattati. Questa statistica viene mappata internamente alla statistica: nd_parse_errors. |
4.2.0 |
Solo SlowPath |
Frequenza di pacchetti che vengono sempre elaborati in slowpath per impostazione predefinita. Un esempio è il pacchetto broadcast. Questa statistica viene mappata internamente alla statistica: slowpath. |
4.2.0 |
Eliminazioni dei pacchetti SpoofGuard |
Numero di pacchetti IPv4/IPv6/ARP eliminati da SpoofGuard. SpoofGuard protegge dallo spoofing IP mantenendo una tabella di riferimento di nomi/indirizzi MAC e IP delle macchine virtuali. Questo valore verrà incrementato solo se SpoofGuard è abilitato nel segmento o nella porta del segmento. Questa statistica viene mappata internamente a queste statistiche dettagliate: spoof_guard_ipv4_drops, spoof_guard_arp_drops, spoof_guard_ipv6_drops, spoof_guard_nd_drops spoof_guard_non_ip_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Sicurezza commutatore |
Pacchetti totali eliminati dal modulo Sicurezza commutatore per vari motivi. Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni. |
4.2.0 |
Endpoint tunnel sconosciuto |
Frequenza di eliminazioni dei pacchetti per cui non è possibile apprendere il MAC esterno di origine perché l'etichetta GENEVE in entrata è sconosciuta. I valori grandi di questa statistica possono indicare la mancanza di aggiornamenti VTEP remoti nel nodo di trasporto dal piano di controllo. Utilizzare la CLI per verificare la tabella VTEP remota nel nodo di trasporto. Questa statistica viene mappata internamente alla statistica: uplink_rx_skip_mac_learn. |
4.2.0 |
VNIC ricevuta (mbps) |
Megabit ricevuti al secondo. Questa statistica viene mappata internamente alla statistica: rxmbps. |
4.2.0 |
VNIC ricevuta (pps) |
Pacchetti ricevuti al secondo. Questa statistica viene mappata internamente alla statistica: rxpps. |
4.2.0 |
Eliminazioni ricevute da VNIC |
Errori ricevuti al secondo. Un valore diverso da zero indica in genere i due casi seguenti:
Questa statistica viene mappata internamente alla statistica: rxep. |
4.2.0 |
VNIC trasmessa (mbps) |
Megabit trasmessi al secondo. Questa statistica viene mappata internamente alla statistica: txmbps. |
4.2.0 |
VNIC trasmessa (pps) |
Pacchetti trasmessi al secondo. Questa statistica viene mappata internamente alla statistica: txpps. |
4.2.0 |
Eliminazioni VNIC trasmessa |
Errori trasmessi al secondo. Un valore diverso da zero indica in genere quanto segue:
Questa statistica viene mappata internamente alla statistica: txep. |
4.2.0 |
vNIC |
Numero delle NIC virtuali. Questa statistica viene mappata internamente alla statistica: num_vnics. |
4.2.0 |
Eliminazioni dei pacchetti di filtro BPDU del carico di lavoro |
Numero di pacchetti eliminati dal filtro BPDU. Quando il filtro BPDU è abilitato, il traffico all'indirizzo MAC di destinazione BPDU configurato viene eliminato. Questa statistica viene mappata internamente alla statistica: bpdu_filter_drops. |
4.2.0 |
Il DHCP del carico di lavoro non ha consentito l'eliminazione di pacchetti |
Numero di pacchetti DHCPv4 o DHCPv6 eliminati dal blocco client/server DHCP. Questa statistica viene mappata internamente a queste statistiche dettagliate: dhcp_client_block_ipv6_drops, dhcp_server_block_ipv6_drops, dhcp_client_block_ipv4_drops, dhcp_server_block_ipv4_drops dhcp_client_validate_ipv4_drops. Per ulteriori dettagli, vedere le singole definizioni delle statistiche. |
4.2.0 |
Eliminazioni dei pacchetti della protezione RA IPv6 del carico di lavoro |
Numero di pacchetti di annuncio del router IPv6 eliminati da RA Guard. La funzionalità RA Guard filtra gli annunci del router IPv6 (ICMPv6 di tipo 134) trasmessi dalle macchine virtuali. In una distribuzione IPv6, i router utilizzano periodicamente messaggi di annuncio del router multicast, che vengono utilizzati dagli host per la configurazione automatica. È possibile utilizzare RA Guard per proteggere la rete da messaggi RA non autorizzati generati da router non autorizzati o configurati in modo improprio che si connettono al segmento di rete. È possibile configurare RA Guard nell'interfaccia utente di NSX Manager in . Questa statistica viene mappata internamente alla statistica: ra_guard_drops. |
4.2.0 |
vSwitch |
Pacchetti totali eliminati dal modulo vSwitch per vari motivi. Fare clic sul collegamento Percorso dati NSX nell'interfaccia utente per comprendere i dettagli delle interruzioni. |
|
vSwitch ricevuto da uplink |
Frequenza di pacchetti ricevuti da uno o più uplink al vSwitch che sono unicast sconosciuti inoltrati ad altre porte dello stesso dominio di broadcast da vSwitch. Questa statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch. Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC. Questa statistica viene mappata internamente alla statistica: unknown_unicast_rx_uplink_pkts. |
4.2.0 |
vSwitch trasmesso ad uplink |
Frequenza di pacchetti unicast sconosciuti inoltrati tramite vSwitch a uno o più uplink. La statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch. Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC. Questa statistica viene mappata internamente alla statistica: unknown_unicast_tx_uplink_pkts. |
4.2.0 |
Modulo: host_enhanced_fastpath
Questo modulo del percorso dati fornisce statistiche host/infrastruttura per il modulo del percorso dati ENS. Questo modulo del percorso dati è noto come host-fastpath-ens
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
flow_table_occupancy_0_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 0-25%. |
4.2.0 |
flow_table_occupancy_25_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 25-50%. |
4.2.0 |
flow_table_occupancy_50_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 50-75%. |
4.2.0 |
flow_table_occupancy_75_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 75-90%. |
4.2.0 |
flow_table_occupancy_90_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 90-95%. Se il numero di flussi attivi supera le dimensioni della tabella dei flussi, è possibile che si verifichi un aumento degli errori dei flussi, che comporta un peggioramento delle prestazioni. Le statistiche dell'istogramma dell'occupazione della tabella dei flussi sono utili per stabilire se le tabelle dei flussi stanno diventando piene. L'aumento delle dimensioni della tabella dei flussi non sempre migliora le prestazioni se continuano a essere presenti connessioni di breve durata. È possibile che la tabella dei flussi sia sempre piena indipendentemente dalle sue dimensioni. Una tabella dei flussi di grandi dimensioni non sarebbe utile in questo caso. EDP dispone di una logica per rilevare questo problema e abilitare e disabilitare automaticamente le tabelle dei flussi per gestire tale caso. |
4.2.0 |
flow_table_occupancy_95_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 95%. Se il numero di flussi attivi supera le dimensioni della tabella dei flussi, è possibile che si verifichi un aumento degli errori dei flussi, che comporta un peggioramento delle prestazioni. Le statistiche dell'istogramma dell'occupazione della tabella dei flussi sono utili per stabilire se le tabelle dei flussi stanno diventando piene. L'aumento delle dimensioni della tabella dei flussi non sempre migliora le prestazioni se continuano a essere presenti connessioni di breve durata. È possibile che la tabella dei flussi sia sempre piena indipendentemente dalle sue dimensioni. Una tabella dei flussi di grandi dimensioni non sarebbe utile in questo caso. EDP dispone di una logica per rilevare questo problema e abilitare e disabilitare automaticamente le tabelle dei flussi per gestire tale caso. |
4.2.0 |
flow_table_size |
Dimensioni massime della tabella dei flussi in EDP. |
4.2.0 |
hits |
Numero di riscontri della tabella dei flussi nel modulo ENS. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath. |
4.2.0 |
insertion_errors |
Numero di errori di inserimento della tabella dei flussi. Questo può verificarsi quando una tabella dei flussi è piena (o quasi) e sono presenti collisioni di hash. |
4.2.0 |
miss |
Pacchetti elaborati da slowpath a causa di un flusso mancante. Questa statistica non si sovrappone alla statistica slowpath descritta più avanti in questa tabella. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath. |
4.2.0 |
num_flow_tables |
Numero di tabelle dei flussi utilizzate per EDP. L'EDP dispone di una tabella dei flussi per ogni thread EDP. Questa statistica è utile per verificare quante tabelle dei flussi vengono create e utilizzate. |
4.2.0 |
num_flows |
Numero di flussi in EDP. |
4.2.0 |
num_flows_created |
Numero di flussi creati in EDP. Utilizzare questa statistica per calcolare la velocità di creazione del flusso, che sarà utile per stabilire quali sono le caratteristiche del carico di lavoro. Le statistiche dell'istogramma di occupazione della tabella dei flussi indicano se le tabelle dei flussi sono piene o meno. Se la velocità di creazione del flusso è bassa e non sono presenti modifiche significative nella statistica num_flows o nella statistica di occupazione del flusso, significa che il traffico è stabile e lo stato è stazionario. Il numero di flussi attivi rimane stabile. Se la velocità di creazione del flusso è elevata e num_flows aumenta, significa che il numero di flussi attivi è in aumento. Se la velocità di creazione del flusso non diminuisce, le tabelle dei flussi diventeranno prima o poi piene. Se la velocità di creazione del flusso è elevata e le dimensioni medie del flusso non sono piccole, è consigliabile aumentare le dimensioni della tabella dei flussi. Dimensioni medie del flusso = frequenza dei riscontri/frequenza di num_flows_created. Un valore basso per le dimensioni medie del flusso indica che i flussi hanno una durata breve. Sia i riscontri sia num_flows_created si accumulano. È possibile calcolare innanzitutto i valori della velocità per ottenere le dimensioni medie del flusso durante un periodo di tempo specifico. |
4.2.0 |
slowpath |
Pacchetti che vengono sempre elaborati in slowpath per impostazione predefinita. Un esempio è il pacchetto broadcast. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath. |
4.2.0 |
Modulo: host_fastpath_ens_lcore
Questo modulo del percorso dati fornisce le statistiche di utilizzo Lcore stimate per il modulo ENS. Vengono visualizzati fino a 16 Lcore classificati in base all'utilizzo. Se sono configurati meno di 16 Lcore, vengono visualizzati solo gli Lcore con ID validi. Questo modulo del percorso dati è noto come host-fastpath-ens-lcore
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
lcorerank01_lcoreid |
ID di tango 1 thread di kernel per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank01_lcoreusage |
Utilizzo della CPU Lcore rank 1. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank02_lcoreid |
ID del thread del kernel di rango 2 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank02_lcoreusage |
Utilizzo della CPU Lcore rank 2. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank03_lcoreid |
ID del thread del kernel di rango 3 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank03_lcoreusage |
Utilizzo della CPU Lcore rank 3. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank04_lcoreid |
ID del thread del kernel di rango 4 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank04_lcoreusage |
Utilizzo della CPU Lcore rank 4. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank05_lcoreid |
ID del thread del kernel di rango 5 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank05_lcoreusage |
Utilizzo della CPU Lcore rank 5. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank06_lcoreid |
ID del thread del kernel di rango 6 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank06_lcoreusage |
Utilizzo della CPU Lcore rank 6. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank07_lcoreid |
ID del thread del kernel di rango 7 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank07_lcoreusage |
Utilizzo della CPU Lcore rank 7. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank08_lcoreid |
ID del thread del kernel di rango 8 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank08_lcoreusage |
Utilizzo della CPU Lcore rank 8. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank09_lcoreid |
ID del thread del kernel di rango 9 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank09_lcoreusage |
Utilizzo della CPU Lcore rank 9. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank10_lcoreid |
ID del thread del kernel di rango 10 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank10_lcoreusage |
Utilizzo della CPU Lcore rank 10. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank11_lcoreid |
ID del thread del kernel di rango 11 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank11_lcoreusage |
Utilizzo della CPU Lcore rank 11. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank12_lcoreid |
ID del thread del kernel di rango 12 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank12_lcoreusage |
Utilizzo della CPU Lcore rank 12. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank13_lcoreid |
ID del thread del kernel di rango 13 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
|
lcorerank13_lcoreusage |
Utilizzo della CPU Lcore rank 13. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank14_lcoreid |
ID del thread del kernel di rango 14 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank14_lcoreusage |
Utilizzo della CPU Lcore rank 14. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank15_lcoreid |
ID del thread del kernel di rango 15 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank15_lcoreusage |
Utilizzo della CPU Lcore rank 15. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank16_lcoreid |
ID del thread del kernel di rango 16 per la modalità prestazioni di EDP in termini di utilizzo della CPU. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
lcorerank16_lcoreusage |
Utilizzo della CPU Lcore rank 16. Verrà visualizzato solo se l'ID è valido. |
4.2.0 |
Modulo: host_standard_fastpath
Questo modulo del percorso dati fornisce statistiche host/infrastruttura per il modulo del percorso dati della cache dei flussi legacy. Questo modulo del percorso dati è noto come host-fastpath-standard
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
flow_table_occupancy_0_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 0-25%. |
4.2.0 |
flow_table_occupancy_25_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 25-50%. |
4.2.0 |
flow_table_occupancy_50_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 50-75%. |
4.2.0 |
flow_table_occupancy_75_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 75-90%. |
4.2.0 |
flow_table_occupancy_90_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 90-95%. Se il numero di flussi attivi supera le dimensioni della tabella dei flussi, è possibile che si verifichi un aumento degli errori dei flussi, che comporta un peggioramento delle prestazioni. Le statistiche dell'istogramma dell'occupazione della tabella dei flussi sono utili per stabilire se le tabelle dei flussi stanno diventando piene. L'aumento delle dimensioni della tabella dei flussi non sempre migliora le prestazioni se continuano a essere presenti connessioni di breve durata. È possibile che la tabella dei flussi sia sempre piena indipendentemente dalle sue dimensioni. Una tabella dei flussi di grandi dimensioni non sarebbe utile in questo caso. EDP dispone di una logica per rilevare questo problema e abilitare e disabilitare automaticamente le tabelle dei flussi per gestire tale caso. |
4.2.0 |
flow_table_occupancy_95_pct |
Istogramma: numero di tabelle dei flussi con utilizzo 95%. Se il numero di flussi attivi supera le dimensioni della tabella dei flussi, è possibile che si verifichi un aumento degli errori dei flussi, che comporta un peggioramento delle prestazioni. Le statistiche dell'istogramma dell'occupazione della tabella dei flussi sono utili per stabilire se le tabelle dei flussi stanno diventando piene. L'aumento delle dimensioni della tabella dei flussi non sempre migliora le prestazioni se continuano a essere presenti connessioni di breve durata. È possibile che la tabella dei flussi sia sempre piena indipendentemente dalle sue dimensioni. Una tabella dei flussi di grandi dimensioni non sarebbe utile in questo caso. EDP dispone di una logica per rilevare questo problema e abilitare e disabilitare automaticamente le tabelle dei flussi per gestire tale caso. |
4.2.0 |
flow_table_size |
Dimensioni massime della tabella dei flussi in EDP. |
4.2.0 |
hits |
Numero di riscontri della tabella dei flussi nel modulo ENS. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath. |
4.2.0 |
insertion_errors |
Numero di errori di inserimento della tabella dei flussi. Questo può verificarsi quando una tabella dei flussi è piena (o quasi) e sono presenti collisioni di hash. |
4.2.0 |
miss |
Pacchetti elaborati da slowpath a causa di un flusso mancante. Questa statistica non si sovrappone alla statistica slowpath descritta più avanti in questa tabella. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath. |
4.2.0 |
num_flow_tables |
Numero di tabelle dei flussi utilizzate per EDP. L'EDP dispone di una tabella dei flussi per ogni thread EDP. Questa statistica è utile per verificare quante tabelle dei flussi vengono create e utilizzate. |
4.2.0 |
num_flows |
Numero di flussi in EDP. |
4.2.0 |
num_flows_created |
Numero di flussi creati in EDP. Utilizzare questa statistica per calcolare la velocità di creazione del flusso, che sarà utile per stabilire quali sono le caratteristiche del carico di lavoro. Le statistiche dell'istogramma di occupazione della tabella dei flussi indicano se le tabelle dei flussi sono piene o meno. Se la velocità di creazione del flusso è bassa e non sono presenti modifiche significative nella statistica num_flows o nella statistica di occupazione del flusso, significa che il traffico è stabile e lo stato è stazionario. Il numero di flussi attivi rimane stabile. Se la velocità di creazione del flusso è elevata e num_flows aumenta, significa che il numero di flussi attivi è in aumento. Se la velocità di creazione del flusso non diminuisce, le tabelle dei flussi diventeranno prima o poi piene. Se la velocità di creazione del flusso è elevata e le dimensioni medie del flusso non sono piccole, è consigliabile aumentare le dimensioni della tabella dei flussi. Dimensioni medie del flusso = frequenza dei riscontri/frequenza di num_flows_created. Un valore basso per le dimensioni medie del flusso indica che i flussi hanno una durata breve. Sia i riscontri sia num_flows_created si accumulano. È possibile calcolare innanzitutto i valori della velocità per ottenere le dimensioni medie del flusso durante un periodo di tempo specifico. |
4.2.0 |
slowpath |
Pacchetti che vengono sempre elaborati in slowpath per impostazione predefinita. Un esempio è il pacchetto broadcast. Questa statistica può essere utilizzata per calcolare la velocità di hit/miss/slowpath del flusso oppure il rapporto hit/miss/slowpath. |
4.2.0 |
Modulo: host_net_thread_nioc
Questo modulo del percorso dati fornisce statistiche del thread di rete correlate a NIOC. Questo modulo del percorso dati è noto come host-net-thread-nioc
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
hist_0_pct |
Istogramma: numero di thread compresi tra 0% e 25% |
4.2.0 |
hist_25_pct |
Istogramma: numero di thread compresi tra 25% e 50% |
4.2.0 |
hist_50_pct |
Istogramma: numero di thread compresi tra 50% e 70% |
4.2.0 |
hist_70_pct |
Istogramma: numero di thread compresi tra 70% e 80% |
4.2.0 |
hist_80_pct |
Istogramma: numero di thread compresi tra 80% e 85% |
4.2.0 |
hist_85_pct |
Istogramma: numero di thread compresi tra 85% e 90% |
4.2.0 |
hist_90_pct |
Istogramma: numero di thread compresi tra 90% e 95% |
4.2.0 |
hist_95_pct |
Istogramma: numero di thread compresi tra 95% e 97% |
4.2.0 |
hist_97_pct |
Istogramma: numero di thread compresi tra 97% e 99% |
4.2.0 |
hist_99_pct |
Istogramma: numero di thread con utilizzo maggiore del 99%. I problemi del percorso dati di rete vengono rivelati da tre sintomi: eliminazioni di pacchetti, velocità effettiva bassa e latenza elevata. Anche se questi sintomi possono essere causati sia da problemi funzionali sia da problemi relativi alle prestazioni, il più delle volte sono causati da problemi relativi alle prestazioni. È fondamentale stabilire se il problema è correlato alle prestazioni o meno nella fase iniziale dell'indagine. Nelle reti definite dal software, specialmente quelle basate sulla virtualizzazione, la CPU è la risorsa più critica che influisce sulle prestazioni di rete. Con le schede NIC più veloci disponibili sul mercato, la larghezza di banda della rete diventa raramente un impedimento. L'elaborazione dei pacchetti nel percorso dati implica in genere un set di thread eseguiti in una pipeline, associati a code e buffer che contengono pacchetti. Quando un thread nella pipeline, dai thread della vCPU ai thread di rete del kernel, diventa sovraccarico, le code e i buffer corrispondenti possono riempirsi causando l'eliminazione dei pacchetti. Questo limita la velocità effettiva. È fondamentale monitorare l'utilizzo della CPU dei thread di rete del kernel oltre alle statistiche di rete tradizionali. Anziché usare i numeri di utilizzo della CPU per i singoli thread, sono stati raggruppati per generare un istogramma. È quindi possibile monitorare i bin dell'istogramma come 90pct, 95pct, 97pct e 99pct, che indicano in quanti thread di rete si stanno verificando colli di bottiglia. La statistica total_CPU è anche utile perché indica la quantità di tempo della CPU impiegata per l'elaborazione dei pacchetti nel kernel. |
4.2.0 |
max_cpu |
Utilizzo massimo della CPU del thread |
4.2.0 |
min_cpu |
Utilizzo minimo della CPU del thread |
4.2.0 |
num_threads |
Numero di thread utilizzati per il recapito dei pacchetti dall'utilità di pianificazione dei pacchetti NetIOC all'uplink. |
4.2.0 |
total_cpu |
Somma dell'utilizzo della CPU di tutti i thread di rete nel gruppo. La CPU totale è utile per visualizzare le distribuzioni dell'utilizzo complessivo della CPU tra diversi gruppi di thread e macchine virtuali. |
4.2.0 |
Modulo: host_net_thread_rx
Questo modulo del percorso dati fornisce statistiche del thread di rete correlate a RX. Questo modulo del percorso dati è noto come host-net-thread-rx
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
hist_0_pct |
Istogramma: numero di thread compresi tra 0% e 25% |
4.2.0 |
hist_25_pct |
Istogramma: numero di thread compresi tra 25% e 50% |
4.2.0 |
hist_50_pct |
Istogramma: numero di thread compresi tra 50% e 70% |
4.2.0 |
hist_70_pct |
Istogramma: numero di thread compresi tra 70% e 80% |
4.2.0 |
hist_80_pct |
Istogramma: numero di thread compresi tra 80% e 85% |
4.2.0 |
hist_85_pct |
Istogramma: numero di thread compresi tra 85% e 90% |
4.2.0 |
hist_90_pct |
Istogramma: numero di thread compresi tra 90% e 95% |
4.2.0 |
hist_95_pct |
Istogramma: numero di thread compresi tra 95% e 97% |
4.2.0 |
hist_97_pct |
Istogramma: numero di thread compresi tra 97% e 99% |
4.2.0 |
hist_99_pct |
Istogramma: numero di thread con utilizzo maggiore del 99%. I problemi del percorso dati di rete vengono rivelati da tre sintomi: eliminazioni di pacchetti, velocità effettiva bassa e latenza elevata. Anche se questi sintomi possono essere causati sia da problemi funzionali sia da problemi relativi alle prestazioni, il più delle volte sono causati da problemi relativi alle prestazioni. È fondamentale stabilire se il problema è correlato alle prestazioni o meno nella fase iniziale dell'indagine. Nelle reti definite dal software, specialmente quelle basate sulla virtualizzazione, la CPU è la risorsa più critica che influisce sulle prestazioni di rete. Con le schede NIC più veloci disponibili sul mercato, la larghezza di banda della rete diventa raramente un impedimento. L'elaborazione dei pacchetti nel percorso dati implica in genere un set di thread eseguiti in una pipeline, associati a code e buffer che contengono pacchetti. Quando un thread nella pipeline, dai thread della vCPU ai thread di rete del kernel, diventa sovraccarico, le code e i buffer corrispondenti possono riempirsi causando l'eliminazione dei pacchetti. Questo limita la velocità effettiva. È fondamentale monitorare l'utilizzo della CPU dei thread di rete del kernel oltre alle statistiche di rete tradizionali. Anziché usare i numeri di utilizzo della CPU per i singoli thread, sono stati raggruppati per generare un istogramma. È quindi possibile monitorare i bin dell'istogramma come 90pct, 95pct, 97pct e 99pct, che indicano in quanti thread di rete si stanno verificando colli di bottiglia. La statistica total_CPU è anche utile perché indica la quantità di tempo della CPU impiegata per l'elaborazione dei pacchetti nel kernel. |
4.2.0 |
max_cpu |
Utilizzo massimo della CPU del thread |
4.2.0 |
min_cpu |
Utilizzo minimo della CPU del thread |
4.2.0 |
num_threads |
Numero di thread utilizzati per il recapito dei pacchetti dall'utilità di pianificazione dei pacchetti NetIOC all'uplink. |
4.2.0 |
total_cpu |
Somma dell'utilizzo della CPU di tutti i thread di rete nel gruppo. La CPU totale è utile per visualizzare le distribuzioni dell'utilizzo complessivo della CPU tra diversi gruppi di thread e macchine virtuali. |
4.2.0 |
Modulo: host_net_thread_tx
Questo modulo del percorso dati fornisce statistiche del thread di rete correlate a TX. Questo modulo del percorso dati è noto come host-net-thread-tx
host-net-thread-tx nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
hist_0_pct |
Istogramma: numero di thread compresi tra 0% e 25% |
4.2.0 |
hist_25_pct |
Istogramma: numero di thread compresi tra 25% e 50% |
4.2.0 |
hist_50_pct |
Istogramma: numero di thread compresi tra 50% e 70% |
4.2.0 |
hist_70_pct |
Istogramma: numero di thread compresi tra 70% e 80% |
4.2.0 |
hist_80_pct |
Istogramma: numero di thread compresi tra 80% e 85% |
4.2.0 |
hist_85_pct |
Istogramma: numero di thread compresi tra 85% e 90% |
4.2.0 |
hist_90_pct |
Istogramma: numero di thread compresi tra 90% e 95% |
4.2.0 |
hist_95_pct |
Istogramma: numero di thread compresi tra 95% e 97% |
4.2.0 |
hist_97_pct |
Istogramma: numero di thread compresi tra 97% e 99% |
4.2.0 |
hist_99_pct |
Istogramma: numero di thread con utilizzo maggiore del 99%. I problemi del percorso dati di rete vengono rivelati da tre sintomi: eliminazioni di pacchetti, velocità effettiva bassa e latenza elevata. Anche se questi sintomi possono essere causati sia da problemi funzionali sia da problemi relativi alle prestazioni, il più delle volte sono causati da problemi relativi alle prestazioni. È fondamentale stabilire se il problema è correlato alle prestazioni o meno nella fase iniziale dell'indagine. Nelle reti definite dal software, specialmente quelle basate sulla virtualizzazione, la CPU è la risorsa più critica che influisce sulle prestazioni di rete. Con le schede NIC più veloci disponibili sul mercato, la larghezza di banda della rete diventa raramente un impedimento. L'elaborazione dei pacchetti nel percorso dati implica in genere un set di thread eseguiti in una pipeline, associati a code e buffer che contengono pacchetti. Quando un thread nella pipeline, dai thread della vCPU ai thread di rete del kernel, diventa sovraccarico, le code e i buffer corrispondenti possono riempirsi causando l'eliminazione dei pacchetti. Questo limita la velocità effettiva. È fondamentale monitorare l'utilizzo della CPU dei thread di rete del kernel oltre alle statistiche di rete tradizionali. Anziché usare i numeri di utilizzo della CPU per i singoli thread, sono stati raggruppati per generare un istogramma. È quindi possibile monitorare i bin dell'istogramma come 90pct, 95pct, 97pct e 99pct, che indicano in quanti thread di rete si stanno verificando colli di bottiglia. La statistica total_CPU è anche utile perché indica la quantità di tempo della CPU impiegata per l'elaborazione dei pacchetti nel kernel. |
4.2.0 |
max_cpu |
Utilizzo massimo della CPU del thread |
4.2.0 |
min_cpu |
Utilizzo minimo della CPU del thread |
4.2.0 |
num_threads |
Numero di thread utilizzati per il recapito dei pacchetti dall'utilità di pianificazione dei pacchetti NetIOC all'uplink. |
4.2.0 |
total_cpu |
Somma dell'utilizzo della CPU di tutti i thread di rete nel gruppo. La CPU totale è utile per visualizzare le distribuzioni dell'utilizzo complessivo della CPU tra diversi gruppi di thread e macchine virtuali. |
4.2.0 |
Modulo: host_pcpu
Questo modulo del percorso dati fornisce l'utilizzo di CPU fisiche. Questo modulo del percorso dati è noto come host-pcpu
host-pcpu nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
hist_0_pct |
Istogramma: numero di CPU tra 0% e 50% |
4.2.0 |
hist_50_pct |
Istogramma: numero di CPU tra 50% e 70% |
4.2.0 |
hist_75_pct |
Istogramma: numero di CPU tra 75% e 85% |
4.2.0 |
hist_85_pct |
Istogramma: numero di CPU tra 85% e 90% |
4.2.0 |
hist_90_pct |
Istogramma: numero di CPU tra 90% e 95% |
4.2.0 |
hist_95_pct |
Istogramma: numero di CPU tra 95% e 100% |
4.2.0 |
total_cpu |
Utilizzo totale della CPU host. Somma dell'utilizzo di tutti i core della CPU fisica nell'host. I problemi del percorso dati di rete vengono rivelati da tre sintomi: eliminazioni di pacchetti, velocità effettiva bassa e latenza elevata. Anche se questi sintomi possono essere causati sia da problemi funzionali sia da problemi relativi alle prestazioni, il più delle volte sono causati da problemi relativi alle prestazioni. È fondamentale stabilire se il problema è correlato alle prestazioni o meno nella fase iniziale dell'indagine. Nelle reti definite dal software, specialmente quelle basate sulla virtualizzazione, la CPU è la risorsa più critica che influisce sulle prestazioni di rete. Con le schede NIC più veloci disponibili sul mercato, la larghezza di banda della rete diventa raramente un impedimento. L'elaborazione dei pacchetti nel percorso dati implica in genere un set di thread eseguiti in una pipeline, associati a code e buffer che contengono pacchetti. Quando un thread nella pipeline, dai thread della vCPU ai thread di rete del kernel, diventa sovraccarico, le code e i buffer corrispondenti possono riempirsi causando l'eliminazione dei pacchetti. Questo limita la velocità effettiva. È fondamentale monitorare l'utilizzo della CPU dei thread di rete del kernel oltre alle statistiche di rete tradizionali. Anziché usare i numeri di utilizzo della CPU per i singoli thread, sono stati raggruppati per generare un istogramma. È quindi possibile monitorare i bin dell'istogramma come 90pct, 95pct, 97pct e 99pct, che indicano in quanti thread di rete si stanno verificando colli di bottiglia. La statistica total_CPU è anche utile perché indica la quantità di tempo della CPU impiegata per l'elaborazione dei pacchetti nel kernel. |
4.2.0 |
Modulo: host_uplink
Questo modulo del percorso dati fornisce l'utilizzo delle NIC di uplink fisici. Questo modulo del percorso dati è noto come host-uplink
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
num_pnics |
Numero di NIC fisiche |
4.2.0 |
rx_error_total |
Statistiche driver: totale errori ricevuti. In genere, questa statistica deve avere un valore simile a rx_missed.
Un valore diverso da zero indica in genere due casi:
|
4.2.0 |
rx_missed |
Statistiche driver: ricevute perse. In genere, questa statistica deve avere un valore simile a rx_error_total.
Un valore diverso da zero indica in genere due casi:
|
4.2.0 |
rxeps |
Errori ricevuti al secondo.
Un valore diverso da zero indica in genere due casi:
|
4.2.0 |
rxmbps |
Megabit ricevuti al secondo |
4.2.0 |
rxpps |
Pacchetti ricevuti al secondo |
4.2.0 |
txeps |
Errori trasmessi al secondo |
4.2.0 |
txmbps |
Megabit trasmessi al secondo |
4.2.0 |
txpps |
Pacchetti trasmessi al secondo |
4.2.0 |
Modulo: host_vnic
Questo modulo del percorso dati fornisce l'utilizzo di NIC virtuali. Questo modulo del percorso dati è noto come host-vNIC
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
num_vnics |
Numero delle NIC virtuali. |
4.2.0 |
rxeps |
Errori ricevuti al secondo.
Un valore diverso da zero indica in genere i due casi seguenti:
|
4.2.0 |
rxmbps |
Megabit ricevuti al secondo. |
4.2.0 |
rxpps |
Pacchetti ricevuti al secondo. |
4.2.0 |
txeps |
Errori trasmessi al secondo.
Un valore diverso da zero indica in genere i due casi seguenti:
|
4.2.0 |
txmbps |
Megabit trasmessi al secondo. |
4.2.0 |
txpps |
Pacchetti trasmessi al secondo. |
4.2.0 |
Modulo: host_vcpu
Questo modulo del percorso dati fornisce l'utilizzo di CPU virtuali. Questo modulo del percorso dati è noto come host-vcpu
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
hist_0_pct |
Istogramma: numero di CPU tra 0% e 50%. |
4.2.0 |
hist_50_pct |
Istogramma: numero di CPU tra 50% e 70%. |
4.2.0 |
hist_75_pct |
Istogramma: numero di CPU tra 75% e 85% |
4.2.0 |
hist_85_pct |
Istogramma: numero di CPU tra 85% e 90%. |
4.2.0 |
hist_90_pct |
Istogramma: numero di CPU tra 90% e 95%. |
4.2.0 |
hist_95_pct |
Istogramma: numero di CPU tra 95% e 100%. I problemi del percorso dati di rete vengono rivelati da tre sintomi: eliminazioni di pacchetti, velocità effettiva bassa e latenza elevata. Anche se questi sintomi possono essere causati sia da problemi funzionali sia da problemi relativi alle prestazioni, il più delle volte sono causati da problemi relativi alle prestazioni. È fondamentale stabilire se il problema è correlato alle prestazioni o meno nella fase iniziale dell'indagine. Nelle reti definite dal software, specialmente quelle basate sulla virtualizzazione, la CPU è la risorsa più critica che influisce sulle prestazioni di rete. Con le schede NIC più veloci disponibili sul mercato, la larghezza di banda della rete diventa raramente un impedimento. L'elaborazione dei pacchetti nel percorso dati implica in genere un set di thread eseguiti in una pipeline, associati a code e buffer che contengono pacchetti. Quando un thread nella pipeline, dai thread della vCPU ai thread di rete del kernel, diventa sovraccarico, le code e i buffer corrispondenti possono riempirsi causando l'eliminazione dei pacchetti. Questo limita la velocità effettiva. È fondamentale monitorare l'utilizzo della CPU dei thread di rete del kernel oltre alle statistiche di rete tradizionali. Anziché usare i numeri di utilizzo della CPU per i singoli thread, sono stati raggruppati per generare un istogramma. È quindi possibile monitorare i contenitori dell'istogramma, che indicano quanti thread di rete stanno ottenendo colli di bottiglia. La statistica total_CPU è anche utile perché indica la quantità di tempo della CPU impiegata per l'elaborazione dei pacchetti nel kernel. |
4.2.0 |
total_cpu |
Utilizzo totale di vCPU. Somma dell'utilizzo della CPU di tutte le macchine virtuali nell'host. La CPU totale è utile per visualizzare le distribuzioni dell'utilizzo complessivo della CPU tra diversi gruppi di thread e macchine virtuali. |
4.2.0 |
Modulo: fastpath
FastPath include moduli del percorso dati FC (Flow-Cache) ed ENS (Enhanced Network Stack) per l'elaborazione dei pacchetti del percorso dati avanzato. Questo modulo del percorso dati è noto come nsxt-fp
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
rx_bytes |
Numero di byte ricevuti da fastpath della cache del flusso, nella direzione di ricezione dalle porte. |
4.2.0 |
rx_drops |
Numero di pacchetti eliminati da fastpath della cache del flusso, nella direzione di ricezione dalle porte. Questa operazione non è applicabile per la cache del flusso in modalità non ENS. |
4.2.0 |
rx_drops_sp |
I pacchetti ricevuti vengono eliminati quando vengono inviati a slowpath da fastpath della cache del flusso. Non applicabile per la cache del flusso in modalità non ENS e in modalità di commutazione standard. |
4.2.0 |
rx_drops_uplink |
Numero di pacchetti eliminati da fastpath della cache del flusso nella direzione di ricezione dalle porte di uplink. Non applicabile per la cache del flusso in modalità non ENS e in modalità di commutazione standard. |
4.2.0 |
rx_pkts |
Numero di pacchetti ricevuti da fastpath della cache del flusso nella direzione di ricezione dalle porte. |
4.2.0 |
rx_pkts_sp |
Pacchetti ricevuti quando i pacchetti vengono inviati a slowpath da fastpath della cache del flusso. Non applicabile per la cache del flusso in modalità non ENS e in modalità di commutazione standard. |
4.2.0 |
rx_pkts_uplink |
Numero di pacchetti ricevuti da fastpath della cache del flusso nella direzione di ricezione dalle porte di uplink. |
4.2.0 |
tx_bytes |
Numero di byte trasmessi da fastpath della cache del flusso nella direzione di trasmissione alle porte. |
4.2.0 |
tx_drops |
Numero di pacchetti eliminati da fastpath della cache del flusso nella direzione di trasmissione alle porte. |
4.2.0 |
tx_drops_sp |
I pacchetti trasmessi vengono eliminati da fastpath quando i pacchetti vengono inseriti di nuovo in fastpath della cache del flusso da slowpath. Non applicabile per la cache del flusso in modalità non ENS e in modalità di commutazione standard. |
4.2.0 |
tx_drops_uplink |
Numero di pacchetti eliminati da fastpath della cache del flusso nella direzione di trasmissione alle porte di uplink. |
4.2.0 |
tx_pkts |
Numero di pacchetti trasmessi da fastpath della cache del flusso nella direzione di trasmissione alle porte. |
4.2.0 |
tx_pkts_sp |
Pacchetti trasmessi da fastpath quando i pacchetti vengono inseriti di nuovo in fastpath della cache del flusso da slowpath. Non applicabile per la modalità di commutazione standard. |
4.2.0 |
tx_pkts_uplink |
Numero di pacchetti trasmessi da fastpath della cache del flusso nella direzione Da trasmissione alle porte di uplink. |
4.2.0 |
Modulo: switch_security
Questo modulo del percorso dati offre sicurezza L2 e L3 stateless controllando il traffico verso il segmento ed eliminando pacchetti non autorizzati inviati dalle macchine virtuali. In questa tabella, Rx si riferisce ai pacchetti ricevuti "dal" commutatore e Rx fa riferimento ai pacchetti inviati "al" commutatore. Questo modulo del percorso dati è noto come nsxt-swsec
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
bpdu_filter_drops |
Numero di pacchetti eliminati dal filtro BPDU. Quando il filtro BPDU è abilitato, il traffico all'indirizzo MAC di destinazione BPDU configurato viene eliminato. |
4.2.0 |
dhcp_client_block_ipv4_drops |
Numero di pacchetti DHCP IPv4 eliminati dal blocco client DHCP. Il blocco client DHCP impedisce a una macchina virtuale di acquisire indirizzo IP DHCP bloccando le richieste DHCP. Se questa operazione non è prevista, è possibile disattivare il blocco client DHCPv4 dal profilo di sicurezza del segmento di un segmento o di una porta del segmento. Per farlo in NSX Manager, passare a . |
4.2.0 |
dhcp_client_block_ipv6_drops |
Numero di pacchetti DHCP IPv6 eliminati dal blocco client DHCP. Il blocco client DHCP impedisce a una macchina virtuale di acquisire indirizzo IP DHCP bloccando le richieste DHCP. Se questa operazione non è prevista, è possibile disattivare il blocco client DHCPv6 dal profilo di sicurezza del segmento di un segmento o di una porta del segmento. Per farlo in NSX Manager, passare a . |
4.2.0 |
dhcp_client_validate_ipv4_drops |
Numero di pacchetti DHCP IPv4 eliminati perché gli indirizzi nel payload non erano validi. È possibile che una macchina virtuale dannosa nella rete stia tentando di inviare pacchetti DHCP non validi, ad esempio senza IP di origine, con l'indirizzo hardware client non corrispondente al MAC di origine e così via. |
4.2.0 |
dhcp_server_block_ipv4_drops |
Numero di pacchetti DHCP IPv4 eliminati dal blocco server DHCP. Il blocco server DHCP blocca il traffico da un server DHCP a un client DHCP. Se questa operazione non è prevista, è possibile disabilitare il blocco server DHCP dal profilo di sicurezza del segmento di un segmento o di una porta del segmento. Per farlo in NSX Manager, passare a . |
4.2.0 |
dhcp_server_block_ipv6_drops |
Numero di pacchetti DHCPv6 eliminati dal blocco server DHCP. Il blocco server DHCP blocca il traffico da un server DHCP a un client DHCP. Se questa operazione non è prevista, è possibile disabilitare il blocco server DHCPv6 dal profilo di sicurezza del segmento di un segmento o di una porta del segmento. Per farlo in NSX Manager, passare a . |
4.2.0 |
nd_parse_errors |
Numero di pacchetti ND (Neighbor Discovery) IPv6 che non sono stati analizzati correttamente. Esaminare i registri per cercare i messaggi di errore. Eseguire le catture di pacchetti nella porta per identificare se i pacchetti non sono formattati. |
4.2.0 |
ra_guard_drops |
Numero di pacchetti di annuncio del router IPv6 eliminati da RA Guard. La funzionalità RA Guard filtra gli annunci del router IPv6 (ICMPv6 di tipo 134) trasmessi dalle macchine virtuali. In una distribuzione IPv6, i router utilizzano periodicamente messaggi di annuncio del router multicast, che vengono utilizzati dagli host per la configurazione automatica. È possibile utilizzare RA Guard per proteggere la rete da messaggi RA non autorizzati generati da router non autorizzati o configurati in modo improprio che si connettono al segmento di rete. È possibile configurare RA Guard nell'interfaccia utente di NSX Manager in . |
4.2.0 |
rx_arp_pkts |
Numero di pacchetti ARP ricevuti dal VDS dalla macchina virtuale. |
4.2.0 |
rx_garp_pkts |
Numero di pacchetti ARP gratuiti (GARP) ricevuti dal VDS dalla macchina virtuale. |
4.2.0 |
rx_ipv4_pkts |
Numero di pacchetti IPv4 ricevuti dal VDS dalla macchina virtuale. |
4.2.0 |
rx_ipv6_pkts |
Numero di pacchetti IPv6 ricevuti dal VDS dalla macchina virtuale. |
4.2.0 |
rx_na_pkts |
Numero di pacchetti ND IPv6 (Neighbor Discovery) NA (Neighbor Advertisement) ricevuti dal VDS dalla macchina virtuale. |
4.2.0 |
rx_non_ip_pkts |
Numero di pacchetti non IP ricevuti dal VDS dalla macchina virtuale |
4.2.0 |
rx_ns_pkts |
Numero di pacchetti ND IPv6 (Neighbor Discovery) NS (Neighbor Solicitation) ricevuti dal VDS dalla macchina virtuale. |
4.2.0 |
rx_rate_limit_bcast_drops |
Numero di pacchetti in ingresso eliminati in base ai limiti di velocità di trasmissione. I limiti di velocità possono essere utilizzati per proteggere la rete o le macchine virtuali da eventi come tempeste di trasmissioni. È possibile configurare i valori dei limiti di velocità nell'interfaccia utente di NSX Manager in . |
4.2.0 |
rx_rate_limit_mcast_drops |
Numero di pacchetti in ingresso eliminati in base ai limiti di velocità multicast. I limiti di velocità possono essere utilizzati per proteggere la rete o le macchine virtuali da eventi come tempeste multicast. È possibile configurare i valori dei limiti di velocità nell'interfaccia utente di NSX Manager in . |
4.2.0 |
rx_unsolicited_na_pkts |
Numero di pacchetti ND non richiesti IPv6 (Neighbor Discovery) NA (Neighbor Advertisement) non sollecitati ricevuti dal VDS dalla macchina virtuale. |
4.2.0 |
rxbcastpkts |
Numero di pacchetti broadcast ricevuti dal VDS dalla macchina virtuale. |
4.2.0 |
rxmcastpkts |
Numero di pacchetti multicast ricevuti dal VDS dalla macchina virtuale. |
4.2.0 |
spoof_guard_arp_drops |
Numero di pacchetti ARP eliminati da SpoofGuard. SpoofGuard protegge da attacchi di spoofing ARP dannosi tenendo traccia degli indirizzi MAC e IP. Questa statistica verrà incrementata solo quando SpoofGuard è abilitato nel segmento o nella porta del segmento. ( ) |
4.2.0 |
spoof_guard_ipv4_drops |
Numero di pacchetti IPv4 eliminati da SpoofGuard. SpoofGuard protegge dallo spoofing IP mantenendo una tabella di riferimento di nomi e indirizzi IP delle macchine virtuali. Questa statistica verrà incrementata solo quando SpoofGuard è abilitato nel segmento o nella porta del segmento. ( ) |
4.2.0 |
spoof_guard_ipv6_drops |
Numero di pacchetti IPv6 eliminati da SpoofGuard. SpoofGuard protegge dallo spoofing IP mantenendo una tabella di riferimento di nomi e indirizzi IP delle macchine virtuali. Questa statistica verrà incrementata solo quando SpoofGuard è abilitato nel segmento o nella porta del segmento. ( ) |
4.2.0 |
spoof_guard_nd_drops |
Numero di pacchetti Neighbor Discovery (ND) IPv6 eliminati da SpoofGuard. SpoofGuard protegge dallo spoofing ND filtrando i pacchetti ND i cui indirizzi non corrispondono all'indirizzo della macchina virtuale. Questa statistica verrà incrementata solo quando SpoofGuard è abilitato nel segmento o nella porta del segmento. ( ) |
4.2.0 |
spoof_guard_non_ip_drops |
Numero di pacchetti non IP eliminati da SpoofGuard. Questa statistica verrà incrementata solo quando SpoofGuard è abilitato nel segmento o nella porta del segmento. ( ) |
4.2.0 |
tx_arp_pkts |
Numero di pacchetti ARP inviati dal VDS alla macchina virtuale. |
4.2.0 |
tx_ipv4_pkts |
Numero di pacchetti IPv4 inviati dal VDS alla macchina virtuale. |
4.2.0 |
tx_ipv6_pkts |
Numero di pacchetti IPv6 inviati dal VDS alla macchina virtuale. |
4.2.0 |
tx_non_ip_pkts |
Numero di pacchetti non IP inviati dal VDS alla macchina virtuale. |
4.2.0 |
tx_rate_limit_bcast_drops |
Numero di pacchetti in uscita eliminati in base al limite di velocità di trasmissione. I limiti di velocità possono essere utilizzati per proteggere la rete o le macchine virtuali da eventi come tempeste di trasmissioni. È possibile configurare i valori dei limiti di velocità nell'interfaccia utente di NSX Manager in . |
4.2.0 |
tx_rate_limit_mcast_drops |
Numero di pacchetti in uscita eliminati in base al limite di velocità multicast. I limiti di velocità possono essere utilizzati per proteggere la rete o le macchine virtuali da eventi come tempeste multicast. È possibile configurare i valori dei limiti di velocità nell'interfaccia utente di NSX Manager in . |
4.2.0 |
txbcastpkts |
Numero di pacchetti broadcast inviati dal VDS alla macchina virtuale. |
4.2.0 |
txmcastpkts |
Numero di pacchetti multicast inviati dal VDS alla macchina virtuale. |
4.2.0 |
Modulo: overlay_datapath_l2
Questo modulo del percorso dati è responsabile della connettività del carico di lavoro. Questo modulo del percorso dati è noto come nsxt-vdl2
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
arp_proxy_req_fail_drops |
Impossibile inviare nuovamente il numero di richieste ARP sull'uplink per l'apprendimento basato sul percorso dati quando CCP non dispone di un binding IP-MAC causando un errore di soppressione ARP. Le statistiche non zero indicano che il sistema sta esaurendo la risorsa buffer dei pacchetti e l'incremento continuo deve essere considerato come un errore critico. |
4.2.0 |
arp_proxy_req_suppress |
Numero di richieste ARP soppresse da VDL2 eseguendo una query in CCP per trovare il binding IP-MAC. Questi pacchetti ARP vengono inviati sull'uplink solo quando CCP non conosce il binding. |
4.2.0 |
arp_proxy_resp |
Numero di risposte di binding IP-MAC valide da CCP per ogni richiesta di soppressione ARP da questo nodo di trasporto. |
4.2.0 |
arp_proxy_resp_drops |
Numero di risposte ARP corrispondenti alla risposta del binding IP-MAC da parte di CCP che non è stato possibile inviare alla porta di commutazione che ha effettuato la richiesta ARP. |
4.2.0 |
arp_proxy_resp_filtered |
Numero di risposte ARP generate in base alla risposta del binding IP-MAC da CCP non inviate alla porta del commutatore che ha avviato la richiesta ARP. Ciò è possibile perché ARP è stato richiesto a causa di traceflow o la porta che ha avviato la richiesta ARP non era più presente nel nodo di trasporto. |
4.2.0 |
arp_proxy_resp_unknown |
Numero di binding IP-MAC sconosciuti nel piano di controllo per ogni richiesta IP-MAC da questo nodo di trasporto. Alla ricezione di questo messaggio, il modulo VDL2 invia di nuovo la richiesta ARP sull'uplink per acquisire il binding IP-MAC tramite il percorso dati. |
4.2.0 |
leaf_rx |
Per un segmento (commutatore logico), questa statistica viene incrementata quando un pacchetto generato dal carico di lavoro viene ricevuto correttamente in IOChain VDL2LeafInput (Overlay L2). Questi pacchetti vengono inviati a VDS se non ci sono altre eliminazioni ricevute da Leaf. |
4.2.0 |
leaf_rx_drops |
Numero di pacchetti eliminati in VDL2LeafInput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione ricevuti da Leaf per identificare il motivo specifico delle eliminazioni. |
4.2.0 |
leaf_rx_ref_port_not_found_drops |
Numero di pacchetti eliminati in Leaf VDL2LeafInput. Questa situazione può verificarsi se la porta trunk non fa parte del segmento. |
4.2.0 |
leaf_rx_system_err_drops |
Numero di pacchetti eliminati in VDL2LeafInput a causa di vari errori di sistema come un errore di memoria e un errore di aggiornamento dell'attributo dei pacchetti. Questo in genere significa che le risorse dell'host ESXi sono scarse. Lo spostamento di alcune macchine virtuali in altri host potrebbe semplificare il carico. |
4.2.0 |
leaf_tx |
Questa statistica aumenta quando un pacchetto viene elaborato correttamente dall'IOChain VDL2LeafOutput (Overlay L2) per una porta del commutatore. |
4.2.0 |
leaf_tx_drops |
Numero totale di eliminazioni in VDL2LeafOutput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione trasmessi da Leaf per identificare il motivo specifico delle eliminazioni. |
4.2.0 |
mac_tbl_lookup_flood |
Numero di pacchetti unicast inoltrati ai VTEP remoti a causa di un errore di ricerca della tabella MAC. I valori grandi implicano flussi L2 unidirezionali o problemi di aggiornamento della tabella MAC. Verificare che la tabella MAC sia piena nel nodo di trasporto host utilizzando il comando seguente: $ nsxcli -c "get segment mac-table" Se necessario, aumentare le dimensioni della tabella MAC. |
4.2.0 |
mac_tbl_lookup_full |
Numero di volte in cui la query MAC di destinazione sul piano di controllo per il traffico verso le macchine virtuali remote non è riuscita perché la tabella MAC è già piena. Verificare che la tabella MAC sia piena nel nodo di trasporto host utilizzando il comando seguente: $ nsxcli -c "get segment mac-table" Se necessario, aumentare le dimensioni della tabella MAC. |
4.2.0 |
mac_tbl_update_full |
Numero di errori di aggiornamento della tabella MAC al momento dell'acquisizione MAC per i pacchetti ricevuti dall'underlay. Verificare che la tabella MAC sia piena nel nodo di trasporto host utilizzando il comando seguente: $ nsxcli -c "get segment mac-table" Se necessario, aumentare le dimensioni della tabella MAC. |
4.2.0 |
mcast_proxy_rx_drops |
Numero di pacchetti BUM ricevuti nell'uplink del nodo di trasporto MTEP che vengono eliminati durante la replica in altri VTEP. |
4.2.0 |
mcast_proxy_tx_drops |
Numero di pacchetti BUM originati dai carichi di lavoro nel nodo di trasporto eliminati dopo la replica nell'output dell'uplink. Questa statistica aumenta se uplink_tx_invalid_state_drops aumenta o a causa di errori di sistema come memoria insufficiente. |
4.2.0 |
nd_proxy_req_fail_drops |
Impossibile inviare nuovamente il numero di richieste ND sull'uplink per l'apprendimento basato sul percorso dati quando il CCP non dispone di un binding IP-MAC causando un errore di soppressione ND. Le statistiche non zero indicano che il sistema sta esaurendo la risorsa buffer dei pacchetti e l'incremento continuo deve essere considerato come un errore critico. |
4.2.0 |
nd_proxy_req_suppress |
Numero di richieste ND soppresse da VDL2 eseguendo una query in CCP per trovare il binding IP-MAC. Questi pacchetti ND vengono inviati sull'uplink solo se CCP non conosce il binding. |
4.2.0 |
nd_proxy_resp |
Numero di risposte di binding IP-MAC valide da CCP per ogni richiesta di soppressione ND da questo nodo di trasporto. Queste risposte ND potrebbero essere il risultato di una risposta CCP diretta o dovute a una voce ND già memorizzata nella cache nel nodo di trasporto. |
4.2.0 |
nd_proxy_resp_drops |
Numero di risposte ND corrispondenti alla risposta del binding IP-MAC da parte di CCP che non è stato possibile inviare alla porta di commutazione che ha avviato il pacchetto ND. |
4.2.0 |
nd_proxy_resp_filtered |
Numero di risposte ND generate in base alla risposta del binding IP-MAC da CCP non inviate alla porta del commutatore che ha avviato la richiesta ND. Ciò è possibile perché ND è stato richiesto a causa di traceflow o la porta che ha avviato la richiesta ND non era più presente nel nodo di trasporto. |
4.2.0 |
nd_proxy_resp_unknown |
Numero di binding IPv6-MAC sconosciuti nel piano di controllo per ogni richiesta IPv6-MAC da questo nodo di trasporto. Alla ricezione di questo messaggio, il modulo VDL2 invia di nuovo i pacchetti ND sull'uplink per acquisire il binding IPv6-MAC tramite il percorso dati. |
4.2.0 |
nested_tn_mcast_proxy_diff_vlan_tx_drops |
Numero di pacchetti BUM eliminati replicati verso il nodo di trasporto nidificato. Il nodo di trasporto nidificato e questo nodo di trasporto sono configurati con ID VLAN di trasporto diversi. Verificare che l'IP VTEP GW sia raggiungibile dalle interfacce VTEP VMK di questo nodo di trasporto. |
4.2.0 |
nested_tn_mcast_proxy_same_vlan_tx_drops |
Numero di pacchetti BUM eliminati replicati verso il nodo di trasporto nidificato. Il nodo di trasporto nidificato e questo nodo di trasporto sono configurati con lo stesso ID VLAN di trasporto. |
4.2.0 |
uplink_rx |
Numero di pacchetti ricevuti nella porta di uplink dal commutatore TOR. Questi pacchetti verranno inviati a VDS quando non si verificano eliminazioni nell'Rx uplink. |
4.2.0 |
uplink_rx_drops |
Numero di pacchetti eliminati in VDL2UplinkInput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione ricevuti dall'uplink per identificare il motivo specifico delle eliminazioni. |
4.2.0 |
uplink_rx_filtered |
Numero di pacchetti inviati dal commutatore TOR, che vengono filtrati in corrispondenza dell'uplink VDL2 per motivi come i report IGMP dai nodi di trasporto ESXi peer. |
4.2.0 |
uplink_rx_guest_vlan_drops |
Numero di pacchetti eliminati in VDL2UplinkInput quando la rimozione del tag VLAN guest non riesce per il pacchetto interno a causa di un errore del sistema. |
4.2.0 |
uplink_rx_invalid_encap_drops |
Numero di pacchetti ricevuti in uplink dall'underlay e eliminati a causa di intestazioni di incapsulamento errate. Per comprendere l'errore esatto, eseguire l'acquisizione di pacchetti e verificare le intestazioni di incapsulamento (versione del protocollo, checksum, lunghezza e così via) eseguendo il comando seguente: pktcap-uw --capture UplinkRcvKernel --uplink --ng -o uplink.pcap |
4.2.0 |
uplink_rx_mcast_invalid_dr_uplink_drops |
Numero di pacchetti multicast IP eliminati nell'input di uplink VDL2 poiché la vdrPort non è associata a questo uplink. Ciò può verificarsi quando il commutatore TOR esegue il flooding del traffico multicast in tutti gli uplink del nodo di trasporto. Verificare l'associazione vdrPort e uplink utilizzando il comando seguente, quindi verificare se il pacchetto eliminato è stato ricevuto nell'uplink non associato: nsxdp-cli vswitch instance list |
4.2.0 |
uplink_rx_skip_mac_learn |
Numero di pacchetti per i quali non è possibile acquisire il MAC esterno di origine perché l'etichetta GENEVE in entrata è sconosciuta. I valori grandi per questa statistica possono indicare la mancanza di aggiornamenti VTEP remoti nel nodo di trasporto dal piano di controllo. Utilizzare i seguenti comandi CLI per controllare la tabella VTEP remota nel nodo di trasporto: nsxcli -c "get global-vtep-table" $ nsxcli -c "get segment vtep-table" Una possibile soluzione può essere il riavvio dell'agente del piano di controllo locale (CfgAgent) nel nodo di trasporto per forzare una sincronizzazione completa eseguendo il comando seguente: $ /etc/init.d/nsx-cfgagent restart |
4.2.0 |
uplink_rx_system_err_drops |
Numero di pacchetti eliminati in VDL2UplinkInput a causa di vari errori di sistema come un errore di memoria e un errore di aggiornamento dell'attributo dei pacchetti. Questo in genere significa che le risorse dell'host ESXi sono scarse. Lo spostamento di alcune macchine virtuali in altri host potrebbe semplificare il carico. |
4.2.0 |
uplink_rx_wrong_dest_drops |
Numero di pacchetti ricevuti dall'underlay ed eliminati perché l'IP di destinazione del pacchetto non corrisponde ad alcun VTEP configurato nell'host. |
4.2.0 |
uplink_tx |
Numero di pacchetti inviati dal VDS ricevuti in IOChain VDL2 della porta di uplink. Questi pacchetti verranno inviati alla rete underlay quando non si verificano eliminazioni in uplink Tx. |
4.2.0 |
uplink_tx_drops |
Numero totale di pacchetti eliminati in VDL2UplinkOutput a causa di vari motivi. Vedere gli altri motivi dell'eliminazione trasmessi dall'uplink per identificare il motivo specifico delle interruzioni. |
4.2.0 |
uplink_tx_flood_rate_limit |
Numero di pacchetti unicast sconosciuti inoltrati agli uplink con velocità limitata. |
4.2.0 |
uplink_tx_ignore |
Numero di pacchetti inviati da VDS filtrati in base all'output dell'uplink VDL2 e non inoltrati all'underlay. Ad esempio, i pacchetti BUM vengono filtrati se nel segmento non sono presenti VTEP per replicare i pacchetti. |
4.2.0 |
uplink_tx_invalid_frame_drops |
Numero di pacchetti eliminati nell'output dell'uplink VDL2 perché non è stato possibile trovare l'intestazione dell'incapsulare o perché non è stato possibile eseguire il TSO impostato nel frame interno. Ciò è dovuto a pacchetti TCP di grandi dimensioni. |
4.2.0 |
uplink_tx_invalid_state_drops |
Numero di pacchetti eliminati nell'output dell'uplink VDL2 a causa di una configurazione VLAN di trasporto errata. Ciò è dovuto a un'associazione errata del profilo di uplink nel nodo di trasporto o al fatto che il MAC del gateway non viene risolto. Utilizzare la procedura seguente per verificare in un nodo ESXi se l'IP del gateway VTEP è raggiungibile dalle interfacce VMK VTEP di questo nodo di trasporto.
|
4.2.0 |
uplink_tx_nested_tn_repl_drops |
Numero di pacchetti BUM eliminati nell'output dell'uplink VDL2 durante la replica nel nodo di trasporto nidificato a causa di un'associazione VTEP errata. Utilizzare il comando seguente per controllare la porta di commutazione di origine all'associazione dell'uplink: nsxdp-cli vswitch instance list |
4.2.0 |
uplink_tx_non_unicast |
Numero di pacchetti broadcast o multicast replicati in VTEP remoti. La frequenza elevata implica che il nodo di trasporto debba replicare questi pacchetti in VTEP remoti, causando uno stress sulle code trasmesse a livello di uplink. |
4.2.0 |
uplink_tx_teaming_drops |
Numero di pacchetti eliminati in VDL2UplinkOutput a causa della mancata disponibilità del VTEP associato al commutatore che ha originato il traffico. Utilizzare il comando seguente per verificare l'associazione di uplink della porta di commutazione e lo stato del raggruppamento: nsxdp-cli vswitch instance list |
4.2.0 |
uplink_tx_ucast_flood |
Numero di pacchetti unicast sconosciuti inoltrati all'output di uplink. I valori grandi implicano un flusso L2 unidirezionale o problemi di aggiornamento della tabella MAC. Controllare se il flusso unidirezionale è previsto o se la tabella MAC è piena. |
4.2.0 |
Modulo: datapath_l3
Questo modulo del percorso dati, noto anche come VDR (Virtual Distributed Routing), instrada i pacchetti in ogni host ESXi. Questo modulo del percorso dati è noto come nsxt-vdrb
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
arp_hold_pkt_drops |
Quando il router distribuito è in fase di risoluzione di una voce ARP IPv4, i pacchetti che utilizzano questa voce ARP verranno messi in coda. Il numero di pacchetti che può essere inserito in coda è limitato per ogni istanza del router logico. Quando viene raggiunto il limite massimo, i pacchetti meno recenti vengono eliminati e questa statistica aumenta in base al numero di pacchetti non recenti che vengono eliminati. |
4.2.0 |
arpfaildrops (lta) |
Pacchetti IPv4 eliminati a causa di un errore ARP. |
4.2.0 |
consumed_icmpv4 |
Numero di pacchetti IPv4 destinati a un indirizzo IP della porta di routing logico del router distribuito corrispondente a un determinato segmento. Tenere presente che le statistiche aumenteranno dopo il routing del pacchetto dalla subnet di origine. |
4.2.0 |
consumed_icmpv6 |
Numero di pacchetti IPv6 destinati a un indirizzo IP della porta di routing logico del router distribuito corrispondente a un determinato segmento. Tenere presente che le statistiche aumenteranno dopo il routing del pacchetto dalla subnet di origine. |
4.2.0 |
drop_route_ipv4_drops |
Numero di pacchetti IPv4 corrispondenti alle "route di eliminazione". Le route di eliminazione sono le route configurate per eliminare appositamente i pacchetti corrispondenti. Se non è previsto, verificare le route sull'host ESXi e verificare la configurazione nel piano di gestione. |
4.2.0 |
drop_route_ipv6_drops |
Numero di pacchetti IPv6 corrispondenti alle "route di eliminazione". Le route di eliminazione sono le route configurate per eliminare appositamente i pacchetti corrispondenti. Se non è previsto, verificare le route sull'host ESXi e verificare la configurazione nel piano di gestione. |
4.2.0 |
ndfaildrops (lta) |
I pacchetti IPv6 vengono eliminati a causa di un errore Neighbor Discovery. |
4.2.0 |
no_nbr_ipv4 |
Nessuna voce ARP IPv4 trovata nella tabella ARP del router distribuito. |
4.2.0 |
no_nbr_ipv6 |
Nessuna voce del router adiacente IPv6 trovata nella tabella router adiacente del router distribuito. |
4.2.0 |
no_route_ipv4_drops |
Ogni istanza del router logico dispone della propria tabella di routing per le ricerche di route. Questa statistica aumenta quando i pacchetti IPv4 vengono eliminati a causa della mancanza di route corrispondente esistente per tale istanza del router logico. |
4.2.0 |
no_route_ipv6_drops |
Ogni istanza del router logico dispone della propria tabella di routing per le ricerche di route. Questa statistica aumenta quando i pacchetti IPv6 vengono eliminati a causa della mancanza di route corrispondente esistente per tale istanza del router logico. |
4.2.0 |
ns_hold_pkt_drops |
Quando il router distribuito è in corso di risoluzione di una voce del router adiacente IPv6, i pacchetti che utilizzano questa voce del router adiacente verranno messi in coda. Il numero di pacchetti può essere inserito in coda è limitato per ogni istanza del router logico. Quando viene raggiunto il limite massimo, i pacchetti meno recenti vengono eliminati e questa statistica aumenta in base al numero di pacchetti non recenti che vengono eliminati. |
4.2.0 |
pkt_attr_error_drops |
Numero di pacchetti per cui l'operazione di attributo non è riuscita. NSX utilizza gli attributi dei pacchetti per facilitare l'elaborazione dei pacchetti. Gli attributi dei pacchetti possono essere allocati, impostati o non impostati. In casi regolari, l'operazione non avrà esito negativo.
Alcuni motivi per aumentare questa statistica potrebbero essere i seguenti:
|
4.2.0 |
relayed_dhcpv4_req |
Richieste DHCPv4 inoltrate. |
4.2.0 |
relayed_dhcpv4_rsp |
Risposte DHCPv4 inoltrate. |
4.2.0 |
relayed_dhcpv6_req |
Richieste DHCPv6 inoltrate. |
4.2.0 |
relayed_dhcpv6_rsp |
Risposte DHCPv6 inoltrate. |
4.2.0 |
rpf_ipv4_drops |
Numero di pacchetti IPv4 eliminati a causa di un errore del controllo di inoltro percorso inverso. Il router distribuito può verificare se l'IP di origine dei pacchetti proviene da un'origine valida (raggiungibile) e può eliminare i pacchetti in base alla configurazione. È possibile modificare questa impostazione nell'interfaccia utente di NSX Manager.
Per verificare la configurazione corrente nell'interfaccia utente di
NSX Manager, eseguire i passaggi seguenti:
|
4.2.0 |
rpf_ipv6_drops |
Numero di pacchetti IPv6 eliminati a causa di un errore della verifica di inoltro percorso inverso. Il router distribuito può verificare se l'IP di origine dei pacchetti proviene da un'origine valida (raggiungibile) e può eliminare i pacchetti in base alla configurazione. È possibile modificare questa impostazione nell'interfaccia utente di NSX Manager.
Per verificare la configurazione corrente nell'interfaccia utente di
NSX Manager, eseguire i passaggi seguenti:
|
4.2.0 |
rx_arp_req |
Numero di pacchetti di richieste ARP ricevuti dalla porta del router logico di un router distribuito corrispondente a un determinato segmento. |
4.2.0 |
rx_ipv4 |
Numero di pacchetti IPv4 che arrivano a una porta di routing logico di un router distribuito corrispondente a un determinato segmento. |
4.2.0 |
rx_ipv6 |
Numero di pacchetti IPv6 che arrivano a una porta di routing logico di un router distribuito corrispondente a un determinato segmento. |
4.2.0 |
rx_pkt_parsing_error_drops |
Numero di errori di analisi dei pacchetti per i pacchetti del router distribuito ricevuti. Il router distribuito esegue l'analisi dei pacchetti per ogni pacchetto ricevuto per leggere metadati e intestazioni. Se viene visualizzato un numero elevato per questa statistica, è possibile che i pacchetti non siano strutturati correttamente. Monitorare se si verifica un errore del traffico ed eseguire l'acquisizione di pacchetti per eseguire ulteriormente il debug. |
4.2.0 |
rxgarp (lta) |
GARP gratuito ricevuto su un router distribuito. |
4.2.0 |
ttl_ipv4_drops |
Numero di pacchetti IPv4 eliminati a causa del TTL (Time-To-Live) basso. Ogni istanza del router logico dedurrà 1 dal valore TTL. Utilizzare l'acquisizione di pacchetti per determinare quali pacchetti hanno valori TTL bassi. Se il TTL è abbastanza grande nell'origine, i possibili motivi sono troppi hop di routing nel percorso o il pacchetto è in loop, il che è raro. |
4.2.0 |
ttl_ipv6_drops |
Numero di pacchetti IPv6 eliminati a causa del TTL (Time-To-Live) basso. Ogni istanza del router logico dedurrà 1 dal valore TTL. Utilizzare l'acquisizione di pacchetti per determinare quali pacchetti hanno valori TTL bassi. Se il TTL è abbastanza grande nell'origine, i possibili motivi sono troppi hop di routing nel percorso o il pacchetto è in loop, il che è raro. |
4.2.0 |
tx_arp_rsp |
Numero di pacchetti di richieste ARP inviate dalla porta del router logico di un router distribuito corrispondente a un determinato segmento. |
4.2.0 |
tx_dispatch_queue_too_long_drops |
Numero di pacchetti eliminati dalla coda di invio. La coda di invio della trasmissione contiene pacchetti auto generati dal router distribuito, ad esempio pacchetti ARP, esplorazione NS e così via. Ogni pacchetto utilizza le risorse di sistema di gestione dei pacchetti. Se troppi pacchetti vengono inseriti in coda, limitare le dimensioni della coda ed eliminare i pacchetti dalla coda. |
4.2.0 |
tx_ipv4 |
Numero di pacchetti IPv4 in uscita dalla porta di un router logico di un router distribuito corrispondente a un determinato segmento. |
4.2.0 |
tx_ipv6 |
Numero di pacchetti IPv6 in uscita dalla porta di un router logico di un router distribuito corrispondente a un determinato segmento. |
4.2.0 |
Modulo: distributed_firewall
Questo modulo del percorso dati fornisce la funzionalità del firewall distribuito. In questa tabella, Rx fa riferimento ai pacchetti ricevuti dalla porta di commutazione (inviati dalla macchina virtuale) e Tx fa riferimento ai pacchetti trasmessi dalla porta di commutazione (ricevuti dalla macchina virtuale). Questo modulo del percorso dati è noto come nsxt-vsip
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
alg_handler_drops |
Numero di pacchetti eliminati a causa della gestione di ALG. Tiene traccia dell'errore di gestione dei pacchetti del decodificatore dello stato ALG. |
4.2.0 |
bad_offset_drops |
Numero di pacchetti eliminati a causa dell'offset non corretto. |
4.2.0 |
bad_timestamp_drops |
Numero di pacchetti eliminati a causa di data e ora non corrette. Ad esempio, i pacchetti ACK che trasportano data e ora precedenti e i pacchetti ricevuti con data e ora imprevisti devono essere eliminati. |
4.2.0 |
congestion_drops |
Numero di pacchetti eliminati a causa della congestione. Ad esempio, la congestione rilevata nella coda per un'interfaccia di rete. |
4.2.0 |
fragment_drops |
Numero di pacchetti eliminati a causa di un riassemblaggio non riuscito dei pacchetti frammentati. La frammentazione rompe i pacchetti in frammenti più piccoli in modo che le parti risultanti possano passare attraverso un link con MTU inferiore rispetto alle dimensioni del pacchetto originale. |
4.2.0 |
handshake_error_drops |
Numero di pacchetti eliminati a causa di un errore di handshake a tre vie TCP. Ciò può verificarsi quando il mittente e il destinatario sono in SYN inviato durante l'handshake a tre vie. Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP. |
4.2.0 |
icmp_err_pkt_drops |
Numero di pacchetti eliminati a causa di ulteriori pacchetti di risposte di errore ICMP. Questa statistica tiene traccia dei pacchetti di risposte di errore ICMP aggiuntivi che vengono eliminati. |
4.2.0 |
icmp_error_drops |
Numero di pacchetti eliminati a causa di un errore di sequenza nella risposta di errore ICMP al pacchetto TCP. Quando i numeri di sequenza non rientrano nell'intervallo previsto, si verifica un'eliminazione. |
4.2.0 |
icmp_flood_overlimit_drops |
Numero di pacchetti eliminati a causa dell'overlimit del flood ICMP. Nell'interfaccia del kernel è configurato un limite del flood ICMP. |
4.2.0 |
ignored_offloaded_fpdrops |
Numero di pacchetti eliminati a causa dell'offload del flusso nell'hardware. L'offload del flusso nell'hardware significa che il monitoraggio della connessione viene eseguito dalla pipeline dei pacchetti hardware di una smartNIC. In questo caso, la presenza di un pacchetto nel software non è prevista. Il pacchetto non può essere elaborato nel software perché il software non dispone di informazioni CT aggiornate (ad esempio, stati, numeri di sequenza). Il traffico deve quindi essere eliminato. Questo caso può verificarsi perché l'offload di un flusso nell'hardware richiede un po' di tempo e può essere eseguito con i pacchetti già inseriti in coda per essere recapitati al VSIP. Questa eliminazione è dovuta ai pacchetti fastpath ENS. |
4.2.0 |
ignored_offloaded_spdrops |
Numero di pacchetti eliminati a causa dell'offload del flusso nell'hardware. L'offload del flusso nell'hardware significa che il monitoraggio della connessione viene eseguito dalla pipeline dei pacchetti hardware di una smartNIC. In questo caso, la presenza di un pacchetto nel software non è prevista. Il pacchetto non può essere elaborato nel software perché il software non dispone di informazioni CT aggiornate (ad esempio, stati, numeri di sequenza). Il traffico deve quindi essere eliminato. Questo caso può verificarsi perché l'offload di un flusso nell'hardware richiede un po' di tempo e può essere eseguito con i pacchetti già inseriti in coda per essere recapitati al VSIP. Il motivo di questa eliminazione è il percorso del codice IOChain, noto anche come slowpath in questo contesto. |
4.2.0 |
ip_option_drops |
Numero di pacchetti eliminati perché le opzioni IP non sono consentite. Se allow_opts nella regola del firewall non è impostata, il pacchetto che tocca quella regola viene eliminato. |
4.2.0 |
l7_alert_drops |
La regola L7 è presente ma non è presente alcuna corrispondenza. Viene generato un avviso. |
4.2.0 |
l7_attr_error_drops |
Numero di pacchetti eliminati a causa di un errore di impostazione degli attributi di stato. Ciò si verifica quando la modifica o l'allocazione degli attributi L7 |
4.2.0 |
l7_pending_misc |
Questa statistica tiene traccia dei pacchetti che vengono analizzati da DPI al momento. La corrispondenza della regola è in sospeso. Quando si verifica la corrispondenza della regola L7, viene eseguita l'azione della regola corrispondente nel pacchetto. |
4.2.0 |
lb_reject_drops |
Questa statistica tiene traccia delle eliminazioni dovute al pacchetto rifiutato dal bilanciamento del carico. I pacchetti vengono eliminati se corrisponde a un server virtuale di bilanciamento del carico ma non è selezionato alcun membro del pool. |
4.2.0 |
match_drop_rule_rx_drops |
Numero di pacchetti ricevuti eliminati rilasciando o rifiutando la regola del firewall distribuito. |
4.2.0 |
match_drop_rule_tx_drops |
Numero di pacchetti trasmessi eliminati rilasciando o rifiutando la regola del firewall distribuito. |
4.2.0 |
memory_drops |
Numero di pacchetti eliminati a causa della mancanza di memoria. Si tratta di un errore a livello di capacità. |
4.2.0 |
normalize_drops |
Numero di pacchetti eliminati a causa della formattazione errata dei pacchetti. Ad esempio, versione IP non corrispondente, offset intestazione TCP incoerente con la lunghezza totale della descrizione del pacchetto |
4.2.0 |
other_flood_overlimit_drops |
Numero di pacchetti eliminati a causa dell'overlimit di flood di altri protocolli. Nell'interfaccia del kernel per altri protocolli è presente un limite flood. |
4.2.0 |
pkts_frag_queued_v4_misc |
Durante la frammentazione dei pacchetti, i frammenti dei pacchetti vengono aggiunti alla coda dei frammenti. Questi frammenti di pacchetti non vengono necessariamente eliminati. Un riassemblaggio dei pacchetti riuscito indica che non vengono eliminati pacchetti frammentati. Questa statistica tiene traccia dei pacchetti IPv4 aggiunti alla coda dei frammenti. |
4.2.0 |
pkts_frag_queued_v6_misc |
Durante la frammentazione dei pacchetti, i frammenti dei pacchetti vengono aggiunti alla coda dei frammenti. Questi frammenti di pacchetti non vengono necessariamente eliminati. Un riassemblaggio dei pacchetti riuscito indica che non vengono eliminati pacchetti frammentati. Questa statistica tiene traccia dei pacchetti IPv6 aggiunti alla coda dei frammenti. |
4.2.0 |
proto_cksum_drops |
Numero di pacchetti eliminati a causa di un checksum del protocollo errato. Ciò si verifica quando la convalida del checksum del pacchetto non riesce. |
4.2.0 |
rx_ipv4_drop_pkts |
Numero di pacchetti IPv4 ricevuti eliminati. |
4.2.0 |
rx_ipv4_pass_pkts |
Numero di pacchetti IPv4 ricevuti passati. |
4.2.0 |
rx_ipv4_reject_pkts |
Numero di pacchetti IPv4 ricevuti rifiutati. |
4.2.0 |
rx_ipv6_drop_pkts |
Numero di pacchetti IPv6 ricevuti eliminati. |
4.2.0 |
rx_ipv6_pass_pkts |
Numero di pacchetti IPv6 ricevuti passati. |
4.2.0 |
rx_ipv6_reject_pkts |
Numero di pacchetti IPv6 ricevuti rifiutati. |
4.2.0 |
rx_l2_drop_pkts |
Numero di pacchetti di livello 2 ricevuti eliminati. |
4.2.0 |
seqno_bad_ack_drops |
Numero di pacchetti eliminati a causa della conferma TCP di inoltro di più di una finestra. Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP. |
4.2.0 |
seqno_gt_max_ack_drops |
Numero di pacchetti eliminati a causa del numero di sequenza TCP maggiore del numero ACK massimo. Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP. |
4.2.0 |
seqno_lt_minack_drops |
Numero di pacchetti eliminati a causa del numero di sequenza TCP inferiore rispetto al numero ACK minimo. Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP. |
4.2.0 |
seqno_old_ack_drops |
Numero di pacchetti eliminati perché TCP conferma più di un frammento. Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP. |
4.2.0 |
seqno_old_retrans_drops |
Numero di pacchetti eliminati a causa di una ritrasmissione TCP precedente a una finestra. Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP. |
4.2.0 |
seqno_outside_window_drops |
Numero di pacchetti eliminati a causa del numero di sequenza TCP esterno alla finestra. Questo motivo dell'eliminazione rientra nella mancata corrispondenza dello stato TCP. |
4.2.0 |
short_drops |
Numero di pacchetti brevi eliminati. I pacchetti brevi sono pacchetti con lunghezza non corretta, ad esempio pacchetti con valore |
4.2.0 |
spoof_guard_drops |
Numero di pacchetti eliminati a causa del controllo di SpoofGuard. SpoofGuard è uno strumento progettato per impedire alle macchine virtuali dell'ambiente di inviare traffico con un indirizzo IP non è autorizzato. |
4.2.0 |
src_limit_misc |
Numero di pacchetti che hanno raggiunto il limite di origine. Ciò è correlato all'elaborazione dei pacchetti del firewall. Ciò si verifica a causa di un errore di inserimento del nodo di origine nella struttura Red-Black (RB) a causa del limite raggiunto. |
4.2.0 |
state_insert_drops |
Numero di pacchetti eliminati a causa di un errore di inserimento dello stato. Ciò si verifica a causa dell'inserimento dello stato duplicato. |
4.2.0 |
state_limit_drops |
Numero di pacchetti eliminati a causa del limite massimo di stati raggiunto. Ad esempio, se il numero di stati TCP è superiore al limite, si verifica l'eliminazione. |
4.2.0 |
state_mismatch_drops |
Numero di pacchetti eliminati a causa della mancata corrispondenza dello stato. Esistono diversi motivi per cui è necessaria l'eliminazione, ad esempio STRICTNOSYN, HANDSHAKE_SYNSENT, SEQ_GT_SEQHI e così via. |
4.2.0 |
strict_no_syn_drops |
Numero di pacchetti eliminati a causa della modalità di applicazione rigida senza SYN. È previsto che il pacchetto SYN sia visualizzato in modalità restrittiva. |
4.2.0 |
syn_expected_drops |
Il pacchetto corrisponde a un server virtuale di bilanciamento del carico, ma non è un pacchetto SYN. Pertanto, il sistema non dovrebbe creare uno stato per esso. Ciò comporta l'eliminazione del pacchetto. Questa statistica tiene traccia di questa eliminazione. |
4.2.0 |
syn_proxy_drops |
Numero di pacchetti eliminati a causa di synproxy. Ciò consente di proteggere i server TCP da attacchi come SYN FLOOD. |
4.2.0 |
tcp_flood_overlimit_drops |
Numero di pacchetti eliminati a causa dell'overlimit del flood TCP. Nell'interfaccia del kernel è configurato un limite di flood TCP. |
4.2.0 |
tx_ipv4_drop_pkts |
Numero di pacchetti IPv4 trasmessi eliminati. |
4.2.0 |
tx_ipv4_pass_pkts |
Numero di pacchetti IPv4 trasmessi. |
4.2.0 |
tx_ipv4_reject_pkts |
Numero di pacchetti IPv4 trasmessi rifiutati. |
4.2.0 |
tx_ipv6_drop_pkts |
Numero di pacchetti IPv6 trasmessi eliminati. |
4.2.0 |
tx_ipv6_pass_pkts |
Numero di pacchetti IPv6 trasmessi passati. |
4.2.0 |
tx_ipv6_reject_pkts |
Numero di pacchetti IPv6 trasmessi rifiutati. |
4.2.0 |
tx_l2_drop_pkts |
Numero di pacchetti di livello 2 trasmessi eliminati. |
4.2.0 |
udp_flood_overlimit_drops |
Numero di pacchetti eliminati a causa dell'overlimit del flood UDP. Nell'interfaccia del kernel è configurato un limite di flood UDP. |
4.2.0 |
Modulo: virtual_switch
Questo modulo del percorso dati di livello 2 è responsabile della funzionalità di commutazione. Questo modulo inoltra i pacchetti all'interno di un dominio di broadcast in base alla VLAN e VNI in cui un'interfaccia riceve un pacchetto. In questa tabella, Rx si riferisce ai pacchetti inviati "al" commutatore e Tx fa riferimento ai pacchetti ricevuti "dal" commutatore. Mcast si riferisce ai pacchetti multicast. Questo modulo del percorso dati è noto come nsxt-vswitch
nella CLI centrale NSX.
Statistica | Descrizione | Versione introdotta |
---|---|---|
forged_transmit_rx_drops |
Numero di pacchetti eliminati come eliminazioni contraffatte perché il MAC di origine del pacchetto è diverso dal MAC della scheda della macchina virtuale. Le trasmissioni contraffatte o l'acquisizione MAC disabilitata nel segmento causano queste interruzioni. L'abilitazione dell'acquisizione MAC o delle trasmissioni contraffatte nel segmento dovrebbe attenuare il problema. |
4.2.0 |
unknown_unicast_rx_pkts |
Numero di pacchetti unicast sconosciuti ricevuti da vSwitch inoltrati ad altre porte dello stesso dominio di broadcast. La statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch. Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC. |
4.2.0 |
unknown_unicast_rx_uplink_pkts |
Numero di pacchetti ricevuti da uno o più uplink al vSwitch che sono unicast sconosciuti inoltrati ad altre porte dello stesso dominio di broadcast da vSwitch. La statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch. Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC. |
4.2.0 |
unknown_unicast_tx_pkts |
Numero di pacchetti unicast sconosciuti inoltrati ad altre porte dello stesso dominio di broadcast da vSwitch. La statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch. Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC. |
4.2.0 |
unknown_unicast_tx_uplink_pkts |
Numero di pacchetti unicast sconosciuti inoltrati tramite vSwitch a uno o più uplink. La statistica aumenta quando i pacchetti sono unicast sconosciuti inoltrati in presenza di segmenti o porte sink abilitate per l'acquisizione MAC. Il flooding unicast sconosciuto si verifica quando l'indirizzo MAC di destinazione del pacchetto non viene trovato nella tabella degli indirizzi MAC di vSwitch. Questa statistica aumenta quando un MAC di destinazione esce dalla tabella degli indirizzi MAC in presenza di acquisizione MAC. |
4.2.0 |
vlan_tag_mismatch_rx |
Numero di pacchetti unicast e broadcast eliminati a causa di una mancata corrispondenza del tag VLAN. Queste interruzioni si verificano quando il tag VLAN di un pacchetto non è consentito in base al criterio VLAN del segmento. La modifica del criterio VLAN del segmento o l'invio di pacchetti con un tag VLAN consentito può attenuare il problema. |
4.2.0 |
vlan_tag_mismatch_rx_mcast |
Numero di pacchetti multicast eliminati a causa di una mancata corrispondenza del tag VLAN. Queste interruzioni si verificano quando il tag VLAN di un pacchetto non è consentito in base al criterio VLAN del segmento. La modifica del criterio VLAN del segmento o l'invio di pacchetti con un tag VLAN consentito può attenuare il problema. |
4.2.0 |
vlan_tag_mismatch_tx |
Numero di pacchetti unicast eliminati a causa di una mancata corrispondenza del tag VLAN. Il commutatore host individua una voce nella tabella di ricerca in base all'indirizzo di destinazione del pacchetto. Quando si tenta di inoltrare il pacchetto da una porta, queste interruzioni si verificano quando il tag VLAN di un pacchetto non è consentito in base al criterio VLAN del segmento. La modifica del criterio VLAN del segmento o l'invio di pacchetti con un tag VLAN consentito può attenuare il problema. |
4.2.0 |
vlan_tag_mismatch_tx_mcast |
Numero di pacchetti multicast eliminati a causa di una mancata corrispondenza del tag VLAN. Il commutatore host individua una voce nella tabella di ricerca in base all'indirizzo di destinazione del pacchetto. Quando si tenta di inoltrare il pacchetto da una porta, queste interruzioni si verificano quando il tag VLAN di un pacchetto non è consentito in base al criterio VLAN del segmento. La modifica del criterio VLAN del segmento o l'invio di pacchetti con un tag VLAN consentito può attenuare il problema. |
4.2.0 |
vni_tag_mismatch_tx |
Numero di pacchetti unicast eliminati a causa di una mancata corrispondenza del tag VNI. Il commutatore host individua una voce nella tabella di ricerca in base all'indirizzo di destinazione del pacchetto. Quando si tenta di inoltrare il pacchetto da una porta, queste interruzioni si verificano quando il tag VNI di un pacchetto non è consentito in base al criterio VNI del segmento. Lo spostamento della macchina virtuale di destinazione in questo segmento di overlay può risolvere il problema. |
4.2.0 |
vni_tag_mismatch_tx_mcast |
Numero di pacchetti multicast eliminati a causa di una mancata corrispondenza del tag VNI. Il commutatore host individua una voce nella tabella di ricerca in base all'indirizzo di destinazione del pacchetto. Quando si tenta di inoltrare il pacchetto da una porta, queste interruzioni si verificano quando il tag VNI di un pacchetto non è consentito in base al criterio VNI del segmento. Lo spostamento della macchina virtuale di destinazione in questo segmento di overlay può risolvere il problema. |
4.2.0 |