En esta documentación de referencia se describen las diversas estadísticas que se recopilan de los nodos de transporte del host de ESXi en su implementación de NSX.
En la primera sección de este documento se describen las estadísticas del nodo de transporte del host que se pueden ver en la interfaz de usuario de NSX Manager.
En las secciones restantes de este documento se describen las estadísticas que recopilan los distintos módulos de ruta de datos, que se ejecutan en los nodos de transporte del host ESXi. Para ver estas estadísticas, debe utilizar las API de NSX o NSX Central CLI. La columna Estadística de estas secciones hace referencia al nombre de la estadística como se muestra en los resultados de la API. Para obtener información sobre el flujo de trabajo de API para ver las estadísticas del nodo de transporte del host, consulte Supervisar estadísticas de nodos de transporte del hosts NSX mediante API.
Pestaña Estadísticas de ruta de datos
Esta pestaña muestra los valores agregados de las estadísticas de un nodo de transporte del host en la interfaz de usuario de NSX Manager.
Estadística | Descripción | Versión introducida |
---|---|---|
Paquetes de difusión recibidos |
Tasa de paquetes de difusión recibidos por el VDS de la máquina virtual. Esta estadística se asigna internamente a la estadística rxbcastpkts. |
4.2.0 |
Paquetes de difusión transmitidos |
Tasa de paquetes de difusión enviados por el VDS a la máquina virtual. Esta estadística se asigna internamente a la estadística txbcastpkts. |
4.2.0 |
Descartes de paquetes que limitan la velocidad de difusión |
Número de paquetes de entrada o salida descartados por el límite de velocidad de difusión. Los límites de transmisión se utilizan para proteger la red o las máquinas virtuales de eventos como las tormentas de difusión. Puede configurar valores de límite de frecuencia en la interfaz de usuario de NSX Manager en . Esta estadística se asigna internamente a estas estadísticas detalladas: rx_rate_limit_bcast_drops, rx_rate_limit_mcast_drops, tx_rate_limit_bcast_drops tx_rate_limit_mcast_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
DFW |
Total de paquetes descartados por el módulo DFW por diversos motivos. Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes. |
4.2.0 |
Ruta de datos de capa 3 |
Total de paquetes descartados por el módulo Ruta de datos de capa 3 por diversos motivos. Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes. |
4.2.0 |
Error del sistema de ruta de datos |
Total de paquetes descartados debido a errores internos críticos del sistema. Si estas estadísticas se incrementan de forma constante, significa que el host ESXi se está quedando sin recursos. Mover algunas máquinas virtuales a otros hosts puede ayudar a aliviar la carga. Esta estadística se asigna internamente a estas estadísticas detalladas: leaf_rx_system_err_drops, uplink_rx_system_err_drops, pkt_attr_error_drops tx_dispatch_queue_too_long_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
FastPath |
Total de paquetes descartados por el módulo Fastpath por diversos motivos. Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes. |
4.2.0 |
Acierto de flujo de fastpath |
Tasa de aciertos en la tabla de flujos en el módulo de ENS/caché de flujo. Esta estadística se asigna internamente a la estadística hits. |
4.2.0 |
Pérdida de flujo de fastpath |
Tasa de paquetes procesados por slowpath debido a una pérdida de flujo. Esta estadística no se superpone con la estadística de la siguiente fila. Esta estadística se asigna internamente a la estadística miss. |
4.2.0 |
Descartes de paquetes fastpath |
Número total de paquetes descartados por fastpath de la memoria caché de flujo en la dirección de recepción o transmisión a todos los puertos. Esta estadística se asigna internamente a estas estadísticas detalladas: rx_drops ,tx_drops, rx_drops_uplink, tx_drops_uplink, rx_drops_sp, tx_drops_sp. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes por límite de desbordamiento del firewall |
Número de paquetes descartados debido al desbordamiento de varios protocolos por encima del límite. Hay un límite de desbordamiento establecido para diferentes protocolos en la interfaz del kernel. Esta estadística se asigna internamente a estas estadísticas detalladas: udp_flood_overlimit_drops, tcp_flood_overlimit_drops, icmp_flood_overlimit_drops other_flood_overlimit_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes por error interno del firewall |
Número de paquetes descartados por el firewall debido a errores internos. Esta estadística se asigna internamente a estas estadísticas detalladas: memory_drops, state_insert_drops, l7_attr_error_drops, lb_reject_drops, src_limit_misc. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes con formato incorrecto del firewall |
Número de paquetes con formato incorrecto descartados por el firewall. Esta estadística se asigna internamente a estas estadísticas detalladas: fragment_drops, short_drops, normalize_drops, bad_timestamp_drops proto_cksum_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Rechazos de paquete de firewall |
Número de paquetes rechazados por el firewall por diversos motivos. Esta estadística se asigna internamente a estas estadísticas detalladas: rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts tx_ipv6_reject_pkts. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes recibidos por regla de firewall |
Número de paquetes recibidos descartados al cumplir la regla de descarte o rechazo del firewall distribuido. Esta estadística se asigna internamente a la estadística match_drop_rule_rx_drops. |
4.2.0 |
Descartes de paquetes transmitidos por regla de firewall |
Número de paquetes transmitidos descartados al cumplir la regla de descarte o rechazo del firewall distribuido. Esta estadística se asigna internamente a la estadística match_drop_rule_tx_drops. |
4.2.0 |
Descartes de paquetes por comprobación de estado del firewall |
Número de paquetes descartados debido a comprobaciones relacionadas con el estado. Esta estadística se asigna internamente a estas estadísticas detalladas: icmp_err_pkt_drops, alg_handler_drops, syn_expected_drops, ip_option_drops, syn_proxy_drops, spoof_guard_drops, state_mismatch_drops, strict_no_syn_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes completos en la tabla de estado del firewall |
Número de paquetes descartados debido a que se alcanzó el límite máximo de estados. Por ejemplo, si el número de estados de TCP es superior al límite, se produce un descarte. Esta estadística se asigna internamente a la estadística state_limit_drops. |
4.2.0 |
Descartes totales de paquetes de firewall |
Número total de paquetes descartados por el firewall por diversos motivos. Esta estadística se asigna internamente a estas estadísticas detalladas: rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts, tx_ipv6_reject_pkts, rx_ipv4_drop_pkts, tx_ipv4_drop_pkts, rx_ipv6_drop_pkts, tx_ipv6_drop_pkts, rx_l2_drop_pkts, tx_l2_drop_pkts. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes por falta de coincidencia de red del conmutador de host |
Número de paquetes de unidifusión, multidifusión y difusión descartados debido a una falta de coincidencia de etiquetas de VNI o VLAN. Esta estadística se asigna internamente a estas estadísticas detalladas: vlan_tag_mismatch_rx, vlan_tag_mismatch_tx, vni_tag_mismatch_tx, vlan_tag_mismatch_rx_mcast, vlan_tag_mismatch_tx_mcast, vni_tag_mismatch_tx_mcast. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
El conmutador de host recibió descartes de paquetes de MAC falsificados |
Número de paquetes descartados como descartes falsificados debido a que la dirección MAC de origen del paquete es diferente de la dirección MAC del adaptador de la máquina virtual. La deshabilitación de transmisiones falsificadas o el aprendizaje de direcciones MAC en el segmento provoca estos descartes. Habilitar el aprendizaje de direcciones MAC o las transmisiones falsificadas en el segmento debería mitigar el problema. Esta estadística se asigna internamente a las estadísticas - forged_transmit_rx_drops. |
4.2.0 |
Descartes de paquetes por límite de saltos de capa 3 |
Número de paquetes IPv4 o IPv6 descartados debido a un TTL bajo. Cada instancia de enrutador lógico deducirá 1 del valor de TTL. Utilice la captura de paquetes para determinar qué paquetes tienen valores de TTL bajos. Esta estadística se asigna internamente a estas estadísticas detalladas: ttl_ip4_drops, ttl_ipv6_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes por vecino de capa 3 inaccesible |
Número de paquetes IPv4 o IPv6 descartados debido a una resolución de vecino con errores. Esta estadística se asigna internamente a estas estadísticas detalladas: arp_hold_pkt_drops, ns_hold_pkt_drops. |
4.2.0 |
Descartes de paquetes por ausencia de ruta de capa 3 |
Cada instancia de enrutador lógico tiene su propia tabla de enrutamiento para las búsquedas de rutas. Esta estadística aumenta cuando se descartan paquetes IPv4 debido a que no hay rutas que coincidan para esa instancia de enrutador lógico. Esta estadística se asigna internamente a estas estadísticas detalladas: no_route_ipv4_drops, no_route_ipv6_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes por reenvío de ruta inversa de capa 3 |
Número de paquetes IPv4 o IPv6 descartados debido a un error en la comprobación de reenvío de ruta inversa. El enrutador distribuido puede comprobar si la IP de origen de los paquetes proviene de un origen válido (accesible) y puede descartar los paquetes en función de la configuración. Puede cambiar esta opción en la interfaz de usuario de NSX Manager. Esta estadística se asigna internamente a estas estadísticas detalladas: rpf_ipv4_drops, rpf_ipv6_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Tabla de aprendizaje de Mac completa |
Tasa de descartes de paquetes debido a errores de actualización de la tabla de MAC en el momento del aprendizaje de direcciones MAC desde el plano de control central (CCP) o para los paquetes recibidos de la red subyacente. Compruebe si la tabla MAC está llena en el nodo de transporte del host mediante el siguiente comando: $ nsxcli -c "get segment mac-table" Si es necesario, aumente el tamaño de la tabla de MAC. Esta estadística se asigna internamente a estas estadísticas detalladas: mac_tbl_update_full, mac_tbl_lookup_full. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Paquetes de multidifusión recibidos |
Tasa de paquetes de multidifusión recibidos por el VDS de la máquina virtual. Esta estadística se asigna internamente a la estadística rx_mcast_pkts. |
4.2.0 |
Paquetes de multidifusión transmitidos |
Tasa de paquetes de multidifusión enviados por el VDS a la máquina virtual. Esta estadística se asigna internamente a la estadística tx_mcast_pkts. |
4.2.0 |
Ruta de datos de superposición de capa 2 |
Total de paquetes descartados por el módulo Ruta de datos de superposición de capa 2 por diversos motivos. Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes. |
4.2.0 |
Ruta de datos de superposición transmitida al vínculo superior |
Tasa de paquetes de unidifusión desbordados en los VTEP remotos debido a un error de búsqueda de la tabla de MAC. Los valores grandes implican problemas de actualización de la tabla MAC o flujos de capa 2 unidireccionales. Compruebe si la tabla MAC está llena en el nodo de transporte del host mediante el siguiente comando: $ nsxcli -c "get segment mac-table" Si es necesario, aumente el tamaño de la tabla de MAC. Esta estadística se asigna internamente a la estadística mac_tbl_lookup_flood. |
4.2.0 |
Resolución de vecino asistida por plano de control con superposición incorrecta |
Tasa de descarte de paquetes debido a que el plano de control no puede ayudar correctamente en la resolución del vecino. Las razones pueden ser que CCP aún no ha aprendido la asignación de IP-MAC o que el sistema se está quedando sin recursos de búfer de paquetes. Esta estadística se asigna internamente a estas estadísticas detalladas: nd_proxy_resp_unknown, arp_proxy_resp_unknown, nd_proxy_req_fail_drops, arp_proxy_req_fail_drops, arp_proxy_resp_drops nd_proxy_resp_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes recibidos de superposición |
Número de paquetes descartados en VDL2LeafInput debido a diversos motivos. Consulte los motivos del descarte de hojas recibidas para identificar el motivo específico de los descartes. Esta estadística se asigna internamente a estas estadísticas detalladas: leaf_rx_ref_port_not_found_drops, leaf_rx_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes transmitidos de superposición |
Número total de descartes en VDL2LeafOutput debido a diversos motivos. Consulte los otros motivos del descarte de hojas transmitidas para identificar el motivo específico de los descartes. Esta estadística se asigna internamente a la estadística leaf_tx_drops. |
4.2.0 |
Descartes de paquetes recibidos de vínculo superior de superposición |
Número de paquetes descartados en VDL2UplinkInput debido a diversos motivos. Consulte los otros motivos del descarte de vínculos superiores recibidos para identificar el motivo específico de los descartes. Esta estadística se asigna internamente a estas estadísticas detalladas: uplink_rx_drops, uplink_rx_guest_vlan_drops, uplink_rx_invalid_encap_drops mcast_proxy_rx_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes transmitidos de vínculo superior de superposición |
Número total de paquetes descartados en VDL2UplinkOutput debido a varios motivos. Consulte los otros motivos del descarte de los vínculos superiores transmitidos para identificar el motivo específico de los descartes. Esta estadística se asigna internamente a estas estadísticas detalladas: uplink_tx_drops, nested_tn_mcast_proxy_same_vlan_tx_drops, nested_tn_mcast_proxy_diff_vlan_tx_drops mcast_poxy_tx_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
PNIC recibida (mbps) |
Megabits recibidos por segundo. Esta estadística se asigna internamente a la estadística rxmbps. |
4.2.0 |
PNIC recibida (pps) |
Paquetes recibidos por segundo. Esta estadística se asigna internamente a la estadística rxpps. |
|
Descartes recibidos de PNIC |
Errores recibidos por segundo. Un valor distinto a cero generalmente indica estos dos casos:
Esta estadística se asigna internamente a la estadística rxeps. |
4.2.0 |
PNIC transmitida (mbps) |
Megabits transmitidos por segundo. Esta estadística se asigna internamente a la estadística txmbps |
4.2.0 |
PNIC transmitida (pps) |
Paquetes transmitidos por segundo. Esta estadística se asigna internamente a la estadística txpps. |
4.2.0 |
Descartes transmitidos de PNIC |
Errores transmitidos por segundo. Esta estadística se asigna internamente a la estadística txeps. |
4.2.0 |
PNIC |
Número de NIC físicas. Esta estadística se asigna internamente a la estadística num_pnics. |
4.2.0 |
Descartes por error de análisis de paquetes |
Número de paquetes de detección de vecinos (ND) IPv6 que no se analizaron correctamente. Examine los registros en busca de mensajes de error. Realice capturas de paquetes en el puerto para identificar si los paquetes tienen un formato incorrecto. Esta estadística se asigna internamente a la estadística nd_parse_errors. |
4.2.0 |
Solo slowpath |
Tasa de paquetes que siempre se procesan en slowpath por diseño. Un ejemplo es un paquete de difusión. Esta estadística se asigna internamente a la estadística slowpath. |
4.2.0 |
Descartes de paquetes de SpoofGuard |
Número de paquetes IPv4/IPv6/ARP descartados por SpoofGuard. SpoofGuard protege contra la suplantación de IP al mantener una tabla de referencia de nombres de máquinas virtuales/direcciones IP y MAC. Esto se incrementará solo si SpoofGuard está habilitado en el segmento o el puerto del segmento. Esta estadística se asigna internamente a estas estadísticas detalladas: spoof_guard_ipv4_drops, spoof_guard_arp_drops, spoof_guard_ipv6_drops, spoof_guard_nd_drops, spoof_guard_non_ip_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Seguridad de conmutadores |
Total de paquetes descartados por el módulo Seguridad del conmutador por diversos motivos. Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes. |
4.2.0 |
Endpoint de túnel desconocido |
Tasa de paquetes descartados para los que no se puede obtener la dirección MAC externa de origen, ya que se desconoce la etiqueta GENEVE entrante. Los valores grandes de esta estadística pueden indicar que faltan actualizaciones de VTEP remotas en el nodo de transporte desde el plano de control. Utilice la CLI para comprobar la tabla de VTEP remota en el nodo de transporte. Esta estadística se asigna internamente a la estadística uplink_rx_skip_mac_learn. |
4.2.0 |
VNIC recibida (mbps) |
Megabits recibidos por segundo. Esta estadística se asigna internamente a la estadística rxmbps. |
4.2.0 |
VNIC recibida (pps) |
Paquetes recibidos por segundo. Esta estadística se asigna internamente a la estadística rxpps. |
4.2.0 |
Descartes recibidos de VNIC |
Errores recibidos por segundo. Un valor distinto a cero generalmente indica estos dos casos:
Esta estadística se asigna internamente a la estadística rxeps. |
4.2.0 |
VNIC transmitida (mbps) |
Megabits transmitidos por segundo. Esta estadística se asigna internamente a la estadística txmbps. |
4.2.0 |
VNIC transmitida (pps) |
Paquetes transmitidos por segundo. Esta estadística se asigna internamente a la estadística txpps. |
4.2.0 |
Descartes transmitidos de VNIC |
Errores transmitidos por segundo. Un valor distinto a cero generalmente indica lo siguiente:
Esta estadística se asigna internamente a la estadística txeps. |
4.2.0 |
VNIC |
Número de NIC virtuales. Esta estadística se asigna internamente a la estadística num_vnics. |
4.2.0 |
Descartes de paquetes por filtro de BPDU de carga de trabajo |
Número de paquetes descartados por el filtrado de BPDU. Al habilitar el filtro BPDU, el tráfico a las direcciones MAC de destino de BPDU configuradas se descarta. Esta estadística se asigna internamente a la estadística bpdu_filter_drops. |
4.2.0 |
Descartes de paquetes no permitidos por DHCP de carga de trabajo |
Número de paquetes DHCPv4 o DHCPv6 descartados por el bloqueo de clientes/servidores DHCP. Esta estadística se asigna internamente a estas estadísticas detalladas: dhcp_client_block_ipv6_drops, dhcp_server_block_ipv6_drops, dhcp_client_block_ipv4_drops, dhcp_server_block_ipv4_drops, dhcp_client_validate_ipv4_drops. Para obtener más información, consulte la definición de cada estadística. |
4.2.0 |
Descartes de paquetes por protección de RA IPv6 de carga de trabajo |
Número de paquetes de anuncio de enrutador IPv6 descartados por la protección de RA. La función de protección de RA filtra los anuncios de enrutador IPv6 (ICMPv6 tipo 134) transmitidos desde las máquinas virtuales. En una implementación de IPv6, los enrutadores multidifusión envían periódicamente mensajes de anuncio de enrutador que los hosts utilizan para la configuración automática. Puede utilizar RA Guard para proteger la red contra mensajes de RA dudosos generados por enrutadores no autorizados o configurados de forma incorrecta que se conectan al segmento de red. Puede configurar RA Guard en la interfaz de usuario de NSX Manager en . Esta estadística se asigna internamente a las estadísticas ra_guard_drops. |
4.2.0 |
vSwitch |
Total de paquetes descartados por el módulo Seguridad del conmutador por diversos motivos. Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes. |
|
vSwitch recibido del vínculo superior |
Tasa de paquetes recibidos de uno o varios vínculos superiores del vSwitch que son de unidifusión desconocida y que el vSwitch desbordó a otros puertos del mismo dominio de difusión. Esta estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch. Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC. Esta estadística se asigna internamente a las estadísticas unknown_unicast_rx_uplink_pkts. |
4.2.0 |
vSwitch transmitido a vínculo superior |
Tasa de paquetes de unidifusión desconocida que el vSwitch desborda a uno o varios vínculos superiores. La estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch. Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC. Esta estadística se asigna internamente a las estadísticas unknown_unicast_tx_uplink_pkts. |
4.2.0 |
Módulo: host_enhanced_fastpath
Este módulo de ruta de datos proporciona estadísticas de host/infraestructura para el módulo de ruta de datos de ENS. Este módulo de ruta de datos se conoce como host-fastpath-ens
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
flow_table_occupancy_0_pct |
Histograma: número de tablas de flujo con 0-25% de uso. |
4.2.0 |
flow_table_occupancy_25_pct |
Histograma: número de tablas de flujo con 25-50% de uso. |
4.2.0 |
flow_table_occupancy_50_pct |
Histograma: número de tablas de flujo con 50-75% de uso. |
4.2.0 |
flow_table_occupancy_75_pct |
Histograma: número de tablas de flujo con 75-90% de uso. |
4.2.0 |
flow_table_occupancy_90_pct |
Histograma: número de tablas de flujo con 90-95% de uso. Si el número de flujos activos supera el tamaño de la tabla de flujos, es posible que vea un aumento en los errores de flujo, lo que provoca una degradación del rendimiento. Las estadísticas de histogramas de ocupación de la tabla de flujos son útiles para determinar si las tablas de flujo se están llenando. Aumentar el tamaño de la tabla de flujos no siempre mejora el rendimiento si siguen entrando conexiones de corta duración. Es posible que la tabla de flujos siempre esté llena, independientemente del tamaño de la tabla de flujos. Una tabla de flujos de gran tamaño no ayudaría en este caso. EDP tiene una lógica para detectar esto y habilitar y deshabilitar automáticamente las tablas de flujo para controlar este caso. |
4.2.0 |
flow_table_occupancy_95_pct |
Histograma: número de tablas de flujo con 95% de uso. Si el número de flujos activos supera el tamaño de la tabla de flujos, es posible que vea un aumento en los errores de flujo, lo que provoca una degradación del rendimiento. Las estadísticas de histogramas de ocupación de la tabla de flujos son útiles para determinar si las tablas de flujo se están llenando. Aumentar el tamaño de la tabla de flujos no siempre mejora el rendimiento si siguen entrando conexiones de corta duración. Es posible que la tabla de flujos siempre esté llena, independientemente del tamaño de la tabla de flujos. Una tabla de flujos de gran tamaño no ayudaría en este caso. EDP tiene una lógica para detectar esto y habilitar y deshabilitar automáticamente las tablas de flujo para controlar este caso. |
4.2.0 |
flow_table_size |
Tamaño máximo de la tabla de flujos en EDP. |
4.2.0 |
hits |
Número de aciertos en la tabla de flujos en el módulo de ENS. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath. |
4.2.0 |
insertion_errors |
Número de errores de inserción de la tabla de flujos. Esto puede ocurrir cuando una tabla de flujos está llena (o casi llena) y hay colisiones de hash. |
4.2.0 |
miss |
Paquetes procesados por slowpath debido a una pérdida de flujo. Esta estadística no se superpone con la estadística slowpath descrita más adelante en esta tabla. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath. |
4.2.0 |
num_flow_tables |
Número de tablas de flujo utilizadas para EDP. EDP tiene una tabla de flujos por subproceso de EDP. Esto resulta útil para ver cuántas tablas de flujos se crean y se utilizan. |
4.2.0 |
num_flows |
Número de flujos en EDP. |
4.2.0 |
num_flows_created |
Número de flujos creados en EDP. Utilice esta estadística para calcular la velocidad de creación de flujo, que será útil para determinar las características de la carga de trabajo. Las estadísticas de histogramas de ocupación de la tabla de flujos le indicarán si las tablas de flujo están llenas o no. Si la tasa de creación de flujo es baja y no hay cambios significativos en las estadísticas de ocupación del flujo u num_flows, eso indicará que el tráfico es estable y está en un estado estable. El número de flujos activos se mantiene estable. Si la velocidad de creación de flujo es alta y num_flows está aumentando, eso significa que el número de flujos activos está aumentando. Las tablas de flujos se llenarán con el tiempo si la velocidad de creación de flujo no baja. Si la tasa de creación de flujo es alta y el tamaño medio del flujo no es pequeño, se recomienda aumentar el tamaño de la tabla de flujos. Tamaño de flujo medio = frecuencia de aciertos/velocidad de num_flows_created. Un valor pequeño para el tamaño de flujo medio significa que los flujos son de corta duración. Se acumulan tanto hits como num_flows_created. Puede calcular primero los valores de velocidad para obtener el tamaño de flujo medio durante un período de tiempo específico. |
4.2.0 |
slowpath |
Paquetes que siempre se procesan en slowpath por diseño. Un ejemplo es un paquete de difusión. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath. |
4.2.0 |
Módulo: host_fastpath_ens_lcore
Este módulo de ruta de datos proporciona las estadísticas de uso de Lcore estimado para el módulo DES. Se muestran hasta 16 Lcores clasificados por uso. Si se configuran menos de 16 Lcores, solo se mostrarán Lcores con ID válidos. Este módulo de ruta de datos se conoce como host-fastpath-ens-lcore
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
lcorerank01_lcoreid |
El identificador del subproceso de kernel de rango 1 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank01_lcoreusage |
Uso de CPU de Lcore de rango 1. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank02_lcoreid |
El identificador del subproceso de kernel de rango 2 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank02_lcoreusage |
Uso de CPU de Lcore de rango 2. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank03_lcoreid |
El identificador del subproceso de kernel de rango 3 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank03_lcoreusage |
Uso de CPU de Lcore de rango 3. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank04_lcoreid |
El identificador del subproceso de kernel de rango 4 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank04_lcoreusage |
Uso de CPU de Lcore de rango 4. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank05_lcoreid |
El identificador del subproceso de kernel de rango 5 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank05_lcoreusage |
Uso de CPU de Lcore de rango 5. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank06_lcoreid |
El identificador del subproceso de kernel de rango 6 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank06_lcoreusage |
Uso de CPU de Lcore de rango 6. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank07_lcoreid |
El identificador del subproceso de kernel de rango 7 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank07_lcoreusage |
Uso de CPU de Lcore de rango 7. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank08_lcoreid |
El identificador del subproceso de kernel de rango 8 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank08_lcoreusage |
Uso de CPU de Lcore de rango 8. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank09_lcoreid |
El identificador del subproceso de kernel de rango 9 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank09_lcoreusage |
Uso de CPU de Lcore de rango 9. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank10_lcoreid |
El identificador del subproceso de kernel de rango 10 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank10_lcoreusage |
Uso de CPU de Lcore de rango 10. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank11_lcoreid |
El identificador del subproceso de kernel de rango 11 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank11_lcoreusage |
Uso de CPU de Lcore de rango 11. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank12_lcoreid |
El identificador del subproceso de kernel de rango 12 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank12_lcoreusage |
Uso de CPU de Lcore de rango 12. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank13_lcoreid |
El identificador del subproceso de kernel de rango 13 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
|
lcorerank13_lcoreusage |
Uso de CPU de Lcore de rango 13. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank14_lcoreid |
El identificador del subproceso de kernel de rango 14 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank14_lcoreusage |
Uso de CPU de Lcore de rango 14. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank15_lcoreid |
El identificador del subproceso de kernel de rango 15 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank15_lcoreusage |
Uso de CPU de Lcore de rango 15. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank16_lcoreid |
El identificador del subproceso de kernel de rango 16 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido. |
4.2.0 |
lcorerank16_lcoreusage |
Uso de CPU de Lcore de rango 16. Solo se mostrará si el ID es válido. |
4.2.0 |
Módulo: host_standard_fastpath
Este módulo de ruta de datos proporciona estadísticas para el módulo de ruta de datos de caché de flujo heredado. Este módulo de ruta de datos se conoce como host-fastpath-standard
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
flow_table_occupancy_0_pct |
Histograma: número de tablas de flujo con 0-25% de uso. |
4.2.0 |
flow_table_occupancy_25_pct |
Histograma: número de tablas de flujo con 25-50% de uso. |
4.2.0 |
flow_table_occupancy_50_pct |
Histograma: número de tablas de flujo con 50-75% de uso. |
4.2.0 |
flow_table_occupancy_75_pct |
Histograma: número de tablas de flujo con 75-90% de uso. |
4.2.0 |
flow_table_occupancy_90_pct |
Histograma: número de tablas de flujo con 90-95% de uso. Si el número de flujos activos supera el tamaño de la tabla de flujos, es posible que vea un aumento en los errores de flujo, lo que provoca una degradación del rendimiento. Las estadísticas de histogramas de ocupación de la tabla de flujos son útiles para determinar si las tablas de flujo se están llenando. Aumentar el tamaño de la tabla de flujos no siempre mejora el rendimiento si siguen entrando conexiones de corta duración. Es posible que la tabla de flujos siempre esté llena, independientemente del tamaño de la tabla de flujos. Una tabla de flujos de gran tamaño no ayudaría en este caso. EDP tiene una lógica para detectar esto y habilitar y deshabilitar automáticamente las tablas de flujo para controlar este caso. |
4.2.0 |
flow_table_occupancy_95_pct |
Histograma: número de tablas de flujo con 95% de uso. Si el número de flujos activos supera el tamaño de la tabla de flujos, es posible que vea un aumento en los errores de flujo, lo que provoca una degradación del rendimiento. Las estadísticas de histogramas de ocupación de la tabla de flujos son útiles para determinar si las tablas de flujo se están llenando. Aumentar el tamaño de la tabla de flujos no siempre mejora el rendimiento si siguen entrando conexiones de corta duración. Es posible que la tabla de flujos siempre esté llena, independientemente del tamaño de la tabla de flujos. Una tabla de flujos de gran tamaño no ayudaría en este caso. EDP tiene una lógica para detectar esto y habilitar y deshabilitar automáticamente las tablas de flujo para controlar este caso. |
4.2.0 |
flow_table_size |
Tamaño máximo de la tabla de flujos en EDP. |
4.2.0 |
hits |
Número de aciertos en la tabla de flujos en el módulo de ENS. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath. |
4.2.0 |
insertion_errors |
Número de errores de inserción de la tabla de flujos. Esto puede ocurrir cuando una tabla de flujos está llena (o casi llena) y hay colisiones de hash. |
4.2.0 |
miss |
Paquetes procesados por slowpath debido a una pérdida de flujo. Esta estadística no se superpone con la estadística slowpath descrita más adelante en esta tabla. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath. |
4.2.0 |
num_flow_tables |
Número de tablas de flujo utilizadas para EDP. EDP tiene una tabla de flujos por subproceso de EDP. Esto resulta útil para ver cuántas tablas de flujos se crean y se utilizan. |
4.2.0 |
num_flows |
Número de flujos en EDP. |
4.2.0 |
num_flows_created |
Número de flujos creados en EDP. Utilice esta estadística para calcular la velocidad de creación de flujo, que será útil para determinar las características de la carga de trabajo. Las estadísticas de histogramas de ocupación de la tabla de flujos le indicarán si las tablas de flujo están llenas o no. Si la tasa de creación de flujo es baja y no hay cambios significativos en las estadísticas de ocupación del flujo u num_flows, eso indicará que el tráfico es estable y está en un estado estable. El número de flujos activos se mantiene estable. Si la velocidad de creación de flujo es alta y num_flows está aumentando, eso significa que el número de flujos activos está aumentando. Las tablas de flujos se llenarán con el tiempo si la velocidad de creación de flujo no baja. Si la tasa de creación de flujo es alta y el tamaño medio del flujo no es pequeño, se recomienda aumentar el tamaño de la tabla de flujos. Tamaño de flujo medio = frecuencia de aciertos/velocidad de num_flows_created. Un valor pequeño para el tamaño de flujo medio significa que los flujos son de corta duración. Se acumulan tanto hits como num_flows_created. Puede calcular primero los valores de velocidad para obtener el tamaño de flujo medio durante un período de tiempo específico. |
4.2.0 |
slowpath |
Paquetes que siempre se procesan en slowpath por diseño. Un ejemplo es un paquete de difusión. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath. |
4.2.0 |
Módulo: host_net_thread_nioc
Este módulo de ruta de datos proporciona estadísticas de subprocesos de red relacionadas con NIOC. Este módulo de ruta de datos se conoce como host-net-thread-nioc
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
hist_0_pct |
Histograma: número de subprocesos entre 0% y 25% |
4.2.0 |
hist_25_pct |
Histograma: número de subprocesos entre 25% y 50% |
4.2.0 |
hist_50_pct |
Histograma: número de subprocesos entre 50% y 70% |
4.2.0 |
hist_70_pct |
Histograma: número de subprocesos entre 70% y 80% |
4.2.0 |
hist_80_pct |
Histograma: número de subprocesos entre 80% y 85% |
4.2.0 |
hist_85_pct |
Histograma: número de subprocesos entre 85% y 90% |
4.2.0 |
hist_90_pct |
Histograma: número de subprocesos entre 90% y 95% |
4.2.0 |
hist_95_pct |
Histograma: número de subprocesos entre 95% y 97% |
4.2.0 |
hist_97_pct |
Histograma: número de subprocesos entre 97% y 99% |
4.2.0 |
hist_99_pct |
Histograma: número de subprocesos con >99% de uso. Los problemas de la ruta de datos de red se expresan como tres síntomas: paquetes descartados, bajo rendimiento y latencia alta. Aunque los problemas funcionales y de rendimiento comparten estos síntomas, la mayoría de las veces se deben a problemas relacionados con el rendimiento. Es fundamental descartar si el problema está relacionado o no con el rendimiento en una etapa inicial. En las redes definidas por software, especialmente las creadas sobre la virtualización, la CPU es el recurso más crítico que afecta al rendimiento de la red. Con NIC más rápidas disponibles en el mercado, el ancho de banda de red rara vez se convierte en un cuello de botella. El procesamiento de paquetes en la ruta de datos generalmente implica un conjunto de subprocesos ejecutados en una canalización, asociados con colas y búferes que contienen paquetes. Cuando se sobrecarga cualquier subproceso de la canalización de vCPU a subprocesos de red del kernel, las colas y los búferes correspondientes pueden llenarse, lo que provoca descartes de paquetes. Esto limita el rendimiento. Es crucial supervisar el uso de CPU de los subprocesos de red del kernel, además de las estadísticas de red tradicionales. En lugar de utilizar números de uso de CPU para subprocesos individuales, los agrupamos y generamos un histograma. Eso permite supervisar los contenedores de histogramas como 90pct, 95pct, 97pct, 99pct, que le dicen cuántos subprocesos de red están cuellos de botella. La estadística total_CPU también es útil para mostrar cuánto tiempo de CPU se dedica a procesar paquetes en el kernel. |
4.2.0 |
max_cpu |
Uso máximo de CPU de subproceso |
4.2.0 |
min_cpu |
Uso mínimo de CPU de subproceso |
4.2.0 |
num_threads |
Número de subprocesos utilizados para enviar paquetes del programador de paquetes de NetIOC al vínculo superior. |
4.2.0 |
total_cpu |
Suma de usos de CPU de todos los subprocesos de red del grupo. La CPU total es útil para ver las distribuciones de uso de CPU general entre diferentes grupos de subprocesos y máquinas virtuales. |
4.2.0 |
Módulo: host_net_thread_rx
Este módulo de ruta de datos proporciona estadísticas de subprocesos de red relacionadas con RX. Este módulo de ruta de datos se conoce como host-net-thread-rx
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
hist_0_pct |
Histograma: número de subprocesos entre 0% y 25% |
4.2.0 |
hist_25_pct |
Histograma: número de subprocesos entre 25% y 50% |
4.2.0 |
hist_50_pct |
Histograma: número de subprocesos entre 50% y 70% |
4.2.0 |
hist_70_pct |
Histograma: número de subprocesos entre 70% y 80% |
4.2.0 |
hist_80_pct |
Histograma: número de subprocesos entre 80% y 85% |
4.2.0 |
hist_85_pct |
Histograma: número de subprocesos entre 85% y 90% |
4.2.0 |
hist_90_pct |
Histograma: número de subprocesos entre 90% y 95% |
4.2.0 |
hist_95_pct |
Histograma: número de subprocesos entre 95% y 97% |
4.2.0 |
hist_97_pct |
Histograma: número de subprocesos entre 97% y 99% |
4.2.0 |
hist_99_pct |
Histograma: número de subprocesos con >99% de uso. Los problemas de la ruta de datos de red se expresan como tres síntomas: paquetes descartados, bajo rendimiento y latencia alta. Aunque los problemas funcionales y de rendimiento comparten estos síntomas, la mayoría de las veces se deben a problemas relacionados con el rendimiento. Es fundamental descartar si el problema está relacionado o no con el rendimiento en una etapa inicial. En las redes definidas por software, especialmente las creadas sobre la virtualización, la CPU es el recurso más crítico que afecta al rendimiento de la red. Con NIC más rápidas disponibles en el mercado, el ancho de banda de red rara vez se convierte en un cuello de botella. El procesamiento de paquetes en la ruta de datos generalmente implica un conjunto de subprocesos ejecutados en una canalización, asociados con colas y búferes que contienen paquetes. Cuando se sobrecarga cualquier subproceso de la canalización de vCPU a subprocesos de red del kernel, las colas y los búferes correspondientes pueden llenarse, lo que provoca descartes de paquetes. Esto limita el rendimiento. Es crucial supervisar el uso de CPU de los subprocesos de red del kernel, además de las estadísticas de red tradicionales. En lugar de utilizar números de uso de CPU para subprocesos individuales, los agrupamos y generamos un histograma. Eso permite supervisar los contenedores de histogramas como 90pct, 95pct, 97pct, 99pct, que le dicen cuántos subprocesos de red están cuellos de botella. La estadística total_CPU también es útil para mostrar cuánto tiempo de CPU se dedica a procesar paquetes en el kernel. |
4.2.0 |
max_cpu |
Uso máximo de CPU de subproceso |
4.2.0 |
min_cpu |
Uso mínimo de CPU de subproceso |
4.2.0 |
num_threads |
Número de subprocesos utilizados para enviar paquetes del programador de paquetes de NetIOC al vínculo superior. |
4.2.0 |
total_cpu |
Suma de usos de CPU de todos los subprocesos de red del grupo. La CPU total es útil para ver las distribuciones de uso de CPU general entre diferentes grupos de subprocesos y máquinas virtuales. |
4.2.0 |
Módulo: host_net_thread_tx
Este módulo de ruta de datos proporciona estadísticas de subprocesos de red relacionadas con TX. Este módulo de ruta de datos se conoce como host-net-thread-tx
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
hist_0_pct |
Histograma: número de subprocesos entre 0% y 25% |
4.2.0 |
hist_25_pct |
Histograma: número de subprocesos entre 25% y 50% |
4.2.0 |
hist_50_pct |
Histograma: número de subprocesos entre 50% y 70% |
4.2.0 |
hist_70_pct |
Histograma: número de subprocesos entre 70% y 80% |
4.2.0 |
hist_80_pct |
Histograma: número de subprocesos entre 80% y 85% |
4.2.0 |
hist_85_pct |
Histograma: número de subprocesos entre 85% y 90% |
4.2.0 |
hist_90_pct |
Histograma: número de subprocesos entre 90% y 95% |
4.2.0 |
hist_95_pct |
Histograma: número de subprocesos entre 95% y 97% |
4.2.0 |
hist_97_pct |
Histograma: número de subprocesos entre 97% y 99% |
4.2.0 |
hist_99_pct |
Histograma: número de subprocesos con >99% de uso. Los problemas de la ruta de datos de red se expresan como tres síntomas: paquetes descartados, bajo rendimiento y latencia alta. Aunque los problemas funcionales y de rendimiento comparten estos síntomas, la mayoría de las veces se deben a problemas relacionados con el rendimiento. Es fundamental descartar si el problema está relacionado o no con el rendimiento en una etapa inicial. En las redes definidas por software, especialmente las creadas sobre la virtualización, la CPU es el recurso más crítico que afecta al rendimiento de la red. Con NIC más rápidas disponibles en el mercado, el ancho de banda de red rara vez se convierte en un cuello de botella. El procesamiento de paquetes en la ruta de datos generalmente implica un conjunto de subprocesos ejecutados en una canalización, asociados con colas y búferes que contienen paquetes. Cuando se sobrecarga cualquier subproceso de la canalización de vCPU a subprocesos de red del kernel, las colas y los búferes correspondientes pueden llenarse, lo que provoca descartes de paquetes. Esto limita el rendimiento. Es crucial supervisar el uso de CPU de los subprocesos de red del kernel, además de las estadísticas de red tradicionales. En lugar de utilizar números de uso de CPU para subprocesos individuales, los agrupamos y generamos un histograma. Eso permite supervisar los contenedores de histogramas como 90pct, 95pct, 97pct, 99pct, que le dicen cuántos subprocesos de red están cuellos de botella. La estadística total_CPU también es útil para mostrar cuánto tiempo de CPU se dedica a procesar paquetes en el kernel. |
4.2.0 |
max_cpu |
Uso máximo de CPU de subproceso |
4.2.0 |
min_cpu |
Uso mínimo de CPU de subproceso |
4.2.0 |
num_threads |
Número de subprocesos utilizados para enviar paquetes del programador de paquetes de NetIOC al vínculo superior. |
4.2.0 |
total_cpu |
Suma de usos de CPU de todos los subprocesos de red del grupo. La CPU total es útil para ver las distribuciones de uso de CPU general entre diferentes grupos de subprocesos y máquinas virtuales. |
4.2.0 |
Módulo: host_pcpu
Este módulo de ruta de datos proporciona el uso de CPU físicas. Este módulo de ruta de datos se conoce como host-pcpu
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
hist_0_pct |
Histograma: número de CPU entre 0% y 50% |
4.2.0 |
hist_50_pct |
Histograma: número de CPU entre 50% y 70% |
4.2.0 |
hist_75_pct |
Histograma: número de CPU entre 75% y 85% |
4.2.0 |
hist_85_pct |
Histograma: número de CPU entre 85% y 90% |
4.2.0 |
hist_90_pct |
Histograma: número de CPU entre 90% y 95% |
4.2.0 |
hist_95_pct |
Histograma: número de CPU entre 95% y 100% |
4.2.0 |
total_cpu |
Uso total de CPU del host. Suma del uso de todos los núcleos de la CPU física del host Los problemas de la ruta de datos de red se expresan como tres síntomas: paquetes descartados, bajo rendimiento y latencia alta. Aunque los problemas funcionales y de rendimiento comparten estos síntomas, la mayoría de las veces se deben a problemas relacionados con el rendimiento. Es fundamental descartar si el problema está relacionado o no con el rendimiento en una etapa inicial. En las redes definidas por software, especialmente las creadas sobre la virtualización, la CPU es el recurso más crítico que afecta al rendimiento de la red. Con NIC más rápidas disponibles en el mercado, el ancho de banda de red rara vez se convierte en un cuello de botella. El procesamiento de paquetes en la ruta de datos generalmente implica un conjunto de subprocesos ejecutados en una canalización, asociados con colas y búferes que contienen paquetes. Cuando se sobrecarga cualquier subproceso de la canalización de vCPU a subprocesos de red del kernel, las colas y los búferes correspondientes pueden llenarse, lo que provoca descartes de paquetes. Esto limita el rendimiento. Es crucial supervisar el uso de CPU de los subprocesos de red del kernel, además de las estadísticas de red tradicionales. En lugar de utilizar números de uso de CPU para subprocesos individuales, los agrupamos y generamos un histograma. Eso permite supervisar los contenedores de histogramas como 90pct, 95pct, 97pct, 99pct, que le dicen cuántos subprocesos de red están cuellos de botella. La estadística total_CPU también es útil para mostrar cuánto tiempo de CPU se dedica a procesar paquetes en el kernel. |
4.2.0 |
Módulo: host_uplink
Este módulo de ruta de datos proporciona el uso de NIC de vínculo superior físicas. Este módulo de ruta de datos se conoce como host-uplink
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
num_pnics |
Número de NIC físicas |
4.2.0 |
rx_error_total |
Estadísticas del controlador: total de errores recibidos. Por lo general, esta estadística debe tener un valor similar al de rx_missed.
Un valor distinto a cero generalmente indica dos casos:
|
4.2.0 |
rx_missed |
Estadísticas del controlador: se recibieron errores. Por lo general, esta estadística debe tener un valor similar al de rx_error_total.
Un valor distinto a cero generalmente indica dos casos:
|
4.2.0 |
rxeps |
Errores recibidos por segundo.
Un valor distinto a cero generalmente indica dos casos:
|
4.2.0 |
rxmbps |
Megabits recibidos por segundo |
4.2.0 |
rxpps |
Paquetes recibidos por segundo |
4.2.0 |
txeps |
Errores transmitidos por segundo |
4.2.0 |
txmbps |
Megabits transmitidos por segundo |
4.2.0 |
txpps |
Paquetes transmitidos por segundo |
4.2.0 |
Módulo: host_vnic
Este módulo de ruta de datos proporciona el uso de NIC virtuales. Este módulo de ruta de datos se conoce como host-vNIC
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
num_vnics |
Número de NIC virtuales. |
4.2.0 |
rxeps |
Errores recibidos por segundo.
Un valor distinto a cero generalmente indica estos dos casos:
|
4.2.0 |
rxmbps |
Megabits recibidos por segundo. |
4.2.0 |
rxpps |
Paquetes recibidos por segundo. |
4.2.0 |
txeps |
Errores transmitidos por segundo.
Un valor distinto a cero generalmente indica estos dos casos:
|
4.2.0 |
txmbps |
Megabits transmitidos por segundo. |
4.2.0 |
txpps |
Paquetes transmitidos por segundo. |
4.2.0 |
Módulo: host_vcpu
Este módulo de ruta de datos proporciona el uso de CPU virtuales. Este módulo de ruta de datos se conoce como host-vcpu
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
hist_0_pct |
Histograma: número de CPU entre 0% y 50%. |
4.2.0 |
hist_50_pct |
Histograma: número de CPU entre 50% y 70%. |
4.2.0 |
hist_75_pct |
Histograma: número de CPU entre 75% y 85% |
4.2.0 |
hist_85_pct |
Histograma: número de CPU entre 85% y 90%. |
4.2.0 |
hist_90_pct |
Histograma: número de CPU entre 90% y 95%. |
4.2.0 |
hist_95_pct |
Histograma: número de CPU entre 95% y 100%. Los problemas de la ruta de datos de red se expresan como tres síntomas: paquetes descartados, bajo rendimiento y latencia alta. Aunque los problemas funcionales y de rendimiento comparten estos síntomas, la mayoría de las veces se deben a problemas relacionados con el rendimiento. Es fundamental descartar si el problema está relacionado o no con el rendimiento en una etapa inicial. En las redes definidas por software, especialmente las creadas sobre la virtualización, la CPU es el recurso más crítico que afecta al rendimiento de la red. Con NIC más rápidas disponibles en el mercado, el ancho de banda de red rara vez se convierte en un cuello de botella. El procesamiento de paquetes en la ruta de datos generalmente implica un conjunto de subprocesos ejecutados en una canalización, asociados con colas y búferes que contienen paquetes. Cuando se sobrecarga cualquier subproceso de la canalización de vCPU a subprocesos de red del kernel, las colas y los búferes correspondientes pueden llenarse, lo que provoca descartes de paquetes. Esto limita el rendimiento. Es crucial supervisar el uso de CPU de los subprocesos de red del kernel, además de las estadísticas de red tradicionales. En lugar de utilizar números de uso de CPU para subprocesos individuales, los agrupamos y generamos un histograma. Eso permite supervisar los contenedores de histogramas que le dicen cuántos subprocesos de red están cuellos de botella. La estadística total_CPU también es útil para mostrar cuánto tiempo de CPU se dedica a procesar paquetes en el kernel. |
4.2.0 |
total_cpu |
Uso total de vCPU. Suma del uso de la CPU de todas las máquinas virtuales del host. La CPU total es útil para ver las distribuciones de uso de CPU general entre diferentes grupos de subprocesos y máquinas virtuales. |
4.2.0 |
Módulo: fastpath
Fastpath incluye módulos de ruta de datos de memoria caché de flujo (FLOW-cache, FC) y de pila de red mejorada (ENHANCED network stack, ENS) para mejorar el procesamiento de paquetes de ruta de datos. Este módulo de ruta de datos se conoce como nsxt-fp
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
rx_bytes |
El número de bytes recibidos por fastpath de la memoria caché de flujo en la dirección de recepción de los puertos. |
4.2.0 |
rx_drops |
El número de paquetes descartados por fastpath de la memoria caché de flujo en la dirección de recepción de los puertos. Esto no se aplica a la memoria caché de flujos en modo no ENS. |
4.2.0 |
rx_drops_sp |
Paquetes recibidos descartados cuando los paquetes se envían a slowpath desde fastpath de caché de flujo. No aplicable a la memoria caché de flujo en modo no ENS y modo de conmutador estándar. |
4.2.0 |
rx_drops_uplink |
El número de paquetes descartados por fastpath de la memoria caché de flujo en la dirección de recepción de los puertos de vínculo superior. No aplicable a la memoria caché de flujo en modo no ENS y modo de conmutador estándar. |
4.2.0 |
rx_pkts |
El número de paquetes recibidos por fastpath de la memoria caché de flujo en la dirección de recepción de los puertos. |
4.2.0 |
rx_pkts_sp |
Paquetes recibidos cuando se envían paquetes a slowpath desde fastpath de caché de flujo. No aplicable a la memoria caché de flujo en modo no ENS y modo de conmutador estándar. |
4.2.0 |
rx_pkts_uplink |
El número de paquetes recibidos por fastpath de la memoria caché de flujo en la dirección de recepción de los puertos de vínculo superior. |
4.2.0 |
tx_bytes |
El número de bytes transmitidos por fastpath de la memoria caché de flujo en la dirección de transmisión a los puertos. |
4.2.0 |
tx_drops |
El número de paquetes descartados por fastpath de caché de flujo en la dirección de transmisión a los puertos. |
4.2.0 |
tx_drops_sp |
Paquetes transmitidos descartados por fastpath cuando los paquetes se vuelven a inyectar en fastpath de caché de flujo desde slowpath. No aplicable a la memoria caché de flujo en modo no ENS y modo de conmutador estándar. |
4.2.0 |
tx_drops_uplink |
El número de paquetes descartados por fastpath de caché de flujo en la dirección de transmisión a los puertos de vínculo superior. |
4.2.0 |
tx_pkts |
El número de paquetes transmitidos por fastpath de caché de flujo en la dirección de transmisión a los puertos. |
4.2.0 |
tx_pkts_sp |
Paquetes transmitidos por fastpath cuando los paquetes se vuelven a inyectar en fastpath de caché de flujo desde slowpath. No aplicable al modo de conmutador estándar. |
4.2.0 |
tx_pkts_uplink |
El número de paquetes transmitidos por fastpath de la memoria caché de flujo en la dirección de transmisión desde los puertos de vínculo superior. |
4.2.0 |
Módulo: switch_security
Este módulo de ruta de datos proporciona seguridad de capa 2 y capa 3 sin estado comprobando el tráfico al segmento y descartando paquetes no autorizados enviados desde máquinas virtuales. En esta tabla, Rx hace referencia a los paquetes recibidos "desde" el conmutador, y Rx a los paquetes enviados "al" conmutador. Este módulo de ruta de datos se conoce como nsxt-swsec
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
bpdu_filter_drops |
Número de paquetes descartados por el filtrado de BPDU. Al habilitar el filtro BPDU, el tráfico a las direcciones MAC de destino de BPDU configuradas se descarta. |
4.2.0 |
dhcp_client_block_ipv4_drops |
Número de paquetes DHCP IPv4 descartados por el bloqueo de clientes DHCP. La opción Bloqueo de clientes DHCP evita que una máquina virtual adquiera una dirección IP de DHCP bloqueando las solicitudes de DHCP. Si no era el resultado esperado, puede desactivar el bloqueo de clientes DHCPv4 desde el perfil de seguridad de un segmento o de un puerto de segmentos. Para hacerlo en NSX Manager, desplácese hasta . |
4.2.0 |
dhcp_client_block_ipv6_drops |
Número de paquetes DHCP IPv6 descartados por el bloqueo de clientes DHCP. La opción Bloqueo de clientes DHCP evita que una máquina virtual adquiera una dirección IP de DHCP bloqueando las solicitudes de DHCP. Si no era el resultado esperado, puede desactivar el bloqueo de clientes DHCPv6 desde el perfil de seguridad de un segmento o de un puerto de segmentos. Para hacerlo en NSX Manager, desplácese hasta . |
4.2.0 |
dhcp_client_validate_ipv4_drops |
Número de paquetes DHCP IPv4 descartados porque las direcciones de la carga útil no eran válidas. Es posible que una máquina virtual malintencionada de la red esté intentando enviar paquetes DHCP no válidos (por ejemplo, no hay IP de origen, la dirección de hardware del cliente no coincide con la dirección MAC de origen, etc.). |
4.2.0 |
dhcp_server_block_ipv4_drops |
Número de paquetes DHCP IPv4 descartados por el bloqueo de servidores DHCP. La opción Bloqueo de servidores DHCP bloquea el tráfico desde un servidor DHCP a un cliente DHCP. Si no era el resultado esperado, puede deshabilita el bloqueo de servidores DHCP desde el perfil de seguridad de un segmento o de un puerto de segmentos. Para hacerlo en NSX Manager, desplácese hasta . |
4.2.0 |
dhcp_server_block_ipv6_drops |
Número de paquetes DHCPv6 descartados por el bloqueo de servidores DHCP. La opción Bloqueo de servidores DHCP bloquea el tráfico desde un servidor DHCP a un cliente DHCP. Si no era el resultado esperado, puede deshabilitar el bloqueo de servidores DHCPv6 desde el perfil de seguridad de un segmento o de un puerto de segmentos. Para hacerlo en NSX Manager, desplácese hasta . |
4.2.0 |
nd_parse_errors |
Número de paquetes de detección de vecinos (ND) IPv6 que no se analizaron correctamente. Examine los registros en busca de mensajes de error. Realice capturas de paquetes en el puerto para identificar si los paquetes tienen un formato incorrecto. |
4.2.0 |
ra_guard_drops |
Número de paquetes de anuncio de enrutador IPv6 descartados por la protección de RA. La función de protección de RA filtra los anuncios de enrutador IPv6 (ICMPv6 tipo 134) transmitidos desde las máquinas virtuales. En una implementación de IPv6, los enrutadores multidifusión envían periódicamente mensajes de anuncio de enrutador que los hosts utilizan para la configuración automática. Puede utilizar RA Guard para proteger la red contra mensajes de RA dudosos generados por enrutadores no autorizados o configurados de forma incorrecta que se conectan al segmento de red. Puede configurar RA Guard en la interfaz de usuario de NSX Manager en . |
4.2.0 |
rx_arp_pkts |
Número de paquetes ARP recibidos por el VDS desde la máquina virtual. |
4.2.0 |
rx_garp_pkts |
Número de paquetes ARP gratuito (GARP) recibidos por el VDS desde la máquina virtual. |
4.2.0 |
rx_ipv4_pkts |
Número de paquetes IPv4 recibidos por el VDS desde la máquina virtual. |
4.2.0 |
rx_ipv6_pkts |
Número de paquetes IPv6 recibidos por el VDS desde la máquina virtual. |
4.2.0 |
rx_na_pkts |
Número de paquetes ND (detección de vecinos) NA (anuncio de vecinos) IPv6 recibidos por el VDS desde la máquina virtual. |
4.2.0 |
rx_non_ip_pkts |
Número de paquetes no IP recibidos por el VDS desde la máquina virtual. |
4.2.0 |
rx_ns_pkts |
Número de paquetes ND (detección de vecinos) NS (solicitud de vecinos) IPv6 recibidos por el VDS desde la máquina virtual. |
4.2.0 |
rx_rate_limit_bcast_drops |
Número de paquetes de entrada descartados por el límite de velocidad de difusión. Los límites de transmisión se pueden utilizar para proteger la red o las máquinas virtuales de eventos como las tormentas de difusión. Puede configurar valores de límite de frecuencia en la interfaz de usuario de NSX Manager en . |
4.2.0 |
rx_rate_limit_mcast_drops |
Número de paquetes de entrada descartados por el límite de velocidad de multidifusión. Los límites de transmisión se pueden utilizar para proteger la red o las máquinas virtuales de eventos como las tormentas de multidifusión. Puede configurar valores de límite de frecuencia en la interfaz de usuario de NSX Manager en . |
4.2.0 |
rx_unsolicited_na_pkts |
Número de paquetes ND (detección de vecinos) NA (anuncio de vecinos) IPv6 no solicitados recibidos por el VDS desde la máquina virtual. |
4.2.0 |
rxbcastpkts |
Número de paquetes de difusión recibidos por el VDS desde la máquina virtual. |
4.2.0 |
rxmcastpkts |
Número de paquetes de multidifusión recibidos por el VDS desde la máquina virtual. |
4.2.0 |
spoof_guard_arp_drops |
Número de paquetes ARP descartados por SpoofGuard. SpoofGuard protege contra ataques malintencionados de suplantación de ARP haciendo un seguimiento de las direcciones MAC e IP. Esta estadística se incrementará solo cuando SpoofGuard esté habilitado en el segmento o el puerto del segmento. ( ) |
4.2.0 |
spoof_guard_ipv4_drops |
Número de paquetes IPv4 descartados por SpoofGuard. SpoofGuard protege contra la suplantación de IP al mantener una tabla de referencia de nombres de máquinas virtuales y direcciones IP. Esta estadística se incrementará solo cuando SpoofGuard esté habilitado en el segmento o el puerto del segmento. ( ) |
4.2.0 |
spoof_guard_ipv6_drops |
Número de paquetes IPv6 descartados por SpoofGuard. SpoofGuard protege contra la suplantación de IP al mantener una tabla de referencia de nombres de máquinas virtuales y direcciones IP. Esta estadística se incrementará solo cuando SpoofGuard esté habilitado en el segmento o el puerto del segmento. ( ) |
4.2.0 |
spoof_guard_nd_drops |
Número de paquetes ND (detección de vecinos) IPv6 descartados por SpoofGuard. SpoofGuard protege contra la suplantación de ND filtrando los paquetes ND cuyas direcciones no coinciden con la dirección de la máquina virtual. Esta estadística se incrementará solo cuando SpoofGuard esté habilitado en el segmento o el puerto del segmento. ( ) |
4.2.0 |
spoof_guard_non_ip_drops |
Número de paquetes no IP descartados por SpoofGuard. Esta estadística se incrementará solo cuando SpoofGuard esté habilitado en el segmento o el puerto del segmento. ( ) |
4.2.0 |
tx_arp_pkts |
Número de paquetes ARP enviados por el VDS a la máquina virtual. |
4.2.0 |
tx_ipv4_pkts |
Número de paquetes IPv4 enviados por el VDS a la máquina virtual. |
4.2.0 |
tx_ipv6_pkts |
Número de paquetes IPv6 enviados por el VDS a la máquina virtual. |
4.2.0 |
tx_non_ip_pkts |
Número de paquetes no IP enviados por el VDS a la máquina virtual. |
4.2.0 |
tx_rate_limit_bcast_drops |
Número de paquetes de salida descartados por el límite de velocidad de difusión. Los límites de transmisión se pueden utilizar para proteger la red o las máquinas virtuales de eventos como las tormentas de difusión. Puede configurar valores de límite de frecuencia en la interfaz de usuario de NSX Manager en . |
4.2.0 |
tx_rate_limit_mcast_drops |
Número de paquetes de salida descartados por el límite de velocidad de multidifusión. Los límites de transmisión se pueden utilizar para proteger la red o las máquinas virtuales de eventos como las tormentas de multidifusión. Puede configurar valores de límite de frecuencia en la interfaz de usuario de NSX Manager en . |
4.2.0 |
txbcastpkts |
Número de paquetes de difusión enviados por el VDS a la máquina virtual. |
4.2.0 |
txmcastpkts |
Número de paquetes de multidifusión enviados por el VDS a la máquina virtual. |
4.2.0 |
Módulo: overlay_datapath_l2
Este módulo de ruta de datos es responsable de la conectividad de las cargas de trabajo. Este módulo de ruta de datos se conoce como nsxt-vdl2
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
arp_proxy_req_fail_drops |
No se pudo volver a enviar el número de solicitudes de ARP en el vínculo superior para el aprendizaje basado en la ruta de datos cuando CCP no tiene un enlace de IP-MAC que provoca un error de supresión de ARP. Las estadísticas que no son cero indican que el sistema se está quedando sin recursos de búfer de paquetes y que el incremento continuo debe tratarse como un error crítico. |
4.2.0 |
arp_proxy_req_suppress |
Número de solicitudes de ARP suprimidas por VDL2 mediante la consulta a CCP para encontrar el enlace IP-MAC. Estos paquetes de ARP se envían en el vínculo superior solo cuando CCP no conoce el enlace. |
4.2.0 |
arp_proxy_resp |
Número de respuestas de enlace IP-MAC válidas de CCP para cada solicitud de supresión de ARP de este nodo de transporte. |
4.2.0 |
arp_proxy_resp_drops |
Número de respuestas de ARP correspondientes a la respuesta de enlace de IP-MAC de CCP que no se pudieron enviar al puerto de conmutador que solicitó la solicitud de ARP. |
4.2.0 |
arp_proxy_resp_filtered |
Número de respuestas de ARP generadas en función de la respuesta de enlace de IP-MAC de CCP que no se envían al puerto de conmutador que inició la solicitud de ARP. Esto es posible debido a que ARP se solicitó porque Traceflow o el puerto que inició la solicitud de ARP ya no estaba presente en el nodo de transporte. |
4.2.0 |
arp_proxy_resp_unknown |
Número de enlaces IP-MAC desconocidos en el plano de control para cada solicitud de IP-MAC de este nodo de transporte. Al recibir este mensaje, el módulo VDL2 vuelve a enviar la solicitud de ARP en el vínculo superior para obtener el enlace de IP-MAC a través de la ruta de datos. |
4.2.0 |
leaf_rx |
Para un segmento (conmutador lógico), esta estadística se incrementa cuando se recibe correctamente un paquete de carga de trabajo generado en VDL2LeafInput IOChain (superposición de capa 2). Estos paquetes se envían a VDS si no hay otros descartes de hoja recibidas. |
4.2.0 |
leaf_rx_drops |
Número de paquetes descartados en VDL2LeafInput debido a diversos motivos. Consulte los motivos del descarte de hojas recibidas para identificar el motivo específico de los descartes. |
4.2.0 |
leaf_rx_ref_port_not_found_drops |
Número de paquetes descartados en la hoja VDL2LeafInput. Esto puede ocurrir si el puerto troncal no forma parte del segmento. |
4.2.0 |
leaf_rx_system_err_drops |
Número de paquetes descartados en VDL2LeafInput debido a varios errores del sistema, como errores de memoria o de actualización de atributos de paquetes. Por lo general, esto significa que el host ESXi se está quedando sin recursos. Mover algunas máquinas virtuales a otros hosts puede ayudar a aliviar la carga. |
4.2.0 |
leaf_tx |
Esta estadística se muestra cuando un paquete es procesado correctamente por VDL2LeafInput IOChain (superposición de capa 2) para un puerto de conmutador. |
4.2.0 |
leaf_tx_drops |
Número total de descartes en VDL2LeafOutput debido a diversos motivos. Consulte los otros motivos del descarte de hojas transmitidas para identificar el motivo específico de los descartes. |
4.2.0 |
mac_tbl_lookup_flood |
Número de paquetes de unidifusión desbordados en los VTEP remotos debido a un error de búsqueda de la tabla de MAC. Los valores grandes implican problemas de actualización de la tabla MAC o flujos de capa 2 unidireccionales. Compruebe si la tabla MAC está llena en el nodo de transporte del host mediante el siguiente comando: $ nsxcli -c "get segment mac-table" Si es necesario, aumente el tamaño de la tabla de MAC. |
4.2.0 |
mac_tbl_lookup_full |
Número de veces que se produjo un error en la consulta de la dirección MAC de destino al plano de control para el tráfico a las máquinas virtuales porque la tabla de MAC ya estaba llena. Compruebe si la tabla MAC está llena en el nodo de transporte del host mediante el siguiente comando: $ nsxcli -c "get segment mac-table" Si es necesario, aumente el tamaño de la tabla de MAC. |
4.2.0 |
mac_tbl_update_full |
Número de errores de actualización de la tabla de MAC en el momento de obtener las direcciones MAC para los paquetes recibidos de la red subyacente. Compruebe si la tabla MAC está llena en el nodo de transporte del host mediante el siguiente comando: $ nsxcli -c "get segment mac-table" Si es necesario, aumente el tamaño de la tabla de MAC. |
4.2.0 |
mcast_proxy_rx_drops |
Número de paquetes BUM recibidos en el vínculo superior del nodo de transporte MTEP que se descartan al replicarse en otros VTEP. |
4.2.0 |
mcast_proxy_tx_drops |
Número de paquetes BUM originados en las cargas de trabajo en el nodo de transporte que se descartan después de la replicación en la salida del vínculo superior. Esta estadística aumenta si aumenta uplink_tx_invalid_state_drops o debido a errores del sistema como memoria insuficiente. |
4.2.0 |
nd_proxy_req_fail_drops |
No se pudo volver a enviar el número de solicitudes de ND en el vínculo superior para el aprendizaje basado en la ruta de datos cuando CCP no tiene un enlace de IP-MAC que provoca un error de supresión de ND. Las estadísticas que no son cero indican que el sistema se está quedando sin recursos de búfer de paquetes y que el incremento continuo debe tratarse como un error crítico. |
4.2.0 |
nd_proxy_req_suppress |
Número de solicitudes de ND suprimidas por VDL2 mediante la consulta a CCP para encontrar el enlace IP-MAC. Estos paquetes de ND se envían en el vínculo superior solo si CCP no conoce el enlace. |
4.2.0 |
nd_proxy_resp |
Número de respuestas de enlace IP-MAC válidas de CCP para cada solicitud de supresión de ND de este nodo de transporte. Estas respuestas ND pueden ser el resultado de una respuesta de CCP directa o deberse a una entrada ND ya almacenada en la caché del nodo de transporte. |
4.2.0 |
nd_proxy_resp_drops |
Número de respuestas de ND correspondientes a la respuesta de enlace de IP-MAC de CCP que no se pudieron enviar al puerto de conmutador que inició el paquete ND. |
4.2.0 |
nd_proxy_resp_filtered |
Número de respuestas de ND generadas en función de la respuesta de enlace de IP-MAC de CCP que no se envían al puerto de conmutador que inició la solicitud de ND. Esto es posible debido a que ND se solicitó porque Traceflow o el puerto que inició la solicitud de ND ya no estaba presente en el nodo de transporte. |
4.2.0 |
nd_proxy_resp_unknown |
Número de enlaces IPv6-MAC desconocidos en el plano de control para cada solicitud de IPv6-MAC de este nodo de transporte. Al recibir este mensaje, el módulo VDL2 vuelve a enviar los paquetes ND en el vínculo superior para obtener el enlace IPv6-MAC a través de la ruta de datos. |
4.2.0 |
nested_tn_mcast_proxy_diff_vlan_tx_drops |
Número de paquetes BUM descartados replicados en el nodo de transporte anidado. El nodo de transporte anidado y este nodo de transporte se configuran con un identificador de VLAN de transporte diferente. Compruebe que se pueda acceder a la IP de GW de VTEP desde las interfaces de VMK de VTEP de este nodo de transporte. |
4.2.0 |
nested_tn_mcast_proxy_same_vlan_tx_drops |
Número de paquetes BUM descartados replicados en el nodo de transporte anidado. El nodo de transporte anidado y este nodo de transporte se configuran con el mismo identificador de VLAN de transporte. |
4.2.0 |
uplink_rx |
Número de paquetes que recibidos en el puerto del vínculo superior desde el conmutador TOR. Estos paquetes se enviarán a VDS cuando no haya descartes en la recepción del vínculo superior. |
4.2.0 |
uplink_rx_drops |
Número de paquetes descartados en VDL2UplinkInput debido a diversos motivos. Consulte los otros motivos del descarte de vínculos superiores recibidos para identificar el motivo específico de los descartes. |
4.2.0 |
uplink_rx_filtered |
Número de paquetes enviados por el conmutador TOR que se filtran en el vínculo superior de VDL2 por motivos como los informes de IGMP de los nodos de transporte ESXi del mismo nivel. |
4.2.0 |
uplink_rx_guest_vlan_drops |
Número de paquetes descartados en VDL2UplinkInput cuando se produce un error al eliminar la etiqueta de VLAN invitada para el paquete interno debido a un error del sistema. |
4.2.0 |
uplink_rx_invalid_encap_drops |
Número de paquetes que se reciben en el vínculo superior desde la red subyacente y se descartan debido a encabezados de encapsulación incorrectos. Para identificar el error exacto, realice una captura de paquetes y compruebe los encabezados de encapsulación (versión de protocolo, suma de comprobación, longitud, etc.) ejecutando el siguiente comando: pktcap-uw --capture UplinkRcvKernel --uplink --ng -o uplink.pcap |
4.2.0 |
uplink_rx_mcast_invalid_dr_uplink_drops |
Número de paquetes de multidifusión de IP descartados en la entrada de vínculo superior de VDL2 debido a que vdrPort no está asociado a este vínculo superior. Esto puede ocurrir cuando el conmutador TOR está desbordando el tráfico de multidifusión en todos los vínculos superiores del nodo de transporte. Compruebe la asociación de vdrPort y el vínculo superior mediante el siguiente comando y, a continuación, compruebe si el paquete descartado se recibió en el vínculo superior no asociado: nsxdp-cli vswitch instance list |
4.2.0 |
uplink_rx_skip_mac_learn |
Número de paquetes para los que no se puede obtener la dirección MAC externa de origen, ya que se desconoce la etiqueta GENEVE entrante. Los valores grandes de esta estadística pueden indicar que faltan actualizaciones de VTEP remotas en el nodo de transporte desde el plano de control. Utilice los siguientes comandos de la CLI para comprobar la tabla de VTEP remota en el nodo de transporte. nsxcli -c "get global-vtep-table" $ nsxcli -c "get segment vtep-table" Una posible solución alternativa puede ser reiniciar el agente del plano de control local (CfgAgent) en el nodo de transporte para forzar una sincronización completa ejecutando el siguiente comando: $ /etc/init.d/nsx-cfgagent restart |
4.2.0 |
uplink_rx_system_err_drops |
Número de paquetes descartados en VDL2UplinkInput debido a varios errores del sistema, como errores de memoria o de actualización de atributos de paquetes. Por lo general, esto significa que el host ESXi se está quedando sin recursos. Mover algunas máquinas virtuales a otros hosts puede ayudar a aliviar la carga. |
4.2.0 |
uplink_rx_wrong_dest_drops |
El número de paquetes recibidos de la red subyacente y descartados porque la IP de destino del paquete no coincide con ninguno de los VTEP configurados en el host. |
4.2.0 |
uplink_tx |
Número de paquetes enviados por el VDS que se reciben en la cadena IOChain VDL2 del puerto de vínculo superior. Estos paquetes se enviarán a la red subyacente cuando no haya descartes en la transmisión del vínculo superior. |
4.2.0 |
uplink_tx_drops |
Número total de paquetes descartados en VDL2UplinkOutput debido a varios motivos. Consulte los otros motivos del descarte de los vínculos superiores transmitidos para identificar el motivo específico de los descartes. |
4.2.0 |
uplink_tx_flood_rate_limit |
Cantidad de paquetes de unidifusión desconocida desbordados en vínculos superiores con velocidad limitada. |
4.2.0 |
uplink_tx_ignore |
Número de paquetes enviados por VDS que se filtran en la salida del vínculo superior de VDL2 y no se reenvían a la red subyacente. Por ejemplo, los paquetes BUM se filtran si no hay ningún VTEP en el segmento en el que replicar los paquetes. |
4.2.0 |
uplink_tx_invalid_frame_drops |
Número de paquetes que se descartan en la salida del vínculo superior de VDL2, ya que no se pudo encontrar el encabezado de encapsulamiento o no se pudo realizar la TSO establecida en la trama interna. Esto se debe a la presencia de paquetes TCP grandes. |
4.2.0 |
uplink_tx_invalid_state_drops |
Número de paquetes que se descartan en la salida del vínculo superior de VDL2 debido a una configuración incorrecta de la VLAN de transporte. Esto se debe a una asociación de perfil de vínculo superior incorrecta en el nodo de transporte o si no se resuelve la dirección MAC de la puerta de enlace. Utilice el siguiente procedimiento para comprobar en un nodo de ESXi si se puede acceder a la IP de puerta de enlace de VTEP desde las interfaces VMK de VTEP de este nodo de transporte.
|
4.2.0 |
uplink_tx_nested_tn_repl_drops |
Número de paquetes BUM que se descartan en la salida del vínculo superior de VDL2 mientras se replican en el nodo de transporte anidado debido a una asociación de VTEP incorrecta. Utilice el siguiente comando para comprobar la asociación entre el puerto de conmutador de origen y el vínculo superior: nsxdp-cli vswitch instance list |
4.2.0 |
uplink_tx_non_unicast |
Número de paquetes de difusión o multidifusión replicados en VTEP remotos. Una tasa grande implica que el nodo de transporte debe replicar estos paquetes en los VTEP remotos, lo que puede provocar un esfuerzo en las colas transmitidas de capa de vínculo superior. |
4.2.0 |
uplink_tx_teaming_drops |
Número de paquetes que se descartan en VDL2UplinkOutput debido a la falta de disponibilidad del VTEP asociado con el puerto de conmutador que originó el tráfico. Utilice el siguiente comando para comprobar la asociación del vínculo superior del puerto de conmutador de carga de trabajo y el estado de formación de equipos: nsxdp-cli vswitch instance list |
4.2.0 |
uplink_tx_ucast_flood |
Número de paquetes de unidifusión desconocida desbordados en la salida de vínculo superior. Los valores grandes implican problemas de actualización de la tabla MAC o un flujo de capa 2 unidireccional. Compruebe si se espera el flujo unidireccional o si la tabla MAC está llena. |
4.2.0 |
Módulo: datapath_l3
Este módulo de ruta de datos, también conocido como enrutamiento distribuido virtual (Virtual Distributed Routing, VDR), enruta paquetes en cada host ESXi. Este módulo de ruta de datos se conoce como nsxt-vdrb
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
arp_hold_pkt_drops |
Cuando el enrutador distribuido está en el proceso de resolver una entrada de ARP IPv4, los paquetes que utilizan esta entrada de ARP se ponen en cola. El número de paquetes que se pueden poner en cola está limitada por instancia de enrutador lógico. Cuando se alcanza el límite, los paquetes más antiguos se descartan en la cola, y esta estadística aumentará en función del número de paquetes antiguos que se descarten. |
4.2.0 |
arpfaildrops (lta) |
Paquetes IPv4 descartados debido a un error de ARP. |
4.2.0 |
consumed_icmpv4 |
Número de paquetes IPv4 destinados a una dirección IP de puerto de enrutamiento lógico del enrutador distribuido correspondiente a un segmento determinado. Tenga en cuenta que las estadísticas aumentarán después de enrutar el paquete desde la subred de origen. |
4.2.0 |
consumed_icmpv6 |
Número de paquetes IPv6 destinados a una dirección IP de puerto de enrutamiento lógico del enrutador distribuido correspondiente a un segmento determinado. Tenga en cuenta que las estadísticas aumentarán después de enrutar el paquete desde la subred de origen. |
4.2.0 |
drop_route_ipv4_drops |
Número de paquetes IPv4 que coinciden con las "rutas de descarte". Las rutas de descarte son las rutas configuradas para descartar de forma intencionada los paquetes que coincidan. Si no es el resultado esperado, compruebe las rutas en el host ESXi y la configuración en el plano de administración. |
4.2.0 |
drop_route_ipv6_drops |
Número de paquetes IPv6 que coinciden con las "rutas de descarte". Las rutas de descarte son las rutas configuradas para descartar de forma intencionada los paquetes que coincidan. Si no es el resultado esperado, compruebe las rutas en el host ESXi y la configuración en el plano de administración. |
4.2.0 |
ndfaildrops (lta) |
Paquetes IPv6 descartados debido a un error de detección de vecinos. |
4.2.0 |
no_nbr_ipv4 |
No se encontró ninguna entrada de ARP IPv4 en la tabla ARP del enrutador distribuido. |
4.2.0 |
no_nbr_ipv6 |
No se encontró ninguna entrada de vecino IPv6 en la tabla de vecinos del enrutador distribuido. |
4.2.0 |
no_route_ipv4_drops |
Cada instancia de enrutador lógico tiene su propia tabla de enrutamiento para las búsquedas de rutas. Esta estadística aumenta cuando se descartan paquetes IPv4 debido a que no hay rutas que coincidan para esa instancia de enrutador lógico. |
4.2.0 |
no_route_ipv6_drops |
Cada instancia de enrutador lógico tiene su propia tabla de enrutamiento para las búsquedas de rutas. Esta estadística aumenta cuando se descartan paquetes IPv6 debido a que no hay rutas que coincidan para esa instancia de enrutador lógico. |
4.2.0 |
ns_hold_pkt_drops |
Cuando el enrutador distribuido está en el proceso de resolver una entrada de vecino IPv6, los paquetes que utilizan esta entrada de vecino se ponen en cola. El número de paquetes que se pueden poner en cola está limitada por instancia de enrutador lógico. Cuando se alcanza el límite, los paquetes más antiguos se descartan en la cola, y esta estadística aumentará en función del número de paquetes antiguos que se descarten. |
4.2.0 |
pkt_attr_error_drops |
Número de paquetes en los que se produjo un error en la operación de atributo. NSX utiliza atributos de paquete para facilitar el procesamiento de paquetes. Los atributos de paquete pueden asignarse, establecerse o no establecerse. En casos normales, la operación no falla.
Algunos de los posibles motivos del incremento de esta estadística pueden ser los siguientes:
|
4.2.0 |
relayed_dhcpv4_req |
Solicitudes DHCPv4 retransmitidas. |
4.2.0 |
relayed_dhcpv4_rsp |
Respuestas DHCPv4 retransmitidas. |
4.2.0 |
relayed_dhcpv6_req |
Solicitudes DHCPv6 retransmitidas. |
4.2.0 |
relayed_dhcpv6_rsp |
Respuestas DHCPv6 retransmitidas. |
4.2.0 |
rpf_ipv4_drops |
Número de paquetes IPv4 descartados debido a un error en la comprobación de reenvío de ruta inversa. El enrutador distribuido puede comprobar si la IP de origen de los paquetes proviene de un origen válido (accesible) y puede descartar los paquetes en función de la configuración. Puede cambiar esta opción en la interfaz de usuario de NSX Manager.
Para comprobar la configuración actual en la interfaz de usuario de
NSX Manager, siga estos pasos:
|
4.2.0 |
rpf_ipv6_drops |
Número de paquetes IPv6 descartados debido a un error en la comprobación de reenvío de ruta inversa. El enrutador distribuido puede comprobar si la IP de origen de los paquetes proviene de un origen válido (accesible) y puede descartar los paquetes en función de la configuración. Puede cambiar esta opción en la interfaz de usuario de NSX Manager.
Para comprobar la configuración actual en la interfaz de usuario de
NSX Manager, siga estos pasos:
|
4.2.0 |
rx_arp_req |
Número de paquetes de solicitud de ARP recibidos por el puerto de enrutador lógico de un enrutador distribuido correspondiente a un segmento determinado. |
4.2.0 |
rx_ipv4 |
Número de paquetes IPv4 que llegan a un puerto de enrutamiento lógico de un enrutador distribuido correspondiente a un segmento determinado. |
4.2.0 |
rx_ipv6 |
Número de paquetes IPv6 que llegan a un puerto de enrutamiento lógico de un enrutador distribuido correspondiente a un segmento determinado. |
4.2.0 |
rx_pkt_parsing_error_drops |
Número de errores de análisis de los paquetes del enrutador distribuido recibidos. El enrutador distribuido realiza un análisis de cada paquete recibido en el que lee los metadatos y los encabezados. Si detecta un número elevado para esta estadística, puede que se deba a que los paquetes no están estructurados correctamente. Supervise si hay algún error de tráfico y realice la captura de paquetes para una depuración más profunda. |
4.2.0 |
rxgarp (lta) |
GARP gratuito recibido en un enrutador distribuido. |
4.2.0 |
ttl_ipv4_drops |
Número de paquetes IPv4 descartados debido a un TTL bajo. Cada instancia de enrutador lógico deducirá 1 del valor de TTL. Utilice la captura de paquetes para determinar qué paquetes tienen valores de TTL bajos. Si el TTL es bastante elevado en el origen, puede que se deba a demasiados saltos de enrutamiento en la ruta o el bucle del paquete, lo cual es poco frecuente. |
4.2.0 |
ttl_ipv6_drops |
Número de paquetes IPv6 descartados debido a un TTL bajo. Cada instancia de enrutador lógico deducirá 1 del valor de TTL. Utilice la captura de paquetes para determinar qué paquetes tienen valores de TTL bajos. Si el TTL es bastante elevado en el origen, puede que se deba a demasiados saltos de enrutamiento en la ruta o el bucle del paquete, lo cual es poco frecuente. |
4.2.0 |
tx_arp_rsp |
Número de paquetes de solicitud de ARP enviados por el puerto de enrutador lógico de un enrutador distribuido correspondiente a un segmento determinado. |
4.2.0 |
tx_dispatch_queue_too_long_drops |
Número de paquetes que se descartan en la cola de envío de transmisión. La cola de envío de transmisión contiene paquetes autogenerados del enrutador distribuido, como paquetes de ARP, detección NS, etc. Cada paquete consume los recursos del sistema de control de paquetes. Si se están acumulando demasiados paquetes en la cola, limite el tamaño de la cola y descarte los paquetes por la cola. |
4.2.0 |
tx_ipv4 |
Número de paquetes IPv4 que salen de un puerto de enrutador lógico de un enrutador distribuido correspondiente a un segmento determinado. |
4.2.0 |
tx_ipv6 |
Número de paquetes IPv6 que salen de un puerto de enrutador lógico de un enrutador distribuido correspondiente a un segmento determinado. |
4.2.0 |
Módulo: distributed_firewall
Este módulo datapth proporciona capacidad de firewall distribuido. En esta tabla, Rx hace referencia a los paquetes recibidos por el puerto del conmutador (enviados desde la máquina virtual) y Tx a los paquetes transmitidos desde el puerto del conmutador (recibidos por la máquina virtual). Este módulo de ruta de datos se conoce como nsxt-vsip
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
alg_handler_drops |
Número de paquetes descartados debido a la gestión de ALG. Realiza un seguimiento del error de gestión de paquetes de decodificador de estado de ALG. |
4.2.0 |
bad_offset_drops |
Número de paquetes descartados por desplazamiento incorrecto. |
4.2.0 |
bad_timestamp_drops |
Número de paquetes descartados debido a una marca de tiempo incorrecta. Por ejemplo, los paquetes de ACK que llevan una marca de tiempo anterior y los paquetes recibidos con una marca de tiempo inesperada deben descartarse. |
4.2.0 |
congestion_drops |
Número de paquetes descartados debido a la congestión. Por ejemplo, se detectó congestión en la cola de una interfaz de red. |
4.2.0 |
fragment_drops |
Número de paquetes descartados debido a un error en el reensamblado de paquetes fragmentados. La fragmentación divide los paquetes en fragmentos más pequeños para que las piezas resultantes puedan pasar a través de un vínculo con una MTU más pequeña que el tamaño del paquete original. |
4.2.0 |
handshake_error_drops |
Número de paquetes descartados debido a un error de protocolo de enlace de tres vías TCP. Esto puede ocurrir cuando tanto el remitente como el receptor están en SYN y se envían durante el protocolo de enlace de tres vías. Este motivo de descarte se corresponde al estado de TCP no coincidente. |
4.2.0 |
icmp_err_pkt_drops |
Número de paquetes descartados debido a paquetes de respuesta a errores ICMP extra. Esta estadística realiza un seguimiento de los paquetes de respuesta a errores ICMP extra que se descartan. |
4.2.0 |
icmp_error_drops |
Número de paquetes descartados debido a un error de secuencia en la respuesta de error de ICMP al paquete TCP. Cuando los números de secuencia están fuera del rango esperado, se produce un descarte. |
4.2.0 |
icmp_flood_overlimit_drops |
Número de paquetes descartados debido a un exceso de desbordamiento de ICMP. Hay un límite de desbordamiento de ICMP configurado en la interfaz del kernel. |
4.2.0 |
ignored_offloaded_fpdrops |
Número de paquetes descartados debido a la descarga de flujo en el hardware. El flujo descargado en el hardware significa que el seguimiento de conexiones se realiza mediante la canalización de paquetes de hardware de una smartNIC. En ese caso, la obtención de un paquete en el software es inesperada. El paquete no se puede procesar en el software porque el software no tiene información de CT actualizada (por ejemplo, estados o números de secuencia). Por lo tanto, se debe descartar el tráfico. Este caso puede ocurrir debido a que la descarga de un flujo en el hardware tarda algún tiempo y puede competir con paquetes ya en cola para entregarse a VSIP. Este motivo de descarte se debe a los paquetes fastpath de ENS. |
4.2.0 |
ignored_offloaded_spdrops |
Número de paquetes descartados debido a la descarga de flujo en el hardware. El flujo descargado en el hardware significa que el seguimiento de conexiones se realiza mediante la canalización de paquetes de hardware de una smartNIC. En ese caso, la obtención de un paquete en el software es inesperada. El paquete no se puede procesar en el software porque el software no tiene información de CT actualizada (por ejemplo, estados o números de secuencia). Por lo tanto, se debe descartar el tráfico. Este caso puede ocurrir debido a que la descarga de un flujo en el hardware tarda algún tiempo y puede competir con paquetes ya en cola para entregarse a VSIP. Esta razón de descarte se debe a la ruta de código IOChain, también conocida como slowpath en este contexto. |
4.2.0 |
ip_option_drops |
Número de paquetes descartados porque no se permiten las opciones de IP. Si no se establece allow_opts en la regla de firewall, se descartarán los paquetes que cumplan esa regla. |
4.2.0 |
l7_alert_drops |
La regla de capa 7 está presente, pero no hay ninguna coincidencia. Se genera una alerta. |
4.2.0 |
l7_attr_error_drops |
Número de paquetes descartados debido a un error al establecer los atributos de estado. Esto ocurre cuando falla la asignación o modificación de atributos de capa 7 |
4.2.0 |
l7_pending_misc |
Esta estadística realiza un seguimiento de los paquetes que PPP está analizando actualmente; la coincidencia de reglas está pendiente. Cuando se produce una coincidencia de regla de capa 7, se realiza la acción de regla correspondiente en el paquete. |
4.2.0 |
lb_reject_drops |
Esta estadística realiza un seguimiento de los descartes debido a un paquete rechazado por el equilibrador de carga. Los paquetes se descartan si coinciden con un servidor virtual del equilibrador de carga, pero no se selecciona ningún miembro del grupo. |
4.2.0 |
match_drop_rule_rx_drops |
Número de paquetes recibidos descartados al cumplir la regla de descarte o rechazo del firewall distribuido. |
4.2.0 |
match_drop_rule_tx_drops |
Número de paquetes transmitidos descartados al cumplir la regla de descarte o rechazo del firewall distribuido. |
4.2.0 |
memory_drops |
Número de paquetes descartados debido a falta de memoria. Se trata de un error de nivel de capacidad. |
4.2.0 |
normalize_drops |
Número de paquetes descartados debido a paquetes con formato incorrecto. Por ejemplo, la versión de IP no coincide o el desplazamiento del encabezado TCP es incoherente con la longitud total de la descripción del paquete |
4.2.0 |
other_flood_overlimit_drops |
Número de paquetes desbordados debido a otro límite de inundación de protocolo. Hay un límite de desbordamiento configurado en la interfaz del kernel para otros protocolos. |
4.2.0 |
pkts_frag_queued_v4_misc |
Durante la fragmentación de paquetes, los fragmentos de paquetes se agregan a la cola de fragmentos. Estos fragmentos de paquetes no se descartan necesariamente. Un correcto reensamblado de los paquetes significa que no se descartan paquetes fragmentados. Esta estadística realiza un seguimiento de los paquetes IPv4 que se agregan a la cola de fragmentos. |
4.2.0 |
pkts_frag_queued_v6_misc |
Durante la fragmentación de paquetes, los fragmentos de paquetes se agregan a la cola de fragmentos. Estos fragmentos de paquetes no se descartan necesariamente. Un correcto reensamblado de los paquetes significa que no se descartan paquetes fragmentados. Esta estadística realiza un seguimiento de los paquetes IPv6 que se agregan a la cola de fragmentos. |
4.2.0 |
proto_cksum_drops |
Número de paquetes descartados debido a una suma de comprobación de protocolo incorrecta. Esto ocurre cuando se produce un error en la validación de la suma de comprobación del paquete. |
4.2.0 |
rx_ipv4_drop_pkts |
Número de paquetes descartados IPv4 recibidos. |
4.2.0 |
rx_ipv4_pass_pkts |
Número de paquetes pasados IPv4 recibidos. |
4.2.0 |
rx_ipv4_reject_pkts |
Número de paquetes rechazados IPv4 recibidos. |
4.2.0 |
rx_ipv6_drop_pkts |
Número de paquetes descartados IPv6 recibidos. |
4.2.0 |
rx_ipv6_pass_pkts |
Número de paquetes pasados IPv6 recibidos. |
4.2.0 |
rx_ipv6_reject_pkts |
Número de paquetes rechazados IPv6 recibidos. |
4.2.0 |
rx_l2_drop_pkts |
Número de paquetes descartados de capa 2 recibidos. |
4.2.0 |
seqno_bad_ack_drops |
Número de paquetes descartados debido a que TCP reenvía más de una ventana. Este motivo de descarte se corresponde al estado de TCP no coincidente. |
4.2.0 |
seqno_gt_max_ack_drops |
Número de paquetes descartados debido a que el número de secuencia de TCP es mayor que el número de ACK máximo. Este motivo de descarte se corresponde al estado de TCP no coincidente. |
4.2.0 |
seqno_lt_minack_drops |
Número de paquetes descartados debido a que el número de secuencia de TCP es menor que el número de ACK mínimo. Este motivo de descarte se corresponde al estado de TCP no coincidente. |
4.2.0 |
seqno_old_ack_drops |
Número de paquetes descartados debido a que TCP devolvió más de un fragmento. Este motivo de descarte se corresponde al estado de TCP no coincidente. |
4.2.0 |
seqno_old_retrans_drops |
Número de paquetes descartados debido a una retransmisión de TCP anterior a una ventana. Este motivo de descarte se corresponde al estado de TCP no coincidente. |
4.2.0 |
seqno_outside_window_drops |
Número de paquetes descartados debido al número de secuencia de TCP fuera de la ventana. Este motivo de descarte se corresponde al estado de TCP no coincidente. |
4.2.0 |
short_drops |
Número de paquetes cortos descartados. Los paquetes cortos son paquetes con una longitud incorrecta (por ejemplo, paquetes con un valor de |
4.2.0 |
spoof_guard_drops |
Número de paquetes descartados debido a la comprobación de SpoofGuard. SpoofGuard es una herramienta diseñada para evitar que las máquinas virtuales de su entorno envíen tráfico con una dirección IP desde la que no está permitido enviar el tráfico. |
4.2.0 |
src_limit_misc |
Número de paquetes que alcanzan el límite de origen. Esto está relacionado con el procesamiento de paquetes de firewall. Esto se debe a un error en la inserción del nodo de origen en el árbol rojo-negro (RB) debido a que se alcanzó el límite. |
4.2.0 |
state_insert_drops |
Número de paquetes descartados debido a un error de inserción de estado. Esto ocurre debido a una inserción de estado duplicada. |
4.2.0 |
state_limit_drops |
Número de paquetes descartados debido a que se alcanzó el límite máximo de estados. Por ejemplo, si el número de estados de TCP es superior al límite, se produce un descarte. |
4.2.0 |
state_mismatch_drops |
Número de paquetes descartados debido a falta de coincidencia de estado. Existen varios posibles motivos para el descarte, como STRICTNOSYN, HANDSHAKE_SYNSENT, SEQ_GT_SEQHI, etc. |
4.2.0 |
strict_no_syn_drops |
Número de paquetes descartados debido al modo de aplicación estricto sin sincronización. Se espera que el paquete SYN se vea en modo estricto. |
4.2.0 |
syn_expected_drops |
El paquete coincide con un servidor virtual del equilibrador de carga, pero no es un paquete SYN. Por lo tanto, el sistema no debe crear un estado para él. Esto produce un descarte de paquetes. Esta estadística realiza un seguimiento de este descarte. |
4.2.0 |
syn_proxy_drops |
Número de paquetes descartados debido a synproxy. Esto es para proteger los servidores TCP de ataques como SYN FLOOD. |
4.2.0 |
tcp_flood_overlimit_drops |
Número de paquetes descartados debido a un exceso de desbordamiento de TCP. Hay un límite de desbordamiento de TCP configurado en la interfaz del kernel. |
4.2.0 |
tx_ipv4_drop_pkts |
Número de paquetes descartados IPv4 transmitidos. |
4.2.0 |
tx_ipv4_pass_pkts |
Número de paquetes pasados IPv4 transmitidos. |
4.2.0 |
tx_ipv4_reject_pkts |
Número de paquetes rechazados IPv4 transmitidos. |
4.2.0 |
tx_ipv6_drop_pkts |
Número de paquetes descartados IPv6 transmitidos. |
4.2.0 |
tx_ipv6_pass_pkts |
Número de paquetes pasados IPv6 transmitidos. |
4.2.0 |
tx_ipv6_reject_pkts |
Número de paquetes rechazados IPv6 transmitidos. |
4.2.0 |
tx_l2_drop_pkts |
Número de paquetes descartados de capa 2 transmitidos. |
4.2.0 |
udp_flood_overlimit_drops |
Número de paquetes descartados debido a un exceso de desbordamiento de UDP. Hay un límite de desbordamiento de UDP configurado en la interfaz del kernel. |
4.2.0 |
Módulo: virtual_switch
Este módulo de ruta de datos de capa 2 es responsable de proporcionar la funcionalidad de conmutación. Este módulo reenvía paquetes dentro de un dominio de difusión basado en la VLAN y el VNI en el que una interfaz recibe un paquete. En esta tabla, Rx hace referencia a los paquetes enviados "al" conmutador, y Tx a los paquetes recibidos "desde" el conmutador. Mcast hace referencia a los paquetes de multidifusión. Este módulo de ruta de datos se conoce como nsxt-vswitch
en NSX Central CLI.
Estadística | Descripción | Versión introducida |
---|---|---|
forged_transmit_rx_drops |
Número de paquetes descartados como descartes falsificados debido a que la dirección MAC de origen del paquete es diferente de la dirección MAC del adaptador de la máquina virtual. La deshabilitación de transmisiones falsificadas o el aprendizaje de direcciones MAC en el segmento provoca estos descartes. Habilitar el aprendizaje de direcciones MAC o las transmisiones falsificadas en el segmento debería mitigar el problema. |
4.2.0 |
unknown_unicast_rx_pkts |
Número de paquetes de unidifusión desconocida recibidos por vSwitch que se desbordan en otros puertos del mismo dominio de difusión. La estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch. Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC. |
4.2.0 |
unknown_unicast_rx_uplink_pkts |
Número de paquetes recibidos de uno o varios vínculos superiores del vSwitch que son de unidifusión desconocida y que el vSwitch desbordó a otros puertos del mismo dominio de difusión. La estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch. Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC. |
4.2.0 |
unknown_unicast_tx_pkts |
Número de paquetes de unidifusión desconocida que el vSwitch desbordó a otros puertos en el mismo dominio de difusión. La estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch. Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC. |
4.2.0 |
unknown_unicast_tx_uplink_pkts |
Número de paquetes de unidifusión desconocida que el vSwitch desborda a uno o varios vínculos superiores. La estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch. Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC. |
4.2.0 |
vlan_tag_mismatch_rx |
Número de paquetes de unidifusión y difusión descartados debido a una falta de coincidencia de etiquetas de VLAN. Estos descartes se producen cuando no se permite la etiqueta de VLAN de un paquete según la directiva de VLAN del segmento. Modificar la directiva de VLAN del segmento o enviar paquetes con una etiqueta de VLAN permitida puede mitigar el problema. |
4.2.0 |
vlan_tag_mismatch_rx_mcast |
Número de paquetes de multidifusión descartados debido a una falta de coincidencia de etiquetas de VLAN. Estos descartes se producen cuando no se permite la etiqueta de VLAN de un paquete según la directiva de VLAN del segmento. Modificar la directiva de VLAN del segmento o enviar paquetes con una etiqueta de VLAN permitida puede mitigar el problema. |
4.2.0 |
vlan_tag_mismatch_tx |
Número de paquetes de unidifusión descartados debido a una falta de coincidencia de etiquetas de VLAN. El conmutador de host localiza una entrada en su tabla de búsqueda en función de la dirección de destino del paquete. Al intentar reenviar el paquete fuera de un puerto, estos descartes se producen cuando no se permite la etiqueta de VLAN de un paquete según la directiva de VLAN del segmento. Modificar la directiva de VLAN del segmento o enviar paquetes con una etiqueta de VLAN permitida puede mitigar el problema. |
4.2.0 |
vlan_tag_mismatch_tx_mcast |
Número de paquetes de multidifusión descartados debido a una falta de coincidencia de etiquetas de VLAN. El conmutador de host localiza una entrada en su tabla de búsqueda en función de la dirección de destino del paquete. Al intentar reenviar el paquete fuera de un puerto, estos descartes se producen cuando no se permite la etiqueta de VLAN de un paquete según la directiva de VLAN del segmento. Modificar la directiva de VLAN del segmento o enviar paquetes con una etiqueta de VLAN permitida puede mitigar el problema. |
4.2.0 |
vni_tag_mismatch_tx |
Número de paquetes de unidifusión descartados debido a una falta de coincidencia de etiquetas de VNI. El conmutador de host localiza una entrada en su tabla de búsqueda en función de la dirección de destino del paquete. Al intentar reenviar el paquete fuera de un puerto, estos descartes se producen cuando no se permite la etiqueta de VNI de un paquete según la directiva de VNI del segmento. Mover la máquina virtual de destino a este segmento de superposición puede solucionar el problema. |
4.2.0 |
vni_tag_mismatch_tx_mcast |
Número de paquetes de multidifusión descartados debido a una falta de coincidencia de etiquetas de VNI. El conmutador de host localiza una entrada en su tabla de búsqueda en función de la dirección de destino del paquete. Al intentar reenviar el paquete fuera de un puerto, estos descartes se producen cuando no se permite la etiqueta de VNI de un paquete según la directiva de VNI del segmento. Mover la máquina virtual de destino a este segmento de superposición puede solucionar el problema. |
4.2.0 |