En esta documentación de referencia se describen las diversas estadísticas que se recopilan de los nodos de transporte del host de ESXi en su implementación de NSX.

En la primera sección de este documento se describen las estadísticas del nodo de transporte del host que se pueden ver en la interfaz de usuario de NSX Manager.

En las secciones restantes de este documento se describen las estadísticas que recopilan los distintos módulos de ruta de datos, que se ejecutan en los nodos de transporte del host ESXi. Para ver estas estadísticas, debe utilizar las API de NSX o NSX Central CLI. La columna Estadística de estas secciones hace referencia al nombre de la estadística como se muestra en los resultados de la API. Para obtener información sobre el flujo de trabajo de API para ver las estadísticas del nodo de transporte del host, consulte Supervisar estadísticas de nodos de transporte del hosts NSX mediante API.

Pestaña Estadísticas de ruta de datos

Esta pestaña muestra los valores agregados de las estadísticas de un nodo de transporte del host en la interfaz de usuario de NSX Manager.

Estadística Descripción Versión introducida

Paquetes de difusión recibidos

Tasa de paquetes de difusión recibidos por el VDS de la máquina virtual. Esta estadística se asigna internamente a la estadística rxbcastpkts.

4.2.0

Paquetes de difusión transmitidos

Tasa de paquetes de difusión enviados por el VDS a la máquina virtual. Esta estadística se asigna internamente a la estadística txbcastpkts.

4.2.0

Descartes de paquetes que limitan la velocidad de difusión

Número de paquetes de entrada o salida descartados por el límite de velocidad de difusión.

Los límites de transmisión se utilizan para proteger la red o las máquinas virtuales de eventos como las tormentas de difusión. Puede configurar valores de límite de frecuencia en la interfaz de usuario de NSX Manager en Redes > Segmentos > Perfil de segmentos > Seguridad de segmentos.

Esta estadística se asigna internamente a estas estadísticas detalladas: rx_rate_limit_bcast_drops, rx_rate_limit_mcast_drops, tx_rate_limit_bcast_drops tx_rate_limit_mcast_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

DFW

Total de paquetes descartados por el módulo DFW por diversos motivos.

Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes.

4.2.0

Ruta de datos de capa 3

Total de paquetes descartados por el módulo Ruta de datos de capa 3 por diversos motivos.

Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes.

4.2.0

Error del sistema de ruta de datos

Total de paquetes descartados debido a errores internos críticos del sistema. Si estas estadísticas se incrementan de forma constante, significa que el host ESXi se está quedando sin recursos. Mover algunas máquinas virtuales a otros hosts puede ayudar a aliviar la carga.

Esta estadística se asigna internamente a estas estadísticas detalladas: leaf_rx_system_err_drops, uplink_rx_system_err_drops, pkt_attr_error_drops tx_dispatch_queue_too_long_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

FastPath

Total de paquetes descartados por el módulo Fastpath por diversos motivos.

Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes.

4.2.0

Acierto de flujo de fastpath

Tasa de aciertos en la tabla de flujos en el módulo de ENS/caché de flujo. Esta estadística se asigna internamente a la estadística hits.

4.2.0

Pérdida de flujo de fastpath

Tasa de paquetes procesados por slowpath debido a una pérdida de flujo. Esta estadística no se superpone con la estadística de la siguiente fila. Esta estadística se asigna internamente a la estadística miss.

4.2.0

Descartes de paquetes fastpath

Número total de paquetes descartados por fastpath de la memoria caché de flujo en la dirección de recepción o transmisión a todos los puertos.

Esta estadística se asigna internamente a estas estadísticas detalladas: rx_drops ,tx_drops, rx_drops_uplink, tx_drops_uplink, rx_drops_sp, tx_drops_sp. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes por límite de desbordamiento del firewall

Número de paquetes descartados debido al desbordamiento de varios protocolos por encima del límite. Hay un límite de desbordamiento establecido para diferentes protocolos en la interfaz del kernel.

Esta estadística se asigna internamente a estas estadísticas detalladas: udp_flood_overlimit_drops, tcp_flood_overlimit_drops, icmp_flood_overlimit_drops other_flood_overlimit_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes por error interno del firewall

Número de paquetes descartados por el firewall debido a errores internos.

Esta estadística se asigna internamente a estas estadísticas detalladas: memory_drops, state_insert_drops, l7_attr_error_drops, lb_reject_drops, src_limit_misc. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes con formato incorrecto del firewall

Número de paquetes con formato incorrecto descartados por el firewall.

Esta estadística se asigna internamente a estas estadísticas detalladas: fragment_drops, short_drops, normalize_drops, bad_timestamp_drops proto_cksum_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Rechazos de paquete de firewall

Número de paquetes rechazados por el firewall por diversos motivos.

Esta estadística se asigna internamente a estas estadísticas detalladas: rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts tx_ipv6_reject_pkts. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes recibidos por regla de firewall

Número de paquetes recibidos descartados al cumplir la regla de descarte o rechazo del firewall distribuido.

Esta estadística se asigna internamente a la estadística match_drop_rule_rx_drops.

4.2.0

Descartes de paquetes transmitidos por regla de firewall

Número de paquetes transmitidos descartados al cumplir la regla de descarte o rechazo del firewall distribuido.

Esta estadística se asigna internamente a la estadística match_drop_rule_tx_drops.

4.2.0

Descartes de paquetes por comprobación de estado del firewall

Número de paquetes descartados debido a comprobaciones relacionadas con el estado.

Esta estadística se asigna internamente a estas estadísticas detalladas: icmp_err_pkt_drops, alg_handler_drops, syn_expected_drops, ip_option_drops, syn_proxy_drops, spoof_guard_drops, state_mismatch_drops, strict_no_syn_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes completos en la tabla de estado del firewall

Número de paquetes descartados debido a que se alcanzó el límite máximo de estados. Por ejemplo, si el número de estados de TCP es superior al límite, se produce un descarte. Esta estadística se asigna internamente a la estadística state_limit_drops.

4.2.0

Descartes totales de paquetes de firewall

Número total de paquetes descartados por el firewall por diversos motivos.

Esta estadística se asigna internamente a estas estadísticas detalladas: rx_ipv4_reject_pkts, tx_ipv4_reject_pkts, rx_ipv6_reject_pkts, tx_ipv6_reject_pkts, rx_ipv4_drop_pkts, tx_ipv4_drop_pkts, rx_ipv6_drop_pkts, tx_ipv6_drop_pkts, rx_l2_drop_pkts, tx_l2_drop_pkts. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes por falta de coincidencia de red del conmutador de host

Número de paquetes de unidifusión, multidifusión y difusión descartados debido a una falta de coincidencia de etiquetas de VNI o VLAN.

Esta estadística se asigna internamente a estas estadísticas detalladas: vlan_tag_mismatch_rx, vlan_tag_mismatch_tx, vni_tag_mismatch_tx, vlan_tag_mismatch_rx_mcast, vlan_tag_mismatch_tx_mcast, vni_tag_mismatch_tx_mcast. Para obtener más información, consulte la definición de cada estadística.

4.2.0

El conmutador de host recibió descartes de paquetes de MAC falsificados

Número de paquetes descartados como descartes falsificados debido a que la dirección MAC de origen del paquete es diferente de la dirección MAC del adaptador de la máquina virtual.

La deshabilitación de transmisiones falsificadas o el aprendizaje de direcciones MAC en el segmento provoca estos descartes. Habilitar el aprendizaje de direcciones MAC o las transmisiones falsificadas en el segmento debería mitigar el problema.

Esta estadística se asigna internamente a las estadísticas - forged_transmit_rx_drops.

4.2.0

Descartes de paquetes por límite de saltos de capa 3

Número de paquetes IPv4 o IPv6 descartados debido a un TTL bajo. Cada instancia de enrutador lógico deducirá 1 del valor de TTL. Utilice la captura de paquetes para determinar qué paquetes tienen valores de TTL bajos.

Esta estadística se asigna internamente a estas estadísticas detalladas: ttl_ip4_drops, ttl_ipv6_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes por vecino de capa 3 inaccesible

Número de paquetes IPv4 o IPv6 descartados debido a una resolución de vecino con errores.

Esta estadística se asigna internamente a estas estadísticas detalladas: arp_hold_pkt_drops, ns_hold_pkt_drops.

4.2.0

Descartes de paquetes por ausencia de ruta de capa 3

Cada instancia de enrutador lógico tiene su propia tabla de enrutamiento para las búsquedas de rutas. Esta estadística aumenta cuando se descartan paquetes IPv4 debido a que no hay rutas que coincidan para esa instancia de enrutador lógico.

Esta estadística se asigna internamente a estas estadísticas detalladas: no_route_ipv4_drops, no_route_ipv6_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes por reenvío de ruta inversa de capa 3

Número de paquetes IPv4 o IPv6 descartados debido a un error en la comprobación de reenvío de ruta inversa. El enrutador distribuido puede comprobar si la IP de origen de los paquetes proviene de un origen válido (accesible) y puede descartar los paquetes en función de la configuración.

Puede cambiar esta opción en la interfaz de usuario de NSX Manager.

Esta estadística se asigna internamente a estas estadísticas detalladas: rpf_ipv4_drops, rpf_ipv6_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Tabla de aprendizaje de Mac completa

Tasa de descartes de paquetes debido a errores de actualización de la tabla de MAC en el momento del aprendizaje de direcciones MAC desde el plano de control central (CCP) o para los paquetes recibidos de la red subyacente.

Compruebe si la tabla MAC está llena en el nodo de transporte del host mediante el siguiente comando:

$ nsxcli -c "get segment mac-table"

Si es necesario, aumente el tamaño de la tabla de MAC.

Esta estadística se asigna internamente a estas estadísticas detalladas: mac_tbl_update_full, mac_tbl_lookup_full. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Paquetes de multidifusión recibidos

Tasa de paquetes de multidifusión recibidos por el VDS de la máquina virtual.

Esta estadística se asigna internamente a la estadística rx_mcast_pkts.

4.2.0

Paquetes de multidifusión transmitidos

Tasa de paquetes de multidifusión enviados por el VDS a la máquina virtual.

Esta estadística se asigna internamente a la estadística tx_mcast_pkts.

4.2.0

Ruta de datos de superposición de capa 2

Total de paquetes descartados por el módulo Ruta de datos de superposición de capa 2 por diversos motivos.

Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes.

4.2.0

Ruta de datos de superposición transmitida al vínculo superior

Tasa de paquetes de unidifusión desbordados en los VTEP remotos debido a un error de búsqueda de la tabla de MAC. Los valores grandes implican problemas de actualización de la tabla MAC o flujos de capa 2 unidireccionales.

Compruebe si la tabla MAC está llena en el nodo de transporte del host mediante el siguiente comando:

$ nsxcli -c "get segment mac-table"

Si es necesario, aumente el tamaño de la tabla de MAC.

Esta estadística se asigna internamente a la estadística mac_tbl_lookup_flood.

4.2.0

Resolución de vecino asistida por plano de control con superposición incorrecta

Tasa de descarte de paquetes debido a que el plano de control no puede ayudar correctamente en la resolución del vecino. Las razones pueden ser que CCP aún no ha aprendido la asignación de IP-MAC o que el sistema se está quedando sin recursos de búfer de paquetes.

Esta estadística se asigna internamente a estas estadísticas detalladas: nd_proxy_resp_unknown, arp_proxy_resp_unknown, nd_proxy_req_fail_drops, arp_proxy_req_fail_drops, arp_proxy_resp_drops nd_proxy_resp_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes recibidos de superposición

Número de paquetes descartados en VDL2LeafInput debido a diversos motivos. Consulte los motivos del descarte de hojas recibidas para identificar el motivo específico de los descartes.

Esta estadística se asigna internamente a estas estadísticas detalladas: leaf_rx_ref_port_not_found_drops, leaf_rx_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes transmitidos de superposición

Número total de descartes en VDL2LeafOutput debido a diversos motivos. Consulte los otros motivos del descarte de hojas transmitidas para identificar el motivo específico de los descartes.

Esta estadística se asigna internamente a la estadística leaf_tx_drops.

4.2.0

Descartes de paquetes recibidos de vínculo superior de superposición

Número de paquetes descartados en VDL2UplinkInput debido a diversos motivos. Consulte los otros motivos del descarte de vínculos superiores recibidos para identificar el motivo específico de los descartes.

Esta estadística se asigna internamente a estas estadísticas detalladas: uplink_rx_drops, uplink_rx_guest_vlan_drops, uplink_rx_invalid_encap_drops mcast_proxy_rx_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes transmitidos de vínculo superior de superposición

Número total de paquetes descartados en VDL2UplinkOutput debido a varios motivos. Consulte los otros motivos del descarte de los vínculos superiores transmitidos para identificar el motivo específico de los descartes.

Esta estadística se asigna internamente a estas estadísticas detalladas: uplink_tx_drops, nested_tn_mcast_proxy_same_vlan_tx_drops, nested_tn_mcast_proxy_diff_vlan_tx_drops mcast_poxy_tx_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

PNIC recibida (mbps)

Megabits recibidos por segundo. Esta estadística se asigna internamente a la estadística rxmbps.

4.2.0

PNIC recibida (pps)

Paquetes recibidos por segundo. Esta estadística se asigna internamente a la estadística rxpps.

Descartes recibidos de PNIC

Errores recibidos por segundo. Un valor distinto a cero generalmente indica estos dos casos:
  1. El tamaño del anillo de RX de PNIC es demasiado pequeño y el anillo puede llenarse fácilmente debido a picos de carga de trabajo. Una opción es aumentar el tamaño del anillo.
  2. La tasa de paquetes es demasiado alta para que la controle el invitado. El invitado no puede extraer paquetes del anillo de recepción de PNIC, lo que provoca que se descarten paquetes.

Esta estadística se asigna internamente a la estadística rxeps.

4.2.0

PNIC transmitida (mbps)

Megabits transmitidos por segundo. Esta estadística se asigna internamente a la estadística txmbps

4.2.0

PNIC transmitida (pps)

Paquetes transmitidos por segundo. Esta estadística se asigna internamente a la estadística txpps.

4.2.0

Descartes transmitidos de PNIC

Errores transmitidos por segundo. Esta estadística se asigna internamente a la estadística txeps.

4.2.0

PNIC

Número de NIC físicas. Esta estadística se asigna internamente a la estadística num_pnics.

4.2.0

Descartes por error de análisis de paquetes

Número de paquetes de detección de vecinos (ND) IPv6 que no se analizaron correctamente. Examine los registros en busca de mensajes de error. Realice capturas de paquetes en el puerto para identificar si los paquetes tienen un formato incorrecto.

Esta estadística se asigna internamente a la estadística nd_parse_errors.

4.2.0

Solo slowpath

Tasa de paquetes que siempre se procesan en slowpath por diseño. Un ejemplo es un paquete de difusión.

Esta estadística se asigna internamente a la estadística slowpath.

4.2.0

Descartes de paquetes de SpoofGuard

Número de paquetes IPv4/IPv6/ARP descartados por SpoofGuard. SpoofGuard protege contra la suplantación de IP al mantener una tabla de referencia de nombres de máquinas virtuales/direcciones IP y MAC. Esto se incrementará solo si SpoofGuard está habilitado en el segmento o el puerto del segmento.

Esta estadística se asigna internamente a estas estadísticas detalladas: spoof_guard_ipv4_drops, spoof_guard_arp_drops, spoof_guard_ipv6_drops, spoof_guard_nd_drops, spoof_guard_non_ip_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Seguridad de conmutadores

Total de paquetes descartados por el módulo Seguridad del conmutador por diversos motivos. Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes.

4.2.0

Endpoint de túnel desconocido

Tasa de paquetes descartados para los que no se puede obtener la dirección MAC externa de origen, ya que se desconoce la etiqueta GENEVE entrante.

Los valores grandes de esta estadística pueden indicar que faltan actualizaciones de VTEP remotas en el nodo de transporte desde el plano de control. Utilice la CLI para comprobar la tabla de VTEP remota en el nodo de transporte.

Esta estadística se asigna internamente a la estadística uplink_rx_skip_mac_learn.

4.2.0

VNIC recibida (mbps)

Megabits recibidos por segundo. Esta estadística se asigna internamente a la estadística rxmbps.

4.2.0

VNIC recibida (pps)

Paquetes recibidos por segundo. Esta estadística se asigna internamente a la estadística rxpps.

4.2.0

Descartes recibidos de VNIC

Errores recibidos por segundo. Un valor distinto a cero generalmente indica estos dos casos:
  1. El tamaño del anillo de RX de VNIC es demasiado pequeño y el anillo puede llenarse fácilmente debido a picos de carga de trabajo. Una opción es aumentar el tamaño del anillo.
  2. La tasa de paquetes es demasiado alta para que la controle el invitado. El invitado no puede extraer paquetes del anillo de recepción de VNIC, lo que provoca que se descarten paquetes.

Esta estadística se asigna internamente a la estadística rxeps.

4.2.0

VNIC transmitida (mbps)

Megabits transmitidos por segundo. Esta estadística se asigna internamente a la estadística txmbps.

4.2.0

VNIC transmitida (pps)

Paquetes transmitidos por segundo. Esta estadística se asigna internamente a la estadística txpps.

4.2.0

Descartes transmitidos de VNIC

Errores transmitidos por segundo. Un valor distinto a cero generalmente indica lo siguiente:
  • La tasa de paquetes es demasiado alta para que la controle el vínculo superior.
  • El vínculo superior no puede extraer paquetes de la cola de la pila de red, lo que provoca que se descarten paquetes.

Esta estadística se asigna internamente a la estadística txeps.

4.2.0

VNIC

Número de NIC virtuales. Esta estadística se asigna internamente a la estadística num_vnics.

4.2.0

Descartes de paquetes por filtro de BPDU de carga de trabajo

Número de paquetes descartados por el filtrado de BPDU. Al habilitar el filtro BPDU, el tráfico a las direcciones MAC de destino de BPDU configuradas se descarta.

Esta estadística se asigna internamente a la estadística bpdu_filter_drops.

4.2.0

Descartes de paquetes no permitidos por DHCP de carga de trabajo

Número de paquetes DHCPv4 o DHCPv6 descartados por el bloqueo de clientes/servidores DHCP.

Esta estadística se asigna internamente a estas estadísticas detalladas: dhcp_client_block_ipv6_drops, dhcp_server_block_ipv6_drops, dhcp_client_block_ipv4_drops, dhcp_server_block_ipv4_drops, dhcp_client_validate_ipv4_drops. Para obtener más información, consulte la definición de cada estadística.

4.2.0

Descartes de paquetes por protección de RA IPv6 de carga de trabajo

Número de paquetes de anuncio de enrutador IPv6 descartados por la protección de RA. La función de protección de RA filtra los anuncios de enrutador IPv6 (ICMPv6 tipo 134) transmitidos desde las máquinas virtuales. En una implementación de IPv6, los enrutadores multidifusión envían periódicamente mensajes de anuncio de enrutador que los hosts utilizan para la configuración automática.

Puede utilizar RA Guard para proteger la red contra mensajes de RA dudosos generados por enrutadores no autorizados o configurados de forma incorrecta que se conectan al segmento de red. Puede configurar RA Guard en la interfaz de usuario de NSX Manager en Redes > Segmentos > Perfil de segmentos > Seguridad de segmentos.

Esta estadística se asigna internamente a las estadísticas ra_guard_drops.

4.2.0

vSwitch

Total de paquetes descartados por el módulo Seguridad del conmutador por diversos motivos.

Haga clic en el vínculo Ruta de datos de NSX en la interfaz de usuario para conocer los detalles de los descartes.

vSwitch recibido del vínculo superior

Tasa de paquetes recibidos de uno o varios vínculos superiores del vSwitch que son de unidifusión desconocida y que el vSwitch desbordó a otros puertos del mismo dominio de difusión.

Esta estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch.

Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC. Esta estadística se asigna internamente a las estadísticas unknown_unicast_rx_uplink_pkts.

4.2.0

vSwitch transmitido a vínculo superior

Tasa de paquetes de unidifusión desconocida que el vSwitch desborda a uno o varios vínculos superiores.

La estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch.

Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC. Esta estadística se asigna internamente a las estadísticas unknown_unicast_tx_uplink_pkts.

4.2.0

Módulo: host_enhanced_fastpath

Este módulo de ruta de datos proporciona estadísticas de host/infraestructura para el módulo de ruta de datos de ENS. Este módulo de ruta de datos se conoce como host-fastpath-ens en NSX Central CLI.

Estadística Descripción Versión introducida

flow_table_occupancy_0_pct

Histograma: número de tablas de flujo con 0-25% de uso.

4.2.0

flow_table_occupancy_25_pct

Histograma: número de tablas de flujo con 25-50% de uso.

4.2.0

flow_table_occupancy_50_pct

Histograma: número de tablas de flujo con 50-75% de uso.

4.2.0

flow_table_occupancy_75_pct

Histograma: número de tablas de flujo con 75-90% de uso.

4.2.0

flow_table_occupancy_90_pct

Histograma: número de tablas de flujo con 90-95% de uso. Si el número de flujos activos supera el tamaño de la tabla de flujos, es posible que vea un aumento en los errores de flujo, lo que provoca una degradación del rendimiento. Las estadísticas de histogramas de ocupación de la tabla de flujos son útiles para determinar si las tablas de flujo se están llenando.

Aumentar el tamaño de la tabla de flujos no siempre mejora el rendimiento si siguen entrando conexiones de corta duración. Es posible que la tabla de flujos siempre esté llena, independientemente del tamaño de la tabla de flujos. Una tabla de flujos de gran tamaño no ayudaría en este caso. EDP tiene una lógica para detectar esto y habilitar y deshabilitar automáticamente las tablas de flujo para controlar este caso.

4.2.0

flow_table_occupancy_95_pct

Histograma: número de tablas de flujo con 95% de uso. Si el número de flujos activos supera el tamaño de la tabla de flujos, es posible que vea un aumento en los errores de flujo, lo que provoca una degradación del rendimiento. Las estadísticas de histogramas de ocupación de la tabla de flujos son útiles para determinar si las tablas de flujo se están llenando.

Aumentar el tamaño de la tabla de flujos no siempre mejora el rendimiento si siguen entrando conexiones de corta duración. Es posible que la tabla de flujos siempre esté llena, independientemente del tamaño de la tabla de flujos. Una tabla de flujos de gran tamaño no ayudaría en este caso. EDP tiene una lógica para detectar esto y habilitar y deshabilitar automáticamente las tablas de flujo para controlar este caso.

4.2.0

flow_table_size

Tamaño máximo de la tabla de flujos en EDP.

4.2.0

hits

Número de aciertos en la tabla de flujos en el módulo de ENS. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath.

4.2.0

insertion_errors

Número de errores de inserción de la tabla de flujos. Esto puede ocurrir cuando una tabla de flujos está llena (o casi llena) y hay colisiones de hash.

4.2.0

miss

Paquetes procesados por slowpath debido a una pérdida de flujo. Esta estadística no se superpone con la estadística slowpath descrita más adelante en esta tabla. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath.

4.2.0

num_flow_tables

Número de tablas de flujo utilizadas para EDP. EDP tiene una tabla de flujos por subproceso de EDP. Esto resulta útil para ver cuántas tablas de flujos se crean y se utilizan.

4.2.0

num_flows

Número de flujos en EDP.

4.2.0

num_flows_created

Número de flujos creados en EDP. Utilice esta estadística para calcular la velocidad de creación de flujo, que será útil para determinar las características de la carga de trabajo. Las estadísticas de histogramas de ocupación de la tabla de flujos le indicarán si las tablas de flujo están llenas o no.

Si la tasa de creación de flujo es baja y no hay cambios significativos en las estadísticas de ocupación del flujo u num_flows, eso indicará que el tráfico es estable y está en un estado estable. El número de flujos activos se mantiene estable. Si la velocidad de creación de flujo es alta y num_flows está aumentando, eso significa que el número de flujos activos está aumentando. Las tablas de flujos se llenarán con el tiempo si la velocidad de creación de flujo no baja.

Si la tasa de creación de flujo es alta y el tamaño medio del flujo no es pequeño, se recomienda aumentar el tamaño de la tabla de flujos. Tamaño de flujo medio = frecuencia de aciertos/velocidad de num_flows_created.

Un valor pequeño para el tamaño de flujo medio significa que los flujos son de corta duración. Se acumulan tanto hits como num_flows_created. Puede calcular primero los valores de velocidad para obtener el tamaño de flujo medio durante un período de tiempo específico.

4.2.0

slowpath

Paquetes que siempre se procesan en slowpath por diseño. Un ejemplo es un paquete de difusión. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath.

4.2.0

Módulo: host_fastpath_ens_lcore

Este módulo de ruta de datos proporciona las estadísticas de uso de Lcore estimado para el módulo DES. Se muestran hasta 16 Lcores clasificados por uso. Si se configuran menos de 16 Lcores, solo se mostrarán Lcores con ID válidos. Este módulo de ruta de datos se conoce como host-fastpath-ens-lcore en NSX Central CLI.

Estadística Descripción Versión introducida

lcorerank01_lcoreid

El identificador del subproceso de kernel de rango 1 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank01_lcoreusage

Uso de CPU de Lcore de rango 1. Solo se mostrará si el ID es válido.

4.2.0

lcorerank02_lcoreid

El identificador del subproceso de kernel de rango 2 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank02_lcoreusage

Uso de CPU de Lcore de rango 2. Solo se mostrará si el ID es válido.

4.2.0

lcorerank03_lcoreid

El identificador del subproceso de kernel de rango 3 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank03_lcoreusage

Uso de CPU de Lcore de rango 3. Solo se mostrará si el ID es válido.

4.2.0

lcorerank04_lcoreid

El identificador del subproceso de kernel de rango 4 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank04_lcoreusage

Uso de CPU de Lcore de rango 4. Solo se mostrará si el ID es válido.

4.2.0

lcorerank05_lcoreid

El identificador del subproceso de kernel de rango 5 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank05_lcoreusage

Uso de CPU de Lcore de rango 5. Solo se mostrará si el ID es válido.

4.2.0

lcorerank06_lcoreid

El identificador del subproceso de kernel de rango 6 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank06_lcoreusage

Uso de CPU de Lcore de rango 6. Solo se mostrará si el ID es válido.

4.2.0

lcorerank07_lcoreid

El identificador del subproceso de kernel de rango 7 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank07_lcoreusage

Uso de CPU de Lcore de rango 7. Solo se mostrará si el ID es válido.

4.2.0

lcorerank08_lcoreid

El identificador del subproceso de kernel de rango 8 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank08_lcoreusage

Uso de CPU de Lcore de rango 8. Solo se mostrará si el ID es válido.

4.2.0

lcorerank09_lcoreid

El identificador del subproceso de kernel de rango 9 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank09_lcoreusage

Uso de CPU de Lcore de rango 9. Solo se mostrará si el ID es válido.

4.2.0

lcorerank10_lcoreid

El identificador del subproceso de kernel de rango 10 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank10_lcoreusage

Uso de CPU de Lcore de rango 10. Solo se mostrará si el ID es válido.

4.2.0

lcorerank11_lcoreid

El identificador del subproceso de kernel de rango 11 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank11_lcoreusage

Uso de CPU de Lcore de rango 11. Solo se mostrará si el ID es válido.

4.2.0

lcorerank12_lcoreid

El identificador del subproceso de kernel de rango 12 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank12_lcoreusage

Uso de CPU de Lcore de rango 12. Solo se mostrará si el ID es válido.

4.2.0

lcorerank13_lcoreid

El identificador del subproceso de kernel de rango 13 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

lcorerank13_lcoreusage

Uso de CPU de Lcore de rango 13. Solo se mostrará si el ID es válido.

4.2.0

lcorerank14_lcoreid

El identificador del subproceso de kernel de rango 14 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank14_lcoreusage

Uso de CPU de Lcore de rango 14. Solo se mostrará si el ID es válido.

4.2.0

lcorerank15_lcoreid

El identificador del subproceso de kernel de rango 15 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank15_lcoreusage

Uso de CPU de Lcore de rango 15. Solo se mostrará si el ID es válido.

4.2.0

lcorerank16_lcoreid

El identificador del subproceso de kernel de rango 16 para el modo de rendimiento de EDP en términos de uso de CPU. Solo se mostrará si el ID es válido.

4.2.0

lcorerank16_lcoreusage

Uso de CPU de Lcore de rango 16. Solo se mostrará si el ID es válido.

4.2.0

Módulo: host_standard_fastpath

Este módulo de ruta de datos proporciona estadísticas para el módulo de ruta de datos de caché de flujo heredado. Este módulo de ruta de datos se conoce como host-fastpath-standard en NSX Central CLI.

Estadística Descripción Versión introducida

flow_table_occupancy_0_pct

Histograma: número de tablas de flujo con 0-25% de uso.

4.2.0

flow_table_occupancy_25_pct

Histograma: número de tablas de flujo con 25-50% de uso.

4.2.0

flow_table_occupancy_50_pct

Histograma: número de tablas de flujo con 50-75% de uso.

4.2.0

flow_table_occupancy_75_pct

Histograma: número de tablas de flujo con 75-90% de uso.

4.2.0

flow_table_occupancy_90_pct

Histograma: número de tablas de flujo con 90-95% de uso. Si el número de flujos activos supera el tamaño de la tabla de flujos, es posible que vea un aumento en los errores de flujo, lo que provoca una degradación del rendimiento. Las estadísticas de histogramas de ocupación de la tabla de flujos son útiles para determinar si las tablas de flujo se están llenando.

Aumentar el tamaño de la tabla de flujos no siempre mejora el rendimiento si siguen entrando conexiones de corta duración. Es posible que la tabla de flujos siempre esté llena, independientemente del tamaño de la tabla de flujos. Una tabla de flujos de gran tamaño no ayudaría en este caso. EDP tiene una lógica para detectar esto y habilitar y deshabilitar automáticamente las tablas de flujo para controlar este caso.

4.2.0

flow_table_occupancy_95_pct

Histograma: número de tablas de flujo con 95% de uso. Si el número de flujos activos supera el tamaño de la tabla de flujos, es posible que vea un aumento en los errores de flujo, lo que provoca una degradación del rendimiento. Las estadísticas de histogramas de ocupación de la tabla de flujos son útiles para determinar si las tablas de flujo se están llenando.

Aumentar el tamaño de la tabla de flujos no siempre mejora el rendimiento si siguen entrando conexiones de corta duración. Es posible que la tabla de flujos siempre esté llena, independientemente del tamaño de la tabla de flujos. Una tabla de flujos de gran tamaño no ayudaría en este caso. EDP tiene una lógica para detectar esto y habilitar y deshabilitar automáticamente las tablas de flujo para controlar este caso.

4.2.0

flow_table_size

Tamaño máximo de la tabla de flujos en EDP.

4.2.0

hits

Número de aciertos en la tabla de flujos en el módulo de ENS. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath.

4.2.0

insertion_errors

Número de errores de inserción de la tabla de flujos. Esto puede ocurrir cuando una tabla de flujos está llena (o casi llena) y hay colisiones de hash.

4.2.0

miss

Paquetes procesados por slowpath debido a una pérdida de flujo. Esta estadística no se superpone con la estadística slowpath descrita más adelante en esta tabla. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath.

4.2.0

num_flow_tables

Número de tablas de flujo utilizadas para EDP. EDP tiene una tabla de flujos por subproceso de EDP. Esto resulta útil para ver cuántas tablas de flujos se crean y se utilizan.

4.2.0

num_flows

Número de flujos en EDP.

4.2.0

num_flows_created

Número de flujos creados en EDP. Utilice esta estadística para calcular la velocidad de creación de flujo, que será útil para determinar las características de la carga de trabajo. Las estadísticas de histogramas de ocupación de la tabla de flujos le indicarán si las tablas de flujo están llenas o no.

Si la tasa de creación de flujo es baja y no hay cambios significativos en las estadísticas de ocupación del flujo u num_flows, eso indicará que el tráfico es estable y está en un estado estable. El número de flujos activos se mantiene estable. Si la velocidad de creación de flujo es alta y num_flows está aumentando, eso significa que el número de flujos activos está aumentando. Las tablas de flujos se llenarán con el tiempo si la velocidad de creación de flujo no baja.

Si la tasa de creación de flujo es alta y el tamaño medio del flujo no es pequeño, se recomienda aumentar el tamaño de la tabla de flujos. Tamaño de flujo medio = frecuencia de aciertos/velocidad de num_flows_created.

Un valor pequeño para el tamaño de flujo medio significa que los flujos son de corta duración. Se acumulan tanto hits como num_flows_created. Puede calcular primero los valores de velocidad para obtener el tamaño de flujo medio durante un período de tiempo específico.

4.2.0

slowpath

Paquetes que siempre se procesan en slowpath por diseño. Un ejemplo es un paquete de difusión. Esta estadística se puede utilizar para calcular la tasa de hit / miss / slowpath del flujo o para calcular la proporción de hit / miss / slowpath.

4.2.0

Módulo: host_net_thread_nioc

Este módulo de ruta de datos proporciona estadísticas de subprocesos de red relacionadas con NIOC. Este módulo de ruta de datos se conoce como host-net-thread-nioc en NSX Central CLI.

Estadística Descripción Versión introducida

hist_0_pct

Histograma: número de subprocesos entre 0% y 25%

4.2.0

hist_25_pct

Histograma: número de subprocesos entre 25% y 50%

4.2.0

hist_50_pct

Histograma: número de subprocesos entre 50% y 70%

4.2.0

hist_70_pct

Histograma: número de subprocesos entre 70% y 80%

4.2.0

hist_80_pct

Histograma: número de subprocesos entre 80% y 85%

4.2.0

hist_85_pct

Histograma: número de subprocesos entre 85% y 90%

4.2.0

hist_90_pct

Histograma: número de subprocesos entre 90% y 95%

4.2.0

hist_95_pct

Histograma: número de subprocesos entre 95% y 97%

4.2.0

hist_97_pct

Histograma: número de subprocesos entre 97% y 99%

4.2.0

hist_99_pct

Histograma: número de subprocesos con >99% de uso.

Los problemas de la ruta de datos de red se expresan como tres síntomas: paquetes descartados, bajo rendimiento y latencia alta. Aunque los problemas funcionales y de rendimiento comparten estos síntomas, la mayoría de las veces se deben a problemas relacionados con el rendimiento. Es fundamental descartar si el problema está relacionado o no con el rendimiento en una etapa inicial.

En las redes definidas por software, especialmente las creadas sobre la virtualización, la CPU es el recurso más crítico que afecta al rendimiento de la red. Con NIC más rápidas disponibles en el mercado, el ancho de banda de red rara vez se convierte en un cuello de botella.

El procesamiento de paquetes en la ruta de datos generalmente implica un conjunto de subprocesos ejecutados en una canalización, asociados con colas y búferes que contienen paquetes. Cuando se sobrecarga cualquier subproceso de la canalización de vCPU a subprocesos de red del kernel, las colas y los búferes correspondientes pueden llenarse, lo que provoca descartes de paquetes. Esto limita el rendimiento.

Es crucial supervisar el uso de CPU de los subprocesos de red del kernel, además de las estadísticas de red tradicionales. En lugar de utilizar números de uso de CPU para subprocesos individuales, los agrupamos y generamos un histograma. Eso permite supervisar los contenedores de histogramas como 90pct, 95pct, 97pct, 99pct, que le dicen cuántos subprocesos de red están cuellos de botella. La estadística total_CPU también es útil para mostrar cuánto tiempo de CPU se dedica a procesar paquetes en el kernel.

4.2.0

max_cpu

Uso máximo de CPU de subproceso

4.2.0

min_cpu

Uso mínimo de CPU de subproceso

4.2.0

num_threads

Número de subprocesos utilizados para enviar paquetes del programador de paquetes de NetIOC al vínculo superior.

4.2.0

total_cpu

Suma de usos de CPU de todos los subprocesos de red del grupo. La CPU total es útil para ver las distribuciones de uso de CPU general entre diferentes grupos de subprocesos y máquinas virtuales.

4.2.0

Módulo: host_net_thread_rx

Este módulo de ruta de datos proporciona estadísticas de subprocesos de red relacionadas con RX. Este módulo de ruta de datos se conoce como host-net-thread-rx en NSX Central CLI.

Estadística Descripción Versión introducida

hist_0_pct

Histograma: número de subprocesos entre 0% y 25%

4.2.0

hist_25_pct

Histograma: número de subprocesos entre 25% y 50%

4.2.0

hist_50_pct

Histograma: número de subprocesos entre 50% y 70%

4.2.0

hist_70_pct

Histograma: número de subprocesos entre 70% y 80%

4.2.0

hist_80_pct

Histograma: número de subprocesos entre 80% y 85%

4.2.0

hist_85_pct

Histograma: número de subprocesos entre 85% y 90%

4.2.0

hist_90_pct

Histograma: número de subprocesos entre 90% y 95%

4.2.0

hist_95_pct

Histograma: número de subprocesos entre 95% y 97%

4.2.0

hist_97_pct

Histograma: número de subprocesos entre 97% y 99%

4.2.0

hist_99_pct

Histograma: número de subprocesos con >99% de uso.

Los problemas de la ruta de datos de red se expresan como tres síntomas: paquetes descartados, bajo rendimiento y latencia alta. Aunque los problemas funcionales y de rendimiento comparten estos síntomas, la mayoría de las veces se deben a problemas relacionados con el rendimiento. Es fundamental descartar si el problema está relacionado o no con el rendimiento en una etapa inicial.

En las redes definidas por software, especialmente las creadas sobre la virtualización, la CPU es el recurso más crítico que afecta al rendimiento de la red. Con NIC más rápidas disponibles en el mercado, el ancho de banda de red rara vez se convierte en un cuello de botella.

El procesamiento de paquetes en la ruta de datos generalmente implica un conjunto de subprocesos ejecutados en una canalización, asociados con colas y búferes que contienen paquetes. Cuando se sobrecarga cualquier subproceso de la canalización de vCPU a subprocesos de red del kernel, las colas y los búferes correspondientes pueden llenarse, lo que provoca descartes de paquetes. Esto limita el rendimiento.

Es crucial supervisar el uso de CPU de los subprocesos de red del kernel, además de las estadísticas de red tradicionales. En lugar de utilizar números de uso de CPU para subprocesos individuales, los agrupamos y generamos un histograma. Eso permite supervisar los contenedores de histogramas como 90pct, 95pct, 97pct, 99pct, que le dicen cuántos subprocesos de red están cuellos de botella. La estadística total_CPU también es útil para mostrar cuánto tiempo de CPU se dedica a procesar paquetes en el kernel.

4.2.0

max_cpu

Uso máximo de CPU de subproceso

4.2.0

min_cpu

Uso mínimo de CPU de subproceso

4.2.0

num_threads

Número de subprocesos utilizados para enviar paquetes del programador de paquetes de NetIOC al vínculo superior.

4.2.0

total_cpu

Suma de usos de CPU de todos los subprocesos de red del grupo. La CPU total es útil para ver las distribuciones de uso de CPU general entre diferentes grupos de subprocesos y máquinas virtuales.

4.2.0

Módulo: host_net_thread_tx

Este módulo de ruta de datos proporciona estadísticas de subprocesos de red relacionadas con TX. Este módulo de ruta de datos se conoce como host-net-thread-tx en NSX Central CLI.

Estadística Descripción Versión introducida

hist_0_pct

Histograma: número de subprocesos entre 0% y 25%

4.2.0

hist_25_pct

Histograma: número de subprocesos entre 25% y 50%

4.2.0

hist_50_pct

Histograma: número de subprocesos entre 50% y 70%

4.2.0

hist_70_pct

Histograma: número de subprocesos entre 70% y 80%

4.2.0

hist_80_pct

Histograma: número de subprocesos entre 80% y 85%

4.2.0

hist_85_pct

Histograma: número de subprocesos entre 85% y 90%

4.2.0

hist_90_pct

Histograma: número de subprocesos entre 90% y 95%

4.2.0

hist_95_pct

Histograma: número de subprocesos entre 95% y 97%

4.2.0

hist_97_pct

Histograma: número de subprocesos entre 97% y 99%

4.2.0

hist_99_pct

Histograma: número de subprocesos con >99% de uso.

Los problemas de la ruta de datos de red se expresan como tres síntomas: paquetes descartados, bajo rendimiento y latencia alta. Aunque los problemas funcionales y de rendimiento comparten estos síntomas, la mayoría de las veces se deben a problemas relacionados con el rendimiento. Es fundamental descartar si el problema está relacionado o no con el rendimiento en una etapa inicial.

En las redes definidas por software, especialmente las creadas sobre la virtualización, la CPU es el recurso más crítico que afecta al rendimiento de la red. Con NIC más rápidas disponibles en el mercado, el ancho de banda de red rara vez se convierte en un cuello de botella.

El procesamiento de paquetes en la ruta de datos generalmente implica un conjunto de subprocesos ejecutados en una canalización, asociados con colas y búferes que contienen paquetes. Cuando se sobrecarga cualquier subproceso de la canalización de vCPU a subprocesos de red del kernel, las colas y los búferes correspondientes pueden llenarse, lo que provoca descartes de paquetes. Esto limita el rendimiento.

Es crucial supervisar el uso de CPU de los subprocesos de red del kernel, además de las estadísticas de red tradicionales. En lugar de utilizar números de uso de CPU para subprocesos individuales, los agrupamos y generamos un histograma. Eso permite supervisar los contenedores de histogramas como 90pct, 95pct, 97pct, 99pct, que le dicen cuántos subprocesos de red están cuellos de botella. La estadística total_CPU también es útil para mostrar cuánto tiempo de CPU se dedica a procesar paquetes en el kernel.

4.2.0

max_cpu

Uso máximo de CPU de subproceso

4.2.0

min_cpu

Uso mínimo de CPU de subproceso

4.2.0

num_threads

Número de subprocesos utilizados para enviar paquetes del programador de paquetes de NetIOC al vínculo superior.

4.2.0

total_cpu

Suma de usos de CPU de todos los subprocesos de red del grupo. La CPU total es útil para ver las distribuciones de uso de CPU general entre diferentes grupos de subprocesos y máquinas virtuales.

4.2.0

Módulo: host_pcpu

Este módulo de ruta de datos proporciona el uso de CPU físicas. Este módulo de ruta de datos se conoce como host-pcpu en NSX Central CLI.

Estadística Descripción Versión introducida

hist_0_pct

Histograma: número de CPU entre 0% y 50%

4.2.0

hist_50_pct

Histograma: número de CPU entre 50% y 70%

4.2.0

hist_75_pct

Histograma: número de CPU entre 75% y 85%

4.2.0

hist_85_pct

Histograma: número de CPU entre 85% y 90%

4.2.0

hist_90_pct

Histograma: número de CPU entre 90% y 95%

4.2.0

hist_95_pct

Histograma: número de CPU entre 95% y 100%

4.2.0

total_cpu

Uso total de CPU del host. Suma del uso de todos los núcleos de la CPU física del host

Los problemas de la ruta de datos de red se expresan como tres síntomas: paquetes descartados, bajo rendimiento y latencia alta. Aunque los problemas funcionales y de rendimiento comparten estos síntomas, la mayoría de las veces se deben a problemas relacionados con el rendimiento. Es fundamental descartar si el problema está relacionado o no con el rendimiento en una etapa inicial.

En las redes definidas por software, especialmente las creadas sobre la virtualización, la CPU es el recurso más crítico que afecta al rendimiento de la red. Con NIC más rápidas disponibles en el mercado, el ancho de banda de red rara vez se convierte en un cuello de botella.

El procesamiento de paquetes en la ruta de datos generalmente implica un conjunto de subprocesos ejecutados en una canalización, asociados con colas y búferes que contienen paquetes. Cuando se sobrecarga cualquier subproceso de la canalización de vCPU a subprocesos de red del kernel, las colas y los búferes correspondientes pueden llenarse, lo que provoca descartes de paquetes. Esto limita el rendimiento.

Es crucial supervisar el uso de CPU de los subprocesos de red del kernel, además de las estadísticas de red tradicionales. En lugar de utilizar números de uso de CPU para subprocesos individuales, los agrupamos y generamos un histograma. Eso permite supervisar los contenedores de histogramas como 90pct, 95pct, 97pct, 99pct, que le dicen cuántos subprocesos de red están cuellos de botella. La estadística total_CPU también es útil para mostrar cuánto tiempo de CPU se dedica a procesar paquetes en el kernel.

4.2.0

Módulo: host_uplink

Este módulo de ruta de datos proporciona el uso de NIC de vínculo superior físicas. Este módulo de ruta de datos se conoce como host-uplink en NSX Central CLI.

Estadística Descripción Versión introducida

num_pnics

Número de NIC físicas

4.2.0

rx_error_total

Estadísticas del controlador: total de errores recibidos. Por lo general, esta estadística debe tener un valor similar al de rx_missed.

Un valor distinto a cero generalmente indica dos casos:
  1. El tamaño del anillo de RX de PNIC es demasiado pequeño y el anillo puede llenarse fácilmente debido a picos de carga de trabajo. Una opción es aumentar el tamaño del anillo.
  2. La tasa de paquetes es demasiado alta para que la controle el invitado. El invitado no puede extraer paquetes del anillo de recepción de PNIC, lo que provoca que se descarten paquetes.
4.2.0

rx_missed

Estadísticas del controlador: se recibieron errores. Por lo general, esta estadística debe tener un valor similar al de rx_error_total.

Un valor distinto a cero generalmente indica dos casos:
  1. El tamaño del anillo de RX de PNIC es demasiado pequeño y el anillo puede llenarse fácilmente debido a picos de carga de trabajo. Una opción es aumentar el tamaño del anillo.
  2. La tasa de paquetes es demasiado alta para que la controle el invitado. El invitado no puede extraer paquetes del anillo de recepción de PNIC, lo que provoca que se descarten paquetes.
4.2.0

rxeps

Errores recibidos por segundo.

Un valor distinto a cero generalmente indica dos casos:
  1. El tamaño del anillo de RX de PNIC es demasiado pequeño y el anillo puede llenarse fácilmente debido a picos de carga de trabajo. Una opción es aumentar el tamaño del anillo.
  2. La tasa de paquetes es demasiado alta para que la controle el invitado. El invitado no puede extraer paquetes del anillo de recepción de PNIC, lo que provoca que se descarten paquetes.
4.2.0

rxmbps

Megabits recibidos por segundo

4.2.0

rxpps

Paquetes recibidos por segundo

4.2.0

txeps

Errores transmitidos por segundo

4.2.0

txmbps

Megabits transmitidos por segundo

4.2.0

txpps

Paquetes transmitidos por segundo

4.2.0

Módulo: host_vnic

Este módulo de ruta de datos proporciona el uso de NIC virtuales. Este módulo de ruta de datos se conoce como host-vNIC en NSX Central CLI.

Estadística Descripción Versión introducida

num_vnics

Número de NIC virtuales.

4.2.0

rxeps

Errores recibidos por segundo.

Un valor distinto a cero generalmente indica estos dos casos:
  1. El tamaño del anillo de RX de VNIC es demasiado pequeño y el anillo puede llenarse fácilmente debido a picos de carga de trabajo. Una opción es aumentar el tamaño del anillo.
  2. La tasa de paquetes es demasiado alta para que la controle el invitado. El invitado no puede extraer paquetes del anillo de recepción de VNIC, lo que provoca que se descarten paquetes.
4.2.0

rxmbps

Megabits recibidos por segundo.

4.2.0

rxpps

Paquetes recibidos por segundo.

4.2.0

txeps

Errores transmitidos por segundo.

Un valor distinto a cero generalmente indica estos dos casos:
  1. La tasa de paquetes es demasiado alta para que la controle el vínculo superior.
  2. El vínculo superior no puede extraer paquetes de la cola de la pila de red, lo que provoca que se descarten paquetes.
4.2.0

txmbps

Megabits transmitidos por segundo.

4.2.0

txpps

Paquetes transmitidos por segundo.

4.2.0

Módulo: host_vcpu

Este módulo de ruta de datos proporciona el uso de CPU virtuales. Este módulo de ruta de datos se conoce como host-vcpu en NSX Central CLI.

Estadística Descripción Versión introducida

hist_0_pct

Histograma: número de CPU entre 0% y 50%.

4.2.0

hist_50_pct

Histograma: número de CPU entre 50% y 70%.

4.2.0

hist_75_pct

Histograma: número de CPU entre 75% y 85%

4.2.0

hist_85_pct

Histograma: número de CPU entre 85% y 90%.

4.2.0

hist_90_pct

Histograma: número de CPU entre 90% y 95%.

4.2.0

hist_95_pct

Histograma: número de CPU entre 95% y 100%.

Los problemas de la ruta de datos de red se expresan como tres síntomas: paquetes descartados, bajo rendimiento y latencia alta. Aunque los problemas funcionales y de rendimiento comparten estos síntomas, la mayoría de las veces se deben a problemas relacionados con el rendimiento. Es fundamental descartar si el problema está relacionado o no con el rendimiento en una etapa inicial.

En las redes definidas por software, especialmente las creadas sobre la virtualización, la CPU es el recurso más crítico que afecta al rendimiento de la red. Con NIC más rápidas disponibles en el mercado, el ancho de banda de red rara vez se convierte en un cuello de botella.

El procesamiento de paquetes en la ruta de datos generalmente implica un conjunto de subprocesos ejecutados en una canalización, asociados con colas y búferes que contienen paquetes. Cuando se sobrecarga cualquier subproceso de la canalización de vCPU a subprocesos de red del kernel, las colas y los búferes correspondientes pueden llenarse, lo que provoca descartes de paquetes. Esto limita el rendimiento.

Es crucial supervisar el uso de CPU de los subprocesos de red del kernel, además de las estadísticas de red tradicionales. En lugar de utilizar números de uso de CPU para subprocesos individuales, los agrupamos y generamos un histograma. Eso permite supervisar los contenedores de histogramas que le dicen cuántos subprocesos de red están cuellos de botella. La estadística total_CPU también es útil para mostrar cuánto tiempo de CPU se dedica a procesar paquetes en el kernel.

4.2.0

total_cpu

Uso total de vCPU. Suma del uso de la CPU de todas las máquinas virtuales del host. La CPU total es útil para ver las distribuciones de uso de CPU general entre diferentes grupos de subprocesos y máquinas virtuales.

4.2.0

Módulo: fastpath

Fastpath incluye módulos de ruta de datos de memoria caché de flujo (FLOW-cache, FC) y de pila de red mejorada (ENHANCED network stack, ENS) para mejorar el procesamiento de paquetes de ruta de datos. Este módulo de ruta de datos se conoce como nsxt-fp en NSX Central CLI.

Estadística Descripción Versión introducida

rx_bytes

El número de bytes recibidos por fastpath de la memoria caché de flujo en la dirección de recepción de los puertos.

4.2.0

rx_drops

El número de paquetes descartados por fastpath de la memoria caché de flujo en la dirección de recepción de los puertos. Esto no se aplica a la memoria caché de flujos en modo no ENS.

4.2.0

rx_drops_sp

Paquetes recibidos descartados cuando los paquetes se envían a slowpath desde fastpath de caché de flujo. No aplicable a la memoria caché de flujo en modo no ENS y modo de conmutador estándar.

4.2.0

rx_drops_uplink

El número de paquetes descartados por fastpath de la memoria caché de flujo en la dirección de recepción de los puertos de vínculo superior. No aplicable a la memoria caché de flujo en modo no ENS y modo de conmutador estándar.

4.2.0

rx_pkts

El número de paquetes recibidos por fastpath de la memoria caché de flujo en la dirección de recepción de los puertos.

4.2.0

rx_pkts_sp

Paquetes recibidos cuando se envían paquetes a slowpath desde fastpath de caché de flujo. No aplicable a la memoria caché de flujo en modo no ENS y modo de conmutador estándar.

4.2.0

rx_pkts_uplink

El número de paquetes recibidos por fastpath de la memoria caché de flujo en la dirección de recepción de los puertos de vínculo superior.

4.2.0

tx_bytes

El número de bytes transmitidos por fastpath de la memoria caché de flujo en la dirección de transmisión a los puertos.

4.2.0

tx_drops

El número de paquetes descartados por fastpath de caché de flujo en la dirección de transmisión a los puertos.

4.2.0

tx_drops_sp

Paquetes transmitidos descartados por fastpath cuando los paquetes se vuelven a inyectar en fastpath de caché de flujo desde slowpath. No aplicable a la memoria caché de flujo en modo no ENS y modo de conmutador estándar.

4.2.0

tx_drops_uplink

El número de paquetes descartados por fastpath de caché de flujo en la dirección de transmisión a los puertos de vínculo superior.

4.2.0

tx_pkts

El número de paquetes transmitidos por fastpath de caché de flujo en la dirección de transmisión a los puertos.

4.2.0

tx_pkts_sp

Paquetes transmitidos por fastpath cuando los paquetes se vuelven a inyectar en fastpath de caché de flujo desde slowpath. No aplicable al modo de conmutador estándar.

4.2.0

tx_pkts_uplink

El número de paquetes transmitidos por fastpath de la memoria caché de flujo en la dirección de transmisión desde los puertos de vínculo superior.

4.2.0

Módulo: switch_security

Este módulo de ruta de datos proporciona seguridad de capa 2 y capa 3 sin estado comprobando el tráfico al segmento y descartando paquetes no autorizados enviados desde máquinas virtuales. En esta tabla, Rx hace referencia a los paquetes recibidos "desde" el conmutador, y Rx a los paquetes enviados "al" conmutador. Este módulo de ruta de datos se conoce como nsxt-swsec en NSX Central CLI.

Estadística Descripción Versión introducida

bpdu_filter_drops

Número de paquetes descartados por el filtrado de BPDU. Al habilitar el filtro BPDU, el tráfico a las direcciones MAC de destino de BPDU configuradas se descarta.

4.2.0

dhcp_client_block_ipv4_drops

Número de paquetes DHCP IPv4 descartados por el bloqueo de clientes DHCP.

La opción Bloqueo de clientes DHCP evita que una máquina virtual adquiera una dirección IP de DHCP bloqueando las solicitudes de DHCP. Si no era el resultado esperado, puede desactivar el bloqueo de clientes DHCPv4 desde el perfil de seguridad de un segmento o de un puerto de segmentos. Para hacerlo en NSX Manager, desplácese hasta Redes > Segmentos > Perfil de segmentos > Seguridad de segmentos.

4.2.0

dhcp_client_block_ipv6_drops

Número de paquetes DHCP IPv6 descartados por el bloqueo de clientes DHCP.

La opción Bloqueo de clientes DHCP evita que una máquina virtual adquiera una dirección IP de DHCP bloqueando las solicitudes de DHCP. Si no era el resultado esperado, puede desactivar el bloqueo de clientes DHCPv6 desde el perfil de seguridad de un segmento o de un puerto de segmentos. Para hacerlo en NSX Manager, desplácese hasta Redes > Segmentos > Perfil de segmentos > Seguridad de segmentos.

4.2.0

dhcp_client_validate_ipv4_drops

Número de paquetes DHCP IPv4 descartados porque las direcciones de la carga útil no eran válidas.

Es posible que una máquina virtual malintencionada de la red esté intentando enviar paquetes DHCP no válidos (por ejemplo, no hay IP de origen, la dirección de hardware del cliente no coincide con la dirección MAC de origen, etc.).

4.2.0

dhcp_server_block_ipv4_drops

Número de paquetes DHCP IPv4 descartados por el bloqueo de servidores DHCP. La opción Bloqueo de servidores DHCP bloquea el tráfico desde un servidor DHCP a un cliente DHCP.

Si no era el resultado esperado, puede deshabilita el bloqueo de servidores DHCP desde el perfil de seguridad de un segmento o de un puerto de segmentos. Para hacerlo en NSX Manager, desplácese hasta Redes > Segmentos > Perfil de segmentos > Seguridad de segmentos.

4.2.0

dhcp_server_block_ipv6_drops

Número de paquetes DHCPv6 descartados por el bloqueo de servidores DHCP.

La opción Bloqueo de servidores DHCP bloquea el tráfico desde un servidor DHCP a un cliente DHCP. Si no era el resultado esperado, puede deshabilitar el bloqueo de servidores DHCPv6 desde el perfil de seguridad de un segmento o de un puerto de segmentos. Para hacerlo en NSX Manager, desplácese hasta Redes > Segmentos > Perfil de segmentos > Seguridad de segmentos.

4.2.0

nd_parse_errors

Número de paquetes de detección de vecinos (ND) IPv6 que no se analizaron correctamente.

Examine los registros en busca de mensajes de error. Realice capturas de paquetes en el puerto para identificar si los paquetes tienen un formato incorrecto.

4.2.0

ra_guard_drops

Número de paquetes de anuncio de enrutador IPv6 descartados por la protección de RA.

La función de protección de RA filtra los anuncios de enrutador IPv6 (ICMPv6 tipo 134) transmitidos desde las máquinas virtuales. En una implementación de IPv6, los enrutadores multidifusión envían periódicamente mensajes de anuncio de enrutador que los hosts utilizan para la configuración automática.

Puede utilizar RA Guard para proteger la red contra mensajes de RA dudosos generados por enrutadores no autorizados o configurados de forma incorrecta que se conectan al segmento de red. Puede configurar RA Guard en la interfaz de usuario de NSX Manager en Redes > Segmentos > Perfil de segmentos > Seguridad de segmentos.

4.2.0

rx_arp_pkts

Número de paquetes ARP recibidos por el VDS desde la máquina virtual.

4.2.0

rx_garp_pkts

Número de paquetes ARP gratuito (GARP) recibidos por el VDS desde la máquina virtual.

4.2.0

rx_ipv4_pkts

Número de paquetes IPv4 recibidos por el VDS desde la máquina virtual.

4.2.0

rx_ipv6_pkts

Número de paquetes IPv6 recibidos por el VDS desde la máquina virtual.

4.2.0

rx_na_pkts

Número de paquetes ND (detección de vecinos) NA (anuncio de vecinos) IPv6 recibidos por el VDS desde la máquina virtual.

4.2.0

rx_non_ip_pkts

Número de paquetes no IP recibidos por el VDS desde la máquina virtual.

4.2.0

rx_ns_pkts

Número de paquetes ND (detección de vecinos) NS (solicitud de vecinos) IPv6 recibidos por el VDS desde la máquina virtual.

4.2.0

rx_rate_limit_bcast_drops

Número de paquetes de entrada descartados por el límite de velocidad de difusión.

Los límites de transmisión se pueden utilizar para proteger la red o las máquinas virtuales de eventos como las tormentas de difusión. Puede configurar valores de límite de frecuencia en la interfaz de usuario de NSX Manager en Redes > Segmentos > Perfil de segmentos > Seguridad de segmentos.

4.2.0

rx_rate_limit_mcast_drops

Número de paquetes de entrada descartados por el límite de velocidad de multidifusión.

Los límites de transmisión se pueden utilizar para proteger la red o las máquinas virtuales de eventos como las tormentas de multidifusión. Puede configurar valores de límite de frecuencia en la interfaz de usuario de NSX Manager en Redes > Segmentos > Perfil de segmentos > Seguridad de segmentos.

4.2.0

rx_unsolicited_na_pkts

Número de paquetes ND (detección de vecinos) NA (anuncio de vecinos) IPv6 no solicitados recibidos por el VDS desde la máquina virtual.

4.2.0

rxbcastpkts

Número de paquetes de difusión recibidos por el VDS desde la máquina virtual.

4.2.0

rxmcastpkts

Número de paquetes de multidifusión recibidos por el VDS desde la máquina virtual.

4.2.0

spoof_guard_arp_drops

Número de paquetes ARP descartados por SpoofGuard.

SpoofGuard protege contra ataques malintencionados de suplantación de ARP haciendo un seguimiento de las direcciones MAC e IP. Esta estadística se incrementará solo cuando SpoofGuard esté habilitado en el segmento o el puerto del segmento. (Redes > Segmentos > Perfil de segmentos > SpoofGuard)

4.2.0

spoof_guard_ipv4_drops

Número de paquetes IPv4 descartados por SpoofGuard.

SpoofGuard protege contra la suplantación de IP al mantener una tabla de referencia de nombres de máquinas virtuales y direcciones IP. Esta estadística se incrementará solo cuando SpoofGuard esté habilitado en el segmento o el puerto del segmento. (Redes > Segmentos > Perfil de segmentos > SpoofGuard)

4.2.0

spoof_guard_ipv6_drops

Número de paquetes IPv6 descartados por SpoofGuard.

SpoofGuard protege contra la suplantación de IP al mantener una tabla de referencia de nombres de máquinas virtuales y direcciones IP. Esta estadística se incrementará solo cuando SpoofGuard esté habilitado en el segmento o el puerto del segmento. (Redes > Segmentos > Perfil de segmentos > SpoofGuard)

4.2.0

spoof_guard_nd_drops

Número de paquetes ND (detección de vecinos) IPv6 descartados por SpoofGuard.

SpoofGuard protege contra la suplantación de ND filtrando los paquetes ND cuyas direcciones no coinciden con la dirección de la máquina virtual. Esta estadística se incrementará solo cuando SpoofGuard esté habilitado en el segmento o el puerto del segmento. (Redes > Segmentos > Perfil de segmentos > SpoofGuard)

4.2.0

spoof_guard_non_ip_drops

Número de paquetes no IP descartados por SpoofGuard.

Esta estadística se incrementará solo cuando SpoofGuard esté habilitado en el segmento o el puerto del segmento. (Redes > Segmentos > Perfil de segmentos > SpoofGuard)

4.2.0

tx_arp_pkts

Número de paquetes ARP enviados por el VDS a la máquina virtual.

4.2.0

tx_ipv4_pkts

Número de paquetes IPv4 enviados por el VDS a la máquina virtual.

4.2.0

tx_ipv6_pkts

Número de paquetes IPv6 enviados por el VDS a la máquina virtual.

4.2.0

tx_non_ip_pkts

Número de paquetes no IP enviados por el VDS a la máquina virtual.

4.2.0

tx_rate_limit_bcast_drops

Número de paquetes de salida descartados por el límite de velocidad de difusión.

Los límites de transmisión se pueden utilizar para proteger la red o las máquinas virtuales de eventos como las tormentas de difusión. Puede configurar valores de límite de frecuencia en la interfaz de usuario de NSX Manager en Redes > Segmentos > Perfil de segmentos > Seguridad de segmentos.

4.2.0

tx_rate_limit_mcast_drops

Número de paquetes de salida descartados por el límite de velocidad de multidifusión.

Los límites de transmisión se pueden utilizar para proteger la red o las máquinas virtuales de eventos como las tormentas de multidifusión. Puede configurar valores de límite de frecuencia en la interfaz de usuario de NSX Manager en Redes > Segmentos > Perfil de segmentos > Seguridad de segmentos.

4.2.0

txbcastpkts

Número de paquetes de difusión enviados por el VDS a la máquina virtual.

4.2.0

txmcastpkts

Número de paquetes de multidifusión enviados por el VDS a la máquina virtual.

4.2.0

Módulo: overlay_datapath_l2

Este módulo de ruta de datos es responsable de la conectividad de las cargas de trabajo. Este módulo de ruta de datos se conoce como nsxt-vdl2 en NSX Central CLI.

Estadística Descripción Versión introducida

arp_proxy_req_fail_drops

No se pudo volver a enviar el número de solicitudes de ARP en el vínculo superior para el aprendizaje basado en la ruta de datos cuando CCP no tiene un enlace de IP-MAC que provoca un error de supresión de ARP.

Las estadísticas que no son cero indican que el sistema se está quedando sin recursos de búfer de paquetes y que el incremento continuo debe tratarse como un error crítico.

4.2.0

arp_proxy_req_suppress

Número de solicitudes de ARP suprimidas por VDL2 mediante la consulta a CCP para encontrar el enlace IP-MAC.

Estos paquetes de ARP se envían en el vínculo superior solo cuando CCP no conoce el enlace.

4.2.0

arp_proxy_resp

Número de respuestas de enlace IP-MAC válidas de CCP para cada solicitud de supresión de ARP de este nodo de transporte.

4.2.0

arp_proxy_resp_drops

Número de respuestas de ARP correspondientes a la respuesta de enlace de IP-MAC de CCP que no se pudieron enviar al puerto de conmutador que solicitó la solicitud de ARP.

4.2.0

arp_proxy_resp_filtered

Número de respuestas de ARP generadas en función de la respuesta de enlace de IP-MAC de CCP que no se envían al puerto de conmutador que inició la solicitud de ARP.

Esto es posible debido a que ARP se solicitó porque Traceflow o el puerto que inició la solicitud de ARP ya no estaba presente en el nodo de transporte.

4.2.0

arp_proxy_resp_unknown

Número de enlaces IP-MAC desconocidos en el plano de control para cada solicitud de IP-MAC de este nodo de transporte.

Al recibir este mensaje, el módulo VDL2 vuelve a enviar la solicitud de ARP en el vínculo superior para obtener el enlace de IP-MAC a través de la ruta de datos.

4.2.0

leaf_rx

Para un segmento (conmutador lógico), esta estadística se incrementa cuando se recibe correctamente un paquete de carga de trabajo generado en VDL2LeafInput IOChain (superposición de capa 2). Estos paquetes se envían a VDS si no hay otros descartes de hoja recibidas.

4.2.0

leaf_rx_drops

Número de paquetes descartados en VDL2LeafInput debido a diversos motivos.

Consulte los motivos del descarte de hojas recibidas para identificar el motivo específico de los descartes.

4.2.0

leaf_rx_ref_port_not_found_drops

Número de paquetes descartados en la hoja VDL2LeafInput. Esto puede ocurrir si el puerto troncal no forma parte del segmento.

4.2.0

leaf_rx_system_err_drops

Número de paquetes descartados en VDL2LeafInput debido a varios errores del sistema, como errores de memoria o de actualización de atributos de paquetes.

Por lo general, esto significa que el host ESXi se está quedando sin recursos. Mover algunas máquinas virtuales a otros hosts puede ayudar a aliviar la carga.

4.2.0

leaf_tx

Esta estadística se muestra cuando un paquete es procesado correctamente por VDL2LeafInput IOChain (superposición de capa 2) para un puerto de conmutador.

4.2.0

leaf_tx_drops

Número total de descartes en VDL2LeafOutput debido a diversos motivos.

Consulte los otros motivos del descarte de hojas transmitidas para identificar el motivo específico de los descartes.

4.2.0

mac_tbl_lookup_flood

Número de paquetes de unidifusión desbordados en los VTEP remotos debido a un error de búsqueda de la tabla de MAC. Los valores grandes implican problemas de actualización de la tabla MAC o flujos de capa 2 unidireccionales.

Compruebe si la tabla MAC está llena en el nodo de transporte del host mediante el siguiente comando:

$ nsxcli -c "get segment mac-table"

Si es necesario, aumente el tamaño de la tabla de MAC.

4.2.0

mac_tbl_lookup_full

Número de veces que se produjo un error en la consulta de la dirección MAC de destino al plano de control para el tráfico a las máquinas virtuales porque la tabla de MAC ya estaba llena.

Compruebe si la tabla MAC está llena en el nodo de transporte del host mediante el siguiente comando:

$ nsxcli -c "get segment mac-table"

Si es necesario, aumente el tamaño de la tabla de MAC.

4.2.0

mac_tbl_update_full

Número de errores de actualización de la tabla de MAC en el momento de obtener las direcciones MAC para los paquetes recibidos de la red subyacente.

Compruebe si la tabla MAC está llena en el nodo de transporte del host mediante el siguiente comando:

$ nsxcli -c "get segment mac-table"

Si es necesario, aumente el tamaño de la tabla de MAC.

4.2.0

mcast_proxy_rx_drops

Número de paquetes BUM recibidos en el vínculo superior del nodo de transporte MTEP que se descartan al replicarse en otros VTEP.

4.2.0

mcast_proxy_tx_drops

Número de paquetes BUM originados en las cargas de trabajo en el nodo de transporte que se descartan después de la replicación en la salida del vínculo superior.

Esta estadística aumenta si aumenta uplink_tx_invalid_state_drops o debido a errores del sistema como memoria insuficiente.

4.2.0

nd_proxy_req_fail_drops

No se pudo volver a enviar el número de solicitudes de ND en el vínculo superior para el aprendizaje basado en la ruta de datos cuando CCP no tiene un enlace de IP-MAC que provoca un error de supresión de ND.

Las estadísticas que no son cero indican que el sistema se está quedando sin recursos de búfer de paquetes y que el incremento continuo debe tratarse como un error crítico.

4.2.0

nd_proxy_req_suppress

Número de solicitudes de ND suprimidas por VDL2 mediante la consulta a CCP para encontrar el enlace IP-MAC.

Estos paquetes de ND se envían en el vínculo superior solo si CCP no conoce el enlace.

4.2.0

nd_proxy_resp

Número de respuestas de enlace IP-MAC válidas de CCP para cada solicitud de supresión de ND de este nodo de transporte.

Estas respuestas ND pueden ser el resultado de una respuesta de CCP directa o deberse a una entrada ND ya almacenada en la caché del nodo de transporte.

4.2.0

nd_proxy_resp_drops

Número de respuestas de ND correspondientes a la respuesta de enlace de IP-MAC de CCP que no se pudieron enviar al puerto de conmutador que inició el paquete ND.

4.2.0

nd_proxy_resp_filtered

Número de respuestas de ND generadas en función de la respuesta de enlace de IP-MAC de CCP que no se envían al puerto de conmutador que inició la solicitud de ND.

Esto es posible debido a que ND se solicitó porque Traceflow o el puerto que inició la solicitud de ND ya no estaba presente en el nodo de transporte.

4.2.0

nd_proxy_resp_unknown

Número de enlaces IPv6-MAC desconocidos en el plano de control para cada solicitud de IPv6-MAC de este nodo de transporte.

Al recibir este mensaje, el módulo VDL2 vuelve a enviar los paquetes ND en el vínculo superior para obtener el enlace IPv6-MAC a través de la ruta de datos.

4.2.0

nested_tn_mcast_proxy_diff_vlan_tx_drops

Número de paquetes BUM descartados replicados en el nodo de transporte anidado.

El nodo de transporte anidado y este nodo de transporte se configuran con un identificador de VLAN de transporte diferente. Compruebe que se pueda acceder a la IP de GW de VTEP desde las interfaces de VMK de VTEP de este nodo de transporte.

4.2.0

nested_tn_mcast_proxy_same_vlan_tx_drops

Número de paquetes BUM descartados replicados en el nodo de transporte anidado.

El nodo de transporte anidado y este nodo de transporte se configuran con el mismo identificador de VLAN de transporte.

4.2.0

uplink_rx

Número de paquetes que recibidos en el puerto del vínculo superior desde el conmutador TOR.

Estos paquetes se enviarán a VDS cuando no haya descartes en la recepción del vínculo superior.

4.2.0

uplink_rx_drops

Número de paquetes descartados en VDL2UplinkInput debido a diversos motivos.

Consulte los otros motivos del descarte de vínculos superiores recibidos para identificar el motivo específico de los descartes.

4.2.0

uplink_rx_filtered

Número de paquetes enviados por el conmutador TOR que se filtran en el vínculo superior de VDL2 por motivos como los informes de IGMP de los nodos de transporte ESXi del mismo nivel.

4.2.0

uplink_rx_guest_vlan_drops

Número de paquetes descartados en VDL2UplinkInput cuando se produce un error al eliminar la etiqueta de VLAN invitada para el paquete interno debido a un error del sistema.

4.2.0

uplink_rx_invalid_encap_drops

Número de paquetes que se reciben en el vínculo superior desde la red subyacente y se descartan debido a encabezados de encapsulación incorrectos.

Para identificar el error exacto, realice una captura de paquetes y compruebe los encabezados de encapsulación (versión de protocolo, suma de comprobación, longitud, etc.) ejecutando el siguiente comando:

pktcap-uw --capture UplinkRcvKernel --uplink --ng -o uplink.pcap

4.2.0

uplink_rx_mcast_invalid_dr_uplink_drops

Número de paquetes de multidifusión de IP descartados en la entrada de vínculo superior de VDL2 debido a que vdrPort no está asociado a este vínculo superior.

Esto puede ocurrir cuando el conmutador TOR está desbordando el tráfico de multidifusión en todos los vínculos superiores del nodo de transporte.

Compruebe la asociación de vdrPort y el vínculo superior mediante el siguiente comando y, a continuación, compruebe si el paquete descartado se recibió en el vínculo superior no asociado:

nsxdp-cli vswitch instance list

4.2.0

uplink_rx_skip_mac_learn

Número de paquetes para los que no se puede obtener la dirección MAC externa de origen, ya que se desconoce la etiqueta GENEVE entrante.

Los valores grandes de esta estadística pueden indicar que faltan actualizaciones de VTEP remotas en el nodo de transporte desde el plano de control.

Utilice los siguientes comandos de la CLI para comprobar la tabla de VTEP remota en el nodo de transporte.

nsxcli -c "get global-vtep-table"

$ nsxcli -c "get segment vtep-table"

Una posible solución alternativa puede ser reiniciar el agente del plano de control local (CfgAgent) en el nodo de transporte para forzar una sincronización completa ejecutando el siguiente comando:

$ /etc/init.d/nsx-cfgagent restart

4.2.0

uplink_rx_system_err_drops

Número de paquetes descartados en VDL2UplinkInput debido a varios errores del sistema, como errores de memoria o de actualización de atributos de paquetes.

Por lo general, esto significa que el host ESXi se está quedando sin recursos. Mover algunas máquinas virtuales a otros hosts puede ayudar a aliviar la carga.

4.2.0

uplink_rx_wrong_dest_drops

El número de paquetes recibidos de la red subyacente y descartados porque la IP de destino del paquete no coincide con ninguno de los VTEP configurados en el host.

4.2.0

uplink_tx

Número de paquetes enviados por el VDS que se reciben en la cadena IOChain VDL2 del puerto de vínculo superior.

Estos paquetes se enviarán a la red subyacente cuando no haya descartes en la transmisión del vínculo superior.

4.2.0

uplink_tx_drops

Número total de paquetes descartados en VDL2UplinkOutput debido a varios motivos.

Consulte los otros motivos del descarte de los vínculos superiores transmitidos para identificar el motivo específico de los descartes.

4.2.0

uplink_tx_flood_rate_limit

Cantidad de paquetes de unidifusión desconocida desbordados en vínculos superiores con velocidad limitada.

4.2.0

uplink_tx_ignore

Número de paquetes enviados por VDS que se filtran en la salida del vínculo superior de VDL2 y no se reenvían a la red subyacente.

Por ejemplo, los paquetes BUM se filtran si no hay ningún VTEP en el segmento en el que replicar los paquetes.

4.2.0

uplink_tx_invalid_frame_drops

Número de paquetes que se descartan en la salida del vínculo superior de VDL2, ya que no se pudo encontrar el encabezado de encapsulamiento o no se pudo realizar la TSO establecida en la trama interna. Esto se debe a la presencia de paquetes TCP grandes.

4.2.0

uplink_tx_invalid_state_drops

Número de paquetes que se descartan en la salida del vínculo superior de VDL2 debido a una configuración incorrecta de la VLAN de transporte. Esto se debe a una asociación de perfil de vínculo superior incorrecta en el nodo de transporte o si no se resuelve la dirección MAC de la puerta de enlace.

Utilice el siguiente procedimiento para comprobar en un nodo de ESXi si se puede acceder a la IP de puerta de enlace de VTEP desde las interfaces VMK de VTEP de este nodo de transporte.

  1. Obtenga la IP de la puerta de enlace ejecutando el siguiente comando: net-vdl2 -l
  2. Obtenga el nombre de la instancia de pila de red ejecutando el siguiente comando: esxcfg-vmknic -l
  3. Haga ping a la dirección IP de puerta de enlace de VTEP ejecutando el siguiente comando: vmkping -I vmk10 -S
4.2.0

uplink_tx_nested_tn_repl_drops

Número de paquetes BUM que se descartan en la salida del vínculo superior de VDL2 mientras se replican en el nodo de transporte anidado debido a una asociación de VTEP incorrecta.

Utilice el siguiente comando para comprobar la asociación entre el puerto de conmutador de origen y el vínculo superior:

nsxdp-cli vswitch instance list

4.2.0

uplink_tx_non_unicast

Número de paquetes de difusión o multidifusión replicados en VTEP remotos. Una tasa grande implica que el nodo de transporte debe replicar estos paquetes en los VTEP remotos, lo que puede provocar un esfuerzo en las colas transmitidas de capa de vínculo superior.

4.2.0

uplink_tx_teaming_drops

Número de paquetes que se descartan en VDL2UplinkOutput debido a la falta de disponibilidad del VTEP asociado con el puerto de conmutador que originó el tráfico.

Utilice el siguiente comando para comprobar la asociación del vínculo superior del puerto de conmutador de carga de trabajo y el estado de formación de equipos:

nsxdp-cli vswitch instance list

4.2.0

uplink_tx_ucast_flood

Número de paquetes de unidifusión desconocida desbordados en la salida de vínculo superior. Los valores grandes implican problemas de actualización de la tabla MAC o un flujo de capa 2 unidireccional.

Compruebe si se espera el flujo unidireccional o si la tabla MAC está llena.

4.2.0

Módulo: datapath_l3

Este módulo de ruta de datos, también conocido como enrutamiento distribuido virtual (Virtual Distributed Routing, VDR), enruta paquetes en cada host ESXi. Este módulo de ruta de datos se conoce como nsxt-vdrb en NSX Central CLI.

Estadística Descripción Versión introducida

arp_hold_pkt_drops

Cuando el enrutador distribuido está en el proceso de resolver una entrada de ARP IPv4, los paquetes que utilizan esta entrada de ARP se ponen en cola.

El número de paquetes que se pueden poner en cola está limitada por instancia de enrutador lógico. Cuando se alcanza el límite, los paquetes más antiguos se descartan en la cola, y esta estadística aumentará en función del número de paquetes antiguos que se descarten.

4.2.0

arpfaildrops (lta)

Paquetes IPv4 descartados debido a un error de ARP.

4.2.0

consumed_icmpv4

Número de paquetes IPv4 destinados a una dirección IP de puerto de enrutamiento lógico del enrutador distribuido correspondiente a un segmento determinado.

Tenga en cuenta que las estadísticas aumentarán después de enrutar el paquete desde la subred de origen.

4.2.0

consumed_icmpv6

Número de paquetes IPv6 destinados a una dirección IP de puerto de enrutamiento lógico del enrutador distribuido correspondiente a un segmento determinado. Tenga en cuenta que las estadísticas aumentarán después de enrutar el paquete desde la subred de origen.

4.2.0

drop_route_ipv4_drops

Número de paquetes IPv4 que coinciden con las "rutas de descarte". Las rutas de descarte son las rutas configuradas para descartar de forma intencionada los paquetes que coincidan.

Si no es el resultado esperado, compruebe las rutas en el host ESXi y la configuración en el plano de administración.

4.2.0

drop_route_ipv6_drops

Número de paquetes IPv6 que coinciden con las "rutas de descarte".

Las rutas de descarte son las rutas configuradas para descartar de forma intencionada los paquetes que coincidan. Si no es el resultado esperado, compruebe las rutas en el host ESXi y la configuración en el plano de administración.

4.2.0

ndfaildrops (lta)

Paquetes IPv6 descartados debido a un error de detección de vecinos.

4.2.0

no_nbr_ipv4

No se encontró ninguna entrada de ARP IPv4 en la tabla ARP del enrutador distribuido.

4.2.0

no_nbr_ipv6

No se encontró ninguna entrada de vecino IPv6 en la tabla de vecinos del enrutador distribuido.

4.2.0

no_route_ipv4_drops

Cada instancia de enrutador lógico tiene su propia tabla de enrutamiento para las búsquedas de rutas.

Esta estadística aumenta cuando se descartan paquetes IPv4 debido a que no hay rutas que coincidan para esa instancia de enrutador lógico.

4.2.0

no_route_ipv6_drops

Cada instancia de enrutador lógico tiene su propia tabla de enrutamiento para las búsquedas de rutas.

Esta estadística aumenta cuando se descartan paquetes IPv6 debido a que no hay rutas que coincidan para esa instancia de enrutador lógico.

4.2.0

ns_hold_pkt_drops

Cuando el enrutador distribuido está en el proceso de resolver una entrada de vecino IPv6, los paquetes que utilizan esta entrada de vecino se ponen en cola.

El número de paquetes que se pueden poner en cola está limitada por instancia de enrutador lógico. Cuando se alcanza el límite, los paquetes más antiguos se descartan en la cola, y esta estadística aumentará en función del número de paquetes antiguos que se descarten.

4.2.0

pkt_attr_error_drops

Número de paquetes en los que se produjo un error en la operación de atributo. NSX utiliza atributos de paquete para facilitar el procesamiento de paquetes.

Los atributos de paquete pueden asignarse, establecerse o no establecerse. En casos normales, la operación no falla.

Algunos de los posibles motivos del incremento de esta estadística pueden ser los siguientes:
  • Se agotó la pila del atributo de paquete.
  • El atributo de paquete está dañado.
4.2.0

relayed_dhcpv4_req

Solicitudes DHCPv4 retransmitidas.

4.2.0

relayed_dhcpv4_rsp

Respuestas DHCPv4 retransmitidas.

4.2.0

relayed_dhcpv6_req

Solicitudes DHCPv6 retransmitidas.

4.2.0

relayed_dhcpv6_rsp

Respuestas DHCPv6 retransmitidas.

4.2.0

rpf_ipv4_drops

Número de paquetes IPv4 descartados debido a un error en la comprobación de reenvío de ruta inversa.

El enrutador distribuido puede comprobar si la IP de origen de los paquetes proviene de un origen válido (accesible) y puede descartar los paquetes en función de la configuración.

Puede cambiar esta opción en la interfaz de usuario de NSX Manager.

Para comprobar la configuración actual en la interfaz de usuario de NSX Manager, siga estos pasos:
  1. Desplácese hasta Redes > Segmentos.
  2. Edite el segmento que le interese.
  3. Desplácese hasta Configuración adicional.
  4. Compruebe el Modo URPF.
4.2.0

rpf_ipv6_drops

Número de paquetes IPv6 descartados debido a un error en la comprobación de reenvío de ruta inversa.

El enrutador distribuido puede comprobar si la IP de origen de los paquetes proviene de un origen válido (accesible) y puede descartar los paquetes en función de la configuración.

Puede cambiar esta opción en la interfaz de usuario de NSX Manager.

Para comprobar la configuración actual en la interfaz de usuario de NSX Manager, siga estos pasos:
  1. Desplácese hasta Redes > Segmentos.
  2. Edite el segmento que le interese.
  3. Desplácese hasta Configuración adicional.
  4. Compruebe el Modo URPF.
4.2.0

rx_arp_req

Número de paquetes de solicitud de ARP recibidos por el puerto de enrutador lógico de un enrutador distribuido correspondiente a un segmento determinado.

4.2.0

rx_ipv4

Número de paquetes IPv4 que llegan a un puerto de enrutamiento lógico de un enrutador distribuido correspondiente a un segmento determinado.

4.2.0

rx_ipv6

Número de paquetes IPv6 que llegan a un puerto de enrutamiento lógico de un enrutador distribuido correspondiente a un segmento determinado.

4.2.0

rx_pkt_parsing_error_drops

Número de errores de análisis de los paquetes del enrutador distribuido recibidos.

El enrutador distribuido realiza un análisis de cada paquete recibido en el que lee los metadatos y los encabezados.

Si detecta un número elevado para esta estadística, puede que se deba a que los paquetes no están estructurados correctamente. Supervise si hay algún error de tráfico y realice la captura de paquetes para una depuración más profunda.

4.2.0

rxgarp (lta)

GARP gratuito recibido en un enrutador distribuido.

4.2.0

ttl_ipv4_drops

Número de paquetes IPv4 descartados debido a un TTL bajo. Cada instancia de enrutador lógico deducirá 1 del valor de TTL.

Utilice la captura de paquetes para determinar qué paquetes tienen valores de TTL bajos. Si el TTL es bastante elevado en el origen, puede que se deba a demasiados saltos de enrutamiento en la ruta o el bucle del paquete, lo cual es poco frecuente.

4.2.0

ttl_ipv6_drops

Número de paquetes IPv6 descartados debido a un TTL bajo. Cada instancia de enrutador lógico deducirá 1 del valor de TTL.

Utilice la captura de paquetes para determinar qué paquetes tienen valores de TTL bajos. Si el TTL es bastante elevado en el origen, puede que se deba a demasiados saltos de enrutamiento en la ruta o el bucle del paquete, lo cual es poco frecuente.

4.2.0

tx_arp_rsp

Número de paquetes de solicitud de ARP enviados por el puerto de enrutador lógico de un enrutador distribuido correspondiente a un segmento determinado.

4.2.0

tx_dispatch_queue_too_long_drops

Número de paquetes que se descartan en la cola de envío de transmisión.

La cola de envío de transmisión contiene paquetes autogenerados del enrutador distribuido, como paquetes de ARP, detección NS, etc.

Cada paquete consume los recursos del sistema de control de paquetes. Si se están acumulando demasiados paquetes en la cola, limite el tamaño de la cola y descarte los paquetes por la cola.

4.2.0

tx_ipv4

Número de paquetes IPv4 que salen de un puerto de enrutador lógico de un enrutador distribuido correspondiente a un segmento determinado.

4.2.0

tx_ipv6

Número de paquetes IPv6 que salen de un puerto de enrutador lógico de un enrutador distribuido correspondiente a un segmento determinado.

4.2.0

Módulo: distributed_firewall

Este módulo datapth proporciona capacidad de firewall distribuido. En esta tabla, Rx hace referencia a los paquetes recibidos por el puerto del conmutador (enviados desde la máquina virtual) y Tx a los paquetes transmitidos desde el puerto del conmutador (recibidos por la máquina virtual). Este módulo de ruta de datos se conoce como nsxt-vsip en NSX Central CLI.

Estadística Descripción Versión introducida

alg_handler_drops

Número de paquetes descartados debido a la gestión de ALG. Realiza un seguimiento del error de gestión de paquetes de decodificador de estado de ALG.

4.2.0

bad_offset_drops

Número de paquetes descartados por desplazamiento incorrecto.

4.2.0

bad_timestamp_drops

Número de paquetes descartados debido a una marca de tiempo incorrecta. Por ejemplo, los paquetes de ACK que llevan una marca de tiempo anterior y los paquetes recibidos con una marca de tiempo inesperada deben descartarse.

4.2.0

congestion_drops

Número de paquetes descartados debido a la congestión. Por ejemplo, se detectó congestión en la cola de una interfaz de red.

4.2.0

fragment_drops

Número de paquetes descartados debido a un error en el reensamblado de paquetes fragmentados.

La fragmentación divide los paquetes en fragmentos más pequeños para que las piezas resultantes puedan pasar a través de un vínculo con una MTU más pequeña que el tamaño del paquete original.

4.2.0

handshake_error_drops

Número de paquetes descartados debido a un error de protocolo de enlace de tres vías TCP.

Esto puede ocurrir cuando tanto el remitente como el receptor están en SYN y se envían durante el protocolo de enlace de tres vías. Este motivo de descarte se corresponde al estado de TCP no coincidente.

4.2.0

icmp_err_pkt_drops

Número de paquetes descartados debido a paquetes de respuesta a errores ICMP extra.

Esta estadística realiza un seguimiento de los paquetes de respuesta a errores ICMP extra que se descartan.

4.2.0

icmp_error_drops

Número de paquetes descartados debido a un error de secuencia en la respuesta de error de ICMP al paquete TCP.

Cuando los números de secuencia están fuera del rango esperado, se produce un descarte.

4.2.0

icmp_flood_overlimit_drops

Número de paquetes descartados debido a un exceso de desbordamiento de ICMP. Hay un límite de desbordamiento de ICMP configurado en la interfaz del kernel.

4.2.0

ignored_offloaded_fpdrops

Número de paquetes descartados debido a la descarga de flujo en el hardware.

El flujo descargado en el hardware significa que el seguimiento de conexiones se realiza mediante la canalización de paquetes de hardware de una smartNIC. En ese caso, la obtención de un paquete en el software es inesperada. El paquete no se puede procesar en el software porque el software no tiene información de CT actualizada (por ejemplo, estados o números de secuencia). Por lo tanto, se debe descartar el tráfico.

Este caso puede ocurrir debido a que la descarga de un flujo en el hardware tarda algún tiempo y puede competir con paquetes ya en cola para entregarse a VSIP. Este motivo de descarte se debe a los paquetes fastpath de ENS.

4.2.0

ignored_offloaded_spdrops

Número de paquetes descartados debido a la descarga de flujo en el hardware.

El flujo descargado en el hardware significa que el seguimiento de conexiones se realiza mediante la canalización de paquetes de hardware de una smartNIC. En ese caso, la obtención de un paquete en el software es inesperada. El paquete no se puede procesar en el software porque el software no tiene información de CT actualizada (por ejemplo, estados o números de secuencia). Por lo tanto, se debe descartar el tráfico.

Este caso puede ocurrir debido a que la descarga de un flujo en el hardware tarda algún tiempo y puede competir con paquetes ya en cola para entregarse a VSIP. Esta razón de descarte se debe a la ruta de código IOChain, también conocida como slowpath en este contexto.

4.2.0

ip_option_drops

Número de paquetes descartados porque no se permiten las opciones de IP.

Si no se establece allow_opts en la regla de firewall, se descartarán los paquetes que cumplan esa regla.

4.2.0

l7_alert_drops

La regla de capa 7 está presente, pero no hay ninguna coincidencia. Se genera una alerta.

4.2.0

l7_attr_error_drops

Número de paquetes descartados debido a un error al establecer los atributos de estado.

Esto ocurre cuando falla la asignación o modificación de atributos de capa 7 attrconn y eso genera un descarte.

4.2.0

l7_pending_misc

Esta estadística realiza un seguimiento de los paquetes que PPP está analizando actualmente; la coincidencia de reglas está pendiente.

Cuando se produce una coincidencia de regla de capa 7, se realiza la acción de regla correspondiente en el paquete.

4.2.0

lb_reject_drops

Esta estadística realiza un seguimiento de los descartes debido a un paquete rechazado por el equilibrador de carga.

Los paquetes se descartan si coinciden con un servidor virtual del equilibrador de carga, pero no se selecciona ningún miembro del grupo.

4.2.0

match_drop_rule_rx_drops

Número de paquetes recibidos descartados al cumplir la regla de descarte o rechazo del firewall distribuido.

4.2.0

match_drop_rule_tx_drops

Número de paquetes transmitidos descartados al cumplir la regla de descarte o rechazo del firewall distribuido.

4.2.0

memory_drops

Número de paquetes descartados debido a falta de memoria. Se trata de un error de nivel de capacidad.

4.2.0

normalize_drops

Número de paquetes descartados debido a paquetes con formato incorrecto. Por ejemplo, la versión de IP no coincide o el desplazamiento del encabezado TCP es incoherente con la longitud total de la descripción del paquete

4.2.0

other_flood_overlimit_drops

Número de paquetes desbordados debido a otro límite de inundación de protocolo. Hay un límite de desbordamiento configurado en la interfaz del kernel para otros protocolos.

4.2.0

pkts_frag_queued_v4_misc

Durante la fragmentación de paquetes, los fragmentos de paquetes se agregan a la cola de fragmentos. Estos fragmentos de paquetes no se descartan necesariamente. Un correcto reensamblado de los paquetes significa que no se descartan paquetes fragmentados.

Esta estadística realiza un seguimiento de los paquetes IPv4 que se agregan a la cola de fragmentos.

4.2.0

pkts_frag_queued_v6_misc

Durante la fragmentación de paquetes, los fragmentos de paquetes se agregan a la cola de fragmentos. Estos fragmentos de paquetes no se descartan necesariamente. Un correcto reensamblado de los paquetes significa que no se descartan paquetes fragmentados.

Esta estadística realiza un seguimiento de los paquetes IPv6 que se agregan a la cola de fragmentos.

4.2.0

proto_cksum_drops

Número de paquetes descartados debido a una suma de comprobación de protocolo incorrecta. Esto ocurre cuando se produce un error en la validación de la suma de comprobación del paquete.

4.2.0

rx_ipv4_drop_pkts

Número de paquetes descartados IPv4 recibidos.

4.2.0

rx_ipv4_pass_pkts

Número de paquetes pasados IPv4 recibidos.

4.2.0

rx_ipv4_reject_pkts

Número de paquetes rechazados IPv4 recibidos.

4.2.0

rx_ipv6_drop_pkts

Número de paquetes descartados IPv6 recibidos.

4.2.0

rx_ipv6_pass_pkts

Número de paquetes pasados IPv6 recibidos.

4.2.0

rx_ipv6_reject_pkts

Número de paquetes rechazados IPv6 recibidos.

4.2.0

rx_l2_drop_pkts

Número de paquetes descartados de capa 2 recibidos.

4.2.0

seqno_bad_ack_drops

Número de paquetes descartados debido a que TCP reenvía más de una ventana.

Este motivo de descarte se corresponde al estado de TCP no coincidente.

4.2.0

seqno_gt_max_ack_drops

Número de paquetes descartados debido a que el número de secuencia de TCP es mayor que el número de ACK máximo.

Este motivo de descarte se corresponde al estado de TCP no coincidente.

4.2.0

seqno_lt_minack_drops

Número de paquetes descartados debido a que el número de secuencia de TCP es menor que el número de ACK mínimo.

Este motivo de descarte se corresponde al estado de TCP no coincidente.

4.2.0

seqno_old_ack_drops

Número de paquetes descartados debido a que TCP devolvió más de un fragmento.

Este motivo de descarte se corresponde al estado de TCP no coincidente.

4.2.0

seqno_old_retrans_drops

Número de paquetes descartados debido a una retransmisión de TCP anterior a una ventana.

Este motivo de descarte se corresponde al estado de TCP no coincidente.

4.2.0

seqno_outside_window_drops

Número de paquetes descartados debido al número de secuencia de TCP fuera de la ventana.

Este motivo de descarte se corresponde al estado de TCP no coincidente.

4.2.0

short_drops

Número de paquetes cortos descartados.

Los paquetes cortos son paquetes con una longitud incorrecta (por ejemplo, paquetes con un valor de ip_len incorrecto).

4.2.0

spoof_guard_drops

Número de paquetes descartados debido a la comprobación de SpoofGuard.

SpoofGuard es una herramienta diseñada para evitar que las máquinas virtuales de su entorno envíen tráfico con una dirección IP desde la que no está permitido enviar el tráfico.

4.2.0

src_limit_misc

Número de paquetes que alcanzan el límite de origen.

Esto está relacionado con el procesamiento de paquetes de firewall. Esto se debe a un error en la inserción del nodo de origen en el árbol rojo-negro (RB) debido a que se alcanzó el límite.

4.2.0

state_insert_drops

Número de paquetes descartados debido a un error de inserción de estado. Esto ocurre debido a una inserción de estado duplicada.

4.2.0

state_limit_drops

Número de paquetes descartados debido a que se alcanzó el límite máximo de estados.

Por ejemplo, si el número de estados de TCP es superior al límite, se produce un descarte.

4.2.0

state_mismatch_drops

Número de paquetes descartados debido a falta de coincidencia de estado.

Existen varios posibles motivos para el descarte, como STRICTNOSYN, HANDSHAKE_SYNSENT, SEQ_GT_SEQHI, etc.

4.2.0

strict_no_syn_drops

Número de paquetes descartados debido al modo de aplicación estricto sin sincronización. Se espera que el paquete SYN se vea en modo estricto.

4.2.0

syn_expected_drops

El paquete coincide con un servidor virtual del equilibrador de carga, pero no es un paquete SYN. Por lo tanto, el sistema no debe crear un estado para él. Esto produce un descarte de paquetes. Esta estadística realiza un seguimiento de este descarte.

4.2.0

syn_proxy_drops

Número de paquetes descartados debido a synproxy. Esto es para proteger los servidores TCP de ataques como SYN FLOOD.

4.2.0

tcp_flood_overlimit_drops

Número de paquetes descartados debido a un exceso de desbordamiento de TCP. Hay un límite de desbordamiento de TCP configurado en la interfaz del kernel.

4.2.0

tx_ipv4_drop_pkts

Número de paquetes descartados IPv4 transmitidos.

4.2.0

tx_ipv4_pass_pkts

Número de paquetes pasados IPv4 transmitidos.

4.2.0

tx_ipv4_reject_pkts

Número de paquetes rechazados IPv4 transmitidos.

4.2.0

tx_ipv6_drop_pkts

Número de paquetes descartados IPv6 transmitidos.

4.2.0

tx_ipv6_pass_pkts

Número de paquetes pasados IPv6 transmitidos.

4.2.0

tx_ipv6_reject_pkts

Número de paquetes rechazados IPv6 transmitidos.

4.2.0

tx_l2_drop_pkts

Número de paquetes descartados de capa 2 transmitidos.

4.2.0

udp_flood_overlimit_drops

Número de paquetes descartados debido a un exceso de desbordamiento de UDP. Hay un límite de desbordamiento de UDP configurado en la interfaz del kernel.

4.2.0

Módulo: virtual_switch

Este módulo de ruta de datos de capa 2 es responsable de proporcionar la funcionalidad de conmutación. Este módulo reenvía paquetes dentro de un dominio de difusión basado en la VLAN y el VNI en el que una interfaz recibe un paquete. En esta tabla, Rx hace referencia a los paquetes enviados "al" conmutador, y Tx a los paquetes recibidos "desde" el conmutador. Mcast hace referencia a los paquetes de multidifusión. Este módulo de ruta de datos se conoce como nsxt-vswitch en NSX Central CLI.

Estadística Descripción Versión introducida

forged_transmit_rx_drops

Número de paquetes descartados como descartes falsificados debido a que la dirección MAC de origen del paquete es diferente de la dirección MAC del adaptador de la máquina virtual.

La deshabilitación de transmisiones falsificadas o el aprendizaje de direcciones MAC en el segmento provoca estos descartes. Habilitar el aprendizaje de direcciones MAC o las transmisiones falsificadas en el segmento debería mitigar el problema.

4.2.0

unknown_unicast_rx_pkts

Número de paquetes de unidifusión desconocida recibidos por vSwitch que se desbordan en otros puertos del mismo dominio de difusión.

La estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch.

Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC.

4.2.0

unknown_unicast_rx_uplink_pkts

Número de paquetes recibidos de uno o varios vínculos superiores del vSwitch que son de unidifusión desconocida y que el vSwitch desbordó a otros puertos del mismo dominio de difusión.

La estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch.

Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC.

4.2.0

unknown_unicast_tx_pkts

Número de paquetes de unidifusión desconocida que el vSwitch desbordó a otros puertos en el mismo dominio de difusión.

La estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch.

Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC.

4.2.0

unknown_unicast_tx_uplink_pkts

Número de paquetes de unidifusión desconocida que el vSwitch desborda a uno o varios vínculos superiores.

La estadística se incrementa cuando los paquetes de unidifusión desconocida se desbordan en presencia de puertos de recepción o segmentos habilitados para el aprendizaje de direcciones MAC. El desbordamiento de unidifusión desconocida se produce cuando la dirección MAC de destino del paquete no se encuentra en la tabla de direcciones MAC de vSwitch.

Esta estadística se incrementa cuando una dirección MAC de destino caduca en la tabla de direcciones MAC en presencia de aprendizaje de direcciones MAC.

4.2.0

vlan_tag_mismatch_rx

Número de paquetes de unidifusión y difusión descartados debido a una falta de coincidencia de etiquetas de VLAN.

Estos descartes se producen cuando no se permite la etiqueta de VLAN de un paquete según la directiva de VLAN del segmento. Modificar la directiva de VLAN del segmento o enviar paquetes con una etiqueta de VLAN permitida puede mitigar el problema.

4.2.0

vlan_tag_mismatch_rx_mcast

Número de paquetes de multidifusión descartados debido a una falta de coincidencia de etiquetas de VLAN.

Estos descartes se producen cuando no se permite la etiqueta de VLAN de un paquete según la directiva de VLAN del segmento. Modificar la directiva de VLAN del segmento o enviar paquetes con una etiqueta de VLAN permitida puede mitigar el problema.

4.2.0

vlan_tag_mismatch_tx

Número de paquetes de unidifusión descartados debido a una falta de coincidencia de etiquetas de VLAN.

El conmutador de host localiza una entrada en su tabla de búsqueda en función de la dirección de destino del paquete. Al intentar reenviar el paquete fuera de un puerto, estos descartes se producen cuando no se permite la etiqueta de VLAN de un paquete según la directiva de VLAN del segmento. Modificar la directiva de VLAN del segmento o enviar paquetes con una etiqueta de VLAN permitida puede mitigar el problema.

4.2.0

vlan_tag_mismatch_tx_mcast

Número de paquetes de multidifusión descartados debido a una falta de coincidencia de etiquetas de VLAN.

El conmutador de host localiza una entrada en su tabla de búsqueda en función de la dirección de destino del paquete. Al intentar reenviar el paquete fuera de un puerto, estos descartes se producen cuando no se permite la etiqueta de VLAN de un paquete según la directiva de VLAN del segmento. Modificar la directiva de VLAN del segmento o enviar paquetes con una etiqueta de VLAN permitida puede mitigar el problema.

4.2.0

vni_tag_mismatch_tx

Número de paquetes de unidifusión descartados debido a una falta de coincidencia de etiquetas de VNI.

El conmutador de host localiza una entrada en su tabla de búsqueda en función de la dirección de destino del paquete. Al intentar reenviar el paquete fuera de un puerto, estos descartes se producen cuando no se permite la etiqueta de VNI de un paquete según la directiva de VNI del segmento. Mover la máquina virtual de destino a este segmento de superposición puede solucionar el problema.

4.2.0

vni_tag_mismatch_tx_mcast

Número de paquetes de multidifusión descartados debido a una falta de coincidencia de etiquetas de VNI.

El conmutador de host localiza una entrada en su tabla de búsqueda en función de la dirección de destino del paquete. Al intentar reenviar el paquete fuera de un puerto, estos descartes se producen cuando no se permite la etiqueta de VNI de un paquete según la directiva de VNI del segmento. Mover la máquina virtual de destino a este segmento de superposición puede solucionar el problema.

4.2.0