This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

Fecha de versión: 29 de noviembre de 2018

IMPORTANTE: Si es cliente de vSAN, antes de actualizar a ESXi650-201810002, si no ha actualizado a ESXi650-201810001, y si es probable que se expanda un VMDK, siga estos pasos:

  1. Inicie sesión en el host ESXi mediante SSH como raíz.
  2. Establezca la opción de configuración avanzada VSAN.ClomEnableInplaceExpansion en 0 en todos los hosts.

No se requiere reiniciar. El ajuste de VSAN.ClomEnableInplaceExpansion no afecta a los reinicios de los hosts ni a las cargas de trabajo en ejecución.

Después de actualizar todos los hosts a ESXi650-201810001, puede establecer VSAN.ClomEnableInplaceExpansion en 1 y habilitarlo.

Si ha actualizado a ESXi650-201810001, no se requiere ningún paso adicional.

Nombre de archivo de descarga:

ESXi650-201811002.zip

Compilación:

10884925

Tamaño de descarga:

457,4 MB

md5sum:

7d3cd75ace63f381d8c8f34e24c9c413

sha1checksum:

882b1fb4bc139dd65956a3e9380f4f03eeb2538a

Reinicio requerido del host: Sí

Migración de máquina virtual o apagado requeridos: Sí

Boletines

Identificador del boletín Categoría Gravedad
ESXi650-201811401-BG Corrección de error Crítico
ESXi650-201811402-BG Corrección de error Importante
ESXi650-201811403-BG Corrección de error Importante
ESXi650-201811404-BG Corrección de error Crítico
ESXi650-201811405-BG Corrección de error Importante
ESXi650-201811406-BG Corrección de error Moderado
ESXi650-201811101-SG Seguridad Crítico
ESXi650-201811102-SG Seguridad Importante
ESXi650-201811103-SG Seguridad Moderado

Boletín acumulativo de actualizaciones

Este boletín acumulativo de actualizaciones contiene los VIB más recientes con todas las revisiones desde la publicación inicial de ESXi 6.5.

Identificador del boletín Categoría Gravedad
ESXi650-201811002 Corrección de error Crítico

Perfiles de imagen

Las versiones de revisiones y actualizaciones de VMware contienen perfiles de imagen general y de nivel crítico. El perfil de imagen general de la versión se aplica a las nuevas correcciones de errores.

Nombre del perfil de imagen
ESXi-6.5.0-20181104001-standard
ESXi-6.5.0-20181104001-no-tools
ESXi-6.5.0-20181101001s-standard
ESXi-6.5.0-20181101001s-no-tools

Para obtener más información sobre cada boletín, consulte la página My VMware y las secciones Problemas resueltos y Problemas conocidos.

Descarga e instalación de revisiones

La forma habitual de aplicar revisiones a los hosts ESXi es mediante VMware vSphere Update Manager. Para obtener más información, consulte Acerca de la instalación y administración de VMware vSphere Update Manager.

Los hosts ESXi pueden actualizarse mediante la descarga manual del archivo ZIP de revisión desde la página de descarga de VMware y la instalación de VIB mediante el comando esxcli software vib. Además, el sistema se puede actualizar mediante el perfil de imagen y el comando esxcli software profile.

Para obtener más información, consulte los conceptos y ejemplos de la interfaz de línea de comandos de vSphere y la Guía de actualización de vSphere.

Problemas resueltos

Los problemas resueltos se agrupan del siguiente modo:

ESXi650-201811401-BG
Categoría de revisión Corrección de error
Gravedad de la revisión Crítico
Reinicio de host requerido
Migración de máquina virtual o apagado requeridos
Hardware afectado N/C
Software afectado N/C
VIB que se incluyen
  • VMware_bootbank_esx-base_6.5.0-2.75.10884925
  • VMware_bootbank_esx-tboot_6.5.0-2.75.10884925
  • VMware_bootbank_vsan_6.5.0-2.75.10884926
  • VMware_bootbank_vsanhealth_6.5.0-2.75.10884927
PR fijadas  1847663, 1863313, 1894568, 1949789, 2021943, 2022147, 2029579, 2037849, 2037926, 2057600, 2063154, 2071506, 2071610, 2071817, 2072971, 2073175, 2078843, 2079002, 2083594, 2083627, 2084723, 2088951, 2089048, 2096942, 2097358, 2098928, 2102135, 2102137, 2107335, 2113432, 2119609, 2122259, 2122523, 2128932, 2130371, 2133589, 2136002, 2139317, 2139940, 2142767, 2144766, 2152381, 2153867, 2154912, 2187127, 2128759, 2155840, 2155858, 2156840, 2157503, 2158561, 2164733, 2167294, 2167877, 2170126, 2171799, 2173856, 2179262, 2180962, 2182211, 2186065, 2191349, 2192629, 2192836, 2193829, 2187136, 2194304, 2197789, 2203385, 2203836, 2204024, 2204028, 2204507, 2209900, 2209919, 2211285, 2211639, 2213917, 2225439, 2225471, 2133634, 2139131
Números CVE N/C

Esta revisión actualiza los VIB esx-base, esx-tboot, vsanvsanhealth para resolver los problemas siguientes:

  • Continuidad del sitio inteligente para los clústeres ampliados. En el caso de una partición entre los sitios de datos preferido y secundario, ESXi650-201811002 permite a vSAN determinar inteligentemente el sitio que da lugar a la máxima disponibilidad de datos antes de formar automáticamente cuórum con el testigo. El sitio secundario puede funcionar como el sitio activo hasta que el sitio preferido tenga la copia más reciente de los datos. Esto evita que las máquinas virtuales vuelvan a migrar hacia el sitio preferido y se pierda la localidad de las lecturas de datos.

  • Resincronización adaptable para la administración dinámica del tráfico de resincronización. Con ESXi650-201811002, la resincronización adaptativa acelera el tiempo para el cumplimiento, restaurando un objeto a sus errores que se toleran proporcionados, mediante la asignación de ancho de banda dedicado para E/S de resincronización. La E/S de resincronización es generada por vSAN para que un objeto vuelva a estar en cumplimiento. Mientras se garantiza el ancho de banda mínimo para las operaciones de E/S de resincronización, el ancho de banda se puede aumentar dinámicamente si no hay ninguna contención desde el cliente de E/S. Por otro lado, si no hay ninguna operación de E/S de resincronización, las operaciones de E/S de cliente pueden usar el ancho de banda adicional.  

  • PR 1949789: Se puede producir un error en la actualización a ESXi 6.5 y versiones posteriores mediante vSphere Update Manager debido a un problema con la biblioteca libparted

    Se puede producir un error en la actualización a ESXi 6.5 y versiones posteriores mediante vSphere Update Manager debido a un problema con la biblioteca de código abierto libparted. Es posible que se muestre el siguiente seguimiento inverso:

    [root@hidrogenio07:~] partedUtil getptbl /vmfs/devices/disks/naa.60000970000592600166533031453135
    El seguimiento inverso tiene 12 llamadas en la pila:
    12: /lib/libparted.so.0(ped_assert+0x2a) [0x9e524ea]
    11: /lib/libparted.so.0(ped_geometry_read+0x117) [0x9e5be77]
    10: /lib/libparted.so.0(ped_geometry_read_alloc+0x75) [0x9e5bf45]
    9: /lib/libparted.so.0(nilfs2_probe+0xb5) [0x9e82fe5]
    8: /lib/libparted.so.0(ped_file_system_probe_specific+0x5e) [0x9e53efe]
    7: /lib/libparted.so.0(ped_file_system_probe+0x69) [0x9e54009]
    6: /lib/libparted.so.0(+0x4a064) [0x9e8f064]
    5: /lib/libparted.so.0(ped_disk_new+0x67) [0x9e5a407]
    4: partedUtil() [0x804b309]
    3: partedUtil(main+0x79e) [0x8049e6e]
    2: /lib/libc.so.6(__libc_start_main+0xe7) [0x9edbb67]
    1: partedUtil() [0x804ab4d] Aborted

    El problema está resuelto en esta versión.

  • PR 2169914: Puede que las matrices SolidFire no tengan un rendimiento óptimo

    Puede que las matrices SolidFire no tengan un rendimiento óptimo sin la reconfiguración de las reglas de notificación de SATP.

    El problema está resuelto en esta versión. Esta solución establece las reglas de notificación del complemento de tipo de matriz de almacenamiento (Storage Array Type Plugin, SATP) para matrices de almacenamiento SAN de SSD de SolidFire como VMW_SATP_DEFAULT_AA y la directiva de selección de ruta de acceso (Path Selection Policy, PSP) como VMW_PSP_RR con 10 operaciones de E/S por segundo de manera predeterminada para lograr un rendimiento óptimo.

  • PR 2169924: Las reglas de notificación deben agregarse de forma manual a ESXi

    Las reglas de notificación deben agregarse manualmente a ESXi para los siguientes modelos de matrices de almacenamiento DELL MD: MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf y MD38xxi. 

    El problema está resuelto en esta versión. Esta solución establece SATP como VMW_SATP_ALUA, PSP como VMW_PSP_RR y las opciones de notificación como tpgs_on de forma predeterminada para los siguientes modelos de matrices de almacenamiento DELL MD: MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf y MD38xxi. 

  • PR 2170118: Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante el apagado o la desconexión de máquinas virtuales si se utiliza EMC RecoverPoint

    Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante el apagado o la desconexión de una máquina virtual si se utiliza EMC RecoverPoint debido a una condición de carrera en la herramienta de filtro de vSCSI.

    El problema está resuelto en esta versión.

  • PR 2170120: Es posible que algunas rutas de acceso a un dispositivo de almacenamiento dejen de estar disponibles después de una actualización sin interrupciones de los controladores de la matriz de almacenamiento

    Durante una actualización sin interrupciones, es posible que algunas rutas de acceso tengan un estado de pérdida de dispositivo permanente (Permanent Device Loss, PDL). Dichas rutas de acceso permanecen no disponibles incluso después de la actualización. Por ello, el dispositivo puede perder la conectividad.

    El problema está resuelto en esta versión.

  • PR 2071817: Se puede producir un error en los hosts ESXi debido a una estructura de datos dañada en la memoria caché de páginas

    Se puede producir un error en los hosts ESXi con una pantalla de diagnóstico de color morado al quitar una página de la memoria caché de páginas debido a una estructura de datos dañada. Es posible que se muestre el siguiente seguimiento inverso:

    2018-01-01T04:02:47.859Z cpu13:33232)Backtrace for current CPU #13, worldID=33232, rbp=0xd
    2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b720:[0x41800501883b]PageCacheRemoveFirstPageLocked@vmkernel#nover+0x2f stack: 0x4305dd30
    2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b740:[0x418005019144]PageCacheAdjustSize@vmkernel#nover+0x260 stack: 0x0, 0x3cb418317a909
    2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81bfd0:[0x41800521746e]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0, 0x0, 0x0, 0x0, 0
    2018-01-01T04:02:47.877Z cpu13:33232)^[[45m^[[33;1mVMware ESXi 6.0.0 [Releasebuild-6921384 x86_64]^[[0m
    #GP Exception 13 in world 33232:memMap-13 @ 0x41800501883b

    El problema está resuelto en esta versión. Para obtener más información, consulte el artículo 53511 de la base de conocimientos de VMware.

  • PR 2107335: Las reglas de notificación deben agregarse de forma manual al host ESXi

    Las reglas de notificación deben agregarse manualmente al host ESXi para las matrices de almacenamiento HITACHI OPEN-v. 

    El problema está resuelto en esta versión. Esta solución establece SATP como VMW_SATP_ALUA, PSP como VMW_PSP_RR y las opciones de notificación como tpgs_on de forma predeterminada para las matrices de almacenamiento de tipo HITACHI OPEN-v compatibles con el acceso asimétrico a unidades lógicas (Asymmetric Logical Unit Access, ALUA). La solución también establece SATP como VMW_SATP_DEFAULT_AA, PSP como VMW_PSP_RR y las opciones de notificación como tpgs_off de forma predeterminada para las matrices de almacenamiento de tipo HITACHI OPEN-v sin compatibilidad con ALUA.

  • PR 2122259: Los ajustes agregados manualmente a la configuración de NTP se pueden perder después de una actualización de NTP

    Si se agregan ajustes manualmente a la configuración de NTP, es posible que estos se eliminen del archivo ntp.conf si se actualiza NTP mediante vSphere Web Client. Las actualizaciones de NTP conservan todos los ajustes junto con las opciones de restricción, driftfile y los servidores agregados de forma manual al archivo ntp.conf. Si se modifica de forma manual el archivo ntp.conf, es necesario reiniciar hostd para propagar las actualizaciones.

    El problema está resuelto en esta versión.

  • PR 2136002: Los tickets obsoletos en discos de memoria RAM pueden provocar que los hosts ESXi dejen de responder

    Los tickets obsoletos, los cuales no se eliminan antes de que hostd genere un nuevo ticket, pueden agotar los nodos de los discos de memoria RAM. Esto puede provocar que los hosts ESXi dejen de responder.

    El problema está resuelto en esta versión.

  • PR 2083594: Es posible que no se pueda utilizar un dispositivo USB conectado como acceso directo para migrar máquinas virtuales si se utiliza vSphere vMotion

    Es posible que no se pueda utilizar un dispositivo USB conectado como acceso directo para migrar máquinas virtuales si se utiliza vSphere vMotion debido a una comprobación de condición redundante.

    El problema está resuelto en esta versión. Si ya experimenta el problema, agregue al archivo vmx la siguiente línea: usb.generic.allowCCID = "TRUE". Para obtener más información, consulte el artículo 55789 de la base de conocimientos de VMware. 

  • PR 2128932: Se puede producir un error que no se muestre en una E/S enviada a una instantánea VMFSsparse

    Si una máquina virtual forma parte de una instantánea VMFSsparse, es posible que las operaciones de E/S enviadas a la máquina virtual se procesen solo parcialmente en el nivel de VMFSsparse, pero que las capas superiores, como los filtros de E/S, supongan que la transferencia se realizó correctamente. Esto puede producir una inconsistencia de datos.

    El problema está resuelto en esta versión. Esta solución configura un estado de error transitorio para la referencia de las capas superiores si se ha completado una operación de E/S. 

  • PR 2144766: Los comandos de E/S pueden producir un error CAMPO NO VÁLIDO EN CDB

    Puede que los hosts ESXi no reflejen el parámetro MAXIMUM TRANSFER LENGTH del que informa el dispositivo SCSI en la página VPD de límites de bloque. Por lo tanto, los comandos de E/S emitidos con un tamaño de transferencia mayor al límite pueden producir un error con un registro similar:

    2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.

    El problema está resuelto en esta versión.

  • PR 2152381: Es posible que la utilidad de línea de comandos esxtop no muestre correctamente la profundidad de la cola de dispositivos

    Es posible que la utilidad de línea de comandos esxtop no muestre un valor actualizado de profundidad de cola de dispositivos si se cambia la profundidad de cola de la ruta de acceso del dispositivo correspondiente.

    El problema está resuelto en esta versión.

  • PR 2089048: Usar la opción de extensión de ventanas variables de los servicios de implementación de Windows (Windows Deployment Services, WDS) en máquinas virtuales con firmware EFI puede causar un arranque PXE lento

    Si se intenta realizar un arranque PXE en una máquina virtual donde se utiliza firmware EFI con un adaptador de red vmxnet3 y WDS, y no se deshabilitó la opción de extensión de ventanas variables en WDS, la máquina virtual puede arrancar demasiado lento.

    El problema está resuelto en esta versión.

  • PR 2102135: Los dispositivos Apple con una versión de iOS posterior a iOS 11 no se pueden conectar a máquinas virtuales con una versión de OS X posterior a OS X 10.12

    Debido a problemas de USB de Apple, los dispositivos con una versión de iOS posterior a iOS 11 no se pueden conectar a máquinas virtuales con una versión de OS X posterior a OS X 10.12.

    El problema está resuelto en esta versión. Para habilitar la conexión en las versiones anteriores de ESXi, agregue usb.quirks.darwinVendor45 = TRUE como una nueva opción al archivo de configuración .vmx

  • PR 2139940: Es posible que los identificadores para enviar datos de vmware.log a Syslog no funcionen según lo esperado

    Es posible que los identificadores para enviar datos de vmware.log a Syslog, definidos con vmx.log.syslogID, no funcionen según lo esperado debido a que se omite la cadena especificada en la variable.

    El problema está resuelto en esta versión.

  • PR 2088951: Se puede producir un error de forma intermitente en los hosts ESXi si se deshabilitan las direcciones IPv6 globales

    Se puede producir un error de forma intermitente en los hosts ESXi si se deshabilitan las direcciones IPv6 globales debido a que una ruta de acceso de código todavía utiliza IPv6.

    El problema está resuelto en esta versión. Si ya experimenta el problema, vuelva a habilitar las direcciones IPv6 globales para evitar errores en los hosts. Si necesita deshabilitar las direcciones IPv6 por algún motivo, debe deshabilitar las IPv6 en los vmknics individuales, no las direcciones IPv6 globales. 

  • PR 2098928: Se puede producir un error en hostd si se realiza una solicitud HTTP durante la inicialización de hostd

    En situaciones excepcionales, cuando se realiza una solicitud HTTP durante la inicialización de hostd, se puede producir un error en el agente.

    El problema está resuelto en esta versión.

  • PR 2097358: Se produce un error en hostd cuando existen ciertos parámetros no válidos en el archivo VMX de una máquina virtual

    Se puede producir un error en hostd cuando existen ciertos parámetros no válidos en el archivo .vmx de una máquina virtual. Por ejemplo, cuando se agrega manualmente un parámetro, como ideX:Y.present, con un valor True al archivo .vmx.

    El problema está resuelto en esta versión.

  • PR 2078843: Se puede producir un error en la migración mediante vSphere vMotion entre hosts de diferentes versiones de ESXi

    Cuando existen hosts de diferentes versiones de ESXi en un clúster de máquinas virtuales Linux, y el nivel de Enhanced vMotion Compatibility (EVC) se establece en L0 o L1 para procesadores Merom y Penryn, es posible que las máquinas virtuales dejen de responder si se intenta la migración mediante vSphere vMotion de un host ESXi 6.0 a un host con una versión más reciente de ESXi.

    El problema está resuelto en esta versión.

  • PR 2153867: Es posible que un host ESXi deje de responder al cerrar volúmenes VMware vSphere VMFS6

    Un host ESXi puede dejar de responder si los latidos del almacén de datos se detienen prematuramente al cerrar VMware vSphere VMFS6. Por lo tanto, el administrador de afinidad no puede cerrarse correctamente.

    El problema está resuelto en esta versión.

  • PR 2133589: Las reglas de notificación deben agregarse manualmente a ESXi para las matrices de almacenamiento Tegile IntelliFlash

    Las reglas de notificación deben agregarse manualmente a ESXi para las matrices de almacenamiento Tegile IntelliFlash.

    El problema está resuelto en esta versión. Esta solución configura SATP como VMW_SATP_ALUA, PSP como VMW_PSP_RR y las opciones de notificación como tpgs_on de forma predeterminada para las matrices de almacenamiento Tegile IntelliFlash compatibles con ALUA. La solución también establece SATP en VMW_SATP_DEFAULT_AA, PSP en VMW_PSP_RR y las opciones de notificación en tpgs_off de forma predeterminada para las matrices de almacenamiento Tegile IntelliFlash sin compatibilidad con ALUA.

  • PR 2113432: Los eventos de observaciones de VMkernel (VMkernel Observations, VOB) pueden generar advertencias de rendimiento del dispositivo innecesarias

    Se pueden generar estos dos eventos VOB debido a variaciones en la latencia de E/S en una matriz de almacenamiento, pero no se informa ningún problema real en las máquinas virtuales:

    1. Se deterioró el rendimiento del dispositivo naa.xxx. La latencia de E/S aumentó del valor promedio de 4114 microsegundos a 84518 microsegundos.
    2. El rendimiento del dispositivo naa.xxx mejoró. La latencia de E/S se redujo de 346115 microsegundos a 67046 microsegundos.

    El problema está resuelto en esta versión.

  • PR 2119609: La migración de una máquina virtual con un conmutador de dispositivo de sistema de archivos (Filesystem Device Switch, FDS) en un almacén de datos de VMware vSphere Virtual Volumes mediante VMware vSphere vMotion puede provocar varios problemas

    Si se utiliza vSphere vMotion para migrar una máquina virtual con filtros de dispositivos de archivos de un almacén de datos de vSphere Virtual Volumes a otro host, y en la máquina virtual se encuentran habilitados el seguimiento de bloques modificados (Changed Block Tracking, CBT), VMware vSphere Flash Read Cache (VFRC) o los filtros de E/S, la migración puede causar problemas con cualquiera de esas funciones. Durante la migración, los filtros de dispositivos de archivos pueden no transferirse correctamente al host. Por lo tanto, es posible que se observen copias de seguridad incrementales dañadas en CBT, una degradación de rendimiento en VFRC y los filtros de E/S de la memoria caché, así como daños en los filtros de E/S de replicación y el disco, cuando los filtros de E/S de la memoria caché se configuran en modo de reescritura. También se pueden observar problemas con el cifrado de la máquina virtual.

    El problema está resuelto en esta versión.

  • PR 2096942: Las llamadas de API getTaskUpdate a identificadores de tareas eliminadas pueden provocar el desborde del registro y un mayor uso de ancho de banda de API

    Si utiliza un proveedor de VMware vSphere API for Storage Awareness, es posible que se muestren varias llamadas getTaskUpdate a tareas canceladas o eliminadas. Por lo tanto, es posible que se observe un mayor uso de ancho de banda de vSphere API for Storage Awareness y un desborde del registro.

    El problema está resuelto en esta versión.

  • PR 2142767: VMware vSphere Virtual Volumes puede dejar de responder si un proveedor de vSphere API for Storage Awareness pierde la información de enlace de su base de datos

    vSphere Virtual Volumes puede dejar de responder debido a un bucle infinito que carga las CPU al 100 % si un proveedor de vSphere API for Storage Awareness pierde la información de enlace de su base de datos. Hostd también puede dejar de responder. Se puede mostrar un mensaje de error irrecuperable. Esta solución impide los bucles infinitos en caso de errores de enlace de la base de datos.

    El problema está resuelto en esta versión.

  • PR 2155840: Hostd puede dejar de responder durante el esfuerzo de registro

    Si el grupo de recursos de registro de un host ESXi se esfuerza debido a un registro excesivo, hostd puede dejar de responder mientras se ejecutan los comandos esxcfg-syslog. Como esta solución mueve los comandos relacionados con esxcfg-syslog del grupo de recursos de registro a ESXi Shell, es posible observar un mayor uso de memoria en el grupo de recursos de shell predeterminado.

    El problema está resuelto en esta versión.

  • PR 2088424: Es posible ver alarmas de estado de hardware falsas debido a sensores deshabilitados o inactivos de la interfaz de administración de plataforma inteligente (Intelligent Platform Management Interface, IPMI)

    Los sensores de IPMI deshabilitados o los que no informan de ningún dato pueden generar alarmas de estado de hardware falsas.

    El problema está resuelto en esta versión. Esta solución filtra las alarmas de ese tipo.

  • PR 2156458: Eliminar del registro un proveedor de vSphere API for Storage Awareness en un estado desconectado puede provocar un error

    Si se elimina del registro un proveedor de vSphere API for Storage Awareness en un estado desconectado, puede que aparezca el error java.lang.NullPointerException. Los administradores de eventos y alarmas no se inicializan cuando un proveedor está en un estado desconectado, lo que provoca el error.

    El problema está resuelto en esta versión.

  • PR 2122523: Un almacén de datos VMFS6 puede informar incorrectamente de que se agotó el espacio

    Un almacén de datos VMFS6 puede indicar de forma incorrecta que se agotó el espacio debido a entradas de memoria caché obsoletas.

    El problema está resuelto en esta versión. Se han corregido los informes de asignación de espacio con las actualizaciones automáticas de las entradas de memoria caché, pero esta corrección impide que se muestre el error incluso antes de una actualización.

  • PR 2052171: Se puede producir un error en la consolidación de discos de máquina virtual si la máquina virtual tiene instantáneas creadas con la memoria caché de lectura basada en contenido (Content Based Read Cache, CBRC) habilitada y luego se deshabilita esta función

    Si una máquina virtual tiene instantáneas creadas con CBRC y luego se deshabilita CBRC, se puede producir el error Un parámetro especificado no era correcto: spec.deviceChange.device en operaciones de consolidación de discos debido a la eliminación de un archivo de resumen tras deshabilitar CBRC. Se muestra una alerta Se necesitan consolidar los discos de la máquina virtual hasta que se resuelve el problema.

    El problema está resuelto en esta versión. Esta solución evita el problema, pero aún es posible que se produzca en máquinas virtuales que tienen instantáneas tomadas con una CBRC habilitada que luego se deshabilita. Si ya experimenta el problema, habilite el resumen en toda la cadena de discos para eliminar y volver a crear todos los archivos de resumen.

  • PR 2071506: Puede que OpenManage Integration for VMware vCenter (OMIVV) de Dell no identifique algunos servidores modulares Dell de Integrated Dell Remote Access Controller (iDRAC)

    OMIVV se basa en la información de la propiedad de iDRAC hardware.systemInfo.otherIdentifyingInfo.ServiceTag para recuperar el parámetro SerialNumber e identificar algunos servidores modulares de Dell. Un error de coincidencia en la propiedad serviceTag puede producir un error en esta integración.

    El problema está resuelto en esta versión.

  • PR 2137711: Los sensores de presencia en la pestaña Estado de hardware pueden mostrar el estado Desconocido

    Anteriormente, si no se encontraba un componente como un procesador o un ventilador en un sistema vCenter Server, los sensores de presencia mostraban el estado Desconocido. Sin embargo, los sensores de presencia no tienen un estado asociado.

    El problema está resuelto en esta versión. Esta solución filtra los componentes con estado Desconocido.

  • PR 2192836: Si el destino conectado a un host ESXi admite solo ALUA implícita y tiene rutas de acceso solo en espera, se puede producir un error en el host con una pantalla de diagnóstico de color morado al detectar el dispositivo

    Si el destino conectado a un host ESXi admite solo ALUA implícita y tiene rutas de acceso solo en espera, se puede producir un error en el host con una pantalla de diagnóstico de color morado al detectar el dispositivo debido a una condición de carrera. Es posible que se muestre un seguimiento inverso similar al siguiente:

    SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
    0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
    0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
    0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807

    El problema está resuelto en esta versión.

  • PR 2130371: Se puede producir un error en la actualización de VMware Tools con el código VIX 21000

    Si un host ESXi no tiene ninguna imagen ISO de VMware Tools disponible y se intenta actualizar VMware Tools en una máquina virtual activa, se puede producir un error en la operación con el código VIX 21000. Es posible que no pueda actualizar VMware Tools mediante la API, vSphere Client o vSphere Web Client, incluso después de obtener una imagen ISO disponible. Esto se debe a que el host ESXi almacena en caché la primera comprobación de disponibilidad durante el encendido de la máquina virtual y no la actualiza.

    El problema está resuelto en esta versión. La solución establece un valor predeterminado de caducidad de 5 minutos para la comprobación de disponibilidad de imagen ISO de VMware Tools. Si se produce un error en una actualización, se puede volver a intentar la operación 5 minutos después de montar una imagen ISO.

  • PR 2021943: Los registros del servicio de hostd y Syslog pueden recopilar registros de excepción de depuración innecesarios

    Los registros del servicio de hostd y Syslog pueden recopilar registros de excepción de depuración innecesarios de todos los hosts ESXi en un clúster.

    En el registro de hostd, los mensajes son similares a lo siguiente:
    No match, sensor_health file missing sensorNumer 217: class 3 sensor type 35 offset 0

    En Syslog, /etc/sfcb/omc/sensor_health, los mensajes son similares a lo siguiente:
    Missing expected value to check for

    El problema está resuelto en esta versión.

  • PR 2167294: Todas las rutas desactivadas (All Paths Down, APD) no se activa para los LUN detrás de un destino de IBM SAN Volume Controller (SVC) incluso si ninguna ruta puede prestar servicios de E/S

    En una configuración de ESXi con varias rutas a los LUN detrás de los destinos de IBM SVC, en caso de pérdida de conexión en rutas activas y si, al mismo tiempo, otras rutas de acceso conectadas no están en un estado que les permita prestar servicios de E/S, puede que el host ESXi no detecte esta condición como APD, incluso si no hay ninguna ruta disponible para prestar servicios de E/S. Por lo tanto, no se producen errores rápidos en las operaciones de E/S en el dispositivo.

    El problema está resuelto en esta versión. Esta corrección está deshabilitada de forma predeterminada. Para habilitar la solución, establezca la opción de configuración de ESXi /Scsi/ExtendAPDCondition en esxcfg-advcfg -s 1 /Scsi/ExtendAPDCondition.

  • PR 2022147: Es posible que los tamaños de anillo personalizados Rx y Tx de NIC físicas no sean persistentes en todos los reinicios del host ESXi

    Si se personalizan los tamaños de anillo Rx y Tx de NIC físicas para mejorar el rendimiento de red mediante los siguientes comandos:
    esxcli network nic ring current set -n <vmnicX> -t <value>
    esxcli network nic ring current set -n <vmnicX> -r <value>
    es posible que la configuración no sea persistente en todos los reinicios del host ESXi.

    El problema está resuelto en esta versión. La solución hace que estas configuraciones de ESXCLI sean persistentes en todos los reinicios mediante la escritura en el archivo de configuración de ESXi. Es necesario permitir la configuración de tamaños de anillo en las NIC físicas antes de usar la CLI.

  • PR 2171799: Un bloqueo flexible de CPU físicas puede provocar un error en un host ESXi con una pantalla de diagnóstico de color morado

    Si se agota el tiempo de espera de una gran cantidad de operaciones de E/S en un sistema de carga pesada, se puede producir un bloqueo flexible de CPU físicas. Como resultado, se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado.

    El problema está resuelto en esta versión.

  • PR 2173856: El rendimiento de las operaciones de vSphere vMotion de larga distancia a una latencia elevada puede deteriorarse debido al límite de tamaño de búfer de socket máximo

    Es posible que observe un bajo rendimiento de las operaciones de larga distancia de vSphere vMotion con alta latencia (como 100 ms o más) y vínculos de red de alta velocidad (como 10 GbE) debido al límite de búfer de socket codificado de forma rígida de 16 MB. Con esta corrección, puede configurar el parámetro de tamaño de búfer de socket máximo SB_MAX_ADJ.

    El problema está resuelto en esta versión. 

  • PR 2193829: Se puede producir un error en el proceso ejecutable de máquinas virtuales y se pueden apagar las máquinas virtuales durante un reinicio del sistema operativo invitado

    Debido a una condición de carrera, se puede producir un error en el proceso ejecutable de máquinas virtuales y se pueden apagar las máquinas virtuales durante un reinicio del sistema operativo invitado.

    El problema está resuelto en esta versión.

  • PR 1894568: Desborde del registro en syslog.log

    Se pueden mostrar varios mensajes, como sfcb-vmware_raw[69194]: IpmiIfcFruGetInv: Failed during send cc = 0xc9 en syslog.log. Estos son registros de información normales, no son registros de error o advertencia.

    El problema está resuelto en esta versión.

  • PR 2203385: Después de que se coloca correctamente en modo inactivo una instantánea de una máquina virtual Linux, el administrador de instantáneas puede indicar que la instantánea no se encuentra en modo inactivo

    Después de que se toma una instantánea de una máquina virtual Linux colocada correctamente en modo inactivo, el administrador de instantáneas puede indicar que la instantánea no se encuentra en modo inactivo.

    El problema está resuelto en esta versión.

  • PR 2191349: El daemon de supervisión de discos SMART, smartd, puede saturar los registros del servicio Syslog de las compilaciones de versión con mensajes de depuración y de información

    En las compilaciones de versión, smartd puede generar una gran cantidad de mensajes de depuración y de información en los registros del servicio Syslog.

    El problema está resuelto en esta versión. La solución elimina los mensajes de depuración de las compilaciones de versión.

  • PR 2179262: Se puede producir un error en las máquinas virtuales con un CD-ROM virtual SATA debido a comandos no válidos

    Los comandos no válidos en un CD-ROM virtual SATA pueden activar errores y aumentar el uso de memoria de las máquinas virtuales. Esto puede desencadenar un error en las máquinas virtuales si no pueden asignar memoria.
    Se pueden mostrar los siguientes registros para los comandos no válidos:
    YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
    YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.

    Y un mensaje de detención similar al siguiente:
    YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure

    El problema está resuelto en esta versión. 

  • PR 2182211: La columna Ubicación física de la tabla Administración de discos de vSphere Web Client queda vacía

    Cuando se selecciona la columna Ubicación física de la tabla Administración de discos en el panel de control de configuración del clúster de vSphere Web Client, la columna puede permanecer vacía y mostrar solamente información sobre el controlador hpsa.

    El problema está resuelto en esta versión. 

  • PR 2194304: El smartd del host ESXi informa de algunas advertencias

    Algunos parámetros de los dispositivos flash críticos, incluidos la temperatura y el conteo de sectores reasignados, no proporcionan valores de umbral. Como resultado, el daemon smartd del host ESXi puede informar de algunas advertencias.

    El problema está resuelto en esta versión.

  • PR 2209900: Un host ESXi puede dejar de responder

    El servicio de hostd puede dejar de responder mientras el proceso externo esxcfg-syslog permanece atascado. Como resultado, el host ESXi puede dejar de responder.

    El problema está resuelto en esta versión. 

  • PR 2167877: Un host ESXi puede producir una pantalla de diagnóstico de color morado si se habilita IPFIX en tráfico intenso continuo

    Al habilitar IPFIX con un tráfico intenso de diferentes flujos, el latido del sistema puede no reemplazar la CPU de IPFIX durante un largo período y activar una pantalla de diagnóstico de color morado.

    El problema está resuelto en esta versión.

  • PR 2211285: Un puerto de máquina virtual puede bloquearse tras una conmutación por error de VMware vSphere High Availability (vSphere HA)

    De forma predeterminada, la función Respuesta de aislamiento de un host ESXi con vSphere HA habilitado se encuentra deshabilitada. Cuando se habilita la función Respuesta de aislamiento, es posible que un puerto de máquina virtual conectado a un conmutador lógico NSX-T se bloquee después de una conmutación por error de vSphere HA.

    El problema está resuelto en esta versión. 

  • PR 2211639: Es posible ver paquetes que no concuerdan con el tráfico de infraestructura cuando se deshabilitan VMware vSphere Network I/O Control y el emparejamiento de colas

    Si se deshabilitan vSphere Network I/O Control y el emparejamiento de colas de NIC, es posible que vea paquetes que no concuerdan con el tráfico de infraestructura, como administración, iSCSI y NFS. Esto se debe a que, cuando no se habilita vSphere Network I/O Control, se deshabilita el emparejamiento de colas y las NIC trabajan con varias colas.

    El problema está resuelto en esta versión.

  • PR 2186065: Los registros de códigos de eventos de firmware pueden saturar vmkernel.log

    Las unidades que no admiten la página VPD de límites de bloque 0xb0 pueden generar registros de códigos de eventos que saturan el archivo vmkernel.log.

    El problema está resuelto en esta versión.

  • PR 2209919: Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado y se puede mostrar el siguiente mensaje: PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc

    Cuando se replican máquinas virtuales mediante VMware vSphere Replication, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color morado inmediatamente o en las siguientes 24 horas, y se puede mostrar el siguiente mensaje: PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc.

    El problema está resuelto en esta versión.

  • PR 2204024: Es posible que las máquinas virtuales dejen de responder debido a errores repetitivos en controladores de dispositivos de terceros para procesar comandos

    Es posible que las máquinas virtuales dejen de responder debido a errores repetitivos en algunos controladores de dispositivos de terceros para procesar comandos. Se puede mostrar el siguiente error al abrir la consola de máquina virtual:

    Error: "No se puede conectar al MKS: No se pudo conectar a la canalización \\.\pipe\vmware-authdpipe en el período de reintentos" 

    El problema está resuelto en esta versión. Esta solución recupera los comandos en controladores de dispositivos de terceros que no responden, y garantiza que los comandos con errores se detengan y se vuelvan a intentar hasta que se ejecuten correctamente.

  • PR 2164733: Se puede producir un error de compatibilidad de NamespaceDb en la migración de máquinas virtuales mediante VMware vSphere vMotion si el servicio de introspección de invitado se encuentra activado

    Si el servicio de introspección de invitado en un entorno de vSphere 6.5 con más de 150 máquinas virtuales se encuentra activado, se puede producir un error en la migración de máquinas virtuales mediante vSphere vMotion en vSphere Web Client con un mensaje similar al siguiente:

    El origen detectó un error en la reanudación del destino.

    El vmware.log de destino contiene mensajes de error similares a los siguientes:
    2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transición de estado 11 a 12.
    2018-07-18T02:41:32.035Z| vmx| I125: Migrar: Lista de mensajes de error de almacenamiento en caché de la migración:
    2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] No se pudo recibir la migración.
    2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Versión incompatible de -1 (se espera 2).
    2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] Se produjo un error al restaurar el estado de la máquina virtual durante la migración.

    El registro de VMkernel tiene mensajes de error como los siguientes:
    2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
    2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3

    El problema está resuelto en esta versión.

  • PR 2063154: Un host ESXi puede dejar de responder cuando se desconecta de un almacén de datos de NFS configurado para el registro

    Si se configura un almacén de datos de NFS como un almacén de datos de Syslog y un host ESXi se desconecta de él, se detiene el registro en el almacén de datos y el host ESXi puede dejar de responder.

    El problema está resuelto en esta versión.

  • PR 2203836: Las reglas de notificación deben agregarse manualmente a ESXi para las matrices de almacenamiento serie Lenovo DE

    Esta solución configura SATP como VMW_SATP_ALUA, PSP como VMW_PSP_RR y las opciones de notificación como tpgs_on de forma predeterminada para las matrices de almacenamiento serie Lenovo DE.

    El problema está resuelto en esta versión.

  • PR 2110196: Error en el disco de capacidad de un clúster de vSAN con la desduplicación que provoca un error de host

    En un clúster de vSAN con la desduplicación habilitada, puede producirse un error en un host ESXi si las operaciones de E/S se dirigen a un disco que se encuentra en estado de pérdida de dispositivo permanente (PDL).

    El problema está resuelto en esta versión.

  • PR 2084723: Se puede producir un error en hostd si se elimina de un host ESXi la carpeta de paquetes de soporte de una máquina virtual

    Si se elimina manualmente de un host ESXi la carpeta de paquetes de soporte de una máquina virtual, descargada en el directorio /scratch/downloads del host, se puede producir un error en hostd cuando este intente eliminar automáticamente carpetas de esta ruta de acceso una hora después de su creación.

    El problema está resuelto en esta versión.

  • PR 2213917: Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado debido a una condición de carrera

    Aunque ya se haya expulsado la entrada de la memoria caché, es posible que se expulse nuevamente debido a una condición de carrera. Esto produce una desreferencia de puntero nulo en el host ESXi, lo que provoca un error en el host ESXi.

    El problema está resuelto en esta versión.

  • PR 2197789: El programador de NIOC puede restablecer el vínculo superior

    Es posible que el programador hclock de NIOC restablezca el dispositivo de red de vínculo superior cuando el vínculo superior se utiliza periódicamente, y que el restablecimiento no sea predecible.

    El problema está resuelto en esta versión.

  • PR 1863313: Aplicar un perfil de host con instalaciones con estado habilitadas en un host ESXi 6.5 mediante vSphere Auto Deploy puede producir un error

    Si se habilita la función de instalaciones con estado en un perfil de host, y la NIC de VMkernel de administración se conecta a un conmutador virtual distribuido, se puede producir un error al aplicar el perfil de host a otro host ESXi 6.5 mediante vSphere Auto Deploy durante un arranque PXE. El host permanece en modo de mantenimiento.

    El problema está resuelto en esta versión.

  • PR 2029579: El encendido y apagado continuos de una máquina virtual con vNIC SR-IOV mediante scripts pueden provocar un error en el host ESXi

    La ejecución del ciclo de energía de una máquina virtual con vNIC de SR-IOV mediante scripts puede provocar un error en el host ESXi con una pantalla de diagnóstico de color morado.

    El problema está resuelto en esta versión. Ejecute operaciones de ciclo de energía mediante vSphere Web Client o vSphere Client para evitar problemas similares.

  • PR 2139317: Se puede producir un error en el servicio de agente de host ESXi si una entidad ya no forma parte de la base de datos de estadísticas de un host ESXi

    Si una entidad, como una máquina virtual o un almacén de datos, ya no forma parte de la base de datos de estadísticas de un host ESXi, pero vim.PerformanceManager emite una solicitud de datos de rendimiento a esta entidad, es posible alcanzar una ruta de acceso de código con la que se produzca un error en el proceso del agente de host. Como resultado, el host puede dejar de estar disponible temporalmente para el sistema vCenter Server.

    El problema está resuelto en esta versión.

  • PR 2187136: Habilitar NetFlow puede provocar una alta latencia de red

    Si se habilita la herramienta de análisis de red NetFlow para tomar muestras de todos los paquetes en un grupo de puertos de vSphere Distributed Switch, al configurar la frecuencia de muestreo en 0, la latencia de red puede llegar a 1000 ms en caso de que se supere el millón de flujos.

    El problema está resuelto en esta versión. Puede optimizar más el rendimiento de NetFlow si configura el parámetro ipfixHashTableSize IPFIX como -p "ipfixHashTableSize=65536" -m ipfix a través de la CLI. Para completar la tarea, reinicie el host ESXi.

  • PR 2170126: Las máquinas virtuales proxy de copia de seguridad pueden entrar en estado no válido durante la copia de seguridad

    Una máquina virtual que realiza cientos de operaciones de adición o eliminación en caliente de discos sin apagarse ni migrarse puede finalizarse y dejar de ser válida. Esto afecta a las soluciones de copia de seguridad, donde la máquina virtual proxy de copia de seguridad puede ser finalizada.

    En el registro de hostd, es posible que vea contenido similar al siguiente:
    2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
    2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
    2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
    2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171

    En el registro de vmkernel, el contenido es similar al siguiente:
    2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
    2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size. Cannot expand.

    El problema está resuelto en esta versión.

  • PR 2155858: Es posible que no se pueda anular la configuración de afinidad exclusiva después de apagar una máquina virtual

    Al apagar la última máquina virtual de un host ESXi, si esta máquina virtual utiliza la configuración sysContexts, es posible que el programador no pueda eliminar la afinidad exclusiva establecida en la configuración sysContexts.

    El problema está resuelto en esta versión.

  • PR 2095984: El agente SNMP puede entregar un valor vmwVmPoweredOn de captura incorrecto

    El agente SNMP puede entregar un valor vmwVmPoweredOn de captura incorrecto cuando se selecciona una máquina virtual en la pestaña Resumen y en la pestaña Administrador de instantáneas de vSphere Web Client.

    El problema está resuelto en esta versión.

  • PR 2204507: Es posible que los gráficos de rendimiento avanzados dejen de dibujar gráficos para algunas estadísticas de máquina virtual después de un reinicio de hostd

    Es posible que los gráficos de rendimiento avanzados dejen de dibujar gráficos para algunas estadísticas de máquina virtual después de un reinicio de hostd debido a un error de división por cero en algunos contadores.

    El problema está resuelto en esta versión.

  • PR 2225439: Se puede producir un error en el agente NSX opsAgent cuando se implementa un dispositivo NSX-T en un host ESXi

    Se puede producir un error en el agente NSX opsAgent y se puede ver el archivo de volcado de núcleo ubicado en /var/core cuando se implementa un dispositivo NSX-T en un host ESXi. El error se produce por una condición de carrera en el código de la biblioteca que proporciona el host.

    El problema está resuelto en esta versión.

  • PR 2154912: VMware Tools puede mostrar un estado incorrecto si se configura el directorio /productLocker en un almacén de datos VMFS compartido

    Si se configura el directorio /productLocker en un almacén de datos VMFS compartido, cuando se migra una máquina virtual con vSphere vMotion, la instancia de VMware Tools en la máquina virtual puede mostrar incorrectamente el estado No compatible.

    El problema está resuelto en esta versión.

  • PR 2180890: Es posible que el comando MSINFO32 no muestre la memoria RAM física instalada en máquinas virtuales que ejecutan Windows 7 o Windows Server 2008 R2

    Es posible que el comando MSINFO32 no muestre la memoria RAM física instalada en máquinas virtuales que ejecutan Windows 7 o Windows Server 2008 R2. Si se asignan dos o más vCPU a una máquina virtual, el campo RAM física instalada muestra No disponible.

    El problema está resuelto en esta versión.

  • PR 2085546: La latencia de E/S en un clúster de vSAN puede aumentar cuando se producen operaciones de E/S superpuestas no alineadas

    En algunos casos, cuando se producen operaciones de E/S superpuestas no alineadas, es posible que el programador de confirmación del motor de confirmación de dos fases de la pila de vSAN no se ejecute de forma inmediata. Esta demora puede agregar latencia a las operaciones de E/S.

    El problema está resuelto en esta versión.

  • PR 2051108: La API de Readdir siempre devuelve EOF y, como resultado, los comandos listdir muestran un comportamiento inesperado

    La API de OSFS_Readdir rellena entradas de directorio limitadas según el tamaño de búfer proporcionado y siempre devuelve Sí como fin de archivo (End Of File, EOF). Es posible que deba llamar a FSSReadDir varias veces para leer todo el directorio.

    El problema está resuelto en esta versión.

  • PR 2164137: Se puede producir un error en los hosts ESXi de un clúster ampliado con vSAN durante la actualización a ESXi 6.5

    Al actualizar un clúster ampliado con vSAN de ESXi 6.0 a 6.5, se puede producir un error en un host con una pantalla de diagnóstico de color morado. El siguiente seguimiento de pila identifica este problema.

    #0 DOMUtil_HashFromUUID
    #1 DOMServer_GetServerIndexFromUUID
    #2 DOMOwnerGetRdtMuxGroupInt
    #3 DOMOwner_GetRdtMuxGroupUseNumServers
    #4 DOMAnchorObjectGetOwnerVersionAndRdtMuxGroup
    #5 DOMAnchorObjectCreateResolverAndSetMuxGroup
    #6 DOMObject_InitServerAssociation
    #7 DOMAnchorObjectInitAssociationToProxyOwnerStartTask
    #8 DOMOperationStartTask
    #9 DOMOperationDispatch
    #10 VSANServerExecuteOperation
    #11 VSANServerMainLoop

  • PR 2112683: vSAN no marca un disco como degradado aunque después se informe de operaciones de E/S con errores en el disco

    En algunos casos, vSAN tarda mucho tiempo en marcar un disco como degradado, aunque el disco informa de errores en operaciones de E/S y vSAN deja de procesar cualquier otra operación de E/S de dicho disco.

    El problema está resuelto en esta versión.

  • PR 1814870: Es posible que los ventiladores de los servidores Dell R730 aparezcan en el grupo de supervisión de estado de hardware incorrecto o no se muestren

    Los ventiladores de los servidores Dell R730 pueden no aparecer en la sección Ventilador de la pestaña Estado de hardware de vSphere Client o vSphere Web Client, pero sí en otras secciones, o no mostrarse en absoluto.

    El problema está resuelto en esta versión.

  • PR 2140766: El supervisor de capacidad de vSAN muestra una capacidad utilizada incorrecta

    Después de actualizar vCenter Server a 6.5 Update 2, el supervisor de capacidad de vSAN no incluye la capacidad para las máquinas virtuales implementadas en los hosts ESXi con versiones anteriores a 6.5 Update 2. Es posible que el supervisor muestre menos capacidad utilizada que la cantidad realmente utilizada en el clúster.

    El problema está resuelto en esta versión.

  • PR 2172723: El ancho de banda de E/S de invitado es bajo en un clúster de vSAN debido a la congestión de componente durante escrituras grandes

    En algunos casos, se produce una latencia más alta durante operaciones de escritura secuenciales muy grandes. Puede que note una disminución de las E/S por segundo al entrar en modo de mantenimiento.

    El problema está resuelto en esta versión.

  • PR 2073175: Es posible perder la conectividad con los almacenes de datos de NFS si se asigna a un nuevo almacén de datos el antiguo nombre de un almacén de datos existente

    Es posible perder la conectividad con los almacenes de datos de NFS si se asigna a un nuevo almacén de datos el antiguo nombre de un almacén de datos existente. Por ejemplo, si se cambia el nombre de un almacén de datos de NFS-01 a NFS-01-renamed y, a continuación, se crea un nuevo almacén de datos de NFS con el nombre NFS-01. Como resultado, el host ESXi pierde la conectividad con el almacén de datos de nombre cambiado y no puede montar el almacén nuevo.

    El problema está resuelto en esta versión.

  • PR 2079002: No se pueden establecer nombres de host de IPv6 en modo IPv6 puro si se deshabilita IPv4

    Si se deshabilita IPv4 en un host ESXi, es posible que no se puedan establecer los nombres de host de IPv6, ya que el sistema requiere una dirección IPv4.

    El problema está resuelto en esta versión. Si IPv4 e IPv6 se habilitan en un host, los nombres de host de IPv4 tienen prioridad.

  • PR 2192629: La cantidad de archivos de almacenamiento syslog.log que se generen puede ser menor que la cantidad predeterminada configurada y diferente entre las versiones de ESXi 6.0 y 6.5

    La cantidad de archivos de almacenamiento syslog.log que se generen puede ser menor que el valor predeterminado configurado mediante el parámetro syslog.global.defaultRotate. Además, la cantidad de archivos de almacenamiento syslog.log puede ser diferente entre las versiones 6.0 y 6.5 de ESXi. Por ejemplo, si syslog.global.defaultRotate se configura en 8 de forma predeterminada, ESXi 6.0 crea syslog.0.gz en syslog.7.gz, mientras que ESXi 6.5 crea syslog.0.gz en syslog.6.gz.

    El problema está resuelto en esta versión.

  • PR 2150648: El reequilibrio no puede liberar espacio de un disco desequilibrado si todos los componentes se encuentran en un nodo de concatenación

    Cuando se expande un objeto, se agrega una concatenación a las réplicas para admitir el requisito de aumento de tamaño. Durante cierto período, como vSAN crea nuevas réplicas para incluir la concatenación, la concatenación y las réplicas originales se descartan. Como vSAN combina la concatenación y las réplicas originales en una réplica nueva, se puede producir un error en la operación si vSAN no tiene espacio suficiente para colocar los componentes nuevos. Si el disco queda desequilibrado y todos los componentes en el disco se encuentran en los nodos de concatenación, la operación de reequilibrio no puede mover ningún componente para equilibrar el disco.

    El problema está resuelto en esta versión.

  • PR 2039320: Se produce un error en la expansión de VMDK en el clúster ampliado de vSAN si la directiva de almacenamiento establece la ubicación de los datos en Preferida o Secundaria

    No se puede expandir un VMDK mientras se cambia también la directiva de almacenamiento del VMDK, pero aún así se puede producir un error en la expansión sin ningún cambio en la directiva de almacenamiento si la directiva existente ha establecido la regla de ubicación de los datos.

    El problema está resuelto en esta versión.

  • PR 2158561: No se puede utilizar la función VMware DirectPath I/O en las máquinas virtuales que se ejecutan en un host basado en AMD

    Es posible que no se calcule correctamente el límite superior de Generación de informes de rango de memoria reservada para las máquinas virtuales que se ejecutan en hosts basados en AMD. Esto puede evitar que se enciendan las máquinas virtuales donde se utiliza la función de VMware DirectPath I/O.

    El problema está resuelto en esta versión.

  • PR 2180962: Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado si una llamada en el complemento de múltiples rutas nativo (Native Multipathing Plug-In, NMP) intenta desbloquear un bloqueo ya liberado

    Un error en la ruta de código de colocación en modo inactivo de un dispositivo de NMP puede hacer que las llamadas desbloqueen un bloqueo ya liberado, lo que puede generar un error en un host ESXi con una pantalla de diagnóstico de color morado.

    El problema está resuelto en esta versión.

  • PR 2156840: Las máquinas virtuales que usan EFI y ejecutan Windows Server 2016 en procesadores AMD pueden dejar de responder durante el reinicio

    Las máquinas virtuales con hardware versión 10 o posterior que usan EFI y ejecutan Windows Server 2016 en procesadores AMD pueden dejar de responder durante el reinicio. El problema no ocurre si una máquina virtual utiliza el BIOS, la versión de hardware es 11 o posterior, el sistema operativo invitado no es Windows o los procesadores son Intel.

    El problema está resuelto en esta versión.

  • PR 2204028: Se puede producir un error en un host ESXi después de que se intenta repetidamente volver a registrar el dispositivo de caracteres con el mismo nombre

    Si se intenta volver a registrar un dispositivo de caracteres con el mismo nombre, es posible que se muestre una advertencia similar a la siguiente:
    2018-09-14T04:49:27.441Z cpu33:4986380)WARNING: CharDriver: 291: El controlador con el nombre XXXX ya utiliza la ranura XX
    No se libera la memoria de pila necesaria para registrar el dispositivo para un intento de duplicado. Esto provoca una fuga de memoria y, con el tiempo, se puede producir un error en el host con una pantalla de diagnóstico de color morado.

    El problema está resuelto en esta versión.

  • PR 1847663: Es posible que el módulo SATP de NMP no pueda obtener los parámetros modificados durante la carga

    Al cargar el módulo SATP de NMP después de un reinicio del sistema, es posible que el método vmk_ModuleLoad() no pueda leer los parámetros específicos del módulo modificado. Este problema afecta principalmente a los controladores de terceros.

    El problema está resuelto en esta versión.

  • PR 2031499: El reequilibrio de discos no funciona según lo esperado en un clúster ampliado si el uso de discos entre sitios es desigual

    vSAN utiliza el valor de disco lleno de todos los discos en el clúster para calcular el valor de disco lleno promedio. Este valor se usa durante la operación de reequilibrio para garantizar que la transferencia de datos no provoque un desequilibrio en el disco de destino. Si tiene un clúster ampliado de vSAN, el uso de almacenamiento puede ser diferente entre los sitios. En esos casos, es posible que el reequilibrio no funcione según lo esperado si el valor de disco lleno promedio en un sitio es mayor que en el otro sitio.

    El problema está resuelto en esta versión.

  • PR 2128759: Un directorio de la máquina virtual permanece en el entorno de NSX-T después de eliminar la máquina virtual

    Cuando se elimina una máquina virtual, el directorio de la máquina virtual puede permanecer en el entorno de NSX-T debido a que los archivos del puerto en la carpeta .dvsData se eliminan en el orden incorrecto.

    El problema está resuelto en esta versión.

  • PR 2187127: El rendimiento de un entorno de VXLAN puede degradarse si IPFIX tiene una frecuencia de muestreo alta y el tráfico es intenso

    Al habilitar IPFIX con una frecuencia de muestreo alta y un tráfico intenso, se puede observar una degradación del rendimiento de un entorno de VXLAN.

    El problema está resuelto en esta versión. Utilice frecuencias de muestreo más bajas para optimizar el rendimiento.

  • PR 2139131: Un host ESXi puede generar un error con una pantalla de diagnóstico de color morado al apagarse

    Un host ESXi puede generar un error con una pantalla de diagnóstico de color morado debido a una condición de carrera en una consulta de Multicast Listener Discovery (MLD) versión 1 en entornos IPv6. Es posible que se muestre un mensaje de error similar al siguiente:

    #PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
    ...
    0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
    0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
    0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
    0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000

    El problema está resuelto en esta versión.

  • PR 2133634: Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante la migración de máquinas virtuales agrupadas en clúster mediante vSphere vMotion

    Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante la migración de máquinas virtuales agrupadas en clúster mediante vSphere vMotion. Este problema afecta a las máquinas virtuales en clústeres que contienen discos no RDM compartidos, como VMDK o vSphere Virtual Volumes, en un modo de uso compartido de bus físico. 

    El problema está resuelto en esta versión.

ESXi650-201811402-BG
Categoría de revisión Corrección de error
Gravedad de la revisión Importante
Reinicio de host requerido
Migración de máquina virtual o apagado requeridos No
Hardware afectado N/C
Software afectado N/C
VIB que se incluyen
  • VMW_bootbank_ne1000_0.8.3-8vmw.650.2.75.10884925
PR corregidas  N/C
Números CVE N/C

Esta revisión actualiza el VIB ne1000.

    ESXi650-201811403-BG
    Categoría de revisión Corrección de error
    Gravedad de la revisión Importante
    Reinicio de host requerido
    Migración de máquina virtual o apagado requeridos
    Hardware afectado N/C
    Software afectado N/C
    VIB que se incluyen
    • VMW_bootbank_vmkusb_0.1-1vmw.650.2.75.10884925
    PR corregidas  N/C
    Números CVE N/C

    Esta revisión actualiza el VIB vmkusb.

      ESXi650-201811404-BG
      Categoría de revisión Corrección de error
      Gravedad de la revisión Crítico
      Reinicio de host requerido No
      Migración de máquina virtual o apagado requeridos No
      Hardware afectado N/C
      Software afectado N/C
      VIB que se incluyen
      • VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-11vmw.650.2.75.10884925
      PR fijadas  2096875
      Números CVE N/C

      Esta revisión actualiza el VIB lsu-lsi-lsi-mr3-plugin para resolver el siguiente problema:

      • PR 2096875: Los hosts ESXi y hostd pueden dejar de responder debido a un problema de asignación de memoria en lsu-lsi-lsi-mr3-plugin

        Los hosts ESXi y hostd pueden dejar de responder debido a un problema de asignación de memoria en el complemento de capacidad de servicio de disco de vSAN lsu-lsi-lsi-mr3-plugin. Se pueden mostrar los mensajes de error Sin memoria o Error de clonación de subproceso.

        El problema está resuelto en esta versión.

      ESXi650-201811405-BG
      Categoría de revisión Corrección de error
      Gravedad de la revisión Importante
      Reinicio de host requerido
      Migración de máquina virtual o apagado requeridos
      Hardware afectado N/C
      Software afectado N/C
      VIB que se incluyen
      • VMW_bootbank_ntg3_4.1.3.2-1vmw.650.2.75.10884925
      PR fijadas  2151342
      Números CVE N/C

      Esta revisión actualiza el VIB ntg3 para resolver el siguiente problema:

      • PR 2151342: Los paquetes que superan la capacidad máxima pueden hacer que las NIC que utilizan el controlador ntg3 detengan temporalmente el envío de paquetes

        En casos poco frecuentes, las NIC que utilizan el controlador ntg3, como las NIC Broadcom BCM5719 y 5720 GbE, pueden detener temporalmente el envío de paquetes después de un intento fallido de enviar un paquete que supera la capacidad máxima. El controlador ntg3 versión 4.1.3.2 resuelve este problema.

        El problema está resuelto en esta versión.

      ESXi650-201811406-BG
      Categoría de revisión Corrección de error
      Gravedad de la revisión Moderado
      Reinicio de host requerido No
      Migración de máquina virtual o apagado requeridos No
      Hardware afectado N/C
      Software afectado N/C
      VIB que se incluyen
      • VMware_bootbank_lsu-hp-hpsa-plugin_2.0.0-7vmw.650.2.75.10884925
      PR fijadas  2064111
      Números CVE N/C

      Esta revisión actualiza el VIB lsu-hp-hpsa-plugin para resolver el siguiente problema:

      • PR 2064111: Es posible que VMware vSAN con controladoras de matriz inteligente HPE ProLiant Gen9 no encienda los LED de localización en el disco correcto

        En un clúster de vSAN con controladoras de matriz inteligente HPE ProLiant Gen9, como P440 y P840, es posible que no se enciendan los LED de localización en el dispositivo con errores correcto.

        El problema está resuelto en esta versión.

      ESXi650-201811101-SG
      Categoría de revisión Seguridad
      Gravedad de la revisión Crítico
      Reinicio de host requerido
      Migración de máquina virtual o apagado requeridos
      Hardware afectado N/C
      Software afectado N/C
      VIB que se incluyen
      • VMware_bootbank_esx-base_6.5.0-2.71.10868328
      • VMware_bootbank_vsan_6.5.0-2.71.10652415
      • VMware_bootbank_vsanhealth_6.5.0-2.71.10652417
      • VMware_bootbank_esx-tboot_6.5.0-2.71.10868328
      PR fijadas  2094558, 2169094, 2020984, 2025909, 2109023, 2189347, 2154394
      Números CVE N/C

      Esta revisión actualiza los VIB esx-base, esx-tboot, vsan y vsanhealth para resolver el siguiente problema:

      • ESXi ya no incluye la imagen ISO de Windows anterior a Vista para VMware Tools. La imagen ISO de Windows anterior a Vista está disponible para que la descarguen los usuarios que lo requieran. Para obtener información sobre la descarga, consulte la página Descarga de productos.

      • Actualice el daemon de NTP a 4.2.8p12

        El daemon de NTP se actualiza a 4.2.8p12.

      • PR 2154394: Se puede producir un error en la instancia cifrada de vSphere vMotion debido a un espacio insuficiente en la pila de migración

        Para máquinas virtuales grandes, se puede producir un error en la instancia cifrada de vSphere vMotion debido a un espacio insuficiente en la pila de migración.

        El problema está resuelto en esta versión.

      • Actualización del paquete de Python

        El paquete de Python se actualizó a la versión 3.5.5.

      • Actualización de la biblioteca libxml2

        La biblioteca userworld libxml2 de ESXi se actualizó a la versión 2.9.8.

      • Actualización del paquete de OpenSSL

        El paquete de OpenSSL se actualizó a la versión 1.0.2p.

      • Actualización del paquete de OpenSSH

        El paquete de OpenSSH se actualizó a la versión 7.7p1.

      ESXi650-201811102-SG
      Categoría de revisión Seguridad
      Gravedad de la revisión Importante
      Reinicio de host requerido
      Migración de máquina virtual o apagado requeridos
      Hardware afectado N/C
      Software afectado N/C
      VIB que se incluyen
      • VMware_bootbank_esx-ui_1.31.0-10201673
      PR corregidas  N/C
      Números CVE N/C

      Esta revisión actualiza el VIB esxi-ui.

        ESXi650-201811103-SG
        Categoría de revisión Seguridad
        Gravedad de la revisión Moderado
        Reinicio de host requerido No
        Migración de máquina virtual o apagado requeridos No
        Hardware afectado N/C
        Software afectado N/C
        VIB que se incluyen
        • VMware_locker_tools-light_6.5.0-2.71.10868328
        PR corregidas  N/C
        Números CVE N/C

        Esta revisión actualiza el VIB tools-light.

          ESXi-6.5.0-20181104001-standard
          Nombre del perfil ESXi-6.5.0-20181104001-standard
          Compilación Para obtener información de compilación, consulte la parte superior de la página.
          Proveedor VMware, Inc.
          Fecha de versión 29 de noviembre de 2018
          Nivel de aceptación PartnerSupported
          Hardware afectado N/C
          Software afectado N/C
          VIB afectados
          • VMware_bootbank_esx-base_6.5.0-2.75.10884925
          • VMware_bootbank_esx-tboot_6.5.0-2.75.10884925
          • VMware_bootbank_vsan_6.5.0-2.75.10884926
          • VMware_bootbank_vsanhealth_6.5.0-2.75.10884927
          • VMW_bootbank_ne1000_0.8.3-8vmw.650.2.75.10884925
          • VMW_bootbank_vmkusb_0.1-1vmw.650.2.75.10884925
          • VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-11vmw.650.2.75.10884925
          • VMW_bootbank_ntg3_4.1.3.2-1vmw.650.2.75.10884925
          • VMware_bootbank_lsu-hp-hpsa-plugin_2.0.0-7vmw.650.2.75.10884925
          PR fijadas

          1847663, 1863313, 1894568, 1949789, 2021943, 2022147, 2029579, 2037849, 2037926, 2057600, 2063154, 2071506, 2071610, 2071817, 2072971, 2073175, 2078843, 2079002, 2083594, 2083627, 2084723, 2088951, 2089048, 2096942, 2097358, 2098928, 2102135, 2102137, 2107335, 2113432, 2119609, 2122259, 2122523, 2128932, 2130371, 2133589, 2136002, 2139317, 2139940, 2142767, 2144766, 2152381, 2153867, 2154912, 2187127, 2128759, 2187136, 2155840, 2155858, 2156840, 2157503, 2158561, 2164733, 2167294, 2167877, 2170126, 2171799, 2173856, 2179262, 2180962, 2182211, 2186065, 2191349, 2192629, 2192836, 2193829, 2194304, 2197789, 2203385, 2203836, 2204024, 2204028, 2204507, 2209900, 2209919, 2211285, 2211639, 2213917, 2225439, 2225471, 2096875, 2151342, 2064111

          Números de CVE relacionados N/C
          • Esta revisión actualiza los siguientes problemas:
            • Se puede producir un error en la actualización a ESXi 6.5 y versiones posteriores mediante vSphere Update Manager debido a un problema con la biblioteca de código abierto libparted. Es posible que se muestre el siguiente seguimiento inverso:

              [root@hidrogenio07:~] partedUtil getptbl /vmfs/devices/disks/naa.60000970000592600166533031453135
              El seguimiento inverso tiene 12 llamadas en la pila:
              12: /lib/libparted.so.0(ped_assert+0x2a) [0x9e524ea]
              11: /lib/libparted.so.0(ped_geometry_read+0x117) [0x9e5be77]
              10: /lib/libparted.so.0(ped_geometry_read_alloc+0x75) [0x9e5bf45]
              9: /lib/libparted.so.0(nilfs2_probe+0xb5) [0x9e82fe5]
              8: /lib/libparted.so.0(ped_file_system_probe_specific+0x5e) [0x9e53efe]
              7: /lib/libparted.so.0(ped_file_system_probe+0x69) [0x9e54009]
              6: /lib/libparted.so.0(+0x4a064) [0x9e8f064]
              5: /lib/libparted.so.0(ped_disk_new+0x67) [0x9e5a407]
              4: partedUtil() [0x804b309]
              3: partedUtil(main+0x79e) [0x8049e6e]
              2: /lib/libc.so.6(__libc_start_main+0xe7) [0x9edbb67]
              1: partedUtil() [0x804ab4d] Aborted

            • Puede que las matrices SolidFire no tengan un rendimiento óptimo sin la reconfiguración de las reglas de notificación de SATP.

            • Las reglas de notificación deben agregarse manualmente a ESXi para los siguientes modelos de matrices de almacenamiento DELL MD: MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf y MD38xxi. 

            • Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante el apagado o la desconexión de una máquina virtual si se utiliza EMC RecoverPoint debido a una condición de carrera en la herramienta de filtro de vSCSI.

            • Durante una actualización sin interrupciones, es posible que algunas rutas de acceso tengan un estado de pérdida de dispositivo permanente (Permanent Device Loss, PDL). Dichas rutas de acceso permanecen no disponibles incluso después de la actualización. Por ello, el dispositivo puede perder la conectividad.

            • Se puede producir un error en los hosts ESXi con una pantalla de diagnóstico de color morado al quitar una página de la memoria caché de páginas debido a una estructura de datos dañada. Es posible que se muestre el siguiente seguimiento inverso:

              2018-01-01T04:02:47.859Z cpu13:33232)Backtrace for current CPU #13, worldID=33232, rbp=0xd
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b720:[0x41800501883b]PageCacheRemoveFirstPageLocked@vmkernel#nover+0x2f stack: 0x4305dd30
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b740:[0x418005019144]PageCacheAdjustSize@vmkernel#nover+0x260 stack: 0x0, 0x3cb418317a909
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81bfd0:[0x41800521746e]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0, 0x0, 0x0, 0x0, 0
              2018-01-01T04:02:47.877Z cpu13:33232)^[[45m^[[33;1mVMware ESXi 6.0.0 [Releasebuild-6921384 x86_64]^[[0m
              #GP Exception 13 in world 33232:memMap-13 @ 0x41800501883b

            • Las reglas de notificación deben agregarse manualmente al host ESXi para las matrices de almacenamiento HITACHI OPEN-v. 

            • Si se agregan manualmente ajustes a la configuración de NTP, es posible que estos se eliminen del archivo ntp.conf si se actualiza NTP mediante vSphere Web Client. Las actualizaciones de NTP conservan todos los ajustes junto con las opciones de restricción, driftfile y los servidores agregados de forma manual al archivo ntp.conf. Si se modifica de forma manual el archivo ntp.conf, es necesario reiniciar hostd para propagar las actualizaciones.

            • Los tickets obsoletos, los cuales no se eliminan antes de que hostd genere un nuevo ticket, pueden agotar los nodos de los discos de memoria RAM. Esto puede provocar que los hosts ESXi dejen de responder.

            • Es posible que no se pueda utilizar un dispositivo USB conectado como acceso directo para migrar máquinas virtuales si se utiliza vSphere vMotion debido a una comprobación de condición redundante.

            • Si una máquina virtual forma parte de una instantánea VMFSsparse, es posible que las operaciones de E/S enviadas a la máquina virtual se procesen solo parcialmente en el nivel de VMFSsparse, pero que las capas superiores, como los filtros de E/S, supongan que la transferencia se realizó correctamente. Esto puede producir una inconsistencia de datos.

            • Puede que los hosts ESXi no reflejen el parámetro MAXIMUM TRANSFER LENGTH del que informa el dispositivo SCSI en la página VPD de límites de bloque. Por lo tanto, los comandos de E/S emitidos con un tamaño de transferencia mayor al límite pueden producir un error con un registro similar:

              2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.

            • Es posible que la utilidad de línea de comandos esxtop no muestre un valor actualizado de profundidad de cola de dispositivos si se cambia la profundidad de cola de la ruta de acceso del dispositivo correspondiente.

            • Si se intenta realizar un arranque PXE en una máquina virtual donde se utiliza firmware EFI con un adaptador de red vmxnet3 y WDS, y no se deshabilitó la opción de extensión de ventanas variables en WDS, la máquina virtual puede arrancar demasiado lento.

            • Debido a problemas de USB de Apple, los dispositivos con una versión de iOS posterior a iOS 11 no se pueden conectar a máquinas virtuales con una versión de OS X posterior a OS X 10.12.

            • Es posible que los identificadores para enviar datos de vmware.log a Syslog, definidos con vmx.log.syslogID, no funcionen según lo esperado debido a que se omite la cadena especificada en la variable.

            • Se puede producir un error de forma intermitente en los hosts ESXi si se deshabilitan las direcciones IPv6 globales debido a que una ruta de acceso de código todavía utiliza IPv6.

            • En situaciones excepcionales, cuando se realiza una solicitud HTTP durante la inicialización de hostd, se puede producir un error en el agente.

            • Se puede producir un error en hostd cuando existen ciertos parámetros no válidos en el archivo .vmx de una máquina virtual. Por ejemplo, cuando se agrega manualmente un parámetro como ideX:Y.present con un valor True al archivo .vmx.

            • Cuando existen hosts de diferentes versiones de ESXi en un clúster de máquinas virtuales Linux, y el nivel de Enhanced vMotion Compatibility (EVC) se establece en L0 o L1 para procesadores Merom y Penryn, es posible que las máquinas virtuales dejen de responder si se intenta la migración mediante vSphere vMotion de un host ESXi 6.0 a un host con una versión más reciente de ESXi.

            • Un host ESXi puede dejar de responder si los latidos del almacén de datos se detienen prematuramente al cerrar VMware vSphere VMFS6. Por lo tanto, el administrador de afinidad no puede cerrarse correctamente.

            • Las reglas de notificación deben agregarse manualmente a ESXi para las matrices de almacenamiento Tegile IntelliFlash.

            • Se pueden generar estos dos eventos VOB debido a variaciones en la latencia de E/S en una matriz de almacenamiento, pero no se informa ningún problema real en las máquinas virtuales:

              1. Se deterioró el rendimiento del dispositivo naa.xxx. La latencia de E/S aumentó del valor promedio de 4114 microsegundos a 84518 microsegundos.
              2. El rendimiento del dispositivo naa.xxx mejoró. La latencia de E/S se redujo de 346115 microsegundos a 67046 microsegundos.
            • Si se utiliza vSphere vMotion para migrar una máquina virtual con filtros de dispositivos de archivos de un almacén de datos de vSphere Virtual Volumes a otro host, y en la máquina virtual se encuentran habilitados el seguimiento de bloques modificados (Changed Block Tracking, CBT), VMware vSphere Flash Read Cache (VFRC) o los filtros de E/S, la migración puede causar problemas con cualquiera de esas funciones. Durante la migración, los filtros de dispositivos de archivos pueden no transferirse correctamente al host. Por lo tanto, es posible que se observen copias de seguridad incrementales dañadas en CBT, una degradación de rendimiento en VFRC y los filtros de E/S de la memoria caché, así como daños en los filtros de E/S de replicación y el disco, cuando los filtros de E/S de la memoria caché se configuran en modo de reescritura. También se pueden observar problemas con el cifrado de la máquina virtual.

            • Si utiliza un proveedor de VMware vSphere API for Storage Awareness, es posible que se muestren varias llamadas getTaskUpdate a tareas canceladas o eliminadas. Por lo tanto, es posible que se observe un mayor uso de ancho de banda de vSphere API for Storage Awareness y un desborde del registro.

            • vSphere Virtual Volumes puede dejar de responder debido a un bucle infinito que carga las CPU al 100 % si un proveedor de vSphere API for Storage Awareness pierde la información de enlace de su base de datos. Hostd también puede dejar de responder. Se puede mostrar un mensaje de error irrecuperable. Esta solución impide los bucles infinitos en caso de errores de enlace de la base de datos.

            • Si el grupo de recursos de registro de un host ESXi se esfuerza debido a un registro excesivo, hostd puede dejar de responder mientras se ejecutan los comandos esxcfg-syslog. Como esta solución mueve los comandos relacionados con esxcfg-syslog del grupo de recursos de registro a ESXi Shell, es posible observar un mayor uso de memoria en el grupo de recursos de shell predeterminado.

            • Los sensores de IPMI deshabilitados o los que no informan de ningún dato pueden generar alarmas de estado de hardware falsas.

            • Si se elimina del registro un proveedor de vSphere API for Storage Awareness en un estado desconectado, puede que aparezca el error java.lang.NullPointerException. Los administradores de eventos y alarmas no se inicializan cuando un proveedor está en un estado desconectado, lo que provoca el error.

            • Un almacén de datos VMFS6 puede indicar de forma incorrecta que se agotó el espacio debido a entradas de memoria caché obsoletas.

            • Si una máquina virtual tiene instantáneas creadas con CBRC y luego se deshabilita CBRC, se puede producir el error Un parámetro especificado no era correcto: spec.deviceChange.device en operaciones de consolidación de discos debido a la eliminación de un archivo de resumen después de deshabilitar CBRC. Se muestra una alerta Se necesitan consolidar los discos de la máquina virtual hasta que se resuelve el problema.

            • OMIVV depende de la información de la propiedad de iDRAC hardware.systemInfo.otherIdentifyingInfo.ServiceTag para recuperar el parámetro SerialNumber e identificar algunos servidores modulares de Dell. Una falta de coincidencia en la propiedad serviceTag puede producir un error en esta integración.

            • Anteriormente, si no se encontraba un componente como un procesador o un ventilador en un sistema vCenter Server, los sensores de presencia mostraban el estado Desconocido. Sin embargo, los sensores de presencia no tienen un estado asociado.

            • Si el destino conectado a un host ESXi admite solo ALUA implícita y tiene rutas de acceso solo en espera, se puede producir un error en el host con una pantalla de diagnóstico de color morado al detectar el dispositivo debido a una condición de carrera. Es posible que se muestre un seguimiento inverso similar al siguiente:

              SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
              0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
              0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
              0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807

            • Si un host ESXi no tiene ninguna imagen ISO de VMware Tools disponible y se intenta actualizar VMware Tools en una máquina virtual activa, se puede producir un error en la operación con el código VIX 21000. Es posible que no pueda actualizar VMware Tools mediante la API, vSphere Client o vSphere Web Client, incluso después de obtener una imagen ISO disponible. Esto se debe a que el host ESXi almacena en caché la primera comprobación de disponibilidad durante el encendido de la máquina virtual y no la actualiza.

            • Los registros del servicio de hostd y Syslog pueden recopilar registros de excepción de depuración innecesarios de todos los hosts ESXi en un clúster.

              En el registro de hostd, los mensajes son similares a lo siguiente:
              No match, sensor_health file missing sensorNumer 217: class 3 sensor type 35 offset 0

              En Syslog, /etc/sfcb/omc/sensor_health, los mensajes son similares a lo siguiente:
              Missing expected value to check for

            • En una configuración de ESXi con varias rutas a los LUN detrás de los destinos de IBM SVC, en caso de pérdida de conexión en rutas activas y si, al mismo tiempo, otras rutas de acceso conectadas no están en un estado que les permita prestar servicios de E/S, puede que el host ESXi no detecte esta condición como APD, incluso si no hay ninguna ruta disponible para prestar servicios de E/S. Por lo tanto, no se producen errores rápidos en las operaciones de E/S en el dispositivo.

            • Si se personalizan los tamaños de anillo Rx y Tx de NIC físicas para mejorar el rendimiento de red mediante los siguientes comandos:
              esxcli network nic ring current set -n <vmnicX> -t <value>
              esxcli network nic ring current set -n <vmnicX> -r <value>
              es posible que la configuración no sea persistente en todos los reinicios del host ESXi.

            • Si se agota el tiempo de espera de una gran cantidad de operaciones de E/S en un sistema de carga pesada, se puede producir un bloqueo flexible de CPU físicas. Como resultado, se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado.

            • Es posible que observe un bajo rendimiento de las operaciones de larga distancia de vSphere vMotion con alta latencia (como 100 ms o más) y vínculos de red de alta velocidad (como 10 GbE) debido al límite de búfer de socket codificado de forma rígida de 16 MB. Con esta solución, puede configurar el parámetro de tamaño de búfer de socket máximo SB_MAX_ADJ.

            • Debido a una condición de carrera, se puede producir un error en el proceso ejecutable de máquinas virtuales y se pueden apagar las máquinas virtuales durante un reinicio del sistema operativo invitado.

            • Se pueden mostrar varios mensajes como sfcb-vmware_raw[69194]: IpmiIfcFruGetInv: Failed during send cc = 0xc9 en syslog.log. Estos son registros de información normales, no son registros de error o advertencia.

            • Después de que se toma una instantánea de una máquina virtual Linux colocada correctamente en modo inactivo, el administrador de instantáneas puede indicar que la instantánea no se encuentra en modo inactivo.

            • En las compilaciones de versión, smartd puede generar una gran cantidad de mensajes de depuración y de información en los registros del servicio Syslog.

            • Los comandos no válidos en un CD-ROM virtual SATA pueden activar errores y aumentar el uso de memoria de las máquinas virtuales. Esto puede desencadenar un error en las máquinas virtuales si no pueden asignar memoria.
              Se pueden mostrar los siguientes registros para los comandos no válidos:
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command 
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.

              Y un mensaje de detención similar al siguiente:
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure

            • Cuando se selecciona la columna Ubicación física de la tabla Administración de discos en el panel de control de configuración del clúster de vSphere Web Client, la columna puede permanecer vacía y mostrar solamente información sobre el controlador hpsa.

            • Algunos parámetros de los dispositivos flash críticos, incluidos la temperatura y el conteo de sectores reasignados, no proporcionan valores de umbral. Como resultado, el daemon smartd del host ESXi puede informar de algunas advertencias.

            • El servicio de hostd puede dejar de responder mientras el proceso externo esxcfg-syslog permanece atascado. Como resultado, el host ESXi puede dejar de responder.

            • Al habilitar IPFIX con un tráfico intenso de diferentes flujos, el latido del sistema puede no reemplazar la CPU de IPFIX durante un largo período y activar una pantalla de diagnóstico de color morado.

            • De forma predeterminada, la función Respuesta de aislamiento de un host ESXi con vSphere HA habilitado se encuentra deshabilitada. Cuando se habilita la función Respuesta de aislamiento, es posible que un puerto de máquina virtual conectado a un conmutador lógico NSX-T se bloquee después de una conmutación por error de vSphere HA.

            • Si se deshabilitan vSphere Network I/O Control y el emparejamiento de colas de NIC, es posible que vea paquetes que no concuerdan con el tráfico de infraestructura, como administración, iSCSI y NFS. Esto se debe a que, cuando no se habilita vSphere Network I/O Control, se deshabilita el emparejamiento de colas y las NIC trabajan con varias colas.

            • Las unidades que no admiten la página VPD de límites de bloque 0xb0 pueden generar registros de códigos de eventos que saturan el archivo vmkernel.log.

            • Cuando se replican máquinas virtuales mediante VMware vSphere Replication, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color morado inmediatamente o en las siguientes 24 horas, y se puede mostrar el siguiente mensaje: PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc.

            • Es posible que las máquinas virtuales dejen de responder debido a errores repetitivos en algunos controladores de dispositivos de terceros para procesar comandos. Se puede mostrar el siguiente error al abrir la consola de máquina virtual:

              Error: "No se puede conectar al MKS: No se pudo conectar a la canalización \\.\pipe\vmware-authdpipe en el período de reintentos" 

            • Si el servicio de introspección de invitado en un entorno de vSphere 6.5 con más de 150 máquinas virtuales se encuentra activado, se puede producir un error en la migración de máquinas virtuales mediante vSphere vMotion en vSphere Web Client con un mensaje similar al siguiente:

              El origen detectó un error en la reanudación del destino.

              El vmware.log de destino contiene mensajes de error similares a los siguientes:
              2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transición de estado 11 a 12.
              2018-07-18T02:41:32.035Z| vmx| I125: Migrar: Lista de mensajes de error de almacenamiento en caché de la migración:
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] No se pudo recibir la migración.
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Versión incompatible de -1 (se espera 2).
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] Se produjo un error al restaurar el estado de la máquina virtual durante la migración.

              El registro de VMkernel tiene mensajes de error como los siguientes:
              2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
              2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3

            • Si se configura un almacén de datos de NFS como un almacén de datos de Syslog y un host ESXi se desconecta de él, se detiene el registro en el almacén de datos y el host ESXi puede dejar de responder.

            • Esta solución configura SATP como VMW_SATP_ALUA, PSP como VMW_PSP_RR y las opciones de notificación como tpgs_on de forma predeterminada para las matrices de almacenamiento serie Lenovo DE.

            • En un clúster de vSAN con la desduplicación habilitada, las operaciones de E/S destinadas a un disco de capacidad pueden ser redirigidas a otro disco. El nuevo dispositivo de destino puede sufrir una pérdida de dispositivo permanente (Permanent Device Loss, PDL). Si llegan solicitudes de E/S al disco con errores durante este intervalo, se puede producir un error en el host con una pantalla de diagnóstico de color morado.

            • Si se elimina manualmente de un host ESXi la carpeta de paquetes de soporte de una máquina virtual, descargada en el directorio /scratch/downloads del host, se puede producir un error en hostd cuando este intente eliminar automáticamente carpetas de esta ruta de acceso una hora después de su creación.

            • Aunque ya se haya expulsado la entrada de la memoria caché, es posible que se expulse nuevamente debido a una condición de carrera. Esto produce una desreferencia de puntero nulo en el host ESXi, lo que provoca un error en el host ESXi.

            • Durante la migración o la actualización a vCenter Server Appliance 6.5, algunos tamaños de implementación no están disponibles para su selección en la tabla de información si el tamaño requerido de vCenter Server Appliance es mayor que el umbral para dicho tamaño de implementación.

            • Es posible que el programador hclock de NIOC restablezca el dispositivo de red de vínculo superior cuando el vínculo superior se utiliza periódicamente, y que el restablecimiento no sea predecible.

            • Si se habilita la función de instalaciones con estado en un perfil de host, y la NIC de VMkernel de administración se conecta a un conmutador virtual distribuido, se puede producir un error al aplicar el perfil de host a otro host ESXi 6.5 mediante vSphere Auto Deploy durante un arranque PXE. El host permanece en modo de mantenimiento.

            • La ejecución del ciclo de energía de una máquina virtual con vNIC de SR-IOV mediante scripts puede provocar un error en el host ESXi con una pantalla de diagnóstico de color morado.

            • Si una entidad, como una máquina virtual o un almacén de datos, ya no forma parte de la base de datos de estadísticas de un host ESXi, pero vim.PerformanceManager emite una solicitud de datos de rendimiento a esta entidad, es posible alcanzar una ruta de acceso de código con la que se produzca un error en el proceso del agente de host. Como resultado, el host puede dejar de estar disponible temporalmente para el sistema vCenter Server.

            • Si se habilita la herramienta de análisis de red NetFlow para tomar muestras de todos los paquetes en un grupo de puertos de vSphere Distributed Switch, al configurar la frecuencia de muestreo en 0, la latencia de red puede llegar a 1000 ms en caso de que se supere el millón de flujos.

            • Una máquina virtual que realiza cientos de operaciones de adición o eliminación en caliente de discos sin apagarse ni migrarse puede finalizarse y dejar de ser válida. Esto afecta a las soluciones de copia de seguridad, donde la máquina virtual proxy de copia de seguridad puede ser finalizada.

              En el registro de hostd, es posible que vea contenido similar al siguiente:
              2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
              2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
              2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
              2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171

              En el registro de vmkernel, el contenido es similar al siguiente:
              2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
              2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size. Cannot expand.

            • Al apagar la última máquina virtual de un host ESXi, si esta máquina virtual utiliza la configuración sysContexts, es posible que el programador no pueda eliminar la afinidad exclusiva establecida en la configuración sysContexts.

            • El agente SNMP puede entregar un valor vmwVmPoweredOn de captura incorrecto cuando se selecciona una máquina virtual en la pestaña Resumen y en la pestaña Administrador de instantáneas de vSphere Web Client.

            • Es posible que los gráficos de rendimiento avanzados dejen de dibujar gráficos para algunas estadísticas de máquina virtual después de un reinicio de hostd debido a un error de división por cero en algunos contadores.

            • Se puede producir un error en el agente NSX opsAgent y se puede ver el archivo de volcado de núcleo ubicado en /var/core cuando se implementa un dispositivo NSX-T en un host ESXi. El error se produce por una condición de carrera en el código de la biblioteca que proporciona el host.

            • Si se configura el directorio /productLocker en un almacén de datos VMFS compartido, cuando se migra una máquina virtual con vSphere vMotion, la instancia de VMware Tools en la máquina virtual puede mostrar incorrectamente el estado No compatible.

            • Es posible que el comando MSINFO32 no muestre la memoria RAM física instalada en máquinas virtuales que ejecutan Windows 7 o Windows Server 2008 R2. Si se asignan dos o más vCPU a una máquina virtual, el campo RAM física instalada muestra No disponible.

            • En algunos casos, cuando se producen operaciones de E/S superpuestas no alineadas, es posible que el programador de confirmación del motor de confirmación de dos fases de la pila de vSAN no se ejecute de forma inmediata. Esta demora puede agregar latencia a las operaciones de E/S.

            • La API de OSFS_Readdir rellena entradas de directorio limitadas según el tamaño de búfer proporcionado y siempre devuelve Sí como fin de archivo (End Of File, EOF). Es posible que deba llamar a FSSReadDir varias veces para leer todo el directorio.

            • Al actualizar un clúster ampliado con vSAN de ESXi 6.0 a 6.5, se puede producir un error en un host con una pantalla de diagnóstico de color morado. El siguiente seguimiento de pila identifica este problema.

              #0 DOMUtil_HashFromUUID
              #1 DOMServer_GetServerIndexFromUUID
              #2 DOMOwnerGetRdtMuxGroupInt
              #3 DOMOwner_GetRdtMuxGroupUseNumServers
              #4 DOMAnchorObjectGetOwnerVersionAndRdtMuxGroup
              #5 DOMAnchorObjectCreateResolverAndSetMuxGroup
              #6 DOMObject_InitServerAssociation
              #7 DOMAnchorObjectInitAssociationToProxyOwnerStartTask
              #8 DOMOperationStartTask
              #9 DOMOperationDispatch
              #10 VSANServerExecuteOperation
              #11 VSANServerMainLoop

            • En algunos casos, vSAN tarda mucho tiempo en marcar un disco como degradado, aunque el disco informa de errores en operaciones de E/S y vSAN deja de procesar cualquier otra operación de E/S de dicho disco.

            • Los ventiladores de los servidores Dell R730 pueden no aparecer en la sección Ventilador de la pestaña Estado de hardware de vSphere Client o vSphere Web Client, pero sí en otras secciones, o no mostrarse en absoluto.

            • Después de actualizar vCenter Server a 6.5 Update 2, el supervisor de capacidad de vSAN no incluye la capacidad para las máquinas virtuales implementadas en los hosts ESXi con versiones anteriores a 6.5 Update 2. Es posible que el supervisor muestre menos capacidad utilizada que la cantidad realmente utilizada en el clúster.

            • La congestión de componente, que se produce en la capa de registro de vSAN, puede reducir el ancho de banda de E/S de invitado debido a la limitación de E/S interna de vSAN. Las operaciones de E/S grandes que se dividen no se potencian correctamente para acelerar la transferencia desde caché. Este problema se traduce en una acumulación de registros, lo que puede causar una congestión. Puede que note una disminución de las E/S por segundo al entrar en modo de mantenimiento.

            • Un host ESXi puede generar un error con una pantalla de diagnóstico de color morado debido a una condición de carrera en una consulta de Multicast Listener Discovery (MLD) versión 1 en entornos IPv6. Es posible que se muestre un mensaje de error similar al siguiente:

              #PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
              ...
              0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
              0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
              0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
              0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000

            • Es posible perder la conectividad con los almacenes de datos de NFS si se asigna a un nuevo almacén de datos el antiguo nombre de un almacén de datos existente. Por ejemplo, si se cambia el nombre de un almacén de datos de NFS-01 a NFS-01-renamed y, a continuación, se crea un nuevo almacén de datos de NFS con el nombre NFS-01. Como resultado, el host ESXi pierde la conectividad con el almacén de datos de nombre cambiado y no puede montar el almacén nuevo.

            • Si se deshabilita IPv4 en un host ESXi, es posible que no se puedan establecer los nombres de host de IPv6, ya que el sistema requiere una dirección IPv4.

            • La cantidad de archivos de almacenamiento syslog.log que se generen puede ser menor que el valor predeterminado configurado mediante el parámetro syslog.global.defaultRotate. Además, la cantidad de archivos de almacenamiento syslog.log puede ser diferente entre las versiones 6.0 y 6.5 de ESXi. Por ejemplo, si syslog.global.defaultRotate se configura en 8 de forma predeterminada, ESXi 6.0 crea syslog.0.gz en syslog.7.gz, mientras que ESXi 6.5 crea syslog.0.gz en syslog.6.gz.

            • Cuando se expande un objeto, se agrega una concatenación a las réplicas para admitir el requisito de aumento de tamaño. Durante cierto período, como vSAN crea nuevas réplicas para incluir la concatenación, la concatenación y las réplicas originales se descartan. Como vSAN combina la concatenación y las réplicas originales en una réplica nueva, se puede producir un error en la operación si vSAN no tiene espacio suficiente para colocar los componentes nuevos. Si el disco queda desequilibrado y todos los componentes en el disco se encuentran en los nodos de concatenación, la operación de reequilibrio no puede mover ningún componente para equilibrar el disco.

            • No se puede expandir un VMDK mientras se cambia también la directiva de almacenamiento del VMDK, pero aún así se puede producir un error en la expansión sin ningún cambio en la directiva de almacenamiento si la directiva existente ha establecido la regla de ubicación de los datos.

            • Es posible que no se calcule correctamente el límite superior de Generación de informes de rango de memoria reservada para las máquinas virtuales que se ejecutan en hosts basados en AMD. Esto puede evitar que se enciendan las máquinas virtuales donde se utiliza la función de VMware DirectPath I/O.

            • Un error en la ruta de código de colocación en modo inactivo de un dispositivo de NMP puede hacer que las llamadas desbloqueen un bloqueo ya liberado, lo que puede generar un error en un host ESXi con una pantalla de diagnóstico de color morado.

            • Las máquinas virtuales con hardware versión 10 o posterior que usan EFI y ejecutan Windows Server 2016 en procesadores AMD pueden dejar de responder durante el reinicio. El problema no ocurre si una máquina virtual utiliza el BIOS, la versión de hardware es 11 o posterior, el sistema operativo invitado no es Windows o los procesadores son Intel.

            • Si se intenta volver a registrar un dispositivo de caracteres con el mismo nombre, es posible que se muestre una advertencia similar a la siguiente:
              2018-09-14T04:49:27.441Z cpu33:4986380)WARNING: CharDriver: 291: El controlador con el nombre XXXX ya utiliza la ranura XX
              No se libera la memoria de pila necesaria para registrar el dispositivo para un intento de duplicado. Esto provoca una fuga de memoria y, con el tiempo, se puede producir un error en el host con una pantalla de diagnóstico de color morado.

            • Al cargar el módulo SATP de NMP después de un reinicio del sistema, es posible que el método vmk_ModuleLoad() no pueda leer los parámetros específicos del módulo modificado. Este problema afecta principalmente a los controladores de terceros.

            • vSAN utiliza el valor de disco lleno de todos los discos en el clúster para calcular el valor de disco lleno promedio. Este valor se usa durante la operación de reequilibrio para garantizar que la transferencia de datos no provoque un desequilibrio en el disco de destino. Si tiene un clúster ampliado de vSAN, el uso de almacenamiento puede ser diferente entre los sitios. En esos casos, es posible que el reequilibrio no funcione según lo esperado si el valor de disco lleno promedio en un sitio es mayor que en el otro sitio.

            • Es posible que los hosts ESXi y hostd dejen de responder debido a un problema de asignación de memoria en el complemento de capacidad de servicio de disco de vSAN lsu-lsi-lsi-mr3-plug-in. Se pueden mostrar los mensajes de error Sin memoria o Error de clonación de subproceso.

            • En casos poco frecuentes, las NIC que utilizan el controlador ntg3, como las NIC Broadcom BCM5719 y 5720 GbE, pueden detener temporalmente el envío de paquetes después de un intento fallido de enviar un paquete que supera la capacidad máxima. El controlador ntg3 versión 4.1.3.2 resuelve este problema.

            • En un clúster de vSAN con controladoras de matriz inteligente HPE ProLiant Gen9, como P440 y P840, es posible que no se enciendan los LED de localización en el dispositivo con errores correcto.

            • Cuando se elimina una máquina virtual, el directorio de la máquina virtual puede permanecer en el entorno de NSX-T debido a que los archivos del puerto en la carpeta .dvsData se eliminan en el orden incorrecto.

            • Al habilitar IPFIX con una frecuencia de muestreo alta y un tráfico intenso, se puede observar una degradación del rendimiento de un entorno de VXLAN.

          ESXi-6.5.0-20181104001-no-tools
          Nombre del perfil ESXi-6.5.0-20181104001-no-tools
          Compilación Para obtener información de compilación, consulte la parte superior de la página.
          Proveedor VMware, Inc.
          Fecha de versión 29 de noviembre de 2018
          Nivel de aceptación PartnerSupported
          Hardware afectado N/C
          Software afectado N/C
          VIB afectados
          • VMware_bootbank_esx-base_6.5.0-2.75.10884925
          • VMware_bootbank_esx-tboot_6.5.0-2.75.10884925
          • VMware_bootbank_vsan_6.5.0-2.75.10884926
          • VMware_bootbank_vsanhealth_6.5.0-2.75.10884927
          • VMW_bootbank_ne1000_0.8.3-8vmw.650.2.75.10884925
          • VMW_bootbank_vmkusb_0.1-1vmw.650.2.75.10884925
          • VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-11vmw.650.2.75.10884925
          • VMW_bootbank_ntg3_4.1.3.2-1vmw.650.2.75.10884925
          • VMware_bootbank_lsu-hp-hpsa-plugin_2.0.0-7vmw.650.2.75.10884925
          PR fijadas 1847663, 1863313, 1894568, 1949789, 2021943, 2022147, 2029579, 2037849, 2037926, 2057600, 2063154, 2071506, 2071610, 2071817, 2072971, 2073175, 2078843, 2079002, 2083594, 2083627, 2084723, 2088951, 2089048, 2096942, 2097358, 2098928, 2102135, 2102137, 2107335, 2113432, 2119609, 2122259, 2122523, 2128932, 2130371, 2133589, 2136002, 2139317, 2139940, 2142767, 2144766, 2152381, 2153867, 2154912, 2187136, 2155840, 2155858, 2156840, 2157503, 2187127, 2128759, 2158561, 2164733, 2167294, 2167877, 2170126, 2171799, 2173856, 2179262, 2180962, 2182211, 2186065, 2191349, 2192629, 2192836, 2193829, 2194304, 2197789, 2203385, 2203836, 2204024, 2204028, 2204507, 2209900, 2209919, 2211285, 2211639, 2213917, 2225439, 2225471, 2096875, 2151342, 2064111
          Números de CVE relacionados N/C
          • Esta revisión actualiza los siguientes problemas:
            • Se puede producir un error en la actualización a ESXi 6.5 y versiones posteriores mediante vSphere Update Manager debido a un problema con la biblioteca de código abierto libparted. Es posible que se muestre el siguiente seguimiento inverso:

              [root@hidrogenio07:~] partedUtil getptbl /vmfs/devices/disks/naa.60000970000592600166533031453135
              El seguimiento inverso tiene 12 llamadas en la pila:
              12: /lib/libparted.so.0(ped_assert+0x2a) [0x9e524ea]
              11: /lib/libparted.so.0(ped_geometry_read+0x117) [0x9e5be77]
              10: /lib/libparted.so.0(ped_geometry_read_alloc+0x75) [0x9e5bf45]
              9: /lib/libparted.so.0(nilfs2_probe+0xb5) [0x9e82fe5]
              8: /lib/libparted.so.0(ped_file_system_probe_specific+0x5e) [0x9e53efe]
              7: /lib/libparted.so.0(ped_file_system_probe+0x69) [0x9e54009]
              6: /lib/libparted.so.0(+0x4a064) [0x9e8f064]
              5: /lib/libparted.so.0(ped_disk_new+0x67) [0x9e5a407]
              4: partedUtil() [0x804b309]
              3: partedUtil(main+0x79e) [0x8049e6e]
              2: /lib/libc.so.6(__libc_start_main+0xe7) [0x9edbb67]
              1: partedUtil() [0x804ab4d] Aborted

            • Puede que las matrices SolidFire no tengan un rendimiento óptimo sin la reconfiguración de las reglas de notificación de SATP.

            • Las reglas de notificación deben agregarse manualmente a ESXi para los siguientes modelos de matrices de almacenamiento DELL MD: MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf y MD38xxi. 

            • Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante el apagado o la desconexión de una máquina virtual si se utiliza EMC RecoverPoint debido a una condición de carrera en la herramienta de filtro de vSCSI.

            • Durante una actualización sin interrupciones, es posible que algunas rutas de acceso tengan un estado de pérdida de dispositivo permanente (Permanent Device Loss, PDL). Dichas rutas de acceso permanecen no disponibles incluso después de la actualización. Por ello, el dispositivo puede perder la conectividad.

            • Se puede producir un error en los hosts ESXi con una pantalla de diagnóstico de color morado al quitar una página de la memoria caché de páginas debido a una estructura de datos dañada. Es posible que se muestre el siguiente seguimiento inverso:

              2018-01-01T04:02:47.859Z cpu13:33232)Backtrace for current CPU #13, worldID=33232, rbp=0xd
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b720:[0x41800501883b]PageCacheRemoveFirstPageLocked@vmkernel#nover+0x2f stack: 0x4305dd30
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b740:[0x418005019144]PageCacheAdjustSize@vmkernel#nover+0x260 stack: 0x0, 0x3cb418317a909
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81bfd0:[0x41800521746e]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0, 0x0, 0x0, 0x0, 0
              2018-01-01T04:02:47.877Z cpu13:33232)^[[45m^[[33;1mVMware ESXi 6.0.0 [Releasebuild-6921384 x86_64]^[[0m
              #GP Exception 13 in world 33232:memMap-13 @ 0x41800501883b

            • Las reglas de notificación deben agregarse manualmente al host ESXi para las matrices de almacenamiento HITACHI OPEN-v. 

            • Si se agregan manualmente ajustes a la configuración de NTP, es posible que estos se eliminen del archivo ntp.conf si se actualiza NTP mediante vSphere Web Client. Las actualizaciones de NTP conservan todos los ajustes junto con las opciones de restricción, driftfile y los servidores agregados de forma manual al archivo ntp.conf. Si se modifica de forma manual el archivo ntp.conf, es necesario reiniciar hostd para propagar las actualizaciones.

            • Los tickets obsoletos, los cuales no se eliminan antes de que hostd genere un nuevo ticket, pueden agotar los nodos de los discos de memoria RAM. Esto puede provocar que los hosts ESXi dejen de responder.

            • Es posible que no se pueda utilizar un dispositivo USB conectado como acceso directo para migrar máquinas virtuales si se utiliza vSphere vMotion debido a una comprobación de condición redundante.

            • Si una máquina virtual forma parte de una instantánea VMFSsparse, es posible que las operaciones de E/S enviadas a la máquina virtual se procesen solo parcialmente en el nivel de VMFSsparse, pero que las capas superiores, como los filtros de E/S, supongan que la transferencia se realizó correctamente. Esto puede producir una inconsistencia de datos.

            • Puede que los hosts ESXi no reflejen el parámetro MAXIMUM TRANSFER LENGTH del que informa el dispositivo SCSI en la página VPD de límites de bloque. Por lo tanto, los comandos de E/S emitidos con un tamaño de transferencia mayor al límite pueden producir un error con un registro similar:

              2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.

            • Es posible que la utilidad de línea de comandos esxtop no muestre un valor actualizado de profundidad de cola de dispositivos si se cambia la profundidad de cola de la ruta de acceso del dispositivo correspondiente.

            • Si se intenta realizar un arranque PXE en una máquina virtual donde se utiliza firmware EFI con un adaptador de red vmxnet3 y WDS, y no se deshabilitó la opción de extensión de ventanas variables en WDS, la máquina virtual puede arrancar demasiado lento.

            • Debido a problemas de USB de Apple, los dispositivos con una versión de iOS posterior a iOS 11 no se pueden conectar a máquinas virtuales con una versión de OS X posterior a OS X 10.12.

            • Es posible que los identificadores para enviar datos de vmware.log a Syslog, definidos con vmx.log.syslogID, no funcionen según lo esperado debido a que se omite la cadena especificada en la variable.

            • Se puede producir un error de forma intermitente en los hosts ESXi si se deshabilitan las direcciones IPv6 globales debido a que una ruta de acceso de código todavía utiliza IPv6.

            • En situaciones excepcionales, cuando se realiza una solicitud HTTP durante la inicialización de hostd, se puede producir un error en el agente.

            • Se puede producir un error en hostd cuando existen ciertos parámetros no válidos en el archivo .vmx de una máquina virtual. Por ejemplo, cuando se agrega manualmente un parámetro como ideX:Y.present con un valor True al archivo .vmx.

            • Cuando existen hosts de diferentes versiones de ESXi en un clúster de máquinas virtuales Linux, y el nivel de Enhanced vMotion Compatibility (EVC) se establece en L0 o L1 para procesadores Merom y Penryn, es posible que las máquinas virtuales dejen de responder si se intenta la migración mediante vSphere vMotion de un host ESXi 6.0 a un host con una versión más reciente de ESXi.

            • Un host ESXi puede dejar de responder si los latidos del almacén de datos se detienen prematuramente al cerrar VMware vSphere VMFS6. Por lo tanto, el administrador de afinidad no puede cerrarse correctamente.

            • Las reglas de notificación deben agregarse manualmente a ESXi para las matrices de almacenamiento Tegile IntelliFlash.

            • Se pueden generar estos dos eventos VOB debido a variaciones en la latencia de E/S en una matriz de almacenamiento, pero no se informa ningún problema real en las máquinas virtuales:

              1. Se deterioró el rendimiento del dispositivo naa.xxx. La latencia de E/S aumentó del valor promedio de 4114 microsegundos a 84518 microsegundos.
              2. El rendimiento del dispositivo naa.xxx mejoró. La latencia de E/S se redujo de 346115 microsegundos a 67046 microsegundos.
            • Si se utiliza vSphere vMotion para migrar una máquina virtual con filtros de dispositivos de archivos de un almacén de datos de vSphere Virtual Volumes a otro host, y en la máquina virtual se encuentran habilitados el seguimiento de bloques modificados (Changed Block Tracking, CBT), VMware vSphere Flash Read Cache (VFRC) o los filtros de E/S, la migración puede causar problemas con cualquiera de esas funciones. Durante la migración, los filtros de dispositivos de archivos pueden no transferirse correctamente al host. Por lo tanto, es posible que se observen copias de seguridad incrementales dañadas en CBT, una degradación de rendimiento en VFRC y los filtros de E/S de la memoria caché, así como daños en los filtros de E/S de replicación y el disco, cuando los filtros de E/S de la memoria caché se configuran en modo de reescritura. También se pueden observar problemas con el cifrado de la máquina virtual.

            • Si utiliza un proveedor de VMware vSphere API for Storage Awareness, es posible que se muestren varias llamadas getTaskUpdate a tareas canceladas o eliminadas. Por lo tanto, es posible que se observe un mayor uso de ancho de banda de vSphere API for Storage Awareness y un desborde del registro.

            • vSphere Virtual Volumes puede dejar de responder debido a un bucle infinito que carga las CPU al 100 % si un proveedor de vSphere API for Storage Awareness pierde la información de enlace de su base de datos. Hostd también puede dejar de responder. Se puede mostrar un mensaje de error irrecuperable. Esta solución impide los bucles infinitos en caso de errores de enlace de la base de datos.

            • Si el grupo de recursos de registro de un host ESXi se esfuerza debido a un registro excesivo, hostd puede dejar de responder mientras se ejecutan los comandos esxcfg-syslog. Como esta solución mueve los comandos relacionados con esxcfg-syslog del grupo de recursos de registro a ESXi Shell, es posible observar un mayor uso de memoria en el grupo de recursos de shell predeterminado.

            • Los sensores de IPMI deshabilitados o los que no informan de ningún dato pueden generar alarmas de estado de hardware falsas.

            • Si se elimina del registro un proveedor de vSphere API for Storage Awareness en un estado desconectado, puede que aparezca el error java.lang.NullPointerException. Los administradores de eventos y alarmas no se inicializan cuando un proveedor está en un estado desconectado, lo que provoca el error.

            • Un almacén de datos VMFS6 puede indicar de forma incorrecta que se agotó el espacio debido a entradas de memoria caché obsoletas.

            • Si una máquina virtual tiene instantáneas creadas con CBRC y luego se deshabilita CBRC, se puede producir el error Un parámetro especificado no era correcto: spec.deviceChange.device en operaciones de consolidación de discos debido a la eliminación de un archivo de resumen después de deshabilitar CBRC. Se muestra una alerta Se necesitan consolidar los discos de la máquina virtual hasta que se resuelve el problema.

            • OMIVV depende de la información de la propiedad de iDRAC hardware.systemInfo.otherIdentifyingInfo.ServiceTag para recuperar el parámetro SerialNumber e identificar algunos servidores modulares de Dell. Una falta de coincidencia en la propiedad serviceTag puede producir un error en esta integración.

            • Anteriormente, si no se encontraba un componente como un procesador o un ventilador en un sistema vCenter Server, los sensores de presencia mostraban el estado Desconocido. Sin embargo, los sensores de presencia no tienen un estado asociado.

            • Si el destino conectado a un host ESXi admite solo ALUA implícita y tiene rutas de acceso solo en espera, se puede producir un error en el host con una pantalla de diagnóstico de color morado al detectar el dispositivo debido a una condición de carrera. Es posible que se muestre un seguimiento inverso similar al siguiente:

              SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
              0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
              0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
              0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807

            • Si un host ESXi no tiene ninguna imagen ISO de VMware Tools disponible y se intenta actualizar VMware Tools en una máquina virtual activa, se puede producir un error en la operación con el código VIX 21000. Es posible que no pueda actualizar VMware Tools mediante la API, vSphere Client o vSphere Web Client, incluso después de obtener una imagen ISO disponible. Esto se debe a que el host ESXi almacena en caché la primera comprobación de disponibilidad durante el encendido de la máquina virtual y no la actualiza.

            • Los registros del servicio de hostd y Syslog pueden recopilar registros de excepción de depuración innecesarios de todos los hosts ESXi en un clúster.

              En el registro de hostd, los mensajes son similares a lo siguiente:
              No match, sensor_health file missing sensorNumer 217: class 3 sensor type 35 offset 0

              En Syslog, /etc/sfcb/omc/sensor_health, los mensajes son similares a lo siguiente:
              Missing expected value to check for

            • En una configuración de ESXi con varias rutas a los LUN detrás de los destinos de IBM SVC, en caso de pérdida de conexión en rutas activas y si, al mismo tiempo, otras rutas de acceso conectadas no están en un estado que les permita prestar servicios de E/S, puede que el host ESXi no detecte esta condición como APD, incluso si no hay ninguna ruta disponible para prestar servicios de E/S. Por lo tanto, no se producen errores rápidos en las operaciones de E/S en el dispositivo.

            • Si se personalizan los tamaños de anillo Rx y Tx de NIC físicas para mejorar el rendimiento de red mediante los siguientes comandos:
              esxcli network nic ring current set -n <vmnicX> -t <value>
              esxcli network nic ring current set -n <vmnicX> -r <value>
              es posible que la configuración no sea persistente en todos los reinicios del host ESXi.

            • Si se agota el tiempo de espera de una gran cantidad de operaciones de E/S en un sistema de carga pesada, se puede producir un bloqueo flexible de CPU físicas. Como resultado, se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado.

            • Es posible que observe un bajo rendimiento de las operaciones de larga distancia de vSphere vMotion con alta latencia (como 100 ms o más) y vínculos de red de alta velocidad (como 10 GbE) debido al límite de búfer de socket codificado de forma rígida de 16 MB. Con esta solución, puede configurar el parámetro de tamaño de búfer de socket máximo SB_MAX_ADJ.

            • Debido a una condición de carrera, se puede producir un error en el proceso ejecutable de máquinas virtuales y se pueden apagar las máquinas virtuales durante un reinicio del sistema operativo invitado.

            • Se pueden mostrar varios mensajes como sfcb-vmware_raw[69194]: IpmiIfcFruGetInv: Failed during send cc = 0xc9 en syslog.log. Estos son registros de información normales, no son registros de error o advertencia.

            • Después de que se toma una instantánea de una máquina virtual Linux colocada correctamente en modo inactivo, el administrador de instantáneas puede indicar que la instantánea no se encuentra en modo inactivo.

            • En las compilaciones de versión, smartd puede generar una gran cantidad de mensajes de depuración y de información en los registros del servicio Syslog.

            • Los comandos no válidos en un CD-ROM virtual SATA pueden activar errores y aumentar el uso de memoria de las máquinas virtuales. Esto puede desencadenar un error en las máquinas virtuales si no pueden asignar memoria.
              Se pueden mostrar los siguientes registros para los comandos no válidos:
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command 
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.

              Y un mensaje de detención similar al siguiente:
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure

            • Cuando se selecciona la columna Ubicación física de la tabla Administración de discos en el panel de control de configuración del clúster de vSphere Web Client, la columna puede permanecer vacía y mostrar solamente información sobre el controlador hpsa.

            • Algunos parámetros de los dispositivos flash críticos, incluidos la temperatura y el conteo de sectores reasignados, no proporcionan valores de umbral. Como resultado, el daemon smartd del host ESXi puede informar de algunas advertencias.

            • El servicio de hostd puede dejar de responder mientras el proceso externo esxcfg-syslog permanece atascado. Como resultado, el host ESXi puede dejar de responder.

            • Al habilitar IPFIX con un tráfico intenso de diferentes flujos, el latido del sistema puede no reemplazar la CPU de IPFIX durante un largo período y activar una pantalla de diagnóstico de color morado.

            • De forma predeterminada, la función Respuesta de aislamiento de un host ESXi con vSphere HA habilitado se encuentra deshabilitada. Cuando se habilita la función Respuesta de aislamiento, es posible que un puerto de máquina virtual conectado a un conmutador lógico NSX-T se bloquee después de una conmutación por error de vSphere HA.

            • Si se deshabilitan vSphere Network I/O Control y el emparejamiento de colas de NIC, es posible que vea paquetes que no concuerdan con el tráfico de infraestructura, como administración, iSCSI y NFS. Esto se debe a que, cuando no se habilita vSphere Network I/O Control, se deshabilita el emparejamiento de colas y las NIC trabajan con varias colas.

            • Las unidades que no admiten la página VPD de límites de bloque 0xb0 pueden generar registros de códigos de eventos que saturan el archivo vmkernel.log.

            • Cuando se replican máquinas virtuales mediante VMware vSphere Replication, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color morado inmediatamente o en las siguientes 24 horas, y se puede mostrar el siguiente mensaje: PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc.

            • Es posible que las máquinas virtuales dejen de responder debido a errores repetitivos en algunos controladores de dispositivos de terceros para procesar comandos. Se puede mostrar el siguiente error al abrir la consola de máquina virtual:

              Error: "No se puede conectar al MKS: No se pudo conectar a la canalización \\.\pipe\vmware-authdpipe en el período de reintentos" 

            • Si el servicio de introspección de invitado en un entorno de vSphere 6.5 con más de 150 máquinas virtuales se encuentra activado, se puede producir un error en la migración de máquinas virtuales mediante vSphere vMotion en vSphere Web Client con un mensaje similar al siguiente:

              El origen detectó un error en la reanudación del destino.

              El vmware.log de destino contiene mensajes de error similares a los siguientes:
              2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transición de estado 11 a 12.
              2018-07-18T02:41:32.035Z| vmx| I125: Migrar: Lista de mensajes de error de almacenamiento en caché de la migración:
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] No se pudo recibir la migración.
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Versión incompatible de -1 (se espera 2).
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] Se produjo un error al restaurar el estado de la máquina virtual durante la migración.

              El registro de VMkernel tiene mensajes de error como los siguientes:
              2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
              2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3

            • Si se configura un almacén de datos de NFS como un almacén de datos de Syslog y un host ESXi se desconecta de él, se detiene el registro en el almacén de datos y el host ESXi puede dejar de responder.

            • Esta solución configura SATP como VMW_SATP_ALUA, PSP como VMW_PSP_RR y las opciones de notificación como tpgs_on de forma predeterminada para las matrices de almacenamiento serie Lenovo DE.

            • En un clúster de vSAN con la desduplicación habilitada, las operaciones de E/S destinadas a un disco de capacidad pueden ser redirigidas a otro disco. El nuevo dispositivo de destino puede sufrir una pérdida de dispositivo permanente (Permanent Device Loss, PDL). Si llegan solicitudes de E/S al disco con errores durante este intervalo, se puede producir un error en el host con una pantalla de diagnóstico de color morado.

            • Si se elimina manualmente de un host ESXi la carpeta de paquetes de soporte de una máquina virtual, descargada en el directorio /scratch/downloads del host, se puede producir un error en hostd cuando este intente eliminar automáticamente carpetas de esta ruta de acceso una hora después de su creación.

            • Aunque ya se haya expulsado la entrada de la memoria caché, es posible que se expulse nuevamente debido a una condición de carrera. Esto produce una desreferencia de puntero nulo en el host ESXi, lo que provoca un error en el host ESXi.

            • Durante la migración o la actualización a vCenter Server Appliance 6.5, algunos tamaños de implementación no están disponibles para su selección en la tabla de información si el tamaño requerido de vCenter Server Appliance es mayor que el umbral para dicho tamaño de implementación.

            • Es posible que el programador hclock de NIOC restablezca el dispositivo de red de vínculo superior cuando el vínculo superior se utiliza periódicamente, y que el restablecimiento no sea predecible.

            • Si se habilita la función de instalaciones con estado en un perfil de host, y la NIC de VMkernel de administración se conecta a un conmutador virtual distribuido, se puede producir un error al aplicar el perfil de host a otro host ESXi 6.5 mediante vSphere Auto Deploy durante un arranque PXE. El host permanece en modo de mantenimiento.

            • La ejecución del ciclo de energía de una máquina virtual con vNIC de SR-IOV mediante scripts puede provocar un error en el host ESXi con una pantalla de diagnóstico de color morado.

            • Si una entidad, como una máquina virtual o un almacén de datos, ya no forma parte de la base de datos de estadísticas de un host ESXi, pero vim.PerformanceManager emite una solicitud de datos de rendimiento a esta entidad, es posible alcanzar una ruta de acceso de código con la que se produzca un error en el proceso del agente de host. Como resultado, el host puede dejar de estar disponible temporalmente para el sistema vCenter Server.

            • Si se habilita la herramienta de análisis de red NetFlow para tomar muestras de todos los paquetes en un grupo de puertos de vSphere Distributed Switch, al configurar la frecuencia de muestreo en 0, la latencia de red puede llegar a 1000 ms en caso de que se supere el millón de flujos.

            • Una máquina virtual que realiza cientos de operaciones de adición o eliminación en caliente de discos sin apagarse ni migrarse puede finalizarse y dejar de ser válida. Esto afecta a las soluciones de copia de seguridad, donde la máquina virtual proxy de copia de seguridad puede ser finalizada.

              En el registro de hostd, es posible que vea contenido similar al siguiente:
              2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
              2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
              2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
              2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171

              En el registro de vmkernel, el contenido es similar al siguiente:
              2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
              2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size. Cannot expand.

            • Al apagar la última máquina virtual de un host ESXi, si esta máquina virtual utiliza la configuración sysContexts, es posible que el programador no pueda eliminar la afinidad exclusiva establecida en la configuración sysContexts.

            • El agente SNMP puede entregar un valor vmwVmPoweredOn de captura incorrecto cuando se selecciona una máquina virtual en la pestaña Resumen y en la pestaña Administrador de instantáneas de vSphere Web Client.

            • Es posible que los gráficos de rendimiento avanzados dejen de dibujar gráficos para algunas estadísticas de máquina virtual después de un reinicio de hostd debido a un error de división por cero en algunos contadores.

            • Se puede producir un error en el agente NSX opsAgent y se puede ver el archivo de volcado de núcleo ubicado en /var/core cuando se implementa un dispositivo NSX-T en un host ESXi. El error se produce por una condición de carrera en el código de la biblioteca que proporciona el host.

            • Si se configura el directorio /productLocker en un almacén de datos VMFS compartido, cuando se migra una máquina virtual con vSphere vMotion, la instancia de VMware Tools en la máquina virtual puede mostrar incorrectamente el estado No compatible.

            • Es posible que el comando MSINFO32 no muestre la memoria RAM física instalada en máquinas virtuales que ejecutan Windows 7 o Windows Server 2008 R2. Si se asignan dos o más vCPU a una máquina virtual, el campo RAM física instalada muestra No disponible.

            • En algunos casos, cuando se producen operaciones de E/S superpuestas no alineadas, es posible que el programador de confirmación del motor de confirmación de dos fases de la pila de vSAN no se ejecute de forma inmediata. Esta demora puede agregar latencia a las operaciones de E/S.

            • La API de OSFS_Readdir rellena entradas de directorio limitadas según el tamaño de búfer proporcionado y siempre devuelve Sí como fin de archivo (End Of File, EOF). Es posible que deba llamar a FSSReadDir varias veces para leer todo el directorio.

            • Al actualizar un clúster ampliado con vSAN de ESXi 6.0 a 6.5, se puede producir un error en un host con una pantalla de diagnóstico de color morado. El siguiente seguimiento de pila identifica este problema.

              #0 DOMUtil_HashFromUUID
              #1 DOMServer_GetServerIndexFromUUID
              #2 DOMOwnerGetRdtMuxGroupInt
              #3 DOMOwner_GetRdtMuxGroupUseNumServers
              #4 DOMAnchorObjectGetOwnerVersionAndRdtMuxGroup
              #5 DOMAnchorObjectCreateResolverAndSetMuxGroup
              #6 DOMObject_InitServerAssociation
              #7 DOMAnchorObjectInitAssociationToProxyOwnerStartTask
              #8 DOMOperationStartTask
              #9 DOMOperationDispatch
              #10 VSANServerExecuteOperation
              #11 VSANServerMainLoop

            • En algunos casos, vSAN tarda mucho tiempo en marcar un disco como degradado, aunque el disco informa de errores en operaciones de E/S y vSAN deja de procesar cualquier otra operación de E/S de dicho disco.

            • Los ventiladores de los servidores Dell R730 pueden no aparecer en la sección Ventilador de la pestaña Estado de hardware de vSphere Client o vSphere Web Client, pero sí en otras secciones, o no mostrarse en absoluto.

            • Después de actualizar vCenter Server a 6.5 Update 2, el supervisor de capacidad de vSAN no incluye la capacidad para las máquinas virtuales implementadas en los hosts ESXi con versiones anteriores a 6.5 Update 2. Es posible que el supervisor muestre menos capacidad utilizada que la cantidad realmente utilizada en el clúster.

            • La congestión de componente, que se produce en la capa de registro de vSAN, puede reducir el ancho de banda de E/S de invitado debido a la limitación de E/S interna de vSAN. Las operaciones de E/S grandes que se dividen no se potencian correctamente para acelerar la transferencia desde caché. Este problema se traduce en una acumulación de registros, lo que puede causar una congestión. Puede que note una disminución de las E/S por segundo al entrar en modo de mantenimiento.

            • Un host ESXi puede generar un error con una pantalla de diagnóstico de color morado debido a una condición de carrera en una consulta de Multicast Listener Discovery (MLD) versión 1 en entornos IPv6. Es posible que se muestre un mensaje de error similar al siguiente:

              #PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
              ...
              0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
              0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
              0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
              0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000

            • Es posible perder la conectividad con los almacenes de datos de NFS si se asigna a un nuevo almacén de datos el antiguo nombre de un almacén de datos existente. Por ejemplo, si se cambia el nombre de un almacén de datos de NFS-01 a NFS-01-renamed y, a continuación, se crea un nuevo almacén de datos de NFS con el nombre NFS-01. Como resultado, el host ESXi pierde la conectividad con el almacén de datos de nombre cambiado y no puede montar el almacén nuevo.

            • Si se deshabilita IPv4 en un host ESXi, es posible que no se puedan establecer los nombres de host de IPv6, ya que el sistema requiere una dirección IPv4.

            • La cantidad de archivos de almacenamiento syslog.log que se generen puede ser menor que el valor predeterminado configurado mediante el parámetro syslog.global.defaultRotate. Además, la cantidad de archivos de almacenamiento syslog.log puede ser diferente entre las versiones 6.0 y 6.5 de ESXi. Por ejemplo, si syslog.global.defaultRotate se configura en 8 de forma predeterminada, ESXi 6.0 crea syslog.0.gz en syslog.7.gz, mientras que ESXi 6.5 crea syslog.0.gz en syslog.6.gz.

            • Cuando se expande un objeto, se agrega una concatenación a las réplicas para admitir el requisito de aumento de tamaño. Durante cierto período, como vSAN crea nuevas réplicas para incluir la concatenación, la concatenación y las réplicas originales se descartan. Como vSAN combina la concatenación y las réplicas originales en una réplica nueva, se puede producir un error en la operación si vSAN no tiene espacio suficiente para colocar los componentes nuevos. Si el disco queda desequilibrado y todos los componentes en el disco se encuentran en los nodos de concatenación, la operación de reequilibrio no puede mover ningún componente para equilibrar el disco.

            • No se puede expandir un VMDK mientras se cambia también la directiva de almacenamiento del VMDK, pero aún así se puede producir un error en la expansión sin ningún cambio en la directiva de almacenamiento si la directiva existente ha establecido la regla de ubicación de los datos.

            • Es posible que no se calcule correctamente el límite superior de Generación de informes de rango de memoria reservada para las máquinas virtuales que se ejecutan en hosts basados en AMD. Esto puede evitar que se enciendan las máquinas virtuales donde se utiliza la función de VMware DirectPath I/O.

            • Un error en la ruta de código de colocación en modo inactivo de un dispositivo de NMP puede hacer que las llamadas desbloqueen un bloqueo ya liberado, lo que puede generar un error en un host ESXi con una pantalla de diagnóstico de color morado.

            • Las máquinas virtuales con hardware versión 10 o posterior que usan EFI y ejecutan Windows Server 2016 en procesadores AMD pueden dejar de responder durante el reinicio. El problema no ocurre si una máquina virtual utiliza el BIOS, la versión de hardware es 11 o posterior, el sistema operativo invitado no es Windows o los procesadores son Intel.

            • Si se intenta volver a registrar un dispositivo de caracteres con el mismo nombre, es posible que se muestre una advertencia similar a la siguiente:
              2018-09-14T04:49:27.441Z cpu33:4986380)WARNING: CharDriver: 291: El controlador con el nombre XXXX ya utiliza la ranura XX
              No se libera la memoria de pila necesaria para registrar el dispositivo para un intento de duplicado. Esto provoca una fuga de memoria y, con el tiempo, se puede producir un error en el host con una pantalla de diagnóstico de color morado.

            • Al cargar el módulo SATP de NMP después de un reinicio del sistema, es posible que el método vmk_ModuleLoad() no pueda leer los parámetros específicos del módulo modificado. Este problema afecta principalmente a los controladores de terceros.

            • vSAN utiliza el valor de disco lleno de todos los discos en el clúster para calcular el valor de disco lleno promedio. Este valor se usa durante la operación de reequilibrio para garantizar que la transferencia de datos no provoque un desequilibrio en el disco de destino. Si tiene un clúster ampliado de vSAN, el uso de almacenamiento puede ser diferente entre los sitios. En esos casos, es posible que el reequilibrio no funcione según lo esperado si el valor de disco lleno promedio en un sitio es mayor que en el otro sitio.

            • Es posible que los hosts ESXi y hostd dejen de responder debido a un problema de asignación de memoria en el complemento de capacidad de servicio de disco de vSAN lsu-lsi-lsi-mr3-plug-in. Se pueden mostrar los mensajes de error Sin memoria o Error de clonación de subproceso.

            • En casos poco frecuentes, las NIC que utilizan el controlador ntg3, como las NIC Broadcom BCM5719 y 5720 GbE, pueden detener temporalmente el envío de paquetes después de un intento fallido de enviar un paquete que supera la capacidad máxima. El controlador ntg3 versión 4.1.3.2 resuelve este problema.

            • En un clúster de vSAN con controladoras de matriz inteligente HPE ProLiant Gen9, como P440 y P840, es posible que no se enciendan los LED de localización en el dispositivo con errores correcto.

            • Cuando se elimina una máquina virtual, el directorio de la máquina virtual puede permanecer en el entorno de NSX-T debido a que los archivos del puerto en la carpeta .dvsData se eliminan en el orden incorrecto.

            • Al habilitar IPFIX con una frecuencia de muestreo alta y un tráfico intenso, se puede observar una degradación del rendimiento de un entorno de VXLAN.

          ESXi-6.5.0-20181101001s-standard
          Nombre del perfil ESXi-6.5.0-20181101001s-standard
          Compilación Para obtener información de compilación, consulte la parte superior de la página.
          Proveedor VMware, Inc.
          Fecha de versión 29 de noviembre de 2018
          Nivel de aceptación PartnerSupported
          Hardware afectado N/C
          Software afectado N/C
          VIB afectados
          • VMware_bootbank_esx-base_6.5.0-2.71.10868328
          • VMware_bootbank_vsan_6.5.0-2.71.10652415
          • VMware_bootbank_vsanhealth_6.5.0-2.71.10652417
          • VMware_bootbank_esx-tboot_6.5.0-2.71.10868328
          • VMware_bootbank_esx-ui_1.31.0-10201673
          • VMware_locker_tools-light_6.5.0-2.71.10868328
          PR fijadas 2094558, 2169094, 2020984, 2025909, 2109023, 2189347, 2154394
          Números de CVE relacionados N/C
          • Esta revisión actualiza los siguientes problemas:
            • ESXi ya no incluye la imagen ISO de Windows anterior a Vista para VMware Tools. La imagen ISO de Windows anterior a Vista está disponible para que la descarguen los usuarios que lo requieran. Para obtener información sobre la descarga, consulte la página Descarga de productos.

            • El daemon de NTP se actualiza a 4.2.8p12.

            • Para máquinas virtuales grandes, se puede producir un error en la instancia cifrada de vSphere vMotion debido a un espacio insuficiente en la pila de migración.

            • El paquete de Python se actualizó a la versión 3.5.5.

            • La biblioteca userworld libxml2 de ESXi se actualizó a la versión 2.9.8.

            • El paquete de OpenSSL se actualizó a la versión 1.0.2p.

            • El paquete de OpenSSH se actualizó a la versión 7.7p1.

          ESXi-6.5.0-20181101001s-no-tools
          Nombre del perfil ESXi-6.5.0-20181101001s-no-tools
          Compilación Para obtener información de compilación, consulte la parte superior de la página.
          Proveedor VMware, Inc.
          Fecha de versión 29 de noviembre de 2018
          Nivel de aceptación PartnerSupported
          Hardware afectado N/C
          Software afectado N/C
          VIB afectados
          • VMware_bootbank_esx-base_6.5.0-2.71.10868328
          • VMware_bootbank_vsan_6.5.0-2.71.10652415
          • VMware_bootbank_vsanhealth_6.5.0-2.71.10652417
          • VMware_bootbank_esx-tboot_6.5.0-2.71.10868328
          • VMware_bootbank_esx-ui_1.31.0-10201673
          • VMware_locker_tools-light_6.5.0-2.71.10868328
          PR fijadas 2094558, 2169094, 2020984, 2025909, 2109023, 2189347, 2154394
          Números de CVE relacionados N/C
          • Esta revisión actualiza los siguientes problemas:
            • ESXi ya no incluye la imagen ISO de Windows anterior a Vista para VMware Tools. La imagen ISO de Windows anterior a Vista está disponible para que la descarguen los usuarios que lo requieran. Para obtener información sobre la descarga, consulte la página Descarga de productos.

            • El daemon de NTP se actualiza a 4.2.8p12.

            • Para máquinas virtuales grandes, se puede producir un error en la instancia cifrada de vSphere vMotion debido a un espacio insuficiente en la pila de migración.

            • El paquete de Python se actualizó a la versión 3.5.5.

            • La biblioteca userworld libxml2 de ESXi se actualizó a la versión 2.9.8.

            • El paquete de OpenSSL se actualizó a la versión 1.0.2p.

            • El paquete de OpenSSH se actualizó a la versión 7.7p1.

          Problemas conocidos

          Los problemas conocidos se agrupan del siguiente modo:

          ESXi650-201811401-BG
          Categoría de revisión Corrección de error
          Gravedad de la revisión Crítico
          Reinicio de host requerido
          Migración de máquina virtual o apagado requeridos
          Hardware afectado N/C
          Software afectado N/C
          VIB que se incluyen
          • VMware_bootbank_vsan_6.5.0-2.50.8064065
          • VMware_bootbank_vsanhealth_6.5.0-2.50.8143339
          • VMware_bootbank_esx-tboot_6.5.0-2.50.8294253
          • VMware_bootbank_esx-base_6.5.0-2.50.8294253
          PR  N/C
          Números CVE N/C

          Esta revisión actualiza los VIB esx-base, esx-tboot, vsan y vsanhealth para resolver los siguientes problemas:

          • Se puede producir un error en la migración de máquinas virtuales mediante vSphere vMotion en hosts ESXi de versiones anteriores a 5.0 con el mensaje Detención de supervisor en el sitio de destino

            Es posible que se produzca un error al migrar máquinas virtuales mediante vSphere vMotion en hosts ESXi de versiones anteriores a 5.0 a la versión 6.5 debido a la falta de un parámetro. También es posible que se produzca un error en la migración de Cross vCenter Server vMotion. Se puede mostrar el error Detención de supervisor en el sitio de destino.

            Solución alternativa: Apague y vuelva a encender la máquina virtual.

          • Algunos sensores de estado de hardware pueden mostrar el estado Desconocido en vSphere Web Client y vSphere Client debido a un problema de descodificación

            Algunos sensores de IPMI pueden informar del estado Desconocido en la pestaña Estado del hardware de vSphere Web Client y vSphere Client debido a un problema de descodificación.

            Solución alternativa: Consulte al proveedor de hardware del sensor específico para comprender su uso. Para obtener más información, consulte el artículo 53134 de la base de conocimientos de VMware.

          • El servicio Syslog de ESXi puede mostrar marcas de tiempo imprecisas en el inicio o la rotación

            El servicio Syslog de ESXi puede mostrar marcas de tiempo imprecisas cuando el servicio se inicia o reinicia, o cuando el registro alcanza su tamaño máximo según configuración y rota.

            Solución alternativa: Este problema está resuelto en las instalaciones nuevas de ESXi. Para solucionar el problema en la configuración existente para hostd.log, debe realizar lo siguiente:

            1. Abra el archivo /etc/vmsyslog.conf.d/hostd.conf.
            2. Reemplace onrotate = logger -t Hostd < /var/run/vmware/hostdLogHeader.txt por
              onrotate = printf '%%s - last log rotation time, %%s\n' "$(date --utc +%%FT%%T.%%3NZ)" "$(cat /var/run/vmware/hostdLogHeader.txt)" | logger -t Hostd
            3. Guarde los cambios.
            4. Reinicie el servicio vmsyslogd mediante la ejecución de /etc/init.d/vmsyslogd restart.
          • Puede mostrarse un mensaje de error para las operaciones de encendido de máquinas virtuales o VMware vSphere vApp

            Puede producirse un error en las operaciones de encendido de máquinas virtuales o vSphere vApp en un clúster administrado por DRS si vApp o las máquinas virtuales utilizan un grupo de recursos de reserva de memoria no ampliable. Aparece el siguiente mensaje de error: Los recursos de memoria disponibles en el grupo de recursos primario son insuficientes para la operación.

            Solución alternativa: Consulte el artículo 1003638 de la base de conocimientos de VMware.

          Problemas conocidos de versiones anteriores

          Para ver una lista de los problemas conocidos anteriores, haga clic aquí.

          check-circle-line exclamation-circle-line close-line
          Scroll to top icon