Fecha de versión: 29 de noviembre de 2018
IMPORTANTE: Si es cliente de vSAN, antes de actualizar a ESXi650-201810002, si no ha actualizado a ESXi650-201810001, y si es probable que se expanda un VMDK, siga estos pasos:
- Inicie sesión en el host ESXi mediante SSH como raíz.
- Establezca la opción de configuración avanzada VSAN.ClomEnableInplaceExpansion en 0 en todos los hosts.
No se requiere reiniciar. El ajuste de VSAN.ClomEnableInplaceExpansion no afecta a los reinicios de los hosts ni a las cargas de trabajo en ejecución.
Después de actualizar todos los hosts a ESXi650-201810001, puede establecer VSAN.ClomEnableInplaceExpansion en 1 y habilitarlo.
Si ha actualizado a ESXi650-201810001, no se requiere ningún paso adicional.
Nombre de archivo de descarga:
ESXi650-201811002.zip
Compilación:
10884925
Tamaño de descarga:
457,4 MB
md5sum:
7d3cd75ace63f381d8c8f34e24c9c413
sha1checksum:
882b1fb4bc139dd65956a3e9380f4f03eeb2538a
Reinicio requerido del host: Sí
Migración de máquina virtual o apagado requeridos: Sí
Boletines
Identificador del boletín | Categoría | Gravedad |
ESXi650-201811401-BG | Corrección de error | Crítico |
ESXi650-201811402-BG | Corrección de error | Importante |
ESXi650-201811403-BG | Corrección de error | Importante |
ESXi650-201811404-BG | Corrección de error | Crítico |
ESXi650-201811405-BG | Corrección de error | Importante |
ESXi650-201811406-BG | Corrección de error | Moderado |
ESXi650-201811101-SG | Seguridad | Crítico |
ESXi650-201811102-SG | Seguridad | Importante |
ESXi650-201811103-SG | Seguridad | Moderado |
Boletín acumulativo de actualizaciones
Este boletín acumulativo de actualizaciones contiene los VIB más recientes con todas las revisiones desde la publicación inicial de ESXi 6.5.
Identificador del boletín | Categoría | Gravedad |
ESXi650-201811002 | Corrección de error | Crítico |
Perfiles de imagen
Las versiones de revisiones y actualizaciones de VMware contienen perfiles de imagen general y de nivel crítico. El perfil de imagen general de la versión se aplica a las nuevas correcciones de errores.
Nombre del perfil de imagen |
ESXi-6.5.0-20181104001-standard |
ESXi-6.5.0-20181104001-no-tools |
ESXi-6.5.0-20181101001s-standard |
ESXi-6.5.0-20181101001s-no-tools |
Para obtener más información sobre cada boletín, consulte la página My VMware y las secciones Problemas resueltos y Problemas conocidos.
Descarga e instalación de revisiones
La forma habitual de aplicar revisiones a los hosts ESXi es mediante VMware vSphere Update Manager. Para obtener más información, consulte Acerca de la instalación y administración de VMware vSphere Update Manager.
Los hosts ESXi pueden actualizarse mediante la descarga manual del archivo ZIP de revisión desde la página de descarga de VMware y la instalación de VIB mediante el comando esxcli software vib
. Además, el sistema se puede actualizar mediante el perfil de imagen y el comando esxcli software profile
.
Para obtener más información, consulte los conceptos y ejemplos de la interfaz de línea de comandos de vSphere y la Guía de actualización de vSphere.
Problemas resueltos
Los problemas resueltos se agrupan del siguiente modo:
- ESXi650-201811401-BG
- ESXi650-201811402-BG
- ESXi650-201811403-BG
- ESXi650-201811404-BG
- ESXi650-201811405-BG
- ESXi650-201811406-BG
- ESXi650-201811101-SG
- ESXi650-201811102-SG
- ESXi650-201811103-SG
- ESXi-6.5.0-20181104001-standard
- ESXi-6.5.0-20181104001-no-tools
- ESXi-6.5.0-20181101001s-standard
- ESXi-6.5.0-20181101001s-no-tools
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR fijadas | 1847663, 1863313, 1894568, 1949789, 2021943, 2022147, 2029579, 2037849, 2037926, 2057600, 2063154, 2071506, 2071610, 2071817, 2072971, 2073175, 2078843, 2079002, 2083594, 2083627, 2084723, 2088951, 2089048, 2096942, 2097358, 2098928, 2102135, 2102137, 2107335, 2113432, 2119609, 2122259, 2122523, 2128932, 2130371, 2133589, 2136002, 2139317, 2139940, 2142767, 2144766, 2152381, 2153867, 2154912, 2187127, 2128759, 2155840, 2155858, 2156840, 2157503, 2158561, 2164733, 2167294, 2167877, 2170126, 2171799, 2173856, 2179262, 2180962, 2182211, 2186065, 2191349, 2192629, 2192836, 2193829, 2187136, 2194304, 2197789, 2203385, 2203836, 2204024, 2204028, 2204507, 2209900, 2209919, 2211285, 2211639, 2213917, 2225439, 2225471, 2133634, 2139131 |
Números CVE | N/C |
Esta revisión actualiza los VIB esx-base, esx-tboot, vsan
y vsanhealth
para resolver los problemas siguientes:
Continuidad del sitio inteligente para los clústeres ampliados. En el caso de una partición entre los sitios de datos preferido y secundario, ESXi650-201811002 permite a vSAN determinar inteligentemente el sitio que da lugar a la máxima disponibilidad de datos antes de formar automáticamente cuórum con el testigo. El sitio secundario puede funcionar como el sitio activo hasta que el sitio preferido tenga la copia más reciente de los datos. Esto evita que las máquinas virtuales vuelvan a migrar hacia el sitio preferido y se pierda la localidad de las lecturas de datos.
Resincronización adaptable para la administración dinámica del tráfico de resincronización. Con ESXi650-201811002, la resincronización adaptativa acelera el tiempo para el cumplimiento, restaurando un objeto a sus errores que se toleran proporcionados, mediante la asignación de ancho de banda dedicado para E/S de resincronización. La E/S de resincronización es generada por vSAN para que un objeto vuelva a estar en cumplimiento. Mientras se garantiza el ancho de banda mínimo para las operaciones de E/S de resincronización, el ancho de banda se puede aumentar dinámicamente si no hay ninguna contención desde el cliente de E/S. Por otro lado, si no hay ninguna operación de E/S de resincronización, las operaciones de E/S de cliente pueden usar el ancho de banda adicional.
- PR 1949789: Se puede producir un error en la actualización a ESXi 6.5 y versiones posteriores mediante vSphere Update Manager debido a un problema con la biblioteca libparted
Se puede producir un error en la actualización a ESXi 6.5 y versiones posteriores mediante vSphere Update Manager debido a un problema con la biblioteca de código abierto libparted. Es posible que se muestre el siguiente seguimiento inverso:
[root@hidrogenio07:~] partedUtil getptbl /vmfs/devices/disks/naa.60000970000592600166533031453135
El seguimiento inverso tiene 12 llamadas en la pila:
12: /lib/libparted.so.0(ped_assert+0x2a) [0x9e524ea]
11: /lib/libparted.so.0(ped_geometry_read+0x117) [0x9e5be77]
10: /lib/libparted.so.0(ped_geometry_read_alloc+0x75) [0x9e5bf45]
9: /lib/libparted.so.0(nilfs2_probe+0xb5) [0x9e82fe5]
8: /lib/libparted.so.0(ped_file_system_probe_specific+0x5e) [0x9e53efe]
7: /lib/libparted.so.0(ped_file_system_probe+0x69) [0x9e54009]
6: /lib/libparted.so.0(+0x4a064) [0x9e8f064]
5: /lib/libparted.so.0(ped_disk_new+0x67) [0x9e5a407]
4: partedUtil() [0x804b309]
3: partedUtil(main+0x79e) [0x8049e6e]
2: /lib/libc.so.6(__libc_start_main+0xe7) [0x9edbb67]
1: partedUtil() [0x804ab4d] AbortedEl problema está resuelto en esta versión.
- PR 2169914: Puede que las matrices SolidFire no tengan un rendimiento óptimo
Puede que las matrices SolidFire no tengan un rendimiento óptimo sin la reconfiguración de las reglas de notificación de SATP.
El problema está resuelto en esta versión. Esta solución establece las reglas de notificación del complemento de tipo de matriz de almacenamiento (Storage Array Type Plugin, SATP) para matrices de almacenamiento SAN de SSD de SolidFire como
VMW_SATP_DEFAULT_AA
y la directiva de selección de ruta de acceso (Path Selection Policy, PSP) comoVMW_PSP_RR
con 10 operaciones de E/S por segundo de manera predeterminada para lograr un rendimiento óptimo. - PR 2169924: Las reglas de notificación deben agregarse de forma manual a ESXi
Las reglas de notificación deben agregarse manualmente a ESXi para los siguientes modelos de matrices de almacenamiento DELL MD: MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf y MD38xxi.
El problema está resuelto en esta versión. Esta solución establece SATP como
VMW_SATP_ALUA
, PSP comoVMW_PSP_RR
y las opciones de notificación comotpgs_on
de forma predeterminada para los siguientes modelos de matrices de almacenamiento DELL MD: MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf y MD38xxi. - PR 2170118: Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante el apagado o la desconexión de máquinas virtuales si se utiliza EMC RecoverPoint
Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante el apagado o la desconexión de una máquina virtual si se utiliza EMC RecoverPoint debido a una condición de carrera en la herramienta de filtro de vSCSI.
El problema está resuelto en esta versión.
- PR 2170120: Es posible que algunas rutas de acceso a un dispositivo de almacenamiento dejen de estar disponibles después de una actualización sin interrupciones de los controladores de la matriz de almacenamiento
Durante una actualización sin interrupciones, es posible que algunas rutas de acceso tengan un estado de pérdida de dispositivo permanente (Permanent Device Loss, PDL). Dichas rutas de acceso permanecen no disponibles incluso después de la actualización. Por ello, el dispositivo puede perder la conectividad.
El problema está resuelto en esta versión.
- PR 2071817: Se puede producir un error en los hosts ESXi debido a una estructura de datos dañada en la memoria caché de páginas
Se puede producir un error en los hosts ESXi con una pantalla de diagnóstico de color morado al quitar una página de la memoria caché de páginas debido a una estructura de datos dañada. Es posible que se muestre el siguiente seguimiento inverso:
2018-01-01T04:02:47.859Z cpu13:33232)Backtrace for current CPU #13, worldID=33232, rbp=0xd
2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b720:[0x41800501883b]PageCacheRemoveFirstPageLocked@vmkernel#nover+0x2f stack: 0x4305dd30
2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b740:[0x418005019144]PageCacheAdjustSize@vmkernel#nover+0x260 stack: 0x0, 0x3cb418317a909
2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81bfd0:[0x41800521746e]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0, 0x0, 0x0, 0x0, 0
2018-01-01T04:02:47.877Z cpu13:33232)^[[45m^[[33;1mVMware ESXi 6.0.0 [Releasebuild-6921384 x86_64]^[[0m
#GP Exception 13 in world 33232:memMap-13 @ 0x41800501883bEl problema está resuelto en esta versión. Para obtener más información, consulte el artículo 53511 de la base de conocimientos de VMware.
- PR 2107335: Las reglas de notificación deben agregarse de forma manual al host ESXi
Las reglas de notificación deben agregarse manualmente al host ESXi para las matrices de almacenamiento HITACHI OPEN-v.
El problema está resuelto en esta versión. Esta solución establece SATP como
VMW_SATP_ALUA
, PSP comoVMW_PSP_RR
y las opciones de notificación comotpgs_on
de forma predeterminada para las matrices de almacenamiento de tipo HITACHI OPEN-v compatibles con el acceso asimétrico a unidades lógicas (Asymmetric Logical Unit Access, ALUA). La solución también establece SATP comoVMW_SATP_DEFAULT_AA
, PSP comoVMW_PSP_RR
y las opciones de notificación comotpgs_off
de forma predeterminada para las matrices de almacenamiento de tipo HITACHI OPEN-v sin compatibilidad con ALUA. - PR 2122259: Los ajustes agregados manualmente a la configuración de NTP se pueden perder después de una actualización de NTP
Si se agregan ajustes manualmente a la configuración de NTP, es posible que estos se eliminen del archivo
ntp.conf
si se actualiza NTP mediante vSphere Web Client. Las actualizaciones de NTP conservan todos los ajustes junto con las opciones de restricción, driftfile y los servidores agregados de forma manual al archivontp.conf
. Si se modifica de forma manual el archivontp.conf
, es necesario reiniciar hostd para propagar las actualizaciones.El problema está resuelto en esta versión.
- PR 2136002: Los tickets obsoletos en discos de memoria RAM pueden provocar que los hosts ESXi dejen de responder
Los tickets obsoletos, los cuales no se eliminan antes de que hostd genere un nuevo ticket, pueden agotar los nodos de los discos de memoria RAM. Esto puede provocar que los hosts ESXi dejen de responder.
El problema está resuelto en esta versión.
- PR 2083594: Es posible que no se pueda utilizar un dispositivo USB conectado como acceso directo para migrar máquinas virtuales si se utiliza vSphere vMotion
Es posible que no se pueda utilizar un dispositivo USB conectado como acceso directo para migrar máquinas virtuales si se utiliza vSphere vMotion debido a una comprobación de condición redundante.
El problema está resuelto en esta versión. Si ya experimenta el problema, agregue al archivo vmx la siguiente línea:
usb.generic.allowCCID = "TRUE"
. Para obtener más información, consulte el artículo 55789 de la base de conocimientos de VMware. - PR 2128932: Se puede producir un error que no se muestre en una E/S enviada a una instantánea VMFSsparse
Si una máquina virtual forma parte de una instantánea VMFSsparse, es posible que las operaciones de E/S enviadas a la máquina virtual se procesen solo parcialmente en el nivel de VMFSsparse, pero que las capas superiores, como los filtros de E/S, supongan que la transferencia se realizó correctamente. Esto puede producir una inconsistencia de datos.
El problema está resuelto en esta versión. Esta solución configura un estado de error transitorio para la referencia de las capas superiores si se ha completado una operación de E/S.
- PR 2144766: Los comandos de E/S pueden producir un error CAMPO NO VÁLIDO EN CDB
Puede que los hosts ESXi no reflejen el parámetro
MAXIMUM TRANSFER LENGTH
del que informa el dispositivo SCSI en la página VPD de límites de bloque. Por lo tanto, los comandos de E/S emitidos con un tamaño de transferencia mayor al límite pueden producir un error con un registro similar:2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
El problema está resuelto en esta versión.
- PR 2152381: Es posible que la utilidad de línea de comandos esxtop no muestre correctamente la profundidad de la cola de dispositivos
Es posible que la utilidad de línea de comandos esxtop no muestre un valor actualizado de profundidad de cola de dispositivos si se cambia la profundidad de cola de la ruta de acceso del dispositivo correspondiente.
El problema está resuelto en esta versión.
- PR 2089048: Usar la opción de extensión de ventanas variables de los servicios de implementación de Windows (Windows Deployment Services, WDS) en máquinas virtuales con firmware EFI puede causar un arranque PXE lento
Si se intenta realizar un arranque PXE en una máquina virtual donde se utiliza firmware EFI con un adaptador de red vmxnet3 y WDS, y no se deshabilitó la opción de extensión de ventanas variables en WDS, la máquina virtual puede arrancar demasiado lento.
El problema está resuelto en esta versión.
- PR 2102135: Los dispositivos Apple con una versión de iOS posterior a iOS 11 no se pueden conectar a máquinas virtuales con una versión de OS X posterior a OS X 10.12
Debido a problemas de USB de Apple, los dispositivos con una versión de iOS posterior a iOS 11 no se pueden conectar a máquinas virtuales con una versión de OS X posterior a OS X 10.12.
El problema está resuelto en esta versión. Para habilitar la conexión en las versiones anteriores de ESXi, agregue
usb.quirks.darwinVendor45 = TRUE
como una nueva opción al archivo de configuración.vmx
. - PR 2139940: Es posible que los identificadores para enviar datos de vmware.log a Syslog no funcionen según lo esperado
Es posible que los identificadores para enviar datos de vmware.log a Syslog, definidos con
vmx.log.syslogID
, no funcionen según lo esperado debido a que se omite la cadena especificada en la variable.El problema está resuelto en esta versión.
- PR 2088951: Se puede producir un error de forma intermitente en los hosts ESXi si se deshabilitan las direcciones IPv6 globales
Se puede producir un error de forma intermitente en los hosts ESXi si se deshabilitan las direcciones IPv6 globales debido a que una ruta de acceso de código todavía utiliza IPv6.
El problema está resuelto en esta versión. Si ya experimenta el problema, vuelva a habilitar las direcciones IPv6 globales para evitar errores en los hosts. Si necesita deshabilitar las direcciones IPv6 por algún motivo, debe deshabilitar las IPv6 en los vmknics individuales, no las direcciones IPv6 globales.
- PR 2098928: Se puede producir un error en hostd si se realiza una solicitud HTTP durante la inicialización de hostd
En situaciones excepcionales, cuando se realiza una solicitud HTTP durante la inicialización de hostd, se puede producir un error en el agente.
El problema está resuelto en esta versión.
- PR 2097358: Se produce un error en hostd cuando existen ciertos parámetros no válidos en el archivo VMX de una máquina virtual
Se puede producir un error en hostd cuando existen ciertos parámetros no válidos en el archivo
.vmx
de una máquina virtual. Por ejemplo, cuando se agrega manualmente un parámetro, comoideX:Y.present
, con un valorTrue
al archivo.vmx
.El problema está resuelto en esta versión.
- PR 2078843: Se puede producir un error en la migración mediante vSphere vMotion entre hosts de diferentes versiones de ESXi
Cuando existen hosts de diferentes versiones de ESXi en un clúster de máquinas virtuales Linux, y el nivel de Enhanced vMotion Compatibility (EVC) se establece en L0 o L1 para procesadores Merom y Penryn, es posible que las máquinas virtuales dejen de responder si se intenta la migración mediante vSphere vMotion de un host ESXi 6.0 a un host con una versión más reciente de ESXi.
El problema está resuelto en esta versión.
- PR 2153867: Es posible que un host ESXi deje de responder al cerrar volúmenes VMware vSphere VMFS6
Un host ESXi puede dejar de responder si los latidos del almacén de datos se detienen prematuramente al cerrar VMware vSphere VMFS6. Por lo tanto, el administrador de afinidad no puede cerrarse correctamente.
El problema está resuelto en esta versión.
- PR 2133589: Las reglas de notificación deben agregarse manualmente a ESXi para las matrices de almacenamiento Tegile IntelliFlash
Las reglas de notificación deben agregarse manualmente a ESXi para las matrices de almacenamiento Tegile IntelliFlash.
El problema está resuelto en esta versión. Esta solución configura SATP como
VMW_SATP_ALUA
, PSP comoVMW_PSP_RR
y las opciones de notificación comotpgs_on
de forma predeterminada para las matrices de almacenamiento Tegile IntelliFlash compatibles con ALUA. La solución también establece SATP enVMW_SATP_DEFAULT_AA
, PSP enVMW_PSP_RR
y las opciones de notificación entpgs_off
de forma predeterminada para las matrices de almacenamiento Tegile IntelliFlash sin compatibilidad con ALUA. - PR 2113432: Los eventos de observaciones de VMkernel (VMkernel Observations, VOB) pueden generar advertencias de rendimiento del dispositivo innecesarias
Se pueden generar estos dos eventos VOB debido a variaciones en la latencia de E/S en una matriz de almacenamiento, pero no se informa ningún problema real en las máquinas virtuales:
Se deterioró el rendimiento del dispositivo naa.xxx. La latencia de E/S aumentó del valor promedio de 4114 microsegundos a 84518 microsegundos.
El rendimiento del dispositivo naa.xxx mejoró. La latencia de E/S se redujo de 346115 microsegundos a 67046 microsegundos.
El problema está resuelto en esta versión.
- PR 2119609: La migración de una máquina virtual con un conmutador de dispositivo de sistema de archivos (Filesystem Device Switch, FDS) en un almacén de datos de VMware vSphere Virtual Volumes mediante VMware vSphere vMotion puede provocar varios problemas
Si se utiliza vSphere vMotion para migrar una máquina virtual con filtros de dispositivos de archivos de un almacén de datos de vSphere Virtual Volumes a otro host, y en la máquina virtual se encuentran habilitados el seguimiento de bloques modificados (Changed Block Tracking, CBT), VMware vSphere Flash Read Cache (VFRC) o los filtros de E/S, la migración puede causar problemas con cualquiera de esas funciones. Durante la migración, los filtros de dispositivos de archivos pueden no transferirse correctamente al host. Por lo tanto, es posible que se observen copias de seguridad incrementales dañadas en CBT, una degradación de rendimiento en VFRC y los filtros de E/S de la memoria caché, así como daños en los filtros de E/S de replicación y el disco, cuando los filtros de E/S de la memoria caché se configuran en modo de reescritura. También se pueden observar problemas con el cifrado de la máquina virtual.
El problema está resuelto en esta versión.
- PR 2096942: Las llamadas de API getTaskUpdate a identificadores de tareas eliminadas pueden provocar el desborde del registro y un mayor uso de ancho de banda de API
Si utiliza un proveedor de VMware vSphere API for Storage Awareness, es posible que se muestren varias llamadas
getTaskUpdate
a tareas canceladas o eliminadas. Por lo tanto, es posible que se observe un mayor uso de ancho de banda de vSphere API for Storage Awareness y un desborde del registro.El problema está resuelto en esta versión.
- PR 2142767: VMware vSphere Virtual Volumes puede dejar de responder si un proveedor de vSphere API for Storage Awareness pierde la información de enlace de su base de datos
vSphere Virtual Volumes puede dejar de responder debido a un bucle infinito que carga las CPU al 100 % si un proveedor de vSphere API for Storage Awareness pierde la información de enlace de su base de datos. Hostd también puede dejar de responder. Se puede mostrar un mensaje de error irrecuperable. Esta solución impide los bucles infinitos en caso de errores de enlace de la base de datos.
El problema está resuelto en esta versión.
- PR 2155840: Hostd puede dejar de responder durante el esfuerzo de registro
Si el grupo de recursos de registro de un host ESXi se esfuerza debido a un registro excesivo, hostd puede dejar de responder mientras se ejecutan los comandos
esxcfg-syslog
. Como esta solución mueve los comandos relacionados conesxcfg-syslog
del grupo de recursos de registro a ESXi Shell, es posible observar un mayor uso de memoria en el grupo de recursos de shell predeterminado.El problema está resuelto en esta versión.
- PR 2088424: Es posible ver alarmas de estado de hardware falsas debido a sensores deshabilitados o inactivos de la interfaz de administración de plataforma inteligente (Intelligent Platform Management Interface, IPMI)
Los sensores de IPMI deshabilitados o los que no informan de ningún dato pueden generar alarmas de estado de hardware falsas.
El problema está resuelto en esta versión. Esta solución filtra las alarmas de ese tipo.
- PR 2156458: Eliminar del registro un proveedor de vSphere API for Storage Awareness en un estado desconectado puede provocar un error
Si se elimina del registro un proveedor de vSphere API for Storage Awareness en un estado desconectado, puede que aparezca el error
java.lang.NullPointerException
. Los administradores de eventos y alarmas no se inicializan cuando un proveedor está en un estado desconectado, lo que provoca el error.El problema está resuelto en esta versión.
- PR 2122523: Un almacén de datos VMFS6 puede informar incorrectamente de que se agotó el espacio
Un almacén de datos VMFS6 puede indicar de forma incorrecta que se agotó el espacio debido a entradas de memoria caché obsoletas.
El problema está resuelto en esta versión. Se han corregido los informes de asignación de espacio con las actualizaciones automáticas de las entradas de memoria caché, pero esta corrección impide que se muestre el error incluso antes de una actualización.
- PR 2052171: Se puede producir un error en la consolidación de discos de máquina virtual si la máquina virtual tiene instantáneas creadas con la memoria caché de lectura basada en contenido (Content Based Read Cache, CBRC) habilitada y luego se deshabilita esta función
Si una máquina virtual tiene instantáneas creadas con CBRC y luego se deshabilita CBRC, se puede producir el error
Un parámetro especificado no era correcto: spec.deviceChange.device
en operaciones de consolidación de discos debido a la eliminación de un archivo de resumen tras deshabilitar CBRC. Se muestra una alertaSe necesitan consolidar los discos de la máquina virtual
hasta que se resuelve el problema.El problema está resuelto en esta versión. Esta solución evita el problema, pero aún es posible que se produzca en máquinas virtuales que tienen instantáneas tomadas con una CBRC habilitada que luego se deshabilita. Si ya experimenta el problema, habilite el resumen en toda la cadena de discos para eliminar y volver a crear todos los archivos de resumen.
- PR 2071506: Puede que OpenManage Integration for VMware vCenter (OMIVV) de Dell no identifique algunos servidores modulares Dell de Integrated Dell Remote Access Controller (iDRAC)
OMIVV se basa en la información de la propiedad de iDRAC
hardware.systemInfo.otherIdentifyingInfo.ServiceTag
para recuperar el parámetroSerialNumber
e identificar algunos servidores modulares de Dell. Un error de coincidencia en la propiedadserviceTag
puede producir un error en esta integración.El problema está resuelto en esta versión.
- PR 2137711: Los sensores de presencia en la pestaña Estado de hardware pueden mostrar el estado Desconocido
Anteriormente, si no se encontraba un componente como un procesador o un ventilador en un sistema vCenter Server, los sensores de presencia mostraban el estado Desconocido. Sin embargo, los sensores de presencia no tienen un estado asociado.
El problema está resuelto en esta versión. Esta solución filtra los componentes con estado Desconocido.
- PR 2192836: Si el destino conectado a un host ESXi admite solo ALUA implícita y tiene rutas de acceso solo en espera, se puede producir un error en el host con una pantalla de diagnóstico de color morado al detectar el dispositivo
Si el destino conectado a un host ESXi admite solo ALUA implícita y tiene rutas de acceso solo en espera, se puede producir un error en el host con una pantalla de diagnóstico de color morado al detectar el dispositivo debido a una condición de carrera. Es posible que se muestre un seguimiento inverso similar al siguiente:
SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807El problema está resuelto en esta versión.
- PR 2130371: Se puede producir un error en la actualización de VMware Tools con el código VIX 21000
Si un host ESXi no tiene ninguna imagen ISO de VMware Tools disponible y se intenta actualizar VMware Tools en una máquina virtual activa, se puede producir un error en la operación con
el código VIX 21000
. Es posible que no pueda actualizar VMware Tools mediante la API, vSphere Client o vSphere Web Client, incluso después de obtener una imagen ISO disponible. Esto se debe a que el host ESXi almacena en caché la primera comprobación de disponibilidad durante el encendido de la máquina virtual y no la actualiza.El problema está resuelto en esta versión. La solución establece un valor predeterminado de caducidad de 5 minutos para la comprobación de disponibilidad de imagen ISO de VMware Tools. Si se produce un error en una actualización, se puede volver a intentar la operación 5 minutos después de montar una imagen ISO.
- PR 2021943: Los registros del servicio de hostd y Syslog pueden recopilar registros de excepción de depuración innecesarios
Los registros del servicio de hostd y Syslog pueden recopilar registros de excepción de depuración innecesarios de todos los hosts ESXi en un clúster.
En el registro de hostd, los mensajes son similares a lo siguiente:
No match, sensor_health file missing sensorNumer 217: class 3 sensor type 35 offset 0
En
Syslog
,/etc/sfcb/omc/sensor_health,
los mensajes son similares a lo siguiente:Missing expected value to check for
El problema está resuelto en esta versión.
- PR 2167294: Todas las rutas desactivadas (All Paths Down, APD) no se activa para los LUN detrás de un destino de IBM SAN Volume Controller (SVC) incluso si ninguna ruta puede prestar servicios de E/S
En una configuración de ESXi con varias rutas a los LUN detrás de los destinos de IBM SVC, en caso de pérdida de conexión en rutas activas y si, al mismo tiempo, otras rutas de acceso conectadas no están en un estado que les permita prestar servicios de E/S, puede que el host ESXi no detecte esta condición como APD, incluso si no hay ninguna ruta disponible para prestar servicios de E/S. Por lo tanto, no se producen errores rápidos en las operaciones de E/S en el dispositivo.
El problema está resuelto en esta versión. Esta corrección está deshabilitada de forma predeterminada. Para habilitar la solución, establezca la opción de configuración de ESXi
/Scsi/ExtendAPDCondition
enesxcfg-advcfg -s 1 /Scsi/ExtendAPDCondition
. - PR 2022147: Es posible que los tamaños de anillo personalizados Rx y Tx de NIC físicas no sean persistentes en todos los reinicios del host ESXi
Si se personalizan los tamaños de anillo Rx y Tx de NIC físicas para mejorar el rendimiento de red mediante los siguientes comandos:
esxcli network nic ring current set -n <vmnicX> -t <value>
esxcli network nic ring current set -n <vmnicX> -r <value>
es posible que la configuración no sea persistente en todos los reinicios del host ESXi.El problema está resuelto en esta versión. La solución hace que estas configuraciones de ESXCLI sean persistentes en todos los reinicios mediante la escritura en el archivo de configuración de ESXi. Es necesario permitir la configuración de tamaños de anillo en las NIC físicas antes de usar la CLI.
- PR 2171799: Un bloqueo flexible de CPU físicas puede provocar un error en un host ESXi con una pantalla de diagnóstico de color morado
Si se agota el tiempo de espera de una gran cantidad de operaciones de E/S en un sistema de carga pesada, se puede producir un bloqueo flexible de CPU físicas. Como resultado, se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado.
El problema está resuelto en esta versión.
- PR 2173856: El rendimiento de las operaciones de vSphere vMotion de larga distancia a una latencia elevada puede deteriorarse debido al límite de tamaño de búfer de socket máximo
Es posible que observe un bajo rendimiento de las operaciones de larga distancia de vSphere vMotion con alta latencia (como 100 ms o más) y vínculos de red de alta velocidad (como 10 GbE) debido al límite de búfer de socket codificado de forma rígida de 16 MB. Con esta corrección, puede configurar el parámetro de tamaño de búfer de socket máximo
SB_MAX_ADJ
.El problema está resuelto en esta versión.
- PR 2193829: Se puede producir un error en el proceso ejecutable de máquinas virtuales y se pueden apagar las máquinas virtuales durante un reinicio del sistema operativo invitado
Debido a una condición de carrera, se puede producir un error en el proceso ejecutable de máquinas virtuales y se pueden apagar las máquinas virtuales durante un reinicio del sistema operativo invitado.
El problema está resuelto en esta versión.
- PR 1894568: Desborde del registro en syslog.log
Se pueden mostrar varios mensajes, como
sfcb-vmware_raw[69194]: IpmiIfcFruGetInv: Failed during send cc = 0xc9
ensyslog.log
. Estos son registros de información normales, no son registros de error o advertencia.El problema está resuelto en esta versión.
- PR 2203385: Después de que se coloca correctamente en modo inactivo una instantánea de una máquina virtual Linux, el administrador de instantáneas puede indicar que la instantánea no se encuentra en modo inactivo
Después de que se toma una instantánea de una máquina virtual Linux colocada correctamente en modo inactivo, el administrador de instantáneas puede indicar que la instantánea no se encuentra en modo inactivo.
El problema está resuelto en esta versión.
- PR 2191349: El daemon de supervisión de discos SMART, smartd, puede saturar los registros del servicio Syslog de las compilaciones de versión con mensajes de depuración y de información
En las compilaciones de versión, smartd puede generar una gran cantidad de mensajes de depuración y de información en los registros del servicio Syslog.
El problema está resuelto en esta versión. La solución elimina los mensajes de depuración de las compilaciones de versión.
- PR 2179262: Se puede producir un error en las máquinas virtuales con un CD-ROM virtual SATA debido a comandos no válidos
Los comandos no válidos en un CD-ROM virtual SATA pueden activar errores y aumentar el uso de memoria de las máquinas virtuales. Esto puede desencadenar un error en las máquinas virtuales si no pueden asignar memoria.
Se pueden mostrar los siguientes registros para los comandos no válidos:YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.
Y un mensaje de detención similar al siguiente:
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure
El problema está resuelto en esta versión.
- PR 2182211: La columna Ubicación física de la tabla Administración de discos de vSphere Web Client queda vacía
Cuando se selecciona la columna Ubicación física de la tabla Administración de discos en el panel de control de configuración del clúster de vSphere Web Client, la columna puede permanecer vacía y mostrar solamente información sobre el controlador hpsa.
El problema está resuelto en esta versión.
- PR 2194304: El smartd del host ESXi informa de algunas advertencias
Algunos parámetros de los dispositivos flash críticos, incluidos la temperatura y el conteo de sectores reasignados, no proporcionan valores de umbral. Como resultado, el daemon smartd del host ESXi puede informar de algunas advertencias.
El problema está resuelto en esta versión.
- PR 2209900: Un host ESXi puede dejar de responder
El servicio de hostd puede dejar de responder mientras el proceso externo esxcfg-syslog permanece atascado. Como resultado, el host ESXi puede dejar de responder.
El problema está resuelto en esta versión.
- PR 2167877: Un host ESXi puede producir una pantalla de diagnóstico de color morado si se habilita IPFIX en tráfico intenso continuo
Al habilitar IPFIX con un tráfico intenso de diferentes flujos, el latido del sistema puede no reemplazar la CPU de IPFIX durante un largo período y activar una pantalla de diagnóstico de color morado.
El problema está resuelto en esta versión.
- PR 2211285: Un puerto de máquina virtual puede bloquearse tras una conmutación por error de VMware vSphere High Availability (vSphere HA)
De forma predeterminada, la función Respuesta de aislamiento de un host ESXi con vSphere HA habilitado se encuentra deshabilitada. Cuando se habilita la función Respuesta de aislamiento, es posible que un puerto de máquina virtual conectado a un conmutador lógico NSX-T se bloquee después de una conmutación por error de vSphere HA.
El problema está resuelto en esta versión.
- PR 2211639: Es posible ver paquetes que no concuerdan con el tráfico de infraestructura cuando se deshabilitan VMware vSphere Network I/O Control y el emparejamiento de colas
Si se deshabilitan vSphere Network I/O Control y el emparejamiento de colas de NIC, es posible que vea paquetes que no concuerdan con el tráfico de infraestructura, como administración, iSCSI y NFS. Esto se debe a que, cuando no se habilita vSphere Network I/O Control, se deshabilita el emparejamiento de colas y las NIC trabajan con varias colas.
El problema está resuelto en esta versión.
- PR 2186065: Los registros de códigos de eventos de firmware pueden saturar vmkernel.log
Las unidades que no admiten la página VPD de límites de bloque
0xb0
pueden generar registros de códigos de eventos que saturan el archivovmkernel.log
.El problema está resuelto en esta versión.
- PR 2209919: Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado y se puede mostrar el siguiente mensaje: PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc
Cuando se replican máquinas virtuales mediante VMware vSphere Replication, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color morado inmediatamente o en las siguientes 24 horas, y se puede mostrar el siguiente mensaje:
PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc
.El problema está resuelto en esta versión.
- PR 2204024: Es posible que las máquinas virtuales dejen de responder debido a errores repetitivos en controladores de dispositivos de terceros para procesar comandos
Es posible que las máquinas virtuales dejen de responder debido a errores repetitivos en algunos controladores de dispositivos de terceros para procesar comandos. Se puede mostrar el siguiente error al abrir la consola de máquina virtual:
Error: "No se puede conectar al MKS: No se pudo conectar a la canalización \\.\pipe\vmware-authdpipe en el período de reintentos"
El problema está resuelto en esta versión. Esta solución recupera los comandos en controladores de dispositivos de terceros que no responden, y garantiza que los comandos con errores se detengan y se vuelvan a intentar hasta que se ejecuten correctamente.
- PR 2164733: Se puede producir un error de compatibilidad de NamespaceDb en la migración de máquinas virtuales mediante VMware vSphere vMotion si el servicio de introspección de invitado se encuentra activado
Si el servicio de introspección de invitado en un entorno de vSphere 6.5 con más de 150 máquinas virtuales se encuentra activado, se puede producir un error en la migración de máquinas virtuales mediante vSphere vMotion en vSphere Web Client con un mensaje similar al siguiente:
El origen detectó un error en la reanudación del destino.
El vmware.log de destino contiene mensajes de error similares a los siguientes:
2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transición de estado 11 a 12.
2018-07-18T02:41:32.035Z| vmx| I125: Migrar: Lista de mensajes de error de almacenamiento en caché de la migración:
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] No se pudo recibir la migración.
2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Versión incompatible de -1 (se espera 2).
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] Se produjo un error al restaurar el estado de la máquina virtual durante la migración.El registro de VMkernel tiene mensajes de error como los siguientes:
2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3El problema está resuelto en esta versión.
- PR 2063154: Un host ESXi puede dejar de responder cuando se desconecta de un almacén de datos de NFS configurado para el registro
Si se configura un almacén de datos de NFS como un almacén de datos de Syslog y un host ESXi se desconecta de él, se detiene el registro en el almacén de datos y el host ESXi puede dejar de responder.
El problema está resuelto en esta versión.
- PR 2203836: Las reglas de notificación deben agregarse manualmente a ESXi para las matrices de almacenamiento serie Lenovo DE
Esta solución configura SATP como
VMW_SATP_ALUA
, PSP comoVMW_PSP_RR
y las opciones de notificación comotpgs_on
de forma predeterminada para las matrices de almacenamiento serie Lenovo DE.El problema está resuelto en esta versión.
- PR 2110196: Error en el disco de capacidad de un clúster de vSAN con la desduplicación que provoca un error de host
En un clúster de vSAN con la desduplicación habilitada, puede producirse un error en un host ESXi si las operaciones de E/S se dirigen a un disco que se encuentra en estado de pérdida de dispositivo permanente (PDL).
El problema está resuelto en esta versión.
- PR 2084723: Se puede producir un error en hostd si se elimina de un host ESXi la carpeta de paquetes de soporte de una máquina virtual
Si se elimina manualmente de un host ESXi la carpeta de paquetes de soporte de una máquina virtual, descargada en el directorio
/scratch/downloads
del host, se puede producir un error en hostd cuando este intente eliminar automáticamente carpetas de esta ruta de acceso una hora después de su creación.El problema está resuelto en esta versión.
- PR 2213917: Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado debido a una condición de carrera
Aunque ya se haya expulsado la entrada de la memoria caché, es posible que se expulse nuevamente debido a una condición de carrera. Esto produce una desreferencia de puntero nulo en el host ESXi, lo que provoca un error en el host ESXi.
El problema está resuelto en esta versión.
- PR 2197789: El programador de NIOC puede restablecer el vínculo superior
Es posible que el programador hclock de NIOC restablezca el dispositivo de red de vínculo superior cuando el vínculo superior se utiliza periódicamente, y que el restablecimiento no sea predecible.
El problema está resuelto en esta versión.
- PR 1863313: Aplicar un perfil de host con instalaciones con estado habilitadas en un host ESXi 6.5 mediante vSphere Auto Deploy puede producir un error
Si se habilita la función de instalaciones con estado en un perfil de host, y la NIC de VMkernel de administración se conecta a un conmutador virtual distribuido, se puede producir un error al aplicar el perfil de host a otro host ESXi 6.5 mediante vSphere Auto Deploy durante un arranque PXE. El host permanece en modo de mantenimiento.
El problema está resuelto en esta versión.
- PR 2029579: El encendido y apagado continuos de una máquina virtual con vNIC SR-IOV mediante scripts pueden provocar un error en el host ESXi
La ejecución del ciclo de energía de una máquina virtual con vNIC de SR-IOV mediante scripts puede provocar un error en el host ESXi con una pantalla de diagnóstico de color morado.
El problema está resuelto en esta versión. Ejecute operaciones de ciclo de energía mediante vSphere Web Client o vSphere Client para evitar problemas similares.
- PR 2139317: Se puede producir un error en el servicio de agente de host ESXi si una entidad ya no forma parte de la base de datos de estadísticas de un host ESXi
Si una entidad, como una máquina virtual o un almacén de datos, ya no forma parte de la base de datos de estadísticas de un host ESXi, pero vim.PerformanceManager emite una solicitud de datos de rendimiento a esta entidad, es posible alcanzar una ruta de acceso de código con la que se produzca un error en el proceso del agente de host. Como resultado, el host puede dejar de estar disponible temporalmente para el sistema vCenter Server.
El problema está resuelto en esta versión.
- PR 2187136: Habilitar NetFlow puede provocar una alta latencia de red
Si se habilita la herramienta de análisis de red NetFlow para tomar muestras de todos los paquetes en un grupo de puertos de vSphere Distributed Switch, al configurar la frecuencia de muestreo en 0, la latencia de red puede llegar a 1000 ms en caso de que se supere el millón de flujos.
El problema está resuelto en esta versión. Puede optimizar más el rendimiento de NetFlow si configura el parámetro
ipfixHashTableSize IPFIX
como-p "ipfixHashTableSize=65536" -m ipfix
a través de la CLI. Para completar la tarea, reinicie el host ESXi. - PR 2170126: Las máquinas virtuales proxy de copia de seguridad pueden entrar en estado no válido durante la copia de seguridad
Una máquina virtual que realiza cientos de operaciones de adición o eliminación en caliente de discos sin apagarse ni migrarse puede finalizarse y dejar de ser válida. Esto afecta a las soluciones de copia de seguridad, donde la máquina virtual proxy de copia de seguridad puede ser finalizada.
En el registro de hostd, es posible que vea contenido similar al siguiente:
2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171En el registro de vmkernel, el contenido es similar al siguiente:
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size. Cannot expand.El problema está resuelto en esta versión.
- PR 2155858: Es posible que no se pueda anular la configuración de afinidad exclusiva después de apagar una máquina virtual
Al apagar la última máquina virtual de un host ESXi, si esta máquina virtual utiliza la configuración sysContexts, es posible que el programador no pueda eliminar la afinidad exclusiva establecida en la configuración sysContexts.
El problema está resuelto en esta versión.
- PR 2095984: El agente SNMP puede entregar un valor vmwVmPoweredOn de captura incorrecto
El agente SNMP puede entregar un valor
vmwVmPoweredOn
de captura incorrecto cuando se selecciona una máquina virtual en la pestaña Resumen y en la pestaña Administrador de instantáneas de vSphere Web Client.El problema está resuelto en esta versión.
- PR 2204507: Es posible que los gráficos de rendimiento avanzados dejen de dibujar gráficos para algunas estadísticas de máquina virtual después de un reinicio de hostd
Es posible que los gráficos de rendimiento avanzados dejen de dibujar gráficos para algunas estadísticas de máquina virtual después de un reinicio de hostd debido a un error de división por cero en algunos contadores.
El problema está resuelto en esta versión.
- PR 2225439: Se puede producir un error en el agente NSX opsAgent cuando se implementa un dispositivo NSX-T en un host ESXi
Se puede producir un error en el agente NSX opsAgent y se puede ver el archivo de volcado de núcleo ubicado en
/var/core
cuando se implementa un dispositivo NSX-T en un host ESXi. El error se produce por una condición de carrera en el código de la biblioteca que proporciona el host.El problema está resuelto en esta versión.
- PR 2154912: VMware Tools puede mostrar un estado incorrecto si se configura el directorio /productLocker en un almacén de datos VMFS compartido
Si se configura el directorio
/productLocker
en un almacén de datos VMFS compartido, cuando se migra una máquina virtual con vSphere vMotion, la instancia de VMware Tools en la máquina virtual puede mostrar incorrectamente el estado No compatible.El problema está resuelto en esta versión.
- PR 2180890: Es posible que el comando MSINFO32 no muestre la memoria RAM física instalada en máquinas virtuales que ejecutan Windows 7 o Windows Server 2008 R2
Es posible que el comando
MSINFO32
no muestre la memoria RAM física instalada en máquinas virtuales que ejecutan Windows 7 o Windows Server 2008 R2. Si se asignan dos o más vCPU a una máquina virtual, el campo RAM física instalada muestraNo disponible
.El problema está resuelto en esta versión.
- PR 2085546: La latencia de E/S en un clúster de vSAN puede aumentar cuando se producen operaciones de E/S superpuestas no alineadas
En algunos casos, cuando se producen operaciones de E/S superpuestas no alineadas, es posible que el programador de confirmación del motor de confirmación de dos fases de la pila de vSAN no se ejecute de forma inmediata. Esta demora puede agregar latencia a las operaciones de E/S.
El problema está resuelto en esta versión.
- PR 2051108: La API de Readdir siempre devuelve EOF y, como resultado, los comandos listdir muestran un comportamiento inesperado
La API de OSFS_Readdir rellena entradas de directorio limitadas según el tamaño de búfer proporcionado y siempre devuelve Sí como fin de archivo (End Of File, EOF). Es posible que deba llamar a FSSReadDir varias veces para leer todo el directorio.
El problema está resuelto en esta versión.
- PR 2164137: Se puede producir un error en los hosts ESXi de un clúster ampliado con vSAN durante la actualización a ESXi 6.5
Al actualizar un clúster ampliado con vSAN de ESXi 6.0 a 6.5, se puede producir un error en un host con una pantalla de diagnóstico de color morado. El siguiente seguimiento de pila identifica este problema.
#0 DOMUtil_HashFromUUID
#1 DOMServer_GetServerIndexFromUUID
#2 DOMOwnerGetRdtMuxGroupInt
#3 DOMOwner_GetRdtMuxGroupUseNumServers
#4 DOMAnchorObjectGetOwnerVersionAndRdtMuxGroup
#5 DOMAnchorObjectCreateResolverAndSetMuxGroup
#6 DOMObject_InitServerAssociation
#7 DOMAnchorObjectInitAssociationToProxyOwnerStartTask
#8 DOMOperationStartTask
#9 DOMOperationDispatch
#10 VSANServerExecuteOperation
#11 VSANServerMainLoop - PR 2112683: vSAN no marca un disco como degradado aunque después se informe de operaciones de E/S con errores en el disco
En algunos casos, vSAN tarda mucho tiempo en marcar un disco como degradado, aunque el disco informa de errores en operaciones de E/S y vSAN deja de procesar cualquier otra operación de E/S de dicho disco.
El problema está resuelto en esta versión.
- PR 1814870: Es posible que los ventiladores de los servidores Dell R730 aparezcan en el grupo de supervisión de estado de hardware incorrecto o no se muestren
Los ventiladores de los servidores Dell R730 pueden no aparecer en la sección Ventilador de la pestaña Estado de hardware de vSphere Client o vSphere Web Client, pero sí en otras secciones, o no mostrarse en absoluto.
El problema está resuelto en esta versión.
- PR 2140766: El supervisor de capacidad de vSAN muestra una capacidad utilizada incorrecta
Después de actualizar vCenter Server a 6.5 Update 2, el supervisor de capacidad de vSAN no incluye la capacidad para las máquinas virtuales implementadas en los hosts ESXi con versiones anteriores a 6.5 Update 2. Es posible que el supervisor muestre menos capacidad utilizada que la cantidad realmente utilizada en el clúster.
El problema está resuelto en esta versión.
- PR 2172723: El ancho de banda de E/S de invitado es bajo en un clúster de vSAN debido a la congestión de componente durante escrituras grandes
En algunos casos, se produce una latencia más alta durante operaciones de escritura secuenciales muy grandes. Puede que note una disminución de las E/S por segundo al entrar en modo de mantenimiento.
El problema está resuelto en esta versión.
- PR 2073175: Es posible perder la conectividad con los almacenes de datos de NFS si se asigna a un nuevo almacén de datos el antiguo nombre de un almacén de datos existente
Es posible perder la conectividad con los almacenes de datos de NFS si se asigna a un nuevo almacén de datos el antiguo nombre de un almacén de datos existente. Por ejemplo, si se cambia el nombre de un almacén de datos de NFS-01 a NFS-01-renamed y, a continuación, se crea un nuevo almacén de datos de NFS con el nombre NFS-01. Como resultado, el host ESXi pierde la conectividad con el almacén de datos de nombre cambiado y no puede montar el almacén nuevo.
El problema está resuelto en esta versión.
- PR 2079002: No se pueden establecer nombres de host de IPv6 en modo IPv6 puro si se deshabilita IPv4
Si se deshabilita IPv4 en un host ESXi, es posible que no se puedan establecer los nombres de host de IPv6, ya que el sistema requiere una dirección IPv4.
El problema está resuelto en esta versión. Si IPv4 e IPv6 se habilitan en un host, los nombres de host de IPv4 tienen prioridad.
- PR 2192629: La cantidad de archivos de almacenamiento syslog.log que se generen puede ser menor que la cantidad predeterminada configurada y diferente entre las versiones de ESXi 6.0 y 6.5
La cantidad de archivos de almacenamiento
syslog.log
que se generen puede ser menor que el valor predeterminado configurado mediante el parámetrosyslog.global.defaultRotate
. Además, la cantidad de archivos de almacenamientosyslog.log
puede ser diferente entre las versiones 6.0 y 6.5 de ESXi. Por ejemplo, sisyslog.global.defaultRotate
se configura en 8 de forma predeterminada, ESXi 6.0 creasyslog.0.gz
ensyslog.7.gz
, mientras que ESXi 6.5 creasyslog.0.gz
ensyslog.6.gz
.El problema está resuelto en esta versión.
- PR 2150648: El reequilibrio no puede liberar espacio de un disco desequilibrado si todos los componentes se encuentran en un nodo de concatenación
Cuando se expande un objeto, se agrega una concatenación a las réplicas para admitir el requisito de aumento de tamaño. Durante cierto período, como vSAN crea nuevas réplicas para incluir la concatenación, la concatenación y las réplicas originales se descartan. Como vSAN combina la concatenación y las réplicas originales en una réplica nueva, se puede producir un error en la operación si vSAN no tiene espacio suficiente para colocar los componentes nuevos. Si el disco queda desequilibrado y todos los componentes en el disco se encuentran en los nodos de concatenación, la operación de reequilibrio no puede mover ningún componente para equilibrar el disco.
El problema está resuelto en esta versión.
- PR 2039320: Se produce un error en la expansión de VMDK en el clúster ampliado de vSAN si la directiva de almacenamiento establece la ubicación de los datos en Preferida o Secundaria
No se puede expandir un VMDK mientras se cambia también la directiva de almacenamiento del VMDK, pero aún así se puede producir un error en la expansión sin ningún cambio en la directiva de almacenamiento si la directiva existente ha establecido la regla de ubicación de los datos.
El problema está resuelto en esta versión.
- PR 2158561: No se puede utilizar la función VMware DirectPath I/O en las máquinas virtuales que se ejecutan en un host basado en AMD
Es posible que no se calcule correctamente el límite superior de Generación de informes de rango de memoria reservada para las máquinas virtuales que se ejecutan en hosts basados en AMD. Esto puede evitar que se enciendan las máquinas virtuales donde se utiliza la función de VMware DirectPath I/O.
El problema está resuelto en esta versión.
- PR 2180962: Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado si una llamada en el complemento de múltiples rutas nativo (Native Multipathing Plug-In, NMP) intenta desbloquear un bloqueo ya liberado
Un error en la ruta de código de colocación en modo inactivo de un dispositivo de NMP puede hacer que las llamadas desbloqueen un bloqueo ya liberado, lo que puede generar un error en un host ESXi con una pantalla de diagnóstico de color morado.
El problema está resuelto en esta versión.
- PR 2156840: Las máquinas virtuales que usan EFI y ejecutan Windows Server 2016 en procesadores AMD pueden dejar de responder durante el reinicio
Las máquinas virtuales con hardware versión 10 o posterior que usan EFI y ejecutan Windows Server 2016 en procesadores AMD pueden dejar de responder durante el reinicio. El problema no ocurre si una máquina virtual utiliza el BIOS, la versión de hardware es 11 o posterior, el sistema operativo invitado no es Windows o los procesadores son Intel.
El problema está resuelto en esta versión.
- PR 2204028: Se puede producir un error en un host ESXi después de que se intenta repetidamente volver a registrar el dispositivo de caracteres con el mismo nombre
Si se intenta volver a registrar un dispositivo de caracteres con el mismo nombre, es posible que se muestre una advertencia similar a la siguiente:
2018-09-14T04:49:27.441Z cpu33:4986380)WARNING: CharDriver: 291: El controlador con el nombre XXXX ya utiliza la ranura XX
No se libera la memoria de pila necesaria para registrar el dispositivo para un intento de duplicado. Esto provoca una fuga de memoria y, con el tiempo, se puede producir un error en el host con una pantalla de diagnóstico de color morado.El problema está resuelto en esta versión.
- PR 1847663: Es posible que el módulo SATP de NMP no pueda obtener los parámetros modificados durante la carga
Al cargar el módulo SATP de NMP después de un reinicio del sistema, es posible que el método
vmk_ModuleLoad()
no pueda leer los parámetros específicos del módulo modificado. Este problema afecta principalmente a los controladores de terceros.El problema está resuelto en esta versión.
- PR 2031499: El reequilibrio de discos no funciona según lo esperado en un clúster ampliado si el uso de discos entre sitios es desigual
vSAN utiliza el valor de disco lleno de todos los discos en el clúster para calcular el valor de disco lleno promedio. Este valor se usa durante la operación de reequilibrio para garantizar que la transferencia de datos no provoque un desequilibrio en el disco de destino. Si tiene un clúster ampliado de vSAN, el uso de almacenamiento puede ser diferente entre los sitios. En esos casos, es posible que el reequilibrio no funcione según lo esperado si el valor de disco lleno promedio en un sitio es mayor que en el otro sitio.
El problema está resuelto en esta versión.
- PR 2128759: Un directorio de la máquina virtual permanece en el entorno de NSX-T después de eliminar la máquina virtual
Cuando se elimina una máquina virtual, el directorio de la máquina virtual puede permanecer en el entorno de NSX-T debido a que los archivos del puerto en la carpeta .dvsData se eliminan en el orden incorrecto.
El problema está resuelto en esta versión.
- PR 2187127: El rendimiento de un entorno de VXLAN puede degradarse si IPFIX tiene una frecuencia de muestreo alta y el tráfico es intenso
Al habilitar IPFIX con una frecuencia de muestreo alta y un tráfico intenso, se puede observar una degradación del rendimiento de un entorno de VXLAN.
El problema está resuelto en esta versión. Utilice frecuencias de muestreo más bajas para optimizar el rendimiento.
- PR 2139131: Un host ESXi puede generar un error con una pantalla de diagnóstico de color morado al apagarse
Un host ESXi puede generar un error con una pantalla de diagnóstico de color morado debido a una condición de carrera en una consulta de Multicast Listener Discovery (MLD) versión 1 en entornos IPv6. Es posible que se muestre un mensaje de error similar al siguiente:
#PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
...
0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000El problema está resuelto en esta versión.
- PR 2133634: Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante la migración de máquinas virtuales agrupadas en clúster mediante vSphere vMotion
Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante la migración de máquinas virtuales agrupadas en clúster mediante vSphere vMotion. Este problema afecta a las máquinas virtuales en clústeres que contienen discos no RDM compartidos, como VMDK o vSphere Virtual Volumes, en un modo de uso compartido de bus físico.
El problema está resuelto en esta versión.
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Importante |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | No |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | N/C |
Números CVE | N/C |
Esta revisión actualiza el VIB ne1000
.
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Importante |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | N/C |
Números CVE | N/C |
Esta revisión actualiza el VIB vmkusb
.
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | No |
Migración de máquina virtual o apagado requeridos | No |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR fijadas | 2096875 |
Números CVE | N/C |
Esta revisión actualiza el VIB lsu-lsi-lsi-mr3-plugin
para resolver el siguiente problema:
- PR 2096875: Los hosts ESXi y hostd pueden dejar de responder debido a un problema de asignación de memoria en lsu-lsi-lsi-mr3-plugin
Los hosts ESXi y hostd pueden dejar de responder debido a un problema de asignación de memoria en el complemento de capacidad de servicio de disco de vSAN lsu-lsi-lsi-mr3-plugin. Se pueden mostrar los mensajes de error
Sin memoria
oError de clonación de subproceso
.El problema está resuelto en esta versión.
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Importante |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR fijadas | 2151342 |
Números CVE | N/C |
Esta revisión actualiza el VIB ntg3
para resolver el siguiente problema:
- PR 2151342: Los paquetes que superan la capacidad máxima pueden hacer que las NIC que utilizan el controlador ntg3 detengan temporalmente el envío de paquetes
En casos poco frecuentes, las NIC que utilizan el controlador ntg3, como las NIC Broadcom BCM5719 y 5720 GbE, pueden detener temporalmente el envío de paquetes después de un intento fallido de enviar un paquete que supera la capacidad máxima. El controlador ntg3 versión 4.1.3.2 resuelve este problema.
El problema está resuelto en esta versión.
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Moderado |
Reinicio de host requerido | No |
Migración de máquina virtual o apagado requeridos | No |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR fijadas | 2064111 |
Números CVE | N/C |
Esta revisión actualiza el VIB lsu-hp-hpsa-plugin
para resolver el siguiente problema:
- PR 2064111: Es posible que VMware vSAN con controladoras de matriz inteligente HPE ProLiant Gen9 no encienda los LED de localización en el disco correcto
En un clúster de vSAN con controladoras de matriz inteligente HPE ProLiant Gen9, como P440 y P840, es posible que no se enciendan los LED de localización en el dispositivo con errores correcto.
El problema está resuelto en esta versión.
Categoría de revisión | Seguridad |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR fijadas | 2094558, 2169094, 2020984, 2025909, 2109023, 2189347, 2154394 |
Números CVE | N/C |
Esta revisión actualiza los VIB esx-base, esx-tboot, vsan
y vsanhealth
para resolver el siguiente problema:
ESXi ya no incluye la imagen ISO de Windows anterior a Vista para VMware Tools. La imagen ISO de Windows anterior a Vista está disponible para que la descarguen los usuarios que lo requieran. Para obtener información sobre la descarga, consulte la página Descarga de productos.
- Actualice el daemon de NTP a 4.2.8p12
El daemon de NTP se actualiza a 4.2.8p12.
- PR 2154394: Se puede producir un error en la instancia cifrada de vSphere vMotion debido a un espacio insuficiente en la pila de migración
Para máquinas virtuales grandes, se puede producir un error en la instancia cifrada de vSphere vMotion debido a un espacio insuficiente en la pila de migración.
El problema está resuelto en esta versión.
- Actualización del paquete de Python
El paquete de Python se actualizó a la versión 3.5.5.
- Actualización de la biblioteca libxml2
La biblioteca userworld libxml2 de ESXi se actualizó a la versión 2.9.8.
- Actualización del paquete de OpenSSL
El paquete de OpenSSL se actualizó a la versión 1.0.2p.
- Actualización del paquete de OpenSSH
El paquete de OpenSSH se actualizó a la versión 7.7p1.
Categoría de revisión | Seguridad |
Gravedad de la revisión | Importante |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | N/C |
Números CVE | N/C |
Esta revisión actualiza el VIB esxi-ui
.
Categoría de revisión | Seguridad |
Gravedad de la revisión | Moderado |
Reinicio de host requerido | No |
Migración de máquina virtual o apagado requeridos | No |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | N/C |
Números CVE | N/C |
Esta revisión actualiza el VIB tools-light
.
Nombre del perfil | ESXi-6.5.0-20181104001-standard |
Compilación | Para obtener información de compilación, consulte la parte superior de la página. |
Proveedor | VMware, Inc. |
Fecha de versión | 29 de noviembre de 2018 |
Nivel de aceptación | PartnerSupported |
Hardware afectado | N/C |
Software afectado | N/C |
VIB afectados |
|
PR fijadas | 1847663, 1863313, 1894568, 1949789, 2021943, 2022147, 2029579, 2037849, 2037926, 2057600, 2063154, 2071506, 2071610, 2071817, 2072971, 2073175, 2078843, 2079002, 2083594, 2083627, 2084723, 2088951, 2089048, 2096942, 2097358, 2098928, 2102135, 2102137, 2107335, 2113432, 2119609, 2122259, 2122523, 2128932, 2130371, 2133589, 2136002, 2139317, 2139940, 2142767, 2144766, 2152381, 2153867, 2154912, 2187127, 2128759, 2187136, 2155840, 2155858, 2156840, 2157503, 2158561, 2164733, 2167294, 2167877, 2170126, 2171799, 2173856, 2179262, 2180962, 2182211, 2186065, 2191349, 2192629, 2192836, 2193829, 2194304, 2197789, 2203385, 2203836, 2204024, 2204028, 2204507, 2209900, 2209919, 2211285, 2211639, 2213917, 2225439, 2225471, 2096875, 2151342, 2064111 |
Números de CVE relacionados | N/C |
- Esta revisión actualiza los siguientes problemas:
-
Se puede producir un error en la actualización a ESXi 6.5 y versiones posteriores mediante vSphere Update Manager debido a un problema con la biblioteca de código abierto libparted. Es posible que se muestre el siguiente seguimiento inverso:
[root@hidrogenio07:~] partedUtil getptbl /vmfs/devices/disks/naa.60000970000592600166533031453135
El seguimiento inverso tiene 12 llamadas en la pila:
12: /lib/libparted.so.0(ped_assert+0x2a) [0x9e524ea]
11: /lib/libparted.so.0(ped_geometry_read+0x117) [0x9e5be77]
10: /lib/libparted.so.0(ped_geometry_read_alloc+0x75) [0x9e5bf45]
9: /lib/libparted.so.0(nilfs2_probe+0xb5) [0x9e82fe5]
8: /lib/libparted.so.0(ped_file_system_probe_specific+0x5e) [0x9e53efe]
7: /lib/libparted.so.0(ped_file_system_probe+0x69) [0x9e54009]
6: /lib/libparted.so.0(+0x4a064) [0x9e8f064]
5: /lib/libparted.so.0(ped_disk_new+0x67) [0x9e5a407]
4: partedUtil() [0x804b309]
3: partedUtil(main+0x79e) [0x8049e6e]
2: /lib/libc.so.6(__libc_start_main+0xe7) [0x9edbb67]
1: partedUtil() [0x804ab4d] Aborted -
Puede que las matrices SolidFire no tengan un rendimiento óptimo sin la reconfiguración de las reglas de notificación de SATP.
-
Las reglas de notificación deben agregarse manualmente a ESXi para los siguientes modelos de matrices de almacenamiento DELL MD: MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf y MD38xxi.
-
Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante el apagado o la desconexión de una máquina virtual si se utiliza EMC RecoverPoint debido a una condición de carrera en la herramienta de filtro de vSCSI.
-
Durante una actualización sin interrupciones, es posible que algunas rutas de acceso tengan un estado de pérdida de dispositivo permanente (Permanent Device Loss, PDL). Dichas rutas de acceso permanecen no disponibles incluso después de la actualización. Por ello, el dispositivo puede perder la conectividad.
-
Se puede producir un error en los hosts ESXi con una pantalla de diagnóstico de color morado al quitar una página de la memoria caché de páginas debido a una estructura de datos dañada. Es posible que se muestre el siguiente seguimiento inverso:
2018-01-01T04:02:47.859Z cpu13:33232)Backtrace for current CPU #13, worldID=33232, rbp=0xd
2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b720:[0x41800501883b]PageCacheRemoveFirstPageLocked@vmkernel#nover+0x2f stack: 0x4305dd30
2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b740:[0x418005019144]PageCacheAdjustSize@vmkernel#nover+0x260 stack: 0x0, 0x3cb418317a909
2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81bfd0:[0x41800521746e]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0, 0x0, 0x0, 0x0, 0
2018-01-01T04:02:47.877Z cpu13:33232)^[[45m^[[33;1mVMware ESXi 6.0.0 [Releasebuild-6921384 x86_64]^[[0m
#GP Exception 13 in world 33232:memMap-13 @ 0x41800501883b -
Las reglas de notificación deben agregarse manualmente al host ESXi para las matrices de almacenamiento HITACHI OPEN-v.
-
Si se agregan manualmente ajustes a la configuración de NTP, es posible que estos se eliminen del archivo
ntp.conf
si se actualiza NTP mediante vSphere Web Client. Las actualizaciones de NTP conservan todos los ajustes junto con las opciones de restricción, driftfile y los servidores agregados de forma manual al archivontp.conf
. Si se modifica de forma manual el archivontp.conf
, es necesario reiniciar hostd para propagar las actualizaciones. -
Los tickets obsoletos, los cuales no se eliminan antes de que hostd genere un nuevo ticket, pueden agotar los nodos de los discos de memoria RAM. Esto puede provocar que los hosts ESXi dejen de responder.
-
Es posible que no se pueda utilizar un dispositivo USB conectado como acceso directo para migrar máquinas virtuales si se utiliza vSphere vMotion debido a una comprobación de condición redundante.
-
Si una máquina virtual forma parte de una instantánea VMFSsparse, es posible que las operaciones de E/S enviadas a la máquina virtual se procesen solo parcialmente en el nivel de VMFSsparse, pero que las capas superiores, como los filtros de E/S, supongan que la transferencia se realizó correctamente. Esto puede producir una inconsistencia de datos.
-
Puede que los hosts ESXi no reflejen el parámetro
MAXIMUM TRANSFER LENGTH
del que informa el dispositivo SCSI en la página VPD de límites de bloque. Por lo tanto, los comandos de E/S emitidos con un tamaño de transferencia mayor al límite pueden producir un error con un registro similar:2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
-
Es posible que la utilidad de línea de comandos esxtop no muestre un valor actualizado de profundidad de cola de dispositivos si se cambia la profundidad de cola de la ruta de acceso del dispositivo correspondiente.
-
Si se intenta realizar un arranque PXE en una máquina virtual donde se utiliza firmware EFI con un adaptador de red vmxnet3 y WDS, y no se deshabilitó la opción de extensión de ventanas variables en WDS, la máquina virtual puede arrancar demasiado lento.
-
Debido a problemas de USB de Apple, los dispositivos con una versión de iOS posterior a iOS 11 no se pueden conectar a máquinas virtuales con una versión de OS X posterior a OS X 10.12.
-
Es posible que los identificadores para enviar datos de vmware.log a Syslog, definidos con
vmx.log.syslogID
, no funcionen según lo esperado debido a que se omite la cadena especificada en la variable. -
Se puede producir un error de forma intermitente en los hosts ESXi si se deshabilitan las direcciones IPv6 globales debido a que una ruta de acceso de código todavía utiliza IPv6.
-
En situaciones excepcionales, cuando se realiza una solicitud HTTP durante la inicialización de hostd, se puede producir un error en el agente.
-
Se puede producir un error en hostd cuando existen ciertos parámetros no válidos en el archivo
.vmx
de una máquina virtual. Por ejemplo, cuando se agrega manualmente un parámetro comoideX:Y.present
con un valorTrue
al archivo.vmx
. -
Cuando existen hosts de diferentes versiones de ESXi en un clúster de máquinas virtuales Linux, y el nivel de Enhanced vMotion Compatibility (EVC) se establece en L0 o L1 para procesadores Merom y Penryn, es posible que las máquinas virtuales dejen de responder si se intenta la migración mediante vSphere vMotion de un host ESXi 6.0 a un host con una versión más reciente de ESXi.
-
Un host ESXi puede dejar de responder si los latidos del almacén de datos se detienen prematuramente al cerrar VMware vSphere VMFS6. Por lo tanto, el administrador de afinidad no puede cerrarse correctamente.
-
Las reglas de notificación deben agregarse manualmente a ESXi para las matrices de almacenamiento Tegile IntelliFlash.
-
Se pueden generar estos dos eventos VOB debido a variaciones en la latencia de E/S en una matriz de almacenamiento, pero no se informa ningún problema real en las máquinas virtuales:
Se deterioró el rendimiento del dispositivo naa.xxx. La latencia de E/S aumentó del valor promedio de 4114 microsegundos a 84518 microsegundos.
El rendimiento del dispositivo naa.xxx mejoró. La latencia de E/S se redujo de 346115 microsegundos a 67046 microsegundos.
-
Si se utiliza vSphere vMotion para migrar una máquina virtual con filtros de dispositivos de archivos de un almacén de datos de vSphere Virtual Volumes a otro host, y en la máquina virtual se encuentran habilitados el seguimiento de bloques modificados (Changed Block Tracking, CBT), VMware vSphere Flash Read Cache (VFRC) o los filtros de E/S, la migración puede causar problemas con cualquiera de esas funciones. Durante la migración, los filtros de dispositivos de archivos pueden no transferirse correctamente al host. Por lo tanto, es posible que se observen copias de seguridad incrementales dañadas en CBT, una degradación de rendimiento en VFRC y los filtros de E/S de la memoria caché, así como daños en los filtros de E/S de replicación y el disco, cuando los filtros de E/S de la memoria caché se configuran en modo de reescritura. También se pueden observar problemas con el cifrado de la máquina virtual.
-
Si utiliza un proveedor de VMware vSphere API for Storage Awareness, es posible que se muestren varias llamadas
getTaskUpdate
a tareas canceladas o eliminadas. Por lo tanto, es posible que se observe un mayor uso de ancho de banda de vSphere API for Storage Awareness y un desborde del registro. -
vSphere Virtual Volumes puede dejar de responder debido a un bucle infinito que carga las CPU al 100 % si un proveedor de vSphere API for Storage Awareness pierde la información de enlace de su base de datos. Hostd también puede dejar de responder. Se puede mostrar un mensaje de error irrecuperable. Esta solución impide los bucles infinitos en caso de errores de enlace de la base de datos.
-
Si el grupo de recursos de registro de un host ESXi se esfuerza debido a un registro excesivo, hostd puede dejar de responder mientras se ejecutan los comandos
esxcfg-syslog
. Como esta solución mueve los comandos relacionados conesxcfg-syslog
del grupo de recursos de registro a ESXi Shell, es posible observar un mayor uso de memoria en el grupo de recursos de shell predeterminado. -
Los sensores de IPMI deshabilitados o los que no informan de ningún dato pueden generar alarmas de estado de hardware falsas.
-
Si se elimina del registro un proveedor de vSphere API for Storage Awareness en un estado desconectado, puede que aparezca el error
java.lang.NullPointerException
. Los administradores de eventos y alarmas no se inicializan cuando un proveedor está en un estado desconectado, lo que provoca el error. -
Un almacén de datos VMFS6 puede indicar de forma incorrecta que se agotó el espacio debido a entradas de memoria caché obsoletas.
-
Si una máquina virtual tiene instantáneas creadas con CBRC y luego se deshabilita CBRC, se puede producir el error
Un parámetro especificado no era correcto: spec.deviceChange.device
en operaciones de consolidación de discos debido a la eliminación de un archivo de resumen después de deshabilitar CBRC. Se muestra una alertaSe necesitan consolidar los discos de la máquina virtual
hasta que se resuelve el problema. -
OMIVV depende de la información de la propiedad de iDRAC
hardware.systemInfo.otherIdentifyingInfo.ServiceTag
para recuperar el parámetroSerialNumber
e identificar algunos servidores modulares de Dell. Una falta de coincidencia en la propiedadserviceTag
puede producir un error en esta integración. -
Anteriormente, si no se encontraba un componente como un procesador o un ventilador en un sistema vCenter Server, los sensores de presencia mostraban el estado Desconocido. Sin embargo, los sensores de presencia no tienen un estado asociado.
-
Si el destino conectado a un host ESXi admite solo ALUA implícita y tiene rutas de acceso solo en espera, se puede producir un error en el host con una pantalla de diagnóstico de color morado al detectar el dispositivo debido a una condición de carrera. Es posible que se muestre un seguimiento inverso similar al siguiente:
SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807 -
Si un host ESXi no tiene ninguna imagen ISO de VMware Tools disponible y se intenta actualizar VMware Tools en una máquina virtual activa, se puede producir un error en la operación con
el código VIX 21000
. Es posible que no pueda actualizar VMware Tools mediante la API, vSphere Client o vSphere Web Client, incluso después de obtener una imagen ISO disponible. Esto se debe a que el host ESXi almacena en caché la primera comprobación de disponibilidad durante el encendido de la máquina virtual y no la actualiza. -
Los registros del servicio de hostd y Syslog pueden recopilar registros de excepción de depuración innecesarios de todos los hosts ESXi en un clúster.
En el registro de hostd, los mensajes son similares a lo siguiente:
No match, sensor_health file missing sensorNumer 217: class 3 sensor type 35 offset 0
En
Syslog
,/etc/sfcb/omc/sensor_health,
los mensajes son similares a lo siguiente:Missing expected value to check for
-
En una configuración de ESXi con varias rutas a los LUN detrás de los destinos de IBM SVC, en caso de pérdida de conexión en rutas activas y si, al mismo tiempo, otras rutas de acceso conectadas no están en un estado que les permita prestar servicios de E/S, puede que el host ESXi no detecte esta condición como APD, incluso si no hay ninguna ruta disponible para prestar servicios de E/S. Por lo tanto, no se producen errores rápidos en las operaciones de E/S en el dispositivo.
-
Si se personalizan los tamaños de anillo Rx y Tx de NIC físicas para mejorar el rendimiento de red mediante los siguientes comandos:
esxcli network nic ring current set -n <vmnicX> -t <value>
esxcli network nic ring current set -n <vmnicX> -r <value>
es posible que la configuración no sea persistente en todos los reinicios del host ESXi. -
Si se agota el tiempo de espera de una gran cantidad de operaciones de E/S en un sistema de carga pesada, se puede producir un bloqueo flexible de CPU físicas. Como resultado, se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado.
-
Es posible que observe un bajo rendimiento de las operaciones de larga distancia de vSphere vMotion con alta latencia (como 100 ms o más) y vínculos de red de alta velocidad (como 10 GbE) debido al límite de búfer de socket codificado de forma rígida de 16 MB. Con esta solución, puede configurar el parámetro de tamaño de búfer de socket máximo
SB_MAX_ADJ
. -
Debido a una condición de carrera, se puede producir un error en el proceso ejecutable de máquinas virtuales y se pueden apagar las máquinas virtuales durante un reinicio del sistema operativo invitado.
-
Se pueden mostrar varios mensajes como
sfcb-vmware_raw[69194]: IpmiIfcFruGetInv: Failed during send cc = 0xc9
ensyslog.log
. Estos son registros de información normales, no son registros de error o advertencia. -
Después de que se toma una instantánea de una máquina virtual Linux colocada correctamente en modo inactivo, el administrador de instantáneas puede indicar que la instantánea no se encuentra en modo inactivo.
-
En las compilaciones de versión, smartd puede generar una gran cantidad de mensajes de depuración y de información en los registros del servicio Syslog.
-
Los comandos no válidos en un CD-ROM virtual SATA pueden activar errores y aumentar el uso de memoria de las máquinas virtuales. Esto puede desencadenar un error en las máquinas virtuales si no pueden asignar memoria.
Se pueden mostrar los siguientes registros para los comandos no válidos:YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.
Y un mensaje de detención similar al siguiente:
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure
-
Cuando se selecciona la columna Ubicación física de la tabla Administración de discos en el panel de control de configuración del clúster de vSphere Web Client, la columna puede permanecer vacía y mostrar solamente información sobre el controlador hpsa.
-
Algunos parámetros de los dispositivos flash críticos, incluidos la temperatura y el conteo de sectores reasignados, no proporcionan valores de umbral. Como resultado, el daemon smartd del host ESXi puede informar de algunas advertencias.
-
El servicio de hostd puede dejar de responder mientras el proceso externo esxcfg-syslog permanece atascado. Como resultado, el host ESXi puede dejar de responder.
-
Al habilitar IPFIX con un tráfico intenso de diferentes flujos, el latido del sistema puede no reemplazar la CPU de IPFIX durante un largo período y activar una pantalla de diagnóstico de color morado.
-
De forma predeterminada, la función Respuesta de aislamiento de un host ESXi con vSphere HA habilitado se encuentra deshabilitada. Cuando se habilita la función Respuesta de aislamiento, es posible que un puerto de máquina virtual conectado a un conmutador lógico NSX-T se bloquee después de una conmutación por error de vSphere HA.
-
Si se deshabilitan vSphere Network I/O Control y el emparejamiento de colas de NIC, es posible que vea paquetes que no concuerdan con el tráfico de infraestructura, como administración, iSCSI y NFS. Esto se debe a que, cuando no se habilita vSphere Network I/O Control, se deshabilita el emparejamiento de colas y las NIC trabajan con varias colas.
-
Las unidades que no admiten la página VPD de límites de bloque
0xb0
pueden generar registros de códigos de eventos que saturan el archivovmkernel.log
. -
Cuando se replican máquinas virtuales mediante VMware vSphere Replication, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color morado inmediatamente o en las siguientes 24 horas, y se puede mostrar el siguiente mensaje:
PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc
. -
Es posible que las máquinas virtuales dejen de responder debido a errores repetitivos en algunos controladores de dispositivos de terceros para procesar comandos. Se puede mostrar el siguiente error al abrir la consola de máquina virtual:
Error: "No se puede conectar al MKS: No se pudo conectar a la canalización \\.\pipe\vmware-authdpipe en el período de reintentos"
-
Si el servicio de introspección de invitado en un entorno de vSphere 6.5 con más de 150 máquinas virtuales se encuentra activado, se puede producir un error en la migración de máquinas virtuales mediante vSphere vMotion en vSphere Web Client con un mensaje similar al siguiente:
El origen detectó un error en la reanudación del destino.
El vmware.log de destino contiene mensajes de error similares a los siguientes:
2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transición de estado 11 a 12.
2018-07-18T02:41:32.035Z| vmx| I125: Migrar: Lista de mensajes de error de almacenamiento en caché de la migración:
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] No se pudo recibir la migración.
2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Versión incompatible de -1 (se espera 2).
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] Se produjo un error al restaurar el estado de la máquina virtual durante la migración.El registro de VMkernel tiene mensajes de error como los siguientes:
2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3 -
Si se configura un almacén de datos de NFS como un almacén de datos de Syslog y un host ESXi se desconecta de él, se detiene el registro en el almacén de datos y el host ESXi puede dejar de responder.
-
Esta solución configura SATP como
VMW_SATP_ALUA
, PSP comoVMW_PSP_RR
y las opciones de notificación comotpgs_on
de forma predeterminada para las matrices de almacenamiento serie Lenovo DE. -
En un clúster de vSAN con la desduplicación habilitada, las operaciones de E/S destinadas a un disco de capacidad pueden ser redirigidas a otro disco. El nuevo dispositivo de destino puede sufrir una pérdida de dispositivo permanente (Permanent Device Loss, PDL). Si llegan solicitudes de E/S al disco con errores durante este intervalo, se puede producir un error en el host con una pantalla de diagnóstico de color morado.
-
Si se elimina manualmente de un host ESXi la carpeta de paquetes de soporte de una máquina virtual, descargada en el directorio
/scratch/downloads
del host, se puede producir un error en hostd cuando este intente eliminar automáticamente carpetas de esta ruta de acceso una hora después de su creación. -
Aunque ya se haya expulsado la entrada de la memoria caché, es posible que se expulse nuevamente debido a una condición de carrera. Esto produce una desreferencia de puntero nulo en el host ESXi, lo que provoca un error en el host ESXi.
-
Durante la migración o la actualización a vCenter Server Appliance 6.5, algunos tamaños de implementación no están disponibles para su selección en la tabla de información si el tamaño requerido de vCenter Server Appliance es mayor que el umbral para dicho tamaño de implementación.
-
Es posible que el programador hclock de NIOC restablezca el dispositivo de red de vínculo superior cuando el vínculo superior se utiliza periódicamente, y que el restablecimiento no sea predecible.
-
Si se habilita la función de instalaciones con estado en un perfil de host, y la NIC de VMkernel de administración se conecta a un conmutador virtual distribuido, se puede producir un error al aplicar el perfil de host a otro host ESXi 6.5 mediante vSphere Auto Deploy durante un arranque PXE. El host permanece en modo de mantenimiento.
-
La ejecución del ciclo de energía de una máquina virtual con vNIC de SR-IOV mediante scripts puede provocar un error en el host ESXi con una pantalla de diagnóstico de color morado.
-
Si una entidad, como una máquina virtual o un almacén de datos, ya no forma parte de la base de datos de estadísticas de un host ESXi, pero vim.PerformanceManager emite una solicitud de datos de rendimiento a esta entidad, es posible alcanzar una ruta de acceso de código con la que se produzca un error en el proceso del agente de host. Como resultado, el host puede dejar de estar disponible temporalmente para el sistema vCenter Server.
-
Si se habilita la herramienta de análisis de red NetFlow para tomar muestras de todos los paquetes en un grupo de puertos de vSphere Distributed Switch, al configurar la frecuencia de muestreo en 0, la latencia de red puede llegar a 1000 ms en caso de que se supere el millón de flujos.
-
Una máquina virtual que realiza cientos de operaciones de adición o eliminación en caliente de discos sin apagarse ni migrarse puede finalizarse y dejar de ser válida. Esto afecta a las soluciones de copia de seguridad, donde la máquina virtual proxy de copia de seguridad puede ser finalizada.
En el registro de hostd, es posible que vea contenido similar al siguiente:
2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171En el registro de vmkernel, el contenido es similar al siguiente:
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size. Cannot expand. -
Al apagar la última máquina virtual de un host ESXi, si esta máquina virtual utiliza la configuración sysContexts, es posible que el programador no pueda eliminar la afinidad exclusiva establecida en la configuración sysContexts.
-
El agente SNMP puede entregar un valor
vmwVmPoweredOn
de captura incorrecto cuando se selecciona una máquina virtual en la pestaña Resumen y en la pestaña Administrador de instantáneas de vSphere Web Client. -
Es posible que los gráficos de rendimiento avanzados dejen de dibujar gráficos para algunas estadísticas de máquina virtual después de un reinicio de hostd debido a un error de división por cero en algunos contadores.
-
Se puede producir un error en el agente NSX opsAgent y se puede ver el archivo de volcado de núcleo ubicado en
/var/core
cuando se implementa un dispositivo NSX-T en un host ESXi. El error se produce por una condición de carrera en el código de la biblioteca que proporciona el host. -
Si se configura el directorio
/productLocker
en un almacén de datos VMFS compartido, cuando se migra una máquina virtual con vSphere vMotion, la instancia de VMware Tools en la máquina virtual puede mostrar incorrectamente el estado No compatible. -
Es posible que el comando
MSINFO32
no muestre la memoria RAM física instalada en máquinas virtuales que ejecutan Windows 7 o Windows Server 2008 R2. Si se asignan dos o más vCPU a una máquina virtual, el campo RAM física instalada muestraNo disponible
. -
En algunos casos, cuando se producen operaciones de E/S superpuestas no alineadas, es posible que el programador de confirmación del motor de confirmación de dos fases de la pila de vSAN no se ejecute de forma inmediata. Esta demora puede agregar latencia a las operaciones de E/S.
-
La API de OSFS_Readdir rellena entradas de directorio limitadas según el tamaño de búfer proporcionado y siempre devuelve Sí como fin de archivo (End Of File, EOF). Es posible que deba llamar a FSSReadDir varias veces para leer todo el directorio.
-
Al actualizar un clúster ampliado con vSAN de ESXi 6.0 a 6.5, se puede producir un error en un host con una pantalla de diagnóstico de color morado. El siguiente seguimiento de pila identifica este problema.
#0 DOMUtil_HashFromUUID
#1 DOMServer_GetServerIndexFromUUID
#2 DOMOwnerGetRdtMuxGroupInt
#3 DOMOwner_GetRdtMuxGroupUseNumServers
#4 DOMAnchorObjectGetOwnerVersionAndRdtMuxGroup
#5 DOMAnchorObjectCreateResolverAndSetMuxGroup
#6 DOMObject_InitServerAssociation
#7 DOMAnchorObjectInitAssociationToProxyOwnerStartTask
#8 DOMOperationStartTask
#9 DOMOperationDispatch
#10 VSANServerExecuteOperation
#11 VSANServerMainLoop -
En algunos casos, vSAN tarda mucho tiempo en marcar un disco como degradado, aunque el disco informa de errores en operaciones de E/S y vSAN deja de procesar cualquier otra operación de E/S de dicho disco.
-
Los ventiladores de los servidores Dell R730 pueden no aparecer en la sección Ventilador de la pestaña Estado de hardware de vSphere Client o vSphere Web Client, pero sí en otras secciones, o no mostrarse en absoluto.
-
Después de actualizar vCenter Server a 6.5 Update 2, el supervisor de capacidad de vSAN no incluye la capacidad para las máquinas virtuales implementadas en los hosts ESXi con versiones anteriores a 6.5 Update 2. Es posible que el supervisor muestre menos capacidad utilizada que la cantidad realmente utilizada en el clúster.
-
La congestión de componente, que se produce en la capa de registro de vSAN, puede reducir el ancho de banda de E/S de invitado debido a la limitación de E/S interna de vSAN. Las operaciones de E/S grandes que se dividen no se potencian correctamente para acelerar la transferencia desde caché. Este problema se traduce en una acumulación de registros, lo que puede causar una congestión. Puede que note una disminución de las E/S por segundo al entrar en modo de mantenimiento.
-
Un host ESXi puede generar un error con una pantalla de diagnóstico de color morado debido a una condición de carrera en una consulta de Multicast Listener Discovery (MLD) versión 1 en entornos IPv6. Es posible que se muestre un mensaje de error similar al siguiente:
#PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
...
0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000 -
Es posible perder la conectividad con los almacenes de datos de NFS si se asigna a un nuevo almacén de datos el antiguo nombre de un almacén de datos existente. Por ejemplo, si se cambia el nombre de un almacén de datos de NFS-01 a NFS-01-renamed y, a continuación, se crea un nuevo almacén de datos de NFS con el nombre NFS-01. Como resultado, el host ESXi pierde la conectividad con el almacén de datos de nombre cambiado y no puede montar el almacén nuevo.
-
Si se deshabilita IPv4 en un host ESXi, es posible que no se puedan establecer los nombres de host de IPv6, ya que el sistema requiere una dirección IPv4.
-
La cantidad de archivos de almacenamiento
syslog.log
que se generen puede ser menor que el valor predeterminado configurado mediante el parámetrosyslog.global.defaultRotate
. Además, la cantidad de archivos de almacenamientosyslog.log
puede ser diferente entre las versiones 6.0 y 6.5 de ESXi. Por ejemplo, sisyslog.global.defaultRotate
se configura en 8 de forma predeterminada, ESXi 6.0 creasyslog.0.gz
ensyslog.7.gz
, mientras que ESXi 6.5 creasyslog.0.gz
ensyslog.6.gz
. -
Cuando se expande un objeto, se agrega una concatenación a las réplicas para admitir el requisito de aumento de tamaño. Durante cierto período, como vSAN crea nuevas réplicas para incluir la concatenación, la concatenación y las réplicas originales se descartan. Como vSAN combina la concatenación y las réplicas originales en una réplica nueva, se puede producir un error en la operación si vSAN no tiene espacio suficiente para colocar los componentes nuevos. Si el disco queda desequilibrado y todos los componentes en el disco se encuentran en los nodos de concatenación, la operación de reequilibrio no puede mover ningún componente para equilibrar el disco.
-
No se puede expandir un VMDK mientras se cambia también la directiva de almacenamiento del VMDK, pero aún así se puede producir un error en la expansión sin ningún cambio en la directiva de almacenamiento si la directiva existente ha establecido la regla de ubicación de los datos.
-
Es posible que no se calcule correctamente el límite superior de Generación de informes de rango de memoria reservada para las máquinas virtuales que se ejecutan en hosts basados en AMD. Esto puede evitar que se enciendan las máquinas virtuales donde se utiliza la función de VMware DirectPath I/O.
-
Un error en la ruta de código de colocación en modo inactivo de un dispositivo de NMP puede hacer que las llamadas desbloqueen un bloqueo ya liberado, lo que puede generar un error en un host ESXi con una pantalla de diagnóstico de color morado.
-
Las máquinas virtuales con hardware versión 10 o posterior que usan EFI y ejecutan Windows Server 2016 en procesadores AMD pueden dejar de responder durante el reinicio. El problema no ocurre si una máquina virtual utiliza el BIOS, la versión de hardware es 11 o posterior, el sistema operativo invitado no es Windows o los procesadores son Intel.
-
Si se intenta volver a registrar un dispositivo de caracteres con el mismo nombre, es posible que se muestre una advertencia similar a la siguiente:
2018-09-14T04:49:27.441Z cpu33:4986380)WARNING: CharDriver: 291: El controlador con el nombre XXXX ya utiliza la ranura XX
No se libera la memoria de pila necesaria para registrar el dispositivo para un intento de duplicado. Esto provoca una fuga de memoria y, con el tiempo, se puede producir un error en el host con una pantalla de diagnóstico de color morado. -
Al cargar el módulo SATP de NMP después de un reinicio del sistema, es posible que el método
vmk_ModuleLoad()
no pueda leer los parámetros específicos del módulo modificado. Este problema afecta principalmente a los controladores de terceros. -
vSAN utiliza el valor de disco lleno de todos los discos en el clúster para calcular el valor de disco lleno promedio. Este valor se usa durante la operación de reequilibrio para garantizar que la transferencia de datos no provoque un desequilibrio en el disco de destino. Si tiene un clúster ampliado de vSAN, el uso de almacenamiento puede ser diferente entre los sitios. En esos casos, es posible que el reequilibrio no funcione según lo esperado si el valor de disco lleno promedio en un sitio es mayor que en el otro sitio.
-
Es posible que los hosts ESXi y hostd dejen de responder debido a un problema de asignación de memoria en el complemento de capacidad de servicio de disco de vSAN lsu-lsi-lsi-mr3-plug-in. Se pueden mostrar los mensajes de error
Sin memoria
oError de clonación de subproceso
. -
En casos poco frecuentes, las NIC que utilizan el controlador ntg3, como las NIC Broadcom BCM5719 y 5720 GbE, pueden detener temporalmente el envío de paquetes después de un intento fallido de enviar un paquete que supera la capacidad máxima. El controlador ntg3 versión 4.1.3.2 resuelve este problema.
-
En un clúster de vSAN con controladoras de matriz inteligente HPE ProLiant Gen9, como P440 y P840, es posible que no se enciendan los LED de localización en el dispositivo con errores correcto.
-
Cuando se elimina una máquina virtual, el directorio de la máquina virtual puede permanecer en el entorno de NSX-T debido a que los archivos del puerto en la carpeta
.dvsData
se eliminan en el orden incorrecto. -
Al habilitar IPFIX con una frecuencia de muestreo alta y un tráfico intenso, se puede observar una degradación del rendimiento de un entorno de VXLAN.
-
Nombre del perfil | ESXi-6.5.0-20181104001-no-tools |
Compilación | Para obtener información de compilación, consulte la parte superior de la página. |
Proveedor | VMware, Inc. |
Fecha de versión | 29 de noviembre de 2018 |
Nivel de aceptación | PartnerSupported |
Hardware afectado | N/C |
Software afectado | N/C |
VIB afectados |
|
PR fijadas | 1847663, 1863313, 1894568, 1949789, 2021943, 2022147, 2029579, 2037849, 2037926, 2057600, 2063154, 2071506, 2071610, 2071817, 2072971, 2073175, 2078843, 2079002, 2083594, 2083627, 2084723, 2088951, 2089048, 2096942, 2097358, 2098928, 2102135, 2102137, 2107335, 2113432, 2119609, 2122259, 2122523, 2128932, 2130371, 2133589, 2136002, 2139317, 2139940, 2142767, 2144766, 2152381, 2153867, 2154912, 2187136, 2155840, 2155858, 2156840, 2157503, 2187127, 2128759, 2158561, 2164733, 2167294, 2167877, 2170126, 2171799, 2173856, 2179262, 2180962, 2182211, 2186065, 2191349, 2192629, 2192836, 2193829, 2194304, 2197789, 2203385, 2203836, 2204024, 2204028, 2204507, 2209900, 2209919, 2211285, 2211639, 2213917, 2225439, 2225471, 2096875, 2151342, 2064111 |
Números de CVE relacionados | N/C |
- Esta revisión actualiza los siguientes problemas:
-
Se puede producir un error en la actualización a ESXi 6.5 y versiones posteriores mediante vSphere Update Manager debido a un problema con la biblioteca de código abierto libparted. Es posible que se muestre el siguiente seguimiento inverso:
[root@hidrogenio07:~] partedUtil getptbl /vmfs/devices/disks/naa.60000970000592600166533031453135
El seguimiento inverso tiene 12 llamadas en la pila:
12: /lib/libparted.so.0(ped_assert+0x2a) [0x9e524ea]
11: /lib/libparted.so.0(ped_geometry_read+0x117) [0x9e5be77]
10: /lib/libparted.so.0(ped_geometry_read_alloc+0x75) [0x9e5bf45]
9: /lib/libparted.so.0(nilfs2_probe+0xb5) [0x9e82fe5]
8: /lib/libparted.so.0(ped_file_system_probe_specific+0x5e) [0x9e53efe]
7: /lib/libparted.so.0(ped_file_system_probe+0x69) [0x9e54009]
6: /lib/libparted.so.0(+0x4a064) [0x9e8f064]
5: /lib/libparted.so.0(ped_disk_new+0x67) [0x9e5a407]
4: partedUtil() [0x804b309]
3: partedUtil(main+0x79e) [0x8049e6e]
2: /lib/libc.so.6(__libc_start_main+0xe7) [0x9edbb67]
1: partedUtil() [0x804ab4d] Aborted -
Puede que las matrices SolidFire no tengan un rendimiento óptimo sin la reconfiguración de las reglas de notificación de SATP.
-
Las reglas de notificación deben agregarse manualmente a ESXi para los siguientes modelos de matrices de almacenamiento DELL MD: MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf y MD38xxi.
-
Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado durante el apagado o la desconexión de una máquina virtual si se utiliza EMC RecoverPoint debido a una condición de carrera en la herramienta de filtro de vSCSI.
-
Durante una actualización sin interrupciones, es posible que algunas rutas de acceso tengan un estado de pérdida de dispositivo permanente (Permanent Device Loss, PDL). Dichas rutas de acceso permanecen no disponibles incluso después de la actualización. Por ello, el dispositivo puede perder la conectividad.
-
Se puede producir un error en los hosts ESXi con una pantalla de diagnóstico de color morado al quitar una página de la memoria caché de páginas debido a una estructura de datos dañada. Es posible que se muestre el siguiente seguimiento inverso:
2018-01-01T04:02:47.859Z cpu13:33232)Backtrace for current CPU #13, worldID=33232, rbp=0xd
2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b720:[0x41800501883b]PageCacheRemoveFirstPageLocked@vmkernel#nover+0x2f stack: 0x4305dd30
2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b740:[0x418005019144]PageCacheAdjustSize@vmkernel#nover+0x260 stack: 0x0, 0x3cb418317a909
2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81bfd0:[0x41800521746e]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0, 0x0, 0x0, 0x0, 0
2018-01-01T04:02:47.877Z cpu13:33232)^[[45m^[[33;1mVMware ESXi 6.0.0 [Releasebuild-6921384 x86_64]^[[0m
#GP Exception 13 in world 33232:memMap-13 @ 0x41800501883b -
Las reglas de notificación deben agregarse manualmente al host ESXi para las matrices de almacenamiento HITACHI OPEN-v.
-
Si se agregan manualmente ajustes a la configuración de NTP, es posible que estos se eliminen del archivo
ntp.conf
si se actualiza NTP mediante vSphere Web Client. Las actualizaciones de NTP conservan todos los ajustes junto con las opciones de restricción, driftfile y los servidores agregados de forma manual al archivontp.conf
. Si se modifica de forma manual el archivontp.conf
, es necesario reiniciar hostd para propagar las actualizaciones. -
Los tickets obsoletos, los cuales no se eliminan antes de que hostd genere un nuevo ticket, pueden agotar los nodos de los discos de memoria RAM. Esto puede provocar que los hosts ESXi dejen de responder.
-
Es posible que no se pueda utilizar un dispositivo USB conectado como acceso directo para migrar máquinas virtuales si se utiliza vSphere vMotion debido a una comprobación de condición redundante.
-
Si una máquina virtual forma parte de una instantánea VMFSsparse, es posible que las operaciones de E/S enviadas a la máquina virtual se procesen solo parcialmente en el nivel de VMFSsparse, pero que las capas superiores, como los filtros de E/S, supongan que la transferencia se realizó correctamente. Esto puede producir una inconsistencia de datos.
-
Puede que los hosts ESXi no reflejen el parámetro
MAXIMUM TRANSFER LENGTH
del que informa el dispositivo SCSI en la página VPD de límites de bloque. Por lo tanto, los comandos de E/S emitidos con un tamaño de transferencia mayor al límite pueden producir un error con un registro similar:2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
-
Es posible que la utilidad de línea de comandos esxtop no muestre un valor actualizado de profundidad de cola de dispositivos si se cambia la profundidad de cola de la ruta de acceso del dispositivo correspondiente.
-
Si se intenta realizar un arranque PXE en una máquina virtual donde se utiliza firmware EFI con un adaptador de red vmxnet3 y WDS, y no se deshabilitó la opción de extensión de ventanas variables en WDS, la máquina virtual puede arrancar demasiado lento.
-
Debido a problemas de USB de Apple, los dispositivos con una versión de iOS posterior a iOS 11 no se pueden conectar a máquinas virtuales con una versión de OS X posterior a OS X 10.12.
-
Es posible que los identificadores para enviar datos de vmware.log a Syslog, definidos con
vmx.log.syslogID
, no funcionen según lo esperado debido a que se omite la cadena especificada en la variable. -
Se puede producir un error de forma intermitente en los hosts ESXi si se deshabilitan las direcciones IPv6 globales debido a que una ruta de acceso de código todavía utiliza IPv6.
-
En situaciones excepcionales, cuando se realiza una solicitud HTTP durante la inicialización de hostd, se puede producir un error en el agente.
-
Se puede producir un error en hostd cuando existen ciertos parámetros no válidos en el archivo
.vmx
de una máquina virtual. Por ejemplo, cuando se agrega manualmente un parámetro comoideX:Y.present
con un valorTrue
al archivo.vmx
. -
Cuando existen hosts de diferentes versiones de ESXi en un clúster de máquinas virtuales Linux, y el nivel de Enhanced vMotion Compatibility (EVC) se establece en L0 o L1 para procesadores Merom y Penryn, es posible que las máquinas virtuales dejen de responder si se intenta la migración mediante vSphere vMotion de un host ESXi 6.0 a un host con una versión más reciente de ESXi.
-
Un host ESXi puede dejar de responder si los latidos del almacén de datos se detienen prematuramente al cerrar VMware vSphere VMFS6. Por lo tanto, el administrador de afinidad no puede cerrarse correctamente.
-
Las reglas de notificación deben agregarse manualmente a ESXi para las matrices de almacenamiento Tegile IntelliFlash.
-
Se pueden generar estos dos eventos VOB debido a variaciones en la latencia de E/S en una matriz de almacenamiento, pero no se informa ningún problema real en las máquinas virtuales:
Se deterioró el rendimiento del dispositivo naa.xxx. La latencia de E/S aumentó del valor promedio de 4114 microsegundos a 84518 microsegundos.
El rendimiento del dispositivo naa.xxx mejoró. La latencia de E/S se redujo de 346115 microsegundos a 67046 microsegundos.
-
Si se utiliza vSphere vMotion para migrar una máquina virtual con filtros de dispositivos de archivos de un almacén de datos de vSphere Virtual Volumes a otro host, y en la máquina virtual se encuentran habilitados el seguimiento de bloques modificados (Changed Block Tracking, CBT), VMware vSphere Flash Read Cache (VFRC) o los filtros de E/S, la migración puede causar problemas con cualquiera de esas funciones. Durante la migración, los filtros de dispositivos de archivos pueden no transferirse correctamente al host. Por lo tanto, es posible que se observen copias de seguridad incrementales dañadas en CBT, una degradación de rendimiento en VFRC y los filtros de E/S de la memoria caché, así como daños en los filtros de E/S de replicación y el disco, cuando los filtros de E/S de la memoria caché se configuran en modo de reescritura. También se pueden observar problemas con el cifrado de la máquina virtual.
-
Si utiliza un proveedor de VMware vSphere API for Storage Awareness, es posible que se muestren varias llamadas
getTaskUpdate
a tareas canceladas o eliminadas. Por lo tanto, es posible que se observe un mayor uso de ancho de banda de vSphere API for Storage Awareness y un desborde del registro. -
vSphere Virtual Volumes puede dejar de responder debido a un bucle infinito que carga las CPU al 100 % si un proveedor de vSphere API for Storage Awareness pierde la información de enlace de su base de datos. Hostd también puede dejar de responder. Se puede mostrar un mensaje de error irrecuperable. Esta solución impide los bucles infinitos en caso de errores de enlace de la base de datos.
-
Si el grupo de recursos de registro de un host ESXi se esfuerza debido a un registro excesivo, hostd puede dejar de responder mientras se ejecutan los comandos
esxcfg-syslog
. Como esta solución mueve los comandos relacionados conesxcfg-syslog
del grupo de recursos de registro a ESXi Shell, es posible observar un mayor uso de memoria en el grupo de recursos de shell predeterminado. -
Los sensores de IPMI deshabilitados o los que no informan de ningún dato pueden generar alarmas de estado de hardware falsas.
-
Si se elimina del registro un proveedor de vSphere API for Storage Awareness en un estado desconectado, puede que aparezca el error
java.lang.NullPointerException
. Los administradores de eventos y alarmas no se inicializan cuando un proveedor está en un estado desconectado, lo que provoca el error. -
Un almacén de datos VMFS6 puede indicar de forma incorrecta que se agotó el espacio debido a entradas de memoria caché obsoletas.
-
Si una máquina virtual tiene instantáneas creadas con CBRC y luego se deshabilita CBRC, se puede producir el error
Un parámetro especificado no era correcto: spec.deviceChange.device
en operaciones de consolidación de discos debido a la eliminación de un archivo de resumen después de deshabilitar CBRC. Se muestra una alertaSe necesitan consolidar los discos de la máquina virtual
hasta que se resuelve el problema. -
OMIVV depende de la información de la propiedad de iDRAC
hardware.systemInfo.otherIdentifyingInfo.ServiceTag
para recuperar el parámetroSerialNumber
e identificar algunos servidores modulares de Dell. Una falta de coincidencia en la propiedadserviceTag
puede producir un error en esta integración. -
Anteriormente, si no se encontraba un componente como un procesador o un ventilador en un sistema vCenter Server, los sensores de presencia mostraban el estado Desconocido. Sin embargo, los sensores de presencia no tienen un estado asociado.
-
Si el destino conectado a un host ESXi admite solo ALUA implícita y tiene rutas de acceso solo en espera, se puede producir un error en el host con una pantalla de diagnóstico de color morado al detectar el dispositivo debido a una condición de carrera. Es posible que se muestre un seguimiento inverso similar al siguiente:
SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807 -
Si un host ESXi no tiene ninguna imagen ISO de VMware Tools disponible y se intenta actualizar VMware Tools en una máquina virtual activa, se puede producir un error en la operación con
el código VIX 21000
. Es posible que no pueda actualizar VMware Tools mediante la API, vSphere Client o vSphere Web Client, incluso después de obtener una imagen ISO disponible. Esto se debe a que el host ESXi almacena en caché la primera comprobación de disponibilidad durante el encendido de la máquina virtual y no la actualiza. -
Los registros del servicio de hostd y Syslog pueden recopilar registros de excepción de depuración innecesarios de todos los hosts ESXi en un clúster.
En el registro de hostd, los mensajes son similares a lo siguiente:
No match, sensor_health file missing sensorNumer 217: class 3 sensor type 35 offset 0
En
Syslog
,/etc/sfcb/omc/sensor_health,
los mensajes son similares a lo siguiente:Missing expected value to check for
-
En una configuración de ESXi con varias rutas a los LUN detrás de los destinos de IBM SVC, en caso de pérdida de conexión en rutas activas y si, al mismo tiempo, otras rutas de acceso conectadas no están en un estado que les permita prestar servicios de E/S, puede que el host ESXi no detecte esta condición como APD, incluso si no hay ninguna ruta disponible para prestar servicios de E/S. Por lo tanto, no se producen errores rápidos en las operaciones de E/S en el dispositivo.
-
Si se personalizan los tamaños de anillo Rx y Tx de NIC físicas para mejorar el rendimiento de red mediante los siguientes comandos:
esxcli network nic ring current set -n <vmnicX> -t <value>
esxcli network nic ring current set -n <vmnicX> -r <value>
es posible que la configuración no sea persistente en todos los reinicios del host ESXi. -
Si se agota el tiempo de espera de una gran cantidad de operaciones de E/S en un sistema de carga pesada, se puede producir un bloqueo flexible de CPU físicas. Como resultado, se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado.
-
Es posible que observe un bajo rendimiento de las operaciones de larga distancia de vSphere vMotion con alta latencia (como 100 ms o más) y vínculos de red de alta velocidad (como 10 GbE) debido al límite de búfer de socket codificado de forma rígida de 16 MB. Con esta solución, puede configurar el parámetro de tamaño de búfer de socket máximo
SB_MAX_ADJ
. -
Debido a una condición de carrera, se puede producir un error en el proceso ejecutable de máquinas virtuales y se pueden apagar las máquinas virtuales durante un reinicio del sistema operativo invitado.
-
Se pueden mostrar varios mensajes como
sfcb-vmware_raw[69194]: IpmiIfcFruGetInv: Failed during send cc = 0xc9
ensyslog.log
. Estos son registros de información normales, no son registros de error o advertencia. -
Después de que se toma una instantánea de una máquina virtual Linux colocada correctamente en modo inactivo, el administrador de instantáneas puede indicar que la instantánea no se encuentra en modo inactivo.
-
En las compilaciones de versión, smartd puede generar una gran cantidad de mensajes de depuración y de información en los registros del servicio Syslog.
-
Los comandos no válidos en un CD-ROM virtual SATA pueden activar errores y aumentar el uso de memoria de las máquinas virtuales. Esto puede desencadenar un error en las máquinas virtuales si no pueden asignar memoria.
Se pueden mostrar los siguientes registros para los comandos no válidos:YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.
Y un mensaje de detención similar al siguiente:
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure
-
Cuando se selecciona la columna Ubicación física de la tabla Administración de discos en el panel de control de configuración del clúster de vSphere Web Client, la columna puede permanecer vacía y mostrar solamente información sobre el controlador hpsa.
-
Algunos parámetros de los dispositivos flash críticos, incluidos la temperatura y el conteo de sectores reasignados, no proporcionan valores de umbral. Como resultado, el daemon smartd del host ESXi puede informar de algunas advertencias.
-
El servicio de hostd puede dejar de responder mientras el proceso externo esxcfg-syslog permanece atascado. Como resultado, el host ESXi puede dejar de responder.
-
Al habilitar IPFIX con un tráfico intenso de diferentes flujos, el latido del sistema puede no reemplazar la CPU de IPFIX durante un largo período y activar una pantalla de diagnóstico de color morado.
-
De forma predeterminada, la función Respuesta de aislamiento de un host ESXi con vSphere HA habilitado se encuentra deshabilitada. Cuando se habilita la función Respuesta de aislamiento, es posible que un puerto de máquina virtual conectado a un conmutador lógico NSX-T se bloquee después de una conmutación por error de vSphere HA.
-
Si se deshabilitan vSphere Network I/O Control y el emparejamiento de colas de NIC, es posible que vea paquetes que no concuerdan con el tráfico de infraestructura, como administración, iSCSI y NFS. Esto se debe a que, cuando no se habilita vSphere Network I/O Control, se deshabilita el emparejamiento de colas y las NIC trabajan con varias colas.
-
Las unidades que no admiten la página VPD de límites de bloque
0xb0
pueden generar registros de códigos de eventos que saturan el archivovmkernel.log
. -
Cuando se replican máquinas virtuales mediante VMware vSphere Replication, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color morado inmediatamente o en las siguientes 24 horas, y se puede mostrar el siguiente mensaje:
PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc
. -
Es posible que las máquinas virtuales dejen de responder debido a errores repetitivos en algunos controladores de dispositivos de terceros para procesar comandos. Se puede mostrar el siguiente error al abrir la consola de máquina virtual:
Error: "No se puede conectar al MKS: No se pudo conectar a la canalización \\.\pipe\vmware-authdpipe en el período de reintentos"
-
Si el servicio de introspección de invitado en un entorno de vSphere 6.5 con más de 150 máquinas virtuales se encuentra activado, se puede producir un error en la migración de máquinas virtuales mediante vSphere vMotion en vSphere Web Client con un mensaje similar al siguiente:
El origen detectó un error en la reanudación del destino.
El vmware.log de destino contiene mensajes de error similares a los siguientes:
2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transición de estado 11 a 12.
2018-07-18T02:41:32.035Z| vmx| I125: Migrar: Lista de mensajes de error de almacenamiento en caché de la migración:
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] No se pudo recibir la migración.
2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Versión incompatible de -1 (se espera 2).
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] Se produjo un error al restaurar el estado de la máquina virtual durante la migración.El registro de VMkernel tiene mensajes de error como los siguientes:
2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3 -
Si se configura un almacén de datos de NFS como un almacén de datos de Syslog y un host ESXi se desconecta de él, se detiene el registro en el almacén de datos y el host ESXi puede dejar de responder.
-
Esta solución configura SATP como
VMW_SATP_ALUA
, PSP comoVMW_PSP_RR
y las opciones de notificación comotpgs_on
de forma predeterminada para las matrices de almacenamiento serie Lenovo DE. -
En un clúster de vSAN con la desduplicación habilitada, las operaciones de E/S destinadas a un disco de capacidad pueden ser redirigidas a otro disco. El nuevo dispositivo de destino puede sufrir una pérdida de dispositivo permanente (Permanent Device Loss, PDL). Si llegan solicitudes de E/S al disco con errores durante este intervalo, se puede producir un error en el host con una pantalla de diagnóstico de color morado.
-
Si se elimina manualmente de un host ESXi la carpeta de paquetes de soporte de una máquina virtual, descargada en el directorio
/scratch/downloads
del host, se puede producir un error en hostd cuando este intente eliminar automáticamente carpetas de esta ruta de acceso una hora después de su creación. -
Aunque ya se haya expulsado la entrada de la memoria caché, es posible que se expulse nuevamente debido a una condición de carrera. Esto produce una desreferencia de puntero nulo en el host ESXi, lo que provoca un error en el host ESXi.
-
Durante la migración o la actualización a vCenter Server Appliance 6.5, algunos tamaños de implementación no están disponibles para su selección en la tabla de información si el tamaño requerido de vCenter Server Appliance es mayor que el umbral para dicho tamaño de implementación.
-
Es posible que el programador hclock de NIOC restablezca el dispositivo de red de vínculo superior cuando el vínculo superior se utiliza periódicamente, y que el restablecimiento no sea predecible.
-
Si se habilita la función de instalaciones con estado en un perfil de host, y la NIC de VMkernel de administración se conecta a un conmutador virtual distribuido, se puede producir un error al aplicar el perfil de host a otro host ESXi 6.5 mediante vSphere Auto Deploy durante un arranque PXE. El host permanece en modo de mantenimiento.
-
La ejecución del ciclo de energía de una máquina virtual con vNIC de SR-IOV mediante scripts puede provocar un error en el host ESXi con una pantalla de diagnóstico de color morado.
-
Si una entidad, como una máquina virtual o un almacén de datos, ya no forma parte de la base de datos de estadísticas de un host ESXi, pero vim.PerformanceManager emite una solicitud de datos de rendimiento a esta entidad, es posible alcanzar una ruta de acceso de código con la que se produzca un error en el proceso del agente de host. Como resultado, el host puede dejar de estar disponible temporalmente para el sistema vCenter Server.
-
Si se habilita la herramienta de análisis de red NetFlow para tomar muestras de todos los paquetes en un grupo de puertos de vSphere Distributed Switch, al configurar la frecuencia de muestreo en 0, la latencia de red puede llegar a 1000 ms en caso de que se supere el millón de flujos.
-
Una máquina virtual que realiza cientos de operaciones de adición o eliminación en caliente de discos sin apagarse ni migrarse puede finalizarse y dejar de ser válida. Esto afecta a las soluciones de copia de seguridad, donde la máquina virtual proxy de copia de seguridad puede ser finalizada.
En el registro de hostd, es posible que vea contenido similar al siguiente:
2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171En el registro de vmkernel, el contenido es similar al siguiente:
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size. Cannot expand. -
Al apagar la última máquina virtual de un host ESXi, si esta máquina virtual utiliza la configuración sysContexts, es posible que el programador no pueda eliminar la afinidad exclusiva establecida en la configuración sysContexts.
-
El agente SNMP puede entregar un valor
vmwVmPoweredOn
de captura incorrecto cuando se selecciona una máquina virtual en la pestaña Resumen y en la pestaña Administrador de instantáneas de vSphere Web Client. -
Es posible que los gráficos de rendimiento avanzados dejen de dibujar gráficos para algunas estadísticas de máquina virtual después de un reinicio de hostd debido a un error de división por cero en algunos contadores.
-
Se puede producir un error en el agente NSX opsAgent y se puede ver el archivo de volcado de núcleo ubicado en
/var/core
cuando se implementa un dispositivo NSX-T en un host ESXi. El error se produce por una condición de carrera en el código de la biblioteca que proporciona el host. -
Si se configura el directorio
/productLocker
en un almacén de datos VMFS compartido, cuando se migra una máquina virtual con vSphere vMotion, la instancia de VMware Tools en la máquina virtual puede mostrar incorrectamente el estado No compatible. -
Es posible que el comando
MSINFO32
no muestre la memoria RAM física instalada en máquinas virtuales que ejecutan Windows 7 o Windows Server 2008 R2. Si se asignan dos o más vCPU a una máquina virtual, el campo RAM física instalada muestraNo disponible
. -
En algunos casos, cuando se producen operaciones de E/S superpuestas no alineadas, es posible que el programador de confirmación del motor de confirmación de dos fases de la pila de vSAN no se ejecute de forma inmediata. Esta demora puede agregar latencia a las operaciones de E/S.
-
La API de OSFS_Readdir rellena entradas de directorio limitadas según el tamaño de búfer proporcionado y siempre devuelve Sí como fin de archivo (End Of File, EOF). Es posible que deba llamar a FSSReadDir varias veces para leer todo el directorio.
-
Al actualizar un clúster ampliado con vSAN de ESXi 6.0 a 6.5, se puede producir un error en un host con una pantalla de diagnóstico de color morado. El siguiente seguimiento de pila identifica este problema.
#0 DOMUtil_HashFromUUID
#1 DOMServer_GetServerIndexFromUUID
#2 DOMOwnerGetRdtMuxGroupInt
#3 DOMOwner_GetRdtMuxGroupUseNumServers
#4 DOMAnchorObjectGetOwnerVersionAndRdtMuxGroup
#5 DOMAnchorObjectCreateResolverAndSetMuxGroup
#6 DOMObject_InitServerAssociation
#7 DOMAnchorObjectInitAssociationToProxyOwnerStartTask
#8 DOMOperationStartTask
#9 DOMOperationDispatch
#10 VSANServerExecuteOperation
#11 VSANServerMainLoop -
En algunos casos, vSAN tarda mucho tiempo en marcar un disco como degradado, aunque el disco informa de errores en operaciones de E/S y vSAN deja de procesar cualquier otra operación de E/S de dicho disco.
-
Los ventiladores de los servidores Dell R730 pueden no aparecer en la sección Ventilador de la pestaña Estado de hardware de vSphere Client o vSphere Web Client, pero sí en otras secciones, o no mostrarse en absoluto.
-
Después de actualizar vCenter Server a 6.5 Update 2, el supervisor de capacidad de vSAN no incluye la capacidad para las máquinas virtuales implementadas en los hosts ESXi con versiones anteriores a 6.5 Update 2. Es posible que el supervisor muestre menos capacidad utilizada que la cantidad realmente utilizada en el clúster.
-
La congestión de componente, que se produce en la capa de registro de vSAN, puede reducir el ancho de banda de E/S de invitado debido a la limitación de E/S interna de vSAN. Las operaciones de E/S grandes que se dividen no se potencian correctamente para acelerar la transferencia desde caché. Este problema se traduce en una acumulación de registros, lo que puede causar una congestión. Puede que note una disminución de las E/S por segundo al entrar en modo de mantenimiento.
-
Un host ESXi puede generar un error con una pantalla de diagnóstico de color morado debido a una condición de carrera en una consulta de Multicast Listener Discovery (MLD) versión 1 en entornos IPv6. Es posible que se muestre un mensaje de error similar al siguiente:
#PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
...
0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000 -
Es posible perder la conectividad con los almacenes de datos de NFS si se asigna a un nuevo almacén de datos el antiguo nombre de un almacén de datos existente. Por ejemplo, si se cambia el nombre de un almacén de datos de NFS-01 a NFS-01-renamed y, a continuación, se crea un nuevo almacén de datos de NFS con el nombre NFS-01. Como resultado, el host ESXi pierde la conectividad con el almacén de datos de nombre cambiado y no puede montar el almacén nuevo.
-
Si se deshabilita IPv4 en un host ESXi, es posible que no se puedan establecer los nombres de host de IPv6, ya que el sistema requiere una dirección IPv4.
-
La cantidad de archivos de almacenamiento
syslog.log
que se generen puede ser menor que el valor predeterminado configurado mediante el parámetrosyslog.global.defaultRotate
. Además, la cantidad de archivos de almacenamientosyslog.log
puede ser diferente entre las versiones 6.0 y 6.5 de ESXi. Por ejemplo, sisyslog.global.defaultRotate
se configura en 8 de forma predeterminada, ESXi 6.0 creasyslog.0.gz
ensyslog.7.gz
, mientras que ESXi 6.5 creasyslog.0.gz
ensyslog.6.gz
. -
Cuando se expande un objeto, se agrega una concatenación a las réplicas para admitir el requisito de aumento de tamaño. Durante cierto período, como vSAN crea nuevas réplicas para incluir la concatenación, la concatenación y las réplicas originales se descartan. Como vSAN combina la concatenación y las réplicas originales en una réplica nueva, se puede producir un error en la operación si vSAN no tiene espacio suficiente para colocar los componentes nuevos. Si el disco queda desequilibrado y todos los componentes en el disco se encuentran en los nodos de concatenación, la operación de reequilibrio no puede mover ningún componente para equilibrar el disco.
-
No se puede expandir un VMDK mientras se cambia también la directiva de almacenamiento del VMDK, pero aún así se puede producir un error en la expansión sin ningún cambio en la directiva de almacenamiento si la directiva existente ha establecido la regla de ubicación de los datos.
-
Es posible que no se calcule correctamente el límite superior de Generación de informes de rango de memoria reservada para las máquinas virtuales que se ejecutan en hosts basados en AMD. Esto puede evitar que se enciendan las máquinas virtuales donde se utiliza la función de VMware DirectPath I/O.
-
Un error en la ruta de código de colocación en modo inactivo de un dispositivo de NMP puede hacer que las llamadas desbloqueen un bloqueo ya liberado, lo que puede generar un error en un host ESXi con una pantalla de diagnóstico de color morado.
-
Las máquinas virtuales con hardware versión 10 o posterior que usan EFI y ejecutan Windows Server 2016 en procesadores AMD pueden dejar de responder durante el reinicio. El problema no ocurre si una máquina virtual utiliza el BIOS, la versión de hardware es 11 o posterior, el sistema operativo invitado no es Windows o los procesadores son Intel.
-
Si se intenta volver a registrar un dispositivo de caracteres con el mismo nombre, es posible que se muestre una advertencia similar a la siguiente:
2018-09-14T04:49:27.441Z cpu33:4986380)WARNING: CharDriver: 291: El controlador con el nombre XXXX ya utiliza la ranura XX
No se libera la memoria de pila necesaria para registrar el dispositivo para un intento de duplicado. Esto provoca una fuga de memoria y, con el tiempo, se puede producir un error en el host con una pantalla de diagnóstico de color morado. -
Al cargar el módulo SATP de NMP después de un reinicio del sistema, es posible que el método
vmk_ModuleLoad()
no pueda leer los parámetros específicos del módulo modificado. Este problema afecta principalmente a los controladores de terceros. -
vSAN utiliza el valor de disco lleno de todos los discos en el clúster para calcular el valor de disco lleno promedio. Este valor se usa durante la operación de reequilibrio para garantizar que la transferencia de datos no provoque un desequilibrio en el disco de destino. Si tiene un clúster ampliado de vSAN, el uso de almacenamiento puede ser diferente entre los sitios. En esos casos, es posible que el reequilibrio no funcione según lo esperado si el valor de disco lleno promedio en un sitio es mayor que en el otro sitio.
-
Es posible que los hosts ESXi y hostd dejen de responder debido a un problema de asignación de memoria en el complemento de capacidad de servicio de disco de vSAN lsu-lsi-lsi-mr3-plug-in. Se pueden mostrar los mensajes de error
Sin memoria
oError de clonación de subproceso
. -
En casos poco frecuentes, las NIC que utilizan el controlador ntg3, como las NIC Broadcom BCM5719 y 5720 GbE, pueden detener temporalmente el envío de paquetes después de un intento fallido de enviar un paquete que supera la capacidad máxima. El controlador ntg3 versión 4.1.3.2 resuelve este problema.
-
En un clúster de vSAN con controladoras de matriz inteligente HPE ProLiant Gen9, como P440 y P840, es posible que no se enciendan los LED de localización en el dispositivo con errores correcto.
-
Cuando se elimina una máquina virtual, el directorio de la máquina virtual puede permanecer en el entorno de NSX-T debido a que los archivos del puerto en la carpeta
.dvsData
se eliminan en el orden incorrecto. -
Al habilitar IPFIX con una frecuencia de muestreo alta y un tráfico intenso, se puede observar una degradación del rendimiento de un entorno de VXLAN.
-
Nombre del perfil | ESXi-6.5.0-20181101001s-standard |
Compilación | Para obtener información de compilación, consulte la parte superior de la página. |
Proveedor | VMware, Inc. |
Fecha de versión | 29 de noviembre de 2018 |
Nivel de aceptación | PartnerSupported |
Hardware afectado | N/C |
Software afectado | N/C |
VIB afectados |
|
PR fijadas | 2094558, 2169094, 2020984, 2025909, 2109023, 2189347, 2154394 |
Números de CVE relacionados | N/C |
- Esta revisión actualiza los siguientes problemas:
-
ESXi ya no incluye la imagen ISO de Windows anterior a Vista para VMware Tools. La imagen ISO de Windows anterior a Vista está disponible para que la descarguen los usuarios que lo requieran. Para obtener información sobre la descarga, consulte la página Descarga de productos.
-
El daemon de NTP se actualiza a 4.2.8p12.
-
Para máquinas virtuales grandes, se puede producir un error en la instancia cifrada de vSphere vMotion debido a un espacio insuficiente en la pila de migración.
-
El paquete de Python se actualizó a la versión 3.5.5.
-
La biblioteca userworld libxml2 de ESXi se actualizó a la versión 2.9.8.
-
El paquete de OpenSSL se actualizó a la versión 1.0.2p.
-
El paquete de OpenSSH se actualizó a la versión 7.7p1.
-
Nombre del perfil | ESXi-6.5.0-20181101001s-no-tools |
Compilación | Para obtener información de compilación, consulte la parte superior de la página. |
Proveedor | VMware, Inc. |
Fecha de versión | 29 de noviembre de 2018 |
Nivel de aceptación | PartnerSupported |
Hardware afectado | N/C |
Software afectado | N/C |
VIB afectados |
|
PR fijadas | 2094558, 2169094, 2020984, 2025909, 2109023, 2189347, 2154394 |
Números de CVE relacionados | N/C |
- Esta revisión actualiza los siguientes problemas:
-
ESXi ya no incluye la imagen ISO de Windows anterior a Vista para VMware Tools. La imagen ISO de Windows anterior a Vista está disponible para que la descarguen los usuarios que lo requieran. Para obtener información sobre la descarga, consulte la página Descarga de productos.
-
El daemon de NTP se actualiza a 4.2.8p12.
-
Para máquinas virtuales grandes, se puede producir un error en la instancia cifrada de vSphere vMotion debido a un espacio insuficiente en la pila de migración.
-
El paquete de Python se actualizó a la versión 3.5.5.
-
La biblioteca userworld libxml2 de ESXi se actualizó a la versión 2.9.8.
-
El paquete de OpenSSL se actualizó a la versión 1.0.2p.
-
El paquete de OpenSSH se actualizó a la versión 7.7p1.
-
Problemas conocidos
Los problemas conocidos se agrupan del siguiente modo:
ESXi650-201811401-BGCategoría de revisión | Corrección de error |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR | N/C |
Números CVE | N/C |
Esta revisión actualiza los VIB esx-base, esx-tboot, vsan
y vsanhealth
para resolver los siguientes problemas:
- Se puede producir un error en la migración de máquinas virtuales mediante vSphere vMotion en hosts ESXi de versiones anteriores a 5.0 con el mensaje Detención de supervisor en el sitio de destino
Es posible que se produzca un error al migrar máquinas virtuales mediante vSphere vMotion en hosts ESXi de versiones anteriores a 5.0 a la versión 6.5 debido a la falta de un parámetro. También es posible que se produzca un error en la migración de Cross vCenter Server vMotion. Se puede mostrar el error Detención de supervisor en el sitio de destino.
Solución alternativa: Apague y vuelva a encender la máquina virtual.
- Algunos sensores de estado de hardware pueden mostrar el estado Desconocido en vSphere Web Client y vSphere Client debido a un problema de descodificación
Algunos sensores de IPMI pueden informar del estado Desconocido en la pestaña Estado del hardware de vSphere Web Client y vSphere Client debido a un problema de descodificación.
Solución alternativa: Consulte al proveedor de hardware del sensor específico para comprender su uso. Para obtener más información, consulte el artículo 53134 de la base de conocimientos de VMware.
- El servicio Syslog de ESXi puede mostrar marcas de tiempo imprecisas en el inicio o la rotación
El servicio Syslog de ESXi puede mostrar marcas de tiempo imprecisas cuando el servicio se inicia o reinicia, o cuando el registro alcanza su tamaño máximo según configuración y rota.
Solución alternativa: Este problema está resuelto en las instalaciones nuevas de ESXi. Para solucionar el problema en la configuración existente para
hostd.log
, debe realizar lo siguiente:- Abra el archivo
/etc/vmsyslog.conf.d/hostd.conf
. - Reemplace
onrotate = logger -t Hostd < /var/run/vmware/hostdLogHeader.txt
poronrotate = printf '%%s - last log rotation time, %%s\n' "$(date --utc +%%FT%%T.%%3NZ)" "$(cat /var/run/vmware/hostdLogHeader.txt)" | logger -t Hostd
- Guarde los cambios.
- Reinicie el servicio vmsyslogd mediante la ejecución de
/etc/init.d/vmsyslogd restart.
- Abra el archivo
- Puede mostrarse un mensaje de error para las operaciones de encendido de máquinas virtuales o VMware vSphere vApp
Puede producirse un error en las operaciones de encendido de máquinas virtuales o vSphere vApp en un clúster administrado por DRS si vApp o las máquinas virtuales utilizan un grupo de recursos de reserva de memoria no ampliable. Aparece el siguiente mensaje de error: Los recursos de memoria disponibles en el grupo de recursos primario son insuficientes para la operación.
Solución alternativa: Consulte el artículo 1003638 de la base de conocimientos de VMware.