ESXi 7.0 Update 2c | 24 de agosto de 2021 | Compilación 18426014 Compruebe las adiciones y las actualizaciones de las notas de la versión. |
Contenido de las notas de la versión
Las notas de la versión abarcan los siguientes temas:
- Novedades
- Versiones anteriores de ESXi 7.0
- Revisiones incluidas en esta versión
- Avisos de compatibilidad con el producto
- Problemas resueltos
- Problemas conocidos
Novedades
-
ESXi 7.0 Update 2c proporciona correcciones de errores y seguridad documentadas en la sección Problemas resueltos.
Versiones anteriores de ESXi 7.0
Las características nuevas, los problemas resueltos y los problemas conocidos de ESXi se describen en las notas de la versión de cada versión. Las notas de las versiones anteriores de ESXi 7.0 son las siguientes:
- VMware ESXi 7.0, versión de revisión ESXi 7.0 Update 2a
- VMware ESXi 7.0, versión de revisión ESXi 7.0 Update 2
- VMware ESXi 7.0, versión de revisión ESXi 7.0 Update 1d
- VMware ESXi 7.0, versión de revisión ESXi 7.0 Update 1c
- VMware ESXi 7.0, versión de revisión ESXi 7.0 Update 1b
- VMware ESXi 7.0, versión de revisión ESXi 7.0 Update 1a
- VMware ESXi 7.0, versión de revisión ESXi 7.0 Update 1
- VMware ESXi 7.0, versión de revisión ESXi 7.0b
Para obtener información sobre internacionalización, compatibilidad y componentes de código abierto, consulte las Notas de la versión de VMware vSphere 7.0.
Para obtener más información sobre las versiones de ESXi que admiten la actualización a ESXi 7.0 Update 2c, consulte el artículo 67077 de la base de conocimientos de VMware.
Revisiones incluidas en esta versión
Esta versión de ESXi 7.0 Update 2c tiene las siguientes revisiones:
Detalles de la compilación
Nombre de archivo de descarga: | VMware-ESXi-7.0U2c-18426014-depot |
Compilación: | 18426014 |
Tamaño de descarga: | 580,8 MB |
md5sum: | a6b2d1e3a1a071b8d93a55d7a7fc0b63 |
sha1checksum: | 829da0330f765b4ae46c2fb5b90a8b60f90e4e5b |
Reinicio requerido del host: | Sí |
Migración de máquina virtual o apagado requeridos: | Sí |
Componentes
Componente | Boletín | Categoría | Gravedad |
---|---|---|---|
Componente de ESXi: VIB principales ESXi | ESXi_7.0.2-0.20.18426014 | Corrección de error | Crítico |
Controlador Emulex FC | Broadcom-ELX-lpfc_12.8.298.3-2vmw.702.0.20.18426014 | Corrección de error | Crítico |
Controladores Broadcom NetXtreme-E Network y ROCE/RDMA para VMware ESXi | Broadcom-bnxt-Net-RoCE_216.0.0.0-1vmw.702.0.20.18426014 | Corrección de error | Importante |
Controladores RoCE/RDMA y Ethernet QLogic FastLinQ 10/25/40/50/100 GbE para VMware ESXi | MRVL-E4-CNA-Driver-Bundle_1.0.0.0-1vmw.702.0.20.18426014 | Corrección de error | Importante |
Componente de instalación/actualización de ESXi | esx-update_7.0.2-0.20.18426014 | Corrección de error | Crítico |
Controlador de red para adaptadores Intel(R) X710/XL710/XXV710/X722 | Intel-i40en_1.8.1.137-1vmw.702.0.20.18426014 | Corrección de error | Crítico |
Controlador USB | VMware-vmkusb_0.1-4vmw.702.0.20.18426014 | Corrección de error | Crítico |
Componente de ESXi: VIB principales ESXi | ESXi_7.0.2-0.15.18295176 | Seguridad | Crítico |
Controlador USB | VMware-vmkusb_0.1-1vmw.702.0.15.18295176 | Seguridad | Moderado |
Componente de herramientas de ESXi | VMware-VM-Tools_11.2.6.17901274-18295176 | Seguridad | Crítico |
Componente de instalación/actualización de ESXi | esx-update_7.0.2-0.15.18295176 | Seguridad | Crítico |
IMPORTANTE:
- Para descargar el archivo ZIP del almacén sin conexión de revisión de ESXi 7.0 Update 2c desde VMware Customer Connect, desplácese a Productos and Accounts (Productos y cuentas) > Product Patches (Revisiones de productos). En el menú desplegable Select a Product (Seleccionar un producto), seleccione ESXi (Embedded and Installable) y, en el menú desplegable Select a Version (Seleccionar una versión), seleccione 7.0.
- A partir de vSphere 7.0, VMware utiliza componentes para empaquetar los VIB junto con los boletines. Los boletines de
ESXi
yesx-update
dependen entre sí. Incluya siempre a ambos en una sola línea base de revisión de host ESXi, o bien incluya el boletín acumulativo en la línea base para evitar errores durante la aplicación de revisiones de hosts. - Cuando se aplican revisiones de hosts ESXi mediante VMware Update Manager desde una versión anterior a ESXi 7.0 Update 2, se recomienda encarecidamente utilizar el boletín acumulativo de actualizaciones en la línea base de revisión. Si no puede utilizar el boletín acumulativo de actualizaciones, asegúrese de incluir todos los paquetes a continuación en la línea base de revisión. Si los siguientes paquetes no se incluyen en la línea base, se produce un error en la operación de actualización:
- VMware-vmkusb_0.1-1vmw.701.0.0.16850804 o una versión superior
- VMware-vmkata_0.1-1vmw.701.0.0.16850804 o una versión superior
- VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 o una versión superior
- VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 o una versión superior
Boletín acumulativo de actualizaciones
Este boletín acumulativo de actualizaciones contiene los VIB más recientes con todas las revisiones posteriores a la publicación inicial de ESXi 7.0.
Identificador del boletín | Categoría | Gravedad | Detalles |
ESXi-7.0U2c-18426014 | Corrección de error | Crítico | Corrección de error y seguridad |
ESXi-7.0U2sc-18295176 | Seguridad | Crítico | Solo seguridad |
Perfiles de imagen
Las versiones de revisiones y actualizaciones de VMware contienen perfiles de imagen general y de nivel crítico. El perfil de imagen general de la versión se aplica a las nuevas correcciones de errores.
Nombre del perfil de imagen |
ESXi-7.0U2c-18426014-estándar |
ESXi-7.0U2c-18426014-sin-herramientas |
ESXi-7.0U2sc-18295176-estándar |
ESXi-7.0U2sc-18295176-sin-herramientas |
Imagen ESXi
Nombre y versión | Fecha de versión | Categoría | Detalles |
---|---|---|---|
ESXi70U2c-18426014 | 08/24/2021 | Corrección de error | Imagen de corrección de error y seguridad |
ESXi70U2sc-18295176 | 08/24/2021 | Seguridad | Imagen de solo seguridad |
Para obtener información sobre los componentes individuales y boletines, consulte la página Revisiones de producto y la sección Problemas resueltos.
Descarga e instalación de revisiones
En vSphere 7.0.x, el componente Update Manager, que se utiliza para administrar vSphere Update Manager, se reemplaza con el componente Lifecycle Manager. Las operaciones administrativas de vSphere Update Manager aún están disponibles bajo el componente Lifecycle Manager, junto con nuevas capacidades de vSphere Lifecycle Manager.
La manera típica de aplicar las revisiones a los hosts de ESXi 7.0.x es utilizando vSphere Lifecycle Manager. Para obtener más detalles, consulte Información sobre vSphere Lifecycle Manager y Líneas base e imágenes de vSphere Lifecycle Manager.
También puede actualizar los hosts ESXi sin usar el complemento Lifecycle Manager y, en su lugar, usar un perfil de imagen. Para ello, debe descargar manualmente el archivo ZIP del paquete sin conexión de revisiones desde la página Revisiones de producto y usar el comando esxcli software profile update
.
Para obtener más información, consulte la guía Actualizar los hosts a través de comandos ESXCLI y Actualizar VMware ESXi.
Avisos de compatibilidad con el producto
-
La retirada del módulo de plataforma de confianza (Trusted Platform Module, TPM) 1.2 en una versión principal futura de vSphere: VMware pretende en una versión principal futura de vSphere interrumpir la compatibilidad con TPM 1.2 y las funciones asociadas, como TPM 1.2 con TXT. Para aprovechar al máximo las funciones de vSphere, puede utilizar TPM 2.0 en lugar de TPM 1.2. La compatibilidad con TPM 1.2 continúa en todas las versiones, actualizaciones y revisiones vSphere 7.0.x. Sin embargo, no verá una advertencia de desuso para TPM 1.2 durante la instalación o las actualizaciones de las versiones 7.0.x.
- El servicio del protocolo de ubicación de servicios (SLP) está deshabilitado de forma predeterminada: A partir de ESX 7.0 Update 2c, el servicio SLP está deshabilitado de forma predeterminada para evitar posibles vulnerabilidades de seguridad. El servicio SLP también se deshabilita automáticamente después de actualizar a ESX 7.0 Update 2c. Puede habilitar manualmente el servicio SLP mediante el comando
esxcli system slp set --enable true
. Para obtener más información, consulte el artículo 76372 de la base de conocimientos de VMware.
Problemas resueltos
Los problemas resueltos se agrupan del siguiente modo:
- ESXi_7.0.2-0.20.18426014
- esx-update_7.0.2-0.20.18426014
- Broadcom-bnxt-Net-RoCE_216.0.0.0-1vmw.702.0.20.18426014
- MRVL-E4-CNA-Driver-Bundle_1.0.0.0-1vmw.702.0.20.18426014
- Intel-i40en_1.8.1.137-1vmw.702.0.20.18426014
- Broadcom-ELX-lpfc_12.8.298.3-2vmw.702.0.20.18426014
- VMware-vmkusb_0.1-4vmw.702.0.20.18426014
- ESXi_7.0.2-0.15.18295176
- esx-update_7.0.2-0.15.18295176
- VMware-VM-Tools_11.2.6.17901274-18295176
- VMware-vmkusb_0.1-1vmw.702.0.15.18295176
- ESXi-7.0U2c-18426014-estándar
- ESXi-7.0U2c-18426014-sin-herramientas
- ESXi-7.0U2sc-18295176-estándar
- ESXi-7.0U2sc-18295176-sin-herramientas
- ESXi Image - ESXi70U2c-18426014
- ESXi image - ESXi70U2sc-18295176
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | 2717698, 2731446, 2515171, 2731306, 2751564, 2718934, 2755056, 2725886, 2725886, 2753231, 2728910, 2741111, 2759343, 2721379, 2751277, 2708326, 2755977, 2737934, 2777001, 2760932, 2731263, 2731142, 2760267, 2749688, 2763986, 2765534, 2766127, 2777003, 2778793, 2755807, 2760081, 2731644, 2749815, 2749962, 2738238, 2799408 |
Números CVE | N/C |
Los boletines de ESXi y esx-update dependen entre sí. Incluya siempre a ambos en una sola línea base de revisión de host ESXi, o bien incluya el boletín acumulativo en la línea base para evitar errores durante la aplicación de revisiones de hosts.
Actualiza los VIB crx, vsanhealth, vsan, gc, esx-xserver, clusterstore, vdfs, native-misc-drivers, cpu-microcode, esx-dvfilter-generic-fastpath
y esx-base
para resolver los siguientes problemas:
- PR 2717698: Un host ESXi puede generar un error con una pantalla de diagnóstico de color púrpura debido a una condición de carrera inusual en el controlador qedentv
Una condición de carrera inusual en el controlador qedentv puede provocar un error en un host ESXi con una pantalla de diagnóstico de color púrpura. El problema se produce cuando una interrupción completa de Rx llega justo después de que se destruya un par de colas (Queue Pair, QP) de la interfaz de servicios generales (General Services Interface, GSI), por ejemplo, durante la descarga de un controlador qedentv o el apagado del sistema. En tal caso, el controlador qedentv puede acceder a una dirección QP ya liberada, lo que provoca una excepción de PF. El problema puede ocurrir en hosts ESXi que están conectados a un conmutador físico ocupado con un gran volumen de tráfico no solicitado en la GSI. En el seguimiento inverso, se muestran mensajes similares al siguiente:
cpu4:2107287)0x45389609bcb0:[0x42001d3e6f72]qedrntv_ll2_rx_cb@(qedrntv)#<None>+0x1be stack: 0x45b8f00a7740, 0x1e146d040, 0x432d65738d40, 0x0, 0x
2021-02-11T03:31:53.882Z cpu4:2107287)0x45389609bd50:[0x42001d421d2a]ecore_ll2_rxq_completion@(qedrntv)#<None>+0x2ab stack: 0x432bc20020ed, 0x4c1e74ef0, 0x432bc2002000,
2021-02-11T03:31:53.967Z cpu4:2107287)0x45389609bdf0:[0x42001d1296d0]ecore_int_sp_dpc@(qedentv)#<None>+0x331 stack: 0x0, 0x42001c3bfb6b, 0x76f1e5c0, 0x2000097, 0x14c2002
2021-02-11T03:31:54.039Z cpu4:2107287)0x45389609be60:[0x42001c0db867]IntrCookieBH@vmkernel#nover+0x17c stack: 0x45389609be80, 0x40992f09ba, 0x43007a436690, 0x43007a43669
2021-02-11T03:31:54.116Z cpu4:2107287)0x45389609bef0:[0x42001c0be6b0]BH_Check@vmkernel#nover+0x121 stack: 0x98ba, 0x33e72f6f6e20, 0x0, 0x8000000000000000, 0x430000000001
2021-02-11T03:31:54.187Z cpu4:2107287)0x45389609bf70:[0x42001c28370c]NetPollWorldCallback@vmkernel#nover+0x129 stack: 0x61, 0x42001d0e0000, 0x42001c283770, 0x0, 0x0
2021-02-11T03:31:54.256Z cpu4:2107287)0x45389609bfe0:[0x42001c380bad]CpuSched_StartWorld@vmkernel#nover+0x86 stack: 0x0, 0x42001c0c2b44, 0x0, 0x0, 0x0
2021-02-11T03:31:54.319Z cpu4:2107287)0x45389609c000:[0x42001c0c2b43]Debug_IsInitialized@vmkernel#nover+0xc stack: 0x0, 0x0, 0x0, 0x0, 0x0
2021-02-11T03:31:54.424Z cpu4:2107287)^[[45m^[[33;1mVMware ESXi 7.0.2 [Releasebuild-17435195 x86_64]^[[0m
#PF Exception 14 in world 2107287:vmnic7-pollW IP 0x42001d3e6f72 addr 0x1cEl problema está resuelto en esta versión.
- PR 2731446: Mientras el dispositivo de vSphere Replication se enciende, es posible que se produzca un error en el servicio hostd y que los hosts ESXi no respondan temporalmente a vCenter Server
En raras ocasiones, mientras se enciende el dispositivo de vSphere Replication, se puede producir un error en el servicio hostd y provocar que los hosts ESXi no respondan temporalmente a vCenter Server. El servicio hostd se reinicia automáticamente y la conectividad se restaura.
El problema está resuelto en esta versión.
- PR 2515171: Al editar un parámetro de opciones avanzadas en un perfil de host y establecer un valor como false, el valor se establece como true
Cuando se intenta definir un valor como
false
para un parámetro de opción avanzada en un perfil de host, la interfaz de usuario crea un valor de cadena no vacío. Los valores que no están vacíos se interpretan comotrue
y el parámetro de opción avanzada recibe el valortrue
en el perfil de host.El problema está resuelto en esta versión.
- PR 2731306: Los hosts ESXi dejan de responder a vCenter Server con mensajes repetidos para errores de admisión
Los hosts ESXi podrían dejar de responder a vCenter Server incluso cuando los hosts están accesibles y en ejecución. El problema se produce en imágenes de proveedor con controladores personalizados en los que
ImageConfigManager
consume más RAM que la asignada. Como resultado, errores repetidos deImageConfigManager
hacen que los hosts ESXi se desconecten de vCenter Server.
En los registros de VMkernel, aparecen errores repetidos como:Admission failure in path: host/vim/vmvisor/hostd-tmp/sh.<pid1>:python.<pid2>:uw.<pid2>
.
En los registros de hostd, aparecen mensajes como:Task Created : haTask-ha-host-vim.host.ImageConfigManager.fetchSoftwarePackages-<sequence>
, followed by:ForkExec(/usr/bin/sh) <pid1>
, donde<pid1>
identifica un procesoImageConfigManager
.El problema está resuelto en esta versión.
- PR 2751564: Si disminuye el valor de la opción de configuración avanzada DiskMaxIOSize, se pueden producir errores en las operaciones de E/S de los hosts ESXi
Si cambia la opción de configuración avanzada
DiskMaxIOSize
a un valor inferior, las operaciones de E/S con tamaños de bloque grandes pueden dividirse y colocarse en cola de forma incorrecta en la ruta de acceso de PSA. Como resultado, es posible que se agote el tiempo de espera de las operaciones de E/S de los hosts ESXi y se produzca un error.El problema está resuelto en esta versión.
- PR 2718934: Las operaciones de encendido o apagado de las máquinas virtuales tardan demasiado tiempo
En determinadas condiciones, las operaciones de encendido o apagado de las máquinas virtuales pueden tardar hasta 20 minutos. El problema se produce cuando el almacenamiento subyacente de las máquinas virtuales ejecuta una operación en segundo plano, como volver a examinar HBA o eventos de APD, y algunos bloqueos se mantienen continuamente.
El problema está resuelto en esta versión. La solución elimina los bloqueos innecesarios en los recursos de almacenamiento e introduce una exclusión mutua rápida para mejorar el rendimiento de la operación de energía de la máquina virtual.
- PR 2755056: se produce un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura debido a la diferencia de tamaño de respuesta de la página de datos de producto vitales (VPD)
En raras ocasiones, cuando el tamaño de respuesta de la página VPD del host ESXi de destino es diferente en rutas distintas al host, ESXi puede escribir más bytes que la longitud asignada para una ruta de acceso determinada. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura y un mensaje como el siguiente:
Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4878 - Corruption in dlmalloc
El problema está resuelto en esta versión. La solución realiza un seguimiento del tamaño de las páginas de VPD mediante un campo independiente en lugar de depender del encabezado de respuesta de VPD.
- PR 2725886: Una contención de bloqueo inusual puede provocar errores en algunas operaciones de la máquina virtual
Una contención de bloqueo inusual puede provocar errores en las operaciones de la máquina virtual, como la conmutación por error o la migración.
Los mensajes de error de bloqueo son similares a los siguientes:vol 'VM_SYS_11', lock at 480321536: [Req mode 1] Checking liveness:
type 10c00003 offset 480321536 v 1940464, hb offset 3801088
oRes3: 2496: Rank violation threshold reached: cid 0xc1d00002, resType 2, cnum 5 vol VM_SYS_11
El problema está resuelto en esta versión.
- PR 2766036: En la instancia de vSphere Client, se ven números incorrectos para el espacio aprovisionado de las máquinas virtuales
En flujos de trabajo complicados que provocan la creación de varias máquinas virtuales, al desplazarse hasta Máquinas virtuales > Máquinas virtuales, es posible que aparezcan grandes números en la columna Espacio aprovisionado de algunas máquinas virtuales. Por ejemplo, 2,95 TB en lugar del espacio aprovisionado real de 25 GB.
El problema está resuelto en esta versión.
- PR 2753231: Se produce un error en un host ESXi con una pantalla de diagnóstico de color púrpura debido a un daño en la pila de llamadas en la pila de almacenamiento ESXi
Al controlar el comando SCSI
READ CAPACITY (10)
, es posible que ESXi copie el exceso de datos de la respuesta y dañe la pila de llamadas. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura.El problema está resuelto en esta versión.
- PR 2728910: Es posible que los hosts ESX generen un error y aparezca una pantalla de diagnóstico de color púrpura cuando se enciendan las máquinas virtuales
En muy raras ocasiones, es posible que no se bloqueen los clústeres de recursos de VMFS que se incluyen en una transacción de diario. Como resultado, durante el encendido de las máquinas virtuales, se puede producir un error en varios hosts ESXi con una pantalla de diagnóstico de color púrpura debido a la excepción 14 en la capa de VMFS. A continuación, se muestra un seguimiento típico de la pila y el mensaje que se ve en el registro de VMkernel:
@BlueScreen: #PF Exception 14 in world 2097684:VSCSI Emulat IP 0x418014d06fca addr 0x0
PTEs:0x16a47a027;0x600faa8007;0x0;2020-06-24T17:35:57.073Z cpu29:2097684)Inicio del código: 0x418013c00000 VMK uptime: 0:01:01:20.555
2020-06-24T17:35:57.073Z cpu29:2097684)0x451a50a1baa0:[0x418014d06fca]Res6MemUnlockTxnRCList@esx#nover+0x176 pila: 0x1 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb10:[0x418014c7cdb6]J3_DeleteTransaction@esx#nover+0x33f pila: 0xbad0003
2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb40:[0x418014c7db10]J3_AbortTransaction@esx#nover+0x105 pila: 0x0 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb80:[0x418014cbb752]Fil3_FinalizePunchFileHoleTxnVMFS6@esx#nover+0x16f pila: 0x430fe950e1f0
2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bbd0:[0x418014c7252b]Fil3UpdateBlocks@esx#nover+0x348 pila: 0x451a50a1bc78 2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bce0:[0x418014c731dc]Fil3_PunchFileHoleWithRetry@esx#nover+0x89 pila: 0x451a50a1bec8
2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bd90:[0x418014c739a5]Fil3_FileBlockUnmap@esx#nover+0x50e pila: 0x230eb5 2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be40:[0x418013c4c551]FSSVec_FileBlockUnmap@vmkernel#nover+0x6e pila: 0x230eb5
2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be90:[0x418013fb87b1]VSCSI_ExecFSSUnmap@vmkernel#nover+0x8e pila: 0x0 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf00:[0x418013fb71cb]VSCSIDoEmulHelperIO@vmkernel#nover+0x2c pila: 0x430145fbe070
2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf30:[0x418013ceadfa]HelperQueueFunc@vmkernel#nover+0x157 pila: 0x430aa05c9618 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bfe0:[0x418013f0eaa2]CpuSched_StartWorld@vmkernel#nover+0x77 pila: 0x0
2020-06-24T17:35:57.083Z cpu29:2097684)base fs=0x0 gs=0x418047400000 Kgs=0x0El problema está resuelto en esta versión.
- PR 2741111: Un error en algunas CPU Intel al reenviar capturas de excepción de depuración (#DB) puede provocar un error triple en la máquina virtual
En raras ocasiones, es posible que algunas CPU Intel no puedan reenviar capturas de #DB y, si se produce una interrupción del temporizador durante la llamada del sistema Windows, la máquina virtual podría triplicar el error.
El problema está resuelto en esta versión. La solución reenvía todas las capturas #DB de las CPU al sistema operativo invitado, excepto cuando la captura de la base de datos proviene de un depurador conectado a la máquina virtual.
- PR 2759343: El servicio sfcbd no se inicia al reiniciar agentes de administración de ESXi desde la interfaz de usuario de la consola directa (DCUI)
Si reinicia agentes de administración de ESXi desde DCUI, el servicio sfcbd no se inicia. Debe iniciar manualmente el servicio SFCB.
El problema está resuelto en esta versión.
- PR 2721379: El servicio hostd registra una advertencia de que no hay sensores de fuente de alimentación cada 2 minutos
El servicio hostd registra el mensaje
BuildPowerSupplySensorList found 0 power supply sensors
cada 2 minutos. El problema se produce cuando se actualiza a ESXi 7.0 Update 1 o se instala nuevamente en un host ESXi.El problema está resuelto en esta versión.
- PR 2751277: Los hosts ESXi pueden generar un error con una pantalla de diagnóstico de color púrpura debido a un error de referencia de puntero NULL
En raras ocasiones, el asignador de memoria del kernel puede devolver un puntero
NULL
que podría no anular la referencia correctamente. Como resultado, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color púrpura, como#GP Exception 13 in world 2422594:vmm:overCom @ 0x42003091ede4
. En el seguimiento inverso, aparecen errores similares a los siguientes:#1 Util_ZeroPageTable
#2 Util_ZeroPageTableMPN
#3 VmMemPfUnmapped
#4 VmMemPfInt
#5 VmMemPfGetMapping
#6 VmMemPf
#7 VmMemPfLockPageInt
#8 VMMVMKCall_Call
#9 VMKVMM_ArchEnterVMKernelEl problema está resuelto en esta versión.
- PR 2708326: Si un dispositivo NVMe se agrega en caliente y se elimina en caliente en un espacio de tiempo corto, el host ESXi puede generar un error con una pantalla de diagnóstico de color morado
Si un dispositivo NVMe se agrega en caliente y se elimina en caliente en un espacio de tiempo corto, es posible que el controlador NVMe no pueda inicializar la controladora NVMe debido a que se haya agotado el tiempo de espera del comando. Como resultado, es posible que el controlador acceda a la memoria que ya se ha liberado durante un proceso de limpieza. En el seguimiento inverso, se muestra un mensaje como
WARNING: NVMEDEV: NVMEInitializeController:4045: No se pudieron obtener los datos de identificación de la controladora. Estado: Tiempo de espera
.
Finalmente, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color morado donde se muestre un error similar a#PF Exception ... in world ...:vmkdevmgr
.El problema está resuelto en esta versión.
- PR 2755977: Los hosts ESXi pueden no aprovisionar VMDK grueso ni crear un archivo de intercambio durante el encendido de una máquina virtual
Cuando un host ESXi no tiene bloques de archivos grandes libres (LFB) para asignar, el host cumple con el aprovisionamiento de VMDK grueso o la creación de un archivo de intercambio con bloques de archivos pequeños (SFB). Sin embargo, en raras ocasiones, es posible que el host no pueda asignar también SFB. Como resultado, se produce un error en el aprovisionamiento de VMDK grueso o en la creación de un archivo de intercambio. Cuando las máquinas virtuales intentan encenderse, se muestra un error en los registros de VMkernel como el siguiente:
vmkernel.1:2021-01-08T19:13:28.341Z cpu20:2965260)Fil3: 10269: Max no space retries (10) exceeded for caller Fil3_SetFileLength (status 'No space left on device')
El problema está resuelto en esta versión.
- PR 2737934: Si utiliza almacenes de datos de VMFS6 muy grandes, es posible que vea errores de bloqueo de CPU repetidos o que se produzcan errores de forma intermitente en los hosts ESXi
Cuando se utilizan almacenes de datos de VMFS6 muy grandes, el proceso de asignación de bloques de archivos para VMDK finos en un clúster de recursos puede provocar un bloqueo de CPU. Como resultado, se ven mensajes de bloqueo de CPU y, en casos excepcionales, es posible que se produzca un error en hosts ESXi. En el seguimiento inverso, se muestran mensajes similares al siguiente:
2021-04-07T02:18:08.730Z cpu31:2345212)ADVERTENCIA: Heartbeat: 849: PCPU 10 didn't have a heartbeat for 7 seconds; *may* be locked up.
El seguimiento inverso asociado relacionado con funcionesRes6AffMgr
tiene un aspecto similar al siguiente:2021-01-06T02:16:16.073Z cpu0:2265741)ALERTA: NMI: 694: NMI IPI: RIPOFF(base):RBP:CS [0x121d74d(0x42001a000000):0x50d0:0xf48] (Src 0x1, CPU0)
2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b320:[0x42001b21d74c]Res6AffMgrComputeSortIndices@esx#nover+0x369 pila: 0x43119125a000
2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b3b0:[0x42001b224e46]Res6AffMgrGetCluster@esx#nover+0xb1f pila: 0xd 2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b4b0:[0x42001b226491]Res6AffMgr_AllocResourcesInt@esx#nover+0x40a pila: 0x4311910f4890
2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b680:[0x42001b2270e2]Res6AffMgr_AllocResources@esx#nover+0x1b pila: 0x0El problema está resuelto en esta versión. Para obtener más información, consulte el artículo 83473 de la base de conocimientos de VMware.
- PR 2777001: Los hosts ESXi con un gran recuento de CPU físicas pueden generar un error con una pantalla de diagnóstico de color púrpura durante una actualización a ESXi 7.0 Update 2 o después de ella
Durante una actualización a ESXi 7.0 Update 2 o después de ella, es posible que la capa de almacenamiento de ESX no asigne suficientes recursos de memoria para los hosts ESXi con un gran número de CPU físicas y muchos dispositivos de almacenamiento o rutas de acceso conectados a los hosts. Como resultado, se puede producir un error en dichos hosts ESXi con una pantalla de diagnóstico de color púrpura.
El problema está resuelto en esta versión. La solución corrige la asignación de memoria de la capa de almacenamiento ESX.
- PR 2760932: Las máquinas virtuales con hardware versión 18 pueden generar errores de forma intermitente durante las operaciones de vSphere vMotion
Las máquinas virtuales con hardware versión 18 y VMware Tools 11.2.0 o versiones posteriores pueden generar errores debido a un problema de dispositivo de gráficos virtuales en el lado de destino durante una instancia de vSphere vMotion o Storage vMotion.
Envmkernel.log
se muestra una línea como la siguiente:PF failed to handle a fault on mmInfo at va 0x114f5ae0: Out of memory. Terminating...
El problema está resuelto en esta versión.
- PR 2731263: Después de actualizar a la versión de hardware 18, se produce un pánico en el kernel del sistema operativo invitado en las máquinas virtuales
Después de actualizar a la versión de hardware 18, algunos sistemas operativos invitados, como CentOS 7, en las CPU AMD pueden generar un error de detención del kernel al arrancar la máquina virtual. Aparece el mensaje de pánico del kernel cuando abre una consola web para la máquina virtual.
El problema está resuelto en esta versión.
- PR 2731142: Los paquetes con la opción de límite de encapsulación de túnel IPv6 se pierden en el tráfico entre máquinas virtuales
Algunos kernels de Linux agregan la opción Límite de encapsulación de túnel de IPv6 a paquetes de túnel IPv6, como se describe en RFC 2473, par. 5.1. Como resultado, los paquetes de túnel IPv6 se descartan en el tráfico entre las máquinas virtuales, debido al encabezado de extensión IPv6.
El problema está resuelto en esta versión. La solución analiza correctamente los paquetes con la opción Límite de encapsulación de túnel IPv6.
- PR 2760267: En los registros de VMkernel, se muestran varias advertencias que indican un cambio a la ruta de acceso preferida XXX en estado EN ESPERA para el dispositivo XXX
Cuando los medios virtuales, como una unidad de CD, se conectan al entorno de vSphere mediante una instancia integrada de Dell Remote Access Controller (iDRAC) y no se asigna ningún archivo de medios a la unidad, es posible que aparezcan varios mensajes de advertencia en el registro de vmkernel como los siguientes:
vmw_psp_fixed: psp_fixedSelectPathToActivateInt:439: Switching to preferred path vmhba32:C0:T0:L1 in STANDBY state for device mpx.vmhba32:C0:T0:L1.
WARNING: vmw_psp_fixed: psp_fixedSelectPathToActivateInt:464: Selected current STANDBY path vmhba32:C0:T0:L1 for device mpx.vmhba32:C0:T0:L1 to activate. This may lead to path thrashing.
El problema está resuelto en esta versión.
- PR 2749688: vCenter Server puede quitar de forma intermitente puertos virtuales distribuidos controlados por NSX internos de los hosts ESXi
Durante los flujos de trabajo de sincronización de 24 horas de vSphere Distributed Switch, es posible que vCenter Server quite de forma intermitente puertos virtuales distribuidos controlados NSX, como el puerto de reenvío de plano de servicio (SPF), de hosts ESXi. Por ello, es posible que se produzcan errores en operaciones de vSphere vMotion de máquinas virtuales. Se muestra un error como
Could not connect SPF port: Not found
en los registros.El problema está resuelto en esta versión.
- PR 2763986: Si configura la partición temporal en el directorio raíz de un volumen VMFS, se produce un error en la actualización a ESXi 7.0.x y es posible que se pierdan datos en el volumen VMFS
ESXi 7.0 introdujo la partición ESX-OSData basada en VMFS-L, que asume la función de la partición desde cero heredada, la partición del bloqueador para VMware Tools y el destino del volcado de núcleo. Si configura la partición desde cero en el directorio raíz de un volumen VMFS durante una actualización a ESXi 7.0.x, el sistema intenta convertir los archivos VMFS en formato VMFS-L para que coincidan con los requisitos de partición de OS-Data. Como resultado, es posible que la partición OS-Data sobrescriba el volumen VMFS y cause la pérdida de datos.
El problema está resuelto en esta versión. La solución agrega una comprobación si el sistema de archivos es VFAT antes de convertirlo en OS-DATA. Para obtener más información, consulte el artículo 83647 de la base de conocimientos de VMware.
- PR 2765534: El estado de mantenimiento del canal de comunicación de los hosts ESXi en clústeres NSX Data Center for vSphere está inactivo después de actualizar a ESXi 7.0 Update 2a
Debido a un problema de control de registros, después de una actualización a ESXi 7.0 Update 2a, cuando se comprueba el estado de mantenimiento del canal de comunicación, se ven todos los hosts ESXi con el estado inactivo, ya que NSX Manager no puede conectarse al agente de firewall.
El problema está resuelto en esta versión. Si ya se enfrenta a este problema, detenga el servicio
vsfwd
y vuelva a intentar la operación de actualización. - PR 2766127: Si actualiza los hosts ESXi mediante vSphere Quick Boot en un entorno de FCoE, se puede producir un error en el servidor físico con una pantalla de diagnóstico de color púrpura
Si se instala un host ESXi versión 7.0 Update 2 en un LUN FCoE y utiliza el modo de arranque UEFI, cuando se intenta actualizar el host mediante vSphere QuickBoot, se puede producir un error en el servidor físico con una pantalla de diagnóstico de color púrpura debido a un error de memoria.
El problema está resuelto en esta versión.
- PR 2777003: Si utiliza un USB como dispositivo de arranque para ESXi 7.0 Update 2a, es posible que los hosts ESXi dejen de responder y vea que el host no responde y que no se encuentran alertas del banco de arranque
Los dispositivos USB tienen una profundidad de cola pequeña y, debido a una condición de carrera en la pila de almacenamiento ESXi, es posible que algunas operaciones de E/S no lleguen al dispositivo. Estas operaciones de E/S se ponen en cola en la pila de almacenamiento ESXi y, finalmente, se agota el tiempo de espera. Como resultado, los hosts ESXi dejan de responder.
En la instancia de vSphere Client, aparecen alertas comoAlert: /bootbank not to be found at path '/bootbank’
yHost not-responding
.
En los registros de vmkernel, se muestran errores similares al siguiente:2021-04-12T04:47:44.940Z cpu0:2097441)ScsiPath: 8058: Cancelled Cmd(0x45b92ea3fd40) 0xa0, cmdId.initiator=0x4538c859b8f8 CmdSN 0x0 from world 0 to path "vmhba32:C0:T0:L0". Cmd count Active:0 Queued:1.
2021-04-12T04:48:50.527Z cpu2:2097440)ScsiDeviceIO: 4315: Cmd(0x45b92ea76d40) 0x28, cmdId.initiator=0x4305f74cc780 CmdSN 0x1279 from world 2099370 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x5 D:0x0 P:0x0 Cancelled from path layer. Cmd count Active:1
2021-04-12T04:48:50.527Z cpu2:2097440)Queued:4El problema está resuelto en esta versión.
- PR 2778793: El tiempo de arranque de los hosts ESXi se ralentiza después de la actualización a ESXi Update 2a
Es posible que se produzca una ralentización de hasta 60 minutos en el tiempo de arranque de los hosts ESXi después de una actualización a ESXi Update 2a.
Este problema no afecta a las actualizaciones a ESXi Update 2a de versiones anteriores de ESXi 7.0.x.
El problema solo se produce cuando se utiliza una línea base o imagen de vSphere Lifecycle Manager, o bien el comandoesxcli software profile update
para realizar la operación de actualización. Si utiliza una imagen ISO o una instalación generada por script, no se produce el problema.
Es más probable que el problema afecte a las configuraciones de iSCSI, pero está relacionado con el algoritmo de ESXi para la detección de banco de arranque, no con destinos de almacenamiento externo lentos.El problema está resuelto en esta versión. La solución aumenta los límites de tolerancia cuando no se proporcionan de inmediato un archivo
boot.cfg
o almacenamiento. - PR 2755807: se produce un error de memoria agotada en las operaciones de vSphere vMotion en un host ESXi
Debido a una fuga de memoria en la pila del conjunto de puertos, las operaciones de vSphere vMotion en un host ESXi pueden generar un error de memoria agotada. En vSphere Client, se muestra un error, como:
Failed to reserve port. DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba port 1 39.
Failed with error status: Out of memory.El problema está resuelto en esta versión.
- PR 2760081: advertencia de estado del motor de recomendación de compilación vSAN después de actualizar a vSAN 7.0 Update 2
Si vCenter Server no puede resolver
vcsa.vmware.com
a una dirección IP, no se puede cargar el catálogo de versiones de vSAN. La siguiente comprobación de estado de vSAN muestra una advertencia: Estado del motor de recomendación de compilación de vSAN.
Es posible que se muestre un mensaje de error similar al siguiente:2021-04-12T11:40:59.435Z ERROR vsan-mgmt[32221] [VsanHttpRequestWrapper::urlopen opID=noOpId] Exception while sending request : Cannot resolve localhost or Internet websites.
2021-04-12T11:40:59.435Z WARNING vsan-mgmt[32221] [VsanVumCoreUtil::CheckVumServiceStatus opID=noOpId] Failed to connect VUM service: Cannot resolve localhost or Internet websites.
2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumIntegration::VumStatusCallback opID=noOpId] VUM is not installed or not responsive
2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumSystemUtil::HasConfigIssue opID=noOpId] Config issue health.test.vum.vumDisabled exists on entity NoneEl problema está resuelto en esta versión.
- PR 2731644: Se observa una actividad de limpieza superior a la habitual en vSAN
Un error de desbordamiento de enteros puede provocar que vSAN DOM emita limpiezas con más frecuencia que la configuración establecida.
El problema está resuelto en esta versión.
- PR 2749815: Los hosts ESXi generan un error con una pantalla de diagnóstico de color púrpura cuando se anula una resincronización con escrituras de invitado activas
Cuando una resincronización se ejecuta en paralelo con escrituras de invitado en objetos que son propiedad de un host ESXi, se puede producir un error en el host con una pantalla de diagnóstico de color púrpura.
El problema está resuelto en esta versión.
- PR 2749962: Aparece un error de syslog Failed to write header on rotate
Cuando el archivo cmmdstimemachineDump.log alcanza un límite máximo de 10 MB, se produce la rotación y se crea un nuevo archivo cmmdstimemachineDump. Sin embargo, durante la rotación, en los registros vmsyslogd.err es posible que aparezca un error como el siguiente:
2021-04-08T03:15:53.719Z vmsyslog.loggers.file : ERROR ] Failed to write header on rotate. Exception: [Errno 2] No such file or directory: '/var/run/cmmdstimemachineDumpHeader.txt'
El problema está resuelto en esta versión.
- PR 2738238: La tarea de cambio de formato de objeto tarda mucho en responder
En algunos casos, el servicio de supervisión, pertenencia y directorio (CMMDS) del clúster no proporciona una entrada correcta a la tarea de cambio de formato de objeto y la tarea tarda mucho en responder.
El problema está resuelto en esta versión.
- PR 2799408: La actualización de un clúster ampliado a la versión ESXi 7.0 Update 2 o posterior puede provocar un error en varios hosts ESX con una pantalla de diagnóstico de color púrpura
En raras ocasiones, si se reemplaza el host testigo durante el proceso de actualización y se ejecuta una tarea de conversión de formato de disco poco después del reemplazo, se puede producir un error en varios hosts ESX en un clúster ampliado con una pantalla de diagnóstico de color púrpura.
El problema está resuelto en esta versión.
- PR 2949777: Si la configuración LargeBAR de un dispositivo vmxnet3 está habilitada en ESX 7.0 Update 3 y versiones posteriores, es posible que las máquinas virtuales pierdan conectividad
La configuración
LargeBAR
que extiende el registro de direcciones base (BAR) en un dispositivo vmxnet3 admite el acceso directo uniforme (UNIFORM Passthrough, UPT). Sin embargo, UPT no es compatible con ESX 7.0 Update 3 y versiones posteriores, y si el controlador vmxnet3 se degrada a una versión anterior a 7.0 y la configuración de LargeBAR está habilitada, es posible que las máquinas virtuales pierdan conectividad.El problema está resuelto en esta versión.
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | 2722263, 2812906 |
Números CVE | N/C |
Actualiza los VIB loadesx
y esx-update
para resolver el siguiente problema:
- PR 2722263: No se pueden eliminar componentes de una imagen de ESXi personalizada después de actualizar a ESXi 7.0 Update 2a
Si crea una imagen personalizada de 7.0 Update 2a mediante el kit de empaquetado de ESXi, reemplace algunos de los componentes de la imagen base, por ejemplo,
Intel-ixgben:1.8.9.0-1OEM.700.1.0.15525992
y, a continuación, actualice los hosts ESXi 7.0.x, no podrá eliminar el componente personalizado después de la actualización. Además, es posible que falten algunos VIB de los componentes personalizados.El problema está resuelto en esta versión.
- PR 2812906: Los metadatos de los almacenes de datos de VMFS pueden dañarse en ciertos escenarios de implementación de ESXi debido a la duplicación de los identificadores únicos universales (UUID) del sistema
Ciertos escenarios de implementación, como la clonación de bancos de arranque de ESXi, pueden derivar parcialmente en UUID completamente idénticos para varios hosts ESXi. Dado que los UUID se utilizan para las operaciones de latido y diario de VMFS, cuando se duplican los UUID, después de las operaciones de instalación o actualización, varios hosts ESXi pueden intentar acceder a regiones de metadatos en el mismo almacén de datos de VMFS. Como resultado, es posible que se produzcan daños en los metadatos en algunos almacenes de datos de VMFS.
En los registros de vmkernel, aparecen mensajes como:VMkernel 608: VMFS volume DCS_HCFA_TEDS_Regulated_10032/5ba2905b-ac11166d-b145-0025b5920a02 on naa.60060e8012a34f005040a34f00000d64:1 has been detected corrupted.
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 319: FS3RCMeta 2245 200 21 105 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 326: 0 0 0 0 0 0 0 0 0 0 0 7 0 254 1 4 0 248 3 96 0 0 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 332: 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 338: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0Algunos escenarios de implementación afectados son la reutilización de perfiles de hardware; por ejemplo, sistemas Blade que utilizan el mismo MAC para implementar una nueva instancia y mover discos de arranque entre servidores.
Solución alternativa: Ninguna. Para obtener más información, consulte los artículos 84280 y 84349 de la base de conocimientos de VMware.
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Importante |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | N/C |
Números CVE | N/C |
Actualiza el VIB bnxtroce
.
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Importante |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | N/C |
Números CVE | N/C |
Actualiza el VIB qedrntv
.
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | 2750390 |
Números CVE | N/C |
Actualiza el VIB i40enu
para resolver el siguiente problema:
- PR 2750390: Después de una actualización a ESXi 7.0 Update 2a, los VIB de los controladores de red i40en asíncronos para ESXi se omiten o se revierten al controlador i40enu de la bandeja de entrada de VMware
A partir de vSphere 7.0 Update 2, el nombre del controlador i40en de la bandeja de entrada se cambió a i40enu. Como resultado, si intenta instalar un controlador asíncrono de socio i40en, el VIB de i40en se omite o se revierte al controlador de la bandeja de entrada i40enu de VMware.
El problema está resuelto en esta versión.
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | 2715138 |
Números CVE | N/C |
Actualiza el VIB lpfc
para resolver el siguiente problema:
- PR 2715138: Los hosts ESXi pueden generar un error con una pantalla de diagnóstico de color púrpura durante la instalación del complemento Dell EMC PowerPath
Un error inusual de
Page Fault
puede provocar un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura durante la instalación del complemento Dell EMC PowerPath.El problema está resuelto en esta versión.
Categoría de revisión | Corrección de error |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | 2753546 |
Números CVE | N/C |
Actualiza el VIB vmkusb
para resolver los siguientes problemas
- PR 2753546: Si utiliza un dispositivo de arranque USB, la conexión a la partición /bootbank puede interrumpirse o dañar la partición VMFS-L LOCKER
Si la controladora del host USB se desconecta del sistema vSphere y cualquier recurso del dispositivo, como los archivos de volcado, sigue en uso por ESXi, la ruta de acceso del dispositivo no se podrá liberar cuando el dispositivo se vuelva a conectar. Como resultado, ESXi proporciona una nueva ruta de acceso al dispositivo USB, lo que interrumpe la conexión con la partición
/bootbank
o daña la particiónVMFS-L LOCKER
.El problema está resuelto en esta versión. La solución mejora el controlador de la controladora del host USB para que tolere errores de tiempo de espera del comando para permitir el tiempo suficiente a ESXi para liberar recursos de dispositivos USB.
Como práctica recomendada, no establezca la partición de volcado en el dispositivo de almacenamiento USB. Para obtener más información, consulte los artículos 2077516 y 2149257 de la base de conocimientos de VMware.
Categoría de revisión | Seguridad |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | 2738816, 2738857, 2735594 |
Números CVE | N/C |
Los boletines de ESXi y esx-update dependen entre sí. Incluya siempre a ambos en una sola línea base de revisión de host ESXi, o bien incluya el boletín acumulativo en la línea base para evitar errores durante la aplicación de revisiones de hosts.
Actualiza los VIB vdfs, esx-xserver, esx-base, esx-dvfilter-generic-fastpath, crx, native-misc-drivers, cpu-microcode, gc, vsanhealth, clusterstore, vsan,
y esx-base
para resolver los siguientes problemas:
- Actualización de OpenSSH
OpenSSH se actualizó a la versión 8.5p1.
- Actualización de la biblioteca OpenSSL
La biblioteca OpenSSL se actualizó a la versión openssl-1.0.2y.
- Actualización de la biblioteca Libarchive
La biblioteca Libarchive se actualizó a la versión 3.5.1.
Categoría de revisión | Seguridad |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | N/C |
Números CVE | N/C |
Actualiza los VIB loadesx
y esx-update
.
Categoría de revisión | Seguridad |
Gravedad de la revisión | Crítico |
Reinicio de host requerido | No |
Migración de máquina virtual o apagado requeridos | No |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | 2761942 |
Números CVE | N/C |
Actualiza el VIB tools-light
para resolver el siguiente problema:
ESXi incluye las siguientes imágenes ISO de VMware Tools 11.2.6:
windows.iso
: Imagen de VMware Tools para Windows 7 SP1 o Windows Server 2008 R2 SP1 o posteriorlinux.iso
: Imagen de VMware Tools 10.3.23 para versiones anteriores del sistema operativo Linux con una versión de glibc 2.5 o posterior
Las siguientes imágenes ISO de VMware Tools 10.3.10 están disponibles para la descarga:
solaris.iso
: imagen de VMware Tools para Solarisdarwin.iso
: Imagen de VMware Tools para Mac OS X versiones 10.11 y posteriores.
Siga los procedimientos enumerados en los siguientes documentos para descargar VMware Tools para las plataformas que no se incluyen en ESXi:
Categoría de revisión | Seguridad |
Gravedad de la revisión | Moderado |
Reinicio de host requerido | Sí |
Migración de máquina virtual o apagado requeridos | Sí |
Hardware afectado | N/C |
Software afectado | N/C |
VIB que se incluyen |
|
PR corregidas | N/C |
Números CVE | N/C |
Actualiza el VIB vmkusb
.
Nombre del perfil | ESXi-7.0U2c-18426014-estándar |
Compilación | Para obtener información sobre la compilación, consulte Revisiones incluidas en esta versión. |
Proveedor | VMware, Inc. |
Fecha de versión | 24 de agosto de 2021 |
Nivel de aceptación | PartnerSupported |
Hardware afectado | N/C |
Software afectado | N/C |
VIB afectados |
|
PR corregidas | 2717698, 2731446, 2515171, 731306, 2751564, 2718934, 2755056, 2725886, 2725886, 2753231, 2728910, 2741111, 2759343, 2721379, 2751277, 2708326, 2755977, 2737934, 2777001, 2760932, 2731263, 2731142, 2760267, 2749688, 2763986, 2765534, 2766127, 2777003, 2778793, 2755807, 2760081, 2731644, 2749815, 2749962, 2738238, 2799408, 2722263, 2812906, 2750390, 2715138, 2753546 |
Números de CVE relacionados | N/C |
Esta revisión actualiza los siguientes problemas:
-
-
Una condición de carrera inusual en el controlador qedentv puede provocar un error en un host ESXi con una pantalla de diagnóstico de color púrpura. El problema se produce cuando una interrupción completa de Rx llega justo después de que se destruya un par de colas (Queue Pair, QP) de la interfaz de servicios generales (General Services Interface, GSI), por ejemplo, durante la descarga de un controlador qedentv o el apagado del sistema. En tal caso, el controlador qedentv puede acceder a una dirección QP ya liberada, lo que provoca una excepción de PF. El problema puede ocurrir en hosts ESXi que están conectados a un conmutador físico ocupado con un gran volumen de tráfico no solicitado en la GSI. En el seguimiento inverso, se muestran mensajes similares al siguiente:
cpu4:2107287)0x45389609bcb0:[0x42001d3e6f72]qedrntv_ll2_rx_cb@(qedrntv)#<None>+0x1be stack: 0x45b8f00a7740, 0x1e146d040, 0x432d65738d40, 0x0, 0x
2021-02-11T03:31:53.882Z cpu4:2107287)0x45389609bd50:[0x42001d421d2a]ecore_ll2_rxq_completion@(qedrntv)#<None>+0x2ab stack: 0x432bc20020ed, 0x4c1e74ef0, 0x432bc2002000,
2021-02-11T03:31:53.967Z cpu4:2107287)0x45389609bdf0:[0x42001d1296d0]ecore_int_sp_dpc@(qedentv)#<None>+0x331 stack: 0x0, 0x42001c3bfb6b, 0x76f1e5c0, 0x2000097, 0x14c2002
2021-02-11T03:31:54.039Z cpu4:2107287)0x45389609be60:[0x42001c0db867]IntrCookieBH@vmkernel#nover+0x17c stack: 0x45389609be80, 0x40992f09ba, 0x43007a436690, 0x43007a43669
2021-02-11T03:31:54.116Z cpu4:2107287)0x45389609bef0:[0x42001c0be6b0]BH_Check@vmkernel#nover+0x121 stack: 0x98ba, 0x33e72f6f6e20, 0x0, 0x8000000000000000, 0x430000000001
2021-02-11T03:31:54.187Z cpu4:2107287)0x45389609bf70:[0x42001c28370c]NetPollWorldCallback@vmkernel#nover+0x129 stack: 0x61, 0x42001d0e0000, 0x42001c283770, 0x0, 0x0
2021-02-11T03:31:54.256Z cpu4:2107287)0x45389609bfe0:[0x42001c380bad]CpuSched_StartWorld@vmkernel#nover+0x86 stack: 0x0, 0x42001c0c2b44, 0x0, 0x0, 0x0
2021-02-11T03:31:54.319Z cpu4:2107287)0x45389609c000:[0x42001c0c2b43]Debug_IsInitialized@vmkernel#nover+0xc stack: 0x0, 0x0, 0x0, 0x0, 0x0
2021-02-11T03:31:54.424Z cpu4:2107287)^[[45m^[[33;1mVMware ESXi 7.0.2 [Releasebuild-17435195 x86_64]^[[0m
#PF Exception 14 in world 2107287:vmnic7-pollW IP 0x42001d3e6f72 addr 0x1c -
En raras ocasiones, mientras se enciende el dispositivo de vSphere Replication, se puede producir un error en el servicio hostd y provocar que los hosts ESXi no respondan temporalmente a vCenter Server. El servicio hostd se reinicia automáticamente y la conectividad se restaura.
-
Cuando se intenta definir un valor como
false
para un parámetro de opción avanzada en un perfil de host, la interfaz de usuario crea un valor de cadena no vacío. Los valores que no están vacíos se interpretan comotrue
y el parámetro de opción avanzada recibe el valortrue
en el perfil de host. -
Los hosts ESXi podrían dejar de responder a vCenter Server incluso cuando los hosts están accesibles y en ejecución. El problema se produce en imágenes de proveedor con controladores personalizados en los que
ImageConfigManager
consume más RAM que la asignada. Como resultado, errores repetidos deImageConfigManager
hacen que los hosts ESXi se desconecten de vCenter Server.
En los registros de VMkernel, aparecen errores repetidos como:Admission failure in path: host/vim/vmvisor/hostd-tmp/sh.<pid1>:python.<pid2>:uw.<pid2>
.
En los registros de hostd, aparecen mensajes como:Task Created : haTask-ha-host-vim.host.ImageConfigManager.fetchSoftwarePackages-<sequence>
, followed by:ForkExec(/usr/bin/sh) <pid1>
, donde<pid1>
identifica un procesoImageConfigManager
. -
Si cambia la opción de configuración avanzada
DiskMaxIOSize
a un valor inferior, las operaciones de E/S con tamaños de bloque grandes pueden dividirse y colocarse en cola de forma incorrecta en la ruta de acceso de PSA. Como resultado, es posible que se agote el tiempo de espera de las operaciones de E/S de los hosts ESXi y se produzca un error. -
En determinadas condiciones, las operaciones de encendido o apagado de las máquinas virtuales pueden tardar hasta 20 minutos. El problema se produce cuando el almacenamiento subyacente de las máquinas virtuales ejecuta una operación en segundo plano, como volver a examinar HBA o eventos de APD, y algunos bloqueos se mantienen continuamente.
-
En raras ocasiones, cuando el tamaño de respuesta de la página VPD del host ESXi de destino es diferente en rutas distintas al host, ESXi puede escribir más bytes que la longitud asignada para una ruta de acceso determinada. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura y un mensaje como el siguiente:
Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4878 - Corruption in dlmalloc
-
Una contención de bloqueo inusual puede provocar errores en las operaciones de la máquina virtual, como la conmutación por error o la migración.
Los mensajes de error de bloqueo son similares a los siguientes:vol 'VM_SYS_11', lock at 480321536: [Req mode 1] Checking liveness:
type 10c00003 offset 480321536 v 1940464, hb offset 3801088
oRes3: 2496: Rank violation threshold reached: cid 0xc1d00002, resType 2, cnum 5 vol VM_SYS_11
-
En flujos de trabajo complicados que provocan la creación de varias máquinas virtuales, al desplazarse hasta Máquinas virtuales > Máquinas virtuales, es posible que aparezcan grandes números en la columna Espacio aprovisionado de algunas máquinas virtuales. Por ejemplo, 2,95 TB en lugar del espacio aprovisionado real de 25 GB.
-
Al controlar el comando SCSI
READ CAPACITY (10)
, es posible que ESXi copie el exceso de datos de la respuesta y dañe la pila de llamadas. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura. -
En muy raras ocasiones, es posible que no se bloqueen los clústeres de recursos de VMFS que se incluyen en una transacción de diario. Como resultado, durante el encendido de las máquinas virtuales, se puede producir un error en varios hosts ESXi con una pantalla de diagnóstico de color púrpura debido a la excepción 14 en la capa de VMFS. A continuación, se muestra un seguimiento típico de la pila y el mensaje que se ve en el registro de VMkernel:
@BlueScreen: #PF Exception 14 in world 2097684:VSCSI Emulat IP 0x418014d06fca addr 0x0
PTEs:0x16a47a027;0x600faa8007;0x0;2020-06-24T17:35:57.073Z cpu29:2097684)Inicio del código: 0x418013c00000 VMK uptime: 0:01:01:20.555
2020-06-24T17:35:57.073Z cpu29:2097684)0x451a50a1baa0:[0x418014d06fca]Res6MemUnlockTxnRCList@esx#nover+0x176 pila: 0x1 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb10:[0x418014c7cdb6]J3_DeleteTransaction@esx#nover+0x33f pila: 0xbad0003
2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb40:[0x418014c7db10]J3_AbortTransaction@esx#nover+0x105 pila: 0x0 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb80:[0x418014cbb752]Fil3_FinalizePunchFileHoleTxnVMFS6@esx#nover+0x16f pila: 0x430fe950e1f0
2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bbd0:[0x418014c7252b]Fil3UpdateBlocks@esx#nover+0x348 pila: 0x451a50a1bc78 2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bce0:[0x418014c731dc]Fil3_PunchFileHoleWithRetry@esx#nover+0x89 pila: 0x451a50a1bec8
2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bd90:[0x418014c739a5]Fil3_FileBlockUnmap@esx#nover+0x50e pila: 0x230eb5 2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be40:[0x418013c4c551]FSSVec_FileBlockUnmap@vmkernel#nover+0x6e pila: 0x230eb5
2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be90:[0x418013fb87b1]VSCSI_ExecFSSUnmap@vmkernel#nover+0x8e pila: 0x0 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf00:[0x418013fb71cb]VSCSIDoEmulHelperIO@vmkernel#nover+0x2c pila: 0x430145fbe070
2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf30:[0x418013ceadfa]HelperQueueFunc@vmkernel#nover+0x157 pila: 0x430aa05c9618 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bfe0:[0x418013f0eaa2]CpuSched_StartWorld@vmkernel#nover+0x77 pila: 0x0
2020-06-24T17:35:57.083Z cpu29:2097684)base fs=0x0 gs=0x418047400000 Kgs=0x0 -
En raras ocasiones, es posible que algunas CPU Intel no puedan reenviar capturas de #DB y, si se produce una interrupción del temporizador durante la llamada del sistema Windows, la máquina virtual podría triplicar el error.
-
Si reinicia agentes de administración de ESXi desde DCUI, el servicio sfcbd no se inicia. Debe iniciar manualmente el servicio SFCB.
-
El servicio hostd registra el mensaje
BuildPowerSupplySensorList found 0 power supply sensors
cada 2 minutos. El problema se produce cuando se actualiza a ESXi 7.0 Update 1 o se instala nuevamente en un host ESXi. -
En raras ocasiones, el asignador de memoria del kernel puede devolver un puntero
NULL
cuya referencia no podría anularse correctamente. Como resultado, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color púrpura, como#GP Exception 13 in world 2422594:vmm:overCom @ 0x42003091ede4
. En el seguimiento inverso, aparecen errores similares a los siguientes:#1 Util_ZeroPageTable
#2 Util_ZeroPageTableMPN
#3 VmMemPfUnmapped
#4 VmMemPfInt
#5 VmMemPfGetMapping
#6 VmMemPf
#7 VmMemPfLockPageInt
#8 VMMVMKCall_Call
#9 VMKVMM_ArchEnterVMKernel -
Si un dispositivo NVMe se agrega en caliente y se elimina en caliente en un espacio de tiempo corto, es posible que el controlador NVMe no pueda inicializar la controladora NVMe debido a que se haya agotado el tiempo de espera del comando. Como resultado, es posible que el controlador acceda a la memoria que ya se ha liberado durante un proceso de limpieza. En el seguimiento inverso, se muestra un mensaje como
WARNING: NVMEDEV: NVMEInitializeController:4045: No se pudieron obtener los datos de identificación de la controladora. Estado: Tiempo de espera
.
Finalmente, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color púrpura donde se muestre un error similar a#PF Exception ... in world ...:vmkdevmgr
. -
Cuando un host ESXi no tiene bloques de archivos grandes libres (LFB) para asignar, el host cumple con el aprovisionamiento de VMDK grueso o la creación de un archivo de intercambio con bloques de archivos pequeños (SFB). Sin embargo, en raras ocasiones, es posible que el host no pueda asignar también SFB. Como resultado, se produce un error en el aprovisionamiento de VMDK grueso o en la creación de un archivo de intercambio. Cuando las máquinas virtuales intentan encenderse, se muestra un error en los registros de VMkernel como el siguiente:
vmkernel.1:2021-01-08T19:13:28.341Z cpu20:2965260)Fil3: 10269: Max no space retries (10) exceeded for caller Fil3_SetFileLength (status 'No space left on device')
-
Cuando se utilizan almacenes de datos de VMFS6 muy grandes, el proceso de asignación de bloques de archivos para VMDK finos en un clúster de recursos puede provocar un bloqueo de CPU. Como resultado, se ven mensajes de bloqueo de CPU y, en casos excepcionales, es posible que se produzca un error en hosts ESXi. En el seguimiento inverso, se muestran mensajes similares al siguiente:
2021-04-07T02:18:08.730Z cpu31:2345212)ADVERTENCIA: Heartbeat: 849: PCPU 10 didn't have a heartbeat for 7 seconds; *may* be locked up.
El seguimiento inverso asociado relacionado con funcionesRes6AffMgr
tiene un aspecto similar al siguiente:2021-01-06T02:16:16.073Z cpu0:2265741)ALERTA: NMI: 694: NMI IPI: RIPOFF(base):RBP:CS [0x121d74d(0x42001a000000):0x50d0:0xf48] (Src 0x1, CPU0)
2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b320:[0x42001b21d74c]Res6AffMgrComputeSortIndices@esx#nover+0x369 pila: 0x43119125a000
2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b3b0:[0x42001b224e46]Res6AffMgrGetCluster@esx#nover+0xb1f pila: 0xd 2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b4b0:[0x42001b226491]Res6AffMgr_AllocResourcesInt@esx#nover+0x40a pila: 0x4311910f4890
2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b680:[0x42001b2270e2]Res6AffMgr_AllocResources@esx#nover+0x1b pila: 0x0 -
Durante una actualización a ESXi 7.0 Update 2 o después de ella, es posible que la capa de almacenamiento de ESX no asigne suficientes recursos de memoria para los hosts ESXi con un gran número de CPU físicas y muchos dispositivos de almacenamiento o rutas de acceso conectados a los hosts. Como resultado, se puede producir un error en dichos hosts ESXi con una pantalla de diagnóstico de color púrpura.
-
Las máquinas virtuales con hardware versión 18 y VMware Tools 11.2.0 o versiones posteriores pueden generar errores debido a un problema de dispositivo de gráficos virtuales en el lado de destino durante una instancia de vSphere vMotion o Storage vMotion.
Envmkernel.log
se muestra una línea como la siguiente:PF failed to handle a fault on mmInfo at va 0x114f5ae0: Out of memory. Terminating...
-
Después de actualizar a la versión de hardware 18, algunos sistemas operativos invitados, como CentOS 7, en las CPU AMD pueden generar un error de detención del kernel al arrancar la máquina virtual. Aparece el mensaje de pánico del kernel cuando abre una consola web para la máquina virtual.
-
Algunos kernels de Linux agregan la opción Límite de encapsulación de túnel de IPv6 a paquetes de túnel IPv6, como se describe en RFC 2473, par. 5.1. Como resultado, los paquetes de túnel IPv6 se descartan en el tráfico entre las máquinas virtuales, debido al encabezado de extensión IPv6.
-
Cuando los medios virtuales, como una unidad de CD, se conectan al entorno de vSphere mediante una instancia integrada de Dell Remote Access Controller (iDRAC) y no se asigna ningún archivo de medios a la unidad, es posible que aparezcan varios mensajes de advertencia en el registro de vmkernel como los siguientes:
vmw_psp_fixed: psp_fixedSelectPathToActivateInt:439: Switching to preferred path vmhba32:C0:T0:L1 in STANDBY state for device mpx.vmhba32:C0:T0:L1.
WARNING: vmw_psp_fixed: psp_fixedSelectPathToActivateInt:464: Selected current STANDBY path vmhba32:C0:T0:L1 for device mpx.vmhba32:C0:T0:L1 to activate. This may lead to path thrashing.
-
Durante los flujos de trabajo de sincronización de 24 horas de vSphere Distributed Switch, es posible que vCenter Server quite de forma intermitente puertos virtuales distribuidos controlados NSX, como el puerto de reenvío de plano de servicio (SPF), de hosts ESXi. Por ello, es posible que se produzcan errores en operaciones de vSphere vMotion de máquinas virtuales. Se muestra un error como
Could not connect SPF port : Not found
en los registros. -
ESXi 7.0 introdujo la partición ESX-OSData basada en VMFS-L, que asume la función de la partición desde cero heredada, la partición del bloqueador para VMware Tools y el destino del volcado de núcleo. Si configura la partición desde cero en el directorio raíz de un volumen VMFS durante una actualización a ESXi 7.0.x, el sistema intenta convertir los archivos VMFS en formato VMFS-L para que coincidan con los requisitos de partición de OS-Data. Como resultado, es posible que la partición OS-Data sobrescriba el volumen VMFS y cause la pérdida de datos.
-
Debido a un problema de control de registros, después de una actualización a ESXi 7.0 Update 2a, cuando se comprueba el estado de mantenimiento del canal de comunicación, se ven todos los hosts ESXi con el estado inactivo, ya que NSX Manager no puede conectarse al agente de firewall.
-
Si se instala un host ESXi versión 7.0 Update 2 en un LUN FCoE y utiliza el modo de arranque UEFI, cuando se intenta actualizar el host mediante vSphere QuickBoot, se puede producir un error en el servidor físico con una pantalla de diagnóstico de color púrpura debido a un error de memoria.
-
Los dispositivos USB tienen una profundidad de cola pequeña y, debido a una condición de carrera en la pila de almacenamiento ESXi, es posible que algunas operaciones de E/S no lleguen al dispositivo. Estas operaciones de E/S se ponen en cola en la pila de almacenamiento ESXi y, finalmente, se agota el tiempo de espera. Como resultado, los hosts ESXi dejan de responder.
En la instancia de vSphere Client, aparecen alertas comoAlert: /bootbank not to be found at path '/bootbank’
yHost not-responding
.
En los registros de vmkernel, se muestran errores similares al siguiente:2021-04-12T04:47:44.940Z cpu0:2097441)ScsiPath: 8058: Cancelled Cmd(0x45b92ea3fd40) 0xa0, cmdId.initiator=0x4538c859b8f8 CmdSN 0x0 from world 0 to path "vmhba32:C0:T0:L0". Cmd count Active:0 Queued:1.
2021-04-12T04:48:50.527Z cpu2:2097440)ScsiDeviceIO: 4315: Cmd(0x45b92ea76d40) 0x28, cmdId.initiator=0x4305f74cc780 CmdSN 0x1279 from world 2099370 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x5 D:0x0 P:0x0 Cancelled from path layer. Cmd count Active:1
2021-04-12T04:48:50.527Z cpu2:2097440)Queued:4 -
Es posible que se produzca una ralentización de hasta 60 minutos en el tiempo de arranque de los hosts ESXi después de una actualización a ESXi Update 2a.
Este problema no afecta a las actualizaciones a ESXi Update 2a de versiones anteriores de ESXi 7.0.x.
El problema solo se produce cuando se utiliza una línea base o imagen de vSphere Lifecycle Manager, o bien el comandoesxcli software profile update
para realizar la operación de actualización. Si utiliza una imagen ISO o una instalación generada por script, no se produce el problema.
Es más probable que el problema afecte a las configuraciones de iSCSI, pero está relacionado con el algoritmo de ESXi para la detección de banco de arranque, no con destinos de almacenamiento externo lentos. -
Debido a una fuga de memoria en la pila del conjunto de puertos, las operaciones de vSphere vMotion en un host ESXi pueden generar un error de memoria agotada. En vSphere Client, se muestra un error, como:
Failed to reserve port. DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba port 1 39.
Failed with error status: Out of memory. -
Si vCenter Server no puede resolver
vcsa.vmware.com
a una dirección IP, no se puede cargar el catálogo de versiones de vSAN. La siguiente comprobación de estado de vSAN muestra una advertencia: Estado del motor de recomendación de compilación de vSAN.
Es posible que se muestre un mensaje de error similar al siguiente:2021-04-12T11:40:59.435Z ERROR vsan-mgmt[32221] [VsanHttpRequestWrapper::urlopen opID=noOpId] Exception while sending request : Cannot resolve localhost or Internet websites.
2021-04-12T11:40:59.435Z WARNING vsan-mgmt[32221] [VsanVumCoreUtil::CheckVumServiceStatus opID=noOpId] Failed to connect VUM service: Cannot resolve localhost or Internet websites.
2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumIntegration::VumStatusCallback opID=noOpId] VUM is not installed or not responsive
2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumSystemUtil::HasConfigIssue opID=noOpId] Config issue health.test.vum.vumDisabled exists on entity None -
Un error de desbordamiento de enteros puede provocar que vSAN DOM emita limpiezas con más frecuencia que la configuración establecida.
-
Cuando una resincronización se ejecuta en paralelo con escrituras de invitado en objetos que son propiedad de un host ESXi, se puede producir un error en el host con una pantalla de diagnóstico de color púrpura.
-
Cuando el archivo cmmdstimemachineDump.log alcanza un límite máximo de 10 MB, se produce la rotación y se crea un nuevo archivo cmmdstimemachineDump. Sin embargo, durante la rotación, en los registros vmsyslogd.err es posible que aparezca un error como el siguiente:
2021-04-08T03:15:53.719Z vmsyslog.loggers.file : ERROR ] Failed to write header on rotate. Exception: [Errno 2] No such file or directory: '/var/run/cmmdstimemachineDumpHeader.txt'
-
En algunos casos, el servicio de supervisión, pertenencia y directorio (CMMDS) del clúster no proporciona una entrada correcta a la tarea de cambio de formato de objeto y la tarea tarda mucho en responder.
-
En raras ocasiones, si se reemplaza el host testigo durante el proceso de actualización y se ejecuta una tarea de conversión de formato de disco poco después del reemplazo, se puede producir un error en varios hosts ESX en un clúster ampliado con una pantalla de diagnóstico de color púrpura.
-
Si crea una imagen personalizada de 7.0 Update 2a mediante el kit de empaquetado de ESXi, reemplace algunos de los componentes de la imagen base, por ejemplo,
Intel-ixgben:1.8.9.0-1OEM.700.1.0.15525992
y, a continuación, actualice los hosts ESXi 7.0.x, no podrá eliminar el componente personalizado después de la actualización. Además, es posible que falten algunos VIB de los componentes personalizados. -
Al clonar un dispositivo de arranque ESXi, se crean instancias con UUID idénticos. Dado que los UUID se utilizan para las operaciones de latido y diario de VMFS, cuando se duplican los UUID, después de las operaciones de instalación o actualización, varios hosts ESXi intentan acceder a regiones de metadatos en el mismo almacén de datos de VMFS. Como resultado, es posible que vea daños masivos en los metadatos de los almacenes de datos de VMFS en varios hosts ESXi.
En los registros de vmkernel, aparecen mensajes como:VMkernel 608: VMFS volume DCS_HCFA_TEDS_Regulated_10032/5ba2905b-ac11166d-b145-0025b5920a02 on naa.60060e8012a34f005040a34f00000d64:1 has been detected corrupted.
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 319: FS3RCMeta 2245 200 21 105 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 326: 0 0 0 0 0 0 0 0 0 0 0 7 0 254 1 4 0 248 3 96 0 0 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 332: 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 338: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -
A partir de vSphere 7.0 Update 2, el nombre del controlador i40en de la bandeja de entrada se cambió a i40enu. Como resultado, si intenta instalar un controlador asíncrono de socio i40en, el VIB de i40en se omite o se revierte al controlador de la bandeja de entrada i40enu de VMware.
-
Un error inusual de
Page Fault
puede provocar un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura durante la instalación del complemento Dell EMC PowerPath. -
Si la controladora del host USB se desconecta del sistema vSphere y cualquier recurso del dispositivo, como los archivos de volcado, sigue en uso por ESXi, la ruta de acceso del dispositivo no se podrá liberar cuando el dispositivo se vuelva a conectar. Como resultado, ESXi proporciona una nueva ruta de acceso al dispositivo USB, lo que interrumpe la conexión con la partición
/bootbank
o daña la particiónVMFS-L LOCKER
.
-
Nombre del perfil | ESXi-7.0U2c-18426014-sin-herramientas |
Compilación | Para obtener información sobre la compilación, consulte Revisiones incluidas en esta versión. |
Proveedor | VMware, Inc. |
Fecha de versión | 24 de agosto de 2021 |
Nivel de aceptación | PartnerSupported |
Hardware afectado | N/C |
Software afectado | N/C |
VIB afectados |
|
PR corregidas | 2717698, 2731446, 2515171, 731306, 2751564, 2718934, 2755056, 2725886, 2725886, 2753231, 2728910, 2741111, 2759343, 2721379, 2751277, 2708326, 2755977, 2737934, 2777001, 2760932, 2731263, 2731142, 2760267, 2749688, 2763986, 2765534, 2766127, 2777003, 2778793, 2755807, 2760081, 2731644, 2749815, 2749962, 2738238, 2799408, 2722263, 2812906, 2750390, 2715138, 2753546 |
Números de CVE relacionados | N/C |
Esta revisión actualiza los siguientes problemas:
-
-
Una condición de carrera inusual en el controlador qedentv puede provocar un error en un host ESXi con una pantalla de diagnóstico de color púrpura. El problema se produce cuando una interrupción completa de Rx llega justo después de que se destruya un par de colas (Queue Pair, QP) de la interfaz de servicios generales (General Services Interface, GSI), por ejemplo, durante la descarga de un controlador qedentv o el apagado del sistema. En tal caso, el controlador qedentv puede acceder a una dirección QP ya liberada, lo que provoca una excepción de PF. El problema puede ocurrir en hosts ESXi que están conectados a un conmutador físico ocupado con un gran volumen de tráfico no solicitado en la GSI. En el seguimiento inverso, se muestran mensajes similares al siguiente:
cpu4:2107287)0x45389609bcb0:[0x42001d3e6f72]qedrntv_ll2_rx_cb@(qedrntv)#<None>+0x1be stack: 0x45b8f00a7740, 0x1e146d040, 0x432d65738d40, 0x0, 0x
2021-02-11T03:31:53.882Z cpu4:2107287)0x45389609bd50:[0x42001d421d2a]ecore_ll2_rxq_completion@(qedrntv)#<None>+0x2ab stack: 0x432bc20020ed, 0x4c1e74ef0, 0x432bc2002000,
2021-02-11T03:31:53.967Z cpu4:2107287)0x45389609bdf0:[0x42001d1296d0]ecore_int_sp_dpc@(qedentv)#<None>+0x331 stack: 0x0, 0x42001c3bfb6b, 0x76f1e5c0, 0x2000097, 0x14c2002
2021-02-11T03:31:54.039Z cpu4:2107287)0x45389609be60:[0x42001c0db867]IntrCookieBH@vmkernel#nover+0x17c stack: 0x45389609be80, 0x40992f09ba, 0x43007a436690, 0x43007a43669
2021-02-11T03:31:54.116Z cpu4:2107287)0x45389609bef0:[0x42001c0be6b0]BH_Check@vmkernel#nover+0x121 stack: 0x98ba, 0x33e72f6f6e20, 0x0, 0x8000000000000000, 0x430000000001
2021-02-11T03:31:54.187Z cpu4:2107287)0x45389609bf70:[0x42001c28370c]NetPollWorldCallback@vmkernel#nover+0x129 stack: 0x61, 0x42001d0e0000, 0x42001c283770, 0x0, 0x0
2021-02-11T03:31:54.256Z cpu4:2107287)0x45389609bfe0:[0x42001c380bad]CpuSched_StartWorld@vmkernel#nover+0x86 stack: 0x0, 0x42001c0c2b44, 0x0, 0x0, 0x0
2021-02-11T03:31:54.319Z cpu4:2107287)0x45389609c000:[0x42001c0c2b43]Debug_IsInitialized@vmkernel#nover+0xc stack: 0x0, 0x0, 0x0, 0x0, 0x0
2021-02-11T03:31:54.424Z cpu4:2107287)^[[45m^[[33;1mVMware ESXi 7.0.2 [Releasebuild-17435195 x86_64]^[[0m
#PF Exception 14 in world 2107287:vmnic7-pollW IP 0x42001d3e6f72 addr 0x1c -
En raras ocasiones, mientras se enciende el dispositivo de vSphere Replication, se puede producir un error en el servicio hostd y provocar que los hosts ESXi no respondan temporalmente a vCenter Server. El servicio hostd se reinicia automáticamente y la conectividad se restaura.
-
Cuando se intenta definir un valor como
false
para un parámetro de opción avanzada en un perfil de host, la interfaz de usuario crea un valor de cadena no vacío. Los valores que no están vacíos se interpretan comotrue
y el parámetro de opción avanzada recibe el valortrue
en el perfil de host. -
Los hosts ESXi podrían dejar de responder a vCenter Server incluso cuando los hosts están accesibles y en ejecución. El problema se produce en imágenes de proveedor con controladores personalizados en los que
ImageConfigManager
consume más RAM que la asignada. Como resultado, errores repetidos deImageConfigManager
hacen que los hosts ESXi se desconecten de vCenter Server.
En los registros de VMkernel, aparecen errores repetidos como:Admission failure in path: host/vim/vmvisor/hostd-tmp/sh.<pid1>:python.<pid2>:uw.<pid2>
.
En los registros de hostd, aparecen mensajes como:Task Created : haTask-ha-host-vim.host.ImageConfigManager.fetchSoftwarePackages-<sequence>
, followed by:ForkExec(/usr/bin/sh) <pid1>
, donde<pid1>
identifica un procesoImageConfigManager
. -
Si cambia la opción de configuración avanzada
DiskMaxIOSize
a un valor inferior, las operaciones de E/S con tamaños de bloque grandes pueden dividirse y colocarse en cola de forma incorrecta en la ruta de acceso de PSA. Como resultado, es posible que se agote el tiempo de espera de las operaciones de E/S de los hosts ESXi y se produzca un error. -
En determinadas condiciones, las operaciones de encendido o apagado de las máquinas virtuales pueden tardar hasta 20 minutos. El problema se produce cuando el almacenamiento subyacente de las máquinas virtuales ejecuta una operación en segundo plano, como volver a examinar HBA o eventos de APD, y algunos bloqueos se mantienen continuamente.
-
En raras ocasiones, cuando el tamaño de respuesta de la página VPD del host ESXi de destino es diferente en rutas distintas al host, ESXi puede escribir más bytes que la longitud asignada para una ruta de acceso determinada. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura y un mensaje como el siguiente:
Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4878 - Corruption in dlmalloc
-
Una contención de bloqueo inusual puede provocar errores en las operaciones de la máquina virtual, como la conmutación por error o la migración.
Los mensajes de error de bloqueo son similares a los siguientes:vol 'VM_SYS_11', lock at 480321536: [Req mode 1] Checking liveness:
type 10c00003 offset 480321536 v 1940464, hb offset 3801088
oRes3: 2496: Rank violation threshold reached: cid 0xc1d00002, resType 2, cnum 5 vol VM_SYS_11
-
En flujos de trabajo complicados que provocan la creación de varias máquinas virtuales, al desplazarse hasta Máquinas virtuales > Máquinas virtuales, es posible que aparezcan grandes números en la columna Espacio aprovisionado de algunas máquinas virtuales. Por ejemplo, 2,95 TB en lugar del espacio aprovisionado real de 25 GB.
-
Al controlar el comando SCSI
READ CAPACITY (10)
, es posible que ESXi copie el exceso de datos de la respuesta y dañe la pila de llamadas. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura. -
En muy raras ocasiones, es posible que no se bloqueen los clústeres de recursos de VMFS que se incluyen en una transacción de diario. Como resultado, durante el encendido de las máquinas virtuales, se puede producir un error en varios hosts ESXi con una pantalla de diagnóstico de color púrpura debido a la excepción 14 en la capa de VMFS. A continuación, se muestra un seguimiento típico de la pila y el mensaje que se ve en el registro de VMkernel:
@BlueScreen: #PF Exception 14 in world 2097684:VSCSI Emulat IP 0x418014d06fca addr 0x0
PTEs:0x16a47a027;0x600faa8007;0x0;2020-06-24T17:35:57.073Z cpu29:2097684)Inicio del código: 0x418013c00000 VMK uptime: 0:01:01:20.555
2020-06-24T17:35:57.073Z cpu29:2097684)0x451a50a1baa0:[0x418014d06fca]Res6MemUnlockTxnRCList@esx#nover+0x176 pila: 0x1 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb10:[0x418014c7cdb6]J3_DeleteTransaction@esx#nover+0x33f pila: 0xbad0003
2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb40:[0x418014c7db10]J3_AbortTransaction@esx#nover+0x105 pila: 0x0 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb80:[0x418014cbb752]Fil3_FinalizePunchFileHoleTxnVMFS6@esx#nover+0x16f pila: 0x430fe950e1f0
2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bbd0:[0x418014c7252b]Fil3UpdateBlocks@esx#nover+0x348 pila: 0x451a50a1bc78 2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bce0:[0x418014c731dc]Fil3_PunchFileHoleWithRetry@esx#nover+0x89 pila: 0x451a50a1bec8
2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bd90:[0x418014c739a5]Fil3_FileBlockUnmap@esx#nover+0x50e pila: 0x230eb5 2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be40:[0x418013c4c551]FSSVec_FileBlockUnmap@vmkernel#nover+0x6e pila: 0x230eb5
2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be90:[0x418013fb87b1]VSCSI_ExecFSSUnmap@vmkernel#nover+0x8e pila: 0x0 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf00:[0x418013fb71cb]VSCSIDoEmulHelperIO@vmkernel#nover+0x2c pila: 0x430145fbe070
2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf30:[0x418013ceadfa]HelperQueueFunc@vmkernel#nover+0x157 pila: 0x430aa05c9618 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bfe0:[0x418013f0eaa2]CpuSched_StartWorld@vmkernel#nover+0x77 pila: 0x0
2020-06-24T17:35:57.083Z cpu29:2097684)base fs=0x0 gs=0x418047400000 Kgs=0x0 -
En raras ocasiones, es posible que algunas CPU Intel no puedan reenviar capturas de #DB y, si se produce una interrupción del temporizador durante la llamada del sistema Windows, la máquina virtual podría triplicar el error.
-
Si reinicia agentes de administración de ESXi desde DCUI, el servicio sfcbd no se inicia. Debe iniciar manualmente el servicio SFCB.
-
El servicio hostd registra el mensaje
BuildPowerSupplySensorList found 0 power supply sensors
cada 2 minutos. El problema se produce cuando se actualiza a ESXi 7.0 Update 1 o se instala nuevamente en un host ESXi. -
En raras ocasiones, el asignador de memoria del kernel puede devolver un puntero
NULL
cuya referencia no podría anularse correctamente. Como resultado, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color púrpura, como#GP Exception 13 in world 2422594:vmm:overCom @ 0x42003091ede4
. En el seguimiento inverso, aparecen errores similares a los siguientes:#1 Util_ZeroPageTable
#2 Util_ZeroPageTableMPN
#3 VmMemPfUnmapped
#4 VmMemPfInt
#5 VmMemPfGetMapping
#6 VmMemPf
#7 VmMemPfLockPageInt
#8 VMMVMKCall_Call
#9 VMKVMM_ArchEnterVMKernel -
Si un dispositivo NVMe se agrega en caliente y se elimina en caliente en un espacio de tiempo corto, es posible que el controlador NVMe no pueda inicializar la controladora NVMe debido a que se haya agotado el tiempo de espera del comando. Como resultado, es posible que el controlador acceda a la memoria que ya se ha liberado durante un proceso de limpieza. En el seguimiento inverso, se muestra un mensaje como
WARNING: NVMEDEV: NVMEInitializeController:4045: No se pudieron obtener los datos de identificación de la controladora. Estado: Tiempo de espera
.
Finalmente, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color púrpura donde se muestre un error similar a#PF Exception ... in world ...:vmkdevmgr
. -
Cuando un host ESXi no tiene bloques de archivos grandes libres (LFB) para asignar, el host cumple con el aprovisionamiento de VMDK grueso o la creación de un archivo de intercambio con bloques de archivos pequeños (SFB). Sin embargo, en raras ocasiones, es posible que el host no pueda asignar también SFB. Como resultado, se produce un error en el aprovisionamiento de VMDK grueso o en la creación de un archivo de intercambio. Cuando las máquinas virtuales intentan encenderse, se muestra un error en los registros de VMkernel como el siguiente:
vmkernel.1:2021-01-08T19:13:28.341Z cpu20:2965260)Fil3: 10269: Max no space retries (10) exceeded for caller Fil3_SetFileLength (status 'No space left on device')
-
Cuando se utilizan almacenes de datos de VMFS6 muy grandes, el proceso de asignación de bloques de archivos para VMDK finos en un clúster de recursos puede provocar un bloqueo de CPU. Como resultado, se ven mensajes de bloqueo de CPU y, en casos excepcionales, es posible que se produzca un error en hosts ESXi. En el seguimiento inverso, se muestran mensajes similares al siguiente:
2021-04-07T02:18:08.730Z cpu31:2345212)ADVERTENCIA: Heartbeat: 849: PCPU 10 didn't have a heartbeat for 7 seconds; *may* be locked up.
El seguimiento inverso asociado relacionado con funcionesRes6AffMgr
tiene un aspecto similar al siguiente:2021-01-06T02:16:16.073Z cpu0:2265741)ALERTA: NMI: 694: NMI IPI: RIPOFF(base):RBP:CS [0x121d74d(0x42001a000000):0x50d0:0xf48] (Src 0x1, CPU0)
2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b320:[0x42001b21d74c]Res6AffMgrComputeSortIndices@esx#nover+0x369 pila: 0x43119125a000
2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b3b0:[0x42001b224e46]Res6AffMgrGetCluster@esx#nover+0xb1f pila: 0xd 2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b4b0:[0x42001b226491]Res6AffMgr_AllocResourcesInt@esx#nover+0x40a pila: 0x4311910f4890
2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b680:[0x42001b2270e2]Res6AffMgr_AllocResources@esx#nover+0x1b pila: 0x0 -
Durante una actualización a ESXi 7.0 Update 2 o después de ella, es posible que la capa de almacenamiento de ESX no asigne suficientes recursos de memoria para los hosts ESXi con un gran número de CPU físicas y muchos dispositivos de almacenamiento o rutas de acceso conectados a los hosts. Como resultado, se puede producir un error en dichos hosts ESXi con una pantalla de diagnóstico de color púrpura.
-
Las máquinas virtuales con hardware versión 18 y VMware Tools 11.2.0 o versiones posteriores pueden generar errores debido a un problema de dispositivo de gráficos virtuales en el lado de destino durante una instancia de vSphere vMotion o Storage vMotion.
Envmkernel.log
se muestra una línea como la siguiente:PF failed to handle a fault on mmInfo at va 0x114f5ae0: Out of memory. Terminating...
-
Después de actualizar a la versión de hardware 18, algunos sistemas operativos invitados, como CentOS 7, en las CPU AMD pueden generar un error de detención del kernel al arrancar la máquina virtual. Aparece el mensaje de pánico del kernel cuando abre una consola web para la máquina virtual.
-
Algunos kernels de Linux agregan la opción Límite de encapsulación de túnel de IPv6 a paquetes de túnel IPv6, como se describe en RFC 2473, par. 5.1. Como resultado, los paquetes de túnel IPv6 se descartan en el tráfico entre las máquinas virtuales, debido al encabezado de extensión IPv6.
-
Cuando los medios virtuales, como una unidad de CD, se conectan al entorno de vSphere mediante una instancia integrada de Dell Remote Access Controller (iDRAC) y no se asigna ningún archivo de medios a la unidad, es posible que aparezcan varios mensajes de advertencia en el registro de vmkernel como los siguientes:
vmw_psp_fixed: psp_fixedSelectPathToActivateInt:439: Switching to preferred path vmhba32:C0:T0:L1 in STANDBY state for device mpx.vmhba32:C0:T0:L1.
WARNING: vmw_psp_fixed: psp_fixedSelectPathToActivateInt:464: Selected current STANDBY path vmhba32:C0:T0:L1 for device mpx.vmhba32:C0:T0:L1 to activate. This may lead to path thrashing.
-
Durante los flujos de trabajo de sincronización de 24 horas de vSphere Distributed Switch, es posible que vCenter Server quite de forma intermitente puertos virtuales distribuidos controlados NSX, como el puerto de reenvío de plano de servicio (SPF), de hosts ESXi. Por ello, es posible que se produzcan errores en operaciones de vSphere vMotion de máquinas virtuales. Se muestra un error como
Could not connect SPF port : Not found
en los registros. -
ESXi 7.0 introdujo la partición ESX-OSData basada en VMFS-L, que asume la función de la partición desde cero heredada, la partición del bloqueador para VMware Tools y el destino del volcado de núcleo. Si configura la partición desde cero en el directorio raíz de un volumen VMFS durante una actualización a ESXi 7.0.x, el sistema intenta convertir los archivos VMFS en formato VMFS-L para que coincidan con los requisitos de partición de OS-Data. Como resultado, es posible que la partición OS-Data sobrescriba el volumen VMFS y cause la pérdida de datos.
-
Debido a un problema de control de registros, después de una actualización a ESXi 7.0 Update 2a, cuando se comprueba el estado de mantenimiento del canal de comunicación, se ven todos los hosts ESXi con el estado inactivo, ya que NSX Manager no puede conectarse al agente de firewall.
-
Si se instala un host ESXi versión 7.0 Update 2 en un LUN FCoE y utiliza el modo de arranque UEFI, cuando se intenta actualizar el host mediante vSphere QuickBoot, se puede producir un error en el servidor físico con una pantalla de diagnóstico de color púrpura debido a un error de memoria.
-
Los dispositivos USB tienen una profundidad de cola pequeña y, debido a una condición de carrera en la pila de almacenamiento ESXi, es posible que algunas operaciones de E/S no lleguen al dispositivo. Estas operaciones de E/S se ponen en cola en la pila de almacenamiento ESXi y, finalmente, se agota el tiempo de espera. Como resultado, los hosts ESXi dejan de responder.
En la instancia de vSphere Client, aparecen alertas comoAlert: /bootbank not to be found at path '/bootbank’
yHost not-responding
.
En los registros de vmkernel, se muestran errores similares al siguiente:2021-04-12T04:47:44.940Z cpu0:2097441)ScsiPath: 8058: Cancelled Cmd(0x45b92ea3fd40) 0xa0, cmdId.initiator=0x4538c859b8f8 CmdSN 0x0 from world 0 to path "vmhba32:C0:T0:L0". Cmd count Active:0 Queued:1.
2021-04-12T04:48:50.527Z cpu2:2097440)ScsiDeviceIO: 4315: Cmd(0x45b92ea76d40) 0x28, cmdId.initiator=0x4305f74cc780 CmdSN 0x1279 from world 2099370 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x5 D:0x0 P:0x0 Cancelled from path layer. Cmd count Active:1
2021-04-12T04:48:50.527Z cpu2:2097440)Queued:4 -
Es posible que se produzca una ralentización de hasta 60 minutos en el tiempo de arranque de los hosts ESXi después de una actualización a ESXi Update 2a.
Este problema no afecta a las actualizaciones a ESXi Update 2a de versiones anteriores de ESXi 7.0.x.
El problema solo se produce cuando se utiliza una línea base o imagen de vSphere Lifecycle Manager, o bien el comandoesxcli software profile update
para realizar la operación de actualización. Si utiliza una imagen ISO o una instalación generada por script, no se produce el problema.
Es más probable que el problema afecte a las configuraciones de iSCSI, pero está relacionado con el algoritmo de ESXi para la detección de banco de arranque, no con destinos de almacenamiento externo lentos. -
Debido a una fuga de memoria en la pila del conjunto de puertos, las operaciones de vSphere vMotion en un host ESXi pueden generar un error de memoria agotada. En vSphere Client, se muestra un error, como:
Failed to reserve port. DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba port 1 39.
Failed with error status: Out of memory. -
Si vCenter Server no puede resolver
vcsa.vmware.com
a una dirección IP, no se puede cargar el catálogo de versiones de vSAN. La siguiente comprobación de estado de vSAN muestra una advertencia: Estado del motor de recomendación de compilación de vSAN.
Es posible que se muestre un mensaje de error similar al siguiente:2021-04-12T11:40:59.435Z ERROR vsan-mgmt[32221] [VsanHttpRequestWrapper::urlopen opID=noOpId] Exception while sending request : Cannot resolve localhost or Internet websites.
2021-04-12T11:40:59.435Z WARNING vsan-mgmt[32221] [VsanVumCoreUtil::CheckVumServiceStatus opID=noOpId] Failed to connect VUM service: Cannot resolve localhost or Internet websites.
2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumIntegration::VumStatusCallback opID=noOpId] VUM is not installed or not responsive
2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumSystemUtil::HasConfigIssue opID=noOpId] Config issue health.test.vum.vumDisabled exists on entity None -
Un error de desbordamiento de enteros puede provocar que vSAN DOM emita limpiezas con más frecuencia que la configuración establecida.
-
Cuando una resincronización se ejecuta en paralelo con escrituras de invitado en objetos que son propiedad de un host ESXi, se puede producir un error en el host con una pantalla de diagnóstico de color púrpura.
-
Cuando el archivo cmmdstimemachineDump.log alcanza un límite máximo de 10 MB, se produce la rotación y se crea un nuevo archivo cmmdstimemachineDump. Sin embargo, durante la rotación, en los registros vmsyslogd.err es posible que aparezca un error como el siguiente:
2021-04-08T03:15:53.719Z vmsyslog.loggers.file : ERROR ] Failed to write header on rotate. Exception: [Errno 2] No such file or directory: '/var/run/cmmdstimemachineDumpHeader.txt'
-
En algunos casos, el servicio de supervisión, pertenencia y directorio (CMMDS) del clúster no proporciona una entrada correcta a la tarea de cambio de formato de objeto y la tarea tarda mucho en responder.
-
En raras ocasiones, si se reemplaza el host testigo durante el proceso de actualización y se ejecuta una tarea de conversión de formato de disco poco después del reemplazo, se puede producir un error en varios hosts ESX en un clúster ampliado con una pantalla de diagnóstico de color púrpura.
-
Si crea una imagen personalizada de 7.0 Update 2a mediante el kit de empaquetado de ESXi, reemplace algunos de los componentes de la imagen base, por ejemplo,
Intel-ixgben:1.8.9.0-1OEM.700.1.0.15525992
y, a continuación, actualice los hosts ESXi 7.0.x, no podrá eliminar el componente personalizado después de la actualización. Además, es posible que falten algunos VIB de los componentes personalizados. -
Al clonar un dispositivo de arranque ESXi, se crean instancias con UUID idénticos. Dado que los UUID se utilizan para las operaciones de latido y diario de VMFS, cuando se duplican los UUID, después de las operaciones de instalación o actualización, varios hosts ESXi intentan acceder a regiones de metadatos en el mismo almacén de datos de VMFS. Como resultado, es posible que vea daños masivos en los metadatos de los almacenes de datos de VMFS en varios hosts ESXi.
En los registros de vmkernel, aparecen mensajes como:VMkernel 608: VMFS volume DCS_HCFA_TEDS_Regulated_10032/5ba2905b-ac11166d-b145-0025b5920a02 on naa.60060e8012a34f005040a34f00000d64:1 has been detected corrupted.
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 319: FS3RCMeta 2245 200 21 105 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 326: 0 0 0 0 0 0 0 0 0 0 0 7 0 254 1 4 0 248 3 96 0 0 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 332: 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 338: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 -
A partir de vSphere 7.0 Update 2, el nombre del controlador i40en de la bandeja de entrada se cambió a i40enu. Como resultado, si intenta instalar un controlador asíncrono de socio i40en, el VIB de i40en se omite o se revierte al controlador de la bandeja de entrada i40enu de VMware.
-
Un error inusual de
Page Fault
puede provocar un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura durante la instalación del complemento Dell EMC PowerPath. -
Si la controladora del host USB se desconecta del sistema vSphere y cualquier recurso del dispositivo, como los archivos de volcado, sigue en uso por ESXi, la ruta de acceso del dispositivo no se podrá liberar cuando el dispositivo se vuelva a conectar. Como resultado, ESXi proporciona una nueva ruta de acceso al dispositivo USB, lo que interrumpe la conexión con la partición
/bootbank
o daña la particiónVMFS-L LOCKER
.
-
Nombre del perfil | ESXi-7.0U2sc-18295176-estándar |
Compilación | Para obtener información sobre la compilación, consulte Revisiones incluidas en esta versión. |
Proveedor | VMware, Inc. |
Fecha de versión | 24 de agosto de 2021 |
Nivel de aceptación | PartnerSupported |
Hardware afectado | N/C |
Software afectado | N/C |
VIB afectados |
|
PR corregidas | 2738816, 2738857, 2735594 y 2761942 |
Números de CVE relacionados | N/C |
Esta revisión actualiza los siguientes problemas:
-
-
OpenSSH se actualizó a la versión 8.5p1.
-
La biblioteca OpenSSL se actualizó a la versión openssl-1.0.2y.
-
La biblioteca Libarchive se actualizó a la versión 3.5.1.
-
ESXi incluye las siguientes imágenes ISO de VMware Tools 11.2.6:
windows.iso
: Imagen de VMware Tools para Windows 7 SP1 o Windows Server 2008 R2 SP1 o posteriorlinux.iso
: Imagen de VMware Tools 10.3.23 para versiones anteriores del sistema operativo Linux con una versión de glibc 2.5 o posterior
Las siguientes imágenes ISO de VMware Tools 10.3.10 están disponibles para la descarga:
solaris.iso
: imagen de VMware Tools para Solarisdarwin.iso
: Imagen de VMware Tools para Mac OS X versiones 10.11 y posteriores.
Siga los procedimientos enumerados en los siguientes documentos para descargar VMware Tools para las plataformas que no se incluyen en ESXi:
-
Nombre del perfil | ESXi-7.0U2sc-18295176-sin-herramientas |
Compilación | Para obtener información sobre la compilación, consulte Revisiones incluidas en esta versión. |
Proveedor | VMware, Inc. |
Fecha de versión | 24 de agosto de 2021 |
Nivel de aceptación | PartnerSupported |
Hardware afectado | N/C |
Software afectado | N/C |
VIB afectados |
|
PR corregidas | 2738816, 2738857, 2735594 y 2761942 |
Números de CVE relacionados | N/C |
Esta revisión actualiza los siguientes problemas:
-
-
OpenSSH se actualizó a la versión 8.5p1.
-
La biblioteca OpenSSL se actualizó a la versión openssl-1.0.2y.
-
La biblioteca Libarchive se actualizó a la versión 3.5.1.
-
ESXi incluye las siguientes imágenes ISO de VMware Tools 11.2.6:
windows.iso
: Imagen de VMware Tools para Windows 7 SP1 o Windows Server 2008 R2 SP1 o posteriorlinux.iso
: Imagen de VMware Tools 10.3.23 para versiones anteriores del sistema operativo Linux con una versión de glibc 2.5 o posterior
Las siguientes imágenes ISO de VMware Tools 10.3.10 están disponibles para la descarga:
solaris.iso
: imagen de VMware Tools para Solarisdarwin.iso
: Imagen de VMware Tools para Mac OS X versiones 10.11 y posteriores.
Siga los procedimientos enumerados en los siguientes documentos para descargar VMware Tools para las plataformas que no se incluyen en ESXi:
-
Nombre | ESXi |
Versión | ESXi70U2c-18426014 |
Fecha de versión | 24 de agosto de 2020 |
Categoría | Corrección de error |
Componentes afectados |
|
PR corregidas | 2717698, 2731446, 2515171, 731306, 2751564, 2718934, 2755056, 2725886, 2725886, 2753231, 2728910, 2741111, 2759343, 2721379, 2751277, 2708326, 2755977, 2737934, 2777001, 2760932, 2731263, 2731142, 2760267, 2749688, 2763986, 2765534, 2766127, 2777003, 2778793, 2755807, 2760081, 2731644, 2749815, 2749962, 2738238, 2799408, 2722263, 2812906, 2750390, 2715138, 2753546 |
Números de CVE relacionados | N/C |
Nombre | ESXi |
Versión | ESXi70U2sc-18295176 |
Fecha de versión | 24 de agosto de 2020 |
Categoría | Seguridad |
Componentes afectados |
|
PR corregidas | 2738816, 2738857, 2735594 y 2761942 |
Números de CVE relacionados | N/C |
Problemas conocidos
Los problemas conocidos se agrupan del siguiente modo:
- Problemas varios
- Problemas de instalación, actualización y migración
- Problemas conocidos de versiones anteriores
- El daemon sensord no puede informar el estado de hardware del host ESXi.
Un error lógico en la validación de SDR de IPMI puede provocar que
sensord
no pueda identificar un origen para la información de la fuente de alimentación. Como resultado, al ejecutar el comandovsish -e get /power/hostStats
, es posible que no vea ningún resultado.Solución alternativa: Ninguna
- Los hosts ESXi podrían perder conectividad después de actualizar el controlador brcmfcoe en matrices de almacenamiento Hitachi
Después de actualizar el controlador brcmfcoe en matrices de almacenamiento Hitachi, es posible que los hosts ESXi no arranquen y pierdan conectividad.
Solución alternativa: Ninguna.