This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

ESXi 7.0 Update 3c | 27 de enero de 2022 | Compilación ISO 19193900

Compruebe las adiciones y las actualizaciones de las notas de la versión.

Contenido de las notas de la versión

Las notas de la versión abarcan los siguientes temas:

IMPORTANTE: VMware eliminó ESXi 7.0 Update 3, 7.0 Update 3a y 7.0 Update 3b de todos los sitios el 19 de noviembre de 2021 debido a un problema que afectaba a la actualización. La compilación 19193900 para ESXi 7.0 Update 3c ISO reemplaza la compilación 18644231, 18825058 y 18905247 para ESXi 7.0 Update 3, 7.0 Update 3a y 7.0 Update 3b, respectivamente. Para asegurarse de ejecutar una actualización sin problemas a vSphere 7.0 Update 3c, consulte los artículos 86447 y 87327 de la base de conocimientos de VMware.

Novedades

Para conocer las nuevas funciones en las versiones revertidas, consulte esta lista:

  • Supervisión y corrección de memoria de vSphere y compatibilidad con instantáneas de máquinas virtuales PMem: Supervisión y corrección de memoria de vSphere recopila datos y proporciona visibilidad de las estadísticas de rendimiento para ayudarle a determinar si la carga de trabajo de la aplicación tiene una regresión debido al modo de memoria. vSphere 7.0 Update 3 también agrega compatibilidad con instantáneas de máquinas virtuales PMem. Para obtener más información, consulte Supervisión y corrección de memoria de vSphere.

  • Compatibilidad ampliada con tipos de unidades de disco: A partir de vSphere 7.0 Update 3, vSphere Lifecycle Manager valida los siguientes tipos de configuraciones de unidades de disco y dispositivos de almacenamiento:
    • HDD (SAS/SATA)
    • SSD (SAS/SATA)
    • Unidades de disco SAS/SATA detrás de volúmenes lógicos RAID-0 de disco único
    Para obtener más información, consulte Comprobaciones de compatibilidad de hardware de nivel de clúster.

  • Utilice imágenes de vSphere Lifecycle Manager para administrar un clúster ampliado de vSAN y su host testigo: A partir de vSphere 7.0 Update 3, puede utilizar imágenes de vSphere Lifecycle Manager para administrar un clúster ampliado de vSAN y su host testigo. Para obtener más información, consulte Usar imágenes de vSphere Lifecycle Manager para corregir clústeres ampliados de vSAN.

  • Mejoras de vSphere Cluster Services (vCLS): Con vSphere 7.0 Update 3, los administradores de vSphere pueden configurar las máquinas virtuales de vCLS para que se ejecuten en almacenes de datos específicos mediante la configuración de la preferencia de almacén de datos de máquina virtual de vCLS por clúster. Los administradores también pueden definir directivas de recursos informáticos para especificar cómo vSphere Distributed Resource Scheduler (DRS) debe colocar las máquinas virtuales del agente de vCLS y otros grupos de máquinas virtuales de carga de trabajo. 

  • Interoperabilidad mejorada entre vCenter Server y las versiones de ESXi: A partir de vSphere 7.0 Update 3, vCenter Server puede administrar hosts ESXi de las dos versiones principales anteriores y cualquier host ESXi de la versión 7.0 y las actualizaciones de 7.0. Por ejemplo, vCenter Server 7.0 Update 3 puede administrar hosts ESXi de las versiones 6.5, 6.7 y 7.0, todas las versiones de actualización de 7.0, incluidas las versiones posteriores a Update 3, y una combinación de hosts entre las versiones principal y de actualización.

  • Nueva etiqueta de VMNIC para tráfico de almacenamiento de NVMe-over-RDMA: ESXi 7.0 Update 3 agrega una nueva etiqueta de VMNIC para el tráfico de almacenamiento de NVMe-over-RDMA. Esta configuración de puerto de VMkernel permite que el tráfico de NVMe-over-RDMA se enrute a través de la interfaz etiquetada. También puede utilizar el comando ESXCLI esxcli network ip interface tag add -i <nombre de interfaz> -t NVMeRDMA para habilitar la etiqueta NVMeRDMA VMNIC.

  • Compatibilidad con NVMe over TCP: vSphere 7.0 Update 3 amplía el conjunto de aplicaciones NVMe-oF con el protocolo de almacenamiento NVMe over TCP para habilitar el alto rendimiento y el paralelismo de los dispositivos NVMe en una implementación amplia de redes TCP/IP.

  • Cero tiempo de inactividad, cero pérdida de datos para máquinas virtuales críticas en caso de error de hardware de excepción de comprobación de máquina (Machine Check Exception, MCE): Con vSphere 7.0 Update 3, las máquinas virtuales críticas protegidas por VMware vSphere Fault Tolerance pueden alcanzar cero tiempo de inactividad y cero pérdida de datos en caso de error de hardware de excepción de comprobación de máquinas (MCE), ya que las máquinas virtuales, en lugar de fallar, recurren a la máquina virtual secundaria. Para obtener más información, consulte Funcionamiento de Fault Tolerance.
     
  • Precisión de hora en microsegundos para cargas de trabajo: ESXi 7.0 Update 3 agrega el protocolo de tiempo de precisión de marca de tiempo (Precision Time Protocol, PTP) de hardware para habilitar una precisión de hora en microsegundos. Para obtener más información, consulte Usar PTP para la sincronización de hora y fecha de un host.
     
  • Configuración de cronometraje mejorada para los hosts ESXi:  ESXi 7.0 Update 3 mejora el flujo de trabajo y la experiencia de usuario para establecer una configuración de cronometraje de los hosts ESXi. Para obtener más información, consulte Editar la configuración de hora de un host.

Versiones anteriores de ESXi 7.0

Las características nuevas, los problemas resueltos y los problemas conocidos de ESXi se describen en las notas de la versión de cada versión. Las notas de las versiones anteriores de ESXi 7.0 son las siguientes:

Para obtener información sobre internacionalización, compatibilidad y componentes de código abierto, consulte las Notas de la versión de VMware vSphere 7.0.

Revisiones incluidas en esta versión

Esta versión de ESXi 7.0 Update 3c tiene las siguientes revisiones:

Detalles de la compilación

Nombre de archivo de descarga: VMware-ESXi-7.0U3c-19193900-depot
Compilación: 19193900
Tamaño de descarga: 395,8 MB
md5sum: e39a951f4e96e92eae41c94947e046ec
sha256checksum: 20cdcd6fd8f22f5f8a848b45db67316a3ee630b31a152312f4beab737f2b3cdc
Reinicio requerido del host:
Migración de máquina virtual o apagado requeridos:

Para ver una tabla con los números de compilación y las versiones de VMware ESXi, consulte el artículo 2143832 de la base de conocimientos de VMware.

IMPORTANTE:

  • A partir de vSphere 7.0, VMware utiliza componentes para empaquetar los VIB junto con los boletines. Los boletines de ESXi y esx-update dependen entre sí. Incluya siempre a ambos en una sola línea base de revisión de host ESXi, o bien incluya el boletín acumulativo en la línea base para evitar errores durante la aplicación de revisiones de hosts. 
  • Cuando se aplican revisiones de hosts ESXi mediante VMware Update Manager desde una versión anterior a ESXi 7.0 Update 2, se recomienda encarecidamente utilizar el boletín acumulativo de actualizaciones en la línea base de revisión. Si no puede utilizar el boletín acumulativo de actualizaciones, asegúrese de incluir todos los paquetes a continuación en la línea base de revisión. Si los siguientes paquetes no se incluyen en la línea base, se produce un error en la operación de actualización:
    • VMware-vmkusb_0.1-1vmw.701.0.0.16850804 o una versión superior
    • VMware-vmkata_0.1-1vmw.701.0.0.16850804 o una versión superior
    • VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 o una versión superior
    • VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 o una versión superior

Boletín acumulativo de actualizaciones

Este boletín acumulativo de actualizaciones contiene los VIB más recientes con todas las revisiones posteriores a la publicación inicial de ESXi 7.0.

Identificador del boletín Categoría Gravedad
ESXi70U3c-19193900 Corrección de error Crítico

Perfiles de imagen

Las versiones de revisiones y actualizaciones de VMware contienen perfiles de imagen general y de nivel crítico. El perfil de imagen general de la versión se aplica a las nuevas correcciones de errores.

Nombre del perfil de imagen
ESXi70U3c-19193900-standard
ESXi70U3c-19193900-no-tools

Imagen ESXi

Nombre y versión Fecha de versión Categoría Detalles
ESXi70U3c-19193900 27 DE ENERO DE 2022 Corrección de error Imagen del corrector de error

Para obtener información sobre los componentes individuales y boletines, consulte la página Revisiones de producto y la sección Problemas resueltos.

Descarga e instalación de revisiones

En vSphere 7.x, el componente Update Manager, que se utiliza para administrar vSphere Update Manager, se reemplaza con el componente Lifecycle Manager. Las operaciones administrativas de vSphere Update Manager aún están disponibles bajo el componente Lifecycle Manager, junto con nuevas capacidades de vSphere Lifecycle Manager.
La manera típica de aplicar las revisiones a los hosts de ESXi 7.x es utilizando vSphere Lifecycle Manager. Para obtener más detalles, consulte Información sobre vSphere Lifecycle Manager y Líneas base e imágenes de vSphere Lifecycle Manager.
También puede actualizar los hosts ESXi sin usar el complemento Lifecycle Manager y, en su lugar, usar un perfil de imagen. Para ello, debe descargar manualmente el archivo ZIP del paquete sin conexión de revisiones después de iniciar sesión en VMware Customer Connect. En el menú desplegable Select a Product (Seleccionar un producto), seleccione ESXi (Embedded and Installable) y, en el menú desplegable Select a Version (Seleccionar una versión), seleccione 7.0. Para obtener más información, consulte la guía Actualizar los hosts a través de comandos ESXCLI y Actualizar VMware ESXi.

Avisos de compatibilidad con el producto

  • Desuso de cuentas de localos: La compatibilidad con el uso de cuentas de localos como origen de identidad está obsoleta. VMware planea dejar de admitir el uso del sistema operativo local como origen de identidad. Esta funcionalidad se eliminará en una versión futura de vSphere.
  • La versión de cURL en ESXi650-202110001 y ESXi670-202111001 es posterior a la versión de cURL en ESXi 7.0 Update 3c: La versión de cURL en ESXi 7.0 Update 3c es 7.77.0, mientras que ESXi650-202110001 y ESXi670-202111001 tienen la versión fija más reciente 7.78.0. Como resultado, si actualiza de ESXi650-202110001 o ESXi670-202111001 a ESXi 7.0 Update 3c, cURL 7.7.0 puede exponer su sistema a las siguientes vulnerabilidades:
    CVE-2021-22926: CVSS 7.5
    CVE-2021-22925: CVSS 5.3
    CVE-2021-22924: CVSS 3.7
    CVE-2021-22923: CVSS 5.3
    CVE-2021-22922: CVSS 6.5
    La versión 7.78.0 de cURL incluye una versión futura de ESXi 7.x.

Problemas resueltos

Los problemas resueltos se agrupan del siguiente modo:

Problemas de redes
  • Si utiliza una versión de vSphere Distributed Switch (VDS) anterior a la 6.6 y cambia el algoritmo hash de LAG, es posible que se produzca un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura

    Si utiliza un VDS de versión anterior a la 6.6 en un sistema vSphere 7.0 Update 1 o posterior, y cambia el algoritmo hash de LAG, por ejemplo, de hash de capa 3 a capa 2, es posible que se produzca un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura.

    El problema está resuelto en esta versión.

  • Ve paquetes descartados para máquinas virtuales con el redireccionamiento de VMware Network Extensibility (NetX) habilitado

    En los gráficos de rendimiento avanzados de vCenter Server, se observa un número creciente de paquetes descartados para todas las máquinas virtuales que tienen habilitado el redireccionamiento de NetX. Sin embargo, si deshabilita el redireccionamiento de NetX, el recuento se convierte en 0.

    El problema está resuelto en esta versión.

  • Se puede producir un error en un host ESXi con una pantalla de diagnóstico de color púrpura durante el arranque debido a una asignación incorrecta de CQ a EQ en un HBA de FC de Emulex

    En casos excepcionales, la asignación incorrecta de colas de finalización (CQ) cuando el número total de canales de E/S de un HBA de FC de Emulex no es un múltiplo exacto del número de colas de eventos (EQ), puede provocar un error en el arranque de un host ESXi con una pantalla de diagnóstico de color púrpura. En el seguimiento inverso, puede ver un error en el método lpfc_cq_create ().

    El problema está resuelto en esta versión. La solución garantiza la asignación correcta de CQ a EQ.

  • Se puede producir un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura debido problema de asignación de memoria en los sockets de dominio UNIX.

    Durante la comunicación interna entre sockets de dominio UNIX, puede producirse una asignación de pila en lugar de limpiar los datos auxiliares, como los descriptores de archivos. Como resultado, en algunos casos, el host ESXi puede informar de una condición de falta de memoria y generar un error con una pantalla de diagnóstico de color púrpura con #PF Exception 14 y errores similares a UserDuct_ReadAndRecvMsg ().

    El problema está resuelto en esta versión. La solución limpia los datos auxiliares para evitar asignaciones de memoria de búfer.

  • Las configuraciones opcionales de NTP no persisten en el reinicio del host ESXi

    Cuando se establecen configuraciones opcionales para NTP mediante comandos ESXCLI, es posible que la configuración no persista después de que se reinicie el host ESXi.

    El problema está resuelto en esta versión. La solución garantiza que las configuraciones opcionales se restauren en la memoria caché local desde ConfigStore durante el arranque del host ESXi.

  • Cuando se cambia el algoritmo de hash de LACP en sistemas con vSphere Distributed Switch de la versión 6.5.0, se puede producir un error en varios hosts ESXi con una pantalla de diagnóstico de color púrpura.

    En sistemas con vSphere Distributed Switch de la versión 6.5.0 y hosts ESXi de la versión 7.0 o posterior, cuando se cambia el algoritmo de hash de LACP, esto puede provocar un error de evento de LACP no compatible debido a una matriz de cadena temporal utilizada para guardar el nombre del tipo de evento. Como resultado, se pueden producir errores en múltiples hosts ESXi con una pantalla de diagnóstico de color morado.

    El problema está resuelto en esta versión. Para evitar este problema, en los sistemas vCenter Server de la versión 7.0 y posteriores, asegúrese de utilizar una versión de vSphere Distributed Switch posterior a la 6.5.0.

Problemas de instalación, actualización y migración
  • La corrección de los clústeres que se administran con líneas base de vSphere Lifecycle Manager puede tardar mucho tiempo.

    La corrección de los clústeres que administra con las líneas base de vSphere Lifecycle Manager puede tardar mucho después de las actualizaciones de ESXi 7.0 Update 2d y versiones anteriores a una versión posterior a ESXi 7.0 Update 2d.

    El problema está resuelto en esta versión.

  • Después de actualizar a ESXi 7.0 Update 3, las máquinas virtuales con discos RDM físicos no se pueden migrar o encender en los hosts ESXi de destino.

    En ciertos casos, por ejemplo, en las máquinas virtuales con dispositivos RDM que se ejecutan en servidores con SNMP, una condición de carrera entre las solicitudes abiertas del dispositivo puede provocar errores en las operaciones de vSphere vMotion.

    El problema está resuelto en esta versión. La solución garantiza que las solicitudes de apertura del dispositivo se secuencian para evitar condiciones de carrera. Para obtener más información, consulte el artículo 86158 de la base de conocimientos de VMware. 

  • Después de actualizar a ESXi 7.0 Update 2d y versiones posteriores, se muestra un error de sincronización de hora de NTP

    En algunos entornos, después de actualizar a ESXi 7.0 Update 2d y versiones posteriores, en vSphere Client podría aparecer el error El host ha perdido la sincronización de hora. Sin embargo, es posible que la alarma no indique un problema real.

    El problema está resuelto en esta versión. La solución reemplaza el mensaje de error con una función de registro para el seguimiento inverso, pero evita las falsas alarmas.

Problemas varios
  • NUEVO Un problema muy poco frecuente con máquinas virtuales con tecnología vGPU de NVIDIA puede provocar un error en los hosts ESXi con una pantalla de diagnóstico de color morado

    En condiciones excepcionales, es posible que se produzca un error de forma intermitente en los hosts ESXi con máquinas virtuales con tecnología vGPU de NVIDIA y se muestre un error de detención del kernel en una pantalla de diagnóstico de color morado. El problema puede afectar a varios hosts ESXi, pero no al mismo tiempo. En el registro de trabajos pendientes, verá informes del kernel sobre los tiempos de espera de latidos en la CPU durante x segundos y la pila informa sobre una memoria caché de P2M.

    El problema está resuelto en esta versión.

  • Los hosts ESXi con máquinas virtuales con la sensibilidad de latencia habilitada pueden dejar de responder de forma aleatoria debido a una falta de CPU  

    Cuando se habilita la sensibilidad de latencia en máquinas virtuales, algunos subprocesos de Likewise Service Manager (lwsmd), que establece la afinidad de CPU de forma explícita, pueden competir por los recursos de CPU en dichas máquinas virtuales. Como resultado, es posible que el host ESXi y el servicio hostd dejen de responder.  

    El problema está resuelto en esta versión. La solución garantiza que lwsmd no establezca la afinidad de CPU de forma explícita. 

  • En casos muy excepcionales, la lógica de reintento del adaptador de NVME virtual (VNVME) en ESXi 7.0 Update 3 podría provocar daños silenciosos en los datos.

    La lógica de reintento de VNVME en ESXi 7.0 Update 3 tiene un problema que podría causar daños silenciosos en los datos. Los reintentos rara vez se producen y pueden, no siempre, causar errores de datos. El problema solo afecta a ESXi 7.0 Update 3.

    El problema está resuelto en esta versión.

  • Los hosts ESXi podrían fallar y generar una pantalla de diagnóstico de color morado durante el apagado debido a metadatos obsoletos.

    En casos excepcionales, cuando se elimina un componente de gran tamaño en un host ESXi, seguido de un reinicio, es posible que el reinicio se inicie antes de que se eliminen todos los metadatos del componente. Los metadatos obsoletos podrían provocar que el host ESXi genere un error y aparezca una pantalla de diagnóstico de color morado. 

    El problema está resuelto en esta versión. La solución garantiza que no queden metadatos pendientes antes de reiniciar los hosts ESXi.

  • La infraestructura de escritorio virtual (VDI) puede dejar de responder debido a una condición de carrera en el controlador VMKAPI.

    La entrega de eventos a las aplicaciones puede retrasarse indefinidamente debido a una condición de carrera en el controlador VMKAPI. Como resultado, la infraestructura de escritorio virtual en algunos entornos, como los sistemas que utilizan tarjetas gráficas NVIDIA, puede dejar de responder o perder la conexión con el cliente VDI.

    El problema está resuelto en esta versión.

  • Los hosts ESXi pueden generar un error con una pantalla de diagnóstico de color púrpura debido a problemas con los semáforos de la arquitectura de componentes de ACPI (ACPICA)

    Varios problemas en la implementación de los semáforos de ACPICA en ESXi 7.0 Update 3 y versiones anteriores pueden provocar errores en VMKernel, por lo general, durante el arranque. Un problema en la implementación de semáforos puede causar agotamiento y, en varias rutas de llamada, el VMKernel puede intentar adquirir un semáforo de ACPICA o suspenderlo dentro de ACPICA mientras se mantiene un bloqueo de giro. Si estos problemas causan problemas en una máquina específica, depende de los detalles del firmware ACPI de la máquina.

    Estos problemas se resuelven en esta versión. La solución implica una reescritura de los semáforos de ACPICA en ESXi y la corrección de las rutas de código que intentan entrar en ACPICA mientras se mantiene un bloqueo de giro.

  • Los hosts ESXi pueden generar un error con una pantalla de diagnóstico de color púrpura cuando se ejecutan operaciones de E/S en un adaptador de iSCSI de software

    Las operaciones de E/S en un adaptador de iSCSI de software pueden provocar una condición de carrera inusual dentro del controlador iscsi_vmk. Como resultado, los hosts ESXi pueden fallar de forma intermitente con una pantalla de diagnóstico de color morado.

    El problema está resuelto en esta versión.

Problemas de seguridad
  • Actualización de OpenSSL

    El paquete de OpenSSL se actualizó a la versión openssl-1.0.2zb.

  • Actualización del paquete de Python

    El paquete de Python se actualizó a la versión CVE-2021-29921.

  • Puede conectarse al puerto 9080 mediante cifrados DES/3DES restringidos

    Con el comando OPENSSL openssl s_client -cipher <CIPHER> -connect localhost: 9080 puede conectarse al puerto 9080 mediante cifrados DES/3DES restringidos.

    El problema está resuelto en esta versión. No puede conectarse al puerto 9080 mediante los siguientes cifrados: DES-CBC3-SHA, EDH-RSA-DES-CBC3-SHA, ECDHE-RSA-DES-CBC3-SHA y AECDH-DES-CBC3-SHA.

  • ESXi 7.0 Update 3c incluye las siguientes imágenes ISO de VMware Tools:

    • windows.iso: VMware Tools 11.3.5 admite Windows 7 SP1 o Windows Server 2008 R2 SP1 y versiones posteriores.
    • linux.iso: Imagen ISO de VMware Tools 10.3.23 para sistema operativo Linux con glibc 2.11 o posterior.

    Las siguientes imágenes ISO de VMware Tools están disponibles para descargarse:

    • VMware Tools 11.0.6:
      • windows.iso para Windows Vista (SP2) y Windows Server 2008 Service Pack 2 (SP2).
         
    • VMware Tools 10.0.12:
      • winPreVista.iso para Windows 2000, Windows XP y Windows 2003
      • linuxPreGLibc25.iso: admite sistemas operativos invitados Linux anteriores a Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 y otras distribuciones con una versión de glibc anterior a la 2.5.
         
      solaris.iso: Imagen de VMware Tools 10.3.10 para Solaris.
    • darwin.iso: Compatible con Mac OS X 10.11 y versiones posteriores.

    Siga los procedimientos enumerados en los siguientes documentos para descargar VMware Tools para las plataformas que no se incluyen en ESXi:

Problemas de vSphere Client
  • Las máquinas virtuales aparecen como inaccesibles en vSphere Client y es posible que se produzca algún tiempo de inactividad para las aplicaciones

    En casos raros, los problemas de hardware pueden causar una corrupción de la base de datos SQlite que hace que varias máquinas virtuales se vuelvan inaccesibles y provoquen algún tiempo de inactividad para las aplicaciones.

    El problema está resuelto en esta versión.

Problemas de almacenamiento
  • Las operaciones de la máquina virtual fallan con un error por espacio de disco insuficiente en el almacén de datos

    Un nuevo almacén de datos suele tener un número elevado de recursos de bloque de archivos grandes (LFB) y un número menor de recursos de bloque de archivos pequeños (SFB). Para los flujos de trabajo que consumen SFB, como las operaciones de máquina virtual, los LFB se convierten en SFB. Sin embargo, debido a un retraso en la actualización del estado de conversión, es posible que los SFB recién convertidos no se reconozcan como disponibles para la asignación. Como resultado, se muestra un error como Espacio de disco insuficiente en el almacén de datos cuando se intenta encender, clonar o migrar una máquina virtual.

    El problema está resuelto en esta versión.

  • Es posible que se produzcan errores en las operaciones de instantáneas de vSphere Virtual Volume en el volumen de origen o en el volumen de instantánea en Pure Storage.

    Debido a un problema que permite la duplicación del identificador único de vSphere Virtual Volumes, es posible que se produzcan errores en las operaciones de instantáneas de la máquina virtual o que se elimine el volumen de origen. El problema es específico de Pure Storage y afecta a las líneas de la versión de Purity 5.3.13 y versiones anteriores, 6.0.5 y versiones anteriores, y 6.1.1 y versiones anteriores.

    El problema está resuelto en esta versión.

Problemas de vSAN
  • Es posible que vea errores de estado de vSAN para la partición del clúster cuando el cifrado de datos en tránsito está habilitado

    En vSphere Client, es posible que vea errores de estado de vSAN, como partición de clúster de vSAN o estado de objeto de vSAN, cuando el cifrado de datos en tránsito está habilitado. El problema se produce porque cuando se inicia una operación de regeneración de claves en un clúster de vSAN, un problema temporal de recursos puede provocar un error en el intercambio de claves entre pares.

    El problema está resuelto en esta versión.

Problemas en la administración de máquinas virtuales
  • Una condición de carrera entre las operaciones de migración en vivo puede provocar un error en el host ESXi con una pantalla de diagnóstico de color púrpura

    En entornos con máquinas virtuales de 575 GB o más de memoria reservada que no utilizan vSphere vMotion cifrado, una operación de migración en vivo puede competir con otra migración en vivo y provocar un error en el host ESXi con una pantalla de diagnóstico de color púrpura.

    El problema está resuelto en esta versión. Sin embargo, en casos muy excepcionales, es posible que se produzca un error en la operación de migración, independientemente de que se haya solucionado la causa principal de la condición de la pantalla de diagnóstico de color púrpura. En estos casos, vuelva a intentar la migración cuando no haya ninguna otra migración activa en el host de origen o habilite vSphere vMotion cifrado en las máquinas virtuales.

Problemas solucionados de versiones anteriores

    Problemas de redes

    • Es posible que el tráfico de RDMA mediante el protocolo iWARP no se complete

      El tráfico de RDMA mediante el protocolo iWARP en las tarjetas Intel x722 puede agotar el tiempo de espera y no completarse.

      El problema está resuelto en esta versión.

    Problemas de instalación, actualización y migración

    • La partición /bloqueador puede estar dañada cuando la partición se almacena en un dispositivo USB o SD

      Debido a la sensibilidad de E/S de los dispositivos USB y SD, podría dañarse la partición de bloqueador de VMFS-L en estos dispositivos que almacena archivos de VMware Tools y volcado de núcleo.

      El problema está resuelto en esta versión. De forma predeterminada, ESXi carga los paquetes del bloqueador en el disco RAM durante el arranque. 

    • Los hosts ESXi podrían perder conectividad después de actualizar el controlador brcmfcoe en matrices de almacenamiento Hitachi

      Después de actualizar el controlador brcmfcoe en matrices de almacenamiento Hitachi, es posible que los hosts ESXi no arranquen y pierdan conectividad.

      El problema está resuelto en esta versión.

    • Después de actualizar a ESXi 7.0 Update 2, se observa una carga excesiva de E/S de lectura de almacenamiento

      ESXi 7.0 Update 2 introdujo una interfaz de proveedor de estadísticas del sistema que requiere leer las estadísticas del almacén de datos para cada host ESXi cada 5 minutos. Si varios hosts ESXi comparten un almacén de datos, estas lecturas frecuentes pueden provocar una latencia de lectura en la matriz de almacenamiento y provocar una carga de E/S de lectura de almacenamiento excesiva.

      El problema está resuelto en esta versión.

    Problemas en la administración de máquinas virtuales

    • Las máquinas virtuales con virtualización cifrada segura de AMD: estado cifrado (SEV-ES) habilitado no pueden crear conectores de la interfaz de comunicación de máquinas virtuales (VMCI)

      El rendimiento y la funcionalidad de las funciones que requiere VMCI pueden verse afectados en las máquinas virtuales con AMD SEV-ES habilitado, ya que tales máquinas virtuales no pueden crear sockets VMCI.

      El problema está resuelto en esta versión.

    • Es posible que se produzca un error en las máquinas virtuales al reiniciar un sistema operativo invitado con mucha carga

      En raras ocasiones, cuando comienza el reinicio del sistema operativo invitado fuera del invitado (por ejemplo, desde vSphere Client), las máquinas virtuales pueden producir un error, lo que genera un volcado de VMX. El problema puede producirse cuando el sistema operativo invitado está muy cargado. Como resultado, las respuestas del invitado a las solicitudes de VMX se retrasan antes del reinicio. En estos casos, el archivo vmware.log de las máquinas virtuales incluye mensajes como los siguientes: I125: Herramientas: No se puede enviar cambio de estado 3: Error TCLO. E105: PANIC: NOT_REACHED bora/vmx/tools/toolsRunningStatus.c:953.

      El problema está resuelto en esta versión.

    Problemas varios

    • La E/S de lectura asincrónica que contiene una matriz SCATTER_GATHER_ELEMENT de más de 16 miembros con al menos 1 miembro en el último bloque parcial de un archivo puede provocar una detención del host ESXi

      En casos raros, en una E/S de lectura asíncrona que contenga una matriz SCATTER_GATHER_ELEMENT de más de 16 miembros, al menos 1 miembro podría caer en el último bloque parcial de un archivo. Esto puede provocar daños en la pila de memoria de VMFS, lo que, a su vez, provoca un error en los hosts ESXi con una pantalla de diagnóstico de color morado.

      El problema está resuelto en esta versión.

    • Si un sistema operativo invitado emite solicitudes UNMAP de tamaño grande en VMDK con aprovisionamiento fino, se puede producir un error en los hosts ESXi con una pantalla de diagnóstico de color morado

      ESXi 7.0 Update 3 introdujo una granularidad UNMAP uniforme para las instantáneas VMFS y SEsparse, y estableció la granularidad UNMAP máxima notificada por VMFS a 2GB. Sin embargo, en ciertos entornos, cuando el sistema operativo invitado realiza una solicitud de recorte o de cancelación de asignación de 2GB, dicha solicitud podría requerir que la transacción de metadatos VMFS realice la adquisición de bloqueos de más de 50 clústeres de recursos. Es posible que VMFS no controle estas solicitudes correctamente. Como resultado, se puede producir un error en un host ESXi con una pantalla de diagnóstico de color morado. La transacción de metadatos VMFS que requiere acciones de bloqueo en más de 50 clústeres de recursos es rara y solo puede ocurrir en los almacenes de datos antiguos. El problema solo afecta a los VMDK con aprovisionamiento fino. Los VMDK gruesos y con puesta a cero rápida no se ven afectados.
      Junto con la pantalla de diagnóstico de color morado, en el archivo /var/run/log/vmkernel aparecen errores como los siguientes:
      2021-10-20T03:11:41.679Z cpu0:2352732)@BlueScreen: NMI IPI: Panic requested by another PCPU. RIPOFF(base):RBP:CS [0x1404f8(0x420004800000):0x12b8:0xf48] (Src 0x1, CPU0)
      2021-10-20T03:11:41.689Z cpu0:2352732)Code start: 0x420004800000 VMK uptime: 11:07:27:23.196
      2021-10-20T03:11:41.697Z cpu0:2352732)Saved backtrace from: pcpu 0 Heartbeat NMI
      2021-10-20T03:11:41.715Z cpu0:2352732)0x45394629b8b8:[0x4200049404f7]HeapVSIAddChunkInfo@vmkernel#nover+0x1b0 stack: 0x420005bd611e

      El problema está resuelto en esta versión.

    • Se puede producir un error en el servicio hostd debido a un problema de supervisión de eventos del servicio de hora

      Un problema en el servicio de supervisión de eventos del servicio de hora, que está habilitado de forma predeterminada, puede provocar un error en el servicio hostd. En el archivo vobd.log, se muestras errores similares al siguiente:
      2021-10-21T18:04:28.251Z: [UserWorldCorrelator] 304957116us: [esx.problem.hostd.core.dumped] /bin/hostd crashed (1 time(s) so far) and a core file may have been created at /var/core/hostd-zdump.000. This may have caused connections to the host to be dropped.
      2021-10-21T18:04:28.251Z: An event (esx.problem.hostd.core.dumped) could not be sent immediately to hostd; queueing for retry. 2021-10-21T18:04:32.298Z: [UserWorldCorrelator] 309002531us: [vob.uw.core.dumped] /bin/hostd(2103800) /var/core/hostd-zdump.001
      2021-10-21T18:04:36.351Z: [UserWorldCorrelator] 313055552us: [vob.uw.core.dumped] /bin/hostd(2103967) /var/core/hostd-zdump.002
      .

      El problema está resuelto en esta versión. 

    Problemas conocidos

    Los problemas conocidos se agrupan del siguiente modo:

    Problemas de redes
    • Las propiedades obsoletas de NSX for vSphere en vSphere Distributed Switch 7.0 (VDS) o hosts ESXi 7.x pueden generar errores en las actualizaciones de hosts.

      Si tenía NSX for vSphere con VXLAN habilitado en un conmutador distribuido de vSphere (VDS) de la versión 7.0 y se migró a NSX-T Data Center mediante la migración de NSX V2T, las propiedades obsoletas de NSX for vSphere en el VDS o algunos hosts podrían impedir actualizaciones de hosts ESXi 7.x. La actualización del host genera un error de configuración de la plataforma.

      Solución alternativa: Cargue el script CleanNSXV.py en el directorio / tmp en vCenter Server. Inicie sesión en el shell del dispositivo como un usuario con privilegios de superadministrador (por ejemplo, raíz) y siga estos pasos:

      1. Ejecute CleanNSXV.py con el comando PYTHONPATH = $ VMWARE_PYTHON_PATH python /tmp/CleanNSXV.py --user <vc_admin_user> --password <passwd>. El parámetro <vc_admin_user> es un usuario de vCenter Server con privilegios de superadministrador y el parámetro <passwd> es la contraseña del usuario. 
        Por ejemplo: 
        PYTHONPATH=$VMWARE_PYTHON_PATH python /tmp/CleanNSXV.py --user '[email protected]' --password 'Admin123'
      2. Compruebe si las siguientes propiedades de NSX for vSphere, com.vmware.netoverlay.layer0 y com.vmware.net.vxlan.udpport, se eliminaron de los hosts ESXi:
        1. Conecte a un host ESXi aleatorio mediante un cliente SSH.
        2. Ejecute el comando net-dvs -l | grep "com.vmware.netoverlay.layer0 \ | com.vmware.net.vxlan.udpport".
          Si no ve ninguna salida, se eliminan las propiedades obsoletas.

      Para descargar el script CleanNSXV.py y obtener más detalles, consulte el artículo de la base de conocimientos de VMware 87423.

    Problemas de seguridad
    • La versión de cURL en ESXi650-202110001 y ESXi670-202111001 es posterior a la versión de cURL en ESXi 7.0 Update 3c

      La versión de cURL en ESXi 7.0 Update 3c es 7.77.0, mientras que ESXi650-202110001 y ESXi670-202111001 tienen la versión fija más reciente 7.78.0. Como resultado, si actualiza de ESXi650-202110001 o ESXi670-202111001 a ESXi 7.0 Update 3c, cURL 7.7.0 puede exponer su sistema a las siguientes vulnerabilidades:
      CVE-2021-22926: CVSS 7.5
      CVE-2021-22925: CVSS 5.3
      CVE-2021-22924: CVSS 3.7
      CVE-2021-22923: CVSS 5.3
      CVE-2021-22922: CVSS 6.5

      Solución alternativa: Ninguno. La versión 7.78.0 de cURL incluye una versión futura de ESXi 7.x.

    Problemas conocidos de versiones anteriores

    Para ver una lista de los problemas conocidos anteriores, haga clic aquí.

    check-circle-line exclamation-circle-line close-line
    Scroll to top icon
    check-circle-line exclamation-circle-line close-line
    Scroll to top icon