Fecha de versión: 23 de febrero de 2021

Contenido de las notas de la versión

Las notas de la versión abarcan los siguientes temas:

Detalles de la compilación

Nombre de archivo de descarga: ESXi650-202102001.zip
Compilación: 17477841
Tamaño de descarga: 483,8 MB
md5sum: b7dbadd21929f32b5c7e19c7eb60c5ca
sha1checksum: f13a79ea106e38f41b731c19758a24023c4449ca
Reinicio requerido del host:
Migración de máquina virtual o apagado requeridos:

Boletines

Identificador del boletín Categoría Gravedad
ESXi650-202102401-BG Corrección de error Crítico
ESXi650-202102402-BG Corrección de error Importante
ESXi650-202102101-SG Seguridad Importante
ESXi650-202102102-SG Seguridad Importante
ESXi650-202102103-SG Seguridad Moderado

Boletín acumulativo de actualizaciones

Este boletín acumulativo de actualizaciones contiene los VIB más recientes con todas las revisiones desde la publicación inicial de ESXi 6.5.

Identificador del boletín Categoría Gravedad
ESXi650-202102001 Corrección de error Crítico

IMPORTANTE: En los clústeres donde se usa VMware vSAN, primero se debe actualizar el sistema vCenter Server. No se admite actualizar solo ESXi.
Antes de realizar una actualización, siempre debe comprobar en la matriz de interoperabilidad de productos VMware las rutas de acceso de actualización compatibles a partir de versiones anteriores de ESXi, vCenter Server y vSAN a la versión actual.

Perfiles de imagen

Las versiones de revisiones y actualizaciones de VMware contienen perfiles de imagen general y de nivel crítico. El perfil de imagen general de la versión se aplica a las nuevas correcciones de errores.

Nombre del perfil de imagen
ESXi-6.5.0-20210204001-standard
ESXi-6.5.0-20210204001-no-tools
ESXi-6.5.0-20210201001s-standard
ESXi-6.5.0-20210201001s-no-tools

Para obtener más información sobre cada boletín, consulte la página de descarga de revisiones y la sección Problemas resueltos.

Descarga e instalación de revisiones

La forma habitual de aplicar revisiones a los hosts ESXi es mediante VMware vSphere Update Manager. Para obtener más información, consulte Acerca de la instalación y administración de VMware vSphere Update Manager.

Los hosts ESXi pueden actualizarse mediante la descarga manual del archivo ZIP de revisión desde la página de descarga de VMware y la instalación de VIB mediante el comando esxcli software vib. Además, el sistema se puede actualizar mediante el perfil de imagen y el comando esxcli software profile.

Para obtener más información, consulte los conceptos y ejemplos de la interfaz de línea de comandos de vSphere y la Guía de actualización de vSphere.

Problemas resueltos

Los problemas resueltos se agrupan del siguiente modo:

ESXi650-202102401-BG
Categoría de revisión Corrección de error
Gravedad de la revisión Crítico
Reinicio de host requerido
Migración de máquina virtual o apagado requeridos
Hardware afectado N/C
Software afectado N/C
VIB que se incluyen
  • VMware_bootbank_vsan_6.5.0-3.157.17299463
  • VMware_bootbank_vsanhealth_6.5.0-3.157.17299464
  • VMware_bootbank_esx-base_6.5.0-3.157.17477841
  • VMware_bootbank_esx-tboot_6.5.0-3.157.17477841
PR corregidas  2571797, 2614876, 2641918, 2649146, 2665433, 2641030, 2643261, 2600691, 2609377, 2663642, 2686646, 2657658, 2610707, 2102346, 2601293, 2678799, 2666929, 2672518, 2677274, 2651994, 2683360, 2634074, 2621142, 2587398, 2649283, 2647832
Números de CVE relacionados N/C

Esta revisión actualiza los VIB esx-base, esx-tboot, vsan y vsanhealth para resolver los siguientes problemas:

  • PR 2571797: La configuración de una unidad de CD/DVD virtual para que sea un dispositivo cliente puede hacer que una máquina virtual se apague y quede en un estado no válido

    Si edita la configuración de una máquina virtual en ejecución para cambiar una unidad de CD/DVD virtual existente y convertirla en un dispositivo cliente, en algunos casos, la máquina virtual se apaga y queda en un estado no válido. Después del error, no se puede encender ni utilizar la máquina virtual. En hostd.log se muestra un error como el siguiente:
    Expected permission (3) for /dev/cdrom/mpx.vmhba2:C0:T7:L0 not found.

    Si el nodo del dispositivo virtual se establece en SATA(0:0), en el archivo de configuración de máquina virtual, verá una entrada como la siguiente:
    sata0:0.fileName = "/vmfs/devices/cdrom/mpx.vmhba2:C0:T7:L0".

    El problema está resuelto en esta versión.

  • PR 2614876: Es posible que observe una pérdida de la conectividad de red debido al reinicio de un conmutador físico

    El parámetro de retraso de conmutación por recuperación de la formación de equipos de red en hosts ESXi, Net.TeamPolicyUpDelay, está establecido actualmente en 10 minutos, pero, en ciertos entornos, un conmutador físico puede tardar más de 10 minutos en estar listo para recibir o transmitir datos después de un reinicio. Como resultado, es posible observar una pérdida de conectividad de red.

    El problema está resuelto en esta versión. La solución aumenta el parámetro Net.TeamPolicyUpDelay a 30 minutos. Para establecer el parámetro, seleccione el host en la interfaz del sistema vCenter y desplácese hasta Configurar > Sistema > Configuración avanzada del sistema > Net.TeamPolicyUpDelay. Si lo prefiere, puede usar el comando esxcfg-advcfg -s <valor>Net/TeamPolicyUpDelay.

  • PR 2641918: El cifrado de máquinas virtuales tarda mucho y, en última instancia, genera un error

    El cifrado de máquinas virtuales puede tardar varias horas y, en última instancia, fallar con un error El archivo ya existe en los registros de hostd. El problema se produce si existe un archivo huérfano o no utilizado <nombre de máquina virtual>.nvram en los archivos de configuración de máquina virtual. Si las máquinas virtuales tienen una entrada como NVRAM = "nvram" en el archivo .vmx, la operación de cifrado crea un archivo cifrado con la extensión de archivo NVRAM, que el sistema considera un duplicado del archivo huérfano existente.

    El problema está resuelto en esta versión. Si tiene este problema, elimine manualmente el archivo .nvram huérfano antes del cifrado.

  • PR 2649146: El servicio vpxa puede producir un error de forma intermitente debido a una cadena con formato incorrecto y los hosts ESXi pueden perder conectividad con el sistema vCenter Server

    Una cadena UTF-8 con formato incorrecto podría provocar un error en el servicio vpxa y hacer que los hosts ESXi pierdan conectividad con el sistema vCenter Server. En los registros de hostd, puede ver los registros de una tarea vim.SimpleCommand disputada que indican el problema:
    hostd.log:34139:2020-09-17T02:38:19.798Z info hostd[3408470] [Originator@6876 sub=Vimsvc.TaskManager opID=6ba8e50e-90-60f9 user=vpxuser:VSPHERE.LOCAL\Administrator] Tarea completada: haTask--vim.SimpleCommand.Execute-853061619 Status success
    En los registros de vpxa, aparecen mensajes como: vpxa.log:7475:2020-09-17T02:38:19.804Z info vpxa[3409126] [Originator@6876 sub=Default opID=WFU-53423ccc] [Vpxa] Apagando ahora

    El problema está resuelto en esta versión.

  • PR 2665433: Si deshabilita RC4, se puede producir un error en la autenticación de usuario de Active Directory en los hosts ESXi

    Si deshabilita RC4 en la configuración de Active Directory, es posible que se produzca un error en la autenticación de usuario en los hosts ESXi y se genere el mensaje El usuario no se pudo autenticar.

    El problema está resuelto en esta versión.

  • PR 2641030: Los cambios en la configuración del filtro de firewall distribuido (DFW) pueden provocar que las máquinas virtuales pierdan la conectividad de red

    Cualquier actividad de reconfiguración del filtro de DFW, como agregar o quitar filtros, puede provocar que algunos filtros empiecen a descartar paquetes. Como resultado, las máquinas virtuales pierden la conectividad de red y es necesario restablecer la vmnic, cambiar el grupo de puertos o reiniciar la máquina virtual para restaurar el tráfico. En el resultado del comando summarize-dvfilter, se muestra el estado: IOChain Detaching for the failed filter.

    El problema está resuelto en esta versión.

  • PR 2643261: Las máquinas virtuales pierden la conectividad con otras máquinas virtuales y redes

    Un error inusual al analizar cadenas en las propiedades de vSphere Network Appliance (DVFilter) de un vSphere Distributed Switch puede provocar un error en todo el tráfico procedente o con destino a las máquinas virtuales de un conmutador lógico determinado.

    El problema está resuelto en esta versión.

  • PR 2600691: Un host ESXi entra de forma inesperada en modo de mantenimiento debido a un problema de hardware que informa Proactive HA

    Si configura un filtro en el sistema vCenter Server mediante la función Proactive HA para omitir ciertas actualizaciones de estado, como bloquear condiciones de error, es posible que el filtro no se aplique después de reiniciar el servicio vpxd. Como resultado, es posible que un host ESXi pase inesperadamente al modo de mantenimiento debido a un problema de hardware informado por Proactive HA.

    El problema está resuelto en esta versión. 

  • PR 2609377: Es posible que los hosts ESX generen un error y aparezca una pantalla de diagnóstico de color morado durante la operación de configuración de DVFilter

    Debido a una condición de carrera inusual, al crear una instancia del agente DVFilter, es posible que el agente reciba un mensaje de cambio de configuración de rutina antes de que esté completamente configurado. La condición de carrera puede provocar que el host ESXi genere un error y aparezca una pantalla de diagnóstico de color morado. Verá un error similar a Exception 14 (Page Fault) en los registros de depuración.

    El problema está resuelto en esta versión.

  • PR 2663642: Las máquinas virtuales pierden conectividad de red después de las operaciones de migración mediante vSphere vMotion

    Si el UUID de una máquina virtual cambia, por ejemplo, después de una migración mediante vSphere vMotion, y la máquina virtual tiene una vNIC en un conmutador administrado de NSX-T, la máquina virtual pierde la conectividad de red. La vNIC no se puede volver a conectar.

    El problema está resuelto en esta versión.

  • PR 2686646: Se produce un error en los hosts ESXi y aparece una pantalla de diagnóstico de color morado que muestra un error de VMkernel de tipo Spin count exceeded / Possible deadlock

    Se produce un error en los hosts ESXi y aparece una pantalla de diagnóstico de color morado con errores de VMkernel como los siguientes:
    Panic Details: Crash at xxxx-xx-xx:xx:xx.xxxx on CPU xx running world xxx - HBR[xx.xx.xx.xx]:xxx:xxx
    Panic Message: @BlueScreen: Spin count exceeded - possible deadlock with PCPU 24

    El problema está resuelto en esta versión.

  • PR 2657658: Después de actualizar servidores de HPE a la versión 2.30 del firmware HPE Integrated Lights-Out 5 (iLO 5), aparecen alertas de estado del sensor de memoria

    Después de actualizar los servidores de HPE, como HPE ProLiant Gen10 y Gen10 Plus, a la versión 2.30 del firmware iLO 5, en vSphere Web Client se muestran alertas de estado del sensor de memoria. El problema se produce debido a que el sistema de supervisión del estado del hardware no descodifica correctamente los sensores Mem_Stat_* cuando se habilita el primer LUN después de la actualización.

    El problema está resuelto en esta versión.

  • PR 2610707: Un host ESXi deja de responder y se muestra un error como "Se detectó que hostd no responde" en la interfaz de usuario de la consola directa (Direct Console User Interface, DCUI)

    Un host ESXi puede perder la conectividad con el sistema vCenter Server y no se puede acceder al host a través de vSphere Client o vSphere Web Client. En la DCUI, verá el mensaje ALERTA: Se detectó que hostd no responde. El problema se produce debido a daños en la memoria, que ocurren en el complemento CIM al obtener los datos del sensor para comprobaciones periódicas de estado del hardware.

    El problema está resuelto en esta versión.

  • PR 2102346: Es posible que no vea los almacenes de datos NFS mediante una solución de tolerancia a errores de Nutanix montada en vCenter Server después de un reinicio del host ESXi

    Es posible que no vea los almacenes de datos NFS mediante una solución de tolerancia a errores de Nutanix montada en el sistema vCenter Server después de un reinicio del host ESXi. Sin embargo, puede ver los volúmenes en el host ESXi.

    El problema está resuelto en esta versión.

  • PR 2601293: Es posible que las operaciones con hosts ESXi sin estado no seleccionen el disco remoto esperado para la memoria caché del sistema, lo que provoca problemas de corrección o conformidad

    Es posible que las operaciones con hosts ESXi sin estado, como la migración de almacenamiento, no seleccionen el disco remoto esperado para la memoria caché del sistema. Por ejemplo, desea mantener el nuevo LUN de arranque como LUN 0, pero vSphere Auto Deploy elige LUN 1.

    El problema está resuelto en esta versión. La solución proporciona una manera coherente de ordenar los discos remotos y seleccionar siempre el disco con el identificador de LUN más bajo. Para asegurarse de habilitar la corrección, siga estos pasos:

    1. En la página Editar perfil de host del asistente Auto Deploy, seleccione Opciones de configuración avanzadas > Configuración
    de memoria caché de imagen del sistema
    > Configuración de memoria caché de imagen del sistema.
    2. En el menú desplegable Configuración de perfil de memoria caché de imagen del sistema, seleccione Habilitar almacenamiento en caché sin estado en el host.
    3. Edite Argumentos para el primer disco reemplazando remote por sortedremote y/o remoteesx por sortedremoteesx.

  • PR 2678799: Es posible que un host ESX deje de responder debido a un error en el servicio hostd

    Si falta una comprobación NULL en una operación vim.VirtualDiskManager.revertToChildDisk activada por VMware vSphere Replication en discos virtuales que no admiten esta operación, podría producirse un error en el servicio hostd. Por lo tanto, el host ESXi pierde conectividad con el sistema vCenter Server.

    El problema está resuelto en esta versión.

  • PR 2666929: Los conjuntos de puertos ocultos, como pps y DVFilter Coalesce Portset, pueden volverse visibles después de una actualización de ESXi

    En raras ocasiones, cuando el servicio hostd actualiza la configuración de red después de una actualización de ESXi, en vSphere Web Client o vSphere Client es posible que se muestren conjuntos de puertos ocultos, como pps y DVFilter Coalesce Portset, que no forman parte de la configuración.

    El problema está resuelto en esta versión.

  • PR 2672518: Las operaciones de máquinas virtuales en almacenes de datos NFS3 pueden fallar debido a un error del sistema de archivos

    Las operaciones de la máquina virtual, como el encendido y la copia de seguridad, pueden generar errores en los almacenes de datos NFS3 debido a un error JUKEBOX devuelto por el servidor NFS.

    El problema está resuelto en esta versión. En caso de un error JUKEBOX, la solución reintenta las operaciones de NFS.

  • PR 2677274: Si el proceso Xorg no se reinicia mientras un host ESXi sale del modo de mantenimiento, es posible que el servicio hostd deje de responder

    Si el proceso Xorg no se reinicia mientras un host ESXi sale del modo de mantenimiento, es posible que el servicio hostd deje de responder, ya que no puede completar la operación de salida.

    El problema está resuelto en esta versión.

  • PR 2651994: Una interrupción en el almacenamiento puede causar errores en el entorno debido a un problema de diseño del disco en máquinas virtuales

    Después de una breve interrupción del almacenamiento, es posible que tras la recuperación de las máquinas virtuales, el diseño del disco no se actualice y permanezca incompleto. Como resultado, es posible que vea errores en su entorno. Por ejemplo, en los registros de View Composer en un entorno de VMware Horizon, es posible que aparezca un error repetido, como InvalidSnapshotDiskConfiguration.

    El problema está resuelto en esta versión.

  • PR 2683360: Si el vínculo superior LACP de un host ESXi de destino está inactivo, pueden producirse errores en las operaciones de vSphere vMotion

    Si tiene más de un LAG en su entorno y el vínculo superior LACP de un host ESXi de destino está inactivo, es posible que se produzca un error de compatibilidad en las operaciones de vSphere vMotion. En vSphere Web Client o vSphere Client, es posible que aparezca un error como el siguiente:
    # La interfaz de red conectada actualmente 'Adaptador de red 1' usa la red 'xxxx', que no está accesible.

    El problema está resuelto en esta versión.

  • PR 2634074: Si cambia la ubicación del archivo de intercambio de una máquina virtual, la máquina virtual podría dejar de ser válida después de un restablecimiento completo

    Si habilita el intercambio host-local para un host ESXi independiente, o si cambia el almacén de datos de archivos de intercambio a otra ubicación de almacenamiento compartido mientras se ejecuta una máquina virtual, la máquina virtual podría finalizar y marcarse como no válida después de un restablecimiento completo.

    El problema está resuelto en esta versión.

  • PR 2621142: En vSphere Web Client, no se puede cambiar la configuración del nivel de registro del servicio VPXA después de una actualización del sistema vCenter Server

    En vSphere Web Client, es posible que no pueda cambiar la configuración del nivel de registro del servicio VPXA en un host ESX debido a que la opción Vpx.Vpxa.config.log.level falta o no es válida después de una actualización del sistema vCenter Server.

    El problema está resuelto en esta versión. El servicio VPXA establece automáticamente un valor válido para la opción Vpx.Vpxa.config.log.level y lo muestra a vSphere Web Client. 

  • PR 2587398: Las máquinas virtuales dejan de responder después de encenderse, con el logotipo de VMware en pantalla

    Si se reemplaza un adaptador de red o se cambia la dirección del adaptador de red, es posible que las máquinas virtuales Linux que usan firmware EFI e iPXE para arrancar desde una red dejen de responder. Por ejemplo, el problema se produce cuando se convierte una máquina virtual de este tipo en una plantilla de máquina virtual y, a continuación, se implementan otras máquinas virtuales a partir de esa plantilla.

    El problema está resuelto en esta versión.

  • PR 2649283: La pila insuficiente de un agente DvFilter puede generar un error en la migración de la máquina virtual mediante vSphere vMotion

    El agente DVFilter utiliza una pila común para asignar espacio para sus estructuras y búferes internos, así como para las asignaciones temporales utilizadas para mover el estado de los agentes cliente durante las operaciones de vSphere vMotion.
    En algunas implementaciones y escenarios, los estados del filtro pueden tener un tamaño muy grande y agotar la pila durante las operaciones de vSphere vMotion.
    En los registros de VMkernel, aparece un error como el siguiente: Se produjo un error durante la espera de datos. Error bad0014. Out of memory.

    El problema está resuelto en esta versión.

  • PR 2647832: Ruby vSphere Console (RVC) no puede imprimir la información de objetos de disco de vSAN de un host ESXi

    Es posible que el comando vsan.disk_object_info de RVC no pueda imprimir la información de uno o varios hosts ESXi. El comando devuelve el siguiente error: El servidor no pudo consultar los objetos en disco de vSAN.

    El problema está resuelto en esta versión.

ESXi650-202102402-BG
Categoría de revisión Corrección de error
Gravedad de la revisión Importante
Reinicio de host requerido
Migración de máquina virtual o apagado requeridos
Hardware afectado N/C
Software afectado N/C
VIB que se incluyen VMW_bootbank_nvme_1.2.2.28-4vmw.650.3.157.17477841
PR corregidas  2658926
Números de CVE relacionados N/C

Esta revisión actualiza el VIB nvme para resolver los siguientes problemas:

  • PR 2658926: Es posible que se produzcan errores en las actualizaciones de firmware de SSD mediante herramientas de terceros debido a que los controladores de ESXi NVMe no admiten códigos de operación NVMe

    El controlador NVMe proporciona una interfaz de administración que le permite crear herramientas para acceder directamente a comandos de administrador de NVMe. Sin embargo, la dirección de transferencia de datos para los comandos específicos del proveedor se establece como de dispositivo a host. Como resultado, algunos comandos de escritura específicos del proveedor no pueden completarse correctamente. Por ejemplo, un comando Flash de la utilidad de CLI de Marvell no puede sobrescribir el firmware de SSD NVMe en una controladora Tinker de HPE.

    El problema está resuelto en esta versión.

ESXi650-202102101-SG
Categoría de revisión Seguridad
Gravedad de la revisión Importante
Reinicio de host requerido
Migración de máquina virtual o apagado requeridos
Hardware afectado N/C
Software afectado N/C
VIB que se incluyen
  • VMware_bootbank_esx-tboot_6.5.0-3.153.17459147
  • VMware_bootbank_vsanhealth_6.5.0-3.153.17131461
  • VMware_bootbank_vsan_6.5.0-3.153.17131452
  • VMware_bootbank_esx-base_6.5.0-3.153.17459147
PR corregidas  2686295, 2686296, 2689538
Números de CVE relacionados CVE-2021-21974

Esta revisión actualiza los VIB esx-base, esx-tboot, vsan y vsanhealth para resolver los siguientes problemas:

  • OpenSLP como se utiliza en ESXi tiene una vulnerabilidad de desbordamiento de pila. Un actor malintencionado que resida en el mismo segmento de red que ESXi, que tenga acceso al puerto 427, podría activar el problema de desbordamiento de pila en el servicio OpenSLP, lo que da como resultado la ejecución de código remoto. El proyecto de vulnerabilidades y exposiciones comunes (Common Vulnerabilities and Exposures, cve.mitre.org) asignó el identificador CVE-2021-21974 a este problema. Para obtener más información, consulte el aviso de seguridad de VMware VMSA-2021-0002.

  • Actualización de la base de datos SQLite

    La base de datos SQLite se actualizó a la versión 3.33.0.

  • Actualización de OpenSSL

    El paquete de OpenSSL se actualizó a la versión openssl-1.0.2x.

  • Actualización de cURL

    La biblioteca cURL se actualizó a la versión 7.72.0.

  • Actualización de la biblioteca Python

    La biblioteca Python de terceros se actualizó a la versión 3.5.10.

  • Actualización del daemon del protocolo de tiempo de red (Network Time Protocol, NTP)

    El daemon de NTP se actualizó a la versión ntp-4.2.8p15.

ESXi650-202102102-SG
Categoría de revisión Seguridad
Gravedad de la revisión Importante
Reinicio de host requerido
Migración de máquina virtual o apagado requeridos
Hardware afectado N/C
Software afectado N/C
VIB que se incluyen VMW_bootbank_net-e1000_8.0.3.1-5vmw.650.3.153.17459147
PR corregidas  N/C
Números de CVE relacionados N/C

Esta revisión actualiza el VIB net-e1000.

    ESXi650-202102103-SG
    Categoría de revisión Seguridad
    Gravedad de la revisión Moderado
    Reinicio de host requerido No
    Migración de máquina virtual o apagado requeridos No
    Hardware afectado N/C
    Software afectado N/C
    VIB que se incluyen VMware_locker_tools-light_6.5.0-3.153.17459147
    PR corregidas  2687436
    Números de CVE relacionados N/C

    Esta revisión actualiza el VIB tools-light para resolver el siguiente problema:

    ESXi-6.5.0-20210204001-standard
    Nombre del perfil ESXi-6.5.0-20210204001-standard
    Compilación Para obtener información de compilación, consulte la parte superior de la página.
    Proveedor VMware, Inc.
    Fecha de versión 4 de febrero de 2021
    Nivel de aceptación PartnerSupported
    Hardware afectado N/C
    Software afectado N/C
    VIB afectados
    • VMware_bootbank_vsan_6.5.0-3.157.17299463
    • VMware_bootbank_vsanhealth_6.5.0-3.157.17299464
    • VMware_bootbank_esx-base_6.5.0-3.157.17477841
    • VMware_bootbank_esx-tboot_6.5.0-3.157.17477841
    • VMW_bootbank_nvme_1.2.2.28-4vmw.650.3.157.17477841
    PR corregidas 2571797, 2614876, 2641918, 2649146, 2665433, 2641030, 2643261, 2600691, 2609377, 2663642, 2686646, 2657658, 2610707, 2102346, 2601293, 2678799, 2666929, 2672518, 2677274, 2651994, 2683360, 2634074, 2621142, 2587398, 2649283, 2647832, 2658926
    Números de CVE relacionados N/C
    • Esta revisión actualiza los siguientes problemas:
      • Si edita la configuración de una máquina virtual en ejecución para cambiar una unidad de CD/DVD virtual existente y convertirla en un dispositivo cliente, en algunos casos, la máquina virtual se apaga y queda en un estado no válido. Después del error, no se puede encender ni utilizar la máquina virtual. En hostd.log se muestra un error como el siguiente:
        Expected permission (3) for /dev/cdrom/mpx.vmhba2:C0:T7:L0 not found.

        Si el nodo del dispositivo virtual se establece en SATA(0:0), en el archivo de configuración de máquina virtual, verá una entrada como la siguiente:
        sata0:0.fileName = "/vmfs/devices/cdrom/mpx.vmhba2:C0:T7:L0".

      • El parámetro de retraso de conmutación por recuperación de la formación de equipos de red en hosts ESXi, Net.TeamPolicyUpDelay, está establecido actualmente en 10 minutos, pero, en ciertos entornos, un conmutador físico puede tardar más de 10 minutos en estar listo para recibir o transmitir datos después de un reinicio. Como resultado, es posible observar una pérdida de conectividad de red.

      • El cifrado de máquinas virtuales puede tardar varias horas y, en última instancia, fallar con un error El archivo ya existe en los registros de hostd. El problema se produce si existe un archivo huérfano o no utilizado <nombre de máquina virtual>.nvram en los archivos de configuración de máquina virtual. Si las máquinas virtuales tienen una entrada como NVRAM = "nvram" en el archivo .vmx, la operación de cifrado crea un archivo cifrado con la extensión de archivo NVRAM, que el sistema considera un duplicado del archivo huérfano existente.

      • Una cadena UTF-8 con formato incorrecto podría provocar un error en el servicio vpxa y hacer que los hosts ESXi pierdan conectividad con el sistema vCenter Server. En los registros de hostd, puede ver los registros de una tarea vim.SimpleCommand disputada que indican el problema:
        hostd.log:34139:2020-09-17T02:38:19.798Z info hostd[3408470] [Originator@6876 sub=Vimsvc.TaskManager opID=6ba8e50e-90-60f9 user=vpxuser:VSPHERE.LOCAL\Administrator] Tarea completada: haTask--vim.SimpleCommand.Execute-853061619 Status success
        En los registros de vpxa, aparecen mensajes como: vpxa.log:7475:2020-09-17T02:38:19.804Z info vpxa[3409126] [Originator@6876 sub=Default opID=WFU-53423ccc] [Vpxa] Apagando ahora

      • Si deshabilita RC4 en la configuración de Active Directory, es posible que se produzca un error en la autenticación de usuario en los hosts ESXi y se genere el mensaje El usuario no se pudo autenticar.

      • Cualquier actividad de reconfiguración del filtro de DFW, como agregar o quitar filtros, puede provocar que algunos filtros empiecen a descartar paquetes. Como resultado, las máquinas virtuales pierden la conectividad de red y es necesario restablecer la vmnic, cambiar el grupo de puertos o reiniciar la máquina virtual para restaurar el tráfico. En el resultado del comando summarize-dvfilter, se muestra el estado: IOChain Detaching for the failed filter.

      • Un error inusual al analizar cadenas en las propiedades de vSphere Network Appliance (DVFilter) de un vSphere Distributed Switch puede provocar un error en todo el tráfico procedente o con destino a las máquinas virtuales de un conmutador lógico determinado.

      • Si configura un filtro en el sistema vCenter Server mediante la función Proactive HA para omitir ciertas actualizaciones de estado, como bloquear condiciones de error, es posible que el filtro no se aplique después de reiniciar el servicio vpxd. Como resultado, es posible que un host ESXi pase inesperadamente al modo de mantenimiento debido a un problema de hardware informado por Proactive HA.

      • Debido a una condición de carrera inusual, al crear una instancia del agente DVFilter, es posible que el agente reciba un mensaje de cambio de configuración de rutina antes de que esté completamente configurado. La condición de carrera puede provocar que el host ESXi genere un error y aparezca una pantalla de diagnóstico de color morado. Verá un error similar a Exception 14 (Page Fault) en los registros de depuración.

      • Si el UUID de una máquina virtual cambia, por ejemplo, después de una migración mediante vSphere vMotion, y la máquina virtual tiene una vNIC en un conmutador administrado de NSX-T, la máquina virtual pierde la conectividad de red. La vNIC no se puede volver a conectar.

      • Se produce un error en los hosts ESXi y aparece una pantalla de diagnóstico de color morado con errores de VMkernel como los siguientes:
        Panic Details: Crash at xxxx-xx-xx:xx:xx.xxxx on CPU xx running world xxx - HBR[xx.xx.xx.xx]:xxx:xxx
        Panic Message: @BlueScreen: Spin count exceeded - possible deadlock with PCPU 24

      • Después de actualizar los servidores de HPE, como HPE ProLiant Gen10 y Gen10 Plus, a la versión 2.30 del firmware iLO 5, en vSphere Web Client se muestran alertas de estado del sensor de memoria. El problema se produce debido a que el sistema de supervisión del estado del hardware no descodifica correctamente los sensores Mem_Stat_* cuando se habilita el primer LUN después de la actualización.

      • Un host ESXi puede perder la conectividad con el sistema vCenter Server y no se puede acceder al host a través de vSphere Client o vSphere Web Client. En la DCUI, verá el mensaje ALERTA: Se detectó que hostd no responde. El problema se produce debido a daños en la memoria, que ocurren en el complemento CIM al obtener los datos del sensor para comprobaciones periódicas de estado del hardware.

      • Es posible que no vea los almacenes de datos NFS mediante una solución de tolerancia a errores de Nutanix montada en el sistema vCenter Server después de un reinicio del host ESXi. Sin embargo, puede ver los volúmenes en el host ESXi.

      • Es posible que las operaciones con hosts ESXi sin estado, como la migración de almacenamiento, no seleccionen el disco remoto esperado para la memoria caché del sistema. Por ejemplo, desea mantener el nuevo LUN de arranque como LUN 0, pero vSphere Auto Deploy elige LUN 1.

      • Si falta una comprobación NULL en una operación vim.VirtualDiskManager.revertToChildDisk activada por VMware vSphere Replication en discos virtuales que no admiten esta operación, podría producirse un error en el servicio hostd. Por lo tanto, el host ESXi pierde conectividad con el sistema vCenter Server.

      • En raras ocasiones, cuando el servicio hostd actualiza la configuración de red después de una actualización de ESXi, en vSphere Web Client o vSphere Client es posible que se muestren conjuntos de puertos ocultos, como pps y DVFilter Coalesce Portset, que no forman parte de la configuración.

      • Las operaciones de la máquina virtual, como el encendido y la copia de seguridad, pueden generar errores en los almacenes de datos NFS3 debido a un error JUKEBOX devuelto por el servidor NFS.

      • Si el proceso Xorg no se reinicia mientras un host ESXi sale del modo de mantenimiento, es posible que el servicio hostd deje de responder, ya que no puede completar la operación de salida.

      • Después de una breve interrupción del almacenamiento, es posible que tras la recuperación de las máquinas virtuales, el diseño del disco no se actualice y permanezca incompleto. Como resultado, es posible que vea errores en su entorno. Por ejemplo, en los registros de View Composer en un entorno de VMware Horizon, es posible que aparezca un error repetido, como InvalidSnapshotDiskConfiguration.

      • Si tiene más de un LAG en su entorno y el vínculo superior LACP de un host ESXi de destino está inactivo, es posible que se produzca un error de compatibilidad en las operaciones de vSphere vMotion. En vSphere Web Client o vSphere Client, es posible que aparezca un error como el siguiente:
        # La interfaz de red conectada actualmente 'Adaptador de red 1' usa la red 'xxxx', que no está accesible.

      • Si habilita el intercambio host-local para un host ESXi independiente, o si cambia el almacén de datos de archivos de intercambio a otra ubicación de almacenamiento compartido mientras se ejecuta una máquina virtual, la máquina virtual podría finalizar y marcarse como no válida después de un restablecimiento completo.

      • En vSphere Web Client, es posible que no pueda cambiar la configuración del nivel de registro del servicio VPXA en un host ESX debido a que la opción Vpx.Vpxa.config.log.level falta o no es válida después de una actualización del sistema vCenter Server.

      • Si se reemplaza un adaptador de red o se cambia la dirección del adaptador de red, es posible que las máquinas virtuales Linux que usan firmware EFI e iPXE para arrancar desde una red dejen de responder. Por ejemplo, el problema se produce cuando se convierte una máquina virtual de este tipo en una plantilla de máquina virtual y, a continuación, se implementan otras máquinas virtuales a partir de esa plantilla.

      • El agente DVFilter utiliza una pila común para asignar espacio para sus estructuras y búferes internos, así como para las asignaciones temporales utilizadas para mover el estado de los agentes cliente durante las operaciones de vSphere vMotion.
        En algunas implementaciones y escenarios, los estados del filtro pueden tener un tamaño muy grande y agotar la pila durante las operaciones de vSphere vMotion.
        En los registros de VMkernel, aparece un error como el siguiente: Se produjo un error durante la espera de datos. Error bad0014. Out of memory.

      • Es posible que el comando vsan.disk_object_info de RVC no pueda imprimir la información de uno o varios hosts ESXi. El comando devuelve el siguiente error: El servidor no pudo consultar los objetos en disco de vSAN.

      • El controlador NVMe proporciona una interfaz de administración que le permite crear herramientas para acceder directamente a comandos de administrador de NVMe. Sin embargo, la dirección de transferencia de datos para los comandos específicos del proveedor se establece como de dispositivo a host. Como resultado, algunos comandos de escritura específicos del proveedor no pueden completarse correctamente. Por ejemplo, un comando Flash de la utilidad de CLI de Marvell no puede sobrescribir el firmware de SSD NVMe en una controladora Tinker de HPE.

    ESXi-6.5.0-20210204001-no-tools
    Nombre del perfil ESXi-6.5.0-20210204001-no-tools
    Compilación Para obtener información de compilación, consulte la parte superior de la página.
    Proveedor VMware, Inc.
    Fecha de versión 4 de febrero de 2021
    Nivel de aceptación PartnerSupported
    Hardware afectado N/C
    Software afectado N/C
    VIB afectados
    • VMware_bootbank_vsan_6.5.0-3.157.17299463
    • VMware_bootbank_vsanhealth_6.5.0-3.157.17299464
    • VMware_bootbank_esx-base_6.5.0-3.157.17477841
    • VMware_bootbank_esx-tboot_6.5.0-3.157.17477841
    • VMW_bootbank_nvme_1.2.2.28-4vmw.650.3.157.17477841
    PR corregidas 2571797, 2614876, 2641918, 2649146, 2665433, 2641030, 2643261, 2600691, 2609377, 2663642, 2686646, 2657658, 2610707, 2102346, 2601293, 2678799, 2666929, 2672518, 2677274, 2651994, 2683360, 2634074, 2621142, 2587398, 2649283, 2647832, 2658926
    Números de CVE relacionados N/C
    • Esta revisión actualiza los siguientes problemas:
      • Si edita la configuración de una máquina virtual en ejecución para cambiar una unidad de CD/DVD virtual existente y convertirla en un dispositivo cliente, en algunos casos, la máquina virtual se apaga y queda en un estado no válido. Después del error, no se puede encender ni utilizar la máquina virtual. En hostd.log se muestra un error como el siguiente:
        Expected permission (3) for /dev/cdrom/mpx.vmhba2:C0:T7:L0 not found.

        Si el nodo del dispositivo virtual se establece en SATA(0:0), en el archivo de configuración de máquina virtual, verá una entrada como la siguiente:
        sata0:0.fileName = "/vmfs/devices/cdrom/mpx.vmhba2:C0:T7:L0".

      • El parámetro de retraso de conmutación por recuperación de la formación de equipos de red en hosts ESXi, Net.TeamPolicyUpDelay, está establecido actualmente en 10 minutos, pero, en ciertos entornos, un conmutador físico puede tardar más de 10 minutos en estar listo para recibir o transmitir datos después de un reinicio. Como resultado, es posible observar una pérdida de conectividad de red.

      • El cifrado de máquinas virtuales puede tardar varias horas y, en última instancia, fallar con un error El archivo ya existe en los registros de hostd. El problema se produce si existe un archivo huérfano o no utilizado <nombre de máquina virtual>.nvram en los archivos de configuración de máquina virtual. Si las máquinas virtuales tienen una entrada como NVRAM = "nvram" en el archivo .vmx, la operación de cifrado crea un archivo cifrado con la extensión de archivo NVRAM, que el sistema considera un duplicado del archivo huérfano existente.

      • Una cadena UTF-8 con formato incorrecto podría provocar un error en el servicio vpxa y hacer que los hosts ESXi pierdan conectividad con el sistema vCenter Server. En los registros de hostd, puede ver los registros de una tarea vim.SimpleCommand disputada que indican el problema:
        hostd.log:34139:2020-09-17T02:38:19.798Z info hostd[3408470] [Originator@6876 sub=Vimsvc.TaskManager opID=6ba8e50e-90-60f9 user=vpxuser:VSPHERE.LOCAL\Administrator] Tarea completada: haTask--vim.SimpleCommand.Execute-853061619 Status success
        En los registros de vpxa, aparecen mensajes como: vpxa.log:7475:2020-09-17T02:38:19.804Z info vpxa[3409126] [Originator@6876 sub=Default opID=WFU-53423ccc] [Vpxa] Apagando ahora

      • Si deshabilita RC4 en la configuración de Active Directory, es posible que se produzca un error en la autenticación de usuario en los hosts ESXi y se genere el mensaje El usuario no se pudo autenticar.

      • Cualquier actividad de reconfiguración del filtro de DFW, como agregar o quitar filtros, puede provocar que algunos filtros empiecen a descartar paquetes. Como resultado, las máquinas virtuales pierden la conectividad de red y es necesario restablecer la vmnic, cambiar el grupo de puertos o reiniciar la máquina virtual para restaurar el tráfico. En el resultado del comando summarize-dvfilter, se muestra el estado: IOChain Detaching for the failed filter.

      • Un error inusual al analizar cadenas en las propiedades de vSphere Network Appliance (DVFilter) de un vSphere Distributed Switch puede provocar un error en todo el tráfico procedente o con destino a las máquinas virtuales de un conmutador lógico determinado.

      • Si configura un filtro en el sistema vCenter Server mediante la función Proactive HA para omitir ciertas actualizaciones de estado, como bloquear condiciones de error, es posible que el filtro no se aplique después de reiniciar el servicio vpxd. Como resultado, es posible que un host ESXi pase inesperadamente al modo de mantenimiento debido a un problema de hardware informado por Proactive HA.

      • Debido a una condición de carrera inusual, al crear una instancia del agente DVFilter, es posible que el agente reciba un mensaje de cambio de configuración de rutina antes de que esté completamente configurado. La condición de carrera puede provocar que el host ESXi genere un error y aparezca una pantalla de diagnóstico de color morado. Verá un error similar a Exception 14 (Page Fault) en los registros de depuración.

      • Si el UUID de una máquina virtual cambia, por ejemplo, después de una migración mediante vSphere vMotion, y la máquina virtual tiene una vNIC en un conmutador administrado de NSX-T, la máquina virtual pierde la conectividad de red. La vNIC no se puede volver a conectar.

      • Se produce un error en los hosts ESXi y aparece una pantalla de diagnóstico de color morado con errores de VMkernel como los siguientes:
        Panic Details: Crash at xxxx-xx-xx:xx:xx.xxxx on CPU xx running world xxx - HBR[xx.xx.xx.xx]:xxx:xxx
        Panic Message: @BlueScreen: Spin count exceeded - possible deadlock with PCPU 24

      • Después de actualizar los servidores de HPE, como HPE ProLiant Gen10 y Gen10 Plus, a la versión 2.30 del firmware iLO 5, en vSphere Web Client se muestran alertas de estado del sensor de memoria. El problema se produce debido a que el sistema de supervisión del estado del hardware no descodifica correctamente los sensores Mem_Stat_* cuando se habilita el primer LUN después de la actualización.

      • Un host ESXi puede perder la conectividad con el sistema vCenter Server y no se puede acceder al host a través de vSphere Client o vSphere Web Client. En la DCUI, verá el mensaje ALERTA: Se detectó que hostd no responde. El problema se produce debido a daños en la memoria, que ocurren en el complemento CIM al obtener los datos del sensor para comprobaciones periódicas de estado del hardware.

      • Es posible que no vea los almacenes de datos NFS mediante una solución de tolerancia a errores de Nutanix montada en el sistema vCenter Server después de un reinicio del host ESXi. Sin embargo, puede ver los volúmenes en el host ESXi.

      • Es posible que las operaciones con hosts ESXi sin estado, como la migración de almacenamiento, no seleccionen el disco remoto esperado para la memoria caché del sistema. Por ejemplo, desea mantener el nuevo LUN de arranque como LUN 0, pero vSphere Auto Deploy elige LUN 1.

      • Si falta una comprobación NULL en una operación vim.VirtualDiskManager.revertToChildDisk activada por VMware vSphere Replication en discos virtuales que no admiten esta operación, podría producirse un error en el servicio hostd. Por lo tanto, el host ESXi pierde conectividad con el sistema vCenter Server.

      • En raras ocasiones, cuando el servicio hostd actualiza la configuración de red después de una actualización de ESXi, en vSphere Web Client o vSphere Client es posible que se muestren conjuntos de puertos ocultos, como pps y DVFilter Coalesce Portset, que no forman parte de la configuración.

      • Las operaciones de la máquina virtual, como el encendido y la copia de seguridad, pueden generar errores en los almacenes de datos NFS3 debido a un error JUKEBOX devuelto por el servidor NFS.

      • Si el proceso Xorg no se reinicia mientras un host ESXi sale del modo de mantenimiento, es posible que el servicio hostd deje de responder, ya que no puede completar la operación de salida.

      • Después de una breve interrupción del almacenamiento, es posible que tras la recuperación de las máquinas virtuales, el diseño del disco no se actualice y permanezca incompleto. Como resultado, es posible que vea errores en su entorno. Por ejemplo, en los registros de View Composer en un entorno de VMware Horizon, es posible que aparezca un error repetido, como InvalidSnapshotDiskConfiguration.

      • Si tiene más de un LAG en su entorno y el vínculo superior LACP de un host ESXi de destino está inactivo, es posible que se produzca un error de compatibilidad en las operaciones de vSphere vMotion. En vSphere Web Client o vSphere Client, es posible que aparezca un error como el siguiente:
        # La interfaz de red conectada actualmente 'Adaptador de red 1' usa la red 'xxxx', que no está accesible.

      • Si habilita el intercambio host-local para un host ESXi independiente, o si cambia el almacén de datos de archivos de intercambio a otra ubicación de almacenamiento compartido mientras se ejecuta una máquina virtual, la máquina virtual podría finalizar y marcarse como no válida después de un restablecimiento completo.

      • En vSphere Web Client, es posible que no pueda cambiar la configuración del nivel de registro del servicio VPXA en un host ESX debido a que la opción Vpx.Vpxa.config.log.level falta o no es válida después de una actualización del sistema vCenter Server.

      • Si se reemplaza un adaptador de red o se cambia la dirección del adaptador de red, es posible que las máquinas virtuales Linux que usan firmware EFI e iPXE para arrancar desde una red dejen de responder. Por ejemplo, el problema se produce cuando se convierte una máquina virtual de este tipo en una plantilla de máquina virtual y, a continuación, se implementan otras máquinas virtuales a partir de esa plantilla.

      • El agente DVFilter utiliza una pila común para asignar espacio para sus estructuras y búferes internos, así como para las asignaciones temporales utilizadas para mover el estado de los agentes cliente durante las operaciones de vSphere vMotion.
        En algunas implementaciones y escenarios, los estados del filtro pueden tener un tamaño muy grande y agotar la pila durante las operaciones de vSphere vMotion.
        En los registros de VMkernel, aparece un error como el siguiente: Se produjo un error durante la espera de datos. Error bad0014. Out of memory.

      • Es posible que el comando vsan.disk_object_info de RVC no pueda imprimir la información de uno o varios hosts ESXi. El comando devuelve el siguiente error: El servidor no pudo consultar los objetos en disco de vSAN.

      • El controlador NVMe proporciona una interfaz de administración que le permite crear herramientas para acceder directamente a comandos de administrador de NVMe. Sin embargo, la dirección de transferencia de datos para los comandos específicos del proveedor se establece como de dispositivo a host. Como resultado, algunos comandos de escritura específicos del proveedor no pueden completarse correctamente. Por ejemplo, un comando Flash de la utilidad de CLI de Marvell no puede sobrescribir el firmware de SSD NVMe en una controladora Tinker de HPE.

    ESXi-6.5.0-20210201001s-standard
    Nombre del perfil ESXi-6.5.0-20210201001s-standard
    Compilación Para obtener información de compilación, consulte la parte superior de la página.
    Proveedor VMware, Inc.
    Fecha de versión 4 de febrero de 2021
    Nivel de aceptación PartnerSupported
    Hardware afectado N/C
    Software afectado N/C
    VIB afectados
    • VMware_bootbank_esx-tboot_6.5.0-3.153.17459147
    • VMware_bootbank_vsanhealth_6.5.0-3.153.17131461
    • VMware_bootbank_vsan_6.5.0-3.153.17131452
    • VMware_bootbank_esx-base_6.5.0-3.153.17459147
    • VMW_bootbank_net-e1000_8.0.3.1-5vmw.650.3.153.17459147
    • VMware_locker_tools-light_6.5.0-3.153.17459147
    PR corregidas 2686295, 2686296, 2689538, 2687436
    Números de CVE relacionados CVE-2021-21974
    • Esta revisión actualiza los siguientes problemas:
      • OpenSLP como se utiliza en ESXi tiene una vulnerabilidad de desbordamiento de pila. Un actor malintencionado que resida en el mismo segmento de red que ESXi, que tenga acceso al puerto 427, podría activar el problema de desbordamiento de pila en el servicio OpenSLP, lo que da como resultado la ejecución de código remoto. El proyecto de vulnerabilidades y exposiciones comunes (Common Vulnerabilities and Exposures, cve.mitre.org) asignó el identificador CVE-2021-21974 a este problema. Para obtener más información, consulte el aviso de seguridad de VMware VMSA-2021-0002.

      • La base de datos SQLite se actualizó a la versión 3.33.0.

      • El paquete de OpenSSL se actualizó a la versión openssl-1.0.2x.

      • La biblioteca cURL se actualizó a la versión 7.72.0.

      • La biblioteca Python de terceros se actualizó a la versión 3.5.10.

      • El daemon de NTP se actualizó a la versión ntp-4.2.8p15.

      • Las siguientes imágenes ISO de VMware Tools están empaquetadas con ESXi 650-202102001:

    ESXi-6.5.0-20210201001s-no-tools
    Nombre del perfil ESXi-6.5.0-20210201001s-no-tools
    Compilación Para obtener información de compilación, consulte la parte superior de la página.
    Proveedor VMware, Inc.
    Fecha de versión 4 de febrero de 2021
    Nivel de aceptación PartnerSupported
    Hardware afectado N/C
    Software afectado N/C
    VIB afectados
    • VMware_bootbank_esx-tboot_6.5.0-3.153.17459147
    • VMware_bootbank_vsanhealth_6.5.0-3.153.17131461
    • VMware_bootbank_vsan_6.5.0-3.153.17131452
    • VMware_bootbank_esx-base_6.5.0-3.153.17459147
    • VMW_bootbank_net-e1000_8.0.3.1-5vmw.650.3.153.17459147
    PR corregidas 2686295, 2686296, 2689538, 2687436
    Números de CVE relacionados CVE-2021-21974
    • Esta revisión actualiza los siguientes problemas:
      • OpenSLP como se utiliza en ESXi tiene una vulnerabilidad de desbordamiento de pila. Un actor malintencionado que resida en el mismo segmento de red que ESXi, que tenga acceso al puerto 427, podría activar el problema de desbordamiento de pila en el servicio OpenSLP, lo que da como resultado la ejecución de código remoto. El proyecto de vulnerabilidades y exposiciones comunes (Common Vulnerabilities and Exposures, cve.mitre.org) asignó el identificador CVE-2021-21974 a este problema. Para obtener más información, consulte el aviso de seguridad de VMware VMSA-2021-0002.

      • La base de datos SQLite se actualizó a la versión 3.33.0.

      • El paquete de OpenSSL se actualizó a la versión openssl-1.0.2x.

      • La biblioteca cURL se actualizó a la versión 7.72.0.

      • La biblioteca Python de terceros se actualizó a la versión 3.5.10.

      • El daemon de NTP se actualizó a la versión ntp-4.2.8p15.

      • Las siguientes imágenes ISO de VMware Tools están empaquetadas con ESXi 650-202102001:

    Problemas conocidos

    Los problemas conocidos se agrupan del siguiente modo:

    Problemas de actualización
    • Se puede producir un error en las actualizaciones a ESXi 7.x desde esxi650-202102001 mediante ESXCLI debido a una limitación de espacio

      Se puede producir un error en las actualizaciones a ESXi 7.x desde esxi650-202102001 mediante el uso de los comandos de ESXCLI esxcli software profile update o esxcli software profile install, ya que la partición bootbank de ESXi puede ser menor que el tamaño del perfil de imagen. En ESXi Shell o en el shell de PowerCLI, se muestra un error como el siguiente:

       [InstallationError]
       La transacción pendiente requiere 244 MB de espacio libre; sin embargo, el tamaño máximo admitido es de 239 MB.
       Consulte el archivo de registro para obtener más detalles.

      El problema también se produce cuando se intenta realizar una actualización de host ESXi mediante los comandos de ESXCLI esxcli software vib update o esxcli software vib install.

      Solución alternativa: Puede realizar la actualización en dos pasos, si utiliza el comando esxcli software profile update para actualizar hosts ESXi a ESXi 6.7 Update 1 o una versión posterior y, a continuación, actualiza a 7.x. Como alternativa, puede ejecutar una actualización mediante una imagen ISO y vSphere Lifecycle Manager.

    Problemas conocidos de versiones anteriores

    Para ver una lista de los problemas conocidos anteriores, haga clic aquí.

    check-circle-line exclamation-circle-line close-line
    Scroll to top icon