This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

ESXi 7.0 Update 2c | 24 de agosto de 2021 | Compilación 18426014

Compruebe las adiciones y las actualizaciones de las notas de la versión.

Contenido de las notas de la versión

Las notas de la versión abarcan los siguientes temas:

Novedades

  • ESXi 7.0 Update 2c proporciona correcciones de errores y seguridad documentadas en la sección Problemas resueltos.

Versiones anteriores de ESXi 7.0

Las características nuevas, los problemas resueltos y los problemas conocidos de ESXi se describen en las notas de la versión de cada versión. Las notas de las versiones anteriores de ESXi 7.0 son las siguientes:

Para obtener información sobre internacionalización, compatibilidad y componentes de código abierto, consulte las Notas de la versión de VMware vSphere 7.0.

Para obtener más información sobre las versiones de ESXi que admiten la actualización a ESXi 7.0 Update 2c, consulte el artículo 67077 de la base de conocimientos de VMware.

Revisiones incluidas en esta versión

Esta versión de ESXi 7.0 Update 2c tiene las siguientes revisiones:

Detalles de la compilación

Nombre de archivo de descarga: VMware-ESXi-7.0U2c-18426014-depot
Compilación: 18426014
Tamaño de descarga: 580,8 MB
md5sum: a6b2d1e3a1a071b8d93a55d7a7fc0b63
sha1checksum: 829da0330f765b4ae46c2fb5b90a8b60f90e4e5b
Reinicio requerido del host:
Migración de máquina virtual o apagado requeridos:

Componentes

Componente Boletín Categoría Gravedad
Componente de ESXi: VIB principales ESXi ESXi_7.0.2-0.20.18426014 Corrección de error Crítico
Controlador Emulex FC Broadcom-ELX-lpfc_12.8.298.3-2vmw.702.0.20.18426014 Corrección de error Crítico
Controladores Broadcom NetXtreme-E Network y ROCE/RDMA para VMware ESXi Broadcom-bnxt-Net-RoCE_216.0.0.0-1vmw.702.0.20.18426014 Corrección de error Importante
Controladores RoCE/RDMA y Ethernet QLogic FastLinQ 10/25/40/50/100 GbE para VMware ESXi MRVL-E4-CNA-Driver-Bundle_1.0.0.0-1vmw.702.0.20.18426014 Corrección de error Importante
Componente de instalación/actualización de ESXi esx-update_7.0.2-0.20.18426014 Corrección de error Crítico
Controlador de red para adaptadores Intel(R) X710/XL710/XXV710/X722 Intel-i40en_1.8.1.137-1vmw.702.0.20.18426014 Corrección de error Crítico
Controlador USB VMware-vmkusb_0.1-4vmw.702.0.20.18426014 Corrección de error Crítico
Componente de ESXi: VIB principales ESXi ESXi_7.0.2-0.15.18295176 Seguridad Crítico
Controlador USB VMware-vmkusb_0.1-1vmw.702.0.15.18295176 Seguridad Moderado
Componente de herramientas de ESXi VMware-VM-Tools_11.2.6.17901274-18295176 Seguridad Crítico
Componente de instalación/actualización de ESXi esx-update_7.0.2-0.15.18295176 Seguridad Crítico

IMPORTANTE:

  • Para descargar el archivo ZIP del almacén sin conexión de revisión de ESXi 7.0 Update 2c desde VMware Customer Connect, desplácese a Productos and Accounts (Productos y cuentas) > Product Patches (Revisiones de productos). En el menú desplegable Select a Product (Seleccionar un producto), seleccione ESXi (Embedded and Installable) y, en el menú desplegable Select a Version (Seleccionar una versión), seleccione 7.0.
  • A partir de vSphere 7.0, VMware utiliza componentes para empaquetar los VIB junto con los boletines. Los boletines de ESXi y esx-update dependen entre sí. Incluya siempre a ambos en una sola línea base de revisión de host ESXi, o bien incluya el boletín acumulativo en la línea base para evitar errores durante la aplicación de revisiones de hosts. 
  • Cuando se aplican revisiones de hosts ESXi mediante VMware Update Manager desde una versión anterior a ESXi 7.0 Update 2, se recomienda encarecidamente utilizar el boletín acumulativo de actualizaciones en la línea base de revisión. Si no puede utilizar el boletín acumulativo de actualizaciones, asegúrese de incluir todos los paquetes a continuación en la línea base de revisión. Si los siguientes paquetes no se incluyen en la línea base, se produce un error en la operación de actualización:
    • VMware-vmkusb_0.1-1vmw.701.0.0.16850804 o una versión superior
    • VMware-vmkata_0.1-1vmw.701.0.0.16850804 o una versión superior
    • VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 o una versión superior
    • VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 o una versión superior

Boletín acumulativo de actualizaciones

Este boletín acumulativo de actualizaciones contiene los VIB más recientes con todas las revisiones posteriores a la publicación inicial de ESXi 7.0.

Identificador del boletín Categoría Gravedad Detalles
ESXi-7.0U2c-18426014 Corrección de error Crítico Corrección de error y seguridad
ESXi-7.0U2sc-18295176 Seguridad Crítico Solo seguridad

Perfiles de imagen

Las versiones de revisiones y actualizaciones de VMware contienen perfiles de imagen general y de nivel crítico. El perfil de imagen general de la versión se aplica a las nuevas correcciones de errores.

Nombre del perfil de imagen
ESXi-7.0U2c-18426014-estándar
ESXi-7.0U2c-18426014-sin-herramientas
ESXi-7.0U2sc-18295176-estándar
ESXi-7.0U2sc-18295176-sin-herramientas

Imagen ESXi

Nombre y versión Fecha de versión Categoría Detalles
ESXi70U2c-18426014 08/24/2021 Corrección de error Imagen de corrección de error y seguridad
ESXi70U2sc-18295176 08/24/2021 Seguridad Imagen de solo seguridad

Para obtener información sobre los componentes individuales y boletines, consulte la página Revisiones de producto y la sección Problemas resueltos.

Descarga e instalación de revisiones

En vSphere 7.0.x, el componente Update Manager, que se utiliza para administrar vSphere Update Manager, se reemplaza con el componente Lifecycle Manager. Las operaciones administrativas de vSphere Update Manager aún están disponibles bajo el componente Lifecycle Manager, junto con nuevas capacidades de vSphere Lifecycle Manager.
La manera típica de aplicar las revisiones a los hosts de ESXi 7.0.x es utilizando vSphere Lifecycle Manager. Para obtener más detalles, consulte Información sobre vSphere Lifecycle Manager y Líneas base e imágenes de vSphere Lifecycle Manager.
También puede actualizar los hosts ESXi sin usar el complemento Lifecycle Manager y, en su lugar, usar un perfil de imagen. Para ello, debe descargar manualmente el archivo ZIP del paquete sin conexión de revisiones desde la página Revisiones de producto y usar el comando esxcli software profile update.
Para obtener más información, consulte la guía Actualizar los hosts a través de comandos ESXCLI y Actualizar VMware ESXi.

Avisos de compatibilidad con el producto

  • La retirada del módulo de plataforma de confianza (Trusted Platform Module, TPM) 1.2 en una versión principal futura de vSphere: VMware pretende en una versión principal futura de vSphere interrumpir la compatibilidad con TPM 1.2 y las funciones asociadas, como TPM 1.2 con TXT. Para aprovechar al máximo las funciones de vSphere, puede utilizar TPM 2.0 en lugar de TPM 1.2. La compatibilidad con TPM 1.2 continúa en todas las versiones, actualizaciones y revisiones vSphere 7.0.x. Sin embargo, no verá una advertencia de desuso para TPM 1.2 durante la instalación o las actualizaciones de las versiones 7.0.x.

  • El servicio del protocolo de ubicación de servicios (SLP) está deshabilitado de forma predeterminada: A partir de ESX 7.0 Update 2c, el servicio SLP está deshabilitado de forma predeterminada para evitar posibles vulnerabilidades de seguridad. El servicio SLP también se deshabilita automáticamente después de actualizar a ESX 7.0 Update 2c. Puede habilitar manualmente el servicio SLP mediante el comando esxcli system slp set --enable true. Para obtener más información, consulte el artículo 76372 de la base de conocimientos de VMware.

Problemas resueltos

Los problemas resueltos se agrupan del siguiente modo:

ESXi_7.0.2-0.20.18426014
Categoría de revisión Corrección de error
Gravedad de la revisión Crítico
Reinicio de host requerido
Migración de máquina virtual o apagado requeridos
Hardware afectado N/C
Software afectado N/C
VIB que se incluyen
  • VMware_bootbank_vsanhealth_7.0.2-0.20.18426014
  • VMware_bootbank_vsan_7.0.2-0.20.18426014
  • VMware_bootbank_gc_7.0.2-0.20.18426014
  • VMware_bootbank_esx-xserver_7.0.2-0.20.18426014
  • VMware_bootbank_clusterstore_7.0.2-0.20.18426014
  • VMware_bootbank_vdfs_7.0.2-0.20.18426014
  • VMware_bootbank_native-misc-drivers_7.0.2-0.20.18426014
  • VMware_bootbank_cpu-microcode_7.0.2-0.20.18426014
  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.20.18426014
  • VMware_bootbank_esx-base_7.0.2-0.20.18426014
PR corregidas 2717698, 2731446, 2515171, 2731306, 2751564, 2718934, 2755056, 2725886, 2725886, 2753231, 2728910, 2741111, 2759343, 2721379, 2751277, 2708326, 2755977, 2737934, 2777001, 2760932, 2731263, 2731142, 2760267, 2749688, 2763986, 2765534, 2766127, 2777003, 2778793, 2755807, 2760081, 2731644, 2749815, 2749962, 2738238, 2799408
Números CVE N/C

Los boletines de ESXi y esx-update dependen entre sí. Incluya siempre a ambos en una sola línea base de revisión de host ESXi, o bien incluya el boletín acumulativo en la línea base para evitar errores durante la aplicación de revisiones de hosts.

Actualiza los VIB crx, vsanhealth, vsan, gc, esx-xserver, clusterstore, vdfs, native-misc-drivers, cpu-microcode, esx-dvfilter-generic-fastpath y esx-base para resolver los siguientes problemas:

  • PR 2717698: Un host ESXi puede generar un error con una pantalla de diagnóstico de color púrpura debido a una condición de carrera inusual en el controlador qedentv

    Una condición de carrera inusual en el controlador qedentv puede provocar un error en un host ESXi con una pantalla de diagnóstico de color púrpura. El problema se produce cuando una interrupción completa de Rx llega justo después de que se destruya un par de colas (Queue Pair, QP) de la interfaz de servicios generales (General Services Interface, GSI), por ejemplo, durante la descarga de un controlador qedentv o el apagado del sistema. En tal caso, el controlador qedentv puede acceder a una dirección QP ya liberada, lo que provoca una excepción de PF. El problema puede ocurrir en hosts ESXi que están conectados a un conmutador físico ocupado con un gran volumen de tráfico no solicitado en la GSI. En el seguimiento inverso, se muestran mensajes similares al siguiente:

    cpu4:2107287)0x45389609bcb0:[0x42001d3e6f72]qedrntv_ll2_rx_cb@(qedrntv)#<None>+0x1be stack: 0x45b8f00a7740, 0x1e146d040, 0x432d65738d40, 0x0, 0x
    2021-02-11T03:31:53.882Z cpu4:2107287)0x45389609bd50:[0x42001d421d2a]ecore_ll2_rxq_completion@(qedrntv)#<None>+0x2ab stack: 0x432bc20020ed, 0x4c1e74ef0, 0x432bc2002000,
    2021-02-11T03:31:53.967Z cpu4:2107287)0x45389609bdf0:[0x42001d1296d0]ecore_int_sp_dpc@(qedentv)#<None>+0x331 stack: 0x0, 0x42001c3bfb6b, 0x76f1e5c0, 0x2000097, 0x14c2002
    2021-02-11T03:31:54.039Z cpu4:2107287)0x45389609be60:[0x42001c0db867]IntrCookieBH@vmkernel#nover+0x17c stack: 0x45389609be80, 0x40992f09ba, 0x43007a436690, 0x43007a43669
    2021-02-11T03:31:54.116Z cpu4:2107287)0x45389609bef0:[0x42001c0be6b0]BH_Check@vmkernel#nover+0x121 stack: 0x98ba, 0x33e72f6f6e20, 0x0, 0x8000000000000000, 0x430000000001
    2021-02-11T03:31:54.187Z cpu4:2107287)0x45389609bf70:[0x42001c28370c]NetPollWorldCallback@vmkernel#nover+0x129 stack: 0x61, 0x42001d0e0000, 0x42001c283770, 0x0, 0x0
    2021-02-11T03:31:54.256Z cpu4:2107287)0x45389609bfe0:[0x42001c380bad]CpuSched_StartWorld@vmkernel#nover+0x86 stack: 0x0, 0x42001c0c2b44, 0x0, 0x0, 0x0
    2021-02-11T03:31:54.319Z cpu4:2107287)0x45389609c000:[0x42001c0c2b43]Debug_IsInitialized@vmkernel#nover+0xc stack: 0x0, 0x0, 0x0, 0x0, 0x0
    2021-02-11T03:31:54.424Z cpu4:2107287)^[[45m^[[33;1mVMware ESXi 7.0.2 [Releasebuild-17435195 x86_64]^[[0m
    #PF Exception 14 in world 2107287:vmnic7-pollW IP 0x42001d3e6f72 addr 0x1c

    El problema está resuelto en esta versión.

  • PR 2731446: Mientras el dispositivo de vSphere Replication se enciende, es posible que se produzca un error en el servicio hostd y que los hosts ESXi no respondan temporalmente a vCenter Server

    En raras ocasiones, mientras se enciende el dispositivo de vSphere Replication, se puede producir un error en el servicio hostd y provocar que los hosts ESXi no respondan temporalmente a vCenter Server. El servicio hostd se reinicia automáticamente y la conectividad se restaura.

    El problema está resuelto en esta versión.

  • PR 2515171: Al editar un parámetro de opciones avanzadas en un perfil de host y establecer un valor como false, el valor se establece como true

    Cuando se intenta definir un valor como false para un parámetro de opción avanzada en un perfil de host, la interfaz de usuario crea un valor de cadena no vacío. Los valores que no están vacíos se interpretan como true y el parámetro de opción avanzada recibe el valor true en el perfil de host.

    El problema está resuelto en esta versión.

  • PR 2731306: Los hosts ESXi dejan de responder a vCenter Server con mensajes repetidos para errores de admisión

    Los hosts ESXi podrían dejar de responder a vCenter Server incluso cuando los hosts están accesibles y en ejecución. El problema se produce en imágenes de proveedor con controladores personalizados en los que ImageConfigManager consume más RAM que la asignada. Como resultado, errores repetidos de ImageConfigManager hacen que los hosts ESXi se desconecten de vCenter Server.
    En los registros de VMkernel, aparecen errores repetidos como:
    Admission failure in path: host/vim/vmvisor/hostd-tmp/sh.<pid1>:python.<pid2>:uw.<pid2>.
    En los registros de hostd, aparecen mensajes como: Task Created : haTask-ha-host-vim.host.ImageConfigManager.fetchSoftwarePackages-<sequence>, followed by: ForkExec(/usr/bin/sh) <pid1>, donde <pid1> identifica un proceso ImageConfigManager .

    El problema está resuelto en esta versión.

  • PR 2751564: Si disminuye el valor de la opción de configuración avanzada DiskMaxIOSize, se pueden producir errores en las operaciones de E/S de los hosts ESXi

    Si cambia la opción de configuración avanzada DiskMaxIOSize a un valor inferior, las operaciones de E/S con tamaños de bloque grandes pueden dividirse y colocarse en cola de forma incorrecta en la ruta de acceso de PSA. Como resultado, es posible que se agote el tiempo de espera de las operaciones de E/S de los hosts ESXi y se produzca un error.

    El problema está resuelto en esta versión.

  • PR 2718934: Las operaciones de encendido o apagado de las máquinas virtuales tardan demasiado tiempo

    En determinadas condiciones, las operaciones de encendido o apagado de las máquinas virtuales pueden tardar hasta 20 minutos. El problema se produce cuando el almacenamiento subyacente de las máquinas virtuales ejecuta una operación en segundo plano, como volver a examinar HBA o eventos de APD, y algunos bloqueos se mantienen continuamente.

    El problema está resuelto en esta versión. La solución elimina los bloqueos innecesarios en los recursos de almacenamiento e introduce una exclusión mutua rápida para mejorar el rendimiento de la operación de energía de la máquina virtual.

  • PR 2755056: se produce un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura debido a la diferencia de tamaño de respuesta de la página de datos de producto vitales (VPD)

    En raras ocasiones, cuando el tamaño de respuesta de la página VPD del host ESXi de destino es diferente en rutas distintas al host, ESXi puede escribir más bytes que la longitud asignada para una ruta de acceso determinada. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura y un mensaje como el siguiente:
    Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4878 - Corruption in dlmalloc

    El problema está resuelto en esta versión. La solución realiza un seguimiento del tamaño de las páginas de VPD mediante un campo independiente en lugar de depender del encabezado de respuesta de VPD.

  • PR 2725886: Una contención de bloqueo inusual puede provocar errores en algunas operaciones de la máquina virtual

    Una contención de bloqueo inusual puede provocar errores en las operaciones de la máquina virtual, como la conmutación por error o la migración.
    Los mensajes de error de bloqueo son similares a los siguientes:
    vol 'VM_SYS_11', lock at 480321536: [Req mode 1] Checking liveness:
    type 10c00003 offset 480321536 v 1940464, hb offset 3801088

    o
    Res3: 2496: Rank violation threshold reached: cid 0xc1d00002, resType 2, cnum 5 vol VM_SYS_11

    El problema está resuelto en esta versión.

  • PR 2766036: En la instancia de vSphere Client, se ven números incorrectos para el espacio aprovisionado de las máquinas virtuales

    En flujos de trabajo complicados que provocan la creación de varias máquinas virtuales, al desplazarse hasta Máquinas virtuales > Máquinas virtuales, es posible que aparezcan grandes números en la columna Espacio aprovisionado de algunas máquinas virtuales. Por ejemplo, 2,95 TB en lugar del espacio aprovisionado real de 25 GB.

    El problema está resuelto en esta versión.

  • PR 2753231: Se produce un error en un host ESXi con una pantalla de diagnóstico de color púrpura debido a un daño en la pila de llamadas en la pila de almacenamiento ESXi

    Al controlar el comando SCSI READ CAPACITY (10), es posible que ESXi copie el exceso de datos de la respuesta y dañe la pila de llamadas. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura.

    El problema está resuelto en esta versión.

  • PR 2728910: Es posible que los hosts ESX generen un error y aparezca una pantalla de diagnóstico de color púrpura cuando se enciendan las máquinas virtuales

    En muy raras ocasiones, es posible que no se bloqueen los clústeres de recursos de VMFS que se incluyen en una transacción de diario. Como resultado, durante el encendido de las máquinas virtuales, se puede producir un error en varios hosts ESXi con una pantalla de diagnóstico de color púrpura debido a la excepción 14 en la capa de VMFS. A continuación, se muestra un seguimiento típico de la pila y el mensaje que se ve en el registro de VMkernel:
    @BlueScreen: #PF Exception 14 in world 2097684:VSCSI Emulat IP 0x418014d06fca addr 0x0
    PTEs:0x16a47a027;0x600faa8007;0x0;
    2020-06-24T17:35:57.073Z cpu29:2097684)Inicio del código: 0x418013c00000 VMK uptime: 0:01:01:20.555
    2020-06-24T17:35:57.073Z cpu29:2097684)0x451a50a1baa0:[0x418014d06fca]Res6MemUnlockTxnRCList@esx#nover+0x176 pila: 0x1 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb10:[0x418014c7cdb6]J3_DeleteTransaction@esx#nover+0x33f pila: 0xbad0003
    2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb40:[0x418014c7db10]J3_AbortTransaction@esx#nover+0x105 pila: 0x0 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb80:[0x418014cbb752]Fil3_FinalizePunchFileHoleTxnVMFS6@esx#nover+0x16f pila: 0x430fe950e1f0
    2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bbd0:[0x418014c7252b]Fil3UpdateBlocks@esx#nover+0x348 pila: 0x451a50a1bc78 2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bce0:[0x418014c731dc]Fil3_PunchFileHoleWithRetry@esx#nover+0x89 pila: 0x451a50a1bec8
    2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bd90:[0x418014c739a5]Fil3_FileBlockUnmap@esx#nover+0x50e pila: 0x230eb5 2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be40:[0x418013c4c551]FSSVec_FileBlockUnmap@vmkernel#nover+0x6e pila: 0x230eb5
    2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be90:[0x418013fb87b1]VSCSI_ExecFSSUnmap@vmkernel#nover+0x8e pila: 0x0 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf00:[0x418013fb71cb]VSCSIDoEmulHelperIO@vmkernel#nover+0x2c pila: 0x430145fbe070
    2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf30:[0x418013ceadfa]HelperQueueFunc@vmkernel#nover+0x157 pila: 0x430aa05c9618 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bfe0:[0x418013f0eaa2]CpuSched_StartWorld@vmkernel#nover+0x77 pila: 0x0
    2020-06-24T17:35:57.083Z cpu29:2097684)base fs=0x0 gs=0x418047400000 Kgs=0x0

    El problema está resuelto en esta versión.

  • PR 2741111: Un error en algunas CPU Intel al reenviar capturas de excepción de depuración (#DB) puede provocar un error triple en la máquina virtual

    En raras ocasiones, es posible que algunas CPU Intel no puedan reenviar capturas de #DB y, si se produce una interrupción del temporizador durante la llamada del sistema Windows, la máquina virtual podría triplicar el error.

    El problema está resuelto en esta versión. La solución reenvía todas las capturas #DB de las CPU al sistema operativo invitado, excepto cuando la captura de la base de datos proviene de un depurador conectado a la máquina virtual.

  • PR 2759343: El servicio sfcbd no se inicia al reiniciar agentes de administración de ESXi desde la interfaz de usuario de la consola directa (DCUI)

    Si reinicia agentes de administración de ESXi desde DCUI, el servicio sfcbd no se inicia. Debe iniciar manualmente el servicio SFCB.

    El problema está resuelto en esta versión.

  • PR 2721379: El servicio hostd registra una advertencia de que no hay sensores de fuente de alimentación cada 2 minutos

    El servicio hostd registra el mensaje BuildPowerSupplySensorList found 0 power supply sensors cada 2 minutos. El problema se produce cuando se actualiza a ESXi 7.0 Update 1 o se instala nuevamente en un host ESXi.

    El problema está resuelto en esta versión.

  • PR 2751277: Los hosts ESXi pueden generar un error con una pantalla de diagnóstico de color púrpura debido a un error de referencia de puntero NULL

    En raras ocasiones, el asignador de memoria del kernel puede devolver un puntero NULL que podría no anular la referencia correctamente. Como resultado, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color púrpura, como #GP Exception 13 in world 2422594:vmm:overCom @ 0x42003091ede4. En el seguimiento inverso, aparecen errores similares a los siguientes:
    #1 Util_ZeroPageTable
    #2 Util_ZeroPageTableMPN
    #3 VmMemPfUnmapped
    #4 VmMemPfInt
    #5 VmMemPfGetMapping
    #6 VmMemPf
    #7 VmMemPfLockPageInt
    #8 VMMVMKCall_Call
    #9 VMKVMM_ArchEnterVMKernel

    El problema está resuelto en esta versión.

  • PR 2708326: Si un dispositivo NVMe se agrega en caliente y se elimina en caliente en un espacio de tiempo corto, el host ESXi puede generar un error con una pantalla de diagnóstico de color morado

    Si un dispositivo NVMe se agrega en caliente y se elimina en caliente en un espacio de tiempo corto, es posible que el controlador NVMe no pueda inicializar la controladora NVMe debido a que se haya agotado el tiempo de espera del comando. Como resultado, es posible que el controlador acceda a la memoria que ya se ha liberado durante un proceso de limpieza. En el seguimiento inverso, se muestra un mensaje como WARNING: NVMEDEV: NVMEInitializeController:4045: No se pudieron obtener los datos de identificación de la controladora. Estado: Tiempo de espera.
    Finalmente, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color morado donde se muestre un error similar a #PF Exception ... in world ...:vmkdevmgr.

    El problema está resuelto en esta versión.

  • PR 2755977: Los hosts ESXi pueden no aprovisionar VMDK grueso ni crear un archivo de intercambio durante el encendido de una máquina virtual

    Cuando un host ESXi no tiene bloques de archivos grandes libres (LFB) para asignar, el host cumple con el aprovisionamiento de VMDK grueso o la creación de un archivo de intercambio con bloques de archivos pequeños (SFB). Sin embargo, en raras ocasiones, es posible que el host no pueda asignar también SFB. Como resultado, se produce un error en el aprovisionamiento de VMDK grueso o en la creación de un archivo de intercambio. Cuando las máquinas virtuales intentan encenderse, se muestra un error en los registros de VMkernel como el siguiente:
     vmkernel.1:2021-01-08T19:13:28.341Z cpu20:2965260)Fil3: 10269: Max no space retries (10) exceeded for caller Fil3_SetFileLength (status 'No space left on device')

    El problema está resuelto en esta versión.

  • PR 2737934: Si utiliza almacenes de datos de VMFS6 muy grandes, es posible que vea errores de bloqueo de CPU repetidos o que se produzcan errores de forma intermitente en los hosts ESXi

    Cuando se utilizan almacenes de datos de VMFS6 muy grandes, el proceso de asignación de bloques de archivos para VMDK finos en un clúster de recursos puede provocar un bloqueo de CPU. Como resultado, se ven mensajes de bloqueo de CPU y, en casos excepcionales, es posible que se produzca un error en hosts ESXi. En el seguimiento inverso, se muestran mensajes similares al siguiente:
    2021-04-07T02:18:08.730Z cpu31:2345212)ADVERTENCIA: Heartbeat: 849: PCPU 10 didn't have a heartbeat for 7 seconds; *may* be locked up.
    El seguimiento inverso asociado relacionado con funciones Res6AffMgr tiene un aspecto similar al siguiente:
    2021-01-06T02:16:16.073Z cpu0:2265741)ALERTA: NMI: 694: NMI IPI: RIPOFF(base):RBP:CS [0x121d74d(0x42001a000000):0x50d0:0xf48] (Src 0x1, CPU0)
    2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b320:[0x42001b21d74c]Res6AffMgrComputeSortIndices@esx#nover+0x369 pila: 0x43119125a000
    2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b3b0:[0x42001b224e46]Res6AffMgrGetCluster@esx#nover+0xb1f pila: 0xd 2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b4b0:[0x42001b226491]Res6AffMgr_AllocResourcesInt@esx#nover+0x40a pila: 0x4311910f4890
    2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b680:[0x42001b2270e2]Res6AffMgr_AllocResources@esx#nover+0x1b pila: 0x0

    El problema está resuelto en esta versión. Para obtener más información, consulte el artículo 83473 de la base de conocimientos de VMware.

  • PR 2777001: Los hosts ESXi con un gran recuento de CPU físicas pueden generar un error con una pantalla de diagnóstico de color púrpura durante una actualización a ESXi 7.0 Update 2 o después de ella

    Durante una actualización a ESXi 7.0 Update 2 o después de ella, es posible que la capa de almacenamiento de ESX no asigne suficientes recursos de memoria para los hosts ESXi con un gran número de CPU físicas y muchos dispositivos de almacenamiento o rutas de acceso conectados a los hosts. Como resultado, se puede producir un error en dichos hosts ESXi con una pantalla de diagnóstico de color púrpura.

    El problema está resuelto en esta versión. La solución corrige la asignación de memoria de la capa de almacenamiento ESX.

  • PR 2760932: Las máquinas virtuales con hardware versión 18 pueden generar errores de forma intermitente durante las operaciones de vSphere vMotion

    Las máquinas virtuales con hardware versión 18 y VMware Tools 11.2.0 o versiones posteriores pueden generar errores debido a un problema de dispositivo de gráficos virtuales en el lado de destino durante una instancia de vSphere vMotion o Storage vMotion.
    En vmkernel.log se muestra una línea como la siguiente:
    PF failed to handle a fault on mmInfo at va 0x114f5ae0: Out of memory. Terminating...

    El problema está resuelto en esta versión.

  • PR 2731263: Después de actualizar a la versión de hardware 18, se produce un pánico en el kernel del sistema operativo invitado en las máquinas virtuales

    Después de actualizar a la versión de hardware 18, algunos sistemas operativos invitados, como CentOS 7, en las CPU AMD pueden generar un error de detención del kernel al arrancar la máquina virtual. Aparece el mensaje de pánico del kernel cuando abre una consola web para la máquina virtual.

    El problema está resuelto en esta versión.

  • PR 2731142: Los paquetes con la opción de límite de encapsulación de túnel IPv6 se pierden en el tráfico entre máquinas virtuales

    Algunos kernels de Linux agregan la opción Límite de encapsulación de túnel de IPv6 a paquetes de túnel IPv6, como se describe en RFC 2473, par. 5.1. Como resultado, los paquetes de túnel IPv6 se descartan en el tráfico entre las máquinas virtuales, debido al encabezado de extensión IPv6.

    El problema está resuelto en esta versión. La solución analiza correctamente los paquetes con la opción Límite de encapsulación de túnel IPv6.

  • PR 2760267: En los registros de VMkernel, se muestran varias advertencias que indican un cambio a la ruta de acceso preferida XXX en estado EN ESPERA para el dispositivo XXX

    Cuando los medios virtuales, como una unidad de CD, se conectan al entorno de vSphere mediante una instancia integrada de Dell Remote Access Controller (iDRAC) y no se asigna ningún archivo de medios a la unidad, es posible que aparezcan varios mensajes de advertencia en el registro de vmkernel como los siguientes:
    vmw_psp_fixed: psp_fixedSelectPathToActivateInt:439: Switching to preferred path vmhba32:C0:T0:L1 in STANDBY state for device mpx.vmhba32:C0:T0:L1.WARNING: vmw_psp_fixed: psp_fixedSelectPathToActivateInt:464: Selected current STANDBY path vmhba32:C0:T0:L1 for device mpx.vmhba32:C0:T0:L1 to activate. This may lead to path thrashing.

    El problema está resuelto en esta versión.

  • PR 2749688: vCenter Server puede quitar de forma intermitente puertos virtuales distribuidos controlados por NSX internos de los hosts ESXi

    Durante los flujos de trabajo de sincronización de 24 horas de vSphere Distributed Switch, es posible que vCenter Server quite de forma intermitente puertos virtuales distribuidos controlados NSX, como el puerto de reenvío de plano de servicio (SPF), de hosts ESXi. Por ello, es posible que se produzcan errores en operaciones de vSphere vMotion de máquinas virtuales. Se muestra un error como Could not connect SPF port: Not found en los registros.

    El problema está resuelto en esta versión.

  • PR 2763986: Si configura la partición temporal en el directorio raíz de un volumen VMFS, se produce un error en la actualización a ESXi 7.0.x y es posible que se pierdan datos en el volumen VMFS

    ESXi 7.0 introdujo la partición ESX-OSData basada en VMFS-L, que asume la función de la partición desde cero heredada, la partición del bloqueador para VMware Tools y el destino del volcado de núcleo. Si configura la partición desde cero en el directorio raíz de un volumen VMFS durante una actualización a ESXi 7.0.x, el sistema intenta convertir los archivos VMFS en formato VMFS-L para que coincidan con los requisitos de partición de OS-Data. Como resultado, es posible que la partición OS-Data sobrescriba el volumen VMFS y cause la pérdida de datos.

    El problema está resuelto en esta versión. La solución agrega una comprobación si el sistema de archivos es VFAT antes de convertirlo en OS-DATA. Para obtener más información, consulte el artículo 83647 de la base de conocimientos de VMware.

  • PR 2765534: El estado de mantenimiento del canal de comunicación de los hosts ESXi en clústeres NSX Data Center for vSphere está inactivo después de actualizar a ESXi 7.0 Update 2a

    Debido a un problema de control de registros, después de una actualización a ESXi 7.0 Update 2a, cuando se comprueba el estado de mantenimiento del canal de comunicación, se ven todos los hosts ESXi con el estado inactivo, ya que NSX Manager no puede conectarse al agente de firewall.

    El problema está resuelto en esta versión. Si ya se enfrenta a este problema, detenga el servicio vsfwd y vuelva a intentar la operación de actualización.

  • PR 2766127: Si actualiza los hosts ESXi mediante vSphere Quick Boot en un entorno de FCoE, se puede producir un error en el servidor físico con una pantalla de diagnóstico de color púrpura

    Si se instala un host ESXi versión 7.0 Update 2 en un LUN FCoE y utiliza el modo de arranque UEFI, cuando se intenta actualizar el host mediante vSphere QuickBoot, se puede producir un error en el servidor físico con una pantalla de diagnóstico de color púrpura debido a un error de memoria.

    El problema está resuelto en esta versión.

  • PR 2777003: Si utiliza un USB como dispositivo de arranque para ESXi 7.0 Update 2a, es posible que los hosts ESXi dejen de responder y vea que el host no responde y que no se encuentran alertas del banco de arranque

    Los dispositivos USB tienen una profundidad de cola pequeña y, debido a una condición de carrera en la pila de almacenamiento ESXi, es posible que algunas operaciones de E/S no lleguen al dispositivo. Estas operaciones de E/S se ponen en cola en la pila de almacenamiento ESXi y, finalmente, se agota el tiempo de espera. Como resultado, los hosts ESXi dejan de responder.
    En la instancia de vSphere Client, aparecen alertas como Alert: /bootbank not to be found at path '/bootbank’ y Host not-responding.
    En los registros de vmkernel, se muestran errores similares al siguiente:
    2021-04-12T04:47:44.940Z cpu0:2097441)ScsiPath: 8058: Cancelled Cmd(0x45b92ea3fd40) 0xa0, cmdId.initiator=0x4538c859b8f8 CmdSN 0x0 from world 0 to path "vmhba32:C0:T0:L0". Cmd count Active:0 Queued:1.
    2021-04-12T04:48:50.527Z cpu2:2097440)ScsiDeviceIO: 4315: Cmd(0x45b92ea76d40) 0x28, cmdId.initiator=0x4305f74cc780 CmdSN 0x1279 from world 2099370 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x5 D:0x0 P:0x0 Cancelled from path layer. Cmd count Active:1
    2021-04-12T04:48:50.527Z cpu2:2097440)Queued:4

    El problema está resuelto en esta versión.

  • PR 2778793: El tiempo de arranque de los hosts ESXi se ralentiza después de la actualización a ESXi Update 2a

    Es posible que se produzca una ralentización de hasta 60 minutos en el tiempo de arranque de los hosts ESXi después de una actualización a ESXi Update 2a.
    Este problema no afecta a las actualizaciones a ESXi Update 2a de versiones anteriores de ESXi 7.0.x.
    El problema solo se produce cuando se utiliza una línea base o imagen de vSphere Lifecycle Manager, o bien el comando esxcli software profile update para realizar la operación de actualización. Si utiliza una imagen ISO o una instalación generada por script, no se produce el problema.
    Es más probable que el problema afecte a las configuraciones de iSCSI, pero está relacionado con el algoritmo de ESXi para la detección de banco de arranque, no con destinos de almacenamiento externo lentos.

    El problema está resuelto en esta versión. La solución aumenta los límites de tolerancia cuando no se proporcionan de inmediato un archivo boot.cfg o almacenamiento.

  • PR 2755807: se produce un error de memoria agotada en las operaciones de vSphere vMotion en un host ESXi

    Debido a una fuga de memoria en la pila del conjunto de puertos, las operaciones de vSphere vMotion en un host ESXi pueden generar un error de memoria agotada. En vSphere Client, se muestra un error, como:
    Failed to reserve port. DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba port 1 39.
    Failed with error status: Out of memory.

    El problema está resuelto en esta versión.

  • PR 2760081: advertencia de estado del motor de recomendación de compilación vSAN después de actualizar a vSAN 7.0 Update 2

    Si vCenter Server no puede resolver vcsa.vmware.com a una dirección IP, no se puede cargar el catálogo de versiones de vSAN. La siguiente comprobación de estado de vSAN muestra una advertencia: Estado del motor de recomendación de compilación de vSAN.
    Es posible que se muestre un mensaje de error similar al siguiente:
    2021-04-12T11:40:59.435Z ERROR vsan-mgmt[32221] [VsanHttpRequestWrapper::urlopen opID=noOpId] Exception while sending request : Cannot resolve localhost or Internet websites.
    2021-04-12T11:40:59.435Z WARNING vsan-mgmt[32221] [VsanVumCoreUtil::CheckVumServiceStatus opID=noOpId] Failed to connect VUM service: Cannot resolve localhost or Internet websites.
    2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumIntegration::VumStatusCallback opID=noOpId] VUM is not installed or not responsive ​
    2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumSystemUtil::HasConfigIssue opID=noOpId] Config issue health.test.vum.vumDisabled exists on entity None

    El problema está resuelto en esta versión.

  • PR 2731644: Se observa una actividad de limpieza superior a la habitual en vSAN

    Un error de desbordamiento de enteros puede provocar que vSAN DOM emita limpiezas con más frecuencia que la configuración establecida.

    El problema está resuelto en esta versión.

  • PR 2749815: Los hosts ESXi generan un error con una pantalla de diagnóstico de color púrpura cuando se anula una resincronización con escrituras de invitado activas

    Cuando una resincronización se ejecuta en paralelo con escrituras de invitado en objetos que son propiedad de un host ESXi, se puede producir un error en el host con una pantalla de diagnóstico de color púrpura.

    El problema está resuelto en esta versión.

  • PR 2749962: Aparece un error de syslog Failed to write header on rotate

    Cuando el archivo cmmdstimemachineDump.log alcanza un límite máximo de 10 MB, se produce la rotación y se crea un nuevo archivo cmmdstimemachineDump. Sin embargo, durante la rotación, en los registros vmsyslogd.err es posible que aparezca un error como el siguiente:
    2021-04-08T03:15:53.719Z vmsyslog.loggers.file : ERROR ] Failed to write header on rotate. Exception: [Errno 2] No such file or directory: '/var/run/cmmdstimemachineDumpHeader.txt'

    El problema está resuelto en esta versión.

  • PR 2738238: La tarea de cambio de formato de objeto tarda mucho en responder

    En algunos casos, el servicio de supervisión, pertenencia y directorio (CMMDS) del clúster no proporciona una entrada correcta a la tarea de cambio de formato de objeto y la tarea tarda mucho en responder.

    El problema está resuelto en esta versión.

  • PR 2799408: La actualización de un clúster ampliado a la versión ESXi 7.0 Update 2 o posterior puede provocar un error en varios hosts ESX con una pantalla de diagnóstico de color púrpura

    En raras ocasiones, si se reemplaza el host testigo durante el proceso de actualización y se ejecuta una tarea de conversión de formato de disco poco después del reemplazo, se puede producir un error en varios hosts ESX en un clúster ampliado con una pantalla de diagnóstico de color púrpura.

    El problema está resuelto en esta versión.

  • PR 2949777: Si la configuración LargeBAR de un dispositivo vmxnet3 está habilitada en ESX 7.0 Update 3 y versiones posteriores, es posible que las máquinas virtuales pierdan conectividad

    La configuración LargeBAR que extiende el registro de direcciones base (BAR) en un dispositivo vmxnet3 admite el acceso directo uniforme (UNIFORM Passthrough, UPT). Sin embargo, UPT no es compatible con ESX 7.0 Update 3 y versiones posteriores, y si el controlador vmxnet3 se degrada a una versión anterior a 7.0 y la configuración de LargeBAR está habilitada, es posible que las máquinas virtuales pierdan conectividad.

    El problema está resuelto en esta versión.

esx-update_7.0.2-0.20.18426014
Categoría de revisión Corrección de error
Gravedad de la revisión Crítico
Reinicio de host requerido
Migración de máquina virtual o apagado requeridos
Hardware afectado N/C
Software afectado N/C
VIB que se incluyen
  • VMware_bootbank_loadesx_7.0.2-0.20.18426014
  • VMware_bootbank_esx-update_7.0.2-0.20.18426014
PR corregidas 2722263, 2812906
Números CVE N/C

Actualiza los VIB loadesx y esx-update para resolver el siguiente problema:

  • PR 2722263: No se pueden eliminar componentes de una imagen de ESXi personalizada después de actualizar a ESXi 7.0 Update 2a

    Si crea una imagen personalizada de 7.0 Update 2a mediante el kit de empaquetado de ESXi, reemplace algunos de los componentes de la imagen base, por ejemplo, Intel-ixgben:1.8.9.0-1OEM.700.1.0.15525992 y, a continuación, actualice los hosts ESXi 7.0.x, no podrá eliminar el componente personalizado después de la actualización. Además, es posible que falten algunos VIB de los componentes personalizados.

    El problema está resuelto en esta versión.

  • PR 2812906: Los metadatos de los almacenes de datos de VMFS pueden dañarse en ciertos escenarios de implementación de ESXi debido a la duplicación de los identificadores únicos universales (UUID) del sistema

    Ciertos escenarios de implementación, como la clonación de bancos de arranque de ESXi, pueden derivar parcialmente en UUID completamente idénticos para varios hosts ESXi. Dado que los UUID se utilizan para las operaciones de latido y diario de VMFS, cuando se duplican los UUID, después de las operaciones de instalación o actualización, varios hosts ESXi pueden intentar acceder a regiones de metadatos en el mismo almacén de datos de VMFS. Como resultado, es posible que se produzcan daños en los metadatos en algunos almacenes de datos de VMFS.
    En los registros de vmkernel, aparecen mensajes como:
    VMkernel 608: VMFS volume DCS_HCFA_TEDS_Regulated_10032/5ba2905b-ac11166d-b145-0025b5920a02 on naa.60060e8012a34f005040a34f00000d64:1 has been detected corrupted.
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 319: FS3RCMeta 2245 200 21 105 0
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 326: 0 0 0 0 0 0 0 0 0 0 0 7 0 254 1 4 0 248 3 96 0 0 0 0 0
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 332: 0 0 0
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 338: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 

    Algunos escenarios de implementación afectados son la reutilización de perfiles de hardware; por ejemplo, sistemas Blade que utilizan el mismo MAC para implementar una nueva instancia y mover discos de arranque entre servidores.

    Solución alternativa: Ninguna. Para obtener más información, consulte los artículos 84280 y 84349 de la base de conocimientos de VMware.

Broadcom-bnxt-Net-RoCE_216.0.0.0-1vmw.702.0.20.18426014
Categoría de revisión Corrección de error
Gravedad de la revisión Importante
Reinicio de host requerido
Migración de máquina virtual o apagado requeridos
Hardware afectado N/C
Software afectado N/C
VIB que se incluyen
  • VMW_bootbank_bnxtroce_216.0.58.0-20vmw.702.0.20.18426014
  • VMW_bootbank_bnxtnet_216.0.50.0-34vmw.702.0.20.18426014
PR corregidas N/C
Números CVE N/C

Actualiza el VIB bnxtroce.

    MRVL-E4-CNA-Driver-Bundle_1.0.0.0-1vmw.702.0.20.18426014
    Categoría de revisión Corrección de error
    Gravedad de la revisión Importante
    Reinicio de host requerido
    Migración de máquina virtual o apagado requeridos
    Hardware afectado N/C
    Software afectado N/C
    VIB que se incluyen
    • VMW_bootbank_qedrntv_3.40.5.53-17vmw.702.0.20.18426014
    • VMW_bootbank_qedentv_3.40.5.53-20vmw.702.0.20.18426014
    PR corregidas N/C
    Números CVE N/C

    Actualiza el VIB qedrntv.

      Intel-i40en_1.8.1.137-1vmw.702.0.20.18426014
      Categoría de revisión Corrección de error
      Gravedad de la revisión Crítico
      Reinicio de host requerido
      Migración de máquina virtual o apagado requeridos
      Hardware afectado N/C
      Software afectado N/C
      VIB que se incluyen
      • VMW_bootbank_i40enu_1.8.1.137-1vmw.702.0.20.18426014
      PR corregidas

      2750390

      Números CVE N/C

      Actualiza el VIB i40enu para resolver el siguiente problema:

      • PR 2750390: Después de una actualización a ESXi 7.0 Update 2a, los VIB de los controladores de red i40en asíncronos para ESXi se omiten o se revierten al controlador i40enu de la bandeja de entrada de VMware

        A partir de vSphere 7.0 Update 2, el nombre del controlador i40en de la bandeja de entrada se cambió a i40enu. Como resultado, si intenta instalar un controlador asíncrono de socio i40en, el VIB de i40en se omite o se revierte al controlador de la bandeja de entrada i40enu de VMware.

        El problema está resuelto en esta versión.

      Broadcom-ELX-lpfc_12.8.298.3-2vmw.702.0.20.18426014
      Categoría de revisión Corrección de error
      Gravedad de la revisión Crítico
      Reinicio de host requerido
      Migración de máquina virtual o apagado requeridos
      Hardware afectado N/C
      Software afectado N/C
      VIB que se incluyen
      • VMW_bootbank_lpfc_12.8.298.3-2vmw.702.0.20.18426014
      PR corregidas 2715138
      Números CVE N/C

      Actualiza el VIB lpfc para resolver el siguiente problema:

      • PR 2715138: Los hosts ESXi pueden generar un error con una pantalla de diagnóstico de color púrpura durante la instalación del complemento Dell EMC PowerPath

        Un error inusual de Page Fault puede provocar un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura durante la instalación del complemento Dell EMC PowerPath.

        El problema está resuelto en esta versión.

      VMware-vmkusb_0.1-4vmw.702.0.20.18426014
      Categoría de revisión Corrección de error
      Gravedad de la revisión Crítico
      Reinicio de host requerido
      Migración de máquina virtual o apagado requeridos
      Hardware afectado N/C
      Software afectado N/C
      VIB que se incluyen
      • VMW_bootbank_vmkusb_0.1-4vmw.702.0.20.18426014
      PR corregidas 2753546
      Números CVE N/C

      Actualiza el VIB vmkusb para resolver los siguientes problemas

      • PR 2753546: Si utiliza un dispositivo de arranque USB, la conexión a la partición /bootbank puede interrumpirse o dañar la partición VMFS-L LOCKER

        Si la controladora del host USB se desconecta del sistema vSphere y cualquier recurso del dispositivo, como los archivos de volcado, sigue en uso por ESXi, la ruta de acceso del dispositivo no se podrá liberar cuando el dispositivo se vuelva a conectar. Como resultado, ESXi proporciona una nueva ruta de acceso al dispositivo USB, lo que interrumpe la conexión con la partición /bootbank o daña la partición VMFS-L LOCKER.

        El problema está resuelto en esta versión. La solución mejora el controlador de la controladora del host USB para que tolere errores de tiempo de espera del comando para permitir el tiempo suficiente a ESXi para liberar recursos de dispositivos USB.
        Como práctica recomendada, no establezca la partición de volcado en el dispositivo de almacenamiento USB. Para obtener más información, consulte los artículos 2077516 y 2149257 de la base de conocimientos de VMware.

      ESXi_7.0.2-0.15.18295176
      Categoría de revisión Seguridad
      Gravedad de la revisión Crítico
      Reinicio de host requerido
      Migración de máquina virtual o apagado requeridos
      Hardware afectado N/C
      Software afectado N/C
      VIB que se incluyen
      • VMware_bootbank_vdfs_7.0.2-0.15.18295176
      • VMware_bootbank_esx-xserver_7.0.2-0.15.18295176
      • VMware_bootbank_esx-base_7.0.2-0.15.18295176
      • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.15.18295176
      • VMware_bootbank_crx_7.0.2-0.15.18295176
      • VMware_bootbank_native-misc-drivers_7.0.2-0.15.18295176
      • VMware_bootbank_cpu-microcode_7.0.2-0.15.18295176
      • VMware_bootbank_gc_7.0.2-0.15.18295176
      • VMware_bootbank_vsanhealth_7.0.2-0.15.18295176
      • VMware_bootbank_clusterstore_7.0.2-0.15.18295176
      • VMware_bootbank_vsan_7.0.2-0.15.18295176
      PR corregidas 2738816, 2738857, 2735594
      Números CVE N/C

      Los boletines de ESXi y esx-update dependen entre sí. Incluya siempre a ambos en una sola línea base de revisión de host ESXi, o bien incluya el boletín acumulativo en la línea base para evitar errores durante la aplicación de revisiones de hosts.

      Actualiza los VIB vdfs, esx-xserver, esx-base, esx-dvfilter-generic-fastpath, crx, native-misc-drivers, cpu-microcode, gc, vsanhealth, clusterstore, vsan, y esx-base para resolver los siguientes problemas:

      • Actualización de OpenSSH

        OpenSSH se actualizó a la versión 8.5p1.

      • Actualización de la biblioteca OpenSSL

        La biblioteca OpenSSL se actualizó a la versión openssl-1.0.2y.

      • Actualización de la biblioteca Libarchive

        La biblioteca Libarchive se actualizó a la versión 3.5.1.

      esx-update_7.0.2-0.15.18295176
      Categoría de revisión Seguridad
      Gravedad de la revisión Crítico
      Reinicio de host requerido
      Migración de máquina virtual o apagado requeridos
      Hardware afectado N/C
      Software afectado N/C
      VIB que se incluyen
      • VMware_bootbank_loadesx_7.0.2-0.15.18295176
      • VMware_bootbank_esx-update_7.0.2-0.15.18295176
      PR corregidas N/C
      Números CVE N/C

      Actualiza los VIB loadesx y esx-update.

        VMware-VM-Tools_11.2.6.17901274-18295176
        Categoría de revisión Seguridad
        Gravedad de la revisión Crítico
        Reinicio de host requerido No
        Migración de máquina virtual o apagado requeridos No
        Hardware afectado N/C
        Software afectado N/C
        VIB que se incluyen
        • VMware_locker_tools-light_11.2.6.17901274-18295176
        PR corregidas 2761942
        Números CVE N/C

        Actualiza el VIB tools-light para resolver el siguiente problema:

        VMware-vmkusb_0.1-1vmw.702.0.15.18295176
        Categoría de revisión Seguridad
        Gravedad de la revisión Moderado
        Reinicio de host requerido
        Migración de máquina virtual o apagado requeridos
        Hardware afectado N/C
        Software afectado N/C
        VIB que se incluyen
        • VMW_bootbank_vmkusb_0.1-1vmw.702.0.15.18295176
        PR corregidas N/C
        Números CVE N/C

        Actualiza el VIB vmkusb.

          ESXi-7.0U2c-18426014-estándar
          Nombre del perfil ESXi-7.0U2c-18426014-estándar
          Compilación Para obtener información sobre la compilación, consulte Revisiones incluidas en esta versión.
          Proveedor VMware, Inc.
          Fecha de versión 24 de agosto de 2021
          Nivel de aceptación PartnerSupported
          Hardware afectado N/C
          Software afectado N/C
          VIB afectados
          • VMware_bootbank_vsanhealth_7.0.2-0.20.18426014
          • VMware_bootbank_vsan_7.0.2-0.20.18426014
          • VMware_bootbank_gc_7.0.2-0.20.18426014
          • VMware_bootbank_esx-xserver_7.0.2-0.20.18426014
          • VMware_bootbank_clusterstore_7.0.2-0.20.18426014
          • VMware_bootbank_vdfs_7.0.2-0.20.18426014
          • VMware_bootbank_native-misc-drivers_7.0.2-0.20.18426014
          • VMware_bootbank_cpu-microcode_7.0.2-0.20.18426014
          • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.20.18426014
          • VMware_bootbank_esx-base_7.0.2-0.20.18426014
          • VMware_bootbank_loadesx_7.0.2-0.20.18426014
          • VMware_bootbank_esx-update_7.0.2-0.20.18426014
          • VMW_bootbank_bnxtroce_216.0.58.0-20vmw.702.0.20.18426014
          • VMW_bootbank_bnxtnet_216.0.50.0-34vmw.702.0.20.18426014
          • VMW_bootbank_qedrntv_3.40.5.53-17vmw.702.0.20.18426014
          • VMW_bootbank_qedentv_3.40.5.53-20vmw.702.0.20.18426014
          • VMW_bootbank_i40enu_1.8.1.137-1vmw.702.0.20.18426014
          • VMW_bootbank_lpfc_12.8.298.3-2vmw.702.0.20.18426014
          • VMW_bootbank_vmkusb_0.1-4vmw.702.0.20.18426014
          PR corregidas 2717698, 2731446, 2515171, 731306, 2751564, 2718934, 2755056, 2725886, 2725886, 2753231, 2728910, 2741111, 2759343, 2721379, 2751277, 2708326, 2755977, 2737934, 2777001, 2760932, 2731263, 2731142, 2760267, 2749688, 2763986, 2765534, 2766127, 2777003, 2778793, 2755807, 2760081, 2731644, 2749815, 2749962, 2738238, 2799408, 2722263, 2812906, 2750390, 2715138, 2753546
          Números de CVE relacionados N/C

          Esta revisión actualiza los siguientes problemas:

            • Una condición de carrera inusual en el controlador qedentv puede provocar un error en un host ESXi con una pantalla de diagnóstico de color púrpura. El problema se produce cuando una interrupción completa de Rx llega justo después de que se destruya un par de colas (Queue Pair, QP) de la interfaz de servicios generales (General Services Interface, GSI), por ejemplo, durante la descarga de un controlador qedentv o el apagado del sistema. En tal caso, el controlador qedentv puede acceder a una dirección QP ya liberada, lo que provoca una excepción de PF. El problema puede ocurrir en hosts ESXi que están conectados a un conmutador físico ocupado con un gran volumen de tráfico no solicitado en la GSI. En el seguimiento inverso, se muestran mensajes similares al siguiente:

              cpu4:2107287)0x45389609bcb0:[0x42001d3e6f72]qedrntv_ll2_rx_cb@(qedrntv)#<None>+0x1be stack: 0x45b8f00a7740, 0x1e146d040, 0x432d65738d40, 0x0, 0x
              2021-02-11T03:31:53.882Z cpu4:2107287)0x45389609bd50:[0x42001d421d2a]ecore_ll2_rxq_completion@(qedrntv)#<None>+0x2ab stack: 0x432bc20020ed, 0x4c1e74ef0, 0x432bc2002000,
              2021-02-11T03:31:53.967Z cpu4:2107287)0x45389609bdf0:[0x42001d1296d0]ecore_int_sp_dpc@(qedentv)#<None>+0x331 stack: 0x0, 0x42001c3bfb6b, 0x76f1e5c0, 0x2000097, 0x14c2002
              2021-02-11T03:31:54.039Z cpu4:2107287)0x45389609be60:[0x42001c0db867]IntrCookieBH@vmkernel#nover+0x17c stack: 0x45389609be80, 0x40992f09ba, 0x43007a436690, 0x43007a43669
              2021-02-11T03:31:54.116Z cpu4:2107287)0x45389609bef0:[0x42001c0be6b0]BH_Check@vmkernel#nover+0x121 stack: 0x98ba, 0x33e72f6f6e20, 0x0, 0x8000000000000000, 0x430000000001
              2021-02-11T03:31:54.187Z cpu4:2107287)0x45389609bf70:[0x42001c28370c]NetPollWorldCallback@vmkernel#nover+0x129 stack: 0x61, 0x42001d0e0000, 0x42001c283770, 0x0, 0x0
              2021-02-11T03:31:54.256Z cpu4:2107287)0x45389609bfe0:[0x42001c380bad]CpuSched_StartWorld@vmkernel#nover+0x86 stack: 0x0, 0x42001c0c2b44, 0x0, 0x0, 0x0
              2021-02-11T03:31:54.319Z cpu4:2107287)0x45389609c000:[0x42001c0c2b43]Debug_IsInitialized@vmkernel#nover+0xc stack: 0x0, 0x0, 0x0, 0x0, 0x0
              2021-02-11T03:31:54.424Z cpu4:2107287)^[[45m^[[33;1mVMware ESXi 7.0.2 [Releasebuild-17435195 x86_64]^[[0m
              #PF Exception 14 in world 2107287:vmnic7-pollW IP 0x42001d3e6f72 addr 0x1c

            • En raras ocasiones, mientras se enciende el dispositivo de vSphere Replication, se puede producir un error en el servicio hostd y provocar que los hosts ESXi no respondan temporalmente a vCenter Server. El servicio hostd se reinicia automáticamente y la conectividad se restaura.

            • Cuando se intenta definir un valor como false para un parámetro de opción avanzada en un perfil de host, la interfaz de usuario crea un valor de cadena no vacío. Los valores que no están vacíos se interpretan como true y el parámetro de opción avanzada recibe el valor true en el perfil de host.

            • Los hosts ESXi podrían dejar de responder a vCenter Server incluso cuando los hosts están accesibles y en ejecución. El problema se produce en imágenes de proveedor con controladores personalizados en los que ImageConfigManager consume más RAM que la asignada. Como resultado, errores repetidos de ImageConfigManager hacen que los hosts ESXi se desconecten de vCenter Server.
              En los registros de VMkernel, aparecen errores repetidos como:
              Admission failure in path: host/vim/vmvisor/hostd-tmp/sh.<pid1>:python.<pid2>:uw.<pid2>.
              En los registros de hostd, aparecen mensajes como: Task Created : haTask-ha-host-vim.host.ImageConfigManager.fetchSoftwarePackages-<sequence>, followed by: ForkExec(/usr/bin/sh) <pid1>, donde <pid1> identifica un proceso ImageConfigManager .

            • Si cambia la opción de configuración avanzada DiskMaxIOSize a un valor inferior, las operaciones de E/S con tamaños de bloque grandes pueden dividirse y colocarse en cola de forma incorrecta en la ruta de acceso de PSA. Como resultado, es posible que se agote el tiempo de espera de las operaciones de E/S de los hosts ESXi y se produzca un error.

            • En determinadas condiciones, las operaciones de encendido o apagado de las máquinas virtuales pueden tardar hasta 20 minutos. El problema se produce cuando el almacenamiento subyacente de las máquinas virtuales ejecuta una operación en segundo plano, como volver a examinar HBA o eventos de APD, y algunos bloqueos se mantienen continuamente.

            • En raras ocasiones, cuando el tamaño de respuesta de la página VPD del host ESXi de destino es diferente en rutas distintas al host, ESXi puede escribir más bytes que la longitud asignada para una ruta de acceso determinada. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura y un mensaje como el siguiente:
              Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4878 - Corruption in dlmalloc

            • Una contención de bloqueo inusual puede provocar errores en las operaciones de la máquina virtual, como la conmutación por error o la migración.
              Los mensajes de error de bloqueo son similares a los siguientes:
              vol 'VM_SYS_11', lock at 480321536: [Req mode 1] Checking liveness:
              type 10c00003 offset 480321536 v 1940464, hb offset 3801088

              o
              Res3: 2496: Rank violation threshold reached: cid 0xc1d00002, resType 2, cnum 5 vol VM_SYS_11

            • En flujos de trabajo complicados que provocan la creación de varias máquinas virtuales, al desplazarse hasta Máquinas virtuales > Máquinas virtuales, es posible que aparezcan grandes números en la columna Espacio aprovisionado de algunas máquinas virtuales. Por ejemplo, 2,95 TB en lugar del espacio aprovisionado real de 25 GB.

            • Al controlar el comando SCSI READ CAPACITY (10), es posible que ESXi copie el exceso de datos de la respuesta y dañe la pila de llamadas. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura.

            • En muy raras ocasiones, es posible que no se bloqueen los clústeres de recursos de VMFS que se incluyen en una transacción de diario. Como resultado, durante el encendido de las máquinas virtuales, se puede producir un error en varios hosts ESXi con una pantalla de diagnóstico de color púrpura debido a la excepción 14 en la capa de VMFS. A continuación, se muestra un seguimiento típico de la pila y el mensaje que se ve en el registro de VMkernel:
              @BlueScreen: #PF Exception 14 in world 2097684:VSCSI Emulat IP 0x418014d06fca addr 0x0
              PTEs:0x16a47a027;0x600faa8007;0x0;
              2020-06-24T17:35:57.073Z cpu29:2097684)Inicio del código: 0x418013c00000 VMK uptime: 0:01:01:20.555
              2020-06-24T17:35:57.073Z cpu29:2097684)0x451a50a1baa0:[0x418014d06fca]Res6MemUnlockTxnRCList@esx#nover+0x176 pila: 0x1 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb10:[0x418014c7cdb6]J3_DeleteTransaction@esx#nover+0x33f pila: 0xbad0003
              2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb40:[0x418014c7db10]J3_AbortTransaction@esx#nover+0x105 pila: 0x0 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb80:[0x418014cbb752]Fil3_FinalizePunchFileHoleTxnVMFS6@esx#nover+0x16f pila: 0x430fe950e1f0
              2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bbd0:[0x418014c7252b]Fil3UpdateBlocks@esx#nover+0x348 pila: 0x451a50a1bc78 2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bce0:[0x418014c731dc]Fil3_PunchFileHoleWithRetry@esx#nover+0x89 pila: 0x451a50a1bec8
              2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bd90:[0x418014c739a5]Fil3_FileBlockUnmap@esx#nover+0x50e pila: 0x230eb5 2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be40:[0x418013c4c551]FSSVec_FileBlockUnmap@vmkernel#nover+0x6e pila: 0x230eb5
              2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be90:[0x418013fb87b1]VSCSI_ExecFSSUnmap@vmkernel#nover+0x8e pila: 0x0 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf00:[0x418013fb71cb]VSCSIDoEmulHelperIO@vmkernel#nover+0x2c pila: 0x430145fbe070
              2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf30:[0x418013ceadfa]HelperQueueFunc@vmkernel#nover+0x157 pila: 0x430aa05c9618 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bfe0:[0x418013f0eaa2]CpuSched_StartWorld@vmkernel#nover+0x77 pila: 0x0
              2020-06-24T17:35:57.083Z cpu29:2097684)base fs=0x0 gs=0x418047400000 Kgs=0x0

            • En raras ocasiones, es posible que algunas CPU Intel no puedan reenviar capturas de #DB y, si se produce una interrupción del temporizador durante la llamada del sistema Windows, la máquina virtual podría triplicar el error.

            • Si reinicia agentes de administración de ESXi desde DCUI, el servicio sfcbd no se inicia. Debe iniciar manualmente el servicio SFCB.

            • El servicio hostd registra el mensaje BuildPowerSupplySensorList found 0 power supply sensors cada 2 minutos. El problema se produce cuando se actualiza a ESXi 7.0 Update 1 o se instala nuevamente en un host ESXi.

            • En raras ocasiones, el asignador de memoria del kernel puede devolver un puntero NULL cuya referencia no podría anularse correctamente. Como resultado, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color púrpura, como #GP Exception 13 in world 2422594:vmm:overCom @ 0x42003091ede4. En el seguimiento inverso, aparecen errores similares a los siguientes:
              #1 Util_ZeroPageTable
              #2 Util_ZeroPageTableMPN
              #3 VmMemPfUnmapped
              #4 VmMemPfInt
              #5 VmMemPfGetMapping
              #6 VmMemPf
              #7 VmMemPfLockPageInt
              #8 VMMVMKCall_Call
              #9 VMKVMM_ArchEnterVMKernel

            • Si un dispositivo NVMe se agrega en caliente y se elimina en caliente en un espacio de tiempo corto, es posible que el controlador NVMe no pueda inicializar la controladora NVMe debido a que se haya agotado el tiempo de espera del comando. Como resultado, es posible que el controlador acceda a la memoria que ya se ha liberado durante un proceso de limpieza. En el seguimiento inverso, se muestra un mensaje como WARNING: NVMEDEV: NVMEInitializeController:4045: No se pudieron obtener los datos de identificación de la controladora. Estado: Tiempo de espera.
              Finalmente, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color púrpura donde se muestre un error similar a #PF Exception ... in world ...:vmkdevmgr.

            • Cuando un host ESXi no tiene bloques de archivos grandes libres (LFB) para asignar, el host cumple con el aprovisionamiento de VMDK grueso o la creación de un archivo de intercambio con bloques de archivos pequeños (SFB). Sin embargo, en raras ocasiones, es posible que el host no pueda asignar también SFB. Como resultado, se produce un error en el aprovisionamiento de VMDK grueso o en la creación de un archivo de intercambio. Cuando las máquinas virtuales intentan encenderse, se muestra un error en los registros de VMkernel como el siguiente:
               vmkernel.1:2021-01-08T19:13:28.341Z cpu20:2965260)Fil3: 10269: Max no space retries (10) exceeded for caller Fil3_SetFileLength (status 'No space left on device')

            • Cuando se utilizan almacenes de datos de VMFS6 muy grandes, el proceso de asignación de bloques de archivos para VMDK finos en un clúster de recursos puede provocar un bloqueo de CPU. Como resultado, se ven mensajes de bloqueo de CPU y, en casos excepcionales, es posible que se produzca un error en hosts ESXi. En el seguimiento inverso, se muestran mensajes similares al siguiente:
              2021-04-07T02:18:08.730Z cpu31:2345212)ADVERTENCIA: Heartbeat: 849: PCPU 10 didn't have a heartbeat for 7 seconds; *may* be locked up.
              El seguimiento inverso asociado relacionado con funciones Res6AffMgr tiene un aspecto similar al siguiente:
              2021-01-06T02:16:16.073Z cpu0:2265741)ALERTA: NMI: 694: NMI IPI: RIPOFF(base):RBP:CS [0x121d74d(0x42001a000000):0x50d0:0xf48] (Src 0x1, CPU0)
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b320:[0x42001b21d74c]Res6AffMgrComputeSortIndices@esx#nover+0x369 pila: 0x43119125a000
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b3b0:[0x42001b224e46]Res6AffMgrGetCluster@esx#nover+0xb1f pila: 0xd 2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b4b0:[0x42001b226491]Res6AffMgr_AllocResourcesInt@esx#nover+0x40a pila: 0x4311910f4890
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b680:[0x42001b2270e2]Res6AffMgr_AllocResources@esx#nover+0x1b pila: 0x0

            • Durante una actualización a ESXi 7.0 Update 2 o después de ella, es posible que la capa de almacenamiento de ESX no asigne suficientes recursos de memoria para los hosts ESXi con un gran número de CPU físicas y muchos dispositivos de almacenamiento o rutas de acceso conectados a los hosts. Como resultado, se puede producir un error en dichos hosts ESXi con una pantalla de diagnóstico de color púrpura.

            • Las máquinas virtuales con hardware versión 18 y VMware Tools 11.2.0 o versiones posteriores pueden generar errores debido a un problema de dispositivo de gráficos virtuales en el lado de destino durante una instancia de vSphere vMotion o Storage vMotion.
              En vmkernel.log se muestra una línea como la siguiente:
              PF failed to handle a fault on mmInfo at va 0x114f5ae0: Out of memory. Terminating...

            • Después de actualizar a la versión de hardware 18, algunos sistemas operativos invitados, como CentOS 7, en las CPU AMD pueden generar un error de detención del kernel al arrancar la máquina virtual. Aparece el mensaje de pánico del kernel cuando abre una consola web para la máquina virtual.

            • Algunos kernels de Linux agregan la opción Límite de encapsulación de túnel de IPv6 a paquetes de túnel IPv6, como se describe en RFC 2473, par. 5.1. Como resultado, los paquetes de túnel IPv6 se descartan en el tráfico entre las máquinas virtuales, debido al encabezado de extensión IPv6.

            • Cuando los medios virtuales, como una unidad de CD, se conectan al entorno de vSphere mediante una instancia integrada de Dell Remote Access Controller (iDRAC) y no se asigna ningún archivo de medios a la unidad, es posible que aparezcan varios mensajes de advertencia en el registro de vmkernel como los siguientes:
              vmw_psp_fixed: psp_fixedSelectPathToActivateInt:439: Switching to preferred path vmhba32:C0:T0:L1 in STANDBY state for device mpx.vmhba32:C0:T0:L1.WARNING: vmw_psp_fixed: psp_fixedSelectPathToActivateInt:464: Selected current STANDBY path vmhba32:C0:T0:L1 for device mpx.vmhba32:C0:T0:L1 to activate. This may lead to path thrashing.

            • Durante los flujos de trabajo de sincronización de 24 horas de vSphere Distributed Switch, es posible que vCenter Server quite de forma intermitente puertos virtuales distribuidos controlados NSX, como el puerto de reenvío de plano de servicio (SPF), de hosts ESXi. Por ello, es posible que se produzcan errores en operaciones de vSphere vMotion de máquinas virtuales. Se muestra un error como Could not connect SPF port : Not found en los registros.

            • ESXi 7.0 introdujo la partición ESX-OSData basada en VMFS-L, que asume la función de la partición desde cero heredada, la partición del bloqueador para VMware Tools y el destino del volcado de núcleo. Si configura la partición desde cero en el directorio raíz de un volumen VMFS durante una actualización a ESXi 7.0.x, el sistema intenta convertir los archivos VMFS en formato VMFS-L para que coincidan con los requisitos de partición de OS-Data. Como resultado, es posible que la partición OS-Data sobrescriba el volumen VMFS y cause la pérdida de datos.

            • Debido a un problema de control de registros, después de una actualización a ESXi 7.0 Update 2a, cuando se comprueba el estado de mantenimiento del canal de comunicación, se ven todos los hosts ESXi con el estado inactivo, ya que NSX Manager no puede conectarse al agente de firewall.

            • Si se instala un host ESXi versión 7.0 Update 2 en un LUN FCoE y utiliza el modo de arranque UEFI, cuando se intenta actualizar el host mediante vSphere QuickBoot, se puede producir un error en el servidor físico con una pantalla de diagnóstico de color púrpura debido a un error de memoria.

            • Los dispositivos USB tienen una profundidad de cola pequeña y, debido a una condición de carrera en la pila de almacenamiento ESXi, es posible que algunas operaciones de E/S no lleguen al dispositivo. Estas operaciones de E/S se ponen en cola en la pila de almacenamiento ESXi y, finalmente, se agota el tiempo de espera. Como resultado, los hosts ESXi dejan de responder.
              En la instancia de vSphere Client, aparecen alertas como Alert: /bootbank not to be found at path '/bootbank’ y Host not-responding.
              En los registros de vmkernel, se muestran errores similares al siguiente:
              2021-04-12T04:47:44.940Z cpu0:2097441)ScsiPath: 8058: Cancelled Cmd(0x45b92ea3fd40) 0xa0, cmdId.initiator=0x4538c859b8f8 CmdSN 0x0 from world 0 to path "vmhba32:C0:T0:L0". Cmd count Active:0 Queued:1.
              2021-04-12T04:48:50.527Z cpu2:2097440)ScsiDeviceIO: 4315: Cmd(0x45b92ea76d40) 0x28, cmdId.initiator=0x4305f74cc780 CmdSN 0x1279 from world 2099370 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x5 D:0x0 P:0x0 Cancelled from path layer. Cmd count Active:1
              2021-04-12T04:48:50.527Z cpu2:2097440)Queued:4

            • Es posible que se produzca una ralentización de hasta 60 minutos en el tiempo de arranque de los hosts ESXi después de una actualización a ESXi Update 2a.
              Este problema no afecta a las actualizaciones a ESXi Update 2a de versiones anteriores de ESXi 7.0.x.
              El problema solo se produce cuando se utiliza una línea base o imagen de vSphere Lifecycle Manager, o bien el comando esxcli software profile update para realizar la operación de actualización. Si utiliza una imagen ISO o una instalación generada por script, no se produce el problema.
              Es más probable que el problema afecte a las configuraciones de iSCSI, pero está relacionado con el algoritmo de ESXi para la detección de banco de arranque, no con destinos de almacenamiento externo lentos.

            • Debido a una fuga de memoria en la pila del conjunto de puertos, las operaciones de vSphere vMotion en un host ESXi pueden generar un error de memoria agotada. En vSphere Client, se muestra un error, como:
              Failed to reserve port. DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba port 1 39.
              Failed with error status: Out of memory.

            • Si vCenter Server no puede resolver vcsa.vmware.com a una dirección IP, no se puede cargar el catálogo de versiones de vSAN. La siguiente comprobación de estado de vSAN muestra una advertencia: Estado del motor de recomendación de compilación de vSAN.
              Es posible que se muestre un mensaje de error similar al siguiente:
              2021-04-12T11:40:59.435Z ERROR vsan-mgmt[32221] [VsanHttpRequestWrapper::urlopen opID=noOpId] Exception while sending request : Cannot resolve localhost or Internet websites.
              2021-04-12T11:40:59.435Z WARNING vsan-mgmt[32221] [VsanVumCoreUtil::CheckVumServiceStatus opID=noOpId] Failed to connect VUM service: Cannot resolve localhost or Internet websites.
              2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumIntegration::VumStatusCallback opID=noOpId] VUM is not installed or not responsive ​
              2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumSystemUtil::HasConfigIssue opID=noOpId] Config issue health.test.vum.vumDisabled exists on entity None

            • Un error de desbordamiento de enteros puede provocar que vSAN DOM emita limpiezas con más frecuencia que la configuración establecida.

            • Cuando una resincronización se ejecuta en paralelo con escrituras de invitado en objetos que son propiedad de un host ESXi, se puede producir un error en el host con una pantalla de diagnóstico de color púrpura.

            • Cuando el archivo cmmdstimemachineDump.log alcanza un límite máximo de 10 MB, se produce la rotación y se crea un nuevo archivo cmmdstimemachineDump. Sin embargo, durante la rotación, en los registros vmsyslogd.err es posible que aparezca un error como el siguiente:
              2021-04-08T03:15:53.719Z vmsyslog.loggers.file : ERROR ] Failed to write header on rotate. Exception: [Errno 2] No such file or directory: '/var/run/cmmdstimemachineDumpHeader.txt'

            • En algunos casos, el servicio de supervisión, pertenencia y directorio (CMMDS) del clúster no proporciona una entrada correcta a la tarea de cambio de formato de objeto y la tarea tarda mucho en responder.

            • En raras ocasiones, si se reemplaza el host testigo durante el proceso de actualización y se ejecuta una tarea de conversión de formato de disco poco después del reemplazo, se puede producir un error en varios hosts ESX en un clúster ampliado con una pantalla de diagnóstico de color púrpura.

            • Si crea una imagen personalizada de 7.0 Update 2a mediante el kit de empaquetado de ESXi, reemplace algunos de los componentes de la imagen base, por ejemplo, Intel-ixgben:1.8.9.0-1OEM.700.1.0.15525992 y, a continuación, actualice los hosts ESXi 7.0.x, no podrá eliminar el componente personalizado después de la actualización. Además, es posible que falten algunos VIB de los componentes personalizados.

            • Al clonar un dispositivo de arranque ESXi, se crean instancias con UUID idénticos. Dado que los UUID se utilizan para las operaciones de latido y diario de VMFS, cuando se duplican los UUID, después de las operaciones de instalación o actualización, varios hosts ESXi intentan acceder a regiones de metadatos en el mismo almacén de datos de VMFS. Como resultado, es posible que vea daños masivos en los metadatos de los almacenes de datos de VMFS en varios hosts ESXi.
              En los registros de vmkernel, aparecen mensajes como:
              VMkernel 608: VMFS volume DCS_HCFA_TEDS_Regulated_10032/5ba2905b-ac11166d-b145-0025b5920a02 on naa.60060e8012a34f005040a34f00000d64:1 has been detected corrupted.
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 319: FS3RCMeta 2245 200 21 105 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 326: 0 0 0 0 0 0 0 0 0 0 0 7 0 254 1 4 0 248 3 96 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 332: 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 338: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 

            • A partir de vSphere 7.0 Update 2, el nombre del controlador i40en de la bandeja de entrada se cambió a i40enu. Como resultado, si intenta instalar un controlador asíncrono de socio i40en, el VIB de i40en se omite o se revierte al controlador de la bandeja de entrada i40enu de VMware.

            • Un error inusual de Page Fault puede provocar un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura durante la instalación del complemento Dell EMC PowerPath.

            • Si la controladora del host USB se desconecta del sistema vSphere y cualquier recurso del dispositivo, como los archivos de volcado, sigue en uso por ESXi, la ruta de acceso del dispositivo no se podrá liberar cuando el dispositivo se vuelva a conectar. Como resultado, ESXi proporciona una nueva ruta de acceso al dispositivo USB, lo que interrumpe la conexión con la partición /bootbank o daña la partición VMFS-L LOCKER.

          ESXi-7.0U2c-18426014-sin-herramientas
          Nombre del perfil ESXi-7.0U2c-18426014-sin-herramientas
          Compilación Para obtener información sobre la compilación, consulte Revisiones incluidas en esta versión.
          Proveedor VMware, Inc.
          Fecha de versión 24 de agosto de 2021
          Nivel de aceptación PartnerSupported
          Hardware afectado N/C
          Software afectado N/C
          VIB afectados
          • VMware_bootbank_vsanhealth_7.0.2-0.20.18426014
          • VMware_bootbank_vsan_7.0.2-0.20.18426014
          • VMware_bootbank_gc_7.0.2-0.20.18426014
          • VMware_bootbank_esx-xserver_7.0.2-0.20.18426014
          • VMware_bootbank_clusterstore_7.0.2-0.20.18426014
          • VMware_bootbank_vdfs_7.0.2-0.20.18426014
          • VMware_bootbank_native-misc-drivers_7.0.2-0.20.18426014
          • VMware_bootbank_cpu-microcode_7.0.2-0.20.18426014
          • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.20.18426014
          • VMware_bootbank_esx-base_7.0.2-0.20.18426014
          • VMware_bootbank_loadesx_7.0.2-0.20.18426014
          • VMware_bootbank_esx-update_7.0.2-0.20.18426014
          • VMW_bootbank_bnxtroce_216.0.58.0-20vmw.702.0.20.18426014
          • VMW_bootbank_bnxtnet_216.0.50.0-34vmw.702.0.20.18426014
          • VMW_bootbank_qedrntv_3.40.5.53-17vmw.702.0.20.18426014
          • VMW_bootbank_qedentv_3.40.5.53-20vmw.702.0.20.18426014
          • VMW_bootbank_i40enu_1.8.1.137-1vmw.702.0.20.18426014
          • VMW_bootbank_lpfc_12.8.298.3-2vmw.702.0.20.18426014
          • VMW_bootbank_vmkusb_0.1-4vmw.702.0.20.18426014
          PR corregidas 2717698, 2731446, 2515171, 731306, 2751564, 2718934, 2755056, 2725886, 2725886, 2753231, 2728910, 2741111, 2759343, 2721379, 2751277, 2708326, 2755977, 2737934, 2777001, 2760932, 2731263, 2731142, 2760267, 2749688, 2763986, 2765534, 2766127, 2777003, 2778793, 2755807, 2760081, 2731644, 2749815, 2749962, 2738238, 2799408, 2722263, 2812906, 2750390, 2715138, 2753546
          Números de CVE relacionados N/C

          Esta revisión actualiza los siguientes problemas:

            • Una condición de carrera inusual en el controlador qedentv puede provocar un error en un host ESXi con una pantalla de diagnóstico de color púrpura. El problema se produce cuando una interrupción completa de Rx llega justo después de que se destruya un par de colas (Queue Pair, QP) de la interfaz de servicios generales (General Services Interface, GSI), por ejemplo, durante la descarga de un controlador qedentv o el apagado del sistema. En tal caso, el controlador qedentv puede acceder a una dirección QP ya liberada, lo que provoca una excepción de PF. El problema puede ocurrir en hosts ESXi que están conectados a un conmutador físico ocupado con un gran volumen de tráfico no solicitado en la GSI. En el seguimiento inverso, se muestran mensajes similares al siguiente:

              cpu4:2107287)0x45389609bcb0:[0x42001d3e6f72]qedrntv_ll2_rx_cb@(qedrntv)#<None>+0x1be stack: 0x45b8f00a7740, 0x1e146d040, 0x432d65738d40, 0x0, 0x
              2021-02-11T03:31:53.882Z cpu4:2107287)0x45389609bd50:[0x42001d421d2a]ecore_ll2_rxq_completion@(qedrntv)#<None>+0x2ab stack: 0x432bc20020ed, 0x4c1e74ef0, 0x432bc2002000,
              2021-02-11T03:31:53.967Z cpu4:2107287)0x45389609bdf0:[0x42001d1296d0]ecore_int_sp_dpc@(qedentv)#<None>+0x331 stack: 0x0, 0x42001c3bfb6b, 0x76f1e5c0, 0x2000097, 0x14c2002
              2021-02-11T03:31:54.039Z cpu4:2107287)0x45389609be60:[0x42001c0db867]IntrCookieBH@vmkernel#nover+0x17c stack: 0x45389609be80, 0x40992f09ba, 0x43007a436690, 0x43007a43669
              2021-02-11T03:31:54.116Z cpu4:2107287)0x45389609bef0:[0x42001c0be6b0]BH_Check@vmkernel#nover+0x121 stack: 0x98ba, 0x33e72f6f6e20, 0x0, 0x8000000000000000, 0x430000000001
              2021-02-11T03:31:54.187Z cpu4:2107287)0x45389609bf70:[0x42001c28370c]NetPollWorldCallback@vmkernel#nover+0x129 stack: 0x61, 0x42001d0e0000, 0x42001c283770, 0x0, 0x0
              2021-02-11T03:31:54.256Z cpu4:2107287)0x45389609bfe0:[0x42001c380bad]CpuSched_StartWorld@vmkernel#nover+0x86 stack: 0x0, 0x42001c0c2b44, 0x0, 0x0, 0x0
              2021-02-11T03:31:54.319Z cpu4:2107287)0x45389609c000:[0x42001c0c2b43]Debug_IsInitialized@vmkernel#nover+0xc stack: 0x0, 0x0, 0x0, 0x0, 0x0
              2021-02-11T03:31:54.424Z cpu4:2107287)^[[45m^[[33;1mVMware ESXi 7.0.2 [Releasebuild-17435195 x86_64]^[[0m
              #PF Exception 14 in world 2107287:vmnic7-pollW IP 0x42001d3e6f72 addr 0x1c

            • En raras ocasiones, mientras se enciende el dispositivo de vSphere Replication, se puede producir un error en el servicio hostd y provocar que los hosts ESXi no respondan temporalmente a vCenter Server. El servicio hostd se reinicia automáticamente y la conectividad se restaura.

            • Cuando se intenta definir un valor como false para un parámetro de opción avanzada en un perfil de host, la interfaz de usuario crea un valor de cadena no vacío. Los valores que no están vacíos se interpretan como true y el parámetro de opción avanzada recibe el valor true en el perfil de host.

            • Los hosts ESXi podrían dejar de responder a vCenter Server incluso cuando los hosts están accesibles y en ejecución. El problema se produce en imágenes de proveedor con controladores personalizados en los que ImageConfigManager consume más RAM que la asignada. Como resultado, errores repetidos de ImageConfigManager hacen que los hosts ESXi se desconecten de vCenter Server.
              En los registros de VMkernel, aparecen errores repetidos como:
              Admission failure in path: host/vim/vmvisor/hostd-tmp/sh.<pid1>:python.<pid2>:uw.<pid2>.
              En los registros de hostd, aparecen mensajes como: Task Created : haTask-ha-host-vim.host.ImageConfigManager.fetchSoftwarePackages-<sequence>, followed by: ForkExec(/usr/bin/sh) <pid1>, donde <pid1> identifica un proceso ImageConfigManager .

            • Si cambia la opción de configuración avanzada DiskMaxIOSize a un valor inferior, las operaciones de E/S con tamaños de bloque grandes pueden dividirse y colocarse en cola de forma incorrecta en la ruta de acceso de PSA. Como resultado, es posible que se agote el tiempo de espera de las operaciones de E/S de los hosts ESXi y se produzca un error.

            • En determinadas condiciones, las operaciones de encendido o apagado de las máquinas virtuales pueden tardar hasta 20 minutos. El problema se produce cuando el almacenamiento subyacente de las máquinas virtuales ejecuta una operación en segundo plano, como volver a examinar HBA o eventos de APD, y algunos bloqueos se mantienen continuamente.

            • En raras ocasiones, cuando el tamaño de respuesta de la página VPD del host ESXi de destino es diferente en rutas distintas al host, ESXi puede escribir más bytes que la longitud asignada para una ruta de acceso determinada. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura y un mensaje como el siguiente:
              Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4878 - Corruption in dlmalloc

            • Una contención de bloqueo inusual puede provocar errores en las operaciones de la máquina virtual, como la conmutación por error o la migración.
              Los mensajes de error de bloqueo son similares a los siguientes:
              vol 'VM_SYS_11', lock at 480321536: [Req mode 1] Checking liveness:
              type 10c00003 offset 480321536 v 1940464, hb offset 3801088

              o
              Res3: 2496: Rank violation threshold reached: cid 0xc1d00002, resType 2, cnum 5 vol VM_SYS_11

            • En flujos de trabajo complicados que provocan la creación de varias máquinas virtuales, al desplazarse hasta Máquinas virtuales > Máquinas virtuales, es posible que aparezcan grandes números en la columna Espacio aprovisionado de algunas máquinas virtuales. Por ejemplo, 2,95 TB en lugar del espacio aprovisionado real de 25 GB.

            • Al controlar el comando SCSI READ CAPACITY (10), es posible que ESXi copie el exceso de datos de la respuesta y dañe la pila de llamadas. Como resultado, se produce un error en el host ESXi con una pantalla de diagnóstico de color púrpura.

            • En muy raras ocasiones, es posible que no se bloqueen los clústeres de recursos de VMFS que se incluyen en una transacción de diario. Como resultado, durante el encendido de las máquinas virtuales, se puede producir un error en varios hosts ESXi con una pantalla de diagnóstico de color púrpura debido a la excepción 14 en la capa de VMFS. A continuación, se muestra un seguimiento típico de la pila y el mensaje que se ve en el registro de VMkernel:
              @BlueScreen: #PF Exception 14 in world 2097684:VSCSI Emulat IP 0x418014d06fca addr 0x0
              PTEs:0x16a47a027;0x600faa8007;0x0;
              2020-06-24T17:35:57.073Z cpu29:2097684)Inicio del código: 0x418013c00000 VMK uptime: 0:01:01:20.555
              2020-06-24T17:35:57.073Z cpu29:2097684)0x451a50a1baa0:[0x418014d06fca]Res6MemUnlockTxnRCList@esx#nover+0x176 pila: 0x1 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb10:[0x418014c7cdb6]J3_DeleteTransaction@esx#nover+0x33f pila: 0xbad0003
              2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb40:[0x418014c7db10]J3_AbortTransaction@esx#nover+0x105 pila: 0x0 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb80:[0x418014cbb752]Fil3_FinalizePunchFileHoleTxnVMFS6@esx#nover+0x16f pila: 0x430fe950e1f0
              2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bbd0:[0x418014c7252b]Fil3UpdateBlocks@esx#nover+0x348 pila: 0x451a50a1bc78 2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bce0:[0x418014c731dc]Fil3_PunchFileHoleWithRetry@esx#nover+0x89 pila: 0x451a50a1bec8
              2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bd90:[0x418014c739a5]Fil3_FileBlockUnmap@esx#nover+0x50e pila: 0x230eb5 2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be40:[0x418013c4c551]FSSVec_FileBlockUnmap@vmkernel#nover+0x6e pila: 0x230eb5
              2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be90:[0x418013fb87b1]VSCSI_ExecFSSUnmap@vmkernel#nover+0x8e pila: 0x0 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf00:[0x418013fb71cb]VSCSIDoEmulHelperIO@vmkernel#nover+0x2c pila: 0x430145fbe070
              2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf30:[0x418013ceadfa]HelperQueueFunc@vmkernel#nover+0x157 pila: 0x430aa05c9618 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bfe0:[0x418013f0eaa2]CpuSched_StartWorld@vmkernel#nover+0x77 pila: 0x0
              2020-06-24T17:35:57.083Z cpu29:2097684)base fs=0x0 gs=0x418047400000 Kgs=0x0

            • En raras ocasiones, es posible que algunas CPU Intel no puedan reenviar capturas de #DB y, si se produce una interrupción del temporizador durante la llamada del sistema Windows, la máquina virtual podría triplicar el error.

            • Si reinicia agentes de administración de ESXi desde DCUI, el servicio sfcbd no se inicia. Debe iniciar manualmente el servicio SFCB.

            • El servicio hostd registra el mensaje BuildPowerSupplySensorList found 0 power supply sensors cada 2 minutos. El problema se produce cuando se actualiza a ESXi 7.0 Update 1 o se instala nuevamente en un host ESXi.

            • En raras ocasiones, el asignador de memoria del kernel puede devolver un puntero NULL cuya referencia no podría anularse correctamente. Como resultado, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color púrpura, como #GP Exception 13 in world 2422594:vmm:overCom @ 0x42003091ede4. En el seguimiento inverso, aparecen errores similares a los siguientes:
              #1 Util_ZeroPageTable
              #2 Util_ZeroPageTableMPN
              #3 VmMemPfUnmapped
              #4 VmMemPfInt
              #5 VmMemPfGetMapping
              #6 VmMemPf
              #7 VmMemPfLockPageInt
              #8 VMMVMKCall_Call
              #9 VMKVMM_ArchEnterVMKernel

            • Si un dispositivo NVMe se agrega en caliente y se elimina en caliente en un espacio de tiempo corto, es posible que el controlador NVMe no pueda inicializar la controladora NVMe debido a que se haya agotado el tiempo de espera del comando. Como resultado, es posible que el controlador acceda a la memoria que ya se ha liberado durante un proceso de limpieza. En el seguimiento inverso, se muestra un mensaje como WARNING: NVMEDEV: NVMEInitializeController:4045: No se pudieron obtener los datos de identificación de la controladora. Estado: Tiempo de espera.
              Finalmente, se puede producir un error en el host ESXi con una pantalla de diagnóstico de color púrpura donde se muestre un error similar a #PF Exception ... in world ...:vmkdevmgr.

            • Cuando un host ESXi no tiene bloques de archivos grandes libres (LFB) para asignar, el host cumple con el aprovisionamiento de VMDK grueso o la creación de un archivo de intercambio con bloques de archivos pequeños (SFB). Sin embargo, en raras ocasiones, es posible que el host no pueda asignar también SFB. Como resultado, se produce un error en el aprovisionamiento de VMDK grueso o en la creación de un archivo de intercambio. Cuando las máquinas virtuales intentan encenderse, se muestra un error en los registros de VMkernel como el siguiente:
               vmkernel.1:2021-01-08T19:13:28.341Z cpu20:2965260)Fil3: 10269: Max no space retries (10) exceeded for caller Fil3_SetFileLength (status 'No space left on device')

            • Cuando se utilizan almacenes de datos de VMFS6 muy grandes, el proceso de asignación de bloques de archivos para VMDK finos en un clúster de recursos puede provocar un bloqueo de CPU. Como resultado, se ven mensajes de bloqueo de CPU y, en casos excepcionales, es posible que se produzca un error en hosts ESXi. En el seguimiento inverso, se muestran mensajes similares al siguiente:
              2021-04-07T02:18:08.730Z cpu31:2345212)ADVERTENCIA: Heartbeat: 849: PCPU 10 didn't have a heartbeat for 7 seconds; *may* be locked up.
              El seguimiento inverso asociado relacionado con funciones Res6AffMgr tiene un aspecto similar al siguiente:
              2021-01-06T02:16:16.073Z cpu0:2265741)ALERTA: NMI: 694: NMI IPI: RIPOFF(base):RBP:CS [0x121d74d(0x42001a000000):0x50d0:0xf48] (Src 0x1, CPU0)
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b320:[0x42001b21d74c]Res6AffMgrComputeSortIndices@esx#nover+0x369 pila: 0x43119125a000
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b3b0:[0x42001b224e46]Res6AffMgrGetCluster@esx#nover+0xb1f pila: 0xd 2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b4b0:[0x42001b226491]Res6AffMgr_AllocResourcesInt@esx#nover+0x40a pila: 0x4311910f4890
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b680:[0x42001b2270e2]Res6AffMgr_AllocResources@esx#nover+0x1b pila: 0x0

            • Durante una actualización a ESXi 7.0 Update 2 o después de ella, es posible que la capa de almacenamiento de ESX no asigne suficientes recursos de memoria para los hosts ESXi con un gran número de CPU físicas y muchos dispositivos de almacenamiento o rutas de acceso conectados a los hosts. Como resultado, se puede producir un error en dichos hosts ESXi con una pantalla de diagnóstico de color púrpura.

            • Las máquinas virtuales con hardware versión 18 y VMware Tools 11.2.0 o versiones posteriores pueden generar errores debido a un problema de dispositivo de gráficos virtuales en el lado de destino durante una instancia de vSphere vMotion o Storage vMotion.
              En vmkernel.log se muestra una línea como la siguiente:
              PF failed to handle a fault on mmInfo at va 0x114f5ae0: Out of memory. Terminating...

            • Después de actualizar a la versión de hardware 18, algunos sistemas operativos invitados, como CentOS 7, en las CPU AMD pueden generar un error de detención del kernel al arrancar la máquina virtual. Aparece el mensaje de pánico del kernel cuando abre una consola web para la máquina virtual.

            • Algunos kernels de Linux agregan la opción Límite de encapsulación de túnel de IPv6 a paquetes de túnel IPv6, como se describe en RFC 2473, par. 5.1. Como resultado, los paquetes de túnel IPv6 se descartan en el tráfico entre las máquinas virtuales, debido al encabezado de extensión IPv6.

            • Cuando los medios virtuales, como una unidad de CD, se conectan al entorno de vSphere mediante una instancia integrada de Dell Remote Access Controller (iDRAC) y no se asigna ningún archivo de medios a la unidad, es posible que aparezcan varios mensajes de advertencia en el registro de vmkernel como los siguientes:
              vmw_psp_fixed: psp_fixedSelectPathToActivateInt:439: Switching to preferred path vmhba32:C0:T0:L1 in STANDBY state for device mpx.vmhba32:C0:T0:L1.WARNING: vmw_psp_fixed: psp_fixedSelectPathToActivateInt:464: Selected current STANDBY path vmhba32:C0:T0:L1 for device mpx.vmhba32:C0:T0:L1 to activate. This may lead to path thrashing.

            • Durante los flujos de trabajo de sincronización de 24 horas de vSphere Distributed Switch, es posible que vCenter Server quite de forma intermitente puertos virtuales distribuidos controlados NSX, como el puerto de reenvío de plano de servicio (SPF), de hosts ESXi. Por ello, es posible que se produzcan errores en operaciones de vSphere vMotion de máquinas virtuales. Se muestra un error como Could not connect SPF port : Not found en los registros.

            • ESXi 7.0 introdujo la partición ESX-OSData basada en VMFS-L, que asume la función de la partición desde cero heredada, la partición del bloqueador para VMware Tools y el destino del volcado de núcleo. Si configura la partición desde cero en el directorio raíz de un volumen VMFS durante una actualización a ESXi 7.0.x, el sistema intenta convertir los archivos VMFS en formato VMFS-L para que coincidan con los requisitos de partición de OS-Data. Como resultado, es posible que la partición OS-Data sobrescriba el volumen VMFS y cause la pérdida de datos.

            • Debido a un problema de control de registros, después de una actualización a ESXi 7.0 Update 2a, cuando se comprueba el estado de mantenimiento del canal de comunicación, se ven todos los hosts ESXi con el estado inactivo, ya que NSX Manager no puede conectarse al agente de firewall.

            • Si se instala un host ESXi versión 7.0 Update 2 en un LUN FCoE y utiliza el modo de arranque UEFI, cuando se intenta actualizar el host mediante vSphere QuickBoot, se puede producir un error en el servidor físico con una pantalla de diagnóstico de color púrpura debido a un error de memoria.

            • Los dispositivos USB tienen una profundidad de cola pequeña y, debido a una condición de carrera en la pila de almacenamiento ESXi, es posible que algunas operaciones de E/S no lleguen al dispositivo. Estas operaciones de E/S se ponen en cola en la pila de almacenamiento ESXi y, finalmente, se agota el tiempo de espera. Como resultado, los hosts ESXi dejan de responder.
              En la instancia de vSphere Client, aparecen alertas como Alert: /bootbank not to be found at path '/bootbank’ y Host not-responding.
              En los registros de vmkernel, se muestran errores similares al siguiente:
              2021-04-12T04:47:44.940Z cpu0:2097441)ScsiPath: 8058: Cancelled Cmd(0x45b92ea3fd40) 0xa0, cmdId.initiator=0x4538c859b8f8 CmdSN 0x0 from world 0 to path "vmhba32:C0:T0:L0". Cmd count Active:0 Queued:1.
              2021-04-12T04:48:50.527Z cpu2:2097440)ScsiDeviceIO: 4315: Cmd(0x45b92ea76d40) 0x28, cmdId.initiator=0x4305f74cc780 CmdSN 0x1279 from world 2099370 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x5 D:0x0 P:0x0 Cancelled from path layer. Cmd count Active:1
              2021-04-12T04:48:50.527Z cpu2:2097440)Queued:4

            • Es posible que se produzca una ralentización de hasta 60 minutos en el tiempo de arranque de los hosts ESXi después de una actualización a ESXi Update 2a.
              Este problema no afecta a las actualizaciones a ESXi Update 2a de versiones anteriores de ESXi 7.0.x.
              El problema solo se produce cuando se utiliza una línea base o imagen de vSphere Lifecycle Manager, o bien el comando esxcli software profile update para realizar la operación de actualización. Si utiliza una imagen ISO o una instalación generada por script, no se produce el problema.
              Es más probable que el problema afecte a las configuraciones de iSCSI, pero está relacionado con el algoritmo de ESXi para la detección de banco de arranque, no con destinos de almacenamiento externo lentos.

            • Debido a una fuga de memoria en la pila del conjunto de puertos, las operaciones de vSphere vMotion en un host ESXi pueden generar un error de memoria agotada. En vSphere Client, se muestra un error, como:
              Failed to reserve port. DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba port 1 39.
              Failed with error status: Out of memory.

            • Si vCenter Server no puede resolver vcsa.vmware.com a una dirección IP, no se puede cargar el catálogo de versiones de vSAN. La siguiente comprobación de estado de vSAN muestra una advertencia: Estado del motor de recomendación de compilación de vSAN.
              Es posible que se muestre un mensaje de error similar al siguiente:
              2021-04-12T11:40:59.435Z ERROR vsan-mgmt[32221] [VsanHttpRequestWrapper::urlopen opID=noOpId] Exception while sending request : Cannot resolve localhost or Internet websites.
              2021-04-12T11:40:59.435Z WARNING vsan-mgmt[32221] [VsanVumCoreUtil::CheckVumServiceStatus opID=noOpId] Failed to connect VUM service: Cannot resolve localhost or Internet websites.
              2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumIntegration::VumStatusCallback opID=noOpId] VUM is not installed or not responsive ​
              2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumSystemUtil::HasConfigIssue opID=noOpId] Config issue health.test.vum.vumDisabled exists on entity None

            • Un error de desbordamiento de enteros puede provocar que vSAN DOM emita limpiezas con más frecuencia que la configuración establecida.

            • Cuando una resincronización se ejecuta en paralelo con escrituras de invitado en objetos que son propiedad de un host ESXi, se puede producir un error en el host con una pantalla de diagnóstico de color púrpura.

            • Cuando el archivo cmmdstimemachineDump.log alcanza un límite máximo de 10 MB, se produce la rotación y se crea un nuevo archivo cmmdstimemachineDump. Sin embargo, durante la rotación, en los registros vmsyslogd.err es posible que aparezca un error como el siguiente:
              2021-04-08T03:15:53.719Z vmsyslog.loggers.file : ERROR ] Failed to write header on rotate. Exception: [Errno 2] No such file or directory: '/var/run/cmmdstimemachineDumpHeader.txt'

            • En algunos casos, el servicio de supervisión, pertenencia y directorio (CMMDS) del clúster no proporciona una entrada correcta a la tarea de cambio de formato de objeto y la tarea tarda mucho en responder.

            • En raras ocasiones, si se reemplaza el host testigo durante el proceso de actualización y se ejecuta una tarea de conversión de formato de disco poco después del reemplazo, se puede producir un error en varios hosts ESX en un clúster ampliado con una pantalla de diagnóstico de color púrpura.

            • Si crea una imagen personalizada de 7.0 Update 2a mediante el kit de empaquetado de ESXi, reemplace algunos de los componentes de la imagen base, por ejemplo, Intel-ixgben:1.8.9.0-1OEM.700.1.0.15525992 y, a continuación, actualice los hosts ESXi 7.0.x, no podrá eliminar el componente personalizado después de la actualización. Además, es posible que falten algunos VIB de los componentes personalizados.

            • Al clonar un dispositivo de arranque ESXi, se crean instancias con UUID idénticos. Dado que los UUID se utilizan para las operaciones de latido y diario de VMFS, cuando se duplican los UUID, después de las operaciones de instalación o actualización, varios hosts ESXi intentan acceder a regiones de metadatos en el mismo almacén de datos de VMFS. Como resultado, es posible que vea daños masivos en los metadatos de los almacenes de datos de VMFS en varios hosts ESXi.
              En los registros de vmkernel, aparecen mensajes como:
              VMkernel 608: VMFS volume DCS_HCFA_TEDS_Regulated_10032/5ba2905b-ac11166d-b145-0025b5920a02 on naa.60060e8012a34f005040a34f00000d64:1 has been detected corrupted.
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 319: FS3RCMeta 2245 200 21 105 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 326: 0 0 0 0 0 0 0 0 0 0 0 7 0 254 1 4 0 248 3 96 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 332: 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 338: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 

            • A partir de vSphere 7.0 Update 2, el nombre del controlador i40en de la bandeja de entrada se cambió a i40enu. Como resultado, si intenta instalar un controlador asíncrono de socio i40en, el VIB de i40en se omite o se revierte al controlador de la bandeja de entrada i40enu de VMware.

            • Un error inusual de Page Fault puede provocar un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura durante la instalación del complemento Dell EMC PowerPath.

            • Si la controladora del host USB se desconecta del sistema vSphere y cualquier recurso del dispositivo, como los archivos de volcado, sigue en uso por ESXi, la ruta de acceso del dispositivo no se podrá liberar cuando el dispositivo se vuelva a conectar. Como resultado, ESXi proporciona una nueva ruta de acceso al dispositivo USB, lo que interrumpe la conexión con la partición /bootbank o daña la partición VMFS-L LOCKER.

          ESXi-7.0U2sc-18295176-estándar
          Nombre del perfil ESXi-7.0U2sc-18295176-estándar
          Compilación Para obtener información sobre la compilación, consulte Revisiones incluidas en esta versión.
          Proveedor VMware, Inc.
          Fecha de versión 24 de agosto de 2021
          Nivel de aceptación PartnerSupported
          Hardware afectado N/C
          Software afectado N/C
          VIB afectados
          • VMware_bootbank_vdfs_7.0.2-0.15.18295176
          • VMware_bootbank_esx-xserver_7.0.2-0.15.18295176
          • VMware_bootbank_esx-base_7.0.2-0.15.18295176
          • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.15.18295176
          • VMware_bootbank_crx_7.0.2-0.15.18295176
          • VMware_bootbank_native-misc-drivers_7.0.2-0.15.18295176
          • VMware_bootbank_cpu-microcode_7.0.2-0.15.18295176
          • VMware_bootbank_gc_7.0.2-0.15.18295176
          • VMware_bootbank_vsanhealth_7.0.2-0.15.18295176
          • VMware_bootbank_clusterstore_7.0.2-0.15.18295176
          • VMware_bootbank_vsan_7.0.2-0.15.18295176
          • VMware_bootbank_loadesx_7.0.2-0.15.18295176
          • VMware_bootbank_esx-update_7.0.2-0.15.18295176
          • VMware_locker_tools-light_11.2.6.17901274-18295176
          • VMW_bootbank_vmkusb_0.1-1vmw.702.0.15.18295176
          PR corregidas 2738816, 2738857, 2735594 y 2761942
          Números de CVE relacionados N/C

          Esta revisión actualiza los siguientes problemas:

            • OpenSSH se actualizó a la versión 8.5p1.

            • La biblioteca OpenSSL se actualizó a la versión openssl-1.0.2y.

            • La biblioteca Libarchive se actualizó a la versión 3.5.1.

            • ESXi incluye las siguientes imágenes ISO de VMware Tools 11.2.6:

              • windows.iso: Imagen de VMware Tools para Windows 7 SP1 o Windows Server 2008 R2 SP1 o posterior
              • linux.iso: Imagen de VMware Tools 10.3.23 para versiones anteriores del sistema operativo Linux con una versión de glibc 2.5 o posterior

              Las siguientes imágenes ISO de VMware Tools 10.3.10 están disponibles para la descarga:

              • solaris.iso: imagen de VMware Tools para Solaris
              • darwin.iso: Imagen de VMware Tools para Mac OS X versiones 10.11 y posteriores.

              Siga los procedimientos enumerados en los siguientes documentos para descargar VMware Tools para las plataformas que no se incluyen en ESXi:

          ESXi-7.0U2sc-18295176-sin-herramientas
          Nombre del perfil ESXi-7.0U2sc-18295176-sin-herramientas
          Compilación Para obtener información sobre la compilación, consulte Revisiones incluidas en esta versión.
          Proveedor VMware, Inc.
          Fecha de versión 24 de agosto de 2021
          Nivel de aceptación PartnerSupported
          Hardware afectado N/C
          Software afectado N/C
          VIB afectados
          • VMware_bootbank_vdfs_7.0.2-0.15.18295176
          • VMware_bootbank_esx-xserver_7.0.2-0.15.18295176
          • VMware_bootbank_esx-base_7.0.2-0.15.18295176
          • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.15.18295176
          • VMware_bootbank_crx_7.0.2-0.15.18295176
          • VMware_bootbank_native-misc-drivers_7.0.2-0.15.18295176
          • VMware_bootbank_cpu-microcode_7.0.2-0.15.18295176
          • VMware_bootbank_gc_7.0.2-0.15.18295176
          • VMware_bootbank_vsanhealth_7.0.2-0.15.18295176
          • VMware_bootbank_clusterstore_7.0.2-0.15.18295176
          • VMware_bootbank_vsan_7.0.2-0.15.18295176
          • VMware_bootbank_loadesx_7.0.2-0.15.18295176
          • VMware_bootbank_esx-update_7.0.2-0.15.18295176
          • VMware_locker_tools-light_11.2.6.17901274-18295176
          • VMW_bootbank_vmkusb_0.1-1vmw.702.0.15.18295176
          PR corregidas 2738816, 2738857, 2735594 y 2761942
          Números de CVE relacionados N/C

          Esta revisión actualiza los siguientes problemas:

            • OpenSSH se actualizó a la versión 8.5p1.

            • La biblioteca OpenSSL se actualizó a la versión openssl-1.0.2y.

            • La biblioteca Libarchive se actualizó a la versión 3.5.1.

            • ESXi incluye las siguientes imágenes ISO de VMware Tools 11.2.6:

              • windows.iso: Imagen de VMware Tools para Windows 7 SP1 o Windows Server 2008 R2 SP1 o posterior
              • linux.iso: Imagen de VMware Tools 10.3.23 para versiones anteriores del sistema operativo Linux con una versión de glibc 2.5 o posterior

              Las siguientes imágenes ISO de VMware Tools 10.3.10 están disponibles para la descarga:

              • solaris.iso: imagen de VMware Tools para Solaris
              • darwin.iso: Imagen de VMware Tools para Mac OS X versiones 10.11 y posteriores.

              Siga los procedimientos enumerados en los siguientes documentos para descargar VMware Tools para las plataformas que no se incluyen en ESXi:

          ESXi Image - ESXi70U2c-18426014
          Nombre ESXi
          Versión ESXi70U2c-18426014
          Fecha de versión 24 de agosto de 2020
          Categoría Corrección de error
          Componentes afectados
          • Componente de ESXi: VIB principales ESXi
          • Controlador Emulex FC
          • Controladores Broadcom NetXtreme-E Network y ROCE/RDMA para VMware ESXi
          • Controladores RoCE/RDMA y Ethernet QLogic FastLinQ 10/25/40/50/100 GbE para VMware ESXi
          • Componente de instalación/actualización de ESXi
          • Controlador de red para adaptadores Intel(R) X710/XL710/XXV710/X722
          • Controlador USB
          PR corregidas  2717698, 2731446, 2515171, 731306, 2751564, 2718934, 2755056, 2725886, 2725886, 2753231, 2728910, 2741111, 2759343, 2721379, 2751277, 2708326, 2755977, 2737934, 2777001, 2760932, 2731263, 2731142, 2760267, 2749688, 2763986, 2765534, 2766127, 2777003, 2778793, 2755807, 2760081, 2731644, 2749815, 2749962, 2738238, 2799408, 2722263, 2812906, 2750390, 2715138, 2753546
          Números de CVE relacionados N/C
            ESXi image - ESXi70U2sc-18295176
            Nombre ESXi
            Versión ESXi70U2sc-18295176
            Fecha de versión 24 de agosto de 2020
            Categoría Seguridad
            Componentes afectados
            • Componente de ESXi: VIB principales ESXi
            • Controlador USB
            • Componente de herramientas de ESXi
            • Componente de instalación/actualización de ESXi
            PR corregidas  2738816, 2738857, 2735594 y 2761942
            Números de CVE relacionados N/C

              Problemas conocidos

              Los problemas conocidos se agrupan del siguiente modo:

              Problemas varios
              • El daemon sensord no puede informar el estado de hardware del host ESXi.

                Un error lógico en la validación de SDR de IPMI puede provocar que sensord no pueda identificar un origen para la información de la fuente de alimentación. Como resultado, al ejecutar el comando vsish -e get /power/hostStats, es posible que no vea ningún resultado.

                Solución alternativa: Ninguna

              Problemas de instalación, actualización y migración
              • Los hosts ESXi podrían perder conectividad después de actualizar el controlador brcmfcoe en matrices de almacenamiento Hitachi

                Después de actualizar el controlador brcmfcoe en matrices de almacenamiento Hitachi, es posible que los hosts ESXi no arranquen y pierdan conectividad.

                Solución alternativa: Ninguna.

              Problemas conocidos de versiones anteriores

              Para ver una lista de los problemas conocidos anteriores, haga clic aquí.

              check-circle-line exclamation-circle-line close-line
              Scroll to top icon
              check-circle-line exclamation-circle-line close-line
              Scroll to top icon