Los problemas conocidos anteriores se agrupan del siguiente modo.
- Se produce un error en las comprobaciones previas a la actualización o la migración de vCenter con el mensaje "Unexpected error 87"
Se produce un error en las comprobaciones previas a la actualización o la migración de vCenter Server cuando el certificado del servicio de token de seguridad (Security Token Service, STS) no contiene un campo de nombre alternativo del firmante (Subject Alternative Name, SAN). Esta situación se produce cuando se reemplaza el certificado de Single Sign-On para vCenter 5.5 por un certificado personalizado que no tiene un campo de SAN y se intenta actualizar a vCenter Server 7.0. La actualización considera que el certificado de STS no es válido y las comprobaciones previas evitan que continúe el proceso de actualización.
Solución alternativa: Reemplace el certificado de STS por un certificado válido que contenga un campo de SAN y, a continuación, continúe con la actualización o la migración a vCenter Server 7.0.
- Problemas de actualización a vSphere 7.0 con proveedores de CIM preexistentes
Después de la actualización, los proveedores de CIM de 32 bits instalados anteriormente dejan de funcionar debido a que ESXi requiere proveedores de CIM de 64 bits. Los clientes pueden perder las funciones de la API de administración relacionadas con CIMPDK, DDK nativo (Native DDK, NDDK), HEXDK y VAIODK (filtros de E/S), y ver errores relacionados con la dependencia uwglibc.
El servidor syslog informa de la ausencia de un módulo: "No se cargaron las bibliotecas compartidas de 32 bits".
Solución alternativa: No existe una solución alternativa. La solución es descargar los nuevos proveedores de CIM de 64 bits del proveedor.
- Se puede producir un error en la instalación de los controladores de 7.0 Update 1 en los hosts de ESXi 7.0
No se pueden instalar controladores aplicables a ESXi 7.0 Update 1 en hosts que ejecutan ESXi 7.0 o 7.0b.
Se produce un error en la operación, como:
VMW_bootbank_qedrntv_3.40.4.0-12vmw.701.0.0.xxxxxxx requiere vmkapi_2_7_0_0, pero no se puede cumplir el requisito dentro de ImageProfile.
Consulte el archivo de registro para obtener más detalles.
Solución alternativa: Actualice el host ESXi a 7.0 Update 1. Vuelva a intentar la instalación del controlador.
- El arranque UEFI de los hosts ESXi puede detenerse con un error durante una actualización a ESXi 7.0 Update 2 desde una versión anterior de ESXi 7.0
Si intenta actualizar el entorno a 7.0 Update 2 desde una versión anterior de ESXi 7.0 mediante líneas base de revisión de vSphere Lifecycle Manager, el arranque UEFI de los hosts ESXi podría detenerse con un error como el siguiente:
Loading /boot.cfg
Failed to load crypto64.efi
Error irrecuperable: 15 (Not found)
Solución alternativa: Para obtener más información, consulte los artículos 83063 y 83107 de la base de conocimientos de VMware.
- Si VIB heredados están en uso en un host ESXi, vSphere Lifecycle Manager no puede extraer una especificación de software deseada para inicializar en un clúster nuevo
Con vCenter Server 7.0 Update 2, puede crear un nuevo clúster importando la especificación de software deseada desde un único host de referencia. Sin embargo, si VIB heredados están en uso en un host ESXi, vSphere Lifecycle Manager no puede extraer en la instancia de vCenter Server donde se crea el clúster una especificación de software de referencia de dicho host. En /var/log/lifecycle.log
, se muestran mensajes similares al siguiente:
020-11-11T06:54:03Z ciclo de vida: 1000082644: HostSeeding:499 ERROR Extract depot failed: Checksum doesn't match. Calculated 5b404e28e83b1387841bb417da93c8c796ef2497c8af0f79583fd54e789d8826, expected: 0947542e30b794c721e21fb595f1851b247711d0619c55489a6a8cae6675e796 2020-11-11T06:54:04Z lifecycle: 1000082644: imagemanagerctl:366 ERROR Extract depot failed. 2020-11-11T06:54:04Z lifecycle: 1000082644: imagemanagerctl:145 ERROR [VibChecksumError]
Solución alternativa: Siga los pasos descritos en el artículo 83042 de la base de conocimientos de VMware.
- Ve una ráfaga corta de mensajes de registro en syslog.log después de cada arranque de ESXi
Después de actualizar a ESXi 7.0 Update 2, es posible que vea una ráfaga corta de mensajes de registro después de cada arranque de ESXi.
Estos registros no indican ningún problema con ESXi y se pueden ignorar estos mensajes. Por ejemplo:
2021-01-19T22:44:22Z watchdog-vaai-nasd: '/usr/lib/vmware/nfs/bin/vaai-nasd -f' salió después de 0 segundos (error rápido 127) 1
2021-01-19T22:44:22Z watchdog-vaai-nasd: Ejecutar '/usr/lib/vmware/nfs/bin/vaai-nasd -f'
2021-01-19T22:44:22.990Z aainasd[1000051135]: Registro para el daemon de VAAI-NAS para NFS version=1.0 build=build-00000 option=DEBUG
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoadFile: No hay entradas cargadas por diccionario.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoad: No se puede abrir el archivo "/usr/lib/vmware/config": no existe dicho archivo o directorio.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoad: No se puede abrir el archivo "//.vmware/config": no existe dicho archivo o directorio.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoad: No se puede abrir el archivo "//.vmware/preferences": no existe dicho archivo o directorio.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: Cambiar a extensiones syslog de VMware
2021-01-19T22:44:22.992Z vaainasd[1000051135]: Cargar complementos VAAI-NAS.
2021-01-19T22:44:22.992Z vaainasd[1000051135]: DISKLIB-PLUGIN : No se está cargando el complemento /usr/lib/vmware/nas_plugins/lib64: no es una biblioteca compartida.
Solución alternativa: Ninguna
- Aparecen mensajes de advertencia sobre la falta de VIB en los informes de comprobación de compatibilidad de vSphere Quick Boot
Después de actualizar a ESXi 7.0 Update 2, si comprueba la compatibilidad con vSphere Quick Boot de su entorno mediante el comando /usr/lib/vmware/loadesx/bin/loadESXCheckCompat.py
, es posible que vea algunos mensajes de advertencia sobre la falta de VIB en el shell. Por ejemplo:
No se encuentran VIB... en la recopilación de VIB especificada.
Omitiendo VIB reservados ausentes..., se eliminan de los identificadores de VIB reservados.
Estas advertencias no indican un problema de compatibilidad.
Solución alternativa: Los mensajes de VIB que faltan se pueden omitir de forma segura y no afectan a la notificación de compatibilidad de vSphere Quick Boot. La línea de salida final del comando loadESXCheckCompat
indica de forma inequívoca si el host es compatible.
- Se produce un error al arrancar automáticamente un clúster que administra con una imagen de vSphere Lifecycle Manager
Si intenta arrancar automáticamente un clúster que administra con una imagen de vSphere Lifecycle Manager para realizar una instalación con estado y sobrescribir las particiones de VMFS, se produce un error en la operación. En el paquete de soporte, se muestran mensajes similares al siguiente:
2021-02-11T19:37:43Z Host Profiles[265671 opID=MainThread]: ERROR: EngineModule::ApplyHostConfig. Excepción: [Errno 30] Sistema de archivos de solo lectura
Solución alternativa: Siga las instrucciones del proveedor para limpiar la partición de VMFS en el host de destino y vuelva a intentar la operación. Como alternativa, utilice un disco vacío. Para obtener más información sobre la utilidad de partición del disco en ESXi, consulte el artículo 1036609 de la base de conocimientos de VMware.
- Se puede producir un error en las actualizaciones a ESXi 7.x desde las versiones 6.5.x y 6.7.0 mediante ESXCLI debido a una limitación de espacio
Se puede producir un error en las actualizaciones a ESXi 7.x desde las versiones 6.5.x y 6.7.0 mediante el uso de los comandos de ESXCLI esxcli software profile update
o esxcli software profile install
, ya que la partición bootbank de ESXi puede ser menor que el tamaño del perfil de imagen. En ESXi Shell o en el shell de PowerCLI, se muestra un error como el siguiente:
[InstallationError]
La transacción pendiente requiere 244 MB de espacio libre; sin embargo, el tamaño máximo admitido es de 239 MB.
Consulte el archivo de registro para obtener más detalles.
El problema también se produce cuando se intenta realizar una actualización de host ESXi mediante los comandos de ESXCLI esxcli software vib update
o esxcli software vib install
.
Solución alternativa: Puede realizar la actualización en dos pasos, si utiliza el comando esxcli software profile update
para actualizar hosts ESXi a ESXi 6.7 Update 1 o una versión posterior y, a continuación, actualiza a 7.0 Update 1c. Como alternativa, puede ejecutar una actualización mediante una imagen ISO y vSphere Lifecycle Manager.
- No se pueden migrar clones vinculados entre instancias de vCenter Server
Si se migra un clon vinculado entre instancias de vCenter Server, se podría producir un error en operaciones como el encendido y la eliminación de la máquina virtual de origen con un error Estado no válido de la máquina virtual
.
Solución alternativa: Mantenga los clones vinculados en el mismo vCenter Server que la máquina virtual de origen. También puede promocionar el clon vinculado a clon completo antes de la migración.
- Se podría producir un error en la migración entre instancias de vCenter Server de máquinas virtuales con muchos discos virtuales y niveles de instantáneas a un almacén de datos en el almacenamiento de NVMe over TCP
Se podría producir un error en la migración entre instancias de vCenter Server de máquinas virtuales con más de 180 discos virtuales y 32 niveles de instantáneas a un almacén de datos en un almacenamiento de NVMe over TCP. Se produce un error en el host ESXi de forma preventiva como el siguiente La migración superó el tiempo de cambio máximo de 100 segundo(s)
.
Solución alternativa: Ninguna
- Es posible que una máquina virtual con contadores de supervisión de rendimiento virtual (Virtual Performance Monitoring Counters, VPMC) habilitados no pueda migrar entre hosts ESXi
Si intenta migrar una máquina virtual con VPMC habilitado mediante vSphere vMotion, se podría producir un error en la operación si el host de destino utiliza algunos de los contadores para calcular las estadísticas de memoria o de rendimiento. Se produce un error en la operación, como Un contador de rendimiento utilizado por el invitado no está disponible en la CPU del host
.
Solución alternativa: Apague la máquina virtual y utilice la migración en frío. Para obtener más información, consulte el artículo 81191 de la base de conocimientos de VMware.
- Si una operación de instalación, actualización o eliminación de un VIB directo precede inmediatamente a una actualización interactiva o generada por script a ESXi 7.0 Update 3 mediante el ISO de instalación, se produce un error en la actualización
Cuando una operación de instalación, actualización o eliminación de un VIB precede inmediatamente a una actualización interactiva o generada por script a ESXi 7.0 Update 3 mediante el ISO del instalador, es posible que ConfigStore no conserve algunas configuraciones de la actualización. Como resultado, los hosts ESXi dejan de estar accesibles después de la operación de actualización, aunque la actualización parezca correcta. Para evitar este problema, el instalador de ESXi 7.0 Update 3 agrega una comprobación temporal para bloquear esos escenarios. En la consola del instalador de ESXi, se muestra el siguiente mensaje de error: La instalación, la actualización o la eliminación del VIB directo pueden provocar un error en la posterior actualización de ESXi cuando se utiliza el instalador ISO
.
Solución alternativa: Utilice un método de actualización alternativo para evitar el problema, como el uso de ESXCLI o vSphere Lifecycle Manager.
- Es posible que la autenticación de tarjeta inteligente y de RSA SecurID deje de funcionar después de actualizar a vCenter Server 7.0
Si configuró vCenter Server para la autenticación de tarjeta inteligente o de RSA SecurID, consulte el artículo de la base de conocimientos de VMware en https://kb.vmware.com/s/article/78057 antes de iniciar el proceso de actualización de vSphere 7.0. Si no implementa la solución alternativa como se describe en la base de conocimientos, es posible que vea los siguientes mensajes de error y que la autenticación de RSA SecurID o de tarjeta inteligente no funcione.
"Smart card authentication may stop working. Smart card settings may not be preserved, and smart card authentication may stop working."
o
"RSA SecurID authentication may stop working. RSA SecurID settings may not be preserved, and RSA SecurID authentication may stop working."
Solución alternativa: Antes de actualizar a vSphere 7.0, consulte el artículo de la base de conocimientos de VMware en https://kb.vmware.com/s/article/78057.
- Se produce un error de VMAFD al actualizar una implementación de vCenter Server con una instancia externa de Platform Services Controller de 6.7 U3 a 7.0
Cuando se actualiza una implementación de vCenter Server mediante una instancia externa de Platform Services Controller, la instancia de Platform Services Controller converge en un dispositivo de vCenter Server Appliance. Si durante la actualización aparece el error install.vmafd.vmdir_vdcpromo_error_21
, se produjo un error en el proceso de primer arranque de VMAFD. El proceso de primer arranque de VMAFD copia la instancia de VMware Directory Service Database (data.mdb) desde la instancia de origen de Platform Services Controller y el dispositivo de vCenter Server Appliance del socio de replicación.
Solución alternativa: Deshabilite la descarga de segmentación de TCP (TCP Segmentation Offload, TSO) y la descarga de segmentación genérica (Generic Segmentation Offload, GSO) en el adaptador Ethernet de la instancia de origen de Platform Services Controller o el dispositivo de vCenter Server Appliance del socio de replicación antes de actualizar una implementación de vCenter Server con una instancia externa de Platform Services Controller. Consulte el artículo de la base de conocimientos: https://kb.vmware.com/s/article/74678
- Es posible que no se conserve la configuración de la tarjeta inteligente y RSA SecurID durante la actualización de vCenter Server
La autenticación con RSA SecurID no funcionará después de actualizar a vCenter Server 7.0. Se mostrará un mensaje de error para notificar este problema cuando se intente iniciar sesión mediante RSA SecurID.
Solución alternativa: Vuelva a configurar la tarjeta inteligente o RSA SecureID.
- Se produce un error en la migración de vCenter Server para Windows a vCenter Server Appliance 7.0 con un mensaje de error de red
Se produce un error en la migración de vCenter Server para Windows a vCenter Server Appliance 7.0 y aparece el mensaje La IP ya existe en la red
. Esto evita que el proceso de migración configure los parámetros de red en el nuevo dispositivo de vCenter Server Appliance. Para obtener más información, examine el archivo de registro: /var/log/vmware/upgrade/UpgradeRunner.log
Solución alternativa:
- Compruebe que se hayan completado todas las actualizaciones de Windows en la instancia de origen de vCenter Server para Windows, o deshabilite las actualizaciones automáticas de Windows hasta que se complete la migración.
- Vuelva a intentar la migración de vCenter Server para Windows a vCenter Server Appliance 7.0.
- Cuando se configura el número de funciones virtuales para un dispositivo de SR-IOV mediante el parámetro de módulo max_vfs, es posible que no se apliquen los cambios
En vSphere 7.0, es posible configurar el número de funciones virtuales para un dispositivo de SR-IOV mediante la API de administración de infraestructuras virtuales (Virtual Infrastructure Management, VIM), por ejemplo, a través de vSphere Client. La tarea no requiere el reinicio del host ESXi. Después de usar la configuración de la API de VIM, si se intenta configurar el número de funciones virtuales de SR-IOV mediante el parámetro de módulo max_vfs
, es posible que no se apliquen los cambios debido a que la configuración de la API de VIM los reemplaza.
Solución alternativa: Ninguna. Si desea configurar el número de funciones virtuales para un dispositivo de SR-IOV, utilice siempre el mismo método. Utilice la API de VIM o el parámetro de módulo max_vfs
y reinicie el host ESXi.
- La instancia actualizada de vCenter Server Appliance no conserva todas las redes secundarias (NIC) de la instancia de origen
Durante una actualización importante, si la instancia de origen de vCenter Server Appliance se configura con varias redes secundarias que no son NIC de VCHA, la instancia de destino de vCenter Server no conservará las redes secundarias que no sean NIC de VCHA. Si la instancia de origen se configura con varias NIC que forman parte de grupos de puertos DVS, no se conservará la configuración de las NIC durante la actualización. Se conservarán las configuraciones de las instancias de vCenter Server Appliance que forman parte del grupo de puertos estándar.
Solución alternativa: Ninguna. Configure manualmente la red secundaria en la instancia de destino de vCenter Server Appliance.
- Después de actualizar o migrar una instancia de vCenter Server con una instancia externa de Platform Services Controller, los usuarios que se autentican con Active Directory pierden el acceso a la instancia de vCenter Server recientemente actualizada
Después de actualizar o migrar una instancia de vCenter Server con una instancia externa de Platform Services Controller, si la instancia de vCenter Server recientemente actualizada no se une a un dominio de Active Directory, los usuarios que se autentiquen con Active Directory perderán el acceso a la instancia de vCenter Server.
Solución alternativa: Compruebe que la nueva instancia de vCenter Server se unió a un dominio de Active Directory. Consulte el artículo de la base de conocimientos: https://kb.vmware.com/s/article/2118543
- Se produce un error al migrar una instancia de vCenter Server para Windows con una instancia externa de Platform Services Controller mediante una base de datos de Oracle
Si existen cadenas que no son ASCII en la tabla de eventos y tareas de Oracle, se puede producir un error en la migración al exportar los datos de eventos y tareas. Se proporciona el siguiente mensaje de error: UnicodeDecodeError
Solución alternativa: Ninguna.
- Tras actualizar un host ESXi, una comprobación de cumplimiento del perfil de host muestra el estado no conforme cuando se produce un error en las tareas de corrección del host
El estado no conforme indica una incoherencia entre el perfil y el host.
Esta incoherencia puede producirse debido a que ESXi 7.0 no permite reglas de notificación duplicadas, pero el perfil que usted utiliza las contiene. Por ejemplo, es posible que experimente problemas si intenta utilizar el perfil de host que extrajo del host antes de actualizar ESXi 6.5 o 6.7 a la versión 7.0, y dicho perfil de host contiene reglas de notificación que son duplicados de las reglas predeterminadas del sistema.
Solución alternativa:
- Elimine del documento del perfil de host todas las reglas de notificación que sean duplicados de las reglas predeterminadas del sistema.
- Compruebe el estado de cumplimiento.
- Corrija el host.
- Si los pasos anteriores no resuelven el problema, reinicie el host.
- Aparece un mensaje de error en la interfaz de administración de vCenter Server
Tras instalar vCenter Server 7.0 o realizar la actualización a esta versión, al desplazarse hasta el panel Actualizar en la interfaz de administración de vCenter Server, aparece el mensaje de error "Compruebe la URL e inténtelo de nuevo". El mensaje de error no le impide usar las funciones del panel Actualizar, y puede ver e instalar las actualizaciones disponibles, así como realizar copias intermedias de ellas.
Solución alternativa: Ninguna.
- Los almacenes de datos de VMFS no se montan automáticamente después de la eliminación en caliente y la inserción en caliente de un disco en servidores HPE Gen10 con controladoras SmartPQI
En ocasiones, cuando se eliminan en caliente discos SATA en servidores HPE Gen10 con controladoras SmartPQI sin ampliadores y se insertan en caliente en una bahía de disco diferente del mismo equipo, o cuando se eliminan en caliente varios discos y se insertan en caliente en un orden diferente, se asigna un nuevo nombre local a los discos. El almacén de datos de VMFS en ese disco se muestra como una instantánea y no se vuelve a montar automáticamente debido a que el nombre del dispositivo se modificó.
Solución alternativa: Ninguna. La controladora SmartPQI no admite operaciones desordenadas de eliminación en caliente e inserción en caliente.
- Es posible que ESXi finalice las operaciones de E/S en los dispositivos NVMeOF debido a errores en todas las rutas de acceso activas
En ocasiones, todas las rutas de acceso activas a dispositivos NVMeOF registran errores de E/S debido a problemas de vínculo o al estado de las controladoras. Si el estado de una de las rutas de acceso cambia a inactivo, es posible que el complemento de alto rendimiento (High-Performance Plug-in, HPP) no seleccione otra ruta de acceso si esta muestra un gran volumen de errores. Como resultado, se produce un error en la operación de E/S.
Solución alternativa: Deshabilite la opción de configuración /Misc/HppManageDegradedPaths para desbloquear las operaciones de E/S.
- Se produce un error en la comprobación de VOMA sobre los almacenes de datos VMFS basados en NVMe
La comprobación de VOMA no es compatible con los almacenes de datos de VMFS basados en NVMe y generará el siguiente error:
ERROR: Failed to reserve device. Function not implemented
Ejemplo:
# voma -m vmfs -f check -d /vmfs/devices/disks/: <partition#>
Running VMFS Checker version 2.1 in check mode
Initializing LVM metadata, Basic Checks will be done
Checking for filesystem activity
Performing filesystem liveness check..|Scanning for VMFS-6 host activity (4096 bytes/HB, 1024 HBs).
ERROR: Failed to reserve device. Function not implemented
Aborting VMFS volume check
VOMA failed to check device : General Error
Solución alternativa: Ninguna. Si necesita analizar metadatos de VMFS, puede recopilarlos con la opción -l
y recurrir al soporte al cliente de VMware. El comando para recopilar el volcado es el siguiente:
voma -l -f dump -d /vmfs/devices/disks/:<partition#>
- El uso de la API de reconfiguración de máquinas virtuales para asociar un disco de primera clase cifrado a una máquina virtual cifrada puede generar un error
Si un FCD y una máquina virtual se cifran con diferentes claves de cifrado, los intentos por asociar el FCD cifrado a la máquina virtual cifrada mediante VM reconfigure API
pueden generar un error y mostrar el siguiente mensaje:
No se puede descifrar el disco porque la clave o la contraseña son incorrectas.
Solución alternativa: Utilice attachDisk API
en lugar de VM reconfigure API
para asociar un FCD cifrado a una máquina virtual cifrada.
- El host ESXi puede obtener un estado sin respuesta si una extensión no principal de su almacén de datos de VMFS distribuido entra en el estado de pérdida de dispositivo permanente (Permanent Device Loss, PDL)
Este problema no se presenta cuando una extensión no principal del almacén de datos de VMFS distribuido genera un error junto con la extensión principal. En este caso, no se puede acceder a ninguna porción del almacén de datos y ya no se permiten las operaciones de E/S.
En cambio, cuando solo una extensión no principal genera un error, pero se sigue teniendo acceso a la extensión principal, el latido del almacén de datos parece normal, y las operaciones de E/S entre el host y el almacén de datos prosiguen. Sin embargo, también comienzan a generar errores las operaciones de E/S que dependen de la extensión no principal con el error. Es posible que se acumulen otras transacciones de E/S mientras se espera que se resuelva el error de E/S y que el host entre en un estado sin respuesta.
Solución alternativa: Solucione la condición de PDL de la extensión no principal para resolver este problema.
- La controladora virtual NVMe es la controladora de disco predeterminada para los sistemas operativos invitados Windows 10
La controladora virtual NVMe es la controladora de disco predeterminada para los siguientes sistemas operativos invitados cuando se utiliza la versión de hardware 15 o posterior:
Windows 10
Windows Server 2016
Windows Server 2019
Es posible que algunas funciones no estén disponibles cuando se utiliza una controladora virtual NVMe. Para obtener más información, consulte https://kb.vmware.com/s/article/2147714.
Nota: Algunos clientes utilizan la opción predeterminada anterior de LSI Logic SAS. Esto incluye ESXi Host Client y PowerCLI.
Solución alternativa: Si necesita funciones que no están disponibles en NVMe virtual, cambie a VMware Paravirtual SCSI (PVSCSI) o LSI Logic SAS. Para obtener información sobre el uso de VMware Paravirtual SCSI (PVSCSI), consulte https://kb.vmware.com/s/article/1010398.
- Después de la actualización de un host ESXi a vSphere 7.0, la presencia de reglas de notificación de núcleo duplicadas puede provocar un comportamiento inesperado
Las reglas de notificación determinan qué complemento de múltiples rutas (como NMP, HPP, etc.) posee rutas de acceso a un dispositivo de almacenamiento en particular. ESXi 7.0 no admite reglas de notificación duplicadas. Sin embargo, el host ESXi 7.0 no muestra alertas si se agregan reglas duplicadas a las reglas de notificación existentes que se heredaron mediante una actualización a partir de una versión anterior. Como consecuencia del uso de reglas duplicadas, es posible que complementos no deseados recuperen dispositivo de almacenamiento, lo que puede provocar un resultado inesperado.
Solución alternativa: No utilice reglas de notificación de núcleo duplicadas. Antes de agregar una nueva regla de notificación, elimine cualquier regla de notificación coincidente que exista.
- Una consulta de CNS con el filtro de estado de cumplimiento establecido puede demorar un tiempo inusualmente largo en completarse
La API QueryVolume de CNS permite obtener información sobre los volúmenes de CNS, como el estado del volumen y el estado de cumplimiento. Al comprobar el estado de cumplimiento de volúmenes individuales, los resultados se obtienen rápidamente. Sin embargo, cuando se invoca la API QueryVolume de CNS para comprobar el estado de cumplimiento de varios volúmenes (varias decenas o cientos), la consulta puede procesarse lentamente.
Solución alternativa: Evite usar consultas en masa. Cuando necesite obtener el estado de cumplimiento, consulte un volumen a la vez o limite la cantidad de volúmenes en la API de consulta a 20 o menos. Mientras realiza la consulta, evite ejecutar otras operaciones de CNS para obtener el mejor rendimiento.
- Un almacén de datos de VMFS respaldado por un espacio de nombres o dispositivo de NVMe por Fabrics, puede quedar inaccesible de forma permanente tras recuperarse de un error de APD o PDL
Si un almacén de datos de VMFS en un host ESXi está respaldado por un espacio de nombres o un dispositivo de NVMe por Fabrics, en caso de que se produzca un error en todas las rutas de acceso (APD) o en un error de pérdida permanente de un dispositivo (PDL), es posible que no se pueda acceder al almacén de datos incluso después de la recuperación. No se puede acceder al almacén de datos desde el host ESXi o el sistema de vCenter Server.
Solución alternativa: Para recuperarse de este estado, vuelva a realizar un examen en el nivel de host o de clúster. Para obtener más información, consulte Realizar un nuevo examen de almacenamiento.
- Los volúmenes de CNS eliminados se pueden mostrar como existentes de manera temporal en la interfaz de usuario de CNS
Tras eliminar un disco de FCD que respalda un volumen de CNS, es posible que el volumen se siga mostrando como existente en la interfaz de usuario de CNS. Sin embargo, se produce un error si se intenta eliminar el volumen. Es posible que se muestre un mensaje de error similar al siguiente:
No se pudieron encontrar el objeto o el artículo a los que se hace referencia
.
Solución alternativa: La siguiente sincronización completa resolverá la incoherencia y actualizará correctamente la interfaz de usuario de CNS.
- Puede que a veces se produzca un error al intentar asociar varios volúmenes de CNS al mismo pod
Al asociar varios volúmenes al mismo pod de forma simultánea, en algunas ocasiones es posible que la operación de asociación elija la misma ranura de controladora. Por ello, solo una de las operaciones se realiza correctamente, mientras que se producen errores en otros montajes de volúmenes.
Solución alternativa: Después de que Kubernetes reintente realizar la operación que generó errores, la operación se completa correctamente si hay una ranura de controladora disponible en la máquina virtual del nodo.
- En determinadas circunstancias, a pesar de que se produce un error en una operación de CNS, el estado de la tarea se muestra como correcto en vSphere Client
Esto puede ocurrir cuando, por ejemplo, se utiliza una directiva de almacenamiento que no cumple los requisitos para crear un volumen de CNS. Se produce un error en la operación, pero vSphere Client muestra el estado de la tarea como correcto.
Solución alternativa: Aunque el estado de la tarea aparezca como correcto en vSphere Client, no hay ninguna garantía de que la operación de CNS se haya realizado correctamente. Para asegurarse de que la operación se realizó correctamente, compruebe los resultados.
- Una operación de eliminación incorrecta para un volumen persistente de CNS puede dejar sin eliminar el volumen en el almacén de datos de vSphere
Este problema puede producirse cuando la API de eliminación de CNS intenta eliminar un volumen persistente que aún está asociado a un pod. Por ejemplo, cuando se elimina el espacio de nombres de Kubernetes donde se ejecuta el pod. Como resultado, el volumen se borra de CNS y la operación de consulta de CNS no devuelve el volumen. Sin embargo, el volumen continuará residiendo en el almacén de datos y no podrá eliminarse a través de sucesivas operaciones de la API de eliminación de CNS.
Solución alternativa: Ninguna.
- Rendimiento reducido de redes en las NIC 82599/X540/X550 de Intel
La nueva función de par de cola que se agrega al controlador ixgben para mejorar el rendimiento de las redes en las NIC serie 82599EB/X540/X550 de Intel puede reducir la capacidad de proceso con algunas cargas de trabajo en vSphere 7.0 en comparación con vSphere 6.7.
Solución alternativa: Para lograr el mismo rendimiento de red que vSphere 6.7, puede deshabilitar el par de cola con un parámetro de módulo. Para deshabilitar el par de cola, ejecute el siguiente comando:
# esxcli system module parameters set -p "QPair=0,0,0,0..." -m ixgben
Después de ejecutar el comando, reinicie.
- Uno o más dispositivos de I/O no generan interrupciones cuando el IOMMU de AMD está en uso
Si los dispositivos de I/O en el host ESXi ofrecen más de un total de 512 orígenes de interrupción diferentes, a algunos orígenes se les asigna de forma errónea un índice de entradas de tabla de reasignación de interrupción (IRTE) en la IOMMU de AMD que es mayor que el valor máximo. Se pierden las interrupciones de este tipo de origen, por lo que el dispositivo de I/O correspondiente se comporta como si se deshabilitan las interrupciones.
Solución alternativa: Use el comando ESXCLI esxcli system settings kernel set -s iovDisableIR -v true
para deshabilitar el reasignador de interrupciones de AMD IOMMU. Reinicie el host ESXi para que el comando tenga efecto.
- Cuando se establece la negociación automática en un adaptador de red, se puede producir un error en el dispositivo
En algunos entornos, si establece la velocidad de vínculo en negociación automática para los adaptadores de red mediante el comando esxcli network nic set -a -n vmmicx
, es posible que los dispositivos fallen y la conectividad no se recupere con un reinicio. El problema es específico de una combinación de algunos adaptadores de red Intel X710/X722, un módulo SFP+ y un conmutador físico, donde no se admite la negociación automática de escenarios de velocidad/dúplex.
Solución alternativa: Asegúrese de utilizar un módulo SFP+ de la marca Intel. Como alternativa, use un cable de cobre de conexión directa (Direct Attach Copper, DAC).
- Los adaptadores de red x2542 y x2541 de Solarflare configurados en el modo de puerto 1x100G alcanzan un rendimiento de hasta 70 Gbps en un entorno de vSphere
vSphere 7.0 Update 2 admite adaptadores de red Solarflare x2542 y x2541 configurados en el modo de puerto 1x100G. Sin embargo, es posible que observe una limitación de hardware en los dispositivos que provoque que el rendimiento real sea de hasta 70 Gbps en un entorno de vSphere.
Solución alternativa: Ninguna
- Se puede producir un error en el tráfico de VLAN después de restablecer una NIC
Una NIC con el identificador de dispositivo PCI 8086:1537 puede dejar de enviar y recibir paquetes etiquetados de VLAN después de un restablecimiento; por ejemplo, con un comando vsish -e set /net/pNics/vmnic0/reset 1
.
Solución alternativa: Evite restablecer la NIC. Si ya tiene este problema, use los siguientes comandos para restaurar la capacidad de VLAN; por ejemplo, en vmnic0:
# esxcli network nic software set --tagging=1 -n vmnic0
# esxcli network nic software set --tagging=0 -n vmnic0
- Cualquier cambio que se haga en la configuración del equilibrador de NetQueue hace que NetQueue se deshabilite después de reiniciar el host ESXi
Cualquier cambio en la configuración del equilibrador de NetQueue mediante el comando esxcli/localcli network nic queue loadbalancer set -n <nicname> --<lb_setting>
hace que NetQueue, que está habilitado de forma predeterminada, se deshabilite después de reiniciar un host ESXi.
Solución alternativa: Después de cambiar la configuración del equilibrador de NetQueue y reiniciar el host, use el comando configstorecli config current get -c esx -g network -k nics
para recuperar los datos de ConfigStore y comprobar si /esx/network/nics/net_queue/load_balancer/enable
funciona según lo esperado.
Después de ejecutar el comando, verá un resultado similar al siguiente:
{
"mac": "02:00:0e:6d:14:3e",
"name": "vmnic1",
"net_queue": {
"load_balancer": {
"dynamic_pool": true,
"enable": true
}
},
"virtual_mac": "00:50:56:5a:21:11"
}
Si el resultado no es el esperado, por ejemplo, "load_balancer": "enable": false"
, ejecute el siguiente comando:
esxcli/localcli network nic queue loadbalancer state set -n <nicname> -e true
- Los adaptadores de red de RDMA paravirtual (PVRDMA) no admiten directivas de redes NSX
Si configura un puerto virtual distribuido NSX para usarlo en el tráfico de PVRDMA, el tráfico del protocolo RDMA a través de los adaptadores de red de PVRDMA no cumple con las directivas de redes NSX.
Solución alternativa: No configure los puertos virtuales distribuidos NSX para usarlos en el tráfico de PVRDMA.
- No se admite la reversión de una instancia de vSphere Distributed Switch (VDS) convergente a VDS NSX-T en vSphere 7.0 Update 3
En vSphere 7.0 Update 3, no se admite la reversión de VDS convergente que admite tráfico de vSphere 7 y tráfico de NSX-T 3 en el mismo VDS a un N-VDS para NSX-T.
Solución alternativa: Ninguna
- Si no establece el parámetro de módulo del controlador de red nmlx5, se podría producir un error en la conectividad de red o en los hosts ESXi
Si no establece el parámetro de módulo supported_num_ports
para el controlador nmlx5_core
en un host ESXi con varios adaptadores de red de las versiones Mellanox ConnectX-4, Mellanox ConnectX-5 y Mellanox ConnectX-6, es posible que el controlador no asigne suficiente memoria para operar todos los puertos NIC del host. Como resultado, es posible que se produzca una pérdida de red o un error de host ESXi con una pantalla de diagnóstico de color morado, o ambos.
Solución alternativa: Establezca el valor del parámetro de módulo supported_num_ports
en el controlador de red nmlx5_core
en un valor igual al número total de puertos de adaptador de red Mellanox ConnectX-4, Mellanox ConnectX-5 y Mellanox ConnectX-6 en el host ESXi.
- Las máquinas virtuales de alto rendimiento pueden experimentar un deterioro del rendimiento de red cuando se habilita Network I/O Control (NetIOC)
Las máquinas virtuales que requieren un alto rendimiento de red pueden experimentar un deterioro del rendimiento al actualizar vSphere 6.7 a vSphere 7.0 con NetIOC habilitado.
Solución alternativa: Configure el ajuste ethernetx.ctxPerDev
para habilitar varios ámbitos.
- El tráfico IPv6 no puede pasar por los puertos de VMkernel mediante IPsec
Cuando se migran puertos de VMkernel de un grupo de puertos a otro, el tráfico IPv6 no pasa a través de los puertos de VMkernel mediante IPsec.
Solución alternativa: Elimine la asociación de seguridad (Security Association, SA) de IPsec del servidor afectado y, a continuación, vuelva a aplicar la SA. Para obtener información sobre cómo establecer y eliminar una asociación de seguridad de IPsec, consulte la documentación Seguridad de vSphere.
- Mayor rendimiento de red de ESX con un aumento en la porción de uso de CPU
El rendimiento de red de ESX puede aumentar con una porción del uso de CPU.
Solución alternativa: Elimine y agregue la interfaz de red con solo 1 cola de envío de rx. Por ejemplo:
esxcli network ip interface remove --interface-name=vmk1
esxcli network ip interface add --interface-name=vmk1 --num-rxqueue=1
- Es posible que la máquina virtual pierda tráfico Ethernet después de una operación de adición en caliente, eliminación en caliente o Storage vMotion
Una máquina virtual puede dejar de recibir tráfico Ethernet después de una operación de adición en caliente, eliminación en caliente o Storage vMotion. Este problema afecta a las máquinas virtuales en las que el vínculo superior de la VNIC tiene SR-IOV habilitado. La NIC virtual de PVRDMA exhibe este problema cuando el vínculo superior de la red virtual es una NIC con capacidad RDMA de Mellanox y se configuran espacios de nombres de RDMA.
Solución alternativa: Puede eliminar en caliente las NIC de Ethernet afectadas de la máquina virtual y agregarlas en caliente para restaurar el tráfico. En los sistemas operativos invitados Linux, el reinicio de la red también puede resolver el problema. Si estas soluciones alternativas no surten efecto, puede reiniciar la máquina virtual para restaurar la conectividad de red.
- El cambio de la dirección IP de una instancia de VCSA implementada con una dirección IP estática requiere que se creen los registros de DNS por adelantado
Con la introducción de DDNS, la actualización de registros de DNS solo funciona para las instancias de VCSA implementadas con redes configuradas por DHCP. Al cambiar la dirección IP de vCenter Server a través de VAMI, se muestra el siguiente error:
La dirección IP especificada no se resuelve en el nombre de host especificado.
Solución alternativa: Existen dos soluciones alternativas posibles.
- Cree una entrada de DNS adicional con el mismo FQDN y la dirección IP deseada. Inicie sesión en VAMI y siga los pasos para cambiar la dirección IP.
- Inicie sesión en VCSA mediante SSH. Ejecute el siguiente script:
./opt/vmware/share/vami/vami_config_net
Utilice la opción 6 para cambiar la dirección IP de eth0. Una vez cambiada la dirección, ejecute el siguiente script:
./opt/likewise/bin/lw-update-dns
Reinicie todos los servicios de VCSA para actualizar la información de IP en el servidor DNS.
- La eliminación del grupo de puertos virtuales distribuidos de NSX (NSX Distributed Virtual Port Group, NSX DVPG) puede demorar varios segundos después de que se elimina el conmutador lógico correspondiente en NSX Manager.
Si el número de conmutadores lógicos aumenta, es posible que la eliminación del NSX DVPG en vCenter Server demore más tiempo después de la eliminación del conmutador lógico correspondiente en NSX Manager. En un entorno con 12.000 conmutadores lógicos, se requieren aproximadamente 10 segundos para eliminar un DVPG NSX de vCenter Server.
Solución alternativa: Ninguna.
- Si se crea una gran cantidad de grupos de puertos virtuales distribuidos de NSX, hostd se queda sin memoria y genera un error
En vSphere 7.0, los grupos de puertos virtuales distribuidos de NSX consumen una cantidad de memoria significativamente mayor que las redes opacas. Por esta razón, los grupos de puertos virtuales distribuidos de NSX no pueden admitir la misma escala que una red opaca con la misma cantidad de memoria.
Solución alternativa: Para admitir el uso de grupos de puertos virtuales distribuidos de NSX, aumente la cantidad de memoria en los hosts ESXi. Si comprueba que el sistema tiene suficiente memoria para admitir las máquinas virtuales, puede aumentar directamente la memoria de hostd
mediante el siguiente comando.
localcli --plugin-dir /usr/lib/vmware/esxcli/int/ sched group setmemconfig --group-path host/vim/vmvisor/hostd --units mb --min 2048 --max 2048
Tenga en cuenta que esto hará que hostd
use memoria que normalmente está reservada para las máquinas virtuales del entorno. Esto puede reducir el número de máquinas virtuales que el host ESXi puede admitir.
- DRS puede iniciar vMotion de forma incorrecta si la reserva de red está configurada en una máquina virtual
Si la reserva de red está configurada en una máquina virtual, se espera que DRS solo migre la máquina virtual a un host que cumpla con los requisitos especificados. En un clúster con nodos de transporte de NSX, si algunos de los nodos de transporte se unen a la zona de transporte mediante NSX-T Virtual Distributed Switch (N-VDS) y otros mediante vSphere Distributed Switch (VDS) 7.0, DRS puede iniciar vMotion de forma incorrecta. Es posible que se produzca este problema cuando ocurre lo siguiente:
- La máquina virtual se conecta a un conmutador lógico de NSX configurado con una reserva de red.
- Algunos nodos de transporte se unen a la zona de transporte mediante N-VDS y otros mediante VDS 7.0, o bien los nodos de transporte se unen a la zona de transporte a través de diferentes instancias de VDS 7.0.
Solución alternativa: Haga que todos los nodos de transporte se unan a la zona de transporte mediante N-VDS o la misma instancia de VDS 7.0.
- Al agregar una NIC de VMkernel (vmknic) a un grupo de puertos de NSX, vCenter Server muestra el error "Conectar el adaptador de VMKernel a un grupo de puertos de NSX en un host sin estado no es una operación admitida. En su lugar, utilice el grupo de puertos distribuidos".
- Para una instancia de ESXi sin estado en un conmutador distribuido virtual (Distributed Virtual Switch, DVS), la vmknic en un grupo de puertos de NSX está bloqueada. En su lugar, debe utilizar un grupo de puertos distribuidos.
- Para una instancia de ESXi con estado en un DVS, a pesar de que se admiten las vmknic en un grupo de puertos de NSX, vSAN puede presentar problemas si las emplea.
Solución alternativa: Utilice un grupo de puertos distribuidos en el mismo DVS.
- Se puede producir un error al habilitar SR-IOV desde vCenter para QLogic 4x10GE QL41164HFCU CNA
Si se desplaza hasta el cuadro de diálogo Editar configuración de los adaptadores de red física e intenta habilitar SR-IOV, puede que se produzca un error en la operación cuando se utilice QLogic 4x10GE QL41164HFCU CNA. Si se intenta habilitar SR-IOV, se puede producir una interrupción de la red del host ESXi.
Solución alternativa: Utilice el siguiente comando en el host ESXi para habilitar SR-IOV:
esxcfg-module
- Se produce un error en vCenter Server si los hosts de un clúster que utiliza Distributed Resource Scheduler (DRS) se unen a las redes de NSX-T mediante un conmutador virtual distribuido (Virtual Distributed Switch, VDS) diferente, o bien mediante una combinación de NSX-T Virtual Distributed Switch (NVDS) y el VDS
En vSphere 7.0, cuando se utilizan redes de NSX-T en un VDS de vSphere con un clúster de DRS, se puede producir un error en vCenter Server si los hosts no se unen a la zona de transporte de NSX mediante las mismas instancias de VDS o NVDS.
Solución alternativa: Haga que los hosts de un clúster de DRS se unan a la zona de transporte de NSX mediante las mismas instancias de VDS o NVDS.
- No se puede habilitar NSX-T en un clúster que ya está habilitado para administrar la configuración y la actualización de imágenes en todos los hosts de forma colectiva
NSX-T no es compatible con la funcionalidad de administración de imágenes de vSphere Lifecycle Manager. Cuando se habilita un clúster para la configuración y la actualización de imágenes en todos los hosts del clúster de forma colectiva, no se puede habilitar NSX-T en ese clúster. Sin embargo, es posible implementar instancias de NSX Edge en este clúster.
Solución alternativa: Mueva los hosts a un nuevo clúster que pueda administrar con líneas base y habilite NSX-T en ese nuevo clúster.
- vSphere Lifecycle Manager y los servicios de archivos de vSAN no pueden habilitarse al mismo tiempo en un clúster de vSAN de vSphere 7.0
Si se habilita vSphere Lifecycle Manager en un clúster, no se pueden habilitar los servicios de archivos de vSAN en el mismo clúster y viceversa. Para habilitar vSphere Lifecycle Manager en un clúster en el que ya estén habilitados los servicios de archivos de vSAN, primero deshabilite los servicios de archivos de vSAN y vuelva a intentar la operación. Tenga en cuenta que si realiza una transición a un clúster que se administra con una sola imagen, vSphere Lifecycle Manager no se puede deshabilitar en dicho clúster.
Solución alternativa: Ninguna.
- Cuando un administrador de soporte de hardware no está disponible, se ve afectada la funcionalidad de vSphere High Availability (HA)
La funcionalidad de vSphere HA se ve afectada si un administrador de soporte de hardware no está disponible para un clúster que se administra con una sola imagen en el que se habilita vSphere HA y en el que se selecciona un complemento de firmware y controladores. Es posible que se produzcan los siguientes errores.
- Se produce un error al configurar vSphere HA en un clúster.
- No se puede completar la configuración del agente de vSphere HA en un host:
Se produjo un error al aplicar los VIB de HA en el clúster.
- Se produce un error al corregir vSphere HA:
Error general del sistema: No se pudo obtener el mapa de componentes efectivos.
- Se produce un error al deshabilitar vSphere HA: Se produjo un error en la tarea de eliminación de soluciones.
Error general del sistema: No se puede encontrar el paquete de soporte de hardware del depósito o el administrador de soporte de hardware.
Solución alternativa:
- Si el administrador de soporte de hardware no está disponible de forma temporal, realice los siguientes pasos.
- Vuelva a conectar el administrador de soporte de hardware a vCenter Server.
- Seleccione un clúster en el menú Hosts y clústeres.
- Seleccione la pestaña Configurar.
- En Servicios, haga clic en vSphere Availability.
- Vuelva a habilitar vSphere HA.
- Si el administrador de soporte de hardware no está disponible de forma permanente, realice los siguientes pasos.
- Elimine el administrador de soporte de hardware y el paquete de soporte de hardware de la especificación de imagen.
- Vuelva a habilitar vSphere HA.
- Seleccione un clúster en el menú Hosts y clústeres.
- Seleccione la pestaña Actualizaciones.
- Haga clic en Editar.
- Elimine el complemento de firmware y controlador, y haga clic en Guardar.
- Seleccione la pestaña Configurar.
- En Servicios, haga clic en vSphere Availability.
- Vuelva a habilitar vSphere HA.
- No se elimina el elemento iofilter de un clúster después de un proceso de corrección en vSphere Lifecycle Manager
Se produce un error al eliminar el elemento filtro de E/S de un clúster mediante la corrección del clúster en vSphere Lifecycle Manager, y se muestra el siguiente mensaje: El filtro de E/S XXX ya existe
. El elemento filtro de E/S permanece en la lista como instalado.
Solución alternativa:
- Llame a la API del filtro de E/S
UninstallIoFilter_Task
desde el objeto administrado de vCenter Server (IoFilterManager).
- Corrija el clúster en vSphere Lifecycle Manager.
- Llame a la API del filtro de E/S
ResolveInstallationErrorsOnCluster_Task
desde el objeto administrado de vCenter Server (IoFilterManager) para actualizar la base de datos.
- Durante la corrección de un clúster habilitado para vSphere HA en vSphere Lifecycle Manager, la adición de hosts genera un estado de error en vSphere HA
Si se agregan uno o varios hosts ESXi durante el proceso de corrección de un clúster habilitado para vSphere HA, se genera el siguiente mensaje de error: Se produjo un error al aplicar los VIB de HA en el clúster.
Solución alternativa: Una vez completada la operación de corrección del clúster, realice una de las siguientes tareas.
- Haga clic con el botón derecho en el host de ESXi con errores y seleccione Volver a configurar para vSphere HA.
- Deshabilite y vuelva a habilitar vSphere HA para el clúster.
- Durante la corrección de un clúster habilitado para vSphere HA en vSphere Lifecycle Manager, si se deshabilita y se vuelve a habilitar vSphere HA, se genera un estado de error en vSphere HA
Al deshabilitar y volver a habilitar vSphere HA durante la corrección de un clúster, es posible que se produzca un error en el proceso de corrección debido a que las comprobaciones de estado de vSphere HA indican que los hosts no tienen paquetes VIB de vSphere HA instalados. Es posible que se muestre el siguiente mensaje de error: Error al establecer la especificación de imagen deseada para el clúster
.
Solución alternativa: Una vez completada la operación de corrección del clúster, deshabilite y vuelva a habilitar vSphere HA para el clúster.
- La búsqueda de imágenes recomendadas en vSphere Lifecycle Manager es lenta en los clústeres de gran tamaño
En los clústeres grandes con más de 16 hosts, la tarea de generación de recomendaciones puede tardar más de una hora en completarse o puede parecer que se bloquea. El tiempo de finalización de la tarea de recomendación depende de la cantidad de dispositivos configurados en cada host y de la cantidad de candidatos de imagen del almacén que vSphere Lifecycle Manager debe procesar antes de obtener una imagen válida para recomendar.
Solución alternativa: Ninguna.
- La comprobación de la compatibilidad de hardware en vSphere Lifecycle Manager es lenta en los clústeres de gran tamaño
En los clústeres grandes con más de 16 hosts, la tarea de generación de informes de validación puede tardar hasta 30 minutos en completarse o puede parecer que se bloquea. El tiempo de finalización depende de la cantidad de dispositivos configurados en cada host y de la cantidad de hosts configurados en el clúster.
Solución alternativa: Ninguna
- Se muestran mensajes de error incompletos en idiomas distintos del inglés al corregir un clúster en vSphere Lifecycle Manager
Es posible encontrar mensajes de error incompletos para los idiomas localizados en la interfaz de usuario de vCenter Server. Estos mensajes se muestran después de que se produce un error en el proceso de corrección de un clúster en vSphere Lifecycle Manager. Por ejemplo, se puede observar el siguiente mensaje de error.
El mensaje de error en inglés: Virtual machine 'VMC on DELL EMC -FileServer' that runs on cluster 'Cluster-1' reported an issue which prevents entering maintenance mode: Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
El mensaje de error en francés: La VM « VMC on DELL EMC -FileServer », située sur le cluster « {Cluster-1} », a signalé un problème empêchant le passage en mode de maintenance : Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
Solución alternativa: Ninguna.
- Al importar una imagen sin complemento de proveedor, componentes ni complemento de firmware y controlador a un clúster con una imagen que contiene esos elementos, no se eliminan los elementos de imagen de la imagen existente
Solo la imagen base de ESXi se reemplaza por la que se encuentra en la imagen importada.
Solución alternativa: Una vez completado el proceso de importación, edite la imagen y, si es necesario, elimine el complemento de proveedor, los componentes, y el complemento de firmware y controlador.
- Cuando se convierte un clúster que utiliza líneas base en un clúster que utiliza una sola imagen, se muestra una advertencia que indica que se eliminarán los VIB de vSphere HA
Al convertir un clúster habilitado para vSphere HA que utiliza líneas base en un clúster que utiliza una sola imagen, se puede mostrar un mensaje de advertencia en el que se indica que se eliminará el componente vmware-fdm
.
Solución alternativa: Este mensaje se puede ignorar. El proceso de conversión instala el componente vmware-fdm
.
- Si se configuró vSphere Update Manager para descargar actualizaciones de revisión de Internet a través de un servidor proxy, después de una actualización a vSphere 7.0 donde Update Manager se convierte en vSphere Lifecycle Manager, es posible que se produzca un error al descargar revisiones del repositorio de revisiones de VMware
En las versiones anteriores de vCenter Server, se podían configurar ajustes de proxy independientes para vCenter Server y vSphere Update Manager. Después de una actualización a vSphere 7.0, el servicio vSphere Update Manager se convierte en parte del servicio Lifecycle Manager vSphere. En el servicio vSphere Lifecycle Manager, los ajustes de proxy se configuran en la configuración de vCenter Server Appliance. Si se configuró Update Manager para descargar actualizaciones de revisión de Internet a través de un servidor proxy, pero el dispositivo de vCenter Server Appliance no incluye ajustes de proxy, después de una actualización de vCenter Server a la versión 7.0, el servicio vSphere Lifecycle Manager no se puede conectar al almacén de VMware y no puede descargar revisiones ni actualizaciones.
Solución alternativa: Inicie sesión en la interfaz de administración de vCenter Server Appliance (https://dirección-IP-o-FQDN-de-vCenter-Server-Appliance:5480) para configurar los ajustes de proxy de vCenter Server Appliance y habilitar vSphere Lifecycle Manager para utilizar el proxy.
- Es posible que el VMkernel apague las máquinas virtuales debido a un problema del temporizador de vCPU
En raras ocasiones, es posible que el VMkernel considere que una máquina virtual no responde porque no envía un latido de PCPU adecuado y apague la máquina virtual. En el archivo vmkernel.log
, verá mensajes como el siguiente:
2021-05-28T21:39:59.895Z cpu68:1001449770)ALERT: Heartbeat: HandleLockup:827: PCPU 8 didn't have a heartbeat for 5 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.
2021-05-28T21:39:59.895Z cpu8:1001449713)WARNING: World: vm 1001449713: PanicWork:8430: vmm3:VM_NAME:vcpu-3:Received VMkernel NMI IPI, possible CPU lockup while executing HV VT VM
El problema se debe a una condición de carrera inusual en los temporizadores de vCPU. Debido a que la carrera es por vCPU, las máquinas virtuales más grandes están más expuestas al problema.
Solución alternativa: Deshabilite el latido de PCPU mediante el comando vsish -e set /reliability/heartbeat/status 0
.
- Cuando se aplica un perfil de host con la versión 6.5 a un host ESXi con la versión 7.0, se produce un error en la comprobación de cumplimiento
Al aplicar un perfil de host con la versión 6.5 a un host ESXi con la versión 7.0, se informa que el perfil de archivo de volcado de núcleo no cumple con las normas del host.
Solución alternativa: Existen dos soluciones alternativas posibles.
- Al crear un perfil de host con la versión 6.5, establezca la opción de configuración avanzada VMkernel.Boot.autoCreateDumpFile en false en el host ESXi.
- Al aplicar un perfil de host existente con la versión 6.5, agregue la opción de configuración avanzada VMkernel.Boot.autoCreateDumpFile al perfil de host, configure la opción en una directiva fija y establezca el valor en false.
- Los controladores de ESXi nativos Mellanox ConnectX-4 o ConnectX-5 pueden mostrar un deterioro menor del rendimiento cuando se activa la función de ajuste de escala en lado de recepción (Dynamic Receive Side Scaling, DYN_RSS) o la función de ajuste de escala en lado de recepción genérico (Generic Receive Side Scaling, GEN_RSS)
Los controladores de ESXi nativos Mellanox ConnectX-4 o ConnectX-5 pueden mostrar un deterioro de menos del 5 % en el rendimiento cuando se activan las funciones DYN_RSS y GEN_RSS, pero es improbable que esto afecte a las cargas de trabajo normales.
Solución alternativa: Puede deshabilitar las funciones DYN_RSS y GEN_RSS con los siguientes comandos:
# esxcli system module parameters set -m nmlx5_core -p "DYN_RSS=0 GEN_RSS=0"
# reboot
- Se puede producir un error en el tráfico de RDMA entre dos máquinas virtuales en el mismo host en el entorno de PVRDMA
En una implementación de vSphere 7.0 en un entorno de PVRDMA, las máquinas virtuales pasan el tráfico a través de HCA para la comunicación local si existe un HCA. Sin embargo, el bucle invertido del tráfico de RDMA no funciona en el controlador qedrntv. Por ejemplo, los pares de cola de RDMA que se ejecutan en máquinas virtuales configuradas en el mismo puerto de vínculo superior no pueden comunicarse unos con otros.
En vSphere 6.7 y las versiones anteriores, se usaba un HCA para el tráfico de RDMA local si SRQ se encontraba habilitado. vSphere 7.0 utiliza el bucle invertido de HCA con las máquinas virtuales que utilizan versiones de PVRDMA con SRQ habilitado y una versión de hardware mínima de 14 mediante RoCE v2.
La versión de firmware actual del adaptador de Marvell FastLinQ no admite el tráfico de bucle invertido entre QP de un mismo puerto o PF.
Solución alternativa: Se está agregando la compatibilidad requerida al controlador no incluido certificado para vSphere 7.0. Si utiliza el controlador qedrntv incluido, debe usar una configuración de 3 hosts y migrar las máquinas virtuales al tercer host.
- Limitaciones de QP para el tráfico de datagramas no confiables en el controlador qedrntv
Existen limitaciones en el controlador RoCE qedrntv de Marvell FastLinQ y el tráfico de datagramas no confiables (Unreliable Datagram, UD). Es posible que se produzcan errores en las aplicaciones de UD con tráfico en masa a través del controlador qedrntv. Por otra parte, los QP de UD solo pueden funcionar con las regiones de memoria (Memory Regions, MR) de DMA. No se admiten MR o FRMR físicas. Las aplicaciones que intentan utilizar MR o FRMR físicas junto con QP de UD no pueden pasar el tráfico a través de un controlador qedrntv. Los ejemplos conocidos de estas aplicaciones de prueba son ibv_ud_pingpong
y ib_send_bw
.
Los casos prácticos de RoCE y RoCEv2 estándar en un entorno de VMware ESXi, como iSER, NVMe-oF (RoCE) y PVRDMA, no se ven afectados por este problema. Los casos prácticos de tráfico de UD son limitados y este problema afecta a un pequeño conjunto de aplicaciones que requieren tráfico de UD en masa.
El hardware de Marvell FastLinQ no admite la descarga de tráfico de UD de RDMA. Para cumplir con el requisito de PVRDMA de VMware y admitir QP de GSI, se agregó al controlador qedrntv una implementación exclusiva de software restringido para admitir QP de UD. El objetivo de la implementación es proporcionar compatibilidad con la comunicación GSI de rutas de control; no es una implementación completa de QP de UD para admitir el tráfico en masa y las funciones avanzadas.
Como la compatibilidad con UD se encuentra implementada en el software, es posible que la implementación no aguante un tráfico intenso y se descarten paquetes. Esto puede provocar errores en el tráfico de UD en masa.
Solución alternativa: No se admite el tráfico de QP de UD en masa con el controlador qedrntv y no existe ninguna solución alternativa en este momento. Los casos prácticos de RDMA de VMware ESXi (RoCE), como iSER, NVMe, RDMA y PVRDMA, no se ven afectados por este problema.
- Es posible que se produzcan errores en los servidores equipados con NIC 578xx de QLogic al conectar o desconectar LUN de iSCSI con frecuencia
Si se activa la conexión o la desconexión iSCSI de una NIC 578xx de QLogic con frecuencia, se puede producir un error en el servidor debido a un problema con el controlador qfle3. Esto se debe a un defecto conocido en el firmware del dispositivo.
Solución alternativa: Ninguna.
- Es posible que se produzca un error en ESXi durante la operación de descarga del controlador o desconexión de la controladora en el entorno NVMe over FC de Broadcom
En el entorno NVMe over FC de Broadcom, se puede producir un error en ESXi durante la operación de descarga del controlador o de desconexión de la controladora, y se puede mostrar un mensaje como el siguiente: @BlueScreen: #PF Exception 14 in world 2098707:vmknvmeGener IP 0x4200225021cc addr 0x19
Solución alternativa: Ninguna.
- ESXi no muestra el número de versión de firmware de OEM de las NIC i350/X550 en algunos servidores Dell
El controlador ixgben incluido solo reconoce la firma o la versión de los datos de firmware de las NIC i350/X550. En algunos servidores Dell, el número de versión de firmware de OEM se encuentra programado en la región de versión del paquete OEM y el controlador ixgben incluido no lee esta información. Solo se muestra la firma de firmware de 8 dígitos.
Solución alternativa: Para mostrar el número de versión de firmware de OEM, instale la versión 1.7.15 o posterior del controlador ixgben asíncrono.
- Es posible que las NIC X710 o XL710 generen errores en ESXi
Cuando se inician ciertas operaciones destructivas en las NIC X710 o XL710, como restablecer la NIC o manipular el árbol de dispositivos internos de VMKernel, el hardware de la NIC puede leer datos de una memoria no empaquetada.
Solución alternativa: No restablezca la NIC ni manipule el estado del dispositivo interno de VMkernel.
- NVMe-oF no garantiza un nombre de VMHBA persistente después del reinicio del sistema
NVMe-oF es una función nueva en vSphere 7.0. Si el servidor tiene una instalación de almacenamiento USB que utiliza vmhba30+ y también tiene una configuración de NVMe over RDMA, el nombre de VMHBA puede cambiar después de reiniciar el sistema. Esto se debe a que la asignación de nombres de VMHBA para NVMe over RDMA es diferente de los dispositivos PCIe. ESXi no garantiza la persistencia.
Solución alternativa: Ninguna.
- Se produce un error en la copia de seguridad si el tamaño de la base de datos de vCenter es 300 GB o superior
Si el tamaño de la base de datos de vCenter es 300 GB o superior, la copia de seguridad basada en archivos generará un error de tiempo de espera. Aparece el siguiente mensaje de error: Timeout! Failed to complete in 72000 seconds
Solución alternativa: Ninguna.
- Se puede producir un error al restaurar una instancia de vCenter Server 7.0 obtenida tras actualizar vCenter Server 6.x con una instancia externa de Platform Services Controller
Cuando se restaura una instancia de vCenter Server 7.0 obtenida tras actualizar la versión 6.x con una instancia externa de Platform Services Controller, es posible que se produzca un error en la restauración y se muestre el siguiente mensaje: Failed to retrieve appliance storage list
Solución alternativa: Durante la primera etapa del proceso de restauración, aumente el nivel de almacenamiento de vCenter Server 7.0. Por ejemplo, si el tipo de almacenamiento en la configuración de la instancia externa de Platform Services Controller de vCenter Server 6.7 es pequeño, seleccione el tipo de almacenamiento grande para el proceso de restauración.
- El parámetro de configuración Enabled SSL protocols no se define durante el proceso de corrección de un perfil de host
El parámetro de configuración Enabled SSL protocols
no se define durante la corrección de un perfil de host y solo se habilita el protocolo predeterminado del sistema tlsv1.2
. Este comportamiento se observa en un perfil de host con la versión 7.0 y anteriores en un entorno de vCenter Server 7.0.
Solución alternativa: Si desea habilitar los protocolos SSL TLSV 1.0 o TLSV 1.1 para SFCB, inicie sesión en un host ESXi mediante SSH y ejecute el siguiente comando de ESXCLI: esxcli system wbem -P <protocol_name>
- No se pueden configurar los ajustes de Modo de bloqueo mediante perfiles de host
El modo de bloqueo no se puede configurar a través de un perfil de host de seguridad y no se puede aplicar a varios hosts ESXi a la vez. Es necesario configurar manualmente cada host.
Solución alternativa: En vCenter Server 7.0, puede configurar el modo de bloqueo y administrar la lista de usuarios con excepción de modo de bloqueo mediante el uso de un perfil de host de seguridad.
- Cuando se aplica un perfil de host a un clúster, no se encuentra la configuración de Enhanced vMotion Compatibility (EVC) en los hosts ESXi
Algunos ajustes del archivo de configuración /etc/vmware/config
de VMware no se administran mediante perfiles de host y se bloquean cuando se modifica el archivo de configuración. Como resultado, cuando se aplica el perfil de host a un clúster, se pierde la configuración de EVC, lo que provoca la pérdida de funcionalidades de EVC. Por ejemplo, las CPU sin enmascarar pueden quedar expuestas a cargas de trabajo.
Solución alternativa: Vuelva a configurar la línea base de EVC relevante en el clúster para recuperar la configuración de EVC.
- El uso de un perfil de host para definir una partición de volcado de núcleo en vCenter Server 7.0 genera un error
En vCenter Server 7.0, la configuración y la administración de una partición de volcado de núcleo en un perfil de host no se encuentra disponible. Al intentar aplicar un perfil de host para definir una partición de volcado de núcleo, se produce el siguiente error: No se encontró una partición de volcado de núcleo válida.
Solución alternativa: Ninguna. En vCenter Server 7.0, los perfiles de host solo admiten volcados de núcleo basados en archivos.
- Si ejecuta el comando ESXCLI para descargar el módulo de firewall, se produce un error en el servicio hostd y los hosts de ESXi pierden conectividad
Si automatiza la configuración del firewall en un entorno que incluya varios hosts ESXi y ejecuta el comando de ESXCLI esxcli network firewall unload
que destruye los filtros y descarga el módulo de firewall, se produce un error en el servicio hostd y los hosts ESXi pierden conectividad.
Solución alternativa: No se recomienda descargar el módulo de firewall en ningún momento. Si debe descargar el módulo de firewall, siga los siguientes pasos:
- Detenga el servicio hostd con este comando:
/etc/init.d/hostd stop.
- Descargue el módulo de firewall con este comando:
esxcli network firewall unload.
- Realice las operaciones necesarias.
- Cargue el módulo de firewall con este comando:
esxcli network firewall load.
- Inicie el servicio hostd con este comando:
/etc/init.d/hostd start.
- Es posible que se produzcan errores en las operaciones de vSphere Storage vMotion en un entorno de vSAN debido a una sesión sin autenticar del administrador de copia de archivos de red (NFC)
Es posible que se produzcan errores en las migraciones a un almacén de datos de vSAN mediante vSphere Storage vMotion de máquinas virtuales que tengan al menos una instantánea y más de un disco virtual con una directiva de almacenamiento diferente. El problema se produce debido a una sesión sin autenticar del administrador de NFC porque el cuerpo del Protocolo simple de acceso a objeto (SOAP) supera el tamaño permitido.
Solución alternativa: Primero, migre el espacio de nombres del directorio principal de la máquina virtual y solo uno de los discos virtuales. Una vez que se complete la operación, realice una migración solo de disco de los dos discos restantes.
- Es posible que los cambios en las propiedades y los atributos de los dispositivos y el almacenamiento de un host ESXi no persistan después de un reinicio
Si se agota el tiempo de espera de la rutina de detección de dispositivos durante un reinicio del host ESXi, es posible que el complemento de activación no reciba todos los cambios de configuración de los dispositivos y el almacenamiento de todos los dispositivos registrados en el host. Como resultado, es posible que después del reinicio, el proceso restaure las propiedades de algunos dispositivos o almacenamiento a los valores predeterminados.
Solución alternativa: Restaure manualmente los cambios en las propiedades del dispositivo o almacenamiento afectados.
- Si utiliza una compilación beta de ESXi 7.0, se puede producir un error en los hosts de ESXi con una pantalla de diagnóstico de color morado durante algunas operaciones de ciclo de vida
Si utiliza una compilación beta de ESXi 7,0, se puede producir un error en los hosts de ESXi con una pantalla de diagnóstico de color morado durante algunas operaciones de ciclo de vida, como descargar un controlador o cambiar entre el modo ENS y el modo de controlador nativo. Por ejemplo, si intenta cambiar el modo ENS, en el seguimiento inverso verá un mensaje de error similar a: Pantalla azul case ENS::INTERRUPT::NoVM_DeviceStateWithGracefulRemove: ASSERT bora/vmkernel/main/dlmalloc.c:2733
Este problema es específico para las compilaciones beta y no afecta a las compilaciones de versiones como ESXi 7.0.
Solución alternativa: Actualizar a ESXi 7.0 GA.
- No puede crear instantáneas de máquinas virtuales debido a un error que genera un error en la operación de resumen
Una condición de carrera inusual cuando se produce un estado de inactividad de todas las rutas (All-Paths-Down, APD) durante la actualización del archivo de resumen de la memoria caché de lectura basada en contenido puede provocar incoherencias en el archivo de resumen. Como resultado, no puede crear instantáneas de máquina virtual. Aparece un error similar a Se produjo un error al guardar la instantánea: Ha habido un error en una operación de resumen
en el seguimiento inverso.
Solución alternativa: Apague y vuelva a encender las máquinas virtuales para activar un nuevo cálculo de los hashes de CBRC y borrar las incoherencias del archivo de resumen.
- Si actualiza los hosts ESXi a la versión 7.0 Update 3, pero la instancia de vCenter Server tiene una versión anterior, se produce un error en la atestación del módulo de plataforma de confianza (Trusted Platform Module, TPM) de los hosts ESXi
Si actualiza los hosts ESXi a la versión 7.0 Update 3, pero la instancia de vCenter Server tiene una versión anterior y habilita TPM, los hosts ESXi no pueden pasar la atestación. En vSphere Client, verá la advertencia Alarma de atestación de TPM del host. El algoritmo de firma digital de curva elíptica (ECDSA) introducido con ESXi 7.0 Update 3 provoca el problema cuando la versión de vCenter Server no es 7.0 Update 3.
Solución alternativa: Actualice vCenter Server a la versión 7.0 Update 3 o confirme la alarma.
- Aparecen advertencias en la pantalla del cargador de arranque sobre las etiquetas de activos de TPM
Si un host ESXi habilitado para TPM no tiene configurada ninguna etiqueta de activo, es posible que aparezcan mensajes de advertencia inactivos en la pantalla del cargador de arranque, como, por ejemplo:
Error al determinar tamaño de la etiqueta de activo de TPM: Búfer demasiado pequeño
Error al medir etiqueta de activo en TPM: Búfer demasiado pequeño
Solución alternativa: Ignore las advertencias o establezca una etiqueta de activo mediante el comando $ esxcli hardware tpm tag set -d
- El daemon sensord no puede informar el estado de hardware del host ESXi.
Un error lógico en la validación de SDR de IPMI puede provocar que sensord
no pueda identificar un origen para la información de la fuente de alimentación. Como resultado, al ejecutar el comando vsish -e get /power/hostStats
, es posible que no vea ningún resultado.
Solución alternativa: Ninguna
- Si se produce un error en un host ESXi con una pantalla de diagnóstico de color morado, es posible que el servicio netdump deje de funcionar
En raras ocasiones, si se produce un error en un host ESXi con una pantalla de diagnóstico de color morado, el servicio netdump podría generar un error, como, por ejemplo, ERROR de NetDump: No se pudo asociar a servidor de volcado en IP x.x.x.x
.
Solución alternativa: Configure el volcado de núcleo de VMkernel para utilizar el almacenamiento local.
- A menudo, se ven volcados de núcleo de VMware Fault Domain Manager (FDM) en varios hosts ESXi
En algunos entornos, el número de almacenes de datos podría superar el límite del descriptor de archivos de FDM. Como resultado, aparecen volcados de núcleo frecuentes en varios hosts ESXi, lo que indica un error de FDM.
Solución alternativa: Aumente el límite del descriptor de archivos de FDM a 2048. Puede usar la opción das.config.fdm.maxFds
de las opciones avanzadas de vSphere HA en vSphere Client. Para obtener más información, consulte Configurar opciones avanzadas.
- Las máquinas virtuales de un clúster vSAN con NSX-T habilitado y una instancia de vSphere Distributed Switch convergente (Converged vSphere Distributed Switch, CVDS) en una zona de transporte de VLAN no se pueden encender después de un apagado
Si un sitio secundario tiene el disco un 95 % lleno y las máquinas virtuales se apagan antes de simular un error de sitio secundario, durante la recuperación, algunas de las máquinas virtuales no se encienden. Como resultado, las máquinas virtuales dejan de responder. El problema se produce independientemente de si la recuperación del sitio incluye agregar discos, hosts ESXi o capacidad de CPU.
Solución alternativa: Seleccione las máquinas virtuales que no se encienden y cambie la red a red de máquina virtual en Editar configuración en el menú contextual de máquina virtual.
- Si modifica el parámetro netq_rss_ens del controlador nmlx5_core, los hosts ESXi podrían fallar y generar una pantalla de diagnóstico de color morado
Si intenta habilitar el parámetro netq_rss_ens
al configurar una ruta de datos mejorada en el controlador nmlx5_core
, los hosts ESXi podrían fallar y generar una pantalla de diagnóstico de color morado. El parámetro netq_rss_ens
, que habilita RSS de NetQ, está deshabilitado de forma predeterminada con un valor de 0
.
Solución alternativa: Mantenga el valor predeterminado del parámetro de módulo netq_rss_ens
en el controlador nmlx5_core
.
- Es posible que se produzca un error en la actualización a ESXi 7.0 Update 3 debido a un cambio en el nombre del controlador de red i40enu de la bandeja de entrada
A partir de vSphere 7.0 Update 3, el controlador de red i40enu de la bandeja de entrada para ESXi cambia de nombre a i40en. Se cambió el nombre del controlador i40en a i40enu en vSphere 7.0 Update 2, pero el cambio de nombre afectaba a algunas rutas de actualización. Por ejemplo, se produce un error en la actualización acumulativa de hosts ESXi que se administran con líneas base y grupos de líneas base de 7.0 Update 2 o 7.0 Update 2a a 7.0 Update 3. En la mayoría de los casos, el controlador i40enu se actualiza a ESXi 7.0 Update 3 sin ningún paso adicional. Sin embargo, si se produce un error en la actualización del controlador, no se pueden actualizar los hosts ESXi que se administran con líneas base y grupos de líneas base. Tampoco se puede utilizar la inicialización del host ni una imagen única de vSphere Lifecycle Manager para administrar los hosts ESXi. Si ya se realizaron cambios relacionados con el controlador i40enu y los dispositivos en el sistema, antes de actualizar a ESXi 7.0 Update 3, debe desinstalar el VIB o el componente i40enu en ESXi, o bien actualizar primero ESXi a ESXi 7.0 Update 2c.
Solución alternativa: Para obtener más información, consulte el artículo 85982 de la base de conocimientos de VMware.
- Es posible que se produzca un error en el sistema operativo invitado Windows de una máquina virtual configurada con un NVDIMM virtual de tamaño inferior a 16 MB al inicializar un disco nuevo
Si configura una máquina virtual Windows con un NVDIMM de tamaño inferior a 16 MB, al intentar inicializar un disco nuevo, es posible que se muestre un error en el sistema operativo invitado con una pantalla de diagnóstico azul o un mensaje de error en una ventana emergente de la pantalla Administración de discos. El problema de la pantalla de diagnóstico azul se produce en los sistemas operativos invitados Windows 10, Windows Server 2022 y Windows 11 v21H2.
Solución alternativa: Aumente el tamaño del NVDIMM virtual a 16 MB o más.
- Si utiliza una versión de vSphere Distributed Switch (VDS) anterior a la 6.6 y cambia el algoritmo hash de LAG, es posible que se produzca un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura
Si utiliza un VDS de versión anterior a la 6.6 en un sistema vSphere 7.0 Update 1 o posterior, y cambia el algoritmo hash de LAG, por ejemplo, de hash de capa 3 a capa 2, es posible que se produzca un error en los hosts ESXi con una pantalla de diagnóstico de color púrpura.
Solución alternativa: Actualice VDS a la versión 6.6 o posterior.
- Es posible que se rechacen las solicitudes HTTP de algunas bibliotecas a vSphere
El servicio HTTP Reverse Proxy de vSphere 7.0 exige un cumplimiento de normas más estricto que las versiones anteriores. Esto puede exponer problemas preexistentes en algunas bibliotecas de terceros que utilizan las aplicaciones para las llamadas SOAP a vSphere.
Si desarrolla aplicaciones de vSphere que utilizan esas bibliotecas o incluyen aplicaciones que dependen de esas bibliotecas en la pila de vSphere, puede experimentar problemas de conexión cuando estas bibliotecas envían solicitudes HTTP a VMOMI. Por ejemplo, las solicitudes HTTP emitidas desde bibliotecas vijava pueden adoptar el siguiente formato:
POST /sdk HTTP/1.1
SOAPAction
Content-Type: text/xml; charset=utf-8
User-Agent: Java/1.8.0_221
En este ejemplo, la sintaxis infringe un requisito de campo de encabezado para el protocolo HTTP que exige dos puntos después de SOAPAction. Por lo tanto, la solicitud se rechaza en plena ejecución.
Solución alternativa: Los desarrolladores que emplean bibliotecas no conformes en sus aplicaciones pueden considerar usar bibliotecas que sigan las normas HTTP en su lugar. Por ejemplo, los desarrolladores que utilizan la biblioteca vijava pueden considerar el uso de la versión más reciente de la biblioteca yavijava en su lugar.
- Es posible que vea un archivo de volcado al utilizar el controlador Broadcom lsi_msgpt3, lsi_msgpt35 y lsi_mr3
Cuando se utilizan las controladoras lsi_msgpt3, lsi_msgpt35 y lsi_mr3, existe el riesgo de que vea el archivo de volcado lsuv2-lsi-drivers-plugin-util-zdump. Se produce un problema al salir de la instancia de storelib que se utiliza en esta utilidad del complemento. Esto no afecta a las operaciones de ESXi, por lo que puede ignorar el archivo de volcado.
Solución alternativa: Puede hacer caso omiso de este mensaje sin problemas. Puede utilizar el siguiente comando para eliminar lsuv2-lsi-drivers-plugin:
esxcli software vib remove -n lsuv2-lsiv2-drivers-plugin
- Es posible que vea que no es necesario reiniciar después de configurar la instancia de SR-IOV de un dispositivo PCI en vCenter, pero es posible que se pierdan las configuraciones de dispositivos que las extensiones de terceros definieron y que sea necesario volver a aplicar el reinicio
En ESXi 7.0, se aplica la configuración de SR-IOV sin reiniciar y se vuelve a cargar el controlador del dispositivo. Puede que los hosts ESXi utilicen extensiones de terceros para realizar configuraciones de dispositivos que se deben ejecutar después de que el controlador del dispositivo se cargue durante el arranque. Es necesario reiniciar para que dichas extensiones de terceros vuelvan a aplicar la configuración del dispositivo.
Solución alternativa: Debe reiniciar después de configurar SR-IOV para aplicar configuraciones de dispositivos de terceros.