vCenter Server 7.0.0a | 19 de mayo de 2020 | Compilación ISO 16189094 Compruebe las adiciones y las actualizaciones de las notas de la versión. |
Contenido de las notas de la versión
Las notas de la versión abarcan los siguientes temas:
- Novedades
- Versiones anteriores de vCenter Server 7.0
- Notas para la actualización de esta versión
- Revisiones incluidas en esta versión
- Problemas resueltos
- Problemas conocidos
- Problemas conocidos de versiones anteriores
Novedades
-
vCenter Server 7.0.0a soluciona los problemas documentados en la sección Problemas resueltos.
-
Para ver las actualizaciones de VMware vSphere with Kubernetes, consulte las Notas de la versión de VMware vSphere with Kubernetes.
Versiones anteriores de vCenter Server 7.0
Las funciones y los problemas conocidos de vCenter Server se describen en las notas de cada versión. Las notas de versiones anteriores de vCenter Server 7.0 son las siguientes:
Para obtener información sobre internacionalización, compatibilidad, instalación, componentes de código abierto y notificaciones de soporte de productos, consulte las Notas de la versión de VMware vSphere 7.0.
Notas para la actualización de esta versión
IMPORTANTE: No se permite actualizar vCenter Server 6.7 Update 3g a vCenter Server 7.0.0a. Para obtener más información sobre las versiones de vCenter Server que admiten la actualización a vCenter Server 7.0.0a, consulte el artículo 67077 de la base de conocimientos de VMware.
Revisiones incluidas en esta versión
Esta versión de vCenter Server 7.0.0a proporciona la revisión siguiente. Consulte VMware Patch Download Center para obtener más información sobre la descarga de revisiones.
Revisión de VMware vCenter Server Appliance 7.0.0a
Revisión del producto para vCenter Server Appliance que contiene correcciones de software VMware, correcciones de seguridad y correcciones de productos de terceros.
Esta revisión se aplica a vCenter Server.
Nombre de archivo de descarga | VMware-vCenter-Server-Appliance-7.0.0.10300-16189094-patch-FP.iso |
Compilación | 16189094 |
Tamaño de descarga | 5041,4 MB |
md5sum | 3f25d1e0029474dca2a0dfe1428e4035 |
sha1checksum | 8f09aedcccd44ab1b59995ed9d61cbd36e88062a |
Descarga e instalación
Para descargar esta revisión, vaya a VMware Patch Download Center y seleccione VC en el menú desplegable Seleccionar un producto.
- Asocie el archivo
VMware-vCenter-Server-Appliance-7.0.0.10300-16189094-patch-FP.iso
a la unidad de CD o DVD de vCenter Server Appliance. - Inicie sesión en el shell del dispositivo como usuario con privilegios de superadministrador (por ejemplo, raíz) y ejecute los siguientes comandos:
- Para preparar la imagen ISO:
software-packages stage --iso
- Para ver el contenido aplicado por etapas:
software-packages list --staged
- Para instalar los RPM aplicados por etapas:
software-packages install --staged
- Para preparar la imagen ISO:
Para obtener más información sobre el uso de los shells de vCenter Server Appliance, consulte el artículo 2100508 de la base de conocimientos de VMware.
Para obtener más información sobre las revisiones de vCenter Server Appliance, consulte Aplicar revisiones a vCenter Server Appliance.
Para obtener más información sobre la aplicación de revisiones por etapas, consulte Aplicar revisiones por etapas a vCenter Server Appliance.
Para obtener más información sobre la instalación de revisiones, consulte Instalar revisiones de vCenter Server Appliance.
Para ver los problemas resueltos en esta revisión, consulte Problemas resueltos.
Para obtener más información sobre la aplicación de revisiones mediante la interfaz de administración del dispositivo, consulte Aplicar revisiones en vCenter Server Appliance mediante la interfaz de administración del dispositivo.
Problemas resueltos
Los problemas resueltos se agrupan del siguiente modo:
Problemas de vSAN- vSphere Lifecycle Manager y los servicios de archivos de vSAN no pueden habilitarse al mismo tiempo en un clúster de vSAN
En los sistemas vCenter Server 7.0, si se habilita vSphere Lifecycle Manager en un clúster de vSAN, no se pueden habilitar los servicios de archivos de vSAN en el mismo clúster y viceversa.
Con vCenter Server 7.0.0a, los servicios de archivos de vSAN y vSphere Lifecycle Manager son interoperables. Es posible habilitar ambos servicios al mismo tiempo.
El problema está resuelto en esta versión.
Problemas conocidos
Los problemas conocidos se agrupan del siguiente modo:
Problemas de actualización- Es posible que se produzca un error al aplicar una revisión a un nodo testigo o pasivo de entornos con VMware vCenter Server High Availability habilitado
En entornos con vCenter Server High Availability habilitado, se puede producir un error al aplicar una revisión a un nodo testigo o pasivo con un mensaje similar al siguiente:
RuntimeError: unidentifiable C++ exception
.Solución alternativa: Deshabilite vCenter Server High Availability. Aplique las revisiones al sistema vCenter Server. Vuelva a habilitar vCenter Server High Availability.
- Después de aplicar la revisión de vCenter Server 7.0.0a al sistema vCenter Server, la versión de TLS de los clientes de almacenamiento de VC puede revertir a la versión predeterminada
Si tiene una configuración de TLS para el servicio de clientes de almacenamiento de VC distinta de la versión 1.2 de TLS predeterminada, es posible que la versión de TLS revierta a la versión predeterminada después de aplicar la revisión de vCenter Server 7.0.0a al sistema vCenter Server.
Solución alternativa: Use la utilidad de configuración de TLS para habilitar o deshabilitar las versiones de TLS en el sistema vCenter Server después de la actualización.
Problemas conocidos de versiones anteriores
Para ver una lista de los problemas conocidos anteriores, haga clic aquí.
Los problemas conocidos anteriores se agrupan del siguiente modo.
- Problemas de instalación, actualización y migración
- Problemas con funciones de seguridad
- Problemas de redes
- Problemas de almacenamiento
- Problemas en vCenter Server y vSphere Client
- Problemas en la administración de máquinas virtuales
- Problemas con vSphere HA y Fault Tolerance
- Problemas en vSphere Lifecycle Manager
- Problemas varios
- Se produce un error en las comprobaciones previas a la actualización o la migración de vCenter con el mensaje "Unexpected error 87"
Se produce un error en las comprobaciones previas a la actualización o la migración de vCenter Server cuando el certificado del servicio de token de seguridad (Security Token Service, STS) no contiene un campo de nombre alternativo del firmante (Subject Alternative Name, SAN). Esta situación se produce cuando se reemplaza el certificado de Single Sign-On para vCenter 5.5 por un certificado personalizado que no tiene un campo de SAN y se intenta actualizar a vCenter Server 7.0. La actualización considera que el certificado de STS no es válido y las comprobaciones previas evitan que continúe el proceso de actualización.
Solución alternativa: Reemplace el certificado de STS por un certificado válido que contenga un campo de SAN y, a continuación, continúe con la actualización o la migración a vCenter Server 7.0.
- Problemas de actualización a vSphere 7.0 con proveedores de CIM preexistentes
Después de la actualización, los proveedores de CIM de 32 bits instalados anteriormente dejan de funcionar debido a que ESXi requiere proveedores de CIM de 64 bits. Los clientes pueden perder las funciones de la API de administración relacionadas con CIMPDK, DDK nativo (Native DDK, NDDK), HEXDK y VAIODK (filtros de E/S), y ver errores relacionados con la dependencia uwglibc.
El servidor syslog informa de la ausencia de un módulo: "No se cargaron las bibliotecas compartidas de 32 bits".Solución alternativa: No existe una solución alternativa. La solución es descargar los nuevos proveedores de CIM de 64 bits del proveedor.
- Es posible que la autenticación de tarjeta inteligente y de RSA SecurID deje de funcionar después de actualizar a vCenter Server 7.0
Si configuró vCenter Server para la autenticación de tarjeta inteligente o de RSA SecurID, consulte el artículo de la base de conocimientos de VMware en https://kb.vmware.com/s/article/78057 antes de iniciar el proceso de actualización de vSphere 7.0. Si no implementa la solución alternativa como se describe en la base de conocimientos, es posible que vea los siguientes mensajes de error y que la autenticación de RSA SecurID o de tarjeta inteligente no funcione.
"Smart card authentication may stop working. Smart card settings may not be preserved, and smart card authentication may stop working."
o
"RSA SecurID authentication may stop working. RSA SecurID settings may not be preserved, and RSA SecurID authentication may stop working."
Solución alternativa: Antes de actualizar a vSphere 7.0, consulte el artículo de la base de conocimientos de VMware en https://kb.vmware.com/s/article/78057.
- Se produce un error de VMAFD al actualizar una implementación de vCenter Server con una instancia externa de Platform Services Controller de 6.7 U3 a 7.0
Cuando se actualiza una implementación de vCenter Server mediante una instancia externa de Platform Services Controller, la instancia de Platform Services Controller converge en un dispositivo de vCenter Server Appliance. Si durante la actualización aparece el error
install.vmafd.vmdir_vdcpromo_error_21
, se produjo un error en el proceso de primer arranque de VMAFD. El proceso de primer arranque de VMAFD copia la instancia de VMware Directory Service Database (data.mdb) desde la instancia de origen de Platform Services Controller y el dispositivo de vCenter Server Appliance del socio de replicación.Solución alternativa: Deshabilite la descarga de segmentación de TCP (TCP Segmentation Offload, TSO) y la descarga de segmentación genérica (Generic Segmentation Offload, GSO) en el adaptador Ethernet de la instancia de origen de Platform Services Controller o el dispositivo de vCenter Server Appliance del socio de replicación antes de actualizar una implementación de vCenter Server con una instancia externa de Platform Services Controller. Consulte el artículo de la base de conocimientos: https://kb.vmware.com/s/article/74678
- La actualización de vCenter Server mediante la CLI conserva de forma incorrecta la configuración de la capa de seguridad de transporte (Transport Security Layer, TLS) para el servicio vSphere Authentication Proxy
Si el servicio vSphere Authentication Proxy (
vmcam
) se configuró para utilizar un protocolo TLS específico que no es el protocolo TLS 1.2 predeterminado, esta configuración se conserva durante el proceso de actualización de la CLI. De forma predeterminada, vSphere es compatible con el protocolo de cifrado TLS 1.2. Si debe utilizar los protocolos TLS 1.0 y TLS 1.1 para admitir productos o servicios que no son compatibles con TLS 1.2, use la utilidad de configuración de TLS para habilitar o deshabilitar diferentes versiones del protocolo TLS.Solución alternativa: Use la utilidad de configuración de TLS para configurar el puerto
vmcam
. Para obtener información sobre cómo administrar la configuración del protocolo TLS y utilizar la utilidad de configuración de TLS, consulte la documentación de seguridad de VMware. - Es posible que no se conserve la configuración de la tarjeta inteligente y RSA SecurID durante la actualización de vCenter Server
La autenticación con RSA SecurID no funcionará después de actualizar a vCenter Server 7.0. Se mostrará un mensaje de error para notificar este problema cuando se intente iniciar sesión mediante RSA SecurID.
Solución alternativa: Vuelva a configurar la tarjeta inteligente o RSA SecureID.
- Se produce un error en la migración de vCenter Server para Windows a vCenter Server Appliance 7.0 con un mensaje de error de red
Se produce un error en la migración de vCenter Server para Windows a vCenter Server Appliance 7.0 y aparece el mensaje
La IP ya existe en la red
. Esto evita que el proceso de migración configure los parámetros de red en el nuevo dispositivo de vCenter Server Appliance. Para obtener más información, examine el archivo de registro:/var/log/vmware/upgrade/UpgradeRunner.log
Solución alternativa:
- Compruebe que se hayan completado todas las actualizaciones de Windows en la instancia de origen de vCenter Server para Windows, o deshabilite las actualizaciones automáticas de Windows hasta que se complete la migración.
- Vuelva a intentar la migración de vCenter Server para Windows a vCenter Server Appliance 7.0.
- Cuando se configura el número de funciones virtuales para un dispositivo de SR-IOV mediante el parámetro de módulo max_vfs, es posible que no se apliquen los cambios
En vSphere 7.0, es posible configurar el número de funciones virtuales para un dispositivo de SR-IOV mediante la API de administración de infraestructuras virtuales (Virtual Infrastructure Management, VIM), por ejemplo, a través de vSphere Client. La tarea no requiere el reinicio del host ESXi. Después de usar la configuración de la API de VIM, si se intenta configurar el número de funciones virtuales de SR-IOV mediante el parámetro de módulo
max_vfs
, es posible que no se apliquen los cambios debido a que la configuración de la API de VIM los reemplaza.Solución alternativa: Ninguna. Si desea configurar el número de funciones virtuales para un dispositivo de SR-IOV, utilice siempre el mismo método. Utilice la API de VIM o el parámetro de módulo
max_vfs
y reinicie el host ESXi. - La instancia actualizada de vCenter Server Appliance no conserva todas las redes secundarias (NIC) de la instancia de origen
Durante una actualización importante, si la instancia de origen de vCenter Server Appliance se configura con varias redes secundarias que no son NIC de VCHA, la instancia de destino de vCenter Server no conservará las redes secundarias que no sean NIC de VCHA. Si la instancia de origen se configura con varias NIC que forman parte de grupos de puertos DVS, no se conservará la configuración de las NIC durante la actualización. Se conservarán las configuraciones de las instancias de vCenter Server Appliance que forman parte del grupo de puertos estándar.
Solución alternativa: Ninguna. Configure manualmente la red secundaria en la instancia de destino de vCenter Server Appliance.
- Después de actualizar o migrar una instancia de vCenter Server con una instancia externa de Platform Services Controller, los usuarios que se autentican con Active Directory pierden el acceso a la instancia de vCenter Server recientemente actualizada
Después de actualizar o migrar una instancia de vCenter Server con una instancia externa de Platform Services Controller, si la instancia de vCenter Server recientemente actualizada no se une a un dominio de Active Directory, los usuarios que se autentiquen con Active Directory perderán el acceso a la instancia de vCenter Server.
Solución alternativa: Compruebe que la nueva instancia de vCenter Server se unió a un dominio de Active Directory. Consulte el artículo de la base de conocimientos: https://kb.vmware.com/s/article/2118543
- Se produce un error al migrar una instancia de vCenter Server para Windows con una instancia externa de Platform Services Controller mediante una base de datos de Oracle
Si existen cadenas que no son ASCII en la tabla de eventos y tareas de Oracle, se puede producir un error en la migración al exportar los datos de eventos y tareas. Se proporciona el siguiente mensaje de error: UnicodeDecodeError
Solución alternativa: Ninguna.
- Tras actualizar un host ESXi, una comprobación de cumplimiento del perfil de host muestra el estado no conforme cuando se produce un error en las tareas de corrección del host
El estado no conforme indica una incoherencia entre el perfil y el host.
Esta incoherencia puede producirse debido a que ESXi 7.0 no permite reglas de notificación duplicadas, pero el perfil que usted utiliza las contiene. Por ejemplo, es posible que experimente problemas si intenta utilizar el perfil de host que extrajo del host antes de actualizar ESXi 6.5 o 6.7 a la versión 7.0, y dicho perfil de host contiene reglas de notificación que son duplicados de las reglas predeterminadas del sistema.
Solución alternativa:
- Elimine del documento del perfil de host todas las reglas de notificación que sean duplicados de las reglas predeterminadas del sistema.
- Compruebe el estado de cumplimiento.
- Corrija el host.
- Si los pasos anteriores no resuelven el problema, reinicie el host.
- Aparece un mensaje de error en la interfaz de administración de vCenter Server
Tras instalar vCenter Server 7.0 o realizar la actualización a esta versión, al desplazarse hasta el panel Actualizar en la interfaz de administración de vCenter Server, aparece el mensaje de error "Compruebe la URL e inténtelo de nuevo". El mensaje de error no le impide usar las funciones del panel Actualizar, y puede ver e instalar las actualizaciones disponibles, así como realizar copias intermedias de ellas.
Solución alternativa: Ninguna.
- La máquina virtual cifrada no se enciende cuando el clúster de confianza habilitado para HA contiene un host no atestado
En VMware® vSphere Trust Authority™, si se habilitó HA en el clúster de confianza y uno o varios hosts del clúster generan errores de atestación, no se puede encender una máquina virtual cifrada.
Solución alternativa: Elimine del clúster de confianza todos los hosts en los que se produjo un error de atestación o corríjalos.
- La máquina virtual cifrada no se enciende cuando el clúster de confianza habilitado para DRS contiene un host no atestado
En VMware® vSphere Trust Authority™, si se habilitó DRS en el clúster de confianza y uno o varios hosts del clúster generan errores de atestación, DRS podría intentar encender una máquina virtual cifrada en un host no atestado del clúster. Esta operación coloca la máquina virtual en un estado bloqueado.
Solución alternativa: Elimine del clúster de confianza todos los hosts en los que se produjo un error de atestación o corríjalos.
- Se produce un error en la migración o la clonación de máquinas virtuales cifradas en todas las instancias de vCenter Server cuando se intenta hacerlo mediante vSphere Client
Si se intenta migrar o clonar una máquina virtual cifrada en todas las instancias de vCenter Server mediante vSphere Client, se produce un error en la operación con el siguiente mensaje: "The operation is not allowed in the current state."
Solución alternativa: Se deben usar las API de vSphere para migrar o clonar máquinas virtuales cifradas en las instancias de vCenter Server.
- Rendimiento reducido de redes en las NIC 82599/X540/X550 de Intel
La nueva función de par de cola que se agrega al controlador ixgben para mejorar el rendimiento de las redes en las NIC serie 82599EB/X540/X550 de Intel puede reducir la capacidad de proceso con algunas cargas de trabajo en vSphere 7.0 en comparación con vSphere 6.7.
Solución alternativa: Para lograr el mismo rendimiento de red que vSphere 6.7, puede deshabilitar el par de cola con un parámetro de módulo. Para deshabilitar el par de cola, ejecute el siguiente comando:
# esxcli system module parameters set -p "QPair=0,0,0,0..." -m ixgben
Después de ejecutar el comando, reinicie.
- Las máquinas virtuales de alto rendimiento pueden experimentar un deterioro del rendimiento de red cuando se habilita Network I/O Control (NetIOC)
Las máquinas virtuales que requieren un alto rendimiento de red pueden experimentar un deterioro del rendimiento al actualizar vSphere 6.7 a vSphere 7.0 con NetIOC habilitado.
Solución alternativa: Configure el ajuste
ethernetx.ctxPerDev
para habilitar varios ámbitos. - El tráfico IPv6 no puede pasar por los puertos de VMkernel mediante IPsec
Cuando se migran puertos de VMkernel de un grupo de puertos a otro, el tráfico IPv6 no pasa a través de los puertos de VMkernel mediante IPsec.
Solución alternativa: Elimine la asociación de seguridad (Security Association, SA) de IPsec del servidor afectado y, a continuación, vuelva a aplicar la SA. Para obtener información sobre cómo establecer y eliminar una asociación de seguridad de IPsec, consulte la documentación Seguridad de vSphere.
- Mayor rendimiento de red de ESX con un aumento en la porción de uso de CPU
El rendimiento de red de ESX puede aumentar con una porción del uso de CPU.
Solución alternativa: Elimine y agregue la interfaz de red con solo 1 cola de envío de rx. Por ejemplo:
esxcli network ip interface remove --interface-name=vmk1
esxcli network ip interface add --interface-name=vmk1 --num-rxqueue=1
- Es posible que la máquina virtual pierda tráfico Ethernet después de una operación de adición en caliente, eliminación en caliente o Storage vMotion
Una máquina virtual puede dejar de recibir tráfico Ethernet después de una operación de adición en caliente, eliminación en caliente o Storage vMotion. Este problema afecta a las máquinas virtuales en las que el vínculo superior de la VNIC tiene SR-IOV habilitado. La NIC virtual de PVRDMA exhibe este problema cuando el vínculo superior de la red virtual es una NIC con capacidad RDMA de Mellanox y se configuran espacios de nombres de RDMA.
Solución alternativa: Puede eliminar en caliente las NIC de Ethernet afectadas de la máquina virtual y agregarlas en caliente para restaurar el tráfico. En los sistemas operativos invitados Linux, el reinicio de la red también puede resolver el problema. Si estas soluciones alternativas no surten efecto, puede reiniciar la máquina virtual para restaurar la conectividad de red.
- El cambio de la dirección IP de una instancia de VCSA implementada con una dirección IP estática requiere que se creen los registros de DNS por adelantado
Con la introducción de DDNS, la actualización de registros de DNS solo funciona para las instancias de VCSA implementadas con redes configuradas por DHCP. Al cambiar la dirección IP de vCenter Server a través de VAMI, se muestra el siguiente error:
La dirección IP especificada no se resuelve en el nombre de host especificado.
Solución alternativa: Existen dos soluciones alternativas posibles.
- Cree una entrada de DNS adicional con el mismo FQDN y la dirección IP deseada. Inicie sesión en VAMI y siga los pasos para cambiar la dirección IP.
- Inicie sesión en VCSA mediante SSH. Ejecute el siguiente script:
./opt/vmware/share/vami/vami_config_net
Utilice la opción 6 para cambiar la dirección IP de eth0. Una vez cambiada la dirección, ejecute el siguiente script:
./opt/likewise/bin/lw-update-dns
Reinicie todos los servicios de VCSA para actualizar la información de IP en el servidor DNS.
- La eliminación del grupo de puertos virtuales distribuidos de NSX (NSX Distributed Virtual Port Group, NSX DVPG) puede demorar varios segundos después de que se elimina el conmutador lógico correspondiente en NSX Manager.
Si el número de conmutadores lógicos aumenta, es posible que la eliminación del NSX DVPG en vCenter Server demore más tiempo después de la eliminación del conmutador lógico correspondiente en NSX Manager. En un entorno con 12.000 conmutadores lógicos, se requieren aproximadamente 10 segundos para eliminar un DVPG NSX de vCenter Server.
Solución alternativa: Ninguna.
- Si se crea una gran cantidad de grupos de puertos virtuales distribuidos de NSX, hostd se queda sin memoria y genera un error
En vSphere 7.0, los grupos de puertos virtuales distribuidos de NSX consumen una cantidad de memoria significativamente mayor que las redes opacas. Por esta razón, los grupos de puertos virtuales distribuidos de NSX no pueden admitir la misma escala que una red opaca con la misma cantidad de memoria.
Solución alternativa: Para admitir el uso de grupos de puertos virtuales distribuidos de NSX, aumente la cantidad de memoria en los hosts ESXi. Si comprueba que el sistema tiene suficiente memoria para admitir las máquinas virtuales, puede aumentar directamente la memoria de
hostd
mediante el siguiente comando.localcli --plugin-dir /usr/lib/vmware/esxcli/int/ sched group setmemconfig --group-path host/vim/vmvisor/hostd --units mb --min 2048 --max 2048
Tenga en cuenta que esto hará que
hostd
use memoria que normalmente está reservada para las máquinas virtuales del entorno. Esto puede reducir el número de máquinas virtuales que el host ESXi puede admitir. - DRS puede iniciar vMotion de forma incorrecta si la reserva de red está configurada en una máquina virtual
Si la reserva de red está configurada en una máquina virtual, se espera que DRS solo migre la máquina virtual a un host que cumpla con los requisitos especificados. En un clúster con nodos de transporte de NSX, si algunos de los nodos de transporte se unen a la zona de transporte mediante NSX-T Virtual Distributed Switch (N-VDS) y otros mediante vSphere Distributed Switch (VDS) 7.0, DRS puede iniciar vMotion de forma incorrecta. Es posible que se produzca este problema cuando ocurre lo siguiente:
- La máquina virtual se conecta a un conmutador lógico de NSX configurado con una reserva de red.
- Algunos nodos de transporte se unen a la zona de transporte mediante N-VDS y otros mediante VDS 7.0, o bien los nodos de transporte se unen a la zona de transporte a través de diferentes instancias de VDS 7.0.
Solución alternativa: Haga que todos los nodos de transporte se unan a la zona de transporte mediante N-VDS o la misma instancia de VDS 7.0.
- Al agregar una NIC de VMkernel (vmknic) a un grupo de puertos de NSX, vCenter Server muestra el error "Conectar el adaptador de VMKernel a un grupo de puertos de NSX en un host sin estado no es una operación admitida. En su lugar, utilice el grupo de puertos distribuidos".
- Para una instancia de ESXi sin estado en un conmutador distribuido virtual (Distributed Virtual Switch, DVS), la vmknic en un grupo de puertos de NSX está bloqueada. En su lugar, debe utilizar un grupo de puertos distribuidos.
- Para una instancia de ESXi con estado en un DVS, a pesar de que se admiten las vmknic en un grupo de puertos de NSX, vSAN puede presentar problemas si las emplea.
Solución alternativa: Utilice un grupo de puertos distribuidos en el mismo DVS.
- Se puede producir un error al habilitar SR-IOV desde vCenter para QLogic 4x10GE QL41164HFCU CNA
Si se desplaza hasta el cuadro de diálogo Editar configuración de los adaptadores de red física e intenta habilitar SR-IOV, puede que se produzca un error en la operación cuando se utilice QLogic 4x10GE QL41164HFCU CNA. Si se intenta habilitar SR-IOV, se puede producir una interrupción de la red del host ESXi.
Solución alternativa: Utilice el siguiente comando en el host ESXi para habilitar SR-IOV:
esxcfg-module
- Nuevo Se produce un error en vCenter Server si los hosts de un clúster que utiliza Distributed Resource Scheduler (DRS) se unen a las redes de NSX-T mediante un conmutador virtual distribuido (Virtual Distributed Switch, VDS) diferente, o bien mediante una combinación de NSX-T Virtual Distributed Switch (NVDS) y el VDS
En vSphere 7.0, cuando se utilizan redes de NSX-T en un VDS de vSphere con un clúster de DRS, se puede producir un error en vCenter Server si los hosts no se unen a la zona de transporte de NSX mediante las mismas instancias de VDS o NVDS.
Solución alternativa: Haga que los hosts de un clúster de DRS se unan a la zona de transporte de NSX mediante las mismas instancias de VDS o NVDS.
- Los almacenes de datos de VMFS no se montan automáticamente después de la eliminación en caliente y la inserción en caliente de un disco en servidores HPE Gen10 con controladoras SmartPQI
En ocasiones, cuando se eliminan en caliente discos SATA en servidores HPE Gen10 con controladoras SmartPQI sin ampliadores y se insertan en caliente en una bahía de disco diferente del mismo equipo, o cuando se eliminan en caliente varios discos y se insertan en caliente en un orden diferente, se asigna un nuevo nombre local a los discos. El almacén de datos de VMFS en ese disco se muestra como una instantánea y no se vuelve a montar automáticamente debido a que el nombre del dispositivo se modificó.
Solución alternativa: Ninguna. La controladora SmartPQI no admite operaciones desordenadas de eliminación en caliente e inserción en caliente.
- Se produce un error al configurar el nivel de registro para el controlador nvme_pcie
Cuando se establece loglevel para el controlador nvme_pcie con el comando
esxcli nvme driver loglevel set -l <log level>
, se produce un error en la acción y se muestra el siguiente mensaje:Failed to set log level 0x2.
Este comando se conservó por consideraciones de compatibilidad con el controlador NVMe, pero no es compatible con el controlador nvme_pcie.
Solución alternativa: Ninguna. Esta condición se presentará cuando la función nvme_pcie esté habilitada.
- Es posible que ESXi finalice las operaciones de E/S en los dispositivos NVMeOF debido a errores en todas las rutas de acceso activas
En ocasiones, todas las rutas de acceso activas a dispositivos NVMeOF registran errores de E/S debido a problemas de vínculo o al estado de las controladoras. Si el estado de una de las rutas de acceso cambia a inactivo, es posible que el complemento de alto rendimiento (High-Performance Plug-in, HPP) no seleccione otra ruta de acceso si esta muestra un gran volumen de errores. Como resultado, se produce un error en la operación de E/S.
Solución alternativa: Deshabilite la opción de configuración /Misc/HppManageDegradedPaths para desbloquear las operaciones de E/S.
- Se produce un error en la comprobación de VOMA sobre los almacenes de datos VMFS basados en NVMe
La comprobación de VOMA no es compatible con los almacenes de datos de VMFS basados en NVMe y generará el siguiente error:
ERROR: Failed to reserve device. Function not implemented
Ejemplo:
# voma -m vmfs -f check -d /vmfs/devices/disks/: <partition#> Running VMFS Checker version 2.1 in check mode Initializing LVM metadata, Basic Checks will be done Checking for filesystem activity Performing filesystem liveness check..|Scanning for VMFS-6 host activity (4096 bytes/HB, 1024 HBs). ERROR: Failed to reserve device. Function not implemented Aborting VMFS volume check VOMA failed to check device : General Error
Solución alternativa: Ninguna. Si necesita analizar metadatos de VMFS, puede recopilarlos con la opción
-l
y recurrir al soporte al cliente de VMware. El comando para recopilar el volcado es el siguiente:voma -l -f dump -d /vmfs/devices/disks/:<partition#>
- El uso de la API de reconfiguración de máquinas virtuales para asociar un disco de primera clase cifrado a una máquina virtual cifrada puede generar un error
Si un FCD y una máquina virtual se cifran con diferentes claves de cifrado, los intentos por asociar el FCD cifrado a la máquina virtual cifrada mediante
VM reconfigure API
pueden generar un error y mostrar el siguiente mensaje:No se puede descifrar el disco porque la clave o la contraseña son incorrectas.
Solución alternativa: Utilice
attachDisk API
en lugar deVM reconfigure API
para asociar un FCD cifrado a una máquina virtual cifrada. - El host ESXi puede obtener un estado sin respuesta si una extensión no principal de su almacén de datos de VMFS distribuido entra en el estado de pérdida de dispositivo permanente (Permanent Device Loss, PDL)
Este problema no se presenta cuando una extensión no principal del almacén de datos de VMFS distribuido genera un error junto con la extensión principal. En este caso, no se puede acceder a ninguna porción del almacén de datos y ya no se permiten las operaciones de E/S.
En cambio, cuando solo una extensión no principal genera un error, pero se sigue teniendo acceso a la extensión principal, el latido del almacén de datos parece normal, y las operaciones de E/S entre el host y el almacén de datos prosiguen. Sin embargo, también comienzan a generar errores las operaciones de E/S que dependen de la extensión no principal con el error. Es posible que se acumulen otras transacciones de E/S mientras se espera que se resuelva el error de E/S y que el host entre en un estado sin respuesta.
Solución alternativa: Solucione la condición de PDL de la extensión no principal para resolver este problema.
- Una vez resueltas las condiciones de APD o PDL, es posible que no se pueda acceder al almacén de datos de VMFS con compatibilidad habilitada para discos virtuales agrupados en clúster
Este problema solo se puede producir en los almacenes de datos en los que se habilitó la compatibilidad con discos virtuales agrupados en clúster. Cuando el almacén de datos se recupera de una condición de todas las rutas desactivadas (All Paths Down, APD) o de pérdida de dispositivo permanente (PDL), no se puede acceder a él. Es posible que el registro de VMkernel muestre varios mensajes
SCSI3 reservation conflict
similares a los siguientes:2020-02-18T07:41:10.273Z cpu22:1001391219)ScsiDeviceIO: vm 1001391219: SCSIDeviceCmdCompleteCB:2972: Reservation conflict retries 544 for command 0x45ba814b8340 (op: 0x89) to device "naa.624a9370b97601e346f64ba900024d53"
El problema puede ocurrir porque el host ESXi que participa en el clúster pierde las reservas de SCSI para el almacén de datos y no siempre puede volver a adquirirlas automáticamente después de que se recupera el almacén de datos.
Solución alternativa: Registre manualmente la reserva con el siguiente comando:
vmkfstools -L registerkey /vmfs/devices/disks/<device name>
donde
<device name>
es el nombre del dispositivo en el que se creó el almacén de datos. - La controladora virtual NVMe es la controladora de disco predeterminada para los sistemas operativos invitados Windows 10
La controladora virtual NVMe es la controladora de disco predeterminada para los siguientes sistemas operativos invitados cuando se utiliza la versión de hardware 15 o posterior:
Windows 10
Windows Server 2016
Windows Server 2019Es posible que algunas funciones no estén disponibles cuando se utiliza una controladora virtual NVMe. Para obtener más información, consulte https://kb.vmware.com/s/article/2147714.
Nota: Algunos clientes utilizan la opción predeterminada anterior de LSI Logic SAS. Esto incluye ESXi Host Client y PowerCLI.
Solución alternativa: Si necesita funciones que no están disponibles en NVMe virtual, cambie a VMware Paravirtual SCSI (PVSCSI) o LSI Logic SAS. Para obtener información sobre el uso de VMware Paravirtual SCSI (PVSCSI), consulte https://kb.vmware.com/s/article/1010398.
- Después de la actualización de un host ESXi a vSphere 7.0, la presencia de reglas de notificación de núcleo duplicadas puede provocar un comportamiento inesperado
Las reglas de notificación determinan qué complemento de múltiples rutas (como NMP, HPP, etc.) posee rutas de acceso a un dispositivo de almacenamiento en particular. ESXi 7.0 no admite reglas de notificación duplicadas. Sin embargo, el host ESXi 7.0 no muestra alertas si se agregan reglas duplicadas a las reglas de notificación existentes que se heredaron mediante una actualización a partir de una versión anterior. Como consecuencia del uso de reglas duplicadas, es posible que complementos no deseados recuperen dispositivo de almacenamiento, lo que puede provocar un resultado inesperado.
Solución alternativa: No utilice reglas de notificación de núcleo duplicadas. Antes de agregar una nueva regla de notificación, elimine cualquier regla de notificación coincidente que exista.
- Una consulta de CNS con el filtro de estado de cumplimiento establecido puede demorar un tiempo inusualmente largo en completarse
La API QueryVolume de CNS permite obtener información sobre los volúmenes de CNS, como el estado del volumen y el estado de cumplimiento. Al comprobar el estado de cumplimiento de volúmenes individuales, los resultados se obtienen rápidamente. Sin embargo, cuando se invoca la API QueryVolume de CNS para comprobar el estado de cumplimiento de varios volúmenes (varias decenas o cientos), la consulta puede procesarse lentamente.
Solución alternativa: Evite usar consultas en masa. Cuando necesite obtener el estado de cumplimiento, consulte un volumen a la vez o limite la cantidad de volúmenes en la API de consulta a 20 o menos. Mientras realiza la consulta, evite ejecutar otras operaciones de CNS para obtener el mejor rendimiento.
- Nuevo Los volúmenes de CNS eliminados se pueden mostrar de manera temporal como existentes en la interfaz de usuario de CNS
Tras eliminar un disco de FCD que respalda un volumen de CNS, es posible que el volumen se siga mostrando como existente en la interfaz de usuario de CNS. Sin embargo, se produce un error si se intenta eliminar el volumen. Es posible que se muestre un mensaje de error similar al siguiente:
No se pudieron encontrar el objeto o el artículo a los que se hace referencia
.Solución alternativa: La siguiente sincronización completa resolverá la incoherencia y actualizará correctamente la interfaz de usuario de CNS.
- Nuevo Puede que a veces se produzca un error al intentar asociar varios volúmenes de CNS al mismo pod
Al asociar varios volúmenes al mismo pod de forma simultánea, en algunas ocasiones es posible que la operación de asociación elija la misma ranura de controladora. Por ello, solo una de las operaciones se realiza correctamente, mientras que se producen errores en otros montajes de volúmenes.
Solución alternativa: Después de que Kubernetes reintente realizar la operación que generó errores, la operación se completa correctamente si hay una ranura de controladora disponible en la máquina virtual del nodo.
- Nuevo En determinadas circunstancias, a pesar de que se produce un error en una operación de CNS, el estado de la tarea se muestra como correcto en vSphere Client
Esto puede ocurrir cuando, por ejemplo, se utiliza una directiva de almacenamiento que no cumple los requisitos para crear un volumen de CNS. Se produce un error en la operación, pero vSphere Client muestra el estado de la tarea como correcto.
Solución alternativa: Aunque el estado de la tarea aparezca como correcto en vSphere Client, no hay ninguna garantía de que la operación de CNS se haya realizado correctamente. Para asegurarse de que la operación se realizó correctamente, compruebe los resultados.
- Nuevo Una operación de eliminación incorrecta para un volumen persistente de CNS puede dejar el volumen no eliminado en el almacén de datos de vSphere
Este problema puede producirse cuando la API de eliminación de CNS intenta eliminar un volumen persistente que aún está asociado a un pod. Por ejemplo, cuando se elimina el espacio de nombres de Kubernetes donde se ejecuta el pod. Como resultado, el volumen se borra de CNS y la operación de consulta de CNS no devuelve el volumen. Sin embargo, el volumen continuará residiendo en el almacén de datos y no podrá eliminarse a través de sucesivas operaciones de la API de eliminación de CNS.
Solución alternativa: Ninguna.
- Los proveedores se desconectan después de un cambio de PNID
Cuando se cambia la dirección IP de vCenter (cambio de PNID), los proveedores registrados se desconectan.
Solución alternativa: Vuelva a registrar los proveedores.
- Se produce un error en la migración de una máquina virtual entre instancias de vCenter
Cuando se usa vMotion entre instancias de vCenter para mover el almacenamiento y el host de una máquina virtual a otra instancia de vCenter Server, es posible que se muestre el error
La operación no se permite en el estado actual.
Este error aparece en el asistente de la interfaz de usuario después del paso de selección del host y antes del paso de selección del almacén de datos, en casos en los que la máquina virtual tiene una directiva de almacenamiento asignada con reglas basadas en host, como el cifrado u otra regla de filtro de E/S.
Solución alternativa: Asigne la máquina virtual y sus discos a una directiva de almacenamiento sin reglas basadas en host. Es posible que deba descifrar la máquina virtual si la máquina virtual de origen está cifrada. A continuación, vuelva a intentar la acción de vMotion entre instancias de vCenter.
- La información sobre sensores de almacenamiento de la pestaña Estado del hardware muestra valores incorrectos en la interfaz de usuario de vCenter, la interfaz de usuario del host y el explorador MOB
Al desplazarse hasta Host > Supervisar > Estado del hardware > Sensores de almacenamiento en la interfaz de usuario de vCenter, la información de almacenamiento muestra valores incorrectos o desconocidos. Se observa el mismo problema en la interfaz de usuario del host y la ruta de acceso de MOB “runtime.hardwareStatusInfo.storageStatusInfo”.
Solución alternativa: Ninguna.
- La configuración avanzada de hosts de la interfaz de usuario de vSphere muestra la ubicación actual del bloqueador de productos como vacía con un valor predeterminado vacío
La configuración avanzada de hosts de la interfaz de usuario de vSphere muestra la ubicación actual del bloqueador de productos como vacía con un valor predeterminado vacío. Esto no es coherente, ya que la ubicación real del producto
symlink
se creó y es válida. Esto provoca confusión en el usuario. El valor predeterminado no se puede corregir desde la interfaz de usuario.Solución alternativa: El usuario puede utilizar el comando esxcli en el host para corregir la ubicación actual del bloqueador de productos predeterminada como se indica a continuación.
1. Elimine la configuración existente de ubicación del bloqueador de productos con:
"esxcli system settings advanced remove -o ProductLockerLocation"
2. Vuelva a agregar la configuración de ubicación del bloqueador de productos con el valor predeterminado apropiado:
2.a. Si ESXi es una instalación completa, el valor predeterminado es
"/locker/packages/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/locker/packages/vmtoolsRepo"
2.b. Si ESXi es una configuración de PXEboot, por ejemplo, autodeploy, el valor predeterminado es el siguiente: "
/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/vmtoolsRepo"
Ejecute el siguiente comando para determinar automáticamente la ubicación:
export PRODUCT_LOCKER_DEFAULT=`readlink /productLocker`
Agregue la configuración:
esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s $PRODUCT_LOCKER_DEFAULT
Para combinar todos los pasos anteriores en el paso 2, puede emitir el siguiente comando único:
esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s `readlink /productLocker`
- Las instancias vinculadas de vCenter Server del centro de datos definido por software (Software-Defined Data Center, SDDC) aparecen en la instancia local de vSphere Client si una puerta de enlace de vCenter Cloud está vinculada al SDDC.
Cuando se implementa una puerta de enlace de vCenter Cloud en el mismo entorno que una instancia local de vCenter Server y se la vincula a un SDDC, la instancia de vCenter Server del SDDC aparecerá en la instancia local de vSphere Client. Este es un comportamiento inesperado y la instancia vinculada de vCenter Server del SDDC debe ignorarse. Todas las operaciones que involucren a la instancia vinculada de vCenter Server del SDDC deben realizarse en la instancia de vSphere Client en ejecución dentro de la puerta de enlace de vCenter Cloud.
Solución alternativa: Ninguna.
- La sección postcustomization del script de personalización se ejecuta antes que la personalización de invitado
Cuando se ejecuta el script de personalización de invitado para un sistema operativo invitado Linux, la sección
precustomization
del script de personalización que se define en la especificación de personalización se ejecuta antes que la personalización de invitado y, a continuación, se ejecuta la secciónpostcustomization
. Si se habilita Cloud-Init en el sistema operativo invitado de una máquina virtual, la secciónpostcustomization
se ejecuta antes que la personalización debido a un problema conocido de Cloud-Init.Solución alternativa: Deshabilite Cloud-Init y utilice la personalización de invitado estándar.
- Las operaciones de migración de grupos en vSphere vMotion, Storage vMotion y vMotion sin almacenamiento compartido generan un error
Cuando se realizan operaciones de migración de grupos en máquinas virtuales con varios discos e instantáneas de múltiples niveles, se puede producir el siguiente error en las operaciones:
com.vmware.vc.GenericVmConfigFault Se produjo un error durante la espera de datos. Error 195887167. El host remoto cerró la conexión, posiblemente debido a que se agotó el tiempo de espera.
Solución alternativa: Vuelva a intentar la operación de migración de a una máquina virtual con errores a la vez.
- La implementación de una plantilla de OVF o de OVA desde una URL genera un error 403 Forbidden
No se admiten las URL que contienen un parámetro de consulta HTTP. Por ejemplo,
http://webaddress.com?file=abc.ovf
o las direcciones URL S3 previamente firmadas por Amazon.Solución alternativa: Descargue los archivos e impleméntelos desde el sistema de archivos local.
- Es posible que se produzca un error al importar o implementar archivos OVF locales cuyo nombre contiene caracteres que no son ASCII
Cuando se importan archivos
.ovf
locales cuyo nombre contiene caracteres que no son ASCII, es posible recibir el mensaje400 Bad Request Error
. Cuando se utilizan estos archivos.ovf
para implementar una máquina virtual en vSphere Client, el proceso de implementación se detiene en 0%. Como resultado, es posible recibir el mensaje400 Bad Request Error
o500 Internal Server Error
.Solución alternativa:
- Elimine los caracteres que no sean ASCII de los nombres de los archivos
.ovf
y.vmdk
.- Para editar el archivo
.ovf
, ábralo con un editor de texto. - Busque el nombre de archivo
.vmdk
que no sea ASCII y conviértalo en ASCII.
- Para editar el archivo
- Importe o implemente nuevamente los archivos guardados.
- Elimine los caracteres que no sean ASCII de los nombres de los archivos
- Nuevo No puede verse el tercer nivel de objetos anidados en una carpeta de máquina virtual
Realice los pasos siguientes:
- Desplácese hasta un centro de datos y cree una carpeta de máquina virtual.
- En la carpeta de la máquina virtual, cree una carpeta de máquina virtual anidada.
- En la segunda carpeta, cree una máquina virtual, una carpeta de máquina virtual, una vApp o una plantilla de máquina virtual anidadas adicionales.
Como resultado, no se pueden ver los objetos de la tercera carpeta anidada en el árbol de inventario de Máquinas virtuales y plantillas.
Solución alternativa: Para ver los objetos de la tercera carpeta anidada, desplácese hasta la segunda carpeta anidada y seleccione la pestaña Máquinas virtuales.
- Las máquinas virtuales de un clúster pueden quedar huérfanas después de recuperarse de una inaccesibilidad de almacenamiento, como una condición APD en todo el clúster
Es posible que algunas máquinas virtuales queden en un estado huérfano después de recuperarse de una condición APD en todo el clúster, incluso si se habilitaron HA y VMCP en el clúster.
Este problema puede ocurrir cuando se presentan las siguientes condiciones de forma simultánea:
- Todos los hosts del clúster experimentan APD y no se recuperan hasta que se agota el tiempo de espera de VMCP.
- El principal de HA inicia la conmutación por error debido a una condición APD en un host.
- Se produce un error en la API de encendido durante la conmutación por error de HA debido a una de las siguientes condiciones:
- APD en el mismo host
- APD en cascada en todo el clúster
- Problemas de almacenamiento
- Recursos no disponibles
- Es posible que se inicie la cancelación del registro de FDM y la lógica de robo de máquina virtual de VC durante un período en el que FDM no canceló el registro de la máquina virtual con errores y la sincronización de hosts de VC responde que varios hosts informan la misma máquina virtual. Tanto FDM como VC eliminan del registro las diferentes copias registradas de la misma máquina virtual desde diferentes hosts, lo que provoca que la máquina virtual quede huérfana.
Solución alternativa: Debe eliminar del registro a las máquinas virtuales huérfanas y volver a registrarlas manualmente en el clúster después de que se recupere la condición de APD.
Si no se vuelven a registrar manualmente las máquinas virtuales huérfanas, HA intenta la conmutación por error de estas máquinas virtuales, pero esto puede tardar entre 5 y 10 horas, según el momento en que se recupere la condición de APD.
En estos casos, la funcionalidad general del clúster no se ve afectada, y HA continúa protegiendo las máquinas virtuales. Se trata de una anomalía en cuanto a lo que se muestra en VC durante el transcurso del problema.
- No se puede habilitar NSX-T en un clúster que ya está habilitado para administrar la configuración y la actualización de imágenes en todos los hosts de forma colectiva
NSX-T no es compatible con la funcionalidad de administración de imágenes de vSphere Lifecycle Manager. Cuando se habilita un clúster para la configuración y la actualización de imágenes en todos los hosts del clúster de forma colectiva, no se puede habilitar NSX-T en ese clúster. Sin embargo, es posible implementar instancias de NSX Edge en este clúster.
Solución alternativa: Mueva los hosts a un nuevo clúster que pueda administrar con líneas base y habilite NSX-T en ese nuevo clúster.
- vSphere Lifecycle Manager y los servicios de archivos de vSAN no pueden habilitarse al mismo tiempo en un clúster de vSAN de vSphere 7.0
Si se habilita vSphere Lifecycle Manager en un clúster, no se pueden habilitar los servicios de archivos de vSAN en el mismo clúster y viceversa. Para habilitar vSphere Lifecycle Manager en un clúster en el que ya estén habilitados los servicios de archivos de vSAN, primero deshabilite los servicios de archivos de vSAN y vuelva a intentar la operación. Tenga en cuenta que si realiza una transición a un clúster que se administra con una sola imagen, vSphere Lifecycle Manager no se puede deshabilitar en dicho clúster.
Solución alternativa: Ninguna.
- No se pueden agregar hosts ESXi 7.0 a un clúster que se administra con una sola imagen mediante vSphere Auto Deploy
Se produce un error al intentar agregar hosts ESXi a un clúster que se administra con una sola imagen mediante el flujo de trabajo "Agregar al inventario" de vSphere Auto Deploy. El error se produce debido a que no existen patrones que coincidan en un conjunto de reglas de Auto Deploy existente. Se produce un error silencioso en la tarea y los hosts se mantienen en la pestaña Hosts detectados.
Solución alternativa:
- Elimine de la pestaña Hosts detectados los hosts ESXi que no coinciden con el conjunto de reglas.
- Cree una regla o edite una regla de Auto Deploy existente, en la que la ubicación de destino del host sea un clúster administrado por una imagen.
- Reinicie los hosts.
Los hosts se agregan al clúster administrado mediante una imagen en vSphere Lifecycle Manager.
- Cuando un administrador de soporte de hardware no está disponible, se ve afectada la funcionalidad de vSphere High Availability (HA)
La funcionalidad de vSphere HA se ve afectada si un administrador de soporte de hardware no está disponible para un clúster que se administra con una sola imagen en el que se habilita vSphere HA y en el que se selecciona un complemento de firmware y controladores. Es posible que se produzcan los siguientes errores.
- Se produce un error al configurar vSphere HA en un clúster.
- No se puede completar la configuración del agente de vSphere HA en un host:
Se produjo un error al aplicar los VIB de HA en el clúster.
- Se produce un error al corregir vSphere HA:
Error general del sistema: No se pudo obtener el mapa de componentes efectivos.
- Se produce un error al deshabilitar vSphere HA: Se produjo un error en la tarea de eliminación de soluciones.
Error general del sistema: No se puede encontrar el paquete de soporte de hardware del depósito o el administrador de soporte de hardware.
Solución alternativa:
- Si el administrador de soporte de hardware no está disponible de forma temporal, realice los siguientes pasos.
- Vuelva a conectar el administrador de soporte de hardware a vCenter Server.
- Seleccione un clúster en el menú Hosts y clústeres.
- Seleccione la pestaña Configurar.
- En Servicios, haga clic en vSphere Availability.
- Vuelva a habilitar vSphere HA.
- Si el administrador de soporte de hardware no está disponible de forma permanente, realice los siguientes pasos.
- Elimine el administrador de soporte de hardware y el paquete de soporte de hardware de la especificación de imagen.
- Vuelva a habilitar vSphere HA.
- Seleccione un clúster en el menú Hosts y clústeres.
- Seleccione la pestaña Actualizaciones.
- Haga clic en Editar.
- Elimine el complemento de firmware y controlador, y haga clic en Guardar.
- Seleccione la pestaña Configurar.
- En Servicios, haga clic en vSphere Availability.
- Vuelva a habilitar vSphere HA.
- No se elimina el elemento iofilter de un clúster después de un proceso de corrección en vSphere Lifecycle Manager
Se produce un error al eliminar el elemento filtro de E/S de un clúster mediante la corrección del clúster en vSphere Lifecycle Manager, y se muestra el siguiente mensaje:
El filtro de E/S XXX ya existe
. El elemento filtro de E/S permanece en la lista como instalado.Solución alternativa:
- Llame a la API del filtro de E/S
UninstallIoFilter_Task
desde el objeto administrado de vCenter Server (IoFilterManager). - Corrija el clúster en vSphere Lifecycle Manager.
- Llame a la API del filtro de E/S
ResolveInstallationErrorsOnCluster_Task
desde el objeto administrado de vCenter Server (IoFilterManager) para actualizar la base de datos.
- Llame a la API del filtro de E/S
- Durante la corrección de un clúster habilitado para vSphere HA en vSphere Lifecycle Manager, la adición de hosts genera un estado de error en vSphere HA
Si se agregan uno o varios hosts ESXi durante el proceso de corrección de un clúster habilitado para vSphere HA, se genera el siguiente mensaje de error:
Se produjo un error al aplicar los VIB de HA en el clúster.
Solución alternativa: Una vez completada la operación de corrección del clúster, realice una de las siguientes tareas.
- Haga clic con el botón derecho en el host de ESXi con errores y seleccione Volver a configurar para vSphere HA.
- Deshabilite y vuelva a habilitar vSphere HA para el clúster.
- Durante la corrección de un clúster habilitado para vSphere HA en vSphere Lifecycle Manager, si se deshabilita y se vuelve a habilitar vSphere HA, se genera un estado de error en vSphere HA
Al deshabilitar y volver a habilitar vSphere HA durante la corrección de un clúster, es posible que se produzca un error en el proceso de corrección debido a que las comprobaciones de estado de vSphere HA indican que los hosts no tienen paquetes VIB de vSphere HA instalados. Es posible que se muestre el siguiente mensaje de error:
Error al establecer la especificación de imagen deseada para el clúster
.Solución alternativa: Una vez completada la operación de corrección del clúster, deshabilite y vuelva a habilitar vSphere HA para el clúster.
- La búsqueda de imágenes recomendadas en vSphere Lifecycle Manager es lenta en los clústeres de gran tamaño
En los clústeres grandes con más de 16 hosts, la tarea de generación de recomendaciones puede tardar más de una hora en completarse o puede parecer que se bloquea. El tiempo de finalización de la tarea de recomendación depende de la cantidad de dispositivos configurados en cada host y de la cantidad de candidatos de imagen del almacén que vSphere Lifecycle Manager debe procesar antes de obtener una imagen válida para recomendar.
Solución alternativa: Ninguna.
- La comprobación de la compatibilidad de hardware en vSphere Lifecycle Manager es lenta en los clústeres de gran tamaño
En los clústeres grandes con más de 16 hosts, la tarea de generación de informes de validación puede tardar hasta 30 minutos en completarse o puede parecer que se bloquea. El tiempo de finalización depende de la cantidad de dispositivos configurados en cada host y de la cantidad de hosts configurados en el clúster.
Solución alternativa: Ninguna
- Se muestran mensajes de error incompletos en idiomas distintos del inglés al corregir un clúster en vSphere Lifecycle Manager
Es posible encontrar mensajes de error incompletos para los idiomas localizados en la interfaz de usuario de vCenter Server. Estos mensajes se muestran después de que se produce un error en el proceso de corrección de un clúster en vSphere Lifecycle Manager. Por ejemplo, se puede observar el siguiente mensaje de error.
El mensaje de error en inglés:Virtual machine 'VMC on DELL EMC -FileServer' that runs on cluster 'Cluster-1' reported an issue which prevents entering maintenance mode: Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
El mensaje de error en francés:La VM « VMC on DELL EMC -FileServer », située sur le cluster « {Cluster-1} », a signalé un problème empêchant le passage en mode de maintenance : Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
Solución alternativa: Ninguna.
- Al importar una imagen sin complemento de proveedor, componentes ni complemento de firmware y controlador a un clúster con una imagen que contiene esos elementos, no se eliminan los elementos de imagen de la imagen existente
Solo la imagen base de ESXi se reemplaza por la que se encuentra en la imagen importada.
Solución alternativa: Una vez completado el proceso de importación, edite la imagen y, si es necesario, elimine el complemento de proveedor, los componentes, y el complemento de firmware y controlador.
- Cuando se convierte un clúster que utiliza líneas base en un clúster que utiliza una sola imagen, se muestra una advertencia que indica que se eliminarán los VIB de vSphere HA
Al convertir un clúster habilitado para vSphere HA que utiliza líneas base en un clúster que utiliza una sola imagen, se puede mostrar un mensaje de advertencia en el que se indica que se eliminará el componente
vmware-fdm
.Solución alternativa: Este mensaje se puede ignorar. El proceso de conversión instala el componente
vmware-fdm
. - Si se configuró vSphere Update Manager para descargar actualizaciones de revisión de Internet a través de un servidor proxy, después de una actualización a vSphere 7.0 donde Update Manager se convierte en vSphere Lifecycle Manager, es posible que se produzca un error al descargar revisiones del repositorio de revisiones de VMware
En las versiones anteriores de vCenter Server, se podían configurar ajustes de proxy independientes para vCenter Server y vSphere Update Manager. Después de una actualización a vSphere 7.0, el servicio vSphere Update Manager se convierte en parte del servicio Lifecycle Manager vSphere. En el servicio vSphere Lifecycle Manager, los ajustes de proxy se configuran en la configuración de vCenter Server Appliance. Si se configuró Update Manager para descargar actualizaciones de revisión de Internet a través de un servidor proxy, pero el dispositivo de vCenter Server Appliance no incluye ajustes de proxy, después de una actualización de vCenter Server a la versión 7.0, el servicio vSphere Lifecycle Manager no se puede conectar al almacén de VMware y no puede descargar revisiones ni actualizaciones.
Solución alternativa: Inicie sesión en la interfaz de administración de vCenter Server Appliance (https://dirección-IP-o-FQDN-de-vCenter-Server-Appliance:5480) para configurar los ajustes de proxy de vCenter Server Appliance y habilitar vSphere Lifecycle Manager para utilizar el proxy.
- Cuando se aplica un perfil de host con la versión 6.5 a un host ESXi con la versión 7.0, se produce un error en la comprobación de cumplimiento
Al aplicar un perfil de host con la versión 6.5 a un host ESXi con la versión 7.0, se informa que el perfil de archivo de volcado de núcleo no cumple con las normas del host.
Solución alternativa: Existen dos soluciones alternativas posibles.
- Al crear un perfil de host con la versión 6.5, establezca la opción de configuración avanzada VMkernel.Boot.autoCreateDumpFile en false en el host ESXi.
- Al aplicar un perfil de host existente con la versión 6.5, agregue la opción de configuración avanzada VMkernel.Boot.autoCreateDumpFile al perfil de host, configure la opción en una directiva fija y establezca el valor en false.
- El menú desplegable Acciones no contiene ningún elemento cuando se configura el explorador en un idioma diferente del inglés
Cuando se configura el explorador en un idioma diferente del inglés y se hace clic en el botón Cambiar a la nueva vista en la pestaña Resumen de la máquina virtual en el inventario de vSphere Client, el menú desplegable Acciones del panel Sistema operativo invitado no contiene ningún elemento.
Solución alternativa: Seleccione el menú desplegable Acciones en la parte superior de la página de la máquina virtual.
- Los controladores de ESXi nativos Mellanox ConnectX-4 o ConnectX-5 pueden mostrar un deterioro menor del rendimiento cuando se activa la función de ajuste de escala en lado de recepción (Dynamic Receive Side Scaling, DYN_RSS) o la función de ajuste de escala en lado de recepción genérico (Generic Receive Side Scaling, GEN_RSS)
Los controladores de ESXi nativos Mellanox ConnectX-4 o ConnectX-5 pueden mostrar un deterioro de menos del 5 % en el rendimiento cuando se activan las funciones DYN_RSS y GEN_RSS, pero es improbable que esto afecte a las cargas de trabajo normales.
Solución alternativa: Puede deshabilitar las funciones DYN_RSS y GEN_RSS con los siguientes comandos:
# esxcli system module parameters set -m nmlx5_core -p "DYN_RSS=0 GEN_RSS=0"
# reboot
- Se puede producir un error en el tráfico de RDMA entre dos máquinas virtuales en el mismo host en el entorno de PVRDMA
En una implementación de vSphere 7.0 en un entorno de PVRDMA, las máquinas virtuales pasan el tráfico a través de HCA para la comunicación local si existe un HCA. Sin embargo, el bucle invertido del tráfico de RDMA no funciona en el controlador qedrntv. Por ejemplo, los pares de cola de RDMA que se ejecutan en máquinas virtuales configuradas en el mismo puerto de vínculo superior no pueden comunicarse unos con otros.
En vSphere 6.7 y las versiones anteriores, se usaba un HCA para el tráfico de RDMA local si SRQ se encontraba habilitado. vSphere 7.0 utiliza el bucle invertido de HCA con las máquinas virtuales que utilizan versiones de PVRDMA con SRQ habilitado y una versión de hardware mínima de 14 mediante RoCE v2.
La versión de firmware actual del adaptador de Marvell FastLinQ no admite el tráfico de bucle invertido entre QP de un mismo puerto o PF.
Solución alternativa: Se está agregando la compatibilidad requerida al controlador no incluido certificado para vSphere 7.0. Si utiliza el controlador qedrntv incluido, debe usar una configuración de 3 hosts y migrar las máquinas virtuales al tercer host.
- Limitaciones de QP para el tráfico de datagramas no confiables en el controlador qedrntv
Existen limitaciones en el controlador RoCE qedrntv de Marvell FastLinQ y el tráfico de datagramas no confiables (Unreliable Datagram, UD). Es posible que se produzcan errores en las aplicaciones de UD con tráfico en masa a través del controlador qedrntv. Por otra parte, los QP de UD solo pueden funcionar con las regiones de memoria (Memory Regions, MR) de DMA. No se admiten MR o FRMR físicas. Las aplicaciones que intentan utilizar MR o FRMR físicas junto con QP de UD no pueden pasar el tráfico a través de un controlador qedrntv. Los ejemplos conocidos de estas aplicaciones de prueba son
ibv_ud_pingpong
yib_send_bw
.Los casos prácticos de RoCE y RoCEv2 estándar en un entorno de VMware ESXi, como iSER, NVMe-oF (RoCE) y PVRDMA, no se ven afectados por este problema. Los casos prácticos de tráfico de UD son limitados y este problema afecta a un pequeño conjunto de aplicaciones que requieren tráfico de UD en masa.
El hardware de Marvell FastLinQ no admite la descarga de tráfico de UD de RDMA. Para cumplir con el requisito de PVRDMA de VMware y admitir QP de GSI, se agregó al controlador qedrntv una implementación exclusiva de software restringido para admitir QP de UD. El objetivo de la implementación es proporcionar compatibilidad con la comunicación GSI de rutas de control; no es una implementación completa de QP de UD para admitir el tráfico en masa y las funciones avanzadas.
Como la compatibilidad con UD se encuentra implementada en el software, es posible que la implementación no aguante un tráfico intenso y se descarten paquetes. Esto puede provocar errores en el tráfico de UD en masa.
Solución alternativa: No se admite el tráfico de QP de UD en masa con el controlador qedrntv y no existe ninguna solución alternativa en este momento. Los casos prácticos de RDMA de VMware ESXi (RoCE), como iSER, NVMe, RDMA y PVRDMA, no se ven afectados por este problema.
- Es posible que se produzcan errores en los servidores equipados con NIC 578xx de QLogic al conectar o desconectar LUN de iSCSI con frecuencia
Si se activa la conexión o la desconexión iSCSI de una NIC 578xx de QLogic con frecuencia, se puede producir un error en el servidor debido a un problema con el controlador qfle3. Esto se debe a un defecto conocido en el firmware del dispositivo.
Solución alternativa: Ninguna.
- Es posible que se produzca un error en ESXi durante la operación de descarga del controlador o desconexión de la controladora en el entorno NVMe over FC de Broadcom
En el entorno NVMe over FC de Broadcom, se puede producir un error en ESXi durante la operación de descarga del controlador o de desconexión de la controladora, y se puede mostrar un mensaje como el siguiente:
@BlueScreen: #PF Exception 14 in world 2098707:vmknvmeGener IP 0x4200225021cc addr 0x19
Solución alternativa: Ninguna.
- ESXi no muestra el número de versión de firmware de OEM de las NIC i350/X550 en algunos servidores Dell
El controlador ixgben incluido solo reconoce la firma o la versión de los datos de firmware de las NIC i350/X550. En algunos servidores Dell, el número de versión de firmware de OEM se encuentra programado en la región de versión del paquete OEM y el controlador ixgben incluido no lee esta información. Solo se muestra la firma de firmware de 8 dígitos.
Solución alternativa: Para mostrar el número de versión de firmware de OEM, instale la versión 1.7.15 o posterior del controlador ixgben asíncrono.
- Es posible que las NIC X710 o XL710 generen errores en ESXi
Cuando se inician ciertas operaciones destructivas en las NIC X710 o XL710, como restablecer la NIC o manipular el árbol de dispositivos internos de VMKernel, el hardware de la NIC puede leer datos de una memoria no empaquetada.
Solución alternativa: No restablezca la NIC ni manipule el estado del dispositivo interno de VMkernel.
- NVMe-oF no garantiza un nombre de VMHBA persistente después del reinicio del sistema
NVMe-oF es una función nueva en vSphere 7.0. Si el servidor tiene una instalación de almacenamiento USB que utiliza vmhba30+ y también tiene una configuración de NVMe over RDMA, el nombre de VMHBA puede cambiar después de reiniciar el sistema. Esto se debe a que la asignación de nombres de VMHBA para NVMe over RDMA es diferente de los dispositivos PCIe. ESXi no garantiza la persistencia.
Solución alternativa: Ninguna.
- Se produce un error en la copia de seguridad si el tamaño de la base de datos de vCenter es 300 GB o superior
Si el tamaño de la base de datos de vCenter es 300 GB o superior, la copia de seguridad basada en archivos generará un error de tiempo de espera. Aparece el siguiente mensaje de error:
Timeout! Failed to complete in 72000 seconds
Solución alternativa: Ninguna.
- Si se comprueba el estado de cumplimiento de un host ESXi 7.0 en función de un perfil de host con la versión 6.5 o 6.7, se produce un error en los dispositivos vmhba y vmrdma
Cuando se comprueba el cumplimiento de un host ESXi 7.0 que utiliza un controlador
nmlx5_core
onvme_pcie
en función de un perfil de host con la versión 6.5 o 6.7, se pueden observar los siguientes errores, dondeaddress1
yaddress2
son valores específicos del sistema afectado.- A vmhba device with bus type logical,
address1
is not present on your host. -
A vmrdma device with bus type logical, address2
is not present on your host.
El error se debe a que las direcciones de los dispositivos generadas por el controlador nmlx5_core
onvme_pcie
en ESXi 7.0 y las versiones anteriores no coinciden.Solución alternativa: Se puede ignorar el error. La funcionalidad del host ESXi no se ve afectada. Para resolver el error de estado de cumplimiento, vuelva a extraer el perfil de host desde un host ESXi versión 7.0 y aplique el nuevo perfil de host al host.
- A vmhba device with bus type logical,
- Se puede producir un error al restaurar una instancia de vCenter Server 7.0 obtenida tras actualizar vCenter Server 6.x con una instancia externa de Platform Services Controller
Cuando se restaura una instancia de vCenter Server 7.0 obtenida tras actualizar la versión 6.x con una instancia externa de Platform Services Controller, es posible que se produzca un error en la restauración y se muestre el siguiente mensaje:
Failed to retrieve appliance storage list
Solución alternativa: Durante la primera etapa del proceso de restauración, aumente el nivel de almacenamiento de vCenter Server 7.0. Por ejemplo, si el tipo de almacenamiento en la configuración de la instancia externa de Platform Services Controller de vCenter Server 6.7 es pequeño, seleccione el tipo de almacenamiento grande para el proceso de restauración.
- El parámetro de configuración Enabled SSL protocols no se define durante el proceso de corrección de un perfil de host
El parámetro de configuración
Enabled SSL protocols
no se define durante la corrección de un perfil de host y solo se habilita el protocolo predeterminado del sistematlsv1.2
. Este comportamiento se observa en un perfil de host con la versión 7.0 y anteriores en un entorno de vCenter Server 7.0.Solución alternativa: Si desea habilitar los protocolos SSL TLSV 1.0 o TLSV 1.1 para SFCB, inicie sesión en un host ESXi mediante SSH y ejecute el siguiente comando de ESXCLI:
esxcli system wbem -P <protocol_name>
- No se pueden configurar los ajustes de Modo de bloqueo mediante perfiles de host
El modo de bloqueo no se puede configurar a través de un perfil de host de seguridad y no se puede aplicar a varios hosts ESXi a la vez. Es necesario configurar manualmente cada host.
Solución alternativa: En vCenter Server 7.0, puede configurar el modo de bloqueo y administrar la lista de usuarios con excepción de modo de bloqueo mediante el uso de un perfil de host de seguridad.
- Cuando se aplica un perfil de host a un clúster, no se encuentra la configuración de Enhanced vMotion Compatibility (EVC) en los hosts ESXi
Algunos ajustes del archivo de configuración
/etc/vmware/config
de VMware no se administran mediante perfiles de host y se bloquean cuando se modifica el archivo de configuración. Como resultado, cuando se aplica el perfil de host a un clúster, se pierde la configuración de EVC, lo que provoca la pérdida de funcionalidades de EVC. Por ejemplo, las CPU sin enmascarar pueden quedar expuestas a cargas de trabajo.Solución alternativa: Vuelva a configurar la línea base de EVC relevante en el clúster para recuperar la configuración de EVC.
- El uso de un perfil de host para definir una partición de volcado de núcleo en vCenter Server 7.0 genera un error
En vCenter Server 7.0, la configuración y la administración de una partición de volcado de núcleo en un perfil de host no se encuentra disponible. Al intentar aplicar un perfil de host para definir una partición de volcado de núcleo, se produce el siguiente error:
No se encontró una partición de volcado de núcleo válida.
Solución alternativa: Ninguna. En vCenter Server 7.0, los perfiles de host solo admiten volcados de núcleo basados en archivos.
- Cuando se copia un perfil de host de un host ESXi o se edita un perfil de host, se pierden los valores de entrada del usuario
Algunas claves de los perfiles de host se generan a partir del cálculo de hash, incluso cuando se proporcionan reglas explícitas para la generación de claves. Como resultado, cuando se copia la configuración de un host o se edita un perfil de host, se pierden los valores de entrada del usuario en el archivo de respuesta.
Solución alternativa: En vCenter Server 7.0, cuando se copia un perfil de host de un host ESXi o se modifica un perfil de host, se conserva la configuración de entrada del usuario.
- Es posible que se rechacen las solicitudes HTTP de algunas bibliotecas a vSphere
El servicio HTTP Reverse Proxy de vSphere 7.0 exige un cumplimiento de normas más estricto que las versiones anteriores. Esto puede exponer problemas preexistentes en algunas bibliotecas de terceros que utilizan las aplicaciones para las llamadas SOAP a vSphere.
Si desarrolla aplicaciones de vSphere que utilizan esas bibliotecas o incluyen aplicaciones que dependen de esas bibliotecas en la pila de vSphere, puede experimentar problemas de conexión cuando estas bibliotecas envían solicitudes HTTP a VMOMI. Por ejemplo, las solicitudes HTTP emitidas desde bibliotecas vijava pueden adoptar el siguiente formato:
POST /sdk HTTP/1.1
SOAPAction
Content-Type: text/xml; charset=utf-8
User-Agent: Java/1.8.0_221
En este ejemplo, la sintaxis infringe un requisito de campo de encabezado para el protocolo HTTP que exige dos puntos después de SOAPAction. Por lo tanto, la solicitud se rechaza en plena ejecución.
Solución alternativa: Los desarrolladores que emplean bibliotecas no conformes en sus aplicaciones pueden considerar usar bibliotecas que sigan las normas HTTP en su lugar. Por ejemplo, los desarrolladores que utilizan la biblioteca vijava pueden considerar el uso de la versión más reciente de la biblioteca yavijava en su lugar.
- Al editar un parámetro de opciones avanzadas en un perfil de host y establecer un valor como false, el valor se establece como true
Cuando se intenta definir un valor como
false
para un parámetro de opción avanzada en un perfil de host, la interfaz de usuario crea un valor de cadena no vacío. Los valores que no están vacíos se interpretan comotrue
y el parámetro de opción avanzada recibe el valortrue
en el perfil de host.Solución alternativa: Existen dos soluciones alternativas posibles.
- Establezca el parámetro de opción avanzada como
false
en un host ESXi de referencia y copie la configuración de este host en los perfiles de host.
Nota: El host debe estar conforme con el perfil de host antes de modificar el parámetro de opción avanzada en el host.
- Establezca el parámetro de opción avanzada como
false
en un host ESXi de referencia y cree un perfil de host a partir de este host. A continuación, copie la configuración del perfil de host del nuevo perfil de host en el existente.
- Establezca el parámetro de opción avanzada como
- El conjunto de reglas de firewall dinámico de SNMP se modifica mediante perfiles de host durante un proceso de corrección
El conjunto de reglas de firewall de SNMP es un estado dinámico que se procesa durante el tiempo de ejecución. Cuando se aplica un perfil de host, los perfiles de host y SNMP administran la configuración del conjunto de reglas de forma simultánea, lo que puede modificar la configuración del firewall de forma inesperada.
Solución alternativa: Existen dos soluciones alternativas posibles.
- Para permitir que el conjunto de reglas se administre a sí mismo de forma dinámica, excluya la opción de conjunto de reglas de firewall de SNMP en la configuración del perfil de host.
- Para continuar con la doble administración del conjunto de reglas, corrija el estado del conjunto de reglas de firewall cuando sea necesario.
- Es posible que vea un archivo de volcado al utilizar el controlador Broadcom lsi_msgpt3, lsi_msgpt35 y lsi_mr3
Cuando se utilizan las controladoras lsi_msgpt3, lsi_msgpt35 y lsi_mr3, existe el riesgo de que vea el archivo de volcado lsuv2-lsi-drivers-plugin-util-zdump. Se produce un problema al salir de la instancia de storelib que se utiliza en esta utilidad del complemento. Esto no afecta a las operaciones de ESXi, por lo que puede ignorar el archivo de volcado.
Solución alternativa: Puede hacer caso omiso de este mensaje sin problemas. Puede utilizar el siguiente comando para eliminar lsuv2-lsi-drivers-plugin:
esxcli software vib remove -n lsuv2-lsiv2-drivers-plugin
- Es posible que vea que no es necesario reiniciar después de configurar la instancia de SR-IOV de un dispositivo PCI en vCenter, pero es posible que se pierdan las configuraciones de dispositivos que las extensiones de terceros definieron y que sea necesario volver a aplicar el reinicio
En ESXi 7.0, se aplica la configuración de SR-IOV sin reiniciar y se vuelve a cargar el controlador del dispositivo. Puede que los hosts ESXi utilicen extensiones de terceros para realizar configuraciones de dispositivos que se deben ejecutar después de que el controlador del dispositivo se cargue durante el arranque. Es necesario reiniciar para que dichas extensiones de terceros vuelvan a aplicar la configuración del dispositivo.
Solución alternativa: Debe reiniciar después de configurar SR-IOV para aplicar configuraciones de dispositivos de terceros.
Para contraer la lista de problemas conocidos anteriores, haga clic aquí.