ESXi 7.0 Update 1 | 6 DE OCTUBRE DE 2020 | Compilación ISO 16850804 Compruebe las adiciones y las actualizaciones de las notas de la versión. |
Contenido de las notas de la versión
Las notas de la versión abarcan los siguientes temas:
Novedades
- ESXi 7.0 Update 1 admite vSphere Quick Boot en los siguientes servidores:
- HPE ProLiant BL460c Gen9
- HPE ProLiant DL325 Gen10 Plus
- HPE ProLiant DL360 Gen9
- HPE ProLiant DL385 Gen10 Plus
- HPE ProLiant XL225n Gen10 Plus
- HPE Synergy 480 Gen9
- Comprobaciones previas de compatibilidad de hardware mejoradas de vSphere Lifecycle Manager para entornos de vSAN: ESXi 7.0 Update 1 incluye comprobaciones previas de compatibilidad de hardware de vSphere Lifecycle Manager. Las comprobaciones previas se activan automáticamente después de ciertos eventos de cambio, como una modificación de la imagen deseada del clúster o la adición de un nuevo host ESXi en entornos vSAN. Además, el marco de compatibilidad de hardware sondea automáticamente la base de datos de la lista de compatibilidad de hardware a intervalos predefinidos para cambios que activan comprobaciones previas, según sea necesario.
- Mayor cantidad de operaciones simultáneas en clústeres de vSphere Lifecycle Manager: Con ESXi 7.0 Update 1, si inicia la corrección en el nivel de centro de datos, el número de clústeres en los que puede ejecutar la corrección en paralelo aumenta de 15 a 64 clústeres.
- Compatibilidad de vSphere Lifecycle Manager con actualizaciones coordinadas entre zonas de disponibilidad: Con ESXi 7.0 Update 1, para evitar la superposición de operaciones, vSphere Lifecycle Manager actualiza los dominios de errores en los clústeres de vSAN de forma secuencial. Los hosts ESXi dentro de cada dominio de errores se siguen actualizando de manera gradual. Para los clústeres ampliados de vSAN, el primer dominio de errores siempre es el sitio preferido.
- Lista ampliada de las versiones compatibles de Red Hat Enterprise Linux y Ubuntu para VMware vSphere Update Manager Download Service (UMDS): ESXi 7.0 Update 1 agrega nuevas versiones de Red Hat Enterprise Linux y Ubuntu compatibles con UMDS. Para obtener la lista completa de versiones compatibles, consulte Sistemas operativos basados en Linux compatibles para instalar UMDS.
- Control mejorado de la sincronización de hora de VMware Tools: Con ESXi 7.0 Update 1, puede seleccionar un modo de sincronización de hora de VMware Tools desde vSphere Client en lugar de utilizar el símbolo del sistema. Al desplazarse hasta Opciones de máquina virtual > VMware Tools > Sincronizar hora con host, puede seleccionar Sincronizar al iniciar y reanudar (recomendado), Sincronizar hora de forma periódica o, si no se selecciona ninguna opción, puede impedir la sincronización.
- Mayor compatibilidad con los valores máximos de tolerancia a errores de varios procesadores (SMP-FT): Con ESXi 7.0 Update 1, puede configurar más máquinas virtuales SMP-FT y más vCPU SMP-FT totales en un host ESXi o un clúster, dependiendo de las cargas de trabajo y la planificación de la capacidad.
- Hardware virtual versión 18: ESXi 7.0 Update 1 introduce la versión 18 del hardware virtual para habilitar la compatibilidad con máquinas virtuales con valores máximos de recursos mayores y:
- Secure Encrypted Virtualization - Encrypted State (SEV-ES)
- Endpoints nativos de acceso de memoria directo remoto virtual (Virtual Remote Direct Memory Access, vRDMA)
- Modo de gráficos de EVC (vSGA)
- Valores máximos de recursos mayores para máquinas virtuales y mejoras de rendimiento:
- Con ESXi 7.0 Update 1, se pueden crear máquinas virtuales con tres veces más CPU virtuales y cuatro veces más de memoria, para permitir que las aplicaciones con mayor memoria y capacidad de CPU se escalen de forma casi lineal, lo cual es comparable al modo sin sistema operativo. Los valores máximos de los recursos de máquina virtual son hasta 768 vCPU a partir de 256 vCPU y hasta 24 TB de RAM virtual a partir de 6 TB. Sin embargo, la práctica recomendada sigue siendo no asignar un exceso de memoria. Solo se pueden configurar con los valores máximos de recursos las máquinas virtuales con la versión de hardware 18 y los sistemas operativos que admitan tales valores máximos de recursos.
- Las mejoras de rendimiento de ESXi que admiten una mayor escala de máquinas virtuales incluyen la ampliación de la dirección física, las optimizaciones de espacio de las direcciones, un mejor reconocimiento de NUMA para las máquinas virtuales invitadas y técnicas de sincronización más escalables. vSphere vMotion también está optimizado para trabajar con configuraciones de máquinas virtuales más grandes.
- Los hosts ESXi con procesadores AMD pueden admitir máquinas virtuales con el doble de vCPU, 256 y hasta 8 TB de RAM.
- La compatibilidad con la memoria persistente (PMEM) llega hasta el doble de 6 TB a 12 TB, para el modo de memoria y el modo de aplicación directa.
Versiones anteriores de ESXi 7.0
Las características, los problemas resueltos y conocidos de ESXi se describen en las notas de la versión de cada versión. Las notas de las versiones anteriores de ESXi 7.0 son las siguientes:
Para obtener información sobre internacionalización, compatibilidad y componentes de código abierto, consulte las Notas de la versión de VMware vSphere 7.0.
Revisiones incluidas en esta versión
Esta versión de ESXi 7.0 Update 1 tiene las siguientes revisiones:
Detalles de la compilación
Nombre de archivo de descarga: |
VMware-ESXi-7.0U1-16850804-depot |
Compilación: |
16850804 |
Tamaño de descarga: |
360,6 MB |
md5sum: |
3c12872658250d3bd12ed91de0d83109 |
sha1checksum: |
7cc4e669e3dddd0834487ebc7f90031ae265746c |
Reinicio requerido del host: |
Sí |
Migración de máquina virtual o apagado requeridos: |
Sí |
IMPORTANTE:
- A partir de vSphere 7.0, VMware utiliza componentes para empaquetar los VIB junto con los boletines. Los boletines de ESXi y
esx-update
dependen entre sí. Incluya siempre a ambos en una sola línea base de revisión de host ESXi, o bien incluya el boletín acumulativo en la línea base para evitar errores durante la aplicación de revisiones de hosts.
- En el complemento Lifecycle Manager de vSphere Client, la fecha de la versión de la imagen base, los perfiles y los componentes de ESXi 7.0.1 es 2020-09-04. Esto se espera. Para asegurarse de que puede utilizar los filtros correctos por fecha de publicación, solo la fecha de publicación del boletín acumulativo de actualizaciones es 2020-10-06.
- El nombre del boletín de Perfil de imagen
no-tools
es ESXi-7.0.1-16850804-no-tools4611675547841277300 y no es un error.
Boletín acumulativo de actualizaciones
Este boletín acumulativo de actualizaciones contiene los VIB más recientes con todas las revisiones posteriores a la publicación inicial de ESXi 7.0.
Identificador del boletín |
Categoría |
Gravedad |
ESXi70U1-16850804 |
Corrección de error |
Crítico |
Perfiles de imagen
Las versiones de revisiones y actualizaciones de VMware contienen perfiles de imagen general y de nivel crítico. El perfil de imagen general de la versión se aplica a las nuevas correcciones de errores.
Nombre del perfil de imagen |
ESXi-7.0.1-16850804-standard-5818809527488818992 |
ESXi-7.0.1-16850804-no-tools4611675547841277300 |
Imagen ESXi
Nombre y versión |
Fecha de versión |
Categoría |
Detalles |
ESXi_7.0.1-0.0.16850804 |
10/06/2020 |
General |
Imagen del corrector de error |
Para obtener información sobre los componentes individuales y boletines, consulte la página Revisiones de producto y la sección Problemas resueltos.
Descarga e instalación de revisiones
En vSphere 7.x, el componente Update Manager, que se utiliza para administrar vSphere Update Manager, se reemplaza con el componente Lifecycle Manager. Las operaciones administrativas de vSphere Update Manager aún están disponibles bajo el componente Lifecycle Manager, junto con nuevas capacidades de vSphere Lifecycle Manager.
La manera típica de aplicar las revisiones a los hosts de ESXi 7.x es utilizando vSphere Lifecycle Manager. Para obtener más detalles, consulte Información sobre vSphere Lifecycle Manager y Líneas base e imágenes de vSphere Lifecycle Manager.
También puede actualizar los hosts ESXi sin usar el complemento Lifecycle Manager y, en su lugar, usar un perfil de imagen. Para ello, debe descargar manualmente el archivo ZIP del paquete sin conexión de revisiones desde la página de descarga de VMware o la página de revisiones del producto y usar el comando esxcli software profile update
.
Para obtener más información, consulte la guía Actualizar los hosts a través de comandos ESXCLI y Actualizar VMware ESXi.
Avisos de compatibilidad con el producto
- VMware Tools 9.10.x y 10.0.x alcanzó el fin del soporte general. Para obtener más información, consulte la lista de VMware Tools en Matriz de ciclo de vida de productos de VMware.
- Intención de dejar de utilizar SHA-1
El algoritmo de hash de cifrado SHA-1 se dejará de utilizar en una versión futura de vSphere. SHA-1 y MD5, que ya se dejó de utilizar, tienen debilidades conocidas. Asimismo, se demostró que se produjeron ataques prácticos contra estos.
Problemas resueltos
Los problemas resueltos se agrupan del siguiente modo:
ESXi_7.0.1-0.0.16850804
Categoría de revisión |
General |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_esx-xserver_7.0.1-0.0.16850804
- VMware_bootbank_cpu-microcode_7.0.1-0.0.16850804
- VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.0.16850804
- VMware_bootbank_esx-base_7.0.1-0.0.16850804
- VMware_bootbank_vsan_7.0.1-0.0.16850804
- VMware_bootbank_esx-ui_1.34.4-0.0.16850804
- VMware_bootbank_crx_7.0.1-0.0.16850804
- VMware_bootbank_vsanhealth_7.0.1-0.0.16850804
- VMware_bootbank_native-misc-drivers_7.0.1-0.0.16850804
- VMware_bootbank_vdfs_7.0.1-0.0.16850804
- VMware_bootbank_gc_7.0.1-0.0.16850804
|
PR corregidas |
2086530, 2226245, 2495261, 2156103 |
Números CVE |
N/C |
Los boletines de ESXi y esx-update dependen entre sí. Incluya siempre a ambos en una sola línea base de revisión de host ESXi, o bien incluya el boletín acumulativo en la línea base para evitar errores durante la aplicación de revisiones de hosts.
Actualiza los VIB esx-dvfilter-generic-fastpath, vsanhealth, esx-ui, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver, gc
y cpu-microcode
para resolver los siguientes problemas:
- NUEVO: Un problema en la memoria de pila en los almacenes de datos de VMFS6 provoca varios problemas con las máquinas virtuales
En ciertos flujos de trabajo, los almacenes de datos de VMFS6 pueden asignar memoria pero no liberarla, lo que provoca que la memoria de pila de VMFS se agote. Este problema puede conducir a los siguientes problemas:
- Los almacenes de datos de VMFS6 aparecen como "No consumido" en los hosts ESXi.
- Las operaciones de vSphere vMotion con máquinas virtuales no se realizan correctamente.
- Las máquinas virtuales se vuelven huérfanas cuando se apagan.
- Las copias de seguridad basadas en instantáneas fallan.
- Se produce un error al crear o consolidar instantáneas en el sistema vCenter Server o host ESXi, similar al siguiente:
Se produjo un error de consolidación en el nodo de disco 'scsi0:1': 12 (No se puede asignar memoria).
En los archivos vmkwarning.*
, se muestran errores similares al siguiente:
vmkwarning.0:2020-06-16T13:28:23.291Z cpu48:3479102)WARNING: Heap: 3651: El heap vmfs3 ya está en su tamaño máximo. Cannot expand.
En los registros de vmkernel.*
, se muestran errores similares al siguiente:
2020-06-29T14:59:36.351Z cpu21:5630454)WARNING: HBX: 2439: No se pudo inicializar el bloqueo distribuido de VMFS en el volumen 5eb9e8f1-f4aeef84-4256-1c34da50d370: Out of memory
020-06-29T14:59:36.351Z cpu21:5630454)Vol3: 4202: No se pudo obtener el objeto 28 tipo 1 uuid 5eb9e8f1-f4aeef84-4256-1c34da50d370 FD 0 gen 0 :Sin memoria
2020-06-29T14:59:36.351Z cpu21:5630454)Vol3: 4202: No se pudo obtener el objeto 28 tipo 2 uuid 5eb9e8f1-f4aeef84-4256-1c34da50d370 FD 4 gen 1 :Sin memoria
2020-06-29T14:59:36.356Z cpu21:5630454)WARNING: HBX: 2439: No se pudo inicializar el bloqueo distribuido de VMFS en el volumen 5eb9e8f1-f4aeef84-4256-1c34da50d370: Out of memory
2020-06-29T14:59:36.356Z cpu21:5630454)Vol3: 4202: No se pudo obtener el objeto 28 tipo 1 uuid 5eb9e8f1-f4aeef84-4256-1c34da50d370 FD 0 gen 0 :Sin memoria
2020-06-29T14:59:36.356Z cpu21:5630454)Vol3: 4202: No se pudo obtener el objeto 28 tipo 2 uuid 5eb9e8f1-f4aeef84-4256-1c34da50d370 FD 4 gen 1 :Sin memoria
El problema está resuelto en esta versión.
- PR 2086530: Configurar el nivel de registro para el controlador nvme_pcie que tiene errores
Al configurar el nivel de registro para el controlador nvme_pcie driver con el comando configurar el controlador esxcli nvme -l <nivel de registro>
, la acción tiene un error con el siguiente mensaje:
Failed to set log level 0x2.
Este comando se retuvo para consideración de compatibilidad con el controlador NVMe, pero no es compatible con el controlador nvme_pcie.
El problema está resuelto en esta versión. Puede modificar el nivel de registro con el shell de información del sistema de VMkernel.
- PR 2226245: Cuando se copia un perfil de host de un host ESXi o se edita un perfil de host, se pierden los valores de entrada del usuario
Algunas claves de los perfiles de host se generan a partir del cálculo de hash, incluso cuando se proporcionan reglas explícitas para la generación de claves. Como resultado, cuando se copia la configuración de un host o se edita un perfil de host, se pierden los valores de entrada del usuario en el archivo de respuesta.
El problema está resuelto en esta versión.
- PR 2495261: Comprobar el estado de cumplimiento de un host de ESXi 7.0 en un perfil de host con la versión 6.5 o 6.7 genera un error para los dispositivos vmhba y vmrdma
Al comprobar el cumplimiento de un host de ESXi 7.0 que usa un controlador nmlx5_core
o nvme_pcie
contra un perfil de host con la versión 6.5 o 6.7, es posible que observe los siguientes errores, en los cuales address1
y address2
son específicos del sistema afectado.
- A vmhba device with bus type logical,
address1
is not present on your host.
-
A vmrdma device with bus type logical,
address2
is not present on your host.
El error se debe a que las direcciones de los dispositivos generadas por el controlador
nmlx5_core
o
nvme_pcie
en ESXi 7.0 y las versiones anteriores no coinciden.
El problema está resuelto en esta versión.
- PR 2156103: El conjunto de reglas de firewall dinámico de SNMP se modifica mediante perfiles de host durante un proceso de corrección
El conjunto de reglas de firewall de SNMP es un estado dinámico que se procesa durante el tiempo de ejecución. Cuando se aplica un perfil de host, los perfiles de host y SNMP administran la configuración del conjunto de reglas de forma simultánea, lo que puede modificar la configuración del firewall de forma inesperada.
El problema está resuelto en esta versión.
esx-update_7.0.1-0.0.16850804
Categoría de revisión |
General |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB I ncluido |
- VMware_bootbank_loadesx_7.0.1-0.0.16850804
- VMware_bootbank_esx-update_7.0.1-0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza los VIB loadesx
y esx-update
.
VMware-nvmxnet3-ens_2.0.0.22-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_nvmxnet3-ens_2.0.0.22-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB
nvmxnet3-ens
.
Mellanox-nmlx4_3.19.16.8-2vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_nmlx4-core_3.19.16.8-2vmw.701.0.0.16850804
- VMW_bootbank_nmlx4-rdma_3.19.16.8-2vmw.701.0.0.16850804
- VMW_bootbank_nmlx4-en_3.19.16.8-2vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza elVIB nmlx4-core
, nmlx4-rdma
y nmlx4
.
Broadcom-elxiscsi_12.0.1200.0-2vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_elxiscsi_12.0.1200.0-2vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza elVIB elxiscsi
.
Cisco-nfnic_4.0.0.44-2vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_nfnic_4.0.0.44-2vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza elVIB nfnic
.
MRVL-E3-Ethernet_1.1.0.11-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_qflge_1.1.0.11-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza elVIB qflge
.
VMware-icen_1.0.0.9-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_icen_1.0.0.9-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza elVIB icen
.
Intel-ne1000_0.8.4-11vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_ne1000_0.8.4-11vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza elVIB ne1000
.
Intel-Volume-Mgmt-Device_2.0.0.1055-5vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_iavmd_2.0.0.1055-5vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza elVIB iavmd
.
Broadcom-ELX-brcmnvmefc_12.6.278.10-3vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_brcmnvmefc_12.6.278.10-3vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza elVIB brcmnvmefc
.
Broadcom-ntg3_4.1.5.0-0vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_ntg3_4.1.5.0-0vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza elVIB ntg3
.
HPE-hpv2-hpsa-plugin_1.0.0-3vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_lsuv2-hpv2-hpsa-plugin_1.0.0-3vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza elVIB lsuv2-hpv2-hpsa-plugin
.
Broadcom-lsi-msgpt3_17.00.10.00-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_lsi-msgpt3_17.00.10.00-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza elVIB lsi-msgpt3
.
Intel-SCU-rste_2.0.2.0088-7vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_rste_2.0.2.0088-7vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB rste
.
Intel-ixgben_1.7.1.28-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_ixgben_1.7.1.28-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB ixgben
.
Intel-NVMe-Vol-Mgmt-Dev-Plugin_1.0.0-2vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_lsuv2-intelv2-nvme-vmd-plugin_1.0.0-2vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB lsuv2-intelv2-nvme-vmd-plugin
.
VMware-iser_1.1.0.1-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_iser_1.1.0.1-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB iser
.
Broadcom-lpnic_11.4.62.0-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_lpnic_11.4.62.0-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB lpnic
.
VMware-NVMe-PCIe_1.2.3.9-2vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_nvme-pcie_1.2.3.9-2vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB nvme-pcie
.
Microchip-smartpqi_70.4000.0.100-3vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_smartpqi_70.4000.0.100-3vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB smartpqi
.
VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_nvmerdma_1.0.1.2-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB nvmerdma
.
VMware-oem-lenovo-plugin_1.0.0-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_lsuv2-oem-lenovo-plugin_1.0.0-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB lsuv2-oem-lenovo-plugin
.
Intel-igbn_0.1.1.0-7vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_igbn_0.1.1.0-7vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB igbn
.
VMware-vmkata_0.1-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_vmkata_0.1-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB vmkata
.
VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB vmkfcoe
.
VMware-oem-hp-plugin_1.0.0-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_lsuv2-oem-hp-plugin_1.0.0-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB lsuv2-oem-hp-plugin
.
Cisco-nenic_1.0.29.0-2vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_nenic_1.0.29.0-2vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB nenic
.
Broadcom-ELX-brcmfcoe_12.0.1500.0-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_brcmfcoe_12.0.1500.0-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB brcmfcoe
.
HPE-nhpsa_70.0050.0.100-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_nhpsa_70.0050.0.100-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB nhpsa
.
Mellanox-nmlx5_4.19.16.8-2vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_nmlx5-rdma_4.19.16.8-2vmw.701.0.0.16850804
- VMW_bootbank_nmlx5-core_4.19.16.8-2vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza los VIB nmlx5-rdma
y nmlx5-core
.
Broadcom-ELX-IMA-plugin_12.0.1200.0-3vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_elx-esx-libelxima.so_12.0.1200.0-3vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB elx-esx-libelxima.so
.
Microchip-smartpqiv2-plugin_1.0.0-4vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_lsuv2-smartpqiv2-plugin_1.0.0-4vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB
lsuv2-smartpqiv2-plugin
.
VMware-nvme-pcie-plugin_1.0.0-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_lsuv2-nvme-pcie-plugin_1.0.0-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB lsuv2-nvme-pcie-plugin
.
MRVL-E4-CNA-Driver-Bundle_1.0.0.0-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_qedentv_3.40.3.0-12vmw.701.0.0.16850804
- VMW_bootbank_qedrntv_3.40.4.0-12vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB
qedentv
.
VMware-oem-dell-plugin_1.0.0-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_lsuv2-oem-dell-plugin_1.0.0-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB lsuv2-oem-dell-plugin
.
VMware-nvmxnet3_2.0.0.30-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_nvmxnet3_2.0.0.30-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB nvmxnet3
.
VMware-ahci_2.0.5-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_vmw-ahci_2.0.5-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB vmw-ahci
.
Intel-i40iwn_1.1.2.6-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_i40iwn_1.1.2.6-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB i40iwn
.
Broadcom-bnxt-Net-RoCE_216.0.0.0-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_bnxtnet_216.0.50.0-16vmw.701.0.0.16850804
- VMW_bootbank_bnxtroce_216.0.58.0-7vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza los VIB bnxtnet
y bnxtroce
.
Broadcom-lsiv2-drivers-plugin_1.0.0-4vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_lsuv2-lsiv2-drivers-plugin_1.0.0-4vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB lsuv2-lsiv2-drivers-plugin
.
Micron-mtip32xx-native_3.9.8-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_mtip32xx-native_3.9.8-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB mtip32xx-native
.
VMware-nvme-plugin_1.2.0.38-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
No |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.38-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB vmware-esx-esxcli-nvme-plugin
.
MRVL-QLogic-FC_4.0.3.0-17vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_bootbank_qlnativefc_4.0.3.0-17vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB qlnativefc
.
VMware-vmkusb_0.1-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_vmkusb_0.1-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB vmkusb
.
VMware-VM-Tools_11.1.1.16303738-16850804
Categoría de revisión |
General |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
No |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMware_locker_tools-light_11.1.1.16303738-16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB tools-light
.
Solarflare-NIC_2.4.0.0010-15vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
No |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_sfvmk_2.4.0.0010-15vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB sfvmk
.
Intel-i40en_1.8.1.123-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_i40en_1.8.1.123-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB i40en
.
Broadcom-ELX-lpfc_12.6.278.10-8vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_lpfc_12.6.278.10-8vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB lpfc
.
MRVL-E3-Ethernet-iSCSI-FCoE_1.0.0.0-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_qcnic_1.0.15.0-10vmw.701.0.0.16850804
- VMW_bootbank_qfle3f_1.0.51.0-14vmw.701.0.0.16850804
- VMW_bootbank_qfle3i_1.0.15.0-9vmw.701.0.0.16850804
- VMW_bootbank_qfle3_1.0.67.0-9vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza los VIB qcnic
, qfle3f
, qfle3i
y qfle3
.
Broadcom-lsi-msgpt35_13.00.13.00-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_lsi-msgpt35_13.00.13.00-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB lsi-msgpt35
.
VMware-pvscsi_0.1-2vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_pvscsi_0.1-2vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB pvscsi
.
Broadcom-lsi-msgpt2_20.00.06.00-2vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_lsi-msgpt2_20.00.06.00-2vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB lsi-msgpt2
.
Broadcom-elxnet_12.0.1250.0-5vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_elxnet_12.0.1250.0-5vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB elxnet
.
Broadcom-lsi-mr3_7.712.51.00-1vmw.701.0.0.16850804
Categoría de revisión |
Mejora |
Gravedad de la revisión |
Importante |
Reinicio de host requerido |
Sí |
Migración de máquina virtual o apagado requeridos |
Sí |
Hardware afectado |
N/C |
Software afectado |
N/C |
VIB que se incluyen |
- VMW_bootbank_lsi-mr3_7.712.51.00-1vmw.701.0.0.16850804
|
PR corregidas |
N/C |
Números CVE |
N/C |
Actualiza el VIB lsi-mr3
.
Problemas conocidos
Los problemas conocidos se agrupan del siguiente modo:
Problemas de instalación, actualización y migración
- NUEVO: Si un sistema vCenter Server es de la versión 7.0, se producirá un error en las actualizaciones de hosts ESXi a una versión posterior mediante vSphere Lifecycle Manager y una imagen ISO
Si utiliza una imagen ISO para actualizar los hosts ESXi a una versión posterior a la 7.0 mediante vSphere Lifecycle Manager, y el sistema vCenter Server sigue teniendo la versión 7.0, se produce un error en la actualización. En vSphere Client, se muestra un error No se admite la actualización para el host
.
Solución alternativa: Primero actualice el sistema vCenter Server a la versión 7.0.x a la que tiene pensado actualizar los hosts ESXi y, a continuación, vuelva a intentar la actualización de los hosts mediante vSphere Update Manager y una imagen ISO. También puede utilizar otra ruta de acceso de actualización, como una actualización interactiva desde un CD, DVD o USB, una actualización por script o ESXCLI, en lugar de vSphere Lifecycle Manager y una imagen ISO.
- Se puede producir un error en la instalación de los controladores de 7.0 Update 1 en los hosts de ESXi 7.0
No se pueden instalar controladores aplicables a ESXi 7.0 Update 1 en hosts que ejecutan ESXi 7.0 o 7.0b.
Se produce un error en la operación, como:
VMW_bootbank_qedrntv_3.40.4.0-12vmw.701.0.0.xxxxxxx requiere vmkapi_2_7_0_0, pero no se puede cumplir el requisito dentro de ImageProfile.
Consulte el archivo de registro para obtener más detalles.
Solución alternativa: Actualice el host ESXi a 7.0 Update 1. Vuelva a intentar la instalación del controlador.
Problemas de redes
- Uno o más dispositivos de I/O no generan interrupciones cuando el IOMMU de AMD está en uso
Si los dispositivos de I/O en el host ESXi ofrecen más de un total de 512 orígenes de interrupción diferentes, a algunos orígenes se les asigna de forma errónea un índice de entradas de tabla de reasignación de interrupción (IRTE) en la IOMMU de AMD que es mayor que el valor máximo. Se pierden las interrupciones de este tipo de origen, por lo que el dispositivo de I/O correspondiente se comporta como si se deshabilitan las interrupciones.
Solución alternativa: Use el comando ESXCLI esxcli system settings kernel set -s iovDisableIR -v true
para deshabilitar el reasignador de interrupciones de AMD IOMMU. Reinicie el host ESXi para que el comando tenga efecto.
Problemas varios
- Si ejecuta el comando ESXCLI para descargar el módulo de firewall, se produce un error en el servicio hostd y los hosts de ESXi pierden conectividad
Si automatiza la configuración del firewall en un entorno que incluya varios hosts ESXi y ejecuta el comando de ESXCLI esxcli network firewall unload
que destruye los filtros y descarga el módulo de firewall, se produce un error en el servicio hostd y los hosts ESXi pierden conectividad.
Solución alternativa: No se recomienda descargar el módulo de firewall en ningún momento. Si debe descargar el módulo de firewall, siga los siguientes pasos:
- Detenga el servicio hostd con este comando:
/etc/init.d/hostd stop.
- Descargue el módulo de firewall con este comando:
esxcli network firewall unload.
- Realice las operaciones necesarias.
- Cargue el módulo de firewall con este comando:
esxcli network firewall load.
- Inicie el servicio hostd con este comando:
/etc/init.d/hostd start.
- Es posible que se produzcan errores en las operaciones de vSphere Storage vMotion en un entorno de vSAN debido a una sesión sin autenticar del administrador de copia de archivos de red (NFC)
Es posible que se produzcan errores en las migraciones a un almacén de datos de vSAN mediante vSphere Storage vMotion de máquinas virtuales que tengan al menos una instantánea y más de un disco virtual con una directiva de almacenamiento diferente. El problema se produce debido a una sesión sin autenticar del administrador de NFC porque el cuerpo del Protocolo simple de acceso a objeto (SOAP) supera el tamaño permitido.
Solución alternativa: Primero, migre el espacio de nombres del directorio principal de la máquina virtual y solo uno de los discos virtuales. Una vez que se complete la operación, realice una migración solo de disco de los dos discos restantes.
- Es posible que los cambios en las propiedades y los atributos de los dispositivos y el almacenamiento de un host ESXi no persistan después de un reinicio
Si se agota el tiempo de espera de la rutina de detección de dispositivos durante un reinicio del host ESXi, es posible que el complemento de activación no reciba todos los cambios de configuración de los dispositivos y el almacenamiento de todos los dispositivos registrados en el host. Como resultado, es posible que después del reinicio, el proceso restaure las propiedades de algunos dispositivos o almacenamiento a los valores predeterminados.
Solución alternativa: Restaure manualmente los cambios en las propiedades del dispositivo o almacenamiento afectados.
- Si utiliza una compilación beta de ESXi 7.0, se puede producir un error en los hosts de ESXi con una pantalla de diagnóstico de color morado durante algunas operaciones de ciclo de vida
Si utiliza una compilación beta de ESXi 7,0, se puede producir un error en los hosts de ESXi con una pantalla de diagnóstico de color morado durante algunas operaciones de ciclo de vida, como descargar un controlador o cambiar entre el modo ENS y el modo de controlador nativo. Por ejemplo, si intenta cambiar el modo ENS, en el seguimiento inverso verá un mensaje de error similar a: Pantalla azul case ENS::INTERRUPT::NoVM_DeviceStateWithGracefulRemove: ASSERT bora/vmkernel/main/dlmalloc.c:2733
Este problema es específico para las compilaciones beta y no afecta a las compilaciones de versiones como ESXi 7.0.
Solución alternativa: Actualizar a ESXi 7.0 GA.
Problemas de almacenamiento
- Un almacén de datos de VMFS respaldado por un espacio de nombres o dispositivo de NVMe por Fabrics, puede quedar inaccesible de forma permanente tras recuperarse de un error de APD o PDL
Si un almacén de datos de VMFS en un host ESXi está respaldado por un espacio de nombres o un dispositivo de NVMe por Fabrics, en caso de que se produzca un error en todas las rutas de acceso (APD) o en un error de pérdida permanente de un dispositivo (PDL), es posible que no se pueda acceder al almacén de datos incluso después de la recuperación. No se puede acceder al almacén de datos desde el host ESXi o el sistema de vCenter Server.
Solución alternativa: Para recuperarse de este estado, vuelva a realizar un examen en el nivel de host o de clúster. Para obtener más información, consulte Realizar un nuevo examen de almacenamiento.
Problemas en la administración de máquinas virtuales
- Las máquinas virtuales con virtualización cifrada segura de AMD: estado cifrado (SEV-ES) habilitado no pueden crear conectores de la interfaz de comunicación de máquinas virtuales (VMCI)
El rendimiento y la funcionalidad de las funciones que requiere VMCI pueden verse afectados en las máquinas virtuales con AMD SEV-ES habilitado, ya que tales máquinas virtuales no pueden crear sockets VMCI.
Solución alternativa: Ninguna.
- Error de smpboot en máquinas virtuales Linux con SEV-ES habilitado
Cuando una máquina virtual Linux con varias CPU virtuales y SEV-ES habilitado arranca, todas las CPU excepto CPU0 están sin conexión. No es posible volver a conectar las CPU restantes. El comando dmesg devuelve un error como el siguiente: smpboot: do_boot_cpu failed(-1) to wakeup CPU#1
.
Solución alternativa: Ninguna
Problemas de Auto Deploy
- No puede hacer un arranque PXE de un host ESXi con vSphere Auto Deploy debido a un error de red
Para los hosts de ESXi con adaptadores de bus de host (HBA) Emulex y QLogic, se puede producir un error en los intentos de realizar un arranque PXE del host mediante el uso de vSphere Auto Deploy debido a un error de red. En algunos adaptadores Emulex, en la consola de arranque PXE se muestra un mensaje como:
No se pudo abrir net0: Error de entrada/salida http://ipxe.org/1d6a4a98'
Se produjo un error de red durante el arranque PXE.
Analizando el disco local en busca de la imagen en caché.
Si no encuentra la imagen, el sistema se reiniciará en 20 segundos...
No se pudo reiniciar. No existe tal dispositivo (http://ipxe.org/2c048087)
Los adaptadores de HBA de Emulex que persistentemente tienen este problema son:
- Adaptador de red convergente HPE StoreFabric CN1200E-T de 10 Gb
- Adaptador de red convergente HPE StoreFabric CN1200E de 10 Gb
- Adaptador 650FLB de 2 puertos HP FlexFabric de 20 Gb
- Adaptador 650M de 2 puertos HP FlexFabric de 20 Gb
Para los hosts de ESXi con HBA de QLogic, los intentos de realizar un arranque PXE del host con vSphere Auto Deploy no siempre tienen errores.
Si el host de ESX encuentra el problema, en la consola de arranque PXE verá un mensaje como:
Configurando (net0 f4:03:43:b4:88:d0)......
No se completó ningún método de configuración (http://ipxe.org/040ee186)
Se produjo un error de red durante el arranque PXE.
El adaptador Qlogic HBA afectado es 530T de 2 puertos HP Ethernet de 10 Gb.
Solución alternativa: Ninguna
Problemas conocidos de versiones anteriores
Para ver una lista de los problemas conocidos anteriores, haga clic aquí.
Los problemas conocidos anteriores se agrupan del siguiente modo.
Problemas de instalación, actualización y migración
- Se produce un error en las comprobaciones previas a la actualización o la migración de vCenter con el mensaje "Unexpected error 87"
Se produce un error en las comprobaciones previas a la actualización o la migración de vCenter Server cuando el certificado del servicio de token de seguridad (Security Token Service, STS) no contiene un campo de nombre alternativo del firmante (Subject Alternative Name, SAN). Esta situación se produce cuando se reemplaza el certificado de Single Sign-On para vCenter 5.5 por un certificado personalizado que no tiene un campo de SAN y se intenta actualizar a vCenter Server 7.0. La actualización considera que el certificado de STS no es válido y las comprobaciones previas evitan que continúe el proceso de actualización.
Solución alternativa: Reemplace el certificado de STS por un certificado válido que contenga un campo de SAN y, a continuación, continúe con la actualización o la migración a vCenter Server 7.0.
- Problemas de actualización a vSphere 7.0 con proveedores de CIM preexistentes
Después de la actualización, los proveedores de CIM de 32 bits instalados anteriormente dejan de funcionar debido a que ESXi requiere proveedores de CIM de 64 bits. Los clientes pueden perder las funciones de la API de administración relacionadas con CIMPDK, DDK nativo (Native DDK, NDDK), HEXDK y VAIODK (filtros de E/S), y ver errores relacionados con la dependencia uwglibc.
El servidor syslog informa de la ausencia de un módulo: "No se cargaron las bibliotecas compartidas de 32 bits".
Solución alternativa: No existe una solución alternativa. La solución es descargar los nuevos proveedores de CIM de 64 bits del proveedor.
- Es posible que la autenticación de tarjeta inteligente y de RSA SecurID deje de funcionar después de actualizar a vCenter Server 7.0
Si configuró vCenter Server para la autenticación de tarjeta inteligente o de RSA SecurID, consulte el artículo de la base de conocimientos de VMware en https://kb.vmware.com/s/article/78057 antes de iniciar el proceso de actualización de vSphere 7.0. Si no implementa la solución alternativa como se describe en la base de conocimientos, es posible que vea los siguientes mensajes de error y que la autenticación de RSA SecurID o de tarjeta inteligente no funcione.
"Smart card authentication may stop working. Smart card settings may not be preserved, and smart card authentication may stop working."
o
"RSA SecurID authentication may stop working. RSA SecurID settings may not be preserved, and RSA SecurID authentication may stop working."
Solución alternativa: Antes de actualizar a vSphere 7.0, consulte el artículo de la base de conocimientos de VMware en https://kb.vmware.com/s/article/78057.
- Se produce un error de VMAFD al actualizar una implementación de vCenter Server con una instancia externa de Platform Services Controller de 6.7 U3 a 7.0
Cuando se actualiza una implementación de vCenter Server mediante una instancia externa de Platform Services Controller, la instancia de Platform Services Controller converge en un dispositivo de vCenter Server Appliance. Si durante la actualización aparece el error install.vmafd.vmdir_vdcpromo_error_21
, se produjo un error en el proceso de primer arranque de VMAFD. El proceso de primer arranque de VMAFD copia la instancia de VMware Directory Service Database (data.mdb) desde la instancia de origen de Platform Services Controller y el dispositivo de vCenter Server Appliance del socio de replicación.
Solución alternativa: Deshabilite la descarga de segmentación de TCP (TCP Segmentation Offload, TSO) y la descarga de segmentación genérica (Generic Segmentation Offload, GSO) en el adaptador Ethernet de la instancia de origen de Platform Services Controller o el dispositivo de vCenter Server Appliance del socio de replicación antes de actualizar una implementación de vCenter Server con una instancia externa de Platform Services Controller. Consulte el artículo de la base de conocimientos: https://kb.vmware.com/s/article/74678
- La actualización de vCenter Server mediante la CLI conserva de forma incorrecta la configuración de la capa de seguridad de transporte (Transport Security Layer, TLS) para el servicio vSphere Authentication Proxy
Si el servicio vSphere Authentication Proxy (vmcam
) se configuró para utilizar un protocolo TLS específico que no es el protocolo TLS 1.2 predeterminado, esta configuración se conserva durante el proceso de actualización de la CLI. De forma predeterminada, vSphere es compatible con el protocolo de cifrado TLS 1.2. Si debe utilizar los protocolos TLS 1.0 y TLS 1.1 para admitir productos o servicios que no son compatibles con TLS 1.2, use la utilidad de configuración de TLS para habilitar o deshabilitar diferentes versiones del protocolo TLS.
Solución alternativa: Use la utilidad de configuración de TLS para configurar el puerto vmcam
. Para obtener información sobre cómo administrar la configuración del protocolo TLS y utilizar la utilidad de configuración de TLS, consulte la documentación de seguridad de VMware.
- Es posible que no se conserve la configuración de la tarjeta inteligente y RSA SecurID durante la actualización de vCenter Server
La autenticación con RSA SecurID no funcionará después de actualizar a vCenter Server 7.0. Se mostrará un mensaje de error para notificar este problema cuando se intente iniciar sesión mediante RSA SecurID.
Solución alternativa: Vuelva a configurar la tarjeta inteligente o RSA SecureID.
- Se produce un error en la migración de vCenter Server para Windows a vCenter Server Appliance 7.0 con un mensaje de error de red
Se produce un error en la migración de vCenter Server para Windows a vCenter Server Appliance 7.0 y aparece el mensaje La IP ya existe en la red
. Esto evita que el proceso de migración configure los parámetros de red en el nuevo dispositivo de vCenter Server Appliance. Para obtener más información, examine el archivo de registro: /var/log/vmware/upgrade/UpgradeRunner.log
Solución alternativa:
- Compruebe que se hayan completado todas las actualizaciones de Windows en la instancia de origen de vCenter Server para Windows, o deshabilite las actualizaciones automáticas de Windows hasta que se complete la migración.
- Vuelva a intentar la migración de vCenter Server para Windows a vCenter Server Appliance 7.0.
- Cuando se configura el número de funciones virtuales para un dispositivo de SR-IOV mediante el parámetro de módulo max_vfs, es posible que no se apliquen los cambios
En vSphere 7.0, es posible configurar el número de funciones virtuales para un dispositivo de SR-IOV mediante la API de administración de infraestructuras virtuales (Virtual Infrastructure Management, VIM), por ejemplo, a través de vSphere Client. La tarea no requiere el reinicio del host ESXi. Después de usar la configuración de la API de VIM, si se intenta configurar el número de funciones virtuales de SR-IOV mediante el parámetro de módulo max_vfs
, es posible que no se apliquen los cambios debido a que la configuración de la API de VIM los reemplaza.
Solución alternativa: Ninguna. Si desea configurar el número de funciones virtuales para un dispositivo de SR-IOV, utilice siempre el mismo método. Utilice la API de VIM o el parámetro de módulo max_vfs
y reinicie el host ESXi.
- La instancia actualizada de vCenter Server Appliance no conserva todas las redes secundarias (NIC) de la instancia de origen
Durante una actualización importante, si la instancia de origen de vCenter Server Appliance se configura con varias redes secundarias que no son NIC de VCHA, la instancia de destino de vCenter Server no conservará las redes secundarias que no sean NIC de VCHA. Si la instancia de origen se configura con varias NIC que forman parte de grupos de puertos DVS, no se conservará la configuración de las NIC durante la actualización. Se conservarán las configuraciones de las instancias de vCenter Server Appliance que forman parte del grupo de puertos estándar.
Solución alternativa: Ninguna. Configure manualmente la red secundaria en la instancia de destino de vCenter Server Appliance.
- Después de actualizar o migrar una instancia de vCenter Server con una instancia externa de Platform Services Controller, los usuarios que se autentican con Active Directory pierden el acceso a la instancia de vCenter Server recientemente actualizada
Después de actualizar o migrar una instancia de vCenter Server con una instancia externa de Platform Services Controller, si la instancia de vCenter Server recientemente actualizada no se une a un dominio de Active Directory, los usuarios que se autentiquen con Active Directory perderán el acceso a la instancia de vCenter Server.
Solución alternativa: Compruebe que la nueva instancia de vCenter Server se unió a un dominio de Active Directory. Consulte el artículo de la base de conocimientos: https://kb.vmware.com/s/article/2118543
- Se produce un error al migrar una instancia de vCenter Server para Windows con una instancia externa de Platform Services Controller mediante una base de datos de Oracle
Si existen cadenas que no son ASCII en la tabla de eventos y tareas de Oracle, se puede producir un error en la migración al exportar los datos de eventos y tareas. Se proporciona el siguiente mensaje de error: UnicodeDecodeError
Solución alternativa: Ninguna.
- Tras actualizar un host ESXi, una comprobación de cumplimiento del perfil de host muestra el estado no conforme cuando se produce un error en las tareas de corrección del host
El estado no conforme indica una incoherencia entre el perfil y el host.
Esta incoherencia puede producirse debido a que ESXi 7.0 no permite reglas de notificación duplicadas, pero el perfil que usted utiliza las contiene. Por ejemplo, es posible que experimente problemas si intenta utilizar el perfil de host que extrajo del host antes de actualizar ESXi 6.5 o 6.7 a la versión 7.0, y dicho perfil de host contiene reglas de notificación que son duplicados de las reglas predeterminadas del sistema.
Solución alternativa:
- Elimine del documento del perfil de host todas las reglas de notificación que sean duplicados de las reglas predeterminadas del sistema.
- Compruebe el estado de cumplimiento.
- Corrija el host.
- Si los pasos anteriores no resuelven el problema, reinicie el host.
- Aparece un mensaje de error en la interfaz de administración de vCenter Server
Tras instalar vCenter Server 7.0 o realizar la actualización a esta versión, al desplazarse hasta el panel Actualizar en la interfaz de administración de vCenter Server, aparece el mensaje de error "Compruebe la URL e inténtelo de nuevo". El mensaje de error no le impide usar las funciones del panel Actualizar, y puede ver e instalar las actualizaciones disponibles, así como realizar copias intermedias de ellas.
Solución alternativa: Ninguna.
Problemas con funciones de seguridad
- La máquina virtual cifrada no se enciende cuando el clúster de confianza habilitado para HA contiene un host no atestado
En VMware® vSphere Trust Authority™, si se habilitó HA en el clúster de confianza y uno o varios hosts del clúster generan errores de atestación, no se puede encender una máquina virtual cifrada.
Solución alternativa: Elimine del clúster de confianza todos los hosts en los que se produjo un error de atestación o corríjalos.
- La máquina virtual cifrada no se enciende cuando el clúster de confianza habilitado para DRS contiene un host no atestado
En VMware® vSphere Trust Authority™, si se habilitó DRS en el clúster de confianza y uno o varios hosts del clúster generan errores de atestación, DRS podría intentar encender una máquina virtual cifrada en un host no atestado del clúster. Esta operación coloca la máquina virtual en un estado bloqueado.
Solución alternativa: Elimine del clúster de confianza todos los hosts en los que se produjo un error de atestación o corríjalos.
- Se produce un error en la migración o la clonación de máquinas virtuales cifradas en todas las instancias de vCenter Server cuando se intenta hacerlo mediante vSphere Client
Si se intenta migrar o clonar una máquina virtual cifrada en todas las instancias de vCenter Server mediante vSphere Client, se produce un error en la operación con el siguiente mensaje: "The operation is not allowed in the current state."
Solución alternativa: Se deben usar las API de vSphere para migrar o clonar máquinas virtuales cifradas en las instancias de vCenter Server.
Problemas de redes
- Rendimiento reducido de redes en las NIC 82599/X540/X550 de Intel
La nueva función de par de cola que se agrega al controlador ixgben para mejorar el rendimiento de las redes en las NIC serie 82599EB/X540/X550 de Intel puede reducir la capacidad de proceso con algunas cargas de trabajo en vSphere 7.0 en comparación con vSphere 6.7.
Solución alternativa: Para lograr el mismo rendimiento de red que vSphere 6.7, puede deshabilitar el par de cola con un parámetro de módulo. Para deshabilitar el par de cola, ejecute el siguiente comando:
# esxcli system module parameters set -p "QPair=0,0,0,0..." -m ixgben
Después de ejecutar el comando, reinicie.
- Las máquinas virtuales de alto rendimiento pueden experimentar un deterioro del rendimiento de red cuando se habilita Network I/O Control (NetIOC)
Las máquinas virtuales que requieren un alto rendimiento de red pueden experimentar un deterioro del rendimiento al actualizar vSphere 6.7 a vSphere 7.0 con NetIOC habilitado.
Solución alternativa: Configure el ajuste ethernetx.ctxPerDev
para habilitar varios ámbitos.
- El tráfico IPv6 no puede pasar por los puertos de VMkernel mediante IPsec
Cuando se migran puertos de VMkernel de un grupo de puertos a otro, el tráfico IPv6 no pasa a través de los puertos de VMkernel mediante IPsec.
Solución alternativa: Elimine la asociación de seguridad (Security Association, SA) de IPsec del servidor afectado y, a continuación, vuelva a aplicar la SA. Para obtener información sobre cómo establecer y eliminar una asociación de seguridad de IPsec, consulte la documentación Seguridad de vSphere.
- Mayor rendimiento de red de ESX con un aumento en la porción de uso de CPU
El rendimiento de red de ESX puede aumentar con una porción del uso de CPU.
Solución alternativa: Elimine y agregue la interfaz de red con solo 1 cola de envío de rx. Por ejemplo:
esxcli network ip interface remove --interface-name=vmk1
esxcli network ip interface add --interface-name=vmk1 --num-rxqueue=1
- Es posible que la máquina virtual pierda tráfico Ethernet después de una operación de adición en caliente, eliminación en caliente o Storage vMotion
Una máquina virtual puede dejar de recibir tráfico Ethernet después de una operación de adición en caliente, eliminación en caliente o Storage vMotion. Este problema afecta a las máquinas virtuales en las que el vínculo superior de la VNIC tiene SR-IOV habilitado. La NIC virtual de PVRDMA exhibe este problema cuando el vínculo superior de la red virtual es una NIC con capacidad RDMA de Mellanox y se configuran espacios de nombres de RDMA.
Solución alternativa: Puede eliminar en caliente las NIC de Ethernet afectadas de la máquina virtual y agregarlas en caliente para restaurar el tráfico. En los sistemas operativos invitados Linux, el reinicio de la red también puede resolver el problema. Si estas soluciones alternativas no surten efecto, puede reiniciar la máquina virtual para restaurar la conectividad de red.
- El cambio de la dirección IP de una instancia de VCSA implementada con una dirección IP estática requiere que se creen los registros de DNS por adelantado
Con la introducción de DDNS, la actualización de registros de DNS solo funciona para las instancias de VCSA implementadas con redes configuradas por DHCP. Al cambiar la dirección IP de vCenter Server a través de VAMI, se muestra el siguiente error:
La dirección IP especificada no se resuelve en el nombre de host especificado.
Solución alternativa: Existen dos soluciones alternativas posibles.
- Cree una entrada de DNS adicional con el mismo FQDN y la dirección IP deseada. Inicie sesión en VAMI y siga los pasos para cambiar la dirección IP.
- Inicie sesión en VCSA mediante SSH. Ejecute el siguiente script:
./opt/vmware/share/vami/vami_config_net
Utilice la opción 6 para cambiar la dirección IP de eth0. Una vez cambiada la dirección, ejecute el siguiente script:
./opt/likewise/bin/lw-update-dns
Reinicie todos los servicios de VCSA para actualizar la información de IP en el servidor DNS.
- La eliminación del grupo de puertos virtuales distribuidos de NSX (NSX Distributed Virtual Port Group, NSX DVPG) puede demorar varios segundos después de que se elimina el conmutador lógico correspondiente en NSX Manager.
Si el número de conmutadores lógicos aumenta, es posible que la eliminación del NSX DVPG en vCenter Server demore más tiempo después de la eliminación del conmutador lógico correspondiente en NSX Manager. En un entorno con 12.000 conmutadores lógicos, se requieren aproximadamente 10 segundos para eliminar un DVPG NSX de vCenter Server.
Solución alternativa: Ninguna.
- Si se crea una gran cantidad de grupos de puertos virtuales distribuidos de NSX, hostd se queda sin memoria y genera un error
En vSphere 7.0, los grupos de puertos virtuales distribuidos de NSX consumen una cantidad de memoria significativamente mayor que las redes opacas. Por esta razón, los grupos de puertos virtuales distribuidos de NSX no pueden admitir la misma escala que una red opaca con la misma cantidad de memoria.
Solución alternativa: Para admitir el uso de grupos de puertos virtuales distribuidos de NSX, aumente la cantidad de memoria en los hosts ESXi. Si comprueba que el sistema tiene suficiente memoria para admitir las máquinas virtuales, puede aumentar directamente la memoria de hostd
mediante el siguiente comando.
localcli --plugin-dir /usr/lib/vmware/esxcli/int/ sched group setmemconfig --group-path host/vim/vmvisor/hostd --units mb --min 2048 --max 2048
Tenga en cuenta que esto hará que hostd
use memoria que normalmente está reservada para las máquinas virtuales del entorno. Esto puede reducir el número de máquinas virtuales que el host ESXi puede admitir.
- DRS puede iniciar vMotion de forma incorrecta si la reserva de red está configurada en una máquina virtual
Si la reserva de red está configurada en una máquina virtual, se espera que DRS solo migre la máquina virtual a un host que cumpla con los requisitos especificados. En un clúster con nodos de transporte de NSX, si algunos de los nodos de transporte se unen a la zona de transporte mediante NSX-T Virtual Distributed Switch (N-VDS) y otros mediante vSphere Distributed Switch (VDS) 7.0, DRS puede iniciar vMotion de forma incorrecta. Es posible que se produzca este problema cuando ocurre lo siguiente:
- La máquina virtual se conecta a un conmutador lógico de NSX configurado con una reserva de red.
- Algunos nodos de transporte se unen a la zona de transporte mediante N-VDS y otros mediante VDS 7.0, o bien los nodos de transporte se unen a la zona de transporte a través de diferentes instancias de VDS 7.0.
Solución alternativa: Haga que todos los nodos de transporte se unan a la zona de transporte mediante N-VDS o la misma instancia de VDS 7.0.
- Al agregar una NIC de VMkernel (vmknic) a un grupo de puertos de NSX, vCenter Server muestra el error "Conectar el adaptador de VMKernel a un grupo de puertos de NSX en un host sin estado no es una operación admitida. En su lugar, utilice el grupo de puertos distribuidos".
- Para una instancia de ESXi sin estado en un conmutador distribuido virtual (Distributed Virtual Switch, DVS), la vmknic en un grupo de puertos de NSX está bloqueada. En su lugar, debe utilizar un grupo de puertos distribuidos.
- Para una instancia de ESXi con estado en un DVS, a pesar de que se admiten las vmknic en un grupo de puertos de NSX, vSAN puede presentar problemas si las emplea.
Solución alternativa: Utilice un grupo de puertos distribuidos en el mismo DVS.
- Se puede producir un error al habilitar SR-IOV desde vCenter para QLogic 4x10GE QL41164HFCU CNA
Si se desplaza hasta el cuadro de diálogo Editar configuración de los adaptadores de red física e intenta habilitar SR-IOV, puede que se produzca un error en la operación cuando se utilice QLogic 4x10GE QL41164HFCU CNA. Si se intenta habilitar SR-IOV, se puede producir una interrupción de la red del host ESXi.
Solución alternativa: Utilice el siguiente comando en el host ESXi para habilitar SR-IOV:
esxcfg-module
- Nuevo Se produce un error en vCenter Server si los hosts de un clúster que utiliza Distributed Resource Scheduler (DRS) se unen a las redes de NSX-T mediante un conmutador virtual distribuido (Virtual Distributed Switch, VDS) diferente, o bien mediante una combinación de NSX-T Virtual Distributed Switch (NVDS) y el VDS
En vSphere 7.0, cuando se utilizan redes de NSX-T en un VDS de vSphere con un clúster de DRS, se puede producir un error en vCenter Server si los hosts no se unen a la zona de transporte de NSX mediante las mismas instancias de VDS o NVDS.
Solución alternativa: Haga que los hosts de un clúster de DRS se unan a la zona de transporte de NSX mediante las mismas instancias de VDS o NVDS.
Problemas de almacenamiento
- Los almacenes de datos de VMFS no se montan automáticamente después de la eliminación en caliente y la inserción en caliente de un disco en servidores HPE Gen10 con controladoras SmartPQI
En ocasiones, cuando se eliminan en caliente discos SATA en servidores HPE Gen10 con controladoras SmartPQI sin ampliadores y se insertan en caliente en una bahía de disco diferente del mismo equipo, o cuando se eliminan en caliente varios discos y se insertan en caliente en un orden diferente, se asigna un nuevo nombre local a los discos. El almacén de datos de VMFS en ese disco se muestra como una instantánea y no se vuelve a montar automáticamente debido a que el nombre del dispositivo se modificó.
Solución alternativa: Ninguna. La controladora SmartPQI no admite operaciones desordenadas de eliminación en caliente e inserción en caliente.
- Es posible que ESXi finalice las operaciones de E/S en los dispositivos NVMeOF debido a errores en todas las rutas de acceso activas
En ocasiones, todas las rutas de acceso activas a dispositivos NVMeOF registran errores de E/S debido a problemas de vínculo o al estado de las controladoras. Si el estado de una de las rutas de acceso cambia a inactivo, es posible que el complemento de alto rendimiento (High-Performance Plug-in, HPP) no seleccione otra ruta de acceso si esta muestra un gran volumen de errores. Como resultado, se produce un error en la operación de E/S.
Solución alternativa: Deshabilite la opción de configuración /Misc/HppManageDegradedPaths para desbloquear las operaciones de E/S.
- Se produce un error en la comprobación de VOMA sobre los almacenes de datos VMFS basados en NVMe
La comprobación de VOMA no es compatible con los almacenes de datos de VMFS basados en NVMe y generará el siguiente error:
ERROR: Failed to reserve device. Function not implemented
Ejemplo:
# voma -m vmfs -f check -d /vmfs/devices/disks/: <partition#>
Running VMFS Checker version 2.1 in check mode
Initializing LVM metadata, Basic Checks will be done
Checking for filesystem activity
Performing filesystem liveness check..|Scanning for VMFS-6 host activity (4096 bytes/HB, 1024 HBs).
ERROR: Failed to reserve device. Function not implemented
Aborting VMFS volume check
VOMA failed to check device : General Error
Solución alternativa: Ninguna. Si necesita analizar metadatos de VMFS, puede recopilarlos con la opción -l
y recurrir al soporte al cliente de VMware. El comando para recopilar el volcado es el siguiente:
voma -l -f dump -d /vmfs/devices/disks/:<partition#>
- El uso de la API de reconfiguración de máquinas virtuales para asociar un disco de primera clase cifrado a una máquina virtual cifrada puede generar un error
Si un FCD y una máquina virtual se cifran con diferentes claves de cifrado, los intentos por asociar el FCD cifrado a la máquina virtual cifrada mediante VM reconfigure API
pueden generar un error y mostrar el siguiente mensaje:
No se puede descifrar el disco porque la clave o la contraseña son incorrectas.
Solución alternativa: Utilice attachDisk API
en lugar de VM reconfigure API
para asociar un FCD cifrado a una máquina virtual cifrada.
- El host ESXi puede obtener un estado sin respuesta si una extensión no principal de su almacén de datos de VMFS distribuido entra en el estado de pérdida de dispositivo permanente (Permanent Device Loss, PDL)
Este problema no se presenta cuando una extensión no principal del almacén de datos de VMFS distribuido genera un error junto con la extensión principal. En este caso, no se puede acceder a ninguna porción del almacén de datos y ya no se permiten las operaciones de E/S.
En cambio, cuando solo una extensión no principal genera un error, pero se sigue teniendo acceso a la extensión principal, el latido del almacén de datos parece normal, y las operaciones de E/S entre el host y el almacén de datos prosiguen. Sin embargo, también comienzan a generar errores las operaciones de E/S que dependen de la extensión no principal con el error. Es posible que se acumulen otras transacciones de E/S mientras se espera que se resuelva el error de E/S y que el host entre en un estado sin respuesta.
Solución alternativa: Solucione la condición de PDL de la extensión no principal para resolver este problema.
- Una vez resueltas las condiciones de APD o PDL, es posible que no se pueda acceder al almacén de datos de VMFS con compatibilidad habilitada para discos virtuales agrupados en clúster
Este problema solo se puede producir en los almacenes de datos en los que se habilitó la compatibilidad con discos virtuales agrupados en clúster. Cuando el almacén de datos se recupera de una condición de todas las rutas desactivadas (All Paths Down, APD) o de pérdida de dispositivo permanente (PDL), no se puede acceder a él. Es posible que el registro de VMkernel muestre varios mensajes SCSI3 reservation conflict
similares a los siguientes:
2020-02-18T07:41:10.273Z cpu22:1001391219)ScsiDeviceIO: vm 1001391219: SCSIDeviceCmdCompleteCB:2972: Reservation conflict retries 544 for command 0x45ba814b8340 (op: 0x89) to device "naa.624a9370b97601e346f64ba900024d53"
El problema puede ocurrir porque el host ESXi que participa en el clúster pierde las reservas de SCSI para el almacén de datos y no siempre puede volver a adquirirlas automáticamente después de que se recupera el almacén de datos.
Solución alternativa: Registre manualmente la reserva con el siguiente comando:
vmkfstools -L registerkey /vmfs/devices/disks/<device name>
donde <device name>
es el nombre del dispositivo en el que se creó el almacén de datos.
- La controladora virtual NVMe es la controladora de disco predeterminada para los sistemas operativos invitados Windows 10
La controladora virtual NVMe es la controladora de disco predeterminada para los siguientes sistemas operativos invitados cuando se utiliza la versión de hardware 15 o posterior:
Windows 10
Windows Server 2016
Windows Server 2019
Es posible que algunas funciones no estén disponibles cuando se utiliza una controladora virtual NVMe. Para obtener más información, consulte https://kb.vmware.com/s/article/2147714.
Nota: Algunos clientes utilizan la opción predeterminada anterior de LSI Logic SAS. Esto incluye ESXi Host Client y PowerCLI.
Solución alternativa: Si necesita funciones que no están disponibles en NVMe virtual, cambie a VMware Paravirtual SCSI (PVSCSI) o LSI Logic SAS. Para obtener información sobre el uso de VMware Paravirtual SCSI (PVSCSI), consulte https://kb.vmware.com/s/article/1010398.
- Después de la actualización de un host ESXi a vSphere 7.0, la presencia de reglas de notificación de núcleo duplicadas puede provocar un comportamiento inesperado
Las reglas de notificación determinan qué complemento de múltiples rutas (como NMP, HPP, etc.) posee rutas de acceso a un dispositivo de almacenamiento en particular. ESXi 7.0 no admite reglas de notificación duplicadas. Sin embargo, el host ESXi 7.0 no muestra alertas si se agregan reglas duplicadas a las reglas de notificación existentes que se heredaron mediante una actualización a partir de una versión anterior. Como consecuencia del uso de reglas duplicadas, es posible que complementos no deseados recuperen dispositivo de almacenamiento, lo que puede provocar un resultado inesperado.
Solución alternativa: No utilice reglas de notificación de núcleo duplicadas. Antes de agregar una nueva regla de notificación, elimine cualquier regla de notificación coincidente que exista.
- Una consulta de CNS con el filtro de estado de cumplimiento establecido puede demorar un tiempo inusualmente largo en completarse
La API QueryVolume de CNS permite obtener información sobre los volúmenes de CNS, como el estado del volumen y el estado de cumplimiento. Al comprobar el estado de cumplimiento de volúmenes individuales, los resultados se obtienen rápidamente. Sin embargo, cuando se invoca la API QueryVolume de CNS para comprobar el estado de cumplimiento de varios volúmenes (varias decenas o cientos), la consulta puede procesarse lentamente.
Solución alternativa: Evite usar consultas en masa. Cuando necesite obtener el estado de cumplimiento, consulte un volumen a la vez o limite la cantidad de volúmenes en la API de consulta a 20 o menos. Mientras realiza la consulta, evite ejecutar otras operaciones de CNS para obtener el mejor rendimiento.
- Nuevo Los volúmenes de CNS eliminados se pueden mostrar de manera temporal como existentes en la interfaz de usuario de CNS
Tras eliminar un disco de FCD que respalda un volumen de CNS, es posible que el volumen se siga mostrando como existente en la interfaz de usuario de CNS. Sin embargo, se produce un error si se intenta eliminar el volumen. Es posible que se muestre un mensaje de error similar al siguiente:
No se pudieron encontrar el objeto o el artículo a los que se hace referencia
.
Solución alternativa: La siguiente sincronización completa resolverá la incoherencia y actualizará correctamente la interfaz de usuario de CNS.
- Nuevo Puede que a veces se produzca un error al intentar asociar varios volúmenes de CNS al mismo pod
Al asociar varios volúmenes al mismo pod de forma simultánea, en algunas ocasiones es posible que la operación de asociación elija la misma ranura de controladora. Por ello, solo una de las operaciones se realiza correctamente, mientras que se producen errores en otros montajes de volúmenes.
Solución alternativa: Después de que Kubernetes reintente realizar la operación que generó errores, la operación se completa correctamente si hay una ranura de controladora disponible en la máquina virtual del nodo.
- Nuevo En determinadas circunstancias, a pesar de que se produce un error en una operación de CNS, el estado de la tarea se muestra como correcto en vSphere Client
Esto puede ocurrir cuando, por ejemplo, se utiliza una directiva de almacenamiento que no cumple los requisitos para crear un volumen de CNS. Se produce un error en la operación, pero vSphere Client muestra el estado de la tarea como correcto.
Solución alternativa: Aunque el estado de la tarea aparezca como correcto en vSphere Client, no hay ninguna garantía de que la operación de CNS se haya realizado correctamente. Para asegurarse de que la operación se realizó correctamente, compruebe los resultados.
- Nuevo Una operación de eliminación incorrecta para un volumen persistente de CNS puede dejar el volumen no eliminado en el almacén de datos de vSphere
Este problema puede producirse cuando la API de eliminación de CNS intenta eliminar un volumen persistente que aún está asociado a un pod. Por ejemplo, cuando se elimina el espacio de nombres de Kubernetes donde se ejecuta el pod. Como resultado, el volumen se borra de CNS y la operación de consulta de CNS no devuelve el volumen. Sin embargo, el volumen continuará residiendo en el almacén de datos y no podrá eliminarse a través de sucesivas operaciones de la API de eliminación de CNS.
Solución alternativa: Ninguna.
Problemas en vCenter Server y vSphere Client
- Los proveedores se desconectan después de un cambio de PNID
Cuando se cambia la dirección IP de vCenter (cambio de PNID), los proveedores registrados se desconectan.
Solución alternativa: Vuelva a registrar los proveedores.
- Se produce un error en la migración de una máquina virtual entre instancias de vCenter
Cuando se usa vMotion entre instancias de vCenter para mover el almacenamiento y el host de una máquina virtual a otra instancia de vCenter Server, es posible que se muestre el error La operación no se permite en el estado actual.
Este error aparece en el asistente de la interfaz de usuario después del paso de selección del host y antes del paso de selección del almacén de datos, en casos en los que la máquina virtual tiene una directiva de almacenamiento asignada con reglas basadas en host, como el cifrado u otra regla de filtro de E/S.
Solución alternativa: Asigne la máquina virtual y sus discos a una directiva de almacenamiento sin reglas basadas en host. Es posible que deba descifrar la máquina virtual si la máquina virtual de origen está cifrada. A continuación, vuelva a intentar la acción de vMotion entre instancias de vCenter.
- La información sobre sensores de almacenamiento de la pestaña Estado del hardware muestra valores incorrectos en la interfaz de usuario de vCenter, la interfaz de usuario del host y el explorador MOB
Al desplazarse hasta Host > Supervisar > Estado del hardware > Sensores de almacenamiento en la interfaz de usuario de vCenter, la información de almacenamiento muestra valores incorrectos o desconocidos. Se observa el mismo problema en la interfaz de usuario del host y la ruta de acceso de MOB “runtime.hardwareStatusInfo.storageStatusInfo”.
Solución alternativa: Ninguna.
- La configuración avanzada de hosts de la interfaz de usuario de vSphere muestra la ubicación actual del bloqueador de productos como vacía con un valor predeterminado vacío
La configuración avanzada de hosts de la interfaz de usuario de vSphere muestra la ubicación actual del bloqueador de productos como vacía con un valor predeterminado vacío. Esto no es coherente, ya que la ubicación real del producto symlink
se creó y es válida. Esto provoca confusión en el usuario. El valor predeterminado no se puede corregir desde la interfaz de usuario.
Solución alternativa: El usuario puede utilizar el comando esxcli en el host para corregir la ubicación actual del bloqueador de productos predeterminada como se indica a continuación.
1. Elimine la configuración existente de ubicación del bloqueador de productos con: "esxcli system settings advanced remove -o ProductLockerLocation"
2. Vuelva a agregar la configuración de ubicación del bloqueador de productos con el valor predeterminado apropiado:
2.a. Si ESXi es una instalación completa, el valor predeterminado es "/locker/packages/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/locker/packages/vmtoolsRepo"
2.b. Si ESXi es una configuración de PXEboot, por ejemplo, autodeploy, el valor predeterminado es el siguiente: "/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/vmtoolsRepo"
Ejecute el siguiente comando para determinar automáticamente la ubicación: export PRODUCT_LOCKER_DEFAULT=`readlink /productLocker`
Agregue la configuración: esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s $PRODUCT_LOCKER_DEFAULT
Para combinar todos los pasos anteriores en el paso 2, puede emitir el siguiente comando único:
esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s `readlink /productLocker`
- Las instancias vinculadas de vCenter Server del centro de datos definido por software (Software-Defined Data Center, SDDC) aparecen en la instancia local de vSphere Client si una puerta de enlace de vCenter Cloud está vinculada al SDDC.
Cuando se implementa una puerta de enlace de vCenter Cloud en el mismo entorno que una instancia local de vCenter Server y se la vincula a un SDDC, la instancia de vCenter Server del SDDC aparecerá en la instancia local de vSphere Client. Este es un comportamiento inesperado y la instancia vinculada de vCenter Server del SDDC debe ignorarse. Todas las operaciones que involucren a la instancia vinculada de vCenter Server del SDDC deben realizarse en la instancia de vSphere Client en ejecución dentro de la puerta de enlace de vCenter Cloud.
Solución alternativa: Ninguna.
Problemas en la administración de máquinas virtuales
- La sección postcustomization del script de personalización se ejecuta antes que la personalización de invitado
Cuando se ejecuta el script de personalización de invitado para un sistema operativo invitado Linux, la sección precustomization
del script de personalización que se define en la especificación de personalización se ejecuta antes que la personalización de invitado y, a continuación, se ejecuta la sección postcustomization
. Si se habilita Cloud-Init en el sistema operativo invitado de una máquina virtual, la sección postcustomization
se ejecuta antes que la personalización debido a un problema conocido de Cloud-Init.
Solución alternativa: Deshabilite Cloud-Init y utilice la personalización de invitado estándar.
- Las operaciones de migración de grupos en vSphere vMotion, Storage vMotion y vMotion sin almacenamiento compartido generan un error
Cuando se realizan operaciones de migración de grupos en máquinas virtuales con varios discos e instantáneas de múltiples niveles, se puede producir el siguiente error en las operaciones: com.vmware.vc.GenericVmConfigFault Se produjo un error durante la espera de datos. Error 195887167. El host remoto cerró la conexión, posiblemente debido a que se agotó el tiempo de espera.
Solución alternativa: Vuelva a intentar la operación de migración de a una máquina virtual con errores a la vez.
- La implementación de una plantilla de OVF o de OVA desde una URL genera un error 403 Forbidden
No se admiten las URL que contienen un parámetro de consulta HTTP. Por ejemplo, http://webaddress.com?file=abc.ovf
o las direcciones URL S3 previamente firmadas por Amazon.
Solución alternativa: Descargue los archivos e impleméntelos desde el sistema de archivos local.
- Es posible que se produzca un error al importar o implementar archivos OVF locales cuyo nombre contiene caracteres que no son ASCII
Cuando se importan archivos .ovf
locales cuyo nombre contiene caracteres que no son ASCII, es posible recibir el mensaje 400 Bad Request Error
. Cuando se utilizan estos archivos .ovf
para implementar una máquina virtual en vSphere Client, el proceso de implementación se detiene en 0%. Como resultado, es posible recibir el mensaje 400 Bad Request Error
o 500 Internal Server Error
.
Solución alternativa:
- Elimine los caracteres que no sean ASCII de los nombres de los archivos
.ovf
y .vmdk
.
- Para editar el archivo
.ovf
, ábralo con un editor de texto.
- Busque el nombre de archivo
.vmdk
que no sea ASCII y conviértalo en ASCII.
- Importe o implemente nuevamente los archivos guardados.
- Nuevo No puede verse el tercer nivel de objetos anidados en una carpeta de máquina virtual
Realice los pasos siguientes:
- Desplácese hasta un centro de datos y cree una carpeta de máquina virtual.
- En la carpeta de la máquina virtual, cree una carpeta de máquina virtual anidada.
- En la segunda carpeta, cree una máquina virtual, una carpeta de máquina virtual, una vApp o una plantilla de máquina virtual anidadas adicionales.
Como resultado, no se pueden ver los objetos de la tercera carpeta anidada en el árbol de inventario de Máquinas virtuales y plantillas.
Solución alternativa: Para ver los objetos de la tercera carpeta anidada, desplácese hasta la segunda carpeta anidada y seleccione la pestaña Máquinas virtuales.
Problemas con vSphere HA y Fault Tolerance
- Las máquinas virtuales de un clúster pueden quedar huérfanas después de recuperarse de una inaccesibilidad de almacenamiento, como una condición APD en todo el clúster
Es posible que algunas máquinas virtuales queden en un estado huérfano después de recuperarse de una condición APD en todo el clúster, incluso si se habilitaron HA y VMCP en el clúster.
Este problema puede ocurrir cuando se presentan las siguientes condiciones de forma simultánea:
- Todos los hosts del clúster experimentan APD y no se recuperan hasta que se agota el tiempo de espera de VMCP.
- El principal de HA inicia la conmutación por error debido a una condición APD en un host.
- Se produce un error en la API de encendido durante la conmutación por error de HA debido a una de las siguientes condiciones:
- APD en el mismo host
- APD en cascada en todo el clúster
- Problemas de almacenamiento
- Recursos no disponibles
- Es posible que se inicie la cancelación del registro de FDM y la lógica de robo de máquina virtual de VC durante un período en el que FDM no canceló el registro de la máquina virtual con errores y la sincronización de hosts de VC responde que varios hosts informan la misma máquina virtual. Tanto FDM como VC eliminan del registro las diferentes copias registradas de la misma máquina virtual desde diferentes hosts, lo que provoca que la máquina virtual quede huérfana.
Solución alternativa: Debe eliminar del registro a las máquinas virtuales huérfanas y volver a registrarlas manualmente en el clúster después de que se recupere la condición de APD.
Si no se vuelven a registrar manualmente las máquinas virtuales huérfanas, HA intenta la conmutación por error de estas máquinas virtuales, pero esto puede tardar entre 5 y 10 horas, según el momento en que se recupere la condición de APD.
En estos casos, la funcionalidad general del clúster no se ve afectada, y HA continúa protegiendo las máquinas virtuales. Se trata de una anomalía en cuanto a lo que se muestra en VC durante el transcurso del problema.
Problemas en vSphere Lifecycle Manager
- No se puede habilitar NSX-T en un clúster que ya está habilitado para administrar la configuración y la actualización de imágenes en todos los hosts de forma colectiva
NSX-T no es compatible con la funcionalidad de administración de imágenes de vSphere Lifecycle Manager. Cuando se habilita un clúster para la configuración y la actualización de imágenes en todos los hosts del clúster de forma colectiva, no se puede habilitar NSX-T en ese clúster. Sin embargo, es posible implementar instancias de NSX Edge en este clúster.
Solución alternativa: Mueva los hosts a un nuevo clúster que pueda administrar con líneas base y habilite NSX-T en ese nuevo clúster.
- vSphere Lifecycle Manager y los servicios de archivos de vSAN no pueden habilitarse al mismo tiempo en un clúster de vSAN de vSphere 7.0
Si se habilita vSphere Lifecycle Manager en un clúster, no se pueden habilitar los servicios de archivos de vSAN en el mismo clúster y viceversa. Para habilitar vSphere Lifecycle Manager en un clúster en el que ya estén habilitados los servicios de archivos de vSAN, primero deshabilite los servicios de archivos de vSAN y vuelva a intentar la operación. Tenga en cuenta que si realiza una transición a un clúster que se administra con una sola imagen, vSphere Lifecycle Manager no se puede deshabilitar en dicho clúster.
Solución alternativa: Ninguna.
- No se pueden agregar hosts ESXi 7.0 a un clúster que se administra con una sola imagen mediante vSphere Auto Deploy
Se produce un error al intentar agregar hosts ESXi a un clúster que se administra con una sola imagen mediante el flujo de trabajo "Agregar al inventario" de vSphere Auto Deploy. El error se produce debido a que no existen patrones que coincidan en un conjunto de reglas de Auto Deploy existente. Se produce un error silencioso en la tarea y los hosts se mantienen en la pestaña Hosts detectados.
Solución alternativa:
- Elimine de la pestaña Hosts detectados los hosts ESXi que no coinciden con el conjunto de reglas.
- Cree una regla o edite una regla de Auto Deploy existente, en la que la ubicación de destino del host sea un clúster administrado por una imagen.
- Reinicie los hosts.
Los hosts se agregan al clúster administrado mediante una imagen en vSphere Lifecycle Manager.
- Cuando un administrador de soporte de hardware no está disponible, se ve afectada la funcionalidad de vSphere High Availability (HA)
La funcionalidad de vSphere HA se ve afectada si un administrador de soporte de hardware no está disponible para un clúster que se administra con una sola imagen en el que se habilita vSphere HA y en el que se selecciona un complemento de firmware y controladores. Es posible que se produzcan los siguientes errores.
- Se produce un error al configurar vSphere HA en un clúster.
- No se puede completar la configuración del agente de vSphere HA en un host:
Se produjo un error al aplicar los VIB de HA en el clúster.
- Se produce un error al corregir vSphere HA:
Error general del sistema: No se pudo obtener el mapa de componentes efectivos.
- Se produce un error al deshabilitar vSphere HA: Se produjo un error en la tarea de eliminación de soluciones.
Error general del sistema: No se puede encontrar el paquete de soporte de hardware del depósito o el administrador de soporte de hardware.
Solución alternativa:
- Si el administrador de soporte de hardware no está disponible de forma temporal, realice los siguientes pasos.
- Vuelva a conectar el administrador de soporte de hardware a vCenter Server.
- Seleccione un clúster en el menú Hosts y clústeres.
- Seleccione la pestaña Configurar.
- En Servicios, haga clic en vSphere Availability.
- Vuelva a habilitar vSphere HA.
- Si el administrador de soporte de hardware no está disponible de forma permanente, realice los siguientes pasos.
- Elimine el administrador de soporte de hardware y el paquete de soporte de hardware de la especificación de imagen.
- Vuelva a habilitar vSphere HA.
- Seleccione un clúster en el menú Hosts y clústeres.
- Seleccione la pestaña Actualizaciones.
- Haga clic en Editar.
- Elimine el complemento de firmware y controlador, y haga clic en Guardar.
- Seleccione la pestaña Configurar.
- En Servicios, haga clic en vSphere Availability.
- Vuelva a habilitar vSphere HA.
- No se elimina el elemento iofilter de un clúster después de un proceso de corrección en vSphere Lifecycle Manager
Se produce un error al eliminar el elemento filtro de E/S de un clúster mediante la corrección del clúster en vSphere Lifecycle Manager, y se muestra el siguiente mensaje: El filtro de E/S XXX ya existe
. El elemento filtro de E/S permanece en la lista como instalado.
Solución alternativa:
- Llame a la API del filtro de E/S
UninstallIoFilter_Task
desde el objeto administrado de vCenter Server (IoFilterManager).
- Corrija el clúster en vSphere Lifecycle Manager.
- Llame a la API del filtro de E/S
ResolveInstallationErrorsOnCluster_Task
desde el objeto administrado de vCenter Server (IoFilterManager) para actualizar la base de datos.
- Durante la corrección de un clúster habilitado para vSphere HA en vSphere Lifecycle Manager, la adición de hosts genera un estado de error en vSphere HA
Si se agregan uno o varios hosts ESXi durante el proceso de corrección de un clúster habilitado para vSphere HA, se genera el siguiente mensaje de error: Se produjo un error al aplicar los VIB de HA en el clúster.
Solución alternativa: Una vez completada la operación de corrección del clúster, realice una de las siguientes tareas.
- Haga clic con el botón derecho en el host de ESXi con errores y seleccione Volver a configurar para vSphere HA.
- Deshabilite y vuelva a habilitar vSphere HA para el clúster.
- Durante la corrección de un clúster habilitado para vSphere HA en vSphere Lifecycle Manager, si se deshabilita y se vuelve a habilitar vSphere HA, se genera un estado de error en vSphere HA
Al deshabilitar y volver a habilitar vSphere HA durante la corrección de un clúster, es posible que se produzca un error en el proceso de corrección debido a que las comprobaciones de estado de vSphere HA indican que los hosts no tienen paquetes VIB de vSphere HA instalados. Es posible que se muestre el siguiente mensaje de error: Error al establecer la especificación de imagen deseada para el clúster
.
Solución alternativa: Una vez completada la operación de corrección del clúster, deshabilite y vuelva a habilitar vSphere HA para el clúster.
- La búsqueda de imágenes recomendadas en vSphere Lifecycle Manager es lenta en los clústeres de gran tamaño
En los clústeres grandes con más de 16 hosts, la tarea de generación de recomendaciones puede tardar más de una hora en completarse o puede parecer que se bloquea. El tiempo de finalización de la tarea de recomendación depende de la cantidad de dispositivos configurados en cada host y de la cantidad de candidatos de imagen del almacén que vSphere Lifecycle Manager debe procesar antes de obtener una imagen válida para recomendar.
Solución alternativa: Ninguna.
- La comprobación de la compatibilidad de hardware en vSphere Lifecycle Manager es lenta en los clústeres de gran tamaño
En los clústeres grandes con más de 16 hosts, la tarea de generación de informes de validación puede tardar hasta 30 minutos en completarse o puede parecer que se bloquea. El tiempo de finalización depende de la cantidad de dispositivos configurados en cada host y de la cantidad de hosts configurados en el clúster.
Solución alternativa: Ninguna
- Se muestran mensajes de error incompletos en idiomas distintos del inglés al corregir un clúster en vSphere Lifecycle Manager
Es posible encontrar mensajes de error incompletos para los idiomas localizados en la interfaz de usuario de vCenter Server. Estos mensajes se muestran después de que se produce un error en el proceso de corrección de un clúster en vSphere Lifecycle Manager. Por ejemplo, se puede observar el siguiente mensaje de error.
El mensaje de error en inglés: Virtual machine 'VMC on DELL EMC -FileServer' that runs on cluster 'Cluster-1' reported an issue which prevents entering maintenance mode: Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
El mensaje de error en francés: La VM « VMC on DELL EMC -FileServer », située sur le cluster « {Cluster-1} », a signalé un problème empêchant le passage en mode de maintenance : Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
Solución alternativa: Ninguna.
- Al importar una imagen sin complemento de proveedor, componentes ni complemento de firmware y controlador a un clúster con una imagen que contiene esos elementos, no se eliminan los elementos de imagen de la imagen existente
Solo la imagen base de ESXi se reemplaza por la que se encuentra en la imagen importada.
Solución alternativa: Una vez completado el proceso de importación, edite la imagen y, si es necesario, elimine el complemento de proveedor, los componentes, y el complemento de firmware y controlador.
- Cuando se convierte un clúster que utiliza líneas base en un clúster que utiliza una sola imagen, se muestra una advertencia que indica que se eliminarán los VIB de vSphere HA
Al convertir un clúster habilitado para vSphere HA que utiliza líneas base en un clúster que utiliza una sola imagen, se puede mostrar un mensaje de advertencia en el que se indica que se eliminará el componente vmware-fdm
.
Solución alternativa: Este mensaje se puede ignorar. El proceso de conversión instala el componente vmware-fdm
.
- Si se configuró vSphere Update Manager para descargar actualizaciones de revisión de Internet a través de un servidor proxy, después de una actualización a vSphere 7.0 donde Update Manager se convierte en vSphere Lifecycle Manager, es posible que se produzca un error al descargar revisiones del repositorio de revisiones de VMware
En las versiones anteriores de vCenter Server, se podían configurar ajustes de proxy independientes para vCenter Server y vSphere Update Manager. Después de una actualización a vSphere 7.0, el servicio vSphere Update Manager se convierte en parte del servicio Lifecycle Manager vSphere. En el servicio vSphere Lifecycle Manager, los ajustes de proxy se configuran en la configuración de vCenter Server Appliance. Si se configuró Update Manager para descargar actualizaciones de revisión de Internet a través de un servidor proxy, pero el dispositivo de vCenter Server Appliance no incluye ajustes de proxy, después de una actualización de vCenter Server a la versión 7.0, el servicio vSphere Lifecycle Manager no se puede conectar al almacén de VMware y no puede descargar revisiones ni actualizaciones.
Solución alternativa: Inicie sesión en la interfaz de administración de vCenter Server Appliance (https://dirección-IP-o-FQDN-de-vCenter-Server-Appliance:5480) para configurar los ajustes de proxy de vCenter Server Appliance y habilitar vSphere Lifecycle Manager para utilizar el proxy.
Problemas varios
- Cuando se aplica un perfil de host con la versión 6.5 a un host ESXi con la versión 7.0, se produce un error en la comprobación de cumplimiento
Al aplicar un perfil de host con la versión 6.5 a un host ESXi con la versión 7.0, se informa que el perfil de archivo de volcado de núcleo no cumple con las normas del host.
Solución alternativa: Existen dos soluciones alternativas posibles.
- Al crear un perfil de host con la versión 6.5, establezca la opción de configuración avanzada VMkernel.Boot.autoCreateDumpFile en false en el host ESXi.
- Al aplicar un perfil de host existente con la versión 6.5, agregue la opción de configuración avanzada VMkernel.Boot.autoCreateDumpFile al perfil de host, configure la opción en una directiva fija y establezca el valor en false.
- El menú desplegable Acciones no contiene ningún elemento cuando se configura el explorador en un idioma diferente del inglés
Cuando se configura el explorador en un idioma diferente del inglés y se hace clic en el botón Cambiar a la nueva vista en la pestaña Resumen de la máquina virtual en el inventario de vSphere Client, el menú desplegable Acciones del panel Sistema operativo invitado no contiene ningún elemento.
Solución alternativa: Seleccione el menú desplegable Acciones en la parte superior de la página de la máquina virtual.
- Los controladores de ESXi nativos Mellanox ConnectX-4 o ConnectX-5 pueden mostrar un deterioro menor del rendimiento cuando se activa la función de ajuste de escala en lado de recepción (Dynamic Receive Side Scaling, DYN_RSS) o la función de ajuste de escala en lado de recepción genérico (Generic Receive Side Scaling, GEN_RSS)
Los controladores de ESXi nativos Mellanox ConnectX-4 o ConnectX-5 pueden mostrar un deterioro de menos del 5 % en el rendimiento cuando se activan las funciones DYN_RSS y GEN_RSS, pero es improbable que esto afecte a las cargas de trabajo normales.
Solución alternativa: Puede deshabilitar las funciones DYN_RSS y GEN_RSS con los siguientes comandos:
# esxcli system module parameters set -m nmlx5_core -p "DYN_RSS=0 GEN_RSS=0"
# reboot
- Se puede producir un error en el tráfico de RDMA entre dos máquinas virtuales en el mismo host en el entorno de PVRDMA
En una implementación de vSphere 7.0 en un entorno de PVRDMA, las máquinas virtuales pasan el tráfico a través de HCA para la comunicación local si existe un HCA. Sin embargo, el bucle invertido del tráfico de RDMA no funciona en el controlador qedrntv. Por ejemplo, los pares de cola de RDMA que se ejecutan en máquinas virtuales configuradas en el mismo puerto de vínculo superior no pueden comunicarse unos con otros.
En vSphere 6.7 y las versiones anteriores, se usaba un HCA para el tráfico de RDMA local si SRQ se encontraba habilitado. vSphere 7.0 utiliza el bucle invertido de HCA con las máquinas virtuales que utilizan versiones de PVRDMA con SRQ habilitado y una versión de hardware mínima de 14 mediante RoCE v2.
La versión de firmware actual del adaptador de Marvell FastLinQ no admite el tráfico de bucle invertido entre QP de un mismo puerto o PF.
Solución alternativa: Se está agregando la compatibilidad requerida al controlador no incluido certificado para vSphere 7.0. Si utiliza el controlador qedrntv incluido, debe usar una configuración de 3 hosts y migrar las máquinas virtuales al tercer host.
- Limitaciones de QP para el tráfico de datagramas no confiables en el controlador qedrntv
Existen limitaciones en el controlador RoCE qedrntv de Marvell FastLinQ y el tráfico de datagramas no confiables (Unreliable Datagram, UD). Es posible que se produzcan errores en las aplicaciones de UD con tráfico en masa a través del controlador qedrntv. Por otra parte, los QP de UD solo pueden funcionar con las regiones de memoria (Memory Regions, MR) de DMA. No se admiten MR o FRMR físicas. Las aplicaciones que intentan utilizar MR o FRMR físicas junto con QP de UD no pueden pasar el tráfico a través de un controlador qedrntv. Los ejemplos conocidos de estas aplicaciones de prueba son ibv_ud_pingpong
y ib_send_bw
.
Los casos prácticos de RoCE y RoCEv2 estándar en un entorno de VMware ESXi, como iSER, NVMe-oF (RoCE) y PVRDMA, no se ven afectados por este problema. Los casos prácticos de tráfico de UD son limitados y este problema afecta a un pequeño conjunto de aplicaciones que requieren tráfico de UD en masa.
El hardware de Marvell FastLinQ no admite la descarga de tráfico de UD de RDMA. Para cumplir con el requisito de PVRDMA de VMware y admitir QP de GSI, se agregó al controlador qedrntv una implementación exclusiva de software restringido para admitir QP de UD. El objetivo de la implementación es proporcionar compatibilidad con la comunicación GSI de rutas de control; no es una implementación completa de QP de UD para admitir el tráfico en masa y las funciones avanzadas.
Como la compatibilidad con UD se encuentra implementada en el software, es posible que la implementación no aguante un tráfico intenso y se descarten paquetes. Esto puede provocar errores en el tráfico de UD en masa.
Solución alternativa: No se admite el tráfico de QP de UD en masa con el controlador qedrntv y no existe ninguna solución alternativa en este momento. Los casos prácticos de RDMA de VMware ESXi (RoCE), como iSER, NVMe, RDMA y PVRDMA, no se ven afectados por este problema.
- Es posible que se produzcan errores en los servidores equipados con NIC 578xx de QLogic al conectar o desconectar LUN de iSCSI con frecuencia
Si se activa la conexión o la desconexión iSCSI de una NIC 578xx de QLogic con frecuencia, se puede producir un error en el servidor debido a un problema con el controlador qfle3. Esto se debe a un defecto conocido en el firmware del dispositivo.
Solución alternativa: Ninguna.
- Es posible que se produzca un error en ESXi durante la operación de descarga del controlador o desconexión de la controladora en el entorno NVMe over FC de Broadcom
En el entorno NVMe over FC de Broadcom, se puede producir un error en ESXi durante la operación de descarga del controlador o de desconexión de la controladora, y se puede mostrar un mensaje como el siguiente: @BlueScreen: #PF Exception 14 in world 2098707:vmknvmeGener IP 0x4200225021cc addr 0x19
Solución alternativa: Ninguna.
- ESXi no muestra el número de versión de firmware de OEM de las NIC i350/X550 en algunos servidores Dell
El controlador ixgben incluido solo reconoce la firma o la versión de los datos de firmware de las NIC i350/X550. En algunos servidores Dell, el número de versión de firmware de OEM se encuentra programado en la región de versión del paquete OEM y el controlador ixgben incluido no lee esta información. Solo se muestra la firma de firmware de 8 dígitos.
Solución alternativa: Para mostrar el número de versión de firmware de OEM, instale la versión 1.7.15 o posterior del controlador ixgben asíncrono.
- Es posible que las NIC X710 o XL710 generen errores en ESXi
Cuando se inician ciertas operaciones destructivas en las NIC X710 o XL710, como restablecer la NIC o manipular el árbol de dispositivos internos de VMKernel, el hardware de la NIC puede leer datos de una memoria no empaquetada.
Solución alternativa: No restablezca la NIC ni manipule el estado del dispositivo interno de VMkernel.
- NVMe-oF no garantiza un nombre de VMHBA persistente después del reinicio del sistema
NVMe-oF es una función nueva en vSphere 7.0. Si el servidor tiene una instalación de almacenamiento USB que utiliza vmhba30+ y también tiene una configuración de NVMe over RDMA, el nombre de VMHBA puede cambiar después de reiniciar el sistema. Esto se debe a que la asignación de nombres de VMHBA para NVMe over RDMA es diferente de los dispositivos PCIe. ESXi no garantiza la persistencia.
Solución alternativa: Ninguna.
- Se produce un error en la copia de seguridad si el tamaño de la base de datos de vCenter es 300 GB o superior
Si el tamaño de la base de datos de vCenter es 300 GB o superior, la copia de seguridad basada en archivos generará un error de tiempo de espera. Aparece el siguiente mensaje de error: Timeout! Failed to complete in 72000 seconds
Solución alternativa: Ninguna.
- Se puede producir un error al restaurar una instancia de vCenter Server 7.0 obtenida tras actualizar vCenter Server 6.x con una instancia externa de Platform Services Controller
Cuando se restaura una instancia de vCenter Server 7.0 obtenida tras actualizar la versión 6.x con una instancia externa de Platform Services Controller, es posible que se produzca un error en la restauración y se muestre el siguiente mensaje: Failed to retrieve appliance storage list
Solución alternativa: Durante la primera etapa del proceso de restauración, aumente el nivel de almacenamiento de vCenter Server 7.0. Por ejemplo, si el tipo de almacenamiento en la configuración de la instancia externa de Platform Services Controller de vCenter Server 6.7 es pequeño, seleccione el tipo de almacenamiento grande para el proceso de restauración.
- El parámetro de configuración Enabled SSL protocols no se define durante el proceso de corrección de un perfil de host
El parámetro de configuración Enabled SSL protocols
no se define durante la corrección de un perfil de host y solo se habilita el protocolo predeterminado del sistema tlsv1.2
. Este comportamiento se observa en un perfil de host con la versión 7.0 y anteriores en un entorno de vCenter Server 7.0.
Solución alternativa: Si desea habilitar los protocolos SSL TLSV 1.0 o TLSV 1.1 para SFCB, inicie sesión en un host ESXi mediante SSH y ejecute el siguiente comando de ESXCLI: esxcli system wbem -P <protocol_name>
- No se pueden configurar los ajustes de Modo de bloqueo mediante perfiles de host
El modo de bloqueo no se puede configurar a través de un perfil de host de seguridad y no se puede aplicar a varios hosts ESXi a la vez. Es necesario configurar manualmente cada host.
Solución alternativa: En vCenter Server 7.0, puede configurar el modo de bloqueo y administrar la lista de usuarios con excepción de modo de bloqueo mediante el uso de un perfil de host de seguridad.
- Cuando se aplica un perfil de host a un clúster, no se encuentra la configuración de Enhanced vMotion Compatibility (EVC) en los hosts ESXi
Algunos ajustes del archivo de configuración /etc/vmware/config
de VMware no se administran mediante perfiles de host y se bloquean cuando se modifica el archivo de configuración. Como resultado, cuando se aplica el perfil de host a un clúster, se pierde la configuración de EVC, lo que provoca la pérdida de funcionalidades de EVC. Por ejemplo, las CPU sin enmascarar pueden quedar expuestas a cargas de trabajo.
Solución alternativa: Vuelva a configurar la línea base de EVC relevante en el clúster para recuperar la configuración de EVC.
- El uso de un perfil de host para definir una partición de volcado de núcleo en vCenter Server 7.0 genera un error
En vCenter Server 7.0, la configuración y la administración de una partición de volcado de núcleo en un perfil de host no se encuentra disponible. Al intentar aplicar un perfil de host para definir una partición de volcado de núcleo, se produce el siguiente error: No se encontró una partición de volcado de núcleo válida.
Solución alternativa: Ninguna. En vCenter Server 7.0, los perfiles de host solo admiten volcados de núcleo basados en archivos.
- Es posible que se rechacen las solicitudes HTTP de algunas bibliotecas a vSphere
El servicio HTTP Reverse Proxy de vSphere 7.0 exige un cumplimiento de normas más estricto que las versiones anteriores. Esto puede exponer problemas preexistentes en algunas bibliotecas de terceros que utilizan las aplicaciones para las llamadas SOAP a vSphere.
Si desarrolla aplicaciones de vSphere que utilizan esas bibliotecas o incluyen aplicaciones que dependen de esas bibliotecas en la pila de vSphere, puede experimentar problemas de conexión cuando estas bibliotecas envían solicitudes HTTP a VMOMI. Por ejemplo, las solicitudes HTTP emitidas desde bibliotecas vijava pueden adoptar el siguiente formato:
POST /sdk HTTP/1.1
SOAPAction
Content-Type: text/xml; charset=utf-8
User-Agent: Java/1.8.0_221
En este ejemplo, la sintaxis infringe un requisito de campo de encabezado para el protocolo HTTP que exige dos puntos después de SOAPAction. Por lo tanto, la solicitud se rechaza en plena ejecución.
Solución alternativa: Los desarrolladores que emplean bibliotecas no conformes en sus aplicaciones pueden considerar usar bibliotecas que sigan las normas HTTP en su lugar. Por ejemplo, los desarrolladores que utilizan la biblioteca vijava pueden considerar el uso de la versión más reciente de la biblioteca yavijava en su lugar.
- Al editar un parámetro de opciones avanzadas en un perfil de host y establecer un valor como false, el valor se establece como true
Cuando se intenta definir un valor como false
para un parámetro de opción avanzada en un perfil de host, la interfaz de usuario crea un valor de cadena no vacío. Los valores que no están vacíos se interpretan como true
y el parámetro de opción avanzada recibe el valor true
en el perfil de host.
Solución alternativa: Existen dos soluciones alternativas posibles.
- Establezca el parámetro de opción avanzada como
false
en un host ESXi de referencia y copie la configuración de este host en los perfiles de host.
Nota: El host debe estar conforme con el perfil de host antes de modificar el parámetro de opción avanzada en el host.
- Establezca el parámetro de opción avanzada como
false
en un host ESXi de referencia y cree un perfil de host a partir de este host. A continuación, copie la configuración del perfil de host del nuevo perfil de host en el existente.
- Es posible que vea un archivo de volcado al utilizar el controlador Broadcom lsi_msgpt3, lsi_msgpt35 y lsi_mr3
Cuando se utilizan las controladoras lsi_msgpt3, lsi_msgpt35 y lsi_mr3, existe el riesgo de que vea el archivo de volcado lsuv2-lsi-drivers-plugin-util-zdump. Se produce un problema al salir de la instancia de storelib que se utiliza en esta utilidad del complemento. Esto no afecta a las operaciones de ESXi, por lo que puede ignorar el archivo de volcado.
Solución alternativa: Puede hacer caso omiso de este mensaje sin problemas. Puede utilizar el siguiente comando para eliminar lsuv2-lsi-drivers-plugin:
esxcli software vib remove -n lsuv2-lsiv2-drivers-plugin
- Es posible que vea que no es necesario reiniciar después de configurar la instancia de SR-IOV de un dispositivo PCI en vCenter, pero es posible que se pierdan las configuraciones de dispositivos que las extensiones de terceros definieron y que sea necesario volver a aplicar el reinicio
En ESXi 7.0, se aplica la configuración de SR-IOV sin reiniciar y se vuelve a cargar el controlador del dispositivo. Puede que los hosts ESXi utilicen extensiones de terceros para realizar configuraciones de dispositivos que se deben ejecutar después de que el controlador del dispositivo se cargue durante el arranque. Es necesario reiniciar para que dichas extensiones de terceros vuelvan a aplicar la configuración del dispositivo.
Solución alternativa: Debe reiniciar después de configurar SR-IOV para aplicar configuraciones de dispositivos de terceros.
Para contraer la lista de problemas conocidos anteriores, haga clic aquí.