Notas de la versión de VMware ESXi 6.5 Update 1

|

ESXi 6.5 Update 1 | 27 de julio de 2017 | Compilación ISO 5969303

Compruebe las adiciones y las actualizaciones de las notas de la versión.

Contenido de las notas de la versión

Las notas de la versión abarcan los siguientes temas:

Novedades

La versión ESXi 6.5 Update 1 incluye las siguientes características nuevas.

  • Si prefiere utilizar Update Manager para la actualización de la pila de ESXi y vSAN, ahora puede habilitar las actualizaciones de software de vSAN mediante la integración con vSphere Update Manager. Esto proporciona un flujo de trabajo común y unificado. Para obtener más información, consulte la Guía de administración e instalación de vSphere Update Manager.
  • Actualizaciones del controlador:
    • Controlador qlnativefc de Cavium
    • Controlador nvme de VMware
    • Controlador i40en de Intel compatible con NIC 10G de Lewisburg
    • Controlador ne1000 de Intel compatible con NIC 1G de Lewisburg
    • Controlador igbn de Intel
    • Controlador ixgben de Intel
    • Controlador ntg3 de Broadcom

Versiones anteriores de ESXi 6.5

Las características y los problemas conocidos de ESXi 6.5 se describen en las notas de la versión de cada versión. Las notas de la versión para versiones anteriores de ESXi 6.5 son las siguientes:

Para obtener información sobre compatibilidad, instalación, actualizaciones, notificaciones de soporte de productos y características, consulte las notas de la versión de VMware vSphere 6.5.

Internacionalización

VMware vSphere 6.5 está disponible en los idiomas siguientes:

  • Inglés
  • Francés
  • Alemán
  • Español
  • Japonés
  • Coreano
  • Chino simplificado
  • Chino tradicional

Los componentes de VMware vSphere 6.5, incluidos vCenter Server, ESXi, vSphere Web Client y vSphere Client, no aceptan entradas que no sean ASCII.

Compatibilidad

Compatibilidad con las versiones de ESXi, vCenter Server y vSphere Web Client

La matriz de interoperabilidad de productos VMware ofrece detalles sobre la compatibilidad de la versión actual y las versiones anteriores de los componentes de VMware vSphere, incluidos ESXi, VMware vCenter Server, vSphere Web Client y los productos VMware opcionales. También se puede comprobar la matriz de interoperabilidad de productos VMware para obtener información sobre la administración admitida y los agentes de copia de seguridad antes de instalar ESXi o vCenter Server.

vSphere Web Client y vSphere Client vienen empaquetados con vCenter Server.

Compatibilidad de hardware con ESXi

Para ver una lista de los procesadores, los dispositivos de almacenamiento, las matrices SAN y los dispositivos de E/S que son compatibles con vSphere 6.5 Update 1, utilice la información sobre ESXi 6.5 incluida en la Guía de compatibilidad de VMware.

Compatibilidad de dispositivos con ESXi

Para determinar qué dispositivos son compatibles con ESXi 6.5, utilice la información sobre ESXi 6.5 incluida en la Guía de compatibilidad de VMware.

Compatibilidad de sistemas operativos invitados con ESXi

Para determinar qué sistemas operativos invitados son compatibles con vSphere 6.5, utilice la información sobre ESXi 6.5 incluida en la Guía de compatibilidad de VMware.

Compatibilidad de máquinas virtuales con ESXi

Las máquinas virtuales que son compatibles con ESX 3.x y versiones posteriores (versión de hardware 4) se admiten en ESXi 6.5. Las máquinas virtuales que son compatibles con ESX 2.x y versiones posteriores (versión de hardware 3) no se admiten. Para utilizar estas máquinas virtuales en ESXi 6.5, actualice la compatibilidad de máquinas virtuales.
Consulte la documentación sobre la actualización de vSphere.

Avisos de compatibilidad y del producto

  • La matriz de productos de ciclo de vida de VMware proporciona información detallada acerca de todos los productos compatibles y no compatibles. Consulte la Matriz de productos de ciclo de vida de VMware también para obtener más información acerca de la finalización del soporte técnico general, la finalización de la asistencia técnica y el cese de disponibilidad.
  • VMware anuncia la retirada de su programa de conmutador virtual de terceros (vSwitch) y planea dejar de ofrecer las instancias de VMware vSphere API que emplean los conmutadores de terceros en la versión posterior a vSphere 6.5 Update 1. Las API de vSwitch de terceros ya no estarán disponibles en las versiones posteriores de vSphere y las instancias de vSwitch de terceros dejarán de funcionar. Para obtener más información, consulte las preguntas frecuentes acerca de la retirada del programa vSwitch de terceros (2149722).

Revisiones incluidas en esta versión

Esta versión incluye todos los boletines de ESXi que se lanzaron antes de la fecha de lanzamiento de este producto. Consulte la página My VMware para obtener más información sobre cada boletín.

La versión de actualización ESXi-6.5.0-update01 incluye los siguientes boletines individuales:

La versión de actualización ESXi-6.5.0-update01 (Security-only build) incluye los siguientes boletines individuales:

La versión de actualización ESXi-6.5.0-update01 contiene los siguientes perfiles de imagen:

La versión de actualización ESXi-6.5.0-update01 (Security-only build) incluye los siguientes perfiles de imagen:

Problemas resueltos

Los problemas resueltos se agrupan del siguiente modo:

Auto Deploy
  • El host ESXi pierde conectividad de red cuando se realiza un arranque sin estado desde Auto Deploy

    Un host ESXi puede perder la conectividad de red cuando se realiza un arranque sin estado desde Auto Deploy si el NIC de vmkernel de administración tiene una dirección IP estática y está conectado a un conmutador virtual distribuido. 

    El problema se resolvió en esta versión.

Problemas con el CIM y las API
  • Los módulos de memoria DDR4 de 13G se muestran con el estado Desconocido en la página Estado de mantenimiento de hardware en vCenter Server 

    Los servidores 13G de Dell utilizan módulos de memoria DDR4. Estos módulos de memoria se muestran con el estado «Desconocido» en la página Estado de mantenimiento de hardware en vCenter Server. 

    El problema está resuelto en esta versión.

Internacionalización
  • Los teclados USB recién conectados tienen asignado de forma predeterminada el diseño de EE. UU.

    Cuando se configura un teclado con un diseño diferente que no sea el predeterminado de EE. UU. y posteriormente se desconecta y vuelve a conectar al host ESXi, al teclado recién conectado se le asigna de forma predeterminada el diseño de EE. UU. en lugar del diseño seleccionado por el usuario. 

    El problema está resuelto en esta versión. 

Problemas varios
  • No se puede iniciar el complemento vmswapcleanup

    El complemento jumpstart vmswapcleanup no se puede iniciar. El registro de syslog contiene la siguiente línea: 

    jumpstart[XXXX]: execution of '--plugin-dir /usr/lib/vmware/esxcli/int/ systemInternal vmswapcleanup cleanup' failed : Host Local Swap Location has not been enabled 

    El problema está resuelto en esta versión.

  • El agente SNMP notifica los valores de los contadores ifOutErrors e ifOutOctets de forma incorrecta

    El agente de protocolo de administración de red simple (Simple Network Management Protocol, SNMP) notifica el mismo valor para los contadores ifOutErrors e ifOutOctets cuando deberían ser diferentes. 

    El problema está resuelto en esta versión.

  • ESXi se desconecta de vCenter Server cuando se registra una máquina virtual con una versión 3 de hardware

    El host ESXi ya no admite la ejecución de máquinas virtuales de versión 3 de hardware, aunque sí permite registrar estas máquinas virtuales heredadas para actualizarlas a una versión compatible más reciente. Un retroceso reciente provocaba que el servicio del host ESXi se desconectara de vCenter Server durante el proceso de registro. Esto impedía el funcionamiento correcto del registro de la máquina virtual. 

    El problema está resuelto en esta versión.

  • La máquina virtual se desconecta de forma automática con MXUserAllocSerialNumber: demasiados errores de bloqueo

    Durante el funcionamiento normal de la máquina virtual, los servicios de VMware Tools (versión 9.10.0 y posteriores) crean conexiones de vSocket para intercambiar datos con el host ESXi. Cuando se han realizado muchas conexiones de este tipo, los números de serie de bloqueo pueden agotarse en el host ESXi, lo que provoca el cierre automático de la máquina virtual con el error MXUserAllocSerialNumber: too many locks. Si se ha aplicado la solución descrita en el artículo 2149941 de la KB, quite la siguiente línea para volver a habilitar la comunicación RPC de invitado a través de vSockets: guest_rpc.rpci.usevsocket = "FALSE" 

    El problema está resuelto en esta versión.

  • La máquina virtual se bloquea en ESXi 6.5 cuando varios usuarios inician sesión en la máquina virtual de Windows Terminal Server

    Un Windows 2012 Terminal Server que ejecuta herramientas de VMware 10.1.0 en ESXi 6.5 deja de responder cuando han iniciado sesión muchos usuarios. 

    vmware.log mostrará mensajes parecidos a estos 

    2017-03-02T02:03:24.921Z| vmx| I125: GuestRpc: Too many RPCI vsocket channels opened.
    2017-03-02T02:03:24.921Z| vmx| E105: PANIC: ASSERT bora/lib/asyncsocket/asyncsocket.c:5217
    2017-03-02T02:03:28.920Z| vmx| W115: A core file is available in "/vmfs/volumes/515c94fa-d9ff4c34-ecd3-001b210c52a3/h8-
    ubuntu12.04x64/vmx-debug-zdump.001"
    2017-03-02T02:03:28.921Z| mks| W115: Panic in progress... ungrabbing 

    El problema está resuelto en esta versión.

  • vSphere Web Client no puede cambiar la opción de Syslog.global.logDirUnique

    Cuando se utiliza vSphere Web Client para intentar cambiar el valor de la opción Syslog.global.logDirUnique, la opción aparece atenuada y no se puede modificar. 

    El problema está resuelto en esta versión.

  • Es posible que se produzca un error en la activación de los complementos iodm y vmci jumpstart durante el arranque de ESXi

    Durante el arranque de un host ESXi, se anotan mensajes de error relacionados de los complementos de iodm y vmci jumpstart en los registros de jumpstart. 

    El problema se resolvió en esta versión.

  • La tarea EnterMaintenanceMode omite los valores de tiempo de espera superiores a 30 minutos

    La entrada en el modo de mantenimiento superará el tiempo de espera después de 30 minutos aunque se haya especificado un tiempo de espera de más de 30 minutos.

    El problema está resuelto en esta versión.

  • Aunque todos los almacenamientos de NAS estén deshabilitados en el documento de perfil de host, se produce un error de cumplimiento del perfil de host y se eliminan los almacenes de datos existentes o se crean almacenes de datos nuevos

    Cuando todos los almacenes de datos NFS están deshabilitados en el documento del perfil de host, extraídos de un host de referencia, se pueden producir errores de cumplimiento de perfil de host y los almacenes de datos existentes se eliminan o se agregan almacenes de datos nuevos durante la corrección.

    El problema está resuelto en esta versión.

  • Un host ESXi puede generar un error con pantalla de diagnóstico morada al recopilar snapshots de rendimiento

    Un host ESXi podría fallar con una pantalla de diagnóstico morada al recopilar snapshots del rendimiento con vm-support debido a las llamadas de acceso a la memoria cuando la estructura de datos ya se ha liberado.

    Aparece un mensaje de error similar al siguiente:

    @BlueScreen: #PF Exception 14 in world 75561:Default-drai IP 0xxxxxxxxxxxxaddr 0xxxxxxxxxxxx
    PTEs:0xXXXXXXXXXXXXX;0xYYYYYYYYYYYYYY;0xZZZZZZZZZZZZZZ;0x0;
    [0xxxxxxxxxxxx]SPLockIRQWork@vmkernel#nover+0x26 stack: 0xxxxxxxxxxxx
    [0xxxxxxxxxxxx]VMKStatsDrainWorldLoop@vmkernel#nover+0x90 stack: 0x17
    

    El problema está resuelto en esta versión.

Problemas de redes
  • Las máquinas virtuales configuradas para usar el firmware EFI no han podido realizar el arranque PXE en algunos entornos DHCP.

    Una máquina virtual configurada para usar el firmware EFI no puede obtener una dirección IP cuando intenta arrancar con PXE si el entorno de DHCP responde mediante una IP de unidifusión. El firmware EFI no es capaz de recibir una respuesta de DHCP enviada mediante una dirección IP de unidifusión.

    El problema se resolvió en esta versión.

  • Cuando configura la VLAN invitada con la descarga de VLAN deshabilitada (depurando la etiqueta de VLAN), el comando ping entre las interfaces VLAN puede fallar

    El búfer de paquete original puede compartirse entre varios puertos de destino si el paquete se reenvía a varios puertos (por ejemplo, los paquetes de difusión). Si se deshabilita la descarga de VLAN y modifica el búfer de paquete original, la etiqueta de VLAN se insertará en el búfer de paquetes antes de reenviarse a la VLAN invitada. El otro puerto detectará daños en el paquete y se eliminará. 

    El problema está resuelto en esta versión. 

  • La unión del host ESXi 6.5 al dominio de Active Directory falla con un error de tiempo de espera de la operación

    El host ESXi 6.5 no puede unirse al dominio de Active Directory y el proceso podría dejar de responder durante una hora antes de devolver el error Operation timed out si el host utiliza solo la dirección de IPv4 y el dominio tiene configurada IPv6 o una combinación de IPv4 e IPv4. 

    El problema está resuelto en esta versión. 

  • El dúplex completo configurando en un conmutador físico podría ocasionar problemas de incongruencia de dúplex con el controlador Linux nativo igb que solo admite el modo de negociación automática para el ajuste de velocidad/dúplex de una NIC
    Si está usando el controlador nativo igb con un host ESXi, este siempre trabaja en modo de negociación automática de velocidad y dúplex. Independientemente de la configuración definida en este extremo de la conexión, no se aplica en el lado de ESXi. La compatibilidad con negociación automática causa un problema de incongruencia de dúplex si un conmutador físico se configura manualmente en modo dúplex completo.


    El problema está resuelto en esta versión.

  • Si realiza una instalación nueva del host ESXi, es posible que no tenga conexión de red si el primer estado del vínculo NIC físico está inactivo

    De forma predeterminada, cada host ESXi tiene un conmutador virtual, vSwitch0. Durante la instalación de ESXi, el primer NIC físico que se elige es el vínculo superior predeterminado para vSwitch0. En el caso de que el estado de vínculo NIC esté inactivo, puede que el host ESXi no tenga una conexión de red aunque el otro estado de vínculo de NIC esté activo y tenga acceso de red. 

    El problema se resolvió en esta versión.

  • Las máquinas virtuales, que forman parte de grupos de infraestructura de escritorio virtual (Virtual Desktop Infrastructure, VDI) donde se usa la tecnología de clon instantáneo, pierden la conexión con los servicios de introspección de invitado

    Las máquinas virtuales existentes donde se usa el clon instantáneo y las nuevas, creadas con o sin el clon instantáneo, pierden la conexión con el módulo de host de Guest Introspection. Como resultado, las máquinas virtuales quedan desprotegidas y no se pueden reenviar configuraciones nuevas de Guest Introspection al host ESXi. También se muestra una advertencia Guest introspection not ready en la interfaz de usuario de vCenter Server. 

    El problema está resuelto en esta versión.

  • Un host ESXi puede generar un error de pantalla morada durante el cierre cuando se utiliza IPv6 mld

    Un host ESXi puede generar un error de pantalla morada durante el cierre cuando se utiliza IPv6 mld debido a un estado de carrera en la pila de TCP/IP. 

    El problema está resuelto en esta versión.

  • Un host ESXi puede dejar de responder cuando se vuelve a conectar a vCenter Server

    Si se desconecta un host ESXi de vCenter Server y algunas de las máquinas virtuales en ese host utilizan un grupo LAG, el host ESXi puede dejar de responder cuando se vuelve a conectar a vCenter Server después de recrear el mismo LAG en el lado de vCenter Server y se puede mostrar un error como el siguiente: 

    0x439116e1aeb0:[0x418004878a9c]LACPScheduler@ # +0x3c stack: 0x417fcfa00040 0x439116e1aed0:
    [0x418003df5a26]Net_TeamScheduler@vmkernel#nover+0x7a stack: 0x43070000003c 0x439116e1af30:
    [0x4180044f5004]TeamES_Output@#+0x410 stack: 0x4302c435d958 0x439116e1afb0:
    [0x4180044e27a7]EtherswitchPortDispatch@#+0x633 stack: 0x0 

    El problema está resuelto en esta versión.

  • Un host ESXi puede generar un error de pantalla morada y un error «Spin count exceeded (refCount) - possible deadlock with PCPU»

    Un host ESXi puede generar un error de pantalla morada y un error Spin count exceeded (refCount) - possible deadlock with PCPU cuando el host ESXi se reinicia en las siguientes circunstancias: 

    • Se debe utilizar vSphere Network Appliance (DVFilter) en un entorno de NSX
    • Se debe migrar una máquina virtual con vMotion bajo el control de DVFilter

    El problema se resolvió en esta versión.

  • Una máquina Virtual (VM) con el vNIC e1000/e1000e podría tener problemas de conectividad de red

    Cuando, para una máquina virtual con el vNIC e1000/e1000e, el controlador e1000/e1000e indica a la emulación de vmkernel e1000/e1000e que omita un descriptor (la dirección y la longitud de la dirección del descriptor de transmisión es 0), puede producirse una pérdida de conectividad de red.

    El problema está resuelto en esta versión. 

  • El registro VMkernel incluye una o más advertencias «Couldn't enable keep alive»

    Las advertencias Couldn't enable keep alive se muestran durante la comunicación de VMware NSX y soluciones de asociados a través de un socket VMCI (vsock). El registro de VMkernel ahora omite estas advertencias repetidas, ya que se pueden ignorar de forma segura. 

    El problema se resolvió en esta versión.

  • No puede accederse a una máquina virtual con un dispositivo RDMA paravirtual durante una operación de snapshot o una migración de vMotion

    Las máquinas virtuales con un dispositivo RDMA paravirtual (PVRDMA) ejecutan las aplicaciones RDMA para comunicarse con los pares de cola correspondientes. Si una aplicación RDMA intenta comunicarse con un número de cola del mismo nivel que no existe, el dispositivo de PVRDMA puede esperar una respuesta del par del mismo nivel de manera indefinida. En consecuencia, la máquina virtual no estará accesible si durante la operación o la migración de una snapshot, la aplicación RDMA aún se está ejecutando.

    El problema está resuelto en esta versión.

  • Las aplicaciones VMkernel invitadas pueden recibir entradas de finalización inesperadas para las solicitudes de trabajo de registro rápido no señaladas

    En ocasiones, la comunicación de RDMA entre dos máquinas virtuales que residen en un host con un vínculo superior RDMA activo desencadena entradas de finalización falsas en las aplicaciones VMkernel invitadas. Las solicitudes de trabajo de registro rápido no señaladas, emitidas por el protocolo de capa superior (ULP) de RDMA de nivel del kernel, desencadenan entradas de finalización erróneas. Esto puede provocar desbordamientos de la cola de finalización en el ULP del kernel. 

    El problema se resolvió en esta versión.

  • Cuando se utiliza un dispositivo RDMA paravirtual (PVRDMA), es posible que el dispositivo no esté disponible en el estado de vínculo no operativo hasta que el SO invitado vuelva a cargar el controlador invitado PVRDMA

    Cuando se instala el controlador PVRDMA en un SO invitado que admite el dispositivo de PVRDMA, el controlador PVRDMA puede producir un error al cargar correctamente cuando se enciende el SO invitado. Es posible que el dispositivo quede bloqueado en el estado de vínculo no operativo hasta que vuelva a cargar manualmente el controlador PVRDMA. 

    El problema está resuelto en esta versión.

  • Eventos de desconexión y conexión de la pNIC en el equilibrador de carga de VMware NetQueue pueden provocar una pantalla de color morado

    Si una pNIC se desconecta y conecta a un conmutador virtual, el equilibrador de carga de VMware NetQueue debe identificarlo y pausar el trabajo de equilibrio en curso. En algunos casos, puede que el equilibrador de carga no detecte esto y acceda a estructuras de datos incorrectas. Como resultado, es posible que se vea una pantalla de color morado. 

    El problema está resuelto en esta versión.

  • El equilibrador de carga de NetQueue puede hacer que el host ESXi deje de responder

    En el caso de máquinas virtuales sensibles a latencia, el equilibrador de carga de NetQueue puede intentar reservar una cola de Rx exclusiva. Si el controlador proporciona prevención de cola, entonces, el equilibrador de carga de NetQueue utiliza esto para obtener cola exclusiva para máquinas virtuales sensibles a latencia. El equilibrador de carga de NetQueue mantiene el bloqueo y ejecuta una devolución de llamada de prevención de cola del controlador. Con algunos controladores, esto puede provocar una pantalla de color morado en el host ESXi, en especial si la implementación de un controlador involucra el modo de suspensión. 

    El problema está resuelto en esta versión.

  • Un dispositivo de red USB integrado en el módulo de administración integrado (Integrated Management Module, IMM) en algunos servidores podría dejar de responder si se reinicia el IMM

    En algunos servidores, hay un dispositivo de red USB integrado en IMM o iLO para administrar el servidor. Cuando se reinicia el IMM mediante vSphere Web Client o un comando de IMM o iLO, la transacción en el dispositivo de red USB se pierde. 

    El problema está resuelto en esta versión.

  • El resultado del estado del vínculo de una vmnic no refleja el estado físico real

    Cuando se cambia el estado del vínculo físico de una vminc, por ejemplo, se desconecta el cable o se apaga el puerto del conmutador, el resultado del comando esxcli podría ser un estado del vínculo incorrecto en NIC basadas en Intel 82574L (Intel Gigabit CT/CT2 para PC). Debe reiniciar manualmente la NIC para obtener el estado real del vínculo. 

    El problema está resuelto en esta versión.

  • Se puede perder la conexión de red si se utiliza un controlador ntg3 con NIC Broadcom NetXtreme I 

    Las NIC que utilizan el controlador ntg3 pueden experimentar una pérdida inesperada de conectividad. La conexión de red solo se puede restaurar cuando se reinicie el host ESXi. Los dispositivos que se ven afectados son los adaptadores Ethernet Broadcom NetXtreme I 5717, 5718, 5719, 5720, 5725 y 5727. El problema está relacionado con ciertos paquetes TSO con formato incorrecto enviados por VM, como por ejemplo, dispositivos virtuales F5 BIG-IP, entre otros.
    El controlador ntg3, versión 4.1.2.0, resuelve este problema. 

    El problema está resuelto en esta versión.

  • Un host ESXi podría presentar error con pantalla de color morado cuando se desactiva la compatibilidad con IPv6

    Un host ESXi puede presentar error con pantalla de color morado cuando se desactiva la compatibilidad global con IPv6 y se reinicia el host.

    El problema está resuelto en esta versión.

  • Un host ESXi podría dejar de responder cuando se migra una máquina virtual con Storage vMotion entre hosts ESXi 6.0 y ESXi 6.5

    El dispositivo vmxnet3 intenta acceder a la memoria del sistema operativo invitado mientras está en curso la preasignación de memoria de invitado durante la migración de máquina virtual con Storage vMotion. Esto da como resultado un acceso de memoria no válido y error del host ESXi 6.5.

    El problema está resuelto en esta versión.

Problemas de seguridad
  • Actualización de la biblioteca libcurl

    La biblioteca userworld libcur de ESXi se actualizó a la versión 7.53.1.

  • Actualización del paquete de NTP

    El paquete de ESXi NTP se actualizó a la versión 4.2.8p10.

  • Actualización de la versión de OpenSSH

    La versión de OpenSSH se actualizó a la versión 7.5p1.

  • La pila Likewise en ESXi no está habilitada para que sea compatible con SMBv2

    La controladora de dominio de Windows 2012 es compatible con SMBv2, mientras que la pila Likewise en ESXi solo lo es con SMBv1. Con esta versión, la pila Likewise en ESXi está habilitada para admitir SMBv2. 

    El problema se resolvió en esta versión.

  • No se pueden utilizar certificados personalizados de SSL para ESXi con claves de más de 2048 bits

    En vSphere 6.5, la función de latido seguro admite la adición de hosts ESXi con certificados cuyas claves tengan 2048 bits exactamente. Si se intenta agregar o reemplazar el certificado de host ESXi con un certificado personalizado que tenga una clave de más de 2048 bits, el host se desconecta de vCenter Server. Los mensajes de registro en vpxd.log serán similares al siguiente:

    error vpxd[7FB5BFF7E700] [Originator@6876 sub=vpxCrypt opID=HeartbeatModuleStart-4b63962d] [bool VpxPublicKey::Verify(const EVP_MD*, const unsigned char*, size_t, const unsigned char*, size_t)] ERR error:04091077:rsa routines:INT_RSA_VERIFY:wrong signature length

    warning vpxd[7FB5BFF7E700] [Originator@6876 sub=Heartbeat opID=HeartbeatModuleStart-4b63962d] Failed to verify signature; host: host-42, cert: (**THUMBPRINT_REMOVED**), signature : (**RSA_SIGNATURE_REMOVED**)

    warning vpxd[7FB5BFF7E700] [Originator@6876 sub=Heartbeat opID=HeartbeatModuleStart-4b63962d] Received incorrect size for heartbeat Expected size (334) Received size (590) Host host-87

    El problema se resolvió en esta versión.

  • Actualización de la biblioteca libPNG

    La biblioteca libPNG se ha actualizado a libpng-1.6.29.

  • Actualización de OpenSSL

    El paquete OpenSSL se ha actualizado a la versión openssl-1.0.2k.

  • Actualización del controlador Xorg

    La actualización del controlador Xorg incluye las siguientes actualizaciones:

    • el paquete libXfont se ha actualizado a libxfont - 1.5.1
    • la biblioteca pixman se ha actualizado a pixman - 0.35.1
  • Actualización de la biblioteca libarchive

    La biblioteca libarchive se ha actualizado a libarchive - 3.3.1.

  • Actualización de la biblioteca SQLlite3

    La biblioteca SQLlite3 se ha actualizado a SQLlite3 - 3.17.0.

Configuración del servidor
  • El acceso directo de PCI no es compatible con dispositivos con MMIO ubicada por sobre de 16 TB donde los MPN son mayores a 32 bits 

    El acceso directo de PCI no es compatible con dispositivos con MMIO ubicada por sobre de 16 TB donde los MPN son mayores a 32 bits. 

    El problema está resuelto en esta versión.

  • El inicio de sesión en un host ESXi mediante SSH requiere volver a indicar la contraseña

    Se solicitará dos veces una contraseña al conectarse a un host ESXi a través de SSH si el host ESXi se actualiza de vSphere 5.5 a la versión 6.5 cuando forma parte de un dominio.

    El problema está resuelto en esta versión.

  • Error de cumplimiento en Security.PasswordQualityControl en la sección de perfil de host

    En la sección de perfil de host, se observa un error de cumplimiento en Security.PasswordQualityControl cuando la configuración de contraseña del PAM en el perfil de contraseña del PAM es diferente de la opción de configuración avanzada Security.PasswordQualityControl. Debido a que la opción de configuración avanzada Security.PasswordQualityControl no está disponible para el perfil de host en esta versión, utilice la opción Requisite en la Configuración del PAM de contraseña para cambiar la directiva de contraseñas en su lugar. 

    El problema se resolvió en esta versión.

  • El servicio vpxd podría bloquearse e impedir que la interfaz de usuario de vSphere Web Client se conecte y actualice vCenter Server

    Si se queda sin configurar el campo obligatorio en el objeto VMODL de la ruta de acceso del perfil, podría producirse un problema de serialización durante la validación del archivo de respuesta para la configuración de red, lo que redundará en un error de servicio de vpxd.

    El problema está resuelto en esta versión.

  • No se puede editar la configuración de /Power/PerfBias

    No está disponible la opción de configuración avanzada /Power/PerfBias. Cualquier intento de establecerla en un valor devuelve un error. 

    El problema está resuelto en esta versión.

  • La unión de cualquier host (ESXi o vCenter Server) con Active Directory en el dominio de vSphere 6.5 puede provocar un error de servicio

    vSphere 6.5 no admite el dominio de Active Directory independiente. El espacio de nombres independiente es un escenario en el que el sufijo de sistema de nombres de dominio (domain name system, DNS) principal de un equipo no coincide con el nombre de dominio de DNS en el que reside ese equipo. 

    El problema está resuelto en esta versión.

  • Los errores de la plataforma relacionados con XHCI se informan en registros de VMKernel de ESXi

    Los mensajes de error de la plataforma relacionados con XHCI, como xHCI Host Controller USB 2.0 Control Transfer may cause IN Data to be dropped and xHCI controller Parity Error response bit set to avoid parity error on poison packet, se informan en los registros de VMkernel de ESXi. 

    El problema está resuelto en esta versión. 

  • Un host ESXi podría dejar de responder y mostrar el estado de sin NMI de latidos

    Un host ESXi podría dejar de responder y mostrar el estado no heartbeat NMI en máquinas AMD con controladoras de host USB OHCI. 

    El problema está resuelto en esta versión. 

Problemas de almacenamiento
  • Se produce un error en la modificación del límite de E/S por segundo de los discos virtuales con supervisión de bloqueos modificados (Changed Block Tracking, CBT) habilitada con errores en los archivos de registro

    Para definir la directiva de programación de E/S de almacenamiento para una máquina virtual, es posible configurar el rendimiento de E/S para cada disco de la máquina virtual mediante la modificación del límite de E/S por segundo. Cuando se edita el límite de E/S por segundo y se habilita CBT para la máquina virtual, la operación genera el error The scheduling parameter change failed. Debido a este problema, no se pueden alterar las directivas de programación de la máquina virtual. El mensaje de error se muestra en el panel Tareas recientes de vSphere.

    Se pueden ver los siguientes errores en el archivo /var/log/vmkernel.log:

    2016-11-30T21:01:56.788Z cpu0:136101)VSCSI: 273: handle 8194(vscsi0:0):Input values: res=0 limit=-2 bw=-1 Shares=1000
    2016-11-30T21:01:56.788Z cpu0:136101)ScsiSched: 2760: Invalid Bandwidth Cap Configuration
    2016-11-30T21:01:56.788Z cpu0:136101)WARNING: VSCSI: 337: handle 8194(vscsi0:0):Failed to invert policy

    El problema se resolvió en esta versión.

  • Cuando se agregan en caliente varios discos duros de VMware Paravirtual SCSI (PVSCSI) en una sola operación, solo uno está visible para el sistema operativo invitado

    Cuando se agregan en caliente dos o más discos duros a una controladora de VMware PVSCSI en una sola operación, el sistema operativo invitado solo puede ver uno de ellos.

    El problema está resuelto en esta versión.

  • Un host ESXi puede generar un error con una pantalla de color morado

    Cuando varios complementos de múltiples rutas (multipathing plugins, MPP) intentan reclamar rutas de acceso, es posible que haya error del host ESXi y que muestre una pantalla de color morado debido a una condición de carrera.

    El problema se resolvió en esta versión.

  • La reversión de un error durante una operación de cambio de perfil de almacenamiento da como resultado un ID de perfil dañado

    Si un proveedor VASA de VVol devuelve un error durante una operación de cambio de perfil de almacenamiento, vSphere intenta deshacer la operación, pero el ID de perfil se daña en el proceso. 

    El problema se resolvió en esta versión.

  • Se visualiza una latencia incorrecta de lectura o escritura en vSphere Web Client para almacenes de datos VVol

    La latencia de lectura o escritura por host que se visualiza para almacenes de datos VVol en vSphere Web Client es incorrecta. 

    El problema está resuelto en esta versión.

  • Un host ESXi puede generar un error con una pantalla de color morado durante NFSCacheGetFreeEntry

    El cliente de NFS v3 no procesa correctamente un caso donde el servidor NFS devuelve un tipo de archivo no válido como parte de los atributos de archivo, lo que hace que el host ESXi genere error y muestre una pantalla de color morado. 

    El problema está resuelto en esta versión.

  • Se debe configurar manualmente la regla de SATP para un nuevo Pure Storage FlashArray

    Para un dispositivo Pure Storage FlashArray, hay que agregar manualmente la regla de SATP para configurar el SATP, la PSP y la E/S por segundo. Se agrega una nueva regla de SATP a ESXi para configurar SATP en VMW_SATP_ALUA, PSP en VMW_PSP_RR y E/S por segundo en 1 para todos los modelos de Pure Storage FlashArray. 

    Nota: En el caso de una instalación de ESXi sin estado, si se aplica un perfil de host anterior, se sobrescriben las reglas nuevas después de la actualización.

    El problema está resuelto en esta versión.

  • El proceso del controlador lsi_mr3 y de hostd podría dejar de responder debido a un error de asignación de memoria en ESXi 6.5

    El controlador lsi_mr3 asigna memoria desde el espacio de direcciones inferior a 4 GB. El complemento de capacidad de servicio lsu-lsi-lsi-mr3-plugin y el controlador lsi_mr3 del disco de vSAN se comunican entre sí. Cuando se controla el evento IOCTL desde storelib, el controlador podría dejar de responder durante la asignación de memoria. Como resultado, puede que lsu-lsi-lsi-mr3-plugin deje de responder y también podría producirse error en el proceso hostd incluso después del reinicio de hostd. 

    Este problema se resuelve en esta versión con un cambio de código en el complemento lsu-lsi-lsi-mr3-plugin del controlador lsi_mr3 y el establecimiento de un valor de tiempo de espera de 3 segundos para obtener la información del dispositivo y así evitar errores del complemento y de hostd.

  • Cuando se agrega en caliente un disco virtual nuevo o existente a una máquina virtual con CBT habilitado que se encuentra en el almacén de datos de VVOL, el sistema operativo invitado puede dejar de responder

    Cuando se agrega en caliente un disco virtual nuevo o existente a una máquina virtual con el seguimiento de bloques modificados (Changed Block Tracking, CBT) habilitado que se encuentra en el almacén de datos de VVOL, el sistema operativo invitado puede dejar de responder hasta que se complete el proceso de adición en caliente. La falta de respuesta de la máquina virtual depende del tamaño del disco virtual que se agregue. La máquina virtual se recupera automáticamente una vez que se completa la adición en caliente. 

    El problema se resolvió en esta versión.

  • Cuando se utiliza vSphere Storage vMotion, el UUID de un disco virtual podría cambiar

    Cuando se utiliza vSphere Storage vMotion en almacenamiento de vSphere Virtual Volumes, puede que el UUID de un disco virtual cambie. El UUID identifica el disco virtual. Cuando se cambia el UUID, el disco virtual aparece como un disco nuevo diferente. El UUID también es visible para el sistema operativo invitado y puede provocar que las unidades no se identifiquen correctamente. 

    El problema está resuelto en esta versión.

  • Un host ESXi podría dejar de responder si se cancela la asignación de un LUN en el lado de la matriz de almacenamiento

    Un host ESXi podría dejar de responder si se cancela la asignación de LUN en el lado de la matriz de almacenamiento para dichos LUN mientras está conectado a un host ESXi a través del adaptador de canal de fibra de Emulex o Broadcom (el controlador es lpfc) y tiene E/S en ejecución.

    El problema está resuelto en esta versión.

  • Es posible que un host ESXi deje de responder si el volumen VMFS-6 no tiene espacio para el diario

    Cuando se abre un volumen VMFS-6, asigna un bloque de diario. Tras una asignación correcta, se inicia un subproceso en segundo plano. Si no queda espacio en el volumen para el diario, se abre en modo de solo lectura y no se inicia ningún subproceso en segundo plano. Cualquier intento de cerrar el volumen genera intentos de reactivación de un subproceso inexistente. Esto genera error del host ESXi.

    El problema está resuelto en esta versión.

  • Si las máquinas virtuales que se ejecutan en un host ESXi tienen vRDM de gran capacidad y usan la característica SPC4, podría generarse un error del host ESXi con pantalla de color morado

    Cuando las máquinas virtuales utilizan la característica SCP4 con el comando Get LBA Status para consultar características de aprovisionamiento fino de grandes vRDM asociadas, es posible que el procesamiento de este comando se ejecute durante un largo período en el kernel ESXi sin abandonar la CPU. El elevado uso de la CPU puede hacer que el proceso Watchdog de latido de la CPU se considere un proceso que no responde, y el host ESXi podría dejar de responder. 

    El problema está resuelto en esta versión.

  • Un host ESXi podría producir un error con una pantalla de color morado si el almacén de datos de VMFS6 está montado en varios hosts ESXi, mientras que disk.vmdk tiene bloques de archivos asignados desde una mayor parte en el mismo almacén

    Un archivo de VMDK puede residir en un almacén de datos de VMFS6 que está montado en varios hosts ESXi (por ejemplo, 2 hosts, host 1 ESXi y host 2 ESXi). Cuando se aumenta la capacidad del almacén de datos de VMFS6 desde host 1 ESXi, mientras se lo tiene montado en host 2 ESXi, y disk.vmdk tiene bloques de archivos asignados desde una mayor parte del almacén de datos de VMFS6 desde host 1 ESXi. Ahora, si se accede al archivo disk.vmdk desde host 2 ESXi, y si los bloques de archivo se asignan a él desde host 2 ESXi, el host 2 ESXi podría producir error con una pantalla de color morado.

    El problema está resuelto en esta versión.

  • Después de la instalación o actualización, determinados LUN de múltiples rutas no serán visibles

    Si las rutas de acceso a un LUN tienen diferentes identificadores de LUN en el caso de múltiples rutas, PSA no registra el LUN y los usuarios finales no lo pueden ver. 

    El problema está resuelto en esta versión.

  • Se pueden producir errores en la operación de redacción a través de Horizon View en una máquina virtual que reside en almacenes de datos de NFS

    Es posible que la operación de redacción con Horizon View no se realice correctamente en las máquinas virtuales de escritorio que residen en almacenes de datos de NFS y se muestren errores Identificador de archivo NFS obsoleto, debido a la forma en que se escriben los descriptores de disco virtual en los almacenes de datos de NFS. 

    El problema está resuelto en esta versión.

  • Se puede producir un error en un host ESXi con una pantalla de color morado debido a un error de latido de CPU

     Se puede producir un error en un host ESXi y se puede mostrar una pantalla de color morado debido a un error de latido de la CPU solamente si se utiliza SEsparse para la creación de snapshots y clones de máquinas virtuales. El uso de SEsparse puede producir bloqueos de CPU con un mensaje de advertencia en los logs de VMkernel, seguido de una pantalla de color morado: 

    PCPU <cpu-num>  didn't have a heartbeat for <seconds>  seconds; *may* be locked up.

    El problema se resolvió en esta versión.

  • La búsqueda frecuente se deshabilita en el directorio de metadatos de vSAN interno (.upit) de los almacenes de datos de Virtual Volumes. Esta carpeta de metadatos no es aplicable a Virtual Volumes

    Es posible que la búsqueda frecuente en un directorio de metadatos de vSAN (.upit) de los almacenes de datos de Virtual Volumes afecte su rendimiento. El directorio .upit no es aplicable a los almacenes de datos de Virtual Volumes. El cambio deshabilita la búsqueda en el directorio .upit

    El problema se resolvió en esta versión.

  • Se pueden producir problemas de rendimiento en una máquina virtual con Windows después de la actualización a VMware ESXi 6.5.0 P01 o 6.5 EP2 

    Se pueden producir problemas de rendimiento cuando se reciben solicitudes de cancelación de asignación no alineadas desde el sistema operativo invitado en ciertas condiciones. Según el tamaño y el número de las cancelaciones de asignación no alineadas, esto puede ocurrir cuando se elimina una gran cantidad de archivos pequeños (menos de 1 MB de tamaño) desde el sistema operativo invitado. 

    El problema se resolvió en esta versión.

  • Los hosts ESXi 5.5 y 6.x dejan de responder después de funcionar durante 85 días

    Los hosts ESXi 5.5 y 6.x dejan de responder después de funcionar durante 85 días. En el archivo de log /var/log/vmkernel, se muestran entradas similares a las siguientes: 

    YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved a PUREX IOCB woh oo
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved the PUREX IOCB.
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): sizeof(struct rdp_rsp_payload) = 0x88
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674qlnativefc: vmhba2(5:0.0): transceiver_codes[0] = 0x3
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): transceiver_codes[0,1] = 0x3, 0x40
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Stats Mailbox successful.
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Sending the Response to the RDP packet
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674 0 1 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)--------------------------------------------------------------
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 53 01 00 00 00 00 00 00 00 00 04 00 01 00 00 10
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) c0 1d 13 00 00 00 18 00 01 fc ff 00 00 00 00 20
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 88 00 00 00 b0 d6 97 3c 01 00 00 00
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 0 1 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)--------------------------------------------------------------
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 02 00 00 00 00 00 00 80 00 00 00 01 00 00 00 04
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 18 00 00 00 00 01 00 00 00 00 00 0c 1e 94 86 08
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 0e 81 13 ec 0e 81 00 51 00 01 00 01 00 00 00 04
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 2c 00 04 00 00 01 00 02 00 00 00 1c 00 00 00 01
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 40 00 00 00 00 01 00 03 00 00 00 10
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)50 01 43 80 23 18 a8 89 50 01 43 80 23 18 a8 88
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 01 00 03 00 00 00 10 10 00 50 eb 1a da a1 8f

    Este es un problema de firmware y se produce cuando los parámetros de diagnóstico de lectura (Read Diagnostic Parameters, RDP) entre el conmutador de canal de fibra (Fibre Channel, FC) y el adaptador de bus en caliente (Hot Bus Adapter, HBA) producen errores 2048 veces. El adaptador HBA deja de responder y debido a esto pueden producirse errores en la máquina virtual o el host ESXi. De forma predeterminada, la rutina RDP se inicia en el conmutador de FC y se produce una vez por hora, y esto provoca que se alcance el límite de 2048 en aproximadamente 85 días. 

    El problema está resuelto en esta versión.

  • Resolver la caída de rendimiento en dispositivos Intel con limitaciones de tamaño de fracción 

    Algunos dispositivos Intel, por ejemplo, P3700, P3600 y otros, tienen una limitación específica del proveedor sobre su hardware o firmware. Debido a esta limitación, todas las operaciones de E/S en el tamaño de fracción (o límite) que se proporcionan al dispositivo NVMe pueden verse afectadas con una caída significativa en el rendimiento. Este problema se resuelve desde el controlador tras comprobar todas las operaciones de E/S y dividir el comando en caso de que cruce la fracción en el dispositivo.

    El problema está resuelto en esta versión.

  • Eliminar el restablecimiento redundante de la controladora al iniciar la controladora

    El controlador puede restablecer la controladora dos veces (deshabilitarla, habilitarla, deshabilitarla y, por último, habilitarla) cuando se inicia la controladora. Esta es una solución alternativa del emulador QEMU para una versión anterior, pero puede retrasar la visualización de algunas controladoras. Según las especificaciones de NVMe, se necesita un solo restablecimiento, es decir, deshabilitar y habilitar la controladora. Esta actualización elimina el restablecimiento redundante de la controladora cuando se inicia la controladora. 

    El problema está resuelto en esta versión.

  • Si la máquina virtual con discos virtuales grandes utiliza la característica SPC-4, se pueden producir errores en un host ESXi con una pantalla de color morado

    Es posible que un host ESXi deje de responder y se muestre una pantalla de color morado con entradas similares a las siguientes como resultado de un bloqueo de CPU. 

    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]@BlueScreen: PCPU x: no heartbeat (x/x IPIs received)
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Code start: 0xxxxx VMK uptime: x:xx:xx:xx.xxx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Saved backtrace from: pcpu x Heartbeat NMI
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]MCSLockWithFlagsWork@vmkernel#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PB3_Read@esx#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PB3_AccessPBVMFS5@esx#nover+00xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3FileOffsetToBlockAddrCommonVMFS5@esx#nover+0xx stack:0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_ResolveFileOffsetAndGetBlockTypeVMFS5@esx#nover+0xx stack:0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_GetExtentDescriptorVMFS5@esx#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_ScanExtentsBounded@esx#nover+0xx stack:0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3GetFileMappingAndLabelInt@esx#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Fil3_FileIoctl@esx#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]FSSVec_Ioctl@vmkernel#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]FSS_IoctlByFH@vmkernel#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFsEmulateCommand@vmkernel#nover+0xx stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSI_FSCommand@vmkernel#nover+0xx stack: 0x1
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSI_IssueCommandBE@vmkernel#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIExecuteCommandInt@vmkernel#nover+0xx stack: 0xb298e000
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PVSCSIVmkProcessCmd@vmkernel#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PVSCSIVmkProcessRequestRing@vmkernel#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PVSCSI_ProcessRing@vmkernel#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VMMVMKCall_Call@vmkernel#nover+0xx stack: 0xx
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VMKVMM_ArchEnterVMKernel@vmkernel#nover+0xe stack: 0x0

    Esto ocurre si la versión de hardware de la máquina virtual es 13 y utiliza la característica SPC-4 para el disco virtual grande. 

    El problema está resuelto en esta versión.

  • No está disponible el dispositivo de consola Marvell en la controladora Marvell 9230 AHCI

    Según el log del kernel, el dispositivo ATAPI se debe exponer en uno de los puertos AHCI de la controladora Marvell 9230. Este dispositivo de consola Marvell es una interfaz para configurar el RAID de la controladora Marvell 9230 AHCI, que se utiliza en algunas herramientas de CLI de Marvell. 

    Como resultado del comando esxcfg-scsidevs -l, el host equipado con la controladora Marvell 9230 no puede detectar el dispositivo SCSI con el nombre para mostrar Procesador Marvell local

    La información en el log del kernel es:
    WARNING: vmw_ahci[XXXXXXXX]: scsiDiscover:the ATAPI device is not CD/DVD device 

    El problema está resuelto en esta versión. 

  • La congestión de SSD puede provocar la falta de respuesta de varias máquinas virtuales

    Según la carga de trabajo y el número de máquinas virtuales, los grupos de discos en el host pueden entrar en estado de pérdida permanente de dispositivo (Permanent Device Loss, PDL). Esto hace que los grupos de discos no admitan más E/S, lo cual los deja inutilizables hasta que se lleva a cabo una intervención manual.

    El problema está resuelto en esta versión.

  • Al ejecutar HBR + CBT en un almacén de datos que admite la cancelación de asignación, es posible que se produzcan errores en un host ESXi y se muestre una pantalla de color morado

    La funcionalidad de ESXi que permite las solicitudes de cancelación de asignación no alineadas no tuvo en cuenta el hecho de que la solicitud de cancelación de asignación puede producirse en un contexto sin bloqueo. Si la solicitud de cancelación de asignación no está alineada y el contexto de la solicitud es sin bloqueo, es posible que se muestre una pantalla de color morado. Las solicitudes de cancelación de asignación no alineadas comunes en un contexto sin bloqueo, por lo general, se producen en entornos de HBR. 

    El problema está resuelto en esta versión.

  • Se puede perder la conectividad entre un host ESXi y el almacén de datos de VMFS

    Debido a una fuga de memoria en el módulo LVM, el controlador LVM se puede quedar sin memoria en ciertas condiciones, lo que hace que el host ESXi pierda acceso al almacén de datos de VMFS.

    El problema se resolvió en esta versión.

Problemas de hardware compatible
  • La NIC de Intel I218 se restablece con frecuencia en un escenario de tráfico intenso

    Cuando la función TSO está habilitada en el controlador NE1000, la NIC I218 se restablece con frecuencia si el tráfico es intenso debido al problema de hardware de I218. La función TSO de NE1000 para la NIC I218 debe estar deshabilitada. 

    El problema está resuelto en esta versión.

Problemas de actualización e instalación
  • Una actualización importante del host ESXI a la versión 6.5 mediante vSphere Update Manager genera un error si el host se inició con una imagen dd 

    Una actualización importante del host ESXi a la versión 6.5 mediante vSphere Update Manager genera el error No se puede ejecutar el script de actualización en el host si el host se inició con una imagen dd. 

    El problema está resuelto en esta versión.

  • Se muestra la versión anterior del perfil de software de un host ESXi después de una actualización del perfil de software, y el nombre de perfil de software no se marca como actualizado después de una actualización ISO

    Se muestra la versión anterior del perfil de software de un host ESXi en el resultado del comando esxcli software profile get después de la ejecución de un comando esxcli software profile update. Además, el nombre del perfil de software no se marca como actualizado en el resultado del comando esxcli software profile get después de una actualización ISO. 

    Esto está resuelto en esta versión.

  • No se puede recopilar el paquete de vm-support desde un host ESXi 6.5

    No se puede recopilar el paquete de vm-support desde un host ESXi 6.5 debido a que, cuando se generan registros en ESXi 6.5 con vSphere Web Client, el cuadro de texto Seleccionar registros específicos para exportar queda en blanco. Las opciones de red, almacenamiento, tolerancia a errores, hardware y otras también se muestran en blanco. Este problema se produce cuando el puerto rhttpproxy para /cgi-bin contiene un valor diferente de 8303.

    El problema está resuelto en esta versión.

  • La instalación en una máquina TPM 1.2 se bloquea al principio del arranque

    La instalación de ESXi 6.5 deja de responder en un sistema con el chip TPM 1.2. Si se especifica tbootdebug como parámetro de línea de comandos, el último mensaje de log es el siguiente: 

    Relocating modules and starting up the kernel...
    TBOOT: **************TBOOT ******************
    TBOOT: TPM family: 1.2

    El problema está resuelto en esta versión.

  • Se genera el error RuntimeError en vSphere Update Manager 

    La operación de análisis de un host no se realiza correctamente y se muestra el error RuntimeError en el módulo ImageProfile si el módulo contiene VIB para una combinación de hardware específica. Lo que provoca el error es un problema de transición de código entre Python 2 y Python 3. 

    El problema está resuelto en esta versión.

  • Se pueden producir errores en un host ESXi con una pantalla de color morado cuando el sistema no puede reconocer ni reservar recursos para el dispositivo USB

    El host ESXi puede generar errores y se puede mostrar una pantalla de color morado al arrancar el host ESXi en los siguientes servidores de Oracle: X6-2, X5-2 y X4-2, y el seguimiento inverso puede mostrar que la causa del problema es el error pcidrv_alloc_resource. El problema se produce debido a que el sistema no puede reconocer ni reservar recursos para el dispositivo USB. 

    El problema está resuelto en esta versión.

Problemas en vCenter Server, vSphere Web Client y vSphere Client
  • Se muestra un mensaje de advertencia después de instalar vSphere Client para Windows de escritorio e intentar conectarse a un host ESXi 

    vSphere Client de escritorio quedó obsoleto en vSphere 6.5 y ya no es compatible. Cuando el usuario intenta conectarse a un host ESXi 6.5, se muestra el siguiente mensaje de advertencia: Los archivos de soporte del cliente requeridos deben recuperarse del servidor "0.0.0.0" e instalarse. Haga clic en Ejecutar el instalador o Guardar el instalador.

    En este caso, utilice VMware Host Client para realizar operaciones de administración del host. 

Problemas en la administración de máquinas virtuales
  • El contador de rendimiento cpu.system muestra incorrectamente un valor de 0 (cero)

    El contador de rendimiento cpu.system se calcula incorrectamente para una máquina virtual. El valor del contador siempre es 0 (cero) y nunca cambia, lo que hace que no sea posible realizar ningún tipo de análisis de datos en él.

    El problema se resolvió en esta versión.

  • La máquina virtual puede dejar de responder debido a una caída de la memoria activa

    Si la memoria activa de una máquina virtual que se ejecuta en un host ESXi queda en 1 % y cae a cero, el host puede comenzar a recuperar memoria incluso si el host tiene suficiente memoria libre.

    El problema se resolvió en esta versión.

  • La máquina virtual deja de responder durante la consolidación de instantáneas

    Durante la consolidación de snapshots, se puede realizar un cálculo preciso para determinar el espacio de almacenamiento requerido a fin de llevar a cabo la consolidación. Este cálculo preciso puede provocar que la máquina virtual deje de responder debido a que tarda mucho tiempo en completarse. 

    El problema se resolvió en esta versión.

  • La colocación incorrecta de NUMA de una máquina virtual previamente asignada hace que el rendimiento no sea óptimo

    Una máquina virtual previamente asignada asigna toda su memoria durante el encendido. Sin embargo, puede suceder que el programador seleccione un nodo NUMA incorrecto para esta asignación inicial. En particular, es posible que la opción numa.nodeAffinity de vmx no se respete. Se puede observar una degradación del rendimiento en el sistema operativo invitado debido a esto. 

    Las máquinas virtuales configuradas con la sensibilidad de latencia establecida en alta o con un dispositivo de acceso directo, por lo general, se asignan previamente. 

    El problema se resolvió en esta versión.

  • La máquina virtual puede dejar de responder

    Cuando se crea una instantánea de una máquina virtual, esta puede dejar de responder. 

    El problema se resolvió en esta versión.

  • vSphere Storage vMotion puede producir un mensaje de error si tarda más de 5 minutos

    La máquina virtual de destino de vSphere Storage vMotion se detiene incorrectamente por una validación de configuración periódica de la máquina virtual. La instancia de vSphere Storage vMotion que tarda más de 5 minutos muestra el mensaje de error The source detected that the destination failed to resume.
    El log de VMkernel del host ESXi contiene el mensaje D: Migration cleanup initiated, the VMX has exited unexpectedly. Check the VMX log for more details

    El problema está resuelto en esta versión. 

  • La pila de administración de la máquina virtual no controla correctamente un archivo de copia de seguridad que se especificó como un archivo FileBackingInfo genérico, lo que provoca que la máquina virtual no se vuelva a configurar correctamente

    Se pueden producir errores al asociar un disco en otra carpeta que no sea la carpeta de la máquina virtual mientras la máquina virtual está encendida si se inicia mediante vSphere API directamente con un ConfigSpec que especifica el archivo de copia de seguridad de disco que utiliza la clase genérica vim.vm.Device.VirtualDevice.FileBackingInfo, en lugar de la clase de copia de seguridad específica de tipo de disco, como vim.vm.Device.VirtualDisk.FlatVer2BackingInfo, vim.vm.Device.VirtualDisk.SeSparseBackingInfo.

    El problema está resuelto en esta versión.

  • La migración de una máquina virtual con vMotion se suspende durante un tiempo, y después se generan errores de tiempo de espera

    Si una máquina virtual tiene un controlador (especialmente un controlador de gráficos) o una aplicación que fija demasiada memoria, crea una página rápida en la máquina virtual. Cuando esta máquina virtual está a punto de migrarse con vMotion a otro host, el proceso de migración se suspende y más tarde se produce un error debido a cálculos de entrada/salida pendientes incorrectos. 

    El problema está resuelto en esta versión.

  • Es posible que se produzca un error de una operación de reconfiguración de una máquina virtual encendida que establece una opción de extraConfig con un valor entero con error de sistema

    La operación de reconfiguración deja de responder en error de sistema en las siguientes condiciones: 

    • La máquina virtual está encendida. 
    • ConfigSpec incluye una opción de extraConfig con un valor entero. 


    El error de sistema es activado por un TypeMismatchException, que puede verse en los registros de hostd en el host ESXi con el mensaje: 

    Unexpected exception during reconfigure: (vim.vm.ConfigSpec) { } Type Mismatch: expected: N5Vmomi9PrimitiveISsEE, found: N5Vmomi9PrimitiveIiEE. 

    El problema está resuelto en esta versión. 

  • No se eliminan los archivos VMDK de resumen de la carpeta de máquina virtual cuando se elimina una máquina virtual

    Cuando se crea un clon vinculado a partir de un archivo VMDK de resumen, vCenter Server marca el archivo de disco de resumen como no eliminable. Por lo tanto, cuando se elimina la máquina virtual correspondiente, el archivo VMDK de resumen no se elimina de la carpeta de máquina virtual debido a la entrada ddb ddb.deletable = FALSE en el archivo descriptor.

    El problema está resuelto en esta versión.

Problemas de Virtual Volumes
  • Es posible que los caracteres no latinos se muestren incorrectamente en los nombres de perfiles de almacenamiento de máquinas virtuales

    Los caracteres UTF-8 no se manipulan correctamente antes de transferirse a un proveedor VASA de VVol. Como resultado, el proveedor VASA no reconoce los perfiles de almacenamiento de máquinas virtuales donde se utilizan caracteres internacionales, o bien no manipula o no muestra correctamente esos caracteres. 

    El problema está resuelto en esta versión.

Problemas con VMware HA y Fault Tolerance
  • Se produce un error en el SDK de supervisión de aplicaciones invitadas de vSphere para las máquinas virtuales en las que se habilitó vSphere Fault Tolerance

    Cuando vSphere FT está habilitado en una máquina virtual protegida por vSphere HA en la que se instaló el supervisor de aplicaciones invitadas de vSphere, es posible que se produzca un error en el SDK de supervisión de aplicaciones invitadas de vSphere.

    El problema está resuelto en esta versión.

  • Un host ESXi puede presentar un error de pantalla morada cuando no se puede encender una máquina virtual secundaria con Fault Tolerance y el host se queda sin memoria

    Cuando configure una máquina virtual con Fault Tolerance habilitada y se encienda su máquina virtual secundaria desde el host ESXi con memoria insuficiente, no se puede encender la máquina virtual secundaria y el host ESXi puede producir un error con pantalla morada. 

    El problema está resuelto en esta versión.

VMware Tools
  • La variable guestinfo.toolsInstallErrCode no está desactivada en el reinicio del sistema operativo invitado cuando se instala VMware Tools

    Si la instalación de VMware Tools requiere reiniciar para completar, la variable del invitado guestinfo.toolsInstallErrCode se establece en 1603. No se borra la variable reiniciando el SO invitado.

    El problema está resuelto en esta versión.

  • Se incluye VMware Tools 10.1.7

    Esta versión incluye VMware Tools 10.1.7. Consulte Notas de la versión de VMware Tools 10.1.7 para obtener más información.

Problemas de vSAN
  • Un host ESXi genera un error con una pantalla de diagnóstico de color morado al montar un grupo de discos de vSAN

    Debido a una condición de carrera interna en vSAN, un host ESXi podría generar un error con una pantalla de diagnóstico de color morado cuando se intenta montar un grupo de discos de vSAN.

    El problema se resolvió en esta versión.

  • Al usar objtool en un host testigo de vSAN, un host ESXi genera un error con una pantalla de diagnóstico de color morado

    Si utiliza objtool en un host testigo de vSAN, este realiza una llamada de control de E/S (ioctl) que da lugar a un puntero NULL en el host ESXi y el host se bloquea.

    El problema está resuelto en esta versión.

  • Los hosts de un clúster de vSAN sufren una gran congestión que provoca que el host se desconecte

    Si se encuentran componentes de vSAN que incluyen metadatos no válidos cuando se está iniciando un host ESXi, se puede producir una pérdida de recuentos de referencias a bloques SSD. Si esos componentes se eliminan debido a cambios de directivas, desinstalación de discos u otros métodos, los recuentos de referencia perdidos provocan que se bloquee la siguiente E/S al bloque SSD. Los archivos de registro pueden crecer considerablemente, lo que genera una gran congestión y el host se desconecta. 

    El problema está resuelto en esta versión.

  • No se puede habilitar vSAN ni agregar un host ESXi a un clúster de vSAN debido a que existen discos dañados

    Cuando se habilita vSAN o se agrega un host a un clúster de vSAN, la operación puede fallar si en el host hay dispositivos de almacenamiento dañados. Después de la operación, en el host hay zdumps de Python y el comando vdq -q genera un volcado de núcleo en el host afectado.

    El problema está resuelto en esta versión.

  • El asistente para configurar vSAN envía una advertencia de NIC física por falta de redundancia cuando se configura LAG como vínculo superior activo

    Cuando el puerto de vínculo superior forma parte de un grupo de agregación de enlaces (LAG, Link Aggregation Group), el LAG proporciona redundancia. Si el número del puerto de vínculo superior es 1, el asistente para configurar vSAN envía una advertencia para indicar que la NIC física no tiene redundancia. 

    El problema está resuelto en esta versión.

  • Un clúster de vSAN se particiona después del reinicio de los hosts miembros y vCenter Server

    Si los hosts existentes en un clúster de vSAN unidifusión y vCenter Server se reinician al mismo tiempo, es posible que se particione el clúster. vCenter Server no gestiona correctamente actualizaciones inestables de la propiedad vpxd durante un reinicio simultáneo de hosts y vCenter Server. 

    El problema está resuelto en esta versión.

  • Un host ESXi genera un error con una pantalla de diagnóstico de color morado debido a un ajuste incorrecto de la cuota de memoria caché de lectura

    El mecanismo de vSAN que controla la cuota de memoria caché de lectura podría realizar ajustes incorrectos que produzcan un error en el host con una pantalla de diagnóstico morada.

    El problema está resuelto en esta versión.

  • El supervisor de capacidad de vSAN notifica la sobrecarga del sistema de archivos de gran tamaño

    Cuando en un clúster de vSAN están habilitadas la desduplicación y la compresión, Desglose de capacidad utilizada (Supervisar > vSAN > Capacidad) muestra incorrectamente el porcentaje de capacidad de almacenamiento utilizada para la sobrecarga del sistema de archivos. Ese número no refleja la capacidad real que se utiliza para las actividades del sistema de archivos. Es preciso que la pantalla refleje correctamente la sobrecarga del sistema de archivos para un clúster de vSAN con desduplicación y compresión habilitadas.

    El problema está resuelto en esta versión.

  • La comprobación de estado de vSAN informa de un problema de ejecución de CLOMD debido a que existen objetos de intercambio con un tamaño de 0 bytes

    Si un clúster de vSAN tiene objetos con un tamaño de 0 bytes y dichos objetos incluyen algún componente que necesite reparación, CLOMD podría bloquearse. El registro de CLOMD /var/run/log/clomd.log podría mostrar registros similares al siguiente: 

    2017-04-19T03:59:32.403Z 120360 (482850097440)(opID:1804289387)CLOMProcessWorkItem: Op REPAIR starts:1804289387
    2017-04-19T03:59:32.403Z 120360 (482850097440)(opID:1804289387)CLOMReconfigure: Reconfiguring ae9cf658-cd5e-dbd4-668d-020010a45c75 workItem type REPAIR

    2017-04-19T03:59:32.408Z 120360 (482850097440)(opID:1804289387)CLOMReplacementPreWorkRepair: Repair needed. 1 absent/degraded data components for ae9cf658-cd5e-dbd4-668d-020010a45c75 found

    La comprobación del estado de vSAN informa de un problema de ejecución de CLOMD. Cada vez que se reinicia CLOMD, se bloquea al intentar reparar el objeto afectado. Los objetos de intercambio son los únicos objetos de vSAN que pueden tener un tamaño de cero bytes.

    El problema está resuelto en esta versión.

  • La API de vSphere FileManager.DeleteDatastoreFile_Task no elimina objetos DOM en vSAN

    Si se eliminan archivos vmdk del almacén de datos de vSAN con la API FileManager.DeleteDatastoreFile_Task, mediante scripts de filebrowser o SDK, no se eliminan los objetos DOM subyacentes.

    El tamaño de estos objetos puede crecer con el tiempo y ocupar un espacio considerable en el almacén de datos de vSAN.

    El problema está resuelto en esta versión.

  • Debido a un estado de carrera interna, se produce un error en un host de un clúster de vSAN que genera una pantalla de diagnóstico morada

    Cuando se reinicia un host de un clúster de vSAN, puede producirse un estado de carrera entre el código relog de PLOG y el código de detección de dispositivos de vSAN. Ese estado puede dañar las tablas de memoria y hacer que el host ESXi falle y muestre una pantalla de diagnóstico morada.  

    El problema está resuelto en esta versión.

vSphere Command-Line Interface
  • No se pueden cambiar algunas configuraciones ESXi avanzadas a través de los comandos de vSphere Web Client o esxcli

    No se pueden cambiar algunas configuraciones ESXi avanzadas como /Net/NetPktSlabFreePercentThreshold debido al valor predeterminado incorrecto. Este problema se resuelve al cambiar el valor predeterminado. 

    El problema está resuelto en esta versión.

Problemas conocidos

Los problemas conocidos se agrupan del siguiente modo:

Problemas de instalación
  • Se puede producir un error al instalar un VIB no firmado con la opción de comprobación --no-sig en un host ESXi con el arranque seguro habilitado

    Instalar VIB no firmados en un host ESXi de arranque seguro estará prohibido debido a que los vib no firmados impiden que el sistema arranque. La comprobación de firma VIB es obligatoria en un host ESXi de arranque seguro.

    Solución alternativa: Utilice solo VIB firmados en hosts ESXi de arranque seguro.

  • Los intentos de instalar o actualizar un host ESXi mediante comandos ESXCLI o vSphere PowerCLI pueden fallar para los VIB esx-base, vsan y vsanhealth

    A partir de ESXi 6.5 Update 1 y versiones posteriores, existe una dependencia entre el VIB esx-tboot y el VIB esx-base, y el VIB esx-tboot también debe incluirse como parte del comando vib update para instalar o actualizar correctamente los hosts ESXi.

    Solución alternativa: Incluya también el VIB esx-tboot como parte del comando vib update. Por ejemplo:

    esxcli software vib update -n esx-base -n vsan -n vsanhealth -n esx-tboot -d /vmfs/volumes/datastore1/update-from-esxi6.5-6.5_update01.zip
  • La corrección de una línea base en ESX 6.5 Update 1 puede generar un error en un host ESXi con el arranque seguro habilitado

    Si usa vSphere Update Manager para actualizar un host ESXi en una línea base de actualización que contiene una imagen de ESXi 6.5 Update 1, es posible que se produzca un error en la actualización si el host tiene habilitado el arranque seguro.

    Solución alternativa: Puede utilizar una línea base de revisión de vSphere Update Manager en vez de una línea base de actualización de host.

Problemas varios
  • El cambio en las versiones de firmware de BIOS, BMC y PLSA no se muestra en la interfaz de usuario de consola directa (DCUI)

    La DCUI proporciona información acerca de las versiones de hardware y cuando cambian, la DCUI permanece en blanco. 

    Solución alternativa: Inicie los servicios WBEM mediante el comando: esxcli system wbem set --enabled​

  • Una alta carga de lectura de imágenes ISO de VMware Tools puede causar daños en los medios con tecnología flash

    En el entorno de VDI, una alta carga de lectura de imágenes de VMware Tools puede producir daños en los medios con tecnología flash. 

    Solución alternativa: 

    Puede copiar todos los datos de VMware Tools en su propio disco RAM. Por lo tanto, los datos se podrán leer de los medios con tecnología flash solo una vez por arranque. Todas las demás lecturas van al disco RAM. vCenter Server Agent (vpxa) tiene acceso a estos datos a través del directorio /vmimages que tiene vínculos simbólicos que apuntan a productLocker.

    Para activar la característica, siga los siguientes pasos:

    1. Utilice el comando para establecer la opción avanzada ToolsRamdisk como 1:

      esxcli system settings advanced set -o /UserVars/ToolsRamdisk -i 1

    2. Reinicie el host. 
Problemas de redes
  • El controlador de Intel i40en no permite desactivar hardware debido a la depuración de la capacidad de la etiqueta de VLAN de RX

    Para el controlador i40en de Intel, el hardware siempre quita la etiqueta de VLAN de RX y no se puede deshabilitar mediante el siguiente comando de vsish:

    vsish -e establecer /net/pNics/vmnicX/hwCapabilities/CAP_VLAN_RX 0

    Solución alternativa: Ninguna.

  • Puede producirse un error al agregar un vínculo superior físico a un conmutador virtual en VMware Host Client

    Agregar un adaptador de red física, o un vínculo superior, a un conmutador virtual en VMware Host Client podría fallar si selecciona Redes > Conmutadores virtuales> Agregar vínculo superior.

    Solución alternativa:

    1. Haga clic con el botón secundario en el conmutador virtual que desee editar y, a continuación, en Editar configuración.
    2. Haga clic en Agregar vínculo superior para agregar un nuevo vínculo superior físico al conmutador virtual.
    3. Haga clic en Guardar.
Problemas de almacenamiento
  • El almacén de datos VMFS no está disponible después de reiniciar un host ESXi para los dispositivos de la matriz solo con ATS

    Si el destino conectado al host ESXi admite solo ALUA implícita y tiene rutas de acceso de solo en espera, el dispositivo se registra, pero los atributos de dispositivo relacionados con acceso de medios no se rellenan. Si se agrega una ruta activa en el registro de publicaciones, podría demorarse hasta cinco minutos para que los atributos VAAI se actualicen. Como resultado, los volúmenes VMFS, configurados con solo ATS, pueden no montarse correctamente hasta la actualización de VAAI.

    Solución alternativa: Si el destino es compatible con las rutas de acceso de solo en espera y tiene solo ALUA implícita, habilite la opción de configuración FailDiskRegistration en el host mediante el siguiente comando de CLI de ESXi: esxcli system settings advanced set -o /Disk/FailDiskRegistration -i 1

    Para que surta efecto, debe establecer la opción de configuración y reiniciar el host. Esto retrasará el registro de los dispositivos hasta que vea una ruta activa.

    Nota: Si habilita esta opción de configuración en un entorno con el dispositivo de destino ALUA implícito y explícito conectado a un host ESXi, también podría retrasarse el registro de los dispositivos de ruta de acceso en espera ALUA explícitos. 
     

  • Los comandos de administración de LED pueden producir un error al activarlos o desactivarlos en el modo HBA

    Cuando activa o desactiva los siguientes comandos LED

    esxcli storage core device set -l locator -d <device id>
    esxcli storage core device set -l error -d <device id>
    esxcli storage core device set -l off -d <device id>,

    pueden fallar en el modo HBA de algunos controladores HP Smart Array, por ejemplo, P440ar y HP H240. Además, el controlador podría dejar de responder, lo que deriva en un error en los siguientes comandos de administración: 

    Administración de LED:
    esxcli storage core device set -l locator -d <device id>
    esxcli storage core device set -l error -d <device id>
    esxcli storage core device set -l off -d <device id>

    Obtiene la ubicación del disco:esxcli storage core device physical get -d <device id>

    Este problema es específico del firmware y se activa solo mediante comandos de administración de LED en el modo HBA. No hay ningún problema en el modo RAID.

    Solución alternativa: Vuelva a intentar el comando de administración hasta que lo consiga. 

  • El complemento de capacidad de servicio de disco de vSAN lsu-lsi-lsi-mr3-plugin para el controlador lsi_mr3 es posible que presente un error que reza que no se puede obtener la información de dispositivo o que no es correcta

    El complemento de capacidad de servicio de disco de vSAN proporciona compatibilidad con información y administración extendida para discos. En vSphere 6.5 Update 1 los comandos:

    Obtener la ubicación del disco:
    esxcli storage core device physical get -d <device UID> para el disco de modo JBOD.
    esxcli storage core device raid list -d <device UID> para el disco de modo RAID.

    Administración de LED:
    esxcli storage core device set --led-state=locator --led-duration=<seconds> --device=<device UID>
    esxcli storage core device set --led-state=error --led-duration=<seconds> --device=<device UID>
    esxcli storage core device set --led-state=off -device=<device UID>

    es posible que presenten uno de los siguientes errores:
    Plugin lsu-lsi-mr3-plugin cannot get information for device with name <NAA ID>.
    El error es: Can not get device info ... or not well-formed (invalid token): ...

    Solución alternativa:
    1. Utilice el comando localcli en lugar del comando esxcli en el servidor que experimenta este problema.
    El comando localcli genera el mensaje correcto mientras que esxcli aleatoriamente puede producir un error.

Problemas en la administración de máquinas virtuales
  • VMware Host Client ejecuta acciones en todas las máquinas virtuales en un host ESXi en lugar de hacerlo en un rango seleccionado con la opción Buscar

    Cuando utiliza la opción Buscar para seleccionar un rango de máquinas virtuales en VMware Host Client, si activa la casilla para seleccionar todo y ejecuta una acción como apagar, encender o eliminar, la acción podría afectar a todas las máquinas virtuales en el host en lugar de solo afectar a la selección.

    Solución alternativa: Debe seleccionar las máquinas virtuales de forma individual.

Problemas conocidos de versiones anteriores

Para ver una lista de los problemas conocidos anteriores, haga clic aquí.

Los problemas conocidos anteriores se agrupan del siguiente modo.

    Auto Deploy e Image Builder
    • No se puede aplicar una clave SSH de usuario raíz desde un perfil de host de ESXi 6.0 a uno de ESXi 6.5
      En ESXi 6.5, la funcionalidad de perfiles de host de claves autorizadas para administrar las claves SSH de usuario raíz ha quedado en desuso. Sin embargo, la versión en desuso estaba establecida en la versión 6.0 en lugar de 6.5. Como resultado, no se puede aplicar la clave SSH de usuario raíz de un perfil de host 6.0 a un host de la versión 6.5.

      Solución alternativa: Para poder usar un perfil de host para configurar la clave SSH para el usuario raíz, será necesario crear un nuevo perfil de host de 6.5.

    • Al aplicar el perfil de host mediante el reinicio del host ESXi de destino sin estado, se genera un mensaje de error sobre una ruta de acceso a archivo no válida
      Cuando se extrae un perfil de host de un host sin estado por primera vez, se lo modifica para crear una nueva función con las entradas de usuario para la directiva de contraseñas y el almacenamiento en caché sin estado habilitado, se asocia posteriormente ese perfil al host, y se actualizan la contraseña de usuario y la función en la configuración, al reiniciar el host para aplicar el perfil de host, se produce el siguiente error:

      ERROR: EngineModule::ApplyHostConfig. Excepción: Ruta de acceso a archivo no válida

      Solución alternativa: Debe aplicar el perfil de host directamente al host:

      1. Detenga el servicio Auto Deploy y reinicie el host.

      2. Una vez iniciado el host, compruebe que el usuario local y la función se encuentren presentes en el host.

      3. Inicie sesión con las credenciales proporcionadas en la configuración.

    • Al iniciar un host sin estado mediante Auto Deploy, se puede producir un error
      Al procesar una solicitud getnameinfo, se produce una demora de entre 11 y 16 segundos, y un error en el inicio de los hosts sin estado mediante Auto Deploy cuando se cumplen las siguientes condiciones:

      • Se habilita un almacenamiento en caché de DNS local para un host sin estado al agregar el parámetro resolve en la entrada de host hosts: files resolve dns. La entrada hosts: files resolve dns forma parte del archivo de configuración /etc/nsswitch.conf de Photon.
      • Una NIC en el host obtiene su dirección IP de DHCP y la misma IP no está presente en el servidor DNS.

      Solución alternativa: En el archivo de configuración de la NIC de vCenter Server, que obtiene la dirección IP de DHCP, se establece la clave UseDNS como falsa (false):

      [DHCP] UseDNS=false

    • Un host ESXi sin estado puede permanecer en el modo de mantenimiento cuando se implementa mediante vSphere Auto Deploy y la propiedad vSphere Distributed Switch se especifica en el perfil de host
      Cuando un host ESXi sin estado se implementa mediante vSphere Auto Deploy y la propiedad vSphere Distributed Switch se especifica en el perfil de host, el host entra en el modo de mantenimiento mientras se aplica el perfil de host. Si se produce un error en el proceso, es posible que el perfil de host no se aplique y que el host no salga del modo de mantenimiento.

      Solución alternativa: En la página de perfil de host, elimine manualmente el host implementado desde el modo de mantenimiento y corríjalo.

    • Al realizar la corrección para aplicar la configuración del perfil de host en un clúster habilitado para iSCSI se produce un error en vSphere Web Client
      Después de asociar un perfil de host extraído de un host configurado con una gran cantidad de LUN a un clúster compuesto por hosts habilitados para iSCSI y después de corregir ese clúster, el proceso de corrección muestra el siguiente mensaje de error en la interfaz de vSphere Web Client:

      Se produjo un error en la operación de aplicación de perfil de host en el lote. com.vmware.vim.vmomi.client.exception.TransportProtocolException:org.apache.http.client.ClientProtocolException
      También puede ver un error en el archivo vpxd.log:
      2016-07-25T12:06:01.214Z error vpxd[7FF1FE8FB700] [Originator@6876 sub=SoapAdapter] length of HTTP request body exceeds configured maximum 20000000
      Cuando corrige un clúster, vSphere Web Client realiza una solicitud de API con datos para todos los hosts de ese clúster. Esta solicitud supera el tamaño máximo de solicitud de HTTP admitido por VPXD.

      Solución alternativa: Realice los pasos siguientes:

      1. Seleccione menos hosts en el asistente Corregir.

      2. Inicie otro asistente para los hosts restantes solo después de que se complete la corrección.

    • La opción Auto Deploy no está presente en vSphere Web Client después de una actualización o una migración del sistema vCenter Server de 5.5 o 6.0 a 6.5
      Después de actualizar o migrar el sistema vCenter Server con la versión 5.5 y 6.0 a 6.5, la opción Auto Deploy no está presente en la pantalla Configurar > Opciones de configuración en vSphere Web Client. El servicio de vSphere Auto Deploy junto con el servicio de Image Builder están instalados, pero no se inician automáticamente.

      Solución alternativa: Realice los pasos siguientes:

      1. Inicie el servicio de Image Builder manualmente.

      2. Cierre la sesión en vSphere Web Client y vuelva a iniciarla.

      3. En la página de inicio de vSphere Web Client, desplácese hasta el sistema vCenter Server y seleccione Configurar > Opciones de configuración para asignar el servicio de Auto Deploy.

    • Si asocia más de 63 hosts a un perfil de host, la página de personalización de hosts se cargará con un error
      Si extrae un perfil de host desde el host de referencia y asocia más de 63 hosts a este, el sistema de vCenter Server se sobrecargará, y el tiempo necesario para generar un archivo de respuesta específica de host excederá el límite de 120 segundos. La página de personalización se carga con un error:

      La ejecución de la consulta ha agotado el tiempo de espera debido a que el proveedor de propiedades back-end ha tardado más de 120 segundos

      Solución alternativa: Asocie el perfil de host al clúster o al host sin generar los datos de personalización:

      1. Haga clic con el botón derecho en el clúster o el host y seleccione Perfiles de host > Asociar perfil de host.

      2. Seleccione el perfil que desea asociar.

      3. Marque la casilla Omitir personalizaciones. La interfaz de vSphere Web Client no llamará a RetrieveHostCustomizationsForProfile para generar datos de personalización.

      4. Rellene los datos de personalización:

      5. Haga clic con el botón derecho en el perfil de host asociado al clúster o al host y seleccione Exportar personalizaciones de host. De este modo se generará un archivo CSV con una entrada de personalización para cada host.

      6. Rellene los datos de personalización en el archivo CSV.

      7. Haga clic con el botón derecho en el perfil de host, seleccione Editar personalizaciones de host... e importe el archivo CSV.

      8. Haga clic en Finalizar para guardar los datos de personalización.

    • Se produce un error durante el arranque de Auto Deploy con PXE del instalador ESXi en adaptadores de red Intel XL710 (40 GB)
      Cuando se usa el entorno de ejecución previa al inicio para arrancar el instalador ESXi del dispositivo de red Intel XL710 a un host, se produce un error al copiar la imagen ESXi antes de que el control se transfiera al kernel ESXi. Aparece el siguiente error:

      Descomprimido MD5: 000000000000000000000
      Error irrecuperable: 34(EOF inesperado)
      registro de serie:
      ******************************************************************
      * Booting through VMware AutoDeploy...
      *
      * Machine attributes:
      * . asset=
      * . domain=eng.vmware.com
      * . hostname=prme-hwe-drv-8-dhcp173
      * . ipv4=10.24.87.173
      * . ipv6=fe80::6a05:caff:fe2d:5608
      * . mac=68:05:ca:2d:56:08
      * . model=PowerEdge R730
      * . oemstring=Dell System
      * . oemstring=5[0000]
      * . oemstring=14[1]
      * . oemstring=17[04C4B7E08854C657]
      * . oemstring=17[5F90B9D0CECE3B5A]
      * . oemstring=18[0]
      * . oemstring=19[1]
      * . oemstring=19[1]
      * . serial=3XJRR52
      * . uuid=4c4c4544-0058-4a10-8052-b3c04f523532
      * . vendor=Dell Inc.
      *
      * Image Profile: ESXi-6.5.0-4067802-standard
      * VC Host: Ninguna
      *
      * Bootloader VIB version: 6.5.0-0.0.4067802
      ******************************************************************
      /vmw/cache/d6/b46cc616433e9d62ab4d636bc7f749/mboot.c32.f70fd55f332c557878f1cf77edd9fbff... ok

      Analizando el disco local en busca de la imagen en caché.
      Si no se encuentra ninguna imagen, el sistema se reiniciará en 20 segundos......
      <3>El sistema en el disco no es caché sin estado.
      <3>Reiniciando...

      Solución alternativa: Ninguna.

    Problemas de copia de seguridad y restauración
    • Después de una restauración basada en archivo de un dispositivo vCenter Server Appliance a una instancia de vCenter Server, se puede producir un error en algunas operaciones de vSphere Web Client, por ejemplo, durante la configuración de un clúster de alta disponibilidad o la habilitación del acceso SSH al dispositivo
      En el proceso de restauración de una instancia de vCenter Server, se implementa un nuevo dispositivo vCenter Server Appliance y se inicia el servidor HTTP del dispositivo con un certificado autofirmado. El proceso de restauración finaliza cuando se recuperan los certificados incluidos en la copia de seguridad, pero no se reinicia el servidor HTTP del dispositivo. Como consecuencia, se produce un error durante toda operación en la que se requiera realizar una llamada API interna al servidor HTTP del dispositivo.

      Solución alternativa: Una vez restaurado vCenter Server Appliance en una instancia de vCenter Server, debe iniciar sesión en el dispositivo y ejecutar el comando service vami-lighttp restart para reiniciar el servidor HTTP.

    • Los intentos de restaurar un dispositivo Platform Services Controller desde una copia de seguridad basada en archivos producen errores si se han cambiado el número de vCPU utilizadas o el tamaño de disco del dispositivo
      En vSphere 6.5, el dispositivo Platform Services Controller se implementa con 2 vCPU y un disco de 60 GB. No es posible aumentar el número de vCPU ni el tamaño de disco. Si se intenta efectuar una restauración basada en archivo de un dispositivo Platform Services Controller con más de 2 CPU o un tamaño de disco mayor de 60 GB, el instalador de vCenter Server Appliance falla con el error: No hay ningún tamaño posible que coincida con su conjunto de requisitos.

      Solución alternativa: Disminuya el número de procesadores a no más de 2 vCPU y el tamaño de disco a no más de 60 GB.

    • La restauración de vCenter Server Appliance con una instancia externa de Platform Services Controller desde una copia de seguridad basada en una imagen no inicia todos los servicios de vCenter Server
      Tras usar vSphere Data Protection para restaurar vCenter Server Appliance con una instancia externa de Platform Services Controller, debe ejecutar el script vcenter-restore para completar la operación de restauración e iniciar los servicios de vCenter Server. Se puede producir el siguiente mensaje de error al ejecutar vcenter-restore: Se produjo un error en la operación. Asegúrese de que el nombre de usuario y la contraseña de SSO sean correctas y vuelva a ejecutar el script. Si el problema persiste, contacte con la asistencia VMware.

      Solución alternativa: Tras el error en la ejecución de vcenter-restore, ejecute el comando service-control --start --all para iniciar todos los servicios.

      Si se produce un error en la ejecución de service-control --start --all, asegúrese de haber introducido correctamente el nombre de usuario y la contraseña de vCenter Single Sign-On. También puede ponerse en contacto con el servicio de soporte técnico de VMware.

    Problemas de arranque desde SAN

    • No se admite la instalación de ESXi 6.5 en un canal de fibra o un LUN iSCSI con un identificador de LUN mayor que 255
      vSphere 6.5 admite identificadores de LUN de 0 a 16383. Sin embargo, debido a limitaciones de BIOS del adaptador, no se pueden usar LUN con identificadores mayores que 255 para el arranque desde una instalación de SAN.

      Solución alternativa: Para la instalación de ESXi deben usarse LUN con identificadores de hasta 255.

    Problemas de iSCSI

    • En vSphere 6.5, el nombre asignado al adaptador de iSCSI de software es diferente de las versiones anteriores
      Después de actualizar a vSphere 6.5, cambia el nombre del adaptador de iSCSI de software existente, vmhbaXX. Este cambio afecta a todos los scripts que utilizan valores codificados de forma rígida para el nombre del adaptador. Debido a que VMware no garantiza que el nombre del adaptador siga siendo el mismo en las diferentes versiones, el nombre en los scripts no se debe codificar de forma rígida. El cambio de nombre no afecta el comportamiento del adaptador de software de iSCSI.

      Solución alternativa: Ninguna.

    Problemas de migración
    • Al intentar migrar una instalación de vCenter Server o de Platform Services Controller en Windows a un dispositivo, se puede generar un mensaje de error sobre los ajustes de configuración de DNS si la instalación en Windows de origen contiene una configuración de direcciones IPv4 e IPv6 estáticas
      La migración de una instalación en Windows configurada con direcciones IPv4 e IPv6 estáticas puede generar un mensaje de error: Error durante la configuración de DNS. Detalles: Error en la operación. Código: com.vmware.applmgmt.err_operation_failed.

      El archivo de registro /var/log/vmware/applmgmt/vami.log correspondiente al dispositivo recién instalado contiene las siguientes entradas:
      INFO:vmware.appliance.networking.utils:Running command: ['/usr/bin/netmgr', 'dns_servers', '--set', '--mode', 'static', '--servers', 'IPv6_address,IPv4_address']
      INFO:vmware.appliance.networking.utils:output:
      error:
      returncode: 17
      ERROR:vmware.appliance.networking.impl:['/usr/bin/netmgr', 'dns_servers', '--set', '--mode', 'static', '--servers', 'IPv6_address,IPv4_address'] error , rc=17

      Solución alternativa:

      1. Elimine el dispositivo recién instalado y restaure la instalación en Windows de origen.

      2. En la instalación en Windows de origen, deshabilite la configuración de IPv6 o de IPv4.

      3. Desde el servidor DNS, elimine la entrada de la dirección IPv6 o IPv4 que había deshabilitado.

      4. Vuelva a intentar la migración.

      5. (Opcional) Una vez finalizada la migración, vuelva a agregar la entrada de DNS y, en el dispositivo migrado, establezca la dirección IPv6 o IPv4 que había deshabilitado.

    • Se produce un error durante la inicialización de VMware Migration Assistant al migrar vCenter Server 6.0 con SQL externo en el modo de autenticación integrada de Windows
      Como usuario sin el privilegio "Reemplazar un token de nivel de proceso", cuando migra de vCenter Server en Windows con una base de datos de Microsoft SQL Server externa configurada con "Autenticación integrada de Windows", se produce un error de inicialización del asistente de migración de VMware con un mensaje confuso que no indica la causa del error.

      Por ejemplo: No se pudieron ejecutar las comprobaciones previas a la migración.

      La base de datos de vCenter Server recopila los requisitos en un registro que se encuentra en:
      %temp/vcsMigration/CollectRequirements_com.vmware.vcdb_2016_02_04_17_50.log

      El registro contiene la entrada:
      2016-02-04T12:20:47.868Z ERROR vcdb.const Error while validating source vCenter Server database: "[Error 1314] CreateProcessAsUser: 'A required privilege is not held by the client.' "

      Solución alternativa: Compruebe que el usuario que ejecuta la migración tenga establecido el privilegio “Reemplazar un token de nivel de proceso”. Puede encontrar una guía para la configuración personalizada en la documentación en línea de Microsoft. Puede volver a ejecutar la migración después de comprobar que los permisos son correctos.

    Problemas varios
    • El complemento lsu-hpsa no funciona con el controlador hpsa nativo (nhpsa)
      El complemento lsu-hpsa no funciona con el controlador hpsa nativo (nhpsa) porque el controlador nhpsa no es compatible con la herramienta de administración de HPSA (hpssacli) actual, que utiliza el complemento lsu-hpsa. Puede que reciba los siguientes mensajes de error:

      # esxcli storage core device set -d naa.600508b1001c7dce62f9307c0604e53b -l=locator
      Unable to set device's LED state to locator. Error was: HPSSACLI call in HPSAPlugin_SetLedState exited with code 127! (from lsu-hpsa-plugin)

      # esxcli storage core device physical get -d naa.50004cf211e636a7
      Plugin lsu-hpsa-plugin cannot get information for device with name naa.50004cf211e636a7. Error was: HPSSACLI call in Cache_Update exited with code 127!

      # esxcli storage core device raid list -d naa.600508b1001c7dce62f9307c0604e53b
      Plugin lsu-hpsa-plugin cannot get information for device with name naa.600508b1001c7dce62f9307c0604e53b. Error was: HPSSACLI call in Cache_Update exited with code 127!

      Solución alternativa: Reemplace el controlador hpsa nativo (nhpsa) con el controlador de vmklinux.

    Problemas de almacenamiento varios

    • Si usa SESparse VMDK, el formateo de una máquina virtual con el sistema de archivos de Windows o Linux requerirá más tiempo
      Cuando se formatea una máquina virtual con el sistema de archivos de Windows o Linux, el proceso puede tardar más de lo habitual. Esto sucede si el disco virtual es SESparse.

      Solución alternativa: Antes de formatear, deshabilite la operación UNMAP en el sistema operativo invitado. Puede volver a habilitar la operación después de que finalice el proceso de formateo.

    • Al intentar usar el complemento VMW_SATP_LOCAL para dispositivos SAS remotos compartidos se pueden provocar problemas y errores
      En versiones anteriores a ESX 6.5, los dispositivos SAS están marcados como remotos a pesar de ser reclamados por el complemento VMW_SATP_LOCAL. En ESX 6.5, todos los dispositivos reclamados por VMW_SATP_LOCAL se marcan como locales aunque sean externos. En consecuencia, cuando actualiza a ESXi 6.5 desde versiones anteriores, todos los dispositivos SAS remotos existentes que antes se marcaban como remotos cambian su estado a local. Este cambio afecta a los almacenes de datos compartidos que están implementados en esos dispositivos y puede provocar problemas y comportamientos impredecibles.
      Además, se producen problemas en algunas funciones si se utilizan incorrectamente los dispositivos que ahora están marcados como locales, pero que en realidad son compartidos y externos. Por ejemplo, cuando permite la creación del sistema de archivos VFAT o utiliza los dispositivos para Virtual SAN.

      Solución alternativa: No utilice el complemento VMW_SATP_LOCAL para los dispositivos SAS remotos externos. Asegúrese de utilizar otro SATP aplicable de la lista compatible o un SATP único del proveedor.

    • Cuando se cierra sesión en vSphere Web Client mientras se carga un archivo en un almacén de datos, la carga se cancela y el archivo queda incompleto
      La carga de archivos de gran tamaño en un almacén de datos lleva tiempo. Si cierra sesión mientras se carga el archivo, la carga se cancela sin advertencia previa. El archivo parcialmente cargado puede permanecer en el almacén de datos.

      Solución alternativa: No cierre sesión mientras se carga un archivo. Si el almacén de datos contiene el archivo incompleto, elimine este archivo del almacén de datos manualmente.

    Problemas de redes
    • Se produce un error en la conexión cuando se conecta una vNIC a un conmutador estándar vSphere o a vSphere Distributed Switch con Network I/O Control deshabilitado
      Si una vNIC se configura con una reserva mayor que 0 y la conecta a un conmutador estándar vSphere o a vSphere Distributed Switch con Network I/O Control deshabilitado, se produce un error en la conexión con el siguiente el mensaje: Un parámetro especificado no era correcto: spec.deviceChange.device.backing.

      Solución alternativa: Ninguna.

    • La red se vuelve no disponible con dispositivos de acceso directo completos
      Si se usa un controlador ntg3 nativo con un Adaptador Ethernet Gigabit Broadcom de acceso directo, la conexión de red se volverá no disponible.

      Solución alternativa:

      • Ejecute el controlador ntg3 en modo heredado:

        1. Ejecute el comando esxcli system module parameters set -m ntg3 -p intrMode=0.

        2. Reinicie el host.

      • Utilice el controlador tg3 vmklinux como controlador predeterminado, en lugar del controlador ntg3 nativo.

    • Se produce un error cuando una aplicación de RDMA en el espacio del usuario de una máquina virtual envía o recibe datos
      Si una aplicación de RDMA invitada en el espacio del usuario utiliza pares de colas de datagramas no confiables y un identificador de grupo basado en IP para comunicarse con otras máquinas virtuales, se produce un error cuando la aplicación de RDMA envía o recibe datos o entradas de finalización de trabajo. Todas las solicitudes de trabajo que estén en los pares de colas se eliminan y no se completan.

      Solución alternativa: Ninguna.

    • Los paquetes se pierden con los servidores de sistemas IBM que tienen un dispositivo NIC USB en Universal Host Controller Interface
      Algunos servidores de sistemas IBM, como IBM BladeCenter HS22, con un dispositivo NIC USB bajo Universal Host Controller Interface, presentan problemas de redes si ejecutan el controlador USB nativo vmkusb. Los paquetes se pierden en el dispositivo NIC USB que no está en UHCI cuando se utiliza el controlador vmkusb para la NIC USB.

      Solución alternativa: Deshabilite el controlador vmkusb nativo USB y cambie al controlador USB vmklinux heredado:

      1. Ejecute el comando esxcli system module set -m=vmkusb -e=FALSE para deshabilitar el controlador USB nativo vmkusb.

      2. Reinicie el host. Durante el reinicio, se carga el controlador USB heredado.

    • Las aplicaciones invitadas del kernel reciben entradas de finalización inesperadas para solicitudes de trabajo de registro rápido no señaladas
      La comunicación RDMA entre dos máquinas virtuales que residen en un host con un vínculo superior de RDMA activo en ocasiones activa entradas de finalización falsas en las aplicaciones invitadas del kernel. Las entradas de finalización se activan erróneamente a causa de solicitudes de trabajo de registro rápido no señaladas emitidas por el protocolo de capa superior (Upper Layer Protocol, ULP) de RDMA de nivel de kernel de un invitado. Esto puede provocar desbordamientos de la cola de finalización en el ULP del kernel.

      Solución alternativa: Para evitar activar finalizaciones extrañas, ponga en hosts separados las máquinas virtuales que utilizarán solicitudes de trabajo de registro rápido.

    • No puede accederse a una máquina virtual con un dispositivo RDMA paravirtual durante una operación de snapshot o una migración de vMotion
      Las máquinas virtuales con un dispositivo RDMA paravirtual (PVRDMA) ejecutan aplicaciones RDMA para comunicarse con pares de colas del mismo nivel. Si una aplicación RDMA intenta comunicarse con un número de cola del mismo nivel que no existe, el dispositivo de PVRDMA puede esperar una respuesta del par del mismo nivel de manera indefinida. En consecuencia, no se puede acceder a la máquina virtual durante una operación de snapshot o una migración si se está ejecutando al mismo tiempo la aplicación RDMA.

      Solución alternativa: Antes de crear una snapshot o realizar una migración de vMotion con un dispositivo de PVRDMA, cierre las aplicaciones RDMA que utilizan un número de par de colas del mismo nivel que no existe.

    • Se tarda un par de horas en completar la transferencia a Netdump de un núcleo de ESXi
      Con hosts que utilizan las NIC Intel X710 o Intel X710L, la transferencia de un núcleo de ESXi a un servidor Netdump tarda un par de horas. La acción se realiza correctamente, pero la transferencia a Netdump es mucho más rápida con otras NIC.

      Solución alternativa: Ninguna.

    • Los protocolos de la capa superior de RDMA de nivel del kernel no funcionan correctamente en una máquina virtual invitada con un dispositivo RDMA paravirtual
      Los protocolos de la capa superior de RDMA de nivel del kernel, como NFS o iSER, intentan crear más recursos que los que puede proporcionar el dispositivo paravirtual RDMA (PVRDMA). En consecuencia, los módulos del kernel no se cargan. Sin embargo, RDMA Connection Manager (RDMACM) sigue funcionando.

      Solución alternativa: Ninguna.

    • El comando Abajo/Arriba activa una NIC después de más de 60 segundos
      Cuando se configura una red LAN virtual extensible (Virtual Extensible LAN, VXLAN) y se comienza a transferir tráfico de VXLAN sobre una NIC en la que se utiliza el controlador nmlx4_en, se puede producir un error en el comando esxcli network nic up al intentar activar una NIC en un intervalo de tiempo de 60 segundos. La NIC se activa con alguna demora. La ejecución más lenta del comando se produce cuando se ejecutan varias veces consecutivas los comandos de activación/desactivación y desenlace/enlace.

      Solución alternativa: Ninguna.

    • La NIC nmlx4_en de 40 Gigabits no admite Wake-On-LAN (WOL)
      WOL se admite solo en tarjetas Flexible LOM de HP de 10 Gigabits (tarjetas Mellanox de marca HP). HP no admite tarjetas de 40 Gigabits.

      Solución alternativa: Utilice tarjetas Flexible LOM de HP de 10 Gigabits si desea utilizar WOL en tarjetas nmlx4_en.

    • Los recursos compartidos de NFS no se montan al utilizar credenciales Kerberos para autenticarse en Active Directory
      Si une un sistema ESX a Active Directory y lo actualiza a la versión actual, ESX no puede montar correctamente los recursos compartidos de NFS con el keytab Kerberos si la instancia de Active Directory dejó de admitir el cifrado RC4. Esto se debe a que el keytab solo se escribe cuando ESX se une y la pila Likewise utilizada en ESX no admite el cifrado con AES para versiones anteriores.

      Solución alternativa: Debe volver a unirse a Active Directory para que se actualice el keytab del sistema.

    • La vmnic de Intel 82579LM o I217 puede perder la capacidad de respuesta de manera irrecuperable
      Se activa un problema en la vmnic de Intel 82579LM o I217 con tráfico pesado, como 4 pares de máquinas virtuales ejecutando netperf que deshabilitan y vuelven a habilitar repetidamente la emulación de software de VMkernel de capacidad de descarga del hardware. En alguno de estos ciclos, el hardware deja de responder.

      Solución alternativa:

      1. Evite deshabilitar y volver a habilitar la emulación de software de VMkernel de capacidades de descarga de hardware en el adaptador de Intel 82579LM o I217.

      2. Si se encuentra con este problema de ausencia de capacidad de respuesta, debe reiniciar el host.

    • La NIC de Intel i219 puede dejar de responder y perder conectividad de red
      Las NIC de la familia Intel i219, que aparecen como "Intel Corporation Ethernet Connection I219-LM" (en ocasiones con el sufijo "V"), pueden tener un estado de ausencia de capacidad de respuesta en lo que respecta al hardware, lo que puede provocar que el sistema pierda conectividad de red en el puerto. Este problema se activa debido a operaciones interruptoras mientras el tráfico se transmite por la NIC. Por ejemplo, puede encontrarse con este error si desactiva un vínculo con el comando esxcli network nic down vmnixX mientras copia un archivo por medio del puerto de i219. Este problema también puede activarse con tráfico pesado, como 4 pares de máquinas virtuales ejecutando netperf que deshabilitan y vuelven a habilitar repetidamente la emulación de software de VMkernel de capacidad de descarga del hardware. La NIC no funciona hasta después de reiniciar el host.

      Solución alternativa:

      1. Evite usar el puerto de la NIC i219 en trabajos críticos.

      2. Evite realizar operaciones interruptoras en los puertos de i219.

      3. Evite deshabilitar y volver a habilitar la emulación de software de VMkernel de capacidades de descarga de hardware en el adaptador de Intel I219.

      4. Cuando debe usarse i219, configure la formación de equipos y la conmutación por error con otro puerto que no sea de i219LM.

    • El controlador bnx2x causa un mensaje de error en una pantalla morada que se muestra durante la conmutación por error o por recuperación de la NIC
      Cuando se deshabilitan o habilitan los puertos VMkernel y se cambia el orden de conmutación por error de las NIC, el controlador bnx2x origina un mensaje de error en una pantalla morada.

      Solución alternativa: Utilice el controlador async.

    Problemas de NFS

    • El cliente NFS 4.1 pierde sincronización con el servidor de NFS al intentar crear nuevas sesiones
      Este problema se produce después de un período de conectividad interrumpida con el servidor de NFS, o cuando las E/S de NFS no obtienen respuestas. Cuando se produce este problema, el archivo vmwarning.log contiene una serie limitada de mensajes de advertencia similares a los siguientes:
      NFS41 CREATE_SESSION request failed with NFS4ERR_SEQ_MISORDERED

      Solución alternativa: Realice los pasos siguientes:

      1. Desmonte los almacenes de datos NFS 4.1 afectados. Si no hay archivos abiertos al desmontarlos, la operación se completa correctamente y el módulo de cliente NFS 4.1 limpia el estado interno. A continuación, se pueden volver a montar los almacenes de datos desmontados y reanudar el funcionamiento normal.

      2. Si el desmontaje del almacén de datos no soluciona el problema, deshabilite las NIC que se conectan a las direcciones IP de los recursos compartidos de NFS. Mantenga las NIC deshabilitadas hasta que caduque el tiempo de concesión del servidor y entonces vuelva a activar las NIC. Debería reanudarse el funcionamiento normal.

      3. Si los pasos anteriores no funcionan, reinicie el host ESXi.

    • Después de un reinicio de ESXi, se produce un error en el montaje de los almacenes de datos NFS 4.1 que exporta el almacenamiento EMC VNX
      Debido a un problema potencial con EMC VNX, las solicitudes para volver a montar NFS 4.1 podrían tener errores después de reiniciar un host ESXi. En consecuencia, todos los almacenes de datos NFS 4.1 exportados por este almacenamiento aparecen como desmontados.

      Solución alternativa: Espere a que caduque el tiempo de concesión de 90 segundos y vuelva a montar manualmente el volumen.

    • El montaje del mismo almacén de datos NFS con etiquetas diferentes puede generar errores cuando se intenta montar otro almacén de datos más tarde
      El problema se produce cuando se utiliza el comando esxcli para montar el mismo almacén de datos NFS en hosts ESXi distintos. Si utiliza otras etiquetas, por ejemplo, A y B, vCenter Server cambia el nombre de B a A para que el almacén de datos tenga etiquetas uniformes en todos los hosts. Si posteriormente se intenta montar un nuevo almacén de datos y se utiliza la etiqueta B, el host ESXi tendrá errores. Este problema se produce solo cuando se monta el almacén de datos NFS con el comando esxcli. Esto no afecta el montaje a través de vSphere Web Client.

      Solución alternativa: Al montar el mismo almacén de datos NFS con comandos esxcli, asegúrese de usar etiquetas uniformes en todos los hosts.

    • Es posible que no se pueda acceder a un almacén de datos NFS 4.1 exportado desde un servidor VNX
      Cuando el servidor VNX 4.1 se desconecta del host ESXi, es posible que no se pueda acceder al almacén de datos NSF 4.1. Este problema se produce si el servidor VNX cambia su número principal de manera inesperada. Sin embargo, el cliente NFS 4.1 no espera que el número principal del servidor cambie después de establecer la conectividad con el servidor.

      Solución alternativa: Elimine todos los almacenes de datos exportados por el servidor y vuelva a realizar el montaje de los mismos.

    Problemas con funciones de seguridad
    • Problemas tras ejecutar TLS ReConfigurator cuando la autenticación de tarjetas inteligentes está habilitada
      vSphere 6.5 incluye la herramienta TLS Reconfigurator, que sirve para administrar la configuración de TLS. Los usuarios instalan la herramienta expresamente. La herramienta se documenta en el artículo de KB de VMware 2147469.
      Si la herramienta se ejecuta en un entorno de vSphere 6.5 donde la autenticación de tarjetas inteligentes está habilitada en Platform Services Controller, los servicios no se inician y se genera una excepción. El error sucede al ejecutar la herramienta para cambiar las configuraciones de TLS en Platform Services Controller, y afecta a los servicios de administrador de contenido (Windows PSC) o al servicio vmware-stsd (dispositivo de Platform Services Controller).

      Solución alternativa:

      1. Abra el archivo server.xml para editarlo.

      2. Windows: C:\ProgramData\VMware\vCenterServer\runtime\VMwareSTSService\con

        Linux: /usr/lib/vmware-sso/vmware-sts/conf

      3. De las dos entradas correspondientes a la etiqueta server, quite la primera.

      4. Reinicie todos los servicios.

      En el siguiente ejemplo, se quita la primera entrada Server, pero no la segunda.

      <!--Remove the first Server entry-->
      <Server port="${base.shutdown.port}" shutdown="SHUTDOWN">
      <Listener className="org.apache.catalina.core.JreMemoryLeakPreventionListener"/>
      <Listener className="org.apache.catalina.mbeans.GlobalResourcesLifecycleListener"/>
      ...
      </Server>
      <!--Keep the second Server entry-->
      <Server port="${base.shutdown.port}" shutdown="SHUTDOWN">
      <Listener className="org.apache.catalina.core.JreMemoryLeakPreventionListener" />
      <Listener className="org.apache.catalina.mbeans.GlobalResourcesLifecycleListener" />
      ...
      </Server>

    • Se produce un error al agregar un host ESXi a entornos con varias instancias de vCenter Server y Platform Services Controller tras un equilibrador de carga
      Se configura un entorno con varias instancias de vCenter Server y Platform Services Controller tras un equilibrador de carga. El entorno usa VMCA como CA intermedia. Cuando se intenta agregar un host ESXi, se produce el siguiente error:
      No se puede obtener el certificado firmado para el nombre de host: Error: No se pudo conectar con el host remoto, motivo = rpc_s_too_many_rem_connects Cuando se intenta recuperar la CA raíz en Platform Services Controller, se produce un error en el comando tal como se muestra a continuación.
      /usr/lib/vmware-vmca/bin/certool --getrootca --server=wx-sxxx-sxxx.x.x.x Estado: Código de error: 382312518 Mensaje de error: No se pudo conectar con el host remoto, motivo = rpc_s_too_many_rem_connects (0x16c9a046)

      Solución alternativa: Reinicie el servicio VMCA en Platform Services Controller.

    • Los servicios de vCenter Server no se inician tras el reinicio o la conmutación por error si el nodo de Platform Services Controller no está disponible
      Si un nodo de Platform Services Controller no está disponible de forma temporal, y si se reinicia vCenter Server o se produce una conmutación por error de vCenter HA en ese momento, los servicios de vCenter no se inician.

      Solución alternativa: Restaure el nodo de Platform Services Controller y reinicie vCenter Server, o inicie todos los servicios desde la línea de comandos mediante este comando:
      service-control --start --all

    • El daemon de STS no se inicia en vCenter Server Appliance
      Tras instalar vCenter Server Appliance, o después de actualizar o migrar a vCenter Server Appliance 6.5, a veces el daemon del servicio de token seguro no se inicia. Este problema no es habitual, pero ocurre a veces.

      Solución alternativa: Ninguna. Este problema se ha observado cuando el DNS no resuelve localhost en la dirección bucle invertido en un entorno de IPv6. La revisión de la configuración de red puede ayudar a resolver el problema.

    • Se produce el error 400 al intentar iniciar sesión en vCenter Server desde vSphere Web Client
      Se inicia sesión en vCenter Server desde vSphere Web Client y, a continuación, se cierra la sesión. Si, tras ocho horas o más, se intenta iniciar sesión de nuevo desde la misma pestaña del explorador, aparece el siguiente error.
      400 Se produjo un error en SSO. urn:oasis:names:tc:SAML:2.0:status:Requester, sub status:null

      Solución alternativa: Cierre el explorador o la pestaña del explorador e inicie sesión de nuevo.

    • Una máquina virtual cifrada entra en estado de bloqueo (no válido) cuando vCenter Server se restaura al estado de una copia de seguridad anterior
      En la mayoría de los casos, se agrega una máquina virtual cifrada a vCenter Server mediante vSphere Web Client o vSphere API.
      No obstante, la máquina virtual se puede agregar de otras maneras, por ejemplo, cuando la máquina virtual cifrada se agrega mediante una operación de copia de seguridad empleando las funciones de copia de seguridad y restauración basadas en archivos.
      En tal caso, vCenter Server no inserta las claves de cifrado en el host ESXi. Como resultado, la máquina virtual queda bloqueada (no válida).
      Esta es una función de seguridad que impide a una máquina virtual cifrada no autorizada acceder a vCenter Server.

      Solución alternativa: Existen varias opciones.

      • Elimine del registro la máquina virtual y vuelva a registrarla con vSphere API. Puede realizar esta operación desde vSphere Web Client o desde vSphere API.

      • Elimine el host ESXi que contiene la máquina virtual de vCenter Server y vuelva a agregarlo.

    • Error durante la tarea de cifrado de una máquina virtual al comunicarse con el host remoto
      Realiza una operación de cifrado de una máquina virtual, por ejemplo cifrar una máquina virtual o crear una nueva máquina virtual cifrada. El clúster incluye un host ESXi desconectado. Aparece el siguiente error:
      Se produjo un error al comunicarse con el host remoto.

      Solución alternativa: Elimine el host desconectado del inventario del clúster.

    • No se produce la conmutación por error automática si los servicios de Platform Services Controller dejan de estar disponibles
      Si ejecuta Platform Services Controller detrás de un equilibrador de carga, se produce la conmutación por error en caso de que el nodo de Platform Services Controller deje de estar disponible. Si ocurre un error en los servicios de Platform Services Controller que se ejecutan detrás del puerto de proxy inverso 443, no se produce la conmutación por error automática. Estos servicios incluyen el servicio de token de seguridad y el servicio de licencias, entre otros.

      Solución alternativa: Desconecte la instancia de Platform Services Controller con el servicio que presenta error para activar la conmutación por error.

    • El sistema vCenter Server no se puede conectar a un KMS mediante la dirección IPv6
      vCenter Server puede conectarse a un servidor de administración de claves (Key Management Server, KMS) solo si el KMS tiene una dirección IPv4 o un nombre de host que se resuelva en una dirección IPv4. Si el KMS tiene una dirección IPv6, se produce el siguiente error cuando se agrega el KMS al sistema vCenter Server.
      No se puede establecer conexión de confianza.

      Solución alternativa: Configure una dirección IPv4 para el KMS.

    • Se produce un error en el arranque seguro después de la actualización desde versiones anteriores de ESXi
      No es posible arrancar un host ESXi 6.5 que tiene el arranque seguro habilitado en las siguientes situaciones:

      • La actualización del host se realizó mediante el comando ESXCLI. El comando no actualiza el cargador de arranque y no mantiene las firmas. Cuando se habilita el arranque seguro después de la actualización, se produce un error.

      • La actualización del host se realizó mediante el archivo ISO, pero los VIB anteriores se conservan después de la actualización. En este caso, el proceso de arranque seguro no puede verificar las firmas de los VIB anteriores y se produce un error. El archivo ISO debe contener versiones nuevas de todos los VIB que se instalan en el host ESXi antes de la actualización.

      Solución alternativa: Ninguna. El arranque seguro no se puede habilitar en estas condiciones. Vuelva a instalar el host ESXi para habilitar el arranque seguro.

    • Después de una actualización, se habilita SSLv3 en el puerto 7444 si se habilitó antes de la actualización
      En una instalación limpia, SSLv3 no se habilita en los sistemas vCenter Server ni Platform Services Controller. Sin embargo, después de una actualización, el servicio se habilita en el puerto 7444 (el puerto del servidor de token de seguridad) de manera predeterminada. Si el servicio SSLv3 está habilitado, es posible que el sistema quede vulnerable a ciertos ataques.

      Solución alternativa: Para una implementación integrada, deshabilite SSLv3 en el archivo server.xml del servidor de token de seguridad.

      1. Para una implementación con una instancia externa de Platform Services Controller, determine si hay algún sistema heredado de vCenter Server conectado y actualice esos sistemas vCenter Server.

      2. Deshabilite SSLv3.
        1. Abra el archivo server.xml (C:\ProgramData\VMware\vCenterServer\runtime\VMwareSTSService\conf en un sistema Windows y /usr/lib/vmware-sso/vmware-sts/conf/ en un sistema Linux).

        2. Busque el conector que tenga SSLEnabled=True y elimine SSLv3 del atributo SSLEnabledProtocols de modo que el atributo muestre lo siguiente:
          sslEnabledProtocols="TLSv1,TLSv1.1,TLSv1.2"

        3. Guarde y reinicie todos los servicios.

    • Se produce un error al clonar una máquina virtual cifrada con uno o más discos duros sin cifrar
      Cuando se clona una máquina virtual cifrada, se produce el siguiente error si no se cifran uno o más discos duros de la máquina virtual.
      El objeto no admite la operación.
      Se produce un error en el proceso de clonación.

      Solución alternativa: En la pantalla Seleccionar almacenamiento del Asistente de clonación de máquinas virtuales, seleccione Opciones avanzadas. Incluso si no hace ningún cambio en la configuración avanzada, el proceso de clonación se realiza correctamente.

    Problemas con la configuración de servidores
    • Se produce una incongruencia para la opción de compartir en todo el clúster durante la comprobación del cumplimiento de perfil de host,
      Durante una comprobación de cumplimiento de perfil de host, si se produce un error de coincidencia debido a la opción se comparte en todo el clúster, se muestra el nombre de dispositivo para el valor de Host o para el valor de Perfil de host.

      Solución alternativa: Trate el mensaje como un error de coincidencia de cumplimiento para la opción se comparte en todo el clúster.

    • Se produce un error en la corrección de perfil de host si el perfil de host extraído de un clúster de vSAN se asocia a un clúster de vSAN diferente
      Si se extrae un perfil de host de un host de referencia que forma parte de un clúster de vSAN y se lo asocia a otro clúster de vSAN, se produce un error en la operación de corrección (aplicar).

      Solución alternativa: Edite la configuración de vSAN para el perfil de host antes de aplicar el perfil. El UUID de clúster y el nombre de almacén de datos deben coincidir con los valores para el clúster al que se asocia el perfil.

    • El perfil de host no captura la configuración de modo de bloqueo para el host
      Si se extrae un perfil de host de un host ESXi sin estado con la opción Modo de bloqueo habilitada, no se captura la configuración de modo de bloqueo. La opción Modo de bloqueo se deshabilita en el host después de aplicar el perfil de host y reiniciar el host.

      Solución alternativa: Después de aplicar el perfil de host y reiniciar el host, habilite manualmente la opción Modo de bloqueo para el host.

    • Errores de cumplimiento para los perfiles de host con unidades SAS después de la actualización a vSphere 6.5
      Como todas las unidades reclamadas por SATP_LOCAL se marcan como LOCAL, los perfiles de host con SAS en los que se habilitó la opción El dispositivo se comparte en todo el clúster no pasan la comprobación de cumplimiento.

      Solución alternativa: Deshabilite la opción de configuración El dispositivo se comparte en todo el clúster en los perfiles de host con unidades SAS antes de la corrección.

    • Se produce un error en la corrección por lotes de perfiles de host para los hosts con reglas de compatibilidad de DRS flexibles
      En una corrección por lotes, se ejecuta una operación de corrección en un grupo de hosts o clústeres. Host Profiles utiliza la función DRS para colocar los hosts automáticamente en el modo de mantenimiento antes de la operación de corrección. No obstante, para esta operación solo pueden realizarla los hosts situados en clústeres de DRS totalmente automatizados sin reglas de compatibilidad flexibles. Se produce un error en la corrección de los hosts con reglas de compatibilidad de DRS flexibles debido a que esas reglas evitan que los hosts entren en modo de mantenimiento.

      Solución alternativa:

      1. Determine si el clúster se encuentra totalmente automatizado:

        1. En vSphere Web Client, desplácese hasta el clúster.

        2. Seleccione la pestaña Configurar y luego seleccione Opciones de configuración.

        3. Expanda la lista de servicios y seleccione vSphere DRS.

        4. Si el campo Automatización de DRS contiene Totalmente automatizado, entonces el clúster se encuentra totalmente automatizado.

      2. Compruebe si el host tiene una regla de compatibilidad flexible:

        1. En el clúster, seleccione la pestaña Configurar y luego seleccione Opciones de configuración.

        2. Seleccione Reglas de host/máquina virtual.

        3. Examine todas las reglas en las que se establece Ejecutar máquinas virtuales en hosts o No ejecutar máquinas virtuales en hosts.

        4. Si los detalles en Detalles de las reglas de host/máquina virtual para esas reglas contienen la palabra “debería” (“should”), esa es una regla de compatibilidad o anticompatibilidad flexible.

      3. Si un host contiene una regla de compatibilidad de DRS flexible, pase manualmente el host al modo de mantenimiento y, a continuación, corrija el host.

    Problemas del controlador de almacenamiento

    • El controlador de bandeja de entrada bnx2x que admite el adaptador de red/iSCSI/FCoE QLogic NetXtreme II puede causar problemas en un entorno de ESXi
      Se producen problemas y errores cuando se deshabilitan o habilitan los puertos de VMkernel y se cambia el orden de conmutación por error de las NIC en la configuración de red de iSCSI.

      Solución alternativa: Reemplace el controlador bnx2x por un controlador asíncrono. Para obtener información, consulte el sitio web de VMware.

    • El host ESXi puede tener problemas si se utilizan unidades de almacenamiento SATA de Seagate
      Si se utiliza un adaptador de HBA reclamado por el controlador lsi_msgpt3, el host puede tener problemas al conectarse con dispositivos SATA de Seagate. El archivo vmkernel.log muestra errores similares a los siguientes:
      SCSI cmd RESERVE failed on path XXX
      y
      reservation state on device XXX is unknown

      Solución alternativa: Reemplace la unidad SATA de Seagate por otra unidad.

    • Cuando se utiliza el controlador Dell lsi_mr3 versión 6.903.85.00-1OEM.600.0.0.2768847, podrían aparecer varios errores
      Si utiliza el controlador asíncrono Dell lsi_mr3 versión 6.903.85.00-1OEM.600.0.0.2768847, los registros de VMkernel pueden mostrar el siguiente mensaje ScsiCore: 1806: Búfer de detección no válido.

      Solución alternativa: Sustituya el controlador por el controlador de buzón de entrada de vSphere 6.5 o por un controlador asíncrono de Broadcom.

    Problemas de Storage DRS

    • Storage DRS no respeta la afinidad de VMDK a nivel de POD si los VMDK en una máquina virtual tienen asociada una directiva de almacenamiento
      Si establece una directiva de almacenamiento en el VMDK de una máquina virtual que forma parte de un clúster de almacén de datos con Storage DRS habilitado, Storage DRS no respeta la marca Conservar VMDK juntas para esa máquina virtual. Storage DRS puede recomendar otros almacenes de datos para los VMDK recientemente agregados o existentes.

      Solución alternativa: Ninguna. Este comportamiento se observa cuando se establece un tipo de directiva como VMCrypt o una directiva basada en etiquetas.

    • No se puede deshabilitar Storage DRS cuando se implementa una máquina virtual desde una plantilla de OVF
      Cuando se implementa una plantilla de OVF y se selecciona un almacén de datos individual de un clúster de Storage DRS para la colocación de una máquina virtual, no se puede deshabilitar Storage DRS en la máquina virtual. Storage DRS permanece habilitado y esta máquina virtual se puede mover a otro almacén de datos más tarde.

      Solución alternativa: Para mantener de forma permanente la máquina virtual en el almacén de datos seleccionado, cambie manualmente el nivel de automatización de la máquina virtual. Agregue la máquina virtual a la lista de reemplazos de máquina virtual desde la configuración del clúster de almacenamiento.

    Problemas de almacenamiento con Host Profiles

    • Se produce un error al intentar establecer el parámetro action_OnRetryErrors mediante perfiles de host
      Este problema se produce cuando se edita un perfil de host para agregar la regla de notificación de SATP que activa la opción action_OnRetryErrors para los dispositivos NMP reclamados por VMW_SATP_ALUA. Esta opción controla la capacidad de un host ESXi para marcar una ruta de acceso problemática como inactiva y activar una conmutación por error de ruta de acceso. Cuando se agrega a través del perfil de host, no se tiene en cuenta esa opción.

      Solución alternativa: Se pueden utilizar dos métodos alternativos para establecer el parámetro en un host de referencia.

      • Utilice el siguiente comando esxcli para habilitar o deshabilitar el parámetro action_OnRetryErrors:
        esxcli storage nmp satp generic deviceconfig set -c disable_action_OnRetryErrors -d naa.XXX
        esxcli storage nmp satp generic deviceconfig set -c enable_action_OnRetryErrors -d naa.XXX

      • Siga estos pasos:

        1. Agregue la regla de notificación VMW_SATP_ALUA a la regla de SATP:
          esxcli storage nmp satp rule add --satp=VMW_SATP_ALUA --option=enable_action_OnRetryErrors --psp=VMW_PSP_XXX --type=device --device=naa.XXX

        2. Ejecute los siguientes comandos para recuperar el dispositivo:
          esxcli storage core claimrule load
          esxcli storage core claiming reclaim -d naa.XXX

    Problemas de Storage I/O Control

    • No se puede cambiar la configuración del filtro de E/S de máquina virtual durante la clonación
      Storage I/O Control no admite cambios en las directivas de una máquina virtual durante la clonación.

      Solución alternativa: Realice la operación de clonación sin ningún cambio de directivas. Es posible actualizar la directiva después de completar la operación de clonación.

    • La configuración de Storage I/O Control no se respeta en cada VMDK
      La configuración de Storage I/O Control no se respeta en cada VMDK. La configuración de VMDK se respeta en el nivel de la máquina virtual.

      Solución alternativa: Ninguna.

    Problemas de almacenamiento
      Problemas de actualización
      • Las comprobaciones previas a la actualización muestran un error que indica que falta la interfaz eth0 al actualizar a vCenter Server Appliance 6.5
        Las comprobaciones previas a la actualización muestran un error que indica que falta la interfaz eth0 necesaria para completar la actualización de vCenter Server Appliance. Además, puede que se muestre una advertencia para informar de que solo se conservará eth0 si hay varios adaptadores de red.

        Solución alternativa: Consulte el artículo en http://kb.vmware.com/kb/2147933 de la base de conocimientos para encontrar una solución alternativa.

      • Se produce un error de actualización de vCenter Server cuando el conmutador virtual distribuido y los grupos de puertos virtuales distribuidos tienen el mismo nombre con caracteres ASCII altos o caracteres que no son ASCII en un entorno de Windows
        En un entorno de Windows, si los conmutadores virtuales distribuidos y los grupos de puertos virtuales distribuidos utilizan como nombres caracteres ASCII altos duplicados o caracteres que no son ASCII duplicados, se produce el siguiente error en la actualización de vCenter Server:
        No se pudo iniciar UpgradeRunner. Revise los archivos vminst.log y vcsUpgrade\UpgradeRunner.log del directorio temp para obtener más detalles.

        Solución alternativa: Cambie el nombre de los conmutadores virtuales distribuidos o de los grupos de puertos virtuales distribuidos por nombres que no sean únicos.

      • Al intentar actualizar vCenter Server Appliance o el dispositivo Platform Services Controller, se puede generar un mensaje de error sobre los ajustes de configuración de DNS si el dispositivo de origen contiene una configuración de direcciones IPv4 e IPv6 estáticas
        La actualización de un dispositivo configurado con direcciones IPv4 e IPv6 estáticas puede generar un mensaje de error: Error durante la configuración de DNS. Detalles: Error en la operación. Código: com.vmware.applmgmt.err_operation_failed.

        El archivo de registro /var/log/vmware/applmgmt/vami.log correspondiente al dispositivo recién instalado contiene las siguientes entradas:
        INFO:vmware.appliance.networking.utils:Running command: ['/usr/bin/netmgr', 'dns_servers', '--set', '--mode', 'static', '--servers', 'IPv6_address,IPv4_address']
        INFO:vmware.appliance.networking.utils:output:
        error:
        returncode: 17
        ERROR:vmware.appliance.networking.impl:['/usr/bin/netmgr', 'dns_servers', '--set', '--mode', 'static', '--servers', 'IPv6_address,IPv4_address'] error , rc=17

        Solución alternativa:

        1. Elimine el dispositivo recién implementado y restaure el dispositivo de origen.

        2. En el dispositivo de origen, deshabilite la configuración de IPv6 o de IPv4.

        3. Desde el servidor DNS, elimine la entrada de la dirección IPv6 o IPv4 que había deshabilitado.

        4. Intente actualizar nuevamente.

        5. (Opcional) Una vez finalizada la actualización, vuelva a agregar la entrada de DNS y, en el dispositivo actualizado, establezca la dirección IPv6 o IPv4 que había deshabilitado.

      • Los intentos para actualizar un vCenter Server Appliance o un dispositivo Platform Services Controller con una contraseña raíz caducada producen un error con un mensaje genérico que menciona un error interno
        Durante la actualización del dispositivo, el instalador se conecta al dispositivo de origen para detectar el tipo de implementación. Si la contraseña raíz del dispositivo de origen está caducada, el instalador no puede conectarse al dispositivo de origen y aparece el siguiente error en la actualización: Se produce un error interno durante las comprobaciones previas a la actualización.

        Solución alternativa:

        1. Inicie sesión en la interfaz de usuario de la consola directa del dispositivo.

        2. Establezca una nueva contraseña raíz.

        3. Intente actualizar nuevamente.

      • La actualización de vCenter Server Appliance puede fallar debido a que no se encuentra la ruta de acceso a una biblioteca compartida de la dependencia
        Podría producirse un error en la actualización de vCenter Server Appliance antes de la fase de exportación. El registro de errores muestra lo siguiente: /opt/vmware/share/vami/vami_get_network: error al cargar bibliotecas compartidas: libvami-common.so: no se puede abrir el archivo de objetos compartidos: no existe dicho archivo o directorio. Este problema ocurre debido a que no se encuentra la ruta de acceso de la biblioteca compartida de la dependencia.

        Solución alternativa:

        1. Inicie sesión en el shell de Bash para el dispositivo vCenter Server Appliance que desea actualizar.

        2. Ejecute los siguientes comandos.
          echo "LD_LIBRARY_PATH=${LD_LIBRARY_PATH:+$LD_LIBRARY_PATH:}/opt/vmware/lib/vami/" >> /etc/profile
          echo 'export LD_LIBRARY_PATH' >> /etc/profile

        3. Cierre la sesión en el shell del dispositivo.

        4. Intente actualizar nuevamente.

      • Se produce un error en la actualización de vCenter Server 6.0 con una base de datos externa si vCenter Server 6.0 tiene bibliotecas de contenido en el inventario
        Se produce un error en la comprobación previa a la actualización cuando intenta actualizar una instancia de vCenter Server 6.0 con bibliotecas de contenido en el inventario y una base de datos de Microsoft SQL Server o de Oracle. Aparece un mensaje de error como Se produce un error interno durante las comprobaciones previas a la actualización del Servicio de biblioteca de contenido de VMware.

        Solución alternativa: Ninguna.

      • La extracción de la imagen ISO de vCenter Server Appliance con una herramienta de extracción de terceros provoca un error de permisos
        Cuando se extrae la imagen ISO en Mac OS X para ejecutar el instalador mediante una herramienta de terceros disponible en Internet, es posible que se produzca el siguiente error al ejecutar el instalador de la interfaz de línea de comandos: Error de SO: [Error número 13] Permiso denegado.

        Este problema ocurre debido a que, durante la extracción, algunas herramientas de extracción cambian el conjunto predeterminado de permisos en el archivo ISO de vCenter Server Appliance.

        Solución alternativa: Siga los pasos a continuación antes de ejecutar el instalador:

        1. Para abrir el archivo ISO de vCenter Server Appliance, ejecute el comando de Mac OS X automount.

        2. Copie todos los archivos a un directorio nuevo.

        3. Ejecute el instalador desde el directorio nuevo.

      • La actualización de vCenter Server puede tener errores en la fase del primer arranque de VMware Authentication Framework Daemon (VMAFD)
        La fase del primer arranque de VMware Authentication Framework Daemon (VMAFD) podría fallar con el mensaje de error: Error de vdcpromo. Error 382312694: Acceso denegado, motivo = rpc_s_auth_method (0x16c9a0f6).

        Durante una actualización de vCenter Server, podría aparecer un error en el primer arranque de VMAFD si el sistema que está actualizando se instaló con software de terceros que instala su propia versión de las bibliotecas OpenSSL y modifica la variable de entorno PATH del sistema.

        Solución alternativa: Elimine de %PATH% los directorios de terceros que contengan las bibliotecas OpenSSL o muévalos al final de %PATH%.

      • VMware vSphere vApp (vApp) y un grupo de recursos no están disponibles como opciones de destino para actualizar vCenter Server Appliance o un dispositivo de Platform Services Controller
        Cuando se actualiza un dispositivo mediante la interfaz gráfica de usuario o la interfaz de línea de comandos del instalador de vCenter Server Appliance, no puede seleccionar una vApp o un grupo de recursos como el destino de actualización.

        Las interfaces del instalador de vCenter Server Appliance no permiten la selección de una vApp o un grupo de recursos como destino de actualización.

        Solución alternativa: Complete la actualización en el host ESXi o en la instancia de vCenter Server seleccionados. Una vez finalizada la actualización, mueva manualmente la máquina virtual recién implementada como se indica a continuación:

        • Si actualizó el dispositivo en un host ESXi que forma parte de un inventario de vCenter Server o en una instancia de vCenter Server, inicie sesión en vSphere Web Client de la instancia de vCenter Server y mueva la máquina virtual recién implementada a la vApp o al grupo de recursos requeridos.

        • Si actualizó el dispositivo en un host ESXi independiente, primero agregue el host a un inventario de vCenter Server y luego inicie sesión en vSphere Web Client de la instancia de vCenter Server; a continuación, mueva la máquina virtual recién implementada a la vApp o al grupo de recursos requeridos.

      • La actualización a vCenter Server 6.5 puede tener errores en la fase del primer arranque de vmon-api debido a una dirección IPv6 no válida en el campo SAN del certificado SSL
        El certificado SSL de vCenter Server adopta una dirección IPv6 en el campo SAN cuando se instala vCenter Server y se habilitan tanto IPv4 como IPv6. Si deshabilita IPv6 después de la instalación y luego intenta actualizar vCenter Server a la versión 6.5, se producirá un error en la actualización en la fase del primer arranque de vmon-api.

        Solución alternativa: Verifique que el campo SAN del certificado SSL de vCenter Server de origen contenga la dirección IP válida de la instancia de origen de vCenter Server.

      • La actualización a vCenter Server 6.5 puede tener errores debido a nombres duplicados de entidades en la carpeta de red
        vSphere 6.5 permite únicamente nombres exclusivos en todos los conmutadores virtuales distribuidos y en los grupos de puertos virtuales distribuidos de la carpeta de red. Las versiones anteriores de vSphere permitían que un conmutador virtual distribuido y un grupo de puertos virtuales distribuidos tuviese el mismo nombre. Si intenta actualizar desde una versión que permitía nombres duplicados, se producirá un error en la actualización.

        Solución alternativa: Cambie el nombre de todos los conmutadores virtuales distribuidos o de todos los grupos de puertos virtuales distribuidos que tengan los mismos nombres antes de iniciar la actualización.

      • Syslog Collector puede dejar de funcionar después de actualizar ESXi
        Las instancias de Syslog Collector que utilizan SSL para comunicarse con el daemon de Syslog de ESXi pueden dejar de recibir mensajes de registro del host ESXi después de una actualización.

        Solución alternativa: Vuelva a configurar el daemon de Syslog de ESXi ejecutando los siguientes comandos en el host ESXi actualizado:
        esxcli system syslog config set --check-ssl-certs=true
        esxcli system syslog reload

      • El comando Ctrl+C no permite salir de cada página del Contrato de licencia para el usuario final (CLUF) durante la realización de copias intermedias o la instalación de revisiones de vCenter Server Appliance
        Cuando instala los paquetes de actualización de vCenter Server Appliance o realiza copias intermedias de ellos con el comando correspondiente sin agregar el parámetro opcional --acceptEulas, las páginas del CLUF aparecen en el símbolo del sistema. Debe poder utilizar el comando Ctrl+C para salir sin aceptar el contrato, pero dicho comando le mantiene en las páginas del CLUF.

        Solución alternativa: Para salir del CLUF, escriba NO al final de la última página.

      • Cuando la validación finaliza con un error de las revisiones en las que se realizaron copias intermedias en una instancia de vCenter Server Appliance, se borran los paquetes de actualización de los que se realizaron copias intermedias
        Para actualizar vCenter Server Appliance, primero debe realizar copias intermedias de las revisiones de actualización disponibles antes de instalarlas en el dispositivo. Si se produce un error la validación de los paquetes para los que se realizaron copias intermedias, se anularán las copias intermedias y se borrarán. Un intento de validar los paquetes después de un fallo inicial genera un error.

        Solución alternativa: Repita la realización de copias intermedias.

      Problemas con vCenter Server Appliance, vCenter Server, vSphere Web Client, vSphere Client y vSphere Host Client
      • Puede que se produzca un error en vCenter Server debido a una infracción de restricción exclusiva de base de datos en pk_vpx_vm_virtual_device
        Las máquinas virtuales con dispositivos USB conectados pueden causar errores en vCenter Server debido a un error de vCenter Server que se produce cuando se cambian las propiedades de varios dispositivos, incluidos los dispositivos USB. vCenter Server no se puede reiniciar tras producirse un error.

        Solución alternativa: Elimine del registro la máquina virtual que causa problemas desde el inventario del host y reinicie vCenter Server. Es posible que deba repetir este proceso si el error se produce de nuevo.

      • Los registros del sistema de vSphere descargados no son válidos
        Este problema puede ocurrir cuando la sesión del cliente caduca mientras se descargan los registros del sistema. El paquete de registro descargado resultante dejará de tener validez. Se puede observar un mensaje de error similar al siguiente en el archivo vsphere_client_virgo.log ubicado en /var/log/vmware/vsphere-client/logs/vsphere_client_virgo.log:

        com.vmware.vsphere.client.logbundle.DownloadLogController
        Error downloading logs. org.apache.catalina.connector.ClientAbortException:
        java.net.SocketException: Broken pipe (Write failed)
        at org.apache.catalina.connector.OutputBuffer.realWriteBytes(OutputBuffer.java:407)

        Solución alternativa: Ninguna.

      • Error en la revisión de JRE al iniciar los servicios de vCenter Server en un sistema Windows Server 2016
        Es posible que no pueda iniciar VMware vSphere Client y que aparezcan mensajes de error similares a los siguientes:

        2016-11-04 15:47:26.991+05:30| vcsInstUtil-4600788| I: StartStopVCSServices: Esperando a que se inicien los servicios de VC...
        2016-11-04 16:09:57.652+05:30| vcsInstUtil-4600788| E: StartStopVCSServices: No se pueden iniciar los servicios de VC
        2016-11-04 16:09:57.652+05:30| vcsInstUtil-4600788| I: Saliendo de la función: VM_StartVcsServices

        Solución alternativa: Ninguna.

      • No se puede acceder a una instancia de vSphere Client basada en HTML
        Cuando se instala vCenter Server 6.5 en el sistema operativo Windows Server 2016 en una configuración PSC externa con una ruta de acceso y un puerto personalizados, se produce un error al iniciar sesión en una instancia de vSphere Client basada en HTML5 y se muestra el mensaje de error 503 Servicio no disponible.

        Solución alternativa: Inicie sesión en vCenter Server mediante vSphere Web Client (Flash).

      • La ejecución de una búsqueda avanzada con etiquetas puede hacer que vSphere Web Client sea más lento en entornos grandes
        vSphere Web Client puede funcionar con lentitud en los entornos grandes cuando se ejecuta una búsqueda avanzada con etiquetas como parte de la construcción de la búsqueda. Este problema se produce durante la búsqueda y se detiene al finalizarla. Los servicios de vCenter pueden quedarse sin memoria en estos períodos de lentitud.

        Solución alternativa: Espere hasta que se complete la búsqueda o reinicie vCenter Server. Para realizar un reinicio, detenga y vuelva a iniciar los servicios de vCenter con el siguiente comando si observa errores de tipo OutOfMemory o de recopilación de elementos no utilizados en los registros.

        Ubicación de registro:

        • Windows: %ALLUSERSPROFILE%\VMWare\vCenterServer\logs\vsphere-client\logs\
        • vCenter Server Appliance (VCSA): /var/log/vmware/vsphere-client/logs/

        Archivos de registro: dataservice.log y vsphere_client_virgo.log

        Comandos para reiniciar los servicios:
        service-control --stop vmware-vpxd-svcs
        service-control --start vmware-vpxd-svcs

      • vSphere Web Client puede ser más lento en entornos grandes con varias instancias de VC y PSC
        En los entornos grandes con muchas instancias de vCenter Server y PSC, el complemento vSphere Update Manager Web Client puede experimentar una pérdida de subprocesos que, con el tiempo, degrada el rendimiento de vSphere Web Client. Esta degradación se produce específicamente en entornos con diez instancias de vCenter Server y cuatro instancias de PSC, sumadas a la cantidad máxima de cuentas de usuario de Web Client; no obstante, con el tiempo, se puede producir en todos los entornos grandes.

        Solución alternativa: Deshabilite el complemento vSphere Update Manager Web Client de la siguiente manera:

        1. En vSphere Web Client, desplácese hasta vSphere Web Client > Administración > Soluciones/Complementos del cliente.

        2. Haga clic con el botón derecho en el complemento VMware vSphere Update Manager Web Client y seleccione Deshabilitar.

        Si no tiene pensado usar el complemento, puede dejarlo deshabilitado o puede optar por volver a habilitarlo solo cuando necesite usarlo. Si experimenta una degradación en el rendimiento, también es posible restablecer la pérdida temporalmente al deshabilitar y volver a habilitar el complemento.

      • En vSphere Client o vSphere Web Client, la actualización en vivo de Tareas recientes y el estado de objetos deja de funcionar después de cambiar la dirección IP para el equipo cliente
        En vSphere Client o vSphere Web Client, después de realizar una acción sobre un objeto, la acción no se muestra en Tareas recientes. El nuevo estado tampoco se muestra en los árboles de inventario, las listas y los detalles de los objetos.

        Por ejemplo, si se enciende una máquina virtual, la tarea Encender no se muestra en Tareas recientes y el icono de máquina virtual no tiene una etiqueta de encendido en los árboles de inventario, las listas y los detalles de los objetos. El explorador web y vCenter Server se conectan mediante WebSockets y, cuando cambia la dirección IP del equipo con el explorador, se interrumpe esa conexión.

        Solución alternativa: En el explorador web, actualice la página.

      • No se puede acceder a la interfaz de administración de vCenter Server Appliance a través de Internet Explorer
        No se puede acceder a la interfaz de administración de vCenter Server Appliance a través de Internet Explorer.

        Solución alternativa: Habilite TLS 1.0, TLS 1.1 y TLS 1.2 en la configuración de seguridad de Internet Explorer:

        1. En Internet Explorer, seleccione Herramientas > Opciones de Internet.

        2. Haga clic en la pestaña Opciones avanzadas y desplácese hasta la sección Seguridad.

        3. Seleccione las casillas Usar TLS 1.0, Usar TLS 1.1 y Usar TLS 1.2.

      • Los intentos de importar y exportar elementos de la biblioteca de contenido fallan en las implementaciones de vCenter Server con una instancia de PSC externa
        Cuando se inicia sesión en vSphere Web Client mediante una dirección IP en una implementación de vCenter Server con un entorno de PSC externo, se produce un error al importar y exportar elementos de la biblioteca de contenido. Aparece el siguiente mensaje de error:

        Razón: No se pueden actualizar los archivos en el elemento de biblioteca. Es posible que el origen o el destino funcionen con lentitud o no respondan.

        Solución alternativa: Inicie sesión en vSphere Web Client usando un nombre de dominio completo, en lugar de una dirección IP, en la implementación de vCenter Server con una instancia de PSC externa.

        Si inició sesión en vSphere Web Client usando una dirección IP, acepte el certificado que se emite al iniciar sesión con un nombre de dominio completo. Abra el destino del nombre de dominio completo para aceptar el certificado. Aceptar el certificado de forma permanente deberá ser suficiente.

      • La interfaz de usuario no muestra los dispositivos de conexión en caliente en la lista de dispositivos de acceso directo PCIe
        Los dispositivos PCIe de conexión en caliente no se encuentran disponibles para el acceso directo PCI.

        Solución alternativa: Seleccione una de las siguientes opciones:

        • Reinicie el host mediante el siguiente comando: /etc/init.d/hostd restart

        • Reinicie el host ESXi.

      • No se puede ver el permiso en la etiqueta desde otro nodo de administración
        Cuando inicie sesión en un nodo de gestión de vCenter Server en una implementación con varios vCenter Server, si crea un permiso sobre una etiqueta, no será visible cuando inicie sesión en otro nodo de gestión.

        Solución alternativa: Si bien las etiquetas son objetos globales y se pueden ver en todos los nodos, los permisos de las etiquetas solo persisten de forma local y no se pueden ver en todos los nodos. Para ver el permiso de la etiqueta, inicie sesión en la instancia de vCenter Server donde se creó el permiso.

      • Al iniciar sesión de incógnito en vSphere Web Client, se produce un error interno
        Los usuarios pueden iniciar sesión en vSphere Web Client cuando está habilitada la configuración del explorador para el modo de incógnito, pero se muestra el siguiente error interno:

        An internal error has occurred - [NetStatusEvent type="netStatus" bubbles=false cancelable=false eventPhase=2 info=[object Object]]"

        Solución alternativa: Deshabilite el modo de incógnito. Este modo no se admite en vSphere Web Client. Vuelva a cargar vSphere Web Client para borrar los problemas producidos por el error e inicie sesión nuevamente en el cliente.

      • Las tareas en la biblioteca de contenido no se muestran en Tareas recientes
        Si se ejecuta una tarea en la biblioteca de contenido de vSphere Web Client, como cargar un elemento a la biblioteca de contenido, sincronizar la biblioteca o implementar una máquina virtual desde la biblioteca de contenido, es posible que la tarea no se muestre en la lista de Tareas recientes.

        Solución alternativa: Ninguna. En las listas Más tareas, se pueden ver todas las tareas, incluso las que no se muestran en Tareas recientes.

      • Se produce un error en la operación Asignar etiqueta al intentar crear y asignar de forma simultánea una etiqueta en un entorno con varias instancias de vCenter Server
        Normalmente, es posible asignar una etiqueta a un objeto en vSphere Web Client desde la configuración Etiquetas en la pestaña Configurar del objeto y asignar automáticamente la etiqueta al objeto seleccionado. En un entorno con varias instancias de vCenter Server, la etiqueta se crea correctamente, pero no se pueden usar las opciones de asignación y se muestra un mensaje de error.

        Solución alternativa: Cree la etiqueta primero desde las opciones de Etiquetas y luego asígnela al objeto.

      • La pestaña Solución se quitó de la vista de ESX Agent Manager
        La pestaña Solución que está disponible en la vista ESX Agent Manager en las versiones anteriores de vSphere Web Client ya no se encuentra disponible.

        Solución alternativa: Puede conseguir el mismo objetivo siguiendo estos pasos:

        1. En vSphere Web Client Navigator, seleccione Administración > Extensiones de vCenter Server.

        2. Haga clic en vSphere ESX Agent Manager.

        3. Seleccione una de las siguientes opciones:

          • Seleccione la pestaña Configurar.

          • Seleccione la pestaña Supervisar y haga clic en Eventos.

      • No se puede asignar una etiqueta a objetos cuando el nodo de Platform Services Controller está inactivo
        Cuando el nodo de vSphere Platform Services Controller está inactivo, no es posible asignar pestañas desde la pestaña Administrar > Etiquetas de un objeto.

        Se muestra el siguiente error: La implementación del método de proveedor produjo una excepción inesperada. No se pueden seleccionar etiquetas para asignar.

        Solución alternativa: Encienda el nodo de Platform Services Controller. También debe comprobar que todos los servicios en el nodo Platform Services Controller estén en ejecución.

      • vSphere Client no representa el cuadro de diálogo Editar configuración cuando un administrador de centro de datos o host edita una máquina virtual
        vSphere Client no representa el cuadro de diálogo Editar configuración cuando un administrador de centro de datos o host edita una máquina virtual dentro de ese centro de datos o host. Esto se debe a que los administradores de centros de datos o hosts no tienen el privilegio de almacenamiento basado en perfiles.

        Solución alternativa: Cree una nueva función con privilegios de administrador de centro de datos o host y el privilegio de almacenamiento basado en perfiles. Asigne esa función al administrador de centro de datos o host actual.

      • Al crear o editar una máquina virtual mediante vSphere Client, cuando se agrega el octavo disco duro, se produce un error en la tarea
        Al crear o editar una máquina virtual mediante vSphere Client, se produce el siguiente error en la tarea: Un parámetro especificado no era correcto: unitNumber. Esto se debe a que la controladora SCSI 0:7 se reserva para fines especiales y el sistema asigna SCSI 0:7 al octavo disco duro.

        Solución alternativa: El usuario debe asignar manualmente SCSI 0:8 al agregar un octavo disco duro. En su lugar, el usuario puede usar vSphere Web Client.

      • vSphere Client admite hasta 10.000 máquinas virtuales y 1.000 hosts
        vSphere Client solo admite hasta 10.000 máquinas virtuales y 1.000 hosts, lo cual es menos que los límites de vCenter.

        Solución alternativa: Si el usuario necesita superar los límites de vSphere Client, debe usar vSphere Web Client.

      • El cuadro de texto Nombre de host se muestra atenuado en la interfaz de administración de vCenter Server Appliance si el sistema se instala sin un nombre de host
        Al desplazarse hasta la pantalla Redes > Administrar en la interfaz de administración de vCenter Server Appliance y Editar, los campos de texto Nombre de host, Servidores de nombres y Puertas de enlace se muestran atenuados y no se pueden modificar. El mismo campo se encuentra activo y es editable únicamente en vSphere Client.

        Solución alternativa: Cambie el nombre de host en vSphere Client.

      • Después de modificar la configuración de máquina virtual del vCenter Server Appliance para proporcionar un mayor espacio en disco para ampliar la partición root, falla un intento de solicitud de almacenamiento adicional
        Después de redimensionar el espacio en disco para la partición de root, el comando storage.resize no amplía el almacenamiento en disco para la partición de root, sino que mantiene el mismo tamaño. Ese es el comportamiento previsto. No se permite redimensionar esa partición.

        Solución alternativa: Ninguna.

      • La interfaz de vCenter Server Appliance Management Web solo permite configurar el servidor proxy HTTP
        Cuando se accede a la pestaña Redes de la interfaz de administración de vCenter Server Appliance y a Editar en la configuración del proxy, no se muestra la opción de modificar el proxy para HTTPS o FTP. Solo podrá especificar los ajustes para el proxy HTTP.

        Solución alternativa: Puede configurar los servidores proxy HTTPS y FTP utilizando la línea de comandos del shell del dispositivo.

      • Después de actualizar correctamente vCenter Server Appliance, al ejecutar el comando version.get desde el shell del dispositivo, se recibe un mensaje de error
        Después de actualizar correctamente vCenter Server Appliance, al ejecutar el comando version.get desde el shell del dispositivo, se recibe un mensaje de error: Comando desconocido: 'version.get'.

        Solución alternativa: Cierre e inicie como administrador una nueva sesión de shell de dispositivo y ejecute el comando version.get.

      • En Windows Internet Explorer 11 o posterior, la casilla de verificación Utilizar autenticación de sesión de Windows está inactiva en la página de inicio de sesión de vSphere Web Client
        La casilla de verificación Utilizar autenticación de sesión de Windows está inactiva en la página de inicio de sesión de vSphere Web Client en los exploradores Windows Internet Explorer 11 y posteriores. También se le indicará que descargue e instale el complemento VMware Enhanced Authentication.

        Solución alternativa: En las opciones de seguridad de los ajustes de Windows en su sistema, agregue el nombre de dominio completo y la dirección IP de vCenter Server a la lista de sitios de la intranet local.

      • Se produce un error al cargar un archivo mediante el explorador del almacén de datos cuando el archivo tiene más de 4 GB en Internet Explorer
        Cuando se carga un archivo de más de 4 GB mediante el explorador del almacén de datos en Internet Explorer, aparece el error:

        Error al transferir datos a URL.

        Internet Explorer no es compatible con archivos de más de 4 GB.

        Solución alternativa: Use los exploradores Chrome o Firefox para cargar archivos desde el explorador del almacén de datos.

      Problemas en la administración de máquinas virtuales
      • El parámetro de OVF chunkSize no se admite en vCenter Server 6.5
        No se puede implementar una plantilla de OVF en vCenter Server 6.5 y se produce el siguiente error:

        El parámetro de OVF chunkSize con el valor valor_de_chunkSize no es compatible con la importación de paquetes de OVF en este momento.

        Recibirá este error porque chunkSize no es un parámetro de OVF compatible en vCenter Server 6.5.

        Solución alternativa: Actualice la plantilla de OVF y elimine el parámetro chunkSize.

        1. Solo en el caso de las plantillas de OVA, extraiga los archivos individuales mediante una utilidad que admita TAR (por ejemplo, tar xvf). Esto incluye el archivo de ovf (.ovf), el manifiesto (.mf) y el disco virtual (.vmdk).

        2. Combine los fragmentos de disco virtual en un solo disco con el siguiente comando:

          • En Linux o Mac:
            cat vmName-disk1.vmdk.* > vmName-disk1.vmdk
          • En Windows:
            copy /b vmName-disk1.vmdk.000000 + vmName-disk1.vmdk.000001 + repeat until last fragment vmName-disk1.vmdk

          Nota: Si solo existe un fragmento de disco virtual, cámbiele el nombre al disco de destino. Si hay varios discos con fragmentos, combínelos en sus respectivos discos de destino (por ejemplo, disk1.vmdk, disk2.vmdk y así sucesivamente).

        3. Quite el atributo chunkSize del descriptor de OVF (.ovf) con un editor de texto sin formato. Por ejemplo:
          <File ovf:chunkSize="7516192768" ovf:href="vmName-disk1.vmdk" ovf:id="file1" ovf:size=... />
          a:
          <File ovf:href="vmName-disk1.vmdk" ovf:id="file1" ovf:size=.../>

        4. Implemente la plantilla de OVF a través de vSphere Web Client; para ello, seleccione los archivos locales, incluido el descriptor de OVF actualizado y el disco combinado.

        5. Solo en el caso de las plantillas de OVA, vuelva a montar el archivo OVA a través de vSphere Web Client del siguiente modo:

          1. Exporte la plantilla de OVF. Con la exportación se generan el archivo de OVF (.ovf), el manifiesto (.mf) y el disco virtual (.vmdk). El archivo de manifiesto es distinto del archivo del paso 1.

          2. Combine los archivos en una sola plantilla de OVA mediante una utilidad que admita TAR (por ejemplo, tar cvf). Por ejemplo, en Linux:
            tar cvf vm.ova vm.ovf vm.mf vm.disk1.vmdk

      • Al exportar una plantilla de OVF o elementos de la biblioteca de contenido, se abren nuevas pestañas en Internet Explorer
        Si usa vSphere Web Client con Internet Explorer para exportar una plantilla de OVF o elementos de una biblioteca de contenido, se abren nuevas pestañas en el explorador para cada archivo en el elemento de la biblioteca de contenido o la plantilla de OVF. Por cada nueva pestaña, es posible que se le pida aceptar un certificado de seguridad.

        Solución alternativa: Acepte cada certificado de seguridad y, a continuación, guarde cada archivo.

      • vCenter Server no elimina OpaqueNetwork del inventario de vCenter
        Si existe una máquina virtual conectada a una red opaca y esa máquina virtual se convierte en una plantilla, vCenter Server no eliminará OpaqueNetwork de su inventario, aunque se elimine el host ESXi de la red opaca y no existan máquinas virtuales conectadas a ella. Esto se debe a que algunas plantillas quedan asociadas a la red opaca.

        Solución alternativa: Ninguna.

      • Al implementar una plantilla de OVF, se produce un error "error.mutationService.ProviderMethodNotFoundError" en algunas vistas
        Es posible recibir un error error.mutationService.ProviderMethodNotFoundError cuando se implementa una plantilla de OVF y se cumplen todas las siguientes condiciones:

        • Se selecciona un archivo OVF del sistema de archivos local y se hace clic en Siguiente en el asistente Implementar plantilla de OVF.

        • El tamaño del archivo OVF es inferior a 1,5 MB.

        • Se implementa la plantilla de OVF sin seleccionar el objeto. Por ejemplo, desde la vista de lista de máquinas virtuales.

        Solución alternativa: Para implementar una plantilla de OVF, puede seleccionar el objeto y la opción Implementar OVF.

      • El despliegue de una plantilla de OVF u OVA desde un archivo local con discos delta en vSphere Web Client podría fallar
        Cuando se implementa una plantilla de OVF o de OVA que contiene discos delta (ovf:parentRef en el archivo de OVF), la operación podría fallar o atascarse durante el proceso.

        A continuación se muestra un ejemplo de elementos de OVF en el descriptor OVF:

         <References>
          <File ovf:href="Sugar-basedisk-1-4.vmdk" ovf:id="basefile14" ovf:size="112144896"/>
          <File ovf:href="Sugar-disk1.vmdk" ovf:id="file1" ovf:size="44809216"/>
          <File ovf:href="Sugar-disk4.vmdk" ovf:id="file4" ovf:size="82812928"/>
         </References>

         <DiskSection>
          <Info>Metainformación acerca de los discos virtuales</Info>
          <Disk ovf:capacity="1073741824"
           ovf:diskId="basedisk14"
           ovf:fileRef="basefile14"
           ovf:format="http://www.vmware.com/interfaces/specifications/vmdk.html#streamOptimized" />
          <Disk ovf:capacity="1073741824"
           ovf:diskId="vmdisk1"
           ovf:fileRef="file1"
          ovf:parentRef="basedisk14"
           ovf:format="http://www.vmware.com/interfaces/specifications/vmdk.html#streamOptimized" />
          <Disk ovf:capacity="1073741824"
          ovf:diskId="vmdisk4"
          ovf:fileRef="file4"
          ovf:parentRef="basedisk14"
          ovf:format="http://www.vmware.com/interfaces/specifications/vmdk.html#streamOptimized"/>
         </DiskSection>

        Solución alternativa: Para implementar una plantilla de OVF u OVA, alójela en un servidor HTTP. Después podrá implementarla desde la URL HTTP que apunta a esa plantilla.

      • No hay disponible unla opción de encendido después de finalizar la implementación de OVF
        Durante una implementación de OVF u OVA, el asistente de implementación no proporciona la opción de encender automáticamente la máquina virtual cuando se completa la implementación.

        Solución alternativa: Esta opción no está disponible en vSphere 6.5 cuando se utiliza el asistente de implementación OVF. Encienda manualmente la máquina virtual después de completarse la implementación.

      • Cuando se inicia el asistente de implementación de OVF desde la lista de inventario global, se muestra un mensaje de error en la página Ubicación del asistente
        Este problema se produce cuando se implementa una plantilla de OVF desde cualquiera de las listas de inventario global (por ejemplo, la lista de inventario de máquinas virtuales) en vSphere Web Client y se acede a la página “Seleccione Nombre y Ubicación” del asistente. Si no selecciona una ubicación válida, en vez del mensaje de error apropiado, los botones de navegación estarán deshabilitados y no podrá avanzar en el asistente.

        Solución alternativa: Cancele el asistente, vuelva a abrirlo y seleccione una ubicación válida.

      • El asistente de implementación de OVF no puede implementar una plantilla de OVF u OVA local que contiene paquetes de mensajes externos
        Cuando una plantilla de OVF u OVA contiene referencias a paquetes de mensajes externos, no se puede implementar desde un archivo local.

        Solución alternativa: Para implementar la plantilla de OVF u OVA, siga uno de estos dos métodos:

        • Implemente la plantilla de OVF u OVA desde una URL.

        • Edite el archivo de OVF para sustituir la etiqueta que apunta al archivo de mensajes externo (la etiqueta <Strings ovf:fileRef />) por el contenido real del archivo de mensajes externo.

      • No se puede crear ni clonar una máquina virtual en un clúster de almacén de datos deshabilitado para SDRS
        Este problema se produce cuando se selecciona un almacén de datos que forma parte de un clúster de almacén de datos deshabilitado para SDRS en alguno de los asistentes de Nueva máquina virtual, Clonar máquina virtual (a máquina virtual o a plantilla) o Implementar desde plantilla. Al llegar a la página Listo para finalizar y hacer clic en Finalizar, el asistente queda abierto y nada parece suceder. El estado del valor Almacén de datos para la máquina virtual puede ser “Obteniendo datos...” y no cambiar.

        Solución alternativa: Utilice vSphere Web Client para colocar máquinas virtuales en clústeres de almacenes de datos deshabilitados para SDRS.

      • Falla el despliegue de una plantilla de OVF u OVA para descriptores específicos
        El despliegue de una plantilla de OVF u OVA desde vSphere Web Client falla si el descriptor existente en la plantilla contiene cualquiera de los siguientes valores con su mensaje de error respectivo:

        • Número negativo como el valor del parámetro de tamaño del elemento fileref. Ejemplo de mensaje de error:
          VALUE_ILLEGAL: Valor ilegal ";-2&" para el atributo "size". Debe ser positivo.

        • Se especifica el atributo de reserva opcional pero no se indica ningún parámetro en la sección de hardware de la máquina virtual. Por ejemplo: <Reservation />. Ejemplo de mensaje de error:
          VALUE_ILLEGAL: Valor ilegal "" para el elemento "Reservation". No es un número.

        • Falta el elemento VirtualHardwareSection.System.InstanceID vssd. Ejemplo de mensaje de error:
          ELEMENT_REQUIRED: Se esperaba el elemento "InstanceID".

        • La sección Strings de internacionalización hace referencia a un archivo faltante. Ejemplo de mensaje de error:
          VALUE_ILLEGAL: Valor ilegal "eula" para el atributo "fileRef".

        • Prefijo desconocido agregado a la sección Strings de internacionalización. Por ejemplo: <ovfstr:Strings xml:lang="de-DE"> Mensaje de error de ejemplo:
          PARSE_ERROR: Error de análisis: Prefijo de espacio de nombres no declarado "ovfstr" en [row,col,system-id]: [41,39,"descriptor.ovf"].

        • OVF contiene elementos de la versión 0.9 de especificaciones de OVF. Ejemplo de mensaje de error:
          VALUE_ILLEGAL: No se admite OVF 0.9. Espacio de nombres no válido: "http://www.example.com/schema/ovf/1/envelope".

        Solución alternativa: Modifique el descriptor de modo que sea un descriptor válido de acuerdo con la versión 1.1 de especificaciones de OVF.

      • Un dispositivo USB habilitado por vMotion conectado a una máquina virtual no es visible en vSphere Web Client
        Si se conecta un dispositivo USB con vMotion habilitado a una máquina virtual que se ejecuta en ESXi 6.5, el dispositivo no se podrá ver en vSphere Web Client después de suspender y reanudar la máquina virtual. Esto sucede incluso cuando el dispositivo se vuelve a conectar correctamente a la máquina virtual. Como resultado, no se puede desconectar el dispositivo.

        Solución alternativa: Ejecute una de las siguientes soluciones alternativas:

        • Intente conectar otro dispositivo USB a la misma máquina virtual. Ambos dispositivos se mostrarán en vSphere Web Client y, así, será posible desconectar el dispositivo USB conectado originalmente.

        • Apague y vuelva a encender la máquina virtual. El dispositivo se mostrará en vSphere Web Client.

      • Se puede producir un error al cargar archivos mediante Biblioteca de contenido, Almacén de datos o Implementación de OVF/OVA
        Si se intenta cargar un archivo mediante Biblioteca de contenido, Almacén de datos o Implementación de OVF/OVA en vSphere Web Client, es posible que se produzca el siguiente error en la operación: Se produjo un error en la operación por una razón indeterminada.

        El error se produce debido a que los certificados no son de confianza. Si la dirección URL que se procesa para la operación de carga de archivos no es de confianza todavía, no se puede realizar la carga.

        Solución alternativa: Copie la dirección URL del error, abra una nueva pestaña del explorador y visite esa URL. Se le solicitará aceptar el certificado asociado a esa URL. Confíe en el nuevo certificado y acéptelo; a continuación, intente realizar la operación de nuevo. Consulte el artículo 2147256 de la base de conocimientos de VMware para obtener más detalles.

      • Se produce un error al implementar una plantilla de OVA desde una URL que contiene un archivo de manifiesto o de certificado al final en un entorno de red lento
        Cuando se implementa una plantilla de OVA grande que contiene uno o más archivos de manifiesto o de certificado al final de la plantilla de OVA, se produce un error en la implementación en un entorno de red lento con el siguiente mensaje:
        No se puede recuperar el archivo de manifiesto o de certificado.

        A continuación se muestra un ejemplo de plantilla de OVA con archivos de manifiesto o de certificado al final del archivo OVA:

        example.ova:

        • example.ovf
        • example-disk1.vmdk
        • example-disk2.vmdk
        • example.mf
        • example.cert

        Este error se produce debido a que los archivos de manifiesto y de certificado son necesarios para el proceso de implementación. Por lo tanto, cuanto antes aparezcan dichos archivos en el archivo OVA, más rápido se realizará el proceso.

        Solución alternativa: Use una de las siguientes soluciones alternativas para implementar la plantilla de OVA:

        • Descargue la plantilla de OVA en el sistema local e impleméntela desde un archivo OVA local.

        • Convierta la plantilla de OVA mediante la colocación de los archivos de manifiesto o de certificado al principio del archivo de plantilla de OVA. Para convertir la plantilla de example.ova, siga estos pasos:

          1. Inicie sesión en la máquina del servidor HTTP y vaya a la carpeta que contenga la plantilla de OVA.

          2. Extraiga los archivos de la plantilla de OVA:
            tar xvf example.ova

          3. Para volver a crear la plantilla de OVA, ejecute los siguientes comandos en este orden:

            tar cvf example.ova example.ovf
            tar uvf example.ova example.mf
            tar uvf example.ova example.cert
            tar uvf example.ova example-disk1.vmdk
            tar uvf example.ova example-disk2.vmdk

          4. Vuelva a implementar la plantilla de OVA desde la URL HTTP.

      • Las plantillas de OVF exportadas en vSphere 6.5 que contienen no se pueden implementar en vSphere 5.5 ni vSphere 6.0
        Si se exporta una plantilla de OVF que contiene en el descriptor de OVF desde vSphere Web Client 6.5, no se podrá implementar en vSphere Web Client 5.5 ni en vSphere Web Client 6.0. A continuación, se expone un ejemplo de un elemento OVF del descriptor de OVF:

        <Annotation>--- Anotación de ejemplo de la plantilla de OVF ---</Annotation>

        Solución alternativa: Quite del descriptor de OVF:

        1. Quite todas las instancias de del descriptor de OVF.

        2. Si el archivo OVA o la plantilla de OVA tienen un archivo de manifiesto, vuelva a calcular la suma de comprobación en función del descriptor de OVF actualizado y actualice el archivo de manifiesto. Si hay un archivo de certificado, actualice el archivo de certificado para sustituir la suma de comprobación por el archivo de manifiesto actualizado.

      • vSphere Web Client no admite la exportación de máquinas virtuales ni de vApps como plantillas de OVA
        En versiones anteriores a vSphere 6.5, se podrían exportar máquinas virtuales y vApps como plantillas de OVA en vSphere Web Client. Esta funcionalidad ya no está disponible en vSphere 6.5.

        Solución alternativa: Exporte la máquina virtual como una plantilla de OVF y, a continuación, cree una plantilla de OVA a partir de los archivos de plantilla de OVF. El siguiente procedimiento utiliza comandos de Linux y Mac para describir el proceso. Los sistemas Windows requieren la instalación de una utilidad que admita TAR.

        1. Use vSphere Web Client para exportar la máquina virtual o la vApp como una plantilla de OVF a la máquina local.

        2. Busque los archivos de plantilla de OVF descargados y muévalos a una carpeta vacía nueva.

        3. Lleve a cabo una de las siguientes tareas para crear una plantilla de OVA a partir de una plantilla de OVF.

          • Vaya a la carpeta nueva y cree una plantilla de OVA mediante el comando tar para combinar los archivos:
            cd folder
            tar cvf ova-template-name.ova ovf-template-name.ovf
            tar uvf ova-template-name.ova ovf-template-name.mf
            tar uvf ova-template-name.ova ovf-template-name-1.vmdk
            ...
            tar uvf ova-template-name.ova ovf-template-name-n.vmdk

            n hace referencia a la cantidad de discos que contiene la máquina virtual. ova-template-name.ova es la plantilla de OVA final. Ejecute los comandos en ese orden exacto a fin de que el archivo OVA se cree correctamente.

            Nota: El comando tar debe utilizar el formato TAR y debe cumplir con el formato de archivo de cinta de estándar uniforme (Uniform Standard Tape Archive, USTAR) según se define en el grupo de estándares POSIX IEEE 1003.1.

          • Si OVF Tool está instalado en el sistema, ejecute el siguiente comando:
            cd downloaded-ovf-template-folder
            path-to-ovf-tool\ovftool.exe ovf-template-name.ovf ova-template-name.ova

      • Se puede producir un error al implementar una plantilla de OVF que contenga referencias a archivos comprimidos
        Cuando se implementa una plantilla de OVF que contiene referencias a archivos comprimidos (normalmente comprimidos con gzip), se produce un error en la operación.

        A continuación, se expone un ejemplo de un elemento OVF del descriptor de OVF:
        <References>
           <File ovf:size="458" ovf:href="valid_disk.vmdk.gz" ovf:compression="gzip" ovf:id="file1"></File>
        </References>

        Solución alternativa: Si OVF Tool está instalado en el sistema, ejecute el siguiente comando para convertir la plantilla de OVF u OVA. La nueva plantilla no debe contener discos comprimidos.

        1. Vaya a la carpeta donde se encuentra la plantilla:
          cd carpeta-de-plantilla

        2. Convierta la plantilla.

          • Conversión de plantilla de OVA:
            ruta-a-ovf-tool\ovftool.exe nombre-de-plantilla-de-ova.ova nombre-de-nueva-plantilla-de-ova.ova

          • Conversión de plantilla de OVF:
            ruta-a-ovf-tool\ovftool.exe nombre-de-plantilla-de-ovf.ovf nombre-de-nueva-plantilla-de-ovf.ovf

      • Se produce un error al implementar una plantilla de OVF u OVA que contenga URL HTTP en las referencias de archivo
        Cuando se intenta implementar una plantilla de OVF u OVA que contiene una URL HTTP en las referencias de archivo, se produce un error en la operación con el siguiente mensaje:
        Código de respuesta no válida: 500

        Por ejemplo:
        <References>
          <File ovf:size="0" ovf:href="http://www.example.com/dummy.vmdk" ovf:id="file1"></File>
        </References>

        Solución alternativa: Para descargar los archivos del servidor HTTP y actualizar la plantilla de OVF u OVA, siga estos pasos:

        1. Abra el descriptor de OVF y busque las referencias de archivo con las URL HTTP.

          En el caso de las plantillas OVA, extraiga los archivos de la plantilla de OVA para abrir el descriptor de OVF. Por ejemplo, ejecute el siguiente comando:
          tar xvf nombre-de-plantilla-de-ova&.ova

          Nota: Este comando solo sirve para sistemas Linux o Mac. Los sistemas Windows requieren la instalación de una utilidad que admita TAR.

        2. Descargue los archivos de las URL HTTP en una máquina local y cópielos en la misma carpeta que la plantilla de OVF u OVA.

        3. Sustituya las URL HTTP en el descriptor de OVF por los nombres de archivo reales que se han descargado en la carpeta. Por ejemplo:
          <File ovf:size="tamaño-de-archivo-descargado-real" ovf:href="dummy.vmdk" ovf:id="file1"></File>

        4. Si la plantilla contiene un archivo de manifiesto (.mf) y un archivo de certificado (.cert), vuelva a calcular las sumas de comprobación de los archivos relevantes para regenerarlos u omita esos archivos durante la operación de implementación de OVF.

          Para una plantilla de OVA solamente, vuelva a crear la plantilla de OVA mediante uno de los siguientes métodos:

          • Utilice el comando tar para volver a crear la plantilla:
            cd folder/ tar cvf ova-template-name.ova ovf-name.ovf
            tar uvf ova-template-name.ova manifest-name.mf
            tar uvf ova-template-name.ova cert-name.cert
            tar uvf ova-template-name.ova disk-name.vmdk

            Repita el proceso para más discos u otras referencias de archivo.

            Nota: El comando tar debe utilizar el formato TAR y cumplir con el formato de archivo de cinta de estándar uniforme (Uniform Standard Tape Archive, USTAR) según se define en el grupo de estándares POSIX IEEE 1003.1.

          • Utilice OVF Tool para volver a crear la plantilla (Windows):
            cd folder
            path-to-ovf-tool\ovftool.exe ovf-name.ovf ova-template-name.ova

      • Se produce un error al implementar plantillas de OVF o de OVA desde direcciones URL HTTP o HTTPS en las que se requiere autenticación
        Cuando se intenta usar vSphere Web Client para implementar una plantilla de OVF u OVA desde una URL HTTP o HTTPS que requiere autenticación, se produce un error en la operación. Se muestra el error:
        Error en la transferencia: Código 401 de respuesta no válida.

        El error de implementación de la plantilla de OVF u OVA se debe a que no se pueden introducir las credenciales.

        Solución alternativa: Descargue los archivos e implemente la plantilla de forma local:

        1. Descargue manualmente la plantilla de OVF o de OVA de la dirección URL HTTP o HTTPS a cualquier carpeta accesible del equipo local.

        2. Implemente una máquina virtual desde la plantilla de OVF o de OVA descargada en el equipo local.

      • No se admite la implementación de una plantilla de OVF o de OVA en vSphere Web Client con opciones de arranque EFI/UEFI
        Cuando se implementa una plantilla de OVF o de OVA en vSphere Web Client con la opción de arranque EFI y se incluye un archivo NVRAM, no se puede realizar la operación.

        Solución alternativa: Implemente la plantilla de OVF con la opción de arranque EFI mediante OvfTool versión 4.2.0.

      • Los perfiles de protocolo de red no se rellenan y no se pueden actualizar en la página Personalizar plantilla del asistente Implementar plantilla de OVF
        En la página Personalizar plantilla del asistente Implementar plantilla de OVF, se reconocen y se muestran las siguientes propiedades personalizadas:
        gateway, netmask, dns, searchPath, domainName, hostPrefix, httpProxy, subnet

        Si no existe ningún perfil de protocolo de red para la red seleccionada, se crea automáticamente un perfil de protocolo de red nuevo al establecer cualquiera de las propiedades personalizadas. Cada una de las propiedades contiene los valores introducidos.

        Si ya existe un Perfil de protocolo de red para la red seleccionada, el nuevo asistente no rellena previamente estas propiedades personalizadas, y los cambios en estos campos se ignoran.

        Solución alternativa: Si necesita una configuración personalizada en lugar de la configuración existente del Perfil de protocolo de red, asegúrese de que no exista uno en la red. Elimine el perfil o elimine la asignación de red en el perfil.

      • La plantilla seleccionada no se conserva cuando el asistente Implementar plantilla de OVF se minimiza, vSphere Web Client se actualiza y el asistente se restaura
        Al implementar una plantilla de OVF con el asistente Implementar plantilla de OVF, realice lo siguiente:

        1. Desplácese por todas las páginas del asistente Implementar plantilla de OVF hasta el paso final.

        2. Minimice el asistente en el panel Trabajo en curso.

        3. Haga clic en Actualización general en la parte superior junto al nombre de usuario.

        4. Restaure el asistente en el panel Trabajo en curso.

        Esto resulta en dos problemas:

        • El Nombre de máquina virtual de origen muestra el mismo valor que el valor Nombre.

        • Si se desplaza hasta la página Seleccionar plantilla, la plantilla seleccionada está vacía, lo que indica que no se conservó la plantilla.

        A pesar de que no aparece la plantilla seleccionada, el asistente puede completar el proceso y la plantilla se implementa de manera correcta. Este problema solo se presenta dentro de la interfaz de vSphere Web Client cuando se muestran los dos valores anteriores.

        Solución alternativa: Evite usar la opción de Actualización general al implementar la plantilla de OVF.

      • La implementación de la plantilla de OVF presenta errores para el usuario que no tiene el permiso de asignación de espacio en almacén de datos
        Al implementar una plantilla de OVF sin este permiso, la operación genera errores.

        Solución alternativa: Asigne el permiso de asignación de espacio en almacén de datos al usuario.

      • La implementación de OVF de una vApp presenta errores en un clúster que no es de DRS
        Cuando intenta implementar un OVF que contiene una vApp en un clúster que no es de DRS, la operación presenta errores. En vSphere 6.5, el asistente de implementación de OVF permite seleccionar un clúster que no es de DRS que pasa las comprobaciones de compatibilidad. Sin embargo, el intento de implementación presenta errores.

        Solución alternativa: Habilite DRS para el clúster que desee o seleccione otra ubicación de implementación.

      • Si usa la opción LimitVMsPerESXhost, es posible que se deshabilite el equilibrio de carga de DRS y que no se pueda generar ninguna recomendación
        La opción LimitVMsPerESXhost se implementa como parte de la comprobación de restricción de DRS. Si la cantidad de máquinas virtuales en el host supera el límite especificado por la opción LimitVMsPerESXhost, no es posible encender otras máquinas virtuales ni migrarlas al host mediante DRS.

        Solución alternativa: Puede usar una nueva opción avanzada TryBalanceVmsPerHost para reemplazar la opción LimitVMsPerESXhost en esta versión, lo que evita un posible error de DRS. Se puede observar el problema de desequilibrio del clúster al configurar manualmente la opción LimitVMsPerESXhost en un valor bajo (por ejemplo, 0).

      • La barra de progreso de tarea en algunas de las operaciones de la biblioteca de contenido no cambia
        La barra de progreso de tarea en algunas de las operaciones de la biblioteca de contenido muestra 0 % durante el progreso de la tarea. Estas operaciones son:

        • Implementar una máquina virtual desde una plantilla de máquina virtual y desde una biblioteca de contenido.

        • Clonar un elemento de biblioteca de una biblioteca a otra.

        • Sincronizar una biblioteca suscrita.

        Solución alternativa: Ninguna.

      • La versión inicial de un contenido de la biblioteca recientemente creado es 2
        La versión inicial de un contenido de la biblioteca recientemente creado es 2 en lugar de 1. Puede ver la versión del elemento de la biblioteca de contenido en la columna Versión de la lista de elementos de la biblioteca de contenido.

        Solución alternativa: Ninguna.

      • Si el nombre de usuario contiene caracteres que no son ASCII, no podrá importar elementos a una biblioteca de contenido desde el sistema local
        Si el nombre de usuario contiene caracteres que no son ASCII, es posible que no pueda importar elementos a una biblioteca de contenido desde el sistema local.

        Solución alternativa: Para importar un elemento a una biblioteca de contenido, use un vínculo URL, como un vínculo HTTP, un vínculo NFS o un vínculo SMB.

      • Si el nombre de usuario contiene caracteres que no son ASCII, no podrá exportar elementos de una biblioteca de contenido al sistema local
        Si el nombre de usuario contiene caracteres que no son ASCII, es posible que no pueda exportar elementos de una biblioteca de contenido al sistema local.

        Solución alternativa: Ninguna.

      • Cuando sincroniza un elemento de la biblioteca de contenido en una biblioteca de contenido suscrita, algunas de las etiquetas del elemento podrían no aparecer
        Es posible que algunas de las etiquetas de un elemento en una biblioteca de contenido publicada no aparezcan en la biblioteca de contenido suscrita después de sincronizar el elemento.

        Solución alternativa: Ninguna.

      • La barra de progreso de la tarea Implementar OVF permanece en 0 %
        Al implementar una plantilla de OVF desde el sistema local, la barra de progreso del asistente Implementar plantillas de OVF permanece en 0 %. Sin embargo, se crean las tareas para Implementar plantilla de OVF e Importar paquete de OVF.

        Solución alternativa: Al seleccionar una plantilla de OVF local, asegúrese de seleccionar todos los archivos a los que se hace referencia, incluido el archivo de OVF y los archivos VMDK que se definen dentro del archivo de descriptor de OVF.

      • La operación de implementación presenta errores si una plantilla de máquina virtual (OVF) incluye una directiva de almacenamiento con replicación
        Si una máquina virtual tiene una directiva de almacenamiento con grupo de replicación de almacenamiento y es capturada como plantilla en una biblioteca, esa plantilla causará errores durante la implementación de la máquina virtual. Esto ocurre porque no se puede seleccionar un grupo de replicación al implementar desde una plantilla de la biblioteca de contenido. La selección del grupo de replicación es necesaria para este tipo de plantilla. Recibirá un mensaje de error y deberá cerrar el asistente de forma manual. No se cerrará automáticamente a pesar del error en la operación.

        Solución alternativa: Elimine la directiva de la máquina virtual original y cree una nueva plantilla de máquina virtual. Puede agregar una directiva a una máquina virtual nueva después de haber creado e implementado la nueva plantilla.

      • Seleccionar una directiva de almacenamiento al implementar una plantilla de biblioteca de contenido hace que se ignore la selección de un almacén de datos o de un clúster de almacén de datos
        Seleccionar una directiva de almacenamiento hace que se ignore la selección de un almacén de datos o de un clúster de almacén de datos. La máquina virtual se implementa en el perfil de almacenamiento seleccionado por el usuario, pero no se implementa en el almacén de datos o en el clúster de almacén de datos seleccionados.

        Solución alternativa: Si la máquina virtual tiene que implementarse en el almacén de datos o el clúster de almacén de datos especificado, asegúrese de que la directiva de almacenamiento se establezca en “Ninguna” al implementar una plantilla de biblioteca de contenido. Esto garantiza que la máquina virtual se almacene en el almacén de datos o el clúster de almacén de datos seleccionados. Después de implementar la máquina virtual correctamente, puede aplicar la directiva de almacenamiento si se desplaza hasta la página de la máquina virtual implementada y edita la directiva de almacenamiento.

      • La carga de elementos en una biblioteca deja de responder cuando los hosts asociados con el almacén de datos de respaldo están en modo de mantenimiento
        No se pueden cargar elementos en una biblioteca cuando los hosts asociados con el almacén de datos de respaldo están en modo de mantenimiento. Al hacerlo, el proceso dejará de responder.

        Solución alternativa: Asegúrese de que al menos un host asociado con el almacén de datos que respalda la biblioteca esté disponible durante la carga.

      • El montaje de un archivo ISO desde una biblioteca de contenido en una máquina virtual no asociada resulta en un cuadro de diálogo vacío
        Solo puede montar un archivo ISO desde una biblioteca de contenido en una máquina virtual si es posible acceder al almacén de datos o al dispositivo de almacenamiento donde el archivo ISO reside desde el host de la máquina virtual. Si no se puede acceder al almacén de datos o al dispositivo de almacenamiento, la interfaz de usuario muestra un cuadro de diálogo vacío.

        Solución alternativa: Haga que el dispositivo de almacenamiento donde reside el archivo ISO esté accesible para el host en el que reside la máquina virtual. Si la directiva prohíbe esto, puede copiar el archivo ISO en una biblioteca de un almacén de datos al que pueda acceder la máquina virtual.

      • Se produce un error al realizar una búsqueda avanzada en las bibliotecas de contenido con la propiedad “Biblioteca de contenido publicada”
        Al realizar una “Búsqueda avanzada” en las bibliotecas de contenido con el valor de la propiedad “Biblioteca de contenido publicada” se produce un error en la búsqueda.

        Solución alternativa: Busque las bibliotecas publicadas de forma manual.

      Problemas de Virtual Volumes

      • Después de actualizar de vSphere 6.0 a vSphere 6.5, la directiva de almacenamiento de Virtual Volumes puede desaparecer de la lista de directivas de almacenamiento de máquina virtual
        Después de actualizar el entorno a vSphere 6.5, la directiva de almacenamiento de Virtual Volumes que se creó en vSphere 6.0 puede dejar de ser visible en la lista de directivas de almacenamiento de máquina virtual.

        Solución alternativa: Cierre la sesión de vSphere Web Client y vuelva a iniciar sesión.

      • vSphere Web Client no puede mostrar información sobre el perfil predeterminado de un almacén de datos de Virtual Volumes
        Por lo general, se puede comprobar la información sobre el perfil predeterminado asociado con el almacén de datos de Virtual Volumes. Para hacerlo en vSphere Web Client, desplácese hasta el almacén de datos y haga clic en Configurar > Opciones > Perfiles predeterminados.
        Sin embargo, vSphere Web Client no puede informar acerca de los perfiles predeterminados cuando sus identificadores, configurados en el lado del almacenamiento, no son únicos en todos los almacenes de datos informados por el mismo proveedor de Virtual Volumes.

        Solución alternativa: Ninguna.

      Problemas de VMFS

      • Después de los intentos fallidos de aumentar un almacén de datos de VMFS, la información de las API de VIM y la información de LVM en el sistema es incoherente
        Este problema ocurre cuando se intenta aumentar el almacén de datos mientras el dispositivo SCSI de respaldo pasa al estado APD o PDL. Como consecuencia, se puede observar información inconsistente en las API de VIM y los comandos de LVM en el host.

        Solución alternativa: Siga estos pasos:

        1. Ejecute el comando vmkfstools --growfs en uno de los hosts conectados al volumen.

        2. Realice la operación rescan-vmfs en todos los hosts conectados al volumen.

      • El almacén de datos de VMFS6 no admite la combinación de dispositivos 512n ni 512e en el mismo almacén de datos
        Un almacén de datos de VMFS6 se puede expandir solo con dispositivos del mismo tipo. Si el almacén de datos de VMFS6 está respaldado por un dispositivo 512n, expanda el almacén de datos con los dispositivos 512n. Si el almacén de datos se crea en un dispositivo 512e, expanda el almacén de datos con dispositivos 512e.

        Solución alternativa: Ninguna.

      • ESXi no admite la recuperación de espacio automática en matrices con granularidad de cancelación de asignación mayor que 1 MB
        Si la granularidad de cancelación de asignación del almacenamiento de respaldo es mayor que 1 MB, no se procesan las solicitudes de cancelación de asignación del host ESXi. Se puede ver el mensaje Unmap no compatible en el archivo vmkernel.log.

        Solución alternativa: Ninguna.

      • Cuando se vuelve a examinar almacenamiento en entornos con una gran cantidad de LUN, se podrían producir problemas impredecibles
        Volver a examinar almacenamiento es una operación de uso intensivo de E/S. Si se ejecuta mientras se realiza otra operación de administración de almacenes de datos, como la creación o la extensión de un almacén de datos, pueden experimentarse demoras y otros problemas. Es probable que se produzcan problemas en entornos con gran cantidad de LUN (hasta 1.024) que se admiten en vSphere 6.5.

        Solución alternativa: Por lo general, basta con realizar las tareas de reexaminación del almacenamiento que el host realiza periódicamente. No se requiere que vuelva a examinar el almacenamiento al realizar tareas de administración generales de almacenes de datos. El almacenamiento solo se debe volver a examinar cuando sea absolutamente necesario, especialmente cuando las implementaciones incluyan una gran cantidad de LUN.

      Problemas de directiva de almacenamiento de máquina virtual

      • La migración en caliente de una máquina virtual con vMotion entre diferentes instancias de vCenter Server puede cambiar el estado de cumplimiento de una directiva de almacenamiento de máquina virtual
        Después de usar vMotion para realizar una migración en caliente de una máquina virtual entre diferentes instancias de vCenter Server, el estado de cumplimiento de la directiva de almacenamiento de máquina virtual cambia a DESCONOCIDO.

        Solución alternativa: Compruebe el cumplimiento en la máquina virtual migrada para actualizar el estado de cumplimiento.

        1. En vSphere Web Client, desplácese hasta la máquina virtual.

        2. En el menú contextual, seleccione Directivas de máquina virtual > Comprobar el cumplimiento de la directiva de almacenamiento de máquina virtual.
          El sistema verificará el cumplimiento.

      Problemas con vSphere HA y Fault Tolerance
      • Error en la replicación de vCenter High Availability cuando caduca la contraseña del usuario
        Cuando caduca la contraseña del usuario de vCenter High Availability, se producen varios errores en la replicación de vCenter High Availability. Para obtener más información sobre los errores y sus causas, consulte el artículo en http://kb.vmware.com/kb/2148675.

        Solución alternativa: Restablezca la contraseña del usuario de vCenter High Availability en los tres nodos de vCenter High Availability: activo, pasivo y testigo. Consulte el artículo en http://kb.vmware.com/kb/2148675 para obtener instrucciones sobre cómo restablecer las contraseñas de usuario.

      • Error en vCenter al implementar vCenter High Availability con una IP de conmutación por error alternativa para el nodo pasivo sin especificar una dirección IP de puerta de enlace
        vCenter High Availability requiere que se especifique una dirección IP de puerta de enlace si se definen una dirección IP y una máscara de red alternativas para el nodo pasivo en una implementación de vCenter High Availability. Si no se especifica dicha dirección IP de puerta de enlace cuando se utiliza una dirección IP alternativa para la implementación del nodo pasivo, se produce un error en vCenter Server.

        Solución alternativa: Debe especificar una dirección IP de puerta de enlace si utiliza una dirección IP alternativa para el nodo pasivo en una implementación de VCHA.

      • Puede que se produzca un error de implementación de vCenter High Availability si el dispositivo tiene un nombre de host con mayúsculas y minúsculas al configurar el dispositivo
        Si VCSA se instala con un FQDN con mayúsculas y minúsculas, puede que se produzca un error al intentar implementar vCenter High Availability. Esto se debe a que la validación de nombre de host de la implementación de vCenter High Availability distingue entre mayúsculas y minúsculas.

        Solución alternativa: Debe utilizar un nombre de host solo en mayúsculas o solo en minúsculas al configurar el dispositivo.

      • Se debe habilitar SSH en vCenter Server Appliance para configurar vCenter HA
        Si SSH está deshabilitado durante la instalación de un nodo de administración (con instancia de PSC externa) y durante la configuración de vCenter HA desde vSphere Web Client, se produce un error en la tarea de implementación de vCenter HA con el mensaje: SSH no está habilitado. Puede habilitar SSH en vCenter Server Appliance mediante vSphere Web Client o la interfaz de usuario de Appliance Management (VAMI) y, a continuación, puede configurar vCenter HA desde vSphere Web Client.

        Solución alternativa: Ninguna. Debe habilitar SSH en vCenter Server Appliance para que vCenter HA funcione.

      • No se puede configurar vCenter HA desde la interfaz de usuario de vSphere Web Client cuando se usa una dirección IP en lugar de un FQDN durante la implementación
        Cuando realiza los siguientes pasos, se produce un error:

        1. Al implementar vCenter Server, en el cuadro de texto “Nombre del sistema” de la interfaz de usuario de implementación, introduzca una dirección IP en lugar de un FQDN y complete la instalación.

        2. Después de la implementación correcta, realice todos los pasos de requisitos previos para configurar vCenter HA.

        3. Durante la configuración de vCenter HA en la interfaz de usuario de vSphere Web Client se produce el siguiente mensaje de error:
          No se puede recuperar la información de Platform Service Controller. Asegúrese de que el servicio de administración de la aplicación se esté ejecutando y que usted sea miembro del grupo de administradores de configuración del sistema de Single Sign-On. No se puede recuperar la información de la red del sistema operativo invitado acerca de la máquina virtual de vCenter. Asegúrese de que el servicio de administración de la aplicación se esté ejecutando.

        Solución alternativa: Proporcione un FQDN en el campo Nombre del sistema al implementar vCenter (o PSC).

      • vSphere HA podría provocar un error al reiniciar máquinas virtuales dependientes y cualquier otra máquina virtual en un nivel inferior
        Actualmente, el temporizador de anulación de máquina virtual se inicia para una correcta colocación de la máquina virtual. Si existe una dependencia entre las máquinas virtuales del mismo nivel y la máquina virtual no puede reiniciarse correctamente, entonces ni las máquinas virtuales dependientes ni las máquinas virtuales en niveles inferiores podrán reiniciarse. Sin embargo, si las máquinas virtuales se encuentran en diferentes niveles sin dependencia en una máquina virtual del mismo nivel, el tiempo de espera del nivel se respeta y las máquinas virtuales de un nivel inferior conmutarán por error después del tiempo de espera.

        Solución alternativa: No cree dependencias de máquina virtual en el mismo nivel.

      • La creación de un clúster de vSphere HA habilita la protección de componentes de la máquina virtual de manera predeterminada y los hosts ESXi 5.5 no se pueden agregar al clúster
        Se produce un error al intentar agregar un host ESXi 5.5 a un nuevo clúster de vSphere HA o al habilitar vSphere HA en un clúster recién creado que tiene hosts ESXi 5.5 porque la protección de componentes de la máquina virtual está habilitada de manera predeterminada. Esto devuelve el siguiente mensaje de error: No se puede habilitar la protección de componentes de la máquina virtual de vSphere HA para el clúster especificado porque contiene un host con la opción "Actualizar el host a 6.0 o una versión superior". Esto no afecta a los hosts ESXi 6.0 ni a versiones posteriores.

        Solución alternativa: Vaya a la configuración de vSphere HA del clúster recién creado. En la pestaña Errores y respuestas, asegúrese de que las opciones “Almacén de datos con PDL” y “Almacén de datos con APD” estén deshabilitadas. Después de guardar esta configuración, puede agregar hosts ESXi 5.5 al clúster.

      • Si se reinicia un nodo activo durante una operación que elimina la configuración del clúster de vCenter HA, puede que sea necesario iniciar el nodo activo de forma manual
        La eliminación de la configuración del clúster de vCenter HA es un proceso de varios pasos que actualiza la configuración de vCenter Appliance. Debe marcar el dispositivo de modo que se inicie como una instancia de vCenter Server Appliance independiente. Si el dispositivo activo se bloquea o se reinicia durante una operación clave de la eliminación de la configuración de vCenter HA, puede que el nodo activo se reinicie en un modo en el que deba intervenir para iniciar todos los servicios del dispositivo.

        Solución alternativa: Debe seguir estos pasos para iniciar todos los servicios en el dispositivo activo:

        1. Inicie sesión en las consolas del dispositivo de vCenter activo.

        2. Habilite Bash cuando el dispositivo lo solicite.

        3. Ejecute el comando destroy-vcha -f

        4. Inicie el dispositivo.

      • Si se intenta reiniciar un nodo activo con la intención de llevar a cabo una conmutación por error, puede que el nodo activo continúe en ese mismo estado tras el reinicio
        En un clúster de vCenter HA, cuando un nodo activo pasa por un ciclo de reinicio, el nodo pasivo detecta que el nodo activo del clúster de vCenter HA no está disponible de forma temporal. Por ello, el nodo pasivo intenta asumir la función de nodo activo. Si el nodo activo se reinicia mientras se modifica un estado de dispositivo en el nodo activo, es posible que no se pueda completar la conmutación por error al nodo pasivo. Si esto sucede, el nodo activo seguirá siendo el nodo activo cuando se complete el ciclo de reinicio.

        Solución alternativa: Si se reinicia el nodo activo para provocar una conmutación por error al nodo pasivo, se debe usar el flujo de trabajo "Iniciar conmutación por error" de la interfaz de usuario, o el comando Initiate Failover API. De este modo se asegura que el nodo pasivo asuma la función de nodo activo.

      Para contraer la lista de los problemas conocidos anteriores, haga clic aquí.