VMware ESXi 5.5 Update 3a 发行说明

|

VMware ESXi™ 5.5 Update 3a | 2015 年 10 月 6 日 | 内部版本 3116895

上次更新时间:2016 年 3 月 30 日

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

本版本的 VMware ESXi 包含以下增强功能:

  • 启用日志轮换 vmx 文件的日志轮换允许您通过指定每个日志的大小以及要保留的以前日志的数量来减小日志文件的大小。


  • PVSCSI 适配器认证 PVSCSI 适配器经过认证,可以用于 MSCS、核心群集和包括 SQL 和 Exchange 在内的应用程序。这可以在从 LSI Logic SAS 转变为 PVSCSI 时实现性能提升。


  • 支持新一代处理器 在此版本中,我们将继续支持来自 Intel 和 AMD 的新一代处理器。有关更多信息,请参见《VMware 兼容性指南》。


  • 适用于 Active Directory 的 ESXi 身份验证 ESXi 已修改为仅支持对 ESXi 和 Active Directory 之间的 Kerberos 通信使用 AES256-CTS/AES128-CTS/RC4-HMAC 加密。


  • 已解决的问题 本版本提供了许多已在已解决的问题部分中记录的缺陷修复。

ESXi 5.5 的早期版本

各个版本的发行说明中分别描述了 ESXi 5.5 的功能和已知问题。ESXi 5.5 的早期版本的发行说明包括:

国际化

VMware vSphere 5.5 Update 3a 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文
  • 繁体中文

兼容性和安装

ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 VMware 产品互操作性列表以了解有关受支持的管理和备份代理的信息。

vSphere Client 和 vSphere Web Client 打包在 vCenter Server ISO 上。您可以使用 VMware vCenter™ 安装程序向导来安装其中一个客户端,也可以同时安装这两个客户端。

ESXi、vCenter Server 和 VDDK 兼容性

Virtual Disk Development Kit (VDDK) 5.5.3 增加了对 ESXi 5.5 Update 3 和 vCenter Server 5.5 Update 3 版本的支持。
有关 VDDK 的详细信息,请参见 http://www.vmware.com/support/developer/vddk/

ESXi 和 Virtual SAN 的兼容性

Virtual SAN 不支持在 5.5 Update 1 之前版本的 ESXi 主机上配置的群集。在启用 Virtual SAN 前,请确保 Virtual SAN 群集中的所有主机都已升级到 ESXi 5.5 Update 1 或更高版本。vCenter Server 也应升级到 5.5 Update 1 或更高版本。

ESXi 的硬件兼容性

要查看与 vSphere 5.5 Update 3 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请查看《VMware 兼容性指南》中关于 ESXi 5.5 Update 3 的信息。

ESXi 的设备兼容性

要确定哪些设备与 ESXi 5.5 Update 3a 兼容,请查看《VMware 兼容性指南》中关于 ESXi 5.5 Update 3 的信息。

某些设备已在 ESXi 5.5 及更高版本上弃用,并且不再受支持。在升级过程中,设备驱动程序安装在 ESXi 5.5.x 主机上。该驱动程序可能仍在 ESXi 5.5.x 上起作用,但设备在 ESXi 5.5.x 上不受支持。有关已在 ESXi 5.5.x 上弃用且不再受支持的设备列表,请参见 VMware 知识库文章 ESXi 5.5 升级过程中的弃用设备及警告

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 vSphere 5.5 Update 3a 兼容,请查看《VMware 兼容性指南》中关于 ESXi 5.5 Update 3 的信息。

ESXi 的虚拟机兼容性

ESXi 5.5 Update 3 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 5.5 Update 3 上使用此类虚拟机,请升级虚拟机兼容性。请参见《vSphere 升级》文档。

vSphere Client 与使用 vCenter Server 5.x 的链接模式环境之间的连接

vCenter Server 5.5 在链接模式下只能与 vCenter Server 5.5 的其他实例共存。

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的指导,请阅读《vSphere 安装和设置》文档。

虽然安装过程很简单,但是仍须执行若干后续配置步骤。请阅读以下文档:

迁移第三方解决方案

无法将 ESX 或 ESXi 主机上安装的第三方解决方案作为主机升级的一部分直接进行迁移。ESXi 5.1 与 ESXi 5.5 之间的架构更改会导致丢失第三方组件,并可能造成系统不稳定。要完成此类迁移,您可以使用 Image Builder 创建自定义 ISO 文件。有关使用第三方自定义内容升级主机的信息,请参见《vSphere 升级》文档。有关使用 Image Builder 创建自定义 ISO 的信息,请参见《vSphere 安装和设置》文档。

禁止对不支持的 CPU 进行升级和安装

vSphere 5.5.x 仅支持采用 LAHF 和 SAHF CPU 指令集的 CPU。在安装或升级过程中,安装程序将检查主机 CPU 与 vSphere 5.5.x 的兼容性。如果您的主机硬件不兼容,将显示带有不兼容消息的紫色屏幕。您无法安装或升级到 vSphere 5.5.x。

本版本的升级

有关升级 vCenter Server 和 ESX/ESXi 主机的说明,请参见 《vSphere 升级》文档。

支持升级到 ESXi 5.5 Update 3a 的升级途径

升级交付产品

受支持的升级工具

支持升级到 ESXi 5.5 Update 3a 的升级途径

ESX/ESXi 4.0
包括
ESX/ESXi 4.0 Update 1
ESX/ESXi 4.0 Update 2

ESX/ESXi 4.0 Update 3
ESX/ESXi 4.0 Update 4

ESX/ESXi 4.1:
包括
ESX/ESXi 4.1 Update 1
ESX/ESXi 4.1 Update 2

ESX/ESXi 4.1 Update 3

ESXi 5.0:
包括
ESXi 5.0 Update 1

ESXi 5.0 Update 2
ESXi 5.0 Update 3

ESXi 5.1
包括
ESXi 5.1 Update 1
ESXi 5.1 Update 2

ESXi 5.5
包括
ESXi 5.5 Update 1
ESXi 5.5 Update 2

VMware-VMvisor-Installer-5.5.0.update03-3116895.x86_64.iso

 

  • VMware vSphere Update Manager
  • CD 升级
  • 脚本式升级


ESXi550-201510001.zip
  • VMware vSphere Update Manager
  • ESXCLI
  • VMware vSphere CLI

是*

是*

使用从 VMware 门户(联机)下载的修补程序定义 带有修补程序基准的 VMware vSphere Update Manager


*注意:仅 ESXCLI 支持使用 ESXi550-201510001.zip 将 ESXi 5.0.x 或 ESXi 5.1.x 升级到 ESXi 5.5 Update 3a。需要运行 esxcli software profile update --depot=<depot_location> --profile=<profile_name> 命令执行升级。有关详细信息,请参见《vSphere 升级指南》中的“ESXi 5.5.x 升级选项”主题。

VMware vSphere 5.5 Update 3 的开源组件

可从 http://www.vmware.com/download/vsphere/open_source.html 的“开源”选项卡上获取适用于 vSphere 5.5 Update 3 中分发的开源软件组件的版权声明和许可证。您还可以下载 vSphere 最新可用版本的所有 GPL、LGPL 或者其他要求公开源代码或对源代码进行修改的类似许可证的源文件。

产品支持注意事项

  • vSphere Web Client。由于 Adobe Flash 不再支持 Linux 平台,因此 Linux 操作系统不支持 vSphere Web Client。已添加 Adobe Flash 支持的第三方浏览器仍可在 Linux 操作系统上继续工作。

    VMware vCenter Server Appliance。在 vSphere 5.5 中,VMware vCenter Server Appliance 可通过强制执行美国国防信息系统局《安全技术信息准则》(STIG) 来满足严格监管的合规性标准要求。部署 VMware vCenter Server Appliance 之前,请参见《VMware 强化虚拟设备操作指南》以获取有关新安全部署标准的信息,以确保操作成功。

  • vCenter Server 数据库。vSphere 5.5 不再支持使用 IBM DB2 作为 vCenter Server 数据库。

  • VMware Tools。从 vSphere 5.5 开始,有关如何在 vSphere 中安装和配置 VMware Tools 的所有信息都将与其他 vSphere 文档合并。有关在 vSphere 中使用 VMware Tools 的信息,请参见 vSphere 文档。《安装和配置 VMware Tools》与 vSphere 5.5 及更高版本不相关。

  • VMware Tools。从 vSphere 5.5 开始,VMware Tools 不再提供 ThinPrint 功能。

  • vSphere Data Protection。由于 vSphere Web Client 运行方式改变,vSphere Data Protection 5.1 与 vSphere 5.5 不兼容。升级到 vSphere 5.5 的 vSphere Data Protection 5.1 用户如果继续使用 vSphere Data Protection,必须同时更新 vSphere Data Protection。

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi550-Update03 包含以下各公告:

ESXi550-201510401-BG:更新 ESXi 5.5 esx-base vib

修补程序版本 ESXi550-Update03 包含以下映像配置文件:

ESXi-5.5.0-20151004001-standard
ESXi-5.5.0-20151004001-no-tools

有关修补程序和更新分类的信息,请参见知识库文章 2014447

已解决的问题

本节介绍了此版本中已解决的问题:

备份问题

  • 尝试还原虚拟机可能失败并显示错误
    使用 vSphere Data Protection 在 ESXi 主机上尝试还原虚拟机可能失败并显示一条类似以下内容的错误消息:

    重新配置过程中收到意外的异常 (Unexpected exception received during reconfigure)

    本版本已解决该问题。

CIM 和 API 问题

  • 当系统事件日志已满且存在指示订阅时,会出现 syslog 涌出的现象
    当系统事件日志 (SEL) 已满且存在指示订阅时,会出现 syslog 涌出的现象。系统会快速记录以下日志:

    sfcb-vmware_raw[xxxxxxxxxx]: Can't get Alert Indication Class.Use default
    sfcb-vmware_raw[xxxxxxxxxx]: Can't get Alert Indication Class.Use default
    sfcb-vmware_raw[xxxxxxxxxx]: Can't get Alert Indication Class.Use default

    本版本已解决该问题。
  • 使用 Auto Deploy 重新引导 ESXi 主机时 CIM 指示可能会失败
    如果 sfcbd 服务停止运行,则主机配置文件中的 CIM 指示将无法成功应用。

    本版本通过在应用主机配置文件时确保 CIM 指示不依赖于 sfcbd 服务的状态,已将该问题解决。
  • 某些磁盘的状态可能显示为 UNCONFIGURED GOOD 而不是 ONLINE
    在 ESXi 5.5 主机上,某些磁盘的状态可能显示为 UNCONFIGURED GOOD 而不是 ONLINE。LSI 控制器使用 LSI CIM 提供程序时会出现此问题。

    本版本已解决该问题。
  • 通过 CIM 接口加载内核模块可能会失败
    当使用 CIM 接口客户端加载内核模块时,LoadModule 命令可能会失败。将显示类似于以下内容的错误消息:

    VMkernel 访问控制策略已拒绝访问 (Access denied by VMkernel access control policy)。

    本版本已解决该问题。
  • 使用 Dell OpenManage 监控 ESXi 5.5 主机时可能由于 openwsmand 错误而失败
    使用 Dell OpenManage 监控 ESXi 5.5 主机时可能由于 openwsmand 错误而失败。syslog.log 文件中可能会报告类似于以下内容的错误消息:

    Failed to map segment from shared object: No space left on device

    本版本已解决该问题。
  • 在 vSphere Client 上查询硬件状态可能会失败,并显示错误
    尝试在 vSphere Client 上查询硬件状态可能会失败。类似于以下内容的错误消息将在 ESXi 主机中的 /var/log/syslog.log 文件中显示:

    TIMEOUT DOING SHARED SOCKET RECV RESULT (1138472) Timeout (or other socket error) waiting for response from provider Header Id (16040) Request to provider 111 in process 4 failed.Error:Timeout (or other socket error) waiting for response from provider Dropped response operation details -- nameSpace: root/cimv2, className: OMC_RawIpmiSensor, Type: 0

    本版本已解决该问题。
  • 使用 Dell OpenManage 监控 ESXi 5.5 主机时可能由于 openwsmand 错误而失败
    使用 Dell OpenManage 监控 ESXi 5.5 主机时可能由于 openwsmand 错误而失败。syslog.log 文件中可能会报告类似于以下内容的错误消息:

    Failed to map segment from shared object: No space left on device

    本版本已解决该问题。
  • sfcbd 服务可能会停止响应并返回错误消息
    sfcbd 服务可能会停止响应,并且 syslog 文件可能会出现以下错误消息:

    spSendReq/spSendMsg failed to send on 7 (-1)
    Error getting provider context from provider manager: 11

    当 CIM 服务器和提供程序争用信号灯时,将出现此问题。

    本版本已解决该问题。
  • vSphere Client 的“硬件状态”选项卡中出现无效警报
    在 HP DL980 G7 上完成 Integrated Lights Out (iLO) 固件的升级后,vSphere Client 的“硬件状态”选项卡中将出现无效警报。/var/log/syslog.log 文件中可能会记录类似于以下内容的错误消息:

    sfcb-vmware_raw[nnnnn]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x8 FAILED cc=0xffffffff
    sfcb-vmware_raw[nnnnn]: IpmiIfcFruChassis: Reading FRU Chassis Info Area length for 0x0 FAILED
    sfcb-vmware_raw[nnnnn]: IpmiIfcFruBoard: Reading FRU Board Info details for 0x0 FAILED cc=0xffffffff
    sfcb-vmware_raw[nnnnn]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x70 FAILED cc=0xffffffff
    sfcb-vmware_raw[nnnnn]: IpmiIfcFruProduct: Reading FRU product Info Area length for 0x0 FAILED
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: data length mismatch req=19,resp=3
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0001,resp=0002
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0002,resp=0003
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0003,resp=0004
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0004,resp=0005
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0005,resp=0006
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0006,resp=0007

    本版本已解决该问题。
  • ESXi 可能会向管理软件发送重复事件
    在 ESXi 主机上触发智能平台管理界面 (IPMI) 传感器事件后,ESXi 可能会向管理软件发送重复事件。

    本版本已解决该问题。
  • 在删除 CIM 指示订阅后无法监控硬件状态
    如果 CIM 客户端向同一 CIM 指示订阅发送两个“删除实例”请求,则 sfcb-vmware_int 可能会由于内存争用而停止响应。您可能无法通过 vCenter Server 和 ESXi 监控硬件状态。

    本版本已解决该问题。
  • 使用 Dell OpenManage 监控 ESXi 5.5 主机时可能由于 openwsmand 错误而失败
    使用 Dell OpenManage 监控 ESXi 5.5 主机时可能由于 openwsmand 错误而失败。可能会报告类似以下内容的错误消息:

    Failed to map segment from shared object: No space left on device

    本版本已解决该问题。
  • CIM 客户端可能会由于多次枚举而显示错误
    使用 CBEnumInstances 方法对 VMware 以太网端口类执行多次枚举查询时,在 ESXi 5.5 上运行的服务器可能会显示类似于以下内容的错误消息:

    CIM 错误: 找不到 enumInstances 类 (CIM error: enumInstances Class not found)

    管理软件无法检索由 VMware_EthernetPort() 类提供的信息时,将出现此问题。当出现此问题时,对 memstats 执行查询时可能会显示以下错误消息:

    MemStatsTraverseGroups: VSI_GetInstanceListAlloc 故障: Not found.

    本版本已解决该问题。
  • 无法在 ESXi 主机上监控硬件状态
    ESXi 主机可能会由于硬件监控服务 (sfcbd) 无响应而在“硬件状态”选项卡中报告错误。将向 syslog.log 中写入类似于以下内容的错误:

    sfcb-hhrc[5149608]: spGetMsg receiving from 65 5149608-11 Resource temporarily unavailable
    sfcb-hhrc[5149608]: rcvMsg receiving from 65 5149608-11 Resource temporarily unavailable
    sfcb-hhrc[5149608]: Timeout or other socket error
    sfcb-LSIESG_SMIS13_HHR[6064161]: spGetMsg receiving from 51 6064161-11 Resource temporarily unavailable
    sfcb-LSIESG_SMIS13_HHR[6064161]: rcvMsg receiving from 51 6064161-11 Resource temporarily unavailable
    sfcb-LSIESG_SMIS13_HHR[6064161]: Timeout or other socket error
    sfcb-kmoduleprovider[6064189]: spGetMsg receiving from 57 6064189-11 Resource temporarily unavailable
    sfcb-kmoduleprovider[6064189]: rcvMsg receiving from 57 6064189-11 Resource temporarily unavailable
    sfcb-kmoduleprovider[6064189]: Timeout or other socket error

    下面调试级别的 syslog 指示所需的数据为 0x01,IPMI 却发送了无效数据 0x3c。

    sfcb-vmware_raw[35704]: IpmiIfcRhFruInv: fru.header.version: 0x3c

    在读取现场可更换单元 (FRU) 清单数据时,如果 sfcb-vmware_raw 提供程序从智能平台管理界面 (IPMI) 工具收到了无效数据,则会发生此问题。

    本版本已解决该问题。

其他问题

  • 从 ESXi 主机克隆启用了 CBT 的虚拟机模板可能会失败
    尝试同时从两台不同的 ESXi 5.5 主机克隆启用了 CBT 的虚拟机模板可能会失败。将显示类似于以下内容的错误消息:

    未能打开 VM_template.vmdk: 无法打开/创建更改跟踪文件 (2108) (Failed to open VM_template.vmdk: Could not open/create change tracking file (2108))。

    本版本已解决该问题。
  • 无法使用 Active Directory 凭据登录 ESXi 主机
    在主机成功加入 Active Directory 后,尝试登录到 ESXi 主机可能会失败。当用户尝试从一个域加入另一个信任域,而 ESXi 客户端站点中根本不存在此信任域时会发生此问题。将向 sys.log/netlogon.log 文件写入类似于以下内容的错误:

    netlogond[17229]: [LWNetDnsQueryWithBuffer() /build/mts/release/bora-1028347/likewise/esxi-esxi/src/linux/netlogon/utils/lwnet-dns.c:1185] DNS lookup for '_ldap._tcp.<domain details>' failed with errno 0, h_errno = 1

    本版本已解决该问题。
  • cURL 库的更新
    在禁用 IPv6 后,cURL 无法解析 localhost。将显示类似于以下内容的错误消息:

    错误: enumInstances 无法初始化 (error: enumInstances Failed initialization)

    本版本已解决该问题。

网络连接问题

  • 其虚拟机拥有 e1000 或 e1000e vNIC 驱动程序的 ESXi 主机可能会出现故障并显示紫屏
    当您启用 TCP 分段卸载 (TSO) 功能时,其虚拟机拥有 e1000 或 e1000e vNIC 驱动程序的 ESXi 主机可能会出现故障并显示紫屏。可能会向日志文件中写入类似以下内容的错误消息:

    cpu7:nnnnnn)Code start: 0xnnnnnnnnnnnn VMK uptime: 9:21:12:17.991
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]E1000TxTSOSend@vmkernel#nover+0x65b stack: 0xnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]E1000PollTxRing@vmkernel#nover+0x18ab stack: 0xnnnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]E1000DevAsyncTx@vmkernel#nover+0xa2 stack: 0xnnnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]NetWorldletPerVMCB@vmkernel#nover+0xae stack: 0xnnnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]WorldletProcessQueue@vmkernel#nover+0x488 stack: 0xnnnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]WorldletBHHandler@vmkernel#nover+0x60 stack: 0xnnnnnnnnnnnnnnn
    cpu7:nnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]BH_Check@vmkernel#nover+0x185 stack: 0xnnnnnnnnnnnn

    本版本已解决该问题。
  • ESXi 响应不必要的 Internet 控制消息协议请求类型
    ESXi 主机可能响应不必要的 Internet 控制消息协议 (ICMP) 请求类型。

    本版本已解决该问题。
  • 当执行存储设备重新扫描操作时,ESXi hostd 可能失败
    当执行存储设备重新扫描操作时,hostd 可能会因为多个线程尝试修改同一对象而失败。您将在 vmkwarning.log 文件中看到类似以下内容的错误消息:

    cpu43:nnnnnnn)ALERT: hostd detected to be non-responsive
    cpu20:nnnnnnn)ALERT: hostd detected to be non-responsive

    本版本已解决该问题。
  • 将 ESXi 主机添加到 vCenter Server 时出现日志涌出
    当您在 vCenter Server 中添加 ESXi 主机并为 vMotion 创建 VMkernel 接口时,您将看到 hostd.log 文件中快速连续地显示以下消息(日志涌出):

    Failed to find vds Id for portset vSwitch0

    本版本已解决该问题。
  • 使用 Microsoft Windows 部署服务 (WDS) 以 PXE 方式引导使用 VMXNET3 网络适配器的虚拟机可能会失败
    尝试使用 Microsoft Windows 部署服务 (WDS) 以 PXE 方式引导使用 VMXNET3 网络适配器的虚拟机时可能会失败,并显示类似以下内容的消息:

    Windows 未能启动。原因可能是最近更改了硬件或软件。解决此问题的步骤:
    1.插入 Windows 安装光盘并重新启动计算机。
    2.选择您的语言设置,然后单击“下一步”。
    3.单击“修复计算机”
    如果没有此光盘,请与您的系统管理员或计算机制造商联系,以获得帮助。

    状态: 0xc0000001

    信息: 引导选择失败,因为需要的设备不可访问。

    本版本已解决该问题。
  • 配置 Rx Ring#2,解决 Rx Ring#2 内存不足以及接收方丢弃数据包的问题
    在 VMXNET3 设备上启用了大型接收卸载 (LRO) 功能的 Linux 虚拟机可能会在 Rx Ring #2 内存不足时遇到接收方丢弃数据包的问题,因为 Rx Ring#2 的大小无法进行初始配置。

    本版本已解决该问题。
  • 当在支持 NetQueue 的上行链路上使用 DvFilter 时可能会显示紫色诊断屏幕
    当在支持 NetQueue 的上行链路上使用 DvFilter 连接至 vSwitch 或 vSphere Distributed Switch (VDS) 时,ESXi 服务器可能会显示紫色诊断屏幕。ESXi 主机可能报告类似以下内容的回溯追踪:

    pcpu:22 world:4118 name:"idle22" (IS)
    pcpu:23 world:2592367 name:"vmm1:S10274-AAG" (V)
    @BlueScreen: Spin count exceeded (^P) - possible deadlock
    Code start: 0xnnnnnnnnnnnn VMK uptime: 57:09:18:15.770
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Panic@vmkernel#nover+0xnn stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]SP_WaitLock@vmkernel#nover+0xnnn stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]NetSchedFIFOInput@vmkernel#nover+0xnnn stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]NetSchedInput@vmkernel#nover+0xnnn stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]IOChain_Resume@vmkernel#nover+0xnnn stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PortOutput@vmkernel#nover+0xnn stack: 0xnn

    本版本已解决该问题。
  • 当 Netflow 功能被禁用时,ESXi 主机发生故障并显示紫色诊断屏幕
    当 vSphere Distributed Switch 的 Netflow 功能被禁用时,ESXi 主机可能出现故障,并出现指示 PF 异常 14 错误的紫色诊断屏幕。此问题因定时器同步问题而致。

    本版本已解决该问题。
  • 在 I/O 负荷繁重时将网络调度程序更改为 SFQ 可能导致不可恢复的传输
    如果正在进行的 I/O 负荷繁重,更改网络调度程序可能会致使 SFQ 网络调度程序重置物理网卡。这可能会导致不可恢复的传输,致使没有数据包传输到驱动程序。

    本版本已解决该问题。
  • 含有巨帧的 vmkping 命令可能失败
    在同一台交换机中有一个 vmknic MTU 更改后,含有巨帧的 vmkping 命令可能失败。将显示类似于以下内容的错误消息:

    sendto() 失败 (消息太长) (sendto() failed (Message too long))

    本版本已解决该问题。
  • ESXi 防火墙可能拒绝将端口 0-65535 用作服务端口的服务
    虚拟串行端口集中器 (vSPC) 或 NFS 客户端服务在 ESXi 平台上可能无法运行。当因为支持序列而存在允许端口 0-65535 的另一个规则集命令时会出现此情况。这会导致与 vSPC 或 NFS 客户端相关的数据包被意外丢弃,即使在相应的规则集上指定了允许的 IP 也一样。

    本版本已解决该问题。
  • 使用 VMXNET3 适配器标记 802.1q 时,IPv6 路由器公告无法按预期工作
    在 Linux 虚拟机上使用 VMXNET3 适配器标记 802.1q 时,IPv6 路由器公告 (RA) 无法按预期工作,原因是本应用于 VLAN 接口的 IPv6 RA 地址已提供给基本接口。

    本版本已解决该问题。
  • ESXi 主机可能丢失网络连接
    ESXi 主机可能丢失网络连接并遇到稳定性问题,同时记录多条类似以下内容的错误消息:

    WARNING: Heartbeat: 785: PCPU 63 didn't have a heartbeat for 7 seconds; *may* be locked up.

    本版本已解决该问题。
  • 在 Auto Deploy 期间应用主机配置文件时网络连接丢失
    在 Auto Deploy 期间应用主机配置文件时,可能会丢失网络连接,因为 VXLAN 通道端点 (VTEP) NIC 被标记为管理 vmknic。

    本版本已解决该问题。

安全问题

  • 更新 libxml2 库
    ESXi userworld libxml2 库已更新到版本 2.9.2。
  • 更新 ESXi userworld OpenSSL 库
    ESXi userworld OpenSSL 库已更新到版本 1.0.1m。
  • libPNG 库更新
    libPNG 库已更新为 libpng-1.6.16。

服务器配置问题

  • LAN 上串行控制台重定向可能无法正常运行
    当连接到高级可编程中断控制器 (APIC) 上的行业标准架构 (ISA) 中断请求 (IRQ)(0-15 十进制)时,PCIe 串行端口重定向卡可能无法正常运行,因为 CPU 无法收到中断。为使这些 PCI 设备以及其他连接到 ISA IRQ 的 PCI 设备能够正常运行,VMkernel 现在允许 ISA IRQ 上的电平触发中断。

    本版本已解决该问题。
  • Esxtop 可能会将 CPU 利用率错误显示为 100%
    如果您将 PcpuMigrateIdlePcpus 设置为 0,则 esxtop 实用程序中的 PCPU UTIL/CORE UTIL 错误地将 CPU 利用率显示为 100%。

    本版本已解决该问题。
  • 在查询光纤通道主机总线适配器时报告 Unknown(1) 状态
    在您将 ESXi 主机从 ESXi 5.1 升级到 5.5 且导入最新的 MIB 模块时,第三方监控软件会在查询光纤通道 (FC) 主机总线适配器 (HBA) 时返回“unknown(1)”状态。

    本版本已解决该问题。
  • 现有 ESXi 主机配置文件重新应用到有状态 ESXi 主机后,主机网关会被删除并出现合规性故障
    现有 ESXi 主机配置文件应用于新安装的 ESXi 5.5 主机后,配置文件合规性状态可能显示为不合规。当从配置了 VXLAN 接口的主机创建主机配置文件时发生此问题,使用以前创建的主机配置文件对主机进行的合规性测试可能失败。将显示类似于以下内容的错误消息:

    IP 路由配置不符合规范 (IP route configuration doesn't match the specification)

    本版本已解决该问题。
  • 嵌套 ESXi 环境中显示指出出现页面错误异常的紫色诊断屏幕
    在嵌套 ESXi 环境中,执行 CpuSchedAfterSwitch() 会导致在调度程序代码中出现争用情况,并显示指出出现页面错误异常的紫色诊断屏幕。

    本版本已解决该问题。
  • 当使用 esxcli 启用软件 iSCSI 时,允许使用 iSCSI 启动器名称
    您现在可以在 esxcli iscsi software set 命令中指定 iSCSI 启动器名称。
  • CPU 未完全预留时,虚拟机可能不显示警告消息
    创建 sched.cpu.latencySensitivity 设置为“高”的虚拟机并打开其电源时,如果该虚拟机不具有全部的 CPU 预留,则可能不会启用 vCPU 的独占关联性。

    在早期版本中,虚拟机在 CPU 未完全预留时不会显示警告消息。有关详细信息,请参见知识库文章 2087525

    本版本已解决该问题。
  • 在 ESXi 主机升级后,SNMPD 可能会自动开始运行
    在将 ESXi 主机升级到 5.5 Update 2 后,SNMPD 可能会自动开始运行。

    本版本已解决该问题。
  • 简单更改 SNMP syscontact 或 syslocation 后,主机配置文件变得不兼容
    简单更改 SNMP syscontact 或 syslocation 后,主机配置文件变得不兼容。当 SNMP 主机配置文件插件仅对附加到主机配置文件的所有主机应用单个值时会出现该问题。可能会显示类似于以下内容的错误消息:

    SNMP 代理配置不同 (SNMP Agent Configuration differs)

    本版本通过启用某些参数(例如 syslocation、syscontact、v3targets、v3users 和 engineid)的每个主机值设置解决了该问题。
  • 尝试创建 FIFO 并向其中写入数据可能会显示紫色诊断屏幕
    创建 FIFO 并尝试将数据写入 /tmp/dpafifo 时,在某些情况下可能会显示紫色诊断屏幕。

    本版本已解决该问题。
  • 尝试在 ESXi 主机虚拟机上重新引导 Windows 8 和 Windows 2012 Server 可能会失败
    重新引导后,Windows 8 和 Windows 2012 Server 虚拟机可能会在显示 Microsoft Windows 开机画面后变得无响应。有关详细信息,请参考知识库文章 2092807

    本版本已解决该问题。
  • 设置单处理器虚拟机的 CPU 限制会降低 ESXi 利用率
    设置单处理器虚拟机的 CPU 限制时,ESXi 的总体利用率可能会因 ESXi 调度程序存在缺陷而降低。进行 CPU 负载估算时,如果 ESXi 调度程序将 CPU 受限的虚拟机视为可运行(它们实际未运行),则会发生此情况。因此会导致不正确的负载平衡决定。

    有关详细信息,请参见知识库文章 2096897

    本版本已解决该问题。

受支持硬件问题

  • esxtop 命令中缺少电源使用情况和功率上限值
    在联想系统中,esxtop 命令中不含电源使用情况和功率上限值。

    本版本已解决该问题。

存储问题

  • 在高可用性故障切换或主机崩溃过程中,该主机上已打开电源的虚拟机的 .vswp 文件可能会保留在存储上
    在高可用性故障切换或主机崩溃过程中,该主机上已打开电源的虚拟机的 .vswp 文件可能会保留在存储上。当多次出现这种故障切换或崩溃时,存储容量可能会变满。

    本版本已解决该问题。
  • 重新扫描具有多数据区的 VMFS 数据存储时,VMkernel 日志文件中可能会显示错误的 PE 更改消息
    重新扫描具有多数据区的 VMFS 数据存储时,即使未出现存储连接问题,VMkernel 日志中也可能会写入以下日志消息:

    Number of PEs for volume changed from 3 to 1.A VMFS volume rescan may be needed to use this volume.

    本版本已解决该问题。
  • 在出现暂时性错误状态时,某个设备的 I/O 可能重复失败,且无法故障切换到备用工作路径
    在出现 BUS BUSY、QFULL、HOST ABORTS、HOST RETRY 等暂时性错误状态时,您可能会重复尝试当前路径上的命令,即使在合理时间后也不会故障切换到另一路径。

    本版本已解决该问题。在发生此类暂时性错误时,如果在多次重试后路径繁忙,则路径状态将更改为不活动。于是,触发故障切换,并使用设备的备用工作路径来发送 I/O。
  • 在高可用性故障切换或主机崩溃过程中,该主机上已打开电源的虚拟机的 .vswp 文件可能会保留在存储上
    在高可用性故障切换或主机崩溃过程中,该主机上已打开电源的虚拟机的 .vswp 文件可能会保留在存储上。当多次出现这种故障切换或崩溃时,存储容量可能会变满。

    本版本已解决该问题。
  • 尝试获取脱机存储的块映射可能导致 hostd 服务崩溃
    当在脱机快照磁盘上尝试执行 acquireLeaseExt API 时,ESXi 5.x 主机上的 hostd 服务可能失败。此快照磁盘可能在已经脱机的数据区上。API 调用程序可能是第三方备份解决方案。vmkernel.log 中将显示类似以下内容的错误消息:

    cpu4:4739)LVM: 11729: Some trailing extents missing (498, 696).

    本版本已解决该问题。
  • 在收集 vm-support 日志包的过程中,ESXi 5.5 主机可能停止响应并显示紫色诊断屏幕
    当任意内置或第三方驱动程序未定义其 SCSI 特定传输接口时,ESXi 主机可能停止响应并显示紫色诊断屏幕。在收集 vm-support 日志包或运行诸如以下 I/O 设备管理 (IODM) 命令行界面 (CLI) 时会出现此问题:

    • esxcli storage san sas list

    • esxcli storage san sas stats get


    本版本已解决该问题。
  • 在某些情况下,尝试将 VMFS 卷扩展到超出 16TB 可能无法成功
    当您尝试将 VMFS5 数据存储扩展到超出 16TB 时,ESXi 主机可能发生故障。将向 vmkernel.log 文件中写入类似以下内容的错误消息:

    cpu38:34276)LVM: 2907: [naa.600000e00d280000002800c000010000:1] Device expanded (actual size 61160331231 blocks, stored size 30580164575 blocks)
    cpu38:34276)LVM: 2907: [naa.600000e00d280000002800c000010000:1] Device expanded (actual size 61160331231 blocks, stored size 30580164575 blocks)
    cpu47:34276)LVM: 11172: LVM device naa.600000e00d280000002800c000010000:1 successfully expanded (new size: 31314089590272)
    cpu47:34276)Vol3: 661: Unable to register file system ds02 for APD timeout notifications: Already exists
    cpu47:34276)LVM: 7877: Using all available space (15657303277568).
    cpu7:34276)LVM: 7785: Error adding space (0) on device naa.600000e00d280000002800c000010000:1 to volume 52f05483-52ea4568-ce0e-901b0e0cd0f0: No space left on device
    cpu7:34276)LVM: 5424: PE grafting failed for dev naa.600000e00d280000002800c000010000:1 (opened: t), vol 52f05483-52ea4568-ce0e-901b0e0cd0f0: Limit exceeded
    cpu7:34276)LVM: 7133: Device scan failed for <naa.600000e00d280000002800c000010000:1>: Limit exceeded
    cpu7:34276)LVM: 7805: LVMProbeDevice failed for device naa.600000e00d280000002800c000010000:1: Limit exceeded
    cpu32:38063)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
    cpu30:38063)LVM: 5424: PE grafting failed for dev naa.600000e00d280000002800c000010000:1 (opened: t), vol 52f05483-52ea4568-ce0e-901b0e0cd0f0: Limit exceeded
    cpu30:38063)LVM: 7133: Device scan failed for <naa.600000e00d280000002800c000010000:1>: Limit exceeded

    本版本已解决该问题。
  • 当多个 vSCSI 筛选器连接到一个虚拟机磁盘时,ESXi 主机可能出现故障并显示紫色诊断屏幕
    当多个 vSCSI 筛选器连接到一个虚拟机磁盘时,ESXi 5.5 主机可能出现故障并显示包含类似于以下内容的紫色诊断屏幕。

    cpu24:103492 opID=nnnnnnnn)@BlueScreen: #PF Exception 14 in world 103492:hostd-worker IP 0xnnnnnnnnnnnn addr 0x30
    PTEs:0xnnnnnnnnnn;0xnnnnnnnnnn;0x0;
    cpu24:103492 opID=nnnnnnnn)Code start: 0xnnnnnnnnnnnn VMK uptime: 21:06:32:38.296
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_GetFilterPrivateData@vmkernel#nover+0x1 stack: 0x4136c7d
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_IssueInternalCommand@vmkernel#nover+0xc3 stack: 0x410961
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FileSyncRead@<None>#<None>+0xb1 stack: 0x0
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_DigestRecompute@<None>#<None>+0x291 stack: 0x1391
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FilterDigestRecompute@<None>#<None>+0x36 stack: 0x20
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_SetInfo@vmkernel#nover+0x322 stack: 0x411424b18120
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_Set@<None>#<None>+0xef stack: 0x41245111df10
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@<None>#<None>+0x243 stack: 0x41245111df20
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0x275c3918
    cpu24:103492 opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry@vmkernel#nover+0x64 stack: 0x0

    本版本已解决该问题。
  • 当非 ATS VMFS 数据存储出现暂时性的存储小问题时,ESXi 主机停止响应并失去与 vCenter Server 的连接
    ESXi 主机可能会停止响应,并且虚拟机无法访问。另外,ESXi 主机还可能因为非 ATS VMFS 数据存储上出现存储小问题而导致死锁,从而失去与 vCenter Server 的连接。

    本版本已解决该问题。
  • ESXi 主机在目标管理软件上使用不正确的 IQN 进行注册
    首次启用 iSCSI 时,Unisphere 存储管理软件会注册给定的启动器 IQN。在无状态引导期间,注册的 IQN 不会随主机配置文件中定义的名称进行更改。您需要手动从阵列中移除启动器,然后再使用新 IQN 重新添加它们。

    现已通过向软件 iSCSI 启用命令添加新参数,使 Unisphere 采用主机配置文件中定义的名称注册启动器解决了该问题。用于在启用软件 iSCSI 期间设置 IQN 的命令行如下:

    esxcli iscsi software set --enabled=true --name iqn.xyz
  • vSphere Replication 同步可能因源数据存储名称变更而失败
    如果您对正在运行复制源虚拟机的数据存储进行重命名,则这些虚拟机的复制同步操作可能失败,并显示类似以下内容的错误消息:

    VRM Server 运行时错误。请查看文档了解故障排除信息 (VRM Server runtime error. Please check the documentation for any troubleshooting information)。
    详细的异常为: 数据存储格式“<Datastore Name>”无效 (The detailed exception is: 'Invalid datastore format '<Datastore Name>')

    本版本已解决该问题。
  • 尝试卸载 NFS 数据存储可能失败
    尝试卸载 NFS 数据存储可能失败,因为在 NFS LOCK LOST 错误期间出现的连接问题可能会导致 NFS IO 堵塞。您会看到类似于以下内容的错误消息:

    cpu23:xxxxx opID=xxxxxabf)警告: NFS: 1985: 数据存储 1 具有打开的文件,无法卸载 (cpu23:xxxxx opID=xxxxxabf)WARNING: NFS: 1985: datastore1 has open files, cannot be unmounted)

    本版本已解决该问题。

升级和安装问题

  • 当 ESXi 5.5 主机从 vSphere Auto Deploy 无状态缓存引导时出现错误消息
    当 ESXi 5.5 主机从 vSphere Auto Deploy 无状态缓存引导时,引导屏幕上显示类似以下内容的错误消息和回溯追踪。出现此错误的原因是 syslog network.py 脚本中存在意外的少于四字符的短消息。

    IndexError: 字符串索引超出范围 (IndexError: string index out of range)

    本版本已解决该问题。
  • 尝试在 Solaris 10 Update 3 虚拟机上安装或升级 VMware Tools 时可能失败
    尝试在 Solaris 10 Update 3 虚拟机上安装或升级 VMware Tools 时可能失败并显示以下错误消息:

    已检测到 X 版本 6.9 (Detected X version 6.9)
    无法读取 /usr/lib/vmware-tools/configurator/XOrg/7.0/vmwlegacy_drv.so 执行中止。(Could not read /usr/lib/vmware-tools/configurator/XOrg/7.0/vmwlegacy_drv.so Execution aborted.)

    如果 vmware-config-tools.pl 脚本复制本不应在 Xorg 6.9 中使用的 vmwlegacy_drv.so 文件,则会发生此问题。
  • DCUI 以及主机配置文件用户界面的键盘布局选项可能错误地显示为捷克斯洛伐克语
    直接控制台用户界面 (DCUI) 以及主机配置文件用户界面的键盘布局选项可能错误地显示为捷克斯洛伐克语。此选项在 ESXi 安装过程中以及在安装后的 DCUI 中显示。

    在此版本中,通过将键盘布局选项重命名为“捷克语”解决了此问题。
  • 保留 tools.conf 文件的选项默认可用
    当您在 64 位 Windows 客户机操作系统中升级 VMware Tools 时,tools.conf 文件会被自动移除。从 ESXi 5.5 Update 3 版本起,默认情况下将保留 tools.conf 文件。
  • 在安装、升级或卸载 VMware Tools 后,客户机操作系统可能在重新引导时出现故障
    如果您在 Linux 环境(RHEL 或 Cent OS 6)中安装、升级或卸载 VMware Tools 后立即关闭虚拟机电源,客户机操作系统可能在下次重新引导时因 RAMDISK 映像文件损坏而出现故障。客户机操作系统会报告类似于以下内容的错误:

    RAMDISK: 不完整写入 (31522 != 32768) (RAMDISK: incomplete write (31522 != 32768))
    写入错误 (write error)
    内核严重错误 - 未同步 : VFS: 无法在未知块 (0,0) 上挂载根文件系统 (Kernel panic - not syncing : VFS: Unable to mount root fs on unknown-block(0,0))


    此版本在安装、升级或卸载 VMware Tools 的过程中创建完整的 initramfs 文件。

    含有受损 RAMDISK 映像文件的客户机操作系统可以得到修复,从而完成引导状态。有关详细信息,请参见知识库文章 2086520

    本版本已解决该问题。
  • 在无状态 ESXi 主机上应用启用了无状态缓存的主机配置文件可能需要很长时间才能完成
    当您使用 esx 作为第一个磁盘参数启用无状态缓存时,在含有大量存储 LUN 的无状态 ESXi 主机上应用主机配置文件可能需要很长时间完成重新引导。手动应用主机配置文件时或重新引导主机时会出现这种情况。

    本版本已解决该问题。
  • VIB 转储操作可能导致在 ESXi 主机重新引导后丢失 VIB 安装或配置更改
    当在系统上安装某些 VIB 时,esxupdate 会在 /altbootbank 中构造一个新映像并将 /altbootbank boot.cfg 的引导状态更改为最新状态。安装了可实时安装的 VIB 时,系统会将对配置所做的更改保存到 /altbootbank。除非您在转储操作完成后执行修复操作,否则,转储操作将删除 /altbootbank 的内容。如果您在转储操作完成后重新引导主机,VIB 安装可能会丢失。

    本版本已解决该问题。

Virtual SAN 问题

  • Virtual SAN 群集检查可能因群集中出现意外的网络分区而失败
    如果系统处于 V2 模式,Virtual SAN 群集检查可能会因出现意外的网络分区而失败,此时不会报告 IGMP v3 查询。

    本版本已解决该问题。
  • 高延迟磁盘上的 Virtual SAN 可能导致输入/输出积压,且群集变得无响应
    Virtual SAN 无法正常处理即将消亡且延迟极高的磁盘。这种即将消亡的磁盘可能会导致输入/输出积压,且 vCenter Server 中的 Virtual SAN 群集节点变得无响应。

    本版本使用新功能解决了此问题,这种新功能称为消亡磁盘处理 (DDH),可在内核中提供延迟监控框架、检测高延迟时间的守护进程以及卸载单个磁盘和磁盘组的机制。
  • 改进了 Virtual SAN 重新同步操作
    可能存在以下情况:Virtual SAN 组件的重新同步操作可能停止或变得很慢。本版本引入了基于组件的拥堵,以改进重新同步操作和 Virtual SAN 群集稳定性。

vCenter Server 和 vSphere Web Client 问题

  • 对于虚拟机和已启用 VAAI 的主机上的 NFS 或 NAS 数据存储,“摘要”选项卡可能会显示不正确的已置备空间值
    在已启用 VAAI 的 ESXi 主机中,如果在受 VAAI 支持的 NAS 上创建格式为厚置备延迟置零的虚拟磁盘,则相应的虚拟机和数据存储的已置备空间可能会错误显示。

    本版本已解决该问题。

虚拟机管理问题

  • 尝试通过 vSphere Client 或 vSphere Web Client 添加 USB 设备可能失败
    如果使用 Intel USB 3.0 驱动程序,则尝试通过 vSphere Client 或 vSphere Web Client 添加 USB 设备可能失败。

    本版本已解决该问题。
  • 拍摄虚拟机的静默快照可能导致 currentSnapshot 字段的 MOB 值未设置
    在您创建虚拟机的静默快照并通过 Managed Object Browser (MOB) 浏览后,currentSnapshot 字段的 MOB 值显示为未设置。要查看 currentSnapshot,您可以导航到“内容”->“根文件夹”->“数据中心”->“vmFolder”->“vmname”->“快照”->“currentSnaphot”。

    本版本已解决该问题。
  • 在 VMkernel 日志中快速记录多个 opID 标记日志消息
    帮助程序 world opID 标记会生成大量日志消息,并快速记录到 VMkernel 日志中将其填满。与以下内容类似的日志将记录在 VMkernel 日志中:

    cpu16:nnnnn)World: nnnnn: VC opID hostd-60f4 maps to vmkernel opID nnnnnnnn cpu16:nnnnn)World: nnnnn: VC opID HB-host-nnn@nnn-nnnnnnn-nn maps to vmkernel opID nnnnnnnn cpu8:nnnnn)World: nnnnn: VC opID SWI-nnnnnnnn maps to vmkernel opID nnnnnnnn cpu14:nnnnn)World: nnnnn: VC opID hostd-nnnn maps to vmkernel opID nnnnnnnn cpu22:nnnnn)World: nnnnn: VC opID hostd-nnnn maps to vmkernel opID nnnnnnnn cpu14:nnnnn)World: nnnnn: VC opID hostd-nnnn maps to vmkernel opID nnnnnnnn cpu14:nnnnn)World: nnnnn: VC opID hostd-nnnn maps to vmkernel opID nnnnnnnn cpu4:nnnnn)World: nnnnn: VC opID hostd-nnnn maps to vmkernel opID nnnnnnnn

    本版本已解决该问题。
  • 支持 USB 3.0
    本版本增加了对 USB 3.0 的支持,目前仅适用于 Apple Mac Pro。

High Availability 和 Fault Tolerance 问题

vMotion 和 Storage vMotion 问题

  • 无法在预先分配的虚拟机上执行快速挂起和恢复或 Storage vMotion
    当您在预先分配的虚拟机上执行快速挂起和恢复 (FSR) 或 Storage vMotion 时,操作可能失败,因为在预留从源虚拟机转移到目标虚拟机的过程中预留验证失败。

    本版本已解决该问题。
  • 虚拟机上的 Storage vMotion 失败
    如果您配置了本地主机交换并在 VMX 文件中设置了 checkpoint.cptConfigName 的值,则在虚拟机上执行 Storage vMotion 可能失败。可能会显示类似于以下内容的错误消息:

    xxxx-xx-xxT00:xx:xx.808Z| vmx| I120: VMXVmdbVmVmxMigrateGetParam: type: 2 srcIp=<127.0.0.1> dstIp=<127.0.0.1> mid=xxxxxxxxxxxxx uuid=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx priority=none checksumMemory=no maxDowntime=0 encrypted=0 resumeDuringPageIn=no latencyAware=no diskOpFile=
    <snip>
    xxxx-xx-xxT00:xx:xx.812Z| vmx| I120: VMXVmdb_SetMigrationHostLogState: hostlog state transits to failure for migrate 'to' mid xxxxxxxxxxxxxxxx


    本版本已解决该问题。
  • 虚拟 RDM 磁盘的更改块跟踪 (CBT) 在冷迁移期间被重置
    对于虚拟裸设备映射 (RDM) 磁盘,不同数据存储之间的冷迁移不支持重置 CBT。

    本版本已解决该问题。

VMware Tools 问题

  • 尝试在 Windows 2000 虚拟机上升级 VMware Tools 可能会失败
    尝试在 Windows 2000 虚拟机上升级 VMware Tools 可能失败,并将向 vmmsi.log 文件写入类似以下内容的错误消息:

    Invoking remote custom action.DLL: C:\WINNT\Installer\MSI12.tmp, Entrypoint: VMRun
    VM_CacheMod.Return value 3.
    PROPERTY CHANGE: Deleting RESUME property.Its current value is '1'.
    INSTALL.Return value 3.

    本版本已解决该问题。
  • 某些驱动程序在 Solaris 11 虚拟机上可能工作不正常
    在 ESXi 5.5 主机上,Solaris 11 客户机操作系统上安装的某些驱动程序可能来自 Solaris 10,因此这些驱动程序可能无法正常工作。

    本版本已解决该问题。
  • 尝试使用新的内核配置 VMware Tools 可能会截断 add_drivers 条目中的驱动程序列表
    当您在使用 Dracut 更新内核后,尝试通过 /usr/bin/vmware-config-tools.pl -k <kernel version> 脚本使用新内核配置 VMware Tools 时,/etc/dracut.conf.d/vmware-tools.conf 文件的 add_drivers 条目中的驱动程序列表被截断。当 VMware Tools 上溯 (upstreamed) 至内核时会发生此问题。

    本版本已解决该问题。
  • 安装 VMware Tools 后无法在 Windows 8 或 Windows Server 2012 客户机操作系统上打开 telnet
    在 Windows 8 或 Windows Server 2012 客户机操作系统上安装 VMware Tools 后,尝试使用 start telnet://xx.xx.xx.xx 命令打开 telnet 失败,并返回以下错误消息:

    请确保虚拟机的配置允许客户机打开主机应用程序 (Make sure the virtual machine's configuration allows the guest to open host applications)

    本版本已解决该问题。
  • 安装 VMware Tools 后,客户机操作系统事件查看器显示警告消息
    安装 VMware Tools 后,如果尝试对 Windows 虚拟机执行 RDP,某些插件可能会在 Windows 事件日志中显示警告消息。该警告消息指示将远程过程调用发送到主机失败。

    本版本已解决该问题。
  • 在 Linux 虚拟机上,关闭期间 VMware Tools 服务可能会失败
    在 Linux 虚拟机上,关闭客户机操作系统时,VMware Tools 服务 vmtoolsd 可能会失败。

    本版本已解决该问题。
  • 第一次打开虚拟机电源期间,VMware Tools 可能无法自动升级
    如果使用客户机自定义部署或克隆虚拟机且 VMware Tools 升级策略被设置为允许虚拟机在下次打开时自动升级 VMware Tools,VMware Tools 可能在第一次打开虚拟机电源时无法自动升级。

    本版本已解决该问题。
  • 静默操作可能会导致 Windows 虚拟机产生应急
    尝试在运行 Microsoft Windows 2008 或更高版本的虚拟机上生成静默快照可能会失败,而且虚拟机可能会发生严重错误并显示蓝屏和类似于以下内容的错误消息:

    A problem has been detected and Windows has been shut down to prevent damage to your computer.If this is the first time you've seen this Stop error screen restart your computer.If this screen appears again, follow these steps:

    Disable or uninstall any anti-virus, disk defragmentation or backup utilities.Check your hard drive configuration, and check for any updated drivers.Run CHKDSK /F to check for hard drive corruption, and then restart your computer.


    有关详细信息,请参见知识库文章 2115997

    本版本已解决该问题。
  • 在 Linux 虚拟机上执行快照操作后虚拟机可能无法响应
    尝试创建 Linux 虚拟机的静默快照时,虚拟机可能在执行快照操作后失败并需要重新引导。将向 vmware.log 文件中写入类似于以下内容的错误消息:

    TZ| vmx| I120: SnapshotVMXTakeSnapshotComplete: done with snapshot 'smvi_UUID': 0
    TZ| vmx| I120: SnapshotVMXTakeSnapshotComplete: Snapshot 0 failed: Failed to quiesce the virtual machine (40).
    TZ| vmx| I120: GuestRpcSendTimedOut: message to toolbox timed out.
    TZ| vmx| I120: Vix: [18631 guestCommands.c:1926]: Error VIX_E_TOOLS_NOT_RUNNING in
    MAutomationTranslateGuestRpcError(): VMware Tools are not running in the guest


    有关更多详细信息,请参见知识库文章 2116120

    本版本已解决该问题。
  • 新问题:尝试执行快照合并可能会失败,并出现以下错误:意外信号: 11
    快照的合并或删除操作导致运行于 VMware ESXi 5.5 Update 3 主机上的虚拟机失败,并出现以下错误:意外信号: 11。您将在 vmware.log 文件中看到类似于以下内容的日志消息:

    [YYYY-MM-DD] <time>Z| vcpu-0| I120: SNAPSHOT: SnapshotDiskTreeFind: Detected node change from 'scsiX:X' to ''.

    有关更多详细信息,请参见知识库文章 2133118

    本版本已解决该问题。

已知问题

对 ESXi 5.5 中存在的已知问题的分组如下:

New known issues documented in this release are highlighted as 新问题.

安装和升级问题

  • 已更新将 VMware vCenter Server 5.5 更新至 5.5 U2 或更高版本会减小 JVM 最大内存堆大小
    尝试将 VMware vCenter Server 5.5 更新至 5.5 U2 或更高版本会减小 JVM 最大内存堆大小,因为会将修补程序应用于 wrapper.conf 文件,而此文件会使用默认值覆盖 VMware Inventory Service、VMware Profile-Driven Storage Service 和 VMware VirtualCenter Web Management 的相应文件。有关其他详细信息,请参见知识库文章 2114669

    解决办法:要解决此问题,请根据 vCenter Server 清单大小更改 JVM 最大堆大小。

  • 新问题:安装最新的 VMware Tools 软件包后,VMware Tools 服务用户进程可能无法在 Linux 操作系统中运行
    在 Linux 操作系统上,您可能会遇到 VMware Tools 升级或安装问题,或者 VMware Tools 服务 (vmtoolsd) 用户流程在安装最新 VMware Tools 数据包后可能无法运行。如果您的 glibc 版本低于 2.5(例如 SLES10sp4),则会出现该问题。

    解决办法:将 Linux glibc 升级到版本 2.5 或更高版本。

  • 在 vSphere PowerCLI 中运行 Get-EsxImageProfile 命令时,尝试获取所有映像配置文件可能会失败
    使用 vSphere PowerCLI 运行 Get-EsxImageProfile 命令以获取所有映像配置文件时,将显示类似于以下内容的错误:

    PowerCLI C:\Windows\system32> Get-EsxImageProfile
    Get-EsxImageProfile : The parameter 'name' cannot be an empty string.
    Parameter name: name
    At line:1 char:20
    + Get-EsxImageProfile <<<<
    + CategoryInfo : NotSpecified: (:)[Get-EsxImageProfile], ArgumentException
    + FullyQualifiedErrorId : System.ArgumentException,VMware.ImageBuilder.Commands.GetProfiles


    解决办法:运行 Get-EsxImageProfile -name "ESXi-5.x*" 命令(包括 -name 选项),并显示 PowerCLI 会话期间创建的所有映像配置文件。

    例如,运行 Get-EsxImageProfile -name "ESXi-5.5.*" 命令将显示类似于以下内容的所有 5.5 映像配置文件:

    PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-EsxmageProfile -name "ESXi-5.5.*"

    Name Vendor Last Modified Acceptance Level
    ---- ------ ------------- ----------------
    ESXi-5.5.0-20140701001s-no-...VMware, Inc. 8/23/2014 6:...PartnerSupported
    ESXi-5.5.0-20140302001-no-t...VMware, Inc. 8/23/2014 6:...PartnerSupported
    ESXi-5.5.0-20140604001-no-t...VMware, Inc. 8/23/2014 6:...PartnerSupported
    ESXi-5.5.0-20140401020s-sta...VMware, Inc. 8/23/2014 6:...PartnerSupported
    ESXi-5.5.0-20131201001s-sta...VMware, Inc. 8/23/2014 6:...PartnerSupported
  • 在 Windows Server 2012 上运行简易安装失败
    如果操作系统配置为使用 DHCP IP 地址,则在 Windows Server 2012 上运行简易安装失败

    解决办法:将 Windows Server 2012 配置为使用静态 IP 地址。

  • 如果使用保留 VMFS 进行 Auto Deploy 无状态缓存或有状态安装时,则不会创建核心转储分区
    如果使用 Auto Deploy 在空白磁盘上进行无状态缓存或有状态安装,则会创建 MSDOS 分区表。但是,不会创建核心转储分区。

    解决办法:启用“无状态缓存或有状态安装主机配置文件”选项时,请选择覆盖 VMFS,即使在空白磁盘上安装也是如此。之后,系统将创建 2.5GB 的核心转储分区。

  • 使用脚本进行安装时,即使在 installorupgrade 命令中使用了 --ignoressd 选项,ESXi 仍会安装在 SSD 上
    在 ESXi 5.5 中,installorupgrade 命令不支持 --ignoressd 选项。如果您在 installorupgrade 命令中使用了 --ignoressd 选项,安装程序会显示一条警告,指出这是一个无效组合。安装程序将继续在 SSD 上安装 ESXi,而非停止安装并显示一条错误消息。

    解决办法:要在使用脚本安装 ESXi 时使用 --ignoressd 选项,请使用 install 命令,而不是 installorupgrade 命令。

  • 如果 Auto Deploy 缓存清除出现延迟,则可能应用了已删除的主机配置文件
    删除主机配置文件后,该配置文件不会立即从 Auto Deploy 中清除。只要该主机配置文件仍保留在缓存中,Auto Deploy 就会继续应用该主机配置文件。仅当从缓存中清除该配置文件后,应用该配置文件的任何规则才会失败。

    解决办法:您可以使用 Get-DeployRuleSet PowerCLI cmdlet 来确定是否有任何规则使用了已删除的主机配置文件。cmdlet 将在该规则的 itemlist 中显示字符串 deleted。随后,您可运行 Remove-DeployRule cmdlet 来删除该规则。

  • 如果 ESX 安装在选定磁盘上,则应用设置为将 Auto Deploy 与无状态缓存配合使用的主机配置文件会失败
    您使用主机配置文件在启用无状态缓存的情况下设置 Auto Deploy。在该主机配置文件中,您选择安装某个版本的 ESX(而非 ESXi)的磁盘。您应用该主机配置文件后,将显示包含以下文本的错误。
    预计有 2 个引导槽,找到 0 个 (Expecting 2 bootbanks, found 0)

    解决办法:选择另一个磁盘进行无状态缓存,或者将 ESX 软件从磁盘中移除。如果移除 ESX 软件,则该软件将无法使用。

  • 在 Oracle America (Sun) 供应商提供的服务器上安装或引导 ESXi 5.5.0 会失败
    如果在 Oracle America (Sun) 供应商提供的服务器上执行全新 ESXi 5.5.0 安装或引导现有的 ESXi 5.5.0,则在安装过程中或现有的 ESXi 5.5.0 版本引导时,该服务器控制台将显示空白屏幕。Oracle America (Sun) 供应商提供的服务器会在 ACPI FADT 表中设置 HEADLESS 标记,而无论这些服务器是否为无头 (headless) 平台,因此会出现这种情况。

    解决办法:在安装或引导 ESXi 5.5.0 时,请传递引导选项 ignoreHeadless="TRUE"

  • 如果使用 ESXCLI 命令升级物理内存小于 4GB 的 ESXi 主机,则升级将成功,但在重新引导时,某些 ESXi 操作将失败
    ESXi 5.5 至少需要 4GB 的物理内存。ESXCLI 命令行界面不会在升级前针对所需的 4GB 内存进行检查。您可以使用 ESXCLI 成功升级内存不足的主机,但在引导该内存小于 4GB 的已升级 ESXi 5.5 主机时,某些操作可能会失败。

    解决办法:无。在升级到版本 5.5 之前,确认 ESXi 主机的物理内存大于 4 GB。

  • 从 vCenter Server Appliance 5.0.x 升级到 5.5 后,如果使用外部 vCenter Single Sign-On,则 vCenter Server 将无法启动
    将 vCenter Server Appliance 从 5.0.x 升级到 5.5 时,如果用户选择使用外部 vCenter Single Sign-On 实例,则 vCenter Server 在该升级后将无法启动。在 Appliance 设备管理界面中,vCenter Single Sign-On 列为未配置

    解决办法:执行下列步骤:

    1. 在 Web 浏览器中,打开 vCenter Server Appliance 管理界面(https://appliance-address:5480)。
    2. 在 vCenter Server/摘要页面中,单击停止服务器按钮。
    3. 在 vCenter Server/SSO 页面中,使用相应的设置完成表单,然后单击保存设置
    4. 返回到“摘要”页面,然后单击启动服务器

  • 在使用 ESXCLI 将 ESXi 4.x 或 5.0.x 主机升级到版本 5.1 或 5.5 之后,所有 VMKernel 端口组的 vMotion 和 Fault Tolerance 日志记录(FT 日志记录)设置都将丢失
    如果使用命令 esxcli software profile update <options> 将 ESXi 4.x 或 5.0.x 主机升级到版本 5.1 或 5.5,则升级会成功,但是,所有 VMKernel 端口组的 vMotion 和 FT 日志记录设置都将丢失。因此,vMotion 和 FT 日志记录会还原为默认设置(已禁用)。

    解决办法:执行交互式或脚本式升级,或者使用 vSphere Update Manager 来升级主机。如果使用 esxcli 命令,请在升级后手动对受影响的 VMkernel 端口组应用 vMotion 和 FT 日志记录设置。

  • 在将 vSphere 5.0.x 或早期版本升级到版本 5.5 之后,手动设置的系统资源分配值将重置为默认值
    暂时的解决办法是,在 vSphere 5.0.x 及早期版本中,修改系统资源分配用户界面中的设置。如果不完全重新安装 ESXi,则无法将这些设置的值重置为默认值。在 vSphere 5.1 及更高版本中,系统行为会发生变化,因此,保留自定义系统资源分配设置可能会导致使用不安全的值。升级过程会重置所有这些值。

    解决办法:无。

  • 在将 ESX 4.x 升级到 ESXi 5.5 之后,不会保留虚拟网卡 vmk0 的 IPv6 设置
    在使用 --forcemigrate 选项将已启用 IPv6 的 ESX 4.x 主机升级到 ESXi 5.5 之后,不会保留虚拟网卡 vmk0 的 IPv6 地址。

    解决办法:无。

网络连接问题

  • 无法将 PCNet32 网络适配器与 NSX 含糊网络结合使用
    如果通过 NSX 含糊网络备用配置 PCNet32 灵活网络适配器,打开虚拟机电源时该适配器将断开连接。
  • 解决办法:无

  • 升级到 ESXi 5.5 可能会更改多播组管理的 TCP/IP 堆栈的 IGMP 配置
    对于多播组管理的 ESXi 5.5 主机,管理界面的默认 IGMP 版本将从 IGMP V2 更改为 IGMP V3。因此,升级到 ESXi 5.5 后,如果管理界面接收到以前版本的 IGMP 查询,则它可能会从 IGMP V3 恢复为 IGMP V2,并且您可能会看到 IGMP 版本不匹配的错误消息。

    解决办法:通过在高级配置选项中修改 TCP/IP IGMP 重新连接时间间隔,编辑默认的 IGMP 版本。
  • 重新引导后,与 vmknic 接口和动态 IP 地址关联的静态路由可能无法显示
    重新引导主机后,与 VMkernel 网络接口 (vmknic) 和动态 IP 地址关联的静态路由可能无法显示。
    此问题是由于在 DHCP 客户端和还原路由命令之间存在争用情况所致。当主机在重新引导过程中尝试还原自定义路由时,DHCP 客户端可能未完成为 vmknic 获取 IP 地址的操作。因此,可能未设置网关,从而未还原路由。

    解决办法:运行 esxcfg-route –r 命令可手动还原路由。
  • 在使用 IPv6 地址将 ESXi 主机添加到 vCenter Server 之后,该主机停止响应
    在使用格式为 fe80::/64 的 IPv6 链路本地地址将 ESXi 主机添加到 vCenter Server 之后,该主机会在短时间内灰显并停止响应 vCenter Server。

    解决办法:使用非链路本地地址的有效 IPv6 地址。

  • vSphere Web Client 允许您配置超过物理网卡支持限度的更多虚拟功能,并且不会显示错误消息
    在物理适配器的 SR-IOV 设置中,您可以配置超过适配器支持限度的更多虚拟功能。例如,可以在仅支持 23 个虚拟功能的网卡上配置 100 个虚拟功能,并且不会显示任何错误消息。将显示一条消息,提示您重新引导主机,以便应用 SR-IOV 设置。主机重新引导后,将为该网卡配置适配器可支持的虚拟功能数(即,此示例中的 23)。提示您重新引导主机的消息仍然存在,而实际不应显示。

    解决办法:无

  • 在启用了 SR-IOV 的 ESXi 主机上,与虚拟功能关联的虚拟机可能无法启动
    在具有 Intel ixgbe 网卡的 ESXi 5.1 或更高版本主机上启用 SR-IOV 时,如果在该环境中启用了多种虚拟功能,则某些虚拟机可能无法启动。
    vmware.log 文件包含类似于以下内容的消息:
    2013-02-28T07:06:31.863Z| vcpu-1| I120: Msg_Post: Error
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.log.error.unrecoverable] VMware ESX unrecoverable error: (vcpu-1)
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings: 0a:17.3 failed to register interrupt (error code 195887110)
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.withoutLog] You can request support.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.vmSupport.vmx86]
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.response] We will respond on the basis of your support entitlement.

    解决办法:减少与受影响的虚拟机关联的虚拟功能的数量并启动该虚拟机。

  • 在 Emulex BladeEngine 3 物理网络适配器上,虚拟功能支持的虚拟机网络适配器无法访问将物理功能用作上行链路的 VMkernel 适配器
    虚拟功能及其物理功能之间无流量流动。例如,在物理功能支持的交换机上,在同一端口上使用虚拟功能的虚拟机无法与同一交换机上的 VMkernel 适配器联系。这是 Emulex BladeEngine 3 物理适配器的一个已知问题。有关信息,请联系 Emulex。

    解决办法:在主机上禁用 Emulex BladeEngine 3 设备的本机驱动程序。有关详细信息,请参见 VMware 知识库文章 2044993

  • ESXi Dump Collector 无法将 ESXi 核心文件发送到远程服务器
    如果将处理 Dump Collector 流量的 VMkernel 适配器配置为将链路聚合组 (LAG) 设置为活动上行链路的分布式端口组,则 ESXi Dump Collector 无法发送 ESXi 核心文件。物理交换机上配置了 LACP 端口通道。

    解决办法:执行以下解决办法之一:

    • 使用 vSphere 标准交换机来配置处理 ESXi Dump Collector 与远程服务器的流量的 VMkernel 适配器。
    • 使用独立的上行链路为配置了 VMkernel 适配器的分布式端口组处理流量。
  • 如果您使用 vSphere Client 对 vSphere 标准交换机或 vSphere Distributed Switch 在主机上的端口数进行更改,则不会保存更改,即使在重新引导后也是如此
    如果您使用 vSphere Client 对 vSphere 标准交换机或 vSphere Distributed Switch 在 ESXi 5.5 主机上的端口数进行更改,则端口数不会发生变化,即使在重新引导主机后也是如此。

    重新引导运行 ESXi 5.5 的主机时,该主机会动态地增加或减少虚拟交换机的端口数。端口数基于主机可运行的最大虚拟机数来确定。您无需在此类主机上配置交换机端口数。

    解决办法:在 vSphere Client 中无解决办法。

服务器配置问题

  • 新问题:网卡硬件可能停止响应,并显示硬件错误消息
    网卡硬件可能会在某些情况下停止响应,并在驱动程序日志中包含以下错误消息:

    Detected Hardware Unit Hang

    某些新的 e1000e 设备会出现此问题,如 82579、i217、i218 和 i219 。

    解决办法:网卡硬件会在出现问题后对自身进行重置。

  • 从串行控制台访问直接控制台用户界面时遇到菜单导航问题
    如果从串行控制台访问直接控制台用户界面,则导航至相应菜单时向上和向下箭头键不起作用,并会强制用户从 DCUI 配置屏幕注销。

    解决办法:停止 DCUI 进程。DCUI 进程将自动重新启动。

  • 将 ESXi 主机升级到 5.5 Update 2 并更改主机配置后,主机配置文件可能错误地显示为合规
    如果将与主机配置文件合规的 ESXi 主机升级为 ESXi 5.5 Update 2 并随后在主机配置中进行了一些更改,然后重新检查主机与主机配置文件的合规性时,系统会错误地报告配置文件合规。

    解决办法:
    • 在 vSphere Client 中,导航到有问题的主机配置文件并运行从引用的主机更新主机配置文件
    • 在 vSphere Web Client 中,导航到有问题的主机配置文件,单击从主机复制设置,选择要从其中复制配置设置的主机并单击确定
  • 对 vSphere Distributed Switch 执行主机配置文件修复失败
    对 vSphere Distributed Switch 应用主机配置文件时,如果启用了 Fault Tolerance 功能的虚拟机在使用该主机配置文件中的 Distributed Switch 的主机上处于已关闭电源状态,则会发生修复错误。

    解决办法:将已关闭电源的虚拟机移至其他主机以使主机配置文件成功修复。

  • 将 ESX 4.0 或 ESX 4.1 配置文件应用于 ESXi 5.5.x 主机时,主机配置文件收到防火墙设置合规性错误
    如果从 ESX 4.0 或 ESX 4.1 主机提取主机配置文件并尝试将其应用于 ESXi 5.5.x 主机,则配置文件修复成功。合规性检查收到的防火墙设置错误包括以下几项:

    未找到规则集 LDAP (Ruleset LDAP not found)
    未找到规则集 LDAPS (Ruleset LDAPS not found)
    未找到规则集 TSM (Ruleset TSM not found)
    未找到规则集 VCB (Ruleset VCB not found)
    未找到规则集 activeDirectorKerberos (Ruleset activeDirectorKerberos not found)

    解决办法:不需要任何解决办法。这是正常的,因为 ESX 4.0 或 ESX 4.1 主机的防火墙设置不同于 ESXi 5.5.x 主机。

  • 更改 ESXi 主机的 BIOS 设备设置可能会导致设备名称无效
    如果更改 ESXi 主机上的 BIOS 设备设置,而此更改会使分配给该设备的 <segment:bus:device:function> 值发生变化,则可能会导致设备名称无效。例如,如果启用先前已禁用的集成网卡,则可能会改变分配给其他 PCI 设备的 <segment:bus:device:function> 值,从而使 ESXi 更改分配给这些网卡的名称。与先前版本的 ESXi 不同,如果主机 BIOS 提供了具体的设备位置信息,则 ESXi 5.5 会尝试在 <segment:bus:device:function> 发生更改时保留设备名称。由于此功能中的一个缺陷,有时会生成诸如 vmhba1 和 vmnic32 之类的无效名称。

    解决办法:重新引导 ESXi 主机一两次即可清除无效设备名称,而还原为原始名称。不要在生产环境中运行使用无效设备名称的 ESXi 主机。

存储问题

  • 数据存储的 VMFS 检测信号超时时,具有 HBA 驱动程序的 ESXi 主机可能会停止响应
    数据存储的 VMFS 检测信号超时时,具有 HBA 驱动程序的 ESXi 主机可能会停止响应,并显示类似于以下内容的消息:

    mem>2014-05-12T13:34:00.639Z cpu8:1416436)VMW_SATP_ALUA: satp_alua_issueCommandOnPath:651: Path "vmhba2:C0:T1:L10" (UP) command 0xa3 failed with status Timeout.H:0x5 D:0x0 P:0x0 Possible sense data: 0x5 0x20 0x0.2014-05-12T13:34:05.637Z cpu0:33038)VMW_SATP_ALUA: satp_alua_issueCommandOnPath:651: Path "vmhba2:C0:T1:L4" (UP) command 0xa3 failed with status Timeout.H:0x5 D:0x0 P:0x0 Possible sense data: 0x0 0x0 0x0.

    当数据存储中的高磁盘 I/O 连接到 ESXi 主机并且在目标级别而非 HBA 级别启用多路径时,HBA 驱动程序会出现此问题。

    解决办法:使用最新的异步 HBA 驱动程序替代 HBA 驱动程序。
  • 尝试对使用 RDM 磁盘的虚拟机执行实时 Storage vMotion 时可能会失败
    使用 RDM 磁盘的虚拟机的 Storage vMotion 可能会失败,并显示虚拟机处于电源关闭状态。尝试打开虚拟机的电源时失败,并显示以下错误:

    未能锁定文件 (Failed to lock the file)

    解决办法:无。
  • 重命名的标记在“编辑虚拟机存储策略”向导中显示为缺失
    虚拟机存储策略可根据数据存储标记包含相应的规则。如果重命名某个标记,则引用此标记的存储策略不会自动更新此标记,并将其显示为缺失。

    解决办法:从虚拟机存储策略中移除标记为缺失的标记,然后添加该重命名的标记。对所有过期实体重新应用存储策略。

  • 当 Flash Read Cache 块大小设置为 16 KB、256 KB、512 KB 或 1024 KB 时,无法打开虚拟机电源
    如果虚拟机配置了 Flash Read Cache,并且块大小为 16 KB、256 KB、512 KB 或 1024 KB,则无法打开该虚拟机的电源。Flash Read Cache 支持的最小缓存大小为 4 MB,最大缓存大小为 200 GB,最小块大小为 4 KB,最大块大小为 1 MB。打开虚拟机电源时,操作将失败并显示以下消息:

    打开虚拟机电源时从 ESX 主机收到一条错误 (An error was received from the ESX host while powering on VM)。

    无法启动虚拟机 (Failed to start the virtual machine)。

    打开模块 DiskEarly 电源失败 (Module DiskEarly power on failed)。

    无法配置磁盘 scsi0:0 (Failed to configure disk scsi0:0)。

    无法打开包含未配置的磁盘的虚拟机电源。无法连接 vFlash 缓存: msg.vflashcache.error.VFC_FAILURE (The virtual machine cannot be powered on with an unconfigured disk. vFlash cache cannot be attached: msg.vflashcache.error.VFC_FAILURE)

    解决办法:配置虚拟机 Flash Read Cache 大小和块大小。

    1. 右键单击虚拟机,然后选择编辑设置
    2. 虚拟硬件选项卡上,展开硬盘以查看磁盘选项。
    3. 单击虚拟 Flash Read Cache 字段旁边的高级
    4. 增加缓存大小预留或减小块大小。
    5. 单击确定保存更改。
  • 无法在 vSphere Web Client 中加载已保存的资源池树文件的自定义扩展名
    DRS 错误消息将显示在主机摘要页面上。

    在 vSphere Web Client 中禁用 DRS 时,系统将提示您保存资源池结构,以便将来能够重新加载。该文件的默认扩展名为 .snapshot,但也可以为此文件选择其他扩展名。如果此文件使用自定义扩展名,则尝试加载时会显示为已禁用。该问题仅在 OS X 上出现。

    解决办法:将该扩展名更改为 .snapshot,才能在 OS X 上的 vSphere Web Client 中加载此文件。

  • DRS 错误消息显示在主机摘要页面上
    以下 DRS 错误消息会显示在主机摘要页面上:

    无法在主机上应用 DRS 资源设置。在当前状况下不允许执行此操作。这会显著降低 DRS 的效率 (Unable to apply DRS resource settings on host. The operation is not allowed in the current state. This can significantly reduce the effectiveness of DRS)。

    在某些配置中,争用情况可能会导致在日志中创建无意义或不可操作的错误消息。如果在应用 DRS 资源设置的同时未注册虚拟机,则可能会出现此错误。

    解决办法:忽略该错误消息。

  • 为大于 16TB 的 VMDK 配置虚拟 Flash Read Cache 将导致错误
    虚拟 Flash Read Cache 不支持大于 16TB 的虚拟机磁盘。配置此类磁盘的尝试将失败。

    解决办法:无

  • 重新配置缓存大小后,虚拟机可能会关闭电源
    如果在虚拟机上以错误的方式重新配置虚拟 Flash Read Cache (例如,通过分配无效值),则虚拟机可能会关闭电源。

    解决办法:请遵循《vSphere 存储》文档中建议的缓存大小准则。

  • 重新配置已启用虚拟 Flash Read Cache 的虚拟机失败,并显示错误:操作超时 (Operation timed out)
    重新配置操作需要大量 I/O 带宽。如果运行的负载较大,则该操作可能会在完成之前发生超时。如果主机具有处于全部路径异常 (APD) 状态的 LUN,则也可能会看到此行为。

    解决办法:修复所有主机 APD 状态,然后在 LUN 和主机上使用较少的 I/O 负载重试此操作。

  • 为实现负载平衡,DRS 未对具有虚拟 Flash Read Cache 的虚拟机执行 vMotion 操作
    为实现负载平衡,DRS 未对具有虚拟 Flash Read Cache 的虚拟机执行 vMotion 操作。

    解决办法:DRS 建议不要对此类虚拟机执行 vMotion 操作,除非出于以下原因:

    • 要撤出用户已请求进入维护模式或待机模式的主机。
    • 要修复 DRS 规则违反问题。
    • 主机资源使用情况处于红色状态。
    • 一个或多个主机使用过度,且未满足虚拟机需求。
      注意:您可以选择设置 DRS 来忽略此理由。
  • 当虚拟机的活动内存较低,而消耗内存较高时,主机处于待机状态
    ESXi 5.5 在 DPM 的默认行为中引入了更改,旨在降低功能的激进程度,从而有助于防止虚拟机在活动内存较低而消耗内存较高时降低性能。DPM 衡量指标为 X%*IdleConsumedMemory + active memory。X% 变量是可调整的,默认情况下设置为 25%。

    解决办法:您可以恢复到 ESXi 早期版本中的激进 DPM 行为,方法是在高级选项下设置 PercentIdleMBInMemDemand=0

  • 由 DRS 启动的 vMotion 操作可能失败
    当 DRS 建议对具有虚拟 Flash Read Cache 预留的虚拟机执行 vMotion 操作时,vMotion 可能会失败,因为目标主机上没有足够的可用内存 (RAM) 来管理虚拟机的 Flash Read Cache 预留。

    解决办法:请遵循《vSphere 存储》中的 Flash Read Cache 配置建议。
    如果 vMotion 失败,请执行以下步骤:

    1. 重新配置目标主机上的虚拟机以及入站虚拟机的块大小,以减少目标主机上 VMkernel 内存的整体目标使用量。
    2. 使用 vMotion 手动将虚拟机迁移到目标主机,以确保解决此情况。
  • 无法查看在为单个 SSD 设备配置虚拟闪存期间发生的问题
    配置虚拟闪存资源是对一系列 SSD 设备执行的任务。对所有对象完成此任务后,vSphere Web Client 会将其报告为成功,而可能不会通知您有关配置单个 SSD 设备时出现的问题。

    解决办法:执行以下任务之一。

    • 在“近期任务”面板中,双击已完成的任务。
      所有配置故障都将显示在“任务详细信息”对话框的“相关事件”部分中。
    • 也可以执行以下步骤:
      1. 在清单中选择主机。
      2. 单击监控选项卡,然后单击事件
  • 在 ESXi 主机上无法获取 Micron PCIe SSD 的 SMART 信息
    尝试使用 esxcli storage core device smart get -d 命令来显示 Micron PCIe SSD 设备的统计信息失败。您会看到以下错误消息:
    获取智能参数时出错: 无法打开设备 (Error getting Smart Parameters: CANNOT open device)

    解决办法:无。在此版本中,esxcli storage core device smart 命令不支持 Micron PCIe SSD。

  • ESXi 不会应用在虚拟机的配置文件中为 SCSI 虚拟磁盘配置的带宽限制
    可以在虚拟机配置文件 (.vmx) 中使用一组参数配置 SCSI 虚拟磁盘的带宽和吞吐量限制。例如,对于 scsi0:0 虚拟磁盘,配置文件可能包含以下限制:
    sched.scsi0:0.throughputCap = "80IOPS"
    sched.scsi0:0.bandwidthCap = "10MBps"
    sched.scsi0:0.shares = "normal"

    ESXi 不会对 scsi0:0 虚拟磁盘应用 sched.scsi0:0.bandwidthCap 限制。

    解决办法:使用 vSphere Web Client 或 esxcli system settings advanced set 命令来恢复到磁盘 I/O 调度程序的较早版本。

    • 在 vSphere Web Client 中,在主机的“高级系统设置”列表中编辑 Disk.SchedulerWithReservation 参数。
      1. 导航到主机。
      2. 管理选项卡上,选择设置,然后选择高级系统设置
      3. 找到 Disk.SchedulerWithReservation 参数,例如,使用筛选器查找文本框。
      4. 单击编辑,然后将参数设置为 0。
      5. 单击确定
    • 在主机的 ESXi Shell 中,运行以下控制台命令:
      esxcli system settings advanced set -o /Disk/SchedulerWithReservation -i=0
  • 如果虚拟机配置有 Flash Read Cache,而该缓存出现错误,则该虚拟机无法从主机迁移
    如果虚拟机配置有 Flash Read Cache,而该缓存处于错误状态且无法使用,则该虚拟机可能会出现迁移错误。此错误会使虚拟机迁移失败。

    解决办法:

    1. 重新配置虚拟机并禁用该缓存。
    2. 执行迁移。
    3. 迁移虚拟机后,重新启用该缓存。

    也可以关闭该虚拟机电源,然后重新打开该虚拟机电源,以更改该缓存错误。

  • 在将主机从 ESXi 5.5 测试版升级后,无法删除 VFFS 卷
    在将主机从 ESXi 5.5 测试版升级后,无法删除 VFFS 卷。

    解决办法:只有在从 ESXi 5.5 测试版升级到 ESXi 5.5 时才会发生此问题。要避免此问题,请安装 ESXi 5.5 而不是进行升级。如果要从 ESXi 5.5 测试版升级,请在升级之前删除 VFFS 卷。

  • 在安装有旧版 Windows 和 Linux 客户机操作系统的虚拟机上启用虚拟 Flash Read Cache 后,运行时延迟时间不会出现预期的改进
    如果虚拟 Flash Read Cache 的大小与目标工作集匹配,并且客户机文件系统至少与 4 KB 边界对齐,则该缓存可提供最佳性能。该 Flash Read Cache 会筛选掉未对齐的块,以避免在该缓存中缓存不完整的块。通常,在为安装有 Windows XP 和早于 2.6 的 Linux 分发版本的虚拟机的 VMDK 配置虚拟 Flash Read Cache 时,才会出现此行为。此时,缓存命中率较低,而且缓存占用也较低,这意味着为这些 VMDK 预留的缓存出现浪费。对于运行 Windows 7、Windows 2008 以及 Linux 2.6 及更高分发版本的虚拟机来说,并不会出现此行为,这些虚拟机会将其文件系统与 4KB 边界对齐以确保性能最佳。

    解决办法:要提高缓存命中率,并以最优方式使用为每个 VMDK 预留的缓存,请确保在 VMDK 上安装的客户机操作文件系统至少与 4KB 边界对齐。

Virtual SAN

  • 新问题:已卸载的 Virtual SAN 磁盘和磁盘组在 vSphere Client UI 的“操作状态”字段中显示为已挂载
    使用 esxcli vsan storage diskgroup unmount CLI 命令卸载或 Virtual SAN Device Monitor 服务在磁盘持续显示高延迟时自动卸载 Virtual SAN 磁盘或磁盘组后,vSphere Client UI 在操作状态字段中错误地显示为已挂载

    解决办法:验证显示非正常值的健康状况字段,而不是操作状态字段。
  • 运行 vsan.disks_stats 命令时,具有多个 VSAN 磁盘组的 ESXi 主机可能无法显示磁盘统计信息
    运行 vsan.disks_stats Ruby vSphere Console (RVC) 命令时,具有多个 VSAN 磁盘组的 ESXi 主机可能无法显示磁盘 (MD) 统计信息。主机仅显示固态驱动器 (SSD) 信息。

    解决办法:无
  • 虚拟机目录包含重复的交换 (.vswp) 文件
    如果运行在 Virtual SAN 上的虚拟机未完全关机,并且您在未从 Virtual SAN 磁盘擦除数据的情况下执行了 ESXi 和 vCenter Server 的全新安装,则可能会出现这种情况。因此,未完全关机的虚拟机的目录中出现了旧的交换文件 (.vswp)。

    解决办法:无

  • 尝试向 Virtual SAN 磁盘组添加七个以上磁盘时可能会失败,并显示不正确的错误消息
    Virtual SAN 磁盘组最多支持一个 SSD 和七个磁盘 (HDD)。尝试添加更多磁盘时可能会失败,并显示类似以下内容的不正确错误消息:

    磁盘数量不足 (The number of disks is not sufficient)。

    解决办法:无
  • 添加 Virtual SAN 磁盘时重新扫描失败
    添加 Virtual SAN 磁盘时,由于对非 Virtual SAN 卷的探查失败,导致重新扫描失败,从而导致操作失败。

    解决办法:请忽略该错误,因为所有磁盘都已正确注册。
  • 在移除与其关联的固态驱动器 (SSD) 后移除的硬盘驱动器 (HDD) 可能仍被列为 Virtual SAN 声明的存储磁盘
    如果在从 Virtual SAN 数据存储依次移除 SSD 和关联的 HDD 后运行 esxcli vsan storage list 命令,则移除的 HDD 仍然会被列为 Virtual SAN 声明的存储磁盘。如果将 HDD 插回其他主机,则该磁盘可能显示为属于两个不同的主机。

    解决办法:例如,如果将 SSD 和 HDD 从 ESXi x 移除并插入 ESXi y,则执行下列步骤可防止 HDD 显示为同时属于 ESXi x 和 ESXi y:
    1.将从 ESXi x 移除的 SSD 和 HDD 插入 ESXi y。
    2.从 ESXi x 取消配置该 SSD。
    3.运行命令 esxcfg-rescan -A
       该 HDD 和 SSD 将不再列于 ESXi x 上。
  • 《vSphere 存储》文档中的“使用 Virtual SAN”部分指出,每个磁盘组中 HDD 磁盘的最大数量是六个。但是,允许的 HDD 最大数量是七个。
  • 在 Virtual SAN 群集中发生故障后,vSphere HA 可能会在重新启动虚拟机之前报告多个事件,产生一些误导
    当在 Virtual SAN 上运行的虚拟机似乎发生故障后,vSphere HA 主代理会多次尝试重新启动该虚拟机。如果虚拟机无法立即重新启动,主代理会监控群集状态,当状况表明重新启动可能会成功时再次尝试。对于在 Virtual SAN 上运行的虚拟机,vSphere HA 主代理具有特殊的应用逻辑来检测虚拟机对象的可访问性何时可能已发生变化,只要可访问性可能发生变化,便会尝试重新启动。如果主代理未成功打开虚拟机电源,它不会放弃,而是会等待下一次可能的可访问性变化,每次可能的可访问性变化后,它都会进行尝试。

    在每次失败的尝试后,vSphere HA 都会报告一个事件,指出故障切换未成功,五次失败的尝试后,会报告 vSphere HA 停止尝试重新启动虚拟机,因为已达到故障切换的最大尝试次数。但是,即使在报告 vSphere HA 主代理已停止尝试后,可访问性下次可能发生变化时,它仍会尝试。

    解决办法:无。

  • 关闭 Virtual SAN 主机电源会导致 vSphere Web Client 中的“存储提供程序”视图刷新时间超过预期
    如果您关闭 Virtual SAN 主机电源,“存储提供程序”视图可能显示为空。尽管未显示任何信息,“刷新”按钮仍会继续旋转。

    解决办法:等待至少 15 分钟,以便重新填充“存储提供程序”视图。在您打开主机电源后,该视图也会刷新。

  • Virtual SAN 报告失败的任务已完成
    尽管某些任务在内部失败,Virtual SAN 仍可能会报告它们已完成。

    以下是错误的条件和相应的原因:

    • 条件:当 Virtual SAN 许可证已过期时,用户尝试创建新磁盘组或向现有磁盘组中添加新磁盘。
      错误堆栈: 出现了常规系统错误: 无法添加磁盘:VSAN 未在该主机上获得许可。
    • 条件:用户尝试创建的磁盘组中的磁盘数量高于支持的数量。或者他们尝试向现有磁盘组中添加新磁盘,以致总数超过了每个磁盘组支持的磁盘数量。
      错误堆栈: 出现了常规系统错误: 磁盘过多。
    • 条件:用户尝试向出错的磁盘组中添加磁盘。
      错误堆栈: 出现了常规系统错误: 无法创建分区表。

    解决办法:确定失败的原因后,纠正原因并再次执行任务。

  • Virtual SAN 数据存储无法存储主机本地和系统交换文件
    通常,您可以将系统交换或主机本地交换文件放置在数据存储上。但是,Virtual SAN 数据存储不支持系统交换和主机本地交换文件。因此,没有可用于选择 Virtual SAN 数据存储作为系统交换或主机本地交换文件位置的 UI 选项。

    解决办法:在 Virtual SAN 环境中,使用支持的其他选项放置系统交换和主机本地交换文件。

  • 尽管 vSphere HA 群集中的 Virtual SAN 虚拟机已关闭电源,但仍报告它受 vSphere HA 保护
    当您关闭虚拟机电源,其主对象位于 Virtual SAN 数据存储上,并且主对象不可访问时,可能会出现这种情况。如果在对象变得不可访问后发生 HA 主代理选举,会看到该问题。

    解决办法:

    1. 通过应用指定的存储策略检查对象的合规性,确保主对象重新可访问。
    2. 打开虚拟机电源,然后再次关闭电源。

    状态应更改为不受保护。

  • 即使在触发并成功完成“重新应用”操作后,虚拟机对象仍处于“已过期”状态
    如果因新存储要求而编辑现有虚拟机配置文件,关联的虚拟机对象(主机或磁盘)可能会进入“已过期”状态。当您的当前环境无法支持重新配置虚拟机对象时,会出现该问题。使用重新应用操作不会更改这种状态。

    解决办法:向 Virtual SAN 群集中添加更多资源(主机或磁盘),并再次调用重新应用操作。

  • 如果在启用 Virtual SAN 后为其添加许可,则 Virtual SAN 的自动磁盘声明无法按预期运行
    如果在自动模式下启用 Virtual SAN,然后分配许可证,则 Virtual SAN 无法声明磁盘。

    解决办法:将模式更改为手动,然后再切换回自动。Virtual SAN 将正确地声明磁盘。

  • Virtual SAN 网络进行了分区时,vSphere High Availability (HA) 无法重新启动虚拟机
    当 Virtual SAN 使用 VMkernel 适配器进行节点间通信,而这些适配器与群集中的其他 VMkernel 适配器在同一子网上时,会出现该问题。这种配置会导致网络故障并中断 Virtual SAN 节点间通信,而 vSphere HA 节点间通信一直不受影响。

    在这种情况下,HA 主代理可能会检测到虚拟机中的故障,但是无法重新启动虚拟机。例如,当运行主代理的主机无法访问虚拟机的对象时,会发生这种情况。

    解决办法:确保 Virtual SAN 使用的 VMkernel 适配器不与其他用途的 VMkernel 适配器共享一个子网。

  • 虚拟机目录包含重复的交换 (.vswp) 文件   
    如果运行在 Virtual SAN 上的虚拟机未完全关机,并且您在未从 Virtual SAN 磁盘擦除数据的情况下执行了 ESXi 和 vCenter Server 的全新安装,则可能会出现这种情况。因此,未完全关机的虚拟机的目录中出现了旧的交换文件 (.vswp)。

    解决办法:无

  • 由于网络延迟时间很长,虚拟机可能变得无法访问
    在 Virtual SAN 群集设置中,如果网络延迟时间很长,某些虚拟机可能在 vCenter Server 上变得无法访问,并且您将无法打开虚拟机电源或访问虚拟机。

    解决办法:运行 vsan.check_state -e -r RVC 命令。
  • 由于网络延迟时间很长,虚拟机操作可能会超时
    使用具有低队列深度的存储控制器时,网络延迟时间很长可能会导致虚拟机操作超时。

    解决办法:网络负载较低时,重新尝试操作。
  • 虚拟机可能被重命名为其截断版的 vmx 文件路径
    如果虚拟机的 vmx 文件暂时无法访问,则虚拟机会被重命名为截断版的 vmx 文件路径。例如,虚拟机可能被重命名为 /vmfs/volumes/vsan:52f1686bdcb477cd-8e97188e35b99d2e/236d5552-ad93截断可能会删除虚拟机主目录的 UUID 的一半,使得难以仅通过虚拟机名称将已重命名的虚拟机与原始虚拟机进行映射。

    解决办法:运行 vsan.fix_renamed_vms RVC 命令。

vCenter Server 和 vSphere Web Client

  • 无法将 ESXi 主机添加到 Active Directory 域
    您可能注意到尝试分配权限时 Active Directory 域名未显示在“选择用户和组”选项下的“域”下拉列表中。同样,“身份验证服务设置”选项可能未显示任何信任域控制器,即使 Active Directory 有信任域时也是如此。

    解决办法:
    1. 依次重新启动 netlogond、lwiod 和 lsassd 守护进程。
    2. 使用 vSphere Client 登录到 ESXi 主机。
    3. 配置选项卡中,单击身份验证服务设置
    4. 刷新以查看信任域。

虚拟机管理问题

  • 如果 VMDK 文件名以“core”开头,将无法执行虚拟机的冷迁移和 Storage vMotion
    如果 VMDK 文件名以“core”开头,尝试执行虚拟机的冷迁移和 Storage vMotion 可能会失败,并显示类似于以下内容的错误消息:

    出现了常规系统错误: 命名或重命名虚拟机文件时出错 (A general system error occurred: Error naming or renaming a VM file)。

    类似于以下内容的错误消息可能会显示在 vpxd.log 文件中:

    mem> 2014-01-01T11:08:33.150-08:00 [13512 info 'commonvpxLro' opID=8BA11741-0000095D-86-97] [VpxLRO] -- FINISH task-internal-2471 -- -- VmprovWorkflow --
    mem> 2014-01-01T11:08:33.150-08:00 [13512 info 'Default' opID=8BA11741-0000095D-86-97] [VpxLRO] -- ERROR task-internal-2471 -- -- VmprovWorkflow: vmodl.fault.SystemError:
    mem> --> Result:
    mem> --> (vmodl.fault.SystemError){
    mem> --> dynamicType = ,
    mem> --> faultCause = (vmodl.MethodFault) null,
    mem> --> reason = "Error naming or renaming a VM file.",
    mem> --> msg = "",
    mem> --> }

    ESXi 主机将名称以“core”开头的 VMDK 文件错误地分类为核心文件而非预期磁盘类型时,会出现该问题。

    解决办法:确保虚拟机的 VMDK 文件名不以“core”开头。此外,使用 vmkfstools 实用程序重命名 VMDK 文件以确保文件名不以“core”一词开头。
  • 如果虚拟机使用在法语区域设置下运行的 Windows 7 Enterprise(64 位)客户机操作系统,则该虚拟机在克隆操作期间会出现问题
    如果克隆的 Windows 7 Enterprise(64 位)虚拟机正在法语区域设置下运行,则该虚拟机会与网络断开连接,并且不会应用自定义规范。如果虚拟机正在 ESXi 5.1 主机上运行,此时将其克隆到 ESXi 5.5,并将 VMware Tools 版本升级到 5.5 主机提供的最新版本,则会出现此问题。

    解决办法:先将虚拟机兼容性升级到 ESXi 5.5 及更高版本,然后再升级到 VMware Tools 的最新可用版本。

  • 尝试增加正在运行的虚拟机上的虚拟磁盘大小会失败并显示错误
    如果在虚拟机正在运行时增加虚拟磁盘的大小,则操作可能失败并显示以下错误:

    此设备类型不支持此操作 (This operation is not supported for this device type.)

    如果要将磁盘大小扩展到 2TB 或更大,则操作可能会失败。热扩展操作仅支持将磁盘大小增加到小于或等于 2TB 的大小。SATA 虚拟磁盘不支持热扩展操作,无论该磁盘大小是多少。

    解决办法:关闭虚拟机电源,以便将虚拟磁盘扩展到 2TB 或更大。

VMware HA 和 Fault Tolerance 问题
  • 新问题:Fault Tolerance (FT) 在 Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台上不受支持
    Fault tolerance 在 Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台上不受支持。在您启用单处理器 Fault Tolerance 后,尝试打开虚拟机将失败。

    解决办法:无

  • 如果在 vSphere HA 群集中选择 ESX/ESXi 4.0 或 4.1 主机来故障切换某个虚拟机,则该虚拟机可能无法按预期重新启动
    当 vSphere HA 在 ESX/ESXi 4.0 或 4.1 主机上重新启动某个虚拟机时,如果该主机与运行该虚拟机的原始主机不同,则会发出一个查询,但该查询不会获得应答。该虚拟机不会在新主机上打开电源,除非从 vSphere Client 中手动应答该查询。

    解决办法:从 vSphere Client 中应答该查询。您也可以等待超时(默认为 15 分钟),然后,vSphere HA 将尝试在其他主机上重新启动该虚拟机。如果该主机运行的是 ESX/ESXi 5.0 或更高版本,则该虚拟机将重新启动。

  • 如果无共享存储的 vMotion 操作在 vSphere HA 群集中失败,则目标虚拟机可能会注册到意外的主机中
    由于目标虚拟机不会收到用于协调两个虚拟机之间控制权转移的握手消息,因此,无共享存储的 vMotion 迁移可能会失败。vMotion 协议会同时关闭源虚拟机和目标虚拟机的电源。如果源主机和目标主机位于同一群集中,并且已启用 vSphere HA,则 vSphere HA 可能会将目标虚拟机注册到另一台主机上,而该主机不是为 vMotion 迁移选择的目标主机。

    解决办法:如果希望保留目标虚拟机并将其注册到特定主机上,则必须将该目标虚拟机重定位到目标主机。最好在打开虚拟机电源之前执行此重定位操作。

受支持硬件问题
  • 风扇、电源、电压和当前传感器的传感器值显示在 vCenter Server“硬件状态”选项卡的“其他”组中
    某些传感器值会在“其他”组中列出,而不是在各个值所属的组中。

    解决办法:无。

  • 如果启用了调试直接内存访问 (DMA) 映射程序,则可能会出现 I/O 内存管理单元 (IOMMU) 故障
    此调试映射程序会将设备置于 IOMMU 域中,以便于捕获对未明确映射的地址的设备内存访问。在某些使用旧版固件的 HP 系统上,可能会出现 IOMMU 故障。

    解决办法:从 HP 网站下载固件升级,然后加以应用。

    • 升级 HP iLO2 控制器的固件。
      2011 年 8 月发布的 2.07 版可解决此问题。
    • 升级 HP Smart Array 的固件。
      2012 年 1 月发布的 HP Smart Array P410 5.14 版可解决此问题。

VMware Tools 问题

  • 如果之前未安装 VMware Tools,则无法通过执行 vmware-install.pl -d 命令在 Linux 客户机操作系统上安装 VMware Tools
    如果 VMware Tools 未在 Linux 客户机操作系统上安装,尝试通过执行 vmware-install.pl -d 命令进行 VMware Tools 全新安装可能会失败。
    以下客户机操作系统中会出现此问题:
    • RHEL 7 及更高版本
    • CentOS 7 及更高版本
    • Oracle Linux 7 及更高版本
    • Fedora 19 及更高版本
    • SLES 12 及更高版本
    • SLED 12 及更高版本
    • openSUSE 12.2 及更高版本
    • Ubuntu 14.04 及更高版本
    • Debian 7 及更高版本

    解决办法:没有能使 -default (-d) 交换机正常工作的解决办法。但是,您可以在不使用 -default 交换机的情况下安装 VMware Tools。
    当系统提示您是否要使用此旧版安装程序继续? 时,请选择

    注意:本版本引入了新的 --force-install’(-f) 交换机来安装 VMware Tools。
  • VMware Tools 升级后文件会消失
    升级 VMware Tools 后,未找到 C:\Program Files\Vmware\Vmware Tools\ 中的 deployPkg.dll 文件。从版本 5.1 Update 2 升级到 5.5 Update 1 或更高版本,以及从版本 5.5 升级到 5.5 Update 1 或更高版本后,会出现该问题。

    解决办法:无
  • 通过 OSP 安装或卸载 VMware Tools 时会强制用户注销
    在使用操作系统特定软件包 (OSP) 安装的 RHEL (Red Hat Linux Enterprise) 和 CentOS 虚拟机中安装或卸载 VMware Tools 软件包时,将强制当前用户注销。RHEL 6.5 64 位、RHEL 6.5 32 位、CentOS 6.5 64 位和 CentOS 6.5 32 位虚拟机中会出现此问题。

    解决办法:
    • 使用安全 shell (SSH) 安装或卸载 VMware Tools
    • 用户必须再次登录以安装或卸载 VMware Tools 软件包

其他问题

  • SRM 测试恢复操作可能会失败,并显示错误
    尝试执行 Site Recovery Manager (SRM) 测试恢复可能会失败,并显示类似于以下内容的错误消息:
    “错误 - 出现常规系统错误: 找不到虚拟机 (Error - A general system error occurred: VM not found)”。
    同时执行多个测试恢复操作时,出现错误消息的可能性也会增加。

    解决办法:无。但是,这不是一个持久问题,如果您重新执行 SRM 测试恢复操作,此问题可能不会出现。
>