VMware ESXi 5.5 Update 3b 发行说明

|

VMware ESXi™ 5.5 Update 3b | 2015 年 12 月 8 日 | 3248547

上次更新时间:2016 年 3 月 30 日

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

本版本的 VMware ESXi 包含以下增强功能:

  • 更新: 默认情况下已禁用 SSLv3 协议支持。

    注意:在 vSphere 环境中,您需要先将 vCenter Server 更新为 vCenter Server 5.5 Update 3b,然后再将 ESXi 更新为 ESXi 5.5 Update 3b。如果您在将 vCenter Server 更新为版本 5.5 Update 3b 之前先更新 ESXi,vCenter Server 将无法管理 ESXi 5.5 Update 3b。有关 vSphere 环境需要按何顺序进行更新的详细信息,请参见知识库文章 2057795

    VMware 强烈建议在从 vCenter Server 5.5 Update 3b 管理 ESXi 主机时,将这些主机更新为 ESXi 5.5 Update 3b。

    由于 POODLE 漏洞,VMware 不建议重新启用 SSLv3。如果确实需要启用 SSLv3,您将需要为所有组件启用 SSLv3 协议。有关详细信息,请参见知识库文章 2139396

  • 已解决的问题 本版本提供了许多已在已解决的问题部分中记录的缺陷修复。

ESXi 5.5 的早期版本

各个版本的发行说明中分别描述了 ESXi 5.5 的功能和已知问题。ESXi 5.5 的早期版本的发行说明包括:

国际化

VMware vSphere 5.5 Update 3b 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文
  • 繁体中文

兼容性和安装

ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 VMware 产品互操作性列表以了解有关受支持的管理和备份代理的信息。

vSphere Client 和 vSphere Web Client 打包在 vCenter Server ISO 上。您可以使用 VMware vCenter™ 安装程序向导来安装其中一个客户端,也可以同时安装这两个客户端。

对于 ESXi 版本 4.0、4.1、5.0、5.1 和 5.5,VMware 强烈建议在从 vCenter Server 5.5 Update 3b 管理 ESXi 主机时,将这些主机更新为 ESXi 5.5 Update 3b。

ESXi、vCenter Server 和 VDDK 兼容性

Virtual Disk Development Kit (VDDK) 5.5.3 增加了对 ESXi 5.5 Update 3 和 vCenter Server 5.5 Update 3 版本的支持。
有关 VDDK 的详细信息,请参见 http://www.vmware.com/support/developer/vddk/

ESXi 和 Virtual SAN 的兼容性

Virtual SAN 不支持在 5.5 Update 1 之前版本的 ESXi 主机上配置的群集。在启用 Virtual SAN 前,请确保 Virtual SAN 群集中的所有主机都已升级到 ESXi 5.5 Update 1 或更高版本。vCenter Server 也应升级到 5.5 Update 1 或更高版本。

ESXi 的硬件兼容性

要查看与 vSphere 5.5 Update 3 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请查看《VMware 兼容性指南》中关于 ESXi 5.5 Update 3 的信息。

ESXi 的设备兼容性

要确定哪些设备与 ESXi 5.5 Update 3b 兼容,请查看《VMware 兼容性指南》中关于 ESXi 5.5 Update 3 的信息。

某些设备已在 ESXi 5.5 及更高版本上弃用,并且不再受支持。在升级过程中,设备驱动程序安装在 ESXi 5.5.x 主机上。该驱动程序可能仍在 ESXi 5.5.x 上起作用,但设备在 ESXi 5.5.x 上不受支持。有关已在 ESXi 5.5.x 上弃用且不再受支持的设备列表,请参见 VMware 知识库文章 ESXi 5.5 升级过程中的弃用设备及警告

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 vSphere 5.5 Update 3b 兼容,请查看《VMware 兼容性指南》中关于 ESXi 5.5 Update 3 的信息。

ESXi 的虚拟机兼容性

ESXi 5.5 Update 3 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 5.5 Update 3 上使用此类虚拟机,请升级虚拟机兼容性。请参见《vSphere 升级》文档。

vSphere Client 与使用 vCenter Server 5.x 的链接模式环境之间的连接

vCenter Server 5.5 在链接模式下只能与 vCenter Server 5.5 的其他实例共存。

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的指导,请阅读《vSphere 安装和设置》文档。

虽然安装过程很简单,但是仍须执行若干后续配置步骤。请阅读以下文档:

迁移第三方解决方案

无法将 ESX 或 ESXi 主机上安装的第三方解决方案作为主机升级的一部分直接进行迁移。ESXi 5.1 与 ESXi 5.5 之间的架构更改会导致丢失第三方组件,并可能造成系统不稳定。要完成此类迁移,您可以使用 Image Builder 创建自定义 ISO 文件。有关使用第三方自定义内容升级主机的信息,请参见《vSphere 升级》文档。有关使用 Image Builder 创建自定义 ISO 的信息,请参见《vSphere 安装和设置》文档。

禁止对不支持的 CPU 进行升级和安装

vSphere 5.5.x 仅支持采用 LAHF 和 SAHF CPU 指令集的 CPU。在安装或升级过程中,安装程序将检查主机 CPU 与 vSphere 5.5.x 的兼容性。如果您的主机硬件不兼容,将显示带有不兼容消息的紫色屏幕。您无法安装或升级到 vSphere 5.5.x。

本版本的升级

有关升级 vCenter Server 和 ESX/ESXi 主机的说明,请参见 《vSphere 升级》文档。

在 vSphere 环境中,您需要先将 vCenter Server 更新为 vCenter Server 5.5 Update 3b,然后再将 ESXi 更新为 ESXi 5.5 Update 3b。
如果在将 vCenter Server 更新为版本 5.5 Update 3b 之前先更新 ESXi,则 vCenter Server 将无法管理 ESXi 5.5 Update 3b 主机。
有关 vSphere 环境需要按何顺序进行更新的详细信息,请参见知识库文章 2057795

升级到 ESXi 5.5 Update 3b 的支持升级途径

升级交付产品

受支持的升级工具

升级到 ESXi 5.5 Update 3b 的支持升级途径

ESX/ESXi 4.0
包括
ESX/ESXi 4.0 Update 1
ESX/ESXi 4.0 Update 2

ESX/ESXi 4.0 Update 3
ESX/ESXi 4.0 Update 4

ESX/ESXi 4.1:
包括
ESX/ESXi 4.1 Update 1
ESX/ESXi 4.1 Update 2

ESX/ESXi 4.1 Update 3

ESXi 5.0:
包括
ESXi 5.0 Update 1

ESXi 5.0 Update 2
ESXi 5.0 Update 3

ESXi 5.1
包括
ESXi 5.1 Update 1
ESXi 5.1 Update 2

ESXi 5.5
包括
ESXi 5.5 Update 1
ESXi 5.5 Update 2 ESXi 5.5 Update 3a



VMware-VMvisor-Installer-201512001-3248547.x86_64.iso

 

  • VMware vSphere Update Manager
  • CD 升级
  • 脚本式升级


ESXi550-201512001.zip
  • VMware vSphere Update Manager
  • ESXCLI
  • VMware vSphere CLI

是*

是*

使用从 VMware 门户(联机)下载的修补程序定义 带有修补程序基准的 VMware vSphere Update Manager


VMware vSphere 5.5 Update 3 的开源组件

可从 http://www.vmware.com/download/vsphere/open_source.html 的“开源”选项卡上获取适用于 vSphere 5.5 Update 3 中分发的开源软件组件的版权声明和许可证。您还可以下载 vSphere 最新可用版本的所有 GPL、LGPL 或者其他要求公开源代码或对源代码进行修改的类似许可证的源文件。

产品支持注意事项

  • vSphere Web Client。由于 Adobe Flash 不再支持 Linux 平台,因此 Linux 操作系统不支持 vSphere Web Client。已添加 Adobe Flash 支持的第三方浏览器仍可在 Linux 操作系统上继续工作。

  • VMware vCenter Server Appliance。在 vSphere 5.5 中,VMware vCenter Server Appliance 可通过强制执行美国国防信息系统局《安全技术信息准则》(STIG) 来满足严格监管的合规性标准要求。部署 VMware vCenter Server Appliance 之前,请参见《VMware 强化虚拟设备操作指南》以获取有关新安全部署标准的信息,以确保操作成功。

  • vCenter Server 数据库。vSphere 5.5 不再支持使用 IBM DB2 作为 vCenter Server 数据库。

  • VMware Tools。从 vSphere 5.5 开始,有关如何在 vSphere 中安装和配置 VMware Tools 的所有信息都将与其他 vSphere 文档合并。有关在 vSphere 中使用 VMware Tools 的信息,请参见 vSphere 文档。《安装和配置 VMware Tools》与 vSphere 5.5 及更高版本不相关。

  • VMware Tools。从 vSphere 5.5 开始,VMware Tools 不再提供 ThinPrint 功能。
    注意:如果您计划将 ESXi 主机升级到 ESXi 5.5 Update 3b(含捆绑的 VMware Tools 10.0.0)或更高版本,并且仍计划使用旧版本 Horizon View 代理,您应当了解这两个版本的不兼容问题。有关解决不兼容问题的信息和一般规则,请参见知识库文章 21444382144518

  • vSphere Data Protection。由于 vSphere Web Client 运行方式改变,vSphere Data Protection 5.1 与 vSphere 5.5 不兼容。升级到 vSphere 5.5 的 vSphere Data Protection 5.1 用户如果继续使用 vSphere Data Protection,必须同时更新 vSphere Data Protection。

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi550-Update03b 包含以下各公告:

ESXi550-201512401-BG:更新 ESXi 5.5 esx-base vib

ESXi550-201512402-BG:更新 ESXi 5.5 ehci-ehci-hcd vib

ESXi550-201512403-BG:更新 ESXi 5.5 tools-light vib

ESXi550-201512404-BG:更新 ESXi 5.5 lsi-msgpt vib

修补程序版本 ESXi550-Update03b(仅安全性)包含以下各公告:

ESXi550-201512101-SG:更新 ESXi 5.5 esx-base vib

ESXi550-201512102-SG:更新 ESXi 5.5 tools-light vib

修补程序版本 ESXi550-Update03b 包含以下映像配置文件:

ESXi-5.5.0-20151204001-standard
ESXi-5.5.0-20151204001-no-tools

修补程序版本 ESXi550-Update03b(仅安全性)包含以下映像配置文件:

ESXi-5.5.0-20151201001s-standard
ESXi-5.5.0-20151201001s-no-tools

有关修补程序和更新分类的信息,请参见知识库文章 2014447

已解决的问题

本节介绍了此版本中已解决的问题:

备份问题

  • 重新加载虚拟机时,虚拟机容量标记 changeTrackingSupported 可能意外重置
    hostd 服务重新加载虚拟机时,更改块跟踪 (CBT) 可能意外将 changeTrackingSupported 标记值从 true 间歇性重置为 false。其结果是虚拟机可能不支持 CBT,因此在虚拟机备份过程中无法使用 CBT。增量备份可能失败,并显示类似于以下内容的错误消息:
    无法对虚拟机进行备份 (unable to take a backup of virtual machine)。

    本版本已解决该问题。

CIM 和 API 问题

  • ServerView CIM 提供程序与 Emulex CIM 提供程序位于同一台 ESXi 主机时无法监控硬件状态
    当 ServerView CIM 提供程序和 Emulex CIM 提供程序共存于同一台 ESXi 主机上时,Emulex CIM 提供程序 (sfcb-emulex_ucn) 可能无法响应,导致无法监控硬件状态。

    本版本已解决该问题。

  • 使用第三方软件 ServerView RAID Manager 时,硬件监控可能失败
    使用第三方软件 ServerView RAID Manager 时,硬件监控可能失败。争用情况导致 sfcb-vmware_aux 停止响应。

    本版本已解决该问题。

  • inode 耗尽时,ESXi 5.x 主机可能断开与 vCenter Server 的连接
    inode 被轻量级 CIM 代理守护进程 (sfcbd) 服务耗尽时,ESXi 5.x 主机可能断开与 vCenter Server 的连接。ESXi 5.x 主机进入此状态后,会重新连接至 vCenter Server。

    /var/log/hostd.log 中报告类似于以下内容的日志,指示 ESXi 5.x 主机空间不足:
    VmkCtl Locking (/etc/vmware/esx.conf) : Unable to create or open a LOCK file.Failed with reason: No space left on device
    VmkCtl Locking (/etc/vmware/esx.conf) : Unable to create or open a LOCK file.Failed with reason: No space left on device

    /var/log/vmkernel.log 中写入类似于以下内容的消息,指示 ESXi 5.x 主机 inode 不足:
    cpu4:1969403)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.
    cpu5:1969403)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.

    本版本已解决该问题。

  • vSphere Client 的“硬件状态”选项卡中可能出现无效警报
    在 HP DL980 G7 上完成 Integrated Lights Out (iLO) 固件升级后,vSphere Client 的“硬件状态”选项卡中出现无效警报。
    /var/log/syslog.log 文件中可能会记录类似于以下内容的错误消息:

    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x8 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfcFruChassis: Reading FRU Chassis Info Area length for 0x0 FAILED
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfcFruBoard: Reading FRU Board Info details for 0x0 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x70 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfcFruProduct: Reading FRU product Info Area length for 0x0 FAILED
    2014-10-17T08:51:14Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: data length mismatch req=19,resp=3
    2014-10-17T08:51:15Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0001,resp=0002
    2014-10-17T08:51:17Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0002,resp=0003
    2014-10-17T08:51:19Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0003,resp=0004
    2014-10-17T08:51:19Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0004,resp=0005
    2014-10-17T08:51:20Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0005,resp=0006
    2014-10-17T08:51:21Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0006,resp=0007

    本版本已解决该问题。

网络连接问题

  • 使用 VMXNET3 虚拟适配器的虚拟机可能出现故障
    尝试从 iPXE(开源引导固件)引导时,使用 VMXNET3 虚拟适配器的虚拟机可能会出现故障。

    本版本已解决该问题。

  • 将资源池设置为用户定义的 respool 可能失败
    尝试将资源池设置为用户定义的 respool 可能失败,发生此问题是因为用户定义的网络资源池中的 QoS 优先级标记未生效。

    本版本已解决该问题。


  • 在 Auto Deploy 期间应用主机配置文件时网络连接丢失
    在 Auto Deploy 期间应用主机配置文件时,可能会丢失网络连接,原因是 VXLAN 通道端点 (VTEP) 网卡被标记为管理 vmknic

    本版本已解决该问题。

  • 收集 ESXi 日志包时,以太网光纤通道 (FCoE) 链路可能关闭
    收集 ESXi 日志包时,lldpnetmap 命令启用 LLDP;但是 LLDP 只能在处于二者模式时进行设置,且 LLDP 数据包由 ESXi 主机发出。这些数据包可能导致 FCoE 链路关闭。

    本版本已解决该问题。

安全问题

  • OpenSSL 更新
    OpenSSL 已更新至版本 openssl-1.0.1p。

  • 更新 Python 软件包
    Python 第三方库已更新为 2.7.9 版本。

  • 禁用对 Diffie Hellman 密码的支持
    默认情况下为所有服务禁用对 Diffie Hellman 密码套件的支持。

  • 禁用对 EXPORT_RSA 密码的支持
    默认情况下禁用对 EXPORT_RSA 密码的支持。

  • SSL/TLS 配置具有持久性
    现在,SSL/TLS 的所有服务配置对使用主机配置文件(hostd 除外)的有状态和无状态 ESXi 均具有持久性。

服务器配置问题

  • ESXi 主机升级到 ESXi 5.x 后重新引导失败,导致极高的 WAN 流量
    如果 lsassd、netlogond 或 lwiod 守护进程的多个实例同时运行,则位于 ESXi 5.x 主机 /var/log/ 上的 syslog.log 文件中将写入类似于以下内容的消息:

    lsassd[<value>]: <value>:Terminating on fatal IPC exception

    ESXi 主机升级过程中可能发生此问题。有关详细信息,请参见知识库文章 2051707

    本版本已解决该问题。

  • ESXi 主机服务器意外重新引导,发生不可纠正的计算机检查异常错误
    在使用 AMD 处理器的 HP 服务器上将具有 1.5 TB 内存的 ESXi 主机从 5.1 升级到 6.0 后,该主机可能意外停止响应或重新引导。您还将在集成管理日志文件中看到类似于以下内容的不可纠正的计算机检查异常 (UMCE)。

    Critical","CPU","##/##/2014 15:41","##/##/2014 15:41","1","Uncorrectable Machine Check Exception (Board 0, Processor 3, APIC ID 0x00000060, Bank 0x00000004, Status 0xF6000000'00070F0F, Address 0x00000050'61EA3B28, Misc 0x00000000'00000000)",
    Mode of failure: Unexpectedly reboot.IML displays UMCE occurred.


    本版本已解决该问题。

  • Hostd 服务可能会因为没有可用内存而停止响应
    Hostd 服务可能停止响应,发生故障并显示错误。发生此问题是由于 vmkctl 中没有可用内存,这会导致 hostd 占用更多内存。可能会显示类似于以下内容的错误消息:
    内存超过硬限制 (Memory exceeds hard limit)

    本版本已解决该问题。

存储问题

  • 运行 9.6 固件的 Dell Force10 S5000 交换机可能无法与 Dell Compellent S40 存储建立会话
    尝试在运行 9.6 固件的 Dell Force10 S5000 交换机与 Dell Compellent S40 存储服务器之间建立会话可能失败。如果 ESXi 5.x 服务器连接到以太网光纤通道 (FCoE) 存储,且重新建立连接时启动器未重新登录到架构,则会发生此问题。这可能会导致具有多个服务器的环境中有效或无效会话通过 FCoE 连接到存储。

    本版本已解决该问题。

  • esxtop 实用程序报告 VAAI 支持的 LUN 上针对 DAVG/cmd 和 KAVG/cmd 的统计信息错误
    由于计算错误,esxtop 实用程序针对 VAAI 支持的 LUN 报告的每个命令的平均设备延迟统计信息和每个命令的平均 ESXi VMkernel 延迟统计信息不正确。
    注意:此问题可能还会影响 vCenter Server 和 VRops 中的 ESXi 统计信息

    本版本已解决该问题。

  • vSphere 可能不会检测系统中的所有驱动器,即使这些驱动器已显示在 BIOS 中
    如果系统中存在多个 HBA,vSphere 可能不会检测系统中的所有 18 个驱动器,原因是 lsi_msgpt3 驱动程序无法检测每个 HBA 的单个驱动器。

    该问题已解决。

  • VMFS 卷被锁定
    ESXi 主机上的 VMFS 卷可能会因元数据操作失败而保持锁定。vmkernel.log 文件显示类似于以下内容的错误消息:
    WARNING: LVM: 12976: The volume on the device naa.50002ac002ba0956:1 locked, possibly because some remote host encountered an error during a volume operation and could not recover.

    本版本已解决该问题。

  • 忽略主机配置文件中禁用的 VDS vmknic
    在主机配置文件中禁用 VDS vmknic 后,在合规性检查期间以及将此配置文件应用到任何主机时 VDS vmknic 没有被忽略。这可能导致无状态 ESXi 主机的 NSX 准备失败。

    本版本已解决该问题。

客户机操作系统问题

  • 在 ESXi 5.5 Update 3b 主机上,Microsoft 群集服务验证可能会失败
    在 MSCS 2012 版本 2 中,Microsoft 群集服务 (MSCS) 验证和故障切换操作可能会失败。

    本版本已解决该问题。

  • 引导客户机 OS X 10.9 时,可能出现错误的警告
    启动运行 OS X 10.9 的虚拟机时,您可能收到虚假警告。可能会显示类似于以下内容的消息:
    在虚拟内核多于一个的情况下,Mac OS 客户机可能运行不可靠。建议您关闭虚拟机电源,将虚拟内核数量设置为一个,然后再打开虚拟机电源。如果您继续操作,客户机可能进入应急状态,您可能会丢失数据 (Your Mac OS guest might run unreliably with more than one virtual core. It is recommended that you power off the virtual machine, and set its number of virtual cores to one before powering it on again. If you continue, your guest might panic and you might lose data)。

    该警告预期只对早期版本的 OS X 显示,对 OS X 10.9 不适用。要可靠地运行,OS X 10.9 版本至少需要两个处理器内核。应忽略此虚假警告。

    本版本已解决该问题。

  • 运行 SAP 的虚拟机随机出现故障
    在虚拟机内部执行过多 VMware Tools 统计命令时,运行 SAP 的虚拟机随机出现 vmx.zdump 故障,并显示类似于以下内容的错误消息。
    CoreDump error line 2160, error Cannot allocate memory.

    本版本已解决该问题。

Virtual SAN 问题

  • 尝试在 Virtual SAN 数据存储上将数据复制到虚拟机可能失败
    在 Virtual SAN 上将数据从物理 NAS 迁移到虚拟机的文件服务器可能失败。可能会显示类似于以下内容的错误消息:
    未找到文件 (File not found)

    本版本已解决该问题。

  • 将重新安装的 ESXi 主机添加回 Virtual SAN 群集后,可能导致磁盘和其他虚拟机组件仍然处于不存在或不正常状态
    重新安装 ESXi 主机时,该主机的 UUID 发生了更改。将此类 ESXi 主机添加回 Virtual SAN 群集时,属于该主机的磁盘和其他虚拟机组件可能继续显示为不存在或不正常。

    本版本已解决该问题。

  • 尝试在 VMware Virtual SAN 中整合磁盘可能失败
    即使 vSanDatastore 或磁盘驱动器中有足够空间,尝试在 VMware Virtual SAN 中整合磁盘也可能失败。将显示类似于以下内容的错误消息:
    整合磁盘时出错: msg.disklib.NOSPACE (An error occurred while consolidating disks: msg.disklib.NOSPACE)

    本版本已解决该问题。

  • 由于 SSD/MD 磁盘分区的元数据无效,磁盘组验证可能失败
    尝试从 VMware Virtual SAN 磁盘组移除磁盘可能会显示紫色诊断屏幕,这是因为 SSD/MD 磁盘分区的元数据无效导致磁盘组验证失败。

    本版本已解决该问题。

  • 在 SSD 上观察到 APD 磁盘错误后,孤立的 LSOM 对象仍然存在
    在固态磁盘 (SSD) 上观察到全部路径异常 (APD) 磁盘错误后,孤立的 LSOM 对象可能仍然存在。

    本版本已解决该问题。

  • hostd 服务不工作时,无法提取 VSI 节点
    hostd 服务不工作时您无法提取 VSI 节点,这可能导致此方面的分析问题。为解决此问题,我们已添加 vsanObserver,使观察程序不依赖 hostd 服务也可运行。

    本版本已解决该问题。

  • 显示紫色诊断屏幕时,重新引导 ESXi 主机可能失败
    显示紫色诊断屏幕时,尝试在维护模式下重新引导 ESXi 主机可能失败。vmkwarning.log 文件中可能显示类似于以下内容的错误消息:
    2015-03-03T08:40:37.994Z cpu4:32783)WARNING: LSOM: LSOMEventNotify:4571: VSAN device 523eca86-a913-55d4-915e-f89bdc9fab46 is under permanent error.
    2015-03-03T08:40:37.994Z cpu1:32967)WARNING: LSOMCommon: IORETRYCompleteSplitIO:577: Throttled: max retries reached Maximum kernel-level retries exceeded
    2015-03-03T08:40:39.006Z cpu6:32795)WARNING: LSOMCommon: IORETRYParentIODoneCB:1043: Throttled: split status Maximum kernel-level retries exceeded
    2015-03-03T08:40:39.006Z cpu6:32795)WARNING: PLOG: PLOGElevWriteMDDone:255: MD UUID 523eca86-a913-55d4-915e-f89bdc9fab46 write failed Maximum kernel-level retries exceeded
    2015-03-03T08:41:44.217Z cpu1:34228)WARNING: LSOM: LSOMEventNotify:4571: VSAN device 52ed79c6-b64e-3f60-289f-5870e19a85f0 is under permanent error.

    本版本已解决该问题。

vCenter Server 和 vSphere Web Client 问题

  • 尝试将 ESXi 主机连接到 vSphere Web Client 可能失败
    ESXi 主机可能停止响应并断开与 vCenter Server 的连接。由于此问题,主机无法与 vSphere Web Client 直接连接。发生此问题的原因是为 likewise 组件分配的内存不足。

    本版本已解决该问题。

  • ESXi 主机丢失与远程 Syslog 服务器的连接时,vCenter Server 可能停止响应
    ESXi 主机丢失与远程 Syslog 服务器的连接时,GeneralHostWarningEventAlarmStatusChangedEvent 事件无限地记录在太多警示消息中,导致 vpx_eventvpx_event_arg 表填满 vCenter 数据库。此问题导致极端 vCenter 延迟,且 vCenter Server 停止响应。

    本版本已解决该问题。

  • 执行 vMotion 后尝试使用 VMware 准虚拟 SCSI (PVSCSI) 控制器可能影响虚拟机的性能
    执行 vMotion 或挂起/恢复虚拟机后,虚拟机性能可能下降。

    本版本已解决该问题。

虚拟机管理问题

  • Samsung NVMe XS1715 SSD 控制器设备配置为直通设备时,客户机操作系统可能无法打开电源
    如果在直通模式下附加了 NVMe XS1715 SSD 控制器,则虚拟机的客户机操作系统可能无法打开电源或者可能会停止响应。将显示类似于以下内容的错误消息:
    PCI 直通设备 ID(0x-57e0) 无效 (PCI passthrough device ID(0x-57e0) is invalid)

    本版本已解决该问题。

  • 尝试从挂起状态恢复虚拟机或在 vmotion/svmotion 期间恢复虚拟机可能失败
    尝试从挂起状态恢复虚拟机或在 vmotion/svmotion 期间恢复虚拟机可能失败。可能会显示类似于以下内容的错误消息:
    无法打开虚拟机电源 (The virtual machine cannot be powered on)
    您还可以查看 vmware.log 文件并搜索扩展名为 msg.checkpoint.PASizeMismatch 的错误。

    本版本已解决该问题。

  • ESXi 5.5 主机可能发生故障,虚拟机可能停止响应
    虚拟机停止响应后 ESXi 5.5 主机可能发生故障并显示紫色诊断屏幕,原因是以交换代码编写的不良窗口中断了大页面。可能会显示类似于以下内容的错误消息:
    #PF Exception 14 in world 32856:helper14 IP 0x41801faf6560 addr 0x410e86868680
    2015-04-03T13:03:17.648Z cpu22:32856)0x41238161dc10:[0x41801faf6560]Alloc_Dealloc@vmkernel#nover+0x12c stack: 0x41238161dc60, 0x41801fa1
    2015-04-03T13:03:17.648Z cpu22:32856)0x41238161dc80:[0x41801fc6874d]MemSched_WorldCleanup@vmkernel#nover+0x205 stack: 0x41238161dd00, 0x
    2015-04-03T13:03:17.648Z cpu22:32856)0x41238161df30:[0x41801fae317e]WorldCleanup@vmkernel#nover+0x1ce stack: 0x0, 0x412381627000, 0x4123
    2015-04-03T13:03:17.648Z cpu22:32856)0x41238161dfd0:[0x41801fa6133a]helpFunc@vmkernel#nover+0x6b6 stack: 0x0, 0x0, 0x0, 0x0, 0x0
    2015-04-03T13:03:17.648Z cpu22:32856)0x41238161dff0:[0x41801fc56872]CpuSched_StartWorld@vmkernel#nover+0xfa stack: 0x0, 0x0, 0x0, 0x0,

    本版本已解决该问题。

  • 迁移虚拟机或对虚拟机执行检查点操作时,主机可能停止响应并显示紫色诊断屏幕
    如果迁移虚拟机或对虚拟机执行检查点操作的同时执行 VMM 交换,则主机可能因为过量记录类似于以下内容的日志而停止响应:
    WARNING: Swap: vm 53052: 5285: Swap mode not exclusive. isShared=1 isExclusive=0
    WARNING: Swap: vm 53052: 5285: Swap mode not exclusive. isShared=1 isExclusive=0
    WARNING: Swap: vm 53052: 5285: Swap mode not exclusive. isShared=1 isExclusive=0
    WARNING: Swap: vm 53052: 5285: Swap mode not exclusive. isShared=1 isExclusive=0

    本版本已解决该问题。

  • 如果 esxcli 虚拟机在打开电源的状态下进行了重命名,则该虚拟机的进程列表命令可能仍然显示旧虚拟机名称
    重命名电源打开状态下的虚拟机后,如果运行 esxcli vm process list 命令从主机获得正在运行的虚拟机列表,该列表可能显示旧虚拟机名称。

    本版本已解决该问题。

  • 在带 e1000e 网络适配器的虚拟机上安装 Linux 可能失败
    将 e1000e 网络适配器添加到虚拟机中并打开虚拟机电源后,尝试安装 Linux 可能失败。
    vmkernel.log 文件中写入类似于以下内容的日志:
    [ 1498.266938] Call Trace:
    [ 1498.266950] [ ] timecounter_init+0x1a/0x30
    [ 1498.266973] [ ] e1000e_config_hwtstamp+0x247/0x420 [e1000e]
    [ 1498.266994] [ ] e1000e_reset+0x285/0x620 [e1000e]
    [ 1498.267012] [ ] e1000_probe+0xbaa/0xee0 [e1000e]
    [ 1498.267021] [ ] local_pci_probe+0x45/0xa0
    [ 1498.267029] [ ] ? pci_match_device+0xc5/0xd0
    [ 1498.267036] [ ] pci_device_probe+0xf9/0x150
    [ 1498.267046] [ ] driver_probe_device+0x87/0x390
    [ 1498.267054] [ ] ? driver_probe_device+0x390/0x390
    [ 1498.267062] [ ] __device_attach+0x3b/0x40
    [ 1498.267070] [ ] bus_for_each_drv+0x6b/0xb0
    [ 1498.267077] [ ] device_attach+0x88/0xa0

    本版本已解决该问题。

  • 限制虚拟机磁盘的 IOPS 值可能导致 IOPS 降低
    限制虚拟机磁盘的 IOPS 值可能导致 IOPS 先于配置的读/写操作限制降低。读/写操作 (IO) 的大小等于 ESX IO 调度程序的成本单位大小时,将会发生此问题。由于此原因,IO 调度程序将一个 IO 当做多个 IO 处理。这会导致 IO 限制。

    本版本已解决该问题。

High Availability 和 Fault Tolerance 问题

  • 发生 High Availability 故障切换后,虚拟机无法启动
    ESXi 主机发生故障后,当 HA 尝试启动其他主机上受影响的虚拟机时,某些虚拟机在引导过程中可能会停止响应。

    本版本已解决该问题。

vMotion 和 Storage vMotion 问题

  • 如果在 vmk10 或更高编号的 vmk 上启用 vMotion,在重新引导时可能会为 vmk1 启用 vMotion
    在 vmk10 或更高编号的 vmk 上启用 vMotion 可能会导致重新引导 ESXi 主机时 vmk1 上也启用 vMotion。此问题会导致 vmk1 上出现过多流量,进而导致网络问题。

    本版本已解决该问题。

VMware Tools 问题

  • VMware Tools 的自动升级可能失败
    对于运行在 VMware ESXi 5.5 Update 3b 上的虚拟机,VMware Tools 自动升级可能失败。将显示类似于以下内容的错误消息:
    vix error code = 21009

    注意:如果虚拟机上存在以下客户机文件,将会发生此问题:
    Microsoft Windows 虚拟机:
    C:\Windows\\Temp\\vmware-SYSTEM\\VMwareToolsUpgrader.exe
    Red Hat Enterprise Linux 虚拟机:
    /tmp/vmware-root

    本版本已解决该问题。

已知问题

对 ESXi 5.5 中存在的已知问题的分组如下:

New known issues documented in this release are highlighted as 新问题.

安装和升级问题

  • 新问题:尝试将 ESXi 5.5 Update 3b 主机添加到原有版本的 vCenter Server 失败
    尝试将 ESXi 5.5 Update 3b 主机添加到 vCenter Server 5.5 Update 3 或原有版本失败,用户界面中显示主机通信错误。

    解决办法:您需要更新到最新的 vCenter Server 5.5 Update 3b 版本,然后再更新到 ESXi 5.5 Update 3b。如果您未更新到 vCenter Server 5.5 Update 3b,则需在 ESXi 上为所有服务启用 SSLv3。在 ESXi 上启用 SSLv3 会导致 POODLE 漏洞。

    有关详细信息,请参见知识库文章 2139396

  • 安装最新的 VMware Tools 软件包后,VMware Tools Service 用户进程可能无法在 Linux 操作系统上运行
    在 Linux 操作系统上,您可能会遇到 VMware Tools 升级或安装问题,或者 VMware Tools 服务 (vmtoolsd) 用户流程在安装最新 VMware Tools 数据包后可能无法运行。如果您的 glibc 版本低于 2.5(例如 SLES10sp4),则会出现该问题。

    解决办法:将 Linux glibc 升级到版本 2.5 或更高版本。

  • 在 vSphere PowerCLI 中运行 Get-EsxImageProfile 命令时,尝试获取所有映像配置文件可能会失败
    使用 vSphere PowerCLI 运行 Get-EsxImageProfile 命令以获取所有映像配置文件时,将显示类似于以下内容的错误:

    PowerCLI C:\Windows\system32> Get-EsxImageProfile
    Get-EsxImageProfile : The parameter 'name' cannot be an empty string.
    Parameter name: name
    At line:1 char:20
    + Get-EsxImageProfile <<<<
    + CategoryInfo : NotSpecified: (:)[Get-EsxImageProfile], ArgumentException
    + FullyQualifiedErrorId : System.ArgumentException,VMware.ImageBuilder.Commands.GetProfiles


    解决办法:运行 Get-EsxImageProfile -name "ESXi-5.x*" 命令(包括 -name 选项),并显示 PowerCLI 会话期间创建的所有映像配置文件。

    例如,运行 Get-EsxImageProfile -name "ESXi-5.5.*" 命令将显示类似于以下内容的所有 5.5 映像配置文件:

    PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-EsxmageProfile -name "ESXi-5.5.*"

    Name Vendor Last Modified Acceptance Level
    ---- ------ ------------- ----------------
    ESXi-5.5.0-20140701001s-no-...VMware, Inc. 8/23/2014 6:...PartnerSupported
    ESXi-5.5.0-20140302001-no-t...VMware, Inc. 8/23/2014 6:...PartnerSupported
    ESXi-5.5.0-20140604001-no-t...VMware, Inc. 8/23/2014 6:...PartnerSupported
    ESXi-5.5.0-20140401020s-sta...VMware, Inc. 8/23/2014 6:...PartnerSupported
    ESXi-5.5.0-20131201001s-sta...VMware, Inc. 8/23/2014 6:...PartnerSupported
  • 在 Windows Server 2012 上运行简易安装失败
    如果操作系统配置为使用 DHCP IP 地址,则在 Windows Server 2012 上运行简易安装失败

    解决办法:将 Windows Server 2012 配置为使用静态 IP 地址。

  • 如果使用保留 VMFS 进行 Auto Deploy 无状态缓存或有状态安装时,则不会创建核心转储分区
    如果使用 Auto Deploy 在空白磁盘上进行无状态缓存或有状态安装,则会创建 MSDOS 分区表。但是,不会创建核心转储分区。

    解决办法:启用“无状态缓存或有状态安装主机配置文件”选项时,请选择覆盖 VMFS,即使在空白磁盘上安装也是如此。之后,系统将创建 2.5GB 的核心转储分区。

  • 使用脚本进行安装时,即使在 installorupgrade 命令中使用了 --ignoressd 选项,ESXi 仍会安装在 SSD 上
    在 ESXi 5.5 中,installorupgrade 命令不支持 --ignoressd 选项。如果您在 installorupgrade 命令中使用了 --ignoressd 选项,安装程序会显示一条警告,指出这是一个无效组合。安装程序将继续在 SSD 上安装 ESXi,而非停止安装并显示一条错误消息。

    解决办法:要在使用脚本安装 ESXi 时使用 --ignoressd 选项,请使用 install 命令,而不是 installorupgrade 命令。

  • 如果 Auto Deploy 缓存清除出现延迟,则可能应用了已删除的主机配置文件
    删除主机配置文件后,该配置文件不会立即从 Auto Deploy 中清除。只要该主机配置文件仍保留在缓存中,Auto Deploy 就会继续应用该主机配置文件。仅当从缓存中清除该配置文件后,应用该配置文件的任何规则才会失败。

    解决办法:您可以使用 Get-DeployRuleSet PowerCLI cmdlet 来确定是否有任何规则使用了已删除的主机配置文件。cmdlet 将在该规则的 itemlist 中显示字符串 deleted。随后,您可运行 Remove-DeployRule cmdlet 来删除该规则。

  • 如果 ESX 安装在选定磁盘上,则应用设置为将 Auto Deploy 与无状态缓存配合使用的主机配置文件会失败
    您使用主机配置文件在启用无状态缓存的情况下设置 Auto Deploy。在该主机配置文件中,您选择安装某个版本的 ESX(而非 ESXi)的磁盘。您应用该主机配置文件后,将显示包含以下文本的错误。
    预计有 2 个引导槽,找到 0 个 (Expecting 2 bootbanks, found 0)

    解决办法:选择另一个磁盘进行无状态缓存,或者将 ESX 软件从磁盘中移除。如果移除 ESX 软件,则该软件将无法使用。

  • 在 Oracle America (Sun) 供应商提供的服务器上安装或引导 ESXi 5.5.0 会失败
    如果在 Oracle America (Sun) 供应商提供的服务器上执行全新 ESXi 5.5.0 安装或引导现有的 ESXi 5.5.0,则在安装过程中或现有的 ESXi 5.5.0 版本引导时,该服务器控制台将显示空白屏幕。Oracle America (Sun) 供应商提供的服务器会在 ACPI FADT 表中设置 HEADLESS 标记,而无论这些服务器是否为无头 (headless) 平台,因此会出现这种情况。

    解决办法:在安装或引导 ESXi 5.5.0 时,请传递引导选项 ignoreHeadless="TRUE"

  • 如果使用 ESXCLI 命令升级物理内存小于 4GB 的 ESXi 主机,则升级将成功,但在重新引导时,某些 ESXi 操作将失败
    ESXi 5.5 至少需要 4GB 的物理内存。ESXCLI 命令行界面不会在升级前针对所需的 4GB 内存进行检查。您可以使用 ESXCLI 成功升级内存不足的主机,但在引导该内存小于 4GB 的已升级 ESXi 5.5 主机时,某些操作可能会失败。

    解决办法:无。在升级到版本 5.5 之前,确认 ESXi 主机的物理内存大于 4 GB。

  • 从 vCenter Server Appliance 5.0.x 升级到 5.5 后,如果使用外部 vCenter Single Sign-On,则 vCenter Server 将无法启动
    将 vCenter Server Appliance 从 5.0.x 升级到 5.5 时,如果用户选择使用外部 vCenter Single Sign-On 实例,则 vCenter Server 在该升级后将无法启动。在 Appliance 设备管理界面中,vCenter Single Sign-On 列为未配置

    解决办法:执行下列步骤:

    1. 在 Web 浏览器中,打开 vCenter Server Appliance 管理界面(https://appliance-address:5480)。
    2. 在 vCenter Server/摘要页面中,单击停止服务器按钮。
    3. 在 vCenter Server/SSO 页面中,使用相应的设置完成表单,然后单击保存设置
    4. 返回到“摘要”页面,然后单击启动服务器

  • 在使用 ESXCLI 将 ESXi 4.x 或 5.0.x 主机升级到版本 5.1 或 5.5 之后,所有 VMKernel 端口组的 vMotion 和 Fault Tolerance 日志记录(FT 日志记录)设置都将丢失
    如果使用命令 esxcli software profile update <options> 将 ESXi 4.x 或 5.0.x 主机升级到版本 5.1 或 5.5,则升级会成功,但是,所有 VMKernel 端口组的 vMotion 和 FT 日志记录设置都将丢失。因此,vMotion 和 FT 日志记录会还原为默认设置(已禁用)。

    解决办法:执行交互式或脚本式升级,或者使用 vSphere Update Manager 来升级主机。如果使用 esxcli 命令,请在升级后手动对受影响的 VMkernel 端口组应用 vMotion 和 FT 日志记录设置。

  • 在将 vSphere 5.0.x 或早期版本升级到版本 5.5 之后,手动设置的系统资源分配值将重置为默认值
    暂时的解决办法是,在 vSphere 5.0.x 及早期版本中,修改系统资源分配用户界面中的设置。如果不完全重新安装 ESXi,则无法将这些设置的值重置为默认值。在 vSphere 5.1 及更高版本中,系统行为会发生变化,因此,保留自定义系统资源分配设置可能会导致使用不安全的值。升级过程会重置所有这些值。

    解决办法:无。

  • 在将 ESX 4.x 升级到 ESXi 5.5 之后,不会保留虚拟网卡 vmk0 的 IPv6 设置
    在使用 --forcemigrate 选项将已启用 IPv6 的 ESX 4.x 主机升级到 ESXi 5.5 之后,不会保留虚拟网卡 vmk0 的 IPv6 地址。

    解决办法:无。

网络连接问题

  • 无法将 PCNet32 网络适配器与 NSX 含糊网络结合使用
    如果通过 NSX 含糊网络备用配置 PCNet32 灵活网络适配器,打开虚拟机电源时该适配器将断开连接。
  • 解决办法:无

  • 升级到 ESXi 5.5 可能会更改多播组管理的 TCP/IP 堆栈的 IGMP 配置
    对于多播组管理的 ESXi 5.5 主机,管理界面的默认 IGMP 版本将从 IGMP V2 更改为 IGMP V3。因此,升级到 ESXi 5.5 后,如果管理界面接收到以前版本的 IGMP 查询,则它可能会从 IGMP V3 恢复为 IGMP V2,并且您可能会看到 IGMP 版本不匹配的错误消息。

    解决办法:通过在高级配置选项中修改 TCP/IP IGMP 重新连接时间间隔,编辑默认的 IGMP 版本。
  • 重新引导后,与 vmknic 接口和动态 IP 地址关联的静态路由可能无法显示
    重新引导主机后,与 VMkernel 网络接口 (vmknic) 和动态 IP 地址关联的静态路由可能无法显示。
    此问题是由于在 DHCP 客户端和还原路由命令之间存在争用情况所致。当主机在重新引导过程中尝试还原自定义路由时,DHCP 客户端可能未完成为 vmknic 获取 IP 地址的操作。因此,可能未设置网关,从而未还原路由。

    解决办法:运行 esxcfg-route –r 命令可手动还原路由。
  • 在使用 IPv6 地址将 ESXi 主机添加到 vCenter Server 之后,该主机停止响应
    在使用格式为 fe80::/64 的 IPv6 链路本地地址将 ESXi 主机添加到 vCenter Server 之后,该主机会在短时间内灰显并停止响应 vCenter Server。

    解决办法:使用非链路本地地址的有效 IPv6 地址。

  • vSphere Web Client 允许您配置超过物理网卡支持限度的更多虚拟功能,并且不会显示错误消息
    在物理适配器的 SR-IOV 设置中,您可以配置超过适配器支持限度的更多虚拟功能。例如,可以在仅支持 23 个虚拟功能的网卡上配置 100 个虚拟功能,并且不会显示任何错误消息。将显示一条消息,提示您重新引导主机,以便应用 SR-IOV 设置。主机重新引导后,将为该网卡配置适配器可支持的虚拟功能数(即,此示例中的 23)。提示您重新引导主机的消息仍然存在,而实际不应显示。

    解决办法:无

  • 在启用了 SR-IOV 的 ESXi 主机上,与虚拟功能关联的虚拟机可能无法启动
    在具有 Intel ixgbe 网卡的 ESXi 5.1 或更高版本主机上启用 SR-IOV 时,如果在该环境中启用了多种虚拟功能,则某些虚拟机可能无法启动。
    vmware.log 文件包含类似于以下内容的消息:
    2013-02-28T07:06:31.863Z| vcpu-1| I120: Msg_Post: Error
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.log.error.unrecoverable] VMware ESX unrecoverable error: (vcpu-1)
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings: 0a:17.3 failed to register interrupt (error code 195887110)
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.withoutLog] You can request support.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.vmSupport.vmx86]
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.response] We will respond on the basis of your support entitlement.

    解决办法:减少与受影响的虚拟机关联的虚拟功能的数量并启动该虚拟机。

  • 在 Emulex BladeEngine 3 物理网络适配器上,虚拟功能支持的虚拟机网络适配器无法访问将物理功能用作上行链路的 VMkernel 适配器
    虚拟功能及其物理功能之间无流量流动。例如,在物理功能支持的交换机上,在同一端口上使用虚拟功能的虚拟机无法与同一交换机上的 VMkernel 适配器联系。这是 Emulex BladeEngine 3 物理适配器的一个已知问题。有关信息,请联系 Emulex。

    解决办法:在主机上禁用 Emulex BladeEngine 3 设备的本机驱动程序。有关详细信息,请参见 VMware 知识库文章 2044993

  • ESXi Dump Collector 无法将 ESXi 核心文件发送到远程服务器
    如果将处理 Dump Collector 流量的 VMkernel 适配器配置为将链路聚合组 (LAG) 设置为活动上行链路的分布式端口组,则 ESXi Dump Collector 无法发送 ESXi 核心文件。物理交换机上配置了 LACP 端口通道。

    解决办法:执行以下解决办法之一:

    • 使用 vSphere 标准交换机来配置处理 ESXi Dump Collector 与远程服务器的流量的 VMkernel 适配器。
    • 使用独立的上行链路为配置了 VMkernel 适配器的分布式端口组处理流量。
  • 如果您使用 vSphere Client 对 vSphere 标准交换机或 vSphere Distributed Switch 在主机上的端口数进行更改,则不会保存更改,即使在重新引导后也是如此
    如果您使用 vSphere Client 对 vSphere 标准交换机或 vSphere Distributed Switch 在 ESXi 5.5 主机上的端口数进行更改,则端口数不会发生变化,即使在重新引导主机后也是如此。

    重新引导运行 ESXi 5.5 的主机时,该主机会动态地增加或减少虚拟交换机的端口数。端口数基于主机可运行的最大虚拟机数来确定。您无需在此类主机上配置交换机端口数。

    解决办法:在 vSphere Client 中无解决办法。

服务器配置问题

  • 网卡硬件可能停止响应,并显示硬件错误消息
    网卡硬件可能会在某些情况下停止响应,并在驱动程序日志中包含以下错误消息:

    Detected Hardware Unit Hang

    某些新的 e1000e 设备会出现此问题,如 82579、i217、i218 和 i219 。

    解决办法:网卡硬件会在出现问题后对自身进行重置。

  • 从串行控制台访问直接控制台用户界面时遇到菜单导航问题
    如果从串行控制台访问直接控制台用户界面,则导航至相应菜单时向上和向下箭头键不起作用,并会强制用户从 DCUI 配置屏幕注销。

    解决办法:停止 DCUI 进程。DCUI 进程将自动重新启动。

  • 将 ESXi 主机升级到 5.5 Update 2 并更改主机配置后,主机配置文件可能错误地显示为合规
    如果将与主机配置文件合规的 ESXi 主机升级为 ESXi 5.5 Update 2 并随后在主机配置中进行了一些更改,然后重新检查主机与主机配置文件的合规性时,系统会错误地报告配置文件合规。

    解决办法:
    • 在 vSphere Client 中,导航到有问题的主机配置文件并运行从引用的主机更新主机配置文件
    • 在 vSphere Web Client 中,导航到有问题的主机配置文件,单击从主机复制设置,选择要从其中复制配置设置的主机并单击确定
  • 对 vSphere Distributed Switch 执行主机配置文件修复失败
    对 vSphere Distributed Switch 应用主机配置文件时,如果启用了 Fault Tolerance 功能的虚拟机在使用该主机配置文件中的 Distributed Switch 的主机上处于已关闭电源状态,则会发生修复错误。

    解决办法:将已关闭电源的虚拟机移至其他主机以使主机配置文件成功修复。

  • 将 ESX 4.0 或 ESX 4.1 配置文件应用于 ESXi 5.5.x 主机时,主机配置文件收到防火墙设置合规性错误
    如果从 ESX 4.0 或 ESX 4.1 主机提取主机配置文件并尝试将其应用于 ESXi 5.5.x 主机,则配置文件修复成功。合规性检查收到的防火墙设置错误包括以下几项:

    未找到规则集 LDAP (Ruleset LDAP not found)
    未找到规则集 LDAPS (Ruleset LDAPS not found)
    未找到规则集 TSM (Ruleset TSM not found)
    未找到规则集 VCB (Ruleset VCB not found)
    未找到规则集 activeDirectorKerberos (Ruleset activeDirectorKerberos not found)

    解决办法:不需要任何解决办法。这是正常的,因为 ESX 4.0 或 ESX 4.1 主机的防火墙设置不同于 ESXi 5.5.x 主机。

  • 更改 ESXi 主机的 BIOS 设备设置可能会导致设备名称无效
    如果更改 ESXi 主机上的 BIOS 设备设置,而此更改会使分配给该设备的 <segment:bus:device:function> 值发生变化,则可能会导致设备名称无效。例如,如果启用先前已禁用的集成网卡,则可能会改变分配给其他 PCI 设备的 <segment:bus:device:function> 值,从而使 ESXi 更改分配给这些网卡的名称。与先前版本的 ESXi 不同,如果主机 BIOS 提供了具体的设备位置信息,则 ESXi 5.5 会尝试在 <segment:bus:device:function> 发生更改时保留设备名称。由于此功能中的一个缺陷,有时会生成诸如 vmhba1 和 vmnic32 之类的无效名称。

    解决办法:重新引导 ESXi 主机一两次即可清除无效设备名称,而还原为原始名称。不要在生产环境中运行使用无效设备名称的 ESXi 主机。

存储问题

  • 数据存储的 VMFS 检测信号超时时,具有 HBA 驱动程序的 ESXi 主机可能会停止响应
    数据存储的 VMFS 检测信号超时时,具有 HBA 驱动程序的 ESXi 主机可能会停止响应,并显示类似于以下内容的消息:

    mem>2014-05-12T13:34:00.639Z cpu8:1416436)VMW_SATP_ALUA: satp_alua_issueCommandOnPath:651: Path "vmhba2:C0:T1:L10" (UP) command 0xa3 failed with status Timeout.H:0x5 D:0x0 P:0x0 Possible sense data: 0x5 0x20 0x0.2014-05-12T13:34:05.637Z cpu0:33038)VMW_SATP_ALUA: satp_alua_issueCommandOnPath:651: Path "vmhba2:C0:T1:L4" (UP) command 0xa3 failed with status Timeout.H:0x5 D:0x0 P:0x0 Possible sense data: 0x0 0x0 0x0.

    当数据存储中的高磁盘 I/O 连接到 ESXi 主机并且在目标级别而非 HBA 级别启用多路径时,HBA 驱动程序会出现此问题。

    解决办法:使用最新的异步 HBA 驱动程序替代 HBA 驱动程序。
  • 尝试对使用 RDM 磁盘的虚拟机执行实时 Storage vMotion 时可能会失败
    使用 RDM 磁盘的虚拟机的 Storage vMotion 可能会失败,并显示虚拟机处于电源关闭状态。尝试打开虚拟机的电源时失败,并显示以下错误:

    未能锁定文件 (Failed to lock the file)

    解决办法:无。
  • 重命名的标记在“编辑虚拟机存储策略”向导中显示为缺失
    虚拟机存储策略可根据数据存储标记包含相应的规则。如果重命名某个标记,则引用此标记的存储策略不会自动更新此标记,并将其显示为缺失。

    解决办法:从虚拟机存储策略中移除标记为缺失的标记,然后添加该重命名的标记。对所有过期实体重新应用存储策略。

  • 当 Flash Read Cache 块大小设置为 16 KB、256 KB、512 KB 或 1024 KB 时,无法打开虚拟机电源
    如果虚拟机配置了 Flash Read Cache,并且块大小为 16 KB、256 KB、512 KB 或 1024 KB,则无法打开该虚拟机的电源。Flash Read Cache 支持的最小缓存大小为 4 MB,最大缓存大小为 200 GB,最小块大小为 4 KB,最大块大小为 1 MB。打开虚拟机电源时,操作将失败并显示以下消息:

    打开虚拟机电源时从 ESX 主机收到一条错误 (An error was received from the ESX host while powering on VM)。

    无法启动虚拟机 (Failed to start the virtual machine)。

    打开模块 DiskEarly 电源失败 (Module DiskEarly power on failed)。

    无法配置磁盘 scsi0:0 (Failed to configure disk scsi0:0)。

    无法打开包含未配置的磁盘的虚拟机电源。无法连接 vFlash 缓存: msg.vflashcache.error.VFC_FAILURE (The virtual machine cannot be powered on with an unconfigured disk. vFlash cache cannot be attached: msg.vflashcache.error.VFC_FAILURE)

    解决办法:配置虚拟机 Flash Read Cache 大小和块大小。

    1. 右键单击虚拟机,然后选择编辑设置
    2. 虚拟硬件选项卡上,展开硬盘以查看磁盘选项。
    3. 单击虚拟 Flash Read Cache 字段旁边的高级
    4. 增加缓存大小预留或减小块大小。
    5. 单击确定保存更改。
  • 无法在 vSphere Web Client 中加载已保存的资源池树文件的自定义扩展名
    DRS 错误消息将显示在主机摘要页面上。

    在 vSphere Web Client 中禁用 DRS 时,系统将提示您保存资源池结构,以便将来能够重新加载。该文件的默认扩展名为 .snapshot,但也可以为此文件选择其他扩展名。如果此文件使用自定义扩展名,则尝试加载时会显示为已禁用。该问题仅在 OS X 上出现。

    解决办法:将该扩展名更改为 .snapshot,才能在 OS X 上的 vSphere Web Client 中加载此文件。

  • DRS 错误消息显示在主机摘要页面上
    以下 DRS 错误消息会显示在主机摘要页面上:

    无法在主机上应用 DRS 资源设置。在当前状况下不允许执行此操作。这会显著降低 DRS 的效率 (Unable to apply DRS resource settings on host. The operation is not allowed in the current state. This can significantly reduce the effectiveness of DRS)。

    在某些配置中,争用情况可能会导致在日志中创建无意义或不可操作的错误消息。如果在应用 DRS 资源设置的同时未注册虚拟机,则可能会出现此错误。

    解决办法:忽略该错误消息。

  • 为大于 16TB 的 VMDK 配置虚拟 Flash Read Cache 将导致错误
    虚拟 Flash Read Cache 不支持大于 16TB 的虚拟机磁盘。配置此类磁盘的尝试将失败。

    解决办法:无

  • 重新配置缓存大小后,虚拟机可能会关闭电源
    如果在虚拟机上以错误的方式重新配置虚拟 Flash Read Cache (例如,通过分配无效值),则虚拟机可能会关闭电源。

    解决办法:请遵循《vSphere 存储》文档中建议的缓存大小准则。

  • 重新配置已启用虚拟 Flash Read Cache 的虚拟机失败,并显示错误:操作超时 (Operation timed out)
    重新配置操作需要大量 I/O 带宽。如果运行的负载较大,则该操作可能会在完成之前发生超时。如果主机具有处于全部路径异常 (APD) 状态的 LUN,则也可能会看到此行为。

    解决办法:修复所有主机 APD 状态,然后在 LUN 和主机上使用较少的 I/O 负载重试此操作。

  • 为实现负载平衡,DRS 未对具有虚拟 Flash Read Cache 的虚拟机执行 vMotion 操作
    为实现负载平衡,DRS 未对具有虚拟 Flash Read Cache 的虚拟机执行 vMotion 操作。

    解决办法:DRS 建议不要对此类虚拟机执行 vMotion 操作,除非出于以下原因:

    • 要撤出用户已请求进入维护模式或待机模式的主机。
    • 要修复 DRS 规则违反问题。
    • 主机资源使用情况处于红色状态。
    • 一个或多个主机使用过度,且未满足虚拟机需求。
      注意:您可以选择设置 DRS 来忽略此理由。
  • 当虚拟机的活动内存较低,而消耗内存较高时,主机处于待机状态
    ESXi 5.5 在 DPM 的默认行为中引入了更改,旨在降低功能的激进程度,从而有助于防止虚拟机在活动内存较低而消耗内存较高时降低性能。DPM 衡量指标为 X%*IdleConsumedMemory + active memory。X% 变量是可调整的,默认情况下设置为 25%。

    解决办法:您可以恢复到 ESXi 早期版本中的激进 DPM 行为,方法是在高级选项下设置 PercentIdleMBInMemDemand=0

  • 由 DRS 启动的 vMotion 操作可能失败
    当 DRS 建议对具有虚拟 Flash Read Cache 预留的虚拟机执行 vMotion 操作时,vMotion 可能会失败,因为目标主机上没有足够的可用内存 (RAM) 来管理虚拟机的 Flash Read Cache 预留。

    解决办法:请遵循《vSphere 存储》中的 Flash Read Cache 配置建议。
    如果 vMotion 失败,请执行以下步骤:

    1. 重新配置目标主机上的虚拟机以及入站虚拟机的块大小,以减少目标主机上 VMkernel 内存的整体目标使用量。
    2. 使用 vMotion 手动将虚拟机迁移到目标主机,以确保解决此情况。
  • 无法查看在为单个 SSD 设备配置虚拟闪存期间发生的问题
    配置虚拟闪存资源是对一系列 SSD 设备执行的任务。对所有对象完成此任务后,vSphere Web Client 会将其报告为成功,而可能不会通知您有关配置单个 SSD 设备时出现的问题。

    解决办法:执行以下任务之一。

    • 在“近期任务”面板中,双击已完成的任务。
      所有配置故障都将显示在“任务详细信息”对话框的“相关事件”部分中。
    • 也可以执行以下步骤:
      1. 在清单中选择主机。
      2. 单击监控选项卡,然后单击事件
  • 在 ESXi 主机上无法获取 Micron PCIe SSD 的 SMART 信息
    尝试使用 esxcli storage core device smart get -d 命令来显示 Micron PCIe SSD 设备的统计信息失败。您会看到以下错误消息:
    获取智能参数时出错: 无法打开设备 (Error getting Smart Parameters: CANNOT open device)

    解决办法:无。在此版本中,esxcli storage core device smart 命令不支持 Micron PCIe SSD。

  • ESXi 不会应用在虚拟机的配置文件中为 SCSI 虚拟磁盘配置的带宽限制
    可以在虚拟机配置文件 (.vmx) 中使用一组参数配置 SCSI 虚拟磁盘的带宽和吞吐量限制。例如,对于 scsi0:0 虚拟磁盘,配置文件可能包含以下限制:
    sched.scsi0:0.throughputCap = "80IOPS"
    sched.scsi0:0.bandwidthCap = "10MBps"
    sched.scsi0:0.shares = "normal"

    ESXi 不会对 scsi0:0 虚拟磁盘应用 sched.scsi0:0.bandwidthCap 限制。

    解决办法:使用 vSphere Web Client 或 esxcli system settings advanced set 命令来恢复到磁盘 I/O 调度程序的较早版本。

    • 在 vSphere Web Client 中,在主机的“高级系统设置”列表中编辑 Disk.SchedulerWithReservation 参数。
      1. 导航到主机。
      2. 管理选项卡上,选择设置,然后选择高级系统设置
      3. 找到 Disk.SchedulerWithReservation 参数,例如,使用筛选器查找文本框。
      4. 单击编辑,然后将参数设置为 0。
      5. 单击确定
    • 在主机的 ESXi Shell 中,运行以下控制台命令:
      esxcli system settings advanced set -o /Disk/SchedulerWithReservation -i=0
  • 如果虚拟机配置有 Flash Read Cache,而该缓存出现错误,则该虚拟机无法从主机迁移
    如果虚拟机配置有 Flash Read Cache,而该缓存处于错误状态且无法使用,则该虚拟机可能会出现迁移错误。此错误会使虚拟机迁移失败。

    解决办法:

    1. 重新配置虚拟机并禁用该缓存。
    2. 执行迁移。
    3. 迁移虚拟机后,重新启用该缓存。

    也可以关闭该虚拟机电源,然后重新打开该虚拟机电源,以更改该缓存错误。

  • 在将主机从 ESXi 5.5 测试版升级后,无法删除 VFFS 卷
    在将主机从 ESXi 5.5 测试版升级后,无法删除 VFFS 卷。

    解决办法:只有在从 ESXi 5.5 测试版升级到 ESXi 5.5 时才会发生此问题。要避免此问题,请安装 ESXi 5.5 而不是进行升级。如果要从 ESXi 5.5 测试版升级,请在升级之前删除 VFFS 卷。

  • 在安装有旧版 Windows 和 Linux 客户机操作系统的虚拟机上启用虚拟 Flash Read Cache 后,运行时延迟时间不会出现预期的改进
    如果虚拟 Flash Read Cache 的大小与目标工作集匹配,并且客户机文件系统至少与 4 KB 边界对齐,则该缓存可提供最佳性能。该 Flash Read Cache 会筛选掉未对齐的块,以避免在该缓存中缓存不完整的块。通常,在为安装有 Windows XP 和早于 2.6 的 Linux 分发版本的虚拟机的 VMDK 配置虚拟 Flash Read Cache 时,才会出现此行为。此时,缓存命中率较低,而且缓存占用也较低,这意味着为这些 VMDK 预留的缓存出现浪费。对于运行 Windows 7、Windows 2008 以及 Linux 2.6 及更高分发版本的虚拟机来说,并不会出现此行为,这些虚拟机会将其文件系统与 4KB 边界对齐以确保性能最佳。

    解决办法:要提高缓存命中率,并以最优方式使用为每个 VMDK 预留的缓存,请确保在 VMDK 上安装的客户机操作文件系统至少与 4KB 边界对齐。

Virtual SAN

  • 已卸载的 Virtual SAN 磁盘和磁盘组在 vSphere Client UI 的“操作状态”字段中显示为已挂载
    使用 esxcli vsan storage diskgroup unmount CLI 命令卸载或 Virtual SAN Device Monitor 服务在磁盘持续显示高延迟时自动卸载 Virtual SAN 磁盘或磁盘组后,vSphere Client UI 在操作状态字段中错误地显示为已挂载

    解决办法:验证显示非正常值的健康状况字段,而不是操作状态字段。
  • 运行 vsan.disks_stats 命令时,具有多个 VSAN 磁盘组的 ESXi 主机可能无法显示磁盘统计信息
    运行 vsan.disks_stats Ruby vSphere Console (RVC) 命令时,具有多个 VSAN 磁盘组的 ESXi 主机可能无法显示磁盘 (MD) 统计信息。主机仅显示固态驱动器 (SSD) 信息。

    解决办法:无
  • 虚拟机目录包含重复的交换 (.vswp) 文件
    如果运行在 Virtual SAN 上的虚拟机未完全关机,并且您在未从 Virtual SAN 磁盘擦除数据的情况下执行了 ESXi 和 vCenter Server 的全新安装,则可能会出现这种情况。因此,未完全关机的虚拟机的目录中出现了旧的交换文件 (.vswp)。

    解决办法:无

  • 尝试向 Virtual SAN 磁盘组添加七个以上磁盘时可能会失败,并显示不正确的错误消息
    Virtual SAN 磁盘组最多支持一个 SSD 和七个磁盘 (HDD)。尝试添加更多磁盘时可能会失败,并显示类似以下内容的不正确错误消息:

    磁盘数量不足 (The number of disks is not sufficient)。

    解决办法:无
  • 添加 Virtual SAN 磁盘时重新扫描失败
    添加 Virtual SAN 磁盘时,由于对非 Virtual SAN 卷的探查失败,导致重新扫描失败,从而导致操作失败。

    解决办法:请忽略该错误,因为所有磁盘都已正确注册。
  • 在移除与其关联的固态驱动器 (SSD) 后移除的硬盘驱动器 (HDD) 可能仍被列为 Virtual SAN 声明的存储磁盘
    如果在从 Virtual SAN 数据存储依次移除 SSD 和关联的 HDD 后运行 esxcli vsan storage list 命令,则移除的 HDD 仍然会被列为 Virtual SAN 声明的存储磁盘。如果将 HDD 插回其他主机,则该磁盘可能显示为属于两个不同的主机。

    解决办法:例如,如果将 SSD 和 HDD 从 ESXi x 移除并插入 ESXi y,则执行下列步骤可防止 HDD 显示为同时属于 ESXi x 和 ESXi y:
    1.将从 ESXi x 移除的 SSD 和 HDD 插入 ESXi y。
    2.从 ESXi x 取消配置该 SSD。
    3.运行命令 esxcfg-rescan -A
       该 HDD 和 SSD 将不再列于 ESXi x 上。
  • 《vSphere 存储》文档中的“使用 Virtual SAN”部分指出,每个磁盘组中 HDD 磁盘的最大数量是六个。但是,允许的 HDD 最大数量是七个。
  • 在 Virtual SAN 群集中发生故障后,vSphere HA 可能会在重新启动虚拟机之前报告多个事件,产生一些误导
    当在 Virtual SAN 上运行的虚拟机似乎发生故障后,vSphere HA 主代理会多次尝试重新启动该虚拟机。如果虚拟机无法立即重新启动,主代理会监控群集状态,当状况表明重新启动可能会成功时再次尝试。对于在 Virtual SAN 上运行的虚拟机,vSphere HA 主代理具有特殊的应用逻辑来检测虚拟机对象的可访问性何时可能已发生变化,只要可访问性可能发生变化,便会尝试重新启动。如果主代理未成功打开虚拟机电源,它不会放弃,而是会等待下一次可能的可访问性变化,每次可能的可访问性变化后,它都会进行尝试。

    在每次失败的尝试后,vSphere HA 都会报告一个事件,指出故障切换未成功,五次失败的尝试后,会报告 vSphere HA 停止尝试重新启动虚拟机,因为已达到故障切换的最大尝试次数。但是,即使在报告 vSphere HA 主代理已停止尝试后,可访问性下次可能发生变化时,它仍会尝试。

    解决办法:无。

  • 关闭 Virtual SAN 主机电源会导致 vSphere Web Client 中的“存储提供程序”视图刷新时间超过预期
    如果您关闭 Virtual SAN 主机电源,“存储提供程序”视图可能显示为空。尽管未显示任何信息,“刷新”按钮仍会继续旋转。

    解决办法:等待至少 15 分钟,以便重新填充“存储提供程序”视图。在您打开主机电源后,该视图也会刷新。

  • Virtual SAN 报告失败的任务已完成
    尽管某些任务在内部失败,Virtual SAN 仍可能会报告它们已完成。

    以下是错误的条件和相应的原因:

    • 条件:当 Virtual SAN 许可证已过期时,用户尝试创建新磁盘组或向现有磁盘组中添加新磁盘。
      错误堆栈: 出现了常规系统错误: 无法添加磁盘:VSAN 未在该主机上获得许可。
    • 条件:用户尝试创建的磁盘组中的磁盘数量高于支持的数量。或者他们尝试向现有磁盘组中添加新磁盘,以致总数超过了每个磁盘组支持的磁盘数量。
      错误堆栈: 出现了常规系统错误: 磁盘过多。
    • 条件:用户尝试向出错的磁盘组中添加磁盘。
      错误堆栈: 出现了常规系统错误: 无法创建分区表。

    解决办法:确定失败的原因后,纠正原因并再次执行任务。

  • Virtual SAN 数据存储无法存储主机本地和系统交换文件
    通常,您可以将系统交换或主机本地交换文件放置在数据存储上。但是,Virtual SAN 数据存储不支持系统交换和主机本地交换文件。因此,没有可用于选择 Virtual SAN 数据存储作为系统交换或主机本地交换文件位置的 UI 选项。

    解决办法:在 Virtual SAN 环境中,使用支持的其他选项放置系统交换和主机本地交换文件。

  • 尽管 vSphere HA 群集中的 Virtual SAN 虚拟机已关闭电源,但仍报告它受 vSphere HA 保护
    当您关闭虚拟机电源,其主对象位于 Virtual SAN 数据存储上,并且主对象不可访问时,可能会出现这种情况。如果在对象变得不可访问后发生 HA 主代理选举,会看到该问题。

    解决办法:

    1. 通过应用指定的存储策略检查对象的合规性,确保主对象重新可访问。
    2. 打开虚拟机电源,然后再次关闭电源。

    状态应更改为不受保护。

  • 即使在触发并成功完成“重新应用”操作后,虚拟机对象仍处于“已过期”状态
    如果因新存储要求而编辑现有虚拟机配置文件,关联的虚拟机对象(主机或磁盘)可能会进入“已过期”状态。当您的当前环境无法支持重新配置虚拟机对象时,会出现该问题。使用重新应用操作不会更改这种状态。

    解决办法:向 Virtual SAN 群集中添加更多资源(主机或磁盘),并再次调用重新应用操作。

  • 如果在启用 Virtual SAN 后为其添加许可,则 Virtual SAN 的自动磁盘声明无法按预期运行
    如果在自动模式下启用 Virtual SAN,然后分配许可证,则 Virtual SAN 无法声明磁盘。

    解决办法:将模式更改为手动,然后再切换回自动。Virtual SAN 将正确地声明磁盘。

  • Virtual SAN 网络进行了分区时,vSphere High Availability (HA) 无法重新启动虚拟机
    当 Virtual SAN 使用 VMkernel 适配器进行节点间通信,而这些适配器与群集中的其他 VMkernel 适配器在同一子网上时,会出现该问题。这种配置会导致网络故障并中断 Virtual SAN 节点间通信,而 vSphere HA 节点间通信一直不受影响。

    在这种情况下,HA 主代理可能会检测到虚拟机中的故障,但是无法重新启动虚拟机。例如,当运行主代理的主机无法访问虚拟机的对象时,会发生这种情况。

    解决办法:确保 Virtual SAN 使用的 VMkernel 适配器不与其他用途的 VMkernel 适配器共享一个子网。

  • 虚拟机目录包含重复的交换 (.vswp) 文件   
    如果运行在 Virtual SAN 上的虚拟机未完全关机,并且您在未从 Virtual SAN 磁盘擦除数据的情况下执行了 ESXi 和 vCenter Server 的全新安装,则可能会出现这种情况。因此,未完全关机的虚拟机的目录中出现了旧的交换文件 (.vswp)。

    解决办法:无

  • 由于网络延迟时间很长,虚拟机可能变得无法访问
    在 Virtual SAN 群集设置中,如果网络延迟时间很长,某些虚拟机可能在 vCenter Server 上变得无法访问,并且您将无法打开虚拟机电源或访问虚拟机。

    解决办法:运行 vsan.check_state -e -r RVC 命令。
  • 由于网络延迟时间很长,虚拟机操作可能会超时
    使用具有低队列深度的存储控制器时,网络延迟时间很长可能会导致虚拟机操作超时。

    解决办法:网络负载较低时,重新尝试操作。
  • 虚拟机可能被重命名为其截断版的 vmx 文件路径
    如果虚拟机的 vmx 文件暂时无法访问,则虚拟机会被重命名为截断版的 vmx 文件路径。例如,虚拟机可能被重命名为 /vmfs/volumes/vsan:52f1686bdcb477cd-8e97188e35b99d2e/236d5552-ad93截断可能会删除虚拟机主目录的 UUID 的一半,使得难以仅通过虚拟机名称将已重命名的虚拟机与原始虚拟机进行映射。

    解决办法:运行 vsan.fix_renamed_vms RVC 命令。

vCenter Server 和 vSphere Web Client

  • 无法将 ESXi 主机添加到 Active Directory 域
    您可能注意到尝试分配权限时 Active Directory 域名未显示在“选择用户和组”选项下的“域”下拉列表中。同样,“身份验证服务设置”选项可能未显示任何信任域控制器,即使 Active Directory 有信任域时也是如此。

    解决办法:
    1. 依次重新启动 netlogond、lwiod 和 lsassd 守护进程。
    2. 使用 vSphere Client 登录到 ESXi 主机。
    3. 配置选项卡中,单击身份验证服务设置
    4. 刷新以查看信任域。

虚拟机管理问题

  • 如果 VMDK 文件名以“core”开头,将无法执行虚拟机的冷迁移和 Storage vMotion
    如果 VMDK 文件名以“core”开头,尝试执行虚拟机的冷迁移和 Storage vMotion 可能会失败,并显示类似于以下内容的错误消息:

    出现了常规系统错误: 命名或重命名虚拟机文件时出错 (A general system error occurred: Error naming or renaming a VM file)。

    类似于以下内容的错误消息可能会显示在 vpxd.log 文件中:

    mem> 2014-01-01T11:08:33.150-08:00 [13512 info 'commonvpxLro' opID=8BA11741-0000095D-86-97] [VpxLRO] -- FINISH task-internal-2471 -- -- VmprovWorkflow --
    mem> 2014-01-01T11:08:33.150-08:00 [13512 info 'Default' opID=8BA11741-0000095D-86-97] [VpxLRO] -- ERROR task-internal-2471 -- -- VmprovWorkflow: vmodl.fault.SystemError:
    mem> --> Result:
    mem> --> (vmodl.fault.SystemError){
    mem> --> dynamicType = ,
    mem> --> faultCause = (vmodl.MethodFault) null,
    mem> --> reason = "Error naming or renaming a VM file.",
    mem> --> msg = "",
    mem> --> }

    ESXi 主机将名称以“core”开头的 VMDK 文件错误地分类为核心文件而非预期磁盘类型时,会出现该问题。

    解决办法:确保虚拟机的 VMDK 文件名不以“core”开头。此外,使用 vmkfstools 实用程序重命名 VMDK 文件以确保文件名不以“core”一词开头。
  • 如果虚拟机使用在法语区域设置下运行的 Windows 7 Enterprise(64 位)客户机操作系统,则该虚拟机在克隆操作期间会出现问题
    如果克隆的 Windows 7 Enterprise(64 位)虚拟机正在法语区域设置下运行,则该虚拟机会与网络断开连接,并且不会应用自定义规范。如果虚拟机正在 ESXi 5.1 主机上运行,此时将其克隆到 ESXi 5.5,并将 VMware Tools 版本升级到 5.5 主机提供的最新版本,则会出现此问题。

    解决办法:先将虚拟机兼容性升级到 ESXi 5.5 及更高版本,然后再升级到 VMware Tools 的最新可用版本。

  • 尝试增加正在运行的虚拟机上的虚拟磁盘大小会失败并显示错误
    如果在虚拟机正在运行时增加虚拟磁盘的大小,则操作可能失败并显示以下错误:

    此设备类型不支持此操作 (This operation is not supported for this device type.)

    如果要将磁盘大小扩展到 2TB 或更大,则操作可能会失败。热扩展操作仅支持将磁盘大小增加到小于或等于 2TB 的大小。SATA 虚拟磁盘不支持热扩展操作,无论该磁盘大小是多少。

    解决办法:关闭虚拟机电源,以便将虚拟磁盘扩展到 2TB 或更大。

VMware HA 和 Fault Tolerance 问题
  • Fault Tolerance (FT) 在 Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台上不受支持
    Fault tolerance 在 Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台上不受支持。在您启用单处理器 Fault Tolerance 后,尝试打开虚拟机将失败。

    解决办法:无

  • 如果在 vSphere HA 群集中选择 ESX/ESXi 4.0 或 4.1 主机来故障切换某个虚拟机,则该虚拟机可能无法按预期重新启动
    当 vSphere HA 在 ESX/ESXi 4.0 或 4.1 主机上重新启动某个虚拟机时,如果该主机与运行该虚拟机的原始主机不同,则会发出一个查询,但该查询不会获得应答。该虚拟机不会在新主机上打开电源,除非从 vSphere Client 中手动应答该查询。

    解决办法:从 vSphere Client 中应答该查询。您也可以等待超时(默认为 15 分钟),然后,vSphere HA 将尝试在其他主机上重新启动该虚拟机。如果该主机运行的是 ESX/ESXi 5.0 或更高版本,则该虚拟机将重新启动。

  • 如果无共享存储的 vMotion 操作在 vSphere HA 群集中失败,则目标虚拟机可能会注册到意外的主机中
    由于目标虚拟机不会收到用于协调两个虚拟机之间控制权转移的握手消息,因此,无共享存储的 vMotion 迁移可能会失败。vMotion 协议会同时关闭源虚拟机和目标虚拟机的电源。如果源主机和目标主机位于同一群集中,并且已启用 vSphere HA,则 vSphere HA 可能会将目标虚拟机注册到另一台主机上,而该主机不是为 vMotion 迁移选择的目标主机。

    解决办法:如果希望保留目标虚拟机并将其注册到特定主机上,则必须将该目标虚拟机重定位到目标主机。最好在打开虚拟机电源之前执行此重定位操作。

受支持硬件问题
  • 风扇、电源、电压和当前传感器的传感器值显示在 vCenter Server“硬件状态”选项卡的“其他”组中
    某些传感器值会在“其他”组中列出,而不是在各个值所属的组中。

    解决办法:无。

  • 如果启用了调试直接内存访问 (DMA) 映射程序,则可能会出现 I/O 内存管理单元 (IOMMU) 故障
    此调试映射程序会将设备置于 IOMMU 域中,以便于捕获对未明确映射的地址的设备内存访问。在某些使用旧版固件的 HP 系统上,可能会出现 IOMMU 故障。

    解决办法:从 HP 网站下载固件升级,然后加以应用。

    • 升级 HP iLO2 控制器的固件。
      2011 年 8 月发布的 2.07 版可解决此问题。
    • 升级 HP Smart Array 的固件。
      2012 年 1 月发布的 HP Smart Array P410 5.14 版可解决此问题。

VMware Tools 问题

  • 通过 OSP 安装或卸载 VMware Tools 时会强制用户注销
    在使用操作系统特定软件包 (OSP) 安装的 RHEL (Red Hat Linux Enterprise) 和 CentOS 虚拟机中安装或卸载 VMware Tools 软件包时,将强制当前用户注销。RHEL 6.5 64 位、RHEL 6.5 32 位、CentOS 6.5 64 位和 CentOS 6.5 32 位虚拟机中会出现此问题。

    解决办法:
    • 使用安全 shell (SSH) 安装或卸载 VMware Tools
    • 用户必须再次登录以安装或卸载 VMware Tools 软件包

其他问题

  • 新问题:ESXi 未自动添加到 vCenter Server 清单
    如果您将以前版本的 vCenter Server 和 vSphere Update Manager 更新到 ESXi 5.5 Update 3b,则执行修复任务后 ESXi 不会自动添加到 VC 清单。修复进程永远不会结束且 ESXi 的连接状态在 VC 清单中显示为断开

    解决办法:启动修复进程后重新引导 ESXi 时,在 ESXi 上启用 SSLv3(默认为禁用)。
    这可确保 ESXi 在几分钟内自动添加到 VC 清单并完成修复。有关详细信息,请参见知识库文章 2139396

  • 新问题:ESXi 5.5 Update 3b 和 6.2 版本之前的 View Composer 之间发生连接故障
    在默认状态下,无法将早于 6.2 版本的 View Composer 连接至 ESXi 5.5 Update 3b。

    解决办法:可以在 ESXi 5.5 Update 3b 上启用 SSLv3。有关详细信息,请参见知识库文章 2139396

  • SRM 测试恢复操作可能会失败,并显示错误
    尝试执行 Site Recovery Manager (SRM) 测试恢复可能会失败,并显示类似于以下内容的错误消息:
    “错误 - 出现常规系统错误: 找不到虚拟机 (Error - A general system error occurred: VM not found)”。
    同时执行多个测试恢复操作时,出现错误消息的可能性也会增加。

    解决办法:无。但是,这不是一个持久问题,如果您重新执行 SRM 测试恢复操作,此问题可能不会出现。