ESXi 6.0 Update 3 | 2017 年 2 月 24 日 | ISO 内部版本 5050593

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

  • 更新了 ESXi Host Client:VMware ESXi 6.0 Update 3 包含 ESXi Host Client 的更新版本,即版本 1.14.0。更新的 Host Client 包含缺陷修复,并更接近于通过 vSphere Client 提供的功能。如果通过 ESXi 6.0 修补程序版本更新了 Host Client,则安装随 ESXi 6.0 Update 3 提供的版本 1.14.0。此外,新版本的 Host Client 将继续通过 VMware Labs Flings 网站发布。但是,这些 Fling 版本尚未获得正式支持并且不建议用于生产环境。

  • 支持 TLS:对于 ESXi 6.0 Update 3,默认情况下会启用对 TLSv1.0、TLSv1.1 和 TLSv1.2 的支持,并且可进行配置。请通过 VMware 知识库文章 2148819 了解如何配置 TLSv1.0、 TLSv1.1 和 TLSv1.2。有关支持禁用 TLSv1.0 和使用 TLSv1.1/1.2 的 VMware 产品的列表,请查阅 VMware 知识库文章 2145796

  • Virtual SAN 性能:此 VMware ESXi 6.0 Update 3 版本中引入了多项修复以优化 I/O 路径,从而提高全闪存和混合配置中的 Virtual SAN 性能:

    • 改进了日志管理和存储,使存储的每个字节可以存储更多的日志。这会显著提高写入密集型工作负载的性能。Virtual SAN 是基于日志的文件系统,因此高效管理日志条目是防止生成不必要日志的关键。

    • 除了提高日志条目的压缩密度以外,对于在开启数据服务的同时删除大型文件的情况,Virtual SAN 还会抢先将数据降级转储到容量层,从而高效管理日志增长。

    • 校验和代码路径现在变得更加高效。

ESXi 6.0 的早期版本

各个版本的发行说明中分别描述了 ESXi 6.0 的功能和已知问题。ESXi 6.0 的早期版本的发行说明包括:

国际化

VMware ESXi 6.0 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文
  • 西班牙语
  • 繁体中文

VMware vSphere 6.0 的组件(包括 vCenter Server、ESXi、vSphere Web Client 和 vSphere Client)不接受非 ASCII 输入。

兼容性

ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 VMware 产品互操作性列表以了解有关受支持的管理和备份代理的信息。

vSphere Web Client 与 vCenter Server 打包在一起。vSphere Client 可以从模块 ISO 文件中包含的 VMware vCenter 自动运行菜单进行安装 。

ESXi 的硬件兼容性

要查看与 vSphere 6.0 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请查看《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

ESXi 的设备兼容性

要确定哪些设备与 ESXi 6.0 兼容,请查看《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

某些设备已在 ESXi 6.0 上弃用,并且不再受支持。在升级过程中,设备驱动程序安装在 ESXi 6.0 主机上。虽然设备的驱动程序仍可以在 ESXi 6.0 中运行,但是设备将不受 ESXi 6.0 支持。有关 ESXi 6.0 上已弃用且不再支持的设备列表,请参见知识库文章 2087970

ESXi 的第三方交换机兼容性

VMware vSphere 6.0 现在支持 Cisco Nexus 1000V。vSphere 要求 NX-OS 版本最低为 5.2(1)SV3(1.4)。有关 Cisco Nexus 1000V 的详细信息,请参见 Cisco 发行说明。在以前的 vSphere 版本中,不支持 Ciscso Nexus 1000V AVS 模式。

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 vSphere 6.0 兼容,请查看《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

ESXi 的虚拟机兼容性

ESXi 6.0 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 6.0 上使用此类虚拟机,请升级虚拟机兼容性。请参见《vSphere 升级》文档。

此版本的安装与升级

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的指导,请阅读《vSphere 安装和设置》文档。

虽然安装过程很简单,但是仍须执行若干后续配置步骤。请阅读以下文档:

建议的 vSphere 6.0 部署模型

VMware 只建议使用两种部署模型:

  • 具有嵌入式 Platform Services Controller 部署的 vCenter Server。如果需要在数据中心内部署一个或多个独立 vCenter Server 实例,建议使用此模型。建议不要在这些具有嵌入式 Platform Services Controller 部署的 vCenter Server 模型之间进行复制。

  • 具有外部 Platform Services Controller 部署的 vCenter Server。只有当需要链接多个 vCenter Server 实例,或需要减少 Platform Services Controller 在数据中心的内存占用量时,才建议使用此模型。支持在这些具有外部 Platform Services Controller 部署的 vCenter Server 模型之间进行复制。

有关安装和配置 vCenter Server 的指导,请阅读《vSphere 安装和设置》文档。

阅读 vSphere 6.0 及其兼容的 VMware 产品的更新顺序,了解更新 vSphere 组件应采用的正确顺序。

此外,有关安装和配置 vCenter Server 的指导信息,请阅读知识库文章 2108548

vCenter 主机操作系统信息

请阅读知识库文章 2091273

备份和还原使用外部 Platform Services Controller 部署的 vCenter Server 和 vCenter Server Appliance

尽管《vSphere 安装和设置》文档中的声明限制您尝试备份和还原使用外部 Platform Services Controller 部署的 vCenter Server 和 vCenter Server Appliance,您仍然可以按照知识库文章 2110294 中的步骤执行此任务。

从嵌入式 Platform Services Controller 迁移到外部 Platform Services Controller

具有嵌入式 Platform Services Controller 部署的 vCenter Server 不能自动迁移到具有外部 Platform Services Controller 部署的 vCenter Server。对此迁移实用程序的测试未完成。

在安装 vCenter Server 之前,确定所需的部署选项。如果复制设置程序需要使用多个 vCenter Server,应始终部署具有外部 Platform Services Controller 部署的 vCenter。

迁移第三方解决方案

有关使用第三方自定义进行升级的信息,请参见《vSphere 升级》文档有关使用 Image Builder 创建自定义 ISO 的信息,请参见《vSphere 安装和设置》文档

禁止对不支持的 CPU 进行升级和安装

vSphere 6.0 仅支持在 2006 年 6 月(第三季度)以后推出的处理器。与 vSphere 5.x 所支持的处理器相比较,vSphere 6.0 不再支持以下处理器:

  • AMD Opteron 12xx 系列
  • AMD Opteron 22xx 系列
  • AMD Operton 82xx 系列

在安装或升级过程中,安装程序检查主机 CPU 与 vSphere 6.0 的兼容性。如果您的主机硬件不兼容,将显示包含不兼容性说明消息的紫色屏幕,并且 vSphere 6.0 安装过程会停止。

此版本的升级说明

有关升级 vCenter Server 和 ESX/ESXi 主机的说明,请参见《vSphere 升级》文档。

VMware vSphere 6.0 的开源组件

有关适用于 vSphere 6.0 中分发的开源软件组件的版权声明和许可证,请访问 http://www.vmware.com。您需要登录您的 My VMware 帐户。然后在下载菜单中选择 vSphere。在开源选项卡中,还可以下载需向 vSphere 最新可用版本提供其源代码或源代码变更的所有 GPL、LGPL 或其他类似许可证的源文件。

产品支持注意事项

  • vCenter Server 数据库。在 vSphere 6.0 版本中,作为 vCenter Server Appliance 的外部数据库的 Oracle 11g 和 12c 已被弃用。VMware 继续支持在 vSphere 6.0 中将 Oracle 11g 和 12c 用作外部数据库。在将来的主要版本中,VMware 不再支持将 Oracle 11g 和 12c 用作 vCenter Server Appliance 的外部数据库。

  • vSphere Web Client。在 vSphere 6.0 Web Client 中,对象的监控选项卡中不再提供存储报告选择。

  • vSphere Client。vSphere 6.0 Client 中不再提供存储视图选项卡。

  • Site Recovery Manager:早于 SRM 6.5 的 Site Recovery Manager (SRM) 版本不支持对位于 ESXi 6.0 上且使用 VMware Tools 版本 10.1 及更高版本的虚拟机执行 IP 自定义和客户机内调用操作。有关更多详细信息,请参见 VMware Tools 问题

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi600-Update03 包含以下各个公告:

修补程序版本 ESXi600-Update03 (Security-only build) 包含以下各个公告:

修补程序版本 ESXi600-Update03 包含以下映像配置文件:

修补程序版本 ESXi600-Update03 (Security-only build) 包含以下映像配置文件:

有关修补程序和更新分类的信息,请参见知识库文章 2014447

已解决的问题

已解决的问题分为以下几组。

CIM 和 API 问题
  • 退出锁定模式后,用于验证用户权限的 VMware 提供程序方法不再接受相同的用户名和密码
    服务器退出锁定模式后,VMware 提供程序方法将返回一个不同的值,该值与进入锁定模式之前的值不兼容。此问题会导致验证用户权限的 VMware 提供程序方法无法如进入锁定模式之前一样接受相同的用户名和密码。

    本版本已解决该问题。

其他问题
  • 在多个虚拟机上升级 VMware Tools 可能会失败
    尝试通过 Update Manager 在多个虚拟机上同时升级 VMware Tools 可能会失败。不是所有虚拟机都会完成升级过程。

    本版本已解决该问题。

  • VMware Tools ISO 映像读取负载高可能会导致闪存介质出现损坏
    在 VDI 环境中,VMware Tools 映像的高读取负载可能会导致闪存介质出现损坏。

    本版本已解决该问题。

    可以将所有 VMware Tools 数据复制到其自己的 ramdisk。这样,每次引导时可以只从闪存介质读取一次数据。所有其他读取将转至 ramdisk。vCenter Server Agent (vpxa) 通过 /vmimages 目录访问此数据,该目录具有指向 productLocker 的 symlink。

    要激活此功能,请执行以下步骤:

    1. 使用以下命令将 ToolsRamdisk 高级选项设置为 1:
    2. esxcli system settings advanced set -o /UserVars/ToolsRamdisk -i 1

    3. 重新引导主机。
  • syslog.log 文件可能会记录大量未知 (Unknown) 错误消息
    在 ESXi 6.0 update 2 中,对于使用 Dell CIM 提供程序的主机,如果 Dell CIM 提供程序处于禁用或闲置状态,主机的 syslog.log 文件会记录大量未知 (Unknown) 错误消息。此外,当 ESXi 6.0 update 2 主机重新引导时,syslog.log 文件可能会间歇性地记录含未知 (Unknown) 条目的错误消息。

    本版本已解决该问题。

  • 用户环境核心转储失败
    当用户进程内存不足,用户环境转储可能会失败。将显示无法分配内存 (Unable to allocate memory) 错误消息。

    本版本已解决该问题。该修复为用户环境核心转储的堆分配提供了全局内存,任何进程内存不足时都将使用该内存。

  • 同步存储时,尝试为虚拟机运行故障切换会失败,并显示错误
    在执行同步存储操作期间,尝试为虚拟机运行故障切换可能会失败,并显示类似以下内容的错误消息:

    与远程主机通信时出错 (An error occurred while communicating with the remote host)。

    HBRsrv.log 文件中记录有以下消息:

    YYYY-MM-DDT13:48:46.305Z info hbrsrv[nnnnnnnnnnnn] [Originator@6876 sub=Host] Heartbeat handler detected dead connection for host: host-9
    YYYY-MM-DDT13:48:46.305Z warning hbrsrv[nnnnnnnnnnnn] [Originator@6876 sub=PropertyCollector] Got WaitForUpdatesEx exception: Server closed connection after 0 response bytes read; 171:53410'>, >)>


    此外,在 ESXi 主机上,hostd 服务可能会停止响应并显示类似以下内容的消息:

    YYYY-MM-DDT13:48:38.388Z panic hostd[468C2B70] [Originator@6876 sub=Default]
    -->
    --> Panic: Assert Failed: "progress >= 0 && progress<= 100" @ bora/>im/hostd/vimsvc/HaTaskImpl.cpp:557
    --> Backtrace:
    -->

    本版本已解决该问题。

  • hostd.log 文件中会持续报告某些日志消息(每隔 90 秒报告一次)
    hostd.log 文件中会每隔 90 秒记录一次与 Virtual SAN 相关的日志消息(类似于以下内容),即使未启用 Virtual SAN 时也是如此:

    { YYYY-MM-DDT06:50:01.923Z info hostd[nnnnnnnn] [Originator@6876 sub=Hostsvc opID=21fd2fe8] VsanSystemVmkProvider : GetRuntimeInfo: Complete, runtime info: (vim.vsan.host.VsanRuntimeInfo) {
    YYYY-MM-DDT06:51:33.449Z info hostd[nnnnnnnn] [Originator@6876 sub=Hostsvc opID=21fd3009] VsanSystemVmkProvider : GetRuntimeInfo: Complete, runtime info: (vim.vsan.host.VsanRuntimeInfo) {
    YYYY-MM-DDT06:53:04.978Z info hostd[nnnnnnnn] [Originator@6876 sub=Hostsvc opID=21fd3030] VsanSystemVmkProvider : GetRuntimeInfo: Complete, runtime info: (vim.vsan.host.VsanRuntimeInfo) {

    本版本已解决该问题。

  • 在多个虚拟机上升级 VMware Tools 可能会失败
    尝试通过 Update Manager 在多个虚拟机上同时升级 VMware Tools 可能会失败。如果出现此问题,某些虚拟机的 VMware Tools 可能未升级。

    本版本已解决该问题。

  • SMX 提供程序类的枚举可能会失败
    当使用 6.0 CIMPDK 编译 HPE ESXi WBEM 提供程序并将其安装在 ESXi 6.0 U3 系统上时,SMX 提供程序类的枚举可能会失败。

    此失败可能是因为以下 SMX 类的枚举,其中包括:

    • SMX_EthernetPort
    • SMX_Fan
    • SMX_PowerSupply
    • SMX_SAMediaAccessStatData

    sfcbd 针对这些 SMX 类显示以下错误:

    # enum_instances SMX_EthernetPort root/hpq error: enumInstances Server returned nothing (no headers, no data)

    提供程序响应枚举查询并成功将响应传递到 sfcbd。不会发生提供程序重新启动或提供程序核心转储。每个枚举都会生成 sfcbd CIMXML 核心转储,例如 sfcb-CIMXML-Pro-zdump.000

    本版本已解决该问题。

网络连接问题
  • 可能会丢弃 ARP 请求数据包
    如果两个虚拟机中的一个虚拟机配置了客户机 VLAN 标记,而另一个虚拟机配置了虚拟交换机 VLAN 标记且 VLAN 卸载在这些虚拟机上处于关闭状态,则可能会丢弃这两个虚拟机之间的 ARP 请求数据包。

  • 由于脚本式升级,可能会禁用 ESXi 防火墙配置
    使用 kickstart 文件通过 NFS 或 FTP 对 ESXi 6.0 Update 1 或更高版本进行脚本式升级后,可能会禁用 ESXi 防火墙配置。

    本版本已解决该问题。

  • 即使在重新引导主机后,新添加的物理网卡在通信期间也使用虚拟 MAC 地址 00:00:00:00:00:00
    在重新引导主机后,新添加的物理网卡在 esx.conf 文件中可能没有对应条目,导致在通信期间为物理网卡列出的虚拟 MAC 地址为 00:00:00:00:00:00

    本版本已解决该问题。

  • 在引导阶段显示错误消息
    在某些情况下,ESXi 安装程序在引导阶段读取安装脚本时,将显示类似以下内容的错误消息:

    VmkNicImpl::DisableInternal:: Deleting vmk0 Management Interface, so setting advlface to NULL

    本版本已解决该问题。

  • 使用 Citrix VDI PXE 引导时,物理交换机充斥着大量 RARP 数据包
    为 Citrix VDI 引导虚拟机时,物理交换机会充斥着大量 RARP 数据包(超过 1000 个),这可能会导致网络连接断开和暂时中断。

    本版本提供了 /Net/NetSendRARPOnPortEnablement 高级选项。您需要将 /Net/NetSendRARPOnPortEnablement 的值设置为 0 来解决此问题。

  • ESXi 主机可能会失败,并显示紫色诊断屏幕
    ESXi 主机可能会失败并显示紫色诊断屏幕。以下情况下会发生此问题:调用 DVFilter_TxCompletionCB() 以完成 dvfilter 共享内存数据包时,它会释放该数据包内存储的已完成 IO 的数据,但有时此数据成员会变为 0,这会导致出现空指针异常。将显示类似于以下内容的错误消息:

    YYYY-MM-DDT04:11:05.134Z cpu24:33420)@BlueScreen: #PF Exception 14 in world 33420:vmnic4-pollW IP 0x41800147d76d addr 0x28
    PTEs:0x587e436023;0x587e437023;0x587e438023;0x0;
    YYYY-MM-DDT04:11:05.134Z cpu24:33420)Code start: 0x418000800000 VMK uptime: 23:18:59:55.570
    YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461bdd0:[0x41800147d76d]DVFilterShmPacket_TxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0x3d sta
    YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461be00:[0x41800146eaa2]DVFilterTxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0xbe stack: 0x0
    YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461be70:[0x418000931688]Port_IOCompleteList@vmkernel#nover+0x40 stack: 0x0
    YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bef0:[0x4180009228ac]PktListIOCompleteInt@vmkernel#nover+0x158 stack: 0x0
    YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bf60:[0x4180009d9cf5]NetPollWorldCallback@vmkernel#nover+0xbd stack: 0x14
    YYYY-MM-DDT04:11:05.137Z cpu24:33420)0x43915461bfd0:[0x418000a149ee]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0

    本版本已解决该问题。

安全问题
  • Likewise Kerberos 更新
    Likewise Kerberos 已更新至版本 1.14。
  • OpenSSL 更新
    OpenSSL 已更新至版本 openssl-1.0.2j。
  • PAM 更新
    PAM 已更新至版本 1.3.0。
  • 更新 libPNG 库
    libPNG 库已更新至 libpng-1.6.26。
  • NTP 软件包更新
    ESXi NTP 软件包已更新至 4.2.8p9 版本。
  • libcurl 库更新
    ESXi userworld libcurl 库已更新至 libcurl- 7.51.0。
服务器配置问题

  • 将主机配置文件重新应用于无状态 ESXi 主机时,vCenter Server 会失去与 ESXi 主机的连接
    如果应用到 ESXi 主机的主机配置文件包含 vSphere 标准交换机和 vSphere Distributed Switch 中都有的 vmknic 适配器,可能会从 vSphere 标准交换机移除 vmknic 适配器 vmk0(管理接口),这会导致主机与 vCenter Server 断开连接。

    本版本已解决该问题。

  • 创建静默快照时,hostd 服务可能会失败
    在复制过程中执行静默快照操作时,hostd 服务可能会失败。hostd.log 文件中会显示类似以下内容的错误消息:2016-06-10T22:00:08.582Z [37181B70 info 'Hbrsvc'] ReplicationGroup will retry failed quiesce attempt for VM (vmID=37) 2016-06-10T22:00:08.583Z [37181B70 panic 'Default'] --> -->Panic: Assert Failed: "0" @ bora/vim/hostd/hbrsvc/ReplicationGroup.cpp:2779

    本版本已解决该问题。

  • 在收集统计信息时,ESXi 6.0 Update 1 主机可能会失败,并显示紫色诊断屏幕
    在收集统计信息期间,具有大量物理 CPU 的 ESXi 主机可能会停止响应。收集进程尝试访问不在最初为其分配的范围中的页面时,会出现此问题。

    本版本已解决该问题。

  • 如果映像配置文件大小超过设置的限制,ESXi 修补程序更新可能会失败并显示警告消息
    如果目标配置文件的大小超过 239 MB,安装 ESXi 修补程序更新可能会失败。使用 ISO 升级系统导致映像配置文件大小超过 239 MB 时,可能会发生此问题,并且不会收到任何警告消息。这会阻止在系统上进一步安装任何其他 VIB。

    本版本已解决该问题。

  • vmkernel.log 文件会记录多个 USB 挂起和恢复事件的垃圾消息
    vmkernel.log 文件会记录类似以下内容的多个 USB 恢复和挂起事件的垃圾消息:

    YYYY-MM-DDT

    本版本已解决该问题。

  • 无法看到要在“权限”选项卡中分配权限的用户或组列表
    无法看到要在权限选项卡中分配权限的用户或组列表,并且对受信任域的用户进行身份验证可能会失败。当计算机的 DNS 域名与 AD 域的 DNS 名称不同时,将出现该问题。

    本版本已解决该问题。但是,将 ESXi 主机升级到 ESXi 6.0 Update 3 后,必须将其从 AD 域中移除并重新添加到同一个域。

  • ESXi 主机可能会停止响应,并显示紫色诊断屏幕
    如果使用 esxcfg-dumppart 或其他命令多次并行调用转储文件集,则会因在释放转储块映射时出现争用情况而可能使 ESXi 主机停止响应,并显示紫色诊断屏幕,其中包含类似以下内容的条目:

    @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4907 - Corruption in dlmalloc
    Code start: 0xnnnnnnnnnnnn VMK uptime: 234:01:32:49.087
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PanicvPanicInt@vmkernel#nover+0x37e stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Panic_NoSave@vmkernel#nover+0x4d stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DLM_free@vmkernel#nover+0x6c7 stack: 0x8
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Heap_Free@vmkernel#nover+0xb9 stack: 0xbad000e
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Dump_SetFile@vmkernel#nover+0x155 stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]SystemVsi_DumpFileSet@vmkernel#nover+0x4b stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_SetInfo@vmkernel#nover+0x41f stack: 0x4fc
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_Set@ # +0x394 stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@ # +0xb4 stack: 0xffb0b9c8
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry_@vmkernel#nover+0x0 stack: 0x0

    本版本已解决该问题。

存储问题
  • 无法使用 esxcli vvol abandonedvvol 命令移除失效的 Virtual Volumes 和 VMDK 文件
    尝试使用 esxcli storage vvol storagecontainer abandonedvvol 命令清理失效的 Virtual Volume 卷以及该 Virtual Volume 卷上的剩余 VMDK 文件失败。

    本版本已解决该问题。

  • 取消 Virtual Volumes 的快照创建任务可能会导致数据丢失
    尝试为 VMDK 位于 Virtual Volumes 数据存储上的虚拟机取消创建快照可能会导致虚拟磁盘无法正确回滚,从而造成数据丢失。如果某个虚拟机有多个同名 VMDK,而这些 VMDK 来自不同的 Virtual Volumes 数据存储中,则会发生这种情况。

    本版本已解决该问题。

  • 如果为 Virtual Volumes 虚拟机创建快照失败,则 VMDK 无法正确回滚
    如果尝试为 Virtual Volumes 虚拟机创建快照失败,则 VMDK 会与错误的数据 Virtual Volume 相关联。仅当 Virtual Volumes 虚拟机的 VMDK 来自多个 Virtual Volumes 数据存储时,才会出现该问题。

    本版本已解决该问题。

  • 如果底层存储在定期发送 VMFS 检测信号期间错误地返回比较错误,则虚拟机 I/O 操作将停止或取消。
    VMFS 会使用 SCSI compare-and-write 命令(也称为 ATS)定期发送检测信号。在 ATS 命令执行期间出现的任何比较错误都将视为检测信号丢失,并且数据存储会启动恢复操作。为了防止损坏,设备上的所有 I/O 操作都会被取消。如果底层存储在发送 VMFS 检测信号期间错误地报告比较错误,则数据存储会启动不必要的恢复操作。

    本版本已解决该问题。

  • ESXi 6.x 主机运行 85 天后会停止响应
    出现该问题时,/var/log/vmkernel 日志文件将显示类似以下内容的条目:

    YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved a PUREX IOCB woh oo
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved the PUREX IOCB.
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): sizeof(struct rdp_rsp_payload) = 0x88
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674qlnativefc: vmhba2(5:0.0): transceiver_codes[0] = 0x3
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): transceiver_codes[0,1] = 0x3, 0x40
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Stats Mailbox successful.
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Sending the Response to the RDP packet
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674 0 1 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)--------------------------------------------------------------
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 53 01 00 00 00 00 00 00 00 00 04 00 01 00 00 10
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) c0 1d 13 00 00 00 18 00 01 fc ff 00 00 00 00 20
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 88 00 00 00 b0 d6 97 3c 01 00 00 00
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 0 1 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)--------------------------------------------------------------
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 02 00 00 00 00 00 00 80 00 00 00 01 00 00 00 04
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 18 00 00 00 00 01 00 00 00 00 00 0c 1e 94 86 08
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 0e 81 13 ec 0e 81 00 51 00 01 00 01 00 00 00 04
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 2c 00 04 00 00 01 00 02 00 00 00 1c 00 00 00 01
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 40 00 00 00 00 01 00 03 00 00 00 10
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 50 01 43 80 23 18 a8 89 50 01 43 80 23 18 a8 88
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 01 00 03 00 00 00 10 10 00 50 eb 1a da a1 8f

    此问题是由一个 qlnativefc 驱动程序错误引起的,该错误会将读取诊断参数 (RDP) 响应发送到传输长度不正确的 HBA 适配器。因此,HBA 适配器固件不会释放缓冲池空间。缓冲池耗尽后,HBA 适配器将无法进一步处理任何请求,从而导致 HBA 适配器变得不可用。默认情况下,RDP 例程由 FC 交换机启动,并且每小时运行一次,从而导致缓冲池在正常情况下约 80 到 85 天耗尽。

    本版本已解决该问题。

  • 在 vSphere 6.0 中,存储策略 API 的 HostMultipathStateInfoPath 对象会以 Run Time Name vmhbaX:CX:TX:LX 的形式提供路径值
    在 ESXi 5.5 中,HostMultipathStateInfoPath 提供以下格式的路径信息:HostWWN-ArrayWWN-LUN_ID,例如,sas.500605b0072b6550-sas.500c0ff1b10ea000-naa.600c0ff0001a20bd1887345701000000。但是,在 ESXi 6.0 中,路径值会显示为 vmhbaX:CX:TX:LX,这可能会影响依靠 HostMultipathStateInfoPath 对象检索 HostWWN 和 ArrayWWN 等信息的用户。

    本版本已解决该问题。HostMultipathStateInfoPath 对象现在会将路径信息显示为运行时名称和 HostWWN-ArrayWWN-LUN_ID

    您也可以使用 esxcli storage core path list 命令检索路径的相关信息。此命令提供 HostWWN 和 ArrayWWN 的详细信息。有关详细信息,请参见知识库文章 1003973

  • ESXi 主机可能失败,并显示紫色诊断屏幕
    已配置 vFlash 的 ESXi 主机可能失败,并显示紫色诊断屏幕和类似以下内容的错误消息:PSOD: @BlueScreen: #PF Exception 14 in world 500252:vmx-vcpu-0:V.

    本版本已解决该问题。

  • 由于路径声明冲突,ESXi 主机失败并显示紫色诊断屏幕
    如果某个已注册设备的路径由两个多路径插件(例如,EMC PowerPath 和本机多路径插件 (NMP))声明,则 ESXi 主机将显示紫色诊断屏幕。如果某个插件声明规则无法声明该路径,而默认情况下 NMP 声明该路径,则会发生此类冲突。如果在 NMP 尝试注册该设备时,该设备已由其他插件注册,则会出现争用状况,该状况会触发 ESXi 主机失败。

    本版本已解决该问题。

  • 由于主机内存不足,因此对大型文件的文件操作失败
    如果在 ESXi 主机上执行文件操作(例如挂载数据存储上的大型文件),则这些操作可能会失败。如果缓冲区缓存发生内存泄漏,从而导致 ESXi 主机内存不足(例如数据的非零副本导致无法释放缓冲区),则会出现这种情况。虚拟机中会显示类似以下内容的错误消息。

    对文件 /vmfs/volumes/5f64675f-169dc0cb/CloudSetup_20160608.iso 的操作失败。如果此文件驻留在远程文件系统上,请确保网络连接以及该磁盘所在的服务器运行正常。如果文件驻留在可移动介质上,请重新连接该介质。选择“重试”可重新尝试该操作。选择“取消”可终止此会话。选择“继续”可将错误转发到客户机操作系统。

    本版本已解决该问题。

  • 对于驻留在 NFS 数据存储中的桌面虚拟机,Horizon View 重构操作可能失败
    对于驻留在 NFS 数据存储中的一些桌面虚拟机,Horizon View 重构操作可能会失败,并且出现失效的 NFS 文件句柄 (Stale NFS file handle) 错误。

    本版本已解决该问题。

升级和安装问题
  • 如果 ESXi 是使用 USB 上的 dd 映像部署的,并且 /altbootbank 包含大写的 BOOT.CFG,则使用 vSphere Update Manager 升级 ESXi 会失败
    使用 esxiso2dd 实用程序在某些版本的 RHEL 上生成的 ESXi dd 映像可能会在 /altbootbank 中包含大写的 BOOT.CFG。如果 BOOT.CFG 为大写,则 vSphere Update Manager 无法升级主机,因为升级预检查程序仅接受小写的 boot.cfg

    本版本已解决该问题。

  • 将 ESXi 5.5.x 主机升级到包含 ESXi 6.0 修补程序 ESXi600-201611011 或更高版本的 ESXi 6.0.x 时,hostd 会失败
    如果安装了支持 HBA 模式的异步 HPSA 驱动程序,则会遇到此问题。尽管 ESXi 支持在 HBA 模式下获取 HPSA 磁盘位置信息,但是当满足以下条件之一时,可能会出现问题:

    • 安装的是旧版 hpssacli 实用程序,即 2.10.14.0 或更低版本。
    • 使用外部阵列连接 HPSA 控制器。

    这些问题导致 hostd 失败情况,并且 vSphere Client 和 vCenter Server 无法再访问主机。

    本版本已解决该问题。现在使用 esxcli 命令获取磁盘位置信息时,hostd 不会失败。esxcli 命令会返回类似以下内容的错误消息:

    # esxcli storage core device physical get -d naa.500003963c888808 Plugin lsu-hpsa-plugin cannot get information for device with name naa.500003963c888808.Error was: Invalid output for physicaldrive.

  • 如果 /altbootbank 包含BOOT.CFG(大写)而不是boot.cfg(小写),则通过 vSphere Update Manager 升级使用 USB 上的 dd 映像引导的 ESXi 可能会失败
    使用 esxiso2dd 实用程序在某些版本的 RHEL 上生成的 ESXi dd 映像可能会在 /altbootbank 中包含 BOOT.CFG(大写)。如果存在 BOOT.CFG,则通过 vSPhere Update Manager 升级 ESXi 时会失败,因为升级预检查程序仅会查找小写的 boot.cfg
  • 本版本已解决该问题。

  • 升级到 6.0 后,未正确更新主机摘要选项卡中的映像配置文件名称
    使用 esxcli software profile update 命令应用新的映像配置文件时,映像配置文件名称不会更改为新的映像配置文件名称。此外,使用 ISO 执行升级时,新的映像配置文件名称不会标记为已更新

    本版本已解决该问题。

vCenter Server、vSphere Web Client 和 vSphere Client 问题
  • 新问题vSphere Web Client 完成某些操作的速度缓慢
    在 vSphere Web Client 中执行的某些操作需要很长时间才能完成,并显示配置更改。如果中到大型 vCenter Server 清单中的部分或所有数据存储上均启用了 Storage I/O Control,可能会出现此问题。有关此问题的更多详细信息,请参见知识库文章 2146935

    本版本已解决该问题。

虚拟机管理问题
  • 在安装完 VMware Tools 并进行重新引导后,vSphere Update Manager 仍会对 VMware Tools 发送重新引导提醒
    VMware Tools 安装错误代码显示,即使 VMware Tools 安装后已进行重新引导,也需要重新引导。成功安装 VMware Tools 并重新引导后,不会清除虚拟机可执行文件 (VMX) 端上的 guestInfo.toolsInstallErrCode 变量。这会导致 vSphere Update Manager 发送错误的 VMware Tools 重新引导提醒。

    本版本已解决该问题。

  • 在客户机操作系统上运行 ListProcesses 时,hostd 会失败
    如果客户机操作系统存在大量进程,则会多次调用 ListProcesses 进程,而 VMware Tools 中的数据会通过多个块传输。如果在客户机操作系统上多次调用 ListProcesses(对每个块调用一次),并将这些调用组合在一起,则该实施会导致冲突。多个 ListProcesses 会识别所有数据到达的时间,并调用内部回调处理程序。对该处理程序调用两次将导致 hostd 失败。

    本版本已解决该问题。

  • 当客户机操作系统发出 SCSI unmap 命令而 IO 筛选器阻止取消映射操作时,可能会导致数据损坏或丢失
    如果虚拟机虚拟磁盘配置有 IO 筛选器,则在客户机操作系统发出 SCSI unmap 命令时,即使某个已配置的 IO 筛选器使该操作失败,SCSI unmap 命令也可能成功。因此,VMDK 中反映的状态与 IO 筛选器的状态会有所差异,而客户机操作系统可能会发生数据损坏或丢失。

    本版本已解决该问题。

  • ESXi 主机可能会失败,并显示紫色诊断屏幕
    DVFilter_TxCompletionCB() 操作尝试完成 dvfilter 共享内存数据包时,它会释放存储在该数据包中的 IO 完成数据成员。在某些情况下,此数据成员会变为 0,导致出现空指针异常。将显示类似于以下内容的错误消息:

    YYYY-MM-DDT04:11:05.134Z cpu24:33420)@BlueScreen: #PF Exception 14 in world 33420:vmnic4-pollW IP 0x41800147d76d addr 0x28 PTEs:0x587e436023;0x587e437023;0x587e438023;0x0; YYYY-MM-DDT04:11:05.134Z cpu24:33420)Code start: 0x418000800000 VMK uptime: 23:18:59:55.570 YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461bdd0:[0x41800147d76d]DVFilterShmPacket_TxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0x3d sta YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461be00:[0x41800146eaa2]DVFilterTxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0xbe stack: 0x0 YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461be70:[0x418000931688]Port_IOCompleteList@vmkernel#nover+0x40 stack: 0x0 YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bef0:[0x4180009228ac]PktListIOCompleteInt@vmkernel#nover+0x158 stack: 0x0 YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bf60:[0x4180009d9cf5]NetPollWorldCallback@vmkernel#nover+0xbd stack: 0x14 YYYY-MM-DDT04:11:05.137Z cpu24:33420)0x43915461bfd0:[0x418000a149ee]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0

    本版本已解决该问题。

  • 具有 PCI 直通的 ESXi 主机可能会停止响应并显示紫色诊断屏幕
    多次重新引导具有 PCI 直通的虚拟机时,ESXi 主机可能会停止响应并显示紫色诊断屏幕,并在 vmware.log 文件中显示类似于以下内容的消息:

    XXXXXXXXXXXXXXX| vcpu-0| W110: A core file is available in " /vmx-debug-zdump.000"
    XXXXXXXXXXXXXXX| vcpu-0| I120: Msg_Post: Error
    XXXXXXXXXXXXXXX| vcpu-0| I120: [msg.log.error.unrecoverable] VMware ESX
    XXXXXXXXXXXXXXX| vcpu-0| unrecoverable error: (vcpu-0)
    XXXXXXXXXXXXXXX| vcpu-0| I120+ vcpu-7:ASSERT vmcore/vmm/intr/intr.c:459

    本版本已解决该问题。

  • 在复制过程中,hostd 服务可能会失败
    如果在复制过程中静默快照操作失败,则 hostd 服务可能会失败。可能会向 hostd.log 文件中写入类似以下内容的错误消息:

    YYYY-MM-DDT22:00:08.582Z [37181B70 info 'Hbrsvc'] ReplicationGroup will retry failed quiesce attempt for VM (vmID=37)
    YYYY-MM-DDT22:00:08.583Z [37181B70 panic 'Default']
    -->
    --> Panic: Assert Failed: "0" @ bora/vim/hostd/hbrsvc/ReplicationGroup.cpp:2779

    本版本已解决该问题。

  • 如果置备有 LSI 虚拟 SCSI 控制器的虚拟机出现 I/O 故障,则 hostd 服务可能停止响应
    如果置备有 LSI 虚拟控制器的虚拟机出现存储 I/O 故障并且 ESXi 主机上的内存过载,则 ESXi 主机可能停止响应。

    本版本已解决该问题。

Virtual SAN 问题
  • 新问题使用 Virtual SAN 存储的虚拟机可能会变得缓慢或无响应,并且在主机进入维护模式或 Virtual SAN 集群中重新配置策略时,可能会出现 Virtual SAN 主机管理故障
    在 Virtual SAN 磁盘组的缓存层中未收集到任何数据且因无数据处理而导致日志拥堵时,可能会出现此问题。此类拥堵可能会导致使用 Virtual SAN 存储的虚拟机 I/O 缓慢并出现 Virtual SAN 主机管理故障。只有启用去重和压缩的 vSAN 集群会发生此问题。

    本版本已解决该问题。

  • 与置备或由此导致的新对象创建操作相关的 Virtual SAN 集群操作出现间歇性失败
    集群级别对象管理器守护进程 (CLOMD) 发生内存泄漏,导致长时间运行期间内存耗尽,从而使该守护进程临时不可用。

    本版本已解决该问题。

  • 无法初始化 DOM 模块
    描述:集群级别对象管理器守护进程 (CLOMD) 可能无法在具有大量物理 CPU 的 ESXi 主机上使用 Virtual SAN。如果 Virtual SAN DOM 模块在加入集群时无法初始化,则可能会出现此问题。

    clomd.log 文件中会显示类似于以下内容的错误消息:

    2016-12-01T22:34:49.446Z 2567759 Failed to run VSI SigCheck: Failure 2016-12-01T22:34:49.446Z 2567759 main: Clomd is starting 2016-12-01T22:34:49.446Z 2567759 main: Is in stretched cluster mode? No 2016-12-01T22:34:49.446Z 2567759 CLOMSetOptions: Setting forground to TRUE 2016-12-01T22:34:49.446Z 2567759 CLOMSetOptions: No default configuration specified.2016-12-01T22:34:49.447Z 2567759 main: Starting CLOM trace 2016-12-01T22:34:49.475Z 2567759 Cannot open DOM device /dev/dom: No such file or directory 2016-12-01T22:34:49.475Z 2567759 Cannot connect to DOM: Failure 2016-12-01T22:34:49.475Z 2567759 CLOM_CleanupRebalanceContext: Cleaning up rebalancing state 2016-12-01T22:34:49.481Z 2567759 Failed to dump data 2016-12-01T22:34:49.481Z 2567759 2016-12-01T22:34:49.481Z 2567759 main: clomd exit

    本版本已解决该问题。

  • ESXi 主机无法在重新引导后重新加入 VMware Virtual SAN 集群
    尝试在重新引导后手动重新加入 VMware Virtual SAN 集群可能会失败,并显示以下错误:

    无法将主机加入 VSAN 集群 (无法启动 vsantraced (返回代码 2)) (Failed to join the host in VSAN cluster (Failed to start vsantraced (return code 2)))

    本版本已解决该问题。

  • 持续调用 VSAN API 可能导致显示误导性的任务消息
    在安装有 vCenter Server 6.0 Update 2 和 Virtual SAN 6.2 的环境中,持续调用 VSAN API 会导致创建注册 Virtual SAN VASA 提供程序票证的任务,并显示类似以下内容的消息:

    检索用来注册 Virtual SAN VASA 提供程序的票证

    本版本已解决该问题。

  • Virtual SAN 磁盘重新均衡任务在执行到 5% 时暂停,并此状态保持 24 小时以上
    Virtual SAN 运行状况服务在 vSphere Web Client 中报告 Virtual SAN 磁盘平衡警告。单击重新均衡磁盘时,此任务似乎在执行到 5% 时暂停,并且此状态保持 24 小时以上。

    本版本已解决该问题,24 小时后重新均衡磁盘任务显示为已完成。

  • ESXi 主机可能会停止响应,并显示紫色诊断屏幕
    ESXi 主机可能会停止响应,并显示紫色诊断屏幕以及类似以下内容的消息:

    YYYY-MM-DDT22:59:29.686Z cpu40:84493)@BlueScreen: #PF Exception 14 in world 84493:python IP 0xnnnnnnnnnnnn addr 0xfffffffffffffff0 PTEs:0x0;
    YYYY-MM-DDT22:59:29.686Z cpu40:84493)Code start: 0xnnnnnnnnnnnn VMK uptime: 7:15:08:48.373
    YYYY-MM-DDT22:59:29.686Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DOMClient_IsTopObject@com.vmware.vsan#0.0.0.1+0x18 stack: 0xnnnnnnnn
    YYYY-MM-DDT22:59:29.687Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DOMListUuidTopHierarchyCbk@com.vmware.vsan#0.0.0.1+0x69 stack: 0x900
    YYYY-MM-DDT22:59:29.687Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSANUUIDTable_Iterate@com.vmware.vsanutil#0.0.0.1+0x4b stack: 0x139d
    YYYY-MM-DDT22:59:29.687Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DOMVsi_ListTopClients@com.vmware.vsan#0.0.0.1+0x5a stack: 0x66
    YYYY-MM-DDT22:59:29.688Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_GetListInfo@vmkernel#nover+0x354 stack: 0xnnnnnnnnnnnn
    YYYY-MM-DDT22:59:29.688Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_GetList@#+0x216 stack: 0xnnnnnnnnn
    YYYY-MM-DDT22:59:29.688Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@#+0xb4 stack: 0xnnnnnnn
    YYYY-MM-DDT22:59:29.689Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0x0
    YYYY-MM-DDT22:59:29.689Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry_@vmkernel#nover+0x0 stack: 0x0

    本版本已解决该问题。

  • ESXi 主机可能会失败,并显示紫色诊断屏幕
    如果 Virtual SAN 重新同步操作暂停,则 Virtual SAN 集群中的 ESXi 主机可能会失败并显示紫色诊断屏幕。

    本版本已解决该问题。

VMware HA 和 Fault Tolerance 配置问题
  • 在虚拟机上启用 Fault Tolerance 时,ESXi 主机可能会失败
    如果 Fault Tolerance 辅助虚拟机无法打开电源,则 ESXi 主机可能会失败并显示紫色诊断屏幕。

    本版本已解决该问题。

  • 对于已启用 vSphere Fault Tolerance 的虚拟机,vSphere 客户机应用程序监控 SDK 失败
    在安装了 vSphere Guest Application Monitor 且受 vSphere HA 保护的虚拟机上启用 vSphere FT 后,vSphere 客户机应用程序监控 SDK 可能会失败。

    本版本可显著降低启用 Fault Tolerance 后虚拟机网络延迟的增长。

  • 在虚拟机上启用 SMP Fault Tolerance 后,延迟会增加
    在虚拟机上启用对称多处理器 (SMP) Fault Tolerance 后,虚拟机网络延迟的平均值以及变化量可能会显著增加。对于容易受到此类延迟增加影响的虚拟机工作负载,延迟增加可能会导致性能显著下降或不稳定。

    本版本可显著降低启用 Fault Tolerance 后虚拟机网络延迟的增长。

已知问题

对 ESXi 6.0 中存在的已知问题的分组如下:

本版本中记录的新的已知问题突出显示为新问题

安装问题
  • DNS 后缀可能会持续存在,即使在更改 DCUI 中的默认配置后也是如此
    如果已在由 DHCP 服务器提供服务的网络上部署,则首次引导时,ESXi 主机可能会自动配置有默认 DNS + DNS 后缀。尝试更改 DNS 后缀时,DCUI 不移除现有的 DNS 后缀,而是仅添加提供的新后缀。

    解决办法:配置见证 OVF 的 DNS 主机名时,在“DNS 主机名”字段中设置完整的 FQDN 名称以附加正确的 DNS 后缀。然后可以在“自定义 DNS 后缀”字段中移除不需要的 DNS 后缀。

  • 安装最新的 VMware Tools 软件包后,VMware Tools Service 用户进程可能无法在 Linux 操作系统上运行
    在 Linux 操作系统中,您可能会遇到 VMware Tools 升级/安装问题,或者 VMware Tools 服务 (vmtoolsd) 用户进程在安装最新的 VMware Tools 软件包后可能不运行的问题。如果您的 glibc 版本低于 2.5(例如 SLES10sp4),则会出现该问题。

    解决办法:将 Linux glibc 升级到版本 2.5 或更高版本。

升级问题

查看发行说明的“安装问题”部分。许多安装问题也会影响升级过程。

  • 尝试使用 esxcli software vib update 命令从 ESXi 6.x 升级到 6.0 Update 2 及更高版本失败
    尝试使用 esxcli software vib update 从 ESXi 6.x 升级到 6.0 Update 2 失败,并显示类似以下内容的错误消息:

    [DependencyError]
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan << 6.0.0-2.35, but the requirement cannot be satisfied within the ImageProfile.
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan >= 6.0.0-2.34, but the requirement cannot be satisfied within the ImageProfile.


    此问题是由于引入与 esx-base VIB 相互依赖的新 Virtual SAN VIB 而导致的,esxcli software vib update 命令只能更新系统上安装的 VIB。

    解决办法:要解决此问题,请按下例所示运行 esxcli software profile update

    esxcli software profile update -d /vmfs/volumes/datastore1/update-from-esxi6.0-6.0_update02.zip -p ESXi-6.0.0-20160302001-standard

  • 从早期版本的 vSphere 6.0 升级到 vSphere 6.0 Update 1 及更高版本后,SSLv3 在 Auto Deploy 上仍保持启用状态
    从早期版本的 vSphere 6.0 升级到 vSphere 6.0 Update 1 和更高版本时,SSLv3 协议在 Auto Deploy 上仍保持启用状态。

    解决办法:使用 PowerCLI 命令执行以下步骤以禁用 SSLv3:

    1. 运行以下命令连接到 vCenter Server:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <FQDN_hostname or IP Address of vCenter Server>

    2. 运行以下命令检查当前 SSLv3 状态:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 运行以下命令禁用 SSLv3:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. 重新启动 Auto Deploy 服务以更新更改。

  • ESXi 从 5.5.x 升级到 6.0 后光纤通道主机总线适配器设备编号可能会发生改变

    ESXi 从 5.5.x 升级到 6.0 的过程中,光纤通道主机总线适配器设备编号偶尔可能会发生改变。如果使用 esxcli storage core adapter list 命令,设备编号可能会更改为其他编号。

    例如,在 ESXi 升级之前光纤通道主机总线适配器的设备编号可能类似于以下内容:

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    在 ESXi 升级到 6.0 后光纤通道主机总线适配器的设备编号可能类似于以下内容:

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    本示例说明了使用 esxcli storage core adapter list 命令时可能会造成随机改变:设备别名编号 vmhba2 和 vmhba3 更改为 vmhba64 和 vmhba65,而设备编号 vmhba5 和 vmhba6 保持不变。但是,如果使用的是 esxcli hardware pci list 命令,升级之后设备编号不会改变。

    这个问题不属于 VMware 范畴,不会对您造成影响。ESXi 虽然显示设备别名编号,但不将其用于任何操作。您可以使用主机配置文件来重置设备别名。请查看 VMware 产品文档和知识库文章。

    解决办法:无。

  • 升级后不保留 Active Directory 设置
    在将主机升级到 ESXi 6.0 时,升级前在 ESXi 主机中配置的 Active Directory 设置将不保留。

    解决办法:如果升级前的 ESXi 版本为 5.1 或更高版本,则在升级后将主机添加到 Active Directory 域。如果升级前的 ESXi 版本为 ESXi 5.0.x,则在升级后不要将主机添加到 Active Directory 域。

  • 在 ESXi 升级到 6.0 后,以前添加到域中的主机不会再加入域
    首次从 vSphere 5.5 升级到 vSphere 6.0 时,不会保留 Active Directory 配置。

    解决办法:升级之后,执行以下步骤将这些主机重新加入 vCenter Server 域:

    1. 将主机添加到 vCenter Server。

    2. 将主机加入到域(例如 example.com)

    3. 将所有主机升级到 ESXi 6.0。

    4. 将一台最近升级的主机手动加入域。

    5. 提取主机配置文件并禁用所有其他配置文件(身份验证配置文件除外)。

    6. 将手动加入域的主机配置文件应用到其他最近升级的主机。

  • 在升级适用于 Windows 的 vCenter Server 后,此前运行的 VMware ESXi Dump Collector 服务将重置为默认设置“已禁用”
    升级过程将 VMware Vsphere ESXi Dump Collector 6.0 安装为 vCenter Server 的可选服务组的一部分。您必须手动启用 VMware vSphere ESXi Dump Collector 服务,以将其用作适用于 Windows 的 vCenter Server 6.0 的一部分。

    解决办法:阅读 VMware 文档或搜索 VMware 知识库,了解如何启用和运行 vCenter Server 6.0 for Windows 中的可选服务。

    在操作系统中启用 VMware vSphere ESXi Dump Collector服务:

    1. 在“控制面板”菜单中,选择管理工具,并双击服务

    2. 右键单击 VMware vSphere ESXi Dump Collector编辑启动类型

    3. 启动类型设置为自动

    4. 右键单击 VMware vSphere ESXi Dump Collector启动

    服务启动类型设置为自动,并且服务处于运行状态。

vCenter Single Sign-On 和证书管理问题
  • 在升级 ESXi 主机的 SSL 证书后无法连接到虚拟机控制台
    如果升级 ESXi 主机所使用的 SSL 证书,然后在证书被替换后尝试连接到任何正在运行的虚拟机的控制台,可能出现证书验证错误。这是因为旧证书已缓存,任何新控制台连接都将因证书不匹配而被拒绝。
    控制台连接可能仍然成功(例如,可以通过其他方式验证旧证书),但是不能确保一定成功。现有虚拟机控制台连接不受影响,但是如果在证书替换时控制台正在运行、已停止或已重新启动,则可能发生此问题。

    解决办法:将主机置于维护模式,或者挂起或关闭所有虚拟机。仅会影响正在运行的虚拟机。最佳做法是先将主机置于维护模式,然后升级所有 SSL 证书。

网络连接问题

  • vSphere 的某些功能不支持 IPv6
    可以为所有节点和组件启用 IPv6,但以下功能除外:

    • 未映射到 DNS 服务器上的完全限定域名 (FQDN) 的 ESXi 主机和 vCenter Server 的 IPv6 地址。
      解决办法:直接使用 FQDN,或确保 IPv6 地址映射到 DNS 服务器上的 FQDN 以便能够进行反向名称查找。

    • 虚拟卷

    • 作为 Auto Deploy 与主机配置文件的一部分的 PXE 引导
      解决办法:以 PXE 方式通过 IPv4 启动 ESXi 主机,并使用主机配置文件为主机配置 IPv6 地址。

    • ESXi 主机和 vCenter Server Appliance 到 Active Directory 的连接
      解决办法:使用 Active Directory over LDAP 作为 vCenter Single Sign-On 中的标识源。

    • 基于 Kerberos 验证方式的 NFS 4.1 存储
      解决办法:使用基于 AUTH_SYS 验证方式的 NFS 4.1。

    • Authentication Proxy

    • vSphere Management Assistant 和 vSphere Command-Line Interface 到 Active Directory 的连接。
      解决办法:通过 LDAP 协议连接 Active Directory。

    • 使用 vSphere Client 对 vSphere 的功能启用 IPv6
      解决办法:使用 vSphere Web Client 对 vSphere 的功能启用 IPv6。

  • 在使用 ESXi Dump Collector 功能时可能会发生重复内核严重错误。
    当主机处于应急状态(将显示紫色诊断屏幕,并通过网络向 ESXi Dump Collector 写入核心转储数据)时,会发生重复内核严重错误。VMkernel zdump 文件可能无法用于 vCenter Server 上的 ESXi Dump Collector 的故障排除。

    当发生重复内核严重错误时,主机的紫色故障诊断屏幕会显示如下消息:
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    当通过同时被配置为向 vCenter Server 上的收集器发送核心转储数据的物理网络适配器传输大量数据而导致 VMkernel 发生严重错误时,就会出现重复内核严重错误。

    解决办法:执行以下任一种解决办法:

    • 配置一个物理网络适配器以专用于传输核心转储数据,从而降低系统及虚拟机流量的影响。

    • 通过运行以下 ESXCLI 控制台命令禁用主机上的 ESXi Dump Collector:
      esxcli system coredump network set --enable false

存储问题

NFS 版本 4.1 问题

  • 当 NFS 4.1 共享从全部路径异常 (APD) 状态中恢复后,NFS 4.1 数据存储上的虚拟机失败
    当 NFS 4.1 存储进入 APD 状态并在一段宽限期后退出此状态时,在 NFS 4.1 数据存储上运行的已打开电源的虚拟机将失败。宽限期的长短取决于存储阵列供应商的设置。
    在 NFS 4.1 共享从 APD 状态恢复后,您会在 vSphere Web Client 的虚拟机摘要页中看到如下消息:
    用于保护 VM.vmdk 的锁丢失,可能是因为底层存储问题导致。如果此虚拟机配置为具有高可用性,则请确保在单击“确定”前此虚拟机正在其他主机上运行 (The lock protecting VM.vmdk has been lost, possibly due to underlying storage issues. If this virtual machine is configured to be highly available, ensure that the virtual machine is running on some other host before clicking OK)。
    在您单击“确定”后,系统会生成崩溃文件并关闭此虚拟机。

    解决办法:无。

  • 在创建新会话时,NFS 4.1 客户端失去与服务器的同步
    在与服务器中断连接一段时间后,当尝试创建新会话时,NFS 4.1 客户端可能失去与服务器的同步。当发生该情况时,vmkernel.log 文件中会包含一系列简短的警告消息,指出 NFS41 CREATE_SESSION 请求由于 NFS4ERR_SEQ_MISORDERED 而失败。

    解决办法:执行下面的步骤序列。

    1. 尝试卸载受影响的文件系统。如果在卸载时没有打开任何文件,则此操作会成功,并且 NFS 客户端模块会清除其内部状态。然后可以重新挂载被卸载的文件系统,并继续执行正常操作。

    2. 关闭连接到文件系统 IP 地址的网卡,并使其持续断开一段时间以确保几个服务器租期过期。五分钟应已足够。然后可以重新启动网卡。此时可以继续执行正常操作。

    3. 如果上述步骤失败,请重新引导 ESXi 主机。

  • NFS 4.1 客户端失去与 NFS 服务器的同步,并且即使重置会话也无法恢复连接
    在与服务器中断连接一段时间后,NFS 4.1 客户端可能会失去与服务器的同步,并且即使重置会话也无法恢复与服务器的同步连接。此问题是由 EMC VNX 服务器问题导致的。如果发生这种情况,vmkernel.log 文件会记录一系列简化的警告消息,指出 NFS41: NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug

    解决办法:要终止此会话,请卸载并重新挂载所有数据存储。

  • ONTAP Kerberos 卷变得无法访问或遇到虚拟机 I/O 故障
    当 NetApp 服务器接收的 RPCSEC_GSS 请求的顺序错误时,则不会做出响应。这将导致相应的 I/O 操作停止(直到被强行终止),并且客户机操作系统可能会停止或遇到 I/O 错误。此外,根据 RFC 2203 和 RPCSEC_GSS 上下文,客户端最多只能有数量等于 seq_window(如果是 ONTAP,则为 32)的未处理请求,并且必须等待,直到最慢的未处理请求被服务器处理完成。因此,服务器永远不会响应顺序错误的 RPCSEC_GSS 请求,并且客户端将在未处理请求数达到最大 seq_window 之后停止向服务器发送请求。这将导致卷无法访问。

    解决办法:无。检查最新的硬件兼容性列表 (HCL) 以找到已解决该问题的受支持的 ONTAP 服务器。

  • 无法在 EMC VNX 中的 NFS 4.1 数据存储设备上创建大于 1 TB 的虚拟磁盘
    固件版本为 7.x 的 EMC VNX 中的 NFS 4.1 存储设备仅支持 32 位文件格式。这导致无法在 NFS 4.1 数据存储设备上创建大于 1 TB 的虚拟机文件。

    解决办法:将 EMC VNX 阵列更新为版本 8.x。

  • 在固件升级期间,由 EMC VNX 存储支持的 NFS 4.1 数据存储变得无法访问
    当将 EMC VNX 存储升级到新的固件版本后,ESXi 主机上挂载的 NFS 4.1 数据存储将变得无法访问。发生此故障是因为 VNX 服务器在固件升级后更改了其主设备编号。主机上的 NFS 4.1 客户端预期在其建立与服务器的连接后不会发生主备编号变更,因此导致数据存储永久性地无法访问。

    解决办法:在升级固件版本前,卸载所有从 VNX 服务器导出的 NFS 4.1 数据存储。

  • 如果 ESXi 主机使用不同的安全机制来挂载相同的 NFS 4.1 数据存储设备,则虚拟机可能出现故障
    如果 ESXi 主机使用不同的安全机制(AUTH_SYS 和 Kerberos)挂载相同的 NFS 4.1 数据存储设备,则放置在该数据存储上的虚拟机可能会遇到问题并出现故障。例如,当您尝试将虚拟机从 host1 迁移到 host2 时操作可能失败,并显示权限被拒错误。当尝试从 host2 访问 host1 的虚拟机时也可能会遇到这些错误。

    解决办法:请确保挂载 NFS 4.1 卷的所有主机都使用相同的安全类型。

  • 无法使用 Kerberos 验证方式将只读文件复制到 NFS 4.1 数据存储
    从源文件复制数据到目标文件时可能出现此故障。目标文件仍保持为空。

    解决办法:无。

  • 创建数据存储集群时无法保证 NFS 4.1 安全类型的一致性
    在创建数据存储集群时,vSphere 不会验证并强制实施 NFS 4.1 安全类型的一致性。因此,同一集群中可包括使用不同安全类型(AUTH_SYS 和 Kerberos)的数据存储。如果将虚拟机从采用 Kerberos 验证方式的数据存储迁移到采用 AUTH_SYS 验证方式的数据存储,则该虚拟机的安全级别将降低。
    vMotion、Storage vMotion、DRS 和 Storage DRS 等功能均存在此问题。

    解决办法:如果您的虚拟机要求使用 Kerberos 验证方式,请确保组成同一集群的所有 NFS 4.1 卷均只使用 Kerberos 安全类型。请不要包括 NFS 3 数据存储,因为 NFS 3 仅支持 AUTH_SYS。

Virtual SAN 问题

  • 新问题由于超时,Virtual SAN 运行状况 UI 无法显示
    访问 Virtual SAN 集群 > 监控 > Virtual SAN > 运行状况下的 Virtual SAN 运行状况 UI 时,此 UI 无法显示。可能的原因是 vSphere ESX Agent Manager 挂起并导致超时。要进行确认,请打开位于 /var/log/vmware/vsan-health/vmware-vsan-health-service.log 的 Virtual SAN 运行状况日志,并通过使用字符串 VsanEamUtil.getClusterStatus: 搜索对 vSphere ESX Agent Manager 服务的调用。

    解决办法:通过使用 vSphere Web Client 重新启动 vSphere ESX Agent Manager 服务并刷新 Virtual SAN 运行状况 UI。

  • 新问题使用第三方 lsi_msgpt3 驱动程序时,Virtual SAN 磁盘可维护性不起作用
    如果集群的磁盘空间使用量超过 50%,则在又一个主机发生故障后,通过Virtual SAN 集群 > 监控 > Virtual SAN > 运行状况 > 限制运行状况对两节点或三节点 Virtual SAN 集群执行运行状况检查时将显示红色,并会误报 vCenter Server 事件或警报。

    解决办法:将一个或多个主机添加到 Virtual SAN 集群或添加更多磁盘,以将集群的磁盘空间使用量降低到 50% 以下。

  • 新问题对两节点或三节点 Virtual SAN 集群执行限制运行状况检查时显示红色
    Virtual SAN 磁盘可维护性插件 lsu-lsi-lsi-msgpt3-plugin 支持获取设备位置并打开或关闭磁盘 LED 的操作。VMware lsi_msgpt3 内置驱动程序支持可维护性插件。但是,如果使用第三方异步驱动程序,该插件不起作用。

    解决办法:使用 VMware 内置 lsi_msgpt3 驱动程序版本 06.255.10.00-2vmw 或更高版本。

Virtual Volumes 问题

  • 由于 Virtual Volumes VASA 提供程序使用了错误的证书,导致无法创建虚拟数据存储
    有时,Virtual Volumes VASA 提供程序使用的自签名证书可能错误地将 KeyUsage 扩展定义为关键,而未设置 keyCertSign 位。在此情况下,提供程序注册会成功。但是,您无法从 VASA 提供程序所报告的存储容器中创建虚拟数据存储。

    解决办法:VASA 提供程序在注册时所使用的自签名证书不应在没有设置 keyCertSign 位的情况下将 KeyUsage 扩展定义为关键。

一般存储问题

  • 连接到某些具有特定固件版本的存储阵列的 ESXi 6.0 Update 2 主机可能会出现 I/O 超时并造成后续操作停止
    当连接到某些具有特定固件版本的存储阵列的 ESXi 6.0 Update 2 主机向存储阵列发送 SMART 数据请求时,如果该阵列以 PDL 错误作为响应,则 6.0 Update 2 中的 PDL 响应行为可能会导致不断地重试这些失败的命令,从而阻止其他命令。此错误会导致出现广泛的 I/O 超时并造成后续操作停止。

    此外,在重新引导后,ESXi 主机可能需要较长时间才能重新连接到 vCenter Server,或者 vCenter Server 中的主机可能会进入无响应状态。与存储相关的任务(例如 HBA 重新扫描)可能需要很长时间才能完成。

    解决办法:要解决此问题,请参见知识库文章 2133286

  • 如果新虚拟机是从现有磁盘创建的,vSphere Web Client 会错误地将存储策略显示为已附加
    如果使用 vSphere Web Client 从现有磁盘创建新虚拟机并且在设置磁盘时指定了存储策略,当您选择新虚拟机 --> 单击虚拟机策略 --> 编辑虚拟机存储策略时,筛选器显示为待附加,但该筛选器实际已附加。可以检查 .vmdk 文件或 vmkfstools --iofilterslist <vmdk-file> 以验证该筛选器是否已附加。

    解决办法:创建新虚拟机之后、打开电源之前,请通过单击虚拟机策略 --> 编辑虚拟机存储策略将该筛选器添加到 vmdk。

  • NFS 查找操作返回 NFS 失效错误
    在 NFS 数据存储中部署大量虚拟机时,虚拟机部署因存在争用情况而失败,并显示类似于以下内容的错误消息:

    失效 NFS 文件句柄 (Stale NFS file handle)

    解决办法:重新启动查找操作。有关详细信息,请参见知识库文章 2130593

  • 使用 QLogic iSCSI 适配器时,在 Dell EqualLogic LUN 上创建 VMFS 数据存储的尝试失败。
    无法在通过 QLogic iSCSI 适配器检测到的 Dell EqualLogic 存储设备上创建 VMFS 数据存储。
    当尝试失败时,vCenter Server 会显示如下错误消息:无法创建文件系统,请参见 VMkernel 日志获取更多详细信息:连接超时 (Unable to create Filesystem, please see VMkernel log for more details: Connection timed out)。VMkernel 日志中包含连续的 iscsi 会话被阻止 (iscsi session blocked) 以及已取消阻止 iscsi 会话 (iscsi session unblocked) 消息。Dell EqualLogic 存储阵列的监控日志中会显示针对 QLogic 启动器 IQN 名称的从启动器接收的包中出现协议错误 (protocol error in packet received from the initiator) 消息。

    当使用下列组件时会遇到此问题:

    • Dell EqualLogic 阵列固件:V6.0.7

    • QLogic iSCSI 适配器固件版本:3.00.01.75

    • 驱动器版本:5.01.03.2-7vmw-debug

    解决办法:在 QLogic iSCSI 适配器上启用 iSCSI ImmediateData 适配器参数。默认情况下会关闭此参数。您无法通过 vSphere Web Client 或 esxcli 命令更改此参数。要更改此参数,请使用供应商提供的软件,例如 QConvergeConsole CLI。

  • 安装有 Emulex OneConnect HBA 的 ESXi 主机无法引导
    当在 ESXi 主机中安装了 Emulex OneConnect HBA 后,主机可能无法引导。此故障是由于 Emulex 固件问题导致的。

    解决办法:要解决此问题,请联系 Emulex 以获取适用于您的 HBA 的最新固件。

    如果要继续使用旧固件,请按照以下步骤操作以避免引导故障:

    1. 加载 ESXi 时, 在引导 ESXi 内核前按 Shift+O 组合键。

    2. 按原样保留当前引导选项,并在 dmaMapperPolicy=false 之后添加一个空格。

  • 在 APD 期间 Flash Read Cache 不加速 I/O。
    当被配置为 Flash Read Cache 虚拟闪存资源的闪存磁盘发生故障或不可访问时,或者当磁盘存储无法从主机进行访问时,主机上的 Flash Read Cache 实例将无效并且无法加速 I/O。因此,在主机与存储之间重新建立连接后,缓存将不存储旧数据。连接中断状态可能为暂时的全部路径异常 (APD),或者是永久的永久设备丢失 (PDL)。此状态会一直持续,直到虚拟机被重启。

    解决办法:可以重启虚拟机,以恢复使用 Flash Read Cache 的 I/O 加速功能。

  • 全部路径异常 (APD) 或路径故障切换可能会导致系统故障
    在共享 SAS 环境中,如果磁盘已由 lsi_msgpt3 驱动程序声明,并且这些磁盘正在进行高负荷 I/O 操作,则 APD 或路径故障切换可能会导致系统故障。

    解决办法:无

  • 频繁使用 SCSI 命令停止进程可能会导致系统故障
    在高负荷 I/O 操作状态下,频繁使用 SCSI 命令停止进程会导致 MegaRAID 控制器的响应变得很慢。如果在之前上下文中已释放的资源引用发生异常中断,则可能导致系统故障。

    解决办法:无

  • 更改 IQN 时导致 iSCSI 连接失败且数据存储设备无法访问
    如果您更改 iSCSI 适配器的 IQN,而此时该适配器上的 iSCSI 会话仍处于活动状态,则会导致此问题。

    解决办法:在更改 iSCSI 适配器的 IQN 时,该适配器上不应该有会话处于活动状态。在更改 IQN 前移除适配器上的所有 iSCSI 会话及目标。

  • nvmecli 联机和脱机操作无法始终生效
    当您执行 nvmecli device online -A vmhba* 操作以使 NVMe 设备联机时,该操作似乎已成功。但是,此设备可能仍处于脱机状态。

    解决办法:通过运行 nvmecli device list 命令检查 NVMe 设备的状态。

服务器配置问题
  • 在将有状态主机的主机配置文件应用到使用 Auto Deploy 置备的主机时,修复操作失败
    将有状态部署主机的主机配置文件应用到使用 Auto Deploy 置备的、无本地存储的主机(无状态主机)时,修复操作尝试失败,并显示以下其中一条错误消息:

    • 您主机中没有位于 PCI 总线地址 sxxxxxxxx.xx 的 vmhba 设备 (The vmhba device at PCI bus address sxxxxxxxx.xx is not present on your host)。您必须关闭主机,然后向 PCI 插槽 yy 插入卡。 卡类型应与引用主机中的卡类型一致。

    • 未找到任何有效的 coredump 分区。

    解决办法:在主机配置文件中禁用引起问题的插件(例如,设备别名配置或核心转储配置),然后修复该主机配置文件。

  • 向主机应用具有静态 IP 的主机配置文件导致合规性错误
    如果从具有 DHCP 网络配置的主机提取主机配置文件,然后编辑此主机配置文件使其具有静态 IP 地址,则将该主机配置文件应用到其他主机时发生合规性错误,并显示以下消息:

    IPv4 路由数不匹配。(Number of IPv4 routes did not match.)

    解决办法:从 DHCP 主机提取主机配置文件之前,对主机进行配置,使其具有静态 IP 地址。

  • 如果热添加网络资源过载的虚拟网络适配器,可能导致虚拟机被关闭。
    在启用了 Network I/O Control 功能的 vSphere Distributed Switch 中,已打开电源的虚拟机会根据主机的物理网络适配器的虚拟机系统流量预留策略配置带宽预留。您可以向虚拟机设置网络带宽预留(该预留超出主机的物理网络适配器上的可用带宽)热添加网络适配器。

    当热添加网络适配器时,VMkernel 会启动“快速挂起和恢复”(FSR) 进程。由于虚拟机请求超出可用量的网络资源,因此 VMkernel 会遇到 FSR 进程的故障路径。该故障路径中的错误将导致虚拟机关闭电源。

    解决办法:在向打开电源的虚拟机中添加网络适配器时,不要配置带宽预留。

VMware HA 和 Fault Tolerance 问题
  • Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台不支持旧版 Fault Tolerance (FT)
    Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台不支持旧版 FT。启用单处理器旧版 Fault Tolerance 之后,尝试打开虚拟机电源将失败。

    解决办法:无。

客户机操作系统问题
  • 在进行热插拔后尝试在 NVMe PCIe SSD 设备上启用直通模式可能失败
    要通过 vSphere Web Client 在 SSD 设备上启用直通模式,您选择一个主机,单击管理选项卡,然后单击设置,导航到硬件部分,单击 PCI 设备 > 编辑,从可以启用直通模式的活动设备列表中选择一个设备,单击确定。但是,当您将新的 NVMe 设备以热插拔方式连接到没有安装 PCIe NVMe 驱动器的 ESXi 6.0 主机时,新的 NVMe PCIe SSD 设备无法启用直通模式,且不会显示在可用直通设备列表中。

    解决办法:重新启动您的主机。您也可以在 ESXi 主机上运行命令。

    1. 以 root 用户身份登录。

    2. 运行命令
      /etc/init.d/hostd start

受支持硬件问题
  • 对于 HP 服务器上的 Avago 控制器,在运行 esxcli 以获取磁盘位置时,所显示的结果不正确
    对于 HP 服务器上的 Avago 控制器,运行 esxcli storage core device physical get 后显示的结果不正确。

    例如,如果运行以下命令:
    esxcli storage core device physical get -d naa.5000c5004d1a0e76
    系统将返回以下结果:
    Physical Location: enclosure 0, slot 0

    该插槽在物理服务器上的实际标签为 1。

    解决办法:仔细检查 HP 服务器上的插槽。由于 HP 服务器上的插槽编号从 1 开始,因此必须增加命令返回的插槽编号,这样才能显示正确结果。

CIM 和 API 问题
  • sfcb-vmware_raw 可能会失败
    由于分配的最大默认插件资源组内存不足,因此 sfcb-vmware_raw 可能会失败。

    解决办法:使用以下命令针对 sfcbd 插件的内存限制添加用户变量 CIMOemPluginsRPMemMax,然后重新启动 sfcbd 以使新插件值生效:

    esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

    XXX 是指要分配的内存限制。此值应介于最小值 (175) 与最大值 (500) 之间。

check-circle-line exclamation-circle-line close-line
Scroll to top icon