ESXi 6.0 Update 3 | 2017 年 7 月 11 日 | ISO 内部版本 5572656

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

ESXi 6.0 的早期版本

各个版本的发行说明中分别描述了 ESXi 6.0 的功能和已知问题。ESXi 6.0 的早期版本的发行说明包括:

国际化

VMware ESXi 6.0 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文
  • 西班牙语
  • 繁体中文

VMware vSphere 6.0 的组件(包括 vCenter Server、ESXi、vSphere Web Client 和 vSphere Client)不接受非 ASCII 输入。

兼容性

ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 VMware 产品互操作性列表以了解有关受支持的管理和备份代理的信息。

vSphere Web Client 与 vCenter Server 打包在一起。vSphere Client 可以从模块 ISO 文件中包含的 VMware vCenter 自动运行菜单进行安装 。

ESXi 的硬件兼容性

要查看与 vSphere 6.0 兼容的处理器、存储设备、SAN 阵列和 I/O 设备列表,请参见《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

ESXi 的设备兼容性

要确定哪些设备与 ESXi 6.0 兼容,请参见《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

某些设备已在 ESXi 6.0 上弃用,并且不再受支持。在升级过程中,设备驱动程序安装在 ESXi 6.0 主机上。虽然设备的驱动程序仍可以在 ESXi 6.0 中运行,但是设备将不受 ESXi 6.0 支持。有关 ESXi 6.0 上已弃用且不再支持的设备列表,请参见知识库文章 2087970

ESXi 的第三方交换机兼容性

VMware vSphere 6.0 现在支持 Cisco Nexus 1000V。vSphere 要求 NX-OS 版本最低为 5.2(1)SV3(1.4)。有关 Cisco Nexus 1000V 的详细信息,请参见 Cisco 发行说明。在以前的 vSphere 版本中,不支持 Ciscso Nexus 1000V AVS 模式。

ESXi 的客户机操作系统兼容性

要确定与 vSphere 6.0 兼容的客户机操作系统,请参见《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

 

ESXi 的虚拟机兼容性

ESXi 6.0 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 6.0 上使用此类虚拟机,请升级虚拟机兼容性。请参见《vSphere 升级》文档。

此版本的安装与升级

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的指导,请阅读《vSphere 安装和设置》文档。

虽然安装过程很简单,但是仍须执行若干后续配置步骤。请阅读以下文档:

建议的 vSphere 6.0 部署模型

VMware 只建议使用两种部署模型:

  • 具有嵌入式 Platform Services Controller 部署的 vCenter Server。如果需要在数据中心内部署一个或多个独立 vCenter Server 实例,建议使用此模型。建议不要在这些具有嵌入式 Platform Services Controller 部署的 vCenter Server 模型之间进行复制。

  • 具有外部 Platform Services Controller 部署的 vCenter Server。只有当需要链接多个 vCenter Server 实例,或需要减少 Platform Services Controller 在数据中心的内存占用量时,才建议使用此模型。支持在这些具有外部 Platform Services Controller 部署的 vCenter Server 模型之间进行复制。

有关安装和配置 vCenter Server 的指导,请阅读《vSphere 安装和设置》文档。

阅读 vSphere 6.0 及其兼容的 VMware 产品的更新顺序,了解更新 vSphere 组件应采用的正确顺序。

此外,有关安装和配置 vCenter Server 的指导信息,请阅读知识库文章 2108548

vCenter 主机操作系统信息

请阅读知识库文章 2091273

备份和还原使用外部 Platform Services Controller 部署的 vCenter Server 和 vCenter Server Appliance

尽管《vSphere 安装和设置》文档中的声明限制您尝试备份和还原使用外部 Platform Services Controller 部署的 vCenter Server 和 vCenter Server Appliance,您仍然可以按照知识库文章 2110294 中的步骤执行此任务。

从嵌入式 Platform Services Controller 迁移到外部 Platform Services Controller

具有嵌入式 Platform Services Controller 部署的 vCenter Server 不能自动迁移到具有外部 Platform Services Controller 部署的 vCenter Server。对此迁移实用程序的测试未完成。

在安装 vCenter Server 之前,确定所需的部署选项。如果复制设置程序需要使用多个 vCenter Server,应始终部署具有外部 Platform Services Controller 部署的 vCenter。

迁移第三方解决方案

有关使用第三方自定义进行升级的信息,请参见《vSphere 升级》文档有关使用 Image Builder 创建自定义 ISO 的信息,请参见《vSphere 安装和设置》文档

禁止对不支持的 CPU 进行升级和安装

vSphere 6.0 仅支持在 2006 年 6 月(第三季度)以后推出的处理器。与 vSphere 5.x 所支持的处理器相比较,vSphere 6.0 不再支持以下处理器:

  • AMD Opteron 12xx 系列
  • AMD Opteron 22xx 系列
  • AMD Operton 82xx 系列

在安装或升级过程中,安装程序检查主机 CPU 与 vSphere 6.0 的兼容性。如果您的主机硬件不兼容,将显示包含不兼容性说明消息的紫色屏幕,并且 vSphere 6.0 安装过程会停止。

此版本的升级说明

有关升级 vCenter Server 和 ESX/ESXi 主机的说明,请参见《vSphere 升级》文档。

VMware vSphere 6.0 的开源组件

有关适用于 vSphere 6.0 中分发的开源软件组件的版权声明和许可证,请访问 http://www.vmware.com。您需要登录您的 My VMware 帐户。然后在下载菜单中选择 vSphere。在开源选项卡中,还可以下载需向 vSphere 最新可用版本提供其源代码或源代码变更的所有 GPL、LGPL 或其他类似许可证的源文件。

产品支持注意事项

  • vCenter Server 数据库。在 vSphere 6.0 版本中,作为 vCenter Server Appliance 的外部数据库的 Oracle 11g 和 12c 已被弃用。VMware 继续支持在 vSphere 6.0 中将 Oracle 11g 和 12c 用作外部数据库。在将来的主要版本中,VMware 不再支持将 Oracle 11g 和 12c 用作 vCenter Server Appliance 的外部数据库。

  • vSphere Web Client。在 vSphere 6.0 Web Client 中,对象的监控选项卡中不再提供存储报告选择。

  • vSphere Client。vSphere 6.0 Client 中不再提供存储视图选项卡。

  • Site Recovery Manager:早于 SRM 6.5 的 Site Recovery Manager (SRM) 版本不支持对位于 ESXi 6.0 上且使用 VMware Tools 版本 10.1 及更高版本的虚拟机执行 IP 自定义和客户机内调用操作。有关更多详细信息,请参见 VMware Tools 问题

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi600-Update03a 包含以下各公告:

修补程序版本 ESXi600-Update03a(仅安全修复版本)包含以下各公告:

修补程序版本 ESXi600-Update03a 包含以下映像配置文件:

修补程序版本 ESXi600-Update03a(仅安全修复版本)包含以下映像配置文件:

已解决的问题

已解决的问题分为以下几组。

备份问题
  • 将现有或新虚拟磁盘热添加到 VVOL 数据存储上已启用 CBT(变更数据块跟踪)的虚拟机 (VM) 时,客户机操作系统可能会停止响应

    将现有或新虚拟磁盘热添加到 VVOL 数据存储上已启用 CBT 的虚拟机时,客户机操作系统可能会停止响应,直到热添加过程完成。虚拟机停止响应的时间取决于要添加的虚拟磁盘的大小。热添加完成后虚拟机将自动恢复。

    本版本已解决该问题。

CIM 和 API 问题
  • SNMP 代理报告的 ifOutErrors 和 ifOutOctets 计数器值有误

    简单网络管理协议 (SNMP) 代理报告 ifOutErrors 和 ifOutOctets 计数器值相同(本应不同)。

    本版本已解决该问题。

  • 对 BMC 硬重置后,IPMI 堆栈无响应

    对底板管理控制器 (BMC) 硬重置后,智能平台管理界面 (IPMI) 堆栈无响应。

    本版本已解决该问题。

  • DDR4 内存模块在 vCenter Server 中的“硬件运行状况”页面显示为“未知”

    Dell 13G 服务器的 DDR4 内存模块在 vCenter Server 中的“硬件状态”页面显示为“未知”。

    本版本已解决该问题。

客户机操作系统问题
  • 使用 PCI passthru 时,主机出现故障并出现紫色诊断屏幕,显示 VMKPCIPassthru_SetupIntrProxy

    对使用 MSI-X 和更新版本 Linux 内核的设备使用 PCI 直通技术时,将出现紫色诊断屏幕,显示 VMKPCIPassthru_SetupIntrProxy。该问题的原因是 PCIPassthruChangeIntrSettings 中的代码。

    本版本已解决该问题。

主机配置文件和 Auto Deploy 问题
  • 无法登录到使用 vSphere Authentication Proxy 通过 Auto Deploy 添加到 Active Directory 域的 ESXi 主机

    使用 vSphere Authentication Proxy 通过 vSphere Auto Deploy 将主机添加到 Active Direcotry 域后,您无法使用 AD 凭据登录到该主机。

    本版本已解决该问题。

国际化问题
  • 虚拟机存储配置文件名称中的非拉丁字符可能显示不正确

    在传递到虚拟卷 VASA 提供程序之前,UTF-8 字符处理不当。因此,VASA 提供程序未识别或未正确处理或显示使用国际字符的虚拟机存储配置文件。

    本版本已解决该问题。

其他问题
  • 客户机操作系统可能会速度缓慢或达到 CPU 峰值

    客户机操作系统可能会速度缓慢或达到 CPU 峰值,该现象会在禁用客户机操作系统中的 ASLR 并执行 FSR 后消失。

    以下进程可能会导致这种行为:
    1.在客户机操作系统中的不同虚拟地址遇到的多个用户级 CPUID/RDTSC 指令的转换填充了您的转换缓存。
    2.检查现有转换时,虚拟机监控程序使用分散性差的哈希函数。

    将 ESXi 主机升级到包含修补程序的版本之前,禁用 ASLR 可暂时解决该问题。本版本已解决该问题。

  • 在销毁初始分配大小为 64 MB 或更大的物理连续 vmkernel 堆期间,ESXi 主机出现故障并出现紫色屏幕或警告消息

    由于开销内存核算错误,在销毁初始分配大小为 64 MB 或更大的物理连续 vmkernel 堆期间,ESXi 主机出现故障并出现紫色屏幕,或在卸载时显示警告消息。

    出现以下警告消息:

    Heap: 2781: Non-empty heap (<heapName>) being destroyed (avail is <size>, should be <size>).

    本版本已解决该问题。

  • 您可能会在 hostd 日志中看到有关 lunTimestamps.log 文件的锁争用错误消息

    要更新 ESXi 主机上每个 LUN 的上次查看时间戳,进程必须获取对 /etc/vmware/lunTimestamps.log 文件的锁定。每个进程中保持锁定的时间比所需的时间长。如果过多此类进程尝试更新 /etc/vmware/lunTimestamps.log 文件,它们可能会导致此文件上出现锁争用。如果 hostd 是尝试获取锁定的进程之一,则 ESXi 主机可能会与 vCenter Server 断开连接或停止响应,并在 hostd 日志中显示锁争用错误消息(在 lunTimestamps.log 文件中)。 您可能会看到类似的错误消息:

    Error interacting with configuration file /etc/vmware/lunTimestamps.log: Timeout while waiting for lock, /etc/vmware/lunTimestamps.log.LOCK, to be released.Another process has kept this file locked for more than 30 seconds.The process currently holding the lock is ().This is likely a temporary condition.Please try your operation again.

    注意:

    • process_name 是当前对 /etc/vmware/lunTimestamps.log 持有锁定的进程或服务。例如,smartd、esxcfg-scsidevs、localcli 等。
    • PID 是其中任何服务的进程 ID。

     

    本版本已解决该问题。

  • 虚拟机可能会自动关闭电源并显示错误“MXUserAllocSerialNumber: 锁定过多 (MXUserAllocSerialNumber: too many locks)”

    在正常虚拟机操作期间,VMware Tools 服务(版本 9.10.0 及更高版本)将创建 vSocket 连接以与 Hypervisor 交换数据。创建大量此类连接后,Hypervisor 可能会用尽锁定序列号且虚拟机会关闭电源并显示错误。

    本版本已解决该问题。

  • 系统日志中出现日志涌出

    每当内核 API vmk_ScsiCmdGetVMUuid 无法获取有效的虚拟机 UUID 时,它将在系统日志中显示类似于以下内容的错误消息:

    2016-06-30T16:46:08.749Z cpu6:33528)WARNING: World: vm 0: 11020: vm not found

    本版本已通过有条件地调用函数 World_GetVcUuid 解决了该问题,但这导致了内核 API vmk_ScsiCmdGetVMUuid 中出现日志涌出。

网络连接问题
  • ESXi 主机重新连接到 vCenter Server 时可能会停止响应

    如果将 ESXi 主机从 vCenter Server 断开连接且该主机上的部分虚拟机使用 LAG,则在 vCenter Server 端上重新创建相同 LAG 后将 ESXi 主机重新连接到 vCenter Server 时可能会停止响应,您可能会看到类似于以下内容的错误:
    0x439116e1aeb0:[0x418004878a9c]LACPScheduler@ # +0x3c stack: 0x417fcfa00040 0x439116e1aed0:[0x418003df5a26]Net_TeamScheduler@vmkernel#nover+0x7a stack: 0x43070000003c 0x439116e1af30:[0x4180044f5004]TeamES_Output@ # +0x410 stack: 0x4302c435d958 0x439116e1afb0:[0x4180044e27a7]EtherswitchPortDispatch@ # +0x633 stack: 0x0

    本版本已解决该问题。

  • 网络统计信息在 vCenter Server 网络性能图表中显示异常数据包计数

    网络数据包计数计算可能由多个 CPU 处理。此计算可能会引发网络统计信息计算错误,并在网络性能图表中显示错误的数量。

    本版本已解决该问题。

  • 配置为使用 EFI 固件的虚拟机无法在某些 DHCP 环境中进行 PXE 引导

    如果 DHCP 环境通过 IP 单播来做出响应,则尝试进行 PXE 引导时配置为使用 EFI 固件的虚拟机将无法获取 IP 地址。EFI 固件无法接收 IP 单播发送的 DHCP 回复。

    本版本已解决该问题。

  • 所有虚拟机会因 Etherswitch 堆内存不足失去连接

    Etherswitch 堆中会发生大小介于 32 字节到 63 字节之间的内存泄漏。堆内存不足时,虚拟机将失去连接。

    本版本已解决该问题。

  • ESXi 主机出现故障并在 DVFilter vMotion 级别出现紫色诊断屏幕,同时报告“PCPU 25: no heartbeat (3/3 IPIs received)”错误

    在以下条件下重新引导 ESXi 主机时,主机可能会出现故障并出现紫色诊断屏幕和 PCPU xxx: no heartbeat 错误。
     

    •  在 NSX 环境中使用 vSphere Network Appliance (DVFilter)
    •  在 DVFilter 控制下使用 vMotion 迁移虚拟机

    本版本已解决该问题。

  • 使用即时克隆技术的虚拟桌面基础架构 (VDI) 池中的虚拟机 (VM) 失去与客户机侦测服务的连接

    使用即时克隆的现有虚拟机和新虚拟机(无论是否使用即时克隆创建)都将失去与客户机侦测主机模块的连接。因此,虚拟机将不受保护且新的客户机侦测配置无法转发到 ESXi 主机。您将在 vCenter Server 用户界面中看到“客户机侦测未就绪 (Guest introspection not ready)”警告。

    本版本已解决该问题。

  • VMkernel 日志包括一个或多个“Couldn't enable keep alive”警告

    VMware NSX 和合作伙伴解决方案通过 VMCI 插槽 (vsock) 进行通信期间,出现“无法保持活动状态 (Couldn't enable keep alive)”警告。VMkernel 日志会立即忽略这些重复的警告,因为可以将其放心地忽略。

    本版本已解决该问题。

  • 使用 e1000/e1000e vNIC 的虚拟机网络连接丢失可能导致内核出现严重错误

    对于使用 e1000/e1000e vNIC 的虚拟机,e1000/e1000e 驱动程序指示 e1000/e1000e vmkernel 模拟跳过描述符(传输描述符地址和长度为 0),则会失去连接且虚拟机可能进入内核严重错误状态。

    本版本已解决该问题。

  • ESXi 连接到配置了 LACP 的 vSphere Distributed Switch 时,vSphere vMotion 出现故障

    如果 ESXi 主机连接到配置了 LACP 的 vSphere Distributed Switch,以及如果 LAG 的上行链路处于链路已断开状态,则尝试使用 vSphere vMotion 时,您会看到类似以下内容的警告:当前已连接的网络接口“网络适配器 1”使用无法访问的网络“DSwitchName”(Currently connected network interface 'Network Adapter 1' uses network 'DSwitchName', which is not accessible)。

    本版本已解决该问题。

  • 关闭期间 ESXi 主机可能变为不可用

    如果 ESXi 主机上使用的是 IPv6 地址类型,则关闭期间 ESXi 主机可能变为不可用

    将 ESXi 主机升级到版本 6.0 Update 3a。

安全问题
  • Pixman 库更新

    Pixman 库将更新到 0.35.1 版本。

  • ESXi 上的 Likewise 堆栈不支持 SMBv2

    Windows 2012 域控制器支持 SMBv2,而 ESXi 上的 Likewise 堆栈仅支持 SMBv1。

    在此版本中,已使 ESXi 上的 Likewise 堆栈支持 SMBv2。

    本版本已解决该问题。

  • VMware Tools 更新

    VMware Tools 已更新到 10.1.5 版本。有关详细信息,请参见 VMware Tools 10.1.5 发行说明

    VMware Tools 10.1.5 解决了开源组件中的安全问题。

  • 更新 OpenSSL

    OpenSSL 软件包已更新到版本 openssl-1.0.2k 以解决 CVE-2017-3731、CVE-2017-3730、CVE-2017-3732 和 CVE-2016-7055。

  • Python 更新

    Python 已更新到版本 2.7.13 以解决 CVE-2016-2183 和 CVE-2016-1000110。

服务器配置问题
  • Vpxd 服务崩溃且 vSphere Web Client 用户界面无法连接到 vCenter Server 并进行更新

    在某些条件下,VMODL 对象的配置文件路径处于未设置状态。网络配置的应答文件验证期间,该条件会触发序列化问题,从而导致 vpxd 服务崩溃。

    本版本已解决该问题。

  • 无法通过主机配置文件将 ESXi 6.x 主机加入 Active Directory

    尝试使用主机配置文件将 ESXi 6.x 主机加入 Active Directory 域时,应用程序挂起或失败并出现错误。

    本版本已解决该问题。

存储问题
  • vm-support 命令运行时出现非致命错误

    vm-support 命令使用名为 smartinfo.sh 的脚本来收集 ESXi 主机上每个存储设备的 SMART 数据。vm-support 命令为收集支持数据的每个命令实施 20 秒超时。但是,smartinfo.sh 需要 20 秒以上才能完成,这会导致 vm-support 命令运行时出现以下错误:cmd/usr/lib/vmware/vm-support/bin/smartinfo.sh 因最后 10 秒无进展导致 20 秒后超时 (读取 0 字节) (cmd /usr/lib/vmware/vm-support/bin/smartinfo.sh timed out after 20 seconds due to lack of progress in last 10 seconds (0 bytes read))。

    本版本已解决该问题。

  • hostd 因库未初始化而崩溃

    尝试将主机重新添加到 vCenter Server 时,如果主机启用了 IOFilter,且该主机上存在具有已启用更改块跟踪 (CBT) 的虚拟机,则 hostd 可能会崩溃。筛选器库使用轮询和工作线程库。在轮询和工作线程库之前初始化筛选器库时,它将无法正常工作并会崩溃。

    本版本已解决该问题。

  • ESXi 主机上的虚拟机在 SeSparse 快照上运行时,该主机可能会停止响应

    创建 SEsparse 格式的虚拟机快照后,如果快照中存在大量不同的写入 IOPS,您可能会遇到罕见的争用情况。该争用情况可能会使 ESXi 主机停止响应。

    本版本已解决该问题。

  • 运行特定 I/O 工作负载时,使用 SEsparse 虚拟磁盘格式的虚拟机可能会停止响应

    在多个线程包含特定类型 I/O 工作负载的 I/O 操作期间,具有基于 SEsparse 的快照的虚拟机可能会停止响应。

    本版本已解决该问题。

  • 存储配置文件更改操作期间,从错误中恢复会导致配置文件 ID 损坏

    在存储配置文件更改操作期间,如果虚拟卷 VASA 提供程序返回错误,vSphere 会尝试撤消该操作,但在此过程中配置文件 ID 会遭到损坏。

    本版本已解决该问题。

  • vSphere Web Client 中为 vVol 数据存储显示的读/写延迟不正确

    vSphere Web Client 中为 vVol 数据存储显示的每台主机的读/写延迟不正确。

    本版本已解决该问题。

  • Auto Deploy 环境中的主机配置文件操作失败

    Auto Deploy 环境中的主机配置文件操作(如主机配置文件的合规性检查、修复和克隆)失败。
    此时会出现以下场景:

    1. 使用 Auto Deploy 对 ESXi 主机执行全新安装期间
      • 主机配置文件的合规性检查失败,并显示类似消息:
        主机不可用于检查合规性 (Host is unavailable for checking compliance)
      • 主机配置文件修复(应用主机配置文件)失败并显示以下错误:
        调用 vCenter Server <vCenter_hostname> 上对象“HostProfileManager”的“HostProfileManager.GenerateConfigTaskList”失败 (Call "HostProfileManager.GenerateConfigTaskList" for object "HostProfileManager" on vCenter Server <vCenter_hostname> failed)
    2. 更改主机配置文件的引用主机失败并显示以下错误:
      调用 vCenter Server <vCenter_hostname> 上对象“HostProfileManager”的“HostProfileManager.CreateProfile”失败 (Call "HostProfileManager.CreateProfile" for object "HostProfileManager" on vCenter Server <vCenter_hostname> failed)。
    3. 克隆主机配置文件失败并显示以下错误:
      调用 vCenter Server <vCenter_hostname> 上对象“HostProfileManager”的“HostProfileManager.CreateProfile”失败 (Call "HostProfileManager.CreateProfile" for object "HostProfileManager" on vCenter Server <vCenter_hostname> failed)。配置文件不具有关联的引用主机 (Call "HostProfileManager.CreateProfile" for object "HostProfileManager" on vCenter Server <vCenter_hostname> failed. The profile does not have an associated reference host)

    在位于 /var/log/syslog.log 的日志文件中,将显示失败的操作及以下错误:
    错误: profileData 仅来自 VerifyMyProfilesPolicies 中支持的单个配置文件实例 (Error: profileData from only a single profile instance supported in VerifyMyProfilesPolicies)。

    本版本已解决该问题。

  • 含有已配置 VMware vFlash Read Cache (VFRC) 的虚拟机的 ESXi 主机可能会失败并显示紫色屏幕

    当后端存储变慢或不可访问时,含有已配置 VMware vFlash Read Cache (VFRC) 的虚拟机的 ESXi 主机可能会失败并显示紫色屏幕。此故障是由于 VFRC 代码中存在锁定缺陷导致的。

    本版本已解决该问题。

  • SESparse 导致客户机操作系统文件系统损坏

    使用 SESparse 创建快照和克隆虚拟机可能会导致客户机操作系统文件系统损坏。

    本版本已解决该问题。

  • 动态更改设备的队列深度参数会导致 hostd 充满大量事件通知

    Storage I/O Control (SIOC) 更改 LUN 最大队列深度参数时,可插入存储架构 (Pluggable Storage Architecture, PSA) 会向 hostd 发送一个事件通知。在设置过程中,队列深度参数会动态更改,将向 hostd 发送大量事件通知,从而导致出现性能问题,例如 vSphere 任务缓慢或 hostd 与 vCenter Server 断开连接。

    在此版本中,PSA 不会向 hostd 发送任何事件通知

  • 为已启用基于内容读缓存 (Content Based Read Cache, CBRC) 的磁盘重新计算摘要时,从不报告完成百分比计算,而是返回系统错误

    CBRC 筛选器使用 32 位计算来执行计算,并返回每个摘要重新计算请求的完成百分比。对于大型磁盘,哈希数太大足以溢出 32 位计算,从而导致完成百分比不正确。

    本版本已解决该问题。

  • 用户需要为纯存储 FlashArray 型号手动配置 SATP 规则

    对于纯存储 FlashArray 设备,用户必须手动添加 SATP 规则以根据要求设置 SATP、PSP 和 IOPS。

    本版本已解决该问题,ESXi 中已添加新 SATP 规则,针对所有纯存储 FlashArray 型号将 SATP 设置为 VMW_SATP_ALUA、将 PSP 设置为 VMW_PSP_RR、将 IOPS 设置为 1。

    注意:对于无状态 ESXi 安装,如果应用了旧主机配置文件,则在升级后会覆盖新规则。

  • 数据存储卸载失败

    有时,当您尝试从 vCenter Server 卸载 NFS 数据存储时,操作可能会失败并显示错误:NFS 数据存储卸载失败 - 数据存储包含打开的文件,无法卸载 (NFS datastore unmount failure - Datsatore has open files, cannot be unmounted)

    本版本已解决该问题。

  • 使用 Storage vMotion 时,虚拟磁盘的 UUID 可能会更改

    在 vSphere Virtual Volumes 存储上使用 Storage vMotion 时,虚拟磁盘的 UUID 可能会更改。UUID 可标识虚拟磁盘,而更改的 UUID 会让虚拟磁盘显示为一个全新的不同磁盘。UUID 还对客户机操作系统可见,可能会导致驱动器会被错误地识别。

    本版本已解决该问题。

  • 在 ESXi 引导或在 vSAN 中挂载磁盘组期间,您在 vmkernel.log 中看到“Failed to open file”错误消息

    在已启用 vSAN 的 ESXi 主机引导时或在 vSAN 中手动挂载磁盘组期间,您在 vmkernel.log 文件中看到“Failed to open file”错误消息。

    本版本已解决该问题。

  • 如果由于 HBA 驱动程序、控制器、固件、连接或存储拓扑存在任何问题而导致 I/O 或数据包丢弃,磁盘类型为 SESparse 的链接克隆虚拟机可能会挂起

    如果由于 HBA 驱动程序、控制器、固件、连接或存储拓扑存在任何问题而导致 I/O 操作在 HBA 驱动程序层挂起或丢弃,阻塞的 I/O 不会停止,这会造成虚拟机挂起。

    本版本已解决该问题。

  • 系统变得无响应,您可能在 vmkernel.log 文件中收到错误“Issue of delete blocks”

    取消映射命令失败时,由于故障路径中存在内存泄漏,ESXi 主机可能会停止响应。您可能会在 vmkernel.log 文件中收到以下错误消息:FSDisk: 300: Issue of delete blocks failed [sync:0] and the host gets unresponsive

    通过避免内存泄露,本版本已解决该问题。

  • 如果使用 SEsparse 并启用取消映射操作,则客户机操作系统的文件系统可能损坏

    如果使用 SEsparse 并启用取消映射操作以创建虚拟机快照和克隆,当擦除操作(存储取消映射)完成后,客户机操作系统的文件系统可能损坏。虚拟机的完整克隆执行正常。

    本版本已解决该问题。

  • 修改已启用更改块跟踪 (CBT) 的虚拟磁盘的 IOPS 限制可能会失败

    要为虚拟机 (VM) 定义存储 I/O 调度策略,可以通过修改 IOPS 限制为每个虚拟机磁盘配置 I/O 吞吐量。编辑 IOPS 限制时,如果已为虚拟机启用了 CBT,操作将失败并显示错误:调度参数更改失败 (The scheduling parameter change failed)。由于存在此问题,无法更改虚拟机的调度策略。“vSphere 近期任务”窗格中将显示错误消息。

    您可以在 /var/log/vmkernel.log 文件中看到以下错误:

    2016-11-30T21:01:56.788Z cpu0:136101)VSCSI: 273: handle 8194(vscsi0:0):Input values: res=0 limit=-2 bw=-1 Shares=1000 2016-11-30T21:01:56.788Z cpu0:136101)ScsiSched: 2760: Invalid Bandwidth Cap Configuration 2016-11-30T21:01:56.788Z cpu0:136101)WARNING: VSCSI: 337: handle 8194(vscsi0:0):Failed to invert policy
     

    本版本已解决该问题。

  • 无法正常执行取消快照创建任务

    当您尝试取消快照创建任务,但 VASA 提供程序无法取消支持 VVoL 的磁盘上的相关底层操作时,将创建快照 VVoL,并且它将一直存在直到垃圾数据收集将其清理。

    本版本已解决该问题。

  • 无法正常执行取消克隆创建任务

    当您尝试取消克隆创建任务,但 VASA 提供程序无法取消相关底层操作时,vCenter Server 将创建一个新的 VVoL、复制所有数据并报告已成功创建克隆。

    本版本已解决该问题。

受支持硬件问题
  • HPE ProLiant Gen8 服务器上的不可屏蔽的中断 (NMI) 可能会导致使用 ESXi600-201611001 修补程序运行的 ESXi 主机失败,并显示紫色诊断屏幕

    ESXi600-201611001 修补程序包括一项更改,允许 ESXi 禁用 Intel® IOMMU(也称为 VT-d)中断重新映射程序功能。在 HPE ProLiant Gen8 服务器中,禁用此功能会导致 PCI 错误。由于这些错误,平台会生成 NMI,导致 ESXi 主机失败并显示紫色诊断屏幕。

    本版本已解决该问题。

升级和安装问题
  • 使用 SSH 登录到 ESXi 主机要求重新输入密码

    如果将属于某个域的 ESXi 主机从 vSphere 5.5 升级到 6.0,则通过 SSH 连接到 ESXi 主机时,系统将提示您输入密码两次。

    本版本已解决该问题。

vCenter Server、vSphere Web Client 和 vSphere Client 问题
  • 无法在 Chrome 57 中使用 VMware Host Client

    尝试使用 Chrome 57 登录到 VMware Host Client 时,VMware Host Client 会立即报告错误。报告的错误是“Angular Digest in progress”错误。

    本版本已解决该问题。

虚拟机管理问题
  • 删除虚拟机时不会从虚拟机文件夹中删除摘要 VMDK 文件

    基于摘要 VMDK 文件创建链接克隆时,vCenter Server 会将摘要磁盘文件标记为不可删除。由于描述符文件中存在 ddb.deletable = FALSE ddb 条目,因此当您删除相应的虚拟机时,不会从虚拟机文件夹中删除摘要 VMDK 文件。

    本版本已解决该问题。

  • 虚拟机可能变得无响应

    生成虚拟机快照时,虚拟机可能变得无响应。

    本版本已解决该问题。

  • 虚拟机由于活动内存下降可能变得无响应

    如果在 ESXi 主机上运行的虚拟机活动内存降到 1% 以下并降至为零,则该主机可能开始回收内存,即便主机具有足够可用内存也是如此。

    本版本已解决该问题。

    1. 使用 vSphere Web Client 连接到 vCenter Server。
    2. 选择清单中的 ESXi 主机。
    3. 关闭该 ESXi 主机上的所有虚拟机。
    4. 单击设置
    5. 在“系统”标题下,单击高级系统设置
    6. 搜索 Mem.SampleActivePctMin 设置。
    7. 单击编辑
    8. 将该值设置为 1。
    9. 单击确定接受更改。
    10. 打开虚拟机电源。

     

  • ESXi 主机可能会与 vCenter Server 断开连接

    由于存在内存泄露问题,hostd 进程可能会崩溃并显示以下错误: 

    Memory exceeds hard limit.Panic)。

    Hostd 日志将报告大量错误,例如:Unable to build Durable Name

    这种内存泄露问题将导致主机与 vCenter Server 断开连接。

    本版本已解决该问题。

  • 虚拟机在快照整合期间停止响应

    快照整合期间可能会执行精确计算以确定执行整合所需要的存储空间。此精确计算需要很长时间才能完成,因此可能导致虚拟机停止响应。

    本版本已解决该问题。

  • 虚拟机 (VM) 的 vMotion 迁移将挂起一段时间随后失败,并显示超时

    如果虚拟机含有驱动程序(尤其是图形驱动程序)或占用过多内存的应用程序,则会在虚拟机中创建粘滞页。当此类虚拟机将要通过 vMotion 迁移到另一台主机时,由于输入/输出计算挂起不正确,迁移过程将挂起并在随后失败。

    本版本已修复该问题。

vSAN 问题
  • VC 和 RVC 中的 bytsToSync 计算值对于 RAID5/6 对象可能显示不正确

    当前重新同步字节计算高估了 RAID5/6 配置的完全重新同步流量。存在以下任一状况时可能会发生这种情况:

    • 使用“完全数据迁移”或“确保可访问性”撤出模式将节点置于维护模式。
    • 在因集群中出现故障而导致组件丢失后,为该组件创建完整镜像。

    本版本已解决该问题。

  • 系统可能显示一般错误消息,而非用于标识空间不足问题的特定消息

    在某些情况下,系统可能显示一般错误消息,而非用于标识空间不足问题的特定消息。例如,当磁盘空间不足导致出现故障时,您可以看到一条错误消息,例如“存储策略更改失败: 12(无法分配内存)(Storage policy change failure: 12 (Cannot allocate memory))”。

    本版本已修复该问题。

  • ESXi 主机可能会失败,并在 bora/modules/vmkernel/lsomcommon/ssdlog/ssdopslog.c:199 中显示紫色屏幕

    多个 LSOM 内部代码路径之间发生一些争用。在缓存层中释放区域两次将导致以下类型的堆栈跟踪和严重错误:

    PanicvPanicInt@vmkernel#nover+0x36b stack: 0x417ff6af0980, 0x4180368 2015-04-20T16:27:38.399Z cpu7:1000015002)0x439124d1a780:[0x4180368ad6b7]Panic_vPanic@vmkernel#nover+0x23 stack: 0x46a, 0x4180368d7bc1, 0x43a 2015-04-20T16:27:38.411Z cpu7:1000015002)0x439124d1a7a0:[0x4180368d7bc1]vmk_PanicWithModuleID@vmkernel#nover+0x41 stack: 0x439124d1a800, 0x4 2015-04-20T16:27:38.423Z cpu7:1000015002)0x439124d1a800:[0x418037cc6d46]SSDLOG_FreeLogEntry@LSOMCommon#1+0xb6e stack: 0x6, 0x4180368dd0f4, 0 2015-04-20T16:27:38.435Z cpu7:1000015002)0x439124d1a880:[0x418037d3c351]PLOGCommitDispatch@com.vmware.plog#0.0.0.1+0x849 stack: 0x46a7500, 0

    PLOG 重新记录、PLOG 探查和 PLOG 取消配置工作流之间发生争用。

    本版本已修复该问题。

  • 在 I/O 工作负载过重的情况下,vSAN 过程可能会占用 CPU 周期较长时间,导致短暂的 PCPU 锁定

    在 I/O 工作负载过重的情况下,vSAN 过程可能会占用 CPU 周期较长时间,导致短暂的 PCPU 锁定。这会导致出现不可屏蔽的中断以及在 vmkernel 日志文件中出现日志涌出。

    本版本已解决该问题。

  • 已启用 vSAN 的 ESXi 主机可能会失败,并显示 PSOD

    已启用 vSAN 的 ESXi 主机可能会失败并显示紫色屏幕,屏幕上将显示以下回溯追踪:

    2017-02-19T09:58:26.778Z cpu17:33637)0x43911b29bd20:[0x418032a77f83]Panic_vPanic@vmkernel#nover+0x23 stack: 0x4313df6720ba, 0x418032a944 2017-02-19T09:58:26.778Z cpu17:33637)0x43911b29bd40:[0x418032a944a9]vmk_PanicWithModuleID@vmkernel#nover+0x41 stack: 0x43911b29bda0, 0x4 2017-02-19T09:58:26.778Z cpu17:33637)0x43911b29bda0:[0x41803387b46c]vs_space_mgmt_svc_start@com.vmware.virsto#0.0.0.1+0x414 stack: 0x100 2017-02-19T09:58:26.778Z cpu17:33637)0x43911b29be00:[0x41803384266d]Virsto_StartInstance@com.vmware.virsto#0.0.0.1+0x68d stack: 0x4312df 2017-02-19T09:58:26.778Z cpu17:33637)0x43911b29bf00:[0x4180338f138f]LSOMMountHelper@com.vmware.lsom#0.0.0.1+0x19b stack: 0x43060d72b980, 2017-02-19T09:58:26.778Z cpu17:33637)0x43911b29bf30:[0x418032a502c2]helpFunc@vmkernel#nover+0x4e6 stack: 0x0, 0x43060d6a60a0, 0x35, 0x0, 2017-02-19T09:58:26.778Z cpu17:33637)0x43911b29bfd0:[0x418032c14c1e]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0, 0x0, 0x0, 0x0, 0

    本版本已解决该问题。

  • 在 vSAN 见证主机上使用 objtool 可能会导致 ESXi 主机失败并显示紫色屏幕

    如果您在见证主机上使用 objtool,它将执行 ioctl 调用,导致 vSAN 见证 ESXi 主机中存在空指针取消引用,并导致主机崩溃。

    本版本已解决该问题。

  • 取消配置已启用重复数据删除和压缩的磁盘(其中介质访问命令失败)可能会导致 vSAN 节点中出现故障并显示紫色屏幕

    取消配置已启用重复数据删除和压缩的 vSAN 磁盘组期间,磁盘组应含有访问命令故障的磁盘。可以通过 vmkernel 日志消息验证故障,例如:
    Partition: 914: Read of GPT header (hdrlba = 1) failed on "naa.55cd2e404c185332" : I/O error.
    这会导致 vSAN 主机在取消配置期间发生故障。

    本版本已修复该问题。

  • 您可能收到 vSAN 运行状况检查的无效警报

    有时,vSAN 运行状况用户界面可能报告“所有主机均已配置 Virtual SAN vmknic”类型的错误网络运行状况检查状态,并随后触发无效的 vCenter Server 警报。

    本版本已修复该问题。

  • 虚拟机可能停止响应,或者主机可能与 vCenter Server 断开连接,并且伴随日志拥堵(在 6.0 Update 2 中)或内存拥堵(在 6.0 Update 3 中)

    从 vSAN 集群移除处于无效状态的 vSAN 组件可能导致虚拟机停止响应或主机与 vCenter Server 断开连接。

    本版本已修复该问题。

  • ESXi 主机可能会失败并显示紫色屏幕

    由于分布式对象管理器客户端初始化和分布式对象管理器 VMkernel sysinfo 界面代码路径之间存在争用,ESXi 主机可能会失败并显示紫色屏幕。

    本版本已解决该问题。

  • SSD 拥堵可能导致多个虚拟机变得无响应

    根据工作负载和虚拟机数量,主机上的磁盘组可能会进入永久设备丢失 (PDL) 状态。这会导致磁盘组不接受更多 IO,导致其不可用,直至进行人工干预。
     

    本版本已解决该问题。

已知问题

已知问题分为如下类别。

安装问题
  • DNS 后缀可能会持续存在,即使在更改 DCUI 中的默认配置后也是如此
    如果已在由 DHCP 服务器提供服务的网络上部署,则首次引导时,ESXi 主机可能会自动配置有默认 DNS + DNS 后缀。尝试更改 DNS 后缀时,DCUI 不移除现有的 DNS 后缀,而是仅添加提供的新后缀。

    解决办法:配置见证 OVF 的 DNS 主机名时,在“DNS 主机名”字段中设置完整的 FQDN 名称以附加正确的 DNS 后缀。然后可以在“自定义 DNS 后缀”字段中移除不需要的 DNS 后缀。

  • 安装最新的 VMware Tools 软件包后,VMware Tools Service 用户进程可能无法在 Linux 操作系统上运行
    在 Linux 操作系统中,您可能会遇到 VMware Tools 升级/安装问题,或者 VMware Tools 服务 (vmtoolsd) 用户进程在安装最新的 VMware Tools 软件包后可能不运行的问题。如果您的 glibc 版本低于 2.5(例如 SLES10sp4),则会出现该问题。

    解决办法:将 Linux glibc 升级到版本 2.5 或更高版本。

升级问题
查看发行说明的“安装问题”部分。许多安装问题也会影响升级过程。
  • 尝试使用 esxcli software vib update 命令从 ESXi 6.x 升级到 6.0 Update 2 及更高版本失败
    尝试使用 esxcli software vib update 从 ESXi 6.x 升级到 6.0 Update 2 失败,并显示类似以下内容的错误消息:

    [DependencyError]
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan << 6.0.0-2.35, but the requirement cannot be satisfied within the ImageProfile.
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan >= 6.0.0-2.34, but the requirement cannot be satisfied within the ImageProfile.


    此问题是由于引入与 esx-base VIB 相互依赖的新 Virtual SAN VIB 而导致的,esxcli software vib update 命令只能更新系统上安装的 VIB。

    解决办法:要解决此问题,请按下例所示运行 esxcli software profile update

    esxcli software profile update -d /vmfs/volumes/datastore1/update-from-esxi6.0-6.0_update02.zip -p ESXi-6.0.0-20160302001-standard

  • 从早期版本的 vSphere 6.0 升级到 vSphere 6.0 Update 1 及更高版本后,SSLv3 在 Auto Deploy 上仍保持启用状态
    从早期版本的 vSphere 6.0 升级到 vSphere 6.0 Update 1 和更高版本时,SSLv3 协议在 Auto Deploy 上仍保持启用状态。

    解决办法:使用 PowerCLI 命令执行以下步骤以禁用 SSLv3:

    1. 运行以下命令连接到 vCenter Server:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <FQDN_hostname or IP Address of vCenter Server>

    2. 运行以下命令检查当前 SSLv3 状态:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 运行以下命令禁用 SSLv3:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. 重新启动 Auto Deploy 服务以更新更改。

  • ESXi 从 5.5.x 升级到 6.0 后光纤通道主机总线适配器设备编号可能会发生改变

    ESXi 从 5.5.x 升级到 6.0 的过程中,光纤通道主机总线适配器设备编号偶尔可能会发生改变。如果使用 esxcli storage core adapter list 命令,设备编号可能会更改为其他编号。

    例如,在 ESXi 升级之前光纤通道主机总线适配器的设备编号可能类似于以下内容:

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    在 ESXi 升级到 6.0 后光纤通道主机总线适配器的设备编号可能类似于以下内容:

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    本示例说明了使用 esxcli storage core adapter list 命令时可能会造成随机改变:设备别名编号 vmhba2 和 vmhba3 更改为 vmhba64 和 vmhba65,而设备编号 vmhba5 和 vmhba6 保持不变。但是,如果使用的是 esxcli hardware pci list 命令,升级之后设备编号不会改变。

    这个问题不属于 VMware 范畴,不会对您造成影响。ESXi 虽然显示设备别名编号,但不将其用于任何操作。您可以使用主机配置文件来重置设备别名。请查看 VMware 产品文档和知识库文章。

    解决办法:无。

  • 升级后不保留 Active Directory 设置
    在将主机升级到 ESXi 6.0 时,升级前在 ESXi 主机中配置的 Active Directory 设置将不保留。

    解决办法:如果升级前的 ESXi 版本为 5.1 或更高版本,则在升级后将主机添加到 Active Directory 域。如果升级前的 ESXi 版本为 ESXi 5.0.x,则在升级后不要将主机添加到 Active Directory 域。

  • 在 ESXi 升级到 6.0 后,以前添加到域中的主机不会再加入域
    首次从 vSphere 5.5 升级到 vSphere 6.0 时,不会保留 Active Directory 配置。

    解决办法:升级之后,执行以下步骤将这些主机重新加入 vCenter Server 域:

    1. 将主机添加到 vCenter Server。

    2. 将主机加入到域(例如 example.com)

    3. 将所有主机升级到 ESXi 6.0。

    4. 将一台最近升级的主机手动加入域。

    5. 提取主机配置文件并禁用所有其他配置文件(身份验证配置文件除外)。

    6. 将手动加入域的主机配置文件应用到其他最近升级的主机。

  • 在升级适用于 Windows 的 vCenter Server 后,此前运行的 VMware ESXi Dump Collector 服务将重置为默认设置“已禁用”
    升级过程将 VMware Vsphere ESXi Dump Collector 6.0 安装为 vCenter Server 的可选服务组的一部分。您必须手动启用 VMware vSphere ESXi Dump Collector 服务,以将其用作适用于 Windows 的 vCenter Server 6.0 的一部分。

    解决办法:阅读 VMware 文档或搜索 VMware 知识库,了解如何启用和运行 vCenter Server 6.0 for Windows 中的可选服务。

    在操作系统中启用 VMware vSphere ESXi Dump Collector服务:

    1. 在“控制面板”菜单中,选择管理工具,并双击服务

    2. 右键单击 VMware vSphere ESXi Dump Collector编辑启动类型

    3. 启动类型设置为自动

    4. 右键单击 VMware vSphere ESXi Dump Collector启动

    服务启动类型设置为自动,并且服务处于运行状态。

vCenter Single Sign-On 和证书管理问题
  • 在升级 ESXi 主机的 SSL 证书后无法连接到虚拟机控制台
    如果升级 ESXi 主机所使用的 SSL 证书,然后在证书被替换后尝试连接到任何正在运行的虚拟机的控制台,可能出现证书验证错误。这是因为旧证书已缓存,任何新控制台连接都将因证书不匹配而被拒绝。
    控制台连接可能仍然成功(例如,可以通过其他方式验证旧证书),但是不能确保一定成功。现有虚拟机控制台连接不受影响,但是如果在证书替换时控制台正在运行、已停止或已重新启动,则可能发生此问题。

    解决办法:将主机置于维护模式,或者挂起或关闭所有虚拟机。仅会影响正在运行的虚拟机。最佳做法是先将主机置于维护模式,然后升级所有 SSL 证书。

网络连接问题

  • vSphere 的某些功能不支持 IPv6
    可以为所有节点和组件启用 IPv6,但以下功能除外:

    • 未映射到 DNS 服务器上的完全限定域名 (FQDN) 的 ESXi 主机和 vCenter Server 的 IPv6 地址。
      解决办法:直接使用 FQDN,或确保 IPv6 地址映射到 DNS 服务器上的 FQDN 以便能够进行反向名称查找。

    • 虚拟卷

    • 作为 Auto Deploy 与主机配置文件的一部分的 PXE 引导
      解决办法:以 PXE 方式通过 IPv4 启动 ESXi 主机,并使用主机配置文件为主机配置 IPv6 地址。

    • ESXi 主机和 vCenter Server Appliance 到 Active Directory 的连接
      解决办法:使用 Active Directory over LDAP 作为 vCenter Single Sign-On 中的标识源。

    • 基于 Kerberos 验证方式的 NFS 4.1 存储
      解决办法:使用基于 AUTH_SYS 验证方式的 NFS 4.1。

    • Authentication Proxy

    • vSphere Management Assistant 和 vSphere Command-Line Interface 到 Active Directory 的连接。
      解决办法:通过 LDAP 协议连接 Active Directory。

    • 使用 vSphere Client 对 vSphere 的功能启用 IPv6
      解决办法:使用 vSphere Web Client 对 vSphere 的功能启用 IPv6。

  • 在使用 ESXi Dump Collector 功能时可能会发生重复内核严重错误。
    当主机处于应急状态(将显示紫色诊断屏幕,并通过网络向 ESXi Dump Collector 写入核心转储数据)时,会发生重复内核严重错误。VMkernel zdump 文件可能无法用于 vCenter Server 上的 ESXi Dump Collector 的故障排除。

    当发生重复内核严重错误时,主机的紫色故障诊断屏幕会显示如下消息:
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    当通过同时被配置为向 vCenter Server 上的收集器发送核心转储数据的物理网络适配器传输大量数据而导致 VMkernel 发生严重错误时,就会出现重复内核严重错误。

    解决办法:执行以下任一种解决办法:

    • 配置一个物理网络适配器以专用于传输核心转储数据,从而降低系统及虚拟机流量的影响。

    • 通过运行以下 ESXCLI 控制台命令禁用主机上的 ESXi Dump Collector:
      esxcli system coredump network set --enable false

存储问题

    NFS 版本 4.1 问题

    • 当 NFS 4.1 共享从全部路径异常 (APD) 状态中恢复后,NFS 4.1 数据存储上的虚拟机失败
      当 NFS 4.1 存储进入 APD 状态并在一段宽限期后退出此状态时,在 NFS 4.1 数据存储上运行的已打开电源的虚拟机将失败。宽限期的长短取决于存储阵列供应商的设置。
      在 NFS 4.1 共享从 APD 状态恢复后,您会在 vSphere Web Client 的虚拟机摘要页中看到如下消息:
      用于保护 VM.vmdk 的锁丢失,可能是因为底层存储问题导致。如果此虚拟机配置为具有高可用性,则请确保在单击“确定”前此虚拟机正在其他主机上运行 (The lock protecting VM.vmdk has been lost, possibly due to underlying storage issues. If this virtual machine is configured to be highly available, ensure that the virtual machine is running on some other host before clicking OK)。
      在您单击“确定”后,系统会生成崩溃文件并关闭此虚拟机。

      解决办法:无。

    • 在创建新会话时,NFS 4.1 客户端失去与服务器的同步
      在与服务器中断连接一段时间后,当尝试创建新会话时,NFS 4.1 客户端可能失去与服务器的同步。当发生该情况时,vmkernel.log 文件中会包含一系列简短的警告消息,指出 NFS41 CREATE_SESSION 请求由于 NFS4ERR_SEQ_MISORDERED 而失败。

      解决办法:执行下面的步骤序列。

      1. 尝试卸载受影响的文件系统。如果在卸载时没有打开任何文件,则此操作会成功,并且 NFS 客户端模块会清除其内部状态。然后可以重新挂载被卸载的文件系统,并继续执行正常操作。

      2. 关闭连接到文件系统 IP 地址的网卡,并使其持续断开一段时间以确保几个服务器租期过期。五分钟应已足够。然后可以重新启动网卡。此时可以继续执行正常操作。

      3. 如果上述步骤失败,请重新引导 ESXi 主机。

    • NFS 4.1 客户端失去与 NFS 服务器的同步,并且即使重置会话也无法恢复连接
      在与服务器中断连接一段时间后,NFS 4.1 客户端可能会失去与服务器的同步,并且即使重置会话也无法恢复与服务器的同步连接。此问题是由 EMC VNX 服务器问题导致的。如果发生这种情况,vmkernel.log 文件会记录一系列简化的警告消息,指出 NFS41: NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug

      解决办法:要终止此会话,请卸载并重新挂载所有数据存储。

    • ONTAP Kerberos 卷变得无法访问或遇到虚拟机 I/O 故障
      当 NetApp 服务器接收的 RPCSEC_GSS 请求的顺序错误时,则不会做出响应。这将导致相应的 I/O 操作停止(直到被强行终止),并且客户机操作系统可能会停止或遇到 I/O 错误。此外,根据 RFC 2203 和 RPCSEC_GSS 上下文,客户端最多只能有数量等于 seq_window(如果是 ONTAP,则为 32)的未处理请求,并且必须等待,直到最慢的未处理请求被服务器处理完成。因此,服务器永远不会响应顺序错误的 RPCSEC_GSS 请求,并且客户端将在未处理请求数达到最大 seq_window 之后停止向服务器发送请求。这将导致卷无法访问。

      解决办法:无。检查最新的硬件兼容性列表 (HCL) 以找到已解决该问题的受支持的 ONTAP 服务器。

    • 无法在 EMC VNX 中的 NFS 4.1 数据存储设备上创建大于 1 TB 的虚拟磁盘
      固件版本为 7.x 的 EMC VNX 中的 NFS 4.1 存储设备仅支持 32 位文件格式。这导致无法在 NFS 4.1 数据存储设备上创建大于 1 TB 的虚拟机文件。

      解决办法:将 EMC VNX 阵列更新为版本 8.x。

    • 在固件升级期间,由 EMC VNX 存储支持的 NFS 4.1 数据存储变得无法访问
      当将 EMC VNX 存储升级到新的固件版本后,ESXi 主机上挂载的 NFS 4.1 数据存储将变得无法访问。发生此故障是因为 VNX 服务器在固件升级后更改了其主设备编号。主机上的 NFS 4.1 客户端预期在其建立与服务器的连接后不会发生主备编号变更,因此导致数据存储永久性地无法访问。

      解决办法:在升级固件版本前,卸载所有从 VNX 服务器导出的 NFS 4.1 数据存储。

    • 如果 ESXi 主机使用不同的安全机制来挂载相同的 NFS 4.1 数据存储设备,则虚拟机可能出现故障
      如果 ESXi 主机使用不同的安全机制(AUTH_SYS 和 Kerberos)挂载相同的 NFS 4.1 数据存储设备,则放置在该数据存储上的虚拟机可能会遇到问题并出现故障。例如,当您尝试将虚拟机从 host1 迁移到 host2 时操作可能失败,并显示权限被拒错误。当尝试从 host2 访问 host1 的虚拟机时也可能会遇到这些错误。

      解决办法:请确保挂载 NFS 4.1 卷的所有主机都使用相同的安全类型。

    • 无法使用 Kerberos 验证方式将只读文件复制到 NFS 4.1 数据存储
      从源文件复制数据到目标文件时可能出现此故障。目标文件仍保持为空。

      解决办法:无。

    • 创建数据存储集群时无法保证 NFS 4.1 安全类型的一致性
      在创建数据存储集群时,vSphere 不会验证并强制实施 NFS 4.1 安全类型的一致性。因此,同一集群中可包括使用不同安全类型(AUTH_SYS 和 Kerberos)的数据存储。如果将虚拟机从采用 Kerberos 验证方式的数据存储迁移到采用 AUTH_SYS 验证方式的数据存储,则该虚拟机的安全级别将降低。
      vMotion、Storage vMotion、DRS 和 Storage DRS 等功能均存在此问题。

      解决办法:如果您的虚拟机要求使用 Kerberos 验证方式,请确保组成同一集群的所有 NFS 4.1 卷均只使用 Kerberos 安全类型。请不要包括 NFS 3 数据存储,因为 NFS 3 仅支持 AUTH_SYS。

    Virtual SAN 问题

    • 由于超时,Virtual SAN 运行状况 UI 无法显示
      访问 Virtual SAN 集群 > 监控 > Virtual SAN > 运行状况下的 Virtual SAN 运行状况 UI 时,此 UI 无法显示。可能的原因是 vSphere ESX Agent Manager 挂起并导致超时。要进行确认,请打开位于 /var/log/vmware/vsan-health/vmware-vsan-health-service.log 的 Virtual SAN 运行状况日志,并通过使用字符串 VsanEamUtil.getClusterStatus: 搜索对 vSphere ESX Agent Manager 服务的调用。

      解决办法:通过使用 vSphere Web Client 重新启动 vSphere ESX Agent Manager 服务并刷新 Virtual SAN 运行状况 UI。

    • 使用第三方 lsi_msgpt3 驱动程序时,Virtual SAN 磁盘可维护性不起作用
      如果集群的磁盘空间使用量超过 50%,则在又一个主机发生故障后,通过Virtual SAN 集群 > 监控 > Virtual SAN > 运行状况 > 限制运行状况对两节点或三节点 Virtual SAN 集群执行运行状况检查时将显示红色,并会误报 vCenter Server 事件或警报。

      解决办法:将一个或多个主机添加到 Virtual SAN 集群或添加更多磁盘,以将集群的磁盘空间使用量降低到 50% 以下。

    • 对两节点或三节点 Virtual SAN 集群执行限制运行状况检查时显示红色
      Virtual SAN 磁盘可维护性插件 lsu-lsi-lsi-msgpt3-plugin 支持获取设备位置并打开或关闭磁盘 LED 的操作。VMware lsi_msgpt3 内置驱动程序支持可维护性插件。但是,如果使用第三方异步驱动程序,该插件不起作用。

      解决办法:使用 VMware 内置 lsi_msgpt3 驱动程序版本 06.255.10.00-2vmw 或更高版本。

    Virtual Volumes 问题

    • 由于 Virtual Volumes VASA 提供程序使用了错误的证书,导致无法创建虚拟数据存储
      有时,Virtual Volumes VASA 提供程序使用的自签名证书可能错误地将 KeyUsage 扩展定义为关键,而未设置 keyCertSign 位。在此情况下,提供程序注册会成功。但是,您无法从 VASA 提供程序所报告的存储容器中创建虚拟数据存储。

      解决办法:VASA 提供程序在注册时所使用的自签名证书不应在没有设置 keyCertSign 位的情况下将 KeyUsage 扩展定义为关键。

    一般存储问题

    • 连接到某些具有特定固件版本的存储阵列的 ESXi 6.0 Update 2 主机可能会出现 I/O 超时并造成后续操作停止
      当连接到某些具有特定固件版本的存储阵列的 ESXi 6.0 Update 2 主机向存储阵列发送 SMART 数据请求时,如果该阵列以 PDL 错误作为响应,则 6.0 Update 2 中的 PDL 响应行为可能会导致不断地重试这些失败的命令,从而阻止其他命令。此错误会导致出现广泛的 I/O 超时并造成后续操作停止。

      此外,在重新引导后,ESXi 主机可能需要较长时间才能重新连接到 vCenter Server,或者 vCenter Server 中的主机可能会进入无响应状态。与存储相关的任务(例如 HBA 重新扫描)可能需要很长时间才能完成。

      解决办法:要解决此问题,请参见知识库文章 2133286

    • 如果新虚拟机是从现有磁盘创建的,vSphere Web Client 会错误地将存储策略显示为已附加
      如果使用 vSphere Web Client 从现有磁盘创建新虚拟机并且在设置磁盘时指定了存储策略,当您选择新虚拟机 --> 单击虚拟机策略 --> 编辑虚拟机存储策略时,筛选器显示为待附加,但该筛选器实际已附加。可以检查 .vmdk 文件或 vmkfstools --iofilterslist <vmdk-file> 以验证该筛选器是否已附加。

      解决办法:创建新虚拟机之后、打开电源之前,请通过单击虚拟机策略 --> 编辑虚拟机存储策略将该筛选器添加到 vmdk。

    • NFS 查找操作返回 NFS 失效错误
      在 NFS 数据存储中部署大量虚拟机时,虚拟机部署因存在争用情况而失败,并显示类似于以下内容的错误消息:

      失效 NFS 文件句柄 (Stale NFS file handle)

      解决办法:重新启动查找操作。有关详细信息,请参见知识库文章 2130593

    • 使用 QLogic iSCSI 适配器时,在 Dell EqualLogic LUN 上创建 VMFS 数据存储的尝试失败。
      无法在通过 QLogic iSCSI 适配器检测到的 Dell EqualLogic 存储设备上创建 VMFS 数据存储。
      当尝试失败时,vCenter Server 会显示如下错误消息:无法创建文件系统,请参见 VMkernel 日志获取更多详细信息:连接超时 (Unable to create Filesystem, please see VMkernel log for more details: Connection timed out)。VMkernel 日志中包含连续的 iscsi 会话被阻止 (iscsi session blocked) 以及已取消阻止 iscsi 会话 (iscsi session unblocked) 消息。Dell EqualLogic 存储阵列的监控日志中会显示针对 QLogic 启动器 IQN 名称的从启动器接收的包中出现协议错误 (protocol error in packet received from the initiator) 消息。

      当使用下列组件时会遇到此问题:

      • Dell EqualLogic 阵列固件:V6.0.7

      • QLogic iSCSI 适配器固件版本:3.00.01.75

      • 驱动器版本:5.01.03.2-7vmw-debug

      解决办法:在 QLogic iSCSI 适配器上启用 iSCSI ImmediateData 适配器参数。默认情况下会关闭此参数。您无法通过 vSphere Web Client 或 esxcli 命令更改此参数。要更改此参数,请使用供应商提供的软件,例如 QConvergeConsole CLI。

    • 安装有 Emulex OneConnect HBA 的 ESXi 主机无法引导
      当在 ESXi 主机中安装了 Emulex OneConnect HBA 后,主机可能无法引导。此故障是由于 Emulex 固件问题导致的。

      解决办法:要解决此问题,请联系 Emulex 以获取适用于您的 HBA 的最新固件。

      如果要继续使用旧固件,请按照以下步骤操作以避免引导故障:

      1. 加载 ESXi 时, 在引导 ESXi 内核前按 Shift+O 组合键。

      2. 按原样保留当前引导选项,并在 dmaMapperPolicy=false 之后添加一个空格。

    • 在 APD 期间 Flash Read Cache 不加速 I/O。
      当被配置为 Flash Read Cache 虚拟闪存资源的闪存磁盘发生故障或不可访问时,或者当磁盘存储无法从主机进行访问时,主机上的 Flash Read Cache 实例将无效并且无法加速 I/O。因此,在主机与存储之间重新建立连接后,缓存将不存储旧数据。连接中断状态可能为暂时的全部路径异常 (APD),或者是永久的永久设备丢失 (PDL)。此状态会一直持续,直到虚拟机被重启。

      解决办法:可以重启虚拟机,以恢复使用 Flash Read Cache 的 I/O 加速功能。

    • 全部路径异常 (APD) 或路径故障切换可能会导致系统故障
      在共享 SAS 环境中,如果磁盘已由 lsi_msgpt3 驱动程序声明,并且这些磁盘正在进行高负荷 I/O 操作,则 APD 或路径故障切换可能会导致系统故障。

      解决办法:无

    • 频繁使用 SCSI 命令停止进程会导致系统故障
      在高负荷 I/O 操作状态下,频繁使用 SCSI 命令停止进程会导致 MegaRAID 控制器的响应变得很慢。如果在之前上下文中已释放的资源引用发生异常中断,则可能导致系统故障。

      解决办法:无

    • 更改 IQN 时导致 iSCSI 连接失败且数据存储设备无法访问
      如果您更改 iSCSI 适配器的 IQN,而此时该适配器上的 iSCSI 会话仍处于活动状态,则会导致此问题。

      解决办法:在更改 iSCSI 适配器的 IQN 时,该适配器上不应该有会话处于活动状态。在更改 IQN 前移除适配器上的所有 iSCSI 会话及目标。

    • nvmecli 联机和脱机操作无法始终生效
      当您执行 nvmecli device online -A vmhba* 操作以使 NVMe 设备联机时,该操作似乎已成功。但是,此设备可能仍处于脱机状态。

      解决办法:通过运行 nvmecli device list 命令检查 NVMe 设备的状态。

    服务器配置问题
    • 在将有状态主机的主机配置文件应用到使用 Auto Deploy 置备的主机时,修复操作失败
      将有状态部署主机的主机配置文件应用到使用 Auto Deploy 置备的、无本地存储的主机(无状态主机)时,修复操作尝试失败,并显示以下其中一条错误消息:

      • 您主机中没有位于 PCI 总线地址 sxxxxxxxx.xx 的 vmhba 设备 (The vmhba device at PCI bus address sxxxxxxxx.xx is not present on your host)。您必须关闭主机,然后向 PCI 插槽 yy 插入卡。卡类型应与引用主机中的卡类型一致。

      • 未找到任何有效的 coredump 分区。

      解决办法:在主机配置文件中禁用引起问题的插件(例如,设备别名配置或核心转储配置),然后修复该主机配置文件。

    • 向主机应用具有静态 IP 的主机配置文件导致合规性错误
      如果从具有 DHCP 网络配置的主机提取主机配置文件,然后编辑此主机配置文件使其具有静态 IP 地址,则将该主机配置文件应用到其他主机时发生合规性错误,并显示以下消息:

      IPv4 路由数不匹配。(Number of IPv4 routes did not match.)

      解决办法:从 DHCP 主机提取主机配置文件之前,对主机进行配置,使其具有静态 IP 地址。

    • 如果热添加网络资源过载的虚拟网络适配器,可能导致虚拟机被关闭。
      在启用了 Network I/O Control 功能的 vSphere Distributed Switch 中,已打开电源的虚拟机会根据主机的物理网络适配器的虚拟机系统流量预留策略配置带宽预留。您可以向虚拟机设置网络带宽预留(该预留超出主机的物理网络适配器上的可用带宽)热添加网络适配器。

      当热添加网络适配器时,VMkernel 会启动“快速挂起和恢复”(FSR) 进程。由于虚拟机请求超出可用量的网络资源,因此 VMkernel 会遇到 FSR 进程的故障路径。该故障路径中的错误将导致虚拟机关闭电源。

      解决办法:在向打开电源的虚拟机中添加网络适配器时,不要配置带宽预留。

    VMware HA 和 Fault Tolerance 问题
    • Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台不支持旧版 Fault Tolerance (FT)
      Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台不支持旧版 FT。启用单处理器旧版 Fault Tolerance 之后,尝试打开虚拟机电源将失败。

      解决办法:无。

    客户机操作系统问题
    • 在进行热插拔后尝试在 NVMe PCIe SSD 设备上启用直通模式可能失败
      要通过 vSphere Web Client 在 SSD 设备上启用直通模式,您选择一个主机,单击管理选项卡,然后单击设置,导航到硬件部分,单击 PCI 设备 > 编辑,从可以启用直通模式的活动设备列表中选择一个设备,单击确定。但是,当您将新的 NVMe 设备以热插拔方式连接到没有安装 PCIe NVMe 驱动器的 ESXi 6.0 主机时,新的 NVMe PCIe SSD 设备无法启用直通模式,且不会显示在可用直通设备列表中。

      解决办法:重新启动您的主机。您也可以在 ESXi 主机上运行命令。

      1. 以 root 用户身份登录。

      2. 运行命令
        /etc/init.d/hostd start

    受支持硬件问题
    • 对于 HP 服务器上的 Avago 控制器,在运行 esxcli 以获取磁盘位置时,所显示的结果不正确
      对于 HP 服务器上的 Avago 控制器,运行 esxcli storage core device physical get 后显示的结果不正确。

      例如,如果运行以下命令:
      esxcli storage core device physical get -d naa.5000c5004d1a0e76
      系统将返回以下结果:
      Physical Location: enclosure 0, slot 0

      该插槽在物理服务器上的实际标签为 1。

      解决办法:仔细检查 HP 服务器上的插槽。由于 HP 服务器上的插槽编号从 1 开始,因此必须增加命令返回的插槽编号,这样才能显示正确结果。

    CIM 和 API 问题
    • sfcb-vmware_raw 可能会失败
      由于分配的最大默认插件资源组内存不足,因此 sfcb-vmware_raw 可能会失败。

      解决办法:使用以下命令针对 sfcbd 插件的内存限制添加用户变量 CIMOemPluginsRPMemMax,然后重新启动 sfcbd 以使新插件值生效:

      esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

      XXX 是指要分配的内存限制。此值应介于最小值 (175) 与最大值 (500) 之间。

    check-circle-line exclamation-circle-line close-line
    Scroll to top icon