ESXi 6.0 Update 1a | 2015 年 10 月 6 日 | ISO 内部版本 3073146

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

本版本的 VMware ESXi 包含以下增强功能:

  • I/O 筛选器:vSphere APIs for I/O Filtering (VAIO) 提供了一个框架,允许第三方创建 I/O 筛选器软件组件。这些筛选器可安装在 ESXi 主机上,并可以通过处理在虚拟机客户机操作系统和虚拟磁盘之间移动的 I/O 请求,向虚拟机提供其他数据服务。

  • 针对与低延迟虚拟机关联的其他系统环境的独占关联性:本版本引入了新 VMX 选项 sched.cpu.latencySensitivity.sysContexts,用于解决 vSphere 6.0 上大多数系统环境仍为 worldlet 的问题。调度程序利用每个虚拟机的 sched.cpu.latencySensitivity.sysContexts 选项来自动识别一组可能会在延迟敏感的工作负载中涉及的系统环境。对于其中的每个系统环境,将提供对一个专用物理内核的独占关联性。VMX 选项 sched.cpu.latencySensitivity.sysContexts 表示低延迟虚拟机能够为系统环境获取的独占内核数量。

  • 用于 Active Directory 的 ESXi 身份验证:ESXi 经过修改,仅支持对 ESXi 和 Active Directory 之间的 Kerberos 通信使用 AES256-CTS/AES128-CTS/RC4-HMAC 加密。

  • SSLv3 支持:默认情况下已禁用 SSLv3 支持。有关更多详细信息,请参见知识库文章 2121021

  • 消亡磁盘处理 (DDH):消亡磁盘处理功能可在内核中提供延迟监控框架、检测高延迟时间的守护进程以及卸载单个磁盘和磁盘组的机制。

  • 延伸的集群:Virtual SAN 6.0 Update 1 支持跨多个地理位置的延伸集群,可保护数据以防受到站点故障或网络连接丢失的影响。

ESXi 6.0 的早期版本

各个版本的发行说明中分别描述了 ESXi 6.0 的功能和已知问题。ESXi 6.0 的早期版本的发行说明包括:

国际化

VMware ESXi 6.0 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文
  • 繁体中文

VMware vSphere 6.0 的组件(包括 vCenter Server、ESXi、vSphere Web Client 和 vSphere Client)不接受非 ASCII 输入。

兼容性

ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 VMware 产品互操作性列表以了解有关受支持的管理和备份代理的信息。

vSphere Web Client 与 vCenter Server 打包在一起。vSphere Client 可以从模块 ISO 文件中包含的 VMware vCenter 自动运行菜单进行安装 。

ESXi 的硬件兼容性

要查看与 vSphere 6.0 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请查看《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

ESXi 的设备兼容性

要确定哪些设备与 ESXi 6.0 兼容,请查看《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

某些设备已在 ESXi 6.0 上弃用,并且不再受支持。在升级过程中,设备驱动程序安装在 ESXi 6.0 主机上。虽然设备的驱动程序仍可以在 ESXi 6.0 中运行,但是设备将不受 ESXi 6.0 支持。有关 ESXi 6.0 上已弃用且不再支持的设备列表,请参见知识库文章 2087970

ESXi 的第三方交换机兼容性

VMware vSphere 6.0 现在支持 Cisco Nexus 1000V。vSphere 要求 NX-OS 版本最低为 5.2(1)SV3(1.4)。有关 Cisco Nexus 1000V 的详细信息,请参见 Cisco 发行说明。在以前的 vSphere 版本中,不支持 Ciscso Nexus 1000V AVS 模式。

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 vSphere 6.0 兼容,请查看《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

ESXi 的虚拟机兼容性

ESXi 6.0 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 6.0 上使用此类虚拟机,请升级虚拟机兼容性。请参见《vSphere 升级》文档。

此版本的安装与升级

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的指导,请阅读《vSphere 安装和设置》文档。

虽然安装过程很简单,但是仍须执行若干后续配置步骤。请阅读以下文档:

建议的 vSphere 6.0 部署模型

VMware 只建议使用两种部署模型:

  • 具有嵌入式 Platform Services Controller 部署的 vCenter Server。如果需要在数据中心内部署一个或多个独立 vCenter Server 实例,建议使用此模型。建议不要在这些具有嵌入式 Platform Services Controller 部署的 vCenter Server 模型之间进行复制。

  • 具有外部 Platform Services Controller 部署的 vCenter Server。只有当需要链接多个 vCenter Server 实例,或需要减少 Platform Services Controller 在数据中心的内存占用量时,才建议使用此模型。支持在这些具有外部 Platform Services Controller 部署的 vCenter Server 模型之间进行复制。

有关安装和配置 vCenter Server 的指导,请阅读《vSphere 安装和设置》文档。

此外,有关安装和配置 vCenter Server 的指导信息,请阅读知识库文章 2108548

vCenter 主机操作系统信息

请阅读知识库文章 2091273

备份和还原使用外部 Platform Services Controller 部署的 vCenter Server 和 vCenter Server Appliance

尽管《vSphere 安装和设置》文档中的声明限制您尝试备份和还原使用外部 Platform Services Controller 部署的 vCenter Server 和 vCenter Server Appliance,您仍然可以按照知识库文章 2110294 中的步骤执行此任务。

从嵌入式 Platform Services Controller 迁移到外部 Platform Services Controller

具有嵌入式 Platform Services Controller 部署的 vCenter Server 不能自动迁移到具有外部 Platform Services Controller 部署的 vCenter Server。对此迁移实用程序的测试未完成。

在安装 vCenter Server 之前,确定所需的部署选项。如果复制设置程序需要使用多个 vCenter Server,应始终部署具有外部 Platform Services Controller 部署的 vCenter。

迁移第三方解决方案

有关使用第三方自定义进行升级的信息,请参见《vSphere 升级》文档有关使用 Image Builder 创建自定义 ISO 的信息,请参见《vSphere 安装和设置》文档

禁止对不支持的 CPU 进行升级和安装

vSphere 6.0 仅支持在 2006 年 6 月(第三季度)以后推出的处理器。与 vSphere 5.x 所支持的处理器相比较,vSphere 6.0 不再支持以下处理器:

  • AMD Opteron 12xx 系列
  • AMD Opteron 22xx 系列
  • AMD Operton 82xx 系列

在安装或升级过程中,安装程序检查主机 CPU 与 vSphere 6.0 的兼容性。如果您的主机硬件不兼容,将显示包含不兼容性说明消息的紫色屏幕,并且 vSphere 6.0 安装过程会停止。

此版本的升级说明

有关升级 vCenter Server 和 ESX/ESXi 主机的说明,请参见《vSphere 升级》文档。

VMware vSphere 6.0 的开源组件

有关适用于 vSphere 6.0 中分发的开源软件组件的版权声明和许可证,请访问 http://www.vmware.com。您需要登录您的 My VMware 帐户。然后在下载菜单中选择 vSphere。在开源选项卡中,还可以下载需向 vSphere 最新可用版本提供其源代码或源代码变更的所有 GPL、LGPL 或其他类似许可证的源文件。

产品支持注意事项

  • vCenter Server 数据库。在 vSphere 6.0 版本中,作为 vCenter Server Appliance 的外部数据库的 Oracle 11g 和 12c 已被弃用。VMware 继续支持在 vSphere 6.0 中将 Oracle 11g 和 12c 用作外部数据库。在将来的主要版本中,VMware 不再支持将 Orace 11g 和 12c 用作 vCenter Server Appliance 的外部数据库。

  • vSphere Web Client。在 vSphere 6.0 Web Client 中,对象的监控选项卡中不再提供存储报告选择。

  • vSphere Client。vSphere 6.0 Client 中不再提供存储视图选项卡。

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi600-Update01 包含以下公告:

ESXi600-201510401-BG:更新 ESXi 6.0 esx-base vib

修补程序版本 ESXi600-Update01 包含以下映像配置文件:

ESXi-6.0.0-20151004001-standard
ESXi-6.0.0-20151004001-no-tools

有关修补程序和更新分类的信息,请参见知识库文章 2014447

已解决的问题

已解决的问题分为以下几组。

CIM 和 API 问题
  • ServerView CIM 提供程序与 Emulex CIM 提供程序安装在同一台 ESXi 主机上时无法监控硬件状态
    当 ServerView CIM 提供程序和 Emulex CIM 提供程序安装在同一台 ESXi 主机上时,Emulex CIM 提供程序 (sfcb-emulex_ucn) 可能无法响应,导致无法监控硬件状态。

    本版本已解决该问题。
客户机操作系统问题
  • EFI 引导的 Linux 客户机可能无法响应键盘和鼠标输入
    如果在 EFI 引导的短暂时段内发生任何鼠标移动,在 EFI 固件上引导的 Linux 客户机操作系统可能无法响应键盘和鼠标输入。

    本版本已解决该问题。

升级和安装问题
  • 在无状态 ESXi 主机上应用启用了无状态缓存的主机配置文件可能需要很长时间才能完成
    如果启用了无状态缓存且将 esx 作为第一个磁盘参数,那么当在具有大量存储 LUN 的无状态 ESXi 主机上应用主机配置文件时,可能需要很长时间来重新引导。手动应用主机配置文件时或重新引导主机时会出现这种情况。

    本版本已解决该问题。

  • 无法在荷兰语版本的 Windows Server 2008 R2 上安装或升级到 VMware Tools 版本 9.10.0
    在荷兰语版本的 Windows Server 2008 R2 上安装或升级到 ESXi 6.0 中提供的 VMware Tools 版本 9.10.0 时可能会失败。将显示类似于以下内容的错误消息:

    VMware Tools 安装向导已提前结束 (VMware Tools Setup Wizard ended prematurely)

    本版本已解决该问题。

  • VIB 转储操作可能导致在 ESXi 主机重新引导后丢失 VIB 安装或配置更改
    在系统上安装一些 VIB 后,esxupdate 会在 /altbootbank 中构造一个新映像,并更改将要更新的 /altbootbank boot.cfg 引导状态。安装了可实时安装的 VIB 时,系统会将对配置所做的更改保存到 /altbootbank。除非您在转储操作完成后执行修复操作,否则,转储操作将删除 /altbootbank 的内容。如果您在转储操作完成后重新引导主机,VIB 安装可能会丢失。

    本版本已解决该问题。

网络连接问题
  • 尝试向 VDS 上的 ESXi 主机添加 vmnic 失败,显示“地址系列不受支持”错误
    从 ESXi 5.5 升级到 6.0 后,向连接到 vSphere Distributed Switch (VDS) 的 VMware ESXi 主机添加 vmnic 的尝试可能会失败。启用了 ipfix 但禁用了 IPv6 时会出现该问题。

    在受影响的 ESXi 主机上的 /var/log/vmkernel.log 文件中,您将看到类似于以下内容的条目:

    cpu10:xxxxx opID=xxxxxxxx)WARNING: Ipfix: IpfixActivate:xxx: Activation failed for 'DvsPortset-1': Unsupported address family
    cpu10:xxxxx opID=xxxxxxxx)WARNING: Ipfix: IpfixDVPortParamWrite:xxx: Configuration failed for switch DvsPortset-1 port xxxxxxxx : Unsupported address family
    cpu10:xxxxx opID=xxxxxxxx)WARNING: NetDVS: xxxx: failed to init client for data com.vmware.etherswitch.port.ipfix on port xxx
    cpu10:xxxxx opID=xxxxxxxx)WARNING: NetPort: xxxx: failed to enable port 0x4000002: Unsupported address family
    cpu10:xxxxx opID=xxxxxxxx)NetPort: xxxx: disabled port 0x4000002
    cpu10:xxxxx opID=xxxxxxxx)Uplink: xxxx: vmnic2: Failed to enable the uplink port 0x4000002: Unsupported address family

    本版本已解决该问题。

  • 尝试从 iPXE 引导时,使用 VMXNET3 虚拟适配器的虚拟机可能会出现故障
    尝试从 iPXE(开源引导固件)引导时,使用 VMXNET3 虚拟适配器的虚拟机可能会出现故障。

    本版本已解决该问题。

  • 使用基于物理网卡负载的负载均衡时,如果上行链路断开或关闭,将不会启动故障切换
    在 VDS 6.0 上使用基于物理网卡负载的负载均衡时,如果其中一个上行链路断开或关闭,将不会启动故障切换。

    本版本已解决该问题。

  • 如果在 vmk10 或更高编号的 vmk 上启用 vMotion,在重新引导时可能会为 vmk1 启用 vMotion
    如果在 vmk10 或更高版本上启用 vMotion,在重新引导 ESXi 主机时可能会导致 vmk1 启用 vMotion。此问题会导致 vmk1 上出现过多流量,进而导致网络问题。

    本版本已解决该问题。

  • 对于配置有 VMXNET3(连接到标准 vSwitch)的虚拟机,虚拟机网络性能数据衡量指标不可用
    对于配置有 VMXNET3 适配器的虚拟机,您无法在 VMware vSphere Client 6.0 中查看网络实时性能图,因为该选项在切换到下拉列表中不可用。

    本版本已解决该问题。

  • 在 Auto Deploy 期间应用主机配置文件时网络连接丢失
    在 Auto Deploy 期间应用主机配置文件时,可能会丢失网络连接,因为 VXLAN 隧道端点 (VTEP) NIC 被标记为管理 vmknic。

    本版本已解决该问题。

  • 嵌套 ESXi 可能会丢失连接且 e1000e 虚拟网卡可能重置
    嵌套 ESXi 可能会间歇性丢失连接且 e1000e 虚拟网卡可能会重置。也可能出现 NFS 卷的全部路径异常 (APD) 状况。类似于以下内容的错误消息将写入 vmkernel.log 文件

    packets completion seems stuck, issuing reset

    本版本已解决该问题。

  • 新问题 从 ESXi 5.x 升级到 ESXi 6.0 后出现网络连接问题
    从 ESXi 5.x 升级到 ESXi 6.0 后,您可能会遇到以下问题:

    • ESXi 6.0 主机可能会随机丢失网络连接

    • 在重新引导前,ESXi 6.0 会变得无响应且无法管理

    • 重新引导后,问题在一段时间内暂时得到解决,但在随机间隔后会再次发生

    • 传输超时通常由 ESXi 主机中的 NETDEV WATCHDOG 服务记录。您可能会在 /var/log/vmkernel.log 文件中看到类似以下内容的条目:

      cpu0:33245)WARNING: LinNet: netdev_watchdog:3678: NETDEV WATCHDOG: vmnic0: transmit timed out
      cpu0:33245)WARNING: at vmkdrivers/src_92/vmklinux_92/vmware/linux_net.c:3707/netdev_watchdog() (inside vmklinux)

    • 此问题可能会影响多个硬件供应商的多个网络适配器类型。传输超时期间的具体日志记录可能会因卡而异。

    本版本已解决该问题。

存储问题
  • 当多个 vSCSI 筛选器连接到一个虚拟机磁盘时,ESXi 主机可能出现故障并显示紫色诊断屏幕
    当多个 vSCSI 筛选器连接到一个虚拟机磁盘时,ESXi 6.0 主机可能会出现故障并显示紫色诊断屏幕。紫色诊断屏幕或回溯追踪包含类似于以下内容的条目:

    cpu24:nnnnnn opID=nnnnnnnn)@BlueScreen: #PF Exception 14 in world 103492:hostd-worker IP 0x41802c2c094d addr 0x30
    PTEs:0xnnnnnnnn;0xnnnnnnnnnn;0x0;
    cpu24:nnnnnn opID=nnnnnnnn)Code start: 0xnnnnnnnnnnnn VMK uptime: 21:06:32:38.296
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_GetFilterPrivateData@vmkernel#nover+0x1 stack: 0xnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_IssueInternalCommand@vmkernel#nover+0xc3 stack: 0xnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FileSyncRead@<None>#<None>+0xb1 stack: 0x0
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_DigestRecompute@<None>#<None>+0xnnn stack: 0xnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FilterDigestRecompute@<None>#<None>+0x36 stack: 0x20
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_SetInfo@vmkernel#nover+0x322 stack: 0xnnnnnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_Set@<None>#<None>+0xef stack: 0x41245111df10
    YYYY-MM-DD TIME cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@<None>#<None>+0x243 stack: 0xnnnnnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0xnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry@vmkernel#nover+0x64 stack: 0x0

    本版本已解决该问题。

  • 当非 ATS VMFS 数据存储出现暂时性的存储小问题时,ESXi 主机停止响应并失去与 vCenter Server 的连接
    ESXi 主机可能会停止响应,并且虚拟机无法访问。此外,ESXi 主机也可能会丢失与 vCenter Server 的连接,因为非 ATS VMFS 数据存储上的存储问题导致出现死锁。

    本版本已解决该问题。

  • “未共享的存储”和“已使用的存储”不反映虚拟机的预期值
    当多个虚拟机共享存储空间时,vSphere Client 摘要页面可能会为下列项显示不正确的值:

    • 虚拟机摘要页面中未共享的存储

    • 数据摘要页面中置备的空间

    • 主机的虚拟机选项卡中已使用的空间


    本版本已解决该问题。

  • vSphere 可能不会检测系统中的所有驱动器,即使这些驱动器已显示在 BIOS 中
    如果系统中存在多个 HBA,vSphere 可能不会检测系统中的所有 18 个驱动器,因为 lsi_msgpt3 驱动程序无法检测每个 HBA 的单个驱动器。

    本版本已解决该问题。

  • lsi-mr3 驱动程序不检测大于 2 TB 的串联 SCSI (SAS) 驱动器
    lsi_mr3 驱动程序不检测大于 2 TB 的 SAS 驱动器。将记录类似于以下内容的错误消息:

    cpu35:33396)WARNING: ScsiDeviceIO: 8469: Plugin entry point isSSD() failed on device naa.5000c50057b932a7 from plugin NMP: Failure
    cpu35:33396)ScsiDevice: 3025: Failing registration of device 'naa.5000c50057b932a7': failed to get device I/O error attributes.
    cpu35:33396)ScsiEvents: 545: Event Subsystem: Device Events, Destroyed!
    cpu35:33396)WARNING: NMP: nmp_RegisterDevice:673: Registration of NMP device with primary uid 'naa.5000c50057b932a7' failed.I/O error

    本版本中更新了 lsi_mr3 驱动程序,以解决该问题。

  • VMFS 卷被锁定
    ESXi 主机上的 VMFS 卷可能会因元数据操作失败而保持锁定。vmkernel.log 文件显示类似于以下内容的错误消息:

    警告: LVM: 12976: The volume on the device naa.50002ac002ba0956:1 locked, possibly because some remote host encountered an error during a volume operation and could not recover.

    本版本已解决该问题。

  • 修改从链接克隆创建的虚拟机的存储策略时可能会失败
    在 vCenter Server 中,尝试修改从链接克隆创建的已打开电源的虚拟机的存储策略时可能会失败,并显示类似于以下内容的错误消息:

    调度参数更改失败 (The scheduling parameter change failed)。

    本版本已解决该问题。

  • 连接到 ESXi 6.0 主机的 LUN 可能会在路径恢复后仍保持“APD 超时”状态
    发生全部路径异常 (APD) 事件时,连接到 ESXi 的 LUN 可能会在 LUN 路径恢复后仍无法访问。您会在 /var/log/vmkernel.log 中依次看到以下事件:

    1. 设备进入 APD 状态。
    2. 设备退出 APD 状态。
    3. 由于“未找到”错误,设备上的检测信号恢复和文件系统操作失败。
    4. 尽管设备之前已退出 APD 状态,但是“APD 超时”状态仍过期显示。

    本版本已解决该问题。

  • 由 Virtual SAN 触发的不必要的重新扫描可能会导致 ESXi 主机和虚拟机停止响应
    由 Virtual SAN 触发的不必要的定期设备和文件系统重新扫描操作可能会导致环境中的 ESXi 主机和虚拟机随机停止响应。

    本版本已解决该问题。

  • 在 VSA 置备的 NFS 存储上运行的虚拟机中,存储性能可能比较差
    在 VSA 置备的 NFS 存储上运行的虚拟机中,发现 NFS 存储性能低下。这是由于 ESXi 主机对 NFS 读取响应的延迟确认而导致的。

    本版本已通过禁用 LRO TCP 数据包的延迟确认解决该问题。

  • 跨不同存储容器克隆虚拟机时错误地将源 VMId 设置为所克隆虚拟机的初始虚拟卷 VMId
    当跨不同存储容器克隆虚拟机时,源 Virtual Volumes (VVOL) 的 VMId 将作为所克隆的 VVOL VMID 的初始值。

    本版本已解决该问题。

  • 在本地驱动器上已禁用 WRITE SAME 命令
    在 ESXi 6.0 Update 1 中已对本地驱动器禁用 WRITE SAME 命令,因为一些磁盘驱动器可能无法完全实现 Write Same 功能,从而导致错误行为。或者,可以使用 esxcli storage core device vaai status 命令在本地驱动器上启用或禁用 VAAI。有关详细信息,请参见知识库文章 2131056

备份问题
  • 快照静默操作在 Linux 虚拟机上失败
    当对 Linux 虚拟机执行静默快照时,虚拟机可能会在快照操作后失败。vmware.log 文件中记录有以下错误消息:

    <YYYY-MM-DD>T<TIME>Z| vmx| I120: SnapshotVMXTakeSnapshotComplete: done with snapshot 'smvi_UUID': 0
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: SnapshotVMXTakeSnapshotComplete: Snapshot 0 failed: Failed to quiesce the virtual machine (40).
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: GuestRpcSendTimedOut: message to toolbox timed out.
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: Vix: [18631 guestCommands.c:1926]: Error VIX_E_TOOLS_NOT_RUNNING in MAutomationTranslateGuestRpcError(): VMware Tools are not running in the guest

    本版本已解决该问题。

安全问题
  • 更新 Python 软件包
    Python 第三方库已更新为 2.7.9 版本。
  • 更新 libPNG 库
    libPNG 库已更新为 libpng-1.6.16。
  • OpenSSL 库更新
    ESXi userworld OpenSSL 库已更新为 openssl-1.0.1m 版本。
  • 更新 libxml2 库
    ESXi userworld libxml2 库已更新到版本 2.9.2。

  • 更新 VMware Tools libPNG 和 libxml2 库
    VMware Tools libPNG 和 libxml2 库已分别更新为 1.2.52 和 2.9.2 版本。
  • 更新 VMware Tools OpenSSL 库
    VMware Tools OpenSSL 库已更新为 openssl-0.9.8zg 版本。
服务器配置问题
  • 您可以设置调试日志并启用主机配置文件引擎的跟踪日志
    新主机配置文件插件现在可用于在通过 Active Directory 引导主机时收集调试日志以及启用 ESXi 主机配置文件引擎的跟踪日志。

  • 使用 NVIDIA GRID vGPU 设备时,尝试重新启动大量虚拟机可能会失败
    通过 NVIDIA GRID vGPU 设备同时重置大量虚拟机时,重新引导部分虚拟机可能会失败。可能会显示类似于以下内容的重新引导错误:

    VMIOP: vGPU grid_k100 没有可用的图形设备 (VMIOP: no graphics device is available for vGPU grid_k100)。

    本版本已解决该问题。

  • 设置虚拟机的 CPU 限制会影响其他虚拟机
    设置单处理器虚拟机的 CPU 限制时,ESXi 的总体利用率可能会因 ESXi 调度程序存在缺陷而降低。进行 CPU 负载估算时,如果 ESXi 调度程序将 CPU 受限的虚拟机视为可运行(它们实际未运行),则会发生此情况。因此会导致不正确的负载均衡决定。有关更多详细信息,请参见知识库文章 2096897

    本版本已解决该问题。

  • 尝试创建 FIFO 并向其中写入数据可能会显示紫色诊断屏幕
    创建 FIFO 并尝试将数据写入 /tmp/dpafifo 时,在某些情况下可能会显示紫色诊断屏幕。

    本版本已解决该问题。
  • 使用直通设备时禁用高级错误报告
    为直通收集设备上的 PCI 信息时,禁用该设备的错误报告。

    本版本已解决该问题,方法是提供允许 PCI 直通设备报告错误的 VMkernel 引导选项 pcipDisablePciErrReporting。默认情况下该选项设置为 TRUE,表示禁用错误报告。
  • CPU 未完全预留时,虚拟机可能不显示警告消息
    在将 sched.cpu.latencySensitivity 设置为“高”的情况下创建虚拟机并打开其电源时,如果虚拟机不具备完全 CPU 预留,则可能不会启用对 vCPU 的独占关联性。

    在早期版本中,虚拟机在 CPU 未完全预留时不会显示警告消息。

    本版本已解决该问题。
  • 命令 esxcli system snmp set -p 已更新
    SNMP 代理已配置为使用命令 esxcli system snmp set -p <port> 侦听自定义端口。在 ESXi 6.0 Update 1 中,已留出从 32768 到 40959 的一组 tcp/udp 端口供第三方使用。不再允许其他端口使用此范围。

    升级到 ESXi 6.0 Update 1 后,如果在此范围内设置了自定义端口,SNMP 代理将不启动并显示范围检查错误。
  • 简单更改 SNMP syscontact 或 syslocation 后,主机配置文件变得不兼容
    简单更改 SNMP syscontact 或 syslocation 后,主机配置文件变得不兼容。当 SNMP 主机配置文件插件仅对附加到主机配置文件的所有主机应用单个值时会出现该问题。可能会显示类似于以下内容的错误消息:

    SNMP 代理配置不同 (SNMP Agent Configuration differs)

    本版本通过启用某些参数(例如 syslocation、syscontact、v3targets、v3users 和 engineid)的每个主机值设置解决了该问题。
虚拟机管理问题
  • vSphere Flash Read Cache 的性能计数器在虚拟机上可能不可用
    在虚拟磁盘上启用了 CBT 的情况下,FlashCacheIOPsFlashCacheLatencyFlashCacheThroughput 等 vFlash 缓存衡量指标计数器可能不可用。stats.log 文件中可能记录有类似于以下内容的错误消息:

    xxxx-xx-xxTxx:xx:xx.200Z [xxxxxxxx error 'Statssvc.vim.PerformanceManager'] CollectVmVdiskStats : Failed to get VFlash Cache stats for vscsi id scsi0:0 for vm 3
    xxxx-xx-xxTxx:xx:xx.189Z [xxxxxxxx error 'Statssvc.vim.PerformanceManager'] GetVirtualDiskVFCStats: Failed to get VFlash Cache stat values for vmdk scsi0:0.Exception VFlash Cache filename not found!

    本版本已解决该问题。

  • 无法启动显示分辨率较高且设置了多个监视器的虚拟机
    尝试使用 PCOIP 解决方案从 VDI 启动显示分辨率较高且设置了多个监视器的虚拟机可能会失败。虚拟机启动失败并进入关闭电源状态。在 /var/log/vmkwarning.log 中,您会看到类似于以下内容的条目:

    cpu3:xxxxxx)WARNING: World: vm xxxxxx: 12276: vmm0:VDI-STD-005:vmk: vcpu-0:p2m update buffer full
    cpu3:xxxxxx)WARNING: VmMemPf: vm xxxxxx: 652: COW copy failed: pgNum=0x3d108, mpn=0x3fffffffff
    cpu3:xxxxxx)WARNING: VmMemPf: vm xxxxxx: 2626: PhysPageFault failed Failure: pgNum=0x3d108, mpn=0x3fffffffff
    cpu3:xxxxxx)WARNING: UserMem: 10592: PF failed to handle a fault on mmInfo at va 0x60ee6000: Failure.Terminating...
    cpu3:xxxxxx)WARNING: World: vm xxxxxx: 3973: VMMWorld group leader = 255903, members = 1
    cpu7:xxxxxx)WARNING: World: vm xxxxxx: 3973: VMMWorld group leader = 255903, members = 1
    cpu0:xxxxx)WARNING: World: vm xxxxxx: 9604: Panic'd VMM world being reaped, but no core dumped.


    本版本已解决该问题。

VMware HA 和 Fault Tolerance 配置问题
  • 工作负载过重时,迁移辅助虚拟机可能会失败
    工作负载过重时,尝试迁移启用了 Fault Tolerance 的辅助虚拟机可能会失败,并且虚拟机可能不再响应。

    本版本已解决该问题。
其他问题
  • 在 vmkernel 日志中记录过多 VmkAccess 消息
    在安装 ESXi 6.0 的 HP 系统上,如果在运行时期间执行下列系统命令,可能会在 vmkernel.log 中记录过多 VmkAccess 消息:

    • esxcfg-scsidevs
    • localcli storage core path list
    • localcli storage core device list


    VmkAccess 日志中记录了类似于以下内容的过量日志消息:

    cpu7:36122)VmkAccess: 637: localcli: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)
    cpu7:36122)VmkAccess: 922: VMkernel syscall invalid (1025)
    cpu7:36122)VmkAccess: 637: localcli: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)
    cpu7:36122)VmkAccess: 922: VMkernel syscall invalid (1025)
    cpu0:36129)VmkAccess: 637: esxcfg-scsidevs: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)

    本版本已解决该问题。
  • 新问题Python 软件包导入失败
    在较新的 Python 版本 2.7.9 上,Python 软件包导入可能会失败。出现此问题的原因是,较新版本的 Python 找不到模块 pkg_resources.py 导致 import pkg_resources 语句失败。

    本版本已解决该问题。
VMware Tools 问题
  • 更新 FUSE 库
    FUSE 库已更新为 libfuse 2.9.4。

已知问题

对 ESXi 6.0 中存在的已知问题的分组如下:

本版本中记录的新的已知问题突出显示为新问题

安装问题
  • 新问题安装最新的 VMware Tools 软件包后,VMware Tools Service 用户进程可能无法在 Linux 操作系统上运行
    在 Linux 操作系统中,您可能会遇到 VMware Tools 升级/安装问题,或者 VMware Tools 服务 (vmtoolsd) 用户进程在安装最新的 VMware Tools 软件包后可能不运行的问题。如果您的 glibc 版本低于 2.5(例如 SLES10sp4),则会出现该问题。

    解决办法:将 Linux glibc 升级到版本 2.5 或更高版本。

升级问题

查看发行说明的“安装问题”部分。许多安装问题也会影响升级过程。

  • 新问题从早期版本的 ESXi 6.0 升级到 ESXi 6.0 Update 1 后,SSLv3 在 Auto Deploy 上仍保持启用状态
    从早期版本的 ESXi 6.0 升级到 ESXi 6.0 Update 1 时,SSLv3 协议在 Auto Deploy 上仍保持启用状态。

    解决办法:使用 PowerCLI 命令执行以下步骤以禁用 SSLv3:

    1. 运行以下命令连接到 vCenter Server:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <FQDN_hostname or IP Address of vCenter Server>

    2. 运行以下命令检查当前 SSLv3 状态:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 运行以下命令禁用 SSLv3:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. 重新启动 Auto Deploy 服务以更新更改。

  • ESXi 从 5.5.x 升级到 6.0 后光纤通道主机总线适配器设备编号可能会发生改变

    ESXi 从 5.5.x 升级到 6.0 的过程中,光纤通道主机总线适配器设备编号偶尔可能会发生改变。如果使用 esxcli storage core adapter list 命令,设备编号可能会更改为其他编号。

    例如,在 ESXi 升级之前光纤通道主机总线适配器的设备编号可能类似于以下内容:

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    在 ESXi 升级到 6.0 后光纤通道主机总线适配器的设备编号可能类似于以下内容:

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    本示例说明了使用 esxcli storage core adapter list 命令时可能会造成随机改变:设备别名编号 vmhba2 和 vmhba3 更改为 vmhba64 和 vmhba65,而设备编号 vmhba5 和 vmhba6 保持不变。但是,如果使用的是 esxcli hardware pci list 命令,升级之后设备编号不会改变。

    这个问题不属于 VMware 范畴,不会对您造成影响。ESXi 虽然显示设备别名编号,但不将其用于任何操作。您可以使用主机配置文件来重置设备别名。请查看 VMware 产品文档和知识库文章。

    解决办法:无。

  • 升级后不保留 Active Directory 设置
    在将主机升级到 ESXi 6.0 时,升级前在 ESXi 主机中配置的 Active Directory 设置将不保留。

    解决办法:如果升级前的 ESXi 版本为 5.1 或更高版本,则在升级后将主机添加到 Active Directory 域。如果升级前的 ESXi 版本为 ESXi 5.0.x,则在升级后不要将主机添加到 Active Directory 域。

  • 在 ESXi 升级到 6.0 后,以前添加到域中的主机不会再加入域
    首次从 vSphere 5.5 升级到 vSphere 6.0 时,不会保留 Active Directory 配置。

    解决办法:升级之后,执行以下步骤将这些主机重新加入 vCenter Server 域:

    1. 将主机添加到 vCenter Server。

    2. 将主机加入到域(例如 example.com)

    3. 将所有主机升级到 ESXi 6.0。

    4. 将一台最近升级的主机手动加入域。

    5. 提取主机配置文件并禁用所有其他配置文件(身份验证配置文件除外)。

    6. 将手动加入域的主机配置文件应用到其他最近升级的主机。

  • 在升级适用于 Windows 的 vCenter Server 后,此前运行的 VMware ESXi Dump Collector 服务将重置为默认设置“已禁用”
    升级过程将 VMware Vsphere ESXi Dump Collector 6.0 安装为 vCenter Server 的可选服务组的一部分。您必须手动启用 VMware vSphere ESXi Dump Collector 服务,以将其用作适用于 Windows 的 vCenter Server 6.0 的一部分。

    解决办法:阅读 VMware 文档或搜索 VMware 知识库,了解如何启用和运行 vCenter Server 6.0 for Windows 中的可选服务。

    在操作系统中启用 VMware vSphere ESXi Dump Collector服务:

    1. 在“控制面板”菜单中,选择管理工具,并双击服务

    2. 右键单击 VMware vSphere ESXi Dump Collector编辑启动类型

    3. 启动类型设置为自动

    4. 右键单击 VMware vSphere ESXi Dump Collector启动

    服务启动类型设置为自动,并且服务处于运行状态。

vCenter Single Sign-On 和证书管理问题
  • 在升级 ESXi 主机的 SSL 证书后无法连接到虚拟机控制台
    如果升级 ESXi 主机所使用的 SSL 证书,然后在证书被替换后尝试连接到任何正在运行的虚拟机的控制台,可能出现证书验证错误。这是因为旧证书已缓存,任何新控制台连接都将因证书不匹配而被拒绝。
    控制台连接可能仍然成功(例如,可以通过其他方式验证旧证书),但是不能确保一定成功。现有虚拟机控制台连接不受影响,但是如果在证书替换时控制台正在运行、已停止或已重新启动,则可能发生此问题。

    解决办法:将主机置于维护模式,或者挂起或关闭所有虚拟机。仅会影响正在运行的虚拟机。最佳做法是先将主机置于维护模式,然后升级所有 SSL 证书。

网络连接问题

  • vSphere 的某些功能不支持 IPv6
    可以为所有节点和组件启用 IPv6,但以下功能除外:

    • 未映射到 DNS 服务器上的完全限定域名 (FQDN) 的 ESXi 主机和 vCenter Server 的 IPv6 地址。
      解决办法:直接使用 FQDN,或确保 IPv6 地址映射到 DNS 服务器上的 FQDN 以便能够进行反向名称查找。

    • 虚拟卷

    • 作为 Auto Deploy 与主机配置文件的一部分的 PXE 引导
      解决办法:以 PXE 方式通过 IPv4 启动 ESXi 主机,并使用主机配置文件为主机配置 IPv6 地址。

    • ESXi 主机和 vCenter Server Appliance 到 Active Directory 的连接
      解决办法:使用 Active Directory over LDAP 作为 vCenter Single Sign-On 中的标识源。

    • 基于 Kerberos 验证方式的 NFS 4.1 存储
      解决办法:使用基于 AUTH_SYS 验证方式的 NFS 4.1。

    • Authentication Proxy

    • vSphere Management Assistant 和 vSphere Command-Line Interface 到 Active Directory 的连接。
      解决办法:通过 LDAP 协议连接 Active Directory。

    • 使用 vSphere Client 对 vSphere 的功能启用 IPv6
      解决办法:使用 vSphere Web Client 对 vSphere 的功能启用 IPv6。

  • 在使用 ESXi Dump Collector 功能时可能会发生重复内核严重错误。
    当主机处于应急状态(将显示紫色诊断屏幕,并通过网络向 ESXi Dump Collector 写入核心转储数据)时,会发生重复内核严重错误。VMkernel zdump 文件可能无法用于 vCenter Server 上的 ESXi Dump Collector 的故障排除。

    当发生重复内核严重错误时,主机的紫色故障诊断屏幕会显示如下消息:
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    当通过同时被配置为向 vCenter Server 上的收集器发送核心转储数据的物理网络适配器传输大量数据而导致 VMkernel 发生严重错误时,就会出现重复内核严重错误。

    解决办法:执行以下任一种解决办法:

    • 配置一个物理网络适配器以专用于传输核心转储数据,从而降低系统及虚拟机流量的影响。

    • 通过运行以下 ESXCLI 控制台命令禁用主机上的 ESXi Dump Collector:
      esxcli system coredump network set --enable false

存储问题

NFS 版本 4.1 问题

  • 当 NFS 4.1 共享从全部路径异常 (APD) 状态中恢复后,NFS 4.1 数据存储上的虚拟机失败
    当 NFS 4.1 存储进入 APD 状态并在一段宽限期后退出此状态时,在 NFS 4.1 数据存储上运行的已打开电源的虚拟机将失败。宽限期的长短取决于存储阵列供应商的设置。
    在 NFS 4.1 共享从 APD 状态恢复后,您会在 vSphere Web Client 的虚拟机摘要页中看到如下消息:
    用于保护 VM.vmdk 的锁丢失,可能是因为底层存储问题导致。如果此虚拟机配置为具有高可用性,则请确保在单击“确定”前此虚拟机正在其他主机上运行 (The lock protecting VM.vmdk has been lost, possibly due to underlying storage issues. If this virtual machine is configured to be highly available, ensure that the virtual machine is running on some other host before clicking OK)。
    在您单击“确定”后,系统会生成崩溃文件并关闭此虚拟机。

    解决办法:无。

  • 在创建新会话时,NFS 4.1 客户端失去与服务器的同步
    在与服务器中断连接一段时间后,当尝试创建新会话时,NFS 4.1 客户端可能失去与服务器的同步。当发生该情况时,vmkernel.log 文件中会包含一系列简短的警告消息,指出 NFS41 CREATE_SESSION 请求由于 NFS4ERR_SEQ_MISORDERED 而失败。

    解决办法:执行下面的步骤序列。

    1. 尝试卸载受影响的文件系统。如果在卸载时没有打开任何文件,则此操作会成功,并且 NFS 客户端模块会清除其内部状态。然后可以重新挂载被卸载的文件系统,并继续执行正常操作。

    2. 关闭连接到文件系统 IP 地址的网卡,并使其持续断开一段时间以确保几个服务器租期过期。五分钟应已足够。然后可以重新启动网卡。此时可以继续执行正常操作。

    3. 如果上述步骤失败,请重新引导 ESXi 主机。

  • NFS 4.1 客户端失去与 NFS 服务器的同步,并且即使重置会话也无法恢复连接
    在与服务器中断连接一段时间后,NFS 4.1 客户端可能会失去与服务器的同步,并且即使重置会话也无法恢复与服务器的同步连接。此问题是由 EMC VNX 服务器问题导致的。当发生该情况时,vmkernel.log 文件会记录一系列简化的警告消息,指出 NFS41: NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug

    解决办法:要终止此会话,请卸载并重新挂载所有数据存储。

  • ONTAP Kerberos 卷变得无法访问或遇到虚拟机 I/O 故障
    当 NetApp 服务器接收的 RPCSEC_GSS 请求的顺序错误时,则不会做出响应。这将导致相应的 I/O 操作停止(直到被强行终止),并且客户机操作系统可能会停止或遇到 I/O 错误。此外,根据 RFC 2203 和 RPCSEC_GSS 上下文,客户端最多只能有数量等于 seq_window(如果是 ONTAP,则为 32)的未处理请求,并且必须等待,直到最慢的未处理请求被服务器处理完成。因此,服务器永远不会响应顺序错误的 RPCSEC_GSS 请求,并且客户端将在未处理请求数达到最大 seq_window 之后停止向服务器发送请求。这将导致卷无法访问。

    解决办法:无。检查最新的硬件兼容性列表 (HCL) 以找到已解决该问题的受支持的 ONTAP 服务器。

  • 无法在 EMC VNX 中的 NFS 4.1 数据存储设备上创建大于 1 TB 的虚拟磁盘
    固件版本为 7.x 的 EMC VNX 中的 NFS 4.1 存储设备仅支持 32 位文件格式。这导致无法在 NFS 4.1 数据存储设备上创建大于 1 TB 的虚拟机文件。

    解决办法:将 EMC VNX 阵列更新为版本 8.x。

  • 在固件升级期间,由 EMC VNX 存储支持的 NFS 4.1 数据存储变得无法访问
    当将 EMC VNX 存储升级到新的固件版本后,ESXi 主机上挂载的 NFS 4.1 数据存储将变得无法访问。发生此故障是因为 VNX 服务器在固件升级后更改了其主设备编号。主机上的 NFS 4.1 客户端预期在其建立与服务器的连接后不会发生主备编号变更,因此导致数据存储永久性地无法访问。

    解决办法:在升级固件版本前,卸载所有从 VNX 服务器导出的 NFS 4.1 数据存储。

  • 如果 ESXi 主机使用不同的安全机制来挂载相同的 NFS 4.1 数据存储设备,则虚拟机可能出现故障
    如果 ESXi 主机使用不同的安全机制(AUTH_SYS 和 Kerberos)挂载相同的 NFS 4.1 数据存储设备,则放置在该数据存储上的虚拟机可能会遇到问题并出现故障。例如,当您尝试将虚拟机从 host1 迁移到 host2 时操作可能失败,并显示权限被拒错误。当尝试从 host2 访问 host1 的虚拟机时也可能会遇到这些错误。

    解决办法:请确保挂载 NFS 4.1 卷的所有主机都使用相同的安全类型。

  • 无法使用 Kerberos 验证方式将只读文件复制到 NFS 4.1 数据存储
    从源文件复制数据到目标文件时可能出现此故障。目标文件仍保持为空。

    解决办法:无。

  • 创建数据存储集群时无法保证 NFS 4.1 安全类型的一致性
    在创建数据存储集群时,vSphere 不会验证并强制实施 NFS 4.1 安全类型的一致性。因此,同一集群中可包括使用不同安全类型(AUTH_SYS 和 Kerberos)的数据存储。如果将虚拟机从采用 Kerberos 验证方式的数据存储迁移到采用 AUTH_SYS 验证方式的数据存储,则该虚拟机的安全级别将降低。
    vMotion、Storage vMotion、DRS 和 Storage DRS 等功能均存在此问题。

    解决办法:如果您的虚拟机要求使用 Kerberos 验证方式,请确保组成同一集群的所有 NFS 4.1 卷均只使用 Kerberos 安全类型。请不要包括 NFS 3 数据存储,因为 NFS 3 仅支持 AUTH_SYS。

Virtual Volumes 问题

  • 由于 Virtual Volumes VASA 提供程序使用了错误的证书,导致无法创建虚拟数据存储
    有时,Virtual Volumes VASA 提供程序使用的自签名证书可能错误地将 KeyUsage 扩展定义为关键,而未设置 keyCertSign 位。在此情况下,提供程序注册会成功。但是,您无法从 VASA 提供程序所报告的存储容器中创建虚拟数据存储。

    解决办法:VASA 提供程序在注册时所使用的自签名证书不应在没有设置 keyCertSign 位的情况下将 KeyUsage 扩展定义为关键。

一般存储问题

  • 新问题如果新虚拟机是从现有磁盘创建的,vSphere Web Client 会错误地将存储策略显示为已附加
    如果使用 vSphere Web Client 从现有磁盘创建新虚拟机并且在设置磁盘时指定了存储策略,当您选择新虚拟机 --> 单击虚拟机策略 --> 编辑虚拟机存储策略时,筛选器显示为待附加,但该筛选器实际已附加。可以检查 .vmdk 文件或 vmkfstools --iofilterslist <vmdk-file> 以验证该筛选器是否已附加。

    解决办法:创建新虚拟机之后、打开电源之前,请通过单击虚拟机策略 --> 编辑虚拟机存储策略将该筛选器添加到 vmdk。

  • 新问题在 IPv6 设置上安装 I/O 筛选器不会向 VPXD 发布其功能
    在通过 VIM API 成功安装 I/O 筛选器后,所安装筛选器无法向 VPXD 发布筛选功能。您无法将筛选器配置文件附加到所有磁盘,因为所有功能都未发布到 VMware vSphere 基于存储策略的管理 (SPBM)。

    解决办法:无。

  • 新问题NFS 查找操作返回 NFS 失效错误
    在 NFS 数据存储中部署大量虚拟机时,虚拟机部署因存在争用情况而失败,并显示类似于以下内容的错误消息:

    失效 NFS 文件句柄 (Stale NFS file handle)

    解决办法:重新启动查找操作。有关详细信息,请参见知识库文章 2130593

  • 使用 QLogic iSCSI 适配器时,在 Dell EqualLogic LUN 上创建 VMFS 数据存储的尝试失败。
    无法在通过 QLogic iSCSI 适配器检测到的 Dell EqualLogic 存储设备上创建 VMFS 数据存储。
    当尝试失败时,vCenter Server 会显示如下错误消息:无法创建文件系统,请参见 VMkernel 日志获取更多详细信息:连接超时 (Unable to create Filesystem, please see VMkernel log for more details: Connection timed out)。VMkernel 日志中包含连续的 iscsi 会话被阻止 (iscsi session blocked) 以及已取消阻止 iscsi 会话 (iscsi session unblocked) 消息。Dell EqualLogic 存储阵列的监控日志中会显示针对 QLogic 启动器 IQN 名称的从启动器接收的包中出现协议错误 (protocol error in packet received from the initiator) 消息。

    当使用下列组件时会遇到此问题:

    • Dell EqualLogic 阵列固件:V6.0.7

    • QLogic iSCSI 适配器固件版本:3.00.01.75

    • 驱动器版本:5.01.03.2-7vmw-debug

    解决办法:在 QLogic iSCSI 适配器上启用 iSCSI ImmediateData 适配器参数。默认情况下会关闭此参数。您无法通过 vSphere Web Client 或 esxcli 命令更改此参数。要更改此参数,请使用供应商提供的软件,例如 QConvergeConsole CLI。

  • 安装有 Emulex OneConnect HBA 的 ESXi 主机无法引导
    当在 ESXi 主机中安装了 Emulex OneConnect HBA 后,主机可能无法引导。此故障是由于 Emulex 固件问题导致的。

    解决办法:要解决此问题,请联系 Emulex 以获取适用于您的 HBA 的最新固件。

    如果要继续使用旧固件,请按照以下步骤操作以避免引导故障:

    1. 加载 ESXi 时, 在引导 ESXi 内核前按 Shift+O 组合键。

    2. 按原样保留当前引导选项,并在 dmaMapperPolicy=false 之后添加一个空格。

  • 在 APD 期间 Flash Read Cache 不加速 I/O。
    当被配置为 Flash Read Cache 虚拟闪存资源的闪存磁盘发生故障或不可访问时,或者当磁盘存储无法从主机进行访问时,主机上的 Flash Read Cache 实例将无效并且无法加速 I/O。因此,在主机与存储之间重新建立连接后,缓存将不存储旧数据。连接中断状态可能为暂时的全部路径异常 (APD),或者是永久的永久设备丢失 (PDL)。此状态会一直持续,直到虚拟机被重启。

    解决办法:可以重启虚拟机,以恢复使用 Flash Read Cache 的 I/O 加速功能。

  • 全部路径异常 (APD) 或路径故障切换可能会导致系统故障
    在共享 SAS 环境中,如果磁盘已由 lsi_msgpt3 驱动程序声明,并且这些磁盘正在进行高负荷 I/O 操作,则 APD 或路径故障切换可能会导致系统故障。

    解决办法:无

  • 频繁使用 SCSI 命令停止进程可能会导致系统故障
    在高负荷 I/O 操作状态下,频繁使用 SCSI 命令停止进程会导致 MegaRAID 控制器的响应变得很慢。如果在之前上下文中已释放的资源引用发生异常中断,则可能导致系统故障。

    解决办法:无

  • 更改 IQN 时导致 iSCSI 连接失败且数据存储设备无法访问
    如果您更改 iSCSI 适配器的 IQN,而此时该适配器上的 iSCSI 会话仍处于活动状态,则会导致此问题。

    解决办法:在更改 iSCSI 适配器的 IQN 时,该适配器上不应该有会话处于活动状态。在更改 IQN 前移除适配器上的所有 iSCSI 会话及目标。

  • nvmecli 联机和脱机操作无法始终生效
    当您执行 nvmecli device online -A vmhba* 操作以使 NVMe 设备联机时,该操作似乎已成功。但是,此设备可能仍处于脱机状态。

    解决办法:通过运行 nvmecli device list 命令检查 NVMe 设备的状态。

Virtual SAN 问题
  • 新问题将主机添加到 Virtual SAN 集群触发安装程序错误
    将 ESXi 主机添加到启用了 HA 和 Virtual SAN 运行状况服务的集群时,由于存在 VIB 安装争用情况,因此,您可能会遇到以下错误中的一个或两个:

    • 在任务视图中,“配置 vSphere HA”任务可能会失败,并显示类似于以下内容的错误消息:

      无法安装 vCenter Server 代理服务。“未知安装程序错误”(Cannot install the vCenter Server agent service. ‘Unknown installer error’)

    • 启用代理任务可能会失败,并显示类似于以下内容的错误消息:

      无法完成操作。有关详细信息,请参见事件日志 (Cannot complete the operation, see event log for details) 状态。

    解决办法:

    • 要解决 HA 配置故障,需重新引导主机,然后重新配置 HA,如下所示:

      “主机和集群”视图 -> 单击集群名称 ->“管理”选项卡 ->“vSphere HA”

    • 要修复启用代理任务故障,需转到集群视图,然后重新尝试启用 VSAN 运行状况服务,如下所示:

      “主机和集群”视图 -> 单击集群名称 ->“管理”选项卡 ->“Virtual SAN”类别下的“运行状况”,然后单击顶部的“重试”按钮

服务器配置问题
  • 在将有状态主机的主机配置文件应用到使用 Auto Deploy 置备的主机时,修复操作失败
    将有状态部署主机的主机配置文件应用到使用 Auto Deploy 置备的、无本地存储的主机(无状态主机)时,修复操作尝试失败,并显示以下其中一条错误消息:

    • 您主机中没有位于 PCI 总线地址 sxxxxxxxx.xx 的 vmhba 设备 (The vmhba device at PCI bus address sxxxxxxxx.xx is not present on your host)。您必须关闭主机,然后向 PCI 插槽 yy 插入卡。 卡类型应与引用主机中的卡类型一致。

    • 未找到任何有效的 coredump 分区。

    解决办法:在主机配置文件中禁用引起问题的插件(例如,设备别名配置或核心转储配置),然后修复该主机配置文件。

  • 向主机应用具有静态 IP 的主机配置文件导致合规性错误
    如果从具有 DHCP 网络配置的主机提取主机配置文件,然后编辑此主机配置文件使其具有静态 IP 地址,则将该主机配置文件应用到其他主机时发生合规性错误,并显示以下消息:

    IPv4 路由数不匹配。(Number of IPv4 routes did not match.)

    解决办法:从 DHCP 主机提取主机配置文件之前,对主机进行配置,使其具有静态 IP 地址。

  • 如果热添加网络资源过载的虚拟网络适配器,可能导致虚拟机被关闭。
    在启用了 Network I/O Control 功能的 vSphere Distributed Switch 中,已打开电源的虚拟机会根据主机的物理网络适配器的虚拟机系统流量预留策略配置带宽预留。您可以向虚拟机设置网络带宽预留(该预留超出主机的物理网络适配器上的可用带宽)热添加网络适配器。

    当热添加网络适配器时,VMkernel 会启动“快速挂起和恢复”(FSR) 进程。由于虚拟机请求超出可用量的网络资源,因此 VMkernel 会遇到 FSR 进程的故障路径。该故障路径中的错误将导致虚拟机关闭电源。

    解决办法:在向打开电源的虚拟机中添加网络适配器时,不要配置带宽预留。

VMware HA 和 Fault Tolerance 问题
  • 新问题Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台不支持旧版 Fault Tolerance (FT)
    Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台不支持旧版 FT。启用单处理器旧版 Fault Tolerance 之后,尝试打开虚拟机电源将失败。

    解决办法:无。

客户机操作系统问题
  • 在进行热插拔后尝试在 NVMe PCIe SSD 设备上启用直通模式可能失败
    要通过 vSphere Web Client 在 SSD 设备上启用直通模式,您选择一个主机,单击管理选项卡,然后单击设置,导航到硬件部分,单击 PCI 设备 > 编辑,从可以启用直通模式的活动设备列表中选择一个设备,单击确定。但是,当您将新的 NVMe 设备以热插拔方式连接到没有安装 PCIe NVMe 驱动器的 ESXi 6.0 主机时,新的 NVMe PCIe SSD 设备无法启用直通模式,且不会显示在可用直通设备列表中。

    解决办法:重新启动您的主机。您也可以在 ESXi 主机上运行命令。

    1. 以 root 用户身份登录。

    2. 运行命令
      /etc/init.d/hostd start

受支持硬件问题
  • 对于 HP 服务器上的 Avago 控制器,在运行 esxcli 以获取磁盘位置时,所显示的结果不正确

    对于 HP 服务器上的 Avago 控制器,运行 esxcli storage core device physical get 后显示的结果不正确。

    例如,如果运行以下命令:
    esxcli storage core device physical get -d naa.5000c5004d1a0e76
    系统将返回以下结果:
    Physical Location: enclosure 0, slot 0

    该插槽在物理服务器上的实际标签为 1。

    解决办法:仔细检查 HP 服务器上的插槽。由于 HP 服务器上的插槽编号从 1 开始,因此必须增加命令返回的插槽编号,这样才能显示正确结果。

CIM 和 API 问题
  • 新问题sfcb-vmware_raw 可能会失败
    由于分配的最大默认插件资源组内存不足,因此 sfcb-vmware_raw 可能会失败。

    解决办法:使用以下命令针对 sfcbd 插件的内存限制添加用户变量 CIMOemPluginsRPMemMax,然后重新启动 sfcbd 以使新插件值生效:

    esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

    XXX 是指要分配的内存限制。此值应介于最小值 (175) 与最大值 (500) 之间。

其他问题
  • 新问题Virtual SAN Observer 支持 SSLv3 加密
    默认情况下在 ESXi 6.0 Update 1 中禁用 SSLv3,但是,Virtual SAN Observer 仍支持 SSLv3。

    解决办法:无。

VMware Tools 问题
  • 新问题open-vm-tools 9.10 内的编译 vmxnet 模块无法通过内核版本 3.3.0 或更高版本进行编译
    编译和安装 open-vm-tools 9.10 时,您可能会遇到多个错误,因为 vmxnet.c 无法通过内核版本 3.3.0 或更高版本进行编译。已为 open-vm-tools 9.10.2 解决该问题,您可以通过任意内核版本安装 open-vm-tools 9.10.2。

    解决办法:要安装 open-vm-tools 9.10,请从 ./configure--without-kernel-modules 编辑 vmxnet。

>
check-circle-line exclamation-circle-line close-line
Scroll to top icon