ESXi 6.0 Update 2 | 2016 年 3 月 15 日 | ISO 内部版本 3620759

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

  • 高速以太网链路:ESXi 6.0 Update 2 支持 25 G 和 50 G 的以太网链路速度。

  • VMware Host Client:VMware Host Client 是一款 HTML5 客户端,用于连接和管理单个 ESXi 主机。它可用来执行管理任务,以便管理各种主机资源,例如虚拟机、网络连接和存储。vCenter Server 和 vSphere Web Client 不可用时,VMware Host Client 也可用于对单个虚拟机或主机执行故障排除。有关 VMware Host Client 的详细信息,请参见 VMware Host Client 1.0 发行说明

  • VMware Virtual SAN 6.2:新的 VMware Virtual SAN 6.2 与 ESXi 6.0 Update 2 捆绑在一起。有关 Virtual SAN 的详细信息,请参见 VMware Virtual SAN 6.2 发行说明

    Virtual SAN 在 ESXi 映像中添加了新的 vsan vib。此新 vib 导致在 esx-base vib 中添加了一项依赖关系,进而要求在新的 6.0 Update 2 主机上安装 vsan vib。有关详细信息,请参见知识库文章 2144595

  • vSphere APIs for I/O Filtering (VAIO) 增强功能:

    • ESXi 6.0 Update 2 在纯 IPv6 环境下支持 IO 筛选器 VASA 提供程序。有关其他信息,请参见已解决的问题部分。

    • ESXi 6.0 Update 2 支持 VMIOF 版本 1.0 和 1.1。有关其他信息,请参见已解决的问题部分。

  • ESXi 6.0 Update 2 解决了已解决的问题部分中记录的问题。

ESXi 6.0 的早期版本

各个版本的发行说明中分别描述了 ESXi 6.0 的功能和已知问题。ESXi 6.0 的早期版本的发行说明包括:

国际化

VMware ESXi 6.0 提供以下语言的版本:

  • 英语
  • 法语
  • 德语
  • 日语
  • 韩语
  • 简体中文
  • 西班牙语
  • 繁体中文

VMware vSphere 6.0 的组件(包括 vCenter Server、ESXi、vSphere Web Client 和 vSphere Client)不接受非 ASCII 输入。

兼容性

ESXi、vCenter Server 和 vSphere Web Client 的版本兼容性

VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server、vSphere Web Client 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 VMware 产品互操作性列表以了解有关受支持的管理和备份代理的信息。

vSphere Web Client 与 vCenter Server 打包在一起。vSphere Client 可以从模块 ISO 文件中包含的 VMware vCenter 自动运行菜单进行安装 。

ESXi 的硬件兼容性

要查看与 vSphere 6.0 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请查看《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

ESXi 的设备兼容性

要确定哪些设备与 ESXi 6.0 兼容,请查看《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

某些设备已在 ESXi 6.0 上弃用,并且不再受支持。在升级过程中,设备驱动程序安装在 ESXi 6.0 主机上。虽然设备的驱动程序仍可以在 ESXi 6.0 中运行,但是设备将不受 ESXi 6.0 支持。有关 ESXi 6.0 上已弃用且不再支持的设备列表,请参见知识库文章 2087970

ESXi 的第三方交换机兼容性

VMware vSphere 6.0 现在支持 Cisco Nexus 1000V。vSphere 要求 NX-OS 版本最低为 5.2(1)SV3(1.4)。有关 Cisco Nexus 1000V 的详细信息,请参见 Cisco 发行说明。在以前的 vSphere 版本中,不支持 Ciscso Nexus 1000V AVS 模式。

ESXi 的客户机操作系统兼容性

要确定哪些客户机操作系统与 vSphere 6.0 兼容,请查看《VMware 兼容性指南》中关于 ESXi 6.0 的信息。

ESXi 的虚拟机兼容性

ESXi 6.0 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 6.0 上使用此类虚拟机,请升级虚拟机兼容性。请参见《vSphere 升级》文档。

此版本的安装与升级

此版本的安装说明

有关安装和配置 ESXi 和 vCenter Server 的指导,请阅读《vSphere 安装和设置》文档。

虽然安装过程很简单,但是仍须执行若干后续配置步骤。请阅读以下文档:

建议的 vSphere 6.0 部署模型

VMware 只建议使用两种部署模型:

  • 具有嵌入式 Platform Services Controller 部署的 vCenter Server。如果需要在数据中心内部署一个或多个独立 vCenter Server 实例,建议使用此模型。建议不要在这些具有嵌入式 Platform Services Controller 部署的 vCenter Server 模型之间进行复制。

  • 具有外部 Platform Services Controller 部署的 vCenter Server。只有当需要链接多个 vCenter Server 实例,或需要减少 Platform Services Controller 在数据中心的内存占用量时,才建议使用此模型。支持在这些具有外部 Platform Services Controller 部署的 vCenter Server 模型之间进行复制。

有关安装和配置 vCenter Server 的指导,请阅读《vSphere 安装和设置》文档。

阅读 vSphere 6.0 及其兼容的 VMware 产品的更新顺序,了解更新 vSphere 组件应采用的正确顺序。

此外,有关安装和配置 vCenter Server 的指导信息,请阅读知识库文章 2108548

vCenter 主机操作系统信息

请阅读知识库文章 2091273

备份和还原使用外部 Platform Services Controller 部署的 vCenter Server 和 vCenter Server Appliance

尽管《vSphere 安装和设置》文档中的声明限制您尝试备份和还原使用外部 Platform Services Controller 部署的 vCenter Server 和 vCenter Server Appliance,您仍然可以按照知识库文章 2110294 中的步骤执行此任务。

从嵌入式 Platform Services Controller 迁移到外部 Platform Services Controller

具有嵌入式 Platform Services Controller 部署的 vCenter Server 不能自动迁移到具有外部 Platform Services Controller 部署的 vCenter Server。对此迁移实用程序的测试未完成。

在安装 vCenter Server 之前,确定所需的部署选项。如果复制设置程序需要使用多个 vCenter Server,应始终部署具有外部 Platform Services Controller 部署的 vCenter。

迁移第三方解决方案

有关使用第三方自定义进行升级的信息,请参见《vSphere 升级》文档有关使用 Image Builder 创建自定义 ISO 的信息,请参见《vSphere 安装和设置》文档

禁止对不支持的 CPU 进行升级和安装

vSphere 6.0 仅支持在 2006 年 6 月(第三季度)以后推出的处理器。与 vSphere 5.x 所支持的处理器相比较,vSphere 6.0 不再支持以下处理器:

  • AMD Opteron 12xx 系列
  • AMD Opteron 22xx 系列
  • AMD Operton 82xx 系列

在安装或升级过程中,安装程序检查主机 CPU 与 vSphere 6.0 的兼容性。如果您的主机硬件不兼容,将显示包含不兼容性说明消息的紫色屏幕,并且 vSphere 6.0 安装过程会停止。

此版本的升级说明

有关升级 vCenter Server 和 ESX/ESXi 主机的说明,请参见《vSphere 升级》文档。

VMware vSphere 6.0 的开源组件

有关适用于 vSphere 6.0 中分发的开源软件组件的版权声明和许可证,请访问 http://www.vmware.com。您需要登录您的 My VMware 帐户。然后在下载菜单中选择 vSphere。在开源选项卡中,还可以下载需向 vSphere 最新可用版本提供其源代码或源代码变更的所有 GPL、LGPL 或其他类似许可证的源文件。

产品支持注意事项

  • vCenter Server 数据库。在 vSphere 6.0 版本中,作为 vCenter Server Appliance 的外部数据库的 Oracle 11g 和 12c 已被弃用。VMware 继续支持在 vSphere 6.0 中将 Oracle 11g 和 12c 用作外部数据库。在将来的主要版本中,VMware 不再支持将 Orace 11g 和 12c 用作 vCenter Server Appliance 的外部数据库。

  • vSphere Web Client。在 vSphere 6.0 Web Client 中,对象的监控选项卡中不再提供存储报告选择。

  • vSphere Client。vSphere 6.0 Client 中不再提供存储视图选项卡。

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。有关各个公告的详细信息,请参见 VMware 下载修补程序页面。

修补程序版本 ESXi600-Update02 包含以下公告:

ESXi600-201603201-UG:更新 esx-base、vsanhealth、vsan vib
ESXi600-201603202-UG:更新 misc-drivers、xhci-xhci 等
ESXi600-201603203-UG:更新 ESXi 6.0 esx-tboot vib
ESXi600-201603204-UG-BG:更新 ESXi 6.0 tools-light vib
ESXi600-201603205-UG-BG:更新 ESXi 6.0 esx-ui vib
ESXi600-201603206-UG-BG:更新 ESXi 6.0 nvme vib
ESXi600-201603207-UG-BG:更新 ESXi 6.0 net-vmxnet3 vib
ESXi600-201603208-UG-BG:更新 ESXi 6.0 sata-ahci vib

修补程序版本 ESXi600-Update02 (Security-only build) 包含以下公告:

ESXi600-201603101-SG:更新 ESXi 6.0 esx-base vib
ESXi600-201603102-SG:更新 ESXi 6.0 tools-light vib

修补程序版本 ESXi600-Update02 包含以下映像配置文件:

ESXi-6.0.0-20160302001-standard
ESXi-6.0.0-20160302001-no-tools

修补程序版本 ESXi600-Update02 (Security-only build) 包含以下映像配置文件:

ESXi-6.0.0-20160301001s-standard
ESXi-6.0.0-20160301001s-no-tools

有关修补程序和更新分类的信息,请参见知识库文章 2014447

已解决的问题

已解决的问题分为以下几组。



CIM 和 API 问题
  • 使用第三方软件 ServerView RAID Manager 时,硬件监控可能失败
    使用第三方软件 ServerView RAID Manager 时,硬件监控可能失败。争用情况导致 sfcb-vmware_aux 停止响应。

    本版本已解决该问题。

  • “硬件状态”选项卡停止响应并显示错误消息
    按字访问 FRU 设备且 read_cnt 大于等于 1 时,“硬件状态”选项卡可能会停止响应。类似以下内容的错误消息会记录到 syslog.log 文件中:

    Dropped response operation details -- nameSpace: root/cimv2, className: OMC_RawIpmiEntity, Type: 0\

    本版本已解决该问题。

其他问题
  • 使用 PowerCLI 执行 esxcli 命令时,hostd 停止响应
    使用 PowerCLI 执行 esxcli 命令可能会导致内存泄漏以及内存使用量超出硬性限制,以致于 hostd 可能会停止响应。类似以下内容的错误消息会记录到 hostd.log 文件中:

    YYYY-MM-DDTHH:MM:SS.135Z [nnnnnnnn error 'UW Memory checker'] Current value 646016 exceeds hard limit 643993.Shutting down process.

    本版本已解决该问题。
  • ESXi 主机显示紫色诊断屏幕并显示多条“可更正计算机检查中断”(CMCI) 消息

    由于短时间内 vmkernel.log 文件中的多个 CMCI 导致 CPU 无响应,ESXi 主机可能会失败并显示紫色诊断屏幕。紫色诊断屏幕中会显示类似以下内容的条目:

    PCPU <N>: no heartbeat (2/2 IPIs received)
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]MCEReapMCABanks@vmkernel#nover+0x195
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]MCEHandleCMCI@vmkernel#nover+0xb4
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]IRQ_DoInterrupt@vmkernel#nover+0x33e
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]IDT_IntrHandler@vmkernel#nover+0x12b 0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]gate_entry@vmkernel#nover+0x64
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]LFQueue_Dequeue@vmkernel#nover+0x59
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]MCEBottomHalf@vmkernel#nover+0x39
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]BH_DrainAndDisableInterrupts@vmkernel#nover+0xf3
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]VMMVMKCall_Call@vmkernel#nover+0x2c6


    将向 vmkernel.log 文件中记录类似于以下内容的条目:

    cpu1:33127)MCE: 1118: cpu1: MCA error detected via CMCI (Gbl status=0x0): Restart IP: invalid, Error IP: invalid, MCE in progress: no.
    cpu1:33127)MCE: 231: cpu1: bank9: MCA recoverable error (CE): "Memory Controller Scrubbing Error on Channel 0."
    cpu1:33127)MCE: 222: cpu1: bank9: status=0xXXXXXXXXXXXXXXXX: (VAL=1, OVFLW=0, UC=0, EN=0, PCC=0, S=0, AR=0), ECC=no, Addr:0xXXXXXXXXXXXXXXXX (valid), Misc:0x8c3589300 (valid)

    本版本已解决该问题。

网络连接问题
  • vSISH 统计信息显示大量数据包丢失
    由于整数溢出,VSISH 统计信息可能会显示大量误报的数据包丢失。

    本版本已解决该问题。
  • VXLAN 环境中启用了 Netflow 功能的 ESXi 主机可能会出现故障,并显示紫色诊断屏幕
    在 VXLAN 环境中启用了 Netflow 功能的 ESXi 主机可能会出现故障,且紫色诊断屏幕中会显示类似以下内容的条目:

    @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4923 - Usage error in dlmalloc
    PTEs:0xnnnnnnnn;0xnnnnnnnn;0x0;
    0xnnnnnnnn:[0xnnnnnnnn]PanicvPanicInt@vmkernel#nover+0x37e
    ....
    ....
    0xnnnnnnnn:[0xnnnnnnnn]Net_AcceptRxList@vmkernel#nover+0x115


    本版本已解决该问题。
  • 在 vDS 环境中删除 LAG 后,vMotion 操作失败
    在 vSphere Distributed Switch (vDS) 环境中,删除链路聚合组 (LAG) 后,vMotion 操作失败。“vMotion 向导兼容性”会显示类似以下内容的错误消息:

    当前已连接的网络接口“网络适配器 1”使用无法访问的网络“DSwitchName”(Currently connected network interface 'Network Adapter 1" uses network 'DSwitchName', which is not accessible)

    本版本已解决该问题。
  • 收集 ESXi 日志包时,以太网光纤通道 (FCoE) 链路可能关闭
    收集 ESXi 日志包时,lldpnetmap 命令启用 LLDP;但是 LLDP 只能设置为“二者”(Both) 模式,且 LLDP 数据包由 ESXi 主机发出。这些数据包可能导致 FCoE 链路关闭。

    本版本已解决该问题。
  • Hostd 日志在较短时间内连续多次充满大量错误消息
    Hostd 日志在较短时间内,连续多次充满大量类似以下内容的错误消息:

    Failed to get vsi stat set: Sysinfo error on operation returned status : Not found.有关详细错误信息,请参见 VMkernel 日志 (Sysinfo error on operation returned status: Busy. Please see the VMkernel log for detailed error information)。

    本版本已解决该问题。


安全问题
  • NTP 软件包更新
    ESXi NTP 软件包已更新到 4.2.8p4 版本。

  • 更新 zlib 版本
    zlib 已更新到 1.2.8 版本。

  • 更新 libPNG 库
    libPNG 库已更新到 libpng-1.6.20。

  • OpenSSH 版本更新
    OpenSSH 已更新到 7.1p1 版本。

  • 由于证书文件中缺少换行符,导致 IO 筛选器 VASA 提供程序未能完成初始化
    IO 筛选器 VASA 提供程序读取并合并证书和专用密钥文件以生成 pem 文件。如果证书文件不是以换行符结尾,将创建 OpenSSL 无法识别的无效 pem 文件。这会产生错误,从而导致 iofiltervp 无法初始化。

    本版本已解决该问题。

服务器配置问题
  • 将 ESXi 主机加入 Active Directory 后,无法执行 Active Directory 操作
    将 ESXi 主机加入 Active Directory 后,您可能无法执行 Active Directory 活动,例如为从不同的受信任域添加到 Active Directory 的用户添加权限、执行登录以及其他活动。在 /var/log/likewise.log 文件中,您会看到类似以下内容的条目:

    20150522181259:DEBUG:lsass:LsaJoinDomain():join.c:380: Error code: 40286 (symbol: LW_ERROR_LDAP_SERVER_DOWN)

    本版本已解决该问题。

  • 添加了最新 PCI ID
    pci.ids 文件已更新,现在包含最新 PCI ID。

  • 发生资源池分配错误时,ESXi 主机未进入维护模式
    发生资源池分配错误时,ESXi 主机未进入维护模式。

    本版本已解决该问题。

存储问题
  • ESXi mClock I/O 调度程序未按预期工作
    即便在使用 vSphere Client 更改虚拟机的 IOPS 后,ESXi mClock I/O 调度程序也未限制 I/O,减轻负载。

    本版本已解决该问题。

  • 现有 LUN 的路径状态更新延迟
    有时,您可能会发现 LUN 路径状态更新出现稍许延迟,因为内部 API 并未向现有 LUN 发出扫描调用。

    本版本已解决该问题。

  • 尝试附加多个 Appstack 时需要很长时间
    尝试将多个 Appstack 或可写卷附加到虚拟机时,虚拟机重新配置过程出现延迟。

    本版本已解决该问题。

  • 无法使用 VDDK HotAdd 传输模式在 Virtual Volumes 上打开 2 TB 以上的磁盘
    尝试使用 Virtual Disk Development Kit (VDDK) HotAdd 传输模式在 Virtual Volumes 上热添加并打开 2 TB 以上的磁盘可能会失败。

    本版本已解决该问题。

  • 在 IPv6 设置上安装 I/O 筛选器不会向 VPXD 发布其功能
    在通过 VIM API 成功安装 I/O 筛选器后,所安装筛选器无法向 VPXD 发布筛选功能。您无法将筛选器配置文件附加到所有磁盘,因为所有功能都未发布到 VMware vSphere 基于存储策略的管理 (SPBM)。

    本版本已解决该问题。

  • ESXi 6.0 Update 2 支持 VMIOF 版本 1.0 和 1.1

    ESXi 6.0 Update 2 支持 VMIOF 版本 1.0 和 1.1。vmiof_1_1_0_0 vib 标记已添加至 ESXi 基本映像中的受支持 VIB 标记列表。这使得您可以创建仅与 ESXi 6.0 Update 2 及更高版本兼容的筛选器,因为在 ESXi 6.0 Update 2 devkit 上创建的筛选器只会安装在 ESXi 6.0 Update 2 或更高版本主机上。

    在 ESXi 6.0 Update 2 上创建的筛选器也能正常用于 ESXi 6.0 Update 主机。

  • 将 Virtual SAN 集群中的主机升级到 ESXi 6.0 Update 1b 后,集群中的某些主机可能会报告错误的警告
    将 Virtual SAN 环境升级到 ESXi 6.0 Update 1b 后,vCenter Server 在 vSphere Web Client 的摘要选项卡中报告与下面类似的错误警告,并且 ESXi 主机显示通知三角形:

    主机无法与已启用 Virtual SAN 的集群中的所有其他节点进行通信 (Host cannot communicate with all other nodes in Virtual SAN enabled cluster)

    本版本已解决该问题。

升级和安装问题
  • ESXi 6.x 脚本式安装显示错误的警告,提示 USB 或 SD 介质不支持 VMFS,即使 kickstart 文件中已包含了 --novmfsondisk 参数
    使用脚本式安装方式在识别为 USB 或 SD 介质的磁盘上安装 ESXi 6.0 时,安装程序可能会显示以下警告消息:

    安装中指定的磁盘 (<disk-id>) 不支持 VMFS (The disk (<disk-id>) specified in install does not support VMFS)。

    即使在 kickstart 文件的 install 命令中指定了 --novmfsondisk 参数,也会显示该消息。

    本版本已解决该问题。

  • 已安装的实时 VIB 可能不会正常工作并在重新引导后丢失
    安装实时 VIB 期间,系统会执行实时 VIB 的 jumpstart 插件、rc 脚本和服务脚本。这些插件和脚本可能会抛出错误和/或异常。这些错误和/或异常可能会停止安装过程,并导致异常行为,例如系统报告称实时 VIB 已安装至系统,但却不会正常工作。此外,实时 VIB 会在重新引导后丢失。

    本版本已解决该问题。

  • 实时 VIB 安装可能会失败
    安装实时 VIB 期间,esximage 会为实时 VIB 创建转储数据。如果同时运行 esxcli software VIB getlist 命令,转储数据可能会遭到删除,并导致实时 VIB 安装事务失败。

    本版本已解决该问题。

  • 从 ESXi 5.0 或 5.1 升级到 6.0 Update 1 或更高版本后,尝试执行 vMotion 可能会失败

    从 ESXi 5.0 或 5.1 升级到 6.0 Update 1 或更高版本后,尝试执行 vMotion 可能会失败。类似于以下内容的错误消息将写入 vmware.log 文件。

    failed to add memory page 0x201 to VM: Bad parameter

    有关更多详细信息,请参见知识库文章 2143943

    本版本已解决该问题。

vCenter Server、vSphere Web Client 和 vSphere Client 问题
  • 无法从 vSphere Web Access 与已打开电源的虚拟机建立虚拟机控制台连接
    将含有已打开电源的虚拟机的 ESXi 主机添加到 vCenter Server 时,或者将主机从一个 vCenter Server 切换到另一个时,vSphere Web Access 无法与虚拟机建立控制台连接。出现此问题时会显示类似以下内容的错误消息:

    Web 控制台错误消息:

    控制台已断开连接。请关闭此窗口并重新启动控制台,以重新进行连接 (The console has been disconnected. Close this window and re-launch the console to reconnect)。

    独立的 VMware Remote Console 错误消息:

    无法初始化与远程主机的 SSL 会话 (Failed to initialize SSL session to remote host)。

    VI Client 控制台错误消息:

    无法连接至 mks: 内部错误 (unable to connect to the mks: internal error)

    vmware.log 文件中的错误消息:

    SOCKET 6 (150) Error during authd-VNC negotiation: (1) Asyncsocket error.

    本版本已解决该问题。

虚拟机管理问题
  • Hostd 在具有 3D 加速功能的主机上随机停止响应
    Hostd 可能会在具有 3D 加速功能的 ESXi 主机上随机停止响应。类似以下内容的消息会记录在 hostd 日志中:

    Crash Report build=2809209
    Signal 11 received, si_code 1, si_errno 0
    Bad access at 34
    eip 0xnnnnnnn esp 0xnnnnnnnn ebp 0xnnnnnnnn
    eax 0xnnnnnnnn ebx 0xnnnnnnn ecx 0x47 edx 0x0 esi 0x30 edi 0xnnnnnnnn
    本版本已解决该问题。

  • 受永久设备丢失影响的虚拟机无法进行故障切换
    受永久设备丢失 (PDL) 影响的虚拟机无法在故障切换主机中打开电源。该虚拟机一直处于无效状态,并显示警告消息,表明托管虚拟机的任意存储发生 PDL 时便无法识别硬件版本 1。

    本版本已解决该问题。

  • 虚拟机的性能计数器 cpu.system.summation 始终显示 0
    虚拟机性能计数器 cpu.system.summation 始终显示 0,导致虚拟机性能指标显示不正确。

    本版本已解决该问题。

vMotion 和 Storage vMotion 问题
  • 将含有 3D 硬件的 ESXi 主机置于维护模式且触发 vMotion 时,hostd 可能停止响应
    在含有 3D 硬件的 ESXi 主机上,hostd 一旦检测到虚拟机电源状态变化,系统即会调用函数检查虚拟机状态。使用 vMotion 时,源虚拟机在向源主机取消注册前便已关闭电源,这使得系统中显示 ManagedObjectNotFound 异常,此时 hostd 可能停止响应。

    本版本已解决该问题。

  • 无法对含有两个 2 TB 虚拟磁盘的虚拟机执行 vMotion 操作
    如果 ESXi 6.0 虚拟机中含有在 ESXi 5.0 上创建的两个 2 TB 虚拟磁盘,则尝试对该虚拟机执行 vMotion 可能会失败,而且类似以下内容的错误消息会记录到 vpxd.log 文件中:

    2015-09-28T10:00:28.721+09:00 info vpxd[xxxxx] [Originator@6876 sub=vpxLro opID=xxxxxxxx-xxxxxxxx-xx] [VpxLRO] -- BEGIN task-919 -- vm-281 -- vim.VirtualMachine.relocate -- xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx(xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx)
    2015-09-28T10:00:28.727+09:00 info vpxd[xxxxx] [Originator@6876 sub=vpxLro opID=xxxxxxxx-xxxxxxxx-xx-xx] [VpxLRO] -- BEGIN task-internal-343729 -- -- VmprovWorkflow --
    ....

    本版本已解决该问题。

  • 在执行仅磁盘存储 vMotion 操作期间,虚拟机停止响应或进入关闭电源状态
    执行仅磁盘存储 vMotion 操作时,由于多个线程尝试访问同一个数据,虚拟机可能会停止响应或进入关闭电源状态。

    本版本已解决该问题。

VMware Tools 问题

已知问题

对 ESXi 6.0 中存在的已知问题的分组如下:

本版本中记录的新的已知问题突出显示为新问题

安装问题
  • DNS 后缀可能会持续存在,即使在更改 DCUI 中的默认配置后也是如此
    如果已在由 DHCP 服务器提供服务的网络上部署,则首次引导时,ESXi 主机可能会自动配置有默认 DNS + DNS 后缀。尝试更改 DNS 后缀时,DCUI 不移除现有的 DNS 后缀,而是仅添加提供的新后缀。

    解决办法:配置见证 OVF 的 DNS 主机名时,在“DNS 主机名”字段中设置完整的 FQDN 名称以附加正确的 DNS 后缀。然后可以在“自定义 DNS 后缀”字段中移除不需要的 DNS 后缀。

  • 安装最新的 VMware Tools 软件包后,VMware Tools Service 用户进程可能无法在 Linux 操作系统上运行
    在 Linux 操作系统中,您可能会遇到 VMware Tools 升级/安装问题,或者 VMware Tools 服务 (vmtoolsd) 用户进程在安装最新的 VMware Tools 软件包后可能不运行的问题。如果您的 glibc 版本低于 2.5(例如 SLES10sp4),则会出现该问题。

    解决办法:将 Linux glibc 升级到版本 2.5 或更高版本。

升级问题

查看发行说明的“安装问题”部分。许多安装问题也会影响升级过程。

  • 新问题尝试使用 esxcli software vib update 命令从 ESXi 6.x 升级到 6.0 Update 2 失败
    尝试使用 esxcli software vib update 从 ESXi 6.x 升级到 6.0 Update 2 失败,并显示类似以下内容的错误消息:

    "[DependencyError]
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan << 6.0.0-2.35, but the requirement cannot be satisfied within the ImageProfile.
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan >= 6.0.0-2.34, but the requirement cannot be satisfied within the ImageProfile."


    此问题是由于引入与 esx-base VIB 相互依赖的新 Virtual SAN VIB 而导致的,esxcli software vib update 命令只能更新系统上安装的 VIB。

    解决办法:要解决此问题,请按下例所示运行 esxcli software profile update

    esxcli software profile update -d /vmfs/volumes/datastore1/update-from-esxi6.0-6.0_update02.zip -p ESXi-6.0.0-20160302001-standard

  • 新问题当 ESXi 分区表包含核心转储分区时,尝试升级 ESXi 可能会失败
    使用“dd”命令在 SD 卡上部署 ESXi(使用 .dd 映像部署 ESXi,该映像通过 VMware 提供的 esxiso2dd 命令创建)时,ESXi 将在首次引导期间创建一个核心转储分区作为第二个分区。因此,ESXi 升级将失败。

    解决办法:要解决此问题,您需要手动移除第二个核心转储分区。请参见知识库文章 2144074

  • 更新了从早期版本的 vSphere 6.0 升级到 vSphere 6.0 Update 1 及更高版本后,SSLv3 在 Auto Deploy 上仍保持启用状态
    从早期版本的 vSphere 6.0 升级到 vSphere 6.0 Update 1 和更高版本时,SSLv3 协议在 Auto Deploy 上仍保持启用状态。

    解决办法:使用 PowerCLI 命令执行以下步骤以禁用 SSLv3:

    1. 运行以下命令连接到 vCenter Server:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <FQDN_hostname or IP Address of vCenter Server>

    2. 运行以下命令检查当前 SSLv3 状态:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 运行以下命令禁用 SSLv3:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. 重新启动 Auto Deploy 服务以更新更改。

  • ESXi 从 5.5.x 升级到 6.0 后光纤通道主机总线适配器设备编号可能会发生改变

    ESXi 从 5.5.x 升级到 6.0 的过程中,光纤通道主机总线适配器设备编号偶尔可能会发生改变。如果使用 esxcli storage core adapter list 命令,设备编号可能会更改为其他编号。

    例如,在 ESXi 升级之前光纤通道主机总线适配器的设备编号可能类似于以下内容:

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    在 ESXi 升级到 6.0 后光纤通道主机总线适配器的设备编号可能类似于以下内容:

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    本示例说明了使用 esxcli storage core adapter list 命令时可能会造成随机改变:设备别名编号 vmhba2 和 vmhba3 更改为 vmhba64 和 vmhba65,而设备编号 vmhba5 和 vmhba6 保持不变。但是,如果使用的是 esxcli hardware pci list 命令,升级之后设备编号不会改变。

    这个问题不属于 VMware 范畴,不会对您造成影响。ESXi 虽然显示设备别名编号,但不将其用于任何操作。您可以使用主机配置文件来重置设备别名。请查看 VMware 产品文档和知识库文章。

    解决办法:无。

  • 升级后不保留 Active Directory 设置
    在将主机升级到 ESXi 6.0 时,升级前在 ESXi 主机中配置的 Active Directory 设置将不保留。

    解决办法:如果升级前的 ESXi 版本为 5.1 或更高版本,则在升级后将主机添加到 Active Directory 域。如果升级前的 ESXi 版本为 ESXi 5.0.x,则在升级后不要将主机添加到 Active Directory 域。

  • 在 ESXi 升级到 6.0 后,以前添加到域中的主机不会再加入域
    首次从 vSphere 5.5 升级到 vSphere 6.0 时,不会保留 Active Directory 配置。

    解决办法:升级之后,执行以下步骤将这些主机重新加入 vCenter Server 域:

    1. 将主机添加到 vCenter Server。

    2. 将主机加入到域(例如 example.com)

    3. 将所有主机升级到 ESXi 6.0。

    4. 将一台最近升级的主机手动加入域。

    5. 提取主机配置文件并禁用所有其他配置文件(身份验证配置文件除外)。

    6. 将手动加入域的主机配置文件应用到其他最近升级的主机。

  • 在升级适用于 Windows 的 vCenter Server 后,此前运行的 VMware ESXi Dump Collector 服务将重置为默认设置“已禁用”
    升级过程将 VMware Vsphere ESXi Dump Collector 6.0 安装为 vCenter Server 的可选服务组的一部分。您必须手动启用 VMware vSphere ESXi Dump Collector 服务,以将其用作适用于 Windows 的 vCenter Server 6.0 的一部分。

    解决办法:阅读 VMware 文档或搜索 VMware 知识库,了解如何启用和运行 vCenter Server 6.0 for Windows 中的可选服务。

    在操作系统中启用 VMware vSphere ESXi Dump Collector服务:

    1. 在“控制面板”菜单中,选择管理工具,并双击服务

    2. 右键单击 VMware vSphere ESXi Dump Collector编辑启动类型

    3. 启动类型设置为自动

    4. 右键单击 VMware vSphere ESXi Dump Collector启动

    服务启动类型设置为自动,并且服务处于运行状态。

vCenter Single Sign-On 和证书管理问题
  • 在升级 ESXi 主机的 SSL 证书后无法连接到虚拟机控制台
    如果升级 ESXi 主机所使用的 SSL 证书,然后在证书被替换后尝试连接到任何正在运行的虚拟机的控制台,可能出现证书验证错误。这是因为旧证书已缓存,任何新控制台连接都将因证书不匹配而被拒绝。
    控制台连接可能仍然成功(例如,可以通过其他方式验证旧证书),但是不能确保一定成功。现有虚拟机控制台连接不受影响,但是如果在证书替换时控制台正在运行、已停止或已重新启动,则可能发生此问题。

    解决办法:将主机置于维护模式,或者挂起或关闭所有虚拟机。仅会影响正在运行的虚拟机。最佳做法是先将主机置于维护模式,然后升级所有 SSL 证书。

网络连接问题

  • vSphere 的某些功能不支持 IPv6
    可以为所有节点和组件启用 IPv6,但以下功能除外:

    • 未映射到 DNS 服务器上的完全限定域名 (FQDN) 的 ESXi 主机和 vCenter Server 的 IPv6 地址。
      解决办法:直接使用 FQDN,或确保 IPv6 地址映射到 DNS 服务器上的 FQDN 以便能够进行反向名称查找。

    • 虚拟卷

    • 作为 Auto Deploy 与主机配置文件的一部分的 PXE 引导
      解决办法:以 PXE 方式通过 IPv4 启动 ESXi 主机,并使用主机配置文件为主机配置 IPv6 地址。

    • ESXi 主机和 vCenter Server Appliance 到 Active Directory 的连接
      解决办法:使用 Active Directory over LDAP 作为 vCenter Single Sign-On 中的标识源。

    • 基于 Kerberos 验证方式的 NFS 4.1 存储
      解决办法:使用基于 AUTH_SYS 验证方式的 NFS 4.1。

    • Authentication Proxy

    • vSphere Management Assistant 和 vSphere Command-Line Interface 到 Active Directory 的连接。
      解决办法:通过 LDAP 协议连接 Active Directory。

    • 使用 vSphere Client 对 vSphere 的功能启用 IPv6
      解决办法:使用 vSphere Web Client 对 vSphere 的功能启用 IPv6。

  • 在使用 ESXi Dump Collector 功能时可能会发生重复内核严重错误。
    当主机处于应急状态(将显示紫色诊断屏幕,并通过网络向 ESXi Dump Collector 写入核心转储数据)时,会发生重复内核严重错误。VMkernel zdump 文件可能无法用于 vCenter Server 上的 ESXi Dump Collector 的故障排除。

    当发生重复内核严重错误时,主机的紫色故障诊断屏幕会显示如下消息:
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    当通过同时被配置为向 vCenter Server 上的收集器发送核心转储数据的物理网络适配器传输大量数据而导致 VMkernel 发生严重错误时,就会出现重复内核严重错误。

    解决办法:执行以下任一种解决办法:

    • 配置一个物理网络适配器以专用于传输核心转储数据,从而降低系统及虚拟机流量的影响。

    • 通过运行以下 ESXCLI 控制台命令禁用主机上的 ESXi Dump Collector:
      esxcli system coredump network set --enable false

存储问题

NFS 版本 4.1 问题

  • 当 NFS 4.1 共享从全部路径异常 (APD) 状态中恢复后,NFS 4.1 数据存储上的虚拟机失败
    当 NFS 4.1 存储进入 APD 状态并在一段宽限期后退出此状态时,在 NFS 4.1 数据存储上运行的已打开电源的虚拟机将失败。宽限期的长短取决于存储阵列供应商的设置。
    在 NFS 4.1 共享从 APD 状态恢复后,您会在 vSphere Web Client 的虚拟机摘要页中看到如下消息:
    用于保护 VM.vmdk 的锁丢失,可能是因为底层存储问题导致。如果此虚拟机配置为具有高可用性,则请确保在单击“确定”前此虚拟机正在其他主机上运行 (The lock protecting VM.vmdk has been lost, possibly due to underlying storage issues. If this virtual machine is configured to be highly available, ensure that the virtual machine is running on some other host before clicking OK)。
    在您单击“确定”后,系统会生成崩溃文件并关闭此虚拟机。

    解决办法:无。

  • 在创建新会话时,NFS 4.1 客户端失去与服务器的同步
    在与服务器中断连接一段时间后,当尝试创建新会话时,NFS 4.1 客户端可能失去与服务器的同步。当发生该情况时,vmkernel.log 文件中会包含一系列简短的警告消息,指出 NFS41 CREATE_SESSION 请求由于 NFS4ERR_SEQ_MISORDERED 而失败。

    解决办法:执行下面的步骤序列。

    1. 尝试卸载受影响的文件系统。如果在卸载时没有打开任何文件,则此操作会成功,并且 NFS 客户端模块会清除其内部状态。然后可以重新挂载被卸载的文件系统,并继续执行正常操作。

    2. 关闭连接到文件系统 IP 地址的网卡,并使其持续断开一段时间以确保几个服务器租期过期。五分钟应已足够。然后可以重新启动网卡。此时可以继续执行正常操作。

    3. 如果上述步骤失败,请重新引导 ESXi 主机。

  • NFS 4.1 客户端失去与 NFS 服务器的同步,并且即使重置会话也无法恢复连接
    在与服务器中断连接一段时间后,NFS 4.1 客户端可能会失去与服务器的同步,并且即使重置会话也无法恢复与服务器的同步连接。此问题是由 EMC VNX 服务器问题导致的。当发生该情况时,vmkernel.log 文件会记录一系列简化的警告消息,指出 NFS41: NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug

    解决办法:要终止此会话,请卸载并重新挂载所有数据存储。

  • ONTAP Kerberos 卷变得无法访问或遇到虚拟机 I/O 故障
    当 NetApp 服务器接收的 RPCSEC_GSS 请求的顺序错误时,则不会做出响应。这将导致相应的 I/O 操作停止(直到被强行终止),并且客户机操作系统可能会停止或遇到 I/O 错误。此外,根据 RFC 2203 和 RPCSEC_GSS 上下文,客户端最多只能有数量等于 seq_window(如果是 ONTAP,则为 32)的未处理请求,并且必须等待,直到最慢的未处理请求被服务器处理完成。因此,服务器永远不会响应顺序错误的 RPCSEC_GSS 请求,并且客户端将在未处理请求数达到最大 seq_window 之后停止向服务器发送请求。这将导致卷无法访问。

    解决办法:无。检查最新的硬件兼容性列表 (HCL) 以找到已解决该问题的受支持的 ONTAP 服务器。

  • 无法在 EMC VNX 中的 NFS 4.1 数据存储设备上创建大于 1 TB 的虚拟磁盘
    固件版本为 7.x 的 EMC VNX 中的 NFS 4.1 存储设备仅支持 32 位文件格式。这导致无法在 NFS 4.1 数据存储设备上创建大于 1 TB 的虚拟机文件。

    解决办法:将 EMC VNX 阵列更新为版本 8.x。

  • 在固件升级期间,由 EMC VNX 存储支持的 NFS 4.1 数据存储变得无法访问
    当将 EMC VNX 存储升级到新的固件版本后,ESXi 主机上挂载的 NFS 4.1 数据存储将变得无法访问。发生此故障是因为 VNX 服务器在固件升级后更改了其主设备编号。主机上的 NFS 4.1 客户端预期在其建立与服务器的连接后不会发生主备编号变更,因此导致数据存储永久性地无法访问。

    解决办法:在升级固件版本前,卸载所有从 VNX 服务器导出的 NFS 4.1 数据存储。

  • 如果 ESXi 主机使用不同的安全机制来挂载相同的 NFS 4.1 数据存储设备,则虚拟机可能出现故障
    如果 ESXi 主机使用不同的安全机制(AUTH_SYS 和 Kerberos)挂载相同的 NFS 4.1 数据存储设备,则放置在该数据存储上的虚拟机可能会遇到问题并出现故障。例如,当您尝试将虚拟机从 host1 迁移到 host2 时操作可能失败,并显示权限被拒错误。当尝试从 host2 访问 host1 的虚拟机时也可能会遇到这些错误。

    解决办法:请确保挂载 NFS 4.1 卷的所有主机都使用相同的安全类型。

  • 无法使用 Kerberos 验证方式将只读文件复制到 NFS 4.1 数据存储
    从源文件复制数据到目标文件时可能出现此故障。目标文件仍保持为空。

    解决办法:无。

  • 创建数据存储集群时无法保证 NFS 4.1 安全类型的一致性
    在创建数据存储集群时,vSphere 不会验证并强制实施 NFS 4.1 安全类型的一致性。因此,同一集群中可包括使用不同安全类型(AUTH_SYS 和 Kerberos)的数据存储。如果将虚拟机从采用 Kerberos 验证方式的数据存储迁移到采用 AUTH_SYS 验证方式的数据存储,则该虚拟机的安全级别将降低。
    vMotion、Storage vMotion、DRS 和 Storage DRS 等功能均存在此问题。

    解决办法:如果您的虚拟机要求使用 Kerberos 验证方式,请确保组成同一集群的所有 NFS 4.1 卷均只使用 Kerberos 安全类型。请不要包括 NFS 3 数据存储,因为 NFS 3 仅支持 AUTH_SYS。

Virtual Volumes 问题

  • 由于 Virtual Volumes VASA 提供程序使用了错误的证书,导致无法创建虚拟数据存储
    有时,Virtual Volumes VASA 提供程序使用的自签名证书可能错误地将 KeyUsage 扩展定义为关键,而未设置 keyCertSign 位。在此情况下,提供程序注册会成功。但是,您无法从 VASA 提供程序所报告的存储容器中创建虚拟数据存储。

    解决办法:VASA 提供程序在注册时所使用的自签名证书不应在没有设置 keyCertSign 位的情况下将 KeyUsage 扩展定义为关键。

一般存储问题

  • 新问题连接到某些具有特定固件版本的存储阵列的 ESXi 6.0 Update 2 主机可能会出现 I/O 超时并造成后续操作停止
    当连接到某些具有特定固件版本的存储阵列的 ESXi 6.0 Update 2 主机向存储阵列发送 SMART 数据请求时,如果该阵列以 PDL 错误作为响应,则 6.0 Update 2 中的 PDL 响应行为可能会导致不断地重试这些失败的命令,从而阻止其他命令。此错误会导致出现广泛的 I/O 超时并造成后续操作停止。

    此外,在重新引导后,ESXi 主机可能需要较长时间才能重新连接到 vCenter Server,或者 vCenter Server 中的主机可能会进入无响应状态。与存储相关的任务(例如 HBA 重新扫描)可能需要很长时间才能完成。

    解决办法:要解决此问题,请参见知识库文章 2133286

  • 如果新虚拟机是从现有磁盘创建的,vSphere Web Client 会错误地将存储策略显示为已附加
    如果使用 vSphere Web Client 从现有磁盘创建新虚拟机并且在设置磁盘时指定了存储策略,当您选择新虚拟机 --> 单击虚拟机策略 --> 编辑虚拟机存储策略时,筛选器显示为待附加,但该筛选器实际已附加。可以检查 .vmdk 文件或 vmkfstools --iofilterslist <vmdk-file> 以验证该筛选器是否已附加。

    解决办法:创建新虚拟机之后、打开电源之前,请通过单击虚拟机策略 --> 编辑虚拟机存储策略将该筛选器添加到 vmdk。

  • NFS 查找操作返回 NFS 失效错误
    在 NFS 数据存储中部署大量虚拟机时,虚拟机部署因存在争用情况而失败,并显示类似于以下内容的错误消息:

    失效 NFS 文件句柄 (Stale NFS file handle)

    解决办法:重新启动查找操作。有关详细信息,请参见知识库文章 2130593

  • 使用 QLogic iSCSI 适配器时,在 Dell EqualLogic LUN 上创建 VMFS 数据存储的尝试失败。
    无法在通过 QLogic iSCSI 适配器检测到的 Dell EqualLogic 存储设备上创建 VMFS 数据存储。
    当尝试失败时,vCenter Server 会显示如下错误消息:无法创建文件系统,请参见 VMkernel 日志获取更多详细信息:连接超时 (Unable to create Filesystem, please see VMkernel log for more details: Connection timed out)。VMkernel 日志中包含连续的 iscsi 会话被阻止 (iscsi session blocked) 以及已取消阻止 iscsi 会话 (iscsi session unblocked) 消息。Dell EqualLogic 存储阵列的监控日志中会显示针对 QLogic 启动器 IQN 名称的从启动器接收的包中出现协议错误 (protocol error in packet received from the initiator) 消息。

    当使用下列组件时会遇到此问题:

    • Dell EqualLogic 阵列固件:V6.0.7

    • QLogic iSCSI 适配器固件版本:3.00.01.75

    • 驱动器版本:5.01.03.2-7vmw-debug

    解决办法:在 QLogic iSCSI 适配器上启用 iSCSI ImmediateData 适配器参数。默认情况下会关闭此参数。您无法通过 vSphere Web Client 或 esxcli 命令更改此参数。要更改此参数,请使用供应商提供的软件,例如 QConvergeConsole CLI。

  • 安装有 Emulex OneConnect HBA 的 ESXi 主机无法引导
    当在 ESXi 主机中安装了 Emulex OneConnect HBA 后,主机可能无法引导。此故障是由于 Emulex 固件问题导致的。

    解决办法:要解决此问题,请联系 Emulex 以获取适用于您的 HBA 的最新固件。

    如果要继续使用旧固件,请按照以下步骤操作以避免引导故障:

    1. 加载 ESXi 时, 在引导 ESXi 内核前按 Shift+O 组合键。

    2. 按原样保留当前引导选项,并在 dmaMapperPolicy=false 之后添加一个空格。

  • 在 APD 期间 Flash Read Cache 不加速 I/O。
    当被配置为 Flash Read Cache 虚拟闪存资源的闪存磁盘发生故障或不可访问时,或者当磁盘存储无法从主机进行访问时,主机上的 Flash Read Cache 实例将无效并且无法加速 I/O。因此,在主机与存储之间重新建立连接后,缓存将不存储旧数据。连接中断状态可能为暂时的全部路径异常 (APD),或者是永久的永久设备丢失 (PDL)。此状态会一直持续,直到虚拟机被重启。

    解决办法:可以重启虚拟机,以恢复使用 Flash Read Cache 的 I/O 加速功能。

  • 全部路径异常 (APD) 或路径故障切换可能会导致系统故障
    在共享 SAS 环境中,如果磁盘已由 lsi_msgpt3 驱动程序声明,并且这些磁盘正在进行高负荷 I/O 操作,则 APD 或路径故障切换可能会导致系统故障。

    解决办法:无

  • 频繁使用 SCSI 命令停止进程可能会导致系统故障
    在高负荷 I/O 操作状态下,频繁使用 SCSI 命令停止进程会导致 MegaRAID 控制器的响应变得很慢。如果在之前上下文中已释放的资源引用发生异常中断,则可能导致系统故障。

    解决办法:无

  • 更改 IQN 时导致 iSCSI 连接失败且数据存储设备无法访问
    如果您更改 iSCSI 适配器的 IQN,而此时该适配器上的 iSCSI 会话仍处于活动状态,则会导致此问题。

    解决办法:在更改 iSCSI 适配器的 IQN 时,该适配器上不应该有会话处于活动状态。在更改 IQN 前移除适配器上的所有 iSCSI 会话及目标。

  • nvmecli 联机和脱机操作无法始终生效
    当您执行 nvmecli device online -A vmhba* 操作以使 NVMe 设备联机时,该操作似乎已成功。但是,此设备可能仍处于脱机状态。

    解决办法:通过运行 nvmecli device list 命令检查 NVMe 设备的状态。

服务器配置问题
  • 在将有状态主机的主机配置文件应用到使用 Auto Deploy 置备的主机时,修复操作失败
    将有状态部署主机的主机配置文件应用到使用 Auto Deploy 置备的、无本地存储的主机(无状态主机)时,修复操作尝试失败,并显示以下其中一条错误消息:

    • 您主机中没有位于 PCI 总线地址 sxxxxxxxx.xx 的 vmhba 设备 (The vmhba device at PCI bus address sxxxxxxxx.xx is not present on your host)。您必须关闭主机,然后向 PCI 插槽 yy 插入卡。 卡类型应与引用主机中的卡类型一致。

    • 未找到任何有效的 coredump 分区。

    解决办法:在主机配置文件中禁用引起问题的插件(例如,设备别名配置或核心转储配置),然后修复该主机配置文件。

  • 向主机应用具有静态 IP 的主机配置文件导致合规性错误
    如果从具有 DHCP 网络配置的主机提取主机配置文件,然后编辑此主机配置文件使其具有静态 IP 地址,则将该主机配置文件应用到其他主机时发生合规性错误,并显示以下消息:

    IPv4 路由数不匹配。(Number of IPv4 routes did not match.)

    解决办法:从 DHCP 主机提取主机配置文件之前,对主机进行配置,使其具有静态 IP 地址。

  • 如果热添加网络资源过载的虚拟网络适配器,可能导致虚拟机被关闭。
    在启用了 Network I/O Control 功能的 vSphere Distributed Switch 中,已打开电源的虚拟机会根据主机的物理网络适配器的虚拟机系统流量预留策略配置带宽预留。您可以向虚拟机设置网络带宽预留(该预留超出主机的物理网络适配器上的可用带宽)热添加网络适配器。

    当热添加网络适配器时,VMkernel 会启动“快速挂起和恢复”(FSR) 进程。由于虚拟机请求超出可用量的网络资源,因此 VMkernel 会遇到 FSR 进程的故障路径。该故障路径中的错误将导致虚拟机关闭电源。

    解决办法:在向打开电源的虚拟机中添加网络适配器时,不要配置带宽预留。

VMware HA 和 Fault Tolerance 问题
  • Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台不支持旧版 Fault Tolerance (FT)
    Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台不支持旧版 FT。启用单处理器旧版 Fault Tolerance 之后,尝试打开虚拟机电源将失败。

    解决办法:无。

客户机操作系统问题
  • 在进行热插拔后尝试在 NVMe PCIe SSD 设备上启用直通模式可能失败
    要通过 vSphere Web Client 在 SSD 设备上启用直通模式,您选择一个主机,单击管理选项卡,然后单击设置,导航到硬件部分,单击 PCI 设备 > 编辑,从可以启用直通模式的活动设备列表中选择一个设备,单击确定。但是,当您将新的 NVMe 设备以热插拔方式连接到没有安装 PCIe NVMe 驱动器的 ESXi 6.0 主机时,新的 NVMe PCIe SSD 设备无法启用直通模式,且不会显示在可用直通设备列表中。

    解决办法:重新启动您的主机。您也可以在 ESXi 主机上运行命令。

    1. 以 root 用户身份登录。

    2. 运行命令
      /etc/init.d/hostd start

受支持硬件问题
  • 对于 HP 服务器上的 Avago 控制器,在运行 esxcli 以获取磁盘位置时,所显示的结果不正确

    对于 HP 服务器上的 Avago 控制器,运行 esxcli storage core device physical get 后显示的结果不正确。

    例如,如果运行以下命令:
    esxcli storage core device physical get -d naa.5000c5004d1a0e76
    系统将返回以下结果:
    Physical Location: enclosure 0, slot 0

    该插槽在物理服务器上的实际标签为 1。

    解决办法:仔细检查 HP 服务器上的插槽。由于 HP 服务器上的插槽编号从 1 开始,因此必须增加命令返回的插槽编号,这样才能显示正确结果。

CIM 和 API 问题
  • sfcb-vmware_raw 可能会失败
    由于分配的最大默认插件资源组内存不足,因此 sfcb-vmware_raw 可能会失败。

    解决办法:使用以下命令针对 sfcbd 插件的内存限制添加用户变量 CIMOemPluginsRPMemMax,然后重新启动 sfcbd 以使新插件值生效:

    esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

    XXX 是指要分配的内存限制。此值应介于最小值 (175) 与最大值 (500) 之间。

check-circle-line exclamation-circle-line close-line
Scroll to top icon