发布日期:2018 年 11 月 29 日

重要信息:如果您是 vSAN 客户,在升级到 ESXi650-201810002 之前,如果尚未升级到 ESXi650-201810001,且可能扩展 VMDK,请执行以下步骤:

  1. 以 root 用户身份通过 SSH 登录到 ESXi 主机。
  2. 在所有主机上将 VSAN.ClomEnableInplaceExpansion 高级配置选项设置为 0。

无需重新引导。VSAN.ClomEnableInplaceExpansion 设置不会影响主机重新引导或正在运行的工作负载。

将所有主机升级到 ESXi650-201810001 后,可以将 VSAN.ClomEnableInplaceExpansion 重新设置为 1 并启用。

如果已升级到 ESXi650-201810001,则无需执行任何其他步骤。

下载文件名称

ESXi650-201811002.zip

内部版本

10884925

下载大小

457.4 MB

md5sum

7d3cd75ace63f381d8c8f34e24c9c413

sha1checksum

882b1fb4bc139dd65956a3e9380f4f03eeb2538a

需要重新引导主机:是

需要迁移或关闭虚拟机:是

实体包

实体包 ID 类别 严重性
ESXi650-201811401-BG 缺陷修复 严重
ESXi650-201811402-BG 缺陷修复 重要
ESXi650-201811403-BG 缺陷修复 重要
ESXi650-201811404-BG 缺陷修复 严重
ESXi650-201811405-BG 缺陷修复 重要
ESXi650-201811406-BG 缺陷修复 适中
ESXi650-201811101-SG 安全 严重
ESXi650-201811102-SG 安全 重要
ESXi650-201811103-SG 安全 适中

汇总实体包

此汇总实体包中包含自 ESXi 6.5 始发行版以来的所有修复的最新 VIB。

实体包 ID 类别 严重性
ESXi650-201811002 缺陷修复 严重

映像配置文件

VMware 修补程序版本和更新版本包含常规映像配置文件和重要映像配置文件。常规版本映像配置文件仅适用于新的缺陷修复。

映像配置文件名称
ESXi-6.5.0-20181104001-standard
ESXi-6.5.0-20181104001-no-tools
ESXi-6.5.0-20181101001s-standard
ESXi-6.5.0-20181101001s-no-tools

有关各个实体包的详细信息,请参见 My VMware 页面以及已解决的问题已知问题部分。

修补程序下载和安装

通常,通过使用 VMware vSphere Update Manager 将修补程序应用于 ESXi 主机。有关详细信息,请参见《关于安装和管理 VMware vSphere Update Manager》

通过从 VMware 下载页面手动下载修补程序 ZIP 文件,然后使用 esxcli software vib 命令安装 VIB,即可更新 ESXi 主机。此外,还可以使用映像配置文件和 esxcli software profile 命令更新系统。

有关详细信息,请参见《vSphere 命令行界面概念和示例》以及《vSphere 升级》指南。

已解决的问题

已解决的问题分为以下几组。

ESXi650-201811401-BG
修补程序类别 缺陷修复
修补程序严重性 严重
需要重新引导主机
需要迁移或关闭虚拟机
受影响的硬件 不适用
受影响的软件 不适用
包含的 VIB
  • VMware_bootbank_esx-base_6.5.0-2.75.10884925
  • VMware_bootbank_esx-tboot_6.5.0-2.75.10884925
  • VMware_bootbank_vsan_6.5.0-2.75.10884926
  • VMware_bootbank_vsanhealth_6.5.0-2.75.10884927
已修复的 PR  1847663、1863313、1894568、1949789、2021943、2022147、2029579、2037849、2037926、2057600、2063154、2071506、2071610、2071817、2072971、2073175、2078843、2079002、2083594、2083627、2084723、2088951、2089048、2096942、2097358、2098928、2102135、2102137、2107335、2113432、2119609、2122259、2122523、2128932、2130371、2133589、2136002、2139317、2139940、2142767、2144766、2152381、2153867、2154912、2187127、2128759、2155840、2155858、2156840、2157503、2158561、2164733、2167294、2167877、2170126、2171799、2173856、2179262、2180962、2182211、2186065、2191349、2192629、2192836、2193829、2187136、2194304、2197789、2203385、2203836、2204024、2204028、2204507、2209900、2209919、2211285、2211639、2213917、2225439、2225471、2133634、2139131
CVE 编号 不适用

此修补程序更新了 esx-base、esx-tboot、vsanvsanhealth VIB 以解决下列问题:

  • 用于延伸集群的智能站点连续性。在首选数据站点和辅助数据站点之间进行分区时,ESXi650-201811002 将使 vSAN 首先智能地确定哪个站点的数据可用性最大,然后自动形成针对见证的仲裁。首选站点具有最新的数据副本之前,辅助站点可以作为活动站点运行。这样可以防止虚拟机迁移回首选站点以及数据读取位置丢失。

  • 自适应重新同步以动态管理重新同步流量。使用 ESXi650-201811002,自适应重新同步通过向重新同步 I/O 分配专用带宽来加快合规(将某个对象还原回其置备的允许的故障数)的速度。重新同步 I/O 由 vSAN 生成,用于将对象重新置于合规状态。确保重新同步 I/O 最小带宽的同时,如果客户端 I/O 未争用带宽,则带宽会动态增加。反过来,如果没有重新同步 I/O,客户端 I/O 可以使用额外的带宽。  

  • PR 1949789:由于 libparted 库问题,使用 vSphere Update Manager 升级到 ESXi 6.5 和更高版本可能会失败

    由于 libparted 开源库问题,使用 vSphere Update Manager 升级到 ESXi 6.5 和更高版本可能会失败。您可能会看到以下回溯追踪:

    [root@hidrogenio07:~] partedUtil getptbl /vmfs/devices/disks/naa.60000970000592600166533031453135
    Backtrace has 12 calls on stack:
    12: /lib/libparted.so.0(ped_assert+0x2a) [0x9e524ea]
    11: /lib/libparted.so.0(ped_geometry_read+0x117) [0x9e5be77]
    10: /lib/libparted.so.0(ped_geometry_read_alloc+0x75) [0x9e5bf45]
    9: /lib/libparted.so.0(nilfs2_probe+0xb5) [0x9e82fe5]
    8: /lib/libparted.so.0(ped_file_system_probe_specific+0x5e) [0x9e53efe]
    7: /lib/libparted.so.0(ped_file_system_probe+0x69) [0x9e54009]
    6: /lib/libparted.so.0(+0x4a064) [0x9e8f064]
    5: /lib/libparted.so.0(ped_disk_new+0x67) [0x9e5a407]
    4: partedUtil() [0x804b309]
    3: partedUtil(main+0x79e) [0x8049e6e]
    2: /lib/libc.so.6(__libc_start_main+0xe7) [0x9edbb67]
    1: partedUtil() [0x804ab4d] Aborted

    本版本已解决该问题。

  • PR 2169914:SolidFire 阵列可能无法发挥最佳性能

    如果不重新配置 SATP 声明规则,SolidFire 阵列可能无法发挥最佳性能。

    本版本已解决该问题。此修复默认将 Solidfire SSD SAN 存储阵列的存储阵列类型插件 (SATP) 声明规则设置为 VMW_SATP_DEFAULT_AA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将每秒 I/O 操作数设置为 10 次,以实现最佳性能。

  • PR 2169924:必须手动将声明规则添加到 ESXi

    必须手动将以下 DELL MD 存储阵列型号的声明规则添加到 ESXi:MD32xx、MD32xxi、MD36xxi、MD36xxf、MD34xx、MD38xxf 和 MD38xxi。 

    本版本已解决该问题。此修复针对以下 DELL MD 存储阵列型号默认将 SATP 设置为 VMW_SATP_ALUA,将 PSP 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on:MD32xx、MD32xxi、MD36xxi、MD36xxf、MD34xx、MD38xxf 和 MD38xxi。 

  • PR 2170118:如果使用 EMC RecoverPoint,ESXi 主机可能会在虚拟机关机或关闭电源过程中出现故障并显示紫色诊断屏幕

    由于 vSCSI 筛选器工具中存在争用情况,如果使用 EMC RecoverPoint,ESXi 主机可能会在虚拟机关机或关闭电源过程中出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2170120:对存储阵列控制器执行无中断升级后,某些存储设备路径可能会变得不可用

    执行无中断升级期间,某些路径可能会进入永久设备丢失 (PDL) 状态。即使在升级后,此类路径仍不可用。因此,相关设备可能会断开连接。

    本版本已解决该问题。

  • PR 2071817:由于页面缓存的数据结构损坏,ESXi 主机可能会出现故障

    由于数据结构损坏,从页面缓存移除一个页面时,ESXi 主机可能会出现故障并显示紫色诊断屏幕。您可能会看到以下回溯追踪:

    2018-01-01T04:02:47.859Z cpu13:33232)Backtrace for current CPU #13, worldID=33232, rbp=0xd
    2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b720:[0x41800501883b]PageCacheRemoveFirstPageLocked@vmkernel#nover+0x2f stack: 0x4305dd30
    2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b740:[0x418005019144]PageCacheAdjustSize@vmkernel#nover+0x260 stack: 0x0, 0x3cb418317a909
    2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81bfd0:[0x41800521746e]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0, 0x0, 0x0, 0x0, 0
    2018-01-01T04:02:47.877Z cpu13:33232)^[[45m^[[33;1mVMware ESXi 6.0.0 [Releasebuild-6921384 x86_64]^[[0m
    #GP Exception 13 in world 33232:memMap-13 @ 0x41800501883b

    本版本已解决该问题。有关详细信息,请参见 VMware 知识库文章 53511

  • PR 2107335:必须手动将声明规则添加到 ESXi 主机

    必须手动将 HITACHI OPEN-V 存储阵列的声明规则添加到 ESXi 主机 

    本版本已解决该问题。此修复针对支持非对称逻辑单元访问 (ALUA) 的 HITACHI OPEN-v 类型存储阵列默认将 SATP 设置为 VMW_SATP_ALUA,将 PSP 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on。此外,该修复还会针对不支持 ALUA 的 HITACHI OPEN-v 类型存储阵列默认将 SATP 设置为 VMW_SATP_DEFAULT_AA,将 PSP 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_off

  • PR 2122259:更新 NTP 后,手动添加到 NTP 配置的设置可能会丢失

    使用 vSphere Web Client 更新 NTP 后,如果此前曾向 NTP 配置手动添加设置,则这些设置可能会从 ntp.conf 文件中删除。NTP 更新会保留所有设置以及限制选项、driftfile 以及手动添加到 ntp.conf 文件的服务器。如果手动修改 ntp.conf 文件,必须重新启动 hostd 以传播更新。

    本版本已解决该问题。

  • PR 2136002:RAM 磁盘中的失效票证可能会导致 ESXi 主机停止响应

    失效票证在 hostd 生成新的票证之前不会被删除,并有可能耗尽 RAM 磁盘节点上的空间。这可能会导致 ESXi 主机停止响应。

    本版本已解决该问题。

  • PR 2083594:使用 vSphere vMotion 迁移虚拟机时,可能无法将已连接的 USB 设备用作直通设备

    受冗余状况检查影响,使用 vSphere vMotion 迁移虚拟机时,可能无法将已连接的 USB 设备用作直通设备。

    本版本已解决该问题。如果已遇到此问题,请将下面一行添加到 vmx 文件中:usb.generic.allowCCID = "TRUE"。有关详细信息,请参见 VMware 知识库文章 55789。 

  • PR 2128932:提交给 VMFSsparse 快照的 I/O 可能会失败,但不显示错误

    如果虚拟机位于 VMFSsparse 快照上,向该虚拟机发出的 I/O 可能只会在 VMFSsparse 级别进行部分处理,但上层(如 I/O 筛选器)可能会认为传输成功。这可能会导致数据不一致。

    本版本已解决该问题。如果 I/O 已完成,此修复将从上层设置暂时性错误状态以供参考。 

  • PR 2144766:I/O 命令可能会失败并显示“CDB 中有无效字段 (INVALID FIELD IN CDB)”错误

    ESXi 主机可能不会在 Block Limits VPD 页面中反映 SCSI 设备报告的 MAXIMUM TRANSFER LENGTH 参数。因此,以大于限制的传输大小发出的 I/O 命令可能会失败并显示类似以下内容的日志:

    2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.

    本版本已解决该问题。

  • PR 2152381:esxtop 命令行实用程序可能无法正确显示设备的队列深度

    如果相应的设备路径队列深度发生变化,esxtop 命令行实用程序可能不会显示设备队列深度的更新值。

    本版本已解决该问题。

  • PR 2089048:在使用 EFI 固件的虚拟机上使用 Windows 部署服务 (WDS) 中的变量窗口扩展选项可能会导致 PXE 的引导速度变慢

    如果您尝试使用 vmxnet3 网络适配器和 WDS 以 PXE 方式引导使用 EFI 固件的虚拟机,并且没有禁用 WDS 中的变量 Windows 扩展选项,则虚拟机的引导速度可能会极为缓慢。

    本版本已解决该问题。

  • PR 2102135:iOS 版本高于 iOS 11 的 Apple 设备无法连接到 OS X 版本高于 OS X 10.12 的虚拟机

    由于 Apple USB 的问题,iOS 版本高于 iOS 11 的设备无法连接到 OS X 版本高于 OS X 10.12 的虚拟机。

    本版本已解决该问题。要在 ESXi 的早期版本中启用连接,请将 usb.quirks.darwinVendor45 = TRUE 作为新选项添加到 .vmx 配置文件。 

  • PR 2139940:用来将 vmware.log 数据发送到 Syslog 的 ID 可能无法发挥预期的作用

    由于变量中指定的字符串被忽略,由 vmx.log.syslogID 定义并用来将 vmware.log 数据发送到 Syslog 的 ID 可能无法发挥预期的作用。

    本版本已解决该问题。

  • PR 2088951:如果禁用全局 IPv6 地址,ESXi 主机可能会出现间歇性故障

    由于代码路径仍在使用 IPv6,因此如果禁用全局 IPv6 地址,ESXi 主机可能会出现间歇性故障。

    本版本已解决该问题。如果已经遇到此问题,请重新启用全局 IPv6 地址,从而避免主机出现故障。如果出于某种原因需要禁用 IPv6 地址,您必须在各个 vmknic 上禁用 IPv6,而不是禁用全局 IPv6 地址。 

  • PR 2098928:如果在 hostd 初始化期间发出 HTTP 请求,hostd 可能会出现故障

    在极少数情况下,如果在 hostd 初始化期间发出 HTTP 请求,代理可能会出现故障。

    本版本已解决该问题。

  • PR 2097358:虚拟机 VMX 文件中存在某些无效参数时,hostd 会出现故障

    虚拟机 .vmx 文件中存在某些无效参数时,hostd 可能会出现故障。例如,将值为 True ideX:Y.present 等参数手动添加到 .vmx 文件。

    本版本已解决该问题。

  • PR 2078843:使用 vSphere vMotion 在 ESXi 版本不同的主机之间执行迁移可能会失败

    在 Linux 虚拟机集群中,如果主机的 ESXi 版本不同,并且针对 Merom 和 Penryn 处理器将增强型 vMotion 兼容性 (EVC) 级别设置为 L0 或 L1,则尝试使用 vSphere vMotion 从 ESXi 6.0 主机迁移到使用更高版本 ESXi 的主机时,虚拟机可能会停止响应。

    本版本已解决该问题。

  • PR 2153867:关闭 VMware vSphere VMFS6 卷时,ESXi 主机可能会停止响应

    由于关闭 VMware vSphere VMFS6 期间数据存储检测信号可能会提前停止,ESXi 主机可能会停止响应。因此,关联性管理器不能正常退出。

    本版本已解决该问题。

  • PR 2133589:必须手动将 Tegile IntelliFlash 存储阵列的声明规则添加到 ESXi

    必须手动将 Tegile IntelliFlash 存储阵列的声明规则添加到 ESXi。

    本版本已解决该问题。此修复针对支持 ALUA 的 Tegile IntelliFlash 存储阵列默认将 SATP 设置为 VMW_SATP_ALUA,将 PSP 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on。此外,该修复还会针对不支持 ALUA 的 Tegile IntelliFlash 存储阵列默认将 SATP 设置为 VMW_SATP_DEFAULT_AA,将 PSP 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_off

  • PR 2113432:VMkernel 观察 (VOB) 事件可能会生成不必要的设备性能警告

    由于存储阵列中的 I/O 延迟有所变化,因此可能会生成以下两个 VOB 事件,但它们不会报告虚拟机中的实际问题:

    1. 设备 naa.xxx 性能降低。I/O 延迟已从平均值 4114 微秒增加到 84518 微秒。
    2. 设备 naa.xxx 性能已得到改善。I/O 延迟已从 346115 微秒降低为 67046 微秒。

    本版本已解决该问题。

  • PR 2119609:使用 VMware vSphere vMotion 在 VMware vSphere Virtual Volumes 数据存储上迁移具有文件系统设备交换机 (FDS) 的虚拟机可能导致多个问题

    如果使用 vSphere vMotion 将具有文件设备筛选器的虚拟机从 vSphere Virtual Volumes 数据存储迁移到其他主机,并且该虚拟机已启用变更块跟踪 (CBT)、VMware vSphere Flash Read Cache (VFRC) 或 IO 筛选器,则迁移可能会导致出现任意功能问题。在迁移期间,文件设备筛选器可能不会正确传输到主机。因此,如果在回写模式下配置了缓存 IO 筛选器,您可能会看到 CBT 中的增量备份受损、VFRC 和缓存 IO 筛选器的性能下降、复制 IO 筛选器受损和磁盘损坏。您还可能会看到虚拟机加密出现问题。

    本版本已解决该问题。

  • PR 2096942:对已删除任务 ID 的 getTaskUpdate API 调用可能会导致日志涌出并消耗更多 API 带宽

    如果使用 VMware vSphere APIs for Storage Awareness 提供程序,您可能会看到针对已取消或已删除任务的多次 getTaskUpdate 调用。因此,您可能会看到系统消耗了更多 vSphere API for Storage Awareness 带宽且日志涌出。

    本版本已解决该问题。

  • PR 2142767:如果 vSphere API for Storage Awareness 提供程序丢失了其数据库中的绑定信息,VMware vSphere Virtual Volumes 可能会停止响应

    如果 vSphere API for Storage Awareness 提供程序丢失了其数据库中的绑定信息,则由于无限循环导致 CPU 负载达到 100%,vSphere Virtual Volumes 可能会停止响应。hostd 也可能会停止响应。您可能会看到一条致命错误消息。此修复可防止在数据库绑定失败时无限循环。

    本版本已解决该问题。

  • PR 2155840:日志过载期间,hostd 可能会停止响应

    如果 ESXi 主机的日志记录资源组由于日志记录任务繁重而过载,运行 esxcfg-syslog 命令期间 hostd 可能会停止响应。由于此修复将 esxcfg-syslog 相关命令从日志记录资源组移到 ESXi shell,您可能会看到 shell 默认资源组下的内存利用率变高。

    本版本已解决该问题。

  • PR 2088424:由于智能平台管理界面 (IPMI) 传感器已禁用或处于空闲状态,您可能会看到无效硬件运行状况警报

    已禁用的 IPMI 传感器或不报告任何数据的传感器可能生成无效硬件运行状况警报。

    本版本已解决该问题。此修复筛选出此类警报。

  • PR 2156458:取消注册处于断开连接状态的 vSphere API for Storage Awareness 提供程序可能会导致错误

    如果取消注册处于断开连接状态的 vSphere API for Storage Awareness 提供程序,您可能会看到 java.lang.NullPointerException 错误。当提供程序处于断开连接状态时,不会初始化事件和警报管理器,这会导致错误。

    本版本已解决该问题。

  • PR 2122523:VMFS6 数据存储可能会错误地报告空间不足

    由于缓存条目失效,VMFS6 数据存储可能会错误地报告空间不足。

    本版本已解决该问题。空间分配报告通过自动更新缓存条目进行更正,但此修复可在更新之前防止出错。

  • PR 2052171:如果虚拟机在启用基于内容的读缓存 (CBRC) 时生成了快照,然后禁用该功能,虚拟机磁盘整合可能会失败

    如果虚拟机使用 CBRC 生成了快照,然后禁用 CBRC,则磁盘整合操作可能会失败并显示错误消息“指定的参数不正确: spec.deviceChange.device (A specified parameter was not correct: spec.deviceChange.device)”,因为禁用 CBRC 后,摘要文件会被删除。在解决该问题之前,将一直显示警示“需要整合虚拟机磁盘 (Virtual machine disks consolidation is needed)”。

    本版本已解决该问题。此修复可防止出现该问题,但是如果虚拟机在启用 CBRC 时生成了快照,则禁用 CBRC 后,该问题可能仍然存在。如果遇到此问题,请在整个磁盘链上启用摘要,以删除并重新创建所有摘要文件。

  • PR 2071506:Dell OpenManage Integration for VMware vCenter (OMIVV) 可能无法识别 Integrated Dell Remote Access Controller (iDRAC) 中的某些 Dell 模块化服务器

    OMIVV 依赖 iDRAC 属性 hardware.systemInfo.otherIdentifyingInfo.ServiceTag 中的信息提取 SerialNumber 参数,用于识别某些 Dell 模块化服务器。serviceTag 属性中有不匹配之处可能导致此集成失败。

    本版本已解决该问题。

  • PR 2137711:“硬件状态”选项卡中的存在感知传感器可能会显示状态“未知”

    以前,如果 vCenter Server 系统中缺少处理器或风扇等组件,存在感知传感器就会显示状态“未知”。但是,存在感知传感器没有关联的运行状况。

    本版本已解决该问题。此修复筛选状态为“未知”的组件。

  • PR 2192836:如果连接到 ESXi 主机的目标仅支持隐式 ALUA 且只有备用路径,该主机可能会在发现设备时出现故障并显示紫色诊断屏幕

    如果连接到 ESXi 主机的目标仅支持隐式 ALUA 且只有备用路径,该主机可能会因存在争用情况而在发现设备时出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的回溯追踪:

    SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
    0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
    0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
    0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807

    本版本已解决该问题。

  • PR 2130371:升级 VMware Tools 可能会失败并显示 VIX 错误代码 21000

    如果 ESXi 主机没有可用的 VMware Tools ISO 映像,且您尝试在活动虚拟机上升级 VMware Tools,则该操作可能会失败并显示 VIX 错误代码 21000 (VIX error code 21000)。即使 ISO 映像可用后,您也可能无法使用 API、vSphere Client 或 vSphere Web Client 升级 VMware Tools。这是因为 ESXi 主机缓存了虚拟机打开电源时执行的首次可用性检查,并且以后不会更新该缓存。

    本版本已解决该问题。此修复针对 VMware Tool ISO 映像可用性检查设置了 5 分钟的默认到期时间。如果升级失败,可在挂载 ISO 映像 5 分钟后重试该操作。

  • PR 2021943:hostd 服务的日志和 syslog 可能会收集不必要的调试异常日志

    hostd 服务日志和 Syslog 可能会在集群的所有 ESXi 主机中收集不必要的调试异常日志。

    hostd 日志中可能存在类似以下内容的消息:
    No match, sensor_health file missing sensorNumer 217: class 3 sensor type 35 offset 0

    syslog /etc/sfcb/omc/sensor_health 中可能存在类似以下内容的消息:
    Missing expected value to check for

    本版本已解决该问题。

  • PR 2167294:即使没有路径可以为 I/O 服务,也不会为 IBM SAN Volume Controller (SVC) 目标 LUN 触发全部路径异常(APD)

    在有多条路径通向 IBM SVC 目标 LUN 的 ESXi 配置中,如果活动路径上的连接断开,同时其他连接的路径未处于服务 I/O 的状态,即使没有任何路径可以为 I/O 服务,ESXi 主机也有可能不会将此条件检测为 APD。因此,对设备的 I/O 操作不会很快就失败。

    本版本已解决该问题。该修复默认为禁用状态。要启用该修复,请将 ESXi 配置选项 /Scsi/ExtendAPDCondition 设置为 esxcfg-advcfg -s 1 /Scsi/ExtendAPDCondition

  • PR 2022147:物理网卡的自定义 Rx 和 Tx 环大小在 ESXi 主机重新引导后可能不会保留下来

    如果通过使用以下命令自定义物理网卡的 Rx 和 Tx 环大小来提升网络性能:
    esxcli network nic ring current set -n <vmnicX> -t <value>
    esxcli network nic ring current set -n <vmnicX> -r <value>
    这些设置在 ESXi 主机重新引导后可能不会保留下来。

    本版本已解决该问题。该修复会将这些 ESXCLI 配置写入 ESXi 配置文件,以确保它们在重新引导后仍能保留下来。使用 CLI 之前,必须允许在物理网卡上使用环大小配置。

  • PR 2171799:物理 CPU 软锁定可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕

    在负载极大的系统中,如果大量 I/O 超时,则可能会导致物理 CPU 软锁定。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2173856:在高延迟下远距离 vSphere vMotion 操作的性能可能会因最大套接字缓冲区大小限制而降低

    您可能会看到在高延迟(例如,延迟不少于 100 毫秒)下通过高速网络链路(例如 10 GbE)执行远距离 vSphere vMotion 操作的性能降低,因为硬编码套接字缓冲区限制为 16 MB。通过此修复,您可以配置最大套接字缓冲区大小参数 SB_MAX_ADJ

    本版本已解决该问题。 

  • PR 2193829:重新引导客户机操作系统时,虚拟机可执行文件进程可能会失败并关闭虚拟机

    由于存在争用情况,重新引导客户机操作系统时,虚拟机可执行文件进程可能会失败并关闭虚拟机。

    本版本已解决该问题。

  • PR 1894568:syslog.log 中日志涌出

    您可能会在 syslog.log 中看到多条类似以下内容的消息:sfcb-vmware_raw[69194]: IpmiIfcFruGetInv: Failed during send cc = 0xc9。这些是常规信息日志,并不是错误或警告日志。

    本版本已解决该问题。

  • PR 2203385:成功创建 Linux 虚拟机静默快照后,快照管理器可能仍将快照显示为非静默快照

    成功创建 Linux 虚拟机静默快照后,快照管理器可能仍将快照显示为非静默快照。

    本版本已解决该问题。

  • PR 2191349:SMART 磁盘监控守护进程 smartd 可能会导致多个发行版本的 Syslog 服务日志中充斥着大量调试和信息消息

    在多个发行版本中,smartd 可能会在 Syslog 服务日志中生成大量调试和信息消息。

    本版本已解决该问题。该修复从多个发行版中移除了调试消息。

  • PR 2179262:具有虚拟 SATA CD-ROM 的虚拟机可能会由于命令无效而出现故障

    发给虚拟 SATA CD-ROM 的无效命令可能会触发错误并增加虚拟机的内存利用率。如果这时虚拟机无法分配内存,则可能会导致这些虚拟机发生故障。
    您可能会看到针对无效命令出现以下日志:
    YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
    YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.

    以及类似以下内容的严重错误消息:
    YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure

    本版本已解决该问题。 

  • PR 2182211:vSphere Web Client 磁盘管理表上的物理位置列仍然为空

    从 vSphere Web Client 集群配置仪表板上的磁盘管理表中选择物理位置列时,该列可能仍然为空,并仅显示有关 hpsa 驱动程序的信息。

    本版本已解决该问题。 

  • PR 2194304:ESXi 主机 smartd 报告一些警告

    某些关键闪存设备参数(包括温度和重分配扇区计数)未提供阈值。因此,ESXi 主机 smartd 守护进程可能会报告一些警告。

    本版本已解决该问题。

  • PR 2209900:ESXi 主机可能会停止响应

    当外部进程 esxcfg-syslog 保持停滞状态时,hostd 服务可能会停止响应。因此,ESXi 主机可能会停止响应。

    本版本已解决该问题。 

  • PR 2167877:如果在连续较大的流量中启用 IPFIX,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    在启用 IPFIX 时,如果不同的流量比较大,系统检测信号可能无法长时间从 IPFIX 占用 CPU 并触发紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2211285:VMware vSphere High Availability (vSphere HA) 故障切换后,虚拟机端口可能被阻止

    默认情况下,已启用 vSphere HA 的 ESXi 主机中的隔离响应功能会被禁用。启用隔离响应功能后,连接到 NSX-T 逻辑交换机的虚拟机端口可能会在 vSphere HA 故障切换后被阻止。

    本版本已解决该问题。 

  • PR 2211639:VMware vSphere Network I/O Control 和队列配对处于禁用状态时,您可能会看到基础架构流量中出现次序混乱的数据包

    如果禁用了网卡的 vSphere Network I/O Control 和队列配对,您可能会看到管理、ISCSI 和 NFS 等基础架构流量中出现次序混乱的数据包。这是因为 vSphere Network I/O Control 未启用时,队列配对也会被禁用,从而导致网卡处理多个队列。

    本版本已解决该问题。

  • PR 2186065:固件事件代码日志可能会充斥 vmkernel.log

    不支持块限制 VPD 页面 0xb0 的驱动器可能会生成大量充斥 vmkernel.log 的事件代码日志。

    本版本已解决该问题。

  • PR 2209919:ESXi 主机可能会出现故障、显示紫色诊断屏幕并报告以下错误:PANIC bora/vmkernel/main/dlmalloc.c:4924 - dlmalloc 中发生使用错误 (PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc)

    使用 VMware vSphere Replication 复制虚拟机时,ESXi 主机可能会出现故障,立即显示或在 24 小时内显示紫色诊断屏幕,并报告以下错误:PANIC bora/vmkernel/main/dlmalloc.c:4924 - dlmalloc 中发生使用错误 (PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc)

    本版本已解决该问题。

  • PR 2204024:由于第三方设备驱动程序在处理命令时反复失败,虚拟机可能变得无响应

    由于某些第三方设备驱动程序在处理命令时反复失败,虚拟机可能变得无响应。打开虚拟机控制台时,您可能会看到以下错误:

    错误: “无法连接到 MKS: Could not connect to pipe \\.\pipe\vmware-authdpipe within retry period" 

    本版本已解决该问题。此修复会恢复发给无响应第三方设备驱动程序的命令,并确保失败的命令在停止后继续重试,直到成功为止。

  • PR 2164733:如果客户机侦测服务已开启,则使用 VMware vSphere vMotion 迁移虚拟机可能会失败并出现 NamespaceDb 兼容性错误

    在含有超过 150 个虚拟机的 vSphere 6.5 环境中,如果客户机侦测服务处于活动状态,则使用 vSphere vMotion 迁移虚拟机可能会失败并在 vSphere Web Client 中显示类似于以下内容的错误:

    源虚拟机检测到目标虚拟机无法恢复 (The source detected that the destination failed to resume)。

    目标 vmware.log 含有类似于以下内容的错误消息:
    2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
    2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
    2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
    2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
    2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.

    vmkernel 日志含有类似以下内容的错误消息:
    2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size.Cannot expand.
    2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3

    本版本已解决该问题。

  • PR 2063154:ESXi 主机与配置为执行日志记录的 NFS 数据存储断开连接时可能会停止响应

    如果将 NFS 数据存储配置为 Syslog 数据存储,而且 ESXi 主机与该数据存储断开了连接,则系统会停止将日志记录到该数据存储,同时 ESXi 主机可能会变得无响应。

    本版本已解决该问题。

  • PR 2203836:必须手动将 Lenovo DE 系列存储阵列的声明规则添加到 ESXi

    此修复为 Lenovo DE 系列存储阵列默认将 SATP 设置为 VMW_SATP_ALUA,将 PSP 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on

    本版本已解决该问题。

  • PR 2110196:启用去重的 vSAN 集群中的容量磁盘出现故障,导致主机出现故障

    在启用去重的 vSAN 集群中,将 I/O 定向到处于永久设备丢失 (PDL) 状态的磁盘时,ESXi 主机可能会出现故障。

    本版本已解决该问题。

  • PR 2084723:如果从 ESXi 主机删除了虚拟机的支持包文件夹,则 hostd 可能会出现故障

    如果从 ESXi 主机手动删除了此前下载至主机 /scratch/downloads 目录的虚拟机支持包文件夹,则当 hostd 尝试在文件夹创建一小时后自动删除这些文件夹时,hostd 可能会出现故障。

    本版本已解决该问题。

  • PR 2213917:ESXi 主机可能会由于争用情况而出现故障并显示紫色诊断屏幕

    尽管已逐出缓存项,但由于争用情况,系统可能会再次将其逐出。这会导致 ESXi 主机出现空指针取消引用,从而引起 ESXi 主机故障。

    本版本已解决该问题。

  • PR 2197789:NIOC 调度程序可能会重置上行链路

    定期使用上行链路时,NIOC hClock 调度程序可能会重置上行链路网络设备,并且该重置不可预测。

    本版本已解决该问题。

  • PR 1863313:使用 vSphere Auto Deploy 将已启用“有状态安装”的主机配置文件应用于 ESXi 6.5 主机可能会失败

    如果在主机配置文件上启用“有状态安装”功能,并且管理 VMkernel 网卡连接到分布式虚拟交换机,则在 PXE 引导期间使用 vSphere Auto Deploy 将主机配置文件应用于其他 ESXi 6.5 主机可能会失败。该主机仍处于维护模式。

    本版本已解决该问题。

  • PR 2029579:使用脚本打开再关闭使用 SR-IOV vNIC 的虚拟机的电源可能会导致 ESXi 主机出现故障

    使用脚本打开再关闭使用 SR-IOV vNIC 的虚拟机的电源可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。请使用 vSphere Web Client 或 vSphere Client 执行重新启动操作,以免出现类似问题。

  • PR 2139317:如果某个实体不再位于 ESXi 主机的统计信息数据库上,ESXi 主机代理服务可能会失败

    如果某个实体(如虚拟机或数据存储)不再位于 ESXi 主机的统计信息数据库上,但 vim.PerformanceManager 请求该实体的性能数据,则可能会触发一个代码路径,导致主机代理进程失败。因此,对 vCenter Server 系统来说,该主机可能会变得暂时不可用。

    本版本已解决该问题。

  • PR 2187136:启用 NetFlow 可能导致网络长时间延迟

    如果启用 NetFlow 网络分析工具对 vSphere Distributed Switch 端口组上的每个数据包进行采样,通过将“采样率”设置为 0,网络延迟可能会在流量超过 100 万时达到 1000 毫秒。

    本版本已解决该问题。通过使用 CLI 将 ipfixHashTableSize IPFIX 参数设置为 -p "ipfixHashTableSize=65536" -m ipfix,您可以进一步优化 NetFlow 性能。要完成任务,请重新引导 ESXi 主机。

  • PR 2170126:备份代理虚拟机可能在备份期间进入无效状态

    在不关闭电源或进行迁移的情况下执行数百个磁盘热添加或移除操作的虚拟机可能会终止并失效。这会影响备份解决方案,备份代理虚拟机也可能因此而终止。

    在 hostd 日志中,您可能会看到如下内容:
    2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
    2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
    2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
    2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171

    在 vmkernel 日志中,内容如下:
    2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
    2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size.Cannot expand.

    本版本已解决该问题。

  • PR 2155858:关闭虚拟机电源后,独占关联性可能无法取消设置

    关闭 ESXi 主机上最后一个虚拟机的电源时,如果此虚拟机正在使用 sysContexts 配置,则调度程序可能会移除 sysContexts 配置设置的独占关联性。

    本版本已解决该问题。

  • PR 2095984:SNMP 代理可能会提供错误的陷阱 vmwVmPoweredOn

    在 vSphere Web Client 中的摘要选项卡和 快照管理器选项卡下选择虚拟机时,SNMP 代理可能会提供错误的陷阱 vmwVmPoweredOn

    本版本已解决该问题。

  • PR 2204507:重新启动 hostd 后,高级性能图表可能会停止为某些虚拟机统计信息绘制图表

    由于某些计数器中出现除零错误,重新启动 hostd 后,高级性能图表可能会停止为某些虚拟机统计信息绘制图表。

    本版本已解决该问题。

  • PR 2225439:在 ESXi 主机上部署 NSX-T 设备时,NSX opsAgent 可能会失败

    在 ESXi 主机上部署 NSX-T 设备时,NSX opsAgent 可能会失败,而且您可能会看到位于 /var/core 的核心转储文件。此故障是由于主机提供的库代码中存在争用情况导致的。

    本版本已解决该问题。

  • PR 2154912:如果在共享 VMFS 数据存储上配置 /productLocker 目录,VMware Tools 可能会显示错误的状态

    如果在共享 VMFS 数据存储上配置 /productLocker 目录,当使用 vSphere vMotion 迁移虚拟机时,虚拟机中的 VMware Tools 可能会显示“不受支持”这一错误的状态。

    本版本已解决该问题。

  • PR 2180890:MSINFO32 命令可能不会显示运行 Windows 7 或 Windows Server 2008 R2 的虚拟机上的已安装物理 RAM

    MSINFO32 命令可能不会显示运行 Windows 7 或 Windows Server 2008 R2 的虚拟机上的已安装物理 RAM。如果将两个或更多 vCPU 分配给虚拟机,“已安装物理 RAM”字段会显示不可用 (not available)

    本版本已解决该问题。

  • PR 2085546:出现未对齐的重叠 I/O 时,vSAN 集群中的 I/O 延迟可能会增加

    在出现未对齐的重叠 I/O 的某些情况下,vSAN 堆栈两阶段提交引擎的提交调度程序可能无法立即运行。此延迟可能会增加 I/O 操作的滞后时间。

    本版本已解决该问题。

  • PR 2051108:Readdir API 始终返回 EOF,从而导致 listdir 命令出现异常行为

    OSFS_Readdir API 填充受指定缓冲区大小限制的目录项,并始终返回文件末尾 (EOF) 为 Yes。您可能需要多次调用 FSSReadDir 来读取整个目录。

    本版本已解决该问题。

  • PR 2164137:升级到 ESXi 6.5 期间,vSAN 延伸集群中的 ESXi 主机可能会发生故障

    将 vSAN 延伸集群从 ESXi 6.0 升级到 6.5 期间,主机可能会出现故障并显示紫色诊断屏幕。以下堆栈跟踪会标识此问题。

    #0 DOMUtil_HashFromUUID
    #1 DOMServer_GetServerIndexFromUUID
    #2 DOMOwnerGetRdtMuxGroupInt
    #3 DOMOwner_GetRdtMuxGroupUseNumServers
    #4 DOMAnchorObjectGetOwnerVersionAndRdtMuxGroup
    #5 DOMAnchorObjectCreateResolverAndSetMuxGroup
    #6 DOMObject_InitServerAssociation
    #7 DOMAnchorObjectInitAssociationToProxyOwnerStartTask
    #8 DOMOperationStartTask
    #9 DOMOperationDispatch
    #10 VSANServerExecuteOperation
    #11 VSANServerMainLoop

  • PR 2112683:即使磁盘上报告了 I/O 故障,vSAN 也不会将磁盘标记为已降级

    在某些情况下,即使磁盘报告了 I/O 故障并且 vSAN 已停止处理该磁盘上的任何其他 I/O,vSAN 也需要很长时间才能将磁盘标记为已降级。

    本版本已解决该问题。

  • PR 1814870:Dell R730 服务器上的风扇可能会显示在错误的硬件运行状况监控组中或不会显示

    Dell R730 服务器上的风扇可能不会在 vSphere Client 或 vSphere Web Client“硬件状态”选项卡下的“风扇”部分中显示,而是显示在其他部分中,或者根本没有显示。

    本版本已解决该问题。

  • PR 2140766:vSAN 容量监控器显示错误的已用容量

    将 vCenter Server 升级到 6.5 Update 2 后,vSAN 容量监控器不会包含版本低于 6.5 Update 2 的 ESXi 主机中部署的虚拟机的容量。该监控器显示的已用容量可能会小于集群中的实际已用容量。

    本版本已解决该问题。

  • PR 2172723:由于大批量写入期间组件出现拥堵,vSAN 集群中的客户机 I/O 带宽较低

    在某些情况下,大量顺序写入操作期间会出现较高的延迟。进入维护模式时,您可能会注意到 IOPS 下降。

    本版本已解决该问题。

  • PR 2073175:如果使用经过重命名的现有数据存储的旧名称命名新的数据存储,则可能会导致与 NFS 数据存储断开连接

    如果使用经过重命名的现有数据存储的旧名称命名新的数据存储,则可能会导致与 NFS 数据存储断开连接。例如,如果将现有数据存储从 NFS-01 重命名为 NFS-01-renamed,然后使用 NFS-01 名称创建新的 NFS 数据存储。随后,ESXi 主机会与重命名的数据存储断开连接,并且无法挂载新的数据存储。

    本版本已解决该问题。

  • PR 2079002:如果禁用 IPv4,则在纯 IPv6 模式下无法设置 IPv6 主机名

    如果在 ESXi 主机上禁用 IPv4,您可能无法设置 IPv6 主机名,因为系统需要使用 IPv4 地址。

    本版本已解决该问题。如果在主机上同时启用了 IPv4 和 IPv6,IPv4 主机名优先。

  • PR 2192629:生成的 syslog.log 存档文件数量可能小于配置的默认值,而且在 ESXi 版本 6.0 和 6.5 之间也不同

    生成的 syslog.log 存档文件数量可能小于使用 syslog.global.defaultRotate 参数设置的默认值。syslog.log 存档文件数量在 ESXi 版本 6.0 和 6.5 之间可能不同。例如,如果 syslog.global.defaultRotate 默认设置为 8,ESXi 6.0 会创建 syslog.0.gzsyslog.7.gz,而 ESXi 6.5 会创建 syslog.0.gzsyslog.6.gz

    本版本已解决该问题。

  • PR 2150648:如果所有组件都位于串联节点下,对不平衡的磁盘执行重新均衡也无法释放其中的空间

    展开对象时,串联节点将添加到副本来支持对更大大小的要求。一段时间后,随着 vSAN 创建新的副本来包括串联节点,原始副本和串联节点都会被丢弃。随着 vSAN 将原始副本和串联节点合并到新副本,如果 vSAN 没有足够的空间来放置新组件,该操作可能会失败。如果磁盘变得不平衡,并且磁盘上的所有组件都在串联节点下,则重新均衡操作无法移动任何组件来平衡磁盘。

    本版本已解决该问题。

  • PR 2039320:如果存储策略将“数据局部性”设置为“首选”或“备用”,vSAN 延伸集群中的 VMDK 扩展会失败

    无法在扩展 VMDK 的同时更改 VMDK 的存储策略,但如果现有策略已设置“数据局部性”规则,则即便不对存储策略作任何更改,扩展仍可能会失败。

    本版本已解决该问题。

  • PR 2158561:您可能无法在基于 AMD 的主机上运行的虚拟机中使用 VMware DirectPath I/O 功能

    系统可能无法为基于 AMD 的主机上运行的虚拟机正确计算预留的内存范围报告的上限值。这可能会让使用 VMware DirectPath I/O 功能的虚拟机无法打开电源。

    本版本已解决该问题。

  • PR 2180962:如果本机多路径插件 (NMP) 下的调用尝试解锁已释放的锁定,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    NMP 设备静默代码路径中出现错误时,系统可能会执行调用,解锁已释放的锁定,而这可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2156840:使用 EFI 并在 AMD 处理器上运行 Windows Server 2016 的虚拟机可能会在重新引导期间停止响应

    硬件版本为 10 或更低版本、使用 EFI 并在 AMD 处理器上运行 Windows Server 2016 的虚拟机可能会在重新引导期间停止响应。如果虚拟机使用 BIOS、硬件版本为 11 或更高版本、客户机操作系统不是 Windows 或处理器是 Intel,则不会出现此问题。

    本版本已解决该问题。

  • PR 2204028:反复尝试重新注册具有相同名称的字符设备后,ESXi 主机可能会出现故障

    如果尝试重新注册具有相同名称的字符设备,您可能会看到类似以下内容的警告:
    2018-09-14T04:49:27.441Z cpu33:4986380)WARNING: CharDriver: 291: Driver with name XXXX is already using slot XX
    反复尝试时,注册设备所需的堆内存不会释放。这会导致内存泄露问题,而且随着时间的推移,主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 1847663:NMP SATP 模块在加载期间可能无法获取已更改的参数

    在系统重新引导后加载 NMP SATP 模块时,vmk_ModuleLoad () 方法可能无法读取已更改的模块特定参数。此问题主要影响第三方驱动程序。

    本版本已解决该问题。

  • PR 2031499:在延伸集群中,如果不同站点之间的磁盘使用情况不均匀,磁盘重新均衡可能无法发挥预期作用

    vSAN 使用集群中所有磁盘之间的磁盘占满程度值来计算平均占满程度值。重新均衡操作期间会使用此值以确保移动数据不会导致目标磁盘上出现不平衡。如果您有一个 vSAN 延伸集群,不同站点间的存储利用率可能不同。在此情况下,如果某个站点上的平均占满程度值高于其他站点,重新均衡可能无法发挥预期作用。

    本版本已解决该问题。

  • PR 2128759:删除虚拟机后,虚拟机目录仍保留在 NSX-T 环境中

    删除虚拟机时,由于 .dvsData 文件夹中的端口文件删除顺序错误,虚拟机目录可能仍保留在 NSX-T 环境中。

    本版本已解决该问题。

  • PR 2187127:如果 IPFIX 具有高采样率且流量比较大,VXLAN 环境的性能可能会降低

    如果启用具有高采样率的 IPFIX 且流量比较大,您可能会看到 VXLAN 环境的性能降低。

    本版本已解决该问题。使用较低的采样率可优化性能。

  • PR 2139131:ESXi 主机可能会在关机时出现故障并显示紫色诊断屏幕

    由于 IPv6 环境中的多播侦听器发现 (MLD) 版本在查询时存在争用情况,ESXi 主机可能会在关机时出现故障并显示紫色诊断屏幕。您可能会看到一条类似于以下内容的错误消息:

    #PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
    ...
    0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
    0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
    0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
    0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000

    本版本已解决该问题。

  • PR 2133634:使用 vSphere vMotion 迁移集群中的虚拟机时,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    使用 vSphere vMotion 迁移集群中的虚拟机时,ESXi 主机可能会出现故障并显示紫色诊断屏幕。此问题会影响包含在物理总线共享模式下共享的非 RDM 磁盘(例如 VMDK 或 vSphere Virtual Volumes)的集群中的虚拟机。 

    本版本已解决该问题。

ESXi650-201811402-BG
修补程序类别 缺陷修复
修补程序严重性 重要
需要重新引导主机
需要迁移或关闭虚拟机
受影响的硬件 不适用
受影响的软件 不适用
包含的 VIB
  • VMW_bootbank_ne1000_0.8.3-8vmw.650.2.75.10884925
已修复的 PR  不适用
CVE 编号 不适用

此修补程序更新了 ne1000 VIB。

    ESXi650-201811403-BG
    修补程序类别 缺陷修复
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_vmkusb_0.1-1vmw.650.2.75.10884925
    已修复的 PR  不适用
    CVE 编号 不适用

    此修补程序更新了 vmkusb VIB。

      ESXi650-201811404-BG
      修补程序类别 缺陷修复
      修补程序严重性 严重
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-11vmw.650.2.75.10884925
      已修复的 PR  2096875
      CVE 编号 不适用

      此修补程序更新了 lsu-lsi-lsi-mr3-plugin VIB 以解决下列问题:

      • PR 2096875:由于 lsu-lsi-lsi-mr3-plugin 中存在内存分配问题,ESXi 主机和 hostd 可能会停止响应

        由于 vSAN 磁盘可维护性插件 lsu-lsi-lsi-mr3-plugin 中存在内存分配问题,ESXi 主机和 hostd 可能会停止响应。您可能会看到错误消息内存不足 (Out of memory) 克隆线程时出错 (Error cloning thread)

        本版本已解决该问题。

      ESXi650-201811405-BG
      修补程序类别 缺陷修复
      修补程序严重性 重要
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMW_bootbank_ntg3_4.1.3.2-1vmw.650.2.75.10884925
      已修复的 PR  2151342
      CVE 编号 不适用

      此修补程序更新了 ntg3 VIB 以解决下列问题:

      • PR 2151342:数据包过大可能导致使用 ntg3 驱动程序的网卡暂时停止发送数据包

        在极少数情况下,使用 ntg3 驱动程序的网卡(例如,Broadcom BCM5719 和 5720 GbE 网卡)可能会在尝试发送过大的数据包失败后暂时停止发送数据包。ntg3 4.1.3.2 驱动程序可以解决该问题。

        本版本已解决该问题。

      ESXi650-201811406-BG
      修补程序类别 缺陷修复
      修补程序严重性 适中
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMware_bootbank_lsu-hp-hpsa-plugin_2.0.0-7vmw.650.2.75.10884925
      已修复的 PR  2064111
      CVE 编号 不适用

      此修补程序更新了 lsu-hp-hpsa-plugin VIB 以解决下列问题:

      • PR 2064111:使用 HPE ProLiant Gen9 智能阵列控制器的 VMware vSAN 可能不会在正确的磁盘上点亮定位器 LED 指示灯

        在使用 HPE ProLiant Gen9 智能阵列控制器(例如 P440 和 P840)的 vSAN 集群中,可能不会在正确的故障设备上点亮定位器 LED 指示灯。

        本版本已解决该问题。

      ESXi650-201811101-SG
      修补程序类别 安全
      修补程序严重性 严重
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMware_bootbank_esx-base_6.5.0-2.71.10868328
      • VMware_bootbank_vsan_6.5.0-2.71.10652415
      • VMware_bootbank_vsanhealth_6.5.0-2.71.10652417
      • VMware_bootbank_esx-tboot_6.5.0-2.71.10868328
      已修复的 PR  2094558、2169094、2020984、2025909、2109023、2189347、2154394
      CVE 编号 不适用

      此修补程序更新了 esx-base、esx-tboot、vsan 和 vsanhealth VIB 以解决下列问题:

      • VMware Tools 的 Windows Vista 之前的 ISO 映像不再与 ESXi 打包在一起。有需要的用户可下载 Windows Vista 之前的 ISO 映像。有关下载信息,请参见“产品下载”页面。

      • 将 NTP 守护进程更新到 4.2.8p12

        NTP 守护进程已更新到 4.2.8p12。

      • PR 2154394:加密 vSphere vMotion 可能因迁移堆空间不足而失败

        对于大型虚拟机,加密 vSphere vMotion 可能因迁移堆空间不足而失败。

        本版本已解决该问题。

      • 更新 Python 软件包

        Python 软件包已更新到版本 3.5.5。

      • 更新 libxml2 库

        ESXi userworld libxml2 库已更新到版本 2.9.8。

      • 更新 OpenSSL 软件包

        OpenSSL 软件包已更新到版本 1.0.2p。

      • 更新 OpenSSH 软件包

        OpenSSH 软件包已更新到版本 7.7p1。

      ESXi650-201811102-SG
      修补程序类别 安全
      修补程序严重性 重要
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMware_bootbank_esx-ui_1.31.0-10201673
      已修复的 PR  不适用
      CVE 编号 不适用

      此修补程序更新了 esxi-ui VIB。

        ESXi650-201811103-SG
        修补程序类别 安全
        修补程序严重性 适中
        需要重新引导主机
        需要迁移或关闭虚拟机
        受影响的硬件 不适用
        受影响的软件 不适用
        包含的 VIB
        • VMware_locker_tools-light_6.5.0-2.71.10868328
        已修复的 PR  不适用
        CVE 编号 不适用

        此修补程序更新了 tools-light VIB。

          ESXi-6.5.0-20181104001-standard
          配置文件名称 ESXi-6.5.0-20181104001-standard
          内部版本 有关内部版本信息,请参见页面顶部
          供应商 VMware, Inc.
          发布日期 2018 年 11 月 29 日
          接受级别 合作伙伴支持
          受影响的硬件 不适用
          受影响的软件 不适用
          受影响的 VIB
          • VMware_bootbank_esx-base_6.5.0-2.75.10884925
          • VMware_bootbank_esx-tboot_6.5.0-2.75.10884925
          • VMware_bootbank_vsan_6.5.0-2.75.10884926
          • VMware_bootbank_vsanhealth_6.5.0-2.75.10884927
          • VMW_bootbank_ne1000_0.8.3-8vmw.650.2.75.10884925
          • VMW_bootbank_vmkusb_0.1-1vmw.650.2.75.10884925
          • VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-11vmw.650.2.75.10884925
          • VMW_bootbank_ntg3_4.1.3.2-1vmw.650.2.75.10884925
          • VMware_bootbank_lsu-hp-hpsa-plugin_2.0.0-7vmw.650.2.75.10884925
          已修复的 PR

          1847663、1863313、1894568、1949789、2021943、2022147、2029579、2037849、2037926、2057600、2063154、2071506、2071610、2071817、2072971、2073175、2078843、2079002、2083594、2083627、2084723、2088951、2089048、2096942、2097358、2098928、2102135、2102137、2107335、2113432、2119609、2122259、2122523、2128932、2130371、2133589、2136002、2139317、2139940、2142767、2144766、2152381、2153867、2154912、2187127、2128759、2187136、2155840、2155858、2156840、2157503、2158561、2164733、2167294、2167877、2170126、2171799、2173856、2179262、2180962、2182211、2186065、2191349、2192629、2192836、2193829、2194304、2197789、2203385、2203836、2204024、2204028、2204507、2209900、2209919、2211285、2211639、2213917、2225439、2225471、2096875、2151342、2064111

          相关的 CVE 编号 不适用
          • 此修补程序更新了以下问题:
            • 由于 libparted 开源库问题,使用 vSphere Update Manager 升级到 ESXi 6.5 和更高版本可能会失败。您可能会看到以下回溯追踪:

              [root@hidrogenio07:~] partedUtil getptbl /vmfs/devices/disks/naa.60000970000592600166533031453135
              Backtrace has 12 calls on stack:
              12: /lib/libparted.so.0(ped_assert+0x2a) [0x9e524ea]
              11: /lib/libparted.so.0(ped_geometry_read+0x117) [0x9e5be77]
              10: /lib/libparted.so.0(ped_geometry_read_alloc+0x75) [0x9e5bf45]
              9: /lib/libparted.so.0(nilfs2_probe+0xb5) [0x9e82fe5]
              8: /lib/libparted.so.0(ped_file_system_probe_specific+0x5e) [0x9e53efe]
              7: /lib/libparted.so.0(ped_file_system_probe+0x69) [0x9e54009]
              6: /lib/libparted.so.0(+0x4a064) [0x9e8f064]
              5: /lib/libparted.so.0(ped_disk_new+0x67) [0x9e5a407]
              4: partedUtil() [0x804b309]
              3: partedUtil(main+0x79e) [0x8049e6e]
              2: /lib/libc.so.6(__libc_start_main+0xe7) [0x9edbb67]
              1: partedUtil() [0x804ab4d] Aborted

            • 如果不重新配置 SATP 声明规则,SolidFire 阵列可能无法发挥最佳性能。

            • 必须手动将以下 DELL MD 存储阵列型号的声明规则添加到 ESXi:MD32xx、MD32xxi、MD36xxi、MD36xxf、MD34xx、MD38xxf 和 MD38xxi。 

            • 由于 vSCSI 筛选器工具中存在争用情况,如果使用 EMC RecoverPoint,ESXi 主机可能会在虚拟机关机或关闭电源过程中出现故障并显示紫色诊断屏幕。

            • 执行无中断升级期间,某些路径可能会进入永久设备丢失 (PDL) 状态。即使在升级后,此类路径仍不可用。因此,相关设备可能会断开连接。

            • 由于数据结构损坏,从页面缓存移除一个页面时,ESXi 主机可能会出现故障并显示紫色诊断屏幕。您可能会看到以下回溯追踪:

              2018-01-01T04:02:47.859Z cpu13:33232)Backtrace for current CPU #13, worldID=33232, rbp=0xd
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b720:[0x41800501883b]PageCacheRemoveFirstPageLocked@vmkernel#nover+0x2f stack: 0x4305dd30
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b740:[0x418005019144]PageCacheAdjustSize@vmkernel#nover+0x260 stack: 0x0, 0x3cb418317a909
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81bfd0:[0x41800521746e]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0, 0x0, 0x0, 0x0, 0
              2018-01-01T04:02:47.877Z cpu13:33232)^[[45m^[[33;1mVMware ESXi 6.0.0 [Releasebuild-6921384 x86_64]^[[0m
              #GP Exception 13 in world 33232:memMap-13 @ 0x41800501883b

            • 必须手动将 HITACHI OPEN-V 存储阵列的声明规则添加到 ESXi 主机 

            • 使用 vSphere Web Client 更新 NTP 后,如果此前曾向 NTP 配置手动添加设置,则这些设置可能会从 ntp.conf 文件中删除。NTP 更新会保留所有设置以及限制选项、driftfile 以及手动添加到 ntp.conf 文件的服务器。如果手动修改 ntp.conf 文件,必须重新启动 hostd 以传播更新。

            • 失效票证在 hostd 生成新的票证之前不会被删除,并有可能耗尽 RAM 磁盘节点上的空间。这可能会导致 ESXi 主机停止响应。

            • 受冗余状况检查影响,使用 vSphere vMotion 迁移虚拟机时,可能无法将已连接的 USB 设备用作直通设备。

            • 如果虚拟机位于 VMFSsparse 快照上,向该虚拟机发出的 I/O 可能只会在 VMFSsparse 级别进行部分处理,但上层(如 I/O 筛选器)可能会认为传输成功。这可能会导致数据不一致。

            • ESXi 主机可能不会在 Block Limits VPD 页面中反映 SCSI 设备报告的 MAXIMUM TRANSFER LENGTH 参数。因此,以大于限制的传输大小发出的 I/O 命令可能会失败并显示类似以下内容的日志:

              2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.

            • 如果相应的设备路径队列深度发生变化,esxtop 命令行实用程序可能不会显示设备队列深度的更新值。

            • 如果您尝试使用 vmxnet3 网络适配器和 WDS 以 PXE 方式引导使用 EFI 固件的虚拟机,并且没有禁用 WDS 中的变量 Windows 扩展选项,则虚拟机的引导速度可能会极为缓慢。

            • 由于 Apple USB 的问题,iOS 版本高于 iOS 11 的设备无法连接到 OS X 版本高于 OS X 10.12 的虚拟机。

            • 由于变量中指定的字符串被忽略,由 vmx.log.syslogID 定义并用来将 vmware.log 数据发送到 Syslog 的 ID 可能无法发挥预期的作用。

            • 由于代码路径仍在使用 IPv6,因此如果禁用全局 IPv6 地址,ESXi 主机可能会出现间歇性故障。

            • 在极少数情况下,如果在 hostd 初始化期间发出 HTTP 请求,代理可能会出现故障。

            • 虚拟机 .vmx 文件中存在某些无效参数时,hostd 可能会出现故障。例如,将值为 TrueideX:Y.present 等参数手动添加到 .vmx 文件。

            • 在 Linux 虚拟机集群中,如果主机的 ESXi 版本不同,并且针对 Merom 和 Penryn 处理器将增强型 vMotion 兼容性 (EVC) 级别设置为 L0 或 L1,则尝试使用 vSphere vMotion 从 ESXi 6.0 主机迁移到使用更高版本 ESXi 的主机时,虚拟机可能会停止响应。

            • 由于关闭 VMware vSphere VMFS6 期间数据存储检测信号可能会提前停止,ESXi 主机可能会停止响应。因此,关联性管理器不能正常退出。

            • 必须手动将 Tegile IntelliFlash 存储阵列的声明规则添加到 ESXi。

            • 由于存储阵列中的 I/O 延迟有所变化,因此可能会生成以下两个 VOB 事件,但它们不会报告虚拟机中的实际问题:

              1. 设备 naa.xxx 性能降低。I/O 延迟已从平均值 4114 微秒增加到 84518 微秒。
              2. 设备 naa.xxx 性能已得到改善。I/O 延迟已从 346115 微秒降低为 67046 微秒。
            • 如果使用 vSphere vMotion 将具有文件设备筛选器的虚拟机从 vSphere Virtual Volumes 数据存储迁移到其他主机,并且该虚拟机已启用变更块跟踪 (CBT)、VMware vSphere Flash Read Cache (VFRC) 或 IO 筛选器,则迁移可能会导致出现任意功能问题。在迁移期间,文件设备筛选器可能不会正确传输到主机。因此,如果在回写模式下配置了缓存 IO 筛选器,您可能会看到 CBT 中的增量备份受损、VFRC 和缓存 IO 筛选器的性能下降、复制 IO 筛选器受损和磁盘损坏。您还可能会看到虚拟机加密出现问题。

            • 如果使用 VMware vSphere APIs for Storage Awareness 提供程序,您可能会看到针对已取消或已删除任务的多次 getTaskUpdate 调用。因此,您可能会看到系统消耗了更多 vSphere API for Storage Awareness 带宽且日志涌出。

            • 如果 vSphere API for Storage Awareness 提供程序丢失了其数据库中的绑定信息,则由于无限循环导致 CPU 负载达到 100%,vSphere Virtual Volumes 可能会停止响应。hostd 也可能会停止响应。您可能会看到一条致命错误消息。此修复可防止在数据库绑定失败时无限循环。

            • 如果 ESXi 主机的日志记录资源组由于日志记录任务繁重而过载,运行 esxcfg-syslog 命令期间 hostd 可能会变得无响应。由于此修复将 esxcfg-syslog 相关命令从日志记录资源组移到 ESXi shell,您可能会看到 shell 默认资源组下的内存利用率变高。

            • 已禁用的 IPMI 传感器或不报告任何数据的传感器可能生成无效硬件运行状况警报。

            • 如果取消注册处于断开连接状态的 vSphere API for Storage Awareness 提供程序,您可能会看到 java.lang.NullPointerException 错误。当提供程序处于断开连接状态时,不会初始化事件和警报管理器,这会导致错误。

            • 由于缓存条目失效,VMFS6 数据存储可能会错误地报告空间不足。

            • 如果虚拟机使用 CBRC 生成了快照,然后禁用 CBRC,则磁盘整合操作可能会失败并显示指定的参数不正确: spec.deviceChange.device (A specified parameter was not correct: spec.deviceChange.device) 这条错误消息,因为禁用 CBRC 后,摘要文件会被删除。在解决该问题之前,将一直显示警示“需要整合虚拟机磁盘 (Virtual machine disks consolidation is needed)”。

            • OMIVV 依赖 iDRAC 属性 hardware.systemInfo.otherIdentifyingInfo.ServiceTag 中的信息提取 SerialNumber 参数,以便识别某些 Dell 模块化服务器。serviceTag 属性中存在不匹配可能导致此集成失败。

            • 以前,如果 vCenter Server 系统中缺少处理器或风扇等组件,存在感知传感器就会显示状态“未知”。但是,存在感知传感器没有关联的运行状况。

            • 如果连接到 ESXi 主机的目标仅支持隐式 ALUA 且只有备用路径,该主机可能会因存在争用情况而在发现设备时出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的回溯追踪:

              SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
              0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
              0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
              0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807

            • 如果 ESXi 主机并无可用的 VMware Tools ISO 映像,而您尝试在活动虚拟机上升级 VMware Tools,该操作可能会失败并显示 VIX 错误代码 21000 (VIX error code 21000)。即使 ISO 映像可用后,您也可能无法使用 API、vSphere Client 或 vSphere Web Client 升级 VMware Tools。这是因为 ESXi 主机缓存了虚拟机打开电源时执行的首次可用性检查,并且以后不会更新该缓存。

            • hostd 服务日志和 Syslog 可能会在集群的所有 ESXi 主机中收集不必要的调试异常日志。

              hostd 日志中可能存在类似以下内容的消息:
              No match, sensor_health file missing sensorNumer 217: class 3 sensor type 35 offset 0

              syslog /etc/sfcb/omc/sensor_health 中可能存在类似以下内容的消息:
              Missing expected value to check for

            • 在有多条路径通向 IBM SVC 目标 LUN 的 ESXi 配置中,如果活动路径上的连接断开,同时其他连接的路径未处于服务 I/O 的状态,即使没有任何路径可以为 I/O 服务,ESXi 主机也有可能不会将此条件检测为 APD。因此,对设备的 I/O 操作不会很快就失败。

            • 如果通过使用以下命令自定义物理网卡的 Rx 和 Tx 环大小来提升网络性能:
              esxcli network nic ring current set -n <vmnicX> -t <value>
              esxcli network nic ring current set -n <vmnicX> -r <value>
              这些设置在 ESXi 主机重新引导后可能不会保留下来。

            • 在负载极大的系统中,如果大量 I/O 超时,则可能会导致物理 CPU 软锁定。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

            • 您可能会看到在高延迟(例如,延迟不少于 100 毫秒)下通过高速网络链路(例如 10 GbE)执行远距离 vSphere vMotion 操作的性能降低,因为硬编码套接字缓冲区限制为 16 MB。通过此修复,您可以配置最大套接字缓冲区大小参数 SB_MAX_ADJ

            • 由于存在争用情况,重新引导客户机操作系统时,虚拟机可执行文件进程可能会失败并关闭虚拟机。

            • 您可能会在 syslog.log 中看到多条类似以下内容的消息:sfcb-vmware_raw[69194]: IpmiIfcFruGetInv: Failed during send cc = 0xc9。这些是常规信息日志,并不是错误或警告日志。

            • 成功创建 Linux 虚拟机静默快照后,快照管理器可能仍将快照显示为非静默快照。

            • 在多个发行版本中,smartd 可能会在 Syslog 服务日志中生成大量调试和信息消息。

            • 发给虚拟 SATA CD-ROM 的无效命令可能会触发错误并增加虚拟机的内存利用率。如果这时虚拟机无法分配内存,则可能会导致这些虚拟机发生故障。
              您可能会看到针对无效命令出现以下日志:
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command 
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.

              以及类似以下内容的严重错误消息:
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure

            • 从 vSphere Web Client 集群配置仪表板上的磁盘管理表中选择物理位置列时,该列可能仍然为空,并仅显示有关 hpsa 驱动程序的信息。

            • 某些关键闪存设备参数(包括温度和重分配扇区计数)未提供阈值。因此,ESXi 主机 smartd 守护进程可能会报告一些警告。

            • 当外部进程 esxcfg-syslog 保持停滞状态时,hostd 服务可能会停止响应。因此,ESXi 主机可能会停止响应。

            • 在启用 IPFIX 时,如果不同的流量比较大,系统检测信号可能无法长时间从 IPFIX 占用 CPU 并触发紫色诊断屏幕。

            • 默认情况下,已启用 vSphere HA 的 ESXi 主机中的隔离响应功能会被禁用。启用隔离响应功能后,连接到 NSX-T 逻辑交换机的虚拟机端口可能会在 vSphere HA 故障切换后被阻止。

            • 如果禁用了网卡的 vSphere Network I/O Control 和队列配对,您可能会看到管理、ISCSI 和 NFS 等基础架构流量中出现次序混乱的数据包。这是因为 vSphere Network I/O Control 未启用时,队列配对也会被禁用,从而导致网卡处理多个队列。

            • 不支持块限制 VPD 页面 0xb0 的驱动器可能会生成大量充斥 vmkernel.log 的事件代码日志。

            • 使用 VMware vSphere Replication 复制虚拟机时,ESXi 主机可能会出现故障,立即显示或在 24 小时内显示紫色诊断屏幕,并报告以下错误:PANIC bora/vmkernel/main/dlmalloc.c:4924 - dlmalloc 中发生使用错误 (PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc)

            • 由于某些第三方设备驱动程序在处理命令时反复失败,虚拟机可能变得无响应。打开虚拟机控制台时,您可能会看到以下错误:

              错误: “无法连接到 MKS: Could not connect to pipe \\.\pipe\vmware-authdpipe within retry period" 

            • 在含有超过 150 个虚拟机的 vSphere 6.5 环境中,如果客户机侦测服务处于活动状态,则使用 vSphere vMotion 迁移虚拟机可能会失败并在 vSphere Web Client 中显示类似于以下内容的错误:

              源虚拟机检测到目标虚拟机无法恢复 (The source detected that the destination failed to resume)。

              目标 vmware.log 含有类似于以下内容的错误消息:
              2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
              2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.

              vmkernel 日志含有类似以下内容的错误消息:
              2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size.Cannot expand.
              2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3

            • 如果将 NFS 数据存储配置为 Syslog 数据存储,而且 ESXi 主机与该数据存储断开了连接,则系统会停止将日志记录到该数据存储,同时 ESXi 主机可能会变得无响应。

            • 此修复为 Lenovo DE 系列存储阵列默认将 SATP 设置为 VMW_SATP_ALUA,将 PSP 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on

            • 在启用了去重的 vSAN 集群中,传至容量磁盘的 I/O 可能会重新路由到另一个磁盘。新的目标设备可能会出现永久设备丢失 (PDL)。如果在此期间有 I/O 请求到达出现故障的磁盘,则主机可能会出现故障并显示紫色诊断屏幕。

            • 如果从 ESXi 主机手动删除了此前下载至主机 /scratch/downloads 目录的虚拟机支持包文件夹,则当 hostd 尝试在文件夹创建一小时后自动删除这些文件夹时,hostd 可能会出现故障。

            • 尽管已逐出缓存项,但由于争用情况,系统可能会再次将其逐出。这会导致 ESXi 主机出现空指针取消引用,从而引起 ESXi 主机故障。

            • 迁移或升级到 vCenter Server Appliance 6.5 期间,如果所需的 vCenter Server Appliance 大小大于该部署大小的阈值,则可能无法在信息表中选择某些部署大小选项。

            • 定期使用上行链路时,NIOC hClock 调度程序可能会重置上行链路网络设备,并且该重置不可预测。

            • 如果在主机配置文件上启用“有状态安装”功能,并且管理 VMkernel 网卡连接到分布式虚拟交换机,则在 PXE 引导期间使用 vSphere Auto Deploy 将主机配置文件应用于其他 ESXi 6.5 主机可能会失败。该主机仍处于维护模式。

            • 使用脚本打开再关闭使用 SR-IOV vNIC 的虚拟机的电源可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

            • 如果某个实体(如虚拟机或数据存储)不再位于 ESXi 主机的统计信息数据库上,但 vim.PerformanceManager 请求该实体的性能数据,则可能会触发一个代码路径,导致主机代理进程失败。因此,对 vCenter Server 系统来说,该主机可能会变得暂时不可用。

            • 如果启用 NetFlow 网络分析工具对 vSphere Distributed Switch 端口组上的每个数据包进行采样,通过将“采样率”设置为 0,网络延迟可能会在流量超过 100 万时达到 1000 毫秒。

            • 在不关闭电源或进行迁移的情况下执行数百个磁盘热添加或移除操作的虚拟机可能会终止并失效。这会影响备份解决方案,备份代理虚拟机也可能因此而终止。

              在 hostd 日志中,您可能会看到如下内容:
              2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
              2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
              2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
              2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171

              在 vmkernel 日志中,内容如下:
              2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
              2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size.Cannot expand.

            • 关闭 ESXi 主机上最后一个虚拟机的电源时,如果此虚拟机正在使用 sysContexts 配置,则调度程序可能会移除 sysContexts 配置设置的独占关联性。

            • 在 vSphere Web Client 中的摘要选项卡和 快照管理器选项卡下选择虚拟机时,SNMP 代理可能会提供错误的陷阱 vmwVmPoweredOn

            • 由于某些计数器中出现除零错误,重新启动 hostd 后,高级性能图表可能会停止为某些虚拟机统计信息绘制图表。

            • 在 ESXi 主机上部署 NSX-T 设备时,NSX opsAgent 可能会失败,而且您可能会看到位于 /var/core 的核心转储文件。此故障是由于主机提供的库代码中存在争用情况导致的。

            • 如果在共享 VMFS 数据存储上配置 /productLocker 目录,当使用 vSphere vMotion 迁移虚拟机时,虚拟机中的 VMware Tools 可能会显示“不受支持”这一错误的状态。

            • MSINFO32 命令可能不会显示运行 Windows 7 或 Windows Server 2008 R2 的虚拟机上的已安装物理 RAM。如果将两个或更多 vCPU 分配给虚拟机,“已安装物理 RAM”字段会显示不可用 (not available)

            • 在出现未对齐的重叠 I/O 的某些情况下,vSAN 堆栈两阶段提交引擎的提交调度程序可能无法立即运行。此延迟可能会增加 I/O 操作的滞后时间。

            • OSFS_Readdir API 填充受指定缓冲区大小限制的目录项,并始终返回文件末尾 (EOF) 为 Yes。您可能需要多次调用 FSSReadDir 来读取整个目录。

            • 将 vSAN 延伸集群从 ESXi 6.0 升级到 6.5 期间,主机可能会出现故障并显示紫色诊断屏幕。以下堆栈跟踪会标识此问题。

              #0 DOMUtil_HashFromUUID
              #1 DOMServer_GetServerIndexFromUUID
              #2 DOMOwnerGetRdtMuxGroupInt
              #3 DOMOwner_GetRdtMuxGroupUseNumServers
              #4 DOMAnchorObjectGetOwnerVersionAndRdtMuxGroup
              #5 DOMAnchorObjectCreateResolverAndSetMuxGroup
              #6 DOMObject_InitServerAssociation
              #7 DOMAnchorObjectInitAssociationToProxyOwnerStartTask
              #8 DOMOperationStartTask
              #9 DOMOperationDispatch
              #10 VSANServerExecuteOperation
              #11 VSANServerMainLoop

            • 在某些情况下,即使磁盘报告了 I/O 故障并且 vSAN 已停止处理该磁盘上的任何其他 I/O,vSAN 也需要很长时间才能将磁盘标记为已降级。

            • Dell R730 服务器上的风扇可能不会在 vSphere Client 或 vSphere Web Client“硬件状态”选项卡下的“风扇”部分中显示,而是显示在其他部分中,或者根本没有显示。

            • 将 vCenter Server 升级到 6.5 Update 2 后,vSAN 容量监控器不会包含版本低于 6.5 Update 2 的 ESXi 主机中部署的虚拟机的容量。该监视器显示的已用容量可能会小于集群中的实际已用容量。

            • 受 vSAN 实施的内部 I/O 限制影响,源自 vSAN 日志记录层的组件拥堵可能会降低客户机 I/O 带宽。未能合理拆分大批量 I/O 来加快数据转出速度。此问题会导致日志堆积,进而有可能导致拥堵。进入维护模式时,您可能会注意到 IOPS 下降。

            • 由于 IPv6 环境中的多播侦听器发现 (MLD) 版本在查询时存在争用情况,ESXi 主机可能会在关机时出现故障并显示紫色诊断屏幕。您可能会看到一条类似于以下内容的错误消息:

              #PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
              ...
              0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
              0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
              0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
              0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000

            • 如果使用经过重命名的现有数据存储的旧名称命名新的数据存储,则可能会导致与 NFS 数据存储断开连接。例如,如果将现有数据存储从 NFS-01 重命名为 NFS-01-renamed,然后使用 NFS-01 名称创建新的 NFS 数据存储。随后,ESXi 主机会与重命名的数据存储断开连接,并且无法挂载新的数据存储。

            • 如果在 ESXi 主机上禁用 IPv4,您可能无法设置 IPv6 主机名,因为系统需要使用 IPv4 地址。

            • 生成的 syslog.log 存档文件数量可能小于使用 syslog.global.defaultRotate 参数设置的默认值。syslog.log 存档文件数量在 ESXi 版本 6.0 和 6.5 之间可能不同。例如,如果 syslog.global.defaultRotate 默认设置为 8,ESXi 6.0 会创建 syslog.0.gzsyslog.7.gz,而 ESXi 6.5 会创建 syslog.0.gzsyslog.6.gz

            • 展开对象时,串联节点将添加到副本来支持对更大大小的要求。一段时间后,随着 vSAN 创建新的副本来包括串联节点,原始副本和串联节点都会被丢弃。随着 vSAN 将原始副本和串联节点合并到新副本,如果 vSAN 没有足够的空间来放置新组件,该操作可能会失败。如果磁盘变得不平衡,并且磁盘上的所有组件都在串联节点下,则重新均衡操作无法移动任何组件来平衡磁盘。

            • 同时更改 VMDK 的存储策略也无法扩展 VMDK,但如果现有策略已设置“数据局部性”规则,则即便不对存储策略作任何更改,扩展仍可能会失败。

            • 系统可能无法为基于 AMD 的主机上运行的虚拟机正确计算预留的内存范围报告的上限值。这可能会让使用 VMware DirectPath I/O 功能的虚拟机无法打开电源。

            • NMP 设备静默代码路径中出现错误时,系统可能会执行调用,解锁已释放的锁定,而这可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

            • 硬件版本为 10 或更低版本、使用 EFI 并在 AMD 处理器上运行 Windows Server 2016 的虚拟机可能会在重新引导期间停止响应。如果虚拟机使用 BIOS、硬件版本为 11 或更高版本、客户机操作系统不是 Windows 或处理器是 Intel,则不会出现此问题。

            • 如果尝试重新注册具有相同名称的字符设备,您可能会看到类似以下内容的警告:
              2018-09-14T04:49:27.441Z cpu33:4986380)WARNING: CharDriver: 291: Driver with name XXXX is already using slot XX
              反复尝试时,注册设备所需的堆内存不会释放。这会导致内存泄露问题,而且随着时间的推移,主机可能会出现故障并显示紫色诊断屏幕。

            • 在系统重新引导后加载 NMP SATP 模块时,vmk_ModuleLoad() 方法可能无法读取已更改的模块特定参数。此问题主要影响第三方驱动程序。

            • vSAN 使用集群中所有磁盘之间的磁盘占满程度值来计算平均占满程度值。重新均衡操作期间会使用此值以确保移动数据不会导致目标磁盘上出现不平衡。如果您有一个 vSAN 延伸集群,不同站点间的存储利用率可能不同。在此情况下,如果某个站点上的平均占满程度值高于其他站点,重新均衡可能无法发挥预期作用。

            • 由于 vSAN 磁盘可维护性插件 lsu-lsi-lsi-mr3-plug-in 中存在内存分配问题,ESXi 主机和 hostd 可能会停止响应。您可能会看到错误消息内存不足 (Out of memory)克隆线程时出错 (Error cloning thread)

            • 在极少数情况下,使用 ntg3 驱动程序的网卡(例如,Broadcom BCM5719 和 5720 GbE 网卡)可能会在尝试发送过大的数据包失败后暂时停止发送数据包。ntg3 4.1.3.2 驱动程序可以解决该问题。

            • 在使用 HPE ProLiant Gen9 智能阵列控制器(例如 P440 和 P840)的 vSAN 集群中,可能不会在正确的故障设备上点亮定位器 LED 指示灯。

            • 删除虚拟机时,由于 .dvsData 文件夹中的端口文件删除顺序错误,虚拟机目录可能仍保留在 NSX-T 环境中。

            • 如果启用具有高采样率的 IPFIX 且流量比较大,您可能会看到 VXLAN 环境的性能降低。

          ESXi-6.5.0-20181104001-no-tools
          配置文件名称 ESXi-6.5.0-20181104001-no-tools
          内部版本 有关内部版本信息,请参见页面顶部
          供应商 VMware, Inc.
          发布日期 2018 年 11 月 29 日
          接受级别 合作伙伴支持
          受影响的硬件 不适用
          受影响的软件 不适用
          受影响的 VIB
          • VMware_bootbank_esx-base_6.5.0-2.75.10884925
          • VMware_bootbank_esx-tboot_6.5.0-2.75.10884925
          • VMware_bootbank_vsan_6.5.0-2.75.10884926
          • VMware_bootbank_vsanhealth_6.5.0-2.75.10884927
          • VMW_bootbank_ne1000_0.8.3-8vmw.650.2.75.10884925
          • VMW_bootbank_vmkusb_0.1-1vmw.650.2.75.10884925
          • VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-11vmw.650.2.75.10884925
          • VMW_bootbank_ntg3_4.1.3.2-1vmw.650.2.75.10884925
          • VMware_bootbank_lsu-hp-hpsa-plugin_2.0.0-7vmw.650.2.75.10884925
          已修复的 PR 1847663、1863313、1894568、1949789、2021943、2022147、2029579、2037849、2037926、2057600、2063154、2071506、2071610、2071817、2072971、2073175、2078843、2079002、2083594、2083627、2084723、2088951、2089048、2096942、2097358、2098928、2102135、2102137、2107335、2113432、2119609、2122259、2122523、2128932、2130371、2133589、2136002、2139317、2139940、2142767、2144766、2152381、2153867、2154912、2187136、2155840、2155858、2156840、2157503、2187127、2128759、2158561、2164733、2167294、2167877、2170126、2171799、2173856、2179262、2180962、2182211、2186065、2191349、2192629、2192836、2193829、2194304、2197789、2203385、2203836、2204024、2204028、2204507、2209900、2209919、2211285、2211639、2213917、2225439、2225471、2096875、2151342、2064111
          相关的 CVE 编号 不适用
          • 此修补程序更新了以下问题:
            • 由于 libparted 开源库问题,使用 vSphere Update Manager 升级到 ESXi 6.5 和更高版本可能会失败。您可能会看到以下回溯追踪:

              [root@hidrogenio07:~] partedUtil getptbl /vmfs/devices/disks/naa.60000970000592600166533031453135
              Backtrace has 12 calls on stack:
              12: /lib/libparted.so.0(ped_assert+0x2a) [0x9e524ea]
              11: /lib/libparted.so.0(ped_geometry_read+0x117) [0x9e5be77]
              10: /lib/libparted.so.0(ped_geometry_read_alloc+0x75) [0x9e5bf45]
              9: /lib/libparted.so.0(nilfs2_probe+0xb5) [0x9e82fe5]
              8: /lib/libparted.so.0(ped_file_system_probe_specific+0x5e) [0x9e53efe]
              7: /lib/libparted.so.0(ped_file_system_probe+0x69) [0x9e54009]
              6: /lib/libparted.so.0(+0x4a064) [0x9e8f064]
              5: /lib/libparted.so.0(ped_disk_new+0x67) [0x9e5a407]
              4: partedUtil() [0x804b309]
              3: partedUtil(main+0x79e) [0x8049e6e]
              2: /lib/libc.so.6(__libc_start_main+0xe7) [0x9edbb67]
              1: partedUtil() [0x804ab4d] Aborted

            • 如果不重新配置 SATP 声明规则,SolidFire 阵列可能无法发挥最佳性能。

            • 必须手动将以下 DELL MD 存储阵列型号的声明规则添加到 ESXi:MD32xx、MD32xxi、MD36xxi、MD36xxf、MD34xx、MD38xxf 和 MD38xxi。 

            • 由于 vSCSI 筛选器工具中存在争用情况,如果使用 EMC RecoverPoint,ESXi 主机可能会在虚拟机关机或关闭电源过程中出现故障并显示紫色诊断屏幕。

            • 执行无中断升级期间,某些路径可能会进入永久设备丢失 (PDL) 状态。即使在升级后,此类路径仍不可用。因此,相关设备可能会断开连接。

            • 由于数据结构损坏,从页面缓存移除一个页面时,ESXi 主机可能会出现故障并显示紫色诊断屏幕。您可能会看到以下回溯追踪:

              2018-01-01T04:02:47.859Z cpu13:33232)Backtrace for current CPU #13, worldID=33232, rbp=0xd
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b720:[0x41800501883b]PageCacheRemoveFirstPageLocked@vmkernel#nover+0x2f stack: 0x4305dd30
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81b740:[0x418005019144]PageCacheAdjustSize@vmkernel#nover+0x260 stack: 0x0, 0x3cb418317a909
              2018-01-01T04:02:47.859Z cpu13:33232)0x43914e81bfd0:[0x41800521746e]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0, 0x0, 0x0, 0x0, 0
              2018-01-01T04:02:47.877Z cpu13:33232)^[[45m^[[33;1mVMware ESXi 6.0.0 [Releasebuild-6921384 x86_64]^[[0m
              #GP Exception 13 in world 33232:memMap-13 @ 0x41800501883b

            • 必须手动将 HITACHI OPEN-V 存储阵列的声明规则添加到 ESXi 主机 

            • 使用 vSphere Web Client 更新 NTP 后,如果此前曾向 NTP 配置手动添加设置,则这些设置可能会从 ntp.conf 文件中删除。NTP 更新会保留所有设置以及限制选项、driftfile 以及手动添加到 ntp.conf 文件的服务器。如果手动修改 ntp.conf 文件,必须重新启动 hostd 以传播更新。

            • 失效票证在 hostd 生成新的票证之前不会被删除,并有可能耗尽 RAM 磁盘节点上的空间。这可能会导致 ESXi 主机停止响应。

            • 受冗余状况检查影响,使用 vSphere vMotion 迁移虚拟机时,可能无法将已连接的 USB 设备用作直通设备。

            • 如果虚拟机位于 VMFSsparse 快照上,向该虚拟机发出的 I/O 可能只会在 VMFSsparse 级别进行部分处理,但上层(如 I/O 筛选器)可能会认为传输成功。这可能会导致数据不一致。

            • ESXi 主机可能不会在 Block Limits VPD 页面中反映 SCSI 设备报告的 MAXIMUM TRANSFER LENGTH 参数。因此,以大于限制的传输大小发出的 I/O 命令可能会失败并显示类似以下内容的日志:

              2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.

            • 如果相应的设备路径队列深度发生变化,esxtop 命令行实用程序可能不会显示设备队列深度的更新值。

            • 如果您尝试使用 vmxnet3 网络适配器和 WDS 以 PXE 方式引导使用 EFI 固件的虚拟机,并且没有禁用 WDS 中的变量 Windows 扩展选项,则虚拟机的引导速度可能会极为缓慢。

            • 由于 Apple USB 的问题,iOS 版本高于 iOS 11 的设备无法连接到 OS X 版本高于 OS X 10.12 的虚拟机。

            • 由于变量中指定的字符串被忽略,由 vmx.log.syslogID 定义并用来将 vmware.log 数据发送到 Syslog 的 ID 可能无法发挥预期的作用。

            • 由于代码路径仍在使用 IPv6,因此如果禁用全局 IPv6 地址,ESXi 主机可能会出现间歇性故障。

            • 在极少数情况下,如果在 hostd 初始化期间发出 HTTP 请求,代理可能会出现故障。

            • 虚拟机 .vmx 文件中存在某些无效参数时,hostd 可能会出现故障。例如,将值为 TrueideX:Y.present 等参数手动添加到 .vmx 文件。

            • 在 Linux 虚拟机集群中,如果主机的 ESXi 版本不同,并且针对 Merom 和 Penryn 处理器将增强型 vMotion 兼容性 (EVC) 级别设置为 L0 或 L1,则尝试使用 vSphere vMotion 从 ESXi 6.0 主机迁移到使用更高版本 ESXi 的主机时,虚拟机可能会停止响应。

            • 由于关闭 VMware vSphere VMFS6 期间数据存储检测信号可能会提前停止,ESXi 主机可能会停止响应。因此,关联性管理器不能正常退出。

            • 必须手动将 Tegile IntelliFlash 存储阵列的声明规则添加到 ESXi。

            • 由于存储阵列中的 I/O 延迟有所变化,因此可能会生成以下两个 VOB 事件,但它们不会报告虚拟机中的实际问题:

              1. 设备 naa.xxx 性能降低。I/O 延迟已从平均值 4114 微秒增加到 84518 微秒。
              2. 设备 naa.xxx 性能已得到改善。I/O 延迟已从 346115 微秒降低为 67046 微秒。
            • 如果使用 vSphere vMotion 将具有文件设备筛选器的虚拟机从 vSphere Virtual Volumes 数据存储迁移到其他主机,并且该虚拟机已启用变更块跟踪 (CBT)、VMware vSphere Flash Read Cache (VFRC) 或 IO 筛选器,则迁移可能会导致出现任意功能问题。在迁移期间,文件设备筛选器可能不会正确传输到主机。因此,如果在回写模式下配置了缓存 IO 筛选器,您可能会看到 CBT 中的增量备份受损、VFRC 和缓存 IO 筛选器的性能下降、复制 IO 筛选器受损和磁盘损坏。您还可能会看到虚拟机加密出现问题。

            • 如果使用 VMware vSphere APIs for Storage Awareness 提供程序,您可能会看到针对已取消或已删除任务的多次 getTaskUpdate 调用。因此,您可能会看到系统消耗了更多 vSphere API for Storage Awareness 带宽且日志涌出。

            • 如果 vSphere API for Storage Awareness 提供程序丢失了其数据库中的绑定信息,则由于无限循环导致 CPU 负载达到 100%,vSphere Virtual Volumes 可能会停止响应。hostd 也可能会停止响应。您可能会看到一条致命错误消息。此修复可防止在数据库绑定失败时无限循环。

            • 如果 ESXi 主机的日志记录资源组由于日志记录任务繁重而过载,运行 esxcfg-syslog 命令期间 hostd 可能会变得无响应。由于此修复将 esxcfg-syslog 相关命令从日志记录资源组移到 ESXi shell,您可能会看到 shell 默认资源组下的内存利用率变高。

            • 已禁用的 IPMI 传感器或不报告任何数据的传感器可能生成无效硬件运行状况警报。

            • 如果取消注册处于断开连接状态的 vSphere API for Storage Awareness 提供程序,您可能会看到 java.lang.NullPointerException 错误。当提供程序处于断开连接状态时,不会初始化事件和警报管理器,这会导致错误。

            • 由于缓存条目失效,VMFS6 数据存储可能会错误地报告空间不足。

            • 如果虚拟机使用 CBRC 生成了快照,然后禁用 CBRC,则磁盘整合操作可能会失败并显示指定的参数不正确: spec.deviceChange.device (A specified parameter was not correct: spec.deviceChange.device) 这条错误消息,因为禁用 CBRC 后,摘要文件会被删除。在解决该问题之前,将一直显示警示“需要整合虚拟机磁盘 (Virtual machine disks consolidation is needed)”。

            • OMIVV 依赖 iDRAC 属性 hardware.systemInfo.otherIdentifyingInfo.ServiceTag 中的信息提取 SerialNumber 参数,以便识别某些 Dell 模块化服务器。serviceTag 属性中存在不匹配可能导致此集成失败。

            • 以前,如果 vCenter Server 系统中缺少处理器或风扇等组件,存在感知传感器就会显示状态“未知”。但是,存在感知传感器没有关联的运行状况。

            • 如果连接到 ESXi 主机的目标仅支持隐式 ALUA 且只有备用路径,该主机可能会因存在争用情况而在发现设备时出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的回溯追踪:

              SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
              0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
              0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
              0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807

            • 如果 ESXi 主机并无可用的 VMware Tools ISO 映像,而您尝试在活动虚拟机上升级 VMware Tools,该操作可能会失败并显示 VIX 错误代码 21000 (VIX error code 21000)。即使 ISO 映像可用后,您也可能无法使用 API、vSphere Client 或 vSphere Web Client 升级 VMware Tools。这是因为 ESXi 主机缓存了虚拟机打开电源时执行的首次可用性检查,并且以后不会更新该缓存。

            • hostd 服务日志和 Syslog 可能会在集群的所有 ESXi 主机中收集不必要的调试异常日志。

              hostd 日志中可能存在类似以下内容的消息:
              No match, sensor_health file missing sensorNumer 217: class 3 sensor type 35 offset 0

              syslog /etc/sfcb/omc/sensor_health 中可能存在类似以下内容的消息:
              Missing expected value to check for

            • 在有多条路径通向 IBM SVC 目标 LUN 的 ESXi 配置中,如果活动路径上的连接断开,同时其他连接的路径未处于服务 I/O 的状态,即使没有任何路径可以为 I/O 服务,ESXi 主机也有可能不会将此条件检测为 APD。因此,对设备的 I/O 操作不会很快就失败。

            • 如果通过使用以下命令自定义物理网卡的 Rx 和 Tx 环大小来提升网络性能:
              esxcli network nic ring current set -n <vmnicX> -t <value>
              esxcli network nic ring current set -n <vmnicX> -r <value>
              这些设置在 ESXi 主机重新引导后可能不会保留下来。

            • 在负载极大的系统中,如果大量 I/O 超时,则可能会导致物理 CPU 软锁定。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

            • 您可能会看到在高延迟(例如,延迟不少于 100 毫秒)下通过高速网络链路(例如 10 GbE)执行远距离 vSphere vMotion 操作的性能降低,因为硬编码套接字缓冲区限制为 16 MB。通过此修复,您可以配置最大套接字缓冲区大小参数 SB_MAX_ADJ

            • 由于存在争用情况,重新引导客户机操作系统时,虚拟机可执行文件进程可能会失败并关闭虚拟机。

            • 您可能会在 syslog.log 中看到多条类似以下内容的消息:sfcb-vmware_raw[69194]: IpmiIfcFruGetInv: Failed during send cc = 0xc9。这些是常规信息日志,并不是错误或警告日志。

            • 成功创建 Linux 虚拟机静默快照后,快照管理器可能仍将快照显示为非静默快照。

            • 在多个发行版本中,smartd 可能会在 Syslog 服务日志中生成大量调试和信息消息。

            • 发给虚拟 SATA CD-ROM 的无效命令可能会触发错误并增加虚拟机的内存利用率。如果这时虚拟机无法分配内存,则可能会导致这些虚拟机发生故障。
              您可能会看到针对无效命令出现以下日志:
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command 
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.

              以及类似以下内容的严重错误消息:
              YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure

            • 从 vSphere Web Client 集群配置仪表板上的磁盘管理表中选择物理位置列时,该列可能仍然为空,并仅显示有关 hpsa 驱动程序的信息。

            • 某些关键闪存设备参数(包括温度和重分配扇区计数)未提供阈值。因此,ESXi 主机 smartd 守护进程可能会报告一些警告。

            • 当外部进程 esxcfg-syslog 保持停滞状态时,hostd 服务可能会停止响应。因此,ESXi 主机可能会停止响应。

            • 在启用 IPFIX 时,如果不同的流量比较大,系统检测信号可能无法长时间从 IPFIX 占用 CPU 并触发紫色诊断屏幕。

            • 默认情况下,已启用 vSphere HA 的 ESXi 主机中的隔离响应功能会被禁用。启用隔离响应功能后,连接到 NSX-T 逻辑交换机的虚拟机端口可能会在 vSphere HA 故障切换后被阻止。

            • 如果禁用了网卡的 vSphere Network I/O Control 和队列配对,您可能会看到管理、ISCSI 和 NFS 等基础架构流量中出现次序混乱的数据包。这是因为 vSphere Network I/O Control 未启用时,队列配对也会被禁用,从而导致网卡处理多个队列。

            • 不支持块限制 VPD 页面 0xb0 的驱动器可能会生成大量充斥 vmkernel.log 的事件代码日志。

            • 使用 VMware vSphere Replication 复制虚拟机时,ESXi 主机可能会出现故障,立即显示或在 24 小时内显示紫色诊断屏幕,并报告以下错误:PANIC bora/vmkernel/main/dlmalloc.c:4924 - dlmalloc 中发生使用错误 (PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc)

            • 由于某些第三方设备驱动程序在处理命令时反复失败,虚拟机可能变得无响应。打开虚拟机控制台时,您可能会看到以下错误:

              错误: “无法连接到 MKS: Could not connect to pipe \\.\pipe\vmware-authdpipe within retry period" 

            • 在含有超过 150 个虚拟机的 vSphere 6.5 环境中,如果客户机侦测服务处于活动状态,则使用 vSphere vMotion 迁移虚拟机可能会失败并在 vSphere Web Client 中显示类似于以下内容的错误:

              源虚拟机检测到目标虚拟机无法恢复 (The source detected that the destination failed to resume)。

              目标 vmware.log 含有类似于以下内容的错误消息:
              2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
              2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
              2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.

              vmkernel 日志含有类似以下内容的错误消息:
              2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size.Cannot expand.
              2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3

            • 如果将 NFS 数据存储配置为 Syslog 数据存储,而且 ESXi 主机与该数据存储断开了连接,则系统会停止将日志记录到该数据存储,同时 ESXi 主机可能会变得无响应。

            • 此修复为 Lenovo DE 系列存储阵列默认将 SATP 设置为 VMW_SATP_ALUA,将 PSP 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on

            • 在启用了去重的 vSAN 集群中,传至容量磁盘的 I/O 可能会重新路由到另一个磁盘。新的目标设备可能会出现永久设备丢失 (PDL)。如果在此期间有 I/O 请求到达出现故障的磁盘,则主机可能会出现故障并显示紫色诊断屏幕。

            • 如果从 ESXi 主机手动删除了此前下载至主机 /scratch/downloads 目录的虚拟机支持包文件夹,则当 hostd 尝试在文件夹创建一小时后自动删除这些文件夹时,hostd 可能会出现故障。

            • 尽管已逐出缓存项,但由于争用情况,系统可能会再次将其逐出。这会导致 ESXi 主机出现空指针取消引用,从而引起 ESXi 主机故障。

            • 迁移或升级到 vCenter Server Appliance 6.5 期间,如果所需的 vCenter Server Appliance 大小大于该部署大小的阈值,则可能无法在信息表中选择某些部署大小选项。

            • 定期使用上行链路时,NIOC hClock 调度程序可能会重置上行链路网络设备,并且该重置不可预测。

            • 如果在主机配置文件上启用“有状态安装”功能,并且管理 VMkernel 网卡连接到分布式虚拟交换机,则在 PXE 引导期间使用 vSphere Auto Deploy 将主机配置文件应用于其他 ESXi 6.5 主机可能会失败。该主机仍处于维护模式。

            • 使用脚本打开再关闭使用 SR-IOV vNIC 的虚拟机的电源可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

            • 如果某个实体(如虚拟机或数据存储)不再位于 ESXi 主机的统计信息数据库上,但 vim.PerformanceManager 请求该实体的性能数据,则可能会触发一个代码路径,导致主机代理进程失败。因此,对 vCenter Server 系统来说,该主机可能会变得暂时不可用。

            • 如果启用 NetFlow 网络分析工具对 vSphere Distributed Switch 端口组上的每个数据包进行采样,通过将“采样率”设置为 0,网络延迟可能会在流量超过 100 万时达到 1000 毫秒。

            • 在不关闭电源或进行迁移的情况下执行数百个磁盘热添加或移除操作的虚拟机可能会终止并失效。这会影响备份解决方案,备份代理虚拟机也可能因此而终止。

              在 hostd 日志中,您可能会看到如下内容:
              2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
              2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
              2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
              2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171

              在 vmkernel 日志中,内容如下:
              2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
              2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size.Cannot expand.

            • 关闭 ESXi 主机上最后一个虚拟机的电源时,如果此虚拟机正在使用 sysContexts 配置,则调度程序可能会移除 sysContexts 配置设置的独占关联性。

            • 在 vSphere Web Client 中的摘要选项卡和 快照管理器选项卡下选择虚拟机时,SNMP 代理可能会提供错误的陷阱 vmwVmPoweredOn

            • 由于某些计数器中出现除零错误,重新启动 hostd 后,高级性能图表可能会停止为某些虚拟机统计信息绘制图表。

            • 在 ESXi 主机上部署 NSX-T 设备时,NSX opsAgent 可能会失败,而且您可能会看到位于 /var/core 的核心转储文件。此故障是由于主机提供的库代码中存在争用情况导致的。

            • 如果在共享 VMFS 数据存储上配置 /productLocker 目录,当使用 vSphere vMotion 迁移虚拟机时,虚拟机中的 VMware Tools 可能会显示“不受支持”这一错误的状态。

            • MSINFO32 命令可能不会显示运行 Windows 7 或 Windows Server 2008 R2 的虚拟机上的已安装物理 RAM。如果将两个或更多 vCPU 分配给虚拟机,“已安装物理 RAM”字段会显示不可用 (not available)

            • 在出现未对齐的重叠 I/O 的某些情况下,vSAN 堆栈两阶段提交引擎的提交调度程序可能无法立即运行。此延迟可能会增加 I/O 操作的滞后时间。

            • OSFS_Readdir API 填充受指定缓冲区大小限制的目录项,并始终返回文件末尾 (EOF) 为 Yes。您可能需要多次调用 FSSReadDir 来读取整个目录。

            • 将 vSAN 延伸集群从 ESXi 6.0 升级到 6.5 期间,主机可能会出现故障并显示紫色诊断屏幕。以下堆栈跟踪会标识此问题。

              #0 DOMUtil_HashFromUUID
              #1 DOMServer_GetServerIndexFromUUID
              #2 DOMOwnerGetRdtMuxGroupInt
              #3 DOMOwner_GetRdtMuxGroupUseNumServers
              #4 DOMAnchorObjectGetOwnerVersionAndRdtMuxGroup
              #5 DOMAnchorObjectCreateResolverAndSetMuxGroup
              #6 DOMObject_InitServerAssociation
              #7 DOMAnchorObjectInitAssociationToProxyOwnerStartTask
              #8 DOMOperationStartTask
              #9 DOMOperationDispatch
              #10 VSANServerExecuteOperation
              #11 VSANServerMainLoop

            • 在某些情况下,即使磁盘报告了 I/O 故障并且 vSAN 已停止处理该磁盘上的任何其他 I/O,vSAN 也需要很长时间才能将磁盘标记为已降级。

            • Dell R730 服务器上的风扇可能不会在 vSphere Client 或 vSphere Web Client“硬件状态”选项卡下的“风扇”部分中显示,而是显示在其他部分中,或者根本没有显示。

            • 将 vCenter Server 升级到 6.5 Update 2 后,vSAN 容量监控器不会包含版本低于 6.5 Update 2 的 ESXi 主机中部署的虚拟机的容量。该监视器显示的已用容量可能会小于集群中的实际已用容量。

            • 受 vSAN 实施的内部 I/O 限制影响,源自 vSAN 日志记录层的组件拥堵可能会降低客户机 I/O 带宽。未能合理拆分大批量 I/O 来加快数据转出速度。此问题会导致日志堆积,进而有可能导致拥堵。进入维护模式时,您可能会注意到 IOPS 下降。

            • 由于 IPv6 环境中的多播侦听器发现 (MLD) 版本在查询时存在争用情况,ESXi 主机可能会在关机时出现故障并显示紫色诊断屏幕。您可能会看到一条类似于以下内容的错误消息:

              #PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
              ...
              0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
              0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
              0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
              0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000

            • 如果使用经过重命名的现有数据存储的旧名称命名新的数据存储,则可能会导致与 NFS 数据存储断开连接。例如,如果将现有数据存储从 NFS-01 重命名为 NFS-01-renamed,然后使用 NFS-01 名称创建新的 NFS 数据存储。随后,ESXi 主机会与重命名的数据存储断开连接,并且无法挂载新的数据存储。

            • 如果在 ESXi 主机上禁用 IPv4,您可能无法设置 IPv6 主机名,因为系统需要使用 IPv4 地址。

            • 生成的 syslog.log 存档文件数量可能小于使用 syslog.global.defaultRotate 参数设置的默认值。syslog.log 存档文件数量在 ESXi 版本 6.0 和 6.5 之间可能不同。例如,如果 syslog.global.defaultRotate 默认设置为 8,ESXi 6.0 会创建 syslog.0.gzsyslog.7.gz,而 ESXi 6.5 会创建 syslog.0.gzsyslog.6.gz

            • 展开对象时,串联节点将添加到副本来支持对更大大小的要求。一段时间后,随着 vSAN 创建新的副本来包括串联节点,原始副本和串联节点都会被丢弃。随着 vSAN 将原始副本和串联节点合并到新副本,如果 vSAN 没有足够的空间来放置新组件,该操作可能会失败。如果磁盘变得不平衡,并且磁盘上的所有组件都在串联节点下,则重新均衡操作无法移动任何组件来平衡磁盘。

            • 同时更改 VMDK 的存储策略也无法扩展 VMDK,但如果现有策略已设置“数据局部性”规则,则即便不对存储策略作任何更改,扩展仍可能会失败。

            • 系统可能无法为基于 AMD 的主机上运行的虚拟机正确计算预留的内存范围报告的上限值。这可能会让使用 VMware DirectPath I/O 功能的虚拟机无法打开电源。

            • NMP 设备静默代码路径中出现错误时,系统可能会执行调用,解锁已释放的锁定,而这可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

            • 硬件版本为 10 或更低版本、使用 EFI 并在 AMD 处理器上运行 Windows Server 2016 的虚拟机可能会在重新引导期间停止响应。如果虚拟机使用 BIOS、硬件版本为 11 或更高版本、客户机操作系统不是 Windows 或处理器是 Intel,则不会出现此问题。

            • 如果尝试重新注册具有相同名称的字符设备,您可能会看到类似以下内容的警告:
              2018-09-14T04:49:27.441Z cpu33:4986380)WARNING: CharDriver: 291: Driver with name XXXX is already using slot XX
              反复尝试时,注册设备所需的堆内存不会释放。这会导致内存泄露问题,而且随着时间的推移,主机可能会出现故障并显示紫色诊断屏幕。

            • 在系统重新引导后加载 NMP SATP 模块时,vmk_ModuleLoad() 方法可能无法读取已更改的模块特定参数。此问题主要影响第三方驱动程序。

            • vSAN 使用集群中所有磁盘之间的磁盘占满程度值来计算平均占满程度值。重新均衡操作期间会使用此值以确保移动数据不会导致目标磁盘上出现不平衡。如果您有一个 vSAN 延伸集群,不同站点间的存储利用率可能不同。在此情况下,如果某个站点上的平均占满程度值高于其他站点,重新均衡可能无法发挥预期作用。

            • 由于 vSAN 磁盘可维护性插件 lsu-lsi-lsi-mr3-plug-in 中存在内存分配问题,ESXi 主机和 hostd 可能会停止响应。您可能会看到错误消息内存不足 (Out of memory)克隆线程时出错 (Error cloning thread)

            • 在极少数情况下,使用 ntg3 驱动程序的网卡(例如,Broadcom BCM5719 和 5720 GbE 网卡)可能会在尝试发送过大的数据包失败后暂时停止发送数据包。ntg3 4.1.3.2 驱动程序可以解决该问题。

            • 在使用 HPE ProLiant Gen9 智能阵列控制器(例如 P440 和 P840)的 vSAN 集群中,可能不会在正确的故障设备上点亮定位器 LED 指示灯。

            • 删除虚拟机时,由于 .dvsData 文件夹中的端口文件删除顺序错误,虚拟机目录可能仍保留在 NSX-T 环境中。

            • 如果启用具有高采样率的 IPFIX 且流量比较大,您可能会看到 VXLAN 环境的性能降低。

          ESXi-6.5.0-20181101001s-standard
          配置文件名称 ESXi-6.5.0-20181101001s-standard
          内部版本 有关内部版本信息,请参见页面顶部
          供应商 VMware, Inc.
          发布日期 2018 年 11 月 29 日
          接受级别 合作伙伴支持
          受影响的硬件 不适用
          受影响的软件 不适用
          受影响的 VIB
          • VMware_bootbank_esx-base_6.5.0-2.71.10868328
          • VMware_bootbank_vsan_6.5.0-2.71.10652415
          • VMware_bootbank_vsanhealth_6.5.0-2.71.10652417
          • VMware_bootbank_esx-tboot_6.5.0-2.71.10868328
          • VMware_bootbank_esx-ui_1.31.0-10201673
          • VMware_locker_tools-light_6.5.0-2.71.10868328
          已修复的 PR 2094558、2169094、2020984、2025909、2109023、2189347、2154394
          相关的 CVE 编号 不适用
          • 此修补程序更新了以下问题:
            • VMware Tools 的 Windows Vista 之前的 ISO 映像不再与 ESXi 打包在一起。有需要的用户可下载 Windows Vista 之前的 ISO 映像。有关下载信息,请参见“产品下载”页面。

            • NTP 守护进程已更新到 4.2.8p12。

            • 对于大型虚拟机,加密 vSphere vMotion 可能因迁移堆空间不足而失败。

            • Python 软件包已更新到版本 3.5.5。

            • ESXi userworld libxml2 库已更新到版本 2.9.8。

            • OpenSSL 软件包已更新到版本 1.0.2p。

            • OpenSSH 软件包已更新到版本 7.7p1。

          ESXi-6.5.0-20181101001s-no-tools
          配置文件名称 ESXi-6.5.0-20181101001s-no-tools
          内部版本 有关内部版本信息,请参见页面顶部
          供应商 VMware, Inc.
          发布日期 2018 年 11 月 29 日
          接受级别 合作伙伴支持
          受影响的硬件 不适用
          受影响的软件 不适用
          受影响的 VIB
          • VMware_bootbank_esx-base_6.5.0-2.71.10868328
          • VMware_bootbank_vsan_6.5.0-2.71.10652415
          • VMware_bootbank_vsanhealth_6.5.0-2.71.10652417
          • VMware_bootbank_esx-tboot_6.5.0-2.71.10868328
          • VMware_bootbank_esx-ui_1.31.0-10201673
          • VMware_locker_tools-light_6.5.0-2.71.10868328
          已修复的 PR 2094558、2169094、2020984、2025909、2109023、2189347、2154394
          相关的 CVE 编号 不适用
          • 此修补程序更新了以下问题:
            • VMware Tools 的 Windows Vista 之前的 ISO 映像不再与 ESXi 打包在一起。有需要的用户可下载 Windows Vista 之前的 ISO 映像。有关下载信息,请参见“产品下载”页面。

            • NTP 守护进程已更新到 4.2.8p12。

            • 对于大型虚拟机,加密 vSphere vMotion 可能因迁移堆空间不足而失败。

            • Python 软件包已更新到版本 3.5.5。

            • ESXi userworld libxml2 库已更新到版本 2.9.8。

            • OpenSSL 软件包已更新到版本 1.0.2p。

            • OpenSSH 软件包已更新到版本 7.7p1。

          已知问题

          已知问题分为如下类别。

          ESXi650-201811401-BG
          修补程序类别 缺陷修复
          修补程序严重性 严重
          需要重新引导主机
          需要迁移或关闭虚拟机
          受影响的硬件 不适用
          受影响的软件 不适用
          包含的 VIB
          • VMware_bootbank_vsan_6.5.0-2.50.8064065
          • VMware_bootbank_vsanhealth_6.5.0-2.50.8143339
          • VMware_bootbank_esx-tboot_6.5.0-2.50.8294253
          • VMware_bootbank_esx-base_6.5.0-2.50.8294253
          PR  不适用
          CVE 编号 不适用

          此修补程序更新了 esx-base、esx-tboot、vsanvsanhealth VIB 以解决下列问题:

          • 在版本低于 5.0 的 ESXi 主机上使用 vSphere vMotion 迁移虚拟机可能会失败,同时目标站点中出现监视器严重错误

            由于缺少一个参数,在版本低于 5.0 的 ESXi 主机上,使用 vSphere vMotion 将虚拟机迁移到 6.5 版本可能会失败。跨 vCenter Server vMotion 迁移也可能会失败。您可能会在目标站点中看到监视器严重错误。

            解决办法:关闭虚拟机电源,然后再打开电源。

          • 受解码问题影响,某些硬件运行状况传感器可能会在 vSphere Client 和 vSphere Web Client 中显示“未知”状态

            受解码问题影响,某些 IPMI 传感器可能会在 vSphere Client 和 vSphere Web Client 的“硬件运行状况”选项卡中报告“未知”状态。

            解决办法:请咨询特定传感器的硬件供应商了解其用法。有关详细信息,请参见 VMware 知识库文章 53134

          • ESXi Syslog 服务在开始或轮换时可能会显示不准确的时间戳

            当 ESXi Syslog 服务启动或重新启动时,或者当日志达到配置的最大大小并轮换时,ESXi Syslog 服务可能会显示不准确的时间戳。

            解决办法:全新安装的 ESXi 已解决此问题。要修复 hostd.log 中现有配置上的这一问题,您必须:

            1. 打开 /etc/vmsyslog.conf.d/hostd.conf 文件。
            2. onrotate = logger -t Hostd < /var/run/vmware/hostdLogHeader.txt 替换为
              onrotate = printf '%%s - last log rotation time, %%s\n' "$(date --utc +%%FT%%T.%%3NZ)" "$(cat /var/run/vmware/hostdLogHeader.txt)" | logger -t Hostd
            3. 保存更改。
            4. 通过运行 /etc/init.d/vmsyslogd restart 重新启动 vmsyslogd 服务。
          • VMware vSphere vApp 或虚拟机打开电源操作可能会失败并显示错误消息

            如果 vSphere vApp 或虚拟机使用不可扩展内存预留资源池,则 vApp 或虚拟机打开电源操作可能会在 DRS 管理的集群中失败。将显示以下错误消息:父资源池中的可用内存资源不足,无法执行该操作 (The available Memory resources in the parent resource pool are insufficient for the operation)。

            解决办法:请参见 VMware 知识库文章 1003638

          先前版本中的已知问题

          查看以前的已知问题列表,请单击此处

          check-circle-line exclamation-circle-line close-line
          Scroll to top icon