ESXi 6.7 Update 2 | 2019 年 4 月 11 日 | ISO 内部版本 13006603 |
发行说明内容
本发行说明包含以下主题:
新增功能
- Solarflare 本机驱动程序:ESXi 6.7 Update 2 增加了对 Solarflare 10G 和 40G 网络适配器设备(例如,SFN8542 和 SFN8522)的 Solarflare 本机驱动程序 (sfvmk) 支持。
- 虚拟硬件版本 15:ESXi 6.7 Update 2 引入了虚拟硬件版本 15,该版本增加了对创建虚拟机时最多可包含 256 个虚拟 CPU 的支持。有关详细信息,请参见 VMware 知识库文章 1003746 和 2007240。
- 独立 ESXCLI 命令软件包:ESXi 6.7 Update 2 提供了适用于 Linux 的新独立 ESXCLI 软件包,独立于 vSphere 命令行界面 (vSphere CLI) 安装软件包。属于 vSphere CLI 一部分的 ESXCLI 未在 ESXi 6.7 Update 2 中更新。尽管 vSphere CLI 安装软件包在本版本中已弃用,但仍可下载,不过不能与适用于 Linux 的新独立 ESXCLI 软件包一起安装。有关下载和安装独立 ESXCLI 软件包的信息,请参见 VMware {code}。
- 在 ESXi 6.7 Update 2 中,ESXi 侧通道感知调度程序已更新,增强了已针对推断执行硬件漏洞采取缓解措施的 ESXi 主机的计算性能。有关详细信息,请参见 VMware 知识库文章 55636。
- ESXi 6.7 Update 2 在向 ESXi 主机报告取消映射粒度值大于 1 MB 的存储阵列和设备上增加了对 VMFS6 自动处理取消映射的支持。在报告粒度为 1 MB 及更低的阵列上,如果粒度为 1 MB 的因数,则支持取消映射操作。
- vCenter Server 6.7 Update 2 将 VMFS6 添加到 vSphere On-disk Metadata Analyzer (VOMA) 支持的文件系统列表中,以允许您检查并修复 VMFS 卷元数据、LVM 元数据和分区表的不一致问题。
ESXi 6.7 的早期版本
ESXi 的功能和已知问题在各个版本的发行说明中均有描述。ESXi 6.7 的早期版本的发行说明包括:
- VMware ESXi 6.7 修补程序版本 ESXi670-201903001
- VMware ESXi 6.7 修补程序版本 ESXi670-201901001
- VMware ESXi 6.7 修补程序版本 ESXi670-201811001
- VMware ESXi 6.7 Update 1 发行说明
- VMware vSphere 6.7 发行说明
有关国际化、兼容性、安装和升级以及开源组件的说明,请参见 VMware vSphere 6.7 发行说明。
产品支持注意事项
- VMware vSphere Flash Read Cache 即将弃用。尽管此功能在 vSphere 6.7 版本中继续受支持,但在未来的 vSphere 版本中将不再支持此功能。可以使用 VMware 兼容性指南中列出的 vSAN 缓存机制或任何 VMware 认证的第三方 I/O 加速软件替代此功能。
本版本中包含的修补程序
本版本包含本产品发行前已发行的针对 ESXi 的所有公告。
内部版本详细信息
下载文件名称: | update-from-esxi6.7-6.7_update02.zip |
内部版本: | 13006603 13010696(仅安全修复版本) |
下载大小: | 453.0 MB |
md5sum: |
afb6642c5f78212683d9d9a1e9dde6bc |
sha1checksum: |
783fc0a2a457677e69758969dadc6421e5a7c17a |
需要重新引导主机: | 是 |
需要迁移或关闭虚拟机: | 是 |
实体包
此版本包含常规版本实体包和仅安全修复版本实体包。仅安全修复版本实体包只适用于新的安全修复。不包括任何新的缺陷修复,但包括早期修补程序版本和更新版本中的缺陷修复。
如果需要安装所有新的安全修复和缺陷修复,则必须应用此版本中的所有实体包。在某些情况下,常规版本实体包将取代仅安全修复版本实体包。这没有问题,因为常规版本实体包同时包含新的安全修复和缺陷修复。
仅安全修复版本实体包由“SG”结尾的实体包 ID 标识。有关修补程序和更新分类的信息,请参见知识库文章 2014447。
有关各个实体包的详细信息,请参见 My VMware 页面和已解决的问题部分。
实体包 ID | 类别 | 严重性 |
ESXi670-201904201-UG | 缺陷修复 | 严重 |
ESXi670-201904202-UG | 缺陷修复 | 重要 |
ESXi670-201904203-UG | 缺陷修复 | 重要 |
ESXi670-201904204-UG | 缺陷修复 | 重要 |
ESXi670-201904205-UG | 缺陷修复 | 重要 |
ESXi670-201904206-UG | 缺陷修复 | 重要 |
ESXi670-201904207-UG | 缺陷修复 | 适中 |
ESXi670-201904208-UG | 缺陷修复 | 重要 |
ESXi670-201904209-UG | 增强功能 | 重要 |
ESXi670-201904210-UG | 增强功能 | 重要 |
ESXi670-201904211-UG | 缺陷修复 | 严重 |
ESXi670-201904212-UG | 缺陷修复 | 重要 |
ESXi670-201904213-UG | 缺陷修复 | 重要 |
ESXi670-201904214-UG | 缺陷修复 | 重要 |
ESXi670-201904215-UG | 缺陷修复 | 适中 |
ESXi670-201904216-UG | 缺陷修复 | 重要 |
ESXi670-201904217-UG | 缺陷修复 | 重要 |
ESXi670-201904218-UG | 缺陷修复 | 重要 |
ESXi670-201904219-UG | 缺陷修复 | 重要 |
ESXi670-201904220-UG | 缺陷修复 | 重要 |
ESXi670-201904221-UG | 缺陷修复 | 重要 |
ESXi670-201904222-UG | 缺陷修复 | 适中 |
ESXi670-201904223-UG | 缺陷修复 | 重要 |
ESXi670-201904224-UG | 缺陷修复 | 重要 |
ESXi670-201904225-UG | 增强功能 | 重要 |
ESXi670-201904226-UG | 缺陷修复 | 重要 |
ESXi670-201904227-UG | 缺陷修复 | 重要 |
ESXi670-201904228-UG | 缺陷修复 | 重要 |
ESXi670-201904229-UG | 缺陷修复 | 重要 |
ESXi670-201904101-SG | 安全 | 重要 |
ESXi670-201904102-SG | 安全 | 重要 |
ESXi670-201904103-SG | 安全 | 重要 |
重要信息:对于使用 VMware vSAN 的群集,必须先升级 vCenter Server 系统。不支持仅升级 ESXi。
升级之前,请始终在 VMware 产品互操作性列表中确认从早期版本的 ESXi 和 vCenter Server 升级到当前版本的兼容升级途径。
映像配置文件
VMware 修补程序版本和更新版本包含常规映像配置文件和重要映像配置文件。
常规版本映像配置文件仅适用于新的缺陷修复。
映像配置文件名称 |
ESXi-6.7.0-20190402001-standard |
ESXi-6.7.0-20190402001-no-tools |
ESXi-6.7.0-20190401001s-standard |
ESXi-6.7.0-20190401001s-no-tools |
已解决的问题
已解决的问题分为以下几组。
- ESXi670-201904201-UG
- ESXi670-201904202-UG
- ESXi670-201904203-UG
- ESXi670-201904204-UG
- ESXi670-201904205-UG
- ESXi670-201904206-UG
- ESXi670-201904207-UG
- ESXi670-201904208-UG
- ESXi670-201904209-UG
- ESXi670-201904210-UG
- ESXi670-201904211-UG
- ESXi670-201904212-UG
- ESXi670-201904213-UG
- ESXi670-201904214-UG
- ESXi670-201904215-UG
- ESXi670-201904216-UG
- ESXi670-201904217-UG
- ESXi670-201904218-UG
- ESXi670-201904219-UG
- ESXi670-201904220-UG
- ESXi670-201904221-UG
- ESXi670-201904222-UG
- ESXi670-201904223-UG
- ESXi670-201904224-UG
- ESXi670-201904225-UG
- ESXi670-201904226-UG
- ESXi670-201904227-UG
- ESXi670-201904228-UG
- ESXi670-201904229-UG
- ESXi670-201904101-SG
- ESXi670-201904102-SG
- ESXi670-201904103-SG
- ESXi-6.7.0-20190402001-standard
- ESXi-6.7.0-20190402001-no-tools
- ESXi-6.7.0-20190401001s-standard
- ESXi-6.7.0-20190401001s-no-tools
修补程序类别 | 缺陷修复 |
修补程序严重性 | 严重 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2227123、2250472、2273186、2282052、2267506、2256771、2269616、2250697、2191342、2197795、2221935、2193830、2210364、2177107、2179263、2185906、2204508、2211350、2204204、2226565、2240385、2163397、2238134、2213883、2141221、2240444、2249713、2184068、2257480、2235031、2257354、2212140、2279897、2227623、2277648、2221778、2287560、2268541、2203837、2236531、2242656、2250653、2260748、2256001、2266762、2263849、2267698、2271653、2232538、2210056、2271322、2272737、2286563、2178119、2223879、2221256、2258272、2219661、2268826、2224767、2257590、2241917、2246891 |
CVE 编号 | 不适用 |
此修补程序更新了 esx-base、esx-update、vsan
和 vsanhealth
VIB 以解决下列问题:
- PR 2227123:读取或写入磁盘延迟的计数器值非常大时可能会触发警报
您可能会在读取或写入磁盘延迟的计数器值(如
datastore.totalReadLatency
和datastore.totalWriteLatency
)非常大时间歇性地看到警报。本版本已解决该问题。
- PR 2250472:由于某些内存大小配置,Linux 虚拟机可能会在打开电源时停止响应
当 Linux 虚拟机配置了特定内存大小(如 2052 MB 或 2060 MB)时,可能会显示空白屏幕,而不是打开电源。
本版本已解决该问题。
- PR 2273186:启用 vSphere Distributed Switch 运行状况检查时,ESXi 主机可能会失败
设置网络并启用 vSphere Distributed Switch 运行状况检查以执行配置检查时,ESXi 主机可能会失败并显示紫色诊断屏幕。
本版本已解决该问题。
- PR 2282052:SNMP 代理可能会提供错误的陷阱 vmwVmPoweredOn
在 vSphere Web Client 中的摘要选项卡和 快照管理器选项卡下选择虚拟机时,SNMP 代理可能会提供错误的陷阱
vmwVmPoweredOn
。本版本已解决该问题。
- PR 2267506:ESXi 主机可能会在 DVFilter 级别失败并显示紫色诊断屏幕
DVFilter 可能会在共享内存环缓冲区中接收意外或损坏的值,从而导致内部函数返回
NULL
。如果未正常处理此NULL
值,ESXi 主机可能会在 DVFilter 级别失败并显示紫色诊断屏幕。本版本已解决该问题。
- PR 2256771:打开或关闭虚拟机电源时,可能会看到已在虚拟交换机上还原网络连接这一不必要的事件消息
在 vSphere Client 或 vSphere Web Client 的事件选项卡中,打开或关闭虚拟机电源时,可能会看到类似以下内容的事件:
已在虚拟交换机 XXX 的端口组XXX 上还原网络连接。物理网卡 vmnicX 正常运行 (Network connectivity restored on virtual switch XXX, portgroups: XXX. Physical NIC vmnicX is up)
。检查上行链路状态时,系统报告可能会包含不受虚拟机打开电源或关闭电源操作(该操作会触发此事件)影响的端口组。但是,该事件并不表示存在问题或提示操作。本版本已解决该问题。此事件消息已移除。
- PR 2269616:无法启动 vSAN Health Service,因为运行状况配置文件为空
由于没有磁盘配额或线程已停止,vSAN 运行状况配置文件可能会损坏。如果设置 vSAN 运行状况配置时出现此问题,Health Service 将无法启动。
本版本已解决该问题。
- PR 2250697:如果为 Virtual Volumes 配置“循环”路径策略,Windows Server 故障切换群集验证可能会失败
如果在 Windows Server 故障切换群集设置过程中,将默认路径策略从“固定”或“最近使用”更改为“循环”,则群集的 I/O 可能会失败,且群集可能会停止响应。
本版本已解决该问题。
- PR 2191342:SMART 磁盘监控守护进程 smartd 可能会导致多个发行版本的 syslog 服务日志中充斥着大量调试和信息消息
在多个发行版本中,smartd 守护进程可能会在 syslog 服务日志中生成大量调试和信息消息。
本版本已解决该问题。该修复从多个发行版中移除了调试消息。
- PR 2197795:VMware vSphere Network I/O Control (NIOC) 的调度程序可能会间歇性地重置上行链路网络设备
如果很少用到上行链路,NIOC 调度程序可能会重置上行链路网络设备。重置不可预测。
本版本已解决该问题。
- PR 2221935:如果禁用全局 IPv6 地址,ESXi 主机可能会出现间歇性故障
由于代码路径仍在使用 IPv6,因此如果禁用全局 IPv6 地址,ESXi 主机可能会出现间歇性故障。
本版本已解决该问题。如果已经遇到此问题,请重新启用全局 IPv6 地址,从而避免主机出现故障。如果出于某种原因需要禁用 IPv6 地址,您必须在各个 vmknic 上禁用 IPv6,而不是禁用全局 IPv6 地址。
- PR 2193830:重新引导客户机操作系统时,虚拟机可执行文件进程可能会失败并关闭虚拟机
由于存在争用情况,重新引导客户机操作系统时,虚拟机可执行文件进程可能会失败并关闭虚拟机。
本版本已解决该问题。
- PR 2210364:ESXi 守护进程 hostd 在等待外部进程完成时可能会变得无响应
Hostd 在等待使用
esxcfg-syslog
命令启动的外部进程完成时可能会变得无响应。本版本已解决该问题。
- PR 2177107:物理 CPU 软锁定可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕
在负载极大的系统中,如果大量 I/O 超时,则可能会导致物理 CPU 软锁定。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。
本版本已解决该问题。
- PR 2179263:具有虚拟 SATA CD-ROM 的虚拟机可能会由于命令无效而出现故障
发给虚拟 SATA CD-ROM 的无效命令可能会触发错误并增加虚拟机的内存利用率。如果这时虚拟机无法分配内存,则可能会导致这些虚拟机发生故障。您可能会看到针对无效命令出现以下日志:
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.以及类似以下内容的严重错误消息:
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure
本版本已解决该问题。
- PR 2185906:如果 Guest Introspection 服务已开启,则使用 VMware vSphere vMotion 迁移虚拟机可能会失败并出现 NamespaceDb 兼容性错误
在所含虚拟机超过 150 个的 vSphere 6.7 环境中,如果 Guest Introspection 服务处于活动状态,则使用 vSphere vMotion 迁移虚拟机可能会失败并在 vSphere Web Client 中显示类似以下内容的错误:
源虚拟机检测到目标虚拟机无法恢复 (The source detected that the destination failed to resume)
。
目标vmware.log
包含类似以下内容的错误消息:2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.vmkernel 日志包含类似以下内容的错误消息:
2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size.Cannot expand.
2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3本版本已解决该问题。
- PR 2204508:在 hostd 重新启动后,高级性能图表可能会停止显示数据
可以编辑仅当虚拟机处于特定电源状况时才收集的统计数据。例如,当虚拟机打开电源时,无法编辑内存数据。重新启动 hostd 服务时,虚拟机可能不会更改其电源状况,从而导致数据初始化错误。主机已消耗内存计数器的计算结果可能是除零,并且图表可能会停止绘制图形。
本版本已解决该问题。
- PR 2211350:VMware vSphere High Availability (vSphere HA) 故障切换后,虚拟机端口可能被阻止
默认情况下,已启用 vSphere HA 的 ESXi 主机中的隔离响应功能会被禁用。启用隔离响应功能后,连接到 NSX-T 逻辑交换机的虚拟机端口可能会在 vSphere HA 故障切换后被阻止。
本版本已解决该问题。
- PR 2204204:e1000 虚拟网卡可能会间歇性地丢弃无法识别的 GRE 数据包
由于解析问题,e1000 虚拟网卡可能会间歇性地丢弃无法识别的 GRE 数据包。
本版本已解决该问题。
- PR 2226565:在 Apple 硬件上引导 ESXi 可能会失败,并显示错误:Mutiboot 缓冲区太小 (Mutiboot buffer is too small)
引导 Apple 系统时,引导进程可能会停止,并显示以下错误消息:
正在关闭固件服务 (Shutting down firmware services)...
Mutiboot 缓冲区太小 (Mutiboot buffer is too small)。
不可恢复的错误 (Unrecoverable error)该问题仅影响某些 Apple 固件版本。
本版本已解决该问题。
- PR 2240385:在长时间运行的静默快照操作期间,虚拟机可能会失败
如果 hostd 在长时间运行的静默快照操作期间重新启动,hostd 可能会自动运行快照整合命令以移除冗余磁盘并提高虚拟机性能。但是,整合命令可能会与正在运行的静默快照操作争用资源,并导致虚拟机失败。
本版本已解决该问题。
- PR 2163397:SNMP 代理可能显示 D_Failed 电池状态
运行
snmpwalk
命令时,SNMP 代理可能会将所有电池的状态显示为 D_Failed。发生此问题的原因是,处理代码时可能未正确地检查状态以及使用传感器特定的代码错误地解释紧凑型传感器。本版本已解决该问题。
- PR 2238134:使用 IP 哈希或源 MAC 哈希绑定策略时,数据包可能会丢弃或通过错误的上行链路
使用 IP 哈希或源 MAC 哈希绑定策略时,数据包列表中的某些数据包可能使用不同的上行链路。因此,其中某些数据包可能会丢弃或不通过绑定策略确定的上行链路发送。
本版本已解决该问题。
- PR 2213883:ESXi 主机与配置为执行日志记录的 NFS 数据存储断开连接时变得无响应
如果将 NFS 数据存储配置为 syslog 数据存储,则 ESXi 主机与该数据存储断开连接时,系统会停止将日志记录到该数据存储,同时 ESXi 主机可能会变得无响应。
本版本已解决该问题。
- PR 2141221:使用 VMware vSphere Replication 与 VMware Site Recovery Manager 复制虚拟机时,ESXi 主机可能会失败
使用 vSphere Replication 与 Site Recovery Manager 复制虚拟机时,ESXi 主机可能会立即或在 24 小时内失败并显示紫色诊断屏幕。您可能会看到类似以下内容的错误:
PANIC bora/vmkernel/main/dlmalloc.c:4924 - dlmalloc 中发生使用错误 (PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc)
。本版本已解决该问题。
- PR 2240444:由于锁定过多,hostd 守护进程可能会失败并显示错误
大型配置可能会超出锁定数量限制,因此 hostd 启动失败并显示类似以下内容的错误:
hostd Panic: MXUserAllocSerialNumber: 锁定过多 (hostd Panic: MXUserAllocSerialNumber: too many locks)!
本版本已解决该问题。该修复移除了锁定数量限制。
- PR 2249713:esxcli 网络插件命令可能会在结果中返回 false 值
esxcli
$esxcli.network.nic.coalesce.set.Invoke
网络命令可能会在结果中返回 false 值,即使该值设置正确也会如此。这可能会影响自动化脚本。本版本已解决该问题。
- PR 2184068:访问损坏的 VMFS 数据存储时,ESXi 主机可能会失败并显示紫色诊断屏幕
当虚拟机尝试访问具有损坏目录的 VMFS 数据存储时,ESXi 主机可能会失败并显示紫色诊断屏幕,同时显示
DirEntry 损坏 (DirEntry corruption)
错误消息。本版本已解决该问题。
- PR 2257480:LACPPDU Actor 键的值可能会更改为 0
在链接状态不稳定时,LACPPDU Actor 键的值可能会更改为 0。
本版本已解决该问题。
- PR 2235031:ESXi 主机变得无响应,并在 vmkernel.log 中看到已达到最大堆大小的警告
由于 VMkernel 中的计时问题,缓冲区可能不会刷新,并且堆耗尽。因此,hostd、vpxa 和 vmsyslogd 等服务可能无法在 ESXi 主机上写入日志,并且主机变得无响应。在
/var/log/vmkernel.log
中,可能会看到类似以下内容的警告:WARNING: Heap: 3571: Heap vfat already at its maximum size.Cannot expand.
本版本已解决该问题。
- PR 2257354:尝试安装或更新 VMware Tools 时,某些虚拟机可能会变得无效
如果在以前 ESXi 版本中修改了某虚拟机的虚拟 CD-ROM 设备类型,则在更新到更高版本后,尝试安装或更新 VMware Tools 时,该虚拟机可能会终止并标记为无效。
本版本已解决该问题。
- PR 2212140:续订主机证书可能不会将整个信任链推送到 ESXi 主机
续订证书时,仅所提供信任链中的第一个证书可能存储在 ESXi 主机上。任何中间 CA 证书都会被截断。由于缺少证书,无法构建到根 CA 的链。这会导致出现连接不可信警告。
本版本已解决该问题。
- PR 2279897:由于 VvolId 参数为 null,创建虚拟机的快照可能会失败
如果 vSphere API for Storage Awareness 提供程序将 vSphere Virtual Volumes 策略修改为无需人工干预,则 null
VvolID
参数可能会更新 vSphere Virtual Volumes 元数据。这会导致使用 nullVvoId
参数执行 VASA 调用以及在创建虚拟机快照时失败。本版本已解决该问题。该修复处理了策略修改故障并阻止了 null
VvolId
参数。 - PR 2227623:在 vSphere Virtual Volumes 数据存储上并行克隆多个虚拟机可能会失败,并显示文件创建失败错误消息
如果 vSphere API for Storage Awareness 提供程序发起的调用因与虚拟提供程序的所有连接正忙而失败,则在 vSphere Virtual Volumes 数据存储上并行克隆多个虚拟机的操作可能会变得无响应或失败,并显示以下类似错误消息:
无法完成文件创建操作 (Cannot complete file creation operation)
。本版本已解决该问题。
- PR 2277648:ESXi 主机可能会失败,并出现显示 sbflush_internal 紧急消息的紫色诊断屏幕
由于内部统计信息中存在某些差异,ESXi 主机可能会失败,并出现显示
sbflush_internal
紧急消息的紫色诊断屏幕。本版本已解决该问题。该修复已将紧急消息转换为断言。
- PR 2221778:无法在具有 NSX 管理的虚拟分布式交换机 (N-VDS) 的 ESXi 主机与具有 vSphere 标准交换机的 ESXi 主机之间通过使用 vSphere vMotion 迁移虚拟机
在 ESXi 6.7 Update 2 中,可以在具有 N-VDS 的 ESXi 主机与具有 vSphere 标准交换机的 ESXi 主机之间通过使用 vSphere vMotion 迁移虚拟机。要启用此功能,必须在源和目标站点上将 vCenter Server 系统升级到 vCenter Server 6.7 Update 2 和 ESXi 6.7 Update 2。
本版本已解决该问题。
- PR 2287560:由于页面错误异常,ESXi 主机可能失败并显示紫色诊断屏幕
由于页面错误异常,ESXi 主机可能失败并显示紫色诊断屏幕。缺少标记可能会在不再存在的对象上触发缓存逐出并导致
空
指针引用,从而引起该错误。本版本已解决该问题。
- PR 2268541:可能会在 vCenter Server 系统中看到冗余的 VOB 消息,例如,虚拟交换机“xxx”上丢失上行链路冗余 (Lost uplink redundancy on virtual switch "xxx")
检查上行链路状态时,绑定策略可能不会检查上行链路是否属于端口组,并且受影响的端口组可能不正确。因此,可能会在
/var/run/log/vobd.log
文件中看到冗余的 VOB 消息,例如:Lost uplink redundancy on virtual switch "xxx".Physical NIC vmnicX is down.Affected portgroups:"xxx"
.本版本已解决该问题。
- PR 2203837:必须手动将声明规则添加到 ESXi 主机
对于 Lenovo ThinkSystem DE 系列存储阵列,必须手动将声明规则添加到 ESXi 主机。
本版本已解决该问题。该修复将存储阵列类型插件 (SATP) 设置为
VMW_SATP_ALUA
,将路径选择策略 (PSP) 设置为VMW_PSP_RR
,将声明选项设置为tpgs_on
,并作为 Lenovo ThinkSystem DE 系列存储阵列的默认值。 - PR 2236531:ESXi 主机可能会与 vCenter Server 系统断开连接
当对大型目录树进行迭代时,vpxa 服务可能会因内存使用量过高而失败。因此,ESXi 主机可能会断开与 vCenter Server 系统的连接。
本版本已解决该问题。
- PR 2242656:启用 SecureBoot 时,使用 ESXCLI 命令进行更新可能会失败
在运行 ESXi 6.7 Update 1 并启用 SecureBoot 的主机上,命令
esxcli software profile update
或esxcli software profile install
可能会失败。您可能会看到诸如此类的错误消息:无法使用 esx-update VIB 设置升级 (Failed to setup upgrade using esx-update VIB)
和无法在 ramdisk 中挂载 tardisk: [Errno 1] 操作不被允许 (Failed to mount tardisk in ramdisk: [Errno 1] Operation not permitted)
。本版本已解决该问题。如果您已遇到此问题,请运行
esxcli software vib update
命令,将系统更新为 ESXi 6.7 Update 2。此外,也可以禁用 SecureBoot,运行 ESXCLI 命令,然后重新启用 SecureBoot。 - PR 2250653:重新引导 ESXi 主机后,NFS 卷挂载操作可能不会继续有效
由于解析 NFS 服务器的主机名时发生间歇性故障,因此在重新引导 ESXi 主机后,NFS 卷挂载操作可能不会继续有效。
本版本已解决该问题。该修复添加了主机名解析失败情况下的重试逻辑。
- PR 2260748:在 vSphere Distributed Switch 中使用“基于物理网卡负载的路由”选项时,可能会间歇性地断开连接
如果分配给该端口组的物理网卡临时关闭时通过使用基于物理网卡负载的路由选项创建 VMK 或虚拟网卡端口,则会出现此问题。在这种情况下,未设置端口绑定上行链路,因为端口组中没有活动上行链路。当物理网卡再次变为活动状态时,绑定代码无法更新端口数据,从而导致数据包丢失。
本版本已解决该问题。
- PR 2256001:主机失败,并在回溯追踪中显示 Bucketlist_LowerBound 或 PLOGRelogRetireLsns
Plog Relog 与 DecommissionMD 一起运行时,可能会出现争用状况,从而导致 Relog 访问已释放的 Plog 设备状态表。此问题可能会导致主机失败,并显示紫色诊断屏幕。
本版本已解决该问题。
- PR 2266762:在 vmkernel 日志中,可能会看到许多不支持的物理块大小警告
如果所用设备的物理块大小不是 4096 或 512 MB,则在 vmkernel 日志中可能会看到许多类似以下内容的警告:
ScsiPath: 4395: The Physical block size "8192" reported by the path vmhba3:C0:T1:L0 is not supported.
本版本已解决该问题。该修复已将警告转换为调试日志消息。
- PR 2263849:延伸群集上的操作失败,并显示错误:未定义名称“_VSAN_VER3”(name '_VSAN_VER3' is not defined)
配置或升级 vSAN 延伸群集后,所有群集级别的请求可能会失败。您可能会看到以下错误消息:
未定义名称“_VSAN_VER3”(name '_VSAN_VER3' is not defined)
。本版本已解决该问题。
- PR 2267698:vSAN 性能图表不正确显示 VMDK 衡量指标
如果使用名称而不是 UUID 创建虚拟机文件夹,则 vSAN 性能图表不会正确显示以下 VMDK 衡量指标:
- IOPS 和 IOPS 限制
- 延迟的标准化 IOPS本版本已解决该问题。
- PR 2271653:使用 IOChain 和启用大型接收卸载 (LRO) 功能后,可能会看到有关丢弃的数据包数的误报
在主机 > 监控 > 性能 > 物理适配器 > 物理网卡 vSwitch 端口丢包率中,可能会看到计数器显示丢弃的数据包数,而实际上并未丢弃数据包。这是因为,在使用 LRO 时,IOChain 框架会将数据包数减少视为数据包丢弃。
本版本已解决该问题。
- PR 2232538:打开名称以“SRIOV”开头的虚拟机的电源时,ESXi 主机可能会失败
打开虚拟机电源时,ESXi 主机可能会失败并显示紫色诊断屏幕。如果虚拟机名称以“SRIOV”开头,并且具有连接到 vSphere Distributed Switch 的上行链路,则会发生这种情况。
本版本已解决该问题。
- PR 2210056:如果 SNMP 禁用动态规则集,但这些规则集在主机配置文件中处于活动状态时,可能会看到意外的合规性错误
在极少数的争用状况下,如果 SNMP 禁用动态规则集,但这些规则集在主机配置文件中处于活动状态时,可能会看到意外的合规性错误,如
未找到规则集 dynamicruleset (Ruleset dynamicruleset not found)
。本版本已解决该问题。
- PR 2271322:在启用应用程序静默的情况下,使用 vSphere Replication 恢复运行 Windows 2008 或更高版本的虚拟机可能会导致副本损坏
在启用应用程序静默的情况下,使用 vSphere Replication 恢复运行 Windows 2008 或更高版本的虚拟机可能会导致副本损坏。只有在启用应用程序静默时才会发生损坏。如果虚拟机上的 VMware Tools 未配置为应用程序静默,则 vSphere Replication 将使用更低级别的一致性(如文件系统静默),并且副本不会损坏。
本版本已解决该问题。
- PR 2272737:当执行的 CIM 请求超过 2 MB 时,ESXi 主机上的 SFCB 配置可能会失败
如果执行的 CIM 请求超过 2 MB,如固件下载,则由于堆栈空间不足,ESXi 主机上的 CIM 服务可能会失败,并且在
/var/core
中显示SFCB zdumb
文件。本版本已解决该问题。
- PR 2286563:生成的 syslog.log 存档文件数量可能小于配置的默认值,而且在 ESXi 版本 6.0 和 6.7 之间也不同
生成的
syslog.log
存档文件数量可能小于使用syslog.global.defaultRotate
参数设置的默认值。syslog.log
存档文件数量在 ESXi 版本 6.0 和 6.7 之间可能不同。例如,如果syslog.global.defaultRotate
默认设置为 8,ESXi 6.0 会创建syslog.0.gz
到syslog.7.gz
,而 ESXi 6.7 会创建syslog.0.gz
到syslog.6.gz
。本版本已解决该问题。
- PR 2178119:高级配置选项 /Misc/MCEMonitorInterval 的值较大时可能会导致 ESXi 主机变得无响应
如果将高级配置选项
/Misc/MCEMonitorInterval
设置为非常大的值,则由于定时器溢出,ESXi 主机可能会在 10 天左右的正常运行时间内变得无响应。本版本已解决该问题。
- PR 2223879:ESXi 主机可能会失败并显示紫色诊断屏幕和可能出现死锁错误
P2MCache 锁是一种自旋锁,会导致 CPU 性能降低,从而可能会导致其他 CPU 不足。因此,ESXi 主机可能会失败并显示紫色诊断屏幕和
转数已超出 - 可能出现死锁、PVSCSIDoIOComplet、NFSAsyncIOComplete (Spin count exceeded - possible deadlock, PVSCSIDoIOComplet, NFSAsyncIOComplete)
错误。本版本已解决该问题。
- PR 2221256:在 NFS 数据存储之间执行 Storage vMotion 操作期间,ESXi 主机可能会失败并显示紫色诊断屏幕
由于请求完成路径中存在争用状况,因此,在 NFS 数据存储之间执行 Storage vMotion 操作期间,ESXi 主机可能会失败并显示紫色诊断屏幕。NFS 堆栈中出现高 I/O 负载的情况下,会发生争用状况。
本版本已解决该问题。
- PR 2258272:启用了 vSAN 的 ESXi 主机会因取消配置工作流中的争用状况而失败
在磁盘取消配置操作过程中,取消配置工作流中的争用状况可能会导致 ESXi 主机失败并显示紫色诊断屏幕。
本版本已解决该问题。
- PR 2219661:如果在物理网卡上启用 RSS,ESXi 主机可能会失败并显示紫色诊断屏幕
如果在物理网卡上启用 RSS,ESXi 主机可能会失败并显示紫色诊断屏幕。您可能会看到类似以下内容的回溯追踪:
yyyy-mm-dd cpu9:2097316)0x451a8521bc70:[0x41801a68ad30]RSSPlugCleanupRSSEngine@(lb_netqueue_bal)#
+0x7d stack: 0x4305e4c1a8e0, 0x41801a68af2b, 0x430db8c6b188, 0x4305e4c1a8e0,
0x0yyyy-mm-dd cpu9:2097316)0x451a8521bc90:[0x41801a68af2a]RSSPlugInitRSSEngine@(lb_netqueue_bal)#+0x127 stack: 0x0, 0x20c49ba5e353f7cf, 0x4305e4c1a930, 0x4305e4c1a800, 0x4305e4c1a9f0
yyyy-mm-dd cpu9:2097316)0x451a8521bcd0:[0x41801a68b21c]RSSPlug_PreBalanceWork@(lb_netqueue_bal)#+0x1cd stack: 0x32, 0x32, 0x0, 0xe0, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd30:[0x41801a687752]Lb_PreBalanceWork@(lb_netqueue_bal)#+0x21f stack: 0x4305e4c1a800, 0xff, 0x0, 0x43057f38ea00, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd80:[0x418019c13b18]UplinkNetqueueBal_BalanceCB@vmkernel#nover+0x6f1 stack: 0x4305e4bc6088, 0x4305e4c1a840, 0x4305e4c1a800, 0x4305e435fb30, 0x4305e4bc6088
yyyy-mm-dd cpu9:2097316)0x451a8521bf00:[0x418019cd1c89]UplinkAsyncProcessCallsHelperCB@vmkernel#nover+0x116 stack: 0x430749e60870, 0x430196737070, 0x451a85223000, 0x418019ae832b, 0x430749e60088
yyyy-mm-dd cpu9:2097316)0x451a8521bf30:[0x418019ae832a]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430749e600b8, 0x430749e600a8, 0x430749e600e0, 0x451a85223000, 0x430749e600b8
yyyy-mm-dd cpu9:2097316)0x451a8521bfe0:[0x418019d081f2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0, 0x0, 0x0, 0x0, 0x0本版本已解决该问题。该修复会清理 RSS 引擎中的数据,以避免 NetQueue 平衡器的专用堆过载。
- PR 2268826:当 VMware APIs for Storage Awareness (VASA) 提供程序发送重新绑定请求以切换 vSphere Virtual Volumes 的协议端点时,ESXi 主机可能会失败并显示紫色诊断屏幕
当 VASA 提供程序向 ESXi 主机发送重新绑定请求以切换特定 vSphere Virtual Volumes 驱动程序的绑定时,ESXi 主机可能会切换协议端点和其他资源以更改绑定,而不会有任何 I/O 干扰。因此,ESXi 主机可能会失败并显示紫色诊断屏幕。
本版本已解决该问题。
- PR 2224767:您可能会看到来自智能平台管理界面 (IPMI) 传感器的无效硬件运行状况警报
某些 IPMI 传感器可能会间歇性地从绿色更改为红色或从红色更改为绿色,这会产生无效的硬件运行状况警报。
本版本已解决该问题。通过此修复,可以使用高级选项命令
esxcfg-advcfg -s {sensor ID}:{sensor ID} /UserVars/HardwareHealthIgnoredSensors
忽略选定传感器的硬件运行状况警报。 - PR 2257590:如果安装异步 32 位 iSCSI Management API (IMA) 插件,ESXi 主机可能会失败并显示内存准入错误
如果安装异步 32 位 IMA 插件,则已安装 32 位 IMA 插件时,系统可能会尝试加载这些插件,并检查它们是否从 QLogic 独立 iSCSI 适配器加载。在此过程中,ESXi 主机可能会失败并显示内存准入错误。
本版本已解决该问题。此修复仅从 QLogic 适配器加载每个 32 位 IMA 插件。
- PR 2241917:重新保护操作可能会失败,并显示 vSphere Replication 同步错误
如果使用 Site Recovery Manager 运行重新保护操作,则当虚拟机的初始同步出现延迟时,该操作可能会失败。您可能会看到类似于以下内容的错误消息:
VR 同步对于 VRM 组 {…} 失败。操作超时: 10800 秒 (VR synchronization failed for VRM group {…}. Operation timed out: 10800 seconds)
本版本已解决该问题。
- PR 2246891:如果启用 I/O 限制,则某辅助 LUN 上的 I/O 错误 TASK_SET_FULL 可能会降低位于 HPE 3PAR 存储上 Virtual Volumes 协议端点后面的所有辅助 LUN 上的 I/O 速度
当在 HPE 3PAR 存储中的 Virtual Volumes 的某协议端点上启用 I/O 限制时,如果某辅助 LUN 上的 I/O 失败,并显示错误
TASK_SET_FULL
,则与该协议端点关联的所有辅助 LUN 上的 I/O 速度将变慢。本版本已解决该问题。通过此修复,可以在单个 Virtual Volumes 上启用 I/O 限制,以避免在发生
TASK_SET_FULL
错误时降低协议端点后面的所有辅助 LUN 的速度。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 i40en
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 igbn
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 ixgben
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 否 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 ne1000
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 vmkusb
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2228529 |
CVE 编号 | 不适用 |
此修补程序更新了 qlnativefc
VIB。
- 更新 qlnativefc 驱动程序
qlnativefc 驱动程序已更新到版本 3.1.8.0。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 适中 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2231435 |
CVE 编号 | 不适用 |
此修补程序更新了 nfnic
VIB。
- 更新 nfnic 驱动程序
nfnic 驱动程序已更新到版本 4.0.0.17。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 brcmfcoe
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB | VMW_bootbank_lpfc_11.4.33.18-12vmw.670.2.48.13006603 |
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 lpfc
VIB。
修补程序类别 | 增强功能 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2226688 |
CVE 编号 | 不适用 |
此修补程序更新了 elx-esx-libelxima.so
VIB 以解决下列问题:
- PR 2226688:Emulex 驱动程序日志可能会填满 /var 文件系统日志
Emulex 驱动程序可能会在
/var/logs/EMU/mili/mili2d.log
中写入日志,并填满 RAM 驱动器的 40 MB/var
文件系统日志。本版本已解决该问题。此修复将 Emulex 驱动程序的写入更改为了
/scratch/log/
,而不再写入/var/log/
。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 严重 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 misc-drivers
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 否 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 lsu-lsi-lsi-msgpt3-plugin
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 否 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2234599 |
CVE 编号 | 不适用 |
此修补程序更新了 sfvmk
VIB。
ESXi 6.7 Update 2 增加了对 Solarflare 10G 和 40G 网络适配器设备(例如,SFN8542 和 SFN8522)的 Solarflare 本机驱动程序 (sfvmk) 支持。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 否 |
需要迁移或关闭虚拟机 | 否 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2256555 |
CVE 编号 | 不适用 |
此修补程序更新了 lsi-msgpt2
VIB。
- 更新 lsi-msgpt2 驱动程序
lsi-msgpt2 驱动程序已更新到版本 20.00.05.00,增强了任务管理功能并修复了严重错误。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 适中 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 nmlx4-core
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 nmlx4-en
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 nmlx4-rdma
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 nmlx5-core
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 nmlx5-rdma
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 bnxtnet
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2242441 |
CVE 编号 | 不适用 |
此修补程序更新了 lsu-lsi-drivers-plugin
VIB 以解决下列问题:
- PR 2242441:您可能无法在 lsi-msgpt35 控制器下定位并打开磁盘的 LED
您可能无法在 lsi-msgpt35 控制器下定位并打开磁盘的 LED。
本版本已解决该问题。此修复引入了一个新的 lsu-lsi-drivers-plugin,可与 lsi-msgpt35 异步和内置驱动程序一起使用。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 适中 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 否 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2270098 |
CVE 编号 | 不适用 |
此修补程序更新了 nvme
VIB 以解决下列问题:
- PR 2270098:使用 Intel NVMe 设备时,ESXi 主机可能会失败并显示紫色诊断屏幕
如果在内置 nvme 驱动程序中取消拆分 I/O 请求,由于命令类型检查错误,命令完成路径可能会解锁队列锁定。这可能会导致 ESXi 主机失败并显示紫色诊断屏幕。
本版本已解决该问题。
- PR 2270098:在 ESXi 主机中看不到门铃步幅不同于 0h 的 NVMe 设备
VMware 内置 NVMe 驱动程序仅支持值为 0h 的门铃步幅,不能使用任何其他值,也看不到门铃步幅不同于 0h 的 NVMe 设备。
本版本已解决该问题。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2270098 |
CVE 编号 | 不适用 |
此修补程序更新了 vmware-esx-esxcli-nvme-plugin
VIB 以解决下列问题:
- PR 2270098:通过运行 esxcfg-scsidevs –a 命令查看 NVMe 设备信息时,显示的设备信息可能不正确
对于某些 Dell 品牌的 NVMe 设备和 Marvell NR2241,通过运行
esxcfg-scsidevs –a
命令或查看界面来查看 NVMe 设备信息时,显示的设备信息可能不正确。本版本已解决该问题。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 否 |
需要迁移或关闭虚拟机 | 否 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2272901 |
CVE 编号 | 不适用 |
此修补程序更新了 lsi-mr3
VIB。
- 升级 Broadcom lsi-mr3 驱动程序
Broadcom lsi-mr3 驱动程序已升级到版本 MR 7.8。
修补程序类别 | 增强功能 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2275290 |
CVE 编号 | 不适用 |
此修补程序更新了 lsi-msgpt35
VIB。
- 更新 lsi-msgpt35 驱动程序
lsi-msgpt35 驱动程序已更新到版本 09.00.00.00-1vmw。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2275290 |
CVE 编号 | 不适用 |
此修补程序更新了 lsi-msgpt3
VIB。
- 更新 lsi-msgpt3 驱动程序
lsi-msgpt3 驱动程序已更新到版本 17.00.01.00-3vmw。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 net-vmxnet3
VIB。
修补程序类别 | 缺陷修复 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 native-misc-drivers
VIB。
修补程序类别 | 安全 |
修补程序严重性 | 重要 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2228005、2301046、2232983、2222019、2224776、2260077 |
CVE 编号 | 不适用 |
此修补程序更新了 esx-base
、vsan 和 vsanhealth
VIB 以解决下列问题:
- PR 2224776:如果 sfcbd 服务无法处理所有派生进程,ESXi 主机可能会变得无响应
由于 sfcbd 服务无法处理所有派生进程,可能会在
vmkernel.log 中看到许多错误消息,例如,Heap globalCartel-1 already at its maximum size.
Cannot expand.
。因此,ESXi 主机可能会变得无响应,并且某些操作可能会失败。本版本已解决该问题。
- 更新网络时间协议 (NTP) 守护进程
NTP 守护进程已更新到版本 ntp-4.2.8p12。
- 更新 libxml2 库
ESXi userworld libxml2 库已更新到版本 2.9.8。
- 更新 Python 库
Python 第三方库已更新到版本 3.5.6。
- 更新 OpenSSH
OpenSSH 已更新到版本 7.9,以解决与标识符 CVE-2018-15473 相关的安全问题。
- OpenSSL 更新
OpenSSL 软件包已更新到版本 openssl-1.0.2r。
修补程序类别 | 安全 |
修补程序严重性 | 重要 |
需要重新引导主机 | 否 |
需要迁移或关闭虚拟机 | 否 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 tools-light
VIB。
修补程序类别 | 安全 |
修补程序严重性 | 重要 |
需要重新引导主机 | 否 |
需要迁移或关闭虚拟机 | 否 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 不适用 |
CVE 编号 | 不适用 |
此修补程序更新了 esx-ui
VIB。
配置文件名称 | ESXi-6.7.0-20190402001-standard |
内部版本 | 有关内部版本信息,请参见本版本中包含的修补程序。 |
供应商 | VMware, Inc. |
发布日期 | 2018 年 4 月 11 日 |
接受级别 | 合作伙伴支持 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
受影响的 VIB |
|
已修复的 PR | 2227123、2250472、2273186、2282052、2267506、2256771、2269616、2250697、2191342、2197795、2221935、2193830、2210364、2177107、2179263、2185906、2204508、2211350、2204204、2226565、2240385、2163397、2238134、2213883、2141221、2240444、2249713、2184068、2257480、2235031、2257354、2212140、2279897、2227623、2277648、2221778、2287560、2268541、2203837、2236531、2242656、2250653、2260748、2256001、2266762、2263849、2267698、2271653、2232538、2210056、2271322、2272737、2286563、2178119、2223879、2221256、2258272、2219661、2268826、2224767、2257590、2241917、2246891、2228529、2231435、2226688、2234599、2256555、2242441、2270098、2272901、2275290 |
相关的 CVE 编号 | 不适用 |
此修补程序更新了以下问题:
此修补程序解决了以下问题:
-
您可能会在读取或写入磁盘延迟的计数器值(如
datastore.totalReadLatency
和datastore.totalWriteLatency
)非常大时间歇性地看到警报。 -
当 Linux 虚拟机配置了特定内存大小(如 2052 MB 或 2060 MB)时,可能会显示空白屏幕,而不是打开电源。
-
设置网络并启用 vSphere Distributed Switch 运行状况检查以执行配置检查时,ESXi 主机可能会失败并显示紫色诊断屏幕。
-
在 vSphere Web Client 中的摘要选项卡和 快照管理器选项卡下选择虚拟机时,SNMP 代理可能会提供错误的陷阱
vmwVmPoweredOn
。 -
DVFilter 可能会在共享内存环缓冲区中接收意外或损坏的值,从而导致内部函数返回
NULL
。如果未正常处理此NULL
值,ESXi 主机可能会在 DVFilter 级别失败并显示紫色诊断屏幕。 -
在 vSphere Client 或 vSphere Web Client 的事件选项卡中,打开或关闭虚拟机电源时,可能会看到类似以下内容的事件:
已在虚拟交换机 XXX 的端口组XXX 上还原网络连接。物理网卡 vmnicX 正常运行 (Network connectivity restored on virtual switch XXX, portgroups: XXX. Physical NIC vmnicX is up)
。检查上行链路状态时,系统报告可能会包含不受虚拟机打开电源或关闭电源操作(该操作会触发此事件)影响的端口组。但是,该事件并不表示存在问题或提示操作。 -
由于没有磁盘配额或线程已停止,vSAN 运行状况配置文件可能会损坏。如果设置 vSAN 运行状况配置时出现此问题,Health Service 将无法启动。
-
如果在 Windows Server 故障切换群集设置过程中,将默认路径策略从“固定”或“最近使用”更改为“循环”,则群集的 I/O 可能会失败,且群集可能会停止响应。
-
在多个发行版本中,smartd 守护进程可能会在 syslog 服务日志中生成大量调试和信息消息。
-
如果很少用到上行链路,NIOC 调度程序可能会重置上行链路网络设备。重置不可预测。
-
由于代码路径仍在使用 IPv6,因此如果禁用全局 IPv6 地址,ESXi 主机可能会出现间歇性故障。
-
由于存在争用情况,重新引导客户机操作系统时,虚拟机可执行文件进程可能会失败并关闭虚拟机。
-
Hostd 在等待使用
esxcfg-syslog
命令启动的外部进程完成时可能会变得无响应。 -
在负载极大的系统中,如果大量 I/O 超时,则可能会导致物理 CPU 软锁定。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。
-
发给虚拟 SATA CD-ROM 的无效命令可能会触发错误并增加虚拟机的内存利用率。如果这时虚拟机无法分配内存,则可能会导致这些虚拟机发生故障。您可能会看到针对无效命令出现以下日志:
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.以及类似以下内容的严重错误消息:
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure
-
在所含虚拟机超过 150 个的 vSphere 6.7 环境中,如果 Guest Introspection 服务处于活动状态,则使用 vSphere vMotion 迁移虚拟机可能会失败并在 vSphere Web Client 中显示类似以下内容的错误:
源虚拟机检测到目标虚拟机无法恢复 (The source detected that the destination failed to resume)
。
目标vmware.log
包含类似以下内容的错误消息:2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.vmkernel 日志包含类似以下内容的错误消息:
2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size.Cannot expand.
2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3 -
可以编辑仅当虚拟机处于特定电源状况时才收集的统计数据。例如,当虚拟机打开电源时,无法编辑内存数据。重新启动 hostd 服务时,虚拟机可能不会更改其电源状况,从而导致数据初始化错误。主机已消耗内存计数器的计算结果可能是除零,并且图表可能会停止绘制图形。
-
默认情况下,已启用 vSphere HA 的 ESXi 主机中的隔离响应功能会被禁用。启用隔离响应功能后,连接到 NSX-T 逻辑交换机的虚拟机端口可能会在 vSphere HA 故障切换后被阻止。
-
由于解析问题,e1000 虚拟网卡可能会间歇性地丢弃无法识别的 GRE 数据包。
-
引导 Apple 系统时,引导进程可能会停止,并显示以下错误消息:
正在关闭固件服务 (Shutting down firmware services)...
Mutiboot 缓冲区太小 (Mutiboot buffer is too small)。
不可恢复的错误 (Unrecoverable error)该问题仅影响某些 Apple 固件版本。
-
如果 hostd 在长时间运行的静默快照操作期间重新启动,hostd 可能会自动运行快照整合命令以移除冗余磁盘并提高虚拟机性能。但是,整合命令可能会与正在运行的静默快照操作争用资源,并导致虚拟机失败。
-
运行
snmpwalk
命令时,SNMP 代理可能会将所有电池的状态显示为 D_Failed。发生此问题的原因是,处理代码时可能未正确地检查状态以及使用传感器特定的代码错误地解释紧凑型传感器。 -
使用 IP 哈希或源 MAC 哈希绑定策略时,数据包列表中的某些数据包可能使用不同的上行链路。因此,其中某些数据包可能会丢弃或不通过绑定策略确定的上行链路发送。
-
如果将 NFS 数据存储配置为 syslog 数据存储,则 ESXi 主机与该数据存储断开连接时,系统会停止将日志记录到该数据存储,同时 ESXi 主机可能会变得无响应。
-
使用 vSphere Replication 与 Site Recovery Manager 复制虚拟机时,ESXi 主机可能会立即或在 24 小时内失败并显示紫色诊断屏幕。您可能会看到类似以下内容的错误:
PANIC bora/vmkernel/main/dlmalloc.c:4924 - dlmalloc 中发生使用错误 (PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc)
。 -
大型配置可能会超出锁定数量限制,因此 hostd 启动失败并显示类似以下内容的错误:
hostd Panic: MXUserAllocSerialNumber: 锁定过多 (hostd Panic: MXUserAllocSerialNumber: too many locks)!
-
esxcli
$esxcli.network.nic.coalesce.set.Invoke
网络命令可能会在结果中返回 false 值,即使该值设置正确也会如此。这可能会影响自动化脚本。 -
当虚拟机尝试访问具有损坏目录的 VMFS 数据存储时,ESXi 主机可能会失败并显示紫色诊断屏幕,同时显示
DirEntry 损坏 (DirEntry corruption)
错误消息。 -
在链接状态不稳定时,LACPPDU Actor 键的值可能会更改为 0。
-
由于 VMkernel 中的计时问题,缓冲区可能不会刷新,并且堆耗尽。因此,hostd、vpxa 和 vmsyslogd 等服务可能无法在 ESXi 主机上写入日志,并且主机变得无响应。在
/var/log/vmkernel.log
中,可能会看到类似以下内容的警告:WARNING: Heap: 3571: Heap vfat already at its maximum size.Cannot expand.
-
如果在以前 ESXi 版本中修改了某虚拟机的虚拟 CD-ROM 设备类型,则在更新到更高版本后,尝试安装或更新 VMware Tools 时,该虚拟机可能会终止并标记为无效。
-
续订证书时,仅所提供信任链中的第一个证书可能存储在 ESXi 主机上。任何中间 CA 证书都会被截断。由于缺少证书,无法构建到根 CA 的链。这会导致出现连接不可信警告。
-
如果 vSphere API for Storage Awareness 提供程序将 vSphere Virtual Volumes 策略修改为无需人工干预,则 null
VvolID
参数可能会更新 vSphere Virtual Volumes 元数据。这会导致使用 nullVvoId
参数执行 VASA 调用以及在创建虚拟机快照时失败。 -
如果 vSphere API for Storage Awareness 提供程序发起的调用因与虚拟提供程序的所有连接正忙而失败,则在 vSphere Virtual Volumes 数据存储上并行克隆多个虚拟机的操作可能会变得无响应或失败,并显示以下类似错误消息:
无法完成文件创建操作 (Cannot complete file creation operation)
。 -
由于内部统计信息中存在某些差异,ESXi 主机可能会失败,并出现显示
sbflush_internal
紧急消息的紫色诊断屏幕。 -
在 ESXi 6.7 Update 2 中,可以在具有 N-VDS 的 ESXi 主机与具有 vSphere 标准交换机的 ESXi 主机之间通过使用 vSphere vMotion 迁移虚拟机。要启用此功能,必须在源和目标站点上将 vCenter Server 系统升级到 vCenter Server 6.7 Update 2 和 ESXi 6.7 Update 2。
-
由于页面错误异常,ESXi 主机可能失败并显示紫色诊断屏幕。缺少标记可能会在不再存在的对象上触发缓存逐出并导致
空
指针引用,从而引起该错误。 -
检查上行链路状态时,绑定策略可能不会检查上行链路是否属于端口组,并且受影响的端口组可能不正确。因此,可能会在
/var/run/log/vobd.log
文件中看到冗余的 VOB 消息,例如:Lost uplink redundancy on virtual switch "xxx".Physical NIC vmnicX is down.Affected portgroups:"xxx"
. -
对于 Lenovo ThinkSystem DE 系列存储阵列,必须手动将声明规则添加到 ESXi 主机。
-
当对大型目录树进行迭代时,vpxa 服务可能会因内存使用量过高而失败。因此,ESXi 主机可能会断开与 vCenter Server 系统的连接。
-
在运行 ESXi 6.7 Update 1 并启用 SecureBoot 的主机上,命令
esxcli software profile update
或esxcli software profile install
可能会失败。您可能会看到诸如此类的错误消息:无法使用 esx-update VIB 设置升级 (Failed to setup upgrade using esx-update VIB)
和无法在 ramdisk 中挂载 tardisk: [Errno 1] 操作不被允许 (Failed to mount tardisk in ramdisk: [Errno 1] Operation not permitted)
。 -
由于解析 NFS 服务器的主机名时发生间歇性故障,因此在重新引导 ESXi 主机后,NFS 卷挂载操作可能不会继续有效。
-
如果分配给该端口组的物理网卡临时关闭时通过使用基于物理网卡负载的路由选项创建 VMK 或虚拟网卡端口,则会出现此问题。在这种情况下,未设置端口绑定上行链路,因为端口组中没有活动上行链路。当物理网卡再次变为活动状态时,绑定代码无法更新端口数据,从而导致数据包丢失。
-
Plog Relog 与 DecommissionMD 一起运行时,可能会出现争用状况,从而导致 Relog 访问已释放的 Plog 设备状态表。此问题可能会导致主机失败,并显示紫色诊断屏幕。
-
如果所用设备的物理块大小不是 4096 或 512 MB,则在 vmkernel 日志中可能会看到许多类似以下内容的警告:
ScsiPath: 4395: The Physical block size "8192" reported by the path vmhba3:C0:T1:L0 is not supported.
-
配置或升级 vSAN 延伸群集后,所有群集级别的请求可能会失败。您可能会看到以下错误消息:
未定义名称“_VSAN_VER3”(name '_VSAN_VER3' is not defined)
。 -
如果使用名称而不是 UUID 创建虚拟机文件夹,则 vSAN 性能图表不会正确显示以下 VMDK 衡量指标:
- IOPS 和 IOPS 限制
- 延迟的标准化 IOPS -
在主机 > 监控 > 性能 > 物理适配器 > 物理网卡 vSwitch 端口丢包率中,可能会看到计数器显示丢弃的数据包数,而实际上并未丢弃数据包。这是因为,在使用 LRO 时,IOChain 框架会将数据包数减少视为数据包丢弃。
-
打开虚拟机电源时,ESXi 主机可能会失败并显示紫色诊断屏幕。如果虚拟机名称以“SRIOV”开头,并且具有连接到 vSphere Distributed Switch 的上行链路,则会发生这种情况。
-
在极少数的争用状况下,如果 SNMP 禁用动态规则集,但这些规则集在主机配置文件中处于活动状态时,可能会看到意外的合规性错误,如
未找到规则集 dynamicruleset (Ruleset dynamicruleset not found)
。 -
在启用应用程序静默的情况下,使用 vSphere Replication 恢复运行 Windows 2008 或更高版本的虚拟机可能会导致副本损坏。只有在启用应用程序静默时才会发生损坏。如果虚拟机上的 VMware Tools 未配置为应用程序静默,则 vSphere Replication 将使用更低级别的一致性(如文件系统静默),并且副本不会损坏。
-
如果执行的 CIM 请求超过 2 MB,如固件下载,则由于堆栈空间不足,ESXi 主机上的 CIM 服务可能会失败,并且在
/var/core
中显示SFCB zdumb
文件。 -
生成的
syslog.log
存档文件数量可能小于使用syslog.global.defaultRotate
参数设置的默认值。syslog.log
存档文件数量在 ESXi 版本 6.0 和 6.7 之间可能不同。例如,如果syslog.global.defaultRotate
默认设置为 8,ESXi 6.0 会创建syslog.0.gz
到syslog.7.gz
,而 ESXi 6.7 会创建syslog.0.gz
到syslog.6.gz
。 -
如果将高级配置选项
/Misc/MCEMonitorInterval
设置为非常大的值,则由于定时器溢出,ESXi 主机可能会在 10 天左右的正常运行时间内变得无响应。 -
P2MCache 锁是一种自旋锁,会导致 CPU 性能降低,从而可能会导致其他 CPU 不足。因此,ESXi 主机可能会失败并显示紫色诊断屏幕和
转数已超出 - 可能出现死锁、PVSCSIDoIOComplet、NFSAsyncIOComplete (Spin count exceeded - possible deadlock, PVSCSIDoIOComplet, NFSAsyncIOComplete)
错误。 -
由于请求完成路径中存在争用状况,因此,在 NFS 数据存储之间执行 Storage vMotion 操作期间,ESXi 主机可能会失败并显示紫色诊断屏幕。NFS 堆栈中出现高 I/O 负载的情况下,会发生争用状况。
-
在磁盘取消配置操作过程中,取消配置工作流中的争用状况可能会导致 ESXi 主机失败并显示紫色诊断屏幕。
-
如果在物理网卡上启用 RSS,ESXi 主机可能会失败并显示紫色诊断屏幕。您可能会看到类似以下内容的回溯追踪:
yyyy-mm-dd cpu9:2097316)0x451a8521bc70:[0x41801a68ad30]RSSPlugCleanupRSSEngine@(lb_netqueue_bal)#+0x7d stack: 0x4305e4c1a8e0, 0x41801a68af2b, 0x430db8c6b188, 0x4305e4c1a8e0,
0x0yyyy-mm-dd cpu9:2097316)0x451a8521bc90:[0x41801a68af2a]RSSPlugInitRSSEngine@(lb_netqueue_bal)#+0x127 stack: 0x0, 0x20c49ba5e353f7cf, 0x4305e4c1a930, 0x4305e4c1a800, 0x4305e4c1a9f0
yyyy-mm-dd cpu9:2097316)0x451a8521bcd0:[0x41801a68b21c]RSSPlug_PreBalanceWork@(lb_netqueue_bal)#+0x1cd stack: 0x32, 0x32, 0x0, 0xe0, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd30:[0x41801a687752]Lb_PreBalanceWork@(lb_netqueue_bal)#+0x21f stack: 0x4305e4c1a800, 0xff, 0x0, 0x43057f38ea00, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd80:[0x418019c13b18]UplinkNetqueueBal_BalanceCB@vmkernel#nover+0x6f1 stack: 0x4305e4bc6088, 0x4305e4c1a840, 0x4305e4c1a800, 0x4305e435fb30, 0x4305e4bc6088
yyyy-mm-dd cpu9:2097316)0x451a8521bf00:[0x418019cd1c89]UplinkAsyncProcessCallsHelperCB@vmkernel#nover+0x116 stack: 0x430749e60870, 0x430196737070, 0x451a85223000, 0x418019ae832b, 0x430749e60088
yyyy-mm-dd cpu9:2097316)0x451a8521bf30:[0x418019ae832a]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430749e600b8, 0x430749e600a8, 0x430749e600e0, 0x451a85223000, 0x430749e600b8
yyyy-mm-dd cpu9:2097316)0x451a8521bfe0:[0x418019d081f2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0, 0x0, 0x0, 0x0, 0x0 -
当 VASA 提供程序向 ESXi 主机发送重新绑定请求以切换特定 vSphere Virtual Volumes 驱动程序的绑定时,ESXi 主机可能会切换协议端点和其他资源以更改绑定,而不会有任何 I/O 干扰。因此,ESXi 主机可能会失败并显示紫色诊断屏幕。
-
某些 IPMI 传感器可能会间歇性地从绿色更改为红色或从红色更改为绿色,这会产生无效的硬件运行状况警报。
-
如果安装异步 32 位 IMA 插件,则已安装 32 位 IMA 插件时,系统可能会尝试加载这些插件,并检查它们是否从 QLogic 独立 iSCSI 适配器加载。在此过程中,ESXi 主机可能会失败并显示内存准入错误。
-
如果使用 Site Recovery Manager 运行重新保护操作,则当虚拟机的初始同步出现延迟时,该操作可能会失败。您可能会看到类似于以下内容的错误消息:
VR 同步对于 VRM 组 {…} 失败。操作超时: 10800 秒 (VR synchronization failed for VRM group {…}. Operation timed out: 10800 seconds)
-
当在 HPE 3PAR 存储中的 Virtual Volumes 的某协议端点上启用 I/O 限制时,如果某辅助 LUN 上的 I/O 失败,并显示错误
TASK_SET_FULL
,则与该协议端点关联的所有辅助 LUN 上的 I/O 速度将变慢。 -
qlnativefc 驱动程序已更新到版本 3.1.8.0。
-
nfnic 驱动程序已更新到版本 4.0.0.17。
-
Emulex 驱动程序可能会在
/var/logs/EMU/mili/mili2d.log
中写入日志,并填满 RAM 驱动器的 40 MB/var
文件系统日志。 -
ESXi 6.7 Update 2 增加了对 Solarflare 10G 和 40G 网络适配器设备(例如,SFN8542 和 SFN8522)的 Solarflare 本机驱动程序 (sfvmk) 支持。
-
lsi-msgpt2 驱动程序已更新到版本 20.00.05.00,增强了任务管理功能并修复了严重错误。
-
您可能无法在 lsi-msgpt35 控制器下定位并打开磁盘的 LED。
-
如果在内置 nvme 驱动程序中取消拆分 I/O 请求,由于命令类型检查错误,命令完成路径可能会解锁队列锁定。这可能会导致 ESXi 主机失败并显示紫色诊断屏幕。
-
VMware 内置 NVMe 驱动程序仅支持值为 0h 的门铃步幅,不能使用任何其他值,也看不到门铃步幅不同于 0h 的 NVMe 设备。
-
对于某些 Dell 品牌的 NVMe 设备和 Marvell NR2241,通过运行
esxcfg-scsidevs –a
命令或查看界面来查看 NVMe 设备信息时,显示的设备信息可能不正确。 -
Broadcom lsi-mr3 驱动程序已升级到版本 MR 7.8。
-
lsi-msgpt35 驱动程序已更新到版本 09.00.00.00-1vmw。
-
lsi-msgpt3 驱动程序已更新到版本 17.00.01.00-3vmw。
-
配置文件名称 | ESXi-6.7.0-20190402001-no-tools |
内部版本 | 有关内部版本信息,请参见本版本中包含的修补程序。 |
供应商 | VMware, Inc. |
发布日期 | 2018 年 4 月 11 日 |
接受级别 | 合作伙伴支持 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
受影响的 VIB |
|
已修复的 PR | 2227123、2250472、2273186、2282052、2267506、2256771、2269616、2250697、2191342、2197795、2221935、2193830、2210364、2177107、2179263、2185906、2204508、2211350、2204204、2226565、2240385、2163397、2238134、2213883、2141221、2240444、2249713、2184068、2257480、2235031、2257354、2212140、2279897、2227623、2277648、2221778、2287560、2268541、2203837、2236531、2242656、2250653、2260748、2256001、2266762、2263849、2267698、2271653、2232538、2210056、2271322、2272737、2286563、2178119、2223879、2221256、2258272、2219661、2268826、2224767、2257590、2241917、2246891、2228529、2231435、2226688、2234599、2256555、2242441、2270098、2272901、2275290 |
相关的 CVE 编号 | 不适用 |
此修补程序更新了以下问题:
-
-
您可能会在读取或写入磁盘延迟的计数器值(如
datastore.totalReadLatency
和datastore.totalWriteLatency
)非常大时间歇性地看到警报。 -
当 Linux 虚拟机配置了特定内存大小(如 2052 MB 或 2060 MB)时,可能会显示空白屏幕,而不是打开电源。
-
设置网络并启用 vSphere Distributed Switch 运行状况检查以执行配置检查时,ESXi 主机可能会失败并显示紫色诊断屏幕。
-
在 vSphere Web Client 中的摘要选项卡和 快照管理器选项卡下选择虚拟机时,SNMP 代理可能会提供错误的陷阱
vmwVmPoweredOn
。 -
DVFilter 可能会在共享内存环缓冲区中接收意外或损坏的值,从而导致内部函数返回
NULL
。如果未正常处理此NULL
值,ESXi 主机可能会在 DVFilter 级别失败并显示紫色诊断屏幕。 -
在 vSphere Client 或 vSphere Web Client 的事件选项卡中,打开或关闭虚拟机电源时,可能会看到类似以下内容的事件:
已在虚拟交换机 XXX 的端口组XXX 上还原网络连接。物理网卡 vmnicX 正常运行 (Network connectivity restored on virtual switch XXX, portgroups: XXX. Physical NIC vmnicX is up)
。检查上行链路状态时,系统报告可能会包含不受虚拟机打开电源或关闭电源操作(该操作会触发此事件)影响的端口组。但是,该事件并不表示存在问题或提示操作。 -
由于没有磁盘配额或线程已停止,vSAN 运行状况配置文件可能会损坏。如果设置 vSAN 运行状况配置时出现此问题,Health Service 将无法启动。
-
如果在 Windows Server 故障切换群集设置过程中,将默认路径策略从“固定”或“最近使用”更改为“循环”,则群集的 I/O 可能会失败,且群集可能会停止响应。
-
在多个发行版本中,smartd 守护进程可能会在 syslog 服务日志中生成大量调试和信息消息。
-
如果很少用到上行链路,NIOC 调度程序可能会重置上行链路网络设备。重置不可预测。
-
由于代码路径仍在使用 IPv6,因此如果禁用全局 IPv6 地址,ESXi 主机可能会出现间歇性故障。
-
由于存在争用情况,重新引导客户机操作系统时,虚拟机可执行文件进程可能会失败并关闭虚拟机。
-
Hostd 在等待使用
esxcfg-syslog
命令启动的外部进程完成时可能会变得无响应。 -
在负载极大的系统中,如果大量 I/O 超时,则可能会导致物理 CPU 软锁定。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。
-
发给虚拟 SATA CD-ROM 的无效命令可能会触发错误并增加虚拟机的内存利用率。如果这时虚拟机无法分配内存,则可能会导致这些虚拟机发生故障。您可能会看到针对无效命令出现以下日志:
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.以及类似以下内容的严重错误消息:
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure
-
在所含虚拟机超过 150 个的 vSphere 6.7 环境中,如果 Guest Introspection 服务处于活动状态,则使用 vSphere vMotion 迁移虚拟机可能会失败并在 vSphere Web Client 中显示类似以下内容的错误:
源虚拟机检测到目标虚拟机无法恢复 (The source detected that the destination failed to resume)
。
目标vmware.log
包含类似以下内容的错误消息:2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.vmkernel 日志包含类似以下内容的错误消息:
2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size.Cannot expand.
2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3 -
可以编辑仅当虚拟机处于特定电源状况时才收集的统计数据。例如,当虚拟机打开电源时,无法编辑内存数据。重新启动 hostd 服务时,虚拟机可能不会更改其电源状况,从而导致数据初始化错误。主机已消耗内存计数器的计算结果可能是除零,并且图表可能会停止绘制图形。
-
默认情况下,已启用 vSphere HA 的 ESXi 主机中的隔离响应功能会被禁用。启用隔离响应功能后,连接到 NSX-T 逻辑交换机的虚拟机端口可能会在 vSphere HA 故障切换后被阻止。
-
由于解析问题,e1000 虚拟网卡可能会间歇性地丢弃无法识别的 GRE 数据包。
-
引导 Apple 系统时,引导进程可能会停止,并显示以下错误消息:
正在关闭固件服务 (Shutting down firmware services)...
Mutiboot 缓冲区太小 (Mutiboot buffer is too small)。
不可恢复的错误 (Unrecoverable error)该问题仅影响某些 Apple 固件版本。
-
如果 hostd 在长时间运行的静默快照操作期间重新启动,hostd 可能会自动运行快照整合命令以移除冗余磁盘并提高虚拟机性能。但是,整合命令可能会与正在运行的静默快照操作争用资源,并导致虚拟机失败。
-
运行
snmpwalk
命令时,SNMP 代理可能会将所有电池的状态显示为 D_Failed。发生此问题的原因是,处理代码时可能未正确地检查状态以及使用传感器特定的代码错误地解释紧凑型传感器。 -
使用 IP 哈希或源 MAC 哈希绑定策略时,数据包列表中的某些数据包可能使用不同的上行链路。因此,其中某些数据包可能会丢弃或不通过绑定策略确定的上行链路发送。
-
如果将 NFS 数据存储配置为 syslog 数据存储,则 ESXi 主机与该数据存储断开连接时,系统会停止将日志记录到该数据存储,同时 ESXi 主机可能会变得无响应。
-
使用 vSphere Replication 与 Site Recovery Manager 复制虚拟机时,ESXi 主机可能会立即或在 24 小时内失败并显示紫色诊断屏幕。您可能会看到类似以下内容的错误:
PANIC bora/vmkernel/main/dlmalloc.c:4924 - dlmalloc 中发生使用错误 (PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc)
。 -
大型配置可能会超出锁定数量限制,因此 hostd 启动失败并显示类似以下内容的错误:
hostd Panic: MXUserAllocSerialNumber: 锁定过多 (hostd Panic: MXUserAllocSerialNumber: too many locks)!
-
esxcli
$esxcli.network.nic.coalesce.set.Invoke
网络命令可能会在结果中返回 false 值,即使该值设置正确也会如此。这可能会影响自动化脚本。 -
当虚拟机尝试访问具有损坏目录的 VMFS 数据存储时,ESXi 主机可能会失败并显示紫色诊断屏幕,同时显示
DirEntry 损坏 (DirEntry corruption)
错误消息。 -
在链接状态不稳定时,LACPPDU Actor 键的值可能会更改为 0。
-
由于 VMkernel 中的计时问题,缓冲区可能不会刷新,并且堆耗尽。因此,hostd、vpxa 和 vmsyslogd 等服务可能无法在 ESXi 主机上写入日志,并且主机变得无响应。在
/var/log/vmkernel.log
中,可能会看到类似以下内容的警告:WARNING: Heap: 3571: Heap vfat already at its maximum size.Cannot expand.
-
如果在以前 ESXi 版本中修改了某虚拟机的虚拟 CD-ROM 设备类型,则在更新到更高版本后,尝试安装或更新 VMware Tools 时,该虚拟机可能会终止并标记为无效。
-
续订证书时,仅所提供信任链中的第一个证书可能存储在 ESXi 主机上。任何中间 CA 证书都会被截断。由于缺少证书,无法构建到根 CA 的链。这会导致出现连接不可信警告。
-
如果 vSphere API for Storage Awareness 提供程序将 vSphere Virtual Volumes 策略修改为无需人工干预,则 null
VvolID
参数可能会更新 vSphere Virtual Volumes 元数据。这会导致使用 nullVvoId
参数执行 VASA 调用以及在创建虚拟机快照时失败。 -
如果 vSphere API for Storage Awareness 提供程序发起的调用因与虚拟提供程序的所有连接正忙而失败,则在 vSphere Virtual Volumes 数据存储上并行克隆多个虚拟机的操作可能会变得无响应或失败,并显示以下类似错误消息:
无法完成文件创建操作 (Cannot complete file creation operation)
。 -
由于内部统计信息中存在某些差异,ESXi 主机可能会失败,并出现显示
sbflush_internal
紧急消息的紫色诊断屏幕。 -
在 ESXi 6.7 Update 2 中,可以在具有 N-VDS 的 ESXi 主机与具有 vSphere 标准交换机的 ESXi 主机之间通过使用 vSphere vMotion 迁移虚拟机。要启用此功能,必须在源和目标站点上将 vCenter Server 系统升级到 vCenter Server 6.7 Update 2 和 ESXi 6.7 Update 2。
-
由于页面错误异常,ESXi 主机可能失败并显示紫色诊断屏幕。缺少标记可能会在不再存在的对象上触发缓存逐出并导致
空
指针引用,从而引起该错误。 -
检查上行链路状态时,绑定策略可能不会检查上行链路是否属于端口组,并且受影响的端口组可能不正确。因此,可能会在
/var/run/log/vobd.log
文件中看到冗余的 VOB 消息,例如:Lost uplink redundancy on virtual switch "xxx".Physical NIC vmnicX is down.Affected portgroups:"xxx"
. -
对于 Lenovo ThinkSystem DE 系列存储阵列,必须手动将声明规则添加到 ESXi 主机。
-
当对大型目录树进行迭代时,vpxa 服务可能会因内存使用量过高而失败。因此,ESXi 主机可能会断开与 vCenter Server 系统的连接。
-
在运行 ESXi 6.7 Update 1 并启用 SecureBoot 的主机上,命令
esxcli software profile update
或esxcli software profile install
可能会失败。您可能会看到诸如此类的错误消息:无法使用 esx-update VIB 设置升级 (Failed to setup upgrade using esx-update VIB)
和无法在 ramdisk 中挂载 tardisk: [Errno 1] 操作不被允许 (Failed to mount tardisk in ramdisk: [Errno 1] Operation not permitted)
。 -
由于解析 NFS 服务器的主机名时发生间歇性故障,因此在重新引导 ESXi 主机后,NFS 卷挂载操作可能不会继续有效。
-
如果分配给该端口组的物理网卡临时关闭时通过使用基于物理网卡负载的路由选项创建 VMK 或虚拟网卡端口,则会出现此问题。在这种情况下,未设置端口绑定上行链路,因为端口组中没有活动上行链路。当物理网卡再次变为活动状态时,绑定代码无法更新端口数据,从而导致数据包丢失。
-
Plog Relog 与 DecommissionMD 一起运行时,可能会出现争用状况,从而导致 Relog 访问已释放的 Plog 设备状态表。此问题可能会导致主机失败,并显示紫色诊断屏幕。
-
如果所用设备的物理块大小不是 4096 或 512 MB,则在 vmkernel 日志中可能会看到许多类似以下内容的警告:
ScsiPath: 4395: The Physical block size "8192" reported by the path vmhba3:C0:T1:L0 is not supported.
-
配置或升级 vSAN 延伸群集后,所有群集级别的请求可能会失败。您可能会看到以下错误消息:
未定义名称“_VSAN_VER3”(name '_VSAN_VER3' is not defined)
。 -
如果使用名称而不是 UUID 创建虚拟机文件夹,则 vSAN 性能图表不会正确显示以下 VMDK 衡量指标:
- IOPS 和 IOPS 限制
- 延迟的标准化 IOPS -
在主机 > 监控 > 性能 > 物理适配器 > 物理网卡 vSwitch 端口丢包率中,可能会看到计数器显示丢弃的数据包数,而实际上并未丢弃数据包。这是因为,在使用 LRO 时,IOChain 框架会将数据包数减少视为数据包丢弃。
-
打开虚拟机电源时,ESXi 主机可能会失败并显示紫色诊断屏幕。如果虚拟机名称以“SRIOV”开头,并且具有连接到 vSphere Distributed Switch 的上行链路,则会发生这种情况。
-
在极少数的争用状况下,如果 SNMP 禁用动态规则集,但这些规则集在主机配置文件中处于活动状态时,可能会看到意外的合规性错误,如
未找到规则集 dynamicruleset (Ruleset dynamicruleset not found)
。 -
在启用应用程序静默的情况下,使用 vSphere Replication 恢复运行 Windows 2008 或更高版本的虚拟机可能会导致副本损坏。只有在启用应用程序静默时才会发生损坏。如果虚拟机上的 VMware Tools 未配置为应用程序静默,则 vSphere Replication 将使用更低级别的一致性(如文件系统静默),并且副本不会损坏。
-
如果执行的 CIM 请求超过 2 MB,如固件下载,则由于堆栈空间不足,ESXi 主机上的 CIM 服务可能会失败,并且在
/var/core
中显示SFCB zdumb
文件。 -
生成的
syslog.log
存档文件数量可能小于使用syslog.global.defaultRotate
参数设置的默认值。syslog.log
存档文件数量在 ESXi 版本 6.0 和 6.7 之间可能不同。例如,如果syslog.global.defaultRotate
默认设置为 8,ESXi 6.0 会创建syslog.0.gz
到syslog.7.gz
,而 ESXi 6.7 会创建syslog.0.gz
到syslog.6.gz
。 -
如果将高级配置选项
/Misc/MCEMonitorInterval
设置为非常大的值,则由于定时器溢出,ESXi 主机可能会在 10 天左右的正常运行时间内变得无响应。 -
P2MCache 锁是一种自旋锁,会导致 CPU 性能降低,从而可能会导致其他 CPU 不足。因此,ESXi 主机可能会失败并显示紫色诊断屏幕和
转数已超出 - 可能出现死锁、PVSCSIDoIOComplet、NFSAsyncIOComplete (Spin count exceeded - possible deadlock, PVSCSIDoIOComplet, NFSAsyncIOComplete)
错误。 -
由于请求完成路径中存在争用状况,因此,在 NFS 数据存储之间执行 Storage vMotion 操作期间,ESXi 主机可能会失败并显示紫色诊断屏幕。NFS 堆栈中出现高 I/O 负载的情况下,会发生争用状况。
-
在磁盘取消配置操作过程中,取消配置工作流中的争用状况可能会导致 ESXi 主机失败并显示紫色诊断屏幕。
-
如果在物理网卡上启用 RSS,ESXi 主机可能会失败并显示紫色诊断屏幕。您可能会看到类似以下内容的回溯追踪:
yyyy-mm-dd cpu9:2097316)0x451a8521bc70:[0x41801a68ad30]RSSPlugCleanupRSSEngine@(lb_netqueue_bal)#+0x7d stack: 0x4305e4c1a8e0, 0x41801a68af2b, 0x430db8c6b188, 0x4305e4c1a8e0,
0x0yyyy-mm-dd cpu9:2097316)0x451a8521bc90:[0x41801a68af2a]RSSPlugInitRSSEngine@(lb_netqueue_bal)#+0x127 stack: 0x0, 0x20c49ba5e353f7cf, 0x4305e4c1a930, 0x4305e4c1a800, 0x4305e4c1a9f0
yyyy-mm-dd cpu9:2097316)0x451a8521bcd0:[0x41801a68b21c]RSSPlug_PreBalanceWork@(lb_netqueue_bal)#+0x1cd stack: 0x32, 0x32, 0x0, 0xe0, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd30:[0x41801a687752]Lb_PreBalanceWork@(lb_netqueue_bal)#+0x21f stack: 0x4305e4c1a800, 0xff, 0x0, 0x43057f38ea00, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd80:[0x418019c13b18]UplinkNetqueueBal_BalanceCB@vmkernel#nover+0x6f1 stack: 0x4305e4bc6088, 0x4305e4c1a840, 0x4305e4c1a800, 0x4305e435fb30, 0x4305e4bc6088
yyyy-mm-dd cpu9:2097316)0x451a8521bf00:[0x418019cd1c89]UplinkAsyncProcessCallsHelperCB@vmkernel#nover+0x116 stack: 0x430749e60870, 0x430196737070, 0x451a85223000, 0x418019ae832b, 0x430749e60088
yyyy-mm-dd cpu9:2097316)0x451a8521bf30:[0x418019ae832a]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430749e600b8, 0x430749e600a8, 0x430749e600e0, 0x451a85223000, 0x430749e600b8
yyyy-mm-dd cpu9:2097316)0x451a8521bfe0:[0x418019d081f2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0, 0x0, 0x0, 0x0, 0x0 -
当 VASA 提供程序向 ESXi 主机发送重新绑定请求以切换特定 vSphere Virtual Volumes 驱动程序的绑定时,ESXi 主机可能会切换协议端点和其他资源以更改绑定,而不会有任何 I/O 干扰。因此,ESXi 主机可能会失败并显示紫色诊断屏幕。
-
某些 IPMI 传感器可能会间歇性地从绿色更改为红色或从红色更改为绿色,这会产生无效的硬件运行状况警报。
-
如果安装异步 32 位 IMA 插件,则已安装 32 位 IMA 插件时,系统可能会尝试加载这些插件,并检查它们是否从 QLogic 独立 iSCSI 适配器加载。在此过程中,ESXi 主机可能会失败并显示内存准入错误。
-
如果使用 Site Recovery Manager 运行重新保护操作,则当虚拟机的初始同步出现延迟时,该操作可能会失败。您可能会看到类似于以下内容的错误消息:
VR 同步对于 VRM 组 {…} 失败。操作超时: 10800 秒 (VR synchronization failed for VRM group {…}. Operation timed out: 10800 seconds)
-
当在 HPE 3PAR 存储中的 Virtual Volumes 的某协议端点上启用 I/O 限制时,如果某辅助 LUN 上的 I/O 失败,并显示错误
TASK_SET_FULL
,则与该协议端点关联的所有辅助 LUN 上的 I/O 速度将变慢。 -
qlnativefc 驱动程序已更新到版本 3.1.8.0。
-
nfnic 驱动程序已更新到版本 4.0.0.17。
-
Emulex 驱动程序可能会在
/var/logs/EMU/mili/mili2d.log
中写入日志,并填满 RAM 驱动器的 40 MB/var
文件系统日志。 -
ESXi 6.7 Update 2 增加了对 Solarflare 10G 和 40G 网络适配器设备(例如,SFN8542 和 SFN8522)的 Solarflare 本机驱动程序 (sfvmk) 支持。
-
lsi-msgpt2 驱动程序已更新到版本 20.00.05.00,增强了任务管理功能并修复了严重错误。
-
您可能无法在 lsi-msgpt35 控制器下定位并打开磁盘的 LED。
-
如果在内置 nvme 驱动程序中取消拆分 I/O 请求,由于命令类型检查错误,命令完成路径可能会解锁队列锁定。这可能会导致 ESXi 主机失败并显示紫色诊断屏幕。
-
VMware 内置 NVMe 驱动程序仅支持值为 0h 的门铃步幅,不能使用任何其他值,也看不到门铃步幅不同于 0h 的 NVMe 设备。
-
对于某些 Dell 品牌的 NVMe 设备和 Marvell NR2241,通过运行
esxcfg-scsidevs –a
命令或查看界面来查看 NVMe 设备信息时,显示的设备信息可能不正确。 -
Broadcom lsi-mr3 驱动程序已升级到版本 MR 7.8。
-
lsi-msgpt35 驱动程序已更新到版本 09.00.00.00-1vmw。
-
lsi-msgpt3 驱动程序已更新到版本 17.00.01.00-3vmw。
-
配置文件名称 | ESXi-6.7.0-20190401001s-standard |
内部版本 | 有关内部版本信息,请参见本版本中包含的修补程序。 |
供应商 | VMware, Inc. |
发布日期 | 2018 年 4 月 11 日 |
接受级别 | 合作伙伴支持 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
受影响的 VIB |
|
已修复的 PR | 2228005、2301046、2232983、2222019、2224776、2260077、2232955 |
相关的 CVE 编号 | 不适用 |
此修补程序更新了以下问题:
-
-
由于 sfcbd 服务无法处理所有派生进程,可能会在
vmkernel.log 中看到许多错误消息,例如,Heap globalCartel-1 already at its maximum size.
Cannot expand.
。因此,ESXi 主机可能会变得无响应,并且某些操作可能会失败。 -
NTP 守护进程已更新到版本 ntp-4.2.8p12。
-
ESXi userworld libxml2 库已更新到版本 2.9.8。
-
Python 第三方库已更新到版本 3.5.6。
-
OpenSSH 已更新到版本 7.9,以解决与标识符 CVE-2018-15473 相关的安全问题。
-
OpenSSL 软件包已更新到版本 openssl-1.0.2r。
-
配置文件名称 | ESXi-6.7.0-20190301001s-no-tools |
内部版本 | 有关内部版本信息,请参见本版本中包含的修补程序。 |
供应商 | VMware, Inc. |
发布日期 | 2018 年 3 月 28 日 |
接受级别 | 合作伙伴支持 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
受影响的 VIB |
|
已修复的 PR | 2228005、2301046、2232983、2222019、2224776、2260077、2232955 |
相关的 CVE 编号 | 不适用 |
此修补程序更新了以下问题:
-
-
由于 sfcbd 服务无法处理所有派生进程,可能会在
vmkernel.log 中看到许多错误消息,例如,Heap globalCartel-1 already at its maximum size.
Cannot expand.
。因此,ESXi 主机可能会变得无响应,并且某些操作可能会失败。 -
NTP 守护进程已更新到版本 ntp-4.2.8p12。
-
ESXi userworld libxml2 库已更新到版本 2.9.8。
-
Python 第三方库已更新到版本 3.5.6。
-
OpenSSH 已更新到版本 7.9,以解决与标识符 CVE-2018-15473 相关的安全问题。
-
OpenSSL 软件包已更新到版本 openssl-1.0.2r。
-
已知问题
已知问题分为如下类别。
ESXi670-201904201-UG修补程序类别 | 缺陷修复 |
修补程序严重性 | 严重 |
需要重新引导主机 | 是 |
需要迁移或关闭虚拟机 | 是 |
受影响的硬件 | 不适用 |
受影响的软件 | 不适用 |
包含的 VIB |
|
已修复的 PR | 2193516、2203431、2231707、2287804、2213766 |
CVE 编号 | 不适用 |
此修补程序更新了 esx-base、esx-update、vsan
和 vsanhealth
VIB。
- 主机配置文件修复可能以从 VMware vSphere Distributed Switch 中删除虚拟网络适配器结束
如果从已禁用 IPv6 支持的 ESXi 主机提取主机配置文件,并在修复该主机配置文件时覆盖了 IPv4 默认网关,可能会看到一条消息,指出将在 vSphere Distributed Switch (VDS) 上创建虚拟网络适配器(如 DSwitch0),但该适配器实际上已从 VDS 中移除。这是由
ipV6DefaultGateway
参数的“::”值所致。解决办法:在 IP 地址设置中,在 VMkernel 网络适配器的默认网关 (IPv6) 策略下,将选项从为 vmknic 选择默认 IPv6 网关更改为用户必须明确选择策略选项。
或者,编辑为 vmknic 选择默认 IPv6 网关选项,即将 Vmknic 的默认 IPv6 网关从“::”更改为“”。 - 某些客户机虚拟机可能会将它们的标识报告为空字符串
如果客户机运行的 VMware Tools 版本高于 ESXi 主机附带的 VMware Tools 版本,或者如果主机无法识别
GuestInfo
对象的guestID
参数,则某些客户机虚拟机可能会将它们的标识报告为空字符串。此问题主要影响使用 CentOS 和 VMware Photon OS 的虚拟机。解决办法:无
- 在 riser 模式下的 Intel Volume Management Device (Intel VMD) 上创建 VMFS 数据存储可能会失败
在 Intel VMD(在 riser 模式下配置)上创建 VMFS 数据存储可能会失败,即使在 ESXi 主机上将分区标记为已成功创建也会失败。您可能会看到一条类似于以下内容的错误消息:
无法创建 VMFS 数据存储 vmd2 - 操作失败 (Failed to create VMFS datastore vmd2 - Operation failed)。
解决办法:无
- vCenter Web Client 中显示重复的消息,提示删除主机子规范 nsx
如果对 ESXi 主机使用网络引导,则 vCenter Web Client 中可能显示类似于
删除主机子规范 nsx (Delete host sub specification nsx)
的重复消息,这是因为 hostd 中存在一些虚拟代码。解决办法:无。
- 由于 vpxa 代理服务失败,ESXi 主机可能会断开与 vCenter Server 系统的连接
由于
PropertyCollector
对象生成的属性更新无效而导致 vpxa 代理服务失败,ESXi 主机可能会断开与 vCenter Server 系统的连接。hostd 中的争用状况导致属性更新通知事件的顺序错误,从而致使属性更新无效。解决办法:手动将 ESXi 主机重新连接到 vCenter Server 系统。
- ESXi Syslog 服务在开始或轮换时可能会显示不准确的时间戳
当 ESXi Syslog 服务启动或重新启动时,或者当日志达到配置的最大大小并轮换时,ESXi Syslog 服务可能会显示不准确的时间戳。
解决办法:全新安装的 ESXi 已解决此问题。要修复
hostd.log
中现有配置上的这一问题,您必须:- 打开
/etc/vmsyslog.conf.d/hostd.conf
文件。 - 将
onrotate = logger -t Hostd < /var/run/vmware/hostdLogHeader.txt
替换为onrotate = printf '%%s - last log rotation time, %%s\n' "$(date --utc +%%FT%%T.%%3NZ)" "$(cat /var/run/vmware/hostdLogHeader.txt)" | logger -t Hostd
- 保存更改。
- 通过运行
/etc/init.d/vmsyslogd restart
重新启动 vmsyslogd 服务。
- 打开
- 如果挂载 AutoInstalls ISO 映像文件,虚拟机可能会停止响应
安装 VMware Tools 会卸载以
autoinst.iso
结尾的 ISO 映像文件(如果该文件已挂载到虚拟机)。要挂载 VMware Tools ISO 映像文件,必须再次单击安装 VMware Tools。因此,虚拟机可能会停止响应。解决办法:安装 VMware Tools 之前,请从 CD-ROM 驱动器中移除 ISO 映像文件,或者将其名称更改为结尾不同于
autoinst.iso
的名称。 - 无法在不同的 NSX 逻辑交换机上使用 vSphere vMotion 迁移虚拟机
在 ESXi 6.7 Update 2 中,不支持在两个不同的 NSX 逻辑交换机之间使用 vSphere vMotion 迁移虚拟机。仍可以在相同的 NSX 逻辑交换机上使用 vSphere vMotion 迁移虚拟机。
解决办法:无