ESXi 8.0 Update 1c | 2023 年 7 月 27 日 | 内部版本 22088125 请查看发行说明以了解新增内容及更新。 |
ESXi 8.0 Update 1c | 2023 年 7 月 27 日 | 内部版本 22088125 请查看发行说明以了解新增内容及更新。 |
在以下服务器中,ESXi 8.0 Update 1c 支持 vSphere Quick Boot:
Cisco Systems Inc
UCSC-C225-M6S
Dell Inc.
R660 vSAN Ready Node
R760 vSAN Ready Node
PowerEdge R660xs
PowerEdge R760xd2
PowerEdge R760xa
PowerEdge R760xs
PowerEdge R860
PowerEdge R960
PowerEdge T560
HPE
Alletra 4120
HPE Cray XD220v
ProLiant DL320 Gen11
ProLiant DL360 Gen11
ProLiant DL380 Gen11
ProLiant DL380a Gen11
ProLiant DL560 Gen11
ProLiant ML110 Gen11
ProLiant ML350 Gen11
Lenovo
ThinkSystem SR630 V3
ThinkSystem SR650 V3
ESXi 的新功能、已解决的问题和已知问题在各个版本的发行说明中均有描述。ESXi 8.0 的早期版本的发行说明包括:
有关国际化、兼容性及开源组件的说明,请参见 VMware vSphere 8.0 发行说明。
本版本 ESXi 8.0 Update 1c 提供了以下修补程序:
内部版本详细信息
下载文件名称: |
VMware-ESXi-8.0U1c-22088125-depot.zip |
内部版本: |
22088125 |
下载大小: |
949.1 MB |
sha256checksum: |
ab25ede2b6c40d6bb551f41ae43187fe124cc83853e9df25cd79ccf6836546a8 |
需要重新引导主机: |
是 |
需要迁移或关闭虚拟机: |
是 |
组件
组件 |
实体包 |
类别 |
严重性 |
---|---|---|---|
ESXi 组件 - 核心 ESXi VIB |
ESXi_8.0.1-0.25.22088125 |
缺陷修复 |
严重 |
ESXi 安装/升级组件 |
esx-update_8.0.1-0.25.22088125 |
缺陷修复 |
严重 |
ESXi 安装/升级组件 |
esxio-update_8.0.1-0.25.22088125 |
缺陷修复 |
严重 |
适用于 VMware ESXi 的 Mellanox 第五代网卡(ConnectX 和 BlueField DPU 系列)核心以太网和 RoCE 驱动程序 |
Mellanox-nmlx5_4.23.0.36-15vmw.801.0.25.22088125 |
缺陷修复 |
严重 |
Broadcom NetXtreme I ESX VMKAPI 以太网驱动程序 |
Broadcom-ntg3_4.1.10.0-5vmw.801.0.25.22088125 |
缺陷修复 |
严重 |
VMware NVMe over TCP 驱动程序 |
VMware-NVMeoF-TCP_1.0.1.7-1vmw.801.0.25.22088125 |
缺陷修复 |
严重 |
ESXi 组件 - 核心 ESXi VIB |
ESXi_8.0.1-0.20.22082334 |
安全 |
严重 |
ESXi 安装/升级组件 |
esx-update_8.0.1-0.20.22082334 |
安全 |
严重 |
ESXi 安装/升级组件 |
esxio-update_8.0.1-0.20.22082334 |
安全 |
严重 |
ESXi Tools 组件 |
VMware-VM-Tools_12.2.5.21855600-22082334 |
安全 |
严重 |
汇总实体包
此汇总实体包包含 ESXi 8.0 初始发行版之后的最新 VIB 和所有修复。
实体包 ID |
类别 |
严重性 |
详细信息 |
---|---|---|---|
ESXi80U1c-22088125 |
缺陷修复 |
严重 |
安全修复和错误修复 |
ESXi80U1sc-22082334 |
安全 |
严重 |
仅安全修复 |
映像配置文件
VMware 修补程序版本和更新版本包含常规映像配置文件和重要映像配置文件。常规版本映像配置文件仅适用于新的缺陷修复。
映像配置文件名称 |
---|
ESXi-8.0U1c-22088125-standard |
ESXi-8.0U1c-22088125-no-tools |
ESXi-8.0U1sc-22082334-standard |
ESXi-8.0U1sc-22082334-no-tools |
ESXi 映像
名称和版本 |
发布日期 |
类别 |
详细信息 |
---|---|---|---|
ESXi 8.0 U1c - 22088125 |
2023 年 7 月 27 日 |
缺陷修复 |
安全和缺陷修复映像 |
ESXi 8.0 U1sc - 22082334 |
2023 年 7 月 27 日 |
安全 |
仅安全映像 |
有关使用 vSphere Lifecycle Manager 更新和升级的详细信息,请参见关于 vSphere Lifecycle Manager 和 vSphere Lifecycle Manager 基准和映像。也可以使用映像配置文件更新 ESXi 主机,而不使用 vSphere Lifecycle Manager。为此,必须手动从 VMware Customer Connect 下载修补程序脱机包 ZIP 文件。从选择产品下拉菜单中选择 ESXi (Embedded 和 Installable),然后从选择版本下拉菜单中选择 8.0。有关详细信息,请参见使用 ESXCLI 命令升级主机和 VMware ESXi 升级指南。
修补程序类别 |
缺陷修复 |
修补程序严重性 |
严重 |
需要重新引导主机 |
是 |
需要迁移或关闭虚拟机 |
是 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
受影响的 VIB |
|
已修复的 PR |
3239946、3239870、3210610、3228383、3248279、3179236、3183209、3219196、3229111、3221890、3219889、3223909、3225464、3228391、3158175、3217410、3211624、3223427、3223420、3181600、3212384、3221902、3219121、3219196、3222717、3221598、3210610、3181603、3213042、3221593、3210931、3210931、3221549、3161147、3213110、3219262、3118977、3217167、3210610、3210610、3219971、3112043、3218145、3218218、3217477、3214491、3166665、3210840、3210837、3210956、3213914、3212431、3187725、3213177、3185230、3213207、3187539、2625439、3122074、3197383、3187416、3187420、3118241、3176359、3184331、3182257、3187875、3187547、3210192、3180881、3163270、3179236、3157222、3187709、3187716、3187494、3186022、3188105、3183522、3166280、3183038、3183531、3183526、3184327、3166566、3171992、3172063、3159074、3181553、3183529、3146205、3038908、3038908、3153396、3038908、3038908、3038908、3179111 |
CVE 编号 |
不适用 |
更新了 esxio-combiner-esxio, esxio-base, esxio-dvfilter-generic-fastpath, vdfs, bmcal, clusterstore, native-misc-drivers-esxio, gc-esxio, esxio, bmcal-esxio, esxio-combiner, gc, esx-xserver, vsan, esx-base, trx, native-misc-drivers, cpu-microcode, vsanhealth
和 crx
VIB 以解决下列问题:
暂时性 vSAN 运行状况检查警告:网络配置未同步
vSAN Skyline Health 可能会随机报告网络配置不同步。vSAN Health Service 使用过时的 vCenter 配置执行单播检查时,会出现此暂时性问题。
本版本已解决该问题。
两个操作之间的争用情况可能会导致元数据不一致
在极少数情况下,VMDK 上的取消映射操作与同一对象上的并发快照创建操作之间的争用情况可能会导致 vSAN 主机中该对象的 vSAN 元数据不一致。这种不一致可能会导致虚拟机故障或主机故障。
本版本已解决该问题。
ESX 主机可能会出现故障,并显示紫色诊断屏幕和错误“NMI IPI: 另一个 PCPU 请求了应急 (NMI IPI: Panic requested by another PCP)”
资源池缓存是一个 VMFS 特定的卷级别缓存,用于存储与 VMFS 卷对应的资源集群。搜索优先级集群时,缓存刷新器工作流会遍历大量缓存资源集群,从而可能会导致物理 CPU 锁定。因此,ESX 主机可能会出现故障并显示紫色诊断屏幕。在 logDump
文件中,您会看到诸如以下内容的错误:
^[[7m2022-10-22T07:56:47.322Z cpu13:2101160)WARNING: Heartbeat: 827: PCPU 0 didn't have a heartbeat for 7 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.^[[0m
^[[31;1m2022-10-22T07:56:47.322Z cpu0:2110633)ALERT: NMI: 710: NMI IPI: RIPOFF(base):RBP:CS
本版本已解决该问题。
ESXi ConfigStore 数据库填满,写入失败
与块设备相关的失效数据可能未及时从 ESXi ConfigStore 数据库中删除,从而导致出现空间不足的情况。因此,向 ConfigStore 写入数据的操作开始失败。在回溯追踪中,您会看到类似以下内容的日志:
2022-12-19T03:51:42.733Z cpu53:26745174)WARNING: VisorFSRam: 203: Cannot extend visorfs file /etc/vmware/configstore/current-store-1-journal because its ramdisk (configstore) is full
。
本版本已解决该问题。
延迟对处于不正常状态的 vSAN 存储设备执行撤出
检测到设备不正常后,本地日志结构化对象管理器 (LSOM) 可能会等待 10 分钟 (LSOM_DEVICE_MONITORING_INTERVAL),然后才对这些设备启动撤出。
本版本已解决该问题。
vSAN 维护模式或磁盘取消配置预检查不会列出可能失去可访问性的对象
此问题会影响具有重新同步组件的对象,并且某些组件位于要移除或置于维护模式的设备上。使用无操作选项运行预检查时,预检查不会正确评估对象以在 inaccessibleObjects
列表中报告该对象。
本版本已解决该问题。预检查在 inaccessibleObjects
列表中包含所有受影响的对象。
vSAN iSCSI 目标服务可能会由于很少见的争用情况而失败
运行 ESXCLI 命令 esxcli network firewall load
时,该操作不会重新加载现有的动态防火墙规则,这些规则会丢失。运行 ESXCLI 命令 esxcli network firewall refresh
时,该操作会重新加载现有的动态防火墙规则,但在某些情况下,争用情况可能会导致某些规则丢失。仅当同时运行多个防火墙刷新命令导致出现争用情况时,才会出现此问题。因此,vSAN iSCSI 目标服务可能会失败。
本版本已解决该问题。
手动编辑 VMX 文件时,设置已关闭电源的加密虚拟机的屏幕分辨率并不总是有效
如果通过编辑 VMX 文件手动指定已关闭电源的加密虚拟机的屏幕分辨率,则更改可能不会生效。
本版本已解决该问题。
如果 Internet 控制消息协议 (ICMPA) 未处于活动状态,则升级到 vSphere 8.0 及更高版本后,ESXi 主机重新引导可能需要很长时间
如果 ICMPA 在环境中的 NFS 服务器上处于非活动状态,则将系统升级到 vSphere 8.0 及更高版本后,ESXi 主机重新引导可能需要一个小时才能完成,因为 NFS 数据存储的还原操作失败。在执行挂载操作之前,NFS 使用 vmkping
实用程序确定 NFS 服务器的可访问 IP,如果 ICMP 处于非活动状态,挂载操作将失败。
本版本已解决该问题。为了消除在查找可访问的 IP 时对 ICMP 协议的依赖性,此修复增加了套接字 API,以确保给定 NFS 服务器上的 IP 可用。
迁移最近热添加了内存的虚拟机时,ESXi 主机可能会反复出现故障并显示紫色诊断屏幕
由于内存热插拔模块在迁移后重新计算目标主机上虚拟机的 NUMA 内存布局时存在争用情况,ESXi 主机可能会反复出现故障并显示紫色诊断屏幕。在回溯追踪中,您会看到类似以下内容的错误:
0x452900262cf0:[0x4200138fee8b]PanicvPanicInt@vmkernel#nover+0x327 stack: 0x452900262dc8, 0x4302f6c06508, 0x4200138fee8b, 0x420013df1300, 0x452900262cf0 0x452900262dc0:[0x4200138ff43d]Panic_WithBacktrace@vmkernel#nover+0x56 stack: 0x452900262e30, 0x452900262de0, 0x452900262e40, 0x452900262df0, 0x3e7514 0x452900262e30:[0x4200138fbb90]NMI_Interrupt@vmkernel#nover+0x561 stack: 0x0, 0xf48, 0x0, 0x0, 0x0 0x452900262f00:[0x420013953392]IDTNMIWork@vmkernel#nover+0x7f stack: 0x420049800000, 0x4200139546dd, 0x0, 0x452900262fd0, 0x0 0x452900262f20:[0x4200139546dc]Int2_NMI@vmkernel#nover+0x19 stack: 0x0, 0x42001394e068, 0xf50, 0xf50, 0x0 0x452900262f40:[0x42001394e067]gate_entry@vmkernel#nover+0x68 stack: 0x0, 0x43207bc02088, 0xd, 0x0, 0x43207bc02088 0x45397b61bd30:[0x420013be7514]NUMASched_PageNum2PhysicalDomain@vmkernel#nover+0x58 stack: 0x1, 0x420013be34c3, 0x45396f79f000, 0x1, 0x100005cf757 0x45397b61bd50:[0x420013be34c2]NUMASched_UpdateAllocStats@vmkernel#nover+0x4b stack: 0x100005cf757, 0x0, 0x0, 0x4200139b36d9, 0x0 0x45397b61bd80:[0x4200139b36d8]VmMem_NodeStatsSub@vmkernel#nover+0x59 stack: 0x39, 0x45396f79f000, 0xbce0dbf, 0x100005cf757, 0x0 0x45397b61bdc0:[0x4200139b4372]VmMem_FreePageNoBackmap@vmkernel#nover+0x8b stack: 0x465ec0001be0, 0xa, 0x465ec18748b0, 0x420014e7685f, 0x465ec14437d0
本版本已解决该问题。
vSAN 集群关闭在禁用了 IPv6 的集群上失败
运行 ESXi 8.0 Update 1 且禁用了 IPv6 的 vSAN 主机上会出现此问题。使用 vSAN 集群关闭向导时,该工作流将失败并显示以下错误消息:'NoneType' object is not iterable
。
本版本已解决该问题。
即使未启用 SNMP,也会在 /var/spool 下的 SNMP 目录中看到陷阱文件
hostd 服务启动后(例如,ESXi 主机重新引导后),可能会在 /var/spool
下创建 SNMP 目录,并且您会看到许多 .trp
文件堆积在此目录中。
本版本已解决该问题。此修复可确保仅当启用 SNMP 时目录 /var/spool/snmp
才存在。
hostd 服务反复失败,并且 ESXi 主机与 vCenter 系统断开连接
如果由于任何原因 ESXi 主机暂时处于内存不足的状态,则由于 vSphere Replication 筛选器阻止分配位图,hostd 服务可能会反复失败。因此,ESXi 主机将与 vCenter 系统断开连接,并且无法重新连接。
本版本已解决该问题。
对 NSX 管理的工作负载虚拟机运行服务插入期间,某些虚拟机可能会变得间歇性无响应,并且虚拟设备可能会重置
对 NSX 管理的工作负载虚拟机运行服务插入期间,数据包列表可能会从一个交换机端口的输入链重新插入到另一个交换机端口。在这种情况下,源交换机端口与输入链的实际 portID 不对应,并且虚拟设备不会获取传输帧的完成状态。因此,运行服务插入任务时,某些虚拟机可能会由于网络连接问题而变得间歇性无响应。
本版本已解决该问题。
AMD CPU 上运行的某些嵌套虚拟机的性能可能会下降
由于 AMD 的快速虚拟化索引 (RVI)(也称为嵌套页表 (NPT))虚拟化存在问题,使用 Windows 等操作系统并启用基于虚拟化的安全性 (VBS) 时,AMD CPU 上运行的嵌套虚拟机可能会出现性能下降、超时或无响应。
本版本已解决该问题。
更改正在运行的虚拟机的虚拟磁盘模式可能会导致虚拟机出现故障
如果使用 VMware Host Client 编辑正在运行的虚拟机的磁盘模式(例如,从“独立 - 非持久”更改为“从属”或“独立 - 持久”),则该操作将失败并可能导致虚拟机出现故障。在 vmware.log 中,您会看到类似以下内容的错误:
msg.disk.notConfigured2] Failed to configure disk 'scsi0:4'. The virtual machine cannot be powered on with an unconfigured disk.
[msg.checkpoint.continuesync.error] An operation required the virtual machine to quiesce and the virtual machine was unable to continue running.
本版本已解决该问题。此修复可阻止使用 VMware Host Client 更改正在运行的虚拟机上“独立 - 非持久”磁盘的模式。vSphere Client 已阻止此类操作。
ESXi NVMe/TCP 启动器在目标故障恢复后无法恢复路径
NVMe/TCP 目标从故障恢复时,ESXi 无法恢复路径。
本版本已解决该问题。
ESXi 主机变得无响应,并且您无法将主机置于维护模式,也无法将虚拟机从该主机迁移出去
异步读取附加到 ESXi 主机的 VMFS 卷上的元数据可能会导致与主机上的其他线程发生争用情况,从而导致主机无响应。因此,您无法将主机置于维护模式,也无法将虚拟机从该主机迁移出去。
本版本已解决该问题。
逻辑卷管理器 (LVM) 磁盘在数据存储扩展期间脱机
如果在集群中的某个 ESXi 主机上执行数据存储扩展期间运行存储刷新,则 LVM 数据区可能会脱机,并且此卷上的虚拟机变得无响应。出现此问题的原因是,存储刷新操作会触发刷新集群中所有 ESXi 主机上的卷属性,但速度缓慢。因此,磁盘上的 LVM 元数据可能与可插入存储架构 (PSA) 层中的缓存容量信息不匹配,出于元数据和数据的安全考虑,ESXi 将 LVM 数据区标记为脱机。
本版本已解决该问题。
SCSI LUN 的持久名称可能未设置
符合 SCSI-3 标准的设备的持久名称属性来自 T10 和 SMI 标准定义的重要产品数据 (VPD) 的 80h
和 83h
页。为填充持久名称,ESXi 会先发送查询命令以获取设备支持的 VPD 页列表。然后,ESXi 又发出命令,获取所有受支持 VPD 页的数据。由于目标阵列存在问题,设备执行某个命令时可能会失败,导致无法获取列表中某页的 VPD 页数据,并显示 not supported
错误。因此,ESXi 无法填充设备的持久名称属性。
本版本已解决该问题。除 80h
和 83h
页之外,如果生成持久名称时不需要 VPD 页数据,则此修复会忽略获取该 VPD 页数据的命令上的错误。
NVMe over Fibre Channel 发生已链接事件后,使用 ESXi 高性能插件 (HPP) 进行路径恢复的时间过长
在某些情况下,发生光纤通道已链接事件后,HPP 管理的 NVMe over Fibre Channel 路径可能需要长达 5 分钟的时间才能恢复。
本版本已解决该问题。
NVMe over Fabrics 控制器可能会在发现期间意外断开连接
如果在 ESXi 主机上支持持久发现控制器的 NVMe over Fabrics 存储目标已存在发现控制器和 I/O 控制器,则并发 NVMe over Fabrics 控制器发现操作可能会导致某些 I/O 控制器意外断开连接。
本版本已解决该问题。
如果 ESXi PTP 服务使用硬件时间戳,则在交换机上启用 IGMP 侦听可能会导致同步失败
在已连接的交换机上启用 Internet 组管理协议 (IGMP) 侦听时,精度时间协议 (PTP) 客户端需要发送 IGMP 多播请求以接收来自最高级节点的 PTP 多播流。如果 ESXi PTP 代理基于硬件时间戳,则代理可能无法向交换机发送 IGMP 加入/退出请求。因此,PTP 多播流无法继续传输到 ESXi 主机,并阻止正确的 PTP 同步。
本版本已解决该问题。有关更多详细信息,请参见 VMware 知识库文章 92276。
如果在同一集群中的两个 ESXi 主机上对同一 VMFS 卷并行运行卷扩展和卷刷新操作,则 VMFS 卷可能会脱机
在 vCenter 集群中的一个 ESXi 主机上执行 VMFS 卷扩展操作时,如果用户或 vCenter 在另一主机上对同一 VMFS 卷容量进行刷新,则此卷可能会脱机。出现此问题的原因是,在设备重新扫描期间卷元数据中磁盘上标记的设备大小可能与主机上可插入存储架构 (PSA) 层中的设备大小值不匹配,如果设备重新扫描未完成,此值可能不会更新。
本版本已解决该问题。此修复提高了卷管理器代码的弹性,可在 vCenter 报告设备大小不匹配时强制连续刷新设备属性并重新比较设备大小。
针对无状态 ESXi 主机的操作可能不会为系统缓存选择预期的远程磁盘,从而导致修复或合规性问题
针对无状态 ESXi 主机的操作(如存储迁移)可能不会为系统缓存选择预期的远程磁盘。例如,您希望将新的引导 LUN 保留为 LUN 0,但 vSphere Auto Deploy 选择了 LUN 1。
本版本已解决该问题。此修复提供了一致的方式来对远程磁盘进行排序,并始终选择 LUN ID 最小的磁盘。要确保启用此修复,请按照以下步骤操作:
在 Auto Deploy 向导的“编辑主机配置文件”页面上,选择高级配置设置 > 系统映像缓存配置
在系统映像缓存配置文件设置下拉菜单中,选择在主机上启用无状态缓存。
编辑第一个磁盘的参数,将 remote 替换为 sortedremote 和/或将 remoteesx 替换为 sortedremoteesx。
VMware VIB 安装可能会在同时安装多个供应商软件包期间失败
安装多个供应商(如 JetStream Software、Microsoft 和 VMware)提供的更新软件包时,多个客户端会调用相同的 PatchManager API,这可能会导致争用情况。因此,VMware 安装软件包 (VIB) 可能无法安装。在日志中,您会看到类似以下内容的错误:vim.fault.PlatformConfigFault
,这是一个统包故障,表明在配置 ESXi 主机时发生了一些错误。在 vSphere Client 中,您会看到类似以下内容的消息:An error occurred during host configuration
。
本版本已解决该问题。此修复将返回 TaskInProgress
警告,而不是 PlatformConfigFault
,以便您了解实际问题并重试安装。
某些应用程序可能会使用过多 ESXi 文件句柄,从而导致性能下降
在极少数情况下,NVIDIA 虚拟 GPU (vGPU) 等应用程序可能会使用大量文件句柄,导致 ESXi 无法处理其他服务或虚拟机。因此,您可能会看到某些节点上的 GPU 消失,或者报告 GPU 内存为零或性能下降。
本版本已解决该问题。此修复减少了 vGPU 虚拟机可以使用的文件句柄数。
如果从 OVF 文件或内容库部署虚拟机,则该虚拟机的每插槽内核数将设置为 1
如果从 OVF 文件或内容库部署虚拟机,而不是让 ESXi 自动选择每插槽内核数,则该数字将预设为 1。
本版本已解决该问题。
修补程序类别 |
缺陷修复 |
修补程序严重性 |
严重 |
需要重新引导主机 |
是 |
需要迁移或关闭虚拟机 |
是 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
受影响的 VIB |
|
已修复的 PR |
不适用 |
CVE 编号 |
不适用 |
更新了 loadesx
和 esx-update
VIB。
修补程序类别 |
缺陷修复 |
修补程序严重性 |
严重 |
需要重新引导主机 |
是 |
需要迁移或关闭虚拟机 |
是 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
受影响的 VIB |
|
已修复的 PR |
不适用 |
CVE 编号 |
不适用 |
更新了 loadesxio
和 esxio-update
VIB。
修补程序类别 |
缺陷修复 |
修补程序严重性 |
严重 |
需要重新引导主机 |
是 |
需要迁移或关闭虚拟机 |
是 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
包含的 VIB |
|
已修复的 PR |
3152476 |
CVE 编号 |
不适用 |
更新了nmlx5-rdma, nmlx5-core, nmlx5-rdma-esxio
和 nmlx5-core-esxio
VIB 以解决下列问题:
在某些情况下,您可能会看到 Mellanox 网卡封装流量的吞吐量较低
在非增强型数据路径模式下,使用 Mellanox (nmlx5) 驱动程序的网卡的封装流量吞吐量可能较低,并且您可能会看到 RSS 队列之间的流量不均匀。
本版本已解决该问题。
修补程序类别 |
缺陷修复 |
修补程序严重性 |
严重 |
需要重新引导主机 |
是 |
需要迁移或关闭虚拟机 |
是 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
包含的 VIB |
|
已修复的 PR |
3187446 |
CVE 编号 |
不适用 |
更新了ntg3
VIB 以解决下列问题:
将 ntg3 驱动程序升级到版本 4.1.9.0-4vmw 后,具有光纤物理连接的 Broadcom 网卡可能会断开网络连接
ntg3 驱动程序版本 4.1.9.0-4vmw
中的更改可能会导致光纤物理层出现链路问题,并且某些网卡(例如 Broadcom 1 Gb)上的连接无法连通。
本版本已解决该问题。
修补程序类别 |
缺陷修复 |
修补程序严重性 |
严重 |
需要重新引导主机 |
是 |
需要迁移或关闭虚拟机 |
是 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
包含的 VIB |
|
已修复的 PR |
3219191 |
CVE 编号 |
不适用 |
更新了nvmetcp
VIB 以解决下列问题:
在具有 NVMe/TCP 配置的 ESXi 主机上,自动发现 NVMe 发现服务可能会失败
vSphere 8.0 在 ESXi 中增加了高级 NVMe-oF 发现服务支持,可动态发现符合标准的 NVMe 发现服务。ESXi 使用 mDNS/DNS-SD 服务获取网络上活动 NVMe-oF 发现服务的 IP 地址和端口号等信息。但是,在启用了 NVMe/TCP 的 ESXi 服务器中,配置为使用 vSphere Distributed Switch 的网络上的自动发现可能会失败。此问题不会影响使用标准交换机的 NVMe/TCP 配置。
本版本已解决该问题。
修补程序类别 |
安全 |
修补程序严重性 |
严重 |
需要重新引导主机 |
是 |
需要迁移或关闭虚拟机 |
是 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
包含的 VIB |
|
已修复的 PR |
3229052、3222888、3184515、3184505、3210921、3219294、3217139、3215295、3184512、3184517、3213042、3184513、3184506、3186149 |
CVE 编号 |
不适用 |
更新了bmcal-esxio, native-misc-drivers, esx-dvfilter-generic-fastpath, vsan, bmcal, esx-base, trx, gc-esxio, gc, esxio, esx-xserver, cpu-microcode, esxio-combiner-esxio, esxio-dvfilter-generic-fastpath, vsanhealth, vds-vsip, clusterstore, native-misc-drivers-esxio, esxio-combiner, esxio-base, vdfs
和 crx VIB 以解决下列问题:
ESXi 8.0 Update 1c 提供了以下安全更新:
Envoy 代理已更新到版本 v1.23.9。
ESXi userworld libxml2 库已更新到版本 2.10.4。
cURL 库已更新到版本 8.0.1。
Go 库已更新到版本 1.19.9。
etcd 软件包已更新到 3.4.25。
修补程序类别 |
安全 |
修补程序严重性 |
严重 |
需要重新引导主机 |
是 |
需要迁移或关闭虚拟机 |
是 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
包含的 VIB |
|
已修复的 PR |
不适用 |
CVE 编号 |
不适用 |
更新了esx-update
和 loadesx
VIB。
修补程序类别 |
安全 |
修补程序严重性 |
严重 |
需要重新引导主机 |
是 |
需要迁移或关闭虚拟机 |
是 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
包含的 VIB |
|
已修复的 PR |
不适用 |
CVE 编号 |
不适用 |
更新了loadesxio
和 esxio-update
VIB。
修补程序类别 |
安全 |
修补程序严重性 |
严重 |
需要重新引导主机 |
否 |
需要迁移或关闭虚拟机 |
否 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
包含的 VIB |
|
已修复的 PR |
3186166 |
CVE 编号 |
不适用 |
更新了 tools-light
VIB。
以下 VMware Tools ISO 映像与 ESXi 8.0 Update 1c 捆绑在一起:
windows.iso:VMware Tools 12.2.5 支持 Windows 7 SP1 或 Windows Server 2008 R2 SP1 及更高版本。
linux.iso:适用于安装了 glibc 2.11 或更高版本的 Linux 操作系统的 VMware Tools 10.3.25 ISO 映像。
以下 VMware Tools ISO 映像可供下载:
VMware Tools 11.0.6:
windows.iso:适用于 Windows Vista (SP2) 和 Windows Server 2008 Service Pack 2 (SP2)。
VMware Tools 10.0.12:
winPreVista.iso:适用于 Windows 2000、Windows XP 和 Windows 2003。
linuxPreGLibc25.iso:支持低于 Red Hat Enterprise Linux (RHEL) 5、SUSE Linux Enterprise Server (SLES) 11、Ubuntu 7.04 以及 glibc 版本低于 2.5 的其他发行版的 Linux 客户机操作系统。
solaris.iso:适用于 Solaris 的 VMware Tools 映像 10.3.10。
darwin.iso:支持 Mac OS X 版本 10.11 及更高版本。VMware Tools 12.1.0 是适用于 macOS 的最后一个常规版本。有关详细信息,请参阅 VMware 知识库文章 88698。
下载未与 ESXi 捆绑的平台对应的 VMware Tools 时,请遵循以下文档中列出的步骤:
配置文件名称 |
ESXi-8.0U1c-22088125-standard |
内部版本 |
有关内部版本信息,请参见本版本中包含的修补程序。 |
供应商 |
VMware, Inc. |
发布日期 |
2023 年 7 月 27 日 |
接受级别 |
合作伙伴支持 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
受影响的 VIB |
|
已修复的 PR |
3239946、3239870、3210610、3228383、3248279、3179236、3183209、3219196、3229111、3221890、3219889、3223909、3225464、3228391、3158175、3217410、3211624、3223427、3223420、3181600、3212384、3221902、3219121、3219196、3222717、3221598、3210610、3181603、3213042、3221593、3210931、3210931、3221549、3161147、3213110、3219262、3118977、3217167、3210610、3210610、3219971、3112043、3218145、3218218、3217477、3214491、3166665、3210840、3210837、3210956、3213914、3212431、3187725、3213177、3185230、3213207、3187539、2625439、3122074、3197383、3187416、3187420、3118241、3176359、3184331、3182257、3187875、3187547、3210192、3180881、3163270、3179236、3157222、3187709、3187716、3187494、3186022、3188105、3183522、3166280、3183038、3183531、3183526、3184327、3166566、3171992、3172063、3159074、3181553、3183529、3146205、3038908、3038908、3153396、3038908、3038908、3038908、3179111、3152476、3187446、3219191 |
相关的 CVE 编号 |
不适用 |
此修补程序更新了以下问题:
手动编辑 VMX 文件时,设置已关闭电源的加密虚拟机的屏幕分辨率并不总是有效
如果通过编辑 VMX 文件手动指定已关闭电源的加密虚拟机的屏幕分辨率,则更改可能不会生效。
本版本已解决该问题。
暂时性 vSAN 运行状况检查警告:网络配置未同步
vSAN Skyline Health 可能会随机报告网络配置不同步。vSAN Health Service 使用过时的 vCenter 配置执行单播检查时,会出现此暂时性问题。
本版本已解决该问题。
vSAN 缓存覆盖问题可能会导致元数据不一致
在极少数情况下,取消映射操作与快照操作之间的争用可能会导致 vSAN 主机中的 vSAN 元数据不一致。这种不一致可能会导致不可预知的后果,包括虚拟机故障或主机故障。
本版本已解决该问题。
ESX 主机可能会出现故障,并显示紫色诊断屏幕和错误“NMI IPI: 另一个 PCPU 请求了应急 (NMI IPI: Panic requested by another PCP)”
资源池缓存是一个 VMFS 特定的卷级别缓存,用于存储与 VMFS 卷对应的资源集群。搜索优先级集群时,缓存刷新器工作流会遍历大量缓存资源集群,从而可能会导致物理 CPU 锁定。因此,ESX 主机可能会出现故障并显示紫色诊断屏幕。在 logDump
文件中,您会看到诸如以下内容的错误:
^[[7m2022-10-22T07:56:47.322Z cpu13:2101160)WARNING: Heartbeat: 827: PCPU 0 didn't have a heartbeat for 7 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.^[[0m
^[[31;1m2022-10-22T07:56:47.322Z cpu0:2110633)ALERT: NMI: 710: NMI IPI: RIPOFF(base):RBP:CS
本版本已解决该问题。
ESXi ConfigStore 数据库填满,写入失败
与块设备相关的失效数据可能未及时从 ESXi ConfigStore 数据库中删除,从而导致出现空间不足的情况。因此,向 ConfigStore 写入数据的操作开始失败。在回溯追踪中,您会看到类似以下内容的日志:
2022-12-19T03:51:42.733Z cpu53:26745174)WARNING: VisorFSRam: 203: Cannot extend visorfs file /etc/vmware/configstore/current-store-1-journal because its ramdisk (configstore) is full
。
本版本已解决该问题。
延迟对处于不正常状态的 vSAN 存储设备执行撤出
检测到设备不正常后,本地日志结构化对象管理器 (LSOM) 可能会等待 10 分钟 (LSOM_DEVICE_MONITORING_INTERVAL),然后才对这些设备启动撤出。
本版本已解决该问题。
vSAN 维护模式或磁盘取消配置预检查不会列出可能失去可访问性的对象
此问题会影响具有重新同步组件的对象,并且某些组件位于要移除或置于维护模式的设备上。使用无操作选项运行预检查时,预检查不会正确评估对象以在 inaccessibleObjects
列表中报告该对象。
本版本已解决该问题。预检查在 inaccessibleObjects
列表中包含所有受影响的对象。
vSAN iSCSI 目标服务可能会由于很少见的争用情况而失败
运行 ESXCLI 命令 esxcli network firewall load
时,该操作不会重新加载现有的动态防火墙规则,这些规则会丢失。运行 ESXCLI 命令 esxcli network firewall refresh
时,该操作会重新加载现有的动态防火墙规则,但在某些情况下,争用情况可能会导致某些规则丢失。仅当同时运行多个防火墙刷新命令导致出现争用情况时,才会出现此问题。因此,vSAN iSCSI 目标服务可能会失败。
本版本已解决该问题。
如果 Internet 控制消息协议 (ICMPA) 未处于活动状态,则升级到 vSphere 8.0 及更高版本后,ESXi 主机重新引导可能需要很长时间
如果 ICMPA 在环境中的 NFS 服务器上处于非活动状态,则将系统升级到 vSphere 8.0 及更高版本后,ESXi 主机重新引导可能需要一个小时才能完成,因为 NFS 数据存储的还原操作失败。在执行挂载操作之前,NFS 使用 vmkping
实用程序确定 NFS 服务器的可访问 IP,如果 ICMP 处于非活动状态,挂载操作将失败。
本版本已解决该问题。为了消除在查找可访问的 IP 时对 ICMP 协议的依赖性,此修复增加了套接字 API,以确保给定 NFS 服务器上的 IP 可用。
迁移最近热添加了内存的虚拟机时,ESXi 主机可能会反复出现故障并显示紫色诊断屏幕
由于内存热插拔模块在迁移后重新计算目标主机上虚拟机的 NUMA 内存布局时存在争用情况,ESXi 主机可能会反复出现故障并显示紫色诊断屏幕。在回溯追踪中,您会看到类似以下内容的错误:
0x452900262cf0:[0x4200138fee8b]PanicvPanicInt@vmkernel#nover+0x327 stack: 0x452900262dc8, 0x4302f6c06508, 0x4200138fee8b, 0x420013df1300, 0x452900262cf0 0x452900262dc0:[0x4200138ff43d]Panic_WithBacktrace@vmkernel#nover+0x56 stack: 0x452900262e30, 0x452900262de0, 0x452900262e40, 0x452900262df0, 0x3e7514 0x452900262e30:[0x4200138fbb90]NMI_Interrupt@vmkernel#nover+0x561 stack: 0x0, 0xf48, 0x0, 0x0, 0x0 0x452900262f00:[0x420013953392]IDTNMIWork@vmkernel#nover+0x7f stack: 0x420049800000, 0x4200139546dd, 0x0, 0x452900262fd0, 0x0 0x452900262f20:[0x4200139546dc]Int2_NMI@vmkernel#nover+0x19 stack: 0x0, 0x42001394e068, 0xf50, 0xf50, 0x0 0x452900262f40:[0x42001394e067]gate_entry@vmkernel#nover+0x68 stack: 0x0, 0x43207bc02088, 0xd, 0x0, 0x43207bc02088 0x45397b61bd30:[0x420013be7514]NUMASched_PageNum2PhysicalDomain@vmkernel#nover+0x58 stack: 0x1, 0x420013be34c3, 0x45396f79f000, 0x1, 0x100005cf757 0x45397b61bd50:[0x420013be34c2]NUMASched_UpdateAllocStats@vmkernel#nover+0x4b stack: 0x100005cf757, 0x0, 0x0, 0x4200139b36d9, 0x0 0x45397b61bd80:[0x4200139b36d8]VmMem_NodeStatsSub@vmkernel#nover+0x59 stack: 0x39, 0x45396f79f000, 0xbce0dbf, 0x100005cf757, 0x0 0x45397b61bdc0:[0x4200139b4372]VmMem_FreePageNoBackmap@vmkernel#nover+0x8b stack: 0x465ec0001be0, 0xa, 0x465ec18748b0, 0x420014e7685f, 0x465ec14437d0
本版本已解决该问题。
将 ntg3 驱动程序升级到版本 4.1.9.0-4vmw 后,具有光纤物理连接的 Broadcom 网卡可能会断开网络连接
ntg3 驱动程序版本 4.1.9.0-4vmw
中的更改可能会导致光纤物理层出现链路问题,并且某些网卡(例如 Broadcom 1 Gb)上的连接无法连通。
本版本已解决该问题。
vSAN 集群关闭在禁用了 IPv6 的集群上失败
运行 ESXi 8.0 Update 1 且禁用了 IPv6 的 vSAN 主机上会出现此问题。使用 vSAN 集群关闭向导时,该工作流将失败并显示以下错误消息:'NoneType' object is not iterable
。
本版本已解决该问题。
即使未启用 SNMP,也会在 /var/spool 下的 SNMP 目录中看到陷阱文件
hostd 服务启动后(例如,ESXi 主机重新引导后),可能会在 /var/spool
下创建 SNMP 目录,并且您会看到许多 .trp
文件堆积在此目录中。
本版本已解决该问题。此修复可确保仅当启用 SNMP 时目录 /var/spool/snmp
才存在。
hostd 服务反复失败,并且 ESXi 主机与 vCenter 系统断开连接
如果由于任何原因 ESXi 主机暂时处于内存不足的状态,则由于 vSphere Replication 筛选器阻止分配位图,hostd 服务可能会反复失败。因此,ESXi 主机将与 vCenter 系统断开连接,并且无法重新连接。
本版本已解决该问题。
AMD CPU 上运行的某些嵌套虚拟机的性能可能会下降
由于 AMD 的快速虚拟化索引 (RVI)(也称为嵌套页表 (NPT))虚拟化存在问题,使用 Windows 等操作系统并启用基于虚拟化的安全性 (VBS) 时,AMD CPU 上运行的嵌套虚拟机可能会出现性能下降、超时或无响应。
本版本已解决该问题。
更改正在运行的虚拟机的虚拟磁盘模式可能会导致虚拟机出现故障
如果使用 VMware Host Client 编辑正在运行的虚拟机的磁盘模式(例如,从“独立 - 非持久”更改为“从属”或“独立 - 持久”),则该操作将失败并可能导致虚拟机出现故障。在 vmware.log 中,您会看到类似以下内容的错误:
msg.disk.notConfigured2] Failed to configure disk 'scsi0:4'. The virtual machine cannot be powered on with an unconfigured disk.
[msg.checkpoint.continuesync.error] An operation required the virtual machine to quiesce and the virtual machine was unable to continue running.
本版本已解决该问题。此修复可阻止使用 VMware Host Client 更改正在运行的虚拟机上“独立 - 非持久”磁盘的模式。vSphere Client 已阻止此类操作。
ESXi NVMe/TCP 启动器在目标故障恢复后无法恢复路径
NVMe/TCP 目标从故障恢复时,ESXi 无法恢复路径。
本版本已解决该问题。
ESXi 主机变得无响应,并且您无法将主机置于维护模式,也无法将虚拟机从该主机迁移出去
异步读取附加到 ESXi 主机的 VMFS 卷上的元数据可能会导致与主机上的其他线程发生争用情况,从而导致主机无响应。因此,您无法将主机置于维护模式,也无法将虚拟机从该主机迁移出去。
本版本已解决该问题。
在某些情况下,您可能会看到 Mellanox 网卡封装流量的吞吐量较低
在非增强型数据路径模式下,使用 Mellanox (nmlx5) 驱动程序的网卡的封装流量吞吐量可能较低,并且您可能会看到 RSS 队列之间的流量不均匀。
本版本已解决该问题。
逻辑卷管理器 (LVM) 磁盘在数据存储扩展期间脱机
如果在集群中的某个 ESXi 主机上执行数据存储扩展期间运行存储刷新,则 LVM 数据区可能会脱机,并且此卷上的虚拟机变得无响应。出现此问题的原因是,存储刷新操作会触发刷新集群中所有 ESXi 主机上的卷属性,但速度缓慢。因此,磁盘上的 LVM 元数据可能与可插入存储架构 (PSA) 层中的缓存容量信息不匹配,出于元数据和数据的安全考虑,ESXi 将 LVM 数据区标记为脱机。
本版本已解决该问题。
SCSI LUN 的持久名称可能未设置
符合 SCSI-3 标准的设备的持久名称属性来自 T10 和 SMI 标准定义的重要产品数据 (VPD) 的 80h
和 83h
页。为填充持久名称,ESXi 会先发送查询命令以获取设备支持的 VPD 页列表。然后,ESXi 又发出命令,获取所有受支持 VPD 页的数据。由于目标阵列存在问题,设备执行某个命令时可能会失败,导致无法获取列表中某页的 VPD 页数据,并显示 not supported
错误。因此,ESXi 无法填充设备的持久名称属性。
本版本已解决该问题。除 80h
和 83h
页之外,如果生成持久名称时不需要 VPD 页数据,则此修复会忽略获取该 VPD 页数据的命令上的错误。
在具有 NVMe/TCP 配置的 ESXi 主机上,自动发现 NVMe 发现服务可能会失败
vSphere 8.0 在 ESXi 中增加了高级 NVMe-oF 发现服务支持,可动态发现符合标准的 NVMe 发现服务。ESXi 使用 mDNS/DNS-SD 服务获取网络上活动 NVMe-oF 发现服务的 IP 地址和端口号等信息。但是,在启用了 NVMe/TCP 的 ESXi 服务器中,配置为使用 vSphere Distributed Switch 的网络上的自动发现可能会失败。此问题不会影响使用标准交换机的 NVMe/TCP 配置。
本版本已解决该问题。
NVMe over Fibre Channel 发生已链接事件后,使用 ESXi 高性能插件 (HPP) 进行路径恢复的时间过长
在某些情况下,发生光纤通道已链接事件后,HPP 管理的 NVMe over Fibre Channel 路径可能需要长达 5 分钟的时间才能恢复。
本版本已解决该问题。
NVMe over Fabrics 控制器可能会在发现期间意外断开连接
如果在 ESXi 主机上支持持久发现控制器的 NVMe over Fabrics 存储目标已存在发现控制器和 I/O 控制器,则并发 NVMe over Fabrics 控制器发现操作可能会导致某些 I/O 控制器意外断开连接。
本版本已解决该问题。
如果 ESXi PTP 服务使用硬件时间戳,则在交换机上启用 IGMP 侦听可能会导致同步失败
在已连接的交换机上启用 Internet 组管理协议 (IGMP) 侦听时,精度时间协议 (PTP) 客户端需要发送 IGMP 多播请求以接收来自最高级节点的 PTP 多播流。如果 ESXi PTP 代理基于硬件时间戳,则代理可能无法向交换机发送 IGMP 加入/退出请求。因此,PTP 多播流无法继续传输到 ESXi 主机,并阻止正确的 PTP 同步。
本版本已解决该问题。有关更多详细信息,请参见 VMware 知识库文章 92276。
如果在同一集群中的两个 ESXi 主机上对同一 VMFS 卷并行运行卷扩展和卷刷新操作,则 VMFS 卷可能会脱机
在 vCenter 集群中的一个 ESXi 主机上执行 VMFS 卷扩展操作时,如果用户或 vCenter 在另一主机上对同一 VMFS 卷容量进行刷新,则此卷可能会脱机。出现此问题的原因是,在设备重新扫描期间卷元数据中磁盘上标记的设备大小可能与主机上可插入存储架构 (PSA) 层中的设备大小值不匹配,如果设备重新扫描未完成,此值可能不会更新。
本版本已解决该问题。此修复提高了卷管理器代码的弹性,可在 vCenter 报告设备大小不匹配时强制连续刷新设备属性并重新比较设备大小。
针对无状态 ESXi 主机的操作可能不会为系统缓存选择预期的远程磁盘,从而导致修复或合规性问题
针对无状态 ESXi 主机的操作(如存储迁移)可能不会为系统缓存选择预期的远程磁盘。例如,您希望将新的引导 LUN 保留为 LUN 0,但 vSphere Auto Deploy 选择了 LUN 1。
本版本已解决该问题。此修复提供了一致的方式来对远程磁盘进行排序,并始终选择 LUN ID 最小的磁盘。要确保启用此修复,请按照以下步骤操作:
在 Auto Deploy 向导的“编辑主机配置文件”页面上,选择高级配置设置 > 系统映像缓存配置
在系统映像缓存配置文件设置下拉菜单中,选择在主机上启用无状态缓存。
编辑第一个磁盘的参数,将 remote 替换为 sortedremote 和/或将 remoteesx 替换为 sortedremoteesx。
VMware VIB 安装可能会在同时安装多个供应商软件包期间失败
安装多个供应商(如 JetStream Software、Microsoft 和 VMware)提供的更新软件包时,多个客户端会调用相同的 PatchManager API,这可能会导致争用情况。因此,VMware 安装软件包 (VIB) 可能无法安装。在日志中,您会看到类似以下内容的错误:vim.fault.PlatformConfigFault
,这是一个统包故障,表明在配置 ESXi 主机时发生了一些错误。在 vSphere Client 中,您会看到类似以下内容的消息:An error occurred during host configuration
。
本版本已解决该问题。此修复将返回 TaskInProgress
警告,而不是 PlatformConfigFault
,以便您了解实际问题并重试安装。
某些应用程序可能会使用过多 ESXi 文件句柄,从而导致性能下降
在极少数情况下,NVIDIA 虚拟 GPU (vGPU) 等应用程序可能会使用大量文件句柄,导致 ESXi 无法处理其他服务或虚拟机。因此,您可能会看到某些节点上的 GPU 消失,或者报告 GPU 内存为零或性能下降。
本版本已解决该问题。此修复减少了 vGPU 虚拟机可以使用的文件句柄数。
配置文件名称 |
ESXi-8.0U1c-22088125-no-tools |
内部版本 |
有关内部版本信息,请参见本版本中包含的修补程序。 |
供应商 |
VMware, Inc. |
发布日期 |
2023 年 7 月 27 日 |
接受级别 |
合作伙伴支持 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
受影响的 VIB |
|
已修复的 PR |
3239946、3239870、3210610、3228383、3248279、3179236、3183209、3219196、3229111、3221890、3219889、3223909、3225464、3228391、3158175、3217410、3211624、3223427、3223420、3181600、3212384、3221902、3219121、3219196、3222717、3221598、3210610、3181603、3213042、3221593、3210931、3210931、3221549、3161147、3213110、3219262、3118977、3217167、3210610、3210610、3219971、3112043、3218145、3218218、3217477、3214491、3166665、3210840、3210837、3210956、3213914、3212431、3187725、3213177、3185230、3213207、3187539、2625439、3122074、3197383、3187416、3187420、3118241、3176359、3184331、3182257、3187875、3187547、3210192、3180881、3163270、3179236、3157222、3187709、3187716、3187494、3186022、3188105、3183522、3166280、3183038、3183531、3183526、3184327、3166566、3171992、3172063、3159074、3181553、3183529、3146205、3038908、3038908、3153396、3038908、3038908、3038908、3179111、3152476、3187446、3219191 |
相关的 CVE 编号 |
不适用 |
此修补程序更新了以下问题:
手动编辑 VMX 文件时,设置已关闭电源的加密虚拟机的屏幕分辨率并不总是有效
如果通过编辑 VMX 文件手动指定已关闭电源的加密虚拟机的屏幕分辨率,则更改可能不会生效。
本版本已解决该问题。
暂时性 vSAN 运行状况检查警告:网络配置未同步
vSAN Skyline Health 可能会随机报告网络配置不同步。vSAN Health Service 使用过时的 vCenter 配置执行单播检查时,会出现此暂时性问题。
本版本已解决该问题。
vSAN 缓存覆盖问题可能会导致元数据不一致
在极少数情况下,取消映射操作与快照操作之间的争用可能会导致 vSAN 主机中的 vSAN 元数据不一致。这种不一致可能会导致不可预知的后果,包括虚拟机故障或主机故障。
本版本已解决该问题。
ESX 主机可能会出现故障,并显示紫色诊断屏幕和错误“NMI IPI: 另一个 PCPU 请求了应急 (NMI IPI: Panic requested by another PCP)”
资源池缓存是一个 VMFS 特定的卷级别缓存,用于存储与 VMFS 卷对应的资源集群。搜索优先级集群时,缓存刷新器工作流会遍历大量缓存资源集群,从而可能会导致物理 CPU 锁定。因此,ESX 主机可能会出现故障并显示紫色诊断屏幕。在 logDump
文件中,您会看到诸如以下内容的错误:
^[[7m2022-10-22T07:56:47.322Z cpu13:2101160)WARNING: Heartbeat: 827: PCPU 0 didn't have a heartbeat for 7 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.^[[0m
^[[31;1m2022-10-22T07:56:47.322Z cpu0:2110633)ALERT: NMI: 710: NMI IPI: RIPOFF(base):RBP:CS
本版本已解决该问题。
ESXi ConfigStore 数据库填满,写入失败
与块设备相关的失效数据可能未及时从 ESXi ConfigStore 数据库中删除,从而导致出现空间不足的情况。因此,向 ConfigStore 写入数据的操作开始失败。在回溯追踪中,您会看到类似以下内容的日志:
2022-12-19T03:51:42.733Z cpu53:26745174)WARNING: VisorFSRam: 203: Cannot extend visorfs file /etc/vmware/configstore/current-store-1-journal because its ramdisk (configstore) is full
。
本版本已解决该问题。
延迟对处于不正常状态的 vSAN 存储设备执行撤出
检测到设备不正常后,本地日志结构化对象管理器 (LSOM) 可能会等待 10 分钟 (LSOM_DEVICE_MONITORING_INTERVAL),然后才对这些设备启动撤出。
本版本已解决该问题。
vSAN 维护模式或磁盘取消配置预检查不会列出可能失去可访问性的对象
此问题会影响具有重新同步组件的对象,并且某些组件位于要移除或置于维护模式的设备上。使用无操作选项运行预检查时,预检查不会正确评估对象以在 inaccessibleObjects
列表中报告该对象。
本版本已解决该问题。预检查在 inaccessibleObjects
列表中包含所有受影响的对象。
vSAN iSCSI 目标服务可能会由于很少见的争用情况而失败
运行 ESXCLI 命令 esxcli network firewall load
时,该操作不会重新加载现有的动态防火墙规则,这些规则会丢失。运行 ESXCLI 命令 esxcli network firewall refresh
时,该操作会重新加载现有的动态防火墙规则,但在某些情况下,争用情况可能会导致某些规则丢失。仅当同时运行多个防火墙刷新命令导致出现争用情况时,才会出现此问题。因此,vSAN iSCSI 目标服务可能会失败。
本版本已解决该问题。
如果 Internet 控制消息协议 (ICMPA) 未处于活动状态,则升级到 vSphere 8.0 及更高版本后,ESXi 主机重新引导可能需要很长时间
如果 ICMPA 在环境中的 NFS 服务器上处于非活动状态,则将系统升级到 vSphere 8.0 及更高版本后,ESXi 主机重新引导可能需要一个小时才能完成,因为 NFS 数据存储的还原操作失败。在执行挂载操作之前,NFS 使用 vmkping
实用程序确定 NFS 服务器的可访问 IP,如果 ICMP 处于非活动状态,挂载操作将失败。
本版本已解决该问题。为了消除在查找可访问的 IP 时对 ICMP 协议的依赖性,此修复增加了套接字 API,以确保给定 NFS 服务器上的 IP 可用。
迁移最近热添加了内存的虚拟机时,ESXi 主机可能会反复出现故障并显示紫色诊断屏幕
由于内存热插拔模块在迁移后重新计算目标主机上虚拟机的 NUMA 内存布局时存在争用情况,ESXi 主机可能会反复出现故障并显示紫色诊断屏幕。在回溯追踪中,您会看到类似以下内容的错误:
0x452900262cf0:[0x4200138fee8b]PanicvPanicInt@vmkernel#nover+0x327 stack: 0x452900262dc8, 0x4302f6c06508, 0x4200138fee8b, 0x420013df1300, 0x452900262cf0 0x452900262dc0:[0x4200138ff43d]Panic_WithBacktrace@vmkernel#nover+0x56 stack: 0x452900262e30, 0x452900262de0, 0x452900262e40, 0x452900262df0, 0x3e7514 0x452900262e30:[0x4200138fbb90]NMI_Interrupt@vmkernel#nover+0x561 stack: 0x0, 0xf48, 0x0, 0x0, 0x0 0x452900262f00:[0x420013953392]IDTNMIWork@vmkernel#nover+0x7f stack: 0x420049800000, 0x4200139546dd, 0x0, 0x452900262fd0, 0x0 0x452900262f20:[0x4200139546dc]Int2_NMI@vmkernel#nover+0x19 stack: 0x0, 0x42001394e068, 0xf50, 0xf50, 0x0 0x452900262f40:[0x42001394e067]gate_entry@vmkernel#nover+0x68 stack: 0x0, 0x43207bc02088, 0xd, 0x0, 0x43207bc02088 0x45397b61bd30:[0x420013be7514]NUMASched_PageNum2PhysicalDomain@vmkernel#nover+0x58 stack: 0x1, 0x420013be34c3, 0x45396f79f000, 0x1, 0x100005cf757 0x45397b61bd50:[0x420013be34c2]NUMASched_UpdateAllocStats@vmkernel#nover+0x4b stack: 0x100005cf757, 0x0, 0x0, 0x4200139b36d9, 0x0 0x45397b61bd80:[0x4200139b36d8]VmMem_NodeStatsSub@vmkernel#nover+0x59 stack: 0x39, 0x45396f79f000, 0xbce0dbf, 0x100005cf757, 0x0 0x45397b61bdc0:[0x4200139b4372]VmMem_FreePageNoBackmap@vmkernel#nover+0x8b stack: 0x465ec0001be0, 0xa, 0x465ec18748b0, 0x420014e7685f, 0x465ec14437d0
本版本已解决该问题。
将 ntg3 驱动程序升级到版本 4.1.9.0-4vmw 后,具有光纤物理连接的 Broadcom 网卡可能会断开网络连接
ntg3 驱动程序版本 4.1.9.0-4vmw
中的更改可能会导致光纤物理层出现链路问题,并且某些网卡(例如 Broadcom 1 Gb)上的连接无法连通。
本版本已解决该问题。
vSAN 集群关闭在禁用了 IPv6 的集群上失败
运行 ESXi 8.0 Update 1 且禁用了 IPv6 的 vSAN 主机上会出现此问题。使用 vSAN 集群关闭向导时,该工作流将失败并显示以下错误消息:'NoneType' object is not iterable
。
本版本已解决该问题。
即使未启用 SNMP,也会在 /var/spool 下的 SNMP 目录中看到陷阱文件
hostd 服务启动后(例如,ESXi 主机重新引导后),可能会在 /var/spool
下创建 SNMP 目录,并且您会看到许多 .trp
文件堆积在此目录中。
本版本已解决该问题。此修复可确保仅当启用 SNMP 时目录 /var/spool/snmp
才存在。
hostd 服务反复失败,并且 ESXi 主机与 vCenter 系统断开连接
如果由于任何原因 ESXi 主机暂时处于内存不足的状态,则由于 vSphere Replication 筛选器阻止分配位图,hostd 服务可能会反复失败。因此,ESXi 主机将与 vCenter 系统断开连接,并且无法重新连接。
本版本已解决该问题。
AMD CPU 上运行的某些嵌套虚拟机的性能可能会下降
由于 AMD 的快速虚拟化索引 (RVI)(也称为嵌套页表 (NPT))虚拟化存在问题,使用 Windows 等操作系统并启用基于虚拟化的安全性 (VBS) 时,AMD CPU 上运行的嵌套虚拟机可能会出现性能下降、超时或无响应。
本版本已解决该问题。
更改正在运行的虚拟机的虚拟磁盘模式可能会导致虚拟机出现故障
如果使用 VMware Host Client 编辑正在运行的虚拟机的磁盘模式(例如,从“独立 - 非持久”更改为“从属”或“独立 - 持久”),则该操作将失败并可能导致虚拟机出现故障。在 vmware.log 中,您会看到类似以下内容的错误:
msg.disk.notConfigured2] Failed to configure disk 'scsi0:4'. The virtual machine cannot be powered on with an unconfigured disk.
[msg.checkpoint.continuesync.error] An operation required the virtual machine to quiesce and the virtual machine was unable to continue running.
本版本已解决该问题。此修复可阻止使用 VMware Host Client 更改正在运行的虚拟机上“独立 - 非持久”磁盘的模式。vSphere Client 已阻止此类操作。
ESXi NVMe/TCP 启动器在目标故障恢复后无法恢复路径
NVMe/TCP 目标从故障恢复时,ESXi 无法恢复路径。
本版本已解决该问题。
ESXi 主机变得无响应,并且您无法将主机置于维护模式,也无法将虚拟机从该主机迁移出去
异步读取附加到 ESXi 主机的 VMFS 卷上的元数据可能会导致与主机上的其他线程发生争用情况,从而导致主机无响应。因此,您无法将主机置于维护模式,也无法将虚拟机从该主机迁移出去。
本版本已解决该问题。
在某些情况下,您可能会看到 Mellanox 网卡封装流量的吞吐量较低
在非增强型数据路径模式下,使用 Mellanox (nmlx5) 驱动程序的网卡的封装流量吞吐量可能较低,并且您可能会看到 RSS 队列之间的流量不均匀。
本版本已解决该问题。
逻辑卷管理器 (LVM) 磁盘在数据存储扩展期间脱机
如果在集群中的某个 ESXi 主机上执行数据存储扩展期间运行存储刷新,则 LVM 数据区可能会脱机,并且此卷上的虚拟机变得无响应。出现此问题的原因是,存储刷新操作会触发刷新集群中所有 ESXi 主机上的卷属性,但速度缓慢。因此,磁盘上的 LVM 元数据可能与可插入存储架构 (PSA) 层中的缓存容量信息不匹配,出于元数据和数据的安全考虑,ESXi 将 LVM 数据区标记为脱机。
本版本已解决该问题。
SCSI LUN 的持久名称可能未设置
符合 SCSI-3 标准的设备的持久名称属性来自 T10 和 SMI 标准定义的重要产品数据 (VPD) 的 80h
和 83h
页。为填充持久名称,ESXi 会先发送查询命令以获取设备支持的 VPD 页列表。然后,ESXi 又发出命令,获取所有受支持 VPD 页的数据。由于目标阵列存在问题,设备执行某个命令时可能会失败,导致无法获取列表中某页的 VPD 页数据,并显示 not supported
错误。因此,ESXi 无法填充设备的持久名称属性。
本版本已解决该问题。除 80h
和 83h
页之外,如果生成持久名称时不需要 VPD 页数据,则此修复会忽略获取该 VPD 页数据的命令上的错误。
在具有 NVMe/TCP 配置的 ESXi 主机上,自动发现 NVMe 发现服务可能会失败
vSphere 8.0 在 ESXi 中增加了高级 NVMe-oF 发现服务支持,可动态发现符合标准的 NVMe 发现服务。ESXi 使用 mDNS/DNS-SD 服务获取网络上活动 NVMe-oF 发现服务的 IP 地址和端口号等信息。但是,在启用了 NVMe/TCP 的 ESXi 服务器中,配置为使用 vSphere Distributed Switch 的网络上的自动发现可能会失败。此问题不会影响使用标准交换机的 NVMe/TCP 配置。
本版本已解决该问题。
NVMe over Fibre Channel 发生已链接事件后,使用 ESXi 高性能插件 (HPP) 进行路径恢复的时间过长
在某些情况下,发生光纤通道已链接事件后,HPP 管理的 NVMe over Fibre Channel 路径可能需要长达 5 分钟的时间才能恢复。
本版本已解决该问题。
NVMe over Fabrics 控制器可能会在发现期间意外断开连接
如果在 ESXi 主机上支持持久发现控制器的 NVMe over Fabrics 存储目标已存在发现控制器和 I/O 控制器,则并发 NVMe over Fabrics 控制器发现操作可能会导致某些 I/O 控制器意外断开连接。
本版本已解决该问题。
如果 ESXi PTP 服务使用硬件时间戳,则在交换机上启用 IGMP 侦听可能会导致同步失败
在已连接的交换机上启用 Internet 组管理协议 (IGMP) 侦听时,精度时间协议 (PTP) 客户端需要发送 IGMP 多播请求以接收来自最高级节点的 PTP 多播流。如果 ESXi PTP 代理基于硬件时间戳,则代理可能无法向交换机发送 IGMP 加入/退出请求。因此,PTP 多播流无法继续传输到 ESXi 主机,并阻止正确的 PTP 同步。
本版本已解决该问题。有关更多详细信息,请参见 VMware 知识库文章 92276。
如果在同一集群中的两个 ESXi 主机上对同一 VMFS 卷并行运行卷扩展和卷刷新操作,则 VMFS 卷可能会脱机
在 vCenter 集群中的一个 ESXi 主机上执行 VMFS 卷扩展操作时,如果用户或 vCenter 在另一主机上对同一 VMFS 卷容量进行刷新,则此卷可能会脱机。出现此问题的原因是,在设备重新扫描期间卷元数据中磁盘上标记的设备大小可能与主机上可插入存储架构 (PSA) 层中的设备大小值不匹配,如果设备重新扫描未完成,此值可能不会更新。
本版本已解决该问题。此修复提高了卷管理器代码的弹性,可在 vCenter 报告设备大小不匹配时强制连续刷新设备属性并重新比较设备大小。
针对无状态 ESXi 主机的操作可能不会为系统缓存选择预期的远程磁盘,从而导致修复或合规性问题
针对无状态 ESXi 主机的操作(如存储迁移)可能不会为系统缓存选择预期的远程磁盘。例如,您希望将新的引导 LUN 保留为 LUN 0,但 vSphere Auto Deploy 选择了 LUN 1。
本版本已解决该问题。此修复提供了一致的方式来对远程磁盘进行排序,并始终选择 LUN ID 最小的磁盘。要确保启用此修复,请按照以下步骤操作:
在 Auto Deploy 向导的“编辑主机配置文件”页面上,选择高级配置设置 > 系统映像缓存配置
在系统映像缓存配置文件设置下拉菜单中,选择在主机上启用无状态缓存。
编辑第一个磁盘的参数,将 remote 替换为 sortedremote 和/或将 remoteesx 替换为 sortedremoteesx。
VMware VIB 安装可能会在同时安装多个供应商软件包期间失败
安装多个供应商(如 JetStream Software、Microsoft 和 VMware)提供的更新软件包时,多个客户端会调用相同的 PatchManager API,这可能会导致争用情况。因此,VMware 安装软件包 (VIB) 可能无法安装。在日志中,您会看到类似以下内容的错误:vim.fault.PlatformConfigFault
,这是一个统包故障,表明在配置 ESXi 主机时发生了一些错误。在 vSphere Client 中,您会看到类似以下内容的消息:An error occurred during host configuration
。
本版本已解决该问题。此修复将返回 TaskInProgress
警告,而不是 PlatformConfigFault
,以便您了解实际问题并重试安装。
某些应用程序可能会使用过多 ESXi 文件句柄,从而导致性能下降
在极少数情况下,NVIDIA 虚拟 GPU (vGPU) 等应用程序可能会使用大量文件句柄,导致 ESXi 无法处理其他服务或虚拟机。因此,您可能会看到某些节点上的 GPU 消失,或者报告 GPU 内存为零或性能下降。
本版本已解决该问题。此修复减少了 vGPU 虚拟机可以使用的文件句柄数。
配置文件名称 |
ESXi-8.0U1c-22082334-standard |
内部版本 |
有关内部版本信息,请参见本版本中包含的修补程序。 |
供应商 |
VMware, Inc. |
发布日期 |
2023 年 7 月 27 日 |
接受级别 |
合作伙伴支持 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
受影响的 VIB |
|
已修复的 PR |
3229052、3222888、3184515、3184505、3210921、3219294、3217139、3215295、3184512、3184517、3213042、3184513、3184506、3186149、3186166 |
相关的 CVE 编号 |
不适用 |
此修补程序更新了以下问题:
ESXi 8.0 Update 1c 提供了以下安全更新:
Envoy 代理已更新到版本 v1.23.9。
ESXi userworld libxml2 库已更新到版本 2.10.4。
cURL 库已更新到版本 8.0.1。
Go 库已更新到版本 1.19.9。
etcd 软件包已更新到 3.4.25。
更新了 tools-light
VIB。
以下 VMware Tools ISO 映像与 ESXi 8.0 Update 1c 捆绑在一起:
windows.iso:VMware Tools 12.2.5 支持 Windows 7 SP1 或 Windows Server 2008 R2 SP1 及更高版本。
linux.iso:适用于安装了 glibc 2.11 或更高版本的 Linux 操作系统的 VMware Tools 10.3.25 ISO 映像。
以下 VMware Tools ISO 映像可供下载:
VMware Tools 11.0.6:
windows.iso:适用于 Windows Vista (SP2) 和 Windows Server 2008 Service Pack 2 (SP2)。
VMware Tools 10.0.12:
winPreVista.iso:适用于 Windows 2000、Windows XP 和 Windows 2003。
linuxPreGLibc25.iso:支持低于 Red Hat Enterprise Linux (RHEL) 5、SUSE Linux Enterprise Server (SLES) 11、Ubuntu 7.04 以及 glibc 版本低于 2.5 的其他发行版的 Linux 客户机操作系统。
solaris.iso:适用于 Solaris 的 VMware Tools 映像 10.3.10。
darwin.iso:支持 Mac OS X 版本 10.11 及更高版本。VMware Tools 12.1.0 是适用于 macOS 的最后一个常规版本。有关详细信息,请参阅 VMware 知识库文章 88698。
下载未与 ESXi 捆绑的平台对应的 VMware Tools 时,请遵循以下文档中列出的步骤:
配置文件名称 |
ESXi-8.0U1c-22082334-no-tools |
内部版本 |
有关内部版本信息,请参见本版本中包含的修补程序。 |
供应商 |
VMware, Inc. |
发布日期 |
2023 年 7 月 27 日 |
接受级别 |
合作伙伴支持 |
受影响的硬件 |
不适用 |
受影响的软件 |
不适用 |
受影响的 VIB |
|
已修复的 PR |
3229052、3222888、3184515、3184505、3210921、3219294、3217139、3215295、3184512、3184517、3213042、3184513、3184506、3186149 |
相关的 CVE 编号 |
不适用 |
此修补程序更新了以下问题:
ESXi 8.0 Update 1c 提供了以下安全更新:
Envoy 代理已更新到版本 v1.23.9。
ESXi userworld libxml2 库已更新到版本 2.10.4。
cURL 库已更新到版本 8.0.1。
Go 库已更新到版本 1.19.9。
etcd 软件包已更新到 3.4.25。
名称 |
ESXi |
版本 |
ESXi80U1c-22088125 |
发布日期 |
2023 年 7 月 27 日 |
类别 |
缺陷修复 |
受影响的组件 |
|
已修复的 PR |
3239946、3239870、3210610、3228383、3248279、3179236、3183209、3219196、3229111、3221890、3219889、3223909、3225464、3228391、3158175、3217410、3211624、3223427、3223420、3181600、3212384、3221902、3219121、3219196、3222717、3221598、3210610、3181603、3213042、3221593、3210931、3210931、3221549、3161147、3213110、3219262、3118977、3217167、3210610、3210610、3219971、3112043、3218145、3218218、3217477、3214491、3166665、3210840、3210837、3210956、3213914、3212431、3187725、3213177、3185230、3213207、3187539、2625439、3122074、3197383、3187416、3187420、3118241、3176359、3184331、3182257、3187875、3187547、3210192、3180881、3163270、3179236、3157222、3187709、3187716、3187494、3186022、3188105、3183522、3166280、3183038、3183531、3183526、3184327、3166566、3171992、3172063、3159074、3181553、3183529、3146205、3038908、3038908、3153396、3038908、3038908、3038908、3179111、3152476、3187446、3219191 |
相关的 CVE 编号 |
不适用 |
名称 |
ESXi |
版本 |
ESXi-8.0U1sc-22082334 |
发布日期 |
2023 年 7 月 27 日 |
类别 |
安全 |
受影响的组件 |
|
已修复的 PR |
3229052、3222888、3184515、3184505、3210921、3219294、3217139、3215295、3184512、3184517、3213042、3184513、3184506、3186149、3186166 |
相关的 CVE 编号 |
不适用 |
如果将 vCenter 更新到 8.0 Update 1,但 ESXi 主机仍使用早期版本,则此类主机上 vSphere Virtual Volumes 数据存储可能会变得无法访问
vSphere 8.0 不再支持自签名 VASA 提供程序证书,默认情况下,配置选项 Config.HostAgent.ssl.keyStore.allowSelfSigned
设置为 false
。如果将 vCenter 实例更新到 8.0 Update 1,该版本引入 vSphere API for Storage Awareness (VASA) 版本 5.0,但 ESXi 主机仍使用早期的 vSphere 和 VASA 版本,则使用自签名证书的主机可能无法访问 vSphere Virtual Volumes 数据存储或无法刷新 CA 证书。
解决办法:将主机更新到 ESXi 8.0 Update 1。如果未更新到 ESXi 8.0 Update 1,请参见 VMware 知识库文章 91387。
如果将使用软件 FCoE 配置的主机配置文件应用于 ESXi 8.0 主机,则操作将失败并显示验证错误
从 vSphere 7.0 开始,软件 FCoE 已弃用,且 vSphere 8.0 不支持软件 FCoE 配置文件。如果尝试将早期版本中的主机配置文件应用到 ESXi 8.0 主机,例如编辑主机自定义,操作将失败。在 vSphere Client 中,您会看到类似以下内容的错误:Host Customizations validation error
。
解决办法:禁用主机配置文件中的软件 FCoE 配置子配置文件。
对于早期 ESXi 版本的现有主机配置文件,不能将 ESXi 8.0 主机用作引用主机
当清单中仅有 8.0 引用主机可用时,对 ESXi 版本 7.x、6.7.x 和 6.5.x 的现有主机配置文件的验证将失败。
解决办法:确保清单中具有相应版本的引用主机。例如,使用 ESXi 7.0 Update 2 引用主机更新或编辑 ESXi 7.0 Update 2 主机配置文件。
升级到 ESXi 8.0 后,VMNIC 可能会关闭
如果 VMNIC 的对等物理交换机不支持媒体自动检测,或者禁用了媒体自动检测,并且 VMNIC 链路设置为关闭后再打开,则在升级到或安装 ESXi 8.0 后,链路仍保持关闭。
解决办法:使用以下两个选项之一:
通过导航到系统设置主菜单,在 BIOS 设置中启用选项 media-auto-detect
,通常可以按 F2 或打开虚拟控制台,然后单击设备设置 > <特定博通网卡> > 设备配置菜单 > 媒体自动检测。重新引导主机。
或者,使用类似以下内容的 ESXCLI 命令:esxcli network nic set -S <your speed> -D full -n <your nic>
。使用此选项,您还可以为链路设置固定速度,并且不需要重新引导。
如果在升级到 ESXi 8.0 期间刷新 vCenter Server Security Token Service (STS),则升级可能会失败
在 vSphere 8.0 中,vCenter Single Sign-On 将自动续订 VMCA 生成的 STS 签名证书。自动续订发生在 STS 签名证书过期之前,以及触发 90 天过期警报之前。但是,在集群中的多个 ESXi 主机上使用 vSphere Lifecycle Manager 映像执行长时间运行的升级或修复任务时,vSphere Lifecycle Manager 可能会在内部创建 STS 证书缓存。在极少数情况下,如果 STS 证书刷新任务与长时间运行的升级或修复任务并行开始,则升级任务可能会失败,因为内部缓存中的 STS 证书可能与刷新后的证书不同。升级任务失败后,某些 ESXi 主机可能仍处于维护模式。
解决办法:手动将任何 ESXi 主机退出维护模式,然后重试升级或修复。系统将自动刷新或导入并替换 STS 签名证书,且不需要重新启动 vCenter Server 以避免停机。
升级到 ESXi 8.0 后,由于参数弃用,某些 nmlx5_core 驱动程序模块设置可能会丢失
nmlx5_core
驱动程序的某些模块参数(如 device_rss
、drss
和 rss
)在 ESXi 8.0 中已弃用,并且在升级到 ESXi 8.0 后,不会保留与默认值不同的任何自定义值。
解决办法:按如下所示,替换 device_rss
、drss
和 rss
参数的值:
device_rss
: 使用 DRSS
参数。
drss
: 使用 DRSS
参数。
rss
: 使用 RSS
参数。
vCenter Server 还原过程的第二阶段进行到 90% 时停滞不前
使用 vCenter Server GUI 安装程序或 vCenter Server Appliance 管理界面 (VAMI) 从基于文件的备份还原 vCenter 时,还原工作流可能会在进行到 90% 时停滞不前,并显示错误 401 Unable to authenticate user
,即使任务在后端成功完成也是如此。如果部署的计算机与 NTP 服务器的时间不一致(需要时间同步),则会出现此问题。由于时间同步,时钟偏差可能会导致正在运行的 GUI 或 VAMI 会话失败。
解决办法:如果使用 GUI 安装程序,则可以从 appliancesh
shell 使用 restore.job.get
命令获取还原状态。如果使用 VAMI,请刷新浏览器。
在增强型网络堆栈 (ENS) 和 VLAN 环境中,使用 Broadcom RDMA 网络接口控制器 (RNIC) 时,聚合以太网 RDMA 流量传输可能会失败
VMware 高带宽解决方案 ENS 不支持 MAC VLAN 筛选器。但是,在 ENS + VLAN 环境中的 Broadcom RNIC 上运行的 RDMA 应用程序需要 MAC VLAN 筛选器。因此,您可能会看到某些 ROCE 流量断开连接。在 NVMe over RDMA + ENS + VLAN 环境或 ENS + VLAN + RDMA 应用程序环境中,当 ESXi 主机重新引导或上行链路启动和关闭时,可能会出现此问题。
解决办法:无
如果关闭或重新启动 ESXi 主机时 PCI 直通在 DPU 上处于活动状态,则主机将发生故障并显示紫色诊断屏幕
如果活动虚拟机在关闭或重新引导 ESXi 主机时具有到 DPU 的 PCI 直通,则该主机将发生故障并显示紫色诊断屏幕。此问题特定于具有 DPU 的系统,并且仅在使用 PCI 直通到 DPU 的虚拟机中出现。
解决办法:关闭或重新引导 ESXi 主机之前,请确保主机处于维护模式,或者未运行使用 PCI 直通到 DPU 的虚拟机。如果对虚拟机使用自动启动选项,则自动启动管理器会在关闭或重新引导主机之前停止此类虚拟机。
无法使用 ESXCLI 命令挂载具有 VMkernel 端口绑定的基于 IPv6 的 NFS 3 数据存储
尝试使用 ESXCLI 命令挂载具有 IPv6 服务器地址和 VMkernel 端口绑定的 NFS 3 数据存储时,任务失败并显示以下错误:
[:~] esxcli storage nfs add -I fc00:xxx:xxx:xx::xxx:vmk1 -s share1 -v volume1
Validation of vmknic failed Instance(defaultTcpipStack, xxx:xxx:xx::xxx:vmk1) Input(): Not found:
此问题特定于具有 IPv6 服务器地址和 VMkernel 端口绑定的 NFS 3 数据存储。
解决办法:使用 vSphere Client 作为替代方法,可挂载具有 VMkernel 端口绑定的基于 IPv6 的 NFSv3 数据存储。
在具有 DPU 的 vSphere 系统中,重置或还原 ESXi 系统配置可能会导致 DPU 处于无效状态
如果在具有 DPU 的 vSphere 系统中重置或还原 ESXi 系统配置(例如,在直接控制台中选择重置系统配置),该操作可能会导致 DPU 处于无效状态。在 DCUI 中,您可能会看到类似以下内容的错误:Failed to reset system configuration. Note that this operation cannot be performed when a managed DPU is present
。对于具有 DPU 的 ESXi 安装,不支持对 -f
强制重新引导选项进行后端调用。尽管 ESXi 8.0 支持 -f
强制重新引导选项,但如果在具有 DPU 的 ESXi 配置上使用 reboot -f
,则强制重新引导可能会导致无效状态。
解决办法:在直接控制台界面中暂时禁用“重置系统配置”。避免在具有 DPU 的 vSphere 系统中重置 ESXi 系统配置。
在具有 DPU 的 vCenter Server 系统中,如果禁用 IPv6,则无法管理 DPU
尽管 vSphere Client 允许执行此操作,但如果在具有 DPU 的 ESXi 主机上禁用 IPv6,则无法使用这些 DPU,因为主机与设备之间的内部通信依赖于 IPv6。此问题仅影响具有 DPU 的 ESXi 主机。
解决办法:确保在具有 DPU 的 ESXi 主机上启用了 IPv6。
在预安装了 Pensando DPU 的 HPE 服务器上重新引导 ESXi 主机时,可能会延迟 10 分钟
在极少数情况下,如果 DPU 出现故障,预安装了 Pensando DPU 的 HPE 服务器可能需要 10 分钟以上才能完成重新引导。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕,默认等待时间为 10 分钟。
解决办法:无。
如果在用于安装 ESXi 8.0 的远程管理应用程序中启用了 USB 接口,则会看到一个额外的具有上行链路 vusb0 的标准交换机 vSwitchBMC
从 vSphere 8.0 开始,在 Integrated Dell Remote Access Controller (iDRAC) 和 HP Integrated Heat Out (ILO) 中,如果启用了 USB 接口(分别为 vUSB 和 vNIC),则会在 ESXi 主机上额外创建一个具有上行链路 vusb0
的标准交换机 vSwitchBMC
。鉴于某些服务器上引入了数据处理单元 (DPU),这是预期行为,但可能会导致 VMware Cloud Foundation 启动进程失败。
解决办法:安装 vSphere 8.0 前,按照供应商文档,在使用的远程管理应用程序中禁用 USB 接口。
安装 vSphere 8.0 后,使用 ESXCLI 命令 esxcfg-advcfg -s 0 /Net/BMCNetworkEnable
阻止在下次重新引导主机时创建虚拟交换机 vSwitchBMC
和关联的端口组。
例如,以下脚本:
~# esxcfg-advcfg -s 0 /Net/BMCNetworkEnable
BMCNetworkEnable 的值为 0,该服务处于禁用状态。
~# reboot
主机重新引导时,不会在与远程管理应用程序网络相关的主机中创建任何虚拟交换机、端口组和 VMKNIC。
如果 NVIDIA BlueField DPU 处于硬件卸载模式禁用状态,则配置了 SR-IOV 虚拟功能的虚拟机将无法打开电源
NVIDIA BlueField DPU 必须处于硬件卸载模式启用状态,配置了 SR-IOV 虚拟功能的虚拟机才能打开电源并正常运行。
解决办法:如果将配置了 SR-IOV 虚拟功能的虚拟机连接到虚拟交换机,请始终对 NVIDIA BlueField DPU 使用硬件卸载模式启用这一默认设置。
在虚拟设备管理界面 (VAMI) 中,您会在升级前阶段看到一条警告消息
vSphere 8.0 已弃用对本地插件的支持,将 vSphere 插件移至远程插件架构。如果您的 8.0 vSphere 环境具有本地插件,则此类插件的某些重大更改可能会导致使用 VAMI 执行升级前检查失败。
在“更新前检查结果”屏幕中,您会看到类似以下内容的错误:
Warning message: The compatibility of plug-in package(s) %s with the new vCenter Server version cannot be validated. They may not function properly after vCenter Server upgrade.
Resolution: Please contact the plug-in vendor and make sure the package is compatible with the new vCenter Server version.
解决办法:在继续升级之前,参阅《VMware 兼容性指南》和 VMware 产品互操作性列表或联系插件供应商获取建议,以确保环境中的本地插件与 vCenter Server 8.0 兼容。有关详细信息,请参见博客 Deprecating the Local Plugins :- The Next Step in vSphere Client Extensibility Evolution 以及 VMware 知识库文章 87880。
无法从启用了 CPU 热添加的虚拟机中移除分配给虚拟非一致内存访问 (NUMA) 节点的 PCI 直通设备
尽管默认情况下,在启用 CPU 热添加以允许将 vCPU 添加到正在运行的虚拟机后,虚拟 NUMA 拓扑会停用,但如果已将某个 PCI 直通设备分配给了 NUMA 节点,则尝试移除该设备时会显示错误。在 vSphere Client 中,您会看到类似以下内容的消息:“无效的虚拟机配置。启用 CPU 热添加后,无法配置虚拟 NUMA”(Invalid virtual machine configuration. Virtual NUMA cannot be configured when CPU hotadd is enabled
)。
解决办法:请参见 VMware 知识库文章 89638。
如果为硬件版本低于 20 的虚拟机配置供应商设备组,此类虚拟机可能无法按预期运行
供应商设备组(支持绑定高速网络连接设备和 GPU)仅在硬件版本为 20 及更高版本的虚拟机上受支持,但系统不会阻止您为硬件版本低于 20 的虚拟机配置供应商设备组。此类虚拟机可能无法按预期运行:例如,无法打开电源。
解决办法:在虚拟机中配置供应商设备组之前,请确保该虚拟机的硬件版本为 20。
由于 NFS 服务器挂载超时,ESXi 重新引导需要很长时间
如果无法访问的 NFS 服务器上有多个挂载,ESXi 会重试连接到每个挂载 30 秒,根据挂载的数量,这可能会导致 ESXi 重新引导延迟长达数分钟。
解决办法:ESXi Update 8.0 Update 1 增加了一个可配置选项,用于替代默认挂载超时:esxcfg-advcfg -s <timeout val> /NFS/MountTimeout
。例如,如果要将挂载超时重新配置为 10 秒,可以运行以下命令:- esxcfg-advcfg -s 10 /NFS/MountTimeout
。使用 esxcfg-advcfg -g /NFS/MountTimeout
命令验证当前配置的挂载超时。
无法在 Pensando DPU 上将 VMware vSphere Distributed Switch 上的最大传输单元 (MTU) 设置为大于 9174 的值
如果 ESXi 8.0 系统上具有已启用 Pensando DPU 的 vSphere Distributed Services Engine 功能,则无法将 vSphere Distributed Switch 上的最大传输单元 (MTU) 设置为大于 9174 的值。
解决办法:无。
在使用 4.1.3 及更高版本的 ntg3 驱动程序的网卡上,看到链路出现抖动
当两个使用 4.1.3 及更高版本的 ntg3
驱动程序的网卡直接连接(而不是连接到物理交换机端口)时,链路可能会出现抖动。4.1.3 之前的 ntg3
驱动程序或 tg3
驱动程序不会出现此问题。此问题与此类网卡上偶尔出现的节能以太网 (EEE) 链路抖动无关。EEE 问题的修复方法是使用 4.1.7 或更高版本的 ntg3
驱动程序,或者在物理交换机端口上禁用 EEE。
解决办法:将 ntg3
驱动程序升级到版本 4.1.8,并将新模块参数 noPhyStateSet
设置为 1
。noPhyStateSet
参数默认为 0
,并且在大多数环境中不需要,除非它们遇到此问题。
在具有 DPU 的 vSphere 环境中进行 VMware NSX 安装或升级可能会失败并显示连接错误
ESXi 主机端的间歇性计时问题可能会导致在具有 DPU 的 vSphere 环境中进行 NSX 安装或升级失败。nsxapi.log
Failed to get SFHC response. MessageType MT_SOFTWARE_STATUS
解决办法:等待 10 分钟,然后重试 NSX 安装或升级。
如果在使用 icen 驱动程序启用或禁用 SR-IOV 后未重新引导 ESXi 主机,则在该主机上以 ENS 中断模式配置传输节点时,某些虚拟机可能无法获取 DHCP 地址
如果在 ESXi 主机上使用 icen
驱动程序启用或禁用 SR-IOV,并在 ENS 中断模式下配置传输节点,那么在不重新引导主机的情况下,某些 Rx(接收)队列可能无法正常工作。因此,某些虚拟机可能无法获取 DHCP 地址。
解决办法:直接添加传输节点配置文件而不启用 SR-IOV,或者在启用或禁用 SR-IOV 后重新引导 ESXi 主机。
在 vSphere 8.0 中,无法将 Mellanox ConnectX-5、ConnectX-6 卡型号 1 级别 2 和型号 2 用于增强型网络堆栈 (ENS) 模式
由于硬件限制,ConnectX-5 和 ConnectX-6 适配器卡不支持在 vSphere 8.0 中将型号 1 级别 2 和型号 2 用于增强型网络堆栈 (ENS) 模式。
解决办法:使用支持 ENS 型号 1 级别 2 和型号 2A 的 Mellanox ConnectX-6 Lx 和 ConnectX-6 Dx 或更高版本的卡。
Pensando DPU 在 ESXi 主机的物理交换机端口上不支持链路层发现协议 (LLDP)
在具有 DPU 的 ESXi 主机上启用 LLDP 时,该主机无法接收 LLDP 数据包。
解决办法:无。
升级到 vCenter Server 8.0 后,VASA API 版本不会自动刷新
vCenter Server 8.0 支持 VASA API 版本 4.0。但是,将 vCenter Server 系统升级到版本 8.0 后,VASA API 版本可能不会自动更改为 4.0。在以下 2 种情况下会出现此问题:
如果在以前版本的 VMware vCenter 中注册了支持 VASA API 版本 4.0 的 VASA 提供程序,则在升级到 VMware vCenter 8.0 后,VASA API 版本保持不变。例如,如果 VMware vCenter 系统版本 7.x 中注册了同时支持 VASA API 版本 3.5 和 4.0 的 VASA 提供程序,则升级该系统时,即使 VASA 提供程序支持 VASA API 版本 4.0,VASA API 版本也不会自动更改为 4.0。升级后,导航到 vCenter Server > 配置 > 存储提供程序并展开已注册 VASA 提供程序的常规选项卡时,仍会看到 VASA API 版本 3.5。
如果在 VMware vCenter 8.0 系统中注册支持 VASA API 版本 3.5 的 VASA 提供程序,并将 VASA API 版本升级到 4.0,则即使升级后,也仍会看到 VASA API 版本 3.5。
解决办法:在 VMware vCenter 8.0 系统上取消注册 VASA 提供程序,然后重新注册。
由于网络文件复制 (NFC) 管理器的会话未经身份验证,vSphere Storage vMotion 操作在 vSAN 环境中可能会失败
如果虚拟机至少具有一个快照和多个虚拟磁盘,但使用不同的存储策略,则使用 vSphere Storage vMotion 将这些虚拟机迁移到 vSAN 数据存储可能会失败。出现此问题的原因是,由于简单对象访问协议 (SOAP) 正文超出允许的大小,导致 NFC 管理器的会话未经身份验证。
解决办法:先迁移虚拟机主页命名空间,并且仅迁移其中一个虚拟磁盘。此操作完成后,对剩余的 2 个磁盘执行仅磁盘迁移。
由于基于内容的读缓存 (CBRC) 中的摘要操作失败错误,无法创建虚拟机的快照
在极少数情况下,在 CBRC 摘要文件更新期间分配内容 ID 会出现争用情况,这可能会导致数据磁盘中的内容 ID 与摘要磁盘中的内容 ID 之间出现差异。因此,无法创建虚拟机快照。您会在回溯追踪中看到 An error occurred while saving the snapshot: A digest operation has failed
等错误。如果重试快照创建任务,将可以完成此任务。
解决办法:重试快照创建任务。
更改对象时,资源池和集群的“利用率”视图可能不会自动刷新
当您已打开某个资源池或集群的监控选项卡下的利用率视图,然后更改该资源池或集群时,视图可能不会自动刷新。例如,打开一个集群的利用率视图,然后选择另一个集群时,您可能仍会看到第一个集群的统计数据。
解决办法:单击刷新图标。
如果将 vSphere 虚拟基础架构加载到 90% 以上,ESXi 主机可能会间歇性地与 vCenter Server 断开连接
在极少数情况下,如果 vSphere 虚拟基础架构持续使用超过 90% 的硬件容量,则某些 ESXi 主机可能会间歇性地与 vCenter Server 断开连接。连接通常会在几秒钟内恢复。
解决办法:如果与 vCenter Server 的连接未能在几秒钟内如期恢复,请使用 vSphere Client 手动重新连接 ESXi 主机。
在 vSphere Client 中,看不到有关历史数据导入的横幅通知
由于后端问题,在 vSphere Client 中看不到有关历史数据后台迁移的横幅通知。
解决办法:使用 vCenter Server 管理界面,而不使用 vSphere Client。有关详细信息,请参见监控和管理历史数据迁移过程。
在混合 vCenter 环境中使用 API 创建的云原生存储 (CNS) 块卷显示错误
如果您的环境中具有版本 8.0 和 7.x 的 vCenter Server 系统,则使用 API 创建云原生存储 (CNS) 块卷会成功,但在 vSphere Client 中查看 CNS 卷详细信息时,可能会看到错误。您将看到看到类似以下内容的错误:Failed to extract the requested data. Check vSphere Client logs for details. + TypeError: Cannot read properties of null (reading 'cluster')
。仅当通过使用 8.0 vCenter Server 的 vSphere Client 查看由 7.x vCenter Server 管理的卷时,才会出现此问题。
解决办法:登录到 vCenter Server 版本 7.x 系统上的 vSphere Client,查看卷属性。
在极少数情况下,由于 vpxa 上请求队列的文件描述符不足,ESXi 主机可能会变得无响应,并且您会看到 vpxa 转储文件
在极少数情况下,当向 vpxa 服务发出的请求需要很长时间(例如,等待访问速度较慢的数据存储)时,vpxa 上的请求队列可能会超出文件描述符的限制。因此,ESXi 主机可能会暂时变得无响应,并且您会在 /var/core
目录中看到 vpxa-zdump.00*
文件。vpxa 日志中包含行 Too many open files
。
解决办法:无。vpxa 服务将自动重新启动并更正此问题。
如果使用具有不可信证书的自定义更新存储库,则使用 vCenter Lifecycle Manager 工作流将 vCenter Server 升级或更新到 vSphere 8.0 可能会失败
如果使用具有 VMware Certificate Authority (VMCA) 不信任的自签名证书的自定义更新存储库,则 vCenter Lifecycle Manager 将无法从此类存储库下载文件。因此,使用 vCenter Lifecycle Manager 工作流的 vCenter Server 升级或更新操作将失败,并显示错误 Failed to load the repository manifest data for the configured upgrade
。
解决办法:使用 CLI、GUI 安装程序或虚拟设备管理界面 (VAMI) 执行升级。有关详细信息,请参见 VMware 知识库文章 89493。
将现有虚拟硬盘添加到新虚拟机时,您可能会看到虚拟机配置被拒绝的错误
使用 VMware Host Client 将现有虚拟硬盘添加到新虚拟机时,该操作可能会失败并显示错误,例如:The VM configuration was rejected. Please see browser Console
。出现此问题的原因是,VMware Host Client 可能无法获取某些属性,例如硬盘控制器。
解决办法:选择硬盘并转到即将完成页面后,不要单击完成。而是返回一步,等待页面加载完成,然后单击下一步 > 完成。
如果使用从启用了有状态安装的主机配置文件部署的 ESXi 主机作为映像在集群中部署其他 ESXi 主机,则该操作将失败
如果提取从启用了有状态安装的主机配置文件部署的 ESXi 主机的映像,以在 vSphere Lifecycle Manager 集群中部署其他 ESXi 主机,则该操作将失败。在 vSphere Client 中,您会看到类似以下内容的错误:A general system error occurred: Failed to extract image from the host: no stored copy available for inactive VIB VMW_bootbank_xxx. Extraction of image from host xxx.eng.vmware.com failed
。
解决办法:使用集群中的其他主机提取映像。
尝试在版本低于 8.0 的 ESXi 主机上转储 vSphere Lifecycle Manager 映像时,会显示错误消息
ESXi 8.0 引入了显式转储所需状态映像的选择方案,即将库组件从 vSphere Lifecycle Manager 库下载到 ESXi 主机的过程,而无需立即应用软件和固件更新。但是,仅支持在 ESXi 8.0 或更高版本的主机上转储映像。如果尝试在版本低于 8.0 的 ESXi 主机上转储 vSphere Lifecycle Manager 映像,则会显示消息,指出此类主机的转储失败,这些主机将被跳过。这是预期行为,并不表示任何功能失败,因为所有 ESXi 8.0 或更高版本的主机都会使用指定的所需映像进行转储。
解决办法:无。确认受影响的 ESXi 主机的版本低于 8.0 后,忽略这些错误。
在具有 DPU 的 ESXi 主机上使用 vSphere Lifecycle Manager 执行修复任务可能会间歇性失败
在具有 DPU 的 ESXi 主机上启动 vSphere Lifecycle Manager 修复时,主机将按预期升级并重新引导,但在重新引导之后、完成修复任务之前,您可能会看到类似以下内容的错误:
A general system error occurred: After host … remediation completed, compliance check reported host as 'non-compliant'. The image on the host does not match the image set for the cluster. Retry the cluster remediation operation.
出现这个罕见问题的原因是,DPU 上的修复后扫描出现间歇性超时。
解决办法:重新引导 ESXi 主机,并重新运行 vSphere Lifecycle Manager 合规性检查操作,其中包括修复后扫描。
VMware Host Client 显示的严重性事件状态描述可能不正确
在 VMware Host Client 中查看 ESXi 主机的严重性事件状态描述时,这些描述可能与您使用智能平台管理界面 (IPMI) 或 Lenovo XClarity Controller (XCC) 看到的描述不同。例如,在 VMware Host Client 中,PSU 传感器的严重性事件状态描述可能为 Transition to Non-critical from OK
,而在 XCC 和 IPMI 中,该描述为 Transition to OK
。
解决办法:使用 ESXCLI 命令 esxcli hardware ipmi sdr list
和 Lenovo XCC 验证严重性事件状态的描述。
如果使用的 RSA 密钥大小小于 2048 位,则 RSA 签名生成将失败
从 vSphere 8.0 开始,ESXi 使用 OpenSSL 3.0 FIPS 提供程序。根据 FIPS 186-4 要求,对于任何签名生成,RSA 密钥大小都必须至少为 2048 位,并且不支持使用 SHA1 生成签名。
解决办法:使用大于 2048 的 RSA 密钥大小。