VMware ESXi 8.0 Update 2 | 2023 年 9 月 21 日 | GA ISO 内部版本 22380479 请查看发行说明以了解新增内容及更新。 |
VMware ESXi 8.0 Update 2 | 2023 年 9 月 21 日 | GA ISO 内部版本 22380479 请查看发行说明以了解新增内容及更新。 |
此 ESXi 8.0 Update 2 版本是正式发布 (GA) 版本。有关 vSphere Update 版本的 vSphere 8.0 IA/GA 发布模型的详细信息,请参见 vSphere 8 发布模型的发展历程。
有关 vSphere 8.0 Update 2 中新增功能的概述,请参见 vSphere 8 Update 2 新增功能以及以下发行说明:
下面的新功能和增强功能列表增加了 ESXi 8.0 Update 2 的一些主要功能亮点:
在 vSphere 8.0 Update 2 中,vSphere Distributed Services Engine 增加了对以下项的支持:
NVIDIA BlueField-2 DPU 到 Fujitsu 服务器设计 (Intel Sapphire Rapids)。
ESXi 8.0 Update 2 增加了对多个服务器的 vSphere Quick Boot 支持,包括:
Dell
VxRail VD-4510c
VxRail VD-4520c
Fujitsu
PRIMERGY RX2540 M7
PRIMERGY RX2530 M7
Lenovo
ThinkSystem SR635 V3
ThinkSystem SR645 V3
ThinkSystem SR655 V3
ThinkSystem ST650 V3
有关受支持服务器的完整列表,请参见《VMware 兼容性指南》。
带内错误更正代码 (IB ECC) 支持:在 vSphere 8.0 Update 2 中,可以在支持此选项的硬件平台上使用 IB ECC 执行数据完整性检查,而无需实际使用 ECC 类型 DDR 内存。
支持 Intel ATS-M 上的图形和 AI/ML 工作负载:vSphere 8.0 Update 2 增加了对 Intel ATS-M 上的图形和 AI/ML 工作负载的支持。
增强型 ESXi CPU 调度程序:vSphere 8.0 Update 2 在 ESXi CPU 调度程序中增加了性能增强,适用于使用高内核计数 CPU 的新一代系统,例如,每个插槽最多 60 个内核的 Intel Sapphire Rapids。
Broadcom lpfc 驱动程序更新:在 vSphere 8.0 Update 2 中,lpfc 驱动程序能够生成和提供有关光纤通道端口标识符 (FPIN) 报告的信息。
Mellanox (nmlx5) 驱动程序更新:在 vSphere 8.0 Update 2 中,nmlx5 驱动程序支持 NVIDIA ConnectX-7 SmartNIC 并提高了性能,例如,每个 ESXi 主机最多支持 8 个 Mellanox 上行链路,速度最高达到 200G 的卸载支持,用于内部 IPv4/IPv6 校验和卸载 (CSO) 的硬件卸载,为 GENEVE 和 VXLAN 提供具有外部 IPv6 的 TCP 分段卸载 (TSO),以及启用 NetQ 接收方缩放 (RSS)。
Marvell (qedentv) 驱动程序更新:在 vSphere 8.0 Update 2 中,qedentv 驱动程序支持 NetQ 接收方缩放 (RSS) 和硬件大型接收卸载 (HW LRO) 以提高性能、可扩展性和效率。
其他驱动程序更新:
Broadcom bcm_mpi3 - 错误修复
Broadcom bnxtnet - 从异步驱动程序累积 bnxtnet 驱动程序更新,包括 vmk_UplinkQueueOps 的 queueGetStats 回调,增强了调试功能
Broadcom lsi_mr3 - 例程更新
Intel icen - 在本机模式下为 icen 网卡设备驱动程序启用 RSS 功能
Microchip smartpqi - 修复了错误并添加了 OEM 品牌 PCI ID
Pensando ionic_cloud:支持云供应商
IPv6 驱动程序增强:在 vSphere 8.0 Update 2 中,ESXi 驱动程序添加了卸载功能,以在用作覆盖网络时提高 IPv6 的性能。
nvmxnet3 驱动程序对统一直通 (UPT) 模式的支持:vSphere 8.0 Update 2 增加了对 UPT 的支持,可在嵌套 ESXi 环境中更快地执行 vSphere vMotion 操作。
在同时具有 Broadcom 和 Mellanox 网卡的单个主机上支持 8 个 100G 端口:vSphere 8.0 Update 2 针对 Broadcom 和 Mellanox 在 ESXi 中增加了对 100 GB 网卡端口数量的支持,从 4 个增加到 8 个。
用于 REST 身份验证的 CIM 服务票证:除了基于 JWT 的身份验证外,vSphere 8.0 Update 2 还增加了一个选项,可结合使用 CIM 服务票证与 acquireCimServicesTicket()
API for SREST 插件以对 ESXi 主机进行身份验证。
glibc 库更新:glibc 库已更新到版本 2.28 以符合 NIAP 要求。
工作负载的客户机平台:
虚拟硬件版本 21:vSphere 8.0 Update 2 引入了虚拟硬件版本 21,以增强最新的客户机操作系统支持并增加 vGPU 和 vNVME 的最高配置,如下所示:
每个虚拟机 16 个 vGPU 设备(请参见在 vSphere 上配置虚拟图形)
每个虚拟机 256 个 vNVMe 磁盘(64 x 4 个 vNVMe 适配器)
Windows 11 和 Windows Server 2022 的 NVMe 1.3 支持
Windows Server 故障切换集群 (WSFC) 的 NVMe 支持
热扩展共享 vSphere Virtual Volumes 磁盘:vSphere 8.0 Update 2 支持对共享 vSphere Virtual Volumes 磁盘进行热扩展,以便在不停用集群的情况下增加共享磁盘的大小,而且实际上不会停机,对于 Windows Server 故障切换集群 (WSFC) 等虚拟机集群解决方案非常有用。有关详细信息,请参见 WSFC 的 VMware vSphere Virtual Volumes 支持和可以热扩展共享 vVol 磁盘。
对 WSFC 使用 vNVME 控制器:在 vSphere 8.0 Update 2 中,除了具有集群 VMDK 的 WSFC 的现有准虚拟控制器之外,您还可以对 Windows Server 2022(操作系统内部版本 20348.1547)及更高版本使用 NVMe 控制器。要使用 NVMe 控制器,虚拟机硬件版本必须为 21 或更高版本。有关详细信息,请参见设置 Windows Server 故障切换集群。
对多写入器模式下的磁盘使用 vNVME 控制器:从 vSphere 8.0 Update 2 开始,您可以对多写入器模式下的虚拟磁盘(由 Oracle RAC 等第三方集群应用程序使用)使用虚拟 NVMe 控制器。
虚拟扩展主机控制器接口 (xHCI) 的 USB 3.2 支持:在 vSphere 8.0 Update 2 中,虚拟 xHCI 控制器兼容 20 Gbps。
连接的虚拟磁盘的只读模式:在 vSphere 8.0 Update 2 中,可以将虚拟磁盘作为只读磁盘连接到虚拟机,以避免临时重做日志并提高 VMware App Volumes 等用例的性能。
连接第一类磁盘 (FCD) 时支持虚拟机克隆:在 vSphere 8.0 Update 2 中,可以使用 cloneVM()
API 克隆连接了 FCD 的虚拟机。
GPU
任何直通 GPU 卡的 GPU 驱动程序虚拟机:在 vSphere 8.0 Update 2 中,GPU 驱动程序虚拟机有助于针对虚拟 SVGA 设备 (vSGA) 支持新的 GPU 供应商。
存储
在单个 NFS v3 卷上支持多个 TCP 连接:在 vSphere 8.0 Update 2 中,内部部署环境完全支持使用 ESXCLI 支持单个 NFS v3 卷的多个 TCP 连接(即 nConnect)的功能。有关详细信息,请参见 VMware 知识库文章 91497 和 91479。
ESXCLI 支持对 vSphere Virtual Volumes 执行 SCSI UNMAP 操作:从 vSphere 8.0 Update 2 开始,您可以使用命令行 ESXCLI 对 vSphere Virtual Volumes 执行 SCSI UNMAP 操作。
ESXi 的新功能、已解决的问题和已知问题在各个版本的发行说明中均有描述。ESXi 8.0 的早期版本的发行说明包括:
有关国际化、兼容性及开源组件的说明,请参见 VMware vSphere 8.0 发行说明。
此版本的 ESXi 8.0 Update 2 提供了以下修补程序:
内部版本详细信息
下载文件名称: |
VMware-ESXi-8.0U2-22380479-depot.zip |
内部版本: |
22380479 |
下载大小: |
615.7 MB |
sha256checksum: |
76dbd1f0077b20b765c8084e74a5fd012c0c485297f60530e1f9703bdf051b5c |
需要重新引导主机: |
是 |
需要迁移或关闭虚拟机: |
是 |
汇总实体包
此汇总实体包包含 ESXi 8.0 初始发行版之后的最新 VIB 和所有修复。
实体包 ID |
类别 |
严重性 |
ESXi80U2-22380479 |
增强功能 |
重要 |
映像配置文件
VMware 修补程序版本和更新版本包含常规映像配置文件和重要映像配置文件。常规版本映像配置文件仅适用于新的缺陷修复。
映像配置文件名称 |
ESXi-8.0U2-22380479-standard |
ESXi-8.0U2-22380479-no-tools |
ESXi 映像
名称和版本 |
发布日期 |
类别 |
详细信息 |
---|---|---|---|
ESXi_8.0.2-0.0.22380479 |
09/21/2023 |
常规 |
缺陷修复映像 |
有关使用 vSphere Lifecycle Manager 更新和升级的详细信息,请参见关于 vSphere Lifecycle Manager 和 vSphere Lifecycle Manager 基准和映像。也可以使用映像配置文件更新 ESXi 主机,而不使用 vSphere Lifecycle Manager。这需要从 VMware 下载页面或产品修补程序页面手动下载修补程序脱机包 ZIP 文件,并使用 esxcli software profile update 命令。有关详细信息,请参见如何下载 ESXi 修补程序和更新的 ZIP 文件、使用 ESXCLI 命令升级主机以及 VMware ESXi 升级指南。
默认限制使用 ptrace 系统调用:从 vSphere 8.0 Update 2 开始,出于安全考虑,VMware 默认限制使用 ptrace
系统调用。
弃用了 Intel X722 网卡硬件上的 Internet 广域 RDMA 协议 (iWARP):在 vSphere 8.0 Update 2 中,不再支持 Intel X722 网卡硬件上的 iWARP。
弃用了旧版 SOAP API 合同:在 vSphere 8.0 Update 2 中,vSphere 5.5 及更低版本的基于 WSDL 的 SOAP API 合同已弃用,并将从未来 vSphere 版本中移除。基于使用 vSphere 5.5 或更低版本合同的 VMware 或第三方工具的 vSphere 自动化都必须升级到更新的工具。
Windows 虚拟机的默认 NVMe 版本 1.3:从 vSphere 8.0 Update 2 开始,具有硬件 21 及更高版本和虚拟 NVMe 控制器的 Windows Server 2022 或 Windows 11 及更高版本虚拟机的 NVMe 版本默认设置为 1.3。要执行正确的 NVMe 热添加、移除和扩展操作,对于 Windows Server 2022,必须至少将 Windows 升级到 KB5029250(操作系统内部版本 20348.1906);对于 Windows 11 ,必须至少升级到 KB5028254(操作系统内部版本 22621.2070)。
TLS 1.3 支持:vSphere 8.0 Update 2 在 ESXi 中引入了对 TLS 1.3 的初始支持。vCenter 仍使用 TLS 1.2。
qedentv 驱动程序在增强型网络堆栈 (ENS) 模式下支持 NVMe/TCP:从 vSphere 8.0 Update 2 开始,Marvell 的 VMware qedentv 网卡驱动程序在 ENS 模式下支持 NVMe/TCP。
将配置了 NVIDIA BlueField-2 (BF2) DPU 的 vSphere Distributed Service Engine 主机更新到 ESXi 8.0 Update 2 时,同一维护时段内的 ESXi和 BF2 DPU 固件升级必须遵照特定顺序:
将 vSphere Distributed Service Engine 主机置于维护模式。
确保 BF2 DPU 的网卡和 ARM 固件未升级,并且它们仍运行适用于 8.0 Update 2 之前的 ESXi 版本的固件,例如网卡固件版本 24.33.1246 和 ARM 固件版本 18.2.0.12580。
将 ESXi 更新到 8.0 Update 2。
将 BF2 DPU ARM (UEFI & ATF) 固件升级到 4.0.2.12722,这是 ESXi 8.0 Update 2 所需的固件版本。
将 BF2 DPU 网卡固件升级到 24.36.7506,这是 ESXi 8.0 Update 2 驱动程序所需的固件版本。
将 vSphere Distributed Service Engine 主机退出维护模式。
如果未按上述顺序执行这些步骤,ESXi 回滚将失败。如果升级失败,将无法恢复基于 BF2 DPU 的 vSphere Distributed Service Engine 主机配置。
ESXi 8.0 Update 2 中 VMware Tools 捆绑变更
以下 VMware Tools ISO 映像与 ESXi 8.0 Update 2 捆绑在一起:
windows.iso:VMware Tools 12.3.0 支持 Windows 7 SP1 或 Windows Server 2008 R2 SP1 及更高版本。
linux.iso:适用于安装了 glibc 2.11 或更高版本的 Linux 操作系统的 VMware Tools 10.3.25 ISO 映像。
以下 VMware Tools ISO 映像可供下载:
VMware Tools 11.0.6:
windows.iso:适用于 Windows Vista (SP2) 和 Windows Server 2008 Service Pack 2 (SP2)。
VMware Tools 10.0.12:
winPreVista.iso:适用于 Windows 2000、Windows XP 和 Windows 2003。
linuxPreGLibc25.iso:支持低于 Red Hat Enterprise Linux (RHEL) 5、SUSE Linux Enterprise Server (SLES) 11、Ubuntu 7.04 以及 glibc 版本低于 2.5 的其他发行版的 Linux 客户机操作系统。
solaris.iso:适用于 Solaris 的 VMware Tools 映像 10.3.10。
darwin.iso:支持 Mac OS X 版本 10.11 及更高版本。
下载未与 ESXi 捆绑的平台对应的 VMware Tools 时,请遵循以下文档中列出的步骤:
ESXi 8.0 Update 2 包含以下 Intel 微码:
代码名称 |
FMS |
Plt ID |
MCU 修订版 |
MCU 日期 |
品牌名称 |
---|---|---|---|---|---|
Nehalem EP |
0x106a5 (06/1a/5) |
0x03 |
0x1d |
2018 年 5 月 11 日 |
Intel Xeon 35xx 系列;Intel Xeon 55xx 系列 |
Clarkdale |
0x20652 (06/25/2) |
0x12 |
0x11 |
2018 年 5 月 8 日 |
Intel i3/i5 Clarkdale 系列;Intel Xeon 34xx Clarkdale 系列 |
Arrandale |
0x20655 (06/25/5) |
0x92 |
0x7 |
2018 年 4 月 23 日 |
Intel Core i7-620LE 处理器 |
Sandy Bridge DT |
0x206a7 (06/2a/7) |
0x12 |
0x2f |
2019 年 2 月 17 日 |
Intel Xeon E3-1100 系列;Intel Xeon E3-1200 系列;Intel i7-2655-LE 系列;Intel i3-2100 系列 |
Westmere EP |
0x206c2 (06/2c/2) |
0x03 |
0x1f |
2018 年 5 月 8 日 |
Intel Xeon 56xx 系列;Intel Xeon 36xx 系列 |
Sandy Bridge EP |
0x206d6 (06/2d/6) |
0x6d |
0x621 |
2020 年 3 月 4 日 |
Intel Pentium 1400 系列;Intel Xeon E5-1400 系列;Intel Xeon E5-1600 系列;Intel Xeon E5-2400 系列;Intel Xeon E5-2600 系列;Intel Xeon E5-4600 系列 |
Sandy Bridge EP |
0x206d7 (06/2d/7) |
0x6d |
0x71a |
2020 年 3 月 24 日 |
Intel Pentium 1400 系列;Intel Xeon E5-1400 系列;Intel Xeon E5-1600 系列;Intel Xeon E5-2400 系列;Intel Xeon E5-2600 系列;Intel Xeon E5-4600 系列 |
Nehalem EX |
0x206e6 (06/2e/6) |
0x04 |
0xd |
2018 年 5 月 15 日 |
Intel Xeon 65xx 系列;Intel Xeon 75xx 系列 |
Westmere EX |
0x206f2 (06/2f/2) |
0x05 |
0x3b |
2018 年 5 月 16 日 |
Intel Xeon E7-8800 系列;Intel Xeon E7-4800 系列;Intel Xeon E7-2800 系列 |
Ivy Bridge DT |
0x306a9 (06/3a/9) |
0x12 |
0x21 |
2019 年 2 月 13 日 |
Intel i3-3200 系列;Intel i7-3500-LE/UE;Intel i7-3600-QE;Intel Xeon E3-1200-v2 系列;Intel Xeon E3-1100-C-v2 系列;Intel Pentium B925C |
Haswell DT |
0x306c3 (06/3c/3) |
0x32 |
0x28 |
2019 年 11 月 12 日 |
Intel Xeon E3-1200-v3 系列;Intel i7-4700-EQ 系列;Intel i5-4500-TE 系列;Intel i3-4300 系列 |
Ivy Bridge EP |
0x306e4 (06/3e/4) |
0xed |
0x42e |
2019 年 3 月 14 日 |
Intel Xeon E5-4600-v2 系列;Intel Xeon E5-2600-v2 系列;Intel Xeon E5-2400-v2 系列;Intel Xeon E5-1600-v2 系列;Intel Xeon E5-1400-v2 系列 |
Ivy Bridge EX |
0x306e7 (06/3e/7) |
0xed |
0x715 |
2019 年 3 月 14 日 |
Intel Xeon E7-8800/4800/2800-v2 系列 |
Haswell EP |
0x306f2 (06/3f/2) |
0x6f |
0x49 |
2021 年 8 月 11 日 |
Intel Xeon E5-4600-v3 系列;Intel Xeon E5-2600-v3 系列;Intel Xeon E5-2400-v3 系列;Intel Xeon E5-1600-v3 系列;Intel Xeon E5-1400-v3 系列 |
Haswell EX |
0x306f4 (06/3f/4) |
0x80 |
0x1a |
2021 年 5 月 24 日 |
Intel Xeon E7-8800/4800-v3 系列 |
Broadwell H |
0x40671 (06/47/1) |
0x22 |
0x22 |
2019 年 11 月 12 日 |
Intel Core i7-5700EQ;Intel Xeon E3-1200-v4 系列 |
Avoton |
0x406d8 (06/4d/8) |
0x01 |
0x12d |
2019 年 9 月 16 日 |
Intel Atom C2300 系列;Intel Atom C2500 系列;Intel Atom C2700 系列 |
Broadwell EP/EX |
0x406f1 (06/4f/1) |
0xef |
0xb000040 |
2021 年 5 月 19 日 |
Intel Xeon E7-8800/4800-v4 系列;Intel Xeon E5-4600-v4 系列;Intel Xeon E5-2600-v4 系列;Intel Xeon E5-1600-v4 系列 |
Skylake SP |
0x50654 (06/55/4) |
0xb7 |
0x2007006 |
3/6/2023 |
Intel Xeon Platinum 8100 系列;Intel Xeon Gold 6100/5100、Silver 4100、Bronze 3100 系列;Intel Xeon D-2100 系列;Intel Xeon D-1600 系列;Intel Xeon W-3100 系列;Intel Xeon W-2100 系列 |
Cascade Lake B-0 |
0x50656 (06/55/6) |
0xbf |
0x4003604 |
3/17/2023 |
Intel Xeon Platinum 9200/8200 系列;Intel Xeon Gold 6200/5200;Intel Xeon Silver 4200/Bronze 3200;Intel Xeon W-3200 |
Cascade Lake |
0x50657 (06/55/7) |
0xbf |
0x5003604 |
3/17/2023 |
Intel Xeon Platinum 9200/8200 系列;Intel Xeon Gold 6200/5200;Intel Xeon Silver 4200/Bronze 3200;Intel Xeon W-3200 |
Cooper Lake |
0x5065b (06/55/b) |
0xbf |
0x7002703 |
3/21/2023 |
Intel Xeon Platinum 8300 系列;Intel Xeon Gold 6300/5300 |
Broadwell DE |
0x50662 (06/56/2) |
0x10 |
0x1c |
2019 年 6 月 17 日 |
Intel Xeon D-1500 系列 |
Broadwell DE |
0x50663 (06/56/3) |
0x10 |
0x700001c |
2021 年 6 月 12 日 |
Intel Xeon D-1500 系列 |
Broadwell DE |
0x50664 (06/56/4) |
0x10 |
0xf00001a |
2021 年 6 月 12 日 |
Intel Xeon D-1500 系列 |
Broadwell-de NS |
0x50665 (06/56/5) |
0x10 |
0xe000014 |
2021 年 9 月 18 日 |
Intel Xeon D-1600 系列 |
Skylake H/S |
0x506e3 (06/5e/3) |
0x36 |
0xf0 |
2021 年 11 月 12 日 |
Intel Xeon E3-1500-v5 系列;Intel Xeon E3-1200-v5 系列 |
Denverton |
0x506f1 (06/5f/1) |
0x01 |
0x38 |
2021 年 12 月 2 日 |
Intel Atom C3000 系列 |
Ice Lake SP |
0x606a6 (06/6a/6) |
0x87 |
0xd0003a5 |
3/30/2023 |
Intel Xeon Platinum 8300 系列;Intel Xeon Gold 6300/5300 系列;Intel Xeon Silver 4300 系列 |
Ice Lake D |
0x606c1 (06/6c/1) |
0x10 |
0x1000230 |
1/27/2023 |
Intel Xeon D-2700 系列;Intel Xeon D-1700 系列 |
Snow Ridge |
0x80665 (06/86/5) |
0x01 |
0x4c000023 |
2/22/2023 |
Intel Atom P5000 系列 |
Snow Ridge |
0x80667 (06/86/7) |
0x01 |
0x4c000023 |
2/22/2023 |
Intel Atom P5000 系列 |
Tiger Lake U |
0x806c1 (06/8c/1) |
0x80 |
0xac |
2/27/2023 |
Intel Core i3/i5/i7-1100 系列 |
Tiger Lake U Refresh |
0x806c2 (06/8c/2) |
0xc2 |
0x2c |
2/27/2023 |
Intel Core i3/i5/i7-1100 系列 |
Tiger Lake H |
0x806d1 (06/8d/1) |
0xc2 |
0x46 |
2/27/2023 |
Intel Xeon W-11000E 系列 |
Sapphire Rapids SP HBM |
0x806f8 (06/8f/8) |
0x10 |
0x2c0001d1 |
2/14/2023 |
Intel Xeon Max 9400 系列 |
Sapphire Rapids SP |
0x806f8 (06/8f/8) |
0x87 |
0x2b000461 |
3/13/2023 |
Intel Xeon Platinum 8400 系列;Intel Xeon Gold 6400/5400 系列;Intel Xeon Silver 4400 系列;Intel Xeon Bronze 3400 系列 |
Kaby Lake H/S/X |
0x906e9 (06/9e/9) |
0x2a |
0xf4 |
2/23/2023 |
Intel Xeon E3-1200-v6 系列;Intel Xeon E3-1500-v6 系列 |
Coffee Lake |
0x906ea (06/9e/a) |
0x22 |
0xf4 |
2/23/2023 |
Intel Xeon E-2100 系列;Intel Xeon E-2200 系列(4 核或 6 核) |
Coffee Lake |
0x906eb (06/9e/b) |
0x02 |
0xf4 |
2/23/2023 |
Intel Xeon E-2100 系列 |
Coffee Lake |
0x906ec (06/9e/c) |
0x22 |
0xf4 |
2/23/2023 |
Intel Xeon E-2100 系列 |
Coffee Lake Refresh |
0x906ed (06/9e/d) |
0x22 |
0xfa |
2/27/2023 |
Intel Xeon E-2200 系列(8 核) |
Rocket Lake S |
0xa0671 (06/a7/1) |
0x02 |
0x59 |
2/26/2023 |
Intel Xeon E-2300 系列 |
ESXi 8.0 Update 2 包含以下 AMD CPU 微码:
代码名称 |
FMS |
MCU 修订版 |
MCU 日期 |
品牌名称 |
---|---|---|---|---|
Bulldozer |
0x600f12 (15/01/2) |
0x0600063e |
2/7/2018 |
Opteron 6200/4200/3200 系列 |
Piledriver |
0x600f20 (15/02/0) |
0x06000852 |
2/6/2018 |
Opteron 6300/4300/3300 系列 |
Zen-Naples |
0x800f12 (17/01/2) |
0x0800126e |
11/11/2021 |
EPYC 7001 系列 |
Zen2-Rome |
0x830f10 (17/31/0) |
0x0830107a |
5/17/2023 |
EPYC 7002/7Fx2/7Hx2 系列 |
Zen3-Milan-B1 |
0xa00f11 (19/01/1) |
0x0a0011d1 |
7/10/2023 |
EPYC 7003/7003X 系列 |
Zen3-Milan-B2 |
0xa00f12 (19/01/2) |
0x0a001234 |
7/10/2023 |
EPYC 7003/7003X 系列 |
在具有 DPU 的 vSphere 环境中进行 VMware NSX 安装或升级可能会失败并显示连接错误
ESXi 主机端的间歇性计时问题可能会导致在具有 DPU 的 vSphere 环境中进行 NSX 安装或升级失败。nsxapi.log
Failed to get SFHC response. MessageType MT_SOFTWARE_STATUS
本版本已解决该问题。
无法使用 ESXCLI 命令挂载具有 VMkernel 端口绑定的基于 IPv6 的 NFS 3 数据存储
尝试使用 ESXCLI 命令挂载具有 IPv6 服务器地址和 VMkernel 端口绑定的 NFS 3 数据存储时,任务失败并显示以下错误:
[:~] esxcli storage nfs add -I fc00:xxx:xxx:xx::xxx:vmk1 -s share1 -v volume1
Validation of vmknic failed Instance(defaultTcpipStack, xxx:xxx:xx::xxx:vmk1) Input(): Not found:
此问题特定于具有 IPv6 服务器地址和 VMkernel 端口绑定的 NFS 3 数据存储。
本版本已解决该问题。
如果关闭或重新启动 ESXi 主机时 PCI 直通在 DPU 上处于活动状态,则主机将发生故障并显示紫色诊断屏幕
如果活动虚拟机在关闭或重新引导 ESXi 主机时具有到 DPU 的 PCI 直通,则该主机将发生故障并显示紫色诊断屏幕。此问题特定于具有 DPU 的系统,并且仅在使用 PCI 直通到 DPU 的虚拟机中出现。
本版本已解决该问题。
如果为硬件版本低于 20 的虚拟机配置供应商设备组,此类虚拟机可能无法按预期运行
供应商设备组(支持绑定高速网络连接设备和 GPU)仅在硬件版本为 20 及更高版本的虚拟机上受支持,但系统不会阻止您为硬件版本低于 20 的虚拟机配置供应商设备组。此类虚拟机可能无法按预期运行:例如,无法打开电源。
本版本已解决该问题。
由于 NFS 服务器挂载超时,ESXi 重新引导需要很长时间
如果无法访问的 NFS 服务器上有多个挂载,ESXi 会重试连接到每个挂载 30 秒,根据挂载的数量,这可能会导致 ESXi 重新引导延迟长达数分钟。
本版本已解决该问题。
在具有 NVMe/TCP 配置的 ESXi 主机上,自动发现 NVMe 发现服务可能会失败
vSphere 8.0 在 ESXi 中增加了高级 NVMe-oF 发现服务支持,可动态发现符合标准的 NVMe 发现服务。ESXi 使用 mDNS/DNS-SD 服务获取网络上活动 NVMe-oF 发现服务的 IP 地址和端口号等信息。但是,在启用了 NVMe/TCP 的 ESXi 服务器中,配置为使用 vSphere Distributed Switch 的网络上的自动发现可能会失败。此问题不会影响使用标准交换机的 NVMe/TCP 配置。
本版本已解决该问题。
如果在使用 icen 驱动程序启用或禁用 SR-IOV 后未重新引导 ESXi 主机,则在该主机上以 ENS 中断模式配置传输节点时,某些虚拟机可能无法获取 DHCP 地址
如果在 ESXi 主机上使用 icen
驱动程序启用或禁用 SR-IOV,并在 ENS 中断模式下配置传输节点,那么在不重新引导主机的情况下,某些 Rx(接收)队列可能无法正常工作。因此,某些虚拟机可能无法获取 DHCP 地址。
本版本已解决该问题。
如果使用从启用了有状态安装的主机配置文件部署的 ESXi 主机作为映像在集群中部署其他 ESXi 主机,则该操作将失败
如果提取从启用了有状态安装的主机配置文件部署的 ESXi 主机的映像,以在 vSphere Lifecycle Manager 集群中部署其他 ESXi 主机,则该操作将失败。在 vSphere Client 中,您会看到类似以下内容的错误:A general system error occurred: Failed to extract image from the host: no stored copy available for inactive VIB VMW_bootbank_xxx. Extraction of image from host xxx.eng.vmware.com failed
。
本版本已解决该问题。
如果停用 IPv6,您可能会在 ESXi 主机引导期间看到“Jumpstart 插件还原网络激活失败 (Jumpstart plugin restore-networking activation failed)”错误
在 ESXi 控制台中,在主机引导顺序期间,您可能会看到错误横幅:Jumpstart plugin restore-networking activation failed
。该横幅仅在 IPv6 停用时显示,并不表示实际错误。
解决办法:在 ESXi 主机上激活 IPv6 或忽略该消息。
在高性能插件 (HPP) 环境中,网络中断可能会触发主机故障
在旨在提高 ESXi 主机上 NVMe 设备性能的 HPP 环境中,如果网络中断,您可能会看到两个问题:
如果 HPP 声明了多路径本地 SCSI 设备(主动-主动呈现),虚拟机 I/O 可能会提前失败,而不是在其他路径上重试。
如果 HPP 声明本地 SCSI 设备,在全部路径异常 (APD) 场景中,如果从 vCenter 触发完整存储重新扫描,ESXi 主机可能会出现故障并显示紫色诊断屏幕。
这两个问题仅在 SCSI 本地设备以及 I/O 由于缺少网络或 APD 而发生故障时出现。
解决办法:添加用户声明规则以通过 ESXi 本机多路径插件 (NMP) 而非 HPP 来声明设备。有关详细信息,请参见 VMware 知识库文章 94377。
具有增强型网络连接堆栈的 ESXi 主机上的 TCP 连接间歇性中断
如果发送方虚拟机位于具有增强型网络堆栈的 ESXi 主机上,当数据包中的 TCP 校验和值计算结果为 0xFFFF
时,TCP 校验和互操作性可能会导致终端系统丢弃或延迟 TCP 数据包。
解决办法:在具有增强型网络堆栈的 ESXi 主机上禁用 TCP 校验和卸载。在 Linux 中,可以使用 sudo ethtool -K <interface> tx off
。
即使在 ESXi 主机上停用锁定模式,重新引导主机后仍会报告锁定处于活动状态
即使在 ESXi 主机上停用锁定模式,重新引导主机后仍会将其视为活动状态。
解决办法:将用户 dcui
和 vpxuser
添加到锁定模式例外用户列表中,并在重新引导后停用锁定模式。有关详细信息,请参见指定锁定模式例外用户和在 VMware Host Client 中指定锁定模式例外用户。
具有活动 TCP 分段卸载的 IPv6 环境中的传输速度较慢
在具有活动 IPv6 TCP 分段卸载 (TSO) 的环境中,具有 e1000e 虚拟网卡的 Windows 虚拟机的传输速度可能较慢。此问题不会影响 IPv4 环境。
解决办法:停用 TSO,或使用 vmxnet3 适配器而不是 e1000e。
将虚拟机从在 SmartNIC (ECPF) 模式下运行 DPU 设备的 ESXi 主机迁移到在传统网卡模式下运行 DPU 设备的 ESXi 主机时,可能会丢弃覆盖网络流量
使用 vSphere vMotion 将虚拟机(连接到覆盖网络支持的分段)从一个 ESXi 主机(在卸载模式下运行 vSphere Distributed Switch,流量转发逻辑卸载到 DPU)迁移到另一个 ESXi 主机(在非卸载模式下运行 VDS,将 DPU 用作传统网卡),迁移后,可能会丢弃覆盖网络流量。
解决办法:停用并激活目标 ESXi 主机上的虚拟网卡。
如果将 vCenter 更新到 8.0 Update 1,但 ESXi 主机仍使用早期版本,则此类主机上 vSphere Virtual Volumes 数据存储可能会变得无法访问
vSphere 8.0 不再支持自签名 VASA 提供程序证书,默认情况下,配置选项 Config.HostAgent.ssl.keyStore.allowSelfSigned 设置为 false。如果将 vCenter 实例更新到 8.0 Update 1,该版本引入 vSphere API for Storage Awareness (VASA) 版本 5.0,但 ESXi 主机仍使用早期的 vSphere 和 VASA 版本,则使用自签名证书的主机可能无法访问 vSphere Virtual Volumes 数据存储或无法刷新 CA 证书。
解决办法:将主机更新到 ESXi 8.0 Update 1。如果未更新到 ESXi 8.0 Update 1,请参见 VMware 知识库文章 91387。
如果将使用软件 FCoE 配置的主机配置文件应用于 ESXi 8.0 主机,则操作将失败并显示验证错误
从 vSphere 7.0 开始,软件 FCoE 已弃用,且 vSphere 8.0 不支持软件 FCoE 配置文件。如果尝试将早期版本中的主机配置文件应用到 ESXi 8.0 主机,例如编辑主机自定义,操作将失败。在 vSphere Client 中,您会看到类似以下内容的错误:Host Customizations validation error
。
解决办法:禁用主机配置文件中的软件 FCoE 配置子配置文件。
对于早期 ESXi 版本的现有主机配置文件,不能将 ESXi 8.0 主机用作引用主机
当清单中仅有 8.0 引用主机可用时,对 ESXi 版本 7.x、6.7.x 和 6.5.x 的现有主机配置文件的验证将失败。
解决办法:确保清单中具有相应版本的引用主机。例如,使用 ESXi 7.0 Update 2 引用主机更新或编辑 ESXi 7.0 Update 2 主机配置文件。
升级到 ESXi 8.0 后,VMNIC 可能会关闭
如果 VMNIC 的对等物理交换机不支持媒体自动检测,或者禁用了媒体自动检测,并且 VMNIC 链路设置为关闭后再打开,则在升级到或安装 ESXi 8.0 后,链路仍保持关闭。
解决办法:使用以下两个选项之一:
通过导航到系统设置主菜单,在 BIOS 设置中启用选项 media-auto-detect
,通常可以按 F2 或打开虚拟控制台,然后单击设备设置 > <特定博通网卡> > 设备配置菜单 > 媒体自动检测。重新引导主机。
或者,使用类似以下内容的 ESXCLI 命令:esxcli network nic set -S <your speed> -D full -n <your nic>
。使用此选项,您还可以为链路设置固定速度,并且不需要重新引导。
升级到 ESXi 8.0 后,由于参数弃用,某些 nmlx5_core 驱动程序模块设置可能会丢失
nmlx5_core
驱动程序的某些模块参数(如 device_rss
、drss
和 rss
)在 ESXi 8.0 中已弃用,并且在升级到 ESXi 8.0 后,不会保留与默认值不同的任何自定义值。
解决办法:按如下所示,替换 device_rss
、drss
和 rss
参数的值:
device_rss
: 使用 DRSS
参数。
drss
: 使用 DRSS
参数。
rss
: 使用 RSS
参数。
vCenter Server 还原过程的第二阶段进行到 90% 时停滞不前
使用 vCenter Server GUI 安装程序或 vCenter Server Appliance 管理界面 (VAMI) 从基于文件的备份还原 vCenter 时,还原工作流可能会在进行到 90% 时停滞不前,并显示错误 401 Unable to authenticate user
,即使任务在后端成功完成也是如此。如果部署的计算机与 NTP 服务器的时间不一致(需要时间同步),则会出现此问题。由于时间同步,时钟偏差可能会导致正在运行的 GUI 或 VAMI 会话失败。
解决办法:如果使用 GUI 安装程序,则可以从 appliancesh
shell 使用 restore.job.get
命令获取还原状态。如果使用 VAMI,请刷新浏览器。
在增强型网络堆栈 (ENS) 和 VLAN 环境中,使用 Broadcom RDMA 网络接口控制器 (RNIC) 时,聚合以太网 RDMA 流量传输可能会失败
VMware 高带宽解决方案 ENS 不支持 MAC VLAN 筛选器。但是,在 ENS + VLAN 环境中的 Broadcom RNIC 上运行的 RDMA 应用程序需要 MAC VLAN 筛选器。因此,您可能会看到某些 ROCE 流量断开连接。在 NVMe over RDMA + ENS + VLAN 环境或 ENS + VLAN + RDMA 应用程序环境中,当 ESXi 主机重新引导或上行链路启动和关闭时,可能会出现此问题。
解决办法:无
在具有 DPU 的 vSphere 系统中,重置或还原 ESXi 系统配置可能会导致 DPU 处于无效状态
如果在具有 DPU 的 vSphere 系统中重置或还原 ESXi 系统配置(例如,在直接控制台中选择重置系统配置),该操作可能会导致 DPU 处于无效状态。在 DCUI 中,您可能会看到类似以下内容的错误:Failed to reset system configuration. Note that this operation cannot be performed when a managed DPU is present
。对于具有 DPU 的 ESXi 安装,不支持对 -f
强制重新引导选项进行后端调用。尽管 ESXi 8.0 支持 -f
强制重新引导选项,但如果在具有 DPU 的 ESXi 配置上使用 reboot -f
,则强制重新引导可能会导致无效状态。
解决办法:在直接控制台界面中暂时禁用“重置系统配置”。避免在具有 DPU 的 vSphere 系统中重置 ESXi 系统配置。
在具有 DPU 的 vCenter Server 系统中,如果禁用 IPv6,则无法管理 DPU
尽管 vSphere Client 允许执行此操作,但如果在具有 DPU 的 ESXi 主机上禁用 IPv6,则无法使用这些 DPU,因为主机与设备之间的内部通信依赖于 IPv6。此问题仅影响具有 DPU 的 ESXi 主机。
解决办法:确保在具有 DPU 的 ESXi 主机上启用了 IPv6。
在预安装了 Pensando DPU 的 HPE 服务器上重新引导 ESXi 主机时,可能会延迟 10 分钟
在极少数情况下,如果 DPU 出现故障,预安装了 Pensando DPU 的 HPE 服务器可能需要 10 分钟以上才能完成重新引导。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕,默认等待时间为 10 分钟。
解决办法:无。
如果在用于安装 ESXi 8.0 的远程管理应用程序中启用了 USB 接口,则会看到一个额外的具有上行链路 vusb0 的标准交换机 vSwitchBMC
从 vSphere 8.0 开始,在 Integrated Dell Remote Access Controller (iDRAC) 和 HP Integrated Heat Out (ILO) 中,如果启用了 USB 接口(分别为 vUSB 和 vNIC),则会在 ESXi 主机上额外创建一个具有上行链路 vusb0
的标准交换机 vSwitchBMC
。鉴于某些服务器上引入了数据处理单元 (DPU),这是预期行为,但可能会导致 VMware Cloud Foundation 启动进程失败。
解决办法:安装 vSphere 8.0 前,按照供应商文档,在使用的远程管理应用程序中禁用 USB 接口。
安装 vSphere 8.0 后,使用 ESXCLI 命令 esxcfg-advcfg -s 0 /Net/BMCNetworkEnable
阻止在下次重新引导主机时创建虚拟交换机 vSwitchBMC
和关联的端口组。
例如,以下脚本:
~# esxcfg-advcfg -s 0 /Net/BMCNetworkEnable
BMCNetworkEnable 的值为 0,该服务处于禁用状态。
~# reboot
主机重新引导时,不会在与远程管理应用程序网络相关的主机中创建任何虚拟交换机、端口组和 VMKNIC。
如果 NVIDIA BlueField DPU 处于硬件卸载模式禁用状态,则配置了 SR-IOV 虚拟功能的虚拟机将无法打开电源
NVIDIA BlueField DPU 必须处于硬件卸载模式启用状态,配置了 SR-IOV 虚拟功能的虚拟机才能打开电源并正常运行。
解决办法:如果将配置了 SR-IOV 虚拟功能的虚拟机连接到虚拟交换机,请始终对 NVIDIA BlueField DPU 使用硬件卸载模式启用这一默认设置。
在虚拟设备管理界面 (VAMI) 中,您会在升级前阶段看到一条警告消息
vSphere 8.0 已弃用对本地插件的支持,将 vSphere 插件移至远程插件架构。如果您的 8.0 vSphere 环境具有本地插件,则此类插件的某些重大更改可能会导致使用 VAMI 执行升级前检查失败。
在“更新前检查结果”屏幕中,您会看到类似以下内容的错误:
Warning message: The compatibility of plug-in package(s) %s with the new vCenter Server version cannot be validated. They may not function properly after vCenter Server upgrade.
Resolution: Please contact the plug-in vendor and make sure the package is compatible with the new vCenter Server version.
解决办法:在继续升级之前,参阅《VMware 兼容性指南》和 VMware 产品互操作性列表或联系插件供应商获取建议,以确保环境中的本地插件与 vCenter Server 8.0 兼容。有关详细信息,请参见博客 Deprecating the Local Plugins :- The Next Step in vSphere Client Extensibility Evolution 以及 VMware 知识库文章 87880。
无法从启用了 CPU 热添加的虚拟机中移除分配给虚拟非一致内存访问 (NUMA) 节点的 PCI 直通设备
尽管默认情况下,在启用 CPU 热添加以允许将 vCPU 添加到正在运行的虚拟机后,虚拟 NUMA 拓扑会停用,但如果已将某个 PCI 直通设备分配给了 NUMA 节点,则尝试移除该设备时会显示错误。在 vSphere Client 中,您会看到类似以下内容的消息:“无效的虚拟机配置。启用 CPU 热添加后,无法配置虚拟 NUMA”(Invalid virtual machine configuration. Virtual NUMA cannot be configured when CPU hotadd is enabled
)。
解决办法:请参见 VMware 知识库文章 89638。
无法在 Pensando DPU 上将 VMware vSphere Distributed Switch 上的最大传输单元 (MTU) 设置为大于 9174 的值
如果 ESXi 8.0 系统上具有已启用 Pensando DPU 的 vSphere Distributed Services Engine 功能,则无法将 vSphere Distributed Switch 上的最大传输单元 (MTU) 设置为大于 9174 的值。
解决办法:无。
在使用 4.1.3 及更高版本的 ntg3 驱动程序的网卡上,看到链路出现抖动
当两个使用 4.1.3 及更高版本的 ntg3
驱动程序的网卡直接连接(而不是连接到物理交换机端口)时,链路可能会出现抖动。4.1.3 之前的 ntg3
驱动程序或 tg3
驱动程序不会出现此问题。此问题与此类网卡上偶尔出现的节能以太网 (EEE) 链路抖动无关。EEE 问题的修复方法是使用 4.1.7 或更高版本的 ntg3
驱动程序,或者在物理交换机端口上禁用 EEE。
解决办法:将 ntg3
驱动程序升级到版本 4.1.8,并将新模块参数 noPhyStateSet
设置为 1
。noPhyStateSet
参数默认为 0
,并且在大多数环境中不需要,除非它们遇到此问题。
在 vSphere 8.0 中,无法将 Mellanox ConnectX-5、ConnectX-6 卡型号 1 级别 2 和型号 2 用于增强型网络堆栈 (ENS) 模式
由于硬件限制,ConnectX-5 和 ConnectX-6 适配器卡不支持在 vSphere 8.0 中将型号 1 级别 2 和型号 2 用于增强型网络堆栈 (ENS) 模式。
解决办法:使用支持 ENS 型号 1 级别 2 和型号 2A 的 Mellanox ConnectX-6 Lx 和 ConnectX-6 Dx 或更高版本的卡。
Pensando DPU 在 ESXi 主机的物理交换机端口上不支持链路层发现协议 (LLDP)
在具有 DPU 的 ESXi 主机上启用 LLDP 时,该主机无法接收 LLDP 数据包。
解决办法:无。
升级到 vCenter Server 8.0 后,VASA API 版本不会自动刷新
vCenter Server 8.0 支持 VASA API 版本 4.0。但是,将 vCenter Server 系统升级到版本 8.0 后,VASA API 版本可能不会自动更改为 4.0。在以下 2 种情况下会出现此问题:
如果在以前版本的 VMware vCenter 中注册了支持 VASA API 版本 4.0 的 VASA 提供程序,则在升级到 VMware vCenter 8.0 后,VASA API 版本保持不变。例如,如果 VMware vCenter 系统版本 7.x 中注册了同时支持 VASA API 版本 3.5 和 4.0 的 VASA 提供程序,则升级该系统时,即使 VASA 提供程序支持 VASA API 版本 4.0,VASA API 版本也不会自动更改为 4.0。升级后,导航到 vCenter Server > 配置 > 存储提供程序并展开已注册 VASA 提供程序的常规选项卡时,仍会看到 VASA API 版本 3.5。
如果在 VMware vCenter 8.0 系统中注册支持 VASA API 版本 3.5 的 VASA 提供程序,并将 VASA API 版本升级到 4.0,则即使升级后,也仍会看到 VASA API 版本 3.5。
解决办法:在 VMware vCenter 8.0 系统上取消注册 VASA 提供程序,然后重新注册。
由于网络文件复制 (NFC) 管理器的会话未经身份验证,vSphere Storage vMotion 操作在 vSAN 环境中可能会失败
如果虚拟机至少具有一个快照和多个虚拟磁盘,但使用不同的存储策略,则使用 vSphere Storage vMotion 将这些虚拟机迁移到 vSAN 数据存储可能会失败。出现此问题的原因是,由于简单对象访问协议 (SOAP) 正文超出允许的大小,导致 NFC 管理器的会话未经身份验证。
解决办法:先迁移虚拟机主页命名空间,并且仅迁移其中一个虚拟磁盘。此操作完成后,对剩余的 2 个磁盘执行仅磁盘迁移。
由于基于内容的读缓存 (CBRC) 中的摘要操作失败错误,无法创建虚拟机的快照
在极少数情况下,在 CBRC 摘要文件更新期间分配内容 ID 会出现争用情况,这可能会导致数据磁盘中的内容 ID 与摘要磁盘中的内容 ID 之间出现差异。因此,无法创建虚拟机快照。您会在回溯追踪中看到 An error occurred while saving the snapshot: A digest operation has failed
等错误。如果重试快照创建任务,将可以完成此任务。
解决办法:重试快照创建任务。
如果将 vSphere 虚拟基础架构加载到 90% 以上,ESXi 主机可能会间歇性地与 vCenter Server 断开连接
在极少数情况下,如果 vSphere 虚拟基础架构持续使用超过 90% 的硬件容量,则某些 ESXi 主机可能会间歇性地与 vCenter Server 断开连接。连接通常会在几秒钟内恢复。
解决办法:如果与 vCenter Server 的连接未能在几秒钟内如期恢复,请使用 vSphere Client 手动重新连接 ESXi 主机。
在混合 vCenter 环境中使用 API 创建的云原生存储 (CNS) 块卷显示错误
如果您的环境中具有版本 8.0 和 7.x 的 vCenter Server 系统,则使用 API 创建云原生存储 (CNS) 块卷会成功,但在 vSphere Client 中查看 CNS 卷详细信息时,可能会看到错误。您将看到看到类似以下内容的错误:Failed to extract the requested data. Check vSphere Client logs for details. + TypeError: Cannot read properties of null (reading 'cluster')
。仅当通过使用 8.0 vCenter Server 的 vSphere Client 查看由 7.x vCenter Server 管理的卷时,才会出现此问题。
解决办法:登录到 vCenter Server 版本 7.x 系统上的 vSphere Client,查看卷属性。
在极少数情况下,由于 vpxa 上请求队列的文件描述符不足,ESXi 主机可能会变得无响应,并且您会看到 vpxa 转储文件
在极少数情况下,当向 vpxa 服务发出的请求需要很长时间(例如,等待访问速度较慢的数据存储)时,vpxa 上的请求队列可能会超出文件描述符的限制。因此,ESXi 主机可能会暂时变得无响应,并且您会在 /var/core
目录中看到 vpxa-zdump.00*
文件。vpxa 日志中包含行 Too many open files
。
解决办法:无。vpxa 服务将自动重新启动并更正此问题。
如果使用具有不可信证书的自定义更新存储库,则使用 vCenter Lifecycle Manager 工作流将 vCenter Server 升级或更新到 vSphere 8.0 可能会失败
如果使用具有 VMware Certificate Authority (VMCA) 不信任的自签名证书的自定义更新存储库,则 vCenter Lifecycle Manager 将无法从此类存储库下载文件。因此,使用 vCenter Lifecycle Manager 工作流的 vCenter Server 升级或更新操作将失败,并显示错误 Failed to load the repository manifest data for the configured upgrade
。
解决办法:使用 CLI、GUI 安装程序或虚拟设备管理界面 (VAMI) 执行升级。有关详细信息,请参见 VMware 知识库文章 89493。
将现有虚拟硬盘添加到新虚拟机时,您可能会看到虚拟机配置被拒绝的错误
使用 VMware Host Client 将现有虚拟硬盘添加到新虚拟机时,该操作可能会失败并显示错误,例如:The VM configuration was rejected. Please see browser Console
。出现此问题的原因是,VMware Host Client 可能无法获取某些属性,例如硬盘控制器。
解决办法:选择硬盘并转到即将完成页面后,不要单击完成,而是返回一步,等待页面加载完成,然后单击下一步 > 完成。
尝试在版本低于 8.0 的 ESXi 主机上转储 vSphere Lifecycle Manager 映像时,会显示错误消息
ESXi 8.0 引入了显式转储所需状态映像的选择方案,即将库组件从 vSphere Lifecycle Manager 库下载到 ESXi 主机的过程,而无需立即应用软件和固件更新。但是,仅支持在 ESXi 8.0 或更高版本的主机上转储映像。如果尝试在版本低于 8.0 的 ESXi 主机上转储 vSphere Lifecycle Manager 映像,则会显示消息,指出此类主机的转储失败,这些主机将被跳过。这是预期行为,并不表示任何功能失败,因为所有 ESXi 8.0 或更高版本的主机都会使用指定的所需映像进行转储。
解决办法:无。确认受影响的 ESXi 主机的版本低于 8.0 后,忽略这些错误。
在具有 DPU 的 ESXi 主机上使用 vSphere Lifecycle Manager 执行修复任务可能会间歇性失败
在具有 DPU 的 ESXi 主机上启动 vSphere Lifecycle Manager 修复时,主机将按预期升级并重新引导,但在重新引导之后、完成修复任务之前,您可能会看到类似以下内容的错误:
A general system error occurred: After host … remediation completed, compliance check reported host as 'non-compliant'. The image on the host does not match the image set for the cluster. Retry the cluster remediation operation.
出现这个罕见问题的原因是,DPU 上的修复后扫描出现间歇性超时。
解决办法:重新引导 ESXi 主机,并重新运行 vSphere Lifecycle Manager 合规性检查操作,其中包括修复后扫描。
VMware Host Client 显示的严重性事件状态描述可能不正确
在 VMware Host Client 中查看 ESXi 主机的严重性事件状态描述时,这些描述可能与您使用智能平台管理界面 (IPMI) 或 Lenovo XClarity Controller (XCC) 看到的描述不同。例如,在 VMware Host Client 中,PSU 传感器的严重性事件状态描述可能为 Transition to Non-critical from OK
,而在 XCC 和 IPMI 中,该描述为 Transition to OK
。
解决办法:使用 ESXCLI 命令 esxcli hardware ipmi sdr list
和 Lenovo XCC 验证严重性事件状态的描述。
如果使用的 RSA 密钥大小小于 2048 位,则 RSA 签名生成将失败
从 vSphere 8.0 开始,ESXi 使用 OpenSSL 3.0 FIPS 提供程序。根据 FIPS 186-4 要求,对于任何签名生成,RSA 密钥大小都必须至少为 2048 位,并且不支持使用 SHA1 生成签名。
解决办法:使用大于 2048 的 RSA 密钥大小。