VMware vSphere 8.0 | 2022 年 10 月 11 日 ESXi 8.0 | 2022 年 10 月 11 日 | 内部版本 20513097 vCenter Server 8.0 | 2022 年 10 月 11 日 | 内部版本 20519528 请查看发行说明以了解新增内容及更新。 |
VMware vSphere 8.0 | 2022 年 10 月 11 日 ESXi 8.0 | 2022 年 10 月 11 日 | 内部版本 20513097 vCenter Server 8.0 | 2022 年 10 月 11 日 | 内部版本 20519528 请查看发行说明以了解新增内容及更新。 |
此版本的 VMware vSphere 8.0 包括 VMware ESXi 8.0 和 VMware vCenter Server 8.0。有关此版本中的新功能和增强功能,请参见 vSphere 8 技术概述博客。
vSphere 8.0 发行说明不包含以下发行说明:
vSphere 8.0 被指定为正式发布 (GA)。提供以 ESXi 8.0 GA 为基础映像并包含 OEM 固件和驱动程序的自定义 ISO 映像。
有关详细信息,请阅读 vSphere 8 正式发布博客。
重要信息:如果您在 vSphere 上将 Tanzu Kubernetes Grid Service(TKG 客户机集群)与 NSX Advanced Load Balancer(以前称为 Avi Networks)一起使用,并且配置了多个服务引擎组,请不要升级到本版本。对于此类环境,升级到 VMware vSphere with Tanzu 8.0 可能会导致无法创建新的 Tanzu Kubernetes 客户机集群或导致现有主管集群升级失败。
VMware vSphere 8.0 提供以下语言的版本:
英语
意大利语
法语
德语
西班牙语
日语
韩语
简体中文
繁体中文
vSphere 8.0 的组件(包括 vCenter Server、ESXi、vSphere Client 和 VMware Host Client)不接受非 ASCII 输入。
ESXi 的虚拟机兼容性
ESXi 8.0 支持与 ESX 3.x 及更高版本(硬件版本 4)兼容的虚拟机。与 ESX 2.x 及更高版本(硬件版本 3)兼容的虚拟机不受支持。要在 ESXi 8.0 上使用此类虚拟机,请升级虚拟机兼容性。请参见 ESXi 升级文档。
ESXi 的客户机操作系统兼容性
要确定哪些客户机操作系统与 vSphere 8.0 兼容,请查看《VMware 兼容性指南》中关于 ESXi 8.0 的信息。
以下客户机操作系统版本在本版本中已弃用或终止。未来的 vSphere 版本将不支持以下客户机操作系统:
Windows Vista、Windows 2003/R2、Windows XP:已弃用
Oracle Linux 5.x:已弃用
Oracle Linux 4.9:已终止
CentOS 5.x:已弃用
Asianux 3.0:已弃用
SUSE Linux Enterprise Server 9 SP4:已终止
SUSE Linux Enterprise Server 10 SP4:已弃用
SUSE Linux Enterprise Desktop 12:已弃用
Ubuntu 版本 12.04、18.10、19.04 和 19.10:已终止
Debian 7.x 和 8.x:已弃用
Debian 6.0:已终止
Photon OS 1.0:已终止
Flatcar Container Linux 非 LTS 版本:已终止
所有 OS X 和 macOS 版本:已终止
FreeBSD 9.x 和 10.x:已弃用
FreeBSD 7.x 和 8.x:已终止
Solaris 10.x:已弃用
所有 eComStation 版本:已终止
所有 SCO 版本:已终止
所有 CoreOS 版本:已终止
ESXi 的设备兼容性
要确定哪些设备与 ESXi 8.0 兼容,请查看《VMware 兼容性指南》中关于 ESXi 8.0 的信息。
ESXi 的硬件兼容性
要查看与 vSphere 8.0 兼容的处理器、存储设备、SAN 阵列和 I/O 设备的列表,请查看《VMware 兼容性指南》中关于 ESXi 8.0 的信息。
ESXi 和 vCenter Server 版本兼容性
VMware 产品互操作性列表详细介绍了 VMware vSphere 组件(包括 ESXi、VMware vCenter Server 和可选的 VMware 产品)当前版本与早期版本的兼容性问题。此外,在安装 ESXi 或 vCenter Server 之前,请查看 VMware 产品互操作性列表以了解有关受支持的管理和备份代理的信息。
vSphere Lifecycle Manager 及 vSphere Client 与 vCenter Server 打包在一起。
vSphere 8.0 需要一个最多可支持 32 个物理内核的 CPU 许可证。如果 CPU 的内核超过 32 个,则需要额外的 CPU 许可证,如 VMware 按 CPU 的定价模型更新中所述。在升级 ESXi 主机之前,您可以使用计算新 VMware 许可策略下所需的 CPU 许可证中所述的许可证计数工具来确定所需的许可证数量。
ESXi 8.0 中 VMware Tools 捆绑变更
以下 VMware Tools ISO 映像与 ESXi 8.0 捆绑在一起:
windows.iso:VMware Tools 12.0.6 支持 Windows 7 SP1 或 Windows Server 2008 R2 SP1 及更高版本。
linux.iso:适用于安装了 glibc
2.11 或更高版本的 Linux 操作系统的 VMware Tools 10.3.24 ISO 映像。
以下 VMware Tools ISO 映像可供下载:
VMware Tools 11.0.6:
windows.iso:适用于 Windows Vista (SP2) 和 Windows Server 2008 Service Pack 2 (SP2)。
VMware Tools 10.0.12:
winPreVista.iso:适用于 Windows 2000、Windows XP 和 Windows 2003。
linuxPreGLibc25.iso:支持低于 Red Hat Enterprise Linux (RHEL) 5、SUSE Linux Enterprise Server (SLES) 11、Ubuntu 7.04 以及 glibc
版本低于 2.5 的其他发行版的 Linux 客户机操作系统。
solaris.iso:适用于 Solaris 的 VMware Tools 映像 10.3.10。
darwin.iso:支持 Mac OS X 版本 10.11 及更高版本。
下载未与 ESXi 捆绑的平台对应的 VMware Tools 时,请遵循以下文档中列出的步骤:
安装说明
有关安装和配置 ESXi 和 vCenter Server 的指导,请阅读《ESXi 安装和设置》以及《vCenter Server 安装和设置》。
虽然安装过程很简单,但是仍须执行若干后续配置步骤。请阅读以下文档:
《vCenter Server 和主机管理》文档中的“许可证管理”
《vSphere 网络连接》文档中的“网络连接”
《vSphere 安全性》文档中的“安全性”,了解有关防火墙端口的信息
VMware 最高配置工具可帮助您规划 vSphere 部署。使用此工具可以查看虚拟机、ESXi、vCenter Server、vSAN、网络连接等的限制。您还可以比较两个或更多产品版本的限制。VMware 最高配置工具最适合在台式机和笔记本电脑等较大幅面的设备上查看。
对于完整 ESXi 安装,弃用 USB 或 SD 卡设备:从 ESXi 8.0 开始,有限支持旧版 SD 和 USB 设备,不支持使用 SD 卡进行新平台的认证。对引导槽分区支持使用 SD 和 USB 设备。可以在 partnerweb.vmware.com 上找到经过验证的设备列表。将不再使用 SD 和 USB 设备存储 ESX-OSData 分区,最佳做法是提供最小 32 GB 的独立持久本地设备存储 ESX-OSData 卷。有关更多详细信息,请参见 VMware 知识库文章 85685。
ESXi 引导内存要求增加:ESXi 引导的最低内存要求已从 4 GB 增加到 8 GB。运行虚拟机所需的最小内存量仍为 8 GB。
具有 DPU 的 ESXi 安装不支持“reboot -f”选项:尽管 ESXi 支持 -f force
重新引导选项,但如果在具有 DPU 的 ESXi 配置上使用 reboot -f
,则强制重新引导可能会导致无效状态。
无法使用 Auto Deploy 在 DPU 上安装 ESXi。可以使用交互式和脚本式方法在 DPU 上全新安装 ESXi。
禁止对不支持的 CPU 进行升级和安装
对于使用 Broadcom bnxtnet
网卡驱动程序的 ESXi 主机,在安装或升级到 ESXi 8.0 之前,请确保网卡固件为 222.1.68.0 或更高版本等兼容版本。如果未使用《VMware 兼容性指南》规定的或 OEM 建议的兼容固件版本,可能会出现性能下降、固件故障或 ESXi 主机故障等问题。
vSphere 8.0 不再支持已由硬件供应商标记为“终止支持”或“生命周期结束”的 CPU。有关更多详细信息,请参见 VMware 知识库文章 82794。
弃用旧版 BIOS:在 vSphere 8.0 中,强烈建议使用统一可扩展固件接口 (UEFI) 引导 ESXi 主机。某些 ESXi 8.0 主机可能无法在旧版 BIOS 模式下成功引导。如果此更改影响您的 vSphere 系统,请参见 VMware 知识库文章 84233 和 89682,了解相关详细信息和行动计划。
升级说明
vSphere 系统升级的最佳做法是,vCenter 版本始终高于或等于 ESXi 版本,以确保可以使用最新 vSphere 版本中引入的所有新功能。有关 vSphere 内部版本号的详细信息,请参见 VMware vCenter Server 的内部版本号和版本以及 VMware ESXi/ESX 的内部版本号和版本。有关 vSphere 回溯版本升级限制,请参见 VMware 知识库文章 67077。
在升级处于增强型链路模式 (ELM) 的 vCenter 之前,最好先为 Single Sign-On 域中的所有 vCenter Server 和 Platform Services Controller 创建已关闭电源的并发快照,以防止出现复制同步问题。如果需要回滚到快照,可以将所有 PSC 和 vCenter Server 恢复到先前的状态。
vSphere 8.0 与 VMware NSX for vSphere (NSX-V) 不兼容。不支持从具有 NSX for vSphere 的系统升级到 vSphere 8.0。有关详细信息,请参见 NSX 迁移指南。
不支持从 ESXi 6.5 直接升级到 8.0,因为 ESXi 8.0 移除了 ESXi 6.5 中引入的 VMKAPI 版本 2.4。如果在 6.7.x 或 7.x 环境中具有依赖 VMKAPI 版本 2.4 的 ESXi 6.5 VIB,则此类 VIB 会阻止从 6.7.x 或 7.x 升级到 8.0。在用于升级到 ESXi 8.0 的映像中,只能使用版本 6.7.x 或更高版本的 VIB。要提供较新版本的 VIB,您可以使用 VMKAPI 2.4 之后的版本对应的开发工具包重新认证。有关详细信息,请参见 VMware 知识库文章 88646。
如果继续从具有 nmlx4_en
驱动程序支持的设备或已从 lpfc
驱动程序中移除的设备的主机升级到 ESXi 8.0,则可能会出现以下不可恢复的后果:失去存储或数据存储的访问权限、失去网络访问权限或丢失主机上先前的配置。升级到 ESXi 8.0 之前,应替换以前由 nmlx4_en
驱动程序支持的设备或已从 8.0 lpfc
驱动程序中移除的设备。有关 ESXi 8.0 中不再支持的设备的完整列表,请参见 VMware 知识库文章 88172。
ESXi 8.0 安装和升级工作流会阻止元数据中没有 SHA256 校验和的 VIB,例如,ESXi 版本低于 6.7 的 VIB。您必须将此类 VIB 替换为更高版本:6.7.x、7.x 和 8.0。
交互式或脚本式方法不支持在 DPU 上升级 ESXi。可以改用 vSphere Lifecycle Manager 或 ESXCLI。例如,在 ESXi 主机上运行 esxcli software *
命令会自动在 DPU(如果主机上有此设备)上触发相同的操作。
登录到 Customer Connect 帐户后,可从 https://customerconnect.vmware.com/cn/downloads/info/slug/datacenter_cloud_infrastructure/vmware_vsphere/8_0#open_source 获取适用于 vSphere 8.0 中分发的开源软件组件的版权声明和许可证。在开源选项卡中,还可以下载需向 vSphere 最新可用版本提供其源代码或源代码变更的所有 GPL、LGPL 或其他类似许可证的源文件。
数据处理单元 (DPU) 支持:vSphere 8.0 在 ESXi 中增加了对 NVIDIA 和 AMD Pensando SmartNIC 设备(也称为 DPU)的支持。有关详细信息,请参见 VMware vSphere® Distributed Services EngineTM 简介和使用 DPU 进行网络加速。
TPM 置备策略:从 ESX 8.0 开始,您可以使用 TPM 置备策略,在该策略中,可以在克隆或部署操作期间自动替换虚拟 TPM 设备。有关详细信息,请参见 vSphere 上的 Windows 11 支持。
弃用 N 端口 ID 虚拟化 (NPIV):NPIV 是一个 ANSI T11 标准,它定义了如何使用多个全球端口名称 (WWPN) 在架构中注册单个光纤通道 HBA 端口。由于存在许多替代方案,NPIV 将在未来的 vSphere 版本中被弃用。
弃用集成 Windows 身份验证 (IWA):由于基于 IWA 的身份验证存在性能问题,vSphere 8.0 已弃用 IWA。可以使用基于 LDAP 的 AD 或 ADFS。
弃用通用信息模型 (CIM) 和服务位置协议 (SLP):由于安全问题,ESXi 8.0 已弃用对 CIM 和 SLP 的支持,并将在未来版本中移除。或者,考虑将守护进程软件开发工具包 (DSDK) 用于依赖于 CIM 的解决方案,例如 CIM 提供程序开发工具包 (CIMPDK) 和 vSphere APIs for I/O Filtering (VAIO) 开发工具包。vSphere 8.0 未发布任何 CIMPDK,但适用于 ESXi 7.x 的 CIM 提供程序将继续用于 ESXi 8.0 以确保顺利升级。
智能卡双向身份验证移至端口 3128:vCenter Server 8.0 将智能卡双向身份验证移至端口 3128,并且需要在配置期间重新启动 Security Token Service (STS)。有关详细信息,请参见配置反向代理以请求客户端证书。
Marvell 提供的 VMware 内置 qedentv
网卡驱动程序在 ESXi 8.0 中不支持增强型网络堆栈 (ENS) 模式下的 NVMe/TCP。
弃用 vSphere Lifecycle Manager 基准:vSphere 8.0 支持使用 vSphere Lifecycle Manager 基准和基准组(旧版 vSphere Update Manager 工作流)管理集群,但在未来的 vSphere 版本中将不再提供支持。虽然无法再使用基准和基准组,但可以使用 vSphere Lifecycle Manager 映像在集群级别执行任务,例如,在集群中的所有主机上安装所需的 ESXi 版本、安装和更新第三方软件、更新和升级 ESXi 或固件、生成建议,以及对集群使用建议的映像。有关更多详细信息,请参见博客 Introducing vSphere Lifecycle Management (vLCM)。
预定义的 vSphere Lifecycle Manager 基准仅限于 VMware 内容:自 vSphere 8.0 起,vSphere Lifecycle Manager 的预定义基准仅限于 VMware 提供的内容。第三方内容(如异步驱动程序和工具)不再是预定义基准的一部分。如果需要添加第三方内容以更新基准,则必须手动创建自定义基准。
弃用修补程序管理器 API:在 vSphere 8.0 中,修补程序管理器 API 已弃用。vSphere 8.0 支持修补程序管理器 API,但在未来的 vSphere 版本中将停止提供支持。虽然无法再使用修补程序管理器 API,但可以使用《vSphere API 自动化参考指南》中记录的最新 vSphere API。
弃用本地插件:vSphere 8.0 已弃用对本地插件的支持,将 vSphere 插件移至远程插件架构。VMware 计划在未来的 vSphere 版本中停止支持本地插件。有关详细信息,请参见博客 Deprecating the Local Plugins :- The Next Step in vSphere Client Extensibility Evolution 以及 VMware 知识库文章 87880。
移除对 32 位用户环境的支持:ESXi 8.0 不支持 32 位用户环境,您需要重新编译使用 32 位子系统的任何解决方案。
移除 VMKAPI v2.4:vSphere 8.0 不支持 VMKAPI v2.4,您必须使用更新版本的 API,并使用最新的开发工具包进行重新认证。
移除 nmlx4_en 驱动程序:ESXi 8.0 移除 nmlx4_en
驱动程序,并且不支持使用此驱动程序的所有设备。
移除可信平台模块 (TPM) 1.2:VMware 将停止支持 TPM 1.2 及关联功能,例如带有 TXT 的 TPM 1.2。要充分利用 vSphere 功能,可以使用 TPM 2.0 代替 TPM 1.2。
移除不安全密码:vSphere 8.0 不再支持指定 SHA-1 签名算法或其他弱签名算法的 X.509 证书。如果正在使用采用弱签名算法的证书,预检查将阻止升级到 vCenter Server 8.0 和 ESXi 8.0。有关修复步骤,请参见 VMware 知识库文章 89424。
移除软件 FCoE 适配器:在 vSphere 8.0 中,配置使用 ESXi 中本机 FCoE 堆栈的软件 FCoE 适配器的选项已移除且不受支持。此更改不会影响硬件 FCoE 适配器和驱动程序。
停止支持 nmlx4_en 和 lpfc 驱动程序使用的 I/O 设备:VMware 打算停止支持达到使用寿命的 I/O 设备,例如 lpfc
驱动程序以前支持的设备以及使用 nmlx4_en
驱动程序的所有设备。有关详细信息,请参见 VMware 知识库文章 88172。
无法将只读 VMDK 注册为 FCD:在 vSphere 8.0 中,不支持在注册为 FCD 的只读 vmdk 上调用的任何虚拟存储生命周期管理 API。
停止支持客户机操作系统:vSphere 8.0 不再支持以下客户机操作系统:
eComStation
SCO Openserver
SCO Unixware
Oracle Linux 4.x
SLES9 SP4
Ubuntu 12.04 LTS
Debian 6.0
FreeBSD 7.x
FreeBSD 8.x
防止执行不受信任的二进制文件:从 ESXi 8.0 开始,默认情况下启用了一个新的安全选项,可限制执行不受信任的二进制文件,从而更好地抵御勒索软件攻击。execInstalledOnly
选项目前是一个运行时参数,可限制执行应用程序和 vmkernel 模块等二进制文件,以提高安全性并抵御破坏和泄露行为。启用 execInstalledOnly
后,仅允许运行使用 VIB 在本地安装的二进制文件。
OpenSSL 3.0 支持:ESXi 8.0 支持 OpenSSL 3.0,并且不再支持 TLS 1.0 和 TLS 1.1。vCenter 不支持 OpenSSL 3.0。在 vCenter 中,TLS 1.2 默认处于启用状态,TLS 1.0 和 TLS 1.1 默认处于禁用状态,但您可以临时将其启用。
对网卡执行基于硬件时间戳的精度时间协议 (PTP) 认证:vSphere 8.0 在 I/O Vendor Partner (IOVP) 认证计划中增加了对支持基于硬件时间戳的 PTP 的网卡的认证。
对 vSphere Virtual Volumes 提供 NVMe over Fabrics (NVMe-oF) 支持:vSphere 8.0 在 IOVP NVMe-FC 认证计划中增加了对 vSphere Virtual Volumes 的 NVMe-oF 支持。
NVMeoF-RDMA 规模增强:在 vSphere 8.0 中,使用 NVMeoF,可以将 NVMe 命名空间和路径分别扩展到 256 和 4,000。
高级 NVMe-oF 发现服务支持:vSphere 8.0 针对合规的 NVMe 发现服务和存储阵列增加了动态发现设备功能。
Syslog 增强功能:vSphere 8.0 统一了 ESXi syslog 守护进程在所有 vSphere 和 VCF 产品中的日志格式,如果系统直接从 ESXi 使用 syslog 日志文件,则您需要更新解决方案。有关详细信息,请参见配置系统日志记录。可以选择根据 RFC 5424 或帧消息配置从 ESXi 传输 syslog 消息。有关详细信息,请参见 ESXi Syslog 消息的协议、格式和框架。可以使用 vSphere Client 或 VMware Host Client 设置所有 syslog 控制参数,而无需使用 SSH 或 ESXCLI。
逐步淘汰 LSI SAS 控制器:由于适用于 Windows 的 LSI SAS 驱动程序已达到使用寿命,vSphere 8.0 会自动、安全地将运行 Windows 10 及更高版本或 Windows Server 2016 及更高版本的虚拟机的 LSI SAS 控制器替换为原生 VMware PVSCI 控制器。对于 Windows 10 及 Windows Server 2016 之前版本上的虚拟机,可以手动将 LSI SAS 控制器替换为 PVSCI、SATA 或 NVMe 控制器。
默认 RSA 密钥长度符合美国国防部影响级别 6 (IL-6):为符合 IL6 标准,在 vSphere 8.0 中,为 vCenter Server 证书生成的默认 RSA 密钥长度从 2048 位增加到了 3072 位。
管理员用户具有 ESXi Shell 访问权限:从 vSphere 8.0 开始,具有管理员角色的用户可以移除或授予用户帐户 ESXi Shell 访问权限。有关详细信息,请参见如何配置安全 vSphere 主机配置文件。
停止支持 Apple Mac 平台:ESXi 8.0 不支持 Apple MacPro 和 Apple MacMini 平台,也不支持将 macOS 作为客户机操作系统。有关详细信息,请参见 VMware 知识库文章 88698。
虚拟硬件版本 20:ESXi 8.0 引入了虚拟硬件版本 20,可支持资源最高配置较高的虚拟机,并支持:
虚拟 NUMA 拓扑
增强型 Direct Path I/O
虚拟超线程
vMotion 应用程序通知
虚拟机数据集
OpenGL 4.3
UEFI 2.7A
增强了 vSphere Lifecycle Manager 的可扩展性:在 vSphere 8.0 中,vSphere Lifecycle Manager 映像操作得到了扩展,支持的 ESXi 主机数从 280 个增加到了 1,000 个。
支持 UEFI 2.7A:vSphere 8.0 符合 UEFI 规范版本 2.7A,可支持部分 Microsoft Windows 11 功能。
vSphere Configuration Profiles:vSphere 8.0 推出了 vSphere Configuration Profiles 技术预览版。此功能不仅可以让您在集群级别指定所需的主机配置以管理 ESXi 集群配置,还可以自动扫描 ESXi 主机,以确保其符合指定的所需配置,并修复任何不合规的主机。此技术预览版仅适用于使用标准交换机的客户,不支持 VMware vSphere Distributed Switch (VDS),并要求使用 vSphere Lifecycle Manager 映像管理集群生命周期。
移除聚合以太网 RDMA (RoCE) v1:从 vSphere 8.0 开始,VMware 不支持网络协议 RoCE v1。您可以使用 RoCEv2。确保将虚拟机和客户机操作系统的准虚拟化远程直接内存访问 (PVRDMA) 网络适配器迁移到支持 RoCEv2 的适配器。
vCenter Server 还原过程的第二阶段进行到 90% 时停滞不前
使用 vCenter Server GUI 安装程序或 vCenter Server Appliance 管理界面 (VAMI) 从基于文件的备份还原 vCenter 时,还原工作流可能会在进行到 90% 时停滞不前,并显示错误 401 Unable to authenticate user
,即使任务在后端成功完成也是如此。如果部署的计算机与 NTP 服务器的时间不一致(需要时间同步),则会出现此问题。由于时间同步,时钟偏差可能会导致正在运行的 GUI 或 VAMI 会话失败。
解决办法:如果使用 GUI 安装程序,则可以从 appliancesh
shell 使用 restore.job.get
命令获取还原状态。如果使用 VAMI,请刷新浏览器。
升级到 ESXi 8.0 后,由于参数弃用,某些 nmlx5_core 驱动程序模块设置可能会丢失
nmlx5_core
驱动程序的某些模块参数(如 device_rss
、drss
和 rss
)在 ESXi 8.0 中已弃用,并且在升级到 ESXi 8.0 后,不会保留与默认值不同的任何自定义值。
解决办法:按如下所示,替换 device_rss
、drss
和 rss
参数的值:
device_rss
: 使用 DRSS
参数。
drss
: 使用 DRSS
参数。
rss
: 使用 RSS
参数。
如果在升级到 ESXi 8.0 期间刷新 vCenter Server Security Token Service (STS),则升级可能会失败
在 vSphere 8.0 中,vCenter Single Sign-On 将自动续订 VMCA 生成的 STS 签名证书。自动续订发生在 STS 签名证书过期之前,以及触发 90 天过期警报之前。但是,在集群中的多个 ESXi 主机上使用 vSphere Lifecycle Manager 映像执行长时间运行的升级或修复任务时,vSphere Lifecycle Manager 可能会在内部创建 STS 证书缓存。在极少数情况下,如果 STS 证书刷新任务与长时间运行的升级或修复任务并行开始,则升级任务可能会失败,因为内部缓存中的 STS 证书可能与刷新后的证书不同。升级任务失败后,某些 ESXi 主机可能仍处于维护模式。
解决办法:手动将任何 ESXi 主机退出维护模式,然后重试升级或修复。系统将自动刷新或导入并替换 STS 签名证书,且不需要重新启动 vCenter Server 以避免停机。
升级到 ESXi 8.0 后,VMNIC 可能会关闭
如果 VMNIC 的对等物理交换机不支持媒体自动检测,或者禁用了媒体自动检测,并且 VMNIC 链路设置为关闭后再打开,则在升级到或安装 ESXi 8.0 后,链路仍保持关闭。
解决办法:使用以下两个选项之一:
通过导航到系统设置主菜单,在 BIOS 设置中启用选项 media-auto-detect
,通常可以按 F2 或打开虚拟控制台,然后单击设备设置 > <特定博通网卡> > 设备配置菜单 > 媒体自动检测。重新引导主机。
或者,使用类似以下内容的 ESXCLI 命令:esxcli network nic set -S <your speed> -D full -n <your nic>
。使用此选项,您还可以为链路设置固定速度,并且不需要重新引导。
对于早期 ESXi 版本的现有主机配置文件,不能将 ESXi 8.0 主机用作引用主机
当清单中仅有 8.0 引用主机可用时,对 ESXi 版本 7.x、6.7.x 和 6.5.x 的现有主机配置文件的验证将失败。
解决办法:确保清单中具有相应版本的引用主机。例如,使用 ESXi 7.0 Update 2 引用主机更新或编辑 ESXi 7.0 Update 2 主机配置文件。
如果将使用软件 FCoE 配置的主机配置文件应用于 ESXi 8.0 主机,则操作将失败并显示验证错误
从 vSphere 7.0 开始,软件 FCoE 已弃用,且 vSphere 8.0 不支持软件 FCoE 配置文件。如果尝试将早期版本中的主机配置文件应用到 ESXi 8.0 主机,例如编辑主机自定义,操作将失败。在 vSphere Client 中,您会看到类似以下内容的错误:Host Customizations validation error
。
解决办法:禁用主机配置文件中的软件 FCoE 配置子配置文件。
在具有 DPU 的 vSphere 系统中,重置或还原 ESXi 系统配置可能会导致 DPU 处于无效状态
如果在具有 DPU 的 vSphere 系统中重置或还原 ESXi 系统配置(例如,在直接控制台中选择重置系统配置),该操作可能会导致 DPU 处于无效状态。在 DCUI 中,您可能会看到类似以下内容的错误:Failed to reset system configuration. Note that this operation cannot be performed when a managed DPU is present
。对于具有 DPU 的 ESXi 安装,不支持对 -f
强制重新引导选项进行后端调用。尽管 ESXi 8.0 支持 -f
强制重新引导选项,但如果在具有 DPU 的 ESXi 配置上使用 reboot -f
,则强制重新引导可能会导致无效状态。
解决办法:重新安装 ESXi。避免在具有 DPU 的 vSphere 系统中重置 ESXi 系统配置。
在 vSphere API 资源管理器、VMware Datacenter CLI (DCLI) 和 PowerCLI 中,您会看到 API 选项“contentinternal”不起作用
您会在 vSphere API 资源管理器、DCLI 和 PowerCLI 的元数据中看到 API 选项 contentinternal。例如,打开 https://<your vCenter IP>/ui/app/devcenter/api-explorer
时,您会在选择 API 下拉菜单中看到该选项。但该选项不起作用。
解决办法:忽略 contentinternal API 选项,不使用该选项。
如果为硬件版本低于 20 的虚拟机配置供应商设备组,此类虚拟机可能无法按预期运行
供应商设备组(支持绑定高速网络连接设备和 GPU)仅在硬件版本为 20 及更高版本的虚拟机上受支持,但系统不会阻止您为硬件版本低于 20 的虚拟机配置供应商设备组。此类虚拟机可能无法按预期运行:例如,无法打开电源。
解决办法:在虚拟机中配置供应商设备组之前,请确保该虚拟机的硬件版本为 20。
如果从 OVF 文件或内容库部署虚拟机,则该虚拟机的每插槽内核数将设置为 1
如果从 OVF 文件或内容库部署虚拟机,而不是让 ESXi 自动选择每插槽内核数,则该数字将预设为 1。
解决办法:可以使用 vSphere Client 手动设置每插槽内核数。
无法从启用了 CPU 热添加的虚拟机中移除分配给虚拟非一致内存访问 (NUMA) 节点的 PCI 直通设备
尽管默认情况下,在启用 CPU 热添加以允许将 vCPU 添加到正在运行的虚拟机后,虚拟 NUMA 拓扑会停用,但如果已将某个 PCI 直通设备分配给了 NUMA 节点,则尝试移除该设备时会显示错误。在 vSphere Client 中,您会看到类似以下内容的消息:“无效的虚拟机配置。启用 CPU 热添加后,无法配置虚拟 NUMA”(Invalid virtual machine configuration. Virtual NUMA cannot be configured when CPU hotadd is enabled
)。
解决办法:无。
在虚拟设备管理界面 (VAMI) 中,您会在升级前阶段看到一条警告消息
vSphere 8.0 已弃用对本地插件的支持,将 vSphere 插件移至远程插件架构。如果您的 8.0 vSphere 环境具有本地插件,则此类插件的某些重大更改可能会导致使用 VAMI 执行升级前检查失败。
在“更新前检查结果”屏幕中,您会看到类似以下内容的错误:
Warning message: The compatibility of plug-in package(s) %s with the new vCenter Server version cannot be validated. They may not function properly after vCenter Server upgrade.
Resolution: Please contact the plug-in vendor and make sure the package is compatible with the new vCenter Server version.
解决办法:在继续升级之前,参阅《VMware 兼容性指南》和 VMware 产品互操作性列表或联系插件供应商获取建议,以确保环境中的本地插件与 vCenter Server 8.0 兼容。有关详细信息,请参见博客 Deprecating the Local Plugins :- The Next Step in vSphere Client Extensibility Evolution 以及 VMware 知识库文章 87880。
某些 ionic_en 驱动程序上行链路可能仅在单个接收队列的情况下运行,并且在本机模式下性能会下降
Pensando Distributed Services Platform (DSC) 适配器具有 2 个高速以太网控制器(例如,vmnic6
和 vmnic7
)和一个管理控制器(例如 vmnic8
):
:~] esxcfg-nics -l
vmnic6 0000:39:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:48 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller
vmnic7 0000:3a:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:49 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller
:~] esxcfg-nics -lS
vmnic8 0000:3b:00.0 ionic_en_unstable Up 1000Mbps Full 00:ae:cd:09:c9:4a 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Management Controller
高速以太网控制器 vmnic6
和 vmnic7
先注册并在 RSS 设置为 16 个接收队列的情况下运行。
:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=16, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }
但是,在极少数情况下,如果管理控制器 vmnic8
率先在 vSphere Distributed Switch 中注册,则高速以太网控制器 vmnic6
或 vmnic7
上行链路最终可能会在 RSS 设置为 1 个接收队列的情况下运行。:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=1, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }
因此,在本机模式下,您可能会看到性能下降。
解决办法:使用以下命令在 ESXi 上重新加载 ionic_en driver
::~] esxcfg-module -u ionic_en
:~] esxcfg-module ionic_en
:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int/ deviceInternal bind
。
如果 NVIDIA BlueField DPU 处于硬件卸载模式禁用状态,则配置了 SR-IOV 虚拟功能的虚拟机将无法打开电源
NVIDIA BlueField DPU 必须处于硬件卸载模式启用状态,配置了 SR-IOV 虚拟功能的虚拟机才能打开电源并正常运行。
解决办法:如果将配置了 SR-IOV 虚拟功能的虚拟机连接到虚拟交换机,请始终对 NVIDIA BlueField DPU 使用硬件卸载模式启用这一默认设置。
如果在用于安装 ESXi 8.0 的远程管理应用程序中启用了 USB 接口,则会看到一个额外的具有上行链路 vusb0 的标准交换机 vSwitchBMC
从 vSphere 8.0 开始,在 Integrated Dell Remote Access Controller (iDRAC) 和 HP Integrated Heat Out (ILO) 中,如果启用了 USB 接口(分别为 vUSB 和 vNIC),则会在 ESXi 主机上额外创建一个具有上行链路 vusb0
的标准交换机 vSwitchBMC
。鉴于某些服务器上引入了数据处理单元 (DPU),这是预期行为,但可能会导致 VMware Cloud Foundation 启动进程失败。
解决办法:安装 vSphere 8.0 前,按照供应商文档,在使用的远程管理应用程序中禁用 USB 接口。
安装 vSphere 8.0 后,使用 ESXCLI 命令 esxcfg-advcfg -s 0 /Net/BMCNetworkEnable
阻止在下次重新引导主机时创建虚拟交换机 vSwitchBMC
和关联的端口组。
例如,以下脚本:
~# esxcfg-advcfg -s 0 /Net/BMCNetworkEnable
BMCNetworkEnable 的值为 0,该服务处于禁用状态。
~# reboot
主机重新引导时,不会在与远程管理应用程序网络相关的主机中创建任何虚拟交换机、端口组和 VMKNIC。
在预安装了 Pensando DPU 的 HPE 服务器上重新引导 ESXi 主机时,可能会延迟 10 分钟
在极少数情况下,如果 DPU 出现故障,预安装了 Pensando DPU 的 HPE 服务器可能需要 10 分钟以上才能完成重新引导。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕,默认等待时间为 10 分钟。
解决办法:无。
在具有 DPU 的 vCenter Server 系统中,如果禁用 IPv6,则无法管理 DPU
尽管 vSphere Client 允许执行此操作,但如果在具有 DPU 的 ESXi 主机上禁用 IPv6,则无法使用这些 DPU,因为主机与设备之间的内部通信依赖于 IPv6。此问题仅影响具有 DPU 的 ESXi 主机。
解决办法:确保在具有 DPU 的 ESXi 主机上启用了 IPv6。
如果关闭或重新启动 ESXi 主机时 PCI 直通在 DPU 上处于活动状态,则主机将发生故障并显示紫色诊断屏幕
如果活动虚拟机在关闭或重新引导 ESXi 主机时具有到 DPU 的 PCI 直通(SR-IOV 或 UPT),则该主机将发生故障并显示紫色诊断屏幕。此问题特定于具有 DPU 的系统,并且仅在使用 PCI 直通到 DPU 的虚拟机中出现。
解决办法:关闭或重新引导 ESXi 主机之前,请确保主机处于维护模式,或者未运行使用 PCI 直通到 DPU 的虚拟机。如果对虚拟机使用自动启动选项,则自动启动管理器会在关闭或重新引导主机之前停止此类虚拟机。
Pensando DPU 在 ESXi 主机的物理交换机端口上不支持链路层发现协议 (LLDP)
在具有 DPU 的 ESXi 主机上启用 LLDP 时,该主机无法接收 LLDP 数据包。
解决办法:无。
在 vSphere 8.0 中,无法将 Mellanox ConnectX-5、ConnectX-6 卡型号 1 级别 2 和型号 2 用于增强型网络堆栈 (ENS) 模式
由于硬件限制,ConnectX-5 和 ConnectX-6 适配器卡不支持在 vSphere 8.0 中将型号 1 级别 2 和型号 2 用于增强型网络堆栈 (ENS) 模式。
解决办法:使用支持 ENS 型号 1 级别 2 和型号 2A 的 Mellanox ConnectX-6 Lx 和 ConnectX-6 Dx 或更高版本的卡。
如果在使用 icen 驱动程序启用或禁用 SR-IOV 后未重新引导 ESXi 主机,则在该主机上以 ENS 中断模式配置传输节点时,某些虚拟机可能无法获取 DHCP 地址
如果在 ESXi 主机上使用 icen
驱动程序启用或禁用 SR-IOV,并在 ENS 中断模式下配置传输节点,那么在不重新引导主机的情况下,某些 Rx(接收)队列可能无法正常工作。因此,某些虚拟机可能无法获取 DHCP 地址。
解决办法:直接添加传输节点配置文件而不启用 SR-IOV,或者在启用或禁用 SR-IOV 后重新引导 ESXi 主机。
在具有 DPU 的 vSphere 环境中进行 VMware NSX 安装或升级可能会失败并显示连接错误
ESXi 主机端的间歇性计时问题可能会导致在具有 DPU 的 vSphere 环境中进行 NSX 安装或升级失败。nsxapi.log
Failed to get SFHC response. MessageType MT_SOFTWARE_STATUS
解决办法:等待 10 分钟,然后重试 NSX 安装或升级。
在使用 4.1.3 及更高版本的 ntg3 驱动程序的网卡上,看到链路出现抖动
当两个使用 4.1.3 及更高版本的 ntg3
驱动程序的网卡直接连接(而不是连接到物理交换机端口)时,链路可能会出现抖动。4.1.3 之前的 ntg3
驱动程序或 tg3
驱动程序不会出现此问题。此问题与此类网卡上偶尔出现的节能以太网 (EEE) 链路抖动无关。EEE 问题的修复方法是使用 4.1.7 或更高版本的 ntg3
驱动程序,或者在物理交换机端口上禁用 EEE。
解决办法:将 ntg3
驱动程序升级到版本 4.1.8,并将新模块参数 noPhyStateSet
设置为 1
。noPhyStateSet
参数默认为 0
,并且在大多数环境中不需要,除非它们遇到此问题。
无法在 Pensando DPU 上将 VMware vSphere Distributed Switch 上的最大传输单元 (MTU) 设置为大于 9174 的值
如果 ESXi 8.0 系统上具有已启用 Pensando DPU 的 vSphere Distributed Services Engine 功能,则无法将 vSphere Distributed Switch 上的最大传输单元 (MTU) 设置为大于 9174 的值。
解决办法:无。
由于基于内容的读缓存 (CBRC) 中的摘要操作失败错误,无法创建虚拟机的快照
在极少数情况下,在 CBRC 摘要文件更新期间分配内容 ID 会出现争用情况,这可能会导致数据磁盘中的内容 ID 与摘要磁盘中的内容 ID 之间出现差异。因此,无法创建虚拟机快照。您会在回溯追踪中看到 An error occurred while saving the snapshot: A digest operation has failed
等错误。如果重试快照创建任务,将可以完成此任务。
解决办法:重试快照创建任务。
由于网络文件复制 (NFC) 管理器的会话未经身份验证,vSphere Storage vMotion 操作在 vSAN 环境中可能会失败
如果虚拟机至少具有一个快照和多个虚拟磁盘,但使用不同的存储策略,则使用 vSphere Storage vMotion 将这些虚拟机迁移到 vSAN 数据存储可能会失败。出现此问题的原因是,由于简单对象访问协议 (SOAP) 正文超出允许的大小,导致 NFC 管理器的会话未经身份验证。
解决办法:先迁移虚拟机主页命名空间,并且仅迁移其中一个虚拟磁盘。此操作完成后,对剩余的 2 个磁盘执行仅磁盘迁移。
升级到 vCenter Server 8.0 后,VASA API 版本不会自动刷新
vCenter Server 8.0 支持 VASA API 版本 4.0。但是,将 vCenter Server 系统升级到版本 8.0 后,VASA API 版本可能不会自动更改为 4.0。在以下 2 种情况下会出现此问题:
如果在以前版本的 VMware vCenter 中注册了支持 VASA API 版本 4.0 的 VASA 提供程序,则在升级到 VMware vCenter 8.0 后,VASA API 版本保持不变。例如,如果 VMware vCenter 系统版本 7.x 中注册了同时支持 VASA API 版本 3.5 和 4.0 的 VASA 提供程序,则升级该系统时,即使 VASA 提供程序支持 VASA API 版本 4.0,VASA API 版本也不会自动更改为 4.0。升级后,导航到 vCenter Server > 配置 > 存储提供程序并展开已注册 VASA 提供程序的常规选项卡时,仍会看到 VASA API 版本 3.5。
如果在 VMware vCenter 8.0 系统中注册支持 VASA API 版本 3.5 的 VASA 提供程序,并将 VASA API 版本升级到 4.0,则即使升级后,也仍会看到 VASA API 版本 3.5。
解决办法:在 VMware vCenter 8.0 系统上取消注册 VASA 提供程序,然后重新注册。
如果使用具有不可信证书的自定义更新存储库,则使用 vCenter Lifecycle Manager 工作流将 vCenter Server 升级或更新到 vSphere 8.0 可能会失败
如果使用具有 VMware Certificate Authority (VMCA) 不信任的自签名证书的自定义更新存储库,则 vCenter Lifecycle Manager 将无法从此类存储库下载文件。因此,使用 vCenter Lifecycle Manager 工作流的 vCenter Server 升级或更新操作将失败,并显示错误 Failed to load the repository manifest data for the configured upgrade
。
解决办法:使用 CLI、GUI 安装程序或虚拟设备管理界面 (VAMI) 执行升级。有关详细信息,请参见 VMware 知识库文章 90259。
在极少数情况下,由于 vpxa 上请求队列的文件描述符不足,ESXi 主机可能会变得无响应,并且您会看到 vpxa 转储文件
在极少数情况下,当向 vpxa 服务发出的请求需要很长时间(例如,等待访问速度较慢的数据存储)时,vpxa 上的请求队列可能会超出文件描述符的限制。因此,ESXi 主机可能会暂时变得无响应,并且您会在 /var/core
目录中看到 vpxa-zdump.00*
文件。vpxa 日志中包含行 Too many open files
。
解决办法:无。vpxa 服务将自动重新启动并更正此问题。
在混合 vCenter 环境中使用 API 创建的云原生存储 (CNS) 块卷显示错误
如果您的环境中具有版本 8.0 和 7.x 的 vCenter Server 系统,则使用 API 创建云原生存储 (CNS) 块卷会成功,但在 vSphere Client 中查看 CNS 卷详细信息时,可能会看到错误。您将看到看到类似以下内容的错误:Failed to extract the requested data. Check vSphere Client logs for details. + TypeError: Cannot read properties of null (reading 'cluster')
。仅当通过使用 8.0 vCenter Server 的 vSphere Client 查看由 7.x vCenter Server 管理的卷时,才会出现此问题。
解决办法:登录到 vCenter Server 版本 7.x 系统上的 vSphere Client,查看卷属性。
在 vSphere Client 中,看不到有关历史数据导入的横幅通知
由于后端问题,在 vSphere Client 中看不到有关历史数据后台迁移的横幅通知。
解决办法:使用 vCenter Server 管理界面,而不使用 vSphere Client。有关详细信息,请参见监控和管理历史数据迁移过程。
如果将 vSphere 虚拟基础架构加载到 90% 以上,ESXi 主机可能会间歇性地与 vCenter Server 断开连接
在极少数情况下,如果 vSphere 虚拟基础架构持续使用超过 90% 的硬件容量,则某些 ESXi 主机可能会间歇性地与 vCenter Server 断开连接。连接通常会在几秒钟内恢复。
解决办法:如果与 vCenter Server 的连接未能在几秒钟内如期恢复,请使用 vSphere Client 手动重新连接 ESXi 主机。
更改对象时,资源池和集群的“利用率”视图可能不会自动刷新
当您已打开某个资源池或集群的监控选项卡下的利用率视图,然后更改该资源池或集群时,视图可能不会自动刷新。例如,打开一个集群的利用率视图,然后选择另一个集群时,您可能仍会看到第一个集群的统计数据。
解决办法:单击刷新图标。
将现有虚拟硬盘添加到新虚拟机时,您可能会看到虚拟机配置被拒绝的错误
使用 VMware Host Client 将现有虚拟硬盘添加到新虚拟机时,该操作可能会失败并显示错误,例如:The VM configuration was rejected. Please see browser Console
。出现此问题的原因是,VMware Host Client 可能无法获取某些属性,例如硬盘控制器。
解决办法:选择硬盘并转到即将完成页面后,不要单击完成,而是返回一步,等待页面加载完成,然后单击下一步 > 完成。
如果使用的 RSA 密钥大小小于 2048 位,则 RSA 签名生成将失败
从 vSphere 8.0 开始,ESXi 使用 OpenSSL 3.0 FIPS 提供程序。根据 FIPS 186-4 要求,对于任何签名生成,RSA 密钥大小都必须至少为 2048 位,并且不支持使用 SHA1 生成签名。
解决办法:使用大于 2048 的 RSA 密钥大小。
如果使用从启用了有状态安装的主机配置文件部署的 ESXi 主机作为映像在集群中部署其他 ESXi 主机,则该操作将失败
如果提取从启用了有状态安装的主机配置文件部署的 ESXi 主机的映像,以在 vSphere Lifecycle Manager 集群中部署其他 ESXi 主机,则该操作将失败。在 vSphere Client 中,您会看到类似以下内容的错误:A general system error occurred: Failed to extract image from the host: no stored copy available for inactive VIB VMW_bootbank_xxx. Extraction of image from host xxx.eng.vmware.com failed
。
解决办法:使用集群中的其他主机提取映像。
并行修复任务失败后,您看不到成功完成该操作或跳过该操作的正确 ESXi 主机数
在 vSphere 8.0 中,您可以通过 vSphere Lifecycle Manager 并行(而不是顺序)修复所有处于维护模式的主机。但是,如果并行修复任务失败,您可能在 vSphere Client 中看不到已成功完成该操作、未完成该操作或跳过该操作的正确主机数,甚至根本看不到这些计数。此问题不会影响 vSphere Lifecycle Manager 功能,而仅会影响 vSphere Client 中的报告功能。
解决办法:无。
尝试在版本低于 8.0 的 ESXi 主机上转储 vSphere Lifecycle Manager 映像时,会显示错误消息
ESXi 8.0 引入了显式转储所需状态映像的选择方案,即将库组件从 vSphere Lifecycle Manager 库下载到 ESXi 主机的过程,而无需立即应用软件和固件更新。但是,仅支持在 ESXi 8.0 或更高版本的主机上转储映像。如果尝试在版本低于 8.0 的 ESXi 主机上转储 vSphere Lifecycle Manager 映像,则会显示消息,指出此类主机的转储失败,这些主机将被跳过。这是预期行为,并不表示任何功能失败,因为所有 ESXi 8.0 或更高版本的主机都会使用指定的所需映像进行转储。
解决办法:无。确认受影响的 ESXi 主机的版本低于 8.0 后,忽略这些错误。
在具有 DPU 的 ESXi 主机上使用 vSphere Lifecycle Manager 执行修复任务可能会间歇性失败
在具有 DPU 的 ESXi 主机上启动 vSphere Lifecycle Manager 修复时,主机将按预期升级并重新引导,但在重新引导之后、完成修复任务之前,您可能会看到类似以下内容的错误:
A general system error occurred: After host … remediation completed, compliance check reported host as 'non-compliant'. The image on the host does not match the image set for the cluster. Retry the cluster remediation operation.
出现这个罕见问题的原因是,DPU 上的修复后扫描出现间歇性超时。
解决办法:重新引导 ESXi 主机,并重新运行 vSphere Lifecycle Manager 合规性检查操作,其中包括修复后扫描。
VMware Host Client 显示的严重性事件状态描述可能不正确
在 VMware Host Client 中查看 ESXi 主机的严重性事件状态描述时,这些描述可能与您使用智能平台管理界面 (IPMI) 或 Lenovo XClarity Controller (XCC) 看到的描述不同。例如,在 VMware Host Client 中,PSU 传感器的严重性事件状态描述可能为 Transition to Non-critical from OK
,而在 XCC 和 IPMI 中,该描述为 Transition to OK
。
解决办法:使用 ESXCLI 命令 esxcli hardware ipmi sdr list
和 Lenovo XCC 验证严重性事件状态的描述。
如果启用了直接内存访问 (DMA) 重新映射,Linux 客户机操作系统将无法完成引导
如果在虚拟机上启用了高级处理器设置Enable IOMMU in this virtual machine
,并且客户机操作系统启用了 DMA 重新映射,则 Linux 客户机操作系统可能无法完成引导过程。此问题会影响硬件版本为 20 且安装有特定 Linux 发行版的虚拟机,此 Linux 发行版已安装了 Linux 内核 5.18 为 VMCI 功能引入的特定修补程序,包括但不限于最新版本的 RHEL 8.7、Ubuntu 22.04 和 22.10 以及 SLES15 SP3 和 SP4。
解决办法:将高级选项 vmci.dmaDatagramSupport
设置为 FALSE
或禁用 Enable IOMMU in this virtual machine
选项。有关详细信息,请参见 VMware 知识库文章 89683。
由于基于虚拟机通信接口 (VMCI) 的通信中断,虚拟机的客户机操作系统可能会变得无响应
在一些具体情况下,如果虚拟机上的 vSphere vMotion 操作与发送 VMCI 数据报的操作并行运行,则使用 VMCI 数据报的服务可能出现非预期通信或发生通信中断。在同样的情况下,如果还原内存快照、恢复挂起的虚拟机或使用 CPU 热添加功能,可能也会发生该问题。其结果是,使用通过 VMCI 进行通信的服务的客户机操作系统可能会变得无响应。此问题可能还会影响使用基于 VMCI 的 vSocket 的服务。此问题不会影响 VMware Tools。此问题仅会出现在硬件版本为 20 且安装有特定 Linux 发行版的虚拟机上,此 Linux 发行版已安装了 Linux 内核 5.18 为 VMCI 功能引入的特定修补程序,包括但不限于最新版本的 RHEL 8.7、Ubuntu 22.04 和 22.10 以及 SLES15 SP3 和 SP4。
解决办法:将高级选项 vmci.dmaDatagramSupport
设置为 FALSE
。有关详细信息,请参见 VMware 知识库文章 89683。