ESXi 7.0 Update 2 | 2021 年 3 月 9 日 | ISO 内部版本 17630552 请查看发行说明以了解新增内容及更新。 |
发行说明内容
本发行说明包含以下主题:
新增功能
- vSphere Fault Tolerance 支持 vSphere 虚拟机加密:从 vSphere 7.0 Update 2 开始,vSphere FT 支持虚拟机加密。客户机内和基于阵列的加密不依赖或不干扰虚拟机加密,但具有多个加密层会使用额外的计算资源,这可能会影响虚拟机性能。影响因硬件以及 I/O 的数量和类型而异,因此 VMware 无法量化,但对于大多数工作负载而言,整体性能影响可以忽略不计。去重、压缩和复制等后端存储功能的有效性和兼容性也可能会受到虚拟机加密的影响,您应考虑存储权衡。有关详细信息,请参见虚拟机加密和虚拟机加密最佳做法。
- 在以下服务器中,ESXi 7.0 Update 2 支持 vSphere Quick Boot:
- Dell Inc.
- PowerEdge M830
- PowerEdge R830
- HPE
- ProLiant XL675d Gen10 Plus
- Lenovo
- ThinkSystem SR 635
- ThinkSystem SR 655
- Dell Inc.
- 某些 ESXi 配置文件变为只读:自 ESXi 7.0 Update 2 起,以前存储在文件
/etc/keymap
、/etc/vmware/welcome
、/etc/sfcb/sfcb.cfg
、/etc/vmware/snmp.xml
、/etc/vmware/logfilters
、/etc/vmsyslog.conf
和/etc/vmsyslog.conf.d/*.conf
中的配置,现在位于 ConfigStore 数据库中。只能使用 ESXCLI 命令修改此配置,不能通过编辑文件进行修改。有关详细信息,请参见 VMware 知识库文章 82637 和 82638。
- 利用 VMware vSphere Virtual Volumes 统计信息对调试进行了优化:在 ESXi 7.0 Update 2 中,可以跟踪 vSphere Virtual Volumes 的性能统计信息,以快速识别第三方 VASA 提供程序响应中的延迟等问题。通过使用一组命令,可以获取系统中所有 VASA 提供程序的统计信息,或者给定命名空间中指定命名空间或实体的统计信息,或者为整个命名空间启用统计信息跟踪。有关详细信息,请参见收集 VVols 的统计信息。
- 支持 NVIDIA Ampere 架构:vSphere 7.0 Update 2 增加了对 NVIDIA Ampere 架构的支持,通过该架构,能够使用 A100 GPU 的加速容量执行高端 AI/ML 训练和 ML 推理工作负载。此外,vSphere 7.0 Update 2 还支持多实例 GPU (MIG) 技术,从而提高了 GPU 共享和利用率。在 vSphere 7.0 Update 2 中,还可以在 ESXi 内核中的 PCIe 总线层启用地址转换服务 (ATS) 和访问控制服务 (ACS),从而在现有 NVIDIA GPUDirect 功能的基础上,增强设备到设备通信的性能。
- 支持 Mellanox ConnectX-6 200G 网卡:ESXi 7.0 Update 2 支持 Mellanox Technologies MT28908 系列 (ConnectX-6) 和 Mellanox Technologies MT2892 系列 (ConnectX-6 Dx) 200G 网卡。
- 改进了 AMD Zen CPU 的性能:在 ESXi 7.0 Update 2 中,即时可用优化可在各种基准测试中将 AMD Zen CPU 性能提高多达 30%。更新后的 ESXi 调度程序可以充分利用 AMD NUMA 架构,为虚拟机和容器制定最合适的放置决策。AMD Zen CPU 优化允许虚拟机或容器数量更多的部署,以提供更好的性能。
- 减少了延迟敏感型工作负载的计算和 I/O 延迟以及抖动:在 ESXi 7.0 Update 2 中,由于 I/O 延迟和抖动优化,延迟敏感工作负载(例如,在财务和电信应用程序中)的性能得到了显著改善。这些优化可减少干扰和抖动源,以提供一致的运行时环境。在 ESXi 7.0 Update 2 中,还可以提高直通设备的中断交付速度。
- 在 vSphere with Tanzu 中的主管集群上支持保密 vSphere Pod:从 vSphere 7.0 Update 2 开始,可以在 vSphere with Tanzu 中的主管集群上运行保密 vSphere Pod,从而对客户机操作系统内存进行加密和保护,防止 Hypervisor 进行访问。可以通过添加 Secure Encrypted Virtualization-Encrypted State (SEV-ES) 作为额外的安全增强功能来配置保密 vSphere Pod。有关详细信息,请参见部署保密 vSphere Pod。
- vSphere Lifecycle Manager 快速升级:从 vSphere 7.0 Update 2 开始,可以将虚拟机挂起到内存并使用 Quick Boot 功能,从而显著缩短升级时间和系统停机时间并最大程度地缩短系统引导时间。可以对 vSphere Lifecycle Manager 进行如下配置:更新 ESXi 主机时,将虚拟机挂起到内存,而不是迁移虚拟机、关闭虚拟机电源或将虚拟机挂起到磁盘。有关详细信息,请参见配置 vSphere Lifecycle Manager 以执行快速升级。
- 加密 Fault Tolerance 日志流量:从 vSphere 7.0 Update 2 开始,可以加密 Fault Tolerance 日志流量以增强安全性。vSphere Fault Tolerance 会在主虚拟机和辅助虚拟机之间进行定期检查,以便能够从上个成功检查点快速恢复。检查点包含自上一个检查点以来修改的虚拟机状态。加密日志流量可防止恶意访问或网络攻击。
ESXi 7.0 的早期版本
ESXi 的新功能、已解决的问题和已知问题在各个版本的发行说明中均有描述。ESXi 7.0 的早期版本的发行说明包括:
- VMware ESXi 7.0 修补程序版本 ESXi 7.0 Update 1d
- VMware ESXi 7.0 修补程序版本 ESXi 7.0 Update 1c
- VMware ESXi 7.0 修补程序版本 ESXi 7.0 Update 1b
- VMware ESXi 7.0 修补程序版本 ESXi 7.0 Update 1a
- VMware ESXi 7.0 修补程序版本 ESXi 7.0 Update 1
- VMware ESXi 7.0 修补程序版本 ESXi 7.0b
有关国际化、兼容性及开源组件的说明,请参见 VMware vSphere 7.0 发行说明。
本版本中包含的修补程序
此版本的 ESXi 7.0 Update 2 提供了以下修补程序:
内部版本详细信息
下载文件名称: | VMware-ESXi-7.0U2-17630552-depot |
内部版本: | 17630552 |
下载大小: | 390.9 MB |
md5sum: | 4eae7823678cc7c57785e4539fe89d81 |
sha1checksum: | 7c6b70a0190bd78bcf118f856cf9c60b4ad7d4b5 |
需要重新引导主机: | 是 |
需要迁移或关闭虚拟机: | 是 |
重要信息:
- 在 vSphere Client 的 Lifecycle Manager 插件中,ESXi 7.0.2 基础映像、配置文件和组件的发布日期是 2021-02-17。这在意料之中。为确保您可以按发布日期使用正确的筛选器,只有汇总实体包的发布日期为 2021-03-09。
- 从 vSphere 7.0 开始,VMware 使用组件打包 VIB 以及实体包。
ESXi
和esx-update
实体包相互依赖。始终在单个 ESXi 主机修补程序基准中包括这两者,或者在基准中包含汇总实体包,以避免在主机修补期间出现故障。 - 使用 VMware Update Manager 修补版本低于 ESXi 7.0 Update 2 的 ESXi 主机时,强烈建议在修补程序基准中使用汇总实体包。如果无法使用汇总实体包,请务必在修补程序基准中包含以下所有软件包。如果基准中未包含以下软件包,则更新操作将失败:
- VMware-vmkusb_0.1-1vmw.701.0.0.16850804 或更高版本
- VMware-vmkata_0.1-1vmw.701.0.0.16850804 或更高版本
- VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 或更高版本
- VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 或更高版本
汇总实体包
此汇总实体包包含 ESXi 7.0 初始发行版之后的最新 VIB 和所有修复。
实体包 ID | 类别 | 严重性 |
ESXi70U2-17630552 | 增强功能 | 重要 |
映像配置文件
VMware 修补程序版本和更新版本包含常规映像配置文件和重要映像配置文件。常规版本映像配置文件仅适用于新的缺陷修复。
映像配置文件名称 |
ESXi-7.0.2-17630552-standard |
ESXi-7.0.2-17630552-no-tools |
ESXi 映像
名称和版本 | 发布日期 | 类别 | 详细信息 |
---|---|---|---|
ESXi_7.0.2-0.0.17630552 | 03/09/2021 | 常规 | 缺陷修复映像 |
有关各个组件和实体包的信息,请参见产品修补程序页面和已解决的问题部分。
修补程序下载和安装
在 vSphere 7.x 中,用于管理 vSphere Update Manager 的 Update Manager 插件将替换为 Lifecycle Manager 插件。vSphere Update Manager 的管理操作在 Lifecycle Manager 插件下仍可用,此外,还增加了 vSphere Lifecycle Manager 的新功能。
通常,通过使用 vSphere Lifecycle Manager 将修补程序应用于 ESXi 7.x 主机。有关详细信息,请参见关于 vSphere Lifecycle Manager 和 vSphere Lifecycle Manager 基准和映像。
也可以使用映像配置文件更新 ESXi 主机,而不使用 Lifecycle Manager 插件。要执行此操作,必须从 VMware 下载页面或产品修补程序页面手动下载修补程序脱机包 ZIP 文件,并使用 esxcli software profile update
命令。
有关详细信息,请参见使用 ESXCLI 命令升级主机和 VMware ESXi 升级指南。
产品支持注意事项
- 内置 i40en 网络驱动程序更名:从 vSphere 7.0 Update 2 开始,适用于 ESXi 的内置 i40en 网络驱动程序将更名为 i40enu。
- 从安全 Shell (SSH) 中移除了 SHA1:在 vSphere 7.0 Update 2 中,从 SSHD 默认配置中移除了 SHA-1 加密哈希算法。
- 弃用 vSphere 6.0 到 6.7 REST API:VMware 弃用了 vSphere 6.0 到 6.7 的 REST API,这些 REST API 在
/rest
下提供并且称为旧 REST API。在 vSphere 7.0 Update 2 中,REST API 在/api
下提供并且称为新 REST API。有关详细信息,请参见博客文章 vSphere 7 Update 2 - REST API 现代化以及 vSphere 知识库文章 83022。 - 计划弃用 SHA-1:将在 vSphere 的未来版本中弃用 SHA-1 加密哈希算法。SHA-1 及已弃用的 MD5 存在已知的缺点,并且已证实受到实际攻击。
- 日志文件和 syslog 传输的标准格式:在未来的主要 ESXi 版本中,VMware 计划将所有 ESXi 日志文件和 syslog 传输的格式标准化。此标准化会影响与每个日志文件行或 syslog 传输关联的元数据。例如,时间戳、编程源标识符、消息严重性和操作标识符数据。有关详细信息,请访问 https://core.vmware.com/esxi-log-message-formats。
已解决的问题
已解决的问题分为以下几组。
Intel 微码更新- ESXi 7.0 Update 2 包含以下 Intel 微码更新:
代码名称 FMS Plt ID MCU 修订版 MCU 日期 品牌名称 Nehalem EP 0x106a5 0x03 0x0000001d 2018 年 5 月 11 日 Intel Xeon 35xx 系列;
Intel Xeon 55xx 系列Lynnfield 0x106e5 0x13 0x0000000a 2018 年 5 月 8 日 Intel Xeon 34xx Lynnfield 系列 Clarkdale 0x20652 0x12 0x00000011 2018 年 5 月 8 日 Intel i3/i5 Clarkdale 系列;
Intel Xeon 34xx Clarkdale 系列Arrandale 0x20655 0x92 0x00000007 2018 年 4 月 23 日 Intel Core i7-620LE 处理器 Sandy Bridge DT 0x206a7 0x12 0x0000002f 2019 年 2 月 17 日 Intel Xeon E3-1100 系列;
Intel Xeon E3-1200 系列;
Intel i7-2655-LE 系列;
Intel i3-2100 系列Westmere EP 0x206c2 0x03 0x0000001f 2018 年 5 月 8 日 Intel Xeon 56xx 系列;
Intel Xeon 36xx 系列Sandy Bridge EP 0x206d6 0x6d 0x00000621 2020 年 3 月 4 日 Intel Pentium 1400 系列;
Intel Xeon E5-1400 系列;
Intel Xeon E5-1600 系列;
Intel Xeon E5-2400 系列;
Intel Xeon E5-2600 系列;
Intel Xeon E5-4600 系列Sandy Bridge EP 0x206d7 0x6d 0x0000071a 2020 年 3 月 24 日 Intel Pentium 1400 系列;
Intel Xeon E5-1400 系列;
Intel Xeon E5-1600 系列;
Intel Xeon E5-2400 系列;
Intel Xeon E5-2600 系列;
Intel Xeon E5-4600 系列Nehalem EX 0x206e6 0x04 0x0000000d 2018 年 5 月 15 日 Intel Xeon 65xx 系列;
Intel Xeon 75xx 系列Westmere EX 0x206f2 0x05 0x0000003b 2018 年 5 月 16 日 Intel Xeon E7-8800系列;
Intel Xeon E7-4800系列;
Intel Xeon E7-2800 系列Ivy Bridge DT 0x306a9 0x12 0x00000021 2019 年 2 月 13 日 Intel i3-3200 系列;
Intel i7-3500-LE/UE;
Intel i7-3600-QE;
Intel Xeon E3-1200-v2 系列;
Intel Xeon E3-1100-C-v2 系列;
Intel Pentium B925CHaswell DT 0x306c3 0x32 0x00000028 2019 年 11 月 12 日 Intel Xeon E3-1200-v3 系列;
Intel i7-4700-EQ 系列;
Intel i5-4500-TE 系列;
Intel i3-4300 系列Ivy Bridge EP 0x306e4 0xed 0x0000042e 2019 年 3 月 14 日 Intel Xeon E5-4600-v2 系列;
Intel Xeon E5-2600-v2 系列;
Intel Xeon E5-2400-v2 系列;
Intel Xeon E5-1600-v2 系列;
Intel Xeon E5-1400-v2 系列Ivy Bridge EX 0x306e7 0xed 0x00000715 2019 年 3 月 14 日 Intel Xeon E7-8800/4800/2800-v2 系列 Haswell EP 0x306f2 0x6f 0x00000044 5/27/2020 Intel Xeon E5-4600-v3 系列;
Intel Xeon E5-2600-v3 系列;
Intel Xeon E5-2400-v3 系列;
Intel Xeon E5-1600-v3 系列;
Intel Xeon E5-1400-v3 系列Haswell EX 0x306f4 0x80 0x00000016 2019 年 6 月 17 日 Intel Xeon E7-8800/4800-v3 系列 Broadwell H 0x40671 0x22 0x00000022 2019 年 11 月 12 日 Intel Core i7-5700EQ;
Intel Xeon E3-1200-v4 系列Avoton 0x406d8 0x01 0x0000012d 2019 年 9 月 16 日 Intel Atom C2300 系列;
Intel Atom C2500 系列;
Intel Atom C2700 系列Broadwell EP/EX 0x406f1 0xef 0x0b000038 2019 年 6 月 18 日 Intel Xeon E7-8800/4800-v4 系列;
Intel Xeon E5-4600-v4 系列;
Intel Xeon E5-2600-v4 系列;
Intel Xeon E5-1600-v4 系列Skylake SP 0x50654 0xb7 0x02006a08 6/16/2020 Intel Xeon Platinum 8100 系列;
Intel Xeon Gold 6100/5100、Silver 4100、Bronze 3100 系列;
Intel Xeon D-2100 系列;
Intel Xeon D-1600 系列;
Intel Xeon W-3100 系列;
Intel Xeon W-2100 系列Cascade Lake B-0 0x50656 0xbf 0x04003003 6/18/2020 Intel Xeon Platinum 9200/8200 系列;
Intel Xeon Gold 6200/5200;
Intel Xeon Silver 4200/Bronze 3200;
Intel Xeon W-3200Cascade Lake 0x50657 0xbf 0x05003003 6/18/2020 Intel Xeon Platinum 9200/8200 系列;
Intel Xeon Gold 6200/5200;
Intel Xeon Silver 4200/Bronze 3200;
Intel Xeon W-3200Cooper Lake 0x5065b 0xbf 0x0700001f 9/17/2020 Intel Xeon Platinum 8300 系列;
Intel Xeon Gold 6300/5300Broadwell DE 0x50662 0x10 0x0000001c 2019 年 6 月 17 日 Intel Xeon D-1500 系列 Broadwell DE 0x50663 0x10 0x07000019 2019 年 6 月 17 日 Intel Xeon D-1500 系列 Broadwell DE 0x50664 0x10 0x0f000017 2019 年 6 月 17 日 Intel Xeon D-1500 系列 Broadwell-de NS 0x50665 0x10 0x0e00000f 2019 年 6 月 17 日 Intel Xeon D-1600 系列 Skylake H/S 0x506e3 0x36 0x000000e2 7/14/2020 Intel Xeon E3-1500-v5 系列;
Intel Xeon E3-1200-v5 系列Denverton 0x506f1 0x01 0x00000032 3/7/2020 Intel Atom C3000 系列 Snow Ridge 0x80665 0x01 0x0b000007 2/25/2020 Intel Atom P5000 系列 Kaby Lake H/S/X 0x906e9 0x2a 0x000000de 5/26/2020 Intel Xeon E3-1200-v6 系列;
Intel Xeon E3-1500-v6 系列Coffee Lake 0x906ea 0x22 0x000000de 5/25/2020 Intel Xeon E-2100 系列;
Intel Xeon E-2200 系列(4 核或 6 核)Coffee Lake 0x906eb 0x02 0x000000de 5/25/2020 Intel Xeon E-2100 系列 Coffee Lake 0x906ec 0x22 0x000000de 6/3/2020 Intel Xeon E-2100 系列 Coffee Lake Refresh 0x906ed 0x22 0x000000de 5/24/2020 Intel Xeon E-2200 系列(8 核)
- 从 APD 或 PDL 情况中恢复后,已启用集群虚拟磁盘支持的 VMFS 数据存储可能仍不可访问
仅在已启用集群虚拟磁盘支持的数据存储上才会遇到此问题。当数据存储从全部路径异常 (APD) 或永久设备丢失 (PDL) 情况中恢复时,它仍然不可访问。VMkernel 日志可能显示类似以下内容的多个
SCSI3 reservation conflict
消息:2020-02-18T07:41:10.273Z cpu22:1001391219)ScsiDeviceIO: vm 1001391219: SCSIDeviceCmdCompleteCB:2972: Reservation conflict retries 544 for command 0x45ba814b8340 (op: 0x89) to device "naa.624a9370b97601e346f64ba900024d53"
发生此问题可能是因为加入集群的 ESXi 主机丢失了数据存储的 SCSI 预留,并且在数据存储恢复后,不能始终自动重新获取这些预留。
本版本已解决该问题。
- PR 2710383:如果使用 vSphere Auto Deploy 有状态安装部署 ESXi 主机,则迁移到 ConfigStore 数据库的 ESXi 配置会在升级的过程中丢失
如果使用 Auto Deploy 有状态安装功能部署 ESXi 主机,则不会移除在
boot.cfg
文件中指示有状态安装引导的选项,但该选项与 ConfigStore 数据库的持久状态冲突。因此,在升级到 ESXi 7.x 的过程中,迁移到 ConfigStore 数据库的 ESXi 配置会丢失。本版本已解决该问题。
- PR 2696435:默认情况下,不能在 SR-IOV 环境中使用虚拟客户机标记 (VGT)
应用 ESXi 7.0 Update 2 中的 i40enu 驱动程序后,默认情况下,不能使用 VGT,以避免不受信任的 SR-IOV 虚拟功能 (VF) 传输或接收标记有不同于端口 VLAN 的 VLAN ID 的数据包。
必须使用以下模块参数将所有 VF 设置为受信任模式:esxcli system module parameters set -a -m i40enu -p "trust_all_vfs=1,1,1,...
本版本已解决该问题。
- 新增问题:如果在 ESXi 主机退出维护模式时 Xorg 进程无法重新启动,hostd 服务可能会变得无响应
如果在 ESXi 主机退出维护模式时 Xorg 进程无法重新启动,hostd 服务可能会由于无法完成退出操作而变得无响应。
本版本已解决该问题。
- 新增问题:如果 vCenter Server 系统为版本 7.0,则使用 vSphere Lifecycle Manager 和 ISO 映像将 ESXi 主机升级到更高版本会失败
如果您通过 vSphere Lifecycle Manager 使用 ISO 映像将 ESXi 主机升级到 7.0 以上的版本,并且 vCenter Server 系统仍为 7.0 版本,则升级将失败。在 vSphere Client 中,您会看到错误
“主机不支持升级 (Upgrade is not supported for host)”
。本版本已解决该问题。
已知问题
已知问题分为如下类别。
网络连接问题- 新增问题:升级到 ESXi 7.0 Update 2 后,将跳过适用于 ESXi 的异步 i40en 网络驱动程序 VIB 或恢复为 VMware 内置驱动程序 i40enu
从 vSphere 7.0 Update 2 开始,内置
i40en
驱动程序已重命名为i40enu
。因此,如果尝试安装i40en
合作伙伴异步驱动程序,将跳过i40en
VIB 或恢复为 VMwarei40enu
内置驱动程序。解决办法:要完成到 ESXi 7.0 Update 2 的升级,您必须创建一个自定义映像以将
i40en
组件版本1.8.1.136-1vmw.702.0.0.17630552
替换为i40en
组件版本Intel-i40en_1.10.9.0-1OEM.700.1.0.15525992
或更高版本。有关详细信息,请参见使用 vSphere ESXi Image Builder 自定义安装。 - 新增问题:在网络适配器上设置自动协商时,设备可能会失败
在某些环境中,如果使用命令
esxcli network nic set -a -n vmmicx
将网络适配器的链路速度设置为自动协商,则设备可能会失败且重新引导不会恢复连接。该问题特定于不支持自动协商速度/双工场景的某些 Intel X710/X722 网络适配器、SFP+ 模块和物理交换机的组合。解决办法:请确保使用 Intel 品牌的 SFP+ 模块。或者,使用直接连接铜缆 (Direct Attach Copper, DAC)。
- 准虚拟 RDMA (PVRDMA) 网络适配器不支持 NSX 网络策略
如果配置 NSX 分布式虚拟端口用于 PVRDMA 流量,则通过 PVRDMA 网络适配器的 RDMA 协议流量将不符合 NSX 网络策略。
解决办法:不要配置 NSX 分布式虚拟端口用于 PVRDMA 流量。
- 在 1x100G 端口模式下配置的 Solarflare x2542 和 x2541 网络适配器在 vSphere 环境中实现高达 70 Gbps 的吞吐量
vSphere 7.0 Update 2 支持在 1x100G 端口模式下配置的 Solarflare x2542 和 x2541 网络适配器。但是,您可能会发现设备中的硬件限制导致 vSphere 环境中的实际吞吐量高达约 70 Gbps。
解决办法:无
- 网卡重置后,VLAN 流量传输可能会失败
具有 PCI 设备 ID 8086:1537 的网卡在重置(例如,使用命令
vsish -e set /net/pNics/vmnic0/reset 1
)后可能会停止发送和接收 VLAN 标记的数据包。解决办法:避免重置网卡。如果已遇到此问题,请使用以下命令还原 VLAN 功能(例如,在 vmnic0 上:
# esxcli network nic software set --tagging=1 -n vmnic0
# esxcli network nic software set --tagging=0 -n vmnic0 - NetQueue 均衡器设置中的任何更改都会导致在 ESXi 主机重新引导后禁用 NetQueue
使用命令
esxcli/localcli network nic queue loadbalancer set -n <nicname> --<lb_setting>
执行的任何 NetQueue 均衡器设置更改都会导致在 ESXi 主机重新引导后禁用 NetQueue(默认处于启用状态)。解决办法:更改 NetQueue 均衡器设置且主机重新引导后,使用命令
configstorecli config current get -c esx -g network -k nics
检索 ConfigStore 数据,以验证/esx/network/nics/net_queue/load_balancer/enable
是否按预期运行。运行该命令后,您将看到类似以下内容的输出:
{
"mac": "02:00:0e:6d:14:3e",
"name": "vmnic1",
"net_queue": {
"load_balancer": {
"dynamic_pool": true,
"enable": true
}
},
"virtual_mac": "00:50:56:5a:21:11"
}如果输出不符合预期,例如
"load_balancer": "enable": false"
,则运行以下命令:esxcli/localcli network nic queue loadbalancer state set -n <nicname> -e true
- 禁用 ESXi 中的服务位置协议服务 slpd,以防止出现潜在的安全漏洞
ESXi 中运行于主机操作系统之上的一些服务(包括 slpd、CIM 对象代理、sfcbd 和相关的 openwsmand 服务)已证实存在安全漏洞。VMware 解决了 VMSA-2019-0022 和 VMSA-2020-0023 中的所有已知漏洞,并在 vSphere 7.0 Update 2 版本中包含这些修复。虽然 sfcbd 和 openwsmand 在 ESXi 中默认处于禁用状态,但 slpd 默认处于启用状态,如果不需要此服务,必须将其禁用,以防止在升级后受到未来漏洞的危害。
解决办法:要禁用 slpd 服务,请运行以下 PowerCLI 命令:
$ Get-VMHost | Get-VmHostService | Where-Object {$_.key -eq “slpd”} | Set-VMHostService -policy “off”
$ Get-VMHost | Get-VmHostService | Where-Object {$_.key -eq “slpd”} | Stop-VMHostService -Confirm:$false
或者,也可以使用命令chkconfig slpd off && /etc/init.d/slpd stop
。
openwsmand 服务不在 ESXi 服务列表中,可以使用以下 PowerCLI 命令检查该服务的状态:$esx=(Get-EsxCli -vmhost xx.xx.xx.xx -v2)
$esx.system.process.list.invoke() | where CommandLine -like '*openwsman*' | select commandline在 ESXi 服务列表中,sfcbd 服务显示为 sfcbd-watchdog。
有关详细信息,请参见 VMware 知识库文章 76372 和 1025757。
- 由于摘要操作失败错误,无法创建虚拟机的快照
在更新基于内容的读缓存 (CBRC) 摘要文件期间出现全部路径异常 (APD) 状态时,罕见的争用情况可能会导致摘要文件中出现不一致问题。因此,无法创建虚拟机快照。您会在回溯追踪中看到诸如
An error occurred while saving the snapshot: A digest operation has failed
之类的错误。解决办法:重新启动虚拟机以触发重新计算 CBRC 哈希,并清除摘要文件中的不一致问题。
- ESXi 主机可能会由于 qedentv 驱动程序中很少见的争用情况而出现故障并显示紫色诊断屏幕
qedentv 驱动程序中很少见的争用情况可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。如果在常规服务接口 (GSI) 队列对 (QP) 被破坏之后立即出现 Rx 完整中断(例如,在 qedentv 驱动程序卸载或系统关闭期间),则会出现该问题。在这种情况下,qedentv 驱动程序可能会访问已释放的 QP 地址,从而导致 PF 异常。在与具有大量未经请求的 GSI 流量的忙碌物理交换机相连接的 ESXi 主机中,可能会出现此问题。回溯追踪中会显示类似以下内容的消息:
cpu4:2107287)0x45389609bcb0:[0x42001d3e6f72]qedrntv_ll2_rx_cb@(qedrntv)#<None>+0x1be stack: 0x45b8f00a7740, 0x1e146d040, 0x432d65738d40, 0x0, 0x
2021-02-11T03:31:53.882Z cpu4:2107287)0x45389609bd50:[0x42001d421d2a]ecore_ll2_rxq_completion@(qedrntv)#<None>+0x2ab stack: 0x432bc20020ed, 0x4c1e74ef0, 0x432bc2002000,
2021-02-11T03:31:53.967Z cpu4:2107287)0x45389609bdf0:[0x42001d1296d0]ecore_int_sp_dpc@(qedentv)#<None>+0x331 stack: 0x0, 0x42001c3bfb6b, 0x76f1e5c0, 0x2000097, 0x14c2002
2021-02-11T03:31:54.039Z cpu4:2107287)0x45389609be60:[0x42001c0db867]IntrCookieBH@vmkernel#nover+0x17c stack: 0x45389609be80, 0x40992f09ba, 0x43007a436690, 0x43007a43669
2021-02-11T03:31:54.116Z cpu4:2107287)0x45389609bef0:[0x42001c0be6b0]BH_Check@vmkernel#nover+0x121 stack: 0x98ba, 0x33e72f6f6e20, 0x0, 0x8000000000000000, 0x430000000001
2021-02-11T03:31:54.187Z cpu4:2107287)0x45389609bf70:[0x42001c28370c]NetPollWorldCallback@vmkernel#nover+0x129 stack: 0x61, 0x42001d0e0000, 0x42001c283770, 0x0, 0x0
2021-02-11T03:31:54.256Z cpu4:2107287)0x45389609bfe0:[0x42001c380bad]CpuSched_StartWorld@vmkernel#nover+0x86 stack: 0x0, 0x42001c0c2b44, 0x0, 0x0, 0x0
2021-02-11T03:31:54.319Z cpu4:2107287)0x45389609c000:[0x42001c0c2b43]Debug_IsInitialized@vmkernel#nover+0xc stack: 0x0, 0x0, 0x0, 0x0, 0x0
2021-02-11T03:31:54.424Z cpu4:2107287)^[[45m^[[33;1mVMware ESXi 7.0.2 [Releasebuild-17435195 x86_64]^[[0m
#PF Exception 14 in world 2107287:vmnic7-pollW IP 0x42001d3e6f72 addr 0x1c解决办法:无
- 新增:如果使用 USB 作为 ESXi 主机的引导设备,则 ESXi 主机可能会变得无响应,并且您会看到“主机无响应 (host not-responding)”和“找不到引导槽 (boot bank is not found)”警示
USB 设备的队列深度较小,由于 ESXi 存储堆栈中存在争用情况,某些 I/O 操作可能无法到达该设备。此类 I/O 在 ESXi 存储堆栈中排队并最终超时。因此,ESXi 主机会变得无响应。在 vSphere Client 中,会显示以下等警示:
警示: 在路径“/bootbank”中找不到 /bootbank (Alert: /bootbank not to be found at path '/bootbank')
和主机无响应 (Host not-responding)
。
在 vmkernel 日志中,您会看到类似以下内容的错误:2021-04-12T04:47:44.940Z cpu0:2097441)ScsiPath: 8058: Cancelled Cmd(0x45b92ea3fd40) 0xa0, cmdId.initiator=0x4538c859b8f8 CmdSN 0x0 from world 0 to path "vmhba32:C0:T0:L0".Cmd count Active:0 Queued:1.
2021-04-12T04:48:50.527Z cpu2:2097440)ScsiDeviceIO: 4315: Cmd(0x45b92ea76d40) 0x28, cmdId.initiator=0x4305f74cc780 CmdSN 0x1279 from world 2099370 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x5 D:0x0 P:0x0 Cancelled from path layer.Cmd count Active:1
2021-04-12T04:48:50.527Z cpu2:2097440)Queued:4解决办法:无。
- 如果在较短时间间隔内热添加 NVMe 设备,然后再热移除,ESXi 主机可能会出现故障并显示紫色诊断屏幕
如果在较短时间间隔内热添加 NVMe 设备,然后再热移除,NVMe 驱动程序可能会由于命令超时而无法初始化 NVMe 控制器。因此,该驱动程序可能会访问在清理进程中已释放的内存。在回溯追踪中,您会看到一条消息,例如,
WARNING: NVMEDEV: NVMEInitializeController:4045: Failed to get controller identify data, status: Timeout
。
最终,ESXi 主机可能会出现故障,并显示紫色诊断屏幕,其中会显示类似以下内容的错误:#PF Exception ... in world ...:vmkdevmgr
。解决办法:只有在插槽的上一个热插拔操作完成后,才能对插槽执行热插拔操作。例如,如果要在执行热添加操作后运行热移除操作,请等待 HBA 创建完成并发现 LUN。对于另一种情形,即在执行热移除操作后进行热添加,请等待所有 LUN 和 HBA 都移除。
- 如果对版本低于 7.0 Update 2 的 ESXi 主机上的虚拟机使用 UEFI HTTP 引导,此操作将失败
仅 ESXi 7.0 Update 2 及更高版本的主机以及硬件版本为 19 或更高版本的虚拟机支持对虚拟机使用 UEFI HTTP 引导。
解决办法:仅在硬件版本为 19 或更高版本的虚拟机中使用 UEFI HTTP 引导。使用硬件版本 19 可确保虚拟机仅放在具有 ESXi 版本 7.0 Update 2 或更高版本的主机上。
- 如果更改 VMware vSAN 延伸集群中的首选站点,某些对象可能会错误地显示为合规
如果更改延伸集群中的首选站点,某些对象可能会错误地显示为合规,因为它们的策略设置可能不会自动更改。例如,如果将虚拟机配置为将数据保存在首选站点上,则在更改首选站点时,数据可能会保留在非首选站点上。
解决办法:在更改首选站点之前,请在“高级设置”中,将
ClomMaxCrawlCycleMinutes
设置降低为 15 分钟以确保更新对象策略。更改之后,将ClomMaxCrawlCycleMinutes
选项恢复为之前的值。
- 从早期版本的 ESXi 7.0 更新到 ESXi 7.0 Update 2 期间,ESXi 主机的 UEFI 引导可能会停止并出现错误
如果尝试使用 vSphere Lifecycle Manager 修补程序基准将环境从早期版本的 ESXi 7.0 更新到 7.0 Update 2,则 ESXi 主机的 UEFI 引导可能会停止,并出现如下错误:
正在加载 /boot.cfg (Loading /boot.cfg)
无法加载 crypto64.efi (Failed to load crypto64.efi)
Fatal error: 15 (未找到) (file not found. Fatal error : 15 (Not found)) - 如果旧版 VIB 正在 ESXi 主机上使用,则 vSphere Lifecycle Manager 无法提取所需的软件规范以植入到新集群
在 vCenter Server 7.0 Update 2 中,可以通过从单个引用主机导入所需的软件规范来创建新集群。 但是,如果旧版 VIB 正在 ESXi 主机上使用,则 vSphere Lifecycle Manager 无法在创建集群的 vCenter Server 实例中从此类主机提取引用软件规范。
/var/log/lifecycle.log
中会显示类似以下内容的消息:020-11-11T06:54:03Z lifecycle: 1000082644: HostSeeding:499 ERROR Extract depot failed: Checksum doesn't match.Calculated 5b404e28e83b1387841bb417da93c8c796ef2497c8af0f79583fd54e789d8826, expected: 0947542e30b794c721e21fb595f1851b247711d0619c55489a6a8cae6675e796 2020-11-11T06:54:04Z lifecycle: 1000082644: imagemanagerctl:366 ERROR Extract depot failed.2020-11-11T06:54:04Z lifecycle: 1000082644: imagemanagerctl:145 ERROR [VibChecksumError]
解决办法:按照 VMware 知识库文章 83042 中的步骤进行操作。
- 每次 ESXi 引导后,syslog.log 中都会显示一连串日志消息
更新到 ESXi 7.0 Update 2 后,每次 ESXi 引导后都可能会看到一连串日志消息。
此类日志并不表示 ESXi 有任何问题,可以忽略这些消息。例如:2021-01-19T22:44:22Z watchdog-vaai-nasd: '/usr/lib/vmware/nfs/bin/vaai-nasd -f' exited after 0 seconds (quick failure 127) 1
2021-01-19T22:44:22Z watchdog-vaai-nasd: Executing '/usr/lib/vmware/nfs/bin/vaai-nasd -f'
2021-01-19T22:44:22.990Z aainasd[1000051135]: Log for VAAI-NAS Daemon for NFS version=1.0 build=build-00000 option=DEBUG
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoadFile: No entries loaded by dictionary.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoad: Cannot open file "/usr/lib/vmware/config": No such file or directory.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoad: Cannot open file "//.vmware/config": No such file or directory.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoad: Cannot open file "//.vmware/preferences": No such file or directory.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: Switching to VMware syslog extensions
2021-01-19T22:44:22.992Z vaainasd[1000051135]: Loading VAAI-NAS plugin(s).
2021-01-19T22:44:22.992Z vaainasd[1000051135]: DISKLIB-PLUGIN : Not loading plugin /usr/lib/vmware/nas_plugins/lib64: Not a shared library.解决办法:无
- vSphere Quick Boot 兼容性检查报告中显示有关缺少 VIB 的警告消息
升级到 ESXi 7.0 Update 2 后,如果使用
/usr/lib/vmware/loadesx/bin/loadESXCheckCompat.py
命令检查环境的 vSphere Quick Boot 兼容性,可能会在 shell 中看到有关缺少 VIB 的一些警告消息。例如:在给定的 VIB 集合中找不到 VIB... (Cannot find VIB(s) ... in the given VIB collection)。
正在忽略缺少的预留 VIB...,它们已从预留的 VIB ID 中移除 (Ignoring missing reserved VIB(s) ..., they are removed from reserved VIB IDs)。
此类警告并不表示存在兼容性问题。解决办法:可以放心地忽略这些缺少 VIB 消息,不会影响 vSphere Quick Boot 兼容性报告。
loadESXCheckCompat
命令的最终输出行会明确指示主机是否兼容。 - 自动引导使用 vSphere Lifecycle Manager 映像管理的集群失败并出现错误
如果尝试自动引导使用 vSphere Lifecycle Manager 映像管理的集群以执行有状态安装并覆盖 VMFS 分区,该操作将失败并出现错误。支持包中会显示类似以下内容的消息:
2021-02-11T19:37:43Z Host Profiles[265671 opID=MainThread]: 错误: EngineModule::ApplyHostConfig。异常: [Errno 30] Read-only file system
解决办法:按照供应商指导清理目标主机中的 VMFS 分区,然后重试该操作。或者,使用空磁盘。有关 ESXi 上磁盘分区实用程序的详细信息,请参见 VMware 知识库文章 1036609。
- 使用 ESXCLI 从 ESXi 6.5.x 和 6.7.0 升级到 7.x 时可能会由于空间限制而失败
通过使用
esxcli software profile update
或esxcli software profile install
ESXCLI 命令从 ESXi 6.5.x 和 6.7.0 升级到 7.x 可能会失败,因为 ESXi 引导槽可能小于映像配置文件的大小。在 ESXi Shell 或 PowerCLI shell 中,您会看到类似以下内容的错误:[安装错误] 待处理的事务需要 244 MB 可用空间,但支持的最大大小为 239 MB。 请参考日志文件以了解更多详细信息 ([InstallationError] The pending transaction requires 244 MB free space, however the maximum supported size is 239 MB. Please refer to the log file for more details)。
尝试使用 ESXCLI 命令
esxcli software vib update
或esxcli software vib install
升级 ESXi 主机时,也会出现该问题。解决办法:您可以分两个步骤执行升级:使用
esxcli software profile update
命令将 ESXi 主机更新到 ESXi 6.7 Update 1 或更高版本,然后再更新到 7.0 Update 1c。或者,也可以使用 ISO 映像和 vSphere Lifecycle Manager 运行升级。