This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

ESXi 7.0 Update 3c | 2022 年 1 月 27 日 | ISO 内部版本 19193900

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

重要信息:由于升级影响问题,VMware 于 2021 年 11 月 19 日从所有站点中移除了 ESXi 7.0 Update 3、7.0 Update 3a 和 7.0 Update 3b。ESXi 7.0 Update 3c ISO 内部版本 19193900 将分别取代 ESXi 7.0 Update 3 内部版本 18644231、7.0 Update 3a 内部版本 18825058 和 7.0 Update 3b 内部版本 18905247。要确保顺利升级到 vSphere 7.0 Update 3c,请参见 VMware 知识库文章 8644787327

新增功能

有关回滚版本中的新功能,请参见以下列表:

  • vSphere 内存监控和修复以及支持 PMem 虚拟机的快照:vSphere 内存监控和修复可收集数据并显示性能统计信息,能够帮助您确定应用程序工作负载是否因内存模式而出现性能下降问题。vSphere 7.0 Update 3 还增加了对 PMem 虚拟机快照的支持。有关详细信息,请参见 vSphere 内存监控和修复

  • 扩展了对磁盘驱动器类型的支持:从 vSphere 7.0 Update 3 开始,vSphere Lifecycle Manager 将验证以下类型的磁盘驱动器和存储设备配置:
    • HDD (SAS/SATA)
    • SSD (SAS/SATA)
    • 单磁盘 RAID-0 逻辑卷后面的 SAS/SATA 磁盘驱动器
    有关详细信息,请参见集群级别硬件兼容性检查

  • 使用 vSphere Lifecycle Manager 映像管理 vSAN 延伸集群及其见证主机:从 vSphere 7.0 Update 3 开始,可以使用 vSphere Lifecycle Manager 映像管理 vSAN 延伸集群及其见证主机。有关详细信息,请参见使用 vSphere Lifecycle Manager 映像修复 vSAN 延伸集群

  • vSphere 集群服务 (vCLS) 增强功能:在 vSphere 7.0 Update 3 中,vSphere 管理员可以为每个集群配置 vCLS 虚拟机数据存储首选项,从而可以将 vCLS 虚拟机配置为在特定数据存储上运行。管理员也可以定义计算策略,指定 vSphere Distributed Resource Scheduler (DRS) 应如何放置 vCLS 代理虚拟机(vCLS 虚拟机)和其他工作负载虚拟机组。 

  • 改进了 vCenter Server 和 ESXi 版本之间的互操作性:从 vSphere 7.0 Update 3 开始,vCenter Server 可以管理前两个主要版本的 ESXi 主机以及版本 7.0 和 7.0 更新版本的任何 ESXi 主机。例如,vCenter Server 7.0 Update 3 可以管理版本 6.5、6.7 和 7.0 的 ESXi 主机、所有 7.0 更新版本(包括 Update 3 之后的版本)的 ESXi 主机以及混合使用主要版本和更新版本的主机。

  • 针对 NVMe-over-RDMA 存储流量新增了 VMNIC 标记:ESXi 7.0 Update 3 针对 NVMe-over-RDMA 存储流量增加了一个新的 VMNIC 标记。此 VMkernel 端口设置支持通过标记的接口路由 NVMe-over-RDMA 流量。您也可以使用 ESXCLI 命令 esxcli network ip interface tag add -i <interface name> -t NVMeRDMA 启用 NVMeRDMA VMNIC 标记。

  • NVMe over TCP 支持:vSphere 7.0 Update 3 通过 NVMe over TCP 存储协议扩展了 NVMe-oF 套件,在广泛的 TCP/IP 网络部署中实现了 NVMe 设备的高性能和并行性。

  • 出现计算机检查异常 (MCE) 硬件故障时,任务关键型虚拟机零停机、零数据丢失:在 vSphere 7.0 Update 3 中,受 VMware vSphere Fault Tolerance 保护的任务关键虚拟机在出现计算机检查异常 (MCE) 硬件故障时可以实现零停机和零数据丢失,因为虚拟机可以回退到辅助虚拟机,而不会发生故障。有关详细信息,请参见 Fault Tolerance 工作原理
     
  • 工作负载的微秒级时间精度:ESXi 7.0 Update 3 增加了硬件时间戳精度时间协议 (PTP) 以实现微秒级时间精度。有关详细信息,请参见使用 PTP 进行主机时间和日期同步
     
  • 改进了 ESXi 主机计时配置:  ESXi 7.0 Update 3 增强了设置 ESXi 主机计时配置的工作流和用户体验。有关详细信息,请参见编辑主机的时间配置设置

ESXi 7.0 的早期版本

ESXi 的新功能、已解决的问题和已知问题在各个版本的发行说明中均有描述。ESXi 7.0 的早期版本的发行说明包括:

有关国际化、兼容性及开源组件的说明,请参见 VMware vSphere 7.0 发行说明

本版本中包含的修补程序

本 ESXi 7.0 Update 3c 版本提供了以下修补程序:

内部版本详细信息

下载文件名称 VMware-ESXi-7.0U3c-19193900-depot
内部版本 19193900
下载大小 395.8 MB
md5sum e39a951f4e96e92eae41c94947e046ec
sha256checksum 20cdcd6fd8f22f5f8a848b45db67316a3ee630b31a152312f4beab737f2b3cdc
需要重新引导主机
需要迁移或关闭虚拟机

有关 VMware ESXi 的内部版本号和版本的表,请参见 VMware 知识库文章 2143832

重要信息

  • 从 vSphere 7.0 开始,VMware 使用组件打包 VIB 以及实体包。ESXiesx-update 实体包相互依赖。始终在单个 ESXi 主机修补程序基准中包括这两者,或者在基准中包含汇总实体包,以避免在主机修补期间出现故障。 
  • 使用 VMware Update Manager 修补版本低于 ESXi 7.0 Update 2 的 ESXi 主机时,强烈建议在修补程序基准中使用汇总实体包。如果无法使用汇总实体包,请务必在修补程序基准中包含以下所有软件包。如果基准中未包含以下软件包,则更新操作将失败:
    • VMware-vmkusb_0.1-1vmw.701.0.0.16850804 或更高版本
    • VMware-vmkata_0.1-1vmw.701.0.0.16850804 或更高版本
    • VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 或更高版本
    • VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 或更高版本

汇总实体包

此汇总实体包包含 ESXi 7.0 初始发行版之后的最新 VIB 和所有修复。

实体包 ID 类别 严重性
ESXi70U3c-19193900 缺陷修复 严重

映像配置文件

VMware 修补程序版本和更新版本包含常规映像配置文件和重要映像配置文件。常规版本映像配置文件仅适用于新的缺陷修复。

映像配置文件名称
ESXi70U3c-19193900-standard
ESXi70U3c-19193900-no-tools

ESXi 映像

名称和版本 发布日期 类别 详细信息
ESXi70U3c-19193900 2022 年 1 月 27 日 缺陷修复 缺陷修复映像

有关各个组件和实体包的信息,请参见产品修补程序页面和已解决的问题部分。

修补程序下载和安装

在 vSphere 7.x 中,用于管理 vSphere Update Manager 的 Update Manager 插件将替换为 Lifecycle Manager 插件。vSphere Update Manager 的管理操作在 Lifecycle Manager 插件下仍可用,此外,还增加了 vSphere Lifecycle Manager 的新功能。
通常,通过使用 vSphere Lifecycle Manager 将修补程序应用于 ESXi 7.x 主机。有关详细信息,请参见关于 vSphere Lifecycle ManagervSphere Lifecycle Manager 基准和映像
也可以使用映像配置文件更新 ESXi 主机,而不使用 Lifecycle Manager 插件。为此,必须在登录到 VMware Customer Connect 后手动下载修补程序脱机包 ZIP 文件。从选择产品下拉菜单中选择 ESXi (Embedded 和 Installable),然后从选择版本下拉菜单中选择 7.0。有关详细信息,请参见使用 ESXCLI 命令升级主机VMware ESXi 升级指南。

产品支持注意事项

  • 弃用 localos 帐户:不再支持将 localos 帐户用作标识源。VMware 计划停止支持将本地操作系统用作标识源。此功能将在未来的 vSphere 版本中移除。
  • ESXi650-202110001 和 ESXi670-202111001 中的 cURL 版本高于 ESXi 7.0 Update 3c 中的 cURL 版本:ESXi 7.0 Update 3c 中的 cURL 版本为 7.77.0,而 ESXi650-202110001 和 ESXi670-202111001 具有更高的修复版本 7.78.0。因此,如果从 ESXi650-202110001 或 ESXi670-202111001 升级到 ESXi 7.0 Update 3c,则 cURL 7.7.0 可能会使您的系统面临以下漏洞:
    CVE-2021-22926:CVSS 7.5
    CVE-2021-22925:CVSS 5.3
    CVE-2021-22924:CVSS 3.7
    CVE-2021-22923:CVSS 5.3
    CVE-2021-22922:CVSS 6.5
    cURL 版本 7.78.0 会在未来的 ESXi 7.x 版本中提供。

已解决的问题

已解决的问题分为以下几组。

网络连接问题
  • 如果使用版本低于 6.6 的 vSphere Distributed Switch (VDS),则更改 LAG 哈希算法时,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    如果在 vSphere 7.0 Update 1 或更高版本的系统上使用版本低于 6.6 的 VDS,则更改 LAG 哈希算法(例如从 L3 更改为 L2 哈希)时,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • 您会看到启用了 VMware Network Extensibility (NetX) 重定向的虚拟机丢弃数据包

    在 vCenter Server 高级性能图表中,您会看到启用了 NetX 重定向的所有虚拟机的数据包丢弃计数增加。但是,如果禁用 NetX 重定向,则计数变为 0。

    本版本已解决该问题。

  • 由于 Emulex FC HBA 中的 CQ 到 EQ 映射不正确,ESXi 主机可能会在引导期间出现故障并显示紫色诊断屏幕

    在极少数情况下,Emulex FC HBA 的 I/O 通道总数不是事件队列 (EQ) 数的整数倍时,完成队列 (CQ) 的映射将不正确,这可能会导致 ESXi 主机引导失败并显示紫色诊断屏幕。在回溯追踪中,您可能会在 lpfc_cq_create() 方法中看到错误。

    本版本已解决该问题。此修复可确保 CQ 到 EQ 正确映射。

  • 由于 UNIX 域套接字中存在内存分配问题,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    在 UNIX 域套接字之间的内部通信过程中,可能会进行堆分配,而不是清理辅助数据(如文件描述符)。因此,在某些情况下,ESXi 主机可能会报告内存不足状况,同时出现故障并显示紫色诊断屏幕,其中显示 #PF 异常 14 (#PF Exception 14) 以及类似 UserDuct_ReadAndRecvMsg() 的错误。

    本版本已解决该问题。此修复可清理辅助数据以避免缓冲区内存分配。

  • NTP 可选配置在 ESXi 主机重新引导后不会保留

    使用 ESXCLI 命令为 NTP 设置可选配置时,ESXi 主机重新引导后,这些设置可能不会保留。

    本版本已解决该问题。此修复可确保可选配置在 ESXi 主机引导期间从 ConfigStore 还原到本地缓存。

  • 在具有 vSphere Distributed Switch 版本 6.5.0 的系统中,更改 LACP 哈希算法时,多个 ESXi 主机可能会出现故障并显示紫色诊断屏幕

    在具有 vSphere Distributed Switch 版本 6.5.0 以及 ESXi 主机版本 7.0 或更高版本的系统中,更改 LACP 哈希算法时,由于使用临时字符串数组保存事件类型名称,这可能会导致出现 LACP 事件不受支持错误。因此,多个 ESXi 主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。为避免出现此问题,请在版本 7.0 及更高版本的 vCenter Server 系统中,确保使用高于 6.5.0 的 vSphere Distributed Switch 版本。

安装、升级和迁移问题
  • 修复使用 vSphere Lifecycle Manager 基准管理的集群可能需要很长时间

    从 ESXi 7.0 Update 2d 及更低版本更新到高于 ESXi 7.0 Update 2d 的版本后,修复使用 vSphere Lifecycle Manager 基准管理的集群可能需要很长时间。

    本版本已解决该问题。

  • 更新到 ESXi 7.0 Update 3 后,具有物理 RDM 磁盘的虚拟机无法迁移到目标 ESXi 主机或无法在目标 ESXi 主机上打开电源

    在某些情况下(例如,具有 RDM 设备的虚拟机在具有 SNMP 的服务器上运行),设备打开请求之间的争用情况可能会导致 vSphere vMotion 操作失败。

    本版本已解决该问题。此修复可确保设备打开请求按顺序执行,以避免出现争用情况。有关详细信息,请参见 VMware 知识库文章 86158。 

  • 升级到 ESXi 7.0 Update 2d 及更高版本后,显示 NTP 时间同步错误

    在某些环境中,升级到 ESXi 7.0 Update 2d 及更高版本后,在 vSphere Client 中,可能会显示错误:主机已中断时间同步 (Host has lost time synchronization)。但是,该警报可能并不表示存在实际问题。

    本版本已解决该问题。此修复将错误消息替换为了方便回溯追踪的日志功能,但可防止出现虚假警报。

其他问题
  • 新增:NVIDIA vGPU 支持的虚拟机有一个非常罕见的问题可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕

    在极少数情况下,具有 NVIDIA vGPU 支持的虚拟机的 ESXi 主机可能会间歇性出现故障,并显示紫色诊断屏幕和内核严重错误。该问题可能会影响多个 ESXi 主机,但不会同时影响这些主机。在 backlog 中,您会看到有关 CPU 检测信号超时 x 秒的内核报告,并且堆栈会通知有关 P2M 缓存的信息。

    本版本已解决该问题。

  • 由于 CPU 不足,启用了延迟敏感度的虚拟机所在的 ESXi 主机可能会随机变得无响应  

    在虚拟机上启用延迟敏感度时,Likewise Service Manager (lwsmd)(明确设置 CPU 关联性)的某些线程可能会争用此类虚拟机上的 CPU 资源。因此,您可能会看到 ESXi 主机和 hostd 服务变得无响应。  

    本版本已解决该问题。此修复确保 lwsmd 不明确设置 CPU 关联性。 

  • 在极少数情况下,ESXi 7.0 Update 3 中的虚拟 NVME 适配器 (VNVME) 重试逻辑可能会导致静默数据损坏

    ESXi 7.0 Update 3 中的 VNVME 重试逻辑存在可能会导致静默数据损坏的问题。重试很少发生,并且可能(并非总是)导致出现数据错误。此问题仅影响 ESXi 7.0 Update 3。

    本版本已解决该问题。

  • 由于元数据失效,ESXi 主机可能会在关机期间出现故障并显示紫色诊断屏幕

    在极少数情况下,删除 ESXi 主机中的大型组件后重新引导时,重新引导可能会在删除该组件的所有元数据之前启动。元数据失效可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。 

    本版本已解决该问题。此修复可确保在 ESXi 主机重新引导之前无残留的挂起元数据。

  • 由于 VMKAPI 驱动程序中存在争用情况,虚拟桌面基础架构 (VDI) 可能会变得无响应

    由于 VMKAPI 驱动程序中存在争用情况,向应用程序传送事件可能会无限期延迟。因此,某些环境中的虚拟桌面基础架构(例如使用 NVIDIA 显卡的系统)可能会变得无响应或断开与 VDI 客户端的连接。

    本版本已解决该问题。

  • 由于 ACPI 组件架构 (ACPICA) 信号灯问题,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    在 ESXi 7.0 Update 3 及更低版本中实施 ACPICA 信号灯时出现的一些问题可能会导致出现 VMKernel 应急情况(通常在引导期间出现)。信号灯实施中的问题可能会导致出现匮乏,在多个调用路径上,VMKernel 可能会在持有旋转锁时不正确地尝试获取 ACPICA 信号灯或在 ACPICA 中休眠。这些问题是否会在特定计算机上引起问题取决于该计算机中 ACPI 固件的详细信息。

    本版本已解决这些问题。此修复涉及到在 ESXi 中重写 ACPICA 信号灯,以及更正在持有旋转锁时尝试进入 ACPICA 的代码路径。

  • 在软件 iSCSI 适配器上运行 I/O 操作时,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    软件 iSCSI 适配器上的 I/O 操作可能会导致 iscsi_vmk 驱动程序中出现罕见的争用情况。因此,ESXi 主机可能会间歇性出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

安全问题
  • 更新 OpenSSL

    OpenSSL 软件包已更新到版本 openssl-1.0.2zb。

  • 更新 Python 软件包

    Python 软件包已更新,以解决 CVE-2021-29921。

  • 可以使用受限的 DES/3DES 密码连接到端口 9080

    使用 OPENSSL 命令 openssl s_client -cipher <CIPHER> -connect localhost:9080 可以使用受限的 DES/3DES 密码连接到端口 9080。

    本版本已解决该问题。无法使用以下密码连接到端口 9080:DES-CBC3-SHA、EDH-RSA-DES-CBC3-SHA、ECDHE-RSA-DES-CBC3-SHA 和 AECDH-DES-CBC3-SHA。

  • 以下 VMware Tools ISO 映像与 ESXi 7.0 Update 3c 捆绑在一起:

    • windows.iso:VMware Tools 11.3.5 支持 Windows 7 SP1 或 Windows Server 2008 R2 SP1 及更高版本。
    • linux.iso:适用于安装了 glibc 2.11 或更高版本的 Linux 操作系统的 VMware Tools 10.3.23 ISO 映像。

    以下 VMware Tools ISO 映像可供下载:

    • VMware Tools 11.0.6:
      • windows.iso:适用于 Windows Vista (SP2) 和 Windows Server 2008 Service Pack 2 (SP2)。
         
    • VMware Tools 10.0.12:
      • winPreVista.iso:适用于 Windows 2000、Windows XP 和 Windows 2003。
      • linuxPreGLibc25.iso:支持低于 Red Hat Enterprise Linux (RHEL) 5、SUSE Linux Enterprise Server (SLES) 11、Ubuntu 7.04 以及 glibc 版本低于 2.5 的其他发行版的 Linux 客户机操作系统。
         
      solaris.iso:适用于 Solaris 的 VMware Tools 映像 10.3.10。
    • darwin.iso:支持 Mac OS X 版本 10.11 及更高版本。

    下载未与 ESXi 捆绑的平台对应的 VMware Tools 时,请遵循以下文档中列出的步骤:

vSphere Client 问题
  • 虚拟机在 vSphere Client 中显示为不可访问,并且您可能会看到一些应用程序停止运行

    在极少数情况下,硬件问题可能会导致 SQlite 数据库损坏,从而导致多个虚拟机变得不可访问并导致一些应用程序停止运行。

    本版本已解决该问题。

存储问题
  • 虚拟机操作失败,并显示错误:数据存储上的磁盘空间不足

    新数据存储通常具有大量的大文件块 (LFB) 资源和少量的小文件块 (SFB) 资源。对于消耗 SFB 的工作流(如虚拟机操作),LFB 将转换为 SFB。但是,由于更新转换状态时出现延迟,新转换的 SFB 可能无法识别为可用于分配。因此,尝试打开虚拟机电源、克隆或迁移虚拟机时会看到类似以下内容的错误:数据存储上的磁盘空间不足 (Insufficient disk space on datastore)

    本版本已解决该问题。

  • vSphere Virtual Volumes 快照操作可能会在 Pure storage 上的源卷或快照卷上失败

    由于允许复制 vSphere Virtual Volumes 的唯一 ID 这一问题,虚拟机快照操作可能会失败,或者源卷可能会被删除。该问题特定于 Pure storage,并且会影响 Purity 版本系列 5.3.13 和更低版本、6.0.5 和更低版本以及 6.1.1 和更低版本。

    本版本已解决该问题。

vSAN 问题
  • 启用传输中数据加密时,您可能会看到有关集群分区的 vSAN 运行状况错误

    在 vSphere Client 中,启用传输中数据加密时,您可能会看到 vSAN 运行状况错误,例如 vSAN 集群分区 (vSAN cluster partition) 或 vSAN 对象运行状况 (vSAN object health)。出现此问题的原因是,在 vSAN 集群中启动重新加密操作时,临时资源问题可能会导致对等项之间的密钥交换失败。

    本版本已解决该问题。

虚拟机管理问题
  • 实时迁移操作之间的争用情况可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕

    在虚拟机的预留内存为 575 GB 或更高且不使用加密 vSphere vMotion 的环境中,实时迁移操作可能会与其他实时迁移争用资源,从而导致 ESXi 主机出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。但是,在极少数情况下,无论导致出现紫色诊断屏幕状况的根本原因是否已修复,迁移操作可能仍会失败。在这种情况下,请在源主机上未进行任何其他实时迁移时重试迁移,或者在虚拟机上启用加密 vSphere vMotion。

解决了先前版本中的问题

    网络连接问题

    • 使用 iWARP 协议传输 RDMA 流量可能无法完成

      在 Intel x722 卡上使用 iWARP 协议传输 RDMA 流量可能会超时且无法完成。

      本版本已解决该问题。

    安装、升级和迁移问题

    • 当 /locker 分区存储在 USB 或 SD 设备上时,该分区可能会损坏

      由于 USB 和 SD 设备容易对 I/O 产生影响,此类设备上用于存储 VMware Tools 和核心转储文件的 VMFS-L locker 分区可能会损坏。

      本版本已解决该问题。默认情况下,ESXi 在引导期间将 locker 软件包加载到 RAM 磁盘。 

    • 在 Hitachi 存储阵列上升级 brcmfcoe 驱动程序后,ESXi 主机可能会断开连接

      在 Hitachi 存储阵列上升级 brcmfcoe 驱动程序后,ESXi 主机可能无法引导并断开连接。

      本版本已解决该问题。

    • 升级到 ESXi 7.0 Update 2 后,您会看到存储读取 I/O 负载过多

      ESXi 7.0 Update 2 引入了一个系统统计信息提供程序接口,该接口要求每 5 分钟读取一次每个 ESXi 主机的数据存储统计信息。如果某个数据存储由多个 ESXi 主机共享,则如此频繁的读取可能会导致存储阵列出现读取延迟,并导致存储读取 I/O 负载过多。

      本版本已解决该问题。

    虚拟机管理问题

    • 启用了 AMD Secure Encrypted Virtualization-Encrypted State (SEV-ES) 的虚拟机无法创建虚拟机通信接口 (VMCI) 套接字

      在启用了 AMD SEV-ES 的虚拟机上,需要 VMCI 的功能的性能和功能性可能会受到影响,因为此类虚拟机无法创建 VMCI 套接字。

      本版本已解决该问题。

    • 重新引导负载繁重的客户机操作系统时,虚拟机可能会出现故障

      在极少数情况下,在客户机外部(例如从 vSphere Client)启动客户机操作系统重新引导时,虚拟机可能会出现故障,并生成 VMX 转储。当客户机操作系统负载繁重时,可能会出现此问题。因此,客户机对 VMX 请求的响应会在重新引导之前延迟。在这种情况下,虚拟机的 vmware.log 文件包含如下等消息:I125: Tools: Unable to send state change 3: TCLO error.E105: PANIC: NOT_REACHED bora/vmx/tools/toolsRunningStatus.c:953.

      本版本已解决该问题。

    其他问题

    • 在异步读取 I/O 中,如果所含 SCATTER_GATHER_ELEMENT 数组中的成员超过 16 个,且至少有 1 个成员位于文件的最后一个不完整块中,则可能会导致 ESXi 主机处于应急状态

      在极少数情况下,在异步读取 I/O 中,如果所含 SCATTER_GATHER_ELEMENT 数组中的成员超过 16 个,则至少有 1 个成员可能会位于文件的最后一个不完整块中。这可能会导致 VMFS 内存堆损坏,进而导致 ESXi 主机出现故障并显示紫色诊断屏幕。

      本版本已解决该问题。

    • 如果客户机操作系统在精简置备的 VMDK 上发出大型 UNMAP 请求,ESXi 主机可能会出现故障并显示紫色诊断屏幕

      ESXi 7.0 Update 3 为 VMFS 和 SEsparse 快照引入了统一的 UNMAP 粒度,并将 VMFS 报告的最大 UNMAP 粒度设置为 2 GB。但是,在某些环境中,当客户机操作系统发出 2 GB 的整理或取消映射请求时,此类请求可能需要 VMFS 元数据事务对超过 50 个资源集群执行锁定操作。VMFS 可能无法正确处理此类请求。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。需要在超过 50 个资源集群上执行锁定操作的 VMFS 元数据事务很少见,并且只会发生在过时的数据存储上。此问题仅影响精简置备的 VMDK。厚置备和厚置备快速置零 VMDK 不受影响。
      除了紫色诊断屏幕外,还会在 /var/run/log/vmkernel 文件中看到类似以下内容的错误:
      2021-10-20T03:11:41.679Z cpu0:2352732)@BlueScreen: NMI IPI: Panic requested by another PCPU.RIPOFF(base):RBP:CS [0x1404f8(0x420004800000):0x12b8:0xf48] (Src 0x1, CPU0)
      2021-10-20T03:11:41.689Z cpu0:2352732)Code start: 0x420004800000 VMK uptime: 11:07:27:23.196
      2021-10-20T03:11:41.697Z cpu0:2352732)Saved backtrace from: pcpu 0 Heartbeat NMI
      2021-10-20T03:11:41.715Z cpu0:2352732)0x45394629b8b8:[0x4200049404f7]HeapVSIAddChunkInfo@vmkernel#nover+0x1b0 stack: 0x420005bd611e

      本版本已解决该问题。

    • 由于时间服务事件监控问题,服务可能会失败

      默认处于启用状态的时间服务事件监控服务中的问题可能会导致 hostd 服务失败。在 vobd.log 文件中,您会看到类似以下内容的错误:
      2021-10-21T18:04:28.251Z: [UserWorldCorrelator] 304957116us: [esx.problem.hostd.core.dumped] /bin/hostd crashed (1 time(s) so far) and a core file may have been created at /var/core/hostd-zdump.000.This may have caused connections to the host to be dropped.
      2021-10-21T18:04:28.251Z: An event (esx.problem.hostd.core.dumped) could not be sent immediately to hostd; queueing for retry.2021-10-21T18:04:32.298Z: [UserWorldCorrelator] 309002531us: [vob.uw.core.dumped] /bin/hostd(2103800) /var/core/hostd-zdump.001
      2021-10-21T18:04:36.351Z: [UserWorldCorrelator] 313055552us: [vob.uw.core.dumped] /bin/hostd(2103967) /var/core/hostd-zdump.002
      .

      本版本已解决该问题。 

    已知问题

    已知问题分为如下类别。

    网络连接问题
    • vSphere Distributed Switch 7.0 (VDS) 或 ESXi 7.x 主机中的失效 NSX for vSphere 属性可能会导致主机更新失败

      如果在 vSphere Distributed Switch (VDS) 版本 7.0 上具有启用了 VXLAN 的 NSX for vSphere,则使用 NSX V2T 迁移将其迁移到 NSX-T Data Center 时,VDS 或某些主机中的失效 NSX for vSphere 属性可能会阻止 ESXi 7.x 主机更新。主机更新将失败,并显示平台配置错误。

      解决办法:将 CleanNSXV.py 脚本上载到 vCenter Server 中的 /tmp 目录。以具有超级管理特权(例如 root)的用户身份登录到设备 shell,并执行以下步骤:

      1. 使用命令 PYTHONPATH=$VMWARE_PYTHON_PATH python /tmp/CleanNSXV.py --user <vc_admin_user> --password <passwd> 运行 CleanNSXV.py<vc_admin_user> 参数是具有超级管理特权的 vCenter Server 用户,<passwd> 参数是用户密码。 
        例如: 
        PYTHONPATH=$VMWARE_PYTHON_PATH python /tmp/CleanNSXV.py --user '[email protected]' --password 'Admin123'
      2. 验证以下 NSX for vSphere 属性 com.vmware.netoverlay.layer0com.vmware.net.vxlan.udpport 是否已从 ESXi 主机中移除:
        1. 使用 SSH 客户端连接到任意一个 ESXi 主机。
        2. 运行命令 net-dvs -l | grep "com.vmware.netoverlay.layer0\|com.vmware.net.vxlan.udpport”
          如果未看到任何输出,说明已移除失效属性。

      要下载 CleanNSXV.py 脚本以及有关更多详细信息,请参见 VMware 知识库文章 87423

    安全问题
    • ESXi650-202110001 和 ESXi670-202111001 中的 cURL 版本高于 ESXi 7.0 Update 3c 中的 cURL 版本

      ESXi 7.0 Update 3c 中的 cURL 版本为 7.77.0,而 ESXi650-202110001 和 ESXi670-202111001 具有更高的修复版本 7.78.0。因此,如果从 ESXi650-202110001 或 ESXi670-202111001 升级到 ESXi 7.0 Update 3c,则 cURL 7.7.0 可能会使您的系统面临以下漏洞:
      CVE-2021-22926:CVSS 7.5
      CVE-2021-22925:CVSS 5.3
      CVE-2021-22924:CVSS 3.7
      CVE-2021-22923:CVSS 5.3
      CVE-2021-22922:CVSS 6.5

      解决办法:无。cURL 版本 7.78.0 会在未来的 ESXi 7.x 版本中提供。

    早期版本的已知问题

    查看以前的已知问题列表,请单击此处

    check-circle-line exclamation-circle-line close-line
    Scroll to top icon
    check-circle-line exclamation-circle-line close-line
    Scroll to top icon