ESXi 7.0 Update 2c | 2021 年 8 月 24 日 | 内部版本 18426014

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

  • ESXi 7.0 Update 2c 提供了已解决的问题部分中记录的缺陷和安全修复。

ESXi 7.0 的早期版本

ESXi 的新功能、已解决的问题和已知问题在各个版本的发行说明中均有描述。ESXi 7.0 的早期版本的发行说明包括:

有关国际化、兼容性及开源组件的说明,请参见 VMware vSphere 7.0 发行说明

有关支持升级到 ESXi 7.0 Update 2c 的 ESXi 版本的详细信息,请参阅 VMware 知识库文章 67077

本版本中包含的修补程序

此版本的 ESXi 7.0 Update 2c 提供了以下修补程序:

内部版本详细信息

下载文件名称 VMware-ESXi-7.0U2c-18426014-depot
内部版本 18426014
下载大小 580.8 MB
md5sum a6b2d1e3a1a071b8d93a55d7a7fc0b63
sha1checksum 829da0330f765b4ae46c2fb5b90a8b60f90e4e5b
需要重新引导主机
需要迁移或关闭虚拟机

组件

组件 实体包 类别 严重性
ESXi 组件 - 核心 ESXi VIB ESXi_7.0.2-0.20.18426014 缺陷修复 严重
Emulex FC 驱动程序 Broadcom-ELX-lpfc_12.8.298.3-2vmw.702.0.20.18426014 缺陷修复 严重
适用于 VMware ESXi 的 Broadcom NetXtreme-E 网络和 ROCE/RDMA 驱动程序 Broadcom-bnxt-Net-RoCE_216.0.0.0-1vmw.702.0.20.18426014 缺陷修复 重要
适用于 VMware ESXi 的 QLogic FastLinQ 10/25/40/50/100 GbE 以太网和 RoCE/RDMA 驱动程序 MRVL-E4-CNA-Driver-Bundle_1.0.0.0-1vmw.702.0.20.18426014 缺陷修复 重要
ESXi 安装/升级组件 esx-update_7.0.2-0.20.18426014 缺陷修复 严重
Intel(R) X710/XL710/XXV710/X722 适配器的网络驱动程序 Intel-i40en_1.8.1.137-1vmw.702.0.20.18426014 缺陷修复 严重
USB 驱动程序 VMware-vmkusb_0.1-4vmw.702.0.20.18426014 缺陷修复 严重
ESXi 组件 - 核心 ESXi VIB ESXi_7.0.2-0.15.18295176 安全 严重
USB 驱动程序 VMware-vmkusb_0.1-1vmw.702.0.15.18295176 安全 适中
ESXi Tools 组件 VMware-VM-Tools_11.2.6.17901274-18295176 安全 严重
ESXi 安装/升级组件 esx-update_7.0.2-0.15.18295176 安全 严重

重要信息

  • 要从 VMware Customer Connect 下载 ESXi 7.0 Update 2c 修补程序脱机库 ZIP 文件,必须导航到产品和帐户 > 产品修补程序。从选择产品下拉菜单中选择 ESXi (Embedded 和 Installable),然后从选择版本下拉菜单中选择 7.0
  • 从 vSphere 7.0 开始,VMware 使用组件打包 VIB 以及实体包。ESXiesx-update 实体包相互依赖。始终在单个 ESXi 主机修补程序基准中包括这两者,或者在基准中包含汇总实体包,以避免在主机修补期间出现故障。 
  • 使用 VMware Update Manager 修补版本低于 ESXi 7.0 Update 2 的 ESXi 主机时,强烈建议在修补程序基准中使用汇总实体包。如果无法使用汇总实体包,请务必在修补程序基准中包含以下所有软件包。如果基准中未包含以下软件包,则更新操作将失败:
    • VMware-vmkusb_0.1-1vmw.701.0.0.16850804 或更高版本
    • VMware-vmkata_0.1-1vmw.701.0.0.16850804 或更高版本
    • VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 或更高版本
    • VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 或更高版本

汇总实体包

此汇总实体包包含 ESXi 7.0 初始发行版之后的最新 VIB 和所有修复。

实体包 ID 类别 严重性
ESXi-7.0U2c-18426014 缺陷修复 严重
ESXi-7.0U2sc-18295176 安全 严重

映像配置文件

VMware 修补程序版本和更新版本包含常规映像配置文件和重要映像配置文件。常规版本映像配置文件仅适用于新的缺陷修复。

映像配置文件名称
ESXi-7.0U2c-18426014-standard
ESXi-7.0U2c-18426014-no-tools
ESXi-7.0U2sc-18295176-standard
ESXi-7.0U2sc-18295176-no-tools

ESXi 映像

名称和版本 发布日期 类别 详细信息
ESXi70U2c-18426014 2021 年 08 月 24 日 缺陷修复 缺陷修复映像
ESXi70U2sc-18295176 2021 年 08 月 24 日 安全 仅安全映像

有关各个组件和实体包的信息,请参见产品修补程序页面和已解决的问题部分。

修补程序下载和安装

在 vSphere 7.0.x 中,用于管理 vSphere Update Manager 的 Update Manager 插件将替换为 Lifecycle Manager 插件。vSphere Update Manager 的管理操作在 Lifecycle Manager 插件下仍可用,此外,还增加了 vSphere Lifecycle Manager 的新功能。
通常,通过使用 vSphere Lifecycle Manager 将修补程序应用于 ESXi 7.0.x 主机。有关详细信息,请参见关于 vSphere Lifecycle ManagervSphere Lifecycle Manager 基准和映像
也可以使用映像配置文件更新 ESXi 主机,而不使用 Lifecycle Manager 插件。要执行此操作,必须从产品修补程序页面手动下载修补程序脱机包 ZIP 文件,并使用 esxcli software profile update 命令。
有关详细信息,请参见使用 ESXCLI 命令升级主机VMware ESXi 升级指南。

产品支持注意事项

  • 在未来的主要 vSphere 版本中,将停止使用可信平台模块 (TPM) 1.2:VMware 打算在未来的主要 vSphere 版本中停止支持 TPM 1.2 及关联功能,例如具有 TXT 的 TPM 1.2。要充分利用 vSphere 功能,可以使用 TPM 2.0 代替 TPM 1.2。所有 vSphere 7.0.x 版本、更新和修补程序继续支持 TPM 1.2。但是,在安装或更新 7.0.x 版本期间,不显示 TPM 1.2 弃用警告。

  • 默认情况下,禁用服务位置协议 (SLP) 服务:从 ESX 7.0 Update 2c 开始,默认情况下禁用 SLP 服务,以防止潜在的安全漏洞。升级到 ESX 7.0 Update 2c 后,也会自动禁用 SLP 服务。可以使用命令 esxcli system slp set --enable true 手动启用 SLP 服务。有关详细信息,请参见 VMware 知识库文章 76372

已解决的问题

已解决的问题分为以下几组。

ESXi_7.0.2-0.20.18426014
修补程序类别 缺陷修复
修补程序严重性 严重
需要重新引导主机
需要迁移或关闭虚拟机
受影响的硬件 不适用
受影响的软件 不适用
包含的 VIB
  • VMware_bootbank_vsanhealth_7.0.2-0.20.18426014
  • VMware_bootbank_vsan_7.0.2-0.20.18426014
  • VMware_bootbank_gc_7.0.2-0.20.18426014
  • VMware_bootbank_esx-xserver_7.0.2-0.20.18426014
  • VMware_bootbank_clusterstore_7.0.2-0.20.18426014
  • VMware_bootbank_vdfs_7.0.2-0.20.18426014
  • VMware_bootbank_native-misc-drivers_7.0.2-0.20.18426014
  • VMware_bootbank_cpu-microcode_7.0.2-0.20.18426014
  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.20.18426014
  • VMware_bootbank_esx-base_7.0.2-0.20.18426014
已修复的 PR 2717698、2731446、2515171、2731306、2751564、2718934、2755056、2725886、2725886、2753231、2728910、2741111、2759343、2721379、2751277、2708326、2755977、2737934、2777001、2760932、2731263、2731142、2760267、2749688、2763986、2765534、2766127、2777003、2778793、2755807、2760081、2731644、2749815、2749962、2738238、2799408
CVE 编号 不适用

ESXi 和 esx-update 实体包相互依赖。始终在单个 ESXi 主机修补程序基准中包括这两者,或者在基准中包含汇总实体包,以避免在主机修补期间出现故障。

更新了 crx、vsanhealth、vsan、gc、esx-xserver、clusterstore、vdfs、native-misc-drivers、cpu-microcode、esx-dvfilter-generic-fastpathesx-base VIB 以解决下列问题:

  • PR 2717698:ESXi 主机可能会由于 qedentv 驱动程序中很少见的争用情况而出现故障并显示紫色诊断屏幕

    qedentv 驱动程序中很少见的争用情况可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。如果在常规服务接口 (GSI) 队列对 (QP) 被破坏之后立即出现 Rx 完整中断(例如,在 qedentv 驱动程序卸载或系统关闭期间),则会出现该问题。在这种情况下,qedentv 驱动程序可能会访问已释放的 QP 地址,从而导致 PF 异常。在与具有大量未经请求的 GSI 流量的忙碌物理交换机相连接的 ESXi 主机中,可能会出现此问题。回溯追踪中会显示类似以下内容的消息:

    cpu4:2107287)0x45389609bcb0:[0x42001d3e6f72]qedrntv_ll2_rx_cb@(qedrntv)#<None>+0x1be stack: 0x45b8f00a7740, 0x1e146d040, 0x432d65738d40, 0x0, 0x
    2021-02-11T03:31:53.882Z cpu4:2107287)0x45389609bd50:[0x42001d421d2a]ecore_ll2_rxq_completion@(qedrntv)#<None>+0x2ab stack: 0x432bc20020ed, 0x4c1e74ef0, 0x432bc2002000,
    2021-02-11T03:31:53.967Z cpu4:2107287)0x45389609bdf0:[0x42001d1296d0]ecore_int_sp_dpc@(qedentv)#<None>+0x331 stack: 0x0, 0x42001c3bfb6b, 0x76f1e5c0, 0x2000097, 0x14c2002
    2021-02-11T03:31:54.039Z cpu4:2107287)0x45389609be60:[0x42001c0db867]IntrCookieBH@vmkernel#nover+0x17c stack: 0x45389609be80, 0x40992f09ba, 0x43007a436690, 0x43007a43669
    2021-02-11T03:31:54.116Z cpu4:2107287)0x45389609bef0:[0x42001c0be6b0]BH_Check@vmkernel#nover+0x121 stack: 0x98ba, 0x33e72f6f6e20, 0x0, 0x8000000000000000, 0x430000000001
    2021-02-11T03:31:54.187Z cpu4:2107287)0x45389609bf70:[0x42001c28370c]NetPollWorldCallback@vmkernel#nover+0x129 stack: 0x61, 0x42001d0e0000, 0x42001c283770, 0x0, 0x0
    2021-02-11T03:31:54.256Z cpu4:2107287)0x45389609bfe0:[0x42001c380bad]CpuSched_StartWorld@vmkernel#nover+0x86 stack: 0x0, 0x42001c0c2b44, 0x0, 0x0, 0x0
    2021-02-11T03:31:54.319Z cpu4:2107287)0x45389609c000:[0x42001c0c2b43]Debug_IsInitialized@vmkernel#nover+0xc stack: 0x0, 0x0, 0x0, 0x0, 0x0
    2021-02-11T03:31:54.424Z cpu4:2107287)^[[45m^[[33;1mVMware ESXi 7.0.2 [Releasebuild-17435195 x86_64]^[[0m
    #PF Exception 14 in world 2107287:vmnic7-pollW IP 0x42001d3e6f72 addr 0x1c

    本版本已解决该问题。

  • PR 2731446:当 vSphere Replication 设备打开电源时,hostd 服务可能会失败,并导致 ESXi 主机暂时对 vCenter Server 无响应

    在极少数情况下,当 vSphere Replication 设备打开电源时,hostd 服务可能会失败,并导致 ESXi 主机暂时对 vCenter Server 无响应。hostd 服务会自动重新启动并恢复连接。

    本版本已解决该问题。

  • PR 2515171:在主机配置文件中编辑高级选项参数并将值设置为 false 时,导致该值设置为 true

    尝试将主机配置文件中高级选项参数的值设置为 false 时,用户界面会创建一个非空字符串值。不为空的值将解释为 true,并且该高级选项参数在主机配置文件中收到 true 值。

    本版本已解决该问题。

  • PR 2731306:ESXi 主机变得对 vCenter Server 无响应,并重复显示准入故障消息

    即使 ESXi 主机可访问且正在运行,这些主机也可能会变得对 vCenter Server 无响应。在具有自定义驱动程序的供应商映像中,由于 ImageConfigManager 消耗的 RAM 多于分配的 RAM,会出现此问题。因此,ImageConfigManager 重复失败,进而导致 ESXi 主机与 vCenter Server 断开连接。
    vmkernel 日志中会显示类似以下内容的重复错误:
    Admission failure in path: host/vim/vmvisor/hostd-tmp/sh.<pid1>:python.<pid2>:uw.<pid2>
    hostd 日志中会显示类似以下内容的消息:Task Created : haTask-ha-host-vim.host.ImageConfigManager.fetchSoftwarePackages-<sequence>,后跟:ForkExec(/usr/bin/sh) <pid1>,其中 <pid1> 标识 ImageConfigManager 进程。

    本版本已解决该问题。

  • PR 2751564:如果降低 DiskMaxIOSize 高级配置选项的值,ESXi 主机 I/O 操作可能会失败

    如果将 DiskMaxIOSize 高级配置选项更改为较低的值,则块大小较大的 I/O 可能会错误地拆分并在 PSA 路径中排队。因此,ESXi 主机 I/O 操作可能会超时并失败。

    本版本已解决该问题。

  • PR 2718934:虚拟机的打开电源或关闭电源操作用时过长

    在某些情况下,虚拟机的打开电源或关闭电源操作可能需要长达 20 分钟的时间。当虚拟机的底层存储运行后台操作(如 HBA 重新扫描或 APD 事件),并且一些锁定持续保留时,会出现此问题。

    本版本已解决该问题。此修复移除了存储资源上不必要的锁定,并引入了快速互斥以提高虚拟机电源操作的性能。

  • PR 2755056:由于重要产品数据 (VPD) 页响应大小差异,ESXi 主机出现故障并显示紫色诊断屏幕

    在极少数情况下,当目标 ESXi 主机的 VPD 页响应大小在主机的不同路径上不同时,ESXi 写入的字节数可能会超过为给定路径分配的长度。因此,ESXi 主机出现故障并显示紫色诊断屏幕,同时显示如下消息:
    应急消息: @BlueScreen: 转数已超出 - PCPU 24 可能出现死锁 (Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4878 - Corruption in dlmalloc

    本版本已解决该问题。此修复使用单独的字段跟踪 VPD 页的大小,而不是依赖于 VPD 响应标头。

  • PR 2725886:锁争用可能会导致某些虚拟机操作失败,但这种情况很少出现

    锁争用可能会导致故障切换或迁移等虚拟机操作失败,但这种情况很少出现。
    锁定失败消息类似以下内容:
    vol 'VM_SYS_11', lock at 480321536: [Req mode 1] Checking liveness:
    type 10c00003 offset 480321536 v 1940464, hb offset 3801088


    Res3: 2496: Rank violation threshold reached: cid 0xc1d00002, resType 2, cnum 5 vol VM_SYS_11

    本版本已解决该问题。

  • PR 2766036:在 vSphere Client 中,您会看到置备的虚拟机空间数字不正确

    在导致创建多个虚拟机的复杂工作流中,当导航到虚拟机 > 虚拟机时,可能会在某些虚拟机的“置备的空间”列中看到巨大的数字。例如,2.95 TB,而不是实际置备的 25 GB 空间。

    本版本已解决该问题。

  • PR 2753231:ESXi 主机由于 ESXi 存储堆栈中的调用堆栈损坏而出现故障并显示紫色诊断屏幕

    在处理 SCSI 命令 READ CAPACITY (10) 时,ESXi 可能会从响应中复制多余的数据并损坏调用堆栈。因此,ESXi 主机会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2728910:当虚拟机打开电源时,ESX 主机可能会出现故障并显示紫色诊断屏幕

    在极少数情况下,日志事务中包含的 VMFS 资源集群可能不会锁定。因此,在打开虚拟机电源期间,多个 ESXi 主机可能会由于 VMFS 层中的异常 14 而出现故障并显示紫色诊断屏幕。vmkernel 日志中显示的典型消息和堆栈跟踪如下所示:
    @BlueScreen: #PF Exception 14 in world 2097684:VSCSI Emulat IP 0x418014d06fca addr 0x0
    PTEs:0x16a47a027;0x600faa8007;0x0;
    2020-06-24T17:35:57.073Z cpu29:2097684)Code start: 0x418013c00000 VMK uptime: 0:01:01:20.555
    2020-06-24T17:35:57.073Z cpu29:2097684)0x451a50a1baa0:[0x418014d06fca]Res6MemUnlockTxnRCList@esx#nover+0x176 stack: 0x1 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb10:[0x418014c7cdb6]J3_DeleteTransaction@esx#nover+0x33f stack: 0xbad0003
    2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb40:[0x418014c7db10]J3_AbortTransaction@esx#nover+0x105 stack: 0x0 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb80:[0x418014cbb752]Fil3_FinalizePunchFileHoleTxnVMFS6@esx#nover+0x16f stack: 0x430fe950e1f0
    2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bbd0:[0x418014c7252b]Fil3UpdateBlocks@esx#nover+0x348 stack: 0x451a50a1bc78 2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bce0:[0x418014c731dc]Fil3_PunchFileHoleWithRetry@esx#nover+0x89 stack: 0x451a50a1bec8
    2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bd90:[0x418014c739a5]Fil3_FileBlockUnmap@esx#nover+0x50e stack: 0x230eb5 2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be40:[0x418013c4c551]FSSVec_FileBlockUnmap@vmkernel#nover+0x6e stack: 0x230eb5
    2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be90:[0x418013fb87b1]VSCSI_ExecFSSUnmap@vmkernel#nover+0x8e stack: 0x0 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf00:[0x418013fb71cb]VSCSIDoEmulHelperIO@vmkernel#nover+0x2c stack: 0x430145fbe070
    2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf30:[0x418013ceadfa]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430aa05c9618 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bfe0:[0x418013f0eaa2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0
    2020-06-24T17:35:57.083Z cpu29:2097684)base fs=0x0 gs=0x418047400000 Kgs=0x0

    本版本已解决该问题。

  • PR 2741111:某些 Intel CPU 无法转发调试异常 (#DB) 陷阱,这可能会导致虚拟机出现三重故障

    在极少数情况下,某些 Intel CPU 可能无法转发 #DB 陷阱,如果在 Windows 系统调用期间发生定时器中断,虚拟机可能会出现三重故障。

    本版本已解决该问题。此修复可将所有 #DB 陷阱从 CPU 转发到客户机操作系统,但 DB 陷阱来自连接到虚拟机的调试程序时除外。

  • PR 2759343:从直接控制台用户界面 (DCUI) 重新启动 ESXi 管理代理时,sfcbd 服务不启动

    如果从 DCUI 重新启动 ESXi 管理代理,则 sfcbd 服务不启动。必须手动启动 SFCB 服务。

    本版本已解决该问题。

  • PR 2721379:hostd 服务每 2 分钟记录一次电源传感器为零警告

    hostd 服务每 2 分钟记录一次消息 BuildPowerSupplySensorList found 0 power supply sensors。在 ESXi 主机上升级到或全新安装 ESXi 7.0 Update 1 时,会出现此问题。

    本版本已解决该问题。

  • PR 2751277:由于空指针引用错误,ESXi 主机可能出现故障并显示紫色诊断屏幕。

    在极少数情况下,内核内存分配器可能会返回可能无法正确取消引用的 NULL 指针。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕,同时显示如下等错误:环境 2422594 中出现 #GP 异常 13:vmm:overCom @ 0x42003091ede4 (#GP Exception 13 in world 2422594:vmm:overCom @ 0x42003091ede4)。回溯追踪中会显示类似以下内容的错误:
    #1 Util_ZeroPageTable
    #2 Util_ZeroPageTableMPN
    #3 VmMemPfUnmapped
    #4 VmMemPfInt
    #5 VmMemPfGetMapping
    #6 VmMemPf
    #7 VmMemPfLockPageInt
    #8 VMMVMKCall_Call
    #9 VMKVMM_ArchEnterVMKernel

    本版本已解决该问题。

  • PR 2708326:如果在较短时间间隔内热添加 NVMe 设备,然后再热移除,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    如果在较短时间间隔内热添加 NVMe 设备,然后再热移除,NVMe 驱动程序可能会由于命令超时而无法初始化 NVMe 控制器。因此,该驱动程序可能会访问在清理进程中已释放的内存。在回溯追踪中,您会看到一条消息,例如,WARNING: NVMEDEV: NVMEInitializeController:4045: Failed to get controller identify data, status: Timeout
    最终,ESXi 主机可能会出现故障,并显示紫色诊断屏幕,其中会显示类似以下内容的错误:#PF Exception ... in world ...:vmkdevmgr

    本版本已解决该问题。

  • PR 2755977:在打开虚拟机电源期间,ESXi 主机可能无法厚置备 VMDK 或创建交换文件

    当 ESXi 主机没有可用大文件块 (LFB) 可供分配时,主机会执行 VMDK 厚置备或创建具有小文件块 (SFB) 的交换文件。但是,在极少数情况下,此类主机可能也无法分配 SFB。因此,厚置备 VMDK 或创建交换文件失败。当虚拟机尝试打开电源时,您会在 vmkernel 日志中看到类似以下内容的错误:
     vmkernel.1:2021-01-08T19:13:28.341Z cpu20:2965260)Fil3: 10269: Max no space retries (10) exceeded for caller Fil3_SetFileLength (status 'No space left on device')

    本版本已解决该问题。

  • PR 2737934:如果使用的 VMFS6 数据存储非常大,可能会看到重复的 CPU 锁位错误,或者 ESXi 主机可能会间歇性出现故障

    使用的 VMFS6 数据存储非常大时,为资源集群中的精简 VMDK 分配文件块的进程可能会导致 CPU 锁位。因此,您会看到 CPU 锁位消息,并且在极少数情况下,ESXi 主机可能会出现故障。回溯追踪中会显示类似以下内容的消息:
    2021-04-07T02:18:08.730Z cpu31:2345212)WARNING: Heartbeat: 849: PCPU 10 didn't have a heartbeat for 7 seconds; *may* be locked up.
    涉及 Res6AffMgr 功能的关联回溯追踪类似于以下内容:
    2021-01-06T02:16:16.073Z cpu0:2265741)ALERT: NMI: 694: NMI IPI: RIPOFF(base):RBP:CS [0x121d74d(0x42001a000000):0x50d0:0xf48] (Src 0x1, CPU0)
    2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b320:[0x42001b21d74c]Res6AffMgrComputeSortIndices@esx#nover+0x369 stack: 0x43119125a000
    2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b3b0:[0x42001b224e46]Res6AffMgrGetCluster@esx#nover+0xb1f stack: 0xd 2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b4b0:[0x42001b226491]Res6AffMgr_AllocResourcesInt@esx#nover+0x40a stack: 0x4311910f4890
    2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b680:[0x42001b2270e2]Res6AffMgr_AllocResources@esx#nover+0x1b stack: 0x0

    本版本已解决该问题。有关详细信息,请参见 VMware 知识库文章 83473

  • PR 2777001:升级到 ESXi 7.0 Update 2 期间或之后,物理 CPU 计数较大的 ESXi 主机可能会出现故障并显示紫色诊断屏幕

    升级到 ESXi 7.0 Update 2 期间或之后,ESX 存储层可能无法为物理 CPU 计数较大的 ESXi 主机以及连接到这些主机的许多存储设备或路径分配足够的内存资源。因此,此类 ESXi 主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。此修复更正了 ESX 存储层内存分配。

  • PR 2760932:硬件版本为 18 的虚拟机在 vSphere vMotion 操作期间可能会间歇性失败

    在 vSphere vMotion 或 Storage vMotion 期间,具有硬件版本 18 以及 VMware Tools 11.2.0 或更高版本的虚拟机可能会由于目标端的虚拟图形设备问题而失败。
    vmkernel.log 中,您会看到类似以下内容的一行消息:
    PF failed to handle a fault on mmInfo at va 0x114f5ae0: Out of memory.Terminating...

    本版本已解决该问题。

  • PR 2731263:更新到硬件版本 18 后,您会看到虚拟机中的客户机操作系统出现内核严重错误

    更新到硬件版本 18 后,在引导虚拟机时,AMD CPU 上的某些客户机操作系统(如 CentOS 7)可能会出现故障,并显示内核严重错误。打开虚拟机的 Web 控制台时,您会看到内核严重错误消息。

    本版本已解决该问题。

  • PR 2731142:具有“IPv6 隧道封装限制”选项的数据包在虚拟机之间的流量中丢失

    某些 Linux 内核按照 RFC 2473 第 5.1 条中所述在 IPv6 隧道数据包中添加了“IPv6 隧道封装限制”选项。因此,由于 IPv6 扩展标头,IPv6 隧道数据包将在虚拟机之间的流量中丢弃。

    本版本已解决该问题。此修复可正确解析具有“IPv6 隧道封装限制”选项的数据包。

  • PR 2760267:在 vmkernel 日志中,您会看到多个警告,指示设备 XXX 处于待机状态下切换到首选路径 XXX

    当虚拟介质(如 CD 驱动器)使用 Integrated Dell Remote Access Controller (iDRAC) 连接到 vSphere 环境,并且没有任何媒体文件映射到该驱动器时,您可能会在 vmkernel 日志中看到多条警告消息,例如:
    vmw_psp_fixed: psp_fixedSelectPathToActivateInt:439: Switching to preferred path vmhba32:C0:T0:L1 in STANDBY state for device mpx.vmhba32:C0:T0:L1.WARNING: vmw_psp_fixed: psp_fixedSelectPathToActivateInt:464: Selected current STANDBY path vmhba32:C0:T0:L1 for device mpx.vmhba32:C0:T0:L1 to activate.This may lead to path thrashing.

    本版本已解决该问题。

  • PR 2749688:vCenter Server 可能会间歇性地从 ESXi 主机中移除 NSX 控制的内部分布式虚拟端口

    在 vSphere Distributed Switch 的 24 小时同步工作流中,vCenter Server 可能会间歇性地从 ESXi 主机中移除 NSX 控制的分布式虚拟端口,例如服务平面转发 (SPF) 端口。因此,虚拟机的 vSphere vMotion 操作可能会失败。您会在日志中看到类似 Could not connect SPF port : Not found 的错误。

    本版本已解决该问题。

  • PR 2763986:如果在 VMFS 卷的根目录上配置暂存分区,则升级到 ESXi 7.0.x 将失败,并且可能会丢失 VMFS 卷上的数据

    ESXi 7.0 引入了基于 VMFS-L 的 ESX-OSData 分区,该分区承担了旧版暂存分区、VMware Tools 的 locker 分区及核心转储目标的角色。如果在升级到 ESXi 7.0.x 期间在 VMFS 卷的根目录上配置暂存分区,则系统会尝试将 VMFS 文件转换为 VMFS-L 格式,以满足 OS-Data 分区要求。因此,OS-Data 分区可能会覆盖 VMFS 卷并导致数据丢失。

    本版本已解决该问题。此修复增加了一项检查,在转换为 OS-DATA 之前会检查文件系统是否为 VFAT。有关详细信息,请参见 VMware 知识库文章 83647

  • PR 2765534:升级到 ESXi 7.0 Update 2a 后,NSX Data Center for vSphere 集群中 ESXi 主机的通信通道运行状况为已关闭

    由于日志处理问题,在升级到 ESXi 7.0 Update 2a 后,当检查通信通道运行状况时,您会看到所有 ESXi 主机都处于关闭状态,因为 NSX Manager 无法连接到防火墙代理。

    本版本已解决该问题。如果已遇到此问题,请停止 vsfwd 服务,然后重试升级操作。

  • PR 2766127:如果在 FCoE 环境中使用 vSphere Quick Boot 升级 ESXi 主机,则物理服务器可能会出现故障并显示紫色诊断屏幕

    如果版本 7.0 Update 2 的 ESXi 主机安装在 FCoE LUN 上并使用 UEFI 引导模式,则在尝试使用 vSphere QuickBoot 升级该主机时,物理服务器可能会由于内存错误而出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2777003:如果使用 USB 作为 ESXi 7.0 Update 2a 的引导设备,则 ESXi 主机可能会变得无响应,并且会显示“主机无响应 (host not-responding)”和“找不到引导槽 (boot bank is not found)”警示

    USB 设备的队列深度较小,由于 ESXi 存储堆栈中存在争用情况,某些 I/O 操作可能无法到达该设备。此类 I/O 在 ESXi 存储堆栈中排队并最终超时。因此,ESXi 主机会变得无响应。
    在 vSphere Client 中,会显示以下等警示:警示: 在路径“/bootbank”中找不到 /bootbank (Alert: /bootbank not to be found at path '/bootbank')主机无响应 (Host not-responding)
    在 vmkernel 日志中,您会看到类似以下内容的错误:
    2021-04-12T04:47:44.940Z cpu0:2097441)ScsiPath: 8058: Cancelled Cmd(0x45b92ea3fd40) 0xa0, cmdId.initiator=0x4538c859b8f8 CmdSN 0x0 from world 0 to path "vmhba32:C0:T0:L0".Cmd count Active:0 Queued:1.
    2021-04-12T04:48:50.527Z cpu2:2097440)ScsiDeviceIO: 4315: Cmd(0x45b92ea76d40) 0x28, cmdId.initiator=0x4305f74cc780 CmdSN 0x1279 from world 2099370 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x5 D:0x0 P:0x0 Cancelled from path layer.Cmd count Active:1
    2021-04-12T04:48:50.527Z cpu2:2097440)Queued:4

    本版本已解决该问题。

  • PR 2778793:升级到 ESXi Update 2a 后,ESXi 主机的引导时间变慢

    升级到 ESXi Update 2a 后,ESXi 主机的引导时间可能会减慢长达 60 分钟。
    此问题不影响从早期版本的 ESXi 7.0.x 更新到 ESXi Update 2a。
    仅当使用 vSphere Lifecycle Manager 映像或基准或者 esxcli software profile update 命令执行升级操作时,才会出现此问题。如果使用 ISO 映像或脚本式安装,则不会遇到此问题。
    此问题很可能会影响 iSCSI 配置,但与引导槽检测的 ESXi 算法相关,而不会减慢外部存储目标的速度。

    本版本已解决该问题。此修复会在 boot.cfg 文件或存储未立即提供时增加容限。

  • PR 2755807:ESXi 主机上的 vSphere vMotion 操作失败,并显示内存不足错误

    由于端口集堆中存在内存泄漏,因此 ESXi 主机上的 vSphere vMotion 操作可能会失败并显示内存不足错误。在 vSphere Client 中,您会看到类似以下内容的错误:
    无法预留端口: DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba 端口 1 39 (Failed to reserve port: DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba port 1 39)。
    失败,错误状态为: 内存不足 (Failed with error status: Out of memory)。

    本版本已解决该问题。

  • PR 2760081:升级到 vSAN 7.0 Update 2 后,显示 vSAN 内部版本建议引擎运行状况警告

    如果 vCenter Server 无法将 vcsa.vmware.com 解析为 IP 地址,则无法上载 vSAN 版本目录。以下 vSAN 运行状况检查显示警告:vSAN 内部版本建议引擎运行状况。
    您可能会看到类似于以下内容的错误消息:
    2021-04-12T11:40:59.435Z ERROR vsan-mgmt[32221] [VsanHttpRequestWrapper::urlopen opID=noOpId] Exception while sending request : Cannot resolve localhost or Internet websites.
    2021-04-12T11:40:59.435Z WARNING vsan-mgmt[32221] [VsanVumCoreUtil::CheckVumServiceStatus opID=noOpId] Failed to connect VUM service: Cannot resolve localhost or Internet websites.
    2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumIntegration::VumStatusCallback opID=noOpId] VUM is not installed or not responsive ​
    2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumSystemUtil::HasConfigIssue opID=noOpId] Config issue health.test.vum.vumDisabled exists on entity None

    本版本已解决该问题。

  • PR 2731644:在 vSAN 上看到擦除活动高于平常水平

    整数溢出缺陷可能会导致 vSAN DOM 比配置的设置更频繁地发出擦除。

    本版本已解决该问题。

  • PR 2749815:当重新同步因活动客户机写入操作中止时,ESXi 主机会出现故障并显示紫色诊断屏幕

    在 ESXi 主机拥有的对象上,重新同步与客户机写入操作并行运行时,主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2749962:显示 syslog 错误“在轮换时无法写入标头 (Failed to write header on rotate)”

    当 cmmdstimemachineDump.log 文件达到最大限制 10 MB 时,会进行轮换,并创建一个新的 cmmdstimemachineDump 文件。但在轮换期间,在 vmsyslogd.err 日志中,您可能会看到类似以下内容的错误:
    2021-04-08T03:15:53.719Z vmsyslog.loggers.file : ERROR ] Failed to write header on rotate.Exception: [Errno 2] No such file or directory: '/var/run/cmmdstimemachineDumpHeader.txt'

    本版本已解决该问题。

  • PR 2738238:对象格式更改任务需要很长时间才能响应

    在某些情况下,集群监控、成员资格和目录服务 (CMMDS) 为对象格式更改任务提供的输入不正确,该任务需要很长时间才能响应。

    本版本已解决该问题。

  • PR 2799408:将延伸集群升级到版本 ESXi 7.0 Update 2 或更高版本可能会导致多个 ESX 主机出现故障并显示紫色诊断屏幕

    在极少数情况下,如果在升级过程中更换见证主机,并在更换后不久运行磁盘格式转换任务,则延伸集群上的多个 ESX 主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

esx-update_7.0.2-0.20.18426014
修补程序类别 缺陷修复
修补程序严重性 严重
需要重新引导主机
需要迁移或关闭虚拟机
受影响的硬件 不适用
受影响的软件 不适用
包含的 VIB
  • VMware_bootbank_loadesx_7.0.2-0.20.18426014
  • VMware_bootbank_esx-update_7.0.2-0.20.18426014
已修复的 PR 2722263、2812906
CVE 编号 不适用

更新了 loadesxesx-update VIB 以解决下列问题:

  • PR 2722263:升级到 ESXi 7.0 Update 2a 后,无法移除自定义 ESXi 映像中的组件

    如果使用 ESXi Packaging Kit 创建自定义 7.0 Update 2a 映像,替代基础映像中的某些组件(例如 Intel-ixgben:1.8.9.0-1OEM.700.1.0.15525992,然后升级 ESXi 7.0.x 主机,则在升级后将无法移除自定义组件。此外,自定义组件中的某些 VIB 可能会丢失。

    本版本已解决该问题。

  • PR 2812906:在某些 ESXi 部署场景中,VMFS 数据存储的元数据可能会由于复制系统通用唯一标识符 (UUID) 而损坏

    某些部署场景(如克隆 ESXi 引导槽)可能会导致多个 ESXi 主机的 UUID 部分相同或完全相同。由于 UUID 用于 VMFS 检测信号和日志操作,因此如果 UUID 重复,则安装或升级操作后,多个 ESXi 主机会尝试访问同一 VMFS 数据存储上的元数据区域。因此,您可能会在某些 VMFS 数据存储中看到元数据损坏。
    在 vmkernel 日志中,您会看到类似以下内容的消息:
    vmkernel 608: VMFS volume DCS_HCFA_TEDS_Regulated_10032/5ba2905b-ac11166d-b145-0025b5920a02 on naa.60060e8012a34f005040a34f00000d64:1 has been detected corrupted.
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 319: FS3RCMeta 2245 200 21 105 0
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 326: 0 0 0 0 0 0 0 0 0 0 0 7 0 254 1 4 0 248 3 96 0 0 0 0 0
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 332: 0 0 0
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 338: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
    2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 

    其他受影响的部署场景包括重用硬件配置文件,例如,使用同一 MAC 部署新实例的刀片系统,以及在服务器之间移动引导磁盘。

    解决办法:无。有关详细信息,请参见 VMware 知识库文章 8428084349

Broadcom-bnxt-Net-RoCE_216.0.0.0-1vmw.702.0.20.18426014
修补程序类别 缺陷修复
修补程序严重性 重要
需要重新引导主机
需要迁移或关闭虚拟机
受影响的硬件 不适用
受影响的软件 不适用
包含的 VIB
  • VMW_bootbank_bnxtroce_216.0.58.0-20vmw.702.0.20.18426014
  • VMW_bootbank_bnxtnet_216.0.50.0-34vmw.702.0.20.18426014
已修复的 PR 不适用
CVE 编号 不适用

更新了 bnxtroce VIB。

    MRVL-E4-CNA-Driver-Bundle_1.0.0.0-1vmw.702.0.20.18426014
    修补程序类别 缺陷修复
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_qedrntv_3.40.5.53-17vmw.702.0.20.18426014
    • VMW_bootbank_qedentv_3.40.5.53-20vmw.702.0.20.18426014
    已修复的 PR 不适用
    CVE 编号 不适用

    更新了 qedrntv VIB。

      Intel-i40en_1.8.1.137-1vmw.702.0.20.18426014
      修补程序类别 缺陷修复
      修补程序严重性 严重
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMW_bootbank_i40enu_1.8.1.137-1vmw.702.0.20.18426014
      已修复的 PR

      2750390

      CVE 编号 不适用

      更新了 i40enu VIB 以解决下列问题:

      • PR 2750390:升级到 ESXi 7.0 Update 2a 后,将跳过适用于 ESXi 的异步 i40en 网络驱动程序 VIB 或恢复为 VMware 内置驱动程序 i40enu

        从 vSphere 7.0 Update 2 开始,内置 i40en 驱动程序已重命名为 i40enu。因此,如果尝试安装 i40en 合作伙伴异步驱动程序,将跳过 i40en VIB 或恢复为 VMware i40enu 内置驱动程序。

        本版本已解决该问题。

      Broadcom-ELX-lpfc_12.8.298.3-2vmw.702.0.20.18426014
      修补程序类别 缺陷修复
      修补程序严重性 严重
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMW_bootbank_lpfc_12.8.298.3-2vmw.702.0.20.18426014
      已修复的 PR 2715138
      CVE 编号 不适用

      更新了 lpfc VIB 以解决下列问题:

      • PR 2715138:在安装 Dell EMC PowerPath 插件期间,ESXi 主机可能会出现故障并显示紫色诊断屏幕

        在安装 Dell EMC PowerPath 插件期间,极少出现的页面错误 (Page Fault) 错误可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

        本版本已解决该问题。

      VMware-vmkusb_0.1-4vmw.702.0.20.18426014
      修补程序类别 缺陷修复
      修补程序严重性 严重
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMW_bootbank_vmkusb_0.1-4vmw.702.0.20.18426014
      已修复的 PR 2753546
      CVE 编号 不适用

      更新了 vmkusb VIB 以解决下列问题:

      • PR 2753546:如果使用 USB 引导设备,则与 /bootbank 分区的连接可能会中断,或者 VMFS-L LOCKER 分区损坏

        如果 USB 主机控制器与 vSphere 系统断开连接,并且设备上的任何资源(如转储文件)仍在由 ESXi 使用,则在设备重新连接时无法释放设备路径。因此,ESXi 会提供 USB 设备的新路径,这会中断与 /bootbank 分区的连接或损坏 VMFS-L LOCKER 分区。

        本版本已解决该问题。此修复增强了 USB 主机控制器驱动程序,能够允许命令超时失败,从而使 ESXi 具有足够的时间释放 USB 设备资源。
        最佳做法是,不要在 USB 存储设备上设置转储分区。有关详细信息,请参见 VMware 知识库文章 20775162149257

      ESXi_7.0.2-0.15.18295176
      修补程序类别 安全
      修补程序严重性 严重
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMware_bootbank_vdfs_7.0.2-0.15.18295176
      • VMware_bootbank_esx-xserver_7.0.2-0.15.18295176
      • VMware_bootbank_esx-base_7.0.2-0.15.18295176
      • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.15.18295176
      • VMware_bootbank_crx_7.0.2-0.15.18295176
      • VMware_bootbank_native-misc-drivers_7.0.2-0.15.18295176
      • VMware_bootbank_cpu-microcode_7.0.2-0.15.18295176
      • VMware_bootbank_gc_7.0.2-0.15.18295176
      • VMware_bootbank_vsanhealth_7.0.2-0.15.18295176
      • VMware_bootbank_clusterstore_7.0.2-0.15.18295176
      • VMware_bootbank_vsan_7.0.2-0.15.18295176
      已修复的 PR 2738816、2738857、2735594
      CVE 编号 不适用

      ESXi 和 esx-update 实体包相互依赖。始终在单个 ESXi 主机修补程序基准中包括这两者,或者在基准中包含汇总实体包,以避免在主机修补期间出现故障。

      更新了 vdfs、esx-xserver、esx-base、esx-dvfilter-generic-fastpath、crx、native-misc-drivers、cpu-microcode、gc、vsanhealth、clusterstore、vsan esx-base VIB 以解决下列问题:

      • OpenSSH 更新

        OpenSSH 已更新到版本 8.5p1。

      • OpenSSL 库更新

        OpenSSL 库已更新到版本 openssl-1.0.2y。

      • Libarchive 库更新

        Libarchive 库已更新到版本 3.5.1。

      esx-update_7.0.2-0.15.18295176
      修补程序类别 安全
      修补程序严重性 严重
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMware_bootbank_loadesx_7.0.2-0.15.18295176
      • VMware_bootbank_esx-update_7.0.2-0.15.18295176
      已修复的 PR 不适用
      CVE 编号 不适用

      更新了 loadesxesx-update VIB。

        VMware-VM-Tools_11.2.6.17901274-18295176
        修补程序类别 安全
        修补程序严重性 严重
        需要重新引导主机
        需要迁移或关闭虚拟机
        受影响的硬件 不适用
        受影响的软件 不适用
        包含的 VIB
        • VMware_locker_tools-light_11.2.6.17901274-18295176
        已修复的 PR 2761942
        CVE 编号 不适用

        更新了 tools-light VIB 以解决下列问题:

        VMware-vmkusb_0.1-1vmw.702.0.15.18295176
        修补程序类别 安全
        修补程序严重性 适中
        需要重新引导主机
        需要迁移或关闭虚拟机
        受影响的硬件 不适用
        受影响的软件 不适用
        包含的 VIB
        • VMW_bootbank_vmkusb_0.1-1vmw.702.0.15.18295176
        已修复的 PR 不适用
        CVE 编号 不适用

        更新了 vmkusb VIB。

          ESXi-7.0U2c-18426014-standard
          配置文件名称 ESXi-7.0U2c-18426014-standard
          内部版本 有关内部版本信息,请参见本版本中包含的修补程序
          供应商 VMware, Inc.
          发布日期 2021 年 8 月 24 日
          接受级别 合作伙伴支持
          受影响的硬件 不适用
          受影响的软件 不适用
          受影响的 VIB
          • VMware_bootbank_vsanhealth_7.0.2-0.20.18426014
          • VMware_bootbank_vsan_7.0.2-0.20.18426014
          • VMware_bootbank_gc_7.0.2-0.20.18426014
          • VMware_bootbank_esx-xserver_7.0.2-0.20.18426014
          • VMware_bootbank_clusterstore_7.0.2-0.20.18426014
          • VMware_bootbank_vdfs_7.0.2-0.20.18426014
          • VMware_bootbank_native-misc-drivers_7.0.2-0.20.18426014
          • VMware_bootbank_cpu-microcode_7.0.2-0.20.18426014
          • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.20.18426014
          • VMware_bootbank_esx-base_7.0.2-0.20.18426014
          • VMware_bootbank_loadesx_7.0.2-0.20.18426014
          • VMware_bootbank_esx-update_7.0.2-0.20.18426014
          • VMW_bootbank_bnxtroce_216.0.58.0-20vmw.702.0.20.18426014
          • VMW_bootbank_bnxtnet_216.0.50.0-34vmw.702.0.20.18426014
          • VMW_bootbank_qedrntv_3.40.5.53-17vmw.702.0.20.18426014
          • VMW_bootbank_qedentv_3.40.5.53-20vmw.702.0.20.18426014
          • VMW_bootbank_i40enu_1.8.1.137-1vmw.702.0.20.18426014
          • VMW_bootbank_lpfc_12.8.298.3-2vmw.702.0.20.18426014
          • VMW_bootbank_vmkusb_0.1-4vmw.702.0.20.18426014
          已修复的 PR 2717698、2731446、2515171、731306、2751564、2718934、2755056、2725886、2725886、2753231、2728910、2741111、2759343、2721379、2751277、2708326、2755977、2737934、2777001、2760932、2731263、2731142、2760267、2749688、2763986、2765534、2766127、2777003、2778793、2755807、2760081、2731644、2749815、2749962、2738238、2799408、2722263、2812906、2750390、2715138、2753546
          相关的 CVE 编号 不适用

          此修补程序更新了以下问题:

            • qedentv 驱动程序中很少见的争用情况可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。如果在常规服务接口 (GSI) 队列对 (QP) 被破坏之后立即出现 Rx 完整中断(例如,在 qedentv 驱动程序卸载或系统关闭期间),则会出现该问题。在这种情况下,qedentv 驱动程序可能会访问已释放的 QP 地址,从而导致 PF 异常。在与具有大量未经请求的 GSI 流量的忙碌物理交换机相连接的 ESXi 主机中,可能会出现此问题。回溯追踪中会显示类似以下内容的消息:

              cpu4:2107287)0x45389609bcb0:[0x42001d3e6f72]qedrntv_ll2_rx_cb@(qedrntv)#<None>+0x1be stack: 0x45b8f00a7740, 0x1e146d040, 0x432d65738d40, 0x0, 0x
              2021-02-11T03:31:53.882Z cpu4:2107287)0x45389609bd50:[0x42001d421d2a]ecore_ll2_rxq_completion@(qedrntv)#<None>+0x2ab stack: 0x432bc20020ed, 0x4c1e74ef0, 0x432bc2002000,
              2021-02-11T03:31:53.967Z cpu4:2107287)0x45389609bdf0:[0x42001d1296d0]ecore_int_sp_dpc@(qedentv)#<None>+0x331 stack: 0x0, 0x42001c3bfb6b, 0x76f1e5c0, 0x2000097, 0x14c2002
              2021-02-11T03:31:54.039Z cpu4:2107287)0x45389609be60:[0x42001c0db867]IntrCookieBH@vmkernel#nover+0x17c stack: 0x45389609be80, 0x40992f09ba, 0x43007a436690, 0x43007a43669
              2021-02-11T03:31:54.116Z cpu4:2107287)0x45389609bef0:[0x42001c0be6b0]BH_Check@vmkernel#nover+0x121 stack: 0x98ba, 0x33e72f6f6e20, 0x0, 0x8000000000000000, 0x430000000001
              2021-02-11T03:31:54.187Z cpu4:2107287)0x45389609bf70:[0x42001c28370c]NetPollWorldCallback@vmkernel#nover+0x129 stack: 0x61, 0x42001d0e0000, 0x42001c283770, 0x0, 0x0
              2021-02-11T03:31:54.256Z cpu4:2107287)0x45389609bfe0:[0x42001c380bad]CpuSched_StartWorld@vmkernel#nover+0x86 stack: 0x0, 0x42001c0c2b44, 0x0, 0x0, 0x0
              2021-02-11T03:31:54.319Z cpu4:2107287)0x45389609c000:[0x42001c0c2b43]Debug_IsInitialized@vmkernel#nover+0xc stack: 0x0, 0x0, 0x0, 0x0, 0x0
              2021-02-11T03:31:54.424Z cpu4:2107287)^[[45m^[[33;1mVMware ESXi 7.0.2 [Releasebuild-17435195 x86_64]^[[0m
              #PF Exception 14 in world 2107287:vmnic7-pollW IP 0x42001d3e6f72 addr 0x1c

            • 在极少数情况下,当 vSphere Replication 设备打开电源时,hostd 服务可能会失败,并导致 ESXi 主机暂时对 vCenter Server 无响应。hostd 服务会自动重新启动并恢复连接。

            • 尝试将主机配置文件中高级选项参数的值设置为 false 时,用户界面会创建一个非空字符串值。不为空的值将解释为 true,并且该高级选项参数在主机配置文件中收到 true 值。

            • 即使 ESXi 主机可访问且正在运行,这些主机也可能会变得对 vCenter Server 无响应。在具有自定义驱动程序的供应商映像中,由于 ImageConfigManager 消耗的 RAM 多于分配的 RAM,会出现此问题。因此,ImageConfigManager 重复失败,进而导致 ESXi 主机与 vCenter Server 断开连接。
              vmkernel 日志中会显示类似以下内容的重复错误:
              Admission failure in path: host/vim/vmvisor/hostd-tmp/sh.<pid1>:python.<pid2>:uw.<pid2>
              hostd 日志中会显示类似以下内容的消息:Task Created : haTask-ha-host-vim.host.ImageConfigManager.fetchSoftwarePackages-<sequence>,后跟:ForkExec(/usr/bin/sh) <pid1>,其中 <pid1> 标识 ImageConfigManager 进程。

            • 如果将 DiskMaxIOSize 高级配置选项更改为较低的值,则块大小较大的 I/O 可能会错误地拆分并在 PSA 路径中排队。因此,ESXi 主机 I/O 操作可能会超时并失败。

            • 在某些情况下,虚拟机的打开电源或关闭电源操作可能需要长达 20 分钟的时间。当虚拟机的底层存储运行后台操作(如 HBA 重新扫描或 APD 事件),并且一些锁定持续保留时,会出现此问题。

            • 在极少数情况下,当目标 ESXi 主机的 VPD 页响应大小在主机的不同路径上不同时,ESXi 写入的字节数可能会超过为给定路径分配的长度。因此,ESXi 主机出现故障并显示紫色诊断屏幕,同时显示如下消息:
              应急消息: @BlueScreen: 转数已超出 - PCPU 24 可能出现死锁 (Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4878 - Corruption in dlmalloc

            • 锁争用可能会导致故障切换或迁移等虚拟机操作失败,但这种情况很少出现。
              锁定失败消息类似以下内容:
              vol 'VM_SYS_11', lock at 480321536: [Req mode 1] Checking liveness:
              type 10c00003 offset 480321536 v 1940464, hb offset 3801088


              Res3: 2496: Rank violation threshold reached: cid 0xc1d00002, resType 2, cnum 5 vol VM_SYS_11

            • 在导致创建多个虚拟机的复杂工作流中,当导航到虚拟机 > 虚拟机时,可能会在某些虚拟机的“置备的空间”列中看到巨大的数字。例如,2.95 TB,而不是实际置备的 25 GB 空间。

            • 在处理 SCSI 命令 READ CAPACITY (10) 时,ESXi 可能会从响应中复制多余的数据并损坏调用堆栈。因此,ESXi 主机会出现故障并显示紫色诊断屏幕。

            • 在极少数情况下,日志事务中包含的 VMFS 资源集群可能不会锁定。因此,在打开虚拟机电源期间,多个 ESXi 主机可能会由于 VMFS 层中的异常 14 而出现故障并显示紫色诊断屏幕。vmkernel 日志中显示的典型消息和堆栈跟踪如下所示:
              @BlueScreen: #PF Exception 14 in world 2097684:VSCSI Emulat IP 0x418014d06fca addr 0x0
              PTEs:0x16a47a027;0x600faa8007;0x0;
              2020-06-24T17:35:57.073Z cpu29:2097684)Code start: 0x418013c00000 VMK uptime: 0:01:01:20.555
              2020-06-24T17:35:57.073Z cpu29:2097684)0x451a50a1baa0:[0x418014d06fca]Res6MemUnlockTxnRCList@esx#nover+0x176 stack: 0x1 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb10:[0x418014c7cdb6]J3_DeleteTransaction@esx#nover+0x33f stack: 0xbad0003
              2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb40:[0x418014c7db10]J3_AbortTransaction@esx#nover+0x105 stack: 0x0 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb80:[0x418014cbb752]Fil3_FinalizePunchFileHoleTxnVMFS6@esx#nover+0x16f stack: 0x430fe950e1f0
              2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bbd0:[0x418014c7252b]Fil3UpdateBlocks@esx#nover+0x348 stack: 0x451a50a1bc78 2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bce0:[0x418014c731dc]Fil3_PunchFileHoleWithRetry@esx#nover+0x89 stack: 0x451a50a1bec8
              2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bd90:[0x418014c739a5]Fil3_FileBlockUnmap@esx#nover+0x50e stack: 0x230eb5 2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be40:[0x418013c4c551]FSSVec_FileBlockUnmap@vmkernel#nover+0x6e stack: 0x230eb5
              2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be90:[0x418013fb87b1]VSCSI_ExecFSSUnmap@vmkernel#nover+0x8e stack: 0x0 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf00:[0x418013fb71cb]VSCSIDoEmulHelperIO@vmkernel#nover+0x2c stack: 0x430145fbe070
              2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf30:[0x418013ceadfa]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430aa05c9618 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bfe0:[0x418013f0eaa2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0
              2020-06-24T17:35:57.083Z cpu29:2097684)base fs=0x0 gs=0x418047400000 Kgs=0x0

            • 在极少数情况下,某些 Intel CPU 可能无法转发 #DB 陷阱,如果在 Windows 系统调用期间发生定时器中断,虚拟机可能会出现三重故障。

            • 如果从 DCUI 重新启动 ESXi 管理代理,则 sfcbd 服务不启动。必须手动启动 SFCB 服务。

            • hostd 服务每 2 分钟记录一次消息 BuildPowerSupplySensorList found 0 power supply sensors。在 ESXi 主机上升级到或全新安装 ESXi 7.0 Update 1 时,会出现此问题。

            • 在极少数情况下,内核内存分配器可能会返回可能无法正确取消引用的 NULL 指针。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕,同时显示如下等错误:环境 2422594 中出现 #GP 异常 13:vmm:overCom @ 0x42003091ede4 (#GP Exception 13 in world 2422594:vmm:overCom @ 0x42003091ede4)。回溯追踪中会显示类似以下内容的错误:
              #1 Util_ZeroPageTable
              #2 Util_ZeroPageTableMPN
              #3 VmMemPfUnmapped
              #4 VmMemPfInt
              #5 VmMemPfGetMapping
              #6 VmMemPf
              #7 VmMemPfLockPageInt
              #8 VMMVMKCall_Call
              #9 VMKVMM_ArchEnterVMKernel

            • 如果在较短时间间隔内热添加 NVMe 设备,然后再热移除,NVMe 驱动程序可能会由于命令超时而无法初始化 NVMe 控制器。因此,该驱动程序可能会访问在清理进程中已释放的内存。在回溯追踪中,您会看到一条消息,例如,WARNING: NVMEDEV: NVMEInitializeController:4045: Failed to get controller identify data, status: Timeout
              最终,ESXi 主机可能会出现故障,并显示紫色诊断屏幕,其中会显示类似以下内容的错误:环境 ... 中出现 #PF 异常 ...:vmkdevmgr (#PF Exception ... in world ...:vmkdevmgr)

            • 当 ESXi 主机没有可用大文件块 (LFB) 可供分配时,主机会执行 VMDK 厚置备或创建具有小文件块 (SFB) 的交换文件。但是,在极少数情况下,此类主机可能也无法分配 SFB。因此,厚置备 VMDK 或创建交换文件失败。当虚拟机尝试打开电源时,您会在 vmkernel 日志中看到类似以下内容的错误:
               vmkernel.1:2021-01-08T19:13:28.341Z cpu20:2965260)Fil3: 10269: Max no space retries (10) exceeded for caller Fil3_SetFileLength (status 'No space left on device')

            • 使用的 VMFS6 数据存储非常大时,为资源集群中的精简 VMDK 分配文件块的进程可能会导致 CPU 锁位。因此,您会看到 CPU 锁位消息,并且在极少数情况下,ESXi 主机可能会出现故障。回溯追踪中会显示类似以下内容的消息:
              2021-04-07T02:18:08.730Z cpu31:2345212)WARNING: Heartbeat: 849: PCPU 10 didn't have a heartbeat for 7 seconds; *may* be locked up.
              涉及 Res6AffMgr 功能的关联回溯追踪类似于以下内容:
              2021-01-06T02:16:16.073Z cpu0:2265741)ALERT: NMI: 694: NMI IPI: RIPOFF(base):RBP:CS [0x121d74d(0x42001a000000):0x50d0:0xf48] (Src 0x1, CPU0)
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b320:[0x42001b21d74c]Res6AffMgrComputeSortIndices@esx#nover+0x369 stack: 0x43119125a000
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b3b0:[0x42001b224e46]Res6AffMgrGetCluster@esx#nover+0xb1f stack: 0xd 2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b4b0:[0x42001b226491]Res6AffMgr_AllocResourcesInt@esx#nover+0x40a stack: 0x4311910f4890
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b680:[0x42001b2270e2]Res6AffMgr_AllocResources@esx#nover+0x1b stack: 0x0

            • 升级到 ESXi 7.0 Update 2 期间或之后,ESX 存储层可能无法为物理 CPU 计数较大的 ESXi 主机以及连接到这些主机的许多存储设备或路径分配足够的内存资源。因此,此类 ESXi 主机可能会出现故障并显示紫色诊断屏幕。

            • 在 vSphere vMotion 或 Storage vMotion 期间,具有硬件版本 18 以及 VMware Tools 11.2.0 或更高版本的虚拟机可能会由于目标端的虚拟图形设备问题而失败。
              vmkernel.log 中,您会看到类似以下内容的一行消息:
              PF failed to handle a fault on mmInfo at va 0x114f5ae0: Out of memory.Terminating...

            • 更新到硬件版本 18 后,在引导虚拟机时,AMD CPU 上的某些客户机操作系统(如 CentOS 7)可能会出现故障,并显示内核严重错误。打开虚拟机的 Web 控制台时,您会看到内核严重错误消息。

            • 某些 Linux 内核按照 RFC 2473 第 5.1 条中所述在 IPv6 隧道数据包中添加了“IPv6 隧道封装限制”选项。因此,由于 IPv6 扩展标头,IPv6 隧道数据包将在虚拟机之间的流量中丢弃。

            • 当虚拟介质(如 CD 驱动器)使用 Integrated Dell Remote Access Controller (iDRAC) 连接到 vSphere 环境,并且没有任何媒体文件映射到该驱动器时,您可能会在 vmkernel 日志中看到多条警告消息,例如:
              vmw_psp_fixed: psp_fixedSelectPathToActivateInt:439: Switching to preferred path vmhba32:C0:T0:L1 in STANDBY state for device mpx.vmhba32:C0:T0:L1.WARNING: vmw_psp_fixed: psp_fixedSelectPathToActivateInt:464: Selected current STANDBY path vmhba32:C0:T0:L1 for device mpx.vmhba32:C0:T0:L1 to activate.This may lead to path thrashing.

            • 在 vSphere Distributed Switch 的 24 小时同步工作流中,vCenter Server 可能会间歇性地从 ESXi 主机中移除 NSX 控制的分布式虚拟端口,例如服务平面转发 (SPF) 端口。因此,虚拟机的 vSphere vMotion 操作可能会失败。您会在日志中看到类似 Could not connect SPF port : Not found 的错误。

            • ESXi 7.0 引入了基于 VMFS-L 的 ESX-OSData 分区,该分区承担了旧版暂存分区、VMware Tools 的 locker 分区及核心转储目标的角色。如果在升级到 ESXi 7.0.x 期间在 VMFS 卷的根目录上配置暂存分区,则系统会尝试将 VMFS 文件转换为 VMFS-L 格式,以满足 OS-Data 分区要求。因此,OS-Data 分区可能会覆盖 VMFS 卷并导致数据丢失。

            • 由于日志处理问题,在升级到 ESXi 7.0 Update 2a 后,当检查通信通道运行状况时,您会看到所有 ESXi 主机都处于关闭状态,因为 NSX Manager 无法连接到防火墙代理。

            • 如果版本 7.0 Update 2 的 ESXi 主机安装在 FCoE LUN 上并使用 UEFI 引导模式,则在尝试使用 vSphere QuickBoot 升级该主机时,物理服务器可能会由于内存错误而出现故障并显示紫色诊断屏幕。

            • USB 设备的队列深度较小,由于 ESXi 存储堆栈中存在争用情况,某些 I/O 操作可能无法到达该设备。此类 I/O 在 ESXi 存储堆栈中排队并最终超时。因此,ESXi 主机会变得无响应。
              在 vSphere Client 中,会显示以下等警示:警示: 在路径“/bootbank”中找不到 /bootbank (Alert: /bootbank not to be found at path '/bootbank')主机无响应 (Host not-responding)
              在 vmkernel 日志中,您会看到类似以下内容的错误:
              2021-04-12T04:47:44.940Z cpu0:2097441)ScsiPath: 8058: Cancelled Cmd(0x45b92ea3fd40) 0xa0, cmdId.initiator=0x4538c859b8f8 CmdSN 0x0 from world 0 to path "vmhba32:C0:T0:L0".Cmd count Active:0 Queued:1.
              2021-04-12T04:48:50.527Z cpu2:2097440)ScsiDeviceIO: 4315: Cmd(0x45b92ea76d40) 0x28, cmdId.initiator=0x4305f74cc780 CmdSN 0x1279 from world 2099370 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x5 D:0x0 P:0x0 Cancelled from path layer.Cmd count Active:1
              2021-04-12T04:48:50.527Z cpu2:2097440)Queued:4

            • 升级到 ESXi Update 2a 后,ESXi 主机的引导时间可能会减慢长达 60 分钟。
              此问题不影响从早期版本的 ESXi 7.0.x 更新到 ESXi Update 2a。
              仅当使用 vSphere Lifecycle Manager 映像或基准或者 esxcli software profile update 命令执行升级操作时,才会出现此问题。如果使用 ISO 映像或脚本式安装,则不会遇到此问题。
              此问题很可能会影响 iSCSI 配置,但与引导槽检测的 ESXi 算法相关,而不会减慢外部存储目标的速度。

            • 由于端口集堆中存在内存泄漏,因此 ESXi 主机上的 vSphere vMotion 操作可能会失败并显示内存不足错误。在 vSphere Client 中,您会看到类似以下内容的错误:
              无法预留端口: DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba 端口 1 39 (Failed to reserve port: DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba port 1 39)。
              失败,错误状态为: 内存不足 (Failed with error status: Out of memory)。

            • 如果 vCenter Server 无法将 vcsa.vmware.com 解析为 IP 地址,则无法上载 vSAN 版本目录。以下 vSAN 运行状况检查显示警告:vSAN 内部版本建议引擎运行状况。
              您可能会看到类似于以下内容的错误消息:
              2021-04-12T11:40:59.435Z ERROR vsan-mgmt[32221] [VsanHttpRequestWrapper::urlopen opID=noOpId] Exception while sending request : Cannot resolve localhost or Internet websites.
              2021-04-12T11:40:59.435Z WARNING vsan-mgmt[32221] [VsanVumCoreUtil::CheckVumServiceStatus opID=noOpId] Failed to connect VUM service: Cannot resolve localhost or Internet websites.
              2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumIntegration::VumStatusCallback opID=noOpId] VUM is not installed or not responsive ​
              2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumSystemUtil::HasConfigIssue opID=noOpId] Config issue health.test.vum.vumDisabled exists on entity None

            • 整数溢出缺陷可能会导致 vSAN DOM 比配置的设置更频繁地发出擦除。

            • 在 ESXi 主机拥有的对象上,重新同步与客户机写入操作并行运行时,主机可能会出现故障并显示紫色诊断屏幕。

            • 当 cmmdstimemachineDump.log 文件达到最大限制 10 MB 时,会进行轮换,并创建一个新的 cmmdstimemachineDump 文件。但在轮换期间,在 vmsyslogd.err 日志中,您可能会看到类似以下内容的错误:
              2021-04-08T03:15:53.719Z vmsyslog.loggers.file : ERROR ] Failed to write header on rotate.Exception: [Errno 2] No such file or directory: '/var/run/cmmdstimemachineDumpHeader.txt'

            • 在某些情况下,集群监控、成员资格和目录服务 (CMMDS) 为对象格式更改任务提供的输入不正确,该任务需要很长时间才能响应。

            • 在极少数情况下,如果在升级过程中更换见证主机,并在更换后不久运行磁盘格式转换任务,则延伸集群上的多个 ESX 主机可能会出现故障并显示紫色诊断屏幕。

            • 如果使用 ESXi Packaging Kit 创建自定义 7.0 Update 2a 映像,替代基础映像中的某些组件(例如 Intel-ixgben:1.8.9.0-1OEM.700.1.0.15525992,然后升级 ESXi 7.0.x 主机,则在升级后将无法移除自定义组件。此外,自定义组件中的某些 VIB 可能会丢失。

            • 克隆 ESXi 引导设备时,会创建具有相同 UUID 的实例。由于 UUID 用于 VMFS 检测信号和日志操作,因此如果 UUID 重复,则安装或升级操作后,多个 ESXi 主机会尝试访问同一 VMFS 数据存储上的元数据区域。因此,您可能会在多个 ESXi 主机上的 VMFS 数据存储中看到大量元数据损坏。
              在 vmkernel 日志中,您会看到类似以下内容的消息:
              vmkernel 608: VMFS volume DCS_HCFA_TEDS_Regulated_10032/5ba2905b-ac11166d-b145-0025b5920a02 on naa.60060e8012a34f005040a34f00000d64:1 has been detected corrupted.
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 319: FS3RCMeta 2245 200 21 105 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 326: 0 0 0 0 0 0 0 0 0 0 0 7 0 254 1 4 0 248 3 96 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 332: 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 338: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 

            • 从 vSphere 7.0 Update 2 开始,内置 i40en 驱动程序已重命名为 i40enu。因此,如果尝试安装 i40en 合作伙伴异步驱动程序,将跳过 i40en VIB 或恢复为 VMware i40enu 内置驱动程序。

            • 在安装 Dell EMC PowerPath 插件期间,极少出现的页面错误 (Page Fault) 错误可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

            • 如果 USB 主机控制器与 vSphere 系统断开连接,并且设备上的任何资源(如转储文件)仍在由 ESXi 使用,则在设备重新连接时无法释放设备路径。因此,ESXi 会提供 USB 设备的新路径,这会中断与 /bootbank 分区的连接或损坏 VMFS-L LOCKER 分区。

          ESXi-7.0U2c-18426014-no-tools
          配置文件名称 ESXi-7.0U2c-18426014-no-tools
          内部版本 有关内部版本信息,请参见本版本中包含的修补程序
          供应商 VMware, Inc.
          发布日期 2021 年 8 月 24 日
          接受级别 合作伙伴支持
          受影响的硬件 不适用
          受影响的软件 不适用
          受影响的 VIB
          • VMware_bootbank_vsanhealth_7.0.2-0.20.18426014
          • VMware_bootbank_vsan_7.0.2-0.20.18426014
          • VMware_bootbank_gc_7.0.2-0.20.18426014
          • VMware_bootbank_esx-xserver_7.0.2-0.20.18426014
          • VMware_bootbank_clusterstore_7.0.2-0.20.18426014
          • VMware_bootbank_vdfs_7.0.2-0.20.18426014
          • VMware_bootbank_native-misc-drivers_7.0.2-0.20.18426014
          • VMware_bootbank_cpu-microcode_7.0.2-0.20.18426014
          • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.20.18426014
          • VMware_bootbank_esx-base_7.0.2-0.20.18426014
          • VMware_bootbank_loadesx_7.0.2-0.20.18426014
          • VMware_bootbank_esx-update_7.0.2-0.20.18426014
          • VMW_bootbank_bnxtroce_216.0.58.0-20vmw.702.0.20.18426014
          • VMW_bootbank_bnxtnet_216.0.50.0-34vmw.702.0.20.18426014
          • VMW_bootbank_qedrntv_3.40.5.53-17vmw.702.0.20.18426014
          • VMW_bootbank_qedentv_3.40.5.53-20vmw.702.0.20.18426014
          • VMW_bootbank_i40enu_1.8.1.137-1vmw.702.0.20.18426014
          • VMW_bootbank_lpfc_12.8.298.3-2vmw.702.0.20.18426014
          • VMW_bootbank_vmkusb_0.1-4vmw.702.0.20.18426014
          已修复的 PR 2717698、2731446、2515171、731306、2751564、2718934、2755056、2725886、2725886、2753231、2728910、2741111、2759343、2721379、2751277、2708326、2755977、2737934、2777001、2760932、2731263、2731142、2760267、2749688、2763986、2765534、2766127、2777003、2778793、2755807、2760081、2731644、2749815、2749962、2738238、2799408、2722263、2812906、2750390、2715138、2753546
          相关的 CVE 编号 不适用

          此修补程序更新了以下问题:

            • qedentv 驱动程序中很少见的争用情况可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。如果在常规服务接口 (GSI) 队列对 (QP) 被破坏之后立即出现 Rx 完整中断(例如,在 qedentv 驱动程序卸载或系统关闭期间),则会出现该问题。在这种情况下,qedentv 驱动程序可能会访问已释放的 QP 地址,从而导致 PF 异常。在与具有大量未经请求的 GSI 流量的忙碌物理交换机相连接的 ESXi 主机中,可能会出现此问题。回溯追踪中会显示类似以下内容的消息:

              cpu4:2107287)0x45389609bcb0:[0x42001d3e6f72]qedrntv_ll2_rx_cb@(qedrntv)#<None>+0x1be stack: 0x45b8f00a7740, 0x1e146d040, 0x432d65738d40, 0x0, 0x
              2021-02-11T03:31:53.882Z cpu4:2107287)0x45389609bd50:[0x42001d421d2a]ecore_ll2_rxq_completion@(qedrntv)#<None>+0x2ab stack: 0x432bc20020ed, 0x4c1e74ef0, 0x432bc2002000,
              2021-02-11T03:31:53.967Z cpu4:2107287)0x45389609bdf0:[0x42001d1296d0]ecore_int_sp_dpc@(qedentv)#<None>+0x331 stack: 0x0, 0x42001c3bfb6b, 0x76f1e5c0, 0x2000097, 0x14c2002
              2021-02-11T03:31:54.039Z cpu4:2107287)0x45389609be60:[0x42001c0db867]IntrCookieBH@vmkernel#nover+0x17c stack: 0x45389609be80, 0x40992f09ba, 0x43007a436690, 0x43007a43669
              2021-02-11T03:31:54.116Z cpu4:2107287)0x45389609bef0:[0x42001c0be6b0]BH_Check@vmkernel#nover+0x121 stack: 0x98ba, 0x33e72f6f6e20, 0x0, 0x8000000000000000, 0x430000000001
              2021-02-11T03:31:54.187Z cpu4:2107287)0x45389609bf70:[0x42001c28370c]NetPollWorldCallback@vmkernel#nover+0x129 stack: 0x61, 0x42001d0e0000, 0x42001c283770, 0x0, 0x0
              2021-02-11T03:31:54.256Z cpu4:2107287)0x45389609bfe0:[0x42001c380bad]CpuSched_StartWorld@vmkernel#nover+0x86 stack: 0x0, 0x42001c0c2b44, 0x0, 0x0, 0x0
              2021-02-11T03:31:54.319Z cpu4:2107287)0x45389609c000:[0x42001c0c2b43]Debug_IsInitialized@vmkernel#nover+0xc stack: 0x0, 0x0, 0x0, 0x0, 0x0
              2021-02-11T03:31:54.424Z cpu4:2107287)^[[45m^[[33;1mVMware ESXi 7.0.2 [Releasebuild-17435195 x86_64]^[[0m
              #PF Exception 14 in world 2107287:vmnic7-pollW IP 0x42001d3e6f72 addr 0x1c

            • 在极少数情况下,当 vSphere Replication 设备打开电源时,hostd 服务可能会失败,并导致 ESXi 主机暂时对 vCenter Server 无响应。hostd 服务会自动重新启动并恢复连接。

            • 尝试将主机配置文件中高级选项参数的值设置为 false 时,用户界面会创建一个非空字符串值。不为空的值将解释为 true,并且该高级选项参数在主机配置文件中收到 true 值。

            • 即使 ESXi 主机可访问且正在运行,这些主机也可能会变得对 vCenter Server 无响应。在具有自定义驱动程序的供应商映像中,由于 ImageConfigManager 消耗的 RAM 多于分配的 RAM,会出现此问题。因此,ImageConfigManager 重复失败,进而导致 ESXi 主机与 vCenter Server 断开连接。
              vmkernel 日志中会显示类似以下内容的重复错误:
              Admission failure in path: host/vim/vmvisor/hostd-tmp/sh.<pid1>:python.<pid2>:uw.<pid2>
              hostd 日志中会显示类似以下内容的消息:Task Created : haTask-ha-host-vim.host.ImageConfigManager.fetchSoftwarePackages-<sequence>,后跟:ForkExec(/usr/bin/sh) <pid1>,其中 <pid1> 标识 ImageConfigManager 进程。

            • 如果将 DiskMaxIOSize 高级配置选项更改为较低的值,则块大小较大的 I/O 可能会错误地拆分并在 PSA 路径中排队。因此,ESXi 主机 I/O 操作可能会超时并失败。

            • 在某些情况下,虚拟机的打开电源或关闭电源操作可能需要长达 20 分钟的时间。当虚拟机的底层存储运行后台操作(如 HBA 重新扫描或 APD 事件),并且一些锁定持续保留时,会出现此问题。

            • 在极少数情况下,当目标 ESXi 主机的 VPD 页响应大小在主机的不同路径上不同时,ESXi 写入的字节数可能会超过为给定路径分配的长度。因此,ESXi 主机出现故障并显示紫色诊断屏幕,同时显示如下消息:
              应急消息: @BlueScreen: 转数已超出 - PCPU 24 可能出现死锁 (Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4878 - Corruption in dlmalloc

            • 锁争用可能会导致故障切换或迁移等虚拟机操作失败,但这种情况很少出现。
              锁定失败消息类似以下内容:
              vol 'VM_SYS_11', lock at 480321536: [Req mode 1] Checking liveness:
              type 10c00003 offset 480321536 v 1940464, hb offset 3801088


              Res3: 2496: Rank violation threshold reached: cid 0xc1d00002, resType 2, cnum 5 vol VM_SYS_11

            • 在导致创建多个虚拟机的复杂工作流中,当导航到虚拟机 > 虚拟机时,可能会在某些虚拟机的“置备的空间”列中看到巨大的数字。例如,2.95 TB,而不是实际置备的 25 GB 空间。

            • 在处理 SCSI 命令 READ CAPACITY (10) 时,ESXi 可能会从响应中复制多余的数据并损坏调用堆栈。因此,ESXi 主机会出现故障并显示紫色诊断屏幕。

            • 在极少数情况下,日志事务中包含的 VMFS 资源集群可能不会锁定。因此,在打开虚拟机电源期间,多个 ESXi 主机可能会由于 VMFS 层中的异常 14 而出现故障并显示紫色诊断屏幕。vmkernel 日志中显示的典型消息和堆栈跟踪如下所示:
              @BlueScreen: #PF Exception 14 in world 2097684:VSCSI Emulat IP 0x418014d06fca addr 0x0
              PTEs:0x16a47a027;0x600faa8007;0x0;
              2020-06-24T17:35:57.073Z cpu29:2097684)Code start: 0x418013c00000 VMK uptime: 0:01:01:20.555
              2020-06-24T17:35:57.073Z cpu29:2097684)0x451a50a1baa0:[0x418014d06fca]Res6MemUnlockTxnRCList@esx#nover+0x176 stack: 0x1 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb10:[0x418014c7cdb6]J3_DeleteTransaction@esx#nover+0x33f stack: 0xbad0003
              2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb40:[0x418014c7db10]J3_AbortTransaction@esx#nover+0x105 stack: 0x0 2020-06-24T17:35:57.074Z cpu29:2097684)0x451a50a1bb80:[0x418014cbb752]Fil3_FinalizePunchFileHoleTxnVMFS6@esx#nover+0x16f stack: 0x430fe950e1f0
              2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bbd0:[0x418014c7252b]Fil3UpdateBlocks@esx#nover+0x348 stack: 0x451a50a1bc78 2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bce0:[0x418014c731dc]Fil3_PunchFileHoleWithRetry@esx#nover+0x89 stack: 0x451a50a1bec8
              2020-06-24T17:35:57.075Z cpu29:2097684)0x451a50a1bd90:[0x418014c739a5]Fil3_FileBlockUnmap@esx#nover+0x50e stack: 0x230eb5 2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be40:[0x418013c4c551]FSSVec_FileBlockUnmap@vmkernel#nover+0x6e stack: 0x230eb5
              2020-06-24T17:35:57.076Z cpu29:2097684)0x451a50a1be90:[0x418013fb87b1]VSCSI_ExecFSSUnmap@vmkernel#nover+0x8e stack: 0x0 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf00:[0x418013fb71cb]VSCSIDoEmulHelperIO@vmkernel#nover+0x2c stack: 0x430145fbe070
              2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bf30:[0x418013ceadfa]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430aa05c9618 2020-06-24T17:35:57.077Z cpu29:2097684)0x451a50a1bfe0:[0x418013f0eaa2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0
              2020-06-24T17:35:57.083Z cpu29:2097684)base fs=0x0 gs=0x418047400000 Kgs=0x0

            • 在极少数情况下,某些 Intel CPU 可能无法转发 #DB 陷阱,如果在 Windows 系统调用期间发生定时器中断,虚拟机可能会出现三重故障。

            • 如果从 DCUI 重新启动 ESXi 管理代理,则 sfcbd 服务不启动。必须手动启动 SFCB 服务。

            • hostd 服务每 2 分钟记录一次消息 BuildPowerSupplySensorList found 0 power supply sensors。在 ESXi 主机上升级到或全新安装 ESXi 7.0 Update 1 时,会出现此问题。

            • 在极少数情况下,内核内存分配器可能会返回可能无法正确取消引用的 NULL 指针。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕,同时显示如下等错误:环境 2422594 中出现 #GP 异常 13:vmm:overCom @ 0x42003091ede4 (#GP Exception 13 in world 2422594:vmm:overCom @ 0x42003091ede4)。回溯追踪中会显示类似以下内容的错误:
              #1 Util_ZeroPageTable
              #2 Util_ZeroPageTableMPN
              #3 VmMemPfUnmapped
              #4 VmMemPfInt
              #5 VmMemPfGetMapping
              #6 VmMemPf
              #7 VmMemPfLockPageInt
              #8 VMMVMKCall_Call
              #9 VMKVMM_ArchEnterVMKernel

            • 如果在较短时间间隔内热添加 NVMe 设备,然后再热移除,NVMe 驱动程序可能会由于命令超时而无法初始化 NVMe 控制器。因此,该驱动程序可能会访问在清理进程中已释放的内存。在回溯追踪中,您会看到一条消息,例如,WARNING: NVMEDEV: NVMEInitializeController:4045: Failed to get controller identify data, status: Timeout
              最终,ESXi 主机可能会出现故障,并显示紫色诊断屏幕,其中会显示类似以下内容的错误:环境 ... 中出现 #PF 异常 ...:vmkdevmgr (#PF Exception ... in world ...:vmkdevmgr)

            • 当 ESXi 主机没有可用大文件块 (LFB) 可供分配时,主机会执行 VMDK 厚置备或创建具有小文件块 (SFB) 的交换文件。但是,在极少数情况下,此类主机可能也无法分配 SFB。因此,厚置备 VMDK 或创建交换文件失败。当虚拟机尝试打开电源时,您会在 vmkernel 日志中看到类似以下内容的错误:
               vmkernel.1:2021-01-08T19:13:28.341Z cpu20:2965260)Fil3: 10269: Max no space retries (10) exceeded for caller Fil3_SetFileLength (status 'No space left on device')

            • 使用的 VMFS6 数据存储非常大时,为资源集群中的精简 VMDK 分配文件块的进程可能会导致 CPU 锁位。因此,您会看到 CPU 锁位消息,并且在极少数情况下,ESXi 主机可能会出现故障。回溯追踪中会显示类似以下内容的消息:
              2021-04-07T02:18:08.730Z cpu31:2345212)WARNING: Heartbeat: 849: PCPU 10 didn't have a heartbeat for 7 seconds; *may* be locked up.
              涉及 Res6AffMgr 功能的关联回溯追踪类似于以下内容:
              2021-01-06T02:16:16.073Z cpu0:2265741)ALERT: NMI: 694: NMI IPI: RIPOFF(base):RBP:CS [0x121d74d(0x42001a000000):0x50d0:0xf48] (Src 0x1, CPU0)
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b320:[0x42001b21d74c]Res6AffMgrComputeSortIndices@esx#nover+0x369 stack: 0x43119125a000
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b3b0:[0x42001b224e46]Res6AffMgrGetCluster@esx#nover+0xb1f stack: 0xd 2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b4b0:[0x42001b226491]Res6AffMgr_AllocResourcesInt@esx#nover+0x40a stack: 0x4311910f4890
              2021-01-06T02:16:16.073Z cpu0:2265741)0x4538d261b680:[0x42001b2270e2]Res6AffMgr_AllocResources@esx#nover+0x1b stack: 0x0

            • 升级到 ESXi 7.0 Update 2 期间或之后,ESX 存储层可能无法为物理 CPU 计数较大的 ESXi 主机以及连接到这些主机的许多存储设备或路径分配足够的内存资源。因此,此类 ESXi 主机可能会出现故障并显示紫色诊断屏幕。

            • 在 vSphere vMotion 或 Storage vMotion 期间,具有硬件版本 18 以及 VMware Tools 11.2.0 或更高版本的虚拟机可能会由于目标端的虚拟图形设备问题而失败。
              vmkernel.log 中,您会看到类似以下内容的一行消息:
              PF failed to handle a fault on mmInfo at va 0x114f5ae0: Out of memory.Terminating...

            • 更新到硬件版本 18 后,在引导虚拟机时,AMD CPU 上的某些客户机操作系统(如 CentOS 7)可能会出现故障,并显示内核严重错误。打开虚拟机的 Web 控制台时,您会看到内核严重错误消息。

            • 某些 Linux 内核按照 RFC 2473 第 5.1 条中所述在 IPv6 隧道数据包中添加了“IPv6 隧道封装限制”选项。因此,由于 IPv6 扩展标头,IPv6 隧道数据包将在虚拟机之间的流量中丢弃。

            • 当虚拟介质(如 CD 驱动器)使用 Integrated Dell Remote Access Controller (iDRAC) 连接到 vSphere 环境,并且没有任何媒体文件映射到该驱动器时,您可能会在 vmkernel 日志中看到多条警告消息,例如:
              vmw_psp_fixed: psp_fixedSelectPathToActivateInt:439: Switching to preferred path vmhba32:C0:T0:L1 in STANDBY state for device mpx.vmhba32:C0:T0:L1.WARNING: vmw_psp_fixed: psp_fixedSelectPathToActivateInt:464: Selected current STANDBY path vmhba32:C0:T0:L1 for device mpx.vmhba32:C0:T0:L1 to activate.This may lead to path thrashing.

            • 在 vSphere Distributed Switch 的 24 小时同步工作流中,vCenter Server 可能会间歇性地从 ESXi 主机中移除 NSX 控制的分布式虚拟端口,例如服务平面转发 (SPF) 端口。因此,虚拟机的 vSphere vMotion 操作可能会失败。您会在日志中看到类似 Could not connect SPF port : Not found 的错误。

            • ESXi 7.0 引入了基于 VMFS-L 的 ESX-OSData 分区,该分区承担了旧版暂存分区、VMware Tools 的 locker 分区及核心转储目标的角色。如果在升级到 ESXi 7.0.x 期间在 VMFS 卷的根目录上配置暂存分区,则系统会尝试将 VMFS 文件转换为 VMFS-L 格式,以满足 OS-Data 分区要求。因此,OS-Data 分区可能会覆盖 VMFS 卷并导致数据丢失。

            • 由于日志处理问题,在升级到 ESXi 7.0 Update 2a 后,当检查通信通道运行状况时,您会看到所有 ESXi 主机都处于关闭状态,因为 NSX Manager 无法连接到防火墙代理。

            • 如果版本 7.0 Update 2 的 ESXi 主机安装在 FCoE LUN 上并使用 UEFI 引导模式,则在尝试使用 vSphere QuickBoot 升级该主机时,物理服务器可能会由于内存错误而出现故障并显示紫色诊断屏幕。

            • USB 设备的队列深度较小,由于 ESXi 存储堆栈中存在争用情况,某些 I/O 操作可能无法到达该设备。此类 I/O 在 ESXi 存储堆栈中排队并最终超时。因此,ESXi 主机会变得无响应。
              在 vSphere Client 中,会显示以下等警示:警示: 在路径“/bootbank”中找不到 /bootbank (Alert: /bootbank not to be found at path '/bootbank')主机无响应 (Host not-responding)
              在 vmkernel 日志中,您会看到类似以下内容的错误:
              2021-04-12T04:47:44.940Z cpu0:2097441)ScsiPath: 8058: Cancelled Cmd(0x45b92ea3fd40) 0xa0, cmdId.initiator=0x4538c859b8f8 CmdSN 0x0 from world 0 to path "vmhba32:C0:T0:L0".Cmd count Active:0 Queued:1.
              2021-04-12T04:48:50.527Z cpu2:2097440)ScsiDeviceIO: 4315: Cmd(0x45b92ea76d40) 0x28, cmdId.initiator=0x4305f74cc780 CmdSN 0x1279 from world 2099370 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x5 D:0x0 P:0x0 Cancelled from path layer.Cmd count Active:1
              2021-04-12T04:48:50.527Z cpu2:2097440)Queued:4

            • 升级到 ESXi Update 2a 后,ESXi 主机的引导时间可能会减慢长达 60 分钟。
              此问题不影响从早期版本的 ESXi 7.0.x 更新到 ESXi Update 2a。
              仅当使用 vSphere Lifecycle Manager 映像或基准或者 esxcli software profile update 命令执行升级操作时,才会出现此问题。如果使用 ISO 映像或脚本式安装,则不会遇到此问题。
              此问题很可能会影响 iSCSI 配置,但与引导槽检测的 ESXi 算法相关,而不会减慢外部存储目标的速度。

            • 由于端口集堆中存在内存泄漏,因此 ESXi 主机上的 vSphere vMotion 操作可能会失败并显示内存不足错误。在 vSphere Client 中,您会看到类似以下内容的错误:
              无法预留端口: DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba 端口 1 39 (Failed to reserve port: DVSwitch 50 18 34 d1 76 81 ec 9e-03 62 e2 d4 6f 23 30 ba port 1 39)。
              失败,错误状态为: 内存不足 (Failed with error status: Out of memory)。

            • 如果 vCenter Server 无法将 vcsa.vmware.com 解析为 IP 地址,则无法上载 vSAN 版本目录。以下 vSAN 运行状况检查显示警告:vSAN 内部版本建议引擎运行状况。
              您可能会看到类似于以下内容的错误消息:
              2021-04-12T11:40:59.435Z ERROR vsan-mgmt[32221] [VsanHttpRequestWrapper::urlopen opID=noOpId] Exception while sending request : Cannot resolve localhost or Internet websites.
              2021-04-12T11:40:59.435Z WARNING vsan-mgmt[32221] [VsanVumCoreUtil::CheckVumServiceStatus opID=noOpId] Failed to connect VUM service: Cannot resolve localhost or Internet websites.
              2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumIntegration::VumStatusCallback opID=noOpId] VUM is not installed or not responsive ​
              2021-04-12T11:40:59.435Z INFO vsan-mgmt[32221] [VsanVumSystemUtil::HasConfigIssue opID=noOpId] Config issue health.test.vum.vumDisabled exists on entity None

            • 整数溢出缺陷可能会导致 vSAN DOM 比配置的设置更频繁地发出擦除。

            • 在 ESXi 主机拥有的对象上,重新同步与客户机写入操作并行运行时,主机可能会出现故障并显示紫色诊断屏幕。

            • 当 cmmdstimemachineDump.log 文件达到最大限制 10 MB 时,会进行轮换,并创建一个新的 cmmdstimemachineDump 文件。但在轮换期间,在 vmsyslogd.err 日志中,您可能会看到类似以下内容的错误:
              2021-04-08T03:15:53.719Z vmsyslog.loggers.file : ERROR ] Failed to write header on rotate.Exception: [Errno 2] No such file or directory: '/var/run/cmmdstimemachineDumpHeader.txt'

            • 在某些情况下,集群监控、成员资格和目录服务 (CMMDS) 为对象格式更改任务提供的输入不正确,该任务需要很长时间才能响应。

            • 在极少数情况下,如果在升级过程中更换见证主机,并在更换后不久运行磁盘格式转换任务,则延伸集群上的多个 ESX 主机可能会出现故障并显示紫色诊断屏幕。

            • 如果使用 ESXi Packaging Kit 创建自定义 7.0 Update 2a 映像,替代基础映像中的某些组件(例如 Intel-ixgben:1.8.9.0-1OEM.700.1.0.15525992,然后升级 ESXi 7.0.x 主机,则在升级后将无法移除自定义组件。此外,自定义组件中的某些 VIB 可能会丢失。

            • 克隆 ESXi 引导设备时,会创建具有相同 UUID 的实例。由于 UUID 用于 VMFS 检测信号和日志操作,因此如果 UUID 重复,则安装或升级操作后,多个 ESXi 主机会尝试访问同一 VMFS 数据存储上的元数据区域。因此,您可能会在多个 ESXi 主机上的 VMFS 数据存储中看到大量元数据损坏。
              在 vmkernel 日志中,您会看到类似以下内容的消息:
              vmkernel 608: VMFS volume DCS_HCFA_TEDS_Regulated_10032/5ba2905b-ac11166d-b145-0025b5920a02 on naa.60060e8012a34f005040a34f00000d64:1 has been detected corrupted.
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 319: FS3RCMeta 2245 200 21 105 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 326: 0 0 0 0 0 0 0 0 0 0 0 7 0 254 1 4 0 248 3 96 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 332: 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 338: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
              2021-06-08T15:58:22.126Z cpu1:2097600)FS3: 346: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 

            • 从 vSphere 7.0 Update 2 开始,内置 i40en 驱动程序已重命名为 i40enu。因此,如果尝试安装 i40en 合作伙伴异步驱动程序,将跳过 i40en VIB 或恢复为 VMware i40enu 内置驱动程序。

            • 在安装 Dell EMC PowerPath 插件期间,极少出现的页面错误 (Page Fault) 错误可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

            • 如果 USB 主机控制器与 vSphere 系统断开连接,并且设备上的任何资源(如转储文件)仍在由 ESXi 使用,则在设备重新连接时无法释放设备路径。因此,ESXi 会提供 USB 设备的新路径,这会中断与 /bootbank 分区的连接或损坏 VMFS-L LOCKER 分区。

          ESXi-7.0U2sc-18295176-standard
          配置文件名称 ESXi-7.0U2sc-18295176-standard
          内部版本 有关内部版本信息,请参见本版本中包含的修补程序
          供应商 VMware, Inc.
          发布日期 2021 年 8 月 24 日
          接受级别 合作伙伴支持
          受影响的硬件 不适用
          受影响的软件 不适用
          受影响的 VIB
          • VMware_bootbank_vdfs_7.0.2-0.15.18295176
          • VMware_bootbank_esx-xserver_7.0.2-0.15.18295176
          • VMware_bootbank_esx-base_7.0.2-0.15.18295176
          • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.15.18295176
          • VMware_bootbank_crx_7.0.2-0.15.18295176
          • VMware_bootbank_native-misc-drivers_7.0.2-0.15.18295176
          • VMware_bootbank_cpu-microcode_7.0.2-0.15.18295176
          • VMware_bootbank_gc_7.0.2-0.15.18295176
          • VMware_bootbank_vsanhealth_7.0.2-0.15.18295176
          • VMware_bootbank_clusterstore_7.0.2-0.15.18295176
          • VMware_bootbank_vsan_7.0.2-0.15.18295176
          • VMware_bootbank_loadesx_7.0.2-0.15.18295176
          • VMware_bootbank_esx-update_7.0.2-0.15.18295176
          • VMware_locker_tools-light_11.2.6.17901274-18295176
          • VMW_bootbank_vmkusb_0.1-1vmw.702.0.15.18295176
          已修复的 PR 2738816、2738857、2735594、2761942
          相关的 CVE 编号 不适用

          此修补程序更新了以下问题:

            • OpenSSH 已更新到版本 8.5p1。

            • OpenSSL 库已更新到版本 openssl-1.0.2y。

            • Libarchive 库已更新到版本 3.5.1。

            • 以下 VMware Tools 11.2.6 ISO 映像与 ESXi 捆绑在一起:

              • windows.iso:适用于 Windows 7 SP1 或者 Windows Server 2008 R2 SP1 或更高版本的 VMware Tools 映像
              • linux.iso:适用于安装了 glibc 2.5 或更高版本的旧版 Linux 操作系统的 VMware Tools 10.3.23 映像

              以下 VMware Tools 10.3.10 ISO 映像可供下载:

              • solaris.iso:适用于 Solaris 的 VMware Tools 映像
              • darwin.iso:适用于 Mac OS X 版本 10.11 及更高版本的 VMware Tools 映像。

              下载未与 ESXi 捆绑的平台对应的 VMware Tools 时,请遵循以下文档中列出的步骤:

          ESXi-7.0U2sc-18295176-no-tools
          配置文件名称 ESXi-7.0U2sc-18295176-no-tools
          内部版本 有关内部版本信息,请参见本版本中包含的修补程序
          供应商 VMware, Inc.
          发布日期 2021 年 8 月 24 日
          接受级别 合作伙伴支持
          受影响的硬件 不适用
          受影响的软件 不适用
          受影响的 VIB
          • VMware_bootbank_vdfs_7.0.2-0.15.18295176
          • VMware_bootbank_esx-xserver_7.0.2-0.15.18295176
          • VMware_bootbank_esx-base_7.0.2-0.15.18295176
          • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.2-0.15.18295176
          • VMware_bootbank_crx_7.0.2-0.15.18295176
          • VMware_bootbank_native-misc-drivers_7.0.2-0.15.18295176
          • VMware_bootbank_cpu-microcode_7.0.2-0.15.18295176
          • VMware_bootbank_gc_7.0.2-0.15.18295176
          • VMware_bootbank_vsanhealth_7.0.2-0.15.18295176
          • VMware_bootbank_clusterstore_7.0.2-0.15.18295176
          • VMware_bootbank_vsan_7.0.2-0.15.18295176
          • VMware_bootbank_loadesx_7.0.2-0.15.18295176
          • VMware_bootbank_esx-update_7.0.2-0.15.18295176
          • VMware_locker_tools-light_11.2.6.17901274-18295176
          • VMW_bootbank_vmkusb_0.1-1vmw.702.0.15.18295176
          已修复的 PR 2738816、2738857、2735594、2761942
          相关的 CVE 编号 不适用

          此修补程序更新了以下问题:

            • OpenSSH 已更新到版本 8.5p1。

            • OpenSSL 库已更新到版本 openssl-1.0.2y。

            • Libarchive 库已更新到版本 3.5.1。

            • 以下 VMware Tools 11.2.6 ISO 映像与 ESXi 捆绑在一起:

              • windows.iso:适用于 Windows 7 SP1 或者 Windows Server 2008 R2 SP1 或更高版本的 VMware Tools 映像
              • linux.iso:适用于安装了 glibc 2.5 或更高版本的旧版 Linux 操作系统的 VMware Tools 10.3.23 映像

              以下 VMware Tools 10.3.10 ISO 映像可供下载:

              • solaris.iso:适用于 Solaris 的 VMware Tools 映像
              • darwin.iso:适用于 Mac OS X 版本 10.11 及更高版本的 VMware Tools 映像。

              下载未与 ESXi 捆绑的平台对应的 VMware Tools 时,请遵循以下文档中列出的步骤:

          ESXi Image - ESXi70U2c-18426014
          名称 ESXi
          版本 ESXi70U2c-18426014
          发布日期 2020 年 8 月 24 日
          类别 缺陷修复
          受影响的组件
          • ESXi 组件 - 核心 ESXi VIB
          • Emulex FC 驱动程序
          • 适用于 VMware ESXi 的 Broadcom NetXtreme-E 网络和 ROCE/RDMA 驱动程序
          • 适用于 VMware ESXi 的 QLogic FastLinQ 10/25/40/50/100 GbE 以太网和 RoCE/RDMA 驱动程序
          • ESXi 安装/升级组件
          • Intel(R) X710/XL710/XXV710/X722 适配器的网络驱动程序
          • USB 驱动程序
          已修复的 PR  2717698、2731446、2515171、731306、2751564、2718934、2755056、2725886、2725886、2753231、2728910、2741111、2759343、2721379、2751277、2708326、2755977、2737934、2777001、2760932、2731263、2731142、2760267、2749688、2763986、2765534、2766127、2777003、2778793、2755807、2760081、2731644、2749815、2749962、2738238、2799408、2722263、2812906、2750390、2715138、2753546
          相关的 CVE 编号 不适用
            ESXi image - ESXi70U2sc-18295176
            名称 ESXi
            版本 ESXi70U2sc-18295176
            发布日期 2020 年 8 月 24 日
            类别 安全
            受影响的组件
            • ESXi 组件 - 核心 ESXi VIB
            • USB 驱动程序
            • ESXi Tools 组件
            • ESXi 安装/升级组件
            已修复的 PR  2738816、2738857、2735594、2761942
            相关的 CVE 编号 不适用

              已知问题

              已知问题分为如下类别。

              其他问题
              • Sensord 守护进程无法报告 ESXi 主机硬件状态

                IPMI SDR 验证中的逻辑错误可能会导致 sensord 无法识别电源信息的源。因此,在运行命令 vsish -e get /power/hostStats 时,可能看不到任何输出。

                解决办法:无

              安装、升级和迁移问题
              • 在 Hitachi 存储阵列上升级 brcmfcoe 驱动程序后,ESXi 主机可能会断开连接

                在 Hitachi 存储阵列上升级 brcmfcoe 驱动程序后,ESXi 主机可能无法引导并断开连接。

                解决办法:无。

              早期版本的已知问题

              查看以前的已知问题列表,请单击此处

              check-circle-line exclamation-circle-line close-line
              Scroll to top icon