This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

ESXi 6.7 Update 3 | 2019 年 8 月 20 日 | ISO 内部版本 14320388

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

  • ixgben 驱动程序增强功能:ixgben 驱动程序增加了队列配对功能以优化 CPU 效率。
  • VMXNET3 增强功能:ESXi 6.7 Update 3 为增强型网络堆栈 (ENS) 增加了客户机封装卸载以及 UDP 和 ESP RSS 支持。校验和计算将从封装的数据包卸载到虚拟设备模拟,并且您可以按需对 UDP 和 ESP 数据包运行 RSS。UDP RSS 支持 IPv4 和 IPv6,而 ESP RSS 仅支持 IPv4。该功能需要相应的 VMXNET3 v4 驱动程序。
  • NVIDIA 虚拟 GPU (vGPU) 增强功能:在 vCenter Server 6.7 Update 3 中,您可以为虚拟机和模板配置多达四个 vGPU 设备,以满足在一个虚拟机上连接多个 GPU 加速器的用例要求。要使用 vMotion vGPU 功能,必须将高级设置 vgpu.hotmigrate.enabled 设置为 true,并确保 vCenter Server 和 ESXi 主机都运行的是 vSphere 6.7 Update 3。
    由于最长切换时间为 100 秒,因此对多 GPU 加速的虚拟机执行 vMotion 可能会在高 GPU 工作负载下失败。为避免此问题,请增加允许的最长切换时间,或者请等待,直到虚拟机执行的 GPU 工作负载不密集为止。
  • bnxtnet 驱动程序增强功能:ESXi 6.7 Update 3 为 bnxtnet 驱动程序增加了 Broadcom 100G 网络适配器和多 RSS 源支持。
  • QuickBoot 支持增强功能:ESXi 6.7 Update 3 允许 Dell EMC vSAN ReadyNode 服务器 R740XD 和 R640 支持 QuickBoot。
  • 可配置 sfcbd 服务的关闭时间:在 ESXi 6.7 Update 3 中,可配置 sfcbd 服务的关闭时间。可以根据使用的第三方 CIM 提供程序设置关闭时间,也可以使用默认设置 10 秒。
  • 新 SandyBridge 微码:ESXi 6.7 Update 3 在 CPU 微码 VIB 中添加了新的 SandyBridge 微码,不仅使 SandyBridge 安全性达到与其他 CPU 相同的水平,而且修复了虚拟机级增强型 vMotion 兼容性 (EVC) 支持问题。有关详细信息,请参见 VMware 知识库文章 1003212

ESXi 6.7 的早期版本

ESXi 的功能和已知问题在各个版本的发行说明中均有描述。ESXi 6.7 的早期版本的发行说明包括:

有关国际化、兼容性、安装和升级、开源组件和产品支持声明的信息,请参见 VMware vSphere 6.7 Update 1 发行说明

此版本的安装说明

ESXi 6.7 Update 3 中的 VMware Tools 捆绑变更

在 ESXi 6.7 Update 3 中,一部分 VMware Tools 10.3.10 ISO 映像会与 ESXi 6.7 Update 3 主机捆绑在一起。

以下 VMware Tools 10.3.10 ISO 映像会与 ESXi 捆绑在一起:

  • windows.iso:适用于 Windows Vista 或更高版本的 VMware Tools 映像
  • linux.iso:适用于安装 glibc 2.5 或更高版本的 Linux 操作系统的 VMware Tools 映像

以下 VMware Tools 10.3.10 ISO 映像可供下载:

  • solaris.iso:适用于 Solaris 的 VMware Tools 映像
  • freebsd.iso:适用于 FreeBSD 的 VMware Tools 映像
  • darwin.iso:适用于 OSX 的 VMware Tools 映像

下载未与 ESXi 捆绑的平台对应的 VMware Tools 时,请遵循以下文档中列出的步骤:

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。

内部版本详细信息

下载文件名称 update-from-esxi6.7-6.7_update03.zip
内部版本

14320388

14141615(仅安全修复版本)

下载大小 454.6 MB

md5sum

b3a89ab239caf1e10bac7d60277ad995

sha1checksum

590aabc3358c45ca7ee3702d50995ce86ac43bf8
需要重新引导主机
需要迁移或关闭虚拟机

实体包

此版本包含常规版本实体包和仅安全修复版本实体包。仅安全修复版本实体包只适用于新的安全修复。不包括任何新的缺陷修复,但包括早期修补程序版本和更新版本中的缺陷修复。
如果需要安装所有新的安全修复和缺陷修复,则必须应用此版本中的所有实体包。在某些情况下,常规版本实体包将取代仅安全修复版本实体包。这没有问题,因为常规版本实体包同时包含新的安全修复和缺陷修复。
仅安全修复版本实体包由“SG”结尾的实体包 ID 标识。有关修补程序和更新分类的信息,请参见知识库文章 2014447
有关各个实体包的详细信息,请参见 My VMware 页面和已解决的问题部分。

实体包 ID 类别 严重性
ESXi670-201908201-UG 缺陷修复 严重
ESXi670-201908202-UG 缺陷修复 重要
ESXi670-201908203-UG 增强功能 重要
ESXi670-201908204-UG 增强功能 重要
ESXi670-201908205-UG 增强功能 重要
ESXi670-201908206-UG 增强功能 重要
ESXi670-201908207-UG 增强功能 重要
ESXi670-201908208-UG 增强功能 重要
ESXi670-201908209-UG 增强功能 重要
ESXi670-201908210-UG 增强功能 重要
ESXi670-201908211-UG 增强功能 重要
ESXi670-201908212-UG 增强功能 重要
ESXi670-201908213-UG 缺陷修复 重要
ESXi670-201908214-UG 增强功能 重要
ESXi670-201908215-UG 增强功能 重要
ESXi670-201908216-UG 增强功能 重要
ESXi670-201908217-UG 缺陷修复 重要
ESXi670-201908218-UG 缺陷修复 重要
ESXi670-201908219-UG 增强功能 重要
ESXi670-201908220-UG 缺陷修复 重要
ESXi670-201908221-UG 缺陷修复 重要
ESXi670-201908101-SG 安全 重要
ESXi670-201908102-SG 安全 重要
ESXi670-201908103-SG 安全 重要
ESXi670-201908104-SG 安全 重要

重要信息:对于使用 VMware vSAN 的集群,必须先升级 vCenter Server 系统。不支持仅升级 ESXi。
升级之前,请始终在 VMware 产品互操作性列表中确认从早期版本的 ESXi、vCenter Server 和 vSAN 升级到当前版本的兼容升级途径。 

映像配置文件

VMware 修补程序版本和更新版本包含常规映像配置文件和重要映像配置文件。

常规版本映像配置文件仅适用于新的缺陷修复。

映像配置文件名称
ESXi-6.7.0-20190802001-standard
ESXi-6.7.0-20190802001-no-tools
ESXi-6.7.0-20190801001s-standard
ESXi-6.7.0-20190801001s-no-tools

修补程序下载和安装

通常,通过 VMware vSphere Update Manager 将修补程序应用到 ESXi 主机。有关详细信息,请参见《关于安装和管理 VMware vSphere Update Manager》

通过从 VMware 下载页面手动下载修补程序 ZIP 文件,然后使用 esxcli software vib 命令安装 VIB,即可更新 ESXi 主机。此外,还可以使用映像配置文件和 esxcli software profile 命令更新系统。

有关详细信息,请参见《vSphere 命令行界面概念和示例》以及《vSphere 升级指南》

已解决的问题

已解决的问题分为以下几组。

ESXi670-201908201-UG
修补程序类别 缺陷修复
修补程序严重性 严重
需要重新引导主机
需要迁移或关闭虚拟机
受影响的硬件 不适用
受影响的软件 不适用
包含的 VIB
  • VMware_bootbank_esx-update_6.7.0-3.73.14320388
  • VMware_bootbank_vsan_6.7.0-3.73.14263135
  • VMware_bootbank_vsanhealth_6.7.0-3.73.14263064
  • VMware_bootbank_esx-base_6.7.0-3.73.14320388
已修复的 PR  2288428、2282206、2305377、2213824、2305719、2301374、2272250、2220008、2262288、2290043、2295425、2300124、2303227、2301818、2294347、2338914、2327317、2312215、2331247、2340952、2366745、2331525、2320309、2304092、2241121、2306836、2343913、2361711、2350171、2297765、2355516、2287232、2310826、2332785、2280742、2386930、2333442、2346582、2214222、2335847、2292419、2132634、2363202、2367669、2303016、2337889、2360408、2344159、2331369、2370239、2367142、2336379、2301231、2354762、2305414、2305410、2305404、2305406、2305405、2335120、2305407、2315656、2315652、2305412、2315684、2323424、2328263、2332785、2338914、2214222、2394247、2402409、2322882、2482603
CVE 编号 CVE-2019-5528

此修补程序更新了 esx-base、esx-update、vsanvsanhealth VIB 以解决下列问题:

  • PR 2288428:由于第三方设备驱动程序在处理命令时反复失败,虚拟机可能变得无响应

    由于某些第三方设备驱动程序在处理命令时反复失败,虚拟机可能变得无响应。打开虚拟机控制台时,可能出现以下错误:
    错误: 无法连接到 MKS: 无法在重试期间连接到管道 \\.\Pipe\vmware-authdpipe (Error: Unable to connect to the MKS: Could not connect to pipe \\.\pipe\vmware-authdpipe within retry period) 

    本版本已解决该问题。此修复会恢复发给无响应第三方设备驱动程序的命令,并确保失败的命令在停止后继续重试,直到成功为止。

  • PR 2282206:在 ESXi 主机重新引导后,您可能会看不到使用容错解决方案的 Nutanix NFS 数据存储挂载在 vCenter Server 中

    在 ESXi 主机重新引导后,您可能会看不到使用容错解决方案的 Nutanix NFS 数据存储在 vCenter Server 系统中挂载。但是,可以在 ESXi 主机中看到卷。

    本版本已解决该问题。

  • PR 2305377:在 NFS 版本 3 数据存储上运行的虚拟机经过一段时间后可能会开始性能下降

    在 NFS 版本 3 数据存储上运行的虚拟机经过一段时间后可能会开始性能下降。重新引导 ESXi 主机后,此虚拟机将再次开始正常运行。

    本版本已解决该问题。

  • PR 2213824:由于物理 CPU 检测信号故障,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    如果虚拟机具有 SEsparse 快照,并且基本 VMDK 文件大小不是 4K 的倍数,则在从客户机操作系统或第三方应用程序查询 VMDK 的物理布局时,可能会发生物理 CPU 锁定。因此,ESXi 会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2305719:通过 vSphere Storage vMotion 使用容器端口迁移虚拟机可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕

    如果容器端口具有重复的虚拟接口 (VIF) 连接 ID,则在通过 vSphere Storage vMotion 使用容器端口迁移虚拟机时,迁移操作可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2301374:ESXi 主机可能会在融合网络适配器 (CNA) 上的 UplinkRcv 捕获点处出现故障,并显示紫色诊断屏幕

    如果您使用 pktcap-uw 语法,则 ESXi 主机可能会在 CNA 上的 UplinkRcv 捕获点处出现故障并显示紫色诊断屏幕。在捕获上行链路上的数据包时,如果设备没有关联的上行链路对象,则会出现此问题,这种情况很少见。

    本版本已解决该问题。如果没有关联的上行链路对象,此修复将移动此捕获点。 

  • PR 2272250:基于物理网卡负载策略的路由无法在使用 vSphere Distributed Switch 6.6 版的 ESXi 6.7 主机上正常工作

    在 ESXi 6.7 Update 3 之前,vSphere Distributed Switch 6.6 版不支持基于物理网卡负载策略的路由。

    本版本已解决该问题。

  • PR 2220008:在大型网络中网络引导虚拟机可能会失败

    通过网络引导虚拟机需要将虚拟机与网络引导服务器之间的距离限制为 15 个路由器。如果您的系统在虚拟机与引导所需的任何服务器(PXE、DHCP、DNS、TFTP)之间的路径上存在更多路由器,则此引导将失败,因为引导请求无法到达此服务器。

    本版本已解决该问题。 

  • PR 2262288:由于 SNMPv3 对象标识符 GET 请求,ESXi 主机可能会停止响应

    尽管存在用户身份验证,但每个 SNMPv3 对象标识符都可能会收到 GET 请求。因此,ESXi 主机可能会停止响应。

    本版本已解决该问题。

  • PR 2290043:即使主机配置文件具有不合规的值,vSphere Web Client 或 vSphere Client 仍可能会将其显示为合规

    即使主机配置文件具有不合规的值,如最大传输单元 (MTU) 的大小,vSphere Web Client 或 vSphere Client 仍可能会将其显示为合规。此配置文件的修复会按预期运行,但不会反映在 vSphere Web Client 或 vSphere Client 中。

    本版本已解决该问题。

  • PR 2295425:ESXi 主机的性能图表可能会在连接到 vCenter Server 系统的任何基于 Web 的应用程序中间歇性地消失

    在嵌入式 VMware Host Client 或连接到 vCenter Server 系统的任何基于 Web 的应用程序(包括 vSphere Client 和 vSphere Web Client)中,可能会时不时看不到 ESXi 主机的性能图表。由于内部问题,hostd 会删除某些 ESXi 主机的可用性能计数器信息。

    本版本已解决该问题。

  • PR 2300124:ESXi 主机未在 AMD EPYC CPU 上使用 C2 低功耗状况

    即使已在 ESXi 主机的固件设置中启用 C 状况,VMkernel 也无法正确地检测到所有 C 状况。esxtop 工具的功耗屏幕会显示 %C0 列(在 C 状况 0 下所用时间百分比)和 %C1 列(在 C 状况 1 下所用时间百分比),但不会显示 %C2 列。因此,无法最大程度地提高每瓦功耗的系统性能。

    本版本已解决该问题。

  • PR 2303227:如果 ESXi 主机使用某一特定 BIOS 版本,则可能会在该主机启动阶段的早期触发断言失败

    如果 ESXi 主机使用某一特定 BIOS 版本,而在该 BIOS 中启用了 Intel 可信执行技术 (TXT),则可能会在该主机启动阶段的早期触发断言失败。断言失败的类型为:
    Panic: ASSERT bora/vmkernel/vmkBoot/x86/vmkBootTxt.c:2235

    本版本已解决该问题。对于 6.7 Update 3 之前的版本,如果不需要 Intel TXT,请在 BIOS 中禁用它。也可以升级 BIOS。

  • PR 2301818:ESXi 主机可能会由于争用情况而出现故障并显示紫色诊断屏幕

    如果 ESXi 主机在被释放和分配给另一任务之间的这段时间尝试访问某个内存区域,则该主机可能会由于争用情况而出现故障并显示紫色诊断屏幕,此情况并不多见。

    本版本已解决该问题。

  • PR 2294347:使用软件 iSCSI 适配器时,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    使用软件 iSCSI 适配器时,ESXi 主机可能会由于争用情况而出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2338914:vmw_ahci 驱动程序和 AHCI 控制器固件的 AHCI 规范差异可能会导致多个错误

    在 I/O 工作负载过重的情况下,ESXi 本机 vmw_ahci 驱动程序和第三方 AHCI 控制器固件(如 DELL BOSS-S1 适配器的固件)的 AHCI 规范差异可能会导致多个错误,包括存储故障错误或紫色诊断屏幕。

    本版本已解决该问题。 

  • PR 2327317:在 NSX 设置中使用 vSphere vMotion 执行跨集群迁移期间,虚拟机可能会断开连接

    在 NSX 设置中使用 vSphere vMotion 执行跨集群迁移期间,虚拟机可能会断开连接,因为 NetX 筛选器可能会阻止传输到端口的流量。

    本版本已解决该问题。

  • PR 2312215:当您将 vSphere Virtual Volumes 支持 VMDK 文件的虚拟机恢复到快照时,该虚拟机可能无法打开电源

    当 VMDK 文件跨快照分配给不同的 SCSI 目标时,此问题特定于 vSphere Virtual Volumes 数据存储。VMDK 的锁定文件在不同的快照之间重新分配,然后在将虚拟机恢复到快照时,可能会错误地删除该锁定文件。由于缺少锁定文件,磁盘无法打开,并且虚拟机将无法打开电源。

    本版本已解决该问题。

  • PR 2331247:从 Citrix Provisioning Services (PVS) 服务器中对具有 VMXNET3 虚拟网络设备的虚拟机进行 PXE 引导可能会失败

    具有 VMXNET3 虚拟网卡的虚拟机无法使用 Citrix PVS 引导程序启动。这是因为在从 PXE 引导过渡到客户机操作系统启动这段时间内未正确处理虚拟网络设备上的中断。因此,客户机操作系统无法启动虚拟网络设备,并且虚拟机也无法启动。

    本版本已解决该问题。此修复会在虚拟设备启动时清除任何挂起的中断和任何掩码 INTx 中断。

  • PR 2340952:物理网卡的自定义 Rx 和 Tx 环大小在 ESXi 主机重新引导后可能不会保留下来

    如果通过使用以下命令自定义物理网卡的 Rx 和 Tx 环大小来提升网络性能:
    esxcli network nic ring current set -n -t
    esxcli network nic ring current set -n -r
    这些设置在 ESXi 主机重新引导后可能不会保留下来。

    本版本已解决该问题。该修复会将这些 ESXCLI 配置写入 ESXi 配置文件,以确保它们在重新引导后仍能保留下来。使用 CLI 之前,必须允许在物理网卡上使用环大小配置。

  • PR 2366745:macOS 10.15 开发人员预览版可能无法在虚拟机上启动

    在虚拟机中启动 macOS 10.15 开发人员预览版时,操作系统可能会失败,并出现显示白色 Apple 徽标的空白屏幕。在详细模式下执行打开电源操作会在显示以下错误消息后停止响应:
    Error unserializing prelink plist: OSUnserializeXML: syntax error near line 2
    panic(...): "Unable to find driver for this platform: \"ACPI\".\n"@...

    本版本已解决该问题。要使此修复生效,必须先关闭现有虚拟机的电源,然后再升级到 macOS 10.15 开发人员预览版。

  • PR 2331525:如果将 NetworkNicTeamingPolicy 或 SecurityPolicy 设置为使用默认设置,则可能无法应用主机配置文件

    如果修改主机配置文件的 NetworkNicTeamingPolicy 或 SecurityPolicy 并将其更改为默认设置,则可能无法将该主机配置文件应用于 ESXi 主机,并会收到类似以下内容的错误:错误: 指定的参数不正确 (Error: A specified parameter was not correct)。

    本版本已解决该问题。

  • PR 2320309:当 vMotion 操作失败并随后立即执行热添加或 Storage vMotion 操作时,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    如果虚拟交换机的最大传输单元 (MTU) 大小小于为 VMkernel 端口配置的 MTU 大小,则 vMotion 操作可能会失败。如果在 vMotion 操作失败后立即执行热添加或 Storage vMotion 操作,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2304092:针对某些虚拟机接口的 MAC 地址,VMXNET3 虚拟网络设备可能会获取 null 属性

    任何模块的最大内存堆大小为 3 GB。如果请求的总内存大小超过 4 GB,则会出现整数溢出。因此,虚拟机接口的 MAC 地址设置为 00:00:00:00:00:00,并且 VMXNET3 设备可能无法启动。在 VMkernel 日志中,您可能会看到类似以下内容的错误:Vmxnet3: 15204: Failed to allocate memory for tq 0

    本版本已解决该问题。

  • PR 2241121:使用 VMware Host Client 将虚拟机导出为 OVF 文件时,不同虚拟机的 VMDK 磁盘文件具有相同的前缀

    将多个虚拟机导出到一个文件夹时,VMDK 名称可能会发生冲突并由 Web 浏览器自动重命名。这会使导出的 OVF 文件无效。

    本版本已解决该问题。导出的 VMDK 文件名现在基于虚拟机名称。

  • PR 2306836:ESXi 主机升级或迁移操作可能会失败,并显示紫色诊断屏幕

    如果使用已启用容器功能的 vSphere Distributed Switch 或 NSX-T 管理的 vSphere Distributed Switch,并且 ESXi 主机的版本为 6.7 或更低版本,则在升级或迁移操作期间,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2343913:必须手动将声明规则添加到 ESXi 主机

    必须手动将声明规则添加到 Tegile 存储阵列的 ESXi 主机,才能将每秒 I/O 操作数设置为 1。

    本版本已解决该问题。该修复会将 Tegile 存储阵列的 ESXi 主机 6.5 和 6.7 中的存储阵列类型插件 (SATP) 设置为:
    esxcli storage nmp satp rule add -s VMW_SATP_ALUA -V TEGILE -M "INTELLIFLASH" -c tpgs_on --psp="VMW_PSP_RR" -O "iops=1" -e "Tegile arrays with ALUA support"
    esxcli storage nmp satp rule add -s VMW_SATP_DEFAULT_AA -V TEGILE -M "INTELLIFLASH" -c tpgs_off --psp="VMW_PSP_RR" -O "iops=1" -e "Tegile arrays without ALUA support"'''

  • PR 2361711:置备即时克隆时,您可能会看到错误,并且虚拟机无法打开电源

    通过 vSphere Web Client 或 vSphere Client 置备即时克隆时,您可能会看到错误已与虚拟机断开连接 (Disconnected from virtual machine)。由于虚拟机可执行 (VMX) 进程失败,因此虚拟机无法打开电源。

    本版本已解决该问题。此修复更正了 VMX 严重错误并返回一条错误。

  • PR 2350171:如果在启用 vIOMMU 的情况下运行 kdump 实用程序,ESXi 主机中的 Linux 客户机操作系统可能会变得无响应

    如果启用了 vIOMMU,则在初始化 kdump 内核时,Linux 客户机操作系统可能会变得无响应。

    本版本已解决该问题。

  • PR 2297765:移除磁盘不会在 vCenter Server 系统上触发 StorageHealthAlarm

    ESXi 主机可能无法监控 LSI 主机总线适配器 (HBA) 和已连接存储的运行状况。因此,在 HBA 运行状况下降时,vCenter Server 系统无法显示警报。必须安装第三方提供程序 LSI SMI-S CIM。有关详细信息,请参见 VMware 知识库文章 2001549

    本版本已解决该问题。

  • PR 2355516:如果通过 API 调用配置驱动程序队列和域数量,则可能导致 ESXi 主机出现故障并显示紫色诊断屏幕

    您可以使用 SCSIBindCompletionWorlds() 方法设置某个驱动程序的队列和域数量。不过,如果将 numQueues 参数设置为高于 1 的值,并将 numWorlds 参数设置为等于或小于 1 的值,则此 API 调用可能会返回结果,但不会释放持有的锁定。此时将导致死锁,而 ESXi 主机则可能出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2287232:对于使用 Microsoft Windows 10 版本 1809 的虚拟机,如果它们在 VMFS6 数据存储上运行,则可能会在启动阶段启动缓慢或停止响应

    如果虚拟机使用 Windows 10 版本 1809 并具有快照且在 VMFS6 数据存储上运行,则该虚拟机可能会在启动阶段启动缓慢或停止响应。

    本版本已解决该问题。

  • PR 2310826:如果与 NFS41 数据存储的连接间歇性失败,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    如果与 NFS41 数据存储的连接间歇性失败,ESXi 主机可能会由于在完成 I/O 时发生 NullPointerException 而出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2332785:ESXi 主机可能会由于缺少物理 CPU 检测信号而出现故障并显示紫色诊断屏幕

    如果您使用的 ESXi 主机具有 CD-ROM 驱动器型号 DU-8A5LH,那么 CD-ROM 驱动器可能会报告未知的帧信息结构 (FIS) 异常。vmw_ahci 驱动程序无法正确处理该异常,并在内核中重复创建 PORT_IRQ_UNK_FIS 异常日志。重复日志导致缺少物理 CPU 检测信号,并且 ESXi 主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2280742:DvFilter 虚拟交换机的堆损坏可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕

    对于 DvFilter 虚拟交换机,get-set 防火墙规则操作出现争用情况可能会导致缓冲区溢出和堆损坏。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2386930:在迁移配置了 NVIDIA GRID vGPU 的虚拟机后,在目标 ESXi 主机上可能无法使用应用程序

    在实时迁移具有 NVIDIA GRID vGPU 的虚拟机的计算和存储资源期间,可能会发生内存损坏。迁移会成功完成,但正在运行的应用程序可能无法在目标主机上继续运行。 

    本版本已解决该问题。

  • PR 2333442:如果虚拟设备数量超过最大限制,虚拟机可能无法打开电源

    对于配置了最大数量的虚拟设备以及 PCI 直通的虚拟机,如果超过此限制,则该虚拟机可能无法打开电源。
    该问题会在 vmware.log 文件中通过一条类似于以下内容的严重错误日志进行标识:vmx| E105: PANIC: VERIFY bora/devices/pci/pci.c:1529。

    本版本已解决该问题。

  • PR 2346582:在将 ESXi 主机从版本 6.7 或 6.7 Update 1(包括修补程序版本)更新到版本 6.7 Update 2 或任何 6.7 Update 2 修补程序版本时,如果服务器使用的是 Intel Skylake CPU,则 Quick Boot 将被取消,而 ESXi 主机将执行完整的系统重新引导

    ESXi 6.7 Update 2 引入了与 Intel Skylake CPU 错误相关的修复。此修复会影响硬件配置,并会触发一些健全性检查,因此 ESXi 主机会执行完整的系统重新引导,而不是 Quick Boot。在将 ESXi 主机从不含此修复的版本更新到含此修复的版本期间,如果为此更新启用了 Quick Boot,则此问题会发生一次。

    本版本已解决该问题。通过此修复,在将 ESXi 主机从版本 6.7 或 6.7 Update 1 更新到版本 6.7 Update 3 时,ESXi 主机会在具有 Intel Skylake CPU 的服务器上执行 Quick Boot。

  • PR 2214222:在具有多个 GPU 的系统上,Xorg 可能无法启动

    多个 Xorg 脚本可能会并行运行并相互干扰。因此,在具有多个 GPU 的系统上,Xorg 脚本可能无法启动。

    本版本已解决该问题。此修复可确保在启动操作过程中运行单个 Xorg 脚本。

  • PR 2335847:尽管启用了自动协商功能,Mellanox ConnectX5 设备可能仍会报告此功能处于非活动状态

    使用 esxcli network nic get -n vmnicX 命令获取 Mellanox ConnectX5 设备上的自动协商状态时,即使在物理交换机上启用了该功能,状态也可能会显示为 False。

    本版本已解决该问题。

  • PR 2334911:配置链路聚合组 (LAG) 时,如果包成员出现波动,可能会显示错误的 VMkernel 观察消息

    配置 LAG 时,如果包成员出现波动,则会为该 LAG 显示错误的 VMkernel 观察消息:失败条件: 0 (Failed Criteria: 0)。

    本版本已解决该问题。

  • PR 2366640:如果上行链路名称未采用诸如 vmnicX(其中 X 是一个数字)之类的格式,则链路聚合控制协议 (LACP) 将不起作用

    如果上行链路名称未采用诸如 vmnicX(其中 X 是一个数字)之类的格式,则 LACP 将不起作用。

    本版本已解决该问题。

  • PR 2292419:当 Site Recovery Manager 测试恢复触发 vSphere Replication 同步阶段时,hostd 可能会变得无响应

    在将运行 Microsoft Windows Server 2008 或更高版本的虚拟机置于静默状态时,系统会创建应用程序静默快照。最大并发快照数为 32,此值太高,因为在快照操作任务跟踪中使用的线程太多。因此,hostd 服务可能会变得无响应。

    本版本已解决该问题。此修复将最大并发快照数减少到 8。

  • PR 2132634:hostd 服务有时会在重构 VDI 池时失败并创建 hostd-worker-zdump

    hostd 服务有时会在重构 VDI 池时失败,并显示错误消息 VmfsExtentCommonOpen: VmfsExtentParseExtentLine 失败 (VmfsExtentCommonOpen: VmfsExtentParseExtentLine failed)。您会看到 ESXi 主机的 /var/core/ 目录下生成 hostd-worker-zdump 文件。

    本版本已解决该问题。

  • PR 2363202:监控服务显示 vSphere Virtual Volumes 数据存储上的虚拟机处于严重状态

    在 vSphere Web Client 中,为虚拟机级别 vSphere Virtual Volumes 数据存储的性能图表显示的读取或写入延迟不正确。因此,监控服务会显示这些虚拟机处于严重状态。

    本版本已解决该问题。

  • PR 2367669:在解压缩虚拟机内存页期间,此虚拟机可能会停止响应并重新启动

    在解压缩 ESXi 6.7 上运行的虚拟机的内存页期间,压缩窗口大小检查可能会失败。因此,此虚拟机可能会停止响应并重新启动。在 VMkernel 日志的回溯追踪中,您可能会看到类似以下内容的条目:
    Unable to decompress BPN(0x1005ef842) from frameIndex(0x32102f0) block 0 for VM(6609526)

    0x451a55f1baf0:[0x41802ed3d040]WorldPanicWork
    0x451a55f1bb50:[0x41802ed3d285]World_Panic
    0x451a55f1bcc0:[0x41802edb3002]VmMemIO_FaultCompressedPage
    0x451a55f1bd20:[0x41802edbf72f]VmMemPfCompressed
    0x451a55f1bd70:[0x41802edc033b]VmMemPfInt
    0x451a55f1be10:[0x41802edc0d4f]VmMemPf
    0x451a55f1be80:[0x41802edc108e]VmMemPfLockPageInt
    0x451a55f1bef0:[0x41802edc3517]VmMemPf_LockPage
    0x451a55f1bfa0:[0x41802ed356e6]VMMVMKCall_Call
    0x451a55f1bfe0:[0x41802ed59e5d]VMKVMM_ArchEnterVMKernel

    本版本已解决该问题。

  • PR 2303016:使用 VMware Site Recovery Manager 执行测试恢复可能会失败,并显示错误“DiskQueue 已满 (DiskQueue is full)”

    由于调度逻辑中存在错误,ESXi 主机资源管理器的并发上下文数量可能会超出最大值 512。如果出现辅助主机或网络速度缓慢的问题,可能会导致出现 DiskQueue 已满 (DiskQueue is full) 错误,并在 Site Recovery Manager 运行的操作中使虚拟机同步失败。

    本版本已解决该问题。

  • PR 2337889:如果未在 ESXi 主机中配置默认路由,则会随 SNMP 陷阱发送一个有效负载,其中 ESXi SNMP 代理的 IP 地址顺序相反

    如果未在 ESXi 主机中配置默认路由,则在发送的 SNMP 陷阱的有效负载中,ESXi SNMP 代理的 IP 地址顺序可能会相反。例如,如果 SNMP 代理的 IP 地址为 172.16.0.10,则在该有效负载中,此 IP 地址为 10.0.16.172。因此,SNMP 陷阱会使用该有效负载中 ESXi SNMP 代理的错误 IP 地址访问目标。

    本版本已解决该问题。

  • PR 2360408:如果某些使用 3D 软件加速的应用程序运行在虚拟机上,该虚拟机可能会停止响应

    如果虚拟机正在运行使用特定 3D 状态和着色器的应用程序,并使用了软件 3D 加速,则该虚拟机可能会停止响应。

    本版本已解决该问题。

  • PR 2344159:启用 IPv6 校验和后,如果 EXSi 主机收到具有路由扩展头的 IPv6 数据包,则 ESXi 主机可能会出现故障并显示紫色诊断屏幕

    当客户机发送启用了路由头的 IPv6 校验和卸载时,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。如果遇到该问题,请在虚拟网卡上禁用校验和卸载。

  • PR 2331369:当 ESXi 主机通过 VmMemCow_PShareRemoveHint 功能移除 PShare 提示时,该 ESXi 主机可能会出现故障并显示紫色诊断屏幕

    当 ESXi 主机从 PShare 链中移除 PShare 提示时,如果 PShare 链已损坏,则 ESXi 主机可能会出现故障并显示紫色诊断屏幕和类似以下内容的错误:
    0x43920bd9bdc0:[0x41800c5930d6]VmMemCow_PShareRemoveHint
    0x43920bd9be00:[0x41800c593172]VmMemCowPFrameRemoveHint
    0x43920bd9be30:[0x41800c594fc8]VmMemCowPShareFn@vmkernel
    0x43920bd9bf80:[0x41800c500ef4]VmAssistantProcessTasks@vmkernel
    0x43920bd9bfe0:[0x41800c6cae05]CpuSched_StartWorld@vmkernel

    本版本已解决该问题。

  • PR 2370239:当虚拟机使用远程串行端口时,如果在迁移过程中发生 DNS 故障,该虚拟机可能会关闭电源

    当虚拟机使用连接到虚拟串行端口集中器 (vSPC) 的远程串行端口(其中 DNS 名称是 vSPC 的地址)时,如果在使用 vMotion 执行迁移过程中发生 DNS 故障,该虚拟机可能会关闭电源。

    本版本已解决该问题。

  • PR 2367142:如果更改虚拟机的硬件兼容性,则可能会移除 PCI 直通设备

    如果更改具有 PCI 直通设备的虚拟机的硬件兼容性级别,则该设备可能会在此过程中从该虚拟机中移除。

    本版本已解决该问题。

  • PR 2336379:在设置物理网卡 (pNIC) 别名时,ESXi 配置文件中的上行链路映射格式可能不正确

    如果通过使用命令行运行命令来设置 pNIC 别名,则 esx.conf 中为相应 pNIC 保存的 MAC 地址的格式会不正确。使用的命令如下:
    localcli --plugin-dir /usr/lib/vmware/esxcli/int/ deviceInternal alias store --bus-type pci --alias vmnicX --bus-address XX

    本版本已解决该问题。

  • PR 2301231:从 vSphere 6.0 升级到更高版本后,ESXi 主机无法发现本地设备

    只有当 SATP 为 VMW_SATP_LOCAL 时,才会出现此问题。在 ESXi 6.0 中,如果使用格式不正确的配置选项添加 SATP 为 VMW_SATP_LOCAL 的声明规则,则 NMP/SATP 插件将无法识别该选项,因此在升级到更高的 ESXi 版本时将无法发现该设备。
    您可能会看到类似以下内容的日志条目:
    2018-11-20T02:10:36.333Z cpu1:66089)WARNING: NMP: nmp_DeviceAlloc:2048: nmp_AddPathToDevice failed Bad parameter (195887111).
    2018-11-20T02:10:36.333Z cpu1:66089)WARNING: ScsiPath: 6615: Plugin 'NMP' had an error (Bad parameter) while claiming path 'vmhba0:C0:T2:L0'.Skipping the path

    本版本已解决该问题。

  • PR 2280742:DvFilter 虚拟交换机的堆损坏可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕

    对于 DvFilter 虚拟交换机,get-set 防火墙规则操作出现争用情况可能会导致缓冲区溢出和堆损坏。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2354762:vCenter Server 系统硬件运行状况可能不会显示 DIMM 上的故障

    无论服务器控制器是否显示警告,vCenter Server 系统硬件运行状况可能都不会显示 DIMM 上的故障。例如,Dell M630 服务器中的 Dell 远程访问控制器可能会显示 DIMM 中的警告,但在 vCenter Server 系统中看不到任何警示或警报。

    本版本已解决该问题。

  • PR 2394247:无法将虚拟机设置为在客户机操作系统重新引导时重新启动

    在微码更新后,有时需要重新枚举 ESXi 服务器上虚拟机的 CPUID。通过使用配置参数 vmx.reboot.powerCycle = TRUE,您可以将虚拟机调度为在必要时重新启动。

    本版本已解决该问题。

  • PR 2402409:由于缺少为 CBT 位图分配的内存,启用了变更数据块跟踪 (CBT) 的虚拟机可能会在创建快照时出现故障

    在创建快照时,虚拟机可能会关闭电源并出现故障,并显示类似以下内容的错误:
    2019-01-01T01:23:40.047Z| vcpu-0| I125: DISKLIB-CTK : Failed to mmap change bitmap of size 167936: Cannot allocate memory.
    2019-01-01T01:23:40.217Z| vcpu-0| I125: DISKLIB-LIB_BLOCKTRACK : Could not open change tracker /vmfs/volumes/DATASTORE_UUID/VM_NAME/VM_NAME_1-ctk.vmdk: Not enough memory for change tracking.

    之所以出现此错误,是因为缺少为 CBT 位图分配的内存。

    本版本已解决该问题。

  • PR 2322882:ESXi 主机可能会因 VMware vSphere 6.7 中 vSphere Storage I/O Control 的内存问题而停止响应 

    由于 vSphere Storage I/O Control 中的内存问题,ESXi 主机可能会停止响应,并且 /var/log/vmkernel.log 文件会记录以下内容:
    MemSchedAdmit: 470: Admission failure in path: sioc/storageRM.13011002/uw.13011002
    MemSchedAdmit: 477: uw.13011002 (68246725) extraMin/extraFromParent: 256/256, sioc (840) childEmin/eMinLimit: 14059/14080

    本版本已解决该问题。

  • PR 2482603:如果具有支持 SR-IOV 的物理网卡和不在同一 ESXi 主机上的其他物理网卡,则您可能会从 EXCLI 命令集和 vSphere Client 看到不同的信息

    如果 ESXi 主机上的同一网卡驱动程序具有不支持 SR-IOV 的物理网卡和支持 SR-IOV 的其他物理网卡,则您可能会从 EXCLI 命令集和 vSphere Client 或 vSphere Web Client 看到不同的信息。例如,从 ESXCLI 命令集中,您可能会看到 vmnic 16、17 和 18 已配置 SR-IOV,而在 vSphere Client 中,您可能会看到 vmnic 6、7 和 8 已配置 SR-IOV。

    本版本已解决该问题。

ESXi670-201908202-UG
修补程序类别 缺陷修复
修补程序严重性 重要
需要重新引导主机
需要迁移或关闭虚拟机
受影响的硬件 不适用
受影响的软件 不适用
包含的 VIB
  • VMW_bootbank_igbn_0.1.1.0-5vmw.670.3.73.14320388
已修复的 PR  不适用
CVE 编号 不适用

此修补程序更新了 igbn VIB。

    ESXi670-201908203-UG
    修补程序类别 增强功能
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_nvme_1.2.2.28-1vmw.670.3.73.14320388
    已修复的 PR  2305414 
    CVE 编号 不适用

    此修补程序更新了 nvme VIB 以解决下列问题:

    • NVMe 驱动程序更新

      对 NVMe 驱动程序的更新修复了 Intel SSD DC P4600 系列上运行的设备的性能开销问题。

    ESXi670-201908204-UG
    修补程序类别 增强功能
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMware_bootbank_qlnativefc_3.1.8.0-5vmw.670.3.73.14320388
    已修复的 PR  2305410
    CVE 编号 不适用

    此修补程序更新了 qlnativefc VIB 以解决下列问题:

    • 更新 qlnativefc 驱动程序

      qlnativefc 驱动程序已更新到版本 3.1.8.0。

    ESXi670-201908205-UG
    修补程序类别 增强功能
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_lsi-mr3_7.708.07.00-3vmw.670.3.73.14320388
    已修复的 PR  2305404
    CVE 编号 不适用

    此修补程序更新了 lsi-mr3 VIB 以解决下列问题:

    • lsi_mr3 驱动程序更新

      lsi_mr3 驱动程序已更新到版本 MR 7.8。

    ESXi670-201908206-UG
    修补程序类别 增强功能
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_lsi-msgpt35_09.00.00.00-5vmw.670.3.73.14320388
    已修复的 PR  2305406 
    CVE 编号 不适用

    此修补程序更新了 lsi-msgpt35 VIB 以解决下列问题:

    • lsi_msgpt35 驱动程序更新

      lsi_msgpt35 驱动程序已更新到版本 09.00.00.00-5vmw。

    ESXi670-201908207-UG
    修补程序类别 增强功能
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_lsi-msgpt3_17.00.02.00-1vmw.670.3.73.14320388
    已修复的 PR  2335120
    CVE 编号 不适用

    此修补程序更新了 lsi-msgpt3 VIB 以解决下列问题:

    • lsi_msgpt3 驱动程序更新

      lsi_msgpt3 驱动程序已更新到版本 17.00.02.00-1vmw。

    ESXi670-201908208-UG
    修补程序类别 增强功能
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_lsi-msgpt2_20.00.06.00-2vmw.670.3.73.14320388
    已修复的 PR  2305407
    CVE 编号 不适用

    此修补程序更新了 lsi-msgpt2 VIB 以解决下列问题:

    • 更新 lsi_msgpt2 驱动程序

      lsi_msgpt2 驱动程序已更新到版本 20.00.06.00-2。

    ESXi670-201908209-UG
    修补程序类别 增强功能
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_i40en_1.8.1.9-2vmw.670.3.73.14320388
    已修复的 PR  2315656 
    CVE 编号 不适用

    此修补程序更新了 i40en VIB。

    • 更新 i40en 驱动程序

      i40en 驱动程序已更新到版本 1.8.1.9-2。

    ESXi670-201908210-UG
    修补程序类别 增强功能
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_ixgben_1.7.1.16-1vmw.670.3.73.14320388
    已修复的 PR  2315652 
    CVE 编号 不适用

    此修补程序更新了 ixgben VIB 以解决下列问题:

    • ixgben 驱动程序增加了队列配对功能以优化 CPU 效率。

    ESXi670-201908211-UG
    修补程序类别 增强功能
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_smartpqi_1.0.1.553-28vmw.670.3.73.14320388
    已修复的 PR  2305412 
    CVE 编号 不适用

    此修补程序更新了 smartpqi VIB 以解决下列问题:

    • 更新 smartpqi 驱动程序

      smartpqi 驱动程序已更新到版本 1.0.1.553-28。

    ESXi670-201908212-UG
    修补程序类别 增强功能
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_bnxtnet_20.6.101.7-24vmw.670.3.73.14320388
    已修复的 PR  2315684 
    CVE 编号 不适用

    此修补程序更新了 bnxtnet VIB 以解决下列问题:

    • ESXi 6.7 Update 3 为 bnxtnet 驱动程序增加了 Broadcom 100G 网络适配器和多 RSS 源支持。

    ESXi670-201908213-UG
    修补程序类别 缺陷修复
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_elxnet_11.4.1097.0-5vmw.670.3.73.14320388
    已修复的 PR  2323424 
    CVE 编号 不适用

    此修补程序更新了 elxnet VIB 以解决下列问题:

    • PR 2323424:在极少数情况下,使用 elxnet 驱动程序的网卡可能会断开连接  

      elxnet 驱动程序的问题可能会导致使用该驱动程序的网卡断开连接。在 ESXi 主机内核日志中,您可能会看到类似以下内容的警告: 
      WARNING: elxnet: elxnet_workerThread:2122: [vmnic3] GetStats: MCC cmd timed out. timeout:36
      WARNING: elxnet: elxnet_detectDumpUe:416: [vmnic3] Recoverable HW error detected

      本版本已解决该问题。

    ESXi670-201908214-UG
    修补程序类别 增强功能
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_brcmfcoe_11.4.1078.25-14vmw.670.3.73.14320388
    已修复的 PR  不适用
    CVE 编号 不适用

    此修补程序更新了 brcmfcoe VIB。

      ESXi670-201908215-UG
      修补程序类别 增强功能
      修补程序严重性 重要
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMW_bootbank_lpfc_11.4.33.25-14vmw.670.3.73.14320388
      已修复的 PR  不适用
      CVE 编号 不适用

      此修补程序更新了 lpfc VIB。

        ESXi670-201908216-UG
        修补程序类别 增强功能
        修补程序严重性 重要
        需要重新引导主机
        需要迁移或关闭虚拟机
        受影响的硬件 不适用
        受影响的软件 不适用
        包含的 VIB
        • VMW_bootbank_nenic_1.0.29.0-1vmw.670.3.73.14320388
        已修复的 PR  2328263 
        CVE 编号 不适用

        此修补程序更新了 nenic VIB 以解决下列问题:

        • nenic 驱动程序更新

          nenic 驱动程序已更新到版本 1.0.29.0。

        ESXi670-201908217-UG
        修补程序类别 缺陷修复
        修补程序严重性 重要
        需要重新引导主机
        需要迁移或关闭虚拟机
        受影响的硬件 不适用
        受影响的软件 不适用
        包含的 VIB
        • VMW_bootbank_vmw-ahci_1.2.8-1vmw.670.3.73.14320388
        已修复的 PR  2332785、2338914
        CVE 编号 不适用

        此修补程序更新了 vmw-ahci VIB。

          ESXi670-201908218-UG
          修补程序类别 缺陷修复
          修补程序严重性 重要
          需要重新引导主机
          需要迁移或关闭虚拟机
          受影响的硬件 不适用
          受影响的软件 不适用
          包含的 VIB
          • VMW_bootbank_nmlx5-core_4.17.13.1-1vmw.670.3.73.14320388
          已修复的 PR  不适用
          CVE 编号 不适用

          此修补程序更新了 nmlx5-core VIB。

            ESXi670-201908219-UG
            修补程序类别 增强功能
            修补程序严重性 重要
            需要重新引导主机
            需要迁移或关闭虚拟机
            受影响的硬件 不适用
            受影响的软件 不适用
            包含的 VIB
            • VMW_bootbank_nfnic_4.0.0.29-0vmw.670.3.73.14320388
            已修复的 PR  不适用
            CVE 编号 不适用

            此修补程序更新了 nfnic VIB。

              ESXi670-201908220-UG
              修补程序类别 缺陷修复
              修补程序严重性 重要
              需要重新引导主机
              需要迁移或关闭虚拟机
              受影响的硬件 不适用
              受影响的软件 不适用
              包含的 VIB
              • VMware_bootbank_esx-xserver_6.7.0-3.73.14320388
              已修复的 PR  2214222 
              CVE 编号 不适用

              此修补程序更新了 esx-xserver VIB。

                ESXi670-201908221-UG
                修补程序类别 缺陷修复
                修补程序严重性 重要
                需要重新引导主机
                需要迁移或关闭虚拟机
                受影响的硬件 不适用
                受影响的软件 不适用
                包含的 VIB
                • VMW_bootbank_sfvmk_1.0.0.1003-6vmw.670.3.73.14320388
                已修复的 PR  不适用
                CVE 编号 不适用

                此修补程序更新了 sfvmk VIB。

                  ESXi670-201908101-SG
                  修补程序类别 安全
                  修补程序严重性

                  重要

                  需要重新引导主机
                  需要迁移或关闭虚拟机
                  受影响的硬件 不适用
                  受影响的软件 不适用
                  包含的 VIB
                  • VMware_bootbank_esx-base_6.7.0-2.69.14141615
                  • VMware_bootbank_esx-update_6.7.0-2.69.14141615
                  • VMware_bootbank_vsan_6.7.0-2.69.13808269
                  • VMware_bootbank_vsanhealth_6.7.0-2.69.13808270
                  已修复的 PR  2307421、2360047、2300903、2262288、2313239
                  CVE 编号 不适用

                  此修补程序更新了 esx-base、esx-update、vsanvsanhealth VIB 以解决下列问题:

                  • 网络时间协议 (NTP) 守护进程更新

                    NTP 守护进程已更新到版本 ntp-4.2.8p13。

                  • libcurl 库更新

                    ESXi userworld libcurl 库已更新到版本 7.64.1。

                  • PR 2262288:ESXi 主机可能会响应对象标识符 (OID) 用户 ID 发出的任何 snmpv3 get 请求,即使该用户 ID 未通过身份验证也是如此

                    ESXi 主机可能会响应特殊用户 "" 发出的任何 snmpv3 get 请求(用于引擎 ID 发现),即使该用户未通过身份验证或身份验证错误也是如此。

                    本版本已解决该问题。

                  • libxml2 库更新

                    ESXi userworld libxml2 库已更新到版本 2.9.9。

                  • Python 库更新

                    Python 第三方库已更新到版本 3.5.7。

                  ESXi670-201908102-SG
                  修补程序类别 安全
                  修补程序严重性

                  重要

                  需要重新引导主机
                  需要迁移或关闭虚拟机
                  受影响的硬件 不适用
                  受影响的软件 不适用
                  包含的 VIB
                  • VMware_locker_tools-light_10.3.10.12406962-14141615
                  已修复的 PR  2313239
                  CVE 编号 不适用

                  此修补程序更新了 tools-light VIB。

                    ESXi670-201908103-SG
                    修补程序类别 安全
                    修补程序严重性

                    重要

                    需要重新引导主机
                    需要迁移或关闭虚拟机
                    受影响的硬件 不适用
                    受影响的软件 不适用
                    包含的 VIB
                    • VMware_bootbank_cpu-microcode_6.7.0-2.69.14141615
                    已修复的 PR  不适用
                    CVE 编号 不适用

                    此修补程序更新了 cpu-microcode VIB。

                    • CPU 微码 VIB 包括以下 Intel 微码:
                      代码名称 FMS Plt ID MCU 修订版 MCU 日期 品牌名称
                      Nehalem EP 0x106a5 0x03 0x0000001d 2018 年 5 月 11 日 Intel Xeon 35xx 系列
                      Intel Xeon 55xx 系列
                      Lynnfield 0x106e5 0x13 0x0000000a 2018 年 5 月 8 日 Intel Xeon 34xx Lynnfield 系列
                      Clarkdale 0x20652 0x12 0x00000011 2018 年 5 月 8 日 Intel i3/i5 Clarkdale 系列
                      Intel Xeon 34xx Clarkdale 系列
                      Arrandale 0x20655 0x92 0x00000007 2018 年 4 月 23 日 Intel Core i7-620LE 处理器
                      Sandy Bridge DT 0x206a7 0x12 0x0000002f 2019 年 2 月 17 日 Intel Xeon E3-1100 系列
                      Intel Xeon E3-1200 系列
                      Intel i7-2655-LE 系列
                      Intel i3-2100 系列
                      Westmere EP 0x206c2 0x03 0x0000001f 2018 年 5 月 8 日 Intel Xeon 56xx 系列
                      Intel Xeon 36xx 系列
                      Sandy Bridge EP 0x206d7 0x6d 0x00000718 2019 年 5 月 21 日 Intel Pentium 1400 系列
                      Intel Xeon E5-1400 系列
                      Intel Xeon E5-1600 系列
                      Intel Xeon E5-2400 系列
                      Intel Xeon E5-2600 系列
                      Intel Xeon E5-4600 系列
                      Nehalem EX 0x206e6 0x04 0x0000000d 2018 年 5 月 15 日 Intel Xeon 65xx 系列
                      Intel Xeon 75xx 系列
                      Westmere EX 0x206f2 0x05 0x0000003b 2018 年 5 月 16 日 Intel Xeon E7-8800 系列
                      Intel Xeon E7-4800 系列
                      Intel Xeon E7-2800 系列
                      Ivy Bridge DT 0x306a9 0x12 0x00000021 2019 年 2 月 13 日 Intel i3-3200 系列
                      Intel i7-3500-LE/UE
                      Intel i7-3600-QE
                      Intel Xeon E3-1200-v2 系列
                      Intel Xeon E3-1100-C-v2 系列
                      Intel Pentium B925C
                      Haswell DT 0x306c3 0x32 0x00000027 2019 年 2 月 26 日 Intel Xeon E3-1200-v3 系列
                      Intel i7-4700-EQ 系列
                      Intel i5-4500-TE 系列
                      Intel i3-4300 系列
                      Ivy Bridge EP 0x306e4 0xed 0x0000042e 2019 年 3 月 14 日 Intel Xeon E5-4600-v2 系列
                      Intel Xeon E5-2600-v2 系列
                      Intel Xeon E5-2400-v2 系列
                      Intel Xeon E5-1600-v2 系列
                      Intel Xeon E5-1400-v2 系列
                      Ivy Bridge EX 0x306e7 0xed 0x00000715 2019 年 3 月 14 日 Intel Xeon E7-8800/4800/2800-v2 系列
                      Haswell EP 0x306f2 0x6f 0x00000043 2019 年 3 月 1 日 Intel Xeon E5-4600-v3 系列
                      Intel Xeon E5-2600-v3 系列
                      Intel Xeon E5-2400-v3 系列
                      Intel Xeon E5-1600-v3 系列
                      Intel Xeon E5-1400-v3 系列
                      Haswell EX 0x306f4 0x80 0x00000014 2019 年 3 月 1 日 Intel Xeon E7-8800/4800-v3 系列
                      Broadwell H 0x40671 0x22 0x00000020 2019 年 3 月 7 日 Intel Core i7-5700EQ
                      Intel Xeon E3-1200-v4 系列
                      Avoton 0x406d8 0x01 0x0000012a 2018 年 1 月 4 日 Intel Atom C2300 系列
                      Intel Atom C2500 系列
                      Intel Atom C2700 系列
                      Broadwell EP/EX 0x406f1 0xef 0x0b000036 2019 年 3 月 2 日 Intel Xeon E7-8800/4800-v4 系列
                      Intel Xeon E5-4600-v4 系列
                      Intel Xeon E5-2600-v4 系列
                      Intel Xeon E5-1600-v4 系列
                      Skylake SP 0x50654 0xb7 0x0200005e 2019 年 4 月 2 日 Intel Xeon Platinum 8100 系列
                      Intel Xeon Gold 6100/5100、Silver 4100、Bronze 3100 系列
                      Intel Xeon D-2100 系列
                      Intel Xeon D-1600 系列
                      Intel Xeon W-3100 系列
                      Intel Xeon W-2100 系列
                      Cascade Lake B-0 0x50656 0xbf 0x04000024 2019 年 4 月 7 日 Intel Xeon Platinum 9200/8200 系列
                      Intel Xeon Gold 6200/5200
                      Intel Xeon Silver 4200/Bronze 3200
                      Intel Xeon W-3200
                      Cascade Lake 0x50657 0xbf 0x05000024 2019 年 4 月 7 日 Intel Xeon Platinum 9200/8200 系列
                      Intel Xeon Gold 6200/5200
                      Intel Xeon Silver 4200/Bronze 3200
                      Intel Xeon W-3200
                      Broadwell DE 0x50662 0x10 0x0000001a 2019 年 3 月 23 日 Intel Xeon D-1500 系列
                      Broadwell DE 0x50663 0x10 0x07000017 2019 年 3 月 23 日 Intel Xeon D-1500 系列
                      Broadwell DE 0x50664 0x10 0x0f000015 2019 年 3 月 23 日 Intel Xeon D-1500 系列
                      Broadwell-de NS 0x50665 0x10 0x0e00000d 2019 年 3 月 23 日 Intel Xeon D-1600 系列
                      Skylake H/S 0x506e3 0x36 0x000000cc 2019 年 4 月 1 日 Intel Xeon E3-1500-v5 系列
                      Intel Xeon E3-1200-v5 系列
                      Denverton 0x506f1 0x01 0x0000002e 2019 年 3 月 21 日 Intel Atom C3000 系列
                      Kaby Lake H/S/X 0x906e9 0x2a 0x000000b4 2019 年 4 月 1 日 Intel Xeon E3-1200-v6 系列
                      Intel Xeon E3-1500-v6 系列
                      Coffee Lake H/S 0x906ea 0x22 0x000000b4 2019 年 4 月 1 日 Intel Xeon E-2100 系列
                      Coffee Lake H/S 0x906eb 0x02 0x000000b4 2019 年 4 月 1 日 Intel Xeon E-2100 系列
                      Coffee Lake H/S 0x906ec 0x22 0x000000b8 2019 年 3 月 17 日 Intel Xeon E-2100 系列
                      Coffee Lake Refresh 0x906ed 0x22 0x000000b8 2019 年 3 月 17 日 Intel Xeon E-2200 系列
                    ESXi670-201908104-SG
                    修补程序类别 安全
                    修补程序严重性

                    重要

                    需要重新引导主机
                    需要迁移或关闭虚拟机
                    受影响的硬件 不适用
                    受影响的软件 不适用
                    包含的 VIB
                    • VMware_bootbank_esx-ui_1.33.4-14093553
                    已修复的 PR  不适用
                    CVE 编号 不适用

                    此修补程序更新了 esx-ui VIB。

                      ESXi-6.7.0-20190802001-standard
                      配置文件名称 ESXi-6.7.0-20190802001-standard
                      内部版本 有关内部版本信息,请参见本版本中包含的修补程序
                      供应商 VMware, Inc.
                      发布日期 2019 年 8 月 20 日
                      接受级别 合作伙伴支持
                      受影响的硬件 不适用
                      受影响的软件 不适用
                      受影响的 VIB
                      • VMware_bootbank_esx-update_6.7.0-3.73.14320388
                      • VMware_bootbank_vsan_6.7.0-3.73.14263135
                      • VMware_bootbank_vsanhealth_6.7.0-3.73.14263064
                      • VMware_bootbank_esx-base_6.7.0-3.73.14320388
                      • VMW_bootbank_igbn_0.1.1.0-5vmw.670.3.73.14320388
                      • VMW_bootbank_nvme_1.2.2.28-1vmw.670.3.73.14320388
                      • VMware_bootbank_qlnativefc_3.1.8.0-5vmw.670.3.73.14320388
                      • VMW_bootbank_lsi-mr3_7.708.07.00-3vmw.670.3.73.14320388
                      • VMW_bootbank_lsi-msgpt35_09.00.00.00-5vmw.670.3.73.14320388
                      • VMW_bootbank_lsi-msgpt3_17.00.02.00-1vmw.670.3.73.14320388
                      • VMW_bootbank_lsi-msgpt2_20.00.06.00-2vmw.670.3.73.14320388
                      • VMW_bootbank_i40en_1.8.1.9-2vmw.670.3.73.14320388
                      • VMW_bootbank_ixgben_1.7.1.16-1vmw.670.3.73.14320388
                      • VMW_bootbank_smartpqi_1.0.1.553-28vmw.670.3.73.14320388
                      • VMW_bootbank_bnxtnet_20.6.101.7-24vmw.670.3.73.14320388
                      • VMW_bootbank_elxnet_11.4.1097.0-5vmw.670.3.73.14320388
                      • VMW_bootbank_brcmfcoe_11.4.1078.25-14vmw.670.3.73.14320388
                      • VMW_bootbank_lpfc_11.4.33.25-14vmw.670.3.73.14320388
                      • VMW_bootbank_nenic_1.0.29.0-1vmw.670.3.73.14320388
                      • VMW_bootbank_vmw-ahci_1.2.8-1vmw.670.3.73.14320388
                      • VMW_bootbank_nmlx5-core_4.17.13.1-1vmw.670.3.73.14320388
                      • VMW_bootbank_nfnic_4.0.0.29-0vmw.670.3.73.14320388
                      • VMware_bootbank_esx-xserver_6.7.0-3.73.14320388
                      • VMW_bootbank_sfvmk_1.0.0.1003-6vmw.670.3.73.14320388
                      • VMware_locker_tools-light_10.3.10.12406962-14141615
                      • VMware_bootbank_cpu-microcode_6.7.0-2.69.14141615
                      • VMware_bootbank_esx-ui_1.33.4-14093553
                      已修复的 PR 2288428、2282206、2305377、2213824、2305719、2301374、2272250、2220008、2262288、2290043、2295425、2300124、2303227、2301818、2294347、2338914、2327317、2312215、2331247、2340952、2366745、2331525、2320309、2304092、2241121、2306836、2343913、2361711、2350171、2297765、2355516、2287232、2310826、2332785、2280742、2386930、2333442、2346582、2214222、2335847、2292419、2132634、2363202、2367669、2303016、2337889、2360408、2344159、2331369、2370239、2367142、2336379、2301231、2354762、2305414、2305410、2305404、2305406、2305405、2335120、2305407、2315656、2315652、2305412、2315684、2323424、2328263、2332785、2338914、2214222、2394247、2402409、2482603
                      相关的 CVE 编号 不适用
                      • 此修补程序更新了以下问题:
                        • 由于某些第三方设备驱动程序在处理命令时反复失败,虚拟机可能变得无响应。打开虚拟机控制台时,可能出现以下错误:
                          错误: 无法连接到 MKS: 无法在重试期间连接到管道 \\.\Pipe\vmware-authdpipe (Error: Unable to connect to the MKS: Could not connect to pipe \\.\pipe\vmware-authdpipe within retry period) 

                        • 在 ESXi 主机重新引导后,您可能会看不到使用容错解决方案的 Nutanix NFS 数据存储在 vCenter Server 系统中挂载。但是,可以在 ESXi 主机中看到卷。

                        • 在 NFS 版本 3 数据存储上运行的虚拟机经过一段时间后可能会开始性能下降。重新引导 ESXi 主机后,此虚拟机将再次开始正常运行。

                        • 如果虚拟机具有 SEsparse 快照,并且基本 VMDK 文件大小不是 4K 的倍数,则在从客户机操作系统或第三方应用程序查询 VMDK 的物理布局时,可能会发生物理 CPU 锁定。因此,ESXi 会出现故障并显示紫色诊断屏幕。

                        • 如果容器端口具有重复的虚拟接口 (VIF) 连接 ID,则在通过 vSphere Storage vMotion 使用容器端口迁移虚拟机时,迁移操作可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

                        • 如果您使用 pktcap-uw 语法,则 ESXi 主机可能会在 CNA 上的 UplinkRcv 捕获点处出现故障并显示紫色诊断屏幕。在捕获上行链路上的数据包时,如果设备没有关联的上行链路对象,则会出现此问题,这种情况很少见。

                        • 在 ESXi 6.7 Update 3 之前,vSphere Distributed Switch 6.6 版不支持基于物理网卡负载策略的路由。

                        • 通过网络引导虚拟机需要将虚拟机与网络引导服务器之间的距离限制为 15 个路由器。如果您的系统在虚拟机与引导所需的任何服务器(PXE、DHCP、DNS、TFTP)之间的路径上存在更多路由器,则此引导将失败,因为引导请求无法到达此服务器。

                        • 尽管存在用户身份验证,但每个 SNMPv3 对象标识符都可能会收到 GET 请求。因此,ESXi 主机可能会停止响应。

                        • 即使主机配置文件具有不合规的值,如最大传输单元 (MTU) 的大小,vSphere Web Client 或 vSphere Client 仍可能会将其显示为合规。此配置文件的修复会按预期运行,但不会反映在 vSphere Web Client 或 vSphere Client 中。

                        • 在嵌入式 VMware Host Client 或连接到 vCenter Server 系统的任何基于 Web 的应用程序(包括 vSphere Client 和 vSphere Web Client)中,可能会时不时看不到 ESXi 主机的性能图表。由于内部问题,hostd 会删除某些 ESXi 主机的可用性能计数器信息。

                        • 即使已在 ESXi 主机的固件设置中启用 C 状况,VMkernel 也无法正确地检测到所有 C 状况。esxtop 工具的功耗屏幕会显示 %C0 列(在 C 状况 0 下所用时间百分比)和 %C1 列(在 C 状况 1 下所用时间百分比),但不会显示 %C2 列。因此,无法最大程度地提高每瓦功耗的系统性能。

                        • 如果 ESXi 主机使用某一特定 BIOS 版本,而在该 BIOS 中启用了 Intel 可信执行技术 (TXT),则可能会在该主机启动阶段的早期触发断言失败。断言失败的类型为:
                          Panic: ASSERT bora/vmkernel/vmkBoot/x86/vmkBootTxt.c:2235

                        • 如果 ESXi 主机在被释放和分配给另一任务之间的这段时间尝试访问某个内存区域,则该主机可能会由于争用情况而出现故障并显示紫色诊断屏幕,此情况并不多见。

                        • 使用软件 iSCSI 适配器时,ESXi 主机可能会由于争用情况而出现故障并显示紫色诊断屏幕。

                        • 在 I/O 工作负载过重的情况下,ESXi 本机 vmw_ahci 驱动程序和第三方 AHCI 控制器固件(如 DELL BOSS-S1 适配器的固件)的 AHCI 规范差异可能会导致多个错误,包括存储故障错误或紫色诊断屏幕。

                        • 在 NSX 设置中使用 vSphere vMotion 执行跨集群迁移期间,虚拟机可能会断开连接,因为 NetX 筛选器可能会阻止传输到端口的流量。

                        • 当 VMDK 文件跨快照分配给不同的 SCSI 目标时,此问题特定于 vSphere Virtual Volumes 数据存储。VMDK 的锁定文件在不同的快照之间重新分配,然后在将虚拟机恢复到快照时,可能会错误地删除该锁定文件。由于缺少锁定文件,磁盘无法打开,并且虚拟机将无法打开电源。

                        • 具有 VMXNET3 虚拟网卡的虚拟机无法使用 Citrix PVS 引导程序启动。这是因为在从 PXE 引导过渡到客户机操作系统启动这段时间内未正确处理虚拟网络设备上的中断。因此,客户机操作系统无法启动虚拟网络设备,并且虚拟机也无法启动。

                        • 如果通过使用以下命令自定义物理网卡的 Rx 和 Tx 环大小来提升网络性能:
                          esxcli network nic ring current set -n -t 
                          esxcli network nic ring current set -n -r 
                          这些设置在 ESXi 主机重新引导后可能不会保留下来。

                        • 在虚拟机中启动 macOS 10.15 开发人员预览版时,操作系统可能会失败,并出现显示白色 Apple 徽标的空白屏幕。在详细模式下执行打开电源操作会在显示以下错误消息后停止响应:
                          Error unserializing prelink plist: OSUnserializeXML: syntax error near line 2
                          panic(...): "Unable to find driver for this platform: \"ACPI\".\n"@...

                        • 如果修改主机配置文件的 NetworkNicTeamingPolicy 或 SecurityPolicy 并将其更改为默认设置,则可能无法将该主机配置文件应用于 ESXi 主机,并会收到类似以下内容的错误:错误: 指定的参数不正确 (Error: A specified parameter was not correct)。

                        • 如果虚拟交换机的最大传输单元 (MTU) 大小小于为 VMkernel 端口配置的 MTU 大小,则 vMotion 操作可能会失败。如果在 vMotion 操作失败后立即执行热添加或 Storage vMotion 操作,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 任何模块的最大内存堆大小为 3 GB。如果请求的总内存大小超过 4 GB,则会出现整数溢出。因此,虚拟机接口的 MAC 地址会设置为 00:00:00:00:00:00,并且 VMXNET3 设备可能无法启动。在 VMkernel 日志中,您可能会看到类似以下内容的错误:Vmxnet3: 15204: Failed to allocate memory for tq 0

                        • 将多个虚拟机导出到一个文件夹时,VMDK 名称可能会发生冲突并由 Web 浏览器自动重命名。这会使导出的 OVF 文件无效。

                        • 如果使用已启用容器功能的 vSphere Distributed Switch 或 NSX-T 管理的 vSphere Distributed Switch,并且 ESXi 主机的版本为 6.7 或更低版本,则在升级或迁移操作期间,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 必须手动将声明规则添加到 Tegile 存储阵列的 ESXi 主机,才能将每秒 I/O 操作数设置为 1。

                        • 通过 vSphere Web Client 或 vSphere Client 置备即时克隆时,您可能会看到错误已与虚拟机断开连接 (Disconnected from virtual machine)。由于虚拟机可执行 (VMX) 进程失败,因此虚拟机无法打开电源。

                        • 如果启用了 vIOMMU,则在初始化 kdump 内核时,Linux 客户机操作系统可能会变得无响应。

                        • ESXi 主机可能无法监控 LSI 主机总线适配器 (HBA) 和已连接存储的运行状况。因此,在 HBA 运行状况下降时,vCenter Server 系统无法显示警报。必须安装第三方提供程序 LSI SMI-S CIM。有关详细信息,请参见 VMware 知识库文章 2001549

                        • 您可以使用 SCSIBindCompletionWorlds() 方法设置某个驱动程序的队列和域数量。不过,如果将 numQueues 参数设置为高于 1 的值,并将 numWorlds 参数设置为等于或小于 1 的值,则此 API 调用可能会返回结果,但不会释放持有的锁定。此时将导致死锁,而 ESXi 主机则可能出现故障并显示紫色诊断屏幕。

                        • 如果虚拟机使用 Windows 10 版本 1809 并具有快照且在 VMFS6 数据存储上运行,则该虚拟机可能会在启动阶段启动缓慢或停止响应。

                        • 如果与 NFS41 数据存储的连接间歇性失败,ESXi 主机可能会由于在完成 I/O 时发生 NullPointerException 而出现故障并显示紫色诊断屏幕。

                        • 如果您使用的 ESXi 主机具有 CD-ROM 驱动器型号 DU-8A5LH,那么 CD-ROM 驱动器可能会报告未知的帧信息结构 (FIS) 异常。vmw_ahci 驱动程序无法正确处理该异常,并在内核中重复创建 PORT_IRQ_UNK_FIS 异常日志。重复日志导致缺少物理 CPU 检测信号,并且 ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 对于 DvFilter 虚拟交换机,get-set 防火墙规则操作出现争用情况可能会导致缓冲区溢出和堆损坏。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 在实时迁移具有 NVIDIA GRID vGPU 的虚拟机的计算和存储资源期间,可能会发生内存损坏。迁移会成功完成,但正在运行的应用程序可能无法在目标主机上继续运行。 

                        • 对于配置了最大数量的虚拟设备以及 PCI 直通的虚拟机,如果超过此限制,则该虚拟机可能无法打开电源。
                          该问题会在 vmware.log 文件中通过一条类似于以下内容的严重错误日志进行标识:vmx| E105: PANIC: VERIFY bora/devices/pci/pci.c:1529。

                        • ESXi 6.7 Update 2 引入了与 Intel Skylake CPU 错误相关的修复。此修复会影响硬件配置,并会触发一些健全性检查,因此 ESXi 主机会执行完整的系统重新引导,而不是 Quick Boot。在将 ESXi 主机从不含此修复的版本更新到含此修复的版本期间,如果为此更新启用了 Quick Boot,则此问题会发生一次。

                        • 多个 Xorg 脚本可能会并行运行并相互干扰。因此,在具有多个 GPU 的系统上,Xorg 脚本可能无法启动。

                        • 使用 esxcli network nic get -n vmnicX 命令获取 Mellanox ConnectX5 设备上的自动协商状态时,即使在物理交换机上启用了该功能,状态也可能会显示为 False。

                        • 在将运行 Microsoft Windows Server 2008 或更高版本的虚拟机置于静默状态时,系统会创建应用程序静默快照。最大并发快照数为 32,此值太高,因为在快照操作任务跟踪中使用的线程太多。因此,hostd 服务可能会变得无响应。

                        • hostd 服务有时会在重构 VDI 池时失败,并显示错误消息 VmfsExtentCommonOpen: VmfsExtentParseExtentLine 失败 (VmfsExtentCommonOpen: VmfsExtentParseExtentLine failed)。您会看到 ESXi 主机的 /var/core/ 目录下生成 hostd-worker-zdump 文件。

                        • 在 vSphere Web Client 中,为虚拟机级别 vSphere Virtual Volumes 数据存储的性能图表显示的读取或写入延迟不正确。因此,监控服务会显示这些虚拟机处于严重状态。

                        • 在解压缩 ESXi 6.7 上运行的虚拟机的内存页期间,压缩窗口大小检查可能会失败。因此,此虚拟机可能会停止响应并重新启动。在 VMkernel 日志的回溯追踪中,您可能会看到类似以下内容的条目:
                          Unable to decompress BPN(0x1005ef842) from frameIndex(0x32102f0) block 0 for VM(6609526)

                          0x451a55f1baf0:[0x41802ed3d040]WorldPanicWork
                          0x451a55f1bb50:[0x41802ed3d285]World_Panic
                          0x451a55f1bcc0:[0x41802edb3002]VmMemIO_FaultCompressedPage
                          0x451a55f1bd20:[0x41802edbf72f]VmMemPfCompressed
                          0x451a55f1bd70:[0x41802edc033b]VmMemPfInt
                          0x451a55f1be10:[0x41802edc0d4f]VmMemPf
                          0x451a55f1be80:[0x41802edc108e]VmMemPfLockPageInt
                          0x451a55f1bef0:[0x41802edc3517]VmMemPf_LockPage
                          0x451a55f1bfa0:[0x41802ed356e6]VMMVMKCall_Call
                          0x451a55f1bfe0:[0x41802ed59e5d]VMKVMM_ArchEnterVMKernel

                        • 由于调度逻辑中存在错误,ESXi 主机资源管理器的并发上下文数量可能会超出最大值 512。如果出现辅助主机或网络速度缓慢的问题,可能会导致出现 DiskQueue 已满 (DiskQueue is full) 错误,并在 Site Recovery Manager 运行的操作中使虚拟机同步失败。

                        • 如果未在 ESXi 主机中配置默认路由,则在发送的 SNMP 陷阱的有效负载中,ESXi SNMP 代理的 IP 地址顺序可能会相反。例如,如果 SNMP 代理的 IP 地址为 172.16.0.10,则在该有效负载中,此 IP 地址为 10.0.16.172。因此,SNMP 陷阱会使用该有效负载中 ESXi SNMP 代理的错误 IP 地址访问目标。

                        • 如果虚拟机正在运行使用特定 3D 状态和着色器的应用程序,并使用了软件 3D 加速,则该虚拟机可能会停止响应。

                        • 当客户机发送启用了路由头的 IPv6 校验和卸载时,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 当 ESXi 主机从 PShare 链中移除 PShare 提示时,如果 PShare 链已损坏,则 ESXi 主机可能会出现故障并显示紫色诊断屏幕和类似以下内容的错误:
                          0x43920bd9bdc0:[0x41800c5930d6]VmMemCow_PShareRemoveHint
                          0x43920bd9be00:[0x41800c593172]VmMemCowPFrameRemoveHint
                          0x43920bd9be30:[0x41800c594fc8]VmMemCowPShareFn@vmkernel
                          0x43920bd9bf80:[0x41800c500ef4]VmAssistantProcessTasks@vmkernel
                          0x43920bd9bfe0:[0x41800c6cae05]CpuSched_StartWorld@vmkernel

                        • 当虚拟机使用连接到虚拟串行端口集中器 (vSPC) 的远程串行端口(其中 DNS 名称是 vSPC 的地址)时,如果在使用 vMotion 执行迁移过程中发生 DNS 故障,该虚拟机可能会关闭电源。

                        • 如果更改具有 PCI 直通设备的虚拟机的硬件兼容性级别,则该设备可能会在此过程中从该虚拟机中移除。

                        • 如果通过使用命令行运行命令来设置 pNIC 别名,则 esx.conf 中为相应 pNIC 保存的 MAC 地址的格式会不正确。使用的命令如下:
                          localcli --plugin-dir /usr/lib/vmware/esxcli/int/ deviceInternal alias store --bus-type pci --alias vmnicX --bus-address XX

                        • 只有当 SATP 为 VMW_SATP_LOCAL 时,才会出现此问题。在 ESXi 6.0 中,如果使用格式不正确的配置选项添加 SATP 为 VMW_SATP_LOCAL 的声明规则,则 NMP/SATP 插件将无法识别该选项,因此在升级到更高的 ESXi 版本时将无法发现该设备。
                          您可能会看到类似以下内容的日志条目:
                          2018-11-20T02:10:36.333Z cpu1:66089)WARNING: NMP: nmp_DeviceAlloc:2048: nmp_AddPathToDevice failed Bad parameter (195887111).
                          2018-11-20T02:10:36.333Z cpu1:66089)WARNING: ScsiPath: 6615: Plugin 'NMP' had an error (Bad parameter) while claiming path 'vmhba0:C0:T2:L0'.Skipping the path

                        • 对于 DvFilter 虚拟交换机,get-set 防火墙规则操作出现争用情况可能会导致缓冲区溢出和堆损坏。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 无论服务器控制器是否显示警告,vCenter Server 系统硬件运行状况可能都不会显示 DIMM 上的故障。例如,Dell M630 服务器中的 Dell 远程访问控制器可能会显示 DIMM 中的警告,但在 vCenter Server 系统中看不到任何警示或警报。

                        • 对 NVMe 驱动程序的更新修复了 Intel SSD DC P4600 系列上运行的设备的性能开销问题。

                        • qlnativefc 驱动程序已更新到版本 3.1.8.0。

                        • lsi_mr3 驱动程序已更新到版本 MR 7.8。

                        • lsi_msgpt35 驱动程序已更新到版本 09.00.00.00-5vmw。

                        • i40en 驱动程序已更新到版本 1.8.1.9-2。

                        • lsi_msgpt3 驱动程序已更新到版本 17.00.02.00-1vmw。

                        • lsi_msgpt2 驱动程序已更新到版本 20.00.06.00-2。

                        • ixgben 驱动程序增加了队列配对功能以优化 CPU 效率。

                        • smartpqi 驱动程序已更新到版本 1.0.1.553-28。

                        • ESXi 6.7 Update 3 为 bnxtnet 驱动程序增加了 Broadcom 100G 网络适配器和多 RSS 源支持。

                        • elxnet 驱动程序的问题可能会导致使用该驱动程序的网卡断开连接。在 ESXi 主机内核日志中,您可能会看到类似以下内容的警告: 
                          WARNING: elxnet: elxnet_workerThread:2122: [vmnic3] GetStats: MCC cmd timed out. timeout:36 
                          WARNING: elxnet: elxnet_detectDumpUe:416: [vmnic3] Recoverable HW error detected

                        • nenic 驱动程序已更新到版本 1.0.29.0。

                        • 如果修改主机配置文件的 NetworkNicTeamingPolicy 或 SecurityPolicy 并将其更改为默认设置,则可能无法将该主机配置文件应用于 ESXi 主机,并会收到类似以下内容的错误:错误: 指定的参数不正确 (Error: A specified parameter was not correct)。

                        • 如果通过使用以下命令自定义物理网卡的 Rx 和 Tx 环大小来提升网络性能:
                          esxcli network nic ring current set -n -t 
                          esxcli network nic ring current set -n -r 
                          这些设置在 ESXi 主机重新引导后可能不会保留下来。

                        • 如果使用已启用容器功能的 vSphere Distributed Switch 或 NSX-T 管理的 vSphere Distributed Switch,并且 ESXi 主机的版本为 6.7 或更低版本,则在升级或迁移操作期间,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 当客户机发送启用了路由头的 IPv6 校验和卸载时,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 如果通过使用命令行运行命令来设置 pNIC 别名,则 esx.conf 中为相应 pNIC 保存的 MAC 地址的格式会不正确。使用的命令如下:
                          localcli --plugin-dir /usr/lib/vmware/esxcli/int/ deviceInternal alias store --bus-type pci --alias vmnicX --bus-address XX

                        • 如果上行链路名称未采用诸如 vmnicX(其中 X 是一个数字)之类的格式,则 LACP 将不起作用。

                        • 配置 LAG 时,如果包成员出现波动,则会为该 LAG 显示错误的 VMkernel 观察消息:失败条件: 0 (Failed Criteria: 0)。

                        • 在微码更新后,有时需要重新枚举 ESXi 服务器上虚拟机的 CPUID。通过使用配置参数 vmx.reboot.powerCycle = TRUE,您可以将虚拟机调度为在必要时重新启动。

                        • 在创建快照时,虚拟机可能会关闭电源并出现故障,并显示类似以下内容的错误:
                          2019-01-01T01:23:40.047Z| vcpu-0| I125: DISKLIB-CTK : Failed to mmap change bitmap of size 167936: Cannot allocate memory.
                          2019-01-01T01:23:40.217Z| vcpu-0| I125: DISKLIB-LIB_BLOCKTRACK : Could not open change tracker /vmfs/volumes/DATASTORE_UUID/VM_NAME/VM_NAME_1-ctk.vmdk: Not enough memory for change tracking.

                          之所以出现此错误,是因为缺少为 CBT 位图分配的内存。

                        • 如果 ESXi 主机上的同一网卡驱动程序具有不支持 SR-IOV 的物理网卡和支持 SR-IOV 的其他物理网卡,则您可能会从 EXCLI 命令集和 vSphere Client 或 vSphere Web Client 看到不同的信息。例如,从 ESXCLI 命令集中,您可能会看到 vmnic 16、17 和 18 已配置 SR-IOV,而在 vSphere Client 中,您可能会看到 vmnic 6、7 和 8 已配置 SR-IOV。
                      ESXi-6.7.0-20190802001-no-tools
                      配置文件名称 ESXi-6.7.0-20190802001-no-tools
                      内部版本 有关内部版本信息,请参见本版本中包含的修补程序
                      供应商 VMware, Inc.
                      发布日期 2019 年 8 月 20 日
                      接受级别 合作伙伴支持
                      受影响的硬件 不适用
                      受影响的软件 不适用
                      受影响的 VIB
                      • VMware_bootbank_esx-update_6.7.0-3.73.14320388
                      • VMware_bootbank_vsan_6.7.0-3.73.14263135
                      • VMware_bootbank_vsanhealth_6.7.0-3.73.14263064
                      • VMware_bootbank_esx-base_6.7.0-3.73.14320388
                      • VMW_bootbank_igbn_0.1.1.0-5vmw.670.3.73.14320388
                      • VMW_bootbank_nvme_1.2.2.28-1vmw.670.3.73.14320388
                      • VMware_bootbank_qlnativefc_3.1.8.0-5vmw.670.3.73.14320388
                      • VMW_bootbank_lsi-mr3_7.708.07.00-3vmw.670.3.73.14320388
                      • VMW_bootbank_lsi-msgpt35_09.00.00.00-5vmw.670.3.73.14320388
                      • VMW_bootbank_lsi-msgpt3_17.00.02.00-1vmw.670.3.73.14320388
                      • VMW_bootbank_lsi-msgpt2_20.00.06.00-2vmw.670.3.73.14320388
                      • VMW_bootbank_i40en_1.8.1.9-2vmw.670.3.73.14320388
                      • VMW_bootbank_ixgben_1.7.1.16-1vmw.670.3.73.14320388
                      • VMW_bootbank_smartpqi_1.0.1.553-28vmw.670.3.73.14320388
                      • VMW_bootbank_bnxtnet_20.6.101.7-24vmw.670.3.73.14320388
                      • VMW_bootbank_elxnet_11.4.1097.0-5vmw.670.3.73.14320388
                      • VMW_bootbank_brcmfcoe_11.4.1078.25-14vmw.670.3.73.14320388
                      • VMW_bootbank_lpfc_11.4.33.25-14vmw.670.3.73.14320388
                      • VMW_bootbank_nenic_1.0.29.0-1vmw.670.3.73.14320388
                      • VMW_bootbank_vmw-ahci_1.2.8-1vmw.670.3.73.14320388
                      • VMW_bootbank_nmlx5-core_4.17.13.1-1vmw.670.3.73.14320388
                      • VMW_bootbank_nfnic_4.0.0.29-0vmw.670.3.73.14320388
                      • VMware_bootbank_esx-xserver_6.7.0-3.73.14320388
                      • VMW_bootbank_sfvmk_1.0.0.1003-6vmw.670.3.73.14320388
                      • VMware_bootbank_cpu-microcode_6.7.0-2.69.14141615
                      • VMware_bootbank_esx-ui_1.33.4-14093553
                      已修复的 PR 2288428、2282206、2305377、2213824、2305719、2301374、2272250、2220008、2262288、2290043、2295425、2300124、2303227、2301818、2294347、2338914、2327317、2312215、2331247、2340952、2366745、2331525、2320309、2304092、2241121、2306836、2343913、2361711、2350171、2297765、2355516、2287232、2310826、2332785、2280742、2386930、2333442、2346582、2214222、2335847、2292419、2132634、2363202、2367669、2303016、2337889、2360408、2344159、2331369、2370239、2367142、2336379、2301231、2354762、2305414、2305410、2305404、2305406、2305405、2335120、2305407、2315656、2315652、2305412、2315684、2323424、2328263、2332785、2338914、2214222、2394247、2402409、2482603
                      相关的 CVE 编号 不适用
                      • 此修补程序更新了以下问题:
                        • 由于某些第三方设备驱动程序在处理命令时反复失败,虚拟机可能变得无响应。打开虚拟机控制台时,可能出现以下错误:
                          错误: 无法连接到 MKS: 无法在重试期间连接到管道 \\.\Pipe\vmware-authdpipe (Error: Unable to connect to the MKS: Could not connect to pipe \\.\pipe\vmware-authdpipe within retry period) 

                        • 在 ESXi 主机重新引导后,您可能会看不到使用容错解决方案的 Nutanix NFS 数据存储在 vCenter Server 系统中挂载。但是,可以在 ESXi 主机中看到卷。

                        • 在 NFS 版本 3 数据存储上运行的虚拟机经过一段时间后可能会开始性能下降。重新引导 ESXi 主机后,此虚拟机将再次开始正常运行。

                        • 如果虚拟机具有 SEsparse 快照,并且基本 VMDK 文件大小不是 4K 的倍数,则在从客户机操作系统或第三方应用程序查询 VMDK 的物理布局时,可能会发生物理 CPU 锁定。因此,ESXi 会出现故障并显示紫色诊断屏幕。

                        • 如果容器端口具有重复的虚拟接口 (VIF) 连接 ID,则在通过 vSphere Storage vMotion 使用容器端口迁移虚拟机时,迁移操作可能会导致 ESXi 主机出现故障并显示紫色诊断屏幕。

                        • 如果您使用 pktcap-uw 语法,则 ESXi 主机可能会在 CNA 上的 UplinkRcv 捕获点处出现故障并显示紫色诊断屏幕。在捕获上行链路上的数据包时,如果设备没有关联的上行链路对象,则会出现此问题,这种情况很少见。

                        • 在 ESXi 6.7 Update 3 之前,vSphere Distributed Switch 6.6 版不支持基于物理网卡负载策略的路由。

                        • 通过网络引导虚拟机需要将虚拟机与网络引导服务器之间的距离限制为 15 个路由器。如果您的系统在虚拟机与引导所需的任何服务器(PXE、DHCP、DNS、TFTP)之间的路径上存在更多路由器,则此引导将失败,因为引导请求无法到达此服务器。

                        • 尽管存在用户身份验证,但每个 SNMPv3 对象标识符都可能会收到 GET 请求。因此,ESXi 主机可能会停止响应。

                        • 即使主机配置文件具有不合规的值,如最大传输单元 (MTU) 的大小,vSphere Web Client 或 vSphere Client 仍可能会将其显示为合规。此配置文件的修复会按预期运行,但不会反映在 vSphere Web Client 或 vSphere Client 中。

                        • 在嵌入式 VMware Host Client 或连接到 vCenter Server 系统的任何基于 Web 的应用程序(包括 vSphere Client 和 vSphere Web Client)中,可能会时不时看不到 ESXi 主机的性能图表。由于内部问题,hostd 会删除某些 ESXi 主机的可用性能计数器信息。

                        • 即使已在 ESXi 主机的固件设置中启用 C 状况,VMkernel 也无法正确地检测到所有 C 状况。esxtop 工具的功耗屏幕会显示 %C0 列(在 C 状况 0 下所用时间百分比)和 %C1 列(在 C 状况 1 下所用时间百分比),但不会显示 %C2 列。因此,无法最大程度地提高每瓦功耗的系统性能。

                        • 如果 ESXi 主机使用某一特定 BIOS 版本,而在该 BIOS 中启用了 Intel 可信执行技术 (TXT),则可能会在该主机启动阶段的早期触发断言失败。断言失败的类型为:
                          Panic: ASSERT bora/vmkernel/vmkBoot/x86/vmkBootTxt.c:2235

                        • 如果 ESXi 主机在被释放和分配给另一任务之间的这段时间尝试访问某个内存区域,则该主机可能会由于争用情况而出现故障并显示紫色诊断屏幕,此情况并不多见。

                        • 使用软件 iSCSI 适配器时,ESXi 主机可能会由于争用情况而出现故障并显示紫色诊断屏幕。

                        • 在 I/O 工作负载过重的情况下,ESXi 本机 vmw_ahci 驱动程序和第三方 AHCI 控制器固件(如 DELL BOSS-S1 适配器的固件)的 AHCI 规范差异可能会导致多个错误,包括存储故障错误或紫色诊断屏幕。

                        • 在 NSX 设置中使用 vSphere vMotion 执行跨集群迁移期间,虚拟机可能会断开连接,因为 NetX 筛选器可能会阻止传输到端口的流量。

                        • 当 VMDK 文件跨快照分配给不同的 SCSI 目标时,此问题特定于 vSphere Virtual Volumes 数据存储。VMDK 的锁定文件在不同的快照之间重新分配,然后在将虚拟机恢复到快照时,可能会错误地删除该锁定文件。由于缺少锁定文件,磁盘无法打开,并且虚拟机将无法打开电源。

                        • 具有 VMXNET3 虚拟网卡的虚拟机无法使用 Citrix PVS 引导程序启动。这是因为在从 PXE 引导过渡到客户机操作系统启动这段时间内未正确处理虚拟网络设备上的中断。因此,客户机操作系统无法启动虚拟网络设备,并且虚拟机也无法启动。

                        • 如果通过使用以下命令自定义物理网卡的 Rx 和 Tx 环大小来提升网络性能:
                          esxcli network nic ring current set -n -t 
                          esxcli network nic ring current set -n -r 
                          这些设置在 ESXi 主机重新引导后可能不会保留下来。

                        • 在虚拟机中启动 macOS 10.15 开发人员预览版时,操作系统可能会失败,并出现显示白色 Apple 徽标的空白屏幕。在详细模式下执行打开电源操作会在显示以下错误消息后停止响应:
                          Error unserializing prelink plist: OSUnserializeXML: syntax error near line 2
                          panic(...): "Unable to find driver for this platform: \"ACPI\".\n"@...

                        • 如果修改主机配置文件的 NetworkNicTeamingPolicy 或 SecurityPolicy 并将其更改为默认设置,则可能无法将该主机配置文件应用于 ESXi 主机,并会收到类似以下内容的错误:错误: 指定的参数不正确 (Error: A specified parameter was not correct)。

                        • 如果虚拟交换机的最大传输单元 (MTU) 大小小于为 VMkernel 端口配置的 MTU 大小,则 vMotion 操作可能会失败。如果在 vMotion 操作失败后立即执行热添加或 Storage vMotion 操作,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 任何模块的最大内存堆大小为 3 GB。如果请求的总内存大小超过 4 GB,则会出现整数溢出。因此,虚拟机接口的 MAC 地址会设置为 00:00:00:00:00:00,并且 VMXNET3 设备可能无法启动。在 VMkernel 日志中,您可能会看到类似以下内容的错误:Vmxnet3: 15204: Failed to allocate memory for tq 0

                        • 将多个虚拟机导出到一个文件夹时,VMDK 名称可能会发生冲突并由 Web 浏览器自动重命名。这会使导出的 OVF 文件无效。

                        • 如果使用已启用容器功能的 vSphere Distributed Switch 或 NSX-T 管理的 vSphere Distributed Switch,并且 ESXi 主机的版本为 6.7 或更低版本,则在升级或迁移操作期间,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 必须手动将声明规则添加到 Tegile 存储阵列的 ESXi 主机,才能将每秒 I/O 操作数设置为 1。

                        • 通过 vSphere Web Client 或 vSphere Client 置备即时克隆时,您可能会看到错误已与虚拟机断开连接 (Disconnected from virtual machine)。由于虚拟机可执行 (VMX) 进程失败,因此虚拟机无法打开电源。

                        • 如果启用了 vIOMMU,则在初始化 kdump 内核时,Linux 客户机操作系统可能会变得无响应。

                        • ESXi 主机可能无法监控 LSI 主机总线适配器 (HBA) 和已连接存储的运行状况。因此,在 HBA 运行状况下降时,vCenter Server 系统无法显示警报。必须安装第三方提供程序 LSI SMI-S CIM。有关详细信息,请参见 VMware 知识库文章 2001549

                        • 您可以使用 SCSIBindCompletionWorlds() 方法设置某个驱动程序的队列和域数量。不过,如果将 numQueues 参数设置为高于 1 的值,并将 numWorlds 参数设置为等于或小于 1 的值,则此 API 调用可能会返回结果,但不会释放持有的锁定。此时将导致死锁,而 ESXi 主机则可能出现故障并显示紫色诊断屏幕。

                        • 如果虚拟机使用 Windows 10 版本 1809 并具有快照且在 VMFS6 数据存储上运行,则该虚拟机可能会在启动阶段启动缓慢或停止响应。

                        • 如果与 NFS41 数据存储的连接间歇性失败,ESXi 主机可能会由于在完成 I/O 时发生 NullPointerException 而出现故障并显示紫色诊断屏幕。

                        • 如果您使用的 ESXi 主机具有 CD-ROM 驱动器型号 DU-8A5LH,那么 CD-ROM 驱动器可能会报告未知的帧信息结构 (FIS) 异常。vmw_ahci 驱动程序无法正确处理该异常,并在内核中重复创建 PORT_IRQ_UNK_FIS 异常日志。重复日志导致缺少物理 CPU 检测信号,并且 ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 对于 DvFilter 虚拟交换机,get-set 防火墙规则操作出现争用情况可能会导致缓冲区溢出和堆损坏。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 在实时迁移具有 NVIDIA GRID vGPU 的虚拟机的计算和存储资源期间,可能会发生内存损坏。迁移会成功完成,但正在运行的应用程序可能无法在目标主机上继续运行。 

                        • 对于配置了最大数量的虚拟设备以及 PCI 直通的虚拟机,如果超过此限制,则该虚拟机可能无法打开电源。
                          该问题会在 vmware.log 文件中通过一条类似于以下内容的严重错误日志进行标识:vmx| E105: PANIC: VERIFY bora/devices/pci/pci.c:1529。

                        • ESXi 6.7 Update 2 引入了与 Intel Skylake CPU 错误相关的修复。此修复会影响硬件配置,并会触发一些健全性检查,因此 ESXi 主机会执行完整的系统重新引导,而不是 Quick Boot。在将 ESXi 主机从不含此修复的版本更新到含此修复的版本期间,如果为此更新启用了 Quick Boot,则此问题会发生一次。

                        • 多个 Xorg 脚本可能会并行运行并相互干扰。因此,在具有多个 GPU 的系统上,Xorg 脚本可能无法启动。

                        • 使用 esxcli network nic get -n vmnicX 命令获取 Mellanox ConnectX5 设备上的自动协商状态时,即使在物理交换机上启用了该功能,状态也可能会显示为 False。

                        • 在将运行 Microsoft Windows Server 2008 或更高版本的虚拟机置于静默状态时,系统会创建应用程序静默快照。最大并发快照数为 32,此值太高,因为在快照操作任务跟踪中使用的线程太多。因此,hostd 服务可能会变得无响应。

                        • hostd 服务有时会在重构 VDI 池时失败,并显示错误消息 VmfsExtentCommonOpen: VmfsExtentParseExtentLine 失败 (VmfsExtentCommonOpen: VmfsExtentParseExtentLine failed)。您会看到 ESXi 主机的 /var/core/ 目录下生成 hostd-worker-zdump 文件。

                        • 在 vSphere Web Client 中,为虚拟机级别 vSphere Virtual Volumes 数据存储的性能图表显示的读取或写入延迟不正确。因此,监控服务会显示这些虚拟机处于严重状态。

                        • 在解压缩 ESXi 6.7 上运行的虚拟机的内存页期间,压缩窗口大小检查可能会失败。因此,此虚拟机可能会停止响应并重新启动。在 VMkernel 日志的回溯追踪中,您可能会看到类似以下内容的条目:
                          Unable to decompress BPN(0x1005ef842) from frameIndex(0x32102f0) block 0 for VM(6609526)

                          0x451a55f1baf0:[0x41802ed3d040]WorldPanicWork
                          0x451a55f1bb50:[0x41802ed3d285]World_Panic
                          0x451a55f1bcc0:[0x41802edb3002]VmMemIO_FaultCompressedPage
                          0x451a55f1bd20:[0x41802edbf72f]VmMemPfCompressed
                          0x451a55f1bd70:[0x41802edc033b]VmMemPfInt
                          0x451a55f1be10:[0x41802edc0d4f]VmMemPf
                          0x451a55f1be80:[0x41802edc108e]VmMemPfLockPageInt
                          0x451a55f1bef0:[0x41802edc3517]VmMemPf_LockPage
                          0x451a55f1bfa0:[0x41802ed356e6]VMMVMKCall_Call
                          0x451a55f1bfe0:[0x41802ed59e5d]VMKVMM_ArchEnterVMKernel

                        • 由于调度逻辑中存在错误,ESXi 主机资源管理器的并发上下文数量可能会超出最大值 512。如果出现辅助主机或网络速度缓慢的问题,可能会导致出现 DiskQueue 已满 (DiskQueue is full) 错误,并在 Site Recovery Manager 运行的操作中使虚拟机同步失败。

                        • 如果未在 ESXi 主机中配置默认路由,则在发送的 SNMP 陷阱的有效负载中,ESXi SNMP 代理的 IP 地址顺序可能会相反。例如,如果 SNMP 代理的 IP 地址为 172.16.0.10,则在该有效负载中,此 IP 地址为 10.0.16.172。因此,SNMP 陷阱会使用该有效负载中 ESXi SNMP 代理的错误 IP 地址访问目标。

                        • 如果虚拟机正在运行使用特定 3D 状态和着色器的应用程序,并使用了软件 3D 加速,则该虚拟机可能会停止响应。

                        • 当客户机发送启用了路由头的 IPv6 校验和卸载时,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 当 ESXi 主机从 PShare 链中移除 PShare 提示时,如果 PShare 链已损坏,则 ESXi 主机可能会出现故障并显示紫色诊断屏幕和类似以下内容的错误:
                          0x43920bd9bdc0:[0x41800c5930d6]VmMemCow_PShareRemoveHint
                          0x43920bd9be00:[0x41800c593172]VmMemCowPFrameRemoveHint
                          0x43920bd9be30:[0x41800c594fc8]VmMemCowPShareFn@vmkernel
                          0x43920bd9bf80:[0x41800c500ef4]VmAssistantProcessTasks@vmkernel
                          0x43920bd9bfe0:[0x41800c6cae05]CpuSched_StartWorld@vmkernel

                        • 当虚拟机使用连接到虚拟串行端口集中器 (vSPC) 的远程串行端口(其中 DNS 名称是 vSPC 的地址)时,如果在使用 vMotion 执行迁移过程中发生 DNS 故障,该虚拟机可能会关闭电源。

                        • 如果更改具有 PCI 直通设备的虚拟机的硬件兼容性级别,则该设备可能会在此过程中从该虚拟机中移除。

                        • 如果通过使用命令行运行命令来设置 pNIC 别名,则 esx.conf 中为相应 pNIC 保存的 MAC 地址的格式会不正确。使用的命令如下:
                          localcli --plugin-dir /usr/lib/vmware/esxcli/int/ deviceInternal alias store --bus-type pci --alias vmnicX --bus-address XX

                        • 只有当 SATP 为 VMW_SATP_LOCAL 时,才会出现此问题。在 ESXi 6.0 中,如果使用格式不正确的配置选项添加 SATP 为 VMW_SATP_LOCAL 的声明规则,则 NMP/SATP 插件将无法识别该选项,因此在升级到更高的 ESXi 版本时将无法发现该设备。
                          您可能会看到类似以下内容的日志条目:
                          2018-11-20T02:10:36.333Z cpu1:66089)WARNING: NMP: nmp_DeviceAlloc:2048: nmp_AddPathToDevice failed Bad parameter (195887111).
                          2018-11-20T02:10:36.333Z cpu1:66089)WARNING: ScsiPath: 6615: Plugin 'NMP' had an error (Bad parameter) while claiming path 'vmhba0:C0:T2:L0'.Skipping the path

                        • 对于 DvFilter 虚拟交换机,get-set 防火墙规则操作出现争用情况可能会导致缓冲区溢出和堆损坏。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 无论服务器控制器是否显示警告,vCenter Server 系统硬件运行状况可能都不会显示 DIMM 上的故障。例如,Dell M630 服务器中的 Dell 远程访问控制器可能会显示 DIMM 中的警告,但在 vCenter Server 系统中看不到任何警示或警报。

                        • 对 NVMe 驱动程序的更新修复了 Intel SSD DC P4600 系列上运行的设备的性能开销问题。

                        • qlnativefc 驱动程序已更新到版本 3.1.8.0。

                        • lsi_mr3 驱动程序已更新到版本 MR 7.8。

                        • lsi_msgpt35 驱动程序已更新到版本 09.00.00.00-5vmw。

                        • i40en 驱动程序已更新到版本 1.8.1.9-2。

                        • lsi_msgpt3 驱动程序已更新到版本 17.00.02.00-1vmw。

                        • lsi_msgpt2 驱动程序已更新到版本 20.00.06.00-2。

                        • ixgben 驱动程序增加了队列配对功能以优化 CPU 效率。

                        • smartpqi 驱动程序已更新到版本 1.0.1.553-28。

                        • ESXi 6.7 Update 3 为 bnxtnet 驱动程序增加了 Broadcom 100G 网络适配器和多 RSS 源支持。

                        • elxnet 驱动程序的问题可能会导致使用该驱动程序的网卡断开连接。在 ESXi 主机内核日志中,您可能会看到类似以下内容的警告: 
                          WARNING: elxnet: elxnet_workerThread:2122: [vmnic3] GetStats: MCC cmd timed out. timeout:36 
                          WARNING: elxnet: elxnet_detectDumpUe:416: [vmnic3] Recoverable HW error detected

                        • nenic 驱动程序已更新到版本 1.0.29.0。

                        • 如果修改主机配置文件的 NetworkNicTeamingPolicy 或 SecurityPolicy 并将其更改为默认设置,则可能无法将该主机配置文件应用于 ESXi 主机,并会收到类似以下内容的错误:错误: 指定的参数不正确 (Error: A specified parameter was not correct)。

                        • 如果通过使用以下命令自定义物理网卡的 Rx 和 Tx 环大小来提升网络性能:
                          esxcli network nic ring current set -n -t 
                          esxcli network nic ring current set -n -r 
                          这些设置在 ESXi 主机重新引导后可能不会保留下来。

                        • 如果使用已启用容器功能的 vSphere Distributed Switch 或 NSX-T 管理的 vSphere Distributed Switch,并且 ESXi 主机的版本为 6.7 或更低版本,则在升级或迁移操作期间,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 当客户机发送启用了路由头的 IPv6 校验和卸载时,ESXi 主机可能会出现故障并显示紫色诊断屏幕。

                        • 如果通过使用命令行运行命令来设置 pNIC 别名,则 esx.conf 中为相应 pNIC 保存的 MAC 地址的格式会不正确。使用的命令如下:
                          localcli --plugin-dir /usr/lib/vmware/esxcli/int/ deviceInternal alias store --bus-type pci --alias vmnicX --bus-address XX

                        • 如果上行链路名称未采用诸如 vmnicX(其中 X 是一个数字)之类的格式,则 LACP 将不起作用。

                        • 配置 LAG 时,如果包成员出现波动,则会为该 LAG 显示错误的 VMkernel 观察消息:失败条件: 0 (Failed Criteria: 0)。

                        • 在微码更新后,有时需要重新枚举 ESXi 服务器上虚拟机的 CPUID。通过使用配置参数 vmx.reboot.powerCycle = TRUE,您可以将虚拟机调度为在必要时重新启动。

                        • 在创建快照时,虚拟机可能会关闭电源并出现故障,并显示类似以下内容的错误:
                          2019-01-01T01:23:40.047Z| vcpu-0| I125: DISKLIB-CTK : Failed to mmap change bitmap of size 167936: Cannot allocate memory.
                          2019-01-01T01:23:40.217Z| vcpu-0| I125: DISKLIB-LIB_BLOCKTRACK : Could not open change tracker /vmfs/volumes/DATASTORE_UUID/VM_NAME/VM_NAME_1-ctk.vmdk: Not enough memory for change tracking.

                          之所以出现此错误,是因为缺少为 CBT 位图分配的内存。

                        • 如果 ESXi 主机上的同一网卡驱动程序具有不支持 SR-IOV 的物理网卡和支持 SR-IOV 的其他物理网卡,则您可能会从 EXCLI 命令集和 vSphere Client 或 vSphere Web Client 看到不同的信息。例如,从 ESXCLI 命令集中,您可能会看到 vmnic 16、17 和 18 已配置 SR-IOV,而在 vSphere Client 中,您可能会看到 vmnic 6、7 和 8 已配置 SR-IOV。
                      ESXi-6.7.0-20190801001s-standard
                      配置文件名称 ESXi-6.7.0-20190801001s-standard
                      内部版本 有关内部版本信息,请参见本版本中包含的修补程序
                      供应商 VMware, Inc.
                      发布日期 2019 年 8 月 20 日
                      接受级别 合作伙伴支持
                      受影响的硬件 不适用
                      受影响的软件 不适用
                      受影响的 VIB
                      • VMware_bootbank_esx-base_6.7.0-2.69.14141615
                      • VMware_bootbank_esx-update_6.7.0-2.69.14141615
                      • VMware_bootbank_vsan_6.7.0-2.69.13808269
                      • VMware_bootbank_vsanhealth_6.7.0-2.69.13808270
                      • VMware_locker_tools-light_10.3.10.12406962-14141615
                      • VMware_bootbank_cpu-microcode_6.7.0-2.69.14141615
                      • VMware_bootbank_esx-ui_1.33.4-14093553
                      已修复的 PR 2307421、2360047、2300903、2262288、2313239
                      相关的 CVE 编号 不适用
                      • 此修补程序更新了以下问题:
                        • NTP 守护进程已更新到版本 ntp-4.2.8p13。

                        • ESXi userworld libcurl 库已更新到版本 7.64.1。

                        • ESXi 主机可能会响应特殊用户 "" 发出的任何 snmpv3 get 请求(用于引擎 ID 发现),即使该用户未通过身份验证或身份验证错误也是如此。

                        • ESXi userworld libxml2 库已更新到版本 2.9.9。

                        • Python 第三方库已更新到版本 3.5.7。

                      ESXi-6.7.0-20190801001s-no-tools
                      配置文件名称 ESXi-6.7.0-20190801001s-no-tools
                      内部版本 有关内部版本信息,请参见本版本中包含的修补程序
                      供应商 VMware, Inc.
                      发布日期 2019 年 8 月 20 日
                      接受级别 合作伙伴支持
                      受影响的硬件 不适用
                      受影响的软件 不适用
                      受影响的 VIB
                      • VMware_bootbank_esx-base_6.7.0-2.69.14141615
                      • VMware_bootbank_esx-update_6.7.0-2.69.14141615
                      • VMware_bootbank_vsan_6.7.0-2.69.13808269
                      • VMware_bootbank_vsanhealth_6.7.0-2.69.13808270
                      • VMware_bootbank_cpu-microcode_6.7.0-2.69.14141615
                      • VMware_bootbank_esx-ui_1.33.4-14093553
                      已修复的 PR 2307421、2360047、2300903、2262288、2313239
                      相关的 CVE 编号 不适用
                      • 此修补程序更新了以下问题:
                        • NTP 守护进程已更新到版本 ntp-4.2.8p13。

                        • ESXi userworld libcurl 库已更新到版本 7.64.1。

                        • ESXi 主机可能会响应特殊用户 "" 发出的任何 snmpv3 get 请求(用于引擎 ID 发现),即使该用户未通过身份验证或身份验证错误也是如此。

                        • ESXi userworld libxml2 库已更新到版本 2.9.9。

                        • Python 第三方库已更新到版本 3.5.7。

                      已知问题

                      已知问题分为如下类别。

                      其他问题
                      • 在使用 AMD EPYC 7002 系列处理器的 vCenter Server 系统中,可能无法手动触发不可屏蔽的中断 (NMI)

                        在通过硬件管理控制台 (BMC) 或按物理 NMI 按钮请求 NMI 时,ESXi 主机会出现故障并显示紫色诊断屏幕且会转储核心。此时不会发生任何其他情况,ESXi 将继续运行。

                        解决办法:通过将内核引导选项 iovDisableIR 设置为 TRUE 来禁用中断重新映射程序:

                        1. 请使用以下命令设置 iovDisableIR = TRUE# esxcli system settings kernel set -s iovDisableIR -v TRUE
                        2. 重新引导 ESXi 主机。
                        3. 重新引导后,确认 iovDisableIR 已设置为 TRUE# esxcli system settings kernel list |grep iovDisableIR.

                        除非您需要解决这一具体问题,否则请勿应用此解决办法。

                      • 分配了 PCI 直通设备的虚拟机在使用 AMD EPYC 7002 系列处理器的 vCenter Server 系统中可能无法打开电源

                        在特定 vCenter Server 系统配置和设备(如 AMD EPYC 7002 系列处理器)中,分配了 PCI 直通设备的虚拟机可能无法打开电源。在 vmkernel 日志中,您可能会看到类似以下内容的消息:
                        4512 2019-08-06T06:09:55.058Z cpu24:1001397137)AMDIOMMU: 611: IOMMU 0000:20:00.2: Failed to allocate IRTE for IOAPIC ID 243 vector 0x3f
                        4513 2019-08-06T06:09:55.058Z cpu24:1001397137)WARNING: IOAPIC: 1238: IOAPIC Id 243: Failed to allocate IRTE for vector 0x3f

                        解决办法:通过将内核引导选项 iovDisableIR 设置为 TRUE 来禁用中断重新映射程序:

                        1. 请使用以下命令设置 iovDisableIR = TRUE# esxcli system settings kernel set -s iovDisableIR -v TRUE
                        2. 重新引导 ESXi 主机。
                        3. 重新引导后,确认 iovDisableIR 已设置为 TRUE# esxcli system settings kernel list |grep iovDisableIR.

                        除非您需要解决这一具体问题,否则请勿应用此解决办法。

                      Auto Deploy 问题
                      • ESXi 6.7 主机配置文件可能不支持连接到基于 VMware NSX-T 的含糊网络的 vmknic 中的 PEERDNS

                        在某些情况下,ESXi 6.7 上的主机配置文件可能不支持连接到基于 NSX-T 的含糊网络的 vmknic 中的 PEERDNS。在导航到主机 > 配置 > TCP/IP 配置 > 默认 > DNS 配置 > 自动从 VMkernel 网络适配器获取设置时,尤其会出现此问题。如果选择连接到基于 NSX-T 的含糊网络的 vmknic,则从该主机提取的主机配置文件将不起作用。此类主机配置文件在 DNS 子配置文件中缺少为用于 DNS 的 VMkernel 网络适配器提供支持的端口组策略。编辑该主机配置文件将出现验证错误。

                        解决办法:无。请勿选择连接到基于 NSX-T 的含糊网络的 vmknic 中的 PEERDNS。 

                      网络连接问题
                      • 某些 Intel 网络适配器可能无法接收 LLDP 数据包

                        Intel 网络适配器 X710、XL710、XXV710 和 X722 系列可能无法接收 LLDP 数据包。此问题是由于固件上运行的芯片代理使用从 LAN 端口收到的 LLDP 帧而导致的。此情况会阻止依赖于 LLDP 帧的软件(如虚拟分布式交换机)获取 LLDP 数据包。

                        解决办法:要使 Intel 网络适配器能够接收 LLDP 数据包,必须执行以下操作:

                        1. 使用高于或等于 6.0 的固件版本
                        2. 使用高于或等于 1.7.x 的驱动程序版本
                        3. 将 i40en 的 LLDP 模块参数配置为 0。

                          例如,要在所有 4 个网卡上禁用 LLDP 代理,请运行以下命令:

                            # esxcli system module parameters set -p "LLDP=0,0,0,0" i40en
                        0 参数的数量应等于 ESXi 主机上 i40en 上行链路的数量。

                      • 如果您使用单根 I/O 虚拟化 (SR-IOV) 并修改 ixgben 驱动程序的物理功能 (PF),则某些虚拟机可能会断开连接

                        如果您使用 SR-IOV 并重置 PF,或者在关闭 PF 后重新启动此 PF,则使用 SR-IOV 虚拟功能进行网络连接的虚拟机可能会断开连接。

                        解决办法:重新引导 ESXi 服务器,然后打开此虚拟机的电源。但是,如果您使用 DHCP,则此虚拟机 IP 可能会发生变化。

                      • 如果您在使用 i40en 驱动程序的设备上设置了相同的 MAC 地址和上行链路端口地址,vmknics 可能会收到重复的软件包

                        如果您在使用 i40en 驱动程序的设备上手动将 vmknic 的 MAC 地址设置为与上行链路端口地址相同的地址,此 vmknic 可能会在流量较高时收到重复的软件包。

                        解决办法:请勿将 vmknic 的 MAC 地址设置为与上行链路端口地址相同的地址。对于 vmk0 管理网络,请勿对较为繁重的工作负载使用 vmnics,因为 vmnics 会默认使用相同的 MAC 地址和上行链路端口地址。

                      早期版本的已知问题

                      查看以前的已知问题列表,请单击此处

                      check-circle-line exclamation-circle-line close-line
                      Scroll to top icon