This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

ESXi 6.7 Update 1 | 2018 年 10 月 16 日 | ISO 内部版本 10302608

请查看发行说明以了解新增内容及更新。

发行说明内容

本发行说明包含以下主题:

新增功能

  • ESXi 6.7 Update 1 添加了 Microsemi Smart PQI (smartpqi) LSU 插件,支持在 HPE ProLiant Gen10 智能阵列控制器上执行连接磁盘管理操作。
  • ESXi 6.7 Update 1 添加了对 Intel i40en 和 ixgben 增强型网络堆栈 (ENS) 驱动程序的快速引导支持,并扩展了对 HPE ProLiant 和 Synergy 服务器的支持。有关详细信息,请参见 VMware 知识库文章 52477
  • 使用 ESXCLI 命令集的软件配置文件命令升级 ESXi 主机时,ESXi 6.7 Update 1 会启用预检查以确保升级兼容性。
  • ESXi 6.7 Update 1 新增了对 Cisco UCS 以太网光纤通道 (FCoE) 的 nfnic 驱动程序支持。
  • ESXi 6.7 Update 1 在 NVMe 驱动程序中添加了对命名空间全局唯一标识符 (NGUID) 的支持。 
  • 使用 ESXi 6.7 Update 1 时,可以运行以下存储 ESXCLI 命令以在基于 Intel VMD 的 NVMe SSD 上启用状态 LED,而无需下载 Intel CLI:
    • esxcli storage core device set -l locator -d
    • esxcli storage core device set -l error -d
    • esxcli storage core device set -l off -d 
  • ESXi 6.7 Update 1 添加了 API 以避免在配置 ProductLocker 时重新引导 ESXi 主机,并通过云 SDDC 中的 CloudAdmin 角色启用 VMware Tools 配置管理,而无需访问主机配置文件。
  • ESXi 6.7 Update 1 新增了高级配置选项 EnablePSPLatencyPolicy 以声明具有延迟机制循环路径选择策略的设备。EnablePSPLatencyPolicy 配置选项不会影响现有设备或供应商特定的声明规则。在使用 EnablePSPLatencyPolicy 选项时,还可以启用日志记录来显示路径配置。
  • 使用 ESXi 6.7 Update 1,您可以使用 vSphere vMotion 将配置了 NVIDIA 虚拟 GPU 类型的虚拟机迁移到具有兼容 NVIDIA Tesla GPU 的其他主机。有关受支持的 NVIDIA 版本的详细信息,请参见《VMware 兼容性指南》。
  • 使用 ESXi 6.7 Update 1,Update Manager Download Service (UMDS) 不需要数据库,并且简化了安装过程。有关详细信息,请参见《vSphere Update Manager 安装和管理指南》。

有关 VMware vSAN 问题的详细信息,请参见 VMware vSAN 6.7 Update 1 发行说明

ESXi 6.7 的早期版本

ESXi 的功能和已知问题在各个版本的发行说明中均有描述。ESXi 6.7 的早期版本的发行说明包括:

有关国际化、兼容性、安装和升级、开源组件和产品支持注意事项的说明,请参见 VMware vSphere 6.7 发行说明

此版本的安装说明

ESXi 6.7 Update 1 中 VMware Tools 捆绑变更

在 ESXi 6.7 Update 1 中,一部分 VMware Tools 10.3.2 ISO 映像与 ESXi 6.7 Update 1 主机捆绑在一起。

以下 VMware Tools 10.3.2 ISO 映像与 ESXi 捆绑在一起:

  • windows.iso:适用于 Windows Vista 或更高版本的 VMware Tools 映像
  • linux.iso:适用于安装 glibc 2.5 或更高版本的 Linux OS 的 VMware Tools 映像

以下 VMware Tools 10.3.2 ISO 映像都可供下载:

  • solaris.iso:适用于 Solaris 的 VMware Tools 映像
  • freebsd.iso:适用于 FreeBSD 的 VMware Tools 映像
  • darwin.iso:适用于 OSX 的 VMware Tools 映像

下载未与 ESXi 捆绑的平台对应的 VMware Tools 时,请遵循以下文档中列出的步骤:

本版本中包含的修补程序

本版本包含本产品发行前已发行的针对 ESXi 的所有公告。

内部版本详细信息

下载文件名称 update-from-esxi6.7-6.7_update01.zip
内部版本

10302608

10176879(仅安全修复版本)

下载大小 450.5 MB

md5sum:

0ae2ab210d1ece9b3e22b5db2fa3a08e

sha1checksum:

b11a856121d2498453cef7447294b461f62745a3
需要重新引导主机
需要迁移或关闭虚拟机

实体包

此版本包含常规版本实体包和仅安全修复版本实体包。仅安全修复版本实体包只适用于新的安全修复。不包括任何新的缺陷修复,但包括早期修补程序版本和更新版本中的缺陷修复。
如果需要安装所有新的安全修复和缺陷修复,则必须应用此版本中的所有实体包。在某些情况下,常规版本实体包将取代仅安全修复版本实体包。这没有问题,因为常规版本实体包同时包含新的安全修复和缺陷修复。
仅安全修复版本实体包由“SG”结尾的实体包 ID 标识。有关修补程序和更新分类的信息,请参见知识库文章 2014447
有关各个实体包的详细信息,请参见 My VMware 页面和已解决的问题部分。

实体包 ID

类别

严重性

ESXi670-201810201-UG

缺陷修复

严重

ESXi670-201810202-UG

缺陷修复

重要

ESXi670-201810203-UG

缺陷修复

重要

ESXi670-201810204-UG

缺陷修复

严重

ESXi670-201810205-UG

缺陷修复

适中

ESXi670-201810206-UG

缺陷修复

严重

ESXi670-201810207-UG

增强功能

重要

ESXi670-201810208-UG

增强功能

重要

ESXi670-201810209-UG

缺陷修复

重要

ESXi670-201810210-UG

缺陷修复

重要

ESXi670-201810211-UG

增强功能

重要

ESXi670-201810212-UG

缺陷修复

重要

ESXi670-201810213-UG

缺陷修复

严重

ESXi670-201810214-UG

缺陷修复

严重

ESXi670-201810215-UG

缺陷修复

重要

ESXi670-201810216-UG

缺陷修复

重要

ESXi670-201810217-UG

缺陷修复

重要

ESXi670-201810218-UG

缺陷修复

重要

ESXi670-201810219-UG

缺陷修复

适中

ESXi670-201810220-UG

缺陷修复

重要

ESXi670-201810221-UG

缺陷修复

重要

ESXi670-201810222-UG

缺陷修复

重要

ESXi670-201810223-UG

缺陷修复

重要

ESXi670-201810224-UG

缺陷修复

重要

ESXi670-201810225-UG

缺陷修复

重要

ESXi670-201810226-UG

缺陷修复

重要

ESXi670-201810227-UG

缺陷修复

重要

ESXi670-201810228-UG

缺陷修复

重要

ESXi670-201810229-UG

缺陷修复

重要

ESXi670-201810230-UG

缺陷修复

重要

ESXi670-201810231-UG

缺陷修复

重要

ESXi670-201810232-UG

缺陷修复

重要

ESXi670-201810233-UG

缺陷修复

重要

ESXi670-201810234-UG

缺陷修复

重要

ESXi670-201810101-SG

安全

重要

ESXi670-201810102-SG

安全

适中

ESXi670-201810103-SG

安全

重要

重要信息:对于使用 VMware vSAN 的群集,必须先升级 vCenter Server 系统。不支持仅升级 ESXi。
升级之前,请始终在 VMware 产品互操作性列表中确认从早期版本的 ESXi 和 vCenter Server 升级到当前版本的兼容升级途径。 

映像配置文件

VMware 修补程序版本和更新版本包含常规映像配置文件和重要映像配置文件。

常规版本映像配置文件仅适用于新的缺陷修复。

映像配置文件名称
ESXi-6.7.0-20181002001-standard
ESXi-6.7.0-20181002001-no-tools
ESXi-6.7.0-20181001001s-standard
ESXi-6.7.0-20181001001s-no-tools

已解决的问题

已解决的问题分为以下几组。

ESXi670-201810201-UG
修补程序类别 缺陷修复
修补程序严重性 严重
需要重新引导主机
需要迁移或关闭虚拟机
受影响的硬件 不适用
受影响的软件 不适用
包含的 VIB
  • VMware_bootbank_esx-base_6.7.0-1.28.10302608
  • VMware_bootbank_vsan_6.7.0-1.28.10290435
  • VMware_bootbank_vsanhealth_6.7.0-1.28.10290721
  • VMware_bootbank_esx-update_6.7.0-1.28.10302608
已修复的 PR  1220910、2036262、2036302、2039186、2046226、2057603、2058908、2066026、2071482、2072977、2078138、2078782、2078844、2079807、2080427、2082405、2083581、2084722、2085117、2086803、2086807、2089047、2096126、2096312、2096947、2096948、2097791、2098170、2098868、2103579、2103981、2106747、2107087、2107333、2110971、2118588、2119610、2119663、2120346、2126919、2128933、2129130、2129181、2131393、2131407、2133153、2133588、2136004、2137261、2139127、2145089、2146206、2146535、2149518、2152380、2154913、2156841、2157501、2157817、2163734、2165281、2165537、2165567、2166114、2167098、2167878、2173810、2186253、2187008
CVE 编号 不适用

此修补程序更新了 esx-base、esx-update、vsan 和 vsanhealth VIB 以解决下列问题:

  • PR 2084722:如果从 ESXi 主机中删除虚拟机支持包文件夹,hostd 服务可能会失败

    如果手动删除在 ESXi 主机的 /scratch/downloads 目录中下载的虚拟机支持包文件夹,hostd 服务可能会失败。如果 hostd 在创建文件一小时后自动尝试删除 /scratch/downloads 目录中的文件夹,则会发生失败。

    本版本已解决该问题。

  • PR 2083581:您可能无法通过使用“已连接设备时支持 vMotion”功能将智能卡读取器用作直通设备

    编辑 ESXi 主机的配置文件以将智能卡读取器用作直通设备时,如果还启用了已连接设备时支持 vMotion 功能,您可能无法使用该读取器。

    本版本已解决该问题。

  • PR 2058908:VMware vSAN 环境中的 VMkernel 日志可能会充斥着大量“无法注册文件系统 (Unable to register file system)”消息

    在 vSAN 环境中,记录与虚拟机和 ESXi 相关的活动的 VMkernel 日志可能会充斥着大量的无法注册文件系统 (Unable to register file system) 消息。

    本版本已解决该问题。 

  • PR 2106747:增加虚拟机的磁盘大小后,vSphere Web Client 可能会显示不正确的存储分配

    如果您使用 vSphere Web Client 来增加虚拟机的磁盘大小,vSphere Web Client 可能不会完全反映该重新配置并且会将虚拟机的存储分配显示为未更改。

    本版本已解决该问题。

  • PR 2089047:在使用 EFI 固件的虚拟机上使用 Windows 部署服务 (WDS) 中的变量窗口扩展选项可能会导致 PXE 的引导速度变慢

    如果您尝试使用 vmxnet3 网络适配器和 WDS 以 PXE 方式引导使用 EFI 固件的虚拟机,并且没有禁用 WDS 中的变量窗口扩展选项,则虚拟机的引导速度可能会极为缓慢。

    本版本已解决该问题。

  • PR 2103579:iOS 版本高于 iOS 11 的 Apple 设备无法连接到 OS X 版本高于 OS X 10.12 的虚拟机

    由于 Apple USB 的问题,iOS 版本高于 iOS 11 的设备无法连接到 OS X 版本高于 OS X 10.12 的虚拟机。

    本版本已解决该问题。要在 ESXi 的早期版本中启用连接,请将 usb.quirks.darwinVendor45 = TRUE 作为新选项附加到 .vmx 配置文件。 

  • PR 2096126:使用 vSphere Auto Deploy 将已启用“有状态安装”的主机配置文件应用于 ESXi 6.7 主机可能会失败

    如果在主机配置文件上启用“有状态安装”功能,并且管理 VMkernel 网卡连接到分布式虚拟交换机,则在 PXE 引导期间使用 vSphere Auto Deploy 将主机配置文件应用于其他 ESXi 6.7 主机可能会失败。该主机仍处于维护模式。 

    本版本已解决该问题。

  • PR 2072977:如果虚拟机在启用基于内容的读缓存 (CBRC) 时生成了快照,然后禁用该功能,虚拟机磁盘整合可能会失败

    如果虚拟机使用 CBRC 生成了快照,然后禁用 CBRC,则磁盘整合操作可能会失败并显示错误指定的参数不正确: spec.deviceChange.device (A specified parameter was not correct: spec.deviceChange.device),因为在禁用 CBRC 后,摘要文件会被删除。在解决该问题之前,将一直显示警示需要整合虚拟机磁盘 (Virtual machine disks consolidation is needed)。此修复可防止出现该问题,但是如果虚拟机在启用 CBRC 时生成了快照,然后禁用该功能,则该问题可能仍然存在。

    本版本已解决该问题。

  • PR 2107087:ESXi 主机可能失败,并显示紫色诊断屏幕

    ESXi 主机可能会由于内存分配问题而出现故障并显示紫色诊断屏幕。 

    本版本已解决该问题。

  • PR 2066026:esxtop 实用程序针对支持 VAAI 的 LUN 报告不正确的 DAVG/cmd 和 KAVG/cmd 统计信息

    VMkernel 中的一个错误计算导致 esxtop 实用程序针对支持 vSphere Storage APIs Array Integration (VAAI) 的 LUN 报告的每个命令的平均设备延迟 (DAVG/cmd) 统计信息和每个命令的平均 ESXi VMkernel 延迟 (KAVG/cmd) 统计信息不正确。

    本版本已解决该问题。 

  • PR 2036262:必须手动将以下 DELL MD 存储阵列型号的声明规则添加到 ESXi:MD32xx、MD32xxi、MD36xxi、MD36xxf、MD34xx、MD38xxf 和 MD38xxi

    此修复将存储阵列类型插件 (SATP) 设置为 VMW_SATP_ALUA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on,作为以下 DELL MD 存储阵列型号的默认值:MD32xx、MD32xxi、MD36xxi、MD36xxf、MD34xx、MD38xxf 和 MD38xxi。 

    本版本已解决该问题。

  • PR 2082405:在冷迁移或 VMware vSphere High Availability 故障切换后,虚拟机无法连接到分布式端口组

    在冷迁移或 vSphere High Availability 故障切换后,虚拟机可能无法连接到分布式端口组,因为该端口在虚拟机打开电源之前已删除。

    本版本已解决该问题。

  • PR 2078782:I/O 命令可能会失败并显示“CDB 中有无效字段 (INVALID FIELD IN CDB)”错误

    ESXi 主机可能不会在 Block Limits VPD 页面中反映 SCSI 设备报告的 MAXIMUM TRANSFER LENGTH 参数。因此,以大于限制的传输大小发出的 I/O 命令可能会失败并显示类似以下内容的日志:

    2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.

    本版本已解决该问题。

  • PR 2107333:必须手动将 HITACHI OPEN-V 存储阵列的声明规则添加到 ESXi

    此修复将存储阵列类型插件 (SATP) 设置为 VMW_SATP_ALUA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on,作为支持非对称逻辑单元访问 (ALUA) 的 HITACHI OPEN-v 类型存储阵列的默认值。

    此外,该修复还将存储阵列类型插件 (SATP) 设置为 VMW_SATP_DEFAULT_AA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_off,作为不支持 ALUA 的 HITACHI OPEN-v 类型存储阵列的默认值。

    本版本已解决该问题。

  • PR 2078138:使用 Windows Server 客户机操作系统的虚拟机的备份过程可能会失败,因为静默快照磁盘无法热添加到为 CBRC 启用的代理虚拟机

    如果为 CBRC 同时启用目标虚拟机和代理虚拟机,则静默快照磁盘无法热添加到代理虚拟机,因为在快照创建期间禁用目标虚拟机中的快照磁盘摘要。因此,虚拟机备份过程将失败。

    本版本已解决该问题。

  • PR 2098868:调用 HostImageConfigManager 受管对象可能会增加 syslog.log 文件中的日志活动

    syslog.log 文件中可能会重复填入与调用 HostImageConfigManager 受管对象相关的消息。

    本版本已解决该问题。

  • PR 2096312:在扩展 ESXi 主机的核心转储分区时,vCenter Server 报告可能会警告未配置核心转储目标

    在扩展 ESXi 主机的核心转储分区时,vCenter Server 报告可能会警告未配置核心转储目标,因为在增加分区大小之前,会临时取消激活现有核心转储分区。

    本版本已解决该问题。对于 vCenter Server 6.7.0,通过运行以下代码行解决此问题:
    # /bin/esxcfg-dumppart -C -D active --stdout 2> /dev/null

  • PR 2057603:如果使用 EMC RecoverPoint,ESXi 主机可能会在虚拟机关机或关闭电源过程中出现故障并显示紫色诊断屏幕

    由于 VSCSI 中存在争用情况,如果使用 EMC RecoverPoint,ESXi 主机可能会在虚拟机关机或关闭电源过程中出现故障并显示紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2039186:VMware vSphere Virtual Volumes 元数据可能不会使用关联的虚拟机进行更新,并使虚拟磁盘容器无法跟踪

    使用 VMW_VVolType 元数据键 OtherVMW_VVolTypeHint 元数据键 Sidecar 设置的 vSphere Virtual Volumes 可能无法发送 VMW_VmID 元数据键到关联的虚拟机,并且无法使用 ID 进行跟踪。

    本版本已解决该问题。

  • PR 2036302:如果不重新配置 SATP 声明规则,SolidFire 阵列可能无法获得最佳性能

    此修复将 Solidfire SSD SAN 存储阵列的存储阵列类型插件 (SATP) 声明规则设置为 VMW_SATP_DEFAULT_AA,并将路径选择策略 (PSP) 设置为 VMW_PSP_RR,默认为每秒 10 个 I/O 操作以实现最佳性能。

    本版本已解决该问题。

  • PR 2112769:快速重新引导使用 LSI 控制器的系统或重新加载 LSI 驱动程序可能会导致数据存储变得无响应或不可访问

    快速重新引导使用 LSI 控制器的系统或重新加载 LSI 驱动程序(例如 lsi_mr3)可能会使 LSI 控制器后面的磁盘处于脱机状态。LSI 控制器固件在卸载期间发送 SCSI STOP UNIT 命令,但在重新加载期间可能不会发出相应的 SCSI START UNIT 命令。如果磁盘脱机,托管在这些磁盘上的所有数据存储会变得无响应或不可访问。

    本版本已解决该问题。

  • PR 2119610:使用 VMware vSphere vMotion 在 vSphere Virtual Volumes 数据存储上迁移具有文件系统设备交换机 (FDS) 的虚拟机可能导致多个问题

    如果使用 vSphere vMotion 将具有文件设备筛选器的虚拟机从 vSphere Virtual Volumes 数据存储迁移到其他主机,并且该虚拟机已启用变更数据块跟踪 (CBT)、VMware vSphere Flash Read Cache (VFRC) 或 I/O 筛选器,则迁移可能会导致出现任何功能问题。在迁移期间,文件设备筛选器可能不会正确传输到主机。因此,如果在回写模式下配置缓存 I/O 筛选器,您可能会看到 CBT 中的增量备份受损、VFRC 和缓存 I/O 筛选器的性能下降、复制 I/O 筛选器受损和磁盘损坏。您还可能会看到虚拟机加密出现问题。

    本版本已解决该问题。

  • PR 2128933:提交给 VMFSsparse 快照的 I/O 可能会失败,但不显示错误

    如果虚拟机位于 VMFSsparse 快照上,向虚拟机发出的 I/O 可能只会在 VMFSsparse 级别进行部分处理,但上层(如 I/O 筛选器)可能会认为传输成功。这可能会导致数据不一致。如果 I/O 已完成,此修复将从上层设置暂时性错误状态以供参考。

    本版本已解决该问题。

  • PR 2046226:裸设备映射 (RDM) LUN 上的 SCSI INQUIRY 命令可能会从缓存返回数据而不是查询 LUN

    SCSI INQUIRY 数据在 RDM LUN 的可插入存储架构 (PSA) 层缓存,后续 SCSI INQUIRY 命令的响应可能会从缓存返回,而不是查询 LUN。为避免提取缓存的 SCSI INQUIRY 数据,除了通过 ESXi 6.7 Update 1 修改使用 RDM 的虚拟机的 .vmx 文件之外,您还可以通过使用以下 ESXCLI 命令忽略 SCSI INQUIRY

    esxcli storage core device inquirycache set --device <device-id> --ignore true

    使用 ESXCLI 选项时,不必重新引导虚拟机。

    本版本已解决该问题。

  • PR 2133588:必须手动将 Tegile IntelliFlash 存储阵列的声明规则添加到 ESXi

    此修复将存储阵列类型插件 (SATP) 设置为 VMW_SATP_ALUA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on,作为支持非对称逻辑单元访问 (ALUA) 的 Tegile IntelliFlash 存储阵列的默认值。此外,该修复还将存储阵列类型插件 (SATP) 设置为 VMW_SATP_DEFAULT_AA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_off,作为不支持 ALUA 的 Tegile IntelliFlash 存储阵列的默认值。

    本版本已解决该问题。

  • PR 2129181:如果到 LUN 的路径在 ESXi 主机引导期间改变了状态,引导可能需要更长时间

    在 ESXi 引导期间,如果通过初始设备发现发出的命令失败并显示 ASYMMETRIC ACCESS STATE CHANGE UA,则路径故障切换可能需要更长时间,因为这些命令在 ESXi 主机中被阻止。这可能会延长 ESXi 引导时间。
    您可能会看到类似以下内容的日志:
    2018-05-14T01:26:28.464Z cpu1:2097770)NMP: nmp_ThrottleLogForDevice:3689: Cmd 0x1a (0x459a40bfbec0, 0) to dev "eui.0011223344550003" on path "vmhba64:C0:T0:L3" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x6 0x2a 0x6.Act:FAILOVER 2018-05-14T01:27:08.453Z cpu5:2097412)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x1a, CmdSN 0x29 from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0.2018-05-14T01:27:48.911Z cpu4:2097181)ScsiDeviceIO: 3029: Cmd(0x459a40bfd540) 0x25, CmdSN 0x2c from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0.2018-05-14T01:28:28.457Z cpu1:2097178)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x9e, CmdSN 0x2d from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0.2018-05-14T01:28:28.910Z cpu2:2097368)WARNING: ScsiDevice: 7641: GetDeviceAttributes during periodic probe'eui.0011223344550003': failed with I/O error

    本版本已解决该问题。

  • PR 2119663:VMFS6 数据存储可能会误报空间不足消息

    由于缓存条目失效,VMFS6 数据存储可能会误报空间不足。空间分配报告通过自动更新缓存条目进行更正,但此修复可在更新之前防止出错。

    本版本已解决该问题。 

  • PR 2129130:使用 vSphere Web Client 移除的 NTP 服务器可能仍保留在 NTP 配置文件中

    如果使用 vSphere Web Client 从配置中移除 NTP 服务器,则服务器设置可能仍保留在 /etc/ntp.conf 文件中。

    本版本已解决该问题。

  • PR 2078844:如果从“VMware EVC 模式”下拉菜单中选择 Intel Merom 或 Penryn 微处理器,虚拟机可能会在迁移期间停止响应

    如果在将虚拟机从 ESXi 6.0 主机迁移到 ESXi 6.5 或 ESXi 6.7 主机之前,从 VMware EVC 模式下拉菜单中选择 Intel MeromPenryn 微处理器,虚拟机可能会停止响应。

    本版本已解决该问题。

  • PR 2080427:VMkernel 观察 (VOB) 事件可能会生成不必要的设备性能警告

    由于存储阵列中的 I/O 延迟有所变化,因此可能会生成以下两个 VOB 事件,但它们不会报告虚拟机中的实际问题:

    • 1.设备 naa.xxx 性能降低。I/O 延迟已从平均值 4114 微秒增加到 84518 微秒。
    • 2.设备 naa.xxx 性能已得到改善。I/O 延迟已从 346115 微秒降低为 67046 微秒。

    本版本已解决该问题。

  • PR 2137261:使用 VMware Host Client 导出大型虚拟机可能会失败

    使用 VMware Host Client 导出大型虚拟机可能会失败或以不完整的 VMDK 文件结束,因为 ExportVm 方法发出的租约可能在文件传输完成之前到期。

    本版本已解决该问题。 

  • PR 2149518:hostd 进程可能会因存在大量网络连接任务而间歇性失败

    网络连接任务数量较多(特别是多次调用 QueryNetworkHint()),可能会超过 hostd 进程的内存限制并使其出现间歇性失败。

    本版本已解决该问题。

  • PR 2146535:固件事件代码日志可能会充斥 vmkernel.log

    不支持 Block Limits VPD 页面 0xb0 的驱动器可能会生成大量充斥 vmkernel.log 的事件代码日志。

    本版本已解决该问题。

  • PR 2071482:Dell OpenManage Integration for VMware vCenter (OMIVV) 可能无法识别 Integrated Dell Remote Access Controller (iDRAC) 中的某些 Dell 模块化服务器

    OMIVV 依赖 iDRAC 属性 hardware.systemInfo.otherIdentifyingInfo.ServiceTag 中的信息提取 SerialNumber 参数,用于识别某些 Dell 模块化服务器。serviceTag 属性中有不匹配之处可能导致此集成失败。

    本版本已解决该问题。

  • PR 2145089:如果 Storage Awareness (VASA) 提供程序的 API 丢失了数据库中的绑定信息,vSphere Virtual Volumes 可能会变得无响应

    如果 VASA 提供程序丢失了数据库中的绑定信息,vSphere Virtual Volumes 可能会变得无响应,因为在 CPU 满负荷运行时会无限循环。hostd 也可能会停止响应。您可能会看到一条致命错误消息。

    本版本已解决该问题。此修复可防止在数据库绑定失败时无限循环。

  • PR 2146206:vSphere Virtual Volumes 元数据可能对存储阵列供应商软件不可用

    vSphere Virtual Volumes 元数据可能仅在虚拟机开始运行时才可用。因此,在常规使用期间和故障切换之后,存储阵列供应商软件可能无法应用影响最佳卷布局的策略。

    本版本已解决该问题。此修复可在配置 vSphere Virtual Volumes(而非虚拟机开始运行)时提供 vSphere Virtual Volumes 元数据。

  • PR 2096947:对已删除任务 ID 的 getTaskUpdate API 调用可能会导致日志涌出并消耗更多 API 带宽

    如果使用 VASA 提供程序,您可能会看到对已取消或已删除任务的多次 getTaskUpdate 调用。因此,您可能会看到消耗更多 API 带宽且日志涌出。

    本版本已解决该问题。

  • PR 2156841:使用 EFI 并在 AMD 处理器上运行 Windows Server 2016 的虚拟机可能会在重新引导期间停止响应

    硬件版本为 10 或更低版本、使用 EFI 并在 AMD 处理器上运行 Windows Server 2016 的虚拟机可能会在重新引导期间停止响应。如果虚拟机使用 BIOS、硬件版本为 11 或更高版本、客户机操作系统不是 Windows 或处理器是 Intel,则不会出现此问题。

    本版本已解决该问题。

  • PR 2163734:启用 NetFlow 可能导致网络长时间延迟

    如果启用 NetFlow 网络分析工具对 vSphere Distributed Switch 端口组上的每个数据包进行采样,通过将“采样率”设置为 0,网络延迟可能会在流量超过 100 万时达到 1000 毫秒。

    本版本已解决该问题。通过使用 CLI 将 ipfixHashTableSize IPFIX 参数设置为 -p "ipfixHashTableSize=65536" -m ipfix,您可以进一步优化 NetFlow 性能。要完成任务,请重新引导 ESXi 主机。

  • PR 2136004:RAM 磁盘中的失效票证可能会导致某些 ESXi 主机停止响应

    失效票证在 hostd 生成新的票证之前不会被删除,可能会耗尽 RAM 磁盘 inode。这可能会导致某些 ESXi 主机停止响应。

    本版本已解决该问题。

  • PR 2152380:esxtop 命令行实用程序可能无法正确显示设备的队列深度

    如果相应的设备路径队列深度发生变化,esxtop 命令行实用程序可能不会显示设备队列深度的更新值。

    本版本已解决该问题。

  • PR 2133153:对于硬件运行状况警报,“重置为绿色”可能无法按预期运行

    手动重置硬件运行状况警报以恢复正常状况(方法是在右键单击警报侧栏窗格之后选择重置为绿色)可能无法按预期运行。这些警报可能在 90 秒后重新出现。

    本版本已解决该问题。通过此修复,您可以自定义系统生成新警报的时间(如果问题未得到解决)。通过使用高级选项 esxcli system settings advanced list -o /UserVars/HardwareHeathSyncTime,您可以禁用同步时间间隔或将其设置为您的首选时间。

  • PR 2131393:“硬件状态”选项卡中的存在感知传感器可能会显示状态“未知”

    以前,如果 vCenter Server 系统中缺少处理器或风扇等组件,存在感知传感器就会显示状态“未知”。但是,存在感知传感器没有关联的运行状况。

    本版本已解决该问题。此修复筛选状态为“未知”的组件。

  • PR 2154913:如果在共享 VMFS 数据存储上配置 /productLocker 目录,VMware Tools 可能会显示错误的状态

    如果在共享 VMFS 数据存储上配置 /productLocker 目录,当使用 vSphere vMotion 迁移虚拟机时,虚拟机中的 VMware Tools 可能会显示错误的状态“不受支持”。

    本版本已解决该问题。

  • PR 2137041:加密 vSphere vMotion 可能因迁移堆空间不足而失败

    对于大型虚拟机,加密 vSphere vMotion 可能因迁移堆空间不足而失败。

    本版本已解决该问题。

  • PR 2165537:备份代理虚拟机可能在备份期间进入无效状态

    在不关闭电源或进行迁移的情况下执行数百个磁盘热添加或移除操作的虚拟机可能会终止并失效。这会影响备份解决方案,备份代理虚拟机可能因此而终止。

    在 hostd 日志中,您可能会看到如下内容:

    2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
    2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
    2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
    2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171

    在 vmkernel 日志中,内容如下:

    2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
    2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size.Cannot expand.

    本版本已解决该问题。

  • PR 2157501:由于智能平台管理界面 (IPMI) 传感器已禁用或处于空闲状态,您可能会看到无效硬件运行状况警报

    已禁用的 IPMI 传感器或不报告任何数据的传感器可能生成无效硬件运行状况警报。

    本版本已解决该问题。此修复筛选出此类警报。

  • PR 2167878:如果在连续较大的流量中启用 IPFIX,ESXi 主机可能会出现故障并显示紫色诊断屏幕

    在启用 IPFIX 时,如果不同的流量比较大,系统检测信号可能无法长时间从 IPFIX 占用 CPU 并触发紫色诊断屏幕。

    本版本已解决该问题。

  • PR 2165567:在高延迟下远距离 vSphere vMotion 操作的性能可能会因最大套接字缓冲区大小限制而降低

    您可能会看到在高延迟(例如,延迟不少于 100 毫秒)下通过高速网络链路(例如 10 GbE)执行远距离 vSphere vMotion 操作的性能降低,因为硬编码套接字缓冲区限制为 16 MB。

    本版本已解决该问题。通过此修复,您可以配置最大套接字缓冲区大小参数 SB_MAX_ADJ

  • PR 2139127:ESXi 主机可能会在关机时出现故障并显示紫色诊断屏幕

    由于 IPv6 环境中的多播侦听器发现 (MLD) 版本在查询时存在争用情况,ESXi 主机可能会在关机时出现故障并显示紫色诊断屏幕。您可能会看到一条类似于以下内容的错误消息:

    #PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
    ...
    0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
    0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
    0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
    0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000

    本版本已解决该问题。

  • PR 2082940:当用户在 vSphereProvisioning 网络栈中创建和添加 vmknic 并将其用于 NFC 流量时,ESXi 主机可能会变得无响应

    当用户在 vSphereProvisioning 网络栈中创建和添加 VMkernel 网卡以将其用于 NFC 流量时,管理 NFC 连接的守护进程可能无法清理旧连接。这将导致允许的进程限制耗尽。因此,主机变得无响应且无法为入站 SSH 连接创建进程。

    本版本已解决该问题。如果此问题已经发生,则必须重新启动 NFCD 守护进程。

  • PR 2157817:您可能无法使用 vSphere Standard 许可证创建虚拟闪存文件 (VFFS) 卷

    尝试使用 vSphere Standard 许可证创建 VFFS 卷可能会失败并显示错误没有用于执行此操作的许可证,因为在此版本中未许可功能“vSphere Flash Read Cache”(License not available to perform the operation as feature 'vSphere Flash Read Cache' is not licensed with this edition)。这是因为系统使用 VMware vSphere Flash Read Cache 权限来检查是否允许置备 VFFS。

    本版本已解决该问题。由于 VFFS 可以在 Flash Read Cache 之外使用,因此取消了该检查。

  • PR 1220910:在共享环境中,不能为超过 8 个 ESXi 主机设置多写入程序锁定

    在裸设备映射 (RDM) 磁盘等共享环境中,您无法对超过 8 个 ESXi 主机上的虚拟机使用多写入程序锁定。如果将虚拟机迁移到第九个主机,可能无法打开该主机的电源并显示错误消息无法打开 xxxx.vmdk 或其所依赖的快照之一。(用户过多)(Could not open xxxx.vmdk or one of the snapshots it depends on. (Too many users))。此修复使高级配置选项 /VMFS3/GBLAllowMW 可见。您可以使用基于生成的锁定为超过 8 个主机手动启用或禁用多写入程序锁定。

    本版本已解决该问题。有关更多详细信息,请参见 VMware 知识库文章 1034165。 

  • PR 2187719:ESXi 主机中安装的第三方 CIM 提供程序可能无法与其外部应用程序一起正常工作

    第三方 CIM 提供程序(例如,HPE 和 Stratus)可能会正常启动,但在使用其外部应用程序时缺乏一些预期的功能。

    本版本已解决该问题。

  • PR 2096948:如果数据存储检测信号在关闭 VMware vSphere VMFS 时提前停止,ESXi 主机可能会变得无响应

    如果数据存储检测信号在关闭 VMFS 时提前停止,ESXi 主机可能会变得无响应。因此,关联性管理器不能正常退出。

    本版本已解决该问题。

  • PR 2166824:SNMP 监控系统针对 ESXi 主机报告不正确的内存统计信息

    SNMP 监视系统针对 ESXi 主机报告的内存统计信息与 freetop vmstat 命令报告的值可能不同。

    本版本已解决该问题。该修复使 SNMP 代理使用的公式与其他命令行命令工具保持一致。

  • PR 2165281:如果连接到 ESXi 主机的目标仅支持隐式 ALUA 且只有备用路径,该主机可能会在发现设备时出现故障并显示紫色诊断屏幕

    如果连接到 ESXi 主机的目标仅支持隐式 ALUA 且只有备用路径,该主机可能会因存在争用情况而在发现设备时出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的回溯追踪:

    SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
    0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
    0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
    0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807

    本版本已解决该问题。

  • PR 2166114:I/O 可能会因故障切换错误而在设备的某些路径上失败

    I/O 可能会失败并显示错误 FCP_DATA_CNT_MISMATCH,这将在 ESXi 主机中转换为 HOST_ERROR 并指示设备某些路径上的链路错误或故障切换。

    本版本已解决该问题。该修复将配置选项
    PSPDeactivateFlakyPath 添加到 PSP_RR,以便在 I/O 因 HOST_ERROR 而不断失败时禁用路径,并允许
    活动路径处理操作。该配置默认为启用状态,如果不需要,可以禁用该选项。

  • PR 2167098:即使没有路径可以为 I/O 服务,也不会为 IBM SAN Volume Controller (SVC) 目标 LUN 触发全部路径异常(APD)

    在有多条路径通向 IBM SVC 目标 LUN 的 ESXi 配置中,如果活动路径上的连接断开,同时其他连接的路径未处于服务 I/O 的状态,即使没有任何路径可以为 I/O 服务,ESXi 主机也有可能不会将此条件检测为 APD。因此,对设备的 I/O 操作不会很快就失败。

    本版本已解决该问题。该修复默认为禁用状态。要启用该修复,请将 ESXi 配置选项 /Scsi/ExtendAPDCondition 设置为 esxcfg-advcfg -s 1 /Scsi/ExtendAPDCondition

  • PR 2120346:使用 VMware NetQueue 的设备的 NUMA 服务器网络性能降低

    由于阈值固定,您可能会看到使用 VMware NetQueue 的设备的 NUMA 服务器网络性能降低。通过更改高级配置 NetNetqNumaIOCpuPinThreshold 的默认值将 Rx 队列固定到 NUMA 节点时,会出现这种情况。

    本版本已解决该问题。

  • 运行 ESXCLI 磁盘组重建命令后,您可能会看到错误消息 Throttled: BlkAttr not ready for disk

    vSAN 在创建磁盘组之后创建 blk 属性组件。如果支持 diskgroup rebuild 命令的 API 中缺少 blk 属性组件,您可能会在 vmkernel 日志中看到以下警告消息:Throttled: BlkAttr not ready for disk.

    本版本已解决该问题。

  • PR 2204439:使用 SEsparse 格式向快照虚拟机发出大量 I/O 可能会导致客户机操作系统文件系统损坏

    使用 SEsparse 格式向快照虚拟机发出大量 I/O 可能会导致客户机操作系统文件系统损坏或应用程序中数据损坏。

    本版本已解决该问题。

  • PR 1996879:无法执行某些主机相关的操作,例如将主机置于维护模式

    在先前版本中,vSAN Observer 在 init 组下运行。该组可以占用其他组的内存,并导致其他主机相关的操作缺少所需的内存。要解决此问题,您可以在其自己的资源组下运行 vSAN Observer。

    本版本已解决该问题。

  • PR 2000367:运行状况检查不可用:所有主机都都位于相同网络子网中

    在 vSphere 6.7 Update 1 中,某些 vSAN 延伸群集可以在不同的 L3 网络中拥有主机。因此,以下运行状况检查不再有效,并且已被移除:所有主机都都位于相同网络子网中。

    本版本已解决该问题。

  • PR 2144043:在 vmodl VsanSystemEx 上调用 querySyncingVsanObjects API 时,API 返回 SystemError 异常  

    由于大量同步对象导致内存压力,在 vmodl VsanSystemEx 上调用 querySyncingVsanObjects API 时可能会出现 SystemError 异常。您可能会在 vSphere Client 的“近期任务”窗格中看到错误消息。

    本版本已解决该问题。

  • PR 2074369:即使磁盘上报告了 I/O 故障,vSAN 也不会将磁盘标记为已降级

    在某些情况下,即使磁盘报告了 I/O 故障并且 vSAN 已停止处理该磁盘上的任何其他 I/O,vSAN 也需要很长时间才能将磁盘标记为已降级。

    本版本已解决该问题。

ESXi670-201810202-UG
修补程序类别 缺陷修复
修补程序严重性 重要
需要重新引导主机
需要迁移或关闭虚拟机
受影响的硬件 不适用
受影响的软件 不适用
包含的 VIB
  • VMW_bootbank_vmw-ahci_1.2.3-1vmw.670.1.28.10302608
已修复的 PR  不适用
CVE 编号 不适用

此修补程序更新了 vmw-ahci VIB。

    ESXi670-201810203-UG
    修补程序类别 缺陷修复
    修补程序严重性 重要
    需要重新引导主机
    需要迁移或关闭虚拟机
    受影响的硬件 不适用
    受影响的软件 不适用
    包含的 VIB
    • VMW_bootbank_vmkusb_0.1-1vmw.670.1.28.10302608
    已修复的 PR  不适用
    CVE 编号 不适用

    此修补程序更新了 vmkusb VIB。

      ESXi670-201810204-UG
      修补程序类别 缺陷修复
      修补程序严重性 严重
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMW_bootbank_lpfc_11.4.33.3-11vmw.670.1.28.10302608
      已修复的 PR  2095671、2095681
      CVE 编号 不适用

      此修补程序更新了 lpfc VIB 以解决下列问题:

      • PR 2095671:如果从 EMC VPLEX 存储系统取消映射 LUN,ESXi 主机可能会停止响应或出现故障并显示紫色诊断屏幕

        如果从 EMC VPLEX 存储系统取消映射 LUN,ESXi 主机可能会停止响应或出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的日志:
        2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
        2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.

        本版本已解决该问题。

      • PR 2095681:ESXi 主机可能在 I/O 负载繁重时与 EMC VPLEX 存储系统断开连接

        ESXi 主机的 HBA 驱动程序可能在 I/O 负载繁重时与 EMC VPLEX 存储系统断开连接,当 I/O 路径可用时不会重新连接。

        本版本已解决该问题。

      ESXi670-201810205-UG
      修补程序类别 缺陷修复
      修补程序严重性 适中
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMware_bootbank_lsu-hp-hpsa-plugin_2.0.0-16vmw.670.1.28.10302608
      已修复的 PR  2124061
      CVE 编号 不适用

      此修补程序更新了 lsu-hp-hpsa-plugin VIB 以解决下列问题:

      • PR 2124061:使用 HPE ProLiant Gen9 智能阵列控制器的 VMware vSAN 可能不会在正确的磁盘上点亮定位器 LED 指示灯

        在使用 HPE ProLiant Gen9 智能阵列控制器(例如 P440 和 P840)的 vSAN 群集中,可能不会在正确的故障设备上点亮定位器 LED 指示灯。

        本版本已解决该问题。

      ESXi670-201810206-UG
      修补程序类别 缺陷修复
      修补程序严重性 严重
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMW_bootbank_brcmfcoe_11.4.1078.5-11vmw.670.1.28.10302608
      已修复的 PR  2095671、2095681
      CVE 编号 不适用

      此修补程序更新了 brcmfcoe VIB 以解决下列问题:

      • PR 2095671:如果从 EMC VPLEX 存储系统取消映射 LUN,ESXi 主机可能会停止响应或出现故障并显示紫色诊断屏幕

        如果从 EMC VPLEX 存储系统取消映射 LUN,ESXi 主机可能会停止响应或出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的日志:
        2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
        2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.

        本版本已解决该问题。

      • PR 2095681:ESXi 主机可能在 I/O 负载繁重时与 EMC VPLEX 存储系统断开连接

        ESXi 主机的 HBA 驱动程序可能在 I/O 负载繁重时与 EMC VPLEX 存储系统断开连接,当 I/O 路径可用时不会重新连接。

        本版本已解决该问题。

      ESXi670-201810207-UG
      修补程序类别 增强功能
      修补程序严重性 重要
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMware_bootbank_lsu-smartpqi-plugin_1.0.0-3vmw.670.1.28.10302608
      已修复的 PR  不适用
      CVE 编号 不适用

      此修补程序更新了 lsu-smartpqi-plugin VIB。

      • ESXi 6.7 Update 1 启用了 Microsemi Smart PQI (smartpqi) LSU 插件,可支持在 HPE ProLiant Gen10 智能阵列控制器上执行连接磁盘管理操作。

      ESXi670-201810208-UG
      修补程序类别 增强功能
      修补程序严重性 重要
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMware_bootbank_lsu-intel-vmd-plugin_1.0.0-2vmw.670.1.28.10302608
      已修复的 PR  不适用 
      CVE 编号 不适用

      此修补程序更新了 lsu-intel-vmd-plugin VIB。

      • 使用 ESXi 6.7 Update 1 时,可以运行以下存储 ESXCLI 命令以在基于 Intel VMD 的 NVMe SSD 上启用状态 LED,而无需下载 Intel CLI:

        • esxcli storage core device set -l locator -d
        • esxcli storage core device set -l error -d
        • esxcli storage core device set -l off -d 
      ESXi670-201810209-UG
      修补程序类别 缺陷修复
      修补程序严重性 重要
      需要重新引导主机
      需要迁移或关闭虚拟机
      受影响的硬件 不适用
      受影响的软件 不适用
      包含的 VIB
      • VMware_bootbank_cpu-microcode_6.7.0-1.28.10302608
      已修复的 PR  不适用
      CVE 编号 不适用

      此修补程序更新了 cpu-microcode VIB。

        ESXi670-201810210-UG
        修补程序类别 缺陷修复
        修补程序严重性 重要
        需要重新引导主机
        需要迁移或关闭虚拟机
        受影响的硬件 不适用
        受影响的软件 不适用
        包含的 VIB
        • VMW_bootbank_elxnet_11.4.1095.0-5vmw.670.1.28.10302608
        已修复的 PR  不适用
        CVE 编号 不适用

        此修补程序更新了 elxnet VIB。

          ESXi670-201810211-UG
          修补程序类别 增强功能
          修补程序严重性 重要
          需要重新引导主机
          需要迁移或关闭虚拟机
          受影响的硬件 不适用
          受影响的软件 不适用
          包含的 VIB
          • VMW_bootbank_nfnic_4.0.0.14-0vmw.670.1.28.10302608
          已修复的 PR  不适用
          CVE 编号 不适用

          此修补程序更新了 nfnic VIB。

          • ESXi 6.7 Update 1 启用了对 Cisco UCS 以太网光纤通道 (FCoE) 的 nfnic 驱动程序支持。

          ESXi670-201810212-UG
          修补程序类别 缺陷修复
          修补程序严重性 重要
          需要重新引导主机
          需要迁移或关闭虚拟机
          受影响的硬件 不适用
          受影响的软件 不适用
          包含的 VIB
          • VMW_bootbank_ne1000_0.8.4-1vmw.670.1.28.10302608
          已修复的 PR  不适用
          CVE 编号 不适用

          此修补程序更新了 ne1000 VIB。

            ESXi670-201810213-UG
            修补程序类别 缺陷修复
            修补程序严重性 严重
            需要重新引导主机
            需要迁移或关闭虚拟机
            受影响的硬件 不适用
            受影响的软件 不适用
            包含的 VIB
            • VMW_bootbank_nvme_1.2.2.17-1vmw.670.1.28.10302608
            已修复的 PR  不适用
            CVE 编号 不适用

            此修补程序更新了 nvme VIB。

            • ESXi 6.7 Update 1 在 NVMe 驱动程序中添加了对 NGUID 的支持。

            ESXi670-201810214-UG
            修补程序类别 缺陷修复
            修补程序严重性 严重
            需要重新引导主机
            需要迁移或关闭虚拟机
            受影响的硬件 不适用
            受影响的软件 不适用
            包含的 VIB
            • VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-13vmw.670.1.28.10302608
            已修复的 PR  2112193 
            CVE 编号 不适用

            此修补程序更新了 lsu-lsi-lsi-mr3-plugin VIB 以解决下列问题:

            • PR 2112193:使用 lsi_mr3 驱动程序时,ESXi 主机和 hostd 可能会变得无响应

              由于 lsi_mr3 磁盘可维护性插件导致内存耗尽,ESXi 主机和 hostd 可能会变得无响应。

              本版本已解决该问题。

            ESXi670-201810215-UG
            修补程序类别 缺陷修复
            修补程序严重性 重要
            需要重新引导主机
            需要迁移或关闭虚拟机
            受影响的硬件 不适用
            受影响的软件 不适用
            包含的 VIB
            • VMW_bootbank_smartpqi_1.0.1.553-12vmw.670.1.28.10302608
            已修复的 PR  不适用
            CVE 编号 不适用

            此修补程序更新了 smartpqi VIB。

              ESXi670-201810216-UG
              修补程序类别 缺陷修复
              修补程序严重性 重要
              需要重新引导主机
              需要迁移或关闭虚拟机
              受影响的硬件 不适用
              受影响的软件 不适用
              包含的 VIB
              • VMW_bootbank_nvmxnet3_2.0.0.29-1vmw.670.1.28.10302608
              已修复的 PR  不适用
              CVE 编号 不适用

              此修补程序更新了 nvmxnet3 VIB。

                ESXi670-201810217-UG
                修补程序类别 缺陷修复
                修补程序严重性 重要
                需要重新引导主机
                需要迁移或关闭虚拟机
                受影响的硬件 不适用
                受影响的软件 不适用
                包含的 VIB
                • VMW_bootbank_i40en_1.3.1-22vmw.670.1.28.10302608
                已修复的 PR  2153838
                CVE 编号 不适用

                此修补程序更新了 i40en VIB。

                • PR 2153838:LAN 唤醒 (WOL) 可能不适用于 IPv6 网络中的 Intel X722 系列网卡

                  ESXi 中的 Intel 本机 i40en 驱动程序可能无法在 IPv6 网络中的 X722 系列网卡上正常工作,并且 LAN 唤醒服务可能会失败。

                  本版本已解决该问题。

                ESXi670-201810218-UG
                修补程序类别 缺陷修复
                修补程序严重性 重要
                需要重新引导主机
                需要迁移或关闭虚拟机
                受影响的硬件 不适用
                受影响的软件 不适用
                包含的 VIB
                • VMW_bootbank_ipmi-ipmi-devintf_39.1-5vmw.670.1.28.10302608
                已修复的 PR  不适用
                CVE 编号 不适用

                此修补程序更新了 ipmi-ipmi-devintf VIB。

                  ESXi670-201810219-UG
                  修补程序类别 缺陷修复
                  修补程序严重性 重要
                  需要重新引导主机
                  需要迁移或关闭虚拟机
                  受影响的硬件 不适用
                  受影响的软件 不适用
                  包含的 VIB
                  • VMW_bootbank_ixgben_1.4.1-16vmw.670.1.28.10302608
                  已修复的 PR  2142221
                  CVE 编号 不适用

                  此修补程序更新了 ixgben VIB。

                  • PR 2142221:您可能会看到空闲警示日志 Device 10fb does not support flow control autoneg

                    您可能会看到彩色日志 Device 10fb does not support flow control autoneg 作为警示,但这是反映某些网卡的流量控制支持状态的常规日志。在某些 OEM 映像上,此日志可能会频繁显示,但这并不表示 ESXi 主机出现任何问题。

                    本版本已解决该问题。

                  ESXi670-201810220-UG
                  修补程序类别 缺陷修复
                  修补程序严重性 重要
                  需要重新引导主机
                  需要迁移或关闭虚拟机
                  受影响的硬件 不适用
                  受影响的软件 不适用
                  包含的 VIB
                  • VMW_bootbank_qedentv_2.0.6.4-10vmw.670.1.28.10302608
                  已修复的 PR  2106647
                  CVE 编号 不适用

                  此修补程序更新了 qedentv VIB 以解决下列问题:

                  • PR 2106647:在启用单根 I/O 虚拟化 (SR-IOV) 接口后,QLogic FastLinQ QL41xxx 以太网适配器可能不会创建虚拟功能

                    在适配器上启用 SR-IOV 并重新引导主机后,某些 QLogic FastLinQ QL41xxx 适配器可能不会创建虚拟功能。

                    本版本已解决该问题。

                  ESXi670-201810221-UG
                  修补程序类别 缺陷修复
                  修补程序严重性 重要
                  需要重新引导主机
                  需要迁移或关闭虚拟机
                  受影响的硬件 不适用
                  受影响的软件 不适用
                  包含的 VIB
                  • VMW_bootbank_nenic_1.0.21.0-1vmw.670.1.28.10302608
                  已修复的 PR  不适用
                  CVE 编号 不适用

                  此修补程序更新了 nenic VIB。

                    ESXi670-201810222-UG
                    修补程序类别 缺陷修复
                    修补程序严重性 重要
                    需要重新引导主机
                    需要迁移或关闭虚拟机
                    受影响的硬件 不适用
                    受影响的软件 不适用
                    包含的 VIB
                    • VMW_bootbank_bnxtroce_20.6.101.0-20vmw.670.1.28.10302608
                    已修复的 PR  不适用
                    CVE 编号 不适用

                    此修补程序更新了 bnxtroce VIB。

                      ESXi670-201810223-UG
                      修补程序类别 缺陷修复
                      修补程序严重性 重要
                      需要重新引导主机
                      需要迁移或关闭虚拟机
                      受影响的硬件 不适用
                      受影响的软件 不适用
                      包含的 VIB
                      • VMW_bootbank_ipmi-ipmi-msghandler_39.1-5vmw.670.1.28.10302608
                      已修复的 PR  不适用
                      CVE 编号 不适用

                      此修补程序更新了 ipmi-ipmi-msghandler VIB。

                        ESXi670-201810224-UG
                        修补程序类别 缺陷修复
                        修补程序严重性 重要
                        需要重新引导主机
                        需要迁移或关闭虚拟机
                        受影响的硬件 不适用
                        受影响的软件 不适用
                        包含的 VIB
                        • VMW_bootbank_ipmi-ipmi-si-drv_39.1-5vmw.670.1.28.10302608
                        已修复的 PR  不适用
                        CVE 编号 不适用

                        此修补程序更新了 ipmi-ipmi-si-drv VIB。

                          ESXi670-201810225-UG
                          修补程序类别 缺陷修复
                          修补程序严重性 重要
                          需要重新引导主机
                          需要迁移或关闭虚拟机
                          受影响的硬件 不适用
                          受影响的软件 不适用
                          包含的 VIB
                          • VMW_bootbank_iser_1.0.0.0-1vmw.670.1.28.10302608
                          已修复的 PR  不适用
                          CVE 编号 不适用

                          此修补程序更新了 iser VIB。

                            ESXi670-201810226-UG
                            修补程序类别 缺陷修复
                            修补程序严重性 重要
                            需要重新引导主机
                            需要迁移或关闭虚拟机
                            受影响的硬件 不适用
                            受影响的软件 不适用
                            包含的 VIB
                            • VMW_bootbank_vmkfcoe_1.0.0.1-1vmw.670.1.28.10302608
                            已修复的 PR  不适用
                            CVE 编号 不适用

                            此修补程序更新了 vmkfcoe VIB。

                              ESXi670-201810227-UG
                              修补程序类别 缺陷修复
                              修补程序严重性 重要
                              需要重新引导主机
                              需要迁移或关闭虚拟机
                              受影响的硬件 不适用
                              受影响的软件 不适用
                              包含的 VIB
                              • VMW_bootbank_lsi-mr3_7.702.13.00-5vmw.670.1.28.10302608
                              已修复的 PR  不适用
                              CVE 编号 不适用

                              此修补程序更新了 lsi-mr3 VIB。

                                ESXi670-201810228-UG
                                修补程序类别 缺陷修复
                                修补程序严重性 重要
                                需要重新引导主机
                                需要迁移或关闭虚拟机
                                受影响的硬件 不适用
                                受影响的软件 不适用
                                包含的 VIB
                                • VMW_bootbank_lsi-msgpt35_03.00.01.00-12vmw.670.1.28.10302608
                                已修复的 PR  不适用
                                CVE 编号 不适用

                                此修补程序更新了 lsi-msgpt35 VIB。

                                  ESXi670-201810229-UG
                                  修补程序类别 缺陷修复
                                  修补程序严重性 重要
                                  需要重新引导主机
                                  需要迁移或关闭虚拟机
                                  受影响的硬件 不适用
                                  受影响的软件 不适用
                                  包含的 VIB
                                  • VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.34-1.28.10302608
                                  已修复的 PR  不适用
                                  CVE 编号 不适用

                                  此修补程序更新了 vmware-esx-esxcli-nvme-plugin VIB。

                                    ESXi670-201810230-UG
                                    修补程序类别 缺陷修复
                                    修补程序严重性 重要
                                    需要重新引导主机
                                    需要迁移或关闭虚拟机
                                    受影响的硬件 不适用
                                    受影响的软件 不适用
                                    包含的 VIB
                                    • VMW_bootbank_ntg3_4.1.3.2-1vmw.670.1.28.10302608
                                    已修复的 PR  2156445
                                    CVE 编号 不适用

                                    此修补程序更新了 ntg3 VIB。

                                    • PR 2156445:数据包过大可能导致使用 ntg3 驱动程序的网卡暂时停止发送数据包

                                      在极少数情况下,使用 ntg3 驱动程序的网卡(例如,Broadcom BCM5719 和 5720 GbE 网卡)可能会在尝试发送过大的数据包失败后暂时停止发送数据包。ntg3 4.1.3.2 驱动程序可以解决该问题。

                                      本版本已解决该问题。

                                    ESXi670-201810231-UG
                                    修补程序类别 缺陷修复
                                    修补程序严重性 重要
                                    需要重新引导主机
                                    需要迁移或关闭虚拟机
                                    受影响的硬件 不适用
                                    受影响的软件 不适用
                                    包含的 VIB
                                    • VMW_bootbank_nhpsa_2.0.22-3vmw.670.1.28.10302608
                                    已修复的 PR  不适用
                                    CVE 编号 不适用

                                    此修补程序更新了 nhpsa VIB。

                                      ESXi670-201810232-UG
                                      修补程序类别 缺陷修复
                                      修补程序严重性 重要
                                      需要重新引导主机
                                      需要迁移或关闭虚拟机
                                      受影响的硬件 不适用
                                      受影响的软件 不适用
                                      包含的 VIB
                                      • VMW_bootbank_lsi-msgpt3_16.00.01.00-3vmw.670.1.28.10302608
                                      已修复的 PR  不适用
                                      CVE 编号 不适用

                                      此修补程序更新了 lsi-msgpt3 VIB。

                                        ESXi670-201810233-UG
                                        修补程序类别 缺陷修复
                                        修补程序严重性 重要
                                        需要重新引导主机
                                        需要迁移或关闭虚拟机
                                        受影响的硬件 不适用
                                        受影响的软件 不适用
                                        包含的 VIB
                                        • VMW_bootbank_lsi-msgpt2_20.00.04.00-5vmw.670.1.28.10302608
                                        已修复的 PR  不适用
                                        CVE 编号 不适用

                                        此修补程序更新了 lsi-msgpt2 VIB。

                                          ESXi670-201810234-UG
                                          修补程序类别 缺陷修复
                                          修补程序严重性 重要
                                          需要重新引导主机
                                          需要迁移或关闭虚拟机
                                          受影响的硬件 不适用
                                          受影响的软件 不适用
                                          包含的 VIB
                                          • VMW_bootbank_mtip32xx-native_3.9.8-1vmw.670.1.28.10302608
                                          已修复的 PR  不适用
                                          CVE 编号 不适用

                                          此修补程序更新了 mtip32xx-native VIB。

                                            ESXi670-201810101-SG
                                            修补程序类别 安全
                                            修补程序严重性 重要
                                            需要重新引导主机
                                            需要迁移或关闭虚拟机
                                            受影响的硬件 不适用
                                            受影响的软件 不适用
                                            包含的 VIB
                                            • VMware_bootbank_vsanhealth_6.7.0-0.28.10176879
                                            • VMware_bootbank_vsan_6.7.0-0.28.10176879
                                            • VMware_bootbank_esx-base_6.7.0-0.28.10176879
                                            已修复的 PR   2093391、2099951、2093433、2098003、2155702
                                            CVE 编号 CVE-2018-6974

                                            此修补程序更新了 esx-base、vsan 和 vsanhealth VIB 以解决下列问题:

                                            • 更新 libxml2 库

                                              ESXi userworld libxml2 库已更新到版本 2.9.7。

                                            • 更新网络时间协议 (NTP) 守护进程

                                              NTP 守护进程已更新到版本 ntp-4.2.8p11。

                                            • 更新 SQLite 数据库

                                              SQLite 数据库已更新到版本 3.23.1。

                                            • 更新 libcurl 库

                                              ESXi userworld libcurl 库已更新到 libcurl-7.59.0。

                                            • 更新 OpenSSH

                                              OpenSSH 版本已更新到 7.7p1。

                                            • 更新 OpenSSL 库

                                              ESXi userworld OpenSSL 库已更新到版本 openssl-1.0.2o。

                                            • 更新 Python 库

                                              Python 第三方库已更新到版本 3.5.5。

                                            • ESXi 的 SVGA 设备中存在越界读取漏洞,可能会允许客户机在主机上执行代码。常见漏洞及曝光项目 (cve.mitre.org) 分配给此问题的标识符为 CVE-2018-6974

                                            ESXi670-201810102-SG
                                            修补程序类别 安全
                                            修补程序严重性 适中
                                            需要重新引导主机
                                            需要迁移或关闭虚拟机
                                            受影响的硬件 不适用
                                            受影响的软件 不适用
                                            包含的 VIB
                                            • VMware_locker_tools-light_10.3.2.9925305-10176879
                                            已修复的 PR  不适用
                                            CVE 编号 不适用

                                            此修补程序更新了 tools-light VIB。

                                            • VMware Tools 的 Windows Vista 之前的 ISO 映像不再与 ESXi 打包在一起。Windows Vista 之前的 ISO 映像可由需要它的用户下载。有关下载信息,请参见产品下载页面。

                                            ESXi670-201810103-SG
                                            修补程序类别 安全
                                            修补程序严重性 重要
                                            需要重新引导主机
                                            需要迁移或关闭虚拟机
                                            受影响的硬件 不适用
                                            受影响的软件 不适用
                                            包含的 VIB
                                            • VMware_bootbank_esx-ui_1.30.0-9946814
                                            已修复的 PR  不适用
                                            CVE 编号 不适用

                                            此修补程序更新了 esx-ui VIB。

                                              ESXi-6.7.0-20181002001-standard
                                              配置文件名称 ESXi-6.7.0-20181002001-standard
                                              内部版本 有关内部版本信息,请参见本版本中包含的修补程序
                                              供应商 VMware, Inc.
                                              发布日期 2018 年 10 月 16 日
                                              接受级别 合作伙伴支持
                                              受影响的硬件 不适用
                                              受影响的软件 不适用
                                              受影响的 VIB
                                              • VMW_bootbank_brcmfcoe_11.4.1078.5-11vmw.670.1.28.10302608
                                              • VMW_bootbank_nenic_1.0.21.0-1vmw.670.1.28.10302608
                                              • VMW_bootbank_vmw-ahci_1.2.3-1vmw.670.1.28.10302608
                                              • VMware_bootbank_esx-base_6.7.0-1.28.10302608
                                              • VMware_bootbank_vsan_6.7.0-1.28.10290435
                                              • VMware_bootbank_vsanhealth_6.7.0-1.28.10290721
                                              • VMware_bootbank_esx-update_6.7.0-1.28.10302608
                                              • VMware_bootbank_lsu-intel-vmd-plugin_1.0.0-2vmw.670.1.28.10302608
                                              • VMW_bootbank_lsi-msgpt3_16.00.01.00-3vmw.670.1.28.10302608
                                              • VMW_bootbank_smartpqi_1.0.1.553-12vmw.670.1.28.10302608
                                              • VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.34-1.28.10302608
                                              • VMW_bootbank_nvme_1.2.2.17-1vmw.670.1.28.10302608
                                              • VMW_bootbank_bnxtroce_20.6.101.0-20vmw.670.1.28.10302608
                                              • VMW_bootbank_vmkusb_0.1-1vmw.670.1.28.10302608
                                              • VMware_bootbank_lsu-hp-hpsa-plugin_2.0.0-16vmw.670.1.28.10302608
                                              • VMW_bootbank_ne1000_0.8.4-1vmw.670.1.28.10302608
                                              • VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-13vmw.670.1.28.10302608
                                              • VMW_bootbank_i40en_1.3.1-22vmw.670.1.28.10302608
                                              • VMW_bootbank_ipmi-ipmi-msghandler_39.1-5vmw.670.1.28.10302608
                                              • VMware_bootbank_lsu-smartpqi-plugin_1.0.0-3vmw.670.1.28.10302608
                                              • VMW_bootbank_nenic_1.0.21.0-1vmw.670.1.28.10302608
                                              • VMW_bootbank_lsi-msgpt2_20.00.04.00-5vmw.670.1.28.10302608
                                              • VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.34-1.28.10302608
                                              • VMW_bootbank_ipmi-ipmi-devintf_39.1-5vmw.670.1.28.10302608
                                              • VMware_bootbank_vsanhealth_6.7.0-1.28.10290721
                                              • VMW_bootbank_nhpsa_2.0.22-3vmw.670.1.28.10302608
                                              • VMware_bootbank_cpu-microcode_6.7.0-1.28.10302608
                                              • VMW_bootbank_lsi-msgpt3_16.00.01.00-3vmw.670.1.28.10302608
                                              • VMW_bootbank_bnxtroce_20.6.101.0-20vmw.670.1.28.10302608
                                              • VMW_bootbank_mtip32xx-native_3.9.8-1vmw.670.1.28.10302608
                                              • VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-13vmw.670.1.28.10302608
                                              • VMW_bootbank_nhpsa_2.0.22-3vmw.670.1.28.10302608
                                              • VMW_bootbank_lsi-msgpt2_20.00.04.00-5vmw.670.1.28.10302608
                                              • VMW_bootbank_vmkfcoe_1.0.0.1-1vmw.670.1.28.10302608
                                              • VMW_bootbank_nfnic_4.0.0.14-0vmw.670.1.28.10302608
                                              • VMW_bootbank_mtip32xx-native_3.9.8-1vmw.670.1.28.10302608
                                              • VMware_bootbank_lsu-smartpqi-plugin_1.0.0-3vmw.670.1.28.10302608
                                              • VMW_bootbank_lsi-mr3_7.702.13.00-5vmw.670.1.28.10302608
                                              • VMW_bootbank_iser_1.0.0.0-1vmw.670.1.28.10302608
                                              • VMW_bootbank_nvmxnet3_2.0.0.29-1vmw.670.1.28.10302608
                                              • VMW_bootbank_lsi-msgpt35_03.00.01.00-12vmw.670.1.28.10302608
                                              • VMW_bootbank_ipmi-ipmi-msghandler_39.1-5vmw.670.1.28.10302608
                                              • VMW_bootbank_elxnet_11.4.1095.0-5vmw.670.1.28.10302608
                                              • VMW_bootbank_ixgben_1.4.1-16vmw.670.1.28.10302608
                                              • VMW_bootbank_ntg3_4.1.3.2-1vmw.670.1.28.10302608
                                              • VMW_bootbank_ipmi-ipmi-si-drv_39.1-5vmw.670.1.28.10302608
                                              • VMW_bootbank_qedentv_2.0.6.4-10vmw.670.1.28.10302608
                                              • VMW_bootbank_i40en_1.3.1-22vmw.670.1.28.10302608
                                              • VMW_bootbank_ipmi-ipmi-devintf_39.1-5vmw.670.1.28.10302608
                                              • VMware_bootbank_cpu-microcode_6.7.0-1.28.10302608
                                              • VMW_bootbank_lpfc_11.4.33.3-11vmw.670.1.28.10302608
                                              已修复的 PR 1220910、2036262、2036302、2039186、2046226、2057603、2058908、2066026、2071482、2072977、2078138、2078782、2078844、2079807、2080427、2082405、2083581、2084722、2085117、2086803、2086807、2089047、2096126、2096312、2096947、2096948、2097791、2098170、2098868、2103579、2103981、2106747、2107087、2107333、2110971、2118588、2119610、2119663、2120346、2126919、2128933、2129130、2129181、2131393、2131407、2133153、2133588、2136004、2137261、2139127、2145089、2146206、2146535、2149518、2152380、2154913、2156841、2157501、2157817、2163734、2165281、2165537、2165567、2166114、2167098、2167878、2173810、2186253、2187008、2204439、2095671、2095681、2124061、2095671、2095681、2093493、2103337、2112361、2099772、2137374、2112193、2153838、2142221、2106647、2137374、2156445
                                              相关的 CVE 编号 不适用
                                              •  此修补程序更新了以下问题:
                                                • 如果手动删除在 ESXi 主机的 /scratch/downloads 目录中下载的虚拟机支持包文件夹,hostd 服务可能会失败。如果 hostd 在创建文件一小时后自动尝试删除 /scratch/downloads 目录中的文件夹,则会发生失败。

                                                • 编辑 ESXi 主机的配置文件以将智能卡读取器用作直通设备时,如果还启用了已连接设备时支持 vMotion 功能,您可能无法使用该读取器。

                                                • 在 vSAN 环境中,记录与虚拟机和 ESXi 相关的活动的 VMkernel 日志可能会充斥着大量的无法注册文件系统 (Unable to register file system) 消息。

                                                • 如果您使用 vSphere Web Client 来增加虚拟机的磁盘大小,vSphere Web Client 可能不会完全反映该重新配置并且会将虚拟机的存储分配显示为未更改。

                                                • 如果您尝试使用 vmxnet3 网络适配器和 WDS 以 PXE 方式引导使用 EFI 固件的虚拟机,并且没有禁用 WDS 中的变量窗口扩展选项,则虚拟机的引导速度可能会极为缓慢。

                                                • 由于 Apple USB 的问题,iOS 版本高于 iOS 11 的设备无法连接到 OS X 版本高于 OS X 10.12 的虚拟机。

                                                • 如果在主机配置文件上启用“有状态安装”功能,并且管理 VMkernel 网卡连接到分布式虚拟交换机,则在 PXE 引导期间使用 vSphere Auto Deploy 将主机配置文件应用于其他 ESXi 6.7 主机可能会失败。该主机仍处于维护模式。 

                                                • 如果虚拟机使用 CBRC 生成了快照,然后禁用 CBRC,则磁盘整合操作可能会失败并显示错误指定的参数不正确: spec.deviceChange.device (A specified parameter was not correct: spec.deviceChange.device),因为在禁用 CBRC 后,摘要文件会被删除。在解决该问题之前,将一直显示警示“需要整合虚拟机磁盘 (Virtual machine disks consolidation is needed)”。此修复可防止出现该问题,但是如果虚拟机在启用 CBRC 时生成了快照,然后禁用该功能,则该问题可能仍然存在。

                                                • ESXi 主机可能会由于内存分配问题而出现故障并显示紫色诊断屏幕。 

                                                • VMkernel 中的一个错误计算导致 esxtop 实用程序针对支持 VMware vSphere Storage APIs Array Integration (VAAI) 的 LUN 报告的每个命令的平均设备延迟 (DAVG/cmd) 统计信息和每个命令的平均 ESXi VMkernel 延迟 (KAVG/cmd) 统计信息不正确。

                                                • 此修复将存储阵列类型插件 (SATP) 设置为 VMW_SATP_ALUA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on,作为以下 DELL MD 存储阵列型号的默认值:MD32xx、MD32xxi、MD36xxi、MD36xxf、MD34xx、MD38xxf 和 MD38xxi。 

                                                • 在冷迁移或 vSphere High Availability 故障切换后,虚拟机可能无法连接到分布式端口组,因为该端口在虚拟机打开电源之前已删除。

                                                • ESXi 主机可能不会在 Block Limits VPD 页面中反映 SCSI 设备报告的 MAXIMUM TRANSFER LENGTH 参数。因此,以大于限制的传输大小发出的 I/O 命令可能会失败并显示类似以下内容的日志:

                                                  2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.

                                                • 此修复将存储阵列类型插件 (SATP) 设置为 VMW_SATP_ALUA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on,作为支持非对称逻辑单元访问 (ALUA) 的 HITACHI OPEN-v 类型存储阵列的默认值。

                                                  此外,该修复还将存储阵列类型插件 (SATP) 设置为 VMW_SATP_DEFAULT_AA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_off,作为不支持 ALUA 的 HITACHI OPEN-v 类型存储阵列的默认值。

                                                • 如果为 CBRC 同时启用目标虚拟机和代理虚拟机,则静默快照磁盘无法热添加到代理虚拟机,因为在快照创建期间禁用目标虚拟机中的快照磁盘摘要。因此,虚拟机备份过程将失败。

                                                • syslog.log 文件中可能会重复填入与调用 HostImageConfigManager 受管对象相关的消息。

                                                • 在扩展 ESXi 主机的核心转储分区时,vCenter Server 报告可能会警告未配置核心转储目标,因为在增加分区大小之前,会临时取消激活现有核心转储分区。

                                                • 由于 VSCSI 中存在争用情况,如果使用 EMC RecoverPoint,ESXi 主机可能会在虚拟机关机或关闭电源过程中出现故障并显示紫色诊断屏幕。

                                                • 使用 VMW_VVolType 元数据键 OtherVMW_VVolTypeHint 元数据键 Sidecar 设置的 vSphere Virtual Volumes 可能无法发送 VMW_VmID 元数据键到关联的虚拟机,并且无法使用 ID 进行跟踪。

                                                • 此修复将 Solidfire SSD SAN 存储阵列的存储阵列类型插件 (SATP) 声明规则设置为 VMW_SATP_DEFAULT_AA,并将路径选择策略 (PSP) 设置为 VMW_PSP_RR,默认为每秒 10 个 I/O 操作以实现最佳性能。

                                                • 快速重新引导使用 LSI 控制器的系统或重新加载 LSI 驱动程序(例如 lsi_mr3)可能会使 LSI 控制器后面的磁盘处于脱机状态。LSI 控制器固件在卸载期间发送 SCSI STOP UNIT 命令,但在重新加载期间可能不会发出相应的 SCSI START UNIT 命令。如果磁盘脱机,托管在这些磁盘上的所有数据存储会变得无响应或不可访问。

                                                • 如果使用 vSphere vMotion 将具有文件设备筛选器的虚拟机从 vSphere Virtual Volumes 数据存储迁移到其他主机,并且该虚拟机已启用变更数据块跟踪 (CBT)、VMware vSphere Flash Read Cache (VFRC) 或 I/O 筛选器,则迁移可能会导致出现任何功能问题。在迁移期间,文件设备筛选器可能不会正确传输到主机。因此,如果在回写模式下配置缓存 I/O 筛选器,您可能会看到 CBT 中的增量备份受损、VFRC 和缓存 I/O 筛选器的性能下降、复制 I/O 筛选器受损和磁盘损坏。您还可能会看到虚拟机加密出现问题。

                                                • 如果虚拟机位于 VMFSsparse 快照上,向虚拟机发出的 I/O 可能只会在 VMFSsparse 级别进行部分处理,但上层(如 I/O 筛选器)可能会认为传输成功。这可能会导致数据不一致。如果 I/O 已完成,此修复将从上层设置暂时性错误状态以供参考。

                                                • SCSI INQUIRY 数据在 RDM LUN 的可插入存储架构 (PSA) 层缓存,后续 SCSI INQUIRY 命令的响应可能会从缓存返回,而不是查询 LUN。为避免提取缓存的 SCSI INQUIRY 数据,除了通过 ESXi 6.7 Update 1 修改使用 RDM 的虚拟机的 .vmx 文件之外,您还可以通过使用以下 ESXCLI 命令忽略 SCSI INQUIRY

                                                  esxcli storage core device inquirycache set --device <device-id> --ignore true

                                                  使用 ESXCLI 选项时,不必重新引导虚拟机。

                                                • 此修复将存储阵列类型插件 (SATP) 设置为 VMW_SATP_ALUA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on,作为支持非对称逻辑单元访问 (ALUA) 的 Tegile IntelliFlash 存储阵列的默认值。此外,该修复还将存储阵列类型插件 (SATP) 设置为 VMW_SATP_DEFAULT_AA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_off,作为不支持 ALUA 的 Tegile IntelliFlash 存储阵列的默认值。

                                                • 在 ESXi 引导期间,如果通过初始设备发现发出的命令失败并显示 ASYMMETRIC ACCESS STATE CHANGE UA,则路径故障切换可能需要更长时间,因为这些命令在 ESXi 主机中被阻止。这可能会延长 ESXi 引导时间。
                                                  您可能会看到类似以下内容的日志:
                                                  2018-05-14T01:26:28.464Z cpu1:2097770)NMP: nmp_ThrottleLogForDevice:3689: Cmd 0x1a (0x459a40bfbec0, 0) to dev "eui.0011223344550003" on path "vmhba64:C0:T0:L3" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x6 0x2a 0x6.Act:FAILOVER 2018-05-14T01:27:08.453Z cpu5:2097412)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x1a, CmdSN 0x29 from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0.2018-05-14T01:27:48.911Z cpu4:2097181)ScsiDeviceIO: 3029: Cmd(0x459a40bfd540) 0x25, CmdSN 0x2c from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0.2018-05-14T01:28:28.457Z cpu1:2097178)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x9e, CmdSN 0x2d from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0.2018-05-14T01:28:28.910Z cpu2:2097368)WARNING: ScsiDevice: 7641: GetDeviceAttributes during periodic probe'eui.0011223344550003': failed with I/O error

                                                • 由于缓存条目失效,VMFS6 数据存储可能会误报空间不足。空间分配报告通过自动更新缓存条目进行更正,但此修复可在更新之前防止出错。

                                                • 如果使用 vSphere Web Client 从配置中移除 NTP 服务器,则服务器设置可能仍保留在 /etc/ntp.conf 文件中。

                                                • 如果在将虚拟机从 ESXi 6.0 主机迁移到 ESXi 6.5 或 ESXi 6.7 主机之前,从 VMware EVC 模式下拉菜单中选择 Intel MeromPenryn 微处理器,虚拟机可能会停止响应。

                                                • 由于存储阵列中的 I/O 延迟有所变化,因此可能会生成以下两个 VOB 事件,但它们不会报告虚拟机中的实际问题:

                                                  • 1.设备 naa.xxx 性能降低。I/O 延迟已从平均值 4114 微秒增加到 84518 微秒。
                                                  • 2.设备 naa.xxx 性能已得到改善。I/O 延迟已从 346115 微秒降低为 67046 微秒。
                                                • 使用 VMware Host Client 导出大型虚拟机可能会失败或导致 VMDK 文件不完整,因为 ExportVm 方法发出的租约可能在文件传输完成之前到期。

                                                • 网络连接任务数量较多(特别是多次调用 QueryNetworkHint()),可能会超过 hostd 进程的内存限制并使其出现间歇性失败。

                                                • 不支持 Block Limits VPD 页面 0xb0 的驱动器可能会生成大量充斥 vmkernel.log 的事件代码日志。

                                                • OMIVV 依赖 iDRAC 属性 hardware.systemInfo.otherIdentifyingInfo.ServiceTag 中的信息提取 SerialNumber 参数,以便识别某些 Dell 模块化服务器。serviceTag 属性中存在不匹配可能导致此集成失败。

                                                • 如果 VASA 提供程序丢失了数据库中的绑定信息,vSphere Virtual Volumes 可能会变得无响应,因为在 CPU 满负荷运行时会无限循环。hostd 也可能会停止响应。您可能会看到一条致命错误消息。

                                                • vSphere Virtual Volumes 元数据可能仅在虚拟机开始运行时才可用。因此,在常规使用期间和故障切换之后,存储阵列供应商软件可能无法应用影响最佳卷布局的策略。

                                                • 如果使用 VASA 提供程序,您可能会看到针对已取消或已删除任务的多次 getTaskUpdate 调用。因此,您可能会看到消耗更多 API 带宽且日志涌出。

                                                • 硬件版本为 10 或更低版本、使用 EFI 并在 AMD 处理器上运行 Windows Server 2016 的虚拟机可能会在重新引导期间停止响应。如果虚拟机使用 BIOS、硬件版本为 11 或更高版本、客户机操作系统不是 Windows 或处理器是 Intel,则不会出现此问题。

                                                • 如果启用 NetFlow 网络分析工具对 vSphere Distributed Switch 端口组上的每个数据包进行采样,通过将“采样率”设置为 0,网络延迟可能会在流量超过 100 万时达到 1000 毫秒。

                                                • 失效票证在 hostd 生成新的票证之前不会被删除,可能会耗尽 RAM 磁盘 inode。这可能会导致某些 ESXi 主机停止响应。

                                                • 设备路径队列深度发生变化后,esxtop 命令行实用程序可能不会显示相应设备队列深度的更新值。

                                                • 手动重置硬件运行状况警报以恢复正常状态(右键单击警报侧栏窗格后选择重置为绿色)可能无法正常工作。这些警报可能在 90 秒后重新出现。

                                                • 以前,如果 vCenter Server 系统中缺少处理器或风扇等组件,存在感知传感器就会显示状态“未知”。但是,存在感知传感器没有关联的运行状况。

                                                • 如果在共享 VMFS 数据存储上配置 /productLocker 目录,当使用 vSphere vMotion 迁移虚拟机时,虚拟机中的 VMware Tools 可能会显示错误的状态“不受支持”。

                                                • 对于大型虚拟机,加密 vSphere vMotion 可能因迁移堆空间不足而失败。

                                                • 在不关闭电源或进行迁移的情况下执行数百个磁盘热添加或移除操作的虚拟机可能会终止并失效。这会影响备份解决方案,备份代理虚拟机可能因此而终止。

                                                  在 hostd 日志中,您可能会看到如下内容:

                                                  2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
                                                  2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
                                                  2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
                                                  2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171

                                                  在 vmkernel 日志中,内容如下:

                                                  2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
                                                  2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size.Cannot expand.

                                                • 已禁用的 IPMI 传感器或不报告任何数据的传感器可能生成无效硬件运行状况警报。

                                                • 在启用 IPFIX 时,如果不同的流量比较大,系统检测信号可能无法长时间从 IPFIX 占用 CPU 并触发紫色诊断屏幕。

                                                • 您可能会看到在高延迟(例如,延迟不少于 100 毫秒)下通过高速网络链路(例如,不低于 1 GbE)执行远距离 vSphere vMotion 操作的性能降低,因为硬编码套接字缓冲区限制为 16 MB。

                                                • 由于 IPv6 环境中的多播侦听器发现 (MLD) 版本在查询时存在争用情况,ESXi 主机可能会在关机时出现故障并显示紫色诊断屏幕。您可能会看到一条类似于以下内容的错误消息:

                                                  #PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
                                                  ...
                                                  0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
                                                  0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
                                                  0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
                                                  0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000

                                                • 当用户在 vSphereProvisioning 网络栈中创建和添加 VMkernel 网卡以将其用于 NFC 流量时,管理 NFC 连接的守护进程可能无法清理旧连接。这将导致允许的进程限制耗尽。因此,主机变得无响应且无法为入站 SSH 连接创建进程。

                                                • 尝试使用 vSphere Standard 许可证创建 VFFS 卷可能会失败并显示错误“没有用于执行此操作的许可证,因为在此版本中未许可功能‘vSphere Flash Read Cache’(License not available to perform the operation as feature 'vSphere Flash Read Cache' is not licensed with this edition)”。这是因为系统使用 VMware vSphere Flash Read Cache 权限来检查是否允许置备 VFFS。

                                                • 在裸设备映射 (RDM) 磁盘等共享环境中,您无法对超过 8 个 ESXi 主机上的虚拟机使用多写入程序锁定。如果将虚拟机迁移到第九个主机,可能无法打开该主机的电源并显示错误消息“无法打开 xxxx.vmdk 或其所依赖的快照之一。(用户过多)(Could not open xxxx.vmdk or one of the snapshots it depends on. (Too many users))。此修复使高级配置选项 /VMFS3/GBLAllowMW 可见。您可以使用基于生成的锁定为超过 8 个主机手动启用或禁用多写入程序锁定。

                                                • 第三方 CIM 提供程序(例如,HPE 和 Stratus)可能会正常启动,但在使用其外部应用程序时缺乏一些预期的功能。

                                                • 如果数据存储检测信号在关闭 VMFS 时提前停止,ESXi 主机可能会变得无响应。因此,关联性管理器不能正常退出。

                                                • SNMP 监控系统针对 ESXi 主机报告的内存统计信息与 freetop vmstat 命令报告的值可能不同。

                                                • 如果连接到 ESXi 主机的目标仅支持隐式 ALUA 且只有备用路径,该主机可能会因存在争用情况而在发现设备时出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的回溯追踪:

                                                  SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
                                                  0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
                                                  0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
                                                  0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807

                                                • 启用 VSAN 的群集的“群集合规性”状态可能显示为“不合规”,因为合规性检查可能不会将 vSAN 数据存储识别为共享数据存储。

                                                • I/O 可能会失败并显示错误 FCP_DATA_CNT_MISMATCH,这将在 ESXi 主机中转换为 HOST_ERROR 并指示设备某些路径上的链路错误或故障切换。

                                                • 在有多条路径通向 IBM SVC 目标 LUN 的 ESXi 配置中,如果活动路径上的连接断开,同时其他连接的路径未处于服务 I/O 的状态,即使没有任何路径可以为 I/O 服务,ESXi 主机也有可能不会将此条件检测为 APD。因此,对设备的 I/O 操作不会很快就失败。

                                                • 由于阈值固定,您可能会看到使用 VMware NetQueue 的设备的 NUMA 服务器网络性能降低。通过更改高级配置 NetNetqNumaIOCpuPinThreshold 的默认值将 Rx 队列固定到 NUMA 节点时,会出现这种情况。

                                                • 从先前版本升级到 vSAN 6.7 Update 1 后,某些主机可能无法引导。  在 vSAN 群集中(每个主机具有 3、4 或 5 个磁盘组),启用 NUMA 的服务器上会出现此问题。创建最后一个磁盘组时,主机可能会超时。 

                                                • vSAN 在创建磁盘组后创建 blk 属性组件。如果支持 diskgroup rebuild 命令的 API 中缺少 blk 属性组件,您可能会在 vmkernel 日志中看到以下警告消息:Throttled: BlkAttr not ready for disk.

                                                • 从 vSAN 群集中移除所有磁盘组后,vSphere Client 会显示类似于以下内容的警告:
                                                  数据中心的 VMware vSAN 群集没有容量 (VMware vSAN cluster in datacenter does not have capacity) 
                                                  在群集上禁用 vSAN 后,该警告消息仍然存在。

                                                • 如果从 EMC VPLEX 存储系统取消映射 LUN,ESXi 主机可能会停止响应或出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的日志:
                                                  2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
                                                  2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.

                                                • ESXi 主机的 HBA 驱动程序可能在 I/O 负载繁重时与 EMC VPLEX 存储系统断开连接,当 I/O 路径可用时不会重新连接。

                                                • 在使用 HPE ProLiant Gen9 智能阵列控制器(例如 P440 和 P840)的 vSAN 群集中,可能不会在正确的故障设备上点亮定位器 LED 指示灯。

                                                • 如果从 EMC VPLEX 存储系统取消映射 LUN,ESXi 主机可能会停止响应或出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的日志:
                                                  2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
                                                  2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.

                                                • ESXi 主机的 HBA 驱动程序可能在 I/O 负载繁重时与 EMC VPLEX 存储系统断开连接,当 I/O 路径可用时不会重新连接。

                                                • ESXi 6.7 Update 1 启用了 Microsemi Smart PQI (smartpqi) LSU 插件,可支持在 HPE ProLiant Gen10 智能阵列控制器上执行连接磁盘管理操作。

                                                • 使用 ESXi 6.7 Update 1 时,可以运行以下存储 ESXCLI 命令以在基于 Intel VMD 的 NVMe SSD 上启用状态 LED,而无需下载 Intel CLI:

                                                  • esxcli storage core device set -l locator -d
                                                  • esxcli storage core device set -l error -d
                                                  • esxcli storage core device set -l off -d 
                                                • ESXi 6.7 Update 1 启用了对 Cisco UCS 以太网光纤通道 (FCoE) 的 nfnic 驱动程序支持。
                                                • ESXi 6.7 Update 1 在 NVMe 驱动程序中添加了对 NGUID 的支持。
                                                • 由于 lsi_mr3 磁盘可维护性插件导致内存耗尽,ESXi 主机和 hostd 可能会变得无响应。
                                                • ESXi 中的 Intel 本机 i40en 驱动程序可能无法在 IPv6 网络中的 X722 系列网卡上正常工作,并且 LAN 唤醒服务可能会失败。
                                                • 您可能会看到彩色日志 Device 10fb does not support flow control autoneg 作为警示,但这是反映某些网卡的流量控制支持状态的常规日志。在某些 OEM 映像上,此日志可能会频繁显示,但这并不表示 ESXi 主机出现任何问题。
                                                • 在适配器上启用 SR-IOV 并重新引导主机后,某些 QLogic FastLinQ QL41xxx 适配器可能不会创建虚拟功能。
                                                • 在极少数情况下,使用 ntg3 驱动程序的网卡(例如,Broadcom BCM5719 和 5720 GbE 网卡)可能会在尝试发送过大的数据包失败后暂时停止发送数据包。ntg3 4.1.3.2 驱动程序可以解决该问题。
                                              ESXi-6.7.0-20181002001-no-tools
                                              配置文件名称 ESXi-6.7.0-20181002001-no-tools
                                              内部版本 有关内部版本信息,请参见本版本中包含的修补程序
                                              供应商 VMware, Inc.
                                              发布日期 2018 年 10 月 16 日
                                              接受级别 合作伙伴支持
                                              受影响的硬件 不适用
                                              受影响的软件 不适用
                                              受影响的 VIB
                                              • VMW_bootbank_brcmfcoe_11.4.1078.5-11vmw.670.1.28.10302608
                                              • VMW_bootbank_nenic_1.0.21.0-1vmw.670.1.28.10302608
                                              • VMW_bootbank_vmw-ahci_1.2.3-1vmw.670.1.28.10302608
                                              • VMware_bootbank_esx-base_6.7.0-1.28.10302608
                                              • VMware_bootbank_vsan_6.7.0-1.28.10290435
                                              • VMware_bootbank_vsanhealth_6.7.0-1.28.10290721
                                              • VMware_bootbank_esx-update_6.7.0-1.28.10302608
                                              • VMware_bootbank_lsu-intel-vmd-plugin_1.0.0-2vmw.670.1.28.10302608
                                              • VMW_bootbank_lsi-msgpt3_16.00.01.00-3vmw.670.1.28.10302608
                                              • VMW_bootbank_smartpqi_1.0.1.553-12vmw.670.1.28.10302608
                                              • VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.34-1.28.10302608
                                              • VMW_bootbank_nvme_1.2.2.17-1vmw.670.1.28.10302608
                                              • VMW_bootbank_bnxtroce_20.6.101.0-20vmw.670.1.28.10302608
                                              • VMW_bootbank_vmkusb_0.1-1vmw.670.1.28.10302608
                                              • VMware_bootbank_lsu-hp-hpsa-plugin_2.0.0-16vmw.670.1.28.10302608
                                              • VMW_bootbank_ne1000_0.8.4-1vmw.670.1.28.10302608
                                              • VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-13vmw.670.1.28.10302608
                                              • VMW_bootbank_i40en_1.3.1-22vmw.670.1.28.10302608
                                              • VMW_bootbank_ipmi-ipmi-msghandler_39.1-5vmw.670.1.28.10302608
                                              • VMware_bootbank_lsu-smartpqi-plugin_1.0.0-3vmw.670.1.28.10302608
                                              • VMW_bootbank_nenic_1.0.21.0-1vmw.670.1.28.10302608
                                              • VMW_bootbank_lsi-msgpt2_20.00.04.00-5vmw.670.1.28.10302608
                                              • VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.34-1.28.10302608
                                              • VMW_bootbank_ipmi-ipmi-devintf_39.1-5vmw.670.1.28.10302608
                                              • VMware_bootbank_vsanhealth_6.7.0-1.28.10290721
                                              • VMW_bootbank_nhpsa_2.0.22-3vmw.670.1.28.10302608
                                              • VMware_bootbank_cpu-microcode_6.7.0-1.28.10302608
                                              • VMW_bootbank_lsi-msgpt3_16.00.01.00-3vmw.670.1.28.10302608
                                              • VMW_bootbank_bnxtroce_20.6.101.0-20vmw.670.1.28.10302608
                                              • VMW_bootbank_mtip32xx-native_3.9.8-1vmw.670.1.28.10302608
                                              • VMware_bootbank_lsu-lsi-lsi-mr3-plugin_1.0.0-13vmw.670.1.28.10302608
                                              • VMW_bootbank_nhpsa_2.0.22-3vmw.670.1.28.10302608
                                              • VMW_bootbank_lsi-msgpt2_20.00.04.00-5vmw.670.1.28.10302608
                                              • VMW_bootbank_vmkfcoe_1.0.0.1-1vmw.670.1.28.10302608
                                              • VMW_bootbank_nfnic_4.0.0.14-0vmw.670.1.28.10302608
                                              • VMW_bootbank_mtip32xx-native_3.9.8-1vmw.670.1.28.10302608
                                              • VMware_bootbank_lsu-smartpqi-plugin_1.0.0-3vmw.670.1.28.10302608
                                              • VMW_bootbank_lsi-mr3_7.702.13.00-5vmw.670.1.28.10302608
                                              • VMW_bootbank_iser_1.0.0.0-1vmw.670.1.28.10302608
                                              • VMW_bootbank_nvmxnet3_2.0.0.29-1vmw.670.1.28.10302608
                                              • VMW_bootbank_lsi-msgpt35_03.00.01.00-12vmw.670.1.28.10302608
                                              • VMW_bootbank_ipmi-ipmi-msghandler_39.1-5vmw.670.1.28.10302608
                                              • VMW_bootbank_elxnet_11.4.1095.0-5vmw.670.1.28.10302608
                                              • VMW_bootbank_ixgben_1.4.1-16vmw.670.1.28.10302608
                                              • VMW_bootbank_ntg3_4.1.3.2-1vmw.670.1.28.10302608
                                              • VMW_bootbank_ipmi-ipmi-si-drv_39.1-5vmw.670.1.28.10302608
                                              • VMW_bootbank_qedentv_2.0.6.4-10vmw.670.1.28.10302608
                                              • VMW_bootbank_i40en_1.3.1-22vmw.670.1.28.10302608
                                              • VMW_bootbank_ipmi-ipmi-devintf_39.1-5vmw.670.1.28.10302608
                                              • VMware_bootbank_cpu-microcode_6.7.0-1.28.10302608
                                              • VMW_bootbank_lpfc_11.4.33.3-11vmw.670.1.28.10302608
                                              已修复的 PR 1220910、2036262、2036302、2039186、2046226、2057603、2058908、2066026、2071482、2072977、2078138、2078782、2078844、2079807、2080427、2082405、2083581、2084722、2085117、2086803、2086807、2089047、2096126、2096312、2096947、2096948、2097791、2098170、2098868、2103579、2103981、2106747、2107087、2107333、2110971、2118588、2119610、2119663、2120346、2126919、2128933、2129130、2129181、2131393、2131407、2133153、2133588、2136004、2137261、2139127、2145089、2146206、2146535、2149518、2152380、2154913、2156841、2157501、2157817、2163734、2165281、2165537、2165567、2166114、2167098、2167878、2173810、2186253、2187008、2204439、2095671、2095681、2124061、2095671、2095681、2093493、2103337、2112361、2099772、2137374、2112193、2153838、2142221、2106647、2137374、2156445
                                              相关的 CVE 编号 不适用
                                              • 此修补程序更新了以下问题:
                                                • 如果手动删除在 ESXi 主机的 /scratch/downloads 目录中下载的虚拟机支持包文件夹,hostd 服务可能会失败。如果 hostd 在创建文件一小时后自动尝试删除 /scratch/downloads 目录中的文件夹,则会发生失败。

                                                • 编辑 ESXi 主机的配置文件以将智能卡读取器用作直通设备时,如果还启用了已连接设备时支持 vMotion 功能,您可能无法使用该读取器。

                                                • 在 vSAN 环境中,记录与虚拟机和 ESXi 相关的活动的 VMkernel 日志可能会充斥着大量的无法注册文件系统 (Unable to register file system) 消息。

                                                • 如果您使用 vSphere Web Client 来增加虚拟机的磁盘大小,vSphere Web Client 可能不会完全反映该重新配置并且会将虚拟机的存储分配显示为未更改。

                                                • 如果您尝试使用 vmxnet3 网络适配器和 WDS 以 PXE 方式引导使用 EFI 固件的虚拟机,并且没有禁用 WDS 中的变量窗口扩展选项,则虚拟机的引导速度可能会极为缓慢。

                                                • 由于 Apple USB 的问题,iOS 版本高于 iOS 11 的设备无法连接到 OS X 版本高于 OS X 10.12 的虚拟机。

                                                • 如果在主机配置文件上启用“有状态安装”功能,并且管理 VMkernel 网卡连接到分布式虚拟交换机,则在 PXE 引导期间使用 vSphere Auto Deploy 将主机配置文件应用于其他 ESXi 6.7 主机可能会失败。该主机仍处于维护模式。 

                                                • 如果虚拟机使用 CBRC 生成了快照,然后禁用 CBRC,则磁盘整合操作可能会失败并显示错误指定的参数不正确: spec.deviceChange.device (A specified parameter was not correct: spec.deviceChange.device),因为在禁用 CBRC 后,摘要文件会被删除。在解决该问题之前,将一直显示警示“需要整合虚拟机磁盘 (Virtual machine disks consolidation is needed)”。此修复可防止出现该问题,但是如果虚拟机在启用 CBRC 时生成了快照,然后禁用该功能,则该问题可能仍然存在。

                                                • ESXi 主机可能会由于内存分配问题而出现故障并显示紫色诊断屏幕。 

                                                • VMkernel 中的一个错误计算导致 esxtop 实用程序针对支持 VMware vSphere Storage APIs Array Integration (VAAI) 的 LUN 报告的每个命令的平均设备延迟 (DAVG/cmd) 统计信息和每个命令的平均 ESXi VMkernel 延迟 (KAVG/cmd) 统计信息不正确。

                                                • 此修复将存储阵列类型插件 (SATP) 设置为 VMW_SATP_ALUA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on,作为以下 DELL MD 存储阵列型号的默认值:MD32xx、MD32xxi、MD36xxi、MD36xxf、MD34xx、MD38xxf 和 MD38xxi。 

                                                • 在冷迁移或 vSphere High Availability 故障切换后,虚拟机可能无法连接到分布式端口组,因为该端口在虚拟机打开电源之前已删除。

                                                • ESXi 主机可能不会在 Block Limits VPD 页面中反映 SCSI 设备报告的 MAXIMUM TRANSFER LENGTH 参数。因此,以大于限制的传输大小发出的 I/O 命令可能会失败并显示类似以下内容的日志:

                                                  2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.

                                                • 此修复将存储阵列类型插件 (SATP) 设置为 VMW_SATP_ALUA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on,作为支持非对称逻辑单元访问 (ALUA) 的 HITACHI OPEN-v 类型存储阵列的默认值。

                                                  此外,该修复还将存储阵列类型插件 (SATP) 设置为 VMW_SATP_DEFAULT_AA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_off,作为不支持 ALUA 的 HITACHI OPEN-v 类型存储阵列的默认值。

                                                • 如果为 CBRC 同时启用目标虚拟机和代理虚拟机,则静默快照磁盘无法热添加到代理虚拟机,因为在快照创建期间禁用目标虚拟机中的快照磁盘摘要。因此,虚拟机备份过程将失败。

                                                • syslog.log 文件中可能会重复填入与调用 HostImageConfigManager 受管对象相关的消息。

                                                • 在扩展 ESXi 主机的核心转储分区时,vCenter Server 报告可能会警告未配置核心转储目标,因为在增加分区大小之前,会临时取消激活现有核心转储分区。

                                                • 由于 VSCSI 中存在争用情况,如果使用 EMC RecoverPoint,ESXi 主机可能会在虚拟机关机或关闭电源过程中出现故障并显示紫色诊断屏幕。

                                                • 使用 VMW_VVolType 元数据键 OtherVMW_VVolTypeHint 元数据键 Sidecar 设置的 vSphere Virtual Volumes 可能无法发送 VMW_VmID 元数据键到关联的虚拟机,并且无法使用 ID 进行跟踪。

                                                • 此修复将 Solidfire SSD SAN 存储阵列的存储阵列类型插件 (SATP) 声明规则设置为 VMW_SATP_DEFAULT_AA,并将路径选择策略 (PSP) 设置为 VMW_PSP_RR,默认为每秒 10 个 I/O 操作以实现最佳性能。

                                                • 快速重新引导使用 LSI 控制器的系统或重新加载 LSI 驱动程序(例如 lsi_mr3)可能会使 LSI 控制器后面的磁盘处于脱机状态。LSI 控制器固件在卸载期间发送 SCSI STOP UNIT 命令,但在重新加载期间可能不会发出相应的 SCSI START UNIT 命令。如果磁盘脱机,托管在这些磁盘上的所有数据存储会变得无响应或不可访问。

                                                • 如果使用 vSphere vMotion 将具有文件设备筛选器的虚拟机从 vSphere Virtual Volumes 数据存储迁移到其他主机,并且该虚拟机已启用变更数据块跟踪 (CBT)、VMware vSphere Flash Read Cache (VFRC) 或 I/O 筛选器,则迁移可能会导致出现任何功能问题。在迁移期间,文件设备筛选器可能不会正确传输到主机。因此,如果在回写模式下配置缓存 I/O 筛选器,您可能会看到 CBT 中的增量备份受损、VFRC 和缓存 I/O 筛选器的性能下降、复制 I/O 筛选器受损和磁盘损坏。您还可能会看到虚拟机加密出现问题。

                                                • 如果虚拟机位于 VMFSsparse 快照上,向虚拟机发出的 I/O 可能只会在 VMFSsparse 级别进行部分处理,但上层(如 I/O 筛选器)可能会认为传输成功。这可能会导致数据不一致。如果 I/O 已完成,此修复将从上层设置暂时性错误状态以供参考。

                                                • SCSI INQUIRY 数据在 RDM LUN 的可插入存储架构 (PSA) 层缓存,后续 SCSI INQUIRY 命令的响应可能会从缓存返回,而不是查询 LUN。为避免提取缓存的 SCSI INQUIRY 数据,除了通过 ESXi 6.7 Update 1 修改使用 RDM 的虚拟机的 .vmx 文件之外,您还可以通过使用以下 ESXCLI 命令忽略 SCSI INQUIRY

                                                  esxcli storage core device inquirycache set --device <device-id> --ignore true

                                                  使用 ESXCLI 选项时,不必重新引导虚拟机。

                                                • 此修复将存储阵列类型插件 (SATP) 设置为 VMW_SATP_ALUA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_on,作为支持非对称逻辑单元访问 (ALUA) 的 Tegile IntelliFlash 存储阵列的默认值。此外,该修复还将存储阵列类型插件 (SATP) 设置为 VMW_SATP_DEFAULT_AA,将路径选择策略 (PSP) 设置为 VMW_PSP_RR,并将声明选项设置为 tpgs_off,作为不支持 ALUA 的 Tegile IntelliFlash 存储阵列的默认值。

                                                • 在 ESXi 引导期间,如果通过初始设备发现发出的命令失败并显示 ASYMMETRIC ACCESS STATE CHANGE UA,则路径故障切换可能需要更长时间,因为这些命令在 ESXi 主机中被阻止。这可能会延长 ESXi 引导时间。
                                                  您可能会看到类似以下内容的日志:
                                                  2018-05-14T01:26:28.464Z cpu1:2097770)NMP: nmp_ThrottleLogForDevice:3689: Cmd 0x1a (0x459a40bfbec0, 0) to dev "eui.0011223344550003" on path "vmhba64:C0:T0:L3" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x6 0x2a 0x6.Act:FAILOVER 2018-05-14T01:27:08.453Z cpu5:2097412)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x1a, CmdSN 0x29 from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0.2018-05-14T01:27:48.911Z cpu4:2097181)ScsiDeviceIO: 3029: Cmd(0x459a40bfd540) 0x25, CmdSN 0x2c from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0.2018-05-14T01:28:28.457Z cpu1:2097178)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x9e, CmdSN 0x2d from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0.2018-05-14T01:28:28.910Z cpu2:2097368)WARNING: ScsiDevice: 7641: GetDeviceAttributes during periodic probe'eui.0011223344550003': failed with I/O error

                                                • 由于缓存条目失效,VMFS6 数据存储可能会误报空间不足。空间分配报告通过自动更新缓存条目进行更正,但此修复可在更新之前防止出错。

                                                • 如果使用 vSphere Web Client 从配置中移除 NTP 服务器,则服务器设置可能仍保留在 /etc/ntp.conf 文件中。

                                                • 如果在将虚拟机从 ESXi 6.0 主机迁移到 ESXi 6.5 或 ESXi 6.7 主机之前,从 VMware EVC 模式下拉菜单中选择 Intel MeromPenryn 微处理器,虚拟机可能会停止响应。

                                                • 由于存储阵列中的 I/O 延迟有所变化,因此可能会生成以下两个 VOB 事件,但它们不会报告虚拟机中的实际问题:

                                                  • 1.设备 naa.xxx 性能降低。I/O 延迟已从平均值 4114 微秒增加到 84518 微秒。
                                                  • 2.设备 naa.xxx 性能已得到改善。I/O 延迟已从 346115 微秒降低为 67046 微秒。
                                                • 使用 VMware Host Client 导出大型虚拟机可能会失败或导致 VMDK 文件不完整,因为 ExportVm 方法发出的租约可能在文件传输完成之前到期。

                                                • 网络连接任务数量较多(特别是多次调用 QueryNetworkHint()),可能会超过 hostd 进程的内存限制并使其出现间歇性失败。

                                                • 不支持 Block Limits VPD 页面 0xb0 的驱动器可能会生成大量充斥 vmkernel.log 的事件代码日志。

                                                • OMIVV 依赖 iDRAC 属性 hardware.systemInfo.otherIdentifyingInfo.ServiceTag 中的信息提取 SerialNumber 参数,以便识别某些 Dell 模块化服务器。serviceTag 属性中存在不匹配可能导致此集成失败。

                                                • 如果 VASA 提供程序丢失了数据库中的绑定信息,vSphere Virtual Volumes 可能会变得无响应,因为在 CPU 满负荷运行时会无限循环。hostd 也可能会停止响应。您可能会看到一条致命错误消息。

                                                • vSphere Virtual Volumes 元数据可能仅在虚拟机开始运行时才可用。因此,在常规使用期间和故障切换之后,存储阵列供应商软件可能无法应用影响最佳卷布局的策略。

                                                • 如果使用 VASA 提供程序,您可能会看到针对已取消或已删除任务的多次 getTaskUpdate 调用。因此,您可能会看到消耗更多 API 带宽且日志涌出。

                                                • 硬件版本为 10 或更低版本、使用 EFI 并在 AMD 处理器上运行 Windows Server 2016 的虚拟机可能会在重新引导期间停止响应。如果虚拟机使用 BIOS、硬件版本为 11 或更高版本、客户机操作系统不是 Windows 或处理器是 Intel,则不会出现此问题。

                                                • 如果启用 NetFlow 网络分析工具对 vSphere Distributed Switch 端口组上的每个数据包进行采样,通过将“采样率”设置为 0,网络延迟可能会在流量超过 100 万时达到 1000 毫秒。

                                                • 失效票证在 hostd 生成新的票证之前不会被删除,可能会耗尽 RAM 磁盘 inode。这可能会导致某些 ESXi 主机停止响应。

                                                • 设备路径队列深度发生变化后,esxtop 命令行实用程序可能不会显示相应设备队列深度的更新值。

                                                • 手动重置硬件运行状况警报以恢复正常状态(右键单击警报侧栏窗格后选择重置为绿色)可能无法正常工作。这些警报可能在 90 秒后重新出现。

                                                • 以前,如果 vCenter Server 系统中缺少处理器或风扇等组件,存在感知传感器就会显示状态“未知”。但是,存在感知传感器没有关联的运行状况。

                                                • 如果在共享 VMFS 数据存储上配置 /productLocker 目录,当使用 vSphere vMotion 迁移虚拟机时,虚拟机中的 VMware Tools 可能会显示错误的状态“不受支持”。

                                                • 对于大型虚拟机,加密 vSphere vMotion 可能因迁移堆空间不足而失败。

                                                • 在不关闭电源或进行迁移的情况下执行数百个磁盘热添加或移除操作的虚拟机可能会终止并失效。这会影响备份解决方案,备份代理虚拟机可能因此而终止。

                                                  在 hostd 日志中,您可能会看到如下内容:

                                                  2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
                                                  2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
                                                  2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
                                                  2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171

                                                  在 vmkernel 日志中,内容如下:

                                                  2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
                                                  2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size.Cannot expand.

                                                • 已禁用的 IPMI 传感器或不报告任何数据的传感器可能生成无效硬件运行状况警报。

                                                • 在启用 IPFIX 时,如果不同的流量比较大,系统检测信号可能无法长时间从 IPFIX 占用 CPU 并触发紫色诊断屏幕。

                                                • 您可能会看到在高延迟(例如,延迟不少于 100 毫秒)下通过高速网络链路(例如,不低于 1 GbE)执行远距离 vSphere vMotion 操作的性能降低,因为硬编码套接字缓冲区限制为 16 MB。

                                                • 由于 IPv6 环境中的多播侦听器发现 (MLD) 版本在查询时存在争用情况,ESXi 主机可能会在关机时出现故障并显示紫色诊断屏幕。您可能会看到一条类似于以下内容的错误消息:

                                                  #PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
                                                  ...
                                                  0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
                                                  0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
                                                  0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
                                                  0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000

                                                • 当用户在 vSphereProvisioning 网络栈中创建和添加 VMkernel 网卡以将其用于 NFC 流量时,管理 NFC 连接的守护进程可能无法清理旧连接。这将导致允许的进程限制耗尽。因此,主机变得无响应且无法为入站 SSH 连接创建进程。

                                                • 尝试使用 vSphere Standard 许可证创建 VFFS 卷可能会失败并显示错误“没有用于执行此操作的许可证,因为在此版本中未许可功能‘vSphere Flash Read Cache’(License not available to perform the operation as feature 'vSphere Flash Read Cache' is not licensed with this edition)”。这是因为系统使用 VMware vSphere Flash Read Cache 权限来检查是否允许置备 VFFS。

                                                • 在裸设备映射 (RDM) 磁盘等共享环境中,您无法对超过 8 个 ESXi 主机上的虚拟机使用多写入程序锁定。如果将虚拟机迁移到第九个主机,可能无法打开该主机的电源并显示错误消息“无法打开 xxxx.vmdk 或其所依赖的快照之一。(用户过多)(Could not open xxxx.vmdk or one of the snapshots it depends on. (Too many users))。此修复使高级配置选项 /VMFS3/GBLAllowMW 可见。您可以使用基于生成的锁定为超过 8 个主机手动启用或禁用多写入程序锁定。

                                                • 第三方 CIM 提供程序(例如,HPE 和 Stratus)可能会正常启动,但在使用其外部应用程序时缺乏一些预期的功能。

                                                • 如果数据存储检测信号在关闭 VMFS 时提前停止,ESXi 主机可能会变得无响应。因此,关联性管理器不能正常退出。

                                                • SNMP 监控系统针对 ESXi 主机报告的内存统计信息与 freetop vmstat 命令报告的值可能不同。

                                                • 如果连接到 ESXi 主机的目标仅支持隐式 ALUA 且只有备用路径,该主机可能会因存在争用情况而在发现设备时出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的回溯追踪:

                                                  SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
                                                  0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
                                                  0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
                                                  0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807

                                                • 启用 VSAN 的群集的“群集合规性”状态可能显示为“不合规”,因为合规性检查可能不会将 vSAN 数据存储识别为共享数据存储。

                                                • I/O 可能会失败并显示错误 FCP_DATA_CNT_MISMATCH,这将在 ESXi 主机中转换为 HOST_ERROR 并指示设备某些路径上的链路错误或故障切换。

                                                • 在有多条路径通向 IBM SVC 目标 LUN 的 ESXi 配置中,如果活动路径上的连接断开,同时其他连接的路径未处于服务 I/O 的状态,即使没有任何路径可以为 I/O 服务,ESXi 主机也有可能不会将此条件检测为 APD。因此,对设备的 I/O 操作不会很快就失败。

                                                • 由于阈值固定,您可能会看到使用 VMware NetQueue 的设备的 NUMA 服务器网络性能降低。通过更改高级配置 NetNetqNumaIOCpuPinThreshold 的默认值将 Rx 队列固定到 NUMA 节点时,会出现这种情况。

                                                • 从先前版本升级到 vSAN 6.7 Update 1 后,某些主机可能无法引导。  在 vSAN 群集中(每个主机具有 3、4 或 5 个磁盘组),启用 NUMA 的服务器上会出现此问题。创建最后一个磁盘组时,主机可能会超时。 

                                                • vSAN 在创建磁盘组后创建 blk 属性组件。如果支持 diskgroup rebuild 命令的 API 中缺少 blk 属性组件,您可能会在 vmkernel 日志中看到以下警告消息:Throttled: BlkAttr not ready for disk.

                                                • 从 vSAN 群集中移除所有磁盘组后,vSphere Client 会显示类似于以下内容的警告:
                                                  数据中心的 VMware vSAN 群集没有容量 (VMware vSAN cluster in datacenter does not have capacity) 
                                                  在群集上禁用 vSAN 后,该警告消息仍然存在。

                                                • 如果从 EMC VPLEX 存储系统取消映射 LUN,ESXi 主机可能会停止响应或出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的日志:
                                                  2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
                                                  2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.

                                                • ESXi 主机的 HBA 驱动程序可能在 I/O 负载繁重时与 EMC VPLEX 存储系统断开连接,当 I/O 路径可用时不会重新连接。

                                                • 在使用 HPE ProLiant Gen9 智能阵列控制器(例如 P440 和 P840)的 vSAN 群集中,可能不会在正确的故障设备上点亮定位器 LED 指示灯。

                                                • 如果从 EMC VPLEX 存储系统取消映射 LUN,ESXi 主机可能会停止响应或出现故障并显示紫色诊断屏幕。您可能会看到类似以下内容的日志:
                                                  2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
                                                  2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.

                                                • ESXi 主机的 HBA 驱动程序可能在 I/O 负载繁重时与 EMC VPLEX 存储系统断开连接,当 I/O 路径可用时不会重新连接。

                                                • ESXi 6.7 Update 1 启用了 Microsemi Smart PQI (smartpqi) LSU 插件,可支持在 HPE ProLiant Gen10 智能阵列控制器上执行连接磁盘管理操作。

                                                • 使用 ESXi 6.7 Update 1 时,可以运行以下存储 ESXCLI 命令以在基于 Intel VMD 的 NVMe SSD 上启用状态 LED,而无需下载 Intel CLI:

                                                  • esxcli storage core device set -l locator -d
                                                  • esxcli storage core device set -l error -d
                                                  • esxcli storage core device set -l off -d 
                                                • ESXi 6.7 Update 1 启用了对 Cisco UCS 以太网光纤通道 (FCoE) 的 nfnic 驱动程序支持。
                                                • ESXi 6.7 Update 1 在 NVMe 驱动程序中添加了对 NGUID 的支持。
                                                • 由于 lsi_mr3 磁盘可维护性插件导致内存耗尽,ESXi 主机和 hostd 可能会变得无响应。
                                                • ESXi 中的 Intel 本机 i40en 驱动程序可能无法在 IPv6 网络中的 X722 系列网卡上正常工作,并且 LAN 唤醒服务可能会失败。
                                                • 您可能会看到彩色日志 Device 10fb does not support flow control autoneg 作为警示,但这是反映某些网卡的流量控制支持状态的常规日志。在某些 OEM 映像上,此日志可能会频繁显示,但这并不表示 ESXi 主机出现任何问题。
                                                • 在适配器上启用 SR-IOV 并重新引导主机后,某些 QLogic FastLinQ QL41xxx 适配器可能不会创建虚拟功能。
                                                • 在极少数情况下,使用 ntg3 驱动程序的网卡(例如,Broadcom BCM5719 和 5720 GbE 网卡)可能会在尝试发送过大的数据包失败后暂时停止发送数据包。ntg3 4.1.3.2 驱动程序可以解决该问题。
                                              ESXi-6.7.0-20181001001s-standard
                                              配置文件名称 ESXi-6.7.0-20181001001s-standard
                                              内部版本 有关内部版本信息,请参见本版本中包含的修补程序
                                              供应商 VMware, Inc.
                                              发布日期 2018 年 10 月 16 日
                                              接受级别 合作伙伴支持
                                              受影响的硬件 不适用
                                              受影响的软件 不适用
                                              受影响的 VIB
                                              • VMware_bootbank_vsanhealth_6.7.0-0.28.10176879
                                              • VMware_bootbank_vsan_6.7.0-0.28.10176879
                                              • VMware_bootbank_esx-base_6.7.0-0.28.10176879
                                              • VMware_bootbank_esx-ui_1.30.0-9946814
                                              • VMware_locker_tools-light_10.3.2.9925305-10176879
                                              已修复的 PR 1804719、2093433、2099951、2168471
                                              相关的 CVE 编号 不适用
                                              • 此修补程序更新了以下问题:
                                                • ESXi userworld libxml2 库已更新到版本 2.9.7。

                                                • NTP 守护进程已更新到版本 ntp-4.2.8p11。

                                                • SQLite 数据库已更新到版本 3.23.1。

                                                • ESXi userworld libcurl 库已更新到 libcurl-7.59.0。

                                                • OpenSSH 版本已更新到 7.7p1。

                                                • ESXi userworld OpenSSL 库已更新到版本 openssl-1.0.2o。

                                                • Python 第三方库已更新到版本 3.5.5。

                                                • VMware Tools 的 Windows Vista 之前的 ISO 映像不再与 ESXi 打包在一起。Windows Vista 之前的 ISO 映像可由需要它的用户下载。有关下载信息,请参见产品下载页面。

                                              ESXi-6.7.0-20181001001s-no-tools
                                              配置文件名称 ESXi-6.7.0-20181001001s-no-tools
                                              内部版本 有关内部版本信息,请参见本版本中包含的修补程序
                                              供应商 VMware, Inc.
                                              发布日期 2018 年 10 月 16 日
                                              接受级别 合作伙伴支持
                                              受影响的硬件 不适用
                                              受影响的软件 不适用
                                              受影响的 VIB
                                              • VMware_bootbank_vsanhealth_6.7.0-0.28.10176879
                                              • VMware_bootbank_vsan_6.7.0-0.28.10176879
                                              • VMware_bootbank_esx-base_6.7.0-0.28.10176879
                                              • VMware_bootbank_esx-ui_1.30.0-9946814
                                              已修复的 PR 1804719、2093433、2099951、2168471
                                              相关的 CVE 编号 不适用
                                              • 此修补程序更新了以下问题:
                                                • ESXi userworld libxml2 库已更新到版本 2.9.7。

                                                • NTP 守护进程已更新到版本 ntp-4.2.8p11。

                                                • SQLite 数据库已更新到版本 3.23.1。

                                                • ESXi userworld libcurl 库已更新到 libcurl-7.59.0。

                                                • OpenSSH 版本已更新到 7.7p1。

                                                • ESXi userworld OpenSSL 库已更新到版本 openssl-1.0.2o。

                                                • Python 第三方库已更新到版本 3.5.5。

                                                • VMware Tools 的 Windows Vista 之前的 ISO 映像不再与 ESXi 打包在一起。Windows Vista 之前的 ISO 映像可由需要它的用户下载。有关下载信息,请参见产品下载页面。

                                              已知问题

                                              已知问题分为如下类别。

                                              ESXi670-201810201-UG
                                              • 将主机升级到 ESXi 6.7 Update 1 后,如果修复主机配置文件且主机使用 NVMe 设备(仅支持 NGUID 作为设备标识符),合规性检查可能会失败

                                                升级到使用 NVMe 设备(仅支持 NGUID 作为设备标识符)的主机 ESXi 6.7 Update 1 后,如果尝试修复为有状态安装配置的主机配置文件,合规性检查可能会失败。这是因为由 ESXi 6.7 Update 1 中的 NVMe 驱动程序提供的设备标识符是 NGUID 本身,而非 ESXi 生成的 t10 标识符。

                                                解决办法:更新主机配置文件配置:

                                                1. 导航到主机配置文件。
                                                2. 单击从主机复制设置
                                                3. 选择您要从其复制配置设置的主机。
                                                4. 单击确定
                                                5. 右键单击主机,然后选择主机配置文件 > 重置主机自定义
                                              • 在将数据主机转换为见证主机时,主机出现故障

                                                将 vSAN 群集转换为延伸群集时,必须提供见证主机。您可以将数据主机转换为见证主机,但在该过程中必须使用维护模式迁移全部数据。如果将主机置于维护模式,启用“确保可访问性”选项,然后将主机配置为见证主机,主机可能会发生故障并显示紫色诊断屏幕。

                                                解决办法:移除见证主机上的磁盘组,然后重新创建磁盘组。

                                              • 将连接到虚拟功能 (VF) 和物理功能 (PF) 的端口组设置为虚拟客户机标记 (VGT) 时,在 VF 中标记的单播数据包无法到达其 PF

                                                如果以中继模式在 VF 和 PF 端口组上配置 VGT,则单播流量可能无法在 VF 和 PF 之间传输。

                                                解决办法:当 VGT 使用 VF 时,不要对其使用 PF。如果由于某种原因必须在 PF 和 VF 上使用 VGT,则 VF 和 PF 必须位于不同的物理网卡上。

                                              • 物理网卡绑定可能在 PXE 引导后丢失

                                                如果 vmknic 连接到配置了物理网卡绑定的 NSX-T 逻辑交换机,则该配置可能在 PXE 引导后丢失。如果配置了软件 iSCSI 适配器,您可能会看到类似于 iSCSI 适配器 vmhba65 不具有配置文件中配置的虚拟网卡 vmkX (The iSCSI adapter vmhba65 does not have the vnic vmkX that is configured in the profile) 的主机合规性错误。

                                                解决办法:在主机引导后,配置物理网卡绑定和软件 iSCSI 适配器。

                                              • vmk0 管理网络 MAC 地址可能在修复主机配置文件时被删除

                                                使用在 VMware NSX-T 逻辑交换机上创建的 VMkernel 接口修复主机配置文件可能从 ESXi 主机中移除 vmk0。不能在 NSX-T 环境中使用此类主机配置文件。

                                                解决办法:手动配置主机。 

                                              • SNMP 服务在升级到 ESXi 6.7 后频繁失败

                                                在升级到 ESXi 6.7 后,如果在调用子线程时主线程未执行完毕,SNMP 服务可能会频繁失败,时间间隔小到 30 分钟。该服务生成 snmpd-zdump 核心转储。如果 SNMP 服务失败,您可以使用以下命令重新启动它:

                                                esxcli system snmp set -e falseesxcli system snmp set -e true

                                                解决办法:无。

                                              • 在重新均衡磁盘时,vSAN Health Service 显示的待移动数据量与 Ruby vSphere Console (RVC) 显示的数量不匹配

                                                RVC 执行粗略计算来确定在重新均衡磁盘时要移动的数据量。vSAN Health Service 显示的值更准确。在重新均衡磁盘时,请参考 vSAN Health Service 以检查要移动的数据量。

                                                解决办法:无。

                                              • PR 2132792:升级到 vSAN 6.7 Update 1 后,具有三个或更多磁盘组的主机无法引导

                                                在某些情况下,从先前版本升级到 vSAN 6.7 Update 1 后,某些主机可能无法引导。在 vSAN 群集中(每个主机具有 3、4 或 5 个磁盘组),启用 NUMA 的服务器上会出现这一罕见情况。

                                                解决办法:如果在升级到 vSAN 6.7 Update 1 期间,具有 3 个或更多磁盘组的主机无法引导,请按如下所示更改每个主机上的 ESXi 配置:
                                                在每个 vSAN 主机上运行以下命令:
                                                esxcfg-advcfg --set 0 /LSOM/blPLOGRecovCacheLines
                                                auto-backup.sh

                                              早期版本的已知问题

                                              查看以前的已知问题列表,请单击此处

                                              check-circle-line exclamation-circle-line close-line
                                              Scroll to top icon
                                              check-circle-line exclamation-circle-line close-line
                                              Scroll to top icon