vCenter Server 8.0 Update 1 | 2023 年 4 月 18 日 | GA ISO 内部版本 21560480

请查看发行说明以了解新增内容及更新。

正式发布

此 vCenter Server 8.0 Update 1 版本是一个正式发布 (GA) 版本。有关 vSphere Update 版本的 vSphere 8.0 IA/GA 发布模型的详细信息,请参见 vSphere 8 发布模型的发展历程

新增功能

  • vSphere Configuration Profiles:vSphere 8.0 Update 1 正式发布了 vSphere Configuration Profiles,该功能不仅支持在集群级别指定所需的主机配置来管理 ESXi 集群配置,还可以自动扫描 ESXi 主机,以确保其符合指定的所需配置,并修复任何不合规的主机。vSphere Configuration Profiles 要求使用 vSphere Lifecycle Manager 映像管理集群生命周期、具有 vSphere 8.0 Update 1 环境以及 Enterprise Plus 或 vSphere+ 许可证。有关详细信息,请参见使用 vSphere Configuration Profiles 在集群级别管理主机配置

  • 在 vSphere 8.0 Update 1 中,vSphere Distributed Services Engine 增加了对以下项的支持

    • Lenovo 服务器设计 (Lenovo ThinkSystem SR650 V2) 的 NVIDIA BlueField-2 DPU。

    • Dell 服务器设计的 100G NVIDIA BlueField-2 DPU。

    • NVIDIA BlueField-2 DPU 的 UPTv2。

    • Dell 基于 AMD Genoa CPU 的服务器设计。

  • 记录 vCenter Server 工作流所需的特权:在 vSphere 8.0 Update 1 中,为了帮助您确定运行 vCenter Server 工作流所需的最低特权集,可以记录工作流并存储所需的特权。可以使用存储的数据为运行相同工作流的用户创建特定的角色,类似于模板。通过搜索 vCenter Server 工作流记录,可以检索特权检查列表以及相应的会话、用户、受管对象和操作 ID (opID)。有关详细信息,请参见执行特权检查操作

  • 支持在同一 GPU 硬件上设置异构虚拟图形处理单元 (vGPU) 配置文件:vSphere 8.0 Update 1 移除了同一个物理 GPU 上的所有 vGPU 都必须具有相同类型的要求,现在,可以在一个 GPU 上设置不同的 vGPU 配置文件(例如计算、图形或虚拟桌面基础架构工作负载),从而提高了 GPU 利用率,减少了工作负载碎片化,节省了成本。

  • VMware Skyline™ Health Diagnostics™ 与 vCenter 集成:从 vSphere 8.0 Update 1 开始,可以使用与 vSphere Client 集成的 VMware Skyline Health Diagnostics 自助诊断平台检测并修复 vSphere 环境中的问题。有关详细信息,请参见 VMware Skyline Health Diagnostics for vSphere 文档

  • 虚拟机级别能耗衡量指标:从 vSphere 8.0 Update 1 开始,vSphere 管理员可以在虚拟机级别跟踪能耗,以支持组织的环境目标、社会目标和监管目标。

  • NVSwitch 支持:vSphere 8.0 Update 1 增加了对单个 ESXi 主机上多达 8 个 GPU 的支持,且这些 GPU 之间具有 NVSwitch 连接。使用 NVSwitch 技术,可以运行高性能计算 (HPC) 和 AI 应用程序(如深度学习、科学模拟和大数据分析),这些应用程序需要多个 GPU 并行协同工作。

  • vCenter 的 Okta 身份联合:在 vSphere 8.0 Update 1 中,可以为 Okta(作为外部身份提供程序)配置 vCenter Server 身份提供程序联合。有关详细信息,请参见为 Okta 配置 vCenter Server 身份提供程序联合

  • 对使用虚拟 TPM (vTPM) 模块的虚拟机支持 Fault Tolerance:在 vSphere 8.0 Update 1 中,可以对具有 vTPM 模块的虚拟机使用 FT,以确保任务关键型虚拟机的持续可用性和安全性。

  • Quick Boot 支持具有 TPM 2.0 芯片的服务器:在 vSphere 8.0 Update 1 中,不再需要为执行 Quick Boot 而禁用 TPM 2.0,从而节省了时间,消除了安全漏洞。

  • 适用于 vSphere Virtual Volumes 的 vSphere API for Storage Awareness (VASA) 版本 5:适用于 vSphere Virtual Volumes 的 VASA 版本 5 增强了安全性、多 vCenter 部署的认证管理和可用性支持。VASA 版本 5 弃用了自签名证书,但为早期 VASA 版本提供了向后兼容性支持。升级到 ESXi 8.0 Update 1 之前,请参见 VMware 知识库文章 91387,以确保 vSphere Virtual Volumes 数据存储的持续可用性。

  • Sidecar 文件成为配置 vVol 中的常规文件,而不是 vSphere Virtual Volumes 对象:为了提高 vSphere Virtual Volumes 的可扩展性和性能,从 vSphere 8.0 Update 1 开始,sidecar 文件不再是 vSphere Virtual Volumes 对象,而是配置 vVol 中的常规文件。当 sidecar 文件创建为 vSphere Virtual Volumes 对象时,对于第一类磁盘 (FCD) 等创建大量小型 sidecar 文件的解决方案,可能会导致 VASA 操作(如将卷绑定到协议端点和解除绑定)带来开销。在配置 vVol 主目录下创建 sidecar 文件移除了 VASA 和存储带来此类开销。

    更新到 ESXi 8.0 Update 1 后,配置 vVol 命名空间中的新虚拟机或虚拟磁盘在早期版本的 ESXi 主机上不受支持。有关详细信息和解决方案,请参见 VMware 知识库文章 90791

  • 增加了配置 vVol 类型的 vSphere Virtual Volumes 对象的默认容量:从 vSphere 8.0 Update 1 开始,为了允许将 vSphere Virtual Volumes 数据存储上的文件夹用作内容存储库,配置 vVol 类型的 vSphere Virtual Volumes 对象默认创建为精简置备 255 GB,而早期版本为 4 GB。此外,从 ESXi 8.0 Update 1 开始,配置 vVol 对象使用 VMFS-6 格式,而不是 VMFS-5。

  • 对 vSphere Virtual Volumes 提供 NVMe over TCP 支持:vSphere 8.0 Update 1 增加了对 vSphere Virtual Volumes 的 NVMe over TCP 支持。

  • 扩展了 XCOPY 支持:在 vSphere 8.0 Update 1 中,可以使用 EXTENDED COPY (XCOPY) 命令优化位于不同存储阵列中 VMFS 数据存储之间的数据复制,而不仅仅是同一阵列中数据存储之间的数据复制。跨存储阵列的 XCOPY 操作仅支持对 VMFS 6 数据存储执行,并允许卸载、迁移和克隆工作负载。虽然 ESXi 支持此功能,但必须在存储阵列端实施实际的跨阵列数据迁移。有关如何使用 SCSI T10命令的详细信息,请参见管理块存储设备上的硬件加速

  • 针对 SSD 设备上的 OSDATA 卷新增了文件类型:vSphere 8.0 Update 1 增加了一种新的文件系统类型 VMFSOS,专用于本地 SSD 设备上的 ESX-OSData 系统分区,支持继续在其他设备上使用虚拟闪存资源。这种新文件类型可防止出现以下情况:在本地 SSD 设备上格式化 ESX-OSData 卷时,fsType 返回虚拟闪存文件系统 (VFFS) 类型的文件。因此,ESX-OSData 卷的磁盘备份列在 vCenter 中的虚拟闪存资源下,但此类磁盘属于 ESX-OSData 卷,不属于虚拟闪存资源池。

  • NFS 流量隔离增强功能:在 vSphere 8.0 Update 1 中,要隔离 NFS 流量,可以通过网络将 NFS 共享上的 NFS3 数据存储绑定到集群中 ESXi 主机上的虚拟机内核适配器。在此版本中,NFS3 配置支持的 vSphere Virtual Volumes 数据存储不支持 VMKNIC 端口绑定。有关详细信息,请参见为 NFS 3 数据存储配置 VMkernel 绑定

  • NVMe-oF 命名空间容量增加了四倍:从 vSphere 8.0 Update 1 开始,可以使用 32 条通向 NVMe-oF 命名空间的路径,而在早期版本中为 8 条。

  • 支持端到端 NVMe 堆栈,无需协议转换:在 vSphere 8.0 Update 1 中,可插入存储架构 (PSA) 扩展了 NVMe 功能,现支持端到端 NVMe 堆栈,而无需在任何层中进行任何协议转换。

    vSphere 8.0 Update 1 还扩展了 NVMe 功能,增加了对第三方多路径插件的支持,以控制和管理 NVMe 阵列。

  • 增加了最大 Windows Server 故障切换集群 (WSFC) 数量:vSphere 8.0 Update 1 将每个 ESXi 主机的最大 WSFC 集群数从 3 个增加到了 16 个。

  • 增加了 NVMe over TCP 适配器数量:vSphere 8.0 Update 1 将每个 ESXi 主机的 NVMe over TCP 存储适配器数量从 2 个增加到了 8 个,提高了冗余,增加了带宽。

  • 支持对 VMDirectPath I/O 设备进行热添加和热移除:在 vSphere 8.0 Update 1 中,通过使用 vSphere API,可以在不关闭虚拟机电源的情况下添加或移除 VMDirectPath I/O 设备。有关详细信息,请参见对 VMDirectPath I/O 设备提供热添加支持

  • 增加了每个虚拟机的 PCI 直通设备数:在 vSphere 8.0 Update 1 中,每个虚拟机可以添加多达 64 个 PCI 直通设备,而在以前版本中只能添加 32 个,从而更好地支持虚拟化无线接入网络 (vRAN) 用例。

  • Remote Office and Branch Office (ROBO) 独立 ESXi 主机的本地库替代:从 vSphere 8.0 Update 1 开始,为了满足某些业务用例的需求,可以使用 vSphere Automation API 在 vSphere Client 中管理 Remote Office and Branch Office (ROBO) 独立 ESXi 主机的本地库替代。有关详细信息,请参见管理集群或独立主机的库替代

  • vSphere Client 中的高级筛选器:在 vSphere 8.0 Update 1 中,除了现有的快速筛选器选项外,还可以在 vSphere Client 中对大多数清单对象(如虚拟机列表、主机和集群、数据存储以及链接的 vCenter)设置高级筛选器。可以使用字符串(如名称、状态和客户机操作系统)和枚举(如 IP 地址)。要细化筛选器,可以使用各种逻辑运算符和 2 个条件。

  • 增加了可以通过多个连接挂载的最大 NFSv3 数据存储数:从 vSphere 8.0 Update 1 开始,可以在 ESXi 主机上配置多达 8 个到 NFSv3 数据存储的连接,而在早期版本中为 1 个,并且主机上的 NFSv3 数据存储可使用多达 256 个连接,具体取决于数据存储数量和为每个数据存储配置的连接数量的组合。有关详细信息,请参见 VMware 知识库文章 91481

  • 基于 HTTP/JSON 的线路协议作为 SOAP/XML 的替代方案:vSphere 8.0 Update 1 增加了对基于 HTTP/JSON 的新线路协议的支持,作为 SOAP/XML 的替代方案。这个新协议使用行业标准 OpenAPI 规范版本 3.0 进行描述,可以使用该协议访问常用的 VIM API。有关详细信息,请参见 vSphere Management SDK 中的 OpenAPI 结构定义和“Web Services 编程指南”。

vCenter Server 8.0 的早期版本

vCenter Server 的功能、已解决问题和已知问题在各个版本的发行说明中均有描述。vCenter Server 8.0 的早期版本的发行说明包括:

有关国际化、兼容性、安装、升级、开源组件和产品支持注意事项的说明,请参见 VMware vSphere 8.0 发行说明

有关 vCenter Server 支持的升级和迁移途径的详细信息,请参阅 VMware 知识库文章 67077

此版本的安装与升级

升级到 VASA 版本 5 之前,请参阅 VMware 知识库文章 91387,以确保 vSphere Virtual Volumes 数据存储的持续可用性。

兼容性

在 vSphere Virtual Volumes 的配置 vVol 命名空间中新创建的版本为 ESXi 8.0 Update 1 的虚拟机或虚拟磁盘在早期版本的 ESXi 主机上不受支持。有关详细信息和解决方案,请参见 VMware 知识库文章 90791

产品支持注意事项

  • 由于 vSphere 8.0 不再支持 SHA-1 签名算法,如果使用增强型链接模式 (ELM) 连接版本 7.0x 和 8.0x 的 vCenter 系统,则在升级过程中,请勿在 7.0x vCenter 实例中添加 SHA-1 可信根证书,因为 SHA-1 证书可能会传播到 8.0x vCenter 并导致出现意外结果,例如,断开 ESXi 主机的连接。

    如果已通过 ELM 连接 7.0x vCenter 实例并使用 SHA-1 可信根证书,请不要在该组中添加 8.0x vCenter 实例,因为 SHA-1 证书可能会复制到 8.0x 实例。

本版本中包含的修补程序

适用于 VMware vCenter Server 8.0 Update 1 的修补程序

适用于 vCenter Server 的产品修补程序,其中包含 VMware 软件修复、安全修复和第三方产品修复。

此修补程序适用于 vCenter Server。

下载文件名称

VMware-vCenter-Server-Appliance-8.0.1.00000-21560480-patch-FP.iso

内部版本

21560480

下载大小

7965.6 MB

sha256checksum

1016f37c466e46957879f4084e176e62d96803fb0d1ad16cb1b8f6fc0e852b24

下载和安装

要从 VMware Customer Connect 下载此修补程序,必须导航到产品和帐户 > 产品修补程序。从选择产品下拉菜单中选择 Vc,然后从选择版本下拉菜单中选择,然后从选择版本下拉菜单中选择 8.0.1

  1. VMware-vCenter-Server-Appliance-8.0.1.00000-21560480-patch-FP.iso 文件附加到 vCenter Server CD 或 DVD 驱动器。

  2. 以具有超级管理特权(例如 root)的用户身份登录到设备 shell,并运行以下命令:

    • 转储 ISO:

      software-packages stage --iso

    • 查看已转储的内容:

      software-packages list --staged

    • 安装已转储的 RPM:

      software-packages install --staged

有关使用 vCenter Server shell 的详细信息,请参见 VMware 知识库文章 2100508

有关修补 vCenter Server 的详细信息,请参见修补和更新 vCenter Server 8.0 部署

有关转储修补程序的详细信息,请参见升级 vCenter Server Appliance

已解决的问题

安全功能问题

  • 在 ESXi 8.0 主机上启用 TLS 1.0 会导致连接断开

    ESXi 8.0 支持 OpenSSL 3.0,默认启用的唯一 TLS 协议是 TLS 1.2。如果尝试使用 ESXCLI 命令在 /UserVars/ESXiVPsDisabledProtocols 中启用 TLS 1.0,将导致连接断开。

    本版本已解决该问题。

其他问题

  • 对用于创建映像以管理独立 ESXi 主机的 vSphere Lifecycle Manager 库执行删除操作时,此操作的元数据可能错误

    从 vSphere 8.0 开始,可以基于 vSphere Lifecycle Manager 库(联机或脱机)创建映像,以管理 vCenter Server 清单中任何独立 ESXi 主机的生命周期。在极少数情况下,删除此类库时,删除任务的元数据可能不正确。例如,您会看到 clusterName 和 clusterID 下填充了 hostid 和 hostIP 详细信息,例如:

    clusterName = 10.161.153.136,

    clusterId = host-54,

    entityName = <null>,

    entityId = <null>,

    删除使用 VMware vSphere Update Manager Download Service (UMDS) 下载的库时也会出现此问题,UMDS 是独立主机所需状态的一部分。该问题不会影响任何 vSphere Lifecycle Manager 操作,仅影响独立主机的任务元数据。

    本版本已解决该问题。

  • 如果为硬件版本低于 20 的虚拟机配置供应商设备组,此类虚拟机可能无法按预期运行

    供应商设备组(支持绑定高速网络连接设备和 GPU)仅在硬件版本为 20 及更高版本的虚拟机上受支持,但系统不会阻止您为硬件版本低于 20 的虚拟机配置供应商设备组。此类虚拟机可能无法按预期运行:例如,无法打开电源。

    本版本已解决该问题。

服务器配置问题

  • 更改每秒输入/输出操作数 (IOPS) 限制可能会导致虚拟机的 I/O 吞吐量显著下降

    使用基于存储策略的管理 (SPBM) 策略基于 Storage I/O Control (SIOC) 更改 IOPS 限制时,虚拟机性能可能会显著降低。通常,设置 SPBM 策略时,IOPS 限制由 I/O 筛选器处理,而默认 I/O 调度程序 mClock 处理预留和份额。由于逻辑故障,更改现有 IOPS 限制时,I/O 可能会在 mClock 调度程序处受到限制,而不是在 I/O 筛选器处受到限制。因此,I/O 到达 I/O 筛选器时会有明显延迟,从而导致虚拟机的 I/O 吞吐量下降。

    本版本已解决该问题。此修复可确保 IOPS 限制由 I/O 筛选器处理,而 mClock 处理预留和份额。有关详细信息,请参见 VMware 知识库文章 89951

已知问题

安装、升级和迁移问题

  • 在 vCenter 8.0 Update 1 中,无法在使用自定义 OVA 部署的虚拟机上指定 IP 属性

    在 vCenter 8.0 Update 1 系统上使用自定义 OVA 文件部署虚拟机时,可能不会显示用于提供虚拟机 IP 属性的字段,必须在部署后手动添加 IP 属性。

    解决办法:如果虚拟机部署成功,可以从新部署虚拟机的配置选项卡下的 vApp 选项手动设置 IP 属性。如果虚拟机部署失败,则必须先将属性 ovf:required="false" 添加到 OVF 文件中具有属性 vmw:qualifiers='Ip' 的属性,然后再应用此解决办法。有关详细信息,请参见 VMware 知识库文章 93677

  • 升级到 vCenter Server 8.0 Update 1 失败并显示错误“postInstallHook 中出现异常 (Exception occurred in postInstallHook)”

    如果 vCenter Single Sign-On 域包含 [email protected][email protected] 等大小写,则升级到 vCenter Server 8.0 Update 1 可能会失败并显示错误“postInstallHook 中出现异常 (Exception occurred in postInstallHook)”。

    在 vSphere Client 中,您会看到如下错误消息:“wcp 服务无法启动 wcp service failed to start”。

    PatchRunner.log 中,您会看到类似以下内容的错误:An error occurred while starting service 'wcp'

    wcpsvc.log 中,您会看到以下错误:Failed to parse VC JWKS: invalid character '<' looking for beginning of valueUnable to get VC public key configuration : invalid character '<' looking for beginning of value

    发生此类故障后,必须从备份还原 vCenter 或从快照恢复。

    解决办法:请参见 VMware 知识库文章 92436

  • ESXi 独立主机的 vSphere Lifecycle Manager 映像合规性报告中缺少固件合规性详细信息

    在以下两种情况下,ESXi 独立主机的 vSphere Lifecycle Manager 映像合规性报告中可能缺少固件合规性详细信息:

    1. 从 vSphere Client 针对使用 vSphere Lifecycle Manager 映像管理的独立主机运行合规性报告,然后在生成合规性报告之前离开。

    2. 在生成映像合规性报告后触发页面刷新。

    在这些情况下,即使所需状态中具有可用的固件软件包,在重新访问或刷新 vSphere Client 浏览会话后,固件合规性部分也仍为空。如果使用 GET 映像合规性 API,则响应中将缺少固件合规性详细信息。

    解决办法:通过 vSphere Client 调用对使用 vSphere Lifecycle Manager 映像管理的独立主机执行映像合规性扫描,同时不要离开或刷新浏览器。对于 API,请使用 Check 映像合规性 API 获取固件详细信息,而不使用 GET 映像合规性。

  • 使用 vSphere Lifecycle Manager 执行并行修复在一个 ESXi 主机上失败可能会导致其他主机一直处于重新引导挂起状态

    如果使用 vSphere Lifecycle Manager 执行并行修复期间网络连接意外中断,可能会导致该操作在其中一个 ESXi 主机失败。其他主机上的修复将继续,但主机无法重新引导以完成任务。

    解决办法:如果 ESXi 主机尝试修复一直失败,请手动触发重新引导。有关详细信息,请参见 VMware 知识库文章 91260

  • 更新到 vCenter Server 8.0 Update 1 期间,在虚拟设备管理界面 (VAMI) 中看到错误“无法获取 ceip 状态 (Failed to get ceip status)”

    在更新过程中,vCenter 会停止并重新启动 VMDir 服务,在此时间间隔内,如果尝试登录到 VAMI,可能会看到类似以下内容的错误:Failed to get ceip status。这是预期行为,并不表示 vCenter 系统存在实际问题。

    解决办法:等待 VMDir 服务重新启动,然后刷新虚拟设备管理界面。

其他问题

  • 在混合链接模式下,云 vCenter 无法发现在内部部署 vCenter 上部署的插件

    混合链接模式支持将云 vCenter Server 实例与内部部署 vCenter Single Sign-On 域相链接,但云 vCenter 可能无法发现在内部部署实例上部署的插件,因为它没有必要的权限。

    解决办法:在内部部署环境中安装 vCenter Cloud Gateway,然后从 VMware Cloud 控制台或直接从内部部署 vCenter 上的 vSphere Client 浏览在内部部署实例上部署的插件。

网络连接问题

  • 在虚拟机上不自动启用 DirectPath I/O 设备的热添加和热移除

    在 vSphere 8.0 Update 1 中,通过使用 vSphere API,可以在不关闭虚拟机电源的情况下添加或移除 DirectPath I/O 设备。启用热插拔功能以便可以在虚拟机中热添加和热移除 DirectPath I/O 设备时,如果使用此类虚拟机创建 OVF 和部署新虚拟机,则新虚拟机可能不会自动启用热插拔功能。

    解决办法:按照对 VMDirectPath I/O 设备提供热添加和热移除支持中所述启用热插拔功能。

  • 对 DirectPath I/O 设备执行的重叠热添加和热移除操作可能会失败

    在 vSphere 8.0 Update 1 中,通过使用 vSphere API,可以在不关闭虚拟机电源的情况下添加或移除 DirectPath I/O 设备。但是,如果同时运行多个操作,某些重叠任务可能会失败。

    解决办法:规划在 DirectPath I/O 设备的每次热添加或热移除操作之间安排 20 秒的处理时间。

vSphere Lifecycle Manager 问题

  • 无法编辑 VMware vSphere Lifecycle Manager 更新下载已调度任务

    在 vSphere Client 中,导航到 vCenter Server 实例并在配置选项卡下选择已调度任务时,如果选择 VMware vSphere Lifecycle Manager 更新下载任务并单击编辑,则无法修改现有设置。

    解决办法:可以按照配置 vSphere Lifecycle Manager 自动下载任务主题中的步骤编辑 VMware vSphere Lifecycle Manager 更新下载任务。

先前版本中的已知问题

安装、升级和迁移问题

  • 如果将使用软件 FCoE 配置的主机配置文件应用于 ESXi 8.0 主机,则操作将失败并显示验证错误

    从 vSphere 7.0 开始,软件 FCoE 已弃用,且 vSphere 8.0 不支持软件 FCoE 配置文件。如果尝试将早期版本中的主机配置文件应用到 ESXi 8.0 主机,例如编辑主机自定义,操作将失败。在 vSphere Client 中,您会看到类似以下内容的错误:Host Customizations validation error

    解决办法:禁用主机配置文件中的软件 FCoE 配置子配置文件。

  • 对于早期 ESXi 版本的现有主机配置文件,不能将 ESXi 8.0 主机用作引用主机

    当清单中仅有 8.0 引用主机可用时,对 ESXi 版本 7.x、6.7.x 和 6.5.x 的现有主机配置文件的验证将失败。

    解决办法:确保清单中具有相应版本的引用主机。例如,使用 ESXi 7.0 Update 2 引用主机更新或编辑 ESXi 7.0 Update 2 主机配置文件。

  • 升级到 ESXi 8.0 后,VMNIC 可能会关闭

    如果 VMNIC 的对等物理交换机不支持媒体自动检测,或者禁用了媒体自动检测,并且 VMNIC 链路设置为关闭后再打开,则在升级到或安装 ESXi 8.0 后,链路仍保持关闭。

    解决办法:使用以下两个选项之一:

    1. 通过导航到系统设置主菜单,在 BIOS 设置中启用选项 media-auto-detect,通常可以按 F2 或打开虚拟控制台,然后单击设备设置 > <特定博通网卡> > 设备配置菜单 > 媒体自动检测。重新引导主机。

    2. 或者,使用类似以下内容的 ESXCLI 命令:esxcli network nic set -S <your speed> -D full -n <your nic>。使用此选项,您还可以为链路设置固定速度,并且不需要重新引导。

  • 如果在升级到 ESXi 8.0 期间刷新 vCenter Server Security Token Service (STS),则升级可能会失败

    在 vSphere 8.0 中,vCenter Single Sign-On 将自动续订 VMCA 生成的 STS 签名证书。自动续订发生在 STS 签名证书过期之前,以及触发 90 天过期警报之前。但是,在集群中的多个 ESXi 主机上使用 vSphere Lifecycle Manager 映像执行长时间运行的升级或修复任务时,vSphere Lifecycle Manager 可能会在内部创建 STS 证书缓存。在极少数情况下,如果 STS 证书刷新任务与长时间运行的升级或修复任务并行开始,则升级任务可能会失败,因为内部缓存中的 STS 证书可能与刷新后的证书不同。升级任务失败后,某些 ESXi 主机可能仍处于维护模式。

    解决办法:手动将任何 ESXi 主机退出维护模式,然后重试升级或修复。系统将自动刷新或导入并替换 STS 签名证书,且不需要重新启动 vCenter Server 以避免停机。

  • 升级到 ESXi 8.0 后,由于参数弃用,某些 nmlx5_core 驱动程序模块设置可能会丢失

    nmlx5_core 驱动程序的某些模块参数(如 device_rssdrssrss)在 ESXi 8.0 中已弃用,并且在升级到 ESXi 8.0 后,不会保留与默认值不同的任何自定义值。

    解决办法:按如下所示,替换 device_rssdrssrss 参数的值:

    • device_rss: 使用 DRSS 参数。

    • drss: 使用 DRSS 参数。

    • rss: 使用 RSS 参数。

  • vCenter Server 还原过程的第二阶段进行到 90% 时停滞不前

    使用 vCenter Server GUI 安装程序或 vCenter Server Appliance 管理界面 (VAMI) 从基于文件的备份还原 vCenter 时,还原工作流可能会在进行到 90% 时停滞不前,并显示错误 401 Unable to authenticate user,即使任务在后端成功完成也是如此。如果部署的计算机与 NTP 服务器的时间不一致(需要时间同步),则会出现此问题。由于时间同步,时钟偏差可能会导致正在运行的 GUI 或 VAMI 会话失败。

    解决办法:如果使用 GUI 安装程序,则可以从 appliancesh shell 使用 restore.job.get 命令获取还原状态。如果使用 VAMI,请刷新浏览器。

其他问题

  • 如果关闭或重新启动 ESXi 主机时 PCI 直通在 DPU 上处于活动状态,则主机将发生故障并显示紫色诊断屏幕

    如果活动虚拟机在关闭或重新引导 ESXi 主机时具有到 DPU 的 PCI 直通,则该主机将发生故障并显示紫色诊断屏幕。此问题特定于具有 DPU 的系统,并且仅在使用 PCI 直通到 DPU 的虚拟机中出现。

    解决办法:关闭或重新引导 ESXi 主机之前,请确保主机处于维护模式,或者未运行使用 PCI 直通到 DPU 的虚拟机。如果对虚拟机使用自动启动选项,则自动启动管理器会在关闭或重新引导主机之前停止此类虚拟机。

  • 在具有 DPU 的 vCenter Server 系统中,如果禁用 IPv6,则无法管理 DPU

    尽管 vSphere Client 允许执行此操作,但如果在具有 DPU 的 ESXi 主机上禁用 IPv6,则无法使用这些 DPU,因为主机与设备之间的内部通信依赖于 IPv6。此问题仅影响具有 DPU 的 ESXi 主机。

    解决办法:确保在具有 DPU 的 ESXi 主机上启用了 IPv6。

  • 在预安装了 Pensando DPU 的 HPE 服务器上重新引导 ESXi 主机时,可能会延迟 10 分钟

    在极少数情况下,如果 DPU 出现故障,预安装了 Pensando DPU 的 HPE 服务器可能需要 10 分钟以上才能完成重新引导。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕,默认等待时间为 10 分钟。

    解决办法:无。

  • 如果在用于安装 ESXi 8.0 的远程管理应用程序中启用了 USB 接口,则会看到一个额外的具有上行链路 vusb0 的标准交换机 vSwitchBMC

    从 vSphere 8.0 开始,在 Integrated Dell Remote Access Controller (iDRAC) 和 HP Integrated Heat Out (ILO) 中,如果启用了 USB 接口(分别为 vUSB 和 vNIC),则会在 ESXi 主机上额外创建一个具有上行链路 vusb0 的标准交换机 vSwitchBMC。鉴于某些服务器上引入了数据处理单元 (DPU),这是预期行为,但可能会导致 VMware Cloud Foundation 启动进程失败。

    解决办法:安装 vSphere 8.0 前,按照供应商文档,在使用的远程管理应用程序中禁用 USB 接口。

    安装 vSphere 8.0 后,使用 ESXCLI 命令 esxcfg-advcfg -s 0 /Net/BMCNetworkEnable 阻止在下次重新引导主机时创建虚拟交换机 vSwitchBMC 和关联的端口组。

    例如,以下脚本:

    ~# esxcfg-advcfg -s 0 /Net/BMCNetworkEnable

    BMCNetworkEnable 的值为 0,该服务处于禁用状态。

    ~# reboot

    主机重新引导时,不会在与远程管理应用程序网络相关的主机中创建任何虚拟交换机、端口组和 VMKNIC。

  • 如果 NVIDIA BlueField DPU 处于硬件卸载模式禁用状态,则配置了 SR-IOV 虚拟功能的虚拟机将无法打开电源

    NVIDIA BlueField DPU 必须处于硬件卸载模式启用状态,配置了 SR-IOV 虚拟功能的虚拟机才能打开电源并正常运行。

    解决办法:如果将配置了 SR-IOV 虚拟功能的虚拟机连接到虚拟交换机,请始终对 NVIDIA BlueField DPU 使用硬件卸载模式启用这一默认设置。

  • 某些 ionic_en 驱动程序上行链路可能仅在单个接收队列的情况下运行,并且在本机模式下性能会下降

    Pensando Distributed Services Platform (DSC) 适配器具有 2 个高速以太网控制器(例如,vmnic6vmnic7)和一个管理控制器(例如 vmnic8):

    :~] esxcfg-nics -l

    vmnic6 0000:39:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:48 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller

    vmnic7 0000:3a:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:49 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller

    :~] esxcfg-nics -lS

    vmnic8 0000:3b:00.0 ionic_en_unstable Up 1000Mbps Full 00:ae:cd:09:c9:4a 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Management Controller

    高速以太网控制器 vmnic6vmnic7 先注册并在 RSS 设置为 16 个接收队列的情况下运行。

    :~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=16, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }

    但是,在极少数情况下,如果管理控制器 vmnic8 率先在 vSphere Distributed Switch 中注册,则高速以太网控制器 vmnic6vmnic7 上行链路最终可能会在 RSS 设置为 1 个接收队列的情况下运行。:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=1, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }

    因此,在本机模式下,您可能会看到性能下降。

    解决办法:使用以下命令在 ESXi 上重新加载 ionic_en driver:~] esxcfg-module -u ionic_en:~] esxcfg-module ionic_en:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int/ deviceInternal bind

  • 在虚拟设备管理界面 (VAMI) 中,您会在升级前阶段看到一条警告消息

    vSphere 8.0 已弃用对本地插件的支持,将 vSphere 插件移至远程插件架构。如果您的 8.0 vSphere 环境具有本地插件,则此类插件的某些重大更改可能会导致使用 VAMI 执行升级前检查失败。

    在“更新前检查结果”屏幕中,您会看到类似以下内容的错误:

    Warning message: The compatibility of plug-in package(s) %s with the new vCenter Server version cannot be validated. They may not function properly after vCenter Server upgrade.

    Resolution: Please contact the plug-in vendor and make sure the package is compatible with the new vCenter Server version.

    解决办法:在继续升级之前,参阅《VMware 兼容性指南》VMware 产品互操作性列表或联系插件供应商获取建议,以确保环境中的本地插件与 vCenter Server 8.0 兼容。有关详细信息,请参见博客 Deprecating the Local Plugins :- The Next Step in vSphere Client Extensibility Evolution 以及 VMware 知识库文章 87880

  • 无法从启用了 CPU 热添加的虚拟机中移除分配给虚拟非一致内存访问 (NUMA) 节点的 PCI 直通设备

    尽管默认情况下,在启用 CPU 热添加以允许将 vCPU 添加到正在运行的虚拟机后,虚拟 NUMA 拓扑会停用,但如果已将某个 PCI 直通设备分配给了 NUMA 节点,则尝试移除该设备时会显示错误。在 vSphere Client 中,您会看到类似以下内容的消息:“无效的虚拟机配置。启用 CPU 热添加后,无法配置虚拟 NUMA”(Invalid virtual machine configuration. Virtual NUMA cannot be configured when CPU hotadd is enabled)。

    解决办法:请参见 VMware 知识库文章 89638

  • 如果从 OVF 文件或内容库部署虚拟机,则该虚拟机的每插槽内核数将设置为 1

    如果从 OVF 文件或内容库部署虚拟机,而不是让 ESXi 自动选择每插槽内核数,则该数字将预设为 1。

    解决办法:可以使用 vSphere Client 手动设置每插槽内核数。有关详细信息,请参见 VMware 知识库文章 89639

网络连接问题

  • 无法在 Pensando DPU 上将 VMware vSphere Distributed Switch 上的最大传输单元 (MTU) 设置为大于 9174 的值

    如果 ESXi 8.0 系统上具有已启用 Pensando DPU 的 vSphere Distributed Services Engine 功能,则无法将 vSphere Distributed Switch 上的最大传输单元 (MTU) 设置为大于 9174 的值。

    解决办法:无。

  • 在使用 4.1.3 及更高版本的 ntg3 驱动程序的网卡上,看到链路出现抖动

    当两个使用 4.1.3 及更高版本的 ntg3 驱动程序的网卡直接连接(而不是连接到物理交换机端口)时,链路可能会出现抖动。4.1.3 之前的 ntg3 驱动程序或 tg3 驱动程序不会出现此问题。此问题与此类网卡上偶尔出现的节能以太网 (EEE) 链路抖动无关。EEE 问题的修复方法是使用 4.1.7 或更高版本的 ntg3 驱动程序,或者在物理交换机端口上禁用 EEE。

    解决办法:将 ntg3 驱动程序升级到版本 4.1.8,并将新模块参数 noPhyStateSet 设置为 1noPhyStateSet 参数默认为 0,并且在大多数环境中不需要,除非它们遇到此问题。

  • 在具有 DPU 的 vSphere 环境中进行 VMware NSX 安装或升级可能会失败并显示连接错误

    ESXi 主机端的间歇性计时问题可能会导致在具有 DPU 的 vSphere 环境中进行 NSX 安装或升级失败。nsxapi.logFailed to get SFHC response. MessageType MT_SOFTWARE_STATUS

    解决办法:等待 10 分钟,然后重试 NSX 安装或升级。

  • 如果在使用 icen 驱动程序启用或禁用 SR-IOV 后未重新引导 ESXi 主机,则在该主机上以 ENS 中断模式配置传输节点时,某些虚拟机可能无法获取 DHCP 地址

    如果在 ESXi 主机上使用 icen 驱动程序启用或禁用 SR-IOV,并在 ENS 中断模式下配置传输节点,那么在不重新引导主机的情况下,某些 Rx(接收)队列可能无法正常工作。因此,某些虚拟机可能无法获取 DHCP 地址。

    解决办法:直接添加传输节点配置文件而不启用 SR-IOV,或者在启用或禁用 SR-IOV 后重新引导 ESXi 主机。

  • 在 vSphere 8.0 中,无法将 Mellanox ConnectX-5、ConnectX-6 卡型号 1 级别 2 和型号 2 用于增强型网络堆栈 (ENS) 模式

    由于硬件限制,ConnectX-5 和 ConnectX-6 适配器卡不支持在 vSphere 8.0 中将型号 1 级别 2 和型号 2 用于增强型网络堆栈 (ENS) 模式。

    解决办法:使用支持 ENS 型号 1 级别 2 和型号 2A 的 Mellanox ConnectX-6 Lx 和 ConnectX-6 Dx 或更高版本的卡。

  • Pensando DPU 在 ESXi 主机的物理交换机端口上不支持链路层发现协议 (LLDP)

    在具有 DPU 的 ESXi 主机上启用 LLDP 时,该主机无法接收 LLDP 数据包。

    解决办法:无。

存储问题

  • 升级到 vCenter Server 8.0 后,VASA API 版本不会自动刷新

    vCenter Server 8.0 支持 VASA API 版本 4.0。但是,将 vCenter Server 系统升级到版本 8.0 后,VASA API 版本可能不会自动更改为 4.0。在以下 2 种情况下会出现此问题:

    1. 如果在以前版本的 VMware vCenter 中注册了支持 VASA API 版本 4.0 的 VASA 提供程序,则在升级到 VMware vCenter 8.0 后,VASA API 版本保持不变。例如,如果 VMware vCenter 系统版本 7.x 中注册了同时支持 VASA API 版本 3.5 和 4.0 的 VASA 提供程序,则升级该系统时,即使 VASA 提供程序支持 VASA API 版本 4.0,VASA API 版本也不会自动更改为 4.0。升级后,导航到 vCenter Server > 配置 > 存储提供程序并展开已注册 VASA 提供程序的常规选项卡时,仍会看到 VASA API 版本 3.5。

    2. 如果在 VMware vCenter 8.0 系统中注册支持 VASA API 版本 3.5 的 VASA 提供程序,并将 VASA API 版本升级到 4.0,则即使升级后,也仍会看到 VASA API 版本 3.5。

    解决办法:在 VMware vCenter 8.0 系统上取消注册 VASA 提供程序,然后重新注册。

  • 由于网络文件复制 (NFC) 管理器的会话未经身份验证,vSphere Storage vMotion 操作在 vSAN 环境中可能会失败

    如果虚拟机至少具有一个快照和多个虚拟磁盘,但使用不同的存储策略,则使用 vSphere Storage vMotion 将这些虚拟机迁移到 vSAN 数据存储可能会失败。出现此问题的原因是,由于简单对象访问协议 (SOAP) 正文超出允许的大小,导致 NFC 管理器的会话未经身份验证。

    解决办法:先迁移虚拟机主页命名空间,并且仅迁移其中一个虚拟磁盘。此操作完成后,对剩余的 2 个磁盘执行仅磁盘迁移。

  • 由于基于内容的读缓存 (CBRC) 中的摘要操作失败错误,无法创建虚拟机的快照

    在极少数情况下,在 CBRC 摘要文件更新期间分配内容 ID 会出现争用情况,这可能会导致数据磁盘中的内容 ID 与摘要磁盘中的内容 ID 之间出现差异。因此,无法创建虚拟机快照。您会在回溯追踪中看到 An error occurred while saving the snapshot: A digest operation has failed 等错误。如果重试快照创建任务,将可以完成此任务。

    解决办法:重试快照创建任务。

vCenter Server 和 vSphere Client 问题

  • 更改对象时,资源池和集群的“利用率”视图可能不会自动刷新

    当您已打开某个资源池或集群的监控选项卡下的利用率视图,然后更改该资源池或集群时,视图可能不会自动刷新。例如,打开一个集群的利用率视图,然后选择另一个集群时,您可能仍会看到第一个集群的统计数据。

    解决办法:单击刷新图标。

  • 如果将 vSphere 虚拟基础架构加载到 90% 以上,ESXi 主机可能会间歇性地与 vCenter Server 断开连接

    在极少数情况下,如果 vSphere 虚拟基础架构持续使用超过 90% 的硬件容量,则某些 ESXi 主机可能会间歇性地与 vCenter Server 断开连接。连接通常会在几秒钟内恢复。

    解决办法:如果与 vCenter Server 的连接未能在几秒钟内如期恢复,请使用 vSphere Client 手动重新连接 ESXi 主机。

  • 在 vSphere Client 中,看不到有关历史数据导入的横幅通知

    由于后端问题,在 vSphere Client 中看不到有关历史数据后台迁移的横幅通知。

    解决办法:使用 vCenter Server 管理界面,而不使用 vSphere Client。有关详细信息,请参见监控和管理历史数据迁移过程

  • 在混合 vCenter 环境中使用 API 创建的云原生存储 (CNS) 块卷显示错误

    如果您的环境中具有版本 8.0 和 7.x 的 vCenter Server 系统,则使用 API 创建云原生存储 (CNS) 块卷会成功,但在 vSphere Client 中查看 CNS 卷详细信息时,可能会看到错误。您将看到看到类似以下内容的错误:Failed to extract the requested data. Check vSphere Client logs for details. + TypeError: Cannot read properties of null (reading 'cluster')。仅当通过使用 8.0 vCenter Server 的 vSphere Client 查看由 7.x vCenter Server 管理的卷时,才会出现此问题。

    解决办法:登录到 vCenter Server 版本 7.x 系统上的 vSphere Client,查看卷属性。

  • 在极少数情况下,由于 vpxa 上请求队列的文件描述符不足,ESXi 主机可能会变得无响应,并且您会看到 vpxa 转储文件

    在极少数情况下,当向 vpxa 服务发出的请求需要很长时间(例如,等待访问速度较慢的数据存储)时,vpxa 上的请求队列可能会超出文件描述符的限制。因此,ESXi 主机可能会暂时变得无响应,并且您会在 /var/core 目录中看到 vpxa-zdump.00* 文件。vpxa 日志中包含行 Too many open files

    解决办法:无。vpxa 服务将自动重新启动并更正此问题。

  • 如果使用具有不可信证书的自定义更新存储库,则使用 vCenter Lifecycle Manager 工作流将 vCenter Server 升级或更新到 vSphere 8.0 可能会失败

    如果使用具有 VMware Certificate Authority (VMCA) 不信任的自签名证书的自定义更新存储库,则 vCenter Lifecycle Manager 将无法从此类存储库下载文件。因此,使用 vCenter Lifecycle Manager 工作流的 vCenter Server 升级或更新操作将失败,并显示错误 Failed to load the repository manifest data for the configured upgrade

    解决办法:使用 CLI、GUI 安装程序或虚拟设备管理界面 (VAMI) 执行升级。有关详细信息,请参见 VMware 知识库文章 89493

虚拟机管理问题

  • 将现有虚拟硬盘添加到新虚拟机时,您可能会看到虚拟机配置被拒绝的错误

    使用 VMware Host Client 将现有虚拟硬盘添加到新虚拟机时,该操作可能会失败并显示错误,例如:The VM configuration was rejected. Please see browser Console。出现此问题的原因是,VMware Host Client 可能无法获取某些属性,例如硬盘控制器。

    解决办法:选择硬盘并转到即将完成页面后,不要单击完成,而是返回一步,等待页面加载完成,然后单击下一步 > 完成

vSphere Lifecycle Manager 问题

  • 并行修复任务失败后,您看不到成功完成该操作或跳过该操作的正确 ESXi 主机数

    在 vSphere 8.0 中,您可以通过 vSphere Lifecycle Manager 并行(而不是顺序)修复所有处于维护模式的主机。但是,如果并行修复任务失败,您可能在 vSphere Client 中看不到已成功完成该操作、未完成该操作或跳过该操作的正确主机数,甚至根本看不到这些计数。此问题不会影响 vSphere Lifecycle Manager 功能,而仅会影响 vSphere Client 中的报告功能。

    解决办法:无。

  • 如果使用从启用了有状态安装的主机配置文件部署的 ESXi 主机作为映像在集群中部署其他 ESXi 主机,则该操作将失败

    如果提取从启用了有状态安装的主机配置文件部署的 ESXi 主机的映像,以在 vSphere Lifecycle Manager 集群中部署其他 ESXi 主机,则该操作将失败。在 vSphere Client 中,您会看到类似以下内容的错误:A general system error occurred: Failed to extract image from the host: no stored copy available for inactive VIB VMW_bootbank_xxx. Extraction of image from host xxx.eng.vmware.com failed

    解决办法:使用集群中的其他主机提取映像。

  • 尝试在版本低于 8.0 的 ESXi 主机上转储 vSphere Lifecycle Manager 映像时,会显示错误消息

    ESXi 8.0 引入了显式转储所需状态映像的选择方案,即将库组件从 vSphere Lifecycle Manager 库下载到 ESXi 主机的过程,而无需立即应用软件和固件更新。但是,仅支持在 ESXi 8.0 或更高版本的主机上转储映像。如果尝试在版本低于 8.0 的 ESXi 主机上转储 vSphere Lifecycle Manager 映像,则会显示消息,指出此类主机的转储失败,这些主机将被跳过。这是预期行为,并不表示任何功能失败,因为所有 ESXi 8.0 或更高版本的主机都会使用指定的所需映像进行转储。

    解决办法:无。确认受影响的 ESXi 主机的版本低于 8.0 后,忽略这些错误。

  • 在具有 DPU 的 ESXi 主机上使用 vSphere Lifecycle Manager 执行修复任务可能会间歇性失败

    在具有 DPU 的 ESXi 主机上启动 vSphere Lifecycle Manager 修复时,主机将按预期升级并重新引导,但在重新引导之后、完成修复任务之前,您可能会看到类似以下内容的错误:

    A general system error occurred: After host … remediation completed, compliance check reported host as 'non-compliant'. The image on the host does not match the image set for the cluster. Retry the cluster remediation operation.

    出现这个罕见问题的原因是,DPU 上的修复后扫描出现间歇性超时。

    解决办法:重新引导 ESXi 主机,并重新运行 vSphere Lifecycle Manager 合规性检查操作,其中包括修复后扫描。

VMware Host Client 问题

  • VMware Host Client 显示的严重性事件状态描述可能不正确

    在 VMware Host Client 中查看 ESXi 主机的严重性事件状态描述时,这些描述可能与您使用智能平台管理界面 (IPMI) 或 Lenovo XClarity Controller (XCC) 看到的描述不同。例如,在 VMware Host Client 中,PSU 传感器的严重性事件状态描述可能为 Transition to Non-critical from OK,而在 XCC 和 IPMI 中,该描述为 Transition to OK

    解决办法:使用 ESXCLI 命令 esxcli hardware ipmi sdr list 和 Lenovo XCC 验证严重性事件状态的描述。

安全功能问题

  • 如果使用的 RSA 密钥大小小于 2048 位,则 RSA 签名生成将失败

    从 vSphere 8.0 开始,ESXi 使用 OpenSSL 3.0 FIPS 提供程序。根据 FIPS 186-4 要求,对于任何签名生成,RSA 密钥大小都必须至少为 2048 位,并且不支持使用 SHA1 生成签名。

    解决办法:使用大于 2048 的 RSA 密钥大小。

check-circle-line exclamation-circle-line close-line
Scroll to top icon