This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

vCenter Server 8.0a | 2022 年 12 月 15 日 | ISO 内部版本 20920323

请查看发行说明以了解新增内容及更新。

新增功能

  • vCenter Server 8.0a 为 VMware vSphere with Tanzu 和 vCenter Server 提供了新功能和修复。有关 VMware vSphere with Tanzu 更新,请参见 VMware vSphere with Tanzu 发行说明。有关 vCenter Server 修复和已知问题,请参见已解决的问题已知问题部分。

  • 本版本解决了 CVE-2021-22048 安全漏洞。有关此漏洞及其对 VMware 产品所造成影响的详细信息,请参见 VMSA-2021-0025

有关国际化、兼容性、安装、升级、开源组件和产品支持注意事项的说明,请参见 VMware vSphere 8.0 发行说明

有关 vCenter Server 支持的升级和迁移途径的详细信息,请参阅 VMware 知识库文章 67077

本版本中包含的修补程序

此版本 vCenter Server 8.0a 提供了以下修补程序:

适用于 VMware vCenter Server 8.0a 的修补程序

适用于 vCenter Server 的产品修补程序,其中包含 VMware 软件修复、安全修复和第三方产品修复。

此修补程序适用于 vCenter Server。

下载文件名称

VMware-vCenter-Server-Appliance-8.0.0.10100-20920323-patch-FP.iso

内部版本

20920323

下载大小

6402.2 MB

sha256checksum

80291814a109b1e1c538c307e19268d3e13a49f0566a44ea1249552b70f67bc4

下载和安装

要从 VMware Customer Connect 下载此修补程序,必须导航到产品和帐户 > 产品修补程序。从选择产品下拉菜单中选择 VC,然后从选择版本下拉菜单中选择 8.0

  1. VMware-vCenter-Server-Appliance-8.0.0.10100-20920323-patch-FP.iso 文件附加到 vCenter Server CD 或 DVD 驱动器。

  2. 以具有超级管理特权(例如 root)的用户身份登录到设备 shell,并运行以下命令:

    • 转储 ISO:

      software-packages stage --iso

    • 查看已转储的内容:

      software-packages list --staged

    • 安装已转储的 RPM:

      software-packages install --staged

有关使用 vCenter Server shell 的详细信息,请参见 VMware 知识库文章 2100508

有关修补 vCenter Server 的详细信息,请参见修补和更新 vCenter Server 8.0 部署

有关转储修补程序的详细信息,请参见升级 vCenter Server Appliance

已解决的问题

安全问题

  • 升级到 vCenter Server 8.0 后,同步受密码保护的已订阅内容库可能会失败

    升级到 vCenter Server 8.0 后,由于缺少安全密钥详细信息,同步受密码保护的已订阅内容库可能会失败。在日志中,您会看到类似以下内容的错误:javax.crypto.BadPaddingException: Error finalising cipher data: pad block corrupted

    本版本已解决该问题。

网络连接问题

  • 当 NSX-ALB 上存在两个 SE 组时,不会创建负载均衡器和客户机集群

    如果向已分配或未分配 SE 或者虚拟服务的 NSX-ALB 添加第二个 SE 组,则创建新的主管集群或客户机集群将失败,并且无法升级现有的主管集群。在 NSX-ALB 控制器上创建虚拟服务将失败,并显示以下错误消息:

    get() returned more than one ServiceEngineGroup – it returned 2

    因此,新的负载均衡器不可用,您无法成功创建新的工作负载集群。

    有关详细信息,请参见 VMware 知识库文章 90386

    本版本已解决该问题。

已知问题

安装和升级问题

  • vCenter Server 更新失败,并显示有关存储库清单数据加载失败的错误

    如果设置的自定义存储库具有 vCenter Server 不信任的身份验证和自签名证书,则更新和升级到 vCenter Server 8.0 及更高版本可能会失败。在 vSphere Client 中,升级预检查完成后,您会看到诸如以下内容的错误:无法加载已配置升级的存储库清单数据 (Failed to load the repository manifest data for the configured upgrade)。

    解决办法:请参见 VMware 知识库文章 90259

其他问题

  • 无法恢复 vmware-rbd-watchdog 服务的配置更改

    使用 TLS 配置实用程序恢复配置更改时,vmware-rbd-watchdog 服务不会还原到预期的 TLS 协议。

    解决办法:使用参数 -s <service-name> 分别调用 rbd 服务,例如: root@sc1-10-168-175-98 [ /usr/lib/vmware-TlsReconfigurator/VcTlsReconfigurator ]# ./reconfigureVc restore -d /tmp/20221124T100959 -s vmware-rbd-watchdog

先前版本中的已知问题

安装、升级和迁移问题

  • 如果将使用软件 FCoE 配置的主机配置文件应用于 ESXi 8.0 主机,则操作将失败并显示验证错误

    从 vSphere 7.0 开始,软件 FCoE 已弃用,且 vSphere 8.0 不支持软件 FCoE 配置文件。如果尝试将早期版本中的主机配置文件应用到 ESXi 8.0 主机,例如编辑主机自定义,操作将失败。在 vSphere Client 中,您会看到类似以下内容的错误:Host Customizations validation error

    解决办法:禁用主机配置文件中的软件 FCoE 配置子配置文件。

  • 对于早期 ESXi 版本的现有主机配置文件,不能将 ESXi 8.0 主机用作引用主机

    当清单中仅有 8.0 引用主机可用时,对 ESXi 版本 7.x、6.7.x 和 6.5.x 的现有主机配置文件的验证将失败。

    解决办法:确保清单中具有相应版本的引用主机。例如,使用 ESXi 7.0 Update 2 引用主机更新或编辑 ESXi 7.0 Update 2 主机配置文件。

  • 升级到 ESXi 8.0 后,VMNIC 可能会关闭

    如果 VMNIC 的对等物理交换机不支持媒体自动检测,或者禁用了媒体自动检测,并且 VMNIC 链路设置为关闭后再打开,则在升级到或安装 ESXi 8.0 后,链路仍保持关闭。

    解决办法:使用以下两个选项之一:

    1. 通过导航到系统设置主菜单,在 BIOS 设置中启用选项 media-auto-detect,通常可以按 F2 或打开虚拟控制台,然后单击设备设置 > <特定博通网卡> > 设备配置菜单 > 媒体自动检测。重新引导主机。

    2. 或者,使用类似以下内容的 ESXCLI 命令:esxcli network nic set -S <your speed> -D full -n <your nic>。使用此选项,您还可以为链路设置固定速度,并且不需要重新引导。

  • 如果在升级到 ESXi 8.0 期间刷新 vCenter Server Security Token Service (STS),则升级可能会失败

    在 vSphere 8.0 中,vCenter Single Sign-On 将自动续订 VMCA 生成的 STS 签名证书。自动续订发生在 STS 签名证书过期之前,以及触发 90 天过期警报之前。但是,在集群中的多个 ESXi 主机上使用 vSphere Lifecycle Manager 映像执行长时间运行的升级或修复任务时,vSphere Lifecycle Manager 可能会在内部创建 STS 证书缓存。在极少数情况下,如果 STS 证书刷新任务与长时间运行的升级或修复任务并行开始,则升级任务可能会失败,因为内部缓存中的 STS 证书可能与刷新后的证书不同。升级任务失败后,某些 ESXi 主机可能仍处于维护模式。

    解决办法:手动将任何 ESXi 主机退出维护模式,然后重试升级或修复。系统将自动刷新或导入并替换 STS 签名证书,且不需要重新启动 vCenter Server 以避免停机。

  • 升级到 ESXi 8.0 后,由于参数弃用,某些 nmlx5_core 驱动程序模块设置可能会丢失

    nmlx5_core 驱动程序的某些模块参数(如 device_rssdrssrss)在 ESXi 8.0 中已弃用,并且在升级到 ESXi 8.0 后,不会保留与默认值不同的任何自定义值。

    解决办法:按如下所示,替换 device_rssdrssrss 参数的值:

    • device_rss: 使用 DRSS 参数。

    • drss: 使用 DRSS 参数。

    • rss: 使用 RSS 参数。

  • vCenter Server 还原过程的第二阶段进行到 90% 时停滞不前

    使用 vCenter Server GUI 安装程序或 vCenter Server Appliance 管理界面 (VAMI) 从基于文件的备份还原 vCenter 时,还原工作流可能会在进行到 90% 时停滞不前,并显示错误 401 Unable to authenticate user,即使任务在后端成功完成也是如此。如果部署的计算机与 NTP 服务器的时间不一致(需要时间同步),则会出现此问题。由于时间同步,时钟偏差可能会导致正在运行的 GUI 或 VAMI 会话失败。

    解决办法:如果使用 GUI 安装程序,则可以从 appliancesh shell 使用 restore.job.get 命令获取还原状态。如果使用 VAMI,请刷新浏览器。

其他问题

  • 在 vSphere API 资源管理器、VMware Datacenter CLI (DCLI) 和 PowerCLI 中,您会看到 API 选项“contentinternal”不起作用

    您会在 vSphere API 资源管理器、DCLI 和 PowerCLI 的元数据中看到 API 选项 contentinternal。例如,打开 https://<your vCenter IP>/ui/app/devcenter/api-explorer 时,您会在选择 API 下拉菜单中看到该选项。但该选项不起作用。

    解决办法:忽略 contentinternal API 选项,不使用该选项。

  • 如果关闭或重新启动 ESXi 主机时 PCI 直通在 DPU 上处于活动状态,则主机将发生故障并显示紫色诊断屏幕

    如果活动虚拟机在关闭或重新引导 ESXi 主机时具有到 DPU 的 PCI 直通,则该主机将发生故障并显示紫色诊断屏幕。此问题特定于具有 DPU 的系统,并且仅在使用 PCI 直通到 DPU 的虚拟机中出现。

    解决办法:关闭或重新引导 ESXi 主机之前,请确保主机处于维护模式,或者未运行使用 PCI 直通到 DPU 的虚拟机。如果对虚拟机使用自动启动选项,则自动启动管理器会在关闭或重新引导主机之前停止此类虚拟机。

  • 在具有 DPU 的 vCenter Server 系统中,如果禁用 IPv6,则无法管理 DPU

    尽管 vSphere Client 允许执行此操作,但如果在具有 DPU 的 ESXi 主机上禁用 IPv6,则无法使用这些 DPU,因为主机与设备之间的内部通信依赖于 IPv6。此问题仅影响具有 DPU 的 ESXi 主机。

    解决办法:确保在具有 DPU 的 ESXi 主机上启用了 IPv6。

  • 在预安装了 Pensando DPU 的 HPE 服务器上重新引导 ESXi 主机时,可能会延迟 10 分钟

    在极少数情况下,如果 DPU 出现故障,预安装了 Pensando DPU 的 HPE 服务器可能需要 10 分钟以上才能完成重新引导。因此,ESXi 主机可能会出现故障并显示紫色诊断屏幕,默认等待时间为 10 分钟。

    解决办法:无。

  • 如果在用于安装 ESXi 8.0 的远程管理应用程序中启用了 USB 接口,则会看到一个额外的具有上行链路 vusb0 的标准交换机 vSwitchBMC

    从 vSphere 8.0 开始,在 Integrated Dell Remote Access Controller (iDRAC) 和 HP Integrated Heat Out (ILO) 中,如果启用了 USB 接口(分别为 vUSB 和 vNIC),则会在 ESXi 主机上额外创建一个具有上行链路 vusb0 的标准交换机 vSwitchBMC。鉴于某些服务器上引入了数据处理单元 (DPU),这是预期行为,但可能会导致 VMware Cloud Foundation 启动进程失败。

    解决办法:安装 vSphere 8.0 前,按照供应商文档,在使用的远程管理应用程序中禁用 USB 接口。

    安装 vSphere 8.0 后,使用 ESXCLI 命令 esxcfg-advcfg -s 0 /Net/BMCNetworkEnable 阻止在下次重新引导主机时创建虚拟交换机 vSwitchBMC 和关联的端口组。

    例如,以下脚本:

    ~# esxcfg-advcfg -s 0 /Net/BMCNetworkEnable

    BMCNetworkEnable 的值为 0,该服务处于禁用状态。

    ~# reboot

    主机重新引导时,不会在与远程管理应用程序网络相关的主机中创建任何虚拟交换机、端口组和 VMKNIC。

  • 如果 NVIDIA BlueField DPU 处于硬件卸载模式禁用状态,则配置了 SR-IOV 虚拟功能的虚拟机将无法打开电源

    NVIDIA BlueField DPU 必须处于硬件卸载模式启用状态,配置了 SR-IOV 虚拟功能的虚拟机才能打开电源并正常运行。

    解决办法:如果将配置了 SR-IOV 虚拟功能的虚拟机连接到虚拟交换机,请始终对 NVIDIA BlueField DPU 使用硬件卸载模式启用这一默认设置。

  • 某些 ionic_en 驱动程序上行链路可能仅在单个接收队列的情况下运行,并且在本机模式下性能会下降

    Pensando Distributed Services Platform (DSC) 适配器具有 2 个高速以太网控制器(例如,vmnic6vmnic7)和一个管理控制器(例如 vmnic8):

    :~] esxcfg-nics -l

    vmnic6 0000:39:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:48 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller

    vmnic7 0000:3a:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:49 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller

    :~] esxcfg-nics -lS

    vmnic8 0000:3b:00.0 ionic_en_unstable Up 1000Mbps Full 00:ae:cd:09:c9:4a 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Management Controller

    高速以太网控制器 vmnic6vmnic7 先注册并在 RSS 设置为 16 个接收队列的情况下运行。

    :~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=16, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }

    但是,在极少数情况下,如果管理控制器 vmnic8 率先在 vSphere Distributed Switch 中注册,则高速以太网控制器 vmnic6vmnic7 上行链路最终可能会在 RSS 设置为 1 个接收队列的情况下运行。:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=1, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }

    因此,在本机模式下,您可能会看到性能下降。

    解决办法:使用以下命令在 ESXi 上重新加载 ionic_en driver:~] esxcfg-module -u ionic_en:~] esxcfg-module ionic_en:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int/ deviceInternal bind

  • 在虚拟设备管理界面 (VAMI) 中,您会在升级前阶段看到一条警告消息

    vSphere 8.0 已弃用对本地插件的支持,将 vSphere 插件移至远程插件架构。如果您的 8.0 vSphere 环境具有本地插件,则此类插件的某些重大更改可能会导致使用 VAMI 执行升级前检查失败。

    在“更新前检查结果”屏幕中,您会看到类似以下内容的错误:

    Warning message: The compatibility of plug-in package(s) %s with the new vCenter Server version cannot be validated. They may not function properly after vCenter Server upgrade.

    Resolution: Please contact the plug-in vendor and make sure the package is compatible with the new vCenter Server version.

    解决办法:在继续升级之前,参阅《VMware 兼容性指南》VMware 产品互操作性列表或联系插件供应商获取建议,以确保环境中的本地插件与 vCenter Server 8.0 兼容。有关详细信息,请参见博客 Deprecating the Local Plugins :- The Next Step in vSphere Client Extensibility Evolution 以及 VMware 知识库文章 87880

  • 无法从启用了 CPU 热添加的虚拟机中移除分配给虚拟非一致内存访问 (NUMA) 节点的 PCI 直通设备

    尽管默认情况下,在启用 CPU 热添加以允许将 vCPU 添加到正在运行的虚拟机后,虚拟 NUMA 拓扑会停用,但如果已将某个 PCI 直通设备分配给了 NUMA 节点,则尝试移除该设备时会显示错误。在 vSphere Client 中,您会看到类似以下内容的消息:“无效的虚拟机配置。启用 CPU 热添加后,无法配置虚拟 NUMA”(Invalid virtual machine configuration. Virtual NUMA cannot be configured when CPU hotadd is enabled)。

    解决办法:请参见 VMware 知识库文章 89638

  • 如果从 OVF 文件或内容库部署虚拟机,则该虚拟机的每插槽内核数将设置为 1

    如果从 OVF 文件或内容库部署虚拟机,而不是让 ESXi 自动选择每插槽内核数,则该数字将预设为 1。

    解决办法:可以使用 vSphere Client 手动设置每插槽内核数。有关详细信息,请参见 VMware 知识库文章 89639

  • 如果为硬件版本低于 20 的虚拟机配置供应商设备组,此类虚拟机可能无法按预期运行

    供应商设备组(支持绑定高速网络连接设备和 GPU)仅在硬件版本为 20 及更高版本的虚拟机上受支持,但系统不会阻止您为硬件版本低于 20 的虚拟机配置供应商设备组。此类虚拟机可能无法按预期运行:例如,无法打开电源。

    解决办法:在虚拟机中配置供应商设备组之前,请确保该虚拟机的硬件版本为 20。

网络连接问题

  • 无法在 Pensando DPU 上将 VMware vSphere Distributed Switch 上的最大传输单元 (MTU) 设置为大于 9174 的值

    如果 ESXi 8.0 系统上具有已启用 Pensando DPU 的 vSphere Distributed Services Engine 功能,则无法将 vSphere Distributed Switch 上的最大传输单元 (MTU) 设置为大于 9174 的值。

    解决办法:无。

  • 在使用 4.1.3 及更高版本的 ntg3 驱动程序的网卡上,看到链路出现抖动

    当两个使用 4.1.3 及更高版本的 ntg3 驱动程序的网卡直接连接(而不是连接到物理交换机端口)时,链路可能会出现抖动。4.1.3 之前的 ntg3 驱动程序或 tg3 驱动程序不会出现此问题。此问题与此类网卡上偶尔出现的节能以太网 (EEE) 链路抖动无关。EEE 问题的修复方法是使用 4.1.7 或更高版本的 ntg3 驱动程序,或者在物理交换机端口上禁用 EEE。

    解决办法:将 ntg3 驱动程序升级到版本 4.1.8,并将新模块参数 noPhyStateSet 设置为 1noPhyStateSet 参数默认为 0,并且在大多数环境中不需要,除非它们遇到此问题。

  • 在具有 DPU 的 vSphere 环境中进行 VMware NSX 安装或升级可能会失败并显示连接错误

    ESXi 主机端的间歇性计时问题可能会导致在具有 DPU 的 vSphere 环境中进行 NSX 安装或升级失败。nsxapi.logFailed to get SFHC response. MessageType MT_SOFTWARE_STATUS

    解决办法:等待 10 分钟,然后重试 NSX 安装或升级。

  • 如果在使用 icen 驱动程序启用或禁用 SR-IOV 后未重新引导 ESXi 主机,则在该主机上以 ENS 中断模式配置传输节点时,某些虚拟机可能无法获取 DHCP 地址

    如果在 ESXi 主机上使用 icen 驱动程序启用或禁用 SR-IOV,并在 ENS 中断模式下配置传输节点,那么在不重新引导主机的情况下,某些 Rx(接收)队列可能无法正常工作。因此,某些虚拟机可能无法获取 DHCP 地址。

    解决办法:直接添加传输节点配置文件而不启用 SR-IOV,或者在启用或禁用 SR-IOV 后重新引导 ESXi 主机。

  • 在 vSphere 8.0 中,无法将 Mellanox ConnectX-5、ConnectX-6 卡型号 1 级别 2 和型号 2 用于增强型网络堆栈 (ENS) 模式

    由于硬件限制,ConnectX-5 和 ConnectX-6 适配器卡不支持在 vSphere 8.0 中将型号 1 级别 2 和型号 2 用于增强型网络堆栈 (ENS) 模式。

    解决办法:使用支持 ENS 型号 1 级别 2 和型号 2A 的 Mellanox ConnectX-6 Lx 和 ConnectX-6 Dx 或更高版本的卡。

  • Pensando DPU 在 ESXi 主机的物理交换机端口上不支持链路层发现协议 (LLDP)

    在具有 DPU 的 ESXi 主机上启用 LLDP 时,该主机无法接收 LLDP 数据包。

    解决办法:无。

存储问题

  • 升级到 vCenter Server 8.0 后,VASA API 版本不会自动刷新

    vCenter Server 8.0 支持 VASA API 版本 4.0。但是,将 vCenter Server 系统升级到版本 8.0 后,VASA API 版本可能不会自动更改为 4.0。在以下 2 种情况下会出现此问题:

    1. 如果在以前版本的 VMware vCenter 中注册了支持 VASA API 版本 4.0 的 VASA 提供程序,则在升级到 VMware vCenter 8.0 后,VASA API 版本保持不变。例如,如果 VMware vCenter 系统版本 7.x 中注册了同时支持 VASA API 版本 3.5 和 4.0 的 VASA 提供程序,则升级该系统时,即使 VASA 提供程序支持 VASA API 版本 4.0,VASA API 版本也不会自动更改为 4.0。升级后,导航到 vCenter Server > 配置 > 存储提供程序并展开已注册 VASA 提供程序的常规选项卡时,仍会看到 VASA API 版本 3.5。

    2. 如果在 VMware vCenter 8.0 系统中注册支持 VASA API 版本 3.5 的 VASA 提供程序,并将 VASA API 版本升级到 4.0,则即使升级后,也仍会看到 VASA API 版本 3.5。

    解决办法:在 VMware vCenter 8.0 系统上取消注册 VASA 提供程序,然后重新注册。

  • 由于网络文件复制 (NFC) 管理器的会话未经身份验证,vSphere Storage vMotion 操作在 vSAN 环境中可能会失败

    如果虚拟机至少具有一个快照和多个虚拟磁盘,但使用不同的存储策略,则使用 vSphere Storage vMotion 将这些虚拟机迁移到 vSAN 数据存储可能会失败。出现此问题的原因是,由于简单对象访问协议 (SOAP) 正文超出允许的大小,导致 NFC 管理器的会话未经身份验证。

    解决办法:先迁移虚拟机主页命名空间,并且仅迁移其中一个虚拟磁盘。此操作完成后,对剩余的 2 个磁盘执行仅磁盘迁移。

  • 由于基于内容的读缓存 (CBRC) 中的摘要操作失败错误,无法创建虚拟机的快照

    在极少数情况下,在 CBRC 摘要文件更新期间分配内容 ID 会出现争用情况,这可能会导致数据磁盘中的内容 ID 与摘要磁盘中的内容 ID 之间出现差异。因此,无法创建虚拟机快照。您会在回溯追踪中看到 An error occurred while saving the snapshot: A digest operation has failed 等错误。如果重试快照创建任务,将可以完成此任务。

    解决办法:重试快照创建任务。

vCenter Server 和 vSphere Client 问题

  • 更改对象时,资源池和集群的“利用率”视图可能不会自动刷新

    当您已打开某个资源池或集群的监控选项卡下的利用率视图,然后更改该资源池或集群时,视图可能不会自动刷新。例如,打开一个集群的利用率视图,然后选择另一个集群时,您可能仍会看到第一个集群的统计数据。

    解决办法:单击刷新图标。

  • 如果将 vSphere 虚拟基础架构加载到 90% 以上,ESXi 主机可能会间歇性地与 vCenter Server 断开连接

    在极少数情况下,如果 vSphere 虚拟基础架构持续使用超过 90% 的硬件容量,则某些 ESXi 主机可能会间歇性地与 vCenter Server 断开连接。连接通常会在几秒钟内恢复。

    解决办法:如果与 vCenter Server 的连接未能在几秒钟内如期恢复,请使用 vSphere Client 手动重新连接 ESXi 主机。

  • 在 vSphere Client 中,看不到有关历史数据导入的横幅通知

    由于后端问题,在 vSphere Client 中看不到有关历史数据后台迁移的横幅通知。

    解决办法:使用 vCenter Server 管理界面,而不使用 vSphere Client。有关详细信息,请参见监控和管理历史数据迁移过程

  • 在混合 vCenter 环境中使用 API 创建的云原生存储 (CNS) 块卷显示错误

    如果您的环境中具有版本 8.0 和 7.x 的 vCenter Server 系统,则使用 API 创建云原生存储 (CNS) 块卷会成功,但在 vSphere Client 中查看 CNS 卷详细信息时,可能会看到错误。您将看到看到类似以下内容的错误:Failed to extract the requested data. Check vSphere Client logs for details. + TypeError: Cannot read properties of null (reading 'cluster')。仅当通过使用 8.0 vCenter Server 的 vSphere Client 查看由 7.x vCenter Server 管理的卷时,才会出现此问题。

    解决办法:登录到 vCenter Server 版本 7.x 系统上的 vSphere Client,查看卷属性。

  • 在极少数情况下,由于 vpxa 上请求队列的文件描述符不足,ESXi 主机可能会变得无响应,并且您会看到 vpxa 转储文件

    在极少数情况下,当向 vpxa 服务发出的请求需要很长时间(例如,等待访问速度较慢的数据存储)时,vpxa 上的请求队列可能会超出文件描述符的限制。因此,ESXi 主机可能会暂时变得无响应,并且您会在 /var/core 目录中看到 vpxa-zdump.00* 文件。vpxa 日志中包含行 Too many open files

    解决办法:无。vpxa 服务将自动重新启动并更正此问题。

虚拟机管理问题

  • 将现有虚拟硬盘添加到新虚拟机时,您可能会看到虚拟机配置被拒绝的错误

    使用 VMware Host Client 将现有虚拟硬盘添加到新虚拟机时,该操作可能会失败并显示错误,例如:The VM configuration was rejected. Please see browser Console。出现此问题的原因是,VMware Host Client 可能无法获取某些属性,例如硬盘控制器。

    解决办法:选择硬盘并转到即将完成页面后,不要单击完成,而是返回一步,等待页面加载完成,然后单击下一步 > 完成

安全功能问题

  • 如果使用的 RSA 密钥大小小于 2048 位,则 RSA 签名生成将失败

    从 vSphere 8.0 开始,ESXi 使用 OpenSSL 3.0 FIPS 提供程序。根据 FIPS 186-4 要求,对于任何签名生成,RSA 密钥大小都必须至少为 2048 位,并且不支持使用 SHA1 生成签名。

    解决办法:使用大于 2048 的 RSA 密钥大小。

vSphere Lifecycle Manager 问题

  • 并行修复任务失败后,您看不到成功完成该操作或跳过该操作的正确 ESXi 主机数

    在 vSphere 8.0 中,您可以通过 vSphere Lifecycle Manager 并行(而不是顺序)修复所有处于维护模式的主机。但是,如果并行修复任务失败,您可能在 vSphere Client 中看不到已成功完成该操作、未完成该操作或跳过该操作的正确主机数,甚至根本看不到这些计数。此问题不会影响 vSphere Lifecycle Manager 功能,而仅会影响 vSphere Client 中的报告功能。

    解决办法:无。

  • 如果使用从启用了有状态安装的主机配置文件部署的 ESXi 主机作为映像在集群中部署其他 ESXi 主机,则该操作将失败

    如果提取从启用了有状态安装的主机配置文件部署的 ESXi 主机的映像,以在 vSphere Lifecycle Manager 集群中部署其他 ESXi 主机,则该操作将失败。在 vSphere Client 中,您会看到类似以下内容的错误:A general system error occurred: Failed to extract image from the host: no stored copy available for inactive VIB VMW_bootbank_xxx. Extraction of image from host xxx.eng.vmware.com failed

    解决办法:使用集群中的其他主机提取映像。

  • 尝试在版本低于 8.0 的 ESXi 主机上转储 vSphere Lifecycle Manager 映像时,会显示错误消息

    ESXi 8.0 引入了显式转储所需状态映像的选择方案,即将库组件从 vSphere Lifecycle Manager 库下载到 ESXi 主机的过程,而无需立即应用软件和固件更新。但是,仅支持在 ESXi 8.0 或更高版本的主机上转储映像。如果尝试在版本低于 8.0 的 ESXi 主机上转储 vSphere Lifecycle Manager 映像,则会显示消息,指出此类主机的转储失败,这些主机将被跳过。这是预期行为,并不表示任何功能失败,因为所有 ESXi 8.0 或更高版本的主机都会使用指定的所需映像进行转储。

    解决办法:无。确认受影响的 ESXi 主机的版本低于 8.0 后,忽略这些错误。

  • 在具有 DPU 的 ESXi 主机上使用 vSphere Lifecycle Manager 执行修复任务可能会间歇性失败

    在具有 DPU 的 ESXi 主机上启动 vSphere Lifecycle Manager 修复时,主机将按预期升级并重新引导,但在重新引导之后、完成修复任务之前,您可能会看到类似以下内容的错误:

    A general system error occurred: After host … remediation completed, compliance check reported host as 'non-compliant'. The image on the host does not match the image set for the cluster. Retry the cluster remediation operation.

    出现这个罕见问题的原因是,DPU 上的修复后扫描出现间歇性超时。

    解决办法:重新引导 ESXi 主机,并重新运行 vSphere Lifecycle Manager 合规性检查操作,其中包括修复后扫描。

VMware Host Client 问题

  • VMware Host Client 显示的严重性事件状态描述可能不正确

    在 VMware Host Client 中查看 ESXi 主机的严重性事件状态描述时,这些描述可能与您使用智能平台管理界面 (IPMI) 或 Lenovo XClarity Controller (XCC) 看到的描述不同。例如,在 VMware Host Client 中,PSU 传感器的严重性事件状态描述可能为 Transition to Non-critical from OK,而在 XCC 和 IPMI 中,该描述为 Transition to OK

    解决办法:使用 ESXCLI 命令 esxcli hardware ipmi sdr list 和 Lenovo XCC 验证严重性事件状态的描述。

客户机操作系统问题

  • 由于基于虚拟机通信接口 (VMCI) 的通信中断,虚拟机的客户机操作系统可能会变得无响应

    在一些具体情况下,如果虚拟机上的 vSphere vMotion 操作与发送 VMCI 数据报的操作并行运行,则使用 VMCI 数据报的服务可能出现非预期通信或发生通信中断。在同样的情况下,如果还原内存快照、恢复挂起的虚拟机或使用 CPU 热添加功能,可能也会发生该问题。其结果是,使用通过 VMCI 进行通信的服务的客户机操作系统可能会变得无响应。此问题可能还会影响使用基于 VMCI 的 vSocket 的服务。此问题不会影响 VMware Tools。此问题仅会出现在硬件版本为 20 且安装有特定 Linux 发行版的虚拟机上,此 Linux 发行版已安装了 Linux 内核 5.18 为 VMCI 功能引入的特定修补程序,包括但不限于最新版本的 RHEL 8.7、Ubuntu 22.04 和 22.10 以及 SLES15 SP3 和 SP4。

    解决办法:将高级选项 vmci.dmaDatagramSupport 设置为 FALSE。有关详细信息,请参见 VMware 知识库文章 89683

  • 如果启用了直接内存访问 (DMA) 重新映射,Linux 客户机操作系统将无法完成引导

    如果在虚拟机上启用了高级处理器设置Enable IOMMU in this virtual machine,并且客户机操作系统启用了 DMA 重新映射,则 Linux 客户机操作系统可能无法完成引导过程。此问题会影响硬件版本为 20 且安装有特定 Linux 发行版的虚拟机,此 Linux 发行版已安装了 Linux 内核 5.18 为 VMCI 功能引入的特定修补程序,包括但不限于最新版本的 RHEL 8.7、Ubuntu 22.04 和 22.10 以及 SLES15 SP3 和 SP4。

    解决办法:将高级选项 vmci.dmaDatagramSupport 设置为 FALSE 或禁用 Enable IOMMU in this virtual machine 选项。有关详细信息,请参见 VMware 知识库文章 89683

check-circle-line exclamation-circle-line close-line
Scroll to top icon