vCenter Server 7.0 Update 1a | 2020 年 10 月 22 日 | ISO 内部版本 17004997 请查看发行说明以了解新增内容及更新。 |
发行说明内容
本发行说明包含以下主题:
新增功能
- vCenter Server 7.0U1a 版本解决了已解决的问题部分中记录的问题。
- 有关 VMware vSphere with Tanzu 更新,请参见 VMware vSphere with Tanzu 发行说明。
vCenter Server 7.0 的早期版本
vCenter Server 的功能、已解决问题和已知问题在各个版本的发行说明中均有描述。vCenter Server 7.0 的早期版本的发行说明包括:
- VMware vCenter Server 7.0 Update 1 发行说明
- VMware vCenter Server 7.0.0d 发行说明
- VMware vCenter Server 7.0.0c 发行说明
- VMware vCenter Server 7.0.0b 发行说明
- VMware vCenter Server 7.0.0a 发行说明
有关国际化、兼容性、安装、升级、开源组件和产品支持注意事项的说明,请参见 VMware vSphere 7.0 发行说明。
本版本中包含的修补程序
本 vCenter Server 7.0 Update 1a 版本提供了以下修补程序。有关下载修补程序的详细信息,请参见 VMware Patch 下载中心。
适用于 VMware vCenter Server Appliance 7.0 Update 1a 的修补程序
适用于 vCenter Server 的产品修补程序,其中包含 VMware 软件修复、安全修复和第三方产品修复。
此修补程序适用于 vCenter Server。
下载文件名称 | VMware-vCenter-Server-Appliance-7.0.1.00100-17004997-patch-FP.iso |
内部版本 | 17004997 |
下载大小 | 5903.0 MB |
md5sum | 3de3bb6ea53421dcc6057b1c690ceaad |
sha1checksum | e4f9cecb3724bd46979d70ae1ad10736754d2625 |
下载和安装
可通过转到 VMware Patch 下载中心并从选择产品下拉菜单中选择 VC 来下载此修补程序。
- 将
VMware-vCenter-Server-Appliance-7.0.1.00100-17004997-patch-FP.iso
文件附加到 vCenter Server CD 或 DVD 驱动器。 - 以具有超级管理特权(例如 root)的用户身份登录到设备 shell,并运行以下命令:
- 转储 ISO:
software-packages stage --iso
- 查看已转储的内容:
software-packages list --staged
- 安装已转储的 RPM:
software-packages install --staged
- 转储 ISO:
有关使用 vCenter Server shell 的详细信息,请参见 VMware 知识库文章 2100508。
有关修补 vCenter Server 的详细信息,请参见修补 vCenter Server Appliance。
有关转储修补程序的详细信息,请参见将修补程序转储到 vCenter Server Appliance。
有关安装修补程序的详细信息,请参见安装 vCenter Server Appliance 修补程序。
有关使用设备管理界面进行修补的详细信息,请参见使用设备管理界面修补 vCenter Server。
已解决的问题
已解决的问题分为以下几组。
虚拟机管理问题- 如果将 vSphere 集群服务代理虚拟机置于受 VMware Site Recovery Manager 保护的数据存储中,则此类数据存储的迁移将失败
如果在属于基于阵列的复制保护组的数据存储上部署 vSphere 集群服务代理虚拟机,则此类数据存储的计划迁移将失败,因为代理虚拟机不会关闭电源。
本版本已解决该问题。
已知问题
已知问题分为如下类别。
升级问题- 在虚拟设备管理界面中,不显示 vCenter Server 7.0 Update 1 更新选项
如果您在 vCenter Server 7.0 系统上的虚拟设备管理界面中选择使用默认存储库选项,则不会显示 vCenter Server 7.0 Update 1 (7.0.1) 作为可用更新。您会看到 vCenter Server 7.0 Update 1a 是最新的可用更新。
解决办法:使用替代方法更新到 vCenter Server 7.0 Update 1。有关详细信息,请参见修补和更新 vCenter Server 7.0 部署和 VMware 知识库文章 81287。
- 无法使用 Update Planner 运行 vCenter Server 7.0 Update 1 的升级预检查
在 vSphere Client 中,导航到更新 > Update Planner,并选择 vCenter Server 7.0 Update 1 作为目标 vCenter Server 以生成升级预检查时,您会看到以下错误:
未找到 Update 7.0.1.00000 (Update 7.0.1.00000 is not found)
解决办法:无
早期版本中的已知问题
要查看以前的已知问题列表,请单击此处。
早期的已知问题分为如下类别。
- vSAN 问题
- vSphere 集群服务问题
- 安装、升级和迁移问题
- 安全功能问题
- 网络连接问题
- 存储问题
- vCenter Server 和 vSphere Client 问题
- 虚拟机管理问题
- vSphere HA 和 Fault Tolerance 问题
- vSphere Lifecycle Manager 问题
- 其他问题
- 备份问题
- 由于首选站点中的网络故障,虚拟机断开连接
在 vSAN 延伸集群设置中,首选站点上的网络中断可能会导致站点中的所有虚拟机不可访问。虚拟机不会故障切换到辅助站点。因此,它们在网络中断恢复之前一直不可访问。
解决办法:无。
- 如果集群中的所有 vSphere 集群服务代理虚拟机都关闭,则 vSphere DRS 在集群中起不了作用
如果集群中的 vSphere 集群服务代理虚拟机无法部署或打开电源,则 vSphere DRS 等服务可能会受到影响。
解决办法:有关问题和解决办法的详细信息,请参见 VMware 知识库文章 79892。
- 支持 vSphere 集群服务的系统虚拟机可能会影响集群和数据存储维护工作流
在 vCenter Server 7.0 Update 1 中,vSphere 集群服务在每个 vSphere 集群中添加了一组系统虚拟机,以确保 vSphere DRS 正常运行。系统虚拟机使用隐式数据存储选择逻辑自动部署。系统虚拟机可能会影响某些集群和数据存储维护工作流,具体取决于您的集群配置。
- vCenter 升级/迁移预检查失败,并显示“意外错误 87 (Unexpected error 87)”
当 Security Token Service (STS) 证书不包含主体备用名称 (SAN) 字段时,vCenter Server 升级/迁移预检查将失败。如果已将 vCenter 5.5 Single Sign-on 证书替换为没有 SAN 字段的自定义证书,并且尝试升级到 vCenter Server 7.0,则会出现这种情况。此升级会将 STS 证书视为无效,并且预检查将阻止升级过程继续进行。
解决办法:将 STS 证书替换为包含 SAN 字段的有效证书,然后再执行 vCenter Server 7.0 升级/迁移。
- 使用预先存在的 CIM 提供程序升级到 vSphere 7.0 时出现问题
升级后,之前安装的 32 位 CIM 提供程序停止工作,因为 ESXi 需要 64 位 CIM 提供程序。客户可能会丢失与 CIMPDK、NDDK(本机 DDK)、HEXDK、VAIODK(IO 筛选器)相关的管理 API 功能,并看到与 uwglibc 依赖关系相关的错误。
Syslog 报告模块缺失,“未加载 32 位共享库 (32 bit shared libraries not loaded)。”解决办法:没有解决办法。修复方法是从供应商下载新的 64 位 CIM 提供程序。
- vCenter Server High Availability 处于活动状态时,从早期版本的 vCenter Server 7.x 修补到 vCenter Server 7.0 Update 1 可能会失败
vCenter Server High Availability 处于活动状态时,从早期版本的 vCenter Server 7.x 修补到 vCenter Server 7.0 Update 1 可能会失败。
解决办法:要将系统从早期版本的 vCenter Server 7.x 修补到 vCenter Server 7.0 Update 1,必须移除 vCenter Server High Availability 并删除被动节点和见证节点。升级后,必须重新创建 vCenter Server High Availability 集群。
- 将 6.7.x vCenter Server 系统迁移到 vCenter Server 7.x 失败,并显示 UnicodeEncodeError
如果选择导入配置、清单、任务、事件和性能衡量指标的所有数据的选项,则在使用非英语区域设置的任何 vCenter Server 系统中,将 6.7.x vCenter Server 系统迁移到 vCenter Server 7.x 可能会失败。在迁移第 2 阶段的第 1 步中,vSphere Client 中会显示一条错误消息,例如:
导出事件和任务数据时发生错误: …ERROR UnicodeEncodeError: Traceback (most recent call last):
解决办法:可以通过执行以下任一操作来完成迁移操作:
- 在迁移的第 1 阶段结束时选择默认选项配置和清单。
此选项不包括任务和事件数据。 - 清除事件表中的数据,然后重新运行迁移。
- 在迁移的第 1 阶段结束时选择默认选项配置和清单。
- 如果 Windows vCenter Server 系统的数据库密码包含非 ASCII 字符,则 VMware Migration Assistant 的预检查将失败
尝试使用 VMware Migration Assistant 将 6.x vCenter Server 系统迁移到 vCenter Server 7.x 时,如果您的系统装有 Windows 操作系统且使用的外部数据库密码包含非 ASCII 字符,操作将失败。例如,Admin!23迁移。在 Migration Assistant 控制台中,您会看到以下错误:
错误:Component com.vmware.vcdb 失败并出现内部错误
解决方案:将 Bugzilla PR 提交到 VPX/VPX/vcdb-upgrade (Resolution:File Bugzilla PR to VPX/VPX/vcdb-upgrade)解决办法:无
- 在从 vCenter Server 7.x 更新到 vCenter Server 7.0 Update 1 的过程中,您会收到提供 vCenter Single Sign-On 密码的提示
在从 vCenter Server 7.x 更新到 vCenter Server 7.0 Update 1 的过程中,您会收到提供 vCenter Single Sign-On 管理员密码的提示。
解决办法:如果使用 vCenter Server 管理界面运行更新,则必须提供 vCenter Single Sign-On 管理员密码。
如果使用软件包或 CLI 以交互方式运行更新,则必须以交互方式提供 vCenter Single Sign-On 管理员密码。
如果使用软件包或 CLI 以非交互方式运行更新,则必须通过应答文件以如下格式提供 vCenter Single Sign-On 管理员密码{ "vmdir.password": "SSO Password of Administrator@<SSO-DOMAIN>
user" } - 升级到 vCenter Server 7.0 后,智能卡和 RSA SecurID 身份验证可能停止工作
如果您已为智能卡或 RSA SecurID 身份验证配置 vCenter Server,请参见位于 https://kb.vmware.com/s/article/78057 的 VMware 知识库文章,然后再开始 vSphere 7.0 升级过程。如果未按照知识库文章所述采取解决办法,您可能会看到以下错误消息,并且智能卡或 RSA SecurID 身份验证无法工作。
“智能卡身份验证可能停止工作。可能不会保留智能卡设置,并且智能卡身份验证可能停止工作 (Smart card authentication may stop working. Smart card settings may not be preserved, and smart card authentication may stop working)。”
或
“RSA SecurID 身份验证可能停止工作。可能不会保留 RSA SecurID 设置,并且 RSA SecurID 身份验证可能停止工作 (RSA SecurID authentication may stop working. RSA SecurID settings may not be preserved, and RSA SecurID authentication may stop working)。”
解决办法:在升级到 vSphere 7.0 之前,请参见 VMware 知识库文章,网址为 https://kb.vmware.com/s/article/78057。
- 通过使用 vSphere Lifecycle Manager 映像将 ESXi 主机添加到启用了 VMware vSphere High Availability 的集群中时,可能无法应用或移除 NSX
如果在通过使用 vSphere Lifecycle Manager 映像将多个 ESXi 主机添加到已启用 vSphere HA 的集群时启动操作以应用或移除 NSX,则与 NSX 相关的操作可能会失败,并在 vSphere Client 中显示错误,例如:
集群 <cluster_name> 中某些主机上的 vSphere HA 代理既不是 vSphere HA 主代理,也没有连接到 vSphere HA 主代理。请验证 HA 配置是否正确 (vSphere HA agent on some of the hosts on cluster <cluster_name> is neither vSphere HA master agent nor connected to vSphere HA master agent. Verify that the HA configuration is correct)。
出现此问题的原因是,vSphere Lifecycle Manager 一次为添加到集群中的一个 ESXi 主机配置 vSphere HA。如果在 vSphere HA 配置操作仍在进行时运行某个操作以应用或移除 NSX,则 NSX 操作可能会在针对两个不同 ESXi 主机的 vSphere HA 配置操作之间进行排队。在这种情况下,NSX 操作将失败,并显示集群运行状况检查错误,因为该时点的集群状态与已配置并正在运行 vSphere HA 的所有 ESXi 主机的预期状态均不匹配。同一时间添加到集群的 ESXi 主机越多,出现该问题的可能性就越大。解决办法:在集群上禁用并启用 vSphere HA。继续执行操作以应用或移除 NSX。
- 升级 vCenter Server 7.0 系统后,在 vSphere Client 的“vSphere Pod 摘要”选项卡中无法查看 Pod 的 IP 地址
如果将 vCenter Server 7.0 系统升级到更高版本,则无法再在 vSphere Client 的 vSphere Pod 摘要选项卡中查看 Pod 的 IP 地址。
解决办法:使用适用于 vSphere 的 Kubernetes CLI Tools 查看 Pod 的详细信息:
- 必须复制容器和命名空间名称,这是必备条件。
- 在 vSphere Client 中,导航到工作负载管理 > 集群。
- 复制控制平面节点 IP 地址选项卡中显示的 IP。
- 您可以导航到
https://<control_plane_node_IP_address>
并下载 Kubernetes CLI Tools、kubectl
和kubectl-vsphere
。
或者,按照下载和安装适用于 vSphere 的 Kubernetes CLI Tools 中的步骤操作。
- 使用适用于 vSphere 的 CLI 插件查看 Pod 详细信息。
- 使用以下命令登录到主管集群
kubectl vsphere login --server=https://<server_adress> --vsphere-username <your user account name> --insecure-skip-tls-verify
- 使用步骤 1 中复制的名称,运行用于检索 Pod 详细信息的命令:
kubectl config use-context <namespace_name>
和kubectl describe pod <pod_name> -n <namespace_name>
- 使用以下命令登录到主管集群
因此,您可以在输出中看到类似以下内容的 IP 地址:
$ kubectl describe pod helloworld -n my-podvm-ns ...
状态: 正在运行
IP: 10.0.0.10
IPs:
IP: 10.0.0.10 ...
- 必须复制容器和命名空间名称,这是必备条件。
- 将具有外部 Platform Services Controller 部署的 vCenter Server 从 6.7u3 升级到 7.0 失败,并显示 VMAFD 错误
升级使用外部 Platform Services Controller 部署的 vCenter Server 部署时,将该 Platform Services Controller 融合为 vCenter Server Appliance。如果升级失败并显示错误
install.vmafd.vmdir_vdcpromo_error_21
,则 VMAFD 首次引导过程已失败。VMAFD 首次引导过程从源 Platform Services Controller 和复制合作伙伴 vCenter Server Appliance 中复制 VMware Directory Service 数据库 (data.mdb)。解决办法:在升级具有外部 Platform Services Controller 部署的 vCenter Server 之前,在源 Platform Services Controller 或复制合作伙伴 vCenter Server Appliance 的以太网适配器上禁用 TCP 分段负载分流 (TSO) 和通用分段负载分流 (GSO)。请参见知识库文章:https://kb.vmware.com/s/article/74678
- 在第 2 阶段使用端口 5480 部署 vCenter Server Appliance 失败,并显示“无法保存 IP 设置 (unable to save IP settings)”错误
如果您在 Web 浏览器中使用
https://appliance-IP-address-or-FQDN:5480
,在第 2 阶段转到新部署的 vCenter Server Appliance 的 vCenter Server Appliance 管理界面,并配置静态 IP 或尝试更改 IP 配置,将显示错误,例如,无法保存 IP 设置 (unable to save IP settings)
。解决办法:无。
- 使用 CLI 升级 vCenter Server 时错误地保留 vSphere Authentication Proxy 服务的传输安全层 (TLS) 配置
如果将 vSphere Authentication Proxy 服务 (
vmcam
) 配置为使用不同于默认 TLS 1.2 协议的特定 TLS 协议,则会在 CLI 升级过程中保留此配置。默认情况下,vSphere 支持 TLS 1.2 加密协议。如果必须使用 TLS 1.0 和 TLS 1.1 协议为不支持 TLS 1.2 的产品或服务提供支持,请使用 TLS Configurator 实用程序启用或禁用不同的 TLS 协议版本。解决办法:使用 TLS Configurator 实用程序配置
vmcam
端口。要了解如何管理 TLS 协议配置以及使用 TLS Configurator 实用程序,请参见《VMware 安全》文档。 - 在 vCenter Server 升级期间,可能不会保留智能卡和 RSA SecurID 设置
升级到 vCenter Server 7.0 后,使用 RSA SecurID 的身份验证将不起作用。尝试使用 RSA SecurID 登录名登录时,将显示一条错误消息,提示您解决此问题。
解决办法:重新配置智能卡或 RSA SecureID。
- 将适用于 Windows 的 vCenter Server 迁移到 vCenter Server Appliance 7.0 失败,并显示网络错误消息
将适用于 Windows 的 vCenter Server 迁移到 vCenter Server Appliance 7.0 失败,并显示
网络中已存在 IP (IP already exists in the network)
错误消息。这会导致迁移过程中无法在新的 vCenter Server Appliance 上配置网络参数。有关详细信息,请查看日志文件:/var/log/vmware/upgrade/UpgradeRunner.log
解决办法:
- 确认已在适用于 Windows 的源 vCenter Server 实例上完成所有 Windows 更新,或者禁用自动 Windows 更新,直到迁移完成后为止。
- 重新尝试将适用于 Windows 的 vCenter Server 迁移到 vCenter Server Appliance 7.0。
- 使用 max_vfs 模块参数为 SR-IOV 设备配置虚拟功能的数量时,所做更改可能不会生效
在 vSphere 7.0 中,可以使用 Virtual Infrastructure Management (VIM) API(例如,通过 vSphere Client)为 SR-IOV 设备配置虚拟功能的数量。该任务不需要重新引导 ESXi 主机。使用 VIM API 配置后,如果尝试使用
max_vfs
模块参数配置 SR-IOV 虚拟功能的数量,则所做更改可能不会生效,因为 VIM API 配置会覆盖这些更改。解决办法:无。要为 SR-IOV 设备配置虚拟功能的数量,请每次使用相同的方法。使用 VIM API 或使用
max_vfs
模块参数,然后重新引导 ESXi 主机。 - 升级后的 vCenter Server Appliance 实例不会保留源实例中的所有辅助网络(网卡)
在主要升级过程中,如果为 vCenter Server Appliance 的源实例配置了不同于 VCHA 网卡的多个辅助网络,目标 vCenter Server 实例不会保留除 VCHA 网卡以外的辅助网络。如果源实例配置有多个属于 DVS 端口组的网卡,在升级过程中不会保留网卡配置。将保留属于标准端口组的 vCenter Server Appliance 实例配置。
解决办法:无。在目标 vCenter Server Appliance 实例中手动配置辅助网络。
- 升级或迁移具有外部 Platform Services Controller 部署的 vCenter Server 后,使用 Active Directory 进行身份验证的用户失去对新升级的 vCenter Server 实例的访问权限
升级或迁移具有外部 Platform Services Controller 部署的 vCenter Server 后,如果新升级的 vCenter Server 未加入 Active Directory 域,则使用 Active Directory 进行身份验证的用户将失去对该 vCenter Server 实例的访问权限。
解决办法:确认新的 vCenter Server 实例已加入 Active Directory 域。请参见知识库文章:https://kb.vmware.com/s/article/2118543
- 使用 Oracle 数据库迁移具有外部 Platform Services Controller 部署的适用于 Windows 的 vCenter Server 失败
如果 Oracle 事件和任务表中存在非 ASCII 字符串,则迁移过程会在导出事件和任务数据时失败。将显示以下错误消息:UnicodeDecodeError
解决办法:无。
- ESXi 主机升级后,主机配置文件合规性检查显示不合规状态,并且主机修复任务失败
不合规状态表示配置文件与主机之间存在不一致。
出现此不一致的原因可能是 ESXi 7.0 不允许使用重复的声明规则,但您使用的配置文件包含重复规则。例如,如果在将 ESXi 6.5 或 ESXi 6.7 升级到版本 7.0 之前尝试使用从主机提取的主机配置文件,并且该主机配置文件包含系统默认规则的任何重复声明规则,则可能会遇到这些问题。
解决办法:
- 从主机配置文件文档中移除系统默认规则的任何重复声明规则。
- 检查合规性状态。
- 修复主机。
- 如果上述步骤无法解决此问题,请重新引导主机。
- vCenter Server 管理界面中显示错误消息
安装或升级到 vCenter Server 7.0 后,导航到 vCenter Server 管理界面中的“更新”面板时,将显示错误消息“请检查 URL,然后重试 (Check the URL and try again)”。该错误消息不会阻止您使用“更新”面板中的功能,您可以查看、转储和安装任何可用更新。
解决办法:无。
- 在启用了 VMware vCenter Server High Availability 的环境中,修补见证节点或被动节点可能会失败
在启用了 vCenter Server High Availability 的环境中,修补见证节点或被动节点可能会失败,并显示类似以下内容的消息:
运行时错误: 无法识别的 C++ 异常 (RuntimeError: unidentifiable C++ exception)
。解决办法:禁用 vCenter Server High Availability。将修补程序应用于您的 vCenter Server 系统。重新启用 vCenter Server High Availability。
- 将 vCenter Server 系统修补到 vCenter Server 7.0.0a 后,VC Storage Client 的 TLS 版本可能会恢复为默认值
如果您为 VC Storage Client 服务配置的 TLS 不是默认的 TLS 1.2,则将 vCenter Server 系统修补到 vCenter Server 7.0.0a 后,TLS 版本可能会恢复为默认值。
解决办法:更新后,使用 TLS 配置实用程序在 vCenter Server 系统上启用或禁用 TLS 版本。
- 将系统更新到 vCenter Server 7.0.0b 后,会在 /var/core 文件夹中看到 systemd 核心转储
将系统从 vCenter Server 7.0.0a 或 vCenter Server 7.0 更新到 vCenter Server 7.0.0b 后,在
/var/core
文件夹中,会看到 systemd 核心转储,如core.systemd-journal.393
和core.systemd-udevd.405
。核心转储无害,可以移除。解决办法:无
- 将 vCenter Server 系统更新到 7.0.0b 后,在直接控制台用户界面 (DCUI) 中未更新 vCenter Server 版本
将系统从 vCenter Server 7.0.0a 或 vCenter Server 7.0 更新到 vCenter Server 7.0.0b 后,DCUI 中仍显示以前的 vCenter Server 版本。
解决办法:完成更新后,要刷新 vCenter Server 版本,请在设备 shell 中,运行命令
/usr/lib/applmgmt/dcui/notify
。 - Update Planner 失败并显示错误“由于网络连接问题或 URL 不正确,配置的存储库无法访问 (Configured repository is not accessible due to network connectivity or incorrect URL)”
如果使用属于 vSphere Lifecycle Manager 一部分的 Update Planner(用于方便 vCenter Server 更新),vSphere Client 中可能会显示以下错误:
由于网络连接问题或 URL 不正确,配置的存储库无法访问。请确认存储库设置 (Configured repository is not accessible due to network connectivity or incorrect URL. Verify the repository settings)
。
当您使用自定义本地存储库(例如https:///uploads/dpe/
或 DBC 路径)来存储提取文件时,会出现该问题。如果基于 URL 的修补的自定义存储库具有身份验证策略,则 Update Planner 可能无法获取可用更新列表。解决办法:配置自定义存储库,以便不需要进行身份验证即可访问自定义存储库 URL。
- 升级到 vCenter Server 7.0.0b 后,会在 vSphere Lifecycle Manager 基于映像的集群上看到 vSphere HA 错误
升级到 vCenter Server 7.0.0b 后,在配置了 vSphere HA 的 vSphere Lifecycle Manager 基于映像的集群上,首次登录到环境后,可能会看到有关 vSphere HA 配置的错误消息。在 vSphere Client 中,会显示诸如以下消息:
无法在主机上完成 vSphere HA 代理配置 (Cannot complete the configuration of the vSphere HA agent on the host)。
或在集群上应用 HA VIB 时遇到故障 (Applying HA VIBs on the cluster encountered a failure)
。出现此问题的原因是,导出映像库可能需要很长时间并导致任务超时。在
/storage/log/vmware/vmware-updatemgr/vum-server/vmware-vum-server.log
中,您会看到以下消息:Export taking too long (Failure case)
解决办法:这是一个暂时性问题,在 vCenter Server 启动并运行后,将在 10 分钟内解决。该问题不会影响任何功能。受影响集群上的 vSphere HA 按预期运行。与虚拟机相关的所有操作(如打开电源和迁移)在此错误恢复仍在进行时依旧跨已启用 vSphere HA 的集群运行。
- 启用 HA 的受信任集群包含未认证的主机时,加密虚拟机无法打开电源
在 VMware® vSphere Trust Authority™ 中,如果在受信任集群上启用了 HA,并且该集群中的一个或多个主机未通过认证,则加密虚拟机将无法打开电源。
解决办法:从受信任集群中移除或修复所有未认证的主机。
- 启用 DRS 的受信任集群包含未认证的主机时,加密虚拟机无法打开电源
在 VMware® vSphere Trust Authority™ 中,如果在受信任集群上启用了 DRS,并且集群中的一个或多个主机未通过认证,DRS 可能尝试在集群中打开未认证主机上的加密虚拟机的电源。此操作会将虚拟机置于锁定状态。
解决办法:从受信任集群中移除或修复所有未认证的主机。
- 尝试使用 vSphere Client 在 vCenter Server 实例之间迁移或克隆加密虚拟机失败
如果尝试使用 vSphere Client 在 vCenter Server 实例之间迁移或克隆加密虚拟机,操作将失败,并显示以下错误消息:“在当前状态下不允许执行此操作 (The operation is not allowed in the current state)。”
解决办法:必须使用 vSphere API 在 vCenter Server 实例之间迁移或克隆加密虚拟机。
- Intel 82599/X540/X550 网卡上的网络性能存在吞吐量降低问题
与 vSphere 6.7 相比,在 vSphere 7.0 的某些工作负载下,为了提高 Intel 82599EB/X540/X550 系列网卡上的网络性能而将新队列对功能添加到 ixgben 驱动程序时,可能会降低吞吐量。
解决办法:要实现与 vSphere 6.7 相同的网络性能,可以使用模块参数禁用队列对。要禁用队列对,请运行以下命令:
# esxcli system module parameters set -p "QPair=0,0,0,0..."-m ixgben
运行命令后,请重新引导。
- 如果尝试在 vSphere 集群上禁用 vSphere with Tanzu,该操作将停止并显示错误
如果主管集群外的某些虚拟机驻留在集群中的任一 NSX 分段端口组上,则清理脚本无法删除此类端口,也无法在集群上禁用 vSphere with Tanzu。在 vSphere Client 中,您会看到错误
清理 NSX Manager 的请求失败 (Cleanup requests to NSX Manager failed)
,并且操作停止在正在移除
状态。在/var/log/vmware/wcp/wcpsvc.log
文件中,您会看到一条错误消息,例如Segment path=[...] has x VMs or VIFs attached.Disconnect all VMs and VIFs before deleting a segment.
解决办法:从分段中删除
/var/log/vmware/wcp/wcpsvc.log
文件中指定的虚拟机。等待操作恢复。 - 升级到 NSX 6.4.7 后,如果将静态 IPv6 地址分配给 IPv6 网络上的工作负载虚拟机,则虚拟机将无法 ping Edge 的 IPv6 网关接口
将 vSphere Distributed Switch 从 6.x 升级到 7.0 后会出现此问题。
解决办法 1:
选择所有主机均已连接的 VDS,转到编辑设置,然后在多播选项下切换到“基本”。
解决办法 2:
在 Edge 防火墙上添加以下规则:
Ping 允许规则。
多播侦听器发现 (MLD) 允许规则,即 icmp6、类型 130 (v1) 和类型 143 (v2)。
- 在启用 Network I/O Control (NetIOC) 时,高吞吐量虚拟机可能出现网络性能下降问题
在启用 NetIOC 的情况下,从 vSphere 6.7 升级到 vSphere 7.0 时,需要高网络吞吐量的虚拟机可能出现吞吐量下降问题。
解决办法:调整
ethernetx.ctxPerDev
设置以启用多个环境。 - IPv6 流量无法通过使用 IPsec 的 VMkernel 端口
将 VMkernel 端口从一个端口组迁移到另一个端口组时,IPv6 流量不会通过使用 IPsec 的 VMkernel 端口。
解决办法:从受影响的服务器中移除 IPsec 安全关联 (SA),然后重新应用 SA。要了解如何设置和移除 IPsec SA,请参见《vSphere 安全性》文档。
- 更高的 ESX 网络性能使 CPU 使用情况值增大
ESX 网络性能提高时可能增大 CPU 使用情况值。
解决办法:移除和添加仅包含 1 个 rx 分派队列的网络接口。例如:
esxcli network ip interface remove --interface-name=vmk1
esxcli network ip interface add --interface-name=vmk1 --num-rxqueue=1
- 热添加、热移除或 Storage vMotion 后,虚拟机可能丢失以太网流量
热添加、热移除或 Storage vMotion 后,虚拟机可能停止接收以太网流量。此问题会影响 VNIC 的上行链路已启用 SR-IOV 的虚拟机。当虚拟网络的上行链路为 Mellanox 支持 RDMA 的网卡并且已配置 RDMA 命名空间时,PVRDMA 虚拟网卡出现此问题。
解决办法:可以热移除和热添加受影响的虚拟机以太网网卡以还原流量。在 Linux 客户机操作系统上,重新启动网络也可能会解决该问题。如果这些解决办法不起作用,可以重新引导虚拟机以还原网络连接。
- 为使用静态 IP 地址部署的 VCSA 更改 IP 地址时,需要提前创建 DNS 记录
在引入 DDNS 的过程中,DNS 记录更新仅适用于使用 DHCP 配置的网络部署的 VCSA。通过 VAMI 更改 vCenter Server 的 IP 地址时,显示以下错误:
指定的 IP 地址未解析为指定的主机名 (The specified IP address does not resolve to the specified hostname)。
解决办法:有两种可行的解决办法。
- 创建一个具有相同 FQDN 和所需 IP 地址的其他 DNS 条目。登录到 VAMI,然后执行用于更改 IP 地址的步骤。
- 使用 SSH 登录到 VCSA。执行以下脚本:
./opt/vmware/share/vami/vami_config_net
使用选项 6 更改 eth0 的 IP 地址。更改后,请执行以下脚本:
./opt/likewise/bin/lw-update-dns
重新启动 VCSA 上的所有服务,以更新 DNS 服务器上的 IP 信息。
- 在 NSX Manager 中删除相应的逻辑交换机后,可能需要几秒钟时间才能移除 NSX 分布式虚拟端口组 (NSX DVPG)。
随着逻辑交换机数量的增加,在 NSX Manager 中删除相应的逻辑交换机后,可能需要更长时间才能移除 vCenter Server 中的 NSX DVPG。在具有 12000 个逻辑交换机的环境中,从 vCenter Server 中删除 NSX DVPG 大约需要 10 秒的时间。
解决办法:无。
- 如果创建了大量 NSX 分布式虚拟端口组,Hostd 将耗尽内存并失败。
在 vSphere 7.0 中,NSX 分布式虚拟端口组消耗的内存量远大于含糊网络。因此,在给定相同内存量的情况下,NSX 分布式虚拟端口组无法支持与含糊网络相同的规模。
解决办法:要支持使用 NSX 分布式虚拟端口组,请增加 ESXi 主机中的内存量。如果您确认系统具有足够的内存来支持虚拟机,则可以使用以下命令直接增加
hostd
的内存。localcli --plugin-dir /usr/lib/vmware/esxcli/int/ sched group setmemconfig --group-path host/vim/vmvisor/hostd --units mb --min 2048 --max 2048
请注意,这会导致
hostd
使用通常为环境的虚拟机预留的内存。这可能会导致 ESXi 主机可支持的虚拟机数量减少。 - 如果在虚拟机上配置网络预留,DRS 可能会错误地启动 vMotion
如果在虚拟机上配置网络预留,则 DRS 会认定仅将虚拟机迁移到满足指定要求的主机。在具有 NSX 传输节点的集群中,如果某些传输节点通过 NSX-T 虚拟分布式交换机 (N-VDS) 加入传输区域,而其他传输节点通过 vSphere Distributed Switch (VDS) 7.0 加入传输区域,则 DRS 可能会错误地启动 vMotion。在以下情况下,您可能会遇到此问题:
- 虚拟机连接到已配置网络预留的 NSX 逻辑交换机。
- 某些传输节点使用 N-VDS 加入传输区域,而其他传输节点使用 VDS 7.0 加入传输区域,或者传输节点通过不同的 VDS 7.0 实例加入传输区域。
解决办法:使所有传输节点都通过 N-VDS 或同一 VDS 7.0 实例加入传输区域。
- 将 VMkernel 网卡 (vmknic) 添加到 NSX 端口组时,vCenter Server 会报告错误“不支持将 VMKernel 适配器连接到无状态主机上的 NSX 端口组。请改用分布式端口组 (Connecting VMKernel adapter to a NSX Portgroup on a Stateless host is not a supported operation. Please use Distributed Port Group instead)。”
- 对于分布式虚拟交换机 (DVS) 上的无状态 ESXi,将阻止 NSX 端口组上的 vmknic。您必须改为使用分布式端口组。
- 对于 DVS 上的有状态 ESXi,支持 NSX 端口组上的 vmknic,但如果 vSAN 在 NSX 端口组上使用 vmknic,则 vSAN 可能会遇到问题。
解决办法:在同一 DVS 上使用分布式端口组。
- 从 vCenter for QLogic 4x10GE QL41164HFCU CNA 启用 SRIOV 可能会失败
如果导航到物理网络适配器的编辑设置对话框,并尝试启用 SR-IOV,则在使用 QLogic 4x10GE QL41164HFCU CNA 时,该操作可能会失败。尝试启用 SR-IOV 可能会导致 ESXi 主机的网络中断。
解决办法:在 ESXi 主机上使用以下命令来启用 SRIOV:
esxcfg-module
- 新 如果使用 Distributed Resource Scheduler (DRS) 的集群中的主机,通过不同的虚拟分布式交换机 (VDS) 或 NSX-T 虚拟分布式交换机 (NVDS) 与 VDS 的组合加入 NSX-T 网络,则 vCenter Server 会失败
在 vSphere 7.0 中,将 vSphere VDS 上的 NSX-T 网络与 DRS 集群配合使用时,如果主机未通过相同的 VDS 或 NVDS 加入 NSX 传输区域,则可能会导致 vCenter Server 失败。
解决办法:让 DRS 集群中的主机使用相同的 VDS 或 NVDS 加入 NSX 传输区域。
- 在具有 SmartPQI 控制器的 HPE Gen10 服务器上执行磁盘热移除和热插入后,未自动挂载 VMFS 数据存储
在没有扩展器的情况下将具有 SmartPQI 控制器的 HPE Gen10 服务器上的 SATA 磁盘热移除并热插回同一台计算机的不同磁盘托架时,或者在以不同的顺序热移除并热插回多个磁盘时,有时会向这种磁盘分配新本地名称。这种磁盘上的 VMFS 数据存储显示为快照,并且不会自动重新挂载,因为设备名称已更改。
解决办法:无。SmartPQI 控制器不支持未排序的热移除和热插入操作。
- ESXi 可能会因所有活动路径上的错误而终止 NVMeOF 设备的 I/O
有时,由于链路问题或控制器状态,NVMeOF 设备的所有活动路径都会注册 I/O 错误。如果其中一个路径的状态更改为“不活动”,高性能插件 (HPP) 可能不会选择其他路径(如果显示大量错误)。因此,I/O 会失败。
解决办法:禁用配置选项 /Misc/HppManageDegradedPaths 以取消阻止 I/O。
- 基于 NVMe 的 VMFS 数据存储的 VOMA 检查失败并显示错误
基于 NVMe 的 VMFS 数据存储不支持 VOMA 检查,该检查将失败并显示以下错误:
错误: 无法保留设备。功能未实现 (ERROR: Failed to reserve device. Function not implemented)
例如:
# voma -m vmfs -f check -d /vmfs/devices/disks/: <partition#> Running VMFS Checker version 2.1 in check mode Initializing LVM metadata, Basic Checks will be done Checking for filesystem activity Performing filesystem liveness check..|Scanning for VMFS-6 host activity (4096 bytes/HB, 1024 HBs). 错误: 无法保留设备。Function not implemented Aborting VMFS volume check VOMA failed to check device : General Error
解决办法:无。如果需要分析 VMFS 元数据,请使用
-l
选项收集这些数据,并将其传递给 VMware 客户支持。用于收集转储的命令为:voma -l -f dump -d /vmfs/devices/disks/:<partition#>
- 使用虚拟机重新配置 API 将加密的第一类磁盘附加到加密虚拟机可能失败并显示错误
如果使用不同的加密密钥对 FCD 和虚拟机进行加密,则尝试使用
虚拟机重新配置 API
将加密的 FCD 附加到加密虚拟机可能会失败,并显示以下错误消息:无法对磁盘进行解密,因为密钥或密码错误 (Cannot decrypt disk because key or password is incorrect)。
解决办法:使用
attachDisk API
,而不是虚拟机重新配置 API
,以将加密的 FCD 附加到加密虚拟机。 - 如果 ESXi 主机的跨区 VMFS 数据存储的非主数据区进入永久设备丢失 (PDL) 状态,该主机可能进入无响应状态
如果跨区的 VMFS 数据存储的非主数据区与主数据区都发生故障,则不会出现此问题。在这种情况下,整个数据存储将变得无法访问,并且不再允许 I/O。
相反,如果只有非主数据区发生故障,但主数据区仍可访问,则数据存储检测信号显示正常。主机与数据存储之间的 I/O 将继续。但是,任何依赖发生故障的非主数据区的 I/O 也开始发生故障。其他 I/O 事务可能会在等待故障 I/O 修复时累积,并导致主机进入无响应状态。
解决办法:修复非主数据区的 PDL 情况以解决此问题。
- 从 APD 或 PDL 情况中恢复后,已启用集群虚拟磁盘支持的 VMFS 数据存储可能仍不可访问
仅在已启用集群虚拟磁盘支持的数据存储上才会遇到此问题。当数据存储从全部路径异常 (APD) 或永久设备丢失 (PDL) 情况中恢复时,它仍然不可访问。VMkernel 日志可能显示类似以下内容的多个
SCSI3 reservation conflict
消息:2020-02-18T07:41:10.273Z cpu22:1001391219)ScsiDeviceIO: vm 1001391219: SCSIDeviceCmdCompleteCB:2972: Reservation conflict retries 544 for command 0x45ba814b8340 (op: 0x89) to device "naa.624a9370b97601e346f64ba900024d53"
发生此问题可能是因为加入集群的 ESXi 主机丢失了数据存储的 SCSI 预留,并且在数据存储恢复后,不能始终自动重新获取这些预留。
解决办法:使用以下命令手动注册预留:
vmkfstools -L registerkey /vmfs/devices/disks/<device name>
其中,
<device name>
是创建的数据存储所在的设备的名称。 - 虚拟 NVMe 控制器是 Windows 10 客户机操作系统的默认磁盘控制器
使用硬件版本 15 或更高版本时,虚拟 NVMe 控制器是以下客户机操作系统的默认磁盘控制器:
Windows 10
Windows Server 2016
Windows Server 2019使用虚拟 NVMe 控制器时,某些功能可能不可用。有关详细信息,请参见 https://kb.vmware.com/s/article/2147714
注意:某些客户端使用之前默认的 LSI Logic SAS。这包括 ESXi Host Client 和 PowerCLI。
解决办法:如果需要虚拟 NVMe 上未提供的功能,请切换到 VMware 准虚拟 SCSI (PVSCSI) 或 LSI Logic SAS。有关使用 VMware 准虚拟 SCSI (PVSCSI) 的信息,请参见 https://kb.vmware.com/s/article/1010398
- ESXi 主机升级到 vSphere 7.0 后,存在重复的核心声明规则可能会导致意外行为
声明规则确定哪个多路径插件(如 NMP、HPP 等)拥有通往特定存储设备的路径。ESXi 7.0 不支持重复声明规则。但是,如果将重复规则添加到通过自旧版的升级继承的现有声明规则,则 ESXi 7.0 主机不会发出警示。由于使用重复规则,存储设备可能由意外插件声明,这可能会导致意外的结果。
解决办法:不要使用重复的核心声明规则。在添加新声明规则之前,请删除任何现有的匹配声明规则。
- 已设置合规性状态筛选的 CNS 查询可能需要非常长的时间才能完成
CNS QueryVolume API 可用于获取有关 CNS 卷的信息,如卷运行状况和合规性状态。检查单个卷的合规性状态时,可快速获取结果。但是,当调用 CNS QueryVolume API 检查多个卷(数十个或几百个)的合规性状态时,查询的运行速度可能很慢。
解决办法:避免使用批量查询。当需要获取合规性状态时,一次查询一个卷或将查询 API 中的卷数限制为 20 个或更少。使用查询时,避免运行其他 CNS 操作才可获得最佳性能。
- 新 已删除的 CNS 卷可能会在 CNS UI 中暂时显示为存在
删除支持 CNS 卷的 FCD 磁盘后,该卷可能仍在 CNS UI 中显示为存在。但是,尝试删除该卷会失败。您可能会看到类似于以下内容的错误消息:
找不到引用的对象或项目 (The object or item referred to could not be found)
。解决办法:下一次完全同步将解决不一致性并正确更新 CNS UI。
- 新 在某些情况下,CNS 操作失败时,任务状态在 vSphere Client 中显示为成功
例如,当您使用不合规的存储策略创建 CNS 卷时,可能会出现这种情况。操作失败,而 vSphere Client 显示任务状态为成功。
解决办法:vSphere Client 中成功的任务状态不保证 CNS 操作已成功。要确保操作已成功,请验证其结果。
- 新 CNS 持久卷删除操作失败可能会使该卷仍驻留 vSphere 数据存储中
当 CNS Delete API 尝试删除连接到容器的持久卷时,可能会出现此问题。例如,删除运行 Pod 的 Kubernetes 命名空间时。因此,将从 CNS 中清除该卷,并且 CNS 查询操作不会返回该卷。但是,该卷仍驻留在数据存储中,并且无法通过重复的 CNS Delete API 操作进行删除。
解决办法:无。
- PNID 更改后供应商提供程序脱机
更改 vCenter IP 地址(PNID 更改)时,已注册的供应商提供程序脱机。
解决办法:重新注册供应商提供程序。
- 跨 vCenter 迁移虚拟机失败并显示错误
使用跨 vCenter vMotion 将虚拟机的存储和主机移到其他 vCenter server 实例时,您可能会收到错误
在当前状况下不允许执行此操作 (The operation is not allowed in the current state)
。如果虚拟机具有一个包含基于主机的规则(如加密或任何其他 IO 筛选器规则)的已分配存储策略,则 UI 向导将在“主机选择”步骤后和“数据存储选择”步骤之前显示此错误。
解决办法:将虚拟机及其磁盘分配给不含基于主机的规则的存储策略。如果源虚拟机已加密,可能需要对该虚拟机进行解密。然后重试跨 vCenter vMotion 操作。
- “硬件运行状况”选项卡中的“存储传感器”信息在 vCenter UI、主机 UI 和 MOB 上显示不正确的值
导航到 vCenter UI 上的主机 > 监控 > 硬件运行状况 > 存储传感器时,存储信息显示不正确或未知的值。在主机 UI 和 MOB 路径 “runtime.hardwareStatusInfo.storageStatusInfo” 上也会出现相同的问题。
解决办法:无。
- vSphere UI 主机高级设置将当前产品锁存器位置显示为空,且默认为空
vSphere UI 主机高级设置将当前产品锁存器位置显示为空,且默认为空。这存在不一致情况,因为实际产品位置
symlink
已创建并且有效。这会导致用户混淆。无法从 UI 更正默认设置。解决办法:用户可以使用主机上的 esxcli 命令更正当前产品锁存器位置默认设置,如下所示。
1.使用以下命令移除现有产品锁存器位置设置:
"esxcli system settings advanced remove -o ProductLockerLocation"
2.使用相应的默认值重新添加产品锁存器位置设置:
2.a. 如果 ESXi 是完整安装,则默认值为
"/locker/packages/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/locker/packages/vmtoolsRepo"
2.b.如果 ESXi 是 autodeploy 等 PXEboot 配置,则默认值为:"
/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/vmtoolsRepo"
运行以下命令以自动确定位置:
export PRODUCT_LOCKER_DEFAULT=`readlink /productLocker`
添加设置:
esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s $PRODUCT_LOCKER_DEFAULT
您可以通过发出以下单个命令,将上述步骤 2 中的所有步骤组合在一起:
esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s `readlink /productLocker`
- 无法在虚拟机上添加或修改现有网络适配器
尝试在虚拟机上添加或修改现有网络适配器时,“重新配置虚拟机”任务可能会失败,并显示错误,例如,在 vSphere Client 中出现
无法完成操作,因为另一操作正在进行并发修改 (Cannot complete operation due to concurrent modification by another operation)
。在运行虚拟机的 ESXi 主机的/var/log/hostd.log
文件中,您会看到类似以下内容的日志:2020-07-28T07:47:31.621Z verbose hostd[2102259] [Originator@6876 sub=Vigor.Vmsvc.vm:/vmfs/volumes/vsan:526bc94351cf8f42-41153841cab2f9d9/bad71f5f-d85e-a276-4cf6-246e965d7154/interop_l2vpn_vmotion_VM_1.vmx] NIC: connection control message: Failed to connect virtual device 'ethernet0'.
在vpxa.log
文件中,您会看到类似以下内容的条目:2020-07-28T07:47:31.941Z info vpxa[2101759] [Originator@6876 sub=Default opID=opId-59f15-19829-91-01-ed] [VpxLRO] -- ERROR task-138 -- vm-13 -- vim.VirtualMachine.reconfigure: vim.fault.GenericVmConfigFault:
解决办法:对于集群中的每个 ESXi 主机,请执行以下操作:
- 使用 SSH 连接到 ESXi 主机,然后运行以下命令
esxcli system module parameters set -a -p dvfiltersMaxFilters=8192 -m dvfilter
- 将 ESXi 主机置于维护模式。
- 重新引导 ESXi 主机。
有关详细信息,请参见 VMware 知识库文章 80399。
- 使用 SSH 连接到 ESXi 主机,然后运行以下命令
- 具有 AMD Opteron Generation 3 (Greyhound) 的 ESXi 6.5 主机无法加入 vCenter Server 7.0 Update 1 系统上的增强型 vMotion 兼容性 (EVC) AMD REV E 或 AMD REV F 集群
在 vCenter Server 7.0 Update 1 中,vSphere 集群服务(例如 vSphere DRS 和 vSphere HA)在 ESX 代理虚拟机上运行,以使服务在功能上独立于 vCenter Server。但是,ESX 代理虚拟机的 AMD 处理器的 CPU 基准具有 POPCNT SSE4A 指令,该指令会阻止具有 AMD Opteron Generation 3 (Greyhound) 处理器的 ESXi 6.5 主机在 vCenter Server 7.0 Update 1 系统上启用 EVC 模式 AMD REV E 和 AMD REV F。
解决办法:无
- 自定义脚本的 postcustomization 部分在客户机自定义之前运行
运行 Linux 客户机操作系统的客户机自定义脚本时,自定义规范中定义的自定义脚本的
precustomization
部分在客户机自定义之前运行,随后会运行postcustomization
部分。如果在虚拟机的客户机操作系统中启用 Cloud-Init,则postcustomization
部分在自定义之前运行,因为 Cloud-Init 中存在已知问题。解决办法:禁用 Cloud-Init 并使用标准客户机自定义。
- 在没有共享存储的情况下,vSphere vMotion、Storage vMotion 和 vMotion 中的组迁移操作失败,并出现错误
在具有多个磁盘和多级别快照的虚拟机上执行组迁移操作时,操作可能失败,并显示错误
com.vmware.vc.GenericVmConfigFault 等待数据失败。错误 195887167。可能由于超时,远程主机已关闭连接 (com.vmware.vc.GenericVmConfigFault Failed waiting for data. Error 195887167. Connection closed by remote host, possibly due to timeout)。
解决办法:每次在发生故障的虚拟机上重试一次迁移操作。
- 从 URL 部署 OVF 或 OVA 模板失败,并显示 403 禁止的错误
包含 HTTP 查询参数的 URL 不受支持。例如,
http://webaddress.com?file=abc.ovf
或 Amazon 预签名 S3 URL。解决办法:从本地文件系统下载文件并进行部署。
- 导入或部署名称中包含非 ASCII 字符的本地 OVF 文件可能失败并显示错误
导入的本地
.ovf
文件的名称中包含非 ASCII 字符时,您可能会收到400 错误的请求错误 (400 Bad Request Error)
。使用此类.ovf
文件在 vSphere Client 中部署虚拟机时,部署过程将在 0% 处停止。因此,您可能会收到400 错误的请求错误 (400 Bad Request Error)
或500 内部服务器错误 (500 Internal Server Error)
。解决办法:
- 从
.ovf
和.vmdk
文件名中移除非 ASCII 字符。- 要编辑 .
ovf
文件中,请使用文本编辑器打开该文件。 - 搜索非 ASCII
.vmdk
文件名,并将其更改为 ASCII。
- 要编辑 .
- 再次导入或部署保存的文件。
- 从
- 新 虚拟机文件夹中的第三层嵌套对象不可见
执行下列步骤:
- 导航到数据中心,然后创建虚拟机文件夹。
- 在虚拟机文件夹中,创建嵌套的虚拟机文件夹。
- 在第二个文件夹中,创建另一个嵌套虚拟机、虚拟机文件夹、vApp 或虚拟机模板。
因此,在“虚拟机和模板”清单树中,您看不到第三个嵌套文件夹中的对象。
解决办法:要查看第三个嵌套文件夹中的对象,请导航到第二个嵌套文件夹,然后选择“虚拟机”选项卡。
- vSAN 文件服务操作在已启用 vSphere Lifecycle Manager 的集群上失败
更改 ESXi 主机状态的过程中,由于 vSphere ESX Agent Manager (EAM) 存在争用情况,vSAN 文件服务操作可能会在已启用 vSphere Lifecycle Manager 的集群上失败。在升级和操作期间会出现此问题,如打开电源或关闭电源、引导或者主机退出维护模式或待机模式时。如果端点在 ESXi 主机的状态更改之前不可用,则会出现争用情况。在这种情况下,EAM 将启动修复过程,但该过程无法解决,并使从其他服务(如 vSAN 文件服务)执行的操作失败。
解决办法:重新启动 vSphere ESX Agent Manager。
- 从存储无法访问状况(如集群范围的 APD)中恢复后,集群中的虚拟机可能处于孤立状态
在集群范围的 APD 恢复后,某些虚拟机可能处于孤立状态,即使在集群上启用了 HA 和 VMCP 也是如此。
同时出现以下情况时,可能会遇到此问题:
- 集群中的所有主机都出现 APD,并且在达到 VMCP 超时前不会恢复。
- 由于主机上的 APD,HA 主代理启动故障切换。
- 由于以下原因之一,HA 故障切换期间打开 API 的电源失败:
- 同一主机上的 APD
- 整个集群中的级联 APD
- 存储问题
- 资源不可用问题
- 在 FDM 尚未取消注册故障虚拟机的期间内,FDM 取消注册和 VC 挪用虚拟机逻辑可能启动,并且 VC 的主机同步做出多个主机正在报告同一虚拟机的响应。FDM 和 VC 从不同主机取消注册同一虚拟机的不同注册副本,导致虚拟机处于孤立状态。
解决办法:在 APD 恢复后,必须在集群中手动取消注册和重新注册孤立的虚拟机。
如果不手动重新注册孤立的虚拟机,HA 会尝试故障切换孤立的虚拟机,但可能需要 5 到 10 小时的时间,具体取决于 APD 恢复的时间。
在这些情况下,集群的整体功能不受影响,并且 HA 将继续保护虚拟机。这是出现问题期间 VC 上显示的异常。
- 如果已为集群启用集中管理所有主机上的映像设置和更新的功能,无法在该集群上启用 NSX-T
NSX-T 与 vSphere Lifecycle Manager 的映像管理功能不兼容。在为集群启用集中管理其所有主机上的映像设置和更新的功能时,无法在该集群上启用 NSX-T。但是,可以将 NSX Edge 部署到此集群。
解决办法:将主机移至可使用基准管理的新集群,并且在该新集群上启用 NSX-T。
- 在 vSphere 7.0 版本中,无法在 vSAN 集群上同时启用 vSphere Lifecycle Manager 和 vSAN 文件服务
如果在集群上启用了 vSphere Lifecycle Manager,则无法在同一集群上启用 vSAN 文件服务,反之亦然。要在已启用 vSAN 文件服务的集群上启用 vSphere Lifecycle Manager,请先禁用 vSAN 文件服务,然后重试操作。请注意,如果转换到由单个映像管理的集群,则无法在该集群上禁用 vSphere Lifecycle Manager。
解决办法:无。
- 硬件支持管理器不可用时,vSphere High Availability (HA) 功能会受到影响
如果集群由单个映像管理并且已从中选择固件和驱动程序加载项并启用 vSphere HA,则硬件支持管理器不可用于该集群时,vSphere HA 功能会受到影响。您可能会遇到以下错误。
- 在集群上配置 vSphere HA 失败。
- 无法在主机上完成 vSphere HA 代理配置:
在集群上应用 HA VIB 时遇到故障 (Applying HA VIBs on the cluster encountered a failure)。
- 修复 vSphere HA 失败:
出现了常规系统错误: 无法获取有效的组件映射 (A general system error occurred: Failed to get Effective Component map)。
- 禁用 vSphere HA 失败:删除解决方案任务失败。
出现了常规系统错误: 在库中或硬件支持管理器中找不到硬件支持软件包 (A general system error occurred: Cannot find hardware support package from depot or hardware support manager)。
解决办法:
- 如果硬件支持管理器暂时不可用,请执行以下步骤。
- 将硬件支持管理器重新连接到 vCenter Server。
- 从“主机和集群”菜单中选择集群。
- 选择“配置”选项卡。
- 在“服务”下,单击“vSphere 可用性”。
- 重新启用 vSphere HA。
- 如果硬件支持管理器永久不可用,请执行以下步骤。
- 从映像规范中移除硬件支持管理器和硬件支持包。
- 重新启用 vSphere HA。
- 从“主机和集群”菜单中选择集群。
- 选择“更新”选项卡。
- 单击“编辑”。
- 移除固件和驱动程序加载项,然后单击“保存”。
- 选择“配置”选项卡。
- 在“服务”下,单击“vSphere 可用性”。
- 重新启用 vSphere HA。
- vSphere Lifecycle Manager 中的修复过程完成后,未从集群中移除 I/O 筛选器
通过在 vSphere Lifecycle Manager 中修复集群来从集群中移除 I/O 筛选器失败,并显示以下错误消息:
iofilter XXX 已存在 (iofilter XXX already exists)
。IO 筛选器仍列为“已安装”。解决办法:
- 从 vCenter Server 受管对象 (IoFilterManager) 调用 IOFilter API
UninstallIoFilter_Task
。 - 在 vSphere Lifecycle Manager 中修复集群。
- 从 vCenter Server 受管对象 (IoFilterManager) 中调用 IOFilter API
ResolveInstallationErrorsOnCluster_Task
以更新数据库。
- 从 vCenter Server 受管对象 (IoFilterManager) 调用 IOFilter API
- 在 vSphere Lifecycle Manager 中修复已启用的 vSphere HA 的集群时,禁用并重新启用 vSphere HA 会导致出现 vSphere HA 错误状态
在集群修复过程中禁用并重新启用 vSphere HA 时,可能会由于 vSphere HA 运行状况检查报告主机未安装 vSphere HA VIB 而导致修复过程失败。您可能会看到以下错误消息:
为集群设置所需的映像规范失败 (Setting desired image spec for cluster failed)
。解决办法:在集群修复操作完成后,为集群禁用并重新启用 vSphere HA。
- 在 vSphere Lifecycle Manager 中检查大型集群中的建议映像时存在性能缓慢问题
在具有超过 16 个主机的大型集群中,建议生成任务可能需要超过一小时才能完成,或者可能显示为挂起。建议任务的完成时间取决于在每个主机上配置的设备的数量,以及在获取建议的有效映像之前 vSphere Lifecycle Manager 需要从库中处理的候选映像的数量。
解决办法:无。
- 在 vSphere Lifecycle Manager 中检查大型集群中的硬件兼容性时存在性能缓慢问题
在具有超过 16 个主机的大型集群中,验证报告生成任务可能需要长达 30 分钟的时间才能完成,或者可能显示为挂起。完成时间取决于在每个主机上配置的设备的数量以及在集群中配置的主机的数量。
解决办法:无
- 修复 vSphere Lifecycle Manager 中的集群时,显示非英语语言的不完整错误消息
在 vCenter Server 用户界面中,您可能会遇到本地化语言的不完整错误消息。vSphere Lifecycle Manager 中的集群修复过程失败后,将显示这些消息。例如,您可能会看到以下错误消息。
英文语言的错误消息:Virtual machine 'VMC on DELL EMC -FileServer' that runs on cluster 'Cluster-1' reported an issue which prevents entering maintenance mode: Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
法语语言的错误消息:La VM « VMC on DELL EMC -FileServer », située sur le cluster « {Cluster-1} », a signalé un problème empêchant le passage en mode de maintenance : Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
解决办法:无。
- 将使用基准的集群转换为使用单个映像的集群时,显示一条警告,指出将移除 vSphere HA VIB
将使用基准并且已启用 vSphere HA 的集群转换为使用单个映像的集群时,可能会出现一条警告消息,指出将移除
vmware-fdm
组件。解决办法:可忽略此消息。转换过程中将安装
vmware-fdm
组件。 - 如果 vSphere Update Manager 配置为通过代理服务器从 Internet 下载修补程序更新,则在升级到将 Update Manager 转换为 vSphere Lifecycle Manager 的 vSphere 7.0 后,从 VMware 修补程序存储库下载修补程序可能失败
在早期版本的 vCenter Server 中,您可以为 vCenter Server 和 vSphere Update Manager 配置独立的代理设置。升级到 vSphere 7.0 后,vSphere Update Manager 服务将成为 vSphere Lifecycle Manager 服务的一部分。对于 vSphere Lifecycle Manager 服务,将从 vCenter Server Appliance 设置中配置代理设置。如果您已将 Update Manager 配置为通过代理服务器从 Internet 下载修补程序更新,但 vCenter Server Appliance 没有代理设置配置,则在 vCenter Server 升级到版本 7.0 后,vSphere Lifecycle Manager 无法连接到 VMware 库,并且无法下载修补程序或更新。
解决办法:登录到 vCenter Server Appliance 管理界面 https://vcenter-server-appliance-FQDN-or-IP-address:5480,为 vCenter Server Appliance 配置代理设置并将 vSphere Lifecycle Manager 启用为使用代理。
- 如果使用 Java 客户端查看修复任务,将无法从修复操作中获取结果
如果使用 Java 客户端查看修复任务,获取结果可能会失败,并显示
ConstraintValidationException
错误。如果 ESXi 主机在修复过程中无法进入维护模式,且状态为“已跳过”,但同时又错误地显示了对应于连续修复操作的“正在进行中”标记,则会出现此问题。这会导致在 Java 客户端上出现ConstraintValidationException
错误,并且您无法获取修复操作的结果。解决办法:修复致使 ESXi 主机无法进入维护模式的基础问题,然后重试修复操作。
- Remote Office and Branch Office (ROBO) 部署中的常规 vSphere Lifecycle Manager 库和本地库可能无法同步
只能有限访问或无权访问 Internet 或者有限连接 vCenter Server 的 ROBO 集群可以从本地库下载映像,无需在 vCenter Server 中访问 vSphere Lifecycle Manager 库。但是,vSphere Lifecycle Manager 仅在中央级别以预验证映像的形式生成软件建议,而建议的映像内容在库替代时可能不可用。
解决办法:如果决定使用建议的映像,请确保库替代和中央库之间的内容已同步。
- 在启用了锁定模式的 ESXi 主机上使用 vSphere Lifecycle Manager 进行集群修复可能会失败
如果集群具有启用了锁定模式的 ESXi 主机,则使用 vSphere Lifecycle Manager 执行修复操作可能会跳过此类主机。在日志文件中,您会看到
Host scan task failed
以及com.vmware.vcIntegrity.lifecycle.EsxImage.UnknownError An unknown error occurred while performing the operation.
。解决办法:将 root 用户添加到锁定模式的例外列表中,然后重试集群修复。
- 升级到 vCenter Server 7.0.0b 后,在 vSphere Client 的 vSphere Lifecycle Manager 主页视图中,看不到“仅显示汇总更新”切换按钮
在 vCenter Server 7.0.0b 中,可以使用仅显示汇总更新切换按钮筛选和选择在使用 vSphere Lifecycle Manager 时要包含在基准中的修补程序。
可以在 Lifecycle Manager 窗格中的更新选项卡上访问该按钮,选择菜单 > Lifecycle Manager 可打开“Lifecycle Manager”窗格,这是 vSphere Client 中的 vSphere Lifecycle Manager 主页视图。此外,也可以在创建基准向导(选择新建 > 基准时,将打开该向导)中的基准选项卡上,在手动选择修补程序页面中访问该按钮。
但是,升级到 vCenter Server 7.0.0b 后,仅显示汇总更新切换按钮可能不可见。解决办法:升级到 vCenter Server 7.0.0b 后,重新启动 vSphere Client。有关详细信息,请参见启动、停止和重新启动服务。
- 在 vSphere Client 的 vSphere Lifecycle Manager 主页视图中打开选项卡时,“仅显示汇总更新”切换按钮始终处于开启状态
在 vCenter Server 7.0.0b 中,可以使用仅显示汇总更新切换按钮筛选和选择在使用 vSphere Lifecycle Manager 时要包含在基准中的修补程序。
可以在 Lifecycle Manager 窗格中的更新选项卡上访问该按钮,选择菜单 > Lifecycle Manager 可打开“Lifecycle Manager”窗格,这是 vSphere Client 中的 vSphere Lifecycle Manager 主页视图。此外,也可以在创建基准向导(选择新建 > 基准时,将打开该向导)中的基准选项卡上,在手动选择修补程序页面中访问该按钮。
但是,导航到更新选项卡或手动选择修补程序页面时,该切换按钮始终处于开启状态。即使在离开该选项卡或页面时关闭此按钮,下次打开该选项卡或页面时此按钮仍处于开启状态。解决办法:无
- 使用 Update Planner 时,vSphere Client 中可能会显示“获取更新时发生意外错误 (Unexpected error occurred while fetching the updates)”
使用属于 vSphere Lifecycle Manager 一部分的 Update Planner(用于方便 vCenter Server 更新)时,vSphere Client 中可能会显示以下错误:
获取更新时发生意外错误
当您使用的自定义 HTTPS 端口阻止通过使用 vSphere Client 运行互操作性报告时,会出现此问题。解决办法:手动调用 API。有关更多详细信息,请参见 vSphere Automation API。
- 将版本为 6.5 的主机配置文件应用于版本为 7.0 的 ESXi 主机时,合规性检查失败
将版本为 6.5 的主机配置文件应用于版本为 7.0 的 ESXi 主机时,会将 Coredump 文件配置文件报告为与主机不兼容。
解决办法:有两种可行的解决办法。
- 在创建版本为 6.5 的主机配置文件时,请在 ESXi 主机上将高级配置选项 VMkernel.Boot.autoCreateDumpFile 设置为 false。
- 应用版本为 6.5 的现有主机配置文件时,在主机配置文件中添加高级配置选项 VMkernel.Boot.autoCreateDumpFile,将该选项配置为固定策略,并将值设置为 false。
- 当您的浏览器设置非英语的语言时,“操作”下拉菜单中不包含任何项目
如果您的浏览器设置为非英语的语言,则您在 vSphere Client 清单的虚拟机摘要选项卡中单击切换到新视图按钮时,客户机操作系统面板中的操作下拉菜单中不包含任何项目。
解决办法:选择虚拟机页面顶部的操作下拉菜单。
- 在打开动态接收方调整 (DYN_RSS) 或通用 RSS (GEN_RSS) 功能时,Mellanox ConnectX-4 或 ConnectX-5 本机 ESXi 驱动程序可能出现轻微的吞吐量下降
当 DYN_RSS 和 GEN_RSS 功能处于开启状态时,Mellanox ConnectX-4 或 ConnectX-5 本机 ESXi 驱动程序可能会出现低于 5% 的吞吐量下降,这很可能会影响正常工作负载。
解决办法:可以使用以下命令禁用 DYN_RSS 和 GEN_RSS 功能:
# esxcli system module parameters set -m nmlx5_core -p "DYN_RSS=0 GEN_RSS=0"
# reboot
- 在 PVRDMA 环境中,同一主机上两个虚拟机之间的 RDMA 通信可能失败
在 PVRDMA 环境的 vSphere 7.0 实施中,如果存在 HCA,虚拟机通过 HCA 传递流量以进行本地通信。但是,RDMA 流量环回在 qedrntv 驱动程序上不起作用。 例如,在同一上行链路端口下配置的虚拟机上运行的 RDMA 队列对无法相互通信。
在 vSphere 6.7 及更低版本中,如果已启用 SRQ,则 HCA 用于本地 RDMA 流量。如果虚拟机使用已启用 SRQ 的 PVRDMA 版本以及使用 RoCE v2 的硬件版本 14 及以上版本,vSphere 7.0 将对这些虚拟机使用 HCA 环回。
当前版本的 Marvell FastLinQ 适配器固件不支持同一 PF 或端口的 QP 之间的环回流量。
解决办法:已在针对 vSphere 7.0 认证的原生驱动程序中添加所需支持。如果您使用的是内置 qedrntv 驱动程序,则必须使用 3 主机配置并将虚拟机迁移到第三个主机。
- 在 qedrntv 驱动程序中不可靠的数据报流量 QP 存在限制
Marvell FastLinQ qedrntv RoCE 驱动程序与不可靠的数据报 (UD) 流量存在限制。涉及批量流量的 UD 应用程序可能会因 qedrntv 驱动程序而失败。此外,UD QP 只能使用 DMA 内存区域 (MR)。不支持物理 MR 或 FRMR。尝试将物理 MR 或 FRMR 与 UD QP 配合使用的应用程序在与 qedrntv 驱动程序一起使用时无法传递流量。此类测试应用程序的已知示例为
ibv_ud_pingpong
和ib_send_bw
。VMware ESXi 环境(如 iSER、NVMe-oF (RoCE) 和 PVRDMA)中的标准 RoCE 和 RoCEv2 用例不受此问题的影响。UD 流量的用例有限,此问题会影响需要批量 UD 流量的一小部分应用程序。
Marvell FastLinQ 硬件不支持 RDMA UD 流量卸载。为了满足关于支持 GSI QP 的 VMware PVRDMA 要求,qedrntv 驱动程序中添加了 UD QP 支持的受限仅软件实施。此实施的目标是提供对控制路径 GSI 通信的支持,而不是支持批量流量和高级功能的完整 UD QP 实施。
由于在软件中实施 UD 支持,此实施可能不适应大量流量,并且数据包可能会丢失。这可能会导致批量 UD 流量出现故障。
解决办法:qedrntv 驱动程序不支持批量 UD QP 流量,目前尚无解决办法。如 iSER、NVMe、RDMA 和 PVRDMA 等 VMware ESXi RDMA (RoCE) 用例不受此问题的影响。
- 在频繁连接或断开 iSCSI LUN 时,配备 QLogic 578xx 网卡的服务器可能失败
如果在短时间内频繁触发 QLogic 578xx 网卡 iSCSI 连接或断开连接,服务器可能会由于 qfle3 驱动程序问题而失败。这是设备固件中的一个已知缺陷所致。
解决办法:无。
- 在基于 FC 的 Broadcom NVMe 环境中,在执行驱动程序卸载或控制器断开连接操作期间,ESXi 可能失败
在基于 FC 的 Broadcom NVMe 环境中,在执行驱动程序卸载或控制器断开连接操作期间,ESXi 可能会失败,并且显示类似以下内容的错误消息:
@BlueScreen: #PF Exception 14 in world 2098707:vmknvmeGener IP 0x4200225021cc addr 0x19
解决办法:无。
- 在某些 Dell 服务器上,ESXi 不显示 i350/X550 网卡的 OEM 固件版本号
内置 ixgben 驱动程序仅识别 i350/X550 网卡的固件数据版本或签名。在某些 Dell 服务器上,OEM 固件版本号已编程到 OEM 软件包版本区域,而内置 ixgben 驱动程序不会读取此信息。仅显示 8 位固件签名。
解决办法:要显示 OEM 固件版本号,请安装异步 ixgben 驱动程序版本 1.7.15 或更高版本。
- X710 或 XL710 网卡在 ESXi 中可能发生故障
在对 X710 或 XL710 网卡启动某些破坏性操作(例如重置网卡或操作 VMKernel 的内部设备树)时,网卡硬件可能会从非数据包内存中读取数据。
解决办法:请勿重置网卡或操作 VMkernel 内部设备状态。
- 系统重新引导后,NVMe-oF 不保证持久 VMHBA 名称
NVMe-oF 是 vSphere 7.0 中的新功能。如果服务器具有使用 vmhba30+ 的 USB 存储安装,并且还具有 NVMe over RDMA 配置,则在系统重新引导后,VMHBA 名称可能会发生变化。这是因为 NVMe over RDMA 的 VMHBA 名称分配不同于 PCIe 设备。ESXi 不保证持久性。
解决办法:无。
- vCenter 数据库大小为 300 GB 或更大时备份失败
如果 vCenter 数据库大小为 300 GB 或更大,基于文件的备份将失败,并显示超时。将显示以下错误消息:
超时! 无法在 72000 秒内完成 (Timeout! Failed to complete in 72000 seconds)
解决办法:无。
- 还原从具有外部 Platform Services Controller 部署的 vCenter Server 6.x 升级到 vCenter Server 7.0 的 vCenter Server 7.0 可能会失败
还原从具有外部 Platform Services Controller 部署的 vCenter Server 6.x 升级到 vCenter Server 7.0 的 vCenter Server 7.0 时,还原可能会失败并显示以下错误:
无法检索设备存储列表 (Failed to retrieve appliance storage list)
解决办法:在还原过程的第一阶段,提高 vCenter Server 7.0 的存储级别。例如,如果 vCenter Server 6.7 外部 Platform Services Controller 设置存储类型为“小型”,请选择存储类型“大型”以执行还原过程。
- 在主机配置文件修复过程中,未配置已启用的 SSL 协议配置参数
在主机配置文件修复期间未配置
已启用的 SSL 协议 (Enabled SSL protocols)
配置参数,仅启用了系统默认协议tlsv1.2
。在 vCenter Server 7.0 环境中,版本为 7.0 及更低版本的主机配置文件会出现此行为。解决办法:要为 SFCB 启用 TLSV 1.0 或 TLSV 1.1 SSL 协议,请使用 SSH 登录到 ESXi 主机,然后运行以下 ESXCLI 命令:
esxcli system wbem -P <protocol_name>
- 无法使用主机配置文件配置锁定模式设置
无法使用安全主机配置文件配置锁定模式,也无法将该模式同时应用于多个 ESXi 主机。必须手动配置每个主机。
解决办法:在 vCenter Server 7.0 中,可以使用安全主机配置文件配置锁定模式和管理锁定模式例外用户列表。
- 将主机配置文件应用于集群时,ESXi 主机中缺少增强型 vMotion 兼容性 (EVC) 设置
VMware 配置文件
/etc/vmware/config
中的某些设置不受主机配置文件管理,并且在修改该 VMware 配置文件时被阻止。因此,将主机配置文件应用于集群时,EVC 设置丢失,导致 EVC 功能丢失。例如,未屏蔽的 CPU 可能向工作负载公开。解决办法:在集群上重新配置相关的 EVC 基准以恢复 EVC 设置。
- 使用主机配置文件在 vCenter Server 7.0 中定义核心转储分区时导致发生错误
在 vCenter Server 7.0 中,无法在主机配置文件中配置和管理核心转储分区。尝试应用主机配置文件来定义核心转储分区时,导致出现以下错误:
未找到任何有效的 coredump 分区。
解决办法:无。在 vCenter Server 7.0 中,主机配置文件仅支持基于文件的核心转储。
- 从某些库到 vSphere 的 HTTP 请求可能被拒绝
vSphere 7.0 中的 HTTP 反向代理强制实施比以前版本更严格的标准合规性。这可能导致在应用程序用于对 vSphere 执行 SOAP 调用的某些第三方库中出现预先存在的问题。
如果您开发使用此类库的 vSphere 应用程序,或者在 vSphere 堆栈中包含依赖于此类库的应用程序,那么当这些库向 VMOMI 发送 HTTP 请求时,可能会遇到连接问题。例如,从 vijava 库发出的 HTTP 请求可能采用以下形式:
POST /sdk HTTP/1.1
SOAPAction
Content-Type: text/xml; charset=utf-8
User-Agent: Java/1.8.0_221
此示例中的语法违反了在 SOAPAction 后必须使用冒号的 HTTP 协议标头字段要求。因此,请求在执行时被拒绝。
解决办法:在应用程序中利用不合规库的开发人员可以考虑改为使用遵循 HTTP 标准的库。例如,使用 vijava 库的开发人员可以考虑改为使用最新版本的 yavijava 库。
- 在主机配置文件中编辑高级选项参数并将值设置为 false 时,导致该值设置为 true
尝试将主机配置文件中高级选项参数的值设置为
false
时,用户界面会创建一个非空字符串值。不为空的值将解释为true
,并且该高级选项参数在主机配置文件中收到true
值。解决办法:有两种可行的解决办法。
- 在引用 ESXi 主机上将该高级选项参数设置为
false
,并在主机配置文件中复制此主机上的设置。
注意:主机必须与主机配置文件兼容,才可在主机上修改高级选项参数。
- 在引用 ESXi 主机上将高级选项参数设置为
false
,并且从此主机创建主机配置文件。然后,将主机配置文件设置从新主机配置文件复制到现有主机配置文件中。
- 在引用 ESXi 主机上将该高级选项参数设置为
- 在修复过程中,主机配置文件修改 SNMP 动态防火墙规则集
SNMP 防火墙规则集是动态状况,在运行时期间进行处理。应用主机配置文件时,规则集的配置由主机配置文件和 SNMP 同时进行管理,这可能导致意外地修改防火墙设置。
解决办法:有两种可行的解决办法。
- 要允许规则集对自身进行动态管理,请在主机配置文件的配置中排除 SNMP 防火墙规则集选项。
- 要继续对规则集进行双重管理,请在需要时更正防火墙规则集状态。
- 使用 Broadcom 驱动程序 lsi_msgpt3、lsi_msgpt35 和 lsi_mr3 时,可能会显示转储文件
使用 lsi_msgpt3、lsi_msgpt35 和 lsi_mr3 控制器时,存在显示转储文件 lsuv2-lsi-drivers-plugin-util-zdump 的潜在风险。退出此插件实用程序中使用的 storelib 时出现问题。对 ESXi 操作没有任何影响,可以忽略该转储文件。
解决办法:可放心地忽略此消息。可以使用以下命令移除 lsuv2-lsi-drivers-plugin:
esxcli software vib remove -n lsuv2-lsiv2-drivers-plugin
- 在 vCenter 中配置 PCI 设备的 SR-IOV 后,您可能会看到不需要重新引导,但第三方扩展执行的设备配置可能会丢失,需要重新引导才能重新应用。
在 ESXi 7.0 中,无需重新引导即可应用 SR-IOV 配置,并重新加载设备驱动程序。ESXi 主机可能让第三方扩展执行设备配置,这些配置需要在引导期间加载设备驱动程序后运行。要使这些第三方扩展重新应用设备配置,需要重新引导。
解决办法:在配置 SR-IOV 以应用第三方设备配置后,必须重新引导。
- 在直接控制台用户界面 (DCUI) 中,子窗口关闭后,父窗口的背景中会显示黑色或灰色区域
在 DCUI 中,通过按 ESC 或 Enter 键或通过单击取消或确定按钮关闭子窗口时,父窗口的外观可能会发生变化。父窗口某些部分的背景颜色更改为灰色或黑色。但是,DCUI 中的所有必填信息都正确显示,并且在 DCUI 中执行的所有操作都成功完成。
解决办法:等待 1 分钟,不刷新 DCUI 中的当前窗口,也不按任何键。
- 如果使用 NFS 和 SMB 协议对 vCenter Server 执行基于文件的备份,则从 vCenter Server 7.x 更新到 vCenter Server 7.0 Update 1 后,备份会失败
如果使用网络文件系统 (NFS) 和服务器消息块 (SMB) 协议对 vCenter Server 执行基于文件的备份,则从早期版本的 vCenter Server 7.x 更新到 vCenter Server 7.0 Update 1 后,备份会失败。在
applmgmt.log
中,您会看到一条错误消息,例如,Failed to mount the remote storage
。出现此问题的原因是,在修补过程中运行了 Linux 内核更新。在全新安装的 vCenter Server 7.0 Update 1 中不会出现该问题。解决办法:更新完成后,重新引导 vCenter Server Appliance。
- 还原 vCenter Server Appliance 后,Microsoft Active Directory 联合身份验证服务 (ADFS) 登录可能会失败
如果在设置 ADFS 时手动将证书添加到 vCenter Server JRE 信任库或修改
/etc/hosts
文件,则还原后不会保留更改,并且可能会导致 ADFS 登录失败。解决办法:还原 vCenter Server Appliance 之后,将 ADFS 证书添加到 vCenter Server JRE 信任库。有关详细信息,请参见导入外部身份提供程序的可信证书。还原 vCenter Server Appliance 之后,将必要的主机名映射重新添加到
/etc/hosts
文件。
要折叠以前的已知问题列表,请单击此处。