VMware vSAN 7.0 Update 3c | 2022 年 1 月 27 日 | ISO 内部版本 19193900

请查看发行说明以了解新增内容及更新。

发行说明内容

更新时间:2022 年 1 月 27 日

本发行说明包含以下主题:

重要信息:由于升级影响问题,VMware 于 2021 年 11 月 19 日从所有站点中移除了 ESXi 7.0 Update 3、7.0 Update 3a 和 7.0 Update 3b。ESXi 7.0 Update 3c ISO 内部版本 19193900 将分别取代 ESXi 7.0 Update 3 内部版本 18644231、7.0 Update 3a 内部版本 18825058 和 
7.0 Update 3b 内部版本 18905247。要确保顺利升级到 vSphere 7.0 Update 3c,请参见 VMware 知识库文章 8644787327

新增功能

vSAN 7.0 Update 3 引入了以下新功能和增强功能: 

开发人员就绪基础架构

  • CNS 平台改进。CNS 平台改进了性能、规模和恢复能力,包括改善了异步 CSI 查询的并发、更好地处理孤立卷以及改进了故障排除工具。
  • Vanilla Kubernetes 支持增强功能。增强功能包括 vSAN 延伸集群支持和拓扑支持。
  • vSphere with Tanzu。vSAN 7.0 Update 3 支持适用于 Tanzu Kubernetes Grid 的 ReadWriteMany PV。
  • vDPp 改进。vSAN 数据持久性平台现在支持合作伙伴服务的异步安装和升级。此发行版中提供了新版本的 MinIO 和 Cloudian。支持在进入维护模式和停用磁盘时进行预检查。 

简化操作

  • vSAN 集群关闭并重新启动。现在,您可以轻松关闭并重新启动 vSAN 集群。“关闭集群”向导将执行预检查,让您能够在执行关闭并重新启动过程之前和期间查看、确认和跟踪所需的步骤。
  • vLCM 增强功能。vLCM 的硬件兼容性检查支持在应用所需的集群映像之前根据 vSAN HCL 对磁盘设备固件进行验证。vLCM 支持在 vSAN 双节点集群和延伸集群的协调集群修复工作流中升级 vSAN 见证主机(专用)。
  • 增强了网络监控和异常检测。vSAN 7.0 Update 3 提供了额外的网络运行状况检查以便进行诊断,并使您能够调整网络监控阈值。 
  • vSAN 运行状况检查关联。新的 vSAN 运行状况关联引擎有助于确定集群问题的根本原因。此信息可以简化故障排除并帮助您修复集群上的相关警告。 
  • 虚拟机 I/O 行程分析器。借助 vSAN I/O 路径和整个 I/O 路径的相关性能信息的可视表示,您能够轻松诊断虚拟机性能问题。 
  • 改进了 PV/FCD 的性能监控。性能显示可以提供持久卷和第一类磁盘性能的端到端视图。 

平台增强功能

  • 延伸集群站点/见证故障恢复能力。在此版本中,延伸集群可以允许某个站点和见证的计划或非计划停机。您可以执行站点范围的维护(如电源或网络连接),而无需担心见证可用性。 
  • 双节点部署的嵌套故障域。除了在双节点集群中的主机之间创建副本外,此功能还提供了在主机内创建其他数据副本的功能。即使在主机发生计划/非计划停机,以及丢失正常运行的主机上的驱动器或磁盘组后,它仍可提供数据可用性。可以通过 SPBM 配置该策略。
  • I/O 停滞增强功能。vSAN 可正常检测主机上的 I/O 停滞(I/O 控制器无法完成操作)并将其重定向到副本。vSphere Client 会向您发出与该情况有关的警示,以便您可以无中断地迁移工作负载并重新启动有问题的主机。
  • 加密密钥持久性。由密钥管理解决方案生成的加密密钥可以存储在 TPM 芯片中。
  • 基于访问的枚举。vSAN 文件服务现在支持 SMB 基于访问的枚举 (ABE)。ABE 根据在目录中配置的访问特权来限制目录枚举。 

VMware vSAN 社区

使用 vSAN 时出现任何问题,都可以使用 vSAN 社区网站提供反馈和请求帮助。  

本版本的升级

有关升级 vSAN 的说明,请参见 VMware vSAN 7.0 文档。 

注意:在执行升级之前,请查看最新版本的《VMware 兼容性指南》以验证您的平台是否可以使用最新的 vSAN 版本。

vSAN 7.0 Update 3 是需要全面升级到 vSphere 7.0 Update 3c 的新版本。执行以下任务完成升级:

1.升级到 vCenter Server 7.0 Update 3c。有关详细信息,请参见 VMware vSphere 7.0 Update 3c 发行说明。 
2.将主机升级到 ESXi 7.0 Update 3c。有关详细信息,请参见 VMware vSphere 7.0 Update 3c 发行说明。 
3.将 vSAN 磁盘格式升级到 15.0 版本。如果是从磁盘格式版本 3.0 或更高版本升级,则无需执行数据撤出(仅更新元数据)。 
4.升级 FSVM 以启用新的文件服务功能,例如 SMB 共享的基于访问权限的枚举。

注意:vSAN 已在 vSAN 7.0 Update 1 中停用磁盘格式版本 1.0。vSAN 无法再识别运行磁盘格式版本 1.0 的磁盘。vSAN 将阻止通过 vSphere Update Manager、ISO 安装或 esxcli 升级到 vSAN 7.0 Update 1。要避免出现这些问题,请将运行磁盘格式版本 1.0 的磁盘升级到更高版本。如果您的磁盘版本为 1,则运行状况检查会提醒您升级磁盘格式版本。

磁盘格式版本 1.0 不具备性能和快照增强功能,并且不支持包括校验和、去重和压缩以及加密在内的高级功能。有关 vSAN 磁盘格式版本的详细信息,请参见知识库文章 2148493

针对容量受限的主机升级磁盘格式

在从 1.0 或 2.0 版本升级 vSAN 磁盘格式期间,会执行磁盘组撤出操作。移除磁盘组并升级到磁盘格式版本 15.0,再将磁盘组重新添加到集群。对于双节点或三节点集群或容量不足以撤出每个磁盘组的集群,从 vSphere Client 选择允许精简冗余。您还可以使用以下 RVC 命令升级磁盘格式:vsan.ondisk_upgrade --allow-reduced-redundancy

允许降低冗余性时,虚拟机在升级过程中不受保护,因为此方法不会将数据撤出到集群中的其他主机。该方法会移除各磁盘组,升级磁盘格式,然后将磁盘组重新添加到集群。所有对象仍可用,但冗余性已降低。

如果在升级到 vSAN 7.0 Update 3 期间启用去重和压缩,则可以从 vSphere Client 选择允许精简冗余

限制条件

有关 vSAN 7.0 Update 3 版本的最高配置限制的信息,请参见“最高配置”文档

已解决的问题

  • 在配置了代理的情况下,vSAN 运行状况找不到 VUM

    为 vSAN 配置代理后,vsan-health 服务错误地报告 VMware Update Manager (VUM) 已禁用或未安装。

    此版本已修复该问题。

已知问题

已知问题分为如下类别。

vSAN 问题
  • 无法在 vSAN 延伸集群分区期间创建、删除或重新调度具有 CNS 卷的 Kubernetes Pod 

    当 vSAN 延伸集群在站点之间具有网络分区时,间歇性计时问题可能会导致 CNS 中的卷信息丢失。如果 CNS 中不存在卷元数据,则无法使用 CNS 卷创建、删除或重新调度 Pod。vSphere CSI 驱动程序必须能够访问 CNS 中的卷信息才能执行这些操作。

    修复网络分区后,将还原 CNS 卷元数据,此时便可以创建、删除或重新调度具有 CNS 卷的 Pod。

    解决办法:无。

  • “关闭集群”向导在 HCI 网格仅计算集群上显示错误

    vSAN“关闭集群”向导专为具有 vSAN 数据存储和 vSAN 服务的 vSAN 集群而设计。它不支持 HCI 网格仅计算集群。如果使用该向导关闭仅计算集群,则会显示以下错误消息:

    无法检索运行状况服务数据 (Cannot retrieve the health service data)。

    解决办法:无。请勿对 HCI 网格仅计算集群使用 vSAN“关闭集群”向导。

  • 如果在自定义端口上部署 vCenter 服务,则修复具有 vSAN 的 vSphere Lifecycle Manager 集群中的 ESXi 主机将失败

    如果在具有 vSAN、vSphere DRS 和 vSphere HA 的集群中的自定义端口上部署 vCenter Server 服务,则修复 vSphere Lifecycle Manager 集群可能会失败。此问题是由 vSAN 资源运行状况检查错误导致的。ESXi 主机无法进入维护模式,从而导致修复任务失败。

    解决办法:无。 

  • 启用 vSAN 文件服务后,与 DFC 相关的操作(如升级、启用加密或数据效率)可能会失败

    启用文件服务后,代理虚拟机将在每个主机上运行。底层 vSAN 对象可能会放置在多个磁盘组中。转换第一个磁盘组时,vSAN 对象将变得无法访问,并且代理虚拟机处于无效状态。如果尝试删除虚拟机并重新部署新虚拟机,该操作将因虚拟机处于无效状态而失败。虚拟机将取消注册,但无法访问的对象仍然存在。转换下一个磁盘组时,会预检查整个集群中无法访问的对象。此检查会使 DFC 失败,因为它发现无法访问的旧代理虚拟机对象。

    解决办法:手动移除无法访问的对象。 

    发生此类故障时,您会看到 DFC 任务失败。

    1. 从失败任务故障信息中确定无法访问的对象。
    2. 要确保对象属于代理虚拟机,请检查 hostd 日志文件并确认这些对象属于虚拟机的对象布局。
    3. 登录到主机并使用 /usr/lib/vmware/osfs/bin/objtool 命令手动移除对象。

    注意:要防止出现此问题,请在执行任何与 DFC 相关的操作之前禁用文件服务。

  • esxcli vsan cluster leave 命令无法禁用 ESXi 主机上的 vSAN 

    在某些情况下,以下命令无法禁用成员主机上的 vSAN:esxcli vsan cluster leave

    您可能会看到类似于以下内容的错误消息:

    无法卸载默认 vSAN 数据存储。无法完成 Sysinfo 操作。请参阅 VMKernel 日志文件以了解更多详细信息。(Failed to unmount default vSAN datastore. Unable to complete Sysinfo operation. Please see the VMKernel log file for more details.)

    解决办法:在 vSphere Client 中执行以下步骤以禁用单个成员主机上的 vSAN:

    1. 将主机置于维护模式。
    2. 将主机移出 vSAN 集群,然后将其移入其父数据中心。
      在移动过程中,将自动禁用主机上的 vSAN 服务。
  • 无法在 vSAN HCI 网格仅计算主机上提取主机配置文件

    vSAN 主机配置文件插件不支持 vSAN HCI 网格仅计算主机。如果尝试在 HCI 网格仅计算主机上提取主机配置文件,该尝试将失败。 

    解决办法:无

  • 删除文件共享中的文件可能不会反映在 vSAN 容量视图中

    删除所有文件后,分配的数据块可能不会立即返回到 vSAN 存储,因此需要等待一些时间,已回收的存储容量才会更新到 vSAN 容量视图中。在将新数据写入到同一文件共享后,这些已删除的数据块在返回到 vSAN 存储之前可能会被重用。

    如果启用了取消映射功能但禁用了 vSAN 去重功能,则除非在 VDFS 中释放了 4 MB 的对齐空间,否则可能不会将空间释放回 vSAN。如果同时启用了取消映射功能和 vSAN 去重功能,VDFS 释放的空间将在一段时间延迟后释放回 vSAN。

    解决办法:要立即将存储释放回 vSAN,请删除文件共享。 

  • 由于网络拥堵,vSAN over RDMA 可能会出现性能降低情况 

    RDMA 需要无拥堵的无损网络基础架构。如果您的网络出现拥堵,某些大型 I/O 工作负载的性能可能会低于 TCP。 

    解决办法:按照 OEM 的 RDMA 最佳做法,解决任何网络拥堵问题。

  • vCenter 虚拟机在启用了传输中数据加密的延伸集群上崩溃

    如果 vCenter 虚拟机位于启用了传输中数据加密的 vSAN 上,则 vCenter 虚拟机可能会在 vSAN 延伸集群上崩溃。如果一个站点中的所有主机都在关闭后又重新打开电源,则在该故障站点恢复服务后,vCenter 虚拟机可能会崩溃。

    解决办法:使用以下脚本解决此问题:thumbPrintRepair.py  

  • 无法将虚拟机从 VMFS 数据存储或 vSAN 数据存储迁移到 vSAN 数据存储

    启用基于内容的读取缓存 (CBRC) 后,sVmotion 或 xVmotion 可能无法将具有一个或多个快照的虚拟机迁移到 vSAN 数据存储。您可能会看到以下错误消息:对象不支持此操作 (The operation is not supported on the object)。

    /var/log/vmware/vpxd/ 中会显示以下消息

    2021-01-31T17:12:27.477Z error vpxd[18588] [Originator@6876 sub=vpxLro opID=65ef3b53-01] [VpxLRO] Unexpected Exception: N5Vmomi5Fault12NotSupported9ExceptionE(Message is: The operation is not supported on the object.,
    --> Fault cause: vmodl.fault.NotSupported
    --> Fault Messages are:
    --> (null)
    --> )
    -->

    解决办法:在迁移之前整合快照或删除所有快照。

  • vSAN 允许跨本地和远程数据存储置备虚拟机

    vSphere 不会阻止用户在 HCI 网格环境中跨本地和远程数据存储置备虚拟机。例如,您可以在本地 vSAN 数据存储中置备一个 VMDK,并在远程 vSAN 数据存储中置备一个 VMDK。以上操作不受支持,因为此配置不支持 vSphere HA。

    解决办法:不要跨本地和远程数据存储置备虚拟机。

  • 对象重新格式化任务没有进展

    如果在升级后需要重新格式化对象,将触发运行状况警示,并且 vSAN 将开始重新格式化对象。vSAN 将批量执行此任务,具体取决于集群中可用的瞬时容量大小。当瞬时容量超出最大限制时,vSAN 会等待释放瞬时容量,然后再继续重新格式化对象。在此阶段,该任务可能看起来已暂停。当瞬时容量可用时,运行状况警示将清除,并且该任务将继续执行。

    解决办法:无。该任务正在按预期执行。 

  • 无法关闭系统虚拟机电源

    在 vSphere 7.0 Update 1 的 vSphere 集群服务 (vCLS) 版本中,可能会将一组系统虚拟机置于 vSAN 集群内。这些系统虚拟机无法由用户关闭电源。此问题会影响一些 vSAN 工作流,这些工作流在以下文章中进行了介绍:https://kb.vmware.com/s/article/80877

    解决办法:有关此问题的详细信息,请参见知识库文章 80483。 

  • 由于 vSAN 磁盘格式版本较旧,无法启用 vSAN 文件服务。

    无法使用低于 11.0(这是 vSAN 7.0 中的磁盘格式版本)的 vSAN 磁盘格式版本启用 vSAN 文件服务。

    在启用文件服务之前,先升级 vSAN 磁盘格式版本。

  • 由于 vSAN 运行状况网络测试问题,大型集群中的修复集群任务可能会失败

    对于具有 16 个以上主机的大型集群,在主机升级期间可能会出现间歇性 ping 故障。这些故障可能会中断 vSphere Life Cycle Manager 中的主机修复。

    修复预检查完成后,将检查以下 vSAN 运行状况测试的静默警示:

    • vSAN:基本(单播)连接检查
    • vSAN:MTU 检查 (执行较大数据包 Ping 操作)

    修复任务完成后,还原 vSAN 运行状况测试的警示。

  • 重新插入驱动器时,在现热插拔情况下主机发生故障

    在热驱动器移除过程中,如果在一分钟内拔出并重新插入 NVMe 驱动器,则 VMware 本机 NVMe 热插拔可能会导致主机出现故障。重新插入任何新驱动器或现有驱动器时,vSphere 和 vSAN 都会出现此问题。

    解决办法:移除热驱动器后,请等待一分钟,然后再重新插入新驱动器或现有驱动器。

  • 无法将集群中的最后一个主机置于维护模式,或者无法移除磁盘或磁盘组

    如果集群中只剩下一个主机且该主机进入维护模式,则迁移全部数据确保可访问性模式下的操作可能会失败,而不提供添加新资源的指导。如果集群中只剩下一个磁盘或磁盘组且将移除该磁盘或磁盘组,也可能会出现这种情况。

    解决办法:在将集群中剩余的最后一个主机置于维护模式且选中迁移全部数据确保可访问性模式之前,将具有相同配置的另一个主机添加到集群。在移除集群中剩余的最后一个磁盘或磁盘组之前,添加具有相同配置和容量的新磁盘或磁盘组。

  • 如果一个或多个磁盘或磁盘组几乎完全占用,则对象重新配置工作流可能会由于缺少容量而失败

    当非去重集群中的磁盘或去重集群中的磁盘组达到可配置的重新同步暂停占用率阈值时,vSAN 重新同步将暂停。这是为了避免被重新同步 I/O 占满磁盘。如果磁盘达到此阈值,vSAN 将停止重新配置工作流,例如 EMM、修复、重新均衡和策略更改。

    解决办法:如果集群中的其他位置有可用空间,重新均衡集群将释放其他磁盘上的空间,以便后续重新配置尝试操作能够成功。

  • 从集群完全占用这一情况恢复后,虚拟机可能会失去 HA 保护

    在 vSAN 集群中,如果所含主机中的磁盘占用率为 100%,虚拟机可能存在未决问题,从而失去 HA 保护。此外,从集群完全占用这一情况恢复后,具有未决问题的虚拟机不受 HA 保护。

    解决办法:从 vSAN 集群完全占用这一情况恢复后,执行以下操作之一:

    • 禁用并重新启用 HA。
    • 重新配置 HA。
    • 关闭虚拟机电源,然后再打开电源。
  • 由于存在未决问题,关闭虚拟机电源将失败

    如果虚拟机存在未决问题,则该问题得到解决后,才能执行任何与虚拟机相关的操作。

    解决办法:尝试释放相关卷上的磁盘空间,然后单击重试

  • 当集群已完全占用时,虚拟机的 IP 地址将更改为 IPV6 或变得不可用

    如果 vSAN 集群已完全占用,其中一个或多个磁盘组达到 100%,则可能存在未决的虚拟机问题,需要用户执行操作加以解决。如果问题未得到解决并且无人处理集群已完全占用这一状况,则虚拟机的 IP 地址可能会更改为 IPv6 或变得不可用。这会阻止您使用 SSH 访问虚拟机。  此外,还会阻止您使用虚拟机控制台,因为在键入 root 后控制台变为空白。

    解决办法:无。

  • 容量磁盘进入 PDL 状态后,无法移除启用了去重的磁盘组

    如果移除启用了去重的磁盘组中的某个容量磁盘,其唯一 ID 发生更改或者设备发生不可恢复的硬件错误,则该容量磁盘会进入永久设备丢失 (PDL) 状态。如果尝试移除磁盘组,可能会看到一条错误消息,提示您操作无法完成。

    解决办法:如果移除容量磁盘,其唯一 ID 发生更改或者设备发生不可恢复的硬件错误,请等待几分钟,然后再尝试移除磁盘组。

  • vSAN 运行状况指示由于待定策略失败,出现与不可用性相关的不合规状态

    策略更改请求会使 vSAN 的对象运行状况处于与不可用性相关的不合规状态。这是因为可能还有其他已调度的工作正在利用请求的资源。不过,vSAN 会在资源可用时自动重新调度此策略请求。

    解决办法:在大多数情况下,vSAN 周期性扫描会自动修复此问题。但是,即使在接受策略更改而不应用更改的策略后,其他正在进行的工作也可能会耗尽可用的资源。如果容量报告显示较高的值,则可以添加更多容量。

  • 在去重集群中,磁盘显示占用率超过 80% 时,可能不会执行被动重新均衡

    在去重集群中,当仪表板上显示磁盘占用率超过 80% 时,被动重新均衡可能不会按预期启动。这是因为在去重集群中,计算可用容量时还会考虑挂起的写入和删除操作。

    解决办法:无。

  • 客户机操作系统发出的剪裁/取消映射命令失败

    如果客户机操作系统尝试在联机快照整合期间执行空间回收,剪裁/取消映射命令会失败。此失败会阻止回收空间。

    解决办法:尝试在联机快照操作完成后回收空间。如果后续剪裁/取消映射操作失败,请重新挂载磁盘。

  • 执行联机快照整合时,SCSI 剪裁/取消映射的空间回收将丢失

    执行联机快照整合时,通过 SCSI 剪裁/取消映射命令实现的空间回收将丢失。脱机快照合不会影响 SCSI 取消映射操作。

    解决办法:联机快照整合完成后再回收空间。

  • 将数据主机转换为见证主机时,主机出现故障

    将 vSAN 集群转换为延伸集群时,必须提供见证主机。您可以将数据主机转换为见证主机,但在该过程中必须使用维护模式迁移全部数据。如果将主机置于维护模式并启用“确保可访问性”选项,然后将主机配置为见证主机,主机可能会发生故障并显示紫色诊断屏幕。

    解决办法:移除见证主机上的磁盘组,然后重新创建磁盘组。

  • 数据存储迁移期间驻留主机出现故障时,会在 vCenter Server 中以相同的名称复制虚拟机

    如果正在通过 Storage vMotion 将虚拟机从 vSAN 迁移到另一个数据存储(例如 NFS),当其驻留的主机在 vSAN 网络遇到故障而导致 HA 故障切换虚拟机时,可能会在 vCenter Server 中复制该虚拟机。 

    解决办法:关闭无效虚拟机的电源并从 vCenter Server 将其取消注册。 

  • 在新的 vCenter Server 下重新配置现有延伸集群会导致 vSAN 发出运行状况检查警告
    在新的 vCenter Server 下重新构建当前延伸集群时,vSAN 集群运行状况检查为红色。将显示以下消息:vSphere 集群成员与 vSAN 集群成员匹配 (vSphere cluster members match vSAN cluster members)

    解决办法:使用以下过程配置延伸集群。

    1. 使用 SSH 登录到见证主机。
    2. 取消配置见证主机上的磁盘。运行以下命令:esxcli vsan storage remove -s "SSD UUID"
    3. 强制见证主机退出该集群。运行以下命令:esxcli vsan cluster leave
    4. 从新的 vCenter Server 重新配置延伸集群(配置 > vSAN > 故障域和延伸集群)。 

     

  • vSAN 重新同步大型对象时磁盘格式升级失败
    如果 vSAN 集群包含非常大的对象,那么重新同步此对象时磁盘格式升级可能会失败。您可能会看到以下错误消息:无法转换 vSAN 上的对象 (Failed to convert object(s) on vSAN)

    重新同步对象后,vSAN 才能执行升级。您可以查看重新同步的状态(监控 > vSAN > 正在重新同步组件)以验证此过程是否完成。

    解决办法:等待重新同步全部完成,然后重试磁盘格式升级。

  • 深层重新加密操作期间集群一致性运行状况检查失败
    对加密 vSAN 集群进行深层重新加密操作可能需要数小时。在重新加密期间,以下运行状况检查可能指示操作失败:集群配置一致性。集群一致性检查不会检测到深层重新加密操作,可能不存在问题。

    解决办法:在深层重新加密操作完成后,重新测试 vSAN 集群一致性运行状况检查。

  • 在集群上禁用 vSAN 后,vSAN 延伸集群配置丢失
    在延伸集群上禁用 vSAN 后,不会保留延伸集群配置。延伸集群、见证主机和故障域配置将会丢失。

    解决办法:重新启用 vSAN 集群时,请重新配置延伸集群参数。

  • 更换见证主机期间,关闭电源的虚拟机显示为无法访问

    更改延伸集群中的见证主机时,关闭电源的虚拟机在 vSphere Web Client 中短暂显示为无法访问。此过程完成后,关闭电源的虚拟机显示为可访问。在整个过程中,所有正在运行的虚拟机显示为可访问。

    解决办法:无。 

  • 如果主机中存在故障引导介质,则无法将主机置于维护模式
    vSAN 无法将存在引导介质故障的主机置于维护模式。进入维护模式的任务可能会因无法保存配置更改而失败,同时出现内部 vSAN 错误。您可能会看到类似以下内容的日志事件:Lost Connectivity to the device xxx backing the boot filesystem

    解决办法:使用撤出全部数据选项从每个主机手动移除磁盘组。然后将主机置于维护模式。

  • 如果 vSAN 集群中的 ESXi 主机运行 vSphere 6.0 Update 1 或更低版本,则运行状况服务无法正常运行
    如果集群中的 ESXi 主机运行 vSphere 6.0 Update 1 或更低版本,则 vSAN 6.6 及更高版本的运行状况服务无法正常运行。

    解决办法:不要将运行 vSphere 6.0 Update 1 或更低版本软件的 ESXi 主机添加到 vSAN 6.6 或更高版本的集群。

  • 延伸集群故障切换后,首选站点上的虚拟机会发出警示:无法进行故障切换 (Failed to failover)

    如果延伸集群中的辅助站点发生故障,虚拟机将故障切换到首选站点。首选站点上的虚拟机可能会发出以下警示:无法进行故障切换 (Failed to failover)。忽略此警示。不会影响故障切换行为。

    解决办法:无。 

  • 在网络分区期间,活动站点中的组件显示为不存在
    在 vSAN 2 主机或延伸集群中进行网络分区期间,vSphere Web Client 可能会从非活动站点的角度显示集群视图。您可能会发现主站点中的活动组件显示为不存在。

    解决办法:使用 RVC 命令查询集群中对象的状态。例如:vsan.vm_object_info

  • 某些对象在强制修复后不合规
    在执行强制修复后,某些对象可能无法修复,因为对象的所有权在此期间已转移到其他节点。这些对象的强制修复可能会延迟。

    解决办法:修复并重新同步所有其他对象后,尝试强制修复操作。可以等到 vSAN 修复对象。

  • 将主机从某个加密集群移到其他加密集群,然后再将其移回原始集群时,任务失败
    将主机从加密 vSAN 集群移动到其他加密 vSAN 集群,然后再将其移动到原始加密集群时,任务可能会失败。您可能会看到以下消息:出现了常规系统错误: 无效故障 (A general system error occurred: Invalid fault)。出现此错误的原因是 vSAN 无法使用原始加密密钥重新加密主机上的数据。短时间后,vCenter Server 将在主机上还原原始密钥,然后挂载 vSAN 集群中所有已卸载的磁盘。

    解决办法:重新引导主机并等待挂载所有磁盘。

  • 站点恢复后延伸集群不均衡
    恢复延伸集群中的故障站点时,故障站点中的主机有时要经过很长一段时间才会依次恢复。vSAN 在开始修复缺失组件时可能会过度使用一些主机。

    解决办法:在短时间内同时恢复故障站点中的所有主机。

  • 虚拟机操作因延伸集群的 HA 问题而失败

    在延伸集群的某些故障场景中,某些虚拟机操作(如 vMotion 或打开虚拟机电源)可能受到影响。这些故障场景包括部分或完全站点故障,或站点之间的高速网络故障。导致此问题的原因是延伸集群站点的正常操作要求能够使用 VMware HA。

    解决办法:在执行 vMotion、虚拟机创建或打开虚拟机电源操作之前禁用 vSphere HA。然后重新启用 vSphere HA。

  • 如果卸载磁盘组,则无法执行深层重新加密
    vSAN 在执行深层重新加密之前,首先会执行浅层重新加密。如果存在已卸载的磁盘组,浅层重新加密将会失败。深层重新加密过程无法开始。

    解决办法:重新安装或移除已卸载的磁盘组。

  • 日志条目显示防火墙配置已更改
    启用 vSAN 加密后,安全配置文件中会显示新的防火墙条目:vsanEncryption。此规则控制主机如何与 KMS 直接通信。触发后,会在 /var/log/vobd.log 中添加日志条目。您可能会看到以下消息:

    Firewall configuration has changed.Operation 'addIP4' for rule set vsanEncryption succeeded.
    Firewall configuration has changed.Operation 'removeIP4' for rule set vsanEncryption succeeded.

    可以忽略这些消息。

    解决办法:无。 

  • 在 vmknic 上设置流量类型选项以支持见证流量后未发生 HA 故障切换
    在 vmknic 上设置流量类型选项以支持见证流量,vSphere HA 不会自动发现新设置。您必须手动禁用,然后重新启用 HA,以便发现 vmknic。如果先配置 vmknic 和 vSAN 集群,然后再在集群上启用 HA,则会发现 vmknic。

    解决办法:在集群上手动禁用 vSphere HA,然后重新启用它。

  • 不支持 iSCSI MCS

    vSAN iSCSI 目标服务不支持每个会话多个连接 (MCS)。

    解决办法:无。 

  • 任何 iSCSI 启动器都可以发现 iSCSI 目标
    vSAN iSCSI 目标服务允许网络上的任何启动器发现 iSCSI 目标。

    解决办法:您可以将 ESXi 主机与 iSCSI 启动器放置在不同的 VLAN 上,从而将它们隔离。

  • 解析网络分区后,链接克隆虚拟机上的某些虚拟机操作可能会失败
    在客户机操作系统中不生成 I/O 的链接克隆虚拟机上,某些虚拟机操作可能会失败。生成快照和挂起虚拟机操作可能会失败。如果基础父虚拟机的命名空间尚不可访问,则在解析网络分区后,可能会出现此问题。当父虚拟机的命名空间变得可访问时,未通知 HA 启动该虚拟机。

    解决办法:重新启动未主动运行 I/O 操作的虚拟机。

  • 无法将见证主机置于维护模式
    尝试将见证主机置于维护模式时,主机仍处于当前状态并显示通知:指定的参数不正确 (A specified parameter was not correct)。

    解决办法:将见证主机置于维护模式时,请选择不迁移数据选项。

  • 将见证主机移入延伸集群然后再移出会将集群置于配置错误状态
    如果将见证主机置于已启用 vSAN 的 vCenter 集群中,则会显示一条警报,通知您见证主机无法驻留在该集群中。但是,即使将见证主机移出集群,集群仍会处于配置错误状态。

    解决办法:将见证主机移出 vSAN 延伸集群,然后重新配置延伸集群。有关详细信息,请参见知识库文章 2130587

  • 如果包含 HA 检测信号数据存储的集群在进行网络分区,则虚拟机不会在其他数据站点上重新启动
    当 vSAN 集群中的首选站点或辅助站点断开与其他站点的网络连接后,断开网络连接的站点上运行的虚拟机不会在其他数据站点上重新启动,并可能显示以下错误:vSphere HA 虚拟机 HA 故障切换失败 (vSphere HA virtual machine HA failover failed)

    这是 vSAN 集群的预期行为。

    解决办法:在集群上配置 vSphere HA 时,不要选择 HA 检测信号数据存储。

  • 已卸载的 vSAN 磁盘和磁盘组在 vSphere Web Client 的“操作状态”字段中显示为已挂载

    当磁盘持续显示高延迟时通过运行 esxcli vsan storage disk group unmount 命令或通过 vSAN 设备监控服务卸载 vSAN 磁盘或磁盘组后,vSphere Web Client 的“操作状态”字段中错误地显示为“已挂载”

    解决办法:使用“运行状况”字段而不是“操作状态”字段验证磁盘状态。

check-circle-line exclamation-circle-line close-line
Scroll to top icon
check-circle-line exclamation-circle-line close-line
Scroll to top icon