VMware ESXi 8.0 Update 2 | 2023 年 9 月 21 日 | GA ISO 組建編號 22380479 查看這些版本說明的新增項目和更新。 |
VMware ESXi 8.0 Update 2 | 2023 年 9 月 21 日 | GA ISO 組建編號 22380479 查看這些版本說明的新增項目和更新。 |
此 ESXi 8.0 Update 2 版本是正式發佈 (GA) 標識。如需有關 vSphere Update 版本的 vSphere 8.0 IA/GA 發佈模型的詳細資訊,請參閱 vSphere 8 發佈模型的發展過程。
如需 vSphere 8.0 Update 2 中新功能的概觀,請參閱 vSphere 8 Update 2 的最新內容以及下列版本說明:
以下新功能和增強功能清單新增了 ESXi 8.0 Update 2 的一些關鍵重點:
在 vSphere 8.0 Update 2 中,vSphere Distributed Services Engine 新增了以下支援:
NVIDIA BlueField-2 DPU 到 Fujitsu 伺服器設計 (Intel Sapphire Rapid)。
ESXi 8.0 Update 2 新增了對多個伺服器的 vSphere Quick Boot 支援,其中包括:
Dell
VxRail VD-4510c
VxRail VD-4520c
Fujitsu
PRIMERGY RX2540 M7
PRIMERGY RX2530 M7
Lenovo
ThinkSystem SR635 V3
ThinkSystem SR645 V3
ThinkSystem SR655 V3
ThinkSystem ST650 V3
如需受支援伺服器的完整清單,請參閱《VMware 相容性指南》。
頻內錯誤更正代碼 (IB ECC) 支援:在 vSphere 8.0 Update 2 中,您可以在支援此選項的硬體平台上使用 IB ECC 來執行資料完整性檢查,而不需要實際 ECC 類型 DDR 記憶體。
對 Intel ATS-M 的圖形和 AI/ML 工作負載支援:vSphere 8.0 Update 2 新增了對 Intel ATS-M 的圖形和 AI/ML 工作負載支援。
增強型 ESXi CPU 排程器:vSphere 8.0 Update 2 在 ESXi CPU 排程器中新增了效能增強功能,適用於使用高核心計數 CPU 的新一代系統 (例如,每個通訊端最多 60 個核心的 Intel Sapphire Rapid)。
Broadcom lpfc 驅動程式更新:在 vSphere 8.0 Update 2 中,lpfc 驅動程式能夠產生並提供光纖通道連接埠識別碼 (FPIN) 報告的相關資訊。
Mellanox (nmlx5) 驅動程式更新:在 vSphere 8.0 Update 2 中,nmlx5 驅動程式支援 NVIDIA ConnectX-7 SmartNIC 並提高了效能,例如,每個 ESXi 主機最多支援 8 個 Mellanox 上行,速度高達 200G 的卸載支援,用於內部 IPv4/IPv6 總和檢查碼卸載 (CSO) 的硬體卸載,為 GENEVE 和 VXLAN 提供具有外部 IPv6 的 TCP 區段卸載 (TSO),以及啟用 NetQ 接收端調整 (RSS)。
Marvell (qedentv) 驅動程式更新:在 vSphere 8.0 Update 2 中,qedentv 驅動程式支援 NetQ 接收端調整 (RSS) 和硬體大型接收卸載 (HW LRO),以提高效能、擴充性和效率。
其他驅動程式更新:
Broadcom bcm_mpi3 - 錯誤修正
Broadcom bnxtnet - 從非同步驅動程式累積 bnxtnet 驅動程式更新,包括 vmk_UplinkQueueOps 的 queueGetStats 回撥,增強了偵錯能力
Broadcom lsi_mr3 - 例行更新
Intel icen - 在原生模式下為 icen NIC 裝置驅動程式啟用 RSS 功能
Microchip smartpqi - 修正了錯誤並新增了 OEM 品牌的 PCI 識別碼
Pensando ionic_cloud:雲端廠商支援
IPv6 驅動程式增強功能:在 vSphere 8.0 Update 2 中,ESXi 驅動程式新增了卸載功能,以在用作覆疊時提高 IPv6 的效能。
nvmxnet3 驅動程式中對統一傳遞 (UPT) 模式的支援:vSphere 8.0 Update 2 新增了對 UPT 的支援,以便在巢狀 ESXi 環境中更快地執行 vSphere vMotion 作業。
在同時具有 Broadcom 和 Mellanox NIC 的單一主機上支援 8 個 100G 連接埠:vSphere 8.0 Update 2 針對 Broadcom and Mellanox 在 ESXi 中增加了對 100GB NIC 連接埠的支援,從 4 個增加到 8 個。
用於 REST 驗證的 CIM 服務票證:除了以 JWT 為基礎的驗證之外,vSphere 8.0 Update 2 還新增了將 CIM 服務票證與適用於 SREST 外掛程式的 acquireCimServicesTicket()
API 搭配使用以對 ESXi 主機進行驗證的選項。
glibc 程式庫更新:glibc 程式庫已更新至 2.28 版,以符合 NIAP 需求。
適用於工作負載的客體平台:
虛擬硬體版本 21:vSphere 8.0 Update 2 引入了虛擬硬體版本 21,以增強最新的客體作業系統支援並增加 vGPU 和 vNVME 的上限,如下所示:
每個虛擬機器 16 個 vGPU 裝置 (請參閱〈在 vSphere 上設定虛擬圖形〉)
每個虛擬機器 256 個 vNVMe 磁碟 (64 x 4 個 vNVMe 介面卡)
Windows 11 和 Windows Server 2022 的 NVMe 1.3 支援
Windows Server 容錯移轉叢集 (WSFC) 的 NVMe 支援
對共用 vSphere Virtual Volumes 磁碟進行熱延伸:vSphere 8.0 Update 2 支援對共用 vSphere Virtual Volumes 磁碟進行熱延伸,可讓您在不停用叢集的情況下增加共用磁碟的大小,並且有效地避免停機,有助於實現 Windows Server 容錯移轉叢集 (WSFC) 等虛擬機器叢集解決方案。如需詳細資訊,請參閱〈WSFC 的 VMware vSphere Virtual Volumes 支援〉和〈可以對共用 vVol 磁碟進行熱延伸〉。
針對 WSFC 使用 vNVME 控制器:在 vSphere 8.0 Update 2 中,除了具有叢集化 VMDK 的 WSFC 的現有半虛擬化控制器以外,還可以對 Windows Server 2022 (作業系統組建編號 20348.1547) 及更新版本使用 NVMe 控制器。若要使用 NVMe 控制器虛擬機器硬體版本必須為 21 或更新版本。如需詳細資訊,請參閱〈Windows Server 容錯移轉叢集設定〉。
針對多重寫入器模式下的磁碟使用 vNVME 控制器:從 vSphere 8.0 Update 2 開始,您可以針對具有多重寫入器模式 (由協力廠商叢集應用程式使用,例如 Oracle RAC) 的虛擬磁碟使用虛擬 NVMe 控制器。
虛擬可擴充的主機控制器介面 (xHCI) 中的 USB 3.2 支援:在 vSphere 8.0 Update 2 中,虛擬 xHCI 控制器與 20 Gbps 相容。
已連結虛擬磁碟的唯讀模式:在 vSphere 8.0 Update 2 中,可以將虛擬磁碟以唯讀形式連結至虛擬機器,以避免暫時性重做記錄並提高 VMware App Volumes 等使用案例的效能。
連結第一級磁碟 (FCD) 時支援虛擬機器複製:在 vSphere 8.0 Update 2 中,可以使用 cloneVM()
API 複製已連結 FCD 的虛擬機器。
GPU
適用於任何傳遞 GPU 卡的 GPU 驅動程式虛擬機器:在 vSphere 8.0 Update 2 中,GPU 驅動程式虛擬機器有助於針對虛擬 SVGA 裝置 (vSGA) 支援新的 GPU 廠商。
儲存區
在單一 NFS v3 磁碟區上支援多個 TCP 連線:在 vSphere 8.0 Update 2 中,允許使用 ESXCLI、nConnect 針對單一 NFS v3 磁碟區支援多個 TCP 連線的功能已在內部部署環境中完全受支援。如需詳細資訊,請參閱 VMware 知識庫文章 91497 和 91479。
ESXCLI 支援 vSphere Virtual Volumes 的 SCSI UNMAP 作業:從 vSphere 8.0 Update 2 開始,您可以使用命令列 ESXCLI 執行 vSphere Virtual Volumes 的 SCSI UNMAP 作業。
每個版本的版本說明中均說明了 ESXi 的新功能、已解決問題和已知問題。舊版 ESXi 8.0 的版本說明如下:
如需國際化、相容性及開放原始碼元件,請參閱《VMware vSphere 8.0 版本說明》。
此版本的 ESXi 8.0 Update 2 提供下列修補程式:
組建編號詳細資料
下載檔案名稱: |
VMware-ESXi-8.0U2-22380479-depot.zip |
組建編號: |
22380479 |
下載大小: |
615.7 MB |
sha256checksum: |
76dbd1f0077b20b765c8084e74a5fd012c0c485297f60530e1f9703bdf051b5c |
需要主機重新開機: |
是 |
需要虛擬機器移轉或關閉: |
是 |
彙總公告
此彙總實體套件包含最新的 VIB,其中含有 ESXi 8.0 初始版本後的所有修正。
公告識別碼 |
類別 |
嚴重性 |
ESXi80U2-22380479 |
增強功能 |
重要 |
映像設定檔
VMware 修補程式和更新版本包含一般和嚴重的映像設定檔。一般版本映像設定檔的應用適用於新的錯誤修正。
映像設定檔名稱 |
ESXi-8.0U2-22380479-standard |
ESXi-8.0U2-22380479-no-tools |
ESXi 映像
名稱和版本 |
發行日期 |
類別 |
詳細資料 |
---|---|---|---|
ESXi_8.0.2-0.0.22380479 |
2023/09/21 |
一般 |
錯誤修正映像 |
如需有關使用 vSphere Lifecycle Manager 的更新和升級的詳細資料,請參閱關於 vSphere Lifecycle Manager 和 vSphere Lifecycle Manager 基準和映像。您也可以使用映像設定檔來更新 ESXi 主機,而不使用 vSphere Lifecycle Manager。這需要您從 VMware 下載頁面或產品修補程式頁面手動下載修補程式離線服務包 ZIP 檔案,然後使用 esxcli software profile update 命令。如需詳細資訊,請參閱〈如何下載 ESXi 修補程式和更新的 ZIP 檔案〉、〈使用 ESXCLI 命令升級主機〉以及《VMware ESXi 升級》指南。
依預設,限制 ptrace 系統呼叫的使用:從 vSphere 8.0 Update 2 開始,基於安全考量,VMware 依預設會限制ptrace
系統呼叫的使用。
棄用 Intel X722 NIC 硬體上的網際網路廣域 RDMA 通訊協定 (iWARP):在 vSphere 8.0 Update 2 中,不再支援 Intel X722 NIC 硬體上的 iWARP。
棄用舊版 SOAP API 合約:在 vSphere 8.0 Update 2 中,vSphere 5.5 及更早版本的以 WSDL 為基礎的 SOAP API 合約已棄用,並且將在未來的 vSphere 版本中移除。依據使用 vSphere 5.5 或更早版本合約的 VMware 或第三方工具的所有 vSphere Automation 都必須升級至更新的工具。
Windows 虛擬機器的預設 NVMe 版本 1.3:從 vSphere 8.0 Update 2 開始,具有硬體版本 21 及更新版本和虛擬 NVMe 控制器的 Windows Server 2022 或 Windows 11 及更新版本虛擬機器的 NVMe 版本預設為 1.3。若要執行適當的 NVMe 熱新增、移除和延伸作業,對於 Windows Server 2022,必須將 Windows 至少升級至 KB5029250 (作業系統組建編號 20348.1906),對於 Windows 11,必須至少升級至 KB5028254 (作業系統組建編號 22621.2070)。
TLS 1.3 支援:vSphere 8.0 Update 2 在 ESXi 中引入了對 TLS 1.3 的初始支援。vCenter 仍採用 TLS 1.2。
qedentv 驅動程式在增強型網路堆疊 (ENS) 模式下支援 NVMe/TCP:從 vSphere 8.0 Update 2 開始,Marvell 的 VMware qedentv NIC 驅動程式在 ENS 模式下支援 NVMe/TCP。
將設定了 NVIDIA BlueField-2 (BF2) DPU 的 vSphere Distributed Service Engine 主機更新至 ESXi 8.0 Update 2 時,同一維護時段內的 ESXi 和 BF2 DPU 韌體升級必須遵循特定順序:
使 vSphere Distributed Service Engine 主機進入維護模式。
確保 BF2 DPU 的 NIC 和 ARM 韌體未升級,它們仍執行適用於 8.0 Update 2 之前 ESXi 版本的韌體,例如 NIC 韌體版本 24.33.1246 和 ARM 韌體版本 18.2.0.12580。
將 ESXi 更新至 8.0 Update 2。
將 BF2 DPU ARM (UEFI & ATF) 韌體升級至 4.0.2.12722,這是 ESXi 8.0 Update 2 所需的韌體版本。
將 BF2 DPU NIC 韌體升級至 24.36.7506,這是 ESXi 8.0 Update 2 驅動程式所需的韌體版本。
使 vSphere Distributed Service Engine 主機結束維護模式。
如果不按照此順序執行步驟,則 ESXi 復原會失敗,並且在升級失敗時無法復原以 BF2 DPU 為基礎的 vSphere Distributed Service Engine 主機組態。
ESXi 8.0 Update 2 中的 VMware Tools 綁定變更
與 ESXi 8.0 Update 2 綁定的 VMware Tools ISO 映像如下:
windows.iso:VMware Tools 12.3.0 支援 Windows 7 SP1 或 Windows Server 2008 R2 SP1 及更新版本。
linux.iso:適用於 glibc 2.11 或更新版本之 Linux 作業系統的 VMware Tools 10.3.25 ISO 映像。
下列 VMware Tools ISO 映像可供下載:
VMware Tools 11.0.6:
windows.iso:適用於 Windows Vista (SP2) 和 Windows Server 2008 Service Pack 2 (SP2)。
VMware Tools 10.0.12:
winPreVista.iso:適用於 Windows 2000、Windows XP 和 Windows 2003。
linuxPreGLibc25.iso:支援低於 Red Hat Enterprise Linux (RHEL) 5、SUSE Linux Enterprise Server (SLES) 11、Ubuntu 7.04 的 Linux 客體作業系統以及 glibc 版本低於 2.5 的其他發行版本。
solaris.iso:適用於 Solaris 的 VMware Tools 10.3.10 映像。
darwin.iso:支援 Mac OS X 10.11 版及更新版本。
遵循下列文件所列出的程序下載適用於未與 ESXi 綁定之平台的 VMware Tools:
ESXi 8.0 Update 2 包含下列 Intel 微碼:
程式碼名稱 |
FMS |
Plt 識別碼 |
MCU 修訂版本 |
MCU 日期 |
品牌名稱 |
---|---|---|---|---|---|
Nehalem EP |
0x106a5 (06/1a/5) |
0x03 |
0x1d |
2018/5/11 |
Intel Xeon 35xx 系列;Intel Xeon 55xx 系列 |
Clarkdale |
0x20652 (06/25/2) |
0x12 |
0x11 |
2018/5/8 |
Intel i3/i5 Clarkdale 系列;Intel Xeon 34xx Clarkdale 系列 |
Arrandale |
0x20655 (06/25/5) |
0x92 |
0x7 |
2018/4/23 |
Intel Core i7-620LE 處理器 |
Sandy Bridge DT |
0x206a7 (06/2a/7) |
0x12 |
0x2f |
2019/2/17 |
Intel Xeon E3-1100 系列;Intel Xeon E3-1200 系列;Intel i7-2655-LE 系列;Intel i3-2100 系列 |
Westmere EP |
0x206c2 (06/2c/2) |
0x03 |
0x1f |
2018/5/8 |
Intel Xeon 56xx 系列;Intel Xeon 36xx 系列 |
Sandy Bridge EP |
0x206d6 (06/2d/6) |
0x6d |
0x621 |
2020/3/4 |
Intel Pentium 1400 系列;Intel Xeon E5-1400 系列;Intel Xeon E5-1600 系列;Intel Xeon E5-2400 系列;Intel Xeon E5-2600 系列;Intel Xeon E5-4600 系列 |
Sandy Bridge EP |
0x206d7 (06/2d/7) |
0x6d |
0x71a |
2020/3/24 |
Intel Pentium 1400 系列;Intel Xeon E5-1400 系列;Intel Xeon E5-1600 系列;Intel Xeon E5-2400 系列;Intel Xeon E5-2600 系列;Intel Xeon E5-4600 系列 |
Nehalem EX |
0x206e6 (06/2e/6) |
0x04 |
0xd |
2018/5/15 |
Intel Xeon 65xx 系列;Intel Xeon 75xx 系列 |
Westmere EX |
0x206f2 (06/2f/2) |
0x05 |
0x3b |
2018/5/16 |
Intel Xeon E7-8800 系列;Intel Xeon E7-4800 系列;Intel Xeon E7-2800 系列 |
Ivy Bridge DT |
0x306a9 (06/3a/9) |
0x12 |
0x21 |
2019/2/13 |
Intel i3-3200 系列;Intel i7-3500-LE/UE;Intel i7-3600-QE;Intel Xeon E3-1200-v2 系列;Intel Xeon E3-1100-C-v2 系列;Intel Pentium B925C |
Haswell DT |
0x306c3 (06/3c/3) |
0x32 |
0x28 |
2019/11/12 |
Intel Xeon E3-1200-v3 系列;Intel i7-4700-EQ 系列;Intel i5-4500-TE 系列;Intel i3-4300 系列 |
Ivy Bridge EP |
0x306e4 (06/3e/4) |
0xed |
0x42e |
2019/3/14 |
Intel Xeon E5-4600-v2 系列;Intel Xeon E5-2600-v2 系列;Intel Xeon E5-2400-v2 系列;Intel Xeon E5-1600-v2 系列;Intel Xeon E5-1400-v2 系列 |
Ivy Bridge EX |
0x306e7 (06/3e/7) |
0xed |
0x715 |
2019/3/14 |
Intel Xeon E7-8800/4800/2800-v2 系列 |
Haswell EP |
0x306f2 (06/3f/2) |
0x6f |
0x49 |
2021 年 8 月 11 日 |
Intel Xeon E5-4600-v3 系列;Intel Xeon E5-2600-v3 系列;Intel Xeon E5-2400-v3 系列;Intel Xeon E5-1600-v3 系列;Intel Xeon E5-1400-v3 系列 |
Haswell EX |
0x306f4 (06/3f/4) |
0x80 |
0x1a |
2021 年 5 月 24 日 |
Intel Xeon E7-8800/4800-v3 系列 |
Broadwell H |
0x40671 (06/47/1) |
0x22 |
0x22 |
2019/11/12 |
Intel Core i7-5700EQ;Intel Xeon E3-1200-v4 系列 |
Avoton |
0x406d8 (06/4d/8) |
0x01 |
0x12d |
2019/9/16 |
Intel Atom C2300 系列;Intel Atom C2500 系列;Intel Atom C2700 系列 |
Broadwell EP/EX |
0x406f1 (06/4f/1) |
0xef |
0xb000040 |
2021 年 5 月 19 日 |
Intel Xeon E7-8800/4800-v4 系列;Intel Xeon E5-4600-v4 系列;Intel Xeon E5-2600-v4 系列;Intel Xeon E5-1600-v4 系列 |
Skylake SP |
0x50654 (06/55/4) |
0xb7 |
0x2007006 |
2023/3/6 |
Intel Xeon Platinum 8100 系列;Intel Xeon Gold 6100/5100、Silver 4100、Bronze 3100 系列;Intel Xeon D-2100 系列;Intel Xeon D-1600 系列;Intel Xeon W-3100 系列;Intel Xeon W-2100 系列 |
Cascade Lake B-0 |
0x50656 (06/55/6) |
0xbf |
0x4003604 |
2023/3/17 |
Intel Xeon Platinum 9200/8200 系列;Intel Xeon Gold 6200/5200;Intel Xeon Silver 4200/Bronze 3200;Intel Xeon W-3200 |
Cascade Lake |
0x50657 (06/55/7) |
0xbf |
0x5003604 |
2023/3/17 |
Intel Xeon Platinum 9200/8200 系列;Intel Xeon Gold 6200/5200;Intel Xeon Silver 4200/Bronze 3200;Intel Xeon W-3200 |
Cooper Lake |
0x5065b (06/55/b) |
0xbf |
0x7002703 |
2023/3/21 |
Intel Xeon Platinum 8300 系列;Intel Xeon Gold 6300/5300 |
Broadwell DE |
0x50662 (06/56/2) |
0x10 |
0x1c |
2019/6/17 |
Intel Xeon D-1500 系列 |
Broadwell DE |
0x50663 (06/56/3) |
0x10 |
0x700001c |
2021 年 6 月 12 日 |
Intel Xeon D-1500 系列 |
Broadwell DE |
0x50664 (06/56/4) |
0x10 |
0xf00001a |
2021 年 6 月 12 日 |
Intel Xeon D-1500 系列 |
Broadwell NS |
0x50665 (06/56/5) |
0x10 |
0xe000014 |
2021 年 9 月 18 日 |
Intel Xeon D-1600 系列 |
Skylake H/S |
0x506e3 (06/5e/3) |
0x36 |
0xf0 |
2021 年 11 月 12 日 |
Intel Xeon E3-1500-v5 系列;Intel Xeon E3-1200-v5 系列 |
Denverton |
0x506f1 (06/5f/1) |
0x01 |
0x38 |
2021 年 12 月 2 日 |
Intel Atom C3000 系列 |
Ice Lake SP |
0x606a6 (06/6a/6) |
0x87 |
0xd0003a5 |
2023/3/30 |
Intel Xeon Platinum 8300 系列;Intel Xeon Gold 6300/5300 系列;Intel Xeon Silver 4300 系列 |
Ice Lake D |
0x606c1 (06/6c/1) |
0x10 |
0x1000230 |
2023/1/27 |
Intel Xeon D-2700 系列;Intel Xeon D-1700 系列 |
Snow Ridge |
0x80665 (06/86/5) |
0x01 |
0x4c000023 |
2023/2/22 |
Intel Atom P5000 系列 |
Snow Ridge |
0x80667 (06/86/7) |
0x01 |
0x4c000023 |
2023/2/22 |
Intel Atom P5000 系列 |
Tiger Lake U |
0x806c1 (06/8c/1) |
0x80 |
0xac |
2023/2/27 |
Intel Core i3/i5/i7-1100 系列 |
Tiger Lake U Refresh |
0x806c2 (06/8c/2) |
0xc2 |
0x2c |
2023/2/27 |
Intel Core i3/i5/i7-1100 系列 |
Tiger Lake H |
0x806d1 (06/8d/1) |
0xc2 |
0x46 |
2023/2/27 |
Intel Xeon W-11000E 系列 |
Sapphire Rapids SP HBM |
0x806f8 (06/8f/8) |
0x10 |
0x2c0001d1 |
2023/2/14 |
Intel Xeon Max 9400 系列 |
Sapphire Rapids SP |
0x806f8 (06/8f/8) |
0x87 |
0x2b000461 |
2023/3/13 |
Intel Xeon Platinum 8400 系列;Intel Xeon Gold 6400/5400 系列;Intel Xeon Silver 4400 系列;Intel Xeon Bronze 3400 系列 |
Kaby Lake H/S/X |
0x906e9 (06/9e/9) |
0x2a |
0xf4 |
2023/2/23 |
Intel Xeon E3-1200-v6 系列;Intel Xeon E3-1500-v6 系列 |
Coffee Lake |
0x906ea (06/9e/a) |
0x22 |
0xf4 |
2023/2/23 |
Intel Xeon E-2100 系列;Intel Xeon E-2200 系列 (4 或 6 核心) |
Coffee Lake |
0x906eb (06/9e/b) |
0x02 |
0xf4 |
2023/2/23 |
Intel Xeon E-2100 系列 |
Coffee Lake |
0x906ec (06/9e/c) |
0x22 |
0xf4 |
2023/2/23 |
Intel Xeon E-2100 系列 |
Coffee Lake Refresh |
0x906ed (06/9e/d) |
0x22 |
0xfa |
2023/2/27 |
Intel Xeon E-2200 系列 (8 核心) |
Rocket Lake S |
0xa0671 (06/a7/1) |
0x02 |
0x59 |
2023/2/26 |
Intel Xeon E-2300 系列 |
ESXi 8.0 Update 2 包含以下 AMD CPU 微碼:
程式碼名稱 |
FMS |
MCU 修訂版本 |
MCU 日期 |
品牌名稱 |
---|---|---|---|---|
Bulldozer |
0x600f12 (15/01/2) |
0x0600063e |
2/7/2018 |
Opteron 6200/4200/3200 系列 |
Piledriver |
0x600f20 (15/02/0) |
0x06000852 |
2/6/2018 |
Opteron 6300/4300/3300 系列 |
Zen-Naples |
0x800f12 (17/01/2) |
0x0800126e |
11/11/2021 |
EPYC 7001 系列 |
Zen2-Rome |
0x830f10 (17/31/0) |
0x0830107a |
5/17/2023 |
EPYC 7002/7Fx2/7Hx2 系列 |
Zen3-Milan-B1 |
0xa00f11 (19/01/1) |
0x0a0011d1 |
7/10/2023 |
EPYC 7003/7003X 系列 |
Zen3-Milan-B2 |
0xa00f12 (19/01/2) |
0x0a001234 |
7/10/2023 |
EPYC 7003/7003X 系列 |
在具有 DPU 的 vSphere 環境中安裝或升級 VMware NSX 可能會失敗並顯示連線錯誤
ESXi 主機端的間歇性計時問題可能會導致在具有 DPU 的 vSphere 環境中安裝或升級 NSX 失敗。在 nsxapi.log
檔案中,您會看到類似下列內容的記錄:Failed to get SFHC response. MessageType MT_SOFTWARE_STATUS
。
已在此版本中解決此問題。
您無法使用 ESXCLI 命令掛接具有 VMkernel 連接埠繫結的 IPv6 型 NFS 3 資料存放區
當您嘗試使用 ESXCLI 命令掛接具有 IPv6 伺服器位址和 VMkernel 連接埠繫結的 NFS 3 資料存放區時,工作會失敗並顯示錯誤,例如:
[:~] esxcli storage nfs add -I fc00:xxx:xxx:xx::xxx:vmk1 -s share1 -v volume1
Validation of vmknic failed Instance(defaultTcpipStack, xxx:xxx:xx::xxx:vmk1) Input(): Not found:
此問題特定於具有 IPv6 伺服器位址和 VMkernel 連接埠繫結的 NFS 3 資料存放區。
已在此版本中解決此問題。
如果在 ESXi 主機關閉或重新啟動期間 PCI 傳遞在 DPU 上處於作用中狀態,則主機會失敗並顯示紫色診斷畫面
如果在 ESXi 主機關閉或重新開機時作用中虛擬機器具有到 DPU 的 PCI 傳遞,則主機會失敗並顯示紫色診斷畫面。此問題特定於具有 DPU 的系統,且僅適用於使用到 DPU 的 PCI 傳遞的虛擬機器。
已在此版本中解決此問題。
如果您將 HW 版本早於 20 的虛擬機器設定為具有廠商裝置群組,則此類虛擬機器可能無法按預期運作
僅具有 HW 版本 20 及更新版本的虛擬機器支援啟用高速網路裝置和 GPU 繫結的廠商裝置群組,但您無法使用廠商裝置群組在低於 20 的 HW 版本中設定虛擬機器。此類虛擬機器可能無法按預期運作:例如,無法開啟電源。
已在此版本中解決此問題。
由於 NFS 伺服器掛接逾時,ESXi 重新開機需要很長時間
如果在無法存取的 NFS 伺服器上有多個掛接,ESXi 會重試連線至每個掛接 30 秒,這可能導致 ESXi 重新開機延遲長達幾分鐘,具體取決於掛接數目。
已在此版本中解決此問題。
在具有 NVMe/TCP 組態的 ESXi 主機上自動探索 NVMe 探索服務可能會失敗
vSphere 8.0 在 ESXi 中新增了進階 NVMe-oF 探索服務支援,可動態探索符合標準的 NVMe 探索服務。ESXi 使用 mDNS/DNS-SD 服務來取得網路上作用中 NVMe-oF 探索服務的 IP 位址和連接埠號碼等資訊。但是,在已啟用 NVMe/TCP 的 ESXi 伺服器中,在設定為使用 vSphere Distributed Switch 的網路上執行自動探索可能會失敗。此問題不會影響使用標準交換器的 NVMe/TCP 組態。
已在此版本中解決此問題。
如果在使用 icen 驅動程式啟用或停用 SR-IOV 後未將 ESXi 主機重新開機,則當您在該主機上以 ENS 中斷模式設定傳輸節點時,某些虛擬機器可能無法取得 DHCP 位址
當您在 ESXi 主機上使用 icen
驅動程式啟用或停用 SR-IOV,並在 ENS 中斷模式下設定傳輸節點時,如果沒有將主機重新開機,某些 Rx (接收) 佇列可能無法運作。這樣一來,某些虛擬機器可能無法取得 DHCP 位址。
已在此版本中解決此問題。
如果使用從已啟用可設定狀態安裝的主機設定檔部署的 ESXi 主機作為映像,以在叢集中部署其他 ESXi 主機,則作業會失敗
如果您擷取從已啟用可設定狀態安裝的主機設定檔部署的 ESXi 主機映像,以在 vSphere Lifecycle Manager 叢集中部署其他 ESXi 主機,則作業會失敗。在 vSphere Client 中,會顯示類似下列內容的錯誤:A general system error occurred: Failed to extract image from the host: no stored copy available for inactive VIB VMW_bootbank_xxx. Extraction of image from host xxx.eng.vmware.com failed
。
已在此版本中解決此問題。
如果 IPv6 已停用,您可能會在 ESXi 主機開機期間看到「Jumpstart 外掛程式還原網路啟用失敗」錯誤
在 ESXi 主控台中,在主機開機順序執行期間,您可能會看到錯誤橫幅 Jumpstart plugin restore-networking activation failed
。僅當 IPv6 停用時,橫幅才會顯示,且不會指出實際錯誤。
因應措施:在 ESXi 主機上啟用 IPv6 或忽略此訊息。
在高效能外掛程式 (HPP) 環境中,網路中斷可能會觸發主機故障
在旨在提高 ESXi 主機上 NVMe 裝置效能的 HPP 環境中,如果網路中斷,您可能會看到兩個問題:
若 HPP 宣告了多重路徑本機 SCSI 裝置 (雙主動呈現),虛擬機器 I/O 可能會提前失敗,而不是在其他路徑上重試。
若 HPP 宣告了本機 SCSI 裝置,在所有路徑失效 (APD) 案例中,如果從 vCenter 觸發完整儲存區重新掃描,則 ESXi 主機可能會失敗並顯示紫色診斷畫面。
這兩個問題僅發生在 SCSI 本機裝置上,以及 i/O 因缺少網路或 APD 而失敗時。
因應措施:新增使用者宣告規則以透過 ESXi 原生多重路徑外掛程式 (NMP) 而非 HPP 宣告裝置。如需詳細資訊,請參閱 VMware 知識庫文章 94377。
具有增強型網路堆疊的 ESXi 主機上的 TCP 連線間歇性中斷
如果傳送方虛擬機器位於具有增強型網路堆疊的 ESXi 主機上,當封包中的 TCP 總和檢查碼值計算為 0xFFFF
時,TCP 總和檢查碼互通性問題可能會導致終端系統捨棄或延遲 TCP 封包。
因應措施:在具有增強型網路堆疊的 ESXi 主機上的傳送方虛擬機器中停用 TCP 總和檢查碼卸載。在 Linux 中,可以使用 sudo ethtool -K <interface> tx off
命令。
即使停用 ESXi 主機上的鎖定模式,在主機重新開機後,鎖定仍報告為作用中
即使停用 ESXi 主機的鎖定模式,在主機重新開機後,仍可能將其視為作用中。
因應措施:將 dcui
和 vpxuser
的使用者新增至鎖定模式例外使用者清單,並在重新開機後停用鎖定模式。如需詳細資訊,請參閱〈指定鎖定模式例外使用者〉和〈在 VMware Host Client 中指定鎖定模式例外使用者〉。
具有作用中 TCP 分割卸載的 IPv6 環境中的傳送速率緩慢
在具有作用中 IPv6 TCP 分割卸載 (TSO) 的環境中,具有 e1000e 虛擬 NIC 的 Windows 虛擬機器的傳送速率可能會很慢。此問題不會影響 IPv4 環境。
因應措施:停用 TSO 或使用 vmxnet3 介面卡而非 e1000e。
當您將虛擬機器從具有 SmartNIC (ECPF) 模式下運作的 DPU 裝置的 ESXi 主機移轉至具有傳統 NIC 模式下運作的 DPU 裝置的 ESXi 主機時,可能會丟棄覆疊流量
當您使用 vSphere vMotion 將連結至支援覆疊區段的虛擬機器,從具有卸載模式下運作的 vSphere Distributed Switch 的 ESXi 主機 (其中流量轉送邏輯卸載至 DPU) 移轉至具有非卸載模式下運作的 VDS 的 ESXi 主機 (其中 DPU 用作傳統 NIC)。可能會在移轉後丟棄覆疊流量。
因應措施:在目的地 ESXi 主機上停用並啟用虛擬 NIC。
如果將 vCenter 更新至 8.0 Update 1,但 ESXi 主機仍使用舊版,則此類主機上的 vSphere Virtual Volumes 資料存放區可能會變得無法存取
vSphere 8.0 不再支援自我簽署的 VASA 提供者憑證,依預設,組態選項 Config.HostAgent.ssl.keyStore.allowSelfSigned 設定為 false。如果將 vCenter 執行個體更新至採用 vSphere APIs for Storage Awareness (VASA) 版本 5.0 的 8.0 Update 1,且 ESXi 主機仍使用較舊的 vSphere 和 VASA 版本,則使用自我簽署憑證的主機可能無法存取 vSphere Virtual Volumes 資料存放區或無法重新整理 CA 憑證。
因應措施:將主機更新至 ESXi 8.0 Update 1。如果不更新至 ESXi 8.0 Update 1,請參閱 VMware 知識庫文章 91387。
如果使用軟體 FCoE 組態將主機設定檔套用至 ESXi 8.0 主機,則作業會失敗並顯示驗證錯誤
從 vSphere 7.0 開始,軟體 FCoE 已棄用,並且在 vSphere 8.0 中不支援軟體 FCoE 設定檔。如果嘗試將舊版中的主機設定檔套用到 ESXi 8.0 主機,例如編輯主機自訂,則作業會失敗。在 vSphere Client 中,會顯示類似下列內容的錯誤:Host Customizations validation error
。
因應措施:在主機設定檔中停用軟體 FCoE 組態子設定檔。
無法將版本 8.0 的 ESXi 主機用作舊版 ESXi 的現有主機設定檔的參考主機
當詳細目錄中只有 8.0 參考主機時,驗證 ESXi 版本 7.x、6.7.x 和 6.5.x 的現有主機設定檔會失敗。
因應措施:請確保詳細目錄中有相應版本的參考主機。例如,使用 ESXi 7.0 Update 2 參考主機來更新或編輯 ESXi 7.0 Update 2 主機設定檔。
升級至 ESXi 8.0 後,VMNIC 可能會關閉
如果 VMNIC 的對等實體交換器不支援媒體自動偵測,或媒體自動偵測已停用,且 VMNIC 連結先中斷然後再連上,則在升級至或安裝 ESXi 8.0 後,連結會保持中斷狀態。
因應措施:使用以下 2 個選項之一:
透過導覽至系統設定主功能表,在 BIOS 設定中啟用 media-auto-detect
選項,通常方法為:按 F2 或開啟虛擬主控台,然後按一下裝置設定 > <specific broadcom NIC> > 裝置組態功能表 > 媒體自動偵測。將主機重新開機。
或者,使用類似下列內容的 ESXCLI 命令:esxcli network nic set -S <your speed> -D full -n <your nic>
。透過此選項,也可以為連結設定固定速度,並且不需要重新開機。
升級至 ESXi 8.0 後,由於參數過時,某些 nmlx5_core 驅動程式模組設定可能會遺失
nmlx5_core
驅動程式的某些模組參數 (例如 device_rss
、drss
和 rss
) 在 ESXi 8.0 中已棄用,並且在升級至 ESXi 8.0 後不會保留與預設值不同的任何自訂值。
因應措施:取代 device_rss
、drss
和 rss
參數的值,如下所示:
device_rss
: 使用 DRSS
參數。
drss
: 使用 DRSS
參數。
rss
: 使用 RSS
參數。
vCenter Server 還原程序的第二個階段凍結在 90%
使用 vCenter Server GUI 安裝程式或 vCenter Server Appliance 管理介面 (VAMI) 從以檔案為基礎的備份還原 vCenter 時,還原工作流程可能會凍結在 90%,並顯示錯誤:401 Unable to authenticate user
,即使在後端成功完成工作亦是如此。如果已部署機器的時間不同於 NTP 伺服器 (需要時間同步),則會發生此問題。由於時間同步,時鐘誤差可能會導致 GUI 或 VAMI 的執行中工作階段失敗。
因應措施:如果使用 GUI 安裝程式,則可以使用 restore.job.get
命令從 appliancesh
shell 取得還原狀態。如果使用 VAMI,請重新整理瀏覽器。
在增強型網路堆疊 (ENS) 和 VLAN 環境以及 Broadcom RDMA 網路介面控制器 (RNIC) 中,透過聚合式乙太網路的 RDMA (RoCE) 流量可能會失敗
高頻寬 VMware 解決方案 ENS 不支援 MAC VLAN 篩選器。但是,在 ENS + VLAN 環境中的 Broadcom RNIC 上執行的 RDMA 應用程式需要 MAC VLAN 篩選器。因此,您可能會看到某些 RoCE 流量中斷連線。在 NVMe over RDMA + ENS + VLAN 環境或 ENS + VLAN + RDMA 應用程式環境中,當 ESXi 主機重新開機或上行啟動和關閉時,可能會發生此問題。
因應措施:無
在具有 DPU 的 vSphere 系統中重設或還原 ESXi 系統組態可能會導致 DPU 處於無效狀態
如果在具有 DPU 的 vSphere 系統中重設或還原 ESXi 系統組態,例如,在 Direct Console 中選取重設系統組態,此作業可能會導致 DPU 處於無效狀態。在 DCUI 中,可能會出現類似下列內容的錯誤:Failed to reset system configuration. Note that this operation cannot be performed when a managed DPU is present
。對於具有 DPU 的 ESXi 安裝,不支援對 -f
強制重新開機選項進行後端呼叫。雖然 ESXi 8.0 支援 -f
強制重新開機選項,但如果您在具有 DPU 的 ESXi 組態上使用 reboot -f
,則強制重新開機可能會導致出現無效狀態。
因應措施:將暫時停用 Direct Console 介面中的 [重設系統組態]。避免在具有 DPU 的 vSphere 系統中重設 ESXi 系統組態。
在具有 DPU 的 vCenter Server 系統中,如果停用 IPv6,則無法管理 DPU
儘管 vSphere Client 允許執行此作業,但如果在具有 DPU 的 ESXi 主機上停用 IPv6,則無法使用 DPU,因為主機和裝置之間的內部通訊取決於 IPv6。此問題僅影響具有 DPU 的 ESXi 主機。
因應措施:請確保在具有 DPU 的 ESXi 主機上啟用 IPv6。
在已預先安裝 Pensando DPU 的 HPE 伺服器上將 ESXi 主機重新開機時,可能會延遲 10 分鐘
在少數情況下,如果 DPU 出現故障,已預先安裝 Pensando DPU 的 HPE 伺服器可能需要 10 分鐘以上的時間才能重新開機。因此,ESXi 主機可能會失敗並顯示紫色診斷畫面,且預設等待時間為 10 分鐘。
因應措施:無。
如果您在用於安裝 ESXi 8.0 的遠端管理應用程式中啟用了 USB 介面,則會看到其他具有上行 vusb0 的標準交換器 vSwitchBMC
從 vSphere 8.0 開始,在 Integrated Dell Remote Access Controller (iDRAC) 和 HP Integrated Look Out (ILO) 中,如果啟用了 USB 介面 (分別為 vUSB 或 vNIC),會在 ESXi 主機上建立其他具有上行 vusb0
的標準交換器 vSwitchBMC
。鑒於某些伺服器上引入了資料處理裝置 (DPU),這是預期行為,但可能會導致 VMware Cloud Foundation 啟動程序失敗。
因應措施:安裝 vSphere 8.0 之前,請按照下列廠商說明文件停用所使用的遠端管理應用程式中的 USB 介面。
安裝 vSphere 8.0 之後,請使用 ESXCLI 命令 esxcfg-advcfg -s 0 /Net/BMCNetworkEnable
,以阻止在主機下次重新開機時建立虛擬交換器 vSwitchBMC
及相關聯的連接埠群組。
以此指令碼作為範例:
~# esxcfg-advcfg -s 0 /Net/BMCNetworkEnable
BMCNetworkEnable 的值為 0,且服務已停用。
~# reboot
在主機重新開機時,不會在與遠端管理應用程式網路相關的主機中建立虛擬交換器、連接埠群組和 VMKNIC。
如果 NVIDIA BlueField DPU 處於已停用硬體卸載模式狀態,則無法開啟已設定 SR-IOV 虛擬功能之虛擬機器的電源
NVIDIA BlueField DPU 必須處於已啟用硬體卸載模式狀態,才能允許已設定 SR-IOV 虛擬功能的虛擬機器開啟電源並運作。
因應措施:將已設定 SR-IOV 虛擬功能的虛擬機器連線至虛擬交換器時,請始終對 NVIDIA BlueField DPU 使用已啟用硬體卸載模式這一預設設定。
在虛擬應用裝置管理介面 (VAMI) 中,您會在升級前階段看到警告訊息
透過將 vSphere 外掛程式移至遠端外掛程式架構,vSphere 8.0 棄用了對本機外掛程式的支援。如果您的 8.0 vSphere 環境具有本機外掛程式,則此類外掛程式的某些中斷變更可能會導致使用 VAMI 進行升級前檢查失敗。
在 [更新前檢查結果] 畫面中,會顯示類似下列內容的錯誤:
Warning message: The compatibility of plug-in package(s) %s with the new vCenter Server version cannot be validated. They may not function properly after vCenter Server upgrade.
Resolution: Please contact the plug-in vendor and make sure the package is compatible with the new vCenter Server version.
因應措施:請參閱《VMware 相容性指南》和《VMware 產品互通性對照表》或連絡外掛程式廠商以取得建議,以確保環境中的本機外掛程式與 vCenter Server 8.0 相容,然後再繼續升級。如需詳細資訊,請參閱部落格〈棄用本機外掛程式 - vSphere Client 擴充性演進的下一階段〉和 VMware 知識庫文章 87880。
無法從已啟用 CPU 熱新增的虛擬機器移除指派給虛擬非統一記憶體存取 (NUMA) 節點的 PCI 傳遞裝置
雖然依預設,當您啟用 CPU 熱新增以允許將 vCPU 新增至執行中的虛擬機器時,虛擬 NUMA 拓撲會停用,如果您已將 PCI 傳遞裝置指派給 NUMA 節點,則嘗試移除該裝置會顯示錯誤。在 vSphere Client 中,會顯示類似下列內容的訊息:Invalid virtual machine configuration. Virtual NUMA cannot be configured when CPU hotadd is enabled
。
因應措施:請參閱 VMware 知識庫文章 89638。
無法在 Pensando DPU 上將 VMware vSphere Distributed Switch 上的傳輸單元最大值 (MTU) 設定為大於 9174 的值
如果 ESXi 8.0 系統中具有已啟用 Pensando DPU 的 vSphere Distributed Services Engine 功能,則無法將 vSphere Distributed Switch 上的傳輸單元最大值 (MTU) 設定為大於 9174 的值。
因應措施:無。
在使用 ntg3 驅動程式 4.1.3 版及更新版本的 NIC 上出現連結變動狀況
當使用 ntg3
驅動程式 4.1.3 版及更新版本的兩個 NIC 直接連線 (而非連線到實體交換器連接埠) 時,可能會發生連結變動狀況。版本低於 4.1.3 的 ntg3
驅動程式或 tg3
驅動程式不會出現此問題。此問題與此類 NIC 上偶爾出現的節能乙太網路 (EEE) 連結變動無關。EEE 問題的修正是使用 ntg3
驅動程式 4.1.7 版或更新版本,或在實體交換器連接埠上停用 EEE。
因應措施:將 ntg3
驅動程式升級至 4.1.8 版,並將新模組參數 noPhyStateSet
設定為 1
。noPhyStateSet
參數預設為 0
,但在大多數環境中不需要此參數,除非也面臨此問題。
在 vSphere 8.0 中,無法將 Mellanox ConnectX-5、ConnectX-6 卡型號 1 層級 2 和型號 2 用於增強型網路堆疊 (ENS) 模式
由於硬體限制,ConnectX-5 和 ConnectX-6 介面卡不支援在 vSphere 8.0 中將型號 1 層級 2 和型號 2 用於增強型網路堆疊 (ENS) 模式。
因應措施:使用支援 ENS 型號 1 層級 2 和型號 2A 的 Mellanox ConnectX-6 Lx 和 ConnectX-6 Dx 或更新版本卡。
Pensando DPU 不支援在 ESXi 主機的實體交換器連接埠上使用連結層探索通訊協定 (LLDP)
在具有 DPU 的 ESXi 主機上啟用 LLDP 時,主機無法接收 LLDP 封包。
因應措施:無。
升級至 vCenter Server 8.0 後,VASA API 版本不會自動重新整理
vCenter Server 8.0 支援 VASA API 版本 4.0。但是,將 vCenter Server 系統升級至版本 8.0 後,VASA API 版本可能不會自動變更為 4.0。在以下 2 種情況下會出現此問題:
如果將支援 VASA API 版本 4.0 的 VASA 提供者向舊版 VMware vCenter 登錄,則升級至 VMware vCenter 8.0 後,VASA API 版本保持不變。例如,如果您使用同時支援 VASA API 版本 3.5 和 4.0 的已登錄 VASA 提供者升級 7.x 版本的 VMware vCenter 系統,即使 VASA 提供者支援 VASA API 版本 4.0,VASA API 版本也不會自動變更為 4.0。升級後,當您導覽至 vCenter Server > 設定 > 儲存區提供者並展開已登錄之 VASA 提供者的一般索引標籤時,您仍會看到 VASA API 版本 3.5。
如果向 VMware vCenter 8.0 系統登錄支援 VASA API 版本 3.5 的 VASA 提供者,並將 VASA API 版本升級至 4.0,則即使升級後,仍會看到 VASA API 版本 3.5。
因應措施:請將 VMware vCenter 8.0 系統上的 VASA 提供者解除登錄後再重新登錄。
由於網路檔案複製 (NFC) 管理程式的工作階段未經驗證,在 vSAN 環境中執行 vSphere Storage vMotion 作業可能會失敗
透過對至少具有一個快照和多個虛擬磁碟 (使用不同的儲存區原則) 的虛擬機器執行 vSphere Storage vMotion 來移轉到 vSAN 資料存放區可能會失敗。發生此問題的原因是,由於簡單物件存取通訊協定 (SOAP) 主體超過允許的大小,導致 NFC 管理程式的工作階段未經驗證。
因應措施:先移轉虛擬機器首頁命名空間,並且僅移轉其中一個虛擬磁碟。完成此作業後,對其餘 2 個磁碟執行僅磁碟移轉。
由於以內容為基礎的讀取快取 (CBRC) 中出現摘要作業失敗錯誤,無法建立虛擬機器的快照
在罕見競爭情形下,在 CBRC 摘要檔案更新期間指派內容識別碼可能會導致資料磁碟中的內容識別碼與摘要磁碟之間出現差異。因此,無法建立虛擬機器快照。在反向追蹤中,會顯示類似下列內容的錯誤:An error occurred while saving the snapshot: A digest operation has failed
。重試後,快照建立工作即完成。
因應措施:重試快照建立工作。
如果將 vSphere 虛擬基礎結構載入到 90% 以上,ESXi 主機可能會間歇性地與 vCenter Server 中斷連線
在少數情況下,如果 vSphere 虛擬基礎結構持續使用超過 90% 的硬體容量,則某些 ESXi 主機可能會間歇性地與 vCenter Server 中斷連線。連線通常會在幾秒內恢復。
因應措施:如果在幾秒內意外未恢復與 vCenter Server 的連線,請使用 vSphere Client 手動重新連線 ESXi 主機。
在混合 vCenter 環境中使用 API 建立的雲端原生儲存 (CNS) 區塊磁碟區發生錯誤
如果您的環境中具有 8.0 和 7.x 版的 vCenter Server 系統,則使用 API 建立雲端原生儲存 (CNS) 區塊磁碟區成功,但當您導覽以查看 CNS 磁碟區詳細資料時,vSphere Client 中可能會出現錯誤。會顯示類似下列內容的錯誤:Failed to extract the requested data. Check vSphere Client logs for details. + TypeError: Cannot read properties of null (reading 'cluster')
。僅當您使用 8.0 vCenter Server 的 vSphere Client 檢閱 7.x vCenter Server 所管理的磁碟區時,才會發生此問題。
因應措施:登入 vCenter Server 7.x 版系統上的 vSphere Client,以檢閱磁碟區內容。
由於 vpxa 上要求佇列的檔案描述元不足的罕見情形,ESXi 主機可能會沒有回應,並且您會看到 vpxa 傾印檔案
在少數情況下,如果向 vpxa 服務發出的要求需要很長時間 (例如,等待存取速度較慢的資料存放區),vpxa 上的要求佇列可能會超過檔案描述元的限制。因此,ESXi 主機可能會短暫沒有回應,並且您會在 /var/core
目錄中看到 vpxa-zdump.00*
檔案。vpxa 記錄中包含行 Too many open files
。
因應措施:無。vpxa 服務會自動重新啟動並更正此問題。
如果將自訂更新存放庫與未受信任的憑證搭配使用,則 vCenter Server 使用 vCenter Lifecycle Manager 工作流程升級或更新至 vSphere 8.0 可能會失敗
如果將自訂更新存放庫與 VMware Certificate Authority (VMCA) 不信任的自我簽署憑證搭配使用,則 vCenter Lifecycle Manager 無法從此類存放庫下載檔案。因此,使用 vCenter Lifecycle Manager 工作流程 vCenter Server 升級或更新作業會失敗,並顯示錯誤Failed to load the repository manifest data for the configured upgrade
。
因應措施:使用 CLI、GUI 安裝程式或虛擬應用裝置管理介面 (VAMI) 執行升級。如需詳細資訊,請參閱 VMware 知識庫文章 89493。
將現有虛擬硬碟新增至新虛擬機器時,您可能會看到虛擬機器組態遭到拒絕的錯誤
使用 VMware Host Client 將現有虛擬硬碟新增到新虛擬機器時,作業可能會失敗,並顯示類似下列內容的錯誤:The VM configuration was rejected. Please see browser Console
。發生此問題的原因是,VMware Host Client 可能無法取得某些內容,例如硬碟控制器。
因應措施:選取硬碟並移至即將完成頁面後,請勿按一下完成,而是返回一步,等待頁面載入,然後按下一步 > 完成。
嘗試在版本低於 8.0 的 ESXi 主機上暫存 vSphere Lifecycle Manager 映像時看到錯誤訊息
ESXi 8.0 引入了明確暫存所需狀態映像的選項,即,將存放庫元件從 vSphere Lifecycle Manager 存放庫下載到 ESXi 主機的程序,無需立即套用軟體和韌體更新。但是,僅 ESXi 8.0 或更新版本的主機支援映像暫存。嘗試在版本低於 8.0 的 ESXi 主機上暫存 vSphere Lifecycle Manager 映像,導致出現此類主機暫存失敗並將略過這些主機的訊息。這是預期行為,並不表示任何功能失敗,因為所有 ESXi 8.0 或更新版本的主機都使用指定的所需映像進行暫存。
因應措施:無。確認受影響的 ESXi 主機版本低於 8.0 之後,請忽略這些錯誤。
在具有 DPU 的 ESXi 主機上,使用 vSphere Lifecycle Manager 執行修復工作可能會間歇性失敗
在具有 DPU 的 ESXi 主機上啟動 vSphere Lifecycle Manager 修復時,主機按預期升級並重新開機,但在重新開機之後且完成修復工作之前,可能會出現類似下列內容的錯誤:
A general system error occurred: After host … remediation completed, compliance check reported host as 'non-compliant'. The image on the host does not match the image set for the cluster. Retry the cluster remediation operation.
出現此罕見問題的原因是,DPU 上的修復後掃描出現間歇性逾時。
因應措施:將 ESXi 主機重新開機,然後重新執行 vSphere Lifecycle Manager 符合性檢查作業,其中包括修復後掃描。
VMware Host Client 可能會顯示不正確的嚴重性事件狀態說明
在 VMware Host Client 中查看 ESXi 主機的嚴重性事件狀態說明時,這些說明可能與使用智慧平台管理介面 (IPMI) 或 Lenovo XClarity Controller (XCC) 查看的說明不同。例如,在 VMware Host Client 中,PSU 感應器的嚴重性事件狀態說明可能為 Transition to Non-critical from OK
,而在 XCC 和 IPMI 中,說明則為 Transition to OK
。
因應措施:使用 ESXCLI 命令 esxcli hardware ipmi sdr list
和 Lenovo XCC 驗證嚴重性事件狀態的說明。
如果您使用的 RSA 金鑰大小小於 2048 位元,則產生 RSA 簽章會失敗
從 vSphere 8.0 開始,ESXi 會使用 OpenSSL 3.0 FIPS 提供者。根據 FIPS 186-4 需求,RSA 金鑰大小必須至少為 2048 位元才能產生任何簽章,並且不支援使用 SHA1 產生簽章。
因應措施:使用大於 2048 的 RSA 金鑰大小。