VMware ESXi 6.0 Update 3 版本說明

|

更新時間:2017 年 3 月 14 日

ESXi 6.0 Update 3 | 2017 年 2 月 24 日 | ISO 組建編號 5050593

查看這些版本說明的新增項目和更新。

版本說明的內容

此版本說明涵蓋下列主題:

新增功能

  • 更新了 ESXi Host Client:VMware ESXi 6.0 Update 3 包含 ESXi Host Client 的更新版本 (1.14.0 版)。更新的 Host Client 包含錯誤修正,使其更接近 vSphere Client 提供的功能。如果您已透過 ESXi 6.0 修補程式發行版本更新 Host Client,請安裝隨 ESXi 6.0 Update 3 提供的 1.14.0 版。此外,新版本的 Host Client 會繼續透過 VMware Labs Fling 網站發行。但是,這些 Fling 版本並不會受到正式支援,不建議用於生產環境。

  • TLS 支援:依預設,對 TLSv1.0、TLSv1.1 和 TLSv1.2 的支援已啟用,且可針對 ESXi 6.0 Update 3 進行設定。從 VMware 知識庫文章 2148819 瞭解如何設定 TLSv1.0、TLSv1.1 和 TLSv1.2。如需支援 TLSv1.0 停用和 TLSv1.1/1.2 使用之 VMware 產品的清單,請參閱 VMware 知識庫文章 2145796

  • Virtual SAN 效能:此 VMware ESXi 6.0 Update 3 版本中引入了多個修正,可最佳化 I/O 路徑以在全 Flash 和混合組態中提升 Virtual SAN 效能:

    • 已改善記錄管理和儲存區,可讓儲存區的每個位元組儲存更多記錄。這應當會顯著提升寫入密集型工作負載的效能。由於 Virtual SAN 是以記錄為基礎的檔案系統,因此有效管理記錄項目是防止建置不必要記錄的關鍵。

    • 除了增加記錄項目的封包密度之外,對於涉及開啟資料服務時刪除大型檔案的情況,Virtual SAN 會搶先取消暫存資料至可有效管理記錄增長的容量層。

    • 總和檢查碼代碼路徑現在更有效。

舊版 ESXi 6.0

每個版本的版本說明中均說明了 ESXi 6.0 的功能和已知問題。舊版 ESXi 6.0 的版本說明如下:

國際化

VMware ESXi 6.0 提供下列語言版本:

  • 英文
  • 法文
  • 德文
  • 日文
  • 韓文
  • 簡體中文
  • 西班牙文
  • 繁體中文

VMware vSphere 6.0 元件 (包括 vCenter Server、ESXi、vSphere Web Client 和 vSphere Client) 不接受非 ASCII 輸入。

相容性

ESXi、vCenter Server 和 vSphere Web Client 版本相容性

VMware 產品互通性對照表提供有關 VMware vSphere 元件目前版本及舊版之間相容性的詳細資料,包括 ESXi、VMware vCenter Server、vSphere Web Client 及選用 VMware 產品。安裝 ESXi 或 vCenter Server 之前,亦請查看 VMware 產品互通性對照表中有關支援的管理與備份代理程式的資訊。

vSphere Web Client 隨 vCenter Server 一併封裝。您可以透過 VMware vCenter 自動執行功能表安裝屬於模組 ISO 檔案的 vSphere Client。

ESXi 的硬體相容性

若要檢視與 vSphere 6.0 相容的處理器、儲存裝置、SAN 陣列以及 I/O 裝置的清單,請參閱《VMware 相容性指南》中的 ESXi 6.0 資訊。

ESXi 的裝置相容性

若要判定與 ESXi 6.0 相容的裝置,請參閱《VMware 相容性指南》中的 ESXi 6.0 資訊。

某些裝置已過時,不再受 ESXi 6.0 支援。在執行升級程序期間,裝置驅動程式會安裝在 ESXi 6.0 主機上。裝置驅動程式可能仍會在 ESXi 6.0 上運作,但是該裝置不再受 ESXi 6.0 支援。如需已過時且不再受 ESXi 6.0 支援的裝置清單,請參閱知識庫 2087970

ESXi 的第三方交換器相容性

VMware 現在支援具備 vSphere 6.0 的 Cisco Nexus 1000V。vSphere 至少需要 5.2(1)SV3(1.4) 版的 NX-OS。如需有關 Cisco Nexus 1000V 的詳細資訊,請參閱 Cisco 版本說明。在舊版 vSphere 中,並不支援 Ciscso Nexus 1000V AVS 模式。

ESXi 的客體作業系統相容性

若要判定與 vSphere 6.0 相容的客體作業系統,請參閱《VMware 相容性指南》中的 ESXi 6.0 資訊。

ESXi 的虛擬機器相容性

ESXi 6.0 支援與 ESX 3.x 及更新版本 (硬體版本 4) 相容的虛擬機器。不支援與 ESX 2.x 及更新版本 (硬體版本 3) 相容的虛擬機器。若要在 ESXi 6.0 上使用此類虛擬機器,請升級虛擬機器相容性。請參閱《vSphere 升級》說明文件。

此版本的安裝和升級

此版本的安裝說明

請閱讀《vSphere 安裝和設定》說明文件,以取得安裝和設定 ESXi 與 vCenter Server 的指引。

雖然安裝非常簡易,但幾個後續組態步驟卻是不可或缺的。請閱讀下列說明文件:

建議的 vSphere 6.0 部署模型

VMware 僅建議兩種部署模型:

  • 含內嵌式 Platform Services Controller 的 vCenter Server。如果需要在資料中心內部署一或多個獨立 vCenter Server 執行個體,則建議使用此模型。不建議在這些含內嵌式 Platform Services Controller 的 vCenter Server 的模型之間執行複寫。

  • 含外部 Platform Services Controller 的 vCenter Server。僅當需要連結多個 vCenter Server 執行個體或想要減少資料中心內的 Platform Services Controller 使用量時,才建議使用此模型。支援在這些含外部 Platform Services Controller 的 vCenter Server 的模型之間執行複寫。

請閱讀《vSphere 安裝和設定》說明文件,以取得安裝和設定 vCenter Server 的指引。

請閱讀 vSphere 6.0 及其相容 VMware 產品的更新序列,以取得更新 vSphere 元件的適當序列。

另請閱讀 KB 2108548,以取得安裝和設定 vCenter Server 的指引。

vCenter 主機作業系統資訊

閱讀知識庫文章 KB 2091273

備份和還原使用外部 Platform Services Controller 進行的 vCenter Server 和 vCenter Server Appliance 部署

儘管《vSphere 安裝和設定》說明文件中的聲明限制您嘗試備份和還原使用外部 Platform Services Controller 的 vCenter Server 和 vCenter Server Appliance 部署,您仍可以透過依照知識庫 2110294 中的步驟來執行此工作。

從內嵌式 Platform Services Controller 移轉至外部 Platform Services Controller

含內嵌式 Platform Services Controller 的 vCenter Server 無法自動移轉至含外部 Platform Services Controller 的 vCenter Server。此移轉公用程式的測試尚未完成。

在安裝 vCenter Server 之前,判定所需部署選項。如果複寫設定需要多部 vCenter Server,請始終部署含外部 Platform Services Controller 的 vCenter。

移轉第三方解決方案

如需有關透過第三方自訂項目進行升級的資訊,請參閱《vSphere 升級》說明文件。如需有關使用 Image Builder 來自訂 ISO 的資訊,請參閱《vSphere 安裝和設定》說明文件。

不允許對不支援的 CPU 進行升級和安裝

vSphere 6.0 僅支援 2006 年 6 月 (第三季度) 後可供使用的處理器。與 vSphere 5.x 支援的處理器相比,vSphere 6.0 不再支援下列處理器:

  • AMD Opteron 12xx 系列
  • AMD Opteron 22xx 系列
  • AMD Operton 82xx 系列

在安裝或升級期間,安裝程式會檢查主機 CPU 與 vSphere 6.0 的相容性。如果您的主機硬體不相容,將有紫色畫面顯示關於不相容的資訊訊息,並停止 vSphere 6.0 安裝程序。

此版本的升級說明

如需有關升級 vCenter Server 與 ESX/ESXi 主機的指示,請參閱《vSphere 升級》說明文件。

VMware vSphere 6.0 的開放原始碼元件

下列網址提供了適用於 vSphere 6.0 中散佈的開放原始碼軟體元件的版權聲明與授權:http://www.vmware.com。您需要登入 My VMware 帳戶。然後,從下載功能表中選取 vSphere。在開放原始碼索引標籤上,您也可以針對任意 GPL、LGPL、需要原始碼或需要修改原始碼的其他相似授權下載來源檔案,使其適用於 vSphere 的最新可用版本。

產品支援通知

  • vCenter Server 資料庫。在 vSphere 6.0 版本中,做為 vCenter Server Appliance 之外部資料庫的 Oracle 11g 和 12c 已被取代。在 vSphere 6.0 中,VMware 將繼續支援 Oracle 11g 和 12c 做為外部資料庫。在未來的主要版本中,VMware 將不支援 Orace 11g 和 12c 做為 vCenter Server Appliance 的外部資料庫。

  • vSphere Web Client。vSphere 6.0 Web Client 中無法再使用物件之監控索引標籤中的儲存區報告選項。

  • vSphere Client。vSphere 6.0 Web Client 中無法再使用儲存區視圖索引標籤。

  • Site Recovery Manager:若虛擬機器位於 ESXi 6.0 上且使用 VMware Tools 10.1 版及更高版本,則 SRM 6.5 之前版本的 Site Recovery Manager (SRM)不支援該虛擬機的 IP 自訂和客體內圖說文字作業。如需更多詳細資料,請參閱 VMware Tools 問題

此版本中包含的修補程式

此版本包含 ESXi 在此產品發行日期之前發行所有公告。如需有關個別公告的詳細資訊,請參閱 VMware 下載修補程式頁面。

ESXi600-Update03 修補程式發行版本包含下列個別公告:

ESXi600-Update03 (安全性專用組建版本) 修補程式發行版本包含下列個別公告:

ESXi600-Update03 修補程式發行版本包含下列映像設定檔:

ESXi600-Update03 (安全性專用組建版本) 修補程式發行版本包含下列映像設定檔:

如需修補程式與更新分類的相關資訊,請參閱知識庫 2014447

已解決的問題

已解決的問題分類如下。

CIM 和 API 問題
  • 在您結束鎖定模式後,用於驗證使用者權限的 VMware 提供者方法不適用於使用者名稱和密碼
    從鎖定模式移除伺服器後,Vmware 提供者方法回傳不同值,該值與進入鎖定模式前的值不相容。此問題會導致用於驗證使用者權限的 VMware 提供者方法無法像在鎖定模式之前一樣,使用相同的使用者名稱和密碼。

    已在此版本中解決此問題。

其他問題
  • 在多個虛擬機器上升級 VMware Tools 可能會失敗
    嘗試透過 Update Manager 在多個虛擬機器上同時升級 VMware Tools 可能會失敗。並非所有虛擬機器都會完成升級程序。

    已在此版本中解決此問題。

  • VMware Tools ISO 映像的高讀取負載可能會導致 Flash 媒體損毀
    在 VDI 環境中,VMware Tools 映像的高讀取負載可能會導致 Flash 媒體損毀。

    已在此版本中解決此問題。

    您可以將所有 VMware Tools 資料複製到其自己的 ramdisk 中。因此,每次開機只能從 Flash 媒體讀取一次資料。所有其他讀取將移至 ramdisk。vCenter Server Agent (vpxa) 透過具有指向 productLocker 之符號連結的 /vmimages 目錄存取此資料。

    若要啟動此功能,請遵循下列步驟:

    1. 使用命令將進階 ToolsRamdisk 選項設定為 1:
    2. esxcli system settings advanced set -o /UserVars/ToolsRamdisk -i 1

    3. 將主機重新開機。
  • syslog.log 檔案可能會填滿 Unknown 錯誤訊息
    在 ESXi 6.0 Update 2 中,如果 Dell CIM 提供者已停用或處於閒置狀態,具有 Dell CIM 提供者的主機的 syslog.log 檔案會填滿 Unknown 錯誤訊息。此外,當 ESXi 6.0 Update 2 主機重新開機時,syslog.log 檔案可能會間歇記錄具有 Unknown 項目的錯誤訊息。

    已在此版本中解決此問題。

  • Userworld 核心傾印失敗
    當使用者程序用盡記憶體時,userworld 傾印可能會失敗。會顯示錯誤訊息無法配置記憶體

    已在此版本中解決此問題。修正會為 userworld 核心傾印的堆積配置提供全域記憶體,可在任何程序用盡記憶體時使用。

  • 當同步儲存區時,嘗試執行虛擬機器容錯移轉失敗,並顯示錯誤
    在同步儲存區作業期間,嘗試執行虛擬機器容錯移轉可能會失敗,並顯示類似下列內容的錯誤訊息:

    與遠端主機通訊時發生錯誤。

    下列訊息會記錄在 HBRsrv.log 檔案中:

    YYYY-MM-DDT13:48:46.305Z info hbrsrv[nnnnnnnnnnnn] [Originator@6876 sub=Host] Heartbeat handler detected dead connection for host: host-9
    YYYY-MM-DDT13:48:46.305Z warning hbrsrv[nnnnnnnnnnnn] [Originator@6876 sub=PropertyCollector] Got WaitForUpdatesEx exception: Server closed connection after 0 response bytes read; 171:53410'>, >)>


    並且在 ESXi 主機上,hostd 服務可能會停止回應,並顯示類似下列內容的訊息:

    YYYY-MM-DDT13:48:38.388Z panic hostd[468C2B70] [Originator@6876 sub=Default]
    -->
    --> Panic: Assert Failed: "progress >= 0 && progress <= 100" @ bora/vim/hostd/vimsvc/HaTaskImpl.cpp:557
    --> Backtrace:
    -->

    已在此版本中解決此問題。

  • hostd.log 檔案中每隔 90 秒持續報告記錄訊息
    即使未啟用 Virtual SAN,與 Virtual SAN 相關的記錄訊息仍會每隔 90 秒記錄在 hostd.log 檔案中,類似下列內容:

    { YYYY-MM-DDT06:50:01.923Z info hostd[nnnnnnnn] [Originator@6876 sub=Hostsvc opID=21fd2fe8] VsanSystemVmkProvider : GetRuntimeInfo: Complete, runtime info: (vim.vsan.host.VsanRuntimeInfo) {
    YYYY-MM-DDT06:51:33.449Z info hostd[nnnnnnnn] [Originator@6876 sub=Hostsvc opID=21fd3009] VsanSystemVmkProvider : GetRuntimeInfo: Complete, runtime info: (vim.vsan.host.VsanRuntimeInfo) {
    YYYY-MM-DDT06:53:04.978Z info hostd[nnnnnnnn] [Originator@6876 sub=Hostsvc opID=21fd3030] VsanSystemVmkProvider : GetRuntimeInfo: Complete, runtime info: (vim.vsan.host.VsanRuntimeInfo) {

    已在此版本中解決此問題。

  • 在多個虛擬機器上升級 VMware Tools 可能會失敗
    嘗試透過 Update Manager 在多個虛擬機器上同時升級 VMware Tools 可能會失敗。如果發生此問題,部分虛擬機器的 VMware Tools 可能無法升級。

    已在此版本中解決此問題。

  • 列舉 SMX 提供者類別可能會失敗
    使用 6.0 CIMPDK 編譯 HPE ESXi WBEM 提供者並在 ESXi 6.0 U3 系統上進行安裝時,列舉 SMX 提供者類別可能會失敗。

    此失敗可能是由於列舉下列 SMX 類別所致,這些類別包括:

    • SMX_EthernetPort
    • SMX_Fan
    • SMX_PowerSupply
    • SMX_SAMediaAccessStatData

    sfcbd 將針對這些 SMX 類別顯示下列錯誤:

    # enum_instances SMX_EthernetPort root/hpq error: enumInstances Server returned nothing (no headers, no data)

    提供者回應列舉查詢並成功傳送回應至 sfcbd。沒有提供者重新啟動或提供者核心傾印。每個列舉都會產生 sfcbd CIMXML 核心傾印,例如 sfcb-CIMXML-Pro-zdump.000

    已在此版本中解決此問題。

網路問題
  • ARP 要求封包可能會下降
    如果一個虛擬機器設定客體 VLAN 標記,另一個虛擬機器設定虛擬交換器 VLAN 標記,並在虛擬機器上關閉 VLAN 卸載,則兩個虛擬機器之間的 ARP 要求封包可能會下降。

  • 由於指令碼式升級,ESXi 防火牆組態可能會停用
    透過 NFS 或 FTP 使用 kickstart 檔案對 ESXi 6.0 Update 1 或更新版本執行指令碼式升級後,ESXi 防火牆組態可能會停用。

    已在此版本中解決此問題。

  • 即使在主機重新開機後,在新增的實體 NIC 通訊期間仍會使用虛擬 MAC 位址 00:00:00:00:00:00
    在主機重新開機後,新增的實體 NIC 在 esx.conf 檔案中可能沒有項目,導致通訊期間針對實體 NIC 列出虛擬 MAC 位址 00:00:00:00:00:00

    已在此版本中解決此問題。

  • 開機階段期間顯示錯誤訊息
    在特定條件下,當 ESXi 安裝程式在開機階段期間讀取安裝指令碼時,會顯示類似下列內容的錯誤訊息:

    VmkNicImpl::DisableInternal:: 將刪除 vmk0 管理介面,因此將 advlface 設定為空值

    已在此版本中解決此問題。

  • 使用 Citrix VDI PXE 開機時,實體交換器會填滿 RARP 封包
    當您為 Citrix VDI 將虛擬機器開機時,實體交換器會填滿 RARP 封包 (超過 1000 個),導致網路連線速度下降和短暫中斷。

    此版本提供進階選項 /Net/NetSendRARPOnPortEnablement。您需要將 /Net/NetSendRARPOnPortEnablement 的值設定為 0 以解決此問題。

  • ESXi 主機可能會失敗,並顯示紫色診斷畫面
    ESXi 主機可能會失敗,並顯示紫色診斷畫面。當呼叫 DVFilter_TxCompletionCB() 以完成 dvfilter 共用記憶體封包時會發生此情況,它會釋放封包內儲存的 IO 完整資料,但有時此資料成員會變成 0,導致出現空指標例外狀況。會顯示類似下列內容的錯誤訊息:

    YYYY-MM-DDT04:11:05.134Z cpu24:33420)@BlueScreen: #PF Exception 14 in world 33420:vmnic4-pollW IP 0x41800147d76d addr 0x28
    PTEs:0x587e436023;0x587e437023;0x587e438023;0x0;
    YYYY-MM-DDT04:11:05.134Z cpu24:33420)Code start: 0x418000800000 VMK uptime: 23:18:59:55.570
    YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461bdd0:[0x41800147d76d]DVFilterShmPacket_TxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0x3d sta
    YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461be00:[0x41800146eaa2]DVFilterTxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0xbe stack: 0x0
    YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461be70:[0x418000931688]Port_IOCompleteList@vmkernel#nover+0x40 stack: 0x0
    YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bef0:[0x4180009228ac]PktListIOCompleteInt@vmkernel#nover+0x158 stack: 0x0
    YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bf60:[0x4180009d9cf5]NetPollWorldCallback@vmkernel#nover+0xbd stack: 0x14
    YYYY-MM-DDT04:11:05.137Z cpu24:33420)0x43915461bfd0:[0x418000a149ee]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0

    已在此版本中解決此問題。

安全性問題
  • Likewise Kerberos 更新
    Likewise Kerberos 已更新至 1.14 版。
  • OpenSSL 更新
    OpenSSL 已更新至 openssl-1.0.2j 版。
  • PAM 更新
    PAM 已更新至 1.3.0 版。
  • libPNG 程式庫更新
    libPNG 程式庫已更新至 libpng-1.6.26。
  • NTP 套件更新
    ESXi NTP 套件已更新至 4.2.8p9 版。
  • libcurl 程式庫更新
    ESXi userworld libcurl 程式庫已更新至 libcurl- 7.51.0。
伺服器組態問題

  • 將主機設定檔重新套用至無狀態 ESXi 主機時,ESXi 主機與 vCenter Server 的連線中斷
    將在 vSphere 標準交換器和 vSphere Distributed Switch 中具有 vmknic 介面卡的主機設定檔套用至 ESXi 主機時,其可能會從 vSphere 標準交換器移除 vmknic 介面卡 vmk0 (管理介面),導致主機與 vCenter Server 中斷連線。

    已在此版本中解決此問題。

  • 當建立靜止快照時,hostd 服務可能會失敗
    在複寫程序期間執行靜止快照作業時,hostd 服務可能會失敗。hostd.log 檔案中會顯示類似下列內容的錯誤訊息: 2016-06-10T22:00:08.582Z [37181B70 info 'Hbrsvc'] ReplicationGroup will retry failed quiesce attempt for VM (vmID=37) 2016-06-10T22:00:08.583Z [37181B70 panic 'Default'] --> -->Panic: Assert Failed: "0" @ bora/vim/hostd/hbrsvc/ReplicationGroup.cpp:2779

    已在此版本中解決此問題。

  • 收集統計資料時,ESXi 6.0 Update 1 主機可能會失敗,並顯示紫色診斷畫面
    在統計資料收集期間,具有大量實體 CPU 的 ESXi 主機可能會停止回應。當收集程序嘗試存取超出最初指派給它的範圍的頁面時,會發生此問題。

    已在此版本中解決此問題。

  • 如果映像設定檔的大小大於設定的限制,ESXi 修補程式更新可能會失敗,並顯示警告訊息
    如果目標設定檔檔案的大小大於 239 MB,ESXi 修補程式更新安裝可能會失敗。當您使用 ISO 升級系統從而導致映像設定檔大小大於 239 MB 時會出現這種情況,並且不會獲得任何警告訊息。這會阻止在系統上安裝任何其他 VIB。

    已在此版本中解決此問題。

  • vmkernel.log 檔案中出現多個 USB 暫停和繼續事件
    vmkernel.log 檔案中出現類似下列內容的多個 USB 暫停和繼續事件:

    YYYY-MM-DDT

    已在此版本中解決此問題。

  • 無法在 [權限] 索引標籤中查看指派權限的使用者或群組清單
    無法在權限索引標籤中查看指派權限的使用者或群組清單,對受信任網域的使用者的驗證可能會失敗。當機器的 DNS 網域名稱與 AD 網域的 DNS 名稱不同時,會發生此問題。

    已在此版本中解決此問題。但是,將 ESXi 主機升級到 ESXi 6.0 Update 3 後,您必須將其從 AD 網域中移除,然後重新新增到相同的網域。

  • ESXi 主機可能會停止回應,並顯示紫色診斷畫面
    使用 esxcfg-dumppart 或其他命令並行多次呼叫傾印檔案集時,由於釋放傾印區塊對應時的競爭情形,ESXi 主機可能會停止回應並顯示具有下列類似項目的紫色診斷畫面:

    @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4907 - Corruption in dlmalloc
    Code start: 0xnnnnnnnnnnnn VMK uptime: 234:01:32:49.087
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]PanicvPanicInt@vmkernel#nover+0x37e stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Panic_NoSave@vmkernel#nover+0x4d stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DLM_free@vmkernel#nover+0x6c7 stack: 0x8
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Heap_Free@vmkernel#nover+0xb9 stack: 0xbad000e
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]Dump_SetFile@vmkernel#nover+0x155 stack: 0xnnnnnnnnnnnn
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]SystemVsi_DumpFileSet@vmkernel#nover+0x4b stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_SetInfo@vmkernel#nover+0x41f stack: 0x4fc
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_Set@ # +0x394 stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@ # +0xb4 stack: 0xffb0b9c8
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0x0
    0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry_@vmkernel#nover+0x0 stack: 0x0

    已在此版本中解決此問題。

儲存區問題
  • 無法使用 esxcli vvol abandonedvvol 命令移除失效的 Virtual Volumes 磁碟區和 VMDK 檔案
    嘗試使用 esxcli storage vvol storagecontainer abandonedvvol 命令清除失效的 Virtual Volumes 磁碟區和 Virtual Volumes 磁碟區上保留的 VMDK 檔案不成功。

    已在此版本中解決此問題。

  • 取消 Virtual Volumes 快照建立工作可能會導致資料遺失
    若虛擬機器的 VMDK 位於 Virtual Volumes 資料存放區,則嘗試取消該虛擬機器的快照建立時,可能會導致虛擬磁碟不會正確地回復,以及隨後發生資料遺失。當虛擬機器具有多個名稱相同的 VMDK 且這些 VMDK 來自不同的 Virtual Volumes 資料存放區時,會發生此情況。

    已在此版本中解決此問題。

  • 當 Virtual Volumes 虛擬機器的快照建立失敗時,VMDK 無法正確地回復
    嘗試為 Virtual Volumes 虛擬機器建立快照失敗時,VMDK 會繫結不正確的資料 Virtual Volumes。僅當 Virtual Volumes 虛擬機器的 VMDK 來自多個 Virtual Volumes 資料存放區時,才會發生此問題。

    已在此版本中解決此問題。

  • 當基礎儲存區在定期 VMFS 活動訊號期間錯誤地傳回不匹配錯誤時,虛擬機器 I/O 作業會停止或取消。
    VMFS 將針對定期活動訊號使用 SCSI compare-and-write 命令,也稱為 ATS。在執行 ATS 命令期間,任何不匹配錯誤均會視為失去活動訊號,資料存放區會起始復原動作。為防止損毀,裝置上的所有 I/O 作業均會取消。當基礎儲存區在 VMFS 活動訊號期間錯誤地報告不匹配錯誤時,資料存放區會起始不必要的復原動作。

    已在此版本中解決此問題。

  • ESXi 6.x 主機在執行 85 天後停止回應
    發生此問題時,/var/log/vmkernel 記錄檔會顯示類似下列內容的項目:

    YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved a PUREX IOCB woh oo
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:34255)qlnativefc: vmhba2(5:0.0): Recieved the PUREX IOCB.
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): sizeof(struct rdp_rsp_payload) = 0x88
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674qlnativefc: vmhba2(5:0.0): transceiver_codes[0] = 0x3
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): transceiver_codes[0,1] = 0x3, 0x40
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Stats Mailbox successful.
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)qlnativefc: vmhba2(5:0.0): Sending the Response to the RDP packet
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674 0 1 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)--------------------------------------------------------------
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 53 01 00 00 00 00 00 00 00 00 04 00 01 00 00 10
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) c0 1d 13 00 00 00 18 00 01 fc ff 00 00 00 00 20
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 88 00 00 00 b0 d6 97 3c 01 00 00 00
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 0 1 2 3 4 5 6 7 8 9 Ah Bh Ch Dh Eh Fh
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674)--------------------------------------------------------------
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 02 00 00 00 00 00 00 80 00 00 00 01 00 00 00 04
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 18 00 00 00 00 01 00 00 00 00 00 0c 1e 94 86 08
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 0e 81 13 ec 0e 81 00 51 00 01 00 01 00 00 00 04
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 2c 00 04 00 00 01 00 02 00 00 00 1c 00 00 00 01
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 00 00 00 40 00 00 00 00 01 00 03 00 00 00 10
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 50 01 43 80 23 18 a8 89 50 01 43 80 23 18 a8 88
    YYYY-MM-DDTHH:MM:SS.833Z cpu58:33674) 00 01 00 03 00 00 00 10 10 00 50 eb 1a da a1 8f

    發生此問題的原因是,以不正確的傳輸長度傳送讀取診斷參數 (RDP) 回應至 HBA 介面卡時發生 qlnativefc 驅動程式錯誤。因此,HBA 介面卡韌體不會釋放緩衝區集區空間。一旦緩衝區集區用盡,HBA 介面卡便無法進一步處理任何要求,從而導致 HBA 介面卡變得無法使用。依預設,RDP 常式由 FC 交換器起始,每小時發生一次,導致在正常情況下緩衝區集區在大約 80 到 85 天後用盡。

    已在此版本中解決此問題。

  • 在 vSphere 6.0 中,儲存區原則 API 的 HostMultipathStateInfoPath 物件提供 Run Time Name vmhbaX:CX:TX:LX 格式的路徑值
    在 ESXi 5.5 中,HostMultipathStateInfoPath 採用HostWWN-ArrayWWN-LUN_ID 格式提供路徑資訊,例如,sas.500605b0072b6550-sas.500c0ff1b10ea000-naa.600c0ff0001a20bd1887345701000000。但是,在 ESXi 6.0 中,路徑值顯示為 vmhbaX:CX:TX:LX,可能會對依賴 HostMultipathStateInfoPath 物件擷取 HostWWN 和 ArrayWWN 等資訊的使用者造成影響。

    已在此版本中解決此問題。HostMultipathStateInfoPath 物件現在將路徑資訊顯示為「執行階段名稱」和 HostWWN-ArrayWWN-LUN_ID

    您還可以使用 esxcli storage core path list 命令擷取路徑相關的資訊。此命令提供 HostWWN 和 ArrayWWN 詳細資料。如需詳細資訊,請參閱知識庫文章 1003973

  • ESXi 主機可能會失敗,並顯示紫色診斷畫面
    設定了 vFlash 的 ESXi 主機可能會失敗,並顯示紫色診斷畫面和類似下列內容的錯誤訊息:PSOD: @BlueScreen: #PF Exception 14 in world 500252:vmx-vcpu-0:V

    已在此版本中解決此問題。

  • 由於路徑宣告衝突,ESXi 主機失敗並顯示紫色診斷畫面
    當遇到已登錄但路徑由兩個多重路徑外掛程式 (例如 EMC PowerPath 和原生多重路徑外掛程式 (NMP)) 宣告的裝置時,ESXi 主機會顯示紫色診斷畫面。當外掛程式宣告規則無法宣告路徑,預設由 NMP 宣告路徑時,會發生此類衝突。NMP 嘗試登錄裝置,但由於其他外掛程式已登錄此裝置,因此發生競爭情形,並觸發 ESXi 主機失敗。

    已在此版本中解決此問題。

  • 由於主機記憶體用盡,針對大型檔案的檔案作業失敗
    執行檔案作業 (例如掛接資料存放區上存在的大型檔案) 時,這些作業在 ESXi 主機上可能會失敗。當緩衝區快取中的記憶體流失導致 ESXi 主機的記憶體用盡時 (例如,當資料的非零複本造成緩衝區未釋放時),可能會發生此情況。虛擬機器上會顯示類似下列內容的錯誤訊息。

    針對檔案 /vmfs/volumes/5f64675f-169dc0cb/CloudSetup_20160608.iso 的作業失敗。如果此檔案位於遠端檔案系統上,請確保網路連線和此磁碟所在的伺服器都正常運作。如果此檔案位於卸除式媒體上,請重新連結此媒體。選取 [重試] 再次嘗試此作業。選取 [取消] 結束此工作階段。選取 [繼續] 將錯誤轉送到客體作業系統。

    已在此版本中解決此問題。

  • 對於位於 NFS 資料存放區中的桌面虛擬機器,Horizon View 重新撰寫作業可能會失敗
    對於位於 NFS 資料存放區中的少數桌面虛擬機器,Horizon View 重新撰寫作業可能會失敗,並顯示失效 NFS 檔案控點錯誤。

    已在此版本中解決此問題。

升級與安裝問題
  • 如果 ESXi 已使用 USB 上的 dd 映像加以部署且 /altbootbank 包含 BOOT.CFG (大寫),則使用 vSphere Update Manager 升級 ESXi 會失敗
    透過使用 esxiso2dd 公用程式在特定 RHEL 版本上產生的 ESXi dd 映像可在 /altbootbank 中包含 BOOT.CFG (大寫)。如果 BOOT.CFG 為大寫,則 vSphere Update Manager 無法升級主機,因為升級前檢查程式僅接受小寫形式的 boot.cfg

    已在此版本中解決此問題。

  • 透過 ESXi 6.0 修補程式 ESXi600-201611011 或更高版本將 ESXi 5.5.x 主機升級到 ESXi 6.0.x 時,hostd 會失敗
    已安裝支援 HBA 模式的非同步 HPSA 驅動程式時,您可觀察到此問題。雖然 ESXi 支援在 HBA 模式下取得 HPSA 磁碟位置資訊,在遇到下列其中一種情況時仍可能會發生問題:

    • 安裝了舊版 hpssacli 公用程式 (2.10.14.0 或更舊版本)。
    • 使用了外部陣列來連線 HPSA 控制器。

    這些問題導致 hostd 失敗,且主機變得無法透過 vSphere Client 和 vCenter Server 連線。

    已在此版本中解決此問題。現在使用 esxcli 命令取得磁碟位置資訊時,hostd 不會失敗。esxcli 命令傳回類似下列內容的錯誤訊息:

    # esxcli storage core device physical get -d naa.500003963c888808 Plugin lsu-hpsa-plugin 無法取得名稱為 naa.500003963c888808 的裝置的資訊。錯誤為: 實體磁碟機的輸出無效。

  • /altbootbank 包含 BOOT.CFG (大寫),而非 boot.cfg (小寫) 時,使用 vSphere Update Manager 升級透過 USB 上 dd 映像開機的 ESXi 可能會失敗
    使用 esxiso2dd 公用程式在特定 RHEL 版本上產生的 ESXi dd 映像在 /altbootbank 中包含 BOOT.CFG (大寫),BOOT.CFG 的存在會導致使用 vSphere Update Manager 升級 ESXi 失敗,因為升級前檢查程式僅尋找 boot.cfg (小寫)。
  • 已在此版本中解決此問題。

  • 升級到 6.0 後,主機的摘要索引標籤中的映像設定檔名稱未正確地更新
    使用 esxcli software profile update 命令套用新的映像設定檔時,映像設定檔名稱不會變更為新的映像設定檔名稱。此外,使用 ISO 執行升級時,新的映像設定檔名稱不會標記為已更新

    已在此版本中解決此問題。

vCenter Server、vSphere Web Client 和 vSphere Client 問題
  • 新問題 vSphere Web Client 完成特定作業的速度較為緩慢
    在 vSphere Web Client 中執行特定作業需要很長時間才能完成,並顯示組態變更。若針對大中型 vCenter Server 詳細目錄中的部分或所有資料存放區啟用 Storage I/O Control,則可能會發生此問題。如需有關該問題的更多詳細資料,請參閱知識庫 2146935

    已在此版本中解決此問題。

虛擬機器管理問題
  • 已在安裝後進行重新開機時,vSphere Update Manager 會為 VMware Tools 傳送重新開機提醒
    即使已在安裝 VMware Tools 後進行了重新開機,VMware Tools 安裝錯誤碼仍顯示需要重新開機。當 VMware Tools 成功安裝並進行重新開機時,虛擬機器可執行檔 (VMX) 端的 guestInfo.toolsInstallErrCode 變數未清除。這會導致 vSphere Update Manager 傳送不正確的重新開機 VMware Tools 提醒。

    已在此版本中解決此問題。

  • 當 ListProcesses 在客體作業系統上執行時,hostd 失敗
    當客體作業系統中存在大量程序時,會多次叫用 ListProcesses 程序,且 VMware Tools 中的資料會到達多個區塊中。當對客體作業系統的多個 ListProcesses 呼叫 (每個區塊一個) 組合在一起時,實作會建立一個衝突。多個 ListProcesses 會識別所有資料到達的時間以及呼叫內部回撥處理常式的時間。呼叫處理常式兩次會導致 hostd 失敗。

    已在此版本中解決此問題。

  • 客體作業系統發出 SCSI 取消對應命令且 IO 篩選器阻止取消對應作業時,可能有資料損毀或遺失
    當虛擬機器的虛擬磁碟設定了多個 IO 篩選器,且客體作業系統發出 SCSI 取消對應命令時,即使其中一個設定的 IO 篩選器無法完成作業,SCSI 取消對應命令仍可能會成功。因此,VMDK 中反映的狀態與 IO 篩選器反映的狀態會有偏差,而客體作業系統中可能存在資料損毀或遺失的情況。

    已在此版本中解決此問題。

  • ESXi 主機可能會失敗,並顯示紫色診斷畫面
    DVFilter_TxCompletionCB() 作業嘗試完成 dvfilter 共用記憶體封包時,會釋放封包內儲存的 IO 完整資料成員。在某些情況下,此資料成員會變成 0,導致出現空指標例外狀況。會顯示類似下列內容的錯誤訊息:

    YYYY-MM-DDT04:11:05.134Z cpu24:33420)@BlueScreen: #PF Exception 14 in world 33420:vmnic4-pollW IP 0x41800147d76d addr 0x28 PTEs:0x587e436023;0x587e437023;0x587e438023;0x0; YYYY-MM-DDT04:11:05.134Z cpu24:33420)Code start: 0x418000800000 VMK uptime: 23:18:59:55.570 YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461bdd0:[0x41800147d76d]DVFilterShmPacket_TxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0x3d sta YYYY-MM-DDT04:11:05.135Z cpu24:33420)0x43915461be00:[0x41800146eaa2]DVFilterTxCompletionCB@com.vmware.vmkapi#v2_3_0_0+0xbe stack: 0x0 YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461be70:[0x418000931688]Port_IOCompleteList@vmkernel#nover+0x40 stack: 0x0 YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bef0:[0x4180009228ac]PktListIOCompleteInt@vmkernel#nover+0x158 stack: 0x0 YYYY-MM-DDT04:11:05.136Z cpu24:33420)0x43915461bf60:[0x4180009d9cf5]NetPollWorldCallback@vmkernel#nover+0xbd stack: 0x14 YYYY-MM-DDT04:11:05.137Z cpu24:33420)0x43915461bfd0:[0x418000a149ee]CpuSched_StartWorld@vmkernel#nover+0xa2 stack: 0x0

    已在此版本中解決此問題。

  • 使用 PCI passthru 的 ESXi 主機可能會停止回應,並顯示紫色診斷畫面
    使用 PCI Passthru 多次將虛擬機器重新開機時,ESXi 主機可能會停止回應並顯示紫色診斷畫面,並且 vmware.log 檔案中會顯示類似下列內容的訊息:

    XXXXXXXXXXXXXXX| vcpu-0| W110: A core file is available in " /vmx-debug-zdump.000"
    XXXXXXXXXXXXXXX| vcpu-0| I120: Msg_Post: Error
    XXXXXXXXXXXXXXX| vcpu-0| I120: [msg.log.error.unrecoverable] VMware ESX
    XXXXXXXXXXXXXXX| vcpu-0| unrecoverable error: (vcpu-0)
    XXXXXXXXXXXXXXX| vcpu-0| I120+ vcpu-7:ASSERT vmcore/vmm/intr/intr.c:459

    已在此版本中解決此問題。

  • hostd 服務在執行複寫程序期間可能會失敗
    靜止快照作業在執行複寫程序期間失敗時,hostd 服務可能會失敗。類似下列內容的錯誤訊息可能會寫入 hostd.log 檔案:

    YYYY-MM-DDT22:00:08.582Z [37181B70 info 'Hbrsvc'] ReplicationGroup will retry failed quiesce attempt for VM (vmID=37)
    YYYY-MM-DDT22:00:08.583Z [37181B70 panic 'Default']
    -->
    --> Panic: Assert Failed: "0" @ bora/vim/hostd/hbrsvc/ReplicationGroup.cpp:2779

    已在此版本中解決此問題。

  • 如果遇到使用 LSI 虛擬 SCSI 控制器佈建之虛擬機器的 I/O 失敗,hostd 服務可能會停止回應
    如果遇到使用 LSI 虛擬控制器佈建之虛擬機器的 Storage I/O 失敗,並且 ESXi 主機上的記憶體已過度認可,ESXi 主機可能會停止回應。

    已在此版本中解決此問題。

Virtual SAN 問題
  • 新問題 當主機進入維護模式或在 Virtual SAN 叢集中重新設定原則時,使用 Virtual SAN 儲存區的虛擬機器可能會變慢或無回應,且可能會發生 Virtual SAN 主機管理失敗
    當 Virtual SAN 磁碟群組的快取層中累積零資料時,可能會發生此問題,處理零資料會導致記錄壅塞。此類壅塞可能會導致使用 Virtual SAN 儲存區之虛擬機器的 I/O 變慢,且發生 Virtual SAN 主機管理失敗。僅啟用了重複資料刪除和壓縮的 vSAN 叢集中會發生此問題。

    已在此版本中解決此問題。

  • 佈建或用於建立新物件的相關 Virtual SAN 叢集作業發生間歇性失敗
    叢集層級物件管理員精靈 (CLOMD) 中的記憶體流失導致記憶體在長時間執行階段中耗盡,從而造成精靈暫時無法使用。

    已在此版本中解決此問題。

  • DOM 模組無法初始化
    說明:叢集層級物件管理員精靈 (CLOMD) 可能無法在具有大量實體 CPU 的 ESXi 主機上使用 Virtual SAN。如果 Virtual SAN DOM 模組在加入叢集時無法初始化,則會發生此問題。

    clomd.log 檔案中會顯示類似下列內容的錯誤訊息:

    2016-12-01T22:34:49.446Z 2567759 Failed to run VSI SigCheck: Failure 2016-12-01T22:34:49.446Z 2567759 main: Clomd is starting 2016-12-01T22:34:49.446Z 2567759 main: Is in stretched cluster mode? No 2016-12-01T22:34:49.446Z 2567759 CLOMSetOptions: Setting forground to TRUE 2016-12-01T22:34:49.446Z 2567759 CLOMSetOptions: No default configuration specified.2016-12-01T22:34:49.447Z 2567759 main: Starting CLOM trace 2016-12-01T22:34:49.475Z 2567759 Cannot open DOM device /dev/dom: No such file or directory 2016-12-01T22:34:49.475Z 2567759 Cannot connect to DOM: Failure 2016-12-01T22:34:49.475Z 2567759 CLOM_CleanupRebalanceContext: Cleaning up rebalancing state 2016-12-01T22:34:49.481Z 2567759 Failed to dump data 2016-12-01T22:34:49.481Z 2567759 2016-12-01T22:34:49.481Z 2567759 main: clomd exit

    已在此版本中解決此問題。

  • ESXi 主機在重新開機後無法重新加入 VMware Virtual SAN 叢集
    在重新開機後嘗試手動重新加入 VMware Virtual SAN 叢集可能會失敗,並顯示下列錯誤:

    無法在 VSAN 叢集中加入主機 (無法啟動 vsantraced (傳回碼 2))

    已在此版本中解決此問題。

  • 持續呼叫 VSAN API 可能會導致顯示令人誤解的工作訊息
    在具有 vCenter Server 6.0 Update 2 和 Virtual SAN 6.2 的環境中,持續呼叫 VSAN API 會導致建立工作以將票證登錄至 Virtual SAN VASA 提供者,並顯示類似下列內容的訊息:

    擷取票證以登錄 Virtual SAN VASA 提供者

    已在此版本中解決此問題。

  • Virtual SAN 磁碟重新平衡工作在 5% 處停止超過 24 小時
    Virtual SAN 健全狀況服務報告 vSphere Web Client 中的 Virtual SAN 磁碟平衡警告。按一下重新平衡磁碟時,工作似乎停止在 5% 處超過 24 小時。

    已在此版本中解決此問題,重新平衡磁碟工作會在 24 小時後顯示為已完成。

  • ESXi 主機可能會停止回應,並顯示紫色診斷畫面
    ESXi 主機可能會停止回應並顯示紫色診斷畫面,同時顯示類似下列內容的訊息:

    YYYY-MM-DDT22:59:29.686Z cpu40:84493)@BlueScreen: #PF Exception 14 in world 84493:python IP 0xnnnnnnnnnnnn addr 0xfffffffffffffff0 PTEs:0x0;
    YYYY-MM-DDT22:59:29.686Z cpu40:84493)Code start: 0xnnnnnnnnnnnn VMK uptime: 7:15:08:48.373
    YYYY-MM-DDT22:59:29.686Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DOMClient_IsTopObject@com.vmware.vsan#0.0.0.1+0x18 stack: 0xnnnnnnnn
    YYYY-MM-DDT22:59:29.687Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DOMListUuidTopHierarchyCbk@com.vmware.vsan#0.0.0.1+0x69 stack: 0x900
    YYYY-MM-DDT22:59:29.687Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSANUUIDTable_Iterate@com.vmware.vsanutil#0.0.0.1+0x4b stack: 0x139d
    YYYY-MM-DDT22:59:29.687Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]DOMVsi_ListTopClients@com.vmware.vsan#0.0.0.1+0x5a stack: 0x66
    YYYY-MM-DDT22:59:29.688Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_GetListInfo@vmkernel#nover+0x354 stack: 0xnnnnnnnnnnnn
    YYYY-MM-DDT22:59:29.688Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_GetList@#+0x216 stack: 0xnnnnnnnnn
    YYYY-MM-DDT22:59:29.688Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@#+0xb4 stack: 0xnnnnnnn
    YYYY-MM-DDT22:59:29.689Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0x0
    YYYY-MM-DDT22:59:29.689Z cpu40:84493)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry_@vmkernel#nover+0x0 stack: 0x0

    已在此版本中解決此問題。

  • ESXi 主機可能會失敗,並顯示紫色診斷畫面
    Virtual SAN 重新同步作業暫停時,Virtual SAN 叢集中的 ESXi 主機可能會失敗,並顯示紫色診斷畫面。

    已在此版本中解決此問題。

VMware HA 和 Fault Tolerance 組態問題
  • 在虛擬機器上啟用 Fault Tolerance 時,ESXi 主機可能會失敗
    Fault Tolerance 次要虛擬機器無法開啟電源時,ESXi 主機可能會失敗並顯示紫色診斷畫面。

    已在此版本中解決此問題。

  • 對於已啟用 vSphere Fault Tolerance 的虛擬機器,vSphere 客體應用程式監控 SDK 失敗
    對於已安裝 vSphere Guest Application Monitor 且受 vSphere HA 保護的虛擬機器,如果啟用 vSphere FT,則 vSphere 客體應用程式監控 SDK 可能會失敗。

    此版本可顯著減少啟用 Fault Tolerance 時虛擬機器網路延遲的增加。

  • 在虛擬機器上啟用 SMP Fault Tolerance 時,延遲增加
    在虛擬機器上啟用對稱多處理器 (SMP) Fault Tolerance 時,虛擬機器網路延遲可能會在平均值和變化兩個方面顯著上升。對於增加延遲敏感的虛擬機器,延遲增加可能會導致該虛擬機器的工作負載效能顯著降低或不穩定。

    此版本可顯著減少啟用 Fault Tolerance 時虛擬機器網路延遲的增加。

已知問題

ESXi 6.0 中存在的已知問題分組如下:

此版本中記錄的新已知問題會醒目提示為新增問題

安裝問題
  • 即使在 DCUI 中變更預設組態之後,DNS 尾碼可能仍持續存在
    如果 ESXi 主機部署在 DHCP 伺服器服務的網路上,則首次開機時該主機可能已自動設定預設 DNS + DNS 尾碼。當您嘗試變更 DNS 尾碼時,DCUI 不會移除現有的 DNS 尾碼,但也會僅新增提供的新尾碼。

    因應措施:設定見證 OVF 的 DNS 主機名稱時,請在「DNS 主機名稱」欄位設定完整的 FQDN 名稱以附加正確的 DNS 尾碼。然後可在「自訂 DNS 尾碼」欄位移除不必要的 DNS 尾碼。

  • 安裝最新的 VMware Tools 套件後,VMware Tools 服務使用者程序可能不會在 Linux 作業系統上執行
    在 Linux 作業系統上,您可能會遇到 VMware Tools 升級/安裝問題,或是在安裝最新 VMware Tools 套件之後,VMware Tools 服務 (vmtoolsd) 使用者程序可能無法執行。如果您的 glibc 版本比 2.5 版舊,例如 SLES10sp4,便會發生此問題。

    因應措施:將 Linux glibc 升級至 2.5 版或更高版本。

升級問題

另請檢閱版本說明的「安裝問題」部分。許多安裝問題也會影響升級程序。

  • 嘗試使用 esxcli software vib update 命令從 ESXi 6.x 升級到 6.0 Update 2 及更高版本失敗
    嘗試使用 esxcli software vib update 從 ESXi 6.x 升級到 6.0 Update 2 失敗,並顯示類似下列內容的錯誤訊息:

    [DependencyError]
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan << 6.0.0-2.35, but the requirement cannot be satisfied within the ImageProfile.
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan >= 6.0.0-2.34, but the requirement cannot be satisfied within the ImageProfile.


    由於引入了與 esx-base VIB 相互依存的新 Virtual SAN VIB 並且 esxcli software vib update 命令僅更新系統上已安裝的 VIB,因此,出現了該問題。

    因應措施:若要解決此問題,請執行 esxcli software profile update,如下列範例所示:

    esxcli software profile update -d /vmfs/volumes/datastore1/update-from-esxi6.0-6.0_update02.zip -p ESXi-6.0.0-20160302001-standard

  • 從舊版 vSphere 6.0 升級至 vSphere 6.0 Update 1 及更高版本之後,Auto Deploy 上的 SSLv3 保持啟用狀態
    當您從舊版 vSphere 6.0 升級至 vSphere 6.0 Update 1 及更高版本時,Auto Deploy 上的 SSLv3 通訊協定保持啟用狀態。

    因應措施:執行下列步驟以使用 PowerCLI 命令停用 SSLv3:

    1. 執行下列命令以連線至 vCenter Server:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <FQDN_hostname or IP Address of vCenter Server>

    2. 執行下列命令以檢查目前的 sslv3 狀態:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 執行下列命令以停用 sslv3:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. 重新啟動 Auto Deploy 服務以更新變更。

  • 在 ESXi 從 5.5.x 升級到 6.0 之後,光纖通道主機匯流排介面卡裝置號碼可能會變更

    在 ESXi 從 5.5.x 升級到 6.0 期間,光纖通道主機匯流排介面卡裝置號碼有時會變更。如果使用 esxcli storage core adapter list 命令,裝置號碼可能會變更為另一個號碼。

    例如,在 ESXi 升級之前,光纖通道主機匯流排介面卡的裝置號碼可能會類似下列內容:

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    在 ESXi 升級到 6.0 之後,光纖通道主機匯流排介面卡的裝置號碼可能會類似下列內容:

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    此範例說明使用 esxcli storage core adapter list 命令可能發生的隨機變更:裝置別名號碼 vmhba2 和 vmhba3 變更為 vmhba64 和 vmhba65,而裝置號碼 vmhba5 和 vmhba6 則保持不變。然而,如果使用 esxcli hardware pci list 命令,則裝置號碼在升級之後不會變更。

    此問題在 VMware 外部,可能不會影響您。ESXi 會顯示裝置別名,但是它不會在任何作業中使用它們。您可以使用主機設定檔來重設裝置別名。請參閱 VMware 產品說明文件及知識庫文章。

    因應措施:無。

  • 升級後不會保留 Active Directory 設定
    將主機升級至 ESXi 6.0 後,不會保留升級前在 ESXi 主機中設定的 Active Directory 設定。

    因應措施:如果升級前 ESXi 版本為 5.1 或更新版本,則在升級後將該主機新增至 Active Directory 網域。如果升級前 ESXi 版本為 ESXi 5.0.x,升級後則不要將該主機新增至 Active Directory 網域。

  • 將 ESXi 升級到先前已新增至網域的 6.0 主機後不再加入該網域
    首次將 vSphere 5.5 升級至 vSphere 6.0 後,不會保留 Active Directory 組態。

    因應措施:升級後,將主機重新加入 vCenter Server 網域:

    1. 將主機新增至 vCenter Server。

    2. 將主機加入網域 (例如 example.com)

    3. 將所有主機升級至 ESXi 6.0。

    4. 手動將最近升級的主機加入網域。

    5. 擷取主機設定檔並停用所有其他設定檔 (除了「驗證」以外)。

    6. 將手動加入的主機設定檔套用至其他最近升級的主機。

  • 在升級 vCenter Server for Windows 後,先前執行的 VMware ESXi Dump Collector 服務重設為預設的 [已停用] 設定
    升級程序會將 VMware Vsphere ESXi Dump Collector 6.0 安裝做為一組 vCenter Server 之選擇性服務的一部分。您必須手動啟用 VMware vSphere ESXi Dump Collector 服務,才能將其用作 vCenter Server 6.0 for Windows 的一部分。

    因應措施:如需如何啟用和執行 vCenter Server 6.0 for Windows 中選擇性服務的相關資訊,請閱讀 VMWare 說明文件或搜尋 VMware 知識庫。

    在作業系統中啟用 VMware vSphere ESXi Dump Collector 服務:

    1. 在 [控制台] 功能表中,選取管理工具,然後按兩下服務

    2. VMware vSphere ESXi Dump Collector編輯啟動類型上按一下滑鼠右鍵。

    3. 啟動類型設定為自動

    4. VMware vSphere ESXi Dump Collector啟動上按一下滑鼠右鍵。

    此時,服務啟動類型將設定為 [自動],且服務處於執行中狀態。

vCenter Single Sign-On 和憑證管理問題
  • 升級 ESXi 主機的 SSL 憑證後,無法連線至虛擬機器主控台
    如果升級由 ESXi 主機使用的 SSL 憑證,並嘗試連線至憑證已被取代時執行的任何虛擬機器的虛擬機器主控台,則可能會導致憑證驗證錯誤。這是因為舊憑證已快取,且任何新主控台連線皆因不相符而遭到拒絕。
    主控台連線仍有可能成功 (例如,如果舊憑證可以透過其他方式進行驗證),但不保證一定成功。現有虛擬機器主控台連線不受影響,但是,如果該主控台在憑證取代期間執行、停止後再重新啟動,則可能會出現問題。

    因應措施:將主機置於維護模式或使其暫停,或者關閉所有虛擬機器電源。僅執行中的虛擬機器受到影響。最佳做法是將主機置於維護模式後執行所有 SSL 憑證升級。

網路問題

  • 某些 vSphere 功能不支援 IPv6
    您可以啟用 IPv6 以用於所有節點和元件,除了下列功能以外:

    • 未對應到 DNS 伺服器上完整網域名稱 (FQDN) 的 ESXi 主機和 vCenter Server 的 IPv6 位址。
      因應措施:使用 FQDN 或確保 IPv6 位址已對應到 DNS 伺服器上的 FQDN,以供反向名稱查閱。

    • 虛擬磁碟區

    • PXE 開機做為 Auto Deploy 和主機設定檔的一部分
      因應措施:透過 IPv4 對 ESXi 主機進行 PXE 開機,然後使用主機設定檔針對 IPv6 設定主機。

    • ESXi 主機和 vCenter Server Appliance 與 Active Directory 的連線
      因應措施:使用 Active Directory over LDAP 做為 vCenter Single Sign-On 中的身分識別來源。

    • 使用 Kerberos 的 NFS 4.1 儲存區
      因應措施:搭配使用 NFS 4.1 與 AUTH_SYS。

    • Authentication Proxy

    • vSphere Management Assistant 和 vSphere Command-Line Interface 與 Active Directory 的連線。
      因應措施:連線至 Active Directory over LDAP。

    • 使用 vSphere Client 針對 vSphere 功能啟用 IPv6
      因應措施:使用 vSphere Web Client 針對 vSphere 功能啟用 IPv6。

  • 使用 ESXi Dump Collector 時可能會發生遞迴危急
    如果主機在顯示紫色診斷畫面並透過網路將核心傾印寫入 ESXi Dump Collector 時處於危急狀態,則可能會發生遞迴核心危急。VMkernel zdump 檔案可能不適用於對 vCenter Server 中的 ESXi Dump Collector 進行疑難排解。

    如果發生遞迴核心危急,則主機上的紫色診斷畫面會顯示下列訊息:
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    如果在大量流量流經實體網路介面卡 (亦設定為將核心傾印傳送至 vCenter Server 上的收集器) 時出現 VMkernel 危急,則可能會發生遞迴核心危急。

    因應措施:執行下列任一項因應措施:

    • 將實體網路介面卡專用於核心傾印傳輸,只為降低來自系統和虛擬機器流量的影響。

    • 透過執行下列 ESXCLI 主控台命令停用主機上的 ESXi Dump Collector:
      esxcli system coredump network set --enable false

儲存區問題

NFS 版本 4.1 問題

  • 在 NFS 4.1 共用從所有路徑失效 (APD) 狀態復原後,NFS 4.1 資料存放區上的虛擬機器失敗
    如果 NFS 4.1 儲存區進入 APD 狀態並在寬限期後結束該狀態,則執行於 NFS 4.1 資料存放區上的已開啟電源的虛擬機器會失敗。此寬限期取決於陣列廠商。
    在 NFS 4.1 共用從 APD 復原之後,您會在 vSphere Web Client 中的虛擬機器摘要頁面上看到下列訊息:
    用於保護 VM.vmdk 的鎖定已遺失,可能是由於基礎儲存區問題而引起的。如果此虛擬機器已設定為高度可用,請先確保該虛擬機器在某些其他主機上執行,然後按一下 [確定]。
    按一下 [確定] 後,會產生當機檔案,而虛擬機器將關閉電源。

    因應措施:無。

  • NFS 4.1 用戶端在嘗試建立新工作階段時與伺服器失去同步
    與伺服器中斷連線一段時間後,NFS 4.1 用戶端可能會在嘗試建立新工作階段時與伺服器失去同步。發生這種情況時,vmkernel.log 檔案會包含一系列節流警告訊息,用於說明 NFS41 CREATE_SESSION 要求失敗並顯示 NFS4ERR_SEQ_MISORDERED。

    因應措施:依序執行下列步驟。

    1. 嘗試取消掛接受影響的檔案系統。如果在取消掛接時沒有開啟任何檔案,此作業會成功,NFS 用戶端模組會清理其內部狀態。然後,可以重新掛接已取消掛接的檔案系統並繼續一般作業。

    2. 中斷 NIC 與掛接之 IP 位址的連線,讓其保留中斷狀態足夠長的時間,以便多個伺服器租用時間到期。五分鐘的時間應該足夠。然後,將 NIC 重新連線。一般作業應繼續進行。

    3. 如果上述步驟皆失敗,請將 ESXi 主機重新開機。

  • NFS 4.1 用戶端與 NFS 伺服器失去同步,即使工作階段已重設亦無法復原連線
    與伺服器中斷連線一段時間後,NFS 4.1 用戶端可能會與伺服器失去同步,且即使工作階段已重設亦無法復原與伺服器的同步連線。此問題由 EMC VNX 伺服器問題所致。發生這種情況時,vmkernel.log 檔案會包含一系列節流警告訊息,指出 NFS41: NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug

    因應措施:若要結束工作階段,請取消掛接所有資料存放區,然後將其重新掛接。

  • ONTAP Kerberos 磁碟區變得無法存取或發生虛擬機器 I/O 失敗
    NetApp 伺服器收到順序錯誤的 RPCSEC_GSS 要求時沒有回應。因此,對應的 I/O 作業將停止,除非該作業終止且客體作業系統停止或發生 I/O 錯誤。此外,根據 RFC 2203,用戶端僅可以具有與 seq_window (32,若為 ONTAP) 相等的大量未完成要求 (根據 RPCSEC_GSS 內容),且必須等待直到伺服器完成最低的未完成要求。因此,伺服器永遠不會回覆順序錯誤的 RPCSEC_GSS 要求,當用戶端達到最大未完成要求 seq_window 數目後,會停止傳送要求至伺服器。這會造成磁碟區變得無法存取。

    因應措施:無。檢查最新的硬體相容性清單 (HCL),以找到已解決此問題的受支援 ONTAP 伺服器。

  • 無法在 EMC VNX 中的 NFS 4.1 資料存放區上建立大於 1 TB 的虛擬磁碟
    EMC VNX (含韌體 7.x 版本) 中的 NFS 4.1 版儲存區僅支援 32 位元的檔案格式。這會防止您在 NFS 4.1 資料存放區上建立大於 1 TB 的虛擬機器檔案。

    因應措施:將 EMC VNX 陣列更新至 8.x 版本。

  • 在韌體升級期間,EMC VNX 儲存區支援的 NFS 4.1 資料存放區變得無法存取
    將 EMC VNX 儲存區升級至新韌體時,掛接在 ESXi 主機上的 NFS 4.1 資料存放區會變得無法存取。出現這種情況的原因在於 VNX 伺服器在韌體升級後變更其主要裝置編號。主機上的 NFS 4.1 用戶端未預期與伺服器建立連線之後變更主要編號,並導致資料存放區永久無法存取。

    因應措施:取消掛接由 VNX 伺服器匯出的所有 NFS 4.1 資料存放區,然後升級韌體。

  • 當 ESXi 主機使用不同的安全機制掛接相同的 NFS 4.1 資料存放區時,虛擬機器可能會發生故障
    如果不同的 ESXi 主機使用不同的安全機制 (AUTH_SYS 和 Kerberos) 掛接相同的 NFS 4.1 資料存放區,則置於該資料存放區上的虛擬機器可能會出現問題和故障。例如,您嘗試將虛擬機器從 host1 移轉到 host2 可能會失敗,並顯示權限遭拒錯誤。在您嘗試從 host2 存取 host1 虛擬機器時,也可能會看到這些錯誤。

    因應措施:確保掛接 NFS 4.1 磁碟區的所有主機使用相同的安全類型。

  • 嘗試將唯讀檔案複製到使用 Kerberos 的 NFS 4.1 資料存放區失敗
    當您嘗試從來源檔案複製資料到目標檔案時,可能會失敗。目標檔案仍為空白。

    因應措施:無。

  • 當您建立資料存放區叢集時,不保證統一 NFS 4.1 安全類型
    建立資料存放區叢集時,vSphere 不會確認及強制統一 NFS 4.1 安全類型。因此,使用不同安全類型 (AUTH_SYS 和 Kerberos) 的資料存放區可能屬於相同的叢集。如果從使用 Kerberos 的資料存放區移轉虛擬機器至使用 AUTH_SYS 的資料存放區,則虛擬機器的安全性層級會降低。
    此問題適用於 vMotion、Storage vMotion、DRS 和 Storage DRS 等功能。

    因應措施:如果您的虛擬機器需要 Kerberos 安全性,請確保組成同一叢集的所有 NFS 4.1 磁碟區僅使用 Kerberos 安全類型。請勿包括 NFS 3 資料存放區,因為 NFS 3 僅支援 AUTH_SYS。

Virtual SAN 問題

  • 新增問題 Virtual SAN 健全狀況 UI 因逾時而無法顯示
    Virtual SAN 叢集 > 監控 > Virtual SAN > 健全狀況下存取 Virtual SAN 健全狀況 UI 時,UI 不顯示。可能的原因是 vSphere ESX Agent Manager 當機並導致逾時。若要確認,請開啟 Virtual SAN 健全狀況記錄 (位於 /var/log/vmware/vsan-health/vmware-vsan-health-service.log),然後使用 VsanEamUtil.getClusterStatus: 字串搜尋對 vSphere ESX Agent Manager 服務的呼叫。

    因應措施:使用 vSphere Web Client 重新啟動 vSphere ESX Agent Manager 服務,然後重新整理 Virtual SAN 健全狀況 UI。

  • 新增問題 使用第三方 lsi_msgpt3 驅動程式時,Virtual SAN 磁碟服務性不會運作
    Virtual SAN 叢集 > 監控 > Virtual SAN > 健全狀況 > 限制健全狀況下對具有兩個或三個節點的 Virtual SAN 進行的健全狀況檢查,在另外 1 個主機失敗後顯示紅色,並在叢集的磁碟空間使用率超過 50% 時觸發 false vCenter Server 事件或警示。

    因應措施:新增一或多個主機至 Virtual SAN 叢集或新增更多磁碟,可將叢集的磁碟空間使用率降低到 50% 以下。

  • 新增問題 包含兩個或三個節點的 Virtual SAN 叢集的限制健全狀況檢查顯示為紅色
    適用於 Virtual SAN 磁碟服務性的外掛程式 (lsu-lsi-lsi-msgpt3-plugin) 支援取得裝置位置以及開啟或關閉磁碟 LED 的作業。VMware lsi_msgpt3 收件匣驅動程式支援服務性外掛程式。但是,如果您使用第三方非同步驅動程式,則外掛程式不會運作。

    因應措施:使用 VMware 收件匣 lsi_msgpt3 驅動程式 06.255.10.00-2vmw 版或更新版本。

Virtual Volumes 問題

  • 由於 Virtual Volumes VASA 提供者使用的憑證不正確,無法建立虛擬資料存放區
    有時,Virtual Volumes VASA 提供者使用的自我簽署憑證可能會在未設定 keyCertSign 位元的情況下將 KeyUsage 延伸錯誤地定義為嚴重。在此情況下,提供者登錄成功。但是,您無法從 VASA 提供者報告的儲存區容器建立虛擬資料存放區。

    因應措施:在提供者登錄時由 VASA 提供者使用的自我簽署憑證不應該在未設定 keyCertSign 位元的情況下將 KeyUsage 延伸定義為嚴重。

一般儲存區問題

  • ESXi 6.0 Update 2 主機連線到具有特定韌體版本之特定儲存區陣列後,可能會遇到 I/O 逾時及後續中止
    ESXi 6.0 Update 2 主機連線到具有特定韌體版本之特定儲存陣列後,會將 SMART 資料要求傳送至儲存陣列,如果該陣列回應時顯示 PDL 錯誤,則 6.0 Update 2 中的 PDL 回應行為可能導致因這些失敗命令持續重試而封鎖其他命令的情況。此錯誤會導致大範圍的 I/O 逾時及後續中止。

    此外,ESXi 主機重新開機後,可能需要較長時間才能重新連線至 vCenter Server,或者主機可能會在 vCenter Server 中顯示為「沒有回應」狀態。諸如 HBA 重新掃描等與儲存區相關的工作可能需要很長時間才能完成。

    因應措施:若要解決此問題,請參閱知識庫文章 2133286

  • 從現有磁碟建立新的虛擬機器時,vSphere Web Client 會將儲存區原則錯誤地顯示為已附加
    當您使用 vSphere Web Client 從現有磁碟建立新虛擬機器,並在設定磁碟時指定儲存區原則時。若選取新的虛擬機器 --> 按一下虛擬機器原則 --> 編輯虛擬機器儲存區原則,篩選器會顯示為已附加,但篩選器實際上並未附加。您可以查看 .vmdk 檔案或 vmkfstools --iofilterslist <vmdk-file>,確認篩選器是否附加。

    因應措施:建立新的虛擬機器後,在開啟其電源之前,按一下虛擬機器原則 --> 編輯虛擬機器儲存區原則,將篩選器新增到 vmdk。

  • NFS 查詢作業傳回 NFS STALE 錯誤
    當您在 NFS 資料存放區中部署大量虛擬機器時,虛擬機器部署會因競爭情形而失敗,並顯示類似下列內容的錯誤訊息:

    失效 NFS 檔案控點

    因應措施:重新啟動查詢作業。如需詳細資訊,請參閱知識庫文章 2130593

  • 如果已使用 QLogic iSCSI 介面卡,則嘗試在 Dell EqualLogic LUN 上建立 VMFS 資料存放區失敗
    無法在透過 QLogic iSCSI 介面卡探索到的 Dell EqualLogic 儲存裝置上建立 VMFS 資料存放區。
    如果嘗試失敗,vCenter Server 上會顯示下列錯誤訊息:無法建立檔案系統,如需詳細資料請參閱 VMkernel 記錄: 連線已逾時。VMkernel 記錄包含持續的 iscsi 工作階段已封鎖iscsi 工作階段已取消封鎖訊息。在 Dell EqualLogic 儲存區陣列上,監控記錄針對 QLogic 啟動器 IQN 名稱顯示從啟動器收到的封包出現通訊協定錯誤訊息。

    使用下列元件時會出現此問題:

    • Dell EqualLogic 陣列韌體:V6.0.7

    • QLogic iSCSI 介面卡韌體版本:3.00.01.75

    • 驅動程式版本:5.01.03.2-7vmw-debug

    因應措施:在 QLogic iSCSI 介面卡上啟用 iSCSI ImmediateData 介面卡參數。依預設,此參數會關閉。無法透過 vSphere Web Client 或 esxcli 命令變更此參數。若要變更此參數,請使用廠商提供的軟體,例如 QConvergeConsole CLI。

  • 具有 Emulex OneConnect HBA 的 ESXi 主機無法開機
    如果 ESXi 主機已安裝 Emulex OneConnect HBA,該主機可能無法開機。可能是因為 Emulex 韌體存在問題而導致此失敗。

    因應措施:若要更正此問題,請連絡 Emulex 以取得適用於您的 HBA 的最新韌體。

    如果您繼續使用舊版韌體,請遵循下列步驟以避免開機失敗:

    1. ESXi 載入時,請在開機 ESXi 核心之前按 Shift+O。

    2. 將現有開機選項保留原樣,然後新增空格後面跟隨 dmaMapperPolicy=false

  • Flash Read Cache 在 APD 期間不會加速 I/O
    如果設定為 Flash Read Cache 之虛擬 Flash 資源的快閃磁碟發生故障或無法存取,或磁碟儲存區無法從主機取得連線,則該主機上的 Flash Read Cache 執行個體無效且無法加速 I/O。因此,當主機和儲存區之間的連線重新建立後,快取不會提供失效資料。連線中斷可能是暫時的所有路徑失效 (APD) 情況,也可能是永久的永久裝置遺失 (PDL)。此情況持續存在,直到虛擬機器已重新開啟電源。

    因應措施:可以將虛擬機器重新開啟電源,以使用 Flash Read Cache 還原 I/O 加速。

  • 所有路徑失效 (APD) 或路徑容錯移轉可能會導致系統失敗
    在共用 SAS 環境中,如果磁碟由 lsi_msgpt3 驅動程式宣告且發生大量 I/O 活動,則 APD 或路徑容錯移轉情況可能會導致系統失敗。

    因應措施:無

  • 頻繁使用 SCSI 中止命令會導致系統失敗
    由於大量 I/O 活動,頻繁使用 SCSI 中止命令會導致 MegaRAID 控制器回應速度很慢。如果已在先前內容中發佈的資源參考出現非預期的中斷情況,可能會導致系統失敗。

    因應措施:無

  • 當 IQN 發生變更時,iSCSI 連線失敗且資料存放區變得無法存取
    當 iSCSI 介面卡上的 iSCSI 工作階段仍處於作用中狀態時,如果變更該介面卡的 IQN,則可能會發生此問題。

    因應措施:當您變更 iSCSI 介面卡的 IQN 時,該介面卡上的工作階段不應該處於作用中狀態。移除介面卡上的所有 iSCSI 工作階段和所有目標,然後再變更 IQN。

  • nvmecli 上線和離線作業並非永遠生效
    當您執行 nvmecli device online -A vmhba* 作業使 NVMe 裝置上線時,該作業似乎已成功。但是,該裝置可能仍處於離線狀態。

    因應措施:透過執行 nvmecli device list 命令檢查 NVMe 裝置的狀態。

伺服器組態問題
  • 在從可設定狀態之主機將主機設定檔套用到使用 Auto Deploy 佈建的主機時,修復失敗
    當從有狀態部署的主機將主機設定檔套用到使用 Auto Deploy 佈建的主機 (無狀態主機,無本機儲存區) 時,修復嘗試會失敗,並顯示下列錯誤訊息之一:

    • PCI 匯流排位址為 sxxxxxxxx.xx 的 vmhba 裝置不存在於您的主機上。必須先關閉,然後再將卡插入 PCI 插槽 yy。卡的類型應與參考主機上的卡完全相符。

    • 找不到任何有效的核心傾印磁碟分割。

    因應措施:從主機設定檔停用導致問題 (例如,裝置別名組態或核心傾印組態) 的外掛程式,然後修復主機設定檔。

  • 將具有靜態 IP 的主機設定檔套用到主機導致符合性錯誤
    如果從具有 DHCP 網路組態的主機擷取主機設定檔,然後編輯主機設定檔使其擁有靜態 IP 位址,則在您將其套用到其他主機時,會發生符合性錯誤,並顯示下列訊息:

    IPv4 路由數目不相符。

    因應措施:從 DHCP 主機解壓縮主機設定檔前,對主機進行設定,使其具有一個靜態 IP 位址。

  • 當您熱新增已過度認可網路資源的虛擬網路介面卡時,虛擬機器電源可能會關閉
    在已啟用 Network I/O Control 的 vSphere Distributed Switch 上,已開啟電源的虛擬機器將根據主機上實體網路介面卡上的虛擬機器系統流量保留區設定頻寬保留區。將網路介面卡熱新增至已超過主機上實體網路介面卡中可用頻寬的虛擬機器設定網路頻寬保留區。

    熱新增網路介面卡時,VMkernel 會啟動快速暫停和繼續 (FSR) 程序。由於虛擬機器所需網路資源超過可用資源,因此,VMkernel 將使用 FSR 程序的失敗路徑。此失敗路徑的錯誤會導致虛擬機器關閉電源。

    因應措施:不要在網路介面卡新增至已開啟電源的虛擬機器時設定頻寬保留區。

VMware HA 和 Fault Tolerance 問題
  • 舊版 Fault Tolerance (FT) 在 Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台上不受支援
    舊版 FT 在 Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台上不受支援。在啟用單一處理器的舊版 Fault Tolerance 後,嘗試開啟虛擬機器電源會失敗。

    因應措施:無。

客體作業系統問題
  • 在熱插拔後嘗試在 NVMe PCIe SSD 裝置上啟用傳遞模式可能會失敗
    若要透過 vSphere Web Client 在 SSD 裝置上啟用傳遞模式,您可以選取主機,依序按一下管理索引標籤和設定,導覽至硬體區段,按一下 PCI 裝置 > 編輯,從可啟用用於傳遞的作用中裝置清單中選取裝置,然後按一下確定。但是,當您針對不具有 PCIe NVMe 磁碟機的 ESXi 6.0 主機熱插拔新的 NVMe 裝置時,新的 NVMe PCIe SSD 裝置將無法啟用用於傳遞模式,且不會顯示在可用傳遞裝置清單中。

    因應措施:重新啟動主機。也可以在 ESXi 主機上執行命令。

    1. 以根使用者身分登入。

    2. 執行命令
      /etc/init.d/hostd start

支援的硬體問題
  • 執行 esxcli 以取得磁碟位置時,HP 伺服器上 Avago 控制器的結果不正確
    針對 HP 伺服器上的 Avago 控制器執行 esxcli storage core device physical get 時,結果不正確。

    例如,如果執行:
    esxcli storage core device physical get -d naa.5000c5004d1a0e76
    系統會傳回:
    Physical Location: enclosure 0, slot 0

    實體伺服器上該插槽的實際標籤為 1。

    因應措施:仔細檢查 HP 伺服器上的插槽。由於 HP 伺服器上的插槽號碼是從 1 開始,因此您必須增加命令傳回的插槽號碼才能取得正確的結果。

CIM 和 API 問題
  • sfcb-vmware_raw 可能會失敗
    sfcb-vmware_raw 可能會失敗,因為配置的最大預設外掛程式資源群組記憶體不夠。

    因應措施:使用以下命令新增用於 sfcbd 外掛程式記憶體限制的 UserVars CIMOemPluginsRPMemMax,並重新啟動 sfcbd,使新的外掛程式值生效:

    esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

    XXX 是您要配置的記憶體限制。此值應在最小值 (175) 和最大值 (500) 的範圍內。