VMware ESXi 6.0 Update 2 版本說明

|

更新時間:2016 年 5 月 4 日

ESXi 6.0 Update 2 | 2016 年 3 月 15 日 | ISO 組建編號 3620759

查看這些版本說明的新增項目和更新。

版本說明的內容

此版本說明涵蓋下列主題:

新增功能

  • 高乙太網路連結速度:ESXi 6.0 Update 2 支援 25 G 和 50 G 乙太網路連結速度。

  • VMware Host Client:VMware Host Client 為 HTML5 用戶端,可用於連線和管理單一 ESXi 主機。它可用於執行管理工作來管理主機資源,如虛擬機器、網路及儲存區。VMware Host Client 還可以在 vCenter Server 和 vSphere Web Client 無法使用時,協助對個別虛擬機器或主機進行疑難排解。如需有關 VMware Host Client 的詳細資訊,請參閱 VMware Host Client 1.0 版本說明

  • VMware Virtual SAN 6.2:新版 VMware Virtual SAN 6.2 與 ESXi 6.0 Update 2.綁定在一起。如需有關 Virtual SAN 的詳細資訊,請參閱 VMware Virtual SAN 6.2 版本說明

    Virtual SAN 會在 ESXi 映像中新增 vsan vib。新的 vib 導致新增至 esx-base vib 的相依性需要在新版 6.0 Update 2 主機上安裝 vsan vib。如需詳細資訊,請參閱知識庫文章 2144595

  • vSphere APIs for I/O Filtering (VAIO) 增強功能:

    • 在純 IPv6 環境中,ESXi 6.0 Update 2 支援 IO 篩選器 VASA 提供者。如需更多資訊,請參閱〈已解決的問題〉一節。

    • ESXi 6.0 Update 2 支援 VMIOF 1.0 和 1.1 版。如需更多資訊,請參閱〈已解決的問題〉一節。

  • ESXi 6.0 Update 2 解決了在〈已解決的問題〉一節中記錄的問題。

舊版 ESXi 6.0

每個版本的版本說明中均說明了 ESXi 6.0 的功能和已知問題。舊版 ESXi 6.0 的版本說明如下:

國際化

VMware ESXi 6.0 提供下列語言版本:

  • 英文
  • 法文
  • 德文
  • 日文
  • 韓文
  • 簡體中文
  • 西班牙文
  • 繁體中文

VMware vSphere 6.0 元件 (包括 vCenter Server、ESXi、vSphere Web Client 和 vSphere Client) 不接受非 ASCII 輸入。

相容性

ESXi、vCenter Server 和 vSphere Web Client 版本相容性

VMware 產品互通性對照表提供有關 VMware vSphere 元件目前版本及舊版之間相容性的詳細資料,包括 ESXi、VMware vCenter Server、vSphere Web Client 及選用 VMware 產品。安裝 ESXi 或 vCenter Server 之前,亦請查看 VMware 產品互通性對照表中有關支援的管理與備份代理程式的資訊。

vSphere Web Client 隨 vCenter Server 一併封裝。您可以透過 VMware vCenter 自動執行功能表安裝屬於模組 ISO 檔案的 vSphere Client。

ESXi 的硬體相容性

若要檢視與 vSphere 6.0 相容的處理器、儲存裝置、SAN 陣列以及 I/O 裝置的清單,請參閱《VMware 相容性指南》中的 ESXi 6.0 資訊。

ESXi 的裝置相容性

若要判定與 ESXi 6.0 相容的裝置,請參閱《VMware 相容性指南》中的 ESXi 6.0 資訊。

某些裝置已過時,不再受 ESXi 6.0 支援。在執行升級程序期間,裝置驅動程式會安裝在 ESXi 6.0 主機上。裝置驅動程式可能仍會在 ESXi 6.0 上運作,但是該裝置不再受 ESXi 6.0 支援。如需已過時且不再受 ESXi 6.0 支援的裝置清單,請參閱知識庫 2087970

ESXi 的第三方交換器相容性

VMware 現在支援具備 vSphere 6.0 的 Cisco Nexus 1000V。vSphere 至少需要 5.2(1)SV3(1.4) 版的 NX-OS。如需有關 Cisco Nexus 1000V 的詳細資訊,請參閱 Cisco 版本說明。在舊版 vSphere 中,並不支援 Ciscso Nexus 1000V AVS 模式。

ESXi 的客體作業系統相容性

若要判定與 vSphere 6.0 相容的客體作業系統,請參閱《VMware 相容性指南》中的 ESXi 6.0 資訊。

ESXi 的虛擬機器相容性

ESXi 6.0 支援與 ESX 3.x 及更新版本 (硬體版本 4) 相容的虛擬機器。不支援與 ESX 2.x 及更新版本 (硬體版本 3) 相容的虛擬機器。若要在 ESXi 6.0 上使用此類虛擬機器,請升級虛擬機器相容性。請參閱《vSphere 升級》說明文件。

此版本的安裝和升級

此版本的安裝說明

請閱讀《vSphere 安裝和設定》說明文件,以取得安裝和設定 ESXi 與 vCenter Server 的指引。

雖然安裝非常簡易,但幾個後續組態步驟卻是不可或缺的。請閱讀下列說明文件:

建議的 vSphere 6.0 部署模型

VMware 僅建議兩種部署模型:

  • 含內嵌式 Platform Services Controller 的 vCenter Server。如果需要在資料中心內部署一或多個獨立 vCenter Server 執行個體,則建議使用此模型。不建議在這些含內嵌式 Platform Services Controller 的 vCenter Server 的模型之間執行複寫。

  • 含外部 Platform Services Controller 的 vCenter Server。僅當需要連結多個 vCenter Server 執行個體或想要減少資料中心內的 Platform Services Controller 使用量時,才建議使用此模型。支援在這些含外部 Platform Services Controller 的 vCenter Server 的模型之間執行複寫。

請閱讀《vSphere 安裝和設定》說明文件,以取得安裝和設定 vCenter Server 的指引。

請閱讀 vSphere 6.0 及其相容 VMware 產品的更新序列,以取得更新 vSphere 元件的適當序列。

另請閱讀 KB 2108548,以取得安裝和設定 vCenter Server 的指引。

vCenter 主機作業系統資訊

閱讀知識庫文章 KB 2091273

備份和還原使用外部 Platform Services Controller 進行的 vCenter Server 和 vCenter Server Appliance 部署

儘管《vSphere 安裝和設定》說明文件中的聲明限制您嘗試備份和還原使用外部 Platform Services Controller 的 vCenter Server 和 vCenter Server Appliance 部署,您仍可以透過依照知識庫 2110294 中的步驟來執行此工作。

從內嵌式 Platform Services Controller 移轉至外部 Platform Services Controller

含內嵌式 Platform Services Controller 的 vCenter Server 無法自動移轉至含外部 Platform Services Controller 的 vCenter Server。此移轉公用程式的測試尚未完成。

在安裝 vCenter Server 之前,判定所需部署選項。如果複寫設定需要多部 vCenter Server,請始終部署含外部 Platform Services Controller 的 vCenter。

移轉第三方解決方案

如需有關透過第三方自訂項目進行升級的資訊,請參閱《vSphere 升級》說明文件。如需有關使用 Image Builder 來自訂 ISO 的資訊,請參閱《vSphere 安裝和設定》說明文件。

不允許對不支援的 CPU 進行升級和安裝

vSphere 6.0 僅支援 2006 年 6 月 (第三季度) 後可供使用的處理器。與 vSphere 5.x 支援的處理器相比,vSphere 6.0 不再支援下列處理器:

  • AMD Opteron 12xx 系列
  • AMD Opteron 22xx 系列
  • AMD Operton 82xx 系列

在安裝或升級期間,安裝程式會檢查主機 CPU 與 vSphere 6.0 的相容性。如果您的主機硬體不相容,將有紫色畫面顯示關於不相容的資訊訊息,並停止 vSphere 6.0 安裝程序。

此版本的升級說明

如需有關升級 vCenter Server 與 ESX/ESXi 主機的指示,請參閱《vSphere 升級》說明文件。

VMware vSphere 6.0 的開放原始碼元件

下列網址提供了適用於 vSphere 6.0 中散佈的開放原始碼軟體元件的版權聲明與授權:http://www.vmware.com。您需要登入 My VMware 帳戶。然後,從下載功能表中選取 vSphere。在開放原始碼索引標籤上,您也可以針對任意 GPL、LGPL、需要原始碼或需要修改原始碼的其他相似授權下載來源檔案,使其適用於 vSphere 的最新可用版本。

產品支援通知

  • vCenter Server 資料庫。在 vSphere 6.0 版本中,做為 vCenter Server Appliance 之外部資料庫的 Oracle 11g 和 12c 已被取代。在 vSphere 6.0 中,VMware 將繼續支援 Oracle 11g 和 12c 做為外部資料庫。在未來的主要版本中,VMware 將不支援 Orace 11g 和 12c 做為 vCenter Server Appliance 的外部資料庫。

  • vSphere Web Client。vSphere 6.0 Web Client 中無法再使用物件之監控索引標籤中的儲存區報告選項。

  • vSphere Client。vSphere 6.0 Web Client 中無法再使用儲存區視圖索引標籤。

此版本中包含的修補程式

此版本包含 ESXi 在此產品發行日期之前發行所有公告。如需有關個別公告的詳細資訊,請參閱 VMware 下載修補程式頁面。

ESXi600-Update02 修補程式發行版本包含下列個別公告:

ESXi600-201603201-UG:更新了 esx-base、vsanhealth、vsan vib
ESXi600-201603202-UG:更新了 misc-drivers、xhci-xhci 及其他
ESXi600-201603203-UG:更新了 ESXi 6.0 esx-tboot vib
ESXi600-201603204-UG-BG:更新了 ESXi 6.0 tools-light vib
ESXi600-201603205-UG-BG:更新了 ESXi 6.0 esx-ui vib
ESXi600-201603206-UG-BG:更新了 ESXi 6.0 nvme vib
ESXi600-201603207-UG-BG:更新了 ESXi 6.0 net-vmxnet3 vib
ESXi600-201603208-UG-BG:更新了 ESXi 6.0 sata-ahci vib

ESXi600-Update02 (安全性專用組建版本) 修補程式發行版本包含下列個別公告:

ESXi600-201603101-SG:更新了 ESXi 6.0 esx-base vib
ESXi600-201603102-SG:更新了 ESXi 6.0 tools-light vib

ESXi600-Update02 修補程式發行版本包含下列映像設定檔:

ESXi-6.0.0-20160302001-standard
ESXi-6.0.0-20160302001-no-tools

ESXi600-Update02 (安全性專用組建版本) 修補程式發行版本包含下列映像設定檔:

ESXi-6.0.0-20160301001s-standard
ESXi-6.0.0-20160301001s-no-tools

如需修補程式與更新分類的相關資訊,請參閱知識庫 2014447

已解決的問題

已解決的問題分類如下。



CIM 和 API 問題
  • 使用第三方軟體 ServerView RAID Manager 時,硬體監控可能會失敗
    使用第三方軟體 ServerView RAID Manager 時,您可能會遇到硬體監控失敗。由於出現競爭情形,導致 sfcb-vmware_aux 停止回應。

    已在此版本中解決此問題。

  • [硬體狀態] 索引標籤停止回應並顯示錯誤訊息
    在以字組存取 FRU 裝置且 read_cnt 大於或等於 1 時,[硬體狀態] 索引標籤可能會停止回應。類似下列內容的錯誤訊息會記錄至 syslog.log 檔案:

    Dropped response operation details -- nameSpace: root/cimv2, className: OMC_RawIpmiEntity, Type: 0\

    已在此版本中解決此問題。

其他問題
  • 在使用 PowerCLI 執行 esxcli 命令時,Hostd 會停止回應
    在使用 PowerCLI 執行 esxcli 命令,從而導致記憶體流失且記憶體耗用量超出固定限制時,Hostd 可能會停止回應。類似下列內容的錯誤訊息會記錄至 hostd.log 檔案:

    YYYY-MM-DDTHH:MM:SS.135Z [nnnnnnnn error 'UW Memory checker'] Current value 646016 exceeds hard limit 643993.Shutting down process.

    已在此版本中解決此問題。
  • ESXi 主機會顯示紫色診斷畫面,其中包含可修正機器檢視插斷 (CMCI) 訊息

    由於在短時間內 vmkernel.log 檔案中出現多個 CMCI 而導致 CPU 無法回應,因此,ESXi 主機可能會失敗,並顯示紫色診斷畫面。在紫色診斷畫面上顯示類似下列內容的項目:

    PCPU <N>: no heartbeat (2/2 IPIs received)
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]MCEReapMCABanks@vmkernel#nover+0x195
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]MCEHandleCMCI@vmkernel#nover+0xb4
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]IRQ_DoInterrupt@vmkernel#nover+0x33e
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]IDT_IntrHandler@vmkernel#nover+0x12b 0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]gate_entry@vmkernel#nover+0x64
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]LFQueue_Dequeue@vmkernel#nover+0x59
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]MCEBottomHalf@vmkernel#nover+0x39
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]BH_DrainAndDisableInterrupts@vmkernel#nover+0xf3
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]VMMVMKCall_Call@vmkernel#nover+0x2c6


    類似下列內容的項目會記錄在 vmkernel.log 檔案中:

    cpu1:33127)MCE: 1118: cpu1: MCA error detected via CMCI (Gbl status=0x0): Restart IP: invalid, Error IP: invalid, MCE in progress: no.
    cpu1:33127)MCE: 231: cpu1: bank9: MCA recoverable error (CE): "Memory Controller Scrubbing Error on Channel 0."
    cpu1:33127)MCE: 222: cpu1: bank9: status=0xXXXXXXXXXXXXXXXX: (VAL=1, OVFLW=0, UC=0, EN=0, PCC=0, S=0, AR=0), ECC=no, Addr:0xXXXXXXXXXXXXXXXX (valid), Misc:0x8c3589300 (valid)

    已在此版本中解決此問題。

網路問題
  • vSISH 統計資料顯示大量封包丟棄
    由於整數溢位,VSISH 統計資料可能會顯示大量誤判封包丟棄。

    已在此版本中解決此問題。
  • 新增問題:在 VXLAN 環境中啟用 Netflow 功能的情況下,ESXi 主機可能會失敗,並顯示紫色診斷畫面
    在 VXLAN 環境中啟用 Netflow 功能的情況下,ESXi 主機可能會失敗,並顯示含有類似於下列內容之項目的紫色診斷畫面:

    @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4923 - Usage error in dlmalloc
    PTEs:0xnnnnnnnn;0xnnnnnnnn;0x0;
    0xnnnnnnnn:[0xnnnnnnnn]PanicvPanicInt@vmkernel#nover+0x37e
    ....
    ....
    0xnnnnnnnn:[0xnnnnnnnn]Net_AcceptRxList@vmkernel#nover+0x115


    已在此版本中解決此問題。
  • 在 vDS 環境中,移除 LAG 之後 vMotion 會失敗
    在 vSphere Distributed Switch (vDS) 環境中,移除連結匯總群組 (LAG) 之後,vMotion 會失敗。「vMotion 精靈相容性」會顯示類似下列內容的錯誤訊息:

    目前已連線的網路介面「網路介面卡 1」使用無法存取的網路「DSwitchName」

    已在此版本中解決此問題。
  • 收集 ESXi 記錄服務包時,透過乙太網路的光纖通道 (FCoE) 連結可能會停止
    收集 ESXi 記錄服務包時,lldpnetmap 命令會啟用 LLDP;但是,LLDP 僅可在 [兩者] 模式上設定,然後 LLDP 封包會由 ESXi 主機傳送。此套件可能會導致 FCoE 連結停止。

    已在此版本中解決此問題。
  • Hostd 記錄檔接連多次被錯誤訊息填滿
    填寫記錄檔時,Hostd 記錄檔接連多次被類似下列內容的錯誤訊息填滿:

    Failed to get vsi stat set: Sysinfo error on operation returned status : Not found.Please see the VMkernel log for detailed error information.

    已在此版本中解決此問題。


安全性問題
  • 對 NTP 套件的更新
    ESXi NTP 套件已更新至 4.2.8p4 版。

  • 對 zlib 版本的更新
    zlib 版本已更新至 1.2.8 版。

  • 對 libPNG 程式庫的更新
    libPNG 程式庫已更新至 libpng-1.6.20。

  • 對 OpenSSH 版本的更新
    OpenSSH 版本已更新至 7.1p1。

  • 由於憑證檔案中缺少新行字元,因此 IO 篩選器 VASA 提供者未完成初始化
    IO 篩選器 VASA 提供者讀取並組合憑證與私密金鑰檔案以產生 PEM 檔案。如果憑證檔案不以新行字元結尾,則會建立 OpenSSL 無法辨識的無效 PEM 檔案。從而導致一個錯誤,使 iofiltervp 無法初始化。

    已在此版本中解決此問題。

伺服器組態問題
  • 將 ESXi 主機加入 Active Directory 之後無法執行 Active Directory 作業
    將 ESXi 主機加入 Active Directory 之後,您可能無法執行某些 Active Directory 活動,如在新增來自不同信任網域中的特定使用者之後新增 Active Directory 使用者以取得權限、登入等。在 /var/log/likewise.log 檔案中,會看到類似下列內容的項目:

    20150522181259:DEBUG:lsass:LsaJoinDomain():join.c:380: Error code: 40286 (symbol: LW_ERROR_LDAP_SERVER_DOWN)

    已在此版本中解決此問題。

  • 已新增最新 PCI 識別碼
    pci.ids 檔案已重新整理以包含最新的 PCI 識別碼。

  • ESXi 主機在資源集區配置發生錯誤時不移至維護模式
    ESXi 主機在資源集區配置發生錯誤時不移至維護模式。

    已在此版本中解決此問題。

儲存區問題
  • ESXi mClock I/O 排程器無法按預期運作
    ESXi mClock I/O 排程器未以較小負載限制 I/O,即使在您使用 vSphere Client 變更虛擬機器的 IOPS 後亦是如此。

    已在此版本中解決此問題。

  • 現有 LUN 的路徑狀態更新延遲
    有時您可能會發現 LUN 路徑狀態更新出現稍微延遲,這是因為內部 API 未對現有 LUN 發出掃描呼叫。

    已在此版本中解決此問題。

  • 嘗試連結多個 Appstack 需要很長時間
    在您嘗試將多個 Appstack 或可寫入磁碟區連結至虛擬機器時,重新設定虛擬機器會存在延遲。

    已在此版本中解決此問題。

  • 無法使用 VDDK 熱新增傳輸模式開啟 Virtual Volumes 上的超過 2 TB 的磁碟
    嘗試使用 Virtual Disk Development Kit (VDDK) 熱新增傳輸模式進行熱新增並開啟 Virtual Volumes 資料存放區上的超過 2 TB 的磁碟可能會失敗。

    已在此版本中解決此問題。

  • 在 IPv6 安裝程式上安裝 I/O 篩選器不會將其功能發佈至 VPXD
    透過 VIM API 成功安裝 I/O 篩選器後,安裝的篩選器無法將篩選器功能發佈至 VPXD。您無法將篩選器設定檔附加至任何磁碟,因為沒有功能發佈至以 VMware vSphere 儲存區原則為基礎的管理 (SPBM)。

    已在此版本中解決此問題。

  • ESXi 6.0 Update 2 支援 VMIOF 1.0 和 1.1 版

    ESXi 6.0 Update 2 支援 VMIOF 1.0 和 1.1 版。已將 vmiof_1_1_0_0 vib 標籤新增至 ESXi 基礎映像中受支援的 VIB 標籤清單。這可讓您建立僅與 ESXi 6.0 Update 2 及更新版本相容的篩選器,因為在 ESXi 6.0 Update 2 開發套件上建立的篩選器只能安裝在 ESXi 6.0 Update 2 或更新版本的主機上。

    在 ESXi 6.0 Update 2 上建立的篩選器也可用於 ESXi 6.0 Update 主機,不會出現任何問題。

  • 將 Virtual SAN 叢集中的主機升級到 ESXi 6.0 Update 1b 後,該叢集中的某些主機會報告錯誤警告
    將 Virtual SAN 環境升級到 ESXi 6.0 Update 1b 後,vCenter Server 會在 vSphere Web Client 的摘要索引標籤中報告類似下列內容的錯誤警告,並且 ESXi 主機會顯示通知三角形:

    主機無法與已啟用 Virtual SAN 之叢集中的所有其他節點通訊

    已在此版本中解決此問題。

升級與安裝問題
  • ESXi 6.x 指令碼式安裝顯示不正確的警告,指出 USB 或 SD 媒體不支援 VMFS,即使 kickstart 檔案中包含 --novmfsondisk 參數後亦是如此
    如果使用指令碼式安裝在識別為 USB 或 SD 媒體的磁碟上安裝 ESXi 6.0,安裝程式可能會顯示以下警告訊息:

    安裝中指定的磁碟 (<disk-id>) 不支援 VMFS。

    即使在 kickstart 檔案的 install 命令中已包含 --novmfsondisk 參數,也會顯示此訊息。

    已在此版本中解決此問題。

  • 已安裝的即時 VIB 可能無法正常運作,並且在重新開機後會遺失
    在即時 VIB 安裝期間,系統會執行即時 VIB 的 jumpstart 外掛程式、rc 指令碼及服務指令碼。這些外掛程式和指令碼可能會擲回錯誤和/或例外狀況。這些錯誤和/或例外狀況可能會停止安裝程序並導致未預期的行為,例如將即時 VIB 報告為系統上已安裝,但無法正常運作。此外,即時 VIB 還會在重新開機後遺失。

    已在此版本中解決此問題。

  • 即時 VIB 安裝可能會失敗
    在即時 VIB 安裝期間,esximage 會為即時 VIB 建立暫存資料。如果同時執行 esxcli software VIB getlist 命令,暫存資料可能會被刪除,進而導致即時 VIB 安裝交易失敗。

    已在此版本中解決此問題。

  • 從 ESXi 5.0 或 5.1 升級到 6.0 Update 1 及更新版本後,嘗試執行 vMotion 可能會失敗

    從 ESXi 5.0 或 5.1 升級到 6.0 Update 1 或更新版本後,嘗試執行 vMotion 可能會失敗。類似下列內容的錯誤訊息會寫入 vmware.log 檔案。

    failed to add memory page 0x201 to VM: 參數無效

    如需更多詳細資訊,請參閱知識庫文章 2143943

    已在此版本中解決此問題。

vCenter Server、vSphere Web Client 和 vSphere Client 問題
  • 無法從 vSphere Web Access 開啟已開啟電源之虛擬機器的虛擬機器主控台連線
    將使用已開啟電源之虛擬機器的 ESXi 主機新增至 vCenter Server,或者將主機從一個 vCenter Server 切換至另一個 vCenter Server 時,vSphere Web Access 會無法開啟虛擬機器的主控台連線。此問題會出現類似下列內容的錯誤訊息:

    Web 主控台錯誤訊息:

    主控台已中斷連線。關閉此視窗並重新啟動主控台以重新連線。

    獨立式 VMware Remote Console 錯誤訊息:

    無法將 SSL 工作階段初始化到遠端主機。

    VI Client 主控台錯誤訊息:

    無法連線至 mks: 內部錯誤

    vmware.log 檔案中的錯誤訊息:

    SOCKET 6 (150) Error during authd-VNC negotiation: (1) Asyncsocket error.

    已在此版本中解決此問題。

虛擬機器管理問題
  • 在採用 3D 加速的主機上,Hostd 會隨機停止回應
    在採用 3D 加速的 ESXi 主機上,Hostd 可能會隨機停止回應。類似下列內容的訊息會記錄在 hostd 記錄中:

    Crash Report build=2809209
    Signal 11 received, si_code 1, si_errno 0
    Bad access at 34
    eip 0xnnnnnnn esp 0xnnnnnnnn ebp 0xnnnnnnnn
    eax 0xnnnnnnnn ebx 0xnnnnnnn ecx 0x47 edx 0x0 esi 0x30 edi 0xnnnnnnnn
    已在此版本中解決此問題。

  • 受永久裝置遺失影響的虛擬機器無法進行容錯移轉
    受永久裝置遺失 (PDL) 影響的虛擬機器無法在容錯移轉主機上開啟電源。虛擬機器會保持無效狀態並顯示警告訊息,指出只要存在任何主控虛擬機器之儲存區的 PDL,就無法辨識硬體版本 1。

    已在此版本中解決此問題。

  • 虛擬機器的效能計數器 cpu.system.summation 始終顯示為 0
    虛擬機器效能度量無法正確顯示,因為虛擬機器的效能計數器 cpu.system.summation 始終顯示為 0。

    已在此版本中解決此問題。

vMotion 和 Storage vMotion 問題
  • 將具有 3D 硬體的 ESXi 主機置於維護模式並觸發 vMotion 時,Hostd 可能會停止回應
    在具有 3D 硬體的 ESXi 主機上,當 hostd 偵測到虛擬機器的電源狀態變更時,就會呼叫函數以檢查虛擬機器狀態。如果是 vMotion,來源虛擬機器會先關閉電源,然後於來源主機上解除登錄,系統會顯示 ManagedObjectNotFound 例外狀況,並且 hostd 可能會停止回應。

    已在此版本中解決此問題。

  • 無法使用具有兩個 2 TB 虛擬磁碟的虛擬機器執行 vMotion
    嘗試使用具有兩個 2 TB 虛擬磁碟 (於 ESXi 5.0 上建立) 的 ESXi 6.0 虛擬機器執行 vMotion 會失敗,類似下列內容的錯誤訊息會記錄至 vpxd.log 檔案:

    2015-09-28T10:00:28.721+09:00 info vpxd[xxxxx] [Originator@6876 sub=vpxLro opID=xxxxxxxx-xxxxxxxx-xx] [VpxLRO] -- BEGIN task-919 -- vm-281 -- vim.VirtualMachine.relocate -- xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx(xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx)
    2015-09-28T10:00:28.727+09:00 info vpxd[xxxxx] [Originator@6876 sub=vpxLro opID=xxxxxxxx-xxxxxxxx-xx-xx] [VpxLRO] -- BEGIN task-internal-343729 -- -- VmprovWorkflow --
    ....

    已在此版本中解決此問題。

  • 虛擬機器在執行僅磁碟 Storage vMotion 期間會停止回應或進入電源關閉狀態
    當執行僅磁碟 Storage vMotion 作業時,虛擬機器可能會因多個執行緒嘗試存取相同資料而停止回應或進入電源關閉狀態。

    已在此版本中解決此問題。

VMware Tools 問題

已知問題

ESXi 6.0 中存在的已知問題分組如下:

此版本中記錄的新已知問題會醒目提示為新增問題

安裝問題
  • 即使在 DCUI 中變更預設組態之後,DNS 尾碼可能仍持續存在
    如果 ESXi 主機部署在 DHCP 伺服器服務的網路上,則首次開機時該主機可能已自動設定預設 DNS + DNS 尾碼。當您嘗試變更 DNS 尾碼時,DCUI 不會移除現有的 DNS 尾碼,但也會僅新增提供的新尾碼。

    因應措施:設定見證 OVF 的 DNS 主機名稱時,請在「DNS 主機名稱」欄位設定完整的 FQDN 名稱以附加正確的 DNS 尾碼。然後可在「自訂 DNS 尾碼」欄位移除不必要的 DNS 尾碼。

  • 安裝最新的 VMware Tools 套件後,VMware Tools 服務使用者程序可能不會在 Linux 作業系統上執行
    在 Linux 作業系統上,您可能會遇到 VMware Tools 升級/安裝問題,或是在安裝最新 VMware Tools 套件之後,VMware Tools 服務 (vmtoolsd) 使用者程序可能無法執行。如果您的 glibc 版本比 2.5 版舊,例如 SLES10sp4,便會發生此問題。

    因應措施:將 Linux glibc 升級至 2.5 版或更高版本。

升級問題

另請檢閱版本說明的「安裝問題」部分。許多安裝問題也會影響升級程序。

  • 新增問題:嘗試使用 esxcli software vib update 命令從 ESXi 6.x 升級到 6.0 Update 2 失敗
    嘗試使用 esxcli software vib update 從 ESXi 6.x 升級到 6.0 Update 2 失敗,並顯示類似下列內容的錯誤訊息:

    "[DependencyError]
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan << 6.0.0-2.35, but the requirement cannot be satisfied within the ImageProfile.
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan >= 6.0.0-2.34, but the requirement cannot be satisfied within the ImageProfile."


    由於引入了與 esx-base VIB 相互依存的新 Virtual SAN VIB 並且 esxcli software vib update 命令僅更新系統上已安裝的 VIB,因此,出現了該問題。

    因應措施:若要解決此問題,請執行 esxcli software profile update,如下列範例所示:

    esxcli software profile update -d /vmfs/volumes/datastore1/update-from-esxi6.0-6.0_update02.zip -p ESXi-6.0.0-20160302001-standard

  • 新增問題:ESXi 磁碟分割資料表包含核心傾印磁碟分割時,嘗試升級 ESXi 可能會失敗
    使用 'dd' 命令在 SD 記憶卡上部署 ESXi (使用 VMware 提供的 esxiso2dd 命令建立的 .dd 映像部署 ESXi) 時,ESXi 會在首次開機期間建立核心傾印磁碟分割做為另一個磁碟分割。因此,ESXi 升級會失敗。

    因應措施:若要解決此問題,您需要手動移除另一個核心傾印磁碟分割。請參閱知識庫文章 2144074

  • 更新問題:從舊版 vSphere 6.0 升級至 vSphere 6.0 Update 1 及更高版本之後,Auto Deploy 上的 SSLv3 保持啟用狀態
    當您從舊版 vSphere 6.0 升級至 vSphere 6.0 Update 1 及更高版本時,Auto Deploy 上的 SSLv3 通訊協定保持啟用狀態。

    因應措施:執行下列步驟以使用 PowerCLI 命令停用 SSLv3:

    1. 執行下列命令以連線至 vCenter Server:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <FQDN_hostname or IP Address of vCenter Server>

    2. 執行下列命令以檢查目前的 sslv3 狀態:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 執行下列命令以停用 sslv3:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. 重新啟動 Auto Deploy 服務以更新變更。

  • 在 ESXi 從 5.5.x 升級到 6.0 之後,光纖通道主機匯流排介面卡裝置號碼可能會變更

    在 ESXi 從 5.5.x 升級到 6.0 期間,光纖通道主機匯流排介面卡裝置號碼有時會變更。如果使用 esxcli storage core adapter list 命令,裝置號碼可能會變更為另一個號碼。

    例如,在 ESXi 升級之前,光纖通道主機匯流排介面卡的裝置號碼可能會類似下列內容:

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    在 ESXi 升級到 6.0 之後,光纖通道主機匯流排介面卡的裝置號碼可能會類似下列內容:

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    此範例說明使用 esxcli storage core adapter list 命令可能發生的隨機變更:裝置別名號碼 vmhba2 和 vmhba3 變更為 vmhba64 和 vmhba65,而裝置號碼 vmhba5 和 vmhba6 則保持不變。然而,如果使用 esxcli hardware pci list 命令,則裝置號碼在升級之後不會變更。

    此問題在 VMware 外部,可能不會影響您。ESXi 會顯示裝置別名,但是它不會在任何作業中使用它們。您可以使用主機設定檔來重設裝置別名。請參閱 VMware 產品說明文件及知識庫文章。

    因應措施:無。

  • 升級後不會保留 Active Directory 設定
    將主機升級至 ESXi 6.0 後,不會保留升級前在 ESXi 主機中設定的 Active Directory 設定。

    因應措施:如果升級前 ESXi 版本為 5.1 或更新版本,則在升級後將該主機新增至 Active Directory 網域。如果升級前 ESXi 版本為 ESXi 5.0.x,升級後則不要將該主機新增至 Active Directory 網域。

  • 將 ESXi 升級到先前已新增至網域的 6.0 主機後不再加入該網域
    首次將 vSphere 5.5 升級至 vSphere 6.0 後,不會保留 Active Directory 組態。

    因應措施:升級後,將主機重新加入 vCenter Server 網域:

    1. 將主機新增至 vCenter Server。

    2. 將主機加入網域 (例如 example.com)

    3. 將所有主機升級至 ESXi 6.0。

    4. 手動將最近升級的主機加入網域。

    5. 擷取主機設定檔並停用所有其他設定檔 (除了「驗證」以外)。

    6. 將手動加入的主機設定檔套用至其他最近升級的主機。

  • 在升級 vCenter Server for Windows 後,先前執行的 VMware ESXi Dump Collector 服務重設為預設的 [已停用] 設定
    升級程序會將 VMware Vsphere ESXi Dump Collector 6.0 安裝做為一組 vCenter Server 之選擇性服務的一部分。您必須手動啟用 VMware vSphere ESXi Dump Collector 服務,才能將其用作 vCenter Server 6.0 for Windows 的一部分。

    因應措施:如需如何啟用和執行 vCenter Server 6.0 for Windows 中選擇性服務的相關資訊,請閱讀 VMWare 說明文件或搜尋 VMware 知識庫。

    在作業系統中啟用 VMware vSphere ESXi Dump Collector 服務:

    1. 在 [控制台] 功能表中,選取管理工具,然後按兩下服務

    2. VMware vSphere ESXi Dump Collector編輯啟動類型上按一下滑鼠右鍵。

    3. 啟動類型設定為自動

    4. VMware vSphere ESXi Dump Collector啟動上按一下滑鼠右鍵。

    此時,服務啟動類型將設定為 [自動],且服務處於執行中狀態。

vCenter Single Sign-On 和憑證管理問題
  • 升級 ESXi 主機的 SSL 憑證後,無法連線至虛擬機器主控台
    如果升級由 ESXi 主機使用的 SSL 憑證,並嘗試連線至憑證已被取代時執行的任何虛擬機器的虛擬機器主控台,則可能會導致憑證驗證錯誤。這是因為舊憑證已快取,且任何新主控台連線皆因不相符而遭到拒絕。
    主控台連線仍有可能成功 (例如,如果舊憑證可以透過其他方式進行驗證),但不保證一定成功。現有虛擬機器主控台連線不受影響,但是,如果該主控台在憑證取代期間執行、停止後再重新啟動,則可能會出現問題。

    因應措施:將主機置於維護模式或使其暫停,或者關閉所有虛擬機器電源。僅執行中的虛擬機器受到影響。最佳做法是將主機置於維護模式後執行所有 SSL 憑證升級。

網路問題

  • 某些 vSphere 功能不支援 IPv6
    您可以啟用 IPv6 以用於所有節點和元件,除了下列功能以外:

    • 未對應到 DNS 伺服器上完整網域名稱 (FQDN) 的 ESXi 主機和 vCenter Server 的 IPv6 位址。
      因應措施:使用 FQDN 或確保 IPv6 位址已對應到 DNS 伺服器上的 FQDN,以供反向名稱查閱。

    • 虛擬磁碟區

    • PXE 開機做為 Auto Deploy 和主機設定檔的一部分
      因應措施:透過 IPv4 對 ESXi 主機進行 PXE 開機,然後使用主機設定檔針對 IPv6 設定主機。

    • ESXi 主機和 vCenter Server Appliance 與 Active Directory 的連線
      因應措施:使用 Active Directory over LDAP 做為 vCenter Single Sign-On 中的身分識別來源。

    • 使用 Kerberos 的 NFS 4.1 儲存區
      因應措施:搭配使用 NFS 4.1 與 AUTH_SYS。

    • Authentication Proxy

    • vSphere Management Assistant 和 vSphere Command-Line Interface 與 Active Directory 的連線。
      因應措施:連線至 Active Directory over LDAP。

    • 使用 vSphere Client 針對 vSphere 功能啟用 IPv6
      因應措施:使用 vSphere Web Client 針對 vSphere 功能啟用 IPv6。

  • 使用 ESXi Dump Collector 時可能會發生遞迴危急
    如果主機在顯示紫色診斷畫面並透過網路將核心傾印寫入 ESXi Dump Collector 時處於危急狀態,則可能會發生遞迴核心危急。VMkernel zdump 檔案可能不適用於對 vCenter Server 中的 ESXi Dump Collector 進行疑難排解。

    如果發生遞迴核心危急,則主機上的紫色診斷畫面會顯示下列訊息:
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    如果在大量流量流經實體網路介面卡 (亦設定為將核心傾印傳送至 vCenter Server 上的收集器) 時出現 VMkernel 危急,則可能會發生遞迴核心危急。

    因應措施:執行下列任一項因應措施:

    • 將實體網路介面卡專用於核心傾印傳輸,只為降低來自系統和虛擬機器流量的影響。

    • 透過執行下列 ESXCLI 主控台命令停用主機上的 ESXi Dump Collector:
      esxcli system coredump network set --enable false

儲存區問題

NFS 版本 4.1 問題

  • 在 NFS 4.1 共用從所有路徑失效 (APD) 狀態復原後,NFS 4.1 資料存放區上的虛擬機器失敗
    如果 NFS 4.1 儲存區進入 APD 狀態並在寬限期後結束該狀態,則執行於 NFS 4.1 資料存放區上的已開啟電源的虛擬機器會失敗。此寬限期取決於陣列廠商。
    在 NFS 4.1 共用從 APD 復原之後,您會在 vSphere Web Client 中的虛擬機器摘要頁面上看到下列訊息:
    用於保護 VM.vmdk 的鎖定已遺失,可能是由於基礎儲存區問題而引起的。如果此虛擬機器已設定為高度可用,請先確保該虛擬機器在某些其他主機上執行,然後按一下 [確定]。
    按一下 [確定] 後,會產生當機檔案,而虛擬機器將關閉電源。

    因應措施:無。

  • NFS 4.1 用戶端在嘗試建立新工作階段時與伺服器失去同步
    與伺服器中斷連線一段時間後,NFS 4.1 用戶端可能會在嘗試建立新工作階段時與伺服器失去同步。發生這種情況時,vmkernel.log 檔案會包含一系列節流警告訊息,用於說明 NFS41 CREATE_SESSION 要求失敗並顯示 NFS4ERR_SEQ_MISORDERED。

    因應措施:依序執行下列步驟。

    1. 嘗試取消掛接受影響的檔案系統。如果在取消掛接時沒有開啟任何檔案,此作業會成功,NFS 用戶端模組會清理其內部狀態。然後,可以重新掛接已取消掛接的檔案系統並繼續一般作業。

    2. 中斷 NIC 與掛接之 IP 位址的連線,讓其保留中斷狀態足夠長的時間,以便多個伺服器租用時間到期。五分鐘的時間應該足夠。然後,將 NIC 重新連線。一般作業應繼續進行。

    3. 如果上述步驟皆失敗,請將 ESXi 主機重新開機。

  • NFS 4.1 用戶端與 NFS 伺服器失去同步,即使工作階段已重設亦無法復原連線
    與伺服器中斷連線一段時間後,NFS 4.1 用戶端可能會與伺服器失去同步,且即使工作階段已重設亦無法復原與伺服器的同步連線。此問題由 EMC VNX 伺服器問題所致。 發生這種情況時,vmkernel.log 檔案會包含一系列用於說明 NFS41 的節流警告訊息:NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug

    因應措施:若要結束工作階段,請取消掛接所有資料存放區,然後將其重新掛接。

  • ONTAP Kerberos 磁碟區變得無法存取或發生虛擬機器 I/O 失敗
    NetApp 伺服器收到順序錯誤的 RPCSEC_GSS 要求時沒有回應。因此,對應的 I/O 作業將停止,除非該作業終止且客體作業系統停止或發生 I/O 錯誤。此外,根據 RFC 2203,用戶端僅可以具有與 seq_window (32,若為 ONTAP) 相等的大量未完成要求 (根據 RPCSEC_GSS 內容),且必須等待直到伺服器完成最低的未完成要求。因此,伺服器永遠不會回覆順序錯誤的 RPCSEC_GSS 要求,當用戶端達到最大未完成要求 seq_window 數目後,會停止傳送要求至伺服器。這會造成磁碟區變得無法存取。

    因應措施:無。檢查最新的硬體相容性清單 (HCL),以找到已解決此問題的受支援 ONTAP 伺服器。

  • 無法在 EMC VNX 中的 NFS 4.1 資料存放區上建立大於 1 TB 的虛擬磁碟
    EMC VNX (含韌體 7.x 版本) 中的 NFS 4.1 版儲存區僅支援 32 位元的檔案格式。這會防止您在 NFS 4.1 資料存放區上建立大於 1 TB 的虛擬機器檔案。

    因應措施:將 EMC VNX 陣列更新至 8.x 版本。

  • 在韌體升級期間,EMC VNX 儲存區支援的 NFS 4.1 資料存放區變得無法存取
    將 EMC VNX 儲存區升級至新韌體時,掛接在 ESXi 主機上的 NFS 4.1 資料存放區會變得無法存取。出現這種情況的原因在於 VNX 伺服器在韌體升級後變更其主要裝置編號。主機上的 NFS 4.1 用戶端未預期與伺服器建立連線之後變更主要編號,並導致資料存放區永久無法存取。

    因應措施:取消掛接由 VNX 伺服器匯出的所有 NFS 4.1 資料存放區,然後升級韌體。

  • 當 ESXi 主機使用不同的安全機制掛接相同的 NFS 4.1 資料存放區時,虛擬機器可能會發生故障
    如果不同的 ESXi 主機使用不同的安全機制 (AUTH_SYS 和 Kerberos) 掛接相同的 NFS 4.1 資料存放區,則置於該資料存放區上的虛擬機器可能會出現問題和故障。例如,您嘗試將虛擬機器從 host1 移轉到 host2 可能會失敗,並顯示權限遭拒錯誤。在您嘗試從 host2 存取 host1 虛擬機器時,也可能會看到這些錯誤。

    因應措施:確保掛接 NFS 4.1 磁碟區的所有主機使用相同的安全類型。

  • 嘗試將唯讀檔案複製到使用 Kerberos 的 NFS 4.1 資料存放區失敗
    當您嘗試從來源檔案複製資料到目標檔案時,可能會失敗。目標檔案仍為空白。

    因應措施:無。

  • 當您建立資料存放區叢集時,不保證統一 NFS 4.1 安全類型
    建立資料存放區叢集時,vSphere 不會確認及強制統一 NFS 4.1 安全類型。因此,使用不同安全類型 (AUTH_SYS 和 Kerberos) 的資料存放區可能屬於相同的叢集。如果從使用 Kerberos 的資料存放區移轉虛擬機器至使用 AUTH_SYS 的資料存放區,則虛擬機器的安全性層級會降低。
    此問題適用於 vMotion、Storage vMotion、DRS 和 Storage DRS 等功能。

    因應措施:如果您的虛擬機器需要 Kerberos 安全性,請確保組成同一叢集的所有 NFS 4.1 磁碟區僅使用 Kerberos 安全類型。請勿包括 NFS 3 資料存放區,因為 NFS 3 僅支援 AUTH_SYS。

Virtual Volumes 問題

  • 由於 Virtual Volumes VASA 提供者使用的憑證不正確,無法建立虛擬資料存放區
    有時,Virtual Volumes VASA 提供者使用的自我簽署憑證可能會在未設定 keyCertSign 位元的情況下將 KeyUsage 延伸錯誤地定義為嚴重。在此情況下,提供者登錄成功。但是,您無法從 VASA 提供者報告的儲存區容器建立虛擬資料存放區。

    因應措施:在提供者登錄時由 VASA 提供者使用的自我簽署憑證不應該在未設定 keyCertSign 位元的情況下將 KeyUsage 延伸定義為嚴重。

一般儲存區問題

  • 新增問題:ESXi 6.0 Update 2 主機連線到具有特定韌體版本之特定儲存陣列後,可能會遇到 I/O 逾時及後續中止
    ESXi 6.0 Update 2 主機連線到具有特定韌體版本之特定儲存陣列後,會將 SMART 資料要求傳送至儲存陣列,如果該陣列回應時顯示 PDL 錯誤,則 6.0 Update 2 中的 PDL 回應行為可能導致因這些失敗命令持續重試而封鎖其他命令的情況。此錯誤會導致大範圍的 I/O 逾時及後續中止。

    此外,ESXi 主機重新開機後,可能需要較長時間才能重新連線至 vCenter Server,或者主機可能會在 vCenter Server 中顯示為「沒有回應」狀態。諸如 HBA 重新掃描等與儲存區相關的工作可能需要很長時間才能完成。

    因應措施:若要解決此問題,請參閱知識庫文章 2133286

  • 從現有磁碟建立新的虛擬機器時,vSphere Web Client 會將儲存區原則錯誤地顯示為已附加
    當您使用 vSphere Web Client 從現有磁碟建立新虛擬機器,並在設定磁碟時指定儲存區原則時。若選取新的虛擬機器 --> 按一下虛擬機器原則 --> 編輯虛擬機器儲存區原則,篩選器會顯示為已附加,但篩選器實際上並未附加。您可以查看 .vmdk 檔案或 vmkfstools --iofilterslist <vmdk-file>,確認篩選器是否附加。

    因應措施:建立新的虛擬機器後,在開啟其電源之前,按一下虛擬機器原則 --> 編輯虛擬機器儲存區原則,將篩選器新增到 vmdk。

  • NFS 查詢作業傳回 NFS STALE 錯誤
    當您在 NFS 資料存放區中部署大量虛擬機器時,虛擬機器部署會因競爭情形而失敗,並顯示類似下列內容的錯誤訊息:

    失效 NFS 檔案控點

    因應措施:重新啟動查詢作業。如需詳細資訊,請參閱知識庫文章 2130593

  • 如果已使用 QLogic iSCSI 介面卡,則嘗試在 Dell EqualLogic LUN 上建立 VMFS 資料存放區失敗
    無法在透過 QLogic iSCSI 介面卡探索到的 Dell EqualLogic 儲存裝置上建立 VMFS 資料存放區。
    如果嘗試失敗,vCenter Server 上會顯示下列錯誤訊息:無法建立檔案系統,如需詳細資料請參閱 VMkernel 記錄: 連線已逾時。VMkernel 記錄包含持續的 iscsi 工作階段已封鎖iscsi 工作階段已取消封鎖訊息。在 Dell EqualLogic 儲存區陣列上,監控記錄針對 QLogic 啟動器 IQN 名稱顯示從啟動器收到的封包出現通訊協定錯誤訊息。

    使用下列元件時會出現此問題:

    • Dell EqualLogic 陣列韌體:V6.0.7

    • QLogic iSCSI 介面卡韌體版本:3.00.01.75

    • 驅動程式版本:5.01.03.2-7vmw-debug

    因應措施:在 QLogic iSCSI 介面卡上啟用 iSCSI ImmediateData 介面卡參數。依預設,此參數會關閉。無法透過 vSphere Web Client 或 esxcli 命令變更此參數。若要變更此參數,請使用廠商提供的軟體,例如 QConvergeConsole CLI。

  • 具有 Emulex OneConnect HBA 的 ESXi 主機無法開機
    如果 ESXi 主機已安裝 Emulex OneConnect HBA,該主機可能無法開機。可能是因為 Emulex 韌體存在問題而導致此失敗。

    因應措施:若要更正此問題,請連絡 Emulex 以取得適用於您的 HBA 的最新韌體。

    如果您繼續使用舊版韌體,請遵循下列步驟以避免開機失敗:

    1. ESXi 載入時,請在開機 ESXi 核心之前按 Shift+O。

    2. 將現有開機選項保留原樣,然後新增空格後面跟隨 dmaMapperPolicy=false

  • Flash Read Cache 在 APD 期間不會加速 I/O
    如果設定為 Flash Read Cache 之虛擬 Flash 資源的快閃磁碟發生故障或無法存取,或磁碟儲存區無法從主機取得連線,則該主機上的 Flash Read Cache 執行個體無效且無法加速 I/O。因此,當主機和儲存區之間的連線重新建立後,快取不會提供失效資料。連線中斷可能是暫時的所有路徑失效 (APD) 情況,也可能是永久的永久裝置遺失 (PDL)。此情況持續存在,直到虛擬機器已重新開啟電源。

    因應措施:可以將虛擬機器重新開啟電源,以使用 Flash Read Cache 還原 I/O 加速。

  • 所有路徑失效 (APD) 或路徑容錯移轉可能會導致系統失敗
    在共用 SAS 環境中,如果磁碟由 lsi_msgpt3 驅動程式宣告且發生大量 I/O 活動,則 APD 或路徑容錯移轉情況可能會導致系統失敗。

    因應措施:無

  • 頻繁使用 SCSI 中止命令會導致系統失敗
    由於大量 I/O 活動,頻繁使用 SCSI 中止命令會導致 MegaRAID 控制器回應速度很慢。如果已在先前內容中發佈的資源參考出現非預期的中斷情況,可能會導致系統失敗。

    因應措施:無

  • 當 IQN 發生變更時,iSCSI 連線失敗且資料存放區變得無法存取
    當 iSCSI 介面卡上的 iSCSI 工作階段仍處於作用中狀態時,如果變更該介面卡的 IQN,則可能會發生此問題。

    因應措施:當您變更 iSCSI 介面卡的 IQN 時,該介面卡上的工作階段不應該處於作用中狀態。移除介面卡上的所有 iSCSI 工作階段和所有目標,然後再變更 IQN。

  • nvmecli 上線和離線作業並非永遠生效
    當您執行 nvmecli device online -A vmhba* 作業使 NVMe 裝置上線時,該作業似乎已成功。但是,該裝置可能仍處於離線狀態。

    因應措施:透過執行 nvmecli device list 命令檢查 NVMe 裝置的狀態。

伺服器組態問題
  • 在從可設定狀態之主機將主機設定檔套用到使用 Auto Deploy 佈建的主機時,修復失敗
    當從有狀態部署的主機將主機設定檔套用到使用 Auto Deploy 佈建的主機 (無狀態主機,無本機儲存區) 時,修復嘗試會失敗,並顯示下列錯誤訊息之一:

    • PCI 匯流排位址為 sxxxxxxxx.xx 的 vmhba 裝置不存在於您的主機上。必須先關閉,然後再將卡插入 PCI 插槽 yy。卡的類型應與參考主機上的卡完全相符。

    • 找不到任何有效的核心傾印磁碟分割。

    因應措施:從主機設定檔停用導致問題 (例如,裝置別名組態或核心傾印組態) 的外掛程式,然後修復主機設定檔。

  • 將具有靜態 IP 的主機設定檔套用到主機導致符合性錯誤
    如果從具有 DHCP 網路組態的主機擷取主機設定檔,然後編輯主機設定檔使其擁有靜態 IP 位址,則在您將其套用到其他主機時,會發生符合性錯誤,並顯示下列訊息:

    IPv4 路由數目不相符。

    因應措施:從 DHCP 主機解壓縮主機設定檔前,對主機進行設定,使其具有一個靜態 IP 位址。

  • 當您熱新增已過度認可網路資源的虛擬網路介面卡時,虛擬機器電源可能會關閉
    在已啟用 Network I/O Control 的 vSphere Distributed Switch 上,已開啟電源的虛擬機器將根據主機上實體網路介面卡上的虛擬機器系統流量保留區設定頻寬保留區。將網路介面卡熱新增至已超過主機上實體網路介面卡中可用頻寬的虛擬機器設定網路頻寬保留區。

    熱新增網路介面卡時,VMkernel 會啟動快速暫停和繼續 (FSR) 程序。由於虛擬機器所需網路資源超過可用資源,因此,VMkernel 將使用 FSR 程序的失敗路徑。此失敗路徑的錯誤會導致虛擬機器關閉電源。

    因應措施:不要在網路介面卡新增至已開啟電源的虛擬機器時設定頻寬保留區。

VMware HA 和 Fault Tolerance 問題
  • 舊版 Fault Tolerance (FT) 在 Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台上不受支援
    舊版 FT 在 Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台上不受支援。在啟用單一處理器的舊版 Fault Tolerance 後,嘗試開啟虛擬機器電源會失敗。

    因應措施:無。

客體作業系統問題
  • 在熱插拔後嘗試在 NVMe PCIe SSD 裝置上啟用傳遞模式可能會失敗
    若要透過 vSphere Web Client 在 SSD 裝置上啟用傳遞模式,您可以選取主機,依序按一下管理索引標籤和設定,導覽至硬體區段,按一下 PCI 裝置 > 編輯,從可啟用用於傳遞的作用中裝置清單中選取裝置,然後按一下確定。但是,當您針對不具有 PCIe NVMe 磁碟機的 ESXi 6.0 主機熱插拔新的 NVMe 裝置時,新的 NVMe PCIe SSD 裝置將無法啟用用於傳遞模式,且不會顯示在可用傳遞裝置清單中。

    因應措施:重新啟動主機。也可以在 ESXi 主機上執行命令。

    1. 以根使用者身分登入。

    2. 執行命令
      /etc/init.d/hostd start

支援的硬體問題
  • 執行 esxcli 以取得磁碟位置時,HP 伺服器上 Avago 控制器的結果不正確

    針對 HP 伺服器上的 Avago 控制器執行 esxcli storage core device physical get 時,結果不正確。

    例如,如果執行:
    esxcli storage core device physical get -d naa.5000c5004d1a0e76
    系統會傳回:
    Physical Location: enclosure 0, slot 0

    實體伺服器上該插槽的實際標籤為 1。

    因應措施:仔細檢查 HP 伺服器上的插槽。由於 HP 伺服器上的插槽號碼是從 1 開始,因此您必須增加命令傳回的插槽號碼才能取得正確的結果。

CIM 和 API 問題
  • sfcb-vmware_raw 可能會失敗
    sfcb-vmware_raw 可能會失敗,因為配置的最大預設外掛程式資源群組記憶體不夠。

    因應措施:使用以下命令新增用於 sfcbd 外掛程式記憶體限制的 UserVars CIMOemPluginsRPMemMax,並重新啟動 sfcbd,使新的外掛程式值生效:

    esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

    XXX 是您要配置的記憶體限制。此值應在最小值 (175) 和最大值 (500) 的範圍內。