VMware ESXi 6.0 Update 1a 版本說明

|

更新時間:2015 年 10 月 6 日

ESXi 6.0 Update 1a | 2015 年 10 月 6 日 | ISO 組建編號 3073146

查看這些版本說明的新增項目和更新。

版本說明的內容

此版本說明涵蓋下列主題:

新增功能

此版本 VMware ESXi 包含下列增強功能:

  • I/O 篩選器:vSphere APIs for I/O Filtering (VAIO) 提供一種架構,可允許第三方建立稱為 I/O 篩選器的軟體元件。這些篩選器可以安裝在 ESXi 主機上,並且能夠處理在虛擬機器和虛擬磁碟客體作業系統間移動的 I/O 要求,從而向虛擬機器提供其他資料服務。

  • 與低延遲虛擬機器相關聯的其他系統內容的獨佔相似性:此版本採用了全新的 VMX 選項 sched.cpu.latencySensitivity.sysContexts 來解決 vSphere 6.0 中大部分系統內容仍為 Worldlet 的問題。排程器會利用 sched.cpu.latencySensitivity.sysContexts 選項,讓各虛擬機器自動識別可能涉及延遲敏感之工作負載的一組系統內容。針對其中每項系統內容,會提供一個專屬實體核心的獨佔相似性。VMX 選項 sched.cpu.latencySensitivity.sysContexts 會指出低延遲虛擬機器可以為系統內容取得的獨佔核心數目。

  • Active Directory 的 ESXi 驗證:ESXi 已進行修改,僅支援 ESXi 和 Active Directory 之間 Kerberos 通訊的 AES256-CTS/AES128-CTS/RC4-HMAC 加密。

  • 對 SSLv3 的支援:依預設已停用對 SSLv3 的支援。如需更多詳細資訊,請參閱知識庫文章 2121021

  • 無作用磁碟處理 (DDH):無作用磁碟處理功能在核心中提供延遲監控架構、用於偵測高延遲時間的精靈以及用於取消掛接個別磁碟和磁碟群組的機制。

  • 展開的叢集:Virtual SAN 6.0 Update 1 支援跨地理位置之展開的叢集,可保護資料免受站台故障或網路連線中斷的影響。

舊版 ESXi 6.0

每個版本的版本說明中均說明了 ESXi 6.0 的功能和已知問題。舊版 ESXi 6.0 的版本說明如下:

國際化

VMware ESXi 6.0 提供下列語言版本:

  • 英文
  • 法文
  • 德文
  • 日文
  • 韓文
  • 簡體中文
  • 西班牙文
  • 繁體中文

VMware vSphere 6.0 元件 (包括 vCenter Server、ESXi、vSphere Web Client 和 vSphere Client) 不接受非 ASCII 輸入。

相容性

ESXi、vCenter Server 和 vSphere Web Client 版本相容性

VMware 產品互通性對照表提供有關 VMware vSphere 元件目前版本及舊版之間相容性的詳細資料,包括 ESXi、VMware vCenter Server、vSphere Web Client 及選用 VMware 產品。安裝 ESXi 或 vCenter Server 之前,亦請查看 VMware 產品互通性對照表中有關支援的管理與備份代理程式的資訊。

vSphere Web Client 隨 vCenter Server 一併封裝。您可以透過 VMware vCenter 自動執行功能表安裝屬於模組 ISO 檔案的 vSphere Client。

ESXi 的硬體相容性

若要檢視與 vSphere 6.0 相容的處理器、儲存裝置、SAN 陣列以及 I/O 裝置的清單,請參閱《VMware 相容性指南》中的 ESXi 6.0 資訊。

ESXi 的裝置相容性

若要判定與 ESXi 6.0 相容的裝置,請參閱《VMware 相容性指南》中的 ESXi 6.0 資訊。

某些裝置已過時,不再受 ESXi 6.0 支援。在執行升級程序期間,裝置驅動程式會安裝在 ESXi 6.0 主機上。裝置驅動程式可能仍會在 ESXi 6.0 上運作,但是該裝置不再受 ESXi 6.0 支援。如需已過時且不再受 ESXi 6.0 支援的裝置清單,請參閱知識庫 2087970

ESXi 的第三方交換器相容性

VMware 現在支援具備 vSphere 6.0 的 Cisco Nexus 1000V。vSphere 至少需要 5.2(1)SV3(1.4) 版的 NX-OS。如需有關 Cisco Nexus 1000V 的詳細資訊,請參閱 Cisco 版本說明。在舊版 vSphere 中,並不支援 Ciscso Nexus 1000V AVS 模式。

ESXi 的客體作業系統相容性

若要判定與 vSphere 6.0 相容的客體作業系統,請參閱《VMware 相容性指南》中的 ESXi 6.0 資訊。

ESXi 的虛擬機器相容性

ESXi 6.0 支援與 ESX 3.x 及更新版本 (硬體版本 4) 相容的虛擬機器。不支援與 ESX 2.x 及更新版本 (硬體版本 3) 相容的虛擬機器。若要在 ESXi 6.0 上使用此類虛擬機器,請升級虛擬機器相容性。請參閱《vSphere 升級》說明文件。

此版本的安裝和升級

此版本的安裝說明

請閱讀《vSphere 安裝和設定》說明文件,以取得安裝和設定 ESXi 與 vCenter Server 的指引。

雖然安裝非常簡易,但幾個後續組態步驟卻是不可或缺的。請閱讀下列說明文件:

建議的 vSphere 6.0 部署模型

VMware 僅建議兩種部署模型:

  • 含內嵌式 Platform Services Controller 的 vCenter Server。如果需要在資料中心內部署一或多個獨立 vCenter Server 執行個體,則建議使用此模型。不建議在這些含內嵌式 Platform Services Controller 的 vCenter Server 的模型之間執行複寫。

  • 含外部 Platform Services Controller 的 vCenter Server。僅當需要連結多個 vCenter Server 執行個體或想要減少資料中心內的 Platform Services Controller 使用量時,才建議使用此模型。支援在這些含外部 Platform Services Controller 的 vCenter Server 的模型之間執行複寫。

請閱讀《vSphere 安裝和設定》說明文件,以取得安裝和設定 vCenter Server 的指引。

另請閱讀 KB 2108548,以取得安裝和設定 vCenter Server 的指引。

vCenter 主機作業系統資訊

閱讀知識庫文章 KB 2091273

備份和還原使用外部 Platform Services Controller 進行的 vCenter Server 和 vCenter Server Appliance 部署

儘管《vSphere 安裝和設定》說明文件中的聲明限制您嘗試備份和還原使用外部 Platform Services Controller 的 vCenter Server 和 vCenter Server Appliance 部署,您仍可以透過依照知識庫 2110294 中的步驟來執行此工作。

從內嵌式 Platform Services Controller 移轉至外部 Platform Services Controller

含內嵌式 Platform Services Controller 的 vCenter Server 無法自動移轉至含外部 Platform Services Controller 的 vCenter Server。此移轉公用程式的測試尚未完成。

在安裝 vCenter Server 之前,判定所需部署選項。如果複寫設定需要多部 vCenter Server,請始終部署含外部 Platform Services Controller 的 vCenter。

移轉第三方解決方案

如需有關透過第三方自訂項目進行升級的資訊,請參閱《vSphere 升級》說明文件。如需有關使用 Image Builder 來自訂 ISO 的資訊,請參閱《vSphere 安裝和設定》說明文件。

不允許對不支援的 CPU 進行升級和安裝

vSphere 6.0 僅支援 2006 年 6 月 (第三季度) 後可供使用的處理器。與 vSphere 5.x 支援的處理器相比,vSphere 6.0 不再支援下列處理器:

  • AMD Opteron 12xx 系列
  • AMD Opteron 22xx 系列
  • AMD Operton 82xx 系列

在安裝或升級期間,安裝程式會檢查主機 CPU 與 vSphere 6.0 的相容性。如果您的主機硬體不相容,將有紫色畫面顯示關於不相容的資訊訊息,並停止 vSphere 6.0 安裝程序。

此版本的升級說明

如需有關升級 vCenter Server 與 ESX/ESXi 主機的指示,請參閱《vSphere 升級》說明文件。

VMware vSphere 6.0 的開放原始碼元件

下列網址提供了適用於 vSphere 6.0 中散佈的開放原始碼軟體元件的版權聲明與授權:http://www.vmware.com。您需要登入 My VMware 帳戶。然後,從下載功能表中選取 vSphere。在開放原始碼索引標籤上,您也可以針對任意 GPL、LGPL、需要原始碼或需要修改原始碼的其他相似授權下載來源檔案,使其適用於 vSphere 的最新可用版本。

產品支援通知

  • vCenter Server 資料庫。在 vSphere 6.0 版本中,做為 vCenter Server Appliance 之外部資料庫的 Oracle 11g 和 12c 已被取代。在 vSphere 6.0 中,VMware 將繼續支援 Oracle 11g 和 12c 做為外部資料庫。在未來的主要版本中,VMware 將不支援 Orace 11g 和 12c 做為 vCenter Server Appliance 的外部資料庫。

  • vSphere Web Client。vSphere 6.0 Web Client 中無法再使用物件之監控索引標籤中的儲存區報告選項。

  • vSphere Client。vSphere 6.0 Web Client 中無法再使用儲存區視圖索引標籤。

此版本中包含的修補程式

此版本包含 ESXi 在此產品發行日期之前發行所有公告。如需有關個別公告的詳細資訊,請參閱 VMware 下載修補程式頁面。

ESXi600-Update01 修補程式發行版本包含下列個別公告:

ESXi600-201510401-BG:更新了 ESXi 6.0 esx-base vib

ESXi600-Update01 修補程式發行版本包含下列映像設定檔:

ESXi-6.0.0-20151004001-standard
ESXi-6.0.0-20151004001-no-tools

如需修補程式與更新分類的相關資訊,請參閱知識庫 2014447

已解決的問題

已解決的問題分類如下。

CIM 和 API 問題
  • 如果同一部 ESXi 主機上安裝有 Emulex CIM Provider,則 ServerView CIM Provider 無法監控硬體狀態
    ServerView CIM Provider 與 Emulex CIM Provider 安裝在同一部 ESXi 主機上時,Emulex CIM Provider (sfcb-emulex_ucn) 可能無法回應,從而導致無法監控硬體狀態。

    已在此版本中解決此問題。
客體作業系統問題
  • 從 EFI 開機的 Linux 客體可能無法回應鍵盤和滑鼠輸入
    如果 EFI 開機時滑鼠於短時間內移動,在 EFI 韌體上開機的 Linux 客體作業系統可能無法回應鍵盤和滑鼠輸入。

    已在此版本中解決此問題。

升級與安裝問題
  • 在無狀態 ESXi 主機上套用已啟用無狀態的快取的主機設定檔可能需要很長時間才能完成
    使用 esx 做為第一個磁碟引數來啟用無狀態的快取時,在包含大量儲存區 LUN 的無狀態 ESXi 主機上套用主機設定檔可能需要很長時間才能重新開機。手動套用主機設定檔時或在主機重新開機期間會發生此情況。

    已在此版本中解決此問題。

  • 無法在荷蘭文版 Windows Server 2008 R2 上安裝或升級至 VMware Tools 9.10.0 版
    嘗試在荷蘭文版 Windows Server 2008 R2 上安裝或升級至 ESXi 6.0 中提供的 VMware Tools 9.10.0 版可能會失敗。會顯示類似下列內容的錯誤訊息:

    VMware Tools 安裝精靈提前結束

    已在此版本中解決此問題。

  • VIB 暫存作業可能會導致 VIB 安裝或組態變更在 ESXi 主機重新開機後遺失
    在系統上安裝某些 VIB 時,esxupdate 會在 /altbootbank 中建構新的映像,並將 /altbootbank boot.cfg bootstate 變更為已更新。當安裝即時可安裝的 VIB 時,系統會將組態變更儲存至 /altbootbank。暫存作業會刪除 /altbootbank 的內容,除非您在暫存作業後執行修復作業。如果您在暫存作業後將主機重新開機,VIB 安裝可能會遺失。

    已在此版本中解決此問題。

網路問題
  • 嘗試將 vmnic 新增至 VDS 上的 ESXi 主機會失敗,並顯示位址家族不受支援錯誤
    從 ESXi 5.5 升級至 6.0 後,嘗試將 vmnic 新增至與 vSphere Distributed Switch (VDS) 連線的 VMware ESXi 主機可能會失敗。當啟用 ipfix 並停用 IPv6 時,便會發生此問題。

    在受影響 ESXi 主機上的 /var/log/vmkernel.log 檔案中,您會看到類似下列內容的項目:

    cpu10:xxxxx opID=xxxxxxxx)WARNING: Ipfix: IpfixActivate:xxx: Activation failed for 'DvsPortset-1': 位址家族不受支援
    cpu10:xxxxx opID=xxxxxxxx)WARNING: Ipfix: IpfixDVPortParamWrite:xxx: Configuration failed for switch DvsPortset-1 port xxxxxxxx : 位址家族不受支援
    cpu10:xxxxx opID=xxxxxxxx)WARNING: NetDVS: xxxx: failed to init client for data com.vmware.etherswitch.port.ipfix on port xxx
    cpu10:xxxxx opID=xxxxxxxx)WARNING: NetPort: xxxx: failed to enable port 0x4000002: Unsupported address family
    cpu10:xxxxx opID=xxxxxxxx)NetPort: xxxx: disabled port 0x4000002
    cpu10:xxxxx opID=xxxxxxxx)Uplink: xxxx: vmnic2: Failed to enable the uplink port 0x4000002: Unsupported address family

    已在此版本中解決此問題。

  • 嘗試從 iPXE 開機時,使用 VMXNET3 虛擬介面卡的虛擬機器可能會出現故障
    嘗試從 iPXE (開放原始碼開機韌體) 開機時,使用 VMXNET3 虛擬介面卡的虛擬機器可能會出現故障。

    已在此版本中解決此問題。

  • 根據實體 NIC 負載使用負載平衡時,如果上行中斷連線或關閉,容錯移轉不會起始
    根據 VDS 6.0 中的實體 NIC 負載使用負載平衡時,如果其中一個上行中斷連線或關閉,則容錯移轉不會起始。

    已在此版本中解決此問題。

  • vmk10 或更高版本啟用 vMotion 時,vmk1 可能在重新開機時啟用 vMotion
    在 vmk10 或更高版本上啟用 vMotion 可能導致 vmk1 在 ESXi 主機重新開機時啟用 vMotion。此問題可能導致 vmk1 流量過大,並導致網路問題。

    已在此版本中解決此問題。

  • 若虛擬機器設定有連線至標準 vSwitch 的 VMXNET3,則不提供虛擬機器網路效能資料度量
    您無法在 VMware vSphere Client 6.0 中檢視設定有 VMXNET3 介面卡的虛擬機器之網路的即時效能圖,因為在切換到下拉式清單中不提供該選項。

    已在此版本中解決此問題。

  • 在執行 Auto Deploy 期間套用主機設定檔時網路連線中斷
    在執行 Auto Deploy 期間套用主機設定檔時,可能會中斷網路連線,因為 VXLAN 通道端點 (VTEP) NIC 已標記為管理 vmknic。

    已在此版本中解決此問題。

  • 巢狀 ESXi 可能會中斷連線,e1000e 虛擬 NIC 可能會重設
    巢狀 ESXi 可能會間歇性地中斷連線,e1000e 虛擬 NIC 可能會重設。也可能會觀察到 NFS 磁碟區的所有路徑失效 (APD) 情況。類似下列內容的錯誤訊息會寫入 vmkernel.log 檔案

    packets completion seems stuck, issuing reset

    已在此版本中解決此問題。

  • 新增問題 從 ESXi 5.x 升級到 ESXi 6.0 之後發生網路連線問題
    從 ESXi 5.x 升級到 ESXi 6.0 之後,您可能會遇到下列問題:

    • ESXi 6.0 主機可能會隨機中斷網路連線

    • ESXi 6.0 主機變得無回應且不可管理,要重新開機才行

    • 重新開機之後,該問題將在一段時間內暫時得以解決,但是經過隨機間隔後會再次發生

    • 傳輸逾時通常由 ESXi 主機中的 NETDEV WATCHDOG 服務記錄。您可能會在 /var/log/vmkernel.log 檔案中看到類似下列內容的項目:

      cpu0:33245)WARNING: LinNet: netdev_watchdog:3678: NETDEV WATCHDOG: vmnic0: transmit timed out
      cpu0:33245)WARNING: at vmkdrivers/src_92/vmklinux_92/vmware/linux_net.c:3707/netdev_watchdog() (inside vmklinux)

    • 此問題會影響多個硬體廠商之間的多個網路介面卡類型。傳輸逾時期間發生的準確記錄可能因卡而有所不同。

    已在此版本中解決此問題。

儲存區問題
  • 將多個 vSCSI 篩選器附加至虛擬機器 磁碟時,ESXi 主機可能會失敗,並顯示紫色診斷畫面
    多個 vSCSI 篩選器附加至一個虛擬機器 磁碟時,ESXi 6.0 主機可能失敗,並顯示紫色診斷畫面。紫色診斷畫面或反向追蹤包含類似下列內容的項目:

    cpu24:nnnnnn opID=nnnnnnnn)@BlueScreen: #PF Exception 14 in world 103492:hostd-worker IP 0x41802c2c094d addr 0x30
    PTEs:0xnnnnnnnn;0xnnnnnnnnnn;0x0;
    cpu24:nnnnnn opID=nnnnnnnn)Code start: 0xnnnnnnnnnnnn VMK uptime: 21:06:32:38.296
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_GetFilterPrivateData@vmkernel#nover+0x1 stack: 0xnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_IssueInternalCommand@vmkernel#nover+0xc3 stack: 0xnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FileSyncRead@<None>#<None>+0xb1 stack: 0x0
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_DigestRecompute@<None>#<None>+0xnnn stack: 0xnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FilterDigestRecompute@<None>#<None>+0x36 stack: 0x20
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_SetInfo@vmkernel#nover+0x322 stack: 0xnnnnnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_Set@<None>#<None>+0xef stack: 0x41245111df10
    YYYY-MM-DD TIME cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@<None>#<None>+0x243 stack: 0xnnnnnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0xnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry@vmkernel#nover+0x64 stack: 0x0

    已在此版本中解決此問題。

  • 在非 ATS VMFS 資料存放區的儲存區暫時停頓期間,ESXi 主機停止回應並中斷與 vCenter Server 的連線
    ESXi 主機可能會停止回應且虛擬機器變得無法存取。另外,由於非 ATS VMFS 資料存放區的儲存暫時停頓期間出現的死結,ESXi 主機可能中斷與 vCenter Server 的連線。

    已在此版本中解決此問題。

  • 未共用儲存區和已使用的儲存區未反映虛擬機器的預期值
    多部虛擬機器共用儲存空間時,vSphere Client 摘要頁面顯示的以下值可能不正確:

    • 虛擬機器 [摘要] 頁面中的未共用的儲存區

    • 資料 [摘要] 頁面中的佈建的空間

    • 主機 [虛擬機器] 索引標籤中的已使用空間


    已在此版本中解決此問題。

  • 即使系統中所有磁碟機均顯示在 BIOS 中,vSphere 也可能無法偵測到所有磁碟機
    如果系統中有多個 HBA,由於 lsi_msgpt3 驅動程式無法偵測到每個 HBA 有一個磁碟機,因此 vSphere 可能無法偵測到系統中的所有 18 個磁碟機。

    已在此版本中解決此問題。

  • lsi-mr3 驅動程式無法偵測大於 2 TB 的序列連結 SCSI (SAS) 磁碟機
    lsi_mr3 驅動程式無法偵測大於 2 TB 的 SAS 磁碟機。系統會記錄類似下列內容的錯誤訊息:

    cpu35:33396)WARNING: ScsiDeviceIO: 8469: Plugin entry point isSSD() failed on device naa.5000c50057b932a7 from plugin NMP: 失敗
    cpu35:33396)ScsiDevice: 3025: Failing registration of device 'naa.5000c50057b932a7': failed to get device I/O error attributes.
    cpu35:33396)ScsiEvents: 545: Event Subsystem: Device Events, Destroyed!
    cpu35:33396)WARNING: NMP: nmp_RegisterDevice:673: Registration of NMP device with primary uid 'naa.5000c50057b932a7' failed.I/O 錯誤

    已在此版本中更新 lsi_mr3 驅動程式以解決此問題。

  • VMFS 磁碟區遭鎖定
    ESXi 主機上的 VMFS 磁碟區可能會因為失敗的中繼資料作業而維持鎖定。vmkernel.log 檔案中會出現類似下列內容的錯誤訊息:

    WARNING: LVM: 12976: The volume on the device naa.50002ac002ba0956:1 locked, possibly because some remote host encountered an error during a volume operation and could not recover.

    已在此版本中解決此問題。

  • 嘗試修改從連結複製建立之虛擬機器的儲存區原則可能失敗
    在 vCenter Server 中,嘗試修改從連結複製建立的已開啟電源之虛擬機器的儲存區原則可能會失敗,並顯示類似下列內容的錯誤訊息:

    排程參數變更失敗。

    已在此版本中解決此問題。

  • 附加至 ESXi 6.0 主機的 LUN 可能在路徑復原後保持 APD 逾時狀態
    發生「所有路徑失效 (APD)」事件時,連線至 ESXi 的 LUN 可能在 LUN 復原後仍無法存取。您會在 /var/log/vmkernel.log 中依序看到下列事件:

    1. 裝置進入 APD 狀態。
    2. 裝置結束 APD 狀態。
    3. 裝置上的活動訊號復原和檔案系統作業會由於找不到而失敗。
    4. 儘管事實上裝置先前已結束 APD 狀態,但 APD 逾時仍會到期。

    已在此版本中解決此問題。

  • 由 Virtual SAN 觸發的不必要的重新掃描可能會導致 ESXi 主機和虛擬機器停止回應
    由 Virtual SAN 觸發的不必要的定期裝置及檔案系統重新掃描可能導致環境內的 ESXi 主機和虛擬機器隨機停止回應。

    已在此版本中解決此問題。

  • 在 VSA 佈建的 NFS 儲存區上執行的虛擬機器儲存區效能可能很慢
    觀察到在 VSA 佈建的 NFS 儲存區上執行的虛擬機器上的 NFS 儲存區效能很慢。這是由於 ESXi 機器對 NFS 讀取回應的確認出現延遲。

    透過停用對 LRO TCP 封包的延遲確認,已在此版本中解決此問題。

  • 在不同的儲存區容器間複製虛擬機器會錯誤地將來源 VMId 設為複製的虛擬機器初始 VVOL VMId
    在不同的儲存區容器間複製虛擬機器時,會將來源 Virtual Volumes (VVOL) 的 VMId 當做複製的 VVOL VMID 的初始值。

    已在此版本中解決此問題。

  • WRITE SAME 命令在本機磁碟機上處於停用狀態
    由於某些磁碟機可能無法完全實作 Write Same 功能,進而導致錯誤行為,因此已針對 ESXi 6.0 Update 1 中的本機磁碟機停用 WRITE SAME 命令。或者,您也可以使用 esxcli storage core device vaai status 命令啟用或停用本機磁碟機上的 VAAI。如需詳細資訊,請參閱知識庫文章 2131056

備份問題
  • 在 Linux 虛擬機器上執行快照靜止失敗
    執行 Linux 虛擬機器的靜止快照時,虛擬機器可能在快照作業後失敗。下列錯誤訊息會記錄在 vmware.log 檔案中:

    <YYYY-MM-DD>T<TIME>Z| vmx| I120: SnapshotVMXTakeSnapshotComplete: done with snapshot 'smvi_UUID': 0
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: SnapshotVMXTakeSnapshotComplete: Snapshot 0 failed: Failed to quiesce the virtual machine (40).
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: GuestRpcSendTimedOut: message to toolbox timed out.
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: Vix: [18631 guestCommands.c:1926]: Error VIX_E_TOOLS_NOT_RUNNING in MAutomationTranslateGuestRpcError(): VMware Tools are not running in the guest

    已在此版本中解決此問題。

安全性問題
  • Python 套件更新
    Python 第三方程式庫已更新至 2.7.9 版。
  • libPNG 程式庫更新
    libPNG 程式庫已更新至 libpng-1.6.16。
  • OpenSSL 程式庫更新
    ESXi userworld OpenSSL 程式庫已更新至 openssl-1.0.1m 版。
  • libxml2 程式庫更新
    ESXi userworld libxml2 程式庫已更新至 2.9.2 版。

  • 對 VMware Tools libPNG 和 libxml2 程式庫的更新
    VMware Tools libPNG 和 libxml2 程式庫已分別更新至 1.2.52 版和 2.9.2 版。
  • 對 VMware Tools OpenSSL 程式庫的更新
    VMware Tools OpenSSL 程式庫已更新至 openssl-0.9.8zg 版。
伺服器組態問題
  • 您可以為主機設定檔引擎設定偵錯記錄和啟用追蹤記錄
    當主機透過 Active Directory 開機時,新的主機設定檔外掛程式可用來收集 ESXi 主機設定檔引擎的偵錯記錄和啟用追蹤記錄。

  • 使用 NVIDIA GRID vGPU 裝置時,嘗試重新啟動大量虛擬機器可能會失敗
    使用 NVIDIA GRID vGPU 裝置時,若同時重設大量虛擬機器,部分虛擬機器重新開機可能會失敗。畫面上可能會顯示類似下列內容的重新開機錯誤:

    VMIOP:vGPU grid_k100 無可用的圖形裝置。

    已在此版本中解決此問題。

  • 設定某個虛擬機器的 CPU 限制對其他虛擬機器的影響
    當您設定單一處理器虛擬機器的 CPU 限制時,ESXi 整體使用率可能會因 ESXi 排程器中的某個瑕疵而下降。當 ESXi 排程器將限制 CPU 的虛擬機器視為可執行 (當它們並未執行時),並做出 CPU 負載評估時,就會發生此情形。從而導致不正確的負載平衡決策。如需更多詳細資訊,請參閱知識庫文章 2096897

    已在此版本中解決此問題。

  • 嘗試建立 FIFO 並向其寫入資料可能會導致出現紫色診斷畫面
    當您建立 FIFO 並嘗試向 /tmp/dpafifo 寫入資料時,可能會在某些情況下顯示紫色診斷畫面。

    已在此版本中解決此問題。
  • 使用傳遞裝置時,進階錯誤報告功能會停用
    當收集裝置上的 PCI 資訊以供傳遞時,該裝置的錯誤報告功能會停用。

    藉由提供讓 PCI 傳遞裝置報告錯誤的 VMkernel 開機選項 pcipDisablePciErrReporting,已在此版本中解決此問題。依預設,此選項設定為 TRUE,表示已停用錯誤報告。
  • 當 CPU 沒有完全保留時,虛擬機器可能無法顯示警告訊息
    在將 sched.cpu.latencySensitivity 設為高且開啟電源的情況下建立虛擬機器時,如果虛擬機器沒有完整的 CPU 保留,則可能不會啟用 vCPU 的獨佔相似性。

    在舊版中,當 CPU 沒有完全保留時,虛擬機器不會顯示警告訊息。

    已在此版本中解決此問題。
  • 命令 esxcli system snmp set -p 已更新
    SNMP 代理程式已設為使用命令 esxcli system snmp set -p <port> 接聽自訂連接埠。在 ESXi 6.0 Update 1 中,從 32768 到 40959 的一組 tcp/udp 連接埠已保留以供第三方使用。此範圍不再允許由其他連接埠使用。

    在升級到 ESXi 6.0 Update 1 之後,如果自訂連接埠設在此範圍內,SNMP 代理程式將不會啟動,並且會顯示範圍檢查錯誤。
  • SNMP syscontact 或 syslocation 進行簡單變更後,主機設定檔即變成不符合標準
    SNMP syscontact 或 syslocation 進行簡單變更後,主機設定檔即變成不符合標準。發生此問題的原因在於,SNMP 主機設定檔外掛程式只會將單一值套用到附加至主機設定檔的所有主機。可能會顯示類似下列內容的錯誤訊息:

    SNMP 代理程式組態差異

    藉由針對特定參數 (例如 syslocation、syscontact、v3targets、v3users 和 engineid) 啟用按照每台主機的值設定,已在此版本中解決此問題。
虛擬機器管理問題
  • vSphere Flash Read Cache 的效能計數器可能無法在虛擬機器上使用
    在虛擬磁碟上啟用 CBT 時,vFlash 快取度量計數器 (例如 FlashCacheIOPsFlashCacheLatencyFlashCacheThroughput) 可能無法使用。類似下列內容的錯誤訊息可能記錄在 stats.log 檔案中:

    xxxx-xx-xxTxx:xx:xx.200Z [xxxxxxxx error 'Statssvc.vim.PerformanceManager'] CollectVmVdiskStats : Failed to get VFlash Cache stats for vscsi id scsi0:0 for vm 3
    xxxx-xx-xxTxx:xx:xx.189Z [xxxxxxxx error 'Statssvc.vim.PerformanceManager'] GetVirtualDiskVFCStats: Failed to get VFlash Cache stat values for vmdk scsi0:0.Exception VFlash Cache filename not found!

    已在此版本中解決此問題。

  • 無法啟動顯示器解析度較高並具有多部監視器設定的虛擬機器
    嘗試使用 PCOIP 解決方案從 VDI 啟動顯示器解析度較高並具有多部監視器設定的虛擬機器可能會失敗。虛擬機器啟動失敗並進入關閉電源狀態。在 /var/log/vmkwarning.log 中,會看到類似下列內容的項目:

    cpu3:xxxxxx)WARNING: World: vm xxxxxx: 12276: vmm0:VDI-STD-005:vmk: vcpu-0:p2m update buffer full
    cpu3:xxxxxx)WARNING: VmMemPf: vm xxxxxx: 652: COW copy failed: pgNum=0x3d108, mpn=0x3fffffffff
    cpu3:xxxxxx)WARNING: VmMemPf: vm xxxxxx: 2626: PhysPageFault failed Failure: pgNum=0x3d108, mpn=0x3fffffffff
    cpu3:xxxxxx)WARNING: UserMem: 10592: PF failed to handle a fault on mmInfo at va 0x60ee6000: Failure.Terminating...
    cpu3:xxxxxx)WARNING: World: vm xxxxxx: 3973: VMMWorld group leader = 255903, members = 1
    cpu7:xxxxxx)WARNING: World: vm xxxxxx: 3973: VMMWorld group leader = 255903, members = 1
    cpu0:xxxxx)WARNING: World: vm xxxxxx: 9604: Panic'd VMM world being reaped, but no core dumped.


    已在此版本中解決此問題。

VMware HA 和 Fault Tolerance 組態問題
  • 在高工作負載的情況下移轉次要虛擬機器可能會失敗
    嘗試移轉已啟用 Fault Tolerance 的次要虛擬機器可能會失敗,且虛擬機器在高工作負載下可能會沒有回應。

    已在此版本中解決此問題。
其他問題
  • vmkernel 記錄檔中記錄的 VmkAccess 訊息過多
    在安裝有 ESXi 6.0 的 HP 系統上,您可能會看到 vmkernel.log 中記錄了過多針對執行階段期間執行的下列系統命令的 VmkAccess 訊息:

    • esxcfg-scsidevs
    • localcli storage core path list
    • localcli storage core device list


    VmkAccess 記錄中會記錄類似下列內容的過多記錄訊息:

    cpu7:36122)VmkAccess: 637: localcli: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)
    cpu7:36122)VmkAccess: 922: VMkernel syscall invalid (1025)
    cpu7:36122)VmkAccess: 637: localcli: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)
    cpu7:36122)VmkAccess: 922: VMkernel syscall invalid (1025)
    cpu0:36129)VmkAccess: 637: esxcfg-scsidevs: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)

    已在此版本中解決此問題。
  • 新增問題 Python 套件匯入失敗
    Python 套件在較新的 Python 版本 2.7.9 上匯入時可能會失敗。發生此問題的原因在於,較新版本的 Python 找不到模組 pkg_resources.py,進而導致 import pkg_resources 陳述式失敗。

    已在此版本中解決此問題。
VMware Tools 問題
  • 對 FUSE 程式庫的更新
    FUSE 程式庫已更新至 libfuse 2.9.4。

已知問題

ESXi 6.0 中存在的已知問題分組如下:

此版本中記錄的新已知問題會醒目提示為新增問題

安裝問題
  • 新增問題 安裝最新 VMware Tools 套件後,VMware Tools 服務使用者程序在 Linux 作業系統上可能會無法執行
    在 Linux 作業系統上,您可能會遇到 VMware Tools 升級/安裝問題,或是在安裝最新 VMware Tools 套件之後,VMware Tools 服務 (vmtoolsd) 使用者程序可能無法執行。如果您的 glibc 版本比 2.5 版舊,例如 SLES10sp4,便會發生此問題。

    因應措施:將 Linux glibc 升級至 2.5 版或更高版本。

升級問題

另請檢閱版本說明的「安裝問題」部分。許多安裝問題也會影響升級程序。

  • 新增問題 從舊版 ESXi 6.0 升級到 ESXi 6.0 Update 1 之後,Auto Deploy 上的 SSLv3 保持啟用狀態
    當您從舊版 ESXi 6.0 升級到 ESXi 6.0 Update 1 時,Auto Deploy 上的 SSLv3 通訊協定保持啟用狀態。

    因應措施:執行下列步驟以使用 PowerCLI 命令停用 SSLv3:

    1. 執行下列命令以連線至 vCenter Server:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <FQDN_hostname or IP Address of vCenter Server>

    2. 執行下列命令以檢查目前的 sslv3 狀態:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 執行下列命令以停用 sslv3:

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. 重新啟動 Auto Deploy 服務以更新變更。

  • 在 ESXi 從 5.5.x 升級到 6.0 之後,光纖通道主機匯流排介面卡裝置號碼可能會變更

    在 ESXi 從 5.5.x 升級到 6.0 期間,光纖通道主機匯流排介面卡裝置號碼有時會變更。如果使用 esxcli storage core adapter list 命令,裝置號碼可能會變更為另一個號碼。

    例如,在 ESXi 升級之前,光纖通道主機匯流排介面卡的裝置號碼可能會類似下列內容:

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    在 ESXi 升級到 6.0 之後,光纖通道主機匯流排介面卡的裝置號碼可能會類似下列內容:

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    此範例說明使用 esxcli storage core adapter list 命令可能發生的隨機變更:裝置別名號碼 vmhba2 和 vmhba3 變更為 vmhba64 和 vmhba65,而裝置號碼 vmhba5 和 vmhba6 則保持不變。然而,如果使用 esxcli hardware pci list 命令,則裝置號碼在升級之後不會變更。

    此問題在 VMware 外部,可能不會影響您。ESXi 會顯示裝置別名,但是它不會在任何作業中使用它們。您可以使用主機設定檔來重設裝置別名。請參閱 VMware 產品說明文件及知識庫文章。

    因應措施:無。

  • 升級後不會保留 Active Directory 設定
    將主機升級至 ESXi 6.0 後,不會保留升級前在 ESXi 主機中設定的 Active Directory 設定。

    因應措施:如果升級前 ESXi 版本為 5.1 或更新版本,則在升級後將該主機新增至 Active Directory 網域。如果升級前 ESXi 版本為 ESXi 5.0.x,升級後則不要將該主機新增至 Active Directory 網域。

  • 將 ESXi 升級到先前已新增至網域的 6.0 主機後不再加入該網域
    首次將 vSphere 5.5 升級至 vSphere 6.0 後,不會保留 Active Directory 組態。

    因應措施:升級後,將主機重新加入 vCenter Server 網域:

    1. 將主機新增至 vCenter Server。

    2. 將主機加入網域 (例如 example.com)

    3. 將所有主機升級至 ESXi 6.0。

    4. 手動將最近升級的主機加入網域。

    5. 擷取主機設定檔並停用所有其他設定檔 (除了「驗證」以外)。

    6. 將手動加入的主機設定檔套用至其他最近升級的主機。

  • 在升級 vCenter Server for Windows 後,先前執行的 VMware ESXi Dump Collector 服務重設為預設的 [已停用] 設定
    升級程序會將 VMware Vsphere ESXi Dump Collector 6.0 安裝做為一組 vCenter Server 之選擇性服務的一部分。您必須手動啟用 VMware vSphere ESXi Dump Collector 服務,才能將其用作 vCenter Server 6.0 for Windows 的一部分。

    因應措施:如需如何啟用和執行 vCenter Server 6.0 for Windows 中選擇性服務的相關資訊,請閱讀 VMWare 說明文件或搜尋 VMware 知識庫。

    在作業系統中啟用 VMware vSphere ESXi Dump Collector 服務:

    1. 在 [控制台] 功能表中,選取管理工具,然後按兩下服務

    2. VMware vSphere ESXi Dump Collector編輯啟動類型上按一下滑鼠右鍵。

    3. 啟動類型設定為自動

    4. VMware vSphere ESXi Dump Collector啟動上按一下滑鼠右鍵。

    此時,服務啟動類型將設定為 [自動],且服務處於執行中狀態。

vCenter Single Sign-On 和憑證管理問題
  • 升級 ESXi 主機的 SSL 憑證後,無法連線至虛擬機器主控台
    如果升級由 ESXi 主機使用的 SSL 憑證,並嘗試連線至憑證已被取代時執行的任何虛擬機器的虛擬機器主控台,則可能會導致憑證驗證錯誤。這是因為舊憑證已快取,且任何新主控台連線皆因不相符而遭到拒絕。
    主控台連線仍有可能成功 (例如,如果舊憑證可以透過其他方式進行驗證),但不保證一定成功。現有虛擬機器主控台連線不受影響,但是,如果該主控台在憑證取代期間執行、停止後再重新啟動,則可能會出現問題。

    因應措施:將主機置於維護模式或使其暫停,或者關閉所有虛擬機器電源。僅執行中的虛擬機器受到影響。最佳做法是將主機置於維護模式後執行所有 SSL 憑證升級。

網路問題

  • 某些 vSphere 功能不支援 IPv6
    您可以啟用 IPv6 以用於所有節點和元件,除了下列功能以外:

    • 未對應到 DNS 伺服器上完整網域名稱 (FQDN) 的 ESXi 主機和 vCenter Server 的 IPv6 位址。
      因應措施:使用 FQDN 或確保 IPv6 位址已對應到 DNS 伺服器上的 FQDN,以供反向名稱查閱。

    • 虛擬磁碟區

    • PXE 開機做為 Auto Deploy 和主機設定檔的一部分
      因應措施:透過 IPv4 對 ESXi 主機進行 PXE 開機,然後使用主機設定檔針對 IPv6 設定主機。

    • ESXi 主機和 vCenter Server Appliance 與 Active Directory 的連線
      因應措施:使用 Active Directory over LDAP 做為 vCenter Single Sign-On 中的身分識別來源。

    • 使用 Kerberos 的 NFS 4.1 儲存區
      因應措施:搭配使用 NFS 4.1 與 AUTH_SYS。

    • Authentication Proxy

    • vSphere Management Assistant 和 vSphere Command-Line Interface 與 Active Directory 的連線。
      因應措施:連線至 Active Directory over LDAP。

    • 使用 vSphere Client 針對 vSphere 功能啟用 IPv6
      因應措施:使用 vSphere Web Client 針對 vSphere 功能啟用 IPv6。

  • 使用 ESXi Dump Collector 時可能會發生遞迴危急
    如果主機在顯示紫色診斷畫面並透過網路將核心傾印寫入 ESXi Dump Collector 時處於危急狀態,則可能會發生遞迴核心危急。VMkernel zdump 檔案可能不適用於對 vCenter Server 中的 ESXi Dump Collector 進行疑難排解。

    如果發生遞迴核心危急,則主機上的紫色診斷畫面會顯示下列訊息:
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    如果在大量流量流經實體網路介面卡 (亦設定為將核心傾印傳送至 vCenter Server 上的收集器) 時出現 VMkernel 危急,則可能會發生遞迴核心危急。

    因應措施:執行下列任一項因應措施:

    • 將實體網路介面卡專用於核心傾印傳輸,只為降低來自系統和虛擬機器流量的影響。

    • 透過執行下列 ESXCLI 主控台命令停用主機上的 ESXi Dump Collector:
      esxcli system coredump network set --enable false

儲存區問題

NFS 版本 4.1 問題

  • 在 NFS 4.1 共用從所有路徑失效 (APD) 狀態復原後,NFS 4.1 資料存放區上的虛擬機器失敗
    如果 NFS 4.1 儲存區進入 APD 狀態並在寬限期後結束該狀態,則執行於 NFS 4.1 資料存放區上的已開啟電源的虛擬機器會失敗。此寬限期取決於陣列廠商。
    在 NFS 4.1 共用從 APD 復原之後,您會在 vSphere Web Client 中的虛擬機器摘要頁面上看到下列訊息:
    用於保護 VM.vmdk 的鎖定已遺失,可能是由於基礎儲存區問題而引起的。如果此虛擬機器已設定為高度可用,請先確保該虛擬機器在某些其他主機上執行,然後按一下 [確定]。
    按一下 [確定] 後,會產生當機檔案,而虛擬機器將關閉電源。

    因應措施:無。

  • NFS 4.1 用戶端在嘗試建立新工作階段時與伺服器失去同步
    與伺服器中斷連線一段時間後,NFS 4.1 用戶端可能會在嘗試建立新工作階段時與伺服器失去同步。發生這種情況時,vmkernel.log 檔案會包含一系列節流警告訊息,用於說明 NFS41 CREATE_SESSION 要求失敗並顯示 NFS4ERR_SEQ_MISORDERED。

    因應措施:依序執行下列步驟。

    1. 嘗試取消掛接受影響的檔案系統。如果在取消掛接時沒有開啟任何檔案,此作業會成功,NFS 用戶端模組會清理其內部狀態。然後,可以重新掛接已取消掛接的檔案系統並繼續一般作業。

    2. 中斷 NIC 與掛接之 IP 位址的連線,讓其保留中斷狀態足夠長的時間,以便多個伺服器租用時間到期。五分鐘的時間應該足夠。然後,將 NIC 重新連線。一般作業應繼續進行。

    3. 如果上述步驟皆失敗,請將 ESXi 主機重新開機。

  • NFS 4.1 用戶端與 NFS 伺服器失去同步,即使工作階段已重設亦無法復原連線
    與伺服器中斷連線一段時間後,NFS 4.1 用戶端可能會與伺服器失去同步,且即使工作階段已重設亦無法復原與伺服器的同步連線。此問題由 EMC VNX 伺服器問題所致。 發生這種情況時,vmkernel.log 檔案會包含一系列用於說明 NFS41 的節流警告訊息:NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug

    因應措施:若要結束工作階段,請取消掛接所有資料存放區,然後將其重新掛接。

  • ONTAP Kerberos 磁碟區變得無法存取或發生虛擬機器 I/O 失敗
    NetApp 伺服器收到順序錯誤的 RPCSEC_GSS 要求時沒有回應。因此,對應的 I/O 作業將停止,除非該作業終止且客體作業系統停止或發生 I/O 錯誤。此外,根據 RFC 2203,用戶端僅可以具有與 seq_window (32,若為 ONTAP) 相等的大量未完成要求 (根據 RPCSEC_GSS 內容),且必須等待直到伺服器完成最低的未完成要求。因此,伺服器永遠不會回覆順序錯誤的 RPCSEC_GSS 要求,當用戶端達到最大未完成要求 seq_window 數目後,會停止傳送要求至伺服器。這會造成磁碟區變得無法存取。

    因應措施:無。檢查最新的硬體相容性清單 (HCL),以找到已解決此問題的受支援 ONTAP 伺服器。

  • 無法在 EMC VNX 中的 NFS 4.1 資料存放區上建立大於 1 TB 的虛擬磁碟
    EMC VNX (含韌體 7.x 版本) 中的 NFS 4.1 版儲存區僅支援 32 位元的檔案格式。這會防止您在 NFS 4.1 資料存放區上建立大於 1 TB 的虛擬機器檔案。

    因應措施:將 EMC VNX 陣列更新至 8.x 版本。

  • 在韌體升級期間,EMC VNX 儲存區支援的 NFS 4.1 資料存放區變得無法存取
    將 EMC VNX 儲存區升級至新韌體時,掛接在 ESXi 主機上的 NFS 4.1 資料存放區會變得無法存取。出現這種情況的原因在於 VNX 伺服器在韌體升級後變更其主要裝置編號。主機上的 NFS 4.1 用戶端未預期與伺服器建立連線之後變更主要編號,並導致資料存放區永久無法存取。

    因應措施:取消掛接由 VNX 伺服器匯出的所有 NFS 4.1 資料存放區,然後升級韌體。

  • 當 ESXi 主機使用不同的安全機制掛接相同的 NFS 4.1 資料存放區時,虛擬機器可能會發生故障
    如果不同的 ESXi 主機使用不同的安全機制 (AUTH_SYS 和 Kerberos) 掛接相同的 NFS 4.1 資料存放區,則置於該資料存放區上的虛擬機器可能會出現問題和故障。例如,您嘗試將虛擬機器從 host1 移轉到 host2 可能會失敗,並顯示權限遭拒錯誤。在您嘗試從 host2 存取 host1 虛擬機器時,也可能會看到這些錯誤。

    因應措施:確保掛接 NFS 4.1 磁碟區的所有主機使用相同的安全類型。

  • 嘗試將唯讀檔案複製到使用 Kerberos 的 NFS 4.1 資料存放區失敗
    當您嘗試從來源檔案複製資料到目標檔案時,可能會失敗。目標檔案仍為空白。

    因應措施:無。

  • 當您建立資料存放區叢集時,不保證統一 NFS 4.1 安全類型
    建立資料存放區叢集時,vSphere 不會確認及強制統一 NFS 4.1 安全類型。因此,使用不同安全類型 (AUTH_SYS 和 Kerberos) 的資料存放區可能屬於相同的叢集。如果從使用 Kerberos 的資料存放區移轉虛擬機器至使用 AUTH_SYS 的資料存放區,則虛擬機器的安全性層級會降低。
    此問題適用於 vMotion、Storage vMotion、DRS 和 Storage DRS 等功能。

    因應措施:如果您的虛擬機器需要 Kerberos 安全性,請確保組成同一叢集的所有 NFS 4.1 磁碟區僅使用 Kerberos 安全類型。請勿包括 NFS 3 資料存放區,因為 NFS 3 僅支援 AUTH_SYS。

Virtual Volumes 問題

  • 由於 Virtual Volumes VASA 提供者使用的憑證不正確,無法建立虛擬資料存放區
    有時,Virtual Volumes VASA 提供者使用的自我簽署憑證可能會在未設定 keyCertSign 位元的情況下將 KeyUsage 延伸錯誤地定義為嚴重。在此情況下,提供者登錄成功。但是,您無法從 VASA 提供者報告的儲存區容器建立虛擬資料存放區。

    因應措施:在提供者登錄時由 VASA 提供者使用的自我簽署憑證不應該在未設定 keyCertSign 位元的情況下將 KeyUsage 延伸定義為嚴重。

一般儲存區問題

  • 新增問題 從現有磁碟建立新的虛擬機器時,vSphere Web Client 會將儲存區原則錯誤地顯示為已附加
    當您使用 vSphere Web Client 從現有磁碟建立新虛擬機器,並在設定磁碟時指定儲存區原則時。若選取新的虛擬機器 --> 按一下虛擬機器原則 --> 編輯虛擬機器儲存區原則,篩選器會顯示為已附加,但篩選器實際上並未附加。您可以查看 .vmdk 檔案或 vmkfstools --iofilterslist <vmdk-file>,確認篩選器是否附加。

    因應措施:建立新的虛擬機器後,在開啟其電源之前,按一下虛擬機器原則 --> 編輯虛擬機器儲存區原則,將篩選器新增到 vmdk。

  • 新增問題 在 IPv6 安裝程式上安裝 I/O 篩選器不會將其功能發佈至 VPXD
    透過 VIM API 成功安裝 I/O 篩選器後,安裝的篩選器無法將篩選器功能發佈至 VPXD。您無法將篩選器設定檔附加至任何磁碟,因為沒有功能發佈至以 VMware vSphere 儲存區原則為基礎的管理 (SPBM)。

    因應措施:無。

  • 新增問題 NFS 查詢作業傳回 NFS STALE 錯誤
    當您在 NFS 資料存放區中部署大量虛擬機器時,虛擬機器部署會因競爭情形而失敗,並顯示類似下列內容的錯誤訊息:

    失效 NFS 檔案控點

    因應措施:重新啟動查詢作業。如需詳細資訊,請參閱知識庫文章 2130593

  • 如果已使用 QLogic iSCSI 介面卡,則嘗試在 Dell EqualLogic LUN 上建立 VMFS 資料存放區失敗
    無法在透過 QLogic iSCSI 介面卡探索到的 Dell EqualLogic 儲存裝置上建立 VMFS 資料存放區。
    如果嘗試失敗,vCenter Server 上會顯示下列錯誤訊息:無法建立檔案系統,如需詳細資料請參閱 VMkernel 記錄: 連線已逾時。VMkernel 記錄包含持續的 iscsi 工作階段已封鎖iscsi 工作階段已取消封鎖訊息。在 Dell EqualLogic 儲存區陣列上,監控記錄針對 QLogic 啟動器 IQN 名稱顯示從啟動器收到的封包出現通訊協定錯誤訊息。

    使用下列元件時會出現此問題:

    • Dell EqualLogic 陣列韌體:V6.0.7

    • QLogic iSCSI 介面卡韌體版本:3.00.01.75

    • 驅動程式版本:5.01.03.2-7vmw-debug

    因應措施:在 QLogic iSCSI 介面卡上啟用 iSCSI ImmediateData 介面卡參數。依預設,此參數會關閉。無法透過 vSphere Web Client 或 esxcli 命令變更此參數。若要變更此參數,請使用廠商提供的軟體,例如 QConvergeConsole CLI。

  • 具有 Emulex OneConnect HBA 的 ESXi 主機無法開機
    如果 ESXi 主機已安裝 Emulex OneConnect HBA,該主機可能無法開機。可能是因為 Emulex 韌體存在問題而導致此失敗。

    因應措施:若要更正此問題,請連絡 Emulex 以取得適用於您的 HBA 的最新韌體。

    如果您繼續使用舊版韌體,請遵循下列步驟以避免開機失敗:

    1. ESXi 載入時,請在開機 ESXi 核心之前按 Shift+O。

    2. 將現有開機選項保留原樣,然後新增空格後面跟隨 dmaMapperPolicy=false

  • Flash Read Cache 在 APD 期間不會加速 I/O
    如果設定為 Flash Read Cache 之虛擬 Flash 資源的快閃磁碟發生故障或無法存取,或磁碟儲存區無法從主機取得連線,則該主機上的 Flash Read Cache 執行個體無效且無法加速 I/O。因此,當主機和儲存區之間的連線重新建立後,快取不會提供失效資料。連線中斷可能是暫時的所有路徑失效 (APD) 情況,也可能是永久的永久裝置遺失 (PDL)。此情況持續存在,直到虛擬機器已重新開啟電源。

    因應措施:可以將虛擬機器重新開啟電源,以使用 Flash Read Cache 還原 I/O 加速。

  • 所有路徑失效 (APD) 或路徑容錯移轉可能會導致系統失敗
    在共用 SAS 環境中,如果磁碟由 lsi_msgpt3 驅動程式宣告且發生大量 I/O 活動,則 APD 或路徑容錯移轉情況可能會導致系統失敗。

    因應措施:無

  • 頻繁使用 SCSI 中止命令會導致系統失敗
    由於大量 I/O 活動,頻繁使用 SCSI 中止命令會導致 MegaRAID 控制器回應速度很慢。如果已在先前內容中發佈的資源參考出現非預期的中斷情況,可能會導致系統失敗。

    因應措施:無

  • 當 IQN 發生變更時,iSCSI 連線失敗且資料存放區變得無法存取
    當 iSCSI 介面卡上的 iSCSI 工作階段仍處於作用中狀態時,如果變更該介面卡的 IQN,則可能會發生此問題。

    因應措施:當您變更 iSCSI 介面卡的 IQN 時,該介面卡上的工作階段不應該處於作用中狀態。移除介面卡上的所有 iSCSI 工作階段和所有目標,然後再變更 IQN。

  • nvmecli 上線和離線作業並非永遠生效
    當您執行 nvmecli device online -A vmhba* 作業使 NVMe 裝置上線時,該作業似乎已成功。但是,該裝置可能仍處於離線狀態。

    因應措施:透過執行 nvmecli device list 命令檢查 NVMe 裝置的狀態。

Virtual SAN 問題
  • 新增問題 將主機新增至 Virtual SAN 叢集會觸發安裝程式錯誤
    當您將 ESXi 主機新增至啟用 HA 和 Virtual SAN 健全狀況服務的叢集時,由於 VIB 安裝競爭情形,您可能會看到下列其中一個或同時看到下列兩個錯誤:

    • 在工作視圖中,「設定 vSphere HA」工作可能會失敗並出現類似下列內容的錯誤訊息:

      無法安裝 vCenter Server 代理程式服務。「未知的安裝程式錯誤」

    • 啟用代理程式工作可能會失敗並出現類似下列內容的錯誤訊息:

      無法完成作業。如需詳細資料,請參閱事件記錄檔狀態。

    因應措施:

    • 若要修正 HA 組態失敗,請將主機重新開機,並依如下所示重新設定 HA:

      [主機和叢集] 視圖 -> 按一下叢集名稱 -> [管理] 索引標籤 -> vSphere HA

    • 若要修正啟用代理程式工作失敗,請前往叢集視圖,並依如下所示重新嘗試啟用 VSAN 健全狀況服務:

      [主機和叢集] 視圖 -> 按一下叢集名稱 -> [管理] 索引標籤 -> Virtual SAN 類別下方的 [健全狀況],然後按一下頂端的 [重試] 按鈕

伺服器組態問題
  • 在從可設定狀態之主機將主機設定檔套用到使用 Auto Deploy 佈建的主機時,修復失敗
    當從有狀態部署的主機將主機設定檔套用到使用 Auto Deploy 佈建的主機 (無狀態主機,無本機儲存區) 時,修復嘗試會失敗,並顯示下列錯誤訊息之一:

    • PCI 匯流排位址為 sxxxxxxxx.xx 的 vmhba 裝置不存在於您的主機上。必須先關閉,然後再將卡插入 PCI 插槽 yy。卡的類型應與參考主機上的卡完全相符。

    • 找不到任何有效的核心傾印磁碟分割。

    因應措施:從主機設定檔停用導致問題 (例如,裝置別名組態或核心傾印組態) 的外掛程式,然後修復主機設定檔。

  • 將具有靜態 IP 的主機設定檔套用到主機導致符合性錯誤
    如果從具有 DHCP 網路組態的主機擷取主機設定檔,然後編輯主機設定檔使其擁有靜態 IP 位址,則在您將其套用到其他主機時,會發生符合性錯誤,並顯示下列訊息:

    IPv4 路由數目不相符。

    因應措施:從 DHCP 主機解壓縮主機設定檔前,對主機進行設定,使其具有一個靜態 IP 位址。

  • 當您熱新增已過度認可網路資源的虛擬網路介面卡時,虛擬機器電源可能會關閉
    在已啟用 Network I/O Control 的 vSphere Distributed Switch 上,已開啟電源的虛擬機器將根據主機上實體網路介面卡上的虛擬機器系統流量保留區設定頻寬保留區。將網路介面卡熱新增至已超過主機上實體網路介面卡中可用頻寬的虛擬機器設定網路頻寬保留區。

    熱新增網路介面卡時,VMkernel 會啟動快速暫停和繼續 (FSR) 程序。由於虛擬機器所需網路資源超過可用資源,因此,VMkernel 將使用 FSR 程序的失敗路徑。此失敗路徑的錯誤會導致虛擬機器關閉電源。

    因應措施:不要在網路介面卡新增至已開啟電源的虛擬機器時設定頻寬保留區。

VMware HA 和 Fault Tolerance 問題
  • 新增問題 舊版 Fault Tolerance (FT) 在 Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台上不受支援
    舊版 FT 在 Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT 和 Broadwell-DE 平台上不受支援。在啟用單一處理器的舊版 Fault Tolerance 後,嘗試開啟虛擬機器電源會失敗。

    因應措施:無。

客體作業系統問題
  • 在熱插拔後嘗試在 NVMe PCIe SSD 裝置上啟用傳遞模式可能會失敗
    若要透過 vSphere Web Client 在 SSD 裝置上啟用傳遞模式,您可以選取主機,依序按一下管理索引標籤和設定,導覽至硬體區段,按一下 PCI 裝置 > 編輯,從可啟用用於傳遞的作用中裝置清單中選取裝置,然後按一下確定。但是,當您針對不具有 PCIe NVMe 磁碟機的 ESXi 6.0 主機熱插拔新的 NVMe 裝置時,新的 NVMe PCIe SSD 裝置將無法啟用用於傳遞模式,且不會顯示在可用傳遞裝置清單中。

    因應措施:重新啟動主機。也可以在 ESXi 主機上執行命令。

    1. 以根使用者身分登入。

    2. 執行命令
      /etc/init.d/hostd start

支援的硬體問題
  • 執行 esxcli 以取得磁碟位置時,HP 伺服器上 Avago 控制器的結果不正確

    針對 HP 伺服器上的 Avago 控制器執行 esxcli storage core device physical get 時,結果不正確。

    例如,如果執行:
    esxcli storage core device physical get -d naa.5000c5004d1a0e76
    系統會傳回:
    Physical Location: enclosure 0, slot 0

    實體伺服器上該插槽的實際標籤為 1。

    因應措施:仔細檢查 HP 伺服器上的插槽。由於 HP 伺服器上的插槽號碼是從 1 開始,因此您必須增加命令傳回的插槽號碼才能取得正確的結果。

CIM 和 API 問題
  • 新增問題 sfcb-vmware_raw 可能會失敗
    sfcb-vmware_raw 可能會失敗,因為配置的最大預設外掛程式資源群組記憶體不夠。

    因應措施:使用以下命令新增用於 sfcbd 外掛程式記憶體限制的 UserVars CIMOemPluginsRPMemMax,並重新啟動 sfcbd,使新的外掛程式值生效:

    esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

    XXX 是您要配置的記憶體限制。此值應在最小值 (175) 和最大值 (500) 的範圍內。

其他問題
  • 新增問題 Virtual SAN Observer 支援 SSLv3 加密
    在 ESXi 6.0 Update 1 中,依預設已停用 SSLv3,不過,Virtual SAN Observer 仍支援 SSLv3。

    因應措施:無。

VMware Tools 問題
  • 新增問題 使用核心版本 3.3.0 或更新版本編譯 open-vm-tools 9.10 中的 vmxnet 模組失敗
    當您編譯和安裝 open-vm-tools 9.10 時,可能會因 vmxnet.c 無法使用核心版本 3.3.0 或更新版本進行編譯而發生多個錯誤。已針對 open-vm-tools 9.10.2 解決此問題,您可以使用任何核心版本安裝 open-vm-tools 9.10.2。

    因應措施:若要安裝 open-vm-tools 9.10,請從 ./configure--without-kernel-modules 編輯 vmxnet。

>