check-circle-line exclamation-circle-line close-line

ESXi 6.0 Update 2 | 2016 年 3 月 15 日 | ISO ビルド 3620759

各リリース ノートで、追加および更新された機能をご確認ください。

リリース ノートの概要

本リリース ノートには、次のトピックが含まれています。

新機能

  • 高速イーサネット リンク:ESXi 6.0 Update 2 は 25 Gと 50 G のイーサネット リンク速度をサポートするようになりました。

  • VMware Host Client: VMware Host Client は HTML5 クライアントであり、単一の ESXi ホストに接続してそのホストを管理するために使用します。管理タスクを実行して、仮想マシン、ネットワークおよびストレージなどのホスト リソースを管理できます。VMware Host Client はまた、vCenter Server および vSphere Web Client が利用できないときに、個別の仮想マシンまたはホストをトラブルシューティングする場合に役立ちます。VMware Host Client の詳細については、『VMware Host Client 1.0 リリース ノート』を参照してください。

  • VMware Virtual SAN 6.2:新しい VMware Virtual SAN 6.2 が ESXi 6.0 Update 2 にバンドルされます。Virtual SAN の詳細については、『VMware Virtual SAN 6.2 リリース ノート』を参照してください。

    Virtual SAN によって、新しい vsan vib が ESXi イメージに追加されます。新しい vib は esx-base vib に依存します。新しい 6.0 Update 2 ホストにvsan vib をインストールする必要があります。詳細については、ナレッジベースの記事 2144595 を参照してください。

  • vSphere APIs for I/O Filtering (VAIO) の機能拡張:

    • ESXi 6.0 Update 2 はピュア IPv6 環境の IO フィルタ VASA プロバイダをサポートします。詳細については、「解決した問題」セクションを参照してください。

    • ESXi 6.0 Update 2 は VMIOF バージョン 1.0 および 1.1 をサポートします。詳細については、「解決した問題」セクションを参照してください。

  • ESXi 6.0 Update 2 は、「解決した問題」セクションに記載されている問題に対応しています。

ESXi 6.0 の旧リリース

ESXi 6.0 の機能と既知の問題については、各リリースのリリース ノートに記載されています。ESXi 6.0 の旧リリース ノート

利用可能な言語

VMware ESXi 6.0 は、次の言語で使用可能です。

  • 英語
  • フランス語
  • ドイツ語
  • 日本語
  • 韓国語
  • 簡体字中国語
  • スペイン語
  • 繁体字中国語

vCenter Server、ESXi、vSphere Web Client、vSphere Client を含む VMware vSphere 6.0 のコンポーネントは非 ASCII 入力を受け入れません。

互換性

ESXi、vCenter Server、および vSphere Web Client のバージョンの互換性

VMware 製品互換性マトリクスでは、ESXi、VMware vCenter Server、vSphere Web Client、および任意で使用可能な VMware 製品を含む VMware vSphere コンポーネントの現在のバージョンと旧バージョンとの互換性について、詳細に説明しています。ESXi または vCenter Server をインストールする前に、サポート対象の管理エージェントおよびバックアップ エージェントについて、VMware 製品互換性マトリクス(英語)で確認してください。

vSphere Web Client は vCenter Server パッケージに含まれます。VMware vSphere Client はモジュール ISO ファイルの一部である VMware vCenter の自動再生メニューからインストールできます。

ESXi のハードウェア互換性

vSphere 6.0 と互換性のあるプロセッサ、ストレージ デバイス、SAN アレイ、および I/O デバイスについては、VMware 互換性ガイドの ESXi 6.0 の情報を参照してください。

ESXi のデバイス互換性

ESXi 6.0 と互換性のあるデバイスを確認するには、VMware 互換性ガイドの ESXi 6.0 の情報を参照してください。

一部のデバイスへの互換性は廃止されており、ESXi 6.0 ではサポートされていません。アップグレード時に、互換性が廃止されたデバイスのドライバが ESXi 6.0 ホストにインストールされ、デバイス ドライバは引き続き ESXi 6.0 で機能することもありますが、ESXi 6.0 で正式にサポートされているわけではありません。互換性が廃止され、ESXi 6.0 ではサポートされていないデバイスのリストについては、KB 2087970 を参照してください。

ESXi のサードパーティ製スイッチの互換性

VMware vSphere 6.0 では、Cisco Nexus 1000V がサポートされます。これを利用するには、vSphere に NX-OS リリース 5.2(1)SV3(1.4) 以降が必要です。Cisco Nexus 1000V の詳細については、Cisco リリース ノートを参照してください。vSphere の以前のリリースと同様に、Ciscso Nexus 1000V AVS モードはサポートされません。

ESXi のゲスト OS の互換性

vSphere 6.0 と互換性のあるゲスト OS を確認するには、VMware 互換性ガイドの ESXi 6.0 の情報を参照してください。

ESXi の仮想マシンの互換性

ESX 3.x 以降 (ハードウェア バージョン 4) と互換性がある仮想マシンは、ESXi 6.0 でもサポートされています。ESX 2.x 以降(ハードウェア バージョン 3)と互換性がある仮想マシンは、サポートされていません。このような仮想マシンを ESXi 6.0 で使用するには、仮想マシンの互換性をアップグレードする必要があります。『vSphere のアップグレード』のドキュメントを参照してください。

本リリースのインストールおよびアップグレード

本リリースのインストールに関する注意事項

ESXi と vCenter Server のインストールおよび構成の手順については、『vSphere のインストールとセットアップ』ドキュメントを参照してください。

インストールを行った後、重要な構成手順を行う必要があります。次のドキュメントをお読みください。

vSphere 6.0 で推奨される導入モデル

VMware は、次の 2 つの導入モデルのみを推奨しています。

  • Platform Services Controller が組み込まれた vCenter Server。このモデルは、データセンター内にスタンドアロンの vCenter Server インスタンスを 1 つ以上デプロイする場合にお勧めします。Platform Services Controller が組み込まれた vCenter Server モデル間のレプリケーションはお勧めしません。

  • 外部 Platform Services Controller が組み込まれた vCenter Server。このモデルは、複数の vCenter Server インスタンスをリンクする必要があるか、データセンター内で Platform Services Controller の占有量を縮小したい場合にのみお勧めします。外部 Platform Services Controller が組み込まれた vCenter Server モデル間のレプリケーションはサポートされます。

vCenter Server のインストールおよび構成の手順については、『vSphere のインストールとセットアップ』ドキュメントを参照してください。

vSphere コンポーネントのアップデート手順については、「vSphere 6.0 およびその互換性のある VMware 製品のアップデート手順」を参照してください。

vCenter Server のインストールおよび構成の手順については、KB 2108548 を参照してください。

vCenter ホスト OS 情報

VMware のナレッジ ベースの記事 KB 2091273 を参照してください。

外部 Platform Services Controller を使用する vCenter Server および vCenter Server Appliance デプロイのバックアップとリストア

vSphere のインストールとセットアップ』のドキュメントには、外部 Platform Services Controller を使用する vCenter Server および vCenter Server Appliance のバックアップおよびリストアはサポートされていないと記述されていますが、KB 2110294 の手順に従ってこのタスクを実行できます。

組み込みの Platform Services Controller から外部 Platform Services Controller への移行

Platform Services Controller が組み込まれた vCenter Server は、外部 Platform Services Controller が組み込まれた vCenter Server に自動的に移行することはできません。移行ユーティリティは、現在テスト中です。

vCenter Server をインストールする前に、導入オプションを決定します。レプリケーションのセットアップに複数の vCenter Server が必要な場合は、外部 Platform Services Controller が組み込まれた vCenter Server を必ず導入してください。

サードパーティ製ソリューションの移行

サードパーティ関連のカスタマイズを伴うアップグレードの詳細については、『vSphere のアップグレード』ドキュメントを参照してください。カスタム ISO を作成するための Image Builder の使用方法の詳細については、『vSphere のインストールとセットアップ』ドキュメントを参照してください。

サポート対象外の CPU に対するアップグレードおよびインストールの禁止

vSphere 6.0 は 2006 年 6 月(第 3 四半期)以降に製造されたプロセッサのみをサポートしています。vSphere 5.x のサポート対象プロセッサのうち、次のプロセッサは vSphere 6.0 でサポートされません。

  • AMD Opteron 12xx シリーズ
  • AMD Opteron 22xx シリーズ
  • AMD Operton 82xx シリーズ

インストールまたはアップグレード中に、インストーラによってホスト CPU と vSphere 6.0 の互換性がチェックされます。ホスト ハードウェアに互換性がないと非互換性情報メッセージを示すパープル スクリーンが表示され、vSphere 6.0 インストール プロセスが停止します。

本リリースのアップグレードに関する注意点

vCenter Server および ESX/ESXi ホストのアップグレードの詳細については、『vSphere のアップグレード』ドキュメントを参照してください。

VMware vSphere 6.0 用オープン ソース コンポーネント

vSphere 6.0 で配布されるオープン ソース ソフトウェア コンポーネントに適用される著作権情報およびライセンスは、http://www.vmware.com ご確認ください。My VMware アカウントにログインする必要があります。[ダウンロード] メニューから [vSphere] を選択します。[オープン ソース] タブでは、vSphere の最新リリースで利用されており、ソース コードやソース コードへの改変の公開が必要な GPL、LGPL、またはその他の類似のライセンスのソース ファイルをダウンロードできます。

製品サポートに関する注意事項

  • vCenter Server データベース。vCenter Server Appliance 用の外部データベースとしての Oracle 11g および 12c は、vSphere 6.0 リリースで廃止予定です。すでにご利用頂いている場合、Oracle 11g および 12c は、vSphere 6.0 での外部データベースとして引き続きサポートされます。VMware は、vCenter Server Appliance 用外部データベースとしての Oracle 11g および 12c のサポートを今後のメジャー リリースで削除する予定です。

  • vSphere Web Client:オブジェクトの [監視] タブにある [ストレージ レポート] は vSphere 6.0 の Web Client では提供されません。

  • vSphere Client:vSphere Client 6.0 では、[ストレージ ビュー] タブは使用できなくなりました。

本リリースに含まれるパッチ

本リリースには、本製品のリリース日以前にリリースされた ESXi のすべてのパッチが含まれています。各パッチの詳細については、VMware のパッチのダウンロード ページを参照してください。

パッチ リリース ESXi600-Update02 には、次の各パッチが含まれています。

ESXi600-201603201-UG: esx-base、vsanhealth、vsan vib のアップデート
ESXi600-201603202-UG: misc-drivers、xhci-xhci などのアップデート
ESXi600-201603203-UG: ESXi 6.0 esx-tboot vib のアップデート
ESXi600-201603204-UG-BG: ESXi 6.0 tools-light vib のアップデート
ESXi600-201603205-UG-BG: ESXi 6.0 esx-ui vib のアップデート
ESXi600-201603206-UG-BG: ESXi 6.0 nvme vib のアップデート
ESXi600-201603207-UG-BG: ESXi 6.0 net-vmxnet3 vib のアップデート
ESXi600-201603208-UG-BG: ESXi 6.0 sata-ahci vib のアップデート

パッチ リリース ESXi600-Update02 (Security-only build) には、次の各パッチが含まれます。

ESXi600-201603101-SG: ESXi 6.0 esx-base vib のアップデート
ESXi600-201603102-SG: ESXi 6.0 tools-light vib のアップデート

パッチ リリース ESXi600-Update02 には、次のイメージ プロファイルが含まれています。

ESXi-6.0.0-20160302001-standard
ESXi-6.0.0-20160302001-no-tools

パッチ リリース ESXi600-Update02 (Security-only build) には、次のイメージ プロファイルが含まれます。

ESXi-6.0.0-20160301001s-standard
ESXi-6.0.0-20160301001s-no-tools

パッチおよびアップデートの分類に関する情報については、KB 2014447 を参照してください。

解決した問題

解決された問題には、次のトピックが含まれます。



CIM および API の問題
  • サードパーティ ソフトウェア ServerView RAID Manager を使用する際に、ハードウェアの監視に失敗することがある
    サードパーティ ソフトウェア ServerView RAID Manager を使用すると、ハードウェアの監視に失敗することがあります。競合が発生し、sfcb-vmware_aux が応答を停止します。

    本リリースで、この問題は修正されました。

  • [ハードウェア ステータス] タブが応答を停止し、エラー メッセージが表示される
    FRU デバイスにワード単位でアクセスし、read_cnt が 1 以上である場合、[ハードウェア ステータス] タブが応答を停止することがあります。syslog.log ファイルには次のようなエラー メッセージが出力されます。

    Dropped response operation details -- nameSpace: root/cimv2, className: OMC_RawIpmiEntity, Type: 0\

    本リリースで、この問題は修正されました。

その他の問題
  • PowerCLI を使用して esxcli コマンドが実行されると Hostd が応答を停止する
    PowerCLI を使用して esxcli コマンドを実行すると、メモリ リークが発生し、メモリの消費量がハード制限を超えて Hostd が応答を停止することがあります。次のようなエラー メッセージが hostd.log ファイルに書き込まれます。

    YYYY-MM-DDTHH:MM:SS.135Z [nnnnnnnn error 'UW Memory checker'] Current value 646016 exceeds hard limit 643993.Shutting down process.

    本リリースで、この問題は修正されました。
  • ESXi ホストでパープル スクリーンに CMCI (Correctable Machine Check Interrupt) メッセージが表示される

    短時間で vmkernel.log ファイルに数回 CMCI が発生し、CPU が応答しなくなることが原因で、ESXi ホストに障害が発生し、パープル スクリーンが表示されることがあります。次のようなエントリがパープル スクリーンに表示されます。

    PCPU <N>: no heartbeat (2/2 IPIs received)
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]MCEReapMCABanks@vmkernel#nover+0x195
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]MCEHandleCMCI@vmkernel#nover+0xb4
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]IRQ_DoInterrupt@vmkernel#nover+0x33e
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]IDT_IntrHandler@vmkernel#nover+0x12b 0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]gate_entry@vmkernel#nover+0x64
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]LFQueue_Dequeue@vmkernel#nover+0x59
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]MCEBottomHalf@vmkernel#nover+0x39
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]BH_DrainAndDisableInterrupts@vmkernel#nover+0xf3
    0xXXXXXXXXXXXX:[0xXXXXXXXXXXXX]VMMVMKCall_Call@vmkernel#nover+0x2c6


    vmkernel.log ファイルに次のようなエントリが記録されます。

    cpu1:33127)MCE: 1118: cpu1: MCA error detected via CMCI (Gbl status=0x0): Restart IP: invalid, Error IP: invalid, MCE in progress: no.
    cpu1:33127)MCE: 231: cpu1: bank9: MCA recoverable error (CE): "Memory Controller Scrubbing Error on Channel 0."
    cpu1:33127)MCE: 222: cpu1: bank9: status=0xXXXXXXXXXXXXXXXX: (VAL=1, OVFLW=0, UC=0, EN=0, PCC=0, S=0, AR=0), ECC=no, Addr:0xXXXXXXXXXXXXXXXX (valid), Misc:0x8c3589300 (valid)

    本リリースで、この問題は修正されました。

ネットワークの問題
  • vSISH の統計情報に大量のパケット ドロップが表示される
    整数オーバーフローにより、vSISH の統計情報に誤検知された大量のパケットドロップが表示されることがあります。

    本リリースで、この問題は修正されました。
  • 新規NetFlow 機能を実装した ESXi ホストを VXLAN 環境で有効にすると、パープル スクリーンで失敗することがある
    NetFlow 機能を実装した ESXi ホストを VXLAN 環境で有効にすると、パープル スクリーンに次のようなエントリが表示されて、失敗することがあります。

    @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4923 - Usage error in dlmalloc
    PTEs:0xnnnnnnnn;0xnnnnnnnn;0x0;
    0xnnnnnnnn:[0xnnnnnnnn]PanicvPanicInt@vmkernel#nover+0x37e
    ....
    ....
    0xnnnnnnnn:[0xnnnnnnnn]Net_AcceptRxList@vmkernel#nover+0x115


    本リリースで、この問題は修正されました。
  • vDS 環境で、vMotion が LAG を削除した後に失敗する
    vSphere Distributed Switch (vDS) 環境で、リンク集約グループ (LAG) を削除した後に vMotion が失敗します。vMotion ウィザードの [互換性] には次のようなエラー メッセージが表示されます。

    Currently connected network interface 'Network Adapter 1" uses network 'DSwitchName', which is not accessible

    本リリースで、この問題は修正されました。
  • ESXi ログ バンドルの収集中に、ファイバ チャネル オーバー イーサネット (FCoE) のリンクが停止することがある
    ESXi ログ バンドルを収集する際に、lldpnetmap コマンドによって LLDP が有効になりますが、LLDP は Both モードでのみ設定でき、LLDP パケットが ESXi ホストに送信されます。パケットにより、FCoE リンクが停止することがある

    本リリースで、この問題は修正されました。
  • Hostd のログに、短時間に連続して複数回エラー メッセージが出力される
    Hostd のログに、短時間に連続して複数回次のようなエラー メッセージが出力され、ログがいっぱいになります。

    Failed to get vsi stat set: Sysinfo error on operation returned status : Not found.Please see the VMkernel log for detailed error information.

    本リリースで、この問題は修正されました。


セキュリティの問題
  • NTP パッケージのアップデート
    ESXi NTP パッケージがバージョン 4.2.8p4 にアップデートされています。

  • zlib バージョンのアップデート
    zlib パッケージがバージョン 1.2.8 にアップデートされています。

  • libPNG ライブラリのアップデート
    libPNG ライブラリが libpng-1.6.20 にアップデートされています。

  • OpenSSH バージョンのアップデート
    OpenSSH バージョンが 7.1p1 にアップデートされています。

  • 証明書ファイルに改行がないため IO フィルタ VASA プロバイダが初期化を完了しない
    IO フィルタ VASA プロバイダは、証明書ファイルとプライベート キー ファイルを読み取って組み合わせ、pem ファイルを生成します。証明書ファイルが改行で終わらない場合、OpenSSL で認識されない無効な pem ファイルが作成されます。これによりエラーが発生し、iofiltervp が初期化されません。

    本リリースで、この問題は修正されました。

サーバ構成の問題
  • ESXi ホストを Active Directory に参加させた後で Active Directory の操作を実行できない
    ESXi ホストを Active Directory に参加させた後で Active Directory の操作が実行できなくなることがあります。たとえば、信頼性のある別のドメインからユーザーを追加した後に Active Directory ユーザーに権限を付与する操作や、ログイン操作などができなくなる場合があります。/var/log/likewise.log に、次のようなエントリが記録されます。

    20150522181259:DEBUG:lsass:LsaJoinDomain():join.c:380: Error code: 40286 (symbol: LW_ERROR_LDAP_SERVER_DOWN)

    本リリースで、この問題は修正されました。

  • 最新の PCI ID の追加
    最新の PCI ID が含まれるように pci.ids ファイルが更新されました。

  • リソース プールの割当てエラーが発生したときに、ESXi ホストがメンテナンス モードに移行しない
    リソース プールの割当てエラーが発生したときに、ESXi ホストがメンテナンス モードに移行しない

    本リリースで、この問題は修正されました。

ストレージの問題
  • ESXi mClock I/O スケジューラが期待通りに動作しない
    vSphere Client を使用して仮想マシンの IOPS を変更した後でも、ESXi mClock I/O スケジューラは、少ない負荷での I/O を制限しません。

    本リリースで、この問題は修正されました。

  • 既存の LUN のパス状態の更新が遅延する
    内部 API が既存の LUN に対してスキャン呼び出しを発行しないため、LUN のパス状態の更新が多少遅れることがあります。

    本リリースで、この問題は修正されました。

  • 複数の AppStack を接続しようとすると長い時間がかかる
    複数の AppStack または書き込み可能なボリュームを仮想マシンに接続しようとすると、仮想マシンの再構成に遅延が発生します。

    本リリースで、この問題は修正されました。

  • VDDK HotAdd 転送モードを使用して、Virtual Volumes 上で 2 TB を超えるディスクを開くことができない
    Virtual Disk Development Kit (VDDK) の HotAdd 転送モードを使用して、HotAdd を実行し、Virtual Volumes のデータストア上で 2 TB を超えるディスクを開こうとすると失敗することがあります。

    本リリースで、この問題は修正されました。

  • IPv6 セットアップに I/O フィルタをインストールすると、その機能が VPXD に発行されない
    VIM API によって I/O フィルタを正常にインストールした後、インストールされたフィルタが VPXD にフィルタ機能を発行することができません。VMware vSphere のストレージ ポリシーに基づく管理機能 (SPBM) に発行される機能がないため、ディスクにフィルタ プロファイルを添付できません。

    本リリースで、この問題は修正されました。

  • ESXi 6.0 Update 2 が VMIOF バージョン 1.0 および 1.1 をサポートする

    ESXi 6.0 Update 2 は VMIOF バージョン 1.0 および 1.1 をサポートします。vmiof_1_1_0_0 vib タグは、ESXi 基本イメージでサポートされる VIB タグのリストに追加されます。これにより、ESXi 6.0 Update 2 devkit で作成されたフィルタは ESXi 6.0 Update 2 以降のホストにのみインストールされるため、ESXi 6.0 Update 2 以降のみと互換性のあるフィルタを作成することができます。

    ESXi 6.0 Update 2 で作成されたフィルタは、ESXi 6.0 Update ホストでも問題なく動作します。

  • Virtual SAN クラスタのホストを ESXi 6.0 Update 1b にアップグレードした後、クラスタの一部のホストで誤った警告が報告される可能性がある
    Virtual SAN 環境を ESXi 6.0 Update 1b にアップグレードした後、vCenter Server から vSphere Web Client の [サマリ] タブに以下のような誤った警告が報告され、ESXi ホストに通知を示す三角形が表示されます。

    ホストが、Virtual SAN が有効なクラスタ内の他のすべてのノードと通信できません

    本リリースで、この問題は修正されました。

アップグレードとインストールの問題
  • ESXi 6.x のスクリプト化されたインストールで、キックスタート ファイルに --novmfsondisk パラメータが含まれている場合でも、USB または SD メディアが VMFS をサポートしていないという誤った警告が表示される
    スクリプト化されたインストールを使用して、USB または SD メディアとして認識されたディスク上に ESXi 6.0 をインストールすると、インストーラが次の警告メッセージを表示することがあります。

    インストールで指定されたディスク(<disk-id>)は VMFS をサポートしていません。

    このメッセージは、キックスタート ファイル内の install コマンドに --novmfsondisk パラメータが指定されている場合でも表示されます。

    本リリースで、この問題は修正されました。

  • インストールされたライブ VIB が正常に機能せず、再起動後に失われることがある
    ライブ VIB のインストール中は、ライブ VIB のジャンプスタート プラグイン、rc スクリプト、およびサービス スクリプトが実行されます。これらのプラグインとスクリプトにより、エラーまたは例外が検出されることがあります。エラーまたは例外によってインストール プロセスが停止し、また、ライブ VIB がシステムにインストール済みであるとレポートされるのに正常に動作しない、といった予期しない動作が発生することがあります。さらに、ライブ VIB は再起動後に失われます。

    本リリースで、この問題は修正されました。

  • ライブ VIB のインストールが失敗することがある
    ライブ VIB のインストール中に、esximage はライブ VIB のステージング データを作成します。esxcli software VIB get コマンドと list コマンドを同時に実行すると、ステージング データが削除され、ライブ VIB のインストール トランザクションが失敗することがあります。

    本リリースで、この問題は修正されました。

  • ESXi 5.0 または 5.1 から 6.0 Update 1 以降のリリースにアップグレードした後、vMotion の実行に失敗することがある

    ESXi 5.0 または 5.1 から 6.0 Update 1 以降のリリースにアップグレードした後に vMotion を実行しようとすると失敗することがあります。次のようなエラー メッセージが vmware.log ファイルに書き込まれます。

    failed to add memory page 0x201 to VM: Bad parameter

    詳細については、ナレッジベースの記事 2143943 を参照してください。

    本リリースで、この問題は修正されました。

vCenter Server、vSphere Web Client、および vSphere Client の問題
  • vSphere Web Access から、パワーオンされた仮想マシンへの仮想マシン コンソール接続を開始できない
    パワーオンされた仮想マシンを持つする ESXi ホストを vCenter Server に追加するか、ホストをある vCenter Server から別の vCenter Server に切り替えると、vSphere Web Access は仮想マシンへのコンソール接続を開くことができません。この問題が発生すると、次のようなエラー メッセージが表示されます。

    Web コンソールのエラー メッセージ:

    コンソールが切断されました。このウィンドウを閉じ、コンソールを再起動して再接続してください。

    スタンドアロンの VMware Remote Console のエラー メッセージ:

    リモート ホストへの SSL セッションの初期化に失敗しました。

    仮想インフラストラクチャ クライアント コンソールのエラー メッセージ:

    MKS に接続できません: 内部エラー

    vmware.log ファイルのエラー メッセージ:

    SOCKET 6 (150) Error during authd-VNC negotiation: (1) Asyncsocket error.

    本リリースで、この問題は修正されました。

仮想マシンの管理の問題
  • 3D アクセラレーションを有効にしたホストで Hostd がランダムに応答を停止する
    3D アクセラレーションを有効にした ESXi ホストで Hostd がランダムに応答を停止することがあります。hostd ログには次のようなメッセージが記録されます。

    Crash Report build=2809209
    Signal 11 received, si_code 1, si_errno 0
    Bad access at 34
    eip 0xnnnnnnn esp 0xnnnnnnnn ebp 0xnnnnnnnn
    eax 0xnnnnnnnn ebx 0xnnnnnnn ecx 0x47 edx 0x0 esi 0x30 edi 0xnnnnnnnn
    本リリースで、この問題は修正されました。

  • 永続的なデバイス損失の影響を受けた仮想マシンがフェイルオーバーしない
    永続的なデバイス損失 (PDL) の影響を受けた仮想マシンがフェイルオーバー ホスト上でパワーオンしません。仮想マシンをホストするストレージに PDL がある場合はハードウェア バージョン 1 が認識されない、という警告メッセージが表示され、仮想マシンは無効な状態のままとなります。

    本リリースで、この問題は修正されました。

  • 仮想マシンのパフォーマンス カウンタ cpu.system.summation が常に 0 と表示される
    仮想マシンのパフォーマンス カウンタ cpu.system.summation が常に 0 と表示され、仮想マシンのパフォーマンス メトリックが正確に表示されません。

    本リリースで、この問題は修正されました。

vMotion および Storage vMotion の問題
  • 3D ハードウェアを備えた ESXi ホストがメンテナンス モードに移行し、vMotion がトリガされると、Hostd が応答を停止することがある
    3D ハードウェアを備えた ESXi ホスト上で、hostd が仮想マシンの電源状態の変更を検出すると、仮想マシンの状態をチェックするための関数が呼び出されます。vMotion の場合、移行元の仮想マシンはソース ホストで登録解除される前にパワーオフするため、ManagedObjectNotFound 例外が表示され、hostd が応答を停止することがあります。

    本リリースで、この問題は修正されました。

  • 2 台の 2 TB 仮想ディスクを備えた仮想マシンで vMotion を実行することができない
    ESXi 5.0 で作成された 2 つの 2 TB 仮想ディスクをもつ ESXi 6.0 仮想マシンで vMotion を実行しようとすると失敗し、次のようなエラー メッセージが vpxd.log ファイルに記録されます。

    2015-09-28T10:00:28.721+09:00 info vpxd[xxxxx] [Originator@6876 sub=vpxLro opID=xxxxxxxx-xxxxxxxx-xx] [VpxLRO] -- BEGIN task-919 -- vm-281 -- vim.VirtualMachine.relocate -- xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx(xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx)
    2015-09-28T10:00:28.727+09:00 info vpxd[xxxxx] [Originator@6876 sub=vpxLro opID=xxxxxxxx-xxxxxxxx-xx-xx] [VpxLRO] -- BEGIN task-internal-343729 -- -- VmprovWorkflow --
    ....

    本リリースで、この問題は修正されました。

  • ディスクのみのストレージ vMotion 中に仮想マシンが応答を停止するか、パワーオフ状態に移行することがある
    ディスクのみのストレージ vMotion を実行すると、複数のスレッドが同じデータにアクセスしようとするため、仮想マシンが応答を停止してパワーオフ状態に移行することがあります。

    本リリースで、この問題は修正されました。

VMware Tools の問題
  • VMware Tools バージョン 10.0.6 が付属
    このリリースには VMware Tools バージョン 10.0.6 が含まれます。詳細については、VMware Tools 10.0.6 のリリース ノートを参照してください。

既知の問題

ESXi 6.0 の既知の問題には、次のトピックが含まれます。

このリリースで新たにドキュメント化された既知の問題には、「New」というテキストが付加されています。New:

インストールの問題
  • DCUI でデフォルトの構成を変更した後でも、DNS サフィックスが残ることがある
    DHCP サーバを使用するネットワーク環境にデプロイされた場合、ESXi ホストは最初の起動時に、デフォルトの DNS + DNS サフィックスを使用して自動的に構成されることがあります。DNS サフィックスを変更しても、DCUI では指定した新しいサフィックスが追加されるのみで、既存の DNS サフィックスが削除されません。

    回避策:監視 OVF の DNS ホスト名を構成する際には、DNS ホスト名フィールドの完全修飾ドメイン名に、正しい DNS サフィックスを付加するように設定します。その後で、カスタム DNS サフィックス フィールド内の不要な DNS サフィックスを削除できます。

  • 最新の VMware Tools パッケージのインストール後に、VMware Tools サービスのユーザー プロセスが Linux OS で実行されないことがある
    Linux OS で、VMware Tools のアップグレードやインストールの問題が発生したり、最新の VMware Tools パッケージのインストール後に、VMware Tools サービス (vmtoolsd) のユーザー プロセスが実行されない場合があります。この問題は、glibc のバージョンが 2.5 よりも古い場合に発生します(SLES10sp4 など)。

    回避策:Linux glibc をバージョン 2.5 以降にアップグレードしてください。

アップグレードの問題

このリリース ノートの「インストールの問題」セクションも確認してください。多くの場合、インストールの問題はアップグレード プロセスにも影響を与えます。

  • New:esxcli software vib update コマンドを使用した、ESXi 6.x から 6.0 Update 2 へのアップグレードに失敗する
    esxcli software vib update コマンドを使用して ESXi 6.x から 6.0 Update 2 にアップグレードしようとすると失敗し、次のようなエラー メッセージが表示されます。

    "[DependencyError]
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan << 6.0.0-2.35, but the requirement cannot be satisfied within the ImageProfile.
    VIB VMware_bootbank_esx-base_6.0.0-2.34.xxxxxxx requires vsan >= 6.0.0-2.34, but the requirement cannot be satisfied within the ImageProfile."


    この問題は、VIB と相互依存している新しい Virtual SAN VIB を導入したために発生します。esxcli software vib update コマンドでは、システムにすでにインストールされている VIB のみが更新されます。

    回避策:この問題を回避するには、esxcli software profile update コマンドを次の例のように実行します。

    esxcli software profile update -d /vmfs/volumes/datastore1/update-from-esxi6.0-6.0_update02.zip -p ESXi-6.0.0-20160302001-standard

  • New:ESXi パーティション テーブルにコアダンプ パーティションが含まれているときに ESXi をアップグレードすると失敗することがある
    'dd' コマンドを使用して ESXi が SD カード上にデプロイされる(VMware によって提供される esxiso2dd コマンドを使用して作成された .dd イメージを使用して ESXi をデプロイする)場合、ESXi は最初のブート中に 2 番目のパーティションとしてコアダンプ パーティションを作成します。その結果、ESXi のアップグレードが失敗します。

    回避策:この問題を解決するには、2 番目のコアダンプ パーティションを手動で削除する必要があります。ナレッジベースの記事 2144074 を参照してください。

  • 更新されたvSphere 6.0 の旧リリースから vSphere 6.0 Update 1 以降にアップグレードした後、Auto Deploy で SSLv3 が有効のまま残る
    vSphere 6.0 の旧リリースから vSphere 6.0 Update 1 以上にアップデートした後、Auto Deploy で SSLv3 プロトコルが有効のまま残ります。

    回避策:PowerCLI コマンドを使用して、次の手順を実行して SSLv3 無効にします。

    1. 次のコマンドを実行して vCenter Server に接続します。

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <FQDN_hostname or IP Address of vCenter Server>

    2. 次のコマンドを実行して、現在の SSLv3 のステータスを確認します。

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 次のコマンドを実行して SSLv3 を無効にします。

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. Auto Deploy サービスを再起動して、変更を反映します。

  • ファイバ チャネルのホスト バス アダプタのデバイス番号が、ESXi を 5.5.x から 6.0 にアップグレードした後に変更される場合がある

    ESXi を 5.5.x から 6.0 にアップグレードする際に、ファイバ チャネルのホスト バス アダプタのデバイス番号が変更される場合があります。esxcli storage core adapter list コマンドを使用するとデバイス番号が別の番号に変更される場合があります。

    たとえば、ファイバ チャネル ホスト バス アダプタのデバイス番号が、ESXi のアップグレードの前に次のように表示される場合があります。

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    ファイバ チャネル ホスト バス アダプタのデバイス番号が、ESXi 6.0 へのアップグレードの後に次のように表示される場合があります。

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    この例は、esxcli storage core adapter list コマンドを使用した場合に発生する可能性のあるランダムな変更を示しています。デバイスのエイリアス番号 vmhba2 および vmhba3 は vmhba64 および vmhba65 に変更されますが、デバイス番号 vmhba5 および vmhba6 は変更されません。ただし、esxcli hardware pci list コマンドを実行しても、デバイス番号はアップグレード後に変更されません。

    これは VMware 製品の外部の問題であり、影響はない可能性があります。ESXi にはデバイスのエイリアス名が表示されますが、操作には使用されません。ホスト プロファイルを使用してデバイスのエイリアス名をリセットすることができます。VMware の製品ドキュメントおよびナレッジベースの記事を参照してください。

    回避策:なし。

  • Active Directory の設定がアップグレード後に保持されない
    アップグレード前に ESXi ホストで構成された Active Directory の設定は、ホストが ESXi 6.0 にアップグレードされたときに保持されません。

    回避策:アップグレード前の ESXi バージョンが 5.1 以降の場合は、アップグレード後にホストを Active Directory ドメインに追加します。アップグレード前の ESXi バージョンが 5.0.x の場合は、アップグレード後にホストを Active Directory ドメインに追加しないでください。

  • ESXi の 6.0 へのアップグレード前にドメインに追加したホストが、アップグレード後はそのドメインに参加していない
    vSphere 5.5 から vSphere 6.0 に初めてアップグレードする際、Active Directory の構成は保持されません。

    回避策:アップグレード後、ホストを vCenter Server ドメインに再度参加させます。

    1. ホストを vCenter Server に追加します。

    2. 各ホストをドメイン(たとえば、example.com)に参加させます。

    3. すべてのホストを ESXi 6.0 にアップグレードします。

    4. 最近アップグレードした 1 台のホストをドメインに手動で参加させます。

    5. ホスト プロファイルを抽出し、「認証」以外のすべてのプロファイルを無効にします。

    6. 手動で参加させたホストのプロファイルを、直近でアップグレードした他のホストに適用します。

  • vCenter Server for Windows のアップグレード後、以前実行していた VMware ESXi Dump Collector サービスが、デフォルト設定の [無効] にリセットされる
    アップグレード プロセスでは、vCenter Server のオプションのサービスのグループの一部として、VMware vSphere ESXi Dump Collector 6.0 がインストールされます。VMware vSphere ESXi Dump Collector サービスを vCenter Server 6.0 for Windows の一部として使用するには、このサービスを手動で有効にする必要があります。

    回避策:vCenter Server 6.0 for Windows でオプションのサービスを有効にして実行する方法については、VMware のドキュメントを参照するか、または VMware のナレッジ ベースを検索してください。

    次の手順を実行して、VMware vSphere ESXi Dump Collector サービスをオペレーティング システムで有効にします。

    1. [コントロール パネル] メニューで、[管理ツール] を選択して [サービス] をダブルクリックします。

    2. [VMware vSphere ESXi Dump Collector] を右クリックして [起動タイプの編集] を選択します。

    3. [起動タイプ][自動] に設定します。

    4. [VMware vSphere ESXi Dump Collector] を右クリックして [開始] を選択します。

    [サービスの起動タイプ] が自動に設定され、サービスが実行されている状態になります。

vCenter Single Sign-On および証明書の管理の問題
  • ESXi ホストの SSL 証明書のアップグレード後に仮想マシン コンソールに接続できない
    ESXi ホストで使用している SSL 証明書をアップグレードし、証明書が置き換えられたときに実行していた仮想マシンの仮想マシン コンソールに接続を試みると、証明書の検証エラーが発生します。これは、古い証明書がキャッシュされ、コンソールへの接続時に証明書の不一致が発生することが原因です。
    古い証明書が他の方法で検証できる場合などは、コンソールに接続できる可能性もありますが、常に成功するわけではありません。既存の仮想マシン コンソールへの接続には影響しませんが、証明書の置き換え中にコンソールが実行、停止、および再起動された場合には問題が発生する場合があります。

    回避策:ホストをメンテナンス モードまたはサスペンド モードにするか、仮想マシンをパワーオフします。影響を受けるのは実行中の仮想マシンのみです。ベスト プラクティスとして、ホストをメンテナンス モードにした後にすべての SSL 証明書のアップグレードを実行します。

ネットワークの問題

  • 特定の vSphere 機能で IPv6 がサポートされない
    以下の機能を除くすべてのノードとコンポーネントで IPv6 を有効にできます。

    • DNS サーバの完全修飾ドメイン名 (FQDN) にマッピングされない ESXi ホストおよび vCenter Server の IPv6 アドレス。
      回避策:FQDN を使用するか、名前を逆引きできるように IPv6 アドレスが DNS サーバの FQDN にマッピングされていることを確認します。

    • Virtual Volumes

    • Auto Deploy の一部としての PXE ブートおよびホスト プロファイル
      回避策:IPv4 経由で ESXi ホストを PXE 起動し、ホスト プロファイルを使用して IPv6 用にホストを構成します。

    • ESXi ホストおよび vCenter Server Appliance と Active Directory との接続
      回避策:LDAP 経由の Active Directory を vCenter Single Sign-On の ID ソースとして使用します。

    • Kerberos と併用した NFS 4.1 ストレージ
      回避策:NFS 4.1 と AUTH_SYS を使用してください。

    • Authentication Proxy

    • vSphere Management Assistant および vSphere Command-Line Interface と Active Directory との接続
      回避策:LDAP 経由で Active Directory に接続します。

    • vSphere 機能で IPv6 を有効にする vSphere Client の使用
      回避策:vSphere Web Client を使用し、vSphere 機能で IPv6 を有効にします。

  • ESXi Dump Collector を使用時にパニックが繰り返し発生することがある
    ホストがパニック状態のときに、カーネル パニックが繰り返し発生してパープル スクリーンが表示され、ネットワーク経由で ESXi Dump Collector にコア ダンプが書き込まれることがあります。vCenter Server の ESXi Dump Collector では、VMkernel zdump ファイルはトラブルシューティングに使用できないことがあります。

    カーネル パニックが繰り返し発生する事例では、ホストのパープル スクリーンに以下のメッセージが表示されます。
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    物理ネットワーク アダプタが vCenter Server 上のコレクタにコア ダンプを送信するよう構成されている場合、この物理アダプタに過剰なトラフィックが通過すると、VMkernel がパニック状態になり、カーネル パニックが発生することがあります。

    回避策:次のいずれかの回避策を実行します。

    • システムおよび仮想マシンのトラフィックからの影響を低減するため、コア ダンプ転送専用の物理ネットワーク アダプタを配置します。

    • 次の esxcli コンソール コマンドを実行して、ホスト上で ESXi Dump Collector を無効にします。
      esxcli system coredump network set --enable false

ストレージの問題

NFS バージョン 4.1 の問題

  • NFS 4.1 の共有が全パス ダウン (APD) の状態からリカバリした後、NFS 4.1 データストア上の仮想マシンが失敗する
    NFS 4.1 ストレージが APD 状態に入り、猶予時間の経過後に APD 状態から出たとき、NFS 4.1 データストア上で実行されているパワーオンされた仮想マシンが失敗します。猶予時間はアレイのベンダーによって異なります。
    NFS 4.1 の共有が APD からリカバリした後、vSphere Web Client の仮想マシンのサマリ ページに以下のメッセージが表示されます。
    仮想マシンを保護するロックが失われました。基盤となるストレージに問題がある可能性があります。この仮想マシンが高可用性用に構成されている場合、「OK」をクリックする前に、仮想マシンが他のホストで実行されていることを確認してください。
    [OK] をクリックすると、クラッシュ ファイルが生成され、仮想マシンがパワーオフされます。

    回避策:なし。

  • セッションを新規作成すると NFS 4.1 クライアントがサーバとの同期を失う
    サーバとの接続が中断された期間の後、セッションを新規作成すると、NFS 4.1 クライアントがサーバとの同期を失うことがあります。この問題が発生したときには、vmkernel.log ファイルに NFS41 CREATE_SESSION の要求が NFS4ERR_SEQ_MISORDERED で失敗したことを知らせる警告メッセージが出力されます。

    回避策:次の手順を実行します。

    1. 影響を受けるファイル システムのマウント解除を試みます。マウント解除時にファイルが開かない場合は、この操作は成功で、NFS クライアント モジュールは内部状態をクリーンアップします。マウント解除されていないファイル システムは、再度マウントして通常の操作を再開できます。

    2. NIC 接続をマウントの IP アドレスに一致させ、複数のサーバのリース時間が期限切れになるまでそのままにします。5 分で十分です。そうすれば、NIC をバックアップの状態にすることができます。通常操作が再開されます。

    3. ここまでの手順で失敗する場合には、ESXi ホストを再起動します。

  • NFS 4.1 クライアントが NFS サーバとの同期を失い、セッションがリセットされても接続がリカバリできない
    サーバとの接続の中断期間後、NFS 4.1 クライアントサーバとの同期を失うことがあり、セッションがリセットされてもサーバとの同期接続はリカバリされません。この問題は、EMC VNX サーバの問題によって発生します。この問題が発生すると、vmkernel.log ファイルには NFS41 に関する次のような警告メッセージが出力されます。NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug

    回避策:セッションを終了するには、すべてのデータストアをマウント解除し、再度マウントします。

  • ONTAP Kerberos ボリュームがアクセス不能になるか、仮想マシンの I/O 障害が発生する
    NetApp サーバは、誤った順序で到達した RPCSEC_GSS 要求を受信すると応答しません。結果として、該当する I/O 操作が終了されない場合は操作は停止し、ゲスト OS は停止するか、またはゲスト OS で I/O エラーが発生する可能性があります。さらに、RFC 2203 に従って、クライアントは RPCSEC_GSS コンテキストに応じて seq_window に等しい要求の残数(ONTAP の場合は 32)のみを持つことができ、サーバがこれらの残り要求の最下位に処理を完了するまで待機する必要があります。従って、サーバが順序の誤った RPCSEC_GSS 要求に応答することはなく、クライアントは残り要求が seq_window の最大数に到達したらサーバへの要求の送信を停止します。これにより、ボリュームはアクセス不能になります。

    回避策:なし。最新のハードウェア互換性リスト (HCL) を確認して、この問題が解決された、サポートされている ONTAP サーバを見つけます。

  • EMC VNX の NFS 4.1 データストアに 1 TB を超える仮想ディスクを作成できない
    EMC VNX の、ファームウェアのバージョンが 7.x の NFS バージョン 4.1 ストレージでは、32 ビットのファイル形式しかサポートされていません。これにより、1 TB を超える仮想マシン ファイルは NFS 4.1 データストアに作成できません。

    回避策:EMC VNX アレイをバージョン 8.x にアップグレードします。

  • EMC VNX によってバッキングされる NFS 4.1 データストアがファームウェアのアップグレード中にアクセス不能になる
    EMC VNX ストレージを新しいファームウェアにアップグレードするときに、ESXi ホストにマウントされた NFS 4.1 データストアにアクセスできなくなります。これは、VNX サーバがファームウェアのアップグレード後にデバイスのメジャー番号を変更するために発生します。ホストの NFS 4.1 クライアントは、サーバとの接続が確立された後にメジャー番号が変更されることを想定していないため、データストアは永続的にアクセス不能になります。

    回避策:ファームウェアのアップグレード前に、VNX サーバによってエクスポートされたすべての NFS 4.1 データストアをマウント解除します。

  • ESXi ホストが異なるセキュリティ メカニズムを使用して、同じ NFS 4.1 データストアをマウントすると、仮想マシンで障害が発生することがある
    異なる ESXi ホストが、異なるセキュリティ メカニズム(AUTH_SYS および Kerberos)を使用して同じ NFS 4.1 データストアをマウントすると、このデータストアに配置された仮想マシンで問題および障害が発生することがあります。たとえば、仮想マシンを host1 から host2 へ移行しようとすると、権限拒否エラーで失敗する可能性があります。また host2 から host1 の仮想マシンにアクセスしようとするときも、このようなエラーが発生することがあります。

    回避策:NFS 4.1 ボリュームをマウントするすべてのホストで、同じセキュリティ タイプが使用されるようにします。

  • 読み取り専用ファイルを Kerberos が有効な NFS 4.1 データストアにコピーしようとすると失敗する
    データをソース ファイルからターゲット ファイルにコピーしようとすると、障害が発生することがあります。ターゲット ファイルは空のままです。

    回避策:なし。

  • データストア クラスタを作成するとき、NFS 4.1 のセキュリティ タイプの一様性が保証されない
    データストア クラスタを作成するとき、vSphere では、NFS 4.1 のセキュリティ タイプの一様性を検証および強制しません。その結果、異なるセキュリティ タイプ(AUTH_SYS および Kerberos)を使用するデータストアが、同じクラスタに所属する可能性があります。Kerberos を使用するデータストアから AUTH_SYS を使用するデータストアに仮想マシンを移行すると、仮想マシンのセキュリティ レベルが低下します。
    この問題は、vMotion、Storage vMotion、DRS、Storage DRS などの機能でも発生します。

    回避策:仮想マシンで Kerberos セキュリティを使用する必要がある場合は、同じクラスタを構成するすべての NFS 4.1 ボリュームが Kerberos セキュリティ タイプのみを使用するようにします。NFS 3 は AUTH_SYS のみをサポートしているため、NFS 3 データストアは含めないでください。

Virtual Volumes の問題

  • Virtual Volumes VASA プロバイダによって使用されている誤った証明書のために仮想データストアの作成が失敗する
    Virtual Volumes VASA プロバイダに使用されている自己署名の証明書で、keyCertSign ビットを設定せずに KeyUsage エクステンションが誤ってクリティカルに定義されていることがあります。この場合、プロバイダの登録は成功します。しかし、VASA プロバイダから報告されたストレージ コンテナから仮想データストアを作成することはできません。

    回避策:プロバイダの登録の時点で VASA プロバイダが使用している自己署名の証明書では、keyCertSign ビットを設定せずに KeyUsage エクステンションの定義をしないようにします。

全般的なストレージの問題

  • New:ESXi 6.0 Update 2 ホストが、特定バージョンのファームウェアを使用する特定のストレージ アレイに接続されている場合、I/O タイムアウトが発生し、その後処理が停止することがある
    特定バージョンのファームウェアを使用する特定のストレージ アレイに接続されている ESXi 6.0 Update 2 ホストが SMART データの要求をストレージ アレイに送信して、アレイから PDL エラーが返った場合、6.0 Update 2 の PDL の応答の動作が原因で、これらの失敗したコマンドが継続して再試行され、他のコマンドをブロックすることがあります。このエラーは、広範な I/O タイムアウトと、それに続く処理の停止の原因となります。

    また、ESXi ホストが再起動後に vCenter Server に再接続するのに時間がかかったり、ホストが vCenter Server で「応答なし」の状態になったりします。HBA の再スキャンのような、ストレージに関連したタスクの完了に非常に長い時間がかかることもあります。

    回避策:この問題を解決するには、ナレッジベースの記事 2133286 を参照してください。

  • 新しい仮想マシンが既存のディスクから作成された場合に、vSphere Web Client で、ストレージ ポリシーが添付済みとして誤って表示される
    vSphere Web Client を使用して新しい仮想マシンを既存のディスクから作成し、ディスクを設定する時に、ストレージ ポリシーを指定します。新しい仮想マシンを選択して、[仮想マシン ポリシー] > [仮想マシン ストレージ ポリシーの編集] の順にクリックすると、フィルタが添付されているように見えます。しかし、このフィルタは実際には添付されていません。.vmdk ファイルまたは vmkfstools --iofilterslist <vmdk-file>' で、フィルタが添付されているかどうかを確認します。

    回避策:新しい仮想マシンの作成後、それをパワーオンする前に、[仮想マシン ポリシー] > [仮想マシン ストレージ ポリシーの編集] の順にクリックして vmdk にフィルタを追加します。

  • NFS ルックアップ操作で NFS STALE エラーが返される
    大量の仮想マシンを NFS データストアにデプロイする場合、競合状態のために、次のエラー メッセージが表示されて仮想マシンのデプロイが失敗します。

    失効した NFS ファイル ハンドル

    回避策:ルックアップ操作をやり直します。詳細については、ナレッジベースの記事 2130593 を参照してください。

  • QLogic iSCSI アダプタの使用時に Dell EqualLogic LUN に VMFS データストアの作成を試みると失敗する
    VMFS データストアは、QLogic iSCSI アダプタを通して検出された Dell EqualLogic ストレージ デバイスには作成できません。
    失敗すると、vCenter Server に次のエラー メッセージが表示されます。ファイルシステムを作成できません。詳細は、VMkernel ログを参照してください。接続がタイム アウトになりました。VMkernel ログには、「iscsi session blocked」と「iscsi session unblocked」というメッセージが続けて記録されます。Dell EqualLogic ストレージ アレイでは、監視ログで QLogic イニシエータの IQN 名に「protocol error in packet received from the initiator(イニシエータからのパケット受信中にプロトコル エラーが発生しました)」というメッセージが表示されます。

    この問題は、以下のコンポーネントの使用時に確認されています。

    • Dell EqualLogic アレイ ファームウェア:V6.0.7

    • QLogic iSCSI アダプタ ファームウェア バージョン:3.00.01.75

    • ドライバ バージョン:5.01.03.2-7vmw-debug

    回避策:QLogic iSCSI アダプタの [iSCSI ImmediateData] アダプタ パラメータを有効にします。デフォルトでは、パラメータはオフになっています。このパラメータは、vSphere Web Client から、または esxcli コマンドを使用して変更できません。このパラメータを変更するには、QConvergeConsole CLI などのベンダー配布のソフトウェアを使用します。

  • Emulex OneConnect HBA がある ESXi ホストが起動に失敗する
    ESXi ホストに Emulex OneConnect HBA がインストールされていると、ホストが起動に失敗することがあります。この失敗は、Emulex ファームウェアの問題が原因で発生します。

    回避策:この問題を解決するには、Emulex に連絡して HBA 用の最新ファームウェアを入手します。

    古いファームウェアの使用を継続する場合は、以下の手順に従って起動の失敗を回避します。

    1. ESXi のロード時に、ESXi kernel の起動前に Shift + O キーを押します。

    2. 既存の起動オプションはそのままにし、dmaMapperPolicy=false の前に空白を追加します。

  • APD 中に vSphere Flash Read Cache で I/O アクセラレーションが実行されない
    vSphere Flash Read Cache の仮想フラッシュ リソースとして構成されたフラッシュ ディスクで障害が発生するか、アクセスができなくなったとき、またはディスク ストレージがホストからアクセスできないときに、そのホストの vSphere Flash Read Cache インスタンスは無効になり、I/O アクセラレーションが実行されなくなります。結果的に、接続がホストとストレージ間で再確立された後、キャッシュは古いデータを提供しません。接続の停止は一時的な「All Paths Down (APD)」の状態か、永続的な「Permanent Device Loss (PDL)」の可能性があります。この状態は、仮想マシンがパワーオンし直されるまで続きます。

    回避策:仮想マシンをパワーオンし直すことで vSphere Flash Read Cache を使用した I/O アクセラレーションをリカバリできます。

  • 全パス ダウン (APD) またはパス フェイルオーバーが原因でシステム障害が発生することがある
    共有された SAS 環境では、ディスクが lsi_msgpt3 ドライバによって要求され、ディスクで過剰な I/O アクティビティが発生している場合、APD またはパス フェイルオーバーの状況が原因でシステム障害が発生することがあります。

    回避策:なし

  • プロセスを停止する SCSI コマンドを頻繁に使用すると、システム障害が発生することがある
    過剰な I/O アクティビティにより、プロセスを停止する SCSI コマンドの頻繁な使用によって MegaRAID コントローラからの応答が著しく遅れる可能性があります。以前のコンテキストですでにリリースされているリソースの参照で予期しない中断が発生すると、システム障害が発生することがあります。

    回避策:なし

  • IQN を変更すると iSCSI 接続が失敗してデータストアがアクセス不能になる
    この問題は、iSCSI アダプタ上のセッションがアクティブなときに iSCSI アダプタの IQN を変更した場合に発生することがあります。

    回避策:iSCSI アダプタの IQN を変更するときには、そのアダプタ上にはアクティブなセッションがないようにします。IQN の変更前に、アダプタ上のすべての iSCSI セッションおよびすべてのターゲットを削除します。

  • nvmecli のオンラインおよびオフラインの操作が常に有効にならないことがある
    nvmecli device online -A vmhba* 操作を実行して NVMe デバイスをオンラインにすると、操作が成功したように見えます。しかし、デバイスはオフライン状態のままです。

    回避策:nvmecli device list コマンドを実行して、NVMe デバイスの確認をします。

サーバ構成の問題
  • Auto Deploy でプロビジョニングされているホストにステートフル ホストのホスト プロファイルを適用すると、修正に失敗する
    Auto Deploy でプロビジョニングされている、ローカル ストレージを持たないホスト(ステートレス ホスト)にステートフルにデプロイされているホストのホスト プロファイルを適用すると、修正に失敗し、次のいずれかのエラー メッセージが表示されます。

    • PCI バス アドレス <sxxxxxxxx.xx> の vmhba デバイスがホストに存在しません。シャットダウンしてから PCI スロット <yy> にカードを挿入する必要があります。 カードのタイプはリファレンス ホストと完全に一致している必要があります。

    • 有効なコアダンプ パーティションが見つかりませんでした。

    回避策:ホスト プロファイルの問題(デバイス エイリアス構成、コア ダンプ構成など)の原因となるプラグインを無効にしてから、ホスト プロファイルを修正します。

  • 固定 IP アドレスを持つホスト プロファイルをホストに適用すると、コンプライアンス エラーになる
    DHCP ネットワーク構成を持つホストからホスト プロファイルを抽出し、固定 IP アドレスを持つようにホスト プロファイルを編集すると、そのホスト プロファイルを別のホストに適用したとき、コンプライアンス エラーが発生し、次のメッセージが表示されます。

    IPv4 ルートの数が一致しませんでした。

    回避策:DHCP ホストからホスト プロファイルを抽出する前に、固定 IP アドレスを持つようにホストを構成します。

  • ネットワーク リソースがオーバーコミットされた仮想ネットワーク アダプタをホット アドすると、仮想マシンがパワーオフされることがある
    Network I/O Control が有効な vSphere Distributed Switch では、ホストの物理ネットワーク アダプタ上の仮想マシン システム トラフィックの予約に応じて、パワーオンされた仮想マシンのバンド幅の予約が設定されます。ある仮想マシンに、ホストの物理ネットワーク アダプタで使用可能なバンド幅を超えるネットワーク バンド幅が予約されており、この仮想マシンにネットワーク アダプタをホットアドしたとします。

    ネットワーク アダプタをホット アドすると、VMkernel はファスト サスペンド/レジューム (FSR) のプロセスを開始します。仮想マシンは使用可能な量を超えたネットワーク リソースを要求するため、VMkernel は FSR プロセスの障害パスを実行します。この障害パスでの障害が原因で、仮想マシンがパワーオフされます。

    回避策:ネットワーク アダプタをパワーオンした仮想マシンに追加するときには、帯域幅予約を構成しないでください。

vSphere HA および Fault Tolerance の問題
  • レガシー フォールト トレランス (FT) が Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT、および Broadwell-DE プラットフォームでサポートされない
    レガシー FT が Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT、および Broadwell-DE プラットフォームでサポートされません。単一プロセッサのレガシー Fault Tolerance を有効にすると、仮想マシンをパワーオンしようとしても失敗します。

    回避策:なし。

ゲスト OS の問題
  • NVMe PCIe SSD デバイス上でパススルー モードを有効にしようとするとホット プラグ後に失敗することがある
    vSphere Web Client から SSD デバイス上でパススルー モードを有効にするには、ホストを選択して [管理] タブ、[設定] の順にクリックし、[ハードウェア] セクションに移動します。次に [PCI デバイス] > [編集] の順にクリックし、パススルー モードを有効にできるアクティブなデバイスのリストからデバイスを選択して、[OK] をクリックします。しかし、新しい NVMe デバイスを PCIe NVMe ドライブのない ESXi 6.0 ホストにホット プラグするときには、新しい NVMe PCIe SSD デバイスはパススルー モードが有効にされず、使用可能なパススルー デバイスのリストに表示されません。

    回避策:ホストを再起動します。ESXi ホスト上でコマンドを実行することもできます。

    1. root ユーザーとしてログインします。

    2. 以下のコマンドを実行します。
      /etc/init.d/hostd start

サポート対象のハードウェアの問題
  • HP サーバ上の Avago コントローラに対して esxcli を実行し、ディスク位置を取得する場合、結果が正しくならない

    HP サーバ上の Avago コントローラに対して esxcli storage core device physical get を実行すると、正しい結果が得られません。

    たとえば以下を実行したとします。
    esxcli storage core device physical get -d naa.5000c5004d1a0e76
    すると、システムは以下を返します。
    Physical Location: enclosure 0, slot 0

    物理サーバ上のそのスロットの実際のラベルは 1 です。

    回避策:HP サーバのスロットを十分に確認してください。HP サーバのスロット番号は 1 から開始するので、正しい結果を得るにはコマンドが返すスロット番号を増やす必要があります。

CIM および API の問題
  • sfcb-vmware_raw が失敗する場合がある
    デフォルト プラグイン リソース グループの割り当て済み最大メモリが十分でないために、sfcb-vmware_raw が失敗する場合があります。

    回避策:次のコマンドを使用して sfcbd プラグインのメモリ制限に対する UserVars CIMOemPluginsRPMemMax を追加し、sfcbd を再起動して新しいプラグインの値を有効にします。

    esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

    XXX は割り当てたいメモリ制限です。この値は 175(最小)から 500(最大)の間にします。