check-circle-line exclamation-circle-line close-line

ESXi 6.0 Update 1a | 2015 年 10 月 6 日 | ISO ビルド 3073146

各リリース ノートで、追加および更新された機能をご確認ください。

リリース ノートの概要

本リリース ノートには、次のトピックが含まれています。

新機能

この VMware ESXi リリースでは、次のように機能が拡張されています。

  • I/O フィルタ: vSphere APIs for I/O Filtering (VAIO) は、第三者が I/O フィルタと呼ばれるソフトウェア コンポーネントを作成するためのフレームワークを提供します。フィルタは ESXi ホストにインストールすることができ、仮想マシンのゲスト OS と仮想ディスク間を移動する I/O 要求を処理することで仮想マシンに追加のデータサービスを提供することができます。

  • 低遅延仮想マシンに関連付けられた追加システムのコンテキストに対する排他的なアフィニティ:このリリースでは、ほとんどのシステム コンテキストがまだワールドレットである vSphere 6.0 の問題に対処するための新しい VMX オプション sched.cpu.latencySensitivity.sysContexts が導入されています。スケジューラは、各仮想マシンに sched.cpu.latencySensitivity.sysContexts オプションを使用して、遅延の影響を受けやすいワークロードに関与している可能性のある一連のシステム コンテキストを自動的に識別します。これらのシステム コンテキストそれぞれに対して、1 つの専用物理コアへの排他的なアフィニティが提供されます。VMX オプション sched.cpu.latencySensitivity.sysContexts は、1 つの低遅延の仮想マシンがシステム コンテキストに対して排他的なコアをいくつ取得できるかを示します。

  • Active Directory 用の ESXi 認証:ESXi と Active Directory 間の Kerberos 通信に対して、ESXi では AES256-CTS/AES128-CTS/RC4-HMAC の暗号化のみをサポートするように変更されました。

  • SSLv3 のサポート:デフォルトでは、SSLv3 のサポートが無効にされています。詳細については、ナレッジ ベースの記事 2121021 を参照してください。

  • Dying Disk Handling (DDH):Dying Disk Handling 機能は、カーネルでの遅延のモニタリング フレームワーク、遅延が大きい期間を検出するデーモン、個々のディスクとディスク グループをアンマウントするメカニズムを提供します。

  • 拡張クラスタ: Virtual SAN 6.0 Update 1 では、データをサイトの障害やネットワーク接続の切断から保護するために、地理的に離れた複数の場所に設置された拡張クラスタをサポートしています。

ESXi 6.0 の旧リリース

ESXi 6.0 の機能と既知の問題については、各リリースのリリース ノートに記載されています。ESXi 6.0 の旧リリース ノート

利用可能な言語

VMware ESXi 6.0 は、次の言語で使用可能です。

  • 英語
  • フランス語
  • ドイツ語
  • 日本語
  • 韓国語
  • 簡体字中国語
  • 繁体字中国語

vCenter Server、ESXi、vSphere Web Client、vSphere Client を含む VMware vSphere 6.0 のコンポーネントは非 ASCII 入力を受け入れません。

互換性

ESXi、vCenter Server、および vSphere Web Client のバージョンの互換性

VMware 製品互換性マトリクスでは、ESXi、VMware vCenter Server、vSphere Web Client、および任意で使用可能な VMware 製品を含む VMware vSphere コンポーネントの現在のバージョンと旧バージョンとの互換性について、詳細に説明しています。ESXi または vCenter Server をインストールする前に、サポート対象の管理エージェントおよびバックアップ エージェントについて、VMware 製品互換性マトリクス(英語)で確認してください。

vSphere Web Client は vCenter Server パッケージに含まれます。VMware vSphere Client はモジュール ISO ファイルの一部である VMware vCenter の自動再生メニューからインストールできます。

ESXi のハードウェア互換性

vSphere 6.0 と互換性のあるプロセッサ、ストレージ デバイス、SAN アレイ、および I/O デバイスについては、VMware 互換性ガイドの ESXi 6.0 の情報を参照してください。

ESXi のデバイス互換性

ESXi 6.0 と互換性のあるデバイスを確認するには、VMware 互換性ガイドの ESXi 6.0 の情報を参照してください。

一部のデバイスへの互換性は廃止されており、ESXi 6.0 ではサポートされていません。アップグレード時に、互換性が廃止されたデバイスのドライバが ESXi 6.0 ホストにインストールされ、デバイス ドライバは引き続き ESXi 6.0 で機能することもありますが、ESXi 6.0 で正式にサポートされているわけではありません。互換性が廃止され、ESXi 6.0 ではサポートされていないデバイスのリストについては、KB 2087970 を参照してください。

ESXi のサードパーティ製スイッチの互換性

VMware vSphere 6.0 では、Cisco Nexus 1000V がサポートされます。これを利用するには、vSphere に NX-OS リリース 5.2(1)SV3(1.4) 以降が必要です。Cisco Nexus 1000V の詳細については、Cisco リリース ノートを参照してください。vSphere の以前のリリースと同様に、Ciscso Nexus 1000V AVS モードはサポートされません。

ESXi のゲスト OS の互換性

vSphere 6.0 と互換性のあるゲスト OS を確認するには、VMware 互換性ガイドの ESXi 6.0 の情報を参照してください。

ESXi の仮想マシンの互換性

ESX 3.x 以降 (ハードウェア バージョン 4) と互換性がある仮想マシンは、ESXi 6.0 でもサポートされています。ESX 2.x 以降(ハードウェア バージョン 3)と互換性がある仮想マシンは、サポートされていません。このような仮想マシンを ESXi 6.0 で使用するには、仮想マシンの互換性をアップグレードする必要があります。『vSphere のアップグレード』のドキュメントを参照してください。

本リリースのインストールおよびアップグレード

本リリースのインストールに関する注意事項

ESXi と vCenter Server のインストールおよび構成の手順については、『vSphere のインストールとセットアップ』ドキュメントを参照してください。

インストールを行った後、重要な構成手順を行う必要があります。次のドキュメントをお読みください。

vSphere 6.0 で推奨される導入モデル

VMware は、次の 2 つの導入モデルのみを推奨しています。

  • Platform Services Controller が組み込まれた vCenter Server。このモデルは、データセンター内にスタンドアロンの vCenter Server インスタンスを 1 つ以上デプロイする場合にお勧めします。Platform Services Controller が組み込まれた vCenter Server モデル間のレプリケーションはお勧めしません。

  • 外部 Platform Services Controller が組み込まれた vCenter Server。このモデルは、複数の vCenter Server インスタンスをリンクする必要があるか、データセンター内で Platform Services Controller の占有量を縮小したい場合にのみお勧めします。外部 Platform Services Controller が組み込まれた vCenter Server モデル間のレプリケーションはサポートされます。

vCenter Server のインストールおよび構成の手順については、『vSphere のインストールとセットアップ』ドキュメントを参照してください。

vCenter Server のインストールおよび構成の手順については、KB 2108548 を参照してください。

vCenter ホスト OS 情報

VMware のナレッジ ベースの記事 KB 2091273 を参照してください。

外部 Platform Services Controller を使用する vCenter Server および vCenter Server Appliance デプロイのバックアップとリストア

vSphere のインストールとセットアップ』のドキュメントには、外部 Platform Services Controller を使用する vCenter Server および vCenter Server Appliance のバックアップおよびリストアはサポートされていないと記述されていますが、KB 2110294 の手順に従ってこのタスクを実行できます。

組み込みの Platform Services Controller から外部 Platform Services Controller への移行

Platform Services Controller が組み込まれた vCenter Server は、外部 Platform Services Controller が組み込まれた vCenter Server に自動的に移行することはできません。移行ユーティリティは、現在テスト中です。

vCenter Server をインストールする前に、導入オプションを決定します。レプリケーションのセットアップに複数の vCenter Server が必要な場合は、外部 Platform Services Controller が組み込まれた vCenter Server を必ず導入してください。

サードパーティ製ソリューションの移行

サードパーティ関連のカスタマイズを伴うアップグレードの詳細については、『vSphere のアップグレード』ドキュメントを参照してください。カスタム ISO を作成するための Image Builder の使用方法の詳細については、『vSphere のインストールとセットアップ』ドキュメントを参照してください。

サポート対象外の CPU に対するアップグレードおよびインストールの禁止

vSphere 6.0 は 2006 年 6 月(第 3 四半期)以降に製造されたプロセッサのみをサポートしています。vSphere 5.x のサポート対象プロセッサのうち、次のプロセッサは vSphere 6.0 でサポートされません。

  • AMD Opteron 12xx シリーズ
  • AMD Opteron 22xx シリーズ
  • AMD Operton 82xx シリーズ

インストールまたはアップグレード中に、インストーラによってホスト CPU と vSphere 6.0 の互換性がチェックされます。ホスト ハードウェアに互換性がないと非互換性情報メッセージを示すパープル スクリーンが表示され、vSphere 6.0 インストール プロセスが停止します。

本リリースのアップグレードに関する注意点

vCenter Server および ESX/ESXi ホストのアップグレードの詳細については、『vSphere のアップグレード』ドキュメントを参照してください。

VMware vSphere 6.0 用オープン ソース コンポーネント

vSphere 6.0 で配布されるオープン ソース ソフトウェア コンポーネントに適用される著作権情報およびライセンスは、http://www.vmware.com ご確認ください。My VMware アカウントにログインする必要があります。[ダウンロード] メニューから [vSphere] を選択します。[オープン ソース] タブでは、vSphere の最新リリースで利用されており、ソース コードやソース コードへの改変の公開が必要な GPL、LGPL、またはその他の類似のライセンスのソース ファイルをダウンロードできます。

製品サポートに関する注意事項

  • vCenter Server データベース。vCenter Server Appliance 用の外部データベースとしての Oracle 11g および 12c は、vSphere 6.0 リリースで廃止予定です。すでにご利用頂いている場合、Oracle 11g および 12c は、vSphere 6.0 での外部データベースとして引き続きサポートされます。VMware は、vCenter Server Appliance 用外部データベースとしての Oracle 11g および 12c のサポートを今後のメジャー リリースで削除する予定です。

  • vSphere Web Client:オブジェクトの [監視] タブにある [ストレージ レポート] は vSphere 6.0 の Web Client では提供されません。

  • vSphere Client:vSphere Client 6.0 では、[ストレージ ビュー] タブは使用できなくなりました。

本リリースに含まれるパッチ

本リリースには、本製品のリリース日以前にリリースされた ESXi のすべてのパッチが含まれています。各パッチの詳細については、VMware のパッチのダウンロード ページを参照してください。

パッチ リリース ESXi600-Update01 には、次の各パッチが含まれています。

ESXi600-201510401-BG: ESXi 6.0 esx-base vib のアップデート

パッチ リリース ESXi600-Update01 には、次のイメージ プロファイルが含まれています。

ESXi-6.0.0-20151004001-standard
ESXi-6.0.0-20151004001-no-tools

パッチおよびアップデートの分類に関する情報については、KB 2014447 を参照してください。

解決した問題

解決された問題には、次のトピックが含まれます。

CIM および API の問題
  • Emulex CIM プロバイダが同じ ESXi ホストにインストールされている場合、ServerView CIM プロバイダがハードウェア ステータスを監視できない
    ServerView CIM プロバイダと Emulex CIM プロバイダが同じ ESXi ホストにインストールされている場合、Emulex CIM プロバイダ (sfcb-emulex_ucn) は応答に失敗し、ハードウェア ステータスを監視できない場合があります。

    本リリースで、この問題は修正されました。
ゲスト OS の問題
  • EFI で起動された Linux ゲストが、キーボードとマウスの入力への応答に失敗する場合がある
    EFI ファームウェア上で起動された Linux ゲスト OS で、EFI 起動中の短い時間にマウスを動かすと、キーボードとマウスの入力に応答できない場合がありました。

    本リリースで、この問題は修正されました。

アップグレードとインストールの問題
  • ステートレス キャッシュが有効なホスト プロファイルをステートレス ESXi ホストに適用すると、完了するまでに時間がかかる場合がある
    esx を最初のディスク引数としてステートレス キャッシュを有効にした場合、大量のストレージ LUN を備えたステートレス ESXi ホストにホスト プロファイルを適用すると再起動に時間がかかることがあります。これは、ホスト プロファイルを手動で適用するときや、ホストを再起動する間に発生します。

    本リリースで、この問題は修正されました。

  • オランダ語版の Windows Server 2008 R2 に VMware Tools バージョン 9.10.0 をインストールまたはアップグレードできない
    ESXi 6.0 で利用可能な VMware Tools バージョン 9.10.0 をオランダ語版の Windows Server 2008 R2 にインストールまたはアップグレードしようとすると失敗する場合があります。次のようなエラー メッセージが表示されます。

    VMware Tools のセットアップ ウィザードが途中で終了しました

    本リリースで、この問題は修正されました。

  • VIB ステージング操作によって、ESXi ホストの再起動の後に VIB のインストールまたは構成変更が失われる場合がある
    いくつかの VIB をシステムにインストールすると、esxupdate は /altbootbank に新しいイメージを構築し、更新される /altbootbank boot.cfg bootstate を変更します。ライブ状態のインストール可能な VIB がインストールされると、システムは構成の変更を /altbootbank に保存します。ステージング操作後に修正操作を実施しない限り、ステージング操作によって /altbootbank の内容が削除されます。ステージング操作後にホストを再起動すると、VIB のインストールが失われる可能性があります。

    本リリースで、この問題は修正されました。

ネットワークの問題
  • VDS 上の ESXi ホストに vmnic を追加しようとすると、「サポートされていないアドレス ファミリ」エラーが生成されて失敗する
    ESXi 5.5 から 6.0 にアップグレードした後、vSphere Distributed Switch (VDS) に接続された VMware ESXi ホストに vmnic を追加しようとすると失敗する場合があります。この問題は、ipfix が有効で IPv6 が無効な場合に発生します。

    影響を受ける ESXi ホストの /var/log/vmkernel.log ファイルに次のようなエントリが表示されます。

    cpu10:xxxxx opID=xxxxxxxx)WARNING: Ipfix: IpfixActivate:xxx: Activation failed for 'DvsPortset-1': Unsupported address family
    cpu10:xxxxx opID=xxxxxxxx)WARNING: Ipfix: IpfixDVPortParamWrite:xxx: Configuration failed for switch DvsPortset-1 port xxxxxxxx : Unsupported address family
    cpu10:xxxxx opID=xxxxxxxx)WARNING: NetDVS: xxxx: failed to init client for data com.vmware.etherswitch.port.ipfix on port xxx
    cpu10:xxxxx opID=xxxxxxxx)WARNING: NetPort: xxxx: failed to enable port 0x4000002: Unsupported address family
    cpu10:xxxxx opID=xxxxxxxx)NetPort: xxxx: disabled port 0x4000002
    cpu10:xxxxx opID=xxxxxxxx)Uplink: xxxx: vmnic2: Failed to enable the uplink port 0x4000002: Unsupported address family

    本リリースで、この問題は修正されました。

  • VMXNET3 仮想アダプタを使用する仮想マシンを iPXE から起動しようとすると失敗する場合がある
    VMXNET3 仮想アダプタを使用する仮想マシンを iPXE (オープン ソースの起動ファームウェア)から起動しようとすると、失敗する場合があります。

    本リリースで、この問題は修正されました。

  • 物理 NIC 負荷に基づいてロード バランシングを使用するときにアップリンクが切断またはシャットダウンされているとフェイルオーバーが開始されない
    VDS 6.0 上で物理 NIC 負荷に基づいてロード バランシングを使用するとき、アップリンクの 1 つが切断またはシャットダウンされているとフェイルオーバーが開始されません。

    本リリースで、この問題は修正されました。

  • vMotion で vmk10 以降を有効にすると、再起動時に、vMotion で vmk1 が有効になる
    vmk10 以降で vMotion を有効にすると、ESXi ホストの再起動時に vmk1 は vMotion を有効にする場合があります。この問題により、vmk1 のトラフィックが過剰になり、結果としてネットワークの問題が発生する可能性があります。

    本リリースで、この問題は修正されました。

  • 標準 vSwitch に接続された VMXNET3 で構成された仮想マシンに対して仮想マシン ネットワーク パフォーマンスのデータ メトリックが利用できない
    VMware vSphere Client 6.0 の VMXNET3 アダプタで構成された仮想マシンでは、[切り替え先] ドロップダウン リストのオプションが利用できないため、[ネットワーク] のパフォーマンス グラフをリアルタイムで表示できません。

    本リリースで、この問題は修正されました。

  • Auto Deploy 中にホスト プロファイルを適用するとネットワーク接続が失われる
    Auto Deploy 中にホスト プロファイルを適用すると、VXLAN Tunnel Endpoint (VTEP) NIC が管理 vmknic としてタグ付けされるためにネットワーク接続が失われる場合があります。

    本リリースで、この問題は修正されました。

  • ネストされた ESXi の接続が切断され、e1000e 仮想 NIC がリセットされることがある
    ネストされた ESXi の接続が断続的に切断され、e1000e 仮想 NIC がリセットされることがあります。NFS ボリュームへの全パス ダウン (APD) 状態も検出されます。次のようなエラー メッセージが vmkernel.log ファイルに書き込まれます。

    packets completion seems stuck, issuing reset

    本リリースで、この問題は修正されました。

  • New: ESXi 5.x から ESXi 6.0 にアップグレードした後のネットワーク接続の問題
    ESXi 5.x から ESXi 6.0 にアップグレードすると、次の問題が発生する可能性があります。

    • ESXi 6.0 ホストが、ランダムにネットワーク接続を失う可能性があります

    • ESXi 6.0 ホストが、再起動するまで応答しなくなり、管理できなくなります

    • 再起動後、しばらく問題が一時的に解決しますが、ランダムな期間が経過すると、改めて問題が発生します

    • ESXi ホストの NETDEV WATCHDOG サービスによって、転送タイムアウトがログに記録されることがあります。 /var/log/vmkernel.log ファイルに、次のようなエントリが表示される可能性があります。

      cpu0:33245)WARNING: LinNet: netdev_watchdog:3678: NETDEV WATCHDOG: vmnic0: transmit timed out
      cpu0:33245)WARNING: at vmkdrivers/src_92/vmklinux_92/vmware/linux_net.c:3707/netdev_watchdog() (inside vmklinux)

    • この問題は、複数のハードウェア ベンダーの複数のネットワーク アダプタに影響を与える可能性があります。転送タイムアウト時に生じる正確なログ内容は、カードごとに異なる可能性があります。

    本リリースで、この問題は修正されました。

ストレージの問題
  • 複数の vSCSI フィルタを仮想マシン ディスクに接続すると、ESXi ホストで紫色の診断画面が表示されるエラーが発生する場合がある
    複数の vSCSI フィルタを仮想マシン ディスクに接続すると、ESXi 6.0 ホストで紫色の診断画面が表示されるエラーが発生する場合があります。紫色の診断画面またはバックトレースには、次のようなエントリが表示されます。

    cpu24:nnnnnn opID=nnnnnnnn)@BlueScreen: #PF Exception 14 in world 103492:hostd-worker IP 0x41802c2c094d addr 0x30
    PTEs:0xnnnnnnnn;0xnnnnnnnnnn;0x0;
    cpu24:nnnnnn opID=nnnnnnnn)Code start: 0xnnnnnnnnnnnn VMK uptime: 21:06:32:38.296
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_GetFilterPrivateData@vmkernel#nover+0x1 stack: 0xnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn) 0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSCSIFilter_IssueInternalCommand@vmkernel#nover+0xc3 stack: 0xnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FileSyncRead@<None>#<None>+0xb1 stack: 0x0
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_DigestRecompute@<None>#<None>+0xnnn stack: 0xnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]CBRC_FilterDigestRecompute@<None>#<None>+0x36 stack: 0x20
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]VSI_SetInfo@vmkernel#nover+0x322 stack: 0xnnnnnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]UWVMKSyscallUnpackVSI_Set@<None>#<None>+0xef stack: 0x41245111df10
    YYYY-MM-DD TIME cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@<None>#<None>+0x243 stack: 0xnnnnnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]User_UWVMKSyscallHandler@vmkernel#nover+0x1d stack: 0xnnnnnnnn
    cpu24:nnnnnn opID=nnnnnnnn)0xnnnnnnnnnnnn:[0xnnnnnnnnnnnn]gate_entry@vmkernel#nover+0x64 stack: 0x0

    本リリースで、この問題は修正されました。

  • 非 ATS の VMFS データストアのストレージで一時的な障害が発生している間に、ESXi ホストの応答が停止し、vCenter Server への接続が失われる
    ESXi ホストの応答が停止し、仮想マシンにアクセスできなくなる場合があります。また、ESXi ホストは、非 ATS VMFS データストア上のストレージの特定できない問題が原因で発生するデッドロックにより vCenter Server との接続を失う場合があります。

    本リリースで、この問題は修正されました。

  • 共有されないストレージと使用済みストレージが仮想マシンに対して期待される値を反映しない
    複数の仮想マシンがストレージ領域を共有する場合、vSphere Client サマリ ページには以下について誤った値が表示される場合があります。

    • 仮想マシンのサマリ ページの共有されないストレージ

    • データのサマリ ページのプロビジョニングした領域

    • ホストの [仮想マシン] タブの使用領域


    本リリースで、この問題は修正されました。

  • システム内のすべてのドライブが BIOS に表示されていても、vSphere がそれらをすべて検出できない場合がある
    vシステムに複数の HBA がある場合、lsi_msgpt3 ドライバが HBA ごとの単一のドライブを検出できないために、vSphere は 18 のドライブすべてを検出できないことがあります。

    本リリースで、この問題は修正されました。

  • 2 TB より大きいシリアル接続 SCSI (SAS) ドライブが、lsi-mr3 ドライバで検出されない
    lsi_mr3 ドライバは、2 TB より大きい SAS ドライブを検出しません。次のようなエラー メッセージがログに書き込まれます。

    cpu35:33396)WARNING: ScsiDeviceIO: 8469: Plugin entry point isSSD() failed on device naa.5000c50057b932a7 from plugin NMP: Failure
    cpu35:33396)ScsiDevice: 3025: Failing registration of device 'naa.5000c50057b932a7': failed to get device I/O error attributes.
    cpu35:33396)ScsiEvents: 545: Event Subsystem: Device Events, Destroyed!
    cpu35:33396)WARNING: NMP: nmp_RegisterDevice:673: Registration of NMP device with primary uid 'naa.5000c50057b932a7' failed.I/O エラー

    今回のリリースで、lsi_mr3 ドライバが更新され、この問題は修正されました。

  • VMFS ボリュームがロックされる
    失敗したメタデータ操作が原因で、ESXi ホスト上の VMFS ボリュームがロックされたままになる場合があります。次のようなエラー メッセージが vmkernel.log ファイルに表示されます。

    WARNING: LVM: 12976: The volume on the device naa.50002ac002ba0956:1 locked, possibly because some remote host encountered an error during a volume operation and could not recover.

    本リリースで、この問題は修正されました。

  • リンク クローンから作成された仮想マシンのストレージ ポリシーを変更しようとすると失敗する場合がある。
    vCenter Server でリンク クローンから作成されたパワーオン仮想マシンのストレージ ポリシーを変更しようとすると失敗し、次のようなエラー メッセージが表示される場合があります。

    The scheduling parameter change failed.

    本リリースで、この問題は修正されました。

  • パスが回復した後、ESXi 6.0 ホストに接続された LUN の状態が APD タイムアウトのままになる場合がある。
    全パス ダウン (APD) イベントが発生する場合、LUN へのパスが回復した後も、ESXi に接続された LUN がアクセスできないままになることがあります。/var/log/vmkernel.log には次のイベントのシーケンスが表示されます。

    1. デバイスが APD 状態に入る。
    2. デバイスが APD 状態を抜ける。
    3. デバイス上のハートビート リカバリおよびファイルシステムの操作が not found により失敗する。
    4. デバイスがすでに APD 状態を抜けていても APD タイムアウトが有効期限切れになる

    本リリースで、この問題は修正されました。

  • Virtual SAN によってトリガされた不要な再スキャンによって ESXi ホストと仮想マシンが応答しなくなる場合がある
    Virtual SAN によってトリガされる不要なデバイスとファイル システムの定期的な再スキャンによって、環境内の ESXi ホストと仮想マシンがランダムに応答を停止する場合があります。

    本リリースで、この問題は修正されました。

  • VSA によってプロビジョニングされた NFS ストレージで実行されている仮想マシンのストレージ パフォーマンスが低下する場合がある
    VSA によってプロビジョニングされた NFS ストレージで実行されている仮想マシンの NFS ストレージ パフォーマンスが低下します。この問題は、ESXi マシンから NFS 読み取り応答への確認遅延によって発生します。

    今回のリリースで、LRO TCP パケットの確認遅延を無効にすることにより、この問題は修正されました。

  • 仮想マシンを異なるストレージ コンテナ間でクローン作成すると、ソース VMId が、クローン作成された仮想マシンの初期 VVOL VMId として誤って設定される
    仮想マシンを異なるストレージ コンテナ間でクローニングすると、ソース Virtual Volumes (VVOL) の VMId が、クローン作成された VVOL VMID の初期値として設定されます。

    本リリースで、この問題は修正されました。

  • WRITE SAME コマンドがローカル ドライブで無効になる
    一部のディスク ドライブが Write Same 機能を完全には実装していない場合があるため、ESXi 6.0 Update 1 では WRITE SAME コマンドがローカル ドライブで無効になり、誤動作の原因となります。代わりの方法として、esxcli storage core device vaai status コマンドを使用してローカル ドライブで VAAI を有効または無効にすることができます。詳細については、ナレッジ ベースの記事 2131056 を参照してください。

バックアップの問題
  • スナップショットの静止が Linux 仮想マシン上で失敗する
    Linux 仮想マシンの静止したスナップショットを実行すると、スナップショット操作後に仮想マシンが失敗することがあります。次のエラー メッセージが vmware.log ファイルに記録されます。

    <YYYY-MM-DD>T<TIME>Z| vmx| I120: SnapshotVMXTakeSnapshotComplete: done with snapshot 'smvi_UUID': 0
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: SnapshotVMXTakeSnapshotComplete: Snapshot 0 failed: Failed to quiesce the virtual machine (40).
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: GuestRpcSendTimedOut: message to toolbox timed out.
    <YYYY-MM-DD>T<TIME>Z| vmx| I120: Vix: [18631 guestCommands.c:1926]: Error VIX_E_TOOLS_NOT_RUNNING in MAutomationTranslateGuestRpcError(): VMware Tools are not running in the guest

    本リリースで、この問題は修正されました。

セキュリティの問題
  • Python パッケージのアップデート
    Python サードパーティ ライブラリがバージョン 2.7.9 に更新されています。
  • libPNG ライブラリのアップデート
    libPNG ライブラリが libpng-1.6.16 に更新されています。
  • OpenSSL ライブラリのアップデート
    ESXi userworld OpenSSL ライブラリは、バージョン openssl-1.0.1m に更新されています。
  • libxml2 ライブラリの更新
    ESXi userworld libxml2 ライブラリはバージョン 2.9.2 に更新されています。

  • VMware Tools libPNG および libxml2 ライブラリの更新
    VMware Tools libPNG および libxml2 ライブラリは、バージョン 1.2.52 および 2.9.2 に更新されています。
  • VMware Tools OpenSSL ライブラリの更新
    VMware Tools OpenSSL ライブラリは、バージョン openssl-0.9.8zg に更新されています。
サーバ構成の問題
  • ホスト プロファイル エンジンに対してデバッグ ログを設定し、トレース ログを有効化できる
    ホストが Active Directory を介して起動されたときに、DEBUG ログを収集し、ESXi ホスト プロファイル エンジンのトレース ログを有効にする、新しいホスト プロファイル プラグインが利用できるようになりました。

  • NVIDIA GRID vGPU デバイスを使用した場合に、多数の仮想マシンの再起動を試行すると失敗する場合がある
    NVIDIA GRID vGPU デバイスを使用して多数の仮想マシンのリセットを同時に試行すると、いくつかの仮想マシンで再起動が失敗する場合があります。次のような再起動エラーが表示される場合があります。

    VMIOP: vGPU「grid_k100」で利用できるグラフィック デバイスはありません。

    本リリースで、この問題は修正されました。

  • 仮想マシンに CPU 制限を設定すると、他の仮想マシンにも影響する
    CPU 制限をユニプロセッサの仮想マシンに設定すると、ESXi スケジューラの欠陥が原因で ESXi 全体の使用率が低下することがあります。この問題は、ESXi スケジューラの CPU 負荷の予測時に、CPU 制限のある仮想マシンが実行可能(仮想マシンが実行されていない場合)と見なされた場合に発生します。このため、誤ったロード バランシングを決定する原因にもなります。詳細については、ナレッジ ベースの記事 2096897 を参照してください。

    本リリースで、この問題は修正されました。

  • FIFO を作成し、データを書き込もうとすると、紫色の診断画面が表示されることがある
    FIFO を作成し、/tmp/dpafifo にデータを書き込むと、特定の条件下で紫色の診断画面が表示されることがあります。

    本リリースで、この問題は修正されました。
  • パススルー デバイスを使用しているときに高度なエラー レポートが無効になる
    デバイスの PCI 情報がパススルー用に収集されている間に、そのデバイスに対するエラー レポートが無効になります。

    今回のリリースで、PCI パススルー デバイスでのエラーのレポートを有効にする VMkernel 起動オプション pcipDisablePciErrReporting が提供され、この問題は修正されました。デフォルトでは、レポートが無効になるように、このオプションは TRUE に設定されています。
  • CPU が完全には予約されていない場合に、仮想マシンで警告メッセージが表示されないことがある
    sched.cpu.latencySensitivity を high および Power on に設定して仮想マシンを作成すると、仮想マシンが CPU を完全に予約していない場合、vCPU の排他的なアフィニティが有効にならない場合がある。

    以前のリリースでは、CPU が完全には予約されていない場合に、警告メッセージは表示されませんでした。

    本リリースで、この問題は修正されました。
  • コマンド esxcli system snmp set -p の更新
    SNMP エージェントが、コマンド esxcli system snmp set -p <port> を使用してカスタム ポートで待機するように構成されました。ESXi 6.0 Update 1 では、32768 ~ 40959 の tcp/udp ポートのセットは、サードパーティの使用のために確保されています。この範囲を他のポートが使用することは許可されなくなりました。

    カスタム ポートがこの範囲に設定されている場合は、ESXi 6.0 Update 1 へのアップグレード後に SNMP エージェントは開始されず、範囲チェックのエラーが表示されます。
  • SNMP syscontact または syslocation への簡単な変更で、ホスト プロファイルが非準拠になる
    SNMP syscontact または syslocation への簡単な変更で、ホスト プロファイルが非準拠になります。この問題は、SNMP ホスト プロファイル プラグインが、ホスト プロファイルが添付されたすべてのホストに 1 つの値を適用するために発生します。次のようなエラー メッセージが表示される場合があります。

    SNMP エージェント構成が異なります

    今回のリリースで、syslocation、syscontact、v3targets、v3users および engineid などの特定のパラメータに対して、ホストごとの値の設定を有効にすることで、この問題は修正されました。
仮想マシンの管理の問題
  • vSphere Flash Read Cache のパフォーマンス カウンタが仮想マシンで利用できない場合がある
    仮想ディスクで CBT を有効にすると、FlashCacheIOPsFlashCacheLatencyFlashCacheThroughput などの vFlash キャッシュ メトリック カウンタが利用できない場合があります。次のようなエラー メッセージが stats.log ファイルに記録される場合があります。

    xxxx-xx-xxTxx:xx:xx.200Z [xxxxxxxx error 'Statssvc.vim.PerformanceManager'] CollectVmVdiskStats : Failed to get VFlash Cache stats for vscsi id scsi0:0 for vm 3
    xxxx-xx-xxTxx:xx:xx.189Z [xxxxxxxx error 'Statssvc.vim.PerformanceManager'] GetVirtualDiskVFCStats: Failed to get VFlash Cache stat values for vmdk scsi0:0.Exception VFlash Cache filename not found!

    本リリースで、この問題は修正されました。

  • 画面解像度が高く、異なるモニタ設定を持つ複数の仮想マシンを起動できない
    画面解像度が高く、異なるモニタ設定を持つ複数の仮想マシンを VDI から PCOIP ソリューションを使用して起動しようとすると、失敗する場合があります。仮想マシンが起動に失敗し、[パワーオフ] の状態になります。/var/log/vmkwarning.log に、次のようなエントリが記録されます。

    cpu3:xxxxxx)WARNING: World: vm xxxxxx: 12276: vmm0:VDI-STD-005:vmk: vcpu-0:p2m update buffer full
    cpu3:xxxxxx)WARNING: VmMemPf: vm xxxxxx: 652: COW copy failed: pgNum=0x3d108, mpn=0x3fffffffff
    cpu3:xxxxxx)WARNING: VmMemPf: vm xxxxxx: 2626: PhysPageFault failed Failure: pgNum=0x3d108, mpn=0x3fffffffff
    cpu3:xxxxxx)WARNING: UserMem: 10592: PF failed to handle a fault on mmInfo at va 0x60ee6000: Failure.Terminating...
    cpu3:xxxxxx)WARNING: World: vm xxxxxx: 3973: VMMWorld group leader = 255903, members = 1
    cpu7:xxxxxx)WARNING: World: vm xxxxxx: 3973: VMMWorld group leader = 255903, members = 1
    cpu0:xxxxx)WARNING: World: vm xxxxxx: 9604: Panic'd VMM world being reaped, but no core dumped.


    本リリースで、この問題は修正されました。

vSphere HA および Fault Tolerance の構成の問題
  • ワークロードが高い状態では、セカンダリ仮想マシンの移行に失敗する場合がある
    ワークロードが高い状態では、Fault Tolerance が有効なセカンダリ仮想マシンを移行しようとすると失敗し、仮想マシンが応答しなくなる場合があります。

    本リリースで、この問題は修正されました。
その他の問題
  • vmkernel ログに VmkAccess メッセージの過剰なログが記録される
    ESXi 6.0 を実行する HP システム上で、ランタイムに実行される以下のシステム コマンドに対して vmkernel.log に VmkAccess メッセージの過剰なログが記録される場合があります。

    • esxcfg-scsidevs
    • localcli storage core path list
    • localcli storage core device list


    次のような過剰なログ メッセージが VmkAccess ログに記録されます。

    cpu7:36122)VmkAccess: 637: localcli: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)
    cpu7:36122)VmkAccess: 922: VMkernel syscall invalid (1025)
    cpu7:36122)VmkAccess: 637: localcli: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)
    cpu7:36122)VmkAccess: 922: VMkernel syscall invalid (1025)
    cpu0:36129)VmkAccess: 637: esxcfg-scsidevs: access denied:: dom:appDom(2), obj:forkExecSys(88), mode:syscall_allow(2)

    本リリースで、この問題は修正されました。
  • New:Python パッケージのインポートが失敗する
    バージョン 2.7.9 より新しい Python で、Python パッケージのインポートが失敗することがあります。この問題は、Python の新しいバージョンがモジュール pkg_resources.py を検索できず、import pkg_resources 文が失敗するため発生します。

    本リリースで、この問題は修正されました。
VMware Tools の問題
  • FUSE ライブラリの更新
    FUSE ライブラリが libfuse 2.9.4 に更新されています。

既知の問題

ESXi 6.0 の既知の問題には、次のトピックが含まれます。

このリリースで新たにドキュメント化された既知の問題には、「New」というテキストが付加されています。New:

インストールの問題
  • New:最新の VMware Tools パッケージのインストール後に、VMware Tools サービスのユーザー プロセスが Linux OS で実行されないことがある
    Linux OS で、VMware Tools のアップグレードやインストールの問題が発生したり、最新の VMware Tools パッケージのインストール後に、VMware Tools サービス (vmtoolsd) のユーザー プロセスが実行されない場合があります。この問題は、glibc のバージョンが 2.5 よりも古い場合に発生します(SLES10sp4 など)。

    回避策:Linux glibc をバージョン 2.5 以降にアップグレードしてください。

アップグレードの問題

このリリース ノートの「インストールの問題」セクションも確認してください。多くの場合、インストールの問題はアップグレード プロセスにも影響を与えます。

  • New:ESXi 6.0 の旧リリースから ESXi 6.0 Update 1 にアップグレードした後、Auto Deploy で SSLv3 が有効のまま残る
    ESXi 6.0 の旧リリースから ESXi 6.0 Update 1 にアップグレードした後、Auto Deploy で SSLv3 プロトコルが有効のまま残ります。

    回避策:PowerCLI コマンドを使用して、次の手順を実行して SSLv3 無効にします。

    1. 次のコマンドを実行して vCenter Server に接続します。

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Connect-VIServer -Server <FQDN_hostname or IP Address of vCenter Server>

    2. 次のコマンドを実行して、現在の SSLv3 のステータスを確認します。

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-DeployOption

    3. 次のコマンドを実行して SSLv3 を無効にします。

      PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Set-DeployOption disable-sslv3 1

    4. Auto Deploy サービスを再起動して、変更を反映します。

  • ファイバ チャネルのホスト バス アダプタのデバイス番号が、ESXi を 5.5.x から 6.0 にアップグレードした後に変更される場合がある

    ESXi を 5.5.x から 6.0 にアップグレードする際に、ファイバ チャネルのホスト バス アダプタのデバイス番号が変更される場合があります。esxcli storage core adapter list コマンドを使用するとデバイス番号が別の番号に変更される場合があります。

    たとえば、ファイバ チャネル ホスト バス アダプタのデバイス番号が、ESXi のアップグレードの前に次のように表示される場合があります。

    HBA Name
    ––––––––
    vmhba3
    vmhba4
    vmhba5
    vmhba66

    ファイバ チャネル ホスト バス アダプタのデバイス番号が、ESXi 6.0 へのアップグレードの後に次のように表示される場合があります。

    HBA Name
    ––––––––
    vmhba64
    vmhba65
    vmhba5
    vmhba6

    この例は、esxcli storage core adapter list コマンドを使用した場合に発生する可能性のあるランダムな変更を示しています。デバイスのエイリアス番号 vmhba2 および vmhba3 は vmhba64 および vmhba65 に変更されますが、デバイス番号 vmhba5 および vmhba6 は変更されません。ただし、esxcli hardware pci list コマンドを実行しても、デバイス番号はアップグレード後に変更されません。

    これは VMware 製品の外部の問題であり、影響はない可能性があります。ESXi にはデバイスのエイリアス名が表示されますが、操作には使用されません。ホスト プロファイルを使用してデバイスのエイリアス名をリセットすることができます。VMware の製品ドキュメントおよびナレッジベースの記事を参照してください。

    回避策:なし。

  • Active Directory の設定がアップグレード後に保持されない
    アップグレード前に ESXi ホストで構成された Active Directory の設定は、ホストが ESXi 6.0 にアップグレードされたときに保持されません。

    回避策:アップグレード前の ESXi バージョンが 5.1 以降の場合は、アップグレード後にホストを Active Directory ドメインに追加します。アップグレード前の ESXi バージョンが 5.0.x の場合は、アップグレード後にホストを Active Directory ドメインに追加しないでください。

  • ESXi の 6.0 へのアップグレード前にドメインに追加したホストが、アップグレード後はそのドメインに参加していない
    vSphere 5.5 から vSphere 6.0 に初めてアップグレードする際、Active Directory の構成は保持されません。

    回避策:アップグレード後、ホストを vCenter Server ドメインに再度参加させます。

    1. ホストを vCenter Server に追加します。

    2. 各ホストをドメイン(たとえば、example.com)に参加させます。

    3. すべてのホストを ESXi 6.0 にアップグレードします。

    4. 最近アップグレードした 1 台のホストをドメインに手動で参加させます。

    5. ホスト プロファイルを抽出し、「認証」以外のすべてのプロファイルを無効にします。

    6. 手動で参加させたホストのプロファイルを、直近でアップグレードした他のホストに適用します。

  • vCenter Server for Windows のアップグレード後、以前実行していた VMware ESXi Dump Collector サービスが、デフォルト設定の [無効] にリセットされる
    アップグレード プロセスでは、vCenter Server のオプションのサービスのグループの一部として、VMware vSphere ESXi Dump Collector 6.0 がインストールされます。VMware vSphere ESXi Dump Collector サービスを vCenter Server 6.0 for Windows の一部として使用するには、このサービスを手動で有効にする必要があります。

    回避策:vCenter Server 6.0 for Windows でオプションのサービスを有効にして実行する方法については、VMware のドキュメントを参照するか、または VMware のナレッジ ベースを検索してください。

    次の手順を実行して、VMware vSphere ESXi Dump Collector サービスをオペレーティング システムで有効にします。

    1. [コントロール パネル] メニューで、[管理ツール] を選択して [サービス] をダブルクリックします。

    2. [VMware vSphere ESXi Dump Collector] を右クリックして [起動タイプの編集] を選択します。

    3. [起動タイプ][自動] に設定します。

    4. [VMware vSphere ESXi Dump Collector] を右クリックして [開始] を選択します。

    [サービスの起動タイプ] が自動に設定され、サービスが実行されている状態になります。

vCenter Single Sign-On および証明書の管理の問題
  • ESXi ホストの SSL 証明書のアップグレード後に仮想マシン コンソールに接続できない
    ESXi ホストで使用している SSL 証明書をアップグレードし、証明書が置き換えられたときに実行していた仮想マシンの仮想マシン コンソールに接続を試みると、証明書の検証エラーが発生します。これは、古い証明書がキャッシュされ、コンソールへの接続時に証明書の不一致が発生することが原因です。
    古い証明書が他の方法で検証できる場合などは、コンソールに接続できる可能性もありますが、常に成功するわけではありません。既存の仮想マシン コンソールへの接続には影響しませんが、証明書の置き換え中にコンソールが実行、停止、および再起動された場合には問題が発生する場合があります。

    回避策:ホストをメンテナンス モードまたはサスペンド モードにするか、仮想マシンをパワーオフします。影響を受けるのは実行中の仮想マシンのみです。ベスト プラクティスとして、ホストをメンテナンス モードにした後にすべての SSL 証明書のアップグレードを実行します。

ネットワークの問題

  • 特定の vSphere 機能で IPv6 がサポートされない
    以下の機能を除くすべてのノードとコンポーネントで IPv6 を有効にできます。

    • DNS サーバの完全修飾ドメイン名 (FQDN) にマッピングされない ESXi ホストおよび vCenter Server の IPv6 アドレス。
      回避策:FQDN を使用するか、名前を逆引きできるように IPv6 アドレスが DNS サーバの FQDN にマッピングされていることを確認します。

    • Virtual Volumes

    • Auto Deploy の一部としての PXE ブートおよびホスト プロファイル
      回避策:IPv4 経由で ESXi ホストを PXE 起動し、ホスト プロファイルを使用して IPv6 用にホストを構成します。

    • ESXi ホストおよび vCenter Server Appliance と Active Directory との接続
      回避策:LDAP 経由の Active Directory を vCenter Single Sign-On の ID ソースとして使用します。

    • Kerberos と併用した NFS 4.1 ストレージ
      回避策:NFS 4.1 と AUTH_SYS を使用してください。

    • Authentication Proxy

    • vSphere Management Assistant および vSphere Command-Line Interface と Active Directory との接続
      回避策:LDAP 経由で Active Directory に接続します。

    • vSphere 機能で IPv6 を有効にする vSphere Client の使用
      回避策:vSphere Web Client を使用し、vSphere 機能で IPv6 を有効にします。

  • ESXi Dump Collector を使用時にパニックが繰り返し発生することがある
    ホストがパニック状態のときに、カーネル パニックが繰り返し発生してパープル スクリーンが表示され、ネットワーク経由で ESXi Dump Collector にコア ダンプが書き込まれることがあります。vCenter Server の ESXi Dump Collector では、VMkernel zdump ファイルはトラブルシューティングに使用できないことがあります。

    カーネル パニックが繰り返し発生する事例では、ホストのパープル スクリーンに以下のメッセージが表示されます。
    2014-09-06T01:59:13.972Z cpu6:38776)Starting network coredump from host_ip_address to esxi_dump_collector_ip_address.
    [7m2014-09-06T01:59:13.980Z cpu6:38776)WARNING: Net: 1677: Check what type of stack we are running on [0m
    Recursive panic on same CPU (cpu 6, world 38776, depth 1): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Secondary panic trap frame registers:
    RAX:0x0002000001230121 RCX:0x000043917bc1af80 RDX:0x00004180009d5fb8 RBX:0x000043917bc1aef0
    RSP:0x000043917bc1aee8 RBP:0x000043917bc1af70 RSI:0x0002000001230119 RDI:0x0002000001230121
    R8: 0x0000000000000038 R9: 0x0000000000000040 R10:0x0000000000010000 R11:0x0000000000000000
    R12:0x00004304f36b0260 R13:0x00004304f36add28 R14:0x000043917bc1af20 R15:0x000043917bc1afd0
    CS: 0x4010 SS: 0x0000 FS: 0x4018 GS: 0x4018 IP: 0x0000418000f0eeec RFG:0x0000000000010006
    2014-09-06T01:59:14.047Z cpu6:38776)Backtrace for current CPU #6, worldID=38776, rbp=0x43917bc1af70
    2014-09-06T01:59:14.056Z cpu6:38776)0x43917bc1aee8:[0x418000f0eeec]do_free_skb@com.vmware.driverAPI#9.2+0x4 stack: 0x0, 0x43a18b4a5880,
    2014-09-06T01:59:14.068Z cpu6:38776)Recursive panic on same CPU (cpu 6, world 38776): ip=0x418000876a27 randomOff=0x800000:
    #GP Exception 13 in world 38776:vsish @ 0x418000f0eeec
    Halt$Si0n5g# PbC8PU 7.

    物理ネットワーク アダプタが vCenter Server 上のコレクタにコア ダンプを送信するよう構成されている場合、この物理アダプタに過剰なトラフィックが通過すると、VMkernel がパニック状態になり、カーネル パニックが発生することがあります。

    回避策:次のいずれかの回避策を実行します。

    • システムおよび仮想マシンのトラフィックからの影響を低減するため、コア ダンプ転送専用の物理ネットワーク アダプタを配置します。

    • 次の esxcli コンソール コマンドを実行して、ホスト上で ESXi Dump Collector を無効にします。
      esxcli system coredump network set --enable false

ストレージの問題

NFS バージョン 4.1 の問題

  • NFS 4.1 の共有が全パス ダウン (APD) の状態からリカバリした後、NFS 4.1 データストア上の仮想マシンが失敗する
    NFS 4.1 ストレージが APD 状態に入り、猶予時間の経過後に APD 状態から出たとき、NFS 4.1 データストア上で実行されているパワーオンされた仮想マシンが失敗します。猶予時間はアレイのベンダーによって異なります。
    NFS 4.1 の共有が APD からリカバリした後、vSphere Web Client の仮想マシンのサマリ ページに以下のメッセージが表示されます。
    仮想マシンを保護するロックが失われました。基盤となるストレージに問題がある可能性があります。この仮想マシンが高可用性用に構成されている場合、「OK」をクリックする前に、仮想マシンが他のホストで実行されていることを確認してください。
    [OK] をクリックすると、クラッシュ ファイルが生成され、仮想マシンがパワーオフされます。

    回避策:なし。

  • セッションを新規作成すると NFS 4.1 クライアントがサーバとの同期を失う
    サーバとの接続が中断された期間の後、セッションを新規作成すると、NFS 4.1 クライアントがサーバとの同期を失うことがあります。この問題が発生したときには、vmkernel.log ファイルに NFS41 CREATE_SESSION の要求が NFS4ERR_SEQ_MISORDERED で失敗したことを知らせる警告メッセージが出力されます。

    回避策:次の手順を実行します。

    1. 影響を受けるファイル システムのマウント解除を試みます。マウント解除時にファイルが開かない場合は、この操作は成功で、NFS クライアント モジュールは内部状態をクリーンアップします。マウント解除されていないファイル システムは、再度マウントして通常の操作を再開できます。

    2. NIC 接続をマウントの IP アドレスに一致させ、複数のサーバのリース時間が期限切れになるまでそのままにします。5 分で十分です。そうすれば、NIC をバックアップの状態にすることができます。通常操作が再開されます。

    3. ここまでの手順で失敗する場合には、ESXi ホストを再起動します。

  • NFS 4.1 クライアントが NFS サーバとの同期を失い、セッションがリセットされても接続がリカバリできない
    サーバとの接続の中断期間後、NFS 4.1 クライアントサーバとの同期を失うことがあり、セッションがリセットされてもサーバとの同期接続はリカバリされません。この問題は、EMC VNX サーバの問題によって発生します。この問題が発生すると、vmkernel.log ファイルには NFS41 に関する次のような警告メッセージが出力されます。NFS41ProcessSessionUp:2111: resetting session with mismatched clientID; probable server bug

    回避策:セッションを終了するには、すべてのデータストアをマウント解除し、再度マウントします。

  • ONTAP Kerberos ボリュームがアクセス不能になるか、仮想マシンの I/O 障害が発生する
    NetApp サーバは、誤った順序で到達した RPCSEC_GSS 要求を受信すると応答しません。結果として、該当する I/O 操作が終了されない場合は操作は停止し、ゲスト OS は停止するか、またはゲスト OS で I/O エラーが発生する可能性があります。さらに、RFC 2203 に従って、クライアントは RPCSEC_GSS コンテキストに応じて seq_window に等しい要求の残数(ONTAP の場合は 32)のみを持つことができ、サーバがこれらの残り要求の最下位に処理を完了するまで待機する必要があります。従って、サーバが順序の誤った RPCSEC_GSS 要求に応答することはなく、クライアントは残り要求が seq_window の最大数に到達したらサーバへの要求の送信を停止します。これにより、ボリュームはアクセス不能になります。

    回避策:なし。最新のハードウェア互換性リスト (HCL) を確認して、この問題が解決された、サポートされている ONTAP サーバを見つけます。

  • EMC VNX の NFS 4.1 データストアに 1 TB を超える仮想ディスクを作成できない
    EMC VNX の、ファームウェアのバージョンが 7.x の NFS バージョン 4.1 ストレージでは、32 ビットのファイル形式しかサポートされていません。これにより、1 TB を超える仮想マシン ファイルは NFS 4.1 データストアに作成できません。

    回避策:EMC VNX アレイをバージョン 8.x にアップグレードします。

  • EMC VNX によってバッキングされる NFS 4.1 データストアがファームウェアのアップグレード中にアクセス不能になる
    EMC VNX ストレージを新しいファームウェアにアップグレードするときに、ESXi ホストにマウントされた NFS 4.1 データストアにアクセスできなくなります。これは、VNX サーバがファームウェアのアップグレード後にデバイスのメジャー番号を変更するために発生します。ホストの NFS 4.1 クライアントは、サーバとの接続が確立された後にメジャー番号が変更されることを想定していないため、データストアは永続的にアクセス不能になります。

    回避策:ファームウェアのアップグレード前に、VNX サーバによってエクスポートされたすべての NFS 4.1 データストアをマウント解除します。

  • ESXi ホストが異なるセキュリティ メカニズムを使用して、同じ NFS 4.1 データストアをマウントすると、仮想マシンで障害が発生することがある
    異なる ESXi ホストが、異なるセキュリティ メカニズム(AUTH_SYS および Kerberos)を使用して同じ NFS 4.1 データストアをマウントすると、このデータストアに配置された仮想マシンで問題および障害が発生することがあります。たとえば、仮想マシンを host1 から host2 へ移行しようとすると、権限拒否エラーで失敗する可能性があります。また host2 から host1 の仮想マシンにアクセスしようとするときも、このようなエラーが発生することがあります。

    回避策:NFS 4.1 ボリュームをマウントするすべてのホストで、同じセキュリティ タイプが使用されるようにします。

  • 読み取り専用ファイルを Kerberos が有効な NFS 4.1 データストアにコピーしようとすると失敗する
    データをソース ファイルからターゲット ファイルにコピーしようとすると、障害が発生することがあります。ターゲット ファイルは空のままです。

    回避策:なし。

  • データストア クラスタを作成するとき、NFS 4.1 のセキュリティ タイプの一様性が保証されない
    データストア クラスタを作成するとき、vSphere では、NFS 4.1 のセキュリティ タイプの一様性を検証および強制しません。その結果、異なるセキュリティ タイプ(AUTH_SYS および Kerberos)を使用するデータストアが、同じクラスタに所属する可能性があります。Kerberos を使用するデータストアから AUTH_SYS を使用するデータストアに仮想マシンを移行すると、仮想マシンのセキュリティ レベルが低下します。
    この問題は、vMotion、Storage vMotion、DRS、Storage DRS などの機能でも発生します。

    回避策:仮想マシンで Kerberos セキュリティを使用する必要がある場合は、同じクラスタを構成するすべての NFS 4.1 ボリュームが Kerberos セキュリティ タイプのみを使用するようにします。NFS 3 は AUTH_SYS のみをサポートしているため、NFS 3 データストアは含めないでください。

Virtual Volumes の問題

  • Virtual Volumes VASA プロバイダによって使用されている誤った証明書のために仮想データストアの作成が失敗する
    Virtual Volumes VASA プロバイダに使用されている自己署名の証明書で、keyCertSign ビットを設定せずに KeyUsage エクステンションが誤ってクリティカルに定義されていることがあります。この場合、プロバイダの登録は成功します。しかし、VASA プロバイダから報告されたストレージ コンテナから仮想データストアを作成することはできません。

    回避策:プロバイダの登録の時点で VASA プロバイダが使用している自己署名の証明書では、keyCertSign ビットを設定せずに KeyUsage エクステンションの定義をしないようにします。

全般的なストレージの問題

  • New:新しい仮想マシンが既存のディスクから作成された場合に、vSphere Web Client で、ストレージ ポリシーが添付済みとして誤って表示される
    vSphere Web Client を使用して新しい仮想マシンを既存のディスクから作成し、ディスクを設定する時に、ストレージ ポリシーを指定します。新しい仮想マシンを選択して、[仮想マシン ポリシー] > [仮想マシン ストレージ ポリシーの編集] の順にクリックすると、フィルタが添付されているように見えます。しかし、このフィルタは実際には添付されていません。.vmdk ファイルまたは vmkfstools --iofilterslist <vmdk-file>' で、フィルタが添付されているかどうかを確認します。

    回避策:新しい仮想マシンの作成後、それをパワーオンする前に、[仮想マシン ポリシー] > [仮想マシン ストレージ ポリシーの編集] の順にクリックして vmdk にフィルタを追加します。

  • New:IPv6 セットアップに I/O フィルタをインストールすると、その機能が VPXD に発行されない
    VIM API によって I/O フィルタを正常にインストールした後、インストールされたフィルタが VPXD にフィルタ機能を発行することができません。VMware vSphere のストレージ ポリシーに基づく管理機能 (SPBM) に発行される機能がないため、ディスクにフィルタ プロファイルを添付できません。

    回避策:なし。

  • New:NFS ルックアップ操作で NFS STALE エラーが返される
    大量の仮想マシンを NFS データストアにデプロイする場合、競合状態のために、次のエラー メッセージが表示されて仮想マシンのデプロイが失敗します。

    失効した NFS ファイル ハンドル

    回避策:ルックアップ操作をやり直します。詳細については、ナレッジベースの記事 2130593 を参照してください。

  • QLogic iSCSI アダプタの使用時に Dell EqualLogic LUN に VMFS データストアの作成を試みると失敗する
    VMFS データストアは、QLogic iSCSI アダプタを通して検出された Dell EqualLogic ストレージ デバイスには作成できません。
    失敗すると、vCenter Server に次のエラー メッセージが表示されます。ファイルシステムを作成できません。詳細は、VMkernel ログを参照してください。接続がタイム アウトになりました。VMkernel ログには、「iscsi session blocked」と「iscsi session unblocked」というメッセージが続けて記録されます。Dell EqualLogic ストレージ アレイでは、監視ログで QLogic イニシエータの IQN 名に「protocol error in packet received from the initiator(イニシエータからのパケット受信中にプロトコル エラーが発生しました)」というメッセージが表示されます。

    この問題は、以下のコンポーネントの使用時に確認されています。

    • Dell EqualLogic アレイ ファームウェア:V6.0.7

    • QLogic iSCSI アダプタ ファームウェア バージョン:3.00.01.75

    • ドライバ バージョン:5.01.03.2-7vmw-debug

    回避策:QLogic iSCSI アダプタの [iSCSI ImmediateData] アダプタ パラメータを有効にします。デフォルトでは、パラメータはオフになっています。このパラメータは、vSphere Web Client から、または esxcli コマンドを使用して変更できません。このパラメータを変更するには、QConvergeConsole CLI などのベンダー配布のソフトウェアを使用します。

  • Emulex OneConnect HBA がある ESXi ホストが起動に失敗する
    ESXi ホストに Emulex OneConnect HBA がインストールされていると、ホストが起動に失敗することがあります。この失敗は、Emulex ファームウェアの問題が原因で発生します。

    回避策:この問題を解決するには、Emulex に連絡して HBA 用の最新ファームウェアを入手します。

    古いファームウェアの使用を継続する場合は、以下の手順に従って起動の失敗を回避します。

    1. ESXi のロード時に、ESXi kernel の起動前に Shift + O キーを押します。

    2. 既存の起動オプションはそのままにし、dmaMapperPolicy=false の前に空白を追加します。

  • APD 中に vSphere Flash Read Cache で I/O アクセラレーションが実行されない
    vSphere Flash Read Cache の仮想フラッシュ リソースとして構成されたフラッシュ ディスクで障害が発生するか、アクセスができなくなったとき、またはディスク ストレージがホストからアクセスできないときに、そのホストの vSphere Flash Read Cache インスタンスは無効になり、I/O アクセラレーションが実行されなくなります。結果的に、接続がホストとストレージ間で再確立された後、キャッシュは古いデータを提供しません。接続の停止は一時的な「All Paths Down (APD)」の状態か、永続的な「Permanent Device Loss (PDL)」の可能性があります。この状態は、仮想マシンがパワーオンし直されるまで続きます。

    回避策:仮想マシンをパワーオンし直すことで vSphere Flash Read Cache を使用した I/O アクセラレーションをリカバリできます。

  • 全パス ダウン (APD) またはパス フェイルオーバーが原因でシステム障害が発生することがある
    共有された SAS 環境では、ディスクが lsi_msgpt3 ドライバによって要求され、ディスクで過剰な I/O アクティビティが発生している場合、APD またはパス フェイルオーバーの状況が原因でシステム障害が発生することがあります。

    回避策:なし

  • プロセスを停止する SCSI コマンドを頻繁に使用すると、システム障害が発生することがある
    過剰な I/O アクティビティにより、プロセスを停止する SCSI コマンドの頻繁な使用によって MegaRAID コントローラからの応答が著しく遅れる可能性があります。以前のコンテキストですでにリリースされているリソースの参照で予期しない中断が発生すると、システム障害が発生することがあります。

    回避策:なし

  • IQN を変更すると iSCSI 接続が失敗してデータストアがアクセス不能になる
    この問題は、iSCSI アダプタ上のセッションがアクティブなときに iSCSI アダプタの IQN を変更した場合に発生することがあります。

    回避策:iSCSI アダプタの IQN を変更するときには、そのアダプタ上にはアクティブなセッションがないようにします。IQN の変更前に、アダプタ上のすべての iSCSI セッションおよびすべてのターゲットを削除します。

  • nvmecli のオンラインおよびオフラインの操作が常に有効にならないことがある
    nvmecli device online -A vmhba* 操作を実行して NVMe デバイスをオンラインにすると、操作が成功したように見えます。しかし、デバイスはオフライン状態のままです。

    回避策:nvmecli device list コマンドを実行して、NVMe デバイスの確認をします。

vSAN の問題
  • New:ホストを Virtual SAN クラスタに追加すると、インストーラ エラーがトリガされる
    ESXi ホストを、HA および Virtual SAN 健全性サービスが有効なクラスタに追加するときに、VIB インストールの競合状態が原因で次のエラーのいずれか、または両方が発生する場合があります。

    • タスク ビューの [vSphere HA の構成] タスクが、次のようなエラー メッセージが表示されて失敗する場合があります。

      vCenter Server Agent Service をインストールできません。不明なインストーラ エラー

    • [エージェントの有効化] タスクが、次のようなエラー メッセージが表示されて失敗する場合があります。

      操作を完了できません。詳細はイベント ログを確認してください。

    回避策:

    • HA 構成の障害を修正するには、ホストを再起動し、以下のように HA を再構成します。

      [ホストとクラスタ] ビュー -> クラスタ名をクリック -> [管理] タブ -> vSphere HA

    • エージェント タスクの障害を修正して有効にするには、クラスタ ビューに進み、以下のように VSAN 健全性サービスの有効化を試みます。

      [ホストとクラスタ] ビュー -> クラスタ名をクリック -> [管理] タブ -> Virtual SAN カテゴリの [健全性] の順に選択し、一番上の [再試行] ボタンをクリック

サーバ構成の問題
  • Auto Deploy でプロビジョニングされているホストにステートフル ホストのホスト プロファイルを適用すると、修正に失敗する
    Auto Deploy でプロビジョニングされている、ローカル ストレージを持たないホスト(ステートレス ホスト)にステートフルにデプロイされているホストのホスト プロファイルを適用すると、修正に失敗し、次のいずれかのエラー メッセージが表示されます。

    • PCI バス アドレス <sxxxxxxxx.xx> の vmhba デバイスがホストに存在しません。シャットダウンしてから PCI スロット <yy> にカードを挿入する必要があります。 カードのタイプはリファレンス ホストと完全に一致している必要があります。

    • 有効なコアダンプ パーティションが見つかりませんでした。

    回避策:ホスト プロファイルの問題(デバイス エイリアス構成、コア ダンプ構成など)の原因となるプラグインを無効にしてから、ホスト プロファイルを修正します。

  • 固定 IP アドレスを持つホスト プロファイルをホストに適用すると、コンプライアンス エラーになる
    DHCP ネットワーク構成を持つホストからホスト プロファイルを抽出し、固定 IP アドレスを持つようにホスト プロファイルを編集すると、そのホスト プロファイルを別のホストに適用したとき、コンプライアンス エラーが発生し、次のメッセージが表示されます。

    IPv4 ルートの数が一致しませんでした。

    回避策:DHCP ホストからホスト プロファイルを抽出する前に、固定 IP アドレスを持つようにホストを構成します。

  • ネットワーク リソースがオーバーコミットされた仮想ネットワーク アダプタをホット アドすると、仮想マシンがパワーオフされることがある
    Network I/O Control が有効な vSphere Distributed Switch では、ホストの物理ネットワーク アダプタ上の仮想マシン システム トラフィックの予約に応じて、パワーオンされた仮想マシンのバンド幅の予約が設定されます。ある仮想マシンに、ホストの物理ネットワーク アダプタで使用可能なバンド幅を超えるネットワーク バンド幅が予約されており、この仮想マシンにネットワーク アダプタをホットアドしたとします。

    ネットワーク アダプタをホット アドすると、VMkernel はファスト サスペンド/レジューム (FSR) のプロセスを開始します。仮想マシンは使用可能な量を超えたネットワーク リソースを要求するため、VMkernel は FSR プロセスの障害パスを実行します。この障害パスでの障害が原因で、仮想マシンがパワーオフされます。

    回避策:ネットワーク アダプタをパワーオンした仮想マシンに追加するときには、帯域幅予約を構成しないでください。

vSphere HA および Fault Tolerance の問題
  • New:レガシー フォールト トレランス (FT) が Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT、および Broadwell-DE プラットフォームでサポートされない
    レガシー FT が Intel Skylake-DT/S、Broadwell-EP、Broadwell-DT、および Broadwell-DE プラットフォームでサポートされません。単一プロセッサのレガシー Fault Tolerance を有効にすると、仮想マシンをパワーオンしようとしても失敗します。

    回避策:なし。

ゲスト OS の問題
  • NVMe PCIe SSD デバイス上でパススルー モードを有効にしようとするとホット プラグ後に失敗することがある
    vSphere Web Client から SSD デバイス上でパススルー モードを有効にするには、ホストを選択して [管理] タブ、[設定] の順にクリックし、[ハードウェア] セクションに移動します。次に [PCI デバイス] > [編集] の順にクリックし、パススルー モードを有効にできるアクティブなデバイスのリストからデバイスを選択して、[OK] をクリックします。しかし、新しい NVMe デバイスを PCIe NVMe ドライブのない ESXi 6.0 ホストにホット プラグするときには、新しい NVMe PCIe SSD デバイスはパススルー モードが有効にされず、使用可能なパススルー デバイスのリストに表示されません。

    回避策:ホストを再起動します。ESXi ホスト上でコマンドを実行することもできます。

    1. root ユーザーとしてログインします。

    2. 以下のコマンドを実行します。
      /etc/init.d/hostd start

サポート対象のハードウェアの問題
  • HP サーバ上の Avago コントローラに対して esxcli を実行し、ディスク位置を取得する場合、結果が正しくならない

    HP サーバ上の Avago コントローラに対して esxcli storage core device physical get を実行すると、正しい結果が得られません。

    たとえば以下を実行したとします。
    esxcli storage core device physical get -d naa.5000c5004d1a0e76
    すると、システムは以下を返します。
    Physical Location: enclosure 0, slot 0

    物理サーバ上のそのスロットの実際のラベルは 1 です。

    回避策:HP サーバのスロットを十分に確認してください。HP サーバのスロット番号は 1 から開始するので、正しい結果を得るにはコマンドが返すスロット番号を増やす必要があります。

CIM および API の問題
  • New:sfcb-vmware_raw が失敗する場合がある
    デフォルト プラグイン リソース グループの割り当て済み最大メモリが十分でないために、sfcb-vmware_raw が失敗する場合があります。

    回避策:次のコマンドを使用して sfcbd プラグインのメモリ制限に対する UserVars CIMOemPluginsRPMemMax を追加し、sfcbd を再起動して新しいプラグインの値を有効にします。

    esxcfg-advcfg -A CIMOemPluginsRPMemMax --add-desc 'Maximum Memory for plugins RP' --add-default XXX --add-type int --add-min 175 --add-max 500

    XXX は割り当てたいメモリ制限です。この値は 175(最小)から 500(最大)の間にします。

その他の問題
  • New:Virtual SAN Observer で SSLv3 暗号化がサポートされている
    ESXi 6.0 Update 1 では SSLv3 がデフォルトで無効にされていますが、Virtual SAN Observer では SSLv3 をサポートしています。

    回避策:なし。

VMware Tools の問題
  • New:open-vm-tools 9.10 内のコンパイル vmxnet モジュールがバージョン 3.3.0 以降のカーネルで失敗する
    open-vm-tools 9.10 をコンパイルしてインストールすると、vmxnet.c がバージョン 3.3.0 以降のカーネルでコンパイルに失敗するため、複数のエラーが発生することがあります。この問題は open-vm-tools 9.10.2 では修正されているため、open-vm-tools 9.10.2 であれば、任意のバージョンのカーネルにインストールできます。

    回避策:open-vm-tools 9.10 をインストールするには、./configure または --without-kernel-modules から vmxnet を編集します。

>