VMware ESXi 8.0 Update 2 | 2023 年 9 月 21 日 | GA ISO ビルド 22380479

これらのリリース ノートへの追加や更新を確認してください。

一般提供

ESXi 8.0 Update 2 リリースは、一般提供 (GA) 指定です。vSphere Update リリースの vSphere 8.0 IA/GA リリース モデルの詳細については、The vSphere 8 Release Model Evolvesを参照してください。

新機能

vSphere 8.0 Update 2 の新機能の概要については、What's New in vSphere 8 Update 2および次のリリース ノートを参照してください。

次の新機能と機能強化のリストには、ESXi 8.0 Update 2 に対する重要なハイライトのいくつかが追加されています。

  • vSphere 8.0 Update 2 によって vSphere Distributed Services Engine に追加されるサポート:

    • NVIDIA BlueField-2 DPU から Fujitsu のサーバ設計 (Intel Sapphire Rapids)。

  • ESXi 8.0 Update 2 では、次を含む複数のサーバ用の vSphere Quick Boot のサポートが追加されています。 

    • Dell

      • VxRail VD-4510c

      • VxRail VD-4520c

    • Fujitsu

      • PRIMERGY RX2540 M7

      • PRIMERGY RX2530 M7

    • Lenovo

      • ThinkSystem SR635 V3

      • ThinkSystem SR645 V3

      • ThinkSystem SR655 V3

      • ThinkSystem ST650 V3

      サポート対象のサーバの一覧については、VMware 互換性ガイドを参照してください。

  • In-Band Error-Correcting Code (IB ECC) のサポート:vSphere 8.0 Update 2 では、このオプションをサポートするハードウェア プラットフォームで IB ECC を使用して、実際の ECC タイプの DDR メモリを必要とせずにデータ整合性チェックを実行できます。

  • Intel ATS-M におけるグラフィックおよび AI/ML ワークロードのサポート:vSphere 8.0 Update 2 では、Intel ATS-M におけるグラフィックおよび AI/ML ワークロードのサポートが追加されています。

  • 拡張 ESXi CPU スケジューラ:vSphere 8.0 Update 2 では、ソケットあたり最大 60 コアの Intel Sapphire Rapids などのコア数の多い CPU を使用する新しい世代のシステム向けに、ESXi CPU スケジューラのパフォーマンスが強化されています。

  • Broadcom lpfc ドライバ アップデート:vSphere 8.0 Update 2 では、lpfc ドライバはファイバ チャネル ポート識別子 (FPIN) レポートに関する情報を生成および提供できます。

  • Mellanox (nmlx5) ドライバ アップデート:vSphere 8.0 Update 2 では、nmlx5 ドライバは NVIDIA ConnectX-7 SmartNIC をサポートし、ESXi ホストあたり最大 8 つの Mellanox アップリンクのサポート、最大 200G 速度のオフロード サポート、内部 IPv4/IPv6 チェックサム オフロード (CSO) のハードウェア オフロード、GENEVE と VXLAN の両方に外部 IPv6 を使用した TCP セグメント オフロード (TSO)、および NetQ Receive-Side Scaling (RSS) の有効化など、パフォーマンスが向上しました。

  • Marvell (qedentv) ドライバ アップデート:vSphere 8.0 Update 2 では、qedentv ドライバは NetQ Receive-Side Scaling (RSS) と Hardware Large Receive Offload (HW LRO) をサポートし、パフォーマンス、スケーラビリティ、および効率が向上しました。

  • その他のドライバ アップデート:

    • Broadcom bcm_mpi3 - バグ修正

    • Broadcom bnxtnet - 非同期ドライバから累積された bnxtnet ドライバ アップデート(vmk_UplinkQueueOps の queueGetStats コールバックを含む)、およびデバッグの強化

    • Broadcom lsi_mr3 - ルーチン アップデート

    • Intel icen - icen NIC デバイス ドライバのネイティブ モードでの RSS 機能の有効化

    • Microchip smartpqi - バグ修正と OEM ブランドの PCI ID の追加。

    • Pensando ionic_cloud - クラウド ベンダーのサポート

  • IPv6 ドライバの機能強化:vSphere 8.0 Update 2 では、ESXi ドライバは、オーバーレイとして使用する場合に IPv6 でパフォーマンスを向上するためのオフロード機能を追加します。

  • nvmxnet3 ドライバでの Uniform Passthrough (UPT) モードのサポート:vSphere 8.0 Update 2 では、ネストされた ESXi 環境で高速な vSphere vMotion 操作を可能にする UPT のサポートが追加されています。

  • Broadcom NIC と Mellanox NIC の両方で 100G の 8 ポートを単一ホストでサポート:vSphere 8.0 Update 2 では、Broadcom と Mellanox の ESXi で 100 GB NIC ポートのサポートが 4 ポートから 8 ポートに増えました。

  • REST 認証の CIM サービス チケット:JWT ベースの認証に加えて、vSphere 8.0 Update 2 では、ESXi ホストで認証するために、SREST プラグイン用の acquireCimServicesTicket() API で CIM サービス チケットを使用するオプションが追加されています。

  • glibc ライブラリのアップデート:glibc ライブラリは、NIAP の要件に合わせてバージョン 2.28 にアップデートされました。

ワークロードのゲスト プラットフォーム:

  • 仮想ハードウェア バージョン 21: vSphere 8.0 Update 2 で導入される仮想ハードウェア バージョン 21 では、最新のゲスト OS のサポートが強化され、vGPU と vNVME の最大値が次のように引き上げられています。

    • 仮想マシンあたり 16 個の vGPU デバイス(vSphere での仮想グラフィックスの構成を参照)

    • 仮想マシンあたり 256 個の vNVMe ディスク(64 x 4 個の vNVMe アダプタ)

    • Windows 11 および Windows Server 2022 の NVMe 1.3 サポート

    • Windows Server Failover Clustering (WSFC) の NVMe サポート

  • 共有 vSphere Virtual Volumes ディスクのホット拡張:vSphere 8.0 Update 2 では、共有 vSphere Virtual Volumes ディスクのホット拡張がサポートされています。つまり、クラスタを無効にせずに共有ディスクのサイズを増やすことが可能で、実質的にダウンタイムを発生させません。これは、Windows Server Failover Cluster (WSFC) などの仮想マシン クラスタリング ソリューションに役立ちます。詳細については、「WSFC の VMware vSphere Virtual Volumes サポート」および「共有 vVol ディスクのホット拡張機能」を参照してください。

  • WSFC に vNVME コントローラを使用:vSphere 8.0 Update 2 では、Windows Server 2022(OS ビルド 20348.1547)以降のクラスタ VMDK を使用した WSFC の既存の準仮想化コントローラに加えて、NVMe コントローラを使用できます。NVMe Controller を使用するには、仮想マシンのハードウェア バージョンが 21 以降である必要があります。詳細については、「Windows Server フェールオーバー クラスタリングのセットアップについて」を参照してください。

  • マルチライター モードのディスクに vNVME コントローラを使用: vSphere 8.0 Update 2 以降では、Oracle RAC などのサードパーティ製クラスタ アプリケーションで使用されるマルチライター モードの仮想ディスクに対して仮想 NVMe コントローラを使用できます。

  • 仮想 eXtensible ホスト コントローラ インターフェイス (xHCI) での USB 3.2 のサポート:vSphere 8.0 Update 2 では、仮想 xHCI コントローラに 20 Gbps の互換性があります。

  • 接続された仮想ディスクの読み取り専用モード:vSphere 8.0 Update 2 では、仮想ディスクを読み取り専用として仮想マシンに接続し、一時的な REDO ログを回避し、VMware App Volumes などのユースケースのパフォーマンスを向上させることができます。

  • First Class Disk (FCD) が接続されている場合の仮想マシン クローンのサポート:vSphere 8.0 Update 2 では、cloneVM() API を使用して、FCD が接続された仮想マシンのクローンを作成できます。

GPU

  • パススルー GPU カードの GPU ドライバ仮想マシン:vSphere 8.0 Update 2 では、GPU ドライバ仮想マシンにより、仮想 SVGA デバイス (vSGA) の新しい GPU ベンダーのサポートが容易になります。

ストレージ

  • 1 つの NFS v3 ボリュームでの複数の TCP 接続のサポート:vSphere 8.0 Update 2 により、オンプレミス環境では、ESXCLI である nConnect を使用して 1 つの NFS v3 ボリュームに対して複数の TCP 接続をサポートできるようになります。詳細については、VMware ナレッジベースの記事 KB91497 および KB91479 を参照してください。

  • ESXCLI による vSphere Virtual Volumes の SCSI UNMAP 操作のサポート:vSphere 8.0 Update 2 以降では、vSphere Virtual Volumes の SCSI UNMAP 操作にコマンド ラインである ESXCLI を使用できます。

ESXi 8.0 の旧リリース

ESXi の新機能、解決した問題、および既知の問題については、各リリースのリリース ノートに記載されています。ESXi 8.0 の以前のリリースのリリース ノートは以下のとおりです。

利用可能な言語、互換性、オープン ソース コンポーネントについては 「VMware vSphere 8.0 リリース ノート」を参照してください。.

本リリースに含まれるパッチ

VMware ESXi 8.0 Update 2 のパッチ

ESXi 8.0 Update 2 のこのリリースでは、次のパッチが提供されます。

ビルドの詳細

ダウンロード ファイル名

VMware-ESXi-8.0U2-22380479-depot.zip

ビルド

22380479

ダウンロード サイズ

615.7 MB

sha256checksum:

76dbd1f0077b20b765c8084e74a5fd012c0c485297f60530e1f9703bdf051b5c

ホストの再起動が必要

はい

仮想マシンの移行またはシャットダウンが必要

はい

ロールアップ パッチ

このロールアップ パッチには、ESXi 8.0 の初回リリース以降のすべての修正が入っている最新の VIB が含まれています。

パッチ ID

カテゴリ

重要度

ESXi80U2-22380479

機能拡張

重要

イメージ プロファイル

VMware のパッチおよびアップデート リリースには、一般的なイメージ プロファイルおよび重要なイメージ プロファイルが含まれています。一般的なリリース イメージ プロファイルは、新しいバグ修正に適用されます。

イメージ プロファイルの名前

ESXi-8.0U2-22380479-standard

ESXi-8.0U2-22380479-no-tools

ESXi イメージ

名称とバージョン

リリース日

カテゴリ

詳細

ESXi_8.0.2-0.0.22380479

09/21/2023

全般

バグ修正イメージ

各コンポーネントとパッチについては、「製品パッチ」ページおよび「解決した問題」セクションを参照してください。

パッチ ダウンロードおよびインストール

vSphere Lifecycle Manager を使用したアップデートとアップグレードの詳細については、vSphere Lifecycle Manager についておよびvSphere Lifecycle Manager ベースラインとイメージを参照してください。イメージ プロファイルを使用して、vSphere Lifecycle Manager を使用せずに ESXi ホストをアップデートすることもできます。そのためには、VMware のダウンロードページまたは製品パッチのページで、パッチのオフライン バンドル ZIP ファイルを手動でダウンロードし、esxcli software profile update コマンドを使用する必要があります。詳細については、「ESXi パッチおよび更新プログラムの ZIP ファイルのダウンロード方法」、「ESXCLI コマンドを使用した、ホストのアップグレード」、および『VMware ESXi のアップグレード』ガイドを参照してください。

製品サポートに関する注意事項

  • デフォルトで ptrace システム呼び出しの使用を制限:vSphere 8.0 Update 2 以降では、セキュリティ上の懸念により、VMware はデフォルトで ptrace システム呼び出しの使用を制限します。

  • Intel X722 NIC ハードウェアでの Internet Wide Area RDMA Protocol (iWARP) の廃止:vSphere 8.0 Update 2 では、Intel X722 NIC ハードウェアの iWARP はサポートされなくなりました。

  • レガシー SOAP API コントラクトの廃止:vSphere 8.0 Update 2 では、vSphere 5.5 以前のリリースの WSDL ベースの SOAP API コントラクトは廃止され、今後の vSphere リリースで削除される予定です。vSphere 5.5 以前のコントラクトを使用する VMware または サードパーティ ツールに基づくすべての vSphere 自動化は、より新しいツールにアップグレードする必要があります。

  • Windows 仮想マシンのデフォルトの NVMe バージョン 1.3:vSphere 8.0 Update 2 以降では、ハードウェア バージョン 21 以降と仮想 NVMe コントローラを備えた Windows Server 2022 または Windows 11 以降の仮想マシンの NVMe バージョンは、デフォルトで 1.3 に設定されています。NVMe ホット アド、削除、および拡張操作を適切に行うには、Windows Windows Server 2022 の場合は少なくとも KB5029250(OS ビルド 20348.1906)に、Windows 11 の場合は KB5028254(OS ビルド 22621.2070)にアップグレードする必要があります。

  • TLS 1.3 のサポート:vSphere 8.0 Update 2 では、ESXi で TLS 1.3 の初期サポートが導入されています。vCenter Server は TLS 1.2 のままです。

  • qedentv ドライバ用の Enhanced Networking Stack (ENS) モードでの NVMe/TCP のサポート:vSphere 8.0 Update 2 以降では、Marvell の VMware qedentv NIC ドライバは ENS モードで NVMe/TCP をサポートします。

本リリースのインストールおよびアップグレードに関する注意事項

  • NVIDIA BlueField-2 (BF2) DPU で構成された vSphere Distributed Service Engine ホストを ESXi 8.0 Update 2 にアップデートする場合は、同じメンテナンス ウィンドウで ESXi および BF2 DPU ファームウェアをアップグレードするための特定の順序に従う必要があります。

    1. vSphere Distributed Service Engine ホストをメンテナンス モードに切り替えます。

    2. BF2 DPU の NIC および ARM ファームウェアがアップグレードされていないことを確認し、NIC ファームウェア バージョン 24.33.1246 や ARM ファームウェア バージョン 18.2.0.12580 など、8.0 Update 2 より前のバージョンの ESXi に適用可能なファームウェアを実行していることを確認します。

    3. ESXi を 8.0 Update 2 にアップデートします。

    4. BF2 DPU ARM(UEFI および ATF)ファームウェアを 4.0.2.12722 にアップグレードします。これは、ESXi 8.0 Update 2 に必要なファームウェア バージョンです。

    5. BF2 DPU NIC ファームウェアを 24.36.7506 にアップグレードします。これは、ESXi 8.0 Update 2 ドライバに必要なファームウェア バージョンです。

    6. vSphere Distributed Service Engine ホストのメンテナンス モードを終了します。

      この順序で手順を実行しないと、ESXi ロールバックが失敗し、アップグレードが失敗した場合に BF2 DPU ベースの vSphere Distributed Service Engine ホスト構成を回復できなくなります。

  • ESXi 8.0 Update 2 での VMware Tools のバンドルの変更

    • 次の VMware Tools ISO イメージが ESXi 8.0 Update 2 にバンドルされます。 

      • windows.iso:VMware Tools 12.3.0 は Windows 7 SP1 または Windows Server 2008 R2 SP1 以降をサポートします。

      • linux.iso:Linux OS、glibc 2.11 以降用の VMware Tools 10.3.25 ISO イメージ。

      次の VMware Tools の ISO イメージをダウンロードできます。

      • VMware Tools 11.0.6:

        • windows.iso:Windows Vista (SP2) および Windows Server 2008 Service Pack 2 (SP2) 用。

      • VMware Tools 10.0.12:

        • winPreVista.iso:Windows 2000、Windows XP、Windows 2003 用。

        • linuxPreGLibc25.iso:Red Hat Enterprise Linux (RHEL) 5、SUSE Linux Enterprise Server (SLES) 11、Ubuntu 7.04 より前のゲスト OS と、glibc バージョンが 2.5 より前のその他のディストリビューションをサポートします。

      • solaris.iso:VMware Tools イメージ 10.3.10 (Solaris)。

      • darwin.iso:Mac OS X バージョン 10.11 以降をサポートします。

      ESXi にバンドルされていない、特定のプラットフォーム用の VMware Tools をダウンロードする場合は、次のドキュメントに記載されている手順に従ってください。

解決した問題

セキュリティの問題

  • ESXi 8.0 Update 2 には、次の Intel マイクロコードが含まれています。

    コード ネーム

    FMS

    Plt ID

    MCU のリビジョン

    MCU の日付

    ブランド名

    Nehalem EP

    0x106a5 (06/1a/5)

    0x03

    0x1d

    5/11/2018

    Intel Xeon 35xx シリーズ、Intel Xeon 55xx シリーズ

    Clarkdale

    0x20652 (06/25/2)

    0x12

    0x11

    5/8/2018

    Intel i3/i5 Clarkdale シリーズ、Intel Xeon 34xx Clarkdale シリーズ

    Arrandale

    0x20655 (06/25/5)

    0x92

    0x7

    4/23/2018

    Intel Core i7-620LE Processor

    Sandy Bridge DT

    0x206a7 (06/2a/7)

    0x12

    0x2f

    2/17/2019

    Intel Xeon E3-1100 シリーズ、Intel Xeon E3-1200 シリーズ、Intel i7-2655-LE シリーズ、Intel i3-2100 シリーズ

    Westmere EP

    0x206c2 (06/2c/2)

    0x03

    0x1f

    5/8/2018

    Intel Xeon 56xx シリーズ、Intel Xeon 36xx シリーズ

    Sandy Bridge EP

    0x206d6 (06/2d/6)

    0x6d

    0x621

    3/4/2020

    Intel Pentium 1400 シリーズ、Intel Xeon E5-1400 シリーズ、Intel Xeon E5-1600 シリーズ、Intel Xeon E5-2400 シリーズ、Intel Xeon E5-2600 シリーズ、Intel Xeon E5-4600 シリーズ

    Sandy Bridge EP

    0x206d7 (06/2d/7)

    0x6d

    0x71a

    3/24/2020

    Intel Pentium 1400 シリーズ、Intel Xeon E5-1400 シリーズ、Intel Xeon E5-1600 シリーズ、Intel Xeon E5-2400 シリーズ、Intel Xeon E5-2600 シリーズ、Intel Xeon E5-4600 シリーズ

    Nehalem EX

    0x206e6 (06/2e/6)

    0x04

    0xd

    5/15/2018

    Intel Xeon 65xx シリーズ、Intel Xeon 75xx シリーズ

    Westmere EX

    0x206f2 (06/2f/2)

    0x05

    0x3b

    5/16/2018

    Intel Xeon E7-8800 シリーズ、Intel Xeon E7-4800 シリーズ、Intel Xeon E7-2800 シリーズ

    Ivy Bridge DT

    0x306a9 (06/3a/9)

    0x12

    0x21

    2/13/2019

    Intel i3-3200 シリーズ、Intel i7-3500-LE/UE、Intel i7-3600-QE、Intel Xeon E3-1200-v2 シリーズ、Intel Xeon E3-1100-C-v2 シリーズ、Intel Pentium B925C

    Haswell DT

    0x306c3 (06/3c/3)

    0x32

    0x28

    11/12/2019

    Intel Xeon E3-1200-v3 シリーズ、Intel i7-4700-EQ シリーズ、Intel i5-4500-TE シリーズ、Intel i3-4300 シリーズ

    Ivy Bridge EP

    0x306e4 (06/3e/4)

    0xed

    0x42e

    3/14/2019

    Intel Xeon E5-4600-v2 シリーズ、Intel Xeon E5-2600-v2 シリーズ、Intel Xeon E5-2400-v2 シリーズ、Intel Xeon E5-1600-v2 シリーズ、Intel Xeon E5-1400-v2 シリーズ

    Ivy Bridge EX

    0x306e7 (06/3e/7)

    0xed

    0x715

    3/14/2019

    Intel Xeon E7-8800/4800/2800-v2 Series

    Haswell EP

    0x306f2 (06/3f/2)

    0x6f

    0x49

    8/11/2021

    Intel Xeon E5-4600-v3 シリーズ、Intel Xeon E5-2600-v3 シリーズ、Intel Xeon E5-2400-v3 シリーズ、Intel Xeon E5-1600-v3 シリーズ、Intel Xeon E5-1400-v3 シリーズ

    Haswell EX

    0x306f4 (06/3f/4)

    0x80

    0x1a

    5/24/2021

    Intel Xeon E7-8800/4800-v3 Series

    Broadwell H

    0x40671 (06/47/1)

    0x22

    0x22

    11/12/2019

    Intel Core i7-5700EQ、Intel Xeon E3-1200-v4 シリーズ

    Avoton

    0x406d8 (06/4d/8)

    0x01

    0x12d

    9/16/2019

    Intel Atom C2300 シリーズ、Intel Atom C2500 シリーズ、Intel Atom C2700 シリーズ

    Broadwell EP/EX

    0x406f1 (06/4f/1)

    0xef

    0xb000040

    5/19/2021

    Intel Xeon E7-8800/4800-v4 シリーズ、Intel Xeon E5-4600-v4 シリーズ、Intel Xeon E5-2600-v4 シリーズ、Intel Xeon E5-1600-v4 シリーズ

    Skylake SP

    0x50654 (06/55/4)

    0xb7

    0x2007006

    3/6/2023

    Intel Xeon Platinum 8100 シリーズ、Intel Xeon Gold 6100/5100、Silver 4100、Bronze 3100 シリーズ、Intel Xeon D-2100 シリーズ、Intel Xeon D-1600 シリーズ、Intel Xeon W-3100 シリーズ、Intel Xeon W-2100 シリーズ

    Cascade Lake B-0

    0x50656 (06/55/6)

    0xbf

    0x4003604

    3/17/2023

    Intel Xeon Platinum 9200/8200 シリーズ、Intel Xeon Gold 6200/5200、Intel Xeon Silver 4200/Bronze 3200、Intel Xeon W-3200

    Cascade Lake

    0x50657 (06/55/7)

    0xbf

    0x5003604

    3/17/2023

    Intel Xeon Platinum 9200/8200 シリーズ、Intel Xeon Gold 6200/5200、Intel Xeon Silver 4200/Bronze 3200、Intel Xeon W-3200

    Cooper Lake

    0x5065b (06/55/b)

    0xbf

    0x7002703

    3/21/2023

    Intel Xeon Platinum 8300 シリーズ、Intel Xeon Gold 6300/5300

    Broadwell DE

    0x50662 (06/56/2)

    0x10

    0x1c

    6/17/2019

    Intel Xeon D-1500 Series

    Broadwell DE

    0x50663 (06/56/3)

    0x10

    0x700001c

    6/12/2021

    Intel Xeon D-1500 Series

    Broadwell DE

    0x50664 (06/56/4)

    0x10

    0xf00001a

    6/12/2021

    Intel Xeon D-1500 Series

    Broadwell NS

    0x50665 (06/56/5)

    0x10

    0xe000014

    9/18/2021

    Intel Xeon D-1600 Series

    Skylake H/S

    0x506e3 (06/5e/3)

    0x36

    0xf0

    11/12/2021

    Intel Xeon E3-1500-v5 シリーズ、Intel Xeon E3-1200-v5 シリーズ

    Denverton

    0x506f1 (06/5f/1)

    0x01

    0x38

    12/2/2021

    Intel Atom C3000 Series

    Ice Lake SP

    0x606a6 (06/6a/6)

    0x87

    0xd0003a5

    3/30/2023

    Intel Xeon Platinum 8300 シリーズ、Intel Xeon Gold 6300/5300 シリーズ、Intel Xeon Silver 4300 シリーズ

    Ice Lake D

    0x606c1 (06/6c/1)

    0x10

    0x1000230

    1/27/2023

    Intel Xeon D-2700 シリーズ、Intel Xeon D-1700 シリーズ

    Snow Ridge

    0x80665 (06/86/5)

    0x01

    0x4c000023

    2/22/2023

    Intel Atom P5000 Series

    Snow Ridge

    0x80667 (06/86/7)

    0x01

    0x4c000023

    2/22/2023

    Intel Atom P5000 Series

    Tiger Lake U

    0x806c1 (06/8c/1)

    0x80

    0xac

    2/27/2023

    Intel Core i3/i5/i7-1100 シリーズ

    Tiger Lake U Refresh

    0x806c2 (06/8c/2)

    0xc2

    0x2c

    2/27/2023

    Intel Core i3/i5/i7-1100 シリーズ

    Tiger Lake H

    0x806d1 (06/8d/1)

    0xc2

    0x46

    2/27/2023

    Intel Xeon W-11000E シリーズ

    Sapphire Rapids SP HBM

    0x806f8 (06/8f/8)

    0x10

    0x2c0001d1

    2/14/2023

    Intel Xeon Max 9400 シリーズ

    Sapphire Rapids SP

    0x806f8 (06/8f/8)

    0x87

    0x2b000461

    3/13/2023

    Intel Xeon Platinum 8400 シリーズ、Intel Xeon Gold 6400/5400 シリーズ、Intel Xeon Silver 4400 シリーズ、Intel Xeon Bronze 3400 シリーズ

    Kaby Lake H/S/X

    0x906e9 (06/9e/9)

    0x2a

    0xf4

    2/23/2023

    Intel Xeon E3-1200-v6 シリーズ、Intel Xeon E3-1500-v6 シリーズ

    Coffee Lake

    0x906ea (06/9e/a)

    0x22

    0xf4

    2/23/2023

    Intel Xeon E-2100 シリーズ、Intel Xeon E-2200 シリーズ(4 または 6 コア)

    Coffee Lake

    0x906eb (06/9e/b)

    0x02

    0xf4

    2/23/2023

    Intel Xeon E-2100 Series

    Coffee Lake

    0x906ec (06/9e/c)

    0x22

    0xf4

    2/23/2023

    Intel Xeon E-2100 Series

    Coffee Lake Refresh

    0x906ed (06/9e/d)

    0x22

    0xfa

    2/27/2023

    Intel Xeon E-2200 Series(8 コア)

    Rocket Lake S

    0xa0671 (06/a7/1)

    0x02

    0x59

    2/26/2023

    Intel Xeon E-2300 Series

  • ESXi 8.0 Update 2 には、次の AMD CPU マイクロコードが含まれています。

    コード ネーム

    FMS

    MCU のリビジョン

    MCU の日付

    ブランド名

    Bulldozer

    0x600f12 (15/01/2)

    0x0600063e

    2/7/2018

    Opteron 6200/4200/3200 シリーズ

    Piledriver

    0x600f20 (15/02/0)

    0x06000852

    2/6/2018

    Opteron 6300/4300/3300 シリーズ

    Zen-Naples

    0x800f12 (17/01/2)

    0x0800126e

    11/11/2021

    EPYC 7001 シリーズ

    Zen2-Rome

    0x830f10 (17/31/0)

    0x0830107a

    5/17/2023

    EPYC 7002/7Fx2/7Hx2 シリーズ

    Zen3-Milan-B1

    0xa00f11 (19/01/1)

    0x0a0011d1

    7/10/2023

    EPYC 7003/7003X シリーズ

    Zen3-Milan-B2

    0xa00f12 (19/01/2)

    0x0a001234

    7/10/2023

    EPYC 7003/7003X シリーズ

インストール、アップグレード、および移行の問題

  • DPU を使用する vSphere 環境での VMware NSX のインストールまたはアップグレードが、接続エラーで失敗することがある

    ESXi ホスト側で断続的なタイミングの問題が発生すると、DPU がある vSphere 環境での NSX のインストールやアップグレードが失敗することがあります。nsxapi.log ファイルに、Failed to get SFHC response. MessageType MT_SOFTWARE_STATUS などのログが記録されます。

    本リリースで、この問題は修正されました。

その他の問題

  • ESXCLI コマンドを使用して、VMkernel ポート バインドを使用する IPv6 ベースの NFS 3 データストアをマウントできない

    ESXCLI コマンドを使用して、IPv6 サーバ アドレスと VMkernel ポート バインドを使用する NFS 3 データストアをマウントすると、次のようなエラーが表示されてタスクが失敗します。

    [:~] esxcli storage nfs add -I fc00:xxx:xxx:xx::xxx:vmk1 -s share1 -v volume1

    Validation of vmknic failed Instance(defaultTcpipStack, xxx:xxx:xx::xxx:vmk1) Input(): Not found:

    これは、IPv6 サーバ アドレスと VMkernel ポート バインドを使用する NFS 3 データストアに固有の問題です。

    本リリースで、この問題は修正されました。

  • ESXi ホストのシャットダウンまたは再起動中に DPU で PCI パススルーがアクティブになっていると、パープル スクリーンが表示されてホストが動作を停止する

    ESXi ホストのシャットダウンまたは再起動時に、アクティブな仮想マシンに DPU に対する PCI パススルーがあると、パープル スクリーンが表示されてホストが動作を停止します。この問題は DPU を使用するシステムに固有で、仮想マシンが DPU への PCI パススルーを使用している場合にのみ発生します。

    本リリースで、この問題は修正されました。

  • ベンダー デバイス グループを使用してハードウェア バージョンが 20 より前の仮想マシンを構成した場合、これらの仮想マシンは想定どおりに動作しないことがある

    高速ネットワーク デバイスと GPU のバインドを有効にするベンダー デバイス グループは、ハードウェア バージョンが 20 以降の仮想マシンでのみサポートされますが、ハードウェア バージョンが 20 より前の仮想マシンも、ベンダー デバイス グループを使用して構成することができます。これらの仮想マシンは、パワーオンに失敗するなど、想定どおりに動作しない可能性があります。

    本リリースで、この問題は修正されました。

ネットワークの問題

  • NFS サーバのマウントのタイムアウトが原因で ESXi の再起動に時間がかかる

    アクセスできない NFS サーバに複数のマウントがある場合、ESXi は各マウントへの接続を 30 秒間再試行します。マウントの数によっては、ESXi の再起動が合計で数分間遅延する場合があります。

    本リリースで、この問題は修正されました。

  • NVMe/TCP 構成の ESXi ホストで NVMe 検出サービスの自動検出が失敗することがある

    vSphere 8.0 で ESXi に追加された高度な NVMe-oF 検出サービスのサポートは、標準に準拠した NVMe 検出サービスの動的検出を可能にします。ESXi は、mDNS/DNS-SD サービスを使用して、ネットワーク上のアクティブな NVMe-oF 検出サービスの IP アドレスやポート番号などの情報を取得します。ただし、NVMe/TCP が有効になっている ESXi サーバでは、vSphere Distributed Switch を使用するように構成されたネットワークでの自動検出が失敗することがあります。この問題は、標準スイッチを使用する NVMe/TCP 構成には影響しません。

    本リリースで、この問題は修正されました。

  • icen ドライバを使用して SR-IOV を有効または無効にした後に ESXi ホストを再起動しなかった場合、そのホストを ENS 割り込みモードにした状態でトランスポート ノードを構成すると、一部の仮想マシンで DHCP アドレスが取得されないことがある

    ESXi ホストで icen ドライバを使用して SR-IOV を有効または無効にし、トランスポート ノードを ENS 割り込みモードで構成する場合、ホストを再起動しないと、一部の Rx(受信)キューが機能しないことがあります。その結果、一部の仮想マシンで DHCP アドレスが取得されないことがあります。

    本リリースで、この問題は修正されました。

vSphere Lifecycle Manager の問題

  • ステートフル インストールが有効なホスト プロファイルからデプロイされた ESXi ホストをイメージとして使用して、クラスタ内に他の ESXi ホストをデプロイすると、操作が失敗する

    ステートフル インストールを有効にしたホスト プロファイルからデプロイされた ESXi ホストのイメージを抽出して、vSphere Lifecycle Manager クラスタに他の ESXi ホストをデプロイすると、操作が失敗します。vSphere Client に「A general system error occurred: Failed to extract image from the host: no stored copy available for inactive VIB VMW_bootbank_xxx. Extraction of image from host xxx.eng.vmware.com failed」などのエラーが表示されます。

    本リリースで、この問題は修正されました。

既知の問題

その他の問題

  • IPv6 が無効な場合、ESXi ホストの起動中に「Jumpstart plugin restore-networking activation failed」というエラーが表示されることがある

    ESXi コンソールで、ホストの起動シーケンス中に「Jumpstart plugin restore-networking activation failed」というエラー バナーが表示されることがあります。このバナーは、IPv6 が無効な場合にのみ表示され、実際のエラーは示されません。

    回避策:ESXi ホストで IPv6 を有効にするか、メッセージを無視します。

  • High Performance Plug-in (HPP) 環境でネットワークが停止すると、ホスト障害が発生することがある

    ESXi ホスト上の NVMe デバイスのパフォーマンス向上を目的とした HPP 環境では、ネットワークが停止すると、次の 2 つの問題が発生することがあります。

    1. HPP によって要求されたマルチパスのローカル SCSI デバイス(アクティブ/アクティブ プレゼンテーション)の場合、仮想マシン I/O が他のパスで再試行されるのではなく、途中で失敗することがあります。

    2. HPP によって要求されたローカル SCSI デバイスの場合、All Paths Down (APD) シナリオにおいて、vCenter Server から完全なストレージの再スキャンがトリガされると、ESXi ホストで障害が発生し、パープル スクリーンが表示されることがあります。

    どちらの問題も SCSI ローカル デバイスでのみ発生します。また、ネットワークまたは APD の不足が原因で I/O が失敗した場合に発生します。

    回避策:HPP ではなく、ESXi ネイティブ マルチパス プラグイン (NMP) によってデバイスを要求するユーザー要求ルールを追加します。詳細については、VMware ナレッジベースの記事 KB94377 を参照してください。

  • 拡張ネットワーク スタックを備えた ESXi ホストで TCP 接続が断続的に切断される

    送信側の仮想マシンが拡張ネットワーク スタックを備えた ESXi ホスト上にある場合、パケット内の TCP チェックサムの値が 0xFFFF として計算されるときの TCP チェックサムの相互運用性の問題により、エンド システムが TCP パケットをドロップまたは遅延させる可能性があります。

    回避策:拡張ネットワーク スタックを備えた ESXi ホスト上の送信側の仮想マシンで TCP チェックサムのオフロードを無効にします。Linux では、コマンド sudo ethtool -K <interface> tx off を使用できます。

セキュリティの問題

  • ESXi ホストでロックダウン モードを無効にしても、ホストの再起動後にロックダウンがアクティブとして報告される

    ESXi ホストでロックダウン モードを無効にしても、ホストの再起動後にロックダウンがアクティブと表示される場合があります。

    回避策:ロックダウン モードの例外ユーザーのリストにユーザー dcui および vpxuser を追加して、再起動後にロックダウン モードを無効にします。詳細については、「ロックダウン モード例外ユーザーの指定」および「VMware Host Client でのロックダウン モード例外ユーザーの指定」を参照してください。

ネットワークの問題

  • TCP セグメンテーション オフロードがアクティブな IPv6 環境で転送速度が低下している

    IPv6 TCP セグメンテーション オフロード (TSO) がアクティブな環境では、e1000e 仮想 NIC を搭載した Windows 仮想マシンの転送速度が低下する場合があります。この問題は IPv4 環境では発生しません。

    回避策:TSO を無効にするか、e1000e の代わりに vmxnet3 アダプタを使用します。

  • SmartNIC (ECPF) モードで動作する DPU デバイスを使用する ESXi ホストから、従来の NIC モードで動作する DPU デバイスを使用する ESXi ホストに仮想マシンを移行すると、オーバーレイ トラフィックがドロップする場合がある

    vSphere vMotion を使用して、オーバーレイでバッキングされたセグメントに接続されている仮想マシンを、オフロード モード(トラフィック転送ロジックが DPU にオフロードされます)で動作する vSphere Distributed Switch を使用する ESXi ホストから、非オフロード モード(DPU は従来の NIC として使用されます)で動作する Distributed Switch 使用する ESXi ホストに移行すると、移行後にオーバーレイ トラフィックがドロップする可能性があります。

    回避策:移行先の ESXi ホストで仮想 NIC を無効にしてから有効にします。

以前のリリースからの既知の問題

インストール、アップグレード、および移行の問題

  • vCenter Server を 8.0 Update 1 にアップデートしても、ESXi ホストが以前のバージョンのままになっている場合、そのホスト上の vSphere Virtual Volumes データストアにアクセスできなくなることがある

    vSphere 8.0 で自己署名 VASA プロバイダ証明書がサポートされなくなり、構成オプション Config.HostAgent.ssl.keyStore.allowSelfSigned はデフォルトで false に設定されています。vCenter Server インスタンスを、vSphere APIs for Storage Awareness (VASA) バージョン 5.0 を導入している 8.0 Update 1 にアップデートしても、ESXi ホストが以前のバージョンの vSphere および VASA のままになっている場合、自己署名証明書を使用するホストが vSphere Virtual Volumes データストアにアクセスできない、または CA 証明書を更新できない可能性があります。

    回避策:ホストを ESXi 8.0 Update 1 にアップデートします。ESXi 8.0 Update 1 にアップデートしない場合は、VMware ナレッジベースの記事KB91387を参照してください。

  • ソフトウェア FCoE 構成を使用してホスト プロファイルを ESXi 8.0 ホストに適用すると、操作が検証エラーで失敗する

    vSphere 7.0 以降では、ソフトウェア FCoE は廃止され、vSphere 8.0 ではソフトウェア FCoE プロファイルはサポートされません。以前のバージョンのホスト プロファイルを ESXi 8.0 ホストに適用して、ホストのカスタマイズの編集などを行うと、操作が失敗します。vSphere Client に「Host Customizations validation error」などのエラーが表示されます。

    回避策:ホスト プロファイルでソフトウェア FCoE 構成サブプロファイルを無効にします。

  • バージョン 8.0 の ESXi ホストは以前の ESXi バージョンの既存のホスト プロファイルのリファレンス ホストとしては使用できない

    インベントリで 8.0 リファレンス ホストのみが使用可能な場合、ESXi バージョン 7.x、6.7.x、および 6.5.x の既存のホスト プロファイルの検証に失敗します。

    回避策:インベントリに、それぞれのバージョンのリファレンス ホストがあることを確認します。たとえば、ESXi 7.0 Update 2 ホスト プロファイルの更新や編集には、ESXi 7.0 Update 2 リファレンス ホストを使用します。

  • ESXi 8.0 にアップグレードした後に VMNIC が停止することがある

    VMNIC のピア物理スイッチがメディア自動検出をサポートしていないか、メディア自動検出が無効になっている場合で、VMNIC リンクをいったん停止してから有効にした場合、ESXi 8.0 へのアップグレードまたはインストール後にリンクは停止したままになります。

    回避策:次の 2 つのオプションのいずれかを使用します。

    1. システム セットアップ メイン メニューに移動するか、F2 キー(通常時)を押して BIOS 設定の media-auto-detect オプションを有効にするか、仮想コンソールを開いて [デバイス設定] > <特定の Broadcom NIC> > [デバイス構成メニュー] > [メディア自動検出] の順に移動します。ホストを再起動します。

    2. または、次のような ESXCLI コマンドを使用します。esxcli network nic set -S <your speed> -D full -n <your nic>。このオプションを使用すると、リンクに固定速度も設定されるため、再起動は必要ありません。

  • ESXi 8.0 へのアップグレード後に、パラメータの廃止が原因で nmlx5_core ドライバ モジュール設定の一部が失われることがある

    device_rssdrssrss など、nmlx5_core ドライバの一部のモジュール パラメータは ESXi 8.0 で廃止されており、ESXi 8.0 へのアップグレード後に、デフォルト値と異なる任意のカスタム値が保持されることはありせん。

    回避策:次のように、device_rssdrssrss パラメータの値を置き換えます。

    • device_rss: DRSS パラメータを使用

    • drss: DRSS パラメータを使用

    • rss: RSS パラメータを使用

  • vCenter Server リストア手順の 2 番目のステージが 90% の時点でフリーズする

    vCenter Server GUI インストーラまたは vCenter Server Appliance 管理インターフェイス (VAMI) を使用してファイルベースのバックアップから vCenter Server をリストアすると、タスクがバックエンドで正常に完了した場合でも、401 Unable to authenticate user エラーが発生して、リストア ワークフローが 90% の時点でフリーズすることがあります。この問題は、展開されたマシンの時刻が NTP サーバと異なるため、時刻の同期が必要になった場合に発生します。時刻を同期すると、クロック スキューが発生して、GUI または VAMI の実行セッションが失敗することがあります。

    回避策:GUI インストーラを使用している場合は、appliancesh シェルから restore.job.get コマンドを実行してリストア ステータスを取得できます。VAMI を使用する場合は、ブラウザを更新してください。

その他の問題

  • 拡張ネットワーク スタック (ENS) および VLAN 環境、および Broadcom RDMA ネットワーク インターフェイス コントローラ (RNIC) で RDMA over Converged Ethernet (RoCE) トラフィックが失敗することがある

    高バンド幅 ENS の VMware ソリューションは、MAC VLAN フィルタをサポートしていません。ただし、ENS + VLAN 環境の Broadcom RNIC で実行される RDMA アプリケーションには、MAC VLAN フィルタが必要です。その結果、一部の RoCE トラフィックが接続されない可能性があります。この問題は、NVMe over RDMA + ENS + VLAN 環境、または ENS+VLAN+RDMA アプリケーション環境で、ESXi ホストの再起動またはアップリンクの起動/停止の際に発生する可能性があります。

    回避策:なし

  • DPU 搭載の vSphere システムで ESXi システム構成をリセットまたはリストアすると、DPU の状態が無効になる場合がある

    ダイレクト コンソールで [システム構成をリセット] を選択するなど、DPU を使用する vSphere システムで ESXi システム構成のリセットまたはリストアを行うと、DPU が無効な状態になることがあります。DCUI に「Failed to reset system configuration. Note that this operation cannot be performed when a managed DPU is present」などのエラーが表示されることがあります。DPU 搭載環境における ESXi インストールでは、-f 強制再起動オプションに対するバックエンド呼び出しをサポートしていません。ESXi 8.0 では -f 強制再起動オプションをサポートしていますが、DPU 搭載の ESXi 構成で reboot -f を使用すると、強制再起動が無効な状態になることがあります。

    回避策:ダイレクト コンソール インターフェイスの [システム構成をリセット] は一時的に無効になっています。DPU 搭載の vSphere システムでは、ESXi システム構成をリセットしないでください。

  • DPU を使用する vCenter Server システムで IPv6 が無効になっていると、DPU を管理できない

    vSphere Client では操作が可能ですが、DPU を使用する ESXi ホストで IPv6 を無効にすると、ホストとデバイス間の内部通信は IPv6 に依存するため、DPU を使用できません。この問題で影響があるのは DPU を使用する ESXi ホストにのみです。

    回避策:DPU を使用する ESXi ホストで IPv6 が有効になっていることを確認します。

  • Pensando DPU が事前にインストールされている HPE サーバで ESXi ホストを再起動すると、10 分の遅延が発生することがある

    まれに、DPU に障害が発生した場合、Pensando DPU が事前にインストールされた HPE サーバが再起動されるまで 10 分以上かかることがあります。その結果、ESXi ホストで障害が発生して、パープル スクリーンが表示されることがあります。デフォルトの待機時間は 10 分です。

    回避策:なし。

  • ESXi 8.0 のインストールに使用するリモート管理アプリケーションで USB インターフェイスが有効になっている場合、アップリンク vusb0 を使用する追加の標準スイッチ vSwitchBMC が表示される

    vSphere 8.0 以降、Integrated Dell Remote Access Controller (iDRAC) と HP Integrated Heat Out (ILO) の両方で USB インターフェイス(それぞれ vUSB または vNIC)が有効になっている場合、アップリンク vusb0 を使用する追加の標準スイッチ vSwitchBMC が ESXi ホストに作成されます。これは、一部のサーバにデータ処理ユニット (DPU) が追加されていることを考慮すると予期されたことですが、VMware Cloud Foundation の起動プロセスが失敗する可能性があります。

    回避策:vSphere 8.0 をインストールする前に、ベンダーのドキュメントに従って、使用するリモート管理アプリケーションで USB インターフェイスを無効にします。

    vSphere 8.0 のインストール後、ESXCLI コマンド esxcfg-advcfg -s 0 /Net/BMCNetworkEnable を使用して、ホストの次回の再起動時に仮想スイッチ vSwitchBMC と関連するポートグループが作成されないようにします。

    例として、次のスクリプトを参照してください。

    ~# esxcfg-advcfg -s 0 /Net/BMCNetworkEnable

    BMCNetworkEnable の値は 0 で、サービスは無効になっています。

    ~# reboot

    ホストの再起動時に、リモート管理アプリケーション ネットワークに関連するホストに仮想スイッチ、ポート グループ、および VMKNIC は作成されません。

  • NVIDIA BlueField DPU でハードウェア オフロード モードが無効になっている場合、SR-IOV 仮想機能が構成されている仮想マシンはパワーオンできない

    SR-IOV 仮想機能が構成された仮想マシンをパワーオンして動作させるには、ハードウェア オフロード モードが有効な状態で NVIDIA BlueField DPU を使用する必要があります。

    回避策:SR-IOV 仮想機能が構成された仮想マシンを仮想スイッチに接続している場合は、常に、NVIDIA BlueField DPU でデフォルトで有効になっているハードウェア オフロード モードを使用します。

  • 仮想アプライアンス管理インターフェイス (VAMI) で、アップグレード前の段階で警告メッセージが表示される

    vSphere プラグインをリモート プラグイン アーキテクチャに移行したことにより、vSphere 8.0 ではローカル プラグインのサポートが廃止になりました。vSphere 8.0 環境にローカル プラグインがある場合、これらのプラグインにいくつかの重大な変更が適用されたことで、VAMI を使用したアップグレード前のチェックが失敗することがあります。

    [アップデート前のチェック結果] 画面に、次のようなエラーが表示されます。

    Warning message: The compatibility of plug-in package(s) %s with the new vCenter Server version cannot be validated. They may not function properly after vCenter Server upgrade.

    Resolution: Please contact the plug-in vendor and make sure the package is compatible with the new vCenter Server version.

    回避策:VMware 互換性ガイドおよびVMware 製品の相互運用性マトリックスを参照するか、プラグイン ベンダーに問い合わせて、アップグレードを続行する前に環境内のローカル プラグインが vCenter Server 8.0 と互換性があるか確認するための推奨事項を確認してください。詳細については、ブログDeprecating the Local Plugins :- The Next Step in vSphere Client Extensibility Evolutionと VMware ナレッジベースの記事KB87880を参照してください。

  • CPU ホット アドが有効になっている仮想マシンから、仮想 NUMA (Non-Uniform Memory Access) ノードに割り当てられた PCI パススルー デバイスを削除できない

    デフォルトでは、CPU ホット アドによる実行中の仮想マシンへの vCPU の追加を許可すると、仮想 NUMA トポロジが無効になりますが、NUMA ノードに PCI パススルー デバイスが割り当てられている場合は、そのデバイスを削除しようとするとエラーが発生します。vSphere Client では、「Invalid virtual machine configuration. Virtual NUMA cannot be configured when CPU hotadd is enabled」のようなメッセージが表示されます。

    回避策:VMware のナレッジベースの記事KB89638を参照してください。

ネットワークの問題

  • Pensando DPU で、VMware vSphere Distributed Switch の最大転送ユニット (MTU) を 9174 より大きい値に設定できない

    ESXi 8.0 システムで、Pensando DPU を使用する vSphere Distributed Services Engine 機能を有効にしている場合、vSphere Distributed Switch の最大転送ユニット (MTU) を 9174 より大きい値に設定することはできません。

    回避策:なし。

  • バージョン 4.1.3 以降の ntg3 ドライバを使用する NIC でリンク フラッピングが発生する

    バージョン 4.1.3 以降の ntg3 ドライバを使用する 2 つの NIC が物理スイッチ ポートに接続されず、直接接続されている場合、リンク フラッピングが発生することがあります。この問題は、4.1.3 より前のバージョンの ntg3 ドライバや tg3 ドライバでは発生しません。この問題は、これらの NIC で時折発生する Energy Efficient Ethernet (EEE) リンク フラッピングとは関係ありません。この EEE の問題の対策としては、バージョン 4.1.7 以降の ntg3 ドライバを使用するか、物理スイッチ ポートの EEE を無効にします。

    回避策:ntg3 ドライバをバージョン 4.1.8 にアップグレードし、新しいモジュール パラメータ noPhyStateSet1 に設定します。noPhyStateSet パラメータはデフォルトで 0 に設定されます。この問題が発生している場合を除き、多くの環境では必須ではありません。

  • vSphere 8.0 の拡張ネットワーク スタック (ENS) モードで Mellanox ConnectX-5 カードと ConnectX-6 カードの Model 1 Level 2 および Model 2 を使用できない

    ハードウェア制限により、vSphere 8.0 で拡張ネットワーク スタック (ENS) モードを使用している場合、ConnectX-5 および ConnectX-6 アダプタ カードで Model 1 Level 2 および Model 2 はサポートされません。

    回避策:ENS Model 1 Level 2、および Model 2A をサポートする Mellanox ConnectX-6 Lx および ConnectX-6 Dx 以降のカードを使用します。

  • Pensando DPU は ESXi ホストの物理スイッチ ポートで Link Layer Discovery Protocol (LLDP) をサポートしない

    DPU を使用する ESXi ホストで LLDP を有効にしても、ホストは LLDP パケットを受信できません。

    回避策:なし。

ストレージの問題

  • vCenter Server 8.0 にアップグレードした後、VASA API バージョンが自動的に更新されない

    vCenter Server 8.0 は VASA API バージョン 4.0 をサポートしています。ただし、vCenter Server システムをバージョン 8.0 にアップグレードしても、VASA API のバージョンが 4.0 に自動的に変更されないことがあります。この問題は次の 2 つのケースで発生します。

    1. VASA API バージョン 4.0 をサポートする VASA プロバイダが以前のバージョンの VMware vCenter Server で登録されている場合、VMware vCenter Server 8.0 にアップグレードしても VASA API バージョンは変更されません。たとえば、登録済みの VASA プロバイダとともに、VASA API バージョン 3.5 と 4.0 の両方をサポートするバージョン 7.x の VMware vCenter Server システムをアップグレードする場合、その VASA プロバイダが VASA API バージョン 4.0 をサポートしていても、VASA API バージョンは自動的にはバージョン 4.0 には変更されません。アップグレード後、[vCenter Server] > [構成] > [ストレージ プロバイダ] の順に移動し、登録済みの VASA プロバイダの [全般] タブを展開すると、VASA API バージョンは 3.5 と表示されます。

    2. VASA API バージョン 3.5 をサポートする VASA プロバイダを VMware vCenter Server 8.0 システムとともに登録し、VASA API バージョンを 4.0 にアップグレードすると、アップグレード後も VASA API バージョン は 3.5 と表示されます。

    回避策:VMware vCenter Server 8.0 システムで VASA プロバイダを登録解除してから、再度登録します。

  • Network File Copy (NFC) マネージャの未認証セッションが原因で、vSAN 環境で vSphere Storage vMotion の操作が失敗することがある

    仮想マシンに少なくとも 1 つのスナップショットがあり、異なるストレージ ポリシーが設定された複数の仮想ディスクがある場合、 vSAN データストアへの移行を vSphere Storage vMotion を使用して実行すると失敗することがあります。この問題は、SOAP (Simple Object Access Protocol) の本文が許容される制限を超えているために発生する NFC マネージャの未認証セッションが原因で発生します。

    回避策:最初に、仮想マシン ホーム名前空間といずれかの仮想ディスクを移行します。処理が完了したら、残りの 2 つのディスクについて、ディスクのみの移行を実行します。

  • コンテンツ ベースの読み取りキャッシュ (CBRC) でダイジェスト操作に失敗したというエラーが発生したため仮想マシンのスナップショットを作成できない

    CBRC ダイジェスト ファイルの更新中にコンテンツ ID を割り当てると、まれに競合状態が発生するため、データ ディスクとダイジェスト ディスクのコンテンツ ID が一致しなくなることがあります。その結果として、仮想マシンのスナップショットを作成できなくなります。バックトレースに「An error occurred while saving the snapshot: A digest operation has failed」のようなエラーが記録されます。再試行すると、スナップショット作成タスクは完了します。

    回避策:スナップショット作成タスクを再試行します。

vCenter Server および vSphere Client の問題

  • vSphere 仮想インフラストラクチャの負荷が 90% を超えると、ESXi ホストが断続的に vCenter Server から切断される場合がある

    vSphere 仮想インフラストラクチャがハードウェア容量の 90% を超えて使用を継続している場合、まれに、一部の ESXi ホストが vCenter Server から断続的に切断されることがあります。通常、接続は数秒以内に復元します。

    回避策:vCenter Server への接続が数秒で復元されない場合、vSphere Client で ESXi ホストを手動で再接続します。

  • vCenter Server の混在環境で API を使用して作成されたクラウド ネイティブ ストレージ (CNS) ブロック ボリュームでエラーが発生する

    環境にバージョン 8.0 および 7.x の vCenter Server システムがある場合、API を使用したクラウド ネイティブ ストレージ (CNS) ブロック ボリュームの作成は成功しますが、CNS ボリュームの詳細を表示するために移動するときに vSphere Client にエラーが表示されることがあります。Failed to extract the requested data. Check vSphere Client logs for details. + TypeError: Cannot read properties of null (reading 'cluster') のようなエラーが表示されます。この問題は、vCenter Server 7.x で管理されているボリュームを、vCenter Server 8.0 の vSphere Client を使用して確認する場合のみ発生します。

    回避策:バージョン 7.x の vCenter Server システムの vSphere Client にログインして、ボリュームのプロパティを確認します。

  • vpxa の要求キューのファイル記述子が不足するというまれな状態が発生したために ESXi ホストが応答しなくなり、vpxa ダンプ ファイルが表示されることがある

    まれに、低速なデータストアへのアクセスを待機しているときなど、vpxa サービスへの要求に時間がかかる場合、vpxa の要求キューがファイル記述子の制限を超えることがあります。その結果、ESXi ホストが一時的に応答不能になり、/var/core ディレクトリに vpxa-zdump.00* ファイルが配置されることがあります。vpxa ログに Too many open files の行が含まれています。

    回避策:なし。vpxa サービスは自動的に再起動して、問題を修正します。

  • 信頼されていない証明書を使用してカスタム更新リポジトリを使用すると、vCenter Lifecycle Manager ワークフローを使用した vCenter Server のアップグレードまたは vSphere 8.0 へのアップデートが失敗することがある

    カスタム更新リポジトリを、VMware Certificate Authority (VMCA) が信頼していない自己署名証明書とともに使用すると、vCenter Lifecycle Manager はこのリポジトリからのファイルのダウンロードに失敗します。その結果、vCenter Lifecycle Manager ワークフローを使用して vCenter Server のアップグレードまたはアップデート操作を実行すると、「Failed to load the repository manifest data for the configured upgrade」というエラーが表示されて失敗します。

    回避策:CLI、GUI インストーラ、または仮想アプライアンス管理インターフェイス (VAMI) を使用してアップグレードを実行します。詳細については、VMware ナレッジベースの記事KB89493を参照してください。

仮想マシンの管理の問題

  • 既存の仮想ハード ディスクを新しい仮想マシンに追加すると、仮想マシンの構成が拒否されたことを示すエラーが表示されることがある

    VMware Host Client を使用して既存の仮想ハード ディスクを新しい仮想マシンに追加すると、The VM configuration was rejected. Please see browser Console のようなエラーが発生して操作が失敗することがあります。この問題は、VMware Host Client がハード ディスク コントローラなどの一部のプロパティの取得に失敗したために発生している可能性があります。

    回避策:ハード ディスクを選択して [設定の確認] 画面に移動した後、[終了] をクリックしないでください。代わりに、1 つ前のステップに戻り、画面がロードされるまで待ってから、[次へ] > [終了] の順にクリックします。

vSphere Lifecycle Manager の問題

  • バージョン 8.0 より前の ESXi ホストで vSphere Lifecycle Manager のイメージをステージングすると、エラー メッセージが表示される

    ESXi 8.0 では、目的の状態イメージを明示的にステージングするオプションが導入されています。ステージングは、ソフトウェアとファームウェアのアップデートをただちに適用せずに、vSphere Lifecycle Manager デポから ESXi ホストにデポ コンポーネントをダウンロードするプロセスです。ただし、イメージのステージングがサポートされているのは、ESXi 8.0 以降のホストのみです。バージョン 8.0 より前の ESXi ホストで vSphere Lifecycle Manager イメージをステージングすると、これらのホストのステージングは失敗し、ホストがスキップされることを示すメッセージが表示されます。これは予期された動作であり、機能が失敗したことを示すものではありません。ESXi 8.0 以降のホストは、指定された目的のイメージを使用してステージングされます。

    回避策:なし。影響を受ける ESXi ホストのバージョンが 8.0 より前であることを確認したら、エラーを無視します。

  • vSphere Lifecycle Manager を使用して行う修正タスクが、DPU を使用する ESXi ホストで断続的に失敗することがある

    DPU を使用する ESXi ホストで vSphere Lifecycle Manager による修正を開始すると、ホストが予期したとおりにアップグレードおよび再起動されますが、再起動してから修正タスクが完了するまでの間に次のようなエラーが表示されることがあります。

    A general system error occurred: After host … remediation completed, compliance check reported host as 'non-compliant'. The image on the host does not match the image set for the cluster. Retry the cluster remediation operation.

    これは、DPU で修正後スキャンが断続的にタイムアウトになるためにまれに発生する問題です。

    回避策:ESXi ホストを再起動し、修正後スキャンを含む vSphere Lifecycle Manager コンプライアンス チェック操作を再実行します。

VMware Host Client の問題

  • VMware Host Client で重要度イベントの状態の説明が正しく表示されないことがある

    VMware Host Client で ESXi ホストの重要度イベントの状態の説明を表示する際、Intelligent Platform Management Interface (IPMI) または Lenovo XClarity Controller (XCC) を使用して表示する説明とは異なる場合があります。たとえば、VMware Host Client では、PSU センサーの重要度イベントの状態の説明は「Transition to Non-critical from OK」ですが、XCC と IPMI では「Transition to OK」です。

    回避策:ESXCLI コマンド esxcli hardware ipmi sdr list と Lenovo XCC を使用して、重要度イベントの状態の説明を確認します。

セキュリティ機能の問題

  • 2,048 ビットより小さい RSA キー サイズを使用すると、RSA 署名の生成に失敗する

    vSphere 8.0 以降では、ESXi は OpenSSL 3.0 FIPS プロバイダを使用します。FIPS 186-4 の要件の一部として、すべての署名生成時に RSA キー サイズを 2,048 ビット以上にする必要があります。SHA1 を使用した署名生成はサポートされません。

    回避策:2,048 より大きい RSA キー サイズを使用します。

check-circle-line exclamation-circle-line close-line
Scroll to top icon