ESXi 7.0 Update 1a | 2020 年 11 月 04 日 | ISO ビルド 17119627 各リリース ノートで、追加および更新された機能をご確認ください。 |
リリース ノートの概要
本リリース ノートには、次のトピックが含まれています。
ESXi 7.0 の旧リリース
ESXi の機能、解決した問題、および既知の問題については、各リリースのリリース ノートに記載されています。ESXi 7.0 の旧リリース ノート
利用可能な言語、互換性、オープン ソース コンポーネントについては 「VMware vSphere 7.0 リリース ノート」を参照してください。.
本リリースに含まれるパッチ
ESXi 7.0 Update 1a のこのリリースでは、次のパッチが提供されます。
ビルドの詳細
ダウンロード ファイル名: |
VMware-ESXi-7.0U1a-17119627-depot |
ビルド: |
17119627 |
ダウンロード サイズ: |
360.6 MB |
md5sum: |
37209643e5d483f70d82c39d3a0e02c8 |
sha1checksum: |
19efc144e0bccef65e3e27f815502bfb73a05782 |
ホストの再起動が必要: |
はい |
仮想マシンの移行またはシャットダウンが必要: |
はい |
コンポーネント
コンポーネント |
通知 |
カテゴリ |
重要度 |
ESXi |
ESXi_7.0.1-0.10.17119627 |
セキュリティ |
重大 |
ESXi のインストール/アップグレード コンポーネント |
esx-update_7.0.1-0.10.17119627 |
セキュリティ |
重大 |
重要:
ロールアップ パッチ
このロールアップ パッチには、ESXi 7.0 の初回リリース以降のすべての修正が入っている最新の VIB が含まれています。
パッチ ID |
カテゴリ |
重要度 |
ESXi70U1a-17119627 |
セキュリティ |
重大 |
イメージ プロファイル
VMware のパッチおよびアップデート リリースには、一般的なイメージ プロファイルおよび重要なイメージ プロファイルが含まれています。一般的なリリース イメージ プロファイルは、新しいバグ修正に適用されます。
イメージ プロファイルの名前 |
ESXi-7.0U1a-17119627-standard |
ESXi-7.0U1a-17119627-no-tools |
ESXi イメージ
名称とバージョン |
リリース日 |
カテゴリ |
詳細 |
ESXi 7.0 U1a - 17119627 |
2020 年 11 月 4 日 |
機能拡張 |
セキュリティとバグ修正のイメージ |
各コンポーネントとパッチについては、「製品パッチ」ページおよび「解決した問題」セクションを参照してください。
パッチ ダウンロードおよびインストール
vSphere 7.x では、vSphere Update Manager の管理に使用される Update Manager プラグインが Lifecycle Manager プラグインに置き換えられます。vSphere Update Manager による管理のための操作は Lifecycle Manager プラグインでも引き続き使用でき、それに vSphere Lifecycle Manager の新機能が加わります。
通常、ESXi 7.x ホストにパッチを適用するときは vSphere Lifecycle Manager を使用します。詳細については、「vSphere Lifecycle Manager について」および「vSphere Lifecycle Manager ベースラインとイメージ」を参照してください。
Lifecycle Manager プラグインを使用せず、代わりにイメージ プロファイルを使用して、ESXi ホストをアップデートすることもできます。そのためには、VMware のダウンロード ページまたは製品パッチのページで、パッチのオフライン バンドル ZIP ファイルを手動でダウンロードし、esxcli software profile
コマンドを使用する必要があります。
詳細については、「ESXCLI コマンドを使用した、ホストのアップグレード」と、VMware ESXi のアップグレード ガイドを参照してください。
解決した問題
解決された問題には、次のトピックが含まれます。
ESXi_7.0.1-0.10.17119627
パッチのカテゴリ |
セキュリティ |
パッチの重要度 |
最重要 |
ホストの再起動が必要 |
はい |
仮想マシンの移行またはシャットダウンが必要 |
はい |
影響を受けるハードウェア |
該当なし |
影響を受けるソフトウェア |
該当なし |
含まれる VIB |
- VMware_bootbank_vdfs_7.0.1-0.10.17119627
- VVMware_bootbank_vdfs_7.0.1-0.10.17119627
- VMware_bootbank_esx-base_7.0.1-0.10.17119627
- VMware_bootbank_native-misc-drivers_7.0.1-0.10.17119627
- VMware_bootbank_esx-xserver_7.0.1-0.10.17119627
- VMware_bootbank_crx_7.0.1-0.10.17119627
- VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.10.17119627
- VMware_bootbank_cpu-microcode_7.0.1-0.10.17119627
- VMware_bootbank_vsan_7.0.1-0.10.17119627
- VMware_bootbank_gc_7.0.1-0.10.17119627
- VMware_bootbank_esx-ui_1.34.4-16668064
- VMware_bootbank_vsanhealth_7.0.1-0.10.17119627
|
修正されたパッチ リリース |
該当なし |
CVE 番号 |
CVE-2020-3992 |
ESXi と esx-update のパッチは、相互に依存しています。ホストにパッチを適用する際の障害を回避するために、両方を 1 台の ESXi ホスト パッチ ベースラインに含めるか、ベースラインにロールアップ パッチを含めてください。
このパッチは、vdfs、vdfs、esx-base、native-misc-drivers、esx-xserver、crx、esx-dvfilter-generic-fastpath、cpu-microcode、vsan、gc、esx-ui、
および vsanhealth
VIB をアップデートして次の問題を解決します。
esx-update_7.0.1-0.10.17119627
パッチのカテゴリ |
セキュリティ |
パッチの重要度 |
最重要 |
ホストの再起動が必要 |
はい |
仮想マシンの移行またはシャットダウンが必要 |
はい |
影響を受けるハードウェア |
該当なし |
影響を受けるソフトウェア |
該当なし |
含まれる VIB |
- VMware_bootbank_loadesx_7.0.1-0.10.17119627
- VMware_bootbank_esx-update_7.0.1-0.10.17119627
|
修正されたパッチ リリース |
該当なし |
CVE 番号 |
CVE-2020-3992 |
ESXi と esx-update のパッチは、相互に依存しています。ホストにパッチを適用する際の障害を回避するために、両方を 1 台の ESXi ホスト パッチ ベースラインに含めるか、ベースラインにロールアップ パッチを含めてください。
loadesx および esx-update
VIB をアップデートして次の問題を解決します。
ESXi-7.0U1a-17119627-standard
プロファイル名 |
ESXi-7.0U1a-17119627-standard |
ビルド |
ビルドの詳細については、「本リリースに含まれるパッチ」を参照してください。 |
ベンダー |
VMware, Inc. |
リリース日 |
2020 年 11 月 4 日 |
許容レベル |
PartnerSupported |
影響を受けるハードウェア |
該当なし |
影響を受けるソフトウェア |
該当なし |
影響のある VIB |
- VMware_bootbank_vdfs_7.0.1-0.10.17119627
- VVMware_bootbank_vdfs_7.0.1-0.10.17119627
- VMware_bootbank_esx-base_7.0.1-0.10.17119627
- VMware_bootbank_native-misc-drivers_7.0.1-0.10.17119627
- VMware_bootbank_esx-xserver_7.0.1-0.10.17119627
- VMware_bootbank_crx_7.0.1-0.10.17119627
- VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.10.17119627
- VMware_bootbank_cpu-microcode_7.0.1-0.10.17119627
- VMware_bootbank_vsan_7.0.1-0.10.17119627
- VMware_bootbank_gc_7.0.1-0.10.17119627
- VMware_bootbank_esx-ui_1.34.4-16668064
- VMware_bootbank_vsanhealth_7.0.1-0.10.17119627
- VMware_bootbank_loadesx_7.0.1-0.10.17119627
- VMware_bootbank_esx-update_7.0.1-0.10.17119627
|
修正されたパッチ リリース |
該当なし |
関連する CVE 番号 |
CVE-2020-3992 |
このパッチでは、以下の問題がアップデートされています。
ESXi-7.0U1a-17119627-no-tools
プロファイル名 |
ESXi-7.0U1a-17119627-no-tools |
ビルド |
ビルドの詳細については、「本リリースに含まれるパッチ」を参照してください。 |
ベンダー |
VMware, Inc. |
リリース日 |
2020 年 11 月 4 日 |
許容レベル |
PartnerSupported |
影響を受けるハードウェア |
該当なし |
影響を受けるソフトウェア |
該当なし |
影響のある VIB |
- VMware_bootbank_vdfs_7.0.1-0.10.17119627
- VVMware_bootbank_vdfs_7.0.1-0.10.17119627
- VMware_bootbank_esx-base_7.0.1-0.10.17119627
- VMware_bootbank_native-misc-drivers_7.0.1-0.10.17119627
- VMware_bootbank_esx-xserver_7.0.1-0.10.17119627
- VMware_bootbank_crx_7.0.1-0.10.17119627
- VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.10.17119627
- VMware_bootbank_cpu-microcode_7.0.1-0.10.17119627
- VMware_bootbank_vsan_7.0.1-0.10.17119627
- VMware_bootbank_gc_7.0.1-0.10.17119627
- VMware_bootbank_esx-ui_1.34.4-16668064
- VMware_bootbank_vsanhealth_7.0.1-0.10.17119627
- VMware_bootbank_loadesx_7.0.1-0.10.17119627
- VMware_bootbank_esx-update_7.0.1-0.10.17119627
|
修正されたパッチ リリース |
該当なし |
関連する CVE 番号 |
CVE-2020-3992 |
このパッチでは、以下の問題がアップデートされています。
ESXi Image - 7.0U1a – 17119627
名前 |
ESXi |
バージョン |
7.0.1-0.10.17119627 |
リリース日 |
2020 年 11 月 4 日 |
カテゴリ |
セキュリティ |
影響を受けるコンポーネント |
- VMware_bootbank_vdfs_7.0.1-0.10.17119627
- VVMware_bootbank_vdfs_7.0.1-0.10.17119627
- VMware_bootbank_esx-base_7.0.1-0.10.17119627
- VMware_bootbank_native-misc-drivers_7.0.1-0.10.17119627
- VMware_bootbank_esx-xserver_7.0.1-0.10.17119627
- VMware_bootbank_crx_7.0.1-0.10.17119627
- VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.10.17119627
- VMware_bootbank_cpu-microcode_7.0.1-0.10.17119627
- VMware_bootbank_vsan_7.0.1-0.10.17119627
- VMware_bootbank_gc_7.0.1-0.10.17119627
- VMware_bootbank_esx-ui_1.34.4-16668064
- VMware_bootbank_vsanhealth_7.0.1-0.10.17119627
- VMware_bootbank_loadesx_7.0.1-0.10.17119627
- VMware_bootbank_esx-update_7.0.1-0.10.17119627
|
修正されたパッチ リリース |
該当なし |
関連する CVE 番号 |
CVE-2020-3992 |
以前のバージョンからの既知の問題
以前からの既知の問題のリストを表示するには、ここをクリックします。
既知の問題には、次のトピックが含まれます。
ネットワークの問題
- AMD IOMMU が使用されている場合、1 つ以上の I/O デバイスで割り込みが生成されない
ESXi ホスト上の I/O デバイスで合計 512 個の異なる割り込みソースが提供されている場合、一部のソースに対して、最大値より大きい値を持つ AMD IOMMU の割り込み再マッピング テーブル エントリ (IRTE) インデックスが誤って割り当てられます。このようなソースからの割り込みは失われるため、対応する I/O デバイスは割り込みが無効であるかのように動作します。
回避策:ESXCLI コマンド esxcli system settings kernel set -s iovDisableIR -v true
を使用して、AMD IOMMU 割り込み再マッピングを無効にします。ESXi ホストを再起動して、コマンドの結果を反映します。
その他の問題
- ESXCLI コマンドを実行してファイアウォール モジュールをアンロードすると、hostd サービスが失敗し、ESXi ホストの接続が失われる
複数の ESXi ホストを含む環境でファイアウォール構成を自動化し、フィルタを破棄してファイアウォール モジュールをアンロードする ESXCLI コマンド esxcli network firewall unload
を実行すると、hostd サービスが失敗し、ESXi ホストの接続が失われます。
回避策:どのような状況でも、ファイアウォール モジュールのアンロードは推奨されません。ファイアウォール モジュールをアンロードする必要がある場合は、次の手順を実行します。
- 次のコマンドを使用して hostd サービスを停止します。
/etc/init.d/hostd stop
- 次のコマンドを使用して、ファイアウォール モジュールをアンロードします。
esxcli network firewall unload
- 必要な操作を実行します。
- 次のコマンドを使用して、ファイアウォール モジュールをロードします。
esxcli network firewall load
- 次のコマンドを使用して hostd サービスを開始します。
/etc/init.d/hostd start
- Network File Copy (NFC) マネージャの未認証セッションが原因で、vSAN 環境で vSphere Storage vMotion の操作が失敗することがある
少なくとも 1 つのスナップショットがあり、異なるストレージ ポリシーが設定された複数の仮想ディスクを持つ仮想マシンに vSphere Storage vMotion を使用して vSAN データストアに移行すると、失敗することがあります。この問題は、SOAP (Simple Object Access Protocol) の本文が許容される制限を超えているために発生する NFC マネージャの未認証セッションが原因で発生します。
回避策:最初に、仮想マシン ホーム名前空間といずれかの仮想ディスクを移行します。処理が完了したら、残りの 2 つのディスクについて、ディスクのみの移行を実行します。
- ESXi ホスト上のデバイスおよびストレージのプロパティと属性の変更が、再起動後に維持されないことがある
ESXi ホストの再起動中にデバイス検出ルーチンがタイムアウトになると、ジャンプスタート プラグインは、ホスト上のすべての登録済みデバイスからデバイスとストレージの構成変更の一部を受信しない場合があります。その結果、再起動後に一部のデバイスまたはストレージのプロパティがデフォルト値にリストアされることがあります。
回避策:影響を受けるデバイスまたはストレージのプロパティの変更を手動でリストアします。
- ESXi 7.0 のベータ ビルドを使用している場合に、一部のライフサイクル操作中に ESXi ホストで障害が発生し、パープル スクリーンが表示されることがある
ESXi 7.0 のベータ ビルドを使用している場合に、ドライバのアンロードや、ENS モードとネイティブ ドライバ モードの切り替えなど、一部のライフサイクルの操作中に ESXi ホストで障害が発生し、パープル スクリーンが表示されることがあります。たとえば、ENS モードを変更すると、バックトレースに次のようなエラー メッセージが表示されます。case ENS::INTERRUPT::NoVM_DeviceStateWithGracefulRemove hit BlueScreen: ASSERT bora/vmkernel/main/dlmalloc.c:2733
これはベータ ビルドに固有の問題で、ESXi 7.0 などのリリース ビルドには影響しません。
回避策:ESXi 7.0 GA にアップデートします。
ストレージの問題
- APD または PDL の障害からリカバリした後、NVMe over Fabrics の名前空間またはデバイスによってバッキングされた VMFS データストアが完全にアクセス不能になることがある
ESXi ホスト上の VMFS データストアが NVMe over Fabrics の名前空間またはデバイスによってバッキングされている場合に、APD (All Paths Down) または PDL (Permanent Device Loss) の障害が発生すると、リカバリ後もデータストアにアクセスできないことがあります。ESXi ホストと vCenter Server システムのどちらからもデータストアにアクセスできません。
回避策:この状態からリカバリするには、ホストまたはクラスタ レベルで再スキャンを実行します。詳細については、「ストレージの再スキャンの実行」を参照してください。
仮想マシンの管理の問題
Auto Deploy の問題
- ネットワーク エラーが原因で、vSphere Auto Deploy を使用して ESXi ホストを PXE ブートできない
Emulex および Qlogic ホスト バス アダプタ (HBA) を使用する ESXi ホストでは、vSphere Auto Deploy を使用してホストを PXE ブートすると、ネットワーク エラーが原因で失敗することがあります。一部の Emulex アダプタでは、PXE ブート コンソールに次のようなメッセージが表示されます。
Could not open net0: Input/output error http://ipxe.org/1d6a4a98'
Network error encountered while PXE booting.
Scanning the local disk for cached image.
If no image is found, the system will reboot in 20 seconds ……
Could not boot.No such device (http://ipxe.org/2c048087)
常に問題が発生する Emulex HBA アダプタは、次のとおりです。
- HPE StoreFabric CN1200E-T 10Gb 統合ネットワーク アダプタ
- HPE StoreFabric CN1200E 10Gb 統合ネットワーク アダプタ
- HP FlexFabric 20Gb 2-port 650FLB アダプタ
- HP FlexFabric 20Gb 2-port 650M アダプタ
QLogic HBA を使用する ESXi ホストの場合、vSphere Auto Deploy を使用してホストを PXE ブートしても、毎回失敗するとはかぎりません。
ESX ホストで問題が発生すると、PXE ブート コンソールに次のようなメッセージが表示されます。
Configuring (net0 f4:03:43:b4:88:d0)......
No configuration methods succeeded (http://ipxe.org/040ee186)
Network error encountered while PXE booting.
影響を受ける Qlogic HBA アダプタは、HP Ethernet 10Gb 2-port 530T です。
回避策:なし
インストール、アップグレード、および移行の問題
- ESXi 7.0 ホストへの 7.0 Update 1 ドライバのインストールが失敗することがある
ESXi 7.0 または 7.0 b を実行しているホストに、ESXi 7.0 Update 1 に適用されるドライバをインストールすることはできません。
次のようなエラーが発生して、操作は失敗します。
VMW_bootbank_qedrntv_3.40.4.0-12vmw.701.0.0.xxxxxxx requires vmkapi_2_7_0_0, but the requirement cannot be satisfied within the ImageProfile.
詳細についてはログ ファイルを参照してください。
回避策:ESXi ホストを 7.0 Update 1 にアップデートします。ドライバのインストールを再試行します。
インストール、アップグレード、および移行の問題
- vCenter Server のアップグレード/移行の事前チェックが「予期しないエラー 87」で失敗する
Security Token Service (STS) 証明書に Subject Alternative Name (SAN) フィールドが含まれていない場合、vCenter Server のアップグレード/移行の事前チェックは失敗します。この状況は、vCenter 5.5 Single Sign-On 証明書を SAN フィールドのないカスタム証明書に置き換えてから、vCenter Server 7.0 にアップグレードしようとした場合に発生します。アップグレード プロセスによって STS 証明書が無効であると判断され、事前チェックによってアップグレード プロセスが続行されなくなります。
回避策:STS 証明書を、SAN フィールドを含む有効な証明書に置き換えてから、vCenter Server 7.0 のアップグレードまたは移行を続行します。
- 既存の CIM プロバイダを伴う vSphere 7.0 へのアップグレードに関する問題
アップグレード後、ESXi には 64 ビットの CIM プロバイダが必要であるため、以前にインストールした 32 ビットの CIM プロバイダは動作を停止します。CIMPDK、NDDK(ネイティブ DDK)、HEXDK、VAIODK(I/O フィルタ)に関連する管理 API 関数が失われ、uwglibc 依存関係に関連するエラーが表示されることがあります。
Syslog では、モジュールが見つからないため、「32 ビットの共有ライブラリがロードされていません」とレポートされます。
回避策:対処法はありません。修正するには、新しい 64 ビットの CIM プロバイダをベンダーからダウンロードします。
- vCenter Server 7.0 にアップグレードした後、スマート カードと RSA SecurID 認証が機能しなくなることがある
スマート カードまたは RSA SecurID 認証用に vCenter Server を構成した場合は、vSphere 7.0 アップグレード プロセスを開始する前に、https://kb.vmware.com/s/article/78057 の VMware ナレッジベースの記事を参照してください。ナレッジベースに記載されている回避策を実行しないと、次のエラー メッセージが表示される場合があり、スマート カードまたは RSA SecurID 認証が機能しません。
「スマート カード認証が機能しなくなることがあります。スマート カードの設定が保存されず、スマート カード認証が機能しなくなることがあります。」
または
「RSA SecurID 認証が機能しなくなることがあります。RSA SecurID の設定が保持されず、RSA SecurID 認証が機能しなくなることがあります。」
回避策:vSphere 7.0 にアップグレードする前に、https://kb.vmware.com/s/article/78057 の VMware ナレッジベースの記事を参照してください。
- 外部 Platform Services Controller を持つ vCenter Server を 6.7u3 から 7.0 にアップグレードすると、VMAFD エラーで失敗する
外部 Platform Services Controller を使用する vCenter Server デプロイをアップグレードする場合は、Platform Services Controller を vCenter Server Appliance に統合します。エラー install.vmafd.vmdir_vdcpromo_error_21
でアップグレードが失敗する場合、VMAFD の firstboot プロセスが失敗しています。VMAFD の firstboot プロセスは、ソース Platform Services Controller および複製パートナー vCenter Server Appliance から、VMware Directory Service データベース (data.mdb) をコピーします。
回避策:外部 Platform Services Controller を持つ vCenter Server をアップグレードする前に、ソース Platform Services Controller または複製パートナー vCenter Server Appliance のイーサネット アダプタ上で TCP セグメンテーション オフロード (TSO) およびジェネリック セグメンテーション オフロード (GSO) を無効にします。ナレッジベースの記事 (https://kb.vmware.com/s/article/74678) を参照してください
- CLI を使用して vCenter Server をアップグレードすると、vSphere Authentication Proxy サービスの Transport Security Layer (TLS) 構成が誤って保存される
vSphere Authentication Proxy サービス (vmcam
) が、デフォルトの TLS 1.2 プロトコル以外の特定の TLS プロトコルを使用するように構成されている場合は、この構成が CLI のアップグレード プロセスで保持されます。vSphere は、デフォルトで、TLS 1.2 暗号化プロトコルをサポートしています。TLS 1.2 をサポートしていない製品またはサービスをサポートするために TLS 1.0 および TLS 1.1 プロトコルを使用する必要がある場合は、TLS 構成ユーティリティを使用して、複数の TLS プロトコルのバージョンを有効または無効にすることができます。
回避策:TLS 構成ユーティリティを使用して、vmcam
ポートを構成します。TLS プロトコル構成を管理する方法や、TLS 構成ユーティリティを使用する方法については、『VMware セキュリティ』ドキュメントを参照してください。
- vCenter Server のアップグレード中に、スマート カードと RSA SecurID の設定が保持されない場合がある
vCenter Server 7.0 へのアップグレード後は、RSA SecurID を使用した認証が機能しません。RSA SecurID ログインを使用してログインしようとすると、この問題についてのエラー メッセージが表示されます。
回避策:スマート カードまたは RSA SecureID を再構成します。
- vCenter Server for Windows から vCenter Server Appliance 7.0 に移行すると、ネットワーク エラー メッセージが表示されて失敗する
vCenter Server for Windows を vCenter Server Appliance 7.0 に移行すると、「IP がネットワークにすでに存在します
」というエラー メッセージが表示され、失敗します。これにより、移行プロセスで新しい vCenter Server Appliance のネットワーク パラメータを構成できなくなります。詳細については、次のログ ファイルを確認してください。/var/log/vmware/upgrade/UpgradeRunner.log
回避策:
- ソース vCenter Server for Windows インスタンスですべての Windows Update が完了していることを確認するか、移行が完了するまで Windows Update の自動更新を無効にします。
- vCenter Server for Windows から vCenter Server Appliance 7.0 への移行を再試行します。
- max_vfs モジュール パラメータを使用して SR-IOV デバイスの仮想関数の数を構成すると、変更が反映されないことがある
vSphere 7.0 では、仮想インフラストラクチャ管理 (VIM) API を使用して(たとえば vSphere Client を通じて)、SR-IOV デバイスの仮想関数の数を構成できます。このタスクでは ESXi ホストを再起動する必要はありません。VIM API 構成を使用した後に、max_vfs
モジュール パラメータを使用して SR-IOV 仮想関数の数を構成しようとすると、VIM API の構成によってオーバーライドされるため、変更が反映されないことがあります。
回避策:なし。SR-IOV デバイスの仮想関数の数を構成するには、毎回同じ方法を使用します。VIM API を使用するか、max_vfs
モジュール パラメータを使用して ESXi ホストを再起動します。
- アップグレードされた vCenter Server Appliance インスタンスで、ソース インスタンスのすべてのセカンダリ ネットワーク (NIC) が保持されない
メジャー アップグレードで、vCenter Server Appliance のソース インスタンスが VCHA NIC 以外の複数のセカンダリ ネットワークで構成されている場合、ターゲット vCenter Server インスタンスでは VCHA NIC 以外のセカンダリ ネットワークが保持されません。ソース インスタンスが、DVS ポート グループの一部である複数の NIC で構成されている場合、アップグレードで NIC 構成は保持されません。標準ポート グループの一部である vCenter Server Appliance インスタンスの構成は保持されます。
回避策:なし。ターゲット vCenter Server Appliance インスタンスのセカンダリ ネットワークを手動で構成します。
- 外部 Platform Services Controller を持つ vCenter Server をアップグレードまたは移行した後、Active Directory を使用して認証を行うユーザーが、新しくアップグレードされた vCenter Server インスタンスにアクセスできなくなる
外部 Platform Services Controller を持つ vCenter Server をアップグレードまたは移行した後に、新しくアップグレードされた vCenter Server が Active Directory ドメインに参加していない場合、Active Directory を使用して認証を行うユーザーは vCenter Server インスタンスにアクセスできなくなります。
回避策:新しい vCenter Server インスタンスが Active Directory ドメインに参加していることを確認します。ナレッジベースの記事 (https://kb.vmware.com/s/article/2118543) を参照してください
- Oracle データベースを使用する外部 Platform Services Controller を持つ vCenter Server for Windows を移行すると失敗する
Oracle のイベントおよびタスク テーブルに ASCII 以外の文字列が含まれていると、イベントおよびタスク データをエクスポートするときに移行が失敗することがあります。次のエラー メッセージが表示されます。UnicodeDecodeError
回避策:なし。
- ESXi ホストのアップグレード後、ホストの修正タスクが失敗すると、ホスト プロファイルのコンプライアンス チェックで非準拠ステータスが表示される
非準拠ステータスは、プロファイルとホスト間での不整合を示します。
この不整合は、ESXi 7.0 で要求ルールの重複が許可されていないにもかかわらず、使用中のプロファイルに重複するルールが含まれていることが原因で発生することがあります。たとえば、ESXi 6.5 または ESXi 6.7 からバージョン 7.0 にアップグレードする前にホストから抽出したホスト プロファイルを使用しており、ホスト プロファイルにシステムのデフォルト ルールで重複した要求ルールが含まれている場合、問題が発生することがあります。
回避策:
- ホスト プロファイル ドキュメントから、システムのデフォルト ルールで重複した要求ルールを削除します。
- コンプライアンスの状態を確認します。
- ホストを修正します。
- 前の手順で問題が解決しない場合は、ホストを再起動します。
- vCenter Server 管理インターフェイスにエラー メッセージが表示される
vCenter Server 7.0 へのインストールまたはアップグレード後、vCenter Server 管理インターフェイス内の [アップデート] パネルに移動すると、「URL を確認して、やり直してください」というエラー メッセージが表示されます。このエラー メッセージが表示されても [アップデート] パネル内の機能は使用できるため、利用可能なアップデートの表示、ステージング、インストールは可能です。
回避策:なし。
セキュリティ機能の問題
- HA 対応の信頼済みクラスタに証明されていないホストが含まれている場合、暗号化された仮想マシンがパワーオンに失敗する
VMware® vSphere Trust Authority™ で、信頼済みクラスタ上で HA を有効にしていて、クラスタ内の 1 つ以上のホストで証明が失敗した場合、暗号化された仮想マシンはパワーオンできません。
回避策:信頼済みクラスタからの証明に失敗したすべてのホストを削除するか、修正します。
- DRS 対応の信頼済みクラスタに証明されていないホストが含まれている場合、暗号化された仮想マシンがパワーオンに失敗する
VMware® vSphere Trust Authority™ で、信頼されたクラスタで DRS を有効にしていて、クラスタ内の 1 つ以上のホストで証明が失敗した場合、DRS はクラスタ内の証明されていないホストで暗号化された仮想マシンをパワーオンしようとすることがあります。この操作により、仮想マシンがロックされた状態になります。
回避策:信頼済みクラスタからの証明に失敗したすべてのホストを削除するか、修正します。
- vCenter Server インスタンス間での暗号化された仮想マシンの移行またはクローン作成が、vSphere Client を使用して実行しようとすると失敗する
vSphere Client を使用して vCenter Server インスタンス間で暗号化された仮想マシンを移行またはクローン作成しようとすると、次のエラー メッセージが表示されて操作が失敗します。「現在の状態ではその操作を実行できません。」
回避策:vCenter Server インスタンス間で、暗号化された仮想マシンを移行またはクローン作成するには、vSphere API を使用する必要があります。
ネットワークの問題
- Intel 82599/X540/X550 NIC でのネットワーク パフォーマンスのスループットの低下
Intel 82599EB/X540/X550 シリーズの NIC のネットワーク パフォーマンスを向上させるために、新しいキュー ペア機能が ixgben ドライバに追加されたことで、vSphere 7.0 の一部のワークロードでは、vSphere 6.7 と比較してスループットが低下することがあります。
回避策:vSphere 6.7 と同じネットワーク パフォーマンスを実現するために、モジュール パラメータを使用してキュー ペアを無効にすることができます。キュー ペアを無効にするには、次のコマンドを実行します。
# esxcli system module parameters set -p "QPair=0,0,0,0..."-m ixgben
コマンドを実行した後、再起動します。
- Network I/O Control (NetIOC) が有効になっている場合、高スループットの仮想マシンでネットワーク パフォーマンスが低下することがある
高ネットワーク スループットを必要とする仮想マシンでは、NetIOC を有効にして vSphere 6.7 から vSphere 7.0 にアップグレードすると、スループットが低下することがあります。
回避策:複数のワールドを有効にするように、ethernetx.ctxPerDev
設定を調整します。
- IPv6 トラフィックが、IPsec を使用する VMkernel ポートを通過できない
あるポート グループから別のポート グループに VMkernel ポートを移行する場合、IPv6 トラフィックは IPsec を使用する VMkernel ポートを通過しません。
回避策:影響を受けるサーバから IPsec Security Association (SA) を削除してから、SA を再適用します。IPsec SA を設定および削除する方法については、『vSphere セキュリティ』ドキュメントを参照してください。
- ESX ネットワーク パフォーマンスが向上すると CPU 使用率が部分的に増加する
ESX ネットワーク パフォーマンスの向上に伴って、CPU 使用率が部分的に増加する場合があります。
回避策:ネットワーク インターフェイスを削除し、1 つの rx ディスパッチ キューのみを持つようにして追加します。例:
esxcli network ip interface remove --interface-name=vmk1
esxcli network ip interface add --interface-name=vmk1 --num-rxqueue=1
- ホット アド、ホット リムーブ、または Storage vMotion の後で、仮想マシンのイーサネット トラフィックが失われることがある
ホット アド、ホット リムーブ、または Storage vMotion の後で、仮想マシンがイーサネット トラフィックの受信を停止することがあります。この問題は、vNIC のアップリンクで SR-IOV が有効になっている仮想マシンに影響します。PVRDMA 仮想 NIC では、仮想ネットワークのアップリンクが Mellanox RDMA 対応の NIC であり、RDMA の名前空間が構成されている場合に、この問題が発生します。
回避策:仮想マシンの、影響を受けるイーサネット NIC をホット リムーブしてホット アドすると、トラフィックをリストアできます。Linux ゲスト OS では、ネットワークを再起動すると問題が解決する場合もあります。これらの回避策の効果がない場合は、仮想マシンを再起動してネットワーク接続を復旧できます。
- 固定 IP アドレスを使用してデプロイした VCSA の IP アドレスを変更する場合、事前に DNS レコードを作成する必要がある
DDNS の導入により、DNS レコードの更新は、DHCP で構成されたネットワークを使用してデプロイされた VCSA でのみ機能します。VAMI を通じて vCenter Server の IP アドレスを変更すると、次のエラーが表示されます。
指定された IP アドレスが、指定されたホスト名に解決されません。
回避策:考えられる回避策は 2 つあります。
- 同じ FQDN と必要な IP アドレスを持つ追加の DNS エントリを作成します。VAMI にログインし、手順に従って IP アドレスを変更します。
- ssh を使用して VCSA にログインします。次のスクリプトを実行します。
./opt/vmware/share/vami/vami_config_net
eth0 の IP アドレスを変更するには、オプション 6 を使用します。変更が完了したら、次のスクリプトを実行します。
./opt/likewise/bin/lw-update-dns
VCSA 上のすべてのサービスを再起動して、DNS サーバの IP アドレス情報を更新します。
- NSX Manager で対応する論理スイッチを削除した後、NSX 分散仮想ポート グループ (NSX DVPG) が削除されるまでに、数秒かかる場合があります。
論理スイッチの数が増えると、NSX Manager で対応する論理スイッチを削除した後、vCenter Server の NSX DVPG が削除されるまでに、より長い時間がかかる場合があります。12,000 個の論理スイッチがある環境では、NSX DVPG が vCenter Server から削除されるまでに約 10 秒かかります。
回避策:なし。
- 多数の NSX 分散仮想ポート グループが作成されると、hostd がメモリ不足になり、失敗します。
vSphere 7.0 では、NSX 分散仮想ポート グループは不透明ネットワークよりも非常に多くのメモリを使用します。このため、NSX 分散仮想ポート グループは、同じ量のメモリで不透明ネットワークと同じスケールをサポートできません。
回避策:NSX 分散仮想ポート グループの使用をサポートするには、ESXi ホストのメモリ量を増やします。システムに仮想マシンをサポートするのに十分なメモリがあることを確認した場合、次のコマンドを使用して、hostd
のメモリを直接増やすことができます。
localcli --plugin-dir /usr/lib/vmware/esxcli/int/ sched group setmemconfig --group-path host/vim/vmvisor/hostd --units mb --min 2048 --max 2048
これにより、hostd
が、環境内の仮想マシン用に通常予約されているメモリを使用することに注意してください。このため、ESXi ホストがサポートできる仮想マシンの数が減少する可能性があります。
- 仮想マシンでネットワークの予約が設定されている場合、DRS が vMotion を誤って起動することがある
仮想マシンでネットワークの予約が設定されている場合、DRS は、指定された要件を満たすホストにのみ仮想マシンを移行することを想定しています。NSX トランスポート ノードがあるクラスタでは、一部のトランスポート ノードが NSX-T 分散仮想スイッチ (N-VDS) によりトランスポート ゾーンに参加し、その他のトランスポート ノードが vSphere 分散スイッチ (VDS) 7.0 によりトランスポート ゾーンに参加すると、DRS が誤って vMotion を起動することがあります。この問題は、次の場合に発生することがあります。
- 仮想マシンがネットワーク予約で構成された NSX 論理スイッチに接続する。
- 一部のトランスポート ノードが N-VDS を使用してトランスポート ゾーンに参加し、その他のトランスポート ノードが VDS 7.0 を使用してトランスポート ゾーンに参加するか、またはトランスポート ノードが別の VDS 7.0 インスタンスを介してトランスポート ゾーンに参加する。
回避策:すべてのトランスポート ノードを N-VDS または同じ VDS 7.0 インスタンスによってトランスポート ゾーンに参加させます。
- NSX ポートグループに VMkernel NIC (vmknic) を追加すると、vCenter Server は「ステートレス ホスト上の NSX ポートグループへの VMKernel アダプタの接続は、サポートされている操作ではありません。分散ポート グループを使用してください。」というエラーを報告する。
- Distributed Virtual Switch (DVS) のステートレス ESXi では、NSX ポート グループ上の vmknic はブロックされます。代わりに、分散ポート グループを使用する必要があります。
- DVS 上のステートフル ESXi では、NSX ポート グループ上の vmknic はサポートされていますが、NSX ポート グループ上で vmknic を使用している場合、vSAN に問題が発生する可能性があります。
回避策:同じ DVS で分散ポートグループを使用します。
- QLogic 4x10GE QL41164HFCU CNA に対して vCenter Server から SRIOV を有効にできないことがある
QLogic 4x10GE QL41164HFCU CNA を使用している場合、物理ネットワーク アダプタの [設定の編集] ダイアログに移動して SR-IOV を有効にしようとすると、操作が失敗することがあります。SR-IOV を有効にしようとすると、ESXi ホストのネットワークが停止する可能性があります。
回避策:SR-IOV を有効にするには、ESXi ホストで次のコマンドを使用します。
esxcfg-module
- New:Distributed Resource Scheduler (DRS) を使用しているクラスタ内のホストが、別の Virtual Distributed Switch (VDS) または NSX-T Virtual Distributed Switch (NVDS) と VDS の組み合わせによって NSX-T ネットワークに参加すると、vCenter Server に障害が発生する
vSphere 7.0 では、vSphere VDS 上で NSX-T ネットワークを DRS クラスタと併用している際に、ホストが同一の VDS または NVDS による NSX トランスポート ゾーンに参加していない場合、vCenter Server に障害が発生することがあります。
回避策:DRS クラスタ内のホストが、同一の VDS または NVDS を使用する NSX トランスポート ゾーンに参加するようにします。
ストレージの問題
- SmartPQI コントローラを使用する HPE Gen10 サーバでのディスクのホット リムーブとホット インサートの後、VMFS データストアが自動的にマウントされない
エクスパンダなしの SmartPQI コントローラを使用する HPE Gen10 サーバの SATA ディスクが、ホット リムーブされてから同じマシンの別のディスク ベイにホット インサートされる場合、または複数のディスクがホット リムーブされてから別の順序でホット インサートされる場合、ディスクに新しいローカル名が割り当てられることがあります。そのディスク上の VMFS データストアはスナップショットとして表示され、デバイス名が変更されたため、自動的にマウントし直されることはありません。
回避策:なし。SmartPQI コントローラでは、順序なしのホット リムーブおよびホット インサート操作はサポートされていません。
- すべてのアクティブなパスでのエラーのため、ESXi によって NVMeOF デバイスへの I/O が終了されることがある
場合によっては、リンクの問題やコントローラの状態が原因で、NVMeOF デバイスへのすべてのアクティブ パスで I/O エラーが登録されることがあります。いずれかのパスのステータスが [Dead] に変わった場合、高パフォーマンス プラグイン (HPP) では、大量のエラーが表示されている別のパスは選択されないことがあります。そのため、I/O が失敗します。
回避策:構成オプション /Misc/HppManageDegradedPaths を無効にして、I/O のブロックを解除します。
- NVMe ベースの VMFS データストアに対する VOMA チェックがエラーで失敗する
VOMA チェックは NVMe ベースの VMFS データストアではサポートされておらず、次のエラーが表示されて失敗します。
エラー:デバイスの予約に失敗しました。関数が実装されていません
例:
# voma -m vmfs -f check -d /vmfs/devices/disks/: <partition#>
チェック モードでの VMFS Checker バージョン 2.1 の実行中
LVM メタデータの初期化中、基本チェックが完了します
ファイルシステムのアクティビティを確認しています
ファイルシステムの稼動状態チェックを実行しています..|VMFS-6 ホスト アクティビティをスキャンしています(4,096 バイト/HB、1,024 HB)。
エラー:デバイスの予約に失敗しました。関数が実装されていません
VMFS ボリュームのチェックを中止しています
VOMA がデバイスをチェックできませんでした:一般エラー
回避策:なし。VMFS メタデータを分析する必要がある場合は、-l
オプションを使用して収集し、VMware ユーザー サポートに渡します。ダンプを収集するためのコマンドは、次のとおりです。
voma -l -f dump -d /vmfs/devices/disks/:<パーティション #>
- 仮想マシンの再構成 API を使用して、暗号化された First Class Disk を暗号化された仮想マシンに接続すると、エラーが発生して失敗することがある
FCD と仮想マシンが異なる暗号化キーで暗号化されている場合、仮想マシンの再構成 API
を使用して、暗号化された FCD を暗号化された仮想マシンに接続しようとすると、次のエラー メッセージが表示されて失敗することがあります。
ディスクを復号化できません。キーまたはパスワードが正しくありません。
回避策:仮想マシンの再構成 API
ではなく、attachDisk API
を使用して、暗号化された FCD を暗号化された仮想マシンに接続します。
- スパンされた VMFS データストアの非ヘッド エクステントが Permanent Device Loss (PDL) 状態になると、ESXi ホストが応答しない状態になることがある
この問題は、スパンされた VMFS データストアの非ヘッド エクステントがヘッド エクステントとともに失敗した場合には発生しません。この場合、データストア全体にアクセスできなくなり、I/O が許可されなくなります。
これに対して、非ヘッド エクステントは失敗しても、ヘッド エクステントがアクセス可能である場合、データストアのハートビートは正常であると表示されます。また、ホストとデータストア間の I/O も継続されます。ただし、失敗した非ヘッド エクステントに依存するすべての I/O は失敗し始めます。失敗した I/O の解決を待つ間に、他の I/O トランザクションが蓄積され、ホストが応答していない状態になります。
回避策:この問題を解決するには、非ヘッド エクステントの PDL 条件を修正します。
- APD または PDL の状態からリカバリした後、クラスタ化された仮想ディスクのサポートが有効になっている VMFS データストアがアクセスできないままになることがある
この問題は、クラスタ化された仮想ディスクのサポートが有効になっているデータストアでのみ発生します。データストアが All Paths Down (APD) または Permanent Device Loss (PDL) 状態からリカバリすると、そのデータストアはアクセスできないままになります。VMkernel ログには、次のような複数の SCSI3 予約競合
メッセージが表示されることがあります。
2020-02-18T07:41:10.273Z cpu22:1001391219)ScsiDeviceIO: vm 1001391219: SCSIDeviceCmdCompleteCB:2972: 予約競合の再試行 544:コマンド 0x45ba814b8340 (op: 0x89):デバイス "naa. 624a9370b97601e346f64ba900024d53"
この問題は、クラスタに参加している ESXi ホストがデータストアの SCSI 予約を失い、データストアの復旧後に常に自動的に再取得することができないために発生する可能性があります。
回避策:次のコマンドを使用して、手動で予約を登録します。
vmkfstools -L registerkey /vmfs/devices/disks/<デバイス名>
<デバイス名>
は、データストアが作成されたデバイスの名前です。
- Virtual NVMe コントローラが Windows 10 ゲスト OS のデフォルトのディスク コントローラである
ハードウェア バージョン 15 以降を使用している場合、Virtual NVMe コントローラが以下のゲスト OS のデフォルトのディスク コントローラになります。
Windows 10
Windows Server 2016
Windows Server 2019
Virtual NVMe コントローラを使用している場合、一部の機能が使用できないことがあります。詳細については、https://kb.vmware.com/s/article/2147714 を参照してください
注:一部のクライアントでは、以前のデフォルトの LSI Logic SAS が使用されます。これには、ESXi Host Client と PowerCLI が含まれます。
回避策:Virtual NVMe で使用できない機能が必要な場合は、VMware 準仮想化 SCSI (PVSCSI) または LSI Logic SAS に切り替えます。VMware 準仮想化 SCSI (PVSCSI) の使用方法については、https://kb.vmware.com/s/article/1010398 を参照してください
- ESXi ホストを vSphere 7.0 にアップグレードした後、コア要求ルールの重複が存在すると、予期しない動作が発生することがある
要求ルールは、NMP、HPP などのマルチパス プラグインが特定のストレージ デバイスへのパスを所有するかどうかを判定します。ESXi 7.0 は、要求ルールの重複をサポートしていません。ただし、レガシー リリースからのアップグレードによって継承された既存の要求ルールに重複したルールを追加しても、ESXi 7.0 ホストはアラートを表示しません。重複したルールを使用すると、ストレージ デバイスが意図しないプラグインによって要求され、予期しない結果が発生する可能性があります。
回避策:重複したコア要求ルールは使用しないでください。新しい要求ルールを追加する前に、一致する既存の要求ルールをすべて削除してください。
- コンプライアンスの状態フィルタが設定された CNS クエリが、完了するまでに異常に長い時間がかかることがある
CNS QueryVolume API を使用すると、ボリュームの健全性やコンプライアンスの状態など、CNS ボリュームに関する情報を取得できます。個々のボリュームのコンプライアンスの状態を確認すると、結果が迅速に取得されます。ただし、複数(数十、または数百)のボリュームのコンプライアンスの状態をチェックするために CNS QueryVolume API を呼び出すと、クエリの実行速度が低下することがあります。
回避策:一括クエリを使わないようにします。コンプライアンスの状態を取得する必要がある場合は、一度に 1 つのボリュームに対するクエリを実行するか、クエリ API のボリュームの数を 20 以下に制限します。クエリを使用している間は、最高のパフォーマンスを得るために、他の CNS 操作を実行しないようにします。
- New:削除された CNS ボリュームが、CNS ユーザー インターフェイスに既存のボリュームとして一時的に表示されることがある
CNS ボリュームをバッキングする FCD ディスクを削除した後も、そのボリュームが CNS ユーザー インターフェイスに既存のボリュームとして表示される場合があります。ボリュームを削除しようとすると、失敗します。次のようなエラー メッセージが表示されることがあります。
参照するオブジェクトまたはアイテムを検出できませんでした。
回避策:次回の完全同期で不整合が解決され、CNS ユーザー インターフェイスが正常に更新されます。
- New:複数の CNS ボリュームを同じポッドに接続すると、エラーが発生して失敗することがある
複数のボリュームを同じポッドに同時に接続しようとすると、接続操作中に同じコントローラ スロットが選択されることがあります。その結果、1 つの操作のみが成功し、それ以外のボリュームのマウントは失敗します。
回避策:Kubernetes が失敗した操作を再試行した後、ノードの仮想マシンでコントローラ スロットが使用可能な場合、操作は成功します。
- New:状況によっては、CNS の操作が失敗しても、vSphere Client でタスクのステータスが「成功」と表示されることがある
この問題は、非準拠のストレージ ポリシーを使用して CNS ボリュームを作成する場合などに発生することがあります。操作は失敗しますが、vSphere Client ではタスクのステータスが「成功」と表示されます。
回避策:vSphere Client でタスクのステータスが成功になっていても、CNS 操作が成功したとは限りません。操作が正常に完了したことを確認するには、結果を確認してください。
- New:CNS のパーシステント ボリュームの削除操作に失敗すると、vSphere データストア上にボリュームが削除されずに残ることがある
この問題は、CNS の削除 API でポッドに接続されているパーシステント ボリュームを削除する際に発生することがあります。たとえば、ポッドが実行されている Kubernetes 名前空間を削除する際に発生することがあります。その結果、ボリュームは CNS から消去され、CNS のクエリ操作でボリュームが返らなくなります。しかし、ボリュームはデータストア上に配置され続け、CNS 削除 API 操作を繰り返しても削除することはできません。
回避策:なし。
vCenter Server および vSphere Client の問題
- PNID の変更後にベンダー プロバイダがオフラインになる
vCenter IP アドレスを変更すると(PNID の変更)、登録されているベンダー プロバイダがオフラインになります。
回避策:ベンダー プロバイダを再登録します。
- vCenter Server をまたがった仮想マシンの移行がエラーで失敗する
vCenter Server をまたがった vMotion を使用して、仮想マシンのストレージとホストを別の vCenter Server インスタンスに移動するときに、「現在の状態ではその操作を実行できません
」というエラーが表示されることがあります。
このエラーは、暗号化やその他の I/O フィルタ ルールなどのホスト ベースのルールを含むストレージ ポリシーが仮想マシンに割り当てられている場合に、ユーザー インターフェイス ウィザードで、ホストの選択手順の後、データストアの選択手順の前に表示されます。
回避策:ホスト ベースのルールを持たないストレージ ポリシーに、仮想マシンとそのディスクを割り当てます。ソース仮想マシンが暗号化されている場合は、仮想マシンの復号化が必要になる場合があります。次に、vCenter Server をまたがった vMotion アクションを再試行します。
- [ハードウェアの健全性] タブのストレージ センサー情報に、vCenter Server ユーザー インターフェイス、ホスト ユーザー インターフェイス、および MOB の正しくない値が表示される
vCenter Server ユーザー インターフェイスで [ホスト] > [監視] > [ハードウェア健全性] > [ストレージ センサー] の順に移動すると、ストレージ情報として正しくない値または不明な値が表示されます。同じ問題が、ホスト ユーザー インターフェイスと MOB パス runtime.hardwareStatusInfo.storageStatusInfo でも発生します。
回避策:なし。
- vSphere ユーザー インターフェイスのホストの高度な設定で、現在のプロダクト ロッカーの場所が空として表示される(デフォルトでは空)
vSphere ユーザー インターフェイスのホストの高度な設定で、現在のプロダクト ロッカーの場所が空として表示されます(デフォルトでは空)。これは、実際のプロダクトの場所 symlink
が作成され、有効であることと一貫していません。これにより、ユーザーに混乱が生じます。デフォルトは、ユーザー インターフェイスからは修正できません。
回避策:ユーザーは、ホストで esxcli コマンドを使用して、現在のプロダクト ロッカーの場所のデフォルトを次のように修正できます。
1.既存のプロダクト ロッカーの場所の設定を次のように削除します:esxcli system settings advanced remove -o ProductLockerLocation
2.プロダクト ロッカーの場所の設定を適切なデフォルト値で再追加します。
2.a. ESXi が完全インストールの場合、デフォルト値は "/locker/packages/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/locker/packages/vmtoolsRepo"
2.b.ESXi が autodeploy などの PXEboot 構成である場合のデフォルト値は"/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/vmtoolsRepo"
次のコマンドを実行して、場所を自動的に確認します:export PRODUCT_LOCKER_DEFAULT=`readlink /productLocker`
設定を追加します:esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s $PRODUCT_LOCKER_DEFAULT
上の手順 2 のすべての操作をまとめて、次のように 1 つのコマンドを発行することができます。
esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s `readlink /productLocker`
- vCenter Cloud Gateway が Software-Defined Data Center (SDDC) にリンクされていると、リンクされた SDDC 内の vCenter Server インスタンスがオンプレミスの vSphere Client に表示される
vCenter Cloud Gateway がオンプレミス vCenter Server と同じ環境にデプロイされ、SDDC にリンクされている場合、SDDC の vCenter Server がオンプレミスの vSphere Client に表示されます。これは予期しない動作であり、リンクされた SDDC の vCenter Server は無視する必要があります。リンクされた SDDC の vCenter Server に関連するすべての操作は、vCenter Cloud Gateway 内で実行されている vSphere Client で実行する必要があります。
回避策:なし。
仮想マシンの管理の問題
- カスタマイズ スクリプトの postcustomization セクションが、ゲストのカスタマイズの前に実行される
Linux ゲスト OS でゲスト カスタマイズ スクリプトを実行すると、カスタマイズ仕様で定義されているカスタマイズ スクリプトの precustomization
セクションがゲスト カスタマイズの前に実行され、その後に postcustomization
セクションが実行されます。仮想マシンのゲスト OS で Cloud-Init を有効にすると、Cloud-Init の既知の問題のために、カスタマイズの前に postcustomization
セクションが実行されます。
回避策:Cloud-Init を無効にし、標準のゲスト カスタマイズを使用します。
- 共有ストレージを使用しない vSphere vMotion、Storage vMotion、vMotion でのグループ移行操作がエラーで失敗する
複数のディスクとマルチレベルのスナップショットがある仮想マシンでグループ移行操作を実行すると、操作が失敗し、次のエラーが表示されることがあります。com.vmware.vc.GenericVmConfigFault がデータの待機に失敗しました。エラー 195887167。リモート ホストにより接続が切断されました。タイムアウトの可能性があります。
回避策:失敗した仮想マシンに対して、一度に 1 台ずつ移行操作を再試行します。
- URL から OVF または OVA テンプレートをデプロイすると、「403 許可されていません」エラーで失敗する
HTTP クエリ パラメータを含む URL は、サポートされていません。たとえば、http://webaddress.com?file=abc.ovf
または Amazon の事前署名済み S3 URL などです。
回避策:ファイルをダウンロードし、ローカル ファイル システムからデプロイします。
- 名前に ASCII 以外の文字が含まれているローカル OVF ファイルをインポートまたはデプロイすると、エラーが発生して失敗することがある
名前に ASCII 以外の文字が含まれているローカル .ovf
ファイルをインポートすると、「400 要求が正しくありません
」エラーが表示されることがあります。このような .ovf
ファイルを使用して vSphere Client に仮想マシンをデプロイすると、デプロイ プロセスが 0% で停止します。その結果、「400 要求が正しくありません
」エラーまたは「500 内部サーバ エラーです
」が表示されることがあります。
回避策:
.ovf
および .vmdk
ファイル名から ASCII 以外の文字を削除します。
- .
ovf
ファイルを編集するには、テキスト エディタで開きます。
- ASCII 以外の
.vmdk
ファイル名を検索し、それを ASCII に変更します。
- 保存したファイルを再度インポートするかデプロイします。
- New:仮想マシン フォルダ内のネストされたオブジェクトの 3 階層目が表示されない
次の手順を実行してください。
- データセンターに移動し、仮想マシン フォルダを作成します。
- 仮想マシン フォルダにネストされた仮想マシン フォルダを作成します。
- 2 階層目のフォルダに、別のネストされた仮想マシン、仮想マシン フォルダ、vApp、または仮想マシン テンプレートを作成します。
その結果、[仮想マシンおよびテンプレート] インベントリ ツリーで、ネストされた 3 階層目のフォルダのオブジェクトが表示されません。
回避策:3 階層目のネストされたフォルダ内のオブジェクトを表示するには、2 階層目のネストされたフォルダに移動して [仮想マシン] タブを選択します。
vSphere HA および Fault Tolerance の問題
- クラスタ全体の APD などのストレージにアクセスできない状態からリカバリした後、クラスタ内の仮想マシンの実体がなくなることがある
クラスタで HA と VMCP が有効になっている場合でも、クラスタ全体の APD がリカバリした後に、一部の仮想マシンが実体のない状態になることがあります。
この問題は、以下の条件が同時に満たされた場合に発生することがあります。
- クラスタ内のすべてのホストで APD が発生し、VMCP のタイムアウトに達するまでリカバリしない。
- ホストでの APD が原因で、HA プライマリがフェイルオーバーを開始する。
- HA フェイルオーバー中のパワーオン API が、次のいずれかの理由で失敗する。
- 同じホスト全体の APD
- クラスタ全体でのカスケード APD
- ストレージの問題
- リソースの利用不可
- FDM が障害の発生した仮想マシンを登録解除しておらず、複数のホストが同じ仮想マシンをレポートしていることが VC のホスト同期によって応答されている場合に、FDM の登録解除と VC のスティール仮想マシン ロジックが開始することがある。FDM と VC の両方が、異なるホストの同じ仮想マシンを対象にした異なる登録済みコピーを登録解除するため、仮想マシンは実体がなくなります。
回避策:APD のリカバリ後、クラスタ内で実体のない仮想マシンを手動で登録解除し、再登録する必要があります。
実体のない仮想マシンを手動で再登録しない場合、HA は実体のない仮想マシンのフェイルオーバーを試みますが、APD がいつリカバリされるかに応じて、5 ~ 10 時間かかる場合があります。
このような場合、クラスタの全体的な機能は影響を受けず、HA は仮想マシンの保護を継続します。これは、問題の発生中にVC に表示される内容に関するアノマリです。
vSphere Lifecycle Manager の問題
- すべてのホストでのイメージのセットアップとアップデートをまとめて管理するためにすでに有効になっているクラスタでは、NSX-T を有効にすることはできない
NSX-T は、イメージ管理のための vSphere Lifecycle Manager 機能と互換性がありません。クラスタ内のすべてのホストでのイメージのセットアップとアップデートをまとめて行うためにクラスタを有効にすると、そのクラスタで NSX-T を有効にすることはできません。ただし、このクラスタに NSX Edge をデプロイすることはできます。
回避策:ベースラインを使用して管理できる新しいクラスタにホストを移動し、その新しいクラスタで NSX-T を有効にします。
- vSphere 7.0 リリースの vSAN クラスタで、vSphere Lifecycle Manager と vSAN ファイル サービスの両方を有効にできない
クラスタで vSphere Lifecycle Manager が有効になっている場合、同じクラスタで vSAN ファイル サービスを有効にできません。また、その逆も同様です。vSAN ファイル サービスがすでに有効になっているクラスタで vSphere Lifecycle Manager を有効にするには、最初に vSAN ファイル サービスを無効にして操作を再試行します。1 つのイメージで管理されているクラスタに移行する場合は、そのクラスタで vSphere Lifecycle Manager を無効にすることはできません。
回避策:なし。
- vSphere Auto Deploy を使用して、1 つのイメージで管理するクラスタに ESXi 7.0 ホストを追加することができない
vSphere Auto Deploy の「インベントリへの追加」ワークフローを使用して、1 つのイメージで管理するクラスタに ESXi ホストを追加しようとすると失敗します。この失敗は、既存の Auto Deploy ルールセットでパターンが一致しないために発生します。タスクは警告なしで失敗し、ホストは [検出されたホスト] タブに残ります。
回避策:
- [検出されたホスト] タブで、ルールセットと一致しなかった ESXi ホストを削除します。
- ルールを作成するか、既存の Auto Deploy ルールを編集します。ホストのターゲットの場所は、イメージによって管理されるクラスタです。
- ホストを再起動します。
ホストは、vSphere Lifecycle Manager でイメージによって管理されるクラスタに追加されます。
- ハードウェア サポート マネージャが使用できない場合、vSphere High Availability (HA) 機能に影響がある
1 つのイメージで管理するクラスタにハードウェア サポート マネージャを使用できない場合に、ファームウェアとドライバのアドオンが選択され、vSphere HA が有効になっていると、vSphere HA 機能が影響を受けます。以下のエラーが発生することがあります。
- クラスタでの vSphere HA の構成に失敗する。
- ホスト上で vSphere HA エージェントの構成を完了できない:
クラスタへの HA VIB の適用中に障害が発生しました。
- vSphere HA の修正が失敗する:
一般的なシステム エラーが発生しました:有効なコンポーネント マップを取得できませんでした。
- vSphere HA を無効にできない:ソリューションの削除タスクが失敗しました。
一般的なシステム エラーが発生しました:デポまたはハードウェア サポート マネージャのハードウェア サポート パッケージが見つかりません。
回避策:
- ハードウェア サポート マネージャが一時的に使用できない場合は、次の手順を実行します。
- ハードウェア サポート マネージャを vCenter Server に再接続します。
- [ホストおよびクラスタ] メニューからクラスタを選択します。
- [構成] タブを選択します。
- [サービス] で、[vSphere の可用性] をクリックします。
- vSphere HA を再度有効にします。
- ハードウェア サポート マネージャが完全に使用できない場合は、次の手順を実行します。
- ハードウェア サポート マネージャとハードウェア サポート パッケージをイメージ仕様から削除します。
- vSphere HA を再度有効にします。
- [ホストおよびクラスタ] メニューからクラスタを選択します。
- [更新] タブを選択します。
- [編集] をクリックします。
- ファームウェアとドライバのアドオンを削除し、[保存] をクリックします。
- [構成] タブを選択します。
- [サービス] で、[vSphere の可用性] をクリックします。
- vSphere HA を再度有効にします。
- vSphere Lifecycle Manager で修正プロセスを実行した後、I/OFilter がクラスタから削除されない
vSphere Lifecycle Manager でクラスタを修正してクラスタから I/OFilter を削除する操作が次のエラー メッセージとともに失敗します:iofilter XXX already exists
。iofilter は、インストール済みとして表示されたままになります。
回避策:
- vCenter Server 管理対象オブジェクト (IoFilterManager) から IOFilter API
UninstallIoFilter_Task
を呼び出します。
- vSphere Lifecycle Manager でクラスタを修正します。
- vCenter Server 管理対象オブジェクト (IoFilterManager) から IOFilter API
ResolveInstallationErrorsOnCluster_Task
を呼び出して、データベースを更新します。
- vSphere Lifecycle Manager で vSphere HA 対応のクラスタを修正しているときにホストを追加すると vSphere HA エラー状態になる
vSphere HA 対応のクラスタの修正プロセスで 1 台または複数の ESXi ホストを追加すると、次のエラー メッセージが表示されます。クラスタへの HA VIB の適用中に障害が発生しました。
回避策:クラスタの修正操作が完了した後、次のいずれかのタスクを実行します。
- 障害が発生した ESXi ホストを右クリックし、[vSphere HA 用に再設定] を選択します。
- クラスタの vSphere HA を無効にしてから再度有効にします。
- vSphere Lifecycle Manager で vSphere HA 対応のクラスタを修正しているときに vSphere HA を無効にしてから再度有効にすると vSphere HA エラー状態になる
クラスタの修正プロセスで vSphere HA を無効にしてから再度有効にすると、vSphere HA 健全性チェックでホストに vSphere HA VIB がインストールされていないと報告され、修正プロセスが失敗することがあります。次のエラー メッセージが表示されることがあります。クラスタの目的のイメージ仕様の設定に失敗しました
。
回避策:クラスタの修正操作が終了した後、クラスタの vSphere HA を無効にしてから再度有効にします。
- 大規模クラスタにおいて、vSphere Lifecycle Manager での推奨イメージの確認のパフォーマンスが低下する
ホストが 16 台を超える大規模クラスタでは、推奨の生成タスクが完了するまでに 1 時間以上かかる場合やハングしているように見える場合があります。推奨タスクの完了時間は、各ホストで構成されているデバイスの数と、推奨される有効なイメージを取得する前に vSphere Lifecycle Manager が処理する必要があるデポのイメージ候補の数によって異なります。
回避策:なし。
- 大規模クラスタにおいて、vSphere Lifecycle Manager でのハードウェアの互換性の確認のパフォーマンスが低下する
ホストが 16 台を超える大規模クラスタでは、検証レポートの生成タスクが完了するまでに最大で 30 分かかる場合やハングしているように見える場合があります。完了時間は、各ホストで構成されているデバイスの数と、クラスタで構成されているホストの数によって異なります。
回避策:なし
- vSphere Lifecycle Manager でクラスタを修正するときに、英語以外の言語で不完全なエラー メッセージが表示される
vCenter Server のユーザー インターフェイスで、ローカライズされた言語の不完全なエラー メッセージが表示されることがあります。メッセージは、vSphere Lifecycle Manager でクラスタの修正プロセスが失敗した後に表示されます。たとえば、次のようなエラー メッセージが表示されます。
英語のエラー メッセージ:Virtual machine 'VMC on DELL EMC -FileServer' that runs on cluster 'Cluster-1' reported an issue which prevents entering maintenance mode: Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
フランス語のエラー メッセージ:La VM « VMC on DELL EMC -FileServer », située sur le cluster « {Cluster-1} », a signalé un problème empêchant le passage en mode de maintenance : Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
回避策:なし。
- ベンダー アドオン、コンポーネント、ファームウェアおよびドライバ アドオンを含まないイメージを、これらの要素を含むイメージを使用しているクラスタにインポートしたとき、既存のイメージのイメージ要素が削除されない
ESXi 基本イメージのみが、インポートされたイメージのものと置き換えられます。
回避策:インポート プロセスが終了したら、イメージを編集し、必要に応じてベンダー アドオン、コンポーネント、ファームウェアおよびドライバ アドオンを削除します。
- ベースラインを使用するクラスタを単一のイメージを使用するクラスタに変換するとき、vSphere HA VIB が削除されることを示す警告が表示される
ベースラインを使用する vSphere HA 対応のクラスタを単一のイメージを使用するクラスタに変換するとき、vmware-fdm
コンポーネントが削除されることを示す警告メッセージが表示されることがあります。
回避策:このメッセージは無視してかまいません。変換プロセスによって vmware-fdm
コンポーネントがインストールされます。
- プロキシ サーバ経由でインターネットからパッチ アップデートをダウンロードするように vSphere Update Manager が構成されている状態で、vSphere 7.0 へのアップグレードを行って Update Manager が vSphere Lifecycle Manager に変換された後、VMware パッチ リポジトリからのパッチのダウンロードに失敗することがある
以前のリリースの vCenter Server では、vCenter Server と vSphere Update Manager に対してプロキシ設定を個別に構成できました。vSphere 7.0 にアップグレードすると、vSphere Update Manager サービスは vSphere Lifecycle Manager サービスの一部になります。vSphere Lifecycle Manager サービスの場合、プロキシ設定は vCenter Server Appliance 設定から構成されます。プロキシ サーバ経由でインターネットからパッチ アップデートをダウンロードするように Update Manager が構成されている一方で vCenter Server Appliance にプロキシ設定の構成がない場合、vCenter Server をバージョン 7.0 にアップグレードすると、vSphere Lifecycle Manager は VMware デポに接続できず、パッチまたはアップデートをダウンロードできません。
回避策:vCenter Server Appliance 管理インターフェイス (https://<vCenter Server Appliance の FQDN または IP アドレス>:5480) にログインして vCenter Server Appliance のプロキシ設定を構成し、vSphere Lifecycle Manager でプロキシを使用できるようにします。
その他の問題
- バージョン 6.5 のホスト プロファイルをバージョン 7.0 の ESXi ホストに適用すると、コンプライアンスの確認に失敗する
バージョン 6.5 のホスト プロファイルをバージョン 7.0 の ESXi ホストに適用すると、コアダンプ ファイル プロファイルがホストに準拠していないと報告されます。
回避策:考えられる回避策は 2 つあります。
- バージョン 6.5 のホスト プロファイルを作成する場合は、ESXi ホストの高度な設定オプション VMkernel.Boot.autoCreateDumpFile を false に設定します。
- バージョン 6.5 の既存のホスト プロファイルを適用する場合は、ホスト プロファイルに高度な設定オプション VMkernel.Boot.autoCreateDumpFile を追加し、そのオプションを固定ポリシーに設定して、値を false に設定します。
- ブラウザが英語以外の言語に設定されている場合、[アクション] ドロップダウン メニューに項目が含まれない
ブラウザが英語以外の言語に設定されているときに vSphere Client インベントリの仮想マシンの [サマリ] タブにある [新しい表示に切り替える] ボタンをクリックすると、[ゲスト OS] パネルの [アクション] ドロップダウン メニューに項目が表示されません。
回避策:仮想マシン ページの上部にある [アクション] ドロップダウン メニューを選択します。
- Dynamic Receive Side Scaling (DYN_RSS) または Generic RSS (GEN_RSS) 機能をオンにすると、Mellanox ConnectX-4 または ConnectX-5 のネイティブ ESXi ドライバのスループットがわずかに低下することがある
DYN_RSS および GEN_RSS 機能がオンのとき、Mellanox ConnectX-4 または ConnectX-5 のネイティブ ESXi ドライバのスループットが 5% を下回る範囲で低下することがありますが、通常のワークロードへの影響はほとんどありません。
回避策:次のコマンドを使用して、DYN_RSS および GEN_RSS 機能を無効にすることができます。
# esxcli system module parameters set -m nmlx5_core -p "DYN_RSS=0 GEN_RSS=0"
# reboot
- PVRDMA 環境で同じホスト上の 2 台の仮想マシン間の RDMA トラフィックに問題が発生することがある
PVRDMA 環境の vSphere 7.0 実装では、HCA が配置されている場合、仮想マシンはローカル通信用に HCA を介してトラフィックを渡します。ただし、qedrntv ドライバでは、RDMA トラフィックのループバックは機能しません。 たとえば、同一のアップリンク ポートで構成されている仮想マシンで実行されている RDMA のキュー ペアは、相互に通信できません。
vSphere 6.7 以前では、SRQ が有効な場合にローカルの RDMA トラフィックに HCA が使用されていました。vSphere 7.0 では、RoCE v2 を使用して HW v14 以上で SRQ が有効になっている PVRDMA のバージョンにより、仮想マシンで HCA ループバックを使用します。
現在のバージョンの Marvell FastLinQ アダプタ ファームウェアでは、同じ PF またはポートの QP 間のループバック トラフィックはサポートされていません。
回避策:必要なサポートは、vSphere 7.0 に対して認定されている、すぐに利用できるドライバで追加されます。インボックス qedrntv ドライバを使用している場合は、3 ホスト構成を使用して、仮想マシンを 3 台目のホストに移行する必要があります。
- qedrntv ドライバでの Unreliable Datagram トラフィック QP の制限事項
Marvell FastLinQ qedrntv RoCE ドライバと Unreliable Datagram (UD) トラフィックには制限があります。バルク トラフィックを含む UD アプリケーションは、qedrntv ドライバで動作しない可能性があります。さらに、UD QP は、DMA メモリ領域 (MR) のみを使用できます。物理 MR または FRMR はサポートされていません。UD QP とともに物理 MR または FRMR を使用するアプリケーションは、qedrntv ドライバとともに使用したときにトラフィックを渡すことができません。このようなテスト アプリケーションの既知の例には、ibv_ud_pingpong
と ib_send_bw
があります。
iSER、NVMe-oF (RoCE)、PVRDMA などの VMware ESXi 環境における標準の RoCE および RoCEv2 のユースケースは、この問題の影響を受けません。UD トラフィックのユースケースは限定的で、この問題はバルク UD トラフィックを必要とする少数のアプリケーションに影響を及ぼします。
Marvell FastLinQ ハードウェアは、RDMA UD トラフィック オフロードをサポートしていません。GSI QP をサポートするための VMware PVRDMA 要件を満たすために、UD QP サポートの制限付きソフトウェア専用の実装が qedrntv ドライバに追加されました。実装の目的は、制御パスの GSI 通信のサポートを提供することであり、バルク トラフィックと高度な機能をサポートする UD QP の完全な実装ではありません。
UD のサポートはソフトウェアで実装されるため、大量のトラフィックに対応できず、パケットがドロップされる可能性があります。これにより、バルク UD トラフィックで障害が発生する可能性があります。
回避策:バルク UD QP トラフィックは qedrntv ドライバでサポートされていません。現時点では回避策はありません。iSER、NVMe、RDMA、PVRDMA などの VMware ESXi RDMA (RoCE) のユースケースは、この問題の影響を受けません。
- QLogic 578xx NIC を搭載したサーバで iSCSI LUN を頻繁に接続または切断すると、障害が発生することがある
QLogic 578xx NIC の iSCSI 接続または切断を短時間で頻繁にトリガすると、qfle3 ドライバの問題が原因でサーバに障害が発生することがあります。これは、デバイスのファームウェアの既知の問題によるものです。
回避策:なし。
- Broadcom の NVMe over FC 環境で、ドライバのアンロードまたはコントローラの切断操作中に ESXi に障害が発生することがある
Broadcom の NVMe over FC 環境で、ドライバのアンロードまたはコントローラの切断操作中に ESXi に障害が発生し、次のようなエラー メッセージが表示されることがあります。@BlueScreen: #PF Exception 14 in world 2098707:vmknvmeGener IP 0x4200225021cc addr 0x19
回避策:なし。
- 一部の Dell サーバ上で i350/X550 NIC の OEM ファームウェアのバージョン番号が ESXi に表示されない
インボックスの ixgben ドライバは、i350/X550 NIC のファームウェア データ バージョンまたは署名のみを認識します。一部の Dell サーバでは、OEM ファームウェアのバージョン番号が OEM パッケージ バージョンのリージョンにプログラムされています。そのため、インボックスの ixgben ドライバは、この情報を読み取れません。8 桁のファームウェア署名のみが表示されます。
回避策:OEM ファームウェアのバージョン番号を表示するには、非同期 ixgben ドライバのバージョン 1.7.15 以降をインストールします。
- X710 または XL710 NIC が ESXi で動作しないことがある
NIC のリセットや VMkernel の内部デバイス ツリーの操作など、特定の破壊的操作を X710 または XL710 NIC に対して開始すると、NIC ハードウェアがパケット以外のメモリからデータを読み取ることがあります。
回避策:NIC のリセットや、VMkernel の内部デバイス状態の操作を行わないでください。
- NVMe-oF では、システムの再起動後にパーシステントな VMHBA 名が使用されるとは限らない
NVMe-oF は、vSphere 7.0 の新機能です。サーバに vmhba30+ を使用する USB ストレージ インストールがあり、さらに NVMe over RDMA 構成もある場合は、システムの再起動後に VMHBA 名が変更されることがあります。これは、NVMe over RDMA の VMHBA 名の割り当てが PCIe デバイスと異なるためです。ESXi では、パーシステンスを確保できません。
回避策:なし。
- サイズが 300 GB 以上の vCenter Server データベースのバックアップに失敗する
vCenter Server データベースのサイズが 300 GB 以上の場合、ファイルベースのバックアップがタイムアウトして失敗します。次のエラー メッセージが表示されます。タイムアウトしました。72000 秒以内に完了できませんでした
回避策:なし。
- 外部 Platform Services Controller を使用する vCenter Server 6.x から vCenter Server 7.0 にアップグレードされた vCenter Server 7.0 をリストアすると失敗することがある
外部 Platform Services Controller を使用する vCenter Server 6.x からバージョン 7.0 にアップグレードされた vCenter Server 7.0 をリストアすると、リストアが失敗し、次のエラーが表示されることがあります。アプライアンス ストレージ リストを取得できませんでした
回避策:リストア プロセスの最初のステージで、vCenter Server 7.0 のストレージ レベルを増やします。たとえば、vCenter Server 6.7 外部 Platform Services Controller のセットアップ ストレージ タイプが small の場合は、リストア プロセス用に large ストレージ タイプを選択します。
- [有効な SSL プロトコル] 構成パラメータがホスト プロファイル修正プロセスで構成されない
[有効な SSL プロトコル]
構成パラメータがホスト プロファイルの修正中に構成されず、システムのデフォルト プロトコルの tlsv1.2
のみが有効になります。この動作は、vCenter Server 7.0 環境にバージョン 7.0 以前のホスト プロファイルがある場合に発生します。
回避策:SFCB の TLSV 1.0 または TLSV 1.1 SSL プロトコルを有効にするには、SSH を使用して ESXi ホストにログインし、次の ESXCLI コマンドを実行します。esxcli system wbem -P <プロトコル名>
- ホスト プロファイルを使用してロックダウン モードの設定を構成できない
セキュリティ ホスト プロファイルを使用してロックダウン モードを構成できず、一度に複数の ESXi ホストに適用できません。各ホストを手動で構成する必要があります。
回避策:vCenter Server 7.0 では、セキュリティ ホスト プロファイルを使用して、ロックダウン モードを構成し、ロックダウン モードの例外ユーザー リストを管理できます。
- ホスト プロファイルをクラスタに適用すると、Enhanced vMotion Compatibility (EVC) の設定が ESXi ホストで失われる
構成ファイルを変更したとき、VMware 構成ファイル /etc/vmware/config
内の一部の設定は、ホスト プロファイルによって管理されず、ブロックされます。その結果、ホスト プロファイルがクラスタに適用されると、EVC 設定が失われ、EVC 機能が失われます。たとえば、マスクされていない CPU がワークロードに公開される可能性があります。
回避策:クラスタ上に適切な EVC ベースラインを再構成し、EVC 設定を復旧します。
- vCenter Server 7.0 でコア ダンプ パーティションを定義するホスト プロファイルを使用すると、エラーが発生する
vCenter Server 7.0 では、ホスト プロファイルを使用してコア ダンプ パーティションを構成および管理することはできません。コア ダンプ パーティションが定義されたホスト プロファイルを適用すると、次のエラーが発生します。有効なコアダンプ パーティションが見つかりませんでした。
回避策:なし。vCenter Server 7.0 では、ホスト プロファイルはファイルベースのコア ダンプのみをサポートしています。
- 特定のライブラリから vSphere への HTTP 要求が拒否されることがある
vSphere 7.0 の HTTP リバース プロキシでは、以前のリリースと比べて、より厳しい標準コンプライアンスが適用されます。これにより、アプリケーションが vSphere への SOAP 呼び出し用に使用する一部のサードパーティ製ライブラリで、既存の問題が明らかになる可能性があります。
このようなライブラリを使用する vSphere アプリケーションを開発する場合や、vSphere スタック内のこのようなライブラリに依存するアプリケーションを含める場合、これらのライブラリが HTTP 要求を VMOMI に送信するときに接続の問題が発生する可能性があります。たとえば、vijava ライブラリから発行される HTTP 要求は、次の形式をとることができます。
POST /sdk HTTP/1.1
SOAPAction
Content-Type: text/xml; charset=utf-8
User-Agent: Java/1.8.0_221
この例の構文は、SOAPAction の後にコロンを必要とする HTTP プロトコル ヘッダー フィールドの要件に違反しています。そのため、この要求はフライト中に拒否されます。
回避策:アプリケーションで非準拠のライブラリを利用している開発者は、そのライブラリに代えて HTTP 標準に準拠するライブラリを使用することを検討してください。たとえば、vijava ライブラリを使用している開発者は、そのライブラリに代えて最新バージョンの yavijava ライブラリを使用することを検討してください。
- ホスト プロファイルの詳細オプション パラメータを編集して、値を false に設定すると、値が true に設定される
ホスト プロファイルの詳細オプション パラメータで値を false
に設定すると、ユーザー インターフェイスによって空でない文字列値が作成されます。空ではない値は true
と解釈され、詳細オプション パラメータはホスト プロファイルで true
値を受け取ります。
回避策:考えられる回避策は 2 つあります。
- リファレンス ESXi ホストで詳細オプション パラメータを
false
に設定し、ホスト プロファイルでこのホストから設定をコピーします。
注:ホストの詳細オプション パラメータを変更する前に、ホストがホスト プロファイルに準拠している必要があります。
- リファレンス ESXi ホストで詳細オプション パラメータを
false
に設定し、このホストからホスト プロファイルを作成します。次に、新しいホスト プロファイルから既存のホスト プロファイルにホスト プロファイル設定をコピーします。
- Broadcom ドライバ lsi_msgpt3、lsi_msgpt35、および lsi_mr3 を使用すると、ダンプ ファイルが表示されることがある
lsi_msgpt3、lsi_msgpt35、および lsi_mr3 コントローラを使用している場合、ダンプ ファイル lsuv2-lsi-drivers-plugin-util-zdump が表示されることがあります。このプラグイン ユーティリティで使用されている storelib を終了するときに問題が発生します。ESXi の操作に影響はなく、このダンプ ファイルは無視できます。
回避策:このメッセージは無視してかまいません。次のコマンドを使用して lsuv2-lsi-drivers-plugin を削除できます。
esxcli software vib remove -n lsuv2-lsiv2-drivers-plugin
- vCenter Server で PCI デバイスの SR-IOV を構成した後、再起動は不要というメッセージが表示されることがあるが、サードパーティの拡張機能によるデバイス構成が失われ、再適用が必要になる場合がある
ESXi 7.0 では、SR-IOV 構成は再起動しなくても適用され、デバイス ドライバが再ロードされます。ESXi ホストでは、起動時にデバイス ドライバがロードされた後で実行する必要があるデバイス構成をサードパーティの拡張機能によって実行することがあります。デバイス構成を再適用するには、このようなサードパーティの拡張機能を実行するために再起動が必要です。
回避策:サードパーティ製デバイスの構成を適用するには、SR-IOV を構成してから再起動する必要があります。
以前のバージョンからの既知の問題
以前からの既知の問題のリストを表示するには、ここをクリックします。
既知の問題のリストを折りたたむには、ここをクリックします。