- vCenter Server のアップグレード/移行の事前チェックが「予期しないエラー 87」で失敗する
Security Token Service (STS) 証明書に Subject Alternative Name (SAN) フィールドが含まれていない場合、vCenter Server のアップグレード/移行の事前チェックは失敗します。この状況は、vCenter 5.5 Single Sign-On 証明書を SAN フィールドのないカスタム証明書に置き換えてから、vCenter Server 7.0 にアップグレードしようとした場合に発生します。アップグレード プロセスによって STS 証明書が無効であると判断され、事前チェックによってアップグレード プロセスが続行されなくなります。
回避策:STS 証明書を、SAN フィールドを含む有効な証明書に置き換えてから、vCenter Server 7.0 のアップグレードまたは移行を続行します。
- 既存の CIM プロバイダを伴う vSphere 7.0 へのアップグレードに関する問題
アップグレード後、ESXi には 64 ビットの CIM プロバイダが必要であるため、以前にインストールした 32 ビットの CIM プロバイダは動作を停止します。CIMPDK、NDDK(ネイティブ DDK)、HEXDK、VAIODK(I/O フィルタ)に関連する管理 API 関数が失われ、uwglibc 依存関係に関連するエラーが表示されることがあります。
Syslog では、モジュールが見つからないため、「32 ビットの共有ライブラリがロードされていません」とレポートされます。
回避策:対処法はありません。修正するには、新しい 64 ビットの CIM プロバイダをベンダーからダウンロードします。
- vCenter Server システムに vCenter Server 7.0.0a へのパッチを適用した後、vCenter Server ストレージ クライアントの TLS バージョンがデフォルトに戻ることがある
vCenter Server ストレージ クライアント サービスの TLS 構成がデフォルトの TLS 1.2 専用以外に設定されている場合、vCenter Server システムに vCenter Server 7.0.0a へのパッチを適用した後に TLS バージョンがデフォルトに戻されることがあります。
回避策:TLS 構成ユーティリティを使用して、アップデート後に vCenter Server システムで TLS バージョンを有効または無効にします。
- vCenter Server 7.0 にアップグレードした後、スマート カードと RSA SecurID 認証が機能しなくなることがある
スマート カードまたは RSA SecurID 認証用に vCenter Server を構成した場合は、vSphere 7.0 アップグレード プロセスを開始する前に、https://kb.vmware.com/s/article/78057 の VMware ナレッジベースの記事を参照してください。ナレッジベースに記載されている回避策を実行しないと、次のエラー メッセージが表示される場合があり、スマート カードまたは RSA SecurID 認証が機能しません。
「スマート カード認証が機能しなくなることがあります。スマート カードの設定が保存されず、スマート カード認証が機能しなくなることがあります。」
または
「RSA SecurID 認証が機能しなくなることがあります。RSA SecurID の設定が保持されず、RSA SecurID 認証が機能しなくなることがあります。」
回避策:vSphere 7.0 にアップグレードする前に、https://kb.vmware.com/s/article/78057 の VMware ナレッジベースの記事を参照してください。
- 外部 Platform Services Controller を持つ vCenter Server を 6.7u3 から 7.0 にアップグレードすると、VMAFD エラーで失敗する
外部 Platform Services Controller を使用する vCenter Server デプロイをアップグレードする場合は、Platform Services Controller を vCenter Server Appliance に統合します。エラー install.vmafd.vmdir_vdcpromo_error_21
でアップグレードが失敗する場合、VMAFD の firstboot プロセスが失敗しています。VMAFD の firstboot プロセスは、ソース Platform Services Controller および複製パートナー vCenter Server Appliance から、VMware Directory Service データベース (data.mdb) をコピーします。
回避策:外部 Platform Services Controller を持つ vCenter Server をアップグレードする前に、ソース Platform Services Controller または複製パートナー vCenter Server Appliance のイーサネット アダプタ上で TCP セグメンテーション オフロード (TSO) およびジェネリック セグメンテーション オフロード (GSO) を無効にします。ナレッジベースの記事 (https://kb.vmware.com/s/article/74678) を参照してください
- CLI を使用して vCenter Server をアップグレードすると、vSphere Authentication Proxy サービスの Transport Security Layer (TLS) 構成が誤って保存される
vSphere Authentication Proxy サービス (vmcam
) が、デフォルトの TLS 1.2 プロトコル以外の特定の TLS プロトコルを使用するように構成されている場合は、この構成が CLI のアップグレード プロセスで保持されます。vSphere は、デフォルトで、TLS 1.2 暗号化プロトコルをサポートしています。TLS 1.2 をサポートしていない製品またはサービスをサポートするために TLS 1.0 および TLS 1.1 プロトコルを使用する必要がある場合は、TLS 構成ユーティリティを使用して、複数の TLS プロトコルのバージョンを有効または無効にすることができます。
回避策:TLS 構成ユーティリティを使用して、vmcam
ポートを構成します。TLS プロトコル構成を管理する方法や、TLS 構成ユーティリティを使用する方法については、『VMware セキュリティ』ドキュメントを参照してください。
- vCenter Server のアップグレード中に、スマート カードと RSA SecurID の設定が保持されない場合がある
vCenter Server 7.0 へのアップグレード後は、RSA SecurID を使用した認証が機能しません。RSA SecurID ログインを使用してログインしようとすると、この問題についてのエラー メッセージが表示されます。
回避策:スマート カードまたは RSA SecureID を再構成します。
- vCenter Server for Windows から vCenter Server Appliance 7.0 に移行すると、ネットワーク エラー メッセージが表示されて失敗する
vCenter Server for Windows を vCenter Server Appliance 7.0 に移行すると、「IP がネットワークにすでに存在します
」というエラー メッセージが表示され、失敗します。これにより、移行プロセスで新しい vCenter Server Appliance のネットワーク パラメータを構成できなくなります。詳細については、次のログ ファイルを確認してください。/var/log/vmware/upgrade/UpgradeRunner.log
回避策:
- ソース vCenter Server for Windows インスタンスですべての Windows Update が完了していることを確認するか、移行が完了するまで Windows Update の自動更新を無効にします。
- vCenter Server for Windows から vCenter Server Appliance 7.0 への移行を再試行します。
- max_vfs モジュール パラメータを使用して SR-IOV デバイスの仮想関数の数を構成すると、変更が反映されないことがある
vSphere 7.0 では、仮想インフラストラクチャ管理 (VIM) API を使用して(たとえば vSphere Client を通じて)、SR-IOV デバイスの仮想関数の数を構成できます。このタスクでは ESXi ホストを再起動する必要はありません。VIM API 構成を使用した後に、max_vfs
モジュール パラメータを使用して SR-IOV 仮想関数の数を構成しようとすると、VIM API の構成によってオーバーライドされるため、変更が反映されないことがあります。
回避策:なし。SR-IOV デバイスの仮想関数の数を構成するには、毎回同じ方法を使用します。VIM API を使用するか、max_vfs
モジュール パラメータを使用して ESXi ホストを再起動します。
- アップグレードされた vCenter Server Appliance インスタンスで、ソース インスタンスのすべてのセカンダリ ネットワーク (NIC) が保持されない
メジャー アップグレードで、vCenter Server Appliance のソース インスタンスが VCHA NIC 以外の複数のセカンダリ ネットワークで構成されている場合、ターゲット vCenter Server インスタンスでは VCHA NIC 以外のセカンダリ ネットワークが保持されません。ソース インスタンスが、DVS ポート グループの一部である複数の NIC で構成されている場合、アップグレードで NIC 構成は保持されません。標準ポート グループの一部である vCenter Server Appliance インスタンスの構成は保持されます。
回避策:なし。ターゲット vCenter Server Appliance インスタンスのセカンダリ ネットワークを手動で構成します。
- 外部 Platform Services Controller を持つ vCenter Server をアップグレードまたは移行した後、Active Directory を使用して認証を行うユーザーが、新しくアップグレードされた vCenter Server インスタンスにアクセスできなくなる
外部 Platform Services Controller を持つ vCenter Server をアップグレードまたは移行した後に、新しくアップグレードされた vCenter Server が Active Directory ドメインに参加していない場合、Active Directory を使用して認証を行うユーザーは vCenter Server インスタンスにアクセスできなくなります。
回避策:新しい vCenter Server インスタンスが Active Directory ドメインに参加していることを確認します。ナレッジベースの記事 (https://kb.vmware.com/s/article/2118543) を参照してください
- Oracle データベースを使用する外部 Platform Services Controller を持つ vCenter Server for Windows を移行すると失敗する
Oracle のイベントおよびタスク テーブルに ASCII 以外の文字列が含まれていると、イベントおよびタスク データをエクスポートするときに移行が失敗することがあります。次のエラー メッセージが表示されます。UnicodeDecodeError
回避策:なし。
- ESXi ホストのアップグレード後、ホストの修正タスクが失敗すると、ホスト プロファイルのコンプライアンス チェックで非準拠ステータスが表示される
非準拠ステータスは、プロファイルとホスト間での不整合を示します。
この不整合は、ESXi 7.0 で要求ルールの重複が許可されていないにもかかわらず、使用中のプロファイルに重複するルールが含まれていることが原因で発生することがあります。たとえば、ESXi 6.5 または ESXi 6.7 からバージョン 7.0 にアップグレードする前にホストから抽出したホスト プロファイルを使用しており、ホスト プロファイルにシステムのデフォルト ルールで重複した要求ルールが含まれている場合、問題が発生することがあります。
回避策:
- ホスト プロファイル ドキュメントから、システムのデフォルト ルールで重複した要求ルールを削除します。
- コンプライアンスの状態を確認します。
- ホストを修正します。
- 前の手順で問題が解決しない場合は、ホストを再起動します。
- vCenter Server 管理インターフェイスにエラー メッセージが表示される
vCenter Server 7.0 へのインストールまたはアップグレード後、vCenter Server 管理インターフェイス内の [アップデート] パネルに移動すると、「URL を確認して、やり直してください」というエラー メッセージが表示されます。このエラー メッセージが表示されても [アップデート] パネル内の機能は使用できるため、利用可能なアップデートの表示、ステージング、インストールは可能です。
回避策:なし。
- Intel 82599/X540/X550 NIC でのネットワーク パフォーマンスのスループットの低下
Intel 82599EB/X540/X550 シリーズの NIC のネットワーク パフォーマンスを向上させるために、新しいキュー ペア機能が ixgben ドライバに追加されたことで、vSphere 7.0 の一部のワークロードでは、vSphere 6.7 と比較してスループットが低下することがあります。
回避策:vSphere 6.7 と同じネットワーク パフォーマンスを実現するために、モジュール パラメータを使用してキュー ペアを無効にすることができます。キュー ペアを無効にするには、次のコマンドを実行します。
# esxcli system module parameters set -p "QPair=0,0,0,0..."-m ixgben
コマンドを実行した後、再起動します。
- Network I/O Control (NetIOC) が有効になっている場合、高スループットの仮想マシンでネットワーク パフォーマンスが低下することがある
高ネットワーク スループットを必要とする仮想マシンでは、NetIOC を有効にして vSphere 6.7 から vSphere 7.0 にアップグレードすると、スループットが低下することがあります。
回避策:複数のワールドを有効にするように、ethernetx.ctxPerDev
設定を調整します。
- IPv6 トラフィックが、IPsec を使用する VMkernel ポートを通過できない
あるポート グループから別のポート グループに VMkernel ポートを移行する場合、IPv6 トラフィックは IPsec を使用する VMkernel ポートを通過しません。
回避策:影響を受けるサーバから IPsec Security Association (SA) を削除してから、SA を再適用します。IPsec SA を設定および削除する方法については、『vSphere セキュリティ』ドキュメントを参照してください。
- ESX ネットワーク パフォーマンスが向上すると CPU 使用率が部分的に増加する
ESX ネットワーク パフォーマンスの向上に伴って、CPU 使用率が部分的に増加する場合があります。
回避策:ネットワーク インターフェイスを削除し、1 つの rx ディスパッチ キューのみを持つようにして追加します。例:
esxcli network ip interface remove --interface-name=vmk1
esxcli network ip interface add --interface-name=vmk1 --num-rxqueue=1
- ホット アド、ホット リムーブ、または Storage vMotion の後で、仮想マシンのイーサネット トラフィックが失われることがある
ホット アド、ホット リムーブ、または Storage vMotion の後で、仮想マシンがイーサネット トラフィックの受信を停止することがあります。この問題は、vNIC のアップリンクで SR-IOV が有効になっている仮想マシンに影響します。PVRDMA 仮想 NIC では、仮想ネットワークのアップリンクが Mellanox RDMA 対応の NIC であり、RDMA の名前空間が構成されている場合に、この問題が発生します。
回避策:仮想マシンの、影響を受けるイーサネット NIC をホット リムーブしてホット アドすると、トラフィックをリストアできます。Linux ゲスト OS では、ネットワークを再起動すると問題が解決する場合もあります。これらの回避策の効果がない場合は、仮想マシンを再起動してネットワーク接続を復旧できます。
- 固定 IP アドレスを使用してデプロイした VCSA の IP アドレスを変更する場合、事前に DNS レコードを作成する必要がある
DDNS の導入により、DNS レコードの更新は、DHCP で構成されたネットワークを使用してデプロイされた VCSA でのみ機能します。VAMI を通じて vCenter Server の IP アドレスを変更すると、次のエラーが表示されます。
指定された IP アドレスが、指定されたホスト名に解決されません。
回避策:考えられる回避策は 2 つあります。
- 同じ FQDN と必要な IP アドレスを持つ追加の DNS エントリを作成します。VAMI にログインし、手順に従って IP アドレスを変更します。
- ssh を使用して VCSA にログインします。次のスクリプトを実行します。
./opt/vmware/share/vami/vami_config_net
eth0 の IP アドレスを変更するには、オプション 6 を使用します。変更が完了したら、次のスクリプトを実行します。
./opt/likewise/bin/lw-update-dns
VCSA 上のすべてのサービスを再起動して、DNS サーバの IP アドレス情報を更新します。
- NSX Manager で対応する論理スイッチを削除した後、NSX 分散仮想ポート グループ (NSX DVPG) が削除されるまでに、数秒かかる場合があります。
論理スイッチの数が増えると、NSX Manager で対応する論理スイッチを削除した後、vCenter Server の NSX DVPG が削除されるまでに、より長い時間がかかる場合があります。12,000 個の論理スイッチがある環境では、NSX DVPG が vCenter Server から削除されるまでに約 10 秒かかります。
回避策:なし。
- 多数の NSX 分散仮想ポート グループが作成されると、hostd がメモリ不足になり、失敗します。
vSphere 7.0 では、NSX 分散仮想ポート グループは不透明ネットワークよりも非常に多くのメモリを使用します。このため、NSX 分散仮想ポート グループは、同じ量のメモリで不透明ネットワークと同じスケールをサポートできません。
回避策:NSX 分散仮想ポート グループの使用をサポートするには、ESXi ホストのメモリ量を増やします。システムに仮想マシンをサポートするのに十分なメモリがあることを確認した場合、次のコマンドを使用して、hostd
のメモリを直接増やすことができます。
localcli --plugin-dir /usr/lib/vmware/esxcli/int/ sched group setmemconfig --group-path host/vim/vmvisor/hostd --units mb --min 2048 --max 2048
これにより、hostd
が、環境内の仮想マシン用に通常予約されているメモリを使用することに注意してください。このため、ESXi ホストがサポートできる仮想マシンの数が減少する可能性があります。
- 仮想マシンでネットワークの予約が設定されている場合、DRS が vMotion を誤って起動することがある
仮想マシンでネットワークの予約が設定されている場合、DRS は、指定された要件を満たすホストにのみ仮想マシンを移行することを想定しています。NSX トランスポート ノードがあるクラスタでは、一部のトランスポート ノードが NSX-T 分散仮想スイッチ (N-VDS) によりトランスポート ゾーンに参加し、その他のトランスポート ノードが vSphere 分散スイッチ (VDS) 7.0 によりトランスポート ゾーンに参加すると、DRS が誤って vMotion を起動することがあります。この問題は、次の場合に発生することがあります。
- 仮想マシンがネットワーク予約で構成された NSX 論理スイッチに接続する。
- 一部のトランスポート ノードが N-VDS を使用してトランスポート ゾーンに参加し、その他のトランスポート ノードが VDS 7.0 を使用してトランスポート ゾーンに参加するか、またはトランスポート ノードが別の VDS 7.0 インスタンスを介してトランスポート ゾーンに参加する。
回避策:すべてのトランスポート ノードを N-VDS または同じ VDS 7.0 インスタンスによってトランスポート ゾーンに参加させます。
- NSX ポートグループに VMkernel NIC (vmknic) を追加すると、vCenter Server は「ステートレス ホスト上の NSX ポートグループへの VMKernel アダプタの接続は、サポートされている操作ではありません。分散ポート グループを使用してください。」というエラーを報告する。
- Distributed Virtual Switch (DVS) のステートレス ESXi では、NSX ポート グループ上の vmknic はブロックされます。代わりに、分散ポート グループを使用する必要があります。
- DVS 上のステートフル ESXi では、NSX ポート グループ上の vmknic はサポートされていますが、NSX ポート グループ上で vmknic を使用している場合、vSAN に問題が発生する可能性があります。
回避策:同じ DVS で分散ポートグループを使用します。
- QLogic 4x10GE QL41164HFCU CNA に対して vCenter Server から SRIOV を有効にできないことがある
QLogic 4x10GE QL41164HFCU CNA を使用している場合、物理ネットワーク アダプタの [設定の編集] ダイアログに移動して SR-IOV を有効にしようとすると、操作が失敗することがあります。SR-IOV を有効にしようとすると、ESXi ホストのネットワークが停止する可能性があります。
回避策:SR-IOV を有効にするには、ESXi ホストで次のコマンドを使用します。
esxcfg-module
- New:Distributed Resource Scheduler (DRS) を使用しているクラスタ内のホストが、別の Virtual Distributed Switch (VDS) または NSX-T Virtual Distributed Switch (NVDS) と VDS の組み合わせによって NSX-T ネットワークに参加すると、vCenter Server に障害が発生する
vSphere 7.0 では、vSphere VDS 上で NSX-T ネットワークを DRS クラスタと併用している際に、ホストが同一の VDS または NVDS による NSX トランスポート ゾーンに参加していない場合、vCenter Server に障害が発生することがあります。
回避策:DRS クラスタ内のホストが、同一の VDS または NVDS を使用する NSX トランスポート ゾーンに参加するようにします。
- SmartPQI コントローラを使用する HPE Gen10 サーバでのディスクのホット リムーブとホット インサートの後、VMFS データストアが自動的にマウントされない
エクスパンダなしの SmartPQI コントローラを使用する HPE Gen10 サーバの SATA ディスクが、ホット リムーブされてから同じマシンの別のディスク ベイにホット インサートされる場合、または複数のディスクがホット リムーブされてから別の順序でホット インサートされる場合、ディスクに新しいローカル名が割り当てられることがあります。そのディスク上の VMFS データストアはスナップショットとして表示され、デバイス名が変更されたため、自動的にマウントし直されることはありません。
回避策:なし。SmartPQI コントローラでは、順序なしのホット リムーブおよびホット インサート操作はサポートされていません。
- nvme_pcie ドライバの loglevel を設定すると、エラーが発生して失敗する
コマンド esxcli nvme driver loglevel set -l <ログ レベル>
を使用して nvme_pcie ドライバの loglevel を設定すると、次のエラー メッセージが表示されてアクションが失敗します。
ログ レベル 0x2 の設定に失敗しました。
このコマンドは、NVMe ドライバとの互換性を考慮して保持されていましたが、nvme_pcie ドライバではサポートされていません。
回避策:なし。この状態は、nvme_pcie 機能が有効になっている場合に発生します。
- すべてのアクティブなパスでのエラーのため、ESXi によって NVMeOF デバイスへの I/O が終了されることがある
場合によっては、リンクの問題やコントローラの状態が原因で、NVMeOF デバイスへのすべてのアクティブ パスで I/O エラーが登録されることがあります。いずれかのパスのステータスが [Dead] に変わった場合、高パフォーマンス プラグイン (HPP) では、大量のエラーが表示されている別のパスは選択されないことがあります。そのため、I/O が失敗します。
回避策:構成オプション /Misc/HppManageDegradedPaths を無効にして、I/O のブロックを解除します。
- NVMe ベースの VMFS データストアに対する VOMA チェックがエラーで失敗する
VOMA チェックは NVMe ベースの VMFS データストアではサポートされておらず、次のエラーが表示されて失敗します。
エラー:デバイスの予約に失敗しました。関数が実装されていません
例:
# voma -m vmfs -f check -d /vmfs/devices/disks/: <partition#>
チェック モードでの VMFS Checker バージョン 2.1 の実行中
LVM メタデータの初期化中、基本チェックが完了します
ファイルシステムのアクティビティを確認しています
ファイルシステムの稼動状態チェックを実行しています..|VMFS-6 ホスト アクティビティをスキャンしています(4,096 バイト/HB、1,024 HB)。
エラー:デバイスの予約に失敗しました。関数が実装されていません
VMFS ボリュームのチェックを中止しています
VOMA がデバイスをチェックできませんでした:一般エラー
回避策:なし。VMFS メタデータを分析する必要がある場合は、-l
オプションを使用して収集し、VMware ユーザー サポートに渡します。ダンプを収集するためのコマンドは、次のとおりです。
voma -l -f dump -d /vmfs/devices/disks/:<パーティション #>
- 仮想マシンの再構成 API を使用して、暗号化された First Class Disk を暗号化された仮想マシンに接続すると、エラーが発生して失敗することがある
FCD と仮想マシンが異なる暗号化キーで暗号化されている場合、仮想マシンの再構成 API
を使用して、暗号化された FCD を暗号化された仮想マシンに接続しようとすると、次のエラー メッセージが表示されて失敗することがあります。
ディスクを復号化できません。キーまたはパスワードが正しくありません。
回避策:仮想マシンの再構成 API
ではなく、attachDisk API
を使用して、暗号化された FCD を暗号化された仮想マシンに接続します。
- スパンされた VMFS データストアの非ヘッド エクステントが Permanent Device Loss (PDL) 状態になると、ESXi ホストが応答しない状態になることがある
この問題は、スパンされた VMFS データストアの非ヘッド エクステントがヘッド エクステントとともに失敗した場合には発生しません。この場合、データストア全体にアクセスできなくなり、I/O が許可されなくなります。
これに対して、非ヘッド エクステントは失敗しても、ヘッド エクステントがアクセス可能である場合、データストアのハートビートは正常であると表示されます。また、ホストとデータストア間の I/O も継続されます。ただし、失敗した非ヘッド エクステントに依存するすべての I/O は失敗し始めます。失敗した I/O の解決を待つ間に、他の I/O トランザクションが蓄積され、ホストが応答していない状態になります。
回避策:この問題を解決するには、非ヘッド エクステントの PDL 条件を修正します。
- APD または PDL の状態からリカバリした後、クラスタ化された仮想ディスクのサポートが有効になっている VMFS データストアがアクセスできないままになることがある
この問題は、クラスタ化された仮想ディスクのサポートが有効になっているデータストアでのみ発生します。データストアが All Paths Down (APD) または Permanent Device Loss (PDL) 状態からリカバリすると、そのデータストアはアクセスできないままになります。VMkernel ログには、次のような複数の SCSI3 予約競合
メッセージが表示されることがあります。
2020-02-18T07:41:10.273Z cpu22:1001391219)ScsiDeviceIO: vm 1001391219: SCSIDeviceCmdCompleteCB:2972: 予約競合の再試行 544:コマンド 0x45ba814b8340 (op: 0x89):デバイス "naa. 624a9370b97601e346f64ba900024d53"
この問題は、クラスタに参加している ESXi ホストがデータストアの SCSI 予約を失い、データストアの復旧後に常に自動的に再取得することができないために発生する可能性があります。
回避策:次のコマンドを使用して、手動で予約を登録します。
vmkfstools -L registerkey /vmfs/devices/disks/<デバイス名>
<デバイス名>
は、データストアが作成されたデバイスの名前です。
- Virtual NVMe コントローラが Windows 10 ゲスト OS のデフォルトのディスク コントローラである
ハードウェア バージョン 15 以降を使用している場合、Virtual NVMe コントローラが以下のゲスト OS のデフォルトのディスク コントローラになります。
Windows 10
Windows Server 2016
Windows Server 2019
Virtual NVMe コントローラを使用している場合、一部の機能が使用できないことがあります。詳細については、https://kb.vmware.com/s/article/2147714 を参照してください
注:一部のクライアントでは、以前のデフォルトの LSI Logic SAS が使用されます。これには、ESXi Host Client と PowerCLI が含まれます。
回避策:Virtual NVMe で使用できない機能が必要な場合は、VMware 準仮想化 SCSI (PVSCSI) または LSI Logic SAS に切り替えます。VMware 準仮想化 SCSI (PVSCSI) の使用方法については、https://kb.vmware.com/s/article/1010398 を参照してください
- ESXi ホストを vSphere 7.0 にアップグレードした後、コア要求ルールの重複が存在すると、予期しない動作が発生することがある
要求ルールは、NMP、HPP などのマルチパス プラグインが特定のストレージ デバイスへのパスを所有するかどうかを判定します。ESXi 7.0 は、要求ルールの重複をサポートしていません。ただし、レガシー リリースからのアップグレードによって継承された既存の要求ルールに重複したルールを追加しても、ESXi 7.0 ホストはアラートを表示しません。重複したルールを使用すると、ストレージ デバイスが意図しないプラグインによって要求され、予期しない結果が発生する可能性があります。
回避策:重複したコア要求ルールは使用しないでください。新しい要求ルールを追加する前に、一致する既存の要求ルールをすべて削除してください。
- コンプライアンスの状態フィルタが設定された CNS クエリが、完了するまでに異常に長い時間がかかることがある
CNS QueryVolume API を使用すると、ボリュームの健全性やコンプライアンスの状態など、CNS ボリュームに関する情報を取得できます。個々のボリュームのコンプライアンスの状態を確認すると、結果が迅速に取得されます。ただし、複数(数十、または数百)のボリュームのコンプライアンスの状態をチェックするために CNS QueryVolume API を呼び出すと、クエリの実行速度が低下することがあります。
回避策:一括クエリを使わないようにします。コンプライアンスの状態を取得する必要がある場合は、一度に 1 つのボリュームに対するクエリを実行するか、クエリ API のボリュームの数を 20 以下に制限します。クエリを使用している間は、最高のパフォーマンスを得るために、他の CNS 操作を実行しないようにします。
- New:削除された CNS ボリュームが、CNS ユーザー インターフェイスに既存のボリュームとして一時的に表示されることがある
CNS ボリュームをバッキングする FCD ディスクを削除した後も、そのボリュームが CNS ユーザー インターフェイスに既存のボリュームとして表示される場合があります。ボリュームを削除しようとすると、失敗します。次のようなエラー メッセージが表示されることがあります。
参照するオブジェクトまたはアイテムを検出できませんでした。
回避策:次回の完全同期で不整合が解決され、CNS ユーザー インターフェイスが正常に更新されます。
- New:複数の CNS ボリュームを同じポッドに接続すると、エラーが発生して失敗することがある
複数のボリュームを同じポッドに同時に接続しようとすると、接続操作中に同じコントローラ スロットが選択されることがあります。その結果、1 つの操作のみが成功し、それ以外のボリュームのマウントは失敗します。
回避策:Kubernetes が失敗した操作を再試行した後、ノードの仮想マシンでコントローラ スロットが使用可能な場合、操作は成功します。
- New:状況によっては、CNS の操作が失敗しても、vSphere Client でタスクのステータスが「成功」と表示されることがある
この問題は、非準拠のストレージ ポリシーを使用して CNS ボリュームを作成する場合などに発生することがあります。操作は失敗しますが、vSphere Client ではタスクのステータスが「成功」と表示されます。
回避策:vSphere Client でタスクのステータスが成功になっていても、CNS 操作が成功したとは限りません。操作が正常に完了したことを確認するには、結果を確認してください。
- New:CNS のパーシステント ボリュームの削除操作に失敗すると、vSphere データストア上にボリュームが削除されずに残ることがある
この問題は、CNS の削除 API でポッドに接続されているパーシステント ボリュームを削除する際に発生することがあります。たとえば、ポッドが実行されている Kubernetes 名前空間を削除する際に発生することがあります。その結果、ボリュームは CNS から消去され、CNS のクエリ操作でボリュームが返らなくなります。しかし、ボリュームはデータストア上に配置され続け、CNS 削除 API 操作を繰り返しても削除することはできません。
回避策:なし。
- PNID の変更後にベンダー プロバイダがオフラインになる
vCenter IP アドレスを変更すると(PNID の変更)、登録されているベンダー プロバイダがオフラインになります。
回避策:ベンダー プロバイダを再登録します。
- [ハードウェアの健全性] タブのストレージ センサー情報に、vCenter Server ユーザー インターフェイス、ホスト ユーザー インターフェイス、および MOB の正しくない値が表示される
vCenter Server ユーザー インターフェイスで [ホスト] > [監視] > [ハードウェア健全性] > [ストレージ センサー] の順に移動すると、ストレージ情報として正しくない値または不明な値が表示されます。同じ問題が、ホスト ユーザー インターフェイスと MOB パス runtime.hardwareStatusInfo.storageStatusInfo でも発生します。
回避策:なし。
- vSphere ユーザー インターフェイスのホストの高度な設定で、現在のプロダクト ロッカーの場所が空として表示される(デフォルトでは空)
vSphere ユーザー インターフェイスのホストの高度な設定で、現在のプロダクト ロッカーの場所が空として表示されます(デフォルトでは空)。これは、実際のプロダクトの場所 symlink
が作成され、有効であることと一貫していません。これにより、ユーザーに混乱が生じます。デフォルトは、ユーザー インターフェイスからは修正できません。
回避策:ユーザーは、ホストで esxcli コマンドを使用して、現在のプロダクト ロッカーの場所のデフォルトを次のように修正できます。
1.既存のプロダクト ロッカーの場所の設定を次のように削除します:esxcli system settings advanced remove -o ProductLockerLocation
2.プロダクト ロッカーの場所の設定を適切なデフォルト値で再追加します。
2.a. ESXi が完全インストールの場合、デフォルト値は "/locker/packages/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/locker/packages/vmtoolsRepo"
2.b.ESXi が autodeploy などの PXEboot 構成である場合のデフォルト値は"/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/vmtoolsRepo"
次のコマンドを実行して、場所を自動的に確認します:export PRODUCT_LOCKER_DEFAULT=`readlink /productLocker`
設定を追加します:esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s $PRODUCT_LOCKER_DEFAULT
上の手順 2 のすべての操作をまとめて、次のように 1 つのコマンドを発行することができます。
esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s `readlink /productLocker`
- vCenter Cloud Gateway が Software-Defined Data Center (SDDC) にリンクされていると、リンクされた SDDC 内の vCenter Server インスタンスがオンプレミスの vSphere Client に表示される
vCenter Cloud Gateway がオンプレミス vCenter Server と同じ環境にデプロイされ、SDDC にリンクされている場合、SDDC の vCenter Server がオンプレミスの vSphere Client に表示されます。これは予期しない動作であり、リンクされた SDDC の vCenter Server は無視する必要があります。リンクされた SDDC の vCenter Server に関連するすべての操作は、vCenter Cloud Gateway 内で実行されている vSphere Client で実行する必要があります。
回避策:なし。
- すべてのホストでのイメージのセットアップとアップデートをまとめて管理するためにすでに有効になっているクラスタでは、NSX-T を有効にすることはできない
NSX-T は、イメージ管理のための vSphere Lifecycle Manager 機能と互換性がありません。クラスタ内のすべてのホストでのイメージのセットアップとアップデートをまとめて行うためにクラスタを有効にすると、そのクラスタで NSX-T を有効にすることはできません。ただし、このクラスタに NSX Edge をデプロイすることはできます。
回避策:ベースラインを使用して管理できる新しいクラスタにホストを移動し、その新しいクラスタで NSX-T を有効にします。
- vSphere 7.0 リリースの vSAN クラスタで、vSphere Lifecycle Manager と vSAN ファイル サービスの両方を有効にできない
クラスタで vSphere Lifecycle Manager が有効になっている場合、同じクラスタで vSAN ファイル サービスを有効にできません。また、その逆も同様です。vSAN ファイル サービスがすでに有効になっているクラスタで vSphere Lifecycle Manager を有効にするには、最初に vSAN ファイル サービスを無効にして操作を再試行します。1 つのイメージで管理されているクラスタに移行する場合は、そのクラスタで vSphere Lifecycle Manager を無効にすることはできません。
回避策:なし。
- vSphere Auto Deploy を使用して、1 つのイメージで管理するクラスタに ESXi 7.0 ホストを追加することができない
vSphere Auto Deploy の「インベントリへの追加」ワークフローを使用して、1 つのイメージで管理するクラスタに ESXi ホストを追加しようとすると失敗します。この失敗は、既存の Auto Deploy ルールセットでパターンが一致しないために発生します。タスクは警告なしで失敗し、ホストは [検出されたホスト] タブに残ります。
回避策:
- [検出されたホスト] タブで、ルールセットと一致しなかった ESXi ホストを削除します。
- ルールを作成するか、既存の Auto Deploy ルールを編集します。ホストのターゲットの場所は、イメージによって管理されるクラスタです。
- ホストを再起動します。
ホストは、vSphere Lifecycle Manager でイメージによって管理されるクラスタに追加されます。
- ハードウェア サポート マネージャが使用できない場合、vSphere High Availability (HA) 機能に影響がある
1 つのイメージで管理するクラスタにハードウェア サポート マネージャを使用できない場合に、ファームウェアとドライバのアドオンが選択され、vSphere HA が有効になっていると、vSphere HA 機能が影響を受けます。以下のエラーが発生することがあります。
- クラスタでの vSphere HA の構成に失敗する。
- ホスト上で vSphere HA エージェントの構成を完了できない:
クラスタへの HA VIB の適用中に障害が発生しました。
- vSphere HA の修正が失敗する:
一般的なシステム エラーが発生しました:有効なコンポーネント マップを取得できませんでした。
- vSphere HA を無効にできない:ソリューションの削除タスクが失敗しました。
一般的なシステム エラーが発生しました:デポまたはハードウェア サポート マネージャのハードウェア サポート パッケージが見つかりません。
回避策:
- ハードウェア サポート マネージャが一時的に使用できない場合は、次の手順を実行します。
- ハードウェア サポート マネージャを vCenter Server に再接続します。
- [ホストおよびクラスタ] メニューからクラスタを選択します。
- [構成] タブを選択します。
- [サービス] で、[vSphere の可用性] をクリックします。
- vSphere HA を再度有効にします。
- ハードウェア サポート マネージャが完全に使用できない場合は、次の手順を実行します。
- ハードウェア サポート マネージャとハードウェア サポート パッケージをイメージ仕様から削除します。
- vSphere HA を再度有効にします。
- [ホストおよびクラスタ] メニューからクラスタを選択します。
- [更新] タブを選択します。
- [編集] をクリックします。
- ファームウェアとドライバのアドオンを削除し、[保存] をクリックします。
- [構成] タブを選択します。
- [サービス] で、[vSphere の可用性] をクリックします。
- vSphere HA を再度有効にします。
- vSphere Lifecycle Manager で修正プロセスを実行した後、I/OFilter がクラスタから削除されない
vSphere Lifecycle Manager でクラスタを修正してクラスタから I/OFilter を削除する操作が次のエラー メッセージとともに失敗します:iofilter XXX already exists
。iofilter は、インストール済みとして表示されたままになります。
回避策:
- vCenter Server 管理対象オブジェクト (IoFilterManager) から IOFilter API
UninstallIoFilter_Task
を呼び出します。
- vSphere Lifecycle Manager でクラスタを修正します。
- vCenter Server 管理対象オブジェクト (IoFilterManager) から IOFilter API
ResolveInstallationErrorsOnCluster_Task
を呼び出して、データベースを更新します。
- vSphere Lifecycle Manager で vSphere HA 対応のクラスタを修正しているときにホストを追加すると vSphere HA エラー状態になる
vSphere HA 対応のクラスタの修正プロセスで 1 台または複数の ESXi ホストを追加すると、次のエラー メッセージが表示されます。クラスタへの HA VIB の適用中に障害が発生しました。
回避策:クラスタの修正操作が完了した後、次のいずれかのタスクを実行します。
- 障害が発生した ESXi ホストを右クリックし、[vSphere HA 用に再設定] を選択します。
- クラスタの vSphere HA を無効にしてから再度有効にします。
- vSphere Lifecycle Manager で vSphere HA 対応のクラスタを修正しているときに vSphere HA を無効にしてから再度有効にすると vSphere HA エラー状態になる
クラスタの修正プロセスで vSphere HA を無効にしてから再度有効にすると、vSphere HA 健全性チェックでホストに vSphere HA VIB がインストールされていないと報告され、修正プロセスが失敗することがあります。次のエラー メッセージが表示されることがあります。クラスタの目的のイメージ仕様の設定に失敗しました
。
回避策:クラスタの修正操作が終了した後、クラスタの vSphere HA を無効にしてから再度有効にします。
- 大規模クラスタにおいて、vSphere Lifecycle Manager での推奨イメージの確認のパフォーマンスが低下する
ホストが 16 台を超える大規模クラスタでは、推奨の生成タスクが完了するまでに 1 時間以上かかる場合やハングしているように見える場合があります。推奨タスクの完了時間は、各ホストで構成されているデバイスの数と、推奨される有効なイメージを取得する前に vSphere Lifecycle Manager が処理する必要があるデポのイメージ候補の数によって異なります。
回避策:なし。
- 大規模クラスタにおいて、vSphere Lifecycle Manager でのハードウェアの互換性の確認のパフォーマンスが低下する
ホストが 16 台を超える大規模クラスタでは、検証レポートの生成タスクが完了するまでに最大で 30 分かかる場合やハングしているように見える場合があります。完了時間は、各ホストで構成されているデバイスの数と、クラスタで構成されているホストの数によって異なります。
回避策:なし
- vSphere Lifecycle Manager でクラスタを修正するときに、英語以外の言語で不完全なエラー メッセージが表示される
vCenter Server のユーザー インターフェイスで、ローカライズされた言語の不完全なエラー メッセージが表示されることがあります。メッセージは、vSphere Lifecycle Manager でクラスタの修正プロセスが失敗した後に表示されます。たとえば、次のようなエラー メッセージが表示されます。
英語のエラー メッセージ:Virtual machine 'VMC on DELL EMC -FileServer' that runs on cluster 'Cluster-1' reported an issue which prevents entering maintenance mode: Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
フランス語のエラー メッセージ:La VM « VMC on DELL EMC -FileServer », située sur le cluster « {Cluster-1} », a signalé un problème empêchant le passage en mode de maintenance : Unable to access the virtual machine configuration: Unable to access file[local-0] VMC on Dell EMC - FileServer/VMC on Dell EMC - FileServer.vmx
回避策:なし。
- ベンダー アドオン、コンポーネント、ファームウェアおよびドライバ アドオンを含まないイメージを、これらの要素を含むイメージを使用しているクラスタにインポートしたとき、既存のイメージのイメージ要素が削除されない
ESXi 基本イメージのみが、インポートされたイメージのものと置き換えられます。
回避策:インポート プロセスが終了したら、イメージを編集し、必要に応じてベンダー アドオン、コンポーネント、ファームウェアおよびドライバ アドオンを削除します。
- ベースラインを使用するクラスタを単一のイメージを使用するクラスタに変換するとき、vSphere HA VIB が削除されることを示す警告が表示される
ベースラインを使用する vSphere HA 対応のクラスタを単一のイメージを使用するクラスタに変換するとき、vmware-fdm
コンポーネントが削除されることを示す警告メッセージが表示されることがあります。
回避策:このメッセージは無視してかまいません。変換プロセスによって vmware-fdm
コンポーネントがインストールされます。
- プロキシ サーバ経由でインターネットからパッチ アップデートをダウンロードするように vSphere Update Manager が構成されている状態で、vSphere 7.0 へのアップグレードを行って Update Manager が vSphere Lifecycle Manager に変換された後、VMware パッチ リポジトリからのパッチのダウンロードに失敗することがある
以前のリリースの vCenter Server では、vCenter Server と vSphere Update Manager に対してプロキシ設定を個別に構成できました。vSphere 7.0 にアップグレードすると、vSphere Update Manager サービスは vSphere Lifecycle Manager サービスの一部になります。vSphere Lifecycle Manager サービスの場合、プロキシ設定は vCenter Server Appliance 設定から構成されます。プロキシ サーバ経由でインターネットからパッチ アップデートをダウンロードするように Update Manager が構成されている一方で vCenter Server Appliance にプロキシ設定の構成がない場合、vCenter Server をバージョン 7.0 にアップグレードすると、vSphere Lifecycle Manager は VMware デポに接続できず、パッチまたはアップデートをダウンロードできません。
回避策:vCenter Server Appliance 管理インターフェイス (https://<vCenter Server Appliance の FQDN または IP アドレス>:5480) にログインして vCenter Server Appliance のプロキシ設定を構成し、vSphere Lifecycle Manager でプロキシを使用できるようにします。
- バージョン 6.5 のホスト プロファイルをバージョン 7.0 の ESXi ホストに適用すると、コンプライアンスの確認に失敗する
バージョン 6.5 のホスト プロファイルをバージョン 7.0 の ESXi ホストに適用すると、コアダンプ ファイル プロファイルがホストに準拠していないと報告されます。
回避策:考えられる回避策は 2 つあります。
- バージョン 6.5 のホスト プロファイルを作成する場合は、ESXi ホストの高度な設定オプション VMkernel.Boot.autoCreateDumpFile を false に設定します。
- バージョン 6.5 の既存のホスト プロファイルを適用する場合は、ホスト プロファイルに高度な設定オプション VMkernel.Boot.autoCreateDumpFile を追加し、そのオプションを固定ポリシーに設定して、値を false に設定します。
- ブラウザが英語以外の言語に設定されている場合、[アクション] ドロップダウン メニューに項目が含まれない
ブラウザが英語以外の言語に設定されているときに vSphere Client インベントリの仮想マシンの [サマリ] タブにある [新しい表示に切り替える] ボタンをクリックすると、[ゲスト OS] パネルの [アクション] ドロップダウン メニューに項目が表示されません。
回避策:仮想マシン ページの上部にある [アクション] ドロップダウン メニューを選択します。
- Dynamic Receive Side Scaling (DYN_RSS) または Generic RSS (GEN_RSS) 機能をオンにすると、Mellanox ConnectX-4 または ConnectX-5 のネイティブ ESXi ドライバのスループットがわずかに低下することがある
DYN_RSS および GEN_RSS 機能がオンのとき、Mellanox ConnectX-4 または ConnectX-5 のネイティブ ESXi ドライバのスループットが 5% を下回る範囲で低下することがありますが、通常のワークロードへの影響はほとんどありません。
回避策:次のコマンドを使用して、DYN_RSS および GEN_RSS 機能を無効にすることができます。
# esxcli system module parameters set -m nmlx5_core -p "DYN_RSS=0 GEN_RSS=0"
# reboot
- PVRDMA 環境で同じホスト上の 2 台の仮想マシン間の RDMA トラフィックに問題が発生することがある
PVRDMA 環境の vSphere 7.0 実装では、HCA が配置されている場合、仮想マシンはローカル通信用に HCA を介してトラフィックを渡します。ただし、qedrntv ドライバでは、RDMA トラフィックのループバックは機能しません。 たとえば、同一のアップリンク ポートで構成されている仮想マシンで実行されている RDMA のキュー ペアは、相互に通信できません。
vSphere 6.7 以前では、SRQ が有効な場合にローカルの RDMA トラフィックに HCA が使用されていました。vSphere 7.0 では、RoCE v2 を使用して HW v14 以上で SRQ が有効になっている PVRDMA のバージョンにより、仮想マシンで HCA ループバックを使用します。
現在のバージョンの Marvell FastLinQ アダプタ ファームウェアでは、同じ PF またはポートの QP 間のループバック トラフィックはサポートされていません。
回避策:必要なサポートは、vSphere 7.0 に対して認定されている、すぐに利用できるドライバで追加されます。インボックス qedrntv ドライバを使用している場合は、3 ホスト構成を使用して、仮想マシンを 3 台目のホストに移行する必要があります。
- qedrntv ドライバでの Unreliable Datagram トラフィック QP の制限事項
Marvell FastLinQ qedrntv RoCE ドライバと Unreliable Datagram (UD) トラフィックには制限があります。バルク トラフィックを含む UD アプリケーションは、qedrntv ドライバで動作しない可能性があります。さらに、UD QP は、DMA メモリ領域 (MR) のみを使用できます。物理 MR または FRMR はサポートされていません。UD QP とともに物理 MR または FRMR を使用するアプリケーションは、qedrntv ドライバとともに使用したときにトラフィックを渡すことができません。このようなテスト アプリケーションの既知の例には、ibv_ud_pingpong
と ib_send_bw
があります。
iSER、NVMe-oF (RoCE)、PVRDMA などの VMware ESXi 環境における標準の RoCE および RoCEv2 のユースケースは、この問題の影響を受けません。UD トラフィックのユースケースは限定的で、この問題はバルク UD トラフィックを必要とする少数のアプリケーションに影響を及ぼします。
Marvell FastLinQ ハードウェアは、RDMA UD トラフィック オフロードをサポートしていません。GSI QP をサポートするための VMware PVRDMA 要件を満たすために、UD QP サポートの制限付きソフトウェア専用の実装が qedrntv ドライバに追加されました。実装の目的は、制御パスの GSI 通信のサポートを提供することであり、バルク トラフィックと高度な機能をサポートする UD QP の完全な実装ではありません。
UD のサポートはソフトウェアで実装されるため、大量のトラフィックに対応できず、パケットがドロップされる可能性があります。これにより、バルク UD トラフィックで障害が発生する可能性があります。
回避策:バルク UD QP トラフィックは qedrntv ドライバでサポートされていません。現時点では回避策はありません。iSER、NVMe、RDMA、PVRDMA などの VMware ESXi RDMA (RoCE) のユースケースは、この問題の影響を受けません。
- QLogic 578xx NIC を搭載したサーバで iSCSI LUN を頻繁に接続または切断すると、障害が発生することがある
QLogic 578xx NIC の iSCSI 接続または切断を短時間で頻繁にトリガすると、qfle3 ドライバの問題が原因でサーバに障害が発生することがあります。これは、デバイスのファームウェアの既知の問題によるものです。
回避策:なし。
- Broadcom の NVMe over FC 環境で、ドライバのアンロードまたはコントローラの切断操作中に ESXi に障害が発生することがある
Broadcom の NVMe over FC 環境で、ドライバのアンロードまたはコントローラの切断操作中に ESXi に障害が発生し、次のようなエラー メッセージが表示されることがあります。@BlueScreen: #PF Exception 14 in world 2098707:vmknvmeGener IP 0x4200225021cc addr 0x19
回避策:なし。
- 一部の Dell サーバ上で i350/X550 NIC の OEM ファームウェアのバージョン番号が ESXi に表示されない
インボックスの ixgben ドライバは、i350/X550 NIC のファームウェア データ バージョンまたは署名のみを認識します。一部の Dell サーバでは、OEM ファームウェアのバージョン番号が OEM パッケージ バージョンのリージョンにプログラムされています。そのため、インボックスの ixgben ドライバは、この情報を読み取れません。8 桁のファームウェア署名のみが表示されます。
回避策:OEM ファームウェアのバージョン番号を表示するには、非同期 ixgben ドライバのバージョン 1.7.15 以降をインストールします。
- X710 または XL710 NIC が ESXi で動作しないことがある
NIC のリセットや VMkernel の内部デバイス ツリーの操作など、特定の破壊的操作を X710 または XL710 NIC に対して開始すると、NIC ハードウェアがパケット以外のメモリからデータを読み取ることがあります。
回避策:NIC のリセットや、VMkernel の内部デバイス状態の操作を行わないでください。
- NVMe-oF では、システムの再起動後にパーシステントな VMHBA 名が使用されるとは限らない
NVMe-oF は、vSphere 7.0 の新機能です。サーバに vmhba30+ を使用する USB ストレージ インストールがあり、さらに NVMe over RDMA 構成もある場合は、システムの再起動後に VMHBA 名が変更されることがあります。これは、NVMe over RDMA の VMHBA 名の割り当てが PCIe デバイスと異なるためです。ESXi では、パーシステンスを確保できません。
回避策:なし。
- サイズが 300 GB 以上の vCenter Server データベースのバックアップに失敗する
vCenter Server データベースのサイズが 300 GB 以上の場合、ファイルベースのバックアップがタイムアウトして失敗します。次のエラー メッセージが表示されます。タイムアウトしました。72000 秒以内に完了できませんでした
回避策:なし。
- ESXi 7.0 ホストのコンプライアンス状態をバージョン 6.5 または 6.7 のホスト プロファイルに対して確認すると、vmhba および vmhba デバイスのエラーが出力される
nmlx5_core
または nvme_pcie
ドライバを使用する ESXi 7.0 ホストのコンプライアンス状態をバージョン 6.5 または 6.7 のホスト プロファイルに対して確認すると、次のエラーが表示されることがあります。ここで、address1
と address2
は、影響を受けるシステムに固有です。
- バス タイプ logical、
address1
の vmhba デバイスがホストに存在しません。
-
バス タイプ logical、
address2
の vmrdma デバイスがホストに存在しません。
このエラーは、ESXi バージョン 7.0 以前の
nmlx5_core
または
nvme_pcie
ドライバによって生成されたデバイス アドレス間の不一致が原因で発生します。
回避策:このエラーは無視してかまいません。ESXi ホストの機能に影響はありません。コンプライアンス状態のエラーを解決するには、ESXi ホスト バージョン 7.0 からホスト プロファイルを再抽出し、新しいホスト プロファイルをホストに適用します。
- 外部 Platform Services Controller を使用する vCenter Server 6.x から vCenter Server 7.0 にアップグレードされた vCenter Server 7.0 をリストアすると失敗することがある
外部 Platform Services Controller を使用する vCenter Server 6.x からバージョン 7.0 にアップグレードされた vCenter Server 7.0 をリストアすると、リストアが失敗し、次のエラーが表示されることがあります。アプライアンス ストレージ リストを取得できませんでした
回避策:リストア プロセスの最初のステージで、vCenter Server 7.0 のストレージ レベルを増やします。たとえば、vCenter Server 6.7 外部 Platform Services Controller のセットアップ ストレージ タイプが small の場合は、リストア プロセス用に large ストレージ タイプを選択します。
- [有効な SSL プロトコル] 構成パラメータがホスト プロファイル修正プロセスで構成されない
[有効な SSL プロトコル]
構成パラメータがホスト プロファイルの修正中に構成されず、システムのデフォルト プロトコルの tlsv1.2
のみが有効になります。この動作は、vCenter Server 7.0 環境にバージョン 7.0 以前のホスト プロファイルがある場合に発生します。
回避策:SFCB の TLSV 1.0 または TLSV 1.1 SSL プロトコルを有効にするには、SSH を使用して ESXi ホストにログインし、次の ESXCLI コマンドを実行します。esxcli system wbem -P <プロトコル名>
- ホスト プロファイルを使用してロックダウン モードの設定を構成できない
セキュリティ ホスト プロファイルを使用してロックダウン モードを構成できず、一度に複数の ESXi ホストに適用できません。各ホストを手動で構成する必要があります。
回避策:vCenter Server 7.0 では、セキュリティ ホスト プロファイルを使用して、ロックダウン モードを構成し、ロックダウン モードの例外ユーザー リストを管理できます。
- ホスト プロファイルをクラスタに適用すると、Enhanced vMotion Compatibility (EVC) の設定が ESXi ホストで失われる
構成ファイルを変更したとき、VMware 構成ファイル /etc/vmware/config
内の一部の設定は、ホスト プロファイルによって管理されず、拒否リストに登録されます。その結果、ホスト プロファイルがクラスタに適用されると、EVC 設定が失われ、EVC 機能が失われます。たとえば、マスクされていない CPU がワークロードに公開される可能性があります。
回避策:クラスタ上に適切な EVC ベースラインを再構成し、EVC 設定を復旧します。
- vCenter Server 7.0 でコア ダンプ パーティションを定義するホスト プロファイルを使用すると、エラーが発生する
vCenter Server 7.0 では、ホスト プロファイルを使用してコア ダンプ パーティションを構成および管理することはできません。コア ダンプ パーティションが定義されたホスト プロファイルを適用すると、次のエラーが発生します。有効なコアダンプ パーティションが見つかりませんでした。
回避策:なし。vCenter Server 7.0 では、ホスト プロファイルはファイルベースのコア ダンプのみをサポートしています。
- ホスト プロファイルを ESXi ホストからコピーするか、ホスト プロファイルを編集すると、ユーザー入力値が失われる
一部のホスト プロファイル キーは、キー生成に関する明示的なルールが指定されている場合でもハッシュ計算によって生成されます。その結果、ホストから設定をコピーしたときやホスト プロファイルを編集したときに、応答ファイル内のユーザー入力値が失われます。
回避策:vCenter Server 7.0 では、ホスト プロファイルを ESXi ホストからコピーしたときやホスト プロファイルを変更したときにユーザー入力の設定が保持されます。
- 特定のライブラリから vSphere への HTTP 要求が拒否されることがある
vSphere 7.0 の HTTP リバース プロキシでは、以前のリリースと比べて、より厳しい標準コンプライアンスが適用されます。これにより、アプリケーションが vSphere への SOAP 呼び出し用に使用する一部のサードパーティ製ライブラリで、既存の問題が明らかになる可能性があります。
このようなライブラリを使用する vSphere アプリケーションを開発する場合や、vSphere スタック内のこのようなライブラリに依存するアプリケーションを含める場合、これらのライブラリが HTTP 要求を VMOMI に送信するときに接続の問題が発生する可能性があります。たとえば、vijava ライブラリから発行される HTTP 要求は、次の形式をとることができます。
POST /sdk HTTP/1.1
SOAPAction
Content-Type: text/xml; charset=utf-8
User-Agent: Java/1.8.0_221
この例の構文は、SOAPAction の後にコロンを必要とする HTTP プロトコル ヘッダー フィールドの要件に違反しています。そのため、この要求はフライト中に拒否されます。
回避策:アプリケーションで非準拠のライブラリを利用している開発者は、そのライブラリに代えて HTTP 標準に準拠するライブラリを使用することを検討してください。たとえば、vijava ライブラリを使用している開発者は、そのライブラリに代えて最新バージョンの yavijava ライブラリを使用することを検討してください。
- ホスト プロファイルの詳細オプション パラメータを編集して、値を false に設定すると、値が true に設定される
ホスト プロファイルの詳細オプション パラメータで値を false
に設定すると、ユーザー インターフェイスによって空でない文字列値が作成されます。空ではない値は true
と解釈され、詳細オプション パラメータはホスト プロファイルで true
値を受け取ります。
回避策:考えられる回避策は 2 つあります。
- リファレンス ESXi ホストで詳細オプション パラメータを
false
に設定し、ホスト プロファイルでこのホストから設定をコピーします。
注:ホストの詳細オプション パラメータを変更する前に、ホストがホスト プロファイルに準拠している必要があります。
- リファレンス ESXi ホストで詳細オプション パラメータを
false
に設定し、このホストからホスト プロファイルを作成します。次に、新しいホスト プロファイルから既存のホスト プロファイルにホスト プロファイル設定をコピーします。
- 修正プロセスの実行中に、SNMP 動的ファイアウォール ルールセットがホスト プロファイルによって変更される
SNMP ファイアウォール ルールセットは動的な状態で、ランタイム時に処理されます。ホスト プロファイルが適用されると、ルールセットの構成はホスト プロファイルと SNMP によって同時に管理され、ファイアウォールの設定が予期せずに変更されることがあります。
回避策:考えられる回避策は 2 つあります。
- ルールセットが動的に管理されるようにするには、ホスト プロファイルの構成で SNMP ファイアウォール ルールセット オプションを除外します。
- ルールセットの二重管理を続行するには、必要に応じて、ファイアウォールのルールセットの状態を修正します。
- Broadcom ドライバ lsi_msgpt3、lsi_msgpt35、および lsi_mr3 を使用すると、ダンプ ファイルが表示されることがある
lsi_msgpt3、lsi_msgpt35、および lsi_mr3 コントローラを使用している場合、ダンプ ファイル lsuv2-lsi-drivers-plugin-util-zdump が表示されることがあります。このプラグイン ユーティリティで使用されている storelib を終了するときに問題が発生します。ESXi の操作に影響はなく、このダンプ ファイルは無視できます。
回避策:このメッセージは無視してかまいません。次のコマンドを使用して lsuv2-lsi-drivers-plugin を削除できます。
esxcli software vib remove -n lsuv2-lsiv2-drivers-plugin
- vCenter Server で PCI デバイスの SR-IOV を構成した後、再起動は不要というメッセージが表示されることがあるが、サードパーティの拡張機能によるデバイス構成が失われ、再適用が必要になる場合がある
ESXi 7.0 では、SR-IOV 構成は再起動しなくても適用され、デバイス ドライバが再ロードされます。ESXi ホストでは、起動時にデバイス ドライバがロードされた後で実行する必要があるデバイス構成をサードパーティの拡張機能によって実行することがあります。デバイス構成を再適用するには、このようなサードパーティの拡張機能を実行するために再起動が必要です。
回避策:サードパーティ製デバイスの構成を適用するには、SR-IOV を構成してから再起動する必要があります。