ESXi 7.0 Update 3f | 12. Juli 2022 | ISO-Build 20036589 Überprüfen Sie, ob Erweiterungen und Updates für diese Versionshinweise zur Verfügung stehen. |
Inhalt dieser Versionshinweise
Diese Versionshinweise decken die folgenden Themen ab:
- Neuigkeiten
- Vorherige Versionen von ESXi 7.0
- In dieser Version enthaltene Patches
- Behobene Probleme
- Bekannte Probleme
- Bekannte Probleme aus vorherigen Versionen
WICHTIG: Wenn Ihr Quellsystem Hosts mit Versionen zwischen ESXi 7.0 Update 2 und Update 3c sowie Intel-Treiber enthält, lesen Sie vor dem Upgrade auf ESXi 7.0 Update 3f den Abschnitt Neuigkeiten der Versionshinweise zu VMware vCenter Server 7.0 Update 3c, da der gesamte Inhalt im Abschnitt auch für vSphere 7.0 Update 3f gilt. Weitere Informationen erhalten Sie auch in den verwandten VMware-Knowledgebase-Artikeln: 86447, 87258 und 87308.
Neuigkeiten
- In dieser Version werden die folgenden Schwachstellen behoben: CVE-2022-23816, CVE-2022-23825, CVE-2022-28693 und CVE-2022-29901. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware-Produkte finden Sie unter VMSA-2022-0020.
- ESXi 7.0 Update 3f unterstützt vSphere Quick Boot auf folgenden Servern:
-
Cisco Systems Inc:
- UCSC-C220-M6N
- UCSC-C225-M6N
- UCSC-C240-M6L
- UCSC-C240-M6N
- UCSC-C240-M6SN
- UCSC-C240-M6SX
-
Dell Inc:
- PowerEdge XR11
- PowerEdge XR12
- PowerEdge XE8545
- HPE:
- Edgeline e920
- Edgeline e920d
- Edgeline e920t
- ProLiant DL20 Gen10 Plus
- ProLiant DL110 Gen10 Plus
- ProLiant ML30 Gen10 Plus
- Lenovo:
- ThinkSystem SR 860 V2
-
Vorherige Versionen von ESXi 7.0
Neue Funktionen sowie die gelösten und bekannten Probleme von ESXi werden in den entsprechenden Versionshinweisen beschrieben. Versionshinweise zu vorherigen Versionen von ESXi 7.0:
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 3e
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 3d
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2e
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1e
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 3c
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2d
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2c
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2a
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1d
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1c
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1b
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1a
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0b
Informationen zu Internationalisierung, Kompatibilität und Open Source-Komponenten finden Sie in den Versionshinweisen zu VMware vSphere 7.0.
In dieser Version enthaltene Patches
Diese ESXi 7.0 Update 3f-Version stellt die folgenden Patches bereit:
Build-Details
Download-Dateiname: | VMware-ESXi-7.0U3f-20036589-depot |
Build: | 20036589 |
Download-Größe: | 575,2 MB |
md5sum: | 8543deb5d6d71bc7cc6d6c21977b1181 |
sha256checksum: | b4cd253cbc28abfa01fbe8e996c3b0fd8b6be9e442a4631f35616eb34e9e01e9 |
Neustart des Hosts erforderlich: | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich: | Ja |
Komponenten
Komponente | Bulletin | Kategorie | Schweregrad |
---|---|---|---|
ESXi-Komponente - ESXi-Kern-VIBs | ESXi_7.0.3-0.50.20036589 | Fehlerkorrektur | Kritisch |
ESXi-Komponente „Installieren/Aktualisieren“ | esx-update_7.0.3-0.50.20036589 | Fehlerkorrektur | Kritisch |
Broadcom NetXtreme-E-Netzwerk- und ROCE/RDMA-Treiber für VMware ESXi | Broadcom-bnxt-Net-RoCE_216.0.0.0-1vmw.703.0.50.20036589 | Fehlerkorrektur | Kritisch |
Netzwerktreiber für Intel(R) E810-Adapter | Intel-icen_1.4.1.20-1vmw.703.0.50.20036589 | Fehlerkorrektur | Kritisch |
Netzwerktreiber für Intel(R) X722- und E810-basierte RDMA-Adapter | Intel-irdman_1.3.1.22-1vmw.703.0.50.20036589 | Fehlerkorrektur | Kritisch |
Nativer iSER-Treiber von VMware | VMware-iser_1.1.0.1-1vmw.703.0.50.20036589 | Fehlerkorrektur | Kritisch |
Broadcom Emulex Connectivity Division lpfc-Treiber für FC-Adapter | Broadcom-ELX-lpfc_14.0.169.26-5vmw.703.0.50.20036589 | Fehlerkorrektur | Kritisch |
LSI NATIVE DRIVERS LSU-Verwaltungs-Plug-In | Broadcom-lsiv2-drivers-plugin_1.0.0-12vmw.703.0.50.20036589 | Fehlerkorrektur | Kritisch |
Netzwerktreiber für Adapter der Intel PRO/1000-Familie | Intel-ne1000_0.9.0-1vmw.703.0.50.20036589 | Fehlerkorrektur | Kritisch |
USB-Treiber | VMware-vmkusb_0.1-7vmw.703.0.50.20036589 | Fehlerkorrektur | Kritisch |
ESXi-Komponente - ESXi-Kern-VIBs | ESXi_7.0.3-0.45.20036586 | Sicherheit | Kritisch |
ESXi-Komponente „Installieren/Aktualisieren“ | esx-update_7.0.3-0.45.20036586 | Sicherheit | Kritisch |
VMware-VM-Tools | VMware-VM-Tools_12.0.0.19345655-20036586 | Sicherheit | Kritisch |
WICHTIG:
- Ab vSphere 7.0 verwendet VMware Komponenten zum Verpacken von VIBs mit Bulletins. Die Bulletins
ESXi
undesx-update
bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden. - Beim Patchen von ESXi-Hosts mithilfe von VMware Update Manager von einer Version vor ESXi 7.0 Update 2 wird dringend empfohlen, das Rollup-Bulletin in der Patch-Baseline zu verwenden. Wenn Sie das Rollup-Bulletin nicht verwenden können, stellen Sie sicher, dass alle der folgenden Pakete in der Patch-Baseline enthalten sind. Wenn die folgenden Pakete nicht in der Baseline enthalten sind, schlägt der Updatevorgang fehl:
- VMware-vmkusb_0.1-1vmw.701.0.0.16850804 oder höher
- VMware-vmkata_0.1-1vmw.701.0.0.16850804 oder höher
- VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 oder höher
- VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 oder höher
Rollup-Bulletin
Dieses Rollup-Bulletin enthält die neuesten VIBs mit allen Fixes nach der ersten Version von ESXi 7.0.
Bulletin-ID | Kategorie | Schweregrad | Details |
ESXi70U3f-20036589 | Fehlerkorrektur | Kritisch | Sicherheit und Fehlerbehebung |
ESXi70U3sf-20036586 | Sicherheit | Kritisch | Nur Sicherheit |
Image-Profile
Patch- und Updateversionen von VMware enthalten allgemeine und kritische Image-Profile. Die Anwendung des allgemeinen Image-Profils der Version gilt für die neuen Fehlerkorrekturen.
Name des Image-Profils |
ESXi-7.0U3f-20036589-standard |
ESXi-7.0U3f-20036589-no-tools |
ESXi-7.0U3sf-20036586-standard |
ESXi-7.0U3sf-20036586-no-tools |
ESXi-Image
Name und Version | Datum der Veröffentlichung | Kategorie | Detail |
---|---|---|---|
ESXi70U3f-20036589 | 12. JUL 2022 | Fehlerkorrektur | Image für Sicherheit und Fehlerbehebung |
ESXi70U3sf-20036586 | 12. JUL 2022 | Sicherheit | Image nur für Sicherheit |
Informationen zu den einzelnen Komponenten und Bulletins finden Sie auf der Seite Produkt-Patches und im Abschnitt Behobene Probleme.
Patch-Download und -Installation
In vSphere 7.x wird das für die Verwaltung von vSphere Update Manager verwendete Update Manager-Plug-In durch das Lifecycle Manager-Plug-In ersetzt. Verwaltungsvorgänge für vSphere Update Manager stehen weiterhin mit neuen Funktionen für vSphere Lifecycle Manager im Lifecycle Manager-Plug-In zur Verfügung.
Die typische Methode zum Anwenden von Patches auf ESXi 7.x-Hosts besteht in der Verwendung des vSphere Lifecycle Manager. Weitere Informationen finden Sie unter Info zu vSphere Lifecycle Manager und vSphere Lifecycle Manager-Baselines und -Images.
Sie können ESXi-Hosts auch ohne das Lifecycle Manager-Plug-In aktualisieren und stattdessen ein Image-Profil verwenden. Dazu müssen Sie die ZIP-Datei des Patch-Offline-Pakets manuell von VMware Customer Connect herunterladen. Wählen Sie im Dropdown-Menü Produkt auswählen die Option ESXi (eingebettet und installierbar) und im Dropdown-Menü Version auswählen die Option 7.0. Weitere Informationen finden Sie unter Aktualisieren von Hosts mithilfe von ESXCLI-Befehlen und im Handbuch VMware ESXi-Upgrade.
Behobene Probleme
Die behobenen Probleme werden in folgende Kategorien unterteilt.
- ESXi_7.0.3-0.50.20036589
- esx-update_7.0.3-0.50.20036589
- Broadcom-bnxt-Net-RoCE_216.0.0.0-1vmw.703.0.50.20036589
- Broadcom-ELX-lpfc_14.0.169.26-5vmw.703.0.50.20036589
- Broadcom-lsiv2-drivers-plugin_1.0.0-12vmw.703.0.50.20036589
- Intel-icen_1.4.1.20-1vmw.703.0.50.20036589
- Intel-irdman_1.3.1.22-1vmw.703.0.50.20036589
- Intel-ne1000_0.9.0-1vmw.703.0.50.20036589
- VMware-iser_1.1.0.1-1vmw.703.0.50.20036589
- VMware-vmkusb_0.1-7vmw.703.0.50.20036589
- ESXi_7.0.3-0.45.20036586
- esx-update_7.0.3-0.45.20036586
- VMware-VM-Tools_12.0.0.19345655-20036586
- ESXi-7.0U3f-20036589-standard
- ESXi-7.0U3f-20036589-no-tools
- ESXi-7.0U3sf-20036586-standard
- ESXi-7.0U3sf-20036586-no-tools
- ESXi Image – ESXi70U3f-20036589
- ESXi Image – ESXi70U3sf-20036586
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2916848, 2817702, 2937074, 2957732, 2984134, 2944807, 2985369, 2907963, 2949801, 2984245, 2911320 , 2915911, 2990593, 2992648, 2905357, 2980176, 2974472, 2974376, 2972059, 2973031, 2967359, 2860126, 2878245, 2876044, 2968157, 2960242, 2970238, 2966270, 2966783, 2963328, 2939395, 2966362, 2946550, 2958543, 2966628, 2961584, 2911056, 2965235, 2952427, 2963401, 2965146, 2963038, 2963479, 2949375, 2961033, 2958926, 2839515, 2951139, 2878224, 2954320, 2952432, 2961346, 2857932, 2960949, 2960882, 2957966, 2929443, 2956080, 2959293, 2944919, 2948800, 2928789, 2957769, 2928268, 2957062, 2792139, 2934102, 2953709, 2950686, 2953488, 2949446, 2955016, 2953217, 2956030, 2949902, 2944894, 2944521, 2911363, 2952205, 2894093, 2910856, 2953754, 2949777, 2925733, 2951234, 2915979, 2904241, 2935355, 2941263, 2912661, 2891231, 2928202, 2928268, 2867146, 2244126, 2912330, 2898858, 2906297, 2912213, 2910340, 2745800, 2912182, 2941274, 2912230, 2699748, 2882789, 2869031, 2913017, 2864375, 2925133, 2965277 |
CVE-Nummern | Nicht verfügbar |
Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.
Aktualisiert die VIBs esxio-combiner, esx-ui, esx-xserver, cpu-microcode, trx, vsanhealth, esx-base, esx-dvfilter-generic-fastpath, gc, native-misc-drivers, bmcal, vsan, vdfs
und crx
zur Behebung der folgenden Probleme:
- NEU: PR 2965277: Virtuelle Windows-Maschinen, die verschachtelte Virtualisierung unterstützen und bei denen Virtualization-Based Security (VBS) aktiviert ist, können eine CPU-Nutzung von bis zu 100 % aufweisen.
Unter bestimmten Bedingungen, z. B. bei einer Erhöhung der gemeinsamen Seitennutzung oder beim Deaktivieren der Nutzung großer Seiten auf VM- oder ESXi-Hostebene, kann die CPU-Nutzung von Windows-VMs, bei denen Virtualization-Based Security (VBS) aktiviert ist, bis zu 100 % erreichen.
Dieses Problem wurde in der vorliegenden Version behoben. Der Fix verhindert die gemeinsame Seitennutzung in bestimmten Fällen, um das Problem zu vermeiden.
- PR 2839515: Python SDK (pyVmomi)-Aufruf von EnvironmentBrowser.QueryConfigOptionEx schlägt mit UnknownWsdlTypeError fehl.
pyVmomi-Aufrufe der vSphere API
EnvironmentBrowser.QueryConfigTargetEx
schlagen möglicherweise mitUnknownWsdlTypeError
fehl.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2911320: Der Status „Unbekannt“ wird für Sensoren des Typs „Systemereignis“ auf dem Bildschirm zur Überwachung der Hardwareintegrität im vSphere Client angezeigt
Das Hardwareintegritätsmodul von ESXi kann möglicherweise einige Sensoren des Typs „Systemereignis“ nicht entschlüsseln, wenn ein physischer Server mit einem neuen Branding versehen wird. Infolgedessen wird im vSphere Client der Status „Unbekannt“ für Sensoren des Typs „Systemereignis“ unter Überwachung > Hardwareintegrität angezeigt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2910340: Wenn eine virtuelle Maschine während der Migration mit vmx.reboot.powerCycle=TRUE neu gestartet wird, schaltet sie sich möglicherweise nicht ein
Wenn Sie die erweiterte Einstellung
vmx.reboot.powerCycle
auf einer virtuellen Maschine aufTRUE
festlegen, schaltet sich die virtuelle Maschine aus und dann wieder ein, sobald das Gastbetriebssystem einen Neustart initiiert. Wenn jedoch während einer Migration mithilfe von vSphere vMotion ein Ein-/Ausschalten stattfindet, schlägt der Vorgang fehl, und die virtuelle Maschine auf dem Quellhost wird möglicherweise nicht wieder eingeschaltet.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2916848: ESXi-Hosts fallen möglicherweise aufgrund eines Datenrennens in den UNIX-Domänen-Sockets mit einem violetten Diagnosebildschirm aus
Wenn bei einem Socket ein Verbindungsfehler auftritt, während er bei der internen Kommunikation zwischen UNIX-Domänen-Sockets abgefragt wird, kann es zu einem Datenrennen kommen. Infolgedessen greift der ESXi-Host in einigen Fällen auf einen ungültigen Arbeitsspeicherbereich zu und fällt mit einem violetten Diagnosebildschirm mit
#PF Exception 14
und Fehlern wieUserDuct_PollSize()
undUserSocketLocalPoll()
aus.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2891231: Sie können kein Hostprofil von einem ESXi-Host erstellen, der einen Hardware-iSCSI-Adapter mit Pseudo-Netzwerkschnittstellenkarten verwendet
Wenn ein Hardware-iSCSI-Adapter auf einem ESXi-Host in Ihrer Umgebung Pseudo-Netzwerkschnittstellenkarten verwendet, können Sie möglicherweise kein Hostprofil von einem solchen Host erstellen, da Pseudo-Netzwerkschnittstellenkarten nicht über die erforderliche PCI-Adresse und den Anbieternamen für ein Profil verfügen.
Dieses Problem wurde in der vorliegenden Version behoben. Für Pseudo-Netzwerkschnittstellenkarten sind durch die Behebung keine PCI-Adressen- und PCI-Anbieternamenwerte mehr erforderlich.
- PR 2898858: Virtuelle Maschinen reagieren möglicherweise aufgrund zugrunde liegender Speicherprobleme auf einem Software-iSCSI-Adapter nicht mehr
Race-Bedingungen im
iscsi_vmk
-Treiber können zu blockierten E/A-Vorgängen oder Taktsignal-Zeitüberschreitungen bei einem VMFS-Datenspeicher führen. Dies kann dazu führen, dass einige virtuelle Maschinen nicht mehr reagieren.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2792139: Der Durchsatz mit Software-iSCSI-Adaptern ist aufgrund hartcodierter Sende- und Empfangspuffergrößen begrenzt
Der Durchsatz mit Software-iSCSI-Adaptern ist aufgrund hartcodierter Sende- und Empfangspuffergrößen – 600 KB für Sende- bzw. 256 KB für Empfangspuffer – begrenzt. Dies führt dazu, dass die Leistung des
iscsi_vmk
-Adapters nicht optimal ist.Dieses Problem wurde in der vorliegenden Version behoben. Durch den Fix werden die Sende- und Empfangspuffergrößen für iSCSI-Verbindungen zu anpassbaren Parametern. Sie können die Größe des Sendepuffers mithilfe des ESXCLI-Befehls
esxcli system settings advanced set -o /ISCSI/SocketSndBufLenKB -i <your size>
mit einem Grenzwert von 6144 KB festlegen. Sie können die Größe des Empfangspuffers mithilfe des Befehlsesxcli system settings advanced set -o /ISCSI/SocketRcvBufLenKB -i <your size>
mit einem Grenzwert von 6144 KB festlegen. - PR 2904241: Bei virtuellen Maschinen mit aktivierter virtueller NVIDIA-GPU (vGPU) werden beim Ausschalten der VM möglicherweise nicht alle GPU-Ressourcen mit mehreren Instanzen gelöscht
Wenn mehrere NVIDIA vGPU-VMs gleichzeitig ausgeschaltet werden, werden gelegentlich einige GPU-Ressourcen (MIG) mit mehreren Instanzen nicht gelöscht. Dies kann dazu führen, dass das Einschalten der nachfolgenden vGPU-VM aufgrund der verbleibenden MIG-Ressourcen fehlschlägt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2944894: Virtuelle Maschinen auf NFSv4.1-Datenspeichern reagieren während eines Speicher-Failovers einige Sekunden lang nicht mehr
Wenn ein NFSv4.1-Server während eines Speicher-Failovers einen vorübergehenden Fehler zurückgibt, können in seltenen Fällen virtuelle Maschinen 10 Sekunden lang nicht reagieren, bevor der Vorgang neu gestartet wird.
Dieses Problem wurde in der vorliegenden Version behoben. Die Korrektur reduziert die Wartezeit für die Wiederherstellung während des Speicher-Failovers.
- PR 2916980: Ein ESXi-Host fällt möglicherweise mit einem violetten Diagnosebildschirm aus, weil ein Paket an einem anderen Portset abgeschlossen wurde
In seltenen Fällen kann es vorkommen, dass der Paketabschluss nicht am ursprünglichen Port oder Portset, sondern an einem anderen Portset erfolgt, was zu einer Schleife führen kann, die die Paketliste mit einem ungültigen Zeiger beschädigt. Infolgedessen fällt ein ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm aus. In den Protokollen wird beispielsweise folgender Fehler angezeigt:
PF Exception 14 in world 61176327:nsx.cp.tx IP 0xxxxxx addr 0x3c
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2925733: In der vSphere API zählt das Feld „memoryRangeLength“ von „NumaNodeInfo“ nicht immer den gesamten Arbeitsspeicher im zugehörigen NUMA-Knoten des ESXi-Hosts
Der Arbeitsspeicher im NUMA-Knoten eines ESXi-Hosts besteht möglicherweise aus mehreren physischen Bereichen. In ESXi-Versionen vor 7.0 Update 3f gibt das Feldpaar
memoryRangeBegin
,memoryRangeLength
inNumaNodeInfo
die physikalische Startadresse des Hosts und die Länge des Bereichs im NUMA-Knoten an, wobei alle zusätzlichen Bereiche ignoriert werden.Dieses Problem wurde in der vorliegenden Version behoben. Das Feld
memoryRangeLength
wird auf die Gesamtmenge des Arbeitsspeichers im NUMA-Knoten festgelegt, die über alle physischen Bereiche summiert wird. Das FeldmemoryRangeBegin
ist auf 0 festgelegt, da diese Informationen bei mehreren Bereichen nicht aussagekräftig sind. - PR 2932736: Wenn Sie den schnellen Pfad für das Hochleistungs-Plug-In (High-Performance Plug-in, HPP) für 512e Software Emulated 4KN-Geräte aktivieren, schlagen E/A-Vorgänge möglicherweise fehl
Wenn Sie den schnellen Pfad auf HPP für 512e Software Emulated 4KN-Geräte aktivieren, funktioniert er nicht wie erwartet, da der schnelle Pfad nicht mit Read-Modify-Write(R-M-W) umgehen kann, das den langsamen Pfad verwenden muss. Die Verwendung des schnellen Pfads auf 4KN-Geräten wird nicht unterstützt.
Dieses Problem wurde in der vorliegenden Version behoben. Der Fix stellt sicher, dass die Einstellung auch dann ignoriert wird, wenn der schnelle Pfad für 512e Software Emulated 4KN-Geräte aktiviert ist und die E/A-Vorgänge den langsamen Pfad nehmen.
- PR 2860126: Beim Löschen von Snapshots großer virtueller Festplatten wird eine ausgeführte VM möglicherweise vorübergehend eingefroren
Wenn Sie über eine ausgeführte VM mit virtuellen Festplatten mit mehr als 1 TB verfügen und einen Snapshot der Festplatten auf dieser VM löschen, friert die VM möglicherweise für Sekunden oder sogar Minuten ein. Die VM wird letztendlich wiederhergestellt, bei VM-Arbeitslasten können jedoch Ausfälle auftreten. Das Problem tritt auf, weil der Löschvorgang die Konsolidierung von Snapshots im Hintergrund auslöst, was die Verzögerung verursacht. Das Problem tritt eher bei langsamerem Speicher auf, wie z. B. NFS.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2875070: ESXi-Hosts fallen möglicherweise aufgrund falsch verarbeiteter DVFilter-Pakete mit einem violetten Diagnosebildschirm aus
DVFilter-Pakete werden möglicherweise fälschlicherweise an einen Netzwerkport übertragen, an dem der Paketabschlusscode nicht ausgeführt werden kann. Infolgedessen fallen ESXi-Hosts mit einem violetten Diagnosebildschirm und dem Fehler
PF Exception 14 Vmxnet3VMKDevTxCompleteOne E1000DevTxCompleteOneWork
aus.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2883317: Virtuelle Maschinen verlieren möglicherweise zeitweise die Konnektivität aufgrund eines seltenen Problems mit der verteilten Firewall (DFW)
In seltenen Fällen sendet die DFW möglicherweise eine Paketliste an das falsche Portset. Dies kann dazu führen, dass der VMkernel-Dienst fehlschlägt und virtuelle Maschinen die Konnektivität verlieren. In der Datei
vmkernel.log
werden Fehler ähnlich dem Folgenden angezeigt:2021-09-27T04:29:53.170Z cpu84:xxxx)NetPort: 206: Fehler: lockModel[0] vs psWorldState->lockModel[0] there is no portset lock holding.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2944521: Sie können vom Hochleistungs-Plug-In (High-Performance Plug-In, HPP) beanspruchte Geräte nicht umbenennen
Ab vSphere 7.0 Update 2 wird HPP das Standard-Plug-In für lokale NVMe- und SCSI-Geräte und ersetzt das native Multipathing-Plug-In (NMP) von ESX. In bestimmten Umgebungen führt die Änderung von NMP zu HPP jedoch dazu, dass auf einige Eigenschaften von Geräten, die von HPP beansprucht werden, wie z. B. den Anzeigenamen, nicht zugegriffen werden kann.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2945697: Auf einem ESXi-Host werden möglicherweise veraltete Pfadstatus zu ALUA-Geräten angezeigt
Wenn in einem ALUA-Ziel die Zielportgruppen-IDs (TPGIDs) für eine LUN geändert werden, wird die vom SATP verwendete Antwort zur Geräteidentifikation im Cache möglicherweise nicht entsprechend aktualisiert. Dies führt dazu, dass ESXi möglicherweise nicht die korrekten Pfadstatus für das entsprechende Gerät wiedergibt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2946036: RTPG für alle Pfade zu einem Volume meldet denselben ALUA-Zugriffsstatus für Geräte, die mithilfe der NVMe-SCSI-Übersetzung auf einer LUN registriert wurden
Wenn Sie den NVMe-SCSI-Übersetzungs-Stack zum Registrieren von NVMe-Geräten in Ihrem System verwenden, erhalten die Eigenschaften
targetPortGroup
undrelativeTargetPortId
die Controller-ID0
für alle Pfade. Dies führt dazu, dass ein RTPG-Befehl denselben ALUA-Zugriffsstatus für alle Pfade des Namespace zurückgibt, da dietpgID
jedes Pfads mit dem ersten Deskriptor übereinstimmt, der0
ist.Dieses Problem wurde in der vorliegenden Version behoben. Wenn Sie Plug-Ins von Drittanbietern verwenden und in den tpg-Deskriptoren keine
tpgID
für den Pfad vorhanden ist (eine leere ANA-Seite für den Controller), müssen Sie den RTPG-Befehl in diesem bestimmten Pfad ausführen, um die ANA-Seite für diesen Controller aufzufüllen und den tpg-Deskriptor und ALUA-Status für den Pfad abzurufen. - PR-2943674: Die Integritätsprüfung des vSAN-Dateidiensts gibt eine Warnung aus, nachdem das Kennwort der AD-Benutzerdomäne geändert wurde: Dateiserver nicht gefunden
Wenn das Kennwort für den Administrator des Dateidiensts auf dem Active Directory-Server geändert wird, stimmt das Kennwort in der Domänenkonfiguration des vSAN-Dateidiensts möglicherweise nicht überein. Wenn die Kennwörter nicht übereinstimmen oder das Konto gesperrt ist, kann möglicherweise auf einige Dateifreigaben nicht zugegriffen werden. Der vSAN-Integritätsdienst zeigt die folgende Warnung an:
Dateidienst: Dateiserver nicht gefunden
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2944919: In vSphere Virtual Volumes-Datenspeichern werden VM-Festplatten (VMDK) mit veralteter Bindung angezeigt
Wenn Sie einen ESXi-Host nach einem Ausfall neu installieren, bleiben veraltete Bindungen von VMDKs beim VASA-Anbieter und in den vSphere Virtual Volumes-Datenspeichern intakt, da die ausgefallene Instanz nie neu gestartet wird. Infolgedessen können Sie bei einer Neuinstallation des Hosts die VMDKs aufgrund der vorhandenen Bindung nicht löschen. Im Laufe der Zeit können sich viele solche VMDKs ansammeln und ungenutzten Speicherplatz verbrauchen.
Dieses Problem wurde in der vorliegenden Version behoben. Sie müssen sich jedoch an VMware Global Support Services wenden, um die Aufgabe zu implementieren.
- PR 2912213: Der hostd-Dienst schlägt möglicherweise wiederholt auf virtuellen Maschinen mit seriellen Geräten fehl, bei denen die Eigenschaft „fileName“ fehlt und die Eigenschaft „serial.autodetect“ auf „FALSE“ eingestellt ist.
In seltenen Fällen verfügt ein serielles Gerät auf einer virtuellen Maschine nicht über die Eigenschaft
serial<N>.fileName
, während gleichzeitig die Eigenschaftserial<N>.autodetect
aufFALSE
festgelegt ist. Dies kann dazu führen, dass der hostd-Dienst wiederholt fehlschlägt.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2951234: Wenn Sie eine Option des Traffic-Shaping-Richtlinien-Switches oder der Portgruppenebene mit einer Größe von mehr als 2147483 KBit/s festlegen, werden die Einstellungen nicht gespeichert
Wenn Sie im vSphere Client eine der Traffic-Shaping-Optionen wie „Durchschnittliche Bandbreite“, „Spitzenbandbreite“ oder „Burstgröße“ auf einen Wert festlegen, der größer als 2147483 KBit/s ist, werden die Einstellungen nicht beibehalten.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR-2945707: vSphere vMotion-Vorgänge schlagen nach dem Upgrade auf ESXi 7.x für Umgebungen fehl, die mit vSphere APIs for Array Integration (VAAI) für Network-Attached Storage (NAS) konfiguriert sind
Aufgrund der geringen Standardanzahl an Dateideskriptoren können einige Funktionen wie vSphere vMotion nach dem Upgrade auf ESXi 7.x in VAAI für NAS-Umgebungen wegen der unzureichenden Anzahl an VMDK-Dateien, die gleichzeitig ausgeführt werden können, fehlschlagen. In der Datei
syslog.log
werden Fehler wieZu viele offene Dateien
in den Protokollen desvaai-nas
-Daemon angezeigt.Dieses Problem wurde in der vorliegenden Version behoben. Die Standardanzahl der Dateideskriptoren beträgt maximal 64.000 von derzeit 256.
- PR 2952427: Virtuelle Maschinen reagieren aufgrund eines Deadlock-Problems auf einem VMFS6-Volume möglicherweise nicht mehr
Wenn in seltenen Fällen eine E/A-Anforderung parallel mit einem vom Gastbetriebssystem ausgelösten Aufhebevorgang auf einer Thin-Provisioning-VM ausgeführt wird, kann es in manchen Fällen zu einem Deadlock auf einem VMFS6-Volume kommen. Folglich reagieren virtuelle Maschinen auf diesem Volume nicht mehr.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR-2876044: vSphere Storage vMotion- oder Hot-Add-Vorgänge (Hinzufügen im laufenden Betrieb) schlagen auf virtuellen Maschinen mit einer virtuellen Arbeitsspeichergröße von mehr als 300 GB möglicherweise fehl
Bei vSphere Storage vMotion- oder Hot-Add-Vorgängen auf einer virtuellen Maschine mit mehr als 300 GB Arbeitsspeicher kann sich die Switchover-Zeit 2 Minuten nähern, was zu einem Zeitüberschreitungsfehler führt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2952003: Während des Startvorgangs können iSCSI-Konfigurationen möglicherweise nicht wiederhergestellt werden, und nach dem Start werden einige LUNs oder Datenspeicher nicht angezeigt
Wenn Sie die Port-Bindung nicht entfernen, nachdem Sie eine VMkernel-Netzwerkkarte gelöscht haben, die an einen iSCSI-Adapter gebunden ist, kann die veraltete Port-Bindung Probleme nach einem Neustart des ESXi-Hosts verursachen. Während des Startvorgangs schlägt die Bindung der nicht vorhandenen VMkernel-Netzwerkkarte an den iSCSI-Adapter fehl, und iSCSI-Konfigurationen können während des Startvorgangs nicht wiederhergestellt werden. Infolgedessen werden nach Abschluss des Neustarts möglicherweise einige LUNs oder Datenspeicher nicht angezeigt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2957062: NFSv4.1-Datenspeicher verbleibt nach einem Speicher-Failover im Status „Kein Zugriff“
Nach einem Speicher-Failover erkennt der ESXi NFSv4.1-Client den NFS-Server fälschlicherweise als eine andere Einheit und überspringt die Wiederherstellung. Dies führt dazu, dass der NFSv4.1-Datenspeicher im Status Kein Zugriff verbleibt.
Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass der NFSv4.1-Client den NFS-Server nach einem Failover erkennt.
- PR 2961033: Wenn ein NVMe-Gerät eine kritische Warnung meldet, schlägt die Initialisierung bei ESXi fehl, und das Gerät wird offline geschaltet
In einigen Fällen, z. B. wenn die Temperatur den Schwellenwert überschreitet, meldet ein NVMe-Gerät möglicherweise eine kritische Warnung, und der ESXi NVMe-Controller registriert das Gerät nicht und schaltet es offline.
Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass NVMe-Geräte unabhängig von kritischen Warnungen beim ESXi NVMe-Controller registriert werden. Wenn sich das Gerät in einem fehlerhaften Zustand und nicht in einem vorübergehenden Zustand befindet, beispielsweise hohe Temperatur, muss die Firmware des NVMe-Controllers bei der Verarbeitung eines E/A-Admin-Befehls entsprechende Fehlercodes senden.
- PR 2928202: Sie können im vSAN-Dateidienst auf einige Freigaben nicht zugreifen, und es werden Warnungen vom VDFS-Daemon angezeigt
Ein seltenes Problem, bei dem der verwendete Block-Cache den reservierten Cache überschreitet, kann zu Reservierungsproblemen im vSAN-Dateidienst führen. Infolgedessen können Sie einige Dateifreigaben nicht erreichen, und die Integritätsprüfung zeigt den Fehler
VDFS-Daemon wird nicht ausgeführt
. Imvdfsd-server
-Protokoll werden Fehler ähnlich dem Folgenden angezeigt:PANIC: NOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp:621
PANIC: NOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp:626
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2949902: OVF-Dateien werden möglicherweise unerwartet geändert, und virtuelle Maschinen können nicht importiert werden
In seltenen Fällen können Suchabfragen im Hintergrund, die von vCenter Server auf einem ESXi-Host mit Zugriff auf die VMDK-Dateien virtueller in ein OVF-Format exportierter Maschinen ausgeführt werden, die Dateien versehentlich ändern. Infolgedessen können Sie die virtuellen Maschinen nicht importieren.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2963401: Sie können keine Multipathing-PSA-Beanspruchungsregel mithilfe des JumpStart-Tools hinzufügen
Aufgrund eines Komponentenlastproblems schlägt das Hinzufügen einer Multipathing-PSA-Beanspruchungsregel zum Satz von Beanspruchungsregeln auf einem vCenter Server-System unter Verwendung des JumpStart-Tools möglicherweise fehl.
Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass alle erforderlichen Komponenten geladen werden, um die Verwendung des JumpStart-Tools zu aktivieren.
- PR 2965235: LUN-Trespasses können in ALUA-Arrays (Asymmetric Logical Unit Access) beim Herunterfahren oder Starten von ESXi 7-Hosts auftreten
Nach einem kontrollierten Herunterfahren oder Starten eines Servers in einem Cluster von ESXi-Servern, die mit einem ALUA-Array verbunden sind, werden alle LUNs, auf die dieser Server Zugriff hat, möglicherweise auf einen Speicherprozessor im Array übertragen. Infolgedessen verschlechtert sich die Leistung der anderen ESXi-Server, die auf die LUNs zugreifen.
Dieses Problem wurde in der vorliegenden Version behoben. Durch die Behebung wird eine Prüfung hinzugefügt, bevor der letzte Pfad auf dem Ziel während der Abschaltphase aktiviert wird, um LUN-Trespassing zu verhindern.
- PR 2966783: ESXi-Host fällt möglicherweise aufgrund eines seltenen Fehlers bei der Arbeitsspeicherzuteilung durch PSA mit einem violetten Diagnosebildschirm aus
Bei einer hohen Arbeitsspeicherbelastung eines ESXi-Hosts verarbeitet PSA in seltenen Fällen Fehler bei der Arbeitsspeicherzuteilung nicht ordnungsgemäß. Infolgedessen fällt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm und einem Fehler wie
#PF Exception 14 in world 2098026:SCSI path sc IP / SCSI path scan helpers
aus.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2984134: Wenn eine virtuelle Maschine neu gestartet wird, während ein Snapshot gelöscht wird, fällt die VM möglicherweise mit einem Core-Dump aus
Wenn eine ausgeführte virtuelle Maschine während eines Snapshot-Löschvorgangs neu gestartet wird, werden die VM-Festplatten möglicherweise während der Snapshot-Konsolidierung nicht ordnungsgemäß neu geöffnet und geschlossen. Infolgedessen fällt die VM möglicherweise aus. Dies ist jedoch ein Zeitproblem, das versehentlich auftritt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2929443: Das Mounten von VMFS6-Datenspeichern mit aktivierter Cluster-VMDK-Unterstützung schlägt möglicherweise zufällig fehl
Während der Geräteerkennung kann ein Reservierungskonflikt dazu führen, dass ATS fälschlicherweise als
nicht unterstützt
gemeldet wird. Aus diesem Grund verwendet ESXi die SCSI-2-Reservierung anstelle von ATS. Dies führt dazu, dass das Mounten von VMFS6-Datenspeichern mit aktivierter Cluster-VMDK-Unterstützung möglicherweise zufällig fehlschlägt.Dieses Problem wurde in der vorliegenden Version behoben.
- PR-2957732: vSAN-Dateidienstserver können nach einer Host-UUID-Änderung nicht gestartet werden
Bei einigen Vorgängen kann die Host-UUID geändert werden. Wenn Sie beispielsweise ESXi-Software neu installieren oder den Host zwischen Clustern verschieben, kann sich die Host-UUID gegebenenfalls ändern. Wenn sich die Host-UUID während des Ausfalls des vSAN-Dateidiensts ändert, können vSAN-Dateidienstserver nicht gestartet werden.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR-2955688: Der vSAN-Dateidienst funktioniert möglicherweise nicht wie erwartet, nachdem er deaktiviert und erneut aktiviert wurde
Wenn Sie den vSAN-Dateidienst ohne vorhandene Dateifreigaben deaktivieren, entfernt vSAN die Dateidienstdomäne. Ein Entfernungsfehler eines Servers unterbricht möglicherweise den Prozess und hinterlässt einige Metadaten. Wenn Sie den Dateidienst erneut aktivieren, funktioniert der Dateidienst aufgrund der alten Metadaten möglicherweise nicht wie erwartet.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2965146: Der vom Befehl „Zielportgruppen des SCSI-Berichts“ zurückgegebene Wert IMPLIZITE ÜBERGANGSZEIT ist möglicherweise nicht korrekt
Der Befehl „Zielportgruppen des Berichts“ gibt möglicherweise im Feld IMPLIZITE ÜBERGANGSZEIT einen falschen Wert zurück, was sich auf die SCSI-zu-NVMe-Übersetzungsschicht auswirkt. In Fällen wie der Migration mehrerer Appliances ist die Zeit für den ALUA-Übergang für Multipathing-Software, beispielsweise PowerPath, zur Durchführung korrekter Vorgänge von entscheidender Bedeutung.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2992648: Hohe Latenzen nach Neustart oder erneutem Mounten der Festplattengruppe beobachtet
Kleine ausstehende Zuordnungsaufhebungen werden möglicherweise blockiert, wenn Sie einen Host neu starten oder eine Festplattengruppe erneut mounten. Die ausstehenden Zuordnungsaufhebungen können zu einer Protokollüberlastung führen, die E/A-Latenz zur Folge hat.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2964856: Pfad zum Verzeichnis /productLocker auf einem Datenspeicher wird nach dem Patchen von ESXi 7.x gekürzt
Nach dem ersten Upgrade oder Update Ihres Systems auf ESXi 7.x findet bei jedem nachfolgenden Update, das auch als Patch bezeichnet wird, möglicherweise eine Kürzung der Angaben im Pfad zum Verzeichnis
/productLocker
in einem Datenspeicher statt. Wenn Ihr erster Patch auf ESXi 7.x beispielsweise von 7.0 Update 2 zu 7.0 Update 3 führt, ist das Verzeichnis/productLocker
ursprünglich dem Verzeichnis/vmfs/volumes/xxx/VMware-Tools/productLocker/
ähnlich. Für jeden nachfolgenden Patch, z. B. von 7.0 Update 3 auf 7.0 Update 3c, ähnelt der Pfad jedoch/VMware-Tools/productLocker/
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2963038: Nicht zugängliches Objekt in einem vSAN Stretched Cluster oder einem Cluster mit zwei Knoten
In einem vSAN Stretched Cluster oder einem Cluster mit zwei Knoten werden quorumbasierte Entscheidungen für Objekte mit PFTT von 1 und SFTT von 1 oder mehr möglicherweise nicht ordnungsgemäß verteilt. Wenn eine Site ausfällt und ein zusätzlicher Host oder eine zusätzliche Festplatte auf der aktiven Site ausfällt, verliert das Objekt möglicherweise das Quorum, und es kann nicht mehr darauf zugegriffen werden.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2961832: ESXi-Hosts fallen möglicherweise beim Ändern der Größe einer nicht auf 512 Byte ausgerichteten VMDK aus
Eine Anforderung zur Größenänderung eines Objekts kann fehlschlagen, wenn die neue Größe nicht auf 512 Byte ausgerichtet ist. Dieses Problem kann dazu führen, dass ein ESXi-Host mit einem violetten Diagnosebildschirm ausfällt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2935355: Möglicherweise wird auf einem ESXi-Host ein erhöhter CPU-Verbrauch aufgrund eines Verlusts des Dienstprogramms PacketCapture (pktcap-uw) angezeigt
In einigen Fällen, z. B. beim Neustart einer virtuellen Maschine, kann eine laufende SSH-Sitzung, die das Dienstprogramm „pktcap-uw“ zur Überwachung und Validierung von Switch-Konfigurationen auf dem ESXi-Host verwendet, beendet werden. Das Dienstprogramm „pktcap-uw“ versucht möglicherweise weiterhin, Pakete zu verarbeiten. Dies führt dazu, dass das Dienstprogramm mehr CPU verbraucht als normal. Mit dem Befehl
esxtop -a
können Sie die CPU-Leistung nachverfolgen.Dieses Problem wurde in der vorliegenden Version behoben. Der Fix verhindert Verluste durch das Dienstprogramm pktcap-uw, die zu einem erhöhten CPU-Verbrauch führen. Mit dem Befehl
ps -u | grep pktcap
können Sie feststellen, ob ein Prozess des Dienstprogramms „pktcap-uw“ im Hintergrund ausgeführt wird, obwohl sich dies nicht auf die CPU-Leistung auswirkt. Wenn ein Zombie-Prozess weiterhin ausgeführt wird, können Sie den Befehlkill -9
verwenden, um ihn zu beenden. - PR-2973031: vSAN-Integritätsprüfung zeigt ein zertifiziertes NVMe-Gerät als nicht zertifiziert an
Auf einem vCenter Server unter 7.0 Update 3 kann ein zertifiziertes NVMe-Gerät die folgende Warnung für die Integritätsprüfung aufweisen:
NVMe-Gerät ist nicht für VMware zertifiziert
. Möglicherweise wird auch die folgende Integritätsprüfungswarnung angezeigt:NVMe-Gerät kann nicht identifiziert werden
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2968157: Der ESXCLI-Befehl „hardware ipmi bmc get“ gibt die IPv6-Adresse eines IPMI Baseboard Management Controllers (BMC) nicht zurück
Der ESXCLI-Befehl
hardware ipmi bmc get
gibt aufgrund einer falschen Analyse die IPv6-Adresse eines BMC nicht zurück.Dieses Problem wurde in dieser Version behoben.
- PR 2963328: Der Assistent zum Herunterfahren fällt für einen vSAN Stretched Cluster oder einen vSAN-Cluster mit zwei Knoten mit dem folgenden Fehler aus: Getrennter Host von Orch gefunden
Wenn der Zeugenhost von Clusterhosts nicht erreicht werden kann, fällt der Assistent zum Herunterfahren des vSAN-Clusters für einen Stretched Cluster oder einen Cluster mit zwei Knoten möglicherweise aus. Dieses Problem tritt auf, wenn für den vSAN-Datenverkehr und den Zeugen-Datenverkehr verschiedene vmknics verwendet werden. Im vSphere Client wird die folgende Fehlermeldung auf der Seite „vSAN-Dienste“ angezeigt:
Getrennter Host von Orch gefunden <Zeugen-IP>
. Wenn vCenter im Cluster gehostet wird, ist der vSphere Client beim Herunterfahren nicht verfügbar, und die Fehlermeldung wird auf dem Host Client angezeigt, auf dem sich die vCenter-VM befindet.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2882789: Beim Durchsuchen eines vSphere Virtual Volumes-Datenspeichers wird die UUID einiger virtueller Maschinen anstelle ihres Namens angezeigt
Wenn Sie im vSphere Client mit der rechten Maustaste klicken, um einen Datenspeicher zu durchsuchen, wird anstelle der Namen möglicherweise die UUID einiger virtueller Maschinen in einem vSphere Virtual Volumes-Datenspeicher angezeigt, wie z. B.
naa.xxxx
. Dieses Problem tritt nur selten in großen Umgebungen mit einer großen Anzahl von Containern und VMs in einem vSphere Virtual Volumes-Datenspeicher auf. Das Problem hat keine funktionalen Auswirkungen, wie z. B. Auswirkungen auf VM-Vorgänge, Sicherungen oder andere Elemente als die VM-Anzeige im vSphere Client.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2928268: Ein seltenes Problem im Zusammenhang mit der ESXi-Infrastruktur kann dazu führen, dass ESXi-Hosts nicht mehr reagieren
Aufgrund eines seltenen Problems im Zusammenhang mit der ESXi-Infrastruktur kann ein langsamer VASA-Anbieter eine Situation auslösen, in der auf die vSphere Virtual Volumes-Datenspeicher nicht zugegriffen werden kann und der ESXi-Host nicht mehr reagiert.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2946550: Wenn Sie einen ESXi-Host herunterfahren, wird er nicht ausgeschaltet, und es wird eine Fehlermeldung angezeigt
Wenn Sie in bestimmten Umgebungen einen ESXi-Host herunterfahren, wird dieser nicht ausgeschaltet, und es wird ein Bildschirm mit der Meldung
Dieses System wurde angehalten angezeigt. Mit der Schaltfläche zum Zurücksetzen oder zum Ein-/Ausschalten kann ein sicherer Neustart durchgeführt werden.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2949777: Wenn die Einstellung LargeBAR eines vmxnet3-Geräts auf ESX 7.0 Update 3 und höher aktiviert ist, verlieren virtuelle Maschinen möglicherweise die Konnektivität
Die Einstellung
LargeBAR
, die das Basisadressregister (Base Address Register, BAR) auf einem vmxnet3-Gerät erweitert, unterstützt einheitliches Passthrough (Uniform Passthrough, UPT). UPT wird jedoch unter ESX 7.0 Update 3 und höher nicht unterstützt, und wenn der vmxnet3-Treiber auf eine Version vor 7.0 herabgestuft wird und die EinstellungLargeBAR
aktiviert ist, verlieren die virtuellen Maschinen möglicherweise die Konnektivität.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2984245: Redundante Redo-Protokolldateien belegen erheblichen Speicherplatz
Wenn Sie unabhängige, nicht dauerhafte Festplatten im laufenden Betrieb von einer virtuellen Maschine entfernen, für die der Konfigurationsparameter
vmx.reboot.PowerCycle
aktiviert ist, speichert ESXi eine Redo-Protokolldatei. Wenn es sich bei einer solchen VM um eine Sicherungs-Proxy-VM handelt, werden möglicherweise viele redundante Redo-Protokolldateien angezeigt, die einen erheblichen Teil des Speichers in Anspruch nehmen.Problemumgehung: Deaktivieren Sie den Parameter
vmx.reboot.PowerCycle
auf den Backup-Proxy-VMs entweder durch Ein-/Ausschalten der VM oder mit dem CmdletPowerCLI Set-AdvancedSetting
. Löschen Sie die redundanten Redo-Protokolldateien. - PR 2939395: ESXi-Hosts fallen zeitweise mit einem violetten Diagnosebildschirm mit einem Speicherabbild aus, das die J3_DeleteTransaction- und J6ProcessReplayTxnList-Fehler anzeigt
Wenn ein ESXi-Host versucht, über einen Ressourcenpool-Cache auf einen nicht im Cache enthaltenen Eintrag zuzugreifen, fällt der Host zeitweise mit einem violetten Diagnosebildschirm
PF Exception 14
und einer Core-Dump-Datei aus. In der Dump-Datei werden Fehler für die ModuleJ3_DeleteTransaction
undJ6ProcessReplayTxnList
angezeigt, die auf das Problem hinweisen.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2952432: ESXi-Hosts reagieren möglicherweise aufgrund eines seltenen Problems mit VMFS, das zu einem hochgradigen Sperrungskonflikt bei hostd-Dienst-Threads führt, nicht mehr
Ein seltenes Problem im Zusammenhang mit VMFS kann bei grundlegenden Dateisystemaufrufen wie
open
,access
oderrename
zu hochgradigen Sperrungskonflikten bei hostd-Dienst-Threads oder sogar zu Deadlocks führen. Folglich reagiert der ESXi-Host nicht mehr.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2960882: Wenn MD5 als Authentifizierungsprotokoll in einer ESXi-SNMP-Agent-Konfiguration verwendet wird, schlagen Upgrades auf ESXi 7.x möglicherweise fehl
Da das MD5-Authentifizierungsprotokoll ab ESXi 7.x nicht mehr unterstützt wird, schlagen Upgrades auf ESXi 7.x fehl, wenn für eine ESXi-SNMP-Agent-Konfiguration das MD5-Authentifizierungsprotokoll verwendet wird.
Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird das MD5-Authentifizierungsprotokoll entfernt, und es wird eine VOB-Meldung (VMkernel Observation) angezeigt, wie z. B.
Upgrade hat ein schwaches Verschlüsselungsprotokoll (MD5) erkannt und entfernt. Generieren Sie v3-Benutzer neu.
- PR 2957966: Leerzeichen im Parameter „Syslog.global.logHost“ haben möglicherweise zur Folge, dass Upgrades auf ESXi 7.x fehlschlagen
In ESXi 7.x toleriert der Parameter
Syslog.global.logHost
, der eine kommagetrennte Liste von Remote-Hosts und Spezifikationen für Nachrichtenübertragungen definiert, keine Leerzeichen nach dem Komma. ESXi-Versionen vor 7.x tolerieren im ParameterSyslog.global.logHost
ein Leerzeichen nach dem Komma. Dies kann dazu führen, dass Upgrades auf ESXi 7.x fehlschlagen.Dieses Problem wurde in der vorliegenden Version behoben. Der Fix lässt Leerzeichen nach dem Komma zu.
- PR 2967359: Möglicherweise wird ein logischer, konsistenzbasierter E/A-Fehler für virtuelle Maschinen angezeigt, die in einem Snapshot ausgeführt werden
Ein Problem im Zusammenhang mit der probabilistischen Datenstruktur „Bloom-Filter“, die die Lese-E/A für in einem Snapshot ausgeführte VMs optimieren soll, kann zu einem logischen, konsistenzbasierten E/A-Fehler führen, wenn die VM auf einem Snapshot ausgeführt wird. Das Problem ist begrenzt und tritt nur auf, wenn Sie SQL Server in einem Snapshot ausführen.
Dieses Problem wurde in der vorliegenden Version behoben. Der Fix deaktiviert die Verwendung des Bloom-Filters, bis die Hauptursache des Problems behoben ist.
- PR 2974376: ESXi-Hosts fallen aufgrund einer seltenen CPU-Sperre mit einem violetten Diagnosebildschirm mit einem NMI-Fehler aus
Ein Problem mit dem Prozess, der Datenspeicher zur Unterstützung von Dateiblockzuteilungen für Thin-Dateien prüft, kann in bestimmten Fällen zu einer CPU-Sperre führen. Dies führt dazu, dass der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm und einer Fehlermeldung ähnlich der folgenden ausfällt:
PSOD - @BlueScreen: NMI
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2905357: In den hostd-Protokolldateien werden ungewöhnlich viele Meldungen vom Typ „Task Created“ und „Task Completed“ angezeigt
Die Protokolldateien des hostd-Diensts erhalten möglicherweise eine ungewöhnlich hohe Anzahl von Meldungen des Typs
Task Created
undTask Completed
für unsichtbare Aufgaben, was wiederum die Aufbewahrungszeit für Protokolle verringern kann.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2956080: Lese- und Schreibvorgänge in einem vSphere Virtual Volumes-Datenspeicher schlagen möglicherweise fehl
Wenn ein SCSI-Befehl für einen Protokollendpunkt eines vSphere Virtual Volumes-Datenspeichers fehlschlägt, erhält der Endpoint möglicherweise den Status „Nicht unterstützt“, der möglicherweise zwischengespeichert wird. Dies führt dazu, dass die folgenden an diesen Protokollendpunkt gerichteten SCSI-Befehle mit einem Fehlercode wie
0x5 0x20
fehlschlagen und Lese- und Schreibvorgänge in einem vSphere Virtual Volumes-Datenspeicher fehlschlagen.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2985369: Wenn der NVMe-Controller den Status FEHLGESCHLAGEN meldet, geht möglicherweise die Konnektivität zu ESXi-Hosts verloren
In einigen Fällen, z. B. bei einem Portausfallfehler, verlieren ESXi-Hosts möglicherweise die Konnektivität zum NVMe-Controller, obwohl einige E/A-Warteschlangen weiterhin aktiv sind.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2892901: Wenn die Festplatte einer replizierten virtuellen Maschine nicht auf 512 ausgerichtet ist, kann die VM möglicherweise nicht eingeschaltet werden
Wenn Sie eine virtuelle Maschine mithilfe von vSphere Replication replizieren, und die VM-Festplatte auf eine Zahl erhöht wird, die nicht auf 512 ausgerichtet ist, kann die VM nicht eingeschaltet werden.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2912230: Wenn die Anzahl der CPUs kein Vielfaches der Anzahl der Kerne pro Socket in der Konfiguration einer virtuellen Maschine ist, kann die VM nicht eingeschaltet werden
Wenn die Anzahl der CPUs, die Sie mit dem Parameter
ConfigSpec#numCPUs
konfigurieren, kein Vielfaches der Kerne pro Socket ist, die Sie in der Konfiguration einer virtuellen Maschine mit dem ParameterConfigSpec#numCoresPerSocket
definieren, lässt sich die VM nicht einschalten.Dieses Problem wurde in der vorliegenden Version behoben. Der Fix hindert Sie daran, einen Wert für
numCPUs
festzulegen, der kein Vielfaches des WertsnumCoresPerSocket
ist. - PR-2949375: vSAN-Host im Stretched Cluster kann nicht mit dem Modus „Zugriff sicherstellen“ in den Wartungsmodus wechseln
Dieses Problem betrifft Hosts in Stretched Clustern mit den Richtlinieneinstellungen
locality=None
,HFT=0
,SFT=1
undSFT=2
. Wenn Sie einen Host mit „Zugriff sicherstellen“ in den Wartungsmodus versetzen, bleibt der Vorgang möglicherweise für einen langen Zeitraum bei 100 % oder schlägt nach 60 Minuten fehl.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2950686: Häufige vSAN-Netzwerklatenz-Alarme nach Upgrade auf ESXi 7.0 Update 2
Nach dem Upgrade eines ESXi-Hosts auf 7.0 Update 2 bemerken Sie möglicherweise häufige vSAN-Netzwerklatenz-Alarme für den Cluster, wenn der vSAN-Leistungsdienst aktiviert ist. Die Latenzergebnisse zeigen, dass die meisten Alarme vom primären vSAN-Knoten ausgegeben werden.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2928789: Nach dem Update von ESXi 7.0, 7.0 Update 1 oder 7.0 Update 2 auf 7.0 Update 3c ist der Zugriff auf NVMe over RDMA-Speicher nicht mehr möglich
Aufgrund einer Größenänderung der standardmäßigen Admin-Warteschlange für NVMe over RDMA-Controller in ESXi 7.0 Update 3c kann es vorkommen, dass nach Updates von ESXi 7.0, 7.0 Update 1 oder 7.0 Update 2 auf 7.0 Update 3c nicht mehr auf NVMe over RDMA-Speicher zugegriffen werden kann.
Dieses Problem wurde in der vorliegenden Version behoben. Wenn Sie ein Update auf ESXi 7.0 Update 3c durchführen müssen, können Sie das im VMware-Knowledgebase-Artikel 88938 angehängte Skript vor dem Update ausführen, um sicherzustellen, dass das Problem behoben wurde.
- PR 2983089: Ein ESXi-Host schlägt möglicherweise aufgrund einer Race-Bedingung in Container-Ports mit einem violetten Diagnosebildschirm fehl
Aufgrund einer seltenen Race-Bedingung beim Versuch eines Container-Ports, eine bereits abgerufene Sperre erneut abzurufen, kann ein ESXi-Host mit einem violetten Diagnosebildschirm fehlschlagen, wenn virtuelle Maschinen mit Container-Ports ausgeschaltet werden oder eine Migration mit vSphere vMotion durchführen. Dieses Problem tritt aufgrund der Duplizierung von Port-IDs auf.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2925133: Wenn Sie vSphere Fault Tolerance deaktivieren oder anhalten, kommt es beim Pingen von virtuellen Maschinen möglicherweise zu einer Zeitüberschreitung
Wenn Sie vSphere FT deaktivieren oder anhalten, verlieren virtuelle Maschinen möglicherweise vorübergehend die Konnektivität und reagieren nicht auf Ping- oder Netzwerkdatenverkehr. Beim Pingen von virtuellen Maschinen treten möglicherweise innerhalb eines kurzen Zeitraums nacheinander Zeitüberschreitungen auf, z. B. innerhalb von 20 Sekunden.
Dieses Problem wurde in der vorliegenden Version behoben.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs loadesx
und esx-update
.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB bnxtnet
.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2929821 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB
lpfc
zur Behebung des folgenden Problems:
- PR 2929821: ESXi-Hosts verlieren nach dem Upgrade des lpfc-Treibers auf 14.0.x.x den Zugriff auf Dell EMC Unity-Speicher-Arrays
ESXi-Hosts verlieren nach dem Upgrade des lpfc-Treibers auf 14.0.x.x möglicherweise den Zugriff auf Unity-Speicher-Arrays. In den Treiberprotokollen werden Fehler wie
Protokollfehler bei der Verarbeitung von FCP-E/A erkannt
undrspInfo3 x2
angezeigt.Dieses Problem wurde in der vorliegenden Version behoben.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Nein |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2960435 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB
lsuv2-lsiv2-drivers-plugin
.
- PR 2960435: Es dauert lange, bis Änderungen am Festplattenspeicherort über den vSphere Client oder mithilfe von ESXCLI sichtbar werden
Bei LSI-bezogenen Treibern kann es beim Hochfahren eines ESXi-Servers, wenn Sie eine Festplatte herausnehmen und in einen anderen Steckplatz auf demselben Host einsetzen, lange dauern, bis Änderungen am Speicherort der Festplatte über den vSphere Client oder mithilfe des ESXCLI-Befehls
esxcli storage core device physical get -d
sichtbar werden. Das Problem besteht speziell bei Treibern, die mit vielen Festplatten (150 und mehr) verbunden sind, und wird innerhalb von 5 Minuten behoben.Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird ein Cache aller Geräte hinzugefügt, die zur Startzeit mit einem LSI-Controller verbunden sind, um sicherzustellen, dass Aufrufe an die fremde Bestandsliste schnell bedient werden.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2965878 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB icen
.
Mit ESXi 7.0 Update 3f unterstützt der Intel-icen-Treiber Netzwerkfunktionen auf E822/E823-Netzwerkkarten für Intel Icelake-D-Plattformen. ENS- (Enhanced Network Stack) und RDMA-Funktionen auf solchen Geräten werden nicht unterstützt.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB irdman
.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Nein |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2957673 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB ne1000
.
ESXi 7.0 Update 3f aktualisiert den Treiber
Intel-ne1000
zur Unterstützung von Intel I219-LM-Geräten, die für neuere Servermodelle erforderlich sind, wie z. B. die Intel Lac-S-Plattform. Der TCP-Segmentierungs-Offload für die I219-Geräte ist aufgrund von bekannten Problemen im Hardware-DMA deaktiviert.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2921564 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB iser
.
- PR 2921564: ESXi-Hosts mit iSER-Initiatoren, die mit IBM FlashSystem V9000-Arrays verbunden sind, fallen aufgrund eines seltenen Problems möglicherweise mit einem violetten Diagnosebildschirm fehl
Ein sehr seltenes Problem aufgrund eines Nullzeigerfehlers kann dazu führen, dass ESXi-Hosts in IBM FlashSystem V9000-Arrays mit einem violetten Diagnosebildschirm und einem Fehler wie zum Beispiel
#PF Exception 14 in world 2098414:CqWorld IP 0xxxxx addr 0xxxx
ausfallen.Dieses Problem wurde in der vorliegenden Version behoben. Durch den Fix wird einem RDMA-Fehlerstatus für einen der SCSI-Verwaltungsbefehle eine spezielle Handhabung hinzugefügt.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB vmkusb
.
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2920287, 2946147, 2946217, 2946222, 2946671, 2946863, 2947156, 2951864, 2951866, 2972147, 2972151 |
CVE-Nummern | CVE-2004-0230, CVE-2020-7451, CVE-2015-2923, CVE-2015-5358, CVE-2013-3077, CVE-2015-1414, CVE-2018-6918, CVE-2020-7469, CVE-2019-5611, CVE-2020-7457, CVE-2018-6916, CVE-2019-5608, CVE-2022-23816, CVE-2022-23825, CVE-2022-28693, CVE-2022-29901 |
Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.
Aktualisiert die VIBs native-misc-drivers, bmcal, esx-ui, vsanhealth, esxio-combiner, esx-xserver, trx, esx-dvfilter-generic-fastpath, vdfs, vsan, cpu-microcode, esx-base, gc
und crx
, um die folgenden Probleme zu beheben:
- ESXi 7.0 Update 3f stellt die folgenden Sicherheits-Updates bereit:
- Der XML-Parser Expat wurde auf Version 2.4.7 aktualisiert.
- Die SQLite-Datenbank wurde auf Version 3.37.2 aktualisiert.
- Die cURL-Bibliothek wurde auf Version 7.81.0 aktualisiert.
- Das OpenSSL-Paket wurde auf Version openssl-1.0.2ze aktualisiert.
- Die userworld-libxml2-Bibliothek von ESXi wurde auf Version 2.9.14 aktualisiert.
- Das Python-Paket wurde auf 3.8.13 aktualisiert.
- Die zlib-Bibliothek wurde auf 1.2.12 aktualisiert.
- In dieser Version wurde CVE-2004-0230 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem niedrigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 3,7.
- In dieser Version wurde CVE-2020-7451 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem mittleren Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 5,3.
- In dieser Version wurde CVE-2015-2923 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem mittleren Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 6,5.
- In dieser Version wurde CVE-2015-5358 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem mittleren Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 6,5.
- In dieser Version wurde CVE-2013-3077 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,0.
- In dieser Version wurde CVE-2015-1414 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2018-6918 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2020-7469 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2019-5611 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2020-7457 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,8.
- In dieser Version wurde CVE-2018-6916 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 8,1.
- In dieser Version wurde CVE-2019-5608 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 8,1.
In dieser Version werden die folgenden Schwachstellen behoben: CVE-2022-23816, CVE-2022-23825, CVE-2022-28693 und CVE-2022-29901. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware-Produkte finden Sie unter VMSA-2022-0020.
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Nein |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Nein |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs loadesx
und esx-update
.
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Nein |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Nein |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB tools-light
.
Profilname | ESXi-7.0U3f-20036589-standard |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 12. Juli 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 2916848, 2817702, 2937074, 2957732, 2984134, 2944807, 2985369, 2907963, 2949801, 2984245, 2915911, 2990593, 2992648, 2905357, 2980176, 2974472, 2974376, 2972059, 2973031, 2967359, 2860126, 2878245, 2876044, 2968157, 2960242, 2970238, 2966270, 2966783, 2963328, 2939395, 2966362, 2946550, 2958543, 2966628, 2961584, 2911056, 2965235, 2952427, 2963401, 2965146, 2963038, 2963479, 2949375, 2961033, 2958926, 2839515, 2951139, 2878224, 2954320, 2952432, 2961346, 2857932, 2960949, 2960882, 2957966, 2929443, 2956080, 2959293, 2944919, 2948800, 2928789, 2957769, 2928268, 2957062, 2792139, 2934102, 2953709, 2950686, 2953488, 2949446, 2955016, 2953217, 2956030, 2949902, 2944894, 2944521, 2911363, 2952205, 2894093, 2910856, 2953754, 2949777, 2925733, 2951234, 2915979, 2904241, 2935355, 2941263, 2912661, 2891231, 2928202, 2928268, 2867146, 2244126, 2912330, 2898858, 2906297, 2912213, 2910340, 2745800, 2912182, 2941274, 2912230, 2699748, 2882789, 2869031, 2913017, 2864375, 2929821, 2957673, 2921564, 2925133, 2965277 |
Verwandte CVE-Nummern | Nicht verfügbar |
- Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
-
pyVmomi-Aufrufe der vSphere API
EnvironmentBrowser.QueryConfigTargetEx
schlagen möglicherweise mitUnknownWsdlTypeError
fehl. -
Das Hardwareintegritätsmodul von ESXi kann möglicherweise einige Sensoren des Typs „Systemereignis“ nicht entschlüsseln, wenn ein physischer Server mit einem neuen Branding versehen wird. Infolgedessen wird im vSphere-Client der Status „Unbekannt“ für Sensoren des Typs „Systemereignis“ unter Überwachung > Hardware-Integrität angezeigt.
-
Wenn Sie die erweiterte Einstellung
vmx.reboot.powerCycle
auf einer virtuellen Maschine aufTRUE
festlegen, wird die virtuelle Maschine ausgeschaltet und dann wieder eingeschaltet, wenn das Gastbetriebssystem einen Neustart initiiert. Wenn jedoch während einer Migration mithilfe von vSphere vMotion ein Ein-/Ausschalten stattfindet, schlägt der Vorgang fehl, und die virtuelle Maschine auf dem Quellhost wird möglicherweise nicht wieder eingeschaltet. -
Wenn bei einem Socket ein Verbindungsfehler auftritt, während er bei der internen Kommunikation zwischen UNIX-Domänen-Sockets abgefragt wird, kann es zu einem Datenrennen kommen. Infolgedessen greift der ESXi-Host in einigen Fällen auf einen ungültigen Arbeitsspeicherbereich zu und fällt mit einem violetten Diagnosebildschirm mit
#PF Exception 14
und Fehlern wieUserDuct_PollSize()
undUserSocketLocalPoll()
aus. -
Wenn ein Hardware-iSCSI-Adapter auf einem ESXi-Host in Ihrer Umgebung Pseudo-Netzwerkschnittstellenkarten verwendet, können Sie möglicherweise kein Hostprofil von einem solchen Host erstellen, da Pseudo-Netzwerkschnittstellenkarten nicht über die erforderliche PCI-Adresse und den Anbieternamen für ein Profil verfügen.
-
Race-Bedingungen im
iscsi_vmk
-Treiber können zu blockierten E/A-Vorgängen oder Taktsignal-Zeitüberschreitungen bei einem VMFS-Datenspeicher führen. Dies kann dazu führen, dass einige virtuelle Maschinen nicht mehr reagieren. -
Der Durchsatz mit Software-iSCSI-Adaptern ist aufgrund hartcodierter Sende- und Empfangspuffergrößen – 600 KB für Sende- bzw. 256 KB für Empfangspuffer – begrenzt. Dies führt dazu, dass die Leistung des
iscsi_vmk
-Adapters nicht optimal ist. -
Wenn mehrere NVIDIA vGPU-VMs gleichzeitig ausgeschaltet werden, werden gelegentlich einige GPU-Ressourcen (MIG) mit mehreren Instanzen nicht gelöscht. Dies kann dazu führen, dass das Einschalten der nachfolgenden vGPU-VM aufgrund der verbleibenden MIG-Ressourcen fehlschlägt.
-
Wenn ein NFSv4.1-Server während eines Speicher-Failovers einen vorübergehenden Fehler zurückgibt, können in seltenen Fällen virtuelle Maschinen 10 Sekunden lang nicht reagieren, bevor der Vorgang neu gestartet wird.
-
In seltenen Fällen kann es vorkommen, dass der Paketabschluss nicht am ursprünglichen Port oder Portset, sondern an einem anderen Portset erfolgt, was zu einer Schleife führen kann, die die Paketliste mit einem ungültigen Zeiger beschädigt. Infolgedessen fällt ein ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm aus. In den Protokollen wird beispielsweise folgender Fehler angezeigt:
PF Exception 14 in world 61176327:nsx.cp.tx IP 0xxxxxx addr 0x3c
. -
Der Arbeitsspeicher im NUMA-Knoten eines ESXi-Hosts besteht möglicherweise aus mehreren physischen Bereichen. In ESXi-Versionen vor 7.0 Update 3f gibt das Feldpaar
memoryRangeBegin
,memoryRangeLength
inNumaNodeInfo
die physikalische Startadresse des Hosts und die Länge des Bereichs im NUMA-Knoten an, wobei alle zusätzlichen Bereiche ignoriert werden. -
Wenn Sie den schnellen Pfad auf HPP für 512e Software Emulated 4KN-Geräte aktivieren, funktioniert er nicht wie erwartet, da der schnelle Pfad nicht mit Read-Modify-Write(R-M-W) umgehen kann, das den langsamen Pfad verwenden muss. Die Verwendung des schnellen Pfads auf 4KN-Geräten wird nicht unterstützt.
-
Wenn Sie über eine ausgeführte VM mit virtuellen Festplatten mit mehr als 1 TB verfügen und einen Snapshot der Festplatten auf dieser VM löschen, friert die VM möglicherweise für Sekunden oder sogar Minuten ein. Die VM wird letztendlich wiederhergestellt, bei VM-Arbeitslasten können jedoch Ausfälle auftreten. Das Problem tritt auf, weil der Löschvorgang die Konsolidierung von Snapshots im Hintergrund auslöst, was die Verzögerung verursacht. Das Problem tritt eher bei langsamerem Speicher auf, wie z. B. NFS.
-
DVFilter-Pakete werden möglicherweise fälschlicherweise an einen Netzwerkport übertragen, an dem der Paketabschlusscode nicht ausgeführt werden kann. Infolgedessen fallen ESXi-Hosts mit einem violetten Diagnosebildschirm und dem Fehler
PF Exception 14 Vmxnet3VMKDevTxCompleteOne E1000DevTxCompleteOneWork
aus. -
In seltenen Fällen sendet die DFW möglicherweise eine Paketliste an das falsche Portset. Dies kann dazu führen, dass der VMkernel-Dienst fehlschlägt und virtuelle Maschinen die Konnektivität verlieren. In der Datei
vmkernel.log
werden Fehler ähnlich dem Folgenden angezeigt:2021-09-27T04:29:53.170Z cpu84:xxxx)NetPort: 206: Fehler: lockModel[0] vs psWorldState->lockModel[0] there is no portset lock holding.
-
Ab vSphere 7.0 Update 2 wird HPP das Standard-Plug-In für lokale NVMe- und SCSI-Geräte und ersetzt das native Multipathing-Plug-In (NMP) von ESX. In bestimmten Umgebungen führt die Änderung von NMP zu HPP jedoch dazu, dass auf einige Eigenschaften von Geräten, die von HPP beansprucht werden, wie z. B. den Anzeigenamen, nicht zugegriffen werden kann.
-
Wenn in einem ALUA-Ziel die Zielportgruppen-IDs (TPGIDs) für eine LUN geändert werden, wird die vom SATP verwendete Antwort zur Geräteidentifikation im Cache möglicherweise nicht entsprechend aktualisiert. Dies führt dazu, dass ESXi möglicherweise nicht die korrekten Pfadstatus für das entsprechende Gerät wiedergibt.
-
Wenn Sie den NVMe-SCSI-Übersetzungs-Stack zum Registrieren von NVMe-Geräten in Ihrem System verwenden, erhalten die Eigenschaften
targetPortGroup
undrelativeTargetPortId
die Controller-ID0
für alle Pfade. Dies führt dazu, dass ein RTPG-Befehl denselben ALUA-Zugriffsstatus für alle Pfade des Namespace zurückgibt, da dietpgID
jedes Pfads mit dem ersten Deskriptor übereinstimmt, der0
ist. -
Wenn das Kennwort für den Administrator des Dateidiensts auf dem Active Directory-Server geändert wird, stimmt das Kennwort in der Domänenkonfiguration des vSAN-Dateidiensts möglicherweise nicht überein. Wenn die Kennwörter nicht übereinstimmen oder das Konto gesperrt ist, kann möglicherweise auf einige Dateifreigaben nicht zugegriffen werden. Der vSAN-Integritätsdienst zeigt die folgende Warnung an:
Dateidienst: Dateiserver nicht gefunden
. -
Wenn Sie einen ESXi-Host nach einem Ausfall neu installieren, bleiben veraltete Bindungen von VMDKs beim VASA-Anbieter und in den vSphere Virtual Volumes-Datenspeichern intakt, da die ausgefallene Instanz nie neu gestartet wird. Infolgedessen können Sie bei einer Neuinstallation des Hosts die VMDKs aufgrund der vorhandenen Bindung nicht löschen. Im Laufe der Zeit können sich viele solche VMDKs ansammeln und ungenutzten Speicherplatz verbrauchen.
-
In seltenen Fällen verfügt ein serielles Gerät auf einer virtuellen Maschine nicht über die Eigenschaft
serial<N>.fileName
, während gleichzeitig die Eigenschaftserial<N>.autodetect
aufFALSE
festgelegt ist. Dies kann dazu führen, dass der hostd-Dienst wiederholt fehlschlägt. -
Wenn Sie im vSphere Client eine der Traffic-Shaping-Optionen wie „Durchschnittliche Bandbreite“, „Spitzenbandbreite“ oder „Burstgröße“ auf einen Wert festlegen, der größer als 2147483 KBit/s ist, werden die Einstellungen nicht beibehalten.
-
Aufgrund der geringen Standardanzahl an Dateideskriptoren können einige Funktionen wie vSphere vMotion nach dem Upgrade auf ESXi 7.x in VAAI für NAS-Umgebungen wegen der unzureichenden Anzahl an VMDK-Dateien, die gleichzeitig ausgeführt werden können, fehlschlagen. In der Datei
syslog.log
werden Fehler wieZu viele offene Dateien
in den Protokollen desvaai-nas
-Daemon angezeigt. -
Wenn in seltenen Fällen eine E/A-Anforderung parallel mit einem vom Gastbetriebssystem ausgelösten Aufhebevorgang auf einer Thin-Provisioning-VM ausgeführt wird, kann es in manchen Fällen zu einem Deadlock auf einem VMFS6-Volume kommen. Folglich reagieren virtuelle Maschinen auf diesem Volume nicht mehr.
-
Bei vSphere Storage vMotion- oder Hot-Add-Vorgängen auf einer virtuellen Maschine mit mehr als 300 GB Arbeitsspeicher kann sich die Switchover-Zeit 2 Minuten nähern, was zu einem Zeitüberschreitungsfehler führt.
-
Wenn Sie die Port-Bindung nicht entfernen, nachdem Sie eine VMkernel-Netzwerkkarte gelöscht haben, die an einen iSCSI-Adapter gebunden ist, kann die veraltete Port-Bindung Probleme nach einem Neustart des ESXi-Hosts verursachen. Während des Startvorgangs schlägt die Bindung der nicht vorhandenen VMkernel-Netzwerkkarte an den iSCSI-Adapter fehl, und iSCSI-Konfigurationen können während des Startvorgangs nicht wiederhergestellt werden. Infolgedessen werden nach Abschluss des Neustarts möglicherweise einige LUNs oder Datenspeicher nicht angezeigt.
-
Nach einem Speicher-Failover erkennt der ESXi NFSv4.1-Client den NFS-Server fälschlicherweise als eine andere Einheit und überspringt die Wiederherstellung. Dies führt dazu, dass der NFSv4.1-Datenspeicher im Status Kein Zugriff verbleibt.
-
In einigen Fällen, z. B. wenn die Temperatur den Schwellenwert überschreitet, meldet ein NVMe-Gerät möglicherweise eine kritische Warnung, und der ESXi NVMe-Controller registriert das Gerät nicht und schaltet es offline.
-
Ein seltenes Problem, bei dem der verwendete Block-Cache den reservierten Cache überschreitet, kann zu Reservierungsproblemen im vSAN-Dateidienst führen. Infolgedessen können Sie einige Dateifreigaben nicht erreichen, und die Integritätsprüfung zeigt den Fehler
VDFS-Daemon wird nicht ausgeführt
. Imvdfsd-server
-Protokoll werden Fehler ähnlich dem Folgenden angezeigt:PANIC: NOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp:621
PANIC: NOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp:626
-
In seltenen Fällen können Suchabfragen im Hintergrund, die von vCenter Server auf einem ESXi-Host mit Zugriff auf die VMDK-Dateien virtueller in ein OVF-Format exportierter Maschinen ausgeführt werden, die Dateien versehentlich ändern. Infolgedessen können Sie die virtuellen Maschinen nicht importieren.
-
Aufgrund eines Komponentenlastproblems schlägt das Hinzufügen einer Multipathing-PSA-Beanspruchungsregel zum Satz von Beanspruchungsregeln auf einem vCenter Server-System unter Verwendung des JumpStart-Tools möglicherweise fehl.
-
Nach einem kontrollierten Herunterfahren oder Starten eines Servers in einem Cluster von ESXi-Servern, die mit einem ALUA-Array verbunden sind, werden alle LUNs, auf die dieser Server Zugriff hat, möglicherweise auf einen Speicherprozessor im Array übertragen. Infolgedessen verschlechtert sich die Leistung der anderen ESXi-Server, die auf die LUNs zugreifen.
-
Bei einer hohen Arbeitsspeicherbelastung verarbeitet PSA in seltenen Fällen Fehler bei der Arbeitsspeicherzuteilung nicht ordnungsgemäß. Infolgedessen fällt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm und einem Fehler wie
#PF Exception 14 in world 2098026:SCSI path sc IP / SCSI path scan helpers
aus. -
Wenn eine ausgeführte virtuelle Maschine während eines Snapshot-Löschvorgangs neu gestartet wird, werden die VM-Festplatten möglicherweise während der Snapshot-Konsolidierung nicht ordnungsgemäß neu geöffnet und geschlossen. Infolgedessen fällt die VM möglicherweise aus. Dies ist jedoch ein Zeitproblem, das versehentlich auftritt.
-
Während der Geräteerkennung kann ein Reservierungskonflikt dazu führen, dass ATS fälschlicherweise als
nicht unterstützt
gemeldet wird. Aus diesem Grund verwendet ESXi die SCSI-2-Reservierung anstelle von ATS. Dies führt dazu, dass das Mounten von VMFS6-Datenspeichern mit aktivierter Cluster-VMDK-Unterstützung möglicherweise zufällig fehlschlägt. -
Bei einigen Vorgängen kann die Host-UUID geändert werden. Wenn Sie beispielsweise ESXi-Software neu installieren oder den Host zwischen Clustern verschieben, kann sich die Host-UUID gegebenenfalls ändern. Wenn sich die Host-UUID während des Ausfalls des vSAN-Dateidiensts ändert, können vSAN-Dateidienstserver nicht gestartet werden.
-
Wenn Sie den vSAN-Dateidienst ohne vorhandene Dateifreigaben deaktivieren, entfernt vSAN die Dateidienstdomäne. Ein Entfernungsfehler eines Servers unterbricht möglicherweise den Prozess und hinterlässt einige Metadaten. Wenn Sie den Dateidienst erneut aktivieren, funktioniert der Dateidienst aufgrund der alten Metadaten möglicherweise nicht wie erwartet.
-
Der Befehl „Zielportgruppen des Berichts“ gibt möglicherweise im Feld IMPLIZITE ÜBERGANGSZEIT einen falschen Wert zurück, was sich auf die SCSI-zu-NVMe-Übersetzungsschicht auswirkt. In Fällen wie der Migration mehrerer Appliances ist die Zeit für den ALUA-Übergang für Multipathing-Software, beispielsweise PowerPath, zur Durchführung korrekter Vorgänge von entscheidender Bedeutung.
-
Kleine ausstehende Zuordnungsaufhebungen werden möglicherweise blockiert, wenn Sie einen Host neu starten oder eine Festplattengruppe erneut mounten. Die ausstehenden Zuordnungsaufhebungen können zu einer Protokollüberlastung führen, die E/A-Latenz zur Folge hat.
-
Nach dem ersten Upgrade oder Update Ihres Systems auf ESXi 7.x findet bei jedem nachfolgenden Update, das auch als Patch bezeichnet wird, möglicherweise eine Kürzung der Angaben im Pfad zum Verzeichnis
/productLocker
in einem Datenspeicher statt. Wenn Ihr erster Patch auf ESXi 7.x beispielsweise von 7.0 Update 2 zu 7.0 Update 3 führt, ist das Verzeichnis/productLocker
ursprünglich dem Verzeichnis/vmfs/volumes/xxx/VMware-Tools/productLocker/
ähnlich. Für jeden nachfolgenden Patch, z. B. von 7.0 Update 3 auf 7.0 Update 3c, ähnelt der Pfad jedoch/VMware-Tools/productLocker/
. -
In einem vSAN Stretched Cluster oder einem Cluster mit zwei Knoten werden quorumbasierte Entscheidungen für Objekte mit PFTT von 1 und SFTT von 1 oder mehr möglicherweise nicht ordnungsgemäß verteilt. Wenn eine Site ausfällt und ein zusätzlicher Host oder eine zusätzliche Festplatte auf der aktiven Site ausfällt, verliert das Objekt möglicherweise das Quorum, und es kann nicht mehr darauf zugegriffen werden.
-
Eine Anforderung zur Größenänderung eines Objekts kann fehlschlagen, wenn die neue Größe nicht auf 512 Byte ausgerichtet ist. Dieses Problem kann dazu führen, dass ein ESXi-Host mit einem violetten Diagnosebildschirm ausfällt.
-
In einigen Fällen, z. B. beim Neustart einer virtuellen Maschine, kann eine laufende SSH-Sitzung, die das Dienstprogramm „pktcap-uw“ zur Überwachung und Validierung von Switch-Konfigurationen auf dem ESXi-Host verwendet, beendet werden. Das Dienstprogramm „pktcap-uw“ versucht möglicherweise weiterhin, Pakete zu verarbeiten. Dies führt dazu, dass das Dienstprogramm mehr CPU verbraucht als normal. Mit dem Befehl
esxtop -a
können Sie die CPU-Leistung nachverfolgen. -
Auf einem vCenter Server unter 7.0 Update 3 kann ein zertifiziertes NVMe-Gerät die folgende Warnung für die Integritätsprüfung aufweisen:
NVMe-Gerät ist nicht für VMware zertifiziert
. Möglicherweise wird auch die folgende Integritätsprüfungswarnung angezeigt:NVMe-Gerät kann nicht identifiziert werden
. -
Der ESXCLI-Befehl
hardware ipmi bmc get
gibt aufgrund einer falschen Analyse die IPv6-Adresse eines BMC nicht zurück. -
Wenn der Zeugenhost von Clusterhosts nicht erreicht werden kann, fällt der Assistent zum Herunterfahren des vSAN-Clusters für einen Stretched Cluster oder einen Cluster mit zwei Knoten möglicherweise aus. Dieses Problem tritt auf, wenn für den vSAN-Datenverkehr und den Zeugen-Datenverkehr verschiedene vmknics verwendet werden. Im vSphere Client wird die folgende Fehlermeldung auf der Seite „vSAN-Dienste“ angezeigt:
Getrennter Host von Orch gefunden <Zeugen-IP>
. Wenn vCenter im Cluster gehostet wird, ist der vSphere Client beim Herunterfahren nicht verfügbar, und die Fehlermeldung wird auf dem Host Client angezeigt, auf dem sich die vCenter-VM befindet. -
Wenn Sie im vSphere Client mit der rechten Maustaste klicken, um einen Datenspeicher zu durchsuchen, wird anstelle der Namen möglicherweise die UUID einiger virtueller Maschinen in einem vSphere Virtual Volumes-Datenspeicher angezeigt, wie z. B.
naa.xxxx
. Dieses Problem tritt nur selten in großen Umgebungen mit einer großen Anzahl von Containern und VMs in einem vSphere Virtual Volumes-Datenspeicher auf. Das Problem hat keine funktionalen Auswirkungen, wie z. B. Auswirkungen auf VM-Vorgänge, Sicherungen oder andere Elemente als die VM-Anzeige im vSphere Client. -
Aufgrund eines seltenen Problems im Zusammenhang mit der ESXi-Infrastruktur kann ein langsamer VASA-Anbieter eine Situation auslösen, in der auf die vSphere Virtual Volumes-Datenspeicher nicht zugegriffen werden kann und der ESXi-Host nicht mehr reagiert.
-
Wenn Sie in bestimmten Umgebungen einen ESXi-Host herunterfahren, wird dieser nicht ausgeschaltet, und es wird ein Bildschirm mit der Meldung
Dieses System wurde angehalten angezeigt. Mit der Schaltfläche zum Zurücksetzen oder zum Ein-/Ausschalten kann ein sicherer Neustart durchgeführt werden.
-
Die Einstellung
LargeBAR
, die das Basisadressregister (Base Address Register, BAR) auf einem vmxnet3-Gerät erweitert, unterstützt einheitliches Passthrough (Uniform Passthrough, UPT). UPT wird jedoch unter ESX 7.0 Update 3 und höher nicht unterstützt, und wenn der vmxnet3-Treiber auf eine Version vor 7.0 herabgestuft wird und die EinstellungLargeBAR
aktiviert ist, verlieren die virtuellen Maschinen möglicherweise die Konnektivität. -
Wenn Sie unabhängige, nicht dauerhafte Festplatten im laufenden Betrieb von einer virtuellen Maschine entfernen, für die der Konfigurationsparameter
vmx.reboot.PowerCycle
aktiviert ist, speichert ESXi eine Redo-Protokolldatei. Wenn es sich bei einer solchen VM um eine Sicherungs-Proxy-VM handelt, werden möglicherweise viele redundante Redo-Protokolldateien angezeigt, die einen erheblichen Teil des Speichers in Anspruch nehmen. -
Wenn ein ESXi-Host versucht, über einen Ressourcenpool-Cache auf einen nicht im Cache enthaltenen Eintrag zuzugreifen, fällt der Host zeitweise mit einem violetten Diagnosebildschirm
PF Exception 14
und einer Core-Dump-Datei aus. In der Dump-Datei werden Fehler für die ModuleJ3_DeleteTransaction
undJ6ProcessReplayTxnList
angezeigt, die auf das Problem hinweisen. -
Ein seltenes Problem im Zusammenhang mit VMFS kann bei grundlegenden Dateisystemaufrufen wie
open
,access
oderrename
zu hochgradigen Sperrungskonflikten bei hostd-Dienst-Threads oder sogar zu Deadlocks führen. Folglich reagiert der ESXi-Host nicht mehr. -
Da das MD5-Authentifizierungsprotokoll ab ESXi 7.x nicht mehr unterstützt wird, schlagen Upgrades auf ESXi 7.x fehl, wenn für eine ESXi-SNMP-Agent-Konfiguration das MD5-Authentifizierungsprotokoll verwendet wird.
-
In ESXi 7.x toleriert der Parameter
Syslog.global.logHost
, der eine kommagetrennte Liste von Remote-Hosts und Spezifikationen für Nachrichtenübertragungen definiert, keine Leerzeichen nach dem Komma. ESXi-Versionen vor 7.x tolerieren im ParameterSyslog.global.logHost
ein Leerzeichen nach dem Komma. Dies kann dazu führen, dass Upgrades auf ESXi 7.x fehlschlagen. -
Ein Problem im Zusammenhang mit der probabilistischen Datenstruktur „Bloom-Filter“, die die Lese-E/A für in einem Snapshot ausgeführte VMs optimieren soll, kann zu einem logischen, konsistenzbasierten E/A-Fehler führen, wenn die VM auf einem Snapshot ausgeführt wird. Das Problem ist begrenzt und tritt nur auf, wenn Sie SQL Server in einem Snapshot ausführen.
-
Ein Problem mit dem Prozess, der Datenspeicher zur Unterstützung von Dateiblockzuteilungen für Thin-Dateien prüft, kann in bestimmten Fällen zu einer CPU-Sperre führen. Dies führt dazu, dass der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm und einer Fehlermeldung ähnlich der folgenden ausfällt:
PSOD - @BlueScreen: NMI
. -
Die Protokolldateien des hostd-Diensts erhalten möglicherweise eine ungewöhnlich hohe Anzahl von Meldungen des Typs
Task Created
undTask Completed
für unsichtbare Aufgaben, was wiederum die Aufbewahrungszeit für Protokolle verringern kann. -
Wenn ein SCSI-Befehl für einen Protokollendpunkt eines vSphere Virtual Volumes-Datenspeichers fehlschlägt, erhält der Endpoint möglicherweise den Status „Nicht unterstützt“, der möglicherweise zwischengespeichert wird. Dies führt dazu, dass die folgenden an diesen Protokollendpunkt gerichteten SCSI-Befehle mit einem Fehlercode wie
0x5 0x20
fehlschlagen und Lese- und Schreibvorgänge in einem vSphere Virtual Volumes-Datenspeicher fehlschlagen. -
In einigen Fällen, z. B. bei einem Portausfallfehler, verlieren ESXi-Hosts möglicherweise die Konnektivität zum NVMe-Controller, obwohl einige E/A-Warteschlangen weiterhin aktiv sind.
-
Wenn Sie eine virtuelle Maschine mithilfe von vSphere Replication replizieren, und die VM-Festplatte auf eine Zahl erhöht wird, die nicht auf 512 ausgerichtet ist, kann die VM nicht eingeschaltet werden.
-
Wenn die Anzahl der CPUs, die Sie mit dem Parameter
ConfigSpec#numCPUs
konfigurieren, kein Vielfaches der Kerne pro Socket ist, die Sie in der Konfiguration einer virtuellen Maschine mit dem ParameterConfigSpec#numCoresPerSocket
definieren, lässt sich die VM nicht einschalten. -
Dieses Problem betrifft Hosts in Stretched Clustern mit den Richtlinieneinstellungen
locality=None
,HFT=0
,SFT=1
undSFT=2
. Wenn Sie einen Host mit „Zugriff sicherstellen“ in den Wartungsmodus versetzen, bleibt der Vorgang möglicherweise für einen langen Zeitraum bei 100 % oder schlägt nach 60 Minuten fehl. -
Nach dem Upgrade eines ESXi-Hosts auf 7.0 Update 2 bemerken Sie möglicherweise häufige vSAN-Netzwerklatenz-Alarme für den Cluster, wenn der vSAN-Leistungsdienst aktiviert ist. Die Latenzergebnisse zeigen, dass die meisten Alarme vom primären vSAN-Knoten ausgegeben werden.
-
Aufgrund einer Größenänderung der standardmäßigen Admin-Warteschlange für NVMe over RDMA-Controller in ESXi 7.0 Update 3c kann es vorkommen, dass nach Updates von ESXi 7.0, 7.0 Update 1 oder 7.0 Update 2 auf 7.0 Update 3c nicht mehr auf NVMe over RDMA-Speicher zugegriffen werden kann.
-
Aufgrund einer seltenen Race-Bedingung beim Versuch eines Container-Ports, eine bereits abgerufene Sperre erneut abzurufen, kann ein ESXi-Host mit einem violetten Diagnosebildschirm fehlschlagen, wenn virtuelle Maschinen mit Container-Ports ausgeschaltet werden oder eine Migration mit vSphere vMotion durchführen. Dieses Problem tritt aufgrund der Duplizierung von Port-IDs auf.
-
ESXi-Hosts verlieren nach dem Upgrade des lpfc-Treibers auf 14.0.x.x möglicherweise den Zugriff auf Unity-Speicher-Arrays. In den Treiberprotokollen werden Fehler wie
Protokollfehler bei der Verarbeitung von FCP-E/A erkannt
undrspInfo3 x2
angezeigt. -
Bei LSI-bezogenen Treibern kann es beim Hochfahren eines ESXi-Servers, wenn Sie eine Festplatte herausnehmen und in einen anderen Steckplatz auf demselben Host einsetzen, lange dauern, bis Änderungen am Speicherort der Festplatte über den vSphere Client oder mithilfe des ESXCLI-Befehls
esxcli storage core device physical get -d
sichtbar werden. Das Problem besteht speziell bei Treibern, die mit vielen Festplatten (150 und mehr) verbunden sind, und wird innerhalb von 5 Minuten behoben. -
Mit ESXi 7.0 Update 3f unterstützt der Intel-icen-Treiber Netzwerkfunktionen auf E822/E823-Netzwerkkarten für Intel Icelake-D-Plattformen. ENS- (Enhanced Network Stack) und RDMA-Funktionen auf solchen Geräten werden nicht unterstützt.
-
ESXi 7.0 Update 3f aktualisiert den Treiber
Intel-ne1000
zur Unterstützung von Intel I219-LM-Geräten, die für neuere Servermodelle erforderlich sind, wie z. B. die Intel Lac-S-Plattform. Der TCP-Segmentierungs-Offload für die I219-Geräte ist aufgrund von bekannten Problemen im Hardware-DMA deaktiviert. -
Ein sehr seltenes Problem aufgrund eines Nullzeigerfehlers kann dazu führen, dass ESXi-Hosts in IBM FlashSystem V9000-Arrays mit einem violetten Diagnosebildschirm und einem Fehler wie zum Beispiel
#PF Exception 14 in world 2098414:CqWorld IP 0xxxxx addr 0xxxx
ausfallen. -
Wenn Sie vSphere FT deaktivieren oder anhalten, verlieren virtuelle Maschinen möglicherweise vorübergehend die Konnektivität und reagieren nicht auf Ping- oder Netzwerkdatenverkehr. Beim Pingen von virtuellen Maschinen treten möglicherweise innerhalb eines kurzen Zeitraums nacheinander Zeitüberschreitungen auf, z. B. innerhalb von 20 Sekunden.
-
Unter bestimmten Bedingungen, z. B. bei einer Erhöhung der gemeinsamen Seitennutzung oder beim Deaktivieren der Nutzung großer Seiten auf VM- oder ESXi-Hostebene, kann die CPU-Nutzung von Windows-VMs, bei denen Virtualization-Based Security (VBS) aktiviert ist, bis zu 100 % erreichen.
-
Profilname | ESXi-7.0U3f-20036589-no-tools |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 12. Juli 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 2916848, 2817702, 2937074, 2957732, 2984134, 2944807, 2985369, 2907963, 2949801, 2984245, 2915911, 2990593, 2992648, 2905357, 2980176, 2974472, 2974376, 2972059, 2973031, 2967359, 2860126, 2878245, 2876044, 2968157, 2960242, 2970238, 2966270, 2966783, 2963328, 2939395, 2966362, 2946550, 2958543, 2966628, 2961584, 2911056, 2965235, 2952427, 2963401, 2965146, 2963038, 2963479, 2949375, 2961033, 2958926, 2839515, 2951139, 2878224, 2954320, 2952432, 2961346, 2857932, 2960949, 2960882, 2957966, 2929443, 2956080, 2959293, 2944919, 2948800, 2928789, 2957769, 2928268, 2957062, 2792139, 2934102, 2953709, 2950686, 2953488, 2949446, 2955016, 2953217, 2956030, 2949902, 2944894, 2944521, 2911363, 2952205, 2894093, 2910856, 2953754, 2949777, 2925733, 2951234, 2915979, 2904241, 2935355, 2941263, 2912661, 2891231, 2928202, 2928268, 2867146, 2244126, 2912330, 2898858, 2906297, 2912213, 2910340, 2745800, 2912182, 2941274, 2912230, 2699748, 2882789, 2869031, 2913017, 2864375, 2929821, 2957673, 2921564, 2925133, 2965277 |
Verwandte CVE-Nummern | Nicht verfügbar |
- Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
-
pyVmomi-Aufrufe der vSphere API
EnvironmentBrowser.QueryConfigTargetEx
schlagen möglicherweise mitUnknownWsdlTypeError
fehl. -
Das Hardwareintegritätsmodul von ESXi kann möglicherweise einige Sensoren des Typs „Systemereignis“ nicht entschlüsseln, wenn ein physischer Server mit einem neuen Branding versehen wird. Infolgedessen wird im vSphere-Client der Status „Unbekannt“ für Sensoren des Typs „Systemereignis“ unter Überwachung > Hardware-Integrität angezeigt.
-
Wenn Sie die erweiterte Einstellung
vmx.reboot.powerCycle
auf einer virtuellen Maschine aufTRUE
festlegen, wird die virtuelle Maschine ausgeschaltet und dann wieder eingeschaltet, wenn das Gastbetriebssystem einen Neustart initiiert. Wenn jedoch während einer Migration mithilfe von vSphere vMotion ein Ein-/Ausschalten stattfindet, schlägt der Vorgang fehl, und die virtuelle Maschine auf dem Quellhost wird möglicherweise nicht wieder eingeschaltet. -
Wenn bei einem Socket ein Verbindungsfehler auftritt, während er bei der internen Kommunikation zwischen UNIX-Domänen-Sockets abgefragt wird, kann es zu einem Datenrennen kommen. Infolgedessen greift der ESXi-Host in einigen Fällen auf einen ungültigen Arbeitsspeicherbereich zu und fällt mit einem violetten Diagnosebildschirm mit
#PF Exception 14
und Fehlern wieUserDuct_PollSize()
undUserSocketLocalPoll()
aus. -
Wenn ein Hardware-iSCSI-Adapter auf einem ESXi-Host in Ihrer Umgebung Pseudo-Netzwerkschnittstellenkarten verwendet, können Sie möglicherweise kein Hostprofil von einem solchen Host erstellen, da Pseudo-Netzwerkschnittstellenkarten nicht über die erforderliche PCI-Adresse und den Anbieternamen für ein Profil verfügen.
-
Race-Bedingungen im
iscsi_vmk
-Treiber können zu blockierten E/A-Vorgängen oder Taktsignal-Zeitüberschreitungen bei einem VMFS-Datenspeicher führen. Dies kann dazu führen, dass einige virtuelle Maschinen nicht mehr reagieren. -
Der Durchsatz mit Software-iSCSI-Adaptern ist aufgrund hartcodierter Sende- und Empfangspuffergrößen – 600 KB für Sende- bzw. 256 KB für Empfangspuffer – begrenzt. Dies führt dazu, dass die Leistung des
iscsi_vmk
-Adapters nicht optimal ist. -
Wenn mehrere NVIDIA vGPU-VMs gleichzeitig ausgeschaltet werden, werden gelegentlich einige GPU-Ressourcen (MIG) mit mehreren Instanzen nicht gelöscht. Dies kann dazu führen, dass das Einschalten der nachfolgenden vGPU-VM aufgrund der verbleibenden MIG-Ressourcen fehlschlägt.
-
Wenn ein NFSv4.1-Server während eines Speicher-Failovers einen vorübergehenden Fehler zurückgibt, können in seltenen Fällen virtuelle Maschinen 10 Sekunden lang nicht reagieren, bevor der Vorgang neu gestartet wird.
-
In seltenen Fällen kann es vorkommen, dass der Paketabschluss nicht am ursprünglichen Port oder Portset, sondern an einem anderen Portset erfolgt, was zu einer Schleife führen kann, die die Paketliste mit einem ungültigen Zeiger beschädigt. Infolgedessen fällt ein ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm aus. In den Protokollen wird beispielsweise folgender Fehler angezeigt:
PF Exception 14 in world 61176327:nsx.cp.tx IP 0xxxxxx addr 0x3c
. -
Der Arbeitsspeicher im NUMA-Knoten eines ESXi-Hosts besteht möglicherweise aus mehreren physischen Bereichen. In ESXi-Versionen vor 7.0 Update 3f gibt das Feldpaar
memoryRangeBegin
,memoryRangeLength
inNumaNodeInfo
die physikalische Startadresse des Hosts und die Länge des Bereichs im NUMA-Knoten an, wobei alle zusätzlichen Bereiche ignoriert werden. -
Wenn Sie den schnellen Pfad auf HPP für 512e Software Emulated 4KN-Geräte aktivieren, funktioniert er nicht wie erwartet, da der schnelle Pfad nicht mit Read-Modify-Write(R-M-W) umgehen kann, das den langsamen Pfad verwenden muss. Die Verwendung des schnellen Pfads auf 4KN-Geräten wird nicht unterstützt.
-
Wenn Sie über eine ausgeführte VM mit virtuellen Festplatten mit mehr als 1 TB verfügen und einen Snapshot der Festplatten auf dieser VM löschen, friert die VM möglicherweise für Sekunden oder sogar Minuten ein. Die VM wird letztendlich wiederhergestellt, bei VM-Arbeitslasten können jedoch Ausfälle auftreten. Das Problem tritt auf, weil der Löschvorgang die Konsolidierung von Snapshots im Hintergrund auslöst, was die Verzögerung verursacht. Das Problem tritt eher bei langsamerem Speicher auf, wie z. B. NFS.
-
DVFilter-Pakete werden möglicherweise fälschlicherweise an einen Netzwerkport übertragen, an dem der Paketabschlusscode nicht ausgeführt werden kann. Infolgedessen fallen ESXi-Hosts mit einem violetten Diagnosebildschirm und dem Fehler
PF Exception 14 Vmxnet3VMKDevTxCompleteOne E1000DevTxCompleteOneWork
aus. -
In seltenen Fällen sendet die DFW möglicherweise eine Paketliste an das falsche Portset. Dies kann dazu führen, dass der VMkernel-Dienst fehlschlägt und virtuelle Maschinen die Konnektivität verlieren. In der Datei
vmkernel.log
werden Fehler ähnlich dem Folgenden angezeigt:2021-09-27T04:29:53.170Z cpu84:xxxx)NetPort: 206: Fehler: lockModel[0] vs psWorldState->lockModel[0] there is no portset lock holding.
-
Ab vSphere 7.0 Update 2 wird HPP das Standard-Plug-In für lokale NVMe- und SCSI-Geräte und ersetzt das native Multipathing-Plug-In (NMP) von ESX. In bestimmten Umgebungen führt die Änderung von NMP zu HPP jedoch dazu, dass auf einige Eigenschaften von Geräten, die von HPP beansprucht werden, wie z. B. den Anzeigenamen, nicht zugegriffen werden kann.
-
Wenn in einem ALUA-Ziel die Zielportgruppen-IDs (TPGIDs) für eine LUN geändert werden, wird die vom SATP verwendete Antwort zur Geräteidentifikation im Cache möglicherweise nicht entsprechend aktualisiert. Dies führt dazu, dass ESXi möglicherweise nicht die korrekten Pfadstatus für das entsprechende Gerät wiedergibt.
-
Wenn Sie den NVMe-SCSI-Übersetzungs-Stack zum Registrieren von NVMe-Geräten in Ihrem System verwenden, erhalten die Eigenschaften
targetPortGroup
undrelativeTargetPortId
die Controller-ID0
für alle Pfade. Dies führt dazu, dass ein RTPG-Befehl denselben ALUA-Zugriffsstatus für alle Pfade des Namespace zurückgibt, da dietpgID
jedes Pfads mit dem ersten Deskriptor übereinstimmt, der0
ist. -
Wenn das Kennwort für den Administrator des Dateidiensts auf dem Active Directory-Server geändert wird, stimmt das Kennwort in der Domänenkonfiguration des vSAN-Dateidiensts möglicherweise nicht überein. Wenn die Kennwörter nicht übereinstimmen oder das Konto gesperrt ist, kann möglicherweise auf einige Dateifreigaben nicht zugegriffen werden. Der vSAN-Integritätsdienst zeigt die folgende Warnung an:
Dateidienst: Dateiserver nicht gefunden
. -
Wenn Sie einen ESXi-Host nach einem Ausfall neu installieren, bleiben veraltete Bindungen von VMDKs beim VASA-Anbieter und in den vSphere Virtual Volumes-Datenspeichern intakt, da die ausgefallene Instanz nie neu gestartet wird. Infolgedessen können Sie bei einer Neuinstallation des Hosts die VMDKs aufgrund der vorhandenen Bindung nicht löschen. Im Laufe der Zeit können sich viele solche VMDKs ansammeln und ungenutzten Speicherplatz verbrauchen.
-
In seltenen Fällen verfügt ein serielles Gerät auf einer virtuellen Maschine nicht über die Eigenschaft
serial<N>.fileName
, während gleichzeitig die Eigenschaftserial<N>.autodetect
aufFALSE
festgelegt ist. Dies kann dazu führen, dass der hostd-Dienst wiederholt fehlschlägt. -
Wenn Sie im vSphere Client eine der Traffic-Shaping-Optionen wie „Durchschnittliche Bandbreite“, „Spitzenbandbreite“ oder „Burstgröße“ auf einen Wert festlegen, der größer als 2147483 KBit/s ist, werden die Einstellungen nicht beibehalten.
-
Aufgrund der geringen Standardanzahl an Dateideskriptoren können einige Funktionen wie vSphere vMotion nach dem Upgrade auf ESXi 7.x in VAAI für NAS-Umgebungen wegen der unzureichenden Anzahl an VMDK-Dateien, die gleichzeitig ausgeführt werden können, fehlschlagen. In der Datei
syslog.log
werden Fehler wieZu viele offene Dateien
in den Protokollen desvaai-nas
-Daemon angezeigt. -
Wenn in seltenen Fällen eine E/A-Anforderung parallel mit einem vom Gastbetriebssystem ausgelösten Aufhebevorgang auf einer Thin-Provisioning-VM ausgeführt wird, kann es in manchen Fällen zu einem Deadlock auf einem VMFS6-Volume kommen. Folglich reagieren virtuelle Maschinen auf diesem Volume nicht mehr.
-
Bei vSphere Storage vMotion- oder Hot-Add-Vorgängen auf einer virtuellen Maschine mit mehr als 300 GB Arbeitsspeicher kann sich die Switchover-Zeit 2 Minuten nähern, was zu einem Zeitüberschreitungsfehler führt.
-
Wenn Sie die Port-Bindung nicht entfernen, nachdem Sie eine VMkernel-Netzwerkkarte gelöscht haben, die an einen iSCSI-Adapter gebunden ist, kann die veraltete Port-Bindung Probleme nach einem Neustart des ESXi-Hosts verursachen. Während des Startvorgangs schlägt die Bindung der nicht vorhandenen VMkernel-Netzwerkkarte an den iSCSI-Adapter fehl, und iSCSI-Konfigurationen können während des Startvorgangs nicht wiederhergestellt werden. Infolgedessen werden nach Abschluss des Neustarts möglicherweise einige LUNs oder Datenspeicher nicht angezeigt.
-
Nach einem Speicher-Failover erkennt der ESXi NFSv4.1-Client den NFS-Server fälschlicherweise als eine andere Einheit und überspringt die Wiederherstellung. Dies führt dazu, dass der NFSv4.1-Datenspeicher im Status Kein Zugriff verbleibt.
-
In einigen Fällen, z. B. wenn die Temperatur den Schwellenwert überschreitet, meldet ein NVMe-Gerät möglicherweise eine kritische Warnung, und der ESXi NVMe-Controller registriert das Gerät nicht und schaltet es offline.
-
Ein seltenes Problem, bei dem der verwendete Block-Cache den reservierten Cache überschreitet, kann zu Reservierungsproblemen im vSAN-Dateidienst führen. Infolgedessen können Sie einige Dateifreigaben nicht erreichen, und die Integritätsprüfung zeigt den Fehler
VDFS-Daemon wird nicht ausgeführt
. Imvdfsd-server
-Protokoll werden Fehler ähnlich dem Folgenden angezeigt:PANIC: NOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp:621
PANIC: NOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp:626
-
In seltenen Fällen können Suchabfragen im Hintergrund, die von vCenter Server auf einem ESXi-Host mit Zugriff auf die VMDK-Dateien virtueller in ein OVF-Format exportierter Maschinen ausgeführt werden, die Dateien versehentlich ändern. Infolgedessen können Sie die virtuellen Maschinen nicht importieren.
-
Aufgrund eines Komponentenlastproblems schlägt das Hinzufügen einer Multipathing-PSA-Beanspruchungsregel zum Satz von Beanspruchungsregeln auf einem vCenter Server-System unter Verwendung des JumpStart-Tools möglicherweise fehl.
-
Nach einem kontrollierten Herunterfahren oder Starten eines Servers in einem Cluster von ESXi-Servern, die mit einem ALUA-Array verbunden sind, werden alle LUNs, auf die dieser Server Zugriff hat, möglicherweise auf einen Speicherprozessor im Array übertragen. Infolgedessen verschlechtert sich die Leistung der anderen ESXi-Server, die auf die LUNs zugreifen.
-
Bei einer hohen Arbeitsspeicherbelastung verarbeitet PSA in seltenen Fällen Fehler bei der Arbeitsspeicherzuteilung nicht ordnungsgemäß. Infolgedessen fällt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm und einem Fehler wie
#PF Exception 14 in world 2098026:SCSI path sc IP / SCSI path scan helpers
aus. -
Wenn eine ausgeführte virtuelle Maschine während eines Snapshot-Löschvorgangs neu gestartet wird, werden die VM-Festplatten möglicherweise während der Snapshot-Konsolidierung nicht ordnungsgemäß neu geöffnet und geschlossen. Infolgedessen fällt die VM möglicherweise aus. Dies ist jedoch ein Zeitproblem, das versehentlich auftritt.
-
Während der Geräteerkennung kann ein Reservierungskonflikt dazu führen, dass ATS fälschlicherweise als
nicht unterstützt
gemeldet wird. Aus diesem Grund verwendet ESXi die SCSI-2-Reservierung anstelle von ATS. Dies führt dazu, dass das Mounten von VMFS6-Datenspeichern mit aktivierter Cluster-VMDK-Unterstützung möglicherweise zufällig fehlschlägt. -
Bei einigen Vorgängen kann die Host-UUID geändert werden. Wenn Sie beispielsweise ESXi-Software neu installieren oder den Host zwischen Clustern verschieben, kann sich die Host-UUID gegebenenfalls ändern. Wenn sich die Host-UUID während des Ausfalls des vSAN-Dateidiensts ändert, können vSAN-Dateidienstserver nicht gestartet werden.
-
Wenn Sie den vSAN-Dateidienst ohne vorhandene Dateifreigaben deaktivieren, entfernt vSAN die Dateidienstdomäne. Ein Entfernungsfehler eines Servers unterbricht möglicherweise den Prozess und hinterlässt einige Metadaten. Wenn Sie den Dateidienst erneut aktivieren, funktioniert der Dateidienst aufgrund der alten Metadaten möglicherweise nicht wie erwartet.
-
Der Befehl „Zielportgruppen des Berichts“ gibt möglicherweise im Feld IMPLIZITE ÜBERGANGSZEIT einen falschen Wert zurück, was sich auf die SCSI-zu-NVMe-Übersetzungsschicht auswirkt. In Fällen wie der Migration mehrerer Appliances ist die Zeit für den ALUA-Übergang für Multipathing-Software, beispielsweise PowerPath, zur Durchführung korrekter Vorgänge von entscheidender Bedeutung.
-
Kleine ausstehende Zuordnungsaufhebungen werden möglicherweise blockiert, wenn Sie einen Host neu starten oder eine Festplattengruppe erneut mounten. Die ausstehenden Zuordnungsaufhebungen können zu einer Protokollüberlastung führen, die E/A-Latenz zur Folge hat.
-
Nach dem ersten Upgrade oder Update Ihres Systems auf ESXi 7.x findet bei jedem nachfolgenden Update, das auch als Patch bezeichnet wird, möglicherweise eine Kürzung der Angaben im Pfad zum Verzeichnis
/productLocker
in einem Datenspeicher statt. Wenn Ihr erster Patch auf ESXi 7.x beispielsweise von 7.0 Update 2 zu 7.0 Update 3 führt, ist das Verzeichnis/productLocker
ursprünglich dem Verzeichnis/vmfs/volumes/xxx/VMware-Tools/productLocker/
ähnlich. Für jeden nachfolgenden Patch, z. B. von 7.0 Update 3 auf 7.0 Update 3c, ähnelt der Pfad jedoch/VMware-Tools/productLocker/
. -
In einem vSAN Stretched Cluster oder einem Cluster mit zwei Knoten werden quorumbasierte Entscheidungen für Objekte mit PFTT von 1 und SFTT von 1 oder mehr möglicherweise nicht ordnungsgemäß verteilt. Wenn eine Site ausfällt und ein zusätzlicher Host oder eine zusätzliche Festplatte auf der aktiven Site ausfällt, verliert das Objekt möglicherweise das Quorum, und es kann nicht mehr darauf zugegriffen werden.
-
Eine Anforderung zur Größenänderung eines Objekts kann fehlschlagen, wenn die neue Größe nicht auf 512 Byte ausgerichtet ist. Dieses Problem kann dazu führen, dass ein ESXi-Host mit einem violetten Diagnosebildschirm ausfällt.
-
In einigen Fällen, z. B. beim Neustart einer virtuellen Maschine, kann eine laufende SSH-Sitzung, die das Dienstprogramm „pktcap-uw“ zur Überwachung und Validierung von Switch-Konfigurationen auf dem ESXi-Host verwendet, beendet werden. Das Dienstprogramm „pktcap-uw“ versucht möglicherweise weiterhin, Pakete zu verarbeiten. Dies führt dazu, dass das Dienstprogramm mehr CPU verbraucht als normal. Mit dem Befehl
esxtop -a
können Sie die CPU-Leistung nachverfolgen. -
Auf einem vCenter Server unter 7.0 Update 3 kann ein zertifiziertes NVMe-Gerät die folgende Warnung für die Integritätsprüfung aufweisen:
NVMe-Gerät ist nicht für VMware zertifiziert
. Möglicherweise wird auch die folgende Integritätsprüfungswarnung angezeigt:NVMe-Gerät kann nicht identifiziert werden
. -
Der ESXCLI-Befehl
hardware ipmi bmc get
gibt aufgrund einer falschen Analyse die IPv6-Adresse eines BMC nicht zurück. -
Wenn der Zeugenhost von Clusterhosts nicht erreicht werden kann, fällt der Assistent zum Herunterfahren des vSAN-Clusters für einen Stretched Cluster oder einen Cluster mit zwei Knoten möglicherweise aus. Dieses Problem tritt auf, wenn für den vSAN-Datenverkehr und den Zeugen-Datenverkehr verschiedene vmknics verwendet werden. Im vSphere Client wird die folgende Fehlermeldung auf der Seite „vSAN-Dienste“ angezeigt:
Getrennter Host von Orch gefunden <Zeugen-IP>
. Wenn vCenter im Cluster gehostet wird, ist der vSphere Client beim Herunterfahren nicht verfügbar, und die Fehlermeldung wird auf dem Host Client angezeigt, auf dem sich die vCenter-VM befindet. -
Wenn Sie im vSphere Client mit der rechten Maustaste klicken, um einen Datenspeicher zu durchsuchen, wird anstelle der Namen möglicherweise die UUID einiger virtueller Maschinen in einem vSphere Virtual Volumes-Datenspeicher angezeigt, wie z. B.
naa.xxxx
. Dieses Problem tritt nur selten in großen Umgebungen mit einer großen Anzahl von Containern und VMs in einem vSphere Virtual Volumes-Datenspeicher auf. Das Problem hat keine funktionalen Auswirkungen, wie z. B. Auswirkungen auf VM-Vorgänge, Sicherungen oder andere Elemente als die VM-Anzeige im vSphere Client. -
Aufgrund eines seltenen Problems im Zusammenhang mit der ESXi-Infrastruktur kann ein langsamer VASA-Anbieter eine Situation auslösen, in der auf die vSphere Virtual Volumes-Datenspeicher nicht zugegriffen werden kann und der ESXi-Host nicht mehr reagiert.
-
Wenn Sie in bestimmten Umgebungen einen ESXi-Host herunterfahren, wird dieser nicht ausgeschaltet, und es wird ein Bildschirm mit der Meldung
Dieses System wurde angehalten angezeigt. Mit der Schaltfläche zum Zurücksetzen oder zum Ein-/Ausschalten kann ein sicherer Neustart durchgeführt werden.
-
Die Einstellung
LargeBAR
, die das Basisadressregister (Base Address Register, BAR) auf einem vmxnet3-Gerät erweitert, unterstützt einheitliches Passthrough (Uniform Passthrough, UPT). UPT wird jedoch unter ESX 7.0 Update 3 und höher nicht unterstützt, und wenn der vmxnet3-Treiber auf eine Version vor 7.0 herabgestuft wird und die EinstellungLargeBAR
aktiviert ist, verlieren die virtuellen Maschinen möglicherweise die Konnektivität. -
Wenn Sie unabhängige, nicht dauerhafte Festplatten im laufenden Betrieb von einer virtuellen Maschine entfernen, für die der Konfigurationsparameter
vmx.reboot.PowerCycle
aktiviert ist, speichert ESXi eine Redo-Protokolldatei. Wenn es sich bei einer solchen VM um eine Sicherungs-Proxy-VM handelt, werden möglicherweise viele redundante Redo-Protokolldateien angezeigt, die einen erheblichen Teil des Speichers in Anspruch nehmen. -
Wenn ein ESXi-Host versucht, über einen Ressourcenpool-Cache auf einen nicht im Cache enthaltenen Eintrag zuzugreifen, fällt der Host zeitweise mit einem violetten Diagnosebildschirm
PF Exception 14
und einer Core-Dump-Datei aus. In der Dump-Datei werden Fehler für die ModuleJ3_DeleteTransaction
undJ6ProcessReplayTxnList
angezeigt, die auf das Problem hinweisen. -
Ein seltenes Problem im Zusammenhang mit VMFS kann bei grundlegenden Dateisystemaufrufen wie
open
,access
oderrename
zu hochgradigen Sperrungskonflikten bei hostd-Dienst-Threads oder sogar zu Deadlocks führen. Folglich reagiert der ESXi-Host nicht mehr. -
Da das MD5-Authentifizierungsprotokoll ab ESXi 7.x nicht mehr unterstützt wird, schlagen Upgrades auf ESXi 7.x fehl, wenn für eine ESXi-SNMP-Agent-Konfiguration das MD5-Authentifizierungsprotokoll verwendet wird.
-
In ESXi 7.x toleriert der Parameter
Syslog.global.logHost
, der eine kommagetrennte Liste von Remote-Hosts und Spezifikationen für Nachrichtenübertragungen definiert, keine Leerzeichen nach dem Komma. ESXi-Versionen vor 7.x tolerieren im ParameterSyslog.global.logHost
ein Leerzeichen nach dem Komma. Dies kann dazu führen, dass Upgrades auf ESXi 7.x fehlschlagen. -
Ein Problem im Zusammenhang mit der probabilistischen Datenstruktur „Bloom-Filter“, die die Lese-E/A für in einem Snapshot ausgeführte VMs optimieren soll, kann zu einem logischen, konsistenzbasierten E/A-Fehler führen, wenn die VM auf einem Snapshot ausgeführt wird. Das Problem ist begrenzt und tritt nur auf, wenn Sie SQL Server in einem Snapshot ausführen.
-
Ein Problem mit dem Prozess, der Datenspeicher zur Unterstützung von Dateiblockzuteilungen für Thin-Dateien prüft, kann in bestimmten Fällen zu einer CPU-Sperre führen. Dies führt dazu, dass der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm und einer Fehlermeldung ähnlich der folgenden ausfällt:
PSOD - @BlueScreen: NMI
. -
Die Protokolldateien des hostd-Diensts erhalten möglicherweise eine ungewöhnlich hohe Anzahl von Meldungen des Typs
Task Created
undTask Completed
für unsichtbare Aufgaben, was wiederum die Aufbewahrungszeit für Protokolle verringern kann. -
Wenn ein SCSI-Befehl für einen Protokollendpunkt eines vSphere Virtual Volumes-Datenspeichers fehlschlägt, erhält der Endpoint möglicherweise den Status „Nicht unterstützt“, der möglicherweise zwischengespeichert wird. Dies führt dazu, dass die folgenden an diesen Protokollendpunkt gerichteten SCSI-Befehle mit einem Fehlercode wie
0x5 0x20
fehlschlagen und Lese- und Schreibvorgänge in einem vSphere Virtual Volumes-Datenspeicher fehlschlagen. -
In einigen Fällen, z. B. bei einem Portausfallfehler, verlieren ESXi-Hosts möglicherweise die Konnektivität zum NVMe-Controller, obwohl einige E/A-Warteschlangen weiterhin aktiv sind.
-
Wenn Sie eine virtuelle Maschine mithilfe von vSphere Replication replizieren, und die VM-Festplatte auf eine Zahl erhöht wird, die nicht auf 512 ausgerichtet ist, kann die VM nicht eingeschaltet werden.
-
Wenn die Anzahl der CPUs, die Sie mit dem Parameter
ConfigSpec#numCPUs
konfigurieren, kein Vielfaches der Kerne pro Socket ist, die Sie in der Konfiguration einer virtuellen Maschine mit dem ParameterConfigSpec#numCoresPerSocket
definieren, lässt sich die VM nicht einschalten. -
Dieses Problem betrifft Hosts in Stretched Clustern mit den Richtlinieneinstellungen
locality=None
,HFT=0
,SFT=1
undSFT=2
. Wenn Sie einen Host mit „Zugriff sicherstellen“ in den Wartungsmodus versetzen, bleibt der Vorgang möglicherweise für einen langen Zeitraum bei 100 % oder schlägt nach 60 Minuten fehl. -
Nach dem Upgrade eines ESXi-Hosts auf 7.0 Update 2 bemerken Sie möglicherweise häufige vSAN-Netzwerklatenz-Alarme für den Cluster, wenn der vSAN-Leistungsdienst aktiviert ist. Die Latenzergebnisse zeigen, dass die meisten Alarme vom primären vSAN-Knoten ausgegeben werden.
-
Aufgrund einer Größenänderung der standardmäßigen Admin-Warteschlange für NVMe over RDMA-Controller in ESXi 7.0 Update 3c kann es vorkommen, dass nach Updates von ESXi 7.0, 7.0 Update 1 oder 7.0 Update 2 auf 7.0 Update 3c nicht mehr auf NVMe over RDMA-Speicher zugegriffen werden kann.
-
Aufgrund einer seltenen Race-Bedingung beim Versuch eines Container-Ports, eine bereits abgerufene Sperre erneut abzurufen, kann ein ESXi-Host mit einem violetten Diagnosebildschirm fehlschlagen, wenn virtuelle Maschinen mit Container-Ports ausgeschaltet werden oder eine Migration mit vSphere vMotion durchführen. Dieses Problem tritt aufgrund der Duplizierung von Port-IDs auf.
-
ESXi-Hosts verlieren nach dem Upgrade des lpfc-Treibers auf 14.0.x.x möglicherweise den Zugriff auf Unity-Speicher-Arrays. In den Treiberprotokollen werden Fehler wie
Protokollfehler bei der Verarbeitung von FCP-E/A erkannt
undrspInfo3 x2
angezeigt. -
Bei LSI-bezogenen Treibern kann es beim Hochfahren eines ESXi-Servers, wenn Sie eine Festplatte herausnehmen und in einen anderen Steckplatz auf demselben Host einsetzen, lange dauern, bis Änderungen am Speicherort der Festplatte über den vSphere Client oder mithilfe des ESXCLI-Befehls
esxcli storage core device physical get -d
sichtbar werden. Das Problem besteht speziell bei Treibern, die mit vielen Festplatten (150 und mehr) verbunden sind, und wird innerhalb von 5 Minuten behoben. -
Mit ESXi 7.0 Update 3f unterstützt der Intel-icen-Treiber Netzwerkfunktionen auf E822/E823-Netzwerkkarten für Intel Icelake-D-Plattformen. ENS- (Enhanced Network Stack) und RDMA-Funktionen auf solchen Geräten werden nicht unterstützt.
-
ESXi 7.0 Update 3f aktualisiert den Treiber
Intel-ne1000
zur Unterstützung von Intel I219-LM-Geräten, die für neuere Servermodelle erforderlich sind, wie z. B. die Intel Lac-S-Plattform. Der TCP-Segmentierungs-Offload für die I219-Geräte ist aufgrund von bekannten Problemen im Hardware-DMA deaktiviert. -
Ein sehr seltenes Problem aufgrund eines Nullzeigerfehlers kann dazu führen, dass ESXi-Hosts in IBM FlashSystem V9000-Arrays mit einem violetten Diagnosebildschirm und einem Fehler wie zum Beispiel
#PF Exception 14 in world 2098414:CqWorld IP 0xxxxx addr 0xxxx
ausfallen. -
Wenn Sie vSphere FT deaktivieren oder anhalten, verlieren virtuelle Maschinen möglicherweise vorübergehend die Konnektivität und reagieren nicht auf Ping- oder Netzwerkdatenverkehr. Beim Pingen von virtuellen Maschinen treten möglicherweise innerhalb eines kurzen Zeitraums nacheinander Zeitüberschreitungen auf, z. B. innerhalb von 20 Sekunden.
-
Unter bestimmten Bedingungen, z. B. bei einer Erhöhung der gemeinsamen Seitennutzung oder beim Deaktivieren der Nutzung großer Seiten auf VM- oder ESXi-Hostebene, kann die CPU-Nutzung von Windows-VMs, bei denen Virtualization-Based Security (VBS) aktiviert ist, bis zu 100 % erreichen.
-
Profilname | ESXi-7.0U3sf-20036586-standard |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 12. Juli 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 2920287, 2946147, 2946217, 2946222, 2946671, 2946863, 2947156, 2951864, 2951866, 2972147, 2972151, 2816546 |
Verwandte CVE-Nummern | CVE-2004-0230, CVE-2020-7451, CVE-2015-2923, CVE-2015-5358, CVE-2013-3077, CVE-2015-1414, CVE-2018-6918, CVE-2020-7469, CVE-2019-5611, CVE-2020-7457, CVE-2018-6916, CVE-2019-5608, CVE-2022-23816, CVE-2022-23825, CVE-2022-28693, CVE-2022-29901 |
- Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
-
- Der XML-Parser Expat wurde auf Version 2.4.7 aktualisiert.
- Die SQLite-Datenbank wurde auf Version 3.37.2 aktualisiert.
- Die cURL-Bibliothek wurde auf Version 7.81.0 aktualisiert.
- Das OpenSSL-Paket wurde auf Version openssl-1.0.2ze aktualisiert.
- Die userworld-libxml2-Bibliothek von ESXi wurde auf Version 2.9.14 aktualisiert.
- Das Python-Paket wurde auf 3.8.13 aktualisiert.
- Die zlib-Bibliothek wurde auf 1.2.12 aktualisiert.
- In dieser Version wurde CVE-2004-0230 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem niedrigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 3,7.
- In dieser Version wurde CVE-2020-7451 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem mittleren Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 5,3.
- In dieser Version wurde CVE-2015-2923 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem mittleren Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 6,5.
- In dieser Version wurde CVE-2015-5358 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem mittleren Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 6,5.
- In dieser Version wurde CVE-2013-3077 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,0.
- In dieser Version wurde CVE-2015-1414 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2018-6918 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2020-7469 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2019-5611 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2020-7457 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,8.
- In dieser Version wurde CVE-2018-6916 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 8,1.
- In dieser Version wurde CVE-2019-5608 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 8,1.
-
In dieser Version werden die folgenden Schwachstellen behoben: CVE-2022-23816, CVE-2022-23825, CVE-2022-28693 und CVE-2022-29901. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware-Produkte finden Sie unter VMSA-2022-0020.
-
Profilname | ESXi-7.0U3sf-20036586-no-tools |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 12. Juli 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 2920287, 2946147, 2946217, 2946222, 2946671, 2946863, 2947156, 2951864, 2951866, 2972147, 2972151, 2816546 |
Verwandte CVE-Nummern | CVE-2004-0230, CVE-2020-7451, CVE-2015-2923, CVE-2015-5358, CVE-2013-3077, CVE-2015-1414, CVE-2018-6918, CVE-2020-7469, CVE-2019-5611, CVE-2020-7457, CVE-2018-6916, CVE-2019-5608, CVE-2022-23816, CVE-2022-23825, CVE-2022-28693, CVE-2022-29901 |
- Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
-
- Der XML-Parser Expat wurde auf Version 2.4.7 aktualisiert.
- Die SQLite-Datenbank wurde auf Version 3.37.2 aktualisiert.
- Die cURL-Bibliothek wurde auf Version 7.81.0 aktualisiert.
- Das OpenSSL-Paket wurde auf Version openssl-1.0.2ze aktualisiert.
- Die userworld-libxml2-Bibliothek von ESXi wurde auf Version 2.9.14 aktualisiert.
- Das Python-Paket wurde auf 3.8.13 aktualisiert.
- Die zlib-Bibliothek wurde auf 1.2.12 aktualisiert.
- In dieser Version wurde CVE-2004-0230 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem niedrigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 3,7.
- In dieser Version wurde CVE-2020-7451 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem mittleren Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 5,3.
- In dieser Version wurde CVE-2015-2923 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem mittleren Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 6,5.
- In dieser Version wurde CVE-2015-5358 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem mittleren Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 6,5.
- In dieser Version wurde CVE-2013-3077 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,0.
- In dieser Version wurde CVE-2015-1414 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2018-6918 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2020-7469 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2019-5611 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,5.
- In dieser Version wurde CVE-2020-7457 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 7,8.
- In dieser Version wurde CVE-2018-6916 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 8,1.
- In dieser Version wurde CVE-2019-5608 behoben. Nach der Auswertung von VMware liegt der Schweregrad dieses Problems in einem wichtigen Schweregradbereich mit einer maximalen CVSSv3-Basispunktzahl von 8,1.
-
In dieser Version werden die folgenden Schwachstellen behoben: CVE-2022-23816, CVE-2022-23825, CVE-2022-28693 und CVE-2022-29901. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware-Produkte finden Sie unter VMSA-2022-0020.
-
Name | ESXi |
Version | ESXi70U3f-20036589 |
Datum der Veröffentlichung | 12. Juli 2022 |
Kategorie | Fehlerkorrektur |
Betroffene Komponenten |
|
Behobene Probleme | 2916848, 2817702, 2937074, 2957732, 2984134, 2944807, 2985369, 2907963, 2949801, 2984245, 2911320 , 2915911, 2990593, 2992648, 2905357, 2980176, 2974472, 2974376, 2972059, 2973031, 2967359, 2860126, 2878245, 2876044, 2968157, 2960242, 2970238, 2966270, 2966783, 2963328, 2939395, 2966362, 2946550, 2958543, 2966628, 2961584, 2911056, 2965235, 2952427, 2963401, 2965146, 2963038, 2963479, 2949375, 2961033, 2958926, 2839515, 2951139, 2878224, 2954320, 2952432, 2961346, 2857932, 2960949, 2960882, 2957966, 2929443, 2956080, 2959293, 2944919, 2948800, 2928789, 2957769, 2928268, 2957062, 2792139, 2934102, 2953709, 2950686, 2953488, 2949446, 2955016, 2953217, 2956030, 2949902, 2944894, 2944521, 2911363, 2952205, 2894093, 2910856, 2953754, 2949777, 2925733, 2951234, 2915979, 2904241, 2935355, 2941263, 2912661, 2891231, 2928202, 2928268, 2867146, 2244126, 2912330, 2898858, 2906297, 2912213, 2910340, 2745800, 2912182, 2941274, 2912230, 2699748, 2882789, 2869031, 2913017, 2864375, 2929821, 2957673, 2921564, 2925133, 2965277, 2980176 |
Verwandte CVE-Nummern | Nicht verfügbar |
Name | ESXi |
Version | ESXi70U3sf-20036586 |
Datum der Veröffentlichung | 12. Juli 2022 |
Kategorie | Sicherheit |
Betroffene Komponenten |
|
Behobene Probleme | 2920287, 2946147, 2946217, 2946222, 2946671, 2946863, 2947156, 2951864, 2951866, 2972147, 2972151 |
Verwandte CVE-Nummern | CVE-2004-0230, CVE-2020-7451, CVE-2015-2923, CVE-2015-5358, CVE-2013-3077, CVE-2015-1414, CVE-2018-6918, CVE-2020-7469, CVE-2019-5611, CVE-2020-7457, CVE-2018-6916, CVE-2019-5608, CVE-2022-23816, CVE-2022-23825, CVE-2022-28693, CVE-2022-29901 |
Bekannte Probleme
Die bekannten Probleme gliedern sich in folgende Gruppen.
- Probleme in Bezug auf den vSphere Client
- Sonstige Probleme
- Bekannte Probleme aus vorherigen Versionen
- BIOS-Hersteller wird im vSphere Client als „--“ angezeigt
Wenn Sie im vSphere Client einen ESXi-Host auswählen und zu Konfigurieren > Hardware > Firmware navigieren, wird anstelle des BIOS-Herstellernamens
--
angezeigt.Problemumgehung: Weitere Informationen finden Sie im VMware-Knowledgebase-Artikel 88937.
- USB-Geräte-Passthrough von ESXi-Hosts zu virtuellen Maschinen schlägt möglicherweise fehl
Ein USB-Modemgerät beansprucht möglicherweise gleichzeitig mehrere Schnittstellen durch den VMkernel und blockiert das Geräte-Passthrough zu VMs.
Problemumgehung: Sie müssen die erweiterte Konfiguration USB.quirks auf den ESXi-Host anwenden, um die NET-Schnittstelle von VMkernel zu ignorieren und das Passthrough des USB-Modems zu VMs zuzulassen. Sie können die Konfiguration auf drei verschiedene Arten anwenden:- Greifen Sie auf die ESXi-Shell zu und führen Sie den folgenden Befehl aus:
esxcli system settings advanced set -o /USB/quirks -s
0xvvvv:0xpppp:0:0xffff:UQ_NET_IGNORE | |- Device Product ID |------- Device Vendor ID
Für das Gemalto M2M GmbH Zoom 4625-Modem (vid:pid/1e2d:005b
) können Sie beispielsweise den folgenden Befehl verwendenesxcli system settings advanced set
-o/USB/quirks -s 0x1e2d:0x005b:0:0xffff:UQ_NET_IGNORE
Starten Sie den ESXi-Host neu. - Legen Sie die erweiterte Konfiguration über den vSphere Client oder den vSphere Web Client fest und starten Sie den ESXi-Host neu.
- Verwenden Sie ein Hostprofil, um die erweiterte Konfiguration anzuwenden.
Weitere Informationen zu diesen Schritten finden Sie im VMware-Knowledgebase-Artikel 80416.
- Greifen Sie auf die ESXi-Shell zu und führen Sie den folgenden Befehl aus: