ESXi 7.0 Update 3i | 8. DEZEMBER 2022 | 20842708 Überprüfen Sie, ob Erweiterungen und Updates für diese Versionshinweise zur Verfügung stehen. |
Inhalt dieser Versionshinweise
Diese Versionshinweise decken die folgenden Themen ab:
- Neuigkeiten
- Vorherige Versionen von ESXi 7.0
- In dieser Version enthaltene Patches
- Hinweise zu Produktunterstützung
- Behobene Probleme
- Bekannte Probleme
- Bekannte Probleme aus vorherigen Versionen
WICHTIG: Wenn Ihr Quellsystem Hosts mit Versionen zwischen ESXi 7.0 Update 2 und Update 3c sowie Intel-Treiber enthält, lesen Sie vor dem Upgrade auf ESXi 7.0 Update 3i den Abschnitt Neuigkeiten der Versionshinweise zu VMware vCenter Server 7.0 Update 3c, da der gesamte Inhalt im Abschnitt auch für vSphere 7.0 Update 3i gilt. Weitere Informationen erhalten Sie auch in den verwandten VMware-Knowledgebase-Artikeln: 86447, 87258 und 87308.
Neuigkeiten
-
ESXi 7.0 Update 3i unterstützt vSphere Quick Boot auf folgendem Server:
-
HPE ProLiant MicroServer Gen10 Plus v2
-
-
In dieser Version werden die Schwachstellen CVE-2022-31696 und CVE-2022-31699 behoben. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware Produkte finden Sie unter VMSA-2022-0030.
Vorherige Versionen von ESXi 7.0
Neue Funktionen sowie die gelösten und bekannten Probleme von ESXi werden in den entsprechenden Versionshinweisen beschrieben. Versionshinweise zu vorherigen Versionen von ESXi 7.0:
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 3g
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 3f
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 3e
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 3d
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2e
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1e
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 3c
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2d
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2c
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2a
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1d
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1c
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1b
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1a
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0b
Informationen zu Internationalisierung, Kompatibilität und Open Source-Komponenten finden Sie in den Versionshinweisen zu VMware vSphere 7.0.
In dieser Version enthaltene Patches
Diese Version von ESXi 7.0 Update 3i stellt die folgenden Patches bereit:
Build-Details
Download-Dateiname: | VMware-ESXi-7.0U3i-20842708-depot |
Build: | 20842708 |
Download-Größe: | 570,5 MB |
md5sum: | 7ec976758701d4287393aebcc2c5d55c |
sha256checksum: | 26b26ddb4e0d3ba2bc4ac3b693addb111a0b1980abf03fce243473812ec460f7 |
Neustart des Hosts erforderlich: | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich: | Ja |
Komponenten
Komponente | Bulletin | Kategorie | Schweregrad |
---|---|---|---|
ESXi-Komponente - ESXi-Kern-VIBs | ESXi_7.0.3-0.65.20842708 | Fehlerkorrektur | Kritisch |
ESXi-Komponente „Installieren/Aktualisieren“ | esx-update_7.0.3-0.65.20842708 | Fehlerkorrektur | Kritisch |
Broadcom NetXtreme I ESX VMKAPI-Ethernet-Treiber | Broadcom-ntg3_4.1.8.0-4vmw.703.0.65.20842708 | Fehlerkorrektur | Kritisch |
ESXi-Komponente - ESXi-Kern-VIBs | ESXi_7.0.3-0.60.20841705 | Sicherheit | Kritisch |
ESXi-Komponente „Installieren/Aktualisieren“ | esx-update_7.0.3-0.60.20841705 | Sicherheit | Kritisch |
ESXi Tools-Komponente | VMware-VM-Tools_12.1.0.20219665-20841705 | Sicherheit | Kritisch |
WICHTIG:
- Ab vSphere 7.0 verwendet VMware Komponenten zum Verpacken von VIBs mit Bulletins. Die Bulletins
ESXi
undesx-update
bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden. - Beim Patchen von ESXi-Hosts mithilfe von VMware Update Manager von einer Version vor ESXi 7.0 Update 2 wird dringend empfohlen, das Rollup-Bulletin in der Patch-Baseline zu verwenden. Wenn Sie das Rollup-Bulletin nicht verwenden können, stellen Sie sicher, dass alle der folgenden Pakete in der Patch-Baseline enthalten sind. Wenn die folgenden Pakete nicht in der Baseline enthalten sind, schlägt der Updatevorgang fehl:
- VMware-vmkusb_0.1-1vmw.701.0.0.16850804 oder höher
- VMware-vmkata_0.1-1vmw.701.0.0.16850804 oder höher
- VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 oder höher
- VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 oder höher
Rollup-Bulletin
Dieses Rollup-Bulletin enthält die neuesten VIBs mit allen Fixes nach der ersten Version von ESXi 7.0.
Bulletin-ID | Kategorie | Schweregrad | Detail |
ESXi70U3i-20842708 | Fehlerkorrektur | Kritisch | Sicherheit und Fehlerbehebung |
ESXi70U3si-20841705 | Sicherheit | Kritisch | Nur Sicherheit |
Image-Profile
Patch- und Updateversionen von VMware enthalten allgemeine und kritische Image-Profile. Die Anwendung des allgemeinen Image-Profils der Version gilt für die neuen Fehlerkorrekturen.
Name des Image-Profils |
ESXi-7.0U3i-20842708-standard |
ESXi-7.0U3i-20842708-no-tools |
ESXi-7.0U3si-20841705-standard |
ESXi-7.0U3si-20841705-no-tools |
ESXi-Image
Name und Version | Datum der Veröffentlichung | Kategorie | Detail |
---|---|---|---|
ESXi_7.0.3-0.65.20842708 | 8. DEZEMBER 2022 | Verbesserung | Image für Sicherheit und Fehlerbehebung |
ESXi_7.0.3-0.60.20841705 | 8. DEZEMBER 2022 | Verbesserung | Image nur für Sicherheit |
Informationen zu den einzelnen Komponenten und Bulletins finden Sie auf der Seite Produkt-Patches und im Abschnitt Behobene Probleme.
Patch-Download und -Installation
In vSphere 7.x wird das für die Verwaltung von vSphere Update Manager verwendete Update Manager-Plug-In durch das Lifecycle Manager-Plug-In ersetzt. Verwaltungsvorgänge für vSphere Update Manager stehen weiterhin mit neuen Funktionen für vSphere Lifecycle Manager im Lifecycle Manager-Plug-In zur Verfügung.
Die typische Methode zum Anwenden von Patches auf ESXi 7.x-Hosts besteht in der Verwendung des vSphere Lifecycle Manager. Weitere Informationen finden Sie unter Info zu vSphere Lifecycle Manager und vSphere Lifecycle Manager-Baselines und -Images.
Sie können ESXi-Hosts auch ohne das Lifecycle Manager-Plug-In aktualisieren und stattdessen ein Image-Profil verwenden. Dazu müssen Sie die ZIP-Datei des Patch-Offline-Pakets manuell von VMware Customer Connect herunterladen. Wählen Sie im Dropdown-Menü Produkt auswählen die Option ESXi (eingebettet und installierbar) und im Dropdown-Menü Version auswählen die Option 7.0. Weitere Informationen finden Sie unter Aktualisieren von Hosts mithilfe von ESXCLI-Befehlen und im Handbuch VMware ESXi-Upgrade.
Hinweise zu Produktunterstützung
- Ab vSphere 7.0 Update 3i müssen Sie bei der Konfiguration des Reverse-Proxys auf dem vCenter Server-System zum Aktivieren von Smartcard-Authentifizierung Port 3128 verwenden, der automatisch festgelegt und geöffnet wird. Sie müssen auf jeden Fall über Zugriff auf den Port auf dem entsprechenden vCenter Server verfügen. Überprüfen Sie die Perimeter Firewalls, um sicherzustellen, dass Zugriff gewährt wurde. Starten Sie den STS-Dienst nach der Konfiguration des rhttpproxy-Diensts neu.
Weitere Informationen finden Sie unter Konfigurieren des Reverse-Proxys zum Anfordern von Clientzertifikaten und in den VMware-Knowledgebase-Artikeln 78057 und 90542.
Behobene Probleme
Die behobenen Probleme werden in folgende Kategorien unterteilt.
- ESXi_7.0.3-0.65.20842708
- esx-update_7.0.3-0.65.20842708
- Broadcom-ntg3_4.1.8.0-4vmw.703.0.65.20842708
- ESXi_7.0.3-0.60.20841705
- esx-update_7.0.3-0.60.20841705
- VMware-VM-Tools_12.1.0.20219665-20841705
- ESXi-7.0U3i-20842708-standard
- ESXi-7.0U3i-20842708-no-tools
- ESXi-7.0U3si-20841705-standard
- ESXi-7.0U3si-20841705-no-tools
- ESXi_7.0.3-0.65.20842708
- ESXi_7.0.3-0.60.20841705
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3021935, 2994966, 2983919, 3014323, 2996511, 2982013, 3011324, 3048788, 2983043, 3035934, 3015498, 3031708, 3041100, 3044475, 2990414, 3003866, 3011850, 3002779, 3033161, 3016132, 3015493, 3029194, 3007116, 2977496, 3021384, 2988179, 3025470, 3033159, 3011169, 3018832, 2977486, 2932056, 3013368, 2995471, 3006356, 2981272, 3000195, 3026623, 2981420, 3025469, 3042776, 2916160, 2996208, 3014374, 2977957, 2979281, 2976953, 2999968, 3031566, 3036859, 3029490, 2992407 |
CVE-Nummern | Nicht verfügbar |
Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.
Aktualisiert die VIBs esx-xserver, gc, vsan, cpu-microcode, esx-base, esx-dvfilter-generic-fastpath, vsanhealth, native-misc-drivers, esx-ui, trx, bmcal, vdfs, esxio-combiner
und crx
zur Behebung der folgenden Probleme:
- PR 3021935: Bei VM-Ereignissen wird die Vorlageneigenschaft manchmal falsch gemeldet
In seltenen Fällen kann es bei VM-Ereignissen zu einer inkorrekten Meldung der Eigenschaft
template
kommen. Diese Eigenschaft gibt an, ob eine virtuelle Maschine als Vorlage markiert ist. Infolgedessen besteht die Möglichkeit, dass die Eigenschafttemplate
alstrue
angezeigt wird, obwohl die VM keine Vorlage ist, oder aber alsfalse
, obwohl eine VM als Vorlage markiert ist.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2994966: Zu ESXi-Hosts werden in der MOB-Schnittstelle (Managed Object Browser) keine Speicherstatusinformationen angezeigt
Aufgrund einer fehlenden Speichermoduleinheit für Cisco-Server im Managed Object Browser werden bei Verwendung von MOB unter Umständen keine Speicherstatusinformationen zu einem ESXi-Host angezeigt.
Dieses Problem wurde in der vorliegenden Version behoben. Der Fix bewirkt zusätzliche Unterstützung für Speichermoduleinheit ID 8 (08h).
- PR 2983919: Nicht reagierende Active Directory-Domänencontroller können zeitweise dazu führen, dass der hostd-Dienst auch nicht mehr reagiert
In sehr seltenen Fällen können zufällige Probleme mit Active Directory-Umgebungen, die einen Zustand bedingen können, in dem der Domänencontroller nicht mehr reagiert, auch dazu führen, dass der hostd-Dienst nicht mehr reagiert.
Dieses Problem wurde in der vorliegenden Version behoben. Der Fix bewirkt, dass der hostd-Dienst weiterhin reagiert, wenn der Active Directory-Domänencontroller vorübergehend nicht reagiert.
- PR 3014323: Nach dem Erstellen einer VM oder dem Zurücksetzen auf einen VM-Snapshot werden die gastbezogenen Leistungsindikatoren in VMware Tools nicht mehr aktualisiert
In seltenen Fällen kann es vorkommen, dass der interne Zustand des VMX-Prozesses aufgrund des schnellen Suspend-Resume-Mechanismus beim Erstellen oder Zurücksetzen einer VM basierend auf einem Snapshot ohne Benachrichtigung an die oberen Schichten des virtuellen Infrastrukturmanagement-Stacks neu initialisiert wird. Dies hat zur Folge, dass alle gastbezogenen Leistungsindikatoren in VMware Tools nicht mehr aktualisiert werden. In allen Schnittstellen zum ESXi-Host werden dauerhaft die zuletzt aufgezeichneten Werte angezeigt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2996511: Der rhttpproxy-Dienst schlägt gelegentlich mit einem Coredump und der Meldung eines Pufferüberlaufs fehl
Wenn der rhttpproxy-Dienst mehrere Vorgänge für eingehende URIs durchführt, kann er den Puffer-Offset der einzelnen Verbindungen falsch berechnen. Dies führt möglicherweise zu Fehlern wie Pufferüberläufen und negativen Lesevorgängen. Dies führt dazu, dass der Dienst fehlschlägt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2982013: Sie können eine Hypercall-Option nicht ändern, wenn eine virtuelle Maschine eingeschaltet ist
Standardmäßig funktioniert das Ändern von Hypercall-Optionen mithilfe von Befehlen wie
vm | Get-AdvancedSetting -Name isolation.tools.autoInstall.disable
nur, wenn die VM ausgeschaltet ist. Bei eingeschalteten VMs lösen solche Aufrufe den folgenden Fehler aus:Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden.
Dies wird erwartet.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3011324: Mit dem Update von ESXi 7.0 Update 3c auf eine höhere Version werden alle erweiterten Sicherheitsoptionen eines ESXi-Hosts möglicherweise auf die Standardwerte zurückgesetzt
Nachdem Sie einen ESXi 7.0 Update 3c-Host auf eine höhere Version von 7.0.x aktualisiert oder ein ESXi 7.0 Update 3c-VIB installiert oder entfernt und den Host neu gestartet haben, werden möglicherweise alle erweiterten Sicherheitsoptionen auf dem Host auf ihre Standardwerte zurückgesetzt. Folgende erweiterte Einstellungen sind betroffen:
Security.AccountLockFailures
Security.AccountUnlockTime
Security.PasswordQualityControl
Security.PasswordHistory
Security.PasswordMaxDays
Security.SshSessionLimit
Security.DefaultShellAccessDieses Problem wurde in der vorliegenden Version behoben.
- PR 3048788: SR-IOV-Geräte melden möglicherweise einen falschen NUMA-Knoten für virtuelle Funktionen
Der Befehl
esxcli hardware pci list
, der den NUMA-Knoten für ESXi-Hostgeräte meldet, gibt für die physischen Funktionen (PF) eines SR-IOV-Geräts den korrekten NUMA-Knoten zurück, für seine virtuellen Funktionen (VF) hingegen null.Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass die NUMA-Knoten sowohl für PF als auch für VF von SR-IOV-Geräten konsistent sind.
- PR 2983043: Windows-Gastbetriebssystem schlägt nach der Migration von virtuellen Maschinen zu ESXi-Hosts der Version 7.0 Update 2 oder höher möglicherweise mit einem blauen Diagnosebildschirm fehl
Wenn Sie virtuelle Windows-Maschinen nach einem Upgrade auf ESXi 7.0 Update 2 oder höher mithilfe von vSphere vMotion zu den aktualisierten Hosts migrieren, schlagen einige VMs nach der Migration möglicherweise mit einem blauen Diagnosebildschirm fehl. Auf dem Bildschirm wird die Fehlermeldung
Betriebssystem konnte nicht gestartet werden, kein Betriebssystem gefunden
angezeigt. Dieses Problem tritt aufgrund eines Fehlers in der Adressoptimierungslogik des Virtual Machine File System (VMFS) auf.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3035934: ESXi-Hosts reagieren möglicherweise nicht mehr, wenn kein registrierter Standardanforderungshandler verfügbar ist, und die Ausführung von vmacore.dll schlägt fehl
Wenn die Clientanwendung über keinen registrierten Standardanforderungshandler verfügt, können Anforderungen mit einem Pfad, der in der Handlerzuordnung nicht vorhanden ist, dazu führen, dass die Ausführung von
vmacore.dll
fehlschlägt. Dies führt dazu, dass der ESXi-Host vom vCenter Server-System getrennt ist.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3015498: ESXi-Hosts schlagen während Reservierungsvorgängen für die Ressourcenzuteilung möglicherweise mit einem violetten Diagnosebildschirm fehl
Einige Zuteilungsreservierungsvorgänge überschreiten möglicherweise den Grenzwert von 128 parallelen Reservierungsschlüsseln sowie den zugeteilten Arbeitsspeicherbereich eines ESXi-Hosts. Dies führt möglicherweise dazu, dass ESXi-Hosts während Reservierungsvorgängen für die Ressourcenzuteilung mit einem violetten Diagnosebildschirm fehlschlagen. Die Fehleranzeige enthält sinngemäße Meldungen wie z. B.
PSOD BlueScreen: #PF-Ausnahme 14 in World 2097700:SCSI Periode IP
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3031708: Während Vorgängen zum Aufheben der Geräte- oder Pfadbeanspruchung fallen ESXi-Hosts möglicherweise mit einem violetten Diagnosebildschirm fehl
Wenn Sie einen Befehl zum Aufheben der Beanspruchung auf einem Gerät oder Pfad ausführen, während virtuelle Maschinen auf dem Gerät noch aktive E/A-Vorgänge aufweisen, schlägt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm fehl. Auf dem Bildschirm wird sinngemäß folgende Meldung angezeigt:
PSOD bei bora/modules/vmkernel/nmp/nmp_misc.c:3839 beim Laden/Löschen von lpfc.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3041100: Wenn TPM 2.0 mit TXT auf einem ESXi-Host aktiviert ist, schlagen Versuche, eine virtuelle Maschine einzuschalten, möglicherweise fehl
Wenn TXT auf einem ESX-Host aktiviert ist, schlagen Versuche, eine VM einzuschalten, möglicherweise mit einem Fehler fehl. Im vSphere Client wird folgende Meldung angezeigt:
Dieser Host unterstützt Intel VT-x, aber Intel VT-x ist eingeschränkt. Intel VT-x ist möglicherweise eingeschränkt, weil „trusted excecution“ in den BIOS/Firmware-Einstellungen aktiviert wurde oder der Host nach dem Ändern dieser Einstellung nicht aus- und wieder eingeschaltet wurde
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3044475: Virtuelle Maschinen schlagen möglicherweise aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen mit einem von ESX nicht behebbaren Fehler fehl
Aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen schlägt eine virtuelle Maschine der Version ESX 7.0 Update 3f möglicherweise mit einem von ESX nicht behebbaren Fehler fehl. In der Datei
vmware.log
wird sinngemäß folgende Meldung angezeigt:MONITOR PANIC: vcpu-0:VMM Fehler 6: src=MONITOR ....
Das Problem ist spezifisch für virtuelle Maschinen mit Hardwareversionen 12 oder früher.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2990414: Upgrade-Vorgänge unter Verwendung einer vSphere Lifecycle Manager-Upgrade-Baseline mit einem benutzerdefinierten in vSphere ESXi Image Builder erstellten .iso-Image schlagen möglicherweise fehl
Wenn Sie ein mithilfe von Image Builder erstelltes ESXi
.iso
-Image verwenden, um eine vSphere Lifecycle Manager-Upgrade-Baseline für ESXi-Hosts zu erstellen, schlagen Upgrades mithilfe solcher Baselines möglicherweise fehl. Im vSphere Client wird folgender Fehler angezeigt:Upgrade-Skript kann nicht auf Host ausgeführt werden.
. Auf dem betroffenen ESXi-Host wird in der Datei/var/log/vua*.log
sinngemäß folgender Fehler angezeigt:ValueError: Wenn ein Add-On vorhanden ist, sollte ein Basisimage vorhanden sein
.
Der Fehler tritt auf, wenn das vorhandene Image des ESXi-Hosts über ein Add-On verfügt, das von Image Builder generierte ISO-Image hingegen kein Add-On bereitstellt.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3003866: ESXi-Hosts schlagen möglicherweise aufgrund von unzureichendem XMAP-Speicher mit einem violetten Diagnosebildschirm fehl
Viele parallele Anforderungen für Arbeitsspeicherbereiche durch virtuelle Maschinen, die das Data Plane Development Kit (DPDK) auf einem ESXi-Host verwenden, überschreiten möglicherweise den XMAP-Arbeitsspeicher auf dem Host. Folglich schlägt der Host mit einem violetten Diagnosebildschirm und sinngemäß folgender Fehlermeldung fehl:
Panic Message: @BlueScreen: VERIFY bora/vmkernel/hardware/pci/config.c:157.
Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix werden die für alle vmxnet3-Adapter verfügbaren Standardarbeitsspeicherbereiche auf 8192 MB festgelegt.
- PR 3011850: Einige Leistungsberichte für virtuelle Maschinen mit NVMe-Controllern werden in ESXi 7.0 Update 3 und höher nicht angezeigt
Nach einem Upgrade von ESXi-Hosts auf ESXi 7.0 Update 3 und höher werden möglicherweise einige Leistungsberichte für virtuelle Maschinen mit NVMe-Controllern nicht mehr angezeigt. Beispielsweise wird das Diagramm „Virtuelle Festplatte – Zusammenfassung aller Instanzen“ nicht in VMware Aria Operations angezeigt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3002779: ESXi-Host mit einer sekundären VM mit aktivierter Fault Tolerance-Verschlüsselung schlägt möglicherweise aufgrund eines Entschlüsselungspufferüberlaufs mit einem violetten Diagnosebildschirm fehl
In seltenen Fällen, wie z. B. bei einem geplanten Neustart der primären virtuellen Maschine mit FT-Verschlüsselung, die hohe Arbeitslasten ausführt, verfügt die sekundäre virtuelle Maschine möglicherweise nicht über ausreichend Puffer, um mehr als 512 MB an modifizierten Seiten in einem einzelnen FT-Prüfpunkt zu entschlüsseln, und es tritt ein Pufferüberlauffehler auf. Dies führt dazu, dass der ESXi-Host, auf dem sich die sekundäre virtuelle Maschine befindet, möglicherweise mit einem violetten Diagnosebildschirm fehlschlägt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3033161: Nach einem Upgrade bzw. Update auf ESXi 7.0 Update 2 und höher ändert sich als Flash (SSD) markierter vSAN-Speicher möglicherweise in Magnetplattenspeicher (HDD)
In seltenen Fällen kann die vSAN-Speicherkonfiguration nach einem Upgrade bzw. Update auf ESXi 7.0 Update 2 und höher das Tag
mark_ssd
verlieren und standardmäßig HDD verwenden.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3016132: Es werden häufige Protokolle für die fehlgeschlagene Registrierung getrennter LUNs angezeigt
Selbst wenn sich ein Gerät oder eine LUN im Zustand „Getrennt“ befindet, versucht die Pluggable Storage Architecture (PSA) möglicherweise weiterhin, das Objekt zu registrieren. Die PSA erstellt bei jedem Pfadauswertungsintervall dieser Versuche ein Protokoll für jeden Pfadauswertungsschritt. Infolgedessen werden möglicherweise mehrere identische Meldungen angezeigt, wie z. B.
nmp_RegisterDeviceEvents fehlgeschlagen
für die Geräteregistrierung, die bei getrenntem Gerät bzw. getrennter LUN nicht erforderlich sind.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3015493: Wenn Sie eine Gerätekonfiguration zur Laufzeit ändern, kann ein Datenspeicher nach einem Neustart eines ESXi-Hosts möglicherweise nicht gemountet werden
Wenn Sie eine Gerätekonfiguration zur Laufzeit ändern, werden Änderungen möglicherweise nicht im ESXi ConfigStore widergespiegelt, der die Konfigurationen für einen ESXi-Host enthält. Dies führt dazu, dass der Datenspeicher nach dem Neustart des ESXi-Hosts möglicherweise nicht gemountet wird.
Dieses Problem wurde in der vorliegenden Version behoben. Der Fix stellt sicher, dass ConfigStore Änderungen der Gerätekonfiguration zur Laufzeit widerspiegelt.
- PR 3029194: Nach dem Upgrade auf ESXi 7.0 Update 3 und höher schlagen ESXi-Hosts möglicherweise aufgrund eines Legacy-E/A-Schedulers mit einem violetten Diagnosebildschirm fehl
Ab ESXi 6.0 ist mClock der standardmäßige E/A-Scheduler für ESXi, aber einige Umgebungen verwenden möglicherweise weiterhin Legacy-Scheduler von ESXi-Versionen vor 6.0. Infolgedessen schlagen Upgrades dieser Hosts auf ESXi 7.0 Update 3 und höher möglicherweise mit einem violetten Diagnosebildschirm fehl.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3007116: Wenn Sie ESXi-Hosts auf ESXi 7.0 Update 3d oder höher aktualisieren, indem Sie ein Hostprofil mit Token verwenden, die auf den ALUA-Status hinweisen, schlägt der Host möglicherweise mit einem violetten Diagnosebildschirm fehl
Ab ESXi 7.0 Update 1 wurde die Konfigurationsverwaltung von ESXi-Hosts aus der Datei
/etc/vmware/esx.conf
in das ConfigStore-Framework verschoben. Dadurch erfolgt eine explizite Trennung von Status und Konfiguration. Token in deresx.conf
-Datei, wie z. B.implicit_support
oderexplicit_support
, die einen Status angeben, werden nicht als gültige Token erkannt und vomsatp_alua
-Modul ignoriert. Wenn Sie ESXi-Hosts mithilfe eines Hostprofils mit Token, die den ALUA-Status angeben, auf ESXi 7.0 Update 3d oder höher aktualisieren, könnte der Vorgang daher mit einem violetten Diagnosebildschirm fehlschlagen. Auf dem Bildschirm wird sinngemäß folgende Fehlermeldung angezeigt:Modulfehler: /var/lib/vmware/configmanager/upgrade/lib/postLoadStore/libupgradepsadeviceconfig.so
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2977496: Ein ESXi-Host reagiert möglicherweise aufgrund eines Zuteilungsproblems mit einem seltenen Dateiblock (FB) nicht mehr
Ein Hilfsmechanismus, der FB-Ressourcenzuteilungsdetails im Hintergrund zwischenspeichert, kann die FB-Ressourcenzuteilung an den ESXi-Host während E/A-Vorgängen versehentlich anhalten und blockieren. In einigen Fällen wirkt sich dieses Problem möglicherweise auf andere Prozesse aus, die für dieselbe Datei ausgeführt werden, und blockiert sie. Dies kann dazu führen, dass der ESXi-Host nicht mehr reagiert.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3021384: vSAN-Dateidienst kann nicht aktiviert werden, wenn ein isoliertes Zeugennetzwerk konfiguriert ist
Der vSAN-Dateidienst erfordert, dass Hosts miteinander kommunizieren. Der Dateidienst verwendet möglicherweise fälschlicherweise eine IP-Adresse im Zeugennetzwerk für die Interkommunikation. Wenn Sie ein isoliertes Zeugennetzwerk für vSAN konfiguriert haben, kann der Host über das Zeugennetzwerk mit einem Zeugenknoten kommunizieren, aber Hosts können über das Zeugennetzwerk nicht miteinander kommunizieren. Die Kommunikation zwischen Hosts für den vSAN-Dateidienst kann nicht hergestellt werden.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2988179: Wenn sich ein ESXi-Host im Zustand „Geringer Arbeitsspeicher“ befindet, könnte eine unzureichende Heap-Zuteilung zu einem Netzwerkmodul dazu führen, dass der Host mit einem violetten Diagnosebildschirm fehlschlägt
Wenn sich ein ESXi-Host im Zustand „Geringer Arbeitsspeicher“ befindet, könnte eine unzureichende Heap-Zuteilung zu einem Netzwerkmodul dazu führen, dass die Port-Bitmap auf
NULL
festgelegt wird. Folglich kann ein ESXi-Host bei einem Paketweiterleitungsversuch mit einem violetten Diagnosebildschirm fehlschlagen.Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass Bitvektoren in der
portsBitmap
-Eigenschaft nur dann festgelegt werden, wenn die Heap-Zuteilung erfolgreich ist. Sie müssen jedoch weiterhin sicherstellen, dass ESXi-Hosts über ausreichend RAM verfügen, um Pakete erfolgreich zu verarbeiten und weiterzuleiten. - PR 3025470: Der CLOMD-Daemon (Cluster Level Object Manager Daemon) schlägt während der Änderung des Objektformats fehl
Während der Änderung des Objektformats werden einige Objekte mit altem Layout möglicherweise teilweise bereinigt, sodass die Konfiguration in einem ungültigen Zustand bleibt. Dieses Problem kann dazu führen, dass CLOMD immer dann fehlschlägt, wenn versucht wird, das Objekt während der Neukonfiguration zu verarbeiten.
Möglicherweise werden die folgenden Einträge in derclomd.log
-Datei angezeigt:
2022-10-14T16:17:26.456Z PANIC: NOT_REACHED bora/lib/vsan/vsan_config_builder.c:744
2022-10-14T16:17:26.456Z Backtrace:
2022-10-14T16:17:26.456Z Backtrace[0] 0000030b4742c6a0 rip=000000bf0c7de98f rbx=0000030b4742c6a0
rbp=0000030b4742cad0 r12=000000bf0d677788 r13=0000030b4742cae8 r14=000000bf14ce052c r15=000000bf14ce3c2cDieses Problem wurde in der vorliegenden Version behoben.
- PR 3033159: ESXi-Hosts schlagen möglicherweise mit einem violetten Diagnosebildschirm fehl, wenn eine VM mit der Einstellung „Physical“ (Physisch) für die gemeinsame Bus-Nutzung einen SCSI-2-Reservierungsbefehl ausgibt
Windows 2012 und höher verwendet die SCSI-3-Reservierung für die Ressourcenvermittlung, um Windows Failover Clustering (WSFC) auf ESXi für systemübergreifende Cluster-Konfigurationen (Cluster-across-box, CAB) zu unterstützen. Wenn Sie jedoch die Einstellung
Physical
für die gemeinsame Bus-Nutzung des SCSI-Controllers auf dieser VM konfigurieren, führt der BefehlSCSI RESERVE
dazu, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt.SCSI RESERVE
ist eine SCSI-2-Semantik und wird für WSFC-Cluster auf ESXi nicht unterstützt.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3011169: vSAN Clusterüberlastung aufgrund von Cache-Ansammlung
vSAN könnte das Destaging von Daten aufgrund eines Problems beim Zählen ausstehender E/As beenden. Wenn eine vSAN-Festplattengruppe das Destaging von Daten aus dem Cache in die Kapazitätsschicht beendet, kann dies dazu führen, dass sich Daten in der Cache-Ebene ansammeln. Dieses Problem führt zu Überlastung, E/A-Drosselung und längerer Latenz.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3018832: Wenn ein Cluster ein 0-Byte-Objekt enthält, schlagen vSAN Hosts möglicherweise mit einem violetten Diagnosebildschirm fehl
Wenn ein vSAN-Cluster mit einem 0-Byte-Objekt eine Richtlinienänderungsanforderung empfängt, legt der Cluster Level Object Manager (CLOM) möglicherweise fälschlicherweise ein ungültiges Flag für eine oder mehrere Komponenten des Objekts fest. Ein solches Flag kann dazu führen, dass der Host große Schreibvorgänge sendet, die das System überlasten, sodass der Host mit einem violetten Diagnosebildschirm fehlschlägt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2977486: Zeitweiliger Sperrungskonflikt für VMFS-Journalblöcke verzögert möglicherweise Befehle zum erneuten Prüfen von VMFS oder führt dazu, dass das Mounten eines Datenspeichers fehlschlägt
Ein seltenes Problem bei der Verarbeitung von VMFS-Journalblöcken kann zu Sperrungskonflikten führen, wodurch Verzögerungen bei erneuten VMFS-Prüfungen entstehen oder das Mounten von Datenspeichern fehlschlägt. In den VMkernel-Protokollen werden Fehler angezeigt, wie z. B.
Ressourcendatei für Ressource: 6 hat den maximalen Grenzwert von 8192 erreicht
undRessourcen-Dateierweiterung (‚Kein Speicherplatz frei auf Gerät‘)
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2932056: Der vmx-Dienst schlägt möglicherweise beim Abbrechen einer vSphere Storage vMotion-Aufgabe fehl, und vCenter Server High Availability startet virtuelle Maschinen neu
In seltenen Fällen kann der vmx-Dienst während des Abbrechens einer vSphere Storage vMotion-Aufgabe fehlschlagen. Wenn Ihre Umgebung vCenter Server High Availability verwendet, startet der Dienst die betroffenen virtuellen Maschinen daher neu.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3013368: Während des Startvorgangs werden Fehler angezeigt, die angeben, dass die Unterstützung für SD-Karten- und reine USB-Konfigurationen veraltet ist.
Wenn Sie zum Starten von ESXi 7.x nur SD- oder USB-Geräte verwenden, werden möglicherweise Fehler angezeigt, wie z. B.
Unterstützung der Konfiguration nur für SD-Karte/USB wird eingestellt
. Diese Meldung weist nicht auf einen Fehler hin, sondern enthält nur eine Warnung, dass SD- und USB-Geräte nur für Bootbank-Partitionen unterstützt werden, und dass für eine optimale Leistung ein sekundärer persistenter Speicher mit mindestens 32 GB für/scratch
und VMware Tools bereitgestellt werden muss, die sich in der OSData-Partition befinden.Dieses Problem wurde in der vorliegenden Version behoben. Der Klarheit halber wird die Meldung mit dem Fix entfernt, da Bereitstellungen ohne persistenten Speicher unterstützt werden, auch wenn es sich nicht um eine Best Practice handelt.
- PR 2995471: vSAN-Festplatte aufgrund eines nicht verfügbaren Verschlüsselungsschlüssels verschlüsselt und gesperrt
Dieses Problem betrifft vSAN-Hosts, die einen externen KMS für die Verschlüsselung ruhender Daten verwenden. Wenn Sie ein Upgrade eines vSAN-Hosts von 6.7 oder früher auf 7.0 und höher durchführen, geht das KMS-Kennwort verloren. Die Festplatten des Hosts bleiben verschlüsselt und gesperrt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3006356: ESXi-Host schlägt aufgrund der erneuten Bindung von virtuellen Volumes mit einem violetten Diagnosebildschirm fehl
In seltenen Fällen versuchen vSphere Virtual Volumes möglicherweise eine erneute Bindung von Volumes auf ESXi-Hosts mit persistenten SCSI-Reservierungen. Dies führt dazu, dass die ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen und im Backtrace folgende sinngemäße Fehlermeldung angezeigt wird:
Panik-Meldung: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4933 – Nutzungsfehler in dlmalloc
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2981272: vSphere Client zeigt unabhängig von der tatsächlichen VMDK-Größe einer virtuellen Maschine 0 KB an
Aufgrund eines Caching-Problems wird im vSphere Client möglicherweise eine VMDK-Größe von 0 KB angezeigt, unabhängig von der tatsächlichen Größe der virtuellen Maschinen in einer vSphere Virtual Volumes-Umgebung.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3000195: Bei einem Site-übergreifenden Advanced Cross vCenter vMotion-Vorgang tritt möglicherweise eine Zeitüberschreitung auf und einige virtuelle Maschinen reagieren nicht mehr
Während der Speichermigration eines Site-übergreifenden Advanced Cross vCenter vMotion-Vorgangs werden möglicherweise einige asynchrone E/A-Vorgänge im Speicher-Stack gesperrt und es tritt keine ordnungsgemäße Zeitüberschreitung auf. Dies führt dazu, dass virtuelle Maschinen weiterhin auf eine E/A-Antwort warten. Dadurch tritt beim Advanced Cross vCenter vMotion-Vorgang eine Zeitüberschreitung auf, und die virtuellen Maschinen reagieren nicht mehr.
Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird allen asynchronen E/A-Anforderungen eine Zeitüberschreitung hinzugefügt, um eine Antwort nach der Zeitüberschreitung zu gewährleisten.
- PR 3026623: LLOG-Wiederherstellung markiert vSAN-Komponenten möglicherweise fälschlicherweise als ungültig
Ein Problem während der LLOG-Wiederherstellung kann dazu führen, dass eine vSAN-Komponente fälschlicherweise als ungültig markiert wird. Dieses Problem kann zu einer Ansammlung von Protokollen und somit zu Überlastung führen.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2981420: Der Small-Footprint CIM Broker Daemon (SFCBD) reagiert möglicherweise vorübergehend nicht mehr
Aufgrund einer unzureichenden Ressourcenpoolzuteilung schlagen einige an den SFCBD berichtende Dienste, wie z. B. sfcb-vmware_base und sfcb-vmw, möglicherweise fehl und generieren zdump. In der
syslog.log
-Datei werden Fehlermeldungen wie die folgenden angezeigt:sfcb-vmware_base[2110110]: tool_mm_realloc_or_die: memory re-allocation failed(orig=364000 new=364800 msg=Cannot allocate memory, aborting
sfcb-vmw_ipmi[2291550]: tool_mm_realloc_or_die: memory re-allocation failed(orig=909200 new=909600 msg=Cannot allocate memory, aborting
Dieses Problem wurde in der vorliegenden Version behoben. Der Fix erhöht die Standardpoolgröße für den sfcb-vmware_base-Dienst.
- PR 3025469: Wenn es sich bei der Zielrichtlinie um RAID 1, StripeWidth 1 handelt, wird die Neukonfiguration großer Objekte in einem vSAN-Cluster möglicherweise ohne Fortschritt beendet
Wenn es sich bei der Zielrichtlinie um RAID 1, StripeWidth 1 handelt und ein vSAN-Cluster nur noch wenige vorübergehende Kapazitäten aufweist, konfiguriert der Cluster Level Object Manager möglicherweise weiterhin denselben Teil von Objekten neu, der größer als 8 TB ist. Infolgedessen verbleiben diese Objekte im nicht übereinstimmenden Zustand, und möglicherweise werden einige unnötige Neusynchronisierungsvorgänge angezeigt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3042776: Storage I/O Control generiert schnell eine große Anzahl von Protokollen, die als kritisch markiert sind und möglicherweise auch den Datenspeicher füllen
In VMware Aria Operations for Logs (vormals vRealize Log Insight) wird möglicherweise eine große Anzahl von Protokollen angezeigt, die von Storage I/O Control generiert werden, z. B.
Ungültiger Wert für Freigaben: 0. Standard wird verwendet.
undGerät naa.xxxx wird entweder aufgrund eines VSI-Lesefehlers oder eines abnormalen Status übersprungen
. Das Protokollvolumen variiert je nach der Anzahl der ESXi-Hosts in einem Cluster und der Anzahl der Geräte im ausgeschalteten Zustand. Wenn das Problem auftritt, wird das Protokollvolume schnell (innerhalb von 24 Stunden) generiert, und VMware Aria Operations for Logs stuft die Meldungen möglicherweise als kritisch ein. Diese Protokolle sind jedoch unbedenklich und wirken sich nicht auf die Vorgänge auf anderen Online-Datenspeichern aus.Dieses Problem wurde in der vorliegenden Version behoben. Der Fix verschiebt diese Protokolle von „Fehler“ zu „Ausführlich (erweitert)“, um eine irreführende Protokollierung zu verhindern.
- PR 2916160: ESXi Managed Object Browser (MOB) zeigt als CPU-Status „Unbekannt“ an
Wenn die Liste der Speichersensoren eines ESXi-Hosts leer ist, wird der von der Intelligent Platform Management Interface (IPMI) gemeldete CPU-Status möglicherweise zurückgesetzt. Dies führt dazu, dass der Sensordatensatz mit
Element
ID 3
, dem Status des Prozessors, fälschlicherweise alsÜber aktuellen Status des physischen Elements kann nicht berichtet werden
im MOB angezeigt wird.Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass der CPU-Status nur zurückgesetzt wird, wenn die Aktualisierung des Sensorstatus über die IPMI fehlschlägt.
- PR 2996208: Für Objekte in einem Stretched Cluster wird eine hohe Leselatenz angezeigt
In Stretched Clustern stellt vSAN jedes VMDK-Objekt mit einem bestimmten Format bereit. Wenn Sie die Richtlinie eines VMDK-Objekts von
hostFailuresToTolerate=0
inhostFailuresToTolerate=1
ändern, ändert sich das Format möglicherweise so, dass Lesevorgänge den Site-übergreifenden (AZ-übergreifenden) Link durchlaufen. Dies führt dazu, dass in diesen Objekten eine höhere Leselatenz angezeigt wird.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3014374: Im vSphere Client werden wiederholte Optionen im Dropdown-Menü „Gemeinsame Verwendung des SCSI-Busses“ angezeigt
Wenn Sie im vSphere Client eine virtuelle Maschine erstellen oder neu konfigurieren, werden dieselben Optionen im Dropdown-Menü unter SCSI-Controller > Gemeinsame Verwendung des SCSI-Busses möglicherweise doppelt angezeigt. Auf Workflows zum Erstellen oder Konfigurieren der VM hat das Problem keine Auswirkungen.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2977957: Nach einem Migrationsvorgang fallen virtuelle Maschinen mit Windows 10 unter Umständen aus, wobei ein blauer Diagnosebildschirm angezeigt und eine falsche Microcoderevision gemeldet wird
Nach einem Migrationsvorgang fallen virtuelle Maschinen mit Windows 10 unter Umständen aus, wobei ein blauer Diagnosebildschirm angezeigt wird und in einer Fehlermeldung wie der folgenden eine falsche Microcoderevision gemeldet wird: –
MICROCODE_REVISION_MISMATCH (17e).
Das Problem tritt auf, wenn während des Migrationsvorgangs ein Scan der CPUs durchgeführt wird und die Firmware der Quell-CPUs nicht mit der Firmware der Ziel-CPUs übereinstimmt.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2979281: ESXi-Hosts reagieren möglicherweise nicht mehr, weil aufgrund eines veralteten Caches zeitweilig nicht genügend Arbeitsspeicher vorhanden ist
In bestimmten Fällen schlägt das Löschen des Caches von Objekten in einem Datenspeichervolume auf ESXi-Hosts fehl, Objekte verbleiben im Cache und führen dazu, dass nicht genügend Arbeitsspeicher vorhanden ist. Dies kommt beispielsweise vor, wenn die Verbindung mit dem zugrunde liegenden Gerät des Volumes unterbrochen wird. Folglich reagiert der ESXi-Host nicht mehr. In den Protokollen werden Fehler angezeigt, wie z. B.:
Erneute Verbindung mit xxxxx nicht möglich] oder Fehler beim Bereinigen von VMFS-Taktsignal auf Volume xxxxx: Keine Verbindung.
oderDas Volume auf dem Gerät xxxxx ist gesperrt, möglicherweise weil während eines Volume-Vorgangs ein nicht behebbarer Fehler auf einem Remotehost aufgetreten ist.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2976953: Der hostd-Dienst schlägt möglicherweise fehl und virtuelle Maschinen werden aufgrund zeitweiliger Auslastung des Objekt-Caches heruntergefahren
Bestimmte Workflows wie Sicherungsvorgänge von ESXi-Hosts können eine große Anzahl von Dateien öffnen, was wiederum zu einer Auslastung des Objekt-Caches führen kann. In solchen Fällen kann es vorkommen, dass der hostd-Dienst fehlschlägt, virtuelle Maschinen heruntergefahren werden oder die VM in einen ungültigen Zustand versetzt wird, der ihr Einschalten verhindert. In den Protokollen werden Warnungen angezeigt, wie z. B.
Es konnte kein Arbeitsspeicher zugeteilt werden
.Dieses Problem wurde in der vorliegenden Version behoben. Der Fix verdoppelt die Größe des Objekt-Caches auf 183 MB, um hohe Arbeitslasten zu bewältigen.
- PR 2999968: vSAN-Systemzustand meldet einen Fehler, dass der Dateiserver neu gestartet wird
In Überwachen > Skyline Health > Dateidienst > Integrität des Dateiservers wird möglicherweise die Fehlermeldung
Dateiserver wird (neu) gestartet
angezeigt.
Das Problem wird durch eine Cache-Überlauffunktion verursacht, die zu einem Ausfall des VDFS-Daemons führt. In der Datei/var/run/log/vdfsd-server.log
in einem betroffenen ESXi-Host werden Meldungen wieNOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp
angezeigt.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3031566: Das Ändern der Richtlinie einer eingeschalteten VM mit einem IDE-Controller löst eine Fehlermeldung aus, dass der versuchte Vorgang im aktuellen Zustand nicht durchgeführt werden kann
Wenn Sie im vSphere Client die Richtlinie einer eingeschalteten VM mit einem IDE-Controller ändern, wird möglicherweise folgender Fehler angezeigt:
Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3036859: HCI Mesh kann den Cluster nach dem erneuten Aktivieren von vSAN mit zuvor aktivierter Verschlüsselung in Übertragung begriffener Daten nicht mounten
Das Mounten des HCI Mesh-Clusters schlägt möglicherweise fehl, wenn Sie vSAN erneut aktivieren, nachdem Sie vSAN mit Verschlüsselung in Übertragung begriffener Daten deaktiviert haben.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 3029490: vSAN Skyline Health enthält keine Hardwarekompatibilitätsgruppe
Wenn für vSAN verwendete NVMe-Laufwerke über eine doppelte PCI-ID verfügen und Sie den vSAN-Integritätsdienst auf vCenter Server neu starten, fehlt die Hardwarekompatibilitätsgruppe aus vSAN Skyline Health.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2992407: Der TPM 2.0-Nachweis schlägt auf Lenovo-Servern möglicherweise mit einem Fehler aufgrund unzureichenden Puffers fehl
Der TPM 2.0-Nachweis auf Lenovo-Servern gibt den TPM-Fehlercode zurück:
TSS2_SYS_RC_INSUFFICIENT_BUFFER
.Dieses Problem wurde in der vorliegenden Version behoben.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs loadesx
und esx-update
.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3007883 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB ngt3
zur Behebung des folgenden Problems:
- PR 3007883: Bei NICs, die den Treiber ntg3 der Version 4.1.3 und höher verwenden, tritt Link Flapping auf
Wenn zwei NICs, die den Treiber ntg3 der Version 4.1.3 und höher verwenden, direkt und nicht mit einem physischen Switch-Port verbunden sind, kann Link Flapping auftreten. Das Problem tritt nicht bei ntg3-Treibern mit Versionen vor 4.1.3 oder dem tg3-Treiber auf. Dieses Problem steht nicht im Zusammenhang mit dem gelegentlich auftretenden Energy Efficient Ethernet (EEE) Link Flapping bei solchen NICs. Die Lösung für das EEE-Problem besteht darin, einen ntg3-Treiber der Version 4.1.7 oder höher zu verwenden oder EEE an physischen Switch-Ports zu deaktivieren.
Dieses Problem wurde in der vorliegenden Version behoben. ESXi 7.0 Update 3i enthält den
ntg3
-Treiber der Version 4.1.8. Nach dem Upgrade desntg3
-Treibers auf Version 4.1.8 müssen Sie jedoch den neuen ModulparameternoPhyStateSet
auf1
setzen. Der ParameternoPhyStateSet
ist standardmäßig auf0
gesetzt und wird in den meisten Umgebungen nicht benötigt, es sei denn, sie sind von dem Problem betroffen.
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2993721, 3007957, 3007958, 3015560, 3034286, 3038621, 3030691 |
CVE-Nummern | CVE-2020-28196, CVE-2022-31696, CVE-2022-31699 |
Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.
Aktualisiert die VIBs esx-ui, esx-xserver, cpu-microcode, trx, vsanhealth, esx-base, esx-dvfilter-generic-fastpath, gc, esxio-combiner, native-misc-drivers, bmcal, vsan, vdfs
und crx
zur Behebung der folgenden Probleme:
- Das VIB „cpu-microcode“ enthält den folgenden Intel-Microcode:
Codename FMS PLT-ID MCU-Rev. MCU-Datum Markennamen Nehalem EP 0x106a5 (06/1a/5) 0x03 0x0000001d 5/11/2018 Intel Xeon 35xx-Reihe;
Intel Xeon 55xx-ReiheClarkdale 0x20652 (06/25/2) 0x12 0x00000011 5/8/2018 Intel i3/i5 Clarkdale-Reihe;
Intel Xeon 34xx Clarkdale-ReiheArrandale 0x20655 (06/25/5) 0x92 0x00000007 4/23/2018 Intel Core i7-620LE-Prozessor Sandy Bridge DT 0x206a7 (06/2a/7) 0x12 0x0000002f 2/17/2019 Intel Xeon E3-1100-Reihe;
Intel Xeon E3-1200-Reihe;
Intel i7-2655-LE-Reihe;
Intel i3-2100-ReiheWestmere EP 0x206c2 (06/2c/2) 0x03 0x0000001f 5/8/2018 Intel Xeon 56xx-Reihe;
Intel Xeon 36xx-ReiheSandy Bridge EP 0x206d6 (06/2d/6) 0x6d 0x00000621 3/4/2020 Intel Pentium 1400-Reihe;
Intel Xeon E5-1400-Reihe;
Intel Xeon E5-1600-Reihe;
Intel Xeon E5-2400-Reihe;
Intel Xeon E5-2600-Reihe;
Intel Xeon E5-4600-ReiheSandy Bridge EP 0x206d7 (06/2d/7) 0x6d 0x0000071a 3/24/2020 Intel Pentium 1400-Reihe;
Intel Xeon E5-1400-Reihe;
Intel Xeon E5-1600-Reihe;
Intel Xeon E5-2400-Reihe;
Intel Xeon E5-2600-Reihe;
Intel Xeon E5-4600-ReiheNehalem EX 0x206e6 (06/2e/6) 0x04 0x0000000d 5/15/2018 Intel Xeon 65xx-Reihe;
Intel Xeon 75xx-ReiheWestmere EX 0x206f2 (06/2f/2) 0x05 0x0000003b 5/16/2018 Intel Xeon E7-8800-Reihe;
Intel Xeon E7-4800-Reihe;
Intel Xeon E7-2800-ReiheIvy Bridge DT 0x306a9 (06/3a/9) 0x12 0x00000021 2/13/2019 Intel i3-3200-Reihe;
Intel i7-3500-LE/UE;
Intel i7-3600-QE;
Intel Xeon E3-1200-v2-Reihe;
Intel Xeon E3-1100-C-v2-Reihe;
Intel Pentium B925CHaswell DT 0x306c3 (06/3c/3) 0x32 0x00000028 11/12/2019 Intel Xeon E3-1200-v3-Reihe;
Intel i7-4700-EQ-Reihe;
Intel i5-4500-TE-Reihe;
Intel i3-4300-ReiheIvy Bridge EP 0x306e4 (06/3e/4) 0xed 0x0000042e 3/14/2019 Intel Xeon E5-4600-v2-Reihe;
Intel Xeon E5-2600-v2-Reihe;
Intel Xeon E5-2400-v2-Reihe;
Intel Xeon E5-1600-v2-Reihe;
Intel Xeon E5-1400-v2-ReiheIvy Bridge EX 0x306e7 (06/3e/7) 0xed 0x00000715 3/14/2019 Intel Xeon E7-8800/4800/2800-v2-Reihe Haswell EP 0x306f2 (06/3f/2) 0x6f 0x00000049 8/11/2021 Intel Xeon E5-4600-v3-Reihe;
Intel Xeon E5-2600-v3-Reihe;
Intel Xeon E5-2400-v3-Reihe;
Intel Xeon E5-1600-v3-Reihe;
Intel Xeon E5-1400-v3-ReiheHaswell EX 0x306f4 (06/3f/4) 0x80 0x0000001a 5/24/2021 Intel Xeon E7-8800/4800-v3-Serie Broadwell H 0x40671 (06/47/1) 0x22 0x00000022 11/12/2019 Intel Core i7-5700EQ;
Intel Xeon E3-1200-v4-ReiheAvoton 0x406d8 (06/4d/8) 0x01 0x0000012d 16.09.2019 Intel Atom C2300-Reihe;
Intel Atom C2500-Reihe;
Intel Atom C2700-ReiheBroadwell EP/EX 0x406f1 (06/4f/1) 0xef 0x0b000040 5/19/2021 Intel Xeon E7-8800/4800-v4-Reihe;
Intel Xeon E5-4600-v4-Reihe;
Intel Xeon E5-2600-v4-Reihe;
Intel Xeon E5-1600-v4-ReiheSkylake SP 0x50654 (06/55/4) 0xb7 0x02006e05 3/8/2022 Intel Xeon Platinum 8100-Reihe;
Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe;
Intel Xeon D-2100-Reihe;
Intel Xeon D-1600-Reihe;
Intel Xeon W-3100-Reihe;
Intel Xeon W-2100-ReiheCascade Lake B-0 0x50656 (06/55/6) 0xbf 0x04003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
Intel Xeon Gold 6200/5200;
Intel Xeon Silver 4200/Bronze 3200;
Intel Xeon W-3200Cascade Lake 0x50657 (06/55/7) 0xbf 0x05003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
Intel Xeon Gold 6200/5200;
Intel Xeon Silver 4200/Bronze 3200;
Intel Xeon W-3200Cooper Lake 0x5065b (06/55/b) 0xbf 0x07002501 11/19/2021 Intel Xeon Platinum 8300-Reihe;
Intel Xeon Gold 6300/5300Broadwell DE 0x50662 (06/56/2) 0x10 0x0000001c 17.06.2019 Intel Xeon D-1500-Reihe Broadwell DE 0x50663 (06/56/3) 0x10 0x0700001c 6/12/2021 Intel Xeon D-1500-Reihe Broadwell DE 0x50664 (06/56/4) 0x10 0x0f00001a 6/12/2021 Intel Xeon D-1500-Reihe Broadwell NS 0x50665 (06/56/5) 0x10 0x0e000014 9/18/2021 Intel Xeon D-1600-Reihe Skylake H/S 0x506e3 (06/5e/3) 0x36 0x000000f0 11/12/2021 Intel Xeon E3-1500-v5-Reihe;
Intel Xeon E3-1200-v5-ReiheDenverton 0x506f1 (06/5f/1) 0x01 0x00000038 12/2/2021 Intel Atom C3000-Reihe Ice Lake SP 0x606a6 (06/6a/6) 0x87 0x0d000375 4/7/2022 Intel Xeon Silver 4300-Reihe;
Intel Xeon Gold 6300/5300-Reihe;
Intel Xeon Platinum 8300-ReiheIce Lake D 0x606c1 (06/6c/1) 0x10 0x010001f0 6/24/2022 Intel Xeon D-Reihe Snow Ridge 0x80665 (06/86/5) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Snow Ridge 0x80667 (06/86/7) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Kaby Lake H/S/X 0x906e9 (06/9e/9) 0x2a 0x000000f0 11/12/2021 Intel Xeon E3-1200-v6-Reihe;
Intel Xeon E3-1500-v6-ReiheCoffee Lake 0x906ea (06/9e/a) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe;
Intel Xeon E-2200-Reihe (4 oder 6 Kerne)Coffee Lake 0x906eb (06/9e/b) 0x02 0x000000f0 11/12/2021 Intel Xeon E-2100-Reihe Coffee Lake 0x906ec (06/9e/c) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe Coffee Lake Refresh 0x906ed (06/9e/d) 0x22 0x000000f4 7/31/2022 Intel Xeon E-2200-Reihe (8 Kerne) Rocket Lake S 0xa0671 (06/a7/1) 0x02 0x00000056 8/2/2022 Intel Xeon E-2300-Reihe - ESXi 7.0 Update 3i stellt die folgenden Sicherheits-Updates bereit:
- OpenSSL wird auf Version 1.0.2zf aktualisiert.
- Apache Thrift wurde auf Version 0.15.0 aktualisiert.
- Der urllib3-Client wird auf Version 1.26.5 aktualisiert.
- cURL wurde auf Version 7.84.0 aktualisiert.
- Die SQLite-Datenbank wird auf Version 3.39.2 aktualisiert.
- Der XML-Parser Expat wurde auf Version 2.4.9 aktualisiert.
In dieser Version werden die Schwachstellen CVE-2022-31696 und CVE-2022-31699 behoben. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware Produkte finden Sie unter VMSA-2022-0030.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs loadesx
und esx-update
.
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Nein |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Nein |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3015499 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB tools-light
.
- Die folgenden ISO-Images von VMware Tools werden mit ESXi 7.0 Update 3i gebündelt:
windows.iso
: VMware Tools 12.1.0 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.linux.iso
: VMware Tools 10.3.25-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.
Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:
- VMware Tools 11.0.6:
windows.iso
: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12:
winPreVista.iso
: für Windows 2000, Windows XP und Windows 2003.linuxPreGLibc25.iso
: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
-
solaris.iso
: VMware Tools-Image 10.3.10 für Solaris.
darwin.iso
: Unterstützt Mac OS X-Versionen 10.11 und höher.
Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:
Profilname | ESXi-7.0U3i-20842708-standard |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 8. Dezember 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 3021935, 2994966, 2983919, 3014323, 2996511, 2982013, 3011324, 3048788, 2983043, 3035934, 3015498, 3031708, 3041100, 3044475, 2990414, 3003866, 3011850, 3002779, 3033161, 3016132, 3015493, 3029194, 3007116, 2977496, 3021384, 2988179, 3025470, 3033159, 3011169, 3018832, 2977486, 2932056, 3013368, 2995471, 3006356, 2981272, 3000195, 3026623, 2981420, 3025469, 3042776, 2916160, 2996208, 3014374, 2977957, 2979281, 2976953, 2999968, 3031566, 3036859, 3029490, 3007883, 2992407 |
Verwandte CVE-Nummern | Nicht verfügbar |
- Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
-
In seltenen Fällen kann es bei VM-Ereignissen zu einer inkorrekten Meldung der Eigenschaft
template
kommen. Diese Eigenschaft gibt an, ob eine virtuelle Maschine als Vorlage markiert ist. Infolgedessen besteht die Möglichkeit, dass die Eigenschafttemplate
alstrue
angezeigt wird, obwohl die VM keine Vorlage ist, oder aber alsfalse
, obwohl eine VM als Vorlage markiert ist. -
Aufgrund einer fehlenden Speichermoduleinheit für Cisco-Server im Managed Object Browser werden bei Verwendung von MOB unter Umständen keine Speicherstatusinformationen zu einem ESXi-Host angezeigt.
-
In sehr seltenen Fällen können zufällige Probleme mit Active Directory-Umgebungen, die einen Zustand bedingen können, in dem der Domänencontroller nicht mehr reagiert, auch dazu führen, dass der hostd-Dienst nicht mehr reagiert.
-
In seltenen Fällen kann es vorkommen, dass der interne Zustand des VMX-Prozesses aufgrund des schnellen Suspend-Resume-Mechanismus beim Erstellen oder Zurücksetzen einer VM basierend auf einem Snapshot ohne Benachrichtigung an die oberen Schichten des virtuellen Infrastrukturmanagement-Stacks neu initialisiert wird. Dies hat zur Folge, dass alle gastbezogenen Leistungsindikatoren in VMware Tools nicht mehr aktualisiert werden. In allen Schnittstellen zum ESXi-Host werden dauerhaft die zuletzt aufgezeichneten Werte angezeigt.
-
Wenn der rhttpproxy-Dienst mehrere Vorgänge für eingehende URIs durchführt, kann er den Puffer-Offset der einzelnen Verbindungen falsch berechnen. Dies führt möglicherweise zu Fehlern wie Pufferüberläufen und negativen Lesevorgängen. Dies führt dazu, dass der Dienst fehlschlägt.
-
Standardmäßig funktioniert das Ändern von Hypercall-Optionen mithilfe von Befehlen wie
vm | Get-AdvancedSetting -Name isolation.tools.autoInstall.disable
nur bei ausgeschalteter VM. Bei eingeschalteten VMs lösen solche Aufrufe den folgenden Fehler aus:Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden.
Dies wird erwartet. -
Nachdem Sie einen ESXi 7.0 Update 3c-Host auf eine höhere Version von 7.0.x aktualisiert oder ein ESXi 7.0 Update 3c-VIB installiert oder entfernt und den Host neu gestartet haben, werden möglicherweise alle erweiterten Sicherheitsoptionen auf dem Host auf ihre Standardwerte zurückgesetzt. Folgende erweiterte Einstellungen sind betroffen:
Security.AccountLockFailures
Security.AccountUnlockTime
Security.PasswordQualityControl
Security.PasswordHistory
Security.PasswordMaxDays
Security.SshSessionLimit
Security.DefaultShellAccess -
Der Befehl
esxcli hardware pci list
, der den NUMA-Knoten für ESXi Hostgeräte meldet, gibt für die physischen Funktionen (PF) eines SR-IOV-Geräts den korrekten NUMA-Knoten zurück, für seine virtuellen Funktionen (VF) hingegen null. -
Wenn Sie virtuelle Windows-Maschinen nach einem Upgrade auf ESXi 7.0 Update 2 oder höher mithilfe von vSphere vMotion zu den aktualisierten Hosts migrieren, schlagen einige VMs nach der Migration möglicherweise mit einem blauen Diagnosebildschirm fehl. Auf dem Bildschirm wird die Fehlermeldung
Betriebssystem konnte nicht gestartet werden, kein Betriebssystem gefunden
angezeigt. Dieses Problem tritt aufgrund eines Fehlers in der Adressoptimierungslogik des Virtual Machine File System (VMFS) auf. -
Wenn die Clientanwendung über keinen registrierten Standardanforderungshandler verfügt, können Anforderungen mit einem Pfad, der in der Handlerzuordnung nicht vorhanden ist, dazu führen, dass die Ausführung von
vmacore.dll
fehlschlägt. Dies führt dazu, dass der ESXi-Host vom vCenter Server-System getrennt ist. -
Einige Zuteilungsreservierungsvorgänge überschreiten möglicherweise den Grenzwert von 128 parallelen Reservierungsschlüsseln sowie den zugeteilten Arbeitsspeicherbereich eines ESXi-Hosts. Dies führt möglicherweise dazu, dass ESXi-Hosts während Reservierungsvorgängen für die Ressourcenzuteilung mit einem violetten Diagnosebildschirm fehlschlagen. Die Fehleranzeige enthält sinngemäße Meldungen wie z. B.
PSOD BlueScreen: #PF-Ausnahme 14 in World 2097700:SCSI Periode IP
. -
Wenn Sie einen Befehl zum Aufheben der Beanspruchung auf einem Gerät oder Pfad ausführen, während virtuelle Maschinen auf dem Gerät noch aktive E/A-Vorgänge aufweisen, schlägt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm fehl. Auf dem Bildschirm wird sinngemäß folgende Meldung angezeigt:
PSOD bei bora/modules/vmkernel/nmp/nmp_misc.c:3839 beim Laden/Löschen von lpfc.
-
Wenn TXT auf einem ESX-Host aktiviert ist, schlagen Versuche, eine VM einzuschalten, möglicherweise mit einem Fehler fehl. Im vSphere Client wird folgende Meldung angezeigt:
Dieser Host unterstützt Intel VT-x, aber Intel VT-x ist eingeschränkt. Intel VT-x ist möglicherweise eingeschränkt, weil „trusted excecution“ in den BIOS/Firmware-Einstellungen aktiviert wurde oder der Host nach dem Ändern dieser Einstellung nicht aus- und wieder eingeschaltet wurde
. -
Aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen schlägt eine virtuelle Maschine der Version ESX 7.0 Update 3f möglicherweise mit einem von ESX nicht behebbaren Fehler fehl. In der Datei
vmware.log
wird sinngemäß folgende Meldung angezeigt:MONITOR PANIC: vcpu-0:VMM Fehler 6: src=MONITOR ....
Das Problem ist spezifisch für virtuelle Maschinen mit Hardwareversionen 12 oder früher. -
Wenn Sie ein mithilfe von Image Builder erstelltes ESXi
.iso
-Image verwenden, um eine vSphere Lifecycle Manager-Upgrade-Baseline für ESXi Hosts zu erstellen, schlagen Upgrades mithilfe solcher Baselines möglicherweise fehl. Im vSphere Client wird folgender Fehler angezeigt:Upgrade-Skript kann nicht auf Host ausgeführt werden
. Auf dem betroffenen ESXi-Host wird in der Datei/var/log/vua*.log
sinngemäß folgender Fehler angezeigt:ValueError: Wenn ein Add-On vorhanden ist, sollte ein Basisimage vorhanden sein
.
Der Fehler tritt auf, wenn das vorhandene Image des ESXi-Hosts über ein Add-On verfügt, das von Image Builder generierte ISO-Image hingegen kein Add-On bereitstellt. -
Viele parallele Anforderungen für Arbeitsspeicherbereiche durch virtuelle Maschinen, die das Data Plane Development Kit (DPDK) auf einem ESXi-Host verwenden, überschreiten möglicherweise den XMAP-Arbeitsspeicher auf dem Host. Folglich schlägt der Host mit einem violetten Diagnosebildschirm und sinngemäß folgender Fehlermeldung fehl:
Panic Message: @BlueScreen: VERIFY bora/vmkernel/hardware/pci/config.c:157.
-
Nach einem Upgrade von ESXi-Hosts auf ESXi 7.0 Update 3 und höher werden möglicherweise einige Leistungsberichte für virtuelle Maschinen mit NVMe-Controllern nicht mehr angezeigt. Beispielsweise wird das Diagramm „Virtuelle Festplatte – Zusammenfassung aller Instanzen“ nicht in VMware Aria Operations angezeigt.
-
In seltenen Fällen, wie z. B. bei einem geplanten Neustart der primären virtuellen Maschine mit FT-Verschlüsselung, die hohe Arbeitslasten ausführt, verfügt die sekundäre virtuelle Maschine möglicherweise nicht über ausreichend Puffer, um mehr als 512 MB an modifizierten Seiten in einem einzelnen FT-Prüfpunkt zu entschlüsseln, und es tritt ein Pufferüberlauffehler auf. Dies führt dazu, dass der ESXi-Host, auf dem sich die sekundäre virtuelle Maschine befindet, möglicherweise mit einem violetten Diagnosebildschirm fehlschlägt.
-
In seltenen Fällen kann die vSAN-Speicherkonfiguration nach einem Upgrade bzw. Update auf ESXi 7.0 Update 2 und höher das Tag
mark_ssd
verlieren und standardmäßig HDD verwenden. -
Selbst wenn sich ein Gerät oder eine LUN im Zustand „Getrennt“ befindet, versucht die Pluggable Storage Architecture (PSA) möglicherweise weiterhin, das Objekt zu registrieren. Die PSA erstellt bei jedem Pfadauswertungsintervall dieser Versuche ein Protokoll für jeden Pfadauswertungsschritt. Infolgedessen werden möglicherweise mehrere identische Meldungen angezeigt, wie z. B.
nmp_RegisterDeviceEvents fehlgeschlagen
für die Geräteregistrierung, die bei getrenntem Gerät bzw. getrennter LUN nicht erforderlich sind. -
Wenn Sie eine Gerätekonfiguration zur Laufzeit ändern, werden Änderungen möglicherweise nicht im ESXi ConfigStore widergespiegelt, der die Konfigurationen für einen ESXi-Host enthält. Dies führt dazu, dass der Datenspeicher nach dem Neustart des ESXi-Hosts möglicherweise nicht gemountet wird.
-
Ab ESXi 6.0 ist mClock der standardmäßige E/A-Scheduler für ESXi, aber einige Umgebungen verwenden möglicherweise weiterhin Legacy-Scheduler von ESXi-Versionen vor 6.0. Infolgedessen schlagen Upgrades dieser Hosts auf ESXi 7.0 Update 3 und höher möglicherweise mit einem violetten Diagnosebildschirm fehl.
-
Ab ESXi 7.0 Update 1 wurde die Konfigurationsverwaltung von ESXi-Hosts aus der Datei
/etc/vmware/esx.conf
in das ConfigStore-Framework verschoben. Dadurch erfolgt eine explizite Trennung von Status und Konfiguration. Token in deresx.conf
-Datei, wie z. B.implicit_support
oderexplicit_support
, die einen Status angeben, werden nicht als gültige Token erkannt und vomsatp_alua
-Modul ignoriert. Wenn Sie ESXi-Hosts mithilfe eines Hostprofils mit Token, die den ALUA-Status angeben, auf ESXi 7.0 Update 3d oder höher aktualisieren, könnte der Vorgang daher mit einem violetten Diagnosebildschirm fehlschlagen. Auf dem Bildschirm wird sinngemäß folgende Fehlermeldung angezeigt:Modulfehler: /var/lib/vmware/configmanager/upgrade/lib/postLoadStore/libupgradepsadeviceconfig.so
. -
Ein Hilfsmechanismus, der FB-Ressourcenzuteilungsdetails im Hintergrund zwischenspeichert, kann die FB-Ressourcenzuteilung an den ESXi-Host während E/A-Vorgängen versehentlich anhalten und blockieren. In einigen Fällen wirkt sich dieses Problem möglicherweise auf andere Prozesse aus, die für dieselbe Datei ausgeführt werden, und blockiert sie. Dies kann dazu führen, dass der ESXi-Host nicht mehr reagiert.
-
Der vSAN-Dateidienst erfordert, dass Hosts miteinander kommunizieren. Der Dateidienst verwendet möglicherweise fälschlicherweise eine IP-Adresse im Zeugennetzwerk für die Interkommunikation. Wenn Sie ein isoliertes Zeugennetzwerk für vSAN konfiguriert haben, kann der Host über das Zeugennetzwerk mit einem Zeugenknoten kommunizieren, aber Hosts können über das Zeugennetzwerk nicht miteinander kommunizieren. Die Kommunikation zwischen Hosts für den vSAN-Dateidienst kann nicht hergestellt werden.
-
Wenn sich ein ESXi-Host im Zustand „Geringer Arbeitsspeicher“ befindet, könnte eine unzureichende Heap-Zuteilung zu einem Netzwerkmodul dazu führen, dass die Port-Bitmap auf
NULL
festgelegt wird. Folglich kann ein ESXi-Host bei einem Paketweiterleitungsversuch mit einem violetten Diagnosebildschirm fehlschlagen. -
Während der Änderung des Objektformats werden einige Objekte mit altem Layout möglicherweise teilweise bereinigt, sodass die Konfiguration in einem ungültigen Zustand bleibt. Dieses Problem kann dazu führen, dass CLOMD immer dann fehlschlägt, wenn versucht wird, das Objekt während der Neukonfiguration zu verarbeiten.
Möglicherweise werden die folgenden Einträge in derclomd.log
-Datei angezeigt:
2022-10-14T16:17:26.456Z PANIC: NOT_REACHED bora/lib/vsan/vsan_config_builder.c:744
2022-10-14T16:17:26.456Z Backtrace:
2022-10-14T16:17:26.456Z Backtrace[0] 0000030b4742c6a0 rip=000000bf0c7de98f rbx=0000030b4742c6a0
rbp=0000030b4742cad0 r12=000000bf0d677788 r13=0000030b4742cae8 r14=000000bf14ce052c r15=000000bf14ce3c2c -
Windows 2012 und höher verwendet die SCSI-3-Reservierung für die Ressourcenvermittlung, um Windows Failover Clustering (WSFC) auf ESXi für systemübergreifende Cluster-Konfigurationen (Cluster-across-box, CAB) zu unterstützen. Wenn Sie jedoch die Einstellung
Physical
für die gemeinsame Bus-Nutzung des SCSI-Controllers auf dieser VM konfigurieren, führt der BefehlSCSI RESERVE
dazu, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt.SCSI RESERVE
ist eine SCSI-2-Semantik und wird für WSFC-Cluster auf ESXi nicht unterstützt. -
vSAN könnte das Destaging von Daten aufgrund eines Problems beim Zählen ausstehender E/As beenden. Wenn eine vSAN-Festplattengruppe das Destaging von Daten aus dem Cache in die Kapazitätsschicht beendet, kann dies dazu führen, dass sich Daten in der Cache-Ebene ansammeln. Dieses Problem führt zu Überlastung, E/A-Drosselung und längerer Latenz.
-
Wenn ein vSAN-Cluster mit einem 0-Byte-Objekt eine Richtlinienänderungsanforderung empfängt, legt der Cluster Level Object Manager (CLOM) möglicherweise fälschlicherweise ein ungültiges Flag für eine oder mehrere Komponenten des Objekts fest. Ein solches Flag kann dazu führen, dass der Host große Schreibvorgänge sendet, die das System überlasten, sodass der Host mit einem violetten Diagnosebildschirm fehlschlägt.
-
Ein seltenes Problem bei der Verarbeitung von VMFS-Journalblöcken kann zu Sperrungskonflikten führen, wodurch Verzögerungen bei erneuten VMFS-Prüfungen entstehen oder das Mounten von Datenspeichern fehlschlägt. In den VMkernel-Protokollen werden Fehler angezeigt, wie z. B.
Ressourcendatei für Ressource: 6 hat den maximalen Grenzwert von 8192 erreicht
undRessourcen-Dateierweiterung (‚Kein Speicherplatz frei auf Gerät‘)
. -
In seltenen Fällen kann der vmx-Dienst während des Abbrechens einer vSphere Storage vMotion-Aufgabe fehlschlagen. Wenn Ihre Umgebung vCenter Server High Availability verwendet, startet der Dienst die betroffenen virtuellen Maschinen daher neu.
-
Wenn Sie zum Starten von ESXi 7.x nur SD- oder USB-Geräte verwenden, werden möglicherweise Fehler angezeigt, wie z. B.
Unterstützung der Konfiguration nur für SD-Karte/USB wird eingestellt
. Diese Meldung weist nicht auf einen Fehler hin, sondern enthält nur eine Warnung, dass SD- und USB-Geräte nur für Bootbank-Partitionen unterstützt werden, und dass für eine optimale Leistung ein sekundärer persistenter Speicher mit mindestens 32 GB für/scratch
und VMware Tools bereitgestellt werden muss, die sich in der OSData-Partition befinden. -
Dieses Problem betrifft vSAN-Hosts, die einen externen KMS für die Verschlüsselung ruhender Daten verwenden. Wenn Sie ein Upgrade eines vSAN-Hosts von 6.7 oder früher auf 7.0 und höher durchführen, geht das KMS-Kennwort verloren. Die Festplatten des Hosts bleiben verschlüsselt und gesperrt.
-
In seltenen Fällen versuchen vSphere Virtual Volumes möglicherweise eine erneute Bindung von Volumes auf ESXi-Hosts mit persistenten SCSI-Reservierungen. Dies führt dazu, dass die ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen und im Backtrace sinngemäß folgende Fehlermeldung angezeigt wird:
Panik-Meldung: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4933 – Nutzungsfehler in dlmalloc
. -
Aufgrund eines Caching-Problems wird im vSphere Client möglicherweise eine VMDK-Größe von 0 KB angezeigt, unabhängig von der tatsächlichen Größe der virtuellen Maschinen in einer vSphere Virtual Volumes-Umgebung.
-
Während der Speichermigration eines Site-übergreifenden Advanced Cross vCenter vMotion-Vorgangs werden möglicherweise einige asynchrone E/A-Vorgänge im Speicher-Stack gesperrt und es tritt keine ordnungsgemäße Zeitüberschreitung auf. Dies führt dazu, dass virtuelle Maschinen weiterhin auf eine E/A-Antwort warten. Dadurch tritt beim Advanced Cross vCenter vMotion-Vorgang eine Zeitüberschreitung auf, und die virtuellen Maschinen reagieren nicht mehr.
-
Ein Problem während der LLOG-Wiederherstellung kann dazu führen, dass eine vSAN-Komponente fälschlicherweise als ungültig markiert wird. Dieses Problem kann zu einer Ansammlung von Protokollen und somit zu Überlastung führen.
-
Aufgrund einer unzureichenden Ressourcenpoolzuteilung schlagen einige an den SFCBD berichtende Dienste, wie z. B. sfcb-vmware_base und sfcb-vmw, möglicherweise fehl und generieren zdump. In der
syslog.log
-Datei werden Fehlermeldungen wie die folgenden angezeigt:sfcb-vmware_base[2110110]: tool_mm_realloc_or_die: memory re-allocation failed(orig=364000 new=364800 msg=Cannot allocate memory, aborting
sfcb-vmw_ipmi[2291550]: tool_mm_realloc_or_die: memory re-allocation failed(orig=909200 new=909600 msg=Cannot allocate memory, aborting
-
Wenn es sich bei der Zielrichtlinie um RAID 1, StripeWidth 1 handelt und ein vSAN-Cluster nur noch wenige vorübergehende Kapazitäten aufweist, konfiguriert der Cluster Level Object Manager möglicherweise weiterhin denselben Teil von Objekten neu, der größer als 8 TB ist. Infolgedessen verbleiben diese Objekte im nicht übereinstimmenden Zustand, und möglicherweise werden einige unnötige Neusynchronisierungsvorgänge angezeigt.
-
In VMware Aria Operations for Logs (vormals vRealize Log Insight) wird möglicherweise eine große Anzahl von Protokollen angezeigt, die von Storage I/O Control generiert werden, z. B.
Ungültiger Wert für Freigaben: 0. Standard wird verwendet.
undGerät naa.xxxx wird entweder aufgrund eines VSI-Lesefehlers oder eines abnormalen Status übersprungen
. Das Protokollvolumen variiert je nach der Anzahl der ESXi-Hosts in einem Cluster und der Anzahl der Geräte im ausgeschalteten Zustand. Wenn das Problem auftritt, wird das Protokollvolume schnell (innerhalb von 24 Stunden) generiert, und VMware Aria Operations for Logs stuft die Meldungen möglicherweise als kritisch ein. Diese Protokolle sind jedoch unbedenklich und wirken sich nicht auf die Vorgänge auf anderen Online-Datenspeichern aus. -
Wenn die Liste der Speichersensoren eines ESXi-Hosts leer ist, wird der von der Intelligent Platform Management Interface (IPMI) gemeldete CPU-Status möglicherweise zurückgesetzt. Dies führt dazu, dass der Sensordatensatz mit
Element
ID 3
, dem Status des Prozessors, fälschlicherweise alsÜber aktuellen Status des physischen Elements kann nicht berichtet werden
im MOB angezeigt wird. -
In Stretched Clustern stellt vSAN jedes VMDK-Objekt mit einem bestimmten Format bereit. Wenn Sie die Richtlinie eines VMDK-Objekts von
hostFailuresToTolerate=0
inhostFailuresToTolerate=1
ändern, ändert sich das Format möglicherweise so, dass Lesevorgänge den Site-übergreifenden (AZ-übergreifenden) Link durchlaufen. Dies führt dazu, dass in diesen Objekten eine höhere Leselatenz angezeigt wird. -
Wenn Sie im vSphere Client eine virtuelle Maschine erstellen oder neu konfigurieren, werden dieselben Optionen im Dropdown-Menü unter SCSI-Controller > Gemeinsame Verwendung des SCSI-Busses möglicherweise doppelt angezeigt. Auf Workflows zum Erstellen oder Konfigurieren der VM hat das Problem keine Auswirkungen.
-
Nach einem Migrationsvorgang fallen virtuelle Maschinen mit Windows 10 unter Umständen aus, wobei ein blauer Diagnosebildschirm angezeigt wird und in einer Fehlermeldung wie der folgenden eine falsche Microcoderevision gemeldet wird: –
MICROCODE_REVISION_MISMATCH (17e).
Das Problem tritt auf, wenn während des Migrationsvorgangs ein Scan der CPUs durchgeführt wird und die Firmware der Quell-CPUs nicht mit der Firmware der Ziel-CPUs übereinstimmt. -
In bestimmten Fällen schlägt das Löschen des Caches von Objekten in einem Datenspeichervolume auf ESXi-Hosts fehl, Objekte verbleiben im Cache und führen dazu, dass nicht genügend Arbeitsspeicher vorhanden ist. Dies kommt beispielsweise vor, wenn die Verbindung mit dem zugrunde liegenden Gerät des Volumes unterbrochen wird. Folglich reagiert der ESXi-Host nicht mehr. In den Protokollen werden Fehler angezeigt, wie z. B.:
Erneute Verbindung mit xxxxx nicht möglich] oder Fehler beim Bereinigen von VMFS-Taktsignal auf Volume xxxxx: Keine Verbindung.
oderDas Volume auf dem Gerät xxxxx ist gesperrt, möglicherweise weil während eines Volume-Vorgangs ein nicht behebbarer Fehler auf einem Remotehost aufgetreten ist.
-
Bestimmte Workflows wie Sicherungsvorgänge von ESXi-Hosts können eine große Anzahl von Dateien öffnen, was wiederum zu einer Auslastung des Objekt-Caches führen kann. In solchen Fällen kann es vorkommen, dass der hostd-Dienst fehlschlägt, virtuelle Maschinen heruntergefahren werden oder die VM in einen ungültigen Zustand versetzt wird, der ihr Einschalten verhindert. In den Protokollen werden Warnungen angezeigt, wie z. B.
Es konnte kein Arbeitsspeicher zugeteilt werden
. -
In Überwachen > Skyline Health > Dateidienst > Integrität des Dateiservers wird möglicherweise die Fehlermeldung
Dateiserver wird (neu) gestartet
angezeigt.
Das Problem wird durch eine Cache-Überlauffunktion verursacht, die zu einem Ausfall des VDFS-Daemons führt. In der Datei/var/run/log/vdfsd-server.log
in einem betroffenen ESXi-Host werden Meldungen wieNOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp
angezeigt. -
Wenn Sie im vSphere Client die Richtlinie einer eingeschalteten VM mit einem IDE-Controller ändern, wird möglicherweise folgender Fehler angezeigt:
Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden
. -
Das Mounten des HCI Mesh-Clusters schlägt möglicherweise fehl, wenn Sie vSAN erneut aktivieren, nachdem Sie vSAN mit Verschlüsselung in Übertragung begriffener Daten deaktiviert haben.
-
Wenn für vSAN verwendete NVMe-Laufwerke über eine doppelte PCI-ID verfügen und Sie den vSAN-Integritätsdienst auf vCenter Server neu starten, fehlt die Hardwarekompatibilitätsgruppe aus vSAN Skyline Health.
-
Wenn zwei NICs, die den Treiber ntg3 der Version 4.1.3 und höher verwenden, direkt und nicht mit einem physischen Switch-Port verbunden sind, kann Link Flapping auftreten. Das Problem tritt nicht bei ntg3-Treibern mit Versionen vor 4.1.3 oder dem tg3-Treiber auf. Dieses Problem steht nicht im Zusammenhang mit dem gelegentlich auftretenden Energy Efficient Ethernet (EEE) Link Flapping bei solchen NICs. Die Lösung für das EEE-Problem besteht darin, einen ntg3-Treiber der Version 4.1.7 oder höher zu verwenden oder EEE an physischen Switch-Ports zu deaktivieren.
-
Der TPM 2.0-Nachweis auf Lenovo-Servern gibt den TPM-Fehlercode zurück:
TSS2_SYS_RC_INSUFFICIENT_BUFFER
.
-
Profilname | ESXi-7.0U3i-20842708-no-tools |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 8. Dezember 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 3021935, 2994966, 2983919, 3014323, 2996511, 2982013, 3011324, 3048788, 2983043, 3035934, 3015498, 3031708, 3041100, 3044475, 2990414, 3003866, 3011850, 3002779, 3033161, 3016132, 3015493, 3029194, 3007116, 2977496, 3021384, 2988179, 3025470, 3033159, 3011169, 3018832, 2977486, 2932056, 3013368, 2995471, 3006356, 2981272, 3000195, 3026623, 2981420, 3025469, 3042776, 2916160, 2996208, 3014374, 2977957, 2979281, 2976953, 2999968, 3031566, 3036859, 3029490, 3007883, 2992407 |
Verwandte CVE-Nummern | Nicht verfügbar |
- Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
-
In seltenen Fällen kann es bei VM-Ereignissen zu einer inkorrekten Meldung der Eigenschaft
template
kommen. Diese Eigenschaft gibt an, ob eine virtuelle Maschine als Vorlage markiert ist. Infolgedessen besteht die Möglichkeit, dass die Eigenschafttemplate
alstrue
angezeigt wird, obwohl die VM keine Vorlage ist, oder aber alsfalse
, obwohl eine VM als Vorlage markiert ist. -
Aufgrund einer fehlenden Speichermoduleinheit für Cisco-Server im Managed Object Browser werden bei Verwendung von MOB unter Umständen keine Speicherstatusinformationen zu einem ESXi-Host angezeigt.
-
In sehr seltenen Fällen können zufällige Probleme mit Active Directory-Umgebungen, die einen Zustand bedingen können, in dem der Domänencontroller nicht mehr reagiert, auch dazu führen, dass der hostd-Dienst nicht mehr reagiert.
-
In seltenen Fällen kann es vorkommen, dass der interne Zustand des VMX-Prozesses aufgrund des schnellen Suspend-Resume-Mechanismus beim Erstellen oder Zurücksetzen einer VM basierend auf einem Snapshot ohne Benachrichtigung an die oberen Schichten des virtuellen Infrastrukturmanagement-Stacks neu initialisiert wird. Dies hat zur Folge, dass alle gastbezogenen Leistungsindikatoren in VMware Tools nicht mehr aktualisiert werden. In allen Schnittstellen zum ESXi-Host werden dauerhaft die zuletzt aufgezeichneten Werte angezeigt.
-
Wenn der rhttpproxy-Dienst mehrere Vorgänge für eingehende URIs durchführt, kann er den Puffer-Offset der einzelnen Verbindungen falsch berechnen. Dies führt möglicherweise zu Fehlern wie Pufferüberläufen und negativen Lesevorgängen. Dies führt dazu, dass der Dienst fehlschlägt.
-
Standardmäßig funktioniert das Ändern von Hypercall-Optionen mithilfe von Befehlen wie
vm | Get-AdvancedSetting -Name isolation.tools.autoInstall.disable
nur bei ausgeschalteter VM. Bei eingeschalteten VMs lösen solche Aufrufe den folgenden Fehler aus:Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden.
Dies wird erwartet. -
Nachdem Sie einen ESXi 7.0 Update 3c-Host auf eine höhere Version von 7.0.x aktualisiert oder ein ESXi 7.0 Update 3c-VIB installiert oder entfernt und den Host neu gestartet haben, werden möglicherweise alle erweiterten Sicherheitsoptionen auf dem Host auf ihre Standardwerte zurückgesetzt. Folgende erweiterte Einstellungen sind betroffen:
Security.AccountLockFailures
Security.AccountUnlockTime
Security.PasswordQualityControl
Security.PasswordHistory
Security.PasswordMaxDays
Security.SshSessionLimit
Security.DefaultShellAccess -
Der Befehl
esxcli hardware pci list
, der den NUMA-Knoten für ESXi Hostgeräte meldet, gibt für die physischen Funktionen (PF) eines SR-IOV-Geräts den korrekten NUMA-Knoten zurück, für seine virtuellen Funktionen (VF) hingegen null. -
Wenn Sie virtuelle Windows-Maschinen nach einem Upgrade auf ESXi 7.0 Update 2 oder höher mithilfe von vSphere vMotion zu den aktualisierten Hosts migrieren, schlagen einige VMs nach der Migration möglicherweise mit einem blauen Diagnosebildschirm fehl. Auf dem Bildschirm wird die Fehlermeldung
Betriebssystem konnte nicht gestartet werden, kein Betriebssystem gefunden
angezeigt. Dieses Problem tritt aufgrund eines Fehlers in der Adressoptimierungslogik des Virtual Machine File System (VMFS) auf. -
Wenn die Clientanwendung über keinen registrierten Standardanforderungshandler verfügt, können Anforderungen mit einem Pfad, der in der Handlerzuordnung nicht vorhanden ist, dazu führen, dass die Ausführung von
vmacore.dll
fehlschlägt. Dies führt dazu, dass der ESXi-Host vom vCenter Server-System getrennt ist. -
Einige Zuteilungsreservierungsvorgänge überschreiten möglicherweise den Grenzwert von 128 parallelen Reservierungsschlüsseln sowie den zugeteilten Arbeitsspeicherbereich eines ESXi-Hosts. Dies führt möglicherweise dazu, dass ESXi-Hosts während Reservierungsvorgängen für die Ressourcenzuteilung mit einem violetten Diagnosebildschirm fehlschlagen. Die Fehleranzeige enthält sinngemäße Meldungen wie z. B.
PSOD BlueScreen: #PF-Ausnahme 14 in World 2097700:SCSI Periode IP
. -
Wenn Sie einen Befehl zum Aufheben der Beanspruchung auf einem Gerät oder Pfad ausführen, während virtuelle Maschinen auf dem Gerät noch aktive E/A-Vorgänge aufweisen, schlägt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm fehl. Auf dem Bildschirm wird sinngemäß folgende Meldung angezeigt:
PSOD bei bora/modules/vmkernel/nmp/nmp_misc.c:3839 beim Laden/Löschen von lpfc.
-
Wenn TXT auf einem ESX-Host aktiviert ist, schlagen Versuche, eine VM einzuschalten, möglicherweise mit einem Fehler fehl. Im vSphere Client wird folgende Meldung angezeigt:
Dieser Host unterstützt Intel VT-x, aber Intel VT-x ist eingeschränkt. Intel VT-x ist möglicherweise eingeschränkt, weil „trusted excecution“ in den BIOS/Firmware-Einstellungen aktiviert wurde oder der Host nach dem Ändern dieser Einstellung nicht aus- und wieder eingeschaltet wurde
. -
Aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen schlägt eine virtuelle Maschine der Version ESX 7.0 Update 3f möglicherweise mit einem von ESX nicht behebbaren Fehler fehl. In der Datei
vmware.log
wird sinngemäß folgende Meldung angezeigt:MONITOR PANIC: vcpu-0:VMM Fehler 6: src=MONITOR ....
Das Problem ist spezifisch für virtuelle Maschinen mit Hardwareversionen 12 oder früher. -
Wenn Sie ein mithilfe von Image Builder erstelltes ESXi
.iso
-Image verwenden, um eine vSphere Lifecycle Manager-Upgrade-Baseline für ESXi Hosts zu erstellen, schlagen Upgrades mithilfe solcher Baselines möglicherweise fehl. Im vSphere Client wird folgender Fehler angezeigt:Upgrade-Skript kann nicht auf Host ausgeführt werden
. Auf dem betroffenen ESXi-Host wird in der Datei/var/log/vua*.log
sinngemäß folgender Fehler angezeigt:ValueError: Wenn ein Add-On vorhanden ist, sollte ein Basisimage vorhanden sein
.
Der Fehler tritt auf, wenn das vorhandene Image des ESXi-Hosts über ein Add-On verfügt, das von Image Builder generierte ISO-Image hingegen kein Add-On bereitstellt. -
Viele parallele Anforderungen für Arbeitsspeicherbereiche durch virtuelle Maschinen, die das Data Plane Development Kit (DPDK) auf einem ESXi-Host verwenden, überschreiten möglicherweise den XMAP-Arbeitsspeicher auf dem Host. Folglich schlägt der Host mit einem violetten Diagnosebildschirm und sinngemäß folgender Fehlermeldung fehl:
Panic Message: @BlueScreen: VERIFY bora/vmkernel/hardware/pci/config.c:157.
-
Nach einem Upgrade von ESXi-Hosts auf ESXi 7.0 Update 3 und höher werden möglicherweise einige Leistungsberichte für virtuelle Maschinen mit NVMe-Controllern nicht mehr angezeigt. Beispielsweise wird das Diagramm „Virtuelle Festplatte – Zusammenfassung aller Instanzen“ nicht in VMware Aria Operations angezeigt.
-
In seltenen Fällen, wie z. B. bei einem geplanten Neustart der primären virtuellen Maschine mit FT-Verschlüsselung, die hohe Arbeitslasten ausführt, verfügt die sekundäre virtuelle Maschine möglicherweise nicht über ausreichend Puffer, um mehr als 512 MB an modifizierten Seiten in einem einzelnen FT-Prüfpunkt zu entschlüsseln, und es tritt ein Pufferüberlauffehler auf. Dies führt dazu, dass der ESXi-Host, auf dem sich die sekundäre virtuelle Maschine befindet, möglicherweise mit einem violetten Diagnosebildschirm fehlschlägt.
-
In seltenen Fällen kann die vSAN-Speicherkonfiguration nach einem Upgrade bzw. Update auf ESXi 7.0 Update 2 und höher das Tag
mark_ssd
verlieren und standardmäßig HDD verwenden. -
Selbst wenn sich ein Gerät oder eine LUN im Zustand „Getrennt“ befindet, versucht die Pluggable Storage Architecture (PSA) möglicherweise weiterhin, das Objekt zu registrieren. Die PSA erstellt bei jedem Pfadauswertungsintervall dieser Versuche ein Protokoll für jeden Pfadauswertungsschritt. Infolgedessen werden möglicherweise mehrere identische Meldungen angezeigt, wie z. B.
nmp_RegisterDeviceEvents fehlgeschlagen
für die Geräteregistrierung, die bei getrenntem Gerät bzw. getrennter LUN nicht erforderlich sind. -
Wenn Sie eine Gerätekonfiguration zur Laufzeit ändern, werden Änderungen möglicherweise nicht im ESXi ConfigStore widergespiegelt, der die Konfigurationen für einen ESXi-Host enthält. Dies führt dazu, dass der Datenspeicher nach dem Neustart des ESXi-Hosts möglicherweise nicht gemountet wird.
-
Ab ESXi 6.0 ist mClock der standardmäßige E/A-Scheduler für ESXi, aber einige Umgebungen verwenden möglicherweise weiterhin Legacy-Scheduler von ESXi-Versionen vor 6.0. Infolgedessen schlagen Upgrades dieser Hosts auf ESXi 7.0 Update 3 und höher möglicherweise mit einem violetten Diagnosebildschirm fehl.
-
Ab ESXi 7.0 Update 1 wurde die Konfigurationsverwaltung von ESXi-Hosts aus der Datei
/etc/vmware/esx.conf
in das ConfigStore-Framework verschoben. Dadurch erfolgt eine explizite Trennung von Status und Konfiguration. Token in deresx.conf
-Datei, wie z. B.implicit_support
oderexplicit_support
, die einen Status angeben, werden nicht als gültige Token erkannt und vomsatp_alua
-Modul ignoriert. Wenn Sie ESXi-Hosts mithilfe eines Hostprofils mit Token, die den ALUA-Status angeben, auf ESXi 7.0 Update 3d oder höher aktualisieren, könnte der Vorgang daher mit einem violetten Diagnosebildschirm fehlschlagen. Auf dem Bildschirm wird sinngemäß folgende Fehlermeldung angezeigt:Modulfehler: /var/lib/vmware/configmanager/upgrade/lib/postLoadStore/libupgradepsadeviceconfig.so
. -
Ein Hilfsmechanismus, der FB-Ressourcenzuteilungsdetails im Hintergrund zwischenspeichert, kann die FB-Ressourcenzuteilung an den ESXi-Host während E/A-Vorgängen versehentlich anhalten und blockieren. In einigen Fällen wirkt sich dieses Problem möglicherweise auf andere Prozesse aus, die für dieselbe Datei ausgeführt werden, und blockiert sie. Dies kann dazu führen, dass der ESXi-Host nicht mehr reagiert.
-
Der vSAN-Dateidienst erfordert, dass Hosts miteinander kommunizieren. Der Dateidienst verwendet möglicherweise fälschlicherweise eine IP-Adresse im Zeugennetzwerk für die Interkommunikation. Wenn Sie ein isoliertes Zeugennetzwerk für vSAN konfiguriert haben, kann der Host über das Zeugennetzwerk mit einem Zeugenknoten kommunizieren, aber Hosts können über das Zeugennetzwerk nicht miteinander kommunizieren. Die Kommunikation zwischen Hosts für den vSAN-Dateidienst kann nicht hergestellt werden.
-
Wenn sich ein ESXi-Host im Zustand „Geringer Arbeitsspeicher“ befindet, könnte eine unzureichende Heap-Zuteilung zu einem Netzwerkmodul dazu führen, dass die Port-Bitmap auf
NULL
festgelegt wird. Folglich kann ein ESXi-Host bei einem Paketweiterleitungsversuch mit einem violetten Diagnosebildschirm fehlschlagen. -
Während der Änderung des Objektformats werden einige Objekte mit altem Layout möglicherweise teilweise bereinigt, sodass die Konfiguration in einem ungültigen Zustand bleibt. Dieses Problem kann dazu führen, dass CLOMD immer dann fehlschlägt, wenn versucht wird, das Objekt während der Neukonfiguration zu verarbeiten.
Möglicherweise werden die folgenden Einträge in derclomd.log
-Datei angezeigt:
2022-10-14T16:17:26.456Z PANIC: NOT_REACHED bora/lib/vsan/vsan_config_builder.c:744
2022-10-14T16:17:26.456Z Backtrace:
2022-10-14T16:17:26.456Z Backtrace[0] 0000030b4742c6a0 rip=000000bf0c7de98f rbx=0000030b4742c6a0
rbp=0000030b4742cad0 r12=000000bf0d677788 r13=0000030b4742cae8 r14=000000bf14ce052c r15=000000bf14ce3c2c -
Windows 2012 und höher verwendet die SCSI-3-Reservierung für die Ressourcenvermittlung, um Windows Failover Clustering (WSFC) auf ESXi für systemübergreifende Cluster-Konfigurationen (Cluster-across-box, CAB) zu unterstützen. Wenn Sie jedoch die Einstellung
Physical
für die gemeinsame Bus-Nutzung des SCSI-Controllers auf dieser VM konfigurieren, führt der BefehlSCSI RESERVE
dazu, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt.SCSI RESERVE
ist eine SCSI-2-Semantik und wird für WSFC-Cluster auf ESXi nicht unterstützt. -
vSAN könnte das Destaging von Daten aufgrund eines Problems beim Zählen ausstehender E/As beenden. Wenn eine vSAN-Festplattengruppe das Destaging von Daten aus dem Cache in die Kapazitätsschicht beendet, kann dies dazu führen, dass sich Daten in der Cache-Ebene ansammeln. Dieses Problem führt zu Überlastung, E/A-Drosselung und längerer Latenz.
-
Wenn ein vSAN-Cluster mit einem 0-Byte-Objekt eine Richtlinienänderungsanforderung empfängt, legt der Cluster Level Object Manager (CLOM) möglicherweise fälschlicherweise ein ungültiges Flag für eine oder mehrere Komponenten des Objekts fest. Ein solches Flag kann dazu führen, dass der Host große Schreibvorgänge sendet, die das System überlasten, sodass der Host mit einem violetten Diagnosebildschirm fehlschlägt.
-
Ein seltenes Problem bei der Verarbeitung von VMFS-Journalblöcken kann zu Sperrungskonflikten führen, wodurch Verzögerungen bei erneuten VMFS-Prüfungen entstehen oder das Mounten von Datenspeichern fehlschlägt. In den VMkernel-Protokollen werden Fehler angezeigt, wie z. B.
Ressourcendatei für Ressource: 6 hat den maximalen Grenzwert von 8192 erreicht
undRessourcen-Dateierweiterung (‚Kein Speicherplatz frei auf Gerät‘)
. -
In seltenen Fällen kann der vmx-Dienst während des Abbrechens einer vSphere Storage vMotion-Aufgabe fehlschlagen. Wenn Ihre Umgebung vCenter Server High Availability verwendet, startet der Dienst die betroffenen virtuellen Maschinen daher neu.
-
Wenn Sie zum Starten von ESXi 7.x nur SD- oder USB-Geräte verwenden, werden möglicherweise Fehler angezeigt, wie z. B.
Unterstützung der Konfiguration nur für SD-Karte/USB wird eingestellt
. Diese Meldung weist nicht auf einen Fehler hin, sondern enthält nur eine Warnung, dass SD- und USB-Geräte nur für Bootbank-Partitionen unterstützt werden, und dass für eine optimale Leistung ein sekundärer persistenter Speicher mit mindestens 32 GB für/scratch
und VMware Tools bereitgestellt werden muss, die sich in der OSData-Partition befinden. -
Dieses Problem betrifft vSAN-Hosts, die einen externen KMS für die Verschlüsselung ruhender Daten verwenden. Wenn Sie ein Upgrade eines vSAN-Hosts von 6.7 oder früher auf 7.0 und höher durchführen, geht das KMS-Kennwort verloren. Die Festplatten des Hosts bleiben verschlüsselt und gesperrt.
-
In seltenen Fällen versuchen vSphere Virtual Volumes möglicherweise eine erneute Bindung von Volumes auf ESXi-Hosts mit persistenten SCSI-Reservierungen. Dies führt dazu, dass die ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen und im Backtrace sinngemäß folgende Fehlermeldung angezeigt wird:
Panik-Meldung: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4933 – Nutzungsfehler in dlmalloc
. -
Aufgrund eines Caching-Problems wird im vSphere Client möglicherweise eine VMDK-Größe von 0 KB angezeigt, unabhängig von der tatsächlichen Größe der virtuellen Maschinen in einer vSphere Virtual Volumes-Umgebung.
-
Während der Speichermigration eines Site-übergreifenden Advanced Cross vCenter vMotion-Vorgangs werden möglicherweise einige asynchrone E/A-Vorgänge im Speicher-Stack gesperrt und es tritt keine ordnungsgemäße Zeitüberschreitung auf. Dies führt dazu, dass virtuelle Maschinen weiterhin auf eine E/A-Antwort warten. Dadurch tritt beim Advanced Cross vCenter vMotion-Vorgang eine Zeitüberschreitung auf, und die virtuellen Maschinen reagieren nicht mehr.
-
Ein Problem während der LLOG-Wiederherstellung kann dazu führen, dass eine vSAN-Komponente fälschlicherweise als ungültig markiert wird. Dieses Problem kann zu einer Ansammlung von Protokollen und somit zu Überlastung führen.
-
Aufgrund einer unzureichenden Ressourcenpoolzuteilung schlagen einige an den SFCBD berichtende Dienste, wie z. B. sfcb-vmware_base und sfcb-vmw, möglicherweise fehl und generieren zdump. In der
syslog.log
-Datei werden Fehlermeldungen wie die folgenden angezeigt:sfcb-vmware_base[2110110]: tool_mm_realloc_or_die: memory re-allocation failed(orig=364000 new=364800 msg=Cannot allocate memory, aborting
sfcb-vmw_ipmi[2291550]: tool_mm_realloc_or_die: memory re-allocation failed(orig=909200 new=909600 msg=Cannot allocate memory, aborting
-
Wenn es sich bei der Zielrichtlinie um RAID 1, StripeWidth 1 handelt und ein vSAN-Cluster nur noch wenige vorübergehende Kapazitäten aufweist, konfiguriert der Cluster Level Object Manager möglicherweise weiterhin denselben Teil von Objekten neu, der größer als 8 TB ist. Infolgedessen verbleiben diese Objekte im nicht übereinstimmenden Zustand, und möglicherweise werden einige unnötige Neusynchronisierungsvorgänge angezeigt.
-
In VMware Aria Operations for Logs (vormals vRealize Log Insight) wird möglicherweise eine große Anzahl von Protokollen angezeigt, die von Storage I/O Control generiert werden, z. B.
Ungültiger Wert für Freigaben: 0. Standard wird verwendet.
undGerät naa.xxxx wird entweder aufgrund eines VSI-Lesefehlers oder eines abnormalen Status übersprungen
. Das Protokollvolumen variiert je nach der Anzahl der ESXi-Hosts in einem Cluster und der Anzahl der Geräte im ausgeschalteten Zustand. Wenn das Problem auftritt, wird das Protokollvolume schnell (innerhalb von 24 Stunden) generiert, und VMware Aria Operations for Logs stuft die Meldungen möglicherweise als kritisch ein. Diese Protokolle sind jedoch unbedenklich und wirken sich nicht auf die Vorgänge auf anderen Online-Datenspeichern aus. -
Wenn die Liste der Speichersensoren eines ESXi-Hosts leer ist, wird der von der Intelligent Platform Management Interface (IPMI) gemeldete CPU-Status möglicherweise zurückgesetzt. Dies führt dazu, dass der Sensordatensatz mit
Element
ID 3
, dem Status des Prozessors, fälschlicherweise alsÜber aktuellen Status des physischen Elements kann nicht berichtet werden
im MOB angezeigt wird. -
In Stretched Clustern stellt vSAN jedes VMDK-Objekt mit einem bestimmten Format bereit. Wenn Sie die Richtlinie eines VMDK-Objekts von
hostFailuresToTolerate=0
inhostFailuresToTolerate=1
ändern, ändert sich das Format möglicherweise so, dass Lesevorgänge den Site-übergreifenden (AZ-übergreifenden) Link durchlaufen. Dies führt dazu, dass in diesen Objekten eine höhere Leselatenz angezeigt wird. -
Wenn Sie im vSphere Client eine virtuelle Maschine erstellen oder neu konfigurieren, werden dieselben Optionen im Dropdown-Menü unter SCSI-Controller > Gemeinsame Verwendung des SCSI-Busses möglicherweise doppelt angezeigt. Auf Workflows zum Erstellen oder Konfigurieren der VM hat das Problem keine Auswirkungen.
-
Nach einem Migrationsvorgang fallen virtuelle Maschinen mit Windows 10 unter Umständen aus, wobei ein blauer Diagnosebildschirm angezeigt wird und in einer Fehlermeldung wie der folgenden eine falsche Microcoderevision gemeldet wird: –
MICROCODE_REVISION_MISMATCH (17e).
Das Problem tritt auf, wenn während des Migrationsvorgangs ein Scan der CPUs durchgeführt wird und die Firmware der Quell-CPUs nicht mit der Firmware der Ziel-CPUs übereinstimmt. -
In bestimmten Fällen schlägt das Löschen des Caches von Objekten in einem Datenspeichervolume auf ESXi-Hosts fehl, Objekte verbleiben im Cache und führen dazu, dass nicht genügend Arbeitsspeicher vorhanden ist. Dies kommt beispielsweise vor, wenn die Verbindung mit dem zugrunde liegenden Gerät des Volumes unterbrochen wird. Folglich reagiert der ESXi-Host nicht mehr. In den Protokollen werden Fehler angezeigt, wie z. B.:
Erneute Verbindung mit xxxxx nicht möglich] oder Fehler beim Bereinigen von VMFS-Taktsignal auf Volume xxxxx: Keine Verbindung.
oderDas Volume auf dem Gerät xxxxx ist gesperrt, möglicherweise weil während eines Volume-Vorgangs ein nicht behebbarer Fehler auf einem Remotehost aufgetreten ist.
-
Bestimmte Workflows wie Sicherungsvorgänge von ESXi-Hosts können eine große Anzahl von Dateien öffnen, was wiederum zu einer Auslastung des Objekt-Caches führen kann. In solchen Fällen kann es vorkommen, dass der hostd-Dienst fehlschlägt, virtuelle Maschinen heruntergefahren werden oder die VM in einen ungültigen Zustand versetzt wird, der ihr Einschalten verhindert. In den Protokollen werden Warnungen angezeigt, wie z. B.
Es konnte kein Arbeitsspeicher zugeteilt werden
. -
In Überwachen > Skyline Health > Dateidienst > Integrität des Dateiservers wird möglicherweise die Fehlermeldung
Dateiserver wird (neu) gestartet
angezeigt.
Das Problem wird durch eine Cache-Überlauffunktion verursacht, die zu einem Ausfall des VDFS-Daemons führt. In der Datei/var/run/log/vdfsd-server.log
in einem betroffenen ESXi-Host werden Meldungen wieNOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp
angezeigt. -
Wenn Sie im vSphere Client die Richtlinie einer eingeschalteten VM mit einem IDE-Controller ändern, wird möglicherweise folgender Fehler angezeigt:
Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden
. -
Das Mounten des HCI Mesh-Clusters schlägt möglicherweise fehl, wenn Sie vSAN erneut aktivieren, nachdem Sie vSAN mit Verschlüsselung in Übertragung begriffener Daten deaktiviert haben.
-
Wenn für vSAN verwendete NVMe-Laufwerke über eine doppelte PCI-ID verfügen und Sie den vSAN-Integritätsdienst auf vCenter Server neu starten, fehlt die Hardwarekompatibilitätsgruppe aus vSAN Skyline Health.
-
Wenn zwei NICs, die den Treiber ntg3 der Version 4.1.3 und höher verwenden, direkt und nicht mit einem physischen Switch-Port verbunden sind, kann Link Flapping auftreten. Das Problem tritt nicht bei ntg3-Treibern mit Versionen vor 4.1.3 oder dem tg3-Treiber auf. Dieses Problem steht nicht im Zusammenhang mit dem gelegentlich auftretenden Energy Efficient Ethernet (EEE) Link Flapping bei solchen NICs. Die Lösung für das EEE-Problem besteht darin, einen ntg3-Treiber der Version 4.1.7 oder höher zu verwenden oder EEE an physischen Switch-Ports zu deaktivieren.
-
Der TPM 2.0-Nachweis auf Lenovo-Servern gibt den TPM-Fehlercode zurück:
TSS2_SYS_RC_INSUFFICIENT_BUFFER
.
-
Profilname | ESXi-7.0U3si-20841705-standard |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 8. Dezember 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 2993721, 3007957, 3007958, 3015560, 3034286, 3038621, 3030691, 3015499 |
Verwandte CVE-Nummern | CVE-2020-28196, CVE-2022-31696, CVE-2022-31699 |
- Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
- Das VIB „cpu-microcode“ enthält den folgenden Intel-Microcode:
Codename FMS PLT-ID MCU-Rev. MCU-Datum Markennamen Nehalem EP 0x106a5 (06/1a/5) 0x03 0x0000001d 5/11/2018 Intel Xeon 35xx-Reihe;
Intel Xeon 55xx-ReiheClarkdale 0x20652 (06/25/2) 0x12 0x00000011 5/8/2018 Intel i3/i5 Clarkdale-Reihe;
Intel Xeon 34xx Clarkdale-ReiheArrandale 0x20655 (06/25/5) 0x92 0x00000007 4/23/2018 Intel Core i7-620LE-Prozessor Sandy Bridge DT 0x206a7 (06/2a/7) 0x12 0x0000002f 2/17/2019 Intel Xeon E3-1100-Reihe;
Intel Xeon E3-1200-Reihe;
Intel i7-2655-LE-Reihe;
Intel i3-2100-ReiheWestmere EP 0x206c2 (06/2c/2) 0x03 0x0000001f 5/8/2018 Intel Xeon 56xx-Reihe;
Intel Xeon 36xx-ReiheSandy Bridge EP 0x206d6 (06/2d/6) 0x6d 0x00000621 3/4/2020 Intel Pentium 1400-Reihe;
Intel Xeon E5-1400-Reihe;
Intel Xeon E5-1600-Reihe;
Intel Xeon E5-2400-Reihe;
Intel Xeon E5-2600-Reihe;
Intel Xeon E5-4600-ReiheSandy Bridge EP 0x206d7 (06/2d/7) 0x6d 0x0000071a 3/24/2020 Intel Pentium 1400-Reihe;
Intel Xeon E5-1400-Reihe;
Intel Xeon E5-1600-Reihe;
Intel Xeon E5-2400-Reihe;
Intel Xeon E5-2600-Reihe;
Intel Xeon E5-4600-ReiheNehalem EX 0x206e6 (06/2e/6) 0x04 0x0000000d 5/15/2018 Intel Xeon 65xx-Reihe;
Intel Xeon 75xx-ReiheWestmere EX 0x206f2 (06/2f/2) 0x05 0x0000003b 5/16/2018 Intel Xeon E7-8800-Reihe;
Intel Xeon E7-4800-Reihe;
Intel Xeon E7-2800-ReiheIvy Bridge DT 0x306a9 (06/3a/9) 0x12 0x00000021 2/13/2019 Intel i3-3200-Reihe;
Intel i7-3500-LE/UE;
Intel i7-3600-QE;
Intel Xeon E3-1200-v2-Reihe;
Intel Xeon E3-1100-C-v2-Reihe;
Intel Pentium B925CHaswell DT 0x306c3 (06/3c/3) 0x32 0x00000028 11/12/2019 Intel Xeon E3-1200-v3-Reihe;
Intel i7-4700-EQ-Reihe;
Intel i5-4500-TE-Reihe;
Intel i3-4300-ReiheIvy Bridge EP 0x306e4 (06/3e/4) 0xed 0x0000042e 3/14/2019 Intel Xeon E5-4600-v2-Reihe;
Intel Xeon E5-2600-v2-Reihe;
Intel Xeon E5-2400-v2-Reihe;
Intel Xeon E5-1600-v2-Reihe;
Intel Xeon E5-1400-v2-ReiheIvy Bridge EX 0x306e7 (06/3e/7) 0xed 0x00000715 3/14/2019 Intel Xeon E7-8800/4800/2800-v2-Reihe Haswell EP 0x306f2 (06/3f/2) 0x6f 0x00000049 8/11/2021 Intel Xeon E5-4600-v3-Reihe;
Intel Xeon E5-2600-v3-Reihe;
Intel Xeon E5-2400-v3-Reihe;
Intel Xeon E5-1600-v3-Reihe;
Intel Xeon E5-1400-v3-ReiheHaswell EX 0x306f4 (06/3f/4) 0x80 0x0000001a 5/24/2021 Intel Xeon E7-8800/4800-v3-Serie Broadwell H 0x40671 (06/47/1) 0x22 0x00000022 11/12/2019 Intel Core i7-5700EQ;
Intel Xeon E3-1200-v4-ReiheAvoton 0x406d8 (06/4d/8) 0x01 0x0000012d 16.09.2019 Intel Atom C2300-Reihe;
Intel Atom C2500-Reihe;
Intel Atom C2700-ReiheBroadwell EP/EX 0x406f1 (06/4f/1) 0xef 0x0b000040 5/19/2021 Intel Xeon E7-8800/4800-v4-Reihe;
Intel Xeon E5-4600-v4-Reihe;
Intel Xeon E5-2600-v4-Reihe;
Intel Xeon E5-1600-v4-ReiheSkylake SP 0x50654 (06/55/4) 0xb7 0x02006e05 3/8/2022 Intel Xeon Platinum 8100-Reihe;
Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe;
Intel Xeon D-2100-Reihe;
Intel Xeon D-1600-Reihe;
Intel Xeon W-3100-Reihe;
Intel Xeon W-2100-ReiheCascade Lake B-0 0x50656 (06/55/6) 0xbf 0x04003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
Intel Xeon Gold 6200/5200;
Intel Xeon Silver 4200/Bronze 3200;
Intel Xeon W-3200Cascade Lake 0x50657 (06/55/7) 0xbf 0x05003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
Intel Xeon Gold 6200/5200;
Intel Xeon Silver 4200/Bronze 3200;
Intel Xeon W-3200Cooper Lake 0x5065b (06/55/b) 0xbf 0x07002501 11/19/2021 Intel Xeon Platinum 8300-Reihe;
Intel Xeon Gold 6300/5300Broadwell DE 0x50662 (06/56/2) 0x10 0x0000001c 17.06.2019 Intel Xeon D-1500-Reihe Broadwell DE 0x50663 (06/56/3) 0x10 0x0700001c 6/12/2021 Intel Xeon D-1500-Reihe Broadwell DE 0x50664 (06/56/4) 0x10 0x0f00001a 6/12/2021 Intel Xeon D-1500-Reihe Broadwell NS 0x50665 (06/56/5) 0x10 0x0e000014 9/18/2021 Intel Xeon D-1600-Reihe Skylake H/S 0x506e3 (06/5e/3) 0x36 0x000000f0 11/12/2021 Intel Xeon E3-1500-v5-Reihe;
Intel Xeon E3-1200-v5-ReiheDenverton 0x506f1 (06/5f/1) 0x01 0x00000038 12/2/2021 Intel Atom C3000-Reihe Ice Lake SP 0x606a6 (06/6a/6) 0x87 0x0d000375 4/7/2022 Intel Xeon Silver 4300-Reihe;
Intel Xeon Gold 6300/5300-Reihe;
Intel Xeon Platinum 8300-ReiheIce Lake D 0x606c1 (06/6c/1) 0x10 0x010001f0 6/24/2022 Intel Xeon D-Reihe Snow Ridge 0x80665 (06/86/5) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Snow Ridge 0x80667 (06/86/7) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Kaby Lake H/S/X 0x906e9 (06/9e/9) 0x2a 0x000000f0 11/12/2021 Intel Xeon E3-1200-v6-Reihe;
Intel Xeon E3-1500-v6-ReiheCoffee Lake 0x906ea (06/9e/a) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe;
Intel Xeon E-2200-Reihe (4 oder 6 Kerne)Coffee Lake 0x906eb (06/9e/b) 0x02 0x000000f0 11/12/2021 Intel Xeon E-2100-Reihe Coffee Lake 0x906ec (06/9e/c) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe Coffee Lake Refresh 0x906ed (06/9e/d) 0x22 0x000000f4 7/31/2022 Intel Xeon E-2200-Reihe (8 Kerne) Rocket Lake S 0xa0671 (06/a7/1) 0x02 0x00000056 8/2/2022 Intel Xeon E-2300-Reihe - ESXi 7.0 Update 3i stellt die folgenden Sicherheits-Updates bereit:
- OpenSSL wird auf Version 1.0.2zf aktualisiert.
- Apache Thrift wurde auf Version 0.15.0 aktualisiert.
- Der urllib3-Client wird auf Version 1.26.5 aktualisiert.
- cURL wurde auf Version 7.84.0 aktualisiert.
- Die SQLite-Datenbank wird auf Version 3.39.2 aktualisiert.
- Der XML-Parser Expat wurde auf Version 2.4.9 aktualisiert.
-
In dieser Version werden die Schwachstellen CVE-2022-31696 und CVE-2022-31699 behoben. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware Produkte finden Sie unter VMSA-2022-0030.
- Die folgenden ISO-Images von VMware Tools werden mit ESXi 7.0 Update 3i gebündelt:
windows.iso
: VMware Tools 12.1.0 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.linux.iso
: VMware Tools 10.3.25-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.
Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:
- VMware Tools 11.0.6:
windows.iso
: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12:
winPreVista.iso
: für Windows 2000, Windows XP und Windows 2003.linuxPreGLibc25.iso
: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
-
solaris.iso
: VMware Tools-Image 10.3.10 für Solaris.
darwin.iso
: Unterstützt Mac OS X-Versionen 10.11 und höher.
Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:
- Das VIB „cpu-microcode“ enthält den folgenden Intel-Microcode:
Profilname | ESXi-7.0U3si-20841705-no-tools |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 8. Dezember 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 2993721, 3007957, 3007958, 3015560, 3034286, 3038621, 3030691 |
Verwandte CVE-Nummern | CVE-2020-28196, CVE-2022-31696, CVE-2022-31699 |
- Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
- Das VIB „cpu-microcode“ enthält den folgenden Intel-Microcode:
Codename FMS PLT-ID MCU-Rev. MCU-Datum Markennamen Nehalem EP 0x106a5 (06/1a/5) 0x03 0x0000001d 5/11/2018 Intel Xeon 35xx-Reihe;
Intel Xeon 55xx-ReiheClarkdale 0x20652 (06/25/2) 0x12 0x00000011 5/8/2018 Intel i3/i5 Clarkdale-Reihe;
Intel Xeon 34xx Clarkdale-ReiheArrandale 0x20655 (06/25/5) 0x92 0x00000007 4/23/2018 Intel Core i7-620LE-Prozessor Sandy Bridge DT 0x206a7 (06/2a/7) 0x12 0x0000002f 2/17/2019 Intel Xeon E3-1100-Reihe;
Intel Xeon E3-1200-Reihe;
Intel i7-2655-LE-Reihe;
Intel i3-2100-ReiheWestmere EP 0x206c2 (06/2c/2) 0x03 0x0000001f 5/8/2018 Intel Xeon 56xx-Reihe;
Intel Xeon 36xx-ReiheSandy Bridge EP 0x206d6 (06/2d/6) 0x6d 0x00000621 3/4/2020 Intel Pentium 1400-Reihe;
Intel Xeon E5-1400-Reihe;
Intel Xeon E5-1600-Reihe;
Intel Xeon E5-2400-Reihe;
Intel Xeon E5-2600-Reihe;
Intel Xeon E5-4600-ReiheSandy Bridge EP 0x206d7 (06/2d/7) 0x6d 0x0000071a 3/24/2020 Intel Pentium 1400-Reihe;
Intel Xeon E5-1400-Reihe;
Intel Xeon E5-1600-Reihe;
Intel Xeon E5-2400-Reihe;
Intel Xeon E5-2600-Reihe;
Intel Xeon E5-4600-ReiheNehalem EX 0x206e6 (06/2e/6) 0x04 0x0000000d 5/15/2018 Intel Xeon 65xx-Reihe;
Intel Xeon 75xx-ReiheWestmere EX 0x206f2 (06/2f/2) 0x05 0x0000003b 5/16/2018 Intel Xeon E7-8800-Reihe;
Intel Xeon E7-4800-Reihe;
Intel Xeon E7-2800-ReiheIvy Bridge DT 0x306a9 (06/3a/9) 0x12 0x00000021 2/13/2019 Intel i3-3200-Reihe;
Intel i7-3500-LE/UE;
Intel i7-3600-QE;
Intel Xeon E3-1200-v2-Reihe;
Intel Xeon E3-1100-C-v2-Reihe;
Intel Pentium B925CHaswell DT 0x306c3 (06/3c/3) 0x32 0x00000028 11/12/2019 Intel Xeon E3-1200-v3-Reihe;
Intel i7-4700-EQ-Reihe;
Intel i5-4500-TE-Reihe;
Intel i3-4300-ReiheIvy Bridge EP 0x306e4 (06/3e/4) 0xed 0x0000042e 3/14/2019 Intel Xeon E5-4600-v2-Reihe;
Intel Xeon E5-2600-v2-Reihe;
Intel Xeon E5-2400-v2-Reihe;
Intel Xeon E5-1600-v2-Reihe;
Intel Xeon E5-1400-v2-ReiheIvy Bridge EX 0x306e7 (06/3e/7) 0xed 0x00000715 3/14/2019 Intel Xeon E7-8800/4800/2800-v2-Reihe Haswell EP 0x306f2 (06/3f/2) 0x6f 0x00000049 8/11/2021 Intel Xeon E5-4600-v3-Reihe;
Intel Xeon E5-2600-v3-Reihe;
Intel Xeon E5-2400-v3-Reihe;
Intel Xeon E5-1600-v3-Reihe;
Intel Xeon E5-1400-v3-ReiheHaswell EX 0x306f4 (06/3f/4) 0x80 0x0000001a 5/24/2021 Intel Xeon E7-8800/4800-v3-Serie Broadwell H 0x40671 (06/47/1) 0x22 0x00000022 11/12/2019 Intel Core i7-5700EQ;
Intel Xeon E3-1200-v4-ReiheAvoton 0x406d8 (06/4d/8) 0x01 0x0000012d 16.09.2019 Intel Atom C2300-Reihe;
Intel Atom C2500-Reihe;
Intel Atom C2700-ReiheBroadwell EP/EX 0x406f1 (06/4f/1) 0xef 0x0b000040 5/19/2021 Intel Xeon E7-8800/4800-v4-Reihe;
Intel Xeon E5-4600-v4-Reihe;
Intel Xeon E5-2600-v4-Reihe;
Intel Xeon E5-1600-v4-ReiheSkylake SP 0x50654 (06/55/4) 0xb7 0x02006e05 3/8/2022 Intel Xeon Platinum 8100-Reihe;
Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe;
Intel Xeon D-2100-Reihe;
Intel Xeon D-1600-Reihe;
Intel Xeon W-3100-Reihe;
Intel Xeon W-2100-ReiheCascade Lake B-0 0x50656 (06/55/6) 0xbf 0x04003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
Intel Xeon Gold 6200/5200;
Intel Xeon Silver 4200/Bronze 3200;
Intel Xeon W-3200Cascade Lake 0x50657 (06/55/7) 0xbf 0x05003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
Intel Xeon Gold 6200/5200;
Intel Xeon Silver 4200/Bronze 3200;
Intel Xeon W-3200Cooper Lake 0x5065b (06/55/b) 0xbf 0x07002501 11/19/2021 Intel Xeon Platinum 8300-Reihe;
Intel Xeon Gold 6300/5300Broadwell DE 0x50662 (06/56/2) 0x10 0x0000001c 17.06.2019 Intel Xeon D-1500-Reihe Broadwell DE 0x50663 (06/56/3) 0x10 0x0700001c 6/12/2021 Intel Xeon D-1500-Reihe Broadwell DE 0x50664 (06/56/4) 0x10 0x0f00001a 6/12/2021 Intel Xeon D-1500-Reihe Broadwell NS 0x50665 (06/56/5) 0x10 0x0e000014 9/18/2021 Intel Xeon D-1600-Reihe Skylake H/S 0x506e3 (06/5e/3) 0x36 0x000000f0 11/12/2021 Intel Xeon E3-1500-v5-Reihe;
Intel Xeon E3-1200-v5-ReiheDenverton 0x506f1 (06/5f/1) 0x01 0x00000038 12/2/2021 Intel Atom C3000-Reihe Ice Lake SP 0x606a6 (06/6a/6) 0x87 0x0d000375 4/7/2022 Intel Xeon Silver 4300-Reihe;
Intel Xeon Gold 6300/5300-Reihe;
Intel Xeon Platinum 8300-ReiheIce Lake D 0x606c1 (06/6c/1) 0x10 0x010001f0 6/24/2022 Intel Xeon D-Reihe Snow Ridge 0x80665 (06/86/5) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Snow Ridge 0x80667 (06/86/7) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Kaby Lake H/S/X 0x906e9 (06/9e/9) 0x2a 0x000000f0 11/12/2021 Intel Xeon E3-1200-v6-Reihe;
Intel Xeon E3-1500-v6-ReiheCoffee Lake 0x906ea (06/9e/a) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe;
Intel Xeon E-2200-Reihe (4 oder 6 Kerne)Coffee Lake 0x906eb (06/9e/b) 0x02 0x000000f0 11/12/2021 Intel Xeon E-2100-Reihe Coffee Lake 0x906ec (06/9e/c) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe Coffee Lake Refresh 0x906ed (06/9e/d) 0x22 0x000000f4 7/31/2022 Intel Xeon E-2200-Reihe (8 Kerne) Rocket Lake S 0xa0671 (06/a7/1) 0x02 0x00000056 8/2/2022 Intel Xeon E-2300-Reihe - ESXi 7.0 Update 3i stellt die folgenden Sicherheits-Updates bereit:
- OpenSSL wird auf Version 1.0.2zf aktualisiert.
- Apache Thrift wurde auf Version 0.15.0 aktualisiert.
- Der urllib3-Client wird auf Version 1.26.5 aktualisiert.
- cURL wurde auf Version 7.84.0 aktualisiert.
- Die SQLite-Datenbank wird auf Version 3.39.2 aktualisiert.
- Der XML-Parser Expat wurde auf Version 2.4.9 aktualisiert.
-
In dieser Version werden die Schwachstellen CVE-2022-31696 und CVE-2022-31699 behoben. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware Produkte finden Sie unter VMSA-2022-0030.
- Die folgenden ISO-Images von VMware Tools werden mit ESXi 7.0 Update 3i gebündelt:
windows.iso
: VMware Tools 12.1.0 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.linux.iso
: VMware Tools 10.3.25-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.
Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:
- VMware Tools 11.0.6:
windows.iso
: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12:
winPreVista.iso
: für Windows 2000, Windows XP und Windows 2003.linuxPreGLibc25.iso
: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
-
solaris.iso
: VMware Tools-Image 10.3.10 für Solaris.
darwin.iso
: Unterstützt Mac OS X-Versionen 10.11 und höher.
Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:
- Das VIB „cpu-microcode“ enthält den folgenden Intel-Microcode:
Name | ESXi |
Version | ESXi_7.0.3-0.65.20842708 |
Datum der Veröffentlichung | 8. Dezember 2022 |
Kategorie | Fehlerkorrektur |
Betroffene Komponenten |
|
Behobene Probleme | |
Verwandte CVE-Nummern | Nicht verfügbar |
Name | ESXi |
Version | ESXi_7.0.3-0.60.20841705 |
Datum der Veröffentlichung | 8. Dezember 2022 |
Kategorie | Sicherheit |
Betroffene Komponenten |
|
Behobene Probleme | |
Verwandte CVE-Nummern | Nicht verfügbar |
Bekannte Probleme
Die bekannten Probleme gliedern sich in folgende Gruppen.
Installations-, Upgrade- und Migrationsprobleme- Die vlanid-Eigenschaft in benutzerdefinierten Installationsskripts funktioniert möglicherweise nicht
Wenn Sie ein benutzerdefiniertes Installationsskript verwenden, das die
vlanid
-Eigenschaft zum Festlegen eines gewünschten VLANs festlegt, wird die Eigenschaft möglicherweise auf neu installierten ESXi-Hosts nicht wirksam. Das Problem tritt nur auf, wenn eine physische Netzwerkkarte beim Starten der Installation bereits mit DHCP verbunden ist. Dievlanid
-Eigenschaft funktioniert ordnungsgemäß, wenn Sie eine neu verbundene Netzwerkkarte (NIC) verwenden.Problemumgehung: Stellen Sie das VLAN manuell über die Benutzerschnittstelle der direkten Konsole (Direct Console User Interface, DCUI) ein, nachdem Sie den ESXi-Host gestartet haben. Deaktivieren Sie alternativ die physische Netzwerkkarte (NIC) und starten Sie den Host.
- HPE-Server mit Trusted Platform Module (TPM) werden gestartet, aber der Remote-Nachweis schlägt fehl
Einige HPE-Server verfügen nicht über genügend Ereignisprotokollspeicher, um den TPM-Remote-Nachweis ordnungsgemäß abzuschließen. Folglich wird der VMkernel zwar gestartet, aber der Remote-Nachweis schlägt aufgrund des abgeschnittenen Protokolls fehl.
Problemumgehung: Keine.