ESXi 7.0 Update 3d | 29. März 2022 | ISO-Build 19482537 Überprüfen Sie, ob Erweiterungen und Updates für diese Versionshinweise zur Verfügung stehen. |
Inhalt dieser Versionshinweise
Diese Versionshinweise decken die folgenden Themen ab:
- Neuigkeiten
- Vorherige Versionen von ESXi 7.0
- In dieser Version enthaltene Patches
- Behobene Probleme
- Bekannte Probleme
- Bekannte Probleme aus vorherigen Versionen
WICHTIG: Wenn Ihr Quellsystem ESXi 7.0 Update 2 (Build-Nummer 17630552) oder höhere Builds mit Intel-Treibern enthält, erhalten Sie vor dem Upgrade auf ESXi 7.0 Update 3d weitere Informationen im Abschnitt Neuigkeiten der Versionshinweise zu VMware vCenter Server 7.0 Update 3c, da der gesamte Inhalt im Abschnitt auch für vSphere 7.0 Update 3d gilt. Weitere Informationen erhalten Sie auch in den verwandten VMware-Knowledgebase-Artikeln: 86447, 87258 und 87308.
Neuigkeiten
- ESXi 7.0 Update 3d unterstützt vSphere Quick Boot auf folgenden Servern:
- Dell Inc. C6420 vSAN Ready Node
- Dell Inc. MX740C vSAN Ready Node
- Dell Inc. MX750C vSAN Ready Node
- Dell Inc. PowerEdge R750xa
- Dell Inc. PowerEdge R750xs
- Dell Inc. PowerEdge T550
- Dell Inc. R650 vSAN Ready Node
- Dell Inc. R6515 vSAN Ready Node
- Dell Inc. R740 vSAN Ready Node
- Dell Inc. R750 vSAN Ready Node
- Dell Inc. R7515 vSAN Ready Node
- Dell Inc. R840 vSAN Ready Node
- Dell Inc. VxRail E660
- Dell Inc. VxRail E660F
- Dell Inc. VxRail E660N
- Dell Inc. VxRail E665
- Dell Inc. VxRail E665F
- Dell Inc. VxRail E665N
- Dell Inc. VxRail G560
- Dell Inc. VxRail G560F
- Dell Inc. VxRail P580N
- Dell Inc. VxRail P670F
- Dell Inc. VxRail P670N
- Dell Inc. VxRail P675F
- Dell Inc. VxRail P675N
- Dell Inc. VxRail S670
- Dell Inc. VxRail V670F
Vorherige Versionen von ESXi 7.0
Neue Funktionen sowie die gelösten und bekannten Probleme von ESXi werden in den entsprechenden Versionshinweisen beschrieben. Versionshinweise zu vorherigen Versionen von ESXi 7.0:
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 3c
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2d
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2c
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2a
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 2
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1d
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1c
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1b
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1a
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0 Update 1
- Versionshinweise zu VMware ESXi 7.0, ESXi 7.0b
Informationen zu Internationalisierung, Kompatibilität und Open Source-Komponenten finden Sie in den Versionshinweisen zu VMware vSphere 7.0.
In dieser Version enthaltene Patches
In dieser ESXi 7.0 Update 3d-Version werden folgende Patches bereitgestellt:
Build-Details
Download-Dateiname: | VMware-ESXi-7.0U3d-19482537-depot.zip |
Build: | 19482537 |
Download-Größe: | 586,8 MB |
md5sum: | 22fca2ef1dc38f490d1635926a86eb02 |
sha256checksum: | 2ef5b43b4e9d64a9f48c7ea0ee8561f7619c9ab54e874974b7f0165607a2355a |
Neustart des Hosts erforderlich: | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich: | Ja |
Komponenten
Komponente | Bulletin | Kategorie | Schweregrad |
---|---|---|---|
ESXi-Komponente - ESXi-Kern-VIBs | ESXi_7.0.3-0.35.19482537 | Fehlerkorrektur | Kritisch |
ESXi-Komponente „Installieren/Aktualisieren“ | esx-update_7.0.3-0.35.19482537 | Fehlerkorrektur | Kritisch |
LSI NATIVE DRIVERS LSU-Verwaltungs-Plug-In | Broadcom-lsiv2-drivers-plugin_1.0.0-10vmw.703.0.35.19482537 | Fehlerkorrektur | Kritisch |
VMware NVMe over TCP-Treiber | VMware-NVMeoF-TCP_1.0.0.1-1vmw.703.0.35.19482537 | Fehlerkorrektur | Kritisch |
ESXi-Komponente - ESXi-Kern-VIBs | ESXi_7.0.3-0.30.19482531 | Sicherheit | Kritisch |
ESXi-Komponente „Installieren/Aktualisieren“ | esx-update_7.0.3-0.30.19482531 | Sicherheit | Kritisch |
VMware-VM-Tools | VMware-VM-Tools_11.3.5.18557794-19482531 | Sicherheit | Kritisch |
WICHTIG:
- Ab vSphere 7.0 verwendet VMware Komponenten zum Verpacken von VIBs mit Bulletins. Die Bulletins
ESXi
undesx-update
bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden. - Beim Patchen von ESXi-Hosts mithilfe von VMware Update Manager von einer Version vor ESXi 7.0 Update 2 wird dringend empfohlen, das Rollup-Bulletin in der Patch-Baseline zu verwenden. Wenn Sie das Rollup-Bulletin nicht verwenden können, stellen Sie sicher, dass alle der folgenden Pakete in der Patch-Baseline enthalten sind. Wenn die folgenden Pakete nicht in der Baseline enthalten sind, schlägt der Updatevorgang fehl:
- VMware-vmkusb_0.1-1vmw.701.0.0.16850804 oder höher
- VMware-vmkata_0.1-1vmw.701.0.0.16850804 oder höher
- VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 oder höher
- VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 oder höher
Rollup-Bulletin
Dieses Rollup-Bulletin enthält die neuesten VIBs mit allen Fixes nach der ersten Version von ESXi 7.0.
Bulletin-ID | Kategorie | Schweregrad | Details |
ESXi70U3d-19482537 | Fehlerkorrektur | Kritisch | Fehlerbehebung und Sicherheit |
ESXi70U3sd-19482531 | Sicherheit | Kritisch | Nur Sicherheit |
Image-Profile
Patch- und Updateversionen von VMware enthalten allgemeine und kritische Image-Profile. Die Anwendung des allgemeinen Image-Profils der Version gilt für die neuen Fehlerkorrekturen.
Name des Image-Profils |
ESXi-7.0U3d-19482537-standard |
ESXi-7.0U3d-19482537-no-tools |
ESXi-7.0U3sd-19482531-standard |
ESXi-7.0U3sd-19482531-no-tools |
ESXi-Image
Name und Version | Datum der Veröffentlichung | Kategorie | Detail |
---|---|---|---|
ESXi70U3d-19482537 | 29. MAR 2022 | Fehlerkorrektur | Fehlerbehebungs- und Sicherheits-Image |
ESXi70U3sd-19482531 | 29. MAR 2022 | Sicherheit | Image nur für Sicherheit |
Informationen zu den einzelnen Komponenten und Bulletins finden Sie auf der Seite Produkt-Patches und im Abschnitt Behobene Probleme.
Patch-Download und -Installation
In vSphere 7.x wird das für die Verwaltung von vSphere Update Manager verwendete Update Manager-Plug-In durch das Lifecycle Manager-Plug-In ersetzt. Verwaltungsvorgänge für vSphere Update Manager stehen weiterhin mit neuen Funktionen für vSphere Lifecycle Manager im Lifecycle Manager-Plug-In zur Verfügung.
Die typische Methode zum Anwenden von Patches auf ESXi 7.x-Hosts besteht in der Verwendung des vSphere Lifecycle Manager. Weitere Informationen finden Sie unter Info zu vSphere Lifecycle Manager und vSphere Lifecycle Manager-Baselines und -Images.
Sie können ESXi-Hosts auch ohne das Lifecycle Manager-Plug-In aktualisieren und stattdessen ein Image-Profil verwenden. Dazu müssen Sie die ZIP-Datei des Patch-Offline-Pakets manuell von VMware Customer Connect herunterladen. Wählen Sie im Dropdown-Menü Produkt auswählen die Option ESXi (eingebettet und installierbar) und im Dropdown-Menü Version auswählen die Option 7.0. Weitere Informationen finden Sie unter Aktualisieren von Hosts mithilfe von ESXCLI-Befehlen und im Handbuch VMware ESXi-Upgrade.
Behobene Probleme
Die behobenen Probleme werden in folgende Kategorien unterteilt.
- ESXi_7.0.3-0.35.19482537
- esx-update_7.0.3-0.35.19482537
- Broadcom-lsiv2-drivers-plugin_1.0.0-10vmw.703.0.35.19482537
- VMware-NVMeoF-TCP_1.0.0.1-1vmw.703.0.35.19482537
- ESXi_7.0.3-0.30.19482531
- esx-update_7.0.3-0.30.19482531
- VMware-VM-Tools_11.3.5.18557794-19482531
- ESXi-7.0U3d-19482537-standard
- ESXi-7.0U3d-19482537-no-tools
- ESXi-7.0U3sd-19482531-standard
- ESXi-7.0U3sd-19482531-no-tools
- ESXi-Image – ESXi70U3d-19482537
- ESXi-Image – ESXi70U3sd-19482531
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2854493 |
CVE-Nummern | Nicht verfügbar |
Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.
Aktualisiert die VIBs esx-dvfilter-generic-fastpath, vsanhealth, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver, gc, bmcal, esxio-combiner, trx
und cpu-microcode
, um die folgenden Probleme zu beheben:
- NEU PR 2854493: Virtuelle Maschinen reagieren aufgrund eines Deadlock-Problems auf einem VMFS-Volume möglicherweise nicht mehr
Wenn eine E/A-Anforderung parallel mit einem vom Gastbetriebssystem ausgelösten Löschvorgang ausgeführt wird, kann es in manchen Fällen zu einem Deadlock auf VMFS6-Volumes kommen. Beispiel: Wenn das Gastbetriebssystem auf einer mit Thin Provisioning bereitgestellten VM kontinuierlich Vorgänge zum Aufheben der Zuordnung ausführt, während derer das Schreiben und Löschen von Dateien wiederholt wird, um die Festplatte zu sichern und freizugeben. Folglich reagieren virtuelle Maschinen auf diesem Volume nicht mehr.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2855241: Das Hinzufügen von ESXi-Hosts zu einer Active Directory-Domäne kann lange dauern
Bestimmte LDAP-Abfragen ohne festgelegte Zeitüberschreitungen können erhebliche Verzögerungen beim Hinzufügen von ESXi-Hosts zu einer Active Directory-Domäne verursachen.
Dieses Problem wurde in der vorliegenden Version behoben. Der Fix fügt eine Standardzeitüberschreitung von 15 Sekunden mit zusätzlicher Protokollierung der LDAP-Aufrufe während des Workflows zum Domänenbeitritt hinzu.
- PR 2834582: Das gleichzeitige Einschalten einer großen Anzahl virtueller Maschinen kann lange dauern oder fehlschlagen
In bestimmten Umgebungen kann das gleichzeitige Einschalten einer großen Anzahl an VMs, die auf demselben VMFS6-Datenspeicher gehostet werden, lange dauern oder fehlschlagen. Die zur Erstellung von Auslagerungsdateien für alle VMs benötigte Zeit führt zu Verzögerungen und letztendlich zum Fehlschlagen der Einschaltvorgänge.
Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird der Zuteilungsalgorithmus für VMFS6-Ressourcen verbessert, um das Problem zu vermeiden.
- PR 2851811: Virtuelle Maschinen reagieren während des Einschaltens oder der Snapshot-Konsolidierung möglicherweise nicht mehr
Eine virtuelle Maschine reagiert möglicherweise während des Einschaltens oder der Snapshot-Konsolidierung nicht mehr. In diesem Fall müssen Sie den ESXi-Host und anschließend die VM neu starten. Es handelt sich um ein seltenes Problem, das beim Öffnen der VMDK-Datei auftritt.
Dieses Problem wurde in der vorliegenden Version behoben. Mit diesem Fix wird jedoch nur eine angegebene Hauptursache behoben. Andere Aspekte des Problems werden nicht berücksichtigt. Der Fix fügt Protokolle mit dem Tag
AFF_OPEN_PATH
hinzu, um die Erkennung und Behebung einer alternativen Hauptursache bei Auftreten des Problems zu erleichtern. - PR 2865369: Ein ESXi-Host schlägt möglicherweise aufgrund einer sehr seltenen Race-Bedingung in Software-iSCSI-Adaptern mit einem violetten Diagnosebildschirm fehl
In sehr seltenen Fällen schlägt der ESXi-Host aufgrund einer Race-Bedingung in Software-iSCSI-Adaptern mit einem violetten Diagnosebildschirm fehl.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2849843: In den Statistiken im Bereich „VM-Speicher“ wird auf ESXi-Servern, die mehr als 150 Tage ausgeführt werden, Null für „VMname“ angezeigt
Wenn ein ESXi-Server mehr als 150 Tage ohne Neustart ausgeführt wird, kann die Nummer der Ressourcenpool-ID (GID) einen Überlauf von
uint32
verursachen. Dies kann dazu führen, dassGID
unter „Statistik“ im Bereich „VM-Speicher“ als negative Zahl undVMname
als Null angezeigt wird.Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird die Variable
GID
inuint64
geändert. - PR 2850065: Der VMkernel fährt möglicherweise virtuelle Maschinen aufgrund eines vCPU-Timer-Problems herunter
In seltenen Fällen geht der VMkernel davon aus, dass eine virtuelle Maschine nicht reagiert, weil sie kein ordnungsgemäßes PCPU-Taktsignal sendet, und fährt die VM herunter. In der Datei
vmkernel.log
werden Meldungen ähnlich der folgenden angezeigt:2021-05-28T21:39:59.895Z cpu68:1001449770)ALERT: Heartbeat: HandleLockup:827: PCPU 8 didn't have a heartbeat for 5 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.
2021-05-28T21:39:59.895Z cpu8:1001449713)WARNING: World: 1001449713-Vm: PanicWork:8430: vmm3:VM_NAME:vcpu-3:Received VMkernel NMI IPI, possible CPU lockup while executing HV VT VMDas Problem ist auf eine seltene Race-Bedingung in vCPU-Timern zurückzuführen. Da es sich um eine Race-Bedingung pro vCPU handelt, sind größere VMs dem Problem stärker ausgesetzt.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2851400: Wenn vSphere Replication auf einer virtuellen Maschine aktiviert ist, reagieren zahlreiche andere VMs möglicherweise nicht mehr
Bei Aktivierung von vSphere Replication auf einer virtuellen Maschine treten möglicherweise höhere Datenspeicher- und Gastlatenzen auf, die in bestimmten Fällen dazu führen können, dass ESXi-Hosts nicht mehr auf vCenter Server reagieren. Die erhöhte Latenz ist darauf zurückzuführen, dass vSphere Replication MD5-Prüfsummen im E/A-Abschlusspfad berechnet, wodurch alle anderen E/As verzögert werden.
Dieses Problem wurde in der vorliegenden Version behoben. Der Fix verlagert die in vSphere Replication durchgeführte MD5-Berechnung aus dem E/A-Abschlusspfad in einen Arbeitspool und verringert die von vSphere Replication ausgegebene ausstehende E/A.
- PR 2859882: Netzwerkschnittstelleneinträge werden erneut im alten Format veröffentlicht
Nach einem Neustart weist der führende Host eines vSAN-Clusters möglicherweise ein neues Format für Netzwerkschnittstelleneinträge auf. Das neue Format wird möglicherweise nicht auf bestimmte Einträge angewendet. Hierzu gehören beispielsweise Schnittstelleneinträge in der lokalen Aktualisierungswarteschlange des führenden Hosts.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2859643: Beim geplanten Entfernen von NVMe-Geräten werden sfcb-Core-Dumps angezeigt
Zum Optimieren der Verarbeitung von Abfragen im Zusammenhang mit PCI-Geräten verwaltet SFCB eine Liste der PCI-Geräte in einem Cache. Wenn Sie jedoch ein NVMe-Gerät entfernen, wird der Cache selbst in einem geplanten Workflow möglicherweise nicht aktualisiert. Folglich werden sfcb-Core-Dumps angezeigt, da die Suche nach dem entfernten Gerät fehlschlägt.
Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass SFCB den Cache bei jeder Änderung in der Liste der PCI-Geräte aktualisiert.
- PR 2851531: ESXi-Hosts in Umgebungen, die Uplink- und Gruppierungsrichtlinien verwenden, verlieren nach der Standardisierung durch Anwendung eines Hostprofils möglicherweise die Konnektivität
Bei der Standardisierung von ESXi-Hosts mithilfe eines Hostprofils werden Netzwerkeinstellungen möglicherweise aufgrund eines logischen Fehlers bei der Überprüfung der Uplink-Anzahl der Uplink-Ports, die für die standardmäßige Gruppierungsrichtlinie konfiguriert sind, nicht angewendet. Wenn während der Anwendung eines Hostprofils bei der Überprüfung der Uplink-Nummer der Wert „0“ zurückgegeben wird, schlägt die Aufgabe fehl. Folglich wird die Verbindung der ESXi-Hosts nach einem Neustart unterbrochen.
Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird die Überprüfung der Uplink-Nummer optimiert und sichergestellt, dass nur unter bestimmten Bedingungen ein Fehler zurückgegeben wird.
- PR 2869790: Nach dem Neustart von ESXi-Hosts werden keine VMkernel-Netzwerkadapter angezeigt
In vSphere-Systemen der Version 7.0 Update 2 und höher, in denen VMkernel-Netzwerkadapter mit mehreren TCP/IP-Stacks verbunden sind, werden nach dem Neustart von ESX-Hosts bestimmte Adapter möglicherweise nicht wiederhergestellt. Wenn Sie im vSphere Client zu Host > Konfigurieren > VMkernel-Adapter navigieren, wird eine Meldung vom Typ
Keine Elemente gefunden
angezeigt. Bei Ausführung der ESXCLI-Befehlelocalcli network ip interface list
oderesxcfg-vmknic -l
wird der FehlerKnoten kann nicht abgerufen werden: Nicht gefunden
angezeigt. In den Berichten vom Typhostd.log
wird derselbe Fehler angezeigt.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2871577: Wenn Sie Migrationsvorgänge mithilfe von vSphere vMotion deaktivieren und dann erneut aktivieren, können aufeinanderfolgende Migrationen dazu führen, dass ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen
In bestimmten Fällen schlagen ESXi-Hosts mit einem violetten Diagnosebildschirm fehl, wenn Sie vSphere vMotion auf einem vSphere-System nach dem Deaktivieren und erneuten Aktivieren von Migrationsvorgängen verwenden. Wenn Sie beispielsweise die ESXCLI-Befehle
esxcli system settings advanced set --option /Migrate/Enabled --int-value=0
zum Deaktivieren der Funktion verwenden und dannesxcli system settings advanced set --option /Migrate/Enabled --default
zu deren Aktivierung ausführen, kann jede anschließende Migration diesen Fehler verursachen.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2914095: Hohe CPU-Auslastung nach einem unterbrechungsfreien Upgrade (NDU) einer Speicher-Array-Firmware
Auf ESXi-Hosts kann es nach einem NDU-Upgrade einer Speicher-Array-Firmware, z. B. eines PowerStore-VASA-Anbieters, zu einer CPU-Auslastung von über 90 % kommen. Die hohe CPU-Auslastung lässt schließlich nach, kann aber in bestimmten Fällen sogar länger als 24 Stunden dauern.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2871515: ESXi-Hosts verlieren IPv6-DNS nach einer VMkernel-Port-Migration
Nach einer VMkernel-Port-Migration von einem virtuellen Standard-Switch zu einem vSphere Distributed Virtual Switch (VDS) oder von einem VDS zu einem anderen verlieren ESXi-Hosts unter Umständen ihr IPv6-DNS.
Dieses Problem wurde in der vorliegenden Version behoben. Mit diesem Fix wird sichergestellt, dass IPv6-Namensserver während einer VMkernel-Port-Migration nacheinander hinzugefügt oder entfernt werden, um zu verhindern, dass sie alle in bestimmten Umgebungen entfernt werden.
- PR 2852173: ESXi-Hosts schlagen möglicherweise aufgrund von unzureichendem Socket-Puffer mit einem violetten Diagnosebildschirm fehl
ESXi-Verwaltungs-Daemons, die große Mengen an Protokollmeldungen generieren, können sich aufgrund von unzureichendem Socket-Puffer auf die operative Kommunikation zwischen Komponenten auf Benutzerebene auswirken. Dies kann dazu führen, dass ESXi-Hosts mit einem violetten Diagnosebildschirm und einer Meldung ähnlich der folgenden fehlschlagen:
nicmgmtd: Ein neues Datensegment kann nicht zugeteilt werden, nicht genügend Arbeitsspeicher
.Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird der von den Komponenten gemeinsam genutzte Socket-Speicher auf niedriger Ebene getrennt vom Pufferspeicher der Anwendung zugeteilt.
- PR 2872509: Sie können den Status von Objekten während einer Aufgabe zum Neusynchronisieren von Objekten nicht anzeigen
Wenn Sie im vSphere Client die Option Objekte werden erneut synchronisiert unter vSAN-Cluster > Überwachen> vSAN auswählen, wird der Status von Objekten, die erneut synchronisiert werden, nicht angezeigt. Stattdessen wird der Fehler
Die angeforderten Daten konnten nicht extrahiert werden. Weitere Informationen finden Sie in den vSphere Client-Protokollen.
angezeigt.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2878701: Im VMware Host Client wird eine Fehlermeldung mit dem Hinweis angezeigt, dass keine Sensordaten verfügbar sind
Im VMware Host Client wird der Fehler
Keine Sensordaten verfügbar
aufgrund eines Problems mit derDateTime
-Formatierung angezeigt. Im Backtrace werden Protokolle ähnlich dem folgenden angezeigt:hostd[1051205] [Originator@6876 sub=Cimsvc] Refresh hardware status failed N7Vmacore23DateTimeFormatExceptionE(Error formatting DateTime)
.Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2847291: Verwaltungskonten von VMware Cloud Director auf Dell EMC VxRail werden während der Standardisierung des Hostprofils möglicherweise gelöscht
Wenn Sie ein Hostprofil erstellen, werden Dienstkonten für VMware Cloud Director auf Dell EMC VxRail automatisch erstellt und während einer Standardisierung des Hostprofils möglicherweise gelöscht.
Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass Dienstkonten für VMware Cloud Director auf Dell EMC VxRail nicht von Hostprofilvorgängen abhängig sind.
- PR 2884344: Die Konfiguration des vSAN-Hosts stimmt nicht mit vCenter Server überein, wenn ein nativer Schlüsselanbieter fehlerhaft ist
Wenn der Status eines nativen Schlüsselanbieters für vSAN-Verschlüsselung fehlerhaft ist, wird der Standardisierungs-Workflow möglicherweise gesperrt. vCenter Server kann die zugehörigen Konfigurationseinstellungen erst mit den vSAN-Hosts synchronisieren, wenn die Sperre gelöscht wurde.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2854558: vSAN-Verschlüsselung kann nicht mithilfe eines nativen Schlüsselanbieters aktiviert werden, wenn sich die Hosts hinter einem Proxy befinden
Wenn Sie vSAN-Hosts hinter einem Proxy-Server platzieren, kann vSAN den Integritätsstatus des nativen Schlüsselanbieters nicht ermitteln. Folglich können Sie vSAN-Verschlüsselung nicht mithilfe des nativen Schlüsselanbieters aktivieren. Eine Meldung ähnlich der folgenden wird gegebenenfalls angezeigt:
Der Schlüsselanbieter ist auf dem Host nicht verfügbar.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2859229: Für Hosts in einem vSAN HCI Mesh-Cluster wird ein Konformitätsprüfungsfehler angezeigt
Bei Hosts in einem vSAN-Cluster mit aktiviertem HCI Mesh tritt möglicherweise folgender Konformitätsprüfungsfehler auf:
Der Name des Datenspeichers kann nicht aus dem Host abgerufen werden.
Dieses Problem wurde in der vorliegenden Version behoben.
- PR 2840405: Sie können die Größe des Ressourcenpools von WBEM-Anbietern nicht ändern
Die Namen der WBEM-Anbieter können sich vom zugehörigen Ressourcengruppennamen unterscheiden. In solchen Fällen können Befehle, wie z. B.
esxcli system wbem set --rp-override
, die vorhandene Konfiguration nicht ändern, da mit der Methode zum Ändern der Größe des Ressourcenpools auch die Ressourcengruppennamen überprüft werden.Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix entfällt die Prüfung zwischen WBEM-Anbieternamen und Ressourcengruppennamen.
- PR 2897700: Wenn die Verschlüsselung von in Übertragung begriffener Daten in einem vSAN-Cluster aktiviert ist, schlagen ESXi-Hosts möglicherweise mit einem violetten Diagnosebildschirm fehl
Wenn die Verschlüsselung von in Übertragung begriffener Daten in einem vSAN-Cluster aktiviert ist und andere Datenverkehrstypen des Systems, wie z. B. vSphere vMotion- oder vSphere HA-Datenverkehr, an einen von vSAN verwendeten Port weitergeleitet werden, schlagen ESXi-Hosts möglicherweise mit einem Fehler wie
PSOD: #PF Exception 14 in world 1000215083:rdtNetworkWo IP 0x42000df1be47 addr 0x80
und einem violetten Diagnosebildschirm fehl.Dieses Problem wurde in der vorliegenden Version behoben.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs loadesx
und esx-update
.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Nein |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2925847 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB
lsuv2-lsiv2-drivers-plugin
zum Lösen des folgenden Problems:
- PR 2925847: Nach dem ESXi-Update auf Version 7.0 Update 3 oder höher kann der VPXA-Dienst nicht gestartet werden, und die ESXi-Hosts werden von vCenter Server getrennt
Nach der Aktualisierung von ESXi auf Version 7.0 Update 3 oder höher wird die Verbindung zwischen den Hosts und vCenter Server möglicherweise getrennt. Wenn Sie versuchen, einen Host mithilfe des vSphere Client erneut zu verbinden, wird eine Fehlermeldung ähnlich der folgenden angezeigt:
Ein allgemeiner Systemfehler ist aufgetreten: Zeitüberschreitung beim Warten auf den Start von vpxa.
Der VPXA-Dienst kann auch nicht gestartet werden, wenn Sie den Befehl/etc/init.d/vpxa start
verwenden. Das Problem betrifft Umgebungen mit RAIDs, die mehr als 15 physische Geräte enthalten. Daslsuv2-lsiv2-drivers-plugin
kann bis zu 15 physische Festplatten verwalten, und RAIDs mit mehreren Geräten verursachen einer Überlauf, der den Start von VPXA verhindert.Dieses Problem wurde in der vorliegenden Version behoben.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB
nvmetcp
.
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515 |
CVE-Nummern | Nicht verfügbar |
Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.
Aktualisiert die VIBs esx-dvfilter-generic-fastpath, vsanhealth, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver, gc, bmcal, esxio-combiner, trx
und cpu-microcode
, um die folgenden Probleme zu beheben:
- ESXi 7.0 Update 3d stellt die folgenden Sicherheits-Updates bereit:
- cURL wurde auf Version 7.79.1 aktualisiert.
- OpenSSH wird auf Version 8.8p1 aktualisiert.
- OpenSSL wird auf Version 1.0.2zb aktualisiert.
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Nein |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Nein |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs loadesx
und esx-update
.
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Nein |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Nein |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 2816546 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB tools-light
zur Behebung des folgenden Problems:
-
-
Die folgenden VMware Tools-ISO-Images sind im Lieferumfang von ESXi 7.0 Update 3d enthalten:
windows.iso
: VMware Tools 11.3.5 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.linux.iso
: VMware Tools 10.3.23-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.
Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:
- VMware Tools 11.0.6:
windows.iso
: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12:
winPreVista.iso
: für Windows 2000, Windows XP und Windows 2003.linuxPreGLibc25.iso
: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
-
solaris.iso
: VMware Tools-Image 10.3.10 für Solaris.
darwin.iso
: Unterstützt Mac OS X-Versionen 10.11 und höher.
Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:
-
Profilname | ESXi-70U3d-19482537-standard |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 29. März 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2925847, 2854493 |
Verwandte CVE-Nummern | Nicht verfügbar |
- Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
-
Wenn eine E/A-Anforderung parallel mit einem vom Gastbetriebssystem ausgelösten Löschvorgang ausgeführt wird, kann es in manchen Fällen zu einem Deadlock auf einem VMFS-Volume kommen. Folglich reagieren virtuelle Maschinen auf diesem Volume nicht mehr.
-
Bestimmte LDAP-Abfragen ohne festgelegte Zeitüberschreitungen können erhebliche Verzögerungen beim Hinzufügen von ESXi-Hosts zu einer Active Directory-Domäne verursachen.
-
In bestimmten Umgebungen kann das gleichzeitige Einschalten einer großen Anzahl an VMs, die auf demselben VMFS6-Datenspeicher gehostet werden, lange dauern oder fehlschlagen. Die zur Erstellung von Auslagerungsdateien für alle VMs benötigte Zeit führt zu Verzögerungen und letztendlich zum Fehlschlagen der Einschaltvorgänge.
-
Eine virtuelle Maschine reagiert möglicherweise während des Einschaltens oder der Snapshot-Konsolidierung nicht mehr. In diesem Fall müssen Sie den ESXi-Host und anschließend die VM neu starten. Es handelt sich um ein seltenes Problem, das beim Öffnen der VMDK-Datei auftritt.
-
In sehr seltenen Fällen schlägt der ESXi-Host aufgrund einer Race-Bedingung in Software-iSCSI-Adaptern mit einem violetten Diagnosebildschirm fehl.
-
Wenn ein ESXi-Server mehr als 150 Tage ohne Neustart ausgeführt wird, kann die ID des Ressourcenpools (GID) zu einem Überlauf von
uint32
führen. Folglich wirdGID
unter „Statistik“ im Bereich „VM-Speicher“ möglicherweise als negative Zahl undVMname
als Null angezeigt. -
In seltenen Fällen geht der VMkernel davon aus, dass eine virtuelle Maschine nicht reagiert, weil sie kein ordnungsgemäßes PCPU-Taktsignal sendet, und fährt die VM herunter. In der Datei
vmkernel.log
werden Meldungen ähnlich der folgenden angezeigt:2021-05-28T21:39:59.895Z cpu68:1001449770)ALERT: Heartbeat: HandleLockup:827: PCPU 8 didn't have a heartbeat for 5 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.
2021-05-28T21:39:59.895Z cpu8:1001449713)WARNING: World: 1001449713-Vm: PanicWork:8430: vmm3:VM_NAME:vcpu-3:Received VMkernel NMI IPI, possible CPU lockup while executing HV VT VMDas Problem ist auf eine seltene Race-Bedingung in vCPU-Timern zurückzuführen. Da es sich um eine Race-Bedingung pro vCPU handelt, sind größere VMs dem Problem stärker ausgesetzt.
-
Bei Aktivierung von vSphere Replication auf einer virtuellen Maschine treten möglicherweise höhere Datenspeicher- und Gastlatenzen auf, die in bestimmten Fällen dazu führen können, dass ESXi-Hosts nicht mehr auf vCenter Server reagieren. Die erhöhte Latenz ist darauf zurückzuführen, dass vSphere Replication MD5-Prüfsummen im E/A-Abschlusspfad berechnet, wodurch alle anderen E/As verzögert werden.
-
Nach einem Neustart weist der führende Host eines vSAN-Clusters möglicherweise ein neues Format für Netzwerkschnittstelleneinträge auf. Das neue Format wird möglicherweise nicht auf bestimmte Einträge angewendet. Hierzu gehören beispielsweise Schnittstelleneinträge in der lokalen Aktualisierungswarteschlange des führenden Hosts.
-
In seltenen Fällen, wenn Sie eine große Komponente in einem ESXi-Host löschen und anschließend einen Neustart durchführen, erfolgt möglicherweise der Neustart, bevor alle Metadaten der Komponente gelöscht wurden. Die veralteten Metadaten können dazu führen, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt.
-
Zum Optimieren der Verarbeitung von Abfragen im Zusammenhang mit PCI-Geräten verwaltet SFCB eine Liste der PCI-Geräte in einem Cache. Wenn Sie jedoch ein NVMe-Gerät entfernen, wird der Cache selbst in einem geplanten Workflow möglicherweise nicht aktualisiert. Folglich werden sfcb-Core-Dumps angezeigt, da die Suche nach dem entfernten Gerät fehlschlägt.
-
In bestimmten Umgebungen wird nach dem Upgrade auf ESXi 7.0 Update 2d und höher im vSphere Client möglicherweise der Fehler
Zeitsynchronisierung des Hosts wurde unterbrochen
angezeigt. Der Alarm weist jedoch möglicherweise nicht auf ein tatsächliches Problem hin. -
Bei der Standardisierung von ESXi-Hosts mithilfe eines Hostprofils werden Netzwerkeinstellungen möglicherweise aufgrund eines logischen Fehlers bei der Überprüfung der Uplink-Anzahl der Uplink-Ports, die für die standardmäßige Gruppierungsrichtlinie konfiguriert sind, nicht angewendet. Wenn während der Anwendung eines Hostprofils bei der Überprüfung der Uplink-Nummer der Wert „0“ zurückgegeben wird, schlägt die Aufgabe fehl. Folglich wird die Verbindung der ESXi-Hosts nach einem Neustart unterbrochen.
-
In vSphere-Systemen, in denen VMkernel-Netzwerkadapter mit mehreren TCP/IP-Stacks verbunden sind, werden nach dem Neustart von ESX-Hosts bestimmte Adapter möglicherweise nicht wiederhergestellt. Wenn Sie im vSphere Client zu Host > Konfigurieren > VMkernel-Adapter navigieren, wird eine Meldung vom Typ
Keine Elemente gefunden
angezeigt. Bei Ausführung der ESXCLI-Befehlelocalcli network ip interface list
oderesxcfg-vmknic -l
wird der FehlerKnoten kann nicht abgerufen werden: Nicht gefunden
angezeigt. In den Berichten vom Typhostd.log
wird derselbe Fehler angezeigt. -
Wenn Sie Latenzempfindlichkeit auf virtuellen Maschinen aktivieren, konkurrieren bestimmte Threads des Likewise Service Manager (lwsmd), der die CPU-Affinität explizit festlegt, möglicherweise um CPU-Ressourcen auf diesen virtuellen Maschinen. Dies kann dazu führen, dass der ESXi-Host und der hostd-Dienst nicht mehr reagieren.
-
In bestimmten Fällen schlagen ESXi-Hosts mit einem violetten Diagnosebildschirm fehl, wenn Sie vSphere vMotion auf einem vSphere-System nach dem Deaktivieren und erneuten Aktivieren von Migrationsvorgängen verwenden. Wenn Sie beispielsweise die ESXCLI-Befehle
esxcli system settings advanced set --option /Migrate/Enabled --int-value=0
zum Deaktivieren der Funktion verwenden und dannesxcli system settings advanced set --option /Migrate/Enabled --default
zu deren Aktivierung ausführen, kann jede anschließende Migration diesen Fehler verursachen. -
Auf ESXi-Hosts kann es nach einem NDU-Upgrade einer Speicher-Array-Firmware, z. B. eines PowerStore-VASA-Anbieters, zu einer CPU-Auslastung von über 90 % kommen. Die hohe CPU-Auslastung lässt schließlich nach, kann aber in bestimmten Fällen sogar länger als 24 Stunden dauern.
-
Nach einer VMkernel-Port-Migration von einem virtuellen Standard-Switch zu einem vSphere Distributed Virtual Switch (VDS) oder von einem VDS zu einem anderen verlieren ESXi-Hosts unter Umständen ihr IPv6-DNS.
-
ESXi-Verwaltungs-Daemons, die große Mengen an Protokollmeldungen generieren, können sich aufgrund von unzureichendem Socket-Puffer auf die operative Kommunikation zwischen Komponenten auf Benutzerebene auswirken. Dies kann dazu führen, dass ESXi-Hosts mit einem violetten Diagnosebildschirm und einer Meldung ähnlich der folgenden fehlschlagen:
nicmgmtd: Ein neues Datensegment kann nicht zugeteilt werden, nicht genügend Arbeitsspeicher
. -
Wenn Sie im vSphere Client die Option Objekte werden erneut synchronisiert unter vSAN-Cluster > Überwachen> vSAN auswählen, wird der Status von Objekten, die erneut synchronisiert werden, nicht angezeigt. Stattdessen wird der Fehler
Die angeforderten Daten konnten nicht extrahiert werden. Weitere Informationen finden Sie in den vSphere Client-Protokollen.
angezeigt. -
Im VMware Host Client wird der Fehler
Keine Sensordaten verfügbar
aufgrund eines Problems mit derDateTime
-Formatierung angezeigt. Im Backtrace werden Protokolle ähnlich dem folgenden angezeigt:hostd[1051205] [Originator@6876 sub=Cimsvc] Refresh hardware status failed N7Vmacore23DateTimeFormatExceptionE(Error formatting DateTime)
. -
Wenn Sie ein Hostprofil erstellen, werden Dienstkonten für VMware Cloud Director auf Dell EMC VxRail automatisch erstellt und während einer Standardisierung des Hostprofils möglicherweise gelöscht.
-
Wenn der Status eines nativen Schlüsselanbieters für vSAN-Verschlüsselung fehlerhaft ist, wird der Standardisierungs-Workflow möglicherweise gesperrt. vCenter Server kann die zugehörigen Konfigurationseinstellungen erst mit den vSAN-Hosts synchronisieren, wenn die Sperre gelöscht wurde.
-
Wenn Sie vSAN-Hosts hinter einem Proxy-Server platzieren, kann vSAN den Integritätsstatus des nativen Schlüsselanbieters nicht ermitteln. Folglich können Sie vSAN-Verschlüsselung nicht mithilfe des nativen Schlüsselanbieters aktivieren. Eine Meldung ähnlich der folgenden wird gegebenenfalls angezeigt:
Der Schlüsselanbieter ist auf dem Host nicht verfügbar.
-
Nach der Aktualisierung von ESXi auf Version 7.0 Update 3 oder höher wird die Verbindung zwischen den Hosts und vCenter Server möglicherweise getrennt. Wenn Sie versuchen, einen Host mithilfe des vSphere Client erneut zu verbinden, wird eine Fehlermeldung ähnlich der folgenden angezeigt:
Ein allgemeiner Systemfehler ist aufgetreten: Zeitüberschreitung beim Warten auf den Start von vpxa.
Der VPXA-Dienst kann auch nicht gestartet werden, wenn Sie den Befehl/etc/init.d/vpxa start
verwenden. Das Problem betrifft Umgebungen mit RAIDs, die mehr als 15 physische Geräte enthalten. Daslsuv2-lsiv2-drivers-plugin
kann bis zu 15 physische Festplatten verwalten, und RAIDs mit mehreren Geräten verursachen einer Überlauf, der den Start von VPXA verhindert. -
Bei Hosts in einem vSAN-Cluster mit aktiviertem HCI Mesh tritt möglicherweise folgender Konformitätsprüfungsfehler auf:
Der Name des Datenspeichers kann nicht aus dem Host abgerufen werden.
-
Die Namen der WBEM-Anbieter können sich vom zugehörigen Ressourcengruppennamen unterscheiden. In solchen Fällen können Befehle, wie z. B.
esxcli system wbem set --rp-override
, die vorhandene Konfiguration nicht ändern, da mit der Methode zum Ändern der Größe des Ressourcenpools auch die Ressourcengruppennamen überprüft werden. -
Wenn die Verschlüsselung von in Übertragung begriffener Daten in einem vSAN-Cluster aktiviert ist und andere Datenverkehrstypen des Systems, wie z. B. vSphere vMotion- oder vSphere HA-Datenverkehr, an einen von vSAN verwendeten Port weitergeleitet werden, schlagen ESXi-Hosts möglicherweise mit einem Fehler wie
PSOD: #PF Exception 14 in world 1000215083:rdtNetworkWo IP 0x42000df1be47 addr 0x80
und einem violetten Diagnosebildschirm fehl.
-
Profilname | ESXi-70U3d-19482537-no-tools |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 29. März 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2925847, 2854493 |
Verwandte CVE-Nummern | Nicht verfügbar |
- Dieser Patch enthält Updates zur Behebung des folgenden Problems:
-
Wenn eine E/A-Anforderung parallel mit einem vom Gastbetriebssystem ausgelösten Löschvorgang ausgeführt wird, kann es in manchen Fällen zu einem Deadlock auf einem VMFS-Volume kommen. Folglich reagieren virtuelle Maschinen auf diesem Volume nicht mehr.
-
Bestimmte LDAP-Abfragen ohne festgelegte Zeitüberschreitungen können erhebliche Verzögerungen beim Hinzufügen von ESXi-Hosts zu einer Active Directory-Domäne verursachen.
-
In bestimmten Umgebungen kann das gleichzeitige Einschalten einer großen Anzahl an VMs, die auf demselben VMFS6-Datenspeicher gehostet werden, lange dauern oder fehlschlagen. Die zur Erstellung von Auslagerungsdateien für alle VMs benötigte Zeit führt zu Verzögerungen und letztendlich zum Fehlschlagen der Einschaltvorgänge.
-
Eine virtuelle Maschine reagiert möglicherweise während des Einschaltens oder der Snapshot-Konsolidierung nicht mehr. In diesem Fall müssen Sie den ESXi-Host und anschließend die VM neu starten. Es handelt sich um ein seltenes Problem, das beim Öffnen der VMDK-Datei auftritt.
-
In sehr seltenen Fällen schlägt der ESXi-Host aufgrund einer Race-Bedingung in Software-iSCSI-Adaptern mit einem violetten Diagnosebildschirm fehl.
-
Wenn ein ESXi-Server mehr als 150 Tage ohne Neustart ausgeführt wird, kann die ID des Ressourcenpools (GID) zu einem Überlauf von
uint32
führen. Folglich wirdGID
unter „Statistik“ im Bereich „VM-Speicher“ möglicherweise als negative Zahl undVMname
als Null angezeigt. -
In seltenen Fällen geht der VMkernel davon aus, dass eine virtuelle Maschine nicht reagiert, weil sie kein ordnungsgemäßes PCPU-Taktsignal sendet, und fährt die VM herunter. In der Datei
vmkernel.log
werden Meldungen ähnlich der folgenden angezeigt:2021-05-28T21:39:59.895Z cpu68:1001449770)ALERT: Heartbeat: HandleLockup:827: PCPU 8 didn't have a heartbeat for 5 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.
2021-05-28T21:39:59.895Z cpu8:1001449713)WARNING: World: 1001449713-Vm: PanicWork:8430: vmm3:VM_NAME:vcpu-3:Received VMkernel NMI IPI, possible CPU lockup while executing HV VT VMDas Problem ist auf eine seltene Race-Bedingung in vCPU-Timern zurückzuführen. Da es sich um eine Race-Bedingung pro vCPU handelt, sind größere VMs dem Problem stärker ausgesetzt.
-
Bei Aktivierung von vSphere Replication auf einer virtuellen Maschine treten möglicherweise höhere Datenspeicher- und Gastlatenzen auf, die in bestimmten Fällen dazu führen können, dass ESXi-Hosts nicht mehr auf vCenter Server reagieren. Die erhöhte Latenz ist darauf zurückzuführen, dass vSphere Replication MD5-Prüfsummen im E/A-Abschlusspfad berechnet, wodurch alle anderen E/As verzögert werden.
-
Nach einem Neustart weist der führende Host eines vSAN-Clusters möglicherweise ein neues Format für Netzwerkschnittstelleneinträge auf. Das neue Format wird möglicherweise nicht auf bestimmte Einträge angewendet. Hierzu gehören beispielsweise Schnittstelleneinträge in der lokalen Aktualisierungswarteschlange des führenden Hosts.
-
In seltenen Fällen, wenn Sie eine große Komponente in einem ESXi-Host löschen und anschließend einen Neustart durchführen, erfolgt möglicherweise der Neustart, bevor alle Metadaten der Komponente gelöscht wurden. Die veralteten Metadaten können dazu führen, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt.
-
Zum Optimieren der Verarbeitung von Abfragen im Zusammenhang mit PCI-Geräten verwaltet SFCB eine Liste der PCI-Geräte in einem Cache. Wenn Sie jedoch ein NVMe-Gerät entfernen, wird der Cache selbst in einem geplanten Workflow möglicherweise nicht aktualisiert. Folglich werden sfcb-Core-Dumps angezeigt, da die Suche nach dem entfernten Gerät fehlschlägt.
-
In bestimmten Umgebungen wird nach dem Upgrade auf ESXi 7.0 Update 2d und höher im vSphere Client möglicherweise der Fehler
Zeitsynchronisierung des Hosts wurde unterbrochen
angezeigt. Der Alarm weist jedoch möglicherweise nicht auf ein tatsächliches Problem hin. -
Bei der Standardisierung von ESXi-Hosts mithilfe eines Hostprofils werden Netzwerkeinstellungen möglicherweise aufgrund eines logischen Fehlers bei der Überprüfung der Uplink-Anzahl der Uplink-Ports, die für die standardmäßige Gruppierungsrichtlinie konfiguriert sind, nicht angewendet. Wenn während der Anwendung eines Hostprofils bei der Überprüfung der Uplink-Nummer der Wert „0“ zurückgegeben wird, schlägt die Aufgabe fehl. Folglich wird die Verbindung der ESXi-Hosts nach einem Neustart unterbrochen.
-
In vSphere-Systemen, in denen VMkernel-Netzwerkadapter mit mehreren TCP/IP-Stacks verbunden sind, werden nach dem Neustart von ESX-Hosts bestimmte Adapter möglicherweise nicht wiederhergestellt. Wenn Sie im vSphere Client zu Host > Konfigurieren > VMkernel-Adapter navigieren, wird eine Meldung vom Typ
Keine Elemente gefunden
angezeigt. Bei Ausführung der ESXCLI-Befehlelocalcli network ip interface list
oderesxcfg-vmknic -l
wird der FehlerKnoten kann nicht abgerufen werden: Nicht gefunden
angezeigt. In den Berichten vom Typhostd.log
wird derselbe Fehler angezeigt. -
Wenn Sie Latenzempfindlichkeit auf virtuellen Maschinen aktivieren, konkurrieren bestimmte Threads des Likewise Service Manager (lwsmd), der die CPU-Affinität explizit festlegt, möglicherweise um CPU-Ressourcen auf diesen virtuellen Maschinen. Dies kann dazu führen, dass der ESXi-Host und der hostd-Dienst nicht mehr reagieren.
-
In bestimmten Fällen schlagen ESXi-Hosts mit einem violetten Diagnosebildschirm fehl, wenn Sie vSphere vMotion auf einem vSphere-System nach dem Deaktivieren und erneuten Aktivieren von Migrationsvorgängen verwenden. Wenn Sie beispielsweise die ESXCLI-Befehle
esxcli system settings advanced set --option /Migrate/Enabled --int-value=0
zum Deaktivieren der Funktion verwenden und dannesxcli system settings advanced set --option /Migrate/Enabled --default
zu deren Aktivierung ausführen, kann jede anschließende Migration diesen Fehler verursachen. -
Auf ESXi-Hosts kann es nach einem NDU-Upgrade einer Speicher-Array-Firmware, z. B. eines PowerStore-VASA-Anbieters, zu einer CPU-Auslastung von über 90 % kommen. Die hohe CPU-Auslastung lässt schließlich nach, kann aber in bestimmten Fällen sogar länger als 24 Stunden dauern.
-
Nach einer VMkernel-Port-Migration von einem virtuellen Standard-Switch zu einem vSphere Distributed Virtual Switch (VDS) oder von einem VDS zu einem anderen verlieren ESXi-Hosts unter Umständen ihr IPv6-DNS.
-
ESXi-Verwaltungs-Daemons, die große Mengen an Protokollmeldungen generieren, können sich aufgrund von unzureichendem Socket-Puffer auf die operative Kommunikation zwischen Komponenten auf Benutzerebene auswirken. Dies kann dazu führen, dass ESXi-Hosts mit einem violetten Diagnosebildschirm und einer Meldung ähnlich der folgenden fehlschlagen:
nicmgmtd: Ein neues Datensegment kann nicht zugeteilt werden, nicht genügend Arbeitsspeicher
. -
Wenn Sie im vSphere Client die Option Objekte werden erneut synchronisiert unter vSAN-Cluster > Überwachen> vSAN auswählen, wird der Status von Objekten, die erneut synchronisiert werden, nicht angezeigt. Stattdessen wird der Fehler
Die angeforderten Daten konnten nicht extrahiert werden. Weitere Informationen finden Sie in den vSphere Client-Protokollen.
angezeigt. -
Im VMware Host Client wird der Fehler
Keine Sensordaten verfügbar
aufgrund eines Problems mit derDateTime
-Formatierung angezeigt. Im Backtrace werden Protokolle ähnlich dem folgenden angezeigt:hostd[1051205] [Originator@6876 sub=Cimsvc] Refresh hardware status failed N7Vmacore23DateTimeFormatExceptionE(Error formatting DateTime)
. -
Wenn Sie ein Hostprofil erstellen, werden Dienstkonten für VMware Cloud Director auf Dell EMC VxRail automatisch erstellt und während einer Standardisierung des Hostprofils möglicherweise gelöscht.
-
Wenn der Status eines nativen Schlüsselanbieters für vSAN-Verschlüsselung fehlerhaft ist, wird der Standardisierungs-Workflow möglicherweise gesperrt. vCenter Server kann die zugehörigen Konfigurationseinstellungen erst mit den vSAN-Hosts synchronisieren, wenn die Sperre gelöscht wurde.
-
Wenn Sie vSAN-Hosts hinter einem Proxy-Server platzieren, kann vSAN den Integritätsstatus des nativen Schlüsselanbieters nicht ermitteln. Folglich können Sie vSAN-Verschlüsselung nicht mithilfe des nativen Schlüsselanbieters aktivieren. Eine Meldung ähnlich der folgenden wird gegebenenfalls angezeigt:
Der Schlüsselanbieter ist auf dem Host nicht verfügbar.
-
Nach der Aktualisierung von ESXi auf Version 7.0 Update 3 oder höher wird die Verbindung zwischen den Hosts und vCenter Server möglicherweise getrennt. Wenn Sie versuchen, einen Host mithilfe des vSphere Client erneut zu verbinden, wird eine Fehlermeldung ähnlich der folgenden angezeigt:
Ein allgemeiner Systemfehler ist aufgetreten: Zeitüberschreitung beim Warten auf den Start von vpxa.
Der VPXA-Dienst kann auch nicht gestartet werden, wenn Sie den Befehl/etc/init.d/vpxa start
verwenden. Das Problem betrifft Umgebungen mit RAIDs, die mehr als 15 physische Geräte enthalten. Daslsuv2-lsiv2-drivers-plugin
kann bis zu 15 physische Festplatten verwalten, und RAIDs mit mehreren Geräten verursachen einer Überlauf, der den Start von VPXA verhindert. -
Bei Hosts in einem vSAN-Cluster mit aktiviertem HCI Mesh tritt möglicherweise folgender Konformitätsprüfungsfehler auf:
Der Name des Datenspeichers kann nicht aus dem Host abgerufen werden.
-
Die Namen der WBEM-Anbieter können sich vom zugehörigen Ressourcengruppennamen unterscheiden. In solchen Fällen können Befehle, wie z. B.
esxcli system wbem set --rp-override
, die vorhandene Konfiguration nicht ändern, da mit der Methode zum Ändern der Größe des Ressourcenpools auch die Ressourcengruppennamen überprüft werden. -
Wenn die Verschlüsselung von in Übertragung begriffener Daten in einem vSAN-Cluster aktiviert ist und andere Datenverkehrstypen des Systems, wie z. B. vSphere vMotion- oder vSphere HA-Datenverkehr, an einen von vSAN verwendeten Port weitergeleitet werden, schlagen ESXi-Hosts möglicherweise mit einem Fehler wie
PSOD: #PF Exception 14 in world 1000215083:rdtNetworkWo IP 0x42000df1be47 addr 0x80
und einem violetten Diagnosebildschirm fehl.
-
Profilname | ESXi-70U3sd-19482531-standard |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 29. März 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2816546 |
Verwandte CVE-Nummern | Nicht verfügbar |
- Dieser Patch enthält Updates zur Behebung des folgenden Problems:
- cURL wurde auf Version 7.79.1 aktualisiert.
- OpenSSH wird auf Version 8.8p1 aktualisiert.
- OpenSSL wird auf Version 1.0.2zb aktualisiert.
Die folgenden VMware Tools-ISO-Images sind im Lieferumfang von ESXi 7.0 Update 3d enthalten: windows.iso
: VMware Tools 11.3.5 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.linux.iso
: VMware Tools 10.3.23-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.
Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:
- VMware Tools 11.0.6:
windows.iso
: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12:
winPreVista.iso
: für Windows 2000, Windows XP und Windows 2003.linuxPreGLibc25.iso
: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
-
solaris.iso
: VMware Tools-Image 10.3.10 für Solaris.
darwin.iso
: Unterstützt Mac OS X-Versionen 10.11 und höher.
Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:
Profilname | ESXi-70U3sd-19482531-no-tools |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | 29. März 2022 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2816546 |
Verwandte CVE-Nummern | Nicht verfügbar |
- Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
- cURL wurde auf Version 7.79.1 aktualisiert.
- OpenSSH wird auf Version 8.8p1 aktualisiert.
- OpenSSL wird auf Version 1.0.2zb aktualisiert.
Die folgenden VMware Tools-ISO-Images sind im Lieferumfang von ESXi 7.0 Update 3d enthalten: windows.iso
: VMware Tools 11.3.5 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.linux.iso
: VMware Tools 10.3.23-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.
Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:
- VMware Tools 11.0.6:
windows.iso
: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12:
winPreVista.iso
: für Windows 2000, Windows XP und Windows 2003.linuxPreGLibc25.iso
: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
-
solaris.iso
: VMware Tools-Image 10.3.10 für Solaris.
darwin.iso
: Unterstützt Mac OS X-Versionen 10.11 und höher.
Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:
Name | ESXi |
Version | 70U3d-19482537 |
Datum der Veröffentlichung | 29. März 2022 |
Kategorie | Fehlerkorrektur |
Betroffene Komponenten |
|
Behobene Probleme | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2925847 |
Verwandte CVE-Nummern | Nicht verfügbar |
Name | ESXi |
Version | 70U3sd-19482531 |
Datum der Veröffentlichung | 29. März 2022 |
Kategorie | Sicherheit |
Betroffene Komponenten |
|
Behobene Probleme | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2816546 |
Verwandte CVE-Nummern | Nicht verfügbar |
Bekannte Probleme
Die bekannten Probleme gliedern sich in folgende Gruppen.
Sonstige Probleme- Der SSH-Zugriff schlägt nach dem Upgrade auf ESXi 7.0 Update 3d fehl
Nach dem Upgrade auf ESXi 7.0 Update 3d kann der SSH-Zugriff unter bestimmten Bedingungen aufgrund eines Updates von OpenSSH auf Version 8.8 fehlschlagen.
Problemumgehung: Weitere Informationen finden Sie im VMware-Knowledgebase-Artikel 88055.