ESXi 7.0 Update 3i | 8. DEZEMBER 2022 | 20842708

Überprüfen Sie, ob Erweiterungen und Updates für diese Versionshinweise zur Verfügung stehen.

Inhalt dieser Versionshinweise

Diese Versionshinweise decken die folgenden Themen ab:

WICHTIG: Wenn Ihr Quellsystem Hosts mit Versionen zwischen ESXi 7.0 Update 2 und Update 3c sowie Intel-Treiber enthält, lesen Sie vor dem Upgrade auf ESXi 7.0 Update 3i den Abschnitt Neuigkeiten der Versionshinweise zu VMware vCenter Server 7.0 Update 3c, da der gesamte Inhalt im Abschnitt auch für vSphere 7.0 Update 3i gilt. Weitere Informationen erhalten Sie auch in den verwandten VMware-Knowledgebase-Artikeln: 86447, 87258 und 87308

Neuigkeiten

  • ESXi 7.0 Update 3i unterstützt vSphere Quick Boot auf folgendem Server:

    • HPE ProLiant MicroServer Gen10 Plus v2

  • In dieser Version werden die Schwachstellen CVE-2022-31696 und CVE-2022-31699 behoben. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware Produkte finden Sie unter VMSA-2022-0030.

Vorherige Versionen von ESXi 7.0

Neue Funktionen sowie die gelösten und bekannten Probleme von ESXi werden in den entsprechenden Versionshinweisen beschrieben. Versionshinweise zu vorherigen Versionen von ESXi 7.0:

Informationen zu Internationalisierung, Kompatibilität und Open Source-Komponenten finden Sie in den Versionshinweisen zu VMware vSphere 7.0.

In dieser Version enthaltene Patches

Diese Version von ESXi 7.0 Update 3i stellt die folgenden Patches bereit:

Build-Details

Download-Dateiname: VMware-ESXi-7.0U3i-20842708-depot
Build: 20842708
Download-Größe: 570,5 MB
md5sum: 7ec976758701d4287393aebcc2c5d55c
sha256checksum: 26b26ddb4e0d3ba2bc4ac3b693addb111a0b1980abf03fce243473812ec460f7
Neustart des Hosts erforderlich: Ja
Migration oder Herunterfahren der virtuellen Maschine erforderlich: Ja

Komponenten

Komponente Bulletin Kategorie Schweregrad
ESXi-Komponente - ESXi-Kern-VIBs ESXi_7.0.3-0.65.20842708 Fehlerkorrektur Kritisch
ESXi-Komponente „Installieren/Aktualisieren“ esx-update_7.0.3-0.65.20842708 Fehlerkorrektur Kritisch
Broadcom NetXtreme I ESX VMKAPI-Ethernet-Treiber Broadcom-ntg3_4.1.8.0-4vmw.703.0.65.20842708 Fehlerkorrektur Kritisch
ESXi-Komponente - ESXi-Kern-VIBs ESXi_7.0.3-0.60.20841705 Sicherheit Kritisch
ESXi-Komponente „Installieren/Aktualisieren“ esx-update_7.0.3-0.60.20841705 Sicherheit Kritisch
ESXi Tools-Komponente VMware-VM-Tools_12.1.0.20219665-20841705 Sicherheit Kritisch

WICHTIG:

  • Ab vSphere 7.0 verwendet VMware Komponenten zum Verpacken von VIBs mit Bulletins. Die Bulletins ESXi und esx-update bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden. 
  • Beim Patchen von ESXi-Hosts mithilfe von VMware Update Manager von einer Version vor ESXi 7.0 Update 2 wird dringend empfohlen, das Rollup-Bulletin in der Patch-Baseline zu verwenden. Wenn Sie das Rollup-Bulletin nicht verwenden können, stellen Sie sicher, dass alle der folgenden Pakete in der Patch-Baseline enthalten sind. Wenn die folgenden Pakete nicht in der Baseline enthalten sind, schlägt der Updatevorgang fehl:
    • VMware-vmkusb_0.1-1vmw.701.0.0.16850804 oder höher
    • VMware-vmkata_0.1-1vmw.701.0.0.16850804 oder höher
    • VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 oder höher
    • VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 oder höher

Rollup-Bulletin

Dieses Rollup-Bulletin enthält die neuesten VIBs mit allen Fixes nach der ersten Version von ESXi 7.0.

Bulletin-ID Kategorie Schweregrad Detail
ESXi70U3i-20842708 Fehlerkorrektur Kritisch Sicherheit und Fehlerbehebung
ESXi70U3si-20841705 Sicherheit Kritisch Nur Sicherheit

Image-Profile

Patch- und Updateversionen von VMware enthalten allgemeine und kritische Image-Profile. Die Anwendung des allgemeinen Image-Profils der Version gilt für die neuen Fehlerkorrekturen.

Name des Image-Profils
ESXi-7.0U3i-20842708-standard
ESXi-7.0U3i-20842708-no-tools
ESXi-7.0U3si-20841705-standard
ESXi-7.0U3si-20841705-no-tools

ESXi-Image

Name und Version Datum der Veröffentlichung Kategorie Detail
ESXi_7.0.3-0.65.20842708 8. DEZEMBER 2022 Verbesserung Image für Sicherheit und Fehlerbehebung
ESXi_7.0.3-0.60.20841705 8. DEZEMBER 2022 Verbesserung Image nur für Sicherheit

Informationen zu den einzelnen Komponenten und Bulletins finden Sie auf der Seite Produkt-Patches und im Abschnitt Behobene Probleme.

Patch-Download und -Installation

In vSphere 7.x wird das für die Verwaltung von vSphere Update Manager verwendete Update Manager-Plug-In durch das Lifecycle Manager-Plug-In ersetzt. Verwaltungsvorgänge für vSphere Update Manager stehen weiterhin mit neuen Funktionen für vSphere Lifecycle Manager im Lifecycle Manager-Plug-In zur Verfügung.
Die typische Methode zum Anwenden von Patches auf ESXi 7.x-Hosts besteht in der Verwendung des vSphere Lifecycle Manager. Weitere Informationen finden Sie unter Info zu vSphere Lifecycle Manager und vSphere Lifecycle Manager-Baselines und -Images.
Sie können ESXi-Hosts auch ohne das Lifecycle Manager-Plug-In aktualisieren und stattdessen ein Image-Profil verwenden. Dazu müssen Sie die ZIP-Datei des Patch-Offline-Pakets manuell von VMware Customer Connect herunterladen. Wählen Sie im Dropdown-Menü Produkt auswählen die Option ESXi (eingebettet und installierbar) und im Dropdown-Menü Version auswählen die Option 7.0. Weitere Informationen finden Sie unter Aktualisieren von Hosts mithilfe von ESXCLI-Befehlen und im Handbuch VMware ESXi-Upgrade.

Hinweise zu Produktunterstützung

  • Ab vSphere 7.0 Update 3i müssen Sie bei der Konfiguration des Reverse-Proxys auf dem vCenter Server-System zum Aktivieren von Smartcard-Authentifizierung Port 3128 verwenden, der automatisch festgelegt und geöffnet wird. Sie müssen auf jeden Fall über Zugriff auf den Port auf dem entsprechenden vCenter Server verfügen. Überprüfen Sie die Perimeter Firewalls, um sicherzustellen, dass Zugriff gewährt wurde. Starten Sie den STS-Dienst nach der Konfiguration des rhttpproxy-Diensts neu.
    Weitere Informationen finden Sie unter Konfigurieren des Reverse-Proxys zum Anfordern von Clientzertifikaten und in den VMware-Knowledgebase-Artikeln 78057 und 90542.

Behobene Probleme

Die behobenen Probleme werden in folgende Kategorien unterteilt.

ESXi_7.0.3-0.65.20842708
Patch-Kategorie Fehlerkorrektur
Patch-Schweregrad Kritisch
Hostneustart erforderlich Ja
Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
Betroffene Hardware Nicht verfügbar
Betroffene Software Nicht verfügbar
Enthaltene VIBs
  • VMware_bootbank_esx-xserver_7.0.3-0.65.20842708
  • VMware_bootbank_gc_7.0.3-0.65.20842708
  • VMware_bootbank_vsan_7.0.3-0.65.20842708
  • VMware_bootbank_cpu-microcode_7.0.3-0.65.20842708
  • VMware_bootbank_crx_7.0.3-0.65.20842708
  • VMware_bootbank_esx-base_7.0.3-0.65.20842708
  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.65.20842708
  • VMware_bootbank_vsanhealth_7.0.3-0.65.20842708
  • VMware_bootbank_native-misc-drivers_7.0.3-0.65.20842708
  • VMware_bootbank_esx-ui_2.1.1-20188605
  • VMware_bootbank_trx_7.0.3-0.65.20842708
  • VMware_bootbank_bmcal_7.0.3-0.65.20842708
  • VMware_bootbank_vdfs_7.0.3-0.65.20842708
  • VMware_bootbank_esxio-combiner_7.0.3-0.65.20842708
Behobene Probleme 3021935, 2994966, 2983919, 3014323, 2996511, 2982013, 3011324, 3048788, 2983043, 3035934, 3015498, 3031708, 3041100, 3044475, 2990414, 3003866, 3011850, 3002779, 3033161, 3016132, 3015493, 3029194, 3007116, 2977496, 3021384, 2988179, 3025470, 3033159, 3011169, 3018832, 2977486, 2932056, 3013368, 2995471, 3006356, 2981272, 3000195, 3026623, 2981420, 3025469, 3042776, 2916160, 2996208, 3014374, 2977957, 2979281, 2976953, 2999968, 3031566, 3036859, 3029490, 2992407
CVE-Nummern Nicht verfügbar

Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.

Aktualisiert die VIBs esx-xserver, gc, vsan, cpu-microcode, esx-base, esx-dvfilter-generic-fastpath, vsanhealth, native-misc-drivers, esx-ui, trx, bmcal, vdfs, esxio-combiner und crx zur Behebung der folgenden Probleme:

  • PR 3021935: Bei VM-Ereignissen wird die Vorlageneigenschaft manchmal falsch gemeldet

    In seltenen Fällen kann es bei VM-Ereignissen zu einer inkorrekten Meldung der Eigenschaft template kommen. Diese Eigenschaft gibt an, ob eine virtuelle Maschine als Vorlage markiert ist. Infolgedessen besteht die Möglichkeit, dass die Eigenschaft template als true angezeigt wird, obwohl die VM keine Vorlage ist, oder aber als false, obwohl eine VM als Vorlage markiert ist.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2994966: Zu ESXi-Hosts werden in der MOB-Schnittstelle (Managed Object Browser) keine Speicherstatusinformationen angezeigt

    Aufgrund einer fehlenden Speichermoduleinheit für Cisco-Server im Managed Object Browser werden bei Verwendung von MOB unter Umständen keine Speicherstatusinformationen zu einem ESXi-Host angezeigt.

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix bewirkt zusätzliche Unterstützung für Speichermoduleinheit ID 8 (08h).

  • PR 2983919: Nicht reagierende Active Directory-Domänencontroller können zeitweise dazu führen, dass der hostd-Dienst auch nicht mehr reagiert

    In sehr seltenen Fällen können zufällige Probleme mit Active Directory-Umgebungen, die einen Zustand bedingen können, in dem der Domänencontroller nicht mehr reagiert, auch dazu führen, dass der hostd-Dienst nicht mehr reagiert.

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix bewirkt, dass der hostd-Dienst weiterhin reagiert, wenn der Active Directory-Domänencontroller vorübergehend nicht reagiert.

  • PR 3014323: Nach dem Erstellen einer VM oder dem Zurücksetzen auf einen VM-Snapshot werden die gastbezogenen Leistungsindikatoren in VMware Tools nicht mehr aktualisiert

    In seltenen Fällen kann es vorkommen, dass der interne Zustand des VMX-Prozesses aufgrund des schnellen Suspend-Resume-Mechanismus beim Erstellen oder Zurücksetzen einer VM basierend auf einem Snapshot ohne Benachrichtigung an die oberen Schichten des virtuellen Infrastrukturmanagement-Stacks neu initialisiert wird. Dies hat zur Folge, dass alle gastbezogenen Leistungsindikatoren in VMware Tools nicht mehr aktualisiert werden. In allen Schnittstellen zum ESXi-Host werden dauerhaft die zuletzt aufgezeichneten Werte angezeigt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2996511: Der rhttpproxy-Dienst schlägt gelegentlich mit einem Coredump und der Meldung eines Pufferüberlaufs fehl

    Wenn der rhttpproxy-Dienst mehrere Vorgänge für eingehende URIs durchführt, kann er den Puffer-Offset der einzelnen Verbindungen falsch berechnen. Dies führt möglicherweise zu Fehlern wie Pufferüberläufen und negativen Lesevorgängen. Dies führt dazu, dass der Dienst fehlschlägt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2982013: Sie können eine Hypercall-Option nicht ändern, wenn eine virtuelle Maschine eingeschaltet ist

    Standardmäßig funktioniert das Ändern von Hypercall-Optionen mithilfe von Befehlen wie vm | Get-AdvancedSetting -Name isolation.tools.autoInstall.disable nur, wenn die VM ausgeschaltet ist. Bei eingeschalteten VMs lösen solche Aufrufe den folgenden Fehler aus: Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden. Dies wird erwartet.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3011324: Mit dem Update von ESXi 7.0 Update 3c auf eine höhere Version werden alle erweiterten Sicherheitsoptionen eines ESXi-Hosts möglicherweise auf die Standardwerte zurückgesetzt

    Nachdem Sie einen ESXi 7.0 Update 3c-Host auf eine höhere Version von 7.0.x aktualisiert oder ein ESXi 7.0 Update 3c-VIB installiert oder entfernt und den Host neu gestartet haben, werden möglicherweise alle erweiterten Sicherheitsoptionen auf dem Host auf ihre Standardwerte zurückgesetzt. Folgende erweiterte Einstellungen sind betroffen:
    Security.AccountLockFailures
    Security.AccountUnlockTime
    Security.PasswordQualityControl
    Security.PasswordHistory
    Security.PasswordMaxDays
    Security.SshSessionLimit
    Security.DefaultShellAccess

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3048788: SR-IOV-Geräte melden möglicherweise einen falschen NUMA-Knoten für virtuelle Funktionen

    Der Befehl esxcli hardware pci list, der den NUMA-Knoten für ESXi-Hostgeräte meldet, gibt für die physischen Funktionen (PF) eines SR-IOV-Geräts den korrekten NUMA-Knoten zurück, für seine virtuellen Funktionen (VF) hingegen null.

    Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass die NUMA-Knoten sowohl für PF als auch für VF von SR-IOV-Geräten konsistent sind.

  • PR 2983043: Windows-Gastbetriebssystem schlägt nach der Migration von virtuellen Maschinen zu ESXi-Hosts der Version 7.0 Update 2 oder höher möglicherweise mit einem blauen Diagnosebildschirm fehl

    Wenn Sie virtuelle Windows-Maschinen nach einem Upgrade auf ESXi 7.0 Update 2 oder höher mithilfe von vSphere vMotion zu den aktualisierten Hosts migrieren, schlagen einige VMs nach der Migration möglicherweise mit einem blauen Diagnosebildschirm fehl. Auf dem Bildschirm wird die Fehlermeldung Betriebssystem konnte nicht gestartet werden, kein Betriebssystem gefunden angezeigt. Dieses Problem tritt aufgrund eines Fehlers in der Adressoptimierungslogik des Virtual Machine File System (VMFS) auf.

    Dieses Problem wurde in der vorliegenden Version behoben. 

  • PR 3035934: ESXi-Hosts reagieren möglicherweise nicht mehr, wenn kein registrierter Standardanforderungshandler verfügbar ist, und die Ausführung von vmacore.dll schlägt fehl

    Wenn die Clientanwendung über keinen registrierten Standardanforderungshandler verfügt, können Anforderungen mit einem Pfad, der in der Handlerzuordnung nicht vorhanden ist, dazu führen, dass die Ausführung von vmacore.dll fehlschlägt. Dies führt dazu, dass der ESXi-Host vom vCenter Server-System getrennt ist.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3015498: ESXi-Hosts schlagen während Reservierungsvorgängen für die Ressourcenzuteilung möglicherweise mit einem violetten Diagnosebildschirm fehl

    Einige Zuteilungsreservierungsvorgänge überschreiten möglicherweise den Grenzwert von 128 parallelen Reservierungsschlüsseln sowie den zugeteilten Arbeitsspeicherbereich eines ESXi-Hosts. Dies führt möglicherweise dazu, dass ESXi-Hosts während Reservierungsvorgängen für die Ressourcenzuteilung mit einem violetten Diagnosebildschirm fehlschlagen. Die Fehleranzeige enthält sinngemäße Meldungen wie z. B. PSOD BlueScreen: #PF-Ausnahme 14 in World 2097700:SCSI Periode IP.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3031708: Während Vorgängen zum Aufheben der Geräte- oder Pfadbeanspruchung fallen ESXi-Hosts möglicherweise mit einem violetten Diagnosebildschirm fehl

    Wenn Sie einen Befehl zum Aufheben der Beanspruchung auf einem Gerät oder Pfad ausführen, während virtuelle Maschinen auf dem Gerät noch aktive E/A-Vorgänge aufweisen, schlägt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm fehl. Auf dem Bildschirm wird sinngemäß folgende Meldung angezeigt: PSOD bei bora/modules/vmkernel/nmp/nmp_misc.c:3839 beim Laden/Löschen von lpfc.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3041100: Wenn TPM 2.0 mit TXT auf einem ESXi-Host aktiviert ist, schlagen Versuche, eine virtuelle Maschine einzuschalten, möglicherweise fehl

    Wenn TXT auf einem ESX-Host aktiviert ist, schlagen Versuche, eine VM einzuschalten, möglicherweise mit einem Fehler fehl. Im vSphere Client wird folgende Meldung angezeigt: Dieser Host unterstützt Intel VT-x, aber Intel VT-x ist eingeschränkt. Intel VT-x ist möglicherweise eingeschränkt, weil „trusted excecution“ in den BIOS/Firmware-Einstellungen aktiviert wurde oder der Host nach dem Ändern dieser Einstellung nicht aus- und wieder eingeschaltet wurde.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3044475: Virtuelle Maschinen schlagen möglicherweise aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen mit einem von ESX nicht behebbaren Fehler fehl

    Aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen schlägt eine virtuelle Maschine der Version ESX 7.0 Update 3f möglicherweise mit einem von ESX nicht behebbaren Fehler fehl. In der Datei vmware.log wird sinngemäß folgende Meldung angezeigt: MONITOR PANIC: vcpu-0:VMM Fehler 6: src=MONITOR ....
    Das Problem ist spezifisch für virtuelle Maschinen mit Hardwareversionen 12 oder früher.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2990414: Upgrade-Vorgänge unter Verwendung einer vSphere Lifecycle Manager-Upgrade-Baseline mit einem benutzerdefinierten in vSphere ESXi Image Builder erstellten .iso-Image schlagen möglicherweise fehl

    Wenn Sie ein mithilfe von Image Builder erstelltes ESXi .iso-Image verwenden, um eine vSphere Lifecycle Manager-Upgrade-Baseline für ESXi-Hosts zu erstellen, schlagen Upgrades mithilfe solcher Baselines möglicherweise fehl. Im vSphere Client wird folgender Fehler angezeigt: Upgrade-Skript kann nicht auf Host ausgeführt werden.. Auf dem betroffenen ESXi-Host wird in der Datei /var/log/vua*.log sinngemäß folgender Fehler angezeigt: ValueError: Wenn ein Add-On vorhanden ist, sollte ein Basisimage vorhanden sein.
    Der Fehler tritt auf, wenn das vorhandene Image des ESXi-Hosts über ein Add-On verfügt, das von Image Builder generierte ISO-Image hingegen kein Add-On bereitstellt.

    Dieses Problem wurde in der vorliegenden Version behoben.
     

  • PR 3003866: ESXi-Hosts schlagen möglicherweise aufgrund von unzureichendem XMAP-Speicher mit einem violetten Diagnosebildschirm fehl

    Viele parallele Anforderungen für Arbeitsspeicherbereiche durch virtuelle Maschinen, die das Data Plane Development Kit (DPDK) auf einem ESXi-Host verwenden, überschreiten möglicherweise den XMAP-Arbeitsspeicher auf dem Host. Folglich schlägt der Host mit einem violetten Diagnosebildschirm und sinngemäß folgender Fehlermeldung fehl: Panic Message: @BlueScreen: VERIFY bora/vmkernel/hardware/pci/config.c:157.

    Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix werden die für alle vmxnet3-Adapter verfügbaren Standardarbeitsspeicherbereiche auf 8192 MB festgelegt.

  • PR 3011850: Einige Leistungsberichte für virtuelle Maschinen mit NVMe-Controllern werden in ESXi 7.0 Update 3 und höher nicht angezeigt

    Nach einem Upgrade von ESXi-Hosts auf ESXi 7.0 Update 3 und höher werden möglicherweise einige Leistungsberichte für virtuelle Maschinen mit NVMe-Controllern nicht mehr angezeigt. Beispielsweise wird das Diagramm „Virtuelle Festplatte – Zusammenfassung aller Instanzen“ nicht in VMware Aria Operations angezeigt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3002779: ESXi-Host mit einer sekundären VM mit aktivierter Fault Tolerance-Verschlüsselung schlägt möglicherweise aufgrund eines Entschlüsselungspufferüberlaufs mit einem violetten Diagnosebildschirm fehl

    In seltenen Fällen, wie z. B. bei einem geplanten Neustart der primären virtuellen Maschine mit FT-Verschlüsselung, die hohe Arbeitslasten ausführt, verfügt die sekundäre virtuelle Maschine möglicherweise nicht über ausreichend Puffer, um mehr als 512 MB an modifizierten Seiten in einem einzelnen FT-Prüfpunkt zu entschlüsseln, und es tritt ein Pufferüberlauffehler auf. Dies führt dazu, dass der ESXi-Host, auf dem sich die sekundäre virtuelle Maschine befindet, möglicherweise mit einem violetten Diagnosebildschirm fehlschlägt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3033161: Nach einem Upgrade bzw. Update auf ESXi 7.0 Update 2 und höher ändert sich als Flash (SSD) markierter vSAN-Speicher möglicherweise in Magnetplattenspeicher (HDD)

    In seltenen Fällen kann die vSAN-Speicherkonfiguration nach einem Upgrade bzw. Update auf ESXi 7.0 Update 2 und höher das Tag mark_ssd verlieren und standardmäßig HDD verwenden.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3016132: Es werden häufige Protokolle für die fehlgeschlagene Registrierung getrennter LUNs angezeigt

    Selbst wenn sich ein Gerät oder eine LUN im Zustand „Getrennt“ befindet, versucht die Pluggable Storage Architecture (PSA) möglicherweise weiterhin, das Objekt zu registrieren. Die PSA erstellt bei jedem Pfadauswertungsintervall dieser Versuche ein Protokoll für jeden Pfadauswertungsschritt. Infolgedessen werden möglicherweise mehrere identische Meldungen angezeigt, wie z. B. nmp_RegisterDeviceEvents fehlgeschlagen für die Geräteregistrierung, die bei getrenntem Gerät bzw. getrennter LUN nicht erforderlich sind.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3015493: Wenn Sie eine Gerätekonfiguration zur Laufzeit ändern, kann ein Datenspeicher nach einem Neustart eines ESXi-Hosts möglicherweise nicht gemountet werden

    Wenn Sie eine Gerätekonfiguration zur Laufzeit ändern, werden Änderungen möglicherweise nicht im ESXi ConfigStore widergespiegelt, der die Konfigurationen für einen ESXi-Host enthält. Dies führt dazu, dass der Datenspeicher nach dem Neustart des ESXi-Hosts möglicherweise nicht gemountet wird.

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix stellt sicher, dass ConfigStore Änderungen der Gerätekonfiguration zur Laufzeit widerspiegelt.

  • PR 3029194: Nach dem Upgrade auf ESXi 7.0 Update 3 und höher schlagen ESXi-Hosts möglicherweise aufgrund eines Legacy-E/A-Schedulers mit einem violetten Diagnosebildschirm fehl

    Ab ESXi 6.0 ist mClock der standardmäßige E/A-Scheduler für ESXi, aber einige Umgebungen verwenden möglicherweise weiterhin Legacy-Scheduler von ESXi-Versionen vor 6.0. Infolgedessen schlagen Upgrades dieser Hosts auf ESXi 7.0 Update 3 und höher möglicherweise mit einem violetten Diagnosebildschirm fehl.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3007116: Wenn Sie ESXi-Hosts auf ESXi 7.0 Update 3d oder höher aktualisieren, indem Sie ein Hostprofil mit Token verwenden, die auf den ALUA-Status hinweisen, schlägt der Host möglicherweise mit einem violetten Diagnosebildschirm fehl

    Ab ESXi 7.0 Update 1 wurde die Konfigurationsverwaltung von ESXi-Hosts aus der Datei /etc/vmware/esx.conf in das ConfigStore-Framework verschoben. Dadurch erfolgt eine explizite Trennung von Status und Konfiguration. Token in der esx.conf-Datei, wie z. B. implicit_support oder explicit_support, die einen Status angeben, werden nicht als gültige Token erkannt und vom satp_alua-Modul ignoriert. Wenn Sie ESXi-Hosts mithilfe eines Hostprofils mit Token, die den ALUA-Status angeben, auf ESXi 7.0 Update 3d oder höher aktualisieren, könnte der Vorgang daher mit einem violetten Diagnosebildschirm fehlschlagen. Auf dem Bildschirm wird sinngemäß folgende Fehlermeldung angezeigt: Modulfehler: /var/lib/vmware/configmanager/upgrade/lib/postLoadStore/libupgradepsadeviceconfig.so.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2977496: Ein ESXi-Host reagiert möglicherweise aufgrund eines Zuteilungsproblems mit einem seltenen Dateiblock (FB) nicht mehr

    Ein Hilfsmechanismus, der FB-Ressourcenzuteilungsdetails im Hintergrund zwischenspeichert, kann die FB-Ressourcenzuteilung an den ESXi-Host während E/A-Vorgängen versehentlich anhalten und blockieren. In einigen Fällen wirkt sich dieses Problem möglicherweise auf andere Prozesse aus, die für dieselbe Datei ausgeführt werden, und blockiert sie. Dies kann dazu führen, dass der ESXi-Host nicht mehr reagiert.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3021384: vSAN-Dateidienst kann nicht aktiviert werden, wenn ein isoliertes Zeugennetzwerk konfiguriert ist

    Der vSAN-Dateidienst erfordert, dass Hosts miteinander kommunizieren. Der Dateidienst verwendet möglicherweise fälschlicherweise eine IP-Adresse im Zeugennetzwerk für die Interkommunikation. Wenn Sie ein isoliertes Zeugennetzwerk für vSAN konfiguriert haben, kann der Host über das Zeugennetzwerk mit einem Zeugenknoten kommunizieren, aber Hosts können über das Zeugennetzwerk nicht miteinander kommunizieren. Die Kommunikation zwischen Hosts für den vSAN-Dateidienst kann nicht hergestellt werden.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2988179: Wenn sich ein ESXi-Host im Zustand „Geringer Arbeitsspeicher“ befindet, könnte eine unzureichende Heap-Zuteilung zu einem Netzwerkmodul dazu führen, dass der Host mit einem violetten Diagnosebildschirm fehlschlägt

    Wenn sich ein ESXi-Host im Zustand „Geringer Arbeitsspeicher“ befindet, könnte eine unzureichende Heap-Zuteilung zu einem Netzwerkmodul dazu führen, dass die Port-Bitmap auf NULL festgelegt wird. Folglich kann ein ESXi-Host bei einem Paketweiterleitungsversuch mit einem violetten Diagnosebildschirm fehlschlagen.

    Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass Bitvektoren in der portsBitmap-Eigenschaft nur dann festgelegt werden, wenn die Heap-Zuteilung erfolgreich ist. Sie müssen jedoch weiterhin sicherstellen, dass ESXi-Hosts über ausreichend RAM verfügen, um Pakete erfolgreich zu verarbeiten und weiterzuleiten.

  • PR 3025470:  Der CLOMD-Daemon (Cluster Level Object Manager Daemon) schlägt während der Änderung des Objektformats fehl

    Während der Änderung des Objektformats werden einige Objekte mit altem Layout möglicherweise teilweise bereinigt, sodass die Konfiguration in einem ungültigen Zustand bleibt. Dieses Problem kann dazu führen, dass CLOMD immer dann fehlschlägt, wenn versucht wird, das Objekt während der Neukonfiguration zu verarbeiten.

    Möglicherweise werden die folgenden Einträge in der clomd.log-Datei angezeigt:

    2022-10-14T16:17:26.456Z PANIC: NOT_REACHED bora/lib/vsan/vsan_config_builder.c:744
    2022-10-14T16:17:26.456Z Backtrace:
    2022-10-14T16:17:26.456Z Backtrace[0] 0000030b4742c6a0 rip=000000bf0c7de98f rbx=0000030b4742c6a0
    rbp=0000030b4742cad0 r12=000000bf0d677788 r13=0000030b4742cae8 r14=000000bf14ce052c r15=000000bf14ce3c2c

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3033159: ESXi-Hosts schlagen möglicherweise mit einem violetten Diagnosebildschirm fehl, wenn eine VM mit der Einstellung „Physical“ (Physisch) für die gemeinsame Bus-Nutzung einen SCSI-2-Reservierungsbefehl ausgibt

    Windows 2012 und höher verwendet die SCSI-3-Reservierung für die Ressourcenvermittlung, um Windows Failover Clustering (WSFC) auf ESXi für systemübergreifende Cluster-Konfigurationen (Cluster-across-box, CAB) zu unterstützen. Wenn Sie jedoch die Einstellung Physical für die gemeinsame Bus-Nutzung des SCSI-Controllers auf dieser VM konfigurieren, führt der Befehl SCSI RESERVE dazu, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt. SCSI RESERVE ist eine SCSI-2-Semantik und wird für WSFC-Cluster auf ESXi nicht unterstützt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3011169: vSAN Clusterüberlastung aufgrund von Cache-Ansammlung

    vSAN könnte das Destaging von Daten aufgrund eines Problems beim Zählen ausstehender E/As beenden. Wenn eine vSAN-Festplattengruppe das Destaging von Daten aus dem Cache in die Kapazitätsschicht beendet, kann dies dazu führen, dass sich Daten in der Cache-Ebene ansammeln. Dieses Problem führt zu Überlastung, E/A-Drosselung und längerer Latenz.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3018832: Wenn ein Cluster ein 0-Byte-Objekt enthält, schlagen vSAN Hosts möglicherweise mit einem violetten Diagnosebildschirm fehl

    Wenn ein vSAN-Cluster mit einem 0-Byte-Objekt eine Richtlinienänderungsanforderung empfängt, legt der Cluster Level Object Manager (CLOM) möglicherweise fälschlicherweise ein ungültiges Flag für eine oder mehrere Komponenten des Objekts fest. Ein solches Flag kann dazu führen, dass der Host große Schreibvorgänge sendet, die das System überlasten, sodass der Host mit einem violetten Diagnosebildschirm fehlschlägt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2977486: Zeitweiliger Sperrungskonflikt für VMFS-Journalblöcke verzögert möglicherweise Befehle zum erneuten Prüfen von VMFS oder führt dazu, dass das Mounten eines Datenspeichers fehlschlägt

    Ein seltenes Problem bei der Verarbeitung von VMFS-Journalblöcken kann zu Sperrungskonflikten führen, wodurch Verzögerungen bei erneuten VMFS-Prüfungen entstehen oder das Mounten von Datenspeichern fehlschlägt. In den VMkernel-Protokollen werden Fehler angezeigt, wie z. B. Ressourcendatei für Ressource: 6 hat den maximalen Grenzwert von 8192 erreicht und Ressourcen-Dateierweiterung (‚Kein Speicherplatz frei auf Gerät‘).

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2932056: Der vmx-Dienst schlägt möglicherweise beim Abbrechen einer vSphere Storage vMotion-Aufgabe fehl, und vCenter Server High Availability startet virtuelle Maschinen neu

    In seltenen Fällen kann der vmx-Dienst während des Abbrechens einer vSphere Storage vMotion-Aufgabe fehlschlagen. Wenn Ihre Umgebung vCenter Server High Availability verwendet, startet der Dienst die betroffenen virtuellen Maschinen daher neu.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3013368: Während des Startvorgangs werden Fehler angezeigt, die angeben, dass die Unterstützung für SD-Karten- und reine USB-Konfigurationen veraltet ist.

    Wenn Sie zum Starten von ESXi 7.x nur SD- oder USB-Geräte verwenden, werden möglicherweise Fehler angezeigt, wie z. B. Unterstützung der Konfiguration nur für SD-Karte/USB wird eingestellt. Diese Meldung weist nicht auf einen Fehler hin, sondern enthält nur eine Warnung, dass SD- und USB-Geräte nur für Bootbank-Partitionen unterstützt werden, und dass für eine optimale Leistung ein sekundärer persistenter Speicher mit mindestens 32 GB für /scratch und VMware Tools bereitgestellt werden muss, die sich in der OSData-Partition befinden.

    Dieses Problem wurde in der vorliegenden Version behoben. Der Klarheit halber wird die Meldung mit dem Fix entfernt, da Bereitstellungen ohne persistenten Speicher unterstützt werden, auch wenn es sich nicht um eine Best Practice handelt.

  • PR 2995471: vSAN-Festplatte aufgrund eines nicht verfügbaren Verschlüsselungsschlüssels verschlüsselt und gesperrt

    Dieses Problem betrifft vSAN-Hosts, die einen externen KMS für die Verschlüsselung ruhender Daten verwenden. Wenn Sie ein Upgrade eines vSAN-Hosts von 6.7 oder früher auf 7.0 und höher durchführen, geht das KMS-Kennwort verloren. Die Festplatten des Hosts bleiben verschlüsselt und gesperrt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3006356: ESXi-Host schlägt aufgrund der erneuten Bindung von virtuellen Volumes mit einem violetten Diagnosebildschirm fehl

    In seltenen Fällen versuchen vSphere Virtual Volumes möglicherweise eine erneute Bindung von Volumes auf ESXi-Hosts mit persistenten SCSI-Reservierungen. Dies führt dazu, dass die ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen und im Backtrace folgende sinngemäße Fehlermeldung angezeigt wird: Panik-Meldung: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4933 – Nutzungsfehler in dlmalloc.

    Dieses Problem wurde in der vorliegenden Version behoben. 

  • PR 2981272: vSphere Client zeigt unabhängig von der tatsächlichen VMDK-Größe einer virtuellen Maschine 0 KB an

    Aufgrund eines Caching-Problems wird im vSphere Client möglicherweise eine VMDK-Größe von 0 KB angezeigt, unabhängig von der tatsächlichen Größe der virtuellen Maschinen in einer vSphere Virtual Volumes-Umgebung.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3000195: Bei einem Site-übergreifenden Advanced Cross vCenter vMotion-Vorgang tritt möglicherweise eine Zeitüberschreitung auf und einige virtuelle Maschinen reagieren nicht mehr

    Während der Speichermigration eines Site-übergreifenden Advanced Cross vCenter vMotion-Vorgangs werden möglicherweise einige asynchrone E/A-Vorgänge im Speicher-Stack gesperrt und es tritt keine ordnungsgemäße Zeitüberschreitung auf. Dies führt dazu, dass virtuelle Maschinen weiterhin auf eine E/A-Antwort warten. Dadurch tritt beim Advanced Cross vCenter vMotion-Vorgang eine Zeitüberschreitung auf, und die virtuellen Maschinen reagieren nicht mehr.

    Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird allen asynchronen E/A-Anforderungen eine Zeitüberschreitung hinzugefügt, um eine Antwort nach der Zeitüberschreitung zu gewährleisten.

  • PR 3026623: LLOG-Wiederherstellung markiert vSAN-Komponenten möglicherweise fälschlicherweise als ungültig

    Ein Problem während der LLOG-Wiederherstellung kann dazu führen, dass eine vSAN-Komponente fälschlicherweise als ungültig markiert wird. Dieses Problem kann zu einer Ansammlung von Protokollen und somit zu Überlastung führen.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2981420: Der Small-Footprint CIM Broker Daemon (SFCBD) reagiert möglicherweise vorübergehend nicht mehr

    Aufgrund einer unzureichenden Ressourcenpoolzuteilung schlagen einige an den SFCBD berichtende Dienste, wie z. B. sfcb-vmware_base und sfcb-vmw, möglicherweise fehl und generieren zdump. In der syslog.log-Datei werden Fehlermeldungen wie die folgenden angezeigt:
    sfcb-vmware_base[2110110]: tool_mm_realloc_or_die: memory re-allocation failed(orig=364000 new=364800 msg=Cannot allocate memory, aborting
    sfcb-vmw_ipmi[2291550]: tool_mm_realloc_or_die: memory re-allocation failed(orig=909200 new=909600 msg=Cannot allocate memory, aborting

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix erhöht die Standardpoolgröße für den sfcb-vmware_base-Dienst.

  • PR 3025469:  Wenn es sich bei der Zielrichtlinie um RAID 1, StripeWidth 1 handelt, wird die Neukonfiguration großer Objekte in einem vSAN-Cluster möglicherweise ohne Fortschritt beendet

    Wenn es sich bei der Zielrichtlinie um RAID 1, StripeWidth 1 handelt und ein vSAN-Cluster nur noch wenige vorübergehende Kapazitäten aufweist, konfiguriert der Cluster Level Object Manager möglicherweise weiterhin denselben Teil von Objekten neu, der größer als 8 TB ist. Infolgedessen verbleiben diese Objekte im nicht übereinstimmenden Zustand, und möglicherweise werden einige unnötige Neusynchronisierungsvorgänge angezeigt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3042776: Storage I/O Control generiert schnell eine große Anzahl von Protokollen, die als kritisch markiert sind und möglicherweise auch den Datenspeicher füllen

    In VMware Aria Operations for Logs (vormals vRealize Log Insight) wird möglicherweise eine große Anzahl von Protokollen angezeigt, die von Storage I/O Control generiert werden, z. B. Ungültiger Wert für Freigaben: 0. Standard wird verwendet. und Gerät naa.xxxx wird entweder aufgrund eines VSI-Lesefehlers oder eines abnormalen Status übersprungen. Das Protokollvolumen variiert je nach der Anzahl der ESXi-Hosts in einem Cluster und der Anzahl der Geräte im ausgeschalteten Zustand. Wenn das Problem auftritt, wird das Protokollvolume schnell (innerhalb von 24 Stunden) generiert, und VMware Aria Operations for Logs stuft die Meldungen möglicherweise als kritisch ein. Diese Protokolle sind jedoch unbedenklich und wirken sich nicht auf die Vorgänge auf anderen Online-Datenspeichern aus.

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix verschiebt diese Protokolle von „Fehler“ zu „Ausführlich (erweitert)“, um eine irreführende Protokollierung zu verhindern. 

  • PR 2916160: ESXi Managed Object Browser (MOB) zeigt als CPU-Status „Unbekannt“ an

    Wenn die Liste der Speichersensoren eines ESXi-Hosts leer ist, wird der von der Intelligent Platform Management Interface (IPMI) gemeldete CPU-Status möglicherweise zurückgesetzt. Dies führt dazu, dass der Sensordatensatz mit Element ID 3, dem Status des Prozessors, fälschlicherweise als Über aktuellen Status des physischen Elements kann nicht berichtet werden im MOB angezeigt wird.

    Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass der CPU-Status nur zurückgesetzt wird, wenn die Aktualisierung des Sensorstatus über die IPMI fehlschlägt.

  • PR 2996208: Für Objekte in einem Stretched Cluster wird eine hohe Leselatenz angezeigt 

    In Stretched Clustern stellt vSAN jedes VMDK-Objekt mit einem bestimmten Format bereit. Wenn Sie die Richtlinie eines VMDK-Objekts von hostFailuresToTolerate=0 in hostFailuresToTolerate=1 ändern, ändert sich das Format möglicherweise so, dass Lesevorgänge den Site-übergreifenden (AZ-übergreifenden) Link durchlaufen. Dies führt dazu, dass in diesen Objekten eine höhere Leselatenz angezeigt wird.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3014374: Im vSphere Client werden wiederholte Optionen im Dropdown-Menü „Gemeinsame Verwendung des SCSI-Busses“ angezeigt

    Wenn Sie im vSphere Client eine virtuelle Maschine erstellen oder neu konfigurieren, werden dieselben Optionen im Dropdown-Menü unter SCSI-Controller > Gemeinsame Verwendung des SCSI-Busses möglicherweise doppelt angezeigt. Auf Workflows zum Erstellen oder Konfigurieren der VM hat das Problem keine Auswirkungen.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2977957: Nach einem Migrationsvorgang fallen virtuelle Maschinen mit Windows 10 unter Umständen aus, wobei ein blauer Diagnosebildschirm angezeigt und eine falsche Microcoderevision gemeldet wird

    Nach einem Migrationsvorgang fallen virtuelle Maschinen mit Windows 10 unter Umständen aus, wobei ein blauer Diagnosebildschirm angezeigt wird und in einer Fehlermeldung wie der folgenden eine falsche Microcoderevision gemeldet wird: – MICROCODE_REVISION_MISMATCH (17e). Das Problem tritt auf, wenn während des Migrationsvorgangs ein Scan der CPUs durchgeführt wird und die Firmware der Quell-CPUs nicht mit der Firmware der Ziel-CPUs übereinstimmt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2979281: ESXi-Hosts reagieren möglicherweise nicht mehr, weil aufgrund eines veralteten Caches zeitweilig nicht genügend Arbeitsspeicher vorhanden ist

    In bestimmten Fällen schlägt das Löschen des Caches von Objekten in einem Datenspeichervolume auf ESXi-Hosts fehl, Objekte verbleiben im Cache und führen dazu, dass nicht genügend Arbeitsspeicher vorhanden ist. Dies kommt beispielsweise vor, wenn die Verbindung mit dem zugrunde liegenden Gerät des Volumes unterbrochen wird. Folglich reagiert der ESXi-Host nicht mehr. In den Protokollen werden Fehler angezeigt, wie z. B.:
    Erneute Verbindung mit xxxxx nicht möglich] oder Fehler beim Bereinigen von VMFS-Taktsignal auf Volume xxxxx: Keine Verbindung. oder
    Das Volume auf dem Gerät xxxxx ist gesperrt, möglicherweise weil während eines Volume-Vorgangs ein nicht behebbarer Fehler auf einem Remotehost aufgetreten ist.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2976953: Der hostd-Dienst schlägt möglicherweise fehl und virtuelle Maschinen werden aufgrund zeitweiliger Auslastung des Objekt-Caches heruntergefahren

    Bestimmte Workflows wie Sicherungsvorgänge von ESXi-Hosts können eine große Anzahl von Dateien öffnen, was wiederum zu einer Auslastung des Objekt-Caches führen kann. In solchen Fällen kann es vorkommen, dass der hostd-Dienst fehlschlägt, virtuelle Maschinen heruntergefahren werden oder die VM in einen ungültigen Zustand versetzt wird, der ihr Einschalten verhindert. In den Protokollen werden Warnungen angezeigt, wie z. B. Es konnte kein Arbeitsspeicher zugeteilt werden.

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix verdoppelt die Größe des Objekt-Caches auf 183 MB, um hohe Arbeitslasten zu bewältigen.

  • PR 2999968: vSAN-Systemzustand meldet einen Fehler, dass der Dateiserver neu gestartet wird

    In Überwachen > Skyline Health > Dateidienst > Integrität des Dateiservers wird möglicherweise die Fehlermeldung Dateiserver wird (neu) gestartet angezeigt.
    Das Problem wird durch eine Cache-Überlauffunktion verursacht, die zu einem Ausfall des VDFS-Daemons führt. In der Datei /var/run/log/vdfsd-server.log in einem betroffenen ESXi-Host werden Meldungen wie NOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp angezeigt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3031566: Das Ändern der Richtlinie einer eingeschalteten VM mit einem IDE-Controller löst eine Fehlermeldung aus, dass der versuchte Vorgang im aktuellen Zustand nicht durchgeführt werden kann

    Wenn Sie im vSphere Client die Richtlinie einer eingeschalteten VM mit einem IDE-Controller ändern, wird möglicherweise folgender Fehler angezeigt: Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3036859: HCI Mesh kann den Cluster nach dem erneuten Aktivieren von vSAN mit zuvor aktivierter Verschlüsselung in Übertragung begriffener Daten nicht mounten

    Das Mounten des HCI Mesh-Clusters schlägt möglicherweise fehl, wenn Sie vSAN erneut aktivieren, nachdem Sie vSAN mit Verschlüsselung in Übertragung begriffener Daten deaktiviert haben.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 3029490: vSAN Skyline Health enthält keine Hardwarekompatibilitätsgruppe

    Wenn für vSAN verwendete NVMe-Laufwerke über eine doppelte PCI-ID verfügen und Sie den vSAN-Integritätsdienst auf vCenter Server neu starten, fehlt die Hardwarekompatibilitätsgruppe aus vSAN Skyline Health.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2992407: Der TPM 2.0-Nachweis schlägt auf Lenovo-Servern möglicherweise mit einem Fehler aufgrund unzureichenden Puffers fehl

    Der TPM 2.0-Nachweis auf Lenovo-Servern gibt den TPM-Fehlercode zurück: TSS2_SYS_RC_INSUFFICIENT_BUFFER.

    Dieses Problem wurde in der vorliegenden Version behoben.

esx-update_7.0.3-0.65.20842708
Patch-Kategorie Fehlerkorrektur
Patch-Schweregrad Kritisch
Hostneustart erforderlich Ja
Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
Betroffene Hardware Nicht verfügbar
Betroffene Software Nicht verfügbar
Enthaltene VIBs
  • VMware_bootbank_esx-update_7.0.3-0.65.20842708
  • VMware_bootbank_loadesx_7.0.3-0.65.20842708
Behobene Probleme Nicht verfügbar
CVE-Nummern Nicht verfügbar

Aktualisiert die VIBs loadesx und esx-update.

    Broadcom-ntg3_4.1.8.0-4vmw.703.0.65.20842708
    Patch-Kategorie Fehlerkorrektur
    Patch-Schweregrad Kritisch
    Hostneustart erforderlich Ja
    Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
    Betroffene Hardware Nicht verfügbar
    Betroffene Software Nicht verfügbar
    Enthaltene VIBs
    • VMW_bootbank_ntg3_4.1.8.0-4vmw.703.0.65.20842708
    Behobene Probleme 3007883
    CVE-Nummern Nicht verfügbar

    Aktualisiert das VIB ngt3 zur Behebung des folgenden Problems:

    • PR 3007883: Bei NICs, die den Treiber ntg3 der Version 4.1.3 und höher verwenden, tritt Link Flapping auf

      Wenn zwei NICs, die den Treiber ntg3 der Version 4.1.3 und höher verwenden, direkt und nicht mit einem physischen Switch-Port verbunden sind, kann Link Flapping auftreten. Das Problem tritt nicht bei ntg3-Treibern mit Versionen vor 4.1.3 oder dem tg3-Treiber auf. Dieses Problem steht nicht im Zusammenhang mit dem gelegentlich auftretenden Energy Efficient Ethernet (EEE) Link Flapping bei solchen NICs. Die Lösung für das EEE-Problem besteht darin, einen ntg3-Treiber der Version 4.1.7 oder höher zu verwenden oder EEE an physischen Switch-Ports zu deaktivieren.

      Dieses Problem wurde in der vorliegenden Version behoben. ESXi 7.0 Update 3i enthält den ntg3-Treiber der Version 4.1.8. Nach dem Upgrade des ntg3-Treibers auf Version 4.1.8 müssen Sie jedoch den neuen Modulparameter noPhyStateSet auf 1 setzen. Der Parameter noPhyStateSet ist standardmäßig auf 0 gesetzt und wird in den meisten Umgebungen nicht benötigt, es sei denn, sie sind von dem Problem betroffen.

    ESXi_7.0.3-0.60.20841705
    Patch-Kategorie Sicherheit
    Patch-Schweregrad Kritisch
    Hostneustart erforderlich Ja
    Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
    Betroffene Hardware Nicht verfügbar
    Betroffene Software Nicht verfügbar
    Enthaltene VIBs
    • VMware_bootbank_esx-base_7.0.3-0.60.20841705
    • VMware_bootbank_trx_7.0.3-0.60.20841705
    • VMware_bootbank_vsanhealth_7.0.3-0.60.20841705
    • VMware_bootbank_cpu-microcode_7.0.3-0.60.20841705
    • VMware_bootbank_crx_7.0.3-0.60.20841705
    • VMware_bootbank_vsan_7.0.3-0.60.20841705
    • VMware_bootbank_native-misc-drivers_7.0.3-0.60.20841705
    • VMware_bootbank_esx-xserver_7.0.3-0.60.20841705
    • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.60.20841705
    • VMware_bootbank_gc_7.0.3-0.60.20841705
    • VMware_bootbank_esx-ui_2.1.1-20188605
    • VMware_bootbank_vdfs_7.0.3-0.60.20841705
    • VMware_bootbank_bmcal_7.0.3-0.60.20841705
    • VMware_bootbank_esxio-combiner_7.0.3-0.60.20841705
    Behobene Probleme 2993721, 3007957, 3007958, 3015560, 3034286, 3038621, 3030691
    CVE-Nummern CVE-2020-28196, CVE-2022-31696, CVE-2022-31699

    Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.

    Aktualisiert die VIBs esx-ui, esx-xserver, cpu-microcode, trx, vsanhealth, esx-base, esx-dvfilter-generic-fastpath, gc, esxio-combiner, native-misc-drivers, bmcal, vsan, vdfs und crx zur Behebung der folgenden Probleme:

    • Das VIB „cpu-microcode“ enthält den folgenden Intel-Microcode:
      Codename FMS PLT-ID MCU-Rev. MCU-Datum Markennamen
      Nehalem EP 0x106a5 (06/1a/5) 0x03 0x0000001d 5/11/2018 Intel Xeon 35xx-Reihe;
      Intel Xeon 55xx-Reihe
      Clarkdale 0x20652 (06/25/2) 0x12 0x00000011 5/8/2018 Intel i3/i5 Clarkdale-Reihe;
      Intel Xeon 34xx Clarkdale-Reihe
      Arrandale 0x20655 (06/25/5) 0x92 0x00000007 4/23/2018 Intel Core i7-620LE-Prozessor
      Sandy Bridge DT 0x206a7 (06/2a/7) 0x12 0x0000002f 2/17/2019 Intel Xeon E3-1100-Reihe;
      Intel Xeon E3-1200-Reihe;
      Intel i7-2655-LE-Reihe;
      Intel i3-2100-Reihe
      Westmere EP 0x206c2 (06/2c/2) 0x03 0x0000001f 5/8/2018 Intel Xeon 56xx-Reihe;
      Intel Xeon 36xx-Reihe
      Sandy Bridge EP 0x206d6 (06/2d/6) 0x6d 0x00000621 3/4/2020 Intel Pentium 1400-Reihe;
      Intel Xeon E5-1400-Reihe;
      Intel Xeon E5-1600-Reihe;
      Intel Xeon E5-2400-Reihe;
      Intel Xeon E5-2600-Reihe;
      Intel Xeon E5-4600-Reihe
      Sandy Bridge EP 0x206d7 (06/2d/7) 0x6d 0x0000071a 3/24/2020 Intel Pentium 1400-Reihe;
      Intel Xeon E5-1400-Reihe;
      Intel Xeon E5-1600-Reihe;
      Intel Xeon E5-2400-Reihe;
      Intel Xeon E5-2600-Reihe;
      Intel Xeon E5-4600-Reihe
      Nehalem EX 0x206e6 (06/2e/6) 0x04 0x0000000d 5/15/2018 Intel Xeon 65xx-Reihe;
      Intel Xeon 75xx-Reihe
      Westmere EX 0x206f2 (06/2f/2) 0x05 0x0000003b 5/16/2018 Intel Xeon E7-8800-Reihe;
      Intel Xeon E7-4800-Reihe;
      Intel Xeon E7-2800-Reihe
      Ivy Bridge DT 0x306a9 (06/3a/9) 0x12 0x00000021 2/13/2019 Intel i3-3200-Reihe;
      Intel i7-3500-LE/UE;
      Intel i7-3600-QE;
      Intel Xeon E3-1200-v2-Reihe;
      Intel Xeon E3-1100-C-v2-Reihe;
      Intel Pentium B925C
      Haswell DT 0x306c3 (06/3c/3) 0x32 0x00000028 11/12/2019 Intel Xeon E3-1200-v3-Reihe;
      Intel i7-4700-EQ-Reihe;
      Intel i5-4500-TE-Reihe;
      Intel i3-4300-Reihe
      Ivy Bridge EP 0x306e4 (06/3e/4) 0xed 0x0000042e 3/14/2019 Intel Xeon E5-4600-v2-Reihe;
      Intel Xeon E5-2600-v2-Reihe;
      Intel Xeon E5-2400-v2-Reihe;
      Intel Xeon E5-1600-v2-Reihe;
      Intel Xeon E5-1400-v2-Reihe
      Ivy Bridge EX 0x306e7 (06/3e/7) 0xed 0x00000715 3/14/2019 Intel Xeon E7-8800/4800/2800-v2-Reihe
      Haswell EP 0x306f2 (06/3f/2) 0x6f 0x00000049 8/11/2021 Intel Xeon E5-4600-v3-Reihe;
      Intel Xeon E5-2600-v3-Reihe;
      Intel Xeon E5-2400-v3-Reihe;
      Intel Xeon E5-1600-v3-Reihe;
      Intel Xeon E5-1400-v3-Reihe
      Haswell EX 0x306f4 (06/3f/4) 0x80 0x0000001a 5/24/2021 Intel Xeon E7-8800/4800-v3-Serie
      Broadwell H 0x40671 (06/47/1) 0x22 0x00000022 11/12/2019 Intel Core i7-5700EQ;
      Intel Xeon E3-1200-v4-Reihe
      Avoton 0x406d8 (06/4d/8) 0x01 0x0000012d 16.09.2019 Intel Atom C2300-Reihe;
      Intel Atom C2500-Reihe;
      Intel Atom C2700-Reihe
      Broadwell EP/EX 0x406f1 (06/4f/1) 0xef 0x0b000040 5/19/2021 Intel Xeon E7-8800/4800-v4-Reihe;
      Intel Xeon E5-4600-v4-Reihe;
      Intel Xeon E5-2600-v4-Reihe;
      Intel Xeon E5-1600-v4-Reihe
      Skylake SP 0x50654 (06/55/4) 0xb7 0x02006e05 3/8/2022 Intel Xeon Platinum 8100-Reihe;
      Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe;
      Intel Xeon D-2100-Reihe;
      Intel Xeon D-1600-Reihe;
      Intel Xeon W-3100-Reihe;
      Intel Xeon W-2100-Reihe
      Cascade Lake B-0 0x50656 (06/55/6) 0xbf 0x04003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
      Intel Xeon Gold 6200/5200;
      Intel Xeon Silver 4200/Bronze 3200;
      Intel Xeon W-3200
      Cascade Lake 0x50657 (06/55/7) 0xbf 0x05003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
      Intel Xeon Gold 6200/5200;
      Intel Xeon Silver 4200/Bronze 3200;
      Intel Xeon W-3200
      Cooper Lake 0x5065b (06/55/b) 0xbf 0x07002501 11/19/2021 Intel Xeon Platinum 8300-Reihe;
      Intel Xeon Gold 6300/5300
      Broadwell DE 0x50662 (06/56/2) 0x10 0x0000001c 17.06.2019 Intel Xeon D-1500-Reihe
      Broadwell DE 0x50663 (06/56/3) 0x10 0x0700001c 6/12/2021 Intel Xeon D-1500-Reihe
      Broadwell DE 0x50664 (06/56/4) 0x10 0x0f00001a 6/12/2021 Intel Xeon D-1500-Reihe
      Broadwell NS 0x50665 (06/56/5) 0x10 0x0e000014 9/18/2021 Intel Xeon D-1600-Reihe
      Skylake H/S 0x506e3 (06/5e/3) 0x36 0x000000f0 11/12/2021 Intel Xeon E3-1500-v5-Reihe;
      Intel Xeon E3-1200-v5-Reihe
      Denverton 0x506f1 (06/5f/1) 0x01 0x00000038 12/2/2021 Intel Atom C3000-Reihe
      Ice Lake SP 0x606a6 (06/6a/6) 0x87 0x0d000375 4/7/2022 Intel Xeon Silver 4300-Reihe;
      Intel Xeon Gold 6300/5300-Reihe;
      Intel Xeon Platinum 8300-Reihe
      Ice Lake D 0x606c1 (06/6c/1) 0x10 0x010001f0 6/24/2022 Intel Xeon D-Reihe
      Snow Ridge 0x80665 (06/86/5) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series
      Snow Ridge 0x80667 (06/86/7) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series
      Kaby Lake H/S/X 0x906e9 (06/9e/9) 0x2a 0x000000f0 11/12/2021 Intel Xeon E3-1200-v6-Reihe;
      Intel Xeon E3-1500-v6-Reihe
      Coffee Lake 0x906ea (06/9e/a) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe;
      Intel Xeon E-2200-Reihe (4 oder 6 Kerne)
      Coffee Lake 0x906eb (06/9e/b) 0x02 0x000000f0 11/12/2021 Intel Xeon E-2100-Reihe
      Coffee Lake 0x906ec (06/9e/c) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe
      Coffee Lake Refresh 0x906ed (06/9e/d) 0x22 0x000000f4 7/31/2022 Intel Xeon E-2200-Reihe (8 Kerne)
      Rocket Lake S 0xa0671 (06/a7/1) 0x02 0x00000056 8/2/2022 Intel Xeon E-2300-Reihe
    • ESXi 7.0 Update 3i stellt die folgenden Sicherheits-Updates bereit:
      • OpenSSL wird auf Version 1.0.2zf aktualisiert.
      • Apache Thrift wurde auf Version 0.15.0 aktualisiert.
      • Der urllib3-Client wird auf Version 1.26.5 aktualisiert.
      • cURL wurde auf Version 7.84.0 aktualisiert.
      • Die SQLite-Datenbank wird auf Version 3.39.2 aktualisiert.
      • Der XML-Parser Expat wurde auf Version 2.4.9 aktualisiert.
    • In dieser Version werden die Schwachstellen CVE-2022-31696 und CVE-2022-31699 behoben. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware Produkte finden Sie unter VMSA-2022-0030.

    esx-update_7.0.3-0.60.20841705
    Patch-Kategorie Fehlerkorrektur
    Patch-Schweregrad Kritisch
    Hostneustart erforderlich Ja
    Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
    Betroffene Hardware Nicht verfügbar
    Betroffene Software Nicht verfügbar
    Enthaltene VIBs
    • VMware_bootbank_loadesx_7.0.3-0.60.20841705
    • VMware_bootbank_esx-update_7.0.3-0.60.20841705
    Behobene Probleme Nicht verfügbar
    CVE-Nummern Nicht verfügbar

    Aktualisiert die VIBs loadesx und esx-update.

      VMware-VM-Tools_12.1.0.20219665-20841705
      Patch-Kategorie Sicherheit
      Patch-Schweregrad Kritisch
      Hostneustart erforderlich Nein
      Migration oder Herunterfahren der virtuellen Maschine erforderlich Nein
      Betroffene Hardware Nicht verfügbar
      Betroffene Software Nicht verfügbar
      Enthaltene VIBs
      • VMware_locker_tools-light_12.1.0.20219665-20841705
      Behobene Probleme 3015499
      CVE-Nummern Nicht verfügbar

      Aktualisiert das VIB tools-light.

      • Die folgenden ISO-Images von VMware Tools werden mit ESXi 7.0 Update 3i gebündelt:
        • windows.iso: VMware Tools 12.1.0 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.
        • linux.iso: VMware Tools 10.3.25-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.

        Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:

        • VMware Tools 11.0.6:
          • windows.iso: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
             
        • VMware Tools 10.0.12:
          • winPreVista.iso: für Windows 2000, Windows XP und Windows 2003.
          • linuxPreGLibc25.iso: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
             
          solaris.iso: VMware Tools-Image 10.3.10 für Solaris.
        • darwin.iso: Unterstützt Mac OS X-Versionen 10.11 und höher.

        Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:

      ESXi-7.0U3i-20842708-standard
      Profilname ESXi-7.0U3i-20842708-standard
      Build Build-Informationen finden Sie unter In dieser Version enthaltene Patches.
      Anbieter VMware, Inc.
      Datum der Veröffentlichung 8. Dezember 2022
      Akzeptanzebene PartnerSupported
      Betroffene Hardware Nicht verfügbar
      Betroffene Software Nicht verfügbar
      Betroffene VIBs
      • VMware_bootbank_esx-xserver_7.0.3-0.65.20842708
      • VMware_bootbank_gc_7.0.3-0.65.20842708
      • VMware_bootbank_vsan_7.0.3-0.65.20842708
      • VMware_bootbank_cpu-microcode_7.0.3-0.65.20842708
      • VMware_bootbank_crx_7.0.3-0.65.20842708
      • VMware_bootbank_esx-base_7.0.3-0.65.20842708
      • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.65.20842708
      • VMware_bootbank_vsanhealth_7.0.3-0.65.20842708
      • VMware_bootbank_native-misc-drivers_7.0.3-0.65.20842708
      • VMware_bootbank_esx-ui_2.1.1-20188605
      • VMware_bootbank_trx_7.0.3-0.65.20842708
      • VMware_bootbank_bmcal_7.0.3-0.65.20842708
      • VMware_bootbank_vdfs_7.0.3-0.65.20842708
      • VMware_bootbank_esxio-combiner_7.0.3-0.65.20842708
      • VMware_bootbank_esx-update_7.0.3-0.65.20842708
      • VMware_bootbank_loadesx_7.0.3-0.65.20842708
      • VMW_bootbank_ntg3_4.1.8.0-4vmw.703.0.65.20842708
      • VMware_locker_tools-light_12.1.0.20219665-20841705 
      Behobene Probleme 3021935, 2994966, 2983919, 3014323, 2996511, 2982013, 3011324, 3048788, 2983043, 3035934, 3015498, 3031708, 3041100, 3044475, 2990414, 3003866, 3011850, 3002779, 3033161, 3016132, 3015493, 3029194, 3007116, 2977496, 3021384, 2988179, 3025470, 3033159, 3011169, 3018832, 2977486, 2932056, 3013368, 2995471, 3006356, 2981272, 3000195, 3026623, 2981420, 3025469, 3042776, 2916160, 2996208, 3014374, 2977957, 2979281, 2976953, 2999968, 3031566, 3036859, 3029490, 3007883, 2992407
      Verwandte CVE-Nummern Nicht verfügbar
      • Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
        • In seltenen Fällen kann es bei VM-Ereignissen zu einer inkorrekten Meldung der Eigenschaft template kommen. Diese Eigenschaft gibt an, ob eine virtuelle Maschine als Vorlage markiert ist. Infolgedessen besteht die Möglichkeit, dass die Eigenschaft template als true angezeigt wird, obwohl die VM keine Vorlage ist, oder aber als false, obwohl eine VM als Vorlage markiert ist.

        • Aufgrund einer fehlenden Speichermoduleinheit für Cisco-Server im Managed Object Browser werden bei Verwendung von MOB unter Umständen keine Speicherstatusinformationen zu einem ESXi-Host angezeigt.

        • In sehr seltenen Fällen können zufällige Probleme mit Active Directory-Umgebungen, die einen Zustand bedingen können, in dem der Domänencontroller nicht mehr reagiert, auch dazu führen, dass der hostd-Dienst nicht mehr reagiert.

        • In seltenen Fällen kann es vorkommen, dass der interne Zustand des VMX-Prozesses aufgrund des schnellen Suspend-Resume-Mechanismus beim Erstellen oder Zurücksetzen einer VM basierend auf einem Snapshot ohne Benachrichtigung an die oberen Schichten des virtuellen Infrastrukturmanagement-Stacks neu initialisiert wird. Dies hat zur Folge, dass alle gastbezogenen Leistungsindikatoren in VMware Tools nicht mehr aktualisiert werden. In allen Schnittstellen zum ESXi-Host werden dauerhaft die zuletzt aufgezeichneten Werte angezeigt.

        • Wenn der rhttpproxy-Dienst mehrere Vorgänge für eingehende URIs durchführt, kann er den Puffer-Offset der einzelnen Verbindungen falsch berechnen. Dies führt möglicherweise zu Fehlern wie Pufferüberläufen und negativen Lesevorgängen. Dies führt dazu, dass der Dienst fehlschlägt.

        • Standardmäßig funktioniert das Ändern von Hypercall-Optionen mithilfe von Befehlen wie vm | Get-AdvancedSetting -Name isolation.tools.autoInstall.disable nur bei ausgeschalteter VM. Bei eingeschalteten VMs lösen solche Aufrufe den folgenden Fehler aus: Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden. Dies wird erwartet.

        • Nachdem Sie einen ESXi 7.0 Update 3c-Host auf eine höhere Version von 7.0.x aktualisiert oder ein ESXi 7.0 Update 3c-VIB installiert oder entfernt und den Host neu gestartet haben, werden möglicherweise alle erweiterten Sicherheitsoptionen auf dem Host auf ihre Standardwerte zurückgesetzt. Folgende erweiterte Einstellungen sind betroffen:
          Security.AccountLockFailures
          Security.AccountUnlockTime
          Security.PasswordQualityControl
          Security.PasswordHistory
          Security.PasswordMaxDays
          Security.SshSessionLimit
          Security.DefaultShellAccess

        • Der Befehl esxcli hardware pci list, der den NUMA-Knoten für ESXi Hostgeräte meldet, gibt für die physischen Funktionen (PF) eines SR-IOV-Geräts den korrekten NUMA-Knoten zurück, für seine virtuellen Funktionen (VF) hingegen null.

        • Wenn Sie virtuelle Windows-Maschinen nach einem Upgrade auf ESXi 7.0 Update 2 oder höher mithilfe von vSphere vMotion zu den aktualisierten Hosts migrieren, schlagen einige VMs nach der Migration möglicherweise mit einem blauen Diagnosebildschirm fehl. Auf dem Bildschirm wird die Fehlermeldung Betriebssystem konnte nicht gestartet werden, kein Betriebssystem gefunden angezeigt. Dieses Problem tritt aufgrund eines Fehlers in der Adressoptimierungslogik des Virtual Machine File System (VMFS) auf.

        • Wenn die Clientanwendung über keinen registrierten Standardanforderungshandler verfügt, können Anforderungen mit einem Pfad, der in der Handlerzuordnung nicht vorhanden ist, dazu führen, dass die Ausführung von vmacore.dll fehlschlägt. Dies führt dazu, dass der ESXi-Host vom vCenter Server-System getrennt ist.

        • Einige Zuteilungsreservierungsvorgänge überschreiten möglicherweise den Grenzwert von 128 parallelen Reservierungsschlüsseln sowie den zugeteilten Arbeitsspeicherbereich eines ESXi-Hosts. Dies führt möglicherweise dazu, dass ESXi-Hosts während Reservierungsvorgängen für die Ressourcenzuteilung mit einem violetten Diagnosebildschirm fehlschlagen. Die Fehleranzeige enthält sinngemäße Meldungen wie z. B. PSOD BlueScreen: #PF-Ausnahme 14 in World 2097700:SCSI Periode IP.

        • Wenn Sie einen Befehl zum Aufheben der Beanspruchung auf einem Gerät oder Pfad ausführen, während virtuelle Maschinen auf dem Gerät noch aktive E/A-Vorgänge aufweisen, schlägt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm fehl. Auf dem Bildschirm wird sinngemäß folgende Meldung angezeigt: PSOD bei bora/modules/vmkernel/nmp/nmp_misc.c:3839 beim Laden/Löschen von lpfc.

        • Wenn TXT auf einem ESX-Host aktiviert ist, schlagen Versuche, eine VM einzuschalten, möglicherweise mit einem Fehler fehl. Im vSphere Client wird folgende Meldung angezeigt: Dieser Host unterstützt Intel VT-x, aber Intel VT-x ist eingeschränkt. Intel VT-x ist möglicherweise eingeschränkt, weil „trusted excecution“ in den BIOS/Firmware-Einstellungen aktiviert wurde oder der Host nach dem Ändern dieser Einstellung nicht aus- und wieder eingeschaltet wurde.

        • Aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen schlägt eine virtuelle Maschine der Version ESX 7.0 Update 3f möglicherweise mit einem von ESX nicht behebbaren Fehler fehl. In der Datei vmware.log wird sinngemäß folgende Meldung angezeigt: MONITOR PANIC: vcpu-0:VMM Fehler 6: src=MONITOR ....
          Das Problem ist spezifisch für virtuelle Maschinen mit Hardwareversionen 12 oder früher.

        • Wenn Sie ein mithilfe von Image Builder erstelltes ESXi .iso-Image verwenden, um eine vSphere Lifecycle Manager-Upgrade-Baseline für ESXi Hosts zu erstellen, schlagen Upgrades mithilfe solcher Baselines möglicherweise fehl. Im vSphere Client wird folgender Fehler angezeigt: Upgrade-Skript kann nicht auf Host ausgeführt werden. Auf dem betroffenen ESXi-Host wird in der Datei /var/log/vua*.log sinngemäß folgender Fehler angezeigt: ValueError: Wenn ein Add-On vorhanden ist, sollte ein Basisimage vorhanden sein.
          Der Fehler tritt auf, wenn das vorhandene Image des ESXi-Hosts über ein Add-On verfügt, das von Image Builder generierte ISO-Image hingegen kein Add-On bereitstellt.

        • Viele parallele Anforderungen für Arbeitsspeicherbereiche durch virtuelle Maschinen, die das Data Plane Development Kit (DPDK) auf einem ESXi-Host verwenden, überschreiten möglicherweise den XMAP-Arbeitsspeicher auf dem Host. Folglich schlägt der Host mit einem violetten Diagnosebildschirm und sinngemäß folgender Fehlermeldung fehl: Panic Message: @BlueScreen: VERIFY bora/vmkernel/hardware/pci/config.c:157.

        • Nach einem Upgrade von ESXi-Hosts auf ESXi 7.0 Update 3 und höher werden möglicherweise einige Leistungsberichte für virtuelle Maschinen mit NVMe-Controllern nicht mehr angezeigt. Beispielsweise wird das Diagramm „Virtuelle Festplatte – Zusammenfassung aller Instanzen“ nicht in VMware Aria Operations angezeigt.

        • In seltenen Fällen, wie z. B. bei einem geplanten Neustart der primären virtuellen Maschine mit FT-Verschlüsselung, die hohe Arbeitslasten ausführt, verfügt die sekundäre virtuelle Maschine möglicherweise nicht über ausreichend Puffer, um mehr als 512 MB an modifizierten Seiten in einem einzelnen FT-Prüfpunkt zu entschlüsseln, und es tritt ein Pufferüberlauffehler auf. Dies führt dazu, dass der ESXi-Host, auf dem sich die sekundäre virtuelle Maschine befindet, möglicherweise mit einem violetten Diagnosebildschirm fehlschlägt.

        • In seltenen Fällen kann die vSAN-Speicherkonfiguration nach einem Upgrade bzw. Update auf ESXi 7.0 Update 2 und höher das Tag mark_ssd verlieren und standardmäßig HDD verwenden.

        • Selbst wenn sich ein Gerät oder eine LUN im Zustand „Getrennt“ befindet, versucht die Pluggable Storage Architecture (PSA) möglicherweise weiterhin, das Objekt zu registrieren. Die PSA erstellt bei jedem Pfadauswertungsintervall dieser Versuche ein Protokoll für jeden Pfadauswertungsschritt. Infolgedessen werden möglicherweise mehrere identische Meldungen angezeigt, wie z. B. nmp_RegisterDeviceEvents fehlgeschlagen für die Geräteregistrierung, die bei getrenntem Gerät bzw. getrennter LUN nicht erforderlich sind.

        • Wenn Sie eine Gerätekonfiguration zur Laufzeit ändern, werden Änderungen möglicherweise nicht im ESXi ConfigStore widergespiegelt, der die Konfigurationen für einen ESXi-Host enthält. Dies führt dazu, dass der Datenspeicher nach dem Neustart des ESXi-Hosts möglicherweise nicht gemountet wird.

        • Ab ESXi 6.0 ist mClock der standardmäßige E/A-Scheduler für ESXi, aber einige Umgebungen verwenden möglicherweise weiterhin Legacy-Scheduler von ESXi-Versionen vor 6.0. Infolgedessen schlagen Upgrades dieser Hosts auf ESXi 7.0 Update 3 und höher möglicherweise mit einem violetten Diagnosebildschirm fehl.

        • Ab ESXi 7.0 Update 1 wurde die Konfigurationsverwaltung von ESXi-Hosts aus der Datei /etc/vmware/esx.conf in das ConfigStore-Framework verschoben. Dadurch erfolgt eine explizite Trennung von Status und Konfiguration. Token in der esx.conf-Datei, wie z. B. implicit_support oder explicit_support, die einen Status angeben, werden nicht als gültige Token erkannt und vom satp_alua-Modul ignoriert. Wenn Sie ESXi-Hosts mithilfe eines Hostprofils mit Token, die den ALUA-Status angeben, auf ESXi 7.0 Update 3d oder höher aktualisieren, könnte der Vorgang daher mit einem violetten Diagnosebildschirm fehlschlagen. Auf dem Bildschirm wird sinngemäß folgende Fehlermeldung angezeigt: Modulfehler: /var/lib/vmware/configmanager/upgrade/lib/postLoadStore/libupgradepsadeviceconfig.so.

        • Ein Hilfsmechanismus, der FB-Ressourcenzuteilungsdetails im Hintergrund zwischenspeichert, kann die FB-Ressourcenzuteilung an den ESXi-Host während E/A-Vorgängen versehentlich anhalten und blockieren. In einigen Fällen wirkt sich dieses Problem möglicherweise auf andere Prozesse aus, die für dieselbe Datei ausgeführt werden, und blockiert sie. Dies kann dazu führen, dass der ESXi-Host nicht mehr reagiert.

        • Der vSAN-Dateidienst erfordert, dass Hosts miteinander kommunizieren. Der Dateidienst verwendet möglicherweise fälschlicherweise eine IP-Adresse im Zeugennetzwerk für die Interkommunikation. Wenn Sie ein isoliertes Zeugennetzwerk für vSAN konfiguriert haben, kann der Host über das Zeugennetzwerk mit einem Zeugenknoten kommunizieren, aber Hosts können über das Zeugennetzwerk nicht miteinander kommunizieren. Die Kommunikation zwischen Hosts für den vSAN-Dateidienst kann nicht hergestellt werden.

        • Wenn sich ein ESXi-Host im Zustand „Geringer Arbeitsspeicher“ befindet, könnte eine unzureichende Heap-Zuteilung zu einem Netzwerkmodul dazu führen, dass die Port-Bitmap auf NULL festgelegt wird. Folglich kann ein ESXi-Host bei einem Paketweiterleitungsversuch mit einem violetten Diagnosebildschirm fehlschlagen.

        • Während der Änderung des Objektformats werden einige Objekte mit altem Layout möglicherweise teilweise bereinigt, sodass die Konfiguration in einem ungültigen Zustand bleibt. Dieses Problem kann dazu führen, dass CLOMD immer dann fehlschlägt, wenn versucht wird, das Objekt während der Neukonfiguration zu verarbeiten.

          Möglicherweise werden die folgenden Einträge in der clomd.log-Datei angezeigt:

          2022-10-14T16:17:26.456Z PANIC: NOT_REACHED bora/lib/vsan/vsan_config_builder.c:744
          2022-10-14T16:17:26.456Z Backtrace:
          2022-10-14T16:17:26.456Z Backtrace[0] 0000030b4742c6a0 rip=000000bf0c7de98f rbx=0000030b4742c6a0
          rbp=0000030b4742cad0 r12=000000bf0d677788 r13=0000030b4742cae8 r14=000000bf14ce052c r15=000000bf14ce3c2c

        • Windows 2012 und höher verwendet die SCSI-3-Reservierung für die Ressourcenvermittlung, um Windows Failover Clustering (WSFC) auf ESXi für systemübergreifende Cluster-Konfigurationen (Cluster-across-box, CAB) zu unterstützen. Wenn Sie jedoch die Einstellung Physical für die gemeinsame Bus-Nutzung des SCSI-Controllers auf dieser VM konfigurieren, führt der Befehl SCSI RESERVE dazu, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt. SCSI RESERVE ist eine SCSI-2-Semantik und wird für WSFC-Cluster auf ESXi nicht unterstützt.

        • vSAN könnte das Destaging von Daten aufgrund eines Problems beim Zählen ausstehender E/As beenden. Wenn eine vSAN-Festplattengruppe das Destaging von Daten aus dem Cache in die Kapazitätsschicht beendet, kann dies dazu führen, dass sich Daten in der Cache-Ebene ansammeln. Dieses Problem führt zu Überlastung, E/A-Drosselung und längerer Latenz.

        • Wenn ein vSAN-Cluster mit einem 0-Byte-Objekt eine Richtlinienänderungsanforderung empfängt, legt der Cluster Level Object Manager (CLOM) möglicherweise fälschlicherweise ein ungültiges Flag für eine oder mehrere Komponenten des Objekts fest. Ein solches Flag kann dazu führen, dass der Host große Schreibvorgänge sendet, die das System überlasten, sodass der Host mit einem violetten Diagnosebildschirm fehlschlägt.

        • Ein seltenes Problem bei der Verarbeitung von VMFS-Journalblöcken kann zu Sperrungskonflikten führen, wodurch Verzögerungen bei erneuten VMFS-Prüfungen entstehen oder das Mounten von Datenspeichern fehlschlägt. In den VMkernel-Protokollen werden Fehler angezeigt, wie z. B. Ressourcendatei für Ressource: 6 hat den maximalen Grenzwert von 8192 erreicht und Ressourcen-Dateierweiterung (‚Kein Speicherplatz frei auf Gerät‘).

        • In seltenen Fällen kann der vmx-Dienst während des Abbrechens einer vSphere Storage vMotion-Aufgabe fehlschlagen. Wenn Ihre Umgebung vCenter Server High Availability verwendet, startet der Dienst die betroffenen virtuellen Maschinen daher neu.

        • Wenn Sie zum Starten von ESXi 7.x nur SD- oder USB-Geräte verwenden, werden möglicherweise Fehler angezeigt, wie z. B. Unterstützung der Konfiguration nur für SD-Karte/USB wird eingestellt. Diese Meldung weist nicht auf einen Fehler hin, sondern enthält nur eine Warnung, dass SD- und USB-Geräte nur für Bootbank-Partitionen unterstützt werden, und dass für eine optimale Leistung ein sekundärer persistenter Speicher mit mindestens 32 GB für /scratch und VMware Tools bereitgestellt werden muss, die sich in der OSData-Partition befinden.

        • Dieses Problem betrifft vSAN-Hosts, die einen externen KMS für die Verschlüsselung ruhender Daten verwenden. Wenn Sie ein Upgrade eines vSAN-Hosts von 6.7 oder früher auf 7.0 und höher durchführen, geht das KMS-Kennwort verloren. Die Festplatten des Hosts bleiben verschlüsselt und gesperrt.

        • In seltenen Fällen versuchen vSphere Virtual Volumes möglicherweise eine erneute Bindung von Volumes auf ESXi-Hosts mit persistenten SCSI-Reservierungen. Dies führt dazu, dass die ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen und im Backtrace sinngemäß folgende Fehlermeldung angezeigt wird: Panik-Meldung: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4933 – Nutzungsfehler in dlmalloc.

        • Aufgrund eines Caching-Problems wird im vSphere Client möglicherweise eine VMDK-Größe von 0 KB angezeigt, unabhängig von der tatsächlichen Größe der virtuellen Maschinen in einer vSphere Virtual Volumes-Umgebung.

        • Während der Speichermigration eines Site-übergreifenden Advanced Cross vCenter vMotion-Vorgangs werden möglicherweise einige asynchrone E/A-Vorgänge im Speicher-Stack gesperrt und es tritt keine ordnungsgemäße Zeitüberschreitung auf. Dies führt dazu, dass virtuelle Maschinen weiterhin auf eine E/A-Antwort warten. Dadurch tritt beim Advanced Cross vCenter vMotion-Vorgang eine Zeitüberschreitung auf, und die virtuellen Maschinen reagieren nicht mehr.

        • Ein Problem während der LLOG-Wiederherstellung kann dazu führen, dass eine vSAN-Komponente fälschlicherweise als ungültig markiert wird. Dieses Problem kann zu einer Ansammlung von Protokollen und somit zu Überlastung führen.

        • Aufgrund einer unzureichenden Ressourcenpoolzuteilung schlagen einige an den SFCBD berichtende Dienste, wie z. B. sfcb-vmware_base und sfcb-vmw, möglicherweise fehl und generieren zdump. In der syslog.log-Datei werden Fehlermeldungen wie die folgenden angezeigt:
          sfcb-vmware_base[2110110]: tool_mm_realloc_or_die: memory re-allocation failed(orig=364000 new=364800 msg=Cannot allocate memory, aborting
          sfcb-vmw_ipmi[2291550]: tool_mm_realloc_or_die: memory re-allocation failed(orig=909200 new=909600 msg=Cannot allocate memory, aborting

        • Wenn es sich bei der Zielrichtlinie um RAID 1, StripeWidth 1 handelt und ein vSAN-Cluster nur noch wenige vorübergehende Kapazitäten aufweist, konfiguriert der Cluster Level Object Manager möglicherweise weiterhin denselben Teil von Objekten neu, der größer als 8 TB ist. Infolgedessen verbleiben diese Objekte im nicht übereinstimmenden Zustand, und möglicherweise werden einige unnötige Neusynchronisierungsvorgänge angezeigt.

        • In VMware Aria Operations for Logs (vormals vRealize Log Insight) wird möglicherweise eine große Anzahl von Protokollen angezeigt, die von Storage I/O Control generiert werden, z. B. Ungültiger Wert für Freigaben: 0. Standard wird verwendet. und Gerät naa.xxxx wird entweder aufgrund eines VSI-Lesefehlers oder eines abnormalen Status übersprungen. Das Protokollvolumen variiert je nach der Anzahl der ESXi-Hosts in einem Cluster und der Anzahl der Geräte im ausgeschalteten Zustand. Wenn das Problem auftritt, wird das Protokollvolume schnell (innerhalb von 24 Stunden) generiert, und VMware Aria Operations for Logs stuft die Meldungen möglicherweise als kritisch ein. Diese Protokolle sind jedoch unbedenklich und wirken sich nicht auf die Vorgänge auf anderen Online-Datenspeichern aus.

        • Wenn die Liste der Speichersensoren eines ESXi-Hosts leer ist, wird der von der Intelligent Platform Management Interface (IPMI) gemeldete CPU-Status möglicherweise zurückgesetzt. Dies führt dazu, dass der Sensordatensatz mit Element ID 3, dem Status des Prozessors, fälschlicherweise als Über aktuellen Status des physischen Elements kann nicht berichtet werden im MOB angezeigt wird.

        • In Stretched Clustern stellt vSAN jedes VMDK-Objekt mit einem bestimmten Format bereit. Wenn Sie die Richtlinie eines VMDK-Objekts von hostFailuresToTolerate=0 in hostFailuresToTolerate=1 ändern, ändert sich das Format möglicherweise so, dass Lesevorgänge den Site-übergreifenden (AZ-übergreifenden) Link durchlaufen. Dies führt dazu, dass in diesen Objekten eine höhere Leselatenz angezeigt wird.

        • Wenn Sie im vSphere Client eine virtuelle Maschine erstellen oder neu konfigurieren, werden dieselben Optionen im Dropdown-Menü unter SCSI-Controller > Gemeinsame Verwendung des SCSI-Busses möglicherweise doppelt angezeigt. Auf Workflows zum Erstellen oder Konfigurieren der VM hat das Problem keine Auswirkungen.

        • Nach einem Migrationsvorgang fallen virtuelle Maschinen mit Windows 10 unter Umständen aus, wobei ein blauer Diagnosebildschirm angezeigt wird und in einer Fehlermeldung wie der folgenden eine falsche Microcoderevision gemeldet wird: – MICROCODE_REVISION_MISMATCH (17e). Das Problem tritt auf, wenn während des Migrationsvorgangs ein Scan der CPUs durchgeführt wird und die Firmware der Quell-CPUs nicht mit der Firmware der Ziel-CPUs übereinstimmt.

        • In bestimmten Fällen schlägt das Löschen des Caches von Objekten in einem Datenspeichervolume auf ESXi-Hosts fehl, Objekte verbleiben im Cache und führen dazu, dass nicht genügend Arbeitsspeicher vorhanden ist. Dies kommt beispielsweise vor, wenn die Verbindung mit dem zugrunde liegenden Gerät des Volumes unterbrochen wird. Folglich reagiert der ESXi-Host nicht mehr. In den Protokollen werden Fehler angezeigt, wie z. B.:
          Erneute Verbindung mit xxxxx nicht möglich] oder Fehler beim Bereinigen von VMFS-Taktsignal auf Volume xxxxx: Keine Verbindung. oder
          Das Volume auf dem Gerät xxxxx ist gesperrt, möglicherweise weil während eines Volume-Vorgangs ein nicht behebbarer Fehler auf einem Remotehost aufgetreten ist.

        • Bestimmte Workflows wie Sicherungsvorgänge von ESXi-Hosts können eine große Anzahl von Dateien öffnen, was wiederum zu einer Auslastung des Objekt-Caches führen kann. In solchen Fällen kann es vorkommen, dass der hostd-Dienst fehlschlägt, virtuelle Maschinen heruntergefahren werden oder die VM in einen ungültigen Zustand versetzt wird, der ihr Einschalten verhindert. In den Protokollen werden Warnungen angezeigt, wie z. B. Es konnte kein Arbeitsspeicher zugeteilt werden.

        • In Überwachen > Skyline Health > Dateidienst > Integrität des Dateiservers wird möglicherweise die Fehlermeldung Dateiserver wird (neu) gestartet angezeigt.
          Das Problem wird durch eine Cache-Überlauffunktion verursacht, die zu einem Ausfall des VDFS-Daemons führt. In der Datei /var/run/log/vdfsd-server.log in einem betroffenen ESXi-Host werden Meldungen wie NOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp angezeigt.

        • Wenn Sie im vSphere Client die Richtlinie einer eingeschalteten VM mit einem IDE-Controller ändern, wird möglicherweise folgender Fehler angezeigt: Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden.

        • Das Mounten des HCI Mesh-Clusters schlägt möglicherweise fehl, wenn Sie vSAN erneut aktivieren, nachdem Sie vSAN mit Verschlüsselung in Übertragung begriffener Daten deaktiviert haben.

        • Wenn für vSAN verwendete NVMe-Laufwerke über eine doppelte PCI-ID verfügen und Sie den vSAN-Integritätsdienst auf vCenter Server neu starten, fehlt die Hardwarekompatibilitätsgruppe aus vSAN Skyline Health.

        • Wenn zwei NICs, die den Treiber ntg3 der Version 4.1.3 und höher verwenden, direkt und nicht mit einem physischen Switch-Port verbunden sind, kann Link Flapping auftreten. Das Problem tritt nicht bei ntg3-Treibern mit Versionen vor 4.1.3 oder dem tg3-Treiber auf. Dieses Problem steht nicht im Zusammenhang mit dem gelegentlich auftretenden Energy Efficient Ethernet (EEE) Link Flapping bei solchen NICs. Die Lösung für das EEE-Problem besteht darin, einen ntg3-Treiber der Version 4.1.7 oder höher zu verwenden oder EEE an physischen Switch-Ports zu deaktivieren.

        • Der TPM 2.0-Nachweis auf Lenovo-Servern gibt den TPM-Fehlercode zurück: TSS2_SYS_RC_INSUFFICIENT_BUFFER.

      ESXi-7.0U3i-20842708-no-tools
      Profilname ESXi-7.0U3i-20842708-no-tools
      Build Build-Informationen finden Sie unter In dieser Version enthaltene Patches.
      Anbieter VMware, Inc.
      Datum der Veröffentlichung 8. Dezember 2022
      Akzeptanzebene PartnerSupported
      Betroffene Hardware Nicht verfügbar
      Betroffene Software Nicht verfügbar
      Betroffene VIBs
      • VMware_bootbank_esx-xserver_7.0.3-0.65.20842708
      • VMware_bootbank_gc_7.0.3-0.65.20842708
      • VMware_bootbank_vsan_7.0.3-0.65.20842708
      • VMware_bootbank_cpu-microcode_7.0.3-0.65.20842708
      • VMware_bootbank_crx_7.0.3-0.65.20842708
      • VMware_bootbank_esx-base_7.0.3-0.65.20842708
      • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.65.20842708
      • VMware_bootbank_vsanhealth_7.0.3-0.65.20842708
      • VMware_bootbank_native-misc-drivers_7.0.3-0.65.20842708
      • VMware_bootbank_esx-ui_2.1.1-20188605
      • VMware_bootbank_trx_7.0.3-0.65.20842708
      • VMware_bootbank_bmcal_7.0.3-0.65.20842708
      • VMware_bootbank_vdfs_7.0.3-0.65.20842708
      • VMware_bootbank_esxio-combiner_7.0.3-0.65.20842708
      • VMware_bootbank_esx-update_7.0.3-0.65.20842708
      • VMware_bootbank_loadesx_7.0.3-0.65.20842708
      • VMW_bootbank_ntg3_4.1.8.0-4vmw.703.0.65.20842708
      Behobene Probleme 3021935, 2994966, 2983919, 3014323, 2996511, 2982013, 3011324, 3048788, 2983043, 3035934, 3015498, 3031708, 3041100, 3044475, 2990414, 3003866, 3011850, 3002779, 3033161, 3016132, 3015493, 3029194, 3007116, 2977496, 3021384, 2988179, 3025470, 3033159, 3011169, 3018832, 2977486, 2932056, 3013368, 2995471, 3006356, 2981272, 3000195, 3026623, 2981420, 3025469, 3042776, 2916160, 2996208, 3014374, 2977957, 2979281, 2976953, 2999968, 3031566, 3036859, 3029490, 3007883, 2992407
      Verwandte CVE-Nummern Nicht verfügbar
      • Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
        • In seltenen Fällen kann es bei VM-Ereignissen zu einer inkorrekten Meldung der Eigenschaft template kommen. Diese Eigenschaft gibt an, ob eine virtuelle Maschine als Vorlage markiert ist. Infolgedessen besteht die Möglichkeit, dass die Eigenschaft template als true angezeigt wird, obwohl die VM keine Vorlage ist, oder aber als false, obwohl eine VM als Vorlage markiert ist.

        • Aufgrund einer fehlenden Speichermoduleinheit für Cisco-Server im Managed Object Browser werden bei Verwendung von MOB unter Umständen keine Speicherstatusinformationen zu einem ESXi-Host angezeigt.

        • In sehr seltenen Fällen können zufällige Probleme mit Active Directory-Umgebungen, die einen Zustand bedingen können, in dem der Domänencontroller nicht mehr reagiert, auch dazu führen, dass der hostd-Dienst nicht mehr reagiert.

        • In seltenen Fällen kann es vorkommen, dass der interne Zustand des VMX-Prozesses aufgrund des schnellen Suspend-Resume-Mechanismus beim Erstellen oder Zurücksetzen einer VM basierend auf einem Snapshot ohne Benachrichtigung an die oberen Schichten des virtuellen Infrastrukturmanagement-Stacks neu initialisiert wird. Dies hat zur Folge, dass alle gastbezogenen Leistungsindikatoren in VMware Tools nicht mehr aktualisiert werden. In allen Schnittstellen zum ESXi-Host werden dauerhaft die zuletzt aufgezeichneten Werte angezeigt.

        • Wenn der rhttpproxy-Dienst mehrere Vorgänge für eingehende URIs durchführt, kann er den Puffer-Offset der einzelnen Verbindungen falsch berechnen. Dies führt möglicherweise zu Fehlern wie Pufferüberläufen und negativen Lesevorgängen. Dies führt dazu, dass der Dienst fehlschlägt.

        • Standardmäßig funktioniert das Ändern von Hypercall-Optionen mithilfe von Befehlen wie vm | Get-AdvancedSetting -Name isolation.tools.autoInstall.disable nur bei ausgeschalteter VM. Bei eingeschalteten VMs lösen solche Aufrufe den folgenden Fehler aus: Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden. Dies wird erwartet.

        • Nachdem Sie einen ESXi 7.0 Update 3c-Host auf eine höhere Version von 7.0.x aktualisiert oder ein ESXi 7.0 Update 3c-VIB installiert oder entfernt und den Host neu gestartet haben, werden möglicherweise alle erweiterten Sicherheitsoptionen auf dem Host auf ihre Standardwerte zurückgesetzt. Folgende erweiterte Einstellungen sind betroffen:
          Security.AccountLockFailures
          Security.AccountUnlockTime
          Security.PasswordQualityControl
          Security.PasswordHistory
          Security.PasswordMaxDays
          Security.SshSessionLimit
          Security.DefaultShellAccess

        • Der Befehl esxcli hardware pci list, der den NUMA-Knoten für ESXi Hostgeräte meldet, gibt für die physischen Funktionen (PF) eines SR-IOV-Geräts den korrekten NUMA-Knoten zurück, für seine virtuellen Funktionen (VF) hingegen null.

        • Wenn Sie virtuelle Windows-Maschinen nach einem Upgrade auf ESXi 7.0 Update 2 oder höher mithilfe von vSphere vMotion zu den aktualisierten Hosts migrieren, schlagen einige VMs nach der Migration möglicherweise mit einem blauen Diagnosebildschirm fehl. Auf dem Bildschirm wird die Fehlermeldung Betriebssystem konnte nicht gestartet werden, kein Betriebssystem gefunden angezeigt. Dieses Problem tritt aufgrund eines Fehlers in der Adressoptimierungslogik des Virtual Machine File System (VMFS) auf.

        • Wenn die Clientanwendung über keinen registrierten Standardanforderungshandler verfügt, können Anforderungen mit einem Pfad, der in der Handlerzuordnung nicht vorhanden ist, dazu führen, dass die Ausführung von vmacore.dll fehlschlägt. Dies führt dazu, dass der ESXi-Host vom vCenter Server-System getrennt ist.

        • Einige Zuteilungsreservierungsvorgänge überschreiten möglicherweise den Grenzwert von 128 parallelen Reservierungsschlüsseln sowie den zugeteilten Arbeitsspeicherbereich eines ESXi-Hosts. Dies führt möglicherweise dazu, dass ESXi-Hosts während Reservierungsvorgängen für die Ressourcenzuteilung mit einem violetten Diagnosebildschirm fehlschlagen. Die Fehleranzeige enthält sinngemäße Meldungen wie z. B. PSOD BlueScreen: #PF-Ausnahme 14 in World 2097700:SCSI Periode IP.

        • Wenn Sie einen Befehl zum Aufheben der Beanspruchung auf einem Gerät oder Pfad ausführen, während virtuelle Maschinen auf dem Gerät noch aktive E/A-Vorgänge aufweisen, schlägt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm fehl. Auf dem Bildschirm wird sinngemäß folgende Meldung angezeigt: PSOD bei bora/modules/vmkernel/nmp/nmp_misc.c:3839 beim Laden/Löschen von lpfc.

        • Wenn TXT auf einem ESX-Host aktiviert ist, schlagen Versuche, eine VM einzuschalten, möglicherweise mit einem Fehler fehl. Im vSphere Client wird folgende Meldung angezeigt: Dieser Host unterstützt Intel VT-x, aber Intel VT-x ist eingeschränkt. Intel VT-x ist möglicherweise eingeschränkt, weil „trusted excecution“ in den BIOS/Firmware-Einstellungen aktiviert wurde oder der Host nach dem Ändern dieser Einstellung nicht aus- und wieder eingeschaltet wurde.

        • Aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen schlägt eine virtuelle Maschine der Version ESX 7.0 Update 3f möglicherweise mit einem von ESX nicht behebbaren Fehler fehl. In der Datei vmware.log wird sinngemäß folgende Meldung angezeigt: MONITOR PANIC: vcpu-0:VMM Fehler 6: src=MONITOR ....
          Das Problem ist spezifisch für virtuelle Maschinen mit Hardwareversionen 12 oder früher.

        • Wenn Sie ein mithilfe von Image Builder erstelltes ESXi .iso-Image verwenden, um eine vSphere Lifecycle Manager-Upgrade-Baseline für ESXi Hosts zu erstellen, schlagen Upgrades mithilfe solcher Baselines möglicherweise fehl. Im vSphere Client wird folgender Fehler angezeigt: Upgrade-Skript kann nicht auf Host ausgeführt werden. Auf dem betroffenen ESXi-Host wird in der Datei /var/log/vua*.log sinngemäß folgender Fehler angezeigt: ValueError: Wenn ein Add-On vorhanden ist, sollte ein Basisimage vorhanden sein.
          Der Fehler tritt auf, wenn das vorhandene Image des ESXi-Hosts über ein Add-On verfügt, das von Image Builder generierte ISO-Image hingegen kein Add-On bereitstellt.

        • Viele parallele Anforderungen für Arbeitsspeicherbereiche durch virtuelle Maschinen, die das Data Plane Development Kit (DPDK) auf einem ESXi-Host verwenden, überschreiten möglicherweise den XMAP-Arbeitsspeicher auf dem Host. Folglich schlägt der Host mit einem violetten Diagnosebildschirm und sinngemäß folgender Fehlermeldung fehl: Panic Message: @BlueScreen: VERIFY bora/vmkernel/hardware/pci/config.c:157.

        • Nach einem Upgrade von ESXi-Hosts auf ESXi 7.0 Update 3 und höher werden möglicherweise einige Leistungsberichte für virtuelle Maschinen mit NVMe-Controllern nicht mehr angezeigt. Beispielsweise wird das Diagramm „Virtuelle Festplatte – Zusammenfassung aller Instanzen“ nicht in VMware Aria Operations angezeigt.

        • In seltenen Fällen, wie z. B. bei einem geplanten Neustart der primären virtuellen Maschine mit FT-Verschlüsselung, die hohe Arbeitslasten ausführt, verfügt die sekundäre virtuelle Maschine möglicherweise nicht über ausreichend Puffer, um mehr als 512 MB an modifizierten Seiten in einem einzelnen FT-Prüfpunkt zu entschlüsseln, und es tritt ein Pufferüberlauffehler auf. Dies führt dazu, dass der ESXi-Host, auf dem sich die sekundäre virtuelle Maschine befindet, möglicherweise mit einem violetten Diagnosebildschirm fehlschlägt.

        • In seltenen Fällen kann die vSAN-Speicherkonfiguration nach einem Upgrade bzw. Update auf ESXi 7.0 Update 2 und höher das Tag mark_ssd verlieren und standardmäßig HDD verwenden.

        • Selbst wenn sich ein Gerät oder eine LUN im Zustand „Getrennt“ befindet, versucht die Pluggable Storage Architecture (PSA) möglicherweise weiterhin, das Objekt zu registrieren. Die PSA erstellt bei jedem Pfadauswertungsintervall dieser Versuche ein Protokoll für jeden Pfadauswertungsschritt. Infolgedessen werden möglicherweise mehrere identische Meldungen angezeigt, wie z. B. nmp_RegisterDeviceEvents fehlgeschlagen für die Geräteregistrierung, die bei getrenntem Gerät bzw. getrennter LUN nicht erforderlich sind.

        • Wenn Sie eine Gerätekonfiguration zur Laufzeit ändern, werden Änderungen möglicherweise nicht im ESXi ConfigStore widergespiegelt, der die Konfigurationen für einen ESXi-Host enthält. Dies führt dazu, dass der Datenspeicher nach dem Neustart des ESXi-Hosts möglicherweise nicht gemountet wird.

        • Ab ESXi 6.0 ist mClock der standardmäßige E/A-Scheduler für ESXi, aber einige Umgebungen verwenden möglicherweise weiterhin Legacy-Scheduler von ESXi-Versionen vor 6.0. Infolgedessen schlagen Upgrades dieser Hosts auf ESXi 7.0 Update 3 und höher möglicherweise mit einem violetten Diagnosebildschirm fehl.

        • Ab ESXi 7.0 Update 1 wurde die Konfigurationsverwaltung von ESXi-Hosts aus der Datei /etc/vmware/esx.conf in das ConfigStore-Framework verschoben. Dadurch erfolgt eine explizite Trennung von Status und Konfiguration. Token in der esx.conf-Datei, wie z. B. implicit_support oder explicit_support, die einen Status angeben, werden nicht als gültige Token erkannt und vom satp_alua-Modul ignoriert. Wenn Sie ESXi-Hosts mithilfe eines Hostprofils mit Token, die den ALUA-Status angeben, auf ESXi 7.0 Update 3d oder höher aktualisieren, könnte der Vorgang daher mit einem violetten Diagnosebildschirm fehlschlagen. Auf dem Bildschirm wird sinngemäß folgende Fehlermeldung angezeigt: Modulfehler: /var/lib/vmware/configmanager/upgrade/lib/postLoadStore/libupgradepsadeviceconfig.so.

        • Ein Hilfsmechanismus, der FB-Ressourcenzuteilungsdetails im Hintergrund zwischenspeichert, kann die FB-Ressourcenzuteilung an den ESXi-Host während E/A-Vorgängen versehentlich anhalten und blockieren. In einigen Fällen wirkt sich dieses Problem möglicherweise auf andere Prozesse aus, die für dieselbe Datei ausgeführt werden, und blockiert sie. Dies kann dazu führen, dass der ESXi-Host nicht mehr reagiert.

        • Der vSAN-Dateidienst erfordert, dass Hosts miteinander kommunizieren. Der Dateidienst verwendet möglicherweise fälschlicherweise eine IP-Adresse im Zeugennetzwerk für die Interkommunikation. Wenn Sie ein isoliertes Zeugennetzwerk für vSAN konfiguriert haben, kann der Host über das Zeugennetzwerk mit einem Zeugenknoten kommunizieren, aber Hosts können über das Zeugennetzwerk nicht miteinander kommunizieren. Die Kommunikation zwischen Hosts für den vSAN-Dateidienst kann nicht hergestellt werden.

        • Wenn sich ein ESXi-Host im Zustand „Geringer Arbeitsspeicher“ befindet, könnte eine unzureichende Heap-Zuteilung zu einem Netzwerkmodul dazu führen, dass die Port-Bitmap auf NULL festgelegt wird. Folglich kann ein ESXi-Host bei einem Paketweiterleitungsversuch mit einem violetten Diagnosebildschirm fehlschlagen.

        • Während der Änderung des Objektformats werden einige Objekte mit altem Layout möglicherweise teilweise bereinigt, sodass die Konfiguration in einem ungültigen Zustand bleibt. Dieses Problem kann dazu führen, dass CLOMD immer dann fehlschlägt, wenn versucht wird, das Objekt während der Neukonfiguration zu verarbeiten.

          Möglicherweise werden die folgenden Einträge in der clomd.log-Datei angezeigt:

          2022-10-14T16:17:26.456Z PANIC: NOT_REACHED bora/lib/vsan/vsan_config_builder.c:744
          2022-10-14T16:17:26.456Z Backtrace:
          2022-10-14T16:17:26.456Z Backtrace[0] 0000030b4742c6a0 rip=000000bf0c7de98f rbx=0000030b4742c6a0
          rbp=0000030b4742cad0 r12=000000bf0d677788 r13=0000030b4742cae8 r14=000000bf14ce052c r15=000000bf14ce3c2c

        • Windows 2012 und höher verwendet die SCSI-3-Reservierung für die Ressourcenvermittlung, um Windows Failover Clustering (WSFC) auf ESXi für systemübergreifende Cluster-Konfigurationen (Cluster-across-box, CAB) zu unterstützen. Wenn Sie jedoch die Einstellung Physical für die gemeinsame Bus-Nutzung des SCSI-Controllers auf dieser VM konfigurieren, führt der Befehl SCSI RESERVE dazu, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt. SCSI RESERVE ist eine SCSI-2-Semantik und wird für WSFC-Cluster auf ESXi nicht unterstützt.

        • vSAN könnte das Destaging von Daten aufgrund eines Problems beim Zählen ausstehender E/As beenden. Wenn eine vSAN-Festplattengruppe das Destaging von Daten aus dem Cache in die Kapazitätsschicht beendet, kann dies dazu führen, dass sich Daten in der Cache-Ebene ansammeln. Dieses Problem führt zu Überlastung, E/A-Drosselung und längerer Latenz.

        • Wenn ein vSAN-Cluster mit einem 0-Byte-Objekt eine Richtlinienänderungsanforderung empfängt, legt der Cluster Level Object Manager (CLOM) möglicherweise fälschlicherweise ein ungültiges Flag für eine oder mehrere Komponenten des Objekts fest. Ein solches Flag kann dazu führen, dass der Host große Schreibvorgänge sendet, die das System überlasten, sodass der Host mit einem violetten Diagnosebildschirm fehlschlägt.

        • Ein seltenes Problem bei der Verarbeitung von VMFS-Journalblöcken kann zu Sperrungskonflikten führen, wodurch Verzögerungen bei erneuten VMFS-Prüfungen entstehen oder das Mounten von Datenspeichern fehlschlägt. In den VMkernel-Protokollen werden Fehler angezeigt, wie z. B. Ressourcendatei für Ressource: 6 hat den maximalen Grenzwert von 8192 erreicht und Ressourcen-Dateierweiterung (‚Kein Speicherplatz frei auf Gerät‘).

        • In seltenen Fällen kann der vmx-Dienst während des Abbrechens einer vSphere Storage vMotion-Aufgabe fehlschlagen. Wenn Ihre Umgebung vCenter Server High Availability verwendet, startet der Dienst die betroffenen virtuellen Maschinen daher neu.

        • Wenn Sie zum Starten von ESXi 7.x nur SD- oder USB-Geräte verwenden, werden möglicherweise Fehler angezeigt, wie z. B. Unterstützung der Konfiguration nur für SD-Karte/USB wird eingestellt. Diese Meldung weist nicht auf einen Fehler hin, sondern enthält nur eine Warnung, dass SD- und USB-Geräte nur für Bootbank-Partitionen unterstützt werden, und dass für eine optimale Leistung ein sekundärer persistenter Speicher mit mindestens 32 GB für /scratch und VMware Tools bereitgestellt werden muss, die sich in der OSData-Partition befinden.

        • Dieses Problem betrifft vSAN-Hosts, die einen externen KMS für die Verschlüsselung ruhender Daten verwenden. Wenn Sie ein Upgrade eines vSAN-Hosts von 6.7 oder früher auf 7.0 und höher durchführen, geht das KMS-Kennwort verloren. Die Festplatten des Hosts bleiben verschlüsselt und gesperrt.

        • In seltenen Fällen versuchen vSphere Virtual Volumes möglicherweise eine erneute Bindung von Volumes auf ESXi-Hosts mit persistenten SCSI-Reservierungen. Dies führt dazu, dass die ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen und im Backtrace sinngemäß folgende Fehlermeldung angezeigt wird: Panik-Meldung: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4933 – Nutzungsfehler in dlmalloc.

        • Aufgrund eines Caching-Problems wird im vSphere Client möglicherweise eine VMDK-Größe von 0 KB angezeigt, unabhängig von der tatsächlichen Größe der virtuellen Maschinen in einer vSphere Virtual Volumes-Umgebung.

        • Während der Speichermigration eines Site-übergreifenden Advanced Cross vCenter vMotion-Vorgangs werden möglicherweise einige asynchrone E/A-Vorgänge im Speicher-Stack gesperrt und es tritt keine ordnungsgemäße Zeitüberschreitung auf. Dies führt dazu, dass virtuelle Maschinen weiterhin auf eine E/A-Antwort warten. Dadurch tritt beim Advanced Cross vCenter vMotion-Vorgang eine Zeitüberschreitung auf, und die virtuellen Maschinen reagieren nicht mehr.

        • Ein Problem während der LLOG-Wiederherstellung kann dazu führen, dass eine vSAN-Komponente fälschlicherweise als ungültig markiert wird. Dieses Problem kann zu einer Ansammlung von Protokollen und somit zu Überlastung führen.

        • Aufgrund einer unzureichenden Ressourcenpoolzuteilung schlagen einige an den SFCBD berichtende Dienste, wie z. B. sfcb-vmware_base und sfcb-vmw, möglicherweise fehl und generieren zdump. In der syslog.log-Datei werden Fehlermeldungen wie die folgenden angezeigt:
          sfcb-vmware_base[2110110]: tool_mm_realloc_or_die: memory re-allocation failed(orig=364000 new=364800 msg=Cannot allocate memory, aborting
          sfcb-vmw_ipmi[2291550]: tool_mm_realloc_or_die: memory re-allocation failed(orig=909200 new=909600 msg=Cannot allocate memory, aborting

        • Wenn es sich bei der Zielrichtlinie um RAID 1, StripeWidth 1 handelt und ein vSAN-Cluster nur noch wenige vorübergehende Kapazitäten aufweist, konfiguriert der Cluster Level Object Manager möglicherweise weiterhin denselben Teil von Objekten neu, der größer als 8 TB ist. Infolgedessen verbleiben diese Objekte im nicht übereinstimmenden Zustand, und möglicherweise werden einige unnötige Neusynchronisierungsvorgänge angezeigt.

        • In VMware Aria Operations for Logs (vormals vRealize Log Insight) wird möglicherweise eine große Anzahl von Protokollen angezeigt, die von Storage I/O Control generiert werden, z. B. Ungültiger Wert für Freigaben: 0. Standard wird verwendet. und Gerät naa.xxxx wird entweder aufgrund eines VSI-Lesefehlers oder eines abnormalen Status übersprungen. Das Protokollvolumen variiert je nach der Anzahl der ESXi-Hosts in einem Cluster und der Anzahl der Geräte im ausgeschalteten Zustand. Wenn das Problem auftritt, wird das Protokollvolume schnell (innerhalb von 24 Stunden) generiert, und VMware Aria Operations for Logs stuft die Meldungen möglicherweise als kritisch ein. Diese Protokolle sind jedoch unbedenklich und wirken sich nicht auf die Vorgänge auf anderen Online-Datenspeichern aus.

        • Wenn die Liste der Speichersensoren eines ESXi-Hosts leer ist, wird der von der Intelligent Platform Management Interface (IPMI) gemeldete CPU-Status möglicherweise zurückgesetzt. Dies führt dazu, dass der Sensordatensatz mit Element ID 3, dem Status des Prozessors, fälschlicherweise als Über aktuellen Status des physischen Elements kann nicht berichtet werden im MOB angezeigt wird.

        • In Stretched Clustern stellt vSAN jedes VMDK-Objekt mit einem bestimmten Format bereit. Wenn Sie die Richtlinie eines VMDK-Objekts von hostFailuresToTolerate=0 in hostFailuresToTolerate=1 ändern, ändert sich das Format möglicherweise so, dass Lesevorgänge den Site-übergreifenden (AZ-übergreifenden) Link durchlaufen. Dies führt dazu, dass in diesen Objekten eine höhere Leselatenz angezeigt wird.

        • Wenn Sie im vSphere Client eine virtuelle Maschine erstellen oder neu konfigurieren, werden dieselben Optionen im Dropdown-Menü unter SCSI-Controller > Gemeinsame Verwendung des SCSI-Busses möglicherweise doppelt angezeigt. Auf Workflows zum Erstellen oder Konfigurieren der VM hat das Problem keine Auswirkungen.

        • Nach einem Migrationsvorgang fallen virtuelle Maschinen mit Windows 10 unter Umständen aus, wobei ein blauer Diagnosebildschirm angezeigt wird und in einer Fehlermeldung wie der folgenden eine falsche Microcoderevision gemeldet wird: – MICROCODE_REVISION_MISMATCH (17e). Das Problem tritt auf, wenn während des Migrationsvorgangs ein Scan der CPUs durchgeführt wird und die Firmware der Quell-CPUs nicht mit der Firmware der Ziel-CPUs übereinstimmt.

        • In bestimmten Fällen schlägt das Löschen des Caches von Objekten in einem Datenspeichervolume auf ESXi-Hosts fehl, Objekte verbleiben im Cache und führen dazu, dass nicht genügend Arbeitsspeicher vorhanden ist. Dies kommt beispielsweise vor, wenn die Verbindung mit dem zugrunde liegenden Gerät des Volumes unterbrochen wird. Folglich reagiert der ESXi-Host nicht mehr. In den Protokollen werden Fehler angezeigt, wie z. B.:
          Erneute Verbindung mit xxxxx nicht möglich] oder Fehler beim Bereinigen von VMFS-Taktsignal auf Volume xxxxx: Keine Verbindung. oder
          Das Volume auf dem Gerät xxxxx ist gesperrt, möglicherweise weil während eines Volume-Vorgangs ein nicht behebbarer Fehler auf einem Remotehost aufgetreten ist.

        • Bestimmte Workflows wie Sicherungsvorgänge von ESXi-Hosts können eine große Anzahl von Dateien öffnen, was wiederum zu einer Auslastung des Objekt-Caches führen kann. In solchen Fällen kann es vorkommen, dass der hostd-Dienst fehlschlägt, virtuelle Maschinen heruntergefahren werden oder die VM in einen ungültigen Zustand versetzt wird, der ihr Einschalten verhindert. In den Protokollen werden Warnungen angezeigt, wie z. B. Es konnte kein Arbeitsspeicher zugeteilt werden.

        • In Überwachen > Skyline Health > Dateidienst > Integrität des Dateiservers wird möglicherweise die Fehlermeldung Dateiserver wird (neu) gestartet angezeigt.
          Das Problem wird durch eine Cache-Überlauffunktion verursacht, die zu einem Ausfall des VDFS-Daemons führt. In der Datei /var/run/log/vdfsd-server.log in einem betroffenen ESXi-Host werden Meldungen wie NOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp angezeigt.

        • Wenn Sie im vSphere Client die Richtlinie einer eingeschalteten VM mit einem IDE-Controller ändern, wird möglicherweise folgender Fehler angezeigt: Der versuchte Vorgang kann im aktuellen Zustand (Eingeschaltet) nicht durchgeführt werden.

        • Das Mounten des HCI Mesh-Clusters schlägt möglicherweise fehl, wenn Sie vSAN erneut aktivieren, nachdem Sie vSAN mit Verschlüsselung in Übertragung begriffener Daten deaktiviert haben.

        • Wenn für vSAN verwendete NVMe-Laufwerke über eine doppelte PCI-ID verfügen und Sie den vSAN-Integritätsdienst auf vCenter Server neu starten, fehlt die Hardwarekompatibilitätsgruppe aus vSAN Skyline Health.

        • Wenn zwei NICs, die den Treiber ntg3 der Version 4.1.3 und höher verwenden, direkt und nicht mit einem physischen Switch-Port verbunden sind, kann Link Flapping auftreten. Das Problem tritt nicht bei ntg3-Treibern mit Versionen vor 4.1.3 oder dem tg3-Treiber auf. Dieses Problem steht nicht im Zusammenhang mit dem gelegentlich auftretenden Energy Efficient Ethernet (EEE) Link Flapping bei solchen NICs. Die Lösung für das EEE-Problem besteht darin, einen ntg3-Treiber der Version 4.1.7 oder höher zu verwenden oder EEE an physischen Switch-Ports zu deaktivieren.

        • Der TPM 2.0-Nachweis auf Lenovo-Servern gibt den TPM-Fehlercode zurück: TSS2_SYS_RC_INSUFFICIENT_BUFFER.

      ESXi-7.0U3si-20841705-standard
      Profilname ESXi-7.0U3si-20841705-standard
      Build Build-Informationen finden Sie unter In dieser Version enthaltene Patches.
      Anbieter VMware, Inc.
      Datum der Veröffentlichung 8. Dezember 2022
      Akzeptanzebene PartnerSupported
      Betroffene Hardware Nicht verfügbar
      Betroffene Software Nicht verfügbar
      Betroffene VIBs
      • VMware_bootbank_esx-base_7.0.3-0.60.20841705
      • VMware_bootbank_trx_7.0.3-0.60.20841705
      • VMware_bootbank_vsanhealth_7.0.3-0.60.20841705
      • VMware_bootbank_cpu-microcode_7.0.3-0.60.20841705
      • VMware_bootbank_crx_7.0.3-0.60.20841705
      • VMware_bootbank_vsan_7.0.3-0.60.20841705
      • VMware_bootbank_native-misc-drivers_7.0.3-0.60.20841705
      • VMware_bootbank_esx-xserver_7.0.3-0.60.20841705
      • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.60.20841705
      • VMware_bootbank_gc_7.0.3-0.60.20841705
      • VMware_bootbank_esx-ui_2.1.1-20188605
      • VMware_bootbank_vdfs_7.0.3-0.60.20841705
      • VMware_bootbank_bmcal_7.0.3-0.60.20841705
      • VMware_bootbank_esxio-combiner_7.0.3-0.60.20841705
      • VMware_bootbank_loadesx_7.0.3-0.60.20841705
      • VMware_bootbank_esx-update_7.0.3-0.60.20841705
      • VMware_locker_tools-light_12.1.0.20219665-20841705
      Behobene Probleme 2993721, 3007957, 3007958, 3015560, 3034286, 3038621, 3030691, 3015499
      Verwandte CVE-Nummern CVE-2020-28196, CVE-2022-31696, CVE-2022-31699
      • Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
        • Das VIB „cpu-microcode“ enthält den folgenden Intel-Microcode:
          Codename FMS PLT-ID MCU-Rev. MCU-Datum Markennamen
          Nehalem EP 0x106a5 (06/1a/5) 0x03 0x0000001d 5/11/2018 Intel Xeon 35xx-Reihe;
          Intel Xeon 55xx-Reihe
          Clarkdale 0x20652 (06/25/2) 0x12 0x00000011 5/8/2018 Intel i3/i5 Clarkdale-Reihe;
          Intel Xeon 34xx Clarkdale-Reihe
          Arrandale 0x20655 (06/25/5) 0x92 0x00000007 4/23/2018 Intel Core i7-620LE-Prozessor
          Sandy Bridge DT 0x206a7 (06/2a/7) 0x12 0x0000002f 2/17/2019 Intel Xeon E3-1100-Reihe;
          Intel Xeon E3-1200-Reihe;
          Intel i7-2655-LE-Reihe;
          Intel i3-2100-Reihe
          Westmere EP 0x206c2 (06/2c/2) 0x03 0x0000001f 5/8/2018 Intel Xeon 56xx-Reihe;
          Intel Xeon 36xx-Reihe
          Sandy Bridge EP 0x206d6 (06/2d/6) 0x6d 0x00000621 3/4/2020 Intel Pentium 1400-Reihe;
          Intel Xeon E5-1400-Reihe;
          Intel Xeon E5-1600-Reihe;
          Intel Xeon E5-2400-Reihe;
          Intel Xeon E5-2600-Reihe;
          Intel Xeon E5-4600-Reihe
          Sandy Bridge EP 0x206d7 (06/2d/7) 0x6d 0x0000071a 3/24/2020 Intel Pentium 1400-Reihe;
          Intel Xeon E5-1400-Reihe;
          Intel Xeon E5-1600-Reihe;
          Intel Xeon E5-2400-Reihe;
          Intel Xeon E5-2600-Reihe;
          Intel Xeon E5-4600-Reihe
          Nehalem EX 0x206e6 (06/2e/6) 0x04 0x0000000d 5/15/2018 Intel Xeon 65xx-Reihe;
          Intel Xeon 75xx-Reihe
          Westmere EX 0x206f2 (06/2f/2) 0x05 0x0000003b 5/16/2018 Intel Xeon E7-8800-Reihe;
          Intel Xeon E7-4800-Reihe;
          Intel Xeon E7-2800-Reihe
          Ivy Bridge DT 0x306a9 (06/3a/9) 0x12 0x00000021 2/13/2019 Intel i3-3200-Reihe;
          Intel i7-3500-LE/UE;
          Intel i7-3600-QE;
          Intel Xeon E3-1200-v2-Reihe;
          Intel Xeon E3-1100-C-v2-Reihe;
          Intel Pentium B925C
          Haswell DT 0x306c3 (06/3c/3) 0x32 0x00000028 11/12/2019 Intel Xeon E3-1200-v3-Reihe;
          Intel i7-4700-EQ-Reihe;
          Intel i5-4500-TE-Reihe;
          Intel i3-4300-Reihe
          Ivy Bridge EP 0x306e4 (06/3e/4) 0xed 0x0000042e 3/14/2019 Intel Xeon E5-4600-v2-Reihe;
          Intel Xeon E5-2600-v2-Reihe;
          Intel Xeon E5-2400-v2-Reihe;
          Intel Xeon E5-1600-v2-Reihe;
          Intel Xeon E5-1400-v2-Reihe
          Ivy Bridge EX 0x306e7 (06/3e/7) 0xed 0x00000715 3/14/2019 Intel Xeon E7-8800/4800/2800-v2-Reihe
          Haswell EP 0x306f2 (06/3f/2) 0x6f 0x00000049 8/11/2021 Intel Xeon E5-4600-v3-Reihe;
          Intel Xeon E5-2600-v3-Reihe;
          Intel Xeon E5-2400-v3-Reihe;
          Intel Xeon E5-1600-v3-Reihe;
          Intel Xeon E5-1400-v3-Reihe
          Haswell EX 0x306f4 (06/3f/4) 0x80 0x0000001a 5/24/2021 Intel Xeon E7-8800/4800-v3-Serie
          Broadwell H 0x40671 (06/47/1) 0x22 0x00000022 11/12/2019 Intel Core i7-5700EQ;
          Intel Xeon E3-1200-v4-Reihe
          Avoton 0x406d8 (06/4d/8) 0x01 0x0000012d 16.09.2019 Intel Atom C2300-Reihe;
          Intel Atom C2500-Reihe;
          Intel Atom C2700-Reihe
          Broadwell EP/EX 0x406f1 (06/4f/1) 0xef 0x0b000040 5/19/2021 Intel Xeon E7-8800/4800-v4-Reihe;
          Intel Xeon E5-4600-v4-Reihe;
          Intel Xeon E5-2600-v4-Reihe;
          Intel Xeon E5-1600-v4-Reihe
          Skylake SP 0x50654 (06/55/4) 0xb7 0x02006e05 3/8/2022 Intel Xeon Platinum 8100-Reihe;
          Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe;
          Intel Xeon D-2100-Reihe;
          Intel Xeon D-1600-Reihe;
          Intel Xeon W-3100-Reihe;
          Intel Xeon W-2100-Reihe
          Cascade Lake B-0 0x50656 (06/55/6) 0xbf 0x04003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
          Intel Xeon Gold 6200/5200;
          Intel Xeon Silver 4200/Bronze 3200;
          Intel Xeon W-3200
          Cascade Lake 0x50657 (06/55/7) 0xbf 0x05003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
          Intel Xeon Gold 6200/5200;
          Intel Xeon Silver 4200/Bronze 3200;
          Intel Xeon W-3200
          Cooper Lake 0x5065b (06/55/b) 0xbf 0x07002501 11/19/2021 Intel Xeon Platinum 8300-Reihe;
          Intel Xeon Gold 6300/5300
          Broadwell DE 0x50662 (06/56/2) 0x10 0x0000001c 17.06.2019 Intel Xeon D-1500-Reihe
          Broadwell DE 0x50663 (06/56/3) 0x10 0x0700001c 6/12/2021 Intel Xeon D-1500-Reihe
          Broadwell DE 0x50664 (06/56/4) 0x10 0x0f00001a 6/12/2021 Intel Xeon D-1500-Reihe
          Broadwell NS 0x50665 (06/56/5) 0x10 0x0e000014 9/18/2021 Intel Xeon D-1600-Reihe
          Skylake H/S 0x506e3 (06/5e/3) 0x36 0x000000f0 11/12/2021 Intel Xeon E3-1500-v5-Reihe;
          Intel Xeon E3-1200-v5-Reihe
          Denverton 0x506f1 (06/5f/1) 0x01 0x00000038 12/2/2021 Intel Atom C3000-Reihe
          Ice Lake SP 0x606a6 (06/6a/6) 0x87 0x0d000375 4/7/2022 Intel Xeon Silver 4300-Reihe;
          Intel Xeon Gold 6300/5300-Reihe;
          Intel Xeon Platinum 8300-Reihe
          Ice Lake D 0x606c1 (06/6c/1) 0x10 0x010001f0 6/24/2022 Intel Xeon D-Reihe
          Snow Ridge 0x80665 (06/86/5) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series
          Snow Ridge 0x80667 (06/86/7) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series
          Kaby Lake H/S/X 0x906e9 (06/9e/9) 0x2a 0x000000f0 11/12/2021 Intel Xeon E3-1200-v6-Reihe;
          Intel Xeon E3-1500-v6-Reihe
          Coffee Lake 0x906ea (06/9e/a) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe;
          Intel Xeon E-2200-Reihe (4 oder 6 Kerne)
          Coffee Lake 0x906eb (06/9e/b) 0x02 0x000000f0 11/12/2021 Intel Xeon E-2100-Reihe
          Coffee Lake 0x906ec (06/9e/c) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe
          Coffee Lake Refresh 0x906ed (06/9e/d) 0x22 0x000000f4 7/31/2022 Intel Xeon E-2200-Reihe (8 Kerne)
          Rocket Lake S 0xa0671 (06/a7/1) 0x02 0x00000056 8/2/2022 Intel Xeon E-2300-Reihe
        • ESXi 7.0 Update 3i stellt die folgenden Sicherheits-Updates bereit:
          • OpenSSL wird auf Version 1.0.2zf aktualisiert.
          • Apache Thrift wurde auf Version 0.15.0 aktualisiert.
          • Der urllib3-Client wird auf Version 1.26.5 aktualisiert.
          • cURL wurde auf Version 7.84.0 aktualisiert.
          • Die SQLite-Datenbank wird auf Version 3.39.2 aktualisiert.
          • Der XML-Parser Expat wurde auf Version 2.4.9 aktualisiert.
        • In dieser Version werden die Schwachstellen CVE-2022-31696 und CVE-2022-31699 behoben. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware Produkte finden Sie unter VMSA-2022-0030.

        • Die folgenden ISO-Images von VMware Tools werden mit ESXi 7.0 Update 3i gebündelt:
          • windows.iso: VMware Tools 12.1.0 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.
          • linux.iso: VMware Tools 10.3.25-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.

          Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:

          • VMware Tools 11.0.6:
            • windows.iso: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
               
          • VMware Tools 10.0.12:
            • winPreVista.iso: für Windows 2000, Windows XP und Windows 2003.
            • linuxPreGLibc25.iso: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
               
            solaris.iso: VMware Tools-Image 10.3.10 für Solaris.
          • darwin.iso: Unterstützt Mac OS X-Versionen 10.11 und höher.

          Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:

      ESXi-7.0U3si-20841705-no-tools
      Profilname ESXi-7.0U3si-20841705-no-tools
      Build Build-Informationen finden Sie unter In dieser Version enthaltene Patches.
      Anbieter VMware, Inc.
      Datum der Veröffentlichung 8. Dezember 2022
      Akzeptanzebene PartnerSupported
      Betroffene Hardware Nicht verfügbar
      Betroffene Software Nicht verfügbar
      Betroffene VIBs
      • VMware_bootbank_esx-base_7.0.3-0.60.20841705
      • VMware_bootbank_trx_7.0.3-0.60.20841705
      • VMware_bootbank_vsanhealth_7.0.3-0.60.20841705
      • VMware_bootbank_cpu-microcode_7.0.3-0.60.20841705
      • VMware_bootbank_crx_7.0.3-0.60.20841705
      • VMware_bootbank_vsan_7.0.3-0.60.20841705
      • VMware_bootbank_native-misc-drivers_7.0.3-0.60.20841705
      • VMware_bootbank_esx-xserver_7.0.3-0.60.20841705
      • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.60.20841705
      • VMware_bootbank_gc_7.0.3-0.60.20841705
      • VMware_bootbank_esx-ui_2.1.1-20188605
      • VMware_bootbank_vdfs_7.0.3-0.60.20841705
      • VMware_bootbank_bmcal_7.0.3-0.60.20841705
      • VMware_bootbank_esxio-combiner_7.0.3-0.60.20841705
      • VMware_bootbank_loadesx_7.0.3-0.60.20841705
      • VMware_bootbank_esx-update_7.0.3-0.60.20841705
      Behobene Probleme 2993721, 3007957, 3007958, 3015560, 3034286, 3038621, 3030691
      Verwandte CVE-Nummern CVE-2020-28196, CVE-2022-31696, CVE-2022-31699
      • Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
        • Das VIB „cpu-microcode“ enthält den folgenden Intel-Microcode:
          Codename FMS PLT-ID MCU-Rev. MCU-Datum Markennamen
          Nehalem EP 0x106a5 (06/1a/5) 0x03 0x0000001d 5/11/2018 Intel Xeon 35xx-Reihe;
          Intel Xeon 55xx-Reihe
          Clarkdale 0x20652 (06/25/2) 0x12 0x00000011 5/8/2018 Intel i3/i5 Clarkdale-Reihe;
          Intel Xeon 34xx Clarkdale-Reihe
          Arrandale 0x20655 (06/25/5) 0x92 0x00000007 4/23/2018 Intel Core i7-620LE-Prozessor
          Sandy Bridge DT 0x206a7 (06/2a/7) 0x12 0x0000002f 2/17/2019 Intel Xeon E3-1100-Reihe;
          Intel Xeon E3-1200-Reihe;
          Intel i7-2655-LE-Reihe;
          Intel i3-2100-Reihe
          Westmere EP 0x206c2 (06/2c/2) 0x03 0x0000001f 5/8/2018 Intel Xeon 56xx-Reihe;
          Intel Xeon 36xx-Reihe
          Sandy Bridge EP 0x206d6 (06/2d/6) 0x6d 0x00000621 3/4/2020 Intel Pentium 1400-Reihe;
          Intel Xeon E5-1400-Reihe;
          Intel Xeon E5-1600-Reihe;
          Intel Xeon E5-2400-Reihe;
          Intel Xeon E5-2600-Reihe;
          Intel Xeon E5-4600-Reihe
          Sandy Bridge EP 0x206d7 (06/2d/7) 0x6d 0x0000071a 3/24/2020 Intel Pentium 1400-Reihe;
          Intel Xeon E5-1400-Reihe;
          Intel Xeon E5-1600-Reihe;
          Intel Xeon E5-2400-Reihe;
          Intel Xeon E5-2600-Reihe;
          Intel Xeon E5-4600-Reihe
          Nehalem EX 0x206e6 (06/2e/6) 0x04 0x0000000d 5/15/2018 Intel Xeon 65xx-Reihe;
          Intel Xeon 75xx-Reihe
          Westmere EX 0x206f2 (06/2f/2) 0x05 0x0000003b 5/16/2018 Intel Xeon E7-8800-Reihe;
          Intel Xeon E7-4800-Reihe;
          Intel Xeon E7-2800-Reihe
          Ivy Bridge DT 0x306a9 (06/3a/9) 0x12 0x00000021 2/13/2019 Intel i3-3200-Reihe;
          Intel i7-3500-LE/UE;
          Intel i7-3600-QE;
          Intel Xeon E3-1200-v2-Reihe;
          Intel Xeon E3-1100-C-v2-Reihe;
          Intel Pentium B925C
          Haswell DT 0x306c3 (06/3c/3) 0x32 0x00000028 11/12/2019 Intel Xeon E3-1200-v3-Reihe;
          Intel i7-4700-EQ-Reihe;
          Intel i5-4500-TE-Reihe;
          Intel i3-4300-Reihe
          Ivy Bridge EP 0x306e4 (06/3e/4) 0xed 0x0000042e 3/14/2019 Intel Xeon E5-4600-v2-Reihe;
          Intel Xeon E5-2600-v2-Reihe;
          Intel Xeon E5-2400-v2-Reihe;
          Intel Xeon E5-1600-v2-Reihe;
          Intel Xeon E5-1400-v2-Reihe
          Ivy Bridge EX 0x306e7 (06/3e/7) 0xed 0x00000715 3/14/2019 Intel Xeon E7-8800/4800/2800-v2-Reihe
          Haswell EP 0x306f2 (06/3f/2) 0x6f 0x00000049 8/11/2021 Intel Xeon E5-4600-v3-Reihe;
          Intel Xeon E5-2600-v3-Reihe;
          Intel Xeon E5-2400-v3-Reihe;
          Intel Xeon E5-1600-v3-Reihe;
          Intel Xeon E5-1400-v3-Reihe
          Haswell EX 0x306f4 (06/3f/4) 0x80 0x0000001a 5/24/2021 Intel Xeon E7-8800/4800-v3-Serie
          Broadwell H 0x40671 (06/47/1) 0x22 0x00000022 11/12/2019 Intel Core i7-5700EQ;
          Intel Xeon E3-1200-v4-Reihe
          Avoton 0x406d8 (06/4d/8) 0x01 0x0000012d 16.09.2019 Intel Atom C2300-Reihe;
          Intel Atom C2500-Reihe;
          Intel Atom C2700-Reihe
          Broadwell EP/EX 0x406f1 (06/4f/1) 0xef 0x0b000040 5/19/2021 Intel Xeon E7-8800/4800-v4-Reihe;
          Intel Xeon E5-4600-v4-Reihe;
          Intel Xeon E5-2600-v4-Reihe;
          Intel Xeon E5-1600-v4-Reihe
          Skylake SP 0x50654 (06/55/4) 0xb7 0x02006e05 3/8/2022 Intel Xeon Platinum 8100-Reihe;
          Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe;
          Intel Xeon D-2100-Reihe;
          Intel Xeon D-1600-Reihe;
          Intel Xeon W-3100-Reihe;
          Intel Xeon W-2100-Reihe
          Cascade Lake B-0 0x50656 (06/55/6) 0xbf 0x04003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
          Intel Xeon Gold 6200/5200;
          Intel Xeon Silver 4200/Bronze 3200;
          Intel Xeon W-3200
          Cascade Lake 0x50657 (06/55/7) 0xbf 0x05003302 12/10/2021 Intel Xeon Platinum 9200/8200-Reihe;
          Intel Xeon Gold 6200/5200;
          Intel Xeon Silver 4200/Bronze 3200;
          Intel Xeon W-3200
          Cooper Lake 0x5065b (06/55/b) 0xbf 0x07002501 11/19/2021 Intel Xeon Platinum 8300-Reihe;
          Intel Xeon Gold 6300/5300
          Broadwell DE 0x50662 (06/56/2) 0x10 0x0000001c 17.06.2019 Intel Xeon D-1500-Reihe
          Broadwell DE 0x50663 (06/56/3) 0x10 0x0700001c 6/12/2021 Intel Xeon D-1500-Reihe
          Broadwell DE 0x50664 (06/56/4) 0x10 0x0f00001a 6/12/2021 Intel Xeon D-1500-Reihe
          Broadwell NS 0x50665 (06/56/5) 0x10 0x0e000014 9/18/2021 Intel Xeon D-1600-Reihe
          Skylake H/S 0x506e3 (06/5e/3) 0x36 0x000000f0 11/12/2021 Intel Xeon E3-1500-v5-Reihe;
          Intel Xeon E3-1200-v5-Reihe
          Denverton 0x506f1 (06/5f/1) 0x01 0x00000038 12/2/2021 Intel Atom C3000-Reihe
          Ice Lake SP 0x606a6 (06/6a/6) 0x87 0x0d000375 4/7/2022 Intel Xeon Silver 4300-Reihe;
          Intel Xeon Gold 6300/5300-Reihe;
          Intel Xeon Platinum 8300-Reihe
          Ice Lake D 0x606c1 (06/6c/1) 0x10 0x010001f0 6/24/2022 Intel Xeon D-Reihe
          Snow Ridge 0x80665 (06/86/5) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series
          Snow Ridge 0x80667 (06/86/7) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series
          Kaby Lake H/S/X 0x906e9 (06/9e/9) 0x2a 0x000000f0 11/12/2021 Intel Xeon E3-1200-v6-Reihe;
          Intel Xeon E3-1500-v6-Reihe
          Coffee Lake 0x906ea (06/9e/a) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe;
          Intel Xeon E-2200-Reihe (4 oder 6 Kerne)
          Coffee Lake 0x906eb (06/9e/b) 0x02 0x000000f0 11/12/2021 Intel Xeon E-2100-Reihe
          Coffee Lake 0x906ec (06/9e/c) 0x22 0x000000f0 11/15/2021 Intel Xeon E-2100-Reihe
          Coffee Lake Refresh 0x906ed (06/9e/d) 0x22 0x000000f4 7/31/2022 Intel Xeon E-2200-Reihe (8 Kerne)
          Rocket Lake S 0xa0671 (06/a7/1) 0x02 0x00000056 8/2/2022 Intel Xeon E-2300-Reihe
        • ESXi 7.0 Update 3i stellt die folgenden Sicherheits-Updates bereit:
          • OpenSSL wird auf Version 1.0.2zf aktualisiert.
          • Apache Thrift wurde auf Version 0.15.0 aktualisiert.
          • Der urllib3-Client wird auf Version 1.26.5 aktualisiert.
          • cURL wurde auf Version 7.84.0 aktualisiert.
          • Die SQLite-Datenbank wird auf Version 3.39.2 aktualisiert.
          • Der XML-Parser Expat wurde auf Version 2.4.9 aktualisiert.
        • In dieser Version werden die Schwachstellen CVE-2022-31696 und CVE-2022-31699 behoben. Weitere Informationen zu diesen Schwachstellen und deren Auswirkungen auf VMware Produkte finden Sie unter VMSA-2022-0030.

        • Die folgenden ISO-Images von VMware Tools werden mit ESXi 7.0 Update 3i gebündelt:
          • windows.iso: VMware Tools 12.1.0 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.
          • linux.iso: VMware Tools 10.3.25-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.

          Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:

          • VMware Tools 11.0.6:
            • windows.iso: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
               
          • VMware Tools 10.0.12:
            • winPreVista.iso: für Windows 2000, Windows XP und Windows 2003.
            • linuxPreGLibc25.iso: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
               
            solaris.iso: VMware Tools-Image 10.3.10 für Solaris.
          • darwin.iso: Unterstützt Mac OS X-Versionen 10.11 und höher.

          Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:

      ESXi_7.0.3-0.65.20842708
      Name ESXi
      Version ESXi_7.0.3-0.65.20842708
      Datum der Veröffentlichung 8. Dezember 2022
      Kategorie Fehlerkorrektur
      Betroffene Komponenten
      • ESXi-Komponente - ESXi-Kern-VIBs
      • ESXi-Komponente „Installieren/Aktualisieren“
      • Broadcom NetXtreme I ESX VMKAPI-Ethernet-Treiber
      Behobene Probleme   
      Verwandte CVE-Nummern Nicht verfügbar
        ESXi_7.0.3-0.60.20841705
        Name ESXi
        Version ESXi_7.0.3-0.60.20841705
        Datum der Veröffentlichung 8. Dezember 2022
        Kategorie Sicherheit
        Betroffene Komponenten
        • ESXi-Komponente - ESXi-Kern-VIBs
        • ESXi-Komponente „Installieren/Aktualisieren“
        • ESXi Tools-Komponente
        Behobene Probleme   
        Verwandte CVE-Nummern Nicht verfügbar

          Bekannte Probleme

          Die bekannten Probleme gliedern sich in folgende Gruppen.

          Installations-, Upgrade- und Migrationsprobleme
          • Die vlanid-Eigenschaft in benutzerdefinierten Installationsskripts funktioniert möglicherweise nicht

            Wenn Sie ein benutzerdefiniertes Installationsskript verwenden, das die vlanid-Eigenschaft zum Festlegen eines gewünschten VLANs festlegt, wird die Eigenschaft möglicherweise auf neu installierten ESXi-Hosts nicht wirksam. Das Problem tritt nur auf, wenn eine physische Netzwerkkarte beim Starten der Installation bereits mit DHCP verbunden ist. Die vlanid-Eigenschaft funktioniert ordnungsgemäß, wenn Sie eine neu verbundene Netzwerkkarte (NIC) verwenden.

            Problemumgehung: Stellen Sie das VLAN manuell über die Benutzerschnittstelle der direkten Konsole (Direct Console User Interface, DCUI) ein, nachdem Sie den ESXi-Host gestartet haben. Deaktivieren Sie alternativ die physische Netzwerkkarte (NIC) und starten Sie den Host.

          • HPE-Server mit Trusted Platform Module (TPM) werden gestartet, aber der Remote-Nachweis schlägt fehl

            Einige HPE-Server verfügen nicht über genügend Ereignisprotokollspeicher, um den TPM-Remote-Nachweis ordnungsgemäß abzuschließen. Folglich wird der VMkernel zwar gestartet, aber der Remote-Nachweis schlägt aufgrund des abgeschnittenen Protokolls fehl.

            Problemumgehung: Keine.

          Bekannte Probleme aus vorherigen Versionen

          Um eine Liste früherer bekannter Probleme anzuzeigen, klicken Sie hier.

          check-circle-line exclamation-circle-line close-line
          Scroll to top icon