ESXi 8.0b | 14. Februar 2023 | Build 21203435 Überprüfen Sie, ob Erweiterungen und Updates für diese Versionshinweise zur Verfügung stehen. |
Diese Versionshinweise decken die folgenden Themen ab:
ESXi 8.0.b unterstützt vSphere Quick Boot auf folgenden Servern:
HPE:
ProLiant DL110 Gen10
ProLiant DL160 Gen10
ProLiant ML350 Gen10
Lenovo:
ThinkSystem SR 665
Neue Funktionen sowie die gelösten und bekannten Probleme von ESXi werden in den entsprechenden Versionshinweisen beschrieben. Versionshinweise zu vorherigen Versionen von ESXi 8.0:
Informationen zur Internationalisierung, Kompatibilität, Upgrade- und Produktunterstützung sowie zu Open Source-Komponenten finden Sie in den Versionshinweisen zu VMware vSphere 8.0.
In dieser Version von ESXi 8.0b werden die folgenden Patches bereitgestellt:
Build-Details
Download-Dateiname: | VMware-ESXi-8.0b-21203435-depot.zip |
Build: | 21203435 |
Download-Größe: | 993,8 MB |
md5sum: | 3311032dada17653a5b017b3f2f0d3e4 |
sha256checksum: | 94c4e8fddaf8da2b127ba891b82fefbad6d672e7ac160477a159f462de29c5b6 |
Neustart des Hosts erforderlich: | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich: | Ja |
Komponenten
Komponente | Bulletin | Kategorie | Schweregrad |
---|---|---|---|
ESXi-Komponente - ESXi-Kern-VIBs | ESXi_8.0.0-1.20.21203435 | Fehlerkorrektur | Kritisch |
ESXi-Komponente „Installieren/Aktualisieren“ | esx-update_8.0.0-1.20.21203435 esxio-update_8.0.0-1.20.21203435 |
Fehlerkorrektur | Kritisch |
Broadcom Emulex Connectivity Division lpfc-Treiber für FC-Adapter | Broadcom-ELX-lpfc_14.0.635.4-14vmw.800.1.20.21203435 | Fehlerkorrektur | Kritisch |
Mellanox-Netzwerkkarten der 5. Generation (ConnectX- und BlueField DPU-Reihe) – Ethernet- und RoCE-Kerntreiber für VMware ESXi | Mellanox-nmlx5_4.23.0.36-10.2vmw.800.1.20.21203435 | Fehlerkorrektur | Kritisch |
VMware DesignWare I2C-Treiber | VMware-dwi2c_0.1-7vmw.800.1.20.21203435 | Fehlerkorrektur | Kritisch |
Netzwerktreiber für Intel(R) X710/XL710/XXV710/X722-Adapter | Intel-i40en_1.11.2.6-1vmw.800.1.20.21203435 | Fehlerkorrektur | Kritisch |
Native Pensando Systems-Ethernet-Treiber | Pensando-ionic-en_20.0.0-30vmw.800.1.20.21203435 | Fehlerkorrektur | Kritisch |
ESXi-Komponente - ESXi-Kern-VIBs | ESXi_8.0.0-1.15.21203431 | Sicherheit | Kritisch |
ESXi-Komponente „Installieren/Aktualisieren“ | esx-update_8.0.0-1.15.21203431 esxio-update_8.0.0-1.15.21203431 |
Sicherheit | Kritisch |
ESXi Tools-Komponente | VMware-VM-Tools_12.1.5.20735119-21203431 | Sicherheit | Kritisch |
Rollup-Bulletin
Dieses Rollup-Bulletin enthält die neuesten VIBs mit allen Fixes nach der ersten Version von ESXi 8.0.
Bulletin-ID | Kategorie | Schweregrad | Details |
ESXi80b-21203435 | Fehlerkorrektur | Kritisch | Sicherheit und Fehlerbehebung |
ESXi80sb-21203431 | Sicherheit | Kritisch | Nur Sicherheit |
Image-Profile
Patch- und Updateversionen von VMware enthalten allgemeine und kritische Image-Profile. Die Anwendung des allgemeinen Image-Profils der Version gilt für die neuen Fehlerkorrekturen.
Name des Image-Profils |
ESXi-8.0b-21203435-standard |
ESXi-8.0b-21203435-no-tools |
ESXi-8.0sb-21203431-standard |
ESXi-8.0sb-21203431-no-tools |
ESXi-Image
Name und Version | Datum der Veröffentlichung | Kategorie | Detail |
---|---|---|---|
ESXi 8.0b - 21203435 | 14. Februar 2023 | Fehlerkorrektur | Image für Sicherheit und Fehlerbehebung |
ESXi 8.0sb – 21203431 | 14. Februar 2023 | Sicherheit | Image nur für Sicherheit |
Informationen zu den einzelnen Komponenten und Bulletins finden Sie auf der Seite Produkt-Patches und im Abschnitt Behobene Probleme.
Weitere Informationen zu Updates und Upgrades durch vSphere Lifecycle Manager finden Sie unter Info zu vSphere Lifecycle Manager sowie unter vSphere Lifecycle Manager-Baselines und -Images. Sie können ESXi-Hosts auch ohne vSphere Lifecycle Manager mithilfe eines Image-Profils aktualisieren. Dazu müssen Sie die ZIP-Datei des Patch-Offline-Pakets manuell von VMware Customer Connect herunterladen. Wählen Sie im Dropdown-Menü Produkt auswählen die Option ESXi (eingebettet und installierbar) und im Dropdown-Menü Version auswählen die Option 8.0. Weitere Informationen finden Sie unter Aktualisieren von Hosts mithilfe von ESXCLI-Befehlen und im Handbuch VMware ESXi-Upgrade.
Die behobenen Probleme werden in folgende Kategorien unterteilt.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3053428, 3051651, 3057027, 3035652, 3065063, 3051004, 3062043, 3070831, 3065990, 3065990, 3041101, 2988813, 3047637, 3044476, 3070865, 3078203, 3055341, 3081041, 3035652, 3051140, 3041537, 3050240, 3044476, 3051933, 3057524, 3048660, 3053504, 3026095, 3026096, 3064350, 3064715, 3058714, 3031741, 3064723, 3064425, 3055431, 3064226, 3027341, 3063928, 3064308, 3064605, 3053812, 3053705, 3050596, 3062043, 3050878, 3030641, 3031898, 3057619, 3064334, 3051004, 3047546, 3064068, 3064055, 3055374, 3064059, 3064063, 3064062, 3064054, 3064053, 3062062, 3064096, 3066138, 3065063, 3064848, 3068605, 3064060, 3034879, 3051651, 3081884, 3078334, 3073025, 3070865, 3073230, 3071612, 3070831, 3068028, 3071614, 3071981, 3072190, 3065990, 3081686, 3062907, 3055084, 3069024, 3069113, 3061447, 3065694 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs esx-xserver, gc-esxio, vdfs, esxio-combiner-esxio, native-misc-drivers-esxio, trx, esx-dvfilter-generic-fastpath, esxio-base, esxio-dvfilter-generic-fastpath, esxio, cpu-microcode, clusterstore, native-misc-drivers, esxio-combiner, gc, bmcal, esx-base, vsanhealth, vsan, drivervm-gpu, bmcal-esxio, esx-ui
und crx
, um die folgenden Fehler zu beheben:
PR 3053428: Auf der Benutzerschnittstelle der direkten Konsole (Direct Console User Interface, DCUI) werden keine Netzwerkadapter angezeigt
Bei Auswahl von Netzwerkadapter in der DCUI wird keine Ausgabe angezeigt, und die Netzwerkkonfiguration kann nicht geändert werden. In der Datei /var/log/syslog.log
wird ein Fehler ähnlich dem folgenden angezeigt: 2022-xx-xx:02:02.xxxx Er(11) DCUI[265583]: Fehler beim Scannen von dvswitches: Fehler beim Abrufen des dvs-Namens: Status(bad0001) = Fehler
Dieses Problem wurde in der vorliegenden Version behoben.
PR 3051651: Bei virtuellen Maschinen kann es zeitweise zu Soft-Sperren innerhalb des Gast-Kernels auf Intel-Maschinen kommen
Zur Verbesserung der Gesamtleistung des Systems unterstützt ESXi ab Version 7.0 Update 2 Posted Interrupts (PI) auf Intel-CPUs für PCI-Passthrough-Geräte. In bestimmten Fällen kann es zu einer Race-Bedingung zwischen PIs und der VMkernel-Planung kommen. In der Folge können auf virtuellen Maschinen, die mit PCI-Passthrough-Geräten mit normaler oder niedriger Latenzempfindlichkeit konfiguriert sind, Soft-Sperren auftreten.
Dieses Problem wurde in der vorliegenden Version behoben.
PR 3057027: Wenn Sie den Standardwert 1 in der Einstellung „NUMA-Knoten pro Socket (NPS)“ auf einem AMD EPYC 9004-Server (Genoa) ändern, wird unter Umständen eine falsche Anzahl an Sockets angezeigt
Im vSphere Client und ESXi Host Client wird möglicherweise eine falsche Anzahl an Sockets bzw. Kernen pro Socket angezeigt, wenn Sie die NPS-Einstellung auf einem AMD EPYC 9004-Server von der Standardeinstellung 1 oder Auto in einen anderen Wert wie 2 oder 4 ändern.
Dieses Problem wurde in der vorliegenden Version behoben.
PR 3035652: ESXi-Hosts schlagen möglicherweise mit einem violetten Diagnosebildschirm fehl, wenn eine VM mit der Einstellung „Physical“ (Physisch) für die gemeinsame Bus-Nutzung einen SCSI-2-Reservierungsbefehl ausgibt
Windows 2012 und höher verwendet die SCSI-3-Reservierung für die Ressourcenvermittlung, um Windows Failover Clustering (WSFC) auf ESXi für systemübergreifende Cluster-Konfigurationen (Cluster-across-box, CAB) zu unterstützen. Wenn Sie jedoch die Einstellung „Physical (Physisch)“ für die gemeinsame Busverwendung des SCSI-Controllers auf dieser VM konfigurieren, führt der Befehl SCSI RESERVE
dazu, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt. SCSI RESERVE
ist eine SCSI-2-Semantik und wird für WSFC-Cluster auf ESXi nicht unterstützt.
Dieses Problem wurde in der vorliegenden Version behoben.
PR 3065063: Virtuelle Maschinen reagieren unter Umständen langsamer oder vorübergehend überhaupt nicht, wenn vSphere DRS mehrere Migrationsvorgänge auslöst
In seltenen Fällen können mehrere gleichzeitig ausgeführte Vorgänge zum Öffnen und Schließen von Datenspeichern, beispielsweise beim Auslösen mehrerer Migrationsaufgaben durch vSphere DRS, dazu führen, dass bestimmte VMs langsamer oder vorübergehend überhaupt nicht reagieren. Das Problem tritt vorwiegend auf VMs auf, die über mehrere virtuelle Festplatten in verschiedenen Datenspeichern verfügen.
Dieses Problem wurde in der vorliegenden Version behoben.
PR 3051004: Unter Umständen werden falsche Werte für Anlage und Schweregrad in ESXi-Syslog-Protokollmeldungen angezeigt
Der Logger-Befehl bestimmter Logger-Clients gibt unter Umständen nicht den richtigen Anlagecode an den ESXi-Syslog-Daemon weiter und verursacht falsche Werte für Anlage und Schweregrad in ESXi-Syslog-Protokollmeldungen.
Dieses Problem wurde in der vorliegenden Version behoben.
PR 3062043: vSAN-Dateidienst kann nicht aktiviert werden, wenn ein isoliertes Zeugennetzwerk konfiguriert ist
Der vSAN-Dateidienst erfordert, dass Hosts miteinander kommunizieren. Der Dateidienst verwendet möglicherweise fälschlicherweise eine IP-Adresse im Zeugennetzwerk für die Interkommunikation. Wenn Sie ein isoliertes Zeugennetzwerk für vSAN konfiguriert haben, kann der Host über das Zeugennetzwerk mit einem Zeugenknoten kommunizieren, aber Hosts können über das Zeugennetzwerk nicht miteinander kommunizieren. Die Kommunikation zwischen Hosts für den vSAN-Dateidienst kann nicht hergestellt werden.
Dieses Problem wurde in der vorliegenden Version behoben.
PR 3070831: ESXi-Hosts schlagen nach einem Migrationsvorgang möglicherweise mit einem violetten Diagnosebildschirm fehl
Eine seltene Race-Bedingung, die durch die Rückgewinnung von Arbeitsspeicher für bestimmte Leistungsoptimierungsprozesse in vSphere vMotion verursacht wird, kann dazu führen, dass ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen.
Dieses Problem wurde in der vorliegenden Version behoben.
PR 3065990: Auf vSphere-Systemen mit mehr als 448 CPUs schlagen ESXi-Hosts beim Upgrade oder Neustart möglicherweise mit einem violetten Diagnosebildschirm fehl
In seltenen Fällen übersteigt die Berechnung der Arbeitsspeichernutzung auf vSphere-Systemen mit mehr als 448 CPUs den 32-Bit-Wert, der auf einen Wert aufgerundet wird, der kleiner ist als der erwartete zuzuteilende Wert. Dies kann dazu führen, dass ESXi-Hosts beim Upgrade oder Neustart mit einem violetten Diagnosebildschirm fehlschlagen.
Dieses Problem wurde in der vorliegenden Version behoben.
PR 3041101: Wenn TPM 2.0 mit TXT auf einem ESXi-Host aktiviert ist, schlagen Versuche, eine virtuelle Maschine einzuschalten, möglicherweise fehl
Wenn TXT auf einem ESX-Host aktiviert ist, schlagen Versuche, eine VM einzuschalten, möglicherweise mit einem Fehler fehl. Im vSphere Client wird folgende Meldung angezeigt: Dieser Host unterstützt Intel VT-x, aber Intel VT-x ist eingeschränkt. Intel VT-x ist möglicherweise eingeschränkt, weil „trusted excecution“ in den BIOS/Firmware-Einstellungen aktiviert wurde oder der Host nach dem Ändern dieser Einstellung nicht aus- und wieder eingeschaltet wurde
.
Dieses Problem wurde in der vorliegenden Version behoben.
PR 2988813: Wenn eine parallele Standardisierungsaufgabe fehlschlägt, wird nicht die richtige Anzahl an ESXi-Hosts angezeigt, die den Vorgang übergeben oder übersprungen haben
Mit vSphere 8.0 können Sie vSphere Lifecycle Manager aktivieren, um alle Hosts, die sich im Wartungsmodus befinden, parallel statt nacheinander zu standardisieren. Wenn jedoch eine parallele Standardisierungsaufgabe fehlschlägt, sehen Sie im vSphere Client möglicherweise nicht die richtige Anzahl an Hosts, die den Vorgang bestanden, nicht bestanden oder übersprungen haben, oder sehen überhaupt keine solche Anzahl. Das Problem wirkt sich nicht auf die vSphere Lifecycle Manager-Funktionalität aus, sondern nur auf die Berichterstellung im vSphere Client.
Dieses Problem wurde in der vorliegenden Version behoben.
PR 3047637: ESXi-Hosts schlagen während eines FSR-Vorgangs (Fast Suspend Resume) auf einer VM mit aktivierter transparenter gemeinsamer Seitennutzung (Transparent Page Sharing, TPS) möglicherweise mit einem violetten Diagnosebildschirm fehl
Aufgrund einer seltenen Race-Bedingung während eines FSR-Vorgangs (Fast Suspend Resume) auf einer VM mit gemeinsam genutzten Seiten zwischen VMs schlagen ESXi-Hosts möglicherweise mit einem violetten Diagnosebildschirm und einem Fehler wie PFrame_IsBackedByLPage
im Backtrace fehl.
Dieses Problem wurde in der vorliegenden Version behoben.
PR 3044476: Virtuelle Maschinen schlagen möglicherweise aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen mit einem von ESX nicht behebbaren Fehler fehl
Aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen schlägt eine virtuelle Maschine der Version ESX 8.0 möglicherweise mit ESX nicht behebbarer Fehler
fehl. In der Datei vmware.log
wird sinngemäß folgende Meldung angezeigt: MONITOR PANIC: vcpu-0:VMM fault 6: src=MONITOR ...
. Das Problem ist spezifisch für virtuelle Maschinen mit Hardwareversionen 12 oder früher.
Dieses Problem wurde in der vorliegenden Version behoben.
Bei ESXi-Hosts in vSAN-Clustern mit einer Version vor vSAN 6.2 können Upgrades auf ESXi 8.0 zu einem Verlust des VMkernel-Port-Taggings für vSAN führen. Folglich ist die vSAN-Netzwerkkonfiguration nach dem Upgrade nicht mehr vorhanden.
Dieses Problem wurde in der vorliegenden Version behoben. In früheren Versionen können Sie das Problem manuell beheben, indem Sie VMkernel-Datenverkehr für vSAN nach dem Upgrade auf dem ESXi-Host aktivieren.
In VMware Aria Operations for Logs (vormals vRealize Log Insight) wird möglicherweise eine große Anzahl von Protokollen angezeigt, die von Storage I/O Control generiert werden, z. B. Ungültiger Wert für Freigaben: 0. Standard wird verwendet
. und Gerät naa.xxxx wird entweder aufgrund eines VSI-Lesefehlers oder eines abnormalen Status übersprungen
. Das Protokollvolumen variiert je nach der Anzahl der ESXi-Hosts in einem Cluster und der Anzahl der Geräte im ausgeschalteten Zustand. Wenn das Problem auftritt, wird das Protokollvolume schnell (innerhalb von 24 Stunden) generiert, und VMware Aria Operations for Logs stuft die Meldungen möglicherweise als kritisch ein. Diese Protokolle sind jedoch unbedenklich und wirken sich nicht auf die Vorgänge auf anderen Online-Datenspeichern aus.
Dieses Problem wurde in der vorliegenden Version behoben. Der Fix verschiebt diese Protokolle von „Fehler“ zu „Ausführlich (erweitert)“, um eine irreführende Protokollierung zu verhindern.
Wenn Sie die erweiterte Option ToolsRamdisk
aktivieren, mit der sichergestellt wird, dass sich die /vmtools
-Partition immer auf einer RAM-Festplatte und nicht auf einer USB- oder SD-Karte befindet, wird der Inhalt der RAM-Festplatte durch Installation oder Aktualisierung des VIB tools-light
nicht automatisch aktualisiert. Stattdessen müssen Sie den Host neu starten, damit die RAM-Festplatte aktualisiert wird und die neue VM Tools-Version für die VMs zur Verfügung steht.
Dieses Problem wurde in der vorliegenden Version behoben. Mit dem Fix wird sichergestellt, dass VM Tools bei aktivierter ToolsRamdisk
-Option automatisch aktualisiert wird, ohne dass manuelle Schritte oder ein Neustart erforderlich sind.
Wenn Sie eine Datei mit einer Liste mit Bestandslistenobjekten wie VMs, Hosts und Datenspeicher exportieren, schlägt die Aufgabe mit dem Fehler Fehler beim Datenexport
fehl.
Dieses Problem wurde in der vorliegenden Version behoben.
Wenn das vSAN-Sock-Relais nicht über genügend Arbeitsspeicher verfügt, kann dies zu falschen Fehlern im vSAN-Dateidienst führen. Im vSAN-Integritätsdienst werden bei der Integritätsprüfung des Dateidiensts zahlreiche Fehler angezeigt. Folgender Eintrag wird in der Datei /var/run/log/sockrelay.log
angezeigt: Thread konnte nicht erstellt werden: Kein Speicherplatz frei auf Gerät
.
Dieses Problem wurde in der vorliegenden Version behoben.
Wenn die Netzwerk-Firewallregeln auf dem ESXi-Host aktualisiert werden, gehen vSAN-iSCSI-Firewallregeln unter Umständen verloren. Dieses Problem kann sich auf vSAN-iSCSI-Netzwerkverbindungen auswirken.
Dieses Problem wurde in der vorliegenden Version behoben.
Die Installation und das Upgrade von VMware NSX mithilfe des NSX Managers in einer vSphere-Umgebung mit DPUs auf ESXi 8.0-Hosts schlägt möglicherweise mit einem Fehler vom Typ Konfigurationszustand und einer Meldung ähnlich der folgenden fehl:Hostkonfiguration: Fehler beim Senden der HostConfig-Meldung. [TN=TransportNode/ce1dba65-7fa5-4a47-bf84-e897859fe0db]. Grund: Fehler beim Senden von HostConfig RPC an MPA TN:ce1dba65-7fa5-4a47-bf84-e897859fe0db. Fehler: Client ce1dba65-7fa5-4a47-bf84-e897859fe0db kann nicht erreicht werden, Anwendung SwitchingVertical. Vollsynchronisierung von LogicalSwitch: Abfrage der Vollsynchronisierung von LogicalSwitch übersprungen.
Dieses Problem tritt auf, weil eine DPU-Prüfung den ESXi 8.0-Host nach der Installation des NSX-Images auf der DPU am Neustart hindert.
Dieses Problem wurde in der vorliegenden Version behoben. Wenn Sie kein Update auf ESXi 8.0b durchführen, gehen Sie folgendermaßen vor:
VMware-ESXi-8.0a-20842819-depot.zip
hochAb ESXi 6.0 ist mClock der standardmäßige E/A-Scheduler für ESXi, aber einige Umgebungen verwenden möglicherweise weiterhin Legacy-Scheduler von ESXi-Versionen vor 6.0. Infolgedessen schlagen Upgrades dieser Hosts auf ESXi 7.0 Update 3 und höher möglicherweise mit einem violetten Diagnosebildschirm fehl.
Dieses Problem wurde in der vorliegenden Version behoben.
Nach dem Upgrade auf ESXi 8.0 kann eine vorhandene VM-Festplatte (VMDK) unter Umständen nicht mithilfe des VMware Host Client, der zum Herstellen einer Verbindung mit einzelnen ESXi-Hosts und deren Verwaltung verwendet wird, an eine VM angehängt werden. Das Problem wirkt sich nicht auf den vSphere Client aus.
Dieses Problem wurde in der vorliegenden Version behoben.
NVIDIA vGPU 15.0-Treiber unterstützen mehrere vGPU-Teilgeräte auf einer einzelnen VM. Für Nicht-SR-IOV-GPUs wie NVIDIA T4 ist dies jedoch nicht möglich.
Dieses Problem wurde in der vorliegenden Version behoben. Mit diesem Fix wird sichergestellt, dass mehrere vGPU-Geräte auf der gesamten unterstützten GPU-Hardware verwendet werden können.
Die Verschlüsselung in Übertragung begriffener Daten wird auf Clustern mit einer HCI Mesh-Konfiguration nicht unterstützt. Wenn Sie vSAN mit DIT-Verschlüsselung deaktivieren und vSAN dann ohne DIT-Verschlüsselung erneut aktivieren, wird der RDT-Zähler für die DIT-Verschlüsselung nicht ordnungsgemäß herabgesetzt. Wenn Sie HCI Mesh aktivieren, geht der RDT-Code davon aus, dass der Datenverkehr verschlüsselt werden muss. Der unverschlüsselte Datenverkehr wird unterbrochen, wodurch die Verbindung zum HCI Mesh-Datenspeicher verloren geht.
Dieses Problem wurde in der vorliegenden Version behoben.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3045268 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs loadesx
und esx-update
.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs esxio-update
und loadesxio
.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3059592, 3054305, 3048127, 3064828, 3060495 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs nmlx5-rdma
, nmlx5-rdma-esxio
, nmlx5-core-esxio
und nmlx5-core
zur Behebung des folgenden Problems:
Wenn die zugrunde liegende Hardware zulässt, dass Geräte eine TCP-Fensterskalierungsoption über 7 unterstützen, kann es in vSphere-Umgebungen mit Nvidia Bluefield 2-DPUs zu einer Verringerung des TCP-Durchsatzes kommen, da der Skalierungsgrenzwert für Nvidia Bluefield 2 auf 7 festgelegt ist.
Dieses Problem wurde in der vorliegenden Version behoben.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3057364 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs dwi2c-esxio
und dwi2c
.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3046937 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB i40en
.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3041427 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs ionic-en-esxio
und ionic-en
zur Behebung des folgenden Problems:
Pensando DSC-Adapter (Distributed Services Platform) bieten zwei Hochgeschwindigkeits-Ethernet-Controller (beispielsweise vmnic6
und vmnic7
) sowie einen Verwaltungscontroller (beispielsweise vmnic8
):
:~] esxcfg-nics -l
vmnic6 0000:39:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:48 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller
vmnic7 0000:3a:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:49 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller
:~] esxcfg-nics -lS
vmnic8 0000:3b:00.0 ionic_en_unstable Up 1000Mbps Full 00:ae:cd:09:c9:4a 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Management Controller
Die Hochgeschwindigkeits-Ethernet-Controller vmnic6
und vmnic7
werden zuerst registriert und mit RSS betrieben, das auf 16 Empfangswarteschlangen festgelegt ist.
:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=16, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }
Wenn sich der Verwaltungscontroller vmnic8
in seltenen Fällen jedoch zuerst beim vSphere Distributed Switch registriert, wird der Uplink des Hochgeschwindigkeits-Ethernet-Controllers vmnic6
oder vmnic7
unter Umständen mit RSS betrieben, das auf eine Empfangswarteschlange festgelegt ist.:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=1, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }
Infolgedessen kann es zu einer Leistungsbeeinträchtigung im nativen Modus kommen.
Dieses Problem wurde in der vorliegenden Version behoben.
Patch-Kategorie | Fehlerkorrektur |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3063528 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB lpfc
zur Behebung des folgenden Problems:
Auf Servern mit zahlreichen verbundenen Geräten können die Speicherabbilddateien für die Geräte den Gesamtgrenzwert überschreiten. Wenn Sie einen ESXi-Host neu starten oder den lpfc-Treiber entfernen, schlägt der Host möglicherweise mit einem violetten Diagnosebildschirm und einem Fehler vom Typ #PF exception vmk_DumpAddFileCallback()
fehl, der angibt, dass die Ressourcen der Speicherabbilddateien verbraucht sind.
Dieses Problem wurde in der vorliegenden Version behoben.
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3049562, 3049613, 3049619, 3049640, 3050030, 3050032, 3050037, 3050512, 3054127, 3068093, 3030692 |
CVE-Nummern | CVE-2020-28196 |
Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.
Aktualisiert die VIBs esx-ui, esx-xserver, cpu-microcode, trx, vsanhealth, esx-base, esx-dvfilter-generic-fastpath, gc, esxio-combiner, native-misc-drivers, bmcal, vsan, vdfs
und crx
zur Behebung des folgenden Problems:
In ESXi 8.0b werden die folgenden Sicherheits-Updates bereitgestellt:
Die SQLite-Datenbank wird auf Version 3.39.2 aktualisiert.
Die Python-Bibliothek wurde auf Version 3.8.15 aktualisiert.
OpenSSL wurde auf Version 3.0.7 aktualisiert.
Die libxml2-Bibliothek wurde auf Version 2.10.2 aktualisiert.
Der XML-Parser Expat wurde auf Version 2.5.0 aktualisiert.
Das lxml-XML-Toolkit wurde auf Version 4.5.2 aktualisiert.
cURL wurde auf Version 7.84 aktualisiert.
Die Go-Bibliothek wurde auf Version 1.18.6 aktualisiert.
Das tcpdump-Paket wurde auf Version 4.99.1 aktualisiert.
Das VIB „cpu-microcode“ enthält den folgenden Intel-Microcode:
Codename |
FMS |
PLT-ID |
MCU-Rev. |
MCU-Datum |
Markennamen |
---|---|---|---|---|---|
Nehalem EP |
0x106a5 (06/1a/5) |
0x03 |
0x0000001d |
5/11/2018 |
Intel Xeon 35xx-Reihe; Intel Xeon 55xx-Reihe |
Clarkdale |
0x20652 (06/25/2) |
0x12 |
0x00000011 |
5/8/2018 |
Intel i3/i5 Clarkdale-Reihe; Intel Xeon 34xx Clarkdale-Reihe |
Arrandale |
0x20655 (06/25/5) |
0x92 |
0x00000007 |
4/23/2018 |
Intel Core i7-620LE-Prozessor |
Sandy Bridge DT |
0x206a7 (06/2a/7) |
0x12 |
0x0000002f |
2/17/2019 |
Intel Xeon E3-1100-Reihe; Intel Xeon E3-1200-Reihe; Intel i7-2655-LE-Reihe; Intel i3-2100-Reihe |
Westmere EP |
0x206c2 (06/2c/2) |
0x03 |
0x0000001f |
5/8/2018 |
Intel Xeon 56xx-Reihe; Intel Xeon 36xx-Reihe |
Sandy Bridge EP |
0x206d6 (06/2d/6) |
0x6d |
0x00000621 |
3/4/2020 |
Intel Pentium 1400-Reihe; Intel Xeon E5-1400-Reihe; Intel Xeon E5-1600-Reihe; Intel Xeon E5-2400-Reihe; Intel Xeon E5-2600-Reihe; Intel Xeon E5-4600-Reihe |
Sandy Bridge EP |
0x206d7 (06/2d/7) |
0x6d |
0x0000071a |
3/24/2020 |
Intel Pentium 1400-Reihe; Intel Xeon E5-1400-Reihe; Intel Xeon E5-1600-Reihe; Intel Xeon E5-2400-Reihe; Intel Xeon E5-2600-Reihe; Intel Xeon E5-4600-Reihe |
Nehalem EX |
0x206e6 (06/2e/6) |
0x04 |
0x0000000d |
5/15/2018 |
Intel Xeon 65xx-Reihe; Intel Xeon 75xx-Reihe |
Westmere EX |
0x206f2 (06/2f/2) |
0x05 |
0x0000003b |
5/16/2018 |
Intel Xeon E7-8800-Reihe; Intel Xeon E7-4800-Reihe; Intel Xeon E7-2800-Reihe |
Ivy Bridge DT |
0x306a9 (06/3a/9) |
0x12 |
0x00000021 |
2/13/2019 |
Intel i3-3200-Reihe; Intel i7-3500-LE/UE; Intel i7-3600-QE; Intel Xeon E3-1200-v2-Reihe; Intel Xeon E3-1100-C-v2-Reihe; Intel Pentium B925C |
Haswell DT |
0x306c3 (06/3c/3) |
0x32 |
0x00000028 |
11/12/2019 |
Intel Xeon E3-1200-v3-Reihe; Intel i7-4700-EQ-Reihe; Intel i5-4500-TE-Reihe; Intel i3-4300-Reihe |
Ivy Bridge EP |
0x306e4 (06/3e/4) |
0xed |
0x0000042e |
3/14/2019 |
Intel Xeon E5-4600-v2-Reihe; Intel Xeon E5-2600-v2-Reihe; Intel Xeon E5-2400-v2-Reihe; Intel Xeon E5-1600-v2-Reihe; Intel Xeon E5-1400-v2-Reihe |
Ivy Bridge EX |
0x306e7 (06/3e/7) |
0xed |
0x00000715 |
3/14/2019 |
Intel Xeon E7-8800/4800/2800-v2-Reihe |
Haswell EP |
0x306f2 (06/3f/2) |
0x6f |
0x00000049 |
8/11/2021 |
Intel Xeon E5-4600-v3-Reihe; Intel Xeon E5-2600-v3-Reihe; Intel Xeon E5-2400-v3-Reihe; Intel Xeon E5-1600-v3-Reihe; Intel Xeon E5-1400-v3-Reihe |
Haswell EX |
0x306f4 (06/3f/4) |
0x80 |
0x0000001a |
5/24/2021 |
Intel Xeon E7-8800/4800-v3-Serie |
Broadwell H |
0x40671 (06/47/1) |
0x22 |
0x00000022 |
11/12/2019 |
Intel Core i7-5700EQ; Intel Xeon E3-1200-v4-Reihe |
Avoton |
0x406d8 (06/4d/8) |
0x01 |
0x0000012d |
16.09.2019 |
Intel Atom C2300-Reihe; Intel Atom C2500-Reihe; Intel Atom C2700-Reihe |
Broadwell EP/EX |
0x406f1 (06/4f/1) |
0xef |
0x0b000040 |
5/19/2021 |
Intel Xeon E7-8800/4800-v4-Reihe; Intel Xeon E5-4600-v4-Reihe; Intel Xeon E5-2600-v4-Reihe; Intel Xeon E5-1600-v4-Reihe |
Skylake SP |
0x50654 (06/55/4) |
0xb7 |
0x02006e05 |
3/8/2022 |
Intel Xeon Platinum 8100-Reihe; Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe; Intel Xeon D-2100-Reihe; Intel Xeon D-1600-Reihe; Intel Xeon W-3100-Reihe; Intel Xeon W-2100-Reihe |
Cascade Lake B-0 |
0x50656 (06/55/6) |
0xbf |
0x04003302 |
12/10/2021 |
Intel Xeon Platinum 9200/8200-Reihe; Intel Xeon Gold 6200/5200; Intel Xeon Silver 4200/Bronze 3200; Intel Xeon W-3200 |
Cascade Lake |
0x50657 (06/55/7) |
0xbf |
0x05003302 |
12/10/2021 |
Intel Xeon Platinum 9200/8200-Reihe; Intel Xeon Gold 6200/5200; Intel Xeon Silver 4200/Bronze 3200; Intel Xeon W-3200 |
Cooper Lake |
0x5065b (06/55/b) |
0xbf |
0x07002501 |
11/19/2021 |
Intel Xeon Platinum 8300-Reihe; Intel Xeon Gold 6300/5300 |
Broadwell DE |
0x50662 (06/56/2) |
0x10 |
0x0000001c |
17.06.2019 |
Intel Xeon D-1500-Reihe |
Broadwell DE |
0x50663 (06/56/3) |
0x10 |
0x0700001c |
6/12/2021 |
Intel Xeon D-1500-Reihe |
Broadwell DE |
0x50664 (06/56/4) |
0x10 |
0x0f00001a |
6/12/2021 |
Intel Xeon D-1500-Reihe |
Broadwell NS |
0x50665 (06/56/5) |
0x10 |
0x0e000014 |
9/18/2021 |
Intel Xeon D-1600-Reihe |
Skylake H/S |
0x506e3 (06/5e/3) |
0x36 |
0x000000f0 |
11/12/2021 |
Intel Xeon E3-1500-v5-Reihe; Intel Xeon E3-1200-v5-Reihe |
Denverton |
0x506f1 (06/5f/1) |
0x01 |
0x00000038 |
12/2/2021 |
Intel Atom C3000-Reihe |
Ice Lake SP |
0x606a6 (06/6a/6) |
0x87 |
0x0d000375 |
4/7/2022 |
Intel Xeon Silver 4300-Reihe; Intel Xeon Gold 6300/5300-Reihe; Intel Xeon Platinum 8300-Reihe |
Ice Lake D |
0x606c1 (06/6c/1) |
0x10 |
0x010001f0 |
6/24/2022 |
Intel Xeon D-Reihe |
Snow Ridge |
0x80665 (06/86/5) |
0x01 |
0x4c000020 |
5/10/2022 |
Intel Atom P5000 Series |
Snow Ridge |
0x80667 (06/86/7) |
0x01 |
0x4c000020 |
5/10/2022 |
Intel Atom P5000 Series |
Kaby Lake H/S/X |
0x906e9 (06/9e/9) |
0x2a |
0x000000f0 |
11/12/2021 |
Intel Xeon E3-1200-v6-Reihe; Intel Xeon E3-1500-v6-Reihe |
Coffee Lake |
0x906ea (06/9e/a) |
0x22 |
0x000000f0 |
11/15/2021 |
Intel Xeon E-2100-Reihe; Intel Xeon E-2200-Reihe (4 oder 6 Kerne) |
Coffee Lake |
0x906eb (06/9e/b) |
0x02 |
0x000000f0 |
11/12/2021 |
Intel Xeon E-2100-Reihe |
Coffee Lake |
0x906ec (06/9e/c) |
0x22 |
0x000000f0 |
11/15/2021 |
Intel Xeon E-2100-Reihe |
Coffee Lake Refresh |
0x906ed (06/9e/d) |
0x22 |
0x000000f4 |
7/31/2022 |
Intel Xeon E-2200-Reihe (8 Kerne) |
Rocket Lake S |
0xa0671 (06/a7/1) |
0x02 |
0x00000056 |
8/2/2022 |
Intel Xeon E-2300-Reihe |
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs loadesx
und esx-update
.
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | Nicht verfügbar |
CVE-Nummern | Nicht verfügbar |
Aktualisiert die VIBs esxio-update
und loadesxio
.
Patch-Kategorie | Sicherheit |
Patch-Schweregrad | Kritisch |
Hostneustart erforderlich | Ja |
Migration oder Herunterfahren der virtuellen Maschine erforderlich | Ja |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Enthaltene VIBs |
|
Behobene Probleme | 3070447 |
CVE-Nummern | Nicht verfügbar |
Aktualisiert das VIB tools-light
.
Die folgenden VMware Tools-ISO-Images werden mit ESXi 8.0b gebündelt:
windows.iso: VMware Tools 12.1.5 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.
linux.iso: VMware Tools 10.3.25-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.
Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:
VMware Tools 11.0.6:
windows.iso: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
VMware Tools 10.0.12:
winPreVista.iso: für Windows 2000, Windows XP und Windows 2003.
linuxPreGLibc25.iso: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
solaris.iso: VMware Tools-Image 10.3.10 für Solaris.
darwin.iso: Unterstützt Mac OS X-Versionen 10.11 und höher. VMware Tools 12.1.0 war die letzte reguläre Version für macOS. Details finden Sie im VMware-Knowledgebase-Artikel 88698.
Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:
Profilname | ESXi-8.0b-21203435-standard |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | Mittwoch, 14. Februar 2023 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 3053428, 3051651, 3057027, 3035652, 3065063, 3051004, 3062043, 3070831, 3065990, 3065990, 3041101, 2988813, 3047637, 3044476, 3070865, 3078203, 3055341, 3081041, 3064063, 3064062, 3064054, 3064053, 3062062, 3064096, 3066138, 3065063, 3064848, 3068605, 3064060, 3034879, 3051651, 3081884, 3078334, 3073025, 3070865, 3073230, 3071612, 3070831, 3068028, 3071614, 3071981, 3072190, 3065990, 3081686, 3062907, 3055084, 3069024 |
Verwandte CVE-Nummern | Nicht verfügbar |
Wenn Sie Netzwerkadapter in DCUI auswählen, wird keine Ausgabe angezeigt und die Netzwerkkonfiguration kann nicht geändert werden. In der Datei /var/log/syslog.log
wird ein Fehler ähnlich dem folgenden angezeigt: 2022-xx-xx:02:02.xxxx Er(11) DCUI[265583]: Fehler beim Scannen von dvswitches: Fehler beim Abrufen des dvs-Namens: Status(bad0001) = Fehler
Zur Verbesserung der Gesamtleistung des Systems unterstützt ESXi ab Version 7.0 Update 2 Posted Interrupts (PI) auf Intel-CPUs für PCI-Passthrough-Geräte. In bestimmten Fällen kann es zu einer Race-Bedingung zwischen Posted Interrupts und der VMkernel-Planung kommen. Dies kann dazu führen, dass bei virtuellen Maschinen, die mit PCI-Passthrough-Geräten mit normaler oder niedriger Latenzempfindlichkeit konfiguriert sind, Soft-Sperren auftreten.
Im vSphere Client und ESXi Host Client wird möglicherweise eine falsche Anzahl an Sockets bzw. Kernen pro Socket angezeigt, wenn Sie die NPS-Einstellung auf einem AMD EPYC 9004-Server von der Standardeinstellung „1“ oder „Auto“ in einen anderen Wert wie „2“ oder „4“ ändern.
Windows 2012 und höher verwendet die SCSI-3-Reservierung für die Ressourcenvermittlung, um Windows Failover Clustering (WSFC) auf ESXi für systemübergreifende Cluster-Konfigurationen (Cluster-across-box, CAB) zu unterstützen. Wenn Sie jedoch die Einstellung „Physical (Physisch)“ für die gemeinsame Busverwendung des SCSI-Controllers auf dieser VM konfigurieren, führt der Befehl SCSI RESERVE
dazu, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt. SCSI RESERVE
ist eine SCSI-2-Semantik und wird für WSFC-Cluster auf ESXi nicht unterstützt.
In seltenen Fällen können mehrere gleichzeitig ausgeführte Vorgänge zum Öffnen und Schließen von Datenspeichern, beispielsweise beim Auslösen mehrerer Migrationsaufgaben durch vSphere DRS, dazu führen, dass bestimmte VMs langsamer oder vorübergehend überhaupt nicht reagieren. Das Problem tritt vorwiegend auf VMs auf, die über mehrere virtuelle Festplatten in verschiedenen Datenspeichern verfügen.
Der Logger-Befehl bestimmter Logger-Clients gibt unter Umständen nicht den richtigen Anlagecode an den ESXi-Syslog-Daemon weiter und verursacht falsche Werte für Anlage und Schweregrad in ESXi-Syslog-Protokollmeldungen.
Der vSAN-Dateidienst erfordert, dass Hosts miteinander kommunizieren. Der Dateidienst verwendet möglicherweise fälschlicherweise eine IP-Adresse im Zeugennetzwerk für die Interkommunikation. Wenn Sie ein isoliertes Zeugennetzwerk für vSAN konfiguriert haben, kann der Host über das Zeugennetzwerk mit einem Zeugenknoten kommunizieren, aber Hosts können über das Zeugennetzwerk nicht miteinander kommunizieren. Die Kommunikation zwischen Hosts für den vSAN-Dateidienst kann nicht hergestellt werden.
Eine seltene Race-Bedingung, die durch die Rückgewinnung von Arbeitsspeicher für bestimmte Leistungsoptimierungsprozesse in vSphere vMotion verursacht wird, kann dazu führen, dass ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen.
In seltenen Fällen übersteigt die Berechnung der Arbeitsspeichernutzung auf vSphere-Systemen mit mehr als 448 CPUs den 32-Bit-Wert, der auf einen Wert kleiner als der erwartete zuzuteilende Wert aufgerundet wird. Dies kann dazu führen, dass ESXi-Hosts beim Upgrade oder Neustart mit einem violetten Diagnosebildschirm fehlschlagen.
Dieses Problem wurde in der vorliegenden Version behoben.
Wenn TXT auf einem ESX-Host aktiviert ist, schlagen Versuche, eine VM einzuschalten, möglicherweise mit einem Fehler fehl. Im vSphere Client wird folgende Meldung angezeigt: Dieser Host unterstützt Intel VT-x, aber Intel VT-x ist eingeschränkt. Intel VT-x ist möglicherweise eingeschränkt, weil „trusted excecution“ in den BIOS/Firmware-Einstellungen aktiviert wurde oder der Host nach dem Ändern dieser Einstellung nicht aus- und wieder eingeschaltet wurde
.
Mit vSphere 8.0 können Sie vSphere Lifecycle Manager aktivieren, um alle Hosts, die sich im Wartungsmodus befinden, parallel statt nacheinander zu standardisieren. Wenn jedoch eine parallele Standardisierungsaufgabe fehlschlägt, sehen Sie im vSphere Client möglicherweise nicht die richtige Anzahl an Hosts, die den Vorgang bestanden, nicht bestanden oder übersprungen haben, oder sehen überhaupt keine solche Anzahl. Das Problem wirkt sich nicht auf die vSphere Lifecycle Manager-Funktionalität aus, sondern nur auf die Berichterstellung im vSphere Client.
Aufgrund einer seltenen Race-Bedingung während eines FSR-Vorgangs (Fast Suspend Resume) auf einer VM mit gemeinsam genutzten Seiten zwischen VMs schlagen ESXi-Hosts möglicherweise mit einem violetten Diagnosebildschirm und einem Fehler wie PFrame_IsBackedByLPage
im Backtrace fehl.
Aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen schlägt eine virtuelle Maschine der Version ESX 8.0 möglicherweise mit ESX nicht behebbarer Fehler
fehl. In der Datei vmware.log
wird sinngemäß folgende Meldung angezeigt: MONITOR PANIC: vcpu-0:VMM fault 6: src=MONITOR ...
. Das Problem ist spezifisch für virtuelle Maschinen mit Hardwareversionen 12 oder früher.
Bei ESXi-Hosts in vSAN-Clustern mit einer Version vor vSAN 6.2 können Upgrades auf ESXi 8.0 zu einem Verlust des VMkernel-Port-Taggings für vSAN führen. Folglich ist die vSAN-Netzwerkkonfiguration nach dem Upgrade nicht mehr vorhanden.
In VMware Aria Operations for Logs (vormals vRealize Log Insight) wird möglicherweise eine große Anzahl von Protokollen angezeigt, die von Storage I/O Control generiert werden, z. B. Ungültiger Wert für Freigaben: 0. Standard wird verwendet
. und Gerät naa.xxxx wird entweder aufgrund eines VSI-Lesefehlers oder eines abnormalen Status übersprungen
. Das Protokollvolumen variiert je nach der Anzahl der ESXi-Hosts in einem Cluster und der Anzahl der Geräte im ausgeschalteten Zustand. Wenn das Problem auftritt, wird das Protokollvolume schnell (innerhalb von 24 Stunden) generiert, und VMware Aria Operations for Logs stuft die Meldungen möglicherweise als kritisch ein. Diese Protokolle sind jedoch unbedenklich und wirken sich nicht auf die Vorgänge auf anderen Online-Datenspeichern aus.
Wenn Sie die erweiterte Option ToolsRamdisk
aktivieren, mit der sichergestellt wird, dass sich die /vmtools
-Partition immer auf einer RAM-Festplatte und nicht auf einer USB- oder SD-Karte befindet, wird der Inhalt der RAM-Festplatte durch Installation oder Aktualisierung des VIB tools-light
nicht automatisch aktualisiert. Stattdessen müssen Sie den Host neu starten, damit die RAM-Festplatte aktualisiert wird und die neue VM Tools-Version für die VMs zur Verfügung steht.
Wenn Sie eine Datei mit einer Liste mit Bestandslistenobjekten wie VMs, Hosts und Datenspeicher exportieren, schlägt die Aufgabe mit dem Fehler Fehler beim Datenexport
fehl.
Wenn das vSAN-Sock-Relais nicht über genügend Arbeitsspeicher verfügt, kann dies zu falschen Fehlern im vSAN-Dateidienst führen. Im vSAN-Integritätsdienst werden bei der Integritätsprüfung des Dateidiensts zahlreiche Fehler angezeigt. Folgender Eintrag wird in der Datei /var/run/log/sockrelay.log
angezeigt: Thread konnte nicht erstellt werden: Kein Speicherplatz frei auf Gerät
.
Wenn die Netzwerk-Firewallregeln auf dem ESXi-Host aktualisiert werden, gehen vSAN-iSCSI-Firewallregeln unter Umständen verloren. Dieses Problem kann sich auf vSAN-iSCSI-Netzwerkverbindungen auswirken.
Die Installation und das Upgrade von VMware NSX mithilfe des NSX Managers in einer vSphere-Umgebung mit DPUs auf ESXi 8.0-Hosts schlägt möglicherweise mit einem Fehler vom Typ Konfigurationszustand und einer Meldung ähnlich der folgenden fehl:Hostkonfiguration: Fehler beim Senden der HostConfig-Meldung. [TN=TransportNode/ce1dba65-7fa5-4a47-bf84-e897859fe0db]. Grund: Fehler beim Senden von HostConfig RPC an MPA TN:ce1dba65-7fa5-4a47-bf84-e897859fe0db. Fehler: Client ce1dba65-7fa5-4a47-bf84-e897859fe0db kann nicht erreicht werden, Anwendung SwitchingVertical. Vollsynchronisierung von LogicalSwitch: Abfrage der Vollsynchronisierung von LogicalSwitch übersprungen.
Dieses Problem tritt auf, weil eine DPU-Prüfung den ESXi 8.0-Host nach der Installation des NSX-Images auf der DPU am Neustart hindert.
Ab ESXi 6.0 ist mClock der standardmäßige E/A-Scheduler für ESXi, aber einige Umgebungen verwenden möglicherweise weiterhin Legacy-Scheduler von ESXi-Versionen vor 6.0. Infolgedessen schlagen Upgrades dieser Hosts auf ESXi 7.0 Update 3 und höher möglicherweise mit einem violetten Diagnosebildschirm fehl.
Nach dem Upgrade auf ESXi 8.0 kann eine vorhandene VM-Festplatte (VMDK) unter Umständen nicht mithilfe des VMware Host Client, der zum Herstellen einer Verbindung mit einzelnen ESXi-Hosts und deren Verwaltung verwendet wird, an eine VM angehängt werden. Das Problem wirkt sich nicht auf den vSphere Client aus.
NVIDIA vGPU 15.0-Treiber unterstützen mehrere vGPU-Teilgeräte auf einer einzelnen VM. Für Nicht-SR-IOV-GPUs wie NVIDIA T4 ist dies jedoch nicht möglich.
Die Verschlüsselung in Übertragung begriffener Daten wird auf Clustern mit einer HCI Mesh-Konfiguration nicht unterstützt. Wenn Sie vSAN mit DIT-Verschlüsselung deaktivieren und vSAN dann ohne DIT-Verschlüsselung erneut aktivieren, wird der RDT-Zähler für die DIT-Verschlüsselung nicht ordnungsgemäß herabgesetzt. Wenn Sie HCI Mesh aktivieren, geht der RDT-Code davon aus, dass der Datenverkehr verschlüsselt werden muss. Der unverschlüsselte Datenverkehr wird unterbrochen, wodurch die Verbindung zum HCI Mesh-Datenspeicher verloren geht.
Wenn die zugrunde liegende Hardware zulässt, dass Geräte eine TCP-Fensterskalierungsoption über 7 unterstützen, kann es in vSphere-Umgebungen mit Nvidia Bluefield 2-DPUs zu einer Verringerung des TCP-Durchsatzes kommen, da der Skalierungsgrenzwert für Nvidia Bluefield 2 auf 7 festgelegt ist.
Pensando DSC-Adapter (Distributed Services Platform) bieten zwei Hochgeschwindigkeits-Ethernet-Controller (beispielsweise vmnic6
und vmnic7
) sowie einen Verwaltungscontroller (beispielsweise vmnic8
):
:~] esxcfg-nics -l
vmnic6 0000:39:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:48 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller
vmnic7 0000:3a:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:49 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller
:~] esxcfg-nics -lS
vmnic8 0000:3b:00.0 ionic_en_unstable Up 1000Mbps Full 00:ae:cd:09:c9:4a 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Management Controller
Die Hochgeschwindigkeits-Ethernet-Controller vmnic6
und vmnic7
werden zuerst registriert und mit RSS betrieben, das auf 16 Empfangswarteschlangen festgelegt ist.
:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=16, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }
Wenn sich der Verwaltungscontroller vmnic8
in seltenen Fällen jedoch zuerst beim vSphere Distributed Switch registriert, wird der Uplink des Hochgeschwindigkeits-Ethernet-Controllers vmnic6
oder vmnic7
unter Umständen mit RSS betrieben, das auf eine Empfangswarteschlange festgelegt ist.:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=1, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }
Infolgedessen kann es zu einer Leistungsbeeinträchtigung im nativen Modus kommen.
Auf Servern mit zahlreichen verbundenen Geräten können die Speicherabbilddateien für die Geräte den Gesamtgrenzwert überschreiten. Wenn Sie einen ESXi-Host neu starten oder den lpfc-Treiber entfernen, schlägt der Host möglicherweise mit einem violetten Diagnosebildschirm und einem Fehler vom Typ #PF exception vmk_DumpAddFileCallback()
fehl, der angibt, dass die Ressourcen der Speicherabbilddateien verbraucht sind.
Profilname | ESXi-8.0b-21203435-no-tools |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | Mittwoch, 14. Februar 2023 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 3053428, 3051651, 3057027, 3035652, 3065063, 3051004, 3062043, 3070831, 3065990, 3065990, 3041101, 2988813, 3047637, 3044476, 3070865, 3078203, 3055341, 3081041, 3064063, 3064062, 3064054, 3064053, 3062062, 3064096, 3066138, 3065063, 3064848, 3068605, 3064060, 3034879, 3051651, 3081884, 3078334, 3073025, 3070865, 3073230, 3071612, 3070831, 3068028, 3071614, 3071981, 3072190, 3065990, 3081686, 3062907, 3055084, 3069024, 3061447, 3065694, 3045268, 3059592, 3054305, 3048127, 3041427, 3063528 |
Verwandte CVE-Nummern | Nicht verfügbar |
Wenn Sie Netzwerkadapter in DCUI auswählen, wird keine Ausgabe angezeigt und die Netzwerkkonfiguration kann nicht geändert werden. In der Datei /var/log/syslog.log
wird ein Fehler ähnlich dem folgenden angezeigt: 2022-xx-xx:02:02.xxxx Er(11) DCUI[265583]: Fehler beim Scannen von dvswitches: Fehler beim Abrufen des dvs-Namens: Status(bad0001) = Fehler
Zur Verbesserung der Gesamtleistung des Systems unterstützt ESXi ab Version 7.0 Update 2 Posted Interrupts (PI) auf Intel-CPUs für PCI-Passthrough-Geräte. In bestimmten Fällen kann es zu einer Race-Bedingung zwischen Posted Interrupts und der VMkernel-Planung kommen. Dies kann dazu führen, dass bei virtuellen Maschinen, die mit PCI-Passthrough-Geräten mit normaler oder niedriger Latenzempfindlichkeit konfiguriert sind, Soft-Sperren auftreten.
Im vSphere Client und ESXi Host Client wird möglicherweise eine falsche Anzahl an Sockets bzw. Kernen pro Socket angezeigt, wenn Sie die NPS-Einstellung auf einem AMD EPYC 9004-Server von der Standardeinstellung „1“ oder „Auto“ in einen anderen Wert wie „2“ oder „4“ ändern.
Windows 2012 und höher verwendet die SCSI-3-Reservierung für die Ressourcenvermittlung, um Windows Failover Clustering (WSFC) auf ESXi für systemübergreifende Cluster-Konfigurationen (Cluster-across-box, CAB) zu unterstützen. Wenn Sie jedoch die Einstellung „Physical (Physisch)“ für die gemeinsame Busverwendung des SCSI-Controllers auf dieser VM konfigurieren, führt der Befehl SCSI RESERVE
dazu, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt. SCSI RESERVE
ist eine SCSI-2-Semantik und wird für WSFC-Cluster auf ESXi nicht unterstützt.
In seltenen Fällen können mehrere gleichzeitig ausgeführte Vorgänge zum Öffnen und Schließen von Datenspeichern, beispielsweise beim Auslösen mehrerer Migrationsaufgaben durch vSphere DRS, dazu führen, dass bestimmte VMs langsamer oder vorübergehend überhaupt nicht reagieren. Das Problem tritt vorwiegend auf VMs auf, die über mehrere virtuelle Festplatten in verschiedenen Datenspeichern verfügen.
Der Logger-Befehl bestimmter Logger-Clients gibt unter Umständen nicht den richtigen Anlagecode an den ESXi-Syslog-Daemon weiter und verursacht falsche Werte für Anlage und Schweregrad in ESXi-Syslog-Protokollmeldungen.
Der vSAN-Dateidienst erfordert, dass Hosts miteinander kommunizieren. Der Dateidienst verwendet möglicherweise fälschlicherweise eine IP-Adresse im Zeugennetzwerk für die Interkommunikation. Wenn Sie ein isoliertes Zeugennetzwerk für vSAN konfiguriert haben, kann der Host über das Zeugennetzwerk mit einem Zeugenknoten kommunizieren, aber Hosts können über das Zeugennetzwerk nicht miteinander kommunizieren. Die Kommunikation zwischen Hosts für den vSAN-Dateidienst kann nicht hergestellt werden.
Eine seltene Race-Bedingung, die durch die Rückgewinnung von Arbeitsspeicher für bestimmte Leistungsoptimierungsprozesse in vSphere vMotion verursacht wird, kann dazu führen, dass ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen.
In seltenen Fällen übersteigt die Berechnung der Arbeitsspeichernutzung auf vSphere-Systemen mit mehr als 448 CPUs den 32-Bit-Wert, der auf einen Wert kleiner als der erwartete zuzuteilende Wert aufgerundet wird. Dies kann dazu führen, dass ESXi-Hosts beim Upgrade oder Neustart mit einem violetten Diagnosebildschirm fehlschlagen.
Dieses Problem wurde in der vorliegenden Version behoben.
Wenn TXT auf einem ESX-Host aktiviert ist, schlagen Versuche, eine VM einzuschalten, möglicherweise mit einem Fehler fehl. Im vSphere Client wird folgende Meldung angezeigt: Dieser Host unterstützt Intel VT-x, aber Intel VT-x ist eingeschränkt. Intel VT-x ist möglicherweise eingeschränkt, weil „trusted excecution“ in den BIOS/Firmware-Einstellungen aktiviert wurde oder der Host nach dem Ändern dieser Einstellung nicht aus- und wieder eingeschaltet wurde
.
Mit vSphere 8.0 können Sie vSphere Lifecycle Manager aktivieren, um alle Hosts, die sich im Wartungsmodus befinden, parallel statt nacheinander zu standardisieren. Wenn jedoch eine parallele Standardisierungsaufgabe fehlschlägt, sehen Sie im vSphere Client möglicherweise nicht die richtige Anzahl an Hosts, die den Vorgang bestanden, nicht bestanden oder übersprungen haben, oder sehen überhaupt keine solche Anzahl. Das Problem wirkt sich nicht auf die vSphere Lifecycle Manager-Funktionalität aus, sondern nur auf die Berichterstellung im vSphere Client.
Aufgrund einer seltenen Race-Bedingung während eines FSR-Vorgangs (Fast Suspend Resume) auf einer VM mit gemeinsam genutzten Seiten zwischen VMs schlagen ESXi-Hosts möglicherweise mit einem violetten Diagnosebildschirm und einem Fehler wie PFrame_IsBackedByLPage
im Backtrace fehl.
Aufgrund eines seltenen Problems bei der Verarbeitung von AVX2-Anweisungen schlägt eine virtuelle Maschine der Version ESX 8.0 möglicherweise mit ESX nicht behebbarer Fehler
fehl. In der Datei vmware.log
wird sinngemäß folgende Meldung angezeigt: MONITOR PANIC: vcpu-0:VMM fault 6: src=MONITOR ...
. Das Problem ist spezifisch für virtuelle Maschinen mit Hardwareversionen 12 oder früher.
Bei ESXi-Hosts in vSAN-Clustern mit einer Version vor vSAN 6.2 können Upgrades auf ESXi 8.0 zu einem Verlust des VMkernel-Port-Taggings für vSAN führen. Folglich ist die vSAN-Netzwerkkonfiguration nach dem Upgrade nicht mehr vorhanden.
In VMware Aria Operations for Logs (vormals vRealize Log Insight) wird möglicherweise eine große Anzahl von Protokollen angezeigt, die von Storage I/O Control generiert werden, z. B. Ungültiger Wert für Freigaben: 0. Standard wird verwendet
. und Gerät naa.xxxx wird entweder aufgrund eines VSI-Lesefehlers oder eines abnormalen Status übersprungen
. Das Protokollvolumen variiert je nach der Anzahl der ESXi-Hosts in einem Cluster und der Anzahl der Geräte im ausgeschalteten Zustand. Wenn das Problem auftritt, wird das Protokollvolume schnell (innerhalb von 24 Stunden) generiert, und VMware Aria Operations for Logs stuft die Meldungen möglicherweise als kritisch ein. Diese Protokolle sind jedoch unbedenklich und wirken sich nicht auf die Vorgänge auf anderen Online-Datenspeichern aus.
Wenn Sie die erweiterte Option ToolsRamdisk
aktivieren, mit der sichergestellt wird, dass sich die /vmtools
-Partition immer auf einer RAM-Festplatte und nicht auf einer USB- oder SD-Karte befindet, wird der Inhalt der RAM-Festplatte durch Installation oder Aktualisierung des VIB tools-light
nicht automatisch aktualisiert. Stattdessen müssen Sie den Host neu starten, damit die RAM-Festplatte aktualisiert wird und die neue VM Tools-Version für die VMs zur Verfügung steht.
Wenn Sie eine Datei mit einer Liste mit Bestandslistenobjekten wie VMs, Hosts und Datenspeicher exportieren, schlägt die Aufgabe mit dem Fehler Fehler beim Datenexport
fehl.
Wenn das vSAN-Sock-Relais nicht über genügend Arbeitsspeicher verfügt, kann dies zu falschen Fehlern im vSAN-Dateidienst führen. Im vSAN-Integritätsdienst werden bei der Integritätsprüfung des Dateidiensts zahlreiche Fehler angezeigt. Folgender Eintrag wird in der Datei /var/run/log/sockrelay.log
angezeigt: Thread konnte nicht erstellt werden: Kein Speicherplatz frei auf Gerät
.
Wenn die Netzwerk-Firewallregeln auf dem ESXi-Host aktualisiert werden, gehen vSAN-iSCSI-Firewallregeln unter Umständen verloren. Dieses Problem kann sich auf vSAN-iSCSI-Netzwerkverbindungen auswirken.
Die Installation und das Upgrade von VMware NSX mithilfe des NSX Managers in einer vSphere-Umgebung mit DPUs auf ESXi 8.0-Hosts schlägt möglicherweise mit einem Fehler vom Typ Konfigurationszustand und einer Meldung ähnlich der folgenden fehl:Hostkonfiguration: Fehler beim Senden der HostConfig-Meldung. [TN=TransportNode/ce1dba65-7fa5-4a47-bf84-e897859fe0db]. Grund: Fehler beim Senden von HostConfig RPC an MPA TN:ce1dba65-7fa5-4a47-bf84-e897859fe0db. Fehler: Client ce1dba65-7fa5-4a47-bf84-e897859fe0db kann nicht erreicht werden, Anwendung SwitchingVertical. Vollsynchronisierung von LogicalSwitch: Abfrage der Vollsynchronisierung von LogicalSwitch übersprungen.
Dieses Problem tritt auf, weil eine DPU-Prüfung den ESXi 8.0-Host nach der Installation des NSX-Images auf der DPU am Neustart hindert.
Ab ESXi 6.0 ist mClock der standardmäßige E/A-Scheduler für ESXi, aber einige Umgebungen verwenden möglicherweise weiterhin Legacy-Scheduler von ESXi-Versionen vor 6.0. Infolgedessen schlagen Upgrades dieser Hosts auf ESXi 7.0 Update 3 und höher möglicherweise mit einem violetten Diagnosebildschirm fehl.
Nach dem Upgrade auf ESXi 8.0 kann eine vorhandene VM-Festplatte (VMDK) unter Umständen nicht mithilfe des VMware Host Client, der zum Herstellen einer Verbindung mit einzelnen ESXi-Hosts und deren Verwaltung verwendet wird, an eine VM angehängt werden. Das Problem wirkt sich nicht auf den vSphere Client aus.
NVIDIA vGPU 15.0-Treiber unterstützen mehrere vGPU-Teilgeräte auf einer einzelnen VM. Für Nicht-SR-IOV-GPUs wie NVIDIA T4 ist dies jedoch nicht möglich.
Die Verschlüsselung in Übertragung begriffener Daten wird auf Clustern mit einer HCI Mesh-Konfiguration nicht unterstützt. Wenn Sie vSAN mit DIT-Verschlüsselung deaktivieren und vSAN dann ohne DIT-Verschlüsselung erneut aktivieren, wird der RDT-Zähler für die DIT-Verschlüsselung nicht ordnungsgemäß herabgesetzt. Wenn Sie HCI Mesh aktivieren, geht der RDT-Code davon aus, dass der Datenverkehr verschlüsselt werden muss. Der unverschlüsselte Datenverkehr wird unterbrochen, wodurch die Verbindung zum HCI Mesh-Datenspeicher verloren geht.
Wenn die zugrunde liegende Hardware zulässt, dass Geräte eine TCP-Fensterskalierungsoption über 7 unterstützen, kann es in vSphere-Umgebungen mit Nvidia Bluefield 2-DPUs zu einer Verringerung des TCP-Durchsatzes kommen, da der Skalierungsgrenzwert für Nvidia Bluefield 2 auf 7 festgelegt ist.
Pensando DSC-Adapter (Distributed Services Platform) bieten zwei Hochgeschwindigkeits-Ethernet-Controller (beispielsweise vmnic6
und vmnic7
) sowie einen Verwaltungscontroller (beispielsweise vmnic8
):
:~] esxcfg-nics -l
vmnic6 0000:39:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:48 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller
vmnic7 0000:3a:00.0 ionic_en_unstable Up 25000Mbps Full 00:ae:cd:09:c9:49 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Ethernet Controller
:~] esxcfg-nics -lS
vmnic8 0000:3b:00.0 ionic_en_unstable Up 1000Mbps Full 00:ae:cd:09:c9:4a 1500 Pensando Systems DSC-25 10/25G 2-port 4G RAM 8G eMMC G1 Services Card, Management Controller
Die Hochgeschwindigkeits-Ethernet-Controller vmnic6
und vmnic7
werden zuerst registriert und mit RSS betrieben, das auf 16 Empfangswarteschlangen festgelegt ist.
:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=16, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }
Wenn sich der Verwaltungscontroller vmnic8
in seltenen Fällen jedoch zuerst beim vSphere Distributed Switch registriert, wird der Uplink des Hochgeschwindigkeits-Ethernet-Controllers vmnic6
oder vmnic7
unter Umständen mit RSS betrieben, das auf eine Empfangswarteschlange festgelegt ist.:~] localcli --plugin-dir /usr/lib/vmware/esxcli/int networkinternal nic privstats get -n vmnic6…Num of RSS-Q=1, ntxq_descs=2048, nrxq_descs=1024, log_level=3, vlan_tx_insert=1, vlan_rx_strip=1, geneve_offload=1 }
Infolgedessen kann es zu einer Leistungsbeeinträchtigung im nativen Modus kommen.
Auf Servern mit zahlreichen verbundenen Geräten können die Speicherabbilddateien für die Geräte den Gesamtgrenzwert überschreiten. Wenn Sie einen ESXi-Host neu starten oder den lpfc-Treiber entfernen, schlägt der Host möglicherweise mit einem violetten Diagnosebildschirm und einem Fehler vom Typ #PF exception vmk_DumpAddFileCallback()
fehl, der angibt, dass die Ressourcen der Speicherabbilddateien verbraucht sind.
Profilname | ESXi-8.0sb-21203431-standard |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | Mittwoch, 14. Februar 2023 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 3049562, 3049613, 3049619, 3049640, 3050030, 3050032, 3050037, 3050512, 3054127, 3068093, 3030692, 3070447 |
Verwandte CVE-Nummern | CVE-2020-28196 |
In ESXi 8.0b werden die folgenden Sicherheits-Updates bereitgestellt:
Die SQLite-Datenbank wird auf Version 3.39.2 aktualisiert.
Die Python-Bibliothek wurde auf Version 3.8.15 aktualisiert.
OpenSSL wurde auf Version 3.0.7 aktualisiert.
Die libxml2-Bibliothek wurde auf Version 2.10.2 aktualisiert.
Der XML-Parser Expat wurde auf Version 2.5.0 aktualisiert.
Das lxml-XML-Toolkit wurde auf Version 4.5.2 aktualisiert.
cURL wurde auf Version 7.84 aktualisiert.
Die Go-Bibliothek wurde auf Version 1.18.6 aktualisiert.
Das tcpdump-Paket wurde auf Version 4.99.1 aktualisiert.
Das VIB „cpu-microcode“ enthält den folgenden Intel-Microcode:
Codename |
FMS |
PLT-ID |
MCU-Rev. |
MCU-Datum |
Markennamen |
---|---|---|---|---|---|
Nehalem EP |
0x106a5 (06/1a/5) |
0x03 |
0x0000001d |
5/11/2018 |
Intel Xeon 35xx-Reihe; Intel Xeon 55xx-Reihe |
Clarkdale |
0x20652 (06/25/2) |
0x12 |
0x00000011 |
5/8/2018 |
Intel i3/i5 Clarkdale-Reihe; Intel Xeon 34xx Clarkdale-Reihe |
Arrandale |
0x20655 (06/25/5) |
0x92 |
0x00000007 |
4/23/2018 |
Intel Core i7-620LE-Prozessor |
Sandy Bridge DT |
0x206a7 (06/2a/7) |
0x12 |
0x0000002f |
2/17/2019 |
Intel Xeon E3-1100-Reihe; Intel Xeon E3-1200-Reihe; Intel i7-2655-LE-Reihe; Intel i3-2100-Reihe |
Westmere EP |
0x206c2 (06/2c/2) |
0x03 |
0x0000001f |
5/8/2018 |
Intel Xeon 56xx-Reihe; Intel Xeon 36xx-Reihe |
Sandy Bridge EP |
0x206d6 (06/2d/6) |
0x6d |
0x00000621 |
3/4/2020 |
Intel Pentium 1400-Reihe; Intel Xeon E5-1400-Reihe; Intel Xeon E5-1600-Reihe; Intel Xeon E5-2400-Reihe; Intel Xeon E5-2600-Reihe; Intel Xeon E5-4600-Reihe |
Sandy Bridge EP |
0x206d7 (06/2d/7) |
0x6d |
0x0000071a |
3/24/2020 |
Intel Pentium 1400-Reihe; Intel Xeon E5-1400-Reihe; Intel Xeon E5-1600-Reihe; Intel Xeon E5-2400-Reihe; Intel Xeon E5-2600-Reihe; Intel Xeon E5-4600-Reihe |
Nehalem EX |
0x206e6 (06/2e/6) |
0x04 |
0x0000000d |
5/15/2018 |
Intel Xeon 65xx-Reihe; Intel Xeon 75xx-Reihe |
Westmere EX |
0x206f2 (06/2f/2) |
0x05 |
0x0000003b |
5/16/2018 |
Intel Xeon E7-8800-Reihe; Intel Xeon E7-4800-Reihe; Intel Xeon E7-2800-Reihe |
Ivy Bridge DT |
0x306a9 (06/3a/9) |
0x12 |
0x00000021 |
2/13/2019 |
Intel i3-3200-Reihe; Intel i7-3500-LE/UE; Intel i7-3600-QE; Intel Xeon E3-1200-v2-Reihe; Intel Xeon E3-1100-C-v2-Reihe; Intel Pentium B925C |
Haswell DT |
0x306c3 (06/3c/3) |
0x32 |
0x00000028 |
11/12/2019 |
Intel Xeon E3-1200-v3-Reihe; Intel i7-4700-EQ-Reihe; Intel i5-4500-TE-Reihe; Intel i3-4300-Reihe |
Ivy Bridge EP |
0x306e4 (06/3e/4) |
0xed |
0x0000042e |
3/14/2019 |
Intel Xeon E5-4600-v2-Reihe; Intel Xeon E5-2600-v2-Reihe; Intel Xeon E5-2400-v2-Reihe; Intel Xeon E5-1600-v2-Reihe; Intel Xeon E5-1400-v2-Reihe |
Ivy Bridge EX |
0x306e7 (06/3e/7) |
0xed |
0x00000715 |
3/14/2019 |
Intel Xeon E7-8800/4800/2800-v2-Reihe |
Haswell EP |
0x306f2 (06/3f/2) |
0x6f |
0x00000049 |
8/11/2021 |
Intel Xeon E5-4600-v3-Reihe; Intel Xeon E5-2600-v3-Reihe; Intel Xeon E5-2400-v3-Reihe; Intel Xeon E5-1600-v3-Reihe; Intel Xeon E5-1400-v3-Reihe |
Haswell EX |
0x306f4 (06/3f/4) |
0x80 |
0x0000001a |
5/24/2021 |
Intel Xeon E7-8800/4800-v3-Serie |
Broadwell H |
0x40671 (06/47/1) |
0x22 |
0x00000022 |
11/12/2019 |
Intel Core i7-5700EQ; Intel Xeon E3-1200-v4-Reihe |
Avoton |
0x406d8 (06/4d/8) |
0x01 |
0x0000012d |
16.09.2019 |
Intel Atom C2300-Reihe; Intel Atom C2500-Reihe; Intel Atom C2700-Reihe |
Broadwell EP/EX |
0x406f1 (06/4f/1) |
0xef |
0x0b000040 |
5/19/2021 |
Intel Xeon E7-8800/4800-v4-Reihe; Intel Xeon E5-4600-v4-Reihe; Intel Xeon E5-2600-v4-Reihe; Intel Xeon E5-1600-v4-Reihe |
Skylake SP |
0x50654 (06/55/4) |
0xb7 |
0x02006e05 |
3/8/2022 |
Intel Xeon Platinum 8100-Reihe; Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe; Intel Xeon D-2100-Reihe; Intel Xeon D-1600-Reihe; Intel Xeon W-3100-Reihe; Intel Xeon W-2100-Reihe |
Cascade Lake B-0 |
0x50656 (06/55/6) |
0xbf |
0x04003302 |
12/10/2021 |
Intel Xeon Platinum 9200/8200-Reihe; Intel Xeon Gold 6200/5200; Intel Xeon Silver 4200/Bronze 3200; Intel Xeon W-3200 |
Cascade Lake |
0x50657 (06/55/7) |
0xbf |
0x05003302 |
12/10/2021 |
Intel Xeon Platinum 9200/8200-Reihe; Intel Xeon Gold 6200/5200; Intel Xeon Silver 4200/Bronze 3200; Intel Xeon W-3200 |
Cooper Lake |
0x5065b (06/55/b) |
0xbf |
0x07002501 |
11/19/2021 |
Intel Xeon Platinum 8300-Reihe; Intel Xeon Gold 6300/5300 |
Broadwell DE |
0x50662 (06/56/2) |
0x10 |
0x0000001c |
17.06.2019 |
Intel Xeon D-1500-Reihe |
Broadwell DE |
0x50663 (06/56/3) |
0x10 |
0x0700001c |
6/12/2021 |
Intel Xeon D-1500-Reihe |
Broadwell DE |
0x50664 (06/56/4) |
0x10 |
0x0f00001a |
6/12/2021 |
Intel Xeon D-1500-Reihe |
Broadwell NS |
0x50665 (06/56/5) |
0x10 |
0x0e000014 |
9/18/2021 |
Intel Xeon D-1600-Reihe |
Skylake H/S |
0x506e3 (06/5e/3) |
0x36 |
0x000000f0 |
11/12/2021 |
Intel Xeon E3-1500-v5-Reihe; Intel Xeon E3-1200-v5-Reihe |
Denverton |
0x506f1 (06/5f/1) |
0x01 |
0x00000038 |
12/2/2021 |
Intel Atom C3000-Reihe |
Ice Lake SP |
0x606a6 (06/6a/6) |
0x87 |
0x0d000375 |
4/7/2022 |
Intel Xeon Silver 4300-Reihe; Intel Xeon Gold 6300/5300-Reihe; Intel Xeon Platinum 8300-Reihe |
Ice Lake D |
0x606c1 (06/6c/1) |
0x10 |
0x010001f0 |
6/24/2022 |
Intel Xeon D-Reihe |
Snow Ridge |
0x80665 (06/86/5) |
0x01 |
0x4c000020 |
5/10/2022 |
Intel Atom P5000 Series |
Snow Ridge |
0x80667 (06/86/7) |
0x01 |
0x4c000020 |
5/10/2022 |
Intel Atom P5000 Series |
Kaby Lake H/S/X |
0x906e9 (06/9e/9) |
0x2a |
0x000000f0 |
11/12/2021 |
Intel Xeon E3-1200-v6-Reihe; Intel Xeon E3-1500-v6-Reihe |
Coffee Lake |
0x906ea (06/9e/a) |
0x22 |
0x000000f0 |
11/15/2021 |
Intel Xeon E-2100-Reihe; Intel Xeon E-2200-Reihe (4 oder 6 Kerne) |
Coffee Lake |
0x906eb (06/9e/b) |
0x02 |
0x000000f0 |
11/12/2021 |
Intel Xeon E-2100-Reihe |
Coffee Lake |
0x906ec (06/9e/c) |
0x22 |
0x000000f0 |
11/15/2021 |
Intel Xeon E-2100-Reihe |
Coffee Lake Refresh |
0x906ed (06/9e/d) |
0x22 |
0x000000f4 |
7/31/2022 |
Intel Xeon E-2200-Reihe (8 Kerne) |
Rocket Lake S |
0xa0671 (06/a7/1) |
0x02 |
0x00000056 |
8/2/2022 |
Intel Xeon E-2300-Reihe |
Die folgenden VMware Tools-ISO-Images werden mit ESXi 8.0b gebündelt:
windows.iso: VMware Tools 12.1.5 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.
linux.iso: VMware Tools 10.3.25-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.
Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:
VMware Tools 11.0.6:
windows.iso: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
VMware Tools 10.0.12:
winPreVista.iso: für Windows 2000, Windows XP und Windows 2003.
linuxPreGLibc25.iso: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
solaris.iso: VMware Tools-Image 10.3.10 für Solaris.
darwin.iso: Unterstützt Mac OS X-Versionen 10.11 und höher. VMware Tools 12.1.0 war die letzte reguläre Version für macOS. Details finden Sie im VMware-Knowledgebase-Artikel 88698.
Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:
Profilname | ESXi-8.0sb-21203431-no-tools |
Build | Build-Informationen finden Sie unter In dieser Version enthaltene Patches. |
Anbieter | VMware, Inc. |
Datum der Veröffentlichung | Mittwoch, 14. Februar 2023 |
Akzeptanzebene | PartnerSupported |
Betroffene Hardware | Nicht verfügbar |
Betroffene Software | Nicht verfügbar |
Betroffene VIBs |
|
Behobene Probleme | 3049562, 3049613, 3049619, 3049640, 3050030, 3050032, 3050037, 3050512, 3054127, 3068093, 3030692, 3070447 |
Verwandte CVE-Nummern | CVE-2020-28196 |
In ESXi 8.0b werden die folgenden Sicherheits-Updates bereitgestellt:
Die SQLite-Datenbank wird auf Version 3.39.2 aktualisiert.
Die Python-Bibliothek wurde auf Version 3.8.15 aktualisiert.
OpenSSL wurde auf Version 3.0.7 aktualisiert.
Die libxml2-Bibliothek wurde auf Version 2.10.2 aktualisiert.
Der XML-Parser Expat wurde auf Version 2.5.0 aktualisiert.
Das lxml-XML-Toolkit wurde auf Version 4.5.2 aktualisiert.
cURL wurde auf Version 7.84 aktualisiert.
Die Go-Bibliothek wurde auf Version 1.18.6 aktualisiert.
Das tcpdump-Paket wurde auf Version 4.99.1 aktualisiert.
Das VIB „cpu-microcode“ enthält den folgenden Intel-Microcode:
Codename |
FMS |
PLT-ID |
MCU-Rev. |
MCU-Datum |
Markennamen |
---|---|---|---|---|---|
Nehalem EP |
0x106a5 (06/1a/5) |
0x03 |
0x0000001d |
5/11/2018 |
Intel Xeon 35xx-Reihe; Intel Xeon 55xx-Reihe |
Clarkdale |
0x20652 (06/25/2) |
0x12 |
0x00000011 |
5/8/2018 |
Intel i3/i5 Clarkdale-Reihe; Intel Xeon 34xx Clarkdale-Reihe |
Arrandale |
0x20655 (06/25/5) |
0x92 |
0x00000007 |
4/23/2018 |
Intel Core i7-620LE-Prozessor |
Sandy Bridge DT |
0x206a7 (06/2a/7) |
0x12 |
0x0000002f |
2/17/2019 |
Intel Xeon E3-1100-Reihe; Intel Xeon E3-1200-Reihe; Intel i7-2655-LE-Reihe; Intel i3-2100-Reihe |
Westmere EP |
0x206c2 (06/2c/2) |
0x03 |
0x0000001f |
5/8/2018 |
Intel Xeon 56xx-Reihe; Intel Xeon 36xx-Reihe |
Sandy Bridge EP |
0x206d6 (06/2d/6) |
0x6d |
0x00000621 |
3/4/2020 |
Intel Pentium 1400-Reihe; Intel Xeon E5-1400-Reihe; Intel Xeon E5-1600-Reihe; Intel Xeon E5-2400-Reihe; Intel Xeon E5-2600-Reihe; Intel Xeon E5-4600-Reihe |
Sandy Bridge EP |
0x206d7 (06/2d/7) |
0x6d |
0x0000071a |
3/24/2020 |
Intel Pentium 1400-Reihe; Intel Xeon E5-1400-Reihe; Intel Xeon E5-1600-Reihe; Intel Xeon E5-2400-Reihe; Intel Xeon E5-2600-Reihe; Intel Xeon E5-4600-Reihe |
Nehalem EX |
0x206e6 (06/2e/6) |
0x04 |
0x0000000d |
5/15/2018 |
Intel Xeon 65xx-Reihe; Intel Xeon 75xx-Reihe |
Westmere EX |
0x206f2 (06/2f/2) |
0x05 |
0x0000003b |
5/16/2018 |
Intel Xeon E7-8800-Reihe; Intel Xeon E7-4800-Reihe; Intel Xeon E7-2800-Reihe |
Ivy Bridge DT |
0x306a9 (06/3a/9) |
0x12 |
0x00000021 |
2/13/2019 |
Intel i3-3200-Reihe; Intel i7-3500-LE/UE; Intel i7-3600-QE; Intel Xeon E3-1200-v2-Reihe; Intel Xeon E3-1100-C-v2-Reihe; Intel Pentium B925C |
Haswell DT |
0x306c3 (06/3c/3) |
0x32 |
0x00000028 |
11/12/2019 |
Intel Xeon E3-1200-v3-Reihe; Intel i7-4700-EQ-Reihe; Intel i5-4500-TE-Reihe; Intel i3-4300-Reihe |
Ivy Bridge EP |
0x306e4 (06/3e/4) |
0xed |
0x0000042e |
3/14/2019 |
Intel Xeon E5-4600-v2-Reihe; Intel Xeon E5-2600-v2-Reihe; Intel Xeon E5-2400-v2-Reihe; Intel Xeon E5-1600-v2-Reihe; Intel Xeon E5-1400-v2-Reihe |
Ivy Bridge EX |
0x306e7 (06/3e/7) |
0xed |
0x00000715 |
3/14/2019 |
Intel Xeon E7-8800/4800/2800-v2-Reihe |
Haswell EP |
0x306f2 (06/3f/2) |
0x6f |
0x00000049 |
8/11/2021 |
Intel Xeon E5-4600-v3-Reihe; Intel Xeon E5-2600-v3-Reihe; Intel Xeon E5-2400-v3-Reihe; Intel Xeon E5-1600-v3-Reihe; Intel Xeon E5-1400-v3-Reihe |
Haswell EX |
0x306f4 (06/3f/4) |
0x80 |
0x0000001a |
5/24/2021 |
Intel Xeon E7-8800/4800-v3-Serie |
Broadwell H |
0x40671 (06/47/1) |
0x22 |
0x00000022 |
11/12/2019 |
Intel Core i7-5700EQ; Intel Xeon E3-1200-v4-Reihe |
Avoton |
0x406d8 (06/4d/8) |
0x01 |
0x0000012d |
16.09.2019 |
Intel Atom C2300-Reihe; Intel Atom C2500-Reihe; Intel Atom C2700-Reihe |
Broadwell EP/EX |
0x406f1 (06/4f/1) |
0xef |
0x0b000040 |
5/19/2021 |
Intel Xeon E7-8800/4800-v4-Reihe; Intel Xeon E5-4600-v4-Reihe; Intel Xeon E5-2600-v4-Reihe; Intel Xeon E5-1600-v4-Reihe |
Skylake SP |
0x50654 (06/55/4) |
0xb7 |
0x02006e05 |
3/8/2022 |
Intel Xeon Platinum 8100-Reihe; Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe; Intel Xeon D-2100-Reihe; Intel Xeon D-1600-Reihe; Intel Xeon W-3100-Reihe; Intel Xeon W-2100-Reihe |
Cascade Lake B-0 |
0x50656 (06/55/6) |
0xbf |
0x04003302 |
12/10/2021 |
Intel Xeon Platinum 9200/8200-Reihe; Intel Xeon Gold 6200/5200; Intel Xeon Silver 4200/Bronze 3200; Intel Xeon W-3200 |
Cascade Lake |
0x50657 (06/55/7) |
0xbf |
0x05003302 |
12/10/2021 |
Intel Xeon Platinum 9200/8200-Reihe; Intel Xeon Gold 6200/5200; Intel Xeon Silver 4200/Bronze 3200; Intel Xeon W-3200 |
Cooper Lake |
0x5065b (06/55/b) |
0xbf |
0x07002501 |
11/19/2021 |
Intel Xeon Platinum 8300-Reihe; Intel Xeon Gold 6300/5300 |
Broadwell DE |
0x50662 (06/56/2) |
0x10 |
0x0000001c |
17.06.2019 |
Intel Xeon D-1500-Reihe |
Broadwell DE |
0x50663 (06/56/3) |
0x10 |
0x0700001c |
6/12/2021 |
Intel Xeon D-1500-Reihe |
Broadwell DE |
0x50664 (06/56/4) |
0x10 |
0x0f00001a |
6/12/2021 |
Intel Xeon D-1500-Reihe |
Broadwell NS |
0x50665 (06/56/5) |
0x10 |
0x0e000014 |
9/18/2021 |
Intel Xeon D-1600-Reihe |
Skylake H/S |
0x506e3 (06/5e/3) |
0x36 |
0x000000f0 |
11/12/2021 |
Intel Xeon E3-1500-v5-Reihe; Intel Xeon E3-1200-v5-Reihe |
Denverton |
0x506f1 (06/5f/1) |
0x01 |
0x00000038 |
12/2/2021 |
Intel Atom C3000-Reihe |
Ice Lake SP |
0x606a6 (06/6a/6) |
0x87 |
0x0d000375 |
4/7/2022 |
Intel Xeon Silver 4300-Reihe; Intel Xeon Gold 6300/5300-Reihe; Intel Xeon Platinum 8300-Reihe |
Ice Lake D |
0x606c1 (06/6c/1) |
0x10 |
0x010001f0 |
6/24/2022 |
Intel Xeon D-Reihe |
Snow Ridge |
0x80665 (06/86/5) |
0x01 |
0x4c000020 |
5/10/2022 |
Intel Atom P5000 Series |
Snow Ridge |
0x80667 (06/86/7) |
0x01 |
0x4c000020 |
5/10/2022 |
Intel Atom P5000 Series |
Kaby Lake H/S/X |
0x906e9 (06/9e/9) |
0x2a |
0x000000f0 |
11/12/2021 |
Intel Xeon E3-1200-v6-Reihe; Intel Xeon E3-1500-v6-Reihe |
Coffee Lake |
0x906ea (06/9e/a) |
0x22 |
0x000000f0 |
11/15/2021 |
Intel Xeon E-2100-Reihe; Intel Xeon E-2200-Reihe (4 oder 6 Kerne) |
Coffee Lake |
0x906eb (06/9e/b) |
0x02 |
0x000000f0 |
11/12/2021 |
Intel Xeon E-2100-Reihe |
Coffee Lake |
0x906ec (06/9e/c) |
0x22 |
0x000000f0 |
11/15/2021 |
Intel Xeon E-2100-Reihe |
Coffee Lake Refresh |
0x906ed (06/9e/d) |
0x22 |
0x000000f4 |
7/31/2022 |
Intel Xeon E-2200-Reihe (8 Kerne) |
Rocket Lake S |
0xa0671 (06/a7/1) |
0x02 |
0x00000056 |
8/2/2022 |
Intel Xeon E-2300-Reihe |
Die folgenden VMware Tools-ISO-Images werden mit ESXi 8.0b gebündelt:
windows.iso: VMware Tools 12.1.5 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.
linux.iso: VMware Tools 10.3.25-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.
Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:
VMware Tools 11.0.6:
windows.iso: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
VMware Tools 10.0.12:
winPreVista.iso: für Windows 2000, Windows XP und Windows 2003.
linuxPreGLibc25.iso: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
solaris.iso: VMware Tools-Image 10.3.10 für Solaris.
darwin.iso: Unterstützt Mac OS X-Versionen 10.11 und höher. VMware Tools 12.1.0 war die letzte reguläre Version für macOS. Details finden Sie im VMware-Knowledgebase-Artikel 88698.
Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:
Name | ESXi |
Version | ESXi_8.0.0-1.20.21203435 |
Datum der Veröffentlichung | Mittwoch, 14. Februar 2023 |
Kategorie | Fehlerkorrektur |
Betroffene Komponenten |
|
Behobene Probleme | 3003171, 3023438 |
Verwandte CVE-Nummern | Nicht verfügbar |
Name | ESXi |
Version | ESXi_8.0.0-1.15.21203431 |
Datum der Veröffentlichung | Mittwoch, 14. Februar 2023 |
Kategorie | Fehlerkorrektur |
Betroffene Komponenten |
|
Behobene Probleme | 3003171, 3023438 |
Verwandte CVE-Nummern | CVE-2020-28196 |
Die bekannten Probleme gliedern sich in folgende Gruppen.
Sonstige ProblemeWenn Sie in einer vSphere-Umgebung mit DPUs eine Kickstart-Datei zum Automatisieren der ESXi-Installation verwenden, wählt ESXi während der Installation für das Verwaltungsnetzwerk möglicherweise eine DPU-Netzwerkkarte für den Standard-vSwitch0
aus, was zu Netzwerkausfällen führt. Beispielsweise kann das Abrufen einer Netzwerk-IP-Adresse für die Verwaltungsnetzwerk-Portgruppe fehlschlagen. Dies führt dazu, dass auch die ESXi-Installation fehlschlägt.
Problemumgehung: Entfernen Sie die Zeile network –bootproto=dhcp
aus der Kickstart-Datei.