Datum der Veröffentlichung: 23. Juni 2020

Inhalt dieser Versionshinweise

Diese Versionshinweise decken die folgenden Themen ab:

Neuigkeiten

  • In ESXi 7.0b sind die Dienstfunktionen von Dell NVMe-Geräten, einschließlich erweiterter Geräteinformationen und LED-Verwaltungsfunktionen, standardmäßig aktiviert.
  • In ESXi 7.0b wird der vSphere-Schnellstart auf folgenden Servern unterstützt:
    • Cisco HX220C-M4S
    • Cisco HX220C-M5SX
    • Cisco HX240C-M4SX
    • Cisco HX240C-M5L
    • Cisco HX240C-M5SX
    • Cisco HXAF220C-M4S
    • Cisco HXAF220C-M5SN
    • Cisco HXAF220C-M5SX
    • Cisco HXAF240C-M4SX
    • Cisco HXAF240C-M5SX
    • Cisco UCSB-B200-M4
    • Cisco UCSB-EX-M4-1 (B260 M4 v2)
    • Cisco UCSB-EX-M4-1 (B460 M4 v2)
    • Cisco UCSB-EX-M4-2 (B260 M4 v3)
    • Cisco UCSB-EX-M4-2 (B460 M4 v3)
    • Cisco UCSB-EX-M4-3 (B260 M4 v4)
    • Cisco UCSB-EX-M4-3 (B460 M4 v4)
    • Cisco UCSC-480-M5
    • Cisco UCSC-480-M5ML
    • Cisco UCSC-C220-M4S
    • Cisco UCSC-C220-M5L
    • Cisco UCSC-C220-M5SN
    • Cisco UCSC-C240-M4S2
    • Cisco UCSC-C240-M4SX
    • Cisco UCSC-C240-M5L
    • Cisco UCSC-C240-M5S
    • Cisco UCSC-C240-M5SN
    • Cisco UCSC-C240-M5SX
    • Fujitsu Primergy RX2530 M5
    • HPE ProLiant DL325 Gen 10
    • Lenovo ThinkSystem SR 650
  • In ESXi 7.0b werden die folgenden Server erneut zum vSphere-Schnellstart hinzugefügt:
    • HPE ProLiant DL380 Gen9
    • HPE ProLiant DL560 Gen9
    • HPE ProLiant DL580 Gen9

Build-Details

Download-Dateiname: VMware-ESXi-7.0b-16324942-depot
Build: 16324942
Download-Größe: 508,5 MB
md5sum: 18a8c2243a0bd15286c331092ab028fc
sha1checksum: d0a02bbf0716364fb3e799501357944c88e17401
Neustart des Hosts erforderlich: Ja
Migration oder Herunterfahren der virtuellen Maschine erforderlich: Ja

Komponenten

Komponente Bulletin Kategorie Schweregrad
ESXi ESXi_7.0.0-1.25.16324942 Fehlerkorrektur Kritisch
ESXi ESXi_7.0.0-1.20.16321839 Sicherheit Kritisch
ESXi-Komponente „Installieren/Aktualisieren“ esx-update_7.0.0-1.25.16324942 Fehlerkorrektur Kritisch
ESXi-Komponente „Installieren/Aktualisieren“ esx-update_7.0.0-1.20.16321839 Sicherheit Kritisch
VMware-USB-Treiber VMware-vmkusb_0.1-1vmw.700.1.25.16324942 Fehlerkorrektur Wichtig
VMware NVMe PCI Express-Speichertreiber VMware-NVMe-PCIe_1.2.2.14-1vmw.700.1.25.16324942 Fehlerkorrektur Wichtig
VMware-VM-Tools VMware-VM-Tools_11.1.0.16036546-16321839 Sicherheit Wichtig

WICHTIG: Ab vSphere 7.0 verwendet VMware Komponenten zum Verpacken von VIBs mit Bulletins. Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.

Rollup-Bulletin

Dieses Rollup-Bulletin enthält die neuesten VIBs mit allen Fixes seit der ersten Version von ESXi 7.0.

Bulletin-ID Kategorie Schweregrad
ESXi70b-16324942 Fehlerkorrektur Kritisch

Image-Profile

Patch- und Updateversionen von VMware enthalten allgemeine und kritische Image-Profile. Die Anwendung des allgemeinen Image-Profils der Version gilt für die neuen Fehlerkorrekturen.

Name des Image-Profils
ESXi-7.0b-16324942-standard
ESXi-7.0b-16324942-no-tools
ESXi-7.0bs-16321839-standard
ESXi-7.0bs-16321839-no-tools

ESXi-Image

Name und Version Datum der Veröffentlichung Kategorie Detail
ESXi 7.0b - 16324942 06/16/2020 Verbesserung Image für Sicherheit und Fehlerbehebung
ESXi 7.0bs - 16321839 06/16/2020 Verbesserung Image nur für Sicherheit

Informationen zu den einzelnen Komponenten und Bulletins finden Sie auf der Seite Produkt-Patches und im Abschnitt Behobene Probleme.

Patch-Download und -Installation

In vSphere 7.0 wird das für die Verwaltung von vSphere Update Manager verwendete Update Manager-Plug-In durch das Lifecycle Manager-Plug-In ersetzt. Verwaltungsvorgänge für vSphere Update Manager stehen weiterhin mit neuen Funktionen für vSphere Lifecycle Manager im Lifecycle Manager-Plug-In zur Verfügung.
Die typische Methode zum Anwenden von Patches auf ESXi 7.0.x-Hosts besteht in der Verwendung des Lifecycle Managers. Weitere Informationen finden Sie unter Info zu vSphere Lifecycle Manager und vSphere Lifecycle Manager-Baselines und -Images.
Sie können ESXi-Hosts auch ohne vSphere Lifecycle Manager mithilfe eines Image-Profils aktualisieren. Hierzu müssen Sie die ZIP-Datei des Patch-Offline-Pakets von der Seite VMware-Download oder der Seite Produkt-Patches manuell herunterladen und den Befehl esxcli software profile verwenden.
Weitere Informationen finden Sie unter Aktualisieren von Hosts mithilfe von ESXCLI-Befehlen und im Handbuch VMware ESXi-Upgrade.

Behobene Probleme

Die behobenen Probleme werden in folgende Kategorien unterteilt.

ESXi_7.0.0-1.25.16324942
Patch-Kategorie Fehlerkorrektur
Patch-Schweregrad Kritisch
Hostneustart erforderlich Ja
Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
Betroffene Hardware Nicht verfügbar
Betroffene Software Nicht verfügbar
Enthaltene VIBs
  • VMware_bootbank_vdfs_7.0.0-1.25.16324942
  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.25.16324942
  • VMware_bootbank_vsanhealth_7.0.0-1.25.16324942
  • VMware_bootbank_esx-ui_1.34.0-15603211
  • VMware_bootbank_vsan_7.0.0-1.25.16324942
  • VMware_bootbank_esx-base_7.0.0-1.25.16324942
  • VMware_bootbank_crx_7.0.0-1.25.16324942
  • VMware_bootbank_native-misc-drivers_7.0.0-1.25.16324942
  • VMware_bootbank_esx-xserver_7.0.0-1.25.16324942
  • VMware_bootbank_cpu-microcode_7.0.0-1.25.16324942

Behobene Probleme 

2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690
CVE-Nummern Nicht verfügbar

Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.

Aktualisiert die VIBs esx-dvfilter-generic-fastpath, vsanhealth, esx-ui, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver und cpu-microcode, um die folgenden Probleme zu beheben:

  • In dieser Version wird der Intel-Microcode für unterstützte ESXi-CPUs auf die Versionen aktualisiert, die ab dem 29. April 2020 für die Produktion zugelassen sind. Weitere Informationen zu den aktuell enthaltenen Microcode-Updates finden Sie in der Tabelle.

    Hinweis: Nicht alle von Intel am 9. Juni 2020 veröffentlichten Microcode-Updates sind enthalten. Intel hat die Updates für verschiedene
    CPUs zu spät zur Verfügung gestellt, sodass VMware sie weder testen noch in diese ESXi-Patch-Version aufnehmen konnte. Zum Abrufen des aktuellen Microcode wenden Sie sich an Ihren Hardware-Anbieter und bitten ihn um ein BIOS-Update.

    Codename FMS PLT-ID MCU-Rev. MCU-Datum Markennamen
    Nehalem EP 0x106a5 0x03 0x0000001d 5/11/2018 Intel Xeon 35xx-Reihe;
    Intel Xeon 55xx-Reihe
    Lynnfield 0x106e5 0x13 0x0000000a 5/8/2018 Intel Xeon 34xx Lynnfield-Reihe
    Clarkdale 0x20652 0x12 0x00000011 5/8/2018 Intel i3/i5 Clarkdale-Reihe;
    Intel Xeon 34xx Clarkdale-Reihe
    Arrandale 0x20655 0x92 0x00000007 4/23/2018 Intel Core i7-620LE-Prozessor
    Sandy Bridge DT 0x206a7 0x12 0x0000002f 2/17/2019 Intel Xeon E3-1100-Reihe;
    Intel Xeon E3-1200-Reihe;
    Intel i7-2655-LE-Reihe;
    Intel i3-2100-Reihe
    Westmere EP 0x206c2 0x03 0x0000001f 5/8/2018 Intel Xeon 56xx-Reihe;
    Intel Xeon 36xx-Reihe
    Sandy Bridge EP 0x206d6 0x6d 0x00000621 3/4/2020 Intel Pentium 1400-Reihe;
    Intel Xeon E5-1400-Reihe;
    Intel Xeon E5-1600-Reihe;
    Intel Xeon E5-2400-Reihe;
    Intel Xeon E5-2600-Reihe;
    Intel Xeon E5-4600-Reihe
    Sandy Bridge EP 0x206d7 0x6d 0x0000071a 3/24/2020 Intel Pentium 1400-Reihe;
    Intel Xeon E5-1400-Reihe;
    Intel Xeon E5-1600-Reihe;
    Intel Xeon E5-2400-Reihe;
    Intel Xeon E5-2600-Reihe;
    Intel Xeon E5-4600-Reihe
    Nehalem EX 0x206e6 0x04 0x0000000d 5/15/2018 Intel Xeon 65xx-Reihe;
    Intel Xeon 75xx-Reihe
    Westmere EX 0x206f2 0x05 0x0000003b 5/16/2018 Intel Xeon E7-8800-Reihe;
    Intel Xeon E7-4800-Reihe;
    Intel Xeon E7-2800-Reihe
    Ivy Bridge DT 0x306a9 0x12 0x00000021 2/13/2019 Intel i3-3200-Reihe;
    Intel i7-3500-LE/UE;
    Intel i7-3600-QE;
    Intel Xeon E3-1200-v2-Reihe;
    Intel Xeon E3-1100-C-v2-Reihe;
    Intel Pentium B925C
    Haswell DT 0x306c3 0x32 0x00000028 11/12/2019 Intel Xeon E3-1200-v3-Reihe;
    Intel i7-4700-EQ-Reihe;
    Intel i5-4500-TE-Reihe;
    Intel i3-4300-Reihe
    Ivy Bridge EP 0x306e4 0xed 0x0000042e 3/14/2019 Intel Xeon E5-4600-v2-Reihe;
    Intel Xeon E5-2600-v2-Reihe;
    Intel Xeon E5-2400-v2-Reihe;
    Intel Xeon E5-1600-v2-Reihe;
    Intel Xeon E5-1400-v2-Reihe
    Ivy Bridge EX 0x306e7 0xed 0x00000715 3/14/2019 Intel Xeon E7-8800/4800/2800-v2-Reihe
    Haswell EP 0x306f2 0x6f 0x00000043 3/1/2019 Intel Xeon E5-4600-v3-Reihe;
    Intel Xeon E5-2600-v3-Reihe;
    Intel Xeon E5-2400-v3-Reihe;
    Intel Xeon E5-1600-v3-Reihe;
    Intel Xeon E5-1400-v3-Reihe
    Haswell EX 0x306f4 0x80 0x00000016 17.06.2019 Intel Xeon E7-8800/4800-v3-Serie
    Broadwell H 0x40671 0x22 0x00000022 11/12/2019 Intel Core i7-5700EQ;
    Intel Xeon E3-1200-v4-Reihe
    Avoton 0x406d8 0x01 0x0000012d 16.09.2019 Intel Atom C2300-Reihe;
    Intel Atom C2500-Reihe;
    Intel Atom C2700-Reihe
    Broadwell EP/EX 0x406f1 0xef 0x0b000038 18.06.2019 Intel Xeon E7-8800/4800-v4-Reihe;
    Intel Xeon E5-4600-v4-Reihe;
    Intel Xeon E5-2600-v4-Reihe;
    Intel Xeon E5-1600-v4-Reihe
    Skylake SP 0x50654 0xb7 0x02006901 2/12/2020 Intel Xeon Platinum 8100-Reihe;
    Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe;
    Intel Xeon D-2100-Reihe;
    Intel Xeon D-1600-Reihe;
    Intel Xeon W-3100-Reihe;
    Intel Xeon W-2100-Reihe
    Cascade Lake B-0 0x50656 0xbf 0x04002f00 1/14/2020 Intel Xeon Platinum 9200/8200-Reihe;
    Intel Xeon Gold 6200/5200;
    Intel Xeon Silver 4200/Bronze 3200;
    Intel Xeon W-3200
    Cascade Lake 0x50657 0xbf 0x05002f00 1/14/2020 Intel Xeon Platinum 9200/8200-Reihe;
    Intel Xeon Gold 6200/5200;
    Intel Xeon Silver 4200/Bronze 3200;
    Intel Xeon W-3200
    Broadwell DE 0x50662 0x10 0x0000001c 17.06.2019 Intel Xeon D-1500-Reihe
    Broadwell DE 0x50663 0x10 0x07000019 17.06.2019 Intel Xeon D-1500-Reihe
    Broadwell DE 0x50664 0x10 0x0f000017 17.06.2019 Intel Xeon D-1500-Reihe
    Broadwell NS 0x50665 0x10 0x0e00000f 17.06.2019 Intel Xeon D-1600-Reihe
    Skylake H/S 0x506e3 0x36 0x000000d6 10/3/2019 Intel Xeon E3-1500-v5-Reihe;
    Intel Xeon E3-1200-v5-Reihe
    Denverton 0x506f1 0x01 0x0000002e 3/21/2019 Intel Atom C3000-Reihe
    Kaby Lake H/S/X 0x906e9 0x2a 0x000000ca 10/3/2019 Intel Xeon E3-1200-v6-Reihe;
    Intel Xeon E3-1500-v6-Reihe
    Coffee Lake 0x906ea 0x22 0x000000cc 12/8/2019 Intel Xeon E-2100-Reihe;
    Intel Xeon E-2200-Reihe (4 oder 6 Kerne)
    Coffee Lake 0x906eb 0x02 0x000000ca 10/3/2019 Intel Xeon E-2100-Reihe
    Coffee Lake 0x906ec 0x22 0x000000ca 10/3/2019 Intel Xeon E-2100-Reihe
    Coffee Lake Refresh 0x906ed 0x22 0x000000cc 12/12/2019 Intel Xeon E-2200-Reihe (8 Kerne)
  • PR 2536681: Gerätealiase werden unter Umständen nicht in der erwarteten Reihenfolge auf ESXi-Hosts angezeigt, die mit SMBIOS 3.2 oder höher kompatibel sind

    In Versionen vor ESXi 7.0b ist die ESXi-Analyse der SMBIOS-Tabelle in der Host-Firmware zum Festlegen der Reihenfolge, in der Gerätealiase zugewiesen werden, nicht vollständig mit SMBIOS 3.2 oder höher kompatibel. Folglich weisen ESXi-Hosts Gerätealiase unter Umständen in der falschen Reihenfolge zu.

    Dieses Problem wurde in der vorliegenden Version behoben. Weitere Informationen zum Korrigieren der Reihenfolge der Gerätealiase finden Sie im VMware-Knowledgebase-Artikel 2091560.

  • PR 2486316: ESXi-Hosts können während der Ausführung einer timerCallback-Funktion mit einem violetten Diagnosebildschirm fehlschlagen

    ESXi-Hosts schlagen möglicherweise mit einem violetten Diagnosebildschirm fehl, während vom Kernel-Speicher-Stack eine timerCallback-Funktion ausgeführt wird. Die timerCallback-Funktion wird in einer nicht präemptiven Art und Weise ausgeführt. In bestimmten Fällen versucht der Kernel-Speicher-Stack jedoch, während der Ausführung einer timerCallback-Funktion vorzeitige Entfernung auf einer CPU zu aktivieren. Dies führt dazu, dass der ESXi-Host mit einem Fehler ähnlich dem folgenden fehlschlägt:
    PSOD : Assert bora/vmkernel/main/bh.c:981

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2503110: Wenn nach dem Aktivieren der Storage I/O Control-Protokollierung der Parameter „SIOControlLoglevel“ festgelegt wird, werden die Protokollierungsebenen möglicherweise nicht geändert

    Die Anmeldung für Storage I/O Control ist standardmäßig deaktiviert. Zum Aktivieren oder Festlegen einer Protokollierungsebene müssen Sie einen Wert von 1 bis 7 für den
    Parameter verwenden. In bestimmten Fällen wirkt sich die Änderung des Parameterwerts jedoch nicht auf die Protokollierungsebene aus.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2503110: Das Aktivieren des VMware vSphere Storage I/O Control-Protokolls kann dazu führen, dass die syslog- und rsyslog-Server überflutet werden

    Bestimmte Storage I/O Control-Protokolle führen möglicherweise zu einer Protokollüberflutung in den Dateien storagerm.log und sdrsinjector.log. Dieser Zustand kann zu einer schnellen Protokollrotation führen.

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix verschiebt einige Protokolle aus dem regulären Protokoll in Log_Trivia und verhindert zusätzliche Protokollierung.

  • PR 1221281: Stilllegungsvorgänge von virtuellen Maschinen auf von LUNs unterstützten Volumes, die eine Granularität von mehr als 1 MB für Zuordnungsaufhebungen unterstützen, dauern unter Umständen länger als gewöhnlich

    Von LUNs unterstützte VMFS-Datenspeicher, die eine optimale Granularität von mehr als 1 MB für Zuordnungsaufhebungen aufweisen, werden während der Verarbeitung der automatischen Zuordnungsaufhebung möglicherweise einer wiederholten platteninternen Sperrung unterzogen. Folglich nehmen Stilllegungsvorgänge für virtuelle Maschinen in solchen Datenspeichern mehr Zeit in Anspruch als gewöhnlich.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2549419: Das Festlegen der Priorität der Speicherplatzrückforderung für einen VMFS-Datenspeicher funktioniert möglicherweise nicht für alle ESXi-Hosts, die den Datenspeicher verwenden

    Sie können die standardmäßige Priorität für die Speicherplatzrückforderung eines VMFS-Datenspeichers ändern, indem Sie den ESXCLI-Befehl esxcli storage vmfs reclaim config set  --reclaim-priority verwenden. Führen Sie beispielsweise folgenden Befehl aus, um die Priorität der Speicherplatzrückforderung, d. h. die Aufhebung der Zuordnung nicht verwendeter Blöcke aus dem Datenspeicher zu der diesen Datenspeicher stützenden LUN, von der standardmäßigen niedrigen Rate in „none“ (keine) zu ändern:
    esxcli storage vmfs reclaim config set --volume-label datastore_name --reclaim-priority none
    Die Änderung wird möglicherweise nur auf dem ESXi-Host, auf dem Sie den Befehl ausführen, und nicht auf anderen Hosts wirksam, die denselben Datenspeicher verwenden.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2550655: Es kommt möglicherweise zu einer VMkernel-Protokollüberflutung, wenn VMFS-Volumes häufig geöffnet und geschlossen werden

    Wenn VMFS-Volumes häufig geöffnet und geschlossen werden, enthalten die VMkernel-Protokolle unter Umständen Meldungen, wie z. B. does not support unmap beim Öffnen eines Volumes und Exiting async journal replay manager world beim Schließen eines Volumes.

    Dieses Problem wurde in der vorliegenden Version behoben. Die Protokolle does not support unmap beim Öffnen eines VMFS-Volumes und Exiting async journal replay manager world beim Schließen eines Volumes werden nicht mehr angezeigt.

  • PR 2554564: ESXi-Hosts mit vier oder mehr vSAN-Festplattengruppen fallen in NUMA-Konfigurationen mit vier oder mehr Knoten möglicherweise aufgrund einer nicht behobenen Bedingung des Typs „Nicht genügend Arbeitsspeicher“ mit einem violetten Diagnosebildschirm aus

    Bei einer vSAN-Konfiguration auf einem ESXi-Host mit vier oder mehr Festplattengruppen, der in einer NUMA-Konfiguration mit vier oder mehr Knoten ausgeführt wird, werden die für einen bestimmten NUMA-Knoten dedizierten Bereichsspeicherressourcen von VMkernel auf diesem Host möglicherweise ausgeschöpft. Andere NUMA-Knoten auf demselben Host weisen möglicherweise überschüssige Bereichsspeicherressourcen auf. VMkernel generiert jedoch möglicherweise vorzeitig eine Bedingung des Typs „Nicht genügend Arbeitsspeicher“, statt die überschüssige Bereichsspeicherkapazität der anderen NUMA-Knoten zu verwenden. Infolgedessen fällt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm aus, oder eine vSAN-Festplattengruppe auf diesem Host fällt aus. Nach dem Neustart des Hosts wird in der Datei vmkernel.log ein Fehler angezeigt, wie z. B. Throttled: BlkAttr not ready for disk“.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2554116: ESXi-Hosts fallen möglicherweise beim Laden eines Kernelmoduls während des Startvorgangs mit einem violetten Diagnosebildschirm aus

    Beim Laden von Kernelmodulen wird der VMkernel Module Loader-Befehl vmkload_mod, mit dessen Hilfe der Gerätetreiber und die Netzwerk-Shaper-Module in den VMkernel geladen werden, möglicherweise auf einen anderen NUMA-Knoten migriert. In einem solchen Fall kann ein Prüfsummenkonflikt auf den NUMA-Knoten auftreten. Dies kann dazu führen, dass ein ESXi-Host mit einem violetten Diagnosebildschirm ausfällt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2489840: Wenn VMware NSX-T und der Sperrmodus aktiviert sind, kann ein statusfreier ESXi-Host bei der Startzeitstandardisierung fehlschlagen und im Wartungsmodus verbleiben

    Bestimmte Benutzerkonten, die sich auf NSX-T beziehen, stehen erst nach einem Startvorgang zur Verfügung. Da sie beim Start nicht vorhanden sind, schlägt die Startzeitstandardisierung eines statusfreien ESXi-Hosts möglicherweise fehl, wenn diese Konten in die Liste ausgenommener Benutzer im Sperrmodus aufgenommen werden. In der Datei syslog.log wird eine Zeile ähnlich der folgenden angezeigt:
    key = 'POST_BOOT_CONFIG_FAILED', value = 'Fehler beim Aktualisieren der vom Sperrmodus ausgenommenen Benutzerkonten. Ungültiger Benutzer angegeben: mux_user'

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2548068: Bestimmte Dateien fehlen unter Umständen in ProductLocker, wenn ein Live-Upgrade auf ESXi 7.0 von einer früheren Festplatten-Dump-Image-Version eines ESXi-Hosts durchgeführt wird

    Wenn Sie ein Live-Upgrade auf ESXi 7.0 von einer früheren als Festplatten-Dump-Image installierten ESXi-Version durchführen, indem Sie den Befehl esxiso2dd und VMware Tools-Version 4.0 oder höher verwenden, fehlen im Speicherort /productLocker unter Umständen bestimmte VMware Tools-Dateien. Frühere ESXi-Versionen verwenden ein VFAT-Dateisystem, bei dem nicht zwischen Groß- und Kleinschreibung unterschieden wird. ESXi 7.0 verwendet jedoch VMFS-L zum Überprüfen von Dateinamen unter Berücksichtigung der Groß-/Kleinschreibung. Dateien, bei denen diese Überprüfung fehlschlägt, werden nicht zu ProductLocker hinzugefügt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2556037: Wenn eine der Adressfamilien auf einem Domänencontroller mit Dual-Stack nicht aktiviert ist, schlägt das Hinzufügen von ESXi-Hosts zur Domäne möglicherweise nach dem Zufallsprinzip fehl

    Wenn eine der Adressfamilien, z. B. IPv6, auf einem Domänencontroller mit Dual-Stack nicht aktiviert ist, ist selbst nach dem Deaktivieren von IPv6 auf dem Controller noch ein CLDAP-Ping an eine IPv6-Adressen möglich. Dies führt möglicherweise zu einer Zeitüberschreitung und löst einen Fehler aus, wonach das Datencenter nicht verfügbar ist, wie z. B. Fehler: NERR_DCNotFound [code 0x00000995]. Dies führt dazu, dass Sie der Domäne möglicherweise keine ESXi-Hosts hinzufügen können.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2572393: Upgrades auf ESXi 7.0 von einem ESXi 6.x-Host mit iSCSI-Geräten schlagen unter Umständen mit einem schwerwiegenden Fehler während des ESXi-Starts fehl

    Upgrades auf ESXi 7.0 von einem benutzerdefinierten oder standardmäßigen ESXi 6.x-Image mit einer asynchronen Version von Offload-iSCSI-Treibern schlagen unter Umständen mit Meldungen ähnlich der folgenden fehl: Schwerwiegender Fehler: 15 (nicht gefunden) oder Fehler beim Laden von /vmfs/volumes/ /b.b00 . Zu den betroffenen Offload-iSCSI-Treibersätzen gehören bnx2i/qfle3i, be2iscsi/elxiscsi und qedil/qedi. Dieses Problem tritt möglicherweise auch in Umgebungen mit einer Software-iSCSI und iSCSI-Verwaltungs-API-Plug-Ins auf.
    Die Meldungen werden auf der ESXi-Ladeseite während der Neustartphase des Upgrades angezeigt, das Sie mithilfe von vSphere Lifecycle Manager oder ESXCLI durchführen können.  Bei Verwendung von vSphere Lifecycle Manager wird beim Zurücksetzen ein Rollback des vCenter Server-Systems auf das vorherige Image durchgeführt. Dieses Problem betrifft überwiegend Systeme mit iSCSI-fähigen QLogic 578XX-CANs (Converged Network Adapters) oder iSCSI-fähigen Emulex OneConnect-CNAs oder QLogic FastLinQ QL4xxxx-CNAs oder Software-iSCSI-Konfigurationen. Das Problem tritt nicht auf, wenn der CNA nur für FCoE konfiguriert ist.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2544236: Wenn Sie an einen neu hinzugefügten VMkernel-Port auf einem ESXi-Host gerichtete CIM-Abfragen ausführen, schlägt der SFCB-Dienst (Small Footprint CIM Broker) möglicherweise fehl

    Wenn Sie eine CIM-Abfrage, wie z. B. enum_instances, für einen neu hinzugefügten VMkernel-Port auf einem ESXi-Host ausführen, schlägt der SFCB-Dienst möglicherweise fehl, weil er die IP-Adresse der neuen Instanz nicht validieren kann. Falls beispielsweise IPv6 aktiviert und als statisch konfiguriert ist, die IPv6-Adresse aber leer ist, wird bei der Abfrage einer der CIM-Klassen CIM_IPProtocolEndpoint bzw. VMware_KernelIPv6ProtocolEndpoint ein SFCB-Core-Dump generiert.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2555270: Wenn eine gesicherte Speichergerätekonfiguration nach mehr als sieben Tagen wiederhergestellt wird, gehen unter Umständen bestimmte Einstellungen verloren

    Wenn Sie eine Konfiguration, die mithilfe von backup.sh gesichert wurde, nach mehr als 7 Tagen wiederherstellen, gehen Einstellungen für das Speichergerät, wie z. B. „Is perennially reserved“, unter Umständen verloren. Dies geschieht, weil die aktuellen Zeitstempel der Geräte ebenfalls gesichert werden. Wenn das Gerät mehr als sieben Tage nicht aktiv war, werden Geräteeinträge aus /etc/vmware/esx.conf gelöscht. Infolgedessen werden beim Wiederherstellungsvorgang unter Umständen ältere Zeitstempel wiederhergestellt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2552532: Ein ESXi-Host wählt neu zugeordnete Namespaces unter Umständen nicht aus

    Wenn in bestimmten Fällen die Zuordnung von Namespaces auf der Ziel-Site aufgehoben wird und eine Neuzuordnung erfolgt, kann ESXi den neu zugeordneten Namespace unter Umständen nicht auswählen. Dieses Problem tritt auf, wenn die Bereinigung der alten Namespace-Instanz nicht abgeschlossen ist. In diesem Fall müssen Sie den NVMe-Controller zurücksetzen, um die Namespaces neu zu ermitteln.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • PR 2551359: Die Konfiguration des vSAN-Dateidiensts lässt mehr als 8 IP-Adressen zu.

    Der vSAN-Dateidienst unterstützt bis zu 8 IP-Adressen im statischen IP-Adresspool. Wenn ein vSAN-Cluster über mehr als 8 Hosts verfügt, können Sie während der Konfiguration des Dateidiensts mehr als 8 IP-Adressen eingeben. Zusätzliche IP-Adressen können jedoch nicht verwendet werden.

    Dieses Problem wurde in der vorliegenden Version behoben. Sie können in der Dateidienstkonfiguration maximal 8 IP-Adressen eingeben.

  • PR 2541690: vSAN-Hosts mit Deduplizierung weisen während der Verarbeitung von Löschvorgängen nicht genügend Speicherplatz auf

    Wenn ein vSAN-Host Deduplizierung und Komprimierung verwendet, können Löschvorgänge nicht abgeschlossen werden. Dies führt dazu, dass auf dem Dateisystem kein freier Speicherplatz mehr zur Verfügung steht.

    Dieses Problem wurde in der vorliegenden Version behoben.

esx-update_7.0.0-1.25.16324942
Patch-Kategorie Fehlerkorrektur
Patch-Schweregrad Kritisch
Hostneustart erforderlich Ja
Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
Betroffene Hardware Nicht verfügbar
Betroffene Software Nicht verfügbar
Enthaltene VIBs
  • VMware_bootbank_loadesx_7.0.0-1.25.16324942
  • VMware_bootbank_esx-update_7.0.0-1.25.16324942
Behobene Probleme  Nicht verfügbar
CVE-Nummern Nicht verfügbar

Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.

Aktualisiert die VIBs loadesx und esx-update.

    VMware-NVMe-PCIe_1.2.2.14-1vmw.700.1.25.16324942
    Patch-Kategorie Fehlerkorrektur
    Patch-Schweregrad Kritisch
    Hostneustart erforderlich Ja
    Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
    Betroffene Hardware Nicht verfügbar
    Betroffene Software Nicht verfügbar
    Enthaltene VIBs
    • VMW_bootbank_nvme-pcie_1.2.2.14-1vmw.700.1.25.16324942
    Behobene Probleme  2554114
    CVE-Nummern Nicht verfügbar

    Aktualisiert das VIB  nvme-pcie zur Behebung des folgenden Problems:
    • PR 2554114: Wenn ein NVMe-Gerät in weniger als einer Minute im laufenden Betrieb entfernt und hinzugefügt wird, schlägt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm fehl

      Wenn ein NVMe-Gerät vor Abschluss der Speicher-Stack-Bereinigung im laufenden Betrieb entfernt und hinzugefügt wird (in der Regel innerhalb von 60 Sekunden), kann der PCIe-Treiber Deaktivierter Hotplug nicht drucken. Folglich wird unter Umständen eine Meldung ähnlich Gerät bereits vorhanden angezeigt. Schließlich schlägt der ESXi-Host mit einem violetten Diagnosebildschirm und einem Fehler ähnlich dem folgenden fehl:
      ​LINT1/NMI (nicht maskierbares Interrupt der Hauptplatine), nicht diagnostiziert.

      Dieses Problem wurde in der vorliegenden Version behoben. Der Fix verringert die E/A-Zeit auf der PSA-Schicht von etwa einer Minute auf 1 ms, um die E/A-Vorgänge bei Hinzufügen oder Entfernen im laufenden Betrieb stillzulegen.

    VMware-vmkusb_0.1-1vmw.700.1.25.16324942
    Patch-Kategorie Fehlerkorrektur
    Patch-Schweregrad Wichtig
    Hostneustart erforderlich Ja
    Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
    Betroffene Hardware Nicht verfügbar
    Betroffene Software Nicht verfügbar
    Enthaltene VIBs
    • VMW_bootbank_vmkusb_0.1-1vmw.700.1.25.16324942
    Behobene Probleme  Nicht verfügbar
    CVE-Nummern Nicht verfügbar

    Aktualisiert das  vmkusb VIB.
      ESXi_7.0.0-1.20.16321839
      Patch-Kategorie Sicherheit
      Patch-Schweregrad Kritisch
      Hostneustart erforderlich Ja
      Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
      Betroffene Hardware Nicht verfügbar
      Betroffene Software Nicht verfügbar
      Enthaltene VIBs
      • VMware_bootbank_vdfs_7.0.0-1.20.16321839
      • VMware_bootbank_esx-xserver_7.0.0-1.20.16321839
      • VMware_bootbank_vsan_7.0.0-1.20.16321839
      • VMware_bootbank_esx-base_7.0.0-1.20.16321839
      • VMware_bootbank_esx-ui_1.34.0-15603211
      • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.20.16321839
      • VMware_bootbank_native-misc-drivers_7.0.0-1.20.16321839
      • VMware_bootbank_vsanhealth_7.0.0-1.20.16321839
      • VMware_bootbank_cpu-microcode_7.0.0-1.20.16321839
      • VMware_bootbank_crx_7.0.0-1.20.16321839
      Behobene Probleme  2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417
      CVE-Nummern CVE-2020-3962, CVE-2020-3963, CVE-2020-3964, CVE-2020-3965, CVE-2020-3966, CVE-2020-3967, CVE-2020-3968, CVE-2020-3969, CVE-2020-3970

      Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.

      Aktualisiert die VIBs vdfs, esx-xserver, vsan, esx-base, esx-ui, esx-dvfilter-generic-fastpath, native-misc-drivers, vsanhealth, cpu-microcode und crx, um die folgenden Probleme zu beheben:

      • Update auf die libsqlite3-Bibliothek

        Die ESXi libsqlite3-Bibliothek wird auf Version 3.31.1 aktualisiert.

      • Update der libxml2-Bibliothek

        Die userworld-libxml2-Bibliothek von ESXi wurde auf Version 2.9.10 aktualisiert.

      • Update der libcurl-Bibliothek

        Die userworld-libcurl-Bibliothek von ESXi wurde auf Version 7.69.1 aktualisiert.

      • Update der Python-Bibliothek

        Die ESXi Python-Bibliothek wird auf Version 3.5.9 und Freetype Python auf 2.9 aktualisiert.

      • Update auf die NTP-Bibliothek

        Die ESXi NTP-Bibliothek wird auf Version 4.2.8p14 aktualisiert.

        • VMware ESXi enthält eine Use-after-free-Schwachstelle im SVGA-Gerät. Im Projekt „Common Vulnerabilities and Exposures (CVE)“ (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3962 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

        • VMware ESXi enthält eine Use-after-free-Schwachstelle in PVNVRAM. Im Projekt „Common Vulnerabilities and Exposures (CVE)“ (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3963 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

        • VMware ESXi enthält ein Datenleck im EHCI-USB-Controller. Im Projekt „Common Vulnerabilities and Exposures (CVE)“ (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3964 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

        • VMware ESXi enthält ein Datenleck im XHCI-USB-Controller. Im Projekt „Common Vulnerabilities and Exposures (CVE)“ (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3965 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

        • VMware ESXi enthält einen Pufferüberlauf aufgrund einer Racebedingung im USB 2.0-Controller (EHCI). Im Projekt „Common Vulnerabilities and Exposures (CVE)“ (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3966 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

        • VMware ESXi enthält eine Pufferüberlaufschwachstelle im USB 2.0-Controller (EHCI). Im Projekt „Common Vulnerabilities and Exposures (CVE)“ (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3967 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

        • VMware ESXi enthält eine Schwachstelle vom Typ „Out-of-bounds Write“ im USB 3.0-Controller (xHCI). Im Projekt „Common Vulnerabilities and Exposures (CVE)“ (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3968 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

        • VMware ESXi enthält eine Pufferüberlaufschwachstelle vom Typ „off-by-one“ im SVGA-Gerät. Im Projekt „Common Vulnerabilities and Exposures (CVE)“ (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3969 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

        • VMware ESXi enthält eine Schwachstelle durch Lesen außerhalb des Speicherbereichs (Out-of-Bounds Read) in der Shader-Funktionalität. Im Projekt „Common Vulnerabilities and Exposures (CVE)“ (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3970 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

      esx-update_7.0.0-1.20.16321839
      Patch-Kategorie Sicherheit
      Patch-Schweregrad Kritisch
      Hostneustart erforderlich Ja
      Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
      Betroffene Hardware Nicht verfügbar
      Betroffene Software Nicht verfügbar
      Enthaltene VIBs
      • VMware_bootbank_loadesx_7.0.0-1.20.16321839
      • VMware_bootbank_esx-update_7.0.0-1.20.16321839
      Behobene Probleme  Nicht verfügbar
      CVE-Nummern Nicht verfügbar

      Die Bulletins „ESXi“ und „esx-update“ bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden.

      Aktualisiert die VIBs  loadesx und esx-update.
        VMware-VM-Tools_11.1.0.16036546-16321839
        Patch-Kategorie Sicherheit
        Patch-Schweregrad Kritisch
        Hostneustart erforderlich Ja
        Migration oder Herunterfahren der virtuellen Maschine erforderlich Ja
        Betroffene Hardware Nicht verfügbar
        Betroffene Software Nicht verfügbar
        Enthaltene VIBs
        • VMware_locker_tools-light_11.1.0.16036546-16321839
        Behobene Probleme  2564270
        CVE-Nummern Nicht verfügbar

        Aktualisiert das VIB tools-light zur Behebung des folgenden Problems:

        ESXi-7.0b-16324942-standard
        Profilname ESXi-7.0b-16324942-standard
        Build Build-Informationen finden Sie oben auf der Seite.
        Anbieter VMware, Inc.
        Datum der Veröffentlichung 16. Juni 2020
        Akzeptanzebene PartnerSupported
        Betroffene Hardware Nicht verfügbar
        Betroffene Software Nicht verfügbar
        Betroffene VIBs
        • VMware_bootbank_loadesx_7.0.0-1.25.16324942
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.25.16324942
        • VMware_bootbank_vsanhealth_7.0.0-1.25.16324942
        • VMware_bootbank_esx-update_7.0.0-1.25.16324942
        • VMware_locker_tools-light_11.1.0.16036546-16321839
        • VMware_bootbank_esx-ui_1.34.0-15603211
        • VMware_bootbank_vdfs_7.0.0-1.25.16324942
        • VMware_bootbank_vsan_7.0.0-1.25.16324942
        • VMware_bootbank_esx-base_7.0.0-1.25.16324942
        • VMW_bootbank_nvme-pcie_1.2.2.14-1vmw.700.1.25.16324942
        • VMware_bootbank_crx_7.0.0-1.25.16324942
        • VMware_bootbank_native-misc-drivers_7.0.0-1.25.16324942
        • VMware_bootbank_esx-xserver_7.0.0-1.25.16324942
        • VMW_bootbank_vmkusb_0.1-1vmw.700.1.25.16324942
        • VMware_bootbank_cpu-microcode_7.0.0-1.25.16324942
        Behobene Probleme 2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690, 2554114
        Verwandte CVE-Nummern Nicht verfügbar

        Aktualisiert die VIBs loadesx, esx-dvfilter-generic-fastpath, vsanhealth, esx-update, tools-light, esx-ui, vdfs, vsan, esx-base, nvme-pcie, crx native-misc-drivers, esx-xserver, vmkusb und cpu-microcode.

        • Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
          • In dieser Version wird der Intel-Microcode für unterstützte ESXi-CPUs auf die Versionen aktualisiert, die ab dem 29. April 2020 für die Produktion zugelassen sind. Weitere Informationen zu den aktuell enthaltenen Microcode-Updates finden Sie in der Tabelle.

            Hinweis: Nicht alle von Intel am 9. Juni 2020 veröffentlichten Microcode-Updates sind enthalten. Intel hat die Updates für verschiedene
            CPUs zu spät zur Verfügung gestellt, sodass VMware sie weder testen noch in diese ESXi-Patch-Version aufnehmen konnte. Zum Abrufen des aktuellen Microcode wenden Sie sich an Ihren Hardware-Anbieter und bitten ihn um ein BIOS-Update.

            Codename FMS PLT-ID MCU-Rev. MCU-Datum Markennamen
            Nehalem EP 0x106a5 0x03 0x0000001d 5/11/2018 Intel Xeon 35xx-Reihe;
            Intel Xeon 55xx-Reihe
            Lynnfield 0x106e5 0x13 0x0000000a 5/8/2018 Intel Xeon 34xx Lynnfield-Reihe
            Clarkdale 0x20652 0x12 0x00000011 5/8/2018 Intel i3/i5 Clarkdale-Reihe;
            Intel Xeon 34xx Clarkdale-Reihe
            Arrandale 0x20655 0x92 0x00000007 4/23/2018 Intel Core i7-620LE-Prozessor
            Sandy Bridge DT 0x206a7 0x12 0x0000002f 2/17/2019 Intel Xeon E3-1100-Reihe;
            Intel Xeon E3-1200-Reihe;
            Intel i7-2655-LE-Reihe;
            Intel i3-2100-Reihe
            Westmere EP 0x206c2 0x03 0x0000001f 5/8/2018 Intel Xeon 56xx-Reihe;
            Intel Xeon 36xx-Reihe
            Sandy Bridge EP 0x206d6 0x6d 0x00000621 3/4/2020 Intel Pentium 1400-Reihe;
            Intel Xeon E5-1400-Reihe;
            Intel Xeon E5-1600-Reihe;
            Intel Xeon E5-2400-Reihe;
            Intel Xeon E5-2600-Reihe;
            Intel Xeon E5-4600-Reihe
            Sandy Bridge EP 0x206d7 0x6d 0x0000071a 3/24/2020 Intel Pentium 1400-Reihe;
            Intel Xeon E5-1400-Reihe;
            Intel Xeon E5-1600-Reihe;
            Intel Xeon E5-2400-Reihe;
            Intel Xeon E5-2600-Reihe;
            Intel Xeon E5-4600-Reihe
            Nehalem EX 0x206e6 0x04 0x0000000d 5/15/2018 Intel Xeon 65xx-Reihe;
            Intel Xeon 75xx-Reihe
            Westmere EX 0x206f2 0x05 0x0000003b 5/16/2018 Intel Xeon E7-8800-Reihe;
            Intel Xeon E7-4800-Reihe;
            Intel Xeon E7-2800-Reihe
            Ivy Bridge DT 0x306a9 0x12 0x00000021 2/13/2019 Intel i3-3200-Reihe;
            Intel i7-3500-LE/UE;
            Intel i7-3600-QE;
            Intel Xeon E3-1200-v2-Reihe;
            Intel Xeon E3-1100-C-v2-Reihe;
            Intel Pentium B925C
            Haswell DT 0x306c3 0x32 0x00000028 11/12/2019 Intel Xeon E3-1200-v3-Reihe;
            Intel i7-4700-EQ-Reihe;
            Intel i5-4500-TE-Reihe;
            Intel i3-4300-Reihe
            Ivy Bridge EP 0x306e4 0xed 0x0000042e 3/14/2019 Intel Xeon E5-4600-v2-Reihe;
            Intel Xeon E5-2600-v2-Reihe;
            Intel Xeon E5-2400-v2-Reihe;
            Intel Xeon E5-1600-v2-Reihe;
            Intel Xeon E5-1400-v2-Reihe
            Ivy Bridge EX 0x306e7 0xed 0x00000715 3/14/2019 Intel Xeon E7-8800/4800/2800-v2-Reihe
            Haswell EP 0x306f2 0x6f 0x00000043 3/1/2019 Intel Xeon E5-4600-v3-Reihe;
            Intel Xeon E5-2600-v3-Reihe;
            Intel Xeon E5-2400-v3-Reihe;
            Intel Xeon E5-1600-v3-Reihe;
            Intel Xeon E5-1400-v3-Reihe
            Haswell EX 0x306f4 0x80 0x00000016 17.06.2019 Intel Xeon E7-8800/4800-v3-Serie
            Broadwell H 0x40671 0x22 0x00000022 11/12/2019 Intel Core i7-5700EQ;
            Intel Xeon E3-1200-v4-Reihe
            Avoton 0x406d8 0x01 0x0000012d 16.09.2019 Intel Atom C2300-Reihe;
            Intel Atom C2500-Reihe;
            Intel Atom C2700-Reihe
            Broadwell EP/EX 0x406f1 0xef 0x0b000038 18.06.2019 Intel Xeon E7-8800/4800-v4-Reihe;
            Intel Xeon E5-4600-v4-Reihe;
            Intel Xeon E5-2600-v4-Reihe;
            Intel Xeon E5-1600-v4-Reihe
            Skylake SP 0x50654 0xb7 0x02006901 2/12/2020 Intel Xeon Platinum 8100-Reihe;
            Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe;
            Intel Xeon D-2100-Reihe;
            Intel Xeon D-1600-Reihe;
            Intel Xeon W-3100-Reihe;
            Intel Xeon W-2100-Reihe
            Cascade Lake B-0 0x50656 0xbf 0x04002f00 1/14/2020 Intel Xeon Platinum 9200/8200-Reihe;
            Intel Xeon Gold 6200/5200;
            Intel Xeon Silver 4200/Bronze 3200;
            Intel Xeon W-3200
            Cascade Lake 0x50657 0xbf 0x05002f00 1/14/2020 Intel Xeon Platinum 9200/8200-Reihe;
            Intel Xeon Gold 6200/5200;
            Intel Xeon Silver 4200/Bronze 3200;
            Intel Xeon W-3200
            Broadwell DE 0x50662 0x10 0x0000001c 17.06.2019 Intel Xeon D-1500-Reihe
            Broadwell DE 0x50663 0x10 0x07000019 17.06.2019 Intel Xeon D-1500-Reihe
            Broadwell DE 0x50664 0x10 0x0f000017 17.06.2019 Intel Xeon D-1500-Reihe
            Broadwell NS 0x50665 0x10 0x0e00000f 17.06.2019 Intel Xeon D-1600-Reihe
            Skylake H/S 0x506e3 0x36 0x000000d6 10/3/2019 Intel Xeon E3-1500-v5-Reihe;
            Intel Xeon E3-1200-v5-Reihe
            Denverton 0x506f1 0x01 0x0000002e 3/21/2019 Intel Atom C3000-Reihe
            Kaby Lake H/S/X 0x906e9 0x2a 0x000000ca 10/3/2019 Intel Xeon E3-1200-v6-Reihe;
            Intel Xeon E3-1500-v6-Reihe
            Coffee Lake 0x906ea 0x22 0x000000cc 12/8/2019 Intel Xeon E-2100-Reihe;
            Intel Xeon E-2200-Reihe (4 oder 6 Kerne)
            Coffee Lake 0x906eb 0x02 0x000000ca 10/3/2019 Intel Xeon E-2100-Reihe
            Coffee Lake 0x906ec 0x22 0x000000ca 10/3/2019 Intel Xeon E-2100-Reihe
            Coffee Lake Refresh 0x906ed 0x22 0x000000cc 12/12/2019 Intel Xeon E-2200-Reihe (8 Kerne)
          • In Versionen vor ESXi 7.0b ist die ESXi-Analyse der SMBIOS-Tabelle in der Host-Firmware zum Festlegen der Reihenfolge, in der Gerätealiase zugewiesen werden, nicht vollständig mit SMBIOS 3.2 oder höher kompatibel. Folglich weisen ESXi-Hosts Gerätealiase unter Umständen in der falschen Reihenfolge zu.

          • ESXi-Hosts schlagen möglicherweise mit einem violetten Diagnosebildschirm fehl, während vom Kernel-Speicher-Stack eine timerCallback-Funktion ausgeführt wird. Die timerCallback-Funktion wird in einer nicht präemptiven Art und Weise ausgeführt. In bestimmten Fällen versucht der Kernel-Speicher-Stack jedoch, während der Ausführung einer timerCallback-Funktion vorzeitige Entfernung auf einer CPU zu aktivieren. Dies führt dazu, dass der ESXi-Host mit einem Fehler ähnlich dem folgenden fehlschlägt:
            PSOD : Assert bora/vmkernel/main/bh.c:981

          • Die Anmeldung für Storage I/O Control ist standardmäßig deaktiviert. Zum Aktivieren oder Festlegen einer Protokollierungsebene müssen Sie einen Wert von 1 bis 7 für den
            Parameter verwenden. In bestimmten Fällen wirkt sich die Änderung des Parameterwerts jedoch nicht auf die Protokollierungsebene aus.

          • Bestimmte Storage I/O Control-Protokolle führen möglicherweise zu einer Protokollüberflutung in den Dateien storagerm.log und sdrsinjector.log. Dieser Zustand kann zu einer schnellen Protokollrotation führen.

          • Von LUNs unterstützte VMFS-Datenspeicher, die eine optimale Granularität von mehr als 1 MB für Zuordnungsaufhebungen aufweisen, werden während der Verarbeitung der automatischen Zuordnungsaufhebung möglicherweise einer wiederholten platteninternen Sperrung unterzogen. Folglich nehmen Stilllegungsvorgänge für virtuelle Maschinen in solchen Datenspeichern mehr Zeit in Anspruch als gewöhnlich.

          • Sie können die standardmäßige Priorität für die Speicherplatzrückforderung eines VMFS-Datenspeichers ändern, indem Sie den ESXCLI-Befehl esxcli storage vmfs reclaim config set  --reclaim-priority verwenden. Führen Sie beispielsweise folgenden Befehl aus, um die Priorität der Speicherplatzrückforderung, d. h. die Aufhebung der Zuordnung nicht verwendeter Blöcke aus dem Datenspeicher zu der diesen Datenspeicher stützenden LUN, von der standardmäßigen niedrigen Rate in „none“ (keine) zu ändern:
            esxcli storage vmfs reclaim config set --volume-label datastore_name --reclaim-priority none
            Die Änderung wird möglicherweise nur auf dem ESXi-Host, auf dem Sie den Befehl ausführen, und nicht auf anderen Hosts wirksam, die denselben Datenspeicher verwenden.

          • Wenn VMFS-Volumes häufig geöffnet und geschlossen werden, enthalten die VMkernel-Protokolle unter Umständen Meldungen, wie z. B. does not support unmap beim Öffnen eines Volumes und Exiting async journal replay manager world beim Schließen eines Volumes.

          • Bei einer vSAN-Konfiguration auf einem ESXi-Host mit vier oder mehr Festplattengruppen, der in einer NUMA-Konfiguration mit vier oder mehr Knoten ausgeführt wird, werden die für einen bestimmten NUMA-Knoten dedizierten Bereichsspeicherressourcen von VMkernel auf diesem Host möglicherweise ausgeschöpft. Andere NUMA-Knoten auf demselben Host weisen möglicherweise überschüssige Bereichsspeicherressourcen auf. VMkernel generiert jedoch möglicherweise vorzeitig eine Bedingung des Typs „Nicht genügend Arbeitsspeicher“, statt die überschüssige Bereichsspeicherkapazität der anderen NUMA-Knoten zu verwenden. Infolgedessen fällt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm aus, oder eine vSAN-Festplattengruppe auf diesem Host fällt aus. Nach dem Neustart des Hosts wird in der Datei vmkernel.log ein Fehler angezeigt, wie z. B. Throttled: BlkAttr not ready for disk“.

          • Beim Laden von Kernelmodulen wird der VMkernel Module Loader-Befehl vmkload_mod, mit dessen Hilfe der Gerätetreiber und die Netzwerk-Shaper-Module in den VMkernel geladen werden, möglicherweise auf einen anderen NUMA-Knoten migriert. In einem solchen Fall kann ein Prüfsummenkonflikt auf den NUMA-Knoten auftreten. Dies kann dazu führen, dass ein ESXi-Host mit einem violetten Diagnosebildschirm ausfällt.

          • Bestimmte Benutzerkonten, die sich auf NSX-T beziehen, stehen erst nach einem Startvorgang zur Verfügung. Da sie beim Start nicht vorhanden sind, schlägt die Startzeitstandardisierung eines statusfreien ESXi-Hosts möglicherweise fehl, wenn diese Konten in die Liste ausgenommener Benutzer im Sperrmodus aufgenommen werden. In der Datei syslog.log wird eine Zeile ähnlich der folgenden angezeigt:
            key = 'POST_BOOT_CONFIG_FAILED', value = 'Fehler beim Aktualisieren der vom Sperrmodus ausgenommenen Benutzerkonten. Ungültiger Benutzer angegeben: mux_user'

          • Wenn Sie ein Live-Upgrade auf ESXi 7.0 von einer früheren als Festplatten-Dump-Image installierten ESXi-Version durchführen, indem Sie den Befehl esxiso2dd und VMware Tools-Version 4.0 oder höher verwenden, fehlen im Speicherort /productLocker unter Umständen bestimmte VMware Tools-Dateien. Frühere ESXi-Versionen verwenden ein VFAT-Dateisystem, bei dem nicht zwischen Groß- und Kleinschreibung unterschieden wird. ESXi 7.0 verwendet jedoch VMFS-L zum Überprüfen von Dateinamen unter Berücksichtigung der Groß-/Kleinschreibung. Dateien, bei denen diese Überprüfung fehlschlägt, werden nicht zu ProductLocker hinzugefügt.

          • Wenn eine der Adressfamilien, z. B. IPv6, auf einem Domänencontroller mit Dual-Stack nicht aktiviert ist, ist selbst nach dem Deaktivieren von IPv6 auf dem Controller noch ein CLDAP-Ping an eine IPv6-Adressen möglich. Dies führt möglicherweise zu einer Zeitüberschreitung und löst einen Fehler aus, wonach das Datencenter nicht verfügbar ist, wie z. B. Fehler: NERR_DCNotFound [code 0x00000995]. Dies führt dazu, dass Sie der Domäne möglicherweise keine ESXi-Hosts hinzufügen können.

          • Upgrades auf ESXi 7.0 von einem benutzerdefinierten oder standardmäßigen ESXi 6.x-Image mit einer asynchronen Version von Offload-iSCSI-Treibern schlagen unter Umständen mit Meldungen ähnlich der folgenden fehl: Schwerwiegender Fehler: 15 (nicht gefunden) oder Fehler beim Laden von /vmfs/volumes//b.b00. Zu den betroffenen Offload-iSCSI-Treibersätzen gehören bnx2i/qfle3i, be2iscsi/elxiscsi und qedil/qedi. Dieses Problem tritt möglicherweise auch in Umgebungen mit einer Software-iSCSI und iSCSI-Verwaltungs-API-Plug-Ins auf.
            Die Meldungen werden auf der ESXi-Ladeseite während der Neustartphase des Upgrades angezeigt, das Sie mithilfe von vSphere Lifecycle Manager oder ESXCLI durchführen können.  Bei Verwendung von vSphere Lifecycle Manager wird beim Zurücksetzen ein Rollback des vCenter Server-Systems auf das vorherige Image durchgeführt. Dieses Problem betrifft überwiegend Systeme mit iSCSI-fähigen QLogic 578XX-CANs (Converged Network Adapters) oder iSCSI-fähigen Emulex OneConnect-CNAs oder QLogic FastLinQ QL4xxxx-CNAs oder Software-iSCSI-Konfigurationen. Das Problem tritt nicht auf, wenn der CNA nur für FCoE konfiguriert ist.

          • Wenn Sie eine CIM-Abfrage, wie z. B. enum_instances, für einen neu hinzugefügten VMkernel-Port auf einem ESXi-Host ausführen, schlägt der SFCB-Dienst möglicherweise fehl, weil er die IP-Adresse der neuen Instanz nicht validieren kann. Falls beispielsweise IPv6 aktiviert und als statisch konfiguriert ist, die IPv6-Adresse aber leer ist, wird bei der Abfrage einer der CIM-Klassen CIM_IPProtocolEndpoint bzw. VMware_KernelIPv6ProtocolEndpoint ein SFCB-Core-Dump generiert.

          • Wenn Sie eine Konfiguration, die mithilfe von backup.sh gesichert wurde, nach mehr als 7 Tagen wiederherstellen, gehen Einstellungen für das Speichergerät, wie z. B. „Is perennially reserved“, unter Umständen verloren. Dies geschieht, weil die aktuellen Zeitstempel der Geräte ebenfalls gesichert werden. Wenn das Gerät mehr als sieben Tage nicht aktiv war, werden Geräteeinträge aus /etc/vmware/esx.conf gelöscht. Infolgedessen werden beim Wiederherstellungsvorgang unter Umständen ältere Zeitstempel wiederhergestellt.

          • Wenn in bestimmten Fällen die Zuordnung von Namespaces auf der Ziel-Site aufgehoben wird und eine Neuzuordnung erfolgt, kann ESXi den neu zugeordneten Namespace unter Umständen nicht auswählen. Dieses Problem tritt auf, wenn die Bereinigung der alten Namespace-Instanz nicht abgeschlossen ist. In diesem Fall müssen Sie den NVMe-Controller zurücksetzen, um die Namespaces neu zu ermitteln.

          • Der vSAN-Dateidienst unterstützt bis zu 8 IP-Adressen im statischen IP-Adresspool. Wenn ein vSAN-Cluster über mehr als 8 Hosts verfügt, können Sie während der Konfiguration des Dateidiensts mehr als 8 IP-Adressen eingeben. Zusätzliche IP-Adressen können jedoch nicht verwendet werden.

          • Wenn ein vSAN-Host Deduplizierung und Komprimierung verwendet, können Löschvorgänge nicht abgeschlossen werden. Dies führt dazu, dass auf dem Dateisystem kein freier Speicherplatz mehr zur Verfügung steht.

          • Wenn ein NVMe-Gerät vor Abschluss der Speicher-Stack-Bereinigung im laufenden Betrieb entfernt und hinzugefügt wird (in der Regel innerhalb von 60 Sekunden), kann der PCIe-Treiber Deaktivierter Hotplug nicht drucken. Folglich wird unter Umständen eine Meldung ähnlich Gerät bereits vorhanden angezeigt. Schließlich schlägt der ESXi-Host mit einem violetten Diagnosebildschirm und einem Fehler ähnlich dem folgenden fehl:
            ​LINT1/NMI (nicht maskierbares Interrupt der Hauptplatine), nicht diagnostiziert.

        ESXi-7.0b-16324942-no-tools
        Profilname ESXi-7.0b-16324942-no-tools
        Build Build-Informationen finden Sie oben auf der Seite.
        Anbieter VMware, Inc.
        Datum der Veröffentlichung 16. Juni 2020
        Akzeptanzebene PartnerSupported
        Betroffene Hardware Nicht verfügbar
        Betroffene Software Nicht verfügbar
        Betroffene VIBs
        • VMware_bootbank_loadesx_7.0.0-1.25.16324942
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.25.16324942
        • VMware_bootbank_vsanhealth_7.0.0-1.25.16324942
        • VMware_bootbank_esx-update_7.0.0-1.25.16324942
        • VMware_bootbank_esx-ui_1.34.0-15603211
        • VMware_bootbank_vdfs_7.0.0-1.25.16324942
        • VMware_bootbank_vsan_7.0.0-1.25.16324942
        • VMware_bootbank_esx-base_7.0.0-1.25.16324942
        • VMW_bootbank_nvme-pcie_1.2.2.14-1vmw.700.1.25.16324942
        • VMware_bootbank_crx_7.0.0-1.25.16324942
        • VMware_bootbank_native-misc-drivers_7.0.0-1.25.16324942
        • VMware_bootbank_esx-xserver_7.0.0-1.25.16324942
        • VMW_bootbank_vmkusb_0.1-1vmw.700.1.25.16324942
        • VMware_bootbank_cpu-microcode_7.0.0-1.25.16324942
        Behobene Probleme 2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690, 2554114
        Verwandte CVE-Nummern Nicht verfügbar

        Aktualisiert die VIBs loadesx, esx-dvfilter-generic-fastpath, vsanhealth, esx-update, esx-ui, vdfs, vsan, esx-base, nvme-pcie, crx native-misc-drivers, esx-xserver, vmkusb und cpu-microcode.

        • Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
          • In dieser Version wird der Intel-Microcode für unterstützte ESXi-CPUs auf die Versionen aktualisiert, die ab dem 29. April 2020 für die Produktion zugelassen sind. Weitere Informationen zu den aktuell enthaltenen Microcode-Updates finden Sie in der Tabelle.

            Hinweis: Nicht alle von Intel am 9. Juni 2020 veröffentlichten Microcode-Updates sind enthalten. Intel hat die Updates für verschiedene
            CPUs zu spät zur Verfügung gestellt, sodass VMware sie weder testen noch in diese ESXi-Patch-Version aufnehmen konnte. Zum Abrufen des aktuellen Microcode wenden Sie sich an Ihren Hardware-Anbieter und bitten ihn um ein BIOS-Update.

            Codename FMS PLT-ID MCU-Rev. MCU-Datum Markennamen
            Nehalem EP 0x106a5 0x03 0x0000001d 5/11/2018 Intel Xeon 35xx-Reihe;
            Intel Xeon 55xx-Reihe
            Lynnfield 0x106e5 0x13 0x0000000a 5/8/2018 Intel Xeon 34xx Lynnfield-Reihe
            Clarkdale 0x20652 0x12 0x00000011 5/8/2018 Intel i3/i5 Clarkdale-Reihe;
            Intel Xeon 34xx Clarkdale-Reihe
            Arrandale 0x20655 0x92 0x00000007 4/23/2018 Intel Core i7-620LE-Prozessor
            Sandy Bridge DT 0x206a7 0x12 0x0000002f 2/17/2019 Intel Xeon E3-1100-Reihe;
            Intel Xeon E3-1200-Reihe;
            Intel i7-2655-LE-Reihe;
            Intel i3-2100-Reihe
            Westmere EP 0x206c2 0x03 0x0000001f 5/8/2018 Intel Xeon 56xx-Reihe;
            Intel Xeon 36xx-Reihe
            Sandy Bridge EP 0x206d6 0x6d 0x00000621 3/4/2020 Intel Pentium 1400-Reihe;
            Intel Xeon E5-1400-Reihe;
            Intel Xeon E5-1600-Reihe;
            Intel Xeon E5-2400-Reihe;
            Intel Xeon E5-2600-Reihe;
            Intel Xeon E5-4600-Reihe
            Sandy Bridge EP 0x206d7 0x6d 0x0000071a 3/24/2020 Intel Pentium 1400-Reihe;
            Intel Xeon E5-1400-Reihe;
            Intel Xeon E5-1600-Reihe;
            Intel Xeon E5-2400-Reihe;
            Intel Xeon E5-2600-Reihe;
            Intel Xeon E5-4600-Reihe
            Nehalem EX 0x206e6 0x04 0x0000000d 5/15/2018 Intel Xeon 65xx-Reihe;
            Intel Xeon 75xx-Reihe
            Westmere EX 0x206f2 0x05 0x0000003b 5/16/2018 Intel Xeon E7-8800-Reihe;
            Intel Xeon E7-4800-Reihe;
            Intel Xeon E7-2800-Reihe
            Ivy Bridge DT 0x306a9 0x12 0x00000021 2/13/2019 Intel i3-3200-Reihe;
            Intel i7-3500-LE/UE;
            Intel i7-3600-QE;
            Intel Xeon E3-1200-v2-Reihe;
            Intel Xeon E3-1100-C-v2-Reihe;
            Intel Pentium B925C
            Haswell DT 0x306c3 0x32 0x00000028 11/12/2019 Intel Xeon E3-1200-v3-Reihe;
            Intel i7-4700-EQ-Reihe;
            Intel i5-4500-TE-Reihe;
            Intel i3-4300-Reihe
            Ivy Bridge EP 0x306e4 0xed 0x0000042e 3/14/2019 Intel Xeon E5-4600-v2-Reihe;
            Intel Xeon E5-2600-v2-Reihe;
            Intel Xeon E5-2400-v2-Reihe;
            Intel Xeon E5-1600-v2-Reihe;
            Intel Xeon E5-1400-v2-Reihe
            Ivy Bridge EX 0x306e7 0xed 0x00000715 3/14/2019 Intel Xeon E7-8800/4800/2800-v2-Reihe
            Haswell EP 0x306f2 0x6f 0x00000043 3/1/2019 Intel Xeon E5-4600-v3-Reihe;
            Intel Xeon E5-2600-v3-Reihe;
            Intel Xeon E5-2400-v3-Reihe;
            Intel Xeon E5-1600-v3-Reihe;
            Intel Xeon E5-1400-v3-Reihe
            Haswell EX 0x306f4 0x80 0x00000016 17.06.2019 Intel Xeon E7-8800/4800-v3-Serie
            Broadwell H 0x40671 0x22 0x00000022 11/12/2019 Intel Core i7-5700EQ;
            Intel Xeon E3-1200-v4-Reihe
            Avoton 0x406d8 0x01 0x0000012d 16.09.2019 Intel Atom C2300-Reihe;
            Intel Atom C2500-Reihe;
            Intel Atom C2700-Reihe
            Broadwell EP/EX 0x406f1 0xef 0x0b000038 18.06.2019 Intel Xeon E7-8800/4800-v4-Reihe;
            Intel Xeon E5-4600-v4-Reihe;
            Intel Xeon E5-2600-v4-Reihe;
            Intel Xeon E5-1600-v4-Reihe
            Skylake SP 0x50654 0xb7 0x02006901 2/12/2020 Intel Xeon Platinum 8100-Reihe;
            Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100-Reihe;
            Intel Xeon D-2100-Reihe;
            Intel Xeon D-1600-Reihe;
            Intel Xeon W-3100-Reihe;
            Intel Xeon W-2100-Reihe
            Cascade Lake B-0 0x50656 0xbf 0x04002f00 1/14/2020 Intel Xeon Platinum 9200/8200-Reihe;
            Intel Xeon Gold 6200/5200;
            Intel Xeon Silver 4200/Bronze 3200;
            Intel Xeon W-3200
            Cascade Lake 0x50657 0xbf 0x05002f00 1/14/2020 Intel Xeon Platinum 9200/8200-Reihe;
            Intel Xeon Gold 6200/5200;
            Intel Xeon Silver 4200/Bronze 3200;
            Intel Xeon W-3200
            Broadwell DE 0x50662 0x10 0x0000001c 17.06.2019 Intel Xeon D-1500-Reihe
            Broadwell DE 0x50663 0x10 0x07000019 17.06.2019 Intel Xeon D-1500-Reihe
            Broadwell DE 0x50664 0x10 0x0f000017 17.06.2019 Intel Xeon D-1500-Reihe
            Broadwell NS 0x50665 0x10 0x0e00000f 17.06.2019 Intel Xeon D-1600-Reihe
            Skylake H/S 0x506e3 0x36 0x000000d6 10/3/2019 Intel Xeon E3-1500-v5-Reihe;
            Intel Xeon E3-1200-v5-Reihe
            Denverton 0x506f1 0x01 0x0000002e 3/21/2019 Intel Atom C3000-Reihe
            Kaby Lake H/S/X 0x906e9 0x2a 0x000000ca 10/3/2019 Intel Xeon E3-1200-v6-Reihe;
            Intel Xeon E3-1500-v6-Reihe
            Coffee Lake 0x906ea 0x22 0x000000cc 12/8/2019 Intel Xeon E-2100-Reihe;
            Intel Xeon E-2200-Reihe (4 oder 6 Kerne)
            Coffee Lake 0x906eb 0x02 0x000000ca 10/3/2019 Intel Xeon E-2100-Reihe
            Coffee Lake 0x906ec 0x22 0x000000ca 10/3/2019 Intel Xeon E-2100-Reihe
            Coffee Lake Refresh 0x906ed 0x22 0x000000cc 12/12/2019 Intel Xeon E-2200-Reihe (8 Kerne)
          • In Versionen vor ESXi 7.0b ist die ESXi-Analyse der SMBIOS-Tabelle in der Host-Firmware zum Festlegen der Reihenfolge, in der Gerätealiase zugewiesen werden, nicht vollständig mit SMBIOS 3.2 oder höher kompatibel. Folglich weisen ESXi-Hosts Gerätealiase unter Umständen in der falschen Reihenfolge zu.

          • ESXi-Hosts schlagen möglicherweise mit einem violetten Diagnosebildschirm fehl, während vom Kernel-Speicher-Stack eine timerCallback-Funktion ausgeführt wird. Die timerCallback-Funktion wird in einer nicht präemptiven Art und Weise ausgeführt. In bestimmten Fällen versucht der Kernel-Speicher-Stack jedoch, während der Ausführung einer timerCallback-Funktion vorzeitige Entfernung auf einer CPU zu aktivieren. Dies führt dazu, dass der ESXi-Host mit einem Fehler ähnlich dem folgenden fehlschlägt:
            PSOD : Assert bora/vmkernel/main/bh.c:981

          • Die Anmeldung für Storage I/O Control ist standardmäßig deaktiviert. Zum Aktivieren oder Festlegen einer Protokollierungsebene müssen Sie einen Wert von 1 bis 7 für den
            Parameter verwenden. In bestimmten Fällen wirkt sich die Änderung des Parameterwerts jedoch nicht auf die Protokollierungsebene aus.

          • Bestimmte Storage I/O Control-Protokolle führen möglicherweise zu einer Protokollüberflutung in den Dateien storagerm.log und sdrsinjector.log. Dieser Zustand kann zu einer schnellen Protokollrotation führen.

          • Von LUNs unterstützte VMFS-Datenspeicher, die eine optimale Granularität von mehr als 1 MB für Zuordnungsaufhebungen aufweisen, werden während der Verarbeitung der automatischen Zuordnungsaufhebung möglicherweise einer wiederholten platteninternen Sperrung unterzogen. Folglich nehmen Stilllegungsvorgänge für virtuelle Maschinen in solchen Datenspeichern mehr Zeit in Anspruch als gewöhnlich.

          • Sie können die standardmäßige Priorität für die Speicherplatzrückforderung eines VMFS-Datenspeichers ändern, indem Sie den ESXCLI-Befehl esxcli storage vmfs reclaim config set  --reclaim-priority verwenden. Führen Sie beispielsweise folgenden Befehl aus, um die Priorität der Speicherplatzrückforderung, d. h. die Aufhebung der Zuordnung nicht verwendeter Blöcke aus dem Datenspeicher zu der diesen Datenspeicher stützenden LUN, von der standardmäßigen niedrigen Rate in „none“ (keine) zu ändern:
            esxcli storage vmfs reclaim config set --volume-label datastore_name --reclaim-priority none
            Die Änderung wird möglicherweise nur auf dem ESXi-Host, auf dem Sie den Befehl ausführen, und nicht auf anderen Hosts wirksam, die denselben Datenspeicher verwenden.

          • Wenn VMFS-Volumes häufig geöffnet und geschlossen werden, enthalten die VMkernel-Protokolle unter Umständen Meldungen, wie z. B. does not support unmap beim Öffnen eines Volumes und Exiting async journal replay manager world beim Schließen eines Volumes.

          • Bei einer vSAN-Konfiguration auf einem ESXi-Host mit vier oder mehr Festplattengruppen, der in einer NUMA-Konfiguration mit vier oder mehr Knoten ausgeführt wird, werden die für einen bestimmten NUMA-Knoten dedizierten Bereichsspeicherressourcen von VMkernel auf diesem Host möglicherweise ausgeschöpft. Andere NUMA-Knoten auf demselben Host weisen möglicherweise überschüssige Bereichsspeicherressourcen auf. VMkernel generiert jedoch möglicherweise vorzeitig eine Bedingung des Typs „Nicht genügend Arbeitsspeicher“, statt die überschüssige Bereichsspeicherkapazität der anderen NUMA-Knoten zu verwenden. Infolgedessen fällt der ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm aus, oder eine vSAN-Festplattengruppe auf diesem Host fällt aus. Nach dem Neustart des Hosts wird in der Datei vmkernel.log ein Fehler angezeigt, wie z. B. Throttled: BlkAttr not ready for disk“.

          • Beim Laden von Kernelmodulen wird der VMkernel Module Loader-Befehl vmkload_mod, mit dessen Hilfe der Gerätetreiber und die Netzwerk-Shaper-Module in den VMkernel geladen werden, möglicherweise auf einen anderen NUMA-Knoten migriert. In einem solchen Fall kann ein Prüfsummenkonflikt auf den NUMA-Knoten auftreten. Dies kann dazu führen, dass ein ESXi-Host mit einem violetten Diagnosebildschirm ausfällt.

          • Bestimmte Benutzerkonten, die sich auf NSX-T beziehen, stehen erst nach einem Startvorgang zur Verfügung. Da sie beim Start nicht vorhanden sind, schlägt die Startzeitstandardisierung eines statusfreien ESXi-Hosts möglicherweise fehl, wenn diese Konten in die Liste ausgenommener Benutzer im Sperrmodus aufgenommen werden. In der Datei syslog.log wird eine Zeile ähnlich der folgenden angezeigt:
            key = 'POST_BOOT_CONFIG_FAILED', value = 'Fehler beim Aktualisieren der vom Sperrmodus ausgenommenen Benutzerkonten. Ungültiger Benutzer angegeben: mux_user'

          • Wenn Sie ein Live-Upgrade auf ESXi 7.0 von einer früheren als Festplatten-Dump-Image installierten ESXi-Version durchführen, indem Sie den Befehl esxiso2dd und VMware Tools-Version 4.0 oder höher verwenden, fehlen im Speicherort /productLocker unter Umständen bestimmte VMware Tools-Dateien. Frühere ESXi-Versionen verwenden ein VFAT-Dateisystem, bei dem nicht zwischen Groß- und Kleinschreibung unterschieden wird. ESXi 7.0 verwendet jedoch VMFS-L zum Überprüfen von Dateinamen unter Berücksichtigung der Groß-/Kleinschreibung. Dateien, bei denen diese Überprüfung fehlschlägt, werden nicht zu ProductLocker hinzugefügt.

          • Wenn eine der Adressfamilien, z. B. IPv6, auf einem Domänencontroller mit Dual-Stack nicht aktiviert ist, ist selbst nach dem Deaktivieren von IPv6 auf dem Controller noch ein CLDAP-Ping an eine IPv6-Adressen möglich. Dies führt möglicherweise zu einer Zeitüberschreitung und löst einen Fehler aus, wonach das Datencenter nicht verfügbar ist, wie z. B. Fehler: NERR_DCNotFound [code 0x00000995]. Dies führt dazu, dass Sie der Domäne möglicherweise keine ESXi-Hosts hinzufügen können.

          • Upgrades auf ESXi 7.0 von einem benutzerdefinierten oder standardmäßigen ESXi 6.x-Image mit einer asynchronen Version von Offload-iSCSI-Treibern schlagen unter Umständen mit Meldungen ähnlich der folgenden fehl: Schwerwiegender Fehler: 15 (nicht gefunden) oder Fehler beim Laden von /vmfs/volumes//b.b00. Zu den betroffenen Offload-iSCSI-Treibersätzen gehören bnx2i/qfle3i, be2iscsi/elxiscsi und qedil/qedi. Dieses Problem tritt möglicherweise auch in Umgebungen mit einer Software-iSCSI und iSCSI-Verwaltungs-API-Plug-Ins auf.
            Die Meldungen werden auf der ESXi-Ladeseite während der Neustartphase des Upgrades angezeigt, das Sie mithilfe von vSphere Lifecycle Manager oder ESXCLI durchführen können.  Bei Verwendung von vSphere Lifecycle Manager wird beim Zurücksetzen ein Rollback des vCenter Server-Systems auf das vorherige Image durchgeführt. Dieses Problem betrifft überwiegend Systeme mit iSCSI-fähigen QLogic 578XX-CANs (Converged Network Adapters) oder iSCSI-fähigen Emulex OneConnect-CNAs oder QLogic FastLinQ QL4xxxx-CNAs oder Software-iSCSI-Konfigurationen. Das Problem tritt nicht auf, wenn der CNA nur für FCoE konfiguriert ist.

          • Wenn Sie eine CIM-Abfrage, wie z. B. enum_instances, für einen neu hinzugefügten VMkernel-Port auf einem ESXi-Host ausführen, schlägt der SFCB-Dienst möglicherweise fehl, weil er die IP-Adresse der neuen Instanz nicht validieren kann. Falls beispielsweise IPv6 aktiviert und als statisch konfiguriert ist, die IPv6-Adresse aber leer ist, wird bei der Abfrage einer der CIM-Klassen CIM_IPProtocolEndpoint bzw. VMware_KernelIPv6ProtocolEndpoint ein SFCB-Core-Dump generiert.

          • Wenn Sie eine Konfiguration, die mithilfe von backup.sh gesichert wurde, nach mehr als 7 Tagen wiederherstellen, gehen Einstellungen für das Speichergerät, wie z. B. „Is perennially reserved“, unter Umständen verloren. Dies geschieht, weil die aktuellen Zeitstempel der Geräte ebenfalls gesichert werden. Wenn das Gerät mehr als sieben Tage nicht aktiv war, werden Geräteeinträge aus /etc/vmware/esx.conf gelöscht. Infolgedessen werden beim Wiederherstellungsvorgang unter Umständen ältere Zeitstempel wiederhergestellt.

          • Wenn in bestimmten Fällen die Zuordnung von Namespaces auf der Ziel-Site aufgehoben wird und eine Neuzuordnung erfolgt, kann ESXi den neu zugeordneten Namespace unter Umständen nicht auswählen. Dieses Problem tritt auf, wenn die Bereinigung der alten Namespace-Instanz nicht abgeschlossen ist. In diesem Fall müssen Sie den NVMe-Controller zurücksetzen, um die Namespaces neu zu ermitteln.

          • Der vSAN-Dateidienst unterstützt bis zu 8 IP-Adressen im statischen IP-Adresspool. Wenn ein vSAN-Cluster über mehr als 8 Hosts verfügt, können Sie während der Konfiguration des Dateidiensts mehr als 8 IP-Adressen eingeben. Zusätzliche IP-Adressen können jedoch nicht verwendet werden.

          • Wenn ein vSAN-Host Deduplizierung und Komprimierung verwendet, können Löschvorgänge nicht abgeschlossen werden. Dies führt dazu, dass auf dem Dateisystem kein freier Speicherplatz mehr zur Verfügung steht.

          • Wenn ein NVMe-Gerät vor Abschluss der Speicher-Stack-Bereinigung im laufenden Betrieb entfernt und hinzugefügt wird (in der Regel innerhalb von 60 Sekunden), kann der PCIe-Treiber Deaktivierter Hotplug nicht drucken. Folglich wird unter Umständen eine Meldung ähnlich Gerät bereits vorhanden angezeigt. Schließlich schlägt der ESXi-Host mit einem violetten Diagnosebildschirm und einem Fehler ähnlich dem folgenden fehl:
            ​LINT1/NMI (nicht maskierbares Interrupt der Hauptplatine), nicht diagnostiziert.

        ESXi-7.0bs-16321839-standard
        Profilname ESXi-7.0bs-16321839-standard
        Build Build-Informationen finden Sie oben auf der Seite.
        Anbieter VMware, Inc.
        Datum der Veröffentlichung 16. Juni 2020
        Akzeptanzebene PartnerSupported
        Betroffene Hardware Nicht verfügbar
        Betroffene Software Nicht verfügbar
        Betroffene VIBs
        • VMware_bootbank_vdfs_7.0.0-1.20.16321839
        • VMware_bootbank_esx-xserver_7.0.0-1.20.16321839
        • VMware_bootbank_vsan_7.0.0-1.20.16321839
        • VMware_bootbank_esx-base_7.0.0-1.20.16321839
        • VMware_bootbank_esx-ui_1.34.0-15603211
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.20.16321839
        • VMware_bootbank_native-misc-drivers_7.0.0-1.20.16321839
        • VMware_bootbank_vsanhealth_7.0.0-1.20.16321839
        • VMware_bootbank_cpu-microcode_7.0.0-1.20.16321839
        • VMware_bootbank_crx_7.0.0-1.20.16321839
        • VMware_bootbank_loadesx_7.0.0-1.20.16321839
        • VMware_bootbank_esx-update_7.0.0-1.20.16321839
        • VMware_locker_tools-light_11.1.0.16036546-16321839
        Behobene Probleme 2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417, 2564270
        Verwandte CVE-Nummern CVE-2020-3962, CVE-2020-3963, CVE-2020-3964, CVE-2020-3965, CVE-2020-3966, CVE-2020-3967, CVE-2020-3968, CVE-2020-3969, CVE-2020-3970

        Aktualisiert die VIBs vdfs, esx-xserver, vsan, esx-base, esx-ui, esx-dvfilter-generic-fastpath, native-misc-drivers, vsanhealth, cpu-microcode und crx, um die folgenden Probleme zu beheben:

        • Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
          • Die ESXi libsqlite3-Bibliothek wird auf Version 3.31.1 aktualisiert.

          • Die userworld-libxml2-Bibliothek von ESXi wurde auf Version 2.9.10 aktualisiert.

          • Die userworld-libcurl-Bibliothek von ESXi wurde auf Version 7.69.1 aktualisiert.

          • Die ESXi Python-Bibliothek wird auf Version 3.5.9 und Freetype Python auf 2.9 aktualisiert.

          • Die ESXi NTP-Bibliothek wird auf Version 4.2.8p14 aktualisiert.

          • VMware ESXi enthält eine Use-after-free-Schwachstelle im SVGA-Gerät. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3962 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält eine Use-after-free-Schwachstelle in PVNVRAM. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3963 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält ein Datenleck im EHCI-USB-Controller. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3964 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält ein Datenleck im XHCI-USB-Controller. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3965 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält einen Pufferüberlauf aufgrund einer Racebedingung im USB 2.0-Controller (EHCI). Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3966 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält eine Pufferüberlaufschwachstelle im USB 2.0-Controller (EHCI). Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3967 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält eine Schwachstelle vom Typ „Out-of-bounds Write“ im USB 3.0-Controller (xHCI). Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3968 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält eine Pufferüberlaufschwachstelle vom Typ „off-by-one“ im SVGA-Gerät. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3969 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält eine Schwachstelle durch Lesen außerhalb des Speicherbereichs (Out-of-Bounds Read) in der Shader-Funktionalität. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3970 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • In ESXi 7.0b wird ein Teil der VMware Tools 11.1.0-ISO-Images mit dem ESXi 7.0b-Host gebündelt.

            Die folgenden VMware Tools 11.1.0-ISO-Images werden mit ESXi gebündelt:

            • windows.iso: VMware Tools-Image für Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher
            • linux.iso: VMware Tools 10.3.22-ISO-Image für ältere Versionen des Linux-Betriebssystems mit glibc 2.5 oder höher

            Die folgenden VMware Tools 10.3.10-ISO-Images stehen zum Download zur Verfügung:

            • solaris.iso: VMware Tools-Image für Solaris
            • darwin.iso: VMware Tools-Image für OSX

            Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:

        ESXi-7.0bs-16321839-no-tools
        Profilname ESXi-7.0bs-16321839-no-tools
        Build Build-Informationen finden Sie oben auf der Seite.
        Anbieter VMware, Inc.
        Datum der Veröffentlichung 16. Juni 2020
        Akzeptanzebene PartnerSupported
        Betroffene Hardware Nicht verfügbar
        Betroffene Software Nicht verfügbar
        Betroffene VIBs
        • VMware_bootbank_vdfs_7.0.0-1.20.16321839
        • VMware_bootbank_esx-xserver_7.0.0-1.20.16321839
        • VMware_bootbank_vsan_7.0.0-1.20.16321839
        • VMware_bootbank_esx-base_7.0.0-1.20.16321839
        • VMware_bootbank_esx-ui_1.34.0-15603211
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.20.16321839
        • VMware_bootbank_native-misc-drivers_7.0.0-1.20.16321839
        • VMware_bootbank_vsanhealth_7.0.0-1.20.16321839
        • VMware_bootbank_cpu-microcode_7.0.0-1.20.16321839
        • VMware_bootbank_crx_7.0.0-1.20.16321839
        • VMware_bootbank_loadesx_7.0.0-1.20.16321839
        • VMware_bootbank_esx-update_7.0.0-1.20.16321839
        Behobene Probleme 2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417
        Verwandte CVE-Nummern CVE-2020-3962, CVE-2020-3963, CVE-2020-3964, CVE-2020-3965, CVE-2020-3966, CVE-2020-3967, CVE-2020-3968, CVE-2020-3969, CVE-2020-3970

        Aktualisiert die VIBs vdfs, esx-xserver, vsan, esx-base, esx-ui, esx-dvfilter-generic-fastpath, native-misc-drivers, vsanhealth, cpu-microcode und crx, um die folgenden Probleme zu beheben:

        • Dieser Patch enthält Updates zur Behebung der folgenden Probleme:
          • Die ESXi libsqlite3-Bibliothek wird auf Version 3.31.1 aktualisiert.

          • Die userworld-libxml2-Bibliothek von ESXi wurde auf Version 2.9.10 aktualisiert.

          • Die userworld-libcurl-Bibliothek von ESXi wurde auf Version 7.69.1 aktualisiert.

          • Die ESXi Python-Bibliothek wird auf Version 3.5.9 und Freetype Python auf 2.9 aktualisiert.

          • Die ESXi NTP-Bibliothek wird auf Version 4.2.8p14 aktualisiert.

          • VMware ESXi enthält eine Use-after-free-Schwachstelle im SVGA-Gerät. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3962 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält eine Use-after-free-Schwachstelle in PVNVRAM. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3963 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält ein Datenleck im EHCI-USB-Controller. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3964 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält ein Datenleck im XHCI-USB-Controller. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3965 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält einen Pufferüberlauf aufgrund einer Racebedingung im USB 2.0-Controller (EHCI). Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3966 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält eine Pufferüberlaufschwachstelle im USB 2.0-Controller (EHCI). Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3967 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält eine Schwachstelle vom Typ „Out-of-bounds Write“ im USB 3.0-Controller (xHCI). Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3968 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält eine Pufferüberlaufschwachstelle vom Typ „off-by-one“ im SVGA-Gerät. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3969 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • VMware ESXi enthält eine Schwachstelle durch Lesen außerhalb des Speicherbereichs (Out-of-Bounds Read) in der Shader-Funktionalität. Im Projekt "Common Vulnerabilities and Exposures" (CVE) (cve.mitre.org) wurde diesem Problem die Bezeichnung CVE-2020-3970 zugewiesen. Weitere Informationen finden Sie unter VMSA-2020-0015.

          • In ESXi 7.0b wird ein Teil der VMware Tools 11.1.0-ISO-Images mit dem ESXi 7.0b-Host gebündelt.

            Die folgenden VMware Tools 11.1.0-ISO-Images werden mit ESXi gebündelt:

            • windows.iso: VMware Tools-Image für Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher
            • linux.iso: VMware Tools 10.3.22-ISO-Image für ältere Versionen des Linux-Betriebssystems mit glibc 2.5 oder höher

            Die folgenden VMware Tools 10.3.10-ISO-Images stehen zum Download zur Verfügung:

            • solaris.iso: VMware Tools-Image für Solaris
            • darwin.iso: VMware Tools-Image für OSX

            Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:

        ESXi Image - 7.0b – 16324942
        Name ESXi
        Version 7.0b - 16324942
        Datum der Veröffentlichung 16. Juni 2020
        Kategorie Verbesserung
        Betroffene Komponenten
        • esx-update_7.0.0-1.25.16324942
        • ESXi_7.0.0-1.25.16324942
        • VMware-NVMe-PCIe_1.2.2.14-1vmw.700.1.25.16324942
        • VMware-vmkusb_0.1-1vmw.700.1.25.16324942
        Behobene Probleme  2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690, 2554114
          ESXi Image - 7.0bs – 16321839
          Name ESXi
          Version 7.0bs - 16321839
          Datum der Veröffentlichung 16. Juni 2020
          Kategorie Verbesserung
          Betroffene Komponenten
          • ESXi_7.0.0-1.20.16321839
          • esx-update_7.0.0-1.20.16321839
          • VMware-VM-Tools_11.1.0.16036546-16321839
          Behobene Probleme  2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417

            Bekannte Probleme

            Die bekannten Probleme gliedern sich in folgende Gruppen.

            Upgrade-Probleme
            • PR 2579437: Das Upgrade auf ESXi 7.0b schlägt mit dem Fehler „Der Vorgang kann aufgrund eines Downgrades der folgenden Komponenten nicht fortgesetzt werden“ fehl: VMware-VM-Tools

              Wenn Sie beim ESXi-Upgrade mithilfe des vSphere Lifecycle Managers ein neues ESXi-Basisimage im Dropdown-Menü ESXi-Version auswählen und die asynchrone VMware Tools-Komponente im Abschnitt Komponenten nicht entfernen, schlägt das Upgrade fehl. Im vSphere Client wird ein Fehler ähnlich dem folgenden angezeigt:
              Der Vorgang kann aufgrund eines Downgrades der folgenden Komponenten nicht fortgesetzt werden: VMware-VM-Tools.
              Dieses Problem tritt auf, weil die asynchrone VMware Tools-Komponente aus ESXi 7.0 die Komponente im ausgewählten Basisimage überschreibt.

              Problemumgehung: Entfernen Sie die asynchrone VMware Tools-Komponente im Abschnitt Komponenten in Ihrem Image. Weitere Details finden Sie im VMware-Knowledgebase-Artikel 79442.

            check-circle-line exclamation-circle-line close-line
            Scroll to top icon
            check-circle-line exclamation-circle-line close-line
            Scroll to top icon