This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

ESXi 7.0 Update 3c | 27. JAN 2022 | ISO-Build 19193900

Überprüfen Sie, ob Erweiterungen und Updates für diese Versionshinweise zur Verfügung stehen.

Inhalt dieser Versionshinweise

Diese Versionshinweise decken die folgenden Themen ab:

WICHTIG: Aufgrund eines Upgradeproblems hat VMware ESXi 7.0 Update 3, 7.0 Update 3a und 7.0 Update 3b am 19. November 2021 von allen Sites entfernt. Build 19193900 für ESXi 7.0 Update 3c ISO ersetzt Build 18644231, 18825058 und 18905247 für ESXi 7.0 Update 3, 7.0 Update 3a bzw. 7.0 Update 3b. Um sicherzustellen, dass Ihr Upgrade auf vSphere 7.0 Update 3c reibungslos vonstatten geht, lesen Sie sich bitte die VMware-Knowledgebase-Artikel 86447 und 87327 durch.

Neuigkeiten

Neue Funktionen in den zurückgesetzten Versionen finden Sie in dieser Liste:

  • vSphere Memory Monitoring and Remediation und Unterstützung für Snapshots von PMem-VMs: vSphere Memory Monitoring and Remediation (vMMR) erfasst Daten und bietet Einblick in die Leistungsstatistiken, damit Sie ermitteln können, ob Ihre Anwendungsarbeitslast aufgrund des Arbeitsspeichermodus gefallen ist. In vSphere 7.0 Update 3 wurde auch Unterstützung für Snapshots von PMem-VMs hinzugefügt. Weitere Informationen finden Sie unter vSphere Memory Monitoring and Remediation.

  • Erweiterte Unterstützung für Festplattenlaufwerktypen: Ab vSphere 7.0 Update 3 validiert vSphere Lifecycle Manager die folgenden Typen von Festplattenlaufwerken und Speichergerätkonfigurationen:
    • HDD (SAS/SATA)
    • SSD (SAS/SATA)
    • SAS/SATA-Festplattenlaufwerke hinter logischen RAID-0-Volumes mit einer Festplatte
    Weitere Informationen finden Sie unter Hardwarekompatibilitätsprüfungen auf Clusterebene.

  • Verwenden von vSphere Lifecycle Manager-Images zum Verwalten eines vSAN Stretched Cluster und seines Zeugenhosts: Ab vSphere 7.0 Update 3 können Sie vSphere Lifecycle Manager-Images verwenden, um einen vSAN Stretched Cluster und dessen Zeugenhost zu verwalten. Weitere Informationen finden Sie unter Verwenden von vSphere Lifecycle Manager-Images zum Standardisieren von vSAN Stretched Clusters.

  • Verbesserungen bei vSphere Cluster Services (vCLS): Mit vSphere 7.0 Update 3 können vSphere-Administratoren virtuelle vCLS-Maschinen für die Ausführung auf bestimmten Datenspeichern konfigurieren, indem sie die vCLS-VM-Datenspeichereinstellung pro Cluster konfigurieren. Administratoren können auch Computing-Richtlinien definieren, um festzulegen, wie der vSphere Distributed Resource Scheduler (DRS) vCLS-Agent-VMs (vCLS-VMs) und andere Gruppen von Arbeitslast-VMs platzieren soll. 

  • Verbesserte Interoperabilität zwischen vCenter Server und ESXi-Versionen: Ab vSphere 7.0 Update 3 kann vCenter Server ESXi-Hosts von den beiden vorherigen Hauptversionen und alle ESXi-Hosts von Version 7.0 und 7.0-Updates verwalten. Beispiel: vCenter Server 7.0 Update 3 kann ESXi-Hosts der Versionen 6.5, 6.7 und 7.0, aller 7.0-Updateversionen (auch höher als Update 3) und eine Mischung von Hosts mit Hauptversionen und Updateversionen verwalten.

  • Neues VMNIC-Tag für NVMe-over-RDMA-Speicherdatenverkehr: In ESXi 7.0 Update 3 wird ein neues VMNIC-Tag für NVMe-over-RDMA-Speicherdatenverkehr hinzugefügt. Diese VMkernel-Porteinstellung ermöglicht die Weiterleitung von NVMe-over-RDMA-Datenverkehr über die getaggte Schnittstelle. Sie können auch den ESXCLI-Befehl esxcli network ip interface tag add -i <interface name> -t NVMeRDMA verwenden, um das NVMeRDMA VMNIC-Tag zu aktivieren.

  • Unterstützung von NVMe over TCP: vSphere 7.0 Update 3 erweitert die NVMe-oF-Suite mit dem NVMe over TCP-Speicherprotokoll, um hohe Leistung und Parallelität von NVMe-Geräten über eine breite Bereitstellung von TCP/IP-Netzwerken zu ermöglichen.

  • Keine Ausfallzeit, kein Datenverlust für unternehmenskritische VMs im Falle eines MCE-Hardwarefehlers (Machine Check Exception): Mit vSphere 7.0 Update 3 können unternehmenskritische VMs, die von VMware vSphere Fault Tolerance geschützt werden, null Ausfallzeiten und null Datenverlust im Falle eines MCE-Hardwarefehlers (Machine Check Exception) erreichen, da VMs auf die sekundäre virtuelle Maschine zurückgreifen, anstatt fehlzuschlagen. Weitere Informationen finden Sie unter So funktioniert Fault Tolerance.
     
  • Zeitgenauigkeit auf Mikrosekundenebene für Arbeitslasten: ESXi 7.0 Update 3 fügt das Hardware-Zeitstempel-Precision Time Protocol (PTP) hinzu, um die Zeitgenauigkeit auf Mikrosekundenebene zu aktivieren. Weitere Informationen finden Sie unter Verwenden von PTP für die Datums- und Uhrzeitsynchronisierung eines Hosts.
     
  • Verbesserte Konfiguration der ESXi Host-Zeiterfassung:  ESXi 7.0 Update 3 verbessert den Workflow und die Benutzerfreundlichkeit beim Einrichten einer ESXi Host-Zeiterfassungskonfiguration. Weitere Informationen finden Sie unter Bearbeiten der Zeitkonfigurationseinstellungen eines Hosts.

Vorherige Versionen von ESXi 7.0

Neue Funktionen sowie die gelösten und bekannten Probleme von ESXi werden in den entsprechenden Versionshinweisen beschrieben. Versionshinweise zu vorherigen Versionen von ESXi 7.0:

Informationen zu Internationalisierung, Kompatibilität und Open Source-Komponenten finden Sie in den Versionshinweisen zu VMware vSphere 7.0.

In dieser Version enthaltene Patches

Diese ESXi 7.0 Update 3c-Version stellt die folgenden Patches bereit:

Build-Details

Download-Dateiname: VMware-ESXi-7.0U3c-19193900-depot
Build: 19193900
Download-Größe: 395,8 MB
md5sum: e39a951f4e96e92eae41c94947e046ec
sha256checksum: 20cdcd6fd8f22f5f8a848b45db67316a3ee630b31a152312f4beab737f2b3cdc
Neustart des Hosts erforderlich: Ja
Migration oder Herunterfahren der virtuellen Maschine erforderlich: Ja

Eine Tabelle mit Build-Nummern und Versionen von VMware ESXi finden Sie im VMware-Knowledgebase-Artikel 2143832.

WICHTIG:

  • Ab vSphere 7.0 verwendet VMware Komponenten zum Verpacken von VIBs mit Bulletins. Die Bulletins ESXi und esx-update bauen aufeinander auf. Schließen Sie immer beide in eine einzelne ESXi-Host-Patch-Baseline oder das Rollup-Bulletin in die Baseline ein, um Fehler während des Patchens von Hosts zu vermeiden. 
  • Beim Patchen von ESXi-Hosts mithilfe von VMware Update Manager von einer Version vor ESXi 7.0 Update 2 wird dringend empfohlen, das Rollup-Bulletin in der Patch-Baseline zu verwenden. Wenn Sie das Rollup-Bulletin nicht verwenden können, stellen Sie sicher, dass alle der folgenden Pakete in der Patch-Baseline enthalten sind. Wenn die folgenden Pakete nicht in der Baseline enthalten sind, schlägt der Updatevorgang fehl:
    • VMware-vmkusb_0.1-1vmw.701.0.0.16850804 oder höher
    • VMware-vmkata_0.1-1vmw.701.0.0.16850804 oder höher
    • VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 oder höher
    • VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 oder höher

Rollup-Bulletin

Dieses Rollup-Bulletin enthält die neuesten VIBs mit allen Fixes nach der ersten Version von ESXi 7.0.

Bulletin-ID Kategorie Schweregrad
ESXi70U3c-19193900 Fehlerkorrektur Kritisch

Image-Profile

Patch- und Updateversionen von VMware enthalten allgemeine und kritische Image-Profile. Die Anwendung des allgemeinen Image-Profils der Version gilt für die neuen Fehlerkorrekturen.

Name des Image-Profils
ESXi70U3c-19193900-standard
ESXi70U3c-19193900-no-tools

ESXi-Image

Name und Version Datum der Veröffentlichung Kategorie Detail
ESXi70U3c-19193900 27. Jan. 2022 Fehlerkorrektur Fehlerkorrektur-Image

Informationen zu den einzelnen Komponenten und Bulletins finden Sie auf der Seite Produkt-Patches und im Abschnitt Behobene Probleme.

Patch-Download und -Installation

In vSphere 7.x wird das für die Verwaltung von vSphere Update Manager verwendete Update Manager-Plug-In durch das Lifecycle Manager-Plug-In ersetzt. Verwaltungsvorgänge für vSphere Update Manager stehen weiterhin mit neuen Funktionen für vSphere Lifecycle Manager im Lifecycle Manager-Plug-In zur Verfügung.
Die typische Methode zum Anwenden von Patches auf ESXi 7.x-Hosts besteht in der Verwendung des vSphere Lifecycle Manager. Weitere Informationen finden Sie unter Info zu vSphere Lifecycle Manager und vSphere Lifecycle Manager-Baselines und -Images.
Sie können ESXi-Hosts auch ohne das Lifecycle Manager-Plug-In aktualisieren und stattdessen ein Image-Profil verwenden. Dazu müssen Sie die ZIP-Datei des Patch-Offline-Pakets nach Ihrer Anmeldung bei VMware Customer Connect manuell herunterladen. Wählen Sie im Dropdown-Menü Produkt auswählen die Option ESXi (eingebettet und installierbar) und im Dropdown-Menü Version auswählen die Option 7.0. Weitere Informationen finden Sie unter Aktualisieren von Hosts mithilfe von ESXCLI-Befehlen und im Handbuch VMware ESXi-Upgrade.

Hinweise zu Produktunterstützung

  • Veraltete lokale Konten: Die Verwendung lokaler Konten als Identitätsquelle wird nicht mehr unterstützt. VMware plant, die Unterstützung für die Verwendung des lokalen Betriebssystems als Identitätsquelle einzustellen. Diese Funktion wird in einer zukünftigen Version von vSphere entfernt.
  • Die cURL-Version in ESXi650-202110001 und ESXi670-202111001 ist höher als die cURL-Version in ESXi 7.0 Update 3c: Die cURL-Version in ESXi 7.0 Update 3c ist 7.77.0, während ESXi650-202110001 und ESXi670-202111001 über die neuere feste Version 7.78.0 verfügen. Wenn Sie daher ein Upgrade von ESXi650-202110001 oder ESXi670-202111001 auf ESXi 7.0 Update 3c durchführen, kann cURL 7.7.0 Ihr System den folgenden Schwachstellen aussetzen:
    CVE-2021-22926: CVSS 7.5
    CVE-2021-22925: CVSS 5.3
    CVE-2021-22924: CVSS 3.7
    CVE-2021-22923: CVSS 5.3
    CVE-2021-22922: CVSS 6.5
    cURL Version 7.78.0 wird mit einer zukünftigen Version von ESXi 7.x geliefert.

Behobene Probleme

Die behobenen Probleme werden in folgende Kategorien unterteilt.

Netzwerkprobleme
  • Wenn Sie einen vSphere Distributed Switch (VDS) vor Version 6.6 verwenden und den LAG-Hash-Algorithmus ändern, schlagen ESXi-Hosts möglicherweise mit einem violetten Diagnosebildschirm fehl

    Wenn Sie einen VDS der Version vor 6.6 auf einem System mit vSphere 7.0 Update 1 oder höher verwenden und den LAG-Hash-Algorithmus ändern, z. B. von L3 in L2-Hashes, schlagen ESXi-Hosts möglicherweise mit einem violetten Diagnosebildschirm fehl.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Es kommt zu verworfenen Paketen für virtuelle Maschinen mit aktivierter NetX-Umleitung (VMware Network Extensibility)

    In den erweiterten Leistungsdiagrammen von vCenter Server wird eine steigende Anzahl an verworfenen Paketen für alle virtuellen Maschinen angezeigt, für die NetX-Umleitung aktiviert ist. Wenn Sie NetX-Umleitung jedoch deaktivieren, ändert sich die Anzahl in 0.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Ein ESXi-Host schlägt möglicherweise aufgrund einer falschen CQ-zu-Equalizer-Zuordnung in einem Emulex FC-HBA während des Startvorgangs mit einem violetten Diagnosebildschirm fehl

    Wenn die Gesamtzahl der E/A-Kanäle eines Emulex FC-HBA kein genaues Vielfaches der Anzahl der Ereigniswarteschlangen (Equalizer) ist, kann eine fehlerhafte Zuordnung von Abschlusswarteschlangen (CQ) in seltenen Fällen dazu führen, dass das Starten eines ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlägt. Im Backtrace wird ein Fehler in der Methode lpfc_cq_create () angezeigt.

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix stellt die korrekte Zuordnung von CQs zu Equalizern sicher.

  • ESXi-Hosts schlagen möglicherweise aufgrund eines Problems mit der Arbeitsspeicherzuteilung in den UNIX-Domänen-Sockets mit einem violetten Diagnosebildschirm fehl

    Während der internen Kommunikation zwischen UNIX-Domänen-Sockets kann es zu einer Heap-Zuteilung statt der Bereinigung zusätzlicher Daten wie Dateideskriptoren kommen. Infolgedessen meldet der ESXi-Host in einigen Fällen einen unzureichenden Arbeitsspeicher und schlägt mit einem violetten Diagnosebildschirm mit #PF Exception 14 und Fehlern ähnlich dem folgenden fehl: UserDukt_ReadAndRecvMsg ().

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix bereinigt zusätzliche Daten, um Pufferspeicherzuweisungen zu vermeiden.

  • Optionale NTP-Konfigurationen werden beim Neustart des ESXi-Hosts nicht beibehalten

    Wenn Sie optionale Konfigurationen für NTP mithilfe von ESXCLI-Befehlen einrichten, werden die Einstellungen nach dem Neustart des ESXi-Hosts möglicherweise nicht beibehalten.

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix stellt sicher, dass optionale Konfigurationen während des Starts des ESXi-Hosts aus dem ConfigStore im lokalen Cache wiederhergestellt werden.

  • Wenn Sie den LACP-Hashing-Algorithmus in Systemen mit vSphere Distributed Switch der Version 6.5.0 ändern, schlagen möglicherweise mehrere ESXi-Hosts mit einem violetten Diagnosebildschirm fehl

    Wenn Sie den LACP-Hashing-Algorithmus in Systemen mit vSphere Distributed Switch der Version 6.5.0 und ESXi-Hosts der Version 7.0 oder höher ändern, kann dies aufgrund eines temporären Zeichenfolgen-Arrays, das zum Speichern des Ereignistypnamens verwendet wird, zu einem nicht unterstützten LACP-Ereignisfehler führen. Infolgedessen schlagen möglicherweise mehrere ESXi-Hosts mit einem violetten Diagnosebildschirm fehl.

    Dieses Problem wurde in der vorliegenden Version behoben. Um das Problem zu vermeiden, stellen Sie in vCenter Server-Systemen der Version 7.0 und höher sicher, dass Sie eine vSphere Distributed Switch-Version höher als 6.5.0 verwenden.

Installations-, Upgrade- und Migrationsprobleme
  • Die Standardisierung von Clustern, die Sie mit vSphere Lifecycle Manager-Baselines verwalten, kann lange dauern

    Die Standardisierung von Clustern, die Sie mit vSphere Lifecycle Manager-Baselines verwalten, kann nach Updates von ESXi 7.0 Update 2d und früher auf eine höhere Version als ESXi 7.0 Update 2d lange dauern.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Nach der Aktualisierung auf ESXi 7.0 Update 3 können virtuelle Maschinen mit physischen RDM-Festplatten nicht migriert oder auf Ziel-ESXi-Hosts gestartet werden

    In bestimmten Fällen, z. B. bei virtuellen Maschinen mit RDM-Geräten, die auf Servern mit SNMP ausgeführt werden, kann eine Race-Bedingung zwischen Anforderungen zum Öffnen von Geräten zu einem Fehlschlagen von vSphere vMotion-Vorgängen führen.

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix stellt sicher, dass Geräteanforderungen sequenziert werden, um Race-Bedingungen zu vermeiden. Weitere Informationen finden Sie im VMware-Knowledgebase-Artikel 86158

  • Nach dem Upgrade auf ESXi 7.0 Update 2d und höher wird ein NTP-Zeitsynchronisierungsfehler angezeigt

    In einigen Umgebungen wird nach dem Upgrade auf ESXi 7.0 Update 2d und höher im vSphere Client möglicherweise der Fehler Host hat die Zeitsynchronisierung verloren angezeigt. Der Alarm weist jedoch möglicherweise nicht auf ein tatsächliches Problem hin.

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix ersetzt die Fehlermeldung durch eine Protokollfunktion für die Rückverfolgung, verhindert aber falsche Alarme.

Sonstige Probleme
  • NEU Ein sehr seltenes Problem mit NVIDIA vGPU-basierten virtuellen Maschinen kann dazu führen, dass ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen

    In sehr seltenen Fällen schlagen ESXi-Hosts mit NVIDIA vGPU-basierten virtuellen Maschinen zeitweise mit einem violetten Diagnosebildschirm mit einem Fehler des Typs Kernel-Notfallalarm (Panic) fehl. Das Problem kann mehrere ESXi-Hosts betreffen, jedoch nicht gleichzeitig. Im Backlog werden Kernelberichte über Taktsignal-Zeitüberschreitungen für x Sekunden im Vergleich zur CPU angezeigt und der Stack informiert über einen P2M-Cache.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • ESXi-Hosts mit virtuellen Maschinen, für die Latenzempfindlichkeit aktiviert ist, reagieren nach dem Zufallsprinzip aufgrund einer stark herabgesetzten CPU-Leistung nicht mehr  

    Wenn Sie Latenzempfindlichkeit auf virtuellen Maschinen aktivieren, konkurrieren bestimmte Threads des Likewise Service Manager (lwsmd), der die CPU-Affinität explizit festlegt, möglicherweise um CPU-Ressourcen auf diesen virtuellen Maschinen. Dies kann dazu führen, dass der ESXi-Host und der hostd-Dienst nicht mehr reagieren.  

    Dieses Problem wurde in der vorliegenden Version behoben. Mit diesem Fix wird sichergestellt, dass die CPU-Affinität von lwsmd nicht explizit festgelegt wird. 

  • In sehr seltenen Fällen kann die Wiederholungslogik des virtuellen NVME-Adapters (VNVME) in ESXi 7.0 Update 3 möglicherweise zu einer unbeaufsichtigten Datenbeschädigung führen

    Die VNVME-Wiederholungslogik in ESXi 7.0 Update 3 weist ein Problem auf, das möglicherweise zu einer unbeaufsichtigten Beschädigung von Daten führt. Wiederholungen treten selten auf und können potenziell, aber nicht immer, Datenfehler verursachen. Das Problem betrifft nur ESXi 7.0 Update 3.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • ESXi-Hosts schlagen möglicherweise beim Herunterfahren aufgrund veralteter Metadaten mit einem violetten Diagnosebildschirm fehl

    In seltenen Fällen, wenn Sie eine große Komponente in einem ESXi-Host löschen und anschließend einen Neustart durchführen, erfolgt möglicherweise der Neustart, bevor alle Metadaten der Komponente gelöscht wurden. Die veralteten Metadaten können dazu führen, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt. 

    Dieses Problem wurde in der vorliegenden Version behoben. Der Fix stellt vor einem Neustart von ESXi-Hosts sicher, dass keine Metadaten zurückbleiben.

  • Virtual Desktop Infrastructure (VDI) reagiert möglicherweise aufgrund einer Race-Bedingung im VMKAPI-Treiber nicht mehr

    Die Ereignisbereitstellung an Anwendungen kann sich aufgrund einer Race-Bedingung im VMKAPI-Treiber unbegrenzt verzögern. Infolgedessen reagiert die virtuelle Desktopinfrastruktur in einigen Umgebungen, wie z. B. Systemen, die NVIDIA-Grafikkarten verwenden, möglicherweise nicht mehr oder verliert die Verbindung zum VDI-Client.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • ESXi-Hosts schlagen möglicherweise aufgrund von Problemen mit ACPICA-Semaphoren (ACPI Component Architecture) mit einem violetten Diagnosebildschirm fehl

    Mehrere Probleme bei der Implementierung von ACPICA-Semaphoren in ESXi 7.0 Update 3 und früher können zu VMKernel-Panics führen, in der Regel während des Startvorgangs. Ein Problem in der Semaphore-Implementierung kann zu einem „Verhungern“ führen, und auf mehreren Aufrufpfaden versucht der VMKernel möglicherweise fälschlicherweise, ein ACPICA-Semaphor abzurufen oder innerhalb von ACPICA in den Ruhemodus zu wechseln, während ein Spinlock gehalten wird. Ob diese Probleme auf einer bestimmten Maschine Probleme verursachen, ist abhängig von den Details der ACPI-Firmware der Maschine.

    Diese Probleme wurden in dieser Version behoben. Der Fix umfasst das Umschreiben der ACPICA-Semaphoren in ESXi und die Korrektur der Codepfade, die versuchen, ACPICA einzugeben, während ein Spinlock gehalten wird.

  • ESXi-Hosts schlagen möglicherweise mit einem violetten Diagnosebildschirm fehl, wenn E/A-Vorgänge auf einem Software-iSCSI-Adapter ausgeführt werden

    E/A-Vorgänge auf einem Software-iSCSI-Adapter führen möglicherweise zu einer seltenen Race-Bedingung innerhalb des iscsi_vmk-Treibers. Infolgedessen schlagen ESXi-Hosts möglicherweise mit einem violetten Diagnosebildschirm fehl.

    Dieses Problem wurde in der vorliegenden Version behoben.

Sicherheitsprobleme
  • OpenSSL-Update

    Das OpenSSL-Paket wurde auf Version openssl-1.0.2za aktualisiert.

  • Update des Python-Pakets

    Das BusyBox-Paket wurde aktualisiert, um CVE-2021-29921 zu beheben.

  • Mithilfe eingeschränkter DES/3DES-Verschlüsselungen können Sie eine Verbindung zu Port 9080 herstellen

    Mit dem OPENSSL-Befehl openssl s_client -cipher <CIPHER>-connect localhost:9080 Mithilfe eingeschränkter DES/3DES-Verschlüsselungen können Sie eine Verbindung zu Port 9080 herstellen.

    Dieses Problem wurde in der vorliegenden Version behoben. Mithilfe der folgenden Verschlüsselungen können Sie keine Verbindung zu Port 9080 herstellen: DES-CBC3-SHA, EDH-RSA-DES-CBC3-SHA, ECDHE-RSA-DES-CBC3-SHA und AECDH-DES-CBC3-SHA.

  • Die folgenden VMware Tools- ISO-Images werden mit ESXi 7.0 Update 3c gebündelt:

    • windows.iso: VMware Tools 11.3.5 unterstützt Windows 7 SP1 oder Windows Server 2008 R2 SP1 oder höher.
    • linux.iso: VMware Tools 10.3.23-ISO-Image für das Linux-Betriebssystem mit glibc 2.11 oder höher.

    Die folgenden VMware Tools-ISO-Images stehen zum Download zur Verfügung:

    • VMware Tools 11.0.6:
      • windows.iso: für Windows Vista (SP2) und Windows Server 2008 Service Pack 2 (SP2).
         
    • VMware Tools 10.0.12:
      • winPreVista.iso: für Windows 2000, Windows XP und Windows 2003.
      • linuxPreGLibc25.iso: unterstützt Linux-Gastbetriebssysteme vor Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 und andere Distributionen mit einer glibc-Version vor 2.5.
         
      solaris.iso: VMware Tools-Image 10.3.10 für Solaris.
    • darwin.iso: Unterstützt Mac OS X-Versionen 10.11 und höher.

    Befolgen Sie die in den folgenden Dokumenten aufgeführten Vorgehensweisen, um VMware Tools für Plattformen, die nicht mit ESXi gebündelt sind, herunterzuladen:

Probleme in Bezug auf den vSphere Client
  • Virtuelle Maschinen werden im vSphere Client als nicht erreichbar angezeigt, und es kommt unter Umständen zu Ausfallzeiten bei Anwendungen

    In seltenen Fällen können Hardwareprobleme zu einer Beschädigung der SQlite-Datenbank führen, wodurch mehrere VMs nicht mehr erreichbar sind und es zu Ausfallzeiten bei Anwendungen kommen kann.

    Dieses Problem wurde in der vorliegenden Version behoben.

Speicherprobleme
  • Vorgänge der virtuellen Maschine schlagen aufgrund unzureichenden Festplattenspeichers im Datenspeicher mit einem Fehler fehl

    Ein neuer Datenspeicher verfügt normalerweise über eine hohe Anzahl an LFB (Large File Block)-Ressourcen und eine geringere Anzahl an SFB (Small File Block)-Ressourcen. Für Workflows, die SFBs nutzen, z. B. die Operationen virtueller Maschinen, werden LFBs in SFBs konvertiert. Aufgrund einer Verzögerung bei der Aktualisierung des Konvertierungsstatus werden neu konvertierte SFBs jedoch möglicherweise nicht als für die Zuteilung verfügbar erkannt. Infolgedessen wird eine Fehlermeldung wie Unzureichender Festplattenspeicher auf Datenspeicher angezeigt, wenn Sie versuchen, eine virtuelle Maschine einzuschalten, zu klonen oder zu migrieren.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • vSphere Virtual Volume-Snapshot-Vorgänge schlagen möglicherweise auf dem Quellvolume oder dem Snapshot-Volume im Pure Storage fehl

    Aufgrund eines Problems, das die Duplizierung der eindeutigen ID von vSphere Virtual Volumes zulässt, schlagen Snapshotvorgänge der virtuellen Maschine möglicherweise fehl oder das Quellvolume wird gelöscht. Das Problem ist spezifisch für den Pure Storage und betrifft die Purity-Versionen 5.3.13 und früher, 6.0.5 und früher sowie 6.1.1 und früher.

    Dieses Problem wurde in der vorliegenden Version behoben.

vSAN-Probleme
  • Möglicherweise werden vSAN-Integritätsfehler für die Clusterpartition angezeigt, wenn die Verschlüsselung von in Übertragung begriffener Daten aktiviert ist

    Im vSphere Client werden möglicherweise vSAN-Integritätsfehler wie vSAN-Clusterpartition oder vSAN-Objektintegrität angezeigt, wenn die Verschlüsselung in Übertragung begriffener Daten aktiviert ist. Dieses Problem tritt auf, weil ein temporärer Ressourcenfehler möglicherweise dazu führt, dass der Schlüsselaustausch zwischen Peers fehlschlägt, wenn ein Vorgang zur erneuten Schlüsselerstellung in einem vSAN-Cluster gestartet wird.

    Dieses Problem wurde in der vorliegenden Version behoben.

VM-Verwaltungsprobleme
  • Eine Race-Bedingung zwischen Live-Migrationsvorgängen kann dazu führen, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt

    In Umgebungen mit VMs mit 575 GB oder mehr reserviertem Arbeitsspeicher, die Encrypted vSphere vMotion nicht verwenden, kann ein Live-Migrationsvorgang mit einer anderen Live-Migration konkurrieren und dazu führen, dass der ESXi-Host mit einem violetten Diagnosebildschirm fehlschlägt.

    Dieses Problem wurde in der vorliegenden Version behoben. In sehr seltenen Fällen kann der Migrationsvorgang jedoch immer noch fehlschlagen, unabhängig davon, ob die Hauptursache für den violetten Diagnosebildschirm behoben wurde. Versuchen Sie in solchen Fällen, die Migration zu wiederholen, wenn keine andere Live-Migration auf dem Quellhost ausgeführt wird, oder aktivieren Sie Encrypted vSphere vMotion auf den virtuellen Maschinen.

Behobene Probleme aus vorherigen Versionen

    Netzwerkprobleme

    • Der RDMA-Datenverkehr unter Verwendung des iWARP-Protokolls wird möglicherweise nicht abgeschlossen

      Beim RDMA-Datenverkehr unter Verwendung des iWARP-Protokolls auf Intel x722-Karten tritt möglicherweise eine Zeitüberschreitung auf und der Vorgang wird nicht abgeschlossen.

      Dieses Problem wurde in der vorliegenden Version behoben.

    Installations-, Upgrade- und Migrationsprobleme

    • Die „/locker“-Partition ist möglicherweise beschädigt, wenn die Partition auf einem USB- oder SD-Gerät gespeichert ist

      Aufgrund der E/A-Empfindlichkeit von USB- und SD-Geräten kann die VMFS-L-Locker-Partition auf Geräten beschädigt werden, die VMware-Tools- und Core-Dump-Dateien speichern.

      Dieses Problem wurde in der vorliegenden Version behoben. Standardmäßig lädt ESXi die Locker-Pakete während des Startvorgangs auf die RAM-Festplatte. 

    • ESXi-Hosts verlieren möglicherweise nach dem Upgrade des brcmfcoe-Treibers auf Hitachi-Speicher-Arrays die Konnektivität

      Nach einem Upgrade des brcmfcoe-Treibers auf Hitachi-Speicher-Arrays können ESXi-Hosts möglicherweise nicht gestartet werden, und die Konnektivität wird unterbrochen.

      Dieses Problem wurde in der vorliegenden Version behoben.

    • Nach dem Upgrade auf ESXi 7.0 Update 2 wird eine übermäßige Speicherlese-E/A-Last angezeigt

      Mit ESXi 7.0 Update 2 wurde eine Anbieterschnittstelle für Systemstatistik eingeführt, die das Lesen der Datenspeicherstatistiken für jeden ESXi-Host alle 5 Minuten erfordert. Wenn ein Datenspeicher von mehreren ESXi-Hosts gemeinsam genutzt wird, können solche häufigen Lesevorgänge eine Leselatenz auf dem Speicherarray verursachen und zu einer übermäßigen Speicherlese-E/A-Last führen.

      Dieses Problem wurde in der vorliegenden Version behoben.

    VM-Verwaltungsprobleme

    • Virtuelle Maschinen mit aktiviertem AMD Secure Encrypted Virtualization-Encrypted State (SEV-ES) können keine VMCI-Sockets (Virtual Machine Communication Interface) erstellen

      Leistung und Funktionalität von Funktionen, die VMCI erfordern, können auf virtuellen Maschinen mit aktiviertem AMD SEV-ES beeinträchtigt werden, da solche virtuellen Maschinen keine VMCI-Sockets erstellen können.

      Dieses Problem wurde in der vorliegenden Version behoben.

    • Virtuelle Maschinen schlagen möglicherweise fehl, wenn ein stark ausgelastetes Gastbetriebssystem neu gestartet wird

      In seltenen Fällen können virtuelle Maschinen beim Initiieren eines Neustarts des Gastbetriebssystems außerhalb des Gastbetriebssystems, z. B. vom vSphere Client, fehlschlagen und einen VMX-Dump generieren. Dieses Problem kann auftreten, wenn das Gastbetriebssystem stark ausgelastet ist. Dies führt dazu, dass die Antworten des Gasts auf VMX-Anforderungen vor dem Neustart verzögert werden. In solchen Fällen enthält die Datei vmware.log der virtuellen Maschinen Meldungen wie die folgenden: I125: Tools: Zustandsänderung 3 kann nicht gesendet werden: TCLO-Fehler. E105: PANIC: NOT_REACHED bora/vmx/tools/toolsRunningStatus.c:953.

      Dieses Problem wurde in der vorliegenden Version behoben.

    Sonstige Probleme

    • Asynchrone E/A-Lesevorgänge, die ein SCATTER_GATHER_ELEMENT-Array mit mehr als 16 Mitgliedern mit mindestens 1 Mitglied im letzten Teilblock einer Datei enthalten, können zu einer ESXi-Host-Panik führen

      In seltenen Fällen kann bei einem asynchronen Lese-E/A, der ein SCATTER_GATHER_ELEMENT-Array mit mehr als 16 Mitgliedern enthält, mindestens 1 Mitglied in den letzten Teilblock einer Datei fallen. Dies kann zu einer Beschädigung des VMFS-Arbeitsspeicher-Heaps führen, was wiederum dazu führt, dass ESXi-Hosts mit einem violetten Diagnosebildschirm fehlschlagen.

      Dieses Problem wurde in der vorliegenden Version behoben.

    • Wenn ein Gastbetriebssystem umfangreiche UNMAP-Anforderungen auf mit Thin Provisioning bereitgestellten VMDKs ausgibt, schlagen ESXi-Hosts möglicherweise mit einem violetten Diagnosebildschirm fehl

      ESXi 7.0 Update 3 hat eine einheitliche UNMAP-Granularität für VMFS- und SEsparse-Snapshots eingeführt und die von VMFS gemeldete maximale UNMAP-Granularität auf 2 GB festgelegt. Wenn das Gastbetriebssystem jedoch in bestimmten Umgebungen eine Trim- oder Unmap-Anforderung von 2 GB stellt, wird für diese Anforderung unter Umständen die VMFS-Metadatentransaktion benötigt, um eine Sperrübernahme von mehr als 50 Ressourcenclustern durchzuführen. Solche Anforderungen werden von VMFS unter Umständen nicht ordnungsgemäß verarbeitet. Infolgedessen fällt ein ESXi-Host möglicherweise mit einem violetten Diagnosebildschirm aus. VMFS-Metadatentransaktionen, die Sperraktionen auf mehr als 50 Ressourcenclustern erfordern, sind selten und können nur auf veralteten Datenspeichern stattfinden. Das Problem wirkt sich nur auf mit Thin Provisioning bereitgestellte VMDKs aus. Thick- und Eager Zero Thick-VMDKs sind davon nicht betroffen.
      Zusätzlich zum violetten Diagnosebildschirm werden in der Datei /var/run/log/vmkernel Fehler angezeigt, wie z. B.:
      2021-10-20T03:11:41.679Z cpu0:2352732)@BlueScreen: NMI IPI: Von einer anderen PCPU angeforderter Notfallalarm. RIPOFF(base):RBP:CS [0x1404f8(0x420004800000):0x12b8:0xf48] (Src 0x1, CPU0)
      2021-10-20T03:11:41.689Z cpu0:2352732)Code start: 0x420004800000 VMK uptime: 11:07:27:23.196
      2021-10-20T03:11:41.697Z cpu0:2352732)Saved backtrace from: pcpu 0 Heartbeat NMI
      2021-10-20T03:11:41.715Z cpu0:2352732)0x45394629b8b8:[0x4200049404f7]HeapVSIAddChunkInfo@vmkernel#nover+0x1b0 stack: 0x420005bd611e

      Dieses Problem wurde in der vorliegenden Version behoben.

    • Der hostd-Dienst schlägt möglicherweise aufgrund eines Problems bei der Zeitdienst-Ereignisüberwachung fehl

      Ein Problem beim standardmäßig aktivierten Ereignisüberwachungsdienst des Zeitdiensts kann dazu führen, dass der hostd-Dienst fehlschlägt. In der Datei vobd.log finden Sie Fehler ähnlich den folgenden:
      2021-10-21T18:04:28.251Z: [UserWorldCorrelator] 304957116us: [esx.problem.hostd.core.dumped] /bin/hostd ist abgestürzt (bisher 1 Mal) und es wurde unter /var/core/hostd-zdump.000 möglicherweise eine Kerndatei erstellt. Möglicherweise führte dies dazu, dass Verbindungen zum Host unterbrochen wurden.
      2021-10-21T18:04:28.251Z: Ein Ereignis (esx.problem.hostd.core.dumped) konnte nicht sofort an hostd gesendet werden; es wurde zur Wiederholung in die Warteschlange gestellt. 2021-10-21T18:04:32.298Z: [UserWorldCorrelator] 309002531us: [vob.uw.core.dumped] /bin/hostd(2103800) /var/core/hostd-zdump.001
      2021-10-21T18:04:36.351Z: [UserWorldCorrelator] 313055552us: [vob.uw.core.dumped] /bin/hostd(2103967) /var/core/hostd-zdump.002
      .

      Dieses Problem wurde in der vorliegenden Version behoben. 

    Bekannte Probleme

    Die bekannten Probleme gliedern sich in folgende Gruppen.

    Netzwerkprobleme
    • Veraltete NSX for vSphere-Eigenschaften in vSphere Distributed Switch 7.0 (VDS) oder ESXi 7.x-Hosts schlagen möglicherweise bei Hostaktualisierungen fehl

      Wenn Sie NSX for vSphere mit aktiviertem VXLAN auf einem vSphere Distributed Switch (VDS) der Version 7.0 hatten und mithilfe NSX V2T-Migration auf NSX-T Data Center migriert wurden, verhindern veraltete NSX for vSphere-Eigenschaften im VDS oder einige Hosts möglicherweise ESXi 7.x-Host-Updates. Das Host-Update schlägt mit einem Plattformkonfigurationsfehler fehl.

      Problemumgehung: Laden Sie das CleanNSXV.py-Skript in das Verzeichnis /tmp in vCenter Server hoch. Melden Sie sich bei der Appliance-Shell als Benutzer mit Super-Administratorrechten (z. B. root) an und führen Sie die folgenden Schritte aus:

      1. Führen Sie CleanNSXV.py mithilfe des Befehls PY PYTHONPATH=$VMWARE_PYTHON_PATH python /tmp/CleanNSXV.py --user <vc_admin_user>--password <passwd> aus. Der Parameter <vc_admin_user> ist ein vCenter Server-Benutzer mit Superadministratorrechten und der Parameter <passwd> ist das Benutzerkennwort. 
        Beispiel: 
        PYTHONPATH=$VMWARE_PYTHON_PATH python /tmp/CleanNSXV.py --user '[email protected]' --password 'Admin123'
      2. Überprüfen Sie, ob die NSX for vSphere-Eigenschaften com.vmware.netoverlay.layer0 und com.vmware.net.vxlan.udpport von den ESXi Hosts entfernt wurden:
        1. Stellen Sie mithilfe eines SSH-Clients eine Verbindung mit dem ESXi-Host her.
        2. Führen Sie den Befehl net-dvs -l | grep "com.vmware.netoverlay.layer0\|com.vmware.net.vxlan.udpport" aus.
          Wenn keine Ausgabe angezeigt wird, werden die veralteten Eigenschaften entfernt.

      Informationen zum Herunterladen des Skripts CleanNSXV.py und weitere Details finden Sie im VMware-Knowledgebase-Artikel 87423.

    Sicherheitsprobleme
    • Die cURL-Version in ESXi650-202110001 und ESXi670-202111001 ist höher als die cURL-Version in ESXi 7.0 Update 3c

      Die cURL-Version in ESXi 7.0 Update 3c ist 7.77.0, während ESXi650-202110001 und ESXi670-202111001 über die neuere feste Version 7.78.0 verfügen. Wenn Sie daher ein Upgrade von ESXi650-202110001 oder ESXi670-202111001 auf ESXi 7.0 Update 3c durchführen, kann cURL 7.7.0 Ihr System den folgenden Schwachstellen aussetzen:
      CVE-2021-22926: CVSS 7.5
      CVE-2021-22925: CVSS 5.3
      CVE-2021-22924: CVSS 3.7
      CVE-2021-22923: CVSS 5.3
      CVE-2021-22922: CVSS 6.5

      Problemumgehung: Keine. cURL Version 7.78.0 wird mit einer zukünftigen Version von ESXi 7.x geliefert.

    Bekannte Probleme aus früheren Versionen

    Um eine Liste früherer bekannter Probleme anzuzeigen, klicken Sie hier.

    check-circle-line exclamation-circle-line close-line
    Scroll to top icon
    check-circle-line exclamation-circle-line close-line
    Scroll to top icon