Versionshinweise zu VMware ESXi 5.5 Update 3b

|

Versionshinweise zu VMware ESXi™ 5.5 Update 3b | 8. Dezember 2015 | 3248547

Letzte Aktualisierung: 30. März 2016

Überprüfen Sie, ob Erweiterungen und Updates für diese Versionshinweise zur Verfügung stehen.

Inhalt dieser Versionshinweise

Diese Versionshinweise decken die folgenden Themen ab:

Neuigkeiten

Die vorliegende Version von VMware ESXi weist folgende Verbesserungen auf:

  • Aktualisiert Die Unterstützung für SSLv3-Protokoll ist standardmäßig deaktiviert.

    Hinweis: In Ihrer vSphere-Umgebung müssen Sie vor dem Update von ESXi auf ESXi 5.5 Update 3b ein Update von vCenter Server auf vCenter Server 5.5 Update 3b ausführen. vCenter Server kann ESXi 5.5 Update 3b nicht verwalten, wenn Sie ESXi vor dem Update von vCenter Server auf Version 5.5 Update 3b aktualisieren. Weitere Information zur Reihenfolge, in der vSphere-Umgebungen aktualisiert werden müssen, finden Sie im Knowledgebase-Artikel KB 2057795.

    VMware empfiehlt, ESXi-Hosts unbedingt auf ESXi 5.5 Update 3b zu aktualisieren, wenn sie von vCenter Server 5.5 Update 3b verwaltet werden.

    Das erneute Aktivieren von SSLv3 auf ESXi wird von VMware aufgrund der POODLE-Sicherheitslücke nicht empfohlen. Wenn Sie SSLv3 überhaupt aktualisieren müssen, dann müssen Sie das SSLv3-Protokoll für alle Komponenten aktivieren. Weitere Informationen finden Sie im Knowledgebase-Artikel KB 2139396.

  • Behobene Probleme Diese Version enthält zahlreiche Fehlerkorrekturen, die im Abschnitt Behobene Probleme dokumentiert sind.

Vorherige Versionen von ESXi 5.5

Die Funktionen und bekannten Probleme von ESXi 5.5 werden in den entsprechenden Versionshinweisen beschrieben. Versionshinweise für frühere Versionen von ESXi 5.5:

Internationalisierung

VMware vSphere 5.5 Update 3b ist in den folgenden Sprachen verfügbar:

  • Englisch
  • Französisch
  • Deutsch
  • Japanisch
  • Koreanisch
  • Vereinfachtes Chinesisch
  • Traditionelles Chinesisch

Kompatibilität und Installation

ESXi, vCenter Server und vSphere Web Client – Versionskompatibilität

Die VMware-Produkt-Interoperabilitätsmatrix liefert Details zur Kompatibilität aktueller und vorheriger Versionen von VMware vSphere-Komponenten, einschließlich ESXi, VMware vCenter Server, vSphere Web Client und optionaler VMware-Produkte. Prüfen Sie die VMware-Produkt-Interoperabilitätsmatrix ebenfalls auf Informationen zu unterstützten Management- und Backup-Agenten, bevor Sie ESXi oder vCenter Server installieren.

vCenter Server ISO enthält den vSphere Client und den vSphere Web Client. Mithilfe des VMware vCenter™-Installationsassistenten können Sie einen oder beide Clients installieren.

Für die ESXi-Versionen 4.0, 4.1, 5.0, 5.1 und 5.5 empfiehlt VMware, ESXi-Hosts unbedingt auf ESXi 5.5 Update 3b zu aktualisieren, wenn sie von vCenter Server 5.5 Update 3b verwaltet werden.

ESXi, vCenter Server und VDDK-Kompatibilität

Virtual Disk Development Kit (VDDK) 5.5.3 bietet Unterstützung für die Versionen ESXi 5.5 Update 3 und vCenter Server 5.5 Update 3.
Weitere Informationen zu VDDK finden Sie unter http://www.vmware.com/support/developer/vddk/.

Kompatibilität von ESXi und Virtual SAN

Virtual SAN unterstützt keine Cluster, die mit ESXi-Hosts vor 5.5 Update 1 konfiguriert sind. Führen Sie für alle Hosts im Virtual SAN-Cluster ein Upgrade auf ESXi 5.5 Update 1 oder höher durch, bevor Sie Virtual SAN aktivieren. Auch vCenter Server sollte auf 5.5 Update 1 oder höher aktualisiert werden.

Hardwarekompatibilität für ESXi

Um eine Liste der Prozessoren, Speichergeräte, SAN-Arrays und E/A-Geräte anzuzeigen, die mit vSphere 5.5 Update 3 kompatibel sind, lesen Sie die Informationen zu ESXi 5.5 Update 3 im VMware-Kompatibilitätshandbuch.

Gerätekompatibilität für ESXi

Verwenden Sie die Informationen zu ESXi 5.5 Update 3 im VMware-Kompatibilitätshandbuch, um die Geräte zu ermitteln, die mit ESXi 5.5 Update 3b kompatibel sind.

Einige Geräte sind veraltet und werden nicht mehr von ESXi 5.5 und höher unterstützt. Während des Upgrade-Vorgangs wird der Gerätetreiber auf dem ESXi 5.5.x-Host installiert. Er funktioniert möglicherweise auch unter ESXi 5.5.x, aber das Gerät wird unter ESXi 5.5.x nicht unterstützt. Eine Aufstellung der veralteten Geräte, die nicht mehr von ESXi 5.5.x unterstützt werden, finden Sie im VMware-Knowledgebase-Artikel Veraltete Geräte und Warnungen während des Upgrade-Vorgangs von ESXi 5.5.

Kompatibilität von Gastbetriebssystemen für ESXi

Verwenden Sie die Informationen zu ESXi 5.5 Update 3 im VMware-Kompatibilitätshandbuch, um die Gastbetriebssysteme zu ermitteln, die mit vSphere 5.5 Update 3b kompatibel sind.

Kompatibilität von virtuellen Maschinen für ESXi

Virtuelle Maschinen, die mit ESX 3.x und höher (Hardwareversion 4) kompatibel sind, werden mit ESXi 5.5 Update 3 unterstützt. Virtuelle Maschinen, die mit ESX 2.x und höher (Hardwareversion 3) kompatibel sind, werden nicht unterstützt. Wenn Sie solche virtuellen Maschinen unter ESXi 5.5 Update 3 verwenden möchten, führen Sie ein Upgrade der VM-Kompatibilität durch. Weitere Informationen finden Sie in der vSphere-Upgrade-Dokumentation.

vSphere Client-Verbindungen zu Umgebungen im verknüpften Modus mit vCenter Server 5.x

vCenter Server 5.5 kann sich nur zusammen mit anderen Instanzen von vCenter Server 5.5 im verknüpften Modus befinden.

Installationshinweise für diese Version

Weitere Informationen zum Installieren und Konfigurieren von ESXi und vCenter Server finden Sie im Handbuch zur Installation und Einrichtung von vSphere .

Wenngleich die Installation unkompliziert ist, sind viele der nachfolgenden Konfigurationsschritte äußerst wichtig. Lesen Sie folgende Dokumente:

Migrieren von Drittanbieterlösungen

Sie können bei einem Host-Upgrade keine Lösungen von Drittanbietern, die auf einem ESX- oder ESXi-Host installiert sind, direkt migrieren. Architektonische Änderungen zwischen ESXi 5.1 und ESXi 5.5 führen zu einem Verlust von Drittanbieter-Komponenten und einer möglichen Systeminstabilität. Zur Ausführung solcher Migrationen können Sie mit Image Builder eine benutzerdefinierte ISO-Datei erstellen. Weitere Informationen zum Upgrade Ihres Hosts mit Drittanbieter-Anpassungen finden Sie in der vSphere-Upgrade-Dokumentation. Weitere Informationen zur Verwendung von Image Builder zur Erstellung einer benutzerdefinierten ISO-Datei finden Sie im Installations- und Einrichtungshandbuch für vSphere.

Upgrades und Installationen nicht zulässig für nicht unterstützte CPUs

vSphere 5.5.x unterstützt nur CPUs mit LAHF- und SAHF-Befehlssätzen. Bei einer Installation oder einem Upgrade prüft das Installationsprogramm die Kompatibilität der Host-CPU mit vSphere 5.5.x. Wenn Ihre Hosthardware nicht kompatibel ist, erscheint ein violetter Bildschirm mit einer entsprechenden Meldung. Sie können vSphere 5.5.x weder installieren noch ein Upgrade darauf durchführen.

Upgrades für diese Version

Informationen zur Durchführung eines Upgrades von vCenter Server und ESX/ESXi-Hosts finden Sie im vSphere-Upgrade-Handbuch.

In Ihrer vSphere-Umgebung müssen Sie vor dem Update von ESXi auf ESXi 5.5 Update 3b ein Update von vCenter Server auf vCenter Server 5.5 Update 3b ausführen.
vCenter Server kann ESXi 5.5 Update 3b-Hosts nicht verwalten, wenn Sie ESXi vor dem Update von vCenter Server auf Version 5.5 Update 3b aktualisieren.
Weitere Information zur Reihenfolge, in der vSphere-Umgebungen aktualisiert werden müssen, finden Sie im Knowledgebase-Artikel KB 2057795.

Unterstützte Upgrade-Pfade für das Upgrade auf ESXi 5.5 Update 3b:

Upgrade-Lieferumfang

Unterstützte Upgrade-Tools

Unterstützte Upgrade-Pfade für ESXi 5.5 Update 3b

ESX/ESXi 4.0:
Enthält
ESX/ESXi 4.0 Update 1
ESX/ESXi 4.0 Update 2

ESX/ESXi 4.0 Update 3
ESX/ESXi 4.0 Update 4

ESX/ESXi 4.1:
Enthält
ESX/ESXi 4.1 Update 1
ESX/ESXi 4.1 Update 2

ESX/ESXi 4.1 Update 3

ESXi 5.0:
Enthält
ESXi 5.0 Update 1

ESXi 5.0 Update 2
ESXi 5.0 Update 3

ESXi 5.1
Enthält
ESXi 5.1 Update 1
ESXi 5.1 Update 2

ESXi 5.5:
Enthält
ESXi 5.5 Update 1
ESXi 5.5 Update 2 ESXi 5.5 Update 3a



VMware-VMvisor-Installer-201512001-3248547.x86_64.iso

 

  • VMware vSphere Update Manager
  • CD-Upgrade
  • Skriptbasiertes Upgrade

Ja

Ja

Ja

Ja

Ja

ESXi550-201512001.zip
  • VMware vSphere Update Manager
  • ESXCLI
  • VMware vSphere-CLI

Nein

Nein

Ja*

Ja*

Ja

Verwendung von Patch-Definitionen, die vom VMware-Portal (online) heruntergeladen werden VMware vSphere Update Manager mit Patch-Baseline

Nein

Nein

Nein

Nein

Ja


Open Source-Komponenten für VMware vSphere 5.5 Update 3

Informationen über Copyright und Lizenzen für die Open Source-Softwarekomponenten, die im Lieferumfang von vSphere 5.5 Update 3 enthalten sind, finden Sie unter http://www.vmware.com/download/vsphere/open_source.html auf der Registerkarte „Open Source“. Sie können auch die Quelldateien für jede GPL-, LGPL- oder vergleichbare Lizenz herunterladen, die die Verfügbarkeit des Quellcodes bzw. dessen Modifizierung für die jeweils neueste vorliegende vSphere-Version erfordern.

Hinweise zur Produktunterstützung

  • vSphere Web Client. Linux-Plattformen werden von Adobe Flash nicht mehr unterstützt, weshalb der vSphere Web Client unter dem Linux-Betriebssystem nicht unterstützt wird. Drittanbieter-Browser, die die Unterstützung für Adobe Flash unter dem Linux-Desktop-Betriebssystem hinzufügen, sind möglicherweise weiterhin funktionsfähig.

  • VMware vCenter Server Appliance. In vSphere 5.5 hält die VMware vCenter Server Appliance durch Erzwingen der DISA Security Technical Information Guidelines (STIG) strenge Compliance-Standards ein. Vor der Bereitstellung der VMware vCenter Server Appliance sollten Sie im VMware Hardened Virtual Appliance Operations Guide die Informationen zu den neuen Sicherheitsstandards für die Bereitstellung nachlesen, um den erfolgreichen Betrieb sicherzustellen.

  • vCenter Server-Datenbank. In vSphere 5.5 wird IBM DB2 nicht mehr als vCenter Server-Datenbank unterstützt.

  • VMware Tools. Ab vSphere 5.5 werden alle Informationen zum Installieren und Konfigurieren von VMware Tools in vSphere mit der restlichen vSphere-Dokumentation zusammengefasst. Informationen zur Verwendung von VMware Tools in vSphere finden Sie in der vSphere-Dokumentation. Installieren und Konfigurieren von VMware Tools ist für vSphere 5.5 und höher nicht relevant.

  • VMware Tools. Ab vSphere 5.5 gibt es in VMware Tools keine ThinPrint-Funktionen mehr.
    Hinweis: Wenn Sie ein Upgrade Ihrer ESXi-Hosts auf ESXi 5.5 Update 3b (mit im Paket enthaltenem VMware Tools 10.0.0) oder höher planen und außerdem die älteren Versionen von Horizon View Agents verwenden, sollten Sie auf Inkompatibilität achten. Informationen zur Beseitigung von Inkompatibilitäten sowie allgemeine Richtlinien finden Sie in den Knowledgebase-Artikeln 2144438 und 2144518.

  • vSphere Data Protection. vSphere Data Protection 5.1 ist aufgrund der geänderten Funktionsweise des vSphere Web Client nicht mit vSphere 5.5 kompatibel. Benutzer von vSphere Data Protection 5.1, die ein Upgrade auf vSphere 5.5 durchführen, müssen auch vSphere Data Protection aktualisieren, falls sie vSphere Data Protection weiterhin verwenden möchten.

In dieser Version enthaltene Patches

Diese Version enthält alle Bulletins für ESXi, die vor dem Veröffentlichungsdatum dieses Produkts zur Verfügung standen. Weitere Informationen zu den einzelnen Bulletins finden Sie auf der VMware-Seite Patches herunterladen.

Die Patch-Version ESXi550-Update03b enthält die folgenden einzelnen Bulletins:

ESXi550-201512401-BG: Aktualisiert ESXi 5.5 esx-base vib

ESXi550-201512402-BG: Aktualisiert ESXi 5.5 ehci-ehci-hcd vib

ESXi550-201512403-BG: Aktualisiert ESXi 5.5 tools-light vib

ESXi550-201512404-BG: Aktualisiert ESXi 5.5 lsi-msgpt vib

Die Patch-Version ESXi550-Update03b Security-only enthält die folgenden einzelnen Bulletins:

ESXi550-201512101-SG: Aktualisiert ESXi 5.5 esx-base vib

ESXi550-201512102-SG: Aktualisiert ESXi 5.5 tools-light vib

Die Patch-Version ESXi550-Update03b enthält die folgenden Image-Profile:

ESXi-5.5.0-20151204001-standard
ESXi-5.5.0-20151204001-no-tools

Die Patch-Version ESXi550-Update03b Security-only enthält die folgenden Image-Profile:

ESXi-5.5.0-20151201001s-standard
ESXi-5.5.0-20151201001s-no-tools

Weitere Informationen zur Klassifizierung von Patches und Updates finden Sie unter KB 2014447.

Behobene Probleme

In diesem Abschnitt werden in dieser Version gelöste Probleme beschrieben:

Sicherungsprobleme

  • Beim erneuten Laden der virtuellen Maschine kann es vorkommen, dass das Funktionalitätsflag changeTrackingSupported der virtuellen Maschine unerwarteterweise zurückgesetzt wird
    Das CBT-Modul (Changed Block Tracking) setzt möglicherweise den Wert des Flags changeTrackingSupported unerwartet intermittierend von True auf False zurück, wenn der hostd-Dienst eine virtuelle Maschine erneut lädt. Dies kann dazu führen, dass Ihr CBT-Modul auf der virtuellen Maschine nicht unterstützt wird und das CBT daher beim Vorgang der Sicherung der virtuellen Maschine nicht verwendet werden kann. Die inkrementelle Sicherung schlägt möglicherweise fehl, und es wird eine Fehlermeldung ähnlich der folgenden angezeigt:
    Sicherung der virtuellen Maschine kann nicht durchgeführt werden.

    Dieses Problem wurde in der vorliegenden Version behoben.

CIM- und API-Probleme

  • ServerView-CIM-Anbieter kann den Hardwarestatus nicht überwachen, wenn der Emulex-CIM-Anbieter auf demselben ESXi-Host vorhanden ist
    Wenn der ServerView-CIM-Anbieter und der Emulex-CIM-Anbieter auf demselben ESXi-Host vorhanden sind, reagiert der Emulex-CIM-Anbieter (sfcb-emulex_ucn) möglicherweise nicht, weshalb der Hardwarestatus nicht überwacht werden kann.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Die Überwachung des Hardwarestatus schlägt möglicherweise fehl, wenn die Drittanbietersoftware ServerView RAID Manager verwendet wird
    Es kann sein, dass die Überwachung des Hardwarestatus fehlschlägt, wenn Sie die Drittanbietersoftware ServerView RAID Manager verwenden. Aufgrund einer Wettlaufsituation reagiert sfcb-vmware_aux nicht mehr.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Die Verbindung zwischen dem Host ESXi 5.x und dem vCenter Server wird möglicherweise unterbrochen, wenn die I-Knoten ausgelastet sind.
    Die Verbindung zwischen dem Host ESXi 5.x und dem vCenter Server wird möglicherweise unterbrochen, wenn die I-Knoten durch den SFCBD-Dienst (small footprint CIM broker daemon) ausgelastet sind. Sobald der Host ESXi 5.x diesen Zustand erreicht hat, it connected be reconnected to the vCenter Server.

    In /var/log/hostd.log wird ein Eintrag ähnlich dem folgenden geschrieben, der darauf hinweist, dass der Host ESXi 5.x keinen ausreichenden Speicherplatz mehr aufweist:
    VmkCtl Locking (/etc/vmware/esx.conf) : Unable to create or open a LOCK file. Failed with reason: No space left on device
    VmkCtl Locking (/etc/vmware/esx.conf) : Unable to create or open a LOCK file. Failed with reason: No space left on device

    In /var/log/vmkernel.log wird eine Meldung ähnlich der folgenden geschrieben, die darauf hinweist, dass der Host ESXi 5.x keine I-Knoten mehr hat:
    cpu4:1969403)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.
    cpu5:1969403)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process python because the visorfs inode table is full.
    cpu11:1968837)WARNING: VisorFSObj: 893: Cannot create file /etc/vmware/esx.conf.LOCK for process hostd because the visorfs inode table is full.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Auf der Registerkarte „Hardwarestatus“ von vSphere Client werden möglicherweise falsche Alarme angezeigt
    Nach einem Upgrade der Integrated Lights Out (iLO)-Firmware auf HP DL980 G7 werden auf der Registerkarte „Hardwarestatus“ von vSphere Client falsche Alarme angezeigt.
    Es werden möglicherweise Fehlermeldungen ähnlich den folgenden in die Protokolldatei /var/log/syslog.log geschrieben:

    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x8 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfcFruChassis: Reading FRU Chassis Info Area length for 0x0 FAILED
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfcFruBoard: Reading FRU Board Info details for 0x0 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x70 FAILED cc=0xffffffff
    2014-10-17T08:50:58Z sfcb-vmware_raw[68712]: IpmiIfcFruProduct: Reading FRU product Info Area length for 0x0 FAILED
    2014-10-17T08:51:14Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: data length mismatch req=19,resp=3
    2014-10-17T08:51:15Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0001,resp=0002
    2014-10-17T08:51:17Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0002,resp=0003
    2014-10-17T08:51:19Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0003,resp=0004
    2014-10-17T08:51:19Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0004,resp=0005
    2014-10-17T08:51:20Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0005,resp=0006
    2014-10-17T08:51:21Z sfcb-vmware_raw[68712]: IpmiIfcSelReadEntry: EntryId mismatch req=0006,resp=0007

    Dieses Problem wurde in der vorliegenden Version behoben.

Netzwerkprobleme

  • Virtuelle Maschinen, die den virtuellen Adapter VMXNET3 verwenden, schlagen möglicherweise fehl
    Virtuelle Maschinen, die den virtuellen VMXNET3-Adapter verwenden, können möglicherweise nicht von iPXE (Open Source-Boot-Firmware) gestartet werden.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Das Festlegen des Ressourcenpools auf einen benutzerdefinierten Ressourcenpool schlägt möglicherweise fehl
    Es kann sein, dass der Versuch, den Ressourcenpool auf einen benutzerdefinierten Ressourcenpool festzulegen, fehlschlägt, weil das QoS-Prioritätstag in benutzerdefinierten Netzwerk-Ressourcenpools keine Auswirkung hat.

    Dieses Problem wurde in der vorliegenden Version behoben.


  • Netzwerkkonnektivität wird beim Anwenden des Hostprofils während der Ausführung von Auto Deploy unterbrochen
    Beim Anwenden des Hostprofils während der Ausführung von Auto Deploy wird möglicherweise die Netzwerkkonnektivität unterbrochen, da die VTEP-Netzwerkkarte (VXLAN Tunnel Endpoint) als Verwaltungs-vmknic gekennzeichnet wird.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Der FCoE-Link (Fibre Channel over Ethernet) wird beim Abrufen des ESXi-Protokollpakets möglicherweise unterbrochen
    Beim Abrufen des ESXi-Protokollpakets aktiviert der lldpnetmap-Befehl LLDP. LLDP kann allerdings nur auf den Modus Both festgelegt werden, und die LLDP-Pakete werden vom ESXi-Host gesendet. Die Pakete verursachen möglicherweise eine Unterbrechung des FCoE-Links.

    Dieses Problem wurde in der vorliegenden Version behoben.

Sicherheitsprobleme

  • OpenSSL-Update
    OpenSSL wurde auf Version openssl-1.0.1p aktualisiert.

  • Update des Python-Pakets
    Die Python-Drittanbieterbibliothek wurde auf Version 2.7.9 aktualisiert.

  • Unterstützung für Diffie-Hellman-Chiffre wurde deaktiviert
    Unterstützung für Diffie-Hellman-Chiffrensammlung wurde für alle Dienste standardmäßig deaktiviert.

  • Unterstützung für EXPORT_RSA-Chiffre wurde deaktiviert
    Unterstützung für EXPORT_RSA-Chiffre ist standardmäßig deaktiviert.

  • SSL/TLS-Konfiguration ist dauerhaft
    Alle Dienstkonfigurationen für SSL/TLS mithilfe eines Hostprofils sind jetzt für ESXi (zustandslos und zustandsbehaftet), ausgenommen hostd, dauerhaft.

Serverkonfigurationsprobleme

  • Das erneute Laden eines ESXi-Hosts schlägt nach einem Upgrade auf ESXi 5.x möglicherweise fehl und verursacht ein sehr hohes Aufkommen von WAN-Datenverkehr
    Eine Meldung ähnlich der folgenden wird in die Datei syslog.log unter /var/log/ auf dem Host ESXi 5.x geschrieben, wenn mehrere Instanzen der lsassd-, netlogond- oder lwiod-Daemons gleichzeitig ausgeführt werden:

    lsassd[<value>]: <value>:Terminating on fatal IPC exception

    Dieses Problem tritt möglicherweise beim Upgrade des ESXi-Hosts auf. Weitere Informationen finden Sie im Knowledgebase-Artikel KB 2051707.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Der ESXi-Hostserver wird unerwarteterweise erneut geladen, gefolgt von einer UMCE-Fehlermeldung (Uncorrectable Machine Check Exception)
    Nach dem Upgrade des ESXi-Hosts mit 1,5 TB Speicherplatz von Version 5.1 auf 6.0 auf einem HP-Server mit AMD-Prozessor kann es vorkommen, dass der Host unerwarteterweise nicht mehr reagiert oder erneut geladen wird. Außerdem werden UMCE-Fehlermeldungen (Uncorrectable Machine Check Exceptions) angezeigt ähnlich den folgenden in der Protokolldatei „Integrated Management“.

    Critical","CPU","##/##/2014 15:41","##/##/2014 15:41","1","Uncorrectable Machine Check Exception (Board 0, Processor 3, APIC ID 0x00000060, Bank 0x00000004, Status 0xF6000000'00070F0F, Address 0x00000050'61EA3B28, Misc 0x00000000'00000000)",
    Mode of failure: Unexpectedly reboot. IML displays UMCE occurred.


    Dieses Problem wurde in der vorliegenden Version behoben.

  • Der Hostd-Dienst reagiert möglicherweise nicht mehr, da kein Arbeitsspeicher verfügbar ist
    Der Hostd-Dienst reagiert möglicherweise nicht mehr und schlägt mit einer Fehlermeldung fehl. Das liegt daran, dass hostd mehr Arbeitsspeicher benötigt, da der Arbeitsspeicher in vmkctl nicht verfügbar ist. Es wird u. U. eine Fehlermeldung ähnlich der folgenden angezeigt:
    Memory exceeds hard limit

    Dieses Problem wurde in der vorliegenden Version behoben.

Speicherprobleme

  • Die Dell Force10 S5000 Switches, die 9.6-Firmware ausführen, haben möglicherweise Schwierigkeiten dabei, Sitzungen mit Dell Compellent S40 Storage einzurichten.
    Versuche, Sitzungen zwischen Dell Force10 S5000 Switches, die 9.6-Firmware ausführen, und dem Dell Compellent S40 Storage-Server einzurichten, schlagen möglicherweise fehl. Dieser Fehler tritt auf, wenn die ESXi 5.x-Server mit dem FCoE-Speicher (Fibre-Channel über Ethernet) verbunden sind, und wenn sich der Initiator nicht wieder bei der Fabric anmeldet, wenn die Konnektivität wiederhergestellt wird. Dies kann viele gültige oder ungültige Sitzungen in den Umgebungen mit mehreren Servern verursachen, die eine Verbindung zum Speicher über FCoE herstellen.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Das esxtop-Dienstprogramm gibt für DAVG/cmd und KAVG/cmd auf VAAI-unterstützten LUNs falsche Statistiken an
    Das esxtop-Dienstprogramm gibt auf VAAI-unterstützten LUNs für die durchschnittliche Gerätelatenz per Befehl und die durchschnittliche ESXi-VMkernel-Latenz per Befehl aufgrund einer falschen Berechnung falsche Statistiken an.
    Hinweis: Dieses Problem wirkt sich möglicherweise auch auf die ESXi-Statistiken in vCenter Server und VRops aus.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • vSphere erkennt möglicherweise nicht alle Laufwerke im System, selbst wenn sie im BIOS angezeigt werden
    vSphere erkennt möglicherweise nicht alle 18 Laufwerke im System, da der lsi_msgpt3-Treiber nicht ein einzelnes Laufwerk pro HBA erkennen kann, falls mehrere HBAs in einem System vorhanden sind.

    Dieses Problem wurde behoben.

  • VMFS-Volume ist gesperrt
    Das VMFS-Volume auf einem ESXi-Host bleibt möglicherweise aufgrund fehlgeschlagener Metadatenvorgänge gesperrt. Eine Fehlermeldung ähnlich der folgenden erscheint in der Protokolldatei „vmkernel.log“:
    WARNING: LVM: 12976: The volume on the device naa.50002ac002ba0956:1 locked, possibly because some remote host encountered an error during a volume operation and could not recover.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Ignorieren von VDS vmknics, die in Hostprofilen deaktiviert sind
    Wenn Sie VDS vmknics im Hostprofil deaktivieren, werden diese bei einer Übereinstimmungsprüfung nicht ignoriert und auch nicht beim Anwenden des Profils auf einen Host. Dies kann dazu führen, dass die NSX-Vorbereitung für zustandslose ESXi-Hosts fehlschlägt.

    Dieses Problem wurde in der vorliegenden Version behoben.

Gastbetriebssystem-Probleme

  • Die Überprüfung von Microsoft Cluster Service schlägt möglicherweise auf ESXi 5.5 Update 3b-Host fehl
    Die Überprüfung von Microsoft Cluster Service (MSCS) und Failover-Vorgänge schlagen möglicherweise für MSCS 2012 Version 2 fehl.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Beim Laden des Gastbetriebssystems OS X 10.9 wird möglicherweise eine falsche Warnung angezeigt
    Beim Starten einer virtuellen Maschine unter OS X 10.9 wird möglicherweise eine unberechtigte Warnung angezeigt. Es wird möglicherweise eine Meldung ähnlich der folgenden angezeigt:
    Ihr Mac-Betriebssystemgast wird möglicherweise instabil mit mehr als einem virtuellen Kern ausgeführt. Es ist empfehlenswert, die virtuelle Maschine auszuschalten und die Anzahl der virtuellen Kerne festzulegen, bevor Sie die VM wieder einschalten. Wenn Sie fortfahren, kann es sein, dass Ihr Gast willkürliche Vorgänge auslöst und Sie Daten verlieren.

    Die Warnung sollte eigentlich nur für ältere Versionen von OS X angezeigt werden und trifft auf OS X 10.9 nicht zu. Version OS X 10.9 erfordert für eine zuverlässige Ausführung mindestens zwei Prozessorkerne. Die falsche Warnung ist zu ignorieren.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Virtuelle Maschinen, die SAP ausführen, schlagen willkürlich fehl
    Virtuelle Maschinen, auf denen SAP ausgeführt wird, schlagen möglicherweise willkürlich fehl und führen zu einer Fehlermeldung im vmx.zdump ähnlich der folgenden, wenn zu viele VMware Tools-Statistikbefehle innerhalb der VM ausgeführt werden.
    CoreDump error line 2160, error Cannot allocate memory.

    Dieses Problem wurde in der vorliegenden Version behoben.

Virtual SAN-Probleme

  • Versuche, Daten auf eine virtuelle Maschine im Virtual SAN-Datenspeicher zu kopieren, schlagen möglicherweise fehl
    Die Datenmigration von einem physischen NAS auf den Dateiserver einer virtuellen Maschine auf Virtual SAN schlägt möglicherweise fehl. Es wird u. U. eine Fehlermeldung ähnlich der folgenden angezeigt:
    Datei wurde nicht gefunden

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Nachdem ein erneut installierter ESXi-Host zu einem Virtual SAN-Cluster wieder hinzugefügt wird, kann es vorkommen, dass die Festplatten und andere VM-Komponenten nicht vorhanden bzw. fehlerhaft sind
    Wenn ein ESXi-Host erneut installiert wird, ändert sich seine Host-UUID. Wenn ein solcher ESXi-Host wieder zum Virtual SAN-Cluster hinzugefügt wird, werden die Festplatten und andere Komponenten der virtuellen Maschine, die zu diesem Host gehören, möglicherweise im Weiteren als nicht vorhanden oder fehlerhaft angezeigt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Versuche, Festplatten in VMware Virtual SAN zu konsolidieren schlagen möglicherweise fehl
    Versuche, Festplatten in VMware Virtual SAN zu konsolidieren, schlagen möglicherweise fehl, auch wenn vSanDatastore oder das Festplattenlaufwerk ausreichend Speicherplatz aufweisen. Eine Fehlermeldung ähnlich der folgenden wird angezeigt:
    Fehler beim Konsolidieren der Festplatten: msg.disklib.NOSPACE

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Die Diskgroup-Validierung schlägt möglicherweise augrund von ungültigen Metadaten auf der SSD/MD-Festplattenpartition fehl
    Versuche, eine Festplatte von einer VMware Virtual SAN-Festplattengruppe zu entfernen, führen möglicherweise zur Anzeige eines violetten Diagnosebildschirms, da die Validierung der Festplattengruppe aufgrund von ungültigen Metadaten auf der SSD/MD-Festplattenpartition fehlschlägt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Verwaistes LSOM-Objekt wird beibehalten, nachdem auf dem SSD ein APD-Festplattenfehler auftritt
    Verwaistes LSOM-Objekt wird möglicherweise beibehalten, nachdem auf dem SSD (Solid State Disk) ein APD-Festplattenfehler (All Paths Down, keine Pfade verfügbar) auftritt.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • VSI-Knoten können nicht extrahiert werden, wenn der hostd-Dienst nicht funktioniert
    Wenn der hostd-Dienst nicht funktioniert, können Sie die VSI-Knoten nicht extrahieren, was zu Problemen bei der Analyse führen kann. Zur Fehlerbehebung wurde vsanObserver hinzugefügt. Dies ermöglicht, dass der Observer unabhängig vom hostd-Dienst ausgeführt werden kann.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Das erneute Laden eines ESXi-Hosts schlägt möglicherweise fehl und führt zu einem violetten Diagnosebildschirm
    Versuche, einen ESXi-Host im Wartungsmodus erneut zu laden, schlagen möglicherweise fehl und führen zu einem violetten Diagnosebildschirm. In der Datei vmkwarning.log wird möglicherweise eine Fehlermeldung ähnlich der folgenden angezeigt:
    2015-03-03T08:40:37.994Z cpu4:32783)WARNING: LSOM: LSOMEventNotify:4571: VSAN device 523eca86-a913-55d4-915e-f89bdc9fab46 is under permanent error.
    2015-03-03T08:40:37.994Z cpu1:32967)WARNING: LSOMCommon: IORETRYCompleteSplitIO:577: Throttled: max retries reached Maximum kernel-level retries exceeded
    2015-03-03T08:40:39.006Z cpu6:32795)WARNING: LSOMCommon: IORETRYParentIODoneCB:1043: Throttled: split status Maximum kernel-level retries exceeded
    2015-03-03T08:40:39.006Z cpu6:32795)WARNING: PLOG: PLOGElevWriteMDDone:255: MD UUID 523eca86-a913-55d4-915e-f89bdc9fab46 write failed Maximum kernel-level retries exceeded
    2015-03-03T08:41:44.217Z cpu1:34228)WARNING: LSOM: LSOMEventNotify:4571: VSAN device 52ed79c6-b64e-3f60-289f-5870e19a85f0 is under permanent error.

    Dieses Problem wurde in der vorliegenden Version behoben.

Probleme bei vCenter Server und beim vSphere Web Client

  • Versuche, einen ESXi-Host mit vSphere Web Client zu verbinden, schlagen möglicherweise fehl
    Ein ESXi-Host reagiert möglicherweise nicht mehr und verliert die Verbindung zum vCenter Server. Daher kann der Host keine direkte Verbindung mit dem vSphere Web Client herstellen. Das liegt an der umzureichenden Arbeitsspeicherzuteilung für ähnliche Komponenten.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • vCenter Server reagiert möglicherweise nicht mehr, wenn der ESXi-Host die Konnektivität zum Syslog-Remoteserver verliert
    Wenn ein ESXi-Host die Konnektivität zum Syslog-Remoteserver verliert, werden die Ereignisse GeneralHostWarningEvent und AlarmStatusChangedEvent fortlaufend in zu viele Warnmeldungen geschrieben. Dies führt dazu, dass die Tabellen vpx_event und vpx_event_arg die vCenter-Datenbank auffüllen. Das Problem verursacht eine extreme vCenter-Latenz und führt dazu, dass der vCenter Server nicht mehr reagiert.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Versuche, den PVSCSI-Controller (VMware Paravirtual SCSI) nach vMotion zu verwenden, wirken sich möglicherweise auf die Leistung der virtuellen Maschine aus
    Es kann sein, dass Sie nach dem Ausführen von vMotion oder dem Anhalten bzw. erneuten Starten einer virtuellen Maschine einen Abfall in der Leistung der virtuellen Maschine feststellen.

    Dieses Problem wurde in der vorliegenden Version behoben.

VM-Verwaltungsprobleme

  • Ein Gastbetriebssystem startet möglicherweise nicht, wenn ein Samsung NVMe XS1715 SSD-Controller als ein Durchleitungsgerät konfiguriert ist
    Die virtuelle Maschine startet möglicherweise nicht oder reagiert nicht mehr mit dem Gastbetriebssystem, wenn der NVMe XS1715 SSD-Controller im Durchleitungsmodus angeschlossen ist. Eine Fehlermeldung ähnlich der folgenden wird angezeigt:
    PCI-Durchleitungsgeräte-ID(0x-57e0) ist ungültig.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Versuche, eine virtuelle Maschine aus dem angehaltenen Zustand oder während eines vmotion/svmotion-Vorgangs erneut zu starten, schlagen möglicherweise fehl
    Versuche, eine virtuelle Maschine aus dem angehaltenen Zustand oder während eines vmotion/svmotion-Vorgangs erneut zu starten, schlagen möglicherweise fehl. Es wird u. U. eine Fehlermeldung ähnlich der folgenden angezeigt:
    Die virtuelle Maschine kann nicht eingeschaltet werden.
    Sie können außerdem in der Datei vmware.log eine Fehlermeldung mit der Erweiterung msg.checkpoint.PASizeMismatch suchen.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Der ESXi 5.5-Host schlägt möglicherweise fehl und die virtuelle Maschine reagiert nicht mehr
    Der Host ESXi 5.5 schlägt möglicherweise fehl und führt zu einem violetten Diagnosebildschirm, nachdem die virtuelle Maschine aufgrund eines Fensters mit rasantem Auslagerungscode, der große Seiten umbricht, nicht mehr reagiert. Es wird u. U. eine Fehlermeldung wie die folgende angezeigt:
    #PF Exception 14 in world 32856:helper14 IP 0x41801faf6560 addr 0x410e86868680
    2015-04-03T13:03:17.648Z cpu22:32856)0x41238161dc10:[0x41801faf6560]Alloc_Dealloc@vmkernel#nover+0x12c stack: 0x41238161dc60, 0x41801fa1
    2015-04-03T13:03:17.648Z cpu22:32856)0x41238161dc80:[0x41801fc6874d]MemSched_WorldCleanup@vmkernel#nover+0x205 stack: 0x41238161dd00, 0x
    2015-04-03T13:03:17.648Z cpu22:32856)0x41238161df30:[0x41801fae317e]WorldCleanup@vmkernel#nover+0x1ce stack: 0x0, 0x412381627000, 0x4123
    2015-04-03T13:03:17.648Z cpu22:32856)0x41238161dfd0:[0x41801fa6133a]helpFunc@vmkernel#nover+0x6b6 stack: 0x0, 0x0, 0x0, 0x0, 0x0
    2015-04-03T13:03:17.648Z cpu22:32856)0x41238161dff0:[0x41801fc56872]CpuSched_StartWorld@vmkernel#nover+0xfa stack: 0x0, 0x0, 0x0, 0x0,

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Der Host schlägt möglicherweise fehl und führt zu einem violetten Diagnosebildschirm bei der Migration oder dem Checkpointing von virtuellen Maschinen
    Wenn Sie für virtuelle Maschinen gemeinsam mit VMM-Swapping eine Migration oder ein Checkpointing durchführen, reagiert der Host möglicherweise nicht mehr aufgrund von übermäßiger Protokollierung, ähnlich wie der folgenden:
    WARNING: Swap: vm 53052: 5285: Swap mode not exclusive. isShared=1 isExclusive=0
    WARNING: Swap: vm 53052: 5285: Swap mode not exclusive. isShared=1 isExclusive=0
    WARNING: Swap: vm 53052: 5285: Swap mode not exclusive. isShared=1 isExclusive=0
    WARNING: Swap: vm 53052: 5285: Swap mode not exclusive. isShared=1 isExclusive=0

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Der esxcli-VM-Prozesslistenbefehl zeigt möglicherweise den alten Namen der virtuellen Maschine an, wenn sie im eingeschalteten Zustand umbenannt wurde
    Wenn Sie nach dem Umbenennen einer eingeschalteten virtuellen Maschine den Befehl esxcli vm process list ausführen, um vom Host eine Liste der ausgeführten virtuellen Maschinen abzurufen, zeigt die Liste möglicherweise den alten Namen der virtuellen Maschine an.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Das Installieren von Linux mit einem e1000e-Netzwerkadapter auf einer virtuellen Maschine schlägt möglicherweise fehl
    Versuche, Linux zu installieren, schlagen möglicherweise fehl, wenn Sie e1000e-Netzwerkadapter an eine virtuelle Maschine anschließen und die VM einschalten.
    In die Datei vmkernel.log wird ein Eintrag ähnlich dem folgenden geschrieben:
    [ 1498.266938] Call Trace:
    [ 1498.266950] [ ] timecounter_init+0x1a/0x30
    [ 1498.266973] [ ] e1000e_config_hwtstamp+0x247/0x420 [e1000e]
    [ 1498.266994] [ ] e1000e_reset+0x285/0x620 [e1000e]
    [ 1498.267012] [ ] e1000_probe+0xbaa/0xee0 [e1000e]
    [ 1498.267021] [ ] local_pci_probe+0x45/0xa0
    [ 1498.267029] [ ] ? pci_match_device+0xc5/0xd0
    [ 1498.267036] [ ] pci_device_probe+0xf9/0x150
    [ 1498.267046] [ ] driver_probe_device+0x87/0x390
    [ 1498.267054] [ ] ? driver_probe_device+0x390/0x390
    [ 1498.267062] [ ] __device_attach+0x3b/0x40
    [ 1498.267070] [ ] bus_for_each_drv+0x6b/0xb0
    [ 1498.267077] [ ] device_attach+0x88/0xa0

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Das Begrenzen des IOPS-Werts für eine VM-Festplatte führt möglicherweise zu einem IOPS-Abfall
    Das Begrenzen des IOPS-Werts für eine VM-Festplatte führt möglicherweise zu einem IOPS-Abfall, der früher eintritt als der konfigurierte Grenzwert für Read/Write-Vorgänge. Dieses Problem tritt auf, wenn der Read/Write-Vorgang (IO) gleich groß ist wie der Cost Unit von ESX IO Scheduler. Daher behandelt der IO Scheduler einen einzigen IO so als wären es mehrere IOs. Das führt zu einer Einschränkung der IOs.

    Dieses Problem wurde in der vorliegenden Version behoben.

High Availability- und Fault Tolerance-Probleme

  • Virtuelle Maschinen starten nach einem High Availability Failover nicht
    Nach einem ESXi-Hostfehler reagieren manche VMs beim Neustart möglicherweise nicht mehr, wenn HA versucht, die betroffenen VMs auf anderen Hosts zu starten.

    Dieses Problem wurde in der vorliegenden Version behoben.

Probleme bei vMotion und Storage vMotion

  • Wenn vmk10 oder höher für vMotion aktiviert ist, wird möglicherweise beim Neustart vMotion für vmk1 aktiviert
    Die Aktivierung von vMotion auf vmk10 oder höher bewirkt möglicherweise, dass für vmk1 beim ESXi-Host-Neustart vMotion aktiviert wird. Dieses Problem kann zu hohem Datenverkehr über vmk1 und zu Netzwerkproblemen führen.

    Dieses Problem wurde in der vorliegenden Version behoben.

Probleme bei VMware Tools

  • Automatisches Upgrade schlägt bei VMware Tools möglicherweise fehl
    Das automatische Upgrade von VMware Tools schlägt für eine virtuelle Maschine, die auf VMware ESXi 5.5 Update 3b ausgeführt wird, möglicherweise fehl. Eine Fehlermeldung ähnlich der folgenden wird angezeigt:
    vix error code = 21009

    Hinweis: Das Problem tritt auf, wenn die folgenden Gastdateien in einer virtuellen Maschine vorhanden sind:
    Microsoft Windows VM:
    C:\Windows\\Temp\\vmware-SYSTEM\\VMwareToolsUpgrader.exe
    Red Hat Enterprise Linux VM:
    /tmp/vmware-root

    Dieses Problem wurde in der vorliegenden Version behoben.

  • VMware Tools Version 10.0.0 ist enthalten
    Diese Version enthält VMware Tools Version 10.0.0. Weitere Informationen zu den Problemen, die in dieser Version behoben wurden, finden Sie unter VMware Tools 10.0.0 – Versionshinweise.

Bekannte Probleme

Die bekannten in ESXi 5.5 vorhandenen Probleme werden wie folgt gruppiert:

Neue bekannte Probleme, die in dieser Version dokumentiert werden, werden als Neues Problem hervorgehoben.

Upgrade- und Installationsprobleme

  • Neues Problem Versuche, einen ESXi 5.5 Update 3b-Host zu einer Vorgängerversion von vCenter Server hinzuzufügen, schlagen fehl
    Versuche, einen ESXi 5.5 Update 3b-Host auf vCenter Server 5.5 Update 3 oder eine Legacy-Version hinzuzufügen, schlagen fehl und führen zu einem Kommunikationsfehler in der Benutzeroberfläche

    Problemumgehung: Sie müssen zunächst auf die aktuelle Version vCenter Server 5.5 Update 3b aktualisieren und dann auf ESXi 5.5 Update 3b aktualisieren. Wenn Sie nicht auf vCenter Server 5.5 Update 3b aktualisieren, dann müssen Sie für alle Dienste SSLv3 auf ESXi aktualisieren. Das Aktivieren von SSLv3 auf ESXi führt zu einer POODLE-Sicherheitslücke.

    Weitere Informationen finden Sie im Knowledgebase-Artikel KB 2139396.

  • Die Benutzerprozesse des VMware Tools-Diensts werden nach der Installation des neuesten VMware Tools-Pakets möglicherweise nicht unter dem Linux-Betriebssystem ausgeführt
    Unter dem Linux-Betriebssystem treten möglicherweise Upgrade- oder Installationsprobleme mit VMware Tools auf oder die Benutzerprozesse des VMware Tools-Diensts (vmtoolsd) werden möglicherweise nach der Installation des neuesten VMware Tools-Pakets nicht ausgeführt. Dieses Problem tritt auf, wenn Sie eine ältere glibc-Version als Version 2.5 verwenden, wie beispielsweise SLES10sp4.

    Problemumgehung: Führen Sie ein Upgrade von Linux-glibc auf Version 2.5 oder höher durch.

  • Versuche, alle Image-Profile bei der Ausführung des Get-EsxImageProfile-Befehls in vSphere PowerCLI abzurufen, schlagen möglicherweise fehl
    Wenn Sie den Get-EsxImageProfile-Befehl mit vSphere PowerCLI ausführen, um alle Image-Profile abzurufen, wird ein Fehler ähnlich dem Folgenden angezeigt:

    PowerCLI C:\Windows\system32> Get-EsxImageProfile
    Get-EsxImageProfile : Der Parameter 'name' darf keine leere Zeichenfolge sein.
    Parametername: name
    At line:1 char:20
    + Get-EsxImageProfile <<<<
    + CategoryInfo : NotSpecified: (:) [Get-EsxImageProfile], ArgumentException
    + FullyQualifiedErrorId : System.ArgumentException,VMware.ImageBuilder.Commands.GetProfiles


    Problemumgehung: Führen Sie den Befehl Get-EsxImageProfile -name "ESXi-5.x*" aus, der die Option -name enthält und alle während der PowerCLI-Sitzung erstellten Image-Profile anzeigt.

    Beispiel: Beim Ausführen des Befehls Get-EsxImageProfile -name "ESXi-5.5.*" werden alle 5.5-Image-Profile ähnlich dem folgenden angezeigt:

    PowerCLI C:\Program Files (x86)\VMware\Infrastructure\vSphere PowerCLI> Get-EsxmageProfile -name "ESXi-5.5.*"

    Name Vendor Last Modified Acceptance Level
    ---- ------ ------------- ----------------
    ESXi-5.5.0-20140701001s-no-... VMware, Inc. 8/23/2014 6:... PartnerSupported
    ESXi-5.5.0-20140302001-no-t... VMware, Inc. 8/23/2014 6:... PartnerSupported
    ESXi-5.5.0-20140604001-no-t... VMware, Inc. 8/23/2014 6:... PartnerSupported
    ESXi-5.5.0-20140401020s-sta... VMware, Inc. 8/23/2014 6:... PartnerSupported
    ESXi-5.5.0-20131201001s-sta... VMware, Inc. 8/23/2014 6:... PartnerSupported
  • Die einfache Installation schlägt unter Windows Server 2012 fehl
    Die einfache Installation schlägt unter Windows Server 2012 fehl, wenn das Betriebssystem eine per DHCP zugewiesene IP-Adresse verwendet.

    Problemumgehung: Konfigurieren Sie Windows 2012 Server so, dass eine statische IP-Adresse verwendet wird.

  • Wenn die Beibehaltung von VMFS in Kombination mit Auto Deploy für statusfreies Caching oder statusorientierte Installationen verwendet wird, wird keine Core-Dump-Partition erstellt
    Wenn Sie Auto Deploy für statusfreies Caching oder statusorientierte Installationen auf einer leeren Festplatte verwenden, wird eine MSDOS-Partitionstabelle erstellt. Eine Core-Dump-Partition wird jedoch nicht erstellt.

    Problemumgehung: Wenn Sie die Option für statusfreies Caching oder statusorientierte Installationen in Hostprofilen aktivieren, wählen Sie VMFS überschreiben aus, selbst wenn Sie die Installation auf einer leeren Festplatte durchführen. Dadurch wird eine Core-Dump-Partition mit 2,5 GB erstellt.

  • Während der Skriptinstallation wird ESXi auf einer SSD-Festplatte installiert, obwohl die Option "--ignoressd" für den Befehl "installorupgrade" verwendet wird
    In ESXi 5.5 wird die Option --ignoressd nicht für den Befehl installorupgrade unterstützt. Falls Sie die Option --ignoressd mit dem Befehl installorupgrade verwenden, zeigt das Installationsprogramm eine Warnmeldung an, dass es sich um eine ungültige Kombination handelt. Das Installationsprogramm installiert ESXi jedoch weiterhin auf der SSD, anstatt die Installation abzubrechen und eine Fehlermeldung anzuzeigen.

    Problemumgehung: Verwenden Sie den Befehl install anstelle des Befehls installorupgrade, um die Option --ignoressd in einer Skriptinstallation von ESXi zu verwenden.

  • Durch die Verzögerung beim Löschen des Auto Deploy-Cache wird möglicherweise ein gelöschtes Hostprofil angewendet
    Nachdem ein Hostprofil gelöscht wurde, wird es nach einer Weile aus dem Auto Deploy-Cache gelöscht. Solange das Hostprofil im Cache vorhanden ist, wendet Auto Deploy dieses Hostprofil an. Alle Regeln, die das Profil anwenden, schlagen erst dann fehl, wenn das Profil aus dem Cache gelöscht wird.

    Problemumgehung: Mithilfe des PowerCLI-Cmdlets Get-DeployRuleSet können Sie ermitteln, ob es Regeln gibt, die gelöschte Hostprofile verwenden. Das Cmdlet zeigt in der itemlist der Regel die Zeichenfolge deleted. Anschließend können Sie das Cmdlet Remove-DeployRule ausführen, um diese Regel zu entfernen.

  • Das Anwenden eines Hostprofils, das für die Verwendung von Auto Deploy mit statusfreiem Caching eingerichtet ist, schlägt fehl, wenn ESX auf der ausgewählten Festplatte installiert ist
    Sie verwenden Hostprofile, um Auto Deploy mit aktiviertem statusfreiem Caching einzurichten. Sie wählen im Hostprofil eine Festplatte aus, auf der eine Version von ESX (nicht ESXi) installiert ist. Wenn Sie das Hostprofil anwenden, wird eine Fehlermeldung mit dem folgenden Text angezeigt.
    2 Bootbanks erwartet, 0 gefunden

    Problemumgehung: Wählen Sie eine andere Festplatte für die Verwendung des statusfreien Cachings aus oder entfernen Sie die ESX-Software von der Festplatte. Wenn Sie die ESX-Software entfernen, ist sie nicht mehr verfügbar.

  • Die Installation oder der Start von ESXi 5.5.0 schlägt auf Servern von Oracle America (Sun)-Herstellern fehl
    Wenn Sie auf Servern von Oracle America (Sun)-Herstellern eine Neuinstallation von ESXi 5.5.0 durchführen oder eine vorhandene ESXi 5.5.0-Installation starten, zeigt die Serverkonsole während des Installationsvorgangs oder beim Starten des vorhandenen ESXi 5.5.0-Builds einen leeren Bildschirm an. Dies ist darauf zurückzuführen, dass für Server von Oracle America (SUN)-Herstellern das Flag HEADLESS in der Tabelle ACPI FADT gesetzt wurde, obwohl es sich dabei nicht um monitorlos laufende Plattformen handelt.

    Problemumgehung: Übergeben Sie beim Installieren oder Starten von ESXi 5.5.0 die Startoption ignoreHeadless="TRUE".

  • Bei Verwendung der ESXCLI-Befehle für das Upgrade eines ESXi-Hosts mit weniger als 4 GB physischem RAM ist das Upgrade zwar erfolgreich, aber beim Neustart schlagen einige ESXi-Vorgänge fehl
    ESXi 5.5 benötigt mindestens 4 GB an physischem RAM. Das ESXCLI-Befehlszeilentool prüft vor dem Upgrade nicht, ob die erforderlichen 4 GB Arbeitsspeicher vorhanden sind. Mit ESXCLI führen Sie zwar das Upgrade eines Hosts mit zu wenig Arbeitsspeicher erfolgreich durch, aber wenn Sie den aktualisierten ESXi 5.5-Host mit weniger als 4 GB Arbeitsspeicher starten, schlagen einige Vorgänge möglicherweise fehl.

    Problemumgehung: Keine. Stellen Sie sicher, dass auf dem ESXi-Host mindestens 4 GB an physischem RAM vorhanden sind, bevor Sie mit dem Upgrade auf Version 5.5 fortfahren.

  • Nach der Durchführung eines Upgrades von vCenter Server Appliance 5.0.x auf 5.5 schlägt der Start vCenter Server fehl, wenn eine externe vCenter Single Sign-On-Instanz verwendet wird
    Wenn der Benutzer eine externe vCenter Single Sign-On-Instanz verwenden will, während er das Upgrade der vCenter Server Appliance von 5.0.x auf 5.5 durchführt, schlägt der Start des vCenter Server nach dem Upgrade fehl. In der Appliance-Verwaltungsschnittstelle ist die vCenter Single Sign-On-Instanz als nicht konfiguriert aufgelistet.

    Problemumgehung: Führen Sie die folgenden Schritte aus:

    1. Öffnen Sie die vCenter Server Appliance-Verwaltungsschnittstelle in einem Webbrowser (https://Appliance-Adresse:5480).
    2. Klicken Sie auf der Seite "vCenter Server/Übersicht" auf die Schaltfläche Server anhalten.
    3. Füllen Sie auf der vCenter Server/SSO-Seite das Formular mit den entsprechenden Einstellungen aus und klicken Sie auf Einstellungen speichern.
    4. Kehren Sie zur Übersichtsseite zurück und klicken Sie auf Server starten.

  • Beim Upgrade eines ESXi-Hosts der Version 4.x oder 5.0.x auf Version 5.1 oder 5.5 mithilfe von ESXCLI gehen die Einstellungen für vMotion und die Fault Tolerance-Protokollierung (FT Logging) aller VMkernel-Portgruppen nach dem Upgrade verloren
    Wenn Sie den Befehl esxcli software profile update <Optionen> für das Upgrade eines ESXi-Hosts der Version 4.x oder 5.0.x auf Version 5.1 oder 5.5 verwenden, ist zwar das Upgrade erfolgreich, aber die Einstellungen für vMotion und die Fault Tolerance-Protokollierung aller VMkernel-Portgruppen gehen verloren. Deshalb wird für vMotion und die Fault Tolerance-Protokollierung die Standardeinstellung (Deaktiviert) wiederhergestellt.

    Problemumgehung: Führen Sie ein interaktives oder skriptbasiertes Upgrade durch, oder verwenden Sie vSphere Update Manager für das Upgrade der Hosts. Wenn Sie den Befehl esxcli verwenden, müssen Sie die Einstellungen für vMotion und die Fault Tolerance-Protokollierung nach dem Upgrade manuell auf die betroffene VMkernel-Portgruppe anwenden.

  • Beim Upgrade von vSphere 5.0.x oder früher auf Version 5.5 werden die manuell festgelegten Werte für die Zuteilung von Systemressourcen auf den Standardwert zurückgesetzt
    In vSphere 5.0.x und früher müssen Einstellungen in der Benutzeroberfläche für die Zuteilung von Systemressourcen als vorübergehende Umgehung des Problems geändert werden. Diese Einstellungen können nicht auf den Standardwert zurückgesetzt werden, ohne ESXi neu zu installieren. In vSphere 5.1 und höher wird das Systemverhalten geändert, sodass die Beibehaltung von benutzerdefinierten Einstellungen für die Zuteilung von Systemressourcen Werte ergeben könnte, deren Verwendung nicht sicher ist. Beim Upgrade werden all diese Werte zurückgesetzt.

    Problemumgehung: Keine.

  • IPv6-Einstellungen der virtuellen Netzwerkschnittstellenkarte vmk0 werden nach dem Upgrade von ESX 4.x auf ESXi 5.5 nicht beibehalten
    Wenn für einen ESX 4.x-Host mit aktivierter IPv6-Adresse ein Upgrade auf ESXi 5.5 mithilfe der Option --forcemigrate durchgeführt wird, wird die IPv6-Adresse der virtuellen Netzwerkschnittstellenkarte (NIC) vmk0 nach dem Upgrade nicht beibehalten.

    Problemumgehung: Keine.

Netzwerkprobleme

  • Verwendung von PCNet32-Netzwerkadapter mit opakem NSX-Netzwerk nicht möglich
    Wenn der flexible PCNet32-Netzwerkadapter mit der opaken NSX-Netzwerksicherung konfiguriert ist, bricht die Verbindung zum Adapter beim Einschalten der VM ab.
  • Problemumgehung: Keine

  • Beim Upgrade auf ESXi 5.5 wird die IGMP-Konfiguration des TCP/IP-Stacks für die Verwaltung von Multicast-Gruppen möglicherweise geändert
    Die Standard-IGMP-Version der Verwaltungsschnittstellen wird für ESXi 5.5-Hosts für die Verwaltung von Multicast-Gruppen von IGMP V2 in IGMP V3 geändert. Dies führt dazu, dass die Verwaltungsschnittstelle beim Upgrade auf ESXi 5.5 möglicherweise von IGMP V3 auf IGMP V2 zurückgesetzt wird, wenn sie eine IGMP-Abfrage einer früheren Version erhält, und Fehlermeldungen über nicht übereinstimmende IGMP-Versionen angezeigt werden.

    Problemumgehung: Bearbeiten Sie die IGMP-Standardversion, indem Sie das IGMP-Intervall für den erneuten Beitritt unter Verwendung der Option Erweiterte Konfiguration für TCP/IP ändern.
  • Statische Routen, die vmknic-Schnittstellen und dynamischen IP-Adressen zugeordnet sind, werden nach einem Neustart möglicherweise nicht angezeigt
    Nach einem Neustart des Hosts werden statische Routen, die der VMkernel-Netzwerkschnittstelle (vmknic) und dynamischen IP-Adressen zugeordnet sind, möglicherweise nicht angezeigt.
    Dieses Problem entsteht durch eine Racebedingung zwischen dem DHCP-Client und dem Befehl zum Wiederherstellen von Routen. Der DHCP-Client kann das Abrufen einer IP-Adresse für vmknics möglicherweise nicht abschließen, wenn der Host während des Neustarts versucht, benutzerdefinierte Routen wiederherzustellen. Deshalb wird das Gateway möglicherweise nicht eingerichtet, und die Routen werden nicht wiederhergestellt.

    Problemumgehung: Führen Sie den Befehl esxcfg-route –r aus, um die Routen manuell wiederherzustellen.
  • Ein ESXi-Host reagiert nicht mehr, nachdem er über seine IPv6-Adresse zu vCenter Server hinzugefügt wurde
    Wenn Sie einen ESXi-Host über seine verbindungslokale IPv6-Adresse im Format fe80::/64 zu vCenter Server hinzugefügt haben, wird der Hostname nach kurzer Zeit abgeblendet und reagiert nicht mehr auf vCenter Server.

    Problemumgehung: Verwenden Sie eine gültige IPv6-Adresse, bei der es sich nicht um eine verbindungslokale Adresse handelt.

  • Es wird keine Fehlermeldung angezeigt, obwohl Sie in vSphere Web Client mehr virtuelle Funktionen konfigurieren können, als von der physischen Netzwerkkarte unterstützt werden
    In den SR-IOV-Einstellungen eines physischen Adapters können Sie mehr virtuelle Funktionen konfigurieren, als vom Adapter unterstützt werden. Beispielsweise können Sie 100 virtuelle Funktionen für eine Netzwerkkarte konfigurieren, die nur 23 virtuelle Funktionen unterstützt, und es wird dennoch keine Fehlermeldung angezeigt. Sie werden in einer Meldung aufgefordert, den Host neu zu starten, damit die SR-IOV-Einstellungen angewendet werden. Nach dem Neustart des Hosts ist für die Netzwerkschnittstellenkarte die vom Adapter unterstützte Anzahl von virtuellen Funktionen konfiguriert. In diesem Beispiel sind dies 23 virtuelle Funktionen. Die Meldung, in der Sie zum Neustart des Hosts aufgefordert werden, wird weiterhin angezeigt, obwohl dies nicht der Fall sein sollte.

    Problemumgehung: Keine

  • Auf einem SR-IOV-fähigen ESXi-Host können virtuellen Funktionen zugeordnete virtuelle Maschinen möglicherweise nicht gestartet werden
    Wenn SR-IOV auf einem ESXi 5.1-Host oder höher mit Intel ixgbe-Netzwerkkarten aktiviert ist und in der Umgebung verschiedene virtuelle Funktionen aktiviert sind, werden einige virtuelle Maschinen möglicherweise nicht gestartet.
    Die Datei vmware.log enthält Meldungen, die so oder ähnlich lauten:
    2013-02-28T07:06:31.863Z| vcpu-1| I120: Msg_Post: Error
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.log.error.unrecoverable] VMware ESX unrecoverable error: (vcpu-1)
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ PCIPassthruChangeIntrSettings: 0a:17.3 failed to register interrupt (error code 195887110)
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.haveLog] A log file is available in "/vmfs/volumes/5122262e-ab950f8e-cd4f-b8ac6f917d68/VMLibRoot/VMLib-RHEL6.2-64-HW7-default-3-2-1361954882/vmwar
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.withoutLog] You can request support.
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.requestSupport.vmSupport.vmx86]
    2013-02-28T07:06:31.863Z| vcpu-1| I120+ To collect data to submit to VMware technical support, run "vm-support".
    2013-02-28T07:06:31.863Z| vcpu-1| I120: [msg.panic.response] We will respond on the basis of your support entitlement.

    Problemumgehung: Verringern Sie die Anzahl der virtuellen Funktionen, die der betroffenen virtuellen Maschine zugeordnet sind, bevor Sie die VM starten.

  • Auf einem physischen Emulex BladeEngine 3-Netzwerkadapter kann ein durch eine virtuelle Funktion unterstützter VM-Netzwerkadapter einen VMkernel-Adapter nicht erreichen, der die physische Funktion als Uplink verwendet
    Datenverkehr wird nicht zwischen einer virtuellen Funktion und der zugehörigen physischen Funktion übertragen. Beispielsweise kann auf einem durch die physische Funktion unterstützten Switch eine virtuelle Maschine, die eine virtuelle Funktion auf demselben Port verwendet, einen VMkernel-Adapter auf demselben Switch nicht kontaktieren. Dies ist ein bekanntes Problem bei den physischen Emulex BladeEngine 3-Adaptern. Weitere Informationen erhalten Sie von Emulex.

    Problemumgehung: Deaktivieren Sie den systemeigenen Treiber für Emulex BladeEngine 3-Geräte auf dem Host. Weitere Informationen finden Sie im VMware-Knowledgebase-Artikel 2044993.

  • ESXi Dump Collector kann die ESXi-Kerndatei nicht an den Remoteserver senden
    ESXi Dump Collector kann die ESXi-Kerndatei nicht senden, falls für den VMkernel-Adapter, der den Datenverkehr des Dump Collector verarbeitet, eine verteilte Portgruppe konfiguriert ist, für die eine Linkzusammenfassungsgruppe (LAG) als aktiver Uplink festgelegt ist. Auf dem physischen Switch ist ein LACP-Portkanal konfiguriert.

    Problemumgehung: Führen Sie eine der folgenden Problemumgehungen durch:

    • Verwenden Sie einen vSphere Standard-Switch zum Konfigurieren des VMkernel-Adapters, der den Datenverkehr für den ESXi Dump Collector mit dem Remoteserver verarbeitet.
    • Verwenden Sie eigenständige Uplinks für den Datenverkehr der verteilten Portgruppe, in welcher der VMkernel-Adapter konfiguriert ist.
  • Wenn Sie mithilfe von vSphere Client die Anzahl der Ports eines vSphere Standard Switch oder vSphere Distributed Switch auf einem Host ändern, wird die Änderung selbst nach einem Neustart nicht wirksam
    Wenn Sie mithilfe von vSphere Client die Anzahl der Ports eines vSphere Standard Switch oder vSphere Distributed Switch auf einem ESXi 5.5-Host ändern, wird die Portanzahl selbst nach einem Neustart nicht geändert.

    Beim Neustart eines Hosts mit ESXi 5.5 werden die Ports der virtuellen Switches dynamisch hoch- oder herunterskaliert. Die Anzahl der Ports orientiert sich an der Anzahl der virtuellen Maschinen, die auf dem Host ausgeführt werden können. Auf Hosts dieser Art müssen Sie die Anzahl der Switch-Ports nicht selbst konfigurieren.

    Problemumgehung: Keine in vSphere Client.

Serverkonfigurationsprobleme

  • NIC-Hardware reagiert möglicherweise nicht mehr und zeigt eine Hardwarefehlermeldung an
    Gelegentlich kann es vorkommen, dass die Hardware der Netzwerkkarte unter bestimmten Umständen nicht mehr antwortet und in den Treiberprotokollen die folgende Fehlermeldung angezeigt wird:

    Nicht mehr reagierende Hardware-Einheit erkannt

    Das Problem wurde bei einigen neuen e1000e-Geräten wie 82579, i217, i218 und i219 beobachtet.

    Problemumgehung: Die Hardware der Netzwerkkarte wird nach dem Auftreten des Problems zurückgesetzt.

  • Problem bei der Menünavigation, wenn der Zugriff auf die Benutzerschnittstelle der direkten Konsole (DCUI) über eine serielle Konsole erfolgt
    Wenn der Zugriff auf die Benutzerschnittstelle der direkten Konsole über eine serielle Konsole erfolgt, funktionieren die Aufwärts- und Abwärtspfeile bei der Navigation zum Menü nicht, und der Benutzer wird zwangsweise vom DCUI-Konfigurationsbildschirm abgemeldet.

    Problemumgehung: Stoppen Sie den DCUI-Prozess. Der DCUI-Prozess wird automatisch neu gestartet.

  • Nach einem Upgrade von ESXi-Hosts auf 5.5 Update 2 und anschließenden Änderungen der Hostkonfiguration werden Hostprofile möglicherweise fälschlicherweise als übereinstimmend angezeigt
    Wenn ein ESXi-Host, der mit einem Hostprofil übereinstimmt, auf ESXi 5.5 Update 2 aktualisiert wird und wenn anschließend einige Änderungen an der Hostkonfiguration vorgenommen werden, wird das Profil bei einer erneuten Überprüfung der Übereinstimmung zwischen Host und Hostprofil fälschlicherweise als übereinstimmend gemeldet.

    Problemumgehung:
    • Navigieren Sie im vSphere Client zu dem Hostprofil, bei dem das Problem auftritt, und führen Sie Profil aus Referenzhost aktualisieren aus.
    • Navigieren Sie im vSphere Web Client zu dem Hostprofil, bei dem das Problem auftritt, klicken Sie auf Einstellungen vom Host kopieren, wählen Sie den Host aus, von dem Sie die Konfigurationseinstellungen kopieren möchten, und klicken Sie dann auf OK.
  • Beim vSphere Distributed Switch schlägt die Standardisierung des Hostprofils fehl
    Bei der Anwendung eines Hostprofils mit einem vSphere Distributed Switch können Standardisierungsfehler auftreten, wenn sich eine virtuelle Maschine mit Fault Tolerance auf einem Host, der den Distributed Switch im betreffenden Hostprofil verwendet, im ausgeschalteten Zustand befindet.

    Problemumgehung: Verschieben Sie die ausgeschalteten virtuellen Maschinen auf einen anderen Host, damit das Hostprofil angewendet werden kann.

  • Für das Hostprofil werden Übereinstimmungsfehler zu den Firewalleinstellungen angezeigt, wenn Sie ein ESX 4.0- oder ESX 4.1-Profil auf einen ESXi 5.5.x-Host anwenden
    Wenn Sie ein Hostprofil von einem ESX 4.0- oder ESX 4.1-Host extrahieren und versuchen, es auf einen ESXi 5.5.x-Host anzuwenden, wird das Profil erfolgreich standardisiert. Bei der Übereinstimmungsprüfung werden Fehler zu Firewalleinstellungen gemeldet, wie beispielsweise:

    Regelsatz LDAP nicht gefunden
    Regelsatz LDAPS nicht gefunden
    Regelsatz TSM nicht gefunden
    Regelsatz VCB nicht gefunden
    Regelsatz activeDirectorKerberos nicht gefunden

    Problemumgehung: Es ist keine Umgehung erforderlich. Dies wird erwartet, weil die Firewalleinstellungen für einen ESX 4.0- oder ESX 4.1-Host von denen für einen ESXi 5.5.x-Host abweichen.

  • Änderungen der BIOS-Geräteeinstellungen für einen ESXi-Host führen möglicherweise zu ungültigen Gerätenamen
    Änderungen der BIOS-Geräteeinstellungen für einen ESXi-Host führen möglicherweise zu ungültigen Gerätenamen, wenn die Änderung eine Verschiebung der <segment:bus:device:function>-Werte verursacht, die den Geräten zugeordnet sind. Beispielsweise verschiebt die Aktivierung einer vorher deaktivierten, integrierten Netzwerkkarte möglicherweise die <segment:bus:device:function>-Werte, die anderen PCI-Geräten zugeordnet sind. Dies führt dazu, dass ESXi die diesen Netzwerkkarten zugewiesenen Namen ändert. Anders als bei vorherigen Versionen von ESXi versucht ESXi 5.5 Gerätenamen durch <segment:bus:device:function>-Änderungen zu erhalten, falls das Host-BIOS spezifische Gerätestandortinformationen bereitstellt. Wegen eines Bugs in dieser Funktion werden manchmal ungültige Namen wie "vmhba1" und "vmnic32" generiert.

    Problemumgehung: Ein einmaliger oder zweimaliger Neustart des ESXi-Hosts entfernt möglicherweise die ungültigen Gerätenamen und stellt die ursprünglichen Namen wieder her. Führen Sie keinen ESXi-Host aus, der ungültige Gerätenamen besitzt.

Speicherprobleme

  • ESXi-Hosts mit HBA-Treibern reagieren möglicherweise nicht mehr, wenn die VMFS-Taktsignale für die Datenspeicher ablaufen
    ESXi-Hosts mit HBA-Treibern reagieren möglicherweise nicht mehr, wenn VMFS-Taktsignale für die Datenspeicher mit Fehlermeldungen ähnlich den Folgenden ablaufen:

    mem>2014-05-12T13:34:00.639Z cpu8:1416436)VMW_SATP_ALUA: satp_alua_issueCommandOnPath:651: Path "vmhba2:C0:T1:L10" (UP) command 0xa3 failed with status Timeout. H:0x5 D:0x0 P:0x0 Possible sense data: 0x5 0x20 0x0.2014-05-12T13:34:05.637Z cpu0:33038)VMW_SATP_ALUA: satp_alua_issueCommandOnPath:651: Path "vmhba2:C0:T1:L4" (UP) command 0xa3 failed with status Timeout. H:0x5 D:0x0 P:0x0 Possible sense data: 0x0 0x0 0x0.

    Dieses Problem tritt bei dem HBA-Treiber auf, wenn eine hohe Festplatten-E/A im Datenspeicher mit dem ESXi-Host verbunden und Multipathing nicht auf der HBA-Ebene, sondern auf der Zielebene aktiviert ist.

    Problemumgehung: Ersetzen Sie den HBA-Treiber durch den neuesten Async-HBA-Treiber.
  • Versuche, Storage vMotion für virtuelle Maschinen mit RDM-Festplatten im Live-Modus durchzuführen, schlagen möglicherweise fehl
    Storage vMotion-Vorgänge für virtuelle Maschinen mit RDM-Festplatten schlagen möglicherweise fehl, und virtuelle Maschinen werden möglicherweise als ausgeschaltet angezeigt. Versuche, die virtuelle Maschine einzuschalten, schlagen mit dem folgenden Fehler fehl:

    Datei konnte nicht gesperrt werden

    Problemumgehung: Keine.
  • Umbenannte Tags werden im Assistenten „VM-Speicherrichtlinie bearbeiten“ als fehlend angezeigt
    Eine Speicherrichtlinie für virtuelle Maschinen kann Regeln basierend auf Datenspeicher-Tags enthalten. Wenn Sie ein Tag umbenennen, wird es von der VM-Speicherrichtlinie, die auf dieses Tag verweist, nicht automatisch aktualisiert und als fehlend angezeigt.

    Problemumgehung: Entfernen Sie das als fehlend gekennzeichnete Tag aus der VM-Speicherrichtlinie und fügen Sie das umbenannte Tag hinzu. Wenden Sie die Speicherrichtlinie auf alle veralteten Elemente an.

  • Virtuelle Maschinen können nicht eingeschaltet werden, wenn für deren Flash-Lesecache eine Blockgröße von 16 KB, 256 KB, 512 KB oder 1024 KB festgelegt ist
    Virtuelle Maschinen, für die der Flash-Lesecache und eine Blockgröße von 16 KB, 256 KB, 512 KB oder 1024 KB konfiguriert sind, können nicht eingeschaltet werden. Der Flash-Lesecache unterstützt eine Cachegröße von mindestens 4 MB und höchstens 200 GB sowie eine Blockgröße von mindestens 4 KB und höchstens 1 MB. Beim Einschalten der virtuellen Maschine schlägt der Vorgang mit folgenden Fehlermeldungen fehl:

    Beim ESX-Host ist ein Fehler beim Einschalten der virtuellen Maschine aufgetreten.

    Das Starten der virtuellen Maschine ist fehlgeschlagen.

    Einschalten des Moduls 'DiskEarly' fehlgeschlagen.

    Die Festplatte 'scsi0:0' konnte nicht konfiguriert werden.

    Mit einer nicht konfigurierten Festplatte kann die virtuelle Maschine nicht eingeschaltet werden. vFlash-Cache kann nicht angehängt werden: msg.vflashcache.error.VFC_FAILURE

    Problemumgehung: Konfigurieren Sie die Größe und die Blockgröße des Flash-Lesecache für die virtuelle Maschine.

    1. Klicken Sie mit der rechten Maustaste auf die virtuelle Maschine und wählen Sie Einstellungen bearbeiten.
    2. Erweitern Sie auf der Registerkarte Virtuelle Hardware die Option Festplatte, um die Festplattenoptionen anzuzeigen.
    3. Klicken Sie neben dem Feld vFlash-Lesecache auf Erweitert.
    4. Erhöhen Sie den Wert für die zu reservierende Cachegröße, oder reduzieren Sie die Blockgröße.
    5. Klicken Sie auf OK, um Ihre Änderungen zu speichern.
  • Benutzerdefinierte Erweiterungen einer gespeicherten Ressourcenpoolstruktur-Datei können in vSphere Web Client nicht geladen werden
    Auf der Hostübersichtsseite wird eine DRS-Fehlermeldung angezeigt.

    Beim Deaktivieren von DRS in vSphere Web Client werden Sie aufgefordert, die Ressourcenpoolstruktur zu speichern, damit sie in Zukunft erneut geladen werden kann. Die Standarderweiterung dieser Datei lautet .snapshot, aber Sie können auch eine andere Erweiterung für diese Datei auswählen. Wenn die Datei eine benutzerdefinierte Erweiterung aufweist, wird sie beim Laden als deaktiviert angezeigt. Dieses Verhalten tritt nur bei OS X auf.

    Problemumgehung: Ändern Sie die Erweiterung in .snapshot, damit die Datei in vSphere Web Client unter OS X geladen werden kann.

  • Auf der Übersichtsseite des Hosts wird eine DRS-Fehlermeldung ausgegeben
    Auf der Übersichtsseite des Hosts wird folgende DRS-Fehlermeldung anzeigt:

    DRS-Ressourceneinstellungen können nicht auf dem Host angewendet werden. Der Vorgang ist im aktuellen Zustand nicht zulässig. Dies kann die Effektivität von DRS erheblich beeinträchtigen.

    Bei manchen Konfigurationen kann aufgrund einer Racebedingung eine Fehlermeldung im Protokoll erstellt werden, die nicht sinnvoll ist und die ignoriert werden kann. Diese Fehlermeldung kann darauf zurückzuführen sein, dass die Registrierung einer virtuellen Maschine zum selben Zeitpunkt aufgehoben wird, zu dem DRS-Ressourceneinstellungen angewendet werden.

    Problemumgehung: Sie können diese Fehlermeldung ignorieren.

  • Die Konfiguration des vFlash-Lesecache für VMDKs mit mehr als 16 TB führt zu einer Fehlermeldung
    Der vFlash-Lesecache unterstützt keine virtuellen Maschinen mit mehr als 16 TB. Konfigurationsversuche derartiger Festplatten schlagen fehl.

    Problemumgehung: Keine

  • Virtuelle Maschinen werden beim Neukonfigurieren der Cachegröße möglicherweise ausgeschaltet
    Wenn Sie den vFlash-Lesecache auf einer virtuellen Maschine falsch konfigurieren, beispielsweise durch Zuweisung eines ungültigen Werts, wird die virtuelle Maschine möglicherweise ausgeschaltet.

    Problemumgehung: Halten Sie sich an die Empfehlungen für die Cachegröße in der Dokumentation zu vSphere Storage.

  • Die Neukonfiguration einer virtuellen Maschine mit aktiviertem vFlash Read Cache kann mit der Fehlermeldung Zeitüberschreitung beim Vorgang fehlschlagen
    Neukonfigurationsvorgänge benötigen sehr viel E/A-Bandbreite. Falls das System stark ausgelastet ist, kann bei derartigen Vorgängen vor dem Abschluss eine Zeitüberschreitung auftreten. Dieses Verhalten kann auch auftreten, wenn auf dem Host LUNs vorhanden sind, die einen APD-Zustand (All Paths Down, keine Pfade verfügbar) aufweisen.

    Problemumgehung: Korrigieren Sie alle APD-Zustände des Hosts und wiederholen Sie den Vorgang mit einer geringeren E/A-Last auf LUN und Host.

  • DRS führt für virtuelle Maschinen mit vFlash-Lesecache aus Gründen des Lastausgleichs keinen vMotion-Vorgang aus
    DRS führt für virtuelle Maschinen mit vFlash-Lesecache aus Gründen des Lastausgleichs keinen vMotion-Vorgang aus.

    Problemumgehung: DRS empfiehlt die Ausführung von vMotion für diese virtuellen Maschinen nur in folgenden obligatorischen Fällen:

    • Zum Evakuieren eines Hosts, für den der Benutzer den Wartungs- oder Standby-Modus angefordert hat
    • Zum Beheben von DRS-Regelverstößen.
    • Die Ressourcennutzung des Hosts weist den Status "Rot" auf.
    • Mindestens ein Host ist überlastet, und der Bedarf der virtuellen Maschine wird nicht erfüllt.
      Hinweis: Sie können optional festlegen, dass DRS diesen Grund ignoriert.
  • Hosts werden in den Standby-Modus versetzt, wenn bei virtuellen Maschinen der aktive Arbeitsspeicher niedrig, aber der belegte Arbeitsspeicher hoch ist
    In ESXi 5.5 gibt es eine Änderung beim Standardverhalten von DPM, um diese Funktion weniger aggressiv zu gestalten. Dadurch kann die Leistungsbeeinträchtigung für virtuelle Maschinen verhindert werden, wenn der aktive Arbeitsspeicher niedrig, aber der belegte Arbeitsspeicher hoch ist. Die Formel für DPM lautet X%*IdleConsumedMemory + active memory. Die Variable X% kann angepasst werden und ist standardmäßig auf 25 % festgelegt.

    Problemumgehung: Sie können auf das aggressive Verhalten von DPM aus früheren Versionen von ESXi zurückgreifen, indem Sie in den erweiterten Optionen PercentIdleMBInMemDemand=0 einstellen.

  • Von DRS initiierte vMotion-Vorgänge schlagen möglicherweise fehl
    In Fällen, in denen DRS für virtuelle Maschinen mit einer vFlash-Lesecache-Reservierung einen vMotion-Vorgang empfiehlt, kann vMotion fehlschlagen, da auf dem Zielhost nicht genügend Arbeitsspeicher (RAM) zum Verwalten der Flash-Lesecache-Reservierung der virtuellen Maschinen vorhanden ist.

    Problemumgehung: Halten Sie sich an die Konfigurationsempfehlungen für den Flash-Lesecache in der Dokumentation zu vSphere Storage.
    Falls vMotion fehlschlägt, führen Sie die folgenden Schritte aus:

    1. Konfigurieren Sie die Blockgröße der virtuellen Maschinen auf dem Zielhost und die eingehenden virtuellen Maschinen neu, um die allgemeine Zielnutzung des VMkernel-Arbeitsspeichers auf dem Zielhost zu reduzieren.
    2. Verschieben Sie die virtuelle Maschine mithilfe von vMotion manuell auf den Zielhost, um sicherzustellen, dass dieses Problem nicht mehr auftritt.
  • Probleme, die während der vFlash-Konfiguration von einzelnen SSD-Geräten auftreten, werden nicht angezeigt
    Die Konfiguration von vFlash-Ressourcen ist eine Aufgabe, die anhand einer Liste von SSD-Geräten ausgeführt wird. Nach Abschluss der Aufgabe für alle Objekte meldet vSphere Web Client die erfolgreiche Durchführung, möglicherweise ohne über eventuelle Probleme bei der Konfiguration einzelner SSD-Geräte zu informieren.

    Problemumgehung: Führen Sie eine der folgenden Aufgaben aus:

    • Doppelklicken Sie im Fenster "Kürzlich bearbeitete Aufgaben" auf die abgeschlossene Aufgabe.
      Etwaige Konfigurationsfehler werden im Abschnitt "Verknüpfte Ereignisse" des Dialogfelds "Aufgabendetails" angezeigt.
    • Sie können auch folgende Schritte ausführen:
      1. Wählen Sie den Host in der Bestandsliste aus.
      2. Klicken Sie auf die Registerkarte Überwachen, und klicken Sie auf Ereignisse.
  • Es können keine SMART-Informationen für Micron PCIe SSDs auf dem ESXi-Host abgerufen werden
    Ihre Versuche, den Befehl esxcli storage core device smart get -d zu verwenden, um Statistiken für das Micron PCIe SSD-Gerät anzuzeigen, schlagen fehl. Die folgende Fehlermeldung wird angezeigt:
    Fehler beim Abrufen von Smart-Parametern: Das Gerät kann nicht geöffnet werden

    Problemumgehung: Keine. In dieser Version werden Micron PCIe-SSDs von diesem Befehl esxcli storage core device smart nicht unterstützt.

  • ESXi wendet den Grenzwert für die Bandbreite, der für eine virtuelle SCSI-Festplatte in der Konfigurationsdatei einer virtuellen Maschine konfiguriert ist, nicht an
    Die Grenzwerte für die Bandbreite und den Durchsatz einer virtuellen SCSI-Festplatte werden mithilfe eines Parametersatzes in der Konfigurationsdatei der virtuellen Maschine (.vmx) konfiguriert. Beispielsweise könnte die Konfigurationsdatei die folgenden Grenzwerte für die virtuelle Festplatte scsi0:0 enthalten:
    sched.scsi0:0.throughputCap = "80IOPS"
    sched.scsi0:0.bandwidthCap = "10MBps"
    sched.scsi0:0.shares = "normal"

    ESXi wendet den Grenzwert sched.scsi0:0.bandwidthCap nicht auf die virtuelle Festplatte scsi0:0 an.

    Problemumgehung: Setzen Sie auf eine frühere Version des Festplatten-E/A-Schedulers zurück, indem Sie den vSphere Web Client oder den Befehl "esxcli system settings advanced set" verwenden.

    • Bearbeiten Sie im vSphere Web Client in der Liste "Erweiterte Systemeinstellungen" für den Host den Parameter Disk.SchedulerWithReservation.
      1. Navigieren Sie zum Host.
      2. Klicken Sie auf der Registerkarte Verwalten auf Einstellungen und wählen Sie Erweiterte Systemeinstellungen.
      3. Suchen Sie den Parameter Disk.SchedulerWithReservation, beispielsweise mithilfe der Textfelder Filter oder Suchen.
      4. Klicken Sie auf Bearbeiten, und legen Sie den Parameter auf "0" fest.
      5. Klicken Sie auf OK.
    • Führen Sie in der ESXi Shell für den Host den folgenden Konsolenbefehl aus:
      esxcli system settings advanced set -o /Disk/SchedulerWithReservation -i=0
  • Bei einer Migration können virtuelle Maschinen mit konfiguriertem Flash-Lesecache nicht aus dem Host entfernt werden, wenn im Cache ein Fehler vorliegt
    Bei virtuellen Maschinen mit konfiguriertem Flash-Lesecache können Migrationsfehler auftreten, wenn der Cache fehlerhaft oder nicht verwendbar ist. Dieser Fehler verhindert die Migration dieser virtuellen Maschinen.

    Problemumgehung:

    1. Konfigurieren Sie die betroffenen virtuellen Maschinen neu und deaktivieren Sie den Cache.
    2. Führen Sie die Migration aus.
    3. Aktivieren Sie den Cache erst nach Abschluss der Migration.

    Sie können die virtuelle Maschine auch erst ab- und dann wieder einschalten, um den Fehler im Cache zu beheben.

  • Sie können das VFFS-Volume nach dem Upgrade eines Hosts von ESXi 5.5 Beta nicht löschen
    Sie können das VFFS-Volume nicht löschen, nachdem für einen Host ein Upgrade von ESXi 5.5 Beta durchgeführt wurde.

    Problemumgehung: Dies tritt nur auf, wenn Sie ein Upgrade von ESXi 5.5 Beta auf ESXi 5.5 durchführen. Installieren Sie ESXi 5.5 anstelle eines Upgrades, um dieses Problem zu vermeiden. Beim Upgrade von ESXi 5.5 Beta löschen Sie das VFFS-Volume vor dem Upgrade.

  • Die erwarteten Verbesserungen der Latenzzeit treten nicht ein, wenn der vFlash-Lesecache auf virtuellen Maschinen mit älteren Windows- und Linux-Gastbetriebssystemen aktiviert ist
    Der vFlash-Lesecache bietet optimale Leistung, wenn die Cache-Größe mit jener des Ziel-Working-Sets übereinstimmt und die Dateisysteme des Gastbetriebssystems mindestens an einer 4-KB-Grenze ausgerichtet sind. Der Flash-Lesecache filtert falsch ausgerichtete Blöcke aus, um die Zwischenspeicherung von Teilblöcken im Cache zu vermeiden. Dieses Verhalten ist typisch, wenn der vFlash-Lesecache für VMDKs von virtuellen Maschinen mit Windows XP sowie Linux-Distributionen vor 2.6. konfiguriert ist. In diesen Fällen tritt eine niedrige Cachezugriffsrate mit einer niedrigen Cache-Belegung auf, die eine Verschwendung der Cachereservierung für diese VMDKs bedeutet. Dieses Verhalten trifft nicht auf virtuelle Maschinen zu, auf denen Windows 7, Windows 2008 oder Linux ab Distribution 2.6 ausgeführt wird. Diese Betriebssysteme richten ihre Dateisysteme an einer 4-KB-Grenze aus, um eine optimale Leistung zu erzielen.

    Problemumgehung: Um die Cachezugriffsrate und die optimale Verwendung der Cachereservierung für jede VMDK zu verbessern, stellen Sie sicher, dass das auf der VMDK installierte Gastbetriebssystem mindestens an einer 4-KB-Grenze ausgerichtet ist.

Virtual SAN

  • Nicht gemountete Virtual SAN-Festplatten und Festplattengruppen werden im vSphere Client im Feld „Betriebsstatus“ als gemountet angezeigt
    Nachdem die Virtual SAN-Festplatten oder -Festplattengruppen mit dem CLI-Befehl esxcli vsan storage diskgroup unmount oder automatisch vom Virtual SAN Device Monitor-Dienst in den nicht gemounteten Zustand versetzt wurden, wird auf der Benutzeroberfläche der vSphere Client UI fälschlicherweise im Feld Betriebsstatus Gemountet angezeigt, wenn die Festplatten ständig hohe Latenzen aufweisen.

    Problemumgehung: Überprüfen Sie das Feld Integrität, das anstatt des Feldes Betriebsstatus einen auf ein Problem hinweisenden Wert anzeigt.
  • Ein ESXi-Host mit mehreren VSAN-Festplattengruppen zeigt die Magnetfestplattenstatistik bei Ausführung des vsan.disks_stats-Befehls möglicherweise nicht an
    Ein ESXi-Host mit mehreren VSAN-Festplattengruppen zeigt die Magnetfestplattenstatistik bei Ausführung des RVC (Ruby vSphere Console)-Befehls vsan.disks_stats möglicherweise nicht an. Der Host zeigt nur die SSD (Solid-State Drive)-Informationen an.

    Problemumgehung: Keine
  • VM-Verzeichnisse enthalten doppelte Auslagerungsdateien (.vswp)
    Dieses Problem tritt möglicherweise auf, wenn die virtuellen Maschinen, die im Virtual SAN ausgeführt werden, nicht ordnungsgemäß heruntergefahren werden und wenn Sie eine Neuinstallation von ESXi und vCenter Server ausführen, ohne die Daten von den Virtual SAN-Festplatten zu löschen. Dies führt dazu, dass alte Auslagerungsdateien (.vswp) sich in den Verzeichnissen für die virtuellen Maschinen befinden, die nicht ordnungsgemäß heruntergefahren wurden.

    Problemumgehung: Keine

  • Versuche, einer Virtual SAN-Festplattengruppe mehr als sieben Magnetfestplatten hinzuzufügen, schlagen möglicherweise mit einer falschen Fehlermeldung fehl
    Virtual SAN-Festplattengruppen unterstützen maximal eine SSD-Festplatte und sieben HDD-Magnetfestplatten. Versuche, eine weitere Magnetfestplatte hinzuzufügen, schlagen möglicherweise mit einer falschen Fehlermeldung ähnlich der folgenden fehl:

    Die Anzahl der Festplatten ist nicht ausreichend.

    Problemumgehung: Keine
  • Erneute Prüfung schlägt beim Hinzufügen einer Virtual SAN-Festplatte fehl
    Wenn Sie eine Virtual SAN-Festplatte hinzufügen, schlägt die erneute Prüfung wegen eines Testfehlers in Bezug auf einen non-Virtual SAN-Datenträger fehl.

    Problemumgehung: Sie können den Fehler ignorieren, da alle Festplatten richtig registriert werden.
  • Ein Festplattenlaufwerk (HDD), das nach dem zugehörigen Solid-State-Laufwerk (SSD) entfernt wird, wird möglicherweise weiterhin als Speicherfestplatte aufgelistet, die von Virtual SAN beansprucht wird
    Wenn zuerst ein SSD- und dann das zugehörige HDD-Laufwerk von einem Virtual SAN-Datenspeicher entfernt wird und Sie den Befehl esxcli vsan storage list ausführen, wird das bereits entfernte HDD-Laufwerk immer noch als von Virtual SAN beanspruchte Speicherfestplatte aufgelistet. Wenn das HDD-Laufwerk anschließend in einen anderen Host eingelegt wird, wird es möglicherweise als Komponente von zwei verschiedenen Hosts angezeigt.

    Problemumgehung: Wenn SSD und HDD beispielsweise aus dem ESXi-Host x entfernt und in den ESXi-Host y eingelegt werden, führen Sie die folgenden Schritte aus, um zu verhindern, dass das HDD-Laufwerk als Komponente von ESXi-Host x und ESXi-Host y angezeigt wird:
    1. Legen Sie die SSD- und HDD-Laufwerke, die aus dem ESXi-Host x entfernt wurden, in den ESXi-Host y ein.
    2. Nehmen Sie das SSD-Laufwerk auf dem ESXi-Host x außer Betrieb.
    3. Führen Sie den Befehl esxcfg-rescan -A aus.
       Die HDD- und SSD-Laufwerke werden nun nicht mehr auf dem ESXi-Host x aufgelistet.
  • Der Abschnitt Arbeiten mit Virtual SAN der vSphere Storage-Dokumentation gibt an, dass die maximale Anzahl der HDD-Festplatten pro Festplattengruppe 6 beträgt. Die maximal zulässige Anzahl von HDD-Festplatten beträgt jedoch 7.
  • Nach einem Fehlschlag in einem Virtual SAN-Cluster meldet vSphere HA möglicherweise mehrere zum Teil irreführende Ereignisse, bevor eine virtuelle Maschine neu gestartet wird
    Der vSphere HA-Master-Agent versucht mehrfach, eine auf Virtual SAN ausgeführte virtuelle Maschine neu zu starten, nachdem sie anscheinend ausgefallen war. Wenn die virtuelle Maschine nicht sofort neu gestartet werden kann, überwacht der Master-Agent den Clusterzustand und unternimmt einen weiteren Versuch, sofern die Bedingungen darauf hindeuten, dass ein Neustart erfolgreich sein könnte. Für virtuelle Maschinen, die auf Virtual SAN ausgeführt werden, verfügt der vSphere HA-Master-Agent über eine spezielle Anwendungslogik, die erkennt, wenn sich die Zugriffsfähigkeit auf Objekte einer virtuellen Maschine möglicherweise geändert hat, und versucht, sie neu zu starten, wenn eine Änderung der Zugriffsfähigkeit wahrscheinlich ist. Der Master-Agent unternimmt einen erneuten Versuch nach jeder möglichen Änderung der Zugriffsfähigkeit sowie in den Fällen, bei denen die virtuelle Maschine nicht erfolgreich eingeschaltet werden konnte und auf die nächste mögliche Änderung der Zugriffsfähigkeit gewartet werden muss.

    Nach jedem gescheiterten Versuch meldet vSphere HA ein Ereignis, das angibt, dass das Failover fehlgeschlagen ist. Nach fünf Fehlschlägen meldet vSphere HA, dass keine weiteren Versuche zum Neustarten der virtuellen Maschine unternommen werden, da die maximale Anzahl der Failover-Versuche erreicht wurde. Selbst nachdem gemeldet wurde, dass der vSphere HA-Master-Agent keine weiteren Versuche unternimmt, wird bei der nächsten möglichen Änderung der Zugriffsfähigkeit dennoch ein weiterer Versuch unternommen.

    Problemumgehung: Keine.

  • Durch das Ausschalten eines Virtual SAN-Hosts wird die Ansicht der Speicheranbieter im vSphere Web Client länger als erwartet aktualisiert
    Wenn Sie einen Virtual SAN-Host ausschalten, wird die Ansicht der Speicheranbieter möglicherweise ohne Inhalt angezeigt. Die Schaltfläche "Aktualisieren" dreht sich weiter, obwohl keine Informationen angezeigt werden.

    Problemumgehung: Warten Sie mindestens 15 Minuten, bis die Ansicht der Speicheranbieter wieder ausgefüllt wird. Die Ansicht wird auch dann aktualisiert, wenn Sie den Host einschalten.

  • Virtual SAN meldet eine fehlgeschlagene Aufgabe als abgeschlossen
    Möglicherweise meldet Virtual SAN bestimmte Aufgaben als abgeschlossen, obwohl sie intern fehlgeschlagen sind.

    Nachfolgend finden Sie Bedingungen und entsprechende Gründe für Fehler:

    • Bedingung: Benutzer versuchen, eine neue Festplattengruppe zu erstellen oder eine neue Festplatte zu einer bereits vorhandenen Festplattengruppe hinzuzufügen, nachdem die Virtual SAN-Lizenz bereits abgelaufen ist.
      Fehlerstapel: Ein allgemeiner Systemfehler ist aufgetreten: Festplatte kann nicht hinzugefügt werden Virtual SAN ist nicht auf diesem Host lizenziert.
    • Bedingung: Benutzer versuchen, eine Festplattengruppe mit einer Anzahl von Platten zu erstellen, die höher als die maximal unterstützte Anzahl ist. Oder sie versuchen, neue Festplatten zu einer bereits vorhandenen Festplattengruppe hinzuzufügen, sodass die Gesamtzahl der Festplatten die unterstützte maximale Anzahl der Festplatten pro Festplattengruppe überschreitet.
      Fehlerstapel: Ein allgemeiner Systemfehler ist aufgetreten: Zu viele Festplatten.
    • Bedingung: Benutzer versuchen, eine Festplatte zur Festplattengruppe mit Fehlern hinzuzufügen.
      Fehlerstapel: Ein allgemeiner Systemfehler ist aufgetreten: Es konnte keine Partitionstabelle erstellt werden.

    Problemumgehung: Nachdem der Grund für einen Fehler identifiziert wurde, beheben Sie diesen und führen Sie die Aufgabe erneut aus.

  • Virtual SAN-Datenspeicher können keine lokalen Host- und Systemauslagerungsdateien speichern
    In der Regel können Sie die System- oder die lokale Hostauslagerungsdatei auf einem Datenspeicher ablegen. Der Virtual SAN-Datenspeicher unterstützt jedoch keine System- oder lokalen Hostauslagerungsdateien. Folglich steht die UI-Option, die es Ihnen ermöglicht, den Virtual SAN-Datenspeicher als Speicherort für die System- bzw. die lokale Hostauslagerungsdatei auszuwählen, nicht zur Verfügung.

    Problemumgehung: Verwenden Sie in einer Virtual SAN-Umgebung andere unterstützte Optionen zum Speichern der lokalen Host- und Systemauslagerungsdateien.

  • Eine Virtual SAN-VM in einem vSphere HA-Cluster wird als vSphere HA-geschützt gemeldet, obwohl sie ausgeschaltet wurde
    Dies kann passieren, wenn Sie eine virtuelle Maschine ausschalten, deren Home-Objekt sich in einem Virtual SAN-Datenspeicher befindet und der Zugriff auf das Objekt nicht möglich ist. Dieses Problem tritt auf, wenn die Wahl eines HA-Master-Agenten erfolgt, nachdem der Zugriff auf das Objekt nicht mehr möglich ist.

    Problemumgehung:

    1. Vergewissern Sie sich, dass auf das Home-Objekt wieder zugegriffen werden kann, indem Sie die Übereinstimmung des Objekts mit der angegebenen Speicherrichtlinie überprüfen.
    2. Schalten Sie die virtuelle Maschine ein und dann wieder aus.

    Der Status ändert sich in "Nicht geschützt".

  • Das VM-Objekt behält den Status "Veraltet" auch dann bei, wenn die Aktion "Neu anwenden" ausgelöst und erfolgreich abgeschlossen wurde
    Wenn Sie aufgrund der neuen Speicheranforderungen das vorhandene Profil einer virtuellen Maschine bearbeiten, erhalten die zugeordneten VM-Objekte (Home oder Festplatte) möglicherweise den Status "Veraltet". Dies passiert, wenn die aktuelle Umgebung keine Neukonfiguration der VM-Objekte unterstützt. Durch Verwendung der Aktion Neu anwenden wird der Status nicht geändert.

    Problemumgehung: Fügen Sie zusätzliche Ressourcen, Hosts oder Festplatten zum Virtual SAN-Cluster hinzu und führen Sie die Aktion Neu anwenden erneut aus.

  • Die automatisch Beanspruchung von Festplatten funktioniert bei Virtual SAN nicht wie erwartet, wenn Sie Virtual SAN nach Aktivieren dieser Funktion lizenzieren
    Wenn Sie Virtual SAN im automatischen Modus aktivieren und anschließend eine Lizenz zuweisen, beansprucht Virtual SAN keine Festplatten.

    Problemumgehung: Ändern Sie den Modus in Manuell und anschließend zurück in Automatisch. Virtual SAN beansprucht dann die Festplatten ordnungsgemäß.

  • vSphere High Availability (HA) kann eine virtuelle Maschine nicht neu starten, wenn das Virtual SAN-Netzwerk partitioniert ist
    Dies tritt auf, wenn Virtual SAN für die Internode-Kommunikation VMkernel-Adapter verwendet, die sich in demselben Subnetz wie andere VMkernel-Adapter eines Clusters befinden. Eine solche Konfiguration kann zu einem Netzwerkausfall führen und die Internode-Kommunikation von Virtual SAN unterbrechen, wohingegen die Internode-Kommunikation von vSphere HA davon nicht berührt wird.

    In dieser Situation erkennt der HA-Master-Agent möglicherweise den Ausfall einer virtuellen Maschine, kann diese aber nicht neu starten. Dieses Problem kann beispielsweise auftreten, wenn der Host, auf dem der Master-Agent ausgeführt wird, keinen Zugriff auf die Objekte der virtuellen Maschine besitzt.

    Problemumgehung: Stellen Sie sicher, dass die von Virtual SAN verwendeten VMkernel-Adapter kein Subnetz gemeinsam mit den VMkernel-Adaptern nutzen, die zu anderen Zwecken verwendet werden.

  • VM-Verzeichnisse enthalten doppelte Auslagerungsdateien (.vswp)   
    Dieses Problem tritt möglicherweise auf, wenn die virtuellen Maschinen, die im Virtual SAN ausgeführt werden, nicht ordnungsgemäß heruntergefahren werden und wenn Sie eine Neuinstallation von ESXi und vCenter Server ausführen, ohne die Daten von den Virtual SAN-Festplatten zu löschen. Dies führt dazu, dass alte Auslagerungsdateien (.vswp) sich in den Verzeichnissen für die virtuellen Maschinen befinden, die nicht ordnungsgemäß heruntergefahren wurden.

    Problemumgehung: Keine

  • Virtuelle Maschinen sind möglicherweise aufgrund hoher Netzwerklatenz nicht mehr verfügbar
    Wenn in einem Virtual SAN-Cluster die Netzwerklatenz hoch ist, ist in vCenter Server möglicherweise kein Zugriff mehr auf einige virtuelle Maschinen möglich und Sie können die virtuellen Maschinen nicht einschalten oder auf sie zugreifen.

    Problemumgehung: Führen Sie den RVC-Befehl vsan.check_state -e -r aus.
  • Bei VM-Vorgängen tritt möglicherweise aufgrund von hoher Netzwerklatenz eine Zeitüberschreitung ein
    Wenn Speichercontroller mit geringen Warteschlangentiefen verwendet werden, kann eine hohe Netzwerklatenz eine Zeitüberschreitung von Vorgängen virtueller Maschinen verursachen.

    Problemumgehung: Wiederholen Sie die Vorgänge, wenn die Netzwerkauslastung geringer ist.
  • Virtuelle Maschinen werden möglicherweise in eine verkürzte Version ihres VMX-Dateipfads umbenannt
    Wenn vorübergehend kein Zugriff auf die VMX-Datei einer virtuellen Maschine möglich ist, wird die virtuelle Maschine in eine verkürzte Version des VMX-Dateipfads umbenannt. Beispiel für die Umbenennung einer virtuellen Maschine: /vmfs/volumes/vsan:52f1686bdcb477cd-8e97188e35b99d2e/236d5552-ad93. Durch das Abschneiden des Dateipfads wird möglicherweise die Hälfte der UUID des Stammverzeichnisses der virtuellen Maschine gelöscht, sodass es schwierig ist, die umbenannte virtuelle Maschine anhand ihres Namens der ursprünglichen virtuellen Maschine zuzuordnen.

    Problemumgehung: Führen Sie den RVC-Befehl vsan.fix_renamed_vms aus.

vCenter Server und vSphere Web Client

  • ESXi-Host kann Active Directory-Domäne nicht hinzugefügt werden
    Beim Versuch, Berechtigungen zuzuweisen, wird der Active Directory-Domänenname möglicherweise nicht in der Dropdown-Liste "Domäne" unter der Option "Benutzer und Gruppen auswählen" angezeigt. Außerdem wird unter der Option "Authentifizierungsdiensteinstellungen" möglicherweise kein vertrauenswürdiger Domänen-Controller angezeigt, selbst wenn Active Directory über vertrauenswürdige Domänen verfügt.

    Problemumgehung:
    1. Starten Sie die netlogond-, lwiod- und lsassd-Daemons neu.
    2. Melden Sie sich über den vSphere Client beim ESXi-Host an.
    3. Klicken Sie auf der Registerkarte Konfiguration auf Authentifizierungsdiensteinstellungen.
    4. Aktualisieren Sie den Bildschirm, um die vertrauenswürdigen Domänen anzuzeigen.

VM-Verwaltungsprobleme

  • Cold-Migration und Storage vMotion können für eine virtuelle Maschine nicht ausgeführt werden, wenn der VMDK-Dateiname mit „core“ beginnt
    Das Ausführen von Cold-Migration und Storage vMotion für eine virtuelle Maschine schlägt mit einer Fehlermeldung ähnlich der Folgenden fehl, wenn der VMDK-Dateiname mit „core“ beginnt:

    Ein allgemeiner Systemfehler ist aufgetreten: Fehler beim Benennen oder Umbenennen einer VM-Datei.

    Möglicherweise werden in der Protokolldatei vpxd.log Fehlermeldungen ähnlich der folgenden angezeigt:

    mem> 2014-01-01T11:08:33.150-08:00 [13512 info 'commonvpxLro' opID=8BA11741-0000095D-86-97] [VpxLRO] -- FINISH task-internal-2471 -- -- VmprovWorkflow --
    mem> 2014-01-01T11:08:33.150-08:00 [13512 info 'Default' opID=8BA11741-0000095D-86-97] [VpxLRO] -- ERROR task-internal-2471 -- -- VmprovWorkflow: vmodl.fault.SystemError:
    mem> --> Result:
    mem> --> (vmodl.fault.SystemError){
    mem> --> dynamicType = ,
    mem> --> faultCause = (vmodl.MethodFault) null,
    mem> --> reason = "Error naming or renaming a VM file.",
    mem> --> msg = "",
    mem> --> }

    Dieses Problem tritt auf, wenn der ESXi-Host VMDK-Dateien mit einem Dateinamen, der mit "core" beginnt, fälschlicherweise als Core-Datei und nicht als den erwarteten Festplattentyp klassifiziert.

    Problemumgehung: Stellen Sie sicher, dass der VMDK-Dateiname der virtuellen Maschine nicht mit "core" beginnt. Verwenden Sie außerdem zum Umbenennen der VMDK-Datei das Dienstprogramm vmkfstools, um sicherzustellen, dass der Dateiname nicht mit dem Wort "core" beginnt.
  • Bei virtuellen Maschinen mit Windows 7 Enterprise 64-Bit-Gastbetriebssystemen in französischer Sprache treten bei Klonvorgängen Probleme auf
    Falls Sie eine geklonte virtuelle Maschine unter einer französischen Version von Windows 7 Enterprise 64-Bit verwenden, wird die virtuelle Maschine vom Netzwerk getrennt und die Anpassungsspezifikation wird nicht angewendet. Dieses Problem tritt auf, wenn die virtuelle Maschine auf einem ESXi 5.1-Host ausgeführt wird, auf ESXi 5.5 geklont wird und die VMware Tools-Version auf die neueste für den ESXi 5.5-Host verfügbare Version aktualisiert wird.

    Problemumgehung: Führen Sie ein Upgrade der Kompatibilität der virtuellen Maschine auf ESXi 5.5 und höher durch, bevor Sie ein Upgrade auf die neueste verfügbare Version von VMware Tools vornehmen.

  • Das Vergrößern einer virtuellen Festplatte für eine ausgeführte virtuelle Maschine schlägt fehl
    Wenn Sie die virtuelle Festplatte vergrößern, während die virtuelle Maschine ausgeführt wird, wird möglicherweise folgende Fehlermeldung angezeigt:

    Der Vorgang wird bei diesem Gerätetyp nicht unterstützt.

    Dieser Fehler kann auftreten, wenn Sie die Festplatte auf über 2 TB vergrößern. Die Erweiterung im laufenden Betrieb unterstützt die Vergrößerung der Festplatte auf maximal 2 TB. Die Erweiterung im laufenden Betrieb wird von virtuellen SATA-Festplatten unabhängig von der Größe nicht unterstützt.

    Problemumgehung: Schalten Sie die virtuelle Maschine aus, um die virtuelle Festplatte auf mindestens 2 TB zu vergrößern.

VMware HA- und Fault Tolerance-Probleme
  • Fault Tolerance (FT) wird für die Plattformen Intel Skylake-DT/S, Broadwell-EP, Broadwell-DT und Broadwell-DE nicht unterstützt
    Für die Plattformen Intel Skylake-DT/S, Broadwell-EP, Broadwell-DT und Broadwell-DE wird Fault Tolerance nicht unterstützt. Versuche, eine virtuelle Maschine einzuschalten, schlagen fehl, nachdem Sie Fault Tolerance für einen einzelnen Prozessor aktiviert haben.

    Problemumgehung: Keine

  • Bei der Auswahl eines ESX/ESXi 4.0-/4.1-Hosts in einem vSphere HA-Cluster für das Failover einer virtuellen Maschine wird die virtuelle Maschine möglicherweise nicht wie erwartet neu gestartet.
    Wenn vSphere HA eine virtuelle Maschine auf einem anderen ESX/ESXi 4.0-/4.1-Host als dem ursprünglichen Host neu startet, wird eine Abfrage ausgestellt, die nicht beantwortet wird. Die virtuelle Maschine wird auf dem neuen Host erst eingeschaltet, nachdem Sie die Abfrage manuell im vSphere Client beantwortet haben.

    Problemumgehung: Beantworten Sie die Abfrage im vSphere Client. Sie können eine Zeitüberschreitung (standardmäßig 15 Minuten) abwarten, nach der vSphere HA versucht, die virtuelle Maschine auf einem anderen Host neu zu starten. Wenn der Host ESX/ESXi Version 5.0 oder höher ausführt, wird die virtuelle Maschine neu gestartet.

  • Wenn ein vMotion-Vorgang ohne gemeinsam genutzten Speicher in einem vSphere HA-Cluster fehlschlägt, kann es sein, dass die virtuelle Zielmaschine auf einem unerwarteten Host registriert wird.
    Eine vMotion-Migration ohne gemeinsam genutzten Speicher kann fehlschlagen, weil die virtuelle Zielmaschine keine Handshakenachricht erhält, mit der die Übertragung der Kontrolle zwischen den beiden virtuellen Maschinen koordiniert wird. Das vMotion-Protokoll schaltet die virtuellen Quell- und Zielmaschinen aus. Wenn sich die Quell- und Zielhosts im selben Cluster befinden und vSphere HA aktiviert wurde, kann es vorkommen, dass die virtuelle Zielmaschine von vSphere HA auf einem anderen Host als dem Host, der als Ziel für die vMotion-Migration ausgewählt wurde, registriert wird.

    Problemumgehung: Wenn Sie die virtuelle Zielmaschine beibehalten und auf einem bestimmten Host registrieren möchten, verlagern Sie die virtuelle Zielmaschine auf den Zielhost. Es empfiehlt sich, diese Verlagerung vor dem Einschalten der virtuellen Maschine vorzunehmen.

Probleme bei unterstützter Hardware
  • Sensorwerte für Lüfter, Stromversorgung, Spannung und aktuelle Sensoren werden in der Gruppe "Andere" der Registerkarte "vCenter Server-Hardwarestatus" angezeigt
    Einige Sensorwerte werden in der Gruppe "Andere" anstatt der entsprechenden kategorisierten Gruppe aufgelistet.

    Problemumgehung: Keine.

  • Fehler bei IOMMU (I/O Memory Management Unit) können entstehen, wenn der Debugging-Mapper von DMA (Direct Memory Access) aktiviert ist
    Der Debugging-Mapper platziert Geräte in IOMMU-Domänen, um Arbeitsspeicherzugriffe von Geräten auf Adressen zu erfassen, die nicht explizit zugeordnet sind. Auf einigen Systemen von HP mit alter Firmware können Fehler bei IOMMU entstehen.

    Problemumgehung: Laden Sie Upgrades der Firmware von der HP-Website herunter und installieren Sie sie.

    • Führen Sie ein Upgrade der Firmware des HP iLO2-Controllers durch.
      Die im August 2011 veröffentlichte Version 2.07 löst das Problem.
    • Führen Sie ein Upgrade der Firmware des HP Smart Array durch.
      Die im Januar 2012 veröffentlichte Version 5.14 löst das Problem für das HP Smart Array P410.

Probleme bei VMware Tools

  • Bei der Installation oder Deinstallation von VMware Tools mithilfe der betriebssystemspezifischen Pakete (OSPs) wird der Benutzer zwangsweise abgemeldet
    Bei der Installation oder Deinstallation von VMware Tools-Paketen auf virtuellen Maschinen mit RHEL (Red Hat Linux Enterprise) und CentOS, die mit den betriebssystemspezifischen Paketen installiert wurden, wird der aktuelle Benutzer zwangsweise abgemeldet. Dieses Problem tritt bei virtuellen Maschinen mit RHEL 6.5 64-Bit, RHEL 6.5 32-Bit, CentOS 6.5 64-Bit und CentOS 6.5 32-Bit auf.

    Problemumgehung:
    • Verwenden Sie Secure Shell (SSH) zur Installation oder Deinstallation von VMware Tools.
      oder
    • Der Benutzer muss sich erneut anmelden, um die VMware Tools-Pakete zu installieren oder zu deinstallieren.

Sonstige Probleme

  • Neues Problem ESXi wird nicht automatisch zum vCenter Server-Bestand hinzugefügt
    Wenn Sie eine ältere Version von vCenter Server und vSphere Update Manager auf ESXi 5.5 Update 3b aktualisieren, wird ESXi nach der Wartungsaufgabe nicht automatisch zum VC-Bestand hinzugefügt. Der Wartungsvorgang wird nicht mehr abgeschlossen, und der ESXi-Verbindungsstatus im VC-Bestand wird als nicht verbunden angezeigt.

    Problemumgehung: Wenn Sie ESXi nach Beginn des Standardisierungsvorgangs neu starten, aktivieren Sie SSLv3 auf ESXi (was standardmäßig deaktiviert ist).
    Dadurch stellen Sie sicher, dass ESXi innerhalb von wenigen Minuten automatisch zum VC-Bestand hinzugefügt und der Wartungsvorgang abgeschlossen wird. Weitere Informationen finden Sie im Knowledgebase-Artikel KB 2139396.

  • Neues Problem Verbindungsfehler zwischen ESXi 5.5 Update 3b und View Composer vor der Version 6.2
    Sie können eine View Composer-Version vor 6.2 nicht mit ESXi 5.5 Update 3b im Standardzustand verbinden.

    Problemumgehung: Sie können SSLv3 auf ESXi 5.5 Update 3b aktivieren. Weitere Informationen finden Sie im Knowledgebase-Artikel KB 2139396.

  • SRM-Vorgang zur Testwiederherstellung schlägt möglicherweise mit einem Fehler fehl
    Versuche, die SRM (Site Recovery Manager)-Testwiederherstellung durchzuführen, schlagen möglicherweise mit einer Fehlermeldung ähnlich der Folgenden fehl:
    'Fehler - Ein allgemeiner Systemfehler ist aufgetreten: VM nicht gefunden'.
    Wenn mehrere Vorgänge zur Testwiederherstellung gleichzeitig ausgeführt werden, nimmt die Wahrscheinlichkeit der Anzeige von Fehlermeldungen zu.

    Problemumgehung: Keine. Dies ist jedoch kein dauerhaftes Problem und es tritt möglicherweise nicht auf, wenn Sie den Vorgang zur SRM-Testwiederherstellung erneut ausführen.