Versionshinweise zu VMware ESXi 6.0.0b

|

Aktualisiert am: 7. Juli 2015

ESXi 6.0.0b | 7. Juli 2015 | ISO Build 2809209

Überprüfen Sie, ob Erweiterungen und Updates für diese Versionshinweise zur Verfügung stehen.

Inhalt dieser Versionshinweise

Diese Versionshinweise decken die folgenden Themen ab:

Neuigkeiten

Diese Version von ESXi 6.0.0b enthält etliche Fehlerkorrekturen, die im Abschnitt Behobene Probleme dokumentiert sind.

Vorherige Versionen von ESXi 6.0

Die Funktionen und bekannten Probleme von ESXi 6.0 werden in den entsprechenden Versionshinweisen beschrieben. Versionshinweise für frühere Versionen von ESXi 6.0:

Weitere Informationen zu Kompatibilität, Installation und Upgrades sowie Hinweise zu Produktunterstützung und Funktionen finden Sie in den Versionshinweisen zu VMware vSphere 6.0.

Internationalisierung

VMware vSphere 6.0 ist in den folgenden Sprachen verfügbar:

  • Englisch
  • Französisch
  • Deutsch
  • Japanisch
  • Koreanisch
  • Vereinfachtes Chinesisch
  • Spanisch
  • Traditionelles Chinesisch

Die Eingabe von Nicht-ASCII-Zeichen ist bei den Komponenten von VMware vSphere 6.0 nicht zulässig. Hierzu zählen vCenter Server, ESXi, der vSphere Web Client und der vSphere Client.

In dieser Version enthaltene Patches

Diese Version enthält alle Bulletins für ESXi, die vor dem Veröffentlichungsdatum dieses Produkts zur Verfügung standen. Weitere Informationen zu den einzelnen Bulletins finden Sie auf der Seite My VMware.

Die Patch-Version ESXi600-201507001 enthält die folgenden einzelnen Bulletins:

Die Patch-Version ESXi600-201507001 enthält die folgenden Image-Profile:

Behobene Probleme

In diesem Abschnitt werden in dieser Version gelöste Probleme beschrieben:

CIM- und API-Probleme

  • sfcbd-Dienst reagiert möglicherweise nicht mehr
    Der Dienst sfcbd reagiert möglicherweise nicht mehr und die folgende Fehlermeldung wird möglicherweise in der syslog-Protokolldatei ausgegeben:

    spSendReq/spSendMsg failed to send on 7 (-1)
    Error getting provider context from provider manager: 11

    Dieses Problem tritt auf, wenn sich CIM-Server und -Anbieter wegen eines Semaphors in einem Deadlock befinden.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • ESXi-Host kann nach dem Neustart möglicherweise keine CIM Indications von sfcb an den ServerView Operations Manager senden
    Ein ESXi-Host kann nach dem Neustart möglicherweise keine CIM Indications von sfcb an den ServerView Operations Manager senden. Eine Fehlermeldung ähnlich der folgenden wird in die syslog-Protokolldatei geschrieben:

    spGetMsg receiving from 72 20805-11 Resource temporarily unavailable
    rcvMsg receiving from 72 20805-11 Resource temporarily unavailable
    --- activate filter failed for indication subscription
    filter=root/interop:cim_indicationfilter.creationclassname=br"CIM_IndicationFilter"
    ,name="FTSIndicationFilter",systemcreationclassname="CIM_ComputerSystem",
    systemname="xx.xxx.xxx.xx", handler=root/interop:cim_indicationhandlercimxml.creationclassname="CIM_IndicationHandlerCIMXML"
    ,name="FTSIndicationListener:xx.xxx.xxx.xx", systemcreationclassname="CIM_ComputerSystem",systemname="xx.xxx.xxx.xx",
    status: rc 7, msg
    No supported indication classes in filter query or no provider found


    Dieses Problem wurde in der vorliegenden Version behoben.

  • Hardwarestatus kann nicht mit vCenter Server überwacht werden
    Wenn der CIM-Client zwei Anforderungen von Einzeltermin löschen an dasselbe CIM Indication-Abonnement sendet, reagiert der Dienst sfcb-vmware_int aufgrund eines Arbeitsspeicherkonflikts möglicherweise nicht mehr. Sie können den Hardwarestatus mit vCenter Server und ESXi möglicherweise nicht überwachen.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Nach dem Aktualisieren der Firmware werden auf der Registerkarte „Hardwarestatus“ möglicherweise falsche Alarme angezeigt
    Nach dem Aktualisieren der Firmware werden auf der Registerkarte Hardwarestatus von vSphere Client möglicherweise falsche Alarme angezeigt, selbst wenn sich das System für zwei oder drei Tage im Leerlauf befand. Es werden möglicherweise Fehlermeldungen ähnlich den folgenden in die Protokolldatei /var/log/syslog.log geschrieben:

    sfcb-vmware_raw[nnnnn]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x8 FAILED cc=0xffffffff
    sfcb-vmware_raw[nnnnn]: IpmiIfcFruChassis: Reading FRU Chassis Info Area length for 0x0 FAILED
    sfcb-vmware_raw[nnnnn]: IpmiIfcFruBoard: Reading FRU Board Info details for 0x0 FAILED cc=0xffffffff
    sfcb-vmware_raw[nnnnn]: IpmiIfruInfoAreaLength: Reading FRU for 0x0 at 0x70 FAILED cc=0xffffffff
    sfcb-vmware_raw[nnnnn]: IpmiIfcFruProduct: Reading FRU product Info Area length for 0x0 FAILED
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: data length mismatch req=19,resp=3
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0001,resp=0002
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0002,resp=0003
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0003,resp=0004
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0004,resp=0005
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0005,resp=0006
    sfcb-vmware_raw[nnnnn]: IpmiIfcSelReadEntry: EntryId mismatch req=0006,resp=0007

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Openwsman unterstützt möglicherweise createInstance() nicht
    Der ESXi WSMAN-Agent (Openwsman), der im Lieferumfang von ESXi 5.0 Update 3 oder ESXi Patch Release ESXi500-201406001, ESXi 5.1 Update 2 oder ESXi Patch Release ESXi510-201407001 oder ESXi 5.5 Update 2 enthalten ist, unterstützt möglicherweise keinen Array-Parameter für createInstance(). Wenn Sie den wsmand-Dienst ausführen, um eine CIM-Instanz mit dem Eigenschaftswert Array-Typ zu erstellen, und dazu createInstance() in Openwsman verwenden, werden Meldungen ähnlich der folgenden angezeigt:

    wsmand[6266]: working on property: DataSize
    wsmand[6266]: prop value: 572
    wsmand[6266]: xml2property([0xnnnn]DataSize:572)
    wsmand[6266]: working on property: PData
    wsmand[6266]: prop value: 7
    wsmand[6266]: xml2property([0xnnnn]PData:7)
    wsmand[6266]: *** xml2data: Array unsupported
    wsmand[6266]: working on property: ReturnCode
    wsmand[6266]: prop value: 0

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Arbeitsspeicherverlust bei CIM-Anbietern beim Senden von CIM Indications
    Bei einem Common Information Model-Anbieter (CIM-Provider), der auf einem ESXi-Host ausgeführt wird, kommt es beim Senden von CIM Indications vom Dienst Small-Footprint CIM Broker (sfcb) möglicherweise zu einem Arbeitsspeicherverlust.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Hardwarestatus kann auf ESXi-Host nicht überwacht werden
    Ein ESXi-Host gibt auf der Registerkarte Hardwarestatus möglicherweise einen Fehler aus, da der Hardware-Überwachungsdienst (sfcbd) nicht reagiert. Eine Fehlermeldung ähnlich der folgenden wird in die Protokolldatei syslog.log geschrieben:

    sfcb-hhrc[5149608]: spGetMsg receiving from 65 5149608-11 Resource temporarily unavailable
    sfcb-hhrc[5149608]: rcvMsg receiving from 65 5149608-11 Resource temporarily unavailable
    sfcb-hhrc[5149608]: Timeout or other socket error
    sfcb-LSIESG_SMIS13_HHR[6064161]: spGetMsg receiving from 51 6064161-11 Resource temporarily unavailable
    sfcb-LSIESG_SMIS13_HHR[6064161]: rcvMsg receiving from 51 6064161-11 Resource temporarily unavailable
    sfcb-LSIESG_SMIS13_HHR[6064161]: Timeout or other socket error
    sfcb-kmoduleprovider[6064189]: spGetMsg receiving from 57 6064189-11 Resource temporarily unavailable
    sfcb-kmoduleprovider[6064189]: rcvMsg receiving from 57 6064189-11 Resource temporarily unavailable
    sfcb-kmoduleprovider[6064189]: Timeout or other socket error


    Dieses Problem wurde in der vorliegenden Version behoben.

  • openwsmand-Dienst reagiert möglicherweise nicht mehr, wenn RAID-Controller-Eigenschaften geändert werden
    Der openwsmand-Dienst reagiert möglicherweise nicht mehr, wenn Sie RAID-Controller-Eigenschaften über die Option ModifyInstance ändern. Dies geschieht, wenn die Eigenschaften der folgenden Prioritäten geändert werden:

    • Neuerstellungspriorität

    • Konsistenzprüfungspriorität

    • Patrol Read-Priorität


    Dieses Problem wurde in der vorliegenden Version behoben.

  • CIM-Client zeigt möglicherweise einen Fehler aufgrund mehrerer Aufzählungen an
    Wenn Sie mehrere Aufzählungsabfragen über die Methode CBEnumInstances mit der Portklasse VMware Ethernet ausführen, tritt bei Servern, auf denen ESXi 6.0 läuft, möglicherweise eine Fehlermeldung ähnlich der folgenden auf:

    CIM error: enumInstances Class not found

    Dieses Problem tritt auf, wenn es der Verwaltungssoftware nicht gelingt, die von VMware_EthernetPort()class bereitgestellten Daten abzurufen. Wenn dieses Problem auftritt, führt eine Abfrage mit MemStats möglicherweise zu der folgenden Fehlermeldung:

    MemStatsTraverseGroups: VSI_GetInstanceListAlloc failure: Not found.

    Dieses Problem wurde in der vorliegenden Version behoben.

Sonstige Probleme

  • sfcb-Prozess kann nicht beendet werden, wenn UserWorld in HeapMoreCore verharrt
    Wenn UserWorld aufgrund eines ungültigen Beendigungsauftrags mit einer unbegrenzten Zeitüberschreitung in HeapMoreCore verharrt, können Sie den sfcb-Prozess nicht beenden. Eine Fehlermeldung ähnlich der folgenden wird angezeigt:

    failed to kill /sbin/sfcbd (8314712): Dieser Prozess ist nicht vorhanden

    Dieses Problem wurde in der vorliegenden Version behoben.

Netzwerkprobleme

  • ESXi-Host ist bis zu einem Neustart möglicherweise nicht mehr verwendbar und hat keine Verbindung
    Wenn auf einem ESXi-Host drei oder mehr VMKNICs vorliegen und Sie die Netzwerkeinstellungen über DCUI zurücksetzen oder ein Hostprofil anwenden, bei dem die VMKNICs einschließlich der Verwaltungs-VMKNIC auf einem DVS liegen, tritt möglicherweise eine HostCtl-Ausnahme auf. Dadurch wird der Host möglicherweise unbenutzbar und bis zu einem Neustart besteht keine Verbindung.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Durchsatzstatistiken für TX und RX weisen möglicherweise sehr hohe Werte aus und verursachen dadurch die unnötige Neuzuordnung von Quellports
    Die Werte der Durchsatzstatistiken von TX und RX sind möglicherweise sehr hoch und führen zu einer unnötigen Neuzuordnung der Quellports zu unterschiedlichen VMNICs. Das liegt möglicherweise an der falschen Berechnung der Statistiken durch den auslastungsbasierten Gruppierungsalgorithmus.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Netzwerkkonnektivität des ESXi-Hosts wird nach dem Aktivieren von Portspiegelungssitzungen möglicherweise unterbrochen
    Die Netzwerkkonnektivität eines ESXi-Hosts oder einer virtuellen Maschine wird nach dem Aktivieren von Portspiegelungssitzungen auf dem vSphere Distributed Switch möglicherweise unterbrochen.

    Dieses Problem wurde in der vorliegenden Version behoben.

Sicherheitsprobleme

  • NTP-Paket aktualisiert
    Das NTP-Paket wurde aktualisiert, um ein Stabilitätsproblem zu beheben.

Serverkonfigurationsprobleme

  • Neustart von virtuellen Maschinen mit Windows 8 und Windows 2012 Server auf einem ESXi-Host schlägt möglicherweise fehl
    Versuche, virtuelle Maschinen mit Windows 8 und Windows 2012 Server auf einem ESXi-Host neu zu starten, schlagen möglicherweise fehl. Weitere Informationen finden Sie im Knowledgebase-Artikel 2092807.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Versuche, einen VMFS5-Datenspeicher mit über 16 TB auf einem Speichergerät zu erstellen, schlagen fehl
    Ein ESXi-Host schlägt möglicherweise bei dem Versuch fehl, einen VMFS5-Datenspeicher auf über 16 TB zu erweitern. Eine Fehlermeldung ähnlich der folgenden wird in die Protokolldatei vmkernel.log geschrieben:

    cpu38:xxxxx)LVM: xxxx: [naa.600000e00d280000002800c000010000:1] Device expanded (actual size 61160331231 blocks, stored size 30580164575 blocks)
    cpu38:xxxxx)LVM: xxxx: [naa.600000e00d280000002800c000010000:1] Device expanded (actual size 61160331231 blocks, stored size 30580164575 blocks)
    cpu47:xxxxx)LVM: xxxxx: LVM device naa.600000e00d280000002800c000010000:1 successfully expanded (new size: 31314089590272)
    cpu47:xxxxx)Vol3: xxx: Unable to register file system ds02 for APD timeout notifications: Already exists
    cpu47:xxxxx)LVM: xxxx: Using all available space (15657303277568).
    cpu7:xxxxx)LVM: xxxx: Error adding space (0) on device naa.600000e00d280000002800c000010000:1 to volume xxxxxxxx-xxxxxxxx- xxxx-xxxxxxxxxxxx: No space left on device
    cpu7:xxxxx)LVM: xxxx: PE grafting failed for dev naa.600000e00d280000002800c000010000:1 (opened: t), vol xxxxxxxx- xxxxxxxx-xxxx-xxxxxxxxxxxx: Limit exceeded
    cpu7:xxxxx)LVM: xxxx: Device scan failed for <naa.600000e00d280000002800c000010000:1>: Limit exceeded
    cpu7:xxxxx)LVM: xxxx: LVMProbeDevice failed for device naa.600000e00d280000002800c000010000:1: Limit exceeded
    cpu32:xxxxx)<3>ata1.00: bad CDB len=16, scsi_op=0x9e, max=12
    cpu30:xxxxx)LVM: xxxx: PE grafting failed for dev naa.600000e00d280000002800c000010000:1 (opened: t), vol xxxxxxxx- xxxxxxxx-xxxx-xxxxxxxxxxxx: Limit exceeded
    cpu30:xxxxx)LVM: xxxx: Device scan failed for <naa.600000e00d280000002800c000010000:1>: Limit exceeded


    Dieses Problem wurde in der vorliegenden Version behoben.

  • Gesamtnutzung von ESXi sinkt möglicherweise, wenn Sie den CPU-Grenzwert einer virtuellen Maschine mit Einzelprozessor festlegen
    Wenn Sie den CPU-Grenzwert einer virtuellen Maschine mit Einzelprozessor festlegen, sinkt die Gesamtnutzung von ESXi möglicherweise aufgrund eines Defekts des ESXi-Schedulers. Dies geschieht, wenn der ESXi-Scheduler den CPU-Lastausgleich unzutreffend einschätzt und virtuelle Maschinen als „Gestartet“ berücksichtigt. Weitere Informationen finden Sie im Knowledgebase-Artikel 2096897.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Die Portbindung des iSCSI-Netzwerks schlägt auch bei nur einem aktiven Uplink auf einem Switch möglicherweise fehl
    Die Portbindung des iSCSI-Netzwerks schlägt auch bei nur einem aktiven Uplink auf einem Switch fehl.

    Das Problem wurde in der vorliegenden Version dadurch behoben, dass nur die Zahl der aktiven Uplinks bei der Entscheidung berücksichtigt wird, ob die VMkernel-Schnittstelle kompatibel ist oder nicht.

  • iSCSI-Initiatorname zulässig beim Aktivieren von Software-iSCSI über esxcli
    Diese Version bietet die Option, einen iSCSI-Initiatornamen an den Befehl esxcli iscsi software set zu übermitteln.

  • Dauerhaft gemounteter VMFS-Snapshot wird möglicherweise nicht gemountet
    Dauerhaft gemountete VMFS-Snapshot-Volumes werden möglicherweise nach einem Neustart des ESXi-Hosts nicht gemountet. Fehlermeldungen ähnlich der folgenden werden in die syslog-Protokolldatei geschrieben:

    localcli: Storage Info: Unable to Mount VMFS volume with UUID nnnnnnnn-nnnnnnnn-nnnn-nnnnnnnnnnnn.
    Sysinfo error on operation returned status : Bad parameter count. Please see the VMkernel log for detailed error information
    localcli: StorageInfo: Unable to restore one or more conflict-resolved VMFS volumes

    Dieses Problem wurde in der vorliegenden Version behoben.

  • IOPS geringer als für Lese-Schreib-Operation konfigurierter Grenzwert
    Wenn Sie den IOPS-Wert (Input Output Per Second-Wert) für den Datenträger einer virtuellen Maschine begrenzen, ist IOPS geringer als der für die Lese-Schreib-Operation (E/A) konfigurierte Grenzwert, wenn die Größe der Lese-Schreib-Operation (E/A) größer oder gleich 32 KB ist. Das liegt daran, dass der E/A-Scheduler 32 KB als eine Planungskosteneinheit einer E/A-Operation wertet. Jede Operation, deren Größe 32 KB überschreitet, wird daher als mehrere Operationen gewertet. Das führt zu einer E/A-Drosselung.

    Dieses Problem wurde in der vorliegenden Version behoben, indem sich der Wert SchedCostUnit gemäß den Anwendungsanforderungen konfigurieren lässt.

    Führen Sie den folgenden Befehl aus, um den aktuellen Wert anzuzeigen:
    esxcfg-advcfg -g /Disk/SchedCostUnit

    Führen Sie den folgenden Befehl aus, um einen neuen Wert festzulegen:
    esxcfg-advcfg -s 65536 /Disk/SchedCostUnit

  • vmkiscsid-Prozess reagiert möglicherweise nicht mehr
    Der Prozess vmkiscsid reagiert möglicherweise nicht mehr, wenn Sie eine erneute Prüfung des iSCSI-Adapters über IPv6 vornehmen.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • ESXi-Host empfängt möglicherweise keine SNMP v3-Traps über das Verwaltungstool eines Drittanbieters
    Ein ESXi-Host empfängt möglicherweise keine SNMP v3-Traps, wenn Sie zum Erfassen von SNMP-Daten das Verwaltungstool eines Drittanbieters einsetzen. Eine Fehlermeldung ähnlich der folgenden wird in die Protokolldatei /var/snmp/syslog.log geschrieben:

    snmpd: snmpd: snmp_main: rx packet size=151 from: 172.20.58.220:59313
    snmpd: snmpd: SrParseV3SnmpMessage: authSnmpEngineBoots(0) same as 0, authSnmpEngineTime(2772) within 0 +- 150 not in time window
    ....

    Weitere Informationen dazu finden Sie im Knowledgebase-Artikel 2108901.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Versuche, einen ESXi 6.0-Host über ein iSCSI-SAN zu starten, schlagen möglicherweise fehl
    Versuche, einen ESXi 6.0-Host über ein iSCSI-SAN zu starten, schlagen möglicherweise fehl. Dies geschieht, wenn der ESXi-Host die iSCSI-Start-Firmware-Tabelle (iBFT) nicht erkennen kann. Dadurch schlägt der Startvorgang fehl. Dieses Problem tritt möglicherweise bei jedem iSCSI-Adapter auf, einschließlich Emulex und QLogic.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Der VASA API-Aufruf setPEContext an einen Anbieter schlägt möglicherweise fehl
    Der VASA API-Aufruf setPEContext an einen Anbieter schlägt möglicherweise fehl. Eine Fehlermeldung ähnlich der folgenden wird möglicherweise in die Protokolldatei vvold.log geschrieben:

    VasaOp::ThrowFromSessionError [#47964]: ===> FINAL FAILURE setPEContext, error (INVALID_ARGUMENT / failed to invoke operation: setPEContext[com.emc.cmp.osls.api.base.InstanceOps.checkPropertyValue():269 C:ERROR_CLASS_SOFTWARE
    F:ERROR_FAMILY_INVALID_PARAMETER X:ERROR_FLAG_LOGICAL Property inBandBindCapability is required and cannot be null.] / ) VP (VmaxVp) Container (VmaxVp) timeElapsed=19 msecs (#outstanding 0)
    error vvold[FFDE4B70] [Originator@6876 sub=Default] VendorProviderMgr::SetPEContext: Could not SetPEContext to VP VmaxVp (#failed 1): failed to invoke operation

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Zufällige EMC-Ziele erkennen den Initiator möglicherweise nicht
    Das Anwenden eines Hostprofils weist zunächst einen zufällig erzeugten iSCSI-Initiatornamen zu und benennt ihn anschließend in den benutzerdefinierten Namen um. Dadurch können einige EMC-Ziele den Initiator möglicherweise nicht erkennen.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • IBM BladeCenter HS23 kann möglicherweise die Coredump-Datei nicht schreiben, wenn die aktive Coredump-Partition konfiguriert wird
    Ein IBM BladeCenter HS23, das von einem USB-Gerät gestartet wird, kann die Coredump-Datei nicht schreiben, wenn die aktive Coredump-Partition auf einem USB-Gerät konfiguriert ist. Auf einem violetten Bildschirm wird die Meldung angezeigt, dass der Dump initiiert aber nicht abgeschlossen wurde.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Neueste PCI-IDs hinzugefügt
    Die Datei pci.ids wurde mit den neuesten PCI-IDs aktualisiert.

Speicherprobleme

  • Geringe Leistung des NFS-Speichers in virtuellen Maschinen, die auf von VSA bereitgestelltem NFS-Speicher ausgeführt werden
    Eine geringe Leistung des NFS-Speichers ist bei virtuellen Maschinen zu verzeichnen, die auf von VSA bereitgestelltem NFS-Speicher ausgeführt werden. Verzögerte Quittierungen vom ESXi-Host für NFS READ-Antworten führen möglicherweise zu dieser Leistungsbeeinträchtigung.

    Dieser Patch löst dieses Problem durch die Deaktivierung von verzögerten Quittierungen für NFS-Verbindungen.

    Dieses Problem wurde in der vorliegenden Version behoben.

Upgrade- und Installationsprobleme

  • Erster Start von VMware ESXi 6.0 auf einem Dell PowerEdge VRTX kann aufgrund eines Segmentierungsfehlers möglicherweise zum Anhalten des Servers führen
    Der erste Start von VMware ESXi 6.0 auf einem Dell PowerEdge VRTX führt aufgrund eines Segmentierungsfehlers während des Erkennungsprozesses von Controllern nach dem Laden des Moduls vmw_satp_alua zum Anhalten des Servers.

    Die VIBs lsu-lsi-lsi-mr3-plugin und lsu-lsi-megaraid-sas-plugin wurden aktualisiert. Das Storelib -Upgrade von Version 4.26 auf 4.30 behebt dieses Problem.

  • Erster Start von VMware ESXi 6.0 auf einem Dell PowerEdge VRTX kann aufgrund eines Segmentierungsfehlers möglicherweise zum Anhalten des Servers führen
    Der erste Start von VMware ESXi 6.0 auf einem Dell PowerEdge VRTX führt aufgrund eines Segmentierungsfehlers während des Erkennungsprozesses von Controllern nach dem Laden des Moduls vmw_satp_alua zum Anhalten des Servers.

    Die VIBs lsu-lsi-lsi-mr3-plugin und lsu-lsi-megaraid-sas-plugin wurden aktualisiert. Das Storelib -Upgrade von Version 4.26 auf 4.30 behebt dieses Problem.

VM-Verwaltungsprobleme

  • Virtuelle Hardwareversionen vor Version 11 beanspruchen fälschlicherweise Unterstützung der Page Attribute Table
    Die virtuellen Hardwareversionen vor Version 11 beanspruchen fälschlicherweise Unterstützung der Page Attribute Table (PAT) in CPUID[1].EDX[PAT].

    Dieses Problem wurde in der vorliegenden Version durch eine Erweiterung der Unterstützung für IA32_PAT MSR auf alle virtuellen Hardwareversionen behoben.

    Hinweis: Diese Unterstützung ist auf die Aufzeichnung des IA32_PAT MSR in der PAT des Gasts beschränkt. Die PAT des Gasts beeinflusst die von der virtuellen Maschine verwendeten Speichertypen nicht tatsächlich.

  • Löschung eines Desktop-Pools mit Unterstützung für VDI-Umgebungen löscht möglicherweise VMDK-Dateien aus einem anderen Desktop-Pool
    Wenn Sie einen Desktop-Pool mit Unterstützung für VDI-Umgebungen löschen, werden möglicherweise die VMDK-Dateien einer anderen virtuellen Maschine aus einem anderen Desktop-Pool gelöscht. Möglicherweise sind mehrere virtuelle Maschinen aus unterschiedlichen Desktop-Pools betroffen. Dies geschieht, wenn nach dem Löschen des Datenträgers das übergeordnete Verzeichnis aufgrund eines Fehlers gelöscht wird, bei dem das Verzeichnis fälschlicherweise als leer erkannt wird. Die virtuelle Maschine wird möglicherweise nicht eingeschaltet und die folgende Fehlermeldung wird ausgegeben:

    [nnnnn info 'Default' opID=nnnnnnnn] [VpxLRO] -- ERROR task-19533 -- vm-1382 -- vim.ManagedEntity.destroy: vim.fault.FileNotFound:
    --> Result:
    --> (vim.fault.FileNotFound) {
    --> dynamicType = ,
    --> faultCause = (vmodl.MethodFault) null,
    --> file = "[cntr-1] guest1-vm-4-vdm-user-disk-D-nnnnnnnn-nnnn-nnnn-nnnn-nnnnnnnnnnnn.vmdk",
    --> msg = "File [cntr-1] guest1-vm-4-vdm-user-disk-D-nnnnnnnn-nnnn-nnnn-nnnn-nnnnnnnnnnnn.vmdk was not found",
    --> }
    --> Args

    Die Löschung einer VMDK tritt auf, wenn das Gastbetriebssystem einer bestimmten virtuellen Maschine und die Benutzerdatenfestplatte auf unterschiedliche Datenspeicher verteilt sind. Dieses Problem tritt nicht auf, wenn sich alle VM-Dateien in demselben Datenspeicher befinden.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Option „Automatisch“ zum Starten oder Herunterfahren einer virtuellen Maschine funktioniert möglicherweise nicht
    Die Option „Automatisch“ zum Starten oder Herunterfahren einer virtuellen Maschine funktioniert möglicherweise nicht, wenn der Wert der Variablen vmDelay auf mehr als 1800 Sekunden festgelegt ist. Dieses Problem tritt möglicherweise in den folgenden Situationen auf:

    • Wenn die Variable vmDelay auf 2148 Sekunden oder einen höheren Wert festgelegt ist, wird das Starten oder Herunterfahren der virtuellen Maschine möglicherweise nicht verzögert und führt so möglicherweise zu einem Fehlschlagen des hostd-Diensts.
    • Wenn die Variable vmDelay auf mehr als 1800 Sekunden festgelegt ist, verzögert der Befehl hostsvc/autostartmanager/autostart in vim-cmd die automatischen Aufgaben Starten oder Herunterfahren in einer virtuellen Maschine möglicherweise nicht. Das liegt daran, das bei dem Befehl möglicherweise eine Zeitüberschreitung eintritt, wenn die Aufgabe nicht innerhalb von 30 Minuten abgeschlossen ist.

    Hinweis: Geben Sie den Wert blockingTimeoutSeconds in der hostd-Konfigurationsdatei /etc/vmware/hostd/config.xml an. Wenn die Summe der Verzögerungen größer ist als 1800 Sekunden, müssen Sie blockingTimeoutSeconds auf einen Wert größer als 1800 festlegen.

    Beispiel:
    <vimcmd>
    <soapStubAdapter>
    <blockingTimeoutSeconds>7200</blockingTimeoutSeconds>
    </soapStubAdapter>
    </vimcmd>

    Dieses Problem wurde in der vorliegenden Version behoben.

Virtual SAN-Probleme

  • ESXi-Host in einem Virtual SAN-Cluster mit 40 oder mehr Knoten zeigt möglicherweise einen violetten Diagnosebildschirm an
    Ein ESXi-Host, der Teil eines Virtual SAN-Clusters mit 40 oder mehr Knoten ist, zeigt aufgrund einer beschränkten Prüfung möglicherweise einen violetten Diagnosebildschirm an, wenn die Knoten nach dem Failover eines Masters wieder der Mitgliedsliste eines neuen Masters hinzugefügt werden.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Reduzieren der Richtlinie proportionalCapacity hat keine Auswirkungen auf die Festplattennutzung
    Das Reduzieren der Richtlinie proportionalCapacity hat keine Auswirkungen auf die Festplattennutzung. Das liegt daran, dass Änderungen an den Richtlinienparametern nicht an die Komponenten weitergegeben werden, auf die sie angewendet werden.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Bereitstellen einer virtuellen Maschine über eine Speicherrichtlinie mit dem Attribut Flash Read Cache-Reservierung schlägt möglicherweise fehl
    Versuche, eine virtuelle Maschine über eine Speicherrichtlinie mit dem Attribut Flash Read Cache-Reservierung bereitzustellen, schlagen in einer Cluster-Umgebung mit reiner Virtual SAN-Flash-Konfiguration fehl.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Schlanker Virtual SAN Observer kann Statistiken ohne Einführung von hostd als Voraussetzung aufzeichnen
    Der Virtual SAN Observer kann keine Statistiken aufzeichnen, wenn hostd nicht erreichbar ist, da die Aufzeichnung über hostd erfolgt. Mit dieser Version wird ein schlanker Virtual SAN Observer eingeführt, der die Aufzeichnung von Statistiken ohne hostd als Voraussetzung ermöglicht.

    Dieses Problem wurde in der vorliegenden Version behoben.

Probleme bei VMware Tools

  • Automatisches Upgrade mit VMware Tools schlägt beim erstmaligen Einschalten der VM möglicherweise fehl
    Wenn eine virtuelle Maschine mit Gastanpassung bereitgestellt oder geklont wird und die Aktualisierungsrichtlinie von VMware Tools so festgelegt ist, dass sie ein automatisches Upgrade der VMware Tools beim nächsten Einschalten zulässt, schlägt das automatische Upgrade durch VMware Tools möglicherweise fehl, wenn die VM erstmalig eingeschaltet wird.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Versuche, telnet über den Befehl start telnet://xx.xx.xx.xx zu öffnen, schlagen möglicherweise fehl
    Nach der Installation von VMware Tools auf einem Gastbetriebssystem mit Windows 8 oder Windows Server 2012 schlagen Versuche fehl, telnet mit dem Befehl start telnet://xx.xx.xx.xx zu öffnen und die folgende Fehlermeldung wird ausgegeben:

    Make sure the virtual machine's configuration allows the guest to open host applications

    Dieses Problem wurde in der vorliegenden Version behoben.

  • vShield Endpoint-Treiber wurden in Guest Introspection-Treiber umbenannt
    Die vShield Endpoint-Treiber wurden in Guest Introspection-Treiber umbenannt und zwei dieser Treiber, NSX File Introspection ( vsepflt.sys) und NSX Network Introspection ( vnetflt.sys) können jetzt separat installiert werden. Dadurch können Sie den Dateitreiber installieren, ohne dass der Netzwerktreiber installiert ist.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Bei Anwendungen wie beispielsweise QuickTime kann die Leistung mit Unidesk möglicherweise verringert sein
    Wenn Sie Unidesk in Zusammenhang mit VMware View oder vSphere mit aktiviertem vShield Endpoint verwenden, kann die Leistung bei Anwendungen wie beispielsweise QuickTime möglicherweise sinken. Das liegt an einem Interoperabilitätsproblem, das ausgelöst wird, wenn der Filtertreiber für Unidesk-Datenträgerserialisierung und der vShield-Treiber auf dem Stack vorhanden sind. Bei jeder Datei, die von der Anwendung geöffnet wird, selbst wenn dies nur zum Auslesen ihrer Attribute geschieht, ruft der vShield-Treiber FltGetFileNameInformation auf und führt so zu einer weiteren Verarbeitung der Dateien. Als Folge öffnet der Unidesk-Treiber Verzeichnisse und führt zu einem allgemeinen Leistungsabfall der Anwendung.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • IPv6-Router-Ankündigungen funktionieren nicht wie erwartet bei der 802.1q-Kennzeichnung mit VMXNET3-Adaptern in einer virtuellen Maschine mit Linux
    IPv6-Router-Ankündigungen (RA) funktionieren nicht wie erwartet bei der 802.1q-Kennzeichnung mit VMXNET3-Adaptern in einer virtuellen Maschine mit Linux, da die für die VLAN-Schnittstelle bestimmte IPv6 RA-Adresse an die Basisschnittstelle übermittelt wird.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Stillgelegte Snapshots schlagen möglicherweise während Snapshot-Initialisierung fehl
    Stillgelegte Snapshots schlagen während der Snapshot-Initialisierung aufgrund einer Racebedingung möglicherweise fehl. Eine Fehlermeldung ähnlich der folgenden wird auf der Registerkarte Aufgaben und Ereignisse des vCenter Servers angezeigt:

    An error occurred while saving the snapshot

    Möglicherweise finden Sie auch die folgenden Informationen in dem Gastereignisprotokoll:

    System Event Log
    Quelle: Microsoft-Windows-DistributedCOM
    Event ID: 10010
    Level: Error
    Description:
    The server {nnnnnnnn-nnnn-nnnn-nnnn-nnnnnnnnnnnn} did not register with DCOM within the required timeout.

    Dieses Problem wurde in der vorliegenden Version behoben.

  • Das Ausführen eines stillgelegten Snapshots auf einer virtuellen Maschine mit Microsoft Windows 2008 oder später schlägt möglicherweise fehl
    Versuche, einen stillgelegten Snapshot auf einer virtuellen Maschine mit Microsoft Windows 2008 oder später auszuführen, schlagen möglicherweise fehl und die VM löst möglicherweise einen Notfallalarm mit einem blauen Bildschirm und einer Fehlermeldung ähnlich der folgenden aus:

    A problem has been detected and Windows has been shut down to prevent damage to your computer. If this is the first time you've seen this Stop error screen restart your computer. If this screen appears again, follow these steps:

    Disable or uninstall any anti-virus, disk defragmentation or backup utilities. Check your hard drive configuration, and check for any updated drivers. Run CHKDSK /F to check for hard drive corruption, and then restart your computer.


    Dieses Problem wurde in der vorliegenden Version behoben. Weitere Informationen finden Sie im Knowledgebase-Artikel 2115997.

Bekannte Probleme

Informationen zu anderen vorhandenen Problemen, die nicht gelöst und im Abschnitt „Behobene Probleme“ beschrieben sind, finden Sie im Abschnitt „Bekannte Probleme“ in den Versionshinweisen zu VMware vSphere 6.0.