ESXi 6.7 Update 1 | 16 octobre 2018 | Build ISO 10302608 Vérifiez les compléments et les mises à jour pour ces notes de mise à jour. |
Contenu des notes de mise à jour
Les notes de mise à jour couvrent les sujets suivants :
- Nouveautés
- Versions antérieures d'ESXi 6.7
- Notes d'installation de cette version
- Correctifs contenus dans cette version
- Problèmes résolus
- Problèmes connus
Nouveautés
- ESXi 6.7 Update 1 comprend un plug-in LSU Microsemi Smart PQI (smartpqi) afin de prendre en charge les opérations de gestion des disques attachés sur le contrôleur HPE ProLiant Gen10 Smart Array.
- ESXi 6.7 Update 1 prend en charge Quick Boot pour les pilotes Intel i40en et ixgben Enhanced Network Stack (ENS), et permet d'étendre la prise en charge des serveurs HPE ProLiant et Synergie. Pour plus d'informations, reportez-vous à l'article 52477 de la base de connaissances VMware.
- ESXi 6.7 Update 1 permet un contrôle préalable lors de la mise à niveau des hôtes ESXi en utilisant les commandes de profil logiciel de l'ensemble de commandes ESXCLI afin de garantir la compatibilité de la mise à niveau.
- ESXi 6.7 Update 1 prend en charge le pilote nfnic pour Cisco UCS Fibre Channel over Ethernet (FCoE).
- ESXi 6.7 Update 1 prend en charge Namespace Globally Unique Identifier (NGUID) dans le pilote NVMe.
- ESXi 6.7 Update 1 vous permet d'exécuter les commandes ESXCLI de stockage suivantes pour activer le voyant d'état sur des disques SSD basés sur VMD Intel sans télécharger Intel CLI :
esxcli storage core device set -l locator -d
esxcli storage core device set -l error -d
esxcli storage core device set -l off -d
- ESXi 6.7 Update 1 comprend des API afin d'éviter que l'hôte ESXi redémarre lors de la configuration de ProductLocker et pour activer la gestion de la configuration de VMware Tools par le rôle CloudAdmin dans le SDDC cloud sans avoir besoin d'accéder aux profils d'hôte.
- ESXi 6.7 Update 1 comprend l'option de configuration avancée
EnablePSPLatencyPolicy
pour réclamer des périphériques avec une règle de sélection de chemin d'accès Round Robin basée sur la latence. L'option de configurationEnablePSPLatencyPolicy
n'affecte pas le périphérique existant ni les règles de réclamation spécifiques du fournisseur. Vous pouvez également activer la journalisation pour afficher la configuration de chemins d'accès lorsque vous utilisez l'optionEnablePSPLatencyPolicy
. - Avec ESXi 6.7 Update 1, vous pouvez utiliser vSphere vMotion pour migrer des machines virtuelles configurées avec des types de GPU virtuels NVIDIA vers d'autres hôtes avec des GPU NVIDIA Tesla compatibles. Pour plus d'informations sur les versions de NVIDIA prises en charge, consultez le Guide de compatibilité VMware.
- Avec ESXi 6.7 Update 1, Update Manager Download Service (UMDS) ne nécessite pas de base de données et la procédure d'installation est simplifiée. Pour plus d'informations, consultez le Guide d'installation et d'administration de vSphere Update Manager.
Pour plus d'informations sur les problèmes liés à VMware vSAN, consultez les Notes de mise à jour de VMware vSAN 6.7 Update 1.
Versions antérieures d'ESXi 6.7
Les fonctions et problèmes connus d'ESXi sont décrits dans les notes de mise à jour de chaque version. Notes de mise à jour des versions antérieures à ESXi 6.7 :
Pour les remarques relatives à l'internationalisation, la compatibilité, l'installation et les mises à niveau, ainsi que les composants open source et l'assistance produit, consultez les Notes de mise à jour de VMware vSphere 6.7.
Notes d'installation de cette version
Modifications de l'intégration de VMware Tools dans ESXi 6.7 Update 1
Dans ESXi 6.7 Update 1, un sous-ensemble d'images ISO de VMware Tools 10.3.2 est intégré à l'hôte ESXi 6.7 Update 1.
Les images ISO de VMware Tools 10.3.2 suivantes sont intégrées à ESXi :
windows.iso
: Image de VMware Tools pour Windows Vista ou version ultérieurelinux.iso
: Image de VMware Tools pour le système d'exploitation Linux avec glibc version 2.5 ou version ultérieure
Les images ISO de VMware Tools 10.3.2 suivantes sont disponibles au téléchargement :
solaris.iso
: Image de VMware Tools pour Solarisfreebsd.iso
: image de VMware Tools pour FreeBSDdarwin.iso
: Image de VMware Tools pour OSX
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
- Notes de mise à jour de VMware Tools 10.3.2
- Mise à jour vers VMware Tools 10 - À lire
- VMware Tools pour les hôtes provisionnés avec Auto Deploy
- Mise à jour de VMware Tools
Correctifs contenus dans cette version
Cette version contient tous les bulletins d'ESXi qui ont été publiés avant la date de publication de ce produit.
Détails de la build
Nom de fichier de téléchargement : | update-from-esxi6.7-6.7_update01.zip |
Build : | 10302608 10176879 (sécurité uniquement) |
Taille du téléchargement : | 450,5 Mo |
md5sum: |
0ae2ab210d1ece9b3e22b5db2fa3a08e |
sha1checksum: |
b11a856121d2498453cef7447294b461f62745a3 |
Redémarrage de l'hôte requis : | Oui |
Migration ou arrêt de la machine virtuelle requis : | Oui |
Bulletins
Cette version contient des bulletins généraux et de sécurité uniquement. Les bulletins de sécurité s'appliquent aux nouveaux correctifs de sécurité uniquement. Les nouveaux correctifs de bogues ne sont pas inclus, mais les correctifs de bogues des versions antérieures des correctifs et des mises à jour sont inclus.
Si l'installation de tous les nouveaux correctifs de sécurité et de bogues est requise, vous devez appliquer tous les bulletins présents dans cette version. Dans certains cas, le bulletin général remplacera le bulletin de sécurité uniquement. Cela n'est pas un problème, car le bulletin général contient les nouveaux correctifs de sécurité et de bogues.
Les bulletins de sécurité sont identifiables par leur ID de bulletin qui se termine par « SG ». Pour obtenir des informations sur la classification des correctifs et des mises à jour, consultez l'article KB 2014447.
Pour plus d'informations sur les bulletins individuels, consultez la page My VMware et la section Problèmes résolus.
ID de bulletin |
Catégorie |
Gravité |
---|---|---|
ESXi670-201810201-UG |
Correctif de bogues |
Critique |
ESXi670-201810202-UG |
Correctif de bogues |
Important |
ESXi670-201810203-UG |
Correctif de bogues |
Important |
ESXi670-201810204-UG |
Correctif de bogues |
Critique |
ESXi670-201810205-UG |
Correctif de bogues |
Modéré |
ESXi670-201810206-UG |
Correctif de bogues |
Critique |
ESXi670-201810207-UG |
Amélioration |
Important |
ESXi670-201810208-UG |
Amélioration |
Important |
ESXi670-201810209-UG |
Correctif de bogues |
Important |
ESXi670-201810210-UG |
Correctif de bogues |
Important |
ESXi670-201810211-UG |
Amélioration |
Important |
ESXi670-201810212-UG |
Correctif de bogues |
Important |
ESXi670-201810213-UG |
Correctif de bogues |
Critique |
ESXi670-201810214-UG |
Correctif de bogues |
Critique |
ESXi670-201810215-UG |
Correctif de bogues |
Important |
ESXi670-201810216-UG |
Correctif de bogues |
Important |
ESXi670-201810217-UG |
Correctif de bogues |
Important |
ESXi670-201810218-UG |
Correctif de bogues |
Important |
ESXi670-201810219-UG |
Correctif de bogues |
Modéré |
ESXi670-201810220-UG |
Correctif de bogues |
Important |
ESXi670-201810221-UG |
Correctif de bogues |
Important |
ESXi670-201810222-UG |
Correctif de bogues |
Important |
ESXi670-201810223-UG |
Correctif de bogues |
Important |
ESXi670-201810224-UG |
Correctif de bogues |
Important |
ESXi670-201810225-UG |
Correctif de bogues |
Important |
ESXi670-201810226-UG |
Correctif de bogues |
Important |
ESXi670-201810227-UG |
Correctif de bogues |
Important |
ESXi670-201810228-UG |
Correctif de bogues |
Important |
ESXi670-201810229-UG |
Correctif de bogues |
Important |
ESXi670-201810230-UG |
Correctif de bogues |
Important |
ESXi670-201810231-UG |
Correctif de bogues |
Important |
ESXi670-201810232-UG |
Correctif de bogues |
Important |
ESXi670-201810233-UG |
Correctif de bogues |
Important |
ESXi670-201810234-UG |
Correctif de bogues |
Important |
ESXi670-201810101-SG |
Sécurité |
Important |
ESXi670-201810102-SG |
Sécurité |
Modéré |
ESXi670-201810103-SG |
Sécurité |
Important |
IMPORTANT : Pour les clusters qui utilisent VMware vSAN, vous devez tout d'abord mettre à niveau le système vCenter Server. La mise à niveau d'ESXi uniquement n'est pas prise en charge.
Avant d’effectuer une mise à niveau, vérifiez toujours dans la Matrice d'interopérabilité des produits VMware les chemins de mise à niveau compatibles des versions antérieures d'ESXi et de vCenter Server vers la version actuelle.
Profils d'image
Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques.
L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.
Nom de profil d'image |
ESXi-6.7.0-20181002001-standard |
ESXi-6.7.0-20181002001-no-tools |
ESXi-6.7.0-20181001001s-standard |
ESXi-6.7.0-20181001001s-no-tools |
Problèmes résolus
Les problèmes résolus sont regroupés comme suit :
- ESXi670-201810201-UG
- ESXi670-201810202-UG
- ESXi670-201810203-UG
- ESXi670-201810204-UG
- ESXi670-201810205-UG
- ESXi670-201810206-UG
- ESXi670-201810207-UG
- ESXi670-201810208-UG
- ESXi670-201810209-UG
- ESXi670-201810210-UG
- ESXi670-201810211-UG
- ESXi670-201810212-UG
- ESXi670-201810213-UG
- ESXi670-201810214-UG
- ESXi670-201810215-UG
- ESXi670-201810216-UG
- ESXi670-201810217-UG
- ESXi670-201810218-UG
- ESXi670-201810219-UG
- ESXi670-201810220-UG
- ESXi670-201810221-UG
- ESXi670-201810222-UG
- ESXi670-201810223-UG
- ESXi670-201810224-UG
- ESXi670-201810225-UG
- ESXi670-201810226-UG
- ESXi670-201810227-UG
- ESXi670-201810228-UG
- ESXi670-201810229-UG
- ESXi670-201810230-UG
- ESXi670-201810231-UG
- ESXi670-201810232-UG
- ESXi670-201810233-UG
- ESXi670-201810234-UG
- ESXi670-201810101-SG
- ESXi670-201810102-SG
- ESXi670-201810103-SG
- ESXi-6.7.0-20181002001-standard
- ESXi-6.7.0-20181002001-no-tools
- ESXi-6.7.0-20181001001s-standard
- ESXi-6.7.0-20181001001s-no-tools
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 1220910, 2036262, 2036302, 2039186, 2046226, 2057603, 2058908, 2066026, 2071482, 2072977, 2078138, 2078782, 2078844, 2079807, 2080427, 2082405, 2083581, 2084722, 2085117, 2086803, 2086807, 2089047, 2096126, 2096312, 2096947, 2096948, 2097791, 2098170, 2098868, 2103579, 2103981, 2106747, 2107087, 2107333, 2110971, 2118588, 2119610, 2119663, 2120346, 2126919, 2128933, 2129130, 2129181, 2131393, 2131407, 2133153, 2133588, 2136004, 2137261, 2139127, 2145089, 2146206, 2146535, 2149518, 2152380, 2154913, 2156841, 2157501, 2157817, 2163734, 2165281, 2165537, 2165567, 2166114, 2167098, 2167878, 2173810, 2186253, 2187008 |
Numéros CVE | S.O. |
Ce correctif met à jour les VIB esx-base, esx-update, vsan
et vsanhealth
pour résoudre les problèmes suivants :
- PR 2084722 : Si vous supprimez le dossier de bundle de support d'une machine virtuelle d'un hôte ESXi, le service hostd peut échouer
Si vous supprimez manuellement le dossier de bundle de support d'une machine virtuelle téléchargé dans le répertoire
/scratch/downloads
d'un hôte ESXi, le service hostd peut échouer. Cet échec se produit lorsque hostd tente automatiquement de supprimer les dossiers dans le répertoire/scratch/downloads
une heure après la création des fichiers.Ce problème est résolu dans cette version.
- PR 2083581 : Vous ne pourrez peut-être pas utiliser un lecteur de carte à puce comme périphérique de relais à l'aide de la fonctionnalité Support vMotion lorsqu'un périphérique est connecté
Si vous modifiez le fichier de configuration d'un hôte ESXi pour activer un lecteur de carte à puce comme périphérique de relais, vous ne pourrez peut-être pas utiliser le lecteur si vous avez également activé la fonctionnalité Support vMotion alors qu'un périphérique est connecté.
Ce problème est résolu dans cette version.
- PR 2058908 : Les journaux de VMkernel dans un environnement VMware vSAN peuvent être saturés par le message Unable to register file system
Dans les environnements vSAN, les journaux de VMkernel qui enregistrent les activités relatives aux machines virtuelles et à ESXi peuvent être saturés par le message
Unable to register file system.
Ce problème est résolu dans cette version.
- PR 2106747 : vSphere Web Client peut afficher une allocation de stockage incorrecte après une augmentation de la taille de disque d'une machine virtuelle
Si vous utilisez vSphere Web Client pour augmenter la taille de disque d'une machine virtuelle, vSphere Web Client peut ne pas refléter entièrement la nouvelle configuration et afficher la même allocation de stockage pour la machine virtuelle.
Ce problème est résolu dans cette version.
- PR 2089047 : L'utilisation de l'option d'extension de variable Windows dans les Services de déploiement Windows (WDS) sur les machines virtuelles avec le microprogramme EFI peut ralentir le démarrage avec PXE
Si vous tentez de démarrer avec PXE une machine virtuelle qui utilise un microprogramme EFI, avec un adaptateur réseau vmxnet3 et WDS, et que vous n'avez pas désactivé l'option d'extension de variable Windows dans WDS, la machine virtuelle peut démarrer très lentement.
Ce problème est résolu dans cette version.
- PR 2103579 : Les périphériques Apple avec une version d'iOS ultérieure à iOS 11 ne peuvent pas se connecter aux machines virtuelles avec une version d'OS X ultérieure à OS X 10.12
En raison de problèmes avec les dispositifs USB d'Apple, les périphériques avec une version d'iOS ultérieure à iOS 11 ne peuvent pas se connecter aux machines virtuelles avec une version d'OS X ultérieure à OS X 10.12.
Ce problème est résolu dans cette version. Pour activer la connexion dans les versions antérieures d'ESXi, ajoutez
usb.quirks.darwinVendor45 = TRUE
comme nouvelle option au fichier de configuration.vmx
. - PR 2096126 : L'application d'un profil d'hôte avec Stateful Install activé sur un hôte ESXi 6.7 à l'aide de vSphere Auto Deploy peut échouer
Si vous activez la fonctionnalité Stateful Install sur un profil d'hôte et que la carte réseau VMkernel est connectée à un commutateur virtuel distribué, l'application du profil d'hôte sur un autre hôte ESXi 6.7 à l'aide de vSphere Auto Deploy peut échouer pendant un démarrage à l'aide de PXE. L'hôte reste en mode de maintenance.
Ce problème est résolu dans cette version.
- PR 2072977 : La consolidation du disque de machine virtuelle peut échouer si la machine virtuelle a des snapshots pris avec Content Based Read Cache (CBRC) activé, puis que la fonctionnalité est désactivée
Si une machine virtuelle a des snapshots pris à l'aide de CBRC, puis que CBRC est désactivé, les opérations de consolidation de disque peuvent échouer avec une erreur
Un paramètre spécifié n'est pas correct : spec.deviceChange.device
en raison d'un fichier de synthèse supprimé une fois CBRC désactivé. Une alerteLa consolidation des disques de machine virtuelle est nécessaire.
s'affiche jusqu'à ce que le problème soit résolu. Ce correctif empêche le problème, mais il continue d'exister pour les machines virtuelles qui ont des snapshots pris avec la fonctionnalité CBRC activée, puis désactivée ultérieurement.Ce problème est résolu dans cette version.
- PR 2107087 : Un hôte ESXi peut échouer avec un écran de diagnostic violet
Un hôte ESXi peut échouer avec un écran de diagnostic violet en raison d'un problème d'allocation de mémoire.
Ce problème est résolu dans cette version.
- PR 2066026 : L'utilitaire esxtop peut signaler des statistiques incorrectes pour DAVG/cmd et KAVG/cmd sur les LUN pris en charge par VAAI
En raison d'une erreur de calcul dans le noyau VMkernel, l'utilitaire
esxtop
signale des statistiques incorrectes pour la latence moyenne de périphérique par commande (DAVG/cmd) et la latence moyenne d'ESXi VMkernel par commande (KAVG/cmd) sur les LUN avec VMware vSphere Storage APIs - Array Integration (VAAI).Ce problème est résolu dans cette version.
- PR 2036262 : Des règles de réclamation doivent être ajoutées manuellement à ESXi pour les modèles de baie de stockage DELL MD suivants : MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf et MD38xxi
Ce correctif définit Storage Array Type Plug-in (SATP) sur
VMW_SATP_ALUA
, la règle de sélection de chemin d'accès (PSP, Path Selection Policy) surVMW_PSP_RR
et les options de réclamation surtpgs_on
comme valeurs par défaut pour les modèles de baies de stockage DELL MD suivants : MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf et MD38xxi.Ce problème est résolu dans cette version.
- PR 2082405 : Une machine virtuelle ne peut pas se connecter à un groupe de ports distribué après une migration à froid ou un basculement VMware vSphere High Availability
Après une migration à froid ou un basculement vSphere High Availability, une machine virtuelle peut ne pas se connecter à un groupe de ports distribués, car le port a été supprimé avant de mettre la machine virtuelle sous tension.
Ce problème est résolu dans cette version.
- PR 2078782 : Les commandes d'E/S peuvent échouer avec l'erreur CHAMP NON VALIDE DANS CDB
Les hôtes ESXi peuvent ne pas refléter le paramètre
LONGUEUR DE TRANSFERT MAXIMALE
signalé par le périphérique SCSI dans la page VPD des limites de bloc. Par conséquent, les commandes d'E/S émises avec une taille de transfert supérieure à la limite peuvent échouer avec une entrée de journal semblable à celles-ci :2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
Ce problème est résolu dans cette version.
- PR 2107333 : des règles de réclamation doivent être ajoutées manuellement à ESXi pour les baies de stockage HITACHI OPEN-V
Ce correctif définit Storage Array Type Plug-in (SATP) sur
VMW_SATP_ALUA
, la règle de sélection de chemin d'accès (PSP, Path Selection Policy) surVMW_PSP_RR
et les options de réclamation surtpgs_on
comme valeurs par défaut pour les baies de stockage de type HITACHI OPEN-v avec prise en charge du protocole ALUA (Asymmetric Logical Unit Access).Ce correctif définit également Storage Array Type Plug-in (SATP) sur
VMW_SATP_DEFAULT_AA
, la règle de sélection de chemin d'accès (PSP) surVMW_PSP_RR
et les options de réclamation surtpgs_off
comme valeurs par défaut pour les baies de stockage de type HITACHI OPEN-v sans prise en charge du protocole ALUA.Ce problème est résolu dans cette version.
- PR 2078138 : le processus de sauvegarde d'une machine virtuelle avec un système d'exploitation invité Windows Server peut échouer, car le disque de snapshot mis au repos ne peut pas être ajouté à chaud sur une machine virtuelle de proxy qui est activée pour CBRC
Si la machine virtuelle cible et la machine virtuelle du proxy sont activées pour CBRC, le disque de snapshot mis au repos ne peut pas être ajouté à chaud sur la machine virtuelle du proxy, car le résumé du disque de snapshot dans la machine virtuelle cible est désactivé pendant la création du snapshot. Par conséquent, le processus de sauvegarde de la machine virtuelle échoue.
Ce problème est résolu dans cette version.
- PR 2098868 : Les appels à l'objet géré HostImageConfigManager peuvent entraîner l'augmentation de l'activité du journal dans le fichier syslog.log
Le fichier
syslog.log
peut être rempli à plusieurs reprises par des messages relatifs aux appels à l'objet géréHostImageConfigManager
.Ce problème est résolu dans cette version.
- PR 2096312 : pendant l'extension de la partition du vidage mémoire d'un hôte ESXi, des rapports vCenter Server peuvent avertir qu'aucune cible de vidage mémoire n'est configurée
Pendant l'extension de la partition du vidage mémoire d'un hôte ESXi, des rapports vCenter Server peuvent avertir qu'aucune cible de vidage mémoire n'est configurée, car avant d'augmenter la taille de la partition, la partition du vidage mémoire existante est temporairement désactivée.
Ce problème est résolu dans cette version. Pour vCenter Server 6.7.0, corrigez ce problème en exécutant la ligne de code suivante :
# /bin/esxcfg-dumppart -C -D active --stdout 2> /dev/null
- PR 2057603 : Un hôte ESXi peut échouer avec un écran de diagnostic violet lors de l'arrêt ou de la mise hors tension des machines virtuelles si vous utilisez EMC RecoverPoint
En raison d'une condition de concurrence dans VSCSI, si vous utilisez EMC RecoverPoint, un hôte ESXi peut échouer avec un écran de diagnostic violet pendant l'arrêt ou la mise hors tension d'une machine virtuelle.
Ce problème est résolu dans cette version.
- PR 2039186 : Les métadonnées de VMware vSphere Virtual Volumes peuvent ne pas être mises à jour avec les machines virtuelles associées et rendre impossible l'identification des conteneurs de disque virtuel
Les vSphere Virtual Volumes avec la clé de métadonnées
VMW_VVolType
définie surAutre
et la clé de métadonnéesVMW_VVolTypeHint
définie surSidecar
peuvent ne pas pouvoir utiliser la clé de métadonnéesVMW_VmID
sur les machines virtuelles associées et ne peuvent pas être suivies au moyen des ID.Ce problème est résolu dans cette version.
- PR 2036302 : Les baies SolidFire peuvent ne pas enregistrer des performances optimales sans une nouvelle configuration des règles de réclamation SATP
Ce correctif définit les règles de réclamation Storage Array Type Plugin (SATP) pour les baies de stockage Solidfire SSD SAN sur
VMW_SATP_DEFAULT_AA
et la règle de sélection de chemin d'accès (PSP, Path Selection Policy) surVMW_PSP_RR
avec 10 opérations d'E/S par seconde par défaut pour obtenir des performances optimales.Ce problème est résolu dans cette version.
- PR 2112769 : Après le redémarrage rapide d'un système avec un contrôleur LSI ou le rechargement d'un pilote LSI, des banques de données peuvent devenir inaccessibles ou cesser de répondre
Un redémarrage rapide d'un système avec un contrôleur LSI ou un rechargement d'un pilote LSI, tel que lsi_mr3, peut placer les disques derrière le contrôleur LSI dans un état hors ligne. Le microprogramme du contrôleur LSI envoie une commande
SCSI STOP UNIT
au cours du déchargement, mais une commandeSCSI START UNIT
correspondante peut ne pas être émise durant le rechargement. Si les disques sont mis hors ligne, toutes les banques de données hébergées sur ces disques cessent de répondre ou deviennent inaccessibles.Ce problème est résolu dans cette version.
- PR 2119610 : La migration d'une machine virtuelle avec un commutateur de périphérique de système de fichiers (FDS) sur une banque de données vSphere Virtual Volumes à l'aide de VMware vSphere vMotion peut entraîner plusieurs problèmes
Si vous utilisez vSphere vMotion pour migrer une machine virtuelle avec des filtres de périphérique de fichier à partir d'une banque de données vSphere Virtual Volumes vers un autre hôte, et que Changed Block Tracking (CBT), VMware vSphere Flash Read Cache (VFRC) ou les filtres d'E/S sont activés sur la machine virtuelle, la migration peut entraîner des problèmes avec l'une des fonctionnalités. Pendant la migration, les filtres de périphérique de fichier peuvent ne pas être correctement transférés sur l'hôte. Par conséquent, vous pouvez observer des sauvegardes incrémentielles corrompues dans CBT, une dégradation des performances de VFRC et des filtres d'E/S de cache, une réplication corrompue des filtres d'E/S et un disque endommagé, lorsque les filtres d'E/S de cache sont configurés en mode d'écriture. Des problèmes peuvent également se produire avec le chiffrement de machine virtuelle.
Ce problème est résolu dans cette version.
- PR 2128933 : Les E/S envoyées vers un snapshot VMFSsparse peuvent échouer sans erreur
Si une machine virtuelle se trouve sur un snapshot VMFSsparse, les E/S émises vers la machine virtuelle peuvent être traitées uniquement partiellement au niveau de VMFSsparse, mais les couches supérieures, telles que les filtres d'E/S, peuvent supposer que le transfert a réussi. Cela peut entraîner l'incohérence des données. Ce correctif définit un état d'erreur transitoire pour référence à partir de couches supérieures si une E/S est effectuée.
Ce problème est résolu dans cette version.
- PR 2046226 : Des commandes SCSI INQUIRY sur des LUN Raw Device Mapping (RDM) peuvent renvoyer des données à partir du cache au lieu d'interroger le LUN
Des données SCSI INQUIRY sont mises en cache au niveau de la couche Architecture de stockage enfichable (PSA, Pluggable Storage Architecture) pour les LUN RDM et la réponse pour les commandes SCSI INQUIRY suivantes peut être renvoyée à partir du cache au lieu d'interroger le LUN. Pour éviter l'extraction des données SCSI INQUIRY mises en cache, outre la modification du fichier
.vmx
d'une machine virtuelle avec RDM, ESXi 6.7 Update 1 vous permet d'ignorer SCSI INQUIRY également à l'aide de la commande ESXCLIesxcli storage core device inquirycache set --device <id périphérique> --ignore true.
Avec l'option ESXCLI, un redémarrage de la machine virtuelle n'est pas nécessaire.
Ce problème est résolu dans cette version.
- PR 2133588 : Des règles de réclamation doivent être ajoutées manuellement à l'instance d'ESXi pour les baies de stockage Tegile IntelliFlash
Ce correctif définit Storage Array Type Plugin (SATP) sur
VMW_SATP_ALUA
, la règle de sélection de chemin d'accès (PSP) surVMW_PSP_RR
et les options de réclamation surtpgs_on
en tant que valeurs par défaut pour les baies de stockage Tegile IntelliFlash avec prise en charge du protocole ALUA (Asymmetric Logical Unit Access). Le correctif définit également Storage Array Type Plugin (SATP) surVMW_SATP_DEFAULT_AA
, la règle de sélection de chemin d'accès (PSP) surVMW_PSP_RR
et les options de réclamation surtpgs_off
comme valeurs par défaut pour les baies de stockage Tegile IntelliFlash sans prise en charge du protocole ALUA.Ce problème est résolu dans cette version.
- PR 2129181 : Si l'état des chemins d'accès à un LUN est modifié au cours du démarrage d'un hôte ESXi, le démarrage peut prendre plus de temps
Pendant un démarrage d'ESXi, si les commandes émises via la détection de périphériques initiale échouent avec
ASYMMETRIC ACCESS STATE CHANGE UA
, le basculement de chemin d'accès peut prendre plus de temps, car les commandes sont bloquées dans l'hôte ESXi. Cela peut ralentir le démarrage d'ESXi.
Des entrées de journal semblables à celles-ci peuvent s'afficher :2018-05-14T01:26:28.464Z cpu1:2097770)NMP: nmp_ThrottleLogForDevice:3689: Cmd 0x1a (0x459a40bfbec0, 0) to dev "eui.0011223344550003" on path "vmhba64:C0:T0:L3" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x6 0x2a 0x6. Act:FAILOVER 2018-05-14T01:27:08.453Z cpu5:2097412)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x1a, CmdSN 0x29 from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0. 2018-05-14T01:27:48.911Z cpu4:2097181)ScsiDeviceIO: 3029: Cmd(0x459a40bfd540) 0x25, CmdSN 0x2c from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0. 2018-05-14T01:28:28.457Z cpu1:2097178)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x9e, CmdSN 0x2d from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0. 2018-05-14T01:28:28.910Z cpu2:2097368)WARNING: ScsiDevice: 7641: GetDeviceAttributes during periodic probe'eui.0011223344550003': failed with I/O error
Ce problème est résolu dans cette version.
- PR 2119663 : Une banque de données VMFS6 peut signaler un message d'espace insuffisant incorrect
Une banque de données VMFS6 peut signaler par erreur un manque d'espace, en raison d'entrées de cache obsolètes. Les rapports d'allocation d'espace sont corrigés avec les mises à jour automatiques des entrées du cache, mais ce correctif empêche l'erreur même avant une mise à jour.
Ce problème est résolu dans cette version.
- PR 2129130 : Des serveurs NTP supprimés à l'aide de vSphere Web Client peuvent rester dans le fichier de configuration NTP
Si vous supprimez un serveur NTP de votre configuration à l'aide de vSphere Web Client, les paramètres du serveur peuvent rester dans le fichier
/etc/ntp.conf
.Ce problème est résolu dans cette version.
- PR 2078844 : Des machines virtuelles peuvent cesser de répondre pendant la migration si vous sélectionnez les microprocesseurs Intel Merom ou Penryn dans le menu déroulant Mode EVC de VMware
Si vous sélectionnez les microprocesseurs Intel Merom ou Penryn dans le menu déroulant Mode EVC de VMware avant la migration de machines virtuelles d'un hôte ESXi 6.0 vers un hôte ESXi 6.5 ou un hôte ESXi 6.7, les machines virtuelles peuvent cesser de répondre.
Ce problème est résolu dans cette version.
- PR 2080427 : Les événements VOB (VMkernel Observations) peuvent générer des avertissements relatifs aux performances des périphériques inutiles
Les deux événements VOB suivants peuvent être générés en raison des variations de la latence d'E/S dans une baie de stockage, mais ils ne signalent pas un réel problème dans des machines virtuelles :
- 1.
Les performances du périphérique naa.xxx se sont détériorées. La latence d'E/S est passée d'une valeur moyenne de 4 114 microsecondes à 84 518 microsecondes.
- 2.
Les performances du périphérique naa.xxx se sont améliorées. La latence d'E/S est passée de 346 115 microsecondes à 67 046 microsecondes.
Ce problème est résolu dans cette version.
- 1.
- PR 2137261 : L'exportation d'une machine virtuelle volumineuse à l'aide de VMware Host Client peut échouer
L'exportation d'une machine virtuelle volumineuse à l'aide de VMware Host Client peut échouer ou se terminer avec des fichiers VMDK incomplets, car le bail émis par la méthode
ExportVm
peut expirer avant la fin du transfert de fichier.Ce problème est résolu dans cette version.
- PR 2149518 : Le processus hostd peut échouer par intermittence en raison d'un nombre élevé de tâches de mise en réseau
Un nombre élevé de tâches de mise en réseau, en particulier plusieurs appels à
QueryNetworkHint()
, peut dépasser la limite de mémoire du processus hostd et le faire échouer par intermittence.Ce problème est résolu dans cette version.
- PR 2146535 : Les journaux de codes d'événements du microprogramme peuvent saturer le fichier vmkernel.log
Les lecteurs qui ne prennent pas en charge la page VPD des limites de bloc
0xb0
peuvent générer des journaux de code d'événement qui saturent le fichiervmkernel.log
.Ce problème est résolu dans cette version.
- PR 2071482 : L'intégration de Dell OpenManage pour VMware vCenter (OMIVV) peut échouer à identifier certains serveurs modulaires Dell depuis le contrôleur d'accès à distance Dell intégré (iDRAC)
OMIVV s'appuie sur des informations de la propriété iDRAC
hardware.systemInfo.otherIdentifyingInfo.ServiceTag
pour extraire le paramètreSerialNumber
permettant d'identifier certains serveurs modulaires Dell. Une incompatibilité dans la propriétéserviceTag
peut empêcher cette intégration.Ce problème est résolu dans cette version.
- PR 2145089 : vSphere Virtual Volumes peut cesser de répondre si une API pour le fournisseur VASA (Storage Awareness) perd les informations de liaison provenant de la base de données
vSphere Virtual Volumes peut cesser de répondre en raison d'une boucle infinie qui charge les CPU à 100 %, si un fournisseur VASA perd les informations de liaison provenant de la base de données. Hostd peut également cesser de répondre. Un message d'erreur irrécupérable peut s'afficher.
Ce problème est résolu dans cette version. Ce correctif empêche les boucles infinies en cas d'échecs de liaison de base de données.
- PR 2146206 : Les métadonnées de vSphere Virtual Volumes peuvent ne pas être disponibles pour le logiciel du fournisseur de baie de stockage
Les métadonnées de vSphere Virtual Volumes peuvent être disponibles uniquement lorsqu'une machine virtuelle commence à s'exécuter. Par conséquent, le logiciel du fournisseur de baie de stockage peut échouer à appliquer des stratégies qui affectent la disposition optimale de volumes lors de l'utilisation régulière et après un basculement.
Ce problème est résolu dans cette version. Ce correctif met à disposition les métadonnées de vSphere Virtual Volumes lorsque vSphere Virtual Volumes est configuré, mais pas lorsqu'une machine virtuelle commence à s'exécuter.
- PR 2096947 : Les appels de l'API getTaskUpdate API aux ID de tâches supprimés peuvent entraîner un débordement du journal et une consommation de bande passante de l'API supérieure
Si vous utilisez un fournisseur VASA, plusieurs appels de
getTaskUpdate
à des tâches annulées ou supprimées peuvent être visibles. Par conséquent, vous pouvez observer une consommation de bande passante VASA supérieure et un débordement du journal.Ce problème est résolu dans cette version.
- PR 2156841 : Des machines virtuelles utilisant EFI et exécutant Windows Server 2016 sur des processeurs AMD peuvent cesser de répondre lors du redémarrage
Des machines virtuelles avec une version matérielle 10 ou ultérieure, utilisant EFI et exécutant Windows Server 2016 sur des processeurs AMD, peuvent cesser de répondre lors du redémarrage. Ce problème ne se produit pas si une machine virtuelle utilise le BIOS, ou si la version matérielle est 11 ou ultérieure, ou si le système d'exploitation invité n'est pas Windows, ou encore si les processeurs sont Intel.
Ce problème est résolu dans cette version.
- PR 2163734 : L'activation de NetFlow peut entraîner un temps de réponse élevé du réseau
Si vous activez l'outil d'analyse réseau NetFlow pour échantillonner chaque paquet sur un groupe de ports vSphere Distributed Switch, en définissant le taux d'échantillonnage sur 0, la latence du réseau peut atteindre 1 000 ms au cas où les flux dépassent 1 million.
Ce problème est résolu dans cette version. Vous pouvez optimiser davantage les performances de NetFlow en définissant le paramètre
ipfixHashTableSize IPFIX
sur-p "ipfixHashTableSize=65536" -m ipfix
à l'aide de l'interface de ligne de commande. Pour terminer la tâche, redémarrez l'hôte ESXi. - PR 2136004 : En raison de tickets obsolètes se trouvant dans des disques de RAM, certains hôtes ESXi peuvent cesser de répondre
Les tickets obsolètes, qui ne sont pas supprimés avant que hostd génère un nouveau ticket, peuvent épuiser les inodes des disques de RAM. Par conséquent, certains hôtes ESXi peuvent cesser de répondre.
Ce problème est résolu dans cette version.
- PR 2152380 : L'utilitaire de ligne de commande esxtop peut ne pas afficher correctement la profondeur de file d'attente des périphériques
L'utilitaire de ligne de commande
esxtop
peut ne pas afficher une valeur à jour de la profondeur de file d'attente des périphériques si la profondeur de file d'attente du chemin du périphérique correspondant change.Ce problème est résolu dans cette version.
- PR 2133153 : La réinitialisation de la fonctionnalité de couleur verte peut ne pas fonctionner comme prévu pour les alarmes de santé du matériel
La réinitialisation manuelle des alarmes de santé du matériel pour revenir à un état normal, en sélectionnant Réinitialiser sur vert après avoir cliqué avec le bouton droit sur le panneau encadré Alarmes peut ne pas fonctionner comme prévu. Les alarmes peuvent réapparaître après 90 secondes.
Ce problème est résolu dans cette version. Avec ce correctif, vous pouvez personnaliser la durée pendant laquelle le système génère une nouvelle alarme si le problème n'est pas résolu. À l'aide de l'option avancée
esxcli system settings advanced list -o /UserVars/HardwareHeathSyncTime
, vous pouvez désactiver l'intervalle de synchronisation ou le définir sur votre heure préférée. - PR 2131393 : Des capteurs de présence dans l'onglet État du matériel peuvent afficher l'état Inconnu
Auparavant, si un composant, comme un processeur ou un ventilateur était manquant dans un système vCenter Server, les capteurs de présence affichaient l'état Inconnu. Cependant, les capteurs de présence n'ont pas d'état de santé qui leur est associé.
Ce problème est résolu dans cette version. Ce correctif filtre les composants avec l'état Inconnu.
- PR 2154913 : VMware Tools peut afficher un état incorrect si vous configurez le répertoire /productLocker sur une banque de données VMFS partagée
Si vous configurez le répertoire
/productLocker
sur une banque de données VMFS partagée, lorsque vous migrez une machine virtuelle à l'aide de vSphere vMotion, VMware Tools dans la machine virtuelle peut afficher un état incorrect non pris en charge.Ce problème est résolu dans cette version.
- PR 2137041 : Une migration vSphere vMotion chiffrée peut échouer en raison d'un espace de segment de migration insuffisant
Pour des machines virtuelles volumineuses, une migration vSphere vMotion chiffrée peut échouer en raison d'un espace de segment de migration insuffisant.
Ce problème est résolu dans cette version.
- PR 2165537 : Des machines virtuelles de proxy de sauvegarde peuvent passer à l'état non valide lors de la sauvegarde
Une machine virtuelle qui effectue des centaines d'opérations d'ajout ou de suppression de disques à chaud sans être mise hors tension ou migrée peut être arrêtée et devenir non valide. Cela affecte les solutions de sauvegarde, et la machine virtuelle de proxy de sauvegarde peut être arrêtée en raison de ce problème.
Un contenu similaire au suivant peut s'afficher dans le journal hostd :
2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171Un contenu similaire au suivant peut s'afficher dans le journal vmkernel :
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size. Cannot expand.Ce problème est résolu dans cette version.
- PR 2157501 : De fausses alarmes de santé du matériel peuvent apparaître en raison de capteurs IPMI (Intelligent Platform Management Interface) désactivés ou à l'arrêt
Des capteurs IPMI désactivés ou qui ne signalent aucune donnée peuvent générer de fausses alarmes de santé du matériel.
Ce problème est résolu dans cette version. Ce correctif permet de filtrer ce type d'alarmes.
- PR 2167878 : Un hôte ESXi peut échouer avec un écran de diagnostic violet si vous activez IPFIX dans un trafic intense continu
Lorsque vous activez IPFIX et que le trafic est intense avec différents flux, le signal de pulsation du système peut échouer à exclure le CPU d'IPFIX pendant un long moment et déclencher un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 2165567 : Les performances des opérations de vSphere vMotion longue distance à latence élevée peuvent se dégrader en raison de la limite de taille maximale de mémoire tampon du socket
Des performances médiocres des opérations de vSphere vMotion longue distance peuvent être observées à une latence élevée, telle que 100 ms et plus, avec des liaisons réseau haute vitesse, telles que 10 GbE, en raison de la limite de mémoire tampon du socket codé en dur de 16 Mo.
Ce problème est résolu dans cette version. Avec ce correctif, vous pouvez configurer le paramètre de taille maximale de mémoire tampon du socket
SB_MAX_ADJ
. - PR 2139127 : Un hôte ESXi peut échouer avec un écran de diagnostic violet lors de la mise hors tension
Un hôte ESXi peut échouer avec un écran de diagnostic violet en raison d'une condition de concurrence dans une requête par le protocole MLD (Multicast Listener Discovery) version 1 dans les environnements IPv6. Un message d'erreur semblable à celui-ci peut s'afficher :
#PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
...
0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000Ce problème est résolu dans cette version.
- PR 2082940 : Un hôte ESXi peut cesser de répondre lorsqu'un utilisateur crée et ajoute une carte vmknic dans la pile réseau vSphereProvisioning et l'utilise pour le trafic NFC
Lorsqu'un utilisateur crée et ajoute une carte réseau VMkernel dans la pile réseau vSphereProvisioning pour l'utiliser pour le trafic NFC, le démon qui gère les connexions NFC peut ne pas parvenir à nettoyer les anciennes connexions. Cela entraîne l'épuisement de la limite autorisée de processus. Par conséquent, l'hôte cesse de répondre et ne parvient pas à créer des processus pour les connexions SSH entrantes.
Ce problème est résolu dans cette version. Si vous êtes déjà confronté à ce problème, vous devez redémarrer le démon NFCD.
- PR 2157817 : Il se peut que vous ne puissiez pas créer des volumes de fichiers Flash virtuel (VFFS) à l'aide d'une licence vSphere standard
Une tentative pour créer des volumes VFFS en utilisant une licence vSphere standard peut échouer avec l'erreur
Licence non disponible pour effectuer l'opération, car la fonctionnalité vSphere Flash Read Cache n'est pas couverte par cette édition
. Ce problème est dû au fait que le système utilise des autorisations VMware vSphere Flash Read Cache pour vérifier si le provisionnement de VFFS est autorisé.Ce problème est résolu dans cette version. Étant donné que VFFS peut être utilisé en dehors de la fonctionnalité Flash Read Cache, la vérification est supprimée.
- PR 1220910 : Des verrous de multi-écriture ne peuvent pas être définis pour plus de 8 hôtes ESXi dans un environnement partagé
Dans un environnement partagé tel que les disques de mappage de périphérique brut (RDM), vous ne pouvez pas utiliser de verrous de multi-écriture pour des machines virtuelles sur plus de 8 hôtes ESXi. Si vous migrez une machine virtuelle sur un neuvième hôte, il peut échouer à se mettre sous tension avec le message d'erreur
Impossible d'ouvrir xxxx.vmdk ou l'un des snapshots dont il dépend. (Trop d'utilisateurs)
. Ce correctif rend l'option de configuration avancée/VMFS3/GBLAllowMW
visible. Vous pouvez activer ou désactiver manuellement les verrous de multi-écriture pour plus de 8 hôtes en utilisant la fonction de verrouillage basée sur la génération.Ce problème est résolu dans cette version. Pour plus de détails, consultez l'article 1034165 de la base de connaissances VMware.
- PR 2187719 : Les fournisseurs CIM tiers installés dans un hôte ESXi peuvent ne pas fonctionner correctement avec leurs applications externes
Des fournisseurs CIM tiers, par HPE et Stratus par exemple, peuvent démarrer normalement, mais peuvent manquer de certaines fonctionnalités attendues lors de l'utilisation d'applications externes.
Ce problème est résolu dans cette version.
- PR 2096948 : Un hôte ESXi peut cesser de répondre si le signal de pulsation de banque de données s'arrête prématurément lors de la fermeture de VMware vSphere VMFS
Un hôte ESXi peut cesser de répondre si le signal de pulsation de banque de données s'arrête prématurément lors de la fermeture de VMFS. Par conséquent, le gestionnaire d'affinité ne peut pas quitter normalement.
Ce problème est résolu dans cette version.
- PR 2166824 : Des systèmes de surveillance SNMP peuvent signaler des statistiques de mémoire incorrectes sur des hôtes ESXi
Des systèmes de surveillance SNMP peuvent signaler des statistiques de mémoire sur les hôtes ESXi différentes des valeurs que les commandes
free
,top
ouvmstat
signalent.Ce problème est résolu dans cette version. Le correctif aligne la formule que des agents SNMP utilisent avec les autres outils de commande de ligne de commande.
- PR 2165281 : si la cible connectée à un hôte ESXi prend en charge le protocole ALUA implicite uniquement et possède seulement des chemins d'accès inactifs, l'hôte peut échouer avec un écran de diagnostic violet au moment de la détection du périphérique
Si la cible connectée à un hôte ESXi prend en charge le protocole ALUA implicite uniquement et possède seulement des chemins d'accès inactifs, l'hôte peut échouer avec un écran de diagnostic violet au moment de la détection du périphérique en raison d'une condition de concurrence. Une trace de débogage similaire à la suivante peut apparaître :
SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807Ce problème est résolu dans cette version.
- PR 2166114 : Des E/S peuvent échouer sur certains chemins d'accès d'un périphérique en raison d'une erreur de commutateur défaillant
Des E/S peuvent échouer avec une erreur
FCP_DATA_CNT_MISMATCH
, qui se traduit enHOST_ERROR
dans l'hôte ESXi et qui indique des erreurs de lien ou des commutateurs défectueux sur certains chemins d'accès du périphérique.Ce problème est résolu dans cette version. Le correctif ajoute une option de configuration
PSPDeactivateFlakyPath
surPSP_RR
pour désactiver les chemins d'accès si des E/S échouent en continu avecHOST_ERROR
et pour permettre aux
chemins d'accès actifs de gérer les opérations. La configuration est activée par défaut avec l'option à désactiver, si elle n'est pas nécessaire. - PR 2167098 : L'option Tous chemins hors service (All Paths Down, APD) n'est pas déclenchée pour les LUN derrière la cible IBM SAN Volume Controller (SVC), même si aucun chemin ne peut servir les E/S
Dans une configuration d'ESXi avec plusieurs chemins d'accès aux LUN derrière des cibles SVC IBM, en cas de perte de connexion sur des chemins d'accès actifs et si, en même temps, les autres chemins d'accès connectés ne permettent pas de servir les E/S, l'hôte ESXi peut ne pas détecter cette condition comme APD, même si aucun chemin d'accès n'est disponible pour servir des E/S. Par conséquent, les E/S vers le périphérique ne sont pas en échec rapide.
Ce problème est résolu dans cette version. Ce correctif est désactivé par défaut. Pour activer le correctif, définissez l'option de configuration ESXi
/Scsi/ExtendAPDCondition
suresxcfg-advcfg -s 1 /Scsi/ExtendAPDCondition
. - PR 2120346 : Problème de performances réseau avec serveurs NUMA lents pour les périphériques utilisant VMware NetQueue
Un ralentissement des performances du réseau des serveurs NUMA peut se produire pour les périphériques qui utilisent VMware NetQueue, en raison d'un seuil d'épinglage. Il survient lorsque les files d'attente Rx sont épinglées à un nœud NUMA en modifiant la valeur par défaut de la configuration avancée
NetNetqNumaIOCpuPinThreshold
.Ce problème est résolu dans cette version.
- Après l'exécution de la commande de restauration du groupe de disques ESXCLI, le message d'erreur suivant peut s'afficher : Throttled : BlkAttr not ready for disk
vSAN crée des composants de l'attribut
blk
après avoir créé un groupe de disques. Si le composant de l'attributblk
est absent de l'API qui prend en charge la commandediskgroup rebuild
, le message d'avertissement suivant peut s'afficher dans le journal vmkernel :Throttled: BlkAttr not ready for disk.
Ce problème est résolu dans cette version.
- PR 2204439 : Les E/S lourdes émises vers des machines virtuelles snapshot en format SEsparse peuvent entraîner la corruption du système de fichiers du système d'exploitation invité
Les E/S lourdes émises vers des machines virtuelles snapshot en format SEsparse peuvent entraîner la corruption du système de fichiers du système d'exploitation invité, ou la corruption de données dans les applications.
Ce problème est résolu dans cette version.
- PR 1996879 : Impossible d'effectuer certaines opérations liées à l'hôte, telles que placer des hôtes en mode de maintenance
Dans les versions précédentes, vSAN Observer s'exécutait dans le groupe d'initialisation. Ce groupe peut occuper une autre mémoire de groupe et conserver la mémoire requise pour d'autres opérations liées à l'hôte. Pour résoudre le problème, vous pouvez exécuter vSAN Observer sous son propre groupe de ressources.
Ce problème est résolu dans cette version.
- PR 2000367 : L’examen de santé n'est pas disponible : Tous les hôtes se trouvent dans le même sous-réseau de réseau
Dans vSphere 6.7 Update 1, certains clusters étendus vSAN peuvent contenir des hôtes dans différents réseaux L3. Par conséquent, l’examen de santé suivant n'est plus valide et a été supprimé :
Tous les hôtes se trouvent dans le même sous-réseau de réseau.
Ce problème est résolu dans cette version.
- PR 2144043 : L’API renvoie l'exception SystemError lors de l'appel de l’API querySyncingVsanObjects sur vmodl VsanSystemEx
Vous pouvez obtenir l’exception
SystemError
lors de l'appel de l’APIquerySyncingVsanObjects
survmodl VsanSystemEx,
en raison de la sollicitation de la mémoire causée par un grand nombre d’objets de synchronisation. Un message d'erreur peut s’afficher dans le volet Tâches récentes de vSphere Client.Ce problème est résolu dans cette version.
- PR 2074369 : vSAN n’indique pas qu’un disque est dégradé même après un échec des E/S signalé sur le disque
Dans certains cas, vSAN met du temps à signaler qu’un disque est dégradé, bien que les échecs des E/S soient signalés par le disque et que vSAN ait arrêté de traiter d’autres E/S à partir de ce disque.
Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB vmw-ahci
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB vmkusb
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2095671, 2095681 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lpfc
afin de résoudre le problème suivant :
- PR 2095671 : Des hôtes ESXi peuvent cesser de répondre ou échouer avec un écran de diagnostic violet si vous annulez le mappage de LUN depuis un système de stockage EMC VPLEX
Si vous annulez le mappage de LUN depuis un système de stockage EMC VPLEX, les hôtes ESXi peuvent cesser de répondre ou échouer avec un écran de diagnostic violet. Des entrées de journal semblables à celles-ci peuvent s'afficher :
2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.
Ce problème est résolu dans cette version.
- PR 2095681 : des hôtes ESXi peuvent se déconnecter d'un système de stockage EMC VPLEX en raison d'une charge d'E/S importante
Le pilote HBA d'un hôte ESXi peut se déconnecter à partir d'un système de stockage EMC VPLEX lorsque la charge d'E/S est importante et ne pas se reconnecter lorsque des chemins d'accès d'E/S sont disponibles.
Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Modéré |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2124061 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsu-hp-hpsa-plugin
afin de résoudre le problème suivant :
- PR 2124061 : VMware vSAN avec les contrôleurs HPE ProLiant Gen9 Smart Array peut ne pas allumer les voyants du localisateur sur le bon disque
Dans un cluster vSAN avec les contrôleurs HPE ProLiant Gen9 Smart Array, tels que P440 et P840, les voyants du localisateur peuvent ne pas être allumés sur le bon périphérique en panne.
Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2095671, 2095681 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB brcmfcoe
afin de résoudre le problème suivant :
- PR 2095671 : Des hôtes ESXi peuvent cesser de répondre ou échouer avec un écran de diagnostic violet si vous annulez le mappage de LUN depuis un système de stockage EMC VPLEX
Si vous annulez le mappage de LUN depuis un système de stockage EMC VPLEX, les hôtes ESXi peuvent cesser de répondre ou échouer avec un écran de diagnostic violet. Des entrées de journal semblables à celles-ci peuvent s'afficher :
2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.
Ce problème est résolu dans cette version.
- PR 2095681 : des hôtes ESXi peuvent se déconnecter d'un système de stockage EMC VPLEX en raison d'une charge d'E/S importante
Le pilote HBA d'un hôte ESXi peut se déconnecter à partir d'un système de stockage EMC VPLEX lorsque la charge d'E/S est importante et ne pas se reconnecter lorsque des chemins d'accès d'E/S sont disponibles.
Ce problème est résolu dans cette version.
Catégorie des correctifs | Amélioration |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsu-hp-hpsa-plugin
.
ESXi 6.7 Update 1 active un plug-in LSU Microsemi Smart PQI (smartpqi) afin de prendre en charge les opérations de gestion des disques attachés sur le contrôleur HPE ProLiant Gen10 Smart Array.
Catégorie des correctifs | Amélioration |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsu-intel-vmd-plugin
.
ESXi 6.7 Update 1 vous permet d'exécuter les commandes ESXCLI de stockage suivantes pour activer le voyant d'état sur des disques SSD basés sur VMD Intel sans télécharger Intel CLI :
esxcli storage core device set -l locator -d
esxcli storage core device set -l error -d
esxcli storage core device set -l off -d.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB cpu-microcode
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB elxnet
.
Catégorie des correctifs | Amélioration |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nfnic
.
ESXi 6.7 Update 1 permet la prise en charge du pilote nfnic pour Cisco UCS Fibre Channel over Ethernet (FCoE).
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB ne1000
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nvme
.
ESXi 6.7 Update 1 ajoute la prise en charge de NGUID dans le pilote NVMe.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2112193 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsu-lsi-lsi-mr3-plugin
afin de résoudre le problème suivant :
- PR 2112193 : Un hôte ESXi et hostd peuvent cesser de répondre lors de l'utilisation du pilote lsi_mr3
Un hôte ESXi et hostd peuvent cesser de répondre en raison d'un épuisement de mémoire causé par le plug-in de fonctionnement du disque lsi_mr3.
Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB smartpqi
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nvmxnet3
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2153838 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB i40en
.
- PR 2153838 : Wake-on-LAN (WOL) peut ne pas fonctionner pour les cartes réseau de la série Intel X722 dans les réseaux IPv6
Le pilote Intel i40en natif dans ESXi peut ne pas fonctionner avec des cartes réseau de la série X722 dans des réseaux IPv6 et le service Wake-on-LAN peut échouer.
Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB ipmi-ipmi-devintf
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2142221 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB ixgben
.
- PR 2142221 : Le message d'alerte d'inactivité suivant peut apparaître : Le périphérique 10fb ne prend pas en charge l'auto-négociation de contrôle de flux
Des messages de journaux colorés
Le périphérique 10fb ne prend pas en charge l'auto-négociation de contrôle de flux
peuvent s'afficher en tant qu'alertes, mais il s'agit d'un message journal courant qui reflète l'état de la prise en charge du contrôle de flux de certaines cartes réseau. Sur certaines images OEM, ce journal peut s'afficher fréquemment, mais il n'indique aucun problème avec l'hôte ESXi.Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2106647 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB qedentv
afin de résoudre le problème suivant :
- PR 2106647 : Des adaptateurs Ethernet QLogic FastLinQ QL41xxx peuvent ne pas créer de fonctions virtuelles une fois que l'interface unique de virtualisation d'E/S racine (SR-IOV) est activée
Certains adaptateurs QLogic FastLinQ QL41xxx peuvent ne pas créer de fonctions virtuelles une fois que SR-IOV est activé sur l'adaptateur et que l'hôte est redémarré.
Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nenic
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB bnxtroce
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB ipmi-ipmi-msghandler
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB ipmi-ipmi-si-drv
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB iser
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB vmkfcoe
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsi-mr3
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsi-msgpt35
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Non |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB vmware-esx-esxcli-nvme-plugin
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2156445 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB ntg3
.
- PR 2156445 : En raison de paquets surdimensionnés, des cartes réseau peuvent utiliser le pilote ntg3 pour cesser temporairement l'envoi de paquets
Dans de rares occasions, les cartes réseau utilisant le pilote ntg3, telles que les cartes Broadcom BCM5719 et 5720 GbE, peuvent cesser temporairement l'envoi de paquets après un échec de la tentative d'envoyer un paquet dépassant la taille limite. Le pilote ntg3, version 4.1.3.2 résout ce problème.
Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nhpsa
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsi-msgpt3
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsi-msgpt2
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB mtip32xx-native
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2093391, 2099951, 2093433, 2098003, 2155702 |
Numéros CVE | CVE-2018-6974 |
Ce correctif met à jour les VIB esx-base, vsan
et vsanhealth
pour résoudre les problèmes suivants :
- Mise à jour de la bibliothèque libxml2
La bibliothèque ESXi userworld libxml2 est mise à jour vers la version 2.9.7.
- Mise à jour du démon Network Time Protocol (NTP)
Le démon NTP est mis à jour vers la version ntp-4.2.8p11.
- Mise à jour de la base de données SQLite
La base de données SQLite est mise à jour vers la version 3.23.1.
- Mise à jour de la bibliothèque libcurl
La bibliothèque ESXi userworld libcurl a été mise à jour vers libcurl-7.59.0.
- Mise à jour d'OpenSSH
OpenSSH est mis à jour vers la version 7.7p1.
- Mise à jour de la bibliothèque OpenSSL
La bibliothèque ESXi userworld OpenSSL est mise à jour vers la version openssl-1.0.2o.
- Mise à jour de la bibliothèque Python
La bibliothèque tierce Python est mise à jour vers la version 3.5.5.
ESXi contient une vulnérabilité de lecture hors limites dans le périphérique SVGA qui peut autoriser un invité à exécuter du code sur l'hôte. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2018-6974 à ce problème.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Modéré |
Redémarrage de l'hôte requis | Non |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB tools-light
.
L'image ISO de Windows préalable à Vista pour VMware Tools n'est plus fournie avec ESXi. L'image ISO de Windows préalable à Vista est disponible au téléchargement pour les utilisateurs qui en ont besoin. Pour obtenir des informations sur le téléchargement, consultez la page Téléchargement de produits.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Non |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB esx-ui
.
Nom du profil | ESXi-6.7.0-20181002001-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 16 octobre 2018 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 1220910 , 2036262 , 2036302 , 2039186 , 2046226 , 2057603 , 2058908 , 2066026 , 2071482 , 2072977 , 2078138 , 2078782 , 2078844 , 2079807 , 2080427 , 2082405 , 2083581 , 2084722 , 2085117 , 2086803 , 2086807 , 2089047 , 2096126 , 2096312 , 2096947 , 2096948 , 2097791 , 2098170 , 2098868 , 2103579 , 2103981 , 2106747 , 2107087 , 2107333 , 2110971 , 2118588 , 2119610 , 2119663 , 2120346 , 2126919 , 2128933 , 2129130 , 2129181 , 2131393 , 2131407 , 2133153 , 2133588 , 2136004 , 2137261 , 2139127 , 2145089 , 2146206 , 2146535 , 2149518 , 2152380 , 2154913 , 2156841 , 2157501 , 2157817 , 2163734 , 2165281 , 2165537 , 2165567 , 2166114 , 2167098 , 2167878 , 2173810 , 2186253 , 2187008 , 2204439 , 2095671 , 2095681 , 2124061 , 2095671 , 2095681 , 2093493 , 2103337 , 2112361 , 2099772 , 2137374 , 2112193 , 2153838 , 2142221 , 2106647 , 2137374 , 2156445 |
Numéros CVE associés | S/O |
- Ce correctif met à jour les problèmes suivants :
-
Si vous supprimez manuellement le dossier de bundle de support d'une machine virtuelle téléchargé dans le répertoire
/scratch/downloads
d'un hôte ESXi, le service hostd peut échouer. Cet échec se produit lorsque hostd tente automatiquement de supprimer les dossiers dans le répertoire/scratch/downloads
une heure après la création des fichiers. -
Si vous modifiez le fichier de configuration d'un hôte ESXi pour activer un lecteur de carte à puce comme périphérique de relais, vous ne pourrez peut-être pas utiliser le lecteur si vous avez également activé la fonctionnalité Support vMotion alors qu'un périphérique est connecté.
-
Dans les environnements vSAN, les journaux de VMkernel qui enregistrent les activités relatives aux machines virtuelles et à ESXi peuvent être saturés par le message
Unable to register file system.
-
Si vous utilisez vSphere Web Client pour augmenter la taille de disque d'une machine virtuelle, vSphere Web Client peut ne pas refléter entièrement la nouvelle configuration et afficher la même allocation de stockage pour la machine virtuelle.
-
Si vous tentez de démarrer avec PXE une machine virtuelle qui utilise un microprogramme EFI, avec un adaptateur réseau vmxnet3 et WDS, et que vous n'avez pas désactivé l'option d'extension de variable Windows dans WDS, la machine virtuelle peut démarrer très lentement.
-
En raison de problèmes avec les dispositifs USB d'Apple, les périphériques avec une version d'iOS ultérieure à iOS 11 ne peuvent pas se connecter aux machines virtuelles avec une version d'OS X ultérieure à OS X 10.12.
-
Si vous activez la fonctionnalité Stateful Install sur un profil d'hôte et que la carte réseau VMkernel est connectée à un commutateur virtuel distribué, l'application du profil d'hôte sur un autre hôte ESXi 6.7 à l'aide de vSphere Auto Deploy peut échouer pendant un démarrage à l'aide de PXE. L'hôte reste en mode de maintenance.
-
Si une machine virtuelle a des snapshots pris à l'aide de CBRC, puis que CBRC est désactivé, les opérations de consolidation de disque peuvent échouer avec une erreur
Un paramètre spécifié n'est pas correct : spec.deviceChange.device
en raison d'un fichier de synthèse supprimé une fois CBRC désactivé. Une alerteLa consolidation des disques de machine virtuelle est nécessaire.
s'affiche jusqu'à ce que le problème soit résolu. Ce correctif empêche le problème, mais il continue d'exister pour les machines virtuelles qui ont des snapshots pris avec la fonctionnalité CBRC activée, puis désactivée ultérieurement. -
Un hôte ESXi peut échouer avec un écran de diagnostic violet en raison d'un problème d'allocation de mémoire.
-
En raison d'une erreur de calcul dans le noyau VMkernel, l'utilitaire
esxtop
signale des statistiques incorrectes pour la latence moyenne de périphérique par commande (DAVG/cmd) et la latence moyenne d'ESXi VMkernel par commande (KAVG/cmd) sur les LUN avec VMware vSphere Storage APIs - Array Integration (VAAI). -
Ce correctif définit Storage Array Type Plug-in (SATP) sur
VMW_SATP_ALUA
, la règle de sélection de chemin d'accès (PSP, Path Selection Policy) surVMW_PSP_RR
et les options de réclamation surtpgs_on
comme valeurs par défaut pour les modèles de baies de stockage DELL MD suivants : MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf et MD38xxi. -
Après une migration à froid ou un basculement vSphere High Availability, une machine virtuelle peut ne pas se connecter à un groupe de ports distribués, car le port a été supprimé avant de mettre la machine virtuelle sous tension.
-
Les hôtes ESXi peuvent ne pas refléter le paramètre
LONGUEUR DE TRANSFERT MAXIMALE
signalé par le périphérique SCSI dans la page VPD des limites de bloc. Par conséquent, les commandes d'E/S émises avec une taille de transfert supérieure à la limite peuvent échouer avec une entrée de journal semblable à celles-ci :2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
-
Ce correctif définit Storage Array Type Plug-in (SATP) sur
VMW_SATP_ALUA
, la règle de sélection de chemin d'accès (PSP, Path Selection Policy) surVMW_PSP_RR
et les options de réclamation surtpgs_on
comme valeurs par défaut pour les baies de stockage de type HITACHI OPEN-v avec prise en charge du protocole ALUA (Asymmetric Logical Unit Access).Ce correctif définit également Storage Array Type Plug-in (SATP) sur
VMW_SATP_DEFAULT_AA
, la règle de sélection de chemin d'accès (PSP) surVMW_PSP_RR
et les options de réclamation surtpgs_off
comme valeurs par défaut pour les baies de stockage de type HITACHI OPEN-v sans prise en charge du protocole ALUA. -
Si la machine virtuelle cible et la machine virtuelle du proxy sont activées pour CBRC, le disque de snapshot mis au repos ne peut pas être ajouté à chaud sur la machine virtuelle du proxy, car le résumé du disque de snapshot dans la machine virtuelle cible est désactivé pendant la création du snapshot. Par conséquent, le processus de sauvegarde de la machine virtuelle échoue.
-
Le fichier
syslog.log
peut être rempli à plusieurs reprises par des messages relatifs aux appels à l'objet géréHostImageConfigManager
. -
Pendant l'extension de la partition du vidage mémoire d'un hôte ESXi, des rapports vCenter Server peuvent avertir qu'aucune cible de vidage mémoire n'est configurée, car avant d'augmenter la taille de la partition, la partition du vidage mémoire existante est temporairement désactivée.
-
En raison d'une condition de concurrence dans VSCSI, si vous utilisez EMC RecoverPoint, un hôte ESXi peut échouer avec un écran de diagnostic violet pendant l'arrêt ou la mise hors tension d'une machine virtuelle.
-
Les vSphere Virtual Volumes avec la clé de métadonnées
VMW_VVolType
définie surAutre
et la clé de métadonnéesVMW_VVolTypeHint
définie surSidecar
peuvent ne pas pouvoir utiliser la clé de métadonnéesVMW_VmID
sur les machines virtuelles associées et ne peuvent pas être suivies au moyen des ID. -
Ce correctif définit les règles de réclamation Storage Array Type Plugin (SATP) pour les baies de stockage Solidfire SSD SAN sur
VMW_SATP_DEFAULT_AA
et la règle de sélection de chemin d'accès (PSP, Path Selection Policy) surVMW_PSP_RR
avec 10 opérations d'E/S par seconde par défaut pour obtenir des performances optimales. -
Un redémarrage rapide d'un système avec un contrôleur LSI ou un rechargement d'un pilote LSI, tel que lsi_mr3, peut placer les disques derrière le contrôleur LSI dans un état hors ligne. Le microprogramme du contrôleur LSI envoie une commande
SCSI STOP UNIT
au cours du déchargement, mais une commandeSCSI START UNIT
correspondante peut ne pas être émise durant le rechargement. Si les disques sont mis hors ligne, toutes les banques de données hébergées sur ces disques cessent de répondre ou deviennent inaccessibles. -
Si vous utilisez vSphere vMotion pour migrer une machine virtuelle avec des filtres de périphérique de fichier à partir d'une banque de données vSphere Virtual Volumes vers un autre hôte, et que Changed Block Tracking (CBT), VMware vSphere Flash Read Cache (VFRC) ou les filtres d'E/S sont activés sur la machine virtuelle, la migration peut entraîner des problèmes avec l'une des fonctionnalités. Pendant la migration, les filtres de périphérique de fichier peuvent ne pas être correctement transférés sur l'hôte. Par conséquent, vous pouvez observer des sauvegardes incrémentielles corrompues dans CBT, une dégradation des performances de VFRC et des filtres d'E/S de cache, une réplication corrompue des filtres d'E/S et un disque endommagé, lorsque les filtres d'E/S de cache sont configurés en mode d'écriture. Des problèmes peuvent également se produire avec le chiffrement de machine virtuelle.
-
Si une machine virtuelle se trouve sur un snapshot VMFSsparse, les E/S émises vers la machine virtuelle peuvent être traitées uniquement partiellement au niveau de VMFSsparse, mais les couches supérieures, telles que les filtres d'E/S, peuvent supposer que le transfert a réussi. Cela peut entraîner l'incohérence des données. Ce correctif définit un état d'erreur transitoire pour référence à partir de couches supérieures si une E/S est effectuée.
-
Des données SCSI INQUIRY sont mises en cache au niveau de la couche Architecture de stockage enfichable (PSA, Pluggable Storage Architecture) pour les LUN RDM et la réponse pour les commandes SCSI INQUIRY suivantes peut être renvoyée à partir du cache au lieu d'interroger le LUN. Pour éviter l'extraction des données SCSI INQUIRY mises en cache, outre la modification du fichier
.vmx
d'une machine virtuelle avec RDM, ESXi 6.7 Update 1 vous permet d'ignorer SCSI INQUIRY également à l'aide de la commande ESXCLIesxcli storage core device inquirycache set --device <id périphérique> --ignore true.
Avec l'option ESXCLI, un redémarrage de la machine virtuelle n'est pas nécessaire.
-
Ce correctif définit Storage Array Type Plugin (SATP) sur
VMW_SATP_ALUA
, la règle de sélection de chemin d'accès (PSP) surVMW_PSP_RR
et les options de réclamation surtpgs_on
en tant que valeurs par défaut pour les baies de stockage Tegile IntelliFlash avec prise en charge du protocole ALUA (Asymmetric Logical Unit Access). Le correctif définit également Storage Array Type Plugin (SATP) surVMW_SATP_DEFAULT_AA
, la règle de sélection de chemin d'accès (PSP) surVMW_PSP_RR
et les options de réclamation surtpgs_off
comme valeurs par défaut pour les baies de stockage Tegile IntelliFlash sans prise en charge du protocole ALUA. -
Pendant un démarrage d'ESXi, si les commandes émises via la détection de périphériques initiale échouent avec
ASYMMETRIC ACCESS STATE CHANGE UA
, le basculement de chemin d'accès peut prendre plus de temps, car les commandes sont bloquées dans l'hôte ESXi. Cela peut ralentir le démarrage d'ESXi.
Des entrées de journal semblables à celles-ci peuvent s'afficher :2018-05-14T01:26:28.464Z cpu1:2097770)NMP: nmp_ThrottleLogForDevice:3689: Cmd 0x1a (0x459a40bfbec0, 0) to dev "eui.0011223344550003" on path "vmhba64:C0:T0:L3" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x6 0x2a 0x6. Act:FAILOVER 2018-05-14T01:27:08.453Z cpu5:2097412)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x1a, CmdSN 0x29 from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0. 2018-05-14T01:27:48.911Z cpu4:2097181)ScsiDeviceIO: 3029: Cmd(0x459a40bfd540) 0x25, CmdSN 0x2c from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0. 2018-05-14T01:28:28.457Z cpu1:2097178)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x9e, CmdSN 0x2d from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0. 2018-05-14T01:28:28.910Z cpu2:2097368)WARNING: ScsiDevice: 7641: GetDeviceAttributes during periodic probe'eui.0011223344550003': failed with I/O error
-
Une banque de données VMFS6 peut signaler par erreur un manque d'espace, en raison d'entrées de cache obsolètes. Les rapports d'allocation d'espace sont corrigés avec les mises à jour automatiques des entrées du cache, mais ce correctif empêche l'erreur même avant une mise à jour.
-
Si vous supprimez un serveur NTP de votre configuration à l'aide de vSphere Web Client, les paramètres du serveur peuvent rester dans le fichier
/etc/ntp.conf
. -
Si vous sélectionnez les microprocesseurs Intel Merom ou Penryn dans le menu déroulant Mode EVC de VMware avant la migration de machines virtuelles d'un hôte ESXi 6.0 vers un hôte ESXi 6.5 ou un hôte ESXi 6.7, les machines virtuelles peuvent cesser de répondre.
-
Les deux événements VOB suivants peuvent être générés en raison des variations de la latence d'E/S dans une baie de stockage, mais ils ne signalent pas un réel problème dans des machines virtuelles :
- 1.
Les performances du périphérique naa.xxx se sont détériorées. La latence d'E/S est passée d'une valeur moyenne de 4 114 microsecondes à 84 518 microsecondes.
- 2.
Les performances du périphérique naa.xxx se sont améliorées. La latence d'E/S est passée de 346 115 microsecondes à 67 046 microsecondes.
- 1.
-
L'exportation d'une machine virtuelle volumineuse à l'aide de VMware Host Client peut échouer ou se terminer avec des fichiers VMDK incomplets, car le bail émis par la méthode
ExportVm
peut expirer avant la fin du transfert de fichier. -
Un nombre élevé de tâches de mise en réseau, en particulier plusieurs appels à
QueryNetworkHint()
, peut dépasser la limite de mémoire du processus hostd et le faire échouer par intermittence. -
Les lecteurs qui ne prennent pas en charge la page VPD des limites de bloc
0xb0
peuvent générer des journaux de code d'événement qui saturent le fichiervmkernel.log
. -
OMIVV s'appuie sur des informations de la propriété iDRAC
hardware.systemInfo.otherIdentifyingInfo.ServiceTag
pour extraire le paramètreSerialNumber
permettant d'identifier certains serveurs modulaires Dell. Une incompatibilité dans la propriétéserviceTag
peut empêcher cette intégration. -
vSphere Virtual Volumes peut cesser de répondre en raison d'une boucle infinie qui charge les CPU à 100 %, si un fournisseur VASA perd les informations de liaison provenant de la base de données. Hostd peut également cesser de répondre. Un message d'erreur irrécupérable peut s'afficher.
-
Les métadonnées de vSphere Virtual Volumes peuvent être disponibles uniquement lorsqu'une machine virtuelle commence à s'exécuter. Par conséquent, le logiciel du fournisseur de baie de stockage peut échouer à appliquer des stratégies qui affectent la disposition optimale de volumes lors de l'utilisation régulière et après un basculement.
-
Si vous utilisez un fournisseur VASA, plusieurs appels de
getTaskUpdate
à des tâches annulées ou supprimées peuvent être visibles. Par conséquent, vous pouvez observer une consommation de bande passante VASA supérieure et un débordement du journal. -
Des machines virtuelles avec une version matérielle 10 ou ultérieure, utilisant EFI et exécutant Windows Server 2016 sur des processeurs AMD, peuvent cesser de répondre lors du redémarrage. Ce problème ne se produit pas si une machine virtuelle utilise le BIOS, ou si la version matérielle est 11 ou ultérieure, ou si le système d'exploitation invité n'est pas Windows, ou encore si les processeurs sont Intel.
-
Si vous activez l'outil d'analyse réseau NetFlow pour échantillonner chaque paquet sur un groupe de ports vSphere Distributed Switch, en définissant le taux d'échantillonnage sur 0, la latence du réseau peut atteindre 1 000 ms au cas où les flux dépassent 1 million.
-
Les tickets obsolètes, qui ne sont pas supprimés avant que hostd génère un nouveau ticket, peuvent épuiser les inodes des disques de RAM. Par conséquent, certains hôtes ESXi peuvent cesser de répondre.
-
L'utilitaire de ligne de commande
esxtop
peut ne pas afficher une valeur à jour de la profondeur de file d'attente des périphériques si la profondeur de file d'attente du chemin du périphérique correspondant change. -
La réinitialisation manuelle des alarmes de santé du matériel pour revenir à un état normal, en sélectionnant Réinitialiser sur vert après avoir cliqué avec le bouton droit sur le panneau encadré Alarmes peut ne pas fonctionner comme prévu. Les alarmes peuvent réapparaître après 90 secondes.
-
Auparavant, si un composant, comme un processeur ou un ventilateur était manquant dans un système vCenter Server, les capteurs de présence affichaient l'état Inconnu. Cependant, les capteurs de présence n'ont pas d'état de santé qui leur est associé.
-
Si vous configurez le répertoire
/productLocker
sur une banque de données VMFS partagée, lorsque vous migrez une machine virtuelle à l'aide de vSphere vMotion, VMware Tools dans la machine virtuelle peut afficher un état incorrect non pris en charge. -
Pour des machines virtuelles volumineuses, une migration vSphere vMotion chiffrée peut échouer en raison d'un espace de segment de migration insuffisant.
-
Une machine virtuelle qui effectue des centaines d'opérations d'ajout ou de suppression de disques à chaud sans être mise hors tension ou migrée peut être arrêtée et devenir non valide. Cela affecte les solutions de sauvegarde, et la machine virtuelle de proxy de sauvegarde peut être arrêtée en raison de ce problème.
Un contenu similaire au suivant peut s'afficher dans le journal hostd :
2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171Un contenu similaire au suivant peut s'afficher dans le journal vmkernel :
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size. Cannot expand. -
Des capteurs IPMI désactivés ou qui ne signalent aucune donnée peuvent générer de fausses alarmes de santé du matériel.
-
Lorsque vous activez IPFIX et que le trafic est intense avec différents flux, le signal de pulsation du système peut échouer à exclure le CPU d'IPFIX pendant un long moment et déclencher un écran de diagnostic violet.
-
Des performances médiocres des opérations de vSphere vMotion longue distance peuvent être observées à une latence élevée, telle que 100 ms et plus, avec des liaisons réseau haute vitesse, telles que 1 GbE et plus, en raison de la limite de mémoire tampon du socket codé en dur de 16 Mo.
-
Un hôte ESXi peut échouer avec un écran de diagnostic violet en raison d'une condition de concurrence dans une requête par le protocole MLD (Multicast Listener Discovery) version 1 dans les environnements IPv6. Un message d'erreur semblable à celui-ci peut s'afficher :
#PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
...
0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000 -
Lorsqu'un utilisateur crée et ajoute une carte réseau VMkernel dans la pile réseau vSphereProvisioning pour l'utiliser pour le trafic NFC, le démon qui gère les connexions NFC peut ne pas parvenir à nettoyer les anciennes connexions. Cela entraîne l'épuisement de la limite autorisée de processus. Par conséquent, l'hôte cesse de répondre et ne parvient pas à créer des processus pour les connexions SSH entrantes.
-
Une tentative pour créer des volumes VFFS en utilisant une licence vSphere standard peut échouer avec l'erreur
Licence non disponible pour effectuer l'opération, car la fonctionnalité vSphere Flash Read Cache n'est pas couverte par cette édition
. Ce problème est dû au fait que le système utilise des autorisations VMware vSphere Flash Read Cache pour vérifier si le provisionnement de VFFS est autorisé. -
Dans un environnement partagé tel que les disques de mappage de périphérique brut (RDM), vous ne pouvez pas utiliser de verrous de multi-écriture pour des machines virtuelles sur plus de 8 hôtes ESXi. Si vous migrez une machine virtuelle sur un neuvième hôte, il peut échouer à se mettre sous tension avec le message d'erreur
Impossible d'ouvrir xxxx.vmdk ou l'un des snapshots dont il dépend. (Trop d'utilisateurs)
. Ce correctif rend l'option de configuration avancée/VMFS3/GBLAllowMW
visible. Vous pouvez activer ou désactiver manuellement les verrous de multi-écriture pour plus de 8 hôtes en utilisant la fonction de verrouillage basée sur la génération. -
Des fournisseurs CIM tiers, par HPE et Stratus par exemple, peuvent démarrer normalement, mais peuvent manquer de certaines fonctionnalités attendues lors de l'utilisation d'applications externes.
-
Un hôte ESXi peut cesser de répondre si le signal de pulsation de banque de données s'arrête prématurément lors de la fermeture de VMFS. Par conséquent, le gestionnaire d'affinité ne peut pas quitter normalement.
-
Des systèmes de surveillance SNMP peuvent signaler des statistiques de mémoire sur les hôtes ESXi différentes des valeurs que les commandes
free
,top
ouvmstat
signalent. -
Si la cible connectée à un hôte ESXi prend en charge le protocole ALUA implicite uniquement et possède seulement des chemins d'accès inactifs, l'hôte peut échouer avec un écran de diagnostic violet au moment de la détection du périphérique en raison d'une condition de concurrence. Une trace de débogage similaire à la suivante peut apparaître :
SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807 -
L'état Conformité du cluster d'un cluster compatible vSAN peut apparaître comme Non conforme, car la vérification de conformité peut ne pas reconnaître les banques de données vSAN comme des banques de données partagées.
-
Des E/S peuvent échouer avec une erreur
FCP_DATA_CNT_MISMATCH
, qui se traduit enHOST_ERROR
dans l'hôte ESXi et qui indique des erreurs de lien ou des commutateurs défectueux sur certains chemins d'accès du périphérique. -
Dans une configuration d'ESXi avec plusieurs chemins d'accès aux LUN derrière des cibles SVC IBM, en cas de perte de connexion sur des chemins d'accès actifs et si, en même temps, les autres chemins d'accès connectés ne permettent pas de servir les E/S, l'hôte ESXi peut ne pas détecter cette condition comme APD, même si aucun chemin d'accès n'est disponible pour servir des E/S. Par conséquent, les E/S vers le périphérique ne sont pas en échec rapide.
-
Un ralentissement des performances du réseau des serveurs NUMA peut se produire pour les périphériques qui utilisent VMware NetQueue, en raison d'un seuil d'épinglage. Il survient lorsque les files d'attente Rx sont épinglées à un nœud NUMA en modifiant la valeur par défaut de la configuration avancée
NetNetqNumaIOCpuPinThreshold
. -
Certains hôtes peuvent ne pas parvenir à démarrer après la mise à niveau vers vSAN 6.7 Update 1 à partir d'une version antérieure. Ce problème se produit sur les serveurs compatibles NUMA dans un cluster vSAN avec 3, 4 ou 5 groupes de disques par hôte. L'hôte peut expirer lors de la création du dernier groupe de disques.
-
vSAN crée des composants de l'attribut
blk
après avoir créé un groupe de disques. Si le composant de l'attributblk
est absent de l'API qui prend en charge la commandediskgroup rebuild
, le message d'avertissement suivant peut s'afficher dans le journal vmkernel :Throttled: BlkAttr not ready for disk.
-
Lorsque tous les groupes de disques sont supprimés d'un cluster vSAN, vSphere Client affiche un avertissement similaire au suivant :
Le cluster VMware vSAN du centre de données n'a pas de capacité
Après que vous désactivez vSAN sur le cluster, le message d'avertissement persiste. -
Si vous annulez le mappage de LUN depuis un système de stockage EMC VPLEX, les hôtes ESXi peuvent cesser de répondre ou échouer avec un écran de diagnostic violet. Des entrées de journal semblables à celles-ci peuvent s'afficher :
2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.
-
Le pilote HBA d'un hôte ESXi peut se déconnecter à partir d'un système de stockage EMC VPLEX lorsque la charge d'E/S est importante et ne pas se reconnecter lorsque des chemins d'accès d'E/S sont disponibles.
-
Dans un cluster vSAN avec les contrôleurs HPE ProLiant Gen9 Smart Array, tels que P440 et P840, les voyants du localisateur peuvent ne pas être allumés sur le bon périphérique en panne.
-
Si vous annulez le mappage de LUN depuis un système de stockage EMC VPLEX, les hôtes ESXi peuvent cesser de répondre ou échouer avec un écran de diagnostic violet. Des entrées de journal semblables à celles-ci peuvent s'afficher :
2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.
-
Le pilote HBA d'un hôte ESXi peut se déconnecter à partir d'un système de stockage EMC VPLEX lorsque la charge d'E/S est importante et ne pas se reconnecter lorsque des chemins d'accès d'E/S sont disponibles.
-
ESXi 6.7 Update 1 active un plug-in LSU Microsemi Smart PQI (smartpqi) afin de prendre en charge les opérations de gestion des disques attachés sur le contrôleur HPE ProLiant Gen10 Smart Array.
-
ESXi 6.7 Update 1 vous permet d'exécuter les commandes ESXCLI de stockage suivantes pour activer le voyant d'état sur des disques SSD basés sur VMD Intel sans télécharger Intel CLI :
esxcli storage core device set -l locator -d
esxcli storage core device set -l error -d
esxcli storage core device set -l off -d.
- ESXi 6.7 Update 1 permet la prise en charge du pilote nfnic pour Cisco UCS Fibre Channel over Ethernet (FCoE).
- ESXi 6.7 Update 1 ajoute la prise en charge de NGUID dans le pilote NVMe.
- Un hôte ESXi et hostd peuvent cesser de répondre en raison d'un épuisement de mémoire causé par le plug-in de fonctionnement du disque lsi_mr3.
- Le pilote Intel i40en natif dans ESXi peut ne pas fonctionner avec des cartes réseau de la série X722 dans des réseaux IPv6 et le service Wake-on-LAN peut échouer.
- Des messages de journaux colorés
Le périphérique 10fb ne prend pas en charge l'auto-négociation de contrôle de flux
peuvent s'afficher en tant qu'alertes, mais il s'agit d'un message journal courant qui reflète l'état de la prise en charge du contrôle de flux de certaines cartes réseau. Sur certaines images OEM, ce journal peut s'afficher fréquemment, mais il n'indique aucun problème avec l'hôte ESXi. - Certains adaptateurs QLogic FastLinQ QL41xxx peuvent ne pas créer de fonctions virtuelles une fois que SR-IOV est activé sur l'adaptateur et que l'hôte est redémarré.
- Dans de rares occasions, les cartes réseau utilisant le pilote ntg3, telles que les cartes Broadcom BCM5719 et 5720 GbE, peuvent cesser temporairement l'envoi de paquets après un échec de la tentative d'envoyer un paquet dépassant la taille limite. Le pilote ntg3, version 4.1.3.2 résout ce problème.
-
Nom du profil | ESXi-6.7.0-20181002001-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 16 octobre 2018 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 1220910 , 2036262 , 2036302 , 2039186 , 2046226 , 2057603 , 2058908 , 2066026 , 2071482 , 2072977 , 2078138 , 2078782 , 2078844 , 2079807 , 2080427 , 2082405 , 2083581 , 2084722 , 2085117 , 2086803 , 2086807 , 2089047 , 2096126 , 2096312 , 2096947 , 2096948 , 2097791 , 2098170 , 2098868 , 2103579 , 2103981 , 2106747 , 2107087 , 2107333 , 2110971 , 2118588 , 2119610 , 2119663 , 2120346 , 2126919 , 2128933 , 2129130 , 2129181 , 2131393 , 2131407 , 2133153 , 2133588 , 2136004 , 2137261 , 2139127 , 2145089 , 2146206 , 2146535 , 2149518 , 2152380 , 2154913 , 2156841 , 2157501 , 2157817 , 2163734 , 2165281 , 2165537 , 2165567 , 2166114 , 2167098 , 2167878 , 2173810 , 2186253 , 2187008 , 2204439 , 2095671 , 2095681 , 2124061 , 2095671 , 2095681 , 2093493 , 2103337 , 2112361 , 2099772 , 2137374 , 2112193 , 2153838 , 2142221 , 2106647 , 2137374 , 2156445 |
Numéros CVE associés | S/O |
- Ce correctif met à jour les problèmes suivants :
-
Si vous supprimez manuellement le dossier de bundle de support d'une machine virtuelle téléchargé dans le répertoire
/scratch/downloads
d'un hôte ESXi, le service hostd peut échouer. Cet échec se produit lorsque hostd tente automatiquement de supprimer les dossiers dans le répertoire/scratch/downloads
une heure après la création des fichiers. -
Si vous modifiez le fichier de configuration d'un hôte ESXi pour activer un lecteur de carte à puce comme périphérique de relais, vous ne pourrez peut-être pas utiliser le lecteur si vous avez également activé la fonctionnalité Support vMotion alors qu'un périphérique est connecté.
-
Dans les environnements vSAN, les journaux de VMkernel qui enregistrent les activités relatives aux machines virtuelles et à ESXi peuvent être saturés par le message
Unable to register file system.
-
Si vous utilisez vSphere Web Client pour augmenter la taille de disque d'une machine virtuelle, vSphere Web Client peut ne pas refléter entièrement la nouvelle configuration et afficher la même allocation de stockage pour la machine virtuelle.
-
Si vous tentez de démarrer avec PXE une machine virtuelle qui utilise un microprogramme EFI, avec un adaptateur réseau vmxnet3 et WDS, et que vous n'avez pas désactivé l'option d'extension de variable Windows dans WDS, la machine virtuelle peut démarrer très lentement.
-
En raison de problèmes avec les dispositifs USB d'Apple, les périphériques avec une version d'iOS ultérieure à iOS 11 ne peuvent pas se connecter aux machines virtuelles avec une version d'OS X ultérieure à OS X 10.12.
-
Si vous activez la fonctionnalité Stateful Install sur un profil d'hôte et que la carte réseau VMkernel est connectée à un commutateur virtuel distribué, l'application du profil d'hôte sur un autre hôte ESXi 6.7 à l'aide de vSphere Auto Deploy peut échouer pendant un démarrage à l'aide de PXE. L'hôte reste en mode de maintenance.
-
Si une machine virtuelle a des snapshots pris à l'aide de CBRC, puis que CBRC est désactivé, les opérations de consolidation de disque peuvent échouer avec une erreur
Un paramètre spécifié n'est pas correct : spec.deviceChange.device
en raison d'un fichier de synthèse supprimé une fois CBRC désactivé. Une alerteLa consolidation des disques de machine virtuelle est nécessaire.
s'affiche jusqu'à ce que le problème soit résolu. Ce correctif empêche le problème, mais il continue d'exister pour les machines virtuelles qui ont des snapshots pris avec la fonctionnalité CBRC activée, puis désactivée ultérieurement. -
Un hôte ESXi peut échouer avec un écran de diagnostic violet en raison d'un problème d'allocation de mémoire.
-
En raison d'une erreur de calcul dans le noyau VMkernel, l'utilitaire
esxtop
signale des statistiques incorrectes pour la latence moyenne de périphérique par commande (DAVG/cmd) et la latence moyenne d'ESXi VMkernel par commande (KAVG/cmd) sur les LUN avec VMware vSphere Storage APIs - Array Integration (VAAI). -
Ce correctif définit Storage Array Type Plug-in (SATP) sur
VMW_SATP_ALUA
, la règle de sélection de chemin d'accès (PSP, Path Selection Policy) surVMW_PSP_RR
et les options de réclamation surtpgs_on
comme valeurs par défaut pour les modèles de baies de stockage DELL MD suivants : MD32xx, MD32xxi, MD36xxi, MD36xxf, MD34xx, MD38xxf et MD38xxi. -
Après une migration à froid ou un basculement vSphere High Availability, une machine virtuelle peut ne pas se connecter à un groupe de ports distribués, car le port a été supprimé avant de mettre la machine virtuelle sous tension.
-
Les hôtes ESXi peuvent ne pas refléter le paramètre
LONGUEUR DE TRANSFERT MAXIMALE
signalé par le périphérique SCSI dans la page VPD des limites de bloc. Par conséquent, les commandes d'E/S émises avec une taille de transfert supérieure à la limite peuvent échouer avec une entrée de journal semblable à celles-ci :2017-01-24T12:09:40.065Z cpu6:1002438588)ScsiDeviceIO: SCSICompleteDeviceCommand:3033: Cmd(0x45a6816299c0) 0x2a, CmdSN 0x19d13f from world 1001390153 to dev "naa.514f0c5d38200035" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.
-
Ce correctif définit Storage Array Type Plug-in (SATP) sur
VMW_SATP_ALUA
, la règle de sélection de chemin d'accès (PSP, Path Selection Policy) surVMW_PSP_RR
et les options de réclamation surtpgs_on
comme valeurs par défaut pour les baies de stockage de type HITACHI OPEN-v avec prise en charge du protocole ALUA (Asymmetric Logical Unit Access).Ce correctif définit également Storage Array Type Plug-in (SATP) sur
VMW_SATP_DEFAULT_AA
, la règle de sélection de chemin d'accès (PSP) surVMW_PSP_RR
et les options de réclamation surtpgs_off
comme valeurs par défaut pour les baies de stockage de type HITACHI OPEN-v sans prise en charge du protocole ALUA. -
Si la machine virtuelle cible et la machine virtuelle du proxy sont activées pour CBRC, le disque de snapshot mis au repos ne peut pas être ajouté à chaud sur la machine virtuelle du proxy, car le résumé du disque de snapshot dans la machine virtuelle cible est désactivé pendant la création du snapshot. Par conséquent, le processus de sauvegarde de la machine virtuelle échoue.
-
Le fichier
syslog.log
peut être rempli à plusieurs reprises par des messages relatifs aux appels à l'objet géréHostImageConfigManager
. -
Pendant l'extension de la partition du vidage mémoire d'un hôte ESXi, des rapports vCenter Server peuvent avertir qu'aucune cible de vidage mémoire n'est configurée, car avant d'augmenter la taille de la partition, la partition du vidage mémoire existante est temporairement désactivée.
-
En raison d'une condition de concurrence dans VSCSI, si vous utilisez EMC RecoverPoint, un hôte ESXi peut échouer avec un écran de diagnostic violet pendant l'arrêt ou la mise hors tension d'une machine virtuelle.
-
Les vSphere Virtual Volumes avec la clé de métadonnées
VMW_VVolType
définie surAutre
et la clé de métadonnéesVMW_VVolTypeHint
définie surSidecar
peuvent ne pas pouvoir utiliser la clé de métadonnéesVMW_VmID
sur les machines virtuelles associées et ne peuvent pas être suivies au moyen des ID. -
Ce correctif définit les règles de réclamation Storage Array Type Plugin (SATP) pour les baies de stockage Solidfire SSD SAN sur
VMW_SATP_DEFAULT_AA
et la règle de sélection de chemin d'accès (PSP, Path Selection Policy) surVMW_PSP_RR
avec 10 opérations d'E/S par seconde par défaut pour obtenir des performances optimales. -
Un redémarrage rapide d'un système avec un contrôleur LSI ou un rechargement d'un pilote LSI, tel que lsi_mr3, peut placer les disques derrière le contrôleur LSI dans un état hors ligne. Le microprogramme du contrôleur LSI envoie une commande
SCSI STOP UNIT
au cours du déchargement, mais une commandeSCSI START UNIT
correspondante peut ne pas être émise durant le rechargement. Si les disques sont mis hors ligne, toutes les banques de données hébergées sur ces disques cessent de répondre ou deviennent inaccessibles. -
Si vous utilisez vSphere vMotion pour migrer une machine virtuelle avec des filtres de périphérique de fichier à partir d'une banque de données vSphere Virtual Volumes vers un autre hôte, et que Changed Block Tracking (CBT), VMware vSphere Flash Read Cache (VFRC) ou les filtres d'E/S sont activés sur la machine virtuelle, la migration peut entraîner des problèmes avec l'une des fonctionnalités. Pendant la migration, les filtres de périphérique de fichier peuvent ne pas être correctement transférés sur l'hôte. Par conséquent, vous pouvez observer des sauvegardes incrémentielles corrompues dans CBT, une dégradation des performances de VFRC et des filtres d'E/S de cache, une réplication corrompue des filtres d'E/S et un disque endommagé, lorsque les filtres d'E/S de cache sont configurés en mode d'écriture. Des problèmes peuvent également se produire avec le chiffrement de machine virtuelle.
-
Si une machine virtuelle se trouve sur un snapshot VMFSsparse, les E/S émises vers la machine virtuelle peuvent être traitées uniquement partiellement au niveau de VMFSsparse, mais les couches supérieures, telles que les filtres d'E/S, peuvent supposer que le transfert a réussi. Cela peut entraîner l'incohérence des données. Ce correctif définit un état d'erreur transitoire pour référence à partir de couches supérieures si une E/S est effectuée.
-
Des données SCSI INQUIRY sont mises en cache au niveau de la couche Architecture de stockage enfichable (PSA, Pluggable Storage Architecture) pour les LUN RDM et la réponse pour les commandes SCSI INQUIRY suivantes peut être renvoyée à partir du cache au lieu d'interroger le LUN. Pour éviter l'extraction des données SCSI INQUIRY mises en cache, outre la modification du fichier
.vmx
d'une machine virtuelle avec RDM, ESXi 6.7 Update 1 vous permet d'ignorer SCSI INQUIRY également à l'aide de la commande ESXCLIesxcli storage core device inquirycache set --device <id périphérique> --ignore true.
Avec l'option ESXCLI, un redémarrage de la machine virtuelle n'est pas nécessaire.
-
Ce correctif définit Storage Array Type Plugin (SATP) sur
VMW_SATP_ALUA
, la règle de sélection de chemin d'accès (PSP) surVMW_PSP_RR
et les options de réclamation surtpgs_on
en tant que valeurs par défaut pour les baies de stockage Tegile IntelliFlash avec prise en charge du protocole ALUA (Asymmetric Logical Unit Access). Le correctif définit également Storage Array Type Plugin (SATP) surVMW_SATP_DEFAULT_AA
, la règle de sélection de chemin d'accès (PSP) surVMW_PSP_RR
et les options de réclamation surtpgs_off
comme valeurs par défaut pour les baies de stockage Tegile IntelliFlash sans prise en charge du protocole ALUA. -
Pendant un démarrage d'ESXi, si les commandes émises via la détection de périphériques initiale échouent avec
ASYMMETRIC ACCESS STATE CHANGE UA
, le basculement de chemin d'accès peut prendre plus de temps, car les commandes sont bloquées dans l'hôte ESXi. Cela peut ralentir le démarrage d'ESXi.
Des entrées de journal semblables à celles-ci peuvent s'afficher :2018-05-14T01:26:28.464Z cpu1:2097770)NMP: nmp_ThrottleLogForDevice:3689: Cmd 0x1a (0x459a40bfbec0, 0) to dev "eui.0011223344550003" on path "vmhba64:C0:T0:L3" Failed: H:0x0 D:0x2 P:0x0 Valid sense data: 0x6 0x2a 0x6. Act:FAILOVER 2018-05-14T01:27:08.453Z cpu5:2097412)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x1a, CmdSN 0x29 from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0. 2018-05-14T01:27:48.911Z cpu4:2097181)ScsiDeviceIO: 3029: Cmd(0x459a40bfd540) 0x25, CmdSN 0x2c from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0. 2018-05-14T01:28:28.457Z cpu1:2097178)ScsiDeviceIO: 3029: Cmd(0x459a40bfbec0) 0x9e, CmdSN 0x2d from world 0 to dev "eui.0011223344550003" failed H:0x5 D:0x0 P:0x0 Invalid sense data: 0x0 0x0 0x0. 2018-05-14T01:28:28.910Z cpu2:2097368)WARNING: ScsiDevice: 7641: GetDeviceAttributes during periodic probe'eui.0011223344550003': failed with I/O error
-
Une banque de données VMFS6 peut signaler par erreur un manque d'espace, en raison d'entrées de cache obsolètes. Les rapports d'allocation d'espace sont corrigés avec les mises à jour automatiques des entrées du cache, mais ce correctif empêche l'erreur même avant une mise à jour.
-
Si vous supprimez un serveur NTP de votre configuration à l'aide de vSphere Web Client, les paramètres du serveur peuvent rester dans le fichier
/etc/ntp.conf
. -
Si vous sélectionnez les microprocesseurs Intel Merom ou Penryn dans le menu déroulant Mode EVC de VMware avant la migration de machines virtuelles d'un hôte ESXi 6.0 vers un hôte ESXi 6.5 ou un hôte ESXi 6.7, les machines virtuelles peuvent cesser de répondre.
-
Les deux événements VOB suivants peuvent être générés en raison des variations de la latence d'E/S dans une baie de stockage, mais ils ne signalent pas un réel problème dans des machines virtuelles :
- 1.
Les performances du périphérique naa.xxx se sont détériorées. La latence d'E/S est passée d'une valeur moyenne de 4 114 microsecondes à 84 518 microsecondes.
- 2.
Les performances du périphérique naa.xxx se sont améliorées. La latence d'E/S est passée de 346 115 microsecondes à 67 046 microsecondes.
- 1.
-
L'exportation d'une machine virtuelle volumineuse à l'aide de VMware Host Client peut échouer ou se terminer avec des fichiers VMDK incomplets, car le bail émis par la méthode
ExportVm
peut expirer avant la fin du transfert de fichier. -
Un nombre élevé de tâches de mise en réseau, en particulier plusieurs appels à
QueryNetworkHint()
, peut dépasser la limite de mémoire du processus hostd et le faire échouer par intermittence. -
Les lecteurs qui ne prennent pas en charge la page VPD des limites de bloc
0xb0
peuvent générer des journaux de code d'événement qui saturent le fichiervmkernel.log
. -
OMIVV s'appuie sur des informations de la propriété iDRAC
hardware.systemInfo.otherIdentifyingInfo.ServiceTag
pour extraire le paramètreSerialNumber
permettant d'identifier certains serveurs modulaires Dell. Une incompatibilité dans la propriétéserviceTag
peut empêcher cette intégration. -
vSphere Virtual Volumes peut cesser de répondre en raison d'une boucle infinie qui charge les CPU à 100 %, si un fournisseur VASA perd les informations de liaison provenant de la base de données. Hostd peut également cesser de répondre. Un message d'erreur irrécupérable peut s'afficher.
-
Les métadonnées de vSphere Virtual Volumes peuvent être disponibles uniquement lorsqu'une machine virtuelle commence à s'exécuter. Par conséquent, le logiciel du fournisseur de baie de stockage peut échouer à appliquer des stratégies qui affectent la disposition optimale de volumes lors de l'utilisation régulière et après un basculement.
-
Si vous utilisez un fournisseur VASA, plusieurs appels de
getTaskUpdate
à des tâches annulées ou supprimées peuvent être visibles. Par conséquent, vous pouvez observer une consommation de bande passante VASA supérieure et un débordement du journal. -
Des machines virtuelles avec une version matérielle 10 ou ultérieure, utilisant EFI et exécutant Windows Server 2016 sur des processeurs AMD, peuvent cesser de répondre lors du redémarrage. Ce problème ne se produit pas si une machine virtuelle utilise le BIOS, ou si la version matérielle est 11 ou ultérieure, ou si le système d'exploitation invité n'est pas Windows, ou encore si les processeurs sont Intel.
-
Si vous activez l'outil d'analyse réseau NetFlow pour échantillonner chaque paquet sur un groupe de ports vSphere Distributed Switch, en définissant le taux d'échantillonnage sur 0, la latence du réseau peut atteindre 1 000 ms au cas où les flux dépassent 1 million.
-
Les tickets obsolètes, qui ne sont pas supprimés avant que hostd génère un nouveau ticket, peuvent épuiser les inodes des disques de RAM. Par conséquent, certains hôtes ESXi peuvent cesser de répondre.
-
L'utilitaire de ligne de commande
esxtop
peut ne pas afficher une valeur à jour de la profondeur de file d'attente des périphériques si la profondeur de file d'attente du chemin du périphérique correspondant change. -
La réinitialisation manuelle des alarmes de santé du matériel pour revenir à un état normal, en sélectionnant Réinitialiser sur vert après avoir cliqué avec le bouton droit sur le panneau encadré Alarmes peut ne pas fonctionner comme prévu. Les alarmes peuvent réapparaître après 90 secondes.
-
Auparavant, si un composant, comme un processeur ou un ventilateur était manquant dans un système vCenter Server, les capteurs de présence affichaient l'état Inconnu. Cependant, les capteurs de présence n'ont pas d'état de santé qui leur est associé.
-
Si vous configurez le répertoire
/productLocker
sur une banque de données VMFS partagée, lorsque vous migrez une machine virtuelle à l'aide de vSphere vMotion, VMware Tools dans la machine virtuelle peut afficher un état incorrect non pris en charge. -
Pour des machines virtuelles volumineuses, une migration vSphere vMotion chiffrée peut échouer en raison d'un espace de segment de migration insuffisant.
-
Une machine virtuelle qui effectue des centaines d'opérations d'ajout ou de suppression de disques à chaud sans être mise hors tension ou migrée peut être arrêtée et devenir non valide. Cela affecte les solutions de sauvegarde, et la machine virtuelle de proxy de sauvegarde peut être arrêtée en raison de ce problème.
Un contenu similaire au suivant peut s'afficher dans le journal hostd :
2018-06-08T10:33:14.150Z info hostd[15A03B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datatore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_ON -> VM_STATE_RECONFIGURING) ...
2018-06-08T10:33:14.167Z error hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] Could not apply pre-reconfigure domain changes: Failed to add file policies to domain :171: world ID :0:Cannot allocate memory ...
2018-06-08T10:33:14.826Z info hostd[15640B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx opID=5953cf5e-3-a90a user=vpxuser:ADMIN\admin] State Transition (VM_STATE_RECONFIGURING -> VM_STATE_ON) ...
2018-06-08T10:35:53.120Z error hostd[15A44B70] [Originator@6876 sub=Vmsvc.vm:/vmfs/volumes/datastore/path/to/proxyVM/proxyVM.vmx] Expected permission (3) for /vmfs/volumes/path/to/backupVM not found in domain 171Un contenu similaire au suivant peut s'afficher dans le journal vmkernel :
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)World: 12235: VC opID 5953cf5e-3-a90a maps to vmkernel opID 4c6a367c
2018-06-08T05:40:53.264Z cpu49:68763 opID=4c6a367c)WARNING: Heap: 3534: Heap domainHeap-54 already at its maximum size. Cannot expand. -
Des capteurs IPMI désactivés ou qui ne signalent aucune donnée peuvent générer de fausses alarmes de santé du matériel.
-
Lorsque vous activez IPFIX et que le trafic est intense avec différents flux, le signal de pulsation du système peut échouer à exclure le CPU d'IPFIX pendant un long moment et déclencher un écran de diagnostic violet.
-
Des performances médiocres des opérations de vSphere vMotion longue distance peuvent être observées à une latence élevée, telle que 100 ms et plus, avec des liaisons réseau haute vitesse, telles que 1 GbE et plus, en raison de la limite de mémoire tampon du socket codé en dur de 16 Mo.
-
Un hôte ESXi peut échouer avec un écran de diagnostic violet en raison d'une condition de concurrence dans une requête par le protocole MLD (Multicast Listener Discovery) version 1 dans les environnements IPv6. Un message d'erreur semblable à celui-ci peut s'afficher :
#PF Exception 14 in world 2098376:vmk0-rx-0 IP 0x41802e62abc1 addr 0x40
...
0x451a1b81b9d0:[0x41802e62abc1]mld_set_version@(tcpip4)#+0x161 stack: 0x430e0593c9e8
0x451a1b81ba20:[0x41802e62bb57]mld_input@(tcpip4)#+0x7fc stack: 0x30
0x451a1b81bb20:[0x41802e60d7f8]icmp6_input@(tcpip4)#+0xbe1 stack: 0x30
0x451a1b81bcf0:[0x41802e621d3b]ip6_input@(tcpip4)#+0x770 stack: 0x451a00000000 -
Lorsqu'un utilisateur crée et ajoute une carte réseau VMkernel dans la pile réseau vSphereProvisioning pour l'utiliser pour le trafic NFC, le démon qui gère les connexions NFC peut ne pas parvenir à nettoyer les anciennes connexions. Cela entraîne l'épuisement de la limite autorisée de processus. Par conséquent, l'hôte cesse de répondre et ne parvient pas à créer des processus pour les connexions SSH entrantes.
-
Une tentative pour créer des volumes VFFS en utilisant une licence vSphere standard peut échouer avec l'erreur
Licence non disponible pour effectuer l'opération, car la fonctionnalité vSphere Flash Read Cache n'est pas couverte par cette édition
. Ce problème est dû au fait que le système utilise des autorisations VMware vSphere Flash Read Cache pour vérifier si le provisionnement de VFFS est autorisé. -
Dans un environnement partagé tel que les disques de mappage de périphérique brut (RDM), vous ne pouvez pas utiliser de verrous de multi-écriture pour des machines virtuelles sur plus de 8 hôtes ESXi. Si vous migrez une machine virtuelle sur un neuvième hôte, il peut échouer à se mettre sous tension avec le message d'erreur
Impossible d'ouvrir xxxx.vmdk ou l'un des snapshots dont il dépend. (Trop d'utilisateurs)
. Ce correctif rend l'option de configuration avancée/VMFS3/GBLAllowMW
visible. Vous pouvez activer ou désactiver manuellement les verrous de multi-écriture pour plus de 8 hôtes en utilisant la fonction de verrouillage basée sur la génération. -
Des fournisseurs CIM tiers, par HPE et Stratus par exemple, peuvent démarrer normalement, mais peuvent manquer de certaines fonctionnalités attendues lors de l'utilisation d'applications externes.
-
Un hôte ESXi peut cesser de répondre si le signal de pulsation de banque de données s'arrête prématurément lors de la fermeture de VMFS. Par conséquent, le gestionnaire d'affinité ne peut pas quitter normalement.
-
Des systèmes de surveillance SNMP peuvent signaler des statistiques de mémoire sur les hôtes ESXi différentes des valeurs que les commandes
free
,top
ouvmstat
signalent. -
Si la cible connectée à un hôte ESXi prend en charge le protocole ALUA implicite uniquement et possède seulement des chemins d'accès inactifs, l'hôte peut échouer avec un écran de diagnostic violet au moment de la détection du périphérique en raison d'une condition de concurrence. Une trace de débogage similaire à la suivante peut apparaître :
SCSIGetMultipleDeviceCommands (vmkDevice=0x0, result=0x451a0fc1be98, maxCommands=1, pluginDone=<optimized out>) at bora/vmkernel/storage/device/scsi_device_io.c:2476
0x00004180171688bc in vmk_ScsiGetNextDeviceCommand (vmkDevice=0x0) at bora/vmkernel/storage/device/scsi_device_io.c:2735
0x0000418017d8026c in nmp_DeviceStartLoop (device=device@entry=0x43048fc37350) at bora/modules/vmkernel/nmp/nmp_core.c:732
0x0000418017d8045d in nmpDeviceStartFromTimer (data=..., data@entry=...) at bora/modules/vmkernel/nmp/nmp_core.c:807 -
L'état Conformité du cluster d'un cluster compatible vSAN peut apparaître comme Non conforme, car la vérification de conformité peut ne pas reconnaître les banques de données vSAN comme des banques de données partagées.
-
Des E/S peuvent échouer avec une erreur
FCP_DATA_CNT_MISMATCH
, qui se traduit enHOST_ERROR
dans l'hôte ESXi et qui indique des erreurs de lien ou des commutateurs défectueux sur certains chemins d'accès du périphérique. -
Dans une configuration d'ESXi avec plusieurs chemins d'accès aux LUN derrière des cibles SVC IBM, en cas de perte de connexion sur des chemins d'accès actifs et si, en même temps, les autres chemins d'accès connectés ne permettent pas de servir les E/S, l'hôte ESXi peut ne pas détecter cette condition comme APD, même si aucun chemin d'accès n'est disponible pour servir des E/S. Par conséquent, les E/S vers le périphérique ne sont pas en échec rapide.
-
Un ralentissement des performances du réseau des serveurs NUMA peut se produire pour les périphériques qui utilisent VMware NetQueue, en raison d'un seuil d'épinglage. Il survient lorsque les files d'attente Rx sont épinglées à un nœud NUMA en modifiant la valeur par défaut de la configuration avancée
NetNetqNumaIOCpuPinThreshold
. -
Certains hôtes peuvent ne pas parvenir à démarrer après la mise à niveau vers vSAN 6.7 Update 1 à partir d'une version antérieure. Ce problème se produit sur les serveurs compatibles NUMA dans un cluster vSAN avec 3, 4 ou 5 groupes de disques par hôte. L'hôte peut expirer lors de la création du dernier groupe de disques.
-
vSAN crée des composants de l'attribut
blk
après avoir créé un groupe de disques. Si le composant de l'attributblk
est absent de l'API qui prend en charge la commandediskgroup rebuild
, le message d'avertissement suivant peut s'afficher dans le journal vmkernel :Throttled: BlkAttr not ready for disk.
-
Lorsque tous les groupes de disques sont supprimés d'un cluster vSAN, vSphere Client affiche un avertissement similaire au suivant :
Le cluster VMware vSAN du centre de données n'a pas de capacité
Après que vous désactivez vSAN sur le cluster, le message d'avertissement persiste. -
Si vous annulez le mappage de LUN depuis un système de stockage EMC VPLEX, les hôtes ESXi peuvent cesser de répondre ou échouer avec un écran de diagnostic violet. Des entrées de journal semblables à celles-ci peuvent s'afficher :
2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.
-
Le pilote HBA d'un hôte ESXi peut se déconnecter à partir d'un système de stockage EMC VPLEX lorsque la charge d'E/S est importante et ne pas se reconnecter lorsque des chemins d'accès d'E/S sont disponibles.
-
Dans un cluster vSAN avec les contrôleurs HPE ProLiant Gen9 Smart Array, tels que P440 et P840, les voyants du localisateur peuvent ne pas être allumés sur le bon périphérique en panne.
-
Si vous annulez le mappage de LUN depuis un système de stockage EMC VPLEX, les hôtes ESXi peuvent cesser de répondre ou échouer avec un écran de diagnostic violet. Des entrées de journal semblables à celles-ci peuvent s'afficher :
2018-01-26T18:53:28.002Z cpu6:33514)WARNING: iodm: vmk_IodmEvent:192: vmhba1: FRAME DROP event has been observed 400 times in the last one minute.
2018-01-26T18:53:37.271Z cpu24:33058)WARNING: Unable to deliver event to user-space.
-
Le pilote HBA d'un hôte ESXi peut se déconnecter à partir d'un système de stockage EMC VPLEX lorsque la charge d'E/S est importante et ne pas se reconnecter lorsque des chemins d'accès d'E/S sont disponibles.
-
ESXi 6.7 Update 1 active un plug-in LSU Microsemi Smart PQI (smartpqi) afin de prendre en charge les opérations de gestion des disques attachés sur le contrôleur HPE ProLiant Gen10 Smart Array.
-
ESXi 6.7 Update 1 vous permet d'exécuter les commandes ESXCLI de stockage suivantes pour activer le voyant d'état sur des disques SSD basés sur VMD Intel sans télécharger Intel CLI :
esxcli storage core device set -l locator -d
esxcli storage core device set -l error -d
esxcli storage core device set -l off -d.
- ESXi 6.7 Update 1 permet la prise en charge du pilote nfnic pour Cisco UCS Fibre Channel over Ethernet (FCoE).
- ESXi 6.7 Update 1 ajoute la prise en charge de NGUID dans le pilote NVMe.
- Un hôte ESXi et hostd peuvent cesser de répondre en raison d'un épuisement de mémoire causé par le plug-in de fonctionnement du disque lsi_mr3.
- Le pilote Intel i40en natif dans ESXi peut ne pas fonctionner avec des cartes réseau de la série X722 dans des réseaux IPv6 et le service Wake-on-LAN peut échouer.
- Des messages de journaux colorés
Le périphérique 10fb ne prend pas en charge l'auto-négociation de contrôle de flux
peuvent s'afficher en tant qu'alertes, mais il s'agit d'un message journal courant qui reflète l'état de la prise en charge du contrôle de flux de certaines cartes réseau. Sur certaines images OEM, ce journal peut s'afficher fréquemment, mais il n'indique aucun problème avec l'hôte ESXi. - Certains adaptateurs QLogic FastLinQ QL41xxx peuvent ne pas créer de fonctions virtuelles une fois que SR-IOV est activé sur l'adaptateur et que l'hôte est redémarré.
- Dans de rares occasions, les cartes réseau utilisant le pilote ntg3, telles que les cartes Broadcom BCM5719 et 5720 GbE, peuvent cesser temporairement l'envoi de paquets après un échec de la tentative d'envoyer un paquet dépassant la taille limite. Le pilote ntg3, version 4.1.3.2 résout ce problème.
-
Nom du profil | ESXi-6.7.0-20181001001s-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 16 octobre 2018 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 1804719, 2093433, 2099951, 2168471 |
Numéros CVE associés | S/O |
- Ce correctif met à jour les problèmes suivants :
-
La bibliothèque ESXi userworld libxml2 est mise à jour vers la version 2.9.7.
-
Le démon NTP est mis à jour vers la version ntp-4.2.8p11.
-
La base de données SQLite est mise à jour vers la version 3.23.1.
-
La bibliothèque ESXi userworld libcurl a été mise à jour vers libcurl-7.59.0.
-
OpenSSH est mis à jour vers la version 7.7p1.
-
La bibliothèque ESXi userworld OpenSSL est mise à jour vers la version openssl-1.0.2o.
-
La bibliothèque tierce Python est mise à jour vers la version 3.5.5.
-
L'image ISO de Windows préalable à Vista pour VMware Tools n'est plus fournie avec ESXi. L'image ISO de Windows préalable à Vista est disponible au téléchargement pour les utilisateurs qui en ont besoin. Pour obtenir des informations sur le téléchargement, consultez la page Téléchargement de produits.
-
Nom du profil | ESXi-6.7.0-20181001001s-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 16 octobre 2018 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 1804719, 2093433, 2099951, 2168471 |
Numéros CVE associés | S/O |
- Ce correctif met à jour les problèmes suivants :
-
La bibliothèque ESXi userworld libxml2 est mise à jour vers la version 2.9.7.
-
Le démon NTP est mis à jour vers la version ntp-4.2.8p11.
-
La base de données SQLite est mise à jour vers la version 3.23.1.
-
La bibliothèque ESXi userworld libcurl a été mise à jour vers libcurl-7.59.0.
-
OpenSSH est mis à jour vers la version 7.7p1.
-
La bibliothèque ESXi userworld OpenSSL est mise à jour vers la version openssl-1.0.2o.
-
La bibliothèque tierce Python est mise à jour vers la version 3.5.5.
-
L'image ISO de Windows préalable à Vista pour VMware Tools n'est plus fournie avec ESXi. L'image ISO de Windows préalable à Vista est disponible au téléchargement pour les utilisateurs qui en ont besoin. Pour obtenir des informations sur le téléchargement, consultez la page Téléchargement de produits.
-
Problèmes connus
Les problèmes connus sont classés comme suit :
ESXi670-201810201-UG- Après avoir effectué la mise à niveau d'un hôte vers ESXi 6.7 Update 1, si vous corrigez un profil d'hôte, les vérifications de conformité peuvent échouer si l'hôte est avec des périphériques NVMe, qui prennent en charge uniquement NGUID comme identifiant de périphérique
Après avoir mis à niveau vers ESXi 6.7 Update 1 un hôte avec des périphériques NVMe, qui prennent en charge uniquement NGUID comme identifiant de périphérique, si vous essayez de corriger un profil d'hôte configuré pour la fonctionnalité Stateful Install, les vérifications de conformité peuvent échouer. Cela est dû au fait que l'identifiant de périphérique présenté par le pilote NVMe dans ESXi 6.7 Update 1 est NGUID lui-même, plutôt qu'un identifiant t10 généré par ESXi.
Solution : Mettez à jour la configuration de profil d'hôte comme suit :
- Accédez au profil d'hôte.
- Cliquez sur Copier les paramètres depuis l'hôte.
- Sélectionnez l'hôte à partir duquel vous souhaitez copier les paramètres de configuration.
- Cliquez sur OK.
- Cliquez avec le bouton droit sur l'hôte et sélectionnez Profils d'hôte > Réinitialiser les personnalisations d'hôte.
- Panne de l'hôte lors de la conversion d'un hôte de données en hôte témoin
Lorsque vous convertissez un cluster vSAN en cluster étendu, vous devez fournir un hôte témoin. Vous pouvez convertir un hôte de données en hôte témoin, mais vous devez utiliser le mode de maintenance avec migration des données complète pendant le processus. Si vous placez l'hôte en mode de maintenance, que vous activez l'option Assurer l'accessibilité, puis que vous configurez l'hôte en tant qu'hôte témoin, l'hôte peut échouer avec un écran de diagnostic violet.
Solution : Supprimez le groupe de disques sur l'hôte témoin, puis recréez le groupe de disques.
- Les paquets en monodiffusion étiquetés depuis une fonction virtuelle (FV) ne peuvent pas arriver à leur fonction physique (FP) lorsque les groupes de ports connectés à la fonction virtuelle et la fonction physique sont définis sur VGT (Virtual Guest Tagging)
Si vous configurez VGT en mode de jonction sur les groupes de ports de fonction virtuelle et de fonction physique, le trafic de monodiffusion ne peut pas passer entre la fonction virtuelle et la fonction physique.
Solution : N'utilisez pas la fonction physique pour VGT lorsque ses fonctions virtuelles sont utilisées pour VGT. Lorsque vous devez utiliser VGT sur une fonction physique et une fonction virtuelle pour une raison quelconque, la fonction virtuelle et la fonction physique doivent être sur des cartes réseau physiques différentes.
- La liaison de carte réseau physique peut être perdue après un démarrage PXE
Si la carte vmknic est connectée à un commutateur logique NSX-T avec la liaison de carte réseau physique configurée, la configuration peut être perdue après un démarrage PXE. Si un adaptateur iSCSI logiciel est configuré, une erreur de conformité d'hôte similaire à la suivante peut s'afficher :
L'adaptateur iSCSI vmhba65 n'a pas la carte réseau vmkX configurée dans le profil
.Solution : Configurez la liaison de carte réseau physique et l'adaptateur iSCSI logiciel manuellement après que l'hôte a démarré.
- L'adresse MAC du réseau de gestion vmk0 peut être supprimée lors de la correction d'un profil d'hôte
La correction d'un profil d'hôte avec une interface VMkernel créée sur un commutateur logique VMware NSX-T peut supprimer vmk0 des hôtes ESXi. Ces profils d'hôte ne peuvent pas être utilisés dans un environnement NSX-T.
Solution : Configurez les hôtes manuellement.
- Le service SNMP échoue fréquemment après la mise à niveau vers ESXi 6.7
Le service SNMP peut échouer fréquemment, à des intervalles aussi courts que 30 min, après une mise à niveau vers ESXi 6.7, si l'exécution du thread principal n'est pas terminée lorsqu'un thread enfant est appelé. Le service génère des vidages de mémoire
snmpd-zdump
. Si le service SNMP échoue, vous pouvez le redémarrer avec les commandes suivantes :esxcli system snmp set -e false
etesxcli system snmp set -e true
.Solution : aucune.
- Lors du rééquilibrage des disques, la quantité de données à déplacer affichées par le service de santé de vSAN ne correspond pas à la quantité affichée par RVC (Ruby vSphere Console)
RVC effectue un calcul approximatif pour déterminer la quantité de données à déplacer lors du rééquilibrage des disques. La valeur affichée par le service de santé vSAN est plus précise. Lors du rééquilibrage des disques, consultez le service de santé de vSAN pour vérifier la quantité de données à déplacer.
Solution : aucune.
- PR 2132792 : Un hôte avec au moins trois groupes de disques ne parvient pas à démarrer après la mise à niveau vers vSAN 6.7 Update 1
Dans certains cas, un hôte peut ne pas parvenir à démarrer après la mise à niveau vers vSAN 6.7 Update 1 à partir d'une version antérieure. Cette condition rare se produit sur les serveurs compatibles NUMA dans un cluster vSAN avec 3, 4 ou 5 groupes de disques par hôte.
Solution : si un hôte avec au moins trois groupes de disques ne parvient pas à démarrer pendant la mise à niveau vers vSAN 6.7 Update 1, modifiez la configuration d'ESXi sur chaque hôte comme suit :
Exécutez les commandes suivantes sur chaque hôte vSAN :esxcfg-advcfg --set 0 /LSOM/blPLOGRecovCacheLines
auto-backup.sh