ESXi 6.7 Update 2 | 11 avril 2019 | Build ISO 13006603 |
Contenu des notes de mise à jour
Les notes de mise à jour couvrent les sujets suivants :
- Nouveautés
- Versions antérieures d'ESXi 6.7
- Remarques relatives à la prise en charge du produit
- Correctifs contenus dans cette version
- Problèmes résolus
- Problèmes connus
Nouveautés
- Pilote natif Solarflare : ESXi 6.7 Update 2 ajoute la prise en charge du pilote natif Solarflare (sfvmk) pour périphériques adaptateurs réseau Solarflare 10G et 40G, tels que SFN8542 et SFN8522.
- Version 15 du matériel virtuel : ESXi 6.7 Update 2 introduit la version 15 du matériel virtuel qui ajoute la prise en charge de la création de machines virtuelles ayant jusqu'à 256 CPU virtuels. Pour plus d'informations, reportez-vous aux articles 1003746 et 2007240 de la base de connaissances VMware.
- Module de commande ESXCLI autonome : ESXi 6.7 Update 2 fournit un nouveau module ESXCLI autonome pour Linux, distinct du module d'installation de l'interface de ligne de commande de vSphere (vSphere CLI). ESXCLI, qui fait partie de vSphere CLI, n'est pas mis à jour pour ESXi 6.7 Update 2. Bien que le module d'installation de vSphere CLI soit obsolète pour cette version et soit toujours disponible en téléchargement, vous ne devez pas l'installer avec le nouveau module ESXCLI autonome pour Linux. Pour plus d'informations sur le téléchargement et l'installation du module ESXCLI autonome, reportez-vous à VMware {code}.
- Dans ESXi 6.7 Update 2, Side-Channel-Aware Scheduler (programmateur compatible avec le canal latéral) est mis à jour afin d'améliorer les performances de calcul des hôtes ESXi qui font l'objet d'atténuations pour contrer les vulnérabilités matérielles d'exécution spéculative. Pour plus d'informations, reportez-vous à l'article 55636 de la base de connaissances VMware.
- ESXi 6.7 Update 2 ajoute la prise en charge du traitement automatique de l'opération unmap VMFS6 sur les baies de stockage et les périphériques qui signalent aux hôtes ESXi une valeur de granularité d'opération unmap supérieure à 1 Mo. Sur les baies qui signalent une granularité optimale de 1 Mo et inférieure, l'opération unmap est prise en charge si la granularité présente un facteur de 1 Mo.
- vCenter Server 6.7 Update 2 ajoute VMFS6 à la liste des systèmes de fichiers pris en charge par vSphere On-Disk Metadata Analyzer (VOMA) pour vous permettre de détecter et de corriger les problèmes de métadonnées de volumes VMFS, de métadonnées LVM et d'incohérences de table de partition.
Versions antérieures d'ESXi 6.7
Les fonctions et problèmes connus d'ESXi sont décrits dans les notes de mise à jour de chaque version. Notes de mise à jour des versions antérieures à ESXi 6.7 :
- VMware ESXi 6.7, version de correctif ESXi670-201903001
- VMware ESXi 6.7, version de correctif ESXi670-201901001
- VMware ESXi 6.7, version de correctif ESXi670-201811001
- Notes de mise à jour de VMware ESXi 6.7 Update 1
- Notes de mise à jour de VMware vSphere 6.7
Pour plus d'informations sur l'internationalisation, la compatibilité, l'installation et la mise à niveau, ainsi que sur les composants open source, consultez les Notes de mise à jour de VMware vSphere 6.7.
Remarques relatives à la prise en charge du produit
- VMware vSphere Flash Read Cache devient obsolète. Bien que cette fonctionnalité soit toujours prise en charge dans la génération vSphere 6.7, elle sera supprimée dans une version ultérieure de vSphere. Vous pouvez également utiliser le mécanisme de mise en cache vSAN ou tout logiciel d'accélération d'E/S tiers certifié par VMware répertorié dans le Guide de compatibilité VMware.
Correctifs contenus dans cette version
Cette version contient tous les bulletins d'ESXi qui ont été publiés avant la date de publication de ce produit.
Détails de la build
Nom de fichier de téléchargement : | update-from-esxi6.7-6.7_update02.zip |
Build : | 13006603 13010696 (sécurité uniquement) |
Taille du téléchargement : | 453,0 Mo |
md5sum : |
afb6642c5f78212683d9d9a1e9dde6bc |
sha1checksum : |
783fc0a2a457677e69758969dadc6421e5a7c17a |
Redémarrage de l'hôte requis : | Oui |
Migration ou arrêt de la machine virtuelle requis : | Oui |
Bulletins
Cette version contient des bulletins généraux et de sécurité uniquement. Les bulletins de sécurité s'appliquent aux nouveaux correctifs de sécurité uniquement. Les nouveaux correctifs de bogues ne sont pas inclus, mais les correctifs de bogues des versions antérieures des correctifs et des mises à jour sont inclus.
Si l'installation de tous les nouveaux correctifs de sécurité et de bogues est requise, vous devez appliquer tous les bulletins présents dans cette version. Dans certains cas, le bulletin général remplacera le bulletin de sécurité uniquement. Cela n'est pas un problème, car le bulletin général contient les nouveaux correctifs de sécurité et de bogues.
Les bulletins de sécurité sont identifiables par leur ID de bulletin qui se termine par « SG ». Pour obtenir des informations sur la classification des correctifs et des mises à jour, consultez l'article KB 2014447.
Pour plus d'informations sur les bulletins individuels, consultez la page My VMware et la section Problèmes résolus.
ID de bulletin | Catégorie | Gravité |
ESXi670-201904201-UG | Correctif de bogues | Critique |
ESXi670-201904202-UG | Correctif de bogues | Important |
ESXi670-201904203-UG | Correctif de bogues | Important |
ESXi670-201904204-UG | Correctif de bogues | Important |
ESXi670-201904205-UG | Correctif de bogues | Important |
ESXi670-201904206-UG | Correctif de bogues | Important |
ESXi670-201904207-UG | Correctif de bogues | Modéré |
ESXi670-201904208-UG | Correctif de bogues | Important |
ESXi670-201904209-UG | Amélioration | Important |
ESXi670-201904210-UG | Amélioration | Important |
ESXi670-201904211-UG | Correctif de bogues | Critique |
ESXi670-201904212-UG | Correctif de bogues | Important |
ESXi670-201904213-UG | Correctif de bogues | Important |
ESXi670-201904214-UG | Correctif de bogues | Important |
ESXi670-201904215-UG | Correctif de bogues | Modéré |
ESXi670-201904216-UG | Correctif de bogues | Important |
ESXi670-201904217-UG | Correctif de bogues | Important |
ESXi670-201904218-UG | Correctif de bogues | Important |
ESXi670-201904219-UG | Correctif de bogues | Important |
ESXi670-201904220-UG | Correctif de bogues | Important |
ESXi670-201904221-UG | Correctif de bogues | Important |
ESXi670-201904222-UG | Correctif de bogues | Modéré |
ESXi670-201904223-UG | Correctif de bogues | Important |
ESXi670-201904224-UG | Correctif de bogues | Important |
ESXi670-201904225-UG | Amélioration | Important |
ESXi670-201904226-UG | Correctif de bogues | Important |
ESXi670-201904227-UG | Correctif de bogues | Important |
ESXi670-201904228-UG | Correctif de bogues | Important |
ESXi670-201904229-UG | Correctif de bogues | Important |
ESXi670-201904101-SG | Sécurité | Important |
ESXi670-201904102-SG | Sécurité | Important |
ESXi670-201904103-SG | Sécurité | Important |
IMPORTANT : Pour les clusters qui utilisent VMware vSAN, vous devez tout d'abord mettre à niveau le système vCenter Server. La mise à niveau d'ESXi uniquement n'est pas prise en charge.
Avant d’effectuer une mise à niveau, vérifiez toujours dans la Matrice d'interopérabilité des produits VMware les chemins de mise à niveau compatibles des versions antérieures d'ESXi et de vCenter Server vers la version actuelle.
Profils d'image
Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques.
L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.
Nom de profil d'image |
ESXi-6.7.0-20190402001-standard |
ESXi-6.7.0-20190402001-no-tools |
ESXi-6.7.0-20190401001s-standard |
ESXi-6.7.0-20190401001s-no-tools |
Problèmes résolus
Les problèmes résolus sont regroupés comme suit :
- ESXi670-201904201-UG
- ESXi670-201904202-UG
- ESXi670-201904203-UG
- ESXi670-201904204-UG
- ESXi670-201904205-UG
- ESXi670-201904206-UG
- ESXi670-201904207-UG
- ESXi670-201904208-UG
- ESXi670-201904209-UG
- ESXi670-201904210-UG
- ESXi670-201904211-UG
- ESXi670-201904212-UG
- ESXi670-201904213-UG
- ESXi670-201904214-UG
- ESXi670-201904215-UG
- ESXi670-201904216-UG
- ESXi670-201904217-UG
- ESXi670-201904218-UG
- ESXi670-201904219-UG
- ESXi670-201904220-UG
- ESXi670-201904221-UG
- ESXi670-201904222-UG
- ESXi670-201904223-UG
- ESXi670-201904224-UG
- ESXi670-201904225-UG
- ESXi670-201904226-UG
- ESXi670-201904227-UG
- ESXi670-201904228-UG
- ESXi670-201904229-UG
- ESXi670-201904101-SG
- ESXi670-201904102-SG
- ESXi670-201904103-SG
- ESXi-6.7.0-20190402001-standard
- ESXi-6.7.0-20190402001-no-tools
- ESXi-6.7.0-20190401001s-standard
- ESXi-6.7.0-20190401001s-no-tools
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2227123, 2250472, 2273186, 2282052, 2267506, 2256771, 2269616, 2250697, 2191342, 2197795, 2221935, 2193830, 2210364, 2177107, 2179263, 2185906, 2204508, 2211350, 2204204, 2226565, 2240385, 2163397, 2238134, 2213883, 2141221, 2240444, 2249713, 2184068, 2257480, 2235031, 2257354, 2212140, 2279897, 2227623, 2277648, 2221778, 2287560, 2268541, 2203837, 2236531, 2242656, 2250653, 2260748, 2256001, 2266762, 2263849, 2267698, 2271653, 2232538, 2210056, 2271322, 2272737, 2286563, 2178119, 2223879, 2221256, 2258272, 2219661, 2268826, 2224767, 2257590, 2241917, 2246891 |
Numéros CVE | S.O. |
Ce correctif met à jour les VIB esx-base, esx-update, vsan
et vsanhealth
pour résoudre les problèmes suivants :
- PR 2227123 : Des valeurs très élevées de compteurs de latence disque de lecture ou d'écriture peuvent déclencher des alarmes
Vous pouvez par intermittence voir des alarmes pour valeurs très élevées de compteurs de latence de lecture ou d'écriture de disque, telles que
datastore.totalReadLatency
etdatastore.totalWriteLatency
.Ce problème est résolu dans cette version.
- PR 2250472 : Les machines virtuelles Linux peuvent cesser de répondre lors de la mise sous tension sous certaines configurations de taille de mémoire
Lorsqu'une machine virtuelle Linux est configurée avec une taille de mémoire spécifique, telle que 2 052 Mo ou 2 060 Mo, au lieu de se mettre sous tension, elle peut afficher un écran vide.
Ce problème est résolu dans cette version.
- PR 2273186 : Un hôte ESXi peut échouer lorsque vous activez un contrôle de santé de vSphere Distributed Switch
Lorsque vous configurez le réseau et activez le contrôle de santé de vSphere Distributed Switch pour effectuer des vérifications de configuration, l'hôte ESXi peut échouer avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 2282052 : L'agent SNMP peut fournir une interruption vmwVmPoweredOn incorrecte
L'agent SNMP peut fournir une interruption
vmwVmPoweredOn
incorrecte lorsqu'une machine virtuelle est sélectionnée dans l'onglet Résumé et dans l'onglet Gestionnaire de snapshots dans vSphere Web Client.Ce problème est résolu dans cette version.
- PR 2267506 : Un hôte ESXi peut échouer avec un écran de diagnostic violet au niveau DVFilter
DVFilter peut recevoir des valeurs inattendues ou altérées dans la mémoire tampon d'anneau de mémoire partagée, ce qui entraîne le renvoi de
NULL
par la fonction interne. Si cette valeurNULL
n'est pas gérée normalement, un hôte ESXi peut échouer avec un écran de diagnostic violet au niveau DVFilter.Ce problème est résolu dans cette version.
- PR 2256771 : Vous pouvez voir un message d'événement inutile pour la connectivité réseau restaurée sur le commutateur virtuel lors de la mise sous tension ou hors tension de machines virtuelles
Dans l'onglet Événements de vSphere Client ou de vSphere Web Client, lorsque vous mettez sous tension ou hors tension des machines virtuelles, vous pouvez voir des événements similaires à
Connectivité réseau restaurée sur le commutateur virtuel XXX, groupes de ports : XXX. Carte réseau physique vmnicX active
. Lors de la vérification de l'état de la liaison montante, le rapport système peut inclure des groupes de ports qui ne sont pas affectés par l'opération de mise sous tension ou hors tension de la machine virtuelle, qui déclenche l'événement. Toutefois, l'événement n'indique pas de problème et n'appelle aucune action.Ce problème est résolu dans cette version. Le message d'événement est supprimé.
- PR 2269616 : Impossible de démarrer le service de santé de vSAN, car le fichier de configuration de santé est vide
Le fichier de configuration de santé de vSAN peut être endommagé, en raison de l'absence de quota de disque ou de l'arrêt du thread. Lorsque ce problème se produit lors de la définition de la configuration de la santé de vSAN, le service de santé ne peut pas démarrer.
Ce problème est résolu dans cette version.
- PR 2250697 : La validation du cluster de basculement de Windows Server peut échouer si vous configurez Virtual Volumes avec une stratégie de chemin d'accès Round Robin
Au cours de l'installation du cluster de basculement de Windows Server, si vous remplacez la stratégie de chemin d'accès Fixe ou Plus fréquemment utilisé par Round Robin, l'E/S du cluster peut échouer et le cluster peut cesser de répondre.
Ce problème est résolu dans cette version.
- PR 2191342 : Dans les builds de versions, le démon de surveillance du disque SMART, smartd, peut saturer les journaux du service syslog avec des messages d'information et de débogage
Dans les builds de versions, le démon smartd peut générer un grand nombre de messages d'information et de débogage dans les journaux du service Syslog.
Ce problème est résolu dans cette version. Le correctif supprime les messages de débogage dans les builds de versions.
- PR 2197795 : Le programmateur de VMware vSphere Network I/O Control (NIOC) peut réinitialiser par intermittence le périphérique réseau de liaison montante
Le programmateur NIOC peut réinitialiser le périphérique réseau de liaison montante si la liaison montante est rarement utilisée. La réinitialisation n'est pas prévisible.
Ce problème est résolu dans cette version.
- PR 2221935 : Les hôtes ESXi peuvent échouer par intermittence si vous désactivez les adresses IPv6 globales
Les hôtes ESXi peuvent échouer par intermittence si vous désactivez les adresses IPv6 globales car un chemin de code utilise toujours IPv6.
Ce problème est résolu dans cette version. Si vous êtes déjà confronté à ce problème, réactivez les adresses IPv6 globales pour éviter la panne des hôtes. Si vous devez désactiver les adresses IPv6 pour une raison quelconque, il vous faut désactiver IPv6 sur chaque carte réseau vmk, pas les adresses IPv6 globales.
- PR 2193830 : Le processus de fichier exécutable de machine virtuelle peut échouer et arrêter des machines virtuelles lors d'un redémarrage du système d'exploitation invité
En raison d'une condition de concurrence, le processus de fichier exécutable de machine virtuelle peut échouer et arrêter des machines virtuelles lors d'un redémarrage du système d'exploitation invité.
Ce problème est résolu dans cette version.
- PR 2210364 : Le démon ESXi hostd peut cesser de répondre lors de l'attente de la fin d'un processus externe
Hostd peut cesser de répondre lors de l'attente de la fin d'un processus externe initié avec la commande
esxcfg-syslog
.Ce problème est résolu dans cette version.
- PR 2177107 : Un verrouillage logiciel de CPU physiques peut entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet
Le dépassement du délai d'attente d'un grand nombre d'E/S en raison de la charge élevée d'un système peut provoquer un verrouillage logiciel des CPU physiques. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 2179263 : Les machines virtuelles avec un CD-ROM SATA virtuel peuvent échouer en raison de commandes non valides
Des commandes non valides envoyées à un CD-ROM SATA virtuel peuvent déclencher des erreurs et augmenter l'utilisation de la mémoire des machines virtuelles. Les machines virtuelles qui ne sont pas en mesure d'allouer de la mémoire peuvent alors tomber en panne. Les journaux suivants peuvent s'afficher pour les commandes non valides :
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.Un message PANIC semblable à celui-ci peut également s'afficher :
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure
Ce problème est résolu dans cette version.
- PR 2185906 : La migration de machines virtuelles à l'aide de VMware vSphere vMotion peut échouer avec une erreur de compatibilité NamespaceDb si le service Guest Introspection est activé
Si le service Guest Introspection dans un environnement vSphere 6.7 comportant plus de 150 machines virtuelles est actif, la migration de machines virtuelles à l'aide de vSphere vMotion peut échouer dans vSphere Web Client avec une erreur semblable à
La source a détecté que la destination ne peut pas reprendre ses opérations
.
Le fichiervmware.log
de destination contient des messages d'erreur semblables à ceux-ci :2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.Le journal vmkernel contient des messages d'erreur semblables à ceux-ci :
2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3Ce problème est résolu dans cette version.
- PR 2204508 : Le diagramme de performances avancé peut cesser d'afficher les données après un redémarrage de hostd
Vous pouvez modifier les données statistiques à collecter uniquement lorsque la machine virtuelle est dans un état d'alimentation particulier. Par exemple, vous ne pouvez pas modifier les données de mémoire lorsque la machine virtuelle est sous tension. Lorsque vous redémarrez le service hostd, la machine virtuelle risque de ne pas changer son état d'alimentation, ce qui entraîne l'initialisation de fausses données. Le calcul du compteur de mémoire consommée par l'hôte peut provoquer une division par zéro et le diagramme peut arrêter de tracer des graphiques.
Ce problème est résolu dans cette version.
- PR 2211350 : Un port de la machine virtuelle peut être bloqué après un basculement VMware vSphere High Availability (vSphere HA)
Par défaut, la fonctionnalité Isolation Response d'un hôte ESXi sur lequel vSphere HA est activé est désactivée. Lorsque la fonctionnalité de réponse d'isolation est activée, un port de la machine virtuelle, qui est connecté à un commutateur logique NSX-T, peut se bloquer après un basculement de vSphere HA.
Ce problème est résolu dans cette version.
- PR 2204204 : Les cartes réseau virtuelles e1000 peuvent abandonner par intermittence des paquets GRE non reconnus
Les cartes réseau virtuelles e1000 peuvent abandonner par intermittence des paquets GRE non reconnus en raison d'un problème d'analyse.
Ce problème est résolu dans cette version.
- PR 2226565 : Le démarrage d'ESXi sur un matériel Apple peut échouer avec une erreur indiquant que le tampon Mutiboot est trop petit
Lors du démarrage d'un système Apple, le processus de démarrage peut s'arrêter avec le message d'erreur suivant :
Arrêt des services du microprogramme…
Le tampon Multiboot est trop petit.
Erreur irrécupérableLe problème affecte uniquement certaines versions de microprogramme Apple.
Ce problème est résolu dans cette version.
- PR 2240385 : Les machines virtuelles peuvent échouer lors d'une opération de snapshot mise au repos à long terme
Si hostd redémarre lors d'une opération de snapshot mise au repos à long terme, hostd peut exécuter automatiquement la commande de consolidation de snapshot pour supprimer les disques redondants et améliorer les performances des machines virtuelles. Toutefois, la commande de consolidation peut concurrencer l'opération de snapshot mise au repos en cours d'exécution et provoquer l'échec de machines virtuelles.
Ce problème est résolu dans cette version.
- PR 2163397 : L'agent SNMP peut afficher l'état de batterie D_Failed
L'agent SNMP peut afficher l'état D_Failed pour toutes les batteries lorsque vous exécutez la commande
snmpwalk
. Ce problème se produit en raison du traitement du code, qui peut ne pas vérifier correctement l'état et l'interprétation incorrecte des capteurs compacts avec un code spécifique du capteur.Ce problème est résolu dans cette version.
- PR 2238134 : Lorsque vous utilisez une stratégie d'association de hachage d'adresse IP ou de hachage d'adresse MAC source, les paquets peuvent être rejetés ou transiter par la mauvaise liaison montante
Lorsque vous utilisez une stratégie d'association de hachage d'adresse IP ou de hachage d'adresse MAC source, certains paquets provenant de la liste de paquets peuvent utiliser une autre liaison montante. Par conséquent, certains d'entre eux peuvent être rejetés ou ne pas transiter par la liaison montante déterminée par la stratégie d'association.
Ce problème est résolu dans cette version.
- PR 2213883 : Un hôte ESXi cesse de répondre lorsqu'il se déconnecte d'une banque de données NFS configurée pour la journalisation
Si une banque de données NFS est configurée en tant que banque de données syslog et qu'un hôte ESXi se déconnecte d'elle, la connexion à la banque de données s'arrête et l'hôte ESXi peut cesser de répondre.
Ce problème est résolu dans cette version.
- PR 2141221 : un hôte ESXi peut échouer lors de la réplication de machines virtuelles à l'aide de VMware vSphere Replication avec VMware Site Recovery Manager
Lorsque vous répliquez des machines virtuelles à l'aide de vSphere Replication avec Site Recovery Manager, l'hôte ESXi peut échouer avec un écran de diagnostic violet immédiatement ou dans les 24 heures. Un message d'erreur semblable au message suivant peut s'afficher :
PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc
.Ce problème est résolu dans cette version.
- PR 2240444 : Le démon hostd peut échouer avec une erreur due à un trop grand nombre de verrous
Les configurations plus grandes peuvent dépasser la limite du nombre de verrous et hostd commence à échouer avec une erreur semblable à :
hostd Panic: MXUserAllocSerialNumber: too many locks!
Ce problème est résolu dans cette version. Le correctif supprime la limite du nombre de verrous.
- PR 2249713 : La commande de plug-in réseau esxcli peut par conséquent renvoyer une valeur false
La commande réseau esxcli
$esxcli.network.nic.coalesce.set.Invoke
peut par conséquent renvoyer une valeur false, même si la valeur est correctement définie. Cela peut avoir une incidence sur vos scripts d'automatisation.Ce problème est résolu dans cette version.
- PR 2184068 : Un hôte ESXi peut échouer avec un écran de diagnostic violet lors de l'accès à une banque de données VMFS
Lorsqu'une machine virtuelle tente d'accéder à une banque de données VMFS comportant un répertoire endommagé, l'hôte ESXi peut échouer avec un écran de diagnostic violet et le message d'erreur
DirEntry corruption
.Ce problème est résolu dans cette version.
- PR 2257480 : La valeur de la clé LACPPDU Actor peut être remplacée par 0
La clé LACPPDU Actor peut remplacer sa valeur par 0 pendant le basculement d'état de liaison.
Ce problème est résolu dans cette version.
- PR 2235031 : Un hôte ESXi cesse de répondre et des avertissements signalent que la taille de segment de mémoire maximale a été atteinte dans vmkernel.log
En raison d'un problème de synchronisation dans VMkernel, les tampons risquent de ne pas être vidés et le segment de mémoire s'épuise. Par conséquent, les services tels que hostd, vpxa et vmsyslogd risquent de ne pas être en mesure d'écrire des journaux sur l'hôte ESXi et l'hôte cesse de répondre. Dans
/var/log/vmkernel.log
, vous pouvez voir un avertissement similaire à celui-ci :WARNING: Heap: 3571: Heap vfat already at its maximum size. Cannot expand.
Ce problème est résolu dans cette version.
- PR 2257354 : Certaines machines virtuelles peuvent devenir non valides lors d'une tentative d'installation ou de mise à jour de VMware Tools
Si vous avez modifié le type d'un périphérique CD-ROM virtuel d'une machine virtuelle dans une version antérieure d'ESXi, après la mise à jour vers une version ultérieure, lorsque vous tentez d'installer ou de mettre à jour VMware Tools, la machine virtuelle peut être arrêtée et marquée comme non valide.
Ce problème est résolu dans cette version.
- PR 2212140 : Le renouvellement d'un certificat d'hôte peut ne pas pousser l'ensemble de la chaîne d'approbation vers l'hôte ESXi
Lorsque vous renouvelez un certificat, seul le premier certificat de la chaîne de confiance fournie peut être stocké sur l'hôte ESXi. Tous les certificats d'autorité de certification intermédiaires sont tronqués. En raison des certificats manquants, la chaîne de l'autorité de certification racine ne peut pas être créée. Cela entraîne un avertissement pour une connexion non approuvée.
Ce problème est résolu dans cette version.
- PR 2279897 : La création d'un snapshot d'une machine virtuelle peut échouer en raison d'un paramètre VvolId null
Si un fournisseur de vSphere API for Storage Awareness modifie la stratégie vSphere Virtual Volumes sans surveillance, un paramètre
VvolID
null peut mettre à jour les métadonnées vSphere Virtual Volumes. Cela entraîne un appel VASA avec un paramètreVvoId
null et un échec lors de la création d'un snapshot de machine virtuelle.Ce problème est résolu dans cette version. Le correctif gère l'échec de la modification de la stratégie et empêche le paramètre
VvolId
null. - PR 2227623 : Le clonage parallèle de plusieurs machines virtuelles sur une banque de données vSphere Virtual Volumes peut échouer avec un message d'erreur indiquant que la création de fichier a échoué
Si un appel d'un fournisseur de vSphere API for Storage Awareness échoue en raison de l'indisponibilité de toutes les connexions au fournisseur virtuel, les opérations de clonage parallèle de plusieurs machines virtuelles sur une banque de données vSphere Virtual Volumes peuvent cesser de répondre ou échouer avec un message d'erreur similaire à
Impossible d'effectuer l'opération de création du fichier
.Ce problème est résolu dans cette version.
- PR 2277648 : Un hôte ESXi peut échouer avec un écran de diagnostic violet affichant un message d'alerte sbflush_internal
Un hôte ESXi peut échouer avec un écran de diagnostic violet affichant un message d'alerte
sbflush_internal
en raison de certaines différences dans les statistiques internes.Ce problème est résolu dans cette version. Le correctif convertit le message d'alerte en une assertion.
- PR 2221778 : Vous ne pouvez pas migrer des machines virtuelles à l'aide de vSphere vMotion entre des hôtes ESXi avec des commutateurs virtuel distribués NSX (N-VDS) gérés et des commutateurs vSphere Standard
Avec ESXi 6.7 Update 2, vous pouvez migrer des machines virtuelles à l'aide de vSphere vMotion entre des hôtes ESXi avec des commutateurs N-VDS et des commutateurs vSphere Standard. Pour activer la fonctionnalité, vous devez mettre à niveau le système vCenter Server vers vCenter Server 6.7 Update 2 et ESXi 6.7 Update 2 sur les sites sources et de destination.
Ce problème est résolu dans cette version.
- PR 2287560 : Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'une exception de défaut de page
Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'une exception de défaut de page. L'erreur provient d'un indicateur manquant qui peut déclencher l'éviction du cache sur un objet qui n'existe plus et qui entraîne une référence de pointeur
NULL
.Ce problème est résolu dans cette version.
- PR 2268541 : Vous pouvez voir des messages VOB redondants dans le système vCenter Server, tels que Redondance de liaison montante perdue sur le commutateur virtuel « xxx »
Lors de la vérification de l'état de la liaison montante, la stratégie d'association peut ne pas vérifier si la liaison montante appartient à un groupe de ports et si le groupe de ports concerné n'est pas correct. Par conséquent, vous pouvez voir des messages VOB redondants dans le fichier
/var/run/log/vobd.log
, tels que :Redondance de liaison montante perdue sur le commutateur virtuel« xxx ». vmnicX de la carte réseau physique est inactif. Groupes de ports concernés :« xxx »
.Ce problème est résolu dans cette version.
- PR 2203837 : Des règles de réclamation doivent être ajoutées manuellement à l'hôte ESXi
Vous devez ajouter manuellement les règles de réclamation à un hôte ESXi pour les baies de stockage Lenovo ThinkSystem série DE.
Ce problème est résolu dans cette version. Ce correctif définit Stockage Array Type Plug-in (SATP) sur
VMW_SATP_ALUA
, la stratégie de sélection de chemin d'accès (PSP, Path Selection Policy) surVMW_PSP_RR
et les options de réclamation surtpgs_on
comme valeurs par défaut pour les baies de stockage Lenovo ThinkSystem série DE. - PR 2236531 : Un hôte ESXi peut être déconnecté d'un système vCenter Server
Le service vpxa peut échouer en raison d'une utilisation excessive de la mémoire lors d'une itération sur une grande arborescence de répertoires. Par conséquent, un hôte ESXi peut être déconnecté d'un système vCenter Server.
Ce problème est résolu dans cette version.
- PR 2242656 : Les mises à jour avec les commandes ESXCLI peuvent échouer lorsque SecureBoot est activé
Les commandes
esxcli Software profile update
ouesxcli software profile install
peuvent échouer sur les hôtes exécutant ESXi 6.7 Update 1 où SecureBoot est activé. Vous pouvez voir des messages d'erreur tels queÉchec de la configuration de la mise à niveau à l'aide du VIB esx-update
etÉchec du montage de tardisk dans ramdisk : [Errno 1] Opération non autorisée
.Ce problème est résolu dans cette version. Si vous êtes déjà confronté à ce problème, exécutez la commande
esxcli software vib update
pour mettre à jour votre système vers ESXi 6.7 Update 2. Vous pouvez également désactiver SecureBoot, exécuter les commandes ESXCLI, puis réactiver SecureBoot. - PR 2250653 : Le montage du volume NFS peut ne pas persister après le redémarrage d'un hôte ESXi
Le montage du volume NFS peut ne pas persister après un redémarrage d'un hôte ESXi en raison d'une panne intermittente lors de la résolution du nom d'hôte du serveur NFS.
Ce problème est résolu dans cette version. Le correctif ajoute la logique de nouvelle tentative si une résolution de nom d'hôte échoue.
- PR 2260748 : Vous pouvez perdre la connectivité par intermittence lors de l'utilisation de l'option Route basée sur la charge NIC physique dans vSphere Distributed Switch
Ce problème se produit si vous créez un port VMK ou vNIC en utilisant l'option Route basée sur la charge NIC physique lorsque la carte réseau physique attribuée à ce groupe de ports est temporairement hors service. Dans ce cas, la liaison montante de l'association de ports n'est pas définie, car il n'y a pas de liaison montante active dans le groupe de ports. Lorsque la carte réseau physique redevient active, le code d'association ne parvient pas à mettre à jour les données de port, ce qui entraîne une perte de paquets.
Ce problème est résolu dans cette version.
- PR 2256001 : L'hôte échoue avec Bucketlist_LowerBound ou PLOGRelogRetireLsns dans la trace de débogage
Une condition de concurrence peut se produire lorsque Plog Relog s'exécute avec DecommissionMD, provoquant l'accès par Relog aux tables d'état de périphérique Plog libéré. Ce problème peut entraîner une panne de l'hôte avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 2266762 : De nombreux avertissements peuvent s'afficher pour les tailles de blocs physiques non prises en charge dans les journaux vmkernel
Si vous utilisez des périphériques ayant une taille de bloc physique autre que 4 096 ou 512 Mo, dans les journaux VMkernel, vous pouvez voir de nombreux avertissements semblables à celui-ci :
ScsiPath: 4395: La taille de bloc physique « 8 192 » signalée par le chemin vmhba3:C0:T1:L0 n'est pas prise en charge.
Ce problème est résolu dans cette version. Le correctif convertit les avertissements en messages de journal de débogage.
- PR 2263849 : Les opérations sur le cluster étendu ont échoué, car le nom « _VSAN_VER3 » n'est pas défini
Après la configuration ou la mise à niveau d'un cluster étendu vSAN, toutes les demandes au niveau du cluster peuvent échouer. Le message d'erreur suivant peut s'afficher :
Le nom « _VSAN_VER3 » n'est pas défini
.Ce problème est résolu dans cette version.
- PR 2267698 : Les graphiques de performances de vSAN n'affichent pas correctement les mesures VMDK
Si le dossier de la machine virtuelle est créé à l'aide d'un nom plutôt qu'un UUID, les graphiques de performances de vSAN n'affichent pas correctement les mesures VMDK suivantes :
- IOPS et limite d'IOPS
- IOPS normalisées différéesCe problème est résolu dans cette version.
- PR 2271653 : Vous pouvez voir des rapports incorrects pour les paquets abandonnés lorsque vous utilisez IOChain et que la fonctionnalité LRO (Large Receive Offload) est activée
Dans Hôte > Surveiller > Performance > Adaptateurs physiques> Taux d'abandon de ports pNIC vSwitch, vous pouvez voir un compteur indiquant des paquets abandonnés, alors qu'aucun paquet n'est abandonné. Cela est dû au fait que l'infrastructure IOChain traite le nombre réduit de paquets, lors de l'utilisation de LRO, comme abandons de paquets.
Ce problème est résolu dans cette version.
- PR 2232538 : Un hôte ESXi peut échouer lors de la mise sous tension d'une machine virtuelle dont le nom commence par « SRIOV »
Un hôte ESXi peut échouer avec un écran de diagnostic violet lors de la mise sous tension d'une machine virtuelle. Cela se produit si le nom de la machine virtuelle commence par « SRIOV » et dispose d'une liaison montante connectée à vSphere Distributed Switch.
Ce problème est résolu dans cette version.
- PR 2210056 : Si SNMP désactive des ensembles de règles dynamiques, mais que ces derniers sont actifs dans un profil d'hôte, vous pouvez voir une erreur de conformité inattendue
Dans une condition de concurrence rare, lorsque SNMP désactive des ensembles de règles dynamiques, mais que ceux-ci sont actifs dans un profil d'hôte, vous pouvez voir une erreur de conformité inattendue telle que
Ruleset dynamicruleset introuvable
.Ce problème est résolu dans cette version.
- PR 2271322 : La récupération d'une machine virtuelle exécutant Windows 2008 ou version ultérieure à l'aide de vSphere Replication avec mise au repos de l'application activée peut créer un réplica endommagé
La récupération d'une machine virtuelle exécutant Windows 2008 ou version ultérieure à l'aide de vSphere Replication avec mise au repos de l'application activée peut créer un réplica endommagé. Le dommage se produit uniquement lorsque la mise au repos de l'application est activée. Si VMware Tools sur la machine virtuelle n'est pas configuré pour la mise au repos de l'application, vSphere Replication utilise un niveau de cohérence inférieur, tel que la mise au repos du système de fichiers, et les réplicas ne sont pas endommagés.
Ce problème est résolu dans cette version.
- PR 2272737 : Lorsque vous exécutez des demandes CIM de plus de 2 Mo, la configuration de SFCB peut échouer sur un hôte ESXi
Lorsque vous exécutez des demandes CIM de plus de 2 Mo, comme le téléchargement d'un microprogramme, le service CIM peut échouer sur un hôte ESXi en raison d'un espace de pile insuffisant et le fichier
SFCB zdumb
est présent dans/var/core
.Ce problème est résolu dans cette version.
- PR 2286563 : Le nombre de fichiers d'archive syslog.log générés peut être inférieur à la valeur par défaut configurée et différent entre les versions d'ESXi 6.0 et 6.7
Le nombre de fichiers d'archive
syslog.log
générés peut être inférieur à la valeur par défaut définie à l'aide du paramètresyslog.global.defaultRotate
. Le nombre de fichiers d'archive du journalsyslog.log
peut également être différent entre les versions d'ESXi 6.0 et 6.7. Par exemple, sisyslog.global.defaultRotate
est défini sur 8 par défaut, ESXi 6.0 créesyslog.0.gz
àsyslog.7.gz
, alors qu'ESXi 6.7 créesyslog.0.gz
àsyslog.6.gz
.Ce problème est résolu dans cette version.
- PR 2178119 : Si une valeur élevée est définie pour l'option de configuration avancée /Misc/MCEMonitorInterval, les hôtes ESXi peuvent cesser de répondre
Si vous définissez l'option de configuration avancée
/Misc/MCEMonitorInterval
sur une valeur très élevée, les hôtes ESXi peuvent cesser de répondre après environ 10 jours d'activité, en raison d'un dépassement de délai d'attente.Ce problème est résolu dans cette version.
- PR 2223879 : Un hôte ESXi peut échouer avec un écran de diagnostic violet et une erreur signalant un éventuel blocage
Le verrou P2MCache est un verrouillage total de CPU provoquant le ralentissement des performances d'une CPU, susceptible d'entraîner la défaillance des autres CPU. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet et l'erreur
Spin count exceeded - possible deadlock, PVSCSIDoIOComplet, NFSAsyncIOComplete
.Ce problème est résolu dans cette version.
- PR 2221256 : Un hôte ESXi peut échouer avec un écran de diagnostic violet lors d'une opération Storage vMotion entre des banques de données NFS
Un hôte ESXi peut échouer avec un écran de diagnostic violet lors d'une opération Storage vMotion entre des banques de données NFS, en raison d'une condition de concurrence dans le chemin d'exécution de la demande. La condition de concurrence se produit en cas de charge d'E/S intense dans la pile NFS.
Ce problème est résolu dans cette version.
- PR 2258272 : L'hôte ESXi sur lequel vSAN est activé échoue en raison d'une condition de concurrence dans le workflow de désaffectation
Lors d'une opération de désaffectation de disque, une condition de concurrence dans le workflow de désaffectation peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 2219661 : Un hôte ESXi peut échouer avec un écran de diagnostic violet si RSS est activé sur une carte réseau physique
Un hôte ESXi peut échouer avec un écran de diagnostic violet si RSS est activé sur une carte réseau physique. Vous pouvez voir une trace de débogage similaire à celle-ci :
yyyy-mm-dd cpu9:2097316)0x451a8521bc70:[0x41801a68ad30]RSSPlugCleanupRSSEngine@(lb_netqueue_bal)#
+0x7d stack: 0x4305e4c1a8e0, 0x41801a68af2b, 0x430db8c6b188, 0x4305e4c1a8e0,
0x0yyyy-mm-dd cpu9:2097316)0x451a8521bc90:[0x41801a68af2a]RSSPlugInitRSSEngine@(lb_netqueue_bal)#+0x127 stack: 0x0, 0x20c49ba5e353f7cf, 0x4305e4c1a930, 0x4305e4c1a800, 0x4305e4c1a9f0
yyyy-mm-dd cpu9:2097316)0x451a8521bcd0:[0x41801a68b21c]RSSPlug_PreBalanceWork@(lb_netqueue_bal)#+0x1cd stack: 0x32, 0x32, 0x0, 0xe0, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd30:[0x41801a687752]Lb_PreBalanceWork@(lb_netqueue_bal)#+0x21f stack: 0x4305e4c1a800, 0xff, 0x0, 0x43057f38ea00, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd80:[0x418019c13b18]UplinkNetqueueBal_BalanceCB@vmkernel#nover+0x6f1 stack: 0x4305e4bc6088, 0x4305e4c1a840, 0x4305e4c1a800, 0x4305e435fb30, 0x4305e4bc6088
yyyy-mm-dd cpu9:2097316)0x451a8521bf00:[0x418019cd1c89]UplinkAsyncProcessCallsHelperCB@vmkernel#nover+0x116 stack: 0x430749e60870, 0x430196737070, 0x451a85223000, 0x418019ae832b, 0x430749e60088
yyyy-mm-dd cpu9:2097316)0x451a8521bf30:[0x418019ae832a]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430749e600b8, 0x430749e600a8, 0x430749e600e0, 0x451a85223000, 0x430749e600b8
yyyy-mm-dd cpu9:2097316)0x451a8521bfe0:[0x418019d081f2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0, 0x0, 0x0, 0x0, 0x0Ce problème est résolu dans cette version. Le correctif nettoie les données dans le moteur RSS afin d'éviter la surcharge du segment de mémoire dédié de l'équilibrage de charge de NetQueue.
- PR 2268826 : Un hôte ESXi peut échouer avec un écran de diagnostic violet lorsque le fournisseur VMware API for Storage Awareness (VASA) envoie une demande de reliaison pour modifier le point de terminaison de protocole d'un vSphere Virtual Volume
Lorsque le fournisseur VASA envoie une demande de reliaison à un hôte ESXi pour changer la liaison d'un pilote vSphere Virtual Volume particulier, l'hôte ESXi peut modifier le point de terminaison de protocole et d'autres ressources pour modifier la liaison sans perturbation d'E/S. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 2224767 : De fausses alarmes de santé du matériel peuvent être générées par des capteurs IPMI (Intelligent Platform Management Interface)
Certains capteurs IPMI peuvent passer par intermittence du vert au rouge et inversement, ce qui crée de fausses alarmes de santé matérielle.
Ce problème est résolu dans cette version. Avec ce correctif, vous pouvez utiliser la commande d'option avancée
esxcfg-advcfg-s {Sensor ID}: {Sensor ID}/UserVars/HardwareHealthIgnoredSensors
pour ignorer les alarmes de santé du matériel des capteurs sélectionnés. - PR 2257590 : Un hôte ESXi peut échouer avec une erreur d'admission de mémoire si vous installez un plug-in d'API de gestion iSCSI (IMA) 32 bits asynchrone
Si vous installez un plug-in IMA 32 bits asynchrone et que des plug-ins IMA 32 bits sont déjà installés, le système peut essayer de charger ces plug-ins et vérifier s'ils sont chargés à partir de l'adaptateur iSCSI indépendant de QLogic. Au cours de ce processus, l'hôte ESXi peut échouer avec une erreur d'admission de mémoire.
Ce problème est résolu dans cette version. Ce correctif charge chaque plug-in IMA 32 bits uniquement à partir de l'adaptateur QLogic.
- PR 2241917 : Une opération de reprotection peut échouer avec une erreur lors de la synchronisation de vSphere Replication
Si vous exécutez une opération de reprotection à l'aide de Site Recovery Manager, l'opération peut échouer si une machine virtuelle est en retard avec la synchronisation initiale. Une erreur semblable à celle-ci peut s'afficher :
Échec lors de la synchronisation VR pour le groupe VRM {…}. Opération expirée : 10 800 secondes
Ce problème est résolu dans cette version.
- PR 2246891 : Une erreur d'E/S TASK_SET_FULL sur un LUN secondaire peut ralentir le taux d'E/S sur tous les LUN secondaires derrière le point de terminaison de protocole de volumes virtuels sur le stockage HPE 3PAR si la limitation d'E/S est activée
Lorsque la limitation d'E/S est activée sur un point de terminaison de protocole de volumes virtuels sur le stockage HPE 3PAR et qu'une E/S sur un LUN secondaire échoue avec une erreur
TASK_SET_FULL
, le taux d'E/S sur tous les LUN secondaires associés au point de terminaison de protocole ralentit.Ce problème est résolu dans cette version. Avec ce correctif, vous pouvez activer la limitation d'E/S sur des volumes virtuels individuels pour éviter le ralentissement de tous les LUN secondaires derrière le point de terminaison de protocole si l'erreur
TASK_SET_FULL
se produit.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB i40en
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB igbn
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB ixgben
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB ne1000
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB vmkusb
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2228529 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB qlnativefc
.
- Mise à jour du pilote qlnativefc
Le pilote qlnativefc est mis à jour vers la version 3.1.8.0.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Modéré |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2231435 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nfnic
.
- Mise à jour du pilote nfnic
Le pilote nfnic est mis à jour vers la version 4.0.0.17.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB brcmfcoe
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus | VMW_bootbank_lpfc_11.4.33.18-12vmw.670.2.48.13006603 |
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lpfc
.
Catégorie des correctifs | Amélioration |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2226688 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB elx-esx-libelxima.so
afin de résoudre le problème suivant :
- PR 2226688 : Les journaux de pilotes Emulex peuvent remplir les journaux du système de fichiers /var
Les pilotes Emulex peuvent écrire des journaux sur
/var/log/EMU/mili/mili2d.log
et remplir les journaux du système de fichiers/var
de 40 Mo des lecteurs RAM.Ce problème est résolu dans cette version. Le correctif effectue les écritures des pilotes Emulex dans
/scratch/log/
plutôt que dans/var/log/
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB misc-drivers
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsu-lsi-lsi-msgpt3-plugin
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2234599 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB sfvmk
.
ESXi 6.7 Update 2 ajoute la prise en charge du pilote natif Solarflare (sfvmk) pour périphériques adaptateurs réseau Solarflare 10G et 40G, tels que SFN8542 et SFN8522.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Non |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2256555 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsi-msgpt2
.
- Mise à jour du pilote lsi-msgpt2
Le pilote lsi-msgpt2 est mis à jour vers la version 20.00.05.00 pour gérer les améliorations de la gestion des tâches et les correctifs de bogues critiques.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Modéré |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nmlx4-core
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nmlx4-en
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nmlx4-rdma
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nmlx5-core
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nmlx5-rdma
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB bnxtnet
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2242441 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsu-lsi-drivers-plugin
afin de résoudre le problème suivant :
- PR 2242441 : impossible de localiser et d'activer les LED des disques sous un contrôleur lsi-msgpt35
Il se peut que vous ne puissiez pas localiser et activer les LED des disques sous un contrôleur lsi-msgpt35.
Ce problème est résolu dans cette version. Le correctif introduit un nouveau lsu-lsi-drivers-plug-in qui fonctionne avec les pilotes lsi-msgpt35 asynchrones et fournis.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Modéré |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2270098 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB nvme
afin de résoudre les problèmes suivants :
- PR 2270098 : Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors de l'utilisation de périphériques Intel NVMe
Si une demande de partage d'E/S est annulée dans le pilote nvme fourni, le chemin d'exécution de la commande peut déverrouiller le verrouillage de la file d'attente lié à une vérification incorrecte du type de commande. Cela peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 2270098 : Vous ne pouvez pas voir les périphériques NVMe avec un doorbell stride différent de 0h dans les hôtes ESXi
Le pilote nvme VMware fourni prend uniquement en charge un doorbell stride ayant la valeur 0h et vous ne pouvez utiliser aucune autre valeur ni voir les périphériques NVMe avec un doorbell stride différent de 0h.
Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2270098 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB vmware-esx-esxcli-nvme-plugin
afin de résoudre le problème suivant :
- PR 2270098 : Vous pouvez voir des informations de périphérique NVMe incorrectes en exécutant la commande esxcfg-scsidevs –a
Pour certains périphériques NVMe de marque Dell et pour Marvell NR2241, vous pouvez voir des informations de périphérique NVMe incorrectes en exécutant la commande
esxcfg-scsidevs -a
ou en examinant l'interface.Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Non |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2272901 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsi-mr3
.
- Mise à niveau du pilote Broadcom lsi-mr3
Le pilote Broadcom lsi-mr3 est mis à niveau vers la version MR 7.8.
Catégorie des correctifs | Amélioration |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2275290 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsi-msgpt35
.
- Mise à jour du pilote lsi-msgpt35
Le pilote lsi-msgpt35 est mis à jour vers la version 09.00.00.00-1vmw.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2275290 |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB lsi-msgpt3
.
- Mise à jour du pilote lsi-msgpt3
Le pilote lsi-msgpt3 est mis à jour vers la version 17.00.01.00-3vmw.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB net-vmxnet3
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB native-misc-drivers
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2228005, 2301046, 2232983, 2222019, 2224776, 2260077 |
Numéros CVE | S.O. |
Ce correctif met à jour les VIB esx-base, vsan
et vsanhealth
pour résoudre les problèmes suivants :
- PR 2224776 : Les hôtes ESXi peuvent cesser de répondre si le service sfcbd ne parvient pas à traiter tous les processus en branches
Vous pouvez voir de nombreux messages d'erreur tels que
Heap globalCartel-1 est déjà à sa taille maximale. Développement impossible
dansvmkernel.log
, car le service sfcbd ne parvient pas à traiter tous les processus en branches. Par conséquent, l'hôte ESXi peut cesser de répondre et certaines opérations peuvent échouer.Ce problème est résolu dans cette version.
- Mise à jour du démon Network Time Protocol (NTP)
Le démon NTP est mis à jour vers la version ntp-4.2.8p12.
- Mise à jour de la bibliothèque libxml2
La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.8.
- Mise à jour de la bibliothèque Python
La bibliothèque tierce Python est mise à jour vers la version 3.5.6.
- Mise à jour d'OpenSSH
OpenSSH est mis jour vers la version 7.9 pour résoudre le problème de sécurité ayant l'identifiant CVE-2018-15473.
- Mise à jour d'OpenSSL
Le module OpenSSL est mis à jour vers la version openssl-1.0.2r.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Non |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB tools-light
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Non |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Ce correctif met à jour le VIB esx-ui
.
Nom du profil | ESXi-6.7.0-20190402001-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 11 avril 2018 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2227123, 2250472, 2273186, 2282052, 2267506, 2256771, 2269616, 2250697, 2191342, 2197795, 2221935, 2193830, 2210364, 2177107, 2179263, 2185906, 2204508, 2211350, 2204204, 2226565, 2240385, 2163397, 2238134, 2213883, 2141221, 2240444, 2249713, 2184068, 2257480, 2235031, 2257354, 2212140, 2279897, 2227623, 2277648, 2221778, 2287560, 2268541, 2203837, 2236531, 2242656, 2250653, 2260748, 2256001, 2266762, 2263849, 2267698, 2271653, 2232538, 2210056, 2271322, 2272737, 2286563, 2178119, 2223879, 2221256, 2258272, 2219661, 2268826, 2224767, 2257590, 2241917, 2246891, 2228529, 2231435, 2226688, 2234599, 2256555, 2242441, 2270098, 2272901, 2275290 |
Numéros CVE associés | S/O |
Ce correctif met à jour les problèmes suivants :
Ce correctif résout les problèmes suivants :
-
Vous pouvez par intermittence voir des alarmes pour valeurs très élevées de compteurs de latence de lecture ou d'écriture de disque, telles que
datastore.totalReadLatency
etdatastore.totalWriteLatency
. -
Lorsqu'une machine virtuelle Linux est configurée avec une taille de mémoire spécifique, telle que 2 052 Mo ou 2 060 Mo, au lieu de se mettre sous tension, elle peut afficher un écran vide.
-
Lorsque vous configurez le réseau et activez le contrôle de santé de vSphere Distributed Switch pour effectuer des vérifications de configuration, l'hôte ESXi peut échouer avec un écran de diagnostic violet.
-
L'agent SNMP peut fournir une interruption
vmwVmPoweredOn
incorrecte lorsqu'une machine virtuelle est sélectionnée dans l'onglet Résumé et dans l'onglet Gestionnaire de snapshots dans vSphere Web Client. -
DVFilter peut recevoir des valeurs inattendues ou altérées dans la mémoire tampon d'anneau de mémoire partagée, ce qui entraîne le renvoi de
NULL
par la fonction interne. Si cette valeurNULL
n'est pas gérée normalement, un hôte ESXi peut échouer avec un écran de diagnostic violet au niveau DVFilter. -
Dans l'onglet Événements de vSphere Client ou de vSphere Web Client, lorsque vous mettez sous tension ou hors tension des machines virtuelles, vous pouvez voir des événements similaires à
Connectivité réseau restaurée sur le commutateur virtuel XXX, groupes de ports : XXX. Carte réseau physique vmnicX active
. Lors de la vérification de l'état de la liaison montante, le rapport système peut inclure des groupes de ports qui ne sont pas affectés par l'opération de mise sous tension ou hors tension de la machine virtuelle, qui déclenche l'événement. Toutefois, l'événement n'indique pas de problème et n'appelle aucune action. -
Le fichier de configuration de santé de vSAN peut être endommagé, en raison de l'absence de quota de disque ou de l'arrêt du thread. Lorsque ce problème se produit lors de la définition de la configuration de la santé de vSAN, le service de santé ne peut pas démarrer.
-
Au cours de l'installation du cluster de basculement de Windows Server, si vous remplacez la stratégie de chemin d'accès Fixe ou Plus fréquemment utilisé par Round Robin, l'E/S du cluster peut échouer et le cluster peut cesser de répondre.
-
Dans les builds de versions, le démon smartd peut générer un grand nombre de messages d'information et de débogage dans les journaux du service Syslog.
-
Le programmateur NIOC peut réinitialiser le périphérique réseau de liaison montante si la liaison montante est rarement utilisée. La réinitialisation n'est pas prévisible.
-
Les hôtes ESXi peuvent échouer par intermittence si vous désactivez les adresses IPv6 globales car un chemin de code utilise toujours IPv6.
-
En raison d'une condition de concurrence, le processus de fichier exécutable de machine virtuelle peut échouer et arrêter des machines virtuelles lors d'un redémarrage du système d'exploitation invité.
-
Hostd peut cesser de répondre lors de l'attente de la fin d'un processus externe initié avec la commande
esxcfg-syslog
. -
Le dépassement du délai d'attente d'un grand nombre d'E/S en raison de la charge élevée d'un système peut provoquer un verrouillage logiciel des CPU physiques. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet.
-
Des commandes non valides envoyées à un CD-ROM SATA virtuel peuvent déclencher des erreurs et augmenter l'utilisation de la mémoire des machines virtuelles. Les machines virtuelles qui ne sont pas en mesure d'allouer de la mémoire peuvent alors tomber en panne. Les journaux suivants peuvent s'afficher pour les commandes non valides :
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.Un message PANIC semblable à celui-ci peut également s'afficher :
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure
-
Si le service Guest Introspection dans un environnement vSphere 6.7 comportant plus de 150 machines virtuelles est actif, la migration de machines virtuelles à l'aide de vSphere vMotion peut échouer dans vSphere Web Client avec une erreur semblable à
La source a détecté que la destination ne peut pas reprendre ses opérations
.
Le fichiervmware.log
de destination contient des messages d'erreur semblables à ceux-ci :2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.Le journal vmkernel contient des messages d'erreur semblables à ceux-ci :
2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3 -
Vous pouvez modifier les données statistiques à collecter uniquement lorsque la machine virtuelle est dans un état d'alimentation particulier. Par exemple, vous ne pouvez pas modifier les données de mémoire lorsque la machine virtuelle est sous tension. Lorsque vous redémarrez le service hostd, la machine virtuelle risque de ne pas changer son état d'alimentation, ce qui entraîne l'initialisation de fausses données. Le calcul du compteur de mémoire consommée par l'hôte peut provoquer une division par zéro et le diagramme peut arrêter de tracer des graphiques.
-
Par défaut, la fonctionnalité Isolation Response d'un hôte ESXi sur lequel vSphere HA est activé est désactivée. Lorsque la fonctionnalité de réponse d'isolation est activée, un port de la machine virtuelle, qui est connecté à un commutateur logique NSX-T, peut se bloquer après un basculement de vSphere HA.
-
Les cartes réseau virtuelles e1000 peuvent abandonner par intermittence des paquets GRE non reconnus en raison d'un problème d'analyse.
-
Lors du démarrage d'un système Apple, le processus de démarrage peut s'arrêter avec le message d'erreur suivant :
Arrêt des services du microprogramme…
Le tampon Multiboot est trop petit.
Erreur irrécupérableLe problème affecte uniquement certaines versions de microprogramme Apple.
-
Si hostd redémarre lors d'une opération de snapshot mise au repos à long terme, hostd peut exécuter automatiquement la commande de consolidation de snapshot pour supprimer les disques redondants et améliorer les performances des machines virtuelles. Toutefois, la commande de consolidation peut concurrencer l'opération de snapshot mise au repos en cours d'exécution et provoquer l'échec de machines virtuelles.
-
L'agent SNMP peut afficher l'état D_Failed pour toutes les batteries lorsque vous exécutez la commande
snmpwalk
. Ce problème se produit en raison du traitement du code, qui peut ne pas vérifier correctement l'état et l'interprétation incorrecte des capteurs compacts avec un code spécifique du capteur. -
Lorsque vous utilisez une stratégie d'association de hachage d'adresse IP ou de hachage d'adresse MAC source, certains paquets provenant de la liste de paquets peuvent utiliser une autre liaison montante. Par conséquent, certains d'entre eux peuvent être rejetés ou ne pas transiter par la liaison montante déterminée par la stratégie d'association.
-
Si une banque de données NFS est configurée en tant que banque de données syslog et qu'un hôte ESXi se déconnecte d'elle, la connexion à la banque de données s'arrête et l'hôte ESXi peut cesser de répondre.
-
Lorsque vous répliquez des machines virtuelles à l'aide de vSphere Replication avec Site Recovery Manager, l'hôte ESXi peut échouer avec un écran de diagnostic violet immédiatement ou dans les 24 heures. Un message d'erreur semblable au message suivant peut s'afficher :
PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc
. -
Les configurations plus grandes peuvent dépasser la limite du nombre de verrous et hostd commence à échouer avec une erreur semblable à :
hostd Panic: MXUserAllocSerialNumber: too many locks!
-
La commande réseau esxcli
$esxcli.network.nic.coalesce.set.Invoke
peut par conséquent renvoyer une valeur false, même si la valeur est correctement définie. Cela peut avoir une incidence sur vos scripts d'automatisation. -
Lorsqu'une machine virtuelle tente d'accéder à une banque de données VMFS comportant un répertoire endommagé, l'hôte ESXi peut échouer avec un écran de diagnostic violet et le message d'erreur
DirEntry corruption
. -
La clé LACPPDU Actor peut remplacer sa valeur par 0 pendant le basculement d'état de liaison.
-
En raison d'un problème de synchronisation dans VMkernel, les tampons risquent de ne pas être vidés et le segment de mémoire s'épuise. Par conséquent, les services tels que hostd, vpxa et vmsyslogd risquent de ne pas être en mesure d'écrire des journaux sur l'hôte ESXi et l'hôte cesse de répondre. Dans
/var/log/vmkernel.log
, vous pouvez voir un avertissement similaire à celui-ci :WARNING: Heap: 3571: Heap vfat already at its maximum size. Cannot expand.
-
Si vous avez modifié le type d'un périphérique CD-ROM virtuel d'une machine virtuelle dans une version antérieure d'ESXi, après la mise à jour vers une version ultérieure, lorsque vous tentez d'installer ou de mettre à jour VMware Tools, la machine virtuelle peut être arrêtée et marquée comme non valide.
-
Lorsque vous renouvelez un certificat, seul le premier certificat de la chaîne de confiance fournie peut être stocké sur l'hôte ESXi. Tous les certificats d'autorité de certification intermédiaires sont tronqués. En raison des certificats manquants, la chaîne de l'autorité de certification racine ne peut pas être créée. Cela entraîne un avertissement pour une connexion non approuvée.
-
Si un fournisseur de vSphere API for Storage Awareness modifie la stratégie vSphere Virtual Volumes sans surveillance, un paramètre
VvolID
null peut mettre à jour les métadonnées vSphere Virtual Volumes. Cela entraîne un appel VASA avec un paramètreVvoId
null et un échec lors de la création d'un snapshot de machine virtuelle. -
Si un appel d'un fournisseur de vSphere API for Storage Awareness échoue en raison de l'indisponibilité de toutes les connexions au fournisseur virtuel, les opérations de clonage parallèle de plusieurs machines virtuelles sur une banque de données vSphere Virtual Volumes peuvent cesser de répondre ou échouer avec un message d'erreur similaire à
Impossible d'effectuer l'opération de création du fichier
. -
Un hôte ESXi peut échouer avec un écran de diagnostic violet affichant un message d'alerte
sbflush_internal
en raison de certaines différences dans les statistiques internes. -
Avec ESXi 6.7 Update 2, vous pouvez migrer des machines virtuelles à l'aide de vSphere vMotion entre des hôtes ESXi avec des commutateurs N-VDS et des commutateurs vSphere Standard. Pour activer la fonctionnalité, vous devez mettre à niveau le système vCenter Server vers vCenter Server 6.7 Update 2 et ESXi 6.7 Update 2 sur les sites sources et de destination.
-
Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'une exception de défaut de page. L'erreur provient d'un indicateur manquant qui peut déclencher l'éviction du cache sur un objet qui n'existe plus et qui entraîne une référence de pointeur
NULL
. -
Lors de la vérification de l'état de la liaison montante, la stratégie d'association peut ne pas vérifier si la liaison montante appartient à un groupe de ports et si le groupe de ports concerné n'est pas correct. Par conséquent, vous pouvez voir des messages VOB redondants dans le fichier
/var/run/log/vobd.log
, tels que :Redondance de liaison montante perdue sur le commutateur virtuel« xxx ». vmnicX de la carte réseau physique est inactif. Groupes de ports concernés :« xxx »
. -
Vous devez ajouter manuellement les règles de réclamation à un hôte ESXi pour les baies de stockage Lenovo ThinkSystem série DE.
-
Le service vpxa peut échouer en raison d'une utilisation excessive de la mémoire lors d'une itération sur une grande arborescence de répertoires. Par conséquent, un hôte ESXi peut être déconnecté d'un système vCenter Server.
-
Les commandes
esxcli software profile update
ouesxcli software profile install
peuvent échouer sur les hôtes exécutant ESXi 6.7 Update 1 où SecureBoot est activé. Vous pouvez voir des messages d'erreur tels queÉchec de la configuration de la mise à niveau à l'aide du VIB esx-update
etÉchec du montage de tardisk dans ramdisk : [Errno 1] Opération non autorisée
. -
Le montage du volume NFS peut ne pas persister après un redémarrage d'un hôte ESXi en raison d'une panne intermittente lors de la résolution du nom d'hôte du serveur NFS.
-
Ce problème se produit si vous créez un port VMK ou vNIC en utilisant l'option Route basée sur la charge NIC physique lorsque la carte réseau physique attribuée à ce groupe de ports est temporairement hors service. Dans ce cas, la liaison montante de l'association de ports n'est pas définie, car il n'y a pas de liaison montante active dans le groupe de ports. Lorsque la carte réseau physique redevient active, le code d'association ne parvient pas à mettre à jour les données de port, ce qui entraîne une perte de paquets.
-
Une condition de concurrence peut se produire lorsque Plog Relog s'exécute avec DecommissionMD, provoquant l'accès par Relog aux tables d'état de périphérique Plog libéré. Ce problème peut entraîner une panne de l'hôte avec un écran de diagnostic violet.
-
Si vous utilisez des périphériques ayant une taille de bloc physique autre que 4 096 ou 512 Mo, dans les journaux VMkernel, vous pouvez voir de nombreux avertissements semblables à celui-ci :
ScsiPath: 4395: La taille de bloc physique « 8 192 » signalée par le chemin vmhba3:C0:T1:L0 n'est pas prise en charge.
-
Après la configuration ou la mise à niveau d'un cluster étendu vSAN, toutes les demandes au niveau du cluster peuvent échouer. Le message d'erreur suivant peut s'afficher :
Le nom « _VSAN_VER3 » n'est pas défini
. -
Si le dossier de la machine virtuelle est créé à l'aide d'un nom plutôt qu'un UUID, les graphiques de performances de vSAN n'affichent pas correctement les mesures VMDK suivantes :
- IOPS et limite d'IOPS
- IOPS normalisées différées -
Dans Hôte > Surveiller > Performance > Adaptateurs physiques > Taux d'abandon de ports pNIC vSwitch, vous pouvez voir un compteur indiquant des paquets abandonnés, alors qu'aucun paquet n'est abandonné. Cela est dû au fait que l'infrastructure IOChain traite le nombre réduit de paquets, lors de l'utilisation de LRO, comme abandons de paquets.
-
Un hôte ESXi peut échouer avec un écran de diagnostic violet lors de la mise sous tension d'une machine virtuelle. Cela se produit si le nom de la machine virtuelle commence par « SRIOV » et dispose d'une liaison montante connectée à vSphere Distributed Switch.
-
Dans une condition de concurrence rare, lorsque SNMP désactive des ensembles de règles dynamiques, mais que ceux-ci sont actifs dans un profil d'hôte, vous pouvez voir une erreur de conformité inattendue telle que
Ruleset dynamicruleset introuvable
. -
La récupération d'une machine virtuelle exécutant Windows 2008 ou version ultérieure à l'aide de vSphere Replication avec mise au repos de l'application activée peut créer un réplica endommagé. Le dommage se produit uniquement lorsque la mise au repos de l'application est activée. Si VMware Tools sur la machine virtuelle n'est pas configuré pour la mise au repos de l'application, vSphere Replication utilise un niveau de cohérence inférieur, tel que la mise au repos du système de fichiers, et les réplicas ne sont pas endommagés.
-
Lorsque vous exécutez des demandes CIM de plus de 2 Mo, comme le téléchargement d'un microprogramme, le service CIM peut échouer sur un hôte ESXi en raison d'un espace de pile insuffisant et le fichier
SFCB zdumb
est présent dans/var/core
. -
Le nombre de fichiers d'archive
syslog.log
générés peut être inférieur à la valeur par défaut définie à l'aide du paramètresyslog.global.defaultRotate
. Le nombre de fichiers d'archive du journalsyslog.log
peut également être différent entre les versions d'ESXi 6.0 et 6.7. Par exemple, sisyslog.global.defaultRotate
est défini sur 8 par défaut, ESXi 6.0 créesyslog.0.gz
àsyslog.7.gz
, alors que ESXi 6.7 créesyslog.0.gz
àsyslog.6.gz
. -
Si vous définissez l'option de configuration avancée
/Misc/MCEMonitorInterval
sur une valeur très élevée, les hôtes ESXi peuvent cesser de répondre après environ 10 jours d'activité, en raison d'un dépassement de délai d'attente. -
Le verrou P2MCache est un verrouillage total de CPU provoquant le ralentissement des performances d'une CPU, susceptible d'entraîner la défaillance des autres CPU. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet et l'erreur
Spin count exceeded - possible deadlock, PVSCSIDoIOComplet, NFSAsyncIOComplete
. -
Un hôte ESXi peut échouer avec un écran de diagnostic violet lors d'une opération Storage vMotion entre des banques de données NFS, en raison d'une condition de concurrence dans le chemin d'exécution de la demande. La condition de concurrence se produit en cas de charge d'E/S intense dans la pile NFS.
-
Lors d'une opération de désaffectation de disque, une condition de concurrence dans le workflow de désaffectation peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.
-
Un hôte ESXi peut échouer avec un écran de diagnostic violet si RSS est activé sur une carte réseau physique. Vous pouvez voir une trace de débogage similaire à celle-ci :
yyyy-mm-dd cpu9:2097316)0x451a8521bc70:[0x41801a68ad30]RSSPlugCleanupRSSEngine@(lb_netqueue_bal)#+0x7d stack: 0x4305e4c1a8e0, 0x41801a68af2b, 0x430db8c6b188, 0x4305e4c1a8e0,
0x0yyyy-mm-dd cpu9:2097316)0x451a8521bc90:[0x41801a68af2a]RSSPlugInitRSSEngine@(lb_netqueue_bal)#+0x127 stack: 0x0, 0x20c49ba5e353f7cf, 0x4305e4c1a930, 0x4305e4c1a800, 0x4305e4c1a9f0
yyyy-mm-dd cpu9:2097316)0x451a8521bcd0:[0x41801a68b21c]RSSPlug_PreBalanceWork@(lb_netqueue_bal)#+0x1cd stack: 0x32, 0x32, 0x0, 0xe0, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd30:[0x41801a687752]Lb_PreBalanceWork@(lb_netqueue_bal)#+0x21f stack: 0x4305e4c1a800, 0xff, 0x0, 0x43057f38ea00, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd80:[0x418019c13b18]UplinkNetqueueBal_BalanceCB@vmkernel#nover+0x6f1 stack: 0x4305e4bc6088, 0x4305e4c1a840, 0x4305e4c1a800, 0x4305e435fb30, 0x4305e4bc6088
yyyy-mm-dd cpu9:2097316)0x451a8521bf00:[0x418019cd1c89]UplinkAsyncProcessCallsHelperCB@vmkernel#nover+0x116 stack: 0x430749e60870, 0x430196737070, 0x451a85223000, 0x418019ae832b, 0x430749e60088
yyyy-mm-dd cpu9:2097316)0x451a8521bf30:[0x418019ae832a]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430749e600b8, 0x430749e600a8, 0x430749e600e0, 0x451a85223000, 0x430749e600b8
yyyy-mm-dd cpu9:2097316)0x451a8521bfe0:[0x418019d081f2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0, 0x0, 0x0, 0x0, 0x0 -
Lorsque le fournisseur VASA envoie une demande de reliaison à un hôte ESXi pour changer la liaison d'un pilote vSphere Virtual Volume particulier, l'hôte ESXi peut modifier le point de terminaison de protocole et d'autres ressources pour modifier la liaison sans perturbation d'E/S. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet.
-
Certains capteurs IPMI peuvent passer par intermittence du vert au rouge et inversement, ce qui crée de fausses alarmes de santé matérielle.
-
Si vous installez un plug-in IMA 32 bits asynchrone et que des plug-ins IMA 32 bits sont déjà installés, le système peut essayer de charger ces plug-ins et vérifier s'ils sont chargés à partir de l'adaptateur iSCSI indépendant de QLogic. Au cours de ce processus, l'hôte ESXi peut échouer avec une erreur d'admission de mémoire.
-
Si vous exécutez une opération de reprotection à l'aide de Site Recovery Manager, l'opération peut échouer si une machine virtuelle est en retard avec la synchronisation initiale. Une erreur semblable à celle-ci peut s'afficher :
Échec lors de la synchronisation VR pour le groupe VRM {…}. Opération expirée : 10 800 secondes
-
Lorsque la limitation d'E/S est activée sur un point de terminaison de protocole de volumes virtuels sur le stockage HPE 3PAR et qu'une E/S sur un LUN secondaire échoue avec une erreur
TASK_SET_FULL
, le taux d'E/S sur tous les LUN secondaires associés au point de terminaison de protocole ralentit. -
Le pilote qlnativefc est mis à jour vers la version 3.1.8.0.
-
Le pilote nfnic est mis à jour vers la version 4.0.0.17.
-
Les pilotes Emulex peuvent écrire des journaux sur
/var/log/EMU/mili/mili2d.log
et remplir les journaux du système de fichiers/var
de 40 Mo des lecteurs RAM. -
ESXi 6.7 Update 2 ajoute la prise en charge du pilote natif Solarflare (sfvmk) pour périphériques adaptateurs réseau Solarflare 10G et 40G, tels que SFN8542 et SFN8522.
-
Le pilote lsi-msgpt2 est mis à jour vers la version 20.00.05.00 pour gérer les améliorations de la gestion des tâches et les correctifs de bogues critiques.
-
Il se peut que vous ne puissiez pas localiser et activer les LED des disques sous un contrôleur lsi-msgpt35.
-
Si une demande de partage d'E/S est annulée dans le pilote nvme fourni, le chemin d'exécution de la commande peut déverrouiller le verrouillage de la file d'attente lié à une vérification incorrecte du type de commande. Cela peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.
-
Le pilote nvme VMware fourni prend uniquement en charge un doorbell stride ayant la valeur 0h et vous ne pouvez utiliser aucune autre valeur ni voir les périphériques NVMe avec un doorbell stride différent de 0h.
-
Pour certains périphériques NVMe de marque Dell et pour Marvell NR2241, vous pouvez voir des informations de périphérique NVMe incorrectes en exécutant la commande
esxcfg-scsidevs -a
ou en examinant l'interface. -
Le pilote Broadcom lsi-mr3 est mis à niveau vers la version MR 7.8.
-
Le pilote lsi-msgpt35 est mis à jour vers la version 09.00.00.00-1vmw.
-
Le pilote lsi-msgpt3 est mis à jour vers la version 17.00.01.00-3vmw.
-
Nom du profil | ESXi-6.7.0-20190402001-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 11 avril 2018 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2227123, 2250472, 2273186, 2282052, 2267506, 2256771, 2269616, 2250697, 2191342, 2197795, 2221935, 2193830, 2210364, 2177107, 2179263, 2185906, 2204508, 2211350, 2204204, 2226565, 2240385, 2163397, 2238134, 2213883, 2141221, 2240444, 2249713, 2184068, 2257480, 2235031, 2257354, 2212140, 2279897, 2227623, 2277648, 2221778, 2287560, 2268541, 2203837, 2236531, 2242656, 2250653, 2260748, 2256001, 2266762, 2263849, 2267698, 2271653, 2232538, 2210056, 2271322, 2272737, 2286563, 2178119, 2223879, 2221256, 2258272, 2219661, 2268826, 2224767, 2257590, 2241917, 2246891, 2228529, 2231435, 2226688, 2234599, 2256555, 2242441, 2270098, 2272901, 2275290 |
Numéros CVE associés | S/O |
Ce correctif met à jour les problèmes suivants :
-
-
Vous pouvez par intermittence voir des alarmes pour valeurs très élevées de compteurs de latence de lecture ou d'écriture de disque, telles que
datastore.totalReadLatency
etdatastore.totalWriteLatency
. -
Lorsqu'une machine virtuelle Linux est configurée avec une taille de mémoire spécifique, telle que 2 052 Mo ou 2 060 Mo, au lieu de se mettre sous tension, elle peut afficher un écran vide.
-
Lorsque vous configurez le réseau et activez le contrôle de santé de vSphere Distributed Switch pour effectuer des vérifications de configuration, l'hôte ESXi peut échouer avec un écran de diagnostic violet.
-
L'agent SNMP peut fournir une interruption
vmwVmPoweredOn
incorrecte lorsqu'une machine virtuelle est sélectionnée dans l'onglet Résumé et dans l'onglet Gestionnaire de snapshots dans vSphere Web Client. -
DVFilter peut recevoir des valeurs inattendues ou altérées dans la mémoire tampon d'anneau de mémoire partagée, ce qui entraîne le renvoi de
NULL
par la fonction interne. Si cette valeurNULL
n'est pas gérée normalement, un hôte ESXi peut échouer avec un écran de diagnostic violet au niveau DVFilter. -
Dans l'onglet Événements de vSphere Client ou de vSphere Web Client, lorsque vous mettez sous tension ou hors tension des machines virtuelles, vous pouvez voir des événements similaires à
Connectivité réseau restaurée sur le commutateur virtuel XXX, groupes de ports : XXX. Carte réseau physique vmnicX active
. Lors de la vérification de l'état de la liaison montante, le rapport système peut inclure des groupes de ports qui ne sont pas affectés par l'opération de mise sous tension ou hors tension de la machine virtuelle, qui déclenche l'événement. Toutefois, l'événement n'indique pas de problème et n'appelle aucune action. -
Le fichier de configuration de santé de vSAN peut être endommagé, en raison de l'absence de quota de disque ou de l'arrêt du thread. Lorsque ce problème se produit lors de la définition de la configuration de la santé de vSAN, le service de santé ne peut pas démarrer.
-
Au cours de l'installation du cluster de basculement de Windows Server, si vous remplacez la stratégie de chemin d'accès Fixe ou Plus fréquemment utilisé par Round Robin, l'E/S du cluster peut échouer et le cluster peut cesser de répondre.
-
Dans les builds de versions, le démon smartd peut générer un grand nombre de messages d'information et de débogage dans les journaux du service Syslog.
-
Le programmateur NIOC peut réinitialiser le périphérique réseau de liaison montante si la liaison montante est rarement utilisée. La réinitialisation n'est pas prévisible.
-
Les hôtes ESXi peuvent échouer par intermittence si vous désactivez les adresses IPv6 globales car un chemin de code utilise toujours IPv6.
-
En raison d'une condition de concurrence, le processus de fichier exécutable de machine virtuelle peut échouer et arrêter des machines virtuelles lors d'un redémarrage du système d'exploitation invité.
-
Hostd peut cesser de répondre lors de l'attente de la fin d'un processus externe initié avec la commande
esxcfg-syslog
. -
Le dépassement du délai d'attente d'un grand nombre d'E/S en raison de la charge élevée d'un système peut provoquer un verrouillage logiciel des CPU physiques. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet.
-
Des commandes non valides envoyées à un CD-ROM SATA virtuel peuvent déclencher des erreurs et augmenter l'utilisation de la mémoire des machines virtuelles. Les machines virtuelles qui ne sont pas en mesure d'allouer de la mémoire peuvent alors tomber en panne. Les journaux suivants peuvent s'afficher pour les commandes non valides :
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.Un message PANIC semblable à celui-ci peut également s'afficher :
YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure
-
Si le service Guest Introspection dans un environnement vSphere 6.7 comportant plus de 150 machines virtuelles est actif, la migration de machines virtuelles à l'aide de vSphere vMotion peut échouer dans vSphere Web Client avec une erreur semblable à
La source a détecté que la destination ne peut pas reprendre ses opérations
.
Le fichiervmware.log
de destination contient des messages d'erreur semblables à ceux-ci :2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.Le journal vmkernel contient des messages d'erreur semblables à ceux-ci :
2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3 -
Vous pouvez modifier les données statistiques à collecter uniquement lorsque la machine virtuelle est dans un état d'alimentation particulier. Par exemple, vous ne pouvez pas modifier les données de mémoire lorsque la machine virtuelle est sous tension. Lorsque vous redémarrez le service hostd, la machine virtuelle risque de ne pas changer son état d'alimentation, ce qui entraîne l'initialisation de fausses données. Le calcul du compteur de mémoire consommée par l'hôte peut provoquer une division par zéro et le diagramme peut arrêter de tracer des graphiques.
-
Par défaut, la fonctionnalité Isolation Response d'un hôte ESXi sur lequel vSphere HA est activé est désactivée. Lorsque la fonctionnalité de réponse d'isolation est activée, un port de la machine virtuelle, qui est connecté à un commutateur logique NSX-T, peut se bloquer après un basculement de vSphere HA.
-
Les cartes réseau virtuelles e1000 peuvent abandonner par intermittence des paquets GRE non reconnus en raison d'un problème d'analyse.
-
Lors du démarrage d'un système Apple, le processus de démarrage peut s'arrêter avec le message d'erreur suivant :
Arrêt des services du microprogramme…
Le tampon Multiboot est trop petit.
Erreur irrécupérableLe problème affecte uniquement certaines versions de microprogramme Apple.
-
Si hostd redémarre lors d'une opération de snapshot mise au repos à long terme, hostd peut exécuter automatiquement la commande de consolidation de snapshot pour supprimer les disques redondants et améliorer les performances des machines virtuelles. Toutefois, la commande de consolidation peut concurrencer l'opération de snapshot mise au repos en cours d'exécution et provoquer l'échec de machines virtuelles.
-
L'agent SNMP peut afficher l'état D_Failed pour toutes les batteries lorsque vous exécutez la commande
snmpwalk
. Ce problème se produit en raison du traitement du code, qui peut ne pas vérifier correctement l'état et l'interprétation incorrecte des capteurs compacts avec un code spécifique du capteur. -
Lorsque vous utilisez une stratégie d'association de hachage d'adresse IP ou de hachage d'adresse MAC source, certains paquets provenant de la liste de paquets peuvent utiliser une autre liaison montante. Par conséquent, certains d'entre eux peuvent être rejetés ou ne pas transiter par la liaison montante déterminée par la stratégie d'association.
-
Si une banque de données NFS est configurée en tant que banque de données syslog et qu'un hôte ESXi se déconnecte d'elle, la connexion à la banque de données s'arrête et l'hôte ESXi peut cesser de répondre.
-
Lorsque vous répliquez des machines virtuelles à l'aide de vSphere Replication avec Site Recovery Manager, l'hôte ESXi peut échouer avec un écran de diagnostic violet immédiatement ou dans les 24 heures. Un message d'erreur semblable au message suivant peut s'afficher :
PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc
. -
Les configurations plus grandes peuvent dépasser la limite du nombre de verrous et hostd commence à échouer avec une erreur semblable à :
hostd Panic: MXUserAllocSerialNumber: too many locks!
-
La commande réseau esxcli
$esxcli.network.nic.coalesce.set.Invoke
peut par conséquent renvoyer une valeur false, même si la valeur est correctement définie. Cela peut avoir une incidence sur vos scripts d'automatisation. -
Lorsqu'une machine virtuelle tente d'accéder à une banque de données VMFS comportant un répertoire endommagé, l'hôte ESXi peut échouer avec un écran de diagnostic violet et le message d'erreur
DirEntry corruption
. -
La clé LACPPDU Actor peut remplacer sa valeur par 0 pendant le basculement d'état de liaison.
-
En raison d'un problème de synchronisation dans VMkernel, les tampons risquent de ne pas être vidés et le segment de mémoire s'épuise. Par conséquent, les services tels que hostd, vpxa et vmsyslogd risquent de ne pas être en mesure d'écrire des journaux sur l'hôte ESXi et l'hôte cesse de répondre. Dans
/var/log/vmkernel.log
, vous pouvez voir un avertissement similaire à celui-ci :WARNING: Heap: 3571: Heap vfat already at its maximum size. Cannot expand.
-
Si vous avez modifié le type d'un périphérique CD-ROM virtuel d'une machine virtuelle dans une version antérieure d'ESXi, après la mise à jour vers une version ultérieure, lorsque vous tentez d'installer ou de mettre à jour VMware Tools, la machine virtuelle peut être arrêtée et marquée comme non valide.
-
Lorsque vous renouvelez un certificat, seul le premier certificat de la chaîne de confiance fournie peut être stocké sur l'hôte ESXi. Tous les certificats d'autorité de certification intermédiaires sont tronqués. En raison des certificats manquants, la chaîne de l'autorité de certification racine ne peut pas être créée. Cela entraîne un avertissement pour une connexion non approuvée.
-
Si un fournisseur de vSphere API for Storage Awareness modifie la stratégie vSphere Virtual Volumes sans surveillance, un paramètre
VvolID
null peut mettre à jour les métadonnées vSphere Virtual Volumes. Cela entraîne un appel VASA avec un paramètreVvoId
null et un échec lors de la création d'un snapshot de machine virtuelle. -
Si un appel d'un fournisseur de vSphere API for Storage Awareness échoue en raison de l'indisponibilité de toutes les connexions au fournisseur virtuel, les opérations de clonage parallèle de plusieurs machines virtuelles sur une banque de données vSphere Virtual Volumes peuvent cesser de répondre ou échouer avec un message d'erreur similaire à
Impossible d'effectuer l'opération de création du fichier
. -
Un hôte ESXi peut échouer avec un écran de diagnostic violet affichant un message d'alerte
sbflush_internal
en raison de certaines différences dans les statistiques internes. -
Avec ESXi 6.7 Update 2, vous pouvez migrer des machines virtuelles à l'aide de vSphere vMotion entre des hôtes ESXi avec des commutateurs N-VDS et des commutateurs vSphere Standard. Pour activer la fonctionnalité, vous devez mettre à niveau le système vCenter Server vers vCenter Server 6.7 Update 2 et ESXi 6.7 Update 2 sur les sites sources et de destination.
-
Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'une exception de défaut de page. L'erreur provient d'un indicateur manquant qui peut déclencher l'éviction du cache sur un objet qui n'existe plus et qui entraîne une référence de pointeur
NULL
. -
Lors de la vérification de l'état de la liaison montante, la stratégie d'association peut ne pas vérifier si la liaison montante appartient à un groupe de ports et si le groupe de ports concerné n'est pas correct. Par conséquent, vous pouvez voir des messages VOB redondants dans le fichier
/var/run/log/vobd.log
, tels que :Redondance de liaison montante perdue sur le commutateur virtuel« xxx ». vmnicX de la carte réseau physique est inactif. Groupes de ports concernés :« xxx »
. -
Vous devez ajouter manuellement les règles de réclamation à un hôte ESXi pour les baies de stockage Lenovo ThinkSystem série DE.
-
Le service vpxa peut échouer en raison d'une utilisation excessive de la mémoire lors d'une itération sur une grande arborescence de répertoires. Par conséquent, un hôte ESXi peut être déconnecté d'un système vCenter Server.
-
Les commandes
esxcli software profile update
ouesxcli software profile install
peuvent échouer sur les hôtes exécutant ESXi 6.7 Update 1 où SecureBoot est activé. Vous pouvez voir des messages d'erreur tels queÉchec de la configuration de la mise à niveau à l'aide du VIB esx-update
etÉchec du montage de tardisk dans ramdisk : [Errno 1] Opération non autorisée
. -
Le montage du volume NFS peut ne pas persister après un redémarrage d'un hôte ESXi en raison d'une panne intermittente lors de la résolution du nom d'hôte du serveur NFS.
-
Ce problème se produit si vous créez un port VMK ou vNIC en utilisant l'option Route basée sur la charge NIC physique lorsque la carte réseau physique attribuée à ce groupe de ports est temporairement hors service. Dans ce cas, la liaison montante de l'association de ports n'est pas définie, car il n'y a pas de liaison montante active dans le groupe de ports. Lorsque la carte réseau physique redevient active, le code d'association ne parvient pas à mettre à jour les données de port, ce qui entraîne une perte de paquets.
-
Une condition de concurrence peut se produire lorsque Plog Relog s'exécute avec DecommissionMD, provoquant l'accès par Relog aux tables d'état de périphérique Plog libéré. Ce problème peut entraîner une panne de l'hôte avec un écran de diagnostic violet.
-
Si vous utilisez des périphériques ayant une taille de bloc physique autre que 4 096 ou 512 Mo, dans les journaux VMkernel, vous pouvez voir de nombreux avertissements semblables à celui-ci :
ScsiPath: 4395: La taille de bloc physique « 8 192 » signalée par le chemin vmhba3:C0:T1:L0 n'est pas prise en charge.
-
Après la configuration ou la mise à niveau d'un cluster étendu vSAN, toutes les demandes au niveau du cluster peuvent échouer. Le message d'erreur suivant peut s'afficher :
Le nom « _VSAN_VER3 » n'est pas défini
. -
Si le dossier de la machine virtuelle est créé à l'aide d'un nom plutôt qu'un UUID, les graphiques de performances de vSAN n'affichent pas correctement les mesures VMDK suivantes :
- IOPS et limite d'IOPS
- IOPS normalisées différées -
Dans Hôte > Surveiller > Performance > Adaptateurs physiques > Taux d'abandon de ports pNIC vSwitch, vous pouvez voir un compteur indiquant des paquets abandonnés, alors qu'aucun paquet n'est abandonné. Cela est dû au fait que l'infrastructure IOChain traite le nombre réduit de paquets, lors de l'utilisation de LRO, comme abandons de paquets.
-
Un hôte ESXi peut échouer avec un écran de diagnostic violet lors de la mise sous tension d'une machine virtuelle. Cela se produit si le nom de la machine virtuelle commence par « SRIOV » et dispose d'une liaison montante connectée à vSphere Distributed Switch.
-
Dans une condition de concurrence rare, lorsque SNMP désactive des ensembles de règles dynamiques, mais que ceux-ci sont actifs dans un profil d'hôte, vous pouvez voir une erreur de conformité inattendue telle que
Ruleset dynamicruleset introuvable
. -
La récupération d'une machine virtuelle exécutant Windows 2008 ou version ultérieure à l'aide de vSphere Replication avec mise au repos de l'application activée peut créer un réplica endommagé. Le dommage se produit uniquement lorsque la mise au repos de l'application est activée. Si VMware Tools sur la machine virtuelle n'est pas configuré pour la mise au repos de l'application, vSphere Replication utilise un niveau de cohérence inférieur, tel que la mise au repos du système de fichiers, et les réplicas ne sont pas endommagés.
-
Lorsque vous exécutez des demandes CIM de plus de 2 Mo, comme le téléchargement d'un microprogramme, le service CIM peut échouer sur un hôte ESXi en raison d'un espace de pile insuffisant et le fichier
SFCB zdumb
est présent dans/var/core
. -
Le nombre de fichiers d'archive
syslog.log
générés peut être inférieur à la valeur par défaut définie à l'aide du paramètresyslog.global.defaultRotate
. Le nombre de fichiers d'archive du journalsyslog.log
peut également être différent entre les versions d'ESXi 6.0 et 6.7. Par exemple, sisyslog.global.defaultRotate
est défini sur 8 par défaut, ESXi 6.0 créesyslog.0.gz
àsyslog.7.gz
, alors que ESXi 6.7 créesyslog.0.gz
àsyslog.6.gz
. -
Si vous définissez l'option de configuration avancée
/Misc/MCEMonitorInterval
sur une valeur très élevée, les hôtes ESXi peuvent cesser de répondre après environ 10 jours d'activité, en raison d'un dépassement de délai d'attente. -
Le verrou P2MCache est un verrouillage total de CPU provoquant le ralentissement des performances d'une CPU, susceptible d'entraîner la défaillance des autres CPU. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet et l'erreur
Spin count exceeded - possible deadlock, PVSCSIDoIOComplet, NFSAsyncIOComplete
. -
Un hôte ESXi peut échouer avec un écran de diagnostic violet lors d'une opération Storage vMotion entre des banques de données NFS, en raison d'une condition de concurrence dans le chemin d'exécution de la demande. La condition de concurrence se produit en cas de charge d'E/S intense dans la pile NFS.
-
Lors d'une opération de désaffectation de disque, une condition de concurrence dans le workflow de désaffectation peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.
-
Un hôte ESXi peut échouer avec un écran de diagnostic violet si RSS est activé sur une carte réseau physique. Vous pouvez voir une trace de débogage similaire à celle-ci :
yyyy-mm-dd cpu9:2097316)0x451a8521bc70:[0x41801a68ad30]RSSPlugCleanupRSSEngine@(lb_netqueue_bal)#+0x7d stack: 0x4305e4c1a8e0, 0x41801a68af2b, 0x430db8c6b188, 0x4305e4c1a8e0,
0x0yyyy-mm-dd cpu9:2097316)0x451a8521bc90:[0x41801a68af2a]RSSPlugInitRSSEngine@(lb_netqueue_bal)#+0x127 stack: 0x0, 0x20c49ba5e353f7cf, 0x4305e4c1a930, 0x4305e4c1a800, 0x4305e4c1a9f0
yyyy-mm-dd cpu9:2097316)0x451a8521bcd0:[0x41801a68b21c]RSSPlug_PreBalanceWork@(lb_netqueue_bal)#+0x1cd stack: 0x32, 0x32, 0x0, 0xe0, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd30:[0x41801a687752]Lb_PreBalanceWork@(lb_netqueue_bal)#+0x21f stack: 0x4305e4c1a800, 0xff, 0x0, 0x43057f38ea00, 0x4305e4c1a800
yyyy-mm-dd cpu9:2097316)0x451a8521bd80:[0x418019c13b18]UplinkNetqueueBal_BalanceCB@vmkernel#nover+0x6f1 stack: 0x4305e4bc6088, 0x4305e4c1a840, 0x4305e4c1a800, 0x4305e435fb30, 0x4305e4bc6088
yyyy-mm-dd cpu9:2097316)0x451a8521bf00:[0x418019cd1c89]UplinkAsyncProcessCallsHelperCB@vmkernel#nover+0x116 stack: 0x430749e60870, 0x430196737070, 0x451a85223000, 0x418019ae832b, 0x430749e60088
yyyy-mm-dd cpu9:2097316)0x451a8521bf30:[0x418019ae832a]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430749e600b8, 0x430749e600a8, 0x430749e600e0, 0x451a85223000, 0x430749e600b8
yyyy-mm-dd cpu9:2097316)0x451a8521bfe0:[0x418019d081f2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0, 0x0, 0x0, 0x0, 0x0 -
Lorsque le fournisseur VASA envoie une demande de reliaison à un hôte ESXi pour changer la liaison d'un pilote vSphere Virtual Volume particulier, l'hôte ESXi peut modifier le point de terminaison de protocole et d'autres ressources pour modifier la liaison sans perturbation d'E/S. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet.
-
Certains capteurs IPMI peuvent passer par intermittence du vert au rouge et inversement, ce qui crée de fausses alarmes de santé matérielle.
-
Si vous installez un plug-in IMA 32 bits asynchrone et que des plug-ins IMA 32 bits sont déjà installés, le système peut essayer de charger ces plug-ins et vérifier s'ils sont chargés à partir de l'adaptateur iSCSI indépendant de QLogic. Au cours de ce processus, l'hôte ESXi peut échouer avec une erreur d'admission de mémoire.
-
Si vous exécutez une opération de reprotection à l'aide de Site Recovery Manager, l'opération peut échouer si une machine virtuelle est en retard avec la synchronisation initiale. Une erreur semblable à celle-ci peut s'afficher :
Échec lors de la synchronisation VR pour le groupe VRM {…}. Opération expirée : 10 800 secondes
-
Lorsque la limitation d'E/S est activée sur un point de terminaison de protocole de volumes virtuels sur le stockage HPE 3PAR et qu'une E/S sur un LUN secondaire échoue avec une erreur
TASK_SET_FULL
, le taux d'E/S sur tous les LUN secondaires associés au point de terminaison de protocole ralentit. -
Le pilote qlnativefc est mis à jour vers la version 3.1.8.0.
-
Le pilote nfnic est mis à jour vers la version 4.0.0.17.
-
Les pilotes Emulex peuvent écrire des journaux sur
/var/log/EMU/mili/mili2d.log
et remplir les journaux du système de fichiers/var
de 40 Mo des lecteurs RAM. -
ESXi 6.7 Update 2 ajoute la prise en charge du pilote natif Solarflare (sfvmk) pour périphériques adaptateurs réseau Solarflare 10G et 40G, tels que SFN8542 et SFN8522.
-
Le pilote lsi-msgpt2 est mis à jour vers la version 20.00.05.00 pour gérer les améliorations de la gestion des tâches et les correctifs de bogues critiques.
-
Il se peut que vous ne puissiez pas localiser et activer les LED des disques sous un contrôleur lsi-msgpt35.
-
Si une demande de partage d'E/S est annulée dans le pilote nvme fourni, le chemin d'exécution de la commande peut déverrouiller le verrouillage de la file d'attente lié à une vérification incorrecte du type de commande. Cela peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.
-
Le pilote nvme VMware fourni prend uniquement en charge un doorbell stride ayant la valeur 0h et vous ne pouvez utiliser aucune autre valeur ni voir les périphériques NVMe avec un doorbell stride différent de 0h.
-
Pour certains périphériques NVMe de marque Dell et pour Marvell NR2241, vous pouvez voir des informations de périphérique NVMe incorrectes en exécutant la commande
esxcfg-scsidevs -a
ou en examinant l'interface. -
Le pilote Broadcom lsi-mr3 est mis à niveau vers la version MR 7.8.
-
Le pilote lsi-msgpt35 est mis à jour vers la version 09.00.00.00-1vmw.
-
Le pilote lsi-msgpt3 est mis à jour vers la version 17.00.01.00-3vmw.
-
Nom du profil | ESXi-6.7.0-20190401001s-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 11 avril 2018 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2228005, 2301046, 2232983, 2222019, 2224776, 2260077, 2232955 |
Numéros CVE associés | S/O |
Ce correctif met à jour les problèmes suivants :
-
-
Vous pouvez voir de nombreux messages d'erreur tels que
Heap globalCartel-1 est déjà à sa taille maximale. Développement impossible
dansvmkernel.log
, car le service sfcbd ne parvient pas à traiter tous les processus en branches. Par conséquent, l'hôte ESXi peut cesser de répondre et certaines opérations peuvent échouer. -
Le démon NTP est mis à jour vers la version ntp-4.2.8p12.
-
La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.8.
-
La bibliothèque tierce Python est mise à jour vers la version 3.5.6.
-
OpenSSH est mis jour vers la version 7.9 pour résoudre le problème de sécurité ayant l'identifiant CVE-2018-15473.
-
Le module OpenSSL est mis à jour vers la version openssl-1.0.2r.
-
Nom du profil | ESXi-6.7.0-20190301001s-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 28 mars 2018 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2228005, 2301046, 2232983, 2222019, 2224776, 2260077, 2232955 |
Numéros CVE associés | S/O |
Ce correctif met à jour les problèmes suivants :
-
-
Vous pouvez voir de nombreux messages d'erreur tels que
Heap globalCartel-1 est déjà à sa taille maximale. Développement impossible
dansvmkernel.log
, car le service sfcbd ne parvient pas à traiter tous les processus en branches. Par conséquent, l'hôte ESXi peut cesser de répondre et certaines opérations peuvent échouer. -
Le démon NTP est mis à jour vers la version ntp-4.2.8p12.
-
La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.8.
-
La bibliothèque tierce Python est mise à jour vers la version 3.5.6.
-
OpenSSH est mis jour vers la version 7.9 pour résoudre le problème de sécurité ayant l'identifiant CVE-2018-15473.
-
Le module OpenSSL est mis à jour vers la version openssl-1.0.2r.
-
Problèmes connus
Les problèmes connus sont classés comme suit :
ESXi670-201904201-UGCatégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2193516, 2203431, 2231707, 2287804, 2213766 |
Numéros CVE | S.O. |
Ce correctif met à jour les VIB sx-base, esx-update, vsan
et vsanhealth
.
- La correction du profil d'hôte peut se terminer par la suppression d'un adaptateur réseau virtuel de vSphere Distributed Switch VMware
Si vous extrayez un profil d'hôte d'un hôte ESXi dont la prise en charge d'IPv6 est désactivée et que la passerelle par défaut IPv4 est remplacée lors de la correction de ce profil d'hôte, vous pouvez voir un message indiquant qu'un adaptateur réseau virtuel, tel que DSwitch0, doit être créé sur vSphere Distributed Switch (VDS), mais l'adaptateur est en fait supprimé du VDS. Cela est dû à la valeur « :: » du paramètre
ipV6DefaultGateway
.Solution : Dans les paramètres d'adresse IP, sous la stratégie Passerelle par défaut pour l'adaptateur réseau VMkernel (IPv6), remplacez l'option Sélectionner une passerelle IPv6 par défaut pour la vmknic par L'utilisateur doit explicitement choisir l'option de stratégie.
Vous pouvez également modifier l'option Sélectionner une passerelle IPv6 par défaut pour la vmknic en modifiant Passerelle IPv6 par défaut de la carte vmknic de « :: » à « ». - Certaines machines virtuelles invitées peuvent signaler leur identité comme une chaîne vide
Certaines machines virtuelles invitées peuvent signaler leur identité comme une chaîne vide si le client exécute une version de VMware Tools ultérieure à celle avec laquelle l'hôte ESXi a été publié, ou si l'hôte ne reconnaît pas le paramètre
guestID
de l'objetGuestInfo
. Le problème concerne principalement les machines virtuelles dotées du système d'exploitation CentOS et VMware Photon.Solution : aucune.
- La création de banques de données VMFS sur un périphérique Intel Volume Management (Intel VMD) en mode de montage peut échouer
La création d'une banque de données VMFS sur Intel VMD, configurée en mode de montage peut échouer, même si la partition est marquée comme étant correctement créée sur l'hôte ESXi. Un message d'erreur semblable à celui-ci peut s'afficher :
Échec de la création de la banque de données VMFS vmd2 - Échec de l'opération.
Solution : aucune.
- Vous voyez des messages répétitifs dans vCenter Web Client invitant à supprimer NSX des sous-spécifications d'hôte
Vous pouvez voir des messages répétitifs dans vCenter Web Client, semblables à
Supprimer NSX des sous-spécifications d'hôte
si vous utilisez le démarrage réseau pour les hôtes ESXi, en raison d'un code factice dans hostd.Solution : aucune.
- Les hôtes ESXi peuvent perdre la connectivité au système vCenter Server en raison de l'échec du service de l'agent vpxa
Les hôtes ESXi peuvent perdre la connectivité au système vCenter Server en raison de l'échec du service de l'agent vpxa suite à une mise à jour de propriété non valide générée par l'objet
PropertyCollector
. Une condition de concurrence dans hostd conduit à une séquence incorrecte d'événements de notification de mise à jour de propriété qui entraînent une mise à jour de propriété non valide.Solution : Reconnectez manuellement l'hôte ESXi au système vCenter Server.
- Le service Syslog d'ESXi peut afficher des horodatages imprécis lors du démarrage ou de la rotation
Le service Syslog d'ESXi peut afficher des horodatages imprécis lorsque le service démarre ou redémarre, ou lorsque le journal atteint sa taille maximale par la configuration et effectue une rotation.
Solution : ce problème a été résolu pour les nouvelles installations d'ESXi. Pour résoudre ce problème sur la configuration existante pour
hostd.log
:- Ouvrez le fichier
/etc/vmsyslog.conf.d/hostd.conf
. - Remplacez
onrotate = logger -t Hostd < /var/run/vmware/hostdLogHeader.txt
paronrotate = printf '%%s - last log rotation time, %%s\n' "$(date --utc +%%FT%%T.%%3NZ)" "$(cat /var/run/vmware/hostdLogHeader.txt)" | logger -t Hostd.
- Enregistrez les modifications.
- Redémarrez le service vmsyslogd en exécutant
/etc/init.d/vmsyslogd restart
.
- Ouvrez le fichier
- La machine virtuelle peut cesser de répondre si le fichier image ISO AutoInstalls est monté
L'installation de VMware Tools démonte le fichier image ISO qui se termine par
autoinst.iso
, s'il est déjà monté sur la machine virtuelle. Pour monter le fichier image ISO de VMware Tools, vous devez de nouveau cliquer sur Installer VMware Tools. En conséquence, la machine virtuelle peut cesser de répondre.Solution : Avant d'installer VMware Tools, supprimez le fichier image ISO du lecteur de CD-ROM ou renommez-le avec une terminaison différente d'
autoinst.iso
. - Vous ne pouvez pas migrer des machines virtuelles à l'aide d'vSphere vMotion sur différents commutateurs logiques NSX
Dans ESXi 6.7 Update 2, la migration des machines virtuelles à l'aide de vSphere vMotion entre deux commutateurs logiques NSX n'est pas prise en charge. Vous pouvez toujours migrer des machines virtuelles avec vSphere vMotion sur le même commutateur logique NSX.
Solution : aucune.