check-circle-line exclamation-circle-line close-line

ESXi 6.7 Update 2 | 11 avril 2019 | Build ISO 13006603

Contenu des notes de mise à jour

Les notes de mise à jour couvrent les sujets suivants :

Nouveautés

  • Pilote natif Solarflare : ESXi 6.7 Update 2 ajoute la prise en charge du pilote natif Solarflare (sfvmk) pour périphériques adaptateurs réseau Solarflare 10G et 40G, tels que SFN8542 et SFN8522.
  • Version 15 du matériel virtuel : ESXi 6.7 Update 2 introduit la version 15 du matériel virtuel qui ajoute la prise en charge de la création de machines virtuelles ayant jusqu'à 256 CPU virtuels. Pour plus d'informations, reportez-vous aux articles 1003746 et 2007240 de la base de connaissances VMware.
  • Module de commande ESXCLI autonome : ESXi 6.7 Update 2 fournit un nouveau module ESXCLI autonome pour Linux, distinct du module d'installation de l'interface de ligne de commande de vSphere (vSphere CLI). ESXCLI, qui fait partie de vSphere CLI, n'est pas mis à jour pour ESXi 6.7 Update 2. Bien que le module d'installation de vSphere CLI soit obsolète pour cette version et soit toujours disponible en téléchargement, vous ne devez pas l'installer avec le nouveau module ESXCLI autonome pour Linux. Pour plus d'informations sur le téléchargement et l'installation du module ESXCLI autonome, reportez-vous à VMware {code}.
  • Dans ESXi 6.7 Update 2, Side-Channel-Aware Scheduler (programmateur compatible avec le canal latéral) est mis à jour afin d'améliorer les performances de calcul des hôtes ESXi qui font l'objet d'atténuations pour contrer les vulnérabilités matérielles d'exécution spéculative. Pour plus d'informations, reportez-vous à l'article 55636 de la base de connaissances VMware.
  • ESXi 6.7 Update 2 ajoute la prise en charge du traitement automatique de l'opération unmap VMFS6 sur les baies de stockage et les périphériques qui signalent aux hôtes ESXi une valeur de granularité d'opération unmap supérieure à 1 Mo. Sur les baies qui signalent une granularité optimale de 1 Mo et inférieure, l'opération unmap est prise en charge si la granularité présente un facteur de 1 Mo.
  • vCenter Server 6.7 Update 2 ajoute VMFS6 à la liste des systèmes de fichiers pris en charge par vSphere On-Disk Metadata Analyzer (VOMA) pour vous permettre de détecter et de corriger les problèmes de métadonnées de volumes VMFS, de métadonnées LVM et d'incohérences de table de partition.

Versions antérieures d'ESXi 6.7

Les fonctions et problèmes connus d'ESXi sont décrits dans les notes de mise à jour de chaque version. Notes de mise à jour des versions antérieures à ESXi 6.7 :

Pour plus d'informations sur l'internationalisation, la compatibilité, l'installation et la mise à niveau, ainsi que sur les composants open source, consultez les Notes de mise à jour de VMware vSphere 6.7.

Remarques relatives à la prise en charge du produit

  • VMware vSphere Flash Read Cache devient obsolète. Bien que cette fonctionnalité soit toujours prise en charge dans la génération vSphere 6.7, elle sera supprimée dans une version ultérieure de vSphere. Vous pouvez également utiliser le mécanisme de mise en cache vSAN ou tout logiciel d'accélération d'E/S tiers certifié par VMware répertorié dans le Guide de compatibilité VMware.

Correctifs contenus dans cette version

Cette version contient tous les bulletins d'ESXi qui ont été publiés avant la date de publication de ce produit.

Détails de la build

Nom de fichier de téléchargement : update-from-esxi6.7-6.7_update02.zip
Build :

13006603

13010696 (sécurité uniquement)

Taille du téléchargement : 453,0 Mo

md5sum :

afb6642c5f78212683d9d9a1e9dde6bc

sha1checksum :

783fc0a2a457677e69758969dadc6421e5a7c17a
Redémarrage de l'hôte requis : Oui
Migration ou arrêt de la machine virtuelle requis : Oui

Bulletins

Cette version contient des bulletins généraux et de sécurité uniquement. Les bulletins de sécurité s'appliquent aux nouveaux correctifs de sécurité uniquement. Les nouveaux correctifs de bogues ne sont pas inclus, mais les correctifs de bogues des versions antérieures des correctifs et des mises à jour sont inclus.
Si l'installation de tous les nouveaux correctifs de sécurité et de bogues est requise, vous devez appliquer tous les bulletins présents dans cette version. Dans certains cas, le bulletin général remplacera le bulletin de sécurité uniquement. Cela n'est pas un problème, car le bulletin général contient les nouveaux correctifs de sécurité et de bogues.
Les bulletins de sécurité sont identifiables par leur ID de bulletin qui se termine par « SG ». Pour obtenir des informations sur la classification des correctifs et des mises à jour, consultez l'article KB 2014447.
Pour plus d'informations sur les bulletins individuels, consultez la page My VMware et la section Problèmes résolus.

ID de bulletin Catégorie Gravité
ESXi670-201904201-UG Correctif de bogues Critique
ESXi670-201904202-UG Correctif de bogues Important
ESXi670-201904203-UG Correctif de bogues Important
ESXi670-201904204-UG Correctif de bogues Important
ESXi670-201904205-UG Correctif de bogues Important
ESXi670-201904206-UG Correctif de bogues Important
ESXi670-201904207-UG Correctif de bogues Modéré
ESXi670-201904208-UG Correctif de bogues Important
ESXi670-201904209-UG Amélioration Important
ESXi670-201904210-UG Amélioration Important
ESXi670-201904211-UG Correctif de bogues Critique
ESXi670-201904212-UG Correctif de bogues Important
ESXi670-201904213-UG Correctif de bogues Important
ESXi670-201904214-UG Correctif de bogues Important
ESXi670-201904215-UG Correctif de bogues Modéré
ESXi670-201904216-UG Correctif de bogues Important
ESXi670-201904217-UG Correctif de bogues Important
ESXi670-201904218-UG Correctif de bogues Important
ESXi670-201904219-UG Correctif de bogues Important
ESXi670-201904220-UG Correctif de bogues Important
ESXi670-201904221-UG Correctif de bogues Important
ESXi670-201904222-UG Correctif de bogues Modéré
ESXi670-201904223-UG Correctif de bogues Important
ESXi670-201904224-UG Correctif de bogues Important
ESXi670-201904225-UG Amélioration Important
ESXi670-201904226-UG Correctif de bogues Important
ESXi670-201904227-UG Correctif de bogues Important
ESXi670-201904228-UG Correctif de bogues Important
ESXi670-201904229-UG Correctif de bogues Important
ESXi670-201904101-SG Sécurité Important
ESXi670-201904102-SG Sécurité Important
ESXi670-201904103-SG Sécurité Important

IMPORTANT : Pour les clusters qui utilisent VMware vSAN, vous devez tout d'abord mettre à niveau le système vCenter Server. La mise à niveau d'ESXi uniquement n'est pas prise en charge.
Avant d’effectuer une mise à niveau, vérifiez toujours dans la Matrice d'interopérabilité des produits VMware les chemins de mise à niveau compatibles des versions antérieures d'ESXi et de vCenter Server vers la version actuelle. 

Profils d'image

Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques.

L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.

Nom de profil d'image
ESXi-6.7.0-20190402001-standard
ESXi-6.7.0-20190402001-no-tools
ESXi-6.7.0-20190401001s-standard
ESXi-6.7.0-20190401001s-no-tools

Problèmes résolus

Les problèmes résolus sont regroupés comme suit :

ESXi670-201904201-UG
Catégorie des correctifs Correctif de bogues
Gravité des correctifs Critique
Redémarrage de l'hôte requis Oui
Migration ou arrêt de la machine virtuelle requis Oui
Matériel concerné S.O.
Logiciels concernés S.O.
VIB inclus
  • VMware_bootbank_vsanhealth_6.7.0-2.48.12775454
  • VMware_bootbank_vsan_6.7.0-2.48.12775451
  • VMware_bootbank_esx-base_6.7.0-2.48.13006603
  • VMware_bootbank_esx-update_6.7.0-2.48.13006603
PR résolus  2227123, 2250472, 2273186, 2282052, 2267506, 2256771, 2269616, 2250697, 2191342, 2197795, 2221935, 2193830, 2210364, 2177107, 2179263, 2185906, 2204508, 2211350, 2204204, 2226565, 2240385, 2163397, 2238134, 2213883, 2141221, 2240444, 2249713, 2184068, 2257480, 2235031, 2257354, 2212140, 2279897, 2227623, 2277648, 2221778, 2287560, 2268541, 2203837, 2236531, 2242656, 2250653, 2260748, 2256001, 2266762, 2263849, 2267698, 2271653, 2232538, 2210056, 2271322, 2272737, 2286563, 2178119, 2223879, 2221256, 2258272, 2219661, 2268826, 2224767, 2257590, 2241917, 2246891
Numéros CVE S.O.

Ce correctif met à jour les VIB esx-base, esx-update, vsan et vsanhealth pour résoudre les problèmes suivants :

  • PR 2227123 : Des valeurs très élevées de compteurs de latence disque de lecture ou d'écriture peuvent déclencher des alarmes

    Vous pouvez par intermittence voir des alarmes pour valeurs très élevées de compteurs de latence de lecture ou d'écriture de disque, telles que datastore.totalReadLatency et datastore.totalWriteLatency.

    Ce problème est résolu dans cette version.

  • PR 2250472 : Les machines virtuelles Linux peuvent cesser de répondre lors de la mise sous tension sous certaines configurations de taille de mémoire

    Lorsqu'une machine virtuelle Linux est configurée avec une taille de mémoire spécifique, telle que 2 052 Mo ou 2 060 Mo, au lieu de se mettre sous tension, elle peut afficher un écran vide.

    Ce problème est résolu dans cette version.

  • PR 2273186 : Un hôte ESXi peut échouer lorsque vous activez un contrôle de santé de vSphere Distributed Switch

    Lorsque vous configurez le réseau et activez le contrôle de santé de vSphere Distributed Switch pour effectuer des vérifications de configuration, l'hôte ESXi peut échouer avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version.

  • PR 2282052 : L'agent SNMP peut fournir une interruption vmwVmPoweredOn incorrecte

    L'agent SNMP peut fournir une interruption vmwVmPoweredOn incorrecte lorsqu'une machine virtuelle est sélectionnée dans l'onglet Résumé et dans l'onglet Gestionnaire de snapshots dans vSphere Web Client.

    Ce problème est résolu dans cette version.

  • PR 2267506 : Un hôte ESXi peut échouer avec un écran de diagnostic violet au niveau DVFilter

    DVFilter peut recevoir des valeurs inattendues ou altérées dans la mémoire tampon d'anneau de mémoire partagée, ce qui entraîne le renvoi de NULL par la fonction interne. Si cette valeur NULL n'est pas gérée normalement, un hôte ESXi peut échouer avec un écran de diagnostic violet au niveau DVFilter.

    Ce problème est résolu dans cette version.

  • PR 2256771 : Vous pouvez voir un message d'événement inutile pour la connectivité réseau restaurée sur le commutateur virtuel lors de la mise sous tension ou hors tension de machines virtuelles

    Dans l'onglet Événements de vSphere Client ou de vSphere Web Client, lorsque vous mettez sous tension ou hors tension des machines virtuelles, vous pouvez voir des événements similaires à Connectivité réseau restaurée sur le commutateur virtuel XXX, groupes de ports : XXX. Carte réseau physique vmnicX active. Lors de la vérification de l'état de la liaison montante, le rapport système peut inclure des groupes de ports qui ne sont pas affectés par l'opération de mise sous tension ou hors tension de la machine virtuelle, qui déclenche l'événement. Toutefois, l'événement n'indique pas de problème et n'appelle aucune action.

    Ce problème est résolu dans cette version. Le message d'événement est supprimé.

  • PR 2269616 : Impossible de démarrer le service de santé de vSAN, car le fichier de configuration de santé est vide

    Le fichier de configuration de santé de vSAN peut être endommagé, en raison de l'absence de quota de disque ou de l'arrêt du thread. Lorsque ce problème se produit lors de la définition de la configuration de la santé de vSAN, le service de santé ne peut pas démarrer.

    Ce problème est résolu dans cette version.

  • PR 2250697 : La validation du cluster de basculement de Windows Server peut échouer si vous configurez Virtual Volumes avec une stratégie de chemin d'accès Round Robin

    Au cours de l'installation du cluster de basculement de Windows Server, si vous remplacez la stratégie de chemin d'accès Fixe ou Plus fréquemment utilisé par Round Robin, l'E/S du cluster peut échouer et le cluster peut cesser de répondre.

    Ce problème est résolu dans cette version.

  • PR 2191342 : Dans les builds de versions, le démon de surveillance du disque SMART, smartd, peut saturer les journaux du service syslog avec des messages d'information et de débogage

    Dans les builds de versions, le démon smartd peut générer un grand nombre de messages d'information et de débogage dans les journaux du service Syslog.

    Ce problème est résolu dans cette version. Le correctif supprime les messages de débogage dans les builds de versions.

  • PR 2197795 : Le programmateur de VMware vSphere Network I/O Control (NIOC) peut réinitialiser par intermittence le périphérique réseau de liaison montante

    Le programmateur NIOC peut réinitialiser le périphérique réseau de liaison montante si la liaison montante est rarement utilisée. La réinitialisation n'est pas prévisible.

    Ce problème est résolu dans cette version.

  • PR 2221935 : Les hôtes ESXi peuvent échouer par intermittence si vous désactivez les adresses IPv6 globales

    Les hôtes ESXi peuvent échouer par intermittence si vous désactivez les adresses IPv6 globales car un chemin de code utilise toujours IPv6.

    Ce problème est résolu dans cette version. Si vous êtes déjà confronté à ce problème, réactivez les adresses IPv6 globales pour éviter la panne des hôtes. Si vous devez désactiver les adresses IPv6 pour une raison quelconque, il vous faut désactiver IPv6 sur chaque carte réseau vmk, pas les adresses IPv6 globales.

  • PR 2193830 : Le processus de fichier exécutable de machine virtuelle peut échouer et arrêter des machines virtuelles lors d'un redémarrage du système d'exploitation invité

    En raison d'une condition de concurrence, le processus de fichier exécutable de machine virtuelle peut échouer et arrêter des machines virtuelles lors d'un redémarrage du système d'exploitation invité.

    Ce problème est résolu dans cette version.

  • PR 2210364 : Le démon ESXi hostd peut cesser de répondre lors de l'attente de la fin d'un processus externe

    Hostd peut cesser de répondre lors de l'attente de la fin d'un processus externe initié avec la commande esxcfg-syslog.

    Ce problème est résolu dans cette version.

  • PR 2177107 : Un verrouillage logiciel de CPU physiques peut entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet

    Le dépassement du délai d'attente d'un grand nombre d'E/S en raison de la charge élevée d'un système peut provoquer un verrouillage logiciel des CPU physiques. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version.

  • PR 2179263 : Les machines virtuelles avec un CD-ROM SATA virtuel peuvent échouer en raison de commandes non valides

    Des commandes non valides envoyées à un CD-ROM SATA virtuel peuvent déclencher des erreurs et augmenter l'utilisation de la mémoire des machines virtuelles. Les machines virtuelles qui ne sont pas en mesure d'allouer de la mémoire peuvent alors tomber en panne. Les journaux suivants peuvent s'afficher pour les commandes non valides :

    YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
    YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.

    Un message PANIC semblable à celui-ci peut également s'afficher :
    YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure

    Ce problème est résolu dans cette version.

  • PR 2185906 : La migration de machines virtuelles à l'aide de VMware vSphere vMotion peut échouer avec une erreur de compatibilité NamespaceDb si le service Guest Introspection est activé

    Si le service Guest Introspection dans un environnement vSphere 6.7 comportant plus de 150 machines virtuelles est actif, la migration de machines virtuelles à l'aide de vSphere vMotion peut échouer dans vSphere Web Client avec une erreur semblable à La source a détecté que la destination ne peut pas reprendre ses opérations.
    Le fichier vmware.log de destination contient des messages d'erreur semblables à ceux-ci :

    2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
    2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
    2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
    2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
    2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.

    Le journal vmkernel contient des messages d'erreur semblables à ceux-ci :

    2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
    2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3

    Ce problème est résolu dans cette version.

  • PR 2204508 : Le diagramme de performances avancé peut cesser d'afficher les données après un redémarrage de hostd

    Vous pouvez modifier les données statistiques à collecter uniquement lorsque la machine virtuelle est dans un état d'alimentation particulier. Par exemple, vous ne pouvez pas modifier les données de mémoire lorsque la machine virtuelle est sous tension. Lorsque vous redémarrez le service hostd, la machine virtuelle risque de ne pas changer son état d'alimentation, ce qui entraîne l'initialisation de fausses données. Le calcul du compteur de mémoire consommée par l'hôte peut provoquer une division par zéro et le diagramme peut arrêter de tracer des graphiques.

    Ce problème est résolu dans cette version.

  • PR 2211350 : Un port de la machine virtuelle peut être bloqué après un basculement VMware vSphere High Availability (vSphere HA)

    Par défaut, la fonctionnalité Isolation Response d'un hôte ESXi sur lequel vSphere HA est activé est désactivée. Lorsque la fonctionnalité de réponse d'isolation est activée, un port de la machine virtuelle, qui est connecté à un commutateur logique NSX-T, peut se bloquer après un basculement de vSphere HA.

    Ce problème est résolu dans cette version. 

  • PR 2204204 : Les cartes réseau virtuelles e1000 peuvent abandonner par intermittence des paquets GRE non reconnus

    Les cartes réseau virtuelles e1000 peuvent abandonner par intermittence des paquets GRE non reconnus en raison d'un problème d'analyse.

    Ce problème est résolu dans cette version.

  • PR 2226565 : Le démarrage d'ESXi sur un matériel Apple peut échouer avec une erreur indiquant que le tampon Mutiboot est trop petit

    Lors du démarrage d'un système Apple, le processus de démarrage peut s'arrêter avec le message d'erreur suivant :
    Arrêt des services du microprogramme…
    Le tampon Multiboot est trop petit.
    Erreur irrécupérable

    Le problème affecte uniquement certaines versions de microprogramme Apple.

    Ce problème est résolu dans cette version.

  • PR 2240385 : Les machines virtuelles peuvent échouer lors d'une opération de snapshot mise au repos à long terme

    Si hostd redémarre lors d'une opération de snapshot mise au repos à long terme, hostd peut exécuter automatiquement la commande de consolidation de snapshot pour supprimer les disques redondants et améliorer les performances des machines virtuelles. Toutefois, la commande de consolidation peut concurrencer l'opération de snapshot mise au repos en cours d'exécution et provoquer l'échec de machines virtuelles.

    Ce problème est résolu dans cette version.

  • PR 2163397 : L'agent SNMP peut afficher l'état de batterie D_Failed

    L'agent SNMP peut afficher l'état D_Failed pour toutes les batteries lorsque vous exécutez la commande snmpwalk. Ce problème se produit en raison du traitement du code, qui peut ne pas vérifier correctement l'état et l'interprétation incorrecte des capteurs compacts avec un code spécifique du capteur.

    Ce problème est résolu dans cette version.

  • PR 2238134 : Lorsque vous utilisez une stratégie d'association de hachage d'adresse IP ou de hachage d'adresse MAC source, les paquets peuvent être rejetés ou transiter par la mauvaise liaison montante

    Lorsque vous utilisez une stratégie d'association de hachage d'adresse IP ou de hachage d'adresse MAC source, certains paquets provenant de la liste de paquets peuvent utiliser une autre liaison montante. Par conséquent, certains d'entre eux peuvent être rejetés ou ne pas transiter par la liaison montante déterminée par la stratégie d'association.

    Ce problème est résolu dans cette version.

  • PR 2213883 : Un hôte ESXi cesse de répondre lorsqu'il se déconnecte d'une banque de données NFS configurée pour la journalisation

    Si une banque de données NFS est configurée en tant que banque de données syslog et qu'un hôte ESXi se déconnecte d'elle, la connexion à la banque de données s'arrête et l'hôte ESXi peut cesser de répondre.

    Ce problème est résolu dans cette version.

  • PR 2141221 : un hôte ESXi peut échouer lors de la réplication de machines virtuelles à l'aide de VMware vSphere Replication avec VMware Site Recovery Manager

    Lorsque vous répliquez des machines virtuelles à l'aide de vSphere Replication avec Site Recovery Manager, l'hôte ESXi peut échouer avec un écran de diagnostic violet immédiatement ou dans les 24 heures. Un message d'erreur semblable au message suivant peut s'afficher : ​PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc.

    Ce problème est résolu dans cette version.

  • PR 2240444 : Le démon hostd peut échouer avec une erreur due à un trop grand nombre de verrous

    Les configurations plus grandes peuvent dépasser la limite du nombre de verrous et hostd commence à échouer avec une erreur semblable à :
    hostd Panic: MXUserAllocSerialNumber: too many locks!

    Ce problème est résolu dans cette version. Le correctif supprime la limite du nombre de verrous.

  • PR 2249713 : La commande de plug-in réseau esxcli peut par conséquent renvoyer une valeur false

    La commande réseau esxcli $esxcli.network.nic.coalesce.set.Invoke peut par conséquent renvoyer une valeur false, même si la valeur est correctement définie. Cela peut avoir une incidence sur vos scripts d'automatisation. 

    Ce problème est résolu dans cette version.

  • PR 2184068 : Un hôte ESXi peut échouer avec un écran de diagnostic violet lors de l'accès à une banque de données VMFS

    Lorsqu'une machine virtuelle tente d'accéder à une banque de données VMFS comportant un répertoire endommagé, l'hôte ESXi peut échouer avec un écran de diagnostic violet et le message d'erreur DirEntry corruption.

    Ce problème est résolu dans cette version.

  • PR 2257480 : La valeur de la clé LACPPDU Actor peut être remplacée par 0

    La clé LACPPDU Actor peut remplacer sa valeur par 0 pendant le basculement d'état de liaison.

    Ce problème est résolu dans cette version.

  • PR 2235031 : Un hôte ESXi cesse de répondre et des avertissements signalent que la taille de segment de mémoire maximale a été atteinte dans vmkernel.log

    En raison d'un problème de synchronisation dans VMkernel, les tampons risquent de ne pas être vidés et le segment de mémoire s'épuise. Par conséquent, les services tels que hostd, vpxa et vmsyslogd risquent de ne pas être en mesure d'écrire des journaux sur l'hôte ESXi et l'hôte cesse de répondre. Dans /var/log/vmkernel.log, vous pouvez voir un avertissement similaire à celui-ci :WARNING: Heap: 3571: Heap vfat already at its maximum size. Cannot expand.

    Ce problème est résolu dans cette version.

  • PR 2257354 : Certaines machines virtuelles peuvent devenir non valides lors d'une tentative d'installation ou de mise à jour de VMware Tools

    Si vous avez modifié le type d'un périphérique CD-ROM virtuel d'une machine virtuelle dans une version antérieure d'ESXi, après la mise à jour vers une version ultérieure, lorsque vous tentez d'installer ou de mettre à jour VMware Tools, la machine virtuelle peut être arrêtée et marquée comme non valide.

    Ce problème est résolu dans cette version.

  • PR 2212140 : Le renouvellement d'un certificat d'hôte peut ne pas pousser l'ensemble de la chaîne d'approbation vers l'hôte ESXi

    Lorsque vous renouvelez un certificat, seul le premier certificat de la chaîne de confiance fournie peut être stocké sur l'hôte ESXi. Tous les certificats d'autorité de certification intermédiaires sont tronqués. En raison des certificats manquants, la chaîne de l'autorité de certification racine ne peut pas être créée. Cela entraîne un avertissement pour une connexion non approuvée.

    Ce problème est résolu dans cette version.

  • PR 2279897 : La création d'un snapshot d'une machine virtuelle peut échouer en raison d'un paramètre VvolId null

    Si un fournisseur de vSphere API for Storage Awareness modifie la stratégie vSphere Virtual Volumes sans surveillance, un paramètre VvolID null peut mettre à jour les métadonnées vSphere Virtual Volumes. Cela entraîne un appel VASA avec un paramètre VvoId null et un échec lors de la création d'un snapshot de machine virtuelle.

    Ce problème est résolu dans cette version. Le correctif gère l'échec de la modification de la stratégie et empêche le paramètre VvolId null.

  • PR 2227623 : Le clonage parallèle de plusieurs machines virtuelles sur une banque de données vSphere Virtual Volumes peut échouer avec un message d'erreur indiquant que la création de fichier a échoué

    Si un appel d'un fournisseur de vSphere API for Storage Awareness échoue en raison de l'indisponibilité de toutes les connexions au fournisseur virtuel, les opérations de clonage parallèle de plusieurs machines virtuelles sur une banque de données vSphere Virtual Volumes peuvent cesser de répondre ou échouer avec un message d'erreur similaire à Impossible d'effectuer l'opération de création du fichier.

    Ce problème est résolu dans cette version.

  • PR 2277648 : Un hôte ESXi peut échouer avec un écran de diagnostic violet affichant un message d'alerte sbflush_internal

    Un hôte ESXi peut échouer avec un écran de diagnostic violet affichant un message d'alerte sbflush_internal en raison de certaines différences dans les statistiques internes.

    Ce problème est résolu dans cette version. Le correctif convertit le message d'alerte en une assertion.

  • PR 2221778 : Vous ne pouvez pas migrer des machines virtuelles à l'aide de vSphere vMotion entre des hôtes ESXi avec des commutateurs virtuel distribués NSX (N-VDS) gérés et des commutateurs vSphere Standard

    Avec ESXi 6.7 Update 2, vous pouvez migrer des machines virtuelles à l'aide de vSphere vMotion entre des hôtes ESXi avec des commutateurs N-VDS et des commutateurs vSphere Standard. Pour activer la fonctionnalité, vous devez mettre à niveau le système vCenter Server vers vCenter Server 6.7 Update 2 et ESXi 6.7 Update 2 sur les sites sources et de destination.

    Ce problème est résolu dans cette version.

  • PR 2287560 : Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'une exception de défaut de page

    Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'une exception de défaut de page. L'erreur provient d'un indicateur manquant qui peut déclencher l'éviction du cache sur un objet qui n'existe plus et qui entraîne une référence de pointeur NULL.

    Ce problème est résolu dans cette version.

  • PR 2268541 : Vous pouvez voir des messages VOB redondants dans le système vCenter Server, tels que Redondance de liaison montante perdue sur le commutateur virtuel « xxx »

    Lors de la vérification de l'état de la liaison montante, la stratégie d'association peut ne pas vérifier si la liaison montante appartient à un groupe de ports et si le groupe de ports concerné n'est pas correct. Par conséquent, vous pouvez voir des messages VOB redondants dans le fichier /var/run/log/vobd.log, tels que :

    Redondance de liaison montante perdue sur le commutateur virtuel« xxx ». vmnicX de la carte réseau physique est inactif. Groupes de ports concernés :« xxx ».

    Ce problème est résolu dans cette version.

  • PR 2203837 : Des règles de réclamation doivent être ajoutées manuellement à l'hôte ESXi

    Vous devez ajouter manuellement les règles de réclamation à un hôte ESXi pour les baies de stockage Lenovo ThinkSystem série DE.

    Ce problème est résolu dans cette version. Ce correctif définit Stockage Array Type Plug-in (SATP) sur VMW_SATP_ALUA, la stratégie de sélection de chemin d'accès (PSP, Path Selection Policy) sur VMW_PSP_RR et les options de réclamation sur tpgs_on comme valeurs par défaut pour les baies de stockage Lenovo ThinkSystem série DE.

  • PR 2236531 : Un hôte ESXi peut être déconnecté d'un système vCenter Server

    Le service vpxa peut échouer en raison d'une utilisation excessive de la mémoire lors d'une itération sur une grande arborescence de répertoires. Par conséquent, un hôte ESXi peut être déconnecté d'un système vCenter Server.

    Ce problème est résolu dans cette version.

  • PR 2242656 : Les mises à jour avec les commandes ESXCLI peuvent échouer lorsque SecureBoot est activé

    Les commandes esxcli Software profile update ou esxcli software profile install peuvent échouer sur les hôtes exécutant ESXi 6.7 Update 1 où SecureBoot est activé. Vous pouvez voir des messages d'erreur tels que Échec de la configuration de la mise à niveau à l'aide du VIB esx-update et Échec du montage de tardisk dans ramdisk : [Errno 1] Opération non autorisée.

    Ce problème est résolu dans cette version. Si vous êtes déjà confronté à ce problème, exécutez la commande esxcli software vib update pour mettre à jour votre système vers ESXi 6.7 Update 2. Vous pouvez également désactiver SecureBoot, exécuter les commandes ESXCLI, puis réactiver SecureBoot.

  • PR 2250653 : Le montage du volume NFS peut ne pas persister après le redémarrage d'un hôte ESXi

    Le montage du volume NFS peut ne pas persister après un redémarrage d'un hôte ESXi en raison d'une panne intermittente lors de la résolution du nom d'hôte du serveur NFS.

    Ce problème est résolu dans cette version. Le correctif ajoute la logique de nouvelle tentative si une résolution de nom d'hôte échoue.

  • PR 2260748 : Vous pouvez perdre la connectivité par intermittence lors de l'utilisation de l'option Route basée sur la charge NIC physique dans vSphere Distributed Switch

    Ce problème se produit si vous créez un port VMK ou vNIC en utilisant l'option Route basée sur la charge NIC physique lorsque la carte réseau physique attribuée à ce groupe de ports est temporairement hors service. Dans ce cas, la liaison montante de l'association de ports n'est pas définie, car il n'y a pas de liaison montante active dans le groupe de ports. Lorsque la carte réseau physique redevient active, le code d'association ne parvient pas à mettre à jour les données de port, ce qui entraîne une perte de paquets.

    Ce problème est résolu dans cette version.

  • PR 2256001 : L'hôte échoue avec Bucketlist_LowerBound ou PLOGRelogRetireLsns dans la trace de débogage

    Une condition de concurrence peut se produire lorsque Plog Relog s'exécute avec DecommissionMD, provoquant l'accès par Relog aux tables d'état de périphérique Plog libéré. Ce problème peut entraîner une panne de l'hôte avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version.

  • PR 2266762 : De nombreux avertissements peuvent s'afficher pour les tailles de blocs physiques non prises en charge dans les journaux vmkernel

    Si vous utilisez des périphériques ayant une taille de bloc physique autre que 4 096 ou 512 Mo, dans les journaux VMkernel, vous pouvez voir de nombreux avertissements semblables à celui-ci :
    ScsiPath: 4395: La taille de bloc physique « 8 192 » signalée par le chemin vmhba3:C0:T1:L0 n'est pas prise en charge.

    Ce problème est résolu dans cette version. Le correctif convertit les avertissements en messages de journal de débogage.

  • PR 2263849 : Les opérations sur le cluster étendu ont échoué, car le nom « _VSAN_VER3 » n'est pas défini

    Après la configuration ou la mise à niveau d'un cluster étendu vSAN, toutes les demandes au niveau du cluster peuvent échouer. Le message d'erreur suivant peut s'afficher :
    Le nom « _VSAN_VER3 » n'est pas défini.

    Ce problème est résolu dans cette version.

  • PR 2267698 : Les graphiques de performances de vSAN n'affichent pas correctement les mesures VMDK

    Si le dossier de la machine virtuelle est créé à l'aide d'un nom plutôt qu'un UUID, les graphiques de performances de vSAN n'affichent pas correctement les mesures VMDK suivantes :
    - IOPS et limite d'IOPS
    - IOPS normalisées différées

    Ce problème est résolu dans cette version.

  • PR 2271653 : Vous pouvez voir des rapports incorrects pour les paquets abandonnés lorsque vous utilisez IOChain et que la fonctionnalité LRO (Large Receive Offload) est activée

    Dans Hôte > Surveiller > Performance > Adaptateurs physiques> Taux d'abandon de ports pNIC vSwitch, vous pouvez voir un compteur indiquant des paquets abandonnés, alors qu'aucun paquet n'est abandonné. Cela est dû au fait que l'infrastructure IOChain traite le nombre réduit de paquets, lors de l'utilisation de LRO, comme abandons de paquets.

    Ce problème est résolu dans cette version.

  • PR 2232538 : Un hôte ESXi peut échouer lors de la mise sous tension d'une machine virtuelle dont le nom commence par « SRIOV »

    Un hôte ESXi peut échouer avec un écran de diagnostic violet lors de la mise sous tension d'une machine virtuelle. Cela se produit si le nom de la machine virtuelle commence par « SRIOV » et dispose d'une liaison montante connectée à vSphere Distributed Switch.

    Ce problème est résolu dans cette version.

  • PR 2210056 : Si SNMP désactive des ensembles de règles dynamiques, mais que ces derniers sont actifs dans un profil d'hôte, vous pouvez voir une erreur de conformité inattendue

    Dans une condition de concurrence rare, lorsque SNMP désactive des ensembles de règles dynamiques, mais que ceux-ci sont actifs dans un profil d'hôte, vous pouvez voir une erreur de conformité inattendue telle que Ruleset dynamicruleset introuvable.

    Ce problème est résolu dans cette version.

  • PR 2271322 : La récupération d'une machine virtuelle exécutant Windows 2008 ou version ultérieure à l'aide de vSphere Replication avec mise au repos de l'application activée peut créer un réplica endommagé

    La récupération d'une machine virtuelle exécutant Windows 2008 ou version ultérieure à l'aide de vSphere Replication avec mise au repos de l'application activée peut créer un réplica endommagé. Le dommage se produit uniquement lorsque la mise au repos de l'application est activée. Si VMware Tools sur la machine virtuelle n'est pas configuré pour la mise au repos de l'application, vSphere Replication utilise un niveau de cohérence inférieur, tel que la mise au repos du système de fichiers, et les réplicas ne sont pas endommagés.

    Ce problème est résolu dans cette version.

  • PR 2272737 : Lorsque vous exécutez des demandes CIM de plus de 2 Mo, la configuration de SFCB peut échouer sur un hôte ESXi

    Lorsque vous exécutez des demandes CIM de plus de 2 Mo, comme le téléchargement d'un microprogramme, le service CIM peut échouer sur un hôte ESXi en raison d'un espace de pile insuffisant et le fichier SFCB zdumb est présent dans /var/core.

    Ce problème est résolu dans cette version.

  • PR 2286563 : Le nombre de fichiers d'archive syslog.log générés peut être inférieur à la valeur par défaut configurée et différent entre les versions d'ESXi 6.0 et 6.7

    Le nombre de fichiers d'archive syslog.log générés peut être inférieur à la valeur par défaut définie à l'aide du paramètre syslog.global.defaultRotate. Le nombre de fichiers d'archive du journal syslog.log peut également être différent entre les versions d'ESXi 6.0 et 6.7. Par exemple, si syslog.global.defaultRotate est défini sur 8 par défaut, ESXi 6.0 crée syslog.0.gz à syslog.7.gz, alors qu'ESXi 6.7 crée syslog.0.gz à syslog.6.gz.

    Ce problème est résolu dans cette version.

  • PR 2178119 : Si une valeur élevée est définie pour l'option de configuration avancée /Misc/MCEMonitorInterval, les hôtes ESXi peuvent cesser de répondre

    Si vous définissez l'option de configuration avancée /Misc/MCEMonitorInterval sur une valeur très élevée, les hôtes ESXi peuvent cesser de répondre après environ 10 jours d'activité, en raison d'un dépassement de délai d'attente.

    Ce problème est résolu dans cette version.

  • PR 2223879 : Un hôte ESXi peut échouer avec un écran de diagnostic violet et une erreur signalant un éventuel blocage

    Le verrou P2MCache est un verrouillage total de CPU provoquant le ralentissement des performances d'une CPU, susceptible d'entraîner la défaillance des autres CPU. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet et l'erreur Spin count exceeded - possible deadlock, PVSCSIDoIOComplet, NFSAsyncIOComplete.

    Ce problème est résolu dans cette version. 

  • PR 2221256 : Un hôte ESXi peut échouer avec un écran de diagnostic violet lors d'une opération Storage vMotion entre des banques de données NFS

    Un hôte ESXi peut échouer avec un écran de diagnostic violet lors d'une opération Storage vMotion entre des banques de données NFS, en raison d'une condition de concurrence dans le chemin d'exécution de la demande. La condition de concurrence se produit en cas de charge d'E/S intense dans la pile NFS.

    Ce problème est résolu dans cette version.

  • PR 2258272 : L'hôte ESXi sur lequel vSAN est activé échoue en raison d'une condition de concurrence dans le workflow de désaffectation

    Lors d'une opération de désaffectation de disque, une condition de concurrence dans le workflow de désaffectation peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version.

  • PR 2219661 : Un hôte ESXi peut échouer avec un écran de diagnostic violet si RSS est activé sur une carte réseau physique

    Un hôte ESXi peut échouer avec un écran de diagnostic violet si RSS est activé sur une carte réseau physique. Vous pouvez voir une trace de débogage similaire à celle-ci :
    yyyy-mm-dd cpu9:2097316)0x451a8521bc70:[0x41801a68ad30]RSSPlugCleanupRSSEngine@(lb_netqueue_bal)# +0x7d stack: 0x4305e4c1a8e0, 0x41801a68af2b, 0x430db8c6b188, 0x4305e4c1a8e0,
    0x0yyyy-mm-dd cpu9:2097316)0x451a8521bc90:[0x41801a68af2a]RSSPlugInitRSSEngine@(lb_netqueue_bal)# +0x127 stack: 0x0, 0x20c49ba5e353f7cf, 0x4305e4c1a930, 0x4305e4c1a800, 0x4305e4c1a9f0
    yyyy-mm-dd cpu9:2097316)0x451a8521bcd0:[0x41801a68b21c]RSSPlug_PreBalanceWork@(lb_netqueue_bal)# +0x1cd stack: 0x32, 0x32, 0x0, 0xe0, 0x4305e4c1a800
    yyyy-mm-dd cpu9:2097316)0x451a8521bd30:[0x41801a687752]Lb_PreBalanceWork@(lb_netqueue_bal)# +0x21f stack: 0x4305e4c1a800, 0xff, 0x0, 0x43057f38ea00, 0x4305e4c1a800
    yyyy-mm-dd cpu9:2097316)0x451a8521bd80:[0x418019c13b18]UplinkNetqueueBal_BalanceCB@vmkernel#nover+0x6f1 stack: 0x4305e4bc6088, 0x4305e4c1a840, 0x4305e4c1a800, 0x4305e435fb30, 0x4305e4bc6088
    yyyy-mm-dd cpu9:2097316)0x451a8521bf00:[0x418019cd1c89]UplinkAsyncProcessCallsHelperCB@vmkernel#nover+0x116 stack: 0x430749e60870, 0x430196737070, 0x451a85223000, 0x418019ae832b, 0x430749e60088
    yyyy-mm-dd cpu9:2097316)0x451a8521bf30:[0x418019ae832a]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430749e600b8, 0x430749e600a8, 0x430749e600e0, 0x451a85223000, 0x430749e600b8
    yyyy-mm-dd cpu9:2097316)0x451a8521bfe0:[0x418019d081f2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0, 0x0, 0x0, 0x0, 0x0

    Ce problème est résolu dans cette version. Le correctif nettoie les données dans le moteur RSS afin d'éviter la surcharge du segment de mémoire dédié de l'équilibrage de charge de NetQueue.

  • PR 2268826 : Un hôte ESXi peut échouer avec un écran de diagnostic violet lorsque le fournisseur VMware API for Storage Awareness (VASA) envoie une demande de reliaison pour modifier le point de terminaison de protocole d'un vSphere Virtual Volume

    Lorsque le fournisseur VASA envoie une demande de reliaison à un hôte ESXi pour changer la liaison d'un pilote vSphere Virtual Volume particulier, l'hôte ESXi peut modifier le point de terminaison de protocole et d'autres ressources pour modifier la liaison sans perturbation d'E/S. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version.

  • PR 2224767 : De fausses alarmes de santé du matériel peuvent être générées par des capteurs IPMI (Intelligent Platform Management Interface)

    Certains capteurs IPMI peuvent passer par intermittence du vert au rouge et inversement, ce qui crée de fausses alarmes de santé matérielle.

    Ce problème est résolu dans cette version. Avec ce correctif, vous pouvez utiliser la commande d'option avancée esxcfg-advcfg-s {Sensor ID}: {Sensor ID}/UserVars/HardwareHealthIgnoredSensors pour ignorer les alarmes de santé du matériel des capteurs sélectionnés.

  • PR 2257590 : Un hôte ESXi peut échouer avec une erreur d'admission de mémoire si vous installez un plug-in d'API de gestion iSCSI (IMA) 32 bits asynchrone

    Si vous installez un plug-in IMA 32 bits asynchrone et que des plug-ins IMA 32 bits sont déjà installés, le système peut essayer de charger ces plug-ins et vérifier s'ils sont chargés à partir de l'adaptateur iSCSI indépendant de QLogic. Au cours de ce processus, l'hôte ESXi peut échouer avec une erreur d'admission de mémoire.

    Ce problème est résolu dans cette version. Ce correctif charge chaque plug-in IMA 32 bits uniquement à partir de l'adaptateur QLogic.

  • PR 2241917 : Une opération de reprotection peut échouer avec une erreur lors de la synchronisation de vSphere Replication

    Si vous exécutez une opération de reprotection à l'aide de Site Recovery Manager, l'opération peut échouer si une machine virtuelle est en retard avec la synchronisation initiale. Une erreur semblable à celle-ci peut s'afficher :
    Échec lors de la synchronisation VR pour le groupe VRM {…}. Opération expirée : 10 800 secondes

    Ce problème est résolu dans cette version.

  • PR 2246891 : Une erreur d'E/S TASK_SET_FULL sur un LUN secondaire peut ralentir le taux d'E/S sur tous les LUN secondaires derrière le point de terminaison de protocole de volumes virtuels sur le stockage HPE 3PAR si la limitation d'E/S est activée

    Lorsque la limitation d'E/S est activée sur un point de terminaison de protocole de volumes virtuels sur le stockage HPE 3PAR et qu'une E/S sur un LUN secondaire échoue avec une erreur TASK_SET_FULL, le taux d'E/S sur tous les LUN secondaires associés au point de terminaison de protocole ralentit.

    Ce problème est résolu dans cette version. Avec ce correctif, vous pouvez activer la limitation d'E/S sur des volumes virtuels individuels pour éviter le ralentissement de tous les LUN secondaires derrière le point de terminaison de protocole si l'erreur TASK_SET_FULL se produit.

ESXi670-201904202-UG
Catégorie des correctifs Correctif de bogues
Gravité des correctifs Important
Redémarrage de l'hôte requis Oui
Migration ou arrêt de la machine virtuelle requis Oui
Matériel concerné S.O.
Logiciels concernés S.O.
VIB inclus
  • VMW_bootbank_i40en_1.3.1-23vmw.670.2.48.13006603
PR résolus  S.O.
Numéros CVE S.O.

Ce correctif met à jour le VIB i40en.

    ESXi670-201904203-UG
    Catégorie des correctifs Correctif de bogues
    Gravité des correctifs Important
    Redémarrage de l'hôte requis Oui
    Migration ou arrêt de la machine virtuelle requis Oui
    Matériel concerné S.O.
    Logiciels concernés S.O.
    VIB inclus
    • VMW_bootbank_igbn_0.1.1.0-4vmw.670.2.48.13006603
    PR résolus  S.O.
    Numéros CVE S.O.

    Ce correctif met à jour le VIB igbn.

      ESXi670-201904204-UG
      Catégorie des correctifs Correctif de bogues
      Gravité des correctifs Important
      Redémarrage de l'hôte requis Oui
      Migration ou arrêt de la machine virtuelle requis Oui
      Matériel concerné S.O.
      Logiciels concernés S.O.
      VIB inclus
      • VMW_bootbank_ixgben_1.4.1-18vmw.670.2.48.13006603
      PR résolus  S.O.
      Numéros CVE S.O.

      Ce correctif met à jour le VIB ixgben.

        ESXi670-201904205-UG
        Catégorie des correctifs Correctif de bogues
        Gravité des correctifs Important
        Redémarrage de l'hôte requis Oui
        Migration ou arrêt de la machine virtuelle requis Non
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB inclus
        • VMW_bootbank_ne1000_0.8.4-2vmw.670.2.48.13006603
        PR résolus  S.O.
        Numéros CVE S.O.

        Ce correctif met à jour le VIB ne1000.

          ESXi670-201904206-UG
          Catégorie des correctifs Correctif de bogues
          Gravité des correctifs Important
          Redémarrage de l'hôte requis Oui
          Migration ou arrêt de la machine virtuelle requis Oui
          Matériel concerné S.O.
          Logiciels concernés S.O.
          VIB inclus
          • VMW_bootbank_vmkusb_0.1-1vmw.670.2.48.13006603
          PR résolus  S.O.
          Numéros CVE S.O.

          Ce correctif met à jour le VIB vmkusb.

            ESXi670-201904207-UG
            Catégorie des correctifs Correctif de bogues
            Gravité des correctifs Important
            Redémarrage de l'hôte requis Oui
            Migration ou arrêt de la machine virtuelle requis Oui
            Matériel concerné S.O.
            Logiciels concernés S.O.
            VIB inclus
            • VMware_bootbank_qlnativefc_3.1.8.0-4vmw.670.2.48.13006603
            PR résolus  2228529
            Numéros CVE S.O.

            Ce correctif met à jour le VIB qlnativefc.

            • Mise à jour du pilote qlnativefc

              Le pilote qlnativefc est mis à jour vers la version 3.1.8.0.

            ESXi670-201904208-UG
            Catégorie des correctifs Correctif de bogues
            Gravité des correctifs Modéré
            Redémarrage de l'hôte requis Oui
            Migration ou arrêt de la machine virtuelle requis Oui
            Matériel concerné S.O.
            Logiciels concernés S.O.
            VIB inclus
            • VMW_bootbank_nfnic_4.0.0.17-0vmw.670.2.48.13006603
            PR résolus  2231435
            Numéros CVE S.O.

            Ce correctif met à jour le VIB nfnic.

            • Mise à jour du pilote nfnic

              Le pilote nfnic est mis à jour vers la version 4.0.0.17.

            ESXi670-201904209-UG
            Catégorie des correctifs Correctif de bogues
            Gravité des correctifs Important
            Redémarrage de l'hôte requis Oui
            Migration ou arrêt de la machine virtuelle requis Oui
            Matériel concerné S.O.
            Logiciels concernés S.O.
            VIB inclus
            • VMW_bootbank_brcmfcoe_11.4.1078.19-12vmw.670.2.48.13006603
            PR résolus  S.O.
            Numéros CVE S.O.

            Ce correctif met à jour le VIB brcmfcoe.

              ESXi670-201904210-UG
              Catégorie des correctifs Correctif de bogues
              Gravité des correctifs Important
              Redémarrage de l'hôte requis Oui
              Migration ou arrêt de la machine virtuelle requis Oui
              Matériel concerné S.O.
              Logiciels concernés S.O.
              VIB inclus VMW_bootbank_lpfc_11.4.33.18-12vmw.670.2.48.13006603
              PR résolus  S.O.
              Numéros CVE S.O.

              Ce correctif met à jour le VIB lpfc.

                ESXi670-201904211-UG
                Catégorie des correctifs Amélioration
                Gravité des correctifs Important
                Redémarrage de l'hôte requis Oui
                Migration ou arrêt de la machine virtuelle requis Oui
                Matériel concerné S.O.
                Logiciels concernés S.O.
                VIB inclus
                • VMware_bootbank_elx-esx-libelxima.so_11.4.1184.1-2.48.13006603
                PR résolus  2226688 
                Numéros CVE S.O.

                Ce correctif met à jour le VIB elx-esx-libelxima.so afin de résoudre le problème suivant :

                • PR 2226688 : Les journaux de pilotes Emulex peuvent remplir les journaux du système de fichiers /var

                  Les pilotes Emulex peuvent écrire des journaux sur /var/log/EMU/mili/mili2d.log et remplir les journaux du système de fichiers /var de 40 Mo des lecteurs RAM.

                  Ce problème est résolu dans cette version. Le correctif effectue les écritures des pilotes Emulex dans /scratch/log/ plutôt que dans /var/log/.

                ESXi670-201904212-UG
                Catégorie des correctifs Correctif de bogues
                Gravité des correctifs Critique
                Redémarrage de l'hôte requis Oui
                Migration ou arrêt de la machine virtuelle requis Oui
                Matériel concerné S.O.
                Logiciels concernés S.O.
                VIB inclus
                • VMW_bootbank_misc-drivers_6.7.0-2.48.13006603
                PR résolus  S.O.
                Numéros CVE S.O.

                Ce correctif met à jour le VIB misc-drivers.

                  ESXi670-201904213-UG
                  Catégorie des correctifs Correctif de bogues
                  Gravité des correctifs Important
                  Redémarrage de l'hôte requis Oui
                  Migration ou arrêt de la machine virtuelle requis Non
                  Matériel concerné S.O.
                  Logiciels concernés S.O.
                  VIB inclus
                  • VMware_bootbank_lsu-lsi-lsi-msgpt3-plugin_1.0.0-9vmw.670.2.48.13006603
                  PR résolus  S.O.
                  Numéros CVE S.O.

                  Ce correctif met à jour le VIB lsu-lsi-lsi-msgpt3-plugin​.

                    ESXi670-201904214-UG
                    Catégorie des correctifs Correctif de bogues
                    Gravité des correctifs Important
                    Redémarrage de l'hôte requis Oui
                    Migration ou arrêt de la machine virtuelle requis Non
                    Matériel concerné S.O.
                    Logiciels concernés S.O.
                    VIB inclus
                    • VMW_bootbank_sfvmk_1.0.0.1003-6vmw.670.2.48.13006603
                    PR résolus

                    2234599

                    Numéros CVE S.O.

                    Ce correctif met à jour le VIB sfvmk.

                    • ESXi 6.7 Update 2 ajoute la prise en charge du pilote natif Solarflare (sfvmk) pour périphériques adaptateurs réseau Solarflare 10G et 40G, tels que SFN8542 et SFN8522.

                    ESXi670-201904215-UG
                    Catégorie des correctifs Correctif de bogues
                    Gravité des correctifs Important
                    Redémarrage de l'hôte requis Non
                    Migration ou arrêt de la machine virtuelle requis Non
                    Matériel concerné S.O.
                    Logiciels concernés S.O.
                    VIB inclus
                    • VMW_bootbank_lsi-msgpt2_20.00.05.00-1vmw.670.2.48.13006603
                    PR résolus  2256555 
                    Numéros CVE S.O.

                    Ce correctif met à jour le VIB lsi-msgpt2.

                    • Mise à jour du pilote lsi-msgpt2

                      Le pilote lsi-msgpt2 est mis à jour vers la version 20.00.05.00 pour gérer les améliorations de la gestion des tâches et les correctifs de bogues critiques.

                    ESXi670-201904216-UG
                    Catégorie des correctifs Correctif de bogues
                    Gravité des correctifs Modéré
                    Redémarrage de l'hôte requis Oui
                    Migration ou arrêt de la machine virtuelle requis Oui
                    Matériel concerné S.O.
                    Logiciels concernés S.O.
                    VIB inclus
                    • VMW_bootbank_nmlx4-core_3.17.13.1-1vmw.670.2.48.13006603
                    PR résolus  S.O.
                    Numéros CVE S.O.

                    Ce correctif met à jour le VIB nmlx4-core.

                      ESXi670-201904217-UG
                      Catégorie des correctifs Correctif de bogues
                      Gravité des correctifs Important
                      Redémarrage de l'hôte requis Oui
                      Migration ou arrêt de la machine virtuelle requis Oui
                      Matériel concerné S.O.
                      Logiciels concernés S.O.
                      VIB inclus
                      • VMW_bootbank_nmlx4-en_3.17.13.1-1vmw.670.2.48.13006603
                      PR résolus  S.O.
                      Numéros CVE S.O.

                      Ce correctif met à jour le VIB nmlx4-en​.

                        ESXi670-201904218-UG
                        Catégorie des correctifs Correctif de bogues
                        Gravité des correctifs Important
                        Redémarrage de l'hôte requis Oui
                        Migration ou arrêt de la machine virtuelle requis Oui
                        Matériel concerné S.O.
                        Logiciels concernés S.O.
                        VIB inclus
                        • VMW_bootbank_nmlx4-rdma_3.17.13.1-1vmw.670.2.48.13006603
                        PR résolus  S.O.
                        Numéros CVE S.O.

                        Ce correctif met à jour le VIB nmlx4-rdma.

                          ESXi670-201904219-UG
                          Catégorie des correctifs Correctif de bogues
                          Gravité des correctifs Important
                          Redémarrage de l'hôte requis Oui
                          Migration ou arrêt de la machine virtuelle requis Oui
                          Matériel concerné S.O.
                          Logiciels concernés S.O.
                          VIB inclus
                          • VMW_bootbank_nmlx5-core_4.17.13.1-1vmw.670.2.48.13006603
                          PR résolus  S.O.
                          Numéros CVE S.O.

                          Ce correctif met à jour le VIB nmlx5-core​.

                            ESXi670-201904220-UG
                            Catégorie des correctifs Correctif de bogues
                            Gravité des correctifs Important
                            Redémarrage de l'hôte requis Oui
                            Migration ou arrêt de la machine virtuelle requis Oui
                            Matériel concerné S.O.
                            Logiciels concernés S.O.
                            VIB inclus
                            • VMW_bootbank_nmlx5-rdma_4.17.13.1-1vmw.670.2.48.13006603
                            PR résolus  S.O.
                            Numéros CVE S.O.

                            Ce correctif met à jour le VIB nmlx5-rdma​.

                              ESXi670-201904221-UG
                              Catégorie des correctifs Correctif de bogues
                              Gravité des correctifs Important
                              Redémarrage de l'hôte requis Oui
                              Migration ou arrêt de la machine virtuelle requis Oui
                              Matériel concerné S.O.
                              Logiciels concernés S.O.
                              VIB inclus
                              • VMW_bootbank_bnxtnet_20.6.101.7-21vmw.670.2.48.13006603
                              PR résolus  S.O.
                              Numéros CVE S.O.

                              Ce correctif met à jour le VIB bnxtnet.

                                ESXi670-201904222-UG
                                Catégorie des correctifs Correctif de bogues
                                Gravité des correctifs Important
                                Redémarrage de l'hôte requis Oui
                                Migration ou arrêt de la machine virtuelle requis Oui
                                Matériel concerné S.O.
                                Logiciels concernés S.O.
                                VIB inclus
                                • VMware_bootbank_lsu-lsi-drivers-plugin_1.0.0-1vmw.670.2.48.13006603
                                PR résolus  2242441 
                                Numéros CVE S.O.

                                Ce correctif met à jour le VIB lsu-lsi-drivers-plugin afin de résoudre le problème suivant :

                                • PR 2242441 : impossible de localiser et d'activer les LED des disques sous un contrôleur lsi-msgpt35

                                  Il se peut que vous ne puissiez pas localiser et activer les LED des disques sous un contrôleur lsi-msgpt35.

                                  Ce problème est résolu dans cette version. Le correctif introduit un nouveau lsu-lsi-drivers-plug-in qui fonctionne avec les pilotes lsi-msgpt35 asynchrones et fournis.

                                ESXi670-201904223-UG
                                Catégorie des correctifs Correctif de bogues
                                Gravité des correctifs Modéré
                                Redémarrage de l'hôte requis Oui
                                Migration ou arrêt de la machine virtuelle requis Non
                                Matériel concerné S.O.
                                Logiciels concernés S.O.
                                VIB inclus
                                • VMW_bootbank_nvme_1.2.2.27-1vmw.670.2.48.13006603
                                PR résolus  2270098 
                                Numéros CVE S.O.

                                Ce correctif met à jour le VIB nvme afin de résoudre les problèmes suivants :

                                • PR 2270098 : Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors de l'utilisation de périphériques Intel NVMe

                                  Si une demande de partage d'E/S est annulée dans le pilote nvme fourni, le chemin d'exécution de la commande peut déverrouiller le verrouillage de la file d'attente lié à une vérification incorrecte du type de commande. Cela peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.

                                  Ce problème est résolu dans cette version.

                                • PR 2270098 : Vous ne pouvez pas voir les périphériques NVMe avec un doorbell stride différent de 0h dans les hôtes ESXi

                                  Le pilote nvme VMware fourni prend uniquement en charge un doorbell stride ayant la valeur 0h et vous ne pouvez utiliser aucune autre valeur ni voir les périphériques NVMe avec un doorbell stride différent de 0h.

                                  Ce problème est résolu dans cette version.

                                ESXi670-201904224-UG
                                Catégorie des correctifs Correctif de bogues
                                Gravité des correctifs Important
                                Redémarrage de l'hôte requis Oui
                                Migration ou arrêt de la machine virtuelle requis Oui
                                Matériel concerné S.O.
                                Logiciels concernés S.O.
                                VIB inclus
                                • VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.36-2.48.13006603
                                PR résolus  2270098 
                                Numéros CVE S.O.

                                Ce correctif met à jour le VIB vmware-esx-esxcli-nvme-plugin afin de résoudre le problème suivant :

                                • PR 2270098 : Vous pouvez voir des informations de périphérique NVMe incorrectes en exécutant la commande esxcfg-scsidevs –a

                                  Pour certains périphériques NVMe de marque Dell et pour Marvell NR2241, vous pouvez voir des informations de périphérique NVMe incorrectes en exécutant la commande esxcfg-scsidevs -a ou en examinant l'interface.

                                  Ce problème est résolu dans cette version.

                                ESXi670-201904225-UG
                                Catégorie des correctifs Correctif de bogues
                                Gravité des correctifs Important
                                Redémarrage de l'hôte requis Non
                                Migration ou arrêt de la machine virtuelle requis Non
                                Matériel concerné S.O.
                                Logiciels concernés S.O.
                                VIB inclus
                                • VMW_bootbank_lsi-mr3_7.708.07.00-2vmw.670.2.48.13006603
                                PR résolus  2272901 
                                Numéros CVE S.O.

                                Ce correctif met à jour le VIB lsi-mr3.

                                • Mise à niveau du pilote Broadcom lsi-mr3

                                  Le pilote Broadcom lsi-mr3 est mis à niveau vers la version MR 7.8.

                                ESXi670-201904226-UG
                                Catégorie des correctifs Amélioration
                                Gravité des correctifs Important
                                Redémarrage de l'hôte requis Oui
                                Migration ou arrêt de la machine virtuelle requis Oui
                                Matériel concerné S.O.
                                Logiciels concernés S.O.
                                VIB inclus
                                • VMW_bootbank_lsi-msgpt35_09.00.00.00-1vmw.670.2.48.13006603
                                PR résolus  2275290 
                                Numéros CVE S.O.

                                Ce correctif met à jour le VIB lsi-msgpt35.

                                • Mise à jour du pilote lsi-msgpt35

                                  Le pilote lsi-msgpt35 est mis à jour vers la version 09.00.00.00-1vmw.

                                ESXi670-201904227-UG
                                Catégorie des correctifs Correctif de bogues
                                Gravité des correctifs Important
                                Redémarrage de l'hôte requis Oui
                                Migration ou arrêt de la machine virtuelle requis Oui
                                Matériel concerné S.O.
                                Logiciels concernés S.O.
                                VIB inclus
                                • VMW_bootbank_lsi-msgpt3_17.00.01.00-3vmw.670.2.48.13006603
                                PR résolus  2275290 
                                Numéros CVE S.O.

                                Ce correctif met à jour le VIB lsi-msgpt3.

                                • Mise à jour du pilote lsi-msgpt3

                                  Le pilote lsi-msgpt3 est mis à jour vers la version 17.00.01.00-3vmw.

                                ESXi670-201904228-UG
                                Catégorie des correctifs Correctif de bogues
                                Gravité des correctifs Important
                                Redémarrage de l'hôte requis Oui
                                Migration ou arrêt de la machine virtuelle requis Oui
                                Matériel concerné S.O.
                                Logiciels concernés S.O.
                                VIB inclus
                                • VMW_bootbank_net-vmxnet3_1.1.3.0-3vmw.670.2.48.13006603
                                PR résolus  S.O.
                                Numéros CVE S.O.

                                Ce correctif met à jour le VIB net-vmxnet3.

                                  ESXi670-201904229-UG
                                  Catégorie des correctifs Correctif de bogues
                                  Gravité des correctifs Important
                                  Redémarrage de l'hôte requis Oui
                                  Migration ou arrêt de la machine virtuelle requis Oui
                                  Matériel concerné S.O.
                                  Logiciels concernés S.O.
                                  VIB inclus
                                  • VMware_bootbank_native-misc-drivers_6.7.0-2.48.13006603
                                  PR résolus  S.O.
                                  Numéros CVE S.O.

                                  Ce correctif met à jour le VIB native-misc-drivers.

                                    ESXi670-201904101-SG
                                    Catégorie des correctifs Sécurité
                                    Gravité des correctifs Important
                                    Redémarrage de l'hôte requis Oui
                                    Migration ou arrêt de la machine virtuelle requis Oui
                                    Matériel concerné S.O.
                                    Logiciels concernés S.O.
                                    VIB inclus
                                    • VMware_bootbank_vsan_6.7.0-1.44.11399678
                                    • VMware_bootbank_esx-update_6.7.0-1.44.12986307
                                    • VMware_bootbank_esx-base_6.7.0-1.44.12986307
                                    • VMware_bootbank_vsanhealth_6.7.0-1.44.11399680
                                    PR résolus   2228005, 2301046, 2232983, 2222019, 2224776, 2260077 
                                    Numéros CVE S.O.

                                    Ce correctif met à jour les VIB esx-base, vsan et vsanhealth pour résoudre les problèmes suivants :

                                    • PR 2224776 : Les hôtes ESXi peuvent cesser de répondre si le service sfcbd ne parvient pas à traiter tous les processus en branches

                                      Vous pouvez voir de nombreux messages d'erreur tels que Heap globalCartel-1 est déjà à sa taille maximale. Développement impossible dans vmkernel.log, car le service sfcbd ne parvient pas à traiter tous les processus en branches. Par conséquent, l'hôte ESXi peut cesser de répondre et certaines opérations peuvent échouer.

                                      Ce problème est résolu dans cette version.

                                    • Mise à jour du démon Network Time Protocol (NTP)

                                      Le démon NTP est mis à jour vers la version ntp-4.2.8p12.

                                    • Mise à jour de la bibliothèque libxml2

                                      La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.8.

                                    • Mise à jour de la bibliothèque Python

                                      La bibliothèque tierce Python est mise à jour vers la version 3.5.6.

                                    • Mise à jour d'OpenSSH

                                      OpenSSH est mis jour vers la version 7.9 pour résoudre le problème de sécurité ayant l'identifiant CVE-2018-15473.

                                    • Mise à jour d'OpenSSL

                                      Le module OpenSSL est mis à jour vers la version openssl-1.0.2r.

                                    ESXi670-201904102-SG
                                    Catégorie des correctifs Sécurité
                                    Gravité des correctifs Important
                                    Redémarrage de l'hôte requis Non
                                    Migration ou arrêt de la machine virtuelle requis Non
                                    Matériel concerné S.O.
                                    Logiciels concernés S.O.
                                    VIB inclus
                                    • VMware_locker_tools-light_10.3.5.10430147-12986307
                                    PR résolus  S.O.
                                    Numéros CVE S.O.

                                    Ce correctif met à jour le VIB tools-light.

                                      ESXi670-201904103-SG
                                      Catégorie des correctifs Sécurité
                                      Gravité des correctifs Important
                                      Redémarrage de l'hôte requis Non
                                      Migration ou arrêt de la machine virtuelle requis Non
                                      Matériel concerné S.O.
                                      Logiciels concernés S.O.
                                      VIB inclus
                                      • VMware_bootbank_esx-ui_1.33.3-12923304
                                      PR résolus  S.O.
                                      Numéros CVE S.O.

                                      Ce correctif met à jour le VIB esx-ui.

                                        ESXi-6.7.0-20190402001-standard
                                        Nom du profil ESXi-6.7.0-20190402001-standard
                                        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
                                        Fournisseur VMware, Inc.
                                        Date de publication 11 avril 2018
                                        Niveau d'acceptation PartnerSupported
                                        Matériel concerné S.O.
                                        Logiciels concernés S.O.
                                        VIB concernés
                                        • VMware_bootbank_vsanhealth_6.7.0-2.48.12775454
                                        • VMware_bootbank_vsan_6.7.0-2.48.12775451
                                        • VMware_bootbank_esx-base_6.7.0-2.48.13006603
                                        • VMware_bootbank_esx-update_6.7.0-2.48.13006603
                                        • VMW_bootbank_i40en_1.3.1-23vmw.670.2.48.13006603
                                        • VMW_bootbank_igbn_0.1.1.0-4vmw.670.2.48.13006603
                                        • VMW_bootbank_ixgben_1.4.1-18vmw.670.2.48.13006603
                                        • VMW_bootbank_ne1000_0.8.4-2vmw.670.2.48.13006603
                                        • VMW_bootbank_vmkusb_0.1-1vmw.670.2.48.13006603
                                        • VMware_bootbank_qlnativefc_3.1.8.0-4vmw.670.2.48.13006603
                                        • VMW_bootbank_nfnic_4.0.0.17-0vmw.670.2.48.13006603
                                        • VMW_bootbank_brcmfcoe_11.4.1078.19-12vmw.670.2.48.13006603
                                        • VMW_bootbank_lpfc_11.4.33.18-12vmw.670.2.48.13006603
                                        • VMware_bootbank_elx-esx-libelxima.so_11.4.1184.1-2.48.13006603
                                        • VMW_bootbank_misc-drivers_6.7.0-2.48.13006603
                                        • VMware_bootbank_lsu-lsi-lsi-msgpt3-plugin_1.0.0-9vmw.670.2.48.13006603
                                        • VMW_bootbank_sfvmk_1.0.0.1003-6vmw.670.2.48.13006603
                                        • VMW_bootbank_lsi-msgpt2_20.00.05.00-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nmlx4-core_3.17.13.1-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nmlx4-en_3.17.13.1-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nmlx4-rdma_3.17.13.1-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nmlx5-core_4.17.13.1-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nmlx5-rdma_4.17.13.1-1vmw.670.2.48.13006603
                                        • VMW_bootbank_bnxtnet_20.6.101.7-21vmw.670.2.48.13006603
                                        • VMware_bootbank_lsu-lsi-drivers-plugin_1.0.0-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nvme_1.2.2.27-1vmw.670.2.48.13006603
                                        • VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.36-2.48.13006603
                                        • VMW_bootbank_lsi-mr3_7.708.07.00-2vmw.670.2.48.13006603
                                        • VMW_bootbank_lsi-msgpt35_09.00.00.00-1vmw.670.2.48.13006603
                                        • VMW_bootbank_lsi-msgpt3_17.00.01.00-3vmw.670.2.48.13006603
                                        • VMW_bootbank_net-vmxnet3_1.1.3.0-3vmw.670.2.48.13006603
                                        • VMware_bootbank_native-misc-drivers_6.7.0-2.48.13006603
                                        PR résolus 2227123, 2250472, 2273186, 2282052, 2267506, 2256771, 2269616, 2250697, 2191342, 2197795, 2221935, 2193830, 2210364, 2177107, 2179263, 2185906, 2204508, 2211350, 2204204, 2226565, 2240385, 2163397, 2238134, 2213883, 2141221, 2240444, 2249713, 2184068, 2257480, 2235031, 2257354, 2212140, 2279897, 2227623, 2277648, 2221778, 2287560, 2268541, 2203837, 2236531, 2242656, 2250653, 2260748, 2256001, 2266762, 2263849, 2267698, 2271653, 2232538, 2210056, 2271322, 2272737, 2286563, 2178119, 2223879, 2221256, 2258272, 2219661, 2268826, 2224767, 2257590, 2241917, 2246891, 2228529, 2231435, 2226688, 2234599, 2256555, 2242441, 2270098, 2272901, 2275290
                                        Numéros CVE associés S/O

                                         Ce correctif met à jour les problèmes suivants :

                                        • Ce correctif résout les problèmes suivants :

                                          • Vous pouvez par intermittence voir des alarmes pour valeurs très élevées de compteurs de latence de lecture ou d'écriture de disque, telles que datastore.totalReadLatency et datastore.totalWriteLatency.

                                          • Lorsqu'une machine virtuelle Linux est configurée avec une taille de mémoire spécifique, telle que 2 052 Mo ou 2 060 Mo, au lieu de se mettre sous tension, elle peut afficher un écran vide.

                                          • Lorsque vous configurez le réseau et activez le contrôle de santé de vSphere Distributed Switch pour effectuer des vérifications de configuration, l'hôte ESXi peut échouer avec un écran de diagnostic violet.

                                          • L'agent SNMP peut fournir une interruption vmwVmPoweredOn incorrecte lorsqu'une machine virtuelle est sélectionnée dans l'onglet Résumé et dans l'onglet Gestionnaire de snapshots dans vSphere Web Client.

                                          • DVFilter peut recevoir des valeurs inattendues ou altérées dans la mémoire tampon d'anneau de mémoire partagée, ce qui entraîne le renvoi de NULL par la fonction interne. Si cette valeur NULL n'est pas gérée normalement, un hôte ESXi peut échouer avec un écran de diagnostic violet au niveau DVFilter.

                                          • Dans l'onglet Événements de vSphere Client ou de vSphere Web Client, lorsque vous mettez sous tension ou hors tension des machines virtuelles, vous pouvez voir des événements similaires à Connectivité réseau restaurée sur le commutateur virtuel XXX, groupes de ports : XXX. Carte réseau physique vmnicX active. Lors de la vérification de l'état de la liaison montante, le rapport système peut inclure des groupes de ports qui ne sont pas affectés par l'opération de mise sous tension ou hors tension de la machine virtuelle, qui déclenche l'événement. Toutefois, l'événement n'indique pas de problème et n'appelle aucune action.

                                          • Le fichier de configuration de santé de vSAN peut être endommagé, en raison de l'absence de quota de disque ou de l'arrêt du thread. Lorsque ce problème se produit lors de la définition de la configuration de la santé de vSAN, le service de santé ne peut pas démarrer.

                                          • Au cours de l'installation du cluster de basculement de Windows Server, si vous remplacez la stratégie de chemin d'accès Fixe ou Plus fréquemment utilisé par Round Robin, l'E/S du cluster peut échouer et le cluster peut cesser de répondre.

                                          • Dans les builds de versions, le démon smartd peut générer un grand nombre de messages d'information et de débogage dans les journaux du service Syslog.

                                          • Le programmateur NIOC peut réinitialiser le périphérique réseau de liaison montante si la liaison montante est rarement utilisée. La réinitialisation n'est pas prévisible.

                                          • Les hôtes ESXi peuvent échouer par intermittence si vous désactivez les adresses IPv6 globales car un chemin de code utilise toujours IPv6.

                                          • En raison d'une condition de concurrence, le processus de fichier exécutable de machine virtuelle peut échouer et arrêter des machines virtuelles lors d'un redémarrage du système d'exploitation invité.

                                          • Hostd peut cesser de répondre lors de l'attente de la fin d'un processus externe initié avec la commande esxcfg-syslog.

                                          • Le dépassement du délai d'attente d'un grand nombre d'E/S en raison de la charge élevée d'un système peut provoquer un verrouillage logiciel des CPU physiques. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet.

                                          • Des commandes non valides envoyées à un CD-ROM SATA virtuel peuvent déclencher des erreurs et augmenter l'utilisation de la mémoire des machines virtuelles. Les machines virtuelles qui ne sont pas en mesure d'allouer de la mémoire peuvent alors tomber en panne. Les journaux suivants peuvent s'afficher pour les commandes non valides :

                                            YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
                                            YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.

                                            Un message PANIC semblable à celui-ci peut également s'afficher :
                                            YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure

                                          • Si le service Guest Introspection dans un environnement vSphere 6.7 comportant plus de 150 machines virtuelles est actif, la migration de machines virtuelles à l'aide de vSphere vMotion peut échouer dans vSphere Web Client avec une erreur semblable à La source a détecté que la destination ne peut pas reprendre ses opérations.
                                            Le fichier vmware.log de destination contient des messages d'erreur semblables à ceux-ci :

                                            2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
                                            2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
                                            2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
                                            2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
                                            2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.

                                            Le journal vmkernel contient des messages d'erreur semblables à ceux-ci :

                                            2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
                                            2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3

                                          • Vous pouvez modifier les données statistiques à collecter uniquement lorsque la machine virtuelle est dans un état d'alimentation particulier. Par exemple, vous ne pouvez pas modifier les données de mémoire lorsque la machine virtuelle est sous tension. Lorsque vous redémarrez le service hostd, la machine virtuelle risque de ne pas changer son état d'alimentation, ce qui entraîne l'initialisation de fausses données. Le calcul du compteur de mémoire consommée par l'hôte peut provoquer une division par zéro et le diagramme peut arrêter de tracer des graphiques.

                                          • Par défaut, la fonctionnalité Isolation Response d'un hôte ESXi sur lequel vSphere HA est activé est désactivée. Lorsque la fonctionnalité de réponse d'isolation est activée, un port de la machine virtuelle, qui est connecté à un commutateur logique NSX-T, peut se bloquer après un basculement de vSphere HA.

                                          • Les cartes réseau virtuelles e1000 peuvent abandonner par intermittence des paquets GRE non reconnus en raison d'un problème d'analyse.

                                          • Lors du démarrage d'un système Apple, le processus de démarrage peut s'arrêter avec le message d'erreur suivant :
                                            Arrêt des services du microprogramme…
                                            Le tampon Multiboot est trop petit.
                                            Erreur irrécupérable

                                            Le problème affecte uniquement certaines versions de microprogramme Apple.

                                          • Si hostd redémarre lors d'une opération de snapshot mise au repos à long terme, hostd peut exécuter automatiquement la commande de consolidation de snapshot pour supprimer les disques redondants et améliorer les performances des machines virtuelles. Toutefois, la commande de consolidation peut concurrencer l'opération de snapshot mise au repos en cours d'exécution et provoquer l'échec de machines virtuelles.

                                          • L'agent SNMP peut afficher l'état D_Failed pour toutes les batteries lorsque vous exécutez la commande snmpwalk. Ce problème se produit en raison du traitement du code, qui peut ne pas vérifier correctement l'état et l'interprétation incorrecte des capteurs compacts avec un code spécifique du capteur.

                                          • Lorsque vous utilisez une stratégie d'association de hachage d'adresse IP ou de hachage d'adresse MAC source, certains paquets provenant de la liste de paquets peuvent utiliser une autre liaison montante. Par conséquent, certains d'entre eux peuvent être rejetés ou ne pas transiter par la liaison montante déterminée par la stratégie d'association.

                                          • Si une banque de données NFS est configurée en tant que banque de données syslog et qu'un hôte ESXi se déconnecte d'elle, la connexion à la banque de données s'arrête et l'hôte ESXi peut cesser de répondre.

                                          • Lorsque vous répliquez des machines virtuelles à l'aide de vSphere Replication avec Site Recovery Manager, l'hôte ESXi peut échouer avec un écran de diagnostic violet immédiatement ou dans les 24 heures. Un message d'erreur semblable au message suivant peut s'afficher : ​PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc.

                                          • Les configurations plus grandes peuvent dépasser la limite du nombre de verrous et hostd commence à échouer avec une erreur semblable à :
                                            hostd Panic: MXUserAllocSerialNumber: too many locks!

                                          • La commande réseau esxcli $esxcli.network.nic.coalesce.set.Invoke peut par conséquent renvoyer une valeur false, même si la valeur est correctement définie. Cela peut avoir une incidence sur vos scripts d'automatisation. 

                                          • Lorsqu'une machine virtuelle tente d'accéder à une banque de données VMFS comportant un répertoire endommagé, l'hôte ESXi peut échouer avec un écran de diagnostic violet et le message d'erreur DirEntry corruption.

                                          • La clé LACPPDU Actor peut remplacer sa valeur par 0 pendant le basculement d'état de liaison.

                                          • En raison d'un problème de synchronisation dans VMkernel, les tampons risquent de ne pas être vidés et le segment de mémoire s'épuise. Par conséquent, les services tels que hostd, vpxa et vmsyslogd risquent de ne pas être en mesure d'écrire des journaux sur l'hôte ESXi et l'hôte cesse de répondre. Dans /var/log/vmkernel.log, vous pouvez voir un avertissement similaire à celui-ci :WARNING: Heap: 3571: Heap vfat already at its maximum size. Cannot expand.

                                          • Si vous avez modifié le type d'un périphérique CD-ROM virtuel d'une machine virtuelle dans une version antérieure d'ESXi, après la mise à jour vers une version ultérieure, lorsque vous tentez d'installer ou de mettre à jour VMware Tools, la machine virtuelle peut être arrêtée et marquée comme non valide.

                                          • Lorsque vous renouvelez un certificat, seul le premier certificat de la chaîne de confiance fournie peut être stocké sur l'hôte ESXi. Tous les certificats d'autorité de certification intermédiaires sont tronqués. En raison des certificats manquants, la chaîne de l'autorité de certification racine ne peut pas être créée. Cela entraîne un avertissement pour une connexion non approuvée.

                                          • Si un fournisseur de vSphere API for Storage Awareness modifie la stratégie vSphere Virtual Volumes sans surveillance, un paramètre VvolID null peut mettre à jour les métadonnées vSphere Virtual Volumes. Cela entraîne un appel VASA avec un paramètre VvoId null et un échec lors de la création d'un snapshot de machine virtuelle.

                                          • Si un appel d'un fournisseur de vSphere API for Storage Awareness échoue en raison de l'indisponibilité de toutes les connexions au fournisseur virtuel, les opérations de clonage parallèle de plusieurs machines virtuelles sur une banque de données vSphere Virtual Volumes peuvent cesser de répondre ou échouer avec un message d'erreur similaire à Impossible d'effectuer l'opération de création du fichier.

                                          • Un hôte ESXi peut échouer avec un écran de diagnostic violet affichant un message d'alerte sbflush_internal en raison de certaines différences dans les statistiques internes.

                                          • Avec ESXi 6.7 Update 2, vous pouvez migrer des machines virtuelles à l'aide de vSphere vMotion entre des hôtes ESXi avec des commutateurs N-VDS et des commutateurs vSphere Standard. Pour activer la fonctionnalité, vous devez mettre à niveau le système vCenter Server vers vCenter Server 6.7 Update 2 et ESXi 6.7 Update 2 sur les sites sources et de destination.

                                          • Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'une exception de défaut de page. L'erreur provient d'un indicateur manquant qui peut déclencher l'éviction du cache sur un objet qui n'existe plus et qui entraîne une référence de pointeur NULL.

                                          • Lors de la vérification de l'état de la liaison montante, la stratégie d'association peut ne pas vérifier si la liaison montante appartient à un groupe de ports et si le groupe de ports concerné n'est pas correct. Par conséquent, vous pouvez voir des messages VOB redondants dans le fichier /var/run/log/vobd.log, tels que :

                                            Redondance de liaison montante perdue sur le commutateur virtuel« xxx ». vmnicX de la carte réseau physique est inactif. Groupes de ports concernés :« xxx ».

                                          • Vous devez ajouter manuellement les règles de réclamation à un hôte ESXi pour les baies de stockage Lenovo ThinkSystem série DE.

                                          • Le service vpxa peut échouer en raison d'une utilisation excessive de la mémoire lors d'une itération sur une grande arborescence de répertoires. Par conséquent, un hôte ESXi peut être déconnecté d'un système vCenter Server.

                                          • Les commandes esxcli software profile update ou esxcli software profile install peuvent échouer sur les hôtes exécutant ESXi 6.7 Update 1 où SecureBoot est activé. Vous pouvez voir des messages d'erreur tels que Échec de la configuration de la mise à niveau à l'aide du VIB esx-update et Échec du montage de tardisk dans ramdisk : [Errno 1] Opération non autorisée.

                                          • Le montage du volume NFS peut ne pas persister après un redémarrage d'un hôte ESXi en raison d'une panne intermittente lors de la résolution du nom d'hôte du serveur NFS.

                                          • Ce problème se produit si vous créez un port VMK ou vNIC en utilisant l'option Route basée sur la charge NIC physique lorsque la carte réseau physique attribuée à ce groupe de ports est temporairement hors service. Dans ce cas, la liaison montante de l'association de ports n'est pas définie, car il n'y a pas de liaison montante active dans le groupe de ports. Lorsque la carte réseau physique redevient active, le code d'association ne parvient pas à mettre à jour les données de port, ce qui entraîne une perte de paquets.

                                          • Une condition de concurrence peut se produire lorsque Plog Relog s'exécute avec DecommissionMD, provoquant l'accès par Relog aux tables d'état de périphérique Plog libéré. Ce problème peut entraîner une panne de l'hôte avec un écran de diagnostic violet.

                                          • Si vous utilisez des périphériques ayant une taille de bloc physique autre que 4 096 ou 512 Mo, dans les journaux VMkernel, vous pouvez voir de nombreux avertissements semblables à celui-ci :
                                            ScsiPath: 4395: La taille de bloc physique « 8 192 » signalée par le chemin vmhba3:C0:T1:L0 n'est pas prise en charge.

                                          • Après la configuration ou la mise à niveau d'un cluster étendu vSAN, toutes les demandes au niveau du cluster peuvent échouer. Le message d'erreur suivant peut s'afficher :
                                            Le nom « _VSAN_VER3 » n'est pas défini.

                                          • Si le dossier de la machine virtuelle est créé à l'aide d'un nom plutôt qu'un UUID, les graphiques de performances de vSAN n'affichent pas correctement les mesures VMDK suivantes :
                                            - IOPS et limite d'IOPS
                                            - IOPS normalisées différées

                                          • Dans Hôte > Surveiller > Performance > Adaptateurs physiques > Taux d'abandon de ports pNIC vSwitch, vous pouvez voir un compteur indiquant des paquets abandonnés, alors qu'aucun paquet n'est abandonné. Cela est dû au fait que l'infrastructure IOChain traite le nombre réduit de paquets, lors de l'utilisation de LRO, comme abandons de paquets.

                                          • Un hôte ESXi peut échouer avec un écran de diagnostic violet lors de la mise sous tension d'une machine virtuelle. Cela se produit si le nom de la machine virtuelle commence par « SRIOV » et dispose d'une liaison montante connectée à vSphere Distributed Switch.

                                          • Dans une condition de concurrence rare, lorsque SNMP désactive des ensembles de règles dynamiques, mais que ceux-ci sont actifs dans un profil d'hôte, vous pouvez voir une erreur de conformité inattendue telle que Ruleset dynamicruleset introuvable.

                                          • La récupération d'une machine virtuelle exécutant Windows 2008 ou version ultérieure à l'aide de vSphere Replication avec mise au repos de l'application activée peut créer un réplica endommagé. Le dommage se produit uniquement lorsque la mise au repos de l'application est activée. Si VMware Tools sur la machine virtuelle n'est pas configuré pour la mise au repos de l'application, vSphere Replication utilise un niveau de cohérence inférieur, tel que la mise au repos du système de fichiers, et les réplicas ne sont pas endommagés.

                                          • Lorsque vous exécutez des demandes CIM de plus de 2 Mo, comme le téléchargement d'un microprogramme, le service CIM peut échouer sur un hôte ESXi en raison d'un espace de pile insuffisant et le fichier SFCB zdumb est présent dans /var/core.

                                          • Le nombre de fichiers d'archive syslog.log générés peut être inférieur à la valeur par défaut définie à l'aide du paramètre syslog.global.defaultRotate. Le nombre de fichiers d'archive du journal syslog.log peut également être différent entre les versions d'ESXi 6.0 et 6.7. Par exemple, si syslog.global.defaultRotate est défini sur 8 par défaut, ESXi 6.0 crée syslog.0.gz à syslog.7.gz, alors que ESXi 6.7 crée syslog.0.gz à syslog.6.gz.

                                          • Si vous définissez l'option de configuration avancée /Misc/MCEMonitorInterval sur une valeur très élevée, les hôtes ESXi peuvent cesser de répondre après environ 10 jours d'activité, en raison d'un dépassement de délai d'attente.

                                          • Le verrou P2MCache est un verrouillage total de CPU provoquant le ralentissement des performances d'une CPU, susceptible d'entraîner la défaillance des autres CPU. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet et l'erreur Spin count exceeded - possible deadlock, PVSCSIDoIOComplet, NFSAsyncIOComplete.

                                          • Un hôte ESXi peut échouer avec un écran de diagnostic violet lors d'une opération Storage vMotion entre des banques de données NFS, en raison d'une condition de concurrence dans le chemin d'exécution de la demande. La condition de concurrence se produit en cas de charge d'E/S intense dans la pile NFS.

                                          • Lors d'une opération de désaffectation de disque, une condition de concurrence dans le workflow de désaffectation peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.

                                          • Un hôte ESXi peut échouer avec un écran de diagnostic violet si RSS est activé sur une carte réseau physique. Vous pouvez voir une trace de débogage similaire à celle-ci :
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bc70:[0x41801a68ad30]RSSPlugCleanupRSSEngine@(lb_netqueue_bal)#+0x7d stack: 0x4305e4c1a8e0, 0x41801a68af2b, 0x430db8c6b188, 0x4305e4c1a8e0,
                                            0x0yyyy-mm-dd cpu9:2097316)0x451a8521bc90:[0x41801a68af2a]RSSPlugInitRSSEngine@(lb_netqueue_bal)#+0x127 stack: 0x0, 0x20c49ba5e353f7cf, 0x4305e4c1a930, 0x4305e4c1a800, 0x4305e4c1a9f0
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bcd0:[0x41801a68b21c]RSSPlug_PreBalanceWork@(lb_netqueue_bal)#+0x1cd stack: 0x32, 0x32, 0x0, 0xe0, 0x4305e4c1a800
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bd30:[0x41801a687752]Lb_PreBalanceWork@(lb_netqueue_bal)#+0x21f stack: 0x4305e4c1a800, 0xff, 0x0, 0x43057f38ea00, 0x4305e4c1a800
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bd80:[0x418019c13b18]UplinkNetqueueBal_BalanceCB@vmkernel#nover+0x6f1 stack: 0x4305e4bc6088, 0x4305e4c1a840, 0x4305e4c1a800, 0x4305e435fb30, 0x4305e4bc6088
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bf00:[0x418019cd1c89]UplinkAsyncProcessCallsHelperCB@vmkernel#nover+0x116 stack: 0x430749e60870, 0x430196737070, 0x451a85223000, 0x418019ae832b, 0x430749e60088
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bf30:[0x418019ae832a]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430749e600b8, 0x430749e600a8, 0x430749e600e0, 0x451a85223000, 0x430749e600b8
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bfe0:[0x418019d081f2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0, 0x0, 0x0, 0x0, 0x0

                                          • Lorsque le fournisseur VASA envoie une demande de reliaison à un hôte ESXi pour changer la liaison d'un pilote vSphere Virtual Volume particulier, l'hôte ESXi peut modifier le point de terminaison de protocole et d'autres ressources pour modifier la liaison sans perturbation d'E/S. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet.

                                          • Certains capteurs IPMI peuvent passer par intermittence du vert au rouge et inversement, ce qui crée de fausses alarmes de santé matérielle.

                                          • Si vous installez un plug-in IMA 32 bits asynchrone et que des plug-ins IMA 32 bits sont déjà installés, le système peut essayer de charger ces plug-ins et vérifier s'ils sont chargés à partir de l'adaptateur iSCSI indépendant de QLogic. Au cours de ce processus, l'hôte ESXi peut échouer avec une erreur d'admission de mémoire.

                                          • Si vous exécutez une opération de reprotection à l'aide de Site Recovery Manager, l'opération peut échouer si une machine virtuelle est en retard avec la synchronisation initiale. Une erreur semblable à celle-ci peut s'afficher :
                                            Échec lors de la synchronisation VR pour le groupe VRM {…}. Opération expirée : 10 800 secondes

                                          • Lorsque la limitation d'E/S est activée sur un point de terminaison de protocole de volumes virtuels sur le stockage HPE 3PAR et qu'une E/S sur un LUN secondaire échoue avec une erreur TASK_SET_FULL, le taux d'E/S sur tous les LUN secondaires associés au point de terminaison de protocole ralentit.

                                          • Le pilote qlnativefc est mis à jour vers la version 3.1.8.0.

                                          • Le pilote nfnic est mis à jour vers la version 4.0.0.17.

                                          • Les pilotes Emulex peuvent écrire des journaux sur /var/log/EMU/mili/mili2d.log et remplir les journaux du système de fichiers /var de 40 Mo des lecteurs RAM.

                                          • ESXi 6.7 Update 2 ajoute la prise en charge du pilote natif Solarflare (sfvmk) pour périphériques adaptateurs réseau Solarflare 10G et 40G, tels que SFN8542 et SFN8522.

                                          • Le pilote lsi-msgpt2 est mis à jour vers la version 20.00.05.00 pour gérer les améliorations de la gestion des tâches et les correctifs de bogues critiques.

                                          • Il se peut que vous ne puissiez pas localiser et activer les LED des disques sous un contrôleur lsi-msgpt35.

                                          • Si une demande de partage d'E/S est annulée dans le pilote nvme fourni, le chemin d'exécution de la commande peut déverrouiller le verrouillage de la file d'attente lié à une vérification incorrecte du type de commande. Cela peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.

                                          • Le pilote nvme VMware fourni prend uniquement en charge un doorbell stride ayant la valeur 0h et vous ne pouvez utiliser aucune autre valeur ni voir les périphériques NVMe avec un doorbell stride différent de 0h.

                                          • Pour certains périphériques NVMe de marque Dell et pour Marvell NR2241, vous pouvez voir des informations de périphérique NVMe incorrectes en exécutant la commande esxcfg-scsidevs -a ou en examinant l'interface.

                                          • Le pilote Broadcom lsi-mr3 est mis à niveau vers la version MR 7.8.

                                          • Le pilote lsi-msgpt35 est mis à jour vers la version 09.00.00.00-1vmw.

                                          • Le pilote lsi-msgpt3 est mis à jour vers la version 17.00.01.00-3vmw.

                                        ESXi-6.7.0-20190402001-no-tools
                                        Nom du profil ESXi-6.7.0-20190402001-no-tools
                                        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
                                        Fournisseur VMware, Inc.
                                        Date de publication 11 avril 2018
                                        Niveau d'acceptation PartnerSupported
                                        Matériel concerné S.O.
                                        Logiciels concernés S.O.
                                        VIB concernés
                                        • VMware_bootbank_vsanhealth_6.7.0-2.48.12775454
                                        • VMware_bootbank_vsan_6.7.0-2.48.12775451
                                        • VMware_bootbank_esx-base_6.7.0-2.48.13006603
                                        • VMware_bootbank_esx-update_6.7.0-2.48.13006603
                                        • VMW_bootbank_i40en_1.3.1-23vmw.670.2.48.13006603
                                        • VMW_bootbank_igbn_0.1.1.0-4vmw.670.2.48.13006603
                                        • VMW_bootbank_ixgben_1.4.1-18vmw.670.2.48.13006603
                                        • VMW_bootbank_ne1000_0.8.4-2vmw.670.2.48.13006603
                                        • VMW_bootbank_vmkusb_0.1-1vmw.670.2.48.13006603
                                        • VMware_bootbank_qlnativefc_3.1.8.0-4vmw.670.2.48.13006603
                                        • VMW_bootbank_nfnic_4.0.0.17-0vmw.670.2.48.13006603
                                        • VMW_bootbank_brcmfcoe_11.4.1078.19-12vmw.670.2.48.13006603
                                        • VMW_bootbank_lpfc_11.4.33.18-12vmw.670.2.48.13006603
                                        • VMware_bootbank_elx-esx-libelxima.so_11.4.1184.1-2.48.13006603
                                        • VMW_bootbank_misc-drivers_6.7.0-2.48.13006603
                                        • VMware_bootbank_lsu-lsi-lsi-msgpt3-plugin_1.0.0-9vmw.670.2.48.13006603
                                        • VMW_bootbank_sfvmk_1.0.0.1003-6vmw.670.2.48.13006603
                                        • VMW_bootbank_lsi-msgpt2_20.00.05.00-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nmlx4-core_3.17.13.1-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nmlx4-en_3.17.13.1-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nmlx4-rdma_3.17.13.1-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nmlx5-core_4.17.13.1-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nmlx5-rdma_4.17.13.1-1vmw.670.2.48.13006603
                                        • VMW_bootbank_bnxtnet_20.6.101.7-21vmw.670.2.48.13006603
                                        • VMware_bootbank_lsu-lsi-drivers-plugin_1.0.0-1vmw.670.2.48.13006603
                                        • VMW_bootbank_nvme_1.2.2.27-1vmw.670.2.48.13006603
                                        • VMware_bootbank_vmware-esx-esxcli-nvme-plugin_1.2.0.36-2.48.13006603
                                        • VMW_bootbank_lsi-mr3_7.708.07.00-2vmw.670.2.48.13006603
                                        • VMW_bootbank_lsi-msgpt35_09.00.00.00-1vmw.670.2.48.13006603
                                        • VMW_bootbank_lsi-msgpt3_17.00.01.00-3vmw.670.2.48.13006603
                                        • VMW_bootbank_net-vmxnet3_1.1.3.0-3vmw.670.2.48.13006603
                                        • VMware_bootbank_native-misc-drivers_6.7.0-2.48.13006603
                                        PR résolus 2227123, 2250472, 2273186, 2282052, 2267506, 2256771, 2269616, 2250697, 2191342, 2197795, 2221935, 2193830, 2210364, 2177107, 2179263, 2185906, 2204508, 2211350, 2204204, 2226565, 2240385, 2163397, 2238134, 2213883, 2141221, 2240444, 2249713, 2184068, 2257480, 2235031, 2257354, 2212140, 2279897, 2227623, 2277648, 2221778, 2287560, 2268541, 2203837, 2236531, 2242656, 2250653, 2260748, 2256001, 2266762, 2263849, 2267698, 2271653, 2232538, 2210056, 2271322, 2272737, 2286563, 2178119, 2223879, 2221256, 2258272, 2219661, 2268826, 2224767, 2257590, 2241917, 2246891, 2228529, 2231435, 2226688, 2234599, 2256555, 2242441, 2270098, 2272901, 2275290
                                        Numéros CVE associés S/O

                                        Ce correctif met à jour les problèmes suivants :

                                          • Vous pouvez par intermittence voir des alarmes pour valeurs très élevées de compteurs de latence de lecture ou d'écriture de disque, telles que datastore.totalReadLatency et datastore.totalWriteLatency.

                                          • Lorsqu'une machine virtuelle Linux est configurée avec une taille de mémoire spécifique, telle que 2 052 Mo ou 2 060 Mo, au lieu de se mettre sous tension, elle peut afficher un écran vide.

                                          • Lorsque vous configurez le réseau et activez le contrôle de santé de vSphere Distributed Switch pour effectuer des vérifications de configuration, l'hôte ESXi peut échouer avec un écran de diagnostic violet.

                                          • L'agent SNMP peut fournir une interruption vmwVmPoweredOn incorrecte lorsqu'une machine virtuelle est sélectionnée dans l'onglet Résumé et dans l'onglet Gestionnaire de snapshots dans vSphere Web Client.

                                          • DVFilter peut recevoir des valeurs inattendues ou altérées dans la mémoire tampon d'anneau de mémoire partagée, ce qui entraîne le renvoi de NULL par la fonction interne. Si cette valeur NULL n'est pas gérée normalement, un hôte ESXi peut échouer avec un écran de diagnostic violet au niveau DVFilter.

                                          • Dans l'onglet Événements de vSphere Client ou de vSphere Web Client, lorsque vous mettez sous tension ou hors tension des machines virtuelles, vous pouvez voir des événements similaires à Connectivité réseau restaurée sur le commutateur virtuel XXX, groupes de ports : XXX. Carte réseau physique vmnicX active. Lors de la vérification de l'état de la liaison montante, le rapport système peut inclure des groupes de ports qui ne sont pas affectés par l'opération de mise sous tension ou hors tension de la machine virtuelle, qui déclenche l'événement. Toutefois, l'événement n'indique pas de problème et n'appelle aucune action.

                                          • Le fichier de configuration de santé de vSAN peut être endommagé, en raison de l'absence de quota de disque ou de l'arrêt du thread. Lorsque ce problème se produit lors de la définition de la configuration de la santé de vSAN, le service de santé ne peut pas démarrer.

                                          • Au cours de l'installation du cluster de basculement de Windows Server, si vous remplacez la stratégie de chemin d'accès Fixe ou Plus fréquemment utilisé par Round Robin, l'E/S du cluster peut échouer et le cluster peut cesser de répondre.

                                          • Dans les builds de versions, le démon smartd peut générer un grand nombre de messages d'information et de débogage dans les journaux du service Syslog.

                                          • Le programmateur NIOC peut réinitialiser le périphérique réseau de liaison montante si la liaison montante est rarement utilisée. La réinitialisation n'est pas prévisible.

                                          • Les hôtes ESXi peuvent échouer par intermittence si vous désactivez les adresses IPv6 globales car un chemin de code utilise toujours IPv6.

                                          • En raison d'une condition de concurrence, le processus de fichier exécutable de machine virtuelle peut échouer et arrêter des machines virtuelles lors d'un redémarrage du système d'exploitation invité.

                                          • Hostd peut cesser de répondre lors de l'attente de la fin d'un processus externe initié avec la commande esxcfg-syslog.

                                          • Le dépassement du délai d'attente d'un grand nombre d'E/S en raison de la charge élevée d'un système peut provoquer un verrouillage logiciel des CPU physiques. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet.

                                          • Des commandes non valides envoyées à un CD-ROM SATA virtuel peuvent déclencher des erreurs et augmenter l'utilisation de la mémoire des machines virtuelles. Les machines virtuelles qui ne sont pas en mesure d'allouer de la mémoire peuvent alors tomber en panne. Les journaux suivants peuvent s'afficher pour les commandes non valides :

                                            YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-USER: Invalid size in command
                                            YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| I125: AHCI-VMM: sata0:0: Halted the port due to command abort.

                                            Un message PANIC semblable à celui-ci peut également s'afficher :
                                            YYYY-MM-DDTHH:MM:SS.mmmZ| vcpu-1| E105: PANIC: Unrecoverable memory allocation failure

                                          • Si le service Guest Introspection dans un environnement vSphere 6.7 comportant plus de 150 machines virtuelles est actif, la migration de machines virtuelles à l'aide de vSphere vMotion peut échouer dans vSphere Web Client avec une erreur semblable à La source a détecté que la destination ne peut pas reprendre ses opérations.
                                            Le fichier vmware.log de destination contient des messages d'erreur semblables à ceux-ci :

                                            2018-07-18T02:41:32.035Z| vmx| I125: MigrateSetState: Transitioning from state 11 to 12.
                                            2018-07-18T02:41:32.035Z| vmx| I125: Migrate: Caching migration error message list:
                                            2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.migration.failedReceive] Failed to receive migration.
                                            2018-07-18T02:41:32.035Z| vmx| I125: [msg.namespaceDb.badVersion] Incompatible version -1 (expect 2).
                                            2018-07-18T02:41:32.035Z| vmx| I125: [msg.checkpoint.mrestoregroup.failed] An error occurred restoring the virtual machine state during migration.

                                            Le journal vmkernel contient des messages d'erreur semblables à ceux-ci :

                                            2018-07-18T02:32:43.011Z cpu5:66134)WARNING: Heap: 3534: Heap fcntlHeap-1 already at its maximum size. Cannot expand.
                                            2018-07-18T02:41:35.613Z cpu2:66134)WARNING: Heap: 4169: Heap_Align(fcntlHeap-1, 200/200 bytes, 8 align) failed. caller: 0x41800aaca9a3

                                          • Vous pouvez modifier les données statistiques à collecter uniquement lorsque la machine virtuelle est dans un état d'alimentation particulier. Par exemple, vous ne pouvez pas modifier les données de mémoire lorsque la machine virtuelle est sous tension. Lorsque vous redémarrez le service hostd, la machine virtuelle risque de ne pas changer son état d'alimentation, ce qui entraîne l'initialisation de fausses données. Le calcul du compteur de mémoire consommée par l'hôte peut provoquer une division par zéro et le diagramme peut arrêter de tracer des graphiques.

                                          • Par défaut, la fonctionnalité Isolation Response d'un hôte ESXi sur lequel vSphere HA est activé est désactivée. Lorsque la fonctionnalité de réponse d'isolation est activée, un port de la machine virtuelle, qui est connecté à un commutateur logique NSX-T, peut se bloquer après un basculement de vSphere HA.

                                          • Les cartes réseau virtuelles e1000 peuvent abandonner par intermittence des paquets GRE non reconnus en raison d'un problème d'analyse.

                                          • Lors du démarrage d'un système Apple, le processus de démarrage peut s'arrêter avec le message d'erreur suivant :
                                            Arrêt des services du microprogramme…
                                            Le tampon Multiboot est trop petit.
                                            Erreur irrécupérable

                                            Le problème affecte uniquement certaines versions de microprogramme Apple.

                                          • Si hostd redémarre lors d'une opération de snapshot mise au repos à long terme, hostd peut exécuter automatiquement la commande de consolidation de snapshot pour supprimer les disques redondants et améliorer les performances des machines virtuelles. Toutefois, la commande de consolidation peut concurrencer l'opération de snapshot mise au repos en cours d'exécution et provoquer l'échec de machines virtuelles.

                                          • L'agent SNMP peut afficher l'état D_Failed pour toutes les batteries lorsque vous exécutez la commande snmpwalk. Ce problème se produit en raison du traitement du code, qui peut ne pas vérifier correctement l'état et l'interprétation incorrecte des capteurs compacts avec un code spécifique du capteur.

                                          • Lorsque vous utilisez une stratégie d'association de hachage d'adresse IP ou de hachage d'adresse MAC source, certains paquets provenant de la liste de paquets peuvent utiliser une autre liaison montante. Par conséquent, certains d'entre eux peuvent être rejetés ou ne pas transiter par la liaison montante déterminée par la stratégie d'association.

                                          • Si une banque de données NFS est configurée en tant que banque de données syslog et qu'un hôte ESXi se déconnecte d'elle, la connexion à la banque de données s'arrête et l'hôte ESXi peut cesser de répondre.

                                          • Lorsque vous répliquez des machines virtuelles à l'aide de vSphere Replication avec Site Recovery Manager, l'hôte ESXi peut échouer avec un écran de diagnostic violet immédiatement ou dans les 24 heures. Un message d'erreur semblable au message suivant peut s'afficher : ​PANIC bora/vmkernel/main/dlmalloc.c:4924 - Usage error in dlmalloc.

                                          • Les configurations plus grandes peuvent dépasser la limite du nombre de verrous et hostd commence à échouer avec une erreur semblable à :
                                            hostd Panic: MXUserAllocSerialNumber: too many locks!

                                          • La commande réseau esxcli $esxcli.network.nic.coalesce.set.Invoke peut par conséquent renvoyer une valeur false, même si la valeur est correctement définie. Cela peut avoir une incidence sur vos scripts d'automatisation. 

                                          • Lorsqu'une machine virtuelle tente d'accéder à une banque de données VMFS comportant un répertoire endommagé, l'hôte ESXi peut échouer avec un écran de diagnostic violet et le message d'erreur DirEntry corruption.

                                          • La clé LACPPDU Actor peut remplacer sa valeur par 0 pendant le basculement d'état de liaison.

                                          • En raison d'un problème de synchronisation dans VMkernel, les tampons risquent de ne pas être vidés et le segment de mémoire s'épuise. Par conséquent, les services tels que hostd, vpxa et vmsyslogd risquent de ne pas être en mesure d'écrire des journaux sur l'hôte ESXi et l'hôte cesse de répondre. Dans /var/log/vmkernel.log, vous pouvez voir un avertissement similaire à celui-ci :WARNING: Heap: 3571: Heap vfat already at its maximum size. Cannot expand.

                                          • Si vous avez modifié le type d'un périphérique CD-ROM virtuel d'une machine virtuelle dans une version antérieure d'ESXi, après la mise à jour vers une version ultérieure, lorsque vous tentez d'installer ou de mettre à jour VMware Tools, la machine virtuelle peut être arrêtée et marquée comme non valide.

                                          • Lorsque vous renouvelez un certificat, seul le premier certificat de la chaîne de confiance fournie peut être stocké sur l'hôte ESXi. Tous les certificats d'autorité de certification intermédiaires sont tronqués. En raison des certificats manquants, la chaîne de l'autorité de certification racine ne peut pas être créée. Cela entraîne un avertissement pour une connexion non approuvée.

                                          • Si un fournisseur de vSphere API for Storage Awareness modifie la stratégie vSphere Virtual Volumes sans surveillance, un paramètre VvolID null peut mettre à jour les métadonnées vSphere Virtual Volumes. Cela entraîne un appel VASA avec un paramètre VvoId null et un échec lors de la création d'un snapshot de machine virtuelle.

                                          • Si un appel d'un fournisseur de vSphere API for Storage Awareness échoue en raison de l'indisponibilité de toutes les connexions au fournisseur virtuel, les opérations de clonage parallèle de plusieurs machines virtuelles sur une banque de données vSphere Virtual Volumes peuvent cesser de répondre ou échouer avec un message d'erreur similaire à Impossible d'effectuer l'opération de création du fichier.

                                          • Un hôte ESXi peut échouer avec un écran de diagnostic violet affichant un message d'alerte sbflush_internal en raison de certaines différences dans les statistiques internes.

                                          • Avec ESXi 6.7 Update 2, vous pouvez migrer des machines virtuelles à l'aide de vSphere vMotion entre des hôtes ESXi avec des commutateurs N-VDS et des commutateurs vSphere Standard. Pour activer la fonctionnalité, vous devez mettre à niveau le système vCenter Server vers vCenter Server 6.7 Update 2 et ESXi 6.7 Update 2 sur les sites sources et de destination.

                                          • Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'une exception de défaut de page. L'erreur provient d'un indicateur manquant qui peut déclencher l'éviction du cache sur un objet qui n'existe plus et qui entraîne une référence de pointeur NULL.

                                          • Lors de la vérification de l'état de la liaison montante, la stratégie d'association peut ne pas vérifier si la liaison montante appartient à un groupe de ports et si le groupe de ports concerné n'est pas correct. Par conséquent, vous pouvez voir des messages VOB redondants dans le fichier /var/run/log/vobd.log, tels que :

                                            Redondance de liaison montante perdue sur le commutateur virtuel« xxx ». vmnicX de la carte réseau physique est inactif. Groupes de ports concernés :« xxx ».

                                          • Vous devez ajouter manuellement les règles de réclamation à un hôte ESXi pour les baies de stockage Lenovo ThinkSystem série DE.

                                          • Le service vpxa peut échouer en raison d'une utilisation excessive de la mémoire lors d'une itération sur une grande arborescence de répertoires. Par conséquent, un hôte ESXi peut être déconnecté d'un système vCenter Server.

                                          • Les commandes esxcli software profile update ou esxcli software profile install peuvent échouer sur les hôtes exécutant ESXi 6.7 Update 1 où SecureBoot est activé. Vous pouvez voir des messages d'erreur tels que Échec de la configuration de la mise à niveau à l'aide du VIB esx-update et Échec du montage de tardisk dans ramdisk : [Errno 1] Opération non autorisée.

                                          • Le montage du volume NFS peut ne pas persister après un redémarrage d'un hôte ESXi en raison d'une panne intermittente lors de la résolution du nom d'hôte du serveur NFS.

                                          • Ce problème se produit si vous créez un port VMK ou vNIC en utilisant l'option Route basée sur la charge NIC physique lorsque la carte réseau physique attribuée à ce groupe de ports est temporairement hors service. Dans ce cas, la liaison montante de l'association de ports n'est pas définie, car il n'y a pas de liaison montante active dans le groupe de ports. Lorsque la carte réseau physique redevient active, le code d'association ne parvient pas à mettre à jour les données de port, ce qui entraîne une perte de paquets.

                                          • Une condition de concurrence peut se produire lorsque Plog Relog s'exécute avec DecommissionMD, provoquant l'accès par Relog aux tables d'état de périphérique Plog libéré. Ce problème peut entraîner une panne de l'hôte avec un écran de diagnostic violet.

                                          • Si vous utilisez des périphériques ayant une taille de bloc physique autre que 4 096 ou 512 Mo, dans les journaux VMkernel, vous pouvez voir de nombreux avertissements semblables à celui-ci :
                                            ScsiPath: 4395: La taille de bloc physique « 8 192 » signalée par le chemin vmhba3:C0:T1:L0 n'est pas prise en charge.

                                          • Après la configuration ou la mise à niveau d'un cluster étendu vSAN, toutes les demandes au niveau du cluster peuvent échouer. Le message d'erreur suivant peut s'afficher :
                                            Le nom « _VSAN_VER3 » n'est pas défini.

                                          • Si le dossier de la machine virtuelle est créé à l'aide d'un nom plutôt qu'un UUID, les graphiques de performances de vSAN n'affichent pas correctement les mesures VMDK suivantes :
                                            - IOPS et limite d'IOPS
                                            - IOPS normalisées différées

                                          • Dans Hôte > Surveiller > Performance > Adaptateurs physiques > Taux d'abandon de ports pNIC vSwitch, vous pouvez voir un compteur indiquant des paquets abandonnés, alors qu'aucun paquet n'est abandonné. Cela est dû au fait que l'infrastructure IOChain traite le nombre réduit de paquets, lors de l'utilisation de LRO, comme abandons de paquets.

                                          • Un hôte ESXi peut échouer avec un écran de diagnostic violet lors de la mise sous tension d'une machine virtuelle. Cela se produit si le nom de la machine virtuelle commence par « SRIOV » et dispose d'une liaison montante connectée à vSphere Distributed Switch.

                                          • Dans une condition de concurrence rare, lorsque SNMP désactive des ensembles de règles dynamiques, mais que ceux-ci sont actifs dans un profil d'hôte, vous pouvez voir une erreur de conformité inattendue telle que Ruleset dynamicruleset introuvable.

                                          • La récupération d'une machine virtuelle exécutant Windows 2008 ou version ultérieure à l'aide de vSphere Replication avec mise au repos de l'application activée peut créer un réplica endommagé. Le dommage se produit uniquement lorsque la mise au repos de l'application est activée. Si VMware Tools sur la machine virtuelle n'est pas configuré pour la mise au repos de l'application, vSphere Replication utilise un niveau de cohérence inférieur, tel que la mise au repos du système de fichiers, et les réplicas ne sont pas endommagés.

                                          • Lorsque vous exécutez des demandes CIM de plus de 2 Mo, comme le téléchargement d'un microprogramme, le service CIM peut échouer sur un hôte ESXi en raison d'un espace de pile insuffisant et le fichier SFCB zdumb est présent dans /var/core.

                                          • Le nombre de fichiers d'archive syslog.log générés peut être inférieur à la valeur par défaut définie à l'aide du paramètre syslog.global.defaultRotate. Le nombre de fichiers d'archive du journal syslog.log peut également être différent entre les versions d'ESXi 6.0 et 6.7. Par exemple, si syslog.global.defaultRotate est défini sur 8 par défaut, ESXi 6.0 crée syslog.0.gz à syslog.7.gz, alors que ESXi 6.7 crée syslog.0.gz à syslog.6.gz.

                                          • Si vous définissez l'option de configuration avancée /Misc/MCEMonitorInterval sur une valeur très élevée, les hôtes ESXi peuvent cesser de répondre après environ 10 jours d'activité, en raison d'un dépassement de délai d'attente.

                                          • Le verrou P2MCache est un verrouillage total de CPU provoquant le ralentissement des performances d'une CPU, susceptible d'entraîner la défaillance des autres CPU. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet et l'erreur Spin count exceeded - possible deadlock, PVSCSIDoIOComplet, NFSAsyncIOComplete.

                                          • Un hôte ESXi peut échouer avec un écran de diagnostic violet lors d'une opération Storage vMotion entre des banques de données NFS, en raison d'une condition de concurrence dans le chemin d'exécution de la demande. La condition de concurrence se produit en cas de charge d'E/S intense dans la pile NFS.

                                          • Lors d'une opération de désaffectation de disque, une condition de concurrence dans le workflow de désaffectation peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.

                                          • Un hôte ESXi peut échouer avec un écran de diagnostic violet si RSS est activé sur une carte réseau physique. Vous pouvez voir une trace de débogage similaire à celle-ci :
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bc70:[0x41801a68ad30]RSSPlugCleanupRSSEngine@(lb_netqueue_bal)#+0x7d stack: 0x4305e4c1a8e0, 0x41801a68af2b, 0x430db8c6b188, 0x4305e4c1a8e0,
                                            0x0yyyy-mm-dd cpu9:2097316)0x451a8521bc90:[0x41801a68af2a]RSSPlugInitRSSEngine@(lb_netqueue_bal)#+0x127 stack: 0x0, 0x20c49ba5e353f7cf, 0x4305e4c1a930, 0x4305e4c1a800, 0x4305e4c1a9f0
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bcd0:[0x41801a68b21c]RSSPlug_PreBalanceWork@(lb_netqueue_bal)#+0x1cd stack: 0x32, 0x32, 0x0, 0xe0, 0x4305e4c1a800
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bd30:[0x41801a687752]Lb_PreBalanceWork@(lb_netqueue_bal)#+0x21f stack: 0x4305e4c1a800, 0xff, 0x0, 0x43057f38ea00, 0x4305e4c1a800
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bd80:[0x418019c13b18]UplinkNetqueueBal_BalanceCB@vmkernel#nover+0x6f1 stack: 0x4305e4bc6088, 0x4305e4c1a840, 0x4305e4c1a800, 0x4305e435fb30, 0x4305e4bc6088
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bf00:[0x418019cd1c89]UplinkAsyncProcessCallsHelperCB@vmkernel#nover+0x116 stack: 0x430749e60870, 0x430196737070, 0x451a85223000, 0x418019ae832b, 0x430749e60088
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bf30:[0x418019ae832a]HelperQueueFunc@vmkernel#nover+0x157 stack: 0x430749e600b8, 0x430749e600a8, 0x430749e600e0, 0x451a85223000, 0x430749e600b8
                                            yyyy-mm-dd cpu9:2097316)0x451a8521bfe0:[0x418019d081f2]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0, 0x0, 0x0, 0x0, 0x0

                                          • Lorsque le fournisseur VASA envoie une demande de reliaison à un hôte ESXi pour changer la liaison d'un pilote vSphere Virtual Volume particulier, l'hôte ESXi peut modifier le point de terminaison de protocole et d'autres ressources pour modifier la liaison sans perturbation d'E/S. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet.

                                          • Certains capteurs IPMI peuvent passer par intermittence du vert au rouge et inversement, ce qui crée de fausses alarmes de santé matérielle.

                                          • Si vous installez un plug-in IMA 32 bits asynchrone et que des plug-ins IMA 32 bits sont déjà installés, le système peut essayer de charger ces plug-ins et vérifier s'ils sont chargés à partir de l'adaptateur iSCSI indépendant de QLogic. Au cours de ce processus, l'hôte ESXi peut échouer avec une erreur d'admission de mémoire.

                                          • Si vous exécutez une opération de reprotection à l'aide de Site Recovery Manager, l'opération peut échouer si une machine virtuelle est en retard avec la synchronisation initiale. Une erreur semblable à celle-ci peut s'afficher :
                                            Échec lors de la synchronisation VR pour le groupe VRM {…}. Opération expirée : 10 800 secondes

                                          • Lorsque la limitation d'E/S est activée sur un point de terminaison de protocole de volumes virtuels sur le stockage HPE 3PAR et qu'une E/S sur un LUN secondaire échoue avec une erreur TASK_SET_FULL, le taux d'E/S sur tous les LUN secondaires associés au point de terminaison de protocole ralentit.

                                          • Le pilote qlnativefc est mis à jour vers la version 3.1.8.0.

                                          • Le pilote nfnic est mis à jour vers la version 4.0.0.17.

                                          • Les pilotes Emulex peuvent écrire des journaux sur /var/log/EMU/mili/mili2d.log et remplir les journaux du système de fichiers /var de 40 Mo des lecteurs RAM.

                                          • ESXi 6.7 Update 2 ajoute la prise en charge du pilote natif Solarflare (sfvmk) pour périphériques adaptateurs réseau Solarflare 10G et 40G, tels que SFN8542 et SFN8522.

                                          • Le pilote lsi-msgpt2 est mis à jour vers la version 20.00.05.00 pour gérer les améliorations de la gestion des tâches et les correctifs de bogues critiques.

                                          • Il se peut que vous ne puissiez pas localiser et activer les LED des disques sous un contrôleur lsi-msgpt35.

                                          • Si une demande de partage d'E/S est annulée dans le pilote nvme fourni, le chemin d'exécution de la commande peut déverrouiller le verrouillage de la file d'attente lié à une vérification incorrecte du type de commande. Cela peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.

                                          • Le pilote nvme VMware fourni prend uniquement en charge un doorbell stride ayant la valeur 0h et vous ne pouvez utiliser aucune autre valeur ni voir les périphériques NVMe avec un doorbell stride différent de 0h.

                                          • Pour certains périphériques NVMe de marque Dell et pour Marvell NR2241, vous pouvez voir des informations de périphérique NVMe incorrectes en exécutant la commande esxcfg-scsidevs -a ou en examinant l'interface.

                                          • Le pilote Broadcom lsi-mr3 est mis à niveau vers la version MR 7.8.

                                          • Le pilote lsi-msgpt35 est mis à jour vers la version 09.00.00.00-1vmw.

                                          • Le pilote lsi-msgpt3 est mis à jour vers la version 17.00.01.00-3vmw.

                                        ESXi-6.7.0-20190401001s-standard
                                        Nom du profil ESXi-6.7.0-20190401001s-standard
                                        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
                                        Fournisseur VMware, Inc.
                                        Date de publication 11 avril 2018
                                        Niveau d'acceptation PartnerSupported
                                        Matériel concerné S.O.
                                        Logiciels concernés S.O.
                                        VIB concernés
                                        • VMware_bootbank_vsan_6.7.0-1.44.11399678
                                        • VMware_bootbank_esx-update_6.7.0-1.44.12986307
                                        • VMware_bootbank_esx-base_6.7.0-1.44.12986307
                                        • VMware_bootbank_vsanhealth_6.7.0-1.44.11399680
                                        • VMware_locker_tools-light_10.3.5.10430147-12986307
                                        • VMware_bootbank_esx-ui_1.33.3-12923304
                                        PR résolus 2228005, 2301046, 2232983, 2222019, 2224776, 2260077, 2232955
                                        Numéros CVE associés S/O

                                        Ce correctif met à jour les problèmes suivants :

                                          • Vous pouvez voir de nombreux messages d'erreur tels que Heap globalCartel-1 est déjà à sa taille maximale. Développement impossible dans vmkernel.log, car le service sfcbd ne parvient pas à traiter tous les processus en branches. Par conséquent, l'hôte ESXi peut cesser de répondre et certaines opérations peuvent échouer.

                                          • Le démon NTP est mis à jour vers la version ntp-4.2.8p12.

                                          • La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.8.

                                          • La bibliothèque tierce Python est mise à jour vers la version 3.5.6.

                                          • OpenSSH est mis jour vers la version 7.9 pour résoudre le problème de sécurité ayant l'identifiant CVE-2018-15473.

                                          • Le module OpenSSL est mis à jour vers la version openssl-1.0.2r.

                                        ESXi-6.7.0-20190401001s-no-tools
                                        Nom du profil ESXi-6.7.0-20190301001s-no-tools
                                        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
                                        Fournisseur VMware, Inc.
                                        Date de publication 28 mars 2018
                                        Niveau d'acceptation PartnerSupported
                                        Matériel concerné S.O.
                                        Logiciels concernés S.O.
                                        VIB concernés
                                        • VMware_bootbank_vsan_6.7.0-1.44.11399678
                                        • VMware_bootbank_esx-update_6.7.0-1.44.12986307
                                        • VMware_bootbank_esx-base_6.7.0-1.44.12986307
                                        • VMware_bootbank_vsanhealth_6.7.0-1.44.11399680
                                        • VMware_bootbank_esx-ui_1.33.3-12923304
                                        PR résolus 2228005, 2301046, 2232983, 2222019, 2224776, 2260077, 2232955
                                        Numéros CVE associés S/O

                                        Ce correctif met à jour les problèmes suivants :

                                          • Vous pouvez voir de nombreux messages d'erreur tels que Heap globalCartel-1 est déjà à sa taille maximale. Développement impossible dans vmkernel.log, car le service sfcbd ne parvient pas à traiter tous les processus en branches. Par conséquent, l'hôte ESXi peut cesser de répondre et certaines opérations peuvent échouer.

                                          • Le démon NTP est mis à jour vers la version ntp-4.2.8p12.

                                          • La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.8.

                                          • La bibliothèque tierce Python est mise à jour vers la version 3.5.6.

                                          • OpenSSH est mis jour vers la version 7.9 pour résoudre le problème de sécurité ayant l'identifiant CVE-2018-15473.

                                          • Le module OpenSSL est mis à jour vers la version openssl-1.0.2r.

                                        Problèmes connus

                                        Les problèmes connus sont classés comme suit :

                                        ESXi670-201904201-UG
                                        Catégorie des correctifs Correctif de bogues
                                        Gravité des correctifs Critique
                                        Redémarrage de l'hôte requis Oui
                                        Migration ou arrêt de la machine virtuelle requis Oui
                                        Matériel concerné S.O.
                                        Logiciels concernés S.O.
                                        VIB inclus
                                        • VMware_bootbank_esx-base_6.7.0-2.48.11820647
                                        • VMware_bootbank_esx-update_6.7.0-2.48.11820647
                                        • VMware_bootbank_vsan_6.7.0-2.48.11395855
                                        • VMware_bootbank_vsanhealth_6.7.0-2.48.11395857
                                        PR résolus  2193516, 2203431, 2231707, 2287804, 2213766
                                        Numéros CVE S.O.

                                        Ce correctif met à jour les VIB sx-base, esx-update, vsan et vsanhealth.

                                        • La correction du profil d'hôte peut se terminer par la suppression d'un adaptateur réseau virtuel de vSphere Distributed Switch VMware

                                          Si vous extrayez un profil d'hôte d'un hôte ESXi dont la prise en charge d'IPv6 est désactivée et que la passerelle par défaut IPv4 est remplacée lors de la correction de ce profil d'hôte, vous pouvez voir un message indiquant qu'un adaptateur réseau virtuel, tel que DSwitch0, doit être créé sur vSphere Distributed Switch (VDS), mais l'adaptateur est en fait supprimé du VDS. Cela est dû à la valeur « :: » du paramètre ipV6DefaultGateway.

                                          Solution : Dans les paramètres d'adresse IP, sous la stratégie Passerelle par défaut pour l'adaptateur réseau VMkernel (IPv6), remplacez l'option Sélectionner une passerelle IPv6 par défaut pour la vmknic par L'utilisateur doit explicitement choisir l'option de stratégie.
                                          Vous pouvez également modifier l'option Sélectionner une passerelle IPv6 par défaut pour la vmknic en modifiant Passerelle IPv6 par défaut de la carte vmknic de « :: » à « ».

                                        • Certaines machines virtuelles invitées peuvent signaler leur identité comme une chaîne vide

                                          Certaines machines virtuelles invitées peuvent signaler leur identité comme une chaîne vide si le client exécute une version de VMware Tools ultérieure à celle avec laquelle l'hôte ESXi a été publié, ou si l'hôte ne reconnaît pas le paramètre guestID de l'objet GuestInfo. Le problème concerne principalement les machines virtuelles dotées du système d'exploitation CentOS et VMware Photon.

                                          Solution : aucune.

                                        • La création de banques de données VMFS sur un périphérique Intel Volume Management (Intel VMD) en mode de montage peut échouer

                                          La création d'une banque de données VMFS sur Intel VMD, configurée en mode de montage peut échouer, même si la partition est marquée comme étant correctement créée sur l'hôte ESXi. Un message d'erreur semblable à celui-ci peut s'afficher : Échec de la création de la banque de données VMFS vmd2 - Échec de l'opération.

                                          Solution : aucune.

                                        • Vous voyez des messages répétitifs dans vCenter Web Client invitant à supprimer NSX des sous-spécifications d'hôte

                                          Vous pouvez voir des messages répétitifs dans vCenter Web Client, semblables à Supprimer NSX des sous-spécifications d'hôte si vous utilisez le démarrage réseau pour les hôtes ESXi, en raison d'un code factice dans hostd.

                                          Solution : aucune. 

                                        • Les hôtes ESXi peuvent perdre la connectivité au système vCenter Server en raison de l'échec du service de l'agent vpxa

                                          Les hôtes ESXi peuvent perdre la connectivité au système vCenter Server en raison de l'échec du service de l'agent vpxa suite à une mise à jour de propriété non valide générée par l'objet PropertyCollector. Une condition de concurrence dans hostd conduit à une séquence incorrecte d'événements de notification de mise à jour de propriété qui entraînent une mise à jour de propriété non valide.

                                          Solution : Reconnectez manuellement l'hôte ESXi au système vCenter Server.

                                        • Le service Syslog d'ESXi peut afficher des horodatages imprécis lors du démarrage ou de la rotation

                                          Le service Syslog d'ESXi peut afficher des horodatages imprécis lorsque le service démarre ou redémarre, ou lorsque le journal atteint sa taille maximale par la configuration et effectue une rotation.

                                          Solution : ce problème a été résolu pour les nouvelles installations d'ESXi. Pour résoudre ce problème sur la configuration existante pour hostd.log :

                                          1. Ouvrez le fichier /etc/vmsyslog.conf.d/hostd.conf.
                                          2. Remplacez onrotate = logger -t Hostd < /var/run/vmware/hostdLogHeader.txt par
                                            onrotate = printf '%%s - last log rotation time, %%s\n' "$(date --utc +%%FT%%T.%%3NZ)" "$(cat /var/run/vmware/hostdLogHeader.txt)" | logger -t Hostd.
                                          3. Enregistrez les modifications.
                                          4. Redémarrez le service vmsyslogd en exécutant /etc/init.d/vmsyslogd restart.
                                        • La machine virtuelle peut cesser de répondre si le fichier image ISO AutoInstalls est monté

                                          L'installation de VMware Tools démonte le fichier image ISO qui se termine par autoinst.iso, s'il est déjà monté sur la machine virtuelle. Pour monter le fichier image ISO de VMware Tools, vous devez de nouveau cliquer sur Installer VMware Tools. En conséquence, la machine virtuelle peut cesser de répondre.

                                          Solution : Avant d'installer VMware Tools, supprimez le fichier image ISO du lecteur de CD-ROM ou renommez-le avec une terminaison différente d'autoinst.iso.

                                        • Vous ne pouvez pas migrer des machines virtuelles à l'aide d'vSphere vMotion sur différents commutateurs logiques NSX

                                          Dans ESXi 6.7 Update 2, la migration des machines virtuelles à l'aide de vSphere vMotion entre deux commutateurs logiques NSX n'est pas prise en charge. Vous pouvez toujours migrer des machines virtuelles avec vSphere vMotion sur le même commutateur logique NSX.

                                          Solution : aucune.

                                        Problèmes connus des versions antérieures

                                        Pour afficher la liste des problèmes connus précédents, cliquez ici.