ESXi 7.0 Update 3d | 29 mars 2022 | Build ISO 19482537

Vérifiez les compléments et les mises à jour pour ces notes de mise à jour.

Contenu des notes de mise à jour

Les notes de mise à jour couvrent les sujets suivants :

IMPORTANT : si votre système source contient la version ESXi 7.0 Update 2 (build numéro 17630552) ou des builds ultérieures incluant des pilotes Intel, avant de procéder à la mise à niveau vers ESXi 7.0 Update 3d, reportez-vous à la section Nouveautés des notes de mise à jour de VMware vCenter Server 7.0 Update 3c, car tout le contenu de cette section s'applique également à vSphere 7.0 Update 3d. Consultez également les articles associés de la base de connaissances VMware : 86447, 87258 et 87308

Nouveautés

  • ESXi 7.0 Update 3d prend en charge vSphere Quick Boot sur les serveurs suivants :
    • Dell Inc. C6420 vSAN Ready Node
    • Dell Inc. MX740C vSAN Ready Node
    • Dell Inc. MX750C vSAN Ready Node
    • Dell Inc. PowerEdge R750xa
    • Dell Inc. PowerEdge R750xs
    • Dell Inc. PowerEdge T550
    • Dell Inc. R650 vSAN Ready Node
    • Dell Inc. R6515 vSAN Ready Node
    • Dell Inc. R740 vSAN Ready Node
    • Dell Inc. R750 vSAN Ready Node
    • Dell Inc. R7515 vSAN Ready Node
    • Dell Inc. R840 vSAN Ready Node
    • Dell Inc. VxRail E660
    • Dell Inc. VxRail E660F
    • Dell Inc. VxRail E660N
    • Dell Inc. VxRail E665
    • Dell Inc. VxRail E665F
    • Dell Inc. VxRail E665N
    • Dell Inc. VxRail G560
    • Dell Inc. VxRail G560F
    • Dell Inc. VxRail P580N
    • Dell Inc. VxRail P670F
    • Dell Inc. VxRail P670N
    • Dell Inc. VxRail P675F
    • Dell Inc. VxRail P675N
    • Dell Inc. VxRail S670
    • Dell Inc. VxRail V670F

Versions antérieures d'ESXi 7.0

Les nouvelles fonctionnalités ainsi que les problèmes résolus et connus d'ESXi sont décrits dans les notes de mise à jour de chaque version. Notes de mise à jour des versions antérieures à ESXi 7.0 :

Pour plus d'informations sur l'internationalisation, la compatibilité et les composants open source, consultez les Notes de mise à jour de VMware vSphere 7.0.

Correctifs contenus dans cette version

La version 7.0 Update 3d d'ESXi fournit les correctifs suivants :

Détails de la build

Nom de fichier de téléchargement : VMware-ESXi-7.0U3d-19482537-depot.zip
Build : 19482537
Taille du téléchargement : 586,8 Mo
md5sum : 22fca2ef1dc38f490d1635926a86eb02
sha256checksum : 2ef5b43b4e9d64a9f48c7ea0ee8561f7619c9ab54e874974b7f0165607a2355a
Redémarrage de l'hôte requis : Oui
Migration ou arrêt de la machine virtuelle requis : Oui

Composants

Composant Bulletin Catégorie Gravité
Composant ESXi - VIB ESXi principaux ESXi_7.0.3-0.35.19482537 Correctif de bogues Critique
Composant d'installation/mise à niveau d'ESXi esx-update_7.0.3-0.35.19482537 Correctif de bogues Critique
Plug-in de gestion de PILOTES LSU NATIFS LSI Broadcom-lsiv2-drivers-plugin_1.0.0-10vmw.703.0.35.19482537 Correctif de bogues Critique
Pilote VMware NVMe over TCP VMware-NVMeoF-TCP_1.0.0.1-1vmw.703.0.35.19482537 Correctif de bogues Critique
Composant ESXi - VIB ESXi principaux ESXi_7.0.3-0.30.19482531 Sécurité Critique
Composant d'installation/mise à niveau d'ESXi esx-update_7.0.3-0.30.19482531 Sécurité Critique
VMware-VM-Tools VMware-VM-Tools_11.3.5.18557794-19482531 Sécurité Critique

IMPORTANT :

  • À partir de vSphere 7.0, VMware utilise des composants pour le conditionnement des VIB avec des bulletins. Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte. 
  • Lorsque vous appliquez un correctif aux hôtes ESXi à l'aide de VMware Update Manager à partir d'une version antérieure à ESXi 7.0 Update 2, il est vivement recommandé d'utiliser le bulletin de cumul dans la ligne de base de correctifs. Si vous ne pouvez pas utiliser le bulletin de cumul, assurez-vous d'inclure tous les modules suivants dans la ligne de base de correctifs. Si les modules suivants ne sont pas inclus dans la ligne de base, l'opération de mise à jour échoue :
    • VMware-vmkusb_0.1-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-vmkata_0.1-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 ou version ultérieure

Bulletin de cumul

Ce bulletin de cumul contient les derniers VIB avec tous les correctifs postérieurs à la publication initiale d'ESXi 7.0.

ID de bulletin Catégorie Gravité Détails
ESXi70U3d-19482537 Correctif de bogues Critique Correctif de bogues et sécurité
ESXi70U3sd-19482531 Sécurité Critique Sécurité uniquement

Profils d'image

Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques. L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.

Nom de profil d'image
ESXi-7.0U3d-19482537-standard
ESXi-7.0U3d-19482537-no-tools
ESXi-7.0U3sd-19482531-standard
ESXi-7.0U3sd-19482531-no-tools

Image ESXi

Nom et version Date de publication Catégorie Détail
ESXi70U3d-19482537 29 mars 2022 Correctif de bogues Image de correctif de bogues et de sécurité
ESXi70U3sd-19482531 29 mars 2022 Sécurité Image de sécurité uniquement

Pour plus d'informations sur les composants et bulletins individuels, reportez-vous à la page Correctifs de produits et à la section Problèmes résolus.

Téléchargement et installation de correctifs

Dans vSphere 7.x, le plug-in Update Manager, utilisé pour l'administration de vSphere Update Manager, est remplacé par le plug-in Lifecycle Manager. Les opérations d'administration pour vSphere Update Manager sont toujours disponibles sous le plug-in Lifecycle Manager, avec de nouvelles capacités pour vSphere Lifecycle Manager.
La manière habituelle d'appliquer des correctifs aux hôtes ESXi 7.x consiste à utiliser vSphere Lifecycle Manager. Pour plus d'informations, consultez À propos de vSphere Lifecycle Manager et Lignes de base et images de vSphere Lifecycle Manager.
Vous pouvez également mettre à jour des hôtes ESXi sans utiliser le plug-in Lifecycle Manager et utiliser un profil d'image à la place. Pour ce faire, vous devez télécharger manuellement le fichier ZIP du bundle hors ligne du correctif à partir de VMware Customer Connect. Dans le menu déroulant Sélectionner un produit, sélectionnez ESXi (intégré et installable), puis, dans le menu déroulant Sélectionner une version, sélectionnez 7.0. Pour plus d'informations, consultez Mise à niveau des hôtes à l'aide des commandes ESXCLI et le guide Mise à niveau de VMware ESXi.

Problèmes résolus

Les problèmes résolus sont regroupés comme suit :

ESXi_7.0.3-0.35.19482537
Catégorie des correctifs Correctif de bogues
Gravité des correctifs Critique
Redémarrage de l'hôte requis Oui
Migration ou arrêt de la machine virtuelle requis Oui
Matériel concerné S.O.
Logiciels concernés S.O.
VIB inclus
  • VMware_bootbank_cpu-microcode_7.0.3-0.35.19482537
  • VMware_bootbank_bmcal_7.0.3-0.35.19482537
  • VMware_bootbank_vsanhealth_7.0.3-0.35.19482537
  • VMware_bootbank_gc_7.0.3-0.35.19482537
  • VMware_bootbank_vsan_7.0.3-0.35.19482537
  • VMware_bootbank_esxio-combiner_7.0.3-0.35.19482537
  • VMware_bootbank_esx-xserver_7.0.3-0.35.19482537
  • VMware_bootbank_native-misc-drivers_7.0.3-0.35.19482537
  • VMware_bootbank_trx_7.0.3-0.35.19482537
  • VMware_bootbank_crx_7.0.3-0.35.19482537
  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.35.19482537
  • VMware_bootbank_vdfs_7.0.3-0.35.19482537
  • VMware_bootbank_esx-base_7.0.3-0.35.19482537
PR résolus 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2854493
Numéros CVE S.O.

Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB esx-dvfilter-generic-fastpath, vsanhealth, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver, gc, bmcal, esxio-combiner, trx et cpu-microcode pour résoudre les problèmes suivants :

  • NOUVEAU PR 2854493 : les machines virtuelles peuvent cesser de répondre en raison d'un problème de blocage dans un volume VMFS

    Dans certains cas, si une demande d'E/S s'exécute en parallèle avec une opération de suppression déclenchée par le système d'exploitation invité, un blocage peut se produire dans les volumes VMFS6. Par exemple, lorsque le système d'exploitation invité sur une machine virtuelle à provisionnement dynamique exécute en permanence des opérations unmap pendant lesquelles l'écriture et la suppression de fichiers se répètent pour sécuriser et libérer le disque. Par conséquent, les machines virtuelles sur ce volume cessent de répondre.
     

    Ce problème est résolu dans cette version.

  • PR 2855241 : l'ajout d'hôtes ESXi à un domaine Active Directory peut prendre du temps

    Certaines requêtes LDAP qui n'ont aucun délai d'expiration spécifié peuvent entraîner un retard important dans les opérations de jonction de domaine pour ajouter un hôte ESXi à un domaine Active Directory.

    Ce problème est résolu dans cette version. Le correctif ajoute un délai d'expiration standard de 15 secondes avec une journalisation supplémentaire pour les appels LDAP lors du workflow de jonction de domaine.

  • PR 2834582 : la mise sous tension simultanée d'un grand nombre de machines virtuelles peut prendre du temps ou échouer

    Dans certains environnements, la mise sous tension simultanée d'un grand nombre de machines virtuelles hébergées sur la même banque de données VMFS6 peut prendre du temps ou échouer. Le temps nécessaire pour créer des fichiers d'échange pour toutes les machines virtuelles entraîne des retards et peut finalement entraîner l'échec des opérations de mise sous tension.

    Ce problème est résolu dans cette version. Le correctif améliore l'algorithme d'allocation des ressources VMFS6 pour éviter ce problème.

  • PR 2851811 : les machines virtuelles peuvent cesser de répondre pendant les opérations de mise sous tension ou de consolidation de snapshot

    Une machine virtuelle peut cesser de répondre lors d'une mise sous tension ou d'une opération de consolidation de snapshot et vous devez redémarrer l'hôte ESXi pour redémarrer la machine virtuelle. Le problème est rare et se produit lors de l'ouverture du fichier VMDK.

    Ce problème est résolu dans cette version. Cependant, le correctif résout une cause principale identifiée et peut ne pas résoudre tous les aspects du problème. Le correctif ajoute des journaux avec la balise AFF_OPEN_PATH pour faciliter l'identification et la résolution d'une autre cause principale si vous rencontrez le problème.

  • PR 2865369 : un hôte ESXi peut échouer avec un écran de diagnostic violet en raison d'une condition de concurrence très rare dans les adaptateurs iSCSI logiciels

    Dans des cas très rares, une condition de concurrence dans les adaptateurs logiciels iSCSI peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version. 

  • PR 2849843 : les statistiques du panneau de stockage de la machine virtuelle indiquent que VMname est null sur les serveurs ESXi exécutés pendant plus de 150 jours

    Si un serveur ESXi s'exécute pendant plus de 150 jours sans redémarrage, le nombre d'ID de pool de ressources (GID) peut dépasser uint32. Par conséquent, dans le volet des statistiques du panneau de stockage de la machine virtuelle, vous pouvez voir un nombre négatif pour GID et null pour VMname.

    Ce problème est résolu dans cette version. Le correctif remplace la variable GID par uint64.

  • PR 2850065 : VMkernel peut arrêter des machines virtuelles en raison d'un problème de temporisateur de vCPU

    En de rares occasions, VMkernel peut considérer qu'une machine virtuelle ne répond pas, car elle ne parvient pas à envoyer correctement un signal de pulsation PCPU, et peut l'arrêter. Dans le fichier vmkernel.log, vous voyez des messages tels que :
    2021-05-28T21:39:59.895Z cpu68:1001449770)ALERT: Heartbeat: HandleLockup:827: PCPU 8 didn't have a heartbeat for 5 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.
    2021-05-28T21:39:59.895Z cpu8:1001449713)WARNING: World: vm 1001449713: PanicWork:8430: vmm3:VM_NAME:vcpu-3:Received VMkernel NMI IPI, possible CPU lockup while executing HV VT VM

    Ce problème est dû à une condition de concurrence rare dans les temporisateurs vCPU. Étant donné que la concurrence est définie par vCPU, les machines virtuelles plus volumineuses sont plus exposées au problème.

    Ce problème est résolu dans cette version.

  • PR 2851400 : lorsque vSphere Replication est activé sur une machine virtuelle. de nombreuses autres machines virtuelles peuvent cesser de répondre

    Lorsque vSphere Replication est activé sur une machine virtuelle, vous pouvez observer des latences de banque de données et d'invité plus élevées qui, dans certains cas, peuvent empêcher les hôtes ESXi de répondre à l'instance de vCenter Server. L'augmentation de la latence provient des totaux de contrôle MD5 de vSphere Replication sur le chemin d'exécution des E/S, ce qui retarde toutes les autres E/S.

    Ce problème est résolu dans cette version. Le correctif décharge le calcul MD5 de vSphere Replication du chemin d'exécution d'E/S vers un pool de travail et réduit la quantité d'E/S en attente que vSphere Replication émet.

  • PR 2859882 : entrées de l'interface réseau republiées avec l'ancien format

    Après un redémarrage, l'hôte principal d'un cluster vSAN peut avoir un nouveau format pour les entrées d'interface réseau. Le nouveau format peut ne pas se propager à certaines entrées. Par exemple, les entrées d'interface dans la file d'attente de mise à jour locale de l'hôte principal.

    Ce problème est résolu dans cette version.

  • PR 2859643 : vous voyez des vidages de mémoire sfcb lors de la suppression planifiée de périphériques NVMe

    Pour optimiser le traitement des requêtes liées aux périphériques PCI, SFCB conserve une liste des périphériques PCI dans un cache. Cependant, lorsque vous supprimez un périphérique NVMe, même avec un workflow planifié, le cache peut ne pas s'actualiser. Par conséquent, vous voyez des vidages de mémoire sfcb, car la recherche du périphérique supprimé échoue.

    Ce problème est résolu dans cette version. Le correctif garantit que SFCB actualise le cache en cas de modification de la liste des périphériques PCI.

  • PR 2851531 : les hôtes ESXi dans des environnements utilisant des stratégies de liaison montante et d'association peuvent perdre la connectivité après la correction en appliquant un profil d'hôte

    Lorsque vous corrigez des hôtes ESXi à l'aide d'un profil d'hôte, les paramètres réseau peuvent ne pas s'appliquer en raison d'une erreur logique dans la vérification du nombre de liaisons montantes des ports de liaison montante qui sont configurés pour la stratégie d'association par défaut. Si la vérification du numéro de liaison montante renvoie 0 lors de l'application d'un profil d'hôte, la tâche échoue. Par conséquent, les hôtes ESXi perdent la connectivité après le redémarrage.

    Ce problème est résolu dans cette version. Le correctif affine la vérification du numéro de liaison montante et s'assure qu'il renvoie une erreur uniquement dans des conditions spécifiques. 

  • PR 2869790 : vous ne voyez pas les adaptateurs réseau VMkernel après le redémarrage des hôtes ESXi

    Dans les systèmes vSphere de version 7.0 Update 2 et versions ultérieures où les adaptateurs réseau VMkernel sont connectés à plusieurs piles TCP/IP, après le redémarrage des hôtes ESX, certains adaptateurs peuvent ne pas être restaurés. Dans vSphere Client, lorsque vous accédez à Hôte > Configurer > Adaptateurs VMkernel, vous voyez un message tel que Aucun élément trouvé. Si vous exécutez les commandes ESXCLI localcli network ip interface list ou esxcfg-vmknic -l, vous voyez l'erreur Unable to get node Not Found. Le même message d'erreur s'affiche dans les rapports hostd.log.

    Ce problème est résolu dans cette version.

  • PR 2871577 : si vous désactivez, puis réactivez les opérations de migration à l'aide de vSphere vMotion, les migrations consécutives peuvent entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet

    Dans des cas spécifiques, si vous utilisez vSphere vMotion sur un système vSphere après désactivation et réactivation des opérations de migration, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet. Par exemple, si vous utilisez la commande ESXCLI esxcli system settings advanced set --option /Migrate/Enabled --int-value=0 pour désactiver la fonctionnalité, puis exécutez esxcli system settings advanced set - -option /Migrate/Enabled --default pour l'activer, toute migration ultérieure peut entraîner le problème.

    Ce problème est résolu dans cette version.

  • PR 2914095 : utilisation élevée du CPU après une mise à niveau sans interruption (NDU) d'un microprogramme de baie de stockage

    Les hôtes ESXi peuvent subir une utilisation de CPU supérieure à 90 % après une mise à niveau NDU d'un microprogramme de baie de stockage, par exemple un fournisseur VASA PowerStore. L'utilisation élevée du CPU finit par s'atténuer mais, dans certains cas, elle peut prendre beaucoup de temps, voire plus de 24 heures.

    Ce problème est résolu dans cette version.

  • PR 2871515 : les hôtes ESXi perdent le DNS IPv6 après une migration de port VMkernel

    Après une migration de port VMkernel d'un commutateur virtuel standard vers un vSphere Distributed Virtual Switch (VDS) ou d'un VDS vers un autre, les hôtes ESXi peuvent perdre leur DNS IPv6.

    Ce problème est résolu dans cette version. Le correctif s'assure que lors d'une migration de port VMkernel, les serveurs de noms IPv6 sont ajoutés ou supprimés un par un pour éviter de les supprimer tous dans certains environnements.

  • PR 2852173 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'un espace tampon de socket insuffisant

    Les démons de gestion ESXi qui génèrent des volumes élevés de messages de journaux peuvent avoir un impact sur la communication opérationnelle entre les composants de niveau utilisateur en raison d'un espace de mémoire tampon de socket insuffisant. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet avec un message tel que nicmgmtd : Impossible d'allouer un nouveau segment de données, car la mémoire est insuffisante.

    Ce problème est résolu dans cette version. Le correctif alloue un espace de socket de bas niveau partagé entre les composants séparément de l'espace de tampon d'application.

  • PR 2872509 : vous ne pouvez pas voir l'état des objets lors d'une tâche de resynchronisation des objets

    Dans vSphere Client, lorsque vous sélectionnez Resynchronisation d'objets sous Cluster vSAN > Surveiller > vSAN, vous ne voyez pas l'état des objets en cours de resynchronisation. Au lieu de cela, vous voyez l'erreur Échec de l'extraction des données demandées. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées.

    Ce problème est résolu dans cette version.

  • PR 2878701 : dans VMware Host Client, vous voyez une erreur indiquant qu'aucune donnée de capteur n'est disponible

    Dans VMware Host Client, vous voyez l'erreur Aucune donnée de capteur disponible en raison d'un problème avec le formatage de DateTime. Dans la trace de débogage, vous voyez des entrées de journaux telles que :
    hostd[1051205] [Originator@6876 sub=Cimsvc] Refresh hardware status failed N7Vmacore23DateTimeFormatExceptionE(Error formatting DateTime).

    Ce problème est résolu dans cette version.

  • PR 2847291 : les comptes de gestion de VMware Cloud Director on Dell EMC VxRail peuvent être supprimés lors de la correction du profil d'hôte

    Lorsque vous créez un profil d'hôte, les comptes de service pour VMware Cloud Director on Dell EMC VxRail sont automatiquement créés et peuvent être supprimés lors d'une correction du profil d'hôte.

    Ce problème est résolu dans cette version. Le correctif garantit que les comptes de service pour VMware Cloud Director on Dell EMC VxRail ne dépendent pas des opérations de profil d'hôte.

  • PR 2884344 : la configuration de l'hôte vSAN ne correspond pas à vCenter Server lorsqu'un fournisseur de clés natif est défectueux

    Lorsque l'état d'un fournisseur de clés natif pour le chiffrement vSAN est défectueux, le workflow de correction peut être bloqué. Le système vCenter Server ne peut pas synchroniser ses paramètres de configuration avec les hôtes vSAN tant que le bloc n'est pas effacé.

    Ce problème est résolu dans cette version.

  • PR 2854558 : impossible d'activer le chiffrement vSAN à l'aide d'un fournisseur de clés natif lorsque les hôtes se trouvent derrière un proxy

    Lorsque vous placez des hôtes vSAN derrière un serveur proxy, vSAN ne peut pas déterminer la santé du fournisseur de clés natif. Par conséquent, vous ne pouvez pas activer le chiffrement vSAN à l'aide du fournisseur de clés natif. Vous pouvez voir le message suivant :
    Le fournisseur de clés n'est pas disponible sur l'hôte.

    Ce problème est résolu dans cette version.

  • PR 2859229 : vous voyez une erreur de vérification de conformité pour les hôtes dans un cluster de maillage HCI vSAN

    Les hôtes d'un cluster vSAN sur lesquels le maillage HCI est activé peuvent rencontrer l'erreur de vérification de conformité suivante : Impossible d'obtenir de l'hôte le nom de la banque de données.

    Ce problème est résolu dans cette version.

  • PR 2840405 : vous ne pouvez pas modifier la taille du pool de ressources des fournisseurs WBEM

    Les noms des fournisseurs WBEM peuvent être différents de leur nom de groupe de ressources. Dans de tels cas, les commandes telles que esxcli system wbem set --rp-override ne parviennent pas à modifier la configuration existante, car la méthode de modification de la taille d'un pool de ressources vérifie également le nom du groupe de ressources.

    Ce problème est résolu dans cette version. Le correctif supprime la vérification entre les noms de fournisseur WBEM et les noms de groupe de ressources.

  • PR 2897700 : si le chiffrement des données en transit est activé sur un cluster vSAN, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet

    Si le chiffrement des données en transit est activé sur un cluster vSAN et d'autres types de trafic système, tels que le trafic vSphere vMotion ou le trafic vSphere HA, les routes vers un port utilisé par vSAN, les hôtes ESXi peuvent échouer avec une erreur telle que PSOD : #PF Exception 14 in world 1000215083:rdtNetworkWo IP 0x42000df1be47 addr 0x80 sur un écran de diagnostic violet

    Ce problème est résolu dans cette version.

esx-update_7.0.3-0.35.19482537
Catégorie des correctifs Correctif de bogues
Gravité des correctifs Critique
Redémarrage de l'hôte requis Oui
Migration ou arrêt de la machine virtuelle requis Oui
Matériel concerné S.O.
Logiciels concernés S.O.

VIB inclus

  • VMware_bootbank_esx-update_7.0.3-0.35.19482537
  • VMware_bootbank_loadesx_7.0.3-0.35.19482537
PR résolus  S.O.
Numéros CVE S.O.

Met à jour les VIB loadesx et esx-update.

    Broadcom-lsiv2-drivers-plugin_1.0.0-10vmw.703.0.35.19482537
    Catégorie des correctifs Correctif de bogues
    Gravité des correctifs Critique
    Redémarrage de l'hôte requis Oui
    Migration ou arrêt de la machine virtuelle requis Non
    Matériel concerné S.O.
    Logiciels concernés S.O.

    VIB inclus

    • VMware_bootbank_lsuv2-lsiv2-drivers-plugin_1.0.0-10vmw.703.0.35.19482537
    PR résolus  2925847
    Numéros CVE S.O.

    Met à jour le VIB lsuv2-lsiv2-drivers-plugin pour résoudre le problème suivant :
    • PR 2925847 : après la mise à jour d'ESXi vers la version 7.0 Update 3 ou une version ultérieure, le service VPXA ne parvient pas à démarrer et les hôtes ESXi se déconnectent de l'instance de vCenter Server

      Après la mise à jour d'ESXi vers la version 7.0 Update 3 ou une version ultérieure, les hôtes peuvent se déconnecter de l'instance de vCenter Server et, lorsque vous tentez de reconnecter un hôte à l'aide de vSphere Client, vous voyez une erreur telle que Une erreur système générale s'est produite : Expiration du délai d'attente de démarrage de vpxa. Le service VPXA ne parvient pas non plus à démarrer lorsque vous utilisez la commande /etc/init.d/vpxa start. Le problème affecte les environnements avec des RAID qui contiennent plus de 15 périphériques physiques. lsuv2-lsiv2-drivers-plugin peut gérer jusqu'à 15 disques physiques et les RAID incluant un plus grand nombre de périphériques provoquent un débordement qui empêche le démarrage de VPXA.

      Ce problème est résolu dans cette version.

    VMware-NVMeoF-TCP_1.0.0.1-1vmw.703.0.35.19482537
    Catégorie des correctifs Correctif de bogues
    Gravité des correctifs Critique 
    Redémarrage de l'hôte requis Oui
    Migration ou arrêt de la machine virtuelle requis Oui
    Matériel concerné S.O.
    Logiciels concernés S.O.

    VIB inclus

    • VMW_bootbank_nvmetcp_1.0.0.1-1vmw.703.0.35.19482537
    PR résolus  S.O.
    Numéros CVE S.O.

    Met à jour le VIB nvmetcp.
      ESXi_7.0.3-0.30.19482531
      Catégorie des correctifs Sécurité
      Gravité des correctifs Critique
      Redémarrage de l'hôte requis Oui
      Migration ou arrêt de la machine virtuelle requis Oui
      Matériel concerné S.O.
      Logiciels concernés S.O.
      VIB inclus
      • VMware_bootbank_vdfs_7.0.3-0.30.19482531
      • VMware_bootbank_esxio-combiner_7.0.3-0.30.19482531
      • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.30.19482531
      • VMware_bootbank_esx-base_7.0.3-0.30.19482531
      • VMware_bootbank_trx_7.0.3-0.30.19482531
      • VMware_bootbank_cpu-microcode_7.0.3-0.30.19482531
      • VMware_bootbank_esx-xserver_7.0.3-0.30.19482531
      • VMware_bootbank_crx_7.0.3-0.30.19482531
      • VMware_bootbank_bmcal_7.0.3-0.30.19482531
      • VMware_bootbank_native-misc-drivers_7.0.3-0.30.19482531
      • VMware_bootbank_vsanhealth_7.0.3-0.30.19482531
      • VMware_bootbank_gc_7.0.3-0.30.19482531
      • VMware_bootbank_vsan_7.0.3-0.30.19482531
      PR résolus 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847,
      2849843, 2871515
      Numéros CVE S.O.

      Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
      Met à jour les VIB esx-dvfilter-generic-fastpath, vsanhealth, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver, gc, bmcal, esxio-combiner, trx et cpu-microcode pour résoudre les problèmes suivants :

      • ESXi 7.0 Update 3d fournit les mises à jour de sécurité suivantes :
        • cURL a été mis à jour vers la version 7.79.1.
        • OpenSSH a été mis à jour vers la version 8.8p1.
        • OpenSSL a été mis à jour vers la version 1.0.2zb.
      esx-update_7.0.3-0.30.19482531
      Catégorie des correctifs Sécurité
      Gravité des correctifs Critique
      Redémarrage de l'hôte requis Non
      Migration ou arrêt de la machine virtuelle requis Non
      Matériel concerné S.O.
      Logiciels concernés S.O.
      VIB inclus
      • VMware_bootbank_loadesx_7.0.3-0.30.19482531
      • VMware_bootbank_esx-update_7.0.3-0.30.19482531
      PR résolus S.O.
      Numéros CVE S.O.

      Met à jour les VIB loadesx et esx-update.

        VMware-VM-Tools_11.3.5.18557794-19482531
        Catégorie des correctifs Sécurité
        Gravité des correctifs Critique
        Redémarrage de l'hôte requis Non
        Migration ou arrêt de la machine virtuelle requis Non
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB inclus
        • VMware_locker_tools-light_11.3.5.18557794-19482531
        PR résolus 2816546
        Numéros CVE S.O.

        Met à jour le VIB tools-light pour résoudre le problème suivant :

          • Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3d :

            • windows.iso : VMware Tools 11.3.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.
            • linux.iso: Image ISO de VMware Tools 10.3.23 pour le système d'exploitation Linux avec glibc version 2.11 ou version ultérieure.

            Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :

            • VMware Tools 11.0.6 :
              • windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
                 
            • VMware Tools 10.0.12 :
              • winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.
              • linuxPreGLibc25.iso : prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
                 
              solaris.iso: Image de VMware Tools 10.3.10 pour Solaris.
            • darwin.iso: Prend en charge Mac OS X 10.11 et versions ultérieures.

            Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

        ESXi-7.0U3d-19482537-standard
        Nom du profil ESXi-70U3d-19482537-standard
        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
        Fournisseur VMware, Inc.
        Date de publication 29 mars 2022
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_cpu-microcode_7.0.3-0.35.19482537
        • VMware_bootbank_bmcal_7.0.3-0.35.19482537
        • VMware_bootbank_vsanhealth_7.0.3-0.35.19482537
        • VMware_bootbank_gc_7.0.3-0.35.19482537
        • VMware_bootbank_vsan_7.0.3-0.35.19482537
        • VMware_bootbank_esxio-combiner_7.0.3-0.35.19482537
        • VMware_bootbank_esx-xserver_7.0.3-0.35.19482537
        • VMware_bootbank_native-misc-drivers_7.0.3-0.35.19482537
        • VMware_bootbank_trx_7.0.3-0.35.19482537
        • VMware_bootbank_crx_7.0.3-0.35.19482537
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.35.19482537
        • VMware_bootbank_vdfs_7.0.3-0.35.19482537
        • VMware_bootbank_esx-base_7.0.3-0.35.19482537
        • VMware_bootbank_esx-update_7.0.3-0.35.19482537
        • VMware_bootbank_loadesx_7.0.3-0.35.19482537
        • VMW_bootbank_lpfc_14.0.169.25-5vmw.703.0.35.19482537
        • VMware_bootbank_lsuv2-lsiv2-drivers-plugin_1.0.0-10vmw.703.0.35.19482537
        • VMW_bootbank_nvmetcp_1.0.0.1-1vmw.703.0.35.19482537
        • VMware_locker_tools-light_11.3.5.18557794-19482531
        PR résolus 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2925847, 2854493
        Numéros CVE associés S/O
        • Ce correctif met à jour les problèmes suivants :
          • Dans certains cas, si une demande d'E/S s'exécute en parallèle avec une opération de suppression déclenchée par le système d'exploitation invité, un blocage peut se produire dans un volume VMFS. Par conséquent, les machines virtuelles sur ce volume cessent de répondre.

          • Certaines requêtes LDAP qui n'ont aucun délai d'expiration spécifié peuvent entraîner un retard important dans les opérations de jonction de domaine pour ajouter un hôte ESXi à un domaine Active Directory.

          • Dans certains environnements, la mise sous tension simultanée d'un grand nombre de machines virtuelles hébergées sur la même banque de données VMFS6 peut prendre du temps ou échouer. Le temps nécessaire pour créer des fichiers d'échange pour toutes les machines virtuelles entraîne des retards et peut finalement entraîner l'échec des opérations de mise sous tension.

          • Une machine virtuelle peut cesser de répondre lors d'une mise sous tension ou d'une opération de consolidation de snapshot et vous devez redémarrer l'hôte ESXi pour redémarrer la machine virtuelle. Le problème est rare et se produit lors de l'ouverture du fichier VMDK.

          • Dans des cas très rares, une condition de concurrence dans les adaptateurs logiciels iSCSI peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.

          • Si un serveur ESXi s'exécute pendant plus de 150 jours sans redémarrage, le nombre d'ID de pool de ressources (GID) peut dépasser la capacité de uint32. Par conséquent, dans le volet des statistiques du panneau de stockage de VM, vous pouvez voir un nombre négatif pour GID et null pour VMname.

          • En de rares occasions, VMkernel peut considérer qu'une machine virtuelle ne répond pas, car elle ne parvient pas à envoyer correctement un signal de pulsation PCPU, et peut l'arrêter. Dans le fichier vmkernel.log, vous voyez des messages tels que :
            2021-05-28T21:39:59.895Z cpu68:1001449770)ALERT: Heartbeat: HandleLockup:827: PCPU 8 didn't have a heartbeat for 5 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.
            2021-05-28T21:39:59.895Z cpu8:1001449713)WARNING: World: vm 1001449713: PanicWork:8430: vmm3:VM_NAME:vcpu-3:Received VMkernel NMI IPI, possible CPU lockup while executing HV VT VM

            Ce problème est dû à une condition de concurrence rare dans les temporisateurs vCPU. Étant donné que la concurrence est définie par vCPU, les machines virtuelles plus volumineuses sont plus exposées au problème.

          • Lorsque vSphere Replication est activé sur une machine virtuelle, vous pouvez observer des latences de banque de données et d'invité plus élevées qui, dans certains cas, peuvent empêcher les hôtes ESXi de répondre à l'instance de vCenter Server. L'augmentation de la latence provient des totaux de contrôle MD5 de vSphere Replication sur le chemin d'exécution des E/S, ce qui retarde toutes les autres E/S.

          • Après un redémarrage, l'hôte principal d'un cluster vSAN peut avoir un nouveau format pour les entrées d'interface réseau. Le nouveau format peut ne pas se propager à certaines entrées. Par exemple, les entrées d'interface dans la file d'attente de mise à jour locale de l'hôte principal.

          • À de rares occasions, lorsque vous supprimez un composant volumineux dans un hôte ESXi, puis procédez à un redémarrage, le redémarrage peut commencer avant la suppression de toutes les métadonnées du composant. Les métadonnées périmées peuvent entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet. 

          • Pour optimiser le traitement des requêtes liées aux périphériques PCI, SFCB conserve une liste des périphériques PCI dans un cache. Cependant, lorsque vous supprimez un périphérique NVMe, même avec un workflow planifié, le cache peut ne pas s'actualiser. Par conséquent, vous voyez des vidages de mémoire sfcb, car la recherche du périphérique supprimé échoue.

          • Dans certains environnements, après la mise à niveau vers ESXi 7.0 Update 2d et versions ultérieures, dans vSphere Client vous pouvez voir l'erreur L'hôte a perdu la synchronisation de l'heure. Toutefois, l'alarme peut ne pas indiquer un problème réel.

          • Lorsque vous corrigez des hôtes ESXi à l'aide d'un profil d'hôte, les paramètres réseau peuvent ne pas s'appliquer en raison d'une erreur logique dans la vérification du nombre de liaisons montantes des ports de liaison montante qui sont configurés pour la stratégie d'association par défaut. Si la vérification du numéro de liaison montante renvoie 0 lors de l'application d'un profil d'hôte, la tâche échoue. Par conséquent, les hôtes ESXi perdent la connectivité après le redémarrage.

          • Dans les systèmes vSphere où les adaptateurs réseau VMkernel sont connectés à plusieurs piles TCP/IP, après le redémarrage des hôtes ESX, certains adaptateurs peuvent ne pas être restaurés. Dans vSphere Client, lorsque vous accédez à Hôte > Configurer > Adaptateurs VMkernel, un message tel que Aucun élément trouvé s'affiche. Si vous exécutez les commandes ESXCLI localcli network ip interface list ou esxcfg-vmknic -l, vous voyez l'erreur Unable to get node: Not Found. La même erreur figure dans les rapports hostd.log.

          • Lorsque vous activez la sensibilité de latence sur les machines virtuelles, des threads de Likewise Service Manager (lwsmd), qui définit explicitement l'affinité de CPU, peuvent entrer en concurrence pour les ressources de CPU sur de telles machines virtuelles. Par conséquent, l'hôte ESXi et le service hostd peuvent cesser de répondre.

          • Dans des cas spécifiques, si vous utilisez vSphere vMotion sur un système vSphere après désactivation et réactivation des opérations de migration, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet. Par exemple, si vous utilisez les commandes ESXCLI esxcli system settings advanced set --option /Migrate/Enabled --int-value=0 pour désactiver la fonctionnalité, puis exécutez esxcli system settings advanced set - -option /Migrate/Enabled --default pour l'activer, toute migration ultérieure peut entraîner le problème.

          • Les hôtes ESXi peuvent subir une utilisation de CPU supérieure à 90 % après une mise à niveau NDU d'un microprogramme de baie de stockage, par exemple un fournisseur VASA PowerStore. L'utilisation élevée du CPU finit par s'atténuer mais, dans certains cas, elle peut prendre beaucoup de temps, voire plus de 24 heures.

          • Après une migration de port VMkernel d'un commutateur virtuel standard vers un vSphere Distributed Virtual Switch (VDS) ou d'un VDS vers un autre, les hôtes ESXi peuvent perdre leur DNS IPv6.

          • Les démons de gestion ESXi qui génèrent des volumes élevés de messages de journaux peuvent avoir un impact sur la communication opérationnelle entre les composants de niveau utilisateur en raison d'un espace de mémoire tampon de socket insuffisant. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet contenant un message tel que nicmgmtd: Impossible d'allouer un nouveau segment de données, car la mémoire est insuffisante.

          • Dans vSphere Client, lorsque vous sélectionnez Resynchronisation d'objets sous Cluster vSAN > Surveiller > vSAN, vous ne voyez pas l'état des objets en cours de resynchronisation. Au lieu de cela, vous voyez l'erreur Échec de l'extraction des données demandées. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées.

          • Dans VMware Host Client, vous voyez l'erreur Aucune donnée capteur disponible en raison d'un problème de formatage de DateTime. Dans la trace de débogage, vous voyez des entrées de journaux telles que :
            hostd[1051205] [Originator@6876 sub=Cimsvc] Refresh hardware status failed N7Vmacore23DateTimeFormatExceptionE(Error formatting DateTime).

          • Lorsque vous créez un profil d'hôte, les comptes de service pour VMware Cloud Director on Dell EMC VxRail sont automatiquement créés et peuvent être supprimés lors d'une correction du profil d'hôte.

          • Lorsque l'état d'un fournisseur de clés natif pour le chiffrement vSAN est défectueux, le workflow de correction peut être bloqué. Le système vCenter Server ne peut pas synchroniser ses paramètres de configuration avec les hôtes vSAN tant que le bloc n'est pas effacé.

          • Lorsque vous placez des hôtes vSAN derrière un serveur proxy, vSAN ne peut pas déterminer la santé du fournisseur de clés natif. Par conséquent, vous ne pouvez pas activer le chiffrement vSAN à l'aide du fournisseur de clés natif. Vous pouvez voir le message suivant :
            Le fournisseur de clés n'est pas disponible sur l'hôte.

          • Après la mise à jour d'ESXi vers la version 7.0 Update 3 ou une version ultérieure, les hôtes peuvent se déconnecter de l'instance de vCenter Server et, lorsque vous tentez de reconnecter un hôte à l'aide de vSphere Client, vous voyez une erreur telle que Une erreur système générale s'est produite : Expiration du délai d'attente de démarrage de vpxa. Le service VPXA ne parvient pas non plus à démarrer lorsque vous utilisez la commande /etc/init.d/vpxa start. Le problème affecte les environnements avec des RAID qui contiennent plus de 15 périphériques physiques. lsuv2-lsiv2-drivers-plugin peut gérer jusqu'à 15 disques physiques et les RAID incluant un plus grand nombre de périphériques provoquent un débordement qui empêche le démarrage de VPXA.

          • Les hôtes d'un cluster vSAN sur lesquels le maillage HCI est activé peuvent rencontrer l'erreur de vérification de conformité suivante : Impossible d'obtenir de l'hôte le nom de la banque de données.

          • Les noms des fournisseurs WBEM peuvent être différents de leur nom de groupe de ressources. Dans ce cas, les commandes telles que esxcli system wbem set --rp-override ne parviennent pas à modifier la configuration existante, car la méthode de modification d'une taille de pool de ressources vérifie également le nom du groupe de ressources.

          • Si le chiffrement des données en transit est activé sur un cluster vSAN et d'autres types de trafic système, tels que le trafic vSphere vMotion ou le trafic vSphere HA, les routes vers un port utilisé par vSAN, les hôtes ESXi peuvent échouer avec une erreur telle que PSOD : #PF Exception 14 in world 1000215083:rdtNetworkWo IP 0x42000df1be47 addr 0x80 sur un écran de diagnostic violet

        ESXi-7.0U3d-19482537-no-tools
        Nom du profil ESXi-70U3d-19482537-no-tools
        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
        Fournisseur VMware, Inc.
        Date de publication 29 mars 2022
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_cpu-microcode_7.0.3-0.35.19482537
        • VMware_bootbank_bmcal_7.0.3-0.35.19482537
        • VMware_bootbank_vsanhealth_7.0.3-0.35.19482537
        • VMware_bootbank_gc_7.0.3-0.35.19482537
        • VMware_bootbank_vsan_7.0.3-0.35.19482537
        • VMware_bootbank_esxio-combiner_7.0.3-0.35.19482537
        • VMware_bootbank_esx-xserver_7.0.3-0.35.19482537
        • VMware_bootbank_native-misc-drivers_7.0.3-0.35.19482537
        • VMware_bootbank_trx_7.0.3-0.35.19482537
        • VMware_bootbank_crx_7.0.3-0.35.19482537
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.35.19482537
        • VMware_bootbank_vdfs_7.0.3-0.35.19482537
        • VMware_bootbank_esx-base_7.0.3-0.35.19482537
        • VMware_bootbank_esx-update_7.0.3-0.35.19482537
        • VMware_bootbank_loadesx_7.0.3-0.35.19482537
        • VMW_bootbank_lpfc_14.0.169.25-5vmw.703.0.35.19482537
        • VMware_bootbank_lsuv2-lsiv2-drivers-plugin_1.0.0-10vmw.703.0.35.19482537
        • VMW_bootbank_nvmetcp_1.0.0.1-1vmw.703.0.35.19482537
        PR résolus 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2925847, 2854493
        Numéros CVE associés S/O
        • Ce correctif met à jour le problème suivant :
          • Dans certains cas, si une demande d'E/S s'exécute en parallèle avec une opération de suppression déclenchée par le système d'exploitation invité, un blocage peut se produire dans un volume VMFS. Par conséquent, les machines virtuelles sur ce volume cessent de répondre.

          • Certaines requêtes LDAP qui n'ont aucun délai d'expiration spécifié peuvent entraîner un retard important dans les opérations de jonction de domaine pour ajouter un hôte ESXi à un domaine Active Directory.

          • Dans certains environnements, la mise sous tension simultanée d'un grand nombre de machines virtuelles hébergées sur la même banque de données VMFS6 peut prendre du temps ou échouer. Le temps nécessaire pour créer des fichiers d'échange pour toutes les machines virtuelles entraîne des retards et peut finalement entraîner l'échec des opérations de mise sous tension.

          • Une machine virtuelle peut cesser de répondre lors d'une mise sous tension ou d'une opération de consolidation de snapshot et vous devez redémarrer l'hôte ESXi pour redémarrer la machine virtuelle. Le problème est rare et se produit lors de l'ouverture du fichier VMDK.

          • Dans des cas très rares, une condition de concurrence dans les adaptateurs logiciels iSCSI peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.

          • Si un serveur ESXi s'exécute pendant plus de 150 jours sans redémarrage, le nombre d'ID de pool de ressources (GID) peut dépasser la capacité de uint32. Par conséquent, dans le volet des statistiques du panneau de stockage de VM, vous pouvez voir un nombre négatif pour GID et null pour VMname.

          • En de rares occasions, VMkernel peut considérer qu'une machine virtuelle ne répond pas, car elle ne parvient pas à envoyer correctement un signal de pulsation PCPU, et peut l'arrêter. Dans le fichier vmkernel.log, vous voyez des messages tels que :
            2021-05-28T21:39:59.895Z cpu68:1001449770)ALERT: Heartbeat: HandleLockup:827: PCPU 8 didn't have a heartbeat for 5 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.
            2021-05-28T21:39:59.895Z cpu8:1001449713)WARNING: World: vm 1001449713: PanicWork:8430: vmm3:VM_NAME:vcpu-3:Received VMkernel NMI IPI, possible CPU lockup while executing HV VT VM

            Ce problème est dû à une condition de concurrence rare dans les temporisateurs vCPU. Étant donné que la concurrence est définie par vCPU, les machines virtuelles plus volumineuses sont plus exposées au problème.

          • Lorsque vSphere Replication est activé sur une machine virtuelle, vous pouvez observer des latences de banque de données et d'invité plus élevées qui, dans certains cas, peuvent empêcher les hôtes ESXi de répondre à l'instance de vCenter Server. L'augmentation de la latence provient des totaux de contrôle MD5 de vSphere Replication sur le chemin d'exécution des E/S, ce qui retarde toutes les autres E/S.

          • Après un redémarrage, l'hôte principal d'un cluster vSAN peut avoir un nouveau format pour les entrées d'interface réseau. Le nouveau format peut ne pas se propager à certaines entrées. Par exemple, les entrées d'interface dans la file d'attente de mise à jour locale de l'hôte principal.

          • À de rares occasions, lorsque vous supprimez un composant volumineux dans un hôte ESXi, puis procédez à un redémarrage, le redémarrage peut commencer avant la suppression de toutes les métadonnées du composant. Les métadonnées périmées peuvent entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet. 

          • Pour optimiser le traitement des requêtes liées aux périphériques PCI, SFCB conserve une liste des périphériques PCI dans un cache. Cependant, lorsque vous supprimez un périphérique NVMe, même avec un workflow planifié, le cache peut ne pas s'actualiser. Par conséquent, vous voyez des vidages de mémoire sfcb, car la recherche du périphérique supprimé échoue.

          • Dans certains environnements, après la mise à niveau vers ESXi 7.0 Update 2d et versions ultérieures, dans vSphere Client vous pouvez voir l'erreur L'hôte a perdu la synchronisation de l'heure. Toutefois, l'alarme peut ne pas indiquer un problème réel.

          • Lorsque vous corrigez des hôtes ESXi à l'aide d'un profil d'hôte, les paramètres réseau peuvent ne pas s'appliquer en raison d'une erreur logique dans la vérification du nombre de liaisons montantes des ports de liaison montante qui sont configurés pour la stratégie d'association par défaut. Si la vérification du numéro de liaison montante renvoie 0 lors de l'application d'un profil d'hôte, la tâche échoue. Par conséquent, les hôtes ESXi perdent la connectivité après le redémarrage.

          • Dans les systèmes vSphere où les adaptateurs réseau VMkernel sont connectés à plusieurs piles TCP/IP, après le redémarrage des hôtes ESX, certains adaptateurs peuvent ne pas être restaurés. Dans vSphere Client, lorsque vous accédez à Hôte > Configurer > Adaptateurs VMkernel, un message tel que Aucun élément trouvé s'affiche. Si vous exécutez les commandes ESXCLI localcli network ip interface list ou esxcfg-vmknic -l, vous voyez l'erreur Unable to get node: Not Found. La même erreur figure dans les rapports hostd.log.

          • Lorsque vous activez la sensibilité de latence sur les machines virtuelles, des threads de Likewise Service Manager (lwsmd), qui définit explicitement l'affinité de CPU, peuvent entrer en concurrence pour les ressources de CPU sur de telles machines virtuelles. Par conséquent, l'hôte ESXi et le service hostd peuvent cesser de répondre.

          • Dans des cas spécifiques, si vous utilisez vSphere vMotion sur un système vSphere après désactivation et réactivation des opérations de migration, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet. Par exemple, si vous utilisez les commandes ESXCLI esxcli system settings advanced set --option /Migrate/Enabled --int-value=0 pour désactiver la fonctionnalité, puis exécutez esxcli system settings advanced set - -option /Migrate/Enabled --default pour l'activer, toute migration ultérieure peut entraîner le problème.

          • Les hôtes ESXi peuvent subir une utilisation de CPU supérieure à 90 % après une mise à niveau NDU d'un microprogramme de baie de stockage, par exemple un fournisseur VASA PowerStore. L'utilisation élevée du CPU finit par s'atténuer mais, dans certains cas, elle peut prendre beaucoup de temps, voire plus de 24 heures.

          • Après une migration de port VMkernel d'un commutateur virtuel standard vers un vSphere Distributed Virtual Switch (VDS) ou d'un VDS vers un autre, les hôtes ESXi peuvent perdre leur DNS IPv6.

          • Les démons de gestion ESXi qui génèrent des volumes élevés de messages de journaux peuvent avoir un impact sur la communication opérationnelle entre les composants de niveau utilisateur en raison d'un espace de mémoire tampon de socket insuffisant. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet contenant un message tel que nicmgmtd: Impossible d'allouer un nouveau segment de données, car la mémoire est insuffisante.

          • Dans vSphere Client, lorsque vous sélectionnez Resynchronisation d'objets sous Cluster vSAN > Surveiller > vSAN, vous ne voyez pas l'état des objets en cours de resynchronisation. Au lieu de cela, vous voyez l'erreur Échec de l'extraction des données demandées. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées.

          • Dans VMware Host Client, vous voyez l'erreur Aucune donnée capteur disponible en raison d'un problème de formatage de DateTime. Dans la trace de débogage, vous voyez des entrées de journaux telles que :
            hostd[1051205] [Originator@6876 sub=Cimsvc] Refresh hardware status failed N7Vmacore23DateTimeFormatExceptionE(Error formatting DateTime).

          • Lorsque vous créez un profil d'hôte, les comptes de service pour VMware Cloud Director on Dell EMC VxRail sont automatiquement créés et peuvent être supprimés lors d'une correction du profil d'hôte.

          • Lorsque l'état d'un fournisseur de clés natif pour le chiffrement vSAN est défectueux, le workflow de correction peut être bloqué. Le système vCenter Server ne peut pas synchroniser ses paramètres de configuration avec les hôtes vSAN tant que le bloc n'est pas effacé.

          • Lorsque vous placez des hôtes vSAN derrière un serveur proxy, vSAN ne peut pas déterminer la santé du fournisseur de clés natif. Par conséquent, vous ne pouvez pas activer le chiffrement vSAN à l'aide du fournisseur de clés natif. Vous pouvez voir le message suivant :
            Le fournisseur de clés n'est pas disponible sur l'hôte.

          • Après la mise à jour d'ESXi vers la version 7.0 Update 3 ou une version ultérieure, les hôtes peuvent se déconnecter de l'instance de vCenter Server et, lorsque vous tentez de reconnecter un hôte à l'aide de vSphere Client, vous voyez une erreur telle que Une erreur système générale s'est produite : Expiration du délai d'attente de démarrage de vpxa. Le service VPXA ne parvient pas non plus à démarrer lorsque vous utilisez la commande /etc/init.d/vpxa start. Le problème affecte les environnements avec des RAID qui contiennent plus de 15 périphériques physiques. lsuv2-lsiv2-drivers-plugin peut gérer jusqu'à 15 disques physiques et les RAID incluant un plus grand nombre de périphériques provoquent un débordement qui empêche le démarrage de VPXA.

          • Les hôtes d'un cluster vSAN sur lesquels le maillage HCI est activé peuvent rencontrer l'erreur de vérification de conformité suivante : Impossible d'obtenir de l'hôte le nom de la banque de données.

          • Les noms des fournisseurs WBEM peuvent être différents de leur nom de groupe de ressources. Dans ce cas, les commandes telles que esxcli system wbem set --rp-override ne parviennent pas à modifier la configuration existante, car la méthode de modification d'une taille de pool de ressources vérifie également le nom du groupe de ressources.

          • Si le chiffrement des données en transit est activé sur un cluster vSAN et d'autres types de trafic système, tels que le trafic vSphere vMotion ou le trafic vSphere HA, les routes vers un port utilisé par vSAN, les hôtes ESXi peuvent échouer avec une erreur telle que PSOD : #PF Exception 14 in world 1000215083:rdtNetworkWo IP 0x42000df1be47 addr 0x80 sur un écran de diagnostic violet

        ESXi-7.0U3sd-19482531-standard
        Nom du profil ESXi-70U3sd-19482531-standard
        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
        Fournisseur VMware, Inc.
        Date de publication 29 mars 2022
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_vdfs_7.0.3-0.30.19482531
        • VMware_bootbank_esxio-combiner_7.0.3-0.30.19482531
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.30.19482531
        • VMware_bootbank_esx-base_7.0.3-0.30.19482531
        • VMware_bootbank_trx_7.0.3-0.30.19482531
        • VMware_bootbank_cpu-microcode_7.0.3-0.30.19482531
        • VMware_bootbank_esx-xserver_7.0.3-0.30.19482531
        • VMware_bootbank_crx_7.0.3-0.30.19482531
        • VMware_bootbank_bmcal_7.0.3-0.30.19482531
        • VMware_bootbank_native-misc-drivers_7.0.3-0.30.19482531
        • VMware_bootbank_vsanhealth_7.0.3-0.30.19482531
        • VMware_bootbank_gc_7.0.3-0.30.19482531
        • VMware_bootbank_vsan_7.0.3-0.30.19482531
        • VMware_bootbank_loadesx_7.0.3-0.30.19482531
        • VMware_bootbank_esx-update_7.0.3-0.30.19482531
        • VMware_locker_tools-light_11.3.5.18557794-19482531
        PR résolus 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847,
        2849843, 2871515, 2816546
        Numéros CVE associés S/O
        • Ce correctif met à jour le problème suivant :
          • cURL a été mis à jour vers la version 7.79.1.
          • OpenSSH a été mis à jour vers la version 8.8p1.
          • OpenSSL a été mis à jour vers la version 1.0.2zb.

            Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3d :
          • windows.iso : VMware Tools 11.3.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.
          • linux.iso: Image ISO de VMware Tools 10.3.23 pour le système d'exploitation Linux avec glibc version 2.11 ou version ultérieure.

          Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :

          • VMware Tools 11.0.6 :
            • windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
               
          • VMware Tools 10.0.12 :
            • winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.
            • linuxPreGLibc25.iso : prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
               
            solaris.iso: Image de VMware Tools 10.3.10 pour Solaris.
          • darwin.iso: Prend en charge Mac OS X 10.11 et versions ultérieures.

          Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

        ESXi-7.0U3sd-19482531-no-tools
        Nom du profil ESXi-70U3sd-19482531-no-tools
        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
        Fournisseur VMware, Inc.
        Date de publication 29 mars 2022
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_vdfs_7.0.3-0.30.19482531
        • VMware_bootbank_esxio-combiner_7.0.3-0.30.19482531
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.30.19482531
        • VMware_bootbank_esx-base_7.0.3-0.30.19482531
        • VMware_bootbank_trx_7.0.3-0.30.19482531
        • VMware_bootbank_cpu-microcode_7.0.3-0.30.19482531
        • VMware_bootbank_esx-xserver_7.0.3-0.30.19482531
        • VMware_bootbank_crx_7.0.3-0.30.19482531
        • VMware_bootbank_bmcal_7.0.3-0.30.19482531
        • VMware_bootbank_native-misc-drivers_7.0.3-0.30.19482531
        • VMware_bootbank_vsanhealth_7.0.3-0.30.19482531
        • VMware_bootbank_gc_7.0.3-0.30.19482531
        • VMware_bootbank_vsan_7.0.3-0.30.19482531
        • VMware_bootbank_loadesx_7.0.3-0.30.19482531
        • VMware_bootbank_esx-update_7.0.3-0.30.19482531
        PR résolus 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847,
        2849843, 2871515, 2816546
        Numéros CVE associés S/O
        • Ce correctif met à jour les problèmes suivants :
          • cURL a été mis à jour vers la version 7.79.1.
          • OpenSSH a été mis à jour vers la version 8.8p1.
          • OpenSSL a été mis à jour vers la version 1.0.2zb.

            Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3d :
          • windows.iso : VMware Tools 11.3.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.
          • linux.iso: Image ISO de VMware Tools 10.3.23 pour le système d'exploitation Linux avec glibc version 2.11 ou version ultérieure.

          Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :

          • VMware Tools 11.0.6 :
            • windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
               
          • VMware Tools 10.0.12 :
            • winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.
            • linuxPreGLibc25.iso : prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
               
            solaris.iso: Image de VMware Tools 10.3.10 pour Solaris.
          • darwin.iso: Prend en charge Mac OS X 10.11 et versions ultérieures.

          Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

        ESXi Image - ESXi70U3d-19482537
        Nom ESXi
        Version 70U3d-19482537
        Date de publication 29 mars 2022
        Catégorie Correctif de bogues
        Composants concernés
        • Composant ESXi - VIB ESXi principaux
        • Composant d'installation/mise à niveau d'ESXi
        • Broadcom Emulex Connectivity Division FC et FCoE Driver
        • Plug-in de gestion de PILOTES LSU NATIFS LSI
        • Pilote VMware NVMe over TCP
        PR résolus 

        2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2925847

        Numéros CVE associés S/O
          ESXi Image - ESXi70U3sd-19482531
          Nom ESXi
          Version 70U3sd-19482531
          Date de publication 29 mars 2022
          Catégorie Sécurité
          Composants concernés
          • Composant ESXi - VIB ESXi principaux
          • Composant d'installation/mise à niveau d'ESXi
          • VMware-VM-Tools
          PR résolus  2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2816546
          Numéros CVE associés S/O

            Problèmes connus

            Les problèmes connus sont classés comme suit :

            Problèmes divers
            • L'accès SSH échoue après la mise à niveau vers ESXi 7.0 Update 3d

              Après la mise à niveau vers ESXi 7.0 Update 3d, l'accès SSH peut échouer dans certaines conditions en raison d'une mise à jour d'OpenSSH vers la version 8.8.  

              Solution : pour plus d'informations, reportez-vous à l'article 88055 de la base de connaissances VMware.

            Problèmes connus des versions antérieures

            Pour afficher la liste des problèmes connus précédents, cliquez ici.

            check-circle-line exclamation-circle-line close-line
            Scroll to top icon
            check-circle-line exclamation-circle-line close-line
            Scroll to top icon