ESXi 7.0 Update 3d | 29 mars 2022 | Build ISO 19482537 Vérifiez les compléments et les mises à jour pour ces notes de mise à jour. |
Contenu des notes de mise à jour
Les notes de mise à jour couvrent les sujets suivants :
- Nouveautés
- Versions antérieures d'ESXi 7.0
- Correctifs contenus dans cette version
- Problèmes résolus
- Problèmes connus
- Problèmes connus depuis les versions précédentes
IMPORTANT : si votre système source contient la version ESXi 7.0 Update 2 (build numéro 17630552) ou des builds ultérieures incluant des pilotes Intel, avant de procéder à la mise à niveau vers ESXi 7.0 Update 3d, reportez-vous à la section Nouveautés des notes de mise à jour de VMware vCenter Server 7.0 Update 3c, car tout le contenu de cette section s'applique également à vSphere 7.0 Update 3d. Consultez également les articles associés de la base de connaissances VMware : 86447, 87258 et 87308.
Nouveautés
- ESXi 7.0 Update 3d prend en charge vSphere Quick Boot sur les serveurs suivants :
- Dell Inc. C6420 vSAN Ready Node
- Dell Inc. MX740C vSAN Ready Node
- Dell Inc. MX750C vSAN Ready Node
- Dell Inc. PowerEdge R750xa
- Dell Inc. PowerEdge R750xs
- Dell Inc. PowerEdge T550
- Dell Inc. R650 vSAN Ready Node
- Dell Inc. R6515 vSAN Ready Node
- Dell Inc. R740 vSAN Ready Node
- Dell Inc. R750 vSAN Ready Node
- Dell Inc. R7515 vSAN Ready Node
- Dell Inc. R840 vSAN Ready Node
- Dell Inc. VxRail E660
- Dell Inc. VxRail E660F
- Dell Inc. VxRail E660N
- Dell Inc. VxRail E665
- Dell Inc. VxRail E665F
- Dell Inc. VxRail E665N
- Dell Inc. VxRail G560
- Dell Inc. VxRail G560F
- Dell Inc. VxRail P580N
- Dell Inc. VxRail P670F
- Dell Inc. VxRail P670N
- Dell Inc. VxRail P675F
- Dell Inc. VxRail P675N
- Dell Inc. VxRail S670
- Dell Inc. VxRail V670F
Versions antérieures d'ESXi 7.0
Les nouvelles fonctionnalités ainsi que les problèmes résolus et connus d'ESXi sont décrits dans les notes de mise à jour de chaque version. Notes de mise à jour des versions antérieures à ESXi 7.0 :
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3c
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2d
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2c
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2a
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1d
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1c
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1b
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1a
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0b
Pour plus d'informations sur l'internationalisation, la compatibilité et les composants open source, consultez les Notes de mise à jour de VMware vSphere 7.0.
Correctifs contenus dans cette version
La version 7.0 Update 3d d'ESXi fournit les correctifs suivants :
Détails de la build
Nom de fichier de téléchargement : | VMware-ESXi-7.0U3d-19482537-depot.zip |
Build : | 19482537 |
Taille du téléchargement : | 586,8 Mo |
md5sum : | 22fca2ef1dc38f490d1635926a86eb02 |
sha256checksum : | 2ef5b43b4e9d64a9f48c7ea0ee8561f7619c9ab54e874974b7f0165607a2355a |
Redémarrage de l'hôte requis : | Oui |
Migration ou arrêt de la machine virtuelle requis : | Oui |
Composants
Composant | Bulletin | Catégorie | Gravité |
---|---|---|---|
Composant ESXi - VIB ESXi principaux | ESXi_7.0.3-0.35.19482537 | Correctif de bogues | Critique |
Composant d'installation/mise à niveau d'ESXi | esx-update_7.0.3-0.35.19482537 | Correctif de bogues | Critique |
Plug-in de gestion de PILOTES LSU NATIFS LSI | Broadcom-lsiv2-drivers-plugin_1.0.0-10vmw.703.0.35.19482537 | Correctif de bogues | Critique |
Pilote VMware NVMe over TCP | VMware-NVMeoF-TCP_1.0.0.1-1vmw.703.0.35.19482537 | Correctif de bogues | Critique |
Composant ESXi - VIB ESXi principaux | ESXi_7.0.3-0.30.19482531 | Sécurité | Critique |
Composant d'installation/mise à niveau d'ESXi | esx-update_7.0.3-0.30.19482531 | Sécurité | Critique |
VMware-VM-Tools | VMware-VM-Tools_11.3.5.18557794-19482531 | Sécurité | Critique |
IMPORTANT :
- À partir de vSphere 7.0, VMware utilise des composants pour le conditionnement des VIB avec des bulletins. Les bulletins
ESXi
etesx-update
sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte. - Lorsque vous appliquez un correctif aux hôtes ESXi à l'aide de VMware Update Manager à partir d'une version antérieure à ESXi 7.0 Update 2, il est vivement recommandé d'utiliser le bulletin de cumul dans la ligne de base de correctifs. Si vous ne pouvez pas utiliser le bulletin de cumul, assurez-vous d'inclure tous les modules suivants dans la ligne de base de correctifs. Si les modules suivants ne sont pas inclus dans la ligne de base, l'opération de mise à jour échoue :
- VMware-vmkusb_0.1-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-vmkata_0.1-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 ou version ultérieure
Bulletin de cumul
Ce bulletin de cumul contient les derniers VIB avec tous les correctifs postérieurs à la publication initiale d'ESXi 7.0.
ID de bulletin | Catégorie | Gravité | Détails |
ESXi70U3d-19482537 | Correctif de bogues | Critique | Correctif de bogues et sécurité |
ESXi70U3sd-19482531 | Sécurité | Critique | Sécurité uniquement |
Profils d'image
Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques. L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.
Nom de profil d'image |
ESXi-7.0U3d-19482537-standard |
ESXi-7.0U3d-19482537-no-tools |
ESXi-7.0U3sd-19482531-standard |
ESXi-7.0U3sd-19482531-no-tools |
Image ESXi
Nom et version | Date de publication | Catégorie | Détail |
---|---|---|---|
ESXi70U3d-19482537 | 29 mars 2022 | Correctif de bogues | Image de correctif de bogues et de sécurité |
ESXi70U3sd-19482531 | 29 mars 2022 | Sécurité | Image de sécurité uniquement |
Pour plus d'informations sur les composants et bulletins individuels, reportez-vous à la page Correctifs de produits et à la section Problèmes résolus.
Téléchargement et installation de correctifs
Dans vSphere 7.x, le plug-in Update Manager, utilisé pour l'administration de vSphere Update Manager, est remplacé par le plug-in Lifecycle Manager. Les opérations d'administration pour vSphere Update Manager sont toujours disponibles sous le plug-in Lifecycle Manager, avec de nouvelles capacités pour vSphere Lifecycle Manager.
La manière habituelle d'appliquer des correctifs aux hôtes ESXi 7.x consiste à utiliser vSphere Lifecycle Manager. Pour plus d'informations, consultez À propos de vSphere Lifecycle Manager et Lignes de base et images de vSphere Lifecycle Manager.
Vous pouvez également mettre à jour des hôtes ESXi sans utiliser le plug-in Lifecycle Manager et utiliser un profil d'image à la place. Pour ce faire, vous devez télécharger manuellement le fichier ZIP du bundle hors ligne du correctif à partir de VMware Customer Connect. Dans le menu déroulant Sélectionner un produit, sélectionnez ESXi (intégré et installable), puis, dans le menu déroulant Sélectionner une version, sélectionnez 7.0. Pour plus d'informations, consultez Mise à niveau des hôtes à l'aide des commandes ESXCLI et le guide Mise à niveau de VMware ESXi.
Problèmes résolus
Les problèmes résolus sont regroupés comme suit :
- ESXi_7.0.3-0.35.19482537
- esx-update_7.0.3-0.35.19482537
- Broadcom-lsiv2-drivers-plugin_1.0.0-10vmw.703.0.35.19482537
- VMware-NVMeoF-TCP_1.0.0.1-1vmw.703.0.35.19482537
- ESXi_7.0.3-0.30.19482531
- esx-update_7.0.3-0.30.19482531
- VMware-VM-Tools_11.3.5.18557794-19482531
- ESXi-7.0U3d-19482537-standard
- ESXi-7.0U3d-19482537-no-tools
- ESXi-7.0U3sd-19482531-standard
- ESXi-7.0U3sd-19482531-no-tools
- ESXi Image - ESXi70U3d-19482537
- ESXi Image - ESXi70U3sd-19482531
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2854493 |
Numéros CVE | S.O. |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB esx-dvfilter-generic-fastpath, vsanhealth, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver, gc, bmcal, esxio-combiner, trx
et cpu-microcode
pour résoudre les problèmes suivants :
- NOUVEAU PR 2854493 : les machines virtuelles peuvent cesser de répondre en raison d'un problème de blocage dans un volume VMFS
Dans certains cas, si une demande d'E/S s'exécute en parallèle avec une opération de suppression déclenchée par le système d'exploitation invité, un blocage peut se produire dans les volumes VMFS6. Par exemple, lorsque le système d'exploitation invité sur une machine virtuelle à provisionnement dynamique exécute en permanence des opérations unmap pendant lesquelles l'écriture et la suppression de fichiers se répètent pour sécuriser et libérer le disque. Par conséquent, les machines virtuelles sur ce volume cessent de répondre.
Ce problème est résolu dans cette version.
- PR 2855241 : l'ajout d'hôtes ESXi à un domaine Active Directory peut prendre du temps
Certaines requêtes LDAP qui n'ont aucun délai d'expiration spécifié peuvent entraîner un retard important dans les opérations de jonction de domaine pour ajouter un hôte ESXi à un domaine Active Directory.
Ce problème est résolu dans cette version. Le correctif ajoute un délai d'expiration standard de 15 secondes avec une journalisation supplémentaire pour les appels LDAP lors du workflow de jonction de domaine.
- PR 2834582 : la mise sous tension simultanée d'un grand nombre de machines virtuelles peut prendre du temps ou échouer
Dans certains environnements, la mise sous tension simultanée d'un grand nombre de machines virtuelles hébergées sur la même banque de données VMFS6 peut prendre du temps ou échouer. Le temps nécessaire pour créer des fichiers d'échange pour toutes les machines virtuelles entraîne des retards et peut finalement entraîner l'échec des opérations de mise sous tension.
Ce problème est résolu dans cette version. Le correctif améliore l'algorithme d'allocation des ressources VMFS6 pour éviter ce problème.
- PR 2851811 : les machines virtuelles peuvent cesser de répondre pendant les opérations de mise sous tension ou de consolidation de snapshot
Une machine virtuelle peut cesser de répondre lors d'une mise sous tension ou d'une opération de consolidation de snapshot et vous devez redémarrer l'hôte ESXi pour redémarrer la machine virtuelle. Le problème est rare et se produit lors de l'ouverture du fichier VMDK.
Ce problème est résolu dans cette version. Cependant, le correctif résout une cause principale identifiée et peut ne pas résoudre tous les aspects du problème. Le correctif ajoute des journaux avec la balise
AFF_OPEN_PATH
pour faciliter l'identification et la résolution d'une autre cause principale si vous rencontrez le problème. - PR 2865369 : un hôte ESXi peut échouer avec un écran de diagnostic violet en raison d'une condition de concurrence très rare dans les adaptateurs iSCSI logiciels
Dans des cas très rares, une condition de concurrence dans les adaptateurs logiciels iSCSI peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 2849843 : les statistiques du panneau de stockage de la machine virtuelle indiquent que VMname est null sur les serveurs ESXi exécutés pendant plus de 150 jours
Si un serveur ESXi s'exécute pendant plus de 150 jours sans redémarrage, le nombre d'ID de pool de ressources (GID) peut dépasser
uint32
. Par conséquent, dans le volet des statistiques du panneau de stockage de la machine virtuelle, vous pouvez voir un nombre négatif pourGID
et null pourVMname
.Ce problème est résolu dans cette version. Le correctif remplace la variable
GID
paruint64
. - PR 2850065 : VMkernel peut arrêter des machines virtuelles en raison d'un problème de temporisateur de vCPU
En de rares occasions, VMkernel peut considérer qu'une machine virtuelle ne répond pas, car elle ne parvient pas à envoyer correctement un signal de pulsation PCPU, et peut l'arrêter. Dans le fichier
vmkernel.log
, vous voyez des messages tels que :2021-05-28T21:39:59.895Z cpu68:1001449770)ALERT: Heartbeat: HandleLockup:827: PCPU 8 didn't have a heartbeat for 5 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.
2021-05-28T21:39:59.895Z cpu8:1001449713)WARNING: World: vm 1001449713: PanicWork:8430: vmm3:VM_NAME:vcpu-3:Received VMkernel NMI IPI, possible CPU lockup while executing HV VT VMCe problème est dû à une condition de concurrence rare dans les temporisateurs vCPU. Étant donné que la concurrence est définie par vCPU, les machines virtuelles plus volumineuses sont plus exposées au problème.
Ce problème est résolu dans cette version.
- PR 2851400 : lorsque vSphere Replication est activé sur une machine virtuelle. de nombreuses autres machines virtuelles peuvent cesser de répondre
Lorsque vSphere Replication est activé sur une machine virtuelle, vous pouvez observer des latences de banque de données et d'invité plus élevées qui, dans certains cas, peuvent empêcher les hôtes ESXi de répondre à l'instance de vCenter Server. L'augmentation de la latence provient des totaux de contrôle MD5 de vSphere Replication sur le chemin d'exécution des E/S, ce qui retarde toutes les autres E/S.
Ce problème est résolu dans cette version. Le correctif décharge le calcul MD5 de vSphere Replication du chemin d'exécution d'E/S vers un pool de travail et réduit la quantité d'E/S en attente que vSphere Replication émet.
- PR 2859882 : entrées de l'interface réseau republiées avec l'ancien format
Après un redémarrage, l'hôte principal d'un cluster vSAN peut avoir un nouveau format pour les entrées d'interface réseau. Le nouveau format peut ne pas se propager à certaines entrées. Par exemple, les entrées d'interface dans la file d'attente de mise à jour locale de l'hôte principal.
Ce problème est résolu dans cette version.
- PR 2859643 : vous voyez des vidages de mémoire sfcb lors de la suppression planifiée de périphériques NVMe
Pour optimiser le traitement des requêtes liées aux périphériques PCI, SFCB conserve une liste des périphériques PCI dans un cache. Cependant, lorsque vous supprimez un périphérique NVMe, même avec un workflow planifié, le cache peut ne pas s'actualiser. Par conséquent, vous voyez des vidages de mémoire sfcb, car la recherche du périphérique supprimé échoue.
Ce problème est résolu dans cette version. Le correctif garantit que SFCB actualise le cache en cas de modification de la liste des périphériques PCI.
- PR 2851531 : les hôtes ESXi dans des environnements utilisant des stratégies de liaison montante et d'association peuvent perdre la connectivité après la correction en appliquant un profil d'hôte
Lorsque vous corrigez des hôtes ESXi à l'aide d'un profil d'hôte, les paramètres réseau peuvent ne pas s'appliquer en raison d'une erreur logique dans la vérification du nombre de liaisons montantes des ports de liaison montante qui sont configurés pour la stratégie d'association par défaut. Si la vérification du numéro de liaison montante renvoie 0 lors de l'application d'un profil d'hôte, la tâche échoue. Par conséquent, les hôtes ESXi perdent la connectivité après le redémarrage.
Ce problème est résolu dans cette version. Le correctif affine la vérification du numéro de liaison montante et s'assure qu'il renvoie une erreur uniquement dans des conditions spécifiques.
- PR 2869790 : vous ne voyez pas les adaptateurs réseau VMkernel après le redémarrage des hôtes ESXi
Dans les systèmes vSphere de version 7.0 Update 2 et versions ultérieures où les adaptateurs réseau VMkernel sont connectés à plusieurs piles TCP/IP, après le redémarrage des hôtes ESX, certains adaptateurs peuvent ne pas être restaurés. Dans vSphere Client, lorsque vous accédez à Hôte > Configurer > Adaptateurs VMkernel, vous voyez un message tel que
Aucun élément trouvé
. Si vous exécutez les commandes ESXCLIlocalcli network ip interface list
ouesxcfg-vmknic -l
, vous voyez l'erreurUnable to get node Not Found
. Le même message d'erreur s'affiche dans les rapportshostd.log
.Ce problème est résolu dans cette version.
- PR 2871577 : si vous désactivez, puis réactivez les opérations de migration à l'aide de vSphere vMotion, les migrations consécutives peuvent entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet
Dans des cas spécifiques, si vous utilisez vSphere vMotion sur un système vSphere après désactivation et réactivation des opérations de migration, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet. Par exemple, si vous utilisez la commande ESXCLI
esxcli system settings advanced set --option /Migrate/Enabled --int-value=0
pour désactiver la fonctionnalité, puis exécutezesxcli system settings advanced set - -option /Migrate/Enabled --default
pour l'activer, toute migration ultérieure peut entraîner le problème.Ce problème est résolu dans cette version.
- PR 2914095 : utilisation élevée du CPU après une mise à niveau sans interruption (NDU) d'un microprogramme de baie de stockage
Les hôtes ESXi peuvent subir une utilisation de CPU supérieure à 90 % après une mise à niveau NDU d'un microprogramme de baie de stockage, par exemple un fournisseur VASA PowerStore. L'utilisation élevée du CPU finit par s'atténuer mais, dans certains cas, elle peut prendre beaucoup de temps, voire plus de 24 heures.
Ce problème est résolu dans cette version.
- PR 2871515 : les hôtes ESXi perdent le DNS IPv6 après une migration de port VMkernel
Après une migration de port VMkernel d'un commutateur virtuel standard vers un vSphere Distributed Virtual Switch (VDS) ou d'un VDS vers un autre, les hôtes ESXi peuvent perdre leur DNS IPv6.
Ce problème est résolu dans cette version. Le correctif s'assure que lors d'une migration de port VMkernel, les serveurs de noms IPv6 sont ajoutés ou supprimés un par un pour éviter de les supprimer tous dans certains environnements.
- PR 2852173 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'un espace tampon de socket insuffisant
Les démons de gestion ESXi qui génèrent des volumes élevés de messages de journaux peuvent avoir un impact sur la communication opérationnelle entre les composants de niveau utilisateur en raison d'un espace de mémoire tampon de socket insuffisant. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet avec un message tel que
nicmgmtd : Impossible d'allouer un nouveau segment de données, car la mémoire est insuffisante
.Ce problème est résolu dans cette version. Le correctif alloue un espace de socket de bas niveau partagé entre les composants séparément de l'espace de tampon d'application.
- PR 2872509 : vous ne pouvez pas voir l'état des objets lors d'une tâche de resynchronisation des objets
Dans vSphere Client, lorsque vous sélectionnez Resynchronisation d'objets sous Cluster vSAN > Surveiller > vSAN, vous ne voyez pas l'état des objets en cours de resynchronisation. Au lieu de cela, vous voyez l'erreur
Échec de l'extraction des données demandées. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées
.Ce problème est résolu dans cette version.
- PR 2878701 : dans VMware Host Client, vous voyez une erreur indiquant qu'aucune donnée de capteur n'est disponible
Dans VMware Host Client, vous voyez l'erreur
Aucune donnée de capteur disponible
en raison d'un problème avec le formatage deDateTime
. Dans la trace de débogage, vous voyez des entrées de journaux telles que :hostd[1051205] [Originator@6876 sub=Cimsvc] Refresh hardware status failed N7Vmacore23DateTimeFormatExceptionE(Error formatting DateTime)
.Ce problème est résolu dans cette version.
- PR 2847291 : les comptes de gestion de VMware Cloud Director on Dell EMC VxRail peuvent être supprimés lors de la correction du profil d'hôte
Lorsque vous créez un profil d'hôte, les comptes de service pour VMware Cloud Director on Dell EMC VxRail sont automatiquement créés et peuvent être supprimés lors d'une correction du profil d'hôte.
Ce problème est résolu dans cette version. Le correctif garantit que les comptes de service pour VMware Cloud Director on Dell EMC VxRail ne dépendent pas des opérations de profil d'hôte.
- PR 2884344 : la configuration de l'hôte vSAN ne correspond pas à vCenter Server lorsqu'un fournisseur de clés natif est défectueux
Lorsque l'état d'un fournisseur de clés natif pour le chiffrement vSAN est défectueux, le workflow de correction peut être bloqué. Le système vCenter Server ne peut pas synchroniser ses paramètres de configuration avec les hôtes vSAN tant que le bloc n'est pas effacé.
Ce problème est résolu dans cette version.
- PR 2854558 : impossible d'activer le chiffrement vSAN à l'aide d'un fournisseur de clés natif lorsque les hôtes se trouvent derrière un proxy
Lorsque vous placez des hôtes vSAN derrière un serveur proxy, vSAN ne peut pas déterminer la santé du fournisseur de clés natif. Par conséquent, vous ne pouvez pas activer le chiffrement vSAN à l'aide du fournisseur de clés natif. Vous pouvez voir le message suivant :
Le fournisseur de clés n'est pas disponible sur l'hôte.
Ce problème est résolu dans cette version.
- PR 2859229 : vous voyez une erreur de vérification de conformité pour les hôtes dans un cluster de maillage HCI vSAN
Les hôtes d'un cluster vSAN sur lesquels le maillage HCI est activé peuvent rencontrer l'erreur de vérification de conformité suivante :
Impossible d'obtenir de l'hôte le nom de la banque de données.
Ce problème est résolu dans cette version.
- PR 2840405 : vous ne pouvez pas modifier la taille du pool de ressources des fournisseurs WBEM
Les noms des fournisseurs WBEM peuvent être différents de leur nom de groupe de ressources. Dans de tels cas, les commandes telles que
esxcli system wbem set --rp-override
ne parviennent pas à modifier la configuration existante, car la méthode de modification de la taille d'un pool de ressources vérifie également le nom du groupe de ressources.Ce problème est résolu dans cette version. Le correctif supprime la vérification entre les noms de fournisseur WBEM et les noms de groupe de ressources.
- PR 2897700 : si le chiffrement des données en transit est activé sur un cluster vSAN, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet
Si le chiffrement des données en transit est activé sur un cluster vSAN et d'autres types de trafic système, tels que le trafic vSphere vMotion ou le trafic vSphere HA, les routes vers un port utilisé par vSAN, les hôtes ESXi peuvent échouer avec une erreur telle que
PSOD : #PF Exception 14 in world 1000215083:rdtNetworkWo IP 0x42000df1be47 addr 0x80
sur un écran de diagnostic violetCe problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour les VIB loadesx
et esx-update
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2925847 |
Numéros CVE | S.O. |
Met à jour le VIB
lsuv2-lsiv2-drivers-plugin
pour résoudre le problème suivant :
- PR 2925847 : après la mise à jour d'ESXi vers la version 7.0 Update 3 ou une version ultérieure, le service VPXA ne parvient pas à démarrer et les hôtes ESXi se déconnectent de l'instance de vCenter Server
Après la mise à jour d'ESXi vers la version 7.0 Update 3 ou une version ultérieure, les hôtes peuvent se déconnecter de l'instance de vCenter Server et, lorsque vous tentez de reconnecter un hôte à l'aide de vSphere Client, vous voyez une erreur telle que
Une erreur système générale s'est produite : Expiration du délai d'attente de démarrage de vpxa.
Le service VPXA ne parvient pas non plus à démarrer lorsque vous utilisez la commande/etc/init.d/vpxa start
. Le problème affecte les environnements avec des RAID qui contiennent plus de 15 périphériques physiques.lsuv2-lsiv2-drivers-plugin
peut gérer jusqu'à 15 disques physiques et les RAID incluant un plus grand nombre de périphériques provoquent un débordement qui empêche le démarrage de VPXA.Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour le VIB
nvmetcp
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515 |
Numéros CVE | S.O. |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB esx-dvfilter-generic-fastpath, vsanhealth, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver, gc, bmcal, esxio-combiner, trx
et cpu-microcode
pour résoudre les problèmes suivants :
- ESXi 7.0 Update 3d fournit les mises à jour de sécurité suivantes :
- cURL a été mis à jour vers la version 7.79.1.
- OpenSSH a été mis à jour vers la version 8.8p1.
- OpenSSL a été mis à jour vers la version 1.0.2zb.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Non |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour les VIB loadesx
et esx-update
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Non |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2816546 |
Numéros CVE | S.O. |
Met à jour le VIB tools-light
pour résoudre le problème suivant :
-
-
Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3d :
windows.iso
: VMware Tools 11.3.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.linux.iso
: Image ISO de VMware Tools 10.3.23 pour le système d'exploitation Linux avec glibc version 2.11 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
- VMware Tools 11.0.6 :
windows.iso
: pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12 :
winPreVista.iso
: pour Windows 2000, Windows XP et Windows 2003.linuxPreGLibc25.iso
: prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
-
solaris.iso
: Image de VMware Tools 10.3.10 pour Solaris.
darwin.iso
: Prend en charge Mac OS X 10.11 et versions ultérieures.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
-
Nom du profil | ESXi-70U3d-19482537-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 29 mars 2022 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2925847, 2854493 |
Numéros CVE associés | S/O |
- Ce correctif met à jour les problèmes suivants :
-
Dans certains cas, si une demande d'E/S s'exécute en parallèle avec une opération de suppression déclenchée par le système d'exploitation invité, un blocage peut se produire dans un volume VMFS. Par conséquent, les machines virtuelles sur ce volume cessent de répondre.
-
Certaines requêtes LDAP qui n'ont aucun délai d'expiration spécifié peuvent entraîner un retard important dans les opérations de jonction de domaine pour ajouter un hôte ESXi à un domaine Active Directory.
-
Dans certains environnements, la mise sous tension simultanée d'un grand nombre de machines virtuelles hébergées sur la même banque de données VMFS6 peut prendre du temps ou échouer. Le temps nécessaire pour créer des fichiers d'échange pour toutes les machines virtuelles entraîne des retards et peut finalement entraîner l'échec des opérations de mise sous tension.
-
Une machine virtuelle peut cesser de répondre lors d'une mise sous tension ou d'une opération de consolidation de snapshot et vous devez redémarrer l'hôte ESXi pour redémarrer la machine virtuelle. Le problème est rare et se produit lors de l'ouverture du fichier VMDK.
-
Dans des cas très rares, une condition de concurrence dans les adaptateurs logiciels iSCSI peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.
-
Si un serveur ESXi s'exécute pendant plus de 150 jours sans redémarrage, le nombre d'ID de pool de ressources (GID) peut dépasser la capacité de
uint32
. Par conséquent, dans le volet des statistiques du panneau de stockage de VM, vous pouvez voir un nombre négatif pourGID
et null pourVMname
. -
En de rares occasions, VMkernel peut considérer qu'une machine virtuelle ne répond pas, car elle ne parvient pas à envoyer correctement un signal de pulsation PCPU, et peut l'arrêter. Dans le fichier
vmkernel.log
, vous voyez des messages tels que :2021-05-28T21:39:59.895Z cpu68:1001449770)ALERT: Heartbeat: HandleLockup:827: PCPU 8 didn't have a heartbeat for 5 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.
2021-05-28T21:39:59.895Z cpu8:1001449713)WARNING: World: vm 1001449713: PanicWork:8430: vmm3:VM_NAME:vcpu-3:Received VMkernel NMI IPI, possible CPU lockup while executing HV VT VMCe problème est dû à une condition de concurrence rare dans les temporisateurs vCPU. Étant donné que la concurrence est définie par vCPU, les machines virtuelles plus volumineuses sont plus exposées au problème.
-
Lorsque vSphere Replication est activé sur une machine virtuelle, vous pouvez observer des latences de banque de données et d'invité plus élevées qui, dans certains cas, peuvent empêcher les hôtes ESXi de répondre à l'instance de vCenter Server. L'augmentation de la latence provient des totaux de contrôle MD5 de vSphere Replication sur le chemin d'exécution des E/S, ce qui retarde toutes les autres E/S.
-
Après un redémarrage, l'hôte principal d'un cluster vSAN peut avoir un nouveau format pour les entrées d'interface réseau. Le nouveau format peut ne pas se propager à certaines entrées. Par exemple, les entrées d'interface dans la file d'attente de mise à jour locale de l'hôte principal.
-
À de rares occasions, lorsque vous supprimez un composant volumineux dans un hôte ESXi, puis procédez à un redémarrage, le redémarrage peut commencer avant la suppression de toutes les métadonnées du composant. Les métadonnées périmées peuvent entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.
-
Pour optimiser le traitement des requêtes liées aux périphériques PCI, SFCB conserve une liste des périphériques PCI dans un cache. Cependant, lorsque vous supprimez un périphérique NVMe, même avec un workflow planifié, le cache peut ne pas s'actualiser. Par conséquent, vous voyez des vidages de mémoire sfcb, car la recherche du périphérique supprimé échoue.
-
Dans certains environnements, après la mise à niveau vers ESXi 7.0 Update 2d et versions ultérieures, dans vSphere Client vous pouvez voir l'erreur
L'hôte a perdu la synchronisation de l'heure
. Toutefois, l'alarme peut ne pas indiquer un problème réel. -
Lorsque vous corrigez des hôtes ESXi à l'aide d'un profil d'hôte, les paramètres réseau peuvent ne pas s'appliquer en raison d'une erreur logique dans la vérification du nombre de liaisons montantes des ports de liaison montante qui sont configurés pour la stratégie d'association par défaut. Si la vérification du numéro de liaison montante renvoie 0 lors de l'application d'un profil d'hôte, la tâche échoue. Par conséquent, les hôtes ESXi perdent la connectivité après le redémarrage.
-
Dans les systèmes vSphere où les adaptateurs réseau VMkernel sont connectés à plusieurs piles TCP/IP, après le redémarrage des hôtes ESX, certains adaptateurs peuvent ne pas être restaurés. Dans vSphere Client, lorsque vous accédez à Hôte > Configurer > Adaptateurs VMkernel, un message tel que
Aucun élément trouvé
s'affiche. Si vous exécutez les commandes ESXCLIlocalcli network ip interface list
ouesxcfg-vmknic -l
, vous voyez l'erreurUnable to get node: Not Found
. La même erreur figure dans les rapportshostd.log
. -
Lorsque vous activez la sensibilité de latence sur les machines virtuelles, des threads de Likewise Service Manager (lwsmd), qui définit explicitement l'affinité de CPU, peuvent entrer en concurrence pour les ressources de CPU sur de telles machines virtuelles. Par conséquent, l'hôte ESXi et le service hostd peuvent cesser de répondre.
-
Dans des cas spécifiques, si vous utilisez vSphere vMotion sur un système vSphere après désactivation et réactivation des opérations de migration, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet. Par exemple, si vous utilisez les commandes ESXCLI
esxcli system settings advanced set --option /Migrate/Enabled --int-value=0
pour désactiver la fonctionnalité, puis exécutezesxcli system settings advanced set - -option /Migrate/Enabled --default
pour l'activer, toute migration ultérieure peut entraîner le problème. -
Les hôtes ESXi peuvent subir une utilisation de CPU supérieure à 90 % après une mise à niveau NDU d'un microprogramme de baie de stockage, par exemple un fournisseur VASA PowerStore. L'utilisation élevée du CPU finit par s'atténuer mais, dans certains cas, elle peut prendre beaucoup de temps, voire plus de 24 heures.
-
Après une migration de port VMkernel d'un commutateur virtuel standard vers un vSphere Distributed Virtual Switch (VDS) ou d'un VDS vers un autre, les hôtes ESXi peuvent perdre leur DNS IPv6.
-
Les démons de gestion ESXi qui génèrent des volumes élevés de messages de journaux peuvent avoir un impact sur la communication opérationnelle entre les composants de niveau utilisateur en raison d'un espace de mémoire tampon de socket insuffisant. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet contenant un message tel que
nicmgmtd: Impossible d'allouer un nouveau segment de données, car la mémoire est insuffisante
. -
Dans vSphere Client, lorsque vous sélectionnez Resynchronisation d'objets sous Cluster vSAN > Surveiller > vSAN, vous ne voyez pas l'état des objets en cours de resynchronisation. Au lieu de cela, vous voyez l'erreur
Échec de l'extraction des données demandées. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées
. -
Dans VMware Host Client, vous voyez l'erreur
Aucune donnée capteur disponible
en raison d'un problème de formatage deDateTime
. Dans la trace de débogage, vous voyez des entrées de journaux telles que :hostd[1051205] [Originator@6876 sub=Cimsvc] Refresh hardware status failed N7Vmacore23DateTimeFormatExceptionE(Error formatting DateTime)
. -
Lorsque vous créez un profil d'hôte, les comptes de service pour VMware Cloud Director on Dell EMC VxRail sont automatiquement créés et peuvent être supprimés lors d'une correction du profil d'hôte.
-
Lorsque l'état d'un fournisseur de clés natif pour le chiffrement vSAN est défectueux, le workflow de correction peut être bloqué. Le système vCenter Server ne peut pas synchroniser ses paramètres de configuration avec les hôtes vSAN tant que le bloc n'est pas effacé.
-
Lorsque vous placez des hôtes vSAN derrière un serveur proxy, vSAN ne peut pas déterminer la santé du fournisseur de clés natif. Par conséquent, vous ne pouvez pas activer le chiffrement vSAN à l'aide du fournisseur de clés natif. Vous pouvez voir le message suivant :
Le fournisseur de clés n'est pas disponible sur l'hôte.
-
Après la mise à jour d'ESXi vers la version 7.0 Update 3 ou une version ultérieure, les hôtes peuvent se déconnecter de l'instance de vCenter Server et, lorsque vous tentez de reconnecter un hôte à l'aide de vSphere Client, vous voyez une erreur telle que
Une erreur système générale s'est produite : Expiration du délai d'attente de démarrage de vpxa.
Le service VPXA ne parvient pas non plus à démarrer lorsque vous utilisez la commande/etc/init.d/vpxa start
. Le problème affecte les environnements avec des RAID qui contiennent plus de 15 périphériques physiques.lsuv2-lsiv2-drivers-plugin
peut gérer jusqu'à 15 disques physiques et les RAID incluant un plus grand nombre de périphériques provoquent un débordement qui empêche le démarrage de VPXA. -
Les hôtes d'un cluster vSAN sur lesquels le maillage HCI est activé peuvent rencontrer l'erreur de vérification de conformité suivante :
Impossible d'obtenir de l'hôte le nom de la banque de données.
-
Les noms des fournisseurs WBEM peuvent être différents de leur nom de groupe de ressources. Dans ce cas, les commandes telles que
esxcli system wbem set --rp-override
ne parviennent pas à modifier la configuration existante, car la méthode de modification d'une taille de pool de ressources vérifie également le nom du groupe de ressources. -
Si le chiffrement des données en transit est activé sur un cluster vSAN et d'autres types de trafic système, tels que le trafic vSphere vMotion ou le trafic vSphere HA, les routes vers un port utilisé par vSAN, les hôtes ESXi peuvent échouer avec une erreur telle que
PSOD : #PF Exception 14 in world 1000215083:rdtNetworkWo IP 0x42000df1be47 addr 0x80
sur un écran de diagnostic violet
-
Nom du profil | ESXi-70U3d-19482537-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 29 mars 2022 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2925847, 2854493 |
Numéros CVE associés | S/O |
- Ce correctif met à jour le problème suivant :
-
Dans certains cas, si une demande d'E/S s'exécute en parallèle avec une opération de suppression déclenchée par le système d'exploitation invité, un blocage peut se produire dans un volume VMFS. Par conséquent, les machines virtuelles sur ce volume cessent de répondre.
-
Certaines requêtes LDAP qui n'ont aucun délai d'expiration spécifié peuvent entraîner un retard important dans les opérations de jonction de domaine pour ajouter un hôte ESXi à un domaine Active Directory.
-
Dans certains environnements, la mise sous tension simultanée d'un grand nombre de machines virtuelles hébergées sur la même banque de données VMFS6 peut prendre du temps ou échouer. Le temps nécessaire pour créer des fichiers d'échange pour toutes les machines virtuelles entraîne des retards et peut finalement entraîner l'échec des opérations de mise sous tension.
-
Une machine virtuelle peut cesser de répondre lors d'une mise sous tension ou d'une opération de consolidation de snapshot et vous devez redémarrer l'hôte ESXi pour redémarrer la machine virtuelle. Le problème est rare et se produit lors de l'ouverture du fichier VMDK.
-
Dans des cas très rares, une condition de concurrence dans les adaptateurs logiciels iSCSI peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.
-
Si un serveur ESXi s'exécute pendant plus de 150 jours sans redémarrage, le nombre d'ID de pool de ressources (GID) peut dépasser la capacité de
uint32
. Par conséquent, dans le volet des statistiques du panneau de stockage de VM, vous pouvez voir un nombre négatif pourGID
et null pourVMname
. -
En de rares occasions, VMkernel peut considérer qu'une machine virtuelle ne répond pas, car elle ne parvient pas à envoyer correctement un signal de pulsation PCPU, et peut l'arrêter. Dans le fichier
vmkernel.log
, vous voyez des messages tels que :2021-05-28T21:39:59.895Z cpu68:1001449770)ALERT: Heartbeat: HandleLockup:827: PCPU 8 didn't have a heartbeat for 5 seconds, timeout is 14, 1 IPIs sent; *may* be locked up.
2021-05-28T21:39:59.895Z cpu8:1001449713)WARNING: World: vm 1001449713: PanicWork:8430: vmm3:VM_NAME:vcpu-3:Received VMkernel NMI IPI, possible CPU lockup while executing HV VT VMCe problème est dû à une condition de concurrence rare dans les temporisateurs vCPU. Étant donné que la concurrence est définie par vCPU, les machines virtuelles plus volumineuses sont plus exposées au problème.
-
Lorsque vSphere Replication est activé sur une machine virtuelle, vous pouvez observer des latences de banque de données et d'invité plus élevées qui, dans certains cas, peuvent empêcher les hôtes ESXi de répondre à l'instance de vCenter Server. L'augmentation de la latence provient des totaux de contrôle MD5 de vSphere Replication sur le chemin d'exécution des E/S, ce qui retarde toutes les autres E/S.
-
Après un redémarrage, l'hôte principal d'un cluster vSAN peut avoir un nouveau format pour les entrées d'interface réseau. Le nouveau format peut ne pas se propager à certaines entrées. Par exemple, les entrées d'interface dans la file d'attente de mise à jour locale de l'hôte principal.
-
À de rares occasions, lorsque vous supprimez un composant volumineux dans un hôte ESXi, puis procédez à un redémarrage, le redémarrage peut commencer avant la suppression de toutes les métadonnées du composant. Les métadonnées périmées peuvent entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.
-
Pour optimiser le traitement des requêtes liées aux périphériques PCI, SFCB conserve une liste des périphériques PCI dans un cache. Cependant, lorsque vous supprimez un périphérique NVMe, même avec un workflow planifié, le cache peut ne pas s'actualiser. Par conséquent, vous voyez des vidages de mémoire sfcb, car la recherche du périphérique supprimé échoue.
-
Dans certains environnements, après la mise à niveau vers ESXi 7.0 Update 2d et versions ultérieures, dans vSphere Client vous pouvez voir l'erreur
L'hôte a perdu la synchronisation de l'heure
. Toutefois, l'alarme peut ne pas indiquer un problème réel. -
Lorsque vous corrigez des hôtes ESXi à l'aide d'un profil d'hôte, les paramètres réseau peuvent ne pas s'appliquer en raison d'une erreur logique dans la vérification du nombre de liaisons montantes des ports de liaison montante qui sont configurés pour la stratégie d'association par défaut. Si la vérification du numéro de liaison montante renvoie 0 lors de l'application d'un profil d'hôte, la tâche échoue. Par conséquent, les hôtes ESXi perdent la connectivité après le redémarrage.
-
Dans les systèmes vSphere où les adaptateurs réseau VMkernel sont connectés à plusieurs piles TCP/IP, après le redémarrage des hôtes ESX, certains adaptateurs peuvent ne pas être restaurés. Dans vSphere Client, lorsque vous accédez à Hôte > Configurer > Adaptateurs VMkernel, un message tel que
Aucun élément trouvé
s'affiche. Si vous exécutez les commandes ESXCLIlocalcli network ip interface list
ouesxcfg-vmknic -l
, vous voyez l'erreurUnable to get node: Not Found
. La même erreur figure dans les rapportshostd.log
. -
Lorsque vous activez la sensibilité de latence sur les machines virtuelles, des threads de Likewise Service Manager (lwsmd), qui définit explicitement l'affinité de CPU, peuvent entrer en concurrence pour les ressources de CPU sur de telles machines virtuelles. Par conséquent, l'hôte ESXi et le service hostd peuvent cesser de répondre.
-
Dans des cas spécifiques, si vous utilisez vSphere vMotion sur un système vSphere après désactivation et réactivation des opérations de migration, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet. Par exemple, si vous utilisez les commandes ESXCLI
esxcli system settings advanced set --option /Migrate/Enabled --int-value=0
pour désactiver la fonctionnalité, puis exécutezesxcli system settings advanced set - -option /Migrate/Enabled --default
pour l'activer, toute migration ultérieure peut entraîner le problème. -
Les hôtes ESXi peuvent subir une utilisation de CPU supérieure à 90 % après une mise à niveau NDU d'un microprogramme de baie de stockage, par exemple un fournisseur VASA PowerStore. L'utilisation élevée du CPU finit par s'atténuer mais, dans certains cas, elle peut prendre beaucoup de temps, voire plus de 24 heures.
-
Après une migration de port VMkernel d'un commutateur virtuel standard vers un vSphere Distributed Virtual Switch (VDS) ou d'un VDS vers un autre, les hôtes ESXi peuvent perdre leur DNS IPv6.
-
Les démons de gestion ESXi qui génèrent des volumes élevés de messages de journaux peuvent avoir un impact sur la communication opérationnelle entre les composants de niveau utilisateur en raison d'un espace de mémoire tampon de socket insuffisant. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet contenant un message tel que
nicmgmtd: Impossible d'allouer un nouveau segment de données, car la mémoire est insuffisante
. -
Dans vSphere Client, lorsque vous sélectionnez Resynchronisation d'objets sous Cluster vSAN > Surveiller > vSAN, vous ne voyez pas l'état des objets en cours de resynchronisation. Au lieu de cela, vous voyez l'erreur
Échec de l'extraction des données demandées. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées
. -
Dans VMware Host Client, vous voyez l'erreur
Aucune donnée capteur disponible
en raison d'un problème de formatage deDateTime
. Dans la trace de débogage, vous voyez des entrées de journaux telles que :hostd[1051205] [Originator@6876 sub=Cimsvc] Refresh hardware status failed N7Vmacore23DateTimeFormatExceptionE(Error formatting DateTime)
. -
Lorsque vous créez un profil d'hôte, les comptes de service pour VMware Cloud Director on Dell EMC VxRail sont automatiquement créés et peuvent être supprimés lors d'une correction du profil d'hôte.
-
Lorsque l'état d'un fournisseur de clés natif pour le chiffrement vSAN est défectueux, le workflow de correction peut être bloqué. Le système vCenter Server ne peut pas synchroniser ses paramètres de configuration avec les hôtes vSAN tant que le bloc n'est pas effacé.
-
Lorsque vous placez des hôtes vSAN derrière un serveur proxy, vSAN ne peut pas déterminer la santé du fournisseur de clés natif. Par conséquent, vous ne pouvez pas activer le chiffrement vSAN à l'aide du fournisseur de clés natif. Vous pouvez voir le message suivant :
Le fournisseur de clés n'est pas disponible sur l'hôte.
-
Après la mise à jour d'ESXi vers la version 7.0 Update 3 ou une version ultérieure, les hôtes peuvent se déconnecter de l'instance de vCenter Server et, lorsque vous tentez de reconnecter un hôte à l'aide de vSphere Client, vous voyez une erreur telle que
Une erreur système générale s'est produite : Expiration du délai d'attente de démarrage de vpxa.
Le service VPXA ne parvient pas non plus à démarrer lorsque vous utilisez la commande/etc/init.d/vpxa start
. Le problème affecte les environnements avec des RAID qui contiennent plus de 15 périphériques physiques.lsuv2-lsiv2-drivers-plugin
peut gérer jusqu'à 15 disques physiques et les RAID incluant un plus grand nombre de périphériques provoquent un débordement qui empêche le démarrage de VPXA. -
Les hôtes d'un cluster vSAN sur lesquels le maillage HCI est activé peuvent rencontrer l'erreur de vérification de conformité suivante :
Impossible d'obtenir de l'hôte le nom de la banque de données.
-
Les noms des fournisseurs WBEM peuvent être différents de leur nom de groupe de ressources. Dans ce cas, les commandes telles que
esxcli system wbem set --rp-override
ne parviennent pas à modifier la configuration existante, car la méthode de modification d'une taille de pool de ressources vérifie également le nom du groupe de ressources. -
Si le chiffrement des données en transit est activé sur un cluster vSAN et d'autres types de trafic système, tels que le trafic vSphere vMotion ou le trafic vSphere HA, les routes vers un port utilisé par vSAN, les hôtes ESXi peuvent échouer avec une erreur telle que
PSOD : #PF Exception 14 in world 1000215083:rdtNetworkWo IP 0x42000df1be47 addr 0x80
sur un écran de diagnostic violet
-
Nom du profil | ESXi-70U3sd-19482531-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 29 mars 2022 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2816546 |
Numéros CVE associés | S/O |
- Ce correctif met à jour le problème suivant :
- cURL a été mis à jour vers la version 7.79.1.
- OpenSSH a été mis à jour vers la version 8.8p1.
- OpenSSL a été mis à jour vers la version 1.0.2zb.
Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3d : windows.iso
: VMware Tools 11.3.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.linux.iso
: Image ISO de VMware Tools 10.3.23 pour le système d'exploitation Linux avec glibc version 2.11 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
- VMware Tools 11.0.6 :
windows.iso
: pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12 :
winPreVista.iso
: pour Windows 2000, Windows XP et Windows 2003.linuxPreGLibc25.iso
: prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
-
solaris.iso
: Image de VMware Tools 10.3.10 pour Solaris.
darwin.iso
: Prend en charge Mac OS X 10.11 et versions ultérieures.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
Nom du profil | ESXi-70U3sd-19482531-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 29 mars 2022 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2816546 |
Numéros CVE associés | S/O |
- Ce correctif met à jour les problèmes suivants :
- cURL a été mis à jour vers la version 7.79.1.
- OpenSSH a été mis à jour vers la version 8.8p1.
- OpenSSL a été mis à jour vers la version 1.0.2zb.
Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3d : windows.iso
: VMware Tools 11.3.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.linux.iso
: Image ISO de VMware Tools 10.3.23 pour le système d'exploitation Linux avec glibc version 2.11 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
- VMware Tools 11.0.6 :
windows.iso
: pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12 :
winPreVista.iso
: pour Windows 2000, Windows XP et Windows 2003.linuxPreGLibc25.iso
: prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
-
solaris.iso
: Image de VMware Tools 10.3.10 pour Solaris.
darwin.iso
: Prend en charge Mac OS X 10.11 et versions ultérieures.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
Nom | ESXi |
Version | 70U3d-19482537 |
Date de publication | 29 mars 2022 |
Catégorie | Correctif de bogues |
Composants concernés |
|
PR résolus | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2896898, 2851531, 2927968, 2909411, 2878701, 2854493, 2890621, 2893225, 2886578, 2896305, 2869790, 2890559, 2834582, 2870586, 2865369, 2812683, 2870580, 2872144, 2846265, 2827728, 2873956, 2719181, 2859229, 2827728, 2820052, 2855810, 2859184, 2821515, 2808113, 2806622, 2855114, 2813609, 2825435, 2854588, 2868955, 2812731, 2848074, 2805651, 2827765, 2852726, 2830051, 2851725, 2853684, 2807138, 2862331, 2843918, 2827691, 2825746, 2835345, 2812704, 2826753, 2834958, 2851309, 2851221, 2854497, 2852726, 2925847 |
Numéros CVE associés | S/O |
Nom | ESXi |
Version | 70U3sd-19482531 |
Date de publication | 29 mars 2022 |
Catégorie | Sécurité |
Composants concernés |
|
PR résolus | 2856149, 2854275, 2850065, 2855473, 2899795, 2892193, 2925847, 2849843, 2871515, 2816546 |
Numéros CVE associés | S/O |
Problèmes connus
Les problèmes connus sont classés comme suit :
Problèmes divers- L'accès SSH échoue après la mise à niveau vers ESXi 7.0 Update 3d
Après la mise à niveau vers ESXi 7.0 Update 3d, l'accès SSH peut échouer dans certaines conditions en raison d'une mise à jour d'OpenSSH vers la version 8.8.
Solution : pour plus d'informations, reportez-vous à l'article 88055 de la base de connaissances VMware.