ESXi 7.0 Update 3l | 30 mars 2023 | Build ISO 21424296 Vérifiez les compléments et les mises à jour pour ces notes de mise à jour. |
Contenu des notes de mise à jour
Les notes de mise à jour couvrent les sujets suivants :
- Nouveautés
- Versions antérieures d'ESXi 7.0
- Correctifs contenus dans cette version
- Remarques relatives à la prise en charge du produit
- Problèmes résolus
- Problèmes connus
- Problèmes connus depuis les versions précédentes
IMPORTANT : si votre système source contient des hôtes dont les versions sont comprises entre ESXi 7.0 Update 2 et Update 3c, et inclut des pilotes Intel, avant de procéder à la mise à niveau vers ESXi 7.0 Update 3l, reportez-vous à la section Nouveautés des Notes de mise à jour de VMware vCenter Server 7.0 Update 3c, car tout le contenu de cette section s'applique également à vSphere 7.0 Update 3l. Consultez également les articles associés de la base de connaissances VMware : 86447, 87258 et 87308.
Nouveautés
- ESXi 7.0 Update 3l prend en charge vSphere Quick Boot sur les serveurs suivants :
- HPE
- Cray XD225v
- Cray XD295v
- ProLiant DL325 Gen11
- ProLiant DL345 Gen11
- ProLiant DL365 Gen11
- ProLiant DL385 Gen11
- Synergy 480 Gen11
- Dell
- PowerEdge C6620
- PowerEdge MX760c
- PowerEdge R660
- PowerEdge R6615
- PowerEdge R6625
- PowerEdge R760
- PowerEdge R7615
- PowerEdge R7625
- HPE
- Cette version résout la vulnérabilité critique CVE-2023-1017. VMware a évalué que ce problème se situe dans la plage de gravité faible avec un score de base CVSSv3 maximal de 3,3.
- Cette version résout la vulnérabilité critique CVE-2023-1018. VMware a évalué que ce problème se situe dans la plage de gravité faible avec un score de base CVSSv3 maximal de 3,3.
Versions antérieures d'ESXi 7.0
Les nouvelles fonctionnalités ainsi que les problèmes résolus et connus d'ESXi sont décrits dans les notes de mise à jour de chaque version. Notes de mise à jour des versions antérieures à ESXi 7.0 :
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3k
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3j
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3i
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3g
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3f
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3e
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3d
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2e
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1e
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3c
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2d
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2c
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2a
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1d
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1c
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1b
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1a
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0b
Pour plus d'informations sur l'internationalisation, la compatibilité et les composants open source, consultez les Notes de mise à jour de VMware vSphere 7.0.
Correctifs contenus dans cette version
La version 7.0 Update 3l d'ESXi fournit les correctifs suivants :
Détails de la build
Nom de fichier de téléchargement : | VMware-ESXi-7.0U3l-21424296-depot |
Build : | 21424296 |
Taille du téléchargement : | 570,6 Mo |
md5sum : | bc8be7994ff95cf45e218f19eb38a4f1 |
sha256checksum : | a85acc0fab15d5c2744e6b697817961fde3979eddfc4dd1af07c83731f2f87cf |
Redémarrage de l'hôte requis : | Oui |
Migration ou arrêt de la machine virtuelle requis : | Oui |
Composants
Composant | Bulletin | Catégorie | Gravité |
---|---|---|---|
Composant ESXi - VIB ESXi principaux | ESXi_7.0.3-0.85.21424296 | Correctif de bogues | Critique |
Composant d'installation/mise à niveau d'ESXi | esx-update_7.0.3-0.85.21424296 | Correctif de bogues | Critique |
Broadcom NetXtreme I Pilote Ethernet ESX VMKAPI | Broadcom-ntg3_4.1.9.0-4vmw.703.0.85.21424296 | Correctif de bogues | Critique |
Pilote de contrôleur de mémoire non volatile | VMware-NVMe-PCIe_1.2.3.16-2vmw.703.0.85.21424296 | Correctif de bogues | Critique |
Pilote natif USB pour VMware | VMware-vmkusb_0.1-8vmw.703.0.85.21424296 | Correctif de bogues | Critique |
Composant ESXi - VIB ESXi principaux | ESXi_7.0.3-0.80.21422485 | Sécurité | Critique |
Composant d'installation/mise à niveau d'ESXi | esx-update_7.0.3-0.80.21422485 | Sécurité | Critique |
Composant ESXi Tools | VMware-VM-Tools_12.1.5.20735119-21422485 | Sécurité | Critique |
IMPORTANT :
- À partir de vSphere 7.0, VMware utilise des composants pour le conditionnement des VIB avec des bulletins. Les bulletins
ESXi
etesx-update
sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte. - Lorsque vous appliquez un correctif aux hôtes ESXi à l'aide de VMware Update Manager à partir d'une version antérieure à ESXi 7.0 Update 2, il est vivement recommandé d'utiliser le bulletin de cumul dans la ligne de base de correctifs. Si vous ne pouvez pas utiliser le bulletin de cumul, assurez-vous d'inclure tous les modules suivants dans la ligne de base de correctifs. Si les modules suivants ne sont pas inclus dans la ligne de base, l'opération de mise à jour échoue :
- VMware-vmkusb_0.1-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-vmkata_0.1-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 ou version ultérieure
Bulletin de cumul
Ce bulletin de cumul contient les derniers VIB avec tous les correctifs postérieurs à la publication initiale d'ESXi 7.0.
ID de bulletin | Catégorie | Gravité | Détails |
ESXi70U3l-21424296 | Correctif de bogues | Critique | Sécurité et correctif de bogues |
ESXi70U3sl-21422485 | Sécurité | Critique | Sécurité uniquement |
Profils d'image
Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques. L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.
Nom de profil d'image |
ESXi-7.0U3l-21424296-standard |
ESXi-7.0U3l-21424296-no-tools |
ESXi-7.0U3sl-21422485-standard |
ESXi-7.0U3sl-21422485-no-tools |
Image ESXi
Nom et version | Date de publication | Catégorie | Détail |
---|---|---|---|
ESXi7.0U3l - 21424296 | 30 mars 2023 | Correctif de bogues | Image de sécurité et de résolutions de bogues |
ESXi7.0U3sl - 21422485 | 30 mars 2023 | Sécurité | Image de sécurité uniquement |
Pour plus d'informations sur les composants et bulletins individuels, reportez-vous à la page Correctifs de produits et à la section Problèmes résolus.
Téléchargement et installation de correctifs
Dans vSphere 7.x, le plug-in Update Manager, utilisé pour l'administration de vSphere Update Manager, est remplacé par le plug-in Lifecycle Manager. Les opérations d'administration pour vSphere Update Manager sont toujours disponibles sous le plug-in Lifecycle Manager, avec de nouvelles capacités pour vSphere Lifecycle Manager.
La manière habituelle d'appliquer des correctifs aux hôtes ESXi 7.x consiste à utiliser vSphere Lifecycle Manager. Pour plus d'informations, consultez À propos de vSphere Lifecycle Manager et Lignes de base et images de vSphere Lifecycle Manager.
Vous pouvez également mettre à jour des hôtes ESXi sans utiliser le plug-in Lifecycle Manager et utiliser un profil d'image à la place. Pour ce faire, vous devez télécharger manuellement le fichier ZIP du bundle hors ligne du correctif à partir de VMware Customer Connect. Dans le menu déroulant Sélectionner un produit, sélectionnez ESXi (intégré et installable), puis, dans le menu déroulant Sélectionner une version, sélectionnez 7.0. Pour plus d'informations, consultez Mise à niveau des hôtes à l'aide des commandes ESXCLI et le guide Mise à niveau de VMware ESXi.
Remarques relatives à la prise en charge du produit
-
La restauration de snapshots de mémoire d'une machine virtuelle avec un disque indépendant pour les sauvegardes de machine virtuelle n'est pas prise en charge : Vous pouvez prendre un snapshot de mémoire d'une machine virtuelle avec un disque indépendant uniquement pour analyser le comportement du système d'exploitation invité d'une machine virtuelle. Vous ne pouvez pas utiliser ces snapshots pour les sauvegardes de machine virtuelle, car la restauration de ce type de snapshots n'est pas prise en charge. Vous pouvez convertir un snapshot de mémoire en snapshot hors tension, qui peut être restauré.
Problèmes résolus
Les problèmes résolus sont regroupés comme suit :
- ESXi_7.0.3-0.85.21424296
- esx-update_7.0.3-0.85.21424296
- Broadcom-ntg3_4.1.9.0-4vmw.703.0.85.21424296
- VMware-vmkusb_0.1-8vmw.703.0.85.21424296
- VMware-NVMe-PCIe_1.2.3.16-2vmw.703.0.85.21424296
- ESXi_7.0.3-0.80.21422485
- esx-update_7.0.3-0.80.21422485
- VMware-VM-Tools_12.1.5.20735119-21422485
- ESXi-7.0U3l-21424296-standard
- ESXi-7.0U3l-21424296-no-tools
- ESXi-7.0U3l-21422485-standard
- ESXi-7.0U3l-21422485-no-tools
- ESXi70U3l-21424296
- ESXi70U3sl-21422485
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB affectés inclus |
|
PR résolus | 3057026, 3062185, 3040049, 3061156, 3023389, 3062861, 3089449, 3081870, 3082900, 3033157, 3090683, 3075786, 3074392, 3081275, 3080022, 3083314, 3084812, 3074360, 3092270, 3076977, 3051685, 3082477, 3082282, 3082427, 3077163, 3087219, 3074187, 3082431, 3050562, 3072430, 3077072, 3077060, 3046875, 3082991, 3083473, 3051059, 3091256, 3074912, 3058993, 3063987, 3072500, 3060661, 3076188, 3049652, 2902475, 3087946, 3116848, 3010502, 3118090, 3078875, 3069298, 3074121 |
Numéros CVE | CVE-2023-1017, CVE-2023-1018 |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB esx-dvfilter-generic-fastpath, vsan, bmcal, crx, esx-ui, esxio-combiner, vsanhealth, native-misc-drivers, gc, cpu-microcode, vdfs, esx-xserver, esx-base
et trx
pour résoudre les problèmes suivants :
- PR 3057026 : lorsque vous modifiez le paramètre NUMA de nœuds par socket (NPS) sur un serveur AMD EPYC 9004 « Genoa » qui est par défaut de 1, vous pouvez voir un nombre de sockets incorrect
Dans vSphere Client et ESXi Host Client, vous pouvez voir un nombre de sockets incorrect et respectivement de cœurs par socket lorsque vous modifiez le paramètre NPS sur un serveur AMD EPYC 9004 de la valeur par défaut 1, ou Auto, pour une autre valeur, telle que 2 ou 4.
Ce problème est résolu dans cette version.
- PR 3062185 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors d'une opération de vSphere Storage vMotion ou de l'ajout à chaud d'un périphérique
En raison d'une condition de concurrence rare lors d'une opération de reprise d'interruption rapide (FSR) sur une machine virtuelle avec des pages partagées entre les machines virtuelles, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur telle que
PFrame_IsBackedByLPage
dans la trace de débogage. Ce problème se produit lors des opérations de vSphere Storage vMotion ou de l'ajout à chaud d'un périphérique.Ce problème est résolu dans cette version.
- PR 3040049 : les performances de l'utilitaire pktcap-uw se dégradent lors de l'utilisation de l'option -c pour compter les paquets dans un trafic réseau intense
La capture de paquets avec l'option
-c
de l'utilitairepktcap-uw
en cas de trafic réseau intense peut être plus lente que la capture de paquets sans l'option. Vous pouvez également observer un retard dans la capture des paquets, de sorte que le dernier module compté présente un horodatage antérieur de quelques secondes à l'heure d'arrêt de la fonction. Ce problème provient de la fonctionFile_GetSize
de vérification des tailles de fichier, qui est lente dans les environnements VMFS et entraîne de faibles performances depktcap-uw
.Ce problème est résolu dans cette version. Le correctif modifie la fonction
File_GetSize
avec la fonctionlseek
pour améliorer les performances. - PR 3061156 : le démon DCB (Data Center Bridging) sur un hôte ESXi peut générer un débordement de journaux dans Syslog
Dans le fichier
syslog
, vous pouvez voir des messages de journal fréquents tels que :2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] *** Received pre-CEE DCBX Packet on port: vmnicX
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info]2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Src MAC: xc:xc:X0:0X:xc:xx
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Dest MAC: X0:xb:xb:fx:0X:X1
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] 2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Port ID TLV:
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] ifName:
Ce problème se produit, car le démon DCB (Data Center Bridging),
dcbd
, sur l'hôte ESXi enregistre des messages inutiles dans/var/log/syslog.log
. Par conséquent, le fichier journal peut rapidement se remplir de journauxdcbd
.Ce problème est résolu dans cette version.
- PR 3023389 : vous voyez jusqu'à 100 % d'utilisation du CPU sur l'un des cœurs d'un hôte ESXi en raison d'un appel système à délai d'attente anticipé
Dans certains cas, un appel système timed-wait dans VMkernel peut revenir trop tôt. Par conséquent, certaines applications, telles que System Health Agent, peuvent prendre jusqu'à 100 % de l'utilisation du CPU sur l'un des cœurs d'hôte ESXi.
Ce problème est résolu dans cette version.
- PR 3062861 : les détails de l'image de machine virtuelle ne s'affichent pas dans l'onglet Résumé de vSphere Client
En raison d'un problème avec les interfaces de bouclage IPv6, vous ne pourrez peut-être pas voir les détails de l'image de machine virtuelle dans l'onglet Résumé de vSphere Client.
Ce problème est résolu dans cette version.
- PR 3089449 : si le nombre de chemins à partir d'un hôte ESXi utilisant SATP ALUA vers le stockage dépasse 255, vous pouvez voir une latence d'E/S dans certaines machines virtuelles
Si le nombre de chemins à partir d'un hôte ESXi utilisant NMP SATP ALUA vers le stockage dépasse 255, ESXi ignore une partie des informations ALUA signalées par la cible et conserve de manière incorrecte une partie de l'état du chemin comme étant active et optimisée. Par conséquent, certaines E/S utilisent le chemin non optimisé vers le périphérique de stockage et provoquent des problèmes de latence.
Ce problème est résolu dans cette version. Le correctif s'assure que, lorsque la longueur de réponse RTPG est supérieure à la longueur de tampon préallouée, ESXi réalloue le tampon RTPG avec la taille requise et émet à nouveau la commande RTPG.
- PR 3081870 : le processus de redémarrage de l'hôte ESXi s'arrête avec le message « initializing init_VMKernelShutdownHelper: (14/39) ShutdownSCSICleanupForDevTearDown »
Dans certains cas, lors de l'arrêt d'un hôte ESXi, les files d'attente d'aide des demandes de sonde de périphérique sont supprimées, mais la référence au périphérique subsiste. Par conséquent, le redémarrage de l'hôte ESXi s'arrête, avec un message tel que
initializing init_VMKernelShutdownHelper: (14/39) ShutdownSCSICleanupForDevTearDown
dans l'interface utilisateur de la console directe (DCUI).Ce problème est résolu dans cette version. Le correctif ajoute une fonction d'annulation associée aux demandes d'aide qui décrémentent les références de périphérique lors de la suppression des demandes de file d'attente d'aide.
- PR 3082900 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors d'une opération Instant Clone de VM
En raison d'une condition de concurrence lors d'une opération Instant Clone, les pages mémoire de machine virtuelle peuvent être endommagées et l'hôte ESXi peut échouer avec un écran de diagnostic violet. Vous voyez des erreurs telles que
VmMemMigrate_MarkPagesCow
ouAsyncRemapProcessVMRemapList
dans la trace de débogage.Ce problème est résolu dans cette version.
- PR 3033157 : le basculement de stockage peut prendre du temps, car des analyses répétées peuvent être nécessaires pour mettre en ligne tous les chemins vers un LUN
Dans certains environnements avec des plug-ins SATP tels que
satp_alua
etsatp_alua_cx
, la mise en ligne de tous les chemins vers un LUN peut nécessiter plusieurs analyses. Par conséquent, une opération de basculement de stockage peut prendre du temps. Par exemple, avec 4 chemins vers un LUN, la mise en ligne de ces 4 chemins peut prendre jusqu'à 20 minutes.Ce problème est résolu dans cette version.
- PR 3090683 : les balises vSphere de machine virtuelle peuvent être perdues après des opérations vSphere vMotion sur des instances de vCenter Server
Après des opérations vSphere vMotion dans des instances de vCenter Server pour les machines virtuelles qui disposent de balises vSphere, il est possible que ces balises n'existent pas dans l'emplacement cible. Ce problème se produit uniquement dans les opérations de migration entre des instances de vCenter Server qui ne partagent pas de stockage.
Ce problème est résolu dans cette version.
- PR 3075786 : le mode de filtre multidiffusion d'un NSX Virtual Switch peut revenir par intermittence d'hérité à écoute
Lorsque vous définissez le mode de filtre multidiffusion d'un NSX Virtual Switch pour NVDS, le mode peut revenir par intermittence d'hérité à écoute.
Ce problème est résolu dans cette version. Si vous êtes déjà confronté à ce problème, effacez la propriété obsolète sur le NVDS en effectuant les étapes suivantes :
- Exécutez la commande
net-dvs
sur l'hôte ESXi et vérifiez sicom.vmware.etherswitch.multicastFilter
est défini sur le NVDS. Sicom.vmware.etherswitch.multicastFilter
n'est pas défini, aucune étape supplémentaire n'est requise. - Si la propriété
com.vmware.etherswitch.multicastFilter
est définie, utilisez la commande suivante pour l'effacer :net-dvs -u com.vmware.etherswitch.multicastFilter -p globalPropList <NVDS name>
- Exécutez la commande
- PR 3074392 : le service IOFilterVP s'arrête lorsque vous exécutez une analyse Nessus sur un hôte ESXi
Lorsque vous exécutez une analyse Nessus, qui exécute en interne une analyse SYN, pour détecter les ports actifs sur un hôte ESXi, le service iofiltervpd peut s'arrêter. Le service ne peut pas être redémarré dans le nombre maximal de tentatives en raison de l'analyse SYN.
Ce problème est résolu dans cette version. Le correctif s'assure que le service IOFilterVP gère l'échec de connexion possible en raison d'analyses SYN.
- PR 3081275 : vous ne voyez aucune modification dans la configuration ESXi après l'exécution d'une procédure de restauration de la configuration et le redémarrage de l'hôte ESXi
Si un VIB contenant un nouveau module de noyau est installé avant l'exécution de l'une des procédures de restauration de configuration décrites dans l'article 2042141 de la base de connaissances VMware, vous ne voyez aucune modification dans la configuration après le redémarrage de l'hôte ESXi. Par exemple, si vous tentez de restaurer la configuration ESXi immédiatement après l'installation du VIB NSX, l'hôte ESXi redémarre, mais aucune modification de la configuration n'est visible. Ce problème se produit en raison d'une erreur logique dans les mises à jour de la partition de la banque de démarrage utilisée pour le redémarrage de l'hôte ESXi après l'installation d'un nouveau VIB de module de noyau.
Ce problème est résolu dans cette version.
- PR 3080022 : la liste des fichiers sur le stockage Azure NFS 4.1 monté peut ne pas fonctionner comme prévu
La liste des fichiers du stockage Azure NFS 4.1 monté peut ne pas fonctionner comme prévu, car même si les fichiers existent et qu'il est possible de les ouvrir par nom, l'exécution de la commande
ls
sur un hôte ESXi à l'aide de SSH n'affiche aucun fichier.Ce problème est résolu dans cette version.
- PR 3083314 : les propriétés NFC (Network File Copy) dans le fichier vpxa.cfg peuvent entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet lors de la mise à niveau
À partir d'ESXi 7.0 Update 1, le fichier
vpxa.cfg
n'existe plus et la configuration vpxa appartient au magasin de configuration d'ESXi (ConfigStore
). Lorsque vous mettez à niveau un hôte ESXi à partir d'une version antérieure à la version 7.0 Update 1 vers une version ultérieure, les champsVpx.Vpxa.config.nfc.loglevel
etVpx.Vpxa.config.httpNfc.accessMode
dans le fichiervpxa.cfg
peuvent entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet lors de la conversion du formatvpxa.cfg
vers le formatConfigStore
. Ce problème se produit en raison de différences dans le niveau de journalisation NFC entrevpxa.cfg
etConfigStore
, et les valeurs sensibles à la casse.Ce problème est résolu dans cette version. Le correctif supprime les règles strictes sensibles à la casse et mappe le niveau de journal NFC avec leurs
ConfigStore
équivalents. Pour plus d'informations, reportez-vous à l'article 90865 de la base de connaissances VMware. - PR 3084812 : les machines virtuelles peuvent mettre plus de temps à répondre ou cesser temporairement de répondre lorsque vSphere DRS déclenche plusieurs opérations de migration
Dans de rares cas, plusieurs opérations d'ouverture et de fermeture simultanées sur des banques de données, par exemple lorsque vSphere DRS déclenche plusieurs tâches de migration, peuvent faire que des machines virtuelles mettent plus de temps à terminer des E/S de disque en vol. Par conséquent, ces machines virtuelles peuvent mettre plus de temps à répondre ou cessent de répondre pendant une courte période. Ce problème est plus susceptible de se produire sur des machines virtuelles disposant de plusieurs disques virtuels sur différentes banques de données.
Ce problème est résolu dans cette version.
- PR 3074360 : après un appel d'API pour recharger une machine virtuelle, la carte réseau virtuelle de la machine virtuelle peut se déconnecter d'un port de commutateur logique (LSP)
Lors d'un appel d'API pour recharger une machine virtuelle d'un hôte ESXi vers un autre, l'élément
externalId
dans le fichier de données du port de machine virtuelle peut être perdu. Par conséquent, après le rechargement de la machine virtuelle, la carte réseau virtuelle de la machine virtuelle peut ne pas être en mesure de se connecter à un LSP.Ce problème est résolu dans cette version.
- PR 3092270 : VMware Host Client ne parvient pas à attacher un disque virtuel existant à une machine virtuelle
Après la mise à niveau vers ESXi 7.0 Update 3i, vous ne pourrez peut-être pas attacher un disque de machine virtuelle (VMDK) existant à une machine virtuelle à l'aide de VMware Host Client, qui est utilisé pour vous connecter à des hôtes ESXi uniques et les gérer. Le problème n'affecte pas vSphere Client.
Ce problème est résolu dans cette version.
- PR 3076977 : l'hôte ESXi peut échouer avec un écran de diagnostic violet en raison d'un problème rare avec la suppression de la référence d'un pointeur libéré
En raison d'une condition de concurrence entre les workflows Créer et Supprimer un pool de ressources, un pointeur libéré dans le cache du pool de ressources VMFS peut être déréférencé. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur semblable à celle-ci :
@BlueScreen: #PF Exception 14 in world 2105491:res3HelperQu IP 0x420032a21f55 addr 0x0
Ce problème est résolu dans cette version.
- PR 3051685 : l'API QueryUnresolvedVmfsVolume par lot peut prendre du temps pour répertorier un grand nombre de volumes VMFS non résolus
Avec l'API
QueryUnresolvedVmfsVolume
de traitement par lots, vous pouvez interroger et répertorier des volumes VMFS ou des snapshots de LUN non résolus. Vous pouvez ensuite utiliser d'autres API de traitement par lots pour effectuer des opérations, telles que signer à nouveau des volumes VMFS non résolus spécifiques. Par défaut, lorsque l'APIQueryUnresolvedVmfsVolume
est appelée sur un hôte, le système effectue un contrôle de réactivité du système de fichiers supplémentaire pour tous les volumes non résolus détectés. Le contrôle de réactivité effectué détecte si le LUN spécifié est monté sur d'autres hôtes, si un signal de pulsation VMFS actif est en cours ou si un système de fichiers est actif. Cette opération prend du temps et nécessite au moins 16 secondes par LUN. Par conséquent, lorsque votre environnement se compose d'un grand nombre de LUN de snapshot, l'opération d'interrogation et d'établissement de liste peut prendre un certain temps.Ce problème est résolu dans cette version.
- PR 3082477 : l'arrêt du cluster vSAN échoue avec l'erreur : l'objet « NoneType » n'a pas d'attribut « _moId »
Ce problème peut se produire lorsque vCenter gère plusieurs clusters et que la machine virtuelle vCenter s'exécute sur l'un des clusters. Si vous arrêtez le cluster sur lequel réside la machine virtuelle vCenter, l'erreur suivante peut se produire lors de l'opération d'arrêt :
'NoneType' object has no attribute '_moId'
. La VM vCenter n'est pas hors tensionCe problème est résolu dans cette version.
- PR 3082282 : vous ne voyez pas l'option Redémarrer le cluster dans vSphere Client après l'arrêt de plusieurs clusters vSAN
Ce problème peut se produire lorsque vCenter gère plusieurs clusters et exécute plusieurs opérations d'arrêt et de redémarrage de cluster en parallèle. Par exemple, si vous arrêtez 3 clusters et redémarrez le service de santé vSAN ou la machine virtuelle vCenter, puis que vous redémarrez l'un des 3 clusters avant les autres, l'option Redémarrer le cluster peut être disponible pour le premier cluster vSAN, mais pas pour les autres clusters.
Ce problème est résolu dans cette version.
- PR 3082427 : une alerte de décalage de l'heure inattendu s'affiche sur les clusters vSAN gérés par le même vCenter Server
Un décalage de l'heure inattendu peut se produire par intermittence sur un cluster vSAN lorsqu'un seul vCenter Server gère plusieurs clusters vSAN, en raison de retards internes dans les demandes VPXA. Dans vSphere Client, dans l'onglet Santé de vSAN vous voyez que l'état de L'heure est synchronisée entre les hôtes et VC passe de vert à jaune et revient à vert.
Ce problème est résolu dans cette version.
- PR 3077163 : lorsque l'option avancée ToolsRamdisk est active sur un hôte ESXi, après une mise à niveau de VM Tools, les nouvelles versions ne sont pas disponibles pour les machines virtuelles
Lorsque vous activez l'option avancée
ToolsRamdisk
qui s'assure que la partition/vmtools
se trouve toujours sur un disque RAM plutôt que sur une carte USB ou SD, l'installation ou la mise à jour du VIBtools-light
ne met pas automatiquement à jour le contenu du disque RAM. Au lieu de cela, vous devez redémarrer l'hôte afin que le disque RAM soit mis à jour et que la nouvelle version de VM Tools soit disponible pour les machines virtuelles.Ce problème est résolu dans cette version. Le correctif s'assure que, lorsque
ToolsRamdisk
est activé, VM Tools se met à jour automatiquement, sans nécessiter d'étapes manuelles ou un redémarrage. - PR 3087219 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet après une opération de migration
Une condition de concurrence rare causée par la récupération de mémoire pour certains processus d'optimisation des performances dans vSphere vMotion peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 3074187 : les hôtes ESXi échouent de manière aléatoire avec un écran de diagnostic violet et une erreur telle qu'Exception 14 in world #######
Si votre environnement dispose de clusters de blocs de fichiers de petite et de grande taille mappés à une règle d'affinité, lorsque vous ajoutez un cluster, le gestionnaire d'affinité peut allouer plus de blocs pour les fichiers que le volume réel de la banque de données. Par conséquent, les hôtes ESXi échouent de manière aléatoire avec un écran de diagnostic violet et une erreur
Exception 14 in world #######
.Ce problème est résolu dans cette version.
- PR 3082431 : l'historique de santé vSAN n'a aucune donnée disponible pour la période sélectionnée
Ce problème se produit lorsque vous affichez les détails de santé d'un contrôle de santé dans la vue historique. Dans vSphere Client, dans l'onglet Skyline Health, vous voyez un message tel qu'
Aucune donnée disponible pour la période sélectionnée
. Ce problème se produit lorsqu'une requête sur les enregistrements de santé historiques échoue en raison d'horodatages avec un fuseau horaire incorrect.Ce problème est résolu dans cette version.
- PR 3050562 : vous pouvez voir des valeurs d'installation et de gravité incorrectes dans les messages de journal Syslog d'ESXi
La commande d'enregistreur automatique de certains clients de journalisation peut ne pas transmettre le code d'installation approprié au démon Syslog d'ESXi et provoquer des valeurs d'installation ou de gravité incorrectes dans les messages du journal Syslog d'ESXi.
Ce problème est résolu dans cette version.
- PR 3072430 : une condition de concurrence rare dans la file d'attente planifiée du gestionnaire de volume logique (LVM, Logical Volume Manager) peut entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet
Dans de rares cas, lors d'une charge de travail importante, deux tâches LVM qui effectuent des mises à jour et des requêtes sur la planification du périphérique dans un hôte ESXi peuvent s'exécuter en parallèle et provoquer un problème de synchronisation. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et des messages semblables à
[email protected]#nover+0x1018 stack: 0xXXXXX and Addr3ResolvePhysVector@esx#nover+0x68 stack: 0xXXXX
dans la trace de débogage.Ce problème est résolu dans cette version.
- PR 3077072 : lorsqu'un hôte ESXi démarre, certains portails cibles iSCSI et LUN iSCSI détectés dynamiquement peuvent être supprimés
Dans certains cas, pendant qu'un hôte ESXi démarre, certaines cibles iSCSI découvertes dynamiquement peuvent être supprimées. Par conséquent, une fois le démarrage terminé, vous risquez de ne plus voir certains LUN iSCSI. Ce problème est plus susceptible de se produire dans les environnements avec le protocole CHAP
(Challenge-Handshake Authentication Protocol) activé pour iSCSI.Ce problème est résolu dans cette version.
- PR 3077060 : VMware Host Client ou vSphere Client arrête par intermittence d'afficher les adaptateurs iSCSI logiciels
Dans les environnements occupés avec de nombreuses réanalyses à l'aide d'un adaptateur iSCSI logiciel, VMware Host Client peut cesser d'afficher l'adaptateur par intermittence. Ce problème se produit uniquement avec les baies cibles qui renvoient des portails cibles avec des adresses IPv4 et IPv6 lors de la découverte à l'aide de la méthode
SendTargets
.Ce problème est résolu dans cette version.
- PR 3046875 : La désactivation de Storage I/O Control sur les banques de données entraîne des E/S de lecture élevées sur tous les hôtes ESXi
Un problème rare lors du calcul de la profondeur maximale de file d'attente par périphérique de banque de données peut entraîner des avertissements d'attente de profondeur de file d'attente de la couche SCSI sous-jacente. Par conséquent, lorsque vous désactivez Storage I/O Control sur les banques de données, vous pouvez voir des E/S de lecture élevées sur tous les hôtes ESXi.
Ce problème est résolu dans cette version.
- PR 3082991 : après une mise à niveau vers ESXi 7.0 Update 3 et versions ultérieures, vous pouvez voir plusieurs fichiers -1.log pour remplir le répertoire racine
En raison d'une configuration manquante pour
stats-log
dans le fichier/etc/vmware/vvold/config.xml
, plusieurs fichiers-1.log
peuvent remplir la partition/ramdisk
après une mise à niveau vers ESXi 7.0 Update 3 et versions ultérieures.Ce problème est résolu dans cette version.
- PR 3083473 : le nom d'utilisateur ou le mot de passe dans le proxy ne peut pas inclure de caractère d'échappement
Si un nom d'utilisateur ou un mot de passe dans un proxy réseau contient un caractère d'échappement, l'environnement ne parvient pas à envoyer de demandes réseau via le proxy.
Ce problème est résolu dans cette version. Le correctif s'assure que le nom d'utilisateur ou le mot de passe fonctionne correctement, même avec des caractères non échappés.
- PR 3051059 : la commande esxcli system ntp test ne parvient pas à résoudre l'adresse IP d'un serveur NTP configuré avec des paramètres supplémentaires avec le nom d'hôte
Si vous configurez un serveur NTP sur un hôte ESXi avec des paramètres supplémentaires avec
hostname
, tels quemin_poll
oumax_poll
, la commandeesxcli system ntp test
peut échouer à résoudre l'adresse IP de ce serveur. Ce problème se produit, car dans de telles configurations, la résolution de nom NTP s'applique à l'intégralité de la configuration du serveur, plutôt qu'au nom d'hôte uniquement.Ce problème est résolu dans cette version.
- PR 3091256 : après la mise à niveau vers ESXi 7.0 Update 2 et versions ultérieures, les machines virtuelles peuvent ne pas être en mesure de communiquer correctement avec certains périphériques USB connectés aux machines virtuelles
Après la mise à niveau vers ESXi 7.0 Update 2 et versions ultérieures, une machine virtuelle peut ne pas découvrir certains périphériques USB qui lui sont attachés, tels qu'un UPS USB Eaton, et ne pas communiquer correctement avec le périphérique.
Ce problème est résolu dans cette version.
- PR 3074912 : si vous modifiez la banque de données d'une machine virtuelle clonée avant la mise sous tension initiale, les personnalisations du système d'exploitation invité peuvent être perdues
Si vous clonez une machine virtuelle, y compris les spécifications de personnalisation d'invité, déplacez le fichier VMDK vers une autre banque de données et le provisionnez de manière statique, puis mettez sous tension la machine virtuelle, la personnalisation du système d'exploitation invité peut ne pas être conservée. Dans les journaux hostd, vous voyez une description du type d'événement telle que
The customization component failed to set the required parameters inside the guest operating system
.
Ce problème se produit, car lors du déplacement du fichier VMDK de la machine virtuelle clonée vers une autre banque de données, le nouveaupathName
pour la personnalisation du système d'exploitation invité peut être temporairement identique àoldPathName
et le module est supprimé.Ce problème est résolu dans cette version.
- PR 3058993 : les tâches liées aux machines virtuelles peuvent échouer lorsque vous utilisez le filtrage VAIO (vSphere APIs for I/O Filtering) pour VMware ou des applications de sauvegarde tierces
Un dimensionnement incorrect des besoins en ressources pour le service hostd sur un hôte ESXi peut entraîner l'échec de certaines tâches liées aux machines virtuelles lorsque vous utilisez le filtrage VAIO (vSphere APIs for I/O Filtering) pour VMware ou des applications de sauvegarde tierces. Par exemple, lorsqu'un filtre VAIO est attaché à un ou plusieurs disques virtuels d'une machine virtuelle, ces machines virtuelles peuvent échouer à effectuer des sauvegardes ou une mise sous tension après une sauvegarde.
Ce problème est résolu dans cette version. Le correctif augmente le nombre de threads pour éviter les problèmes liés aux E/S avec les ressources hostd sur les hôtes ESXi.
- PR 3063987 : la synchronisation du disque de première classe (FCD) peut échouer sur les banques de données NFSv3 et vous voyez des valeurs incohérentes dans les rapports Govc
Un problème rare d'endommagement de fichier peut se produire lorsque plusieurs hôtes ESXi effectuent simultanément une opération d'ajout de fichier sur une banque de données NFSv3. Par conséquent, si vous utilisez l'utilitaire de ligne de commande open source Govc pour effectuer des actions administratives sur une instance de vCenter, vous pouvez voir des rapports avec des valeurs incohérentes. Par exemple, si vous exécutez la commande
govc disk.ls
pour répertorier tous les FCD d'une banque de données récemment créée, vous voyez un nombre de disques différent de ce que vous attendez.Ce problème est résolu dans cette version.
- PR 3072500 : les hôtes ESXi échouent par intermittence avec un écran de diagnostic violet et une erreur VERIFY bora/vmkernel/sched/cpusched.c
Dans de rares cas, lorsqu'un volume VMFS est fermé immédiatement après son ouverture, l'un des threads du processus d'ouverture peut concurrencer un thread dans le processus de fermeture et prendre un chemin rare de gestion des erreurs qui peut quitter sans déverrouiller un verrou spinlock verrouillé. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et un message dans la trace de débogage tel que :
@BlueScreen: VERIFY bora/vmkernel/sched/cpusched.c:11154.
Ce problème est résolu dans cette version.
- PR 3060661 : les applications WSFC (Windows Server Failover Cluster) peuvent perdre la connectivité à un disque virtuel basé sur un volume après le lancement d'une opération de reliaison sur ce disque
En raison de conflits de réservation, les applications WSFC peuvent perdre la connectivité à un disque virtuel basé sur un volume après une opération de reliaison sur ce disque.
Ce problème est résolu dans cette version.
- PR 3076188 : vSphere HA peut ne pas fonctionner comme prévu sur une banque de données vSAN après une coupure de courant
Dans de rares cas, l'agent de gestion, Fault Domain Manager (FDM), que vSphere HA déploie sur les hôtes ESXi, peut ne pas parvenir à acquérir une banque de données vSAN lors de la première tentative avant qu'une condition exceptionnelle, comme une panne de courant, se produise. Par conséquent, le basculement vSphere HA des machines virtuelles sur cette banque de données peut ne pas aboutir. Dans vSphere Client, vous voyez un message tel que
Cette machine virtuelle n'a pas pu être protégée par vSphere HA et vSphere HA risque de ne pas essayer de la redémarrer après un échec
. Les tentatives successives de FDM d'acquisition de la banque de données vSAN peuvent également échouer.Ce problème est résolu dans cette version. Le correctif s'assure que les tentatives successives d'acquisition d'une banque de données vSAN après une condition exceptionnelle réussissent.
- PR 3049652 : la mesure Alimentation|Énergie totale (Wh) des mesures de durabilité dans VMware vRealize Operations peut s'afficher dans des unités incorrectes
Dans les mesures de durabilité de VMware vRealize Operations, vous pouvez voir une valeur Alimentation|Énergie totale (Wh) par machine virtuelle supérieure à l'hôte ESXi sur lequel la machine virtuelle est hébergée. Ce problème se produit, car après la mesure de l'énergie totale consommée par la machine virtuelle, le compteur de performances power.energy est calculé et indiqué en millijoules plutôt qu'en joules.
Ce problème est résolu dans cette version.
- PR 2902475 : les machines virtuelles Windows de version de matériel 19 sur lesquelles la sécurité basée sur la virtualisation (VBS) est activée peuvent échouer avec un écran de diagnostic bleu sur les hôtes ESXi s'exécutant sur des processeurs AMD
Dans les hôtes ESXi s'exécutant sur des processeurs AMD, les machines virtuelles Windows de version de matériel 19 sur lesquelles la fonctionnalité VBS activée peuvent échouer avec un écran de diagnostic bleu en raison d'une erreur de configuration incorrecte du mode de processeur. Dans le fichier
vmware.log
, vous voyez des erreurs telles quevcpu-0 - WinBSOD: Synthetic MSR[0xx0000x00] 0xxxx
.Ce problème est résolu dans cette version.
- PR 3087946 : l'analyse de conformité de vSphere Lifecycle Manager peut afficher un avertissement pour un CPU pris en charge
En raison d'une erreur interne, même si un modèle de CPU est répertorié comme étant pris en charge dans le Guide de compatibilité de VMware, vous pouvez voir dans vSphere Client un avertissement tel que
Le CPU sur l'hôte n'est pas pris en charge par l'image
lors d'une analyse de conformité à l'aide d'une image vSphere Lifecycle Manager. L'avertissement ne vous empêche pas de terminer une mise à jour ou une mise à niveau.Ce problème est résolu dans cette version.
- PR 3116848 : les machines virtuelles sur lesquelles la sécurité basée sur la virtualisation (VBS) est activée peuvent échouer avec un écran de diagnostic bleu après une migration
Lorsque vous migrez des machines virtuelles sur lesquelles VBS est activé et qui résident sur des hôtes ESXi exécutés sur des processeurs AMD, ces machines virtuelles peuvent échouer avec un écran de diagnostic bleu sur l'hôte cible en raison d'une erreur d'état d'interruption d'invité.
Ce problème est résolu dans cette version.
- PR 3010502 : si vous remplacez une stratégie de mise en réseau pour un groupe de ports, puis que vous annulez la modification, le remplacement persiste après un redémarrage de l'hôte ESXi
Lorsque vous remplacez une stratégie de mise en réseau telle que l'association, la sécurité ou la formation d'un groupe de ports, puis que vous annulez la modification, après un redémarrage de l'hôte ESXi, vous pouvez toujours voir le paramètre de remplacement. Par exemple, si vous acceptez l'activation du mode promiscuité au niveau d'un groupe de ports, puis rétablissez le mode sur Rejeter et redémarrez l'hôte ESXi, le paramètre est toujours Accepter.
Ce problème est résolu dans cette version.
- PR 3118090 : l'attribut de saisie automatique dans les formulaires pour l'accès Web n'est pas désactivé dans les champs Mot de passe et Nom d'utilisateur
Votre serveur Web distant peut contenir un champ de formulaire HTML avec une entrée de type
Mot de passe
etNom d'utilisateur
, dans laquelle l'attributautocomplete
n'est pas défini surdésactivé
. Par conséquent, vous pouvez voir un avertissement par des scanneurs de sécurité tels queL'attribut de saisie automatique n'est pas désactivé pour le mot de passe dans l'authentification basée sur le formulaire
. La définition de l'attributautocomplete
suractivé
n'entraîne pas directement un risque sur les serveurs Web, mais dans certains navigateurs, les informations d'identification de l'utilisateur sous de telles formes peuvent être enregistrées et potentiellement entraîner une perte de confidentialité.Ce problème est résolu dans cette version. Le correctif s'assure que l'attribut
autocomplete
est défini surdésactivé
dans les champs Mot de passe et Nom d'utilisateur pour empêcher les navigateurs de mettre en cache les informations d'identification. - PR 3078875 : impossible de définir la limite d'IOPS pour les objets de service de fichiers vSAN
Les objets vSAN Distributed File System (vDFS) ne prennent pas en charge la limite d'IOPS. Vous ne pouvez pas définir la limite d'IOPS pour les objets de service de fichiers vSAN.
Ce problème est résolu dans cette version. Avec le correctif, vous pouvez définir une stratégie IOPSLimit avec les objets de service de fichiers vSAN.
- PR 3069298 : dans vSphere Client, vous ne voyez pas la balise d'actif pour certains serveurs
Dans vSphere Client, lorsque vous accédez à Configurer > Matériel > Présentation, aucune balise d'actif n'est répertoriée pour certains serveurs.
Ce problème est résolu dans cette version. Le correctif garantit que vCenter reçoit la balise d'actif d'informations de la carte de base (Type2) ou la balise d'actif d'informations du châssis (Type3) pour le serveur. Vous voyez la balise d'actif d'informations du châssis lorsque la balise d'actif d'informations de la carte de base pour le serveur est vide.
- PR 3074121 : configuration réseau perdue après la mise à niveau de vSAN vers la version 7.0 ou une version ultérieure
Lorsque vous mettez à niveau un hôte vSAN d'une version antérieure à la version 6.2 vers la version 7.0 ou une version ultérieure, le balisage du port VMkernel pour vSAN peut être perdu. Si cela se produit, la configuration de la mise en réseau vSAN est manquante après la mise à niveau.
Ce problème est résolu dans cette version. Le correctif empêche le problème de se produire sur ESXi 7.0 Update 3l et versions ultérieures. Si vous êtes déjà confronté à ce problème, la mise à niveau vers ESXi 7.0 Update 3l ne résout pas automatiquement le problème, mais vous pouvez le résoudre manuellement en activant le trafic VMkernel pour vSAN sur l'hôte ESXi.
- PR 3085003 : impossible d'activer le service de fichiers vSAN avec des fichiers OVF téléchargés
Vous ne pouvez pas activer le service de fichiers vSAN si vCenter ne dispose pas d'un accès à Internet.
Ce problème est résolu dans cette version.
- PR 3088608 : les machines virtuelles peuvent échouer avec un vidage de mémoire lors de la reprise à partir d'un point de contrôle ou après la migration
Dans de rares cas, lorsqu'un point de rupture de données est activé dans le système d'exploitation invité des machines virtuelles, lors de la reprise du point de contrôle ou après une migration vSphere vMotion, il est possible d'accéder à une structure de données de virtualisation interne avant qu'elle ne soit allouée. Par la suite, les machines virtuelles se bloquent avec un vidage de mémoire avec une erreur telle que :
vcpu-1:VMM fault 14: src=MONITOR rip=0xfffffffffc0XXe00 regs=0xfffffffffcXXXdc0 LBR stack=0xfffffffffcXXXaXX
.Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour les VIB loadesx
et esx-update
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 3083426 |
Numéros CVE | S.O. |
Mettez à jour le VIB ntg3
pour résoudre le problème suivant :
- PR 3083426 : vous pouvez voir une perte de paquets de trames Jumbo lorsque les cartes réseau utilisant le pilote ntg3 sont connectées à certains commutateurs Dell
Lorsque des cartes réseau utilisant le pilote
ntg3
, telles que Broadcom BCM5719 et BCM5720, sont connectées à certains modèles de commutateurs Dell, notamment, S4128T-ON et S3048-ON, ces cartes réseau peuvent abandonner de manière incorrecte certains des paquets reçus supérieurs à 6 700 octets. Cela peut entraîner des performances réseau très faibles ou une perte de connectivité.Ce problème est résolu dans cette version. Le pilote
ntg3
version 4.1.9.0, qui est publié avec ESXi 7.0 Update 3l, contient le correctif approprié.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour le VIB vmkusb
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 3086841, 3104368, 3061328 |
Numéros CVE | S.O. |
Mettez à jour le VIB nvme-pcie
pour résoudre le problème suivant :
- PR 3086841 : les plug-ins de gestion multivoie tiers signalent un avertissement « Descripteur RTPG de longueur non valide » lors de l'exécution sur la pile de traduction SCSI vers NVMe
Dans le cas d'un format d'en-tête étendu dans la couche de translation NVMe vers SCSI, les plug-ins de gestion multivoie tiers, tels que PowerPath, peuvent ne pas comptabiliser la taille d'en-tête étendue de 4 octets. Par conséquent, dans le journal
vmkernel.log
, vous voyez un avertissementInvalid length RTPG Descriptor
.Ce problème est résolu dans cette version. Le correctif comptabilise les 4 octets des en-têtes étendus.
- PR 3104368 : impossible d'installer ESXi ou de créer des banques de données sur un périphérique NVMe
Lors de l'installation d'ESXi ou de la création d'une banque de données VMFS sur un périphérique NVMe, le pilote NVMe natif peut avoir besoin de gérer une opération fusionnée de comparaison et d'écriture. Selon les spécifications NVMe, les commandes Comparer et Écrire doivent être insérées l'une à côté de l'autre dans la même file d'attente d'envoi, et la mise à jour du pointeur Doorbell Tail de la file d'attente d'envoi doit indiquer les deux commandes dans le cadre d'une mise à jour de Doorbell. Le pilote NVMe natif place les deux commandes ensemble dans une file d'attente d'envoi, mais écrit le Doorbell de chaque commande séparément. Par conséquent, le microprogramme du périphérique peut terminer les commandes fusionnées avec une erreur et ne pas parvenir à créer une banque de données VMFS. Étant donné que la création d'une banque de données VMFS sur un périphérique est une condition préalable à la réussite de l'installation d'ESXi, vous ne pourrez peut-être pas installer ESXi sur ces périphériques NVMe.
Ce problème est résolu dans cette version.
- PR 3061328 : impossible d'effacer un contrôle de santé vSAN : Le périphérique NVMe peut être identifié
Si le contrôle de santé vSAN indique qu'un périphérique NVMe ne peut pas être identifié, il se peut que l'avertissement soit effacé après la sélection correcte du modèle de périphérique.
Ce problème est résolu dans cette version.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | S.O. |
Numéros CVE | CVE-2023-1017, CVE-2023-1018 |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB esx-dvfilter-generic-fastpath, vsan, bmcal, crx, esx-ui, esxio-combiner, vsanhealth, native-misc-drivers, gc, cpu-microcode, vdfs, esx-xserver, esx-base
et trx
pour résoudre les problèmes suivants :
- ESXi 7.0 Update 3l fournit les mises à jour de sécurité suivantes :
- Le module Python a été mis à jour vers les versions 3.8.16/3.5.10.
- La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.10.3.
- La bibliothèque cURL a été mise à jour vers la version 7.86.0.
- L'analyseur XML Expat a été mis à jour vers la version 2.5.0.
- La base de données SQLite a été mise à jour vers la version 3.40.1.
- La bibliothèque zlib a été mise à jour vers la version 1.2.13.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour les VIB loadesx
et esx-update
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Non |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 3091480 |
Numéros CVE | S.O. |
Met à jour les VIB loadesx
et esx-update
.
-
-
Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3l :
-
windows.iso : VMware Tools 12.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.
-
linux.iso: Image ISO de VMware Tools 10.3.25 pour le système d'exploitation Linux avec glibc 2.11 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
-
VMware Tools 11.0.6 :
-
windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
-
-
VMware Tools 10.0.12 :
-
winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.
-
linuxPreGLibc25.iso : prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
-
-
solaris.iso: Image de VMware Tools 10.3.10 pour Solaris.
-
darwin.iso: Prend en charge Mac OS X 10.11 et versions ultérieures. VMware Tools 12.1.0 était la dernière version régulière pour macOS. Pour plus d'informations, consultez l'article 88698 de la base de connaissances VMware.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
-
-
Nom du profil | ESXi-7.0U3l-21424296-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 30 mars 2023 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 3057026, 3062185, 3040049, 3061156, 3023389, 3062861, 3089449, 3081870, 3082900, 3033157, 3090683, 3075786, 3074392, 3081275, 3080022, 3083314, 3084812, 3074360, 3092270, 3076977, 3051685, 3082477, 3082282, 3082427, 3077163, 3087219, 3074187, 3082431, 3050562, 3072430, 3077072, 3077060, 3046875, 3082991, 3083473, 3051059, 3091256, 3074912, 3058993, 3063987, 3072500, 3060661, 3076188, 3049652, 2902475, 3087946, 3116848, 3010502, 3118090, 3078875, 3069298, 3074121, 3083426, 3086841, 3104368, 3061328 |
Numéros CVE associés | CVE-2023-1017, CVE-2023-1018 |
- Ce correctif met à jour les problèmes suivants :
-
Dans vSphere Client et ESXi Host Client, vous pouvez voir un nombre de sockets incorrect et respectivement de cœurs par socket lorsque vous modifiez le paramètre NPS sur un serveur AMD EPYC 9004 de la valeur par défaut 1, ou Auto, pour une autre valeur, telle que 2 ou 4.
-
En raison d'une condition de concurrence rare lors d'une opération de reprise d'interruption rapide (FSR, Fast Suspend Resume) sur une machine virtuelle avec des pages partagées entre les machines virtuelles, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur telle que
PFrame_IsBackedByLPage
dans la trace de débogage. Ce problème se produit lors des opérations de vSphere Storage vMotion ou de l'ajout à chaud d'un périphérique. -
La capture de paquets avec l'option
-c
de l'utilitairepktcap-uw
en cas de trafic réseau intense peut être plus lente que la capture de paquets sans l'option. Vous pouvez également observer un retard dans la capture des paquets, de sorte que le dernier module compté présente un horodatage antérieur de quelques secondes à l'heure d'arrêt de la fonction. Ce problème provient de la fonctionFile_GetSize
de vérification des tailles de fichier, qui est lente dans les environnements VMFS et entraîne de faibles performances depktcap-uw
. -
Dans le fichier
syslog
, vous pouvez voir des messages de journal fréquents tels que :2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] *** Received pre-CEE DCBX Packet on port: vmnicX
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info]2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Src MAC: xc:xc:X0:0X:xc:xx
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Dest MAC: X0:xb:xb:fx:0X:X1
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] 2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Port ID TLV:
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] ifName:
Ce problème se produit, car le démon DCB (Data Center Bridging),
dcbd
, sur l'hôte ESXi enregistre des messages inutiles dans/var/log/syslog.log
. Par conséquent, le fichier journal peut rapidement se remplir de journauxdcbd
. -
Dans certains cas, un appel système timed-wait dans VMkernel peut revenir trop tôt. Par conséquent, certaines applications, telles que System Health Agent, peuvent prendre jusqu'à 100 % de l'utilisation du CPU sur l'un des cœurs d'hôte ESXi.
-
En raison d'un problème avec les Interfaces de bouclage IPv6, vous pouvez ne pas voir les détails de l'image de machine virtuelle dans l'onglet Résumé de vSphere Client.
-
Si le nombre de chemins à partir d'un hôte ESXi utilisant NMP SATP ALUA vers le stockage dépasse 255, ESXi ignore une partie des informations ALUA signalées par la cible et conserve de manière incorrecte une partie de l'état du chemin comme étant active et optimisée. Par conséquent, certaines E/S utilisent le chemin non optimisé vers le périphérique de stockage et provoquent des problèmes de latence.
-
Dans certains cas, lors de l'arrêt d'un hôte ESXi, les files d'attente d'aide des demandes de sonde de périphérique sont supprimées, mais la référence au périphérique subsiste. Par conséquent, le redémarrage de l'hôte ESXi s'arrête avec un message tel qu'
initializing init_VMKernelShutdownHelper: (14/39) ShutdownSCSICleanupForDevTearDown
dans l'interface utilisateur de la console directe (DCUI). -
En raison d'une condition de concurrence lors d'une opération Instant Clone, les pages mémoire de machine virtuelle peuvent être endommagées et l'hôte ESXi peut échouer avec un écran de diagnostic violet. Vous voyez des erreurs telles que
VmMemMigrate_MarkPagesCow
ouAsyncRemapProcessVMRemapList
dans la trace de débogage. -
Dans certains environnements avec des plug-ins SATP tels que
satp_alua
etsatp_alua_cx
, la mise en ligne de tous les chemins vers un LUN peut nécessiter plusieurs analyses. Par conséquent, une opération de basculement de stockage peut prendre du temps. Par exemple, avec 4 chemins vers un LUN, la mise en ligne de ces 4 chemins peut prendre jusqu'à 20 minutes. -
Après des opérations vSphere vMotion dans des instances de vCenter Server pour les machines virtuelles qui disposent de balises vSphere, il est possible que ces balises n'existent pas dans l'emplacement cible. Ce problème se produit uniquement dans les opérations de migration entre des instances de vCenter Server qui ne partagent pas de stockage.
-
Lorsque vous définissez le mode de filtre multidiffusion d'un NSX Virtual Switch pour NVDS, le mode peut revenir par intermittence d'hérité à écoute.
-
Lorsque vous exécutez une analyse Nessus, qui exécute en interne une analyse SYN, pour détecter les ports actifs sur un hôte ESXi, le service iofiltervpd peut s'arrêter. Le service ne peut pas être redémarré dans le nombre maximal de tentatives en raison de l'analyse SYN.
-
Si un VIB contenant un nouveau module de noyau est installé avant d'exécuter l'une des procédures de restauration de configuration décrites dans l'article 2042141 de la base de connaissances VMware, vous ne voyez aucune modification dans la configuration après le redémarrage de l'hôte ESXi. Par exemple, si vous tentez de restaurer la configuration ESXi immédiatement après l'installation du VIB NSX, l'hôte ESXi redémarre, mais aucune modification de la configuration n'est visible. Ce problème se produit en raison d'une erreur logique dans les mises à jour de la partition de la banque de démarrage utilisée pour le redémarrage de l'hôte ESXi après l'installation d'un nouveau VIB de module de noyau.
-
La liste des fichiers du stockage Azure NFS 4.1 monté peut ne pas fonctionner comme prévu, car même si les fichiers existent et qu'il est possible de les ouvrir par nom, l'exécution de la commande
ls
sur un hôte ESXi à l'aide de SSH n'affiche aucun fichier. -
À partir d'ESXi 7.0 Update 1, le fichier
vpxa.cfg
n'existe plus et la configuration vpxa appartient au magasin de configuration d'ESXi (ConfigStore
). Lorsque vous mettez à niveau un hôte ESXi d'une version antérieure à la version 7.0 Update 1 vers une version ultérieure, les champsVpx.Vpxa.config.nfc.loglevel
etVpx.Vpxa.config.httpNfc.accessMode
dans le fichiervpxa.cfg
peuvent entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet lors de la conversion du formatvpxa.cfg
vers le formatConfigStore
. Ce problème se produit en raison de différences dans le niveau de journalisation NFC entrevpxa.cfg
etConfigStore
, et les valeurs sensibles à la casse. -
Dans de rares cas, plusieurs opérations d'ouverture et de fermeture simultanées sur des banques de données, par exemple lorsque vSphere DRS déclenche plusieurs tâches de migration, peuvent faire que des machines virtuelles mettent plus de temps à terminer des E/S de disque en vol. Par conséquent, ces machines virtuelles peuvent mettre plus de temps à répondre ou cessent de répondre pendant une courte période. Ce problème est plus susceptible de se produire sur des machines virtuelles disposant de plusieurs disques virtuels sur différentes banques de données.
-
Lors d'un appel d'API pour recharger une machine virtuelle d'un hôte ESXi vers un autre, l'élément
externalId
dans le fichier de données du port de machine virtuelle peut être perdu. Par conséquent, après le rechargement de la machine virtuelle, la carte réseau virtuelle de la machine virtuelle peut ne pas être en mesure de se connecter à un LSP. -
Après la mise à niveau vers ESXi 7.0 Update 3i, vous ne pourrez peut-être pas attacher un disque de machine virtuelle (VMDK) existant à une machine virtuelle à l'aide de VMware Host Client, qui est utilisé pour vous connecter à des hôtes ESXi uniques et les gérer. Le problème n'affecte pas vSphere Client.
-
En raison d'une condition de concurrence entre les workflows Créer et Supprimer un pool de ressources, un pointeur libéré dans le cache du pool de ressources VMFS peut être déréférencé. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur semblable à celle-ci :
@BlueScreen: #PF Exception 14 in world 2105491:res3HelperQu IP 0x420032a21f55 addr 0x0
-
Avec l'API
QueryUnresolvedVmfsVolume
de traitement par lots, vous pouvez interroger et répertorier des volumes VMFS ou des snapshots de LUN non résolus. Vous pouvez ensuite utiliser d'autres API de traitement par lots pour effectuer des opérations, telles que signer à nouveau des volumes VMFS non résolus spécifiques. Par défaut, lorsque l'APIQueryUnresolvedVmfsVolume
est appelée sur un hôte, le système effectue un contrôle de réactivité du système de fichiers supplémentaire pour tous les volumes non résolus détectés. Le contrôle de réactivité effectué détecte si le LUN spécifié est monté sur d'autres hôtes, si un signal de pulsation VMFS actif est en cours ou si un système de fichiers est actif. Cette opération prend du temps et nécessite au moins 16 secondes par LUN. Par conséquent, lorsque votre environnement se compose d'un grand nombre de LUN de snapshot, l'opération d'interrogation et d'établissement de liste peut prendre un certain temps. -
Ce problème peut se produire lorsque vCenter gère plusieurs clusters et que la machine virtuelle vCenter s'exécute sur l'un des clusters. Si vous arrêtez le cluster sur lequel réside la machine virtuelle vCenter, l'erreur suivante peut se produire lors de l'opération d'arrêt :
'NoneType' object has no attribute '_moId'
. La VM vCenter n'est pas hors tension -
Ce problème peut se produire lorsque vCenter gère plusieurs clusters et exécute plusieurs opérations d'arrêt et de redémarrage de cluster en parallèle. Par exemple, si vous arrêtez 3 clusters et redémarrez le service de santé vSAN ou la machine virtuelle vCenter, puis que vous redémarrez l'un des 3 clusters avant les autres, l'option Restart Cluster peut être disponible pour le premier cluster vSAN, mais pas pour les autres clusters.
-
Un décalage de l'heure inattendu peut se produire par intermittence sur un cluster vSAN lorsqu'un seul vCenter Server gère plusieurs clusters vSAN, en raison de retards internes dans les demandes VPXA. Dans vSphere Client, dans l'onglet Santé de vSAN, vous voyez que l'état de L'heure est synchronisée entre les hôtes et VC passe de vert à jaune et revient à vert.
-
Lorsque vous activez l'option avancée
ToolsRamdisk
qui s'assure que la partition/vmtools
se trouve toujours sur un disque RAM plutôt que sur une carte USB ou SD, l'installation ou la mise à jour du VIBtools-light
ne met pas automatiquement à jour le contenu du disque RAM. Au lieu de cela, vous devez redémarrer l'hôte afin que le disque RAM soit mis à jour et que la nouvelle version de VM Tools soit disponible pour les machines virtuelles. -
Une condition de concurrence rare causée par la récupération de mémoire pour certains processus d'optimisation des performances dans vSphere vMotion peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.
-
Si votre environnement dispose de clusters de blocs de fichiers de petite et de grande taille mappés à une règle d'affinité, lorsque vous ajoutez un cluster, le gestionnaire d'affinité peut allouer plus de blocs pour les fichiers que le volume réel de la banque de données. Par conséquent, les hôtes ESXi échouent de manière aléatoire avec un écran de diagnostic violet avec une erreur
Exception 14 in world #######
. -
Ce problème se produit lorsque vous affichez les détails de santé d'un contrôle de santé dans la vue historique. Dans vSphere Client, dans l'onglet Skyline Health, vous voyez un message tel qu'
Aucune donnée disponible pour la période sélectionnée
. Ce problème se produit lorsqu'une requête sur les enregistrements de santé historiques échoue en raison d'horodatages avec un fuseau horaire incorrect. -
La commande d'enregistreur automatique de certains clients de journalisation peut ne pas transmettre le code d'installation approprié au démon Syslog d'ESXi et provoquer des valeurs d'installation ou de gravité incorrectes dans les messages du journal Syslog d'ESXi.
-
Dans de rares cas, lors d'une charge de travail importante, deux tâches LVM qui effectuent des mises à jour et des requêtes sur la planification du périphérique dans un hôte ESXi peuvent s'exécuter en parallèle et provoquer un problème de synchronisation. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et des messages semblables à
[email protected]#nover+0x1018 stack: 0xXXXXX and Addr3ResolvePhysVector@esx#nover+0x68 stack: 0xXXXX
dans la trace de débogage. -
Dans certains cas, pendant qu'un hôte ESXi démarre, certaines cibles iSCSI découvertes dynamiquement peuvent être supprimées. Par conséquent, une fois le démarrage terminé, vous risquez de ne plus voir certains LUN iSCSI. Ce problème est plus susceptible de se produire dans les environnements avec le protocole CHAP
(Challenge-Handshake Authentication Protocol) activé pour iSCSI. -
Dans les environnements occupés avec de nombreuses réanalyses à l'aide d'un adaptateur iSCSI logiciel, VMware Host Client peut cesser d'afficher l'adaptateur par intermittence. Ce problème se produit uniquement avec les baies cibles qui renvoient des portails cibles avec des adresses IPv4 et IPv6 lors de la découverte à l'aide de la méthode
SendTargets
. -
Un problème rare lors du calcul de la profondeur maximale de file d'attente par périphérique de banque de données peut entraîner des avertissements d'attente de profondeur de file d'attente de la couche SCSI sous-jacente. Par conséquent, lorsque vous désactivez Storage I/O Control sur les banques de données, vous pouvez voir des E/S de lecture élevées sur tous les hôtes ESXi.
-
En raison d'une configuration manquante pour
stats-log
dans le fichier/etc/vmware/vvold/config.xml
, plusieurs fichiers-1.log
peuvent remplir la partition/ramdisk
après une mise à niveau vers ESXi 7.0 Update 3 et versions ultérieures. -
Si un nom d'utilisateur ou un mot de passe dans un proxy réseau contient un caractère d'échappement, l'environnement ne parvient pas à envoyer de demandes réseau via le proxy.
-
Si vous configurez un serveur NTP sur un hôte ESXi avec des paramètres supplémentaires avec
hostname
, tels quemin_poll
oumax_poll
, la commandeesxcli system ntp test
peut échouer à résoudre l'adresse IP de ce serveur. Ce problème se produit, car dans de telles configurations, la résolution de nom NTP s'applique à l'intégralité de la configuration du serveur, plutôt qu'au nom d'hôte uniquement. -
Après la mise à niveau vers ESXi 7.0 Update 2 et versions ultérieures, une machine virtuelle peut ne pas découvrir certains périphériques USB qui lui sont attachés, tels qu'un UPS USB Eaton, et ne pas communiquer correctement avec le périphérique.
-
Si vous clonez une machine virtuelle, y compris les spécifications de personnalisation d'invité, déplacez le fichier VMDK vers une autre banque de données et le provisionnez de manière statique, puis mettez sous tension la machine virtuelle, la personnalisation du système d'exploitation invité peut ne pas être conservée. Dans les journaux hostd, vous voyez une description du type d'événement telle que
Le composant de personnalisation n'a pas pu définir les paramètres requis dans le système d'exploitation invité
.
Ce problème se produit, car lors du déplacement du fichier VMDK de la machine virtuelle clonée vers une autre banque de données, le nouveaupathName
pour la personnalisation du système d'exploitation invité peut être temporairement identique àoldPathName
et le module est supprimé. -
Un dimensionnement incorrect des besoins en ressources pour le service hostd sur un hôte ESXi peut entraîner l'échec de certaines tâches liées aux machines virtuelles lorsque vous utilisez le filtrage VAIO (vSphere APIs for I/O Filtering) pour VMware ou des applications de sauvegarde tierces. Par exemple, lorsqu'un filtre VAIO est attaché à un ou plusieurs disques virtuels d'une machine virtuelle, ces machines virtuelles peuvent échouer à effectuer des sauvegardes ou une mise sous tension après une sauvegarde.
-
Un problème rare d'endommagement de fichier peut se produire lorsque plusieurs hôtes ESXi effectuent simultanément une opération d'ajout de fichier sur une banque de données NFSv3. Par conséquent, si vous utilisez l'utilitaire de ligne de commande open source Govc pour effectuer des actions administratives sur une instance de vCenter, vous pouvez voir des rapports avec des valeurs incohérentes. Par exemple, si vous exécutez la commande
govc disk.ls
pour répertorier tous les FCD d'une banque de données récemment créée, vous voyez un nombre de disques différent de ce que vous attendez. -
Dans de rares cas, lorsqu'un volume VMFS est fermé immédiatement après son ouverture, l'un des threads du processus d'ouverture peut concurrencer un thread dans le processus de fermeture et prendre un chemin rare de gestion des erreurs qui peut quitter sans déverrouiller un verrou spinlock verrouillé. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et un message dans la trace de débogage tel que :
@BlueScreen: VERIFY bora/vmkernel/sched/cpusched.c:11154.
-
En raison de conflits de réservation, les applications WSFC peuvent perdre la connectivité à un disque virtuel basé sur un volume après une opération de reliaison sur ce disque.
-
Dans de rares cas, l'agent de gestion, Fault Domain Manager (FDM), que vSphere HA déploie sur les hôtes ESXi, peut ne pas parvenir à acquérir une banque de données vSAN lors de la première tentative avant qu'une condition exceptionnelle, comme une panne de courant, se produise. Par conséquent, le basculement vSphere HA des machines virtuelles sur cette banque de données peut ne pas aboutir. Dans vSphere Client, vous voyez un message tel que
Cette machine virtuelle n'a pas pu être protégée par vSphere HA et vSphere HA risque de ne pas essayer de la redémarrer après un échec
. Les tentatives successives de FDM d'acquisition de la banque de données vSAN peuvent également échouer. -
Dans les mesures de durabilité de VMware vRealize Operations, vous pouvez voir une valeur Alimentation|Énergie totale (Wh) par machine virtuelle supérieure à l'hôte ESXi sur lequel la machine virtuelle est hébergée. Ce problème se produit, car après la mesure de l'énergie totale consommée par la machine virtuelle, le compteur de performances power.energy est calculé et indiqué en millijoules plutôt qu'en joules.
-
Dans les hôtes ESXi s'exécutant sur des processeurs AMD, les machines virtuelles Windows de version de matériel 19 sur lesquelles la fonctionnalité VBS activée peuvent échouer avec un écran de diagnostic bleu en raison d'une erreur de configuration incorrecte du mode de processeur. Dans le fichier
vmware.log
, vous voyez des erreurs telles quevcpu-0 - WinBSOD: Synthetic MSR[0xx0000x00] 0xxxx
. -
En raison d'une erreur interne, même si un modèle de CPU est répertorié comme étant pris en charge dans le Guide de compatibilité de VMware, vous pouvez voir dans vSphere Client un avertissement tel que
Le CPU sur l'hôte n'est pas pris en charge par l'image
lors d'une analyse de conformité à l'aide d'une image vSphere Lifecycle Manager. L'avertissement ne vous empêche pas de terminer une mise à jour ou une mise à niveau. -
Lorsque vous migrez des machines virtuelles sur lesquelles VBS est activé et qui résident sur des hôtes ESXi exécutés sur des processeurs AMD, ces machines virtuelles peuvent échouer avec un écran de diagnostic bleu sur l'hôte cible en raison d'une erreur d'état d'interruption d'invité.
-
Lorsque vous remplacez une stratégie de mise en réseau telle que l'association, la sécurité ou la formation d'un groupe de ports, puis que vous annulez la modification, après un redémarrage de l'hôte ESXi, vous pouvez toujours voir le paramètre de remplacement. Par exemple, si vous acceptez l'activation du mode promiscuité au niveau d'un groupe de ports, puis rétablissez le mode sur Rejeter et redémarrez l'hôte ESXi, le paramètre est toujours Accepter.
-
Votre serveur Web distant peut contenir un champ de formulaire HTML avec une entrée de type
Mot de passe
etNom d'utilisateur
, dans laquelle l'attributautocomplete
n'est pas défini surdésactivé
. Par conséquent, vous pouvez voir un avertissement par des scanneurs de sécurité tels queL'attribut de saisie automatique n'est pas désactivé pour le mot de passe dans l'authentification basée sur le formulaire
. La définition de l'attributautocomplete
suractivé
n'entraîne pas directement un risque sur les serveurs Web, mais dans certains navigateurs, les informations d'identification de l'utilisateur sous de telles formes peuvent être enregistrées et potentiellement entraîner une perte de confidentialité. -
Les objets vSAN Distributed File System (vDFS) ne prennent pas en charge la limite d'IOPS. Vous ne pouvez pas définir la limite d'IOPS pour les objets de service de fichiers vSAN.
-
Dans vSphere Client, lorsque vous accédez à Configurer > Matériel > Présentation, aucune balise d'actif n'est répertoriée pour certains serveurs.
-
Lorsque vous mettez à niveau un hôte vSAN d'une version antérieure à la version 6.2 vers la version 7.0 ou une version ultérieure, le balisage du port VMkernel pour vSAN peut être perdu. Si cela se produit, la configuration de la mise en réseau vSAN est manquante après la mise à niveau.
-
Vous ne pouvez pas activer le service de fichiers vSAN si vCenter ne dispose pas d'un accès à Internet.
-
Dans de rares cas, lorsqu'un point de rupture de données est activé dans le système d'exploitation invité des machines virtuelles, lors de la reprise du point de contrôle ou après une migration vSphere vMotion, il est possible d'accéder à une structure de données de virtualisation interne avant qu'elle ne soit allouée. Par la suite, les machines virtuelles se bloquent avec un vidage de mémoire avec une erreur telle que :
vcpu-1:VMM fault 14: src=MONITOR rip=0xfffffffffc0XXe00 regs=0xfffffffffcXXXdc0 LBR stack=0xfffffffffcXXXaXX
. -
Lorsque des cartes réseau utilisant le pilote
ntg3
, telles que Broadcom BCM5719 et BCM5720, sont connectées à certains modèles de commutateurs Dell, notamment, S4128T-ON et S3048-ON, ces cartes réseau peuvent abandonner de manière incorrecte certains des paquets reçus supérieurs à 6 700 octets. Cela peut entraîner des performances réseau très faibles ou une perte de connectivité. -
Dans le cas d'un format d'en-tête étendu dans la couche de translation NVMe vers SCSI, les plug-ins de gestion multivoie tiers, tels que PowerPath, peuvent ne pas comptabiliser la taille d'en-tête étendue de 4 octets. Par conséquent, dans le journal
vmkernel.log
, vous voyez un avertissementInvalid length RTPG Descriptor
. -
Lors de l'installation d'ESXi ou de la création d'une banque de données VMFS sur un périphérique NVMe, le pilote NVMe natif peut avoir besoin de gérer une opération fusionnée de comparaison et d'écriture. Selon les spécifications NVMe, les commandes Comparer et Écrire doivent être insérées l'une à côté de l'autre dans la même file d'attente d'envoi, et la mise à jour du pointeur Doorbell Tail de la file d'attente d'envoi doit indiquer les deux commandes dans le cadre d'une mise à jour de Doorbell. Le pilote NVMe natif place les deux commandes ensemble dans une file d'attente d'envoi, mais écrit le Doorbell de chaque commande séparément. Par conséquent, le microprogramme du périphérique peut terminer les commandes fusionnées avec une erreur et ne pas parvenir à créer une banque de données VMFS. Étant donné que la création d'une banque de données VMFS sur un périphérique est une condition préalable à la réussite de l'installation d'ESXi, vous ne pourrez peut-être pas installer ESXi sur ces périphériques NVMe.
-
Si le contrôle de santé vSAN indique qu'un périphérique NVMe ne peut pas être identifié, il se peut que l'avertissement soit effacé après la sélection correcte du modèle de périphérique.
-
Nom du profil | ESXi-7.0U3l-21424296-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 30 mars 2023 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 3057026, 3062185, 3040049, 3061156, 3023389, 3062861, 3089449, 3081870, 3082900, 3033157, 3090683, 3075786, 3074392, 3081275, 3080022, 3083314, 3084812, 3074360, 3092270, 3076977, 3051685, 3082477, 3082282, 3082427, 3077163, 3087219, 3074187, 3082431, 3050562, 3072430, 3077072, 3077060, 3046875, 3082991, 3083473, 3051059, 3091256, 3074912, 3058993, 3063987, 3072500, 3060661, 3076188, 3049652, 2902475, 3087946, 3116848, 3010502, 3118090, 3078875, 3069298, 3074121, 3083426, 3086841, 3104368, 3061328 |
Numéros CVE associés | CVE-2023-1017, CVE-2023-1018 |
- Ce correctif met à jour les problèmes suivants :
-
Dans vSphere Client et ESXi Host Client, vous pouvez voir un nombre de sockets incorrect et respectivement de cœurs par socket lorsque vous modifiez le paramètre NPS sur un serveur AMD EPYC 9004 de la valeur par défaut 1, ou Auto, pour une autre valeur, telle que 2 ou 4.
-
En raison d'une condition de concurrence rare lors d'une opération de reprise d'interruption rapide (FSR, Fast Suspend Resume) sur une machine virtuelle avec des pages partagées entre les machines virtuelles, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur telle que
PFrame_IsBackedByLPage
dans la trace de débogage. Ce problème se produit lors des opérations de vSphere Storage vMotion ou de l'ajout à chaud d'un périphérique. -
La capture de paquets avec l'option
-c
de l'utilitairepktcap-uw
en cas de trafic réseau intense peut être plus lente que la capture de paquets sans l'option. Vous pouvez également observer un retard dans la capture des paquets, de sorte que le dernier module compté présente un horodatage antérieur de quelques secondes à l'heure d'arrêt de la fonction. Ce problème provient de la fonctionFile_GetSize
de vérification des tailles de fichier, qui est lente dans les environnements VMFS et entraîne de faibles performances depktcap-uw
. -
Dans le fichier
syslog
, vous pouvez voir des messages de journal fréquents tels que :2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] *** Received pre-CEE DCBX Packet on port: vmnicX
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info]2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Src MAC: xc:xc:X0:0X:xc:xx
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Dest MAC: X0:xb:xb:fx:0X:X1
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] 2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Port ID TLV:
2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] ifName:
Ce problème se produit, car le démon DCB (Data Center Bridging),
dcbd
, sur l'hôte ESXi enregistre des messages inutiles dans/var/log/syslog.log
. Par conséquent, le fichier journal peut rapidement se remplir de journauxdcbd
. -
Dans certains cas, un appel système timed-wait dans VMkernel peut revenir trop tôt. Par conséquent, certaines applications, telles que System Health Agent, peuvent prendre jusqu'à 100 % de l'utilisation du CPU sur l'un des cœurs d'hôte ESXi.
-
En raison d'un problème avec les Interfaces de bouclage IPv6, vous pouvez ne pas voir les détails de l'image de machine virtuelle dans l'onglet Résumé de vSphere Client.
-
Si le nombre de chemins à partir d'un hôte ESXi utilisant NMP SATP ALUA vers le stockage dépasse 255, ESXi ignore une partie des informations ALUA signalées par la cible et conserve de manière incorrecte une partie de l'état du chemin comme étant active et optimisée. Par conséquent, certaines E/S utilisent le chemin non optimisé vers le périphérique de stockage et provoquent des problèmes de latence.
-
Dans certains cas, lors de l'arrêt d'un hôte ESXi, les files d'attente d'aide des demandes de sonde de périphérique sont supprimées, mais la référence au périphérique subsiste. Par conséquent, le redémarrage de l'hôte ESXi s'arrête avec un message tel qu'
initializing init_VMKernelShutdownHelper: (14/39) ShutdownSCSICleanupForDevTearDown
dans l'interface utilisateur de la console directe (DCUI). -
En raison d'une condition de concurrence lors d'une opération Instant Clone, les pages mémoire de machine virtuelle peuvent être endommagées et l'hôte ESXi peut échouer avec un écran de diagnostic violet. Vous voyez des erreurs telles que
VmMemMigrate_MarkPagesCow
ouAsyncRemapProcessVMRemapList
dans la trace de débogage. -
Dans certains environnements avec des plug-ins SATP tels que
satp_alua
etsatp_alua_cx
, la mise en ligne de tous les chemins vers un LUN peut nécessiter plusieurs analyses. Par conséquent, une opération de basculement de stockage peut prendre du temps. Par exemple, avec 4 chemins vers un LUN, la mise en ligne de ces 4 chemins peut prendre jusqu'à 20 minutes. -
Après des opérations vSphere vMotion dans des instances de vCenter Server pour les machines virtuelles qui disposent de balises vSphere, il est possible que ces balises n'existent pas dans l'emplacement cible. Ce problème se produit uniquement dans les opérations de migration entre des instances de vCenter Server qui ne partagent pas de stockage.
-
Lorsque vous définissez le mode de filtre multidiffusion d'un NSX Virtual Switch pour NVDS, le mode peut revenir par intermittence d'hérité à écoute.
-
Lorsque vous exécutez une analyse Nessus, qui exécute en interne une analyse SYN, pour détecter les ports actifs sur un hôte ESXi, le service iofiltervpd peut s'arrêter. Le service ne peut pas être redémarré dans le nombre maximal de tentatives en raison de l'analyse SYN.
-
Si un VIB contenant un nouveau module de noyau est installé avant d'exécuter l'une des procédures de restauration de configuration décrites dans l'article 2042141 de la base de connaissances VMware, vous ne voyez aucune modification dans la configuration après le redémarrage de l'hôte ESXi. Par exemple, si vous tentez de restaurer la configuration ESXi immédiatement après l'installation du VIB NSX, l'hôte ESXi redémarre, mais aucune modification de la configuration n'est visible. Ce problème se produit en raison d'une erreur logique dans les mises à jour de la partition de la banque de démarrage utilisée pour le redémarrage de l'hôte ESXi après l'installation d'un nouveau VIB de module de noyau.
-
La liste des fichiers du stockage Azure NFS 4.1 monté peut ne pas fonctionner comme prévu, car même si les fichiers existent et qu'il est possible de les ouvrir par nom, l'exécution de la commande
ls
sur un hôte ESXi à l'aide de SSH n'affiche aucun fichier. -
À partir d'ESXi 7.0 Update 1, le fichier
vpxa.cfg
n'existe plus et la configuration vpxa appartient au magasin de configuration d'ESXi (ConfigStore
). Lorsque vous mettez à niveau un hôte ESXi d'une version antérieure à la version 7.0 Update 1 vers une version ultérieure, les champsVpx.Vpxa.config.nfc.loglevel
etVpx.Vpxa.config.httpNfc.accessMode
dans le fichiervpxa.cfg
peuvent entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet lors de la conversion du formatvpxa.cfg
vers le formatConfigStore
. Ce problème se produit en raison de différences dans le niveau de journalisation NFC entrevpxa.cfg
etConfigStore
, et les valeurs sensibles à la casse. -
Dans de rares cas, plusieurs opérations d'ouverture et de fermeture simultanées sur des banques de données, par exemple lorsque vSphere DRS déclenche plusieurs tâches de migration, peuvent faire que des machines virtuelles mettent plus de temps à terminer des E/S de disque en vol. Par conséquent, ces machines virtuelles peuvent mettre plus de temps à répondre ou cessent de répondre pendant une courte période. Ce problème est plus susceptible de se produire sur des machines virtuelles disposant de plusieurs disques virtuels sur différentes banques de données.
-
Lors d'un appel d'API pour recharger une machine virtuelle d'un hôte ESXi vers un autre, l'élément
externalId
dans le fichier de données du port de machine virtuelle peut être perdu. Par conséquent, après le rechargement de la machine virtuelle, la carte réseau virtuelle de la machine virtuelle peut ne pas être en mesure de se connecter à un LSP. -
Après la mise à niveau vers ESXi 7.0 Update 3i, vous ne pourrez peut-être pas attacher un disque de machine virtuelle (VMDK) existant à une machine virtuelle à l'aide de VMware Host Client, qui est utilisé pour vous connecter à des hôtes ESXi uniques et les gérer. Le problème n'affecte pas vSphere Client.
-
En raison d'une condition de concurrence entre les workflows Créer et Supprimer un pool de ressources, un pointeur libéré dans le cache du pool de ressources VMFS peut être déréférencé. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur semblable à celle-ci :
@BlueScreen: #PF Exception 14 in world 2105491:res3HelperQu IP 0x420032a21f55 addr 0x0
-
Avec l'API
QueryUnresolvedVmfsVolume
de traitement par lots, vous pouvez interroger et répertorier des volumes VMFS ou des snapshots de LUN non résolus. Vous pouvez ensuite utiliser d'autres API de traitement par lots pour effectuer des opérations, telles que signer à nouveau des volumes VMFS non résolus spécifiques. Par défaut, lorsque l'APIQueryUnresolvedVmfsVolume
est appelée sur un hôte, le système effectue un contrôle de réactivité du système de fichiers supplémentaire pour tous les volumes non résolus détectés. Le contrôle de réactivité effectué détecte si le LUN spécifié est monté sur d'autres hôtes, si un signal de pulsation VMFS actif est en cours ou si un système de fichiers est actif. Cette opération prend du temps et nécessite au moins 16 secondes par LUN. Par conséquent, lorsque votre environnement se compose d'un grand nombre de LUN de snapshot, l'opération d'interrogation et d'établissement de liste peut prendre un certain temps. -
Ce problème peut se produire lorsque vCenter gère plusieurs clusters et que la machine virtuelle vCenter s'exécute sur l'un des clusters. Si vous arrêtez le cluster sur lequel réside la machine virtuelle vCenter, l'erreur suivante peut se produire lors de l'opération d'arrêt :
'NoneType' object has no attribute '_moId'
. La VM vCenter n'est pas hors tension -
Ce problème peut se produire lorsque vCenter gère plusieurs clusters et exécute plusieurs opérations d'arrêt et de redémarrage de cluster en parallèle. Par exemple, si vous arrêtez 3 clusters et redémarrez le service de santé vSAN ou la machine virtuelle vCenter, puis que vous redémarrez l'un des 3 clusters avant les autres, l'option Restart Cluster peut être disponible pour le premier cluster vSAN, mais pas pour les autres clusters.
-
Un décalage de l'heure inattendu peut se produire par intermittence sur un cluster vSAN lorsqu'un seul vCenter Server gère plusieurs clusters vSAN, en raison de retards internes dans les demandes VPXA. Dans vSphere Client, dans l'onglet Santé de vSAN, vous voyez que l'état de L'heure est synchronisée entre les hôtes et VC passe de vert à jaune et revient à vert.
-
Lorsque vous activez l'option avancée
ToolsRamdisk
qui s'assure que la partition/vmtools
se trouve toujours sur un disque RAM plutôt que sur une carte USB ou SD, l'installation ou la mise à jour du VIBtools-light
ne met pas automatiquement à jour le contenu du disque RAM. Au lieu de cela, vous devez redémarrer l'hôte afin que le disque RAM soit mis à jour et que la nouvelle version de VM Tools soit disponible pour les machines virtuelles. -
Une condition de concurrence rare causée par la récupération de mémoire pour certains processus d'optimisation des performances dans vSphere vMotion peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.
-
Si votre environnement dispose de clusters de blocs de fichiers de petite et de grande taille mappés à une règle d'affinité, lorsque vous ajoutez un cluster, le gestionnaire d'affinité peut allouer plus de blocs pour les fichiers que le volume réel de la banque de données. Par conséquent, les hôtes ESXi échouent de manière aléatoire avec un écran de diagnostic violet avec une erreur
Exception 14 in world #######
. -
Ce problème se produit lorsque vous affichez les détails de santé d'un contrôle de santé dans la vue historique. Dans vSphere Client, dans l'onglet Skyline Health, vous voyez un message tel qu'
Aucune donnée disponible pour la période sélectionnée
. Ce problème se produit lorsqu'une requête sur les enregistrements de santé historiques échoue en raison d'horodatages avec un fuseau horaire incorrect. -
La commande d'enregistreur automatique de certains clients de journalisation peut ne pas transmettre le code d'installation approprié au démon Syslog d'ESXi et provoquer des valeurs d'installation ou de gravité incorrectes dans les messages du journal Syslog d'ESXi.
-
Dans de rares cas, lors d'une charge de travail importante, deux tâches LVM qui effectuent des mises à jour et des requêtes sur la planification du périphérique dans un hôte ESXi peuvent s'exécuter en parallèle et provoquer un problème de synchronisation. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et des messages semblables à
[email protected]#nover+0x1018 stack: 0xXXXXX and Addr3ResolvePhysVector@esx#nover+0x68 stack: 0xXXXX
dans la trace de débogage. -
Dans certains cas, pendant qu'un hôte ESXi démarre, certaines cibles iSCSI découvertes dynamiquement peuvent être supprimées. Par conséquent, une fois le démarrage terminé, vous risquez de ne plus voir certains LUN iSCSI. Ce problème est plus susceptible de se produire dans les environnements avec le protocole CHAP
(Challenge-Handshake Authentication Protocol) activé pour iSCSI. -
Dans les environnements occupés avec de nombreuses réanalyses à l'aide d'un adaptateur iSCSI logiciel, VMware Host Client peut cesser d'afficher l'adaptateur par intermittence. Ce problème se produit uniquement avec les baies cibles qui renvoient des portails cibles avec des adresses IPv4 et IPv6 lors de la découverte à l'aide de la méthode
SendTargets
. -
Un problème rare lors du calcul de la profondeur maximale de file d'attente par périphérique de banque de données peut entraîner des avertissements d'attente de profondeur de file d'attente de la couche SCSI sous-jacente. Par conséquent, lorsque vous désactivez Storage I/O Control sur les banques de données, vous pouvez voir des E/S de lecture élevées sur tous les hôtes ESXi.
-
En raison d'une configuration manquante pour
stats-log
dans le fichier/etc/vmware/vvold/config.xml
, plusieurs fichiers-1.log
peuvent remplir la partition/ramdisk
après une mise à niveau vers ESXi 7.0 Update 3 et versions ultérieures. -
Si un nom d'utilisateur ou un mot de passe dans un proxy réseau contient un caractère d'échappement, l'environnement ne parvient pas à envoyer de demandes réseau via le proxy.
-
Si vous configurez un serveur NTP sur un hôte ESXi avec des paramètres supplémentaires avec
hostname
, tels quemin_poll
oumax_poll
, la commandeesxcli system ntp test
peut échouer à résoudre l'adresse IP de ce serveur. Ce problème se produit, car dans de telles configurations, la résolution de nom NTP s'applique à l'intégralité de la configuration du serveur, plutôt qu'au nom d'hôte uniquement. -
Après la mise à niveau vers ESXi 7.0 Update 2 et versions ultérieures, une machine virtuelle peut ne pas découvrir certains périphériques USB qui lui sont attachés, tels qu'un UPS USB Eaton, et ne pas communiquer correctement avec le périphérique.
-
Si vous clonez une machine virtuelle, y compris les spécifications de personnalisation d'invité, déplacez le fichier VMDK vers une autre banque de données et le provisionnez de manière statique, puis mettez sous tension la machine virtuelle, la personnalisation du système d'exploitation invité peut ne pas être conservée. Dans les journaux hostd, vous voyez une description du type d'événement telle que
Le composant de personnalisation n'a pas pu définir les paramètres requis dans le système d'exploitation invité
.
Ce problème se produit, car lors du déplacement du fichier VMDK de la machine virtuelle clonée vers une autre banque de données, le nouveaupathName
pour la personnalisation du système d'exploitation invité peut être temporairement identique àoldPathName
et le module est supprimé. -
Un dimensionnement incorrect des besoins en ressources pour le service hostd sur un hôte ESXi peut entraîner l'échec de certaines tâches liées aux machines virtuelles lorsque vous utilisez le filtrage VAIO (vSphere APIs for I/O Filtering) pour VMware ou des applications de sauvegarde tierces. Par exemple, lorsqu'un filtre VAIO est attaché à un ou plusieurs disques virtuels d'une machine virtuelle, ces machines virtuelles peuvent échouer à effectuer des sauvegardes ou une mise sous tension après une sauvegarde.
-
Un problème rare d'endommagement de fichier peut se produire lorsque plusieurs hôtes ESXi effectuent simultanément une opération d'ajout de fichier sur une banque de données NFSv3. Par conséquent, si vous utilisez l'utilitaire de ligne de commande open source Govc pour effectuer des actions administratives sur une instance de vCenter, vous pouvez voir des rapports avec des valeurs incohérentes. Par exemple, si vous exécutez la commande
govc disk.ls
pour répertorier tous les FCD d'une banque de données récemment créée, vous voyez un nombre de disques différent de ce que vous attendez. -
Dans de rares cas, lorsqu'un volume VMFS est fermé immédiatement après son ouverture, l'un des threads du processus d'ouverture peut concurrencer un thread dans le processus de fermeture et prendre un chemin rare de gestion des erreurs qui peut quitter sans déverrouiller un verrou spinlock verrouillé. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et un message dans la trace de débogage tel que :
@BlueScreen: VERIFY bora/vmkernel/sched/cpusched.c:11154.
-
En raison de conflits de réservation, les applications WSFC peuvent perdre la connectivité à un disque virtuel basé sur un volume après une opération de reliaison sur ce disque.
-
Dans de rares cas, l'agent de gestion, Fault Domain Manager (FDM), que vSphere HA déploie sur les hôtes ESXi, peut ne pas parvenir à acquérir une banque de données vSAN lors de la première tentative avant qu'une condition exceptionnelle, comme une panne de courant, se produise. Par conséquent, le basculement vSphere HA des machines virtuelles sur cette banque de données peut ne pas aboutir. Dans vSphere Client, vous voyez un message tel que
Cette machine virtuelle n'a pas pu être protégée par vSphere HA et vSphere HA risque de ne pas essayer de la redémarrer après un échec
. Les tentatives successives de FDM d'acquisition de la banque de données vSAN peuvent également échouer. -
Dans les mesures de durabilité de VMware vRealize Operations, vous pouvez voir une valeur Alimentation|Énergie totale (Wh) par machine virtuelle supérieure à l'hôte ESXi sur lequel la machine virtuelle est hébergée. Ce problème se produit, car après la mesure de l'énergie totale consommée par la machine virtuelle, le compteur de performances power.energy est calculé et indiqué en millijoules plutôt qu'en joules.
-
Dans les hôtes ESXi s'exécutant sur des processeurs AMD, les machines virtuelles Windows de version de matériel 19 sur lesquelles la fonctionnalité VBS activée peuvent échouer avec un écran de diagnostic bleu en raison d'une erreur de configuration incorrecte du mode de processeur. Dans le fichier
vmware.log
, vous voyez des erreurs telles quevcpu-0 - WinBSOD: Synthetic MSR[0xx0000x00] 0xxxx
. -
En raison d'une erreur interne, même si un modèle de CPU est répertorié comme étant pris en charge dans le Guide de compatibilité de VMware, vous pouvez voir dans vSphere Client un avertissement tel que
Le CPU sur l'hôte n'est pas pris en charge par l'image
lors d'une analyse de conformité à l'aide d'une image vSphere Lifecycle Manager. L'avertissement ne vous empêche pas de terminer une mise à jour ou une mise à niveau. -
Lorsque vous migrez des machines virtuelles sur lesquelles VBS est activé et qui résident sur des hôtes ESXi exécutés sur des processeurs AMD, ces machines virtuelles peuvent échouer avec un écran de diagnostic bleu sur l'hôte cible en raison d'une erreur d'état d'interruption d'invité.
-
Lorsque vous remplacez une stratégie de mise en réseau telle que l'association, la sécurité ou la formation d'un groupe de ports, puis que vous annulez la modification, après un redémarrage de l'hôte ESXi, vous pouvez toujours voir le paramètre de remplacement. Par exemple, si vous acceptez l'activation du mode promiscuité au niveau d'un groupe de ports, puis rétablissez le mode sur Rejeter et redémarrez l'hôte ESXi, le paramètre est toujours Accepter.
-
Votre serveur Web distant peut contenir un champ de formulaire HTML avec une entrée de type
Mot de passe
etNom d'utilisateur
, dans laquelle l'attributautocomplete
n'est pas défini surdésactivé
. Par conséquent, vous pouvez voir un avertissement par des scanneurs de sécurité tels queL'attribut de saisie automatique n'est pas désactivé pour le mot de passe dans l'authentification basée sur le formulaire
. La définition de l'attributautocomplete
suractivé
n'entraîne pas directement un risque sur les serveurs Web, mais dans certains navigateurs, les informations d'identification de l'utilisateur sous de telles formes peuvent être enregistrées et potentiellement entraîner une perte de confidentialité. -
Les objets vSAN Distributed File System (vDFS) ne prennent pas en charge la limite d'IOPS. Vous ne pouvez pas définir la limite d'IOPS pour les objets de service de fichiers vSAN.
-
Dans vSphere Client, lorsque vous accédez à Configurer > Matériel > Présentation, aucune balise d'actif n'est répertoriée pour certains serveurs.
-
Lorsque vous mettez à niveau un hôte vSAN d'une version antérieure à la version 6.2 vers la version 7.0 ou une version ultérieure, le balisage du port VMkernel pour vSAN peut être perdu. Si cela se produit, la configuration de la mise en réseau vSAN est manquante après la mise à niveau.
-
Vous ne pouvez pas activer le service de fichiers vSAN si vCenter ne dispose pas d'un accès à Internet.
-
Dans de rares cas, lorsqu'un point de rupture de données est activé dans le système d'exploitation invité des machines virtuelles, lors de la reprise du point de contrôle ou après une migration vSphere vMotion, il est possible d'accéder à une structure de données de virtualisation interne avant qu'elle ne soit allouée. Par la suite, les machines virtuelles se bloquent avec un vidage de mémoire avec une erreur telle que :
vcpu-1:VMM fault 14: src=MONITOR rip=0xfffffffffc0XXe00 regs=0xfffffffffcXXXdc0 LBR stack=0xfffffffffcXXXaXX
. -
Lorsque des cartes réseau utilisant le pilote
ntg3
, telles que Broadcom BCM5719 et BCM5720, sont connectées à certains modèles de commutateurs Dell, notamment, S4128T-ON et S3048-ON, ces cartes réseau peuvent abandonner de manière incorrecte certains des paquets reçus supérieurs à 6 700 octets. Cela peut entraîner des performances réseau très faibles ou une perte de connectivité. -
Dans le cas d'un format d'en-tête étendu dans la couche de translation NVMe vers SCSI, les plug-ins de gestion multivoie tiers, tels que PowerPath, peuvent ne pas comptabiliser la taille d'en-tête étendue de 4 octets. Par conséquent, dans le journal
vmkernel.log
, vous voyez un avertissementInvalid length RTPG Descriptor
. -
Lors de l'installation d'ESXi ou de la création d'une banque de données VMFS sur un périphérique NVMe, le pilote NVMe natif peut avoir besoin de gérer une opération fusionnée de comparaison et d'écriture. Selon les spécifications NVMe, les commandes Comparer et Écrire doivent être insérées l'une à côté de l'autre dans la même file d'attente d'envoi, et la mise à jour du pointeur Doorbell Tail de la file d'attente d'envoi doit indiquer les deux commandes dans le cadre d'une mise à jour de Doorbell. Le pilote NVMe natif place les deux commandes ensemble dans une file d'attente d'envoi, mais écrit le Doorbell de chaque commande séparément. Par conséquent, le microprogramme du périphérique peut terminer les commandes fusionnées avec une erreur et ne pas parvenir à créer une banque de données VMFS. Étant donné que la création d'une banque de données VMFS sur un périphérique est une condition préalable à la réussite de l'installation d'ESXi, vous ne pourrez peut-être pas installer ESXi sur ces périphériques NVMe.
-
Si le contrôle de santé vSAN indique qu'un périphérique NVMe ne peut pas être identifié, il se peut que l'avertissement soit effacé après la sélection correcte du modèle de périphérique.
-
Nom du profil | ESXi-7.0U3l-21422485-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 30 mars 2023 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 3091480 |
Numéros CVE associés | CVE-2023-1017, CVE-2023-1018 |
- Ce correctif met à jour les problèmes suivants :
- Le module Python a été mis à jour vers les versions 3.8.16/3.5.10.
- La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.10.3.
- La bibliothèque cURL a été mise à jour vers la version 7.86.0.
- L'analyseur XML Expat a été mis à jour vers la version 2.5.0.
- La base de données SQLite a été mise à jour vers la version 3.40.1.
- La bibliothèque zlib a été mise à jour vers la version 1.2.13.
-
Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3l :
-
windows.iso : VMware Tools 12.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.
-
linux.iso: Image ISO de VMware Tools 10.3.25 pour le système d'exploitation Linux avec glibc 2.11 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
-
VMware Tools 11.0.6 :
-
windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
-
-
VMware Tools 10.0.12 :
-
winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.
-
linuxPreGLibc25.iso : prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
-
-
solaris.iso: Image de VMware Tools 10.3.10 pour Solaris.
-
darwin.iso: Prend en charge Mac OS X 10.11 et versions ultérieures. VMware Tools 12.1.0 était la dernière version régulière pour macOS. Pour plus d'informations, consultez l'article 88698 de la base de connaissances VMware.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
-
Nom du profil | ESXi-7.0U3l-21422485-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 30 mars 2023 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 3091480 |
Numéros CVE associés | CVE-2023-1017, CVE-2023-1018 |
- Ce correctif met à jour les problèmes suivants :
- Le module Python a été mis à jour vers les versions 3.8.16/3.5.10.
- La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.10.3.
- La bibliothèque cURL a été mise à jour vers la version 7.86.0.
- L'analyseur XML Expat a été mis à jour vers la version 2.5.0.
- La base de données SQLite a été mise à jour vers la version 3.40.1.
- La bibliothèque zlib a été mise à jour vers la version 1.2.13.
-
Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3l :
-
windows.iso : VMware Tools 12.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.
-
linux.iso: Image ISO de VMware Tools 10.3.25 pour le système d'exploitation Linux avec glibc 2.11 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
-
VMware Tools 11.0.6 :
-
windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
-
-
VMware Tools 10.0.12 :
-
winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.
-
linuxPreGLibc25.iso : prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
-
-
solaris.iso: Image de VMware Tools 10.3.10 pour Solaris.
-
darwin.iso: Prend en charge Mac OS X 10.11 et versions ultérieures. VMware Tools 12.1.0 était la dernière version régulière pour macOS. Pour plus d'informations, consultez l'article 88698 de la base de connaissances VMware.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
-
Nom | ESXi |
Version | ESXi70U3l-21424296 |
Date de publication | 30 mars 2023 |
Catégorie | Correctif de bogues |
Composants concernés |
|
PR résolus | 3057026, 3062185, 3040049, 3061156, 3023389, 3062861, 3089449, 3081870, 3082900, 3033157, 3090683, 3075786, 3074392, 3081275, 3080022, 3083314, 3084812, 3074360, 3092270, 3076977, 3051685, 3082477, 3082282, 3082427, 3077163, 3087219, 3074187, 3082431, 3050562, 3072430, 3077072, 3077060, 3046875, 3082991, 3083473, 3051059, 3091256, 3074912, 3058993, 3063987, 3072500, 3060661, 3076188, 3049652, 2902475, 3087946, 3116848, 3010502, 3118090, 3078875, 3069298, 3074121, 3083426, 3086841, 3104368, 3061328 |
Numéros CVE associés | CVE-2023-1017, CVE-2023-1018 |
Nom | ESXi |
Version | ESXi70U3sl-21422485 |
Date de publication | 30 mars 2023 |
Catégorie | Sécurité |
Composants concernés |
|
PR résolus | 3091480 |
Numéros CVE associés | CVE-2023-1017, CVE-2023-1018 |
Problèmes connus
Les problèmes connus sont classés comme suit :
- Problèmes d'installation, de mise à niveau et de migration
- Problèmes connus depuis les versions précédentes
- Après une mise à niveau vers ESXi 7.0 Update 3l, certains hôtes ESXi et certaines machines virtuelles connectés aux commutateurs virtuels peuvent perdre la connexion au réseau
Après une mise à niveau vers ESXi 7.0 Update 3l, certains hôtes ESXi, leurs machines virtuelles et d'autres ports VMkernel, tels que les ports utilisés par vSAN et vSphere Replication, qui sont connectés à des commutateurs virtuels, peuvent perdre la connectivité en raison d'une modification inattendue de la stratégie d'association de cartes réseau. Par exemple, la stratégie d'association d'un groupe de ports peut passer de Route basée sur le hachage IP à Route basée sur le port virtuel d'origine. Par conséquent, un tel groupe de ports peut perdre la connectivité réseau et certains hôtes ESXi et leurs machines virtuelles deviennent inaccessibles.
Solution : reportez-vous à l'article 91887 de la base de connaissances VMware.
- Après la mise à niveau du pilote ntg3 vers la version 4.1.9.0-4vmw, les cartes réseau Broadcom avec connectivité physique fibre peuvent perdre la connexion au réseau
Les modifications apportées à la version du pilote
ntg3
4.1.9.0-4vmw
peuvent entraîner des problèmes de liaison pour la couche physique de la fibre et la connectivité sur certaines cartes réseau, telles que Broadcom 1Gb, ne peut pas être effectuée.Solution : reportez-vous à l'article 92035 de la base de connaissances VMware.
- Des partitions VFAT endommagées d'un environnement vSphere 6.7 peuvent entraîner l'échec des mises à niveau vers ESXi 7.x
En raison de partitions VFAT endommagées à partir d'un environnement vSphere 6.7, le repartitionnement des disques de démarrage d'un hôte ESXi peut échouer lors d'une mise à niveau vers ESXi 7.x. Par conséquent, vous pouvez voir les erreurs suivantes :
Lors de la mise à niveau vers ESXi 7.0 Update 3l, l'opération échoue avec un écran de diagnostic violet et/ou une erreur telle que :Une erreur s'est produite lors de la sauvegarde des fichiers de partition VFAT avant le repartitionnement : Échec du calcul de la taille du ramdisk temporaire :
.<erreur> Une erreur s'est produite lors de la sauvegarde des fichiers de partition VFAT avant le repartitionnement : Échec de la copie des fichiers sur le ramdisk :
.<erreur>
Si vous utilisez un programme d'installation ISO, les erreurs s'affichent, mais pas l'écran de diagnostic violet.
Lors de la mise à niveau vers une version d'ESXi 7.x antérieure à la version 7.0 Update 3l, vous pouvez voir :
- Les journaux tels que
ramdisk (root) is full
dans le fichiervmkwarning.log
. - Restauration inattendue vers ESXi 6.5 ou 6.7 lors du redémarrage.
- Les partitions
/bootbank
,/altbootbank
et ESX-OSData sont absentes.
Solution : vous devez d'abord corriger les partitions endommagées avant de terminer la mise à niveau vers ESXi 7.x. Pour plus de détails, consultez l'article 91136 de la base de connaissances VMware.