ESXi 7.0 Update 3l | 30 mars 2023 | Build ISO 21424296

Vérifiez les compléments et les mises à jour pour ces notes de mise à jour.

Contenu des notes de mise à jour

Les notes de mise à jour couvrent les sujets suivants :

IMPORTANT : si votre système source contient des hôtes dont les versions sont comprises entre ESXi 7.0 Update 2 et Update 3c, et inclut des pilotes Intel, avant de procéder à la mise à niveau vers ESXi 7.0 Update 3l, reportez-vous à la section Nouveautés des Notes de mise à jour de VMware vCenter Server 7.0 Update 3c, car tout le contenu de cette section s'applique également à vSphere 7.0 Update 3l. Consultez également les articles associés de la base de connaissances VMware : 86447, 87258 et 87308

Nouveautés

  • ESXi 7.0 Update 3l prend en charge vSphere Quick Boot sur les serveurs suivants :
    • HPE
      •        Cray XD225v
      •        Cray XD295v
      •        ProLiant DL325 Gen11
      •        ProLiant DL345 Gen11
      •        ProLiant DL365 Gen11
      •        ProLiant DL385 Gen11
      •        Synergy 480 Gen11
    •    Dell
      •        PowerEdge C6620
      •        PowerEdge MX760c
      •        PowerEdge R660
      •        PowerEdge R6615
      •        PowerEdge R6625
      •        PowerEdge R760
      •        PowerEdge R7615
      •        PowerEdge R7625
         
  • Cette version résout la vulnérabilité critique CVE-2023-1017. VMware a évalué que ce problème se situe dans la plage de gravité faible avec un score de base CVSSv3 maximal de 3,3.
     
  • Cette version résout la vulnérabilité critique CVE-2023-1018. VMware a évalué que ce problème se situe dans la plage de gravité faible avec un score de base CVSSv3 maximal de 3,3.

Versions antérieures d'ESXi 7.0

Les nouvelles fonctionnalités ainsi que les problèmes résolus et connus d'ESXi sont décrits dans les notes de mise à jour de chaque version. Notes de mise à jour des versions antérieures à ESXi 7.0 :

Pour plus d'informations sur l'internationalisation, la compatibilité et les composants open source, consultez les Notes de mise à jour de VMware vSphere 7.0.

Correctifs contenus dans cette version

La version 7.0 Update 3l d'ESXi fournit les correctifs suivants :

Détails de la build

Nom de fichier de téléchargement : VMware-ESXi-7.0U3l-21424296-depot
Build : 21424296
Taille du téléchargement : 570,6 Mo
md5sum : bc8be7994ff95cf45e218f19eb38a4f1
sha256checksum : a85acc0fab15d5c2744e6b697817961fde3979eddfc4dd1af07c83731f2f87cf
Redémarrage de l'hôte requis : Oui
Migration ou arrêt de la machine virtuelle requis : Oui

Composants

Composant Bulletin Catégorie Gravité
Composant ESXi - VIB ESXi principaux ESXi_7.0.3-0.85.21424296 Correctif de bogues Critique
Composant d'installation/mise à niveau d'ESXi esx-update_7.0.3-0.85.21424296 Correctif de bogues Critique
Broadcom NetXtreme I Pilote Ethernet ESX VMKAPI Broadcom-ntg3_4.1.9.0-4vmw.703.0.85.21424296 Correctif de bogues Critique
Pilote de contrôleur de mémoire non volatile VMware-NVMe-PCIe_1.2.3.16-2vmw.703.0.85.21424296 Correctif de bogues Critique
Pilote natif USB pour VMware VMware-vmkusb_0.1-8vmw.703.0.85.21424296 Correctif de bogues Critique
Composant ESXi - VIB ESXi principaux ESXi_7.0.3-0.80.21422485 Sécurité Critique
Composant d'installation/mise à niveau d'ESXi esx-update_7.0.3-0.80.21422485 Sécurité Critique
Composant ESXi Tools VMware-VM-Tools_12.1.5.20735119-21422485 Sécurité Critique
 

IMPORTANT :

  • À partir de vSphere 7.0, VMware utilise des composants pour le conditionnement des VIB avec des bulletins. Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte. 
  • Lorsque vous appliquez un correctif aux hôtes ESXi à l'aide de VMware Update Manager à partir d'une version antérieure à ESXi 7.0 Update 2, il est vivement recommandé d'utiliser le bulletin de cumul dans la ligne de base de correctifs. Si vous ne pouvez pas utiliser le bulletin de cumul, assurez-vous d'inclure tous les modules suivants dans la ligne de base de correctifs. Si les modules suivants ne sont pas inclus dans la ligne de base, l'opération de mise à jour échoue :
    • VMware-vmkusb_0.1-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-vmkata_0.1-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 ou version ultérieure

Bulletin de cumul

Ce bulletin de cumul contient les derniers VIB avec tous les correctifs postérieurs à la publication initiale d'ESXi 7.0.

ID de bulletin Catégorie Gravité Détails
ESXi70U3l-21424296 Correctif de bogues Critique Sécurité et correctif de bogues
ESXi70U3sl-21422485 Sécurité Critique Sécurité uniquement

Profils d'image

Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques. L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.

Nom de profil d'image
ESXi-7.0U3l-21424296-standard
ESXi-7.0U3l-21424296-no-tools
ESXi-7.0U3sl-21422485-standard
ESXi-7.0U3sl-21422485-no-tools

Image ESXi

Nom et version Date de publication Catégorie Détail
ESXi7.0U3l - 21424296 30 mars 2023 Correctif de bogues Image de sécurité et de résolutions de bogues
ESXi7.0U3sl - 21422485 30 mars 2023 Sécurité Image de sécurité uniquement

Pour plus d'informations sur les composants et bulletins individuels, reportez-vous à la page Correctifs de produits et à la section Problèmes résolus.

Téléchargement et installation de correctifs

Dans vSphere 7.x, le plug-in Update Manager, utilisé pour l'administration de vSphere Update Manager, est remplacé par le plug-in Lifecycle Manager. Les opérations d'administration pour vSphere Update Manager sont toujours disponibles sous le plug-in Lifecycle Manager, avec de nouvelles capacités pour vSphere Lifecycle Manager.
La manière habituelle d'appliquer des correctifs aux hôtes ESXi 7.x consiste à utiliser vSphere Lifecycle Manager. Pour plus d'informations, consultez À propos de vSphere Lifecycle Manager et Lignes de base et images de vSphere Lifecycle Manager.
Vous pouvez également mettre à jour des hôtes ESXi sans utiliser le plug-in Lifecycle Manager et utiliser un profil d'image à la place. Pour ce faire, vous devez télécharger manuellement le fichier ZIP du bundle hors ligne du correctif à partir de VMware Customer Connect. Dans le menu déroulant Sélectionner un produit, sélectionnez ESXi (intégré et installable), puis, dans le menu déroulant Sélectionner une version, sélectionnez 7.0. Pour plus d'informations, consultez Mise à niveau des hôtes à l'aide des commandes ESXCLI et le guide Mise à niveau de VMware ESXi.

Remarques relatives à la prise en charge du produit

  • La restauration de snapshots de mémoire d'une machine virtuelle avec un disque indépendant pour les sauvegardes de machine virtuelle n'est pas prise en charge : Vous pouvez prendre un snapshot de mémoire d'une machine virtuelle avec un disque indépendant uniquement pour analyser le comportement du système d'exploitation invité d'une machine virtuelle. Vous ne pouvez pas utiliser ces snapshots pour les sauvegardes de machine virtuelle, car la restauration de ce type de snapshots n'est pas prise en charge. Vous pouvez convertir un snapshot de mémoire en snapshot hors tension, qui peut être restauré.

Problèmes résolus

Les problèmes résolus sont regroupés comme suit :

ESXi_7.0.3-0.85.21424296
Catégorie des correctifs Correctif de bogues
Gravité des correctifs Critique
Redémarrage de l'hôte requis Oui
Migration ou arrêt de la machine virtuelle requis Oui
Matériel concerné S.O.
Logiciels concernés S.O.
VIB affectés inclus
  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.85.21424296
  • VMware_bootbank_vsan_7.0.3-0.85.21424296
  • VMware_bootbank_bmcal_7.0.3-0.85.21424296
  • VMware_bootbank_crx_7.0.3-0.85.21424296
  • VMware_bootbank_esx-ui_2.9.2-21141530
  • VMware_bootbank_esxio-combiner_7.0.3-0.85.21424296
  • VMware_bootbank_vsanhealth_7.0.3-0.85.21424296
  • VMware_bootbank_native-misc-drivers_7.0.3-0.85.21424296
  • VMware_bootbank_gc_7.0.3-0.85.21424296
  • VMware_bootbank_cpu-microcode_7.0.3-0.85.21424296
  • VMware_bootbank_vdfs_7.0.3-0.85.21424296
  • VMware_bootbank_esx-xserver_7.0.3-0.85.21424296
  • VMware_bootbank_esx-base_7.0.3-0.85.21424296
  • VMware_bootbank_trx_7.0.3-0.85.21424296
PR résolus 3057026, 3062185, 3040049, 3061156, 3023389, 3062861, 3089449, 3081870, 3082900, 3033157, 3090683, 3075786, 3074392, 3081275, 3080022, 3083314, 3084812, 3074360, 3092270, 3076977, 3051685, 3082477, 3082282, 3082427, 3077163, 3087219, 3074187, 3082431, 3050562, 3072430, 3077072, 3077060, 3046875, 3082991, 3083473, 3051059, 3091256, 3074912, 3058993, 3063987, 3072500, 3060661, 3076188, 3049652, 2902475, 3087946, 3116848, 3010502, 3118090, 3078875, 3069298, 3074121
Numéros CVE CVE-2023-1017, CVE-2023-1018

Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.

Met à jour les VIB esx-dvfilter-generic-fastpath, vsan, bmcal, crx, esx-ui, esxio-combiner, vsanhealth, native-misc-drivers, gc, cpu-microcode, vdfs, esx-xserver, esx-base et trx pour résoudre les problèmes suivants :

  • PR 3057026 : lorsque vous modifiez le paramètre NUMA de nœuds par socket (NPS) sur un serveur AMD EPYC 9004 « Genoa » qui est par défaut de 1, vous pouvez voir un nombre de sockets incorrect

    Dans vSphere Client et ESXi Host Client, vous pouvez voir un nombre de sockets incorrect et respectivement de cœurs par socket lorsque vous modifiez le paramètre NPS sur un serveur AMD EPYC 9004 de la valeur par défaut 1, ou Auto, pour une autre valeur, telle que 2 ou 4.

    Ce problème est résolu dans cette version.

  • PR 3062185 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors d'une opération de vSphere Storage vMotion ou de l'ajout à chaud d'un périphérique

    En raison d'une condition de concurrence rare lors d'une opération de reprise d'interruption rapide (FSR) sur une machine virtuelle avec des pages partagées entre les machines virtuelles, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur telle que PFrame_IsBackedByLPage dans la trace de débogage. Ce problème se produit lors des opérations de vSphere Storage vMotion ou de l'ajout à chaud d'un périphérique.

    Ce problème est résolu dans cette version. 

  • PR 3040049 : les performances de l'utilitaire pktcap-uw se dégradent lors de l'utilisation de l'option -c pour compter les paquets dans un trafic réseau intense

    La capture de paquets avec l'option -c de l'utilitaire pktcap-uw en cas de trafic réseau intense peut être plus lente que la capture de paquets sans l'option. Vous pouvez également observer un retard dans la capture des paquets, de sorte que le dernier module compté présente un horodatage antérieur de quelques secondes à l'heure d'arrêt de la fonction. Ce problème provient de la fonction File_GetSize de vérification des tailles de fichier, qui est lente dans les environnements VMFS et entraîne de faibles performances de pktcap-uw.

    Ce problème est résolu dans cette version. Le correctif modifie la fonction File_GetSize avec la fonction lseek pour améliorer les performances.

  • PR 3061156 : le démon DCB (Data Center Bridging) sur un hôte ESXi peut générer un débordement de journaux dans Syslog

    Dans le fichier syslog, vous pouvez voir des messages de journal fréquents tels que :
    2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] *** Received pre-CEE DCBX Packet on port: vmnicX
    2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info]2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Src MAC: xc:xc:X0:0X:xc:xx
    2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Dest MAC: X0:xb:xb:fx:0X:X1
    2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] 2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Port ID TLV:
    2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] ifName:

    Ce problème se produit, car le démon DCB (Data Center Bridging), dcbd, sur l'hôte ESXi enregistre des messages inutiles dans /var/log/syslog.log. Par conséquent, le fichier journal peut rapidement se remplir de journaux dcbd.

    Ce problème est résolu dans cette version.

  • PR 3023389 : vous voyez jusqu'à 100 % d'utilisation du CPU sur l'un des cœurs d'un hôte ESXi en raison d'un appel système à délai d'attente anticipé

    Dans certains cas, un appel système timed-wait dans VMkernel peut revenir trop tôt. Par conséquent, certaines applications, telles que System Health Agent, peuvent prendre jusqu'à 100 % de l'utilisation du CPU sur l'un des cœurs d'hôte ESXi.

    Ce problème est résolu dans cette version.

  • PR 3062861 : les détails de l'image de machine virtuelle ne s'affichent pas dans l'onglet Résumé de vSphere Client

    En raison d'un problème avec les interfaces de bouclage IPv6, vous ne pourrez peut-être pas voir les détails de l'image de machine virtuelle dans l'onglet Résumé de vSphere Client.

    Ce problème est résolu dans cette version.

  • PR 3089449 : si le nombre de chemins à partir d'un hôte ESXi utilisant SATP ALUA vers le stockage dépasse 255, vous pouvez voir une latence d'E/S dans certaines machines virtuelles

    Si le nombre de chemins à partir d'un hôte ESXi utilisant NMP SATP ALUA vers le stockage dépasse 255, ESXi ignore une partie des informations ALUA signalées par la cible et conserve de manière incorrecte une partie de l'état du chemin comme étant active et optimisée. Par conséquent, certaines E/S utilisent le chemin non optimisé vers le périphérique de stockage et provoquent des problèmes de latence.

    Ce problème est résolu dans cette version. Le correctif s'assure que, lorsque la longueur de réponse RTPG est supérieure à la longueur de tampon préallouée, ESXi réalloue le tampon RTPG avec la taille requise et émet à nouveau la commande RTPG.

  • PR 3081870 : le processus de redémarrage de l'hôte ESXi s'arrête avec le message « initializing init_VMKernelShutdownHelper: (14/39) ShutdownSCSICleanupForDevTearDown »

    Dans certains cas, lors de l'arrêt d'un hôte ESXi, les files d'attente d'aide des demandes de sonde de périphérique sont supprimées, mais la référence au périphérique subsiste. Par conséquent, le redémarrage de l'hôte ESXi s'arrête, avec un message tel que initializing init_VMKernelShutdownHelper: (14/39) ShutdownSCSICleanupForDevTearDown dans l'interface utilisateur de la console directe (DCUI).

    Ce problème est résolu dans cette version. Le correctif ajoute une fonction d'annulation associée aux demandes d'aide qui décrémentent les références de périphérique lors de la suppression des demandes de file d'attente d'aide.

  • PR 3082900 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors d'une opération Instant Clone de VM

    En raison d'une condition de concurrence lors d'une opération Instant Clone, les pages mémoire de machine virtuelle peuvent être endommagées et l'hôte ESXi peut échouer avec un écran de diagnostic violet. Vous voyez des erreurs telles que VmMemMigrate_MarkPagesCow ou AsyncRemapProcessVMRemapList dans la trace de débogage.

    Ce problème est résolu dans cette version.

  • PR 3033157 : le basculement de stockage peut prendre du temps, car des analyses répétées peuvent être nécessaires pour mettre en ligne tous les chemins vers un LUN

    Dans certains environnements avec des plug-ins SATP tels que satp_alua et satp_alua_cx, la mise en ligne de tous les chemins vers un LUN peut nécessiter plusieurs analyses. Par conséquent, une opération de basculement de stockage peut prendre du temps. Par exemple, avec 4 chemins vers un LUN, la mise en ligne de ces 4 chemins peut prendre jusqu'à 20 minutes.

    Ce problème est résolu dans cette version.

  • PR 3090683 : les balises vSphere de machine virtuelle peuvent être perdues après des opérations vSphere vMotion sur des instances de vCenter Server

    Après des opérations vSphere vMotion dans des instances de vCenter Server pour les machines virtuelles qui disposent de balises vSphere, il est possible que ces balises n'existent pas dans l'emplacement cible. Ce problème se produit uniquement dans les opérations de migration entre des instances de vCenter Server qui ne partagent pas de stockage.

    Ce problème est résolu dans cette version.

  • PR 3075786 : le mode de filtre multidiffusion d'un NSX Virtual Switch peut revenir par intermittence d'hérité à écoute

    Lorsque vous définissez le mode de filtre multidiffusion d'un NSX Virtual Switch pour NVDS, le mode peut revenir par intermittence d'hérité à écoute.

    Ce problème est résolu dans cette version. Si vous êtes déjà confronté à ce problème, effacez la propriété obsolète sur le NVDS en effectuant les étapes suivantes :

    1. Exécutez la commande net-dvs sur l'hôte ESXi et vérifiez si com.vmware.etherswitch.multicastFilter est défini sur le NVDS. Si com.vmware.etherswitch.multicastFilter n'est pas défini, aucune étape supplémentaire n'est requise.
    2. Si la propriété com.vmware.etherswitch.multicastFilter est définie, utilisez la commande suivante pour l'effacer :
      net-dvs -u com.vmware.etherswitch.multicastFilter -p globalPropList <NVDS name>
  • PR 3074392 : le service IOFilterVP s'arrête lorsque vous exécutez une analyse Nessus sur un hôte ESXi

    Lorsque vous exécutez une analyse Nessus, qui exécute en interne une analyse SYN, pour détecter les ports actifs sur un hôte ESXi, le service iofiltervpd peut s'arrêter. Le service ne peut pas être redémarré dans le nombre maximal de tentatives en raison de l'analyse SYN.

    Ce problème est résolu dans cette version. Le correctif s'assure que le service IOFilterVP gère l'échec de connexion possible en raison d'analyses SYN.

  • PR 3081275 : vous ne voyez aucune modification dans la configuration ESXi après l'exécution d'une procédure de restauration de la configuration et le redémarrage de l'hôte ESXi

    Si un VIB contenant un nouveau module de noyau est installé avant l'exécution de l'une des procédures de restauration de configuration décrites dans l'article 2042141 de la base de connaissances VMware, vous ne voyez aucune modification dans la configuration après le redémarrage de l'hôte ESXi. Par exemple, si vous tentez de restaurer la configuration ESXi immédiatement après l'installation du VIB NSX, l'hôte ESXi redémarre, mais aucune modification de la configuration n'est visible. Ce problème se produit en raison d'une erreur logique dans les mises à jour de la partition de la banque de démarrage utilisée pour le redémarrage de l'hôte ESXi après l'installation d'un nouveau VIB de module de noyau.

    Ce problème est résolu dans cette version.

  • PR 3080022 : la liste des fichiers sur le stockage Azure NFS 4.1 monté peut ne pas fonctionner comme prévu

    La liste des fichiers du stockage Azure NFS 4.1 monté peut ne pas fonctionner comme prévu, car même si les fichiers existent et qu'il est possible de les ouvrir par nom, l'exécution de la commande ls sur un hôte ESXi à l'aide de SSH n'affiche aucun fichier.

    Ce problème est résolu dans cette version. 

  • PR 3083314 : les propriétés NFC (Network File Copy) dans le fichier vpxa.cfg peuvent entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet lors de la mise à niveau

    À partir d'ESXi 7.0 Update 1, le fichier vpxa.cfg n'existe plus et la configuration vpxa appartient au magasin de configuration d'ESXi (ConfigStore). Lorsque vous mettez à niveau un hôte ESXi à partir d'une version antérieure à la version 7.0 Update 1 vers une version ultérieure, les champs Vpx.Vpxa.config.nfc.loglevel et Vpx.Vpxa.config.httpNfc.accessMode dans le fichier vpxa.cfg peuvent entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet lors de la conversion du format vpxa.cfg vers le format ConfigStore. Ce problème se produit en raison de différences dans le niveau de journalisation NFC entre vpxa.cfg et ConfigStore, et les valeurs sensibles à la casse.

    Ce problème est résolu dans cette version. Le correctif supprime les règles strictes sensibles à la casse et mappe le niveau de journal NFC avec leurs ConfigStore équivalents. Pour plus d'informations, reportez-vous à l'article 90865 de la base de connaissances VMware. 

  • PR 3084812 : les machines virtuelles peuvent mettre plus de temps à répondre ou cesser temporairement de répondre lorsque vSphere DRS déclenche plusieurs opérations de migration

    Dans de rares cas, plusieurs opérations d'ouverture et de fermeture simultanées sur des banques de données, par exemple lorsque vSphere DRS déclenche plusieurs tâches de migration, peuvent faire que des machines virtuelles mettent plus de temps à terminer des E/S de disque en vol. Par conséquent, ces machines virtuelles peuvent mettre plus de temps à répondre ou cessent de répondre pendant une courte période. Ce problème est plus susceptible de se produire sur des machines virtuelles disposant de plusieurs disques virtuels sur différentes banques de données.

    Ce problème est résolu dans cette version.

  • PR 3074360 : après un appel d'API pour recharger une machine virtuelle, la carte réseau virtuelle de la machine virtuelle peut se déconnecter d'un port de commutateur logique (LSP)

    Lors d'un appel d'API pour recharger une machine virtuelle d'un hôte ESXi vers un autre, l'élément externalId dans le fichier de données du port de machine virtuelle peut être perdu. Par conséquent, après le rechargement de la machine virtuelle, la carte réseau virtuelle de la machine virtuelle peut ne pas être en mesure de se connecter à un LSP.

    Ce problème est résolu dans cette version.

  • PR 3092270 : VMware Host Client ne parvient pas à attacher un disque virtuel existant à une machine virtuelle

    Après la mise à niveau vers ESXi 7.0 Update 3i, vous ne pourrez peut-être pas attacher un disque de machine virtuelle (VMDK) existant à une machine virtuelle à l'aide de VMware Host Client, qui est utilisé pour vous connecter à des hôtes ESXi uniques et les gérer. Le problème n'affecte pas vSphere Client.

    Ce problème est résolu dans cette version.

  • PR 3076977 : l'hôte ESXi peut échouer avec un écran de diagnostic violet en raison d'un problème rare avec la suppression de la référence d'un pointeur libéré

    En raison d'une condition de concurrence entre les workflows Créer et Supprimer un pool de ressources, un pointeur libéré dans le cache du pool de ressources VMFS peut être déréférencé. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur semblable à celle-ci :
    @BlueScreen: #PF Exception 14 in world 2105491:res3HelperQu IP 0x420032a21f55 addr 0x0

    Ce problème est résolu dans cette version.

  • PR 3051685 : l'API QueryUnresolvedVmfsVolume par lot peut prendre du temps pour répertorier un grand nombre de volumes VMFS non résolus

    Avec l'API QueryUnresolvedVmfsVolume de traitement par lots, vous pouvez interroger et répertorier des volumes VMFS ou des snapshots de LUN non résolus. Vous pouvez ensuite utiliser d'autres API de traitement par lots pour effectuer des opérations, telles que signer à nouveau des volumes VMFS non résolus spécifiques. Par défaut, lorsque l'API QueryUnresolvedVmfsVolume est appelée sur un hôte, le système effectue un contrôle de réactivité du système de fichiers supplémentaire pour tous les volumes non résolus détectés. Le contrôle de réactivité effectué détecte si le LUN spécifié est monté sur d'autres hôtes, si un signal de pulsation VMFS actif est en cours ou si un système de fichiers est actif. Cette opération prend du temps et nécessite au moins 16 secondes par LUN. Par conséquent, lorsque votre environnement se compose d'un grand nombre de LUN de snapshot, l'opération d'interrogation et d'établissement de liste peut prendre un certain temps.

    Ce problème est résolu dans cette version.

  • PR 3082477 : l'arrêt du cluster vSAN échoue avec l'erreur : l'objet « NoneType » n'a pas d'attribut « _moId »

    Ce problème peut se produire lorsque vCenter gère plusieurs clusters et que la machine virtuelle vCenter s'exécute sur l'un des clusters. Si vous arrêtez le cluster sur lequel réside la machine virtuelle vCenter, l'erreur suivante peut se produire lors de l'opération d'arrêt : 'NoneType' object has no attribute '_moId'. La VM vCenter n'est pas hors tension

    Ce problème est résolu dans cette version.

  • PR 3082282 : vous ne voyez pas l'option Redémarrer le cluster dans vSphere Client après l'arrêt de plusieurs clusters vSAN

    Ce problème peut se produire lorsque vCenter gère plusieurs clusters et exécute plusieurs opérations d'arrêt et de redémarrage de cluster en parallèle. Par exemple, si vous arrêtez 3 clusters et redémarrez le service de santé vSAN ou la machine virtuelle vCenter, puis que vous redémarrez l'un des 3 clusters avant les autres, l'option Redémarrer le cluster peut être disponible pour le premier cluster vSAN, mais pas pour les autres clusters.

    Ce problème est résolu dans cette version.

  • PR 3082427 : une alerte de décalage de l'heure inattendu s'affiche sur les clusters vSAN gérés par le même vCenter Server

    Un décalage de l'heure inattendu peut se produire par intermittence sur un cluster vSAN lorsqu'un seul vCenter Server gère plusieurs clusters vSAN, en raison de retards internes dans les demandes VPXA. Dans vSphere Client, dans l'onglet Santé de vSAN vous voyez que l'état de L'heure est synchronisée entre les hôtes et VC passe de vert à jaune et revient à vert.

    Ce problème est résolu dans cette version.

  • PR 3077163 : lorsque l'option avancée ToolsRamdisk est active sur un hôte ESXi, après une mise à niveau de VM Tools, les nouvelles versions ne sont pas disponibles pour les machines virtuelles

    Lorsque vous activez l'option avancée ToolsRamdisk qui s'assure que la partition /vmtools se trouve toujours sur un disque RAM plutôt que sur une carte USB ou SD, l'installation ou la mise à jour du VIB tools-light ne met pas automatiquement à jour le contenu du disque RAM. Au lieu de cela, vous devez redémarrer l'hôte afin que le disque RAM soit mis à jour et que la nouvelle version de VM Tools soit disponible pour les machines virtuelles.

    Ce problème est résolu dans cette version. Le correctif s'assure que, lorsque ToolsRamdisk est activé, VM Tools se met à jour automatiquement, sans nécessiter d'étapes manuelles ou un redémarrage.

  • PR 3087219 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet après une opération de migration

    Une condition de concurrence rare causée par la récupération de mémoire pour certains processus d'optimisation des performances dans vSphere vMotion peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version.

  • PR 3074187 : les hôtes ESXi échouent de manière aléatoire avec un écran de diagnostic violet et une erreur telle qu'Exception 14 in world #######

    Si votre environnement dispose de clusters de blocs de fichiers de petite et de grande taille mappés à une règle d'affinité, lorsque vous ajoutez un cluster, le gestionnaire d'affinité peut allouer plus de blocs pour les fichiers que le volume réel de la banque de données. Par conséquent, les hôtes ESXi échouent de manière aléatoire avec un écran de diagnostic violet et une erreur Exception 14 in world #######.

    Ce problème est résolu dans cette version.

  • PR 3082431 : l'historique de santé vSAN n'a aucune donnée disponible pour la période sélectionnée

    Ce problème se produit lorsque vous affichez les détails de santé d'un contrôle de santé dans la vue historique. Dans vSphere Client, dans l'onglet Skyline Health, vous voyez un message tel qu'Aucune donnée disponible pour la période sélectionnée. Ce problème se produit lorsqu'une requête sur les enregistrements de santé historiques échoue en raison d'horodatages avec un fuseau horaire incorrect.

    Ce problème est résolu dans cette version. 

  • PR 3050562 : vous pouvez voir des valeurs d'installation et de gravité incorrectes dans les messages de journal Syslog d'ESXi

    La commande d'enregistreur automatique de certains clients de journalisation peut ne pas transmettre le code d'installation approprié au démon Syslog d'ESXi et provoquer des valeurs d'installation ou de gravité incorrectes dans les messages du journal Syslog d'ESXi.

    Ce problème est résolu dans cette version.

  • PR 3072430 : une condition de concurrence rare dans la file d'attente planifiée du gestionnaire de volume logique (LVM, Logical Volume Manager) peut entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet

    Dans de rares cas, lors d'une charge de travail importante, deux tâches LVM qui effectuent des mises à jour et des requêtes sur la planification du périphérique dans un hôte ESXi peuvent s'exécuter en parallèle et provoquer un problème de synchronisation. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et des messages semblables à [email protected]#nover+0x1018 stack: 0xXXXXX and Addr3ResolvePhysVector@esx#nover+0x68 stack: 0xXXXX dans la trace de débogage.

    Ce problème est résolu dans cette version.

  • PR 3077072 : lorsqu'un hôte ESXi démarre, certains portails cibles iSCSI et LUN iSCSI détectés dynamiquement peuvent être supprimés

    Dans certains cas, pendant qu'un hôte ESXi démarre, certaines cibles iSCSI découvertes dynamiquement peuvent être supprimées. Par conséquent, une fois le démarrage terminé, vous risquez de ne plus voir certains LUN iSCSI. Ce problème est plus susceptible de se produire dans les environnements avec le protocole CHAP
    (Challenge-Handshake Authentication Protocol) activé pour iSCSI.

    Ce problème est résolu dans cette version.

  • PR 3077060 : VMware Host Client ou vSphere Client arrête par intermittence d'afficher les adaptateurs iSCSI logiciels

    Dans les environnements occupés avec de nombreuses réanalyses à l'aide d'un adaptateur iSCSI logiciel, VMware Host Client peut cesser d'afficher l'adaptateur par intermittence. Ce problème se produit uniquement avec les baies cibles qui renvoient des portails cibles avec des adresses IPv4 et IPv6 lors de la découverte à l'aide de la méthode SendTargets.

    Ce problème est résolu dans cette version.

  • PR 3046875 : La désactivation de Storage I/O Control sur les banques de données entraîne des E/S de lecture élevées sur tous les hôtes ESXi

    Un problème rare lors du calcul de la profondeur maximale de file d'attente par périphérique de banque de données peut entraîner des avertissements d'attente de profondeur de file d'attente de la couche SCSI sous-jacente. Par conséquent, lorsque vous désactivez Storage I/O Control sur les banques de données, vous pouvez voir des E/S de lecture élevées sur tous les hôtes ESXi.

    Ce problème est résolu dans cette version.

  • PR 3082991 : après une mise à niveau vers ESXi 7.0 Update 3 et versions ultérieures, vous pouvez voir plusieurs fichiers -1.log pour remplir le répertoire racine

    En raison d'une configuration manquante pour stats-log dans le fichier /etc/vmware/vvold/config.xml, plusieurs fichiers -1.log peuvent remplir la partition /ramdisk après une mise à niveau vers ESXi 7.0 Update 3 et versions ultérieures.

    Ce problème est résolu dans cette version.

  • PR 3083473 : le nom d'utilisateur ou le mot de passe dans le proxy ne peut pas inclure de caractère d'échappement

    Si un nom d'utilisateur ou un mot de passe dans un proxy réseau contient un caractère d'échappement, l'environnement ne parvient pas à envoyer de demandes réseau via le proxy.

    Ce problème est résolu dans cette version. Le correctif s'assure que le nom d'utilisateur ou le mot de passe fonctionne correctement, même avec des caractères non échappés.

  • PR 3051059 : la commande esxcli system ntp test ne parvient pas à résoudre l'adresse IP d'un serveur NTP configuré avec des paramètres supplémentaires avec le nom d'hôte

    Si vous configurez un serveur NTP sur un hôte ESXi avec des paramètres supplémentaires avec hostname, tels que min_poll ou max_poll, la commande esxcli system ntp test peut échouer à résoudre l'adresse IP de ce serveur. Ce problème se produit, car dans de telles configurations, la résolution de nom NTP s'applique à l'intégralité de la configuration du serveur, plutôt qu'au nom d'hôte uniquement.

    Ce problème est résolu dans cette version.

  • PR 3091256 : après la mise à niveau vers ESXi 7.0 Update 2 et versions ultérieures, les machines virtuelles peuvent ne pas être en mesure de communiquer correctement avec certains périphériques USB connectés aux machines virtuelles

    Après la mise à niveau vers ESXi 7.0 Update 2 et versions ultérieures, une machine virtuelle peut ne pas découvrir certains périphériques USB qui lui sont attachés, tels qu'un UPS USB Eaton, et ne pas communiquer correctement avec le périphérique.

    Ce problème est résolu dans cette version.

  • PR 3074912 : si vous modifiez la banque de données d'une machine virtuelle clonée avant la mise sous tension initiale, les personnalisations du système d'exploitation invité peuvent être perdues

    Si vous clonez une machine virtuelle, y compris les spécifications de personnalisation d'invité, déplacez le fichier VMDK vers une autre banque de données et le provisionnez de manière statique, puis mettez sous tension la machine virtuelle, la personnalisation du système d'exploitation invité peut ne pas être conservée. Dans les journaux hostd, vous voyez une description du type d'événement telle que The customization component failed to set the required parameters inside the guest operating system.
    Ce problème se produit, car lors du déplacement du fichier VMDK de la machine virtuelle clonée vers une autre banque de données, le nouveau pathName pour la personnalisation du système d'exploitation invité peut être temporairement identique à oldPathName et le module est supprimé.

    Ce problème est résolu dans cette version.

  • PR 3058993 : les tâches liées aux machines virtuelles peuvent échouer lorsque vous utilisez le filtrage VAIO (vSphere APIs for I/O Filtering) pour VMware ou des applications de sauvegarde tierces

    Un dimensionnement incorrect des besoins en ressources pour le service hostd sur un hôte ESXi peut entraîner l'échec de certaines tâches liées aux machines virtuelles lorsque vous utilisez le filtrage VAIO (vSphere APIs for I/O Filtering) pour VMware ou des applications de sauvegarde tierces. Par exemple, lorsqu'un filtre VAIO est attaché à un ou plusieurs disques virtuels d'une machine virtuelle, ces machines virtuelles peuvent échouer à effectuer des sauvegardes ou une mise sous tension après une sauvegarde.

    Ce problème est résolu dans cette version. Le correctif augmente le nombre de threads pour éviter les problèmes liés aux E/S avec les ressources hostd sur les hôtes ESXi.

  • PR 3063987 : la synchronisation du disque de première classe (FCD) peut échouer sur les banques de données NFSv3 et vous voyez des valeurs incohérentes dans les rapports Govc

    Un problème rare d'endommagement de fichier peut se produire lorsque plusieurs hôtes ESXi effectuent simultanément une opération d'ajout de fichier sur une banque de données NFSv3. Par conséquent, si vous utilisez l'utilitaire de ligne de commande open source Govc pour effectuer des actions administratives sur une instance de vCenter, vous pouvez voir des rapports avec des valeurs incohérentes. Par exemple, si vous exécutez la commande govc disk.ls pour répertorier tous les FCD d'une banque de données récemment créée, vous voyez un nombre de disques différent de ce que vous attendez.

    Ce problème est résolu dans cette version.

  • PR 3072500 : les hôtes ESXi échouent par intermittence avec un écran de diagnostic violet et une erreur VERIFY bora/vmkernel/sched/cpusched.c

    Dans de rares cas, lorsqu'un volume VMFS est fermé immédiatement après son ouverture, l'un des threads du processus d'ouverture peut concurrencer un thread dans le processus de fermeture et prendre un chemin rare de gestion des erreurs qui peut quitter sans déverrouiller un verrou spinlock verrouillé. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et un message dans la trace de débogage tel que : @BlueScreen: VERIFY bora/vmkernel/sched/cpusched.c:11154.

    Ce problème est résolu dans cette version.

  • PR 3060661 : les applications WSFC (Windows Server Failover Cluster) peuvent perdre la connectivité à un disque virtuel basé sur un volume après le lancement d'une opération de reliaison sur ce disque

    En raison de conflits de réservation, les applications WSFC peuvent perdre la connectivité à un disque virtuel basé sur un volume après une opération de reliaison sur ce disque.

    Ce problème est résolu dans cette version.

  • PR 3076188 : vSphere HA peut ne pas fonctionner comme prévu sur une banque de données vSAN après une coupure de courant

    Dans de rares cas, l'agent de gestion, Fault Domain Manager (FDM), que vSphere HA déploie sur les hôtes ESXi, peut ne pas parvenir à acquérir une banque de données vSAN lors de la première tentative avant qu'une condition exceptionnelle, comme une panne de courant, se produise. Par conséquent, le basculement vSphere HA des machines virtuelles sur cette banque de données peut ne pas aboutir. Dans vSphere Client, vous voyez un message tel que Cette machine virtuelle n'a pas pu être protégée par vSphere HA et vSphere HA risque de ne pas essayer de la redémarrer après un échec. Les tentatives successives de FDM d'acquisition de la banque de données vSAN peuvent également échouer.

    Ce problème est résolu dans cette version. Le correctif s'assure que les tentatives successives d'acquisition d'une banque de données vSAN après une condition exceptionnelle réussissent.

  • PR 3049652 : la mesure Alimentation|Énergie totale (Wh) des mesures de durabilité dans VMware vRealize Operations peut s'afficher dans des unités incorrectes

    Dans les mesures de durabilité de VMware vRealize Operations, vous pouvez voir une valeur Alimentation|Énergie totale (Wh) par machine virtuelle supérieure à l'hôte ESXi sur lequel la machine virtuelle est hébergée. Ce problème se produit, car après la mesure de l'énergie totale consommée par la machine virtuelle, le compteur de performances power.energy est calculé et indiqué en millijoules plutôt qu'en joules.

    Ce problème est résolu dans cette version.

  • PR 2902475 : les machines virtuelles Windows de version de matériel 19 sur lesquelles la sécurité basée sur la virtualisation (VBS) est activée peuvent échouer avec un écran de diagnostic bleu sur les hôtes ESXi s'exécutant sur des processeurs AMD

    Dans les hôtes ESXi s'exécutant sur des processeurs AMD, les machines virtuelles Windows de version de matériel 19 sur lesquelles la fonctionnalité VBS activée peuvent échouer avec un écran de diagnostic bleu en raison d'une erreur de configuration incorrecte du mode de processeur. Dans le fichier vmware.log, vous voyez des erreurs telles que vcpu-0 - WinBSOD: Synthetic MSR[0xx0000x00] 0xxxx.

    Ce problème est résolu dans cette version.

  • PR 3087946 : l'analyse de conformité de vSphere Lifecycle Manager peut afficher un avertissement pour un CPU pris en charge

    En raison d'une erreur interne, même si un modèle de CPU est répertorié comme étant pris en charge dans le Guide de compatibilité de VMware, vous pouvez voir dans vSphere Client un avertissement tel que Le CPU sur l'hôte n'est pas pris en charge par l'image lors d'une analyse de conformité à l'aide d'une image vSphere Lifecycle Manager. L'avertissement ne vous empêche pas de terminer une mise à jour ou une mise à niveau.

    Ce problème est résolu dans cette version.

  • PR 3116848 : les machines virtuelles sur lesquelles la sécurité basée sur la virtualisation (VBS) est activée peuvent échouer avec un écran de diagnostic bleu après une migration

    Lorsque vous migrez des machines virtuelles sur lesquelles VBS est activé et qui résident sur des hôtes ESXi exécutés sur des processeurs AMD, ces machines virtuelles peuvent échouer avec un écran de diagnostic bleu sur l'hôte cible en raison d'une erreur d'état d'interruption d'invité.

    Ce problème est résolu dans cette version.

  • PR 3010502 : si vous remplacez une stratégie de mise en réseau pour un groupe de ports, puis que vous annulez la modification, le remplacement persiste après un redémarrage de l'hôte ESXi

    Lorsque vous remplacez une stratégie de mise en réseau telle que l'association, la sécurité ou la formation d'un groupe de ports, puis que vous annulez la modification, après un redémarrage de l'hôte ESXi, vous pouvez toujours voir le paramètre de remplacement. Par exemple, si vous acceptez l'activation du mode promiscuité au niveau d'un groupe de ports, puis rétablissez le mode sur Rejeter et redémarrez l'hôte ESXi, le paramètre est toujours Accepter.

    Ce problème est résolu dans cette version.

  • PR 3118090 : l'attribut de saisie automatique dans les formulaires pour l'accès Web n'est pas désactivé dans les champs Mot de passe et Nom d'utilisateur

    Votre serveur Web distant peut contenir un champ de formulaire HTML avec une entrée de type Mot de passe et Nom d'utilisateur, dans laquelle l'attribut autocomplete n'est pas défini sur désactivé. Par conséquent, vous pouvez voir un avertissement par des scanneurs de sécurité tels que L'attribut de saisie automatique n'est pas désactivé pour le mot de passe dans l'authentification basée sur le formulaire. La définition de l'attribut autocomplete sur activé n'entraîne pas directement un risque sur les serveurs Web, mais dans certains navigateurs, les informations d'identification de l'utilisateur sous de telles formes peuvent être enregistrées et potentiellement entraîner une perte de confidentialité.

    Ce problème est résolu dans cette version. Le correctif s'assure que l'attribut autocomplete est défini sur désactivé dans les champs Mot de passe et Nom d'utilisateur pour empêcher les navigateurs de mettre en cache les informations d'identification.

  • PR 3078875 : impossible de définir la limite d'IOPS pour les objets de service de fichiers vSAN

    Les objets vSAN Distributed File System (vDFS) ne prennent pas en charge la limite d'IOPS. Vous ne pouvez pas définir la limite d'IOPS pour les objets de service de fichiers vSAN.

    Ce problème est résolu dans cette version. Avec le correctif, vous pouvez définir une stratégie IOPSLimit avec les objets de service de fichiers vSAN.

  • PR 3069298 : dans vSphere Client, vous ne voyez pas la balise d'actif pour certains serveurs

    Dans vSphere Client, lorsque vous accédez à Configurer > Matériel > Présentation, aucune balise d'actif n'est répertoriée pour certains serveurs.

    Ce problème est résolu dans cette version. Le correctif garantit que vCenter reçoit la balise d'actif d'informations de la carte de base (Type2) ou la balise d'actif d'informations du châssis (Type3) pour le serveur. Vous voyez la balise d'actif d'informations du châssis lorsque la balise d'actif d'informations de la carte de base pour le serveur est vide.

  • PR 3074121 : configuration réseau perdue après la mise à niveau de vSAN vers la version 7.0 ou une version ultérieure

    Lorsque vous mettez à niveau un hôte vSAN d'une version antérieure à la version 6.2 vers la version 7.0 ou une version ultérieure, le balisage du port VMkernel pour vSAN peut être perdu. Si cela se produit, la configuration de la mise en réseau vSAN est manquante après la mise à niveau.

    Ce problème est résolu dans cette version. Le correctif empêche le problème de se produire sur ESXi 7.0 Update 3l et versions ultérieures. Si vous êtes déjà confronté à ce problème, la mise à niveau vers ESXi 7.0 Update 3l ne résout pas automatiquement le problème, mais vous pouvez le résoudre manuellement en activant le trafic VMkernel pour vSAN sur l'hôte ESXi.

  • PR 3085003 : impossible d'activer le service de fichiers vSAN avec des fichiers OVF téléchargés

    Vous ne pouvez pas activer le service de fichiers vSAN si vCenter ne dispose pas d'un accès à Internet.

    Ce problème est résolu dans cette version.

  • PR 3088608 : les machines virtuelles peuvent échouer avec un vidage de mémoire lors de la reprise à partir d'un point de contrôle ou après la migration

    Dans de rares cas, lorsqu'un point de rupture de données est activé dans le système d'exploitation invité des machines virtuelles, lors de la reprise du point de contrôle ou après une migration vSphere vMotion, il est possible d'accéder à une structure de données de virtualisation interne avant qu'elle ne soit allouée. Par la suite, les machines virtuelles se bloquent avec un vidage de mémoire avec une erreur telle que : 

    vcpu-1:VMM fault 14: src=MONITOR rip=0xfffffffffc0XXe00 regs=0xfffffffffcXXXdc0 LBR stack=0xfffffffffcXXXaXX.

    Ce problème est résolu dans cette version.

esx-update_7.0.3-0.85.21424296
Catégorie des correctifs Correctif de bogues
Gravité des correctifs Critique
Redémarrage de l'hôte requis Oui
Migration ou arrêt de la machine virtuelle requis Oui
Matériel concerné S.O.
Logiciels concernés S.O.
VIB concernés
  • VMware_bootbank_esx-update_7.0.3-0.85.21424296
  • VMware_bootbank_loadesx_7.0.3-0.85.21424296
PR résolus S.O.
Numéros CVE S.O.

Met à jour les VIB loadesx et esx-update.

    Broadcom-ntg3_4.1.9.0-4vmw.703.0.85.21424296
    Catégorie des correctifs Correctif de bogues
    Gravité des correctifs Critique
    Redémarrage de l'hôte requis Oui
    Migration ou arrêt de la machine virtuelle requis Oui
    Matériel concerné S.O.
    Logiciels concernés S.O.
    VIB concernés
    • VMW_bootbank_ntg3_4.1.9.0-4vmw.703.0.85.21424296
    PR résolus 3083426
    Numéros CVE S.O.

    Mettez à jour le VIB ntg3 pour résoudre le problème suivant :

    • PR 3083426 : vous pouvez voir une perte de paquets de trames Jumbo lorsque les cartes réseau utilisant le pilote ntg3 sont connectées à certains commutateurs Dell

      Lorsque des cartes réseau utilisant le pilote ntg3, telles que Broadcom BCM5719 et BCM5720, sont connectées à certains modèles de commutateurs Dell, notamment, S4128T-ON et S3048-ON, ces cartes réseau peuvent abandonner de manière incorrecte certains des paquets reçus supérieurs à 6 700 octets. Cela peut entraîner des performances réseau très faibles ou une perte de connectivité.

      Ce problème est résolu dans cette version. Le pilote ntg3 version 4.1.9.0, qui est publié avec ESXi 7.0 Update 3l, contient le correctif approprié.

    VMware-vmkusb_0.1-8vmw.703.0.85.21424296
    Catégorie des correctifs Correctif de bogues
    Gravité des correctifs Critique
    Redémarrage de l'hôte requis Oui
    Migration ou arrêt de la machine virtuelle requis Oui
    Matériel concerné S.O.
    Logiciels concernés S.O.
    VIB concernés
    • VMW_bootbank_vmkusb_0.1-8vmw.703.0.85.21424296
    PR résolus S.O.
    Numéros CVE S.O.

    Met à jour le VIB vmkusb.

      VMware-NVMe-PCIe_1.2.3.16-2vmw.703.0.85.21424296
      Catégorie des correctifs Correctif de bogues
      Gravité des correctifs Critique
      Redémarrage de l'hôte requis Oui
      Migration ou arrêt de la machine virtuelle requis Oui
      Matériel concerné S.O.
      Logiciels concernés S.O.
      VIB concernés
      • VMW_bootbank_nvme-pcie_1.2.3.16-2vmw.703.0.85.21424296
      PR résolus 3086841, 3104368, 3061328
      Numéros CVE S.O.

      Mettez à jour le VIB nvme-pcie pour résoudre le problème suivant :

      • PR 3086841 : les plug-ins de gestion multivoie tiers signalent un avertissement « Descripteur RTPG de longueur non valide » lors de l'exécution sur la pile de traduction SCSI vers NVMe

        Dans le cas d'un format d'en-tête étendu dans la couche de translation NVMe vers SCSI, les plug-ins de gestion multivoie tiers, tels que PowerPath, peuvent ne pas comptabiliser la taille d'en-tête étendue de 4 octets. Par conséquent, dans le journal vmkernel.log, vous voyez un avertissement Invalid length RTPG Descriptor.

        Ce problème est résolu dans cette version. Le correctif comptabilise les 4 octets des en-têtes étendus.

      • PR 3104368 : impossible d'installer ESXi ou de créer des banques de données sur un périphérique NVMe

        Lors de l'installation d'ESXi ou de la création d'une banque de données VMFS sur un périphérique NVMe, le pilote NVMe natif peut avoir besoin de gérer une opération fusionnée de comparaison et d'écriture. Selon les spécifications NVMe, les commandes Comparer et Écrire doivent être insérées l'une à côté de l'autre dans la même file d'attente d'envoi, et la mise à jour du pointeur Doorbell Tail de la file d'attente d'envoi doit indiquer les deux commandes dans le cadre d'une mise à jour de Doorbell. Le pilote NVMe natif place les deux commandes ensemble dans une file d'attente d'envoi, mais écrit le Doorbell de chaque commande séparément. Par conséquent, le microprogramme du périphérique peut terminer les commandes fusionnées avec une erreur et ne pas parvenir à créer une banque de données VMFS. Étant donné que la création d'une banque de données VMFS sur un périphérique est une condition préalable à la réussite de l'installation d'ESXi, vous ne pourrez peut-être pas installer ESXi sur ces périphériques NVMe.

        Ce problème est résolu dans cette version.

      • PR 3061328 : impossible d'effacer un contrôle de santé vSAN : Le périphérique NVMe peut être identifié

        Si le contrôle de santé vSAN indique qu'un périphérique NVMe ne peut pas être identifié, il se peut que l'avertissement soit effacé après la sélection correcte du modèle de périphérique.

        Ce problème est résolu dans cette version.

      ESXi_7.0.3-0.80.21422485
      Catégorie des correctifs Sécurité
      Gravité des correctifs Critique
      Redémarrage de l'hôte requis Oui
      Migration ou arrêt de la machine virtuelle requis Oui
      Matériel concerné S.O.
      Logiciels concernés S.O.
      VIB concernés
      • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.80.21422485
      • VMware_bootbank_vdfs_7.0.3-0.80.21422485
      • VMware_bootbank_cpu-microcode_7.0.3-0.80.21422485
      • VMware_bootbank_crx_7.0.3-0.80.21422485
      • VMware_bootbank_esx-xserver_7.0.3-0.80.21422485
      • VMware_bootbank_vsanhealth_7.0.3-0.80.21422485
      • VMware_bootbank_vsan_7.0.3-0.80.21422485
      • VMware_bootbank_esx-ui_2.9.2-21141530
      • VMware_bootbank_esxio-combiner_7.0.3-0.80.21422485
      • VMware_bootbank_native-misc-drivers_7.0.3-0.80.21422485
      • VMware_bootbank_esx-base_7.0.3-0.80.21422485
      • VMware_bootbank_gc_7.0.3-0.80.21422485
      • VMware_bootbank_bmcal_7.0.3-0.80.21422485
      • VMware_bootbank_trx_7.0.3-0.80.21422485
      PR résolus S.O.
      Numéros CVE CVE-2023-1017, CVE-2023-1018

      Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.

      Met à jour les VIB esx-dvfilter-generic-fastpath, vsan, bmcal, crx, esx-ui, esxio-combiner, vsanhealth, native-misc-drivers, gc, cpu-microcode, vdfs, esx-xserver, esx-base et trx pour résoudre les problèmes suivants :

      • ESXi 7.0 Update 3l fournit les mises à jour de sécurité suivantes :
        • Le module Python a été mis à jour vers les versions 3.8.16/3.5.10.
        • La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.10.3.
        • La bibliothèque cURL a été mise à jour vers la version 7.86.0.
        • L'analyseur XML Expat a été mis à jour vers la version 2.5.0.
        • La base de données SQLite a été mise à jour vers la version 3.40.1.
        • La bibliothèque zlib a été mise à jour vers la version 1.2.13.
      esx-update_7.0.3-0.80.21422485
      Catégorie des correctifs Sécurité
      Gravité des correctifs Critique
      Redémarrage de l'hôte requis Oui
      Migration ou arrêt de la machine virtuelle requis Oui
      Matériel concerné S.O.
      Logiciels concernés S.O.
      VIB concernés
      • VMware_bootbank_loadesx_7.0.3-0.80.21422485
      • VMware_bootbank_esx-update_7.0.3-0.80.21422485
      PR résolus S.O.
      Numéros CVE S.O.

      Met à jour les VIB loadesx et esx-update.

        VMware-VM-Tools_12.1.5.20735119-21422485
        Catégorie des correctifs Sécurité
        Gravité des correctifs Critique
        Redémarrage de l'hôte requis Non
        Migration ou arrêt de la machine virtuelle requis Non
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_locker_tools-light_12.1.5.20735119-21422485
        PR résolus 3091480
        Numéros CVE S.O.

        Met à jour les VIB loadesx et esx-update.

          • Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3l :

            • windows.iso : VMware Tools 12.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.

            • linux.iso: Image ISO de VMware Tools 10.3.25 pour le système d'exploitation Linux avec glibc 2.11 ou version ultérieure.

            Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :

            • VMware Tools 11.0.6 :

              • windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).

            • VMware Tools 10.0.12 :

              • winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.

              • linuxPreGLibc25.iso : prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.

            • solaris.iso: Image de VMware Tools 10.3.10 pour Solaris.

            • darwin.iso: Prend en charge Mac OS X 10.11 et versions ultérieures. VMware Tools 12.1.0 était la dernière version régulière pour macOS. Pour plus d'informations, consultez l'article 88698 de la base de connaissances VMware.

            Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

           

        ESXi-7.0U3l-21424296-standard
        Nom du profil ESXi-7.0U3l-21424296-standard
        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
        Fournisseur VMware, Inc.
        Date de publication 30 mars 2023
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.85.21424296
        • VMware_bootbank_vsan_7.0.3-0.85.21424296
        • VMware_bootbank_bmcal_7.0.3-0.85.21424296
        • VMware_bootbank_crx_7.0.3-0.85.21424296
        • VMware_bootbank_esx-ui_2.9.2-21141530
        • VMware_bootbank_esxio-combiner_7.0.3-0.85.21424296
        • VMware_bootbank_vsanhealth_7.0.3-0.85.21424296
        • VMware_bootbank_native-misc-drivers_7.0.3-0.85.21424296
        • VMware_bootbank_gc_7.0.3-0.85.21424296
        • VMware_bootbank_cpu-microcode_7.0.3-0.85.21424296
        • VMware_bootbank_vdfs_7.0.3-0.85.21424296
        • VMware_bootbank_esx-xserver_7.0.3-0.85.21424296
        • VMware_bootbank_esx-base_7.0.3-0.85.21424296
        • VMware_bootbank_trx_7.0.3-0.85.21424296
        • VMware_bootbank_esx-update_7.0.3-0.85.21424296
        • VMware_bootbank_loadesx_7.0.3-0.85.21424296
        • VMW_bootbank_ntg3_4.1.9.0-4vmw.703.0.85.21424296
        • VMW_bootbank_vmkusb_0.1-8vmw.703.0.85.21424296
        • VMW_bootbank_nvme-pcie_1.2.3.16-2vmw.703.0.85.21424296
        • VMware_locker_tools-light_12.1.5.20735119-21422485
        PR résolus 3057026, 3062185, 3040049, 3061156, 3023389, 3062861, 3089449, 3081870, 3082900, 3033157, 3090683, 3075786, 3074392, 3081275, 3080022, 3083314, 3084812, 3074360, 3092270, 3076977, 3051685, 3082477, 3082282, 3082427, 3077163, 3087219, 3074187, 3082431, 3050562, 3072430, 3077072, 3077060, 3046875, 3082991, 3083473, 3051059, 3091256, 3074912, 3058993, 3063987, 3072500, 3060661, 3076188, 3049652, 2902475, 3087946, 3116848, 3010502, 3118090, 3078875, 3069298, 3074121, 3083426, 3086841, 3104368, 3061328
        Numéros CVE associés CVE-2023-1017, CVE-2023-1018
        • Ce correctif met à jour les problèmes suivants :
          • Dans vSphere Client et ESXi Host Client, vous pouvez voir un nombre de sockets incorrect et respectivement de cœurs par socket lorsque vous modifiez le paramètre NPS sur un serveur AMD EPYC 9004 de la valeur par défaut 1, ou Auto, pour une autre valeur, telle que 2 ou 4.

          • En raison d'une condition de concurrence rare lors d'une opération de reprise d'interruption rapide (FSR, Fast Suspend Resume) sur une machine virtuelle avec des pages partagées entre les machines virtuelles, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur telle que PFrame_IsBackedByLPage dans la trace de débogage. Ce problème se produit lors des opérations de vSphere Storage vMotion ou de l'ajout à chaud d'un périphérique.

          • La capture de paquets avec l'option -c de l'utilitaire pktcap-uw en cas de trafic réseau intense peut être plus lente que la capture de paquets sans l'option. Vous pouvez également observer un retard dans la capture des paquets, de sorte que le dernier module compté présente un horodatage antérieur de quelques secondes à l'heure d'arrêt de la fonction. Ce problème provient de la fonction File_GetSize de vérification des tailles de fichier, qui est lente dans les environnements VMFS et entraîne de faibles performances de pktcap-uw.

          • Dans le fichier syslog, vous pouvez voir des messages de journal fréquents tels que :
            2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] *** Received pre-CEE DCBX Packet on port: vmnicX
            2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info]2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Src MAC: xc:xc:X0:0X:xc:xx
            2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Dest MAC: X0:xb:xb:fx:0X:X1
            2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] 2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Port ID TLV:
            2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] ifName:

            Ce problème se produit, car le démon DCB (Data Center Bridging), dcbd, sur l'hôte ESXi enregistre des messages inutiles dans /var/log/syslog.log. Par conséquent, le fichier journal peut rapidement se remplir de journaux dcbd.

          • Dans certains cas, un appel système timed-wait dans VMkernel peut revenir trop tôt. Par conséquent, certaines applications, telles que System Health Agent, peuvent prendre jusqu'à 100 % de l'utilisation du CPU sur l'un des cœurs d'hôte ESXi.

          • En raison d'un problème avec les Interfaces de bouclage IPv6, vous pouvez ne pas voir les détails de l'image de machine virtuelle dans l'onglet Résumé de vSphere Client.

          • Si le nombre de chemins à partir d'un hôte ESXi utilisant NMP SATP ALUA vers le stockage dépasse 255, ESXi ignore une partie des informations ALUA signalées par la cible et conserve de manière incorrecte une partie de l'état du chemin comme étant active et optimisée. Par conséquent, certaines E/S utilisent le chemin non optimisé vers le périphérique de stockage et provoquent des problèmes de latence.

          • Dans certains cas, lors de l'arrêt d'un hôte ESXi, les files d'attente d'aide des demandes de sonde de périphérique sont supprimées, mais la référence au périphérique subsiste. Par conséquent, le redémarrage de l'hôte ESXi s'arrête avec un message tel qu'initializing init_VMKernelShutdownHelper: (14/39) ShutdownSCSICleanupForDevTearDown dans l'interface utilisateur de la console directe (DCUI).

          • En raison d'une condition de concurrence lors d'une opération Instant Clone, les pages mémoire de machine virtuelle peuvent être endommagées et l'hôte ESXi peut échouer avec un écran de diagnostic violet. Vous voyez des erreurs telles que VmMemMigrate_MarkPagesCow ou AsyncRemapProcessVMRemapList dans la trace de débogage.

          • Dans certains environnements avec des plug-ins SATP tels que satp_alua et satp_alua_cx, la mise en ligne de tous les chemins vers un LUN peut nécessiter plusieurs analyses. Par conséquent, une opération de basculement de stockage peut prendre du temps. Par exemple, avec 4 chemins vers un LUN, la mise en ligne de ces 4 chemins peut prendre jusqu'à 20 minutes.

          • Après des opérations vSphere vMotion dans des instances de vCenter Server pour les machines virtuelles qui disposent de balises vSphere, il est possible que ces balises n'existent pas dans l'emplacement cible. Ce problème se produit uniquement dans les opérations de migration entre des instances de vCenter Server qui ne partagent pas de stockage.

          • Lorsque vous définissez le mode de filtre multidiffusion d'un NSX Virtual Switch pour NVDS, le mode peut revenir par intermittence d'hérité à écoute.

          • Lorsque vous exécutez une analyse Nessus, qui exécute en interne une analyse SYN, pour détecter les ports actifs sur un hôte ESXi, le service iofiltervpd peut s'arrêter. Le service ne peut pas être redémarré dans le nombre maximal de tentatives en raison de l'analyse SYN.

          • Si un VIB contenant un nouveau module de noyau est installé avant d'exécuter l'une des procédures de restauration de configuration décrites dans l'article 2042141 de la base de connaissances VMware, vous ne voyez aucune modification dans la configuration après le redémarrage de l'hôte ESXi. Par exemple, si vous tentez de restaurer la configuration ESXi immédiatement après l'installation du VIB NSX, l'hôte ESXi redémarre, mais aucune modification de la configuration n'est visible. Ce problème se produit en raison d'une erreur logique dans les mises à jour de la partition de la banque de démarrage utilisée pour le redémarrage de l'hôte ESXi après l'installation d'un nouveau VIB de module de noyau.

          • La liste des fichiers du stockage Azure NFS 4.1 monté peut ne pas fonctionner comme prévu, car même si les fichiers existent et qu'il est possible de les ouvrir par nom, l'exécution de la commande ls sur un hôte ESXi à l'aide de SSH n'affiche aucun fichier.

          • À partir d'ESXi 7.0 Update 1, le fichier vpxa.cfg n'existe plus et la configuration vpxa appartient au magasin de configuration d'ESXi (ConfigStore). Lorsque vous mettez à niveau un hôte ESXi d'une version antérieure à la version 7.0 Update 1 vers une version ultérieure, les champs Vpx.Vpxa.config.nfc.loglevel et Vpx.Vpxa.config.httpNfc.accessMode dans le fichier vpxa.cfg peuvent entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet lors de la conversion du format vpxa.cfg vers le format ConfigStore. Ce problème se produit en raison de différences dans le niveau de journalisation NFC entre vpxa.cfg et ConfigStore, et les valeurs sensibles à la casse.

          • Dans de rares cas, plusieurs opérations d'ouverture et de fermeture simultanées sur des banques de données, par exemple lorsque vSphere DRS déclenche plusieurs tâches de migration, peuvent faire que des machines virtuelles mettent plus de temps à terminer des E/S de disque en vol. Par conséquent, ces machines virtuelles peuvent mettre plus de temps à répondre ou cessent de répondre pendant une courte période. Ce problème est plus susceptible de se produire sur des machines virtuelles disposant de plusieurs disques virtuels sur différentes banques de données.

          • Lors d'un appel d'API pour recharger une machine virtuelle d'un hôte ESXi vers un autre, l'élément externalId dans le fichier de données du port de machine virtuelle peut être perdu. Par conséquent, après le rechargement de la machine virtuelle, la carte réseau virtuelle de la machine virtuelle peut ne pas être en mesure de se connecter à un LSP.

          • Après la mise à niveau vers ESXi 7.0 Update 3i, vous ne pourrez peut-être pas attacher un disque de machine virtuelle (VMDK) existant à une machine virtuelle à l'aide de VMware Host Client, qui est utilisé pour vous connecter à des hôtes ESXi uniques et les gérer. Le problème n'affecte pas vSphere Client.

          • En raison d'une condition de concurrence entre les workflows Créer et Supprimer un pool de ressources, un pointeur libéré dans le cache du pool de ressources VMFS peut être déréférencé. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur semblable à celle-ci :
            @BlueScreen: #PF Exception 14 in world 2105491:res3HelperQu IP 0x420032a21f55 addr 0x0

          • Avec l'API QueryUnresolvedVmfsVolume de traitement par lots, vous pouvez interroger et répertorier des volumes VMFS ou des snapshots de LUN non résolus. Vous pouvez ensuite utiliser d'autres API de traitement par lots pour effectuer des opérations, telles que signer à nouveau des volumes VMFS non résolus spécifiques. Par défaut, lorsque l'API QueryUnresolvedVmfsVolume est appelée sur un hôte, le système effectue un contrôle de réactivité du système de fichiers supplémentaire pour tous les volumes non résolus détectés. Le contrôle de réactivité effectué détecte si le LUN spécifié est monté sur d'autres hôtes, si un signal de pulsation VMFS actif est en cours ou si un système de fichiers est actif. Cette opération prend du temps et nécessite au moins 16 secondes par LUN. Par conséquent, lorsque votre environnement se compose d'un grand nombre de LUN de snapshot, l'opération d'interrogation et d'établissement de liste peut prendre un certain temps.

          • Ce problème peut se produire lorsque vCenter gère plusieurs clusters et que la machine virtuelle vCenter s'exécute sur l'un des clusters. Si vous arrêtez le cluster sur lequel réside la machine virtuelle vCenter, l'erreur suivante peut se produire lors de l'opération d'arrêt : 'NoneType' object has no attribute '_moId'. La VM vCenter n'est pas hors tension

          • Ce problème peut se produire lorsque vCenter gère plusieurs clusters et exécute plusieurs opérations d'arrêt et de redémarrage de cluster en parallèle. Par exemple, si vous arrêtez 3 clusters et redémarrez le service de santé vSAN ou la machine virtuelle vCenter, puis que vous redémarrez l'un des 3 clusters avant les autres, l'option Restart Cluster peut être disponible pour le premier cluster vSAN, mais pas pour les autres clusters.

          • Un décalage de l'heure inattendu peut se produire par intermittence sur un cluster vSAN lorsqu'un seul vCenter Server gère plusieurs clusters vSAN, en raison de retards internes dans les demandes VPXA. Dans vSphere Client, dans l'onglet Santé de vSAN, vous voyez que l'état de L'heure est synchronisée entre les hôtes et VC passe de vert à jaune et revient à vert.

          • Lorsque vous activez l'option avancée ToolsRamdisk qui s'assure que la partition /vmtools se trouve toujours sur un disque RAM plutôt que sur une carte USB ou SD, l'installation ou la mise à jour du VIB tools-light ne met pas automatiquement à jour le contenu du disque RAM. Au lieu de cela, vous devez redémarrer l'hôte afin que le disque RAM soit mis à jour et que la nouvelle version de VM Tools soit disponible pour les machines virtuelles.

          • Une condition de concurrence rare causée par la récupération de mémoire pour certains processus d'optimisation des performances dans vSphere vMotion peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.

          • Si votre environnement dispose de clusters de blocs de fichiers de petite et de grande taille mappés à une règle d'affinité, lorsque vous ajoutez un cluster, le gestionnaire d'affinité peut allouer plus de blocs pour les fichiers que le volume réel de la banque de données. Par conséquent, les hôtes ESXi échouent de manière aléatoire avec un écran de diagnostic violet avec une erreur Exception 14 in world #######.

          • Ce problème se produit lorsque vous affichez les détails de santé d'un contrôle de santé dans la vue historique. Dans vSphere Client, dans l'onglet Skyline Health, vous voyez un message tel qu'Aucune donnée disponible pour la période sélectionnée. Ce problème se produit lorsqu'une requête sur les enregistrements de santé historiques échoue en raison d'horodatages avec un fuseau horaire incorrect.

          • La commande d'enregistreur automatique de certains clients de journalisation peut ne pas transmettre le code d'installation approprié au démon Syslog d'ESXi et provoquer des valeurs d'installation ou de gravité incorrectes dans les messages du journal Syslog d'ESXi.

          • Dans de rares cas, lors d'une charge de travail importante, deux tâches LVM qui effectuent des mises à jour et des requêtes sur la planification du périphérique dans un hôte ESXi peuvent s'exécuter en parallèle et provoquer un problème de synchronisation. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et des messages semblables à [email protected]#nover+0x1018 stack: 0xXXXXX and Addr3ResolvePhysVector@esx#nover+0x68 stack: 0xXXXX dans la trace de débogage.

          • Dans certains cas, pendant qu'un hôte ESXi démarre, certaines cibles iSCSI découvertes dynamiquement peuvent être supprimées. Par conséquent, une fois le démarrage terminé, vous risquez de ne plus voir certains LUN iSCSI. Ce problème est plus susceptible de se produire dans les environnements avec le protocole CHAP
            (Challenge-Handshake Authentication Protocol) activé pour iSCSI.

          • Dans les environnements occupés avec de nombreuses réanalyses à l'aide d'un adaptateur iSCSI logiciel, VMware Host Client peut cesser d'afficher l'adaptateur par intermittence. Ce problème se produit uniquement avec les baies cibles qui renvoient des portails cibles avec des adresses IPv4 et IPv6 lors de la découverte à l'aide de la méthode SendTargets.

          • Un problème rare lors du calcul de la profondeur maximale de file d'attente par périphérique de banque de données peut entraîner des avertissements d'attente de profondeur de file d'attente de la couche SCSI sous-jacente. Par conséquent, lorsque vous désactivez Storage I/O Control sur les banques de données, vous pouvez voir des E/S de lecture élevées sur tous les hôtes ESXi.

          • En raison d'une configuration manquante pour stats-log dans le fichier /etc/vmware/vvold/config.xml, plusieurs fichiers -1.log peuvent remplir la partition /ramdisk après une mise à niveau vers ESXi 7.0 Update 3 et versions ultérieures.

          • Si un nom d'utilisateur ou un mot de passe dans un proxy réseau contient un caractère d'échappement, l'environnement ne parvient pas à envoyer de demandes réseau via le proxy.

          • Si vous configurez un serveur NTP sur un hôte ESXi avec des paramètres supplémentaires avec hostname, tels que min_poll ou max_poll, la commande esxcli system ntp test peut échouer à résoudre l'adresse IP de ce serveur. Ce problème se produit, car dans de telles configurations, la résolution de nom NTP s'applique à l'intégralité de la configuration du serveur, plutôt qu'au nom d'hôte uniquement.

          • Après la mise à niveau vers ESXi 7.0 Update 2 et versions ultérieures, une machine virtuelle peut ne pas découvrir certains périphériques USB qui lui sont attachés, tels qu'un UPS USB Eaton, et ne pas communiquer correctement avec le périphérique.

          • Si vous clonez une machine virtuelle, y compris les spécifications de personnalisation d'invité, déplacez le fichier VMDK vers une autre banque de données et le provisionnez de manière statique, puis mettez sous tension la machine virtuelle, la personnalisation du système d'exploitation invité peut ne pas être conservée. Dans les journaux hostd, vous voyez une description du type d'événement telle que Le composant de personnalisation n'a pas pu définir les paramètres requis dans le système d'exploitation invité.
            Ce problème se produit, car lors du déplacement du fichier VMDK de la machine virtuelle clonée vers une autre banque de données, le nouveau pathName pour la personnalisation du système d'exploitation invité peut être temporairement identique à oldPathName et le module est supprimé.

          • Un dimensionnement incorrect des besoins en ressources pour le service hostd sur un hôte ESXi peut entraîner l'échec de certaines tâches liées aux machines virtuelles lorsque vous utilisez le filtrage VAIO (vSphere APIs for I/O Filtering) pour VMware ou des applications de sauvegarde tierces. Par exemple, lorsqu'un filtre VAIO est attaché à un ou plusieurs disques virtuels d'une machine virtuelle, ces machines virtuelles peuvent échouer à effectuer des sauvegardes ou une mise sous tension après une sauvegarde.

          • Un problème rare d'endommagement de fichier peut se produire lorsque plusieurs hôtes ESXi effectuent simultanément une opération d'ajout de fichier sur une banque de données NFSv3. Par conséquent, si vous utilisez l'utilitaire de ligne de commande open source Govc pour effectuer des actions administratives sur une instance de vCenter, vous pouvez voir des rapports avec des valeurs incohérentes. Par exemple, si vous exécutez la commande govc disk.ls pour répertorier tous les FCD d'une banque de données récemment créée, vous voyez un nombre de disques différent de ce que vous attendez.

          • Dans de rares cas, lorsqu'un volume VMFS est fermé immédiatement après son ouverture, l'un des threads du processus d'ouverture peut concurrencer un thread dans le processus de fermeture et prendre un chemin rare de gestion des erreurs qui peut quitter sans déverrouiller un verrou spinlock verrouillé. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et un message dans la trace de débogage tel que : @BlueScreen: VERIFY bora/vmkernel/sched/cpusched.c:11154.

          • En raison de conflits de réservation, les applications WSFC peuvent perdre la connectivité à un disque virtuel basé sur un volume après une opération de reliaison sur ce disque.

          • Dans de rares cas, l'agent de gestion, Fault Domain Manager (FDM), que vSphere HA déploie sur les hôtes ESXi, peut ne pas parvenir à acquérir une banque de données vSAN lors de la première tentative avant qu'une condition exceptionnelle, comme une panne de courant, se produise. Par conséquent, le basculement vSphere HA des machines virtuelles sur cette banque de données peut ne pas aboutir. Dans vSphere Client, vous voyez un message tel que Cette machine virtuelle n'a pas pu être protégée par vSphere HA et vSphere HA risque de ne pas essayer de la redémarrer après un échec. Les tentatives successives de FDM d'acquisition de la banque de données vSAN peuvent également échouer.

          • Dans les mesures de durabilité de VMware vRealize Operations, vous pouvez voir une valeur Alimentation|Énergie totale (Wh) par machine virtuelle supérieure à l'hôte ESXi sur lequel la machine virtuelle est hébergée. Ce problème se produit, car après la mesure de l'énergie totale consommée par la machine virtuelle, le compteur de performances power.energy est calculé et indiqué en millijoules plutôt qu'en joules.

          • Dans les hôtes ESXi s'exécutant sur des processeurs AMD, les machines virtuelles Windows de version de matériel 19 sur lesquelles la fonctionnalité VBS activée peuvent échouer avec un écran de diagnostic bleu en raison d'une erreur de configuration incorrecte du mode de processeur. Dans le fichier vmware.log, vous voyez des erreurs telles que vcpu-0 - WinBSOD: Synthetic MSR[0xx0000x00] 0xxxx.

          • En raison d'une erreur interne, même si un modèle de CPU est répertorié comme étant pris en charge dans le Guide de compatibilité de VMware, vous pouvez voir dans vSphere Client un avertissement tel que Le CPU sur l'hôte n'est pas pris en charge par l'image lors d'une analyse de conformité à l'aide d'une image vSphere Lifecycle Manager. L'avertissement ne vous empêche pas de terminer une mise à jour ou une mise à niveau.

          • Lorsque vous migrez des machines virtuelles sur lesquelles VBS est activé et qui résident sur des hôtes ESXi exécutés sur des processeurs AMD, ces machines virtuelles peuvent échouer avec un écran de diagnostic bleu sur l'hôte cible en raison d'une erreur d'état d'interruption d'invité.

          • Lorsque vous remplacez une stratégie de mise en réseau telle que l'association, la sécurité ou la formation d'un groupe de ports, puis que vous annulez la modification, après un redémarrage de l'hôte ESXi, vous pouvez toujours voir le paramètre de remplacement. Par exemple, si vous acceptez l'activation du mode promiscuité au niveau d'un groupe de ports, puis rétablissez le mode sur Rejeter et redémarrez l'hôte ESXi, le paramètre est toujours Accepter.

          • Votre serveur Web distant peut contenir un champ de formulaire HTML avec une entrée de type Mot de passe et Nom d'utilisateur, dans laquelle l'attribut autocomplete n'est pas défini sur désactivé. Par conséquent, vous pouvez voir un avertissement par des scanneurs de sécurité tels que L'attribut de saisie automatique n'est pas désactivé pour le mot de passe dans l'authentification basée sur le formulaire. La définition de l'attribut autocomplete sur activé n'entraîne pas directement un risque sur les serveurs Web, mais dans certains navigateurs, les informations d'identification de l'utilisateur sous de telles formes peuvent être enregistrées et potentiellement entraîner une perte de confidentialité.

          • Les objets vSAN Distributed File System (vDFS) ne prennent pas en charge la limite d'IOPS. Vous ne pouvez pas définir la limite d'IOPS pour les objets de service de fichiers vSAN.

          • Dans vSphere Client, lorsque vous accédez à Configurer > Matériel > Présentation, aucune balise d'actif n'est répertoriée pour certains serveurs.

          • Lorsque vous mettez à niveau un hôte vSAN d'une version antérieure à la version 6.2 vers la version 7.0 ou une version ultérieure, le balisage du port VMkernel pour vSAN peut être perdu. Si cela se produit, la configuration de la mise en réseau vSAN est manquante après la mise à niveau.

          • Vous ne pouvez pas activer le service de fichiers vSAN si vCenter ne dispose pas d'un accès à Internet.

          • Dans de rares cas, lorsqu'un point de rupture de données est activé dans le système d'exploitation invité des machines virtuelles, lors de la reprise du point de contrôle ou après une migration vSphere vMotion, il est possible d'accéder à une structure de données de virtualisation interne avant qu'elle ne soit allouée. Par la suite, les machines virtuelles se bloquent avec un vidage de mémoire avec une erreur telle que : 

            vcpu-1:VMM fault 14: src=MONITOR rip=0xfffffffffc0XXe00 regs=0xfffffffffcXXXdc0 LBR stack=0xfffffffffcXXXaXX.

          • Lorsque des cartes réseau utilisant le pilote ntg3, telles que Broadcom BCM5719 et BCM5720, sont connectées à certains modèles de commutateurs Dell, notamment, S4128T-ON et S3048-ON, ces cartes réseau peuvent abandonner de manière incorrecte certains des paquets reçus supérieurs à 6 700 octets. Cela peut entraîner des performances réseau très faibles ou une perte de connectivité.

          • Dans le cas d'un format d'en-tête étendu dans la couche de translation NVMe vers SCSI, les plug-ins de gestion multivoie tiers, tels que PowerPath, peuvent ne pas comptabiliser la taille d'en-tête étendue de 4 octets. Par conséquent, dans le journal vmkernel.log, vous voyez un avertissement Invalid length RTPG Descriptor.

          • Lors de l'installation d'ESXi ou de la création d'une banque de données VMFS sur un périphérique NVMe, le pilote NVMe natif peut avoir besoin de gérer une opération fusionnée de comparaison et d'écriture. Selon les spécifications NVMe, les commandes Comparer et Écrire doivent être insérées l'une à côté de l'autre dans la même file d'attente d'envoi, et la mise à jour du pointeur Doorbell Tail de la file d'attente d'envoi doit indiquer les deux commandes dans le cadre d'une mise à jour de Doorbell. Le pilote NVMe natif place les deux commandes ensemble dans une file d'attente d'envoi, mais écrit le Doorbell de chaque commande séparément. Par conséquent, le microprogramme du périphérique peut terminer les commandes fusionnées avec une erreur et ne pas parvenir à créer une banque de données VMFS. Étant donné que la création d'une banque de données VMFS sur un périphérique est une condition préalable à la réussite de l'installation d'ESXi, vous ne pourrez peut-être pas installer ESXi sur ces périphériques NVMe.

          • Si le contrôle de santé vSAN indique qu'un périphérique NVMe ne peut pas être identifié, il se peut que l'avertissement soit effacé après la sélection correcte du modèle de périphérique.

        ESXi-7.0U3l-21424296-no-tools
        Nom du profil ESXi-7.0U3l-21424296-no-tools
        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
        Fournisseur VMware, Inc.
        Date de publication 30 mars 2023
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.85.21424296
        • VMware_bootbank_vsan_7.0.3-0.85.21424296
        • VMware_bootbank_bmcal_7.0.3-0.85.21424296
        • VMware_bootbank_crx_7.0.3-0.85.21424296
        • VMware_bootbank_esx-ui_2.9.2-21141530
        • VMware_bootbank_esxio-combiner_7.0.3-0.85.21424296
        • VMware_bootbank_vsanhealth_7.0.3-0.85.21424296
        • VMware_bootbank_native-misc-drivers_7.0.3-0.85.21424296
        • VMware_bootbank_gc_7.0.3-0.85.21424296
        • VMware_bootbank_cpu-microcode_7.0.3-0.85.21424296
        • VMware_bootbank_vdfs_7.0.3-0.85.21424296
        • VMware_bootbank_esx-xserver_7.0.3-0.85.21424296
        • VMware_bootbank_esx-base_7.0.3-0.85.21424296
        • VMware_bootbank_trx_7.0.3-0.85.21424296
        • VMware_bootbank_esx-update_7.0.3-0.85.21424296
        • VMware_bootbank_loadesx_7.0.3-0.85.21424296
        • VMW_bootbank_ntg3_4.1.9.0-4vmw.703.0.85.21424296
        • VMW_bootbank_vmkusb_0.1-8vmw.703.0.85.21424296
        • VMW_bootbank_nvme-pcie_1.2.3.16-2vmw.703.0.85.21424296
        PR résolus 3057026, 3062185, 3040049, 3061156, 3023389, 3062861, 3089449, 3081870, 3082900, 3033157, 3090683, 3075786, 3074392, 3081275, 3080022, 3083314, 3084812, 3074360, 3092270, 3076977, 3051685, 3082477, 3082282, 3082427, 3077163, 3087219, 3074187, 3082431, 3050562, 3072430, 3077072, 3077060, 3046875, 3082991, 3083473, 3051059, 3091256, 3074912, 3058993, 3063987, 3072500, 3060661, 3076188, 3049652, 2902475, 3087946, 3116848, 3010502, 3118090, 3078875, 3069298, 3074121, 3083426, 3086841, 3104368, 3061328
        Numéros CVE associés CVE-2023-1017, CVE-2023-1018
        • Ce correctif met à jour les problèmes suivants :
          • Dans vSphere Client et ESXi Host Client, vous pouvez voir un nombre de sockets incorrect et respectivement de cœurs par socket lorsque vous modifiez le paramètre NPS sur un serveur AMD EPYC 9004 de la valeur par défaut 1, ou Auto, pour une autre valeur, telle que 2 ou 4.

          • En raison d'une condition de concurrence rare lors d'une opération de reprise d'interruption rapide (FSR, Fast Suspend Resume) sur une machine virtuelle avec des pages partagées entre les machines virtuelles, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur telle que PFrame_IsBackedByLPage dans la trace de débogage. Ce problème se produit lors des opérations de vSphere Storage vMotion ou de l'ajout à chaud d'un périphérique.

          • La capture de paquets avec l'option -c de l'utilitaire pktcap-uw en cas de trafic réseau intense peut être plus lente que la capture de paquets sans l'option. Vous pouvez également observer un retard dans la capture des paquets, de sorte que le dernier module compté présente un horodatage antérieur de quelques secondes à l'heure d'arrêt de la fonction. Ce problème provient de la fonction File_GetSize de vérification des tailles de fichier, qui est lente dans les environnements VMFS et entraîne de faibles performances de pktcap-uw.

          • Dans le fichier syslog, vous pouvez voir des messages de journal fréquents tels que :
            2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] *** Received pre-CEE DCBX Packet on port: vmnicX
            2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info]2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Src MAC: xc:xc:X0:0X:xc:xx
            2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Dest MAC: X0:xb:xb:fx:0X:X1
            2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] 2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] Port ID TLV:
            2022-03-27T00:xx:xx.xxxx dcbd[xxxx]: [info] ifName:

            Ce problème se produit, car le démon DCB (Data Center Bridging), dcbd, sur l'hôte ESXi enregistre des messages inutiles dans /var/log/syslog.log. Par conséquent, le fichier journal peut rapidement se remplir de journaux dcbd.

          • Dans certains cas, un appel système timed-wait dans VMkernel peut revenir trop tôt. Par conséquent, certaines applications, telles que System Health Agent, peuvent prendre jusqu'à 100 % de l'utilisation du CPU sur l'un des cœurs d'hôte ESXi.

          • En raison d'un problème avec les Interfaces de bouclage IPv6, vous pouvez ne pas voir les détails de l'image de machine virtuelle dans l'onglet Résumé de vSphere Client.

          • Si le nombre de chemins à partir d'un hôte ESXi utilisant NMP SATP ALUA vers le stockage dépasse 255, ESXi ignore une partie des informations ALUA signalées par la cible et conserve de manière incorrecte une partie de l'état du chemin comme étant active et optimisée. Par conséquent, certaines E/S utilisent le chemin non optimisé vers le périphérique de stockage et provoquent des problèmes de latence.

          • Dans certains cas, lors de l'arrêt d'un hôte ESXi, les files d'attente d'aide des demandes de sonde de périphérique sont supprimées, mais la référence au périphérique subsiste. Par conséquent, le redémarrage de l'hôte ESXi s'arrête avec un message tel qu'initializing init_VMKernelShutdownHelper: (14/39) ShutdownSCSICleanupForDevTearDown dans l'interface utilisateur de la console directe (DCUI).

          • En raison d'une condition de concurrence lors d'une opération Instant Clone, les pages mémoire de machine virtuelle peuvent être endommagées et l'hôte ESXi peut échouer avec un écran de diagnostic violet. Vous voyez des erreurs telles que VmMemMigrate_MarkPagesCow ou AsyncRemapProcessVMRemapList dans la trace de débogage.

          • Dans certains environnements avec des plug-ins SATP tels que satp_alua et satp_alua_cx, la mise en ligne de tous les chemins vers un LUN peut nécessiter plusieurs analyses. Par conséquent, une opération de basculement de stockage peut prendre du temps. Par exemple, avec 4 chemins vers un LUN, la mise en ligne de ces 4 chemins peut prendre jusqu'à 20 minutes.

          • Après des opérations vSphere vMotion dans des instances de vCenter Server pour les machines virtuelles qui disposent de balises vSphere, il est possible que ces balises n'existent pas dans l'emplacement cible. Ce problème se produit uniquement dans les opérations de migration entre des instances de vCenter Server qui ne partagent pas de stockage.

          • Lorsque vous définissez le mode de filtre multidiffusion d'un NSX Virtual Switch pour NVDS, le mode peut revenir par intermittence d'hérité à écoute.

          • Lorsque vous exécutez une analyse Nessus, qui exécute en interne une analyse SYN, pour détecter les ports actifs sur un hôte ESXi, le service iofiltervpd peut s'arrêter. Le service ne peut pas être redémarré dans le nombre maximal de tentatives en raison de l'analyse SYN.

          • Si un VIB contenant un nouveau module de noyau est installé avant d'exécuter l'une des procédures de restauration de configuration décrites dans l'article 2042141 de la base de connaissances VMware, vous ne voyez aucune modification dans la configuration après le redémarrage de l'hôte ESXi. Par exemple, si vous tentez de restaurer la configuration ESXi immédiatement après l'installation du VIB NSX, l'hôte ESXi redémarre, mais aucune modification de la configuration n'est visible. Ce problème se produit en raison d'une erreur logique dans les mises à jour de la partition de la banque de démarrage utilisée pour le redémarrage de l'hôte ESXi après l'installation d'un nouveau VIB de module de noyau.

          • La liste des fichiers du stockage Azure NFS 4.1 monté peut ne pas fonctionner comme prévu, car même si les fichiers existent et qu'il est possible de les ouvrir par nom, l'exécution de la commande ls sur un hôte ESXi à l'aide de SSH n'affiche aucun fichier.

          • À partir d'ESXi 7.0 Update 1, le fichier vpxa.cfg n'existe plus et la configuration vpxa appartient au magasin de configuration d'ESXi (ConfigStore). Lorsque vous mettez à niveau un hôte ESXi d'une version antérieure à la version 7.0 Update 1 vers une version ultérieure, les champs Vpx.Vpxa.config.nfc.loglevel et Vpx.Vpxa.config.httpNfc.accessMode dans le fichier vpxa.cfg peuvent entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet lors de la conversion du format vpxa.cfg vers le format ConfigStore. Ce problème se produit en raison de différences dans le niveau de journalisation NFC entre vpxa.cfg et ConfigStore, et les valeurs sensibles à la casse.

          • Dans de rares cas, plusieurs opérations d'ouverture et de fermeture simultanées sur des banques de données, par exemple lorsque vSphere DRS déclenche plusieurs tâches de migration, peuvent faire que des machines virtuelles mettent plus de temps à terminer des E/S de disque en vol. Par conséquent, ces machines virtuelles peuvent mettre plus de temps à répondre ou cessent de répondre pendant une courte période. Ce problème est plus susceptible de se produire sur des machines virtuelles disposant de plusieurs disques virtuels sur différentes banques de données.

          • Lors d'un appel d'API pour recharger une machine virtuelle d'un hôte ESXi vers un autre, l'élément externalId dans le fichier de données du port de machine virtuelle peut être perdu. Par conséquent, après le rechargement de la machine virtuelle, la carte réseau virtuelle de la machine virtuelle peut ne pas être en mesure de se connecter à un LSP.

          • Après la mise à niveau vers ESXi 7.0 Update 3i, vous ne pourrez peut-être pas attacher un disque de machine virtuelle (VMDK) existant à une machine virtuelle à l'aide de VMware Host Client, qui est utilisé pour vous connecter à des hôtes ESXi uniques et les gérer. Le problème n'affecte pas vSphere Client.

          • En raison d'une condition de concurrence entre les workflows Créer et Supprimer un pool de ressources, un pointeur libéré dans le cache du pool de ressources VMFS peut être déréférencé. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet et une erreur semblable à celle-ci :
            @BlueScreen: #PF Exception 14 in world 2105491:res3HelperQu IP 0x420032a21f55 addr 0x0

          • Avec l'API QueryUnresolvedVmfsVolume de traitement par lots, vous pouvez interroger et répertorier des volumes VMFS ou des snapshots de LUN non résolus. Vous pouvez ensuite utiliser d'autres API de traitement par lots pour effectuer des opérations, telles que signer à nouveau des volumes VMFS non résolus spécifiques. Par défaut, lorsque l'API QueryUnresolvedVmfsVolume est appelée sur un hôte, le système effectue un contrôle de réactivité du système de fichiers supplémentaire pour tous les volumes non résolus détectés. Le contrôle de réactivité effectué détecte si le LUN spécifié est monté sur d'autres hôtes, si un signal de pulsation VMFS actif est en cours ou si un système de fichiers est actif. Cette opération prend du temps et nécessite au moins 16 secondes par LUN. Par conséquent, lorsque votre environnement se compose d'un grand nombre de LUN de snapshot, l'opération d'interrogation et d'établissement de liste peut prendre un certain temps.

          • Ce problème peut se produire lorsque vCenter gère plusieurs clusters et que la machine virtuelle vCenter s'exécute sur l'un des clusters. Si vous arrêtez le cluster sur lequel réside la machine virtuelle vCenter, l'erreur suivante peut se produire lors de l'opération d'arrêt : 'NoneType' object has no attribute '_moId'. La VM vCenter n'est pas hors tension

          • Ce problème peut se produire lorsque vCenter gère plusieurs clusters et exécute plusieurs opérations d'arrêt et de redémarrage de cluster en parallèle. Par exemple, si vous arrêtez 3 clusters et redémarrez le service de santé vSAN ou la machine virtuelle vCenter, puis que vous redémarrez l'un des 3 clusters avant les autres, l'option Restart Cluster peut être disponible pour le premier cluster vSAN, mais pas pour les autres clusters.

          • Un décalage de l'heure inattendu peut se produire par intermittence sur un cluster vSAN lorsqu'un seul vCenter Server gère plusieurs clusters vSAN, en raison de retards internes dans les demandes VPXA. Dans vSphere Client, dans l'onglet Santé de vSAN, vous voyez que l'état de L'heure est synchronisée entre les hôtes et VC passe de vert à jaune et revient à vert.

          • Lorsque vous activez l'option avancée ToolsRamdisk qui s'assure que la partition /vmtools se trouve toujours sur un disque RAM plutôt que sur une carte USB ou SD, l'installation ou la mise à jour du VIB tools-light ne met pas automatiquement à jour le contenu du disque RAM. Au lieu de cela, vous devez redémarrer l'hôte afin que le disque RAM soit mis à jour et que la nouvelle version de VM Tools soit disponible pour les machines virtuelles.

          • Une condition de concurrence rare causée par la récupération de mémoire pour certains processus d'optimisation des performances dans vSphere vMotion peut entraîner l'échec des hôtes ESXi avec un écran de diagnostic violet.

          • Si votre environnement dispose de clusters de blocs de fichiers de petite et de grande taille mappés à une règle d'affinité, lorsque vous ajoutez un cluster, le gestionnaire d'affinité peut allouer plus de blocs pour les fichiers que le volume réel de la banque de données. Par conséquent, les hôtes ESXi échouent de manière aléatoire avec un écran de diagnostic violet avec une erreur Exception 14 in world #######.

          • Ce problème se produit lorsque vous affichez les détails de santé d'un contrôle de santé dans la vue historique. Dans vSphere Client, dans l'onglet Skyline Health, vous voyez un message tel qu'Aucune donnée disponible pour la période sélectionnée. Ce problème se produit lorsqu'une requête sur les enregistrements de santé historiques échoue en raison d'horodatages avec un fuseau horaire incorrect.

          • La commande d'enregistreur automatique de certains clients de journalisation peut ne pas transmettre le code d'installation approprié au démon Syslog d'ESXi et provoquer des valeurs d'installation ou de gravité incorrectes dans les messages du journal Syslog d'ESXi.

          • Dans de rares cas, lors d'une charge de travail importante, deux tâches LVM qui effectuent des mises à jour et des requêtes sur la planification du périphérique dans un hôte ESXi peuvent s'exécuter en parallèle et provoquer un problème de synchronisation. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et des messages semblables à [email protected]#nover+0x1018 stack: 0xXXXXX and Addr3ResolvePhysVector@esx#nover+0x68 stack: 0xXXXX dans la trace de débogage.

          • Dans certains cas, pendant qu'un hôte ESXi démarre, certaines cibles iSCSI découvertes dynamiquement peuvent être supprimées. Par conséquent, une fois le démarrage terminé, vous risquez de ne plus voir certains LUN iSCSI. Ce problème est plus susceptible de se produire dans les environnements avec le protocole CHAP
            (Challenge-Handshake Authentication Protocol) activé pour iSCSI.

          • Dans les environnements occupés avec de nombreuses réanalyses à l'aide d'un adaptateur iSCSI logiciel, VMware Host Client peut cesser d'afficher l'adaptateur par intermittence. Ce problème se produit uniquement avec les baies cibles qui renvoient des portails cibles avec des adresses IPv4 et IPv6 lors de la découverte à l'aide de la méthode SendTargets.

          • Un problème rare lors du calcul de la profondeur maximale de file d'attente par périphérique de banque de données peut entraîner des avertissements d'attente de profondeur de file d'attente de la couche SCSI sous-jacente. Par conséquent, lorsque vous désactivez Storage I/O Control sur les banques de données, vous pouvez voir des E/S de lecture élevées sur tous les hôtes ESXi.

          • En raison d'une configuration manquante pour stats-log dans le fichier /etc/vmware/vvold/config.xml, plusieurs fichiers -1.log peuvent remplir la partition /ramdisk après une mise à niveau vers ESXi 7.0 Update 3 et versions ultérieures.

          • Si un nom d'utilisateur ou un mot de passe dans un proxy réseau contient un caractère d'échappement, l'environnement ne parvient pas à envoyer de demandes réseau via le proxy.

          • Si vous configurez un serveur NTP sur un hôte ESXi avec des paramètres supplémentaires avec hostname, tels que min_poll ou max_poll, la commande esxcli system ntp test peut échouer à résoudre l'adresse IP de ce serveur. Ce problème se produit, car dans de telles configurations, la résolution de nom NTP s'applique à l'intégralité de la configuration du serveur, plutôt qu'au nom d'hôte uniquement.

          • Après la mise à niveau vers ESXi 7.0 Update 2 et versions ultérieures, une machine virtuelle peut ne pas découvrir certains périphériques USB qui lui sont attachés, tels qu'un UPS USB Eaton, et ne pas communiquer correctement avec le périphérique.

          • Si vous clonez une machine virtuelle, y compris les spécifications de personnalisation d'invité, déplacez le fichier VMDK vers une autre banque de données et le provisionnez de manière statique, puis mettez sous tension la machine virtuelle, la personnalisation du système d'exploitation invité peut ne pas être conservée. Dans les journaux hostd, vous voyez une description du type d'événement telle que Le composant de personnalisation n'a pas pu définir les paramètres requis dans le système d'exploitation invité.
            Ce problème se produit, car lors du déplacement du fichier VMDK de la machine virtuelle clonée vers une autre banque de données, le nouveau pathName pour la personnalisation du système d'exploitation invité peut être temporairement identique à oldPathName et le module est supprimé.

          • Un dimensionnement incorrect des besoins en ressources pour le service hostd sur un hôte ESXi peut entraîner l'échec de certaines tâches liées aux machines virtuelles lorsque vous utilisez le filtrage VAIO (vSphere APIs for I/O Filtering) pour VMware ou des applications de sauvegarde tierces. Par exemple, lorsqu'un filtre VAIO est attaché à un ou plusieurs disques virtuels d'une machine virtuelle, ces machines virtuelles peuvent échouer à effectuer des sauvegardes ou une mise sous tension après une sauvegarde.

          • Un problème rare d'endommagement de fichier peut se produire lorsque plusieurs hôtes ESXi effectuent simultanément une opération d'ajout de fichier sur une banque de données NFSv3. Par conséquent, si vous utilisez l'utilitaire de ligne de commande open source Govc pour effectuer des actions administratives sur une instance de vCenter, vous pouvez voir des rapports avec des valeurs incohérentes. Par exemple, si vous exécutez la commande govc disk.ls pour répertorier tous les FCD d'une banque de données récemment créée, vous voyez un nombre de disques différent de ce que vous attendez.

          • Dans de rares cas, lorsqu'un volume VMFS est fermé immédiatement après son ouverture, l'un des threads du processus d'ouverture peut concurrencer un thread dans le processus de fermeture et prendre un chemin rare de gestion des erreurs qui peut quitter sans déverrouiller un verrou spinlock verrouillé. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet et un message dans la trace de débogage tel que : @BlueScreen: VERIFY bora/vmkernel/sched/cpusched.c:11154.

          • En raison de conflits de réservation, les applications WSFC peuvent perdre la connectivité à un disque virtuel basé sur un volume après une opération de reliaison sur ce disque.

          • Dans de rares cas, l'agent de gestion, Fault Domain Manager (FDM), que vSphere HA déploie sur les hôtes ESXi, peut ne pas parvenir à acquérir une banque de données vSAN lors de la première tentative avant qu'une condition exceptionnelle, comme une panne de courant, se produise. Par conséquent, le basculement vSphere HA des machines virtuelles sur cette banque de données peut ne pas aboutir. Dans vSphere Client, vous voyez un message tel que Cette machine virtuelle n'a pas pu être protégée par vSphere HA et vSphere HA risque de ne pas essayer de la redémarrer après un échec. Les tentatives successives de FDM d'acquisition de la banque de données vSAN peuvent également échouer.

          • Dans les mesures de durabilité de VMware vRealize Operations, vous pouvez voir une valeur Alimentation|Énergie totale (Wh) par machine virtuelle supérieure à l'hôte ESXi sur lequel la machine virtuelle est hébergée. Ce problème se produit, car après la mesure de l'énergie totale consommée par la machine virtuelle, le compteur de performances power.energy est calculé et indiqué en millijoules plutôt qu'en joules.

          • Dans les hôtes ESXi s'exécutant sur des processeurs AMD, les machines virtuelles Windows de version de matériel 19 sur lesquelles la fonctionnalité VBS activée peuvent échouer avec un écran de diagnostic bleu en raison d'une erreur de configuration incorrecte du mode de processeur. Dans le fichier vmware.log, vous voyez des erreurs telles que vcpu-0 - WinBSOD: Synthetic MSR[0xx0000x00] 0xxxx.

          • En raison d'une erreur interne, même si un modèle de CPU est répertorié comme étant pris en charge dans le Guide de compatibilité de VMware, vous pouvez voir dans vSphere Client un avertissement tel que Le CPU sur l'hôte n'est pas pris en charge par l'image lors d'une analyse de conformité à l'aide d'une image vSphere Lifecycle Manager. L'avertissement ne vous empêche pas de terminer une mise à jour ou une mise à niveau.

          • Lorsque vous migrez des machines virtuelles sur lesquelles VBS est activé et qui résident sur des hôtes ESXi exécutés sur des processeurs AMD, ces machines virtuelles peuvent échouer avec un écran de diagnostic bleu sur l'hôte cible en raison d'une erreur d'état d'interruption d'invité.

          • Lorsque vous remplacez une stratégie de mise en réseau telle que l'association, la sécurité ou la formation d'un groupe de ports, puis que vous annulez la modification, après un redémarrage de l'hôte ESXi, vous pouvez toujours voir le paramètre de remplacement. Par exemple, si vous acceptez l'activation du mode promiscuité au niveau d'un groupe de ports, puis rétablissez le mode sur Rejeter et redémarrez l'hôte ESXi, le paramètre est toujours Accepter.

          • Votre serveur Web distant peut contenir un champ de formulaire HTML avec une entrée de type Mot de passe et Nom d'utilisateur, dans laquelle l'attribut autocomplete n'est pas défini sur désactivé. Par conséquent, vous pouvez voir un avertissement par des scanneurs de sécurité tels que L'attribut de saisie automatique n'est pas désactivé pour le mot de passe dans l'authentification basée sur le formulaire. La définition de l'attribut autocomplete sur activé n'entraîne pas directement un risque sur les serveurs Web, mais dans certains navigateurs, les informations d'identification de l'utilisateur sous de telles formes peuvent être enregistrées et potentiellement entraîner une perte de confidentialité.

          • Les objets vSAN Distributed File System (vDFS) ne prennent pas en charge la limite d'IOPS. Vous ne pouvez pas définir la limite d'IOPS pour les objets de service de fichiers vSAN.

          • Dans vSphere Client, lorsque vous accédez à Configurer > Matériel > Présentation, aucune balise d'actif n'est répertoriée pour certains serveurs.

          • Lorsque vous mettez à niveau un hôte vSAN d'une version antérieure à la version 6.2 vers la version 7.0 ou une version ultérieure, le balisage du port VMkernel pour vSAN peut être perdu. Si cela se produit, la configuration de la mise en réseau vSAN est manquante après la mise à niveau.

          • Vous ne pouvez pas activer le service de fichiers vSAN si vCenter ne dispose pas d'un accès à Internet.

          • Dans de rares cas, lorsqu'un point de rupture de données est activé dans le système d'exploitation invité des machines virtuelles, lors de la reprise du point de contrôle ou après une migration vSphere vMotion, il est possible d'accéder à une structure de données de virtualisation interne avant qu'elle ne soit allouée. Par la suite, les machines virtuelles se bloquent avec un vidage de mémoire avec une erreur telle que : 

            vcpu-1:VMM fault 14: src=MONITOR rip=0xfffffffffc0XXe00 regs=0xfffffffffcXXXdc0 LBR stack=0xfffffffffcXXXaXX.

          • Lorsque des cartes réseau utilisant le pilote ntg3, telles que Broadcom BCM5719 et BCM5720, sont connectées à certains modèles de commutateurs Dell, notamment, S4128T-ON et S3048-ON, ces cartes réseau peuvent abandonner de manière incorrecte certains des paquets reçus supérieurs à 6 700 octets. Cela peut entraîner des performances réseau très faibles ou une perte de connectivité.

          • Dans le cas d'un format d'en-tête étendu dans la couche de translation NVMe vers SCSI, les plug-ins de gestion multivoie tiers, tels que PowerPath, peuvent ne pas comptabiliser la taille d'en-tête étendue de 4 octets. Par conséquent, dans le journal vmkernel.log, vous voyez un avertissement Invalid length RTPG Descriptor.

          • Lors de l'installation d'ESXi ou de la création d'une banque de données VMFS sur un périphérique NVMe, le pilote NVMe natif peut avoir besoin de gérer une opération fusionnée de comparaison et d'écriture. Selon les spécifications NVMe, les commandes Comparer et Écrire doivent être insérées l'une à côté de l'autre dans la même file d'attente d'envoi, et la mise à jour du pointeur Doorbell Tail de la file d'attente d'envoi doit indiquer les deux commandes dans le cadre d'une mise à jour de Doorbell. Le pilote NVMe natif place les deux commandes ensemble dans une file d'attente d'envoi, mais écrit le Doorbell de chaque commande séparément. Par conséquent, le microprogramme du périphérique peut terminer les commandes fusionnées avec une erreur et ne pas parvenir à créer une banque de données VMFS. Étant donné que la création d'une banque de données VMFS sur un périphérique est une condition préalable à la réussite de l'installation d'ESXi, vous ne pourrez peut-être pas installer ESXi sur ces périphériques NVMe.

          • Si le contrôle de santé vSAN indique qu'un périphérique NVMe ne peut pas être identifié, il se peut que l'avertissement soit effacé après la sélection correcte du modèle de périphérique.

        ESXi-7.0U3l-21422485-standard
        Nom du profil ESXi-7.0U3l-21422485-standard
        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
        Fournisseur VMware, Inc.
        Date de publication 30 mars 2023
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.80.21422485
        • VMware_bootbank_vdfs_7.0.3-0.80.21422485
        • VMware_bootbank_cpu-microcode_7.0.3-0.80.21422485
        • VMware_bootbank_crx_7.0.3-0.80.21422485
        • VMware_bootbank_esx-xserver_7.0.3-0.80.21422485
        • VMware_bootbank_vsanhealth_7.0.3-0.80.21422485
        • VMware_bootbank_vsan_7.0.3-0.80.21422485
        • VMware_bootbank_esx-ui_2.9.2-21141530
        • VMware_bootbank_esxio-combiner_7.0.3-0.80.21422485
        • VMware_bootbank_native-misc-drivers_7.0.3-0.80.21422485
        • VMware_bootbank_esx-base_7.0.3-0.80.21422485
        • VMware_bootbank_gc_7.0.3-0.80.21422485
        • VMware_bootbank_bmcal_7.0.3-0.80.21422485
        • VMware_bootbank_trx_7.0.3-0.80.21422485
        • VMware_bootbank_loadesx_7.0.3-0.80.21422485
        • VMware_bootbank_esx-update_7.0.3-0.80.21422485
        • VMware_locker_tools-light_12.1.5.20735119-21422485
        PR résolus 3091480
        Numéros CVE associés CVE-2023-1017, CVE-2023-1018
        • Ce correctif met à jour les problèmes suivants :
          • Le module Python a été mis à jour vers les versions 3.8.16/3.5.10.
          • La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.10.3.
          • La bibliothèque cURL a été mise à jour vers la version 7.86.0.
          • L'analyseur XML Expat a été mis à jour vers la version 2.5.0.
          • La base de données SQLite a été mise à jour vers la version 3.40.1.
          • La bibliothèque zlib a été mise à jour vers la version 1.2.13.
          • Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3l :

            • windows.iso : VMware Tools 12.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.

            • linux.iso: Image ISO de VMware Tools 10.3.25 pour le système d'exploitation Linux avec glibc 2.11 ou version ultérieure.

            Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :

            • VMware Tools 11.0.6 :

              • windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).

            • VMware Tools 10.0.12 :

              • winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.

              • linuxPreGLibc25.iso : prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.

            • solaris.iso: Image de VMware Tools 10.3.10 pour Solaris.

            • darwin.iso: Prend en charge Mac OS X 10.11 et versions ultérieures. VMware Tools 12.1.0 était la dernière version régulière pour macOS. Pour plus d'informations, consultez l'article 88698 de la base de connaissances VMware.

            Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

        ESXi-7.0U3l-21422485-no-tools
        Nom du profil ESXi-7.0U3l-21422485-no-tools
        Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
        Fournisseur VMware, Inc.
        Date de publication 30 mars 2023
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.3-0.80.21422485
        • VMware_bootbank_vdfs_7.0.3-0.80.21422485
        • VMware_bootbank_cpu-microcode_7.0.3-0.80.21422485
        • VMware_bootbank_crx_7.0.3-0.80.21422485
        • VMware_bootbank_esx-xserver_7.0.3-0.80.21422485
        • VMware_bootbank_vsanhealth_7.0.3-0.80.21422485
        • VMware_bootbank_vsan_7.0.3-0.80.21422485
        • VMware_bootbank_esx-ui_2.9.2-21141530
        • VMware_bootbank_esxio-combiner_7.0.3-0.80.21422485
        • VMware_bootbank_native-misc-drivers_7.0.3-0.80.21422485
        • VMware_bootbank_esx-base_7.0.3-0.80.21422485
        • VMware_bootbank_gc_7.0.3-0.80.21422485
        • VMware_bootbank_bmcal_7.0.3-0.80.21422485
        • VMware_bootbank_trx_7.0.3-0.80.21422485
        • VMware_bootbank_loadesx_7.0.3-0.80.21422485
        • VMware_bootbank_esx-update_7.0.3-0.80.21422485
        PR résolus 3091480
        Numéros CVE associés CVE-2023-1017, CVE-2023-1018
        • Ce correctif met à jour les problèmes suivants :
          • Le module Python a été mis à jour vers les versions 3.8.16/3.5.10.
          • La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.10.3.
          • La bibliothèque cURL a été mise à jour vers la version 7.86.0.
          • L'analyseur XML Expat a été mis à jour vers la version 2.5.0.
          • La base de données SQLite a été mise à jour vers la version 3.40.1.
          • La bibliothèque zlib a été mise à jour vers la version 1.2.13.
          • Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3l :

            • windows.iso : VMware Tools 12.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.

            • linux.iso: Image ISO de VMware Tools 10.3.25 pour le système d'exploitation Linux avec glibc 2.11 ou version ultérieure.

            Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :

            • VMware Tools 11.0.6 :

              • windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).

            • VMware Tools 10.0.12 :

              • winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.

              • linuxPreGLibc25.iso : prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.

            • solaris.iso: Image de VMware Tools 10.3.10 pour Solaris.

            • darwin.iso: Prend en charge Mac OS X 10.11 et versions ultérieures. VMware Tools 12.1.0 était la dernière version régulière pour macOS. Pour plus d'informations, consultez l'article 88698 de la base de connaissances VMware.

            Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

        ESXi70U3l-21424296
        Nom ESXi
        Version ESXi70U3l-21424296
        Date de publication 30 mars 2023
        Catégorie Correctif de bogues
        Composants concernés
        • Composant ESXi - VIB ESXi principaux
        • Composant d'installation/mise à niveau d'ESXi
        • Broadcom NetXtreme I Pilote Ethernet ESX VMKAPI
        • Pilote de contrôleur de mémoire non volatile
        • Pilote natif USB pour VMware
        PR résolus  3057026, 3062185, 3040049, 3061156, 3023389, 3062861, 3089449, 3081870, 3082900, 3033157, 3090683, 3075786, 3074392, 3081275, 3080022, 3083314, 3084812, 3074360, 3092270, 3076977, 3051685, 3082477, 3082282, 3082427, 3077163, 3087219, 3074187, 3082431, 3050562, 3072430, 3077072, 3077060, 3046875, 3082991, 3083473, 3051059, 3091256, 3074912, 3058993, 3063987, 3072500, 3060661, 3076188, 3049652, 2902475, 3087946, 3116848, 3010502, 3118090, 3078875, 3069298, 3074121, 3083426, 3086841, 3104368, 3061328
        Numéros CVE associés CVE-2023-1017, CVE-2023-1018
          ESXi70U3sl-21422485
          Nom ESXi
          Version ESXi70U3sl-21422485
          Date de publication 30 mars 2023
          Catégorie Sécurité
          Composants concernés
          • Composant ESXi - VIB ESXi principaux
          • Composant d'installation/mise à niveau d'ESXi
          • Composant ESXi Tools
          PR résolus  3091480
          Numéros CVE associés CVE-2023-1017, CVE-2023-1018

            Problèmes connus

            Les problèmes connus sont classés comme suit :

            Problèmes d'installation, de mise à niveau et de migration
            • Après une mise à niveau vers ESXi 7.0 Update 3l, certains hôtes ESXi et certaines machines virtuelles connectés aux commutateurs virtuels peuvent perdre la connexion au réseau 

              Après une mise à niveau vers ESXi 7.0 Update 3l, certains hôtes ESXi, leurs machines virtuelles et d'autres ports VMkernel, tels que les ports utilisés par vSAN et vSphere Replication, qui sont connectés à des commutateurs virtuels, peuvent perdre la connectivité en raison d'une modification inattendue de la stratégie d'association de cartes réseau. Par exemple, la stratégie d'association d'un groupe de ports peut passer de Route basée sur le hachage IP à Route basée sur le port virtuel d'origine. Par conséquent, un tel groupe de ports peut perdre la connectivité réseau et certains hôtes ESXi et leurs machines virtuelles deviennent inaccessibles.  

              Solution : reportez-vous à l'article 91887 de la base de connaissances VMware.

            • Après la mise à niveau du pilote ntg3 vers la version 4.1.9.0-4vmw, les cartes réseau Broadcom avec connectivité physique fibre peuvent perdre la connexion au réseau

              Les modifications apportées à la version du pilote ntg3 4.1.9.0-4vmw peuvent entraîner des problèmes de liaison pour la couche physique de la fibre et la connectivité sur certaines cartes réseau, telles que Broadcom 1Gb, ne peut pas être effectuée.

              Solution : reportez-vous à l'article 92035 de la base de connaissances VMware.

            • Des partitions VFAT endommagées d'un environnement vSphere 6.7 peuvent entraîner l'échec des mises à niveau vers ESXi 7.x

              En raison de partitions VFAT endommagées à partir d'un environnement vSphere 6.7, le repartitionnement des disques de démarrage d'un hôte ESXi peut échouer lors d'une mise à niveau vers ESXi 7.x. Par conséquent, vous pouvez voir les erreurs suivantes :
              Lors de la mise à niveau vers ESXi 7.0 Update 3l, l'opération échoue avec un écran de diagnostic violet et/ou une erreur telle que :

              • Une erreur s'est produite lors de la sauvegarde des fichiers de partition VFAT avant le repartitionnement : Échec du calcul de la taille du ramdisk temporaire : <erreur> .
              • Une erreur s'est produite lors de la sauvegarde des fichiers de partition VFAT avant le repartitionnement : Échec de la copie des fichiers sur le ramdisk : <erreur> .
                Si vous utilisez un programme d'installation ISO, les erreurs s'affichent, mais pas l'écran de diagnostic violet.

              Lors de la mise à niveau vers une version d'ESXi 7.x antérieure à la version 7.0 Update 3l, vous pouvez voir :

              • Les journaux tels que ramdisk (root) is full dans le fichier vmkwarning.log.
              • Restauration inattendue vers ESXi 6.5 ou 6.7 lors du redémarrage.
              • Les partitions /bootbank, /altbootbank et ESX-OSData sont absentes.

              Solution : vous devez d'abord corriger les partitions endommagées avant de terminer la mise à niveau vers ESXi 7.x. Pour plus de détails, consultez l'article 91136 de la base de connaissances VMware.

            Problèmes connus depuis les versions précédentes

            Pour afficher la liste des problèmes connus précédents, cliquez ici.

            check-circle-line exclamation-circle-line close-line
            Scroll to top icon
            check-circle-line exclamation-circle-line close-line
            Scroll to top icon