ESXi 7.0 Update 3c | 27 janvier 2022 | Build ISO 19193900

Vérifiez les compléments et les mises à jour pour ces notes de mise à jour.

Contenu des notes de mise à jour

Les notes de mise à jour couvrent les sujets suivants :

IMPORTANT : VMware a supprimé ESXi 7.0 Update 3, 7.0 Update 3a et 7.0 Update 3b de tous les sites le 19 novembre 2021 en raison d'un problème affectant la mise à niveau. Build 19193900 pour ESXi 7.0 Update 3c ISO remplace respectivement les builds 18644231, 18825058 et 18905247 pour ESXi 7.0 Update 3, 7.0 Update 3a et 7.0 Update 3b. Pour vous assurer que vous exécutez une mise à niveau sans problème vers vSphere 7.0 Update 3c, consultez les articles 86447 et 87327 de la base de connaissances VMware.

Nouveautés

Pour décpouvrir les nouvelles fonctionnalités des versions restaurées, reportez-vous à la liste suivante :

  • Surveillance et correction de la mémoire vSphere, et prise en charge des snapshots de machines virtuelles PMem : la surveillance et la correction de la mémoire vSphere collecte des données et assure la visibilité des statistiques de performances pour vous aider à déterminer si la charge de travail de votre application a régressé en raison du mode mémoire. vSphere 7.0 Update 3 ajoute également la prise en charge des snapshots de machines virtuelles PMem. Pour plus d'informations, consultez Surveillance et correction de la mémoire vSphere.

  • Prise en charge étendue des types de lecteurs de disque : À partir de vSphere 7.0 Update 3, vSphere Lifecycle Manager valide les types de lecteurs de disque et les configurations de périphériques de stockage suivants :
    • HDD (SAS/SATA)
    • SSD (SAS/SATA)
    • Lecteurs de disque SAS/SATA derrière des volumes logiques RAID-0 à disque unique
    Pour plus d'informations, consultez Vérifications de la compatibilité matérielle au niveau du cluster.

  • Utiliser des images de vSphere Lifecycle Manager pour gérer un cluster étendu vSAN et son hôte témoin : À partir de vSphere 7.0 Update 3, vous pouvez utiliser des images de vSphere Lifecycle Manager pour gérer un cluster étendu vSAN et son hôte témoin. Pour plus d'informations, consultez Utilisation d'images de vSphere Lifecycle Manager pour corriger les clusters étendus vSAN.

  • Améliorations des services de cluster vSphere (vCLS) : Avec vSphere 7.0 Update 3, les administrateurs vSphere peuvent configurer des machines virtuelles vCLS pour qu'elles s'exécutent sur des banques de données spécifiques en configurant la préférence de banque de données de VM vCLS par cluster. Les administrateurs peuvent également définir des stratégies de calcul pour spécifier la manière dont vSphere Distributed Resource Scheduler (DRS) doit placer les machines virtuelles d'agent vCLS (VM vCLS) et d'autres groupes de machines virtuelles de charge de travail. 

  • Amélioration de l'interopérabilité entre les versions de vCenter Server et d'ESXi : À partir de vSphere 7.0 Update 3, vCenter Server peut gérer les hôtes ESXi des deux versions majeures précédentes et n'importe quel hôte ESXi à partir de la version 7.0 et de ses mises à jour. Par exemple, vCenter Server 7.0 Update 3 peut gérer les hôtes ESXi des versions 6.5, 6.7 et 7.0, toutes les versions de mise à jour 7.0, y compris les versions ultérieures à Update 3, et un mélange d'hôtes entre les versions majeures et de mise à jour.

  • Nouvelle balise VMNIC pour le trafic de stockage NVMe-over-RDMA : ESXi 7.0 Update 3 ajoute une nouvelle balise VMNIC pour le trafic de stockage NVMe-over-RDMA. Ce paramètre de port VMkernel permet de router le trafic NVMe-over-RDMA sur l'interface balisée. Vous pouvez également utiliser la commande ESXCLI esxcli network ip interface tag add -i <interface name> -t NVMeRDMA pour activer la balise NVMeRDMA VMNIC.

  • Prise en charge de NVMe over TCP : vSphere 7.0 Update 3 étend la suite NVMe-oF avec le protocole de stockage NVMe over TCP pour permettre des performances élevées et un parallélisme des périphériques NVMe sur un déploiement étendu de réseaux TCP/IP.

  • Aucune interruption de service, aucune perte de données pour les machines virtuelles stratégiques en cas de panne matérielle MCE (Machine Check Exception) : Avec vSphere 7.0 Update 3, les machines virtuelles stratégiques protégées par VMware vSphere Fault Tolerance ne subissent aucune interruption de service et aucune perte de données en cas de panne matérielle MCE (Machine Check Exception), car les machines virtuelles reviennent à la machine virtuelle secondaire au lieu d'échouer. Pour plus d'informations, reportez-vous au Fonctionnement de Fault Tolerance.
     
  • Précision de l'heure de niveau micro-seconde pour les charges de travail : ESXi 7.0 Update 3 ajoute le protocole PTP (Precision Time Protocol) de l'horodatage matériel pour activer la précision de l'heure au niveau micro-seconde. Pour plus d'informations, reportez-vous à Utiliser PTP pour la synchronisation de l'heure et de la date d'un hôte.
     
  • Amélioration de la configuration du chronométrage de l’hôte ESXi :  ESXi 7.0 Update 3 améliore le workflow et l'expérience utilisateur pour définir une configuration de chronométrage de l'hôte ESXi. Pour plus d'informations, reportez-vous à Modifier les paramètres de configuration de l'heure d'un hôte.

Versions antérieures d'ESXi 7.0

Les nouvelles fonctionnalités ainsi que les problèmes résolus et connus d'ESXi sont décrits dans les notes de mise à jour de chaque version. Notes de mise à jour des versions antérieures à ESXi 7.0 :

Pour plus d'informations sur l'internationalisation, la compatibilité et les composants open source, consultez les Notes de mise à jour de VMware vSphere 7.0.

Correctifs contenus dans cette version

La version 7.0 Update 3c d'ESXi fournit les correctifs suivants :

Détails de la build

Nom de fichier de téléchargement : VMware-ESXi-7.0U3c-19193900-depot
Build : 19193900
Taille du téléchargement : 395,8 Mo
md5sum : e39a951f4e96e92eae41c94947e046ec
sha256checksum : 20cdcd6fd8f22f5f8a848b45db67316a3ee630b31a152312f4beab737f2b3cdc
Redémarrage de l'hôte requis : Oui
Migration ou arrêt de la machine virtuelle requis : Oui

Pour obtenir un tableau des numéros de build et des versions de VMware ESXi, consultez l'article 2143832 de la base de connaissances VMware.

IMPORTANT :

  • À partir de vSphere 7.0, VMware utilise des composants pour le conditionnement des VIB avec des bulletins. Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte. 
  • Lorsque vous appliquez un correctif aux hôtes ESXi à l'aide de VMware Update Manager à partir d'une version antérieure à ESXi 7.0 Update 2, il est vivement recommandé d'utiliser le bulletin de cumul dans la ligne de base de correctifs. Si vous ne pouvez pas utiliser le bulletin de cumul, assurez-vous d'inclure tous les modules suivants dans la ligne de base de correctifs. Si les modules suivants ne sont pas inclus dans la ligne de base, l'opération de mise à jour échoue :
    • VMware-vmkusb_0.1-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-vmkata_0.1-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 ou version ultérieure

Bulletin de cumul

Ce bulletin de cumul contient les derniers VIB avec tous les correctifs postérieurs à la publication initiale d'ESXi 7.0.

ID de bulletin Catégorie Gravité
ESXi70U3c-19193900 Correctif de bogues Critique

Profils d'image

Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques. L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.

Nom de profil d'image
ESXi70U3c-19193900-standard
ESXi70U3c-19193900-no-tools

Image ESXi

Nom et version Date de publication Catégorie Détail
ESXi70U3c-19193900 27 janvier 2022 Correctif de bogues Image correction de bogue

Pour plus d'informations sur les composants et bulletins individuels, reportez-vous à la page Correctifs de produits et à la section Problèmes résolus.

Téléchargement et installation de correctifs

Dans vSphere 7.x, le plug-in Update Manager, utilisé pour l'administration de vSphere Update Manager, est remplacé par le plug-in Lifecycle Manager. Les opérations d'administration pour vSphere Update Manager sont toujours disponibles sous le plug-in Lifecycle Manager, avec de nouvelles capacités pour vSphere Lifecycle Manager.
La manière habituelle d'appliquer des correctifs aux hôtes ESXi 7.x consiste à utiliser vSphere Lifecycle Manager. Pour plus d'informations, consultez À propos de vSphere Lifecycle Manager et Lignes de base et images de vSphere Lifecycle Manager.
Vous pouvez également mettre à jour des hôtes ESXi sans utiliser le plug-in Lifecycle Manager et utiliser un profil d'image à la place. Pour ce faire, vous devez télécharger manuellement le fichier ZIP du bundle après vous être connecté à VMware Customer Connect. Dans le menu déroulant Sélectionner un produit, sélectionnez ESXi (intégré et installable), puis, dans le menu déroulant Sélectionner une version, sélectionnez 7.0. Pour plus d'informations, consultez Mise à niveau des hôtes à l'aide des commandes ESXCLI et le guide Mise à niveau de VMware ESXi.

Remarques relatives à la prise en charge du produit

  • Désapprobation des comptes localos : La prise en charge de l'utilisation de comptes localos en tant que source d'identité est obsolète. VMware prévoit d'interrompre la prise en charge de l'utilisation du système d'exploitation local comme source d'identité. Cette fonctionnalité sera supprimée dans une version ultérieure de vSphere.
  • La version cURL dans ESXi650-202110001 et ESXi670-202111001 est ultérieure à la version cURL dans ESXi 7.0 Update 3c : La version cURL dans ESXi 7.0 Update 3c est la version 7.77.0, tandis que lESXi650-202110001 et ESXi670-202111001 ont la version fixe la plus récente à savoir 7.78.0. Par conséquent, si vous effectuez une mise à niveau d'ESXi650-202110001 ou ESXi670-202111001 vers ESXi 7.0 Update 3c, cURL 7.7.0 peut exposer votre système aux vulnérabilités suivantes :
    CVE-2021-22926 : CVSS 7.5
    CVE-2021-22925 : CVSS 5.3
    CVE-2021-22924 : CVSS 3.7
    CVE-2021-22923 : CVSS 5.3
    CVE-2021-22922 : CVSS 6.5
    cURL version 7.78.0 est fourni avec une future version d'ESXi 7.x.

Problèmes résolus

Les problèmes résolus sont regroupés comme suit :

Problèmes de mise en réseau
  • Si vous utilisez une instance de vSphere Distributed Switch (VDS) d'une version antérieure à la version 6.6 et que vous modifiez l'algorithme de hachage LAG, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet

    Si vous utilisez une instance de VDS d'une version antérieure à 6.6 sur un système vSphere 7.0 Update 1 ou version ultérieure, et que vous modifiez l'algorithme de hachage LAG, par exemple des hachages L3 à L2, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version.

  • vous voyez des abandons de paquets pour les machines virtuelles sur lesquelles la redirection d'extensibilité réseau VMware (NetX) est activée

    Dans les diagrammes de performances avancés de vCenter Server, vous voyez un nombre croissant d'abandons de paquets pour toutes les machines virtuelles sur lesquelles la redirection NetX est activée. Cependant, si vous désactivez la redirection NetX, le nombre devient 0.

    Ce problème est résolu dans cette version.

  • Un hôte ESXi peut échouer avec un écran de diagnostic violet lors du démarrage en raison d'un mappage CQ à EQ incorrect dans un HBA FC Emulex

    À de rares occasions, un mappage incorrect des files d'attente d'exécution (CQ) lorsque le nombre total de canaux d'E/S d'un HBA FC Emulex n'est pas un multiple exact du nombre de files d'attente d'événements (EQ), peut entraîner l'échec du démarrage d'un hôte ESXi avec un écran de diagnostic violet. Dans la trace de débogage, vous pouvez voir une erreur dans la méthode lpfc_cq_create().

    Ce problème est résolu dans cette version. Le correctif garantit le mappage correct des files d'attente d'exécution aux files d'attente événements.

  • Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'un problème d'allocation de mémoire dans les sockets de domaine UNIX

    Lors d'une communication interne entre des sockets de domaine UNIX, une allocation de segment de mémoire peut se produire au lieu du nettoyage des données auxiliaires telles que des descripteurs de fichiers. Par conséquent, dans certains cas, l'hôte ESXi peut signaler une condition de mémoire insuffisante et échouer avec un écran de diagnostic violet avec #PF Exception 14 et des erreurs semblables à UserDuct_ReadAndRecvMsg().

    Ce problème est résolu dans cette version. Le correctif nettoie les données auxiliaires pour éviter les allocations de mémoire tampon.

  • Les configurations facultatives NTP ne persistent pas lors d'un redémarrage d'hôte ESXi

    Lorsque vous définissez des configurations facultatives pour NTP à l'aide de commandes ESXCLI, les paramètres peuvent ne pas persister après le redémarrage de l'hôte ESXi.

    Ce problème est résolu dans cette version. Le correctif s'assure que les configurations facultatives sont restaurées dans le cache local à partir de ConfigStore lors du démarrage de l'hôte ESXi.

  • Lorsque vous modifiez l'algorithme de hachage LACP dans les systèmes utilisant vSphere Distributed Switch de version 6.5.0, plusieurs hôtes ESXi peuvent échouer avec un écran de diagnostic violet

    Dans les systèmes utilisant vSphere Distributed Switch de version 6.5.0 et des hôtes ESXi de version 7.0 ou ultérieure, lorsque vous modifiez l'algorithme de hachage LACP, cela peut entraîner une erreur d'événement LACP non prise en charge en raison d'un tableau de chaînes temporaire utilisé pour enregistrer le nom du type d'événement. Par conséquent, plusieurs hôtes ESXi peuvent échouer avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version. Pour éviter d'être confronté à ce problème, dans les systèmes vCenter Server de version 7.0 et ultérieures, assurez-vous d'utiliser une version de vSphere Distributed Switch ultérieure à la version 6.5.0.

Problèmes d'installation, de mise à niveau et de migration
  • La correction des clusters que vous gérez avec des lignes de base vSphere Lifecycle Manager peut prendre du temps

    La correction des clusters que vous gérez avec des lignes de base vSphere Lifecycle Manager peut prendre du temps après les mises à jour d'ESXi 7.0 Update 2d et versions antérieures vers une version ultérieure à ESXi 7.0 Update 2d.

    Ce problème est résolu dans cette version.

  • Après la mise à jour vers ESXi 7.0 Update 3, les machines virtuelles dotées de disques RDM physiques ne parviennent pas à migrer ou à mettre sous tension les hôtes ESXi de destination

    Dans certains cas, par exemple les machines virtuelles incluant des périphériques RDM exécutés sur des serveurs avec SNMP, une condition de concurrence entre les demandes ouvertes de périphérique peut entraîner l'échec des opérations de vSphere vMotion.

    Ce problème est résolu dans cette version. Le correctif s'assure que les demandes ouvertes de périphérique sont séquentielles pour éviter les conditions de concurrence. pour plus d'informations, reportez-vous à l'article 86158 de la base de connaissances VMware. 

  • Après la mise à niveau vers ESXi 7.0 Update 2d et versions ultérieures, une erreur de synchronisation de l'heure NTP s'affiche

    Dans certains environnements, après la mise à niveau vers ESXi 7.0 Update 2d et versions ultérieures, dans vSphere Client vous pouvez voir l'erreur L'hôte a perdu la synchronisation de l'heure. Toutefois, l'alarme peut ne pas indiquer un problème réel.

    Ce problème est résolu dans cette version. Le correctif remplace le message d'erreur par une fonction de journalisation pour la trace de débogage, mais empêche les fausses alarmes.

Problèmes divers
  • NOUVEAU Un problème très rare concernant des machines virtuelles avec NVIDIA vGPU peut entraîner l'échec des hôtes ESXi et un écran de diagnostic violet

    Dans de rares cas, les hôtes ESXi avec des machines virtuelles NVIDIA vGPU peuvent échouer par intermittence avec un écran de diagnostic violet et une erreur d'alerte de noyau. Ce problème peut affecter plusieurs hôtes ESXi, mais pas simultanément. Dans le backlog, vous voyez des rapports de noyau sur les expirations des signaux de pulsation par rapport au CPU pendant x secondes et la pile informe d'un cache P2M.

    Ce problème est résolu dans cette version.

  • les hôtes ESXi ayant des machines virtuelles sur lesquelles la sensibilité de latence est activée peuvent cesser de répondre de manière aléatoire en raison d'une défaillance de CPU  

    Lorsque vous activez la sensibilité de latence sur les machines virtuelles, des threads de Service Manager Likewise (lwsmd), qui définit explicitement l'affinité de CPU, peuvent entrer en concurrence pour les ressources de CPU sur de telles machines virtuelles. Par conséquent, l'hôte ESXi et le service hostd peuvent cesser de répondre.  

    Ce problème est résolu dans cette version. Le correctif s'assure que lwsmd ne définit pas explicitement l'affinité de CPU. 

  • À de très rares occasions, la logique de nouvelle tentative de l'adaptateur NVME virtuel (VNVME) dans ESXi 7.0 Update 3 peut potentiellement provoquer une corruption silencieuse des données

    La logique de nouvelle tentative de VNVME dans ESXi 7.0 Update 3 présente un problème qui peut potentiellement entraîner une corruption silencieuse des données. Les nouvelles tentatives se produisent rarement et dans certains cas elles peuvent potentiellement provoquer des erreurs de données. Ce problème affecte uniquement ESXi 7.0 Update 3.

    Ce problème est résolu dans cette version.

  • Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors de l'arrêt en raison de métadonnées périmées

    À de rares occasions, lorsque vous supprimez un composant volumineux dans un hôte ESXi, puis procédez à un redémarrage, le redémarrage peut commencer avant la suppression de toutes les métadonnées du composant. Les métadonnées périmées peuvent entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet. 

    Ce problème est résolu dans cette version. Le correctif garantit qu'il ne reste aucune métadonnée en attente avant un redémarrage d'hôtes ESXi.

  • L'infrastructure de poste de travail virtuel (VDI) peut cesser de répondre en raison d'une condition de concurrence dans le pilote VMKAPI

    La livraison d'événements aux applications peut être retardée indéfiniment en raison d'une condition de concurrence dans le pilote VMKAPI. Par conséquent, l'infrastructure de poste de travail virtuel dans certains environnements, tels que les systèmes utilisant des cartes graphiques NVIDIA, peut cesser de répondre ou perdre la connexion au client VDI.

    Ce problème est résolu dans cette version.

  • Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison de problèmes avec des sémaphores ACPICA (ACPI Component Architecture)

    Plusieurs problèmes de mise en œuvre des sémaphores ACPICA dans ESXi 7.0 Update 3 et versions antérieures peuvent entraîner des alertes VMKernel, généralement lors du démarrage. Un problème dans la mise en œuvre du sémaphore peut provoquer une panne et, sur plusieurs chemins d'appel, VMKernel peut tenter de manière incorrecte d'acquérir un serveur ACPICA ou de passer en mode veille dans ACPICA tout en maintenant un verrou spinlock. L'origine éventuelle de ces problèmes sur une machine spécifique dépend des détails du microprogramme ACPI de la machine.

    Ces problèmes ont été résolus dans cette version. Le correctif implique une réécriture des sémaphores ACPICA dans ESXi, ainsi qu'une correction des chemins de code qui tentent d'entrer dans ACPICA tout en maintenant un verrou spinlock.

  • Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lorsque des opérations d'E/S s'exécutent sur un adaptateur iSCSI logiciel

    Les opérations d'E/S sur un adaptateur iSCSI logiciel peuvent entraîner une condition de concurrence rare dans le pilote iscsi_vmk. Par conséquent, les hôtes ESXi peuvent échouer par intermittence avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version.

Problèmes de sécurité
  • Mise à jour vers OpenSSL

    Le module OpenSSL est mis à jour vers la version openssl-1.0.2zb.

  • Mise à jour du module Python

    Le module Python est mis à jour pour traiter CVE-2021-29921.

  • Vous pouvez vous connecter au port 9080 à l'aide de chiffrements DES/3DES restreints

    Avec la commande OPENSSL openssl s_client -cipher <CIPHER>-connect localhost:9080 vous pouvez vous connecter au port 9080 en utilisant des chiffrements DES/3DES restreints.

    Ce problème est résolu dans cette version. Vous ne pouvez pas vous connecter au port 9080 à l'aide des chiffrements suivants : DES-CBC3-SHA, EDH-RSA-DES-CBC3-SHA, ECDHE-RSA-DES-CBC3-SHA et AECDH-DES-CBC3-SHA.

  • Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3c :

    • windows.iso : VMware Tools 11.3.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.
    • linux.iso: Image ISO de VMware Tools 10.3.23 pour le système d'exploitation Linux avec glibc version 2.11 ou version ultérieure.

    Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :

    • VMware Tools 11.0.6 :
      • windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
         
    • VMware Tools 10.0.12 :
      • winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.
      • linuxPreGLibc25.iso : prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
         
      solaris.iso: Image de VMware Tools 10.3.10 pour Solaris.
    • darwin.iso: Prend en charge Mac OS X 10.11 et versions ultérieures.

    Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

Problèmes de vSphere Client
  • les machines virtuelles s'affichent comme étant inaccessibles dans vSphere Client et des interruptions de service peuvent se produire pour les applications

    À de rares occasions, des problèmes matériels peuvent entraîner une corruption de la base de données SQlite qui rend plusieurs machines virtuelles inaccessibles et peut entraîner l'indisponibilité de services pour les applications.

    Ce problème est résolu dans cette version.

Problèmes de stockage
  • Les opérations de machine virtuelle échouent avec une erreur d'espace disque insuffisant sur une banque de données

    Une nouvelle banque de données dispose normalement d'un nombre élevé de ressources de blocs de fichiers volumineux (LFB) et d'un nombre inférieur de ressources de blocs de fichiers non volumineux (SFB). Pour les workflows qui consomment des SFB, tels que des opérations de machine virtuelle, les LFB sont convertis en SFB. Cependant, en raison d'un retard de mise à jour de l'état de conversion, les SFB récemment convertis peuvent ne pas être reconnus comme étant disponibles pour l'allocation. Par conséquent, vous voyez une erreur telle que Espace disque insuffisant sur la banque de données lorsque vous tentez de mettre sous tension, de cloner ou de migrer une machine virtuelle.

    Ce problème est résolu dans cette version.

  • les opérations de snapshot de vSphere Virtual Volumes peuvent échouer sur le volume source ou le volume de snapshot sur Pure Storage

    En raison d'un problème qui permet la duplication de l'ID unique de vSphere Virtual Volumes, les opérations de snapshot de machine virtuelle peuvent échouer ou le volume source peut être supprimé. Ce problème est spécifique de Pure Storage et affecte les lignes de version Purity 5.3.13 et antérieures, 6.0.5 et versions antérieures, et 6.1.1 et versions antérieures.

    Ce problème est résolu dans cette version.

Problèmes de vSAN
  • Vous pouvez voir des erreurs de santé vSAN pour la partition du cluster lorsque le chiffrement des données en transit est activé

    Dans vSphere Client, vous pouvez voir des erreurs de santé vSAN telles que Partition du cluster vSAN ou Santé de l'objet vSAN lorsque le chiffrement des données en transit est activé. Ce problème se produit, car lorsqu'une opération de renouvellement de clés démarre dans un cluster vSAN, un problème temporaire de ressources peut entraîner l'échec de l'échange de clés entre homologues.

    Ce problème est résolu dans cette version.

Problèmes de gestion des machines virtuelles
  • Une condition de concurrence entre les opérations de migration en direct peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet

    Dans les environnements comportant des machines virtuelles de 575 Go ou plus de mémoire réservée qui n'utilisent pas vSphere vMotion chiffré, une opération de migration en direct peut concurrencer une autre migration en direct et entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version. Cependant, à de très rares occasions, l'opération de migration peut toujours échouer, que la cause principale de la condition d'écran de diagnostic violet soit corrigée ou non. Dans ce cas, réessayez la migration lorsqu'aucune autre migration en direct n'est en cours sur l'hôte source ou activez vSphere vMotion chiffré sur les machines virtuelles.

Problèmes résolus depuis les versions précédentes

    Problèmes de mise en réseau

    • Le trafic RDMA utilisant le protocole iWARP peut ne pas aboutir

      Le trafic RDMA utilisant le protocole iWARP sur les cartes Intel x722 peut expirer et ne pas se terminer.

      Ce problème est résolu dans cette version.

    Problèmes d'installation, de mise à niveau et de migration

    • La partition /locker peut être corrompue lorsqu'elle est stockée sur un périphérique USB ou SD

      En raison de la sensibilité d'E/S des périphériques USB et SD, la partition locker VMFS-L sur ces périphériques qui stocke les fichiers de VMware Tools et les fichiers de vidage de mémoire peut s'altérer.

      Ce problème est résolu dans cette version. Par défaut, ESXi charge les modules locker sur le disque RAM pendant le démarrage. 

    • Les hôtes ESXi peuvent perdre la connectivité après la mise à niveau du pilote brcmfcoe sur les baies de stockage Hitachi

      Après une mise à niveau du pilote brcmfcoe sur des baies de stockage Hitachi, les hôtes ESXi peuvent ne pas démarrer et perdre la connectivité.

      Ce problème est résolu dans cette version.

    • Après la mise à niveau vers ESXi 7.0 Update 2, vous voyez une charge d'E/S de lecture de stockage excessive

      ESXi 7.0 Update 2 a introduit une interface de fournisseur de statistiques système qui nécessite la lecture des statistiques de la banque de données pour chaque hôte ESXi toutes les 5 minutes. Si une banque de données est partagée par plusieurs hôtes ESXi, ces lectures fréquentes peuvent entraîner une latence de lecture sur la baie de stockage et créer une charge d'E/S de lecture de stockage excessive.

      Ce problème est résolu dans cette version.

    Problèmes de gestion des machines virtuelles

    • Les machines virtuelles sur lesquelles AMD Secure Encrypted Virtualization-Encrypted State (SEV-ES) est activé ne peuvent pas créer de sockets VMCI (Virtual Machine Communication Interface)

      Les performances et les fonctionnalités qui nécessitent VMCI peuvent être affectées sur les machines virtuelles sur lesquelles AMD SEV-ES est activé, car ces machines virtuelles ne peuvent pas créer de sockets VMCI.

      Ce problème est résolu dans cette version.

    • Les machines virtuelles peuvent échouer lors du redémarrage d'un système d'exploitation invité fortement chargé

      Dans de rares cas, lorsqu'un redémarrage du système d'exploitation invité est initié en dehors de l'invité, par exemple à partir de vSphere Client, les machines virtuelles peuvent échouer, générant un vidage VMX. Ce problème peut se produire lorsque le système d'exploitation invité est très chargé. En conséquence, les réponses de l'invité aux demandes VMX sont retardées avant le redémarrage. Dans ce cas, le fichier vmware.log des machines virtuelles inclut des messages tels que : I125: Tools : Unable to send state change 3: TCLO error. E105: PANIC: NOT_REACHED bora/vmx/tools/toolsRunningStatus.c:953.

      Ce problème est résolu dans cette version.

    Problèmes divers

    • Des E/S de lecture asynchrones contenant un tableau SCATTER_GATHER_ELEMENT de plus de 16 membres dont au moins un membre se trouve dans le dernier bloc partiel d'un fichier peuvent entraîner une panique de l'hôte ESXi

      À de rares occasions, dans une E/S de lecture asynchrone contenant un tableau SCATTER_GATHER_ELEMENT de plus de 16 membres, au moins un membre peut se trouver dans le dernier bloc partiel d'un fichier. Cela peut entraîner la corruption du segment de mémoire VMFS, ce qui entraîne l'échec des hôtes ESXi avec un écran de diagnostic violet.

      Ce problème est résolu dans cette version.

    • si un système d'exploitation invité émet des demandes UNMAP volumineuses sur des VMDK à provisionnement dynamique, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet

      ESXi 7.0 Update 3 a introduit une granularité UNMAP uniforme pour les snapshots VMFS et SEsparse, et définit la granularité UNMAP maximale signalée par VMFS sur 2 Go. Cependant, dans certains environnements, lorsque le système d'exploitation invité effectue une demande trim ou unmap de 2 Go, celle-ci peut nécessiter que la transaction de métadonnées VMFS verrouille plus de 50 clusters de ressources. VMFS peut ne pas traiter correctement de telles demandes. Par conséquent, un hôte ESXi peut échouer avec un écran de diagnostic violet. La transaction de métadonnées VMFS nécessitant un verrouillage de plus de 50 clusters de ressources est rare et peut se produire uniquement sur des banques de données anciennes. Ce problème affecte uniquement les VMDK à provisionnement dynamique. Les VMDK statiques et immédiatement mis à zéro ne sont pas affectés.
      Outre l'écran de diagnostic violet, vous voyez des erreurs semblables aux erreurs suivantes dans le fichier /var/run/log/vmkernel :
      2021-10-20T03:11:41.679Z cpu0:2352732)@BlueScreen: NMI IPI: Panic requested by another PCPU. RIPOFF(base):RBP:CS [0x1404f8(0x420004800000):0x12b8:0xf48] (Src 0x1, CPU0)
      2021-10-20T03:11:41.689Z cpu0:2352732)Code start: 0x420004800000 VMK uptime: 11:07:27:23.196
      2021-10-20T03:11:41.697Z cpu0:2352732)Saved backtrace from: pcpu 0 Heartbeat NMI
      2021-10-20T03:11:41.715Z cpu0:2352732)0x45394629b8b8:[0x4200049404f7]HeapVSIAddChunkInfo@vmkernel#nover+0x1b0 stack: 0x420005bd611e

      Ce problème est résolu dans cette version.

    • Le service hostd peut échouer en raison d'un problème de surveillance des événements du service de temps

      Un problème dans le service de surveillance des événements du service de temps, qui est activé par défaut, peut entraîner l'échec du service hostd. Dans le fichier vobd.log, vous pouvez voir des erreurs telles que :
      2021-10-21T18:04:28.251Z: [UserWorldCorrelator] 304957116us: [esx.problem.hostd.core.dumped] /bin/hostd crashed (1 time(s) so far) and a core file may have been created at /var/core/hostd-zdump.000. Cela peut avoir provoqué l'abandon des connexions à l'hôte.
      2021-10-21T18:04:28.251Z: Un événement (esx.problem.hostd.core.dumped) n'a pas pu être envoyé immédiatement à hostd ; mise en file d'attente pour nouvel essai. 2021-10-21T18:04:32.298Z: [UserWorldCorrelator] 309002531us: [vob.uw.core.dumped] /bin/hostd(2103800) /var/core/hostd-zdump.001
      2021-10-21T18:04:36.351Z: [UserWorldCorrelator] 313055552us: [vob.uw.core.dumped] /bin/hostd(2103967) /var/core/hostd-zdump.002
      .

      Ce problème est résolu dans cette version. 

    Problèmes connus

    Les problèmes connus sont classés comme suit :

    Problèmes de mise en réseau
    • Les propriétés de NSX for vSphere périmées dans les hôtes vSphere Distributed Switch 7.0 (VDS) ou ESXi 7.x peuvent faire échouer les mises à jour de l'hôte

      Si NSX for vSphere avec VXLAN était activé sur une instance de vSphere Distributed Switch (VDS) de version 7.0 et que vous avez migré vers NSX-T Data Center à l'aide de la migration NSX V2T, des propriétés périmées de NSX for vSphere dans VDS ou certains hôtes peuvent empêcher les mises à jour des hôtes ESXi 7.x. La mise à jour de l'hôte échoue avec une erreur de configuration de plate-forme.

      Solution : téléchargez le script CleanNSXV.py dans le répertoire /tmp de vCenter Server. Connectez-vous à l'interpréteur de commandes du dispositif en tant qu'utilisateur disposant de privilèges de super administrateur (par exemple, racine) et procédez comme suit :

      1. Exécutez CleanNSXV.py à l'aide de la commande PYTHONPATH=$VMWARE_PYTHON_PATH python /tmp/CleanNSXV.py --user <utilisateur_admin_vc> --password <motdepasse>. Le paramètre <utilisateur_admin_vc> est un utilisateur vCenter Server disposant de privilèges de super administrateur et <motdepasse> est le mot de passe de l'utilisateur. 
        Par exemple : 
        PYTHONPATH=$VMWARE_PYTHON_PATH python /tmp/CleanNSXV.py --user '[email protected]' --password 'Admin123'
      2. Vérifiez que les propriétés de NSX for vSphere com.vmware.netoverlay.layer0 et com.vmware.net.vxlan.udpport ont été supprimées des hôtes ESXi :
        1. Connectez-vous à un hôte ESXi aléatoire à l'aide d'un client protocole SSH.
        2. Exécutez la commande net-dvs -l | grep "com.vmware.netoverlay.layer0\|com.vmware.net.vxlan.udpport".
          Si vous ne voyez aucune sortie, les propriétés périmées sont supprimées.

      Pour télécharger le script CleanNSXV.py et pour plus d'informations, consultez l'article 87423 de la base de connaissances VMware.

    Problèmes de sécurité
    • La version cURL dans ESXi650-202110001 et ESXi670-202111001 est ultérieure à la version cURL dans ESXi 7.0 Update 3c

      La version cURL dans ESXi 7.0 Update 3c est la version 7.77.0, tandis que lESXi650-202110001 et ESXi670-202111001 ont la version fixe la plus récente à savoir 7.78.0. Par conséquent, si vous effectuez une mise à niveau d'ESXi650-202110001 ou ESXi670-202111001 vers ESXi 7.0 Update 3c, cURL 7.7.0 peut exposer votre système aux vulnérabilités suivantes :
      CVE-2021-22926 : CVSS 7.5
      CVE-2021-22925 : CVSS 5.3
      CVE-2021-22924 : CVSS 3.7
      CVE-2021-22923 : CVSS 5.3
      CVE-2021-22922 : CVSS 6.5

      Solution : Aucune. cURL version 7.78.0 est fourni avec une future version d'ESXi 7.x.

    Problèmes connus des versions antérieures

    Pour afficher la liste des problèmes connus précédents, cliquez ici.

    check-circle-line exclamation-circle-line close-line
    Scroll to top icon
    check-circle-line exclamation-circle-line close-line
    Scroll to top icon