This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

ESXi 7.0 Update 1c | 17 décembre 2020 | Build ISO 17325551

Vérifiez les compléments et les mises à jour pour ces notes de mise à jour.

Contenu des notes de mise à jour

Les notes de mise à jour couvrent les sujets suivants :

Nouveautés

  • ESXi 7.0 Update 1c prend en charge vSphere Quick Boot sur les serveurs suivants :
    • Cisco Systems Inc :
      • HX240C-M5SD
      • HXAF240C-M5SD
      • UCSC-C240-M5SD
    • Dell Inc :
      • PowerEdge C6420
      • PowerEdge C6525
      • PowerEdge FC640
      • PowerEdge M640
      • PowerEdge MX740c
      • PowerEdge MX840c
      • PowerEdge R540
      • PowerEdge R6515
      • PowerEdge R6525
      • PowerEdge R7515
      • PowerEdge R7525
      • PowerEdge R840
      • PowerEdge R930
      • PowerEdge R940
      • PowerEdge R940xa
    • HPE :
      • ProLiant DL385 Gen10
  • ESXi 7.0 Update 1c ajoute cinq statistiques de carte réseau physique, à savoir droppedRx, droppedTx, errorsRx, RxCRCErrors et errorsTx, au fichier hostd. log dans /var/run/log/hostd.log pour vous permettre de détecter les erreurs de mise en réseau non corrigées et de prendre les mesures correctives nécessaires.

  • ESXi 7.0 Update 1c permet d'utiliser le paramètre --remote-host-max-msg-len pour définir la longueur maximale des messages syslog jusqu'à 16 Kio pour éviter leur fractionnement. Par défaut, le démon syslog ESXi (vmsyslogd) respecte strictement la longueur maximale du message de 1 Kio définie par RFC 3164. Les messages plus longs sont divisés en plusieurs parties. Définissez la longueur maximale des messages sur la longueur minimale prise en charge par l'un des récepteurs ou relais syslog impliqués dans l'infrastructure syslog.

  • ESXi 7.0 Update 1c permet d'utiliser l'option de démarrage du programme d'installation systemMediaSize pour limiter la taille des partitions de stockage système sur le support de démarrage. Si votre système dispose d'un emplacement de petite taille qui ne requiert pas la taille de stockage système maximale de 138 Go, vous pouvez le limiter à la taille minimale de 33 Go. Le paramètre systemMediaSize accepte les valeurs suivantes :

    La valeur sélectionnée doit correspondre à l'usage auquel votre système est destiné. Par exemple, un système disposant de 1 To de mémoire doit utiliser au minimum 69 Go pour le stockage système. Pour définir l'option de démarrage au moment de l'installation, par exemple systemMediaSize=small, reportez-vous à la section Entrer les options de démarrage pour lancer un script d'installation ou de mise à niveau. Pour plus d'informations, reportez-vous à l'article 81166 de la base de connaissances VMware.

    • min (33 Go, pour un seul disque ou des serveurs intégrés)
    • petite (69 Go, pour les serveurs disposant d'au moins 512 Go de RAM)
    • taille par défaut (138 Go)
    • max (utilise tout l'espace disponible, pour les serveurs multi-téraoctets)

Versions antérieures d'ESXi 7.0

Les fonctionnalités ainsi que les problèmes connus et résolus d'ESXi sont décrits dans les notes de mise à jour de chaque version. Notes de mise à jour des versions antérieures à ESXi 7.0 :

Pour plus d'informations sur l'internationalisation, la compatibilité et les composants open source, consultez les Notes de mise à jour de VMware vSphere 7.0.

Correctifs contenus dans cette version

Cette version ESXi 7.0 Update 1c fournit les correctifs suivants :

Détails de la build

Nom de fichier de téléchargement : VMware-ESXi-7.0U1c-17325551-depot.zip
Build : 17325551
Taille du téléchargement : 523,2 Mo
md5sum : d1410e6c741ada23c3570e07b94bd8c7
sha1checksum : a70defe8353b39f74339b158697ed1a12df6c55d
Redémarrage de l'hôte requis : Oui
Migration ou arrêt de la machine virtuelle requis : Oui


IMPORTANT :

  • À partir de vSphere 7.0, VMware utilise des composants pour le conditionnement des VIB avec des bulletins. Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
  • Lorsque vous appliquez un correctif aux hôtes ESXi à l'aide de vSphere Lifecycle Manager à partir d'une version antérieure à ESXi 7.0 Update 1, il est vivement recommandé d'utiliser le bulletin de cumul dans la ligne de base de correctifs. Si vous ne pouvez pas utiliser le bulletin de cumul, assurez-vous d'inclure tous les modules suivants dans la ligne de base de correctifs. Si les modules suivants ne sont pas inclus dans la ligne de base, l'opération de mise à jour échoue :

    • VMware-vmkusb_0.1-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-vmkata_0.1-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 ou version ultérieure
    • VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 ou version ultérieure

Composants

Composant ID de bulletin Catégorie Gravité
ESXi ESXi_7.0.1-0.25.17325551 Correctif de bogues Critique
Composant d'installation/mise à niveau d'ESXi esx-update_7.0.1-0.25.17325551 Correctif de bogues Critique
Pilote de contrôleur de stockage VMware ATA VMware-vmkata_0.1-1vmw.701.0.25.17325551 Correctif de bogues Modéré
Pilote de contrôleur HPE Smart Array HPE-nhpsa_70.0051.0.100-2vmw.701.0.25.17325551 Correctif de bogues Modéré
Pilote USB VMware VMware-vmkusb_0.1-1vmw.701.0.25.17325551 Correctif de bogues Modéré
Pilote de contrôleur de stockage Smart Array de la solution de stockage Microsemi Microchip-smartpqi_70.4000.0.100-4vmw.701.0.25.17325551 Correctif de bogues Modéré
ESXi ESXi_7.0.1-0.20.17325020 Sécurité Critique
Composant d'installation/mise à niveau d'ESXi esx-update_7.0.1-0.20.17325020 Sécurité Critique
Pilote de contrôleur de stockage VMware ATA VMware-vmkata_0.1-1vmw.701.0.20.17325020 Sécurité Important
VMware NVMe over Fabric - Pilote RDMA VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.20.17325020 Sécurité Important
Pilote FCoE de logiciel natif VMware VMware-vmkfcoe_1.0.0.2-1vmw.701.0.20.17325020 Sécurité Important
Pilote USB VMware VMware-vmkusb_0.1-1vmw.701.0.20.17325020 Sécurité Important

Bulletin de cumul

Ce bulletin de cumul contient les derniers VIB avec tous les correctifs postérieurs à la publication initiale d'ESXi 7.0.

ID de bulletin Catégorie Gravité
ESXi70U1c-17325551 Correctif de bogues Critique

Profils d'image

Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques. L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.

Nom de profil d'image
ESXi-7.0U1c-17325551-standard
ESXi-7.0U1c-17325551-no-tools
ESXi-7.0U1sc-17325020-standard
ESXi-7.0U1sc-17325020-no-tools

Image ESXi

Nom et version Date de publication Catégorie Détail
ESXi70U1c-17325551 17/12/2020 Amélioration Image de sécurité et de résolutions de bogues
ESXi70U1sc-17325020 17/12/2020 Amélioration Image de sécurité uniquement

Pour plus d'informations sur les composants et bulletins individuels, reportez-vous à la page Correctifs de produits et à la section Problèmes résolus.

Téléchargement et installation de correctifs

Dans vSphere 7.x, le plug-in Update Manager, utilisé pour l'administration de vSphere Update Manager, est remplacé par le plug-in Lifecycle Manager. Les opérations d'administration pour vSphere Update Manager sont toujours disponibles sous le plug-in Lifecycle Manager, avec de nouvelles capacités pour vSphere Lifecycle Manager.
La manière habituelle d'appliquer des correctifs aux hôtes ESXi 7.x consiste à utiliser vSphere Lifecycle Manager. Pour plus d'informations, consultez À propos de vSphere Lifecycle Manager et Lignes de base et images de vSphere Lifecycle Manager.
Vous pouvez également mettre à jour des hôtes ESXi sans utiliser le plug-in Lifecycle Manager et utiliser un profil d'image à la place. Pour ce faire, vous devez télécharger manuellement le fichier ZIP du bundle hors ligne du correctif sur la page Téléchargement de VMware ou sur la page Correctifs de produits, puis utilisez la commande esxcli software profile update.
Pour plus d'informations, consultez Mise à niveau des hôtes à l'aide des commandes ESXCLI et le guide Mise à niveau de VMware ESXi.

Remarques relatives à la prise en charge du produit

VMware Tools 9.10.x et 10.0.x ont atteint la fin du support général. Pour plus d'informations, reportez-vous aux outils VMware Tools répertoriés sous Matrice de cycle de vie des produits VMware.

Problèmes résolus

Les problèmes résolus sont regroupés comme suit :

ESXi_7.0.1-0.25.17325551
Catégorie des correctifs Correctif de bogues
Gravité des correctifs Critique
Redémarrage de l'hôte requis Oui
Migration ou arrêt de la machine virtuelle requis Oui
Matériel concerné S.O.
Logiciels concernés S.O.
VIB inclus
  • VMware_bootbank_crx_7.0.1-0.25.17325551
  • VMware_bootbank_esx-xserver_7.0.1-0.25.17325551
  • VMware_bootbank_esx-base_7.0.1-0.25.17325551
  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.25.17325551
  • VMware_bootbank_native-misc-drivers_7.0.1-0.25.17325551
  • VMware_bootbank_vsan_7.0.1-0.25.17325551
  • VMware_bootbank_vsanhealth_7.0.1-0.25.17325551
  • VMware_bootbank_gc_7.0.1-0.25.17325551
  • VMware_bootbank_cpu-microcode_7.0.1-0.25.17325551
  • VMware_bootbank_vdfs_7.0.1-0.25.17325551
PR résolus 2656093, 2652863, 2653874, 2643508, 2644189, 2652344, 2661064, 2667291, 2662512, 2644221, 2662606, 2661153, 2655181, 2657411, 2675442, 2657649, 2662558, 2661818, 2664084, 2625155, 2658647, 2659015, 2654686, 2664278, 2676632, 2647557, 2647557, 2628899, 2663717, 2633194, 2661808, 2670891, 2665031, 2644003, 2664045
Numéros CVE S.O.

Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.

Met à jour les VIB esx-dvfilter-generic-fastpath, vsanhealth, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver, gc et cpu-microcode pour résoudre les problèmes suivants :

  • PR 2656093 : vous remarquez une perte de connectivité réseau suite à un redémarrage du commutateur physique

    Le paramètre Net.TeamPolicyUpDelay de délai de retour arrière de l'association de réseau sur les hôtes ESXi est actuellement défini sur 10 minutes, mais, dans certains environnements, il faut parfois plus de 10 minutes pour qu'un commutateur physique soit prêt à recevoir ou à transmettre des données après un redémarrage. Cela peut entraîner une perte de connectivité réseau.

    Ce problème est résolu dans cette version. Le correctif augmente la valeur du paramètre Net.TeamPolicyUpDelay jusqu'à 30 minutes. Vous pouvez définir le paramètre en sélectionnant l'hôte ESXi et en accédant à Configurer > Système -> Paramètres système avancés > Net.TeamPolicyUpDelay. Autrement, vous pouvez utiliser la commande esxcfg-advcfg -s <value> /Net/TeamPolicyUpDelay.

  • PR 2652863 : les modifications apportées à la configuration du filtre de pare-feu distribué (DFW) peuvent entraîner une perte de connectivité réseau des machines virtuelles

    Toutes les activités de reconfiguration du filtre DFW, telles que l'ajout ou la suppression de filtres, peuvent entraîner l'abandon de paquets par certains filtres. Par conséquent, les machines virtuelles perdent la connectivité réseau et vous devez réinitialiser le vmnic, modifier le groupe de ports ou redémarrer la machine virtuelle pour restaurer le trafic. La sortie de la commande summarize-dvfilter indique état : Détachement d'IOChain pour le filtre ayant échoué.

    Ce problème est résolu dans cette version.

  • PR 2653874 : une machine virtuelle peut échouer avec une erreur SIGSEGV pendant le rendu 3D

    Un tampon avec lectures excessives pendant certaines opérations de rendu peut entraîner l'échec d'une machine virtuelle 3D avec une erreur SIGSEGV lors de l'interaction avec les applications graphiques qui utilisent l'accélération 3D.

    Ce problème est résolu dans cette version.

  • PR 2643508 : Si une machine virtuelle redémarre ou se réinitialise au cours d'une opération d'enfichage à chaud, les journaux risquent de saturer l'espace disque disponible et ainsi d'empêcher la machine de répondre.

    Si une machine virtuelle redémarre ou se réinitialise au cours d'une opération d'enfichage à chaud, les journaux dans le fichier vmware.log de la machine virtuelle peuvent remplir l'espace disque disponible et empêcher la machine de répondre. Les messages de journal sont identiques, par exemple : acpiNotifyQueue: Achèvement d'événement ACPI parasite, données 0xFFFFFFFF.

    Ce problème est résolu dans cette version. Si vous ne pouvez pas appliquer ce correctif, n'effectuez pas de réinitialisation ou de redémarrage de la machine virtuelle avant la fin des opérations d'enfichage à chaud ou des installations de pilotes. Si vous avez déjà été confronté à ce problème, mettez la machine virtuelle en cycle d'alimentation.

  • PR 2644189 : échec de smpboot pour les machines virtuelles Linux avec SEV-ES (Secure Encrypted Virtualization-Encrypted State) activé

    Lorsqu'une machine virtuelle Linux avec plusieurs CPU virtuels sur laquelle SEV-ES est activé démarre, tous les CPU à l'exception de CPU0 sont hors ligne. Vous ne pouvez pas mettre les CPU restants en ligne. La commande dmesg renvoie une erreur telle que smpboot: do_boot_cpu failed(-1) to wakeup CPU#1.

    Ce problème est résolu dans cette version.

  • PR 2652344 : Si vous disposez de fichiers d'échange .vswp dans un répertoire de machine virtuelle, des messages d'erreur de périphérique ou de ressource occupé(e) s'affichent lors de l'analyse de tous les fichiers dans le répertoire

    Si vous disposez de fichiers d'échange .vswp dans un répertoire de machine virtuelle, des messages d'erreur de périphérique ou de ressource occupé(e) s'affichent lors de l'analyse de tous les fichiers dans le répertoire. Vous voyez également un flux d'E/S supplémentaire sur les objets d'espace de noms vSAN et vous remarquez un ralentissement dans le service hostd.
    Ce problème se produit si vous tentez d'ouvrir un fichier portant l'extension .vswp en tant que descripteur d'objet. Les fichiers d'échange du processus VMX ont la même extension .vswp que ceux de la mémoire principale de la machine virtuelle, mais diffèrent en ce qu'ils ne doivent pas être ouverts en tant que descripteurs d'objet.

    Ce problème est résolu dans cette version.

  • PR 2661064 : le service hostd cesse de répondre par intermittence

    Dans de rares cas, une condition de concurrence entre plusieurs threads qui tentent de créer un fichier et de supprimer le répertoire dans le même répertoire peut entraîner un blocage faisant échouer le service hostd. La restauration du service intervient uniquement après un redémarrage de l'hôte ESXi. Dans les journaux vmkernel, vous voyez des alerte telles que :

    2020-03-31T05:20:00.509Z cpu12:4528223)ALERT: hostd detected to be non-responsive.

    Un tel blocage peut également affecter d'autres services, mais la fenêtre de condition de concurrence est petite et le problème n'est pas fréquent.

    Ce problème est résolu dans cette version.

  • PR 2667291 : le chiffrement des machines virtuelles prend beaucoup de temps et finit par échouer avec une erreur

    Le chiffrement des machines virtuelles peut prendre plusieurs heures et finalement échouer en affichant l'erreur Le fichier existe déjà dans les journaux du service hostd. Ce problème se produit s'il existe un fichier <vm name="">.nvram inactif ou inutilisé dans les fichiers de configuration de machine virtuelle. Si les machines virtuelles ont une entrée telle que NVRAM = “nvram” dans le fichier .vmx, l'opération de chiffrement crée un fichier chiffré avec l'extension de fichier .nvram, ce que le système considère comme un doublon du fichier inactif existant.

    Ce problème est résolu dans cette version. Si vous avez déjà été confronté à ce problème, supprimez manuellement le fichier <vm name="">.nvram inactif avant le chiffrement.

  • Échec de l'hôte PR 2662512 : vSAN lors de la désactivation d'un important volume de cache client

    Si vSAN tente de désactiver du cache en mémoire d'un volume de 256 Go ou plus, il se peut que l'opération entraîne l'échec de l'hôte ESXi avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version. 

  • PR 2644221 : si vous activez LiveCoreDump comme option de collecte des journaux système sur un hôte ESXi, l'hôte peut cesser de répondre

    Si vous activez LiveCoreDump en tant qu'option de collecte des journaux système sur un hôte ESXi, l'hôte peut cesser de répondre. Une erreur de type #PF Exception 14 in world 2125468 s'affiche sur un écran de diagnostic violet.

    Ce problème est résolu dans cette version. 

  • PR 2662606 : vous pouvez voir des alarmes de santé pour l'ID 44 d'entité de capteur après la mise à niveau du microprogramme des serveurs HPE Gen10

    Après la mise à niveau de la version du microprogramme sur les serveurs HP Gen10, vous verrez peut-être des alarmes de santé pour les capteurs Module 2 d'E/S ALOM_Link_P2 et NIC_Link_02P2, en relation avec l'entité de capteur ID 44.x. Les alarmes n'indiquent pas un problème de santé réel et vous pouvez les ignorer quelle que soit la version du microprogramme.

    Ce problème est résolu dans cette version.

  • PR 2661153 : Si vous désactivez RC4, l'authentification utilisateur Active Directory sur les hôtes ESXi pourrait échouer

    Si vous désactivez RC4 de votre configuration Active Directory, l'authentification utilisateur sur les hôtes ESXi pourrait commencer à échouer avec des erreurs du type Échec de l'authentification de l'utilisateur.

    Ce problème est résolu dans cette version.

  • PR 2655181 : les machines virtuelles sur la banque de données NFS 4.1 peuvent cesser de répondre après un basculement ou un retour arrière du serveur NFS

    Si une demande de récupération est répétée lors d'une opération de basculement ou de restauration d'un serveur NFS, la récupération en cours échoue et entraîne une absence de réponse des machines virtuelles sur les banques de données NFS 4.1.

    Ce problème est résolu dans cette version. Le correctif analyse les réponses de récupération en détail et autorise les nouvelles tentatives uniquement lorsque cela s'avère nécessaire.

  • PR 2657411 : La durée pendant laquelle le processeur est en mode système (%SYS) augmente pour certaines charges de travail d'E/S de disque dans les machines virtuelles

    Lorsque des machines virtuelles reprennent à partir d'un snapshot, après les opérations de migration à l'aide de vSphere vMotion, lors de la reprise d'une machine virtuelle interrompue, ou d'une opération d'enfichage à chaud, vous pouvez constater une petite augmentation de la durée %SYS signalée pour certaines charges de travail d'E/S de disque. Ce problème se produit, car l'adaptateur de stockage virtuel PVSCSI peut arrêter de dimensionner dynamiquement sa file d'attente interne en fonction de la charge de travail de l'invité. Par conséquent, la surcharge du pilote augmente pendant une importante activité d'E/S et peut entraîner une augmentation mineure de la durée %SYS pour certaines charges de travail d'E/S de disque. Le problème n'affecte pas les périphériques virtuels NVMe et LSI.

    Ce problème est résolu dans cette version.

  • PR 2675442 : Le démarrage des applications Java sur un hôte AMD dans un cluster EVC (Enhanced vMotion Compatibility) peut échouer avec une erreur indiquant que SSE2 n'est pas pris en charge

    Les applications Java sur un hôte AMD dans un cluster EVC peuvent ne pas démarrer et signaler l'erreur suivante : Processeur x64 inconnu : SSE2 non pris en charge. Ce problème se produit, car le champ CPUID family (leaf 1, EAX, bits 11-8) présente une valeur incorrecte. En conséquence, Lookup Service et d'autres services basés sur Java sur vCenter Server Appliance ne peuvent pas démarrer.

    Ce problème est résolu dans cette version.

  • PR 2657649 : après la mise à niveau des serveurs HPE vers le microprogramme Integrated Lights-Out 5 (iLO 5) version 2.30 de HPE, des alertes concernant la santé du capteur de mémoire apparaissent

    Après la mise à niveau des serveurs HPE, tels que HPE ProLiant Gen10 et Gen10 plus, vers la version 2.30 du microprogramme iLO 5, vSphere Client affiche des alertes concernant la santé des capteurs de mémoire. Ce problème se produit parce que le système de surveillance de la santé du matériel ne décode pas correctement les capteurs Mem_Stat_* lorsque le premier LUN est activé après la mise à niveau.

    Ce problème est résolu dans cette version.

  • PR 2662558 : si une carte SD ne prend pas en charge la capacité de lecture 16, les journaux affichent de nombreuses erreurs

    Sur les hôtes ESXi qui utilisent un périphérique de lecteur de carte SD VID:PID/0bda:0329 Realtek Semiconductor Corp USB 3.0 ne prenant pas en charge la capacité de lecture 16, les journaux vmkernel peuvent afficher de nombreuses erreurs, telles que :
    2020-06-30T13:26:06.141Z cpu0:2097243)ScsiDeviceIO: 3449: Cmd(0x459ac1350600) 0x9e, CmdSN 0x2452e from world 0 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x7 D:0x0 P:0x0 Invalid sense data: 0x0 0x6e 0x73.
    et
    2020-06-30T14:23:18.280Z cpu0:2097243)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "mpx.vmhba32:C0:T0:L0" state in doubt; requested fast path state update...

    Ce problème est résolu dans cette version.

  • PR 2661818 : dans le cas d'une chaîne non-UTF8 dans la propriété de nom des capteurs numériques, le service vpxa échoue

    Le service vpxa échoue en cas de présence d'une chaîne non-UTF8 dans la propriété de nom des capteurs numériques et les hôtes ESXi se déconnectent du système vCenter Server.

    Ce problème est résolu dans cette version.

  • PR 2664084 : le navigateur d'objets gérés peut afficher l'état des capteurs de CPU et de mémoire de manière incorrecte

    En raison d'une erreur dans le traitement des entrées du capteur, les données memoryStatusInfo et cpuStatusInfo peuvent aussi inclure de manière incorrecte l'état des capteurs non-CPU et non-mémoire. Il en résulte un état incorrect pour les capteurs de CPU et de mémoire dans le navigateur d'objets gérés.

    Ce problème est résolu dans cette version.

  • PR 2625155 : L'installation d'ESXi peut échouer sur un support avec des banques de données non formatées ou corrompues

    L'installation d'ESXi peut échouer sur les supports dont les banques de données ne peuvent pas être montées, car une partition VMFS est corrompue, non formatée, ou a une propriété système différente. Le programme d'installation d'ESXi peut également supprimer des partitions VMFS sur un support de démarrage USB connecté lors de la mise à niveau ou de l'installation.

    Ce problème est résolu dans cette version.

  • PR 2658647 : Les enregistrements d'audit configurés pour la partition Scratch sont perdus lors de la mise à niveau vers ESXi 7.x à partir de la version 6.7 Update 2 et versions ultérieures

    Les enregistrements d'audit configurés pour la partition Scratch sur le périphérique de démarrage ne sont pas conservés lors de la mise à niveau vers ESXi 7.x à partir de la version 6.7 Update 2 et versions ultérieures. La certification NIAP (National Information Assurance Partnership) pour ESXi post 6.7 Update 2 requiert que les enregistrements d'audit qui se trouvent dans /scratch persistent après une mise à niveau.

    Ce problème est résolu dans cette version. Pour les versions antérieures de ESXi 7.x, sauvegardez les enregistrements d'audit du répertoire /scratch sur un autre système de fichiers ou une autre partition avant la mise à niveau. 

  • PR 2659015 : après une opération de sauvegarde, des messages d'erreur identiques saturent le fichier hostd.log

    Après une opération de sauvegarde, des messages d'erreur identiques, tels que liste de blocs : Impossible de convertir le chemin d'accès au disque <vmdk file> en chemin d'accès réel ; il sera ignoré. peuvent saturer le fichier hostd.log. Ce problème bloque les autres journaux hostd et peut saturer la mémoire du journal.

    Ce problème est résolu dans cette version.

  • PR 2654686 : l'algorithme de vSphere Virtual Volumes peut ne pas choisir le premier config-VVol qu'un hôte ESXi demande

    Dans un environnement vSphere HA, l'algorithme de vSphere Virtual Volumes utilise l'UUID pour déterminer quand plusieurs hôtes ESXi sont susceptibles de rivaliser pour créer et monter simultanément un Config-VVol avec le même nom convivial. Toutefois, le Config-VVol choisi par l'UUID peut ne pas être le premier que l'hôte ESXi demande, ce qui peut créer des problèmes dans les banques de données vSphere Virtual Volumes.

    Ce problème est résolu dans cette version. L'algorithme de vSphere Virtual Volumes utilise un horodatage plutôt qu'un UUID pour déterminer quand plusieurs hôtes ESXi sont susceptibles de rivaliser pour créer et monter simultanément un Config-VVol avec le même nom convivial.

  • PR 2664278 : dans vSphere Client, il n'est pas possible de modifier la configuration du niveau de journalisation du service vpxa après une mise à niveau de votre système vCenter Server

    Dans vSphere Client ou en utilisant l'API, vous ne pourrez peut-être pas modifier la configuration du niveau de journalisation du service vpxa sur un hôte ESX parce qu'une option Vpx.Vpxa.config.log.level est absente ou non valide après une mise à niveau de votre système vCenter Server. 

    Ce problème est résolu dans cette version. Le service vpxa définit automatiquement une valeur valide pour l'option Vpx.Vpxa.config.log.level et la présente à vSphere Client ou à un appel API.

  • PR 2676632 : ESXi sur les périphériques USB ou FCoE ne trouve pas les chemins d'accès au périphérique de démarrage

    Si ESXi est installé sur un périphérique de démarrage lent, tel qu'un périphérique USB ou FCoE, ESXi peut ne pas être en mesure de détecter un chemin de stockage de périphérique de démarrage. Par conséquent, la partition de la banque de démarrage et d'autres partitions telles que /scratch ne sont pas identifiées, et les modifications de configuration ne sont pas enregistrées. Lorsque ESXi démarre, les liens symboliques /bootbank et /scratch font référence à un chemin de mémoire temporaire.

    Ce problème est résolu dans cette version. Toutefois, le correctif fonctionne pour les périphériques de démarrage qu'ESXi détecte en moins de 2 minutes. Dans de rares cas, lorsque la détection du périphérique de démarrage prend plus de 2 minutes, vous devez suivre les étapes de l'article 2149444 de la base de connaissances VMware pour définir manuellement l'option de démarrage devListStabilityCount.

  • PR 2647557 : L'agent VMware vSphere High Availability peut cesser de répondre en raison d'un problème de mémoire

    Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent Lifecycle Manager peut ne pas être en mesure de contacter un hôte ESXi pour démarrer une tâche, telle qu'une installation. Par conséquent, vSphere Client affiche une erreur du type L'agent vSphere HA n'est pas accessible depuis vCenter Server. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données.

    Ce problème est résolu dans cette version.

  • PR 2647557 : les vérifications de conformité de l'image vSphere Lifecycle Manager peuvent échouer avec une erreur inconnue

    Lors d'une opération de gestion d'images de cluster, vSphere Lifecycle Manager peut ne pas réussir à contacter l'agent Lifecycle Manager sur un hôte ESXi. Dans vSphere Client, vous voyez un message d'erreur semblable au message suivant : Une erreur inconnue s'est produite lors de l'appel de l'API de l'hôte. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données.

    Ce problème est résolu dans cette version.

  • PR 2628899 : L'activation de vSphere HA échoue avec une erreur de configuration

    Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent vSphere HA peut ne pas être en mesure de configurer un hôte ESXi. Par conséquent, dans vSphere Client, vous voyez un message d'erreur semblable au message suivant :
    Impossible de terminer la configuration de l'agent vSphere HA sur cet hôte. Une erreur s'est produite lors de l'application de VIB HA sur le cluster. 
    L'échec se produit, car le processus d'installation de l'agent vSphere HA sur l'hôte ESXi peut consommer plus de mémoire que le quota alloué.

    Ce problème est résolu dans cette version.

  • PR 2663717 : Dans vSphere Client, vous voyez un avertissement de santé du matériel avec un état inconnu

    Dans vSphere Client, vous voyez un avertissement de santé du matériel avec un état inconnu pour certains capteurs sur les hôtes ESXi.

    Ce problème est résolu dans cette version. Les capteurs qui ne sont pas pris en charge pour le décodage sont ignorés et ne sont pas inclus dans les rapports de santé du système.

  • PR 2633194 : Si vous ouvrez et fermez uniquement la boîte de dialogue Modifier les paramètres NTP, l'option Démarrer et arrêter avec l'hôte se désactive

    Si vous ouvrez et fermez uniquement la boîte de dialogue Modifier les paramètres NTP, même si vous n'apportez aucune modification, l'option Démarrer et arrêter avec l'hôte se désactive. Le service NTP ne démarre pas lorsqu'un hôte ESXi se met sous tension. Dans vSphere Client, l'option de stratégie de démarrage du service NTP Démarrer et arrêter avec l'hôte est sélectionnée. Toutefois, dans ESX Shell, lorsque vous exécutez la commande chkconfig –list, le service NTP est désactivé.

    Ce problème est résolu dans cette version.

  • PR 2670891 : Les opérations de snapshot pour les machines virtuelles avec le suivi de modification des blocs (CBT) activé échouent

    Si vous désactivez un adaptateur FCoE de logiciel comme moyen d'accéder au stockage Fibre Channel, le chargement du module CBT peut échouer et ESXi peut ne pas être en mesure de détecter un périphérique de démarrage. En conséquence, les opérations de snapshot, telles que la création et la consolidation de snapshots, échouent.

    Ce problème est résolu dans cette version.

  • PR 2665031 : le service de santé vSAN expire en cas de problème de connectivité Internet ou de résolution DNS

    En cas de problème de connectivité, les contrôles de santé vSAN qui requièrent de la connectivité à VMware peuvent expirer. vSphere Client affiche un message d'erreur semblable au message suivant :
    Impossible d'interroger les informations de santé de vSAN. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées.
    Ce problème peut affecter les contrôles de santé en ligne, les mises à jour HCL et les recommandations de la ligne de base vSphere Lifecycle Manager. Si vCenter Server ne parvient pas à résoudre le problème, les contrôles de santé vSAN peuvent expirer lors de l'interrogation des entrées DNS.

    Ce problème est résolu dans cette version. 

  • PR 2644003 : échec de l'hôte vSAN lors de la suppression du disque

    Lors de la mise hors service d'un disque pour suppression, un hôte ESXi peut échouer avec un écran de diagnostic violet. Des entrées similaires aux suivantes s'affichent dans la trace de débogage :

    2020-09-01T04:22:47.112Z cpu7:2099790)@BlueScreen: Échec au niveau de bora/modules/vmkernel/lsomcommon/ssdlog/ssdopslog.c:398 -- NOT REACHED
    2020-09-01T04:22:47.112Z cpu7:2099790)Code start: 0x418037400000 VMK uptime: 0:00:39:25.026
    2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049b9e0:[0x41803750bb65]PanicvPanicInt@vmkernel#nover+0x439 stack: 0x44a00000001
    2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049ba80:[0x41803750c0a2]Panic_vPanic@vmkernel#nover+0x23 stack: 0x121
    2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049baa0:[0x4180375219c0]vmk_PanicWithModuleID@vmkernel#nover+0x41 stack: 0x451a8049bb00
    2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb00:[0x41803874707a]SSDLOG_FreeLogEntry@LSOMCommon#1+0x32b stack: 0x800000
    2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb70:[0x4180387ae4d1][email protected]#0.0.0.1+0x2e stack: 0x712d103
    2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bbe0:[0x4180387dd08d][email protected]#0.0.0.1+0x72 stack: 0x431b19603150
    2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bcd0:[0x4180387dd2d3][email protected]#0.0.0.1+0x80 stack: 0x4318102ba7a0
    2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bd00:[0x4180387dabb5][email protected]#0.0.0.1+0x2ce stack: 0x800000
    2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049beb0:[0x4180386de2db][email protected]#0.0.0.1+0x590 stack: 0x43180fe83380
    2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bf90:[0x4180375291ce]vmkWorldFunc@vmkernel#nover+0x4f stack: 0x4180375291ca
    2020-09-01T04:22:47.116Z cpu7:2099790)0x451a8049bfe0:[0x4180377107da]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0

    Ce problème est résolu dans cette version.

esx-update_7.0.1-0.25.17325551
Catégorie des correctifs Correctif de bogues
Gravité des correctifs Critique
Redémarrage de l'hôte requis Oui
Migration ou arrêt de la machine virtuelle requis Oui
Matériel concerné S.O.
Logiciels concernés S.O.

VIB inclus

  • VMware_bootbank_loadesx_7.0.1-0.25.17325551
  • VMware_bootbank_esx-update_7.0.1-0.25.17325551
PR résolus  S.O.
Numéros CVE S.O.

Met à jour les VIB loadesx et esx-update.

    VMware-vmkata_0.1-1vmw.701.0.25.17325551
    Catégorie des correctifs Correctif de bogues
    Gravité des correctifs Modéré
    Redémarrage de l'hôte requis Oui
    Migration ou arrêt de la machine virtuelle requis Oui
    Matériel concerné S.O.
    Logiciels concernés S.O.
    VIB inclus
    • VMW_bootbank_vmkata_0.1-1vmw.701.0.25.17325551
    PR résolus  S.O.
    Numéros CVE S.O.

    Met à jour le VIB vmkata.

      HPE-nhpsa_70.0051.0.100-2vmw.701.0.25.17325551
      Catégorie des correctifs Correctif de bogues
      Gravité des correctifs Modéré
      Redémarrage de l'hôte requis Oui
      Migration ou arrêt de la machine virtuelle requis Oui
      Matériel concerné S.O.
      Logiciels concernés S.O.
      VIB inclus
      • VMW_bootbank_nhpsa_70.0051.0.100-2vmw.701.0.25.17325551
      PR résolus 2655992
      Numéros CVE S.O.

      Met à jour le VIB nhpsa pour résoudre le problème suivant :

      • mise à jour du pilote nhpsa

        Le plug-in de facilité de gestion de disque du pilote natif ESXi pour les contrôleurs HPE Smart Array, nhpsa, est mis à jour vers la version 70.0051.0.100 pour résoudre plusieurs problèmes connus.

      VMware-vmkusb_0.1-1vmw.701.0.25.17325551
      Catégorie des correctifs Correctif de bogues
      Gravité des correctifs Modéré
      Redémarrage de l'hôte requis Oui
      Migration ou arrêt de la machine virtuelle requis Oui
      Matériel concerné S.O.
      Logiciels concernés S.O.
      VIB inclus
      • VMW_bootbank_vmkusb_0.1-1vmw.701.0.25.17325551
      PR résolus  S.O.
      Numéros CVE S.O.

      Met à jour le VIB  vmkusb .
        Microchip-smartpqi_70.4000.0.100-4vmw.701.0.25.17325551
        Catégorie des correctifs Correctif de bogues
        Gravité des correctifs Modéré
        Redémarrage de l'hôte requis Oui
        Migration ou arrêt de la machine virtuelle requis Oui
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB inclus
        • VMW_bootbank_smartpqi_70.4000.0.100-4vmw.701.0.25.17325551
        PR résolus 2661584
        Numéros CVE S.O.

        Met à jour le VIB smartpqi pour résoudre le problème suivant :

        • mise à jour du pilote smartpqi

          Le plug-in de facilité de gestion de disque du pilote SCSI natif ESXi pour les contrôleurs de Microsemi Smart Family, smartpqi, est mis à jour vers la version 70.4000.0.100-5 pour restaurer plusieurs ID de périphérique manquants.

        ESXi_7.0.1-0.20.17325020
        Catégorie des correctifs Sécurité
        Gravité des correctifs Critique
        Redémarrage de l'hôte requis Oui
        Migration ou arrêt de la machine virtuelle requis Oui
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB inclus
        • VMware_bootbank_crx_7.0.1-0.20.17325020
        • VMware_bootbank_esx-xserver_7.0.1-0.20.17325020
        • VMware_bootbank_esx-base_7.0.1-0.20.17325020
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.20.17325020
        • VMware_bootbank_native-misc-drivers_7.0.1-0.20.17325020
        • VMware_bootbank_vsan_7.0.1-0.20.17325020
        • VMware_bootbank_vsanhealth_7.0.1-0.20.17325020
        • VMware_bootbank_gc_7.0.1-0.20.17325020
        • VMware_bootbank_cpu-microcode_7.0.1-0.20.17325020
        • VMware_bootbank_vdfs_7.0.1-0.20.17325020
        PR résolus 2661006, 2671485, 2636149
        Numéros CVE CVE-2020-3999

        Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.

        Met à jour les VIB esx-dvfilter-generic-fastpath, vsanhealth, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver, gc et cpu-microcode pour résoudre les problèmes suivants :

        • ESXi 7.0 Update 1c corrige une vulnérabilité de type déni de service due à une validation d'entrée incorrecte dans les variables GuestInfo. Toute personne mal intentionnée disposant d'un privilège d'utilisateur normal pour accéder à une machine virtuelle peut provoquer une défaillance dans le processus VMX de la machine virtuelle, entraînant une situation de déni de service. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3999 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0029.

        • Mise à jour de la base de données SQLite

          La base de données SQLite est mise à jour vers la version 3.33.0.

        • Mise à jour de la bibliothèque OpenSSL

          La bibliothèque ESXi userworld OpenSSL est mise à jour vers la version openssl-1.0.2w.

        • Mise à jour d'OpenSSH

          OpenSSH est mis à jour vers la version 8.3p1.

        • Mise à jour du démon Network Time Protocol (NTP)

          Le démon NTP est mis à jour vers la version ntp-4.2.8p15.

        • Mise à jour de la bibliothèque libcurl

          La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.72.0.

        • Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 1c :

          • windows.iso : VMware Tools 11.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.
          • linux.iso: Image ISO de VMware Tools 10.3.22 pour le système d'exploitation Linux avec glibc version 2.5 ou version ultérieure.

          Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :

          • VMware Tools 10.0.12 :
            • winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.
            • linuxPreGLibc25.iso : pour le système d'exploitation Linux avec une version glibc antérieure à la version 2.5.
               
          • VMware Tools 11.0.6
            • windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
          • solaris.iso: Image de VMware Tools pour Solaris
          • darwin.iso: Image de VMware Tools pour OSX.

          Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

        esx-update_7.0.1-0.20.17325020
        Catégorie des correctifs Sécurité
        Gravité des correctifs Critique
        Redémarrage de l'hôte requis Oui
        Migration ou arrêt de la machine virtuelle requis Oui
        Matériel concerné S.O.
        Logiciels concernés S.O.

        VIB inclus

        • VMware_bootbank_esx-update_7.0.1-0.20.17325020
        • VMware_bootbank_loadesx_7.0.1-0.20.17325020
        PR résolus S.O.
        Numéros CVE S.O.

        Met à jour les VIB loadesx et esx-update.

          VMware-vmkata_0.1-1vmw.701.0.20.17325020
          Catégorie des correctifs Sécurité
          Gravité des correctifs Important
          Redémarrage de l'hôte requis Oui
          Migration ou arrêt de la machine virtuelle requis Oui
          Matériel concerné S.O.
          Logiciels concernés S.O.
          VIB inclus
          • VMW_bootbank_vmkata_0.1-1vmw.701.0.20.17325020
          PR résolus S.O.
          Numéros CVE S.O.

          Met à jour le VIB vmkata.

            VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.20.17325020
            Catégorie des correctifs Sécurité
            Gravité des correctifs Important
            Redémarrage de l'hôte requis Oui
            Migration ou arrêt de la machine virtuelle requis Oui
            Matériel concerné S.O.
            Logiciels concernés S.O.
            VIB inclus
            • VMW_bootbank_nvmerdma_1.0.1.2-1vmw.701.0.20.17325020
            PR résolus S.O.
            Numéros CVE S.O.

            Met à jour le VIB nvmerdma.

              VMware-vmkfcoe_1.0.0.2-1vmw.701.0.20.17325020
              Catégorie des correctifs Sécurité
              Gravité des correctifs Important
              Redémarrage de l'hôte requis Oui
              Migration ou arrêt de la machine virtuelle requis Oui
              Matériel concerné S.O.
              Logiciels concernés S.O.
              VIB inclus
              • VMW_bootbank_vmkfcoe_1.0.0.2-1vmw.701.0.20.17325020
              PR résolus  S.O.
              Numéros CVE S.O.

              Met à jour le VIB  vmkfcoe.
                VMware-vmkusb_0.1-1vmw.701.0.20.17325020
                Catégorie des correctifs Sécurité
                Gravité des correctifs Important
                Redémarrage de l'hôte requis Oui
                Migration ou arrêt de la machine virtuelle requis Oui
                Matériel concerné S.O.
                Logiciels concernés S.O.
                VIB inclus
                • VMW_bootbank_vmkusb_0.1-1vmw.701.0.20.17325020
                PR résolus  S.O.
                Numéros CVE S.O.

                Met à jour le VIB vmkusb .

                  ESXi-7.0U1c-17325551-standard
                  Nom du profil ESXi-7.0U1c-17325551-standard
                  Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
                  Fournisseur VMware, Inc.
                  Date de publication 17 décembre 2020
                  Niveau d'acceptation PartnerSupported
                  Matériel concerné S.O.
                  Logiciels concernés S.O.
                  VIB concernés
                  • VMware_bootbank_crx_7.0.1-0.25.17325551
                  • VMware_bootbank_esx-xserver_7.0.1-0.25.17325551
                  • VMware_bootbank_esx-base_7.0.1-0.25.17325551
                  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.25.17325551
                  • VMware_bootbank_native-misc-drivers_7.0.1-0.25.17325551
                  • VMware_bootbank_vsan_7.0.1-0.25.17325551
                  • VMware_bootbank_vsanhealth_7.0.1-0.25.17325551
                  • VMware_bootbank_gc_7.0.1-0.25.17325551
                  • VMware_bootbank_cpu-microcode_7.0.1-0.25.17325551
                  • VMware_bootbank_vdfs_7.0.1-0.25.17325551
                  • VMware_bootbank_loadesx_7.0.1-0.25.17325551
                  • VMware_bootbank_esx-update_7.0.1-0.25.17325551
                  • VMware_bootbank_loadesx_7.0.1-0.25.17325551
                  • VMware_bootbank_esx-update_7.0.1-0.25.17325551
                  • VMW_bootbank_nhpsa_70.0051.0.100-2vmw.701.0.25.17325551
                  • VMW_bootbank_vmkusb_0.1-1vmw.701.0.25.17325551
                  • VMW_bootbank_smartpqi_70.4000.0.100-4vmw.701.0.25.17325551
                  PR résolus 2656093, 2652863, 2653874, 2643508, 2644189, 2652344, 2661064, 2667291, 2662512, 2644221, 2662606, 2661153, 2655181, 2657411, 2675442, 2657649, 2662558, 2661818, 2664084, 2625155, 2658647, 2659015, 2654686, 2664278, 2676632, 2647557, 2647557, 2628899, 2663717, 2633194, 2661808, 2670891, 2665031, 2644003, 2664045, 2655992, 2661584
                  Numéros CVE associés CVE-2020-3999
                  • Ce correctif met à jour les problèmes suivants :
                    • Le paramètre Net.TeamPolicyUpDelay de délai de retour arrière de l'association de réseau sur les hôtes ESXi est actuellement défini sur 10 minutes, mais, dans certains environnements, il faut parfois plus de 10 minutes pour qu'un commutateur physique soit prêt à recevoir ou à transmettre des données après un redémarrage. Cela peut entraîner une perte de connectivité réseau.

                    • Toutes les activités de reconfiguration du filtre DFW, telles que l'ajout ou la suppression de filtres, peuvent entraîner l'abandon de paquets par certains filtres. Par conséquent, les machines virtuelles perdent la connectivité réseau et vous devez réinitialiser le vmnic, modifier le groupe de ports ou redémarrer la machine virtuelle pour restaurer le trafic. La sortie de la commande summarize-dvfilter indique état : Détachement d'IOChain pour le filtre ayant échoué.

                    • Un tampon avec lectures excessives pendant certaines opérations de rendu peut entraîner l'échec d'une machine virtuelle 3D avec une erreur SIGSEGV lors de l'interaction avec les applications graphiques qui utilisent l'accélération 3D.

                    • Si une machine virtuelle redémarre ou se réinitialise au cours d'une opération d'enfichage à chaud, les journaux dans le fichier vmware.log de la machine virtuelle peuvent remplir l'espace disque disponible et empêcher la machine de répondre. Les messages de journal sont identiques, par exemple : acpiNotifyQueue: Achèvement d'événement ACPI parasite, données 0xFFFFFFFF.

                    • Lorsqu'une machine virtuelle Linux avec plusieurs CPU virtuels sur laquelle SEV-ES est activé démarre, tous les CPU à l'exception de CPU0 sont hors ligne. Vous ne pouvez pas mettre les CPU restants en ligne. La commande dmesg renvoie une erreur telle que smpboot: do_boot_cpu failed(-1) to wakeup CPU#1.

                    • Si vous disposez de fichiers d'échange .vswp dans un répertoire de machine virtuelle, des messages d'erreur de périphérique ou de ressource occupé(e) s'affichent lors de l'analyse de tous les fichiers dans le répertoire. Vous voyez également un flux d'E/S supplémentaire sur les objets d'espace de noms vSAN et vous remarquez un ralentissement dans le service hostd.
                      Ce problème se produit si vous tentez d'ouvrir un fichier portant l'extension .vswp en tant que descripteur d'objet. Les fichiers d'échange du processus VMX ont la même extension .vswp que ceux de la mémoire principale de la machine virtuelle, mais diffèrent en ce qu'ils ne doivent pas être ouverts en tant que descripteurs d'objet.

                    • Dans de rares cas, une condition de concurrence entre plusieurs threads qui tentent de créer un fichier et de supprimer le répertoire dans le même répertoire peut entraîner un blocage faisant échouer le service hostd. La restauration du service intervient uniquement après un redémarrage de l'hôte ESXi. Dans les journaux vmkernel, vous voyez des alerte telles que :

                      2020-03-31T05:20:00.509Z cpu12:4528223)ALERT: hostd detected to be non-responsive.

                      Un tel blocage peut également affecter d'autres services, mais la fenêtre de condition de concurrence est petite et le problème n'est pas fréquent.

                    • Le chiffrement des machines virtuelles peut prendre plusieurs heures et finalement échouer en affichant l'erreur Le fichier existe déjà dans les journaux du service hostd. Ce problème se produit s'il existe un fichier <vm name="">.nvram inactif ou inutilisé dans les fichiers de configuration de machine virtuelle. Si les machines virtuelles ont une entrée telle que NVRAM = “nvram” dans le fichier .vmx, l'opération de chiffrement crée un fichier chiffré avec l'extension de fichier .nvram, ce que le système considère comme un doublon du fichier inactif existant.

                    • Si vSAN tente de désactiver du cache en mémoire d'un volume de 256 Go ou plus, il se peut que l'opération entraîne l'échec de l'hôte ESXi avec un écran de diagnostic violet.

                    • Si vous activez LiveCoreDump en tant qu'option de collecte des journaux système sur un hôte ESXi, l'hôte peut cesser de répondre. Une erreur de type #PF Exception 14 in world 2125468 s'affiche sur un écran de diagnostic violet.

                    • Après la mise à niveau de la version du microprogramme sur les serveurs HP Gen10, vous verrez peut-être des alarmes de santé pour les capteurs Module 2 d'E/S ALOM_Link_P2 et NIC_Link_02P2, en relation avec l'entité de capteur ID 44.x. Les alarmes n'indiquent pas un problème de santé réel et vous pouvez les ignorer quelle que soit la version du microprogramme.

                    • Si vous désactivez RC4 de votre configuration Active Directory, l'authentification utilisateur sur les hôtes ESXi pourrait commencer à échouer avec des erreurs du type Échec de l'authentification de l'utilisateur.

                    • Si une demande de récupération est répétée lors d'une opération de basculement ou de restauration d'un serveur NFS, la récupération en cours échoue et entraîne une absence de réponse des machines virtuelles sur les banques de données NFS 4.1.

                    • Lorsque des machines virtuelles reprennent à partir d'un snapshot, après les opérations de migration à l'aide de vSphere vMotion, lors de la reprise d'une machine virtuelle interrompue, ou d'une opération d'enfichage à chaud, vous pouvez constater une petite augmentation de la durée %SYS signalée pour certaines charges de travail d'E/S de disque. Ce problème se produit, car l'adaptateur de stockage virtuel PVSCSI peut arrêter de dimensionner dynamiquement sa file d'attente interne en fonction de la charge de travail de l'invité. Par conséquent, la surcharge du pilote augmente pendant une importante activité d'E/S et peut entraîner une augmentation mineure de la durée %SYS pour certaines charges de travail d'E/S de disque. Le problème n'affecte pas les périphériques virtuels NVMe et LSI.

                    • Les applications Java sur un hôte AMD dans un cluster EVC peuvent ne pas démarrer et signaler l'erreur suivante : Processeur x64 inconnu : SSE2 non pris en charge. Ce problème se produit, car le champ CPUID family (leaf 1, EAX, bits 11-8) présente une valeur incorrecte. En conséquence, Lookup Service et d'autres services basés sur Java sur vCenter Server Appliance ne peuvent pas démarrer.

                    • Après la mise à niveau des serveurs HPE, tels que HPE ProLiant Gen10 et Gen10 plus, vers la version 2.30 du microprogramme iLO 5, vSphere Client affiche des alertes concernant la santé des capteurs de mémoire. Ce problème se produit parce que le système de surveillance de la santé du matériel ne décode pas correctement les capteurs Mem_Stat_* lorsque le premier LUN est activé après la mise à niveau.

                    • Sur les hôtes ESXi qui utilisent un périphérique de lecteur de carte SD VID:PID/0bda:0329 Realtek Semiconductor Corp USB 3.0 ne prenant pas en charge la capacité de lecture 16, les journaux vmkernel peuvent afficher de nombreuses erreurs, telles que :
                      2020-06-30T13:26:06.141Z cpu0:2097243)ScsiDeviceIO: 3449: Cmd(0x459ac1350600) 0x9e, CmdSN 0x2452e from world 0 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x7 D:0x0 P:0x0 Invalid sense data: 0x0 0x6e 0x73.
                      et
                      2020-06-30T14:23:18.280Z cpu0:2097243)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "mpx.vmhba32:C0:T0:L0" state in doubt; requested fast path state update...

                    • Le service vpxa échoue en cas de présence d'une chaîne non-UTF8 dans la propriété de nom des capteurs numériques et les hôtes ESXi se déconnectent du système vCenter Server.

                    • En raison d'une erreur dans le traitement des entrées du capteur, les données memoryStatusInfo et cpuStatusInfo peuvent aussi inclure de manière incorrecte l'état des capteurs non-CPU et non-mémoire. Il en résulte un état incorrect pour les capteurs de CPU et de mémoire dans le navigateur d'objets gérés.

                    • L'installation d'ESXi peut échouer sur les supports dont les banques de données ne peuvent pas être montées, car une partition VMFS est corrompue, non formatée, ou a une propriété système différente. Le programme d'installation d'ESXi peut également supprimer des partitions VMFS sur un support de démarrage USB connecté lors de la mise à niveau ou de l'installation.

                    • Les enregistrements d'audit configurés pour la partition Scratch sur le périphérique de démarrage ne sont pas conservés lors de la mise à niveau vers ESXi 7.x à partir de la version 6.7 Update 2 et versions ultérieures. La certification NIAP (National Information Assurance Partnership) pour ESXi post 6.7 Update 2 requiert que les enregistrements d'audit qui se trouvent dans /scratch persistent après une mise à niveau.

                    • Après une opération de sauvegarde, des messages d'erreur identiques, tels que liste de blocs : Impossible de convertir le chemin d'accès au disque <vmdk file> en chemin d'accès réel ; il sera ignoré. peuvent saturer le fichier hostd.log. Ce problème bloque les autres journaux hostd et peut saturer la mémoire du journal.

                    • Dans un environnement vSphere HA, l'algorithme de vSphere Virtual Volumes utilise l'UUID pour déterminer quand plusieurs hôtes ESXi sont susceptibles de rivaliser pour créer et monter simultanément un Config-VVol avec le même nom convivial. Toutefois, le Config-VVol choisi par l'UUID peut ne pas être le premier que l'hôte ESXi demande, ce qui peut créer des problèmes dans les banques de données vSphere Virtual Volumes.

                    • Dans vSphere Client ou en utilisant l'API, vous ne pourrez peut-être pas modifier la configuration du niveau de journalisation du service vpxa sur un hôte ESX parce qu'une option Vpx.Vpxa.config.log.level est absente ou non valide après une mise à niveau de votre système vCenter Server. 

                    • Si ESXi est installé sur un périphérique de démarrage lent, tel qu'un périphérique USB ou FCoE, ESXi peut ne pas être en mesure de détecter un chemin de stockage de périphérique de démarrage. Par conséquent, la partition de la banque de démarrage et d'autres partitions telles que /scratch ne sont pas identifiées, et les modifications de configuration ne sont pas enregistrées. Lorsque ESXi démarre, les liens symboliques /bootbank et /scratch font référence à un chemin de mémoire temporaire.

                    • Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent Lifecycle Manager peut ne pas être en mesure de contacter un hôte ESXi pour démarrer une tâche, telle qu'une installation. Par conséquent, vSphere Client affiche une erreur du type L'agent vSphere HA n'est pas accessible depuis vCenter Server. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données.

                    • Lors d'une opération de gestion d'images de cluster, vSphere Lifecycle Manager peut ne pas réussir à contacter l'agent Lifecycle Manager sur un hôte ESXi. Dans vSphere Client, vous voyez un message d'erreur semblable au message suivant : Une erreur inconnue s'est produite lors de l'appel de l'API de l'hôte. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données.

                    • Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent vSphere HA peut ne pas être en mesure de configurer un hôte ESXi. Par conséquent, dans vSphere Client, vous voyez un message d'erreur semblable au message suivant :
                      Impossible de terminer la configuration de l'agent vSphere HA sur cet hôte. Une erreur s'est produite lors de l'application de VIB HA sur le cluster. 
                      L'échec se produit, car le processus d'installation de l'agent vSphere HA sur l'hôte ESXi peut consommer plus de mémoire que le quota alloué.

                    • Dans vSphere Client, vous voyez un avertissement de santé du matériel avec un état inconnu pour certains capteurs sur les hôtes ESXi.

                    • Si vous ouvrez et fermez uniquement la boîte de dialogue Modifier les paramètres NTP, même si vous n'apportez aucune modification, l'option Démarrer et arrêter avec l'hôte se désactive. Le service NTP ne démarre pas lorsqu'un hôte ESXi se met sous tension. Dans vSphere Client, l'option de stratégie de démarrage du service NTP Démarrer et arrêter avec l'hôte est sélectionnée. Toutefois, dans ESX Shell, lorsque vous exécutez la commande chkconfig –list, le service NTP est désactivé.

                    • Si vous désactivez un adaptateur FCoE de logiciel comme moyen d'accéder au stockage Fibre Channel, le chargement du module CBT peut échouer et ESXi peut ne pas être en mesure de détecter un périphérique de démarrage. En conséquence, les opérations de snapshot, telles que la création et la consolidation de snapshots, échouent.

                    • En cas de problème de connectivité, les contrôles de santé vSAN qui requièrent de la connectivité à VMware peuvent expirer. vSphere Client affiche un message d'erreur semblable au message suivant :
                      Impossible d'interroger les informations de santé de vSAN. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées.
                      Ce problème peut affecter les contrôles de santé en ligne, les mises à jour HCL et les recommandations de la ligne de base vSphere Lifecycle Manager. Si vCenter Server ne parvient pas à résoudre le problème, les contrôles de santé vSAN peuvent expirer lors de l'interrogation des entrées DNS.

                    • Lors de la mise hors service d'un disque pour suppression, un hôte ESXi peut échouer avec un écran de diagnostic violet. Des entrées similaires aux suivantes s'affichent dans la trace de débogage :

                      2020-09-01T04:22:47.112Z cpu7:2099790)@BlueScreen: Échec au niveau de bora/modules/vmkernel/lsomcommon/ssdlog/ssdopslog.c:398 -- NOT REACHED
                      2020-09-01T04:22:47.112Z cpu7:2099790)Code start: 0x418037400000 VMK uptime: 0:00:39:25.026
                      2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049b9e0:[0x41803750bb65]PanicvPanicInt@vmkernel#nover+0x439 stack: 0x44a00000001
                      2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049ba80:[0x41803750c0a2]Panic_vPanic@vmkernel#nover+0x23 stack: 0x121
                      2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049baa0:[0x4180375219c0]vmk_PanicWithModuleID@vmkernel#nover+0x41 stack: 0x451a8049bb00
                      2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb00:[0x41803874707a]SSDLOG_FreeLogEntry@LSOMCommon#1+0x32b stack: 0x800000
                      2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb70:[0x4180387ae4d1][email protected]#0.0.0.1+0x2e stack: 0x712d103
                      2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bbe0:[0x4180387dd08d][email protected]#0.0.0.1+0x72 stack: 0x431b19603150
                      2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bcd0:[0x4180387dd2d3][email protected]#0.0.0.1+0x80 stack: 0x4318102ba7a0
                      2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bd00:[0x4180387dabb5][email protected]#0.0.0.1+0x2ce stack: 0x800000
                      2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049beb0:[0x4180386de2db][email protected]#0.0.0.1+0x590 stack: 0x43180fe83380
                      2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bf90:[0x4180375291ce]vmkWorldFunc@vmkernel#nover+0x4f stack: 0x4180375291ca
                      2020-09-01T04:22:47.116Z cpu7:2099790)0x451a8049bfe0:[0x4180377107da]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0
                    • Si plusieurs espaces de noms sont configurés sur un périphérique NVME, la prise en charge des opérations d'effacement du disque sécurisé vSAN peut changer de manière dynamique, en fonction du nombre d'espaces de noms. Si un nouvel espace de noms est configuré alors qu'une opération d'effacement sécurisée est en cours, par exemple dans VxRail ou la plate-forme Google Cloud, les données sur l'espace de noms récemment ajouté peuvent être effacées.

                    • Le plug-in de facilité de gestion de disque du pilote natif ESXi pour les contrôleurs HPE Smart Array, nhpsa, est mis à jour vers la version 70.0051.0.100 pour résoudre plusieurs problèmes connus.

                    • Le plug-in de facilité de gestion de disque du pilote SCSI natif ESXi pour les contrôleurs de Microsemi Smart Family, smartpqi, est mis à jour vers la version 70.4000.0.100-5 pour restaurer plusieurs ID de périphérique manquants.

                  ESXi-7.0U1c-17325551-no-tools
                  Nom du profil ESXi-7.0U1c-17325551-no-tools
                  Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
                  Fournisseur VMware, Inc.
                  Date de publication 17 décembre 2020
                  Niveau d'acceptation PartnerSupported
                  Matériel concerné S.O.
                  Logiciels concernés S.O.
                  VIB concernés
                  • VMware_bootbank_crx_7.0.1-0.25.17325551
                  • VMware_bootbank_esx-xserver_7.0.1-0.25.17325551
                  • VMware_bootbank_esx-base_7.0.1-0.25.17325551
                  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.25.17325551
                  • VMware_bootbank_native-misc-drivers_7.0.1-0.25.17325551
                  • VMware_bootbank_vsan_7.0.1-0.25.17325551
                  • VMware_bootbank_vsanhealth_7.0.1-0.25.17325551
                  • VMware_bootbank_gc_7.0.1-0.25.17325551
                  • VMware_bootbank_cpu-microcode_7.0.1-0.25.17325551
                  • VMware_bootbank_vdfs_7.0.1-0.25.17325551
                  • VMware_bootbank_loadesx_7.0.1-0.25.17325551
                  • VMware_bootbank_esx-update_7.0.1-0.25.17325551
                  • VMware_bootbank_loadesx_7.0.1-0.25.17325551
                  • VMware_bootbank_esx-update_7.0.1-0.25.17325551
                  • VMW_bootbank_nhpsa_70.0051.0.100-2vmw.701.0.25.17325551
                  • VMW_bootbank_vmkusb_0.1-1vmw.701.0.25.17325551
                  • VMW_bootbank_smartpqi_70.4000.0.100-4vmw.701.0.25.17325551
                  PR résolus 2656093, 2652863, 2653874, 2643508, 2644189, 2652344, 2661064, 2667291, 2662512, 2644221, 2662606, 2661153, 2655181, 2657411, 2675442, 2657649, 2662558, 2661818, 2664084, 2625155, 2658647, 2659015, 2654686, 2664278, 2676632, 2647557, 2647557, 2628899, 2663717, 2633194, 2661808, 2670891, 2665031, 2644003, 2664045, 2655992, 2661584
                  Numéros CVE associés CVE-2020-3999
                  • Ce correctif met à jour les problèmes suivants :
                    • Le paramètre Net.TeamPolicyUpDelay de délai de retour arrière de l'association de réseau sur les hôtes ESXi est actuellement défini sur 10 minutes, mais, dans certains environnements, il faut parfois plus de 10 minutes pour qu'un commutateur physique soit prêt à recevoir ou à transmettre des données après un redémarrage. Cela peut entraîner une perte de connectivité réseau.

                    • Toutes les activités de reconfiguration du filtre DFW, telles que l'ajout ou la suppression de filtres, peuvent entraîner l'abandon de paquets par certains filtres. Par conséquent, les machines virtuelles perdent la connectivité réseau et vous devez réinitialiser le vmnic, modifier le groupe de ports ou redémarrer la machine virtuelle pour restaurer le trafic. La sortie de la commande summarize-dvfilter indique état : Détachement d'IOChain pour le filtre ayant échoué.

                    • Un tampon avec lectures excessives pendant certaines opérations de rendu peut entraîner l'échec d'une machine virtuelle 3D avec une erreur SIGSEGV lors de l'interaction avec les applications graphiques qui utilisent l'accélération 3D.

                    • Si une machine virtuelle redémarre ou se réinitialise au cours d'une opération d'enfichage à chaud, les journaux dans le fichier vmware.log de la machine virtuelle peuvent remplir l'espace disque disponible et empêcher la machine de répondre. Les messages de journal sont identiques, par exemple : acpiNotifyQueue: Achèvement d'événement ACPI parasite, données 0xFFFFFFFF.

                    • Lorsqu'une machine virtuelle Linux avec plusieurs CPU virtuels sur laquelle SEV-ES est activé démarre, tous les CPU à l'exception de CPU0 sont hors ligne. Vous ne pouvez pas mettre les CPU restants en ligne. La commande dmesg renvoie une erreur telle que smpboot: do_boot_cpu failed(-1) to wakeup CPU#1.

                    • Si vous disposez de fichiers d'échange .vswp dans un répertoire de machine virtuelle, des messages d'erreur de périphérique ou de ressource occupé(e) s'affichent lors de l'analyse de tous les fichiers dans le répertoire. Vous voyez également un flux d'E/S supplémentaire sur les objets d'espace de noms vSAN et vous remarquez un ralentissement dans le service hostd.
                      Ce problème se produit si vous tentez d'ouvrir un fichier portant l'extension .vswp en tant que descripteur d'objet. Les fichiers d'échange du processus VMX ont la même extension .vswp que ceux de la mémoire principale de la machine virtuelle, mais diffèrent en ce qu'ils ne doivent pas être ouverts en tant que descripteurs d'objet.

                    • Dans de rares cas, une condition de concurrence entre plusieurs threads qui tentent de créer un fichier et de supprimer le répertoire dans le même répertoire peut entraîner un blocage faisant échouer le service hostd. La restauration du service intervient uniquement après un redémarrage de l'hôte ESXi. Dans les journaux vmkernel, vous voyez des alerte telles que :

                      2020-03-31T05:20:00.509Z cpu12:4528223)ALERT: hostd detected to be non-responsive.

                      Un tel blocage peut également affecter d'autres services, mais la fenêtre de condition de concurrence est petite et le problème n'est pas fréquent.

                    • Le chiffrement des machines virtuelles peut prendre plusieurs heures et finalement échouer en affichant l'erreur Le fichier existe déjà dans les journaux du service hostd. Ce problème se produit s'il existe un fichier <vm name="">.nvram inactif ou inutilisé dans les fichiers de configuration de machine virtuelle. Si les machines virtuelles ont une entrée telle que NVRAM = “nvram” dans le fichier .vmx, l'opération de chiffrement crée un fichier chiffré avec l'extension de fichier .nvram, ce que le système considère comme un doublon du fichier inactif existant.

                    • Si vSAN tente de désactiver du cache en mémoire d'un volume de 256 Go ou plus, il se peut que l'opération entraîne l'échec de l'hôte ESXi avec un écran de diagnostic violet.

                    • Si vous activez LiveCoreDump en tant qu'option de collecte des journaux système sur un hôte ESXi, l'hôte peut cesser de répondre. Une erreur de type #PF Exception 14 in world 2125468 s'affiche sur un écran de diagnostic violet.

                    • Après la mise à niveau de la version du microprogramme sur les serveurs HP Gen10, vous verrez peut-être des alarmes de santé pour les capteurs Module 2 d'E/S ALOM_Link_P2 et NIC_Link_02P2, en relation avec l'entité de capteur ID 44.x. Les alarmes n'indiquent pas un problème de santé réel et vous pouvez les ignorer quelle que soit la version du microprogramme.

                    • Si vous désactivez RC4 de votre configuration Active Directory, l'authentification utilisateur sur les hôtes ESXi pourrait commencer à échouer avec des erreurs du type Échec de l'authentification de l'utilisateur.

                    • Si une demande de récupération est répétée lors d'une opération de basculement ou de restauration d'un serveur NFS, la récupération en cours échoue et entraîne une absence de réponse des machines virtuelles sur les banques de données NFS 4.1.

                    • Lorsque des machines virtuelles reprennent à partir d'un snapshot, après les opérations de migration à l'aide de vSphere vMotion, lors de la reprise d'une machine virtuelle interrompue, ou d'une opération d'enfichage à chaud, vous pouvez constater une petite augmentation de la durée %SYS signalée pour certaines charges de travail d'E/S de disque. Ce problème se produit, car l'adaptateur de stockage virtuel PVSCSI peut arrêter de dimensionner dynamiquement sa file d'attente interne en fonction de la charge de travail de l'invité. Par conséquent, la surcharge du pilote augmente pendant une importante activité d'E/S et peut entraîner une augmentation mineure de la durée %SYS pour certaines charges de travail d'E/S de disque. Le problème n'affecte pas les périphériques virtuels NVMe et LSI.

                    • Les applications Java sur un hôte AMD dans un cluster EVC peuvent ne pas démarrer et signaler l'erreur suivante : Processeur x64 inconnu : SSE2 non pris en charge. Ce problème se produit, car le champ CPUID family (leaf 1, EAX, bits 11-8) présente une valeur incorrecte. En conséquence, Lookup Service et d'autres services basés sur Java sur vCenter Server Appliance ne peuvent pas démarrer.

                    • Après la mise à niveau des serveurs HPE, tels que HPE ProLiant Gen10 et Gen10 plus, vers la version 2.30 du microprogramme iLO 5, vSphere Client affiche des alertes concernant la santé des capteurs de mémoire. Ce problème se produit parce que le système de surveillance de la santé du matériel ne décode pas correctement les capteurs Mem_Stat_* lorsque le premier LUN est activé après la mise à niveau.

                    • Sur les hôtes ESXi qui utilisent un périphérique de lecteur de carte SD VID:PID/0bda:0329 Realtek Semiconductor Corp USB 3.0 ne prenant pas en charge la capacité de lecture 16, les journaux vmkernel peuvent afficher de nombreuses erreurs, telles que :
                      2020-06-30T13:26:06.141Z cpu0:2097243)ScsiDeviceIO: 3449: Cmd(0x459ac1350600) 0x9e, CmdSN 0x2452e from world 0 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x7 D:0x0 P:0x0 Invalid sense data: 0x0 0x6e 0x73.
                      et
                      2020-06-30T14:23:18.280Z cpu0:2097243)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "mpx.vmhba32:C0:T0:L0" state in doubt; requested fast path state update...

                    • Le service vpxa échoue en cas de présence d'une chaîne non-UTF8 dans la propriété de nom des capteurs numériques et les hôtes ESXi se déconnectent du système vCenter Server.

                    • En raison d'une erreur dans le traitement des entrées du capteur, les données memoryStatusInfo et cpuStatusInfo peuvent aussi inclure de manière incorrecte l'état des capteurs non-CPU et non-mémoire. Il en résulte un état incorrect pour les capteurs de CPU et de mémoire dans le navigateur d'objets gérés.

                    • L'installation d'ESXi peut échouer sur les supports dont les banques de données ne peuvent pas être montées, car une partition VMFS est corrompue, non formatée, ou a une propriété système différente. Le programme d'installation d'ESXi peut également supprimer des partitions VMFS sur un support de démarrage USB connecté lors de la mise à niveau ou de l'installation.

                    • Les enregistrements d'audit configurés pour la partition Scratch sur le périphérique de démarrage ne sont pas conservés lors de la mise à niveau vers ESXi 7.x à partir de la version 6.7 Update 2 et versions ultérieures. La certification NIAP (National Information Assurance Partnership) pour ESXi post 6.7 Update 2 requiert que les enregistrements d'audit qui se trouvent dans /scratch persistent après une mise à niveau.

                    • Après une opération de sauvegarde, des messages d'erreur identiques, tels que liste de blocs : Impossible de convertir le chemin d'accès au disque <vmdk file> en chemin d'accès réel ; il sera ignoré. peuvent saturer le fichier hostd.log. Ce problème bloque les autres journaux hostd et peut saturer la mémoire du journal.

                    • Dans un environnement vSphere HA, l'algorithme de vSphere Virtual Volumes utilise l'UUID pour déterminer quand plusieurs hôtes ESXi sont susceptibles de rivaliser pour créer et monter simultanément un Config-VVol avec le même nom convivial. Toutefois, le Config-VVol choisi par l'UUID peut ne pas être le premier que l'hôte ESXi demande, ce qui peut créer des problèmes dans les banques de données vSphere Virtual Volumes.

                    • Dans vSphere Client ou en utilisant l'API, vous ne pourrez peut-être pas modifier la configuration du niveau de journalisation du service vpxa sur un hôte ESX parce qu'une option Vpx.Vpxa.config.log.level est absente ou non valide après une mise à niveau de votre système vCenter Server. 

                    • Si ESXi est installé sur un périphérique de démarrage lent, tel qu'un périphérique USB ou FCoE, ESXi peut ne pas être en mesure de détecter un chemin de stockage de périphérique de démarrage. Par conséquent, la partition de la banque de démarrage et d'autres partitions telles que /scratch ne sont pas identifiées, et les modifications de configuration ne sont pas enregistrées. Lorsque ESXi démarre, les liens symboliques /bootbank et /scratch font référence à un chemin de mémoire temporaire.

                    • Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent Lifecycle Manager peut ne pas être en mesure de contacter un hôte ESXi pour démarrer une tâche, telle qu'une installation. Par conséquent, vSphere Client affiche une erreur du type L'agent vSphere HA n'est pas accessible depuis vCenter Server. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données.

                    • Lors d'une opération de gestion d'images de cluster, vSphere Lifecycle Manager peut ne pas réussir à contacter l'agent Lifecycle Manager sur un hôte ESXi. Dans vSphere Client, vous voyez un message d'erreur semblable au message suivant : Une erreur inconnue s'est produite lors de l'appel de l'API de l'hôte. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données.

                    • Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent vSphere HA peut ne pas être en mesure de configurer un hôte ESXi. Par conséquent, dans vSphere Client, vous voyez un message d'erreur semblable au message suivant :
                      Impossible de terminer la configuration de l'agent vSphere HA sur cet hôte. Une erreur s'est produite lors de l'application de VIB HA sur le cluster. 
                      L'échec se produit, car le processus d'installation de l'agent vSphere HA sur l'hôte ESXi peut consommer plus de mémoire que le quota alloué.

                    • Dans vSphere Client, vous voyez un avertissement de santé du matériel avec un état inconnu pour certains capteurs sur les hôtes ESXi.

                    • Si vous ouvrez et fermez uniquement la boîte de dialogue Modifier les paramètres NTP, même si vous n'apportez aucune modification, l'option Démarrer et arrêter avec l'hôte se désactive. Le service NTP ne démarre pas lorsqu'un hôte ESXi se met sous tension. Dans vSphere Client, l'option de stratégie de démarrage du service NTP Démarrer et arrêter avec l'hôte est sélectionnée. Toutefois, dans ESX Shell, lorsque vous exécutez la commande chkconfig –list, le service NTP est désactivé.

                    • Si vous désactivez un adaptateur FCoE de logiciel comme moyen d'accéder au stockage Fibre Channel, le chargement du module CBT peut échouer et ESXi peut ne pas être en mesure de détecter un périphérique de démarrage. En conséquence, les opérations de snapshot, telles que la création et la consolidation de snapshots, échouent.

                    • En cas de problème de connectivité, les contrôles de santé vSAN qui requièrent de la connectivité à VMware peuvent expirer. vSphere Client affiche un message d'erreur semblable au message suivant :
                      Impossible d'interroger les informations de santé de vSAN. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées.
                      Ce problème peut affecter les contrôles de santé en ligne, les mises à jour HCL et les recommandations de la ligne de base vSphere Lifecycle Manager. Si vCenter Server ne parvient pas à résoudre le problème, les contrôles de santé vSAN peuvent expirer lors de l'interrogation des entrées DNS.

                    • Lors de la mise hors service d'un disque pour suppression, un hôte ESXi peut échouer avec un écran de diagnostic violet. Des entrées similaires aux suivantes s'affichent dans la trace de débogage :

                      2020-09-01T04:22:47.112Z cpu7:2099790)@BlueScreen: Échec au niveau de bora/modules/vmkernel/lsomcommon/ssdlog/ssdopslog.c:398 -- NOT REACHED
                      2020-09-01T04:22:47.112Z cpu7:2099790)Code start: 0x418037400000 VMK uptime: 0:00:39:25.026
                      2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049b9e0:[0x41803750bb65]PanicvPanicInt@vmkernel#nover+0x439 stack: 0x44a00000001
                      2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049ba80:[0x41803750c0a2]Panic_vPanic@vmkernel#nover+0x23 stack: 0x121
                      2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049baa0:[0x4180375219c0]vmk_PanicWithModuleID@vmkernel#nover+0x41 stack: 0x451a8049bb00
                      2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb00:[0x41803874707a]SSDLOG_FreeLogEntry@LSOMCommon#1+0x32b stack: 0x800000
                      2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb70:[0x4180387ae4d1][email protected]#0.0.0.1+0x2e stack: 0x712d103
                      2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bbe0:[0x4180387dd08d][email protected]#0.0.0.1+0x72 stack: 0x431b19603150
                      2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bcd0:[0x4180387dd2d3][email protected]#0.0.0.1+0x80 stack: 0x4318102ba7a0
                      2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bd00:[0x4180387dabb5][email protected]#0.0.0.1+0x2ce stack: 0x800000
                      2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049beb0:[0x4180386de2db][email protected]#0.0.0.1+0x590 stack: 0x43180fe83380
                      2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bf90:[0x4180375291ce]vmkWorldFunc@vmkernel#nover+0x4f stack: 0x4180375291ca
                      2020-09-01T04:22:47.116Z cpu7:2099790)0x451a8049bfe0:[0x4180377107da]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0
                    • Si plusieurs espaces de noms sont configurés sur un périphérique NVME, la prise en charge des opérations d'effacement du disque sécurisé vSAN peut changer de manière dynamique, en fonction du nombre d'espaces de noms. Si un nouvel espace de noms est configuré alors qu'une opération d'effacement sécurisée est en cours, par exemple dans VxRail ou la plate-forme Google Cloud, les données sur l'espace de noms récemment ajouté peuvent être effacées.

                    • Le plug-in de facilité de gestion de disque du pilote natif ESXi pour les contrôleurs HPE Smart Array, nhpsa, est mis à jour vers la version 70.0051.0.100 pour résoudre plusieurs problèmes connus.

                    • Le plug-in de facilité de gestion de disque du pilote SCSI natif ESXi pour les contrôleurs de Microsemi Smart Family, smartpqi, est mis à jour vers la version 70.4000.0.100-5 pour restaurer plusieurs ID de périphérique manquants.

                  ESXi-7.0U1sc-17325020-standard
                  Nom du profil ESXi-7.0U1sc-17325020-standard
                  Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
                  Fournisseur VMware, Inc.
                  Date de publication 17 décembre 2020
                  Niveau d'acceptation PartnerSupported
                  Matériel concerné S.O.
                  Logiciels concernés S.O.
                  VIB concernés
                  • VMware_bootbank_crx_7.0.1-0.20.17325020
                  • VMware_bootbank_esx-xserver_7.0.1-0.20.17325020
                  • VMware_bootbank_esx-base_7.0.1-0.20.17325020
                  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.20.17325020
                  • VMware_bootbank_native-misc-drivers_7.0.1-0.20.17325020
                  • VMware_bootbank_vsan_7.0.1-0.20.17325020
                  • VMware_bootbank_vsanhealth_7.0.1-0.20.17325020
                  • VMware_bootbank_gc_7.0.1-0.20.17325020
                  • VMware_bootbank_cpu-microcode_7.0.1-0.20.17325020
                  • VMware_bootbank_vdfs_7.0.1-0.20.17325020
                  • VMware_bootbank_esx-update_7.0.1-0.20.17325020
                  • VMware_bootbank_loadesx_7.0.1-0.20.17325020
                  • VMW_bootbank_vmkata_0.1-1vmw.701.0.20.17325020
                  • VMW_bootbank_nvmerdma_1.0.1.2-1vmw.701.0.20.17325020
                  • VMW_bootbank_vmkfcoe_1.0.0.2-1vmw.701.0.20.17325020
                  • VMW_bootbank_vmkusb_0.1-1vmw.701.0.20.17325020
                  PR résolus 2661006, 2671485, 2636149
                  Numéros CVE associés CVE-2020-3999
                  • Ce correctif met à jour les problèmes suivants :
                    • ESXi 7.0 Update 1c corrige une vulnérabilité de type déni de service due à une validation d'entrée incorrecte dans les variables GuestInfo. Toute personne mal intentionnée disposant d'un privilège d'utilisateur normal pour accéder à une machine virtuelle peut provoquer une défaillance dans le processus VMX de la machine virtuelle, entraînant une situation de déni de service. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3999 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0029.

                    • La base de données SQLite est mise à jour vers la version 3.33.0.

                    • La bibliothèque ESXi userworld OpenSSL est mise à jour vers la version openssl-1.0.2w.

                    • OpenSSH est mis à jour vers la version 8.3p1.

                    • Le démon NTP est mis à jour vers la version ntp-4.2.8p15.

                    • La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.72.0.

                    • Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 1c :

                      • windows.iso : VMware Tools 11.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.
                      • linux.iso: Image ISO de VMware Tools 10.3.22 pour le système d'exploitation Linux avec glibc version 2.5 ou version ultérieure.

                      Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :

                      • VMware Tools 10.0.12 :
                        • winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.
                        • linuxPreGLibc25.iso : pour le système d'exploitation Linux avec une version glibc antérieure à la version 2.5.
                           
                      • VMware Tools 11.0.6
                        • windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
                      • solaris.iso: image de VMware Tools pour Solaris
                      • darwin.iso: image de VMware Tools pour OSX.

                      Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

                  ESXi-7.0U1sc-17325020-no-tools
                  Nom du profil ESXi-7.0U1sc-17325020-no-tools
                  Build Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version.
                  Fournisseur VMware, Inc.
                  Date de publication 17 décembre 2020
                  Niveau d'acceptation PartnerSupported
                  Matériel concerné S.O.
                  Logiciels concernés S.O.
                  VIB concernés
                  • VMware_bootbank_crx_7.0.1-0.20.17325020
                  • VMware_bootbank_esx-xserver_7.0.1-0.20.17325020
                  • VMware_bootbank_esx-base_7.0.1-0.20.17325020
                  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.1-0.20.17325020
                  • VMware_bootbank_native-misc-drivers_7.0.1-0.20.17325020
                  • VMware_bootbank_vsan_7.0.1-0.20.17325020
                  • VMware_bootbank_vsanhealth_7.0.1-0.20.17325020
                  • VMware_bootbank_gc_7.0.1-0.20.17325020
                  • VMware_bootbank_cpu-microcode_7.0.1-0.20.17325020
                  • VMware_bootbank_vdfs_7.0.1-0.20.17325020
                  • VMware_bootbank_esx-update_7.0.1-0.20.17325020
                  • VMware_bootbank_loadesx_7.0.1-0.20.17325020
                  • VMW_bootbank_vmkata_0.1-1vmw.701.0.20.17325020
                  • VMW_bootbank_nvmerdma_1.0.1.2-1vmw.701.0.20.17325020
                  • VMW_bootbank_vmkfcoe_1.0.0.2-1vmw.701.0.20.17325020
                  • VMW_bootbank_vmkusb_0.1-1vmw.701.0.20.17325020
                  PR résolus 2661006, 2671485, 2636149
                  Numéros CVE associés CVE-2020-3999
                  • Ce correctif met à jour les problèmes suivants :
                    • ESXi 7.0 Update 1c corrige une vulnérabilité de type déni de service due à une validation d'entrée incorrecte dans les variables GuestInfo. Toute personne mal intentionnée disposant d'un privilège d'utilisateur normal pour accéder à une machine virtuelle peut provoquer une défaillance dans le processus VMX de la machine virtuelle, entraînant une situation de déni de service. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3999 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0029.

                    • La base de données SQLite est mise à jour vers la version 3.33.0.

                    • La bibliothèque ESXi userworld OpenSSL est mise à jour vers la version openssl-1.0.2w.

                    • OpenSSH est mis à jour vers la version 8.3p1.

                    • Le démon NTP est mis à jour vers la version ntp-4.2.8p15.

                    • La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.72.0.

                    • Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 1c :

                      • windows.iso : VMware Tools 11.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.
                      • linux.iso: Image ISO de VMware Tools 10.3.22 pour le système d'exploitation Linux avec glibc version 2.5 ou version ultérieure.

                      Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :

                      • VMware Tools 10.0.12 :
                        • winPreVista.iso : pour Windows 2000, Windows XP et Windows 2003.
                        • linuxPreGLibc25.iso : pour le système d'exploitation Linux avec une version glibc antérieure à la version 2.5.
                           
                      • VMware Tools 11.0.6
                        • windows.iso : pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
                      • solaris.iso: image de VMware Tools pour Solaris
                      • darwin.iso: image de VMware Tools pour OSX.

                      Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

                  ESXi Image - ESXi70U1c-17325551
                  Nom ESXi
                  Version 7.0 U1c-17325551
                  Date de publication 17 décembre 2020
                  Catégorie Amélioration
                  Composants concernés
                  • ESXi
                  • Composant d'installation/mise à niveau d'ESXi
                  • Pilote de contrôleur de stockage VMware ATA
                  • Pilote de contrôleur HPE Smart Array
                  • Pilote USB VMware
                  • Pilote de contrôleur de stockage Smart Array de la solution de stockage Microsemi
                  PR résolus  2656093, 2652863, 2653874, 2643508, 2644189, 2652344, 2661064, 2667291, 2662512, 2644221, 2662606, 2661153, 2655181, 2657411, 2675442, 2657649, 2662558, 2661818, 2664084, 2625155, 2658647, 2659015, 2654686, 2664278, 2676632, 2647557, 2647557, 2628899, 2663717, 2633194, 2661808, 2670891, 2665031, 2644003, 2664045, 2655992, 2661584
                  Numéros CVE associés CVE-2020-3999
                    ESXi Image - ESXi7.0U1sc-17325020
                    Nom ESXi
                    Version 7.0 U1sc-17325020
                    Date de publication 17 décembre 2020
                    Catégorie Amélioration
                    Composants concernés
                    • ESXi
                    • Composant d'installation/mise à niveau d'ESXi
                    • Pilote de contrôleur de stockage VMware ATA
                    • VMware NVMe over Fabric - Pilote RDMA
                    • Pilote FCoE de logiciel natif VMware
                    • Pilote USB VMware
                    PR résolus  2661006, 2671485, 2636149
                    Numéros CVE associés CVE-2020-3999

                      Problèmes connus

                      Les problèmes connus sont classés comme suit :

                      Problèmes de mise à niveau
                      • Les mises à niveau vers ESXi 7. x à partir des versions 6.5 x et 6.7.0 à l'aide de ESXCLI peuvent échouer en raison d'une limitation d'espace

                        Les mises à niveau vers ESXi 7.x à partir des versions 6.5.x et 6.7.0 à l'aide des commandes ESXCLI esxcli software profil update ou esxcli software profile install peuvent échouer, car la banque de démarrage ESXi peut être inférieure à la taille du profil d'image. Dans ESXi Shell ou l'interpréteur de commandes PowerCLI, une erreur semblable à la suivante s'affiche :
                         [InstallationError]  
                        La transaction en attente nécessite 244 Mo d'espace libre, mais la taille maximale prise en charge est de 239 Mo.  
                        Consultez le fichier journal pour plus de détails.

                        Ce problème se produit également lorsque vous tentez d'effectuer une mise à niveau de l'hôte ESXi à l'aide des commandes ESXCLI esxcli software vib update ou esxcli software vib install.

                        Solution : Vous pouvez effectuer la mise à niveau en deux étapes, à l'aide de la commande esxcli software profile update pour mettre à jour les hôtes ESXi vers ESXi 6.7 Update 1 ou version ultérieure, puis mettre à jour vers 7.0 Update 1c. Vous pouvez également exécuter une mise à niveau à l'aide d'une image ISO et de vSphere Lifecycle Manager.

                      Problèmes divers
                      • Effacement du disque sécurisé vSAN non pris en charge sur les périphériques NVMe avec plusieurs espaces de noms

                        Si plusieurs espaces de noms sont configurés sur un périphérique NVME, les opérations d'effacement du disque sécurisé vSAN ne sont pas prises en charge.
                        Si un nouvel espace de noms est configuré alors qu'une opération d'effacement sécurisé est en cours, par exemple dans VMware Tanzu Architecture pour Dell EMC VxRail ou la plate-forme Google Cloud, les données sur l'espace de noms récemment ajouté peuvent être effacées. Les opérations d'effacement du disque sécurisé vSAN ne sont donc prises en charge que sur les périphériques NVME avec un seul espace de noms.

                        Solution : aucune.

                      Problèmes connus des versions antérieures

                      Pour afficher la liste des problèmes connus précédents, cliquez ici.

                      check-circle-line exclamation-circle-line close-line
                      Scroll to top icon
                      check-circle-line exclamation-circle-line close-line
                      Scroll to top icon