ESXi 7.0 Update 1c | 17 décembre 2020 | Build ISO 17325551 Vérifiez les compléments et les mises à jour pour ces notes de mise à jour. |
Contenu des notes de mise à jour
Les notes de mise à jour couvrent les sujets suivants :
- Nouveautés
- Versions antérieures d'ESXi 7.0
- Correctifs contenus dans cette version
- Remarques relatives à la prise en charge du produit
- Problèmes résolus
- Problèmes connus
Nouveautés
- ESXi 7.0 Update 1c prend en charge vSphere Quick Boot sur les serveurs suivants :
- Cisco Systems Inc :
- HX240C-M5SD
- HXAF240C-M5SD
- UCSC-C240-M5SD
- Dell Inc :
- PowerEdge C6420
- PowerEdge C6525
- PowerEdge FC640
- PowerEdge M640
- PowerEdge MX740c
- PowerEdge MX840c
- PowerEdge R540
- PowerEdge R6515
- PowerEdge R6525
- PowerEdge R7515
- PowerEdge R7525
- PowerEdge R840
- PowerEdge R930
- PowerEdge R940
- PowerEdge R940xa
- HPE :
- ProLiant DL385 Gen10
- Cisco Systems Inc :
-
ESXi 7.0 Update 1c ajoute cinq statistiques de carte réseau physique, à savoir
droppedRx
,droppedTx
,errorsRx
,RxCRCErrors
eterrorsTx
, au fichierhostd. log
dans/var/run/log/hostd.log
pour vous permettre de détecter les erreurs de mise en réseau non corrigées et de prendre les mesures correctives nécessaires. -
ESXi 7.0 Update 1c permet d'utiliser le paramètre
--remote-host-max-msg-len
pour définir la longueur maximale des messages syslog jusqu'à 16 Kio pour éviter leur fractionnement. Par défaut, le démon syslog ESXi (vmsyslogd) respecte strictement la longueur maximale du message de 1 Kio définie par RFC 3164. Les messages plus longs sont divisés en plusieurs parties. Définissez la longueur maximale des messages sur la longueur minimale prise en charge par l'un des récepteurs ou relais syslog impliqués dans l'infrastructure syslog. -
ESXi 7.0 Update 1c permet d'utiliser l'option de démarrage du programme d'installation
systemMediaSize
pour limiter la taille des partitions de stockage système sur le support de démarrage. Si votre système dispose d'un emplacement de petite taille qui ne requiert pas la taille de stockage système maximale de 138 Go, vous pouvez le limiter à la taille minimale de 33 Go. Le paramètresystemMediaSize
accepte les valeurs suivantes :La valeur sélectionnée doit correspondre à l'usage auquel votre système est destiné. Par exemple, un système disposant de 1 To de mémoire doit utiliser au minimum 69 Go pour le stockage système. Pour définir l'option de démarrage au moment de l'installation, par exemple
systemMediaSize=small
, reportez-vous à la section Entrer les options de démarrage pour lancer un script d'installation ou de mise à niveau. Pour plus d'informations, reportez-vous à l'article 81166 de la base de connaissances VMware.- min (33 Go, pour un seul disque ou des serveurs intégrés)
- petite (69 Go, pour les serveurs disposant d'au moins 512 Go de RAM)
- taille par défaut (138 Go)
- max (utilise tout l'espace disponible, pour les serveurs multi-téraoctets)
Versions antérieures d'ESXi 7.0
Les fonctionnalités ainsi que les problèmes connus et résolus d'ESXi sont décrits dans les notes de mise à jour de chaque version. Notes de mise à jour des versions antérieures à ESXi 7.0 :
- VMware ESXi 7.0, version de correctif ESXi 7.0 Update 1b
- VMware ESXi 7.0, version de correctif ESXi 7.0 Update 1a
- VMware ESXi 7.0, version de correctif ESXi 7.0 Update 1
- VMware ESXi 7.0, Patch Release ESXi 7.0b
Pour plus d'informations sur l'internationalisation, la compatibilité et les composants open source, consultez les Notes de mise à jour de VMware vSphere 7.0.
Correctifs contenus dans cette version
Cette version ESXi 7.0 Update 1c fournit les correctifs suivants :
Détails de la build
Nom de fichier de téléchargement : | VMware-ESXi-7.0U1c-17325551-depot.zip |
Build : | 17325551 |
Taille du téléchargement : | 523,2 Mo |
md5sum : | d1410e6c741ada23c3570e07b94bd8c7 |
sha1checksum : | a70defe8353b39f74339b158697ed1a12df6c55d |
Redémarrage de l'hôte requis : | Oui |
Migration ou arrêt de la machine virtuelle requis : | Oui |
IMPORTANT :
- À partir de vSphere 7.0, VMware utilise des composants pour le conditionnement des VIB avec des bulletins. Les bulletins ESXi et
esx-update
sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte. -
Lorsque vous appliquez un correctif aux hôtes ESXi à l'aide de vSphere Lifecycle Manager à partir d'une version antérieure à ESXi 7.0 Update 1, il est vivement recommandé d'utiliser le bulletin de cumul dans la ligne de base de correctifs. Si vous ne pouvez pas utiliser le bulletin de cumul, assurez-vous d'inclure tous les modules suivants dans la ligne de base de correctifs. Si les modules suivants ne sont pas inclus dans la ligne de base, l'opération de mise à jour échoue :
- VMware-vmkusb_0.1-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-vmkata_0.1-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 ou version ultérieure
Composants
Composant | ID de bulletin | Catégorie | Gravité |
ESXi | ESXi_7.0.1-0.25.17325551 | Correctif de bogues | Critique |
Composant d'installation/mise à niveau d'ESXi | esx-update_7.0.1-0.25.17325551 | Correctif de bogues | Critique |
Pilote de contrôleur de stockage VMware ATA | VMware-vmkata_0.1-1vmw.701.0.25.17325551 | Correctif de bogues | Modéré |
Pilote de contrôleur HPE Smart Array | HPE-nhpsa_70.0051.0.100-2vmw.701.0.25.17325551 | Correctif de bogues | Modéré |
Pilote USB VMware | VMware-vmkusb_0.1-1vmw.701.0.25.17325551 | Correctif de bogues | Modéré |
Pilote de contrôleur de stockage Smart Array de la solution de stockage Microsemi | Microchip-smartpqi_70.4000.0.100-4vmw.701.0.25.17325551 | Correctif de bogues | Modéré |
ESXi | ESXi_7.0.1-0.20.17325020 | Sécurité | Critique |
Composant d'installation/mise à niveau d'ESXi | esx-update_7.0.1-0.20.17325020 | Sécurité | Critique |
Pilote de contrôleur de stockage VMware ATA | VMware-vmkata_0.1-1vmw.701.0.20.17325020 | Sécurité | Important |
VMware NVMe over Fabric - Pilote RDMA | VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.20.17325020 | Sécurité | Important |
Pilote FCoE de logiciel natif VMware | VMware-vmkfcoe_1.0.0.2-1vmw.701.0.20.17325020 | Sécurité | Important |
Pilote USB VMware | VMware-vmkusb_0.1-1vmw.701.0.20.17325020 | Sécurité | Important |
Bulletin de cumul
Ce bulletin de cumul contient les derniers VIB avec tous les correctifs postérieurs à la publication initiale d'ESXi 7.0.
ID de bulletin | Catégorie | Gravité |
ESXi70U1c-17325551 | Correctif de bogues | Critique |
Profils d'image
Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques. L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.
Nom de profil d'image |
ESXi-7.0U1c-17325551-standard |
ESXi-7.0U1c-17325551-no-tools |
ESXi-7.0U1sc-17325020-standard |
ESXi-7.0U1sc-17325020-no-tools |
Image ESXi
Nom et version | Date de publication | Catégorie | Détail |
---|---|---|---|
ESXi70U1c-17325551 | 17/12/2020 | Amélioration | Image de sécurité et de résolutions de bogues |
ESXi70U1sc-17325020 | 17/12/2020 | Amélioration | Image de sécurité uniquement |
Pour plus d'informations sur les composants et bulletins individuels, reportez-vous à la page Correctifs de produits et à la section Problèmes résolus.
Téléchargement et installation de correctifs
Dans vSphere 7.x, le plug-in Update Manager, utilisé pour l'administration de vSphere Update Manager, est remplacé par le plug-in Lifecycle Manager. Les opérations d'administration pour vSphere Update Manager sont toujours disponibles sous le plug-in Lifecycle Manager, avec de nouvelles capacités pour vSphere Lifecycle Manager.
La manière habituelle d'appliquer des correctifs aux hôtes ESXi 7.x consiste à utiliser vSphere Lifecycle Manager. Pour plus d'informations, consultez À propos de vSphere Lifecycle Manager et Lignes de base et images de vSphere Lifecycle Manager.
Vous pouvez également mettre à jour des hôtes ESXi sans utiliser le plug-in Lifecycle Manager et utiliser un profil d'image à la place. Pour ce faire, vous devez télécharger manuellement le fichier ZIP du bundle hors ligne du correctif sur la page Téléchargement de VMware ou sur la page Correctifs de produits, puis utilisez la commande esxcli software profile update
.
Pour plus d'informations, consultez Mise à niveau des hôtes à l'aide des commandes ESXCLI et le guide Mise à niveau de VMware ESXi.
Remarques relatives à la prise en charge du produit
VMware Tools 9.10.x et 10.0.x ont atteint la fin du support général. Pour plus d'informations, reportez-vous aux outils VMware Tools répertoriés sous Matrice de cycle de vie des produits VMware.
Problèmes résolus
Les problèmes résolus sont regroupés comme suit :
- ESXi_7.0.1-0.25.17325551
- esx-update_7.0.1-0.25.17325551
- VMware-vmkata_0.1-1vmw.701.0.25.17325551
- HPE-nhpsa_70.0051.0.100-2vmw.701.0.25.17325551
- VMware-vmkusb_0.1-1vmw.701.0.25.17325551
- Microchip-smartpqi_70.4000.0.100-4vmw.701.0.25.17325551
- ESXi_7.0.1-0.20.17325020
- esx-update_7.0.1-0.20.17325020
- VMware-vmkata_0.1-1vmw.701.0.20.17325020
- VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.20.17325020
- VMware-vmkfcoe_1.0.0.2-1vmw.701.0.20.17325020
- VMware-vmkusb_0.1-1vmw.701.0.20.17325020
- ESXi-7.0U1c-17325551-standard
- ESXi-7.0U1c-17325551-no-tools
- ESXi-7.0U1sc-17325020-standard
- ESXi-7.0U1sc-17325020-no-tools
- ESXi Image - ESXi70U1c-17325551
- ESXi Image - ESXi7.0U1sc-17325020
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2656093, 2652863, 2653874, 2643508, 2644189, 2652344, 2661064, 2667291, 2662512, 2644221, 2662606, 2661153, 2655181, 2657411, 2675442, 2657649, 2662558, 2661818, 2664084, 2625155, 2658647, 2659015, 2654686, 2664278, 2676632, 2647557, 2647557, 2628899, 2663717, 2633194, 2661808, 2670891, 2665031, 2644003, 2664045 |
Numéros CVE | S.O. |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB esx-dvfilter-generic-fastpath, vsanhealth, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver, gc
et cpu-microcode
pour résoudre les problèmes suivants :
- PR 2656093 : vous remarquez une perte de connectivité réseau suite à un redémarrage du commutateur physique
Le paramètre
Net.TeamPolicyUpDelay
de délai de retour arrière de l'association de réseau sur les hôtes ESXi est actuellement défini sur 10 minutes, mais, dans certains environnements, il faut parfois plus de 10 minutes pour qu'un commutateur physique soit prêt à recevoir ou à transmettre des données après un redémarrage. Cela peut entraîner une perte de connectivité réseau.Ce problème est résolu dans cette version. Le correctif augmente la valeur du paramètre
Net.TeamPolicyUpDelay
jusqu'à 30 minutes. Vous pouvez définir le paramètre en sélectionnant l'hôte ESXi et en accédant à Configurer > Système -> Paramètres système avancés >Net.TeamPolicyUpDelay
. Autrement, vous pouvez utiliser la commandeesxcfg-advcfg -s
<value>/Net/TeamPolicyUpDelay. - PR 2652863 : les modifications apportées à la configuration du filtre de pare-feu distribué (DFW) peuvent entraîner une perte de connectivité réseau des machines virtuelles
Toutes les activités de reconfiguration du filtre DFW, telles que l'ajout ou la suppression de filtres, peuvent entraîner l'abandon de paquets par certains filtres. Par conséquent, les machines virtuelles perdent la connectivité réseau et vous devez réinitialiser le vmnic, modifier le groupe de ports ou redémarrer la machine virtuelle pour restaurer le trafic. La sortie de la commande
summarize-dvfilter
indiqueétat : Détachement d'IOChain
pour le filtre ayant échoué.Ce problème est résolu dans cette version.
- PR 2653874 : une machine virtuelle peut échouer avec une erreur SIGSEGV pendant le rendu 3D
Un tampon avec lectures excessives pendant certaines opérations de rendu peut entraîner l'échec d'une machine virtuelle 3D avec une erreur SIGSEGV lors de l'interaction avec les applications graphiques qui utilisent l'accélération 3D.
Ce problème est résolu dans cette version.
- PR 2643508 : Si une machine virtuelle redémarre ou se réinitialise au cours d'une opération d'enfichage à chaud, les journaux risquent de saturer l'espace disque disponible et ainsi d'empêcher la machine de répondre.
Si une machine virtuelle redémarre ou se réinitialise au cours d'une opération d'enfichage à chaud, les journaux dans le fichier
vmware.log
de la machine virtuelle peuvent remplir l'espace disque disponible et empêcher la machine de répondre. Les messages de journal sont identiques, par exemple :acpiNotifyQueue: Achèvement d'événement ACPI parasite, données 0xFFFFFFFF
.Ce problème est résolu dans cette version. Si vous ne pouvez pas appliquer ce correctif, n'effectuez pas de réinitialisation ou de redémarrage de la machine virtuelle avant la fin des opérations d'enfichage à chaud ou des installations de pilotes. Si vous avez déjà été confronté à ce problème, mettez la machine virtuelle en cycle d'alimentation.
- PR 2644189 : échec de smpboot pour les machines virtuelles Linux avec SEV-ES (Secure Encrypted Virtualization-Encrypted State) activé
Lorsqu'une machine virtuelle Linux avec plusieurs CPU virtuels sur laquelle SEV-ES est activé démarre, tous les CPU à l'exception de CPU0 sont hors ligne. Vous ne pouvez pas mettre les CPU restants en ligne. La commande
dmesg
renvoie une erreur telle quesmpboot: do_boot_cpu failed(-1) to wakeup CPU#1
.Ce problème est résolu dans cette version.
- PR 2652344 : Si vous disposez de fichiers d'échange .vswp dans un répertoire de machine virtuelle, des messages d'erreur de périphérique ou de ressource occupé(e) s'affichent lors de l'analyse de tous les fichiers dans le répertoire
Si vous disposez de fichiers d'échange
.vswp
dans un répertoire de machine virtuelle, des messages d'erreur depériphérique ou de ressource occupé(e)
s'affichent lors de l'analyse de tous les fichiers dans le répertoire. Vous voyez également un flux d'E/S supplémentaire sur les objets d'espace de noms vSAN et vous remarquez un ralentissement dans le service hostd.
Ce problème se produit si vous tentez d'ouvrir un fichier portant l'extension.vswp
en tant que descripteur d'objet. Les fichiers d'échange du processus VMX ont la même extension.vswp
que ceux de la mémoire principale de la machine virtuelle, mais diffèrent en ce qu'ils ne doivent pas être ouverts en tant que descripteurs d'objet.Ce problème est résolu dans cette version.
- PR 2661064 : le service hostd cesse de répondre par intermittence
Dans de rares cas, une condition de concurrence entre plusieurs threads qui tentent de créer un fichier et de supprimer le répertoire dans le même répertoire peut entraîner un blocage faisant échouer le service hostd. La restauration du service intervient uniquement après un redémarrage de l'hôte ESXi. Dans les journaux vmkernel, vous voyez des alerte telles que :
2020-03-31T05:20:00.509Z cpu12:4528223)ALERT: hostd detected to be non-responsive.
Un tel blocage peut également affecter d'autres services, mais la fenêtre de condition de concurrence est petite et le problème n'est pas fréquent.
Ce problème est résolu dans cette version.
- PR 2667291 : le chiffrement des machines virtuelles prend beaucoup de temps et finit par échouer avec une erreur
Le chiffrement des machines virtuelles peut prendre plusieurs heures et finalement échouer en affichant l'erreur
Le fichier existe déjà
dans les journaux du service hostd. Ce problème se produit s'il existe un fichier<vm name="">.nvram
inactif ou inutilisé dans les fichiers de configuration de machine virtuelle. Si les machines virtuelles ont une entrée telle queNVRAM = “nvram”
dans le fichier.vmx
, l'opération de chiffrement crée un fichier chiffré avec l'extension de fichier.nvram
, ce que le système considère comme un doublon du fichier inactif existant.Ce problème est résolu dans cette version. Si vous avez déjà été confronté à ce problème, supprimez manuellement le fichier
<vm name="">.nvram
inactif avant le chiffrement. - Échec de l'hôte PR 2662512 : vSAN lors de la désactivation d'un important volume de cache client
Si vSAN tente de désactiver du cache en mémoire d'un volume de 256 Go ou plus, il se peut que l'opération entraîne l'échec de l'hôte ESXi avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 2644221 : si vous activez LiveCoreDump comme option de collecte des journaux système sur un hôte ESXi, l'hôte peut cesser de répondre
Si vous activez LiveCoreDump en tant qu'option de collecte des journaux système sur un hôte ESXi, l'hôte peut cesser de répondre. Une erreur de type
#PF Exception 14 in world 2125468
s'affiche sur un écran de diagnostic violet.Ce problème est résolu dans cette version.
- PR 2662606 : vous pouvez voir des alarmes de santé pour l'ID 44 d'entité de capteur après la mise à niveau du microprogramme des serveurs HPE Gen10
Après la mise à niveau de la version du microprogramme sur les serveurs HP Gen10, vous verrez peut-être des alarmes de santé pour les capteurs Module 2 d'E/S
ALOM_Link_P2
etNIC_Link_02P2
, en relation avec l'entité de capteurID 44.x
. Les alarmes n'indiquent pas un problème de santé réel et vous pouvez les ignorer quelle que soit la version du microprogramme.Ce problème est résolu dans cette version.
- PR 2661153 : Si vous désactivez RC4, l'authentification utilisateur Active Directory sur les hôtes ESXi pourrait échouer
Si vous désactivez RC4 de votre configuration Active Directory, l'authentification utilisateur sur les hôtes ESXi pourrait commencer à échouer avec des erreurs du type
Échec de l'authentification de l'utilisateur
.Ce problème est résolu dans cette version.
- PR 2655181 : les machines virtuelles sur la banque de données NFS 4.1 peuvent cesser de répondre après un basculement ou un retour arrière du serveur NFS
Si une demande de récupération est répétée lors d'une opération de basculement ou de restauration d'un serveur NFS, la récupération en cours échoue et entraîne une absence de réponse des machines virtuelles sur les banques de données NFS 4.1.
Ce problème est résolu dans cette version. Le correctif analyse les réponses de récupération en détail et autorise les nouvelles tentatives uniquement lorsque cela s'avère nécessaire.
- PR 2657411 : La durée pendant laquelle le processeur est en mode système (%SYS) augmente pour certaines charges de travail d'E/S de disque dans les machines virtuelles
Lorsque des machines virtuelles reprennent à partir d'un snapshot, après les opérations de migration à l'aide de vSphere vMotion, lors de la reprise d'une machine virtuelle interrompue, ou d'une opération d'enfichage à chaud, vous pouvez constater une petite augmentation de la durée %SYS signalée pour certaines charges de travail d'E/S de disque. Ce problème se produit, car l'adaptateur de stockage virtuel PVSCSI peut arrêter de dimensionner dynamiquement sa file d'attente interne en fonction de la charge de travail de l'invité. Par conséquent, la surcharge du pilote augmente pendant une importante activité d'E/S et peut entraîner une augmentation mineure de la durée %SYS pour certaines charges de travail d'E/S de disque. Le problème n'affecte pas les périphériques virtuels NVMe et LSI.
Ce problème est résolu dans cette version.
- PR 2675442 : Le démarrage des applications Java sur un hôte AMD dans un cluster EVC (Enhanced vMotion Compatibility) peut échouer avec une erreur indiquant que SSE2 n'est pas pris en charge
Les applications Java sur un hôte AMD dans un cluster EVC peuvent ne pas démarrer et signaler l'erreur suivante :
Processeur x64 inconnu : SSE2 non pris en charge
. Ce problème se produit, car le champ CPUIDfamily (leaf 1, EAX, bits 11-8)
présente une valeur incorrecte. En conséquence, Lookup Service et d'autres services basés sur Java sur vCenter Server Appliance ne peuvent pas démarrer.Ce problème est résolu dans cette version.
- PR 2657649 : après la mise à niveau des serveurs HPE vers le microprogramme Integrated Lights-Out 5 (iLO 5) version 2.30 de HPE, des alertes concernant la santé du capteur de mémoire apparaissent
Après la mise à niveau des serveurs HPE, tels que HPE ProLiant Gen10 et Gen10 plus, vers la version 2.30 du microprogramme iLO 5, vSphere Client affiche des alertes concernant la santé des capteurs de mémoire. Ce problème se produit parce que le système de surveillance de la santé du matériel ne décode pas correctement les capteurs
Mem_Stat_*
lorsque le premier LUN est activé après la mise à niveau.Ce problème est résolu dans cette version.
- PR 2662558 : si une carte SD ne prend pas en charge la capacité de lecture 16, les journaux affichent de nombreuses erreurs
Sur les hôtes ESXi qui utilisent un périphérique de lecteur de carte SD VID:PID/0bda:0329 Realtek Semiconductor Corp USB 3.0 ne prenant pas en charge la capacité de lecture 16, les journaux vmkernel peuvent afficher de nombreuses erreurs, telles que :
2020-06-30T13:26:06.141Z cpu0:2097243)ScsiDeviceIO: 3449: Cmd(0x459ac1350600) 0x9e, CmdSN 0x2452e from world 0 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x7 D:0x0 P:0x0 Invalid sense data: 0x0 0x6e 0x73.
et2020-06-30T14:23:18.280Z cpu0:2097243)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "mpx.vmhba32:C0:T0:L0" state in doubt; requested fast path state update...
Ce problème est résolu dans cette version.
- PR 2661818 : dans le cas d'une chaîne non-UTF8 dans la propriété de nom des capteurs numériques, le service vpxa échoue
Le service vpxa échoue en cas de présence d'une chaîne non-UTF8 dans la propriété de nom des capteurs numériques et les hôtes ESXi se déconnectent du système vCenter Server.
Ce problème est résolu dans cette version.
- PR 2664084 : le navigateur d'objets gérés peut afficher l'état des capteurs de CPU et de mémoire de manière incorrecte
En raison d'une erreur dans le traitement des entrées du capteur, les données
memoryStatusInfo
etcpuStatusInfo
peuvent aussi inclure de manière incorrecte l'état des capteurs non-CPU et non-mémoire. Il en résulte un état incorrect pour les capteurs de CPU et de mémoire dans le navigateur d'objets gérés.Ce problème est résolu dans cette version.
- PR 2625155 : L'installation d'ESXi peut échouer sur un support avec des banques de données non formatées ou corrompues
L'installation d'ESXi peut échouer sur les supports dont les banques de données ne peuvent pas être montées, car une partition VMFS est corrompue, non formatée, ou a une propriété système différente. Le programme d'installation d'ESXi peut également supprimer des partitions VMFS sur un support de démarrage USB connecté lors de la mise à niveau ou de l'installation.
Ce problème est résolu dans cette version.
- PR 2658647 : Les enregistrements d'audit configurés pour la partition Scratch sont perdus lors de la mise à niveau vers ESXi 7.x à partir de la version 6.7 Update 2 et versions ultérieures
Les enregistrements d'audit configurés pour la partition Scratch sur le périphérique de démarrage ne sont pas conservés lors de la mise à niveau vers ESXi 7.x à partir de la version 6.7 Update 2 et versions ultérieures. La certification NIAP (National Information Assurance Partnership) pour ESXi post 6.7 Update 2 requiert que les enregistrements d'audit qui se trouvent dans
/scratch
persistent après une mise à niveau.Ce problème est résolu dans cette version. Pour les versions antérieures de ESXi 7.x, sauvegardez les enregistrements d'audit du répertoire
/scratch
sur un autre système de fichiers ou une autre partition avant la mise à niveau. - PR 2659015 : après une opération de sauvegarde, des messages d'erreur identiques saturent le fichier hostd.log
Après une opération de sauvegarde, des messages d'erreur identiques, tels que
liste de blocs : Impossible de convertir le chemin d'accès au disque <vmdk file> en chemin d'accès réel ; il sera ignoré.
peuvent saturer le fichierhostd.log
. Ce problème bloque les autres journaux hostd et peut saturer la mémoire du journal.
Ce problème est résolu dans cette version.
- PR 2654686 : l'algorithme de vSphere Virtual Volumes peut ne pas choisir le premier config-VVol qu'un hôte ESXi demande
Dans un environnement vSphere HA, l'algorithme de vSphere Virtual Volumes utilise l'UUID pour déterminer quand plusieurs hôtes ESXi sont susceptibles de rivaliser pour créer et monter simultanément un Config-VVol avec le même nom convivial. Toutefois, le Config-VVol choisi par l'UUID peut ne pas être le premier que l'hôte ESXi demande, ce qui peut créer des problèmes dans les banques de données vSphere Virtual Volumes.
Ce problème est résolu dans cette version. L'algorithme de vSphere Virtual Volumes utilise un horodatage plutôt qu'un UUID pour déterminer quand plusieurs hôtes ESXi sont susceptibles de rivaliser pour créer et monter simultanément un Config-VVol avec le même nom convivial.
- PR 2664278 : dans vSphere Client, il n'est pas possible de modifier la configuration du niveau de journalisation du service vpxa après une mise à niveau de votre système vCenter Server
Dans vSphere Client ou en utilisant l'API, vous ne pourrez peut-être pas modifier la configuration du niveau de journalisation du service vpxa sur un hôte ESX parce qu'une option Vpx.Vpxa.config.log.level est absente ou non valide après une mise à niveau de votre système vCenter Server.
Ce problème est résolu dans cette version. Le service vpxa définit automatiquement une valeur valide pour l'option Vpx.Vpxa.config.log.level et la présente à vSphere Client ou à un appel API.
- PR 2676632 : ESXi sur les périphériques USB ou FCoE ne trouve pas les chemins d'accès au périphérique de démarrage
Si ESXi est installé sur un périphérique de démarrage lent, tel qu'un périphérique USB ou FCoE, ESXi peut ne pas être en mesure de détecter un chemin de stockage de périphérique de démarrage. Par conséquent, la partition de la banque de démarrage et d'autres partitions telles que
/scratch
ne sont pas identifiées, et les modifications de configuration ne sont pas enregistrées. Lorsque ESXi démarre, les liens symboliques/bootbank
et/scratch
font référence à un chemin de mémoire temporaire.Ce problème est résolu dans cette version. Toutefois, le correctif fonctionne pour les périphériques de démarrage qu'ESXi détecte en moins de 2 minutes. Dans de rares cas, lorsque la détection du périphérique de démarrage prend plus de 2 minutes, vous devez suivre les étapes de l'article 2149444 de la base de connaissances VMware pour définir manuellement l'option de démarrage
devListStabilityCount
. - PR 2647557 : L'agent VMware vSphere High Availability peut cesser de répondre en raison d'un problème de mémoire
Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent Lifecycle Manager peut ne pas être en mesure de contacter un hôte ESXi pour démarrer une tâche, telle qu'une installation. Par conséquent, vSphere Client affiche une erreur du type
L'agent vSphere HA n'est pas accessible depuis vCenter Server
. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données.Ce problème est résolu dans cette version.
- PR 2647557 : les vérifications de conformité de l'image vSphere Lifecycle Manager peuvent échouer avec une erreur inconnue
Lors d'une opération de gestion d'images de cluster, vSphere Lifecycle Manager peut ne pas réussir à contacter l'agent Lifecycle Manager sur un hôte ESXi. Dans vSphere Client, vous voyez un message d'erreur semblable au message suivant :
Une erreur inconnue s'est produite lors de l'appel de l'API de l'hôte
. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données.Ce problème est résolu dans cette version.
- PR 2628899 : L'activation de vSphere HA échoue avec une erreur de configuration
Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent vSphere HA peut ne pas être en mesure de configurer un hôte ESXi. Par conséquent, dans vSphere Client, vous voyez un message d'erreur semblable au message suivant :
Impossible de terminer la configuration de l'agent vSphere HA sur cet hôte. Une erreur s'est produite lors de l'application de VIB HA sur le cluster.
L'échec se produit, car le processus d'installation de l'agent vSphere HA sur l'hôte ESXi peut consommer plus de mémoire que le quota alloué.Ce problème est résolu dans cette version.
- PR 2663717 : Dans vSphere Client, vous voyez un avertissement de santé du matériel avec un état inconnu
Dans vSphere Client, vous voyez un avertissement de santé du matériel avec un état inconnu pour certains capteurs sur les hôtes ESXi.
Ce problème est résolu dans cette version. Les capteurs qui ne sont pas pris en charge pour le décodage sont ignorés et ne sont pas inclus dans les rapports de santé du système.
- PR 2633194 : Si vous ouvrez et fermez uniquement la boîte de dialogue Modifier les paramètres NTP, l'option Démarrer et arrêter avec l'hôte se désactive
Si vous ouvrez et fermez uniquement la boîte de dialogue Modifier les paramètres NTP, même si vous n'apportez aucune modification, l'option Démarrer et arrêter avec l'hôte se désactive. Le service NTP ne démarre pas lorsqu'un hôte ESXi se met sous tension. Dans vSphere Client, l'option de stratégie de démarrage du service NTP Démarrer et arrêter avec l'hôte est sélectionnée. Toutefois, dans ESX Shell, lorsque vous exécutez la commande
chkconfig –list
, le service NTP est désactivé.Ce problème est résolu dans cette version.
- PR 2670891 : Les opérations de snapshot pour les machines virtuelles avec le suivi de modification des blocs (CBT) activé échouent
Si vous désactivez un adaptateur FCoE de logiciel comme moyen d'accéder au stockage Fibre Channel, le chargement du module CBT peut échouer et ESXi peut ne pas être en mesure de détecter un périphérique de démarrage. En conséquence, les opérations de snapshot, telles que la création et la consolidation de snapshots, échouent.
Ce problème est résolu dans cette version.
- PR 2665031 : le service de santé vSAN expire en cas de problème de connectivité Internet ou de résolution DNS
En cas de problème de connectivité, les contrôles de santé vSAN qui requièrent de la connectivité à VMware peuvent expirer. vSphere Client affiche un message d'erreur semblable au message suivant :
Impossible d'interroger les informations de santé de vSAN. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées.
Ce problème peut affecter les contrôles de santé en ligne, les mises à jour HCL et les recommandations de la ligne de base vSphere Lifecycle Manager. Si vCenter Server ne parvient pas à résoudre le problème, les contrôles de santé vSAN peuvent expirer lors de l'interrogation des entrées DNS.Ce problème est résolu dans cette version.
- PR 2644003 : échec de l'hôte vSAN lors de la suppression du disque
Lors de la mise hors service d'un disque pour suppression, un hôte ESXi peut échouer avec un écran de diagnostic violet. Des entrées similaires aux suivantes s'affichent dans la trace de débogage :
2020-09-01T04:22:47.112Z cpu7:2099790)@BlueScreen: Échec au niveau de bora/modules/vmkernel/lsomcommon/ssdlog/ssdopslog.c:398 -- NOT REACHED
2020-09-01T04:22:47.112Z cpu7:2099790)Code start: 0x418037400000 VMK uptime: 0:00:39:25.026
2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049b9e0:[0x41803750bb65]PanicvPanicInt@vmkernel#nover+0x439 stack: 0x44a00000001
2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049ba80:[0x41803750c0a2]Panic_vPanic@vmkernel#nover+0x23 stack: 0x121
2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049baa0:[0x4180375219c0]vmk_PanicWithModuleID@vmkernel#nover+0x41 stack: 0x451a8049bb00
2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb00:[0x41803874707a]SSDLOG_FreeLogEntry@LSOMCommon#1+0x32b stack: 0x800000
2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb70:[0x4180387ae4d1][email protected]#0.0.0.1+0x2e stack: 0x712d103
2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bbe0:[0x4180387dd08d][email protected]#0.0.0.1+0x72 stack: 0x431b19603150
2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bcd0:[0x4180387dd2d3][email protected]#0.0.0.1+0x80 stack: 0x4318102ba7a0
2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bd00:[0x4180387dabb5][email protected]#0.0.0.1+0x2ce stack: 0x800000
2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049beb0:[0x4180386de2db][email protected]#0.0.0.1+0x590 stack: 0x43180fe83380
2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bf90:[0x4180375291ce]vmkWorldFunc@vmkernel#nover+0x4f stack: 0x4180375291ca
2020-09-01T04:22:47.116Z cpu7:2099790)0x451a8049bfe0:[0x4180377107da]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour les VIB loadesx
et esx-update
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Modéré |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour le VIB vmkata
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Modéré |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2655992 |
Numéros CVE | S.O. |
Met à jour le VIB nhpsa
pour résoudre le problème suivant :
- mise à jour du pilote nhpsa
Le plug-in de facilité de gestion de disque du pilote natif ESXi pour les contrôleurs HPE Smart Array,
nhpsa
, est mis à jour vers la version 70.0051.0.100 pour résoudre plusieurs problèmes connus.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Modéré |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour le VIB
vmkusb
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Modéré |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2661584 |
Numéros CVE | S.O. |
Met à jour le VIB smartpqi
pour résoudre le problème suivant :
- mise à jour du pilote smartpqi
Le plug-in de facilité de gestion de disque du pilote SCSI natif ESXi pour les contrôleurs de Microsemi Smart Family,
smartpqi
, est mis à jour vers la version 70.4000.0.100-5 pour restaurer plusieurs ID de périphérique manquants.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2661006, 2671485, 2636149 |
Numéros CVE | CVE-2020-3999 |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB esx-dvfilter-generic-fastpath, vsanhealth, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver, gc
et cpu-microcode
pour résoudre les problèmes suivants :
ESXi 7.0 Update 1c corrige une vulnérabilité de type déni de service due à une validation d'entrée incorrecte dans les variables GuestInfo. Toute personne mal intentionnée disposant d'un privilège d'utilisateur normal pour accéder à une machine virtuelle peut provoquer une défaillance dans le processus VMX de la machine virtuelle, entraînant une situation de déni de service. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3999 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0029.
- Mise à jour de la base de données SQLite
La base de données SQLite est mise à jour vers la version 3.33.0.
- Mise à jour de la bibliothèque OpenSSL
La bibliothèque ESXi userworld OpenSSL est mise à jour vers la version openssl-1.0.2w.
- Mise à jour d'OpenSSH
OpenSSH est mis à jour vers la version 8.3p1.
- Mise à jour du démon Network Time Protocol (NTP)
Le démon NTP est mis à jour vers la version ntp-4.2.8p15.
- Mise à jour de la bibliothèque libcurl
La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.72.0.
Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 1c :
windows.iso
: VMware Tools 11.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.linux.iso
: Image ISO de VMware Tools 10.3.22 pour le système d'exploitation Linux avec glibc version 2.5 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
- VMware Tools 10.0.12 :
winPreVista.iso
: pour Windows 2000, Windows XP et Windows 2003.linuxPreGLibc25.iso
: pour le système d'exploitation Linux avec une version glibc antérieure à la version 2.5.
- VMware Tools 11.0.6
windows.iso
: pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
solaris.iso
: Image de VMware Tools pour Solarisdarwin.iso
: Image de VMware Tools pour OSX.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour les VIB loadesx
et esx-update
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour le VIB vmkata
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour le VIB nvmerdma
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour le VIB
vmkfcoe
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour le VIB vmkusb
.
Nom du profil | ESXi-7.0U1c-17325551-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 17 décembre 2020 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2656093, 2652863, 2653874, 2643508, 2644189, 2652344, 2661064, 2667291, 2662512, 2644221, 2662606, 2661153, 2655181, 2657411, 2675442, 2657649, 2662558, 2661818, 2664084, 2625155, 2658647, 2659015, 2654686, 2664278, 2676632, 2647557, 2647557, 2628899, 2663717, 2633194, 2661808, 2670891, 2665031, 2644003, 2664045, 2655992, 2661584 |
Numéros CVE associés | CVE-2020-3999 |
- Ce correctif met à jour les problèmes suivants :
-
Le paramètre
Net.TeamPolicyUpDelay
de délai de retour arrière de l'association de réseau sur les hôtes ESXi est actuellement défini sur 10 minutes, mais, dans certains environnements, il faut parfois plus de 10 minutes pour qu'un commutateur physique soit prêt à recevoir ou à transmettre des données après un redémarrage. Cela peut entraîner une perte de connectivité réseau. -
Toutes les activités de reconfiguration du filtre DFW, telles que l'ajout ou la suppression de filtres, peuvent entraîner l'abandon de paquets par certains filtres. Par conséquent, les machines virtuelles perdent la connectivité réseau et vous devez réinitialiser le vmnic, modifier le groupe de ports ou redémarrer la machine virtuelle pour restaurer le trafic. La sortie de la commande
summarize-dvfilter
indiqueétat : Détachement d'IOChain
pour le filtre ayant échoué. -
Un tampon avec lectures excessives pendant certaines opérations de rendu peut entraîner l'échec d'une machine virtuelle 3D avec une erreur SIGSEGV lors de l'interaction avec les applications graphiques qui utilisent l'accélération 3D.
-
Si une machine virtuelle redémarre ou se réinitialise au cours d'une opération d'enfichage à chaud, les journaux dans le fichier
vmware.log
de la machine virtuelle peuvent remplir l'espace disque disponible et empêcher la machine de répondre. Les messages de journal sont identiques, par exemple :acpiNotifyQueue: Achèvement d'événement ACPI parasite, données 0xFFFFFFFF
. -
Lorsqu'une machine virtuelle Linux avec plusieurs CPU virtuels sur laquelle SEV-ES est activé démarre, tous les CPU à l'exception de CPU0 sont hors ligne. Vous ne pouvez pas mettre les CPU restants en ligne. La commande
dmesg
renvoie une erreur telle quesmpboot: do_boot_cpu failed(-1) to wakeup CPU#1
. -
Si vous disposez de fichiers d'échange
.vswp
dans un répertoire de machine virtuelle, des messages d'erreur depériphérique ou de ressource occupé(e)
s'affichent lors de l'analyse de tous les fichiers dans le répertoire. Vous voyez également un flux d'E/S supplémentaire sur les objets d'espace de noms vSAN et vous remarquez un ralentissement dans le service hostd.
Ce problème se produit si vous tentez d'ouvrir un fichier portant l'extension.vswp
en tant que descripteur d'objet. Les fichiers d'échange du processus VMX ont la même extension.vswp
que ceux de la mémoire principale de la machine virtuelle, mais diffèrent en ce qu'ils ne doivent pas être ouverts en tant que descripteurs d'objet. -
Dans de rares cas, une condition de concurrence entre plusieurs threads qui tentent de créer un fichier et de supprimer le répertoire dans le même répertoire peut entraîner un blocage faisant échouer le service hostd. La restauration du service intervient uniquement après un redémarrage de l'hôte ESXi. Dans les journaux vmkernel, vous voyez des alerte telles que :
2020-03-31T05:20:00.509Z cpu12:4528223)ALERT: hostd detected to be non-responsive.
Un tel blocage peut également affecter d'autres services, mais la fenêtre de condition de concurrence est petite et le problème n'est pas fréquent.
-
Le chiffrement des machines virtuelles peut prendre plusieurs heures et finalement échouer en affichant l'erreur
Le fichier existe déjà
dans les journaux du service hostd. Ce problème se produit s'il existe un fichier <vm name="">.nvram
inactif ou inutilisé dans les fichiers de configuration de machine virtuelle. Si les machines virtuelles ont une entrée telle queNVRAM = “nvram”
dans le fichier.vmx
, l'opération de chiffrement crée un fichier chiffré avec l'extension de fichier.nvram
, ce que le système considère comme un doublon du fichier inactif existant. -
Si vSAN tente de désactiver du cache en mémoire d'un volume de 256 Go ou plus, il se peut que l'opération entraîne l'échec de l'hôte ESXi avec un écran de diagnostic violet.
-
Si vous activez LiveCoreDump en tant qu'option de collecte des journaux système sur un hôte ESXi, l'hôte peut cesser de répondre. Une erreur de type
#PF Exception 14 in world 2125468
s'affiche sur un écran de diagnostic violet. -
Après la mise à niveau de la version du microprogramme sur les serveurs HP Gen10, vous verrez peut-être des alarmes de santé pour les capteurs Module 2 d'E/S
ALOM_Link_P2
etNIC_Link_02P2
, en relation avec l'entité de capteurID 44.x
. Les alarmes n'indiquent pas un problème de santé réel et vous pouvez les ignorer quelle que soit la version du microprogramme. -
Si vous désactivez RC4 de votre configuration Active Directory, l'authentification utilisateur sur les hôtes ESXi pourrait commencer à échouer avec des erreurs du type
Échec de l'authentification de l'utilisateur
. -
Si une demande de récupération est répétée lors d'une opération de basculement ou de restauration d'un serveur NFS, la récupération en cours échoue et entraîne une absence de réponse des machines virtuelles sur les banques de données NFS 4.1.
-
Lorsque des machines virtuelles reprennent à partir d'un snapshot, après les opérations de migration à l'aide de vSphere vMotion, lors de la reprise d'une machine virtuelle interrompue, ou d'une opération d'enfichage à chaud, vous pouvez constater une petite augmentation de la durée %SYS signalée pour certaines charges de travail d'E/S de disque. Ce problème se produit, car l'adaptateur de stockage virtuel PVSCSI peut arrêter de dimensionner dynamiquement sa file d'attente interne en fonction de la charge de travail de l'invité. Par conséquent, la surcharge du pilote augmente pendant une importante activité d'E/S et peut entraîner une augmentation mineure de la durée %SYS pour certaines charges de travail d'E/S de disque. Le problème n'affecte pas les périphériques virtuels NVMe et LSI.
-
Les applications Java sur un hôte AMD dans un cluster EVC peuvent ne pas démarrer et signaler l'erreur suivante :
Processeur x64 inconnu : SSE2 non pris en charge
. Ce problème se produit, car le champ CPUIDfamily (leaf 1, EAX, bits 11-8)
présente une valeur incorrecte. En conséquence, Lookup Service et d'autres services basés sur Java sur vCenter Server Appliance ne peuvent pas démarrer. -
Après la mise à niveau des serveurs HPE, tels que HPE ProLiant Gen10 et Gen10 plus, vers la version 2.30 du microprogramme iLO 5, vSphere Client affiche des alertes concernant la santé des capteurs de mémoire. Ce problème se produit parce que le système de surveillance de la santé du matériel ne décode pas correctement les capteurs
Mem_Stat_*
lorsque le premier LUN est activé après la mise à niveau. -
Sur les hôtes ESXi qui utilisent un périphérique de lecteur de carte SD VID:PID/0bda:0329 Realtek Semiconductor Corp USB 3.0 ne prenant pas en charge la capacité de lecture 16, les journaux vmkernel peuvent afficher de nombreuses erreurs, telles que :
2020-06-30T13:26:06.141Z cpu0:2097243)ScsiDeviceIO: 3449: Cmd(0x459ac1350600) 0x9e, CmdSN 0x2452e from world 0 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x7 D:0x0 P:0x0 Invalid sense data: 0x0 0x6e 0x73.
et2020-06-30T14:23:18.280Z cpu0:2097243)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "mpx.vmhba32:C0:T0:L0" state in doubt; requested fast path state update...
-
Le service vpxa échoue en cas de présence d'une chaîne non-UTF8 dans la propriété de nom des capteurs numériques et les hôtes ESXi se déconnectent du système vCenter Server.
-
En raison d'une erreur dans le traitement des entrées du capteur, les données
memoryStatusInfo
etcpuStatusInfo
peuvent aussi inclure de manière incorrecte l'état des capteurs non-CPU et non-mémoire. Il en résulte un état incorrect pour les capteurs de CPU et de mémoire dans le navigateur d'objets gérés. -
L'installation d'ESXi peut échouer sur les supports dont les banques de données ne peuvent pas être montées, car une partition VMFS est corrompue, non formatée, ou a une propriété système différente. Le programme d'installation d'ESXi peut également supprimer des partitions VMFS sur un support de démarrage USB connecté lors de la mise à niveau ou de l'installation.
-
Les enregistrements d'audit configurés pour la partition Scratch sur le périphérique de démarrage ne sont pas conservés lors de la mise à niveau vers ESXi 7.x à partir de la version 6.7 Update 2 et versions ultérieures. La certification NIAP (National Information Assurance Partnership) pour ESXi post 6.7 Update 2 requiert que les enregistrements d'audit qui se trouvent dans
/scratch
persistent après une mise à niveau. -
Après une opération de sauvegarde, des messages d'erreur identiques, tels que
liste de blocs : Impossible de convertir le chemin d'accès au disque <vmdk file> en chemin d'accès réel ; il sera ignoré.
peuvent saturer le fichierhostd.log
. Ce problème bloque les autres journaux hostd et peut saturer la mémoire du journal. -
Dans un environnement vSphere HA, l'algorithme de vSphere Virtual Volumes utilise l'UUID pour déterminer quand plusieurs hôtes ESXi sont susceptibles de rivaliser pour créer et monter simultanément un Config-VVol avec le même nom convivial. Toutefois, le Config-VVol choisi par l'UUID peut ne pas être le premier que l'hôte ESXi demande, ce qui peut créer des problèmes dans les banques de données vSphere Virtual Volumes.
-
Dans vSphere Client ou en utilisant l'API, vous ne pourrez peut-être pas modifier la configuration du niveau de journalisation du service vpxa sur un hôte ESX parce qu'une option Vpx.Vpxa.config.log.level est absente ou non valide après une mise à niveau de votre système vCenter Server.
-
Si ESXi est installé sur un périphérique de démarrage lent, tel qu'un périphérique USB ou FCoE, ESXi peut ne pas être en mesure de détecter un chemin de stockage de périphérique de démarrage. Par conséquent, la partition de la banque de démarrage et d'autres partitions telles que
/scratch
ne sont pas identifiées, et les modifications de configuration ne sont pas enregistrées. Lorsque ESXi démarre, les liens symboliques/bootbank
et/scratch
font référence à un chemin de mémoire temporaire. -
Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent Lifecycle Manager peut ne pas être en mesure de contacter un hôte ESXi pour démarrer une tâche, telle qu'une installation. Par conséquent, vSphere Client affiche une erreur du type
L'agent vSphere HA n'est pas accessible depuis vCenter Server
. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données. -
Lors d'une opération de gestion d'images de cluster, vSphere Lifecycle Manager peut ne pas réussir à contacter l'agent Lifecycle Manager sur un hôte ESXi. Dans vSphere Client, vous voyez un message d'erreur semblable au message suivant :
Une erreur inconnue s'est produite lors de l'appel de l'API de l'hôte
. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données. -
Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent vSphere HA peut ne pas être en mesure de configurer un hôte ESXi. Par conséquent, dans vSphere Client, vous voyez un message d'erreur semblable au message suivant :
Impossible de terminer la configuration de l'agent vSphere HA sur cet hôte. Une erreur s'est produite lors de l'application de VIB HA sur le cluster.
L'échec se produit, car le processus d'installation de l'agent vSphere HA sur l'hôte ESXi peut consommer plus de mémoire que le quota alloué. -
Dans vSphere Client, vous voyez un avertissement de santé du matériel avec un état inconnu pour certains capteurs sur les hôtes ESXi.
-
Si vous ouvrez et fermez uniquement la boîte de dialogue Modifier les paramètres NTP, même si vous n'apportez aucune modification, l'option Démarrer et arrêter avec l'hôte se désactive. Le service NTP ne démarre pas lorsqu'un hôte ESXi se met sous tension. Dans vSphere Client, l'option de stratégie de démarrage du service NTP Démarrer et arrêter avec l'hôte est sélectionnée. Toutefois, dans ESX Shell, lorsque vous exécutez la commande
chkconfig –list
, le service NTP est désactivé. -
Si vous désactivez un adaptateur FCoE de logiciel comme moyen d'accéder au stockage Fibre Channel, le chargement du module CBT peut échouer et ESXi peut ne pas être en mesure de détecter un périphérique de démarrage. En conséquence, les opérations de snapshot, telles que la création et la consolidation de snapshots, échouent.
-
En cas de problème de connectivité, les contrôles de santé vSAN qui requièrent de la connectivité à VMware peuvent expirer. vSphere Client affiche un message d'erreur semblable au message suivant :
Impossible d'interroger les informations de santé de vSAN. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées.
Ce problème peut affecter les contrôles de santé en ligne, les mises à jour HCL et les recommandations de la ligne de base vSphere Lifecycle Manager. Si vCenter Server ne parvient pas à résoudre le problème, les contrôles de santé vSAN peuvent expirer lors de l'interrogation des entrées DNS. -
Lors de la mise hors service d'un disque pour suppression, un hôte ESXi peut échouer avec un écran de diagnostic violet. Des entrées similaires aux suivantes s'affichent dans la trace de débogage :
2020-09-01T04:22:47.112Z cpu7:2099790)@BlueScreen: Échec au niveau de bora/modules/vmkernel/lsomcommon/ssdlog/ssdopslog.c:398 -- NOT REACHED 2020-09-01T04:22:47.112Z cpu7:2099790)Code start: 0x418037400000 VMK uptime: 0:00:39:25.026 2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049b9e0:[0x41803750bb65]PanicvPanicInt@vmkernel#nover+0x439 stack: 0x44a00000001 2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049ba80:[0x41803750c0a2]Panic_vPanic@vmkernel#nover+0x23 stack: 0x121 2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049baa0:[0x4180375219c0]vmk_PanicWithModuleID@vmkernel#nover+0x41 stack: 0x451a8049bb00 2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb00:[0x41803874707a]SSDLOG_FreeLogEntry@LSOMCommon#1+0x32b stack: 0x800000 2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb70:[0x4180387ae4d1][email protected]#0.0.0.1+0x2e stack: 0x712d103 2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bbe0:[0x4180387dd08d][email protected]#0.0.0.1+0x72 stack: 0x431b19603150 2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bcd0:[0x4180387dd2d3][email protected]#0.0.0.1+0x80 stack: 0x4318102ba7a0 2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bd00:[0x4180387dabb5][email protected]#0.0.0.1+0x2ce stack: 0x800000 2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049beb0:[0x4180386de2db][email protected]#0.0.0.1+0x590 stack: 0x43180fe83380 2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bf90:[0x4180375291ce]vmkWorldFunc@vmkernel#nover+0x4f stack: 0x4180375291ca 2020-09-01T04:22:47.116Z cpu7:2099790)0x451a8049bfe0:[0x4180377107da]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0
-
Si plusieurs espaces de noms sont configurés sur un périphérique NVME, la prise en charge des opérations d'effacement du disque sécurisé vSAN peut changer de manière dynamique, en fonction du nombre d'espaces de noms. Si un nouvel espace de noms est configuré alors qu'une opération d'effacement sécurisée est en cours, par exemple dans VxRail ou la plate-forme Google Cloud, les données sur l'espace de noms récemment ajouté peuvent être effacées.
-
Le plug-in de facilité de gestion de disque du pilote natif ESXi pour les contrôleurs HPE Smart Array, nhpsa, est mis à jour vers la version 70.0051.0.100 pour résoudre plusieurs problèmes connus.
-
Le plug-in de facilité de gestion de disque du pilote SCSI natif ESXi pour les contrôleurs de Microsemi Smart Family, smartpqi, est mis à jour vers la version 70.4000.0.100-5 pour restaurer plusieurs ID de périphérique manquants.
-
Nom du profil | ESXi-7.0U1c-17325551-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 17 décembre 2020 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2656093, 2652863, 2653874, 2643508, 2644189, 2652344, 2661064, 2667291, 2662512, 2644221, 2662606, 2661153, 2655181, 2657411, 2675442, 2657649, 2662558, 2661818, 2664084, 2625155, 2658647, 2659015, 2654686, 2664278, 2676632, 2647557, 2647557, 2628899, 2663717, 2633194, 2661808, 2670891, 2665031, 2644003, 2664045, 2655992, 2661584 |
Numéros CVE associés | CVE-2020-3999 |
- Ce correctif met à jour les problèmes suivants :
-
Le paramètre
Net.TeamPolicyUpDelay
de délai de retour arrière de l'association de réseau sur les hôtes ESXi est actuellement défini sur 10 minutes, mais, dans certains environnements, il faut parfois plus de 10 minutes pour qu'un commutateur physique soit prêt à recevoir ou à transmettre des données après un redémarrage. Cela peut entraîner une perte de connectivité réseau. -
Toutes les activités de reconfiguration du filtre DFW, telles que l'ajout ou la suppression de filtres, peuvent entraîner l'abandon de paquets par certains filtres. Par conséquent, les machines virtuelles perdent la connectivité réseau et vous devez réinitialiser le vmnic, modifier le groupe de ports ou redémarrer la machine virtuelle pour restaurer le trafic. La sortie de la commande
summarize-dvfilter
indiqueétat : Détachement d'IOChain
pour le filtre ayant échoué. -
Un tampon avec lectures excessives pendant certaines opérations de rendu peut entraîner l'échec d'une machine virtuelle 3D avec une erreur SIGSEGV lors de l'interaction avec les applications graphiques qui utilisent l'accélération 3D.
-
Si une machine virtuelle redémarre ou se réinitialise au cours d'une opération d'enfichage à chaud, les journaux dans le fichier
vmware.log
de la machine virtuelle peuvent remplir l'espace disque disponible et empêcher la machine de répondre. Les messages de journal sont identiques, par exemple :acpiNotifyQueue: Achèvement d'événement ACPI parasite, données 0xFFFFFFFF
. -
Lorsqu'une machine virtuelle Linux avec plusieurs CPU virtuels sur laquelle SEV-ES est activé démarre, tous les CPU à l'exception de CPU0 sont hors ligne. Vous ne pouvez pas mettre les CPU restants en ligne. La commande
dmesg
renvoie une erreur telle quesmpboot: do_boot_cpu failed(-1) to wakeup CPU#1
. -
Si vous disposez de fichiers d'échange
.vswp
dans un répertoire de machine virtuelle, des messages d'erreur depériphérique ou de ressource occupé(e)
s'affichent lors de l'analyse de tous les fichiers dans le répertoire. Vous voyez également un flux d'E/S supplémentaire sur les objets d'espace de noms vSAN et vous remarquez un ralentissement dans le service hostd.
Ce problème se produit si vous tentez d'ouvrir un fichier portant l'extension.vswp
en tant que descripteur d'objet. Les fichiers d'échange du processus VMX ont la même extension.vswp
que ceux de la mémoire principale de la machine virtuelle, mais diffèrent en ce qu'ils ne doivent pas être ouverts en tant que descripteurs d'objet. -
Dans de rares cas, une condition de concurrence entre plusieurs threads qui tentent de créer un fichier et de supprimer le répertoire dans le même répertoire peut entraîner un blocage faisant échouer le service hostd. La restauration du service intervient uniquement après un redémarrage de l'hôte ESXi. Dans les journaux vmkernel, vous voyez des alerte telles que :
2020-03-31T05:20:00.509Z cpu12:4528223)ALERT: hostd detected to be non-responsive.
Un tel blocage peut également affecter d'autres services, mais la fenêtre de condition de concurrence est petite et le problème n'est pas fréquent.
-
Le chiffrement des machines virtuelles peut prendre plusieurs heures et finalement échouer en affichant l'erreur
Le fichier existe déjà
dans les journaux du service hostd. Ce problème se produit s'il existe un fichier <vm name="">.nvram
inactif ou inutilisé dans les fichiers de configuration de machine virtuelle. Si les machines virtuelles ont une entrée telle queNVRAM = “nvram”
dans le fichier.vmx
, l'opération de chiffrement crée un fichier chiffré avec l'extension de fichier.nvram
, ce que le système considère comme un doublon du fichier inactif existant. -
Si vSAN tente de désactiver du cache en mémoire d'un volume de 256 Go ou plus, il se peut que l'opération entraîne l'échec de l'hôte ESXi avec un écran de diagnostic violet.
-
Si vous activez LiveCoreDump en tant qu'option de collecte des journaux système sur un hôte ESXi, l'hôte peut cesser de répondre. Une erreur de type
#PF Exception 14 in world 2125468
s'affiche sur un écran de diagnostic violet. -
Après la mise à niveau de la version du microprogramme sur les serveurs HP Gen10, vous verrez peut-être des alarmes de santé pour les capteurs Module 2 d'E/S
ALOM_Link_P2
etNIC_Link_02P2
, en relation avec l'entité de capteurID 44.x
. Les alarmes n'indiquent pas un problème de santé réel et vous pouvez les ignorer quelle que soit la version du microprogramme. -
Si vous désactivez RC4 de votre configuration Active Directory, l'authentification utilisateur sur les hôtes ESXi pourrait commencer à échouer avec des erreurs du type
Échec de l'authentification de l'utilisateur
. -
Si une demande de récupération est répétée lors d'une opération de basculement ou de restauration d'un serveur NFS, la récupération en cours échoue et entraîne une absence de réponse des machines virtuelles sur les banques de données NFS 4.1.
-
Lorsque des machines virtuelles reprennent à partir d'un snapshot, après les opérations de migration à l'aide de vSphere vMotion, lors de la reprise d'une machine virtuelle interrompue, ou d'une opération d'enfichage à chaud, vous pouvez constater une petite augmentation de la durée %SYS signalée pour certaines charges de travail d'E/S de disque. Ce problème se produit, car l'adaptateur de stockage virtuel PVSCSI peut arrêter de dimensionner dynamiquement sa file d'attente interne en fonction de la charge de travail de l'invité. Par conséquent, la surcharge du pilote augmente pendant une importante activité d'E/S et peut entraîner une augmentation mineure de la durée %SYS pour certaines charges de travail d'E/S de disque. Le problème n'affecte pas les périphériques virtuels NVMe et LSI.
-
Les applications Java sur un hôte AMD dans un cluster EVC peuvent ne pas démarrer et signaler l'erreur suivante :
Processeur x64 inconnu : SSE2 non pris en charge
. Ce problème se produit, car le champ CPUIDfamily (leaf 1, EAX, bits 11-8)
présente une valeur incorrecte. En conséquence, Lookup Service et d'autres services basés sur Java sur vCenter Server Appliance ne peuvent pas démarrer. -
Après la mise à niveau des serveurs HPE, tels que HPE ProLiant Gen10 et Gen10 plus, vers la version 2.30 du microprogramme iLO 5, vSphere Client affiche des alertes concernant la santé des capteurs de mémoire. Ce problème se produit parce que le système de surveillance de la santé du matériel ne décode pas correctement les capteurs
Mem_Stat_*
lorsque le premier LUN est activé après la mise à niveau. -
Sur les hôtes ESXi qui utilisent un périphérique de lecteur de carte SD VID:PID/0bda:0329 Realtek Semiconductor Corp USB 3.0 ne prenant pas en charge la capacité de lecture 16, les journaux vmkernel peuvent afficher de nombreuses erreurs, telles que :
2020-06-30T13:26:06.141Z cpu0:2097243)ScsiDeviceIO: 3449: Cmd(0x459ac1350600) 0x9e, CmdSN 0x2452e from world 0 to dev "mpx.vmhba32:C0:T0:L0" failed H:0x7 D:0x0 P:0x0 Invalid sense data: 0x0 0x6e 0x73.
et2020-06-30T14:23:18.280Z cpu0:2097243)WARNING: NMP: nmp_DeviceRequestFastDeviceProbe:237: NMP device "mpx.vmhba32:C0:T0:L0" state in doubt; requested fast path state update...
-
Le service vpxa échoue en cas de présence d'une chaîne non-UTF8 dans la propriété de nom des capteurs numériques et les hôtes ESXi se déconnectent du système vCenter Server.
-
En raison d'une erreur dans le traitement des entrées du capteur, les données
memoryStatusInfo
etcpuStatusInfo
peuvent aussi inclure de manière incorrecte l'état des capteurs non-CPU et non-mémoire. Il en résulte un état incorrect pour les capteurs de CPU et de mémoire dans le navigateur d'objets gérés. -
L'installation d'ESXi peut échouer sur les supports dont les banques de données ne peuvent pas être montées, car une partition VMFS est corrompue, non formatée, ou a une propriété système différente. Le programme d'installation d'ESXi peut également supprimer des partitions VMFS sur un support de démarrage USB connecté lors de la mise à niveau ou de l'installation.
-
Les enregistrements d'audit configurés pour la partition Scratch sur le périphérique de démarrage ne sont pas conservés lors de la mise à niveau vers ESXi 7.x à partir de la version 6.7 Update 2 et versions ultérieures. La certification NIAP (National Information Assurance Partnership) pour ESXi post 6.7 Update 2 requiert que les enregistrements d'audit qui se trouvent dans
/scratch
persistent après une mise à niveau. -
Après une opération de sauvegarde, des messages d'erreur identiques, tels que
liste de blocs : Impossible de convertir le chemin d'accès au disque <vmdk file> en chemin d'accès réel ; il sera ignoré.
peuvent saturer le fichierhostd.log
. Ce problème bloque les autres journaux hostd et peut saturer la mémoire du journal. -
Dans un environnement vSphere HA, l'algorithme de vSphere Virtual Volumes utilise l'UUID pour déterminer quand plusieurs hôtes ESXi sont susceptibles de rivaliser pour créer et monter simultanément un Config-VVol avec le même nom convivial. Toutefois, le Config-VVol choisi par l'UUID peut ne pas être le premier que l'hôte ESXi demande, ce qui peut créer des problèmes dans les banques de données vSphere Virtual Volumes.
-
Dans vSphere Client ou en utilisant l'API, vous ne pourrez peut-être pas modifier la configuration du niveau de journalisation du service vpxa sur un hôte ESX parce qu'une option Vpx.Vpxa.config.log.level est absente ou non valide après une mise à niveau de votre système vCenter Server.
-
Si ESXi est installé sur un périphérique de démarrage lent, tel qu'un périphérique USB ou FCoE, ESXi peut ne pas être en mesure de détecter un chemin de stockage de périphérique de démarrage. Par conséquent, la partition de la banque de démarrage et d'autres partitions telles que
/scratch
ne sont pas identifiées, et les modifications de configuration ne sont pas enregistrées. Lorsque ESXi démarre, les liens symboliques/bootbank
et/scratch
font référence à un chemin de mémoire temporaire. -
Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent Lifecycle Manager peut ne pas être en mesure de contacter un hôte ESXi pour démarrer une tâche, telle qu'une installation. Par conséquent, vSphere Client affiche une erreur du type
L'agent vSphere HA n'est pas accessible depuis vCenter Server
. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données. -
Lors d'une opération de gestion d'images de cluster, vSphere Lifecycle Manager peut ne pas réussir à contacter l'agent Lifecycle Manager sur un hôte ESXi. Dans vSphere Client, vous voyez un message d'erreur semblable au message suivant :
Une erreur inconnue s'est produite lors de l'appel de l'API de l'hôte
. L'échec se produit lorsque la base de données d'état de tâches vSphere Lifecycle Manager sur l'hôte ESXi n'est pas souvent nettoyée et lorsque l'agent Lifecycle Manager n'a pas suffisamment de mémoire allouée pour gérer la taille du fichier de base de données. -
Dans la gestion des images de cluster vSphere Lifecycle Manager, l'agent vSphere HA peut ne pas être en mesure de configurer un hôte ESXi. Par conséquent, dans vSphere Client, vous voyez un message d'erreur semblable au message suivant :
Impossible de terminer la configuration de l'agent vSphere HA sur cet hôte. Une erreur s'est produite lors de l'application de VIB HA sur le cluster.
L'échec se produit, car le processus d'installation de l'agent vSphere HA sur l'hôte ESXi peut consommer plus de mémoire que le quota alloué. -
Dans vSphere Client, vous voyez un avertissement de santé du matériel avec un état inconnu pour certains capteurs sur les hôtes ESXi.
-
Si vous ouvrez et fermez uniquement la boîte de dialogue Modifier les paramètres NTP, même si vous n'apportez aucune modification, l'option Démarrer et arrêter avec l'hôte se désactive. Le service NTP ne démarre pas lorsqu'un hôte ESXi se met sous tension. Dans vSphere Client, l'option de stratégie de démarrage du service NTP Démarrer et arrêter avec l'hôte est sélectionnée. Toutefois, dans ESX Shell, lorsque vous exécutez la commande
chkconfig –list
, le service NTP est désactivé. -
Si vous désactivez un adaptateur FCoE de logiciel comme moyen d'accéder au stockage Fibre Channel, le chargement du module CBT peut échouer et ESXi peut ne pas être en mesure de détecter un périphérique de démarrage. En conséquence, les opérations de snapshot, telles que la création et la consolidation de snapshots, échouent.
-
En cas de problème de connectivité, les contrôles de santé vSAN qui requièrent de la connectivité à VMware peuvent expirer. vSphere Client affiche un message d'erreur semblable au message suivant :
Impossible d'interroger les informations de santé de vSAN. Vérifiez les journaux de vSphere Client pour obtenir des informations détaillées.
Ce problème peut affecter les contrôles de santé en ligne, les mises à jour HCL et les recommandations de la ligne de base vSphere Lifecycle Manager. Si vCenter Server ne parvient pas à résoudre le problème, les contrôles de santé vSAN peuvent expirer lors de l'interrogation des entrées DNS. -
Lors de la mise hors service d'un disque pour suppression, un hôte ESXi peut échouer avec un écran de diagnostic violet. Des entrées similaires aux suivantes s'affichent dans la trace de débogage :
2020-09-01T04:22:47.112Z cpu7:2099790)@BlueScreen: Échec au niveau de bora/modules/vmkernel/lsomcommon/ssdlog/ssdopslog.c:398 -- NOT REACHED 2020-09-01T04:22:47.112Z cpu7:2099790)Code start: 0x418037400000 VMK uptime: 0:00:39:25.026 2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049b9e0:[0x41803750bb65]PanicvPanicInt@vmkernel#nover+0x439 stack: 0x44a00000001 2020-09-01T04:22:47.112Z cpu7:2099790)0x451a8049ba80:[0x41803750c0a2]Panic_vPanic@vmkernel#nover+0x23 stack: 0x121 2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049baa0:[0x4180375219c0]vmk_PanicWithModuleID@vmkernel#nover+0x41 stack: 0x451a8049bb00 2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb00:[0x41803874707a]SSDLOG_FreeLogEntry@LSOMCommon#1+0x32b stack: 0x800000 2020-09-01T04:22:47.113Z cpu7:2099790)0x451a8049bb70:[0x4180387ae4d1][email protected]#0.0.0.1+0x2e stack: 0x712d103 2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bbe0:[0x4180387dd08d][email protected]#0.0.0.1+0x72 stack: 0x431b19603150 2020-09-01T04:22:47.114Z cpu7:2099790)0x451a8049bcd0:[0x4180387dd2d3][email protected]#0.0.0.1+0x80 stack: 0x4318102ba7a0 2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bd00:[0x4180387dabb5][email protected]#0.0.0.1+0x2ce stack: 0x800000 2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049beb0:[0x4180386de2db][email protected]#0.0.0.1+0x590 stack: 0x43180fe83380 2020-09-01T04:22:47.115Z cpu7:2099790)0x451a8049bf90:[0x4180375291ce]vmkWorldFunc@vmkernel#nover+0x4f stack: 0x4180375291ca 2020-09-01T04:22:47.116Z cpu7:2099790)0x451a8049bfe0:[0x4180377107da]CpuSched_StartWorld@vmkernel#nover+0x77 stack: 0x0
-
Si plusieurs espaces de noms sont configurés sur un périphérique NVME, la prise en charge des opérations d'effacement du disque sécurisé vSAN peut changer de manière dynamique, en fonction du nombre d'espaces de noms. Si un nouvel espace de noms est configuré alors qu'une opération d'effacement sécurisée est en cours, par exemple dans VxRail ou la plate-forme Google Cloud, les données sur l'espace de noms récemment ajouté peuvent être effacées.
-
Le plug-in de facilité de gestion de disque du pilote natif ESXi pour les contrôleurs HPE Smart Array, nhpsa, est mis à jour vers la version 70.0051.0.100 pour résoudre plusieurs problèmes connus.
-
Le plug-in de facilité de gestion de disque du pilote SCSI natif ESXi pour les contrôleurs de Microsemi Smart Family, smartpqi, est mis à jour vers la version 70.4000.0.100-5 pour restaurer plusieurs ID de périphérique manquants.
-
Nom du profil | ESXi-7.0U1sc-17325020-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 17 décembre 2020 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2661006, 2671485, 2636149 |
Numéros CVE associés | CVE-2020-3999 |
- Ce correctif met à jour les problèmes suivants :
-
ESXi 7.0 Update 1c corrige une vulnérabilité de type déni de service due à une validation d'entrée incorrecte dans les variables GuestInfo. Toute personne mal intentionnée disposant d'un privilège d'utilisateur normal pour accéder à une machine virtuelle peut provoquer une défaillance dans le processus VMX de la machine virtuelle, entraînant une situation de déni de service. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3999 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0029.
-
La base de données SQLite est mise à jour vers la version 3.33.0.
-
La bibliothèque ESXi userworld OpenSSL est mise à jour vers la version openssl-1.0.2w.
-
OpenSSH est mis à jour vers la version 8.3p1.
-
Le démon NTP est mis à jour vers la version ntp-4.2.8p15.
-
La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.72.0.
-
Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 1c :
windows.iso
: VMware Tools 11.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.linux.iso
: Image ISO de VMware Tools 10.3.22 pour le système d'exploitation Linux avec glibc version 2.5 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
- VMware Tools 10.0.12 :
winPreVista.iso
: pour Windows 2000, Windows XP et Windows 2003.linuxPreGLibc25.iso
: pour le système d'exploitation Linux avec une version glibc antérieure à la version 2.5.
- VMware Tools 11.0.6
windows.iso
: pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
solaris.iso
: image de VMware Tools pour Solarisdarwin.iso
: image de VMware Tools pour OSX.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
-
Nom du profil | ESXi-7.0U1sc-17325020-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 17 décembre 2020 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2661006, 2671485, 2636149 |
Numéros CVE associés | CVE-2020-3999 |
- Ce correctif met à jour les problèmes suivants :
-
ESXi 7.0 Update 1c corrige une vulnérabilité de type déni de service due à une validation d'entrée incorrecte dans les variables GuestInfo. Toute personne mal intentionnée disposant d'un privilège d'utilisateur normal pour accéder à une machine virtuelle peut provoquer une défaillance dans le processus VMX de la machine virtuelle, entraînant une situation de déni de service. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3999 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0029.
-
La base de données SQLite est mise à jour vers la version 3.33.0.
-
La bibliothèque ESXi userworld OpenSSL est mise à jour vers la version openssl-1.0.2w.
-
OpenSSH est mis à jour vers la version 8.3p1.
-
Le démon NTP est mis à jour vers la version ntp-4.2.8p15.
-
La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.72.0.
-
Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 1c :
windows.iso
: VMware Tools 11.1.5 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.linux.iso
: Image ISO de VMware Tools 10.3.22 pour le système d'exploitation Linux avec glibc version 2.5 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
- VMware Tools 10.0.12 :
winPreVista.iso
: pour Windows 2000, Windows XP et Windows 2003.linuxPreGLibc25.iso
: pour le système d'exploitation Linux avec une version glibc antérieure à la version 2.5.
- VMware Tools 11.0.6
windows.iso
: pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
solaris.iso
: image de VMware Tools pour Solarisdarwin.iso
: image de VMware Tools pour OSX.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
-
Nom | ESXi |
Version | 7.0 U1c-17325551 |
Date de publication | 17 décembre 2020 |
Catégorie | Amélioration |
Composants concernés |
|
PR résolus | 2656093, 2652863, 2653874, 2643508, 2644189, 2652344, 2661064, 2667291, 2662512, 2644221, 2662606, 2661153, 2655181, 2657411, 2675442, 2657649, 2662558, 2661818, 2664084, 2625155, 2658647, 2659015, 2654686, 2664278, 2676632, 2647557, 2647557, 2628899, 2663717, 2633194, 2661808, 2670891, 2665031, 2644003, 2664045, 2655992, 2661584 |
Numéros CVE associés | CVE-2020-3999 |
Nom | ESXi |
Version | 7.0 U1sc-17325020 |
Date de publication | 17 décembre 2020 |
Catégorie | Amélioration |
Composants concernés |
|
PR résolus | 2661006, 2671485, 2636149 |
Numéros CVE associés | CVE-2020-3999 |
Problèmes connus
Les problèmes connus sont classés comme suit :
Problèmes de mise à niveau- Les mises à niveau vers ESXi 7. x à partir des versions 6.5 x et 6.7.0 à l'aide de ESXCLI peuvent échouer en raison d'une limitation d'espace
Les mises à niveau vers ESXi 7.x à partir des versions 6.5.x et 6.7.0 à l'aide des commandes ESXCLI
esxcli software profil update
ouesxcli software profile install
peuvent échouer, car la banque de démarrage ESXi peut être inférieure à la taille du profil d'image. Dans ESXi Shell ou l'interpréteur de commandes PowerCLI, une erreur semblable à la suivante s'affiche :
[InstallationError]
La transaction en attente nécessite 244 Mo d'espace libre, mais la taille maximale prise en charge est de 239 Mo.
Consultez le fichier journal pour plus de détails.
Ce problème se produit également lorsque vous tentez d'effectuer une mise à niveau de l'hôte ESXi à l'aide des commandes ESXCLIesxcli software vib update
ouesxcli software vib install
.Solution : Vous pouvez effectuer la mise à niveau en deux étapes, à l'aide de la commande
esxcli software profile update
pour mettre à jour les hôtes ESXi vers ESXi 6.7 Update 1 ou version ultérieure, puis mettre à jour vers 7.0 Update 1c. Vous pouvez également exécuter une mise à niveau à l'aide d'une image ISO et de vSphere Lifecycle Manager.
- Effacement du disque sécurisé vSAN non pris en charge sur les périphériques NVMe avec plusieurs espaces de noms
Si plusieurs espaces de noms sont configurés sur un périphérique NVME, les opérations d'effacement du disque sécurisé vSAN ne sont pas prises en charge.
Si un nouvel espace de noms est configuré alors qu'une opération d'effacement sécurisé est en cours, par exemple dans VMware Tanzu Architecture pour Dell EMC VxRail ou la plate-forme Google Cloud, les données sur l'espace de noms récemment ajouté peuvent être effacées. Les opérations d'effacement du disque sécurisé vSAN ne sont donc prises en charge que sur les périphériques NVME avec un seul espace de noms.Solution : aucune.