Date de publication : 23 juin 2020
Contenu des notes de mise à jour
Les notes de mise à jour couvrent les sujets suivants :
Nouveautés
- Avec ESXi 7.0b, les fonctionnalités de simplification de maintenance du périphérique Dell NVMe, notamment les informations avancées sur le périphérique et la capacité de gestion des voyants, sont activées par défaut.
- Avec ESXi 7.0b, vSphere Quick Boot est pris en charge sur les serveurs suivants :
- Cisco HX220C-M4S
- Cisco HX220C-M5SX
- Cisco HX240C-M4SX
- Cisco HX240C-M5L
- Cisco HX240C-M5SX
- Cisco HXAF220C-M4S
- Cisco HXAF220C-M5SN
- Cisco HXAF220C-M5SX
- Cisco HXAF240C-M4SX
- Cisco HXAF240C-M5SX
- Cisco UCSB-B200-M4
- Cisco UCSB-EX-M4-1 (B260 M4 v2)
- Cisco UCSB-EX-M4-1 (B460 M4 v2)
- Cisco UCSB-EX-M4-2 (B260 M4 v3)
- Cisco UCSB-EX-M4-2 (B460 M4 v3)
- Cisco UCSB-EX-M4-3 (B260 M4 v4)
- Cisco UCSB-EX-M4-3 (B460 M4 v4)
- Cisco UCSC-480-M5
- Cisco UCSC-480-M5ML
- Cisco UCSC-C220-M4S
- Cisco UCSC-C220-M5L
- Cisco UCSC-C220-M5SN
- Cisco UCSC-C240-M4S2
- Cisco UCSC-C240-M4SX
- Cisco UCSC-C240-M5L
- Cisco UCSC-C240-M5S
- Cisco UCSC-C240-M5SN
- Cisco UCSC-C240-M5SX
- Fujitsu Primergy RX2530 M5
- HPE ProLiant DL325 Gen 10
- Lenovo ThinkSystem SR 650
- Avec ESXi 7.0b, les serveurs suivants sont ajoutés à la prise en charge de vSphere Quick Boot :
- HPE ProLiant DL380 Gen9
- HPE ProLiant DL560 Gen9
- HPE ProLiant DL580 Gen9
Détails de la build
Nom de fichier de téléchargement : | VMware-ESXi-7.0b-16324942-depot |
Build : | 16324942 |
Taille du téléchargement : | 508,5 Mo |
md5sum : | 18a8c2243a0bd15286c331092ab028fc |
sha1checksum : | d0a02bbf0716364fb3e799501357944c88e17401 |
Redémarrage de l'hôte requis : | Oui |
Migration ou arrêt de la machine virtuelle requis : | Oui |
Composants
Composant | Bulletin | Catégorie | Gravité |
---|---|---|---|
ESXi | ESXi_7.0.0-1.25.16324942 | Correctif de bogues | Critique |
ESXi | ESXi_7.0.0-1.20.16321839 | Sécurité | Critique |
Composant d'installation/mise à niveau d'ESXi | esx-update_7.0.0-1.25.16324942 | Correctif de bogues | Critique |
Composant d'installation/mise à niveau d'ESXi | esx-update_7.0.0-1.20.16321839 | Sécurité | Critique |
Pilote USB VMware | VMware-vmkusb_0.1-1vmw.700.1.25.16324942 | Correctif de bogues | Important |
Pilote de stockage VMware NVMe PCI Express | VMware-NVMe-PCIe_1.2.2.14-1vmw.700.1.25.16324942 | Correctif de bogues | Important |
VMware-VM-Tools | VMware-VM-Tools_11.1.0.16036546-16321839 | Sécurité | Important |
IMPORTANT : À partir de vSphere 7.0, VMware utilise des composants pour le conditionnement des VIB avec des bulletins. Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Bulletin de cumul
Ce bulletin de cumul contient les derniers VIB avec tous les correctifs depuis la publication initiale d'ESXi 7.0.
ID de bulletin | Catégorie | Gravité |
ESXi70b-16324942 | Correctif de bogues | Critique |
Profils d'image
Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques. L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.
Nom de profil d'image |
ESXi-7.0b-16324942-standard |
ESXi-7.0b-16324942-no-tools |
ESXi-7.0bs-16321839-standard |
ESXi-7.0bs-16321839-no-tools |
Image ESXi
Nom et version | Date de publication | Catégorie | Détail |
---|---|---|---|
ESXi 7.0b - 16324942 | 16/06/2020 | Amélioration | Image de sécurité et de résolutions de bogues |
ESXi 7.0bs - 16321839 | 16/06/2020 | Amélioration | Image de sécurité uniquement |
Pour plus d'informations sur les composants et bulletins individuels, consultez la page Correctifs de produits et la section Problèmes résolus.
Téléchargement et installation de correctifs
Dans vSphere 7.0, le plug-in Update Manager, utilisé pour l'administration de vSphere Update Manager, est remplacé par le plug-in Lifecycle Manager. Les opérations d'administration pour vSphere Update Manager sont toujours disponibles sous le plug-in Lifecycle Manager, avec de nouvelles capacités pour vSphere Lifecycle Manager.
La manière habituelle d'appliquer des correctifs aux hôtes ESXi 7.0.x consiste à utiliser Lifecycle Manager. Pour plus d'informations, consultez À propos de vSphere Lifecycle Manager et Lignes de base et images de vSphere Lifecycle Manager.
Vous pouvez également mettre à jour des hôtes ESXi sans utiliser vSphere Lifecycle Manager à l'aide d'un profil d'image. Pour ce faire, téléchargez manuellement le fichier ZIP du bundle hors ligne du correctif sur la page Téléchargement de VMware ou sur la page Correctifs de produits, puis utilisez la commande esxcli software profile
.
Pour plus d'informations, consultez Mise à niveau des hôtes à l'aide des commandes ESXCLI et le guide Mise à niveau de VMware ESXi.
Problèmes résolus
Les problèmes résolus sont regroupés comme suit :
- ESXi_7.0.0-1.25.16324942
- esx-update_7.0.0-1.25.16324942
- VMware-NVMe-PCIe_1.2.2.14-1vmw.700.1.25.16324942
- VMware-vmkusb_0.1-1vmw.700.1.25.16324942
- ESXi_7.0.0-1.20.16321839
- esx-update_7.0.0-1.20.16321839
- VMware-VM-Tools_11.1.0.16036546-16321839
- ESXi-7.0b-16324942-standard
- ESXi-7.0b-16324942-no-tools
- ESXi-7.0bs-16321839-standard
- ESXi-7.0bs-16321839-no-tools
- ESXi Image - 7.0b – 16324942
- ESXi Image - 7.0bs – 16321839
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus |
2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690 |
Numéros CVE | S.O. |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB esx-dvfilter-generic-fastpath, vsanhealth, esx-ui, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver
et cpu-microcode
pour résoudre les problèmes suivants :
Cette version met à jour le microcode Intel pour les CPU pris en charge par ESXi vers les révisions dont la production a été vérifiée le 29 avril 2020. Consultez le tableau des mises à jour du microcode actuellement incluses.
Remarque : Les mises à jour du microcode publiées par Intel le 9 juin 2020 ne sont pas toutes incluses. Intel a mis à disposition les mises à jour de plusieurs
CPU trop retard pour que VMware les teste et les inclue dans cette version de correctif d'ESXi. Pour obtenir le dernier microcode, contactez votre fournisseur de matériel pour une mise à jour du BIOS.Nom de code FMS ID de PLT Révision de MCU Date de MCU Noms de marque Nehalem EP 0x106a5 0x03 0x0000001d 11/05/2018 Intel Xeon 35xx Series ;
Intel Xeon 55xx SeriesLynnfield 0x106e5 0x13 0x0000000a 08/05/2018 Intel Xeon 34xx Lynnfield Series Clarkdale 0x20652 0x12 0x00000011 08/05/2018 Intel i3/i5 Clarkdale Series
Intel Xeon 34xx Clarkdale SeriesArrandale 0x20655 0x92 0x00000007 23/04/2018 Processeur Intel Core i7-620LE Sandy Bridge DT 0x206a7 0x12 0x0000002f 17/02/2019 Intel Xeon E3-1100 Series ;
Intel Xeon E3-1200 Series ;
Intel i7-2655-LE Series
Intel i3-2100 SeriesWestmere EP 0x206c2 0x03 0x0000001f 08/05/2018 Intel Xeon série 56xx
Intel Xeon 36xx SeriesSandy Bridge EP 0x206d6 0x6d 0x00000621 04/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesSandy Bridge EP 0x206d7 0x6d 0x0000071a 24/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesNehalem EX 0x206e6 0x04 0x0000000d 15/05/2018 Intel Xeon 65xx Series ;
Intel Xeon 75xx SeriesWestmere EX 0x206f2 0x05 0x0000003b 16/05/2018 Intel Xeon E7-8800 Series ;
Intel Xeon E7-4800 Series ;
Intel Xeon E7-2800 SeriesIvy Bridge DT 0x306a9 0x12 0x00000021 13/02/2019 Intel i3-3200 Series ;
Intel i7-3500-LE/UE
Intel i7-3600-QE
Intel Xeon E3-1200-v2 Series;
Intel Xeon E3-1100-C-v2 Series
Intel Pentium B925CHaswell DT 0x306c3 0x32 0x00000028 12/11/2019 Intel Xeon E3-1200-v3 Series ;
Intel i7-4700-EQ Series
Intel i5-4500-TE Series
Intel i3-4300 SeriesIvy Bridge EP 0x306e4 0xed 0x0000042e 14/03/2019 Intel Xeon E5-4600-v2 Series ;
Intel Xeon E5-2600-v2 Series ;
Intel Xeon E5-2400-v2 Series ;
Intel Xeon E5-1600-v2 Series ;
Intel Xeon E5-1400-v2 SeriesIvy Bridge EX 0x306e7 0xed 0x00000715 14/03/2019 Intel Xeon E7-8800/4800/2800-v2 Series Haswell EP 0x306f2 0x6f 0x00000043 01/03/2019 Intel Xeon E5-4600-v3 Series ;
Intel Xeon E5-2600-v3 Series ;
Intel Xeon E5-2400-v3 Series ;
Intel Xeon E5-1600-v3 Series ;
Intel Xeon E5-1400-v3 SeriesHaswell EX 0x306f4 0x80 0x00000016 17/06/2019 Intel Xeon E7-8800/4800-v3 Series Broadwell H 0x40671 0x22 0x00000022 12/11/2019 Intel Core i7-5700EQ
Intel Xeon E3-1200-v4 SeriesAvoton 0x406d8 0x01 0x0000012d 16/09/2019 Intel Atom C2300 Series ;
Intel Atom C2500 Series ;
Intel Atom C2700 SeriesBroadwell EP/EX 0x406f1 0xef 0x0b000038 18/06/2019 Intel Xeon E7-8800/4800-v4 Series ;
Intel Xeon E5-4600-v4 Series ;
Intel Xeon E5-2600-v4 Series ;
Intel Xeon E5-1600-v4 SeriesSkylake SP 0x50654 0xb7 0x02006901 12/02/2020 Intel Xeon Platinum 8100 Series ;
Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100 Series
Intel Xeon D-2100 Series ;
Intel Xeon D-1600 Series ;
Intel Xeon W-3100 Series ;
Intel Xeon W-2100 SeriesCascade Lake B-0 0x50656 0xbf 0x04002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Cascade Lake 0x50657 0xbf 0x05002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Broadwell DE 0x50662 0x10 0x0000001c 17/06/2019 Intel Xeon D-1500 Series Broadwell DE 0x50663 0x10 0x07000019 17/06/2019 Intel Xeon D-1500 Series Broadwell DE 0x50664 0x10 0x0f000017 17/06/2019 Intel Xeon D-1500 Series Broadwell NS 0x50665 0x10 0x0e00000f 17/06/2019 Intel Xeon D-1600 Series Skylake H/S 0x506e3 0x36 0x000000d6 03/10/2019 Intel Xeon E3-1500-v5 Series ;
Intel Xeon E3-1200-v5 SeriesDenverton 0x506f1 0x01 0x0000002e 21/03/2019 Intel Atom C3000 Series Kaby Lake H/S/X 0x906e9 0x2a 0x000000ca 03/10/2019 Intel Xeon E3-1200-v6 Series ;
Intel Xeon E3-1500-v6 SeriesCoffee Lake 0x906ea 0x22 0x000000cc 08/12/2019 Intel Xeon E-2100 Series ;
Intel Xeon E-2200 Series (4 ou 6 cœurs)Coffee Lake 0x906eb 0x02 0x000000ca 03/10/2019 Intel Xeon E-2100 Series Coffee Lake 0x906ec 0x22 0x000000ca 03/10/2019 Intel Xeon E-2100 Series Coffee Lake Refresh 0x906ed 0x22 0x000000cc 12/12/2019 Intel Xeon E-2200 Series (8 cœurs) - PR 2536681 : Les alias de périphérique peuvent ne pas être dans l'ordre attendu sur les hôtes ESXi conformes à SMBIOS 3.2 ou version ultérieure
Dans les versions antérieures à ESXi 7.0b, l'analyse ESXi de la table SMBIOS dans le microprogramme de l'hôte pour déterminer l'ordre dans lequel les alias de périphérique sont attribués n'est pas entièrement compatible avec SMBIOS 3.2 ou version ultérieure. Par conséquent, les hôtes ESXi peuvent attribuer des alias de périphérique dans l'ordre incorrect.
Ce problème est résolu dans cette version. Pour plus d'informations sur la correction de l'ordre des alias de périphérique, consultez l'article 2091560 de la base de connaissances VMware.
- PR 2486316 : Des hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors de l'exécution de la fonction timerCallback
Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lorsque la pile de stockage du noyau exécute une fonction timerCallback. La fonction timerCallback s'exécute de manière non préemptive. Cependant, dans certains cas, la pile de stockage du noyau peut essayer d'activer la préemption sur un CPU, lors de l'exécution d'une fonction timerCallback. Par conséquent, l'hôte ESXi échoue avec une erreur semblable à :
PSOD : Assert bora/vmkernel/main/bh.c:981
Ce problème est résolu dans cette version.
- PR 2503110 : la définition du paramètre SIOControlLoglevel après l'activation de la journalisation de Storage I/O Control peut ne pas modifier les niveaux de journal
La journalisation pour Storage I/O Control est désactivée par défaut. Pour activer et définir un niveau de journalisation, vous devez utiliser une valeur comprise entre 1 et 7 pour le
Ce problème est résolu dans cette version.
- PR 2503110 : l'activation du journal de VMware vSphere Storage I/O Control peut entraîner la saturation des serveurs syslog et rsyslog
Certains journaux de Storage I/O Control peuvent provoquer un déversement de journaux dans les fichiers
storagerm.log
etsdrsinjector.log
. Cette situation peut entraîner une rotation rapide des journaux.Ce problème est résolu dans cette version. Le correctif déplace certains journaux de la destination Log normale vers Log_Trivia pour empêcher toute journalisation supplémentaire.
- PR 1221281 : Les opérations de mise au repos des machines virtuelles sur des volumes sauvegardés par des LUN prenant en charge une valeur de granularité de démappage supérieure à 1 Mo peuvent être plus longues que d'habitude
Les banques de données VMFS dépendant de LUN disposant d'une granularité de démappage optimale supérieure à 1 Mo peuvent passer en verrouillage sur disque répété lors du traitement du démappage automatique. Par conséquent, les opérations de mise au repos des machines virtuelles sur ces banques de données peuvent prendre plus de temps que d'habitude.
Ce problème est résolu dans cette version.
- PR 2549419 : la définition de la priorité de récupération d'espace sur une banque de données VMFS peut ne pas fonctionner pour tous les hôtes ESXi utilisant la banque de données
Vous pouvez modifier la priorité de récupération d'espace par défaut d'une banque de données VMFS à l'aide de la commande ESXCLI
esxcli storage vmfs reclaim config set --reclaim-priority
. Par exemple, pour modifier la priorité de la récupération d'espace, qui annule le mappage des blocs inutilisés de la banque de données vers le LUN dont dépend cette banque de données, sur aucun à partir du taux faible par défaut, exécutez la commande :esxcli storage vmfs reclaim config set --volume-label datastore_name --reclaim-priority none
La modification prend uniquement effet sur l'hôte ESXi sur lequel vous exécutez la commande, pas sur d'autres hôtes qui utilisent la même banque de données.Ce problème est résolu dans cette version.
- PR 2550655 : vous pouvez voir un engorgement des journaux VMkernel lorsque des volumes VMFS sont fréquemment ouverts et fermés
Si les volumes VMFS sont fréquemment ouverts et fermés, vous pourriez voir des messages dans les journaux VMkernel tels que
does not support unmap
lors de l'ouverture d'un volume etExiting async journal replay manager world
lors de la fermeture d'un volume.Ce problème est résolu dans cette version. Les entrées de journal
does not support unmap
lors de l'ouverture d'un volume VMFS etExiting async journal replay manager world
lors de la fermeture d'un volume ne sont plus visibles. - PR 2554564 : les hôtes ESXi disposant de 4 groupes de disques vSAN ou plus peuvent échouer avec un écran de diagnostic violet en raison d'une condition de mémoire insuffisante dans les configurations NUMA disposant de 4 nœuds ou plus
Une configuration vSAN sur un hôte ESXi disposant de 4 groupes de disques ou plus s'exécutant sur une configuration NUMA de 4 nœuds ou plus peut épuiser les ressources de mémoire de sections de VMkernel sur cet hôte dédié à un nœud NUMA donné. D'autres nœuds NUMA sur le même hôte peuvent avoir plus de ressources de mémoire de sections. Cependant, VMkernel peut générer prématurément une condition de mémoire insuffisante au lieu d'utiliser la capacité de mémoire de sections excédentaire des autres nœuds NUMA. Par conséquent, la condition de mémoire insuffisante peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet ou l'échec d'un groupe de disques vSAN sur cet hôte. Après le redémarrage de l'hôte, dans
vmkernel.log
, vous pourriez voir une erreur telle queThrottled: BlkAttr not ready for disk.
Ce problème est résolu dans cette version.
- PR 2554116 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors du chargement d'un module de noyau pendant le démarrage
Lors du chargement des modules de noyau, la commande du chargeur de module VMkernel
vmkload_mod
utilisée pour charger les modules de pilote de périphérique et de forme de réseau dans VMkernel, peut être migrée vers un autre nœud NUMA. Dans ce cas, une non-correspondance du total de contrôle entre les nœuds NUMA peut se produire. Cela peut entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet.Ce problème est résolu dans cette version.
- PR 2489840 : Lorsque VMware NSX-T et le mode de verrouillage sont activés, un hôte ESXi sans état peut faire échouer la correction du temps de démarrage et rester en mode de maintenance
Certains comptes d'utilisateur, liés à NSX-T, sont disponibles uniquement après un démarrage. Du fait qu'ils n'existent pas au moment du démarrage, la correction du temps de démarrage d'un hôte ESXi sans état peut échouer lorsque ces comptes entrent dans la liste d'utilisateurs d'exceptions du mode de verrouillage. Le journal
syslog.log
inclut une ligne semblable à celle-ci :key = 'POST_BOOT_CONFIG_FAILED', value = 'Failed to update user accounts exempted from Lockdown Mode. Invalid user specified: mux_user'
Ce problème est résolu dans cette version.
- PR 2548068 : Certains fichiers peuvent être manquants dans ProductLocker lors de l'exécution d'une mise à niveau en direct vers ESXi 7.0 à partir d'une version antérieure de l'image de vidage de disque d'un hôte ESXi
Si vous tentez d'effectuer une mise à niveau en direct vers ESXi 7.0 à partir d'une version de ESXi antérieure, installée en tant qu'image de vidage de disque, à l'aide de la commande
esxiso2dd
et de VMware Tools version 4.0 ou version ultérieure, certains fichiers VMware Tools peuvent être manquants dans l'emplacement/productLocker
. Les versions antérieures d'ESXi utilisent un système de fichiers VFAT non sensible à la casse. Toutefois, ESXi 7.0 utilise VMFS-L, ce qui effectue des vérifications de nom de fichier sensibles à la casse et les fichiers qui échouent cette vérification ne sont pas ajoutés à ProductLocker.Ce problème est résolu dans cette version.
- PR 2556037 : si l'une des familles d'adresses sur un contrôleur de domaine à double pile n'est pas activée, l'ajout d'hôtes ESXi au domaine peut échouer de manière aléatoire
Si l'une des familles d'adresses sur un contrôleur de domaine à double pile n'est pas activée, par exemple IPv6, même après la désactivation d'IPv6 sur le contrôleur, il est possible qu'un ping CLDAP vers une adresse IPv6 soit toujours possible. Cela peut entraîner un délai d'expiration et déclencher une erreur indiquant que le centre de données n'est pas disponible, par exemple
Error: NERR_DCNotFound [code 0x00000995]
. Par conséquent, vous risquez de ne pas pouvoir ajouter des hôtes ESXi au domaine.Ce problème est résolu dans cette version.
- PR 2572393 : Les mises à niveau vers ESXi 7.0 à partir d'un hôte ESXi 6.x avec des périphériques iSCSI peuvent échouer avec un message d'erreur fatale lors du démarrage d'ESXi
Les mises à niveau vers ESXi 7.0 à partir d'une image personnalisée ou standard d'ESXi 6.x avec une version asynchrone de pilotes iSCSI de déchargement peuvent échouer avec des messages semblables à
Fatal Error: 15 (Not Found)
ouError loading /vmfs/volumes/
. Les ensembles de pilotes iSCSI de déchargement concernés sont/b.b00 bnx2i
/qfle3i
,be2iscsi
/elxiscsi
etqedil
/qedi
. Ce problème peut également se produire dans des environnements disposant de plug-ins iSCSI logiciel et d'API de gestion iSCSI.
Les messages de la page de chargement d'ESXi s'affichent lors de la phase de redémarrage de la mise à niveau que vous pouvez effectuer à l'aide de vSphere Lifecycle Manager ou ESXCLI. Si vous utilisez vSphere Lifecycle Manager, votre système vCenter Server restaure l'image précédente lors de la réinitialisation. Ce problème concerne principalement les systèmes dotés d'adaptateurs réseau convergés (CNA) QLogic 578XX compatibles iSCSI, de CNA Emulex OneConnect compatibles iSCSI, de CNA QLogic FastLinQ QL4xxxx ou de configurations logicielles iSCSI. Le problème ne se produit pas si le CNA est configuré uniquement pour FCoE.Ce problème est résolu dans cette version.
- PR 2544236 : si vous exécutez des requêtes CIM sur un port VMkernel récemment ajouté sur un hôte ESXi, le service SFCB (Small Footprint CIM Broker) peut échouer
Si vous exécutez une requête CIM, telle que
enum_instances
sur un port VMkernel récemment ajouté sur un hôte ESXi, le service SFCB peut échouer, car il ne peut pas valider l'adresse IP de la nouvelle instance. Par exemple, si IPv6 est activé et configuré comme statique, mais que l'adresse IPv6 est vide, l'interrogation de l'une des classes CIMCIM_IPProtocolEndpoint
ouVMware_KernelIPv6ProtocolEndpoint
génère un vidage mémoire SFCB.Ce problème est résolu dans cette version.
- PR 2555270 : Si vous restaurez une configuration de périphérique de stockage sauvegardée après plus de 7 jours, certains paramètres peuvent être perdus
Si vous restaurez une configuration sauvegardée à l'aide de
backup.sh
après plus de 7 jours, les paramètres du périphérique de stockage comme Is perennially reserved peuvent être perdus. Cela se produit, car les horodatages indiquant quand les périphériques ont été vus pour la dernière fois sont également sauvegardés et si le périphérique n'a pas été actif pendant plus de 7 jours, les entrées du périphérique de/etc/vmware/esx.conf
sont supprimées. Par conséquent, l'opération de restauration peut restaurer des horodatages plus anciens.Ce problème est résolu dans cette version.
- PR 2552532 : Un hôte ESXi peut ne pas récupérer d'espaces de noms remappés
Dans certains cas, lorsque les espaces de noms sont démappés sur un site cible et remappés, cette instance d'ESXi peut ne pas récupérer l'espace de noms remappé. Cela se produit lorsque le nettoyage de l'ancienne instance de l'espace de noms n'est pas terminé. Dans ce cas, pour redécouvrir les espaces de noms, vous devez réinitialiser le contrôleur NVMe.
Ce problème est résolu dans cette version.
- PR 2551359 : la configuration du service de fichiers vSAN autorise plus de 8 adresses IP
Le service de fichiers vSAN prend en charge jusqu'à 8 adresses IP dans le pool d'adresses IP statiques. Si un cluster vSAN dispose de plus de 8 hôtes, vous pouvez entrer plus de 8 adresses IP pendant la configuration du service de fichiers. Cependant, il n'est pas possible d'utiliser des adresses IP supplémentaires.
Ce problème est résolu dans cette version. Vous ne pouvez pas entrer plus de 8 adresses IP dans la configuration du service de fichiers.
- PR 2541690 : les hôtes vSAN avec déduplication manque d'espace lors du traitement des suppressions
Lorsqu'un hôte vSAN utilise la déduplication et la compression, les opérations de suppression ne peuvent pas se terminer, ce qui entraîne l'épuisement de l'espace du système de fichiers.
Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB loadesx et esx-update
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2554114 |
Numéros CVE | S.O. |
Met à jour le VIB
nvme-pcie
pour résoudre le problème suivant :
- PR 2554114 : Si un périphérique NVMe est supprimé et ajouté à chaud en moins d'une minute, l'hôte ESXi peut échouer avec un écran de diagnostic violet
Si un périphérique NVMe est supprimé et ajouté à chaud avant la fin du nettoyage de la pile de stockage, ce qui dure généralement environ 60 secondes, le pilote PCIe ne parvient pas à imprimer
Disabled hotplug
. Par conséquent, vous pouvez voir un messagePériphérique déjà présent
. Enfin, l'hôte ESXi peut échouer avec un écran de diagnostic violet avec une erreur telle queLINT1/NMI (motherboard nonmaskable interrupt), undiagnosed
.Ce problème est résolu dans cette version. Le correctif réduit le temps d'E/S de la couche PSA d'environ une minute à 1 ms pour suspendre les E/S en cas d'ajout ou de suppression à chaud.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Important |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour vmkusb VIB.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417 |
Numéros CVE | CVE-2020-3962, CVE-2020-3963, CVE-2020-3964, CVE-2020-3965, CVE-2020-3966, CVE-2020-3967, CVE-2020-3968, CVE-2020-3969, CVE-2020-3970 |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB vdfs, esx-xserver, vsan, esx-base, esx-ui, esx-dvfilter-generic-fastpath, native-misc-drivers, vsanhealth, cpu-microcode
et crx
pour résoudre les problèmes suivants :
- Mise à jour de la bibliothèque libsqlite3
La bibliothèque ESXi libsqlite3 est mise à jour vers la version 3.31.1.
- Mise à jour de la bibliothèque libxml2
La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.10.
- Mise à jour de la bibliothèque libcurl
La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.69.1.
- Mise à jour de la bibliothèque Python
La bibliothèque ESXi Python est mise à jour vers la version 3.5.9 et Freetype Python est mis à jour vers la version 2.9.
- Mise à jour de la bibliothèque NTP
La bibliothèque ESXi NTP est mise à jour vers la version 4.2.8p14.
-
-
VMware ESXi contient une vulnérabilité use-after-free dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3962 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité use-after-free dans PVNVRAM. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3963 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une fuite d'informations dans le contrôleur USB EHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3964 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une fuite d'informations dans le contrôleur USB XHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3965 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient un dépassement de mémoire en raison d'un problème de condition de concurrence dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3966 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité de dépassement de capacité du segment de mémoire dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3967 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité d'écriture hors limites dans le contrôleur USB 3.0 (xHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3968 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulérabilité off-by-one heap-overflow dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3969 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité de lecture hors limites dans la fonctionnalité Shader. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3970 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB
loadesx et esx-update
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2564270 |
Numéros CVE | S.O. |
Met à jour le VIB tools-light
pour résoudre le problème suivant :
Dans ESXi 7.0b, un sous-ensemble d'images ISO de VMware Tools 11.1.0 est intégré à l'hôte ESXi 7.0b.
Les images ISO de VMware Tools 11.1.0 suivantes sont intégrées à ESXi :windows.iso
: Image de VMware Tools pour Windows 7 SP1 ou Windows Server 2008 R2 SP1 ou version ultérieurelinux.iso
: Image de VMware Tools 10.3.22 pour les versions plus anciennes de Linux OS avec glibc 2.5 ou version ultérieure
Les images ISO de VMware Tools 10.3.10 suivantes sont disponibles au téléchargement :
Solaris.iso
: Image de VMware Tools pour Solarisdarwin.iso
: Image de VMware Tools pour OSX
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
Nom du profil | ESXi-7.0b-16324942-standard |
Build | Pour obtenir des informations sur le build, rendez-vous en haut de la page. |
Fournisseur | VMware, Inc. |
Date de publication | 16 juin 2020 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690, 2554114 |
Numéros CVE associés | S/O |
Met à jour les VIB loadesx, esx-dvfilter-generic-fastpath, vsanhealth, esx-update, tools-light, esx-ui, vdfs, vsan, esx-base, nvme-pcie, crx native-misc-drivers, esx-xserver, vmkusb
et cpu-microcode
.
- Ce correctif met à jour les problèmes suivants :
-
Cette version met à jour le microcode Intel pour les CPU pris en charge par ESXi pour les révisions dont la production a été vérifiée le 29 avril 2020. Consultez le tableau des mises à jour du microcode actuellement incluses.
Remarque : Les mises à jour du microcode qu'Intel a publiées le 9 juin 2020 ne sont pas toutes incluses. Intel a mis à disposition les mises à jour de plusieurs
CPU trop retard pour que VMware les teste et les inclue dans cette version de correctif d'ESXi. Pour obtenir le dernier microcode, contactez votre fournisseur de matériel pour une mise à jour du BIOS.Nom de code FMS ID de PLT Révision de MCU Date de MCU Noms de marque Nehalem EP 0x106a5 0x03 0x0000001d 11/05/2018 Intel Xeon 35xx Series ;
Intel Xeon 55xx SeriesLynnfield 0x106e5 0x13 0x0000000a 08/05/2018 Intel Xeon 34xx Lynnfield Series Clarkdale 0x20652 0x12 0x00000011 08/05/2018 Intel i3/i5 Clarkdale Series
Intel Xeon 34xx Clarkdale SeriesArrandale 0x20655 0x92 0x00000007 23/04/2018 Processeur Intel Core i7-620LE Sandy Bridge DT 0x206a7 0x12 0x0000002f 17/02/2019 Intel Xeon E3-1100 Series ;
Intel Xeon E3-1200 Series ;
Intel i7-2655-LE Series
Intel i3-2100 SeriesWestmere EP 0x206c2 0x03 0x0000001f 08/05/2018 Intel Xeon série 56xx
Intel Xeon 36xx SeriesSandy Bridge EP 0x206d6 0x6d 0x00000621 04/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesSandy Bridge EP 0x206d7 0x6d 0x0000071a 24/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesNehalem EX 0x206e6 0x04 0x0000000d 15/05/2018 Intel Xeon 65xx Series ;
Intel Xeon 75xx SeriesWestmere EX 0x206f2 0x05 0x0000003b 16/05/2018 Intel Xeon E7-8800 Series ;
Intel Xeon E7-4800 Series ;
Intel Xeon E7-2800 SeriesIvy Bridge DT 0x306a9 0x12 0x00000021 13/02/2019 Intel i3-3200 Series ;
Intel i7-3500-LE/UE
Intel i7-3600-QE
Intel Xeon E3-1200-v2 Series;
Intel Xeon E3-1100-C-v2 Series
Intel Pentium B925CHaswell DT 0x306c3 0x32 0x00000028 12/11/2019 Intel Xeon E3-1200-v3 Series ;
Intel i7-4700-EQ Series
Intel i5-4500-TE Series
Intel i3-4300 SeriesIvy Bridge EP 0x306e4 0xed 0x0000042e 14/03/2019 Intel Xeon E5-4600-v2 Series ;
Intel Xeon E5-2600-v2 Series ;
Intel Xeon E5-2400-v2 Series ;
Intel Xeon E5-1600-v2 Series ;
Intel Xeon E5-1400-v2 SeriesIvy Bridge EX 0x306e7 0xed 0x00000715 14/03/2019 Intel Xeon E7-8800/4800/2800-v2 Series Haswell EP 0x306f2 0x6f 0x00000043 01/03/2019 Intel Xeon E5-4600-v3 Series ;
Intel Xeon E5-2600-v3 Series ;
Intel Xeon E5-2400-v3 Series ;
Intel Xeon E5-1600-v3 Series ;
Intel Xeon E5-1400-v3 SeriesHaswell EX 0x306f4 0x80 0x00000016 17/06/2019 Intel Xeon E7-8800/4800-v3 Series Broadwell H 0x40671 0x22 0x00000022 12/11/2019 Intel Core i7-5700EQ
Intel Xeon E3-1200-v4 SeriesAvoton 0x406d8 0x01 0x0000012d 16/09/2019 Intel Atom C2300 Series ;
Intel Atom C2500 Series ;
Intel Atom C2700 SeriesBroadwell EP/EX 0x406f1 0xef 0x0b000038 18/06/2019 Intel Xeon E7-8800/4800-v4 Series ;
Intel Xeon E5-4600-v4 Series ;
Intel Xeon E5-2600-v4 Series ;
Intel Xeon E5-1600-v4 SeriesSkylake SP 0x50654 0xb7 0x02006901 12/02/2020 Intel Xeon Platinum 8100 Series ;
Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100 Series
Intel Xeon D-2100 Series ;
Intel Xeon D-1600 Series ;
Intel Xeon W-3100 Series ;
Intel Xeon W-2100 SeriesCascade Lake B-0 0x50656 0xbf 0x04002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Cascade Lake 0x50657 0xbf 0x05002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Broadwell DE 0x50662 0x10 0x0000001c 17/06/2019 Intel Xeon D-1500 Series Broadwell DE 0x50663 0x10 0x07000019 17/06/2019 Intel Xeon D-1500 Series Broadwell DE 0x50664 0x10 0x0f000017 17/06/2019 Intel Xeon D-1500 Series Broadwell NS 0x50665 0x10 0x0e00000f 17/06/2019 Intel Xeon D-1600 Series Skylake H/S 0x506e3 0x36 0x000000d6 03/10/2019 Intel Xeon E3-1500-v5 Series ;
Intel Xeon E3-1200-v5 SeriesDenverton 0x506f1 0x01 0x0000002e 21/03/2019 Intel Atom C3000 Series Kaby Lake H/S/X 0x906e9 0x2a 0x000000ca 03/10/2019 Intel Xeon E3-1200-v6 Series ;
Intel Xeon E3-1500-v6 SeriesCoffee Lake 0x906ea 0x22 0x000000cc 08/12/2019 Intel Xeon E-2100 Series ;
Intel Xeon E-2200 Series (4 ou 6 cœurs)Coffee Lake 0x906eb 0x02 0x000000ca 03/10/2019 Intel Xeon E-2100 Series Coffee Lake 0x906ec 0x22 0x000000ca 03/10/2019 Intel Xeon E-2100 Series Coffee Lake Refresh 0x906ed 0x22 0x000000cc 12/12/2019 Intel Xeon E-2200 Series (8 cœurs) -
Dans les versions antérieures à ESXi 7.0b, l'analyse ESXi de la table SMBIOS dans le microprogramme de l'hôte pour déterminer l'ordre dans lequel les alias de périphérique sont attribués n'est pas entièrement compatible avec SMBIOS 3.2 ou version ultérieure. Par conséquent, les hôtes ESXi peuvent attribuer des alias de périphérique dans l'ordre incorrect.
-
Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lorsque la pile de stockage du noyau exécute une fonction timerCallback. La fonction timerCallback s'exécute de manière non préemptive. Cependant, dans certains cas, la pile de stockage du noyau peut essayer d'activer la préemption sur un CPU, lors de l'exécution d'une fonction timerCallback. Par conséquent, l'hôte ESXi échoue avec une erreur semblable à :
PSOD : Assert bora/vmkernel/main/bh.c:981
-
La journalisation pour Storage I/O Control est désactivée par défaut. Pour activer et définir un niveau de journalisation, vous devez utiliser une valeur comprise entre 1 et 7 pour le
paramètre. Cependant, dans certains cas, la modification de la valeur du paramètre ne modifie pas le niveau de journalisation. -
Certains journaux de Storage I/O Control peuvent provoquer un déversement de journaux dans les fichiers
storagerm.log
etsdrsinjector.log
. Cette situation peut entraîner une rotation rapide des journaux. -
Les banques de données VMFS dépendant de LUN disposant d'une granularité de démappage optimale supérieure à 1 Mo peuvent passer en verrouillage sur disque répété lors du traitement du démappage automatique. Par conséquent, les opérations de mise au repos des machines virtuelles sur ces banques de données peuvent prendre plus de temps que d'habitude.
-
Vous pouvez modifier la priorité de récupération d'espace par défaut d'une banque de données VMFS à l'aide de la commande ESXCLI
esxcli storage vmfs reclaim config set --reclaim-priority
. Par exemple, pour modifier la priorité de la récupération d'espace, qui annule le mappage des blocs inutilisés de la banque de données vers le LUN dont dépend cette banque de données, sur aucun à partir du taux faible par défaut, exécutez la commande :esxcli storage vmfs reclaim config set --volume-label datastore_name --reclaim-priority none
La modification prend uniquement effet sur l'hôte ESXi sur lequel vous exécutez la commande, pas sur d'autres hôtes qui utilisent la même banque de données. -
Si les volumes VMFS sont fréquemment ouverts et fermés, vous pourriez voir des messages dans les journaux VMkernel tels que
does not support unmap
lors de l'ouverture d'un volume etExiting async journal replay manager world
lors de la fermeture d'un volume. -
Une configuration vSAN sur un hôte ESXi disposant de 4 groupes de disques ou plus s'exécutant sur une configuration NUMA de 4 nœuds ou plus peut épuiser les ressources de mémoire de sections de VMkernel sur cet hôte dédié à un nœud NUMA donné. D'autres nœuds NUMA sur le même hôte peuvent avoir plus de ressources de mémoire de sections. Cependant, VMkernel peut générer prématurément une condition de mémoire insuffisante au lieu d'utiliser la capacité de mémoire de sections excédentaire des autres nœuds NUMA. Par conséquent, la condition de mémoire insuffisante peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet ou l'échec d'un groupe de disques vSAN sur cet hôte. Après le redémarrage de l'hôte, dans le fichier
vmkernel.log
, vous pouvez voir une erreur telle queThrottled: BlkAttr not ready for disk.
-
Lors du chargement des modules de noyau, la commande du chargeur de module VMkernel
vmkload_mod
utilisée pour charger les modules de pilote de périphérique et de forme de réseau dans VMkernel, peut être migrée vers un autre nœud NUMA. Dans ce cas, une non-correspondance du total de contrôle entre les nœuds NUMA peut se produire. Cela peut entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet. -
Certains comptes d'utilisateur, liés à NSX-T, sont disponibles uniquement après un démarrage. Du fait qu'ils n'existent pas au moment du démarrage, la correction du temps de démarrage d'un hôte ESXi sans état peut échouer lorsque ces comptes entrent dans la liste d'utilisateurs d'exceptions du mode de verrouillage. Dans le fichier
syslog.log
, vous pouvez voir une ligne semblable à :key = 'POST_BOOT_CONFIG_FAILED', value = 'Failed to update user accounts exempted from Lockdown Mode. Invalid user specified: mux_user'
-
Si vous essayez d'effectuer une mise à niveau en direct vers ESXi 7.0 à partir d'une version d'ESXi antérieure, installée en tant qu'image de vidage de disque, à l'aide de la commande
esxiso2dd
et de VMware Tools version 4.0 ou version ultérieure, certains fichiers VMware Tools peuvent être manquants dans l'emplacement/productLocker
. Les versions antérieures d'ESXi utilisent un système de fichiers VFAT non sensible à la casse. Toutefois, ESXi 7.0 utilise VMFS-L, ce qui effectue des vérifications de nom de fichier sensibles à la casse et les fichiers qui échouent cette vérification ne sont pas ajoutés à ProductLocker. -
Si l'une des familles d'adresses sur un contrôleur de domaine à double pile n'est pas activée, par exemple IPv6, même après la désactivation d'IPv6 sur le contrôleur, il est possible qu'un ping CLDAP vers une adresse IPv6 soit toujours possible. Cela peut entraîner un délai d'expiration et déclencher une erreur indiquant que le centre de données n'est pas disponible, par exemple
Error: NERR_DCNotFound [code 0x00000995]
. Par conséquent, vous risquez de ne pas pouvoir ajouter des hôtes ESXi au domaine. -
Les mises à niveau vers ESXi 7.0 à partir d'une image personnalisée ou standard d'ESXi 6.x avec une version asynchrone de pilotes iSCSI de déchargement peuvent échouer avec des messages similaires à
Fatal Error: 15 (Not Found)
ouError loading /vmfs/volumes//b.b00
. Les ensembles de pilotes iSCSI de déchargement concernés sontbnx2i
/qfle3i
,be2iscsi
/elxiscsi
etqedil
/qedi
. Ce problème peut également se produire dans des environnements disposant de plug-ins iSCSI logiciel et d'API de gestion iSCSI.
Les messages de la page de chargement d'ESXi s'affichent lors de la phase de redémarrage de la mise à niveau que vous pouvez effectuer à l'aide de vSphere Lifecycle Manager ou ESXCLI. Si vous utilisez vSphere Lifecycle Manager, votre système vCenter Server restaure l'image précédente lors de la réinitialisation. Ce problème concerne principalement les systèmes dotés d'adaptateurs réseau convergés (CNA) QLogic 578XX compatibles iSCSI, de CNA Emulex OneConnect compatibles iSCSI, de CNA QLogic FastLinQ QL4xxxx ou de configurations logicielles iSCSI. Le problème ne se produit pas si le CNA est configuré uniquement pour FCoE. -
Si vous exécutez une requête CIM telle que
enum_instances
à un port VMkernel récemment ajouté sur un hôte ESXi, le service SFCB peut échouer, car il ne peut pas valider l'adresse IP de la nouvelle instance. Par exemple, si IPv6 est activé et configuré comme statique, mais que l'adresse IPv6 est vide, l'interrogation de l'une des classes CIMCIM_IPProtocolEndpoint
ouVMware_KernelIPv6ProtocolEndpoint
génère un vidage mémoire SFCB. -
Si vous restaurez une configuration sauvegardée à l'aide de
backup.sh
après plus de 7 jours, les paramètres du périphérique de stockage comme Is perennially reserved peuvent être perdus. Cela se produit, car les horodatages indiquant quand les périphériques ont été vus pour la dernière fois sont également sauvegardés et si le périphérique n'a pas été actif pendant plus de 7 jours, les entrées du périphérique de/etc/vmware/esx.conf
sont supprimées. Par conséquent, l'opération de restauration peut restaurer des horodatages plus anciens. -
Dans certains cas, lorsque les espaces de noms sont démappés sur un site cible et remappés, cette instance d'ESXi peut ne pas récupérer l'espace de noms remappé. Cela se produit lorsque le nettoyage de l'ancienne instance de l'espace de noms n'est pas terminé. Dans ce cas, pour redécouvrir les espaces de noms, vous devez réinitialiser le contrôleur NVMe.
-
Le service de fichiers vSAN prend en charge jusqu'à 8 adresses IP dans le pool d'adresses IP statiques. Si un cluster vSAN dispose de plus de 8 hôtes, vous pouvez entrer plus de 8 adresses IP pendant la configuration du service de fichiers. Cependant, il n'est pas possible d'utiliser des adresses IP supplémentaires.
-
Lorsqu'un hôte vSAN utilise la déduplication et la compression, les opérations de suppression ne peuvent pas se terminer, ce qui entraîne l'épuisement de l'espace du système de fichiers.
-
Si un périphérique NVMe est supprimé et ajouté à chaud avant la fin du nettoyage de la pile de stockage, ce qui dure généralement environ 60 secondes, le pilote PCIe ne parvient pas à imprimer
Disabled hotplug
. Par conséquent, vous pouvez voir un messagePériphérique déjà présent
. Enfin, l'hôte ESXi peut échouer avec un écran de diagnostic violet avec une erreur telle queLINT1/NMI (motherboard nonmaskable interrupt), undiagnosed
.
-
Nom du profil | ESXi-7.0b-16324942-no-tools |
Build | Pour obtenir des informations sur le build, rendez-vous en haut de la page. |
Fournisseur | VMware, Inc. |
Date de publication | 16 juin 2020 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690, 2554114 |
Numéros CVE associés | S/O |
Met à jour les VIB loadesx, esx-dvfilter-generic-fastpath, vsanhealth, esx-update, esx-ui, vdfs, vsan, esx-base, nvme-pcie, crx native-misc-drivers, esx-xserver, vmkusb
et cpu-microcode
.
- Ce correctif met à jour les problèmes suivants :
-
Cette version met à jour le microcode Intel pour les CPU pris en charge par ESXi pour les révisions dont la production a été vérifiée le 29 avril 2020. Consultez le tableau des mises à jour du microcode actuellement incluses.
Remarque : Les mises à jour du microcode qu'Intel a publiées le 9 juin 2020 ne sont pas toutes incluses. Intel a mis à disposition les mises à jour de plusieurs
CPU trop retard pour que VMware les teste et les inclue dans cette version de correctif d'ESXi. Pour obtenir le dernier microcode, contactez votre fournisseur de matériel pour une mise à jour du BIOS.Nom de code FMS ID de PLT Révision de MCU Date de MCU Noms de marque Nehalem EP 0x106a5 0x03 0x0000001d 11/05/2018 Intel Xeon 35xx Series ;
Intel Xeon 55xx SeriesLynnfield 0x106e5 0x13 0x0000000a 08/05/2018 Intel Xeon 34xx Lynnfield Series Clarkdale 0x20652 0x12 0x00000011 08/05/2018 Intel i3/i5 Clarkdale Series
Intel Xeon 34xx Clarkdale SeriesArrandale 0x20655 0x92 0x00000007 23/04/2018 Processeur Intel Core i7-620LE Sandy Bridge DT 0x206a7 0x12 0x0000002f 17/02/2019 Intel Xeon E3-1100 Series ;
Intel Xeon E3-1200 Series ;
Intel i7-2655-LE Series
Intel i3-2100 SeriesWestmere EP 0x206c2 0x03 0x0000001f 08/05/2018 Intel Xeon série 56xx
Intel Xeon 36xx SeriesSandy Bridge EP 0x206d6 0x6d 0x00000621 04/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesSandy Bridge EP 0x206d7 0x6d 0x0000071a 24/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesNehalem EX 0x206e6 0x04 0x0000000d 15/05/2018 Intel Xeon 65xx Series ;
Intel Xeon 75xx SeriesWestmere EX 0x206f2 0x05 0x0000003b 16/05/2018 Intel Xeon E7-8800 Series ;
Intel Xeon E7-4800 Series ;
Intel Xeon E7-2800 SeriesIvy Bridge DT 0x306a9 0x12 0x00000021 13/02/2019 Intel i3-3200 Series ;
Intel i7-3500-LE/UE
Intel i7-3600-QE
Intel Xeon E3-1200-v2 Series;
Intel Xeon E3-1100-C-v2 Series
Intel Pentium B925CHaswell DT 0x306c3 0x32 0x00000028 12/11/2019 Intel Xeon E3-1200-v3 Series ;
Intel i7-4700-EQ Series
Intel i5-4500-TE Series
Intel i3-4300 SeriesIvy Bridge EP 0x306e4 0xed 0x0000042e 14/03/2019 Intel Xeon E5-4600-v2 Series ;
Intel Xeon E5-2600-v2 Series ;
Intel Xeon E5-2400-v2 Series ;
Intel Xeon E5-1600-v2 Series ;
Intel Xeon E5-1400-v2 SeriesIvy Bridge EX 0x306e7 0xed 0x00000715 14/03/2019 Intel Xeon E7-8800/4800/2800-v2 Series Haswell EP 0x306f2 0x6f 0x00000043 01/03/2019 Intel Xeon E5-4600-v3 Series ;
Intel Xeon E5-2600-v3 Series ;
Intel Xeon E5-2400-v3 Series ;
Intel Xeon E5-1600-v3 Series ;
Intel Xeon E5-1400-v3 SeriesHaswell EX 0x306f4 0x80 0x00000016 17/06/2019 Intel Xeon E7-8800/4800-v3 Series Broadwell H 0x40671 0x22 0x00000022 12/11/2019 Intel Core i7-5700EQ
Intel Xeon E3-1200-v4 SeriesAvoton 0x406d8 0x01 0x0000012d 16/09/2019 Intel Atom C2300 Series ;
Intel Atom C2500 Series ;
Intel Atom C2700 SeriesBroadwell EP/EX 0x406f1 0xef 0x0b000038 18/06/2019 Intel Xeon E7-8800/4800-v4 Series ;
Intel Xeon E5-4600-v4 Series ;
Intel Xeon E5-2600-v4 Series ;
Intel Xeon E5-1600-v4 SeriesSkylake SP 0x50654 0xb7 0x02006901 12/02/2020 Intel Xeon Platinum 8100 Series ;
Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100 Series
Intel Xeon D-2100 Series ;
Intel Xeon D-1600 Series ;
Intel Xeon W-3100 Series ;
Intel Xeon W-2100 SeriesCascade Lake B-0 0x50656 0xbf 0x04002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Cascade Lake 0x50657 0xbf 0x05002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Broadwell DE 0x50662 0x10 0x0000001c 17/06/2019 Intel Xeon D-1500 Series Broadwell DE 0x50663 0x10 0x07000019 17/06/2019 Intel Xeon D-1500 Series Broadwell DE 0x50664 0x10 0x0f000017 17/06/2019 Intel Xeon D-1500 Series Broadwell NS 0x50665 0x10 0x0e00000f 17/06/2019 Intel Xeon D-1600 Series Skylake H/S 0x506e3 0x36 0x000000d6 03/10/2019 Intel Xeon E3-1500-v5 Series ;
Intel Xeon E3-1200-v5 SeriesDenverton 0x506f1 0x01 0x0000002e 21/03/2019 Intel Atom C3000 Series Kaby Lake H/S/X 0x906e9 0x2a 0x000000ca 03/10/2019 Intel Xeon E3-1200-v6 Series ;
Intel Xeon E3-1500-v6 SeriesCoffee Lake 0x906ea 0x22 0x000000cc 08/12/2019 Intel Xeon E-2100 Series ;
Intel Xeon E-2200 Series (4 ou 6 cœurs)Coffee Lake 0x906eb 0x02 0x000000ca 03/10/2019 Intel Xeon E-2100 Series Coffee Lake 0x906ec 0x22 0x000000ca 03/10/2019 Intel Xeon E-2100 Series Coffee Lake Refresh 0x906ed 0x22 0x000000cc 12/12/2019 Intel Xeon E-2200 Series (8 cœurs) -
Dans les versions antérieures à ESXi 7.0b, l'analyse ESXi de la table SMBIOS dans le microprogramme de l'hôte pour déterminer l'ordre dans lequel les alias de périphérique sont attribués n'est pas entièrement compatible avec SMBIOS 3.2 ou version ultérieure. Par conséquent, les hôtes ESXi peuvent attribuer des alias de périphérique dans l'ordre incorrect.
-
Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lorsque la pile de stockage du noyau exécute une fonction timerCallback. La fonction timerCallback s'exécute de manière non préemptive. Cependant, dans certains cas, la pile de stockage du noyau peut essayer d'activer la préemption sur un CPU, lors de l'exécution d'une fonction timerCallback. Par conséquent, l'hôte ESXi échoue avec une erreur semblable à :
PSOD : Assert bora/vmkernel/main/bh.c:981
-
La journalisation pour Storage I/O Control est désactivée par défaut. Pour activer et définir un niveau de journalisation, vous devez utiliser une valeur comprise entre 1 et 7 pour le
paramètre. Cependant, dans certains cas, la modification de la valeur du paramètre ne modifie pas le niveau de journalisation. -
Certains journaux de Storage I/O Control peuvent provoquer un déversement de journaux dans les fichiers
storagerm.log
etsdrsinjector.log
. Cette situation peut entraîner une rotation rapide des journaux. -
Les banques de données VMFS dépendant de LUN disposant d'une granularité de démappage optimale supérieure à 1 Mo peuvent passer en verrouillage sur disque répété lors du traitement du démappage automatique. Par conséquent, les opérations de mise au repos des machines virtuelles sur ces banques de données peuvent prendre plus de temps que d'habitude.
-
Vous pouvez modifier la priorité de récupération d'espace par défaut d'une banque de données VMFS à l'aide de la commande ESXCLI
esxcli storage vmfs reclaim config set --reclaim-priority
. Par exemple, pour modifier la priorité de la récupération d'espace, qui annule le mappage des blocs inutilisés de la banque de données vers le LUN dont dépend cette banque de données, sur aucun à partir du taux faible par défaut, exécutez la commande :esxcli storage vmfs reclaim config set --volume-label datastore_name --reclaim-priority none
La modification prend uniquement effet sur l'hôte ESXi sur lequel vous exécutez la commande, pas sur d'autres hôtes qui utilisent la même banque de données. -
Si les volumes VMFS sont fréquemment ouverts et fermés, vous pourriez voir des messages dans les journaux VMkernel tels que
does not support unmap
lors de l'ouverture d'un volume etExiting async journal replay manager world
lors de la fermeture d'un volume. -
Une configuration vSAN sur un hôte ESXi disposant de 4 groupes de disques ou plus s'exécutant sur une configuration NUMA de 4 nœuds ou plus peut épuiser les ressources de mémoire de sections de VMkernel sur cet hôte dédié à un nœud NUMA donné. D'autres nœuds NUMA sur le même hôte peuvent avoir plus de ressources de mémoire de sections. Cependant, VMkernel peut générer prématurément une condition de mémoire insuffisante au lieu d'utiliser la capacité de mémoire de sections excédentaire des autres nœuds NUMA. Par conséquent, la condition de mémoire insuffisante peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet ou l'échec d'un groupe de disques vSAN sur cet hôte. Après le redémarrage de l'hôte, dans le fichier
vmkernel.log
, vous pouvez voir une erreur telle queThrottled: BlkAttr not ready for disk.
-
Lors du chargement des modules de noyau, la commande du chargeur de module VMkernel
vmkload_mod
utilisée pour charger les modules de pilote de périphérique et de forme de réseau dans VMkernel, peut être migrée vers un autre nœud NUMA. Dans ce cas, une non-correspondance du total de contrôle entre les nœuds NUMA peut se produire. Cela peut entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet. -
Certains comptes d'utilisateur, liés à NSX-T, sont disponibles uniquement après un démarrage. Du fait qu'ils n'existent pas au moment du démarrage, la correction du temps de démarrage d'un hôte ESXi sans état peut échouer lorsque ces comptes entrent dans la liste d'utilisateurs d'exceptions du mode de verrouillage. Dans le fichier
syslog.log
, vous pouvez voir une ligne semblable à :key = 'POST_BOOT_CONFIG_FAILED', value = 'Failed to update user accounts exempted from Lockdown Mode. Invalid user specified: mux_user'
-
Si vous essayez d'effectuer une mise à niveau en direct vers ESXi 7.0 à partir d'une version d'ESXi antérieure, installée en tant qu'image de vidage de disque, à l'aide de la commande
esxiso2dd
et de VMware Tools version 4.0 ou version ultérieure, certains fichiers VMware Tools peuvent être manquants dans l'emplacement/productLocker
. Les versions antérieures d'ESXi utilisent un système de fichiers VFAT non sensible à la casse. Toutefois, ESXi 7.0 utilise VMFS-L, ce qui effectue des vérifications de nom de fichier sensibles à la casse et les fichiers qui échouent cette vérification ne sont pas ajoutés à ProductLocker. -
Si l'une des familles d'adresses sur un contrôleur de domaine à double pile n'est pas activée, par exemple IPv6, même après la désactivation d'IPv6 sur le contrôleur, il est possible qu'un ping CLDAP vers une adresse IPv6 soit toujours possible. Cela peut entraîner un délai d'expiration et déclencher une erreur indiquant que le centre de données n'est pas disponible, par exemple
Error: NERR_DCNotFound [code 0x00000995]
. Par conséquent, vous risquez de ne pas pouvoir ajouter des hôtes ESXi au domaine. -
Les mises à niveau vers ESXi 7.0 à partir d'une image personnalisée ou standard d'ESXi 6.x avec une version asynchrone de pilotes iSCSI de déchargement peuvent échouer avec des messages similaires à
Fatal Error: 15 (Not Found)
ouError loading /vmfs/volumes//b.b00
. Les ensembles de pilotes iSCSI de déchargement concernés sontbnx2i
/qfle3i
,be2iscsi
/elxiscsi
etqedil
/qedi
. Ce problème peut également se produire dans des environnements disposant de plug-ins iSCSI logiciel et d'API de gestion iSCSI.
Les messages de la page de chargement d'ESXi s'affichent lors de la phase de redémarrage de la mise à niveau que vous pouvez effectuer à l'aide de vSphere Lifecycle Manager ou ESXCLI. Si vous utilisez vSphere Lifecycle Manager, votre système vCenter Server restaure l'image précédente lors de la réinitialisation. Ce problème concerne principalement les systèmes dotés d'adaptateurs réseau convergés (CNA) QLogic 578XX compatibles iSCSI, de CNA Emulex OneConnect compatibles iSCSI, de CNA QLogic FastLinQ QL4xxxx ou de configurations logicielles iSCSI. Le problème ne se produit pas si le CNA est configuré uniquement pour FCoE. -
Si vous exécutez une requête CIM telle que
enum_instances
à un port VMkernel récemment ajouté sur un hôte ESXi, le service SFCB peut échouer, car il ne peut pas valider l'adresse IP de la nouvelle instance. Par exemple, si IPv6 est activé et configuré comme statique, mais que l'adresse IPv6 est vide, l'interrogation de l'une des classes CIMCIM_IPProtocolEndpoint
ouVMware_KernelIPv6ProtocolEndpoint
génère un vidage mémoire SFCB. -
Si vous restaurez une configuration sauvegardée à l'aide de
backup.sh
après plus de 7 jours, les paramètres du périphérique de stockage comme Is perennially reserved peuvent être perdus. Cela se produit, car les horodatages indiquant quand les périphériques ont été vus pour la dernière fois sont également sauvegardés et si le périphérique n'a pas été actif pendant plus de 7 jours, les entrées du périphérique de/etc/vmware/esx.conf
sont supprimées. Par conséquent, l'opération de restauration peut restaurer des horodatages plus anciens. -
Dans certains cas, lorsque les espaces de noms sont démappés sur un site cible et remappés, cette instance d'ESXi peut ne pas récupérer l'espace de noms remappé. Cela se produit lorsque le nettoyage de l'ancienne instance de l'espace de noms n'est pas terminé. Dans ce cas, pour redécouvrir les espaces de noms, vous devez réinitialiser le contrôleur NVMe.
-
Le service de fichiers vSAN prend en charge jusqu'à 8 adresses IP dans le pool d'adresses IP statiques. Si un cluster vSAN dispose de plus de 8 hôtes, vous pouvez entrer plus de 8 adresses IP pendant la configuration du service de fichiers. Cependant, il n'est pas possible d'utiliser des adresses IP supplémentaires.
-
Lorsqu'un hôte vSAN utilise la déduplication et la compression, les opérations de suppression ne peuvent pas se terminer, ce qui entraîne l'épuisement de l'espace du système de fichiers.
-
Si un périphérique NVMe est supprimé et ajouté à chaud avant la fin du nettoyage de la pile de stockage, ce qui dure généralement environ 60 secondes, le pilote PCIe ne parvient pas à imprimer
Disabled hotplug
. Par conséquent, vous pouvez voir un messagePériphérique déjà présent
. Enfin, l'hôte ESXi peut échouer avec un écran de diagnostic violet avec une erreur telle queLINT1/NMI (motherboard nonmaskable interrupt), undiagnosed
.
-
Nom du profil | ESXi-7.0bs-16321839-standard |
Build | Pour obtenir des informations sur le build, rendez-vous en haut de la page. |
Fournisseur | VMware, Inc. |
Date de publication | 16 juin 2020 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417, 2564270 |
Numéros CVE associés | CVE-2020-3962, CVE-2020-3963, CVE-2020-3964, CVE-2020-3965, CVE-2020-3966, CVE-2020-3967, CVE-2020-3968, CVE-2020-3969, CVE-2020-3970 |
Met à jour les VIB vdfs, esx-xserver, vsan, esx-base, esx-ui, esx-dvfilter-generic-fastpath, native-misc-drivers, vsanhealth, cpu-microcode
et crx
pour résoudre les problèmes suivants :
- Ce correctif met à jour les problèmes suivants :
-
La bibliothèque ESXi libsqlite3 est mise à jour vers la version 3.31.1.
-
La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.10.
-
La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.69.1.
-
La bibliothèque ESXi Python est mise à jour vers la version 3.5.9 et Freetype Python est mis à jour vers la version 2.9.
-
La bibliothèque ESXi NTP est mise à jour vers la version 4.2.8p14.
-
VMware ESXi contient une vulnérabilité use-after-free dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3962 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité use-after-free dans PVNVRAM. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3963 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une fuite d'informations dans le contrôleur USB EHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3964 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une fuite d'informations dans le contrôleur USB XHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3965 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient un dépassement de mémoire en raison d'un problème de condition de concurrence dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3966 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité de dépassement de capacité du segment de mémoire dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3967 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité d'écriture hors limites dans le contrôleur USB 3.0 (xHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3968 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulérabilité off-by-one heap-overflow dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3969 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité de lecture hors limites dans la fonctionnalité Shader. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3970 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
Dans ESXi 7.0b, un sous-ensemble d'images ISO de VMware Tools 11.1.0 est intégré à l'hôte ESXi 7.0b.
Les images ISO de VMware Tools 11.1.0 suivantes sont intégrées à ESXi :
windows.iso
: Image de VMware Tools pour Windows 7 SP1 ou Windows Server 2008 R2 SP1 ou version ultérieurelinux.iso
: Image de VMware Tools 10.3.22 pour les versions plus anciennes de Linux OS avec glibc 2.5 ou version ultérieure
Les images ISO de VMware Tools 10.3.10 suivantes sont disponibles au téléchargement :
Solaris.iso
: Image de VMware Tools pour Solarisdarwin.iso
: Image de VMware Tools pour OSX
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
-
Nom du profil | ESXi-7.0bs-16321839-no-tools |
Build | Pour obtenir des informations sur le build, rendez-vous en haut de la page. |
Fournisseur | VMware, Inc. |
Date de publication | 16 juin 2020 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417 |
Numéros CVE associés | CVE-2020-3962, CVE-2020-3963, CVE-2020-3964, CVE-2020-3965, CVE-2020-3966, CVE-2020-3967, CVE-2020-3968, CVE-2020-3969, CVE-2020-3970 |
Met à jour les VIB vdfs, esx-xserver, vsan, esx-base, esx-ui, esx-dvfilter-generic-fastpath, native-misc-drivers, vsanhealth, cpu-microcode
et crx
pour résoudre les problèmes suivants :
- Ce correctif met à jour les problèmes suivants :
-
La bibliothèque ESXi libsqlite3 est mise à jour vers la version 3.31.1.
-
La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.10.
-
La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.69.1.
-
La bibliothèque ESXi Python est mise à jour vers la version 3.5.9 et Freetype Python est mis à jour vers la version 2.9.
-
La bibliothèque ESXi NTP est mise à jour vers la version 4.2.8p14.
-
VMware ESXi contient une vulnérabilité use-after-free dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3962 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité use-after-free dans PVNVRAM. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3963 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une fuite d'informations dans le contrôleur USB EHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3964 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une fuite d'informations dans le contrôleur USB XHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3965 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient un dépassement de mémoire en raison d'un problème de condition de concurrence dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3966 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité de dépassement de capacité du segment de mémoire dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3967 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité d'écriture hors limites dans le contrôleur USB 3.0 (xHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3968 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulérabilité off-by-one heap-overflow dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3969 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
VMware ESXi contient une vulnérabilité de lecture hors limites dans la fonctionnalité Shader. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3970 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.
-
Dans ESXi 7.0b, un sous-ensemble d'images ISO de VMware Tools 11.1.0 est intégré à l'hôte ESXi 7.0b.
Les images ISO de VMware Tools 11.1.0 suivantes sont intégrées à ESXi :
windows.iso
: Image de VMware Tools pour Windows 7 SP1 ou Windows Server 2008 R2 SP1 ou version ultérieurelinux.iso
: Image de VMware Tools 10.3.22 pour les versions plus anciennes de Linux OS avec glibc 2.5 ou version ultérieure
Les images ISO de VMware Tools 10.3.10 suivantes sont disponibles au téléchargement :
Solaris.iso
: Image de VMware Tools pour Solarisdarwin.iso
: Image de VMware Tools pour OSX
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
-
Nom | ESXi |
Version | 7.0b - 16324942 |
Date de publication | 16 juin 2020 |
Catégorie | Amélioration |
Composants concernés |
|
PR résolus | 2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690, 2554114 |
Nom | ESXi |
Version | 7.0bs - 16321839 |
Date de publication | 16 juin 2020 |
Catégorie | Amélioration |
Composants concernés |
|
PR résolus | 2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417 |
Problèmes connus
Les problèmes connus sont classés comme suit :
Problèmes de mise à niveau- PR 2579437 : La mise à niveau vers ESXi 7.0b échoue avec l'erreur L'opération ne peut pas continuer en raison de la rétrogradation des composants suivants : VMware-VM-Tools
Lors de la mise à niveau d'ESXi à l'aide de Lifecycle Manager vSphere, si vous sélectionnez une nouvelle image de base ESXi dans le menu déroulant Version d'ESXi et que vous ne supprimez pas le composant Async VMware Tools de la section Composants, la mise à niveau échoue. Dans vSphere Client, vous voyez une erreur telle que
L'opération ne peut pas continuer en raison de la rétrogradation des composants suivants : VMware-VM-Tools.
Ce problème se produit, car le composant Async VMware Tools d'ESXi 7.0 remplace le composant dans l'image de base sélectionnée.Solution : supprimez le composant Async VMware Tools de la section Composants de votre image. Pour plus de détails, consultez l'article 79442 de la base de connaissances VMware.