Date de publication : 23 juin 2020

Contenu des notes de mise à jour

Les notes de mise à jour couvrent les sujets suivants :

Nouveautés

  • Avec ESXi 7.0b, les fonctionnalités de simplification de maintenance du périphérique Dell NVMe, notamment les informations avancées sur le périphérique et la capacité de gestion des voyants, sont activées par défaut.
  • Avec ESXi 7.0b, vSphere Quick Boot est pris en charge sur les serveurs suivants :
    • Cisco HX220C-M4S
    • Cisco HX220C-M5SX
    • Cisco HX240C-M4SX
    • Cisco HX240C-M5L
    • Cisco HX240C-M5SX
    • Cisco HXAF220C-M4S
    • Cisco HXAF220C-M5SN
    • Cisco HXAF220C-M5SX
    • Cisco HXAF240C-M4SX
    • Cisco HXAF240C-M5SX
    • Cisco UCSB-B200-M4
    • Cisco UCSB-EX-M4-1 (B260 M4 v2)
    • Cisco UCSB-EX-M4-1 (B460 M4 v2)
    • Cisco UCSB-EX-M4-2 (B260 M4 v3)
    • Cisco UCSB-EX-M4-2 (B460 M4 v3)
    • Cisco UCSB-EX-M4-3 (B260 M4 v4)
    • Cisco UCSB-EX-M4-3 (B460 M4 v4)
    • Cisco UCSC-480-M5
    • Cisco UCSC-480-M5ML
    • Cisco UCSC-C220-M4S
    • Cisco UCSC-C220-M5L
    • Cisco UCSC-C220-M5SN
    • Cisco UCSC-C240-M4S2
    • Cisco UCSC-C240-M4SX
    • Cisco UCSC-C240-M5L
    • Cisco UCSC-C240-M5S
    • Cisco UCSC-C240-M5SN
    • Cisco UCSC-C240-M5SX
    • Fujitsu Primergy RX2530 M5
    • HPE ProLiant DL325 Gen 10
    • Lenovo ThinkSystem SR 650
  • Avec ESXi 7.0b, les serveurs suivants sont ajoutés à la prise en charge de vSphere Quick Boot :
    • HPE ProLiant DL380 Gen9
    • HPE ProLiant DL560 Gen9
    • HPE ProLiant DL580 Gen9

Détails de la build

Nom de fichier de téléchargement : VMware-ESXi-7.0b-16324942-depot
Build : 16324942
Taille du téléchargement : 508,5 Mo
md5sum : 18a8c2243a0bd15286c331092ab028fc
sha1checksum : d0a02bbf0716364fb3e799501357944c88e17401
Redémarrage de l'hôte requis : Oui
Migration ou arrêt de la machine virtuelle requis : Oui

Composants

Composant Bulletin Catégorie Gravité
ESXi ESXi_7.0.0-1.25.16324942 Correctif de bogues Critique
ESXi ESXi_7.0.0-1.20.16321839 Sécurité Critique
Composant d'installation/mise à niveau d'ESXi esx-update_7.0.0-1.25.16324942 Correctif de bogues Critique
Composant d'installation/mise à niveau d'ESXi esx-update_7.0.0-1.20.16321839 Sécurité Critique
Pilote USB VMware VMware-vmkusb_0.1-1vmw.700.1.25.16324942 Correctif de bogues Important
Pilote de stockage VMware NVMe PCI Express VMware-NVMe-PCIe_1.2.2.14-1vmw.700.1.25.16324942 Correctif de bogues Important
VMware-VM-Tools VMware-VM-Tools_11.1.0.16036546-16321839 Sécurité Important

IMPORTANT : À partir de vSphere 7.0, VMware utilise des composants pour le conditionnement des VIB avec des bulletins. Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.

Bulletin de cumul

Ce bulletin de cumul contient les derniers VIB avec tous les correctifs depuis la publication initiale d'ESXi 7.0.

ID de bulletin Catégorie Gravité
ESXi70b-16324942 Correctif de bogues Critique

Profils d'image

Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques. L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.

Nom de profil d'image
ESXi-7.0b-16324942-standard
ESXi-7.0b-16324942-no-tools
ESXi-7.0bs-16321839-standard
ESXi-7.0bs-16321839-no-tools

Image ESXi

Nom et version Date de publication Catégorie Détail
ESXi 7.0b - 16324942 16/06/2020 Amélioration Image de sécurité et de résolutions de bogues
ESXi 7.0bs - 16321839 16/06/2020 Amélioration Image de sécurité uniquement

Pour plus d'informations sur les composants et bulletins individuels, consultez la page Correctifs de produits et la section Problèmes résolus.

Téléchargement et installation de correctifs

Dans vSphere 7.0, le plug-in Update Manager, utilisé pour l'administration de vSphere Update Manager, est remplacé par le plug-in Lifecycle Manager. Les opérations d'administration pour vSphere Update Manager sont toujours disponibles sous le plug-in Lifecycle Manager, avec de nouvelles capacités pour vSphere Lifecycle Manager.
La manière habituelle d'appliquer des correctifs aux hôtes ESXi 7.0.x consiste à utiliser Lifecycle Manager. Pour plus d'informations, consultez À propos de vSphere Lifecycle Manager et Lignes de base et images de vSphere Lifecycle Manager.
Vous pouvez également mettre à jour des hôtes ESXi sans utiliser vSphere Lifecycle Manager à l'aide d'un profil d'image. Pour ce faire, téléchargez manuellement le fichier ZIP du bundle hors ligne du correctif sur la page Téléchargement de VMware ou sur la page Correctifs de produits, puis utilisez la commande esxcli software profile.
Pour plus d'informations, consultez Mise à niveau des hôtes à l'aide des commandes ESXCLI et le guide Mise à niveau de VMware ESXi.

Problèmes résolus

Les problèmes résolus sont regroupés comme suit :

ESXi_7.0.0-1.25.16324942
Catégorie des correctifs Correctif de bogues
Gravité des correctifs Critique
Redémarrage de l'hôte requis Oui
Migration ou arrêt de la machine virtuelle requis Oui
Matériel concerné S.O.
Logiciels concernés S.O.
VIB inclus
  • VMware_bootbank_vdfs_7.0.0-1.25.16324942
  • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.25.16324942
  • VMware_bootbank_vsanhealth_7.0.0-1.25.16324942
  • VMware_bootbank_esx-ui_1.34.0-15603211
  • VMware_bootbank_vsan_7.0.0-1.25.16324942
  • VMware_bootbank_esx-base_7.0.0-1.25.16324942
  • VMware_bootbank_crx_7.0.0-1.25.16324942
  • VMware_bootbank_native-misc-drivers_7.0.0-1.25.16324942
  • VMware_bootbank_esx-xserver_7.0.0-1.25.16324942
  • VMware_bootbank_cpu-microcode_7.0.0-1.25.16324942

PR résolus 

2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690
Numéros CVE S.O.

Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.

Met à jour les VIB esx-dvfilter-generic-fastpath, vsanhealth, esx-ui, vdfs, vsan, esx-base, crx, native-misc-drivers, esx-xserver et cpu-microcode pour résoudre les problèmes suivants :

  • Cette version met à jour le microcode Intel pour les CPU pris en charge par ESXi vers les révisions dont la production a été vérifiée le 29 avril 2020. Consultez le tableau des mises à jour du microcode actuellement incluses.

    Remarque : Les mises à jour du microcode publiées par Intel le 9 juin 2020 ne sont pas toutes incluses. Intel a mis à disposition les mises à jour de plusieurs
    CPU trop retard pour que VMware les teste et les inclue dans cette version de correctif d'ESXi. Pour obtenir le dernier microcode, contactez votre fournisseur de matériel pour une mise à jour du BIOS.

    Nom de code FMS ID de PLT Révision de MCU Date de MCU Noms de marque
    Nehalem EP 0x106a5 0x03 0x0000001d 11/05/2018 Intel Xeon 35xx Series ;
    Intel Xeon 55xx Series
    Lynnfield 0x106e5 0x13 0x0000000a 08/05/2018 Intel Xeon 34xx Lynnfield Series
    Clarkdale 0x20652 0x12 0x00000011 08/05/2018 Intel i3/i5 Clarkdale Series
    Intel Xeon 34xx Clarkdale Series
    Arrandale 0x20655 0x92 0x00000007 23/04/2018 Processeur Intel Core i7-620LE
    Sandy Bridge DT 0x206a7 0x12 0x0000002f 17/02/2019 Intel Xeon E3-1100 Series ;
    Intel Xeon E3-1200 Series ;
    Intel i7-2655-LE Series
    Intel i3-2100 Series
    Westmere EP 0x206c2 0x03 0x0000001f 08/05/2018 Intel Xeon série 56xx
    Intel Xeon 36xx Series
    Sandy Bridge EP 0x206d6 0x6d 0x00000621 04/03/2020 Intel Pentium 1400 Series
    Intel Xeon E5-1400 Series ;
    Intel Xeon E5-1600 Series ;
    Intel Xeon E5-2400 Series ;
    Intel Xeon E5-2600 Series ;
    Intel Xeon E5-4600 Series
    Sandy Bridge EP 0x206d7 0x6d 0x0000071a 24/03/2020 Intel Pentium 1400 Series
    Intel Xeon E5-1400 Series ;
    Intel Xeon E5-1600 Series ;
    Intel Xeon E5-2400 Series ;
    Intel Xeon E5-2600 Series ;
    Intel Xeon E5-4600 Series
    Nehalem EX 0x206e6 0x04 0x0000000d 15/05/2018 Intel Xeon 65xx Series ;
    Intel Xeon 75xx Series
    Westmere EX 0x206f2 0x05 0x0000003b 16/05/2018 Intel Xeon E7-8800 Series ;
    Intel Xeon E7-4800 Series ;
    Intel Xeon E7-2800 Series
    Ivy Bridge DT 0x306a9 0x12 0x00000021 13/02/2019 Intel i3-3200 Series ;
    Intel i7-3500-LE/UE
    Intel i7-3600-QE
    Intel Xeon E3-1200-v2 Series;
    Intel Xeon E3-1100-C-v2 Series
    Intel Pentium B925C
    Haswell DT 0x306c3 0x32 0x00000028 12/11/2019 Intel Xeon E3-1200-v3 Series ;
    Intel i7-4700-EQ Series
    Intel i5-4500-TE Series
    Intel i3-4300 Series
    Ivy Bridge EP 0x306e4 0xed 0x0000042e 14/03/2019 Intel Xeon E5-4600-v2 Series ;
    Intel Xeon E5-2600-v2 Series ;
    Intel Xeon E5-2400-v2 Series ;
    Intel Xeon E5-1600-v2 Series ;
    Intel Xeon E5-1400-v2 Series
    Ivy Bridge EX 0x306e7 0xed 0x00000715 14/03/2019 Intel Xeon E7-8800/4800/2800-v2 Series
    Haswell EP 0x306f2 0x6f 0x00000043 01/03/2019 Intel Xeon E5-4600-v3 Series ;
    Intel Xeon E5-2600-v3 Series ;
    Intel Xeon E5-2400-v3 Series ;
    Intel Xeon E5-1600-v3 Series ;
    Intel Xeon E5-1400-v3 Series
    Haswell EX 0x306f4 0x80 0x00000016 17/06/2019 Intel Xeon E7-8800/4800-v3 Series
    Broadwell H 0x40671 0x22 0x00000022 12/11/2019 Intel Core i7-5700EQ
    Intel Xeon E3-1200-v4 Series
    Avoton 0x406d8 0x01 0x0000012d 16/09/2019 Intel Atom C2300 Series ;
    Intel Atom C2500 Series ;
    Intel Atom C2700 Series
    Broadwell EP/EX 0x406f1 0xef 0x0b000038 18/06/2019 Intel Xeon E7-8800/4800-v4 Series ;
    Intel Xeon E5-4600-v4 Series ;
    Intel Xeon E5-2600-v4 Series ;
    Intel Xeon E5-1600-v4 Series
    Skylake SP 0x50654 0xb7 0x02006901 12/02/2020 Intel Xeon Platinum 8100 Series ;
    Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100 Series
    Intel Xeon D-2100 Series ;
    Intel Xeon D-1600 Series ;
    Intel Xeon W-3100 Series ;
    Intel Xeon W-2100 Series
    Cascade Lake B-0 0x50656 0xbf 0x04002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
    Intel Xeon Gold 6200/5200 ;
    Intel Xeon Silver 4200/Bronze 3200 ;
    Intel Xeon W-3200
    Cascade Lake 0x50657 0xbf 0x05002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
    Intel Xeon Gold 6200/5200 ;
    Intel Xeon Silver 4200/Bronze 3200 ;
    Intel Xeon W-3200
    Broadwell DE 0x50662 0x10 0x0000001c 17/06/2019 Intel Xeon D-1500 Series
    Broadwell DE 0x50663 0x10 0x07000019 17/06/2019 Intel Xeon D-1500 Series
    Broadwell DE 0x50664 0x10 0x0f000017 17/06/2019 Intel Xeon D-1500 Series
    Broadwell NS 0x50665 0x10 0x0e00000f 17/06/2019 Intel Xeon D-1600 Series
    Skylake H/S 0x506e3 0x36 0x000000d6 03/10/2019 Intel Xeon E3-1500-v5 Series ;
    Intel Xeon E3-1200-v5 Series
    Denverton 0x506f1 0x01 0x0000002e 21/03/2019 Intel Atom C3000 Series
    Kaby Lake H/S/X 0x906e9 0x2a 0x000000ca 03/10/2019 Intel Xeon E3-1200-v6 Series ;
    Intel Xeon E3-1500-v6 Series
    Coffee Lake 0x906ea 0x22 0x000000cc 08/12/2019 Intel Xeon E-2100 Series ;
    Intel Xeon E-2200 Series (4 ou 6 cœurs)
    Coffee Lake 0x906eb 0x02 0x000000ca 03/10/2019 Intel Xeon E-2100 Series
    Coffee Lake 0x906ec 0x22 0x000000ca 03/10/2019 Intel Xeon E-2100 Series
    Coffee Lake Refresh 0x906ed 0x22 0x000000cc 12/12/2019 Intel Xeon E-2200 Series (8 cœurs)
  • PR 2536681 : Les alias de périphérique peuvent ne pas être dans l'ordre attendu sur les hôtes ESXi conformes à SMBIOS 3.2 ou version ultérieure

    Dans les versions antérieures à ESXi 7.0b, l'analyse ESXi de la table SMBIOS dans le microprogramme de l'hôte pour déterminer l'ordre dans lequel les alias de périphérique sont attribués n'est pas entièrement compatible avec SMBIOS 3.2 ou version ultérieure. Par conséquent, les hôtes ESXi peuvent attribuer des alias de périphérique dans l'ordre incorrect.

    Ce problème est résolu dans cette version. Pour plus d'informations sur la correction de l'ordre des alias de périphérique, consultez l'article 2091560 de la base de connaissances VMware.

  • PR 2486316 : Des hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors de l'exécution de la fonction timerCallback

    Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lorsque la pile de stockage du noyau exécute une fonction timerCallback. La fonction timerCallback s'exécute de manière non préemptive. Cependant, dans certains cas, la pile de stockage du noyau peut essayer d'activer la préemption sur un CPU, lors de l'exécution d'une fonction timerCallback. Par conséquent, l'hôte ESXi échoue avec une erreur semblable à :
    PSOD : Assert bora/vmkernel/main/bh.c:981

    Ce problème est résolu dans cette version.

  • PR 2503110 : la définition du paramètre SIOControlLoglevel après l'activation de la journalisation de Storage I/O Control peut ne pas modifier les niveaux de journal

    La journalisation pour Storage I/O Control est désactivée par défaut. Pour activer et définir un niveau de journalisation, vous devez utiliser une valeur comprise entre 1 et 7 pour le
    paramètre. Cependant, dans certains cas, la modification de la valeur du paramètre ne modifie pas le niveau de journalisation.

    Ce problème est résolu dans cette version.

  • PR 2503110 : l'activation du journal de VMware vSphere Storage I/O Control peut entraîner la saturation des serveurs syslog et rsyslog

    Certains journaux de Storage I/O Control peuvent provoquer un déversement de journaux dans les fichiers storagerm.log et sdrsinjector.log. Cette situation peut entraîner une rotation rapide des journaux.

    Ce problème est résolu dans cette version. Le correctif déplace certains journaux de la destination Log normale vers Log_Trivia pour empêcher toute journalisation supplémentaire.

  • PR 1221281 : Les opérations de mise au repos des machines virtuelles sur des volumes sauvegardés par des LUN prenant en charge une valeur de granularité de démappage supérieure à 1 Mo peuvent être plus longues que d'habitude

    Les banques de données VMFS dépendant de LUN disposant d'une granularité de démappage optimale supérieure à 1 Mo peuvent passer en verrouillage sur disque répété lors du traitement du démappage automatique. Par conséquent, les opérations de mise au repos des machines virtuelles sur ces banques de données peuvent prendre plus de temps que d'habitude.

    Ce problème est résolu dans cette version.

  • PR 2549419 : la définition de la priorité de récupération d'espace sur une banque de données VMFS peut ne pas fonctionner pour tous les hôtes ESXi utilisant la banque de données

    Vous pouvez modifier la priorité de récupération d'espace par défaut d'une banque de données VMFS à l'aide de la commande ESXCLI esxcli storage vmfs reclaim config set  --reclaim-priority. Par exemple, pour modifier la priorité de la récupération d'espace, qui annule le mappage des blocs inutilisés de la banque de données vers le LUN dont dépend cette banque de données, sur aucun à partir du taux faible par défaut, exécutez la commande :
    esxcli storage vmfs reclaim config set --volume-label datastore_name --reclaim-priority none
    La modification prend uniquement effet sur l'hôte ESXi sur lequel vous exécutez la commande, pas sur d'autres hôtes qui utilisent la même banque de données.

    Ce problème est résolu dans cette version.

  • PR 2550655 : vous pouvez voir un engorgement des journaux VMkernel lorsque des volumes VMFS sont fréquemment ouverts et fermés

    Si les volumes VMFS sont fréquemment ouverts et fermés, vous pourriez voir des messages dans les journaux VMkernel tels que does not support unmap lors de l'ouverture d'un volume et Exiting async journal replay manager world lors de la fermeture d'un volume.

    Ce problème est résolu dans cette version. Les entrées de journal does not support unmap lors de l'ouverture d'un volume VMFS et Exiting async journal replay manager world lors de la fermeture d'un volume ne sont plus visibles.

  • PR 2554564 : les hôtes ESXi disposant de 4 groupes de disques vSAN ou plus peuvent échouer avec un écran de diagnostic violet en raison d'une condition de mémoire insuffisante dans les configurations NUMA disposant de 4 nœuds ou plus

    Une configuration vSAN sur un hôte ESXi disposant de 4 groupes de disques ou plus s'exécutant sur une configuration NUMA de 4 nœuds ou plus peut épuiser les ressources de mémoire de sections de VMkernel sur cet hôte dédié à un nœud NUMA donné. D'autres nœuds NUMA sur le même hôte peuvent avoir plus de ressources de mémoire de sections. Cependant, VMkernel peut générer prématurément une condition de mémoire insuffisante au lieu d'utiliser la capacité de mémoire de sections excédentaire des autres nœuds NUMA. Par conséquent, la condition de mémoire insuffisante peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet ou l'échec d'un groupe de disques vSAN sur cet hôte. Après le redémarrage de l'hôte, dans vmkernel.log, vous pourriez voir une erreur telle que Throttled: BlkAttr not ready for disk.

    Ce problème est résolu dans cette version.

  • PR 2554116 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors du chargement d'un module de noyau pendant le démarrage

    Lors du chargement des modules de noyau, la commande du chargeur de module VMkernel vmkload_mod utilisée pour charger les modules de pilote de périphérique et de forme de réseau dans VMkernel, peut être migrée vers un autre nœud NUMA. Dans ce cas, une non-correspondance du total de contrôle entre les nœuds NUMA peut se produire. Cela peut entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet.

    Ce problème est résolu dans cette version.

  • PR 2489840 : Lorsque VMware NSX-T et le mode de verrouillage sont activés, un hôte ESXi sans état peut faire échouer la correction du temps de démarrage et rester en mode de maintenance

    Certains comptes d'utilisateur, liés à NSX-T, sont disponibles uniquement après un démarrage. Du fait qu'ils n'existent pas au moment du démarrage, la correction du temps de démarrage d'un hôte ESXi sans état peut échouer lorsque ces comptes entrent dans la liste d'utilisateurs d'exceptions du mode de verrouillage. Le journal syslog.log inclut une ligne semblable à celle-ci :
    key = 'POST_BOOT_CONFIG_FAILED', value = 'Failed to update user accounts exempted from Lockdown Mode. Invalid user specified: mux_user'

    Ce problème est résolu dans cette version.

  • PR 2548068 : Certains fichiers peuvent être manquants dans ProductLocker lors de l'exécution d'une mise à niveau en direct vers ESXi 7.0 à partir d'une version antérieure de l'image de vidage de disque d'un hôte ESXi

    Si vous tentez d'effectuer une mise à niveau en direct vers ESXi 7.0 à partir d'une version de ESXi antérieure, installée en tant qu'image de vidage de disque, à l'aide de la commande esxiso2dd et de VMware Tools version 4.0 ou version ultérieure, certains fichiers VMware Tools peuvent être manquants dans l'emplacement /productLocker. Les versions antérieures d'ESXi utilisent un système de fichiers VFAT non sensible à la casse. Toutefois, ESXi 7.0 utilise VMFS-L, ce qui effectue des vérifications de nom de fichier sensibles à la casse et les fichiers qui échouent cette vérification ne sont pas ajoutés à ProductLocker.

    Ce problème est résolu dans cette version.

  • PR 2556037 : si l'une des familles d'adresses sur un contrôleur de domaine à double pile n'est pas activée, l'ajout d'hôtes ESXi au domaine peut échouer de manière aléatoire

    Si l'une des familles d'adresses sur un contrôleur de domaine à double pile n'est pas activée, par exemple IPv6, même après la désactivation d'IPv6 sur le contrôleur, il est possible qu'un ping CLDAP vers une adresse IPv6 soit toujours possible. Cela peut entraîner un délai d'expiration et déclencher une erreur indiquant que le centre de données n'est pas disponible, par exemple Error: NERR_DCNotFound [code 0x00000995]. Par conséquent, vous risquez de ne pas pouvoir ajouter des hôtes ESXi au domaine.

    Ce problème est résolu dans cette version.

  • PR 2572393 : Les mises à niveau vers ESXi 7.0 à partir d'un hôte ESXi 6.x avec des périphériques iSCSI peuvent échouer avec un message d'erreur fatale lors du démarrage d'ESXi

    Les mises à niveau vers ESXi 7.0 à partir d'une image personnalisée ou standard d'ESXi 6.x avec une version asynchrone de pilotes iSCSI de déchargement peuvent échouer avec des messages semblables à Fatal Error: 15 (Not Found) ou Error loading /vmfs/volumes/ /b.b00 . Les ensembles de pilotes iSCSI de déchargement concernés sont bnx2i/qfle3i, be2iscsi/elxiscsi et qedil/qedi. Ce problème peut également se produire dans des environnements disposant de plug-ins iSCSI logiciel et d'API de gestion iSCSI.
    Les messages de la page de chargement d'ESXi s'affichent lors de la phase de redémarrage de la mise à niveau que vous pouvez effectuer à l'aide de vSphere Lifecycle Manager ou ESXCLI.  Si vous utilisez vSphere Lifecycle Manager, votre système vCenter Server restaure l'image précédente lors de la réinitialisation. Ce problème concerne principalement les systèmes dotés d'adaptateurs réseau convergés (CNA) QLogic 578XX compatibles iSCSI, de CNA Emulex OneConnect compatibles iSCSI, de CNA QLogic FastLinQ QL4xxxx ou de configurations logicielles iSCSI. Le problème ne se produit pas si le CNA est configuré uniquement pour FCoE.

    Ce problème est résolu dans cette version.

  • PR 2544236 : si vous exécutez des requêtes CIM sur un port VMkernel récemment ajouté sur un hôte ESXi, le service SFCB (Small Footprint CIM Broker) peut échouer

    Si vous exécutez une requête CIM, telle que enum_instances sur un port VMkernel récemment ajouté sur un hôte ESXi, le service SFCB peut échouer, car il ne peut pas valider l'adresse IP de la nouvelle instance. Par exemple, si IPv6 est activé et configuré comme statique, mais que l'adresse IPv6 est vide, l'interrogation de l'une des classes CIM CIM_IPProtocolEndpoint ou VMware_KernelIPv6ProtocolEndpoint génère un vidage mémoire SFCB.

    Ce problème est résolu dans cette version.

  • PR 2555270 : Si vous restaurez une configuration de périphérique de stockage sauvegardée après plus de 7 jours, certains paramètres peuvent être perdus

    Si vous restaurez une configuration sauvegardée à l'aide de backup.sh après plus de 7 jours, les paramètres du périphérique de stockage comme Is perennially reserved peuvent être perdus. Cela se produit, car les horodatages indiquant quand les périphériques ont été vus pour la dernière fois sont également sauvegardés et si le périphérique n'a pas été actif pendant plus de 7 jours, les entrées du périphérique de /etc/vmware/esx.conf sont supprimées. Par conséquent, l'opération de restauration peut restaurer des horodatages plus anciens.

    Ce problème est résolu dans cette version.

  • PR 2552532 : Un hôte ESXi peut ne pas récupérer d'espaces de noms remappés

    Dans certains cas, lorsque les espaces de noms sont démappés sur un site cible et remappés, cette instance d'ESXi peut ne pas récupérer l'espace de noms remappé. Cela se produit lorsque le nettoyage de l'ancienne instance de l'espace de noms n'est pas terminé. Dans ce cas, pour redécouvrir les espaces de noms, vous devez réinitialiser le contrôleur NVMe.

    Ce problème est résolu dans cette version.

  • PR 2551359 : la configuration du service de fichiers vSAN autorise plus de 8 adresses IP

    Le service de fichiers vSAN prend en charge jusqu'à 8 adresses IP dans le pool d'adresses IP statiques. Si un cluster vSAN dispose de plus de 8 hôtes, vous pouvez entrer plus de 8 adresses IP pendant la configuration du service de fichiers. Cependant, il n'est pas possible d'utiliser des adresses IP supplémentaires.

    Ce problème est résolu dans cette version. Vous ne pouvez pas entrer plus de 8 adresses IP dans la configuration du service de fichiers.

  • PR 2541690 : les hôtes vSAN avec déduplication manque d'espace lors du traitement des suppressions

    Lorsqu'un hôte vSAN utilise la déduplication et la compression, les opérations de suppression ne peuvent pas se terminer, ce qui entraîne l'épuisement de l'espace du système de fichiers.

    Ce problème est résolu dans cette version.

esx-update_7.0.0-1.25.16324942
Catégorie des correctifs Correctif de bogues
Gravité des correctifs Critique
Redémarrage de l'hôte requis Oui
Migration ou arrêt de la machine virtuelle requis Oui
Matériel concerné S.O.
Logiciels concernés S.O.
VIB inclus
  • VMware_bootbank_loadesx_7.0.0-1.25.16324942
  • VMware_bootbank_esx-update_7.0.0-1.25.16324942
PR résolus  S.O.
Numéros CVE S.O.

Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.

Met à jour les VIB loadesx et esx-update.

    VMware-NVMe-PCIe_1.2.2.14-1vmw.700.1.25.16324942
    Catégorie des correctifs Correctif de bogues
    Gravité des correctifs Critique
    Redémarrage de l'hôte requis Oui
    Migration ou arrêt de la machine virtuelle requis Oui
    Matériel concerné S.O.
    Logiciels concernés S.O.
    VIB inclus
    • VMW_bootbank_nvme-pcie_1.2.2.14-1vmw.700.1.25.16324942
    PR résolus  2554114
    Numéros CVE S.O.

    Met à jour le VIB  nvme-pcie pour résoudre le problème suivant :
    • PR 2554114 : Si un périphérique NVMe est supprimé et ajouté à chaud en moins d'une minute, l'hôte ESXi peut échouer avec un écran de diagnostic violet

      Si un périphérique NVMe est supprimé et ajouté à chaud avant la fin du nettoyage de la pile de stockage, ce qui dure généralement environ 60 secondes, le pilote PCIe ne parvient pas à imprimer Disabled hotplug. Par conséquent, vous pouvez voir un message Périphérique déjà présent. Enfin, l'hôte ESXi peut échouer avec un écran de diagnostic violet avec une erreur telle que
      ​LINT1/NMI (motherboard nonmaskable interrupt), undiagnosed.

      Ce problème est résolu dans cette version. Le correctif réduit le temps d'E/S de la couche PSA d'environ une minute à 1 ms pour suspendre les E/S en cas d'ajout ou de suppression à chaud.

    VMware-vmkusb_0.1-1vmw.700.1.25.16324942
    Catégorie des correctifs Correctif de bogues
    Gravité des correctifs Important
    Redémarrage de l'hôte requis Oui
    Migration ou arrêt de la machine virtuelle requis Oui
    Matériel concerné S.O.
    Logiciels concernés S.O.
    VIB inclus
    • VMW_bootbank_vmkusb_0.1-1vmw.700.1.25.16324942
    PR résolus  S.O.
    Numéros CVE S.O.

    Met à jour  vmkusb VIB.
      ESXi_7.0.0-1.20.16321839
      Catégorie des correctifs Sécurité
      Gravité des correctifs Critique
      Redémarrage de l'hôte requis Oui
      Migration ou arrêt de la machine virtuelle requis Oui
      Matériel concerné S.O.
      Logiciels concernés S.O.
      VIB inclus
      • VMware_bootbank_vdfs_7.0.0-1.20.16321839
      • VMware_bootbank_esx-xserver_7.0.0-1.20.16321839
      • VMware_bootbank_vsan_7.0.0-1.20.16321839
      • VMware_bootbank_esx-base_7.0.0-1.20.16321839
      • VMware_bootbank_esx-ui_1.34.0-15603211
      • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.20.16321839
      • VMware_bootbank_native-misc-drivers_7.0.0-1.20.16321839
      • VMware_bootbank_vsanhealth_7.0.0-1.20.16321839
      • VMware_bootbank_cpu-microcode_7.0.0-1.20.16321839
      • VMware_bootbank_crx_7.0.0-1.20.16321839
      PR résolus  2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417
      Numéros CVE CVE-2020-3962, CVE-2020-3963, CVE-2020-3964, CVE-2020-3965, CVE-2020-3966, CVE-2020-3967, CVE-2020-3968, CVE-2020-3969, CVE-2020-3970

      Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.

      Met à jour les VIB vdfs, esx-xserver, vsan, esx-base, esx-ui, esx-dvfilter-generic-fastpath, native-misc-drivers, vsanhealth, cpu-microcode et crx pour résoudre les problèmes suivants :

      • Mise à jour de la bibliothèque libsqlite3

        La bibliothèque ESXi libsqlite3 est mise à jour vers la version 3.31.1.

      • Mise à jour de la bibliothèque libxml2

        La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.10.

      • Mise à jour de la bibliothèque libcurl

        La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.69.1.

      • Mise à jour de la bibliothèque Python

        La bibliothèque ESXi Python est mise à jour vers la version 3.5.9 et Freetype Python est mis à jour vers la version 2.9.

      • Mise à jour de la bibliothèque NTP

        La bibliothèque ESXi NTP est mise à jour vers la version 4.2.8p14.

        • VMware ESXi contient une vulnérabilité use-after-free dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3962 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

        • VMware ESXi contient une vulnérabilité use-after-free dans PVNVRAM. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3963 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

        • VMware ESXi contient une fuite d'informations dans le contrôleur USB EHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3964 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

        • VMware ESXi contient une fuite d'informations dans le contrôleur USB XHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3965 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

        • VMware ESXi contient un dépassement de mémoire en raison d'un problème de condition de concurrence dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3966 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

        • VMware ESXi contient une vulnérabilité de dépassement de capacité du segment de mémoire dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3967 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

        • VMware ESXi contient une vulnérabilité d'écriture hors limites dans le contrôleur USB 3.0 (xHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3968 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

        • VMware ESXi contient une vulérabilité off-by-one heap-overflow dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3969 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

        • VMware ESXi contient une vulnérabilité de lecture hors limites dans la fonctionnalité Shader. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3970 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

      esx-update_7.0.0-1.20.16321839
      Catégorie des correctifs Sécurité
      Gravité des correctifs Critique
      Redémarrage de l'hôte requis Oui
      Migration ou arrêt de la machine virtuelle requis Oui
      Matériel concerné S.O.
      Logiciels concernés S.O.
      VIB inclus
      • VMware_bootbank_loadesx_7.0.0-1.20.16321839
      • VMware_bootbank_esx-update_7.0.0-1.20.16321839
      PR résolus  S.O.
      Numéros CVE S.O.

      Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.

      Met à jour les VIB loadesx et esx-update.
        VMware-VM-Tools_11.1.0.16036546-16321839
        Catégorie des correctifs Sécurité
        Gravité des correctifs Critique
        Redémarrage de l'hôte requis Oui
        Migration ou arrêt de la machine virtuelle requis Oui
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB inclus
        • VMware_locker_tools-light_11.1.0.16036546-16321839
        PR résolus  2564270
        Numéros CVE S.O.

        Met à jour le VIB tools-light pour résoudre le problème suivant :

        ESXi-7.0b-16324942-standard
        Nom du profil ESXi-7.0b-16324942-standard
        Build Pour obtenir des informations sur le build, rendez-vous en haut de la page.
        Fournisseur VMware, Inc.
        Date de publication 16 juin 2020
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_loadesx_7.0.0-1.25.16324942
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.25.16324942
        • VMware_bootbank_vsanhealth_7.0.0-1.25.16324942
        • VMware_bootbank_esx-update_7.0.0-1.25.16324942
        • VMware_locker_tools-light_11.1.0.16036546-16321839
        • VMware_bootbank_esx-ui_1.34.0-15603211
        • VMware_bootbank_vdfs_7.0.0-1.25.16324942
        • VMware_bootbank_vsan_7.0.0-1.25.16324942
        • VMware_bootbank_esx-base_7.0.0-1.25.16324942
        • VMW_bootbank_nvme-pcie_1.2.2.14-1vmw.700.1.25.16324942
        • VMware_bootbank_crx_7.0.0-1.25.16324942
        • VMware_bootbank_native-misc-drivers_7.0.0-1.25.16324942
        • VMware_bootbank_esx-xserver_7.0.0-1.25.16324942
        • VMW_bootbank_vmkusb_0.1-1vmw.700.1.25.16324942
        • VMware_bootbank_cpu-microcode_7.0.0-1.25.16324942
        PR résolus 2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690, 2554114
        Numéros CVE associés S/O

        Met à jour les VIB loadesx, esx-dvfilter-generic-fastpath, vsanhealth, esx-update, tools-light, esx-ui, vdfs, vsan, esx-base, nvme-pcie, crx native-misc-drivers, esx-xserver, vmkusb et cpu-microcode.

        • Ce correctif met à jour les problèmes suivants :
          • Cette version met à jour le microcode Intel pour les CPU pris en charge par ESXi pour les révisions dont la production a été vérifiée le 29 avril 2020. Consultez le tableau des mises à jour du microcode actuellement incluses.

            Remarque : Les mises à jour du microcode qu'Intel a publiées le 9 juin 2020 ne sont pas toutes incluses. Intel a mis à disposition les mises à jour de plusieurs
            CPU trop retard pour que VMware les teste et les inclue dans cette version de correctif d'ESXi. Pour obtenir le dernier microcode, contactez votre fournisseur de matériel pour une mise à jour du BIOS.

            Nom de code FMS ID de PLT Révision de MCU Date de MCU Noms de marque
            Nehalem EP 0x106a5 0x03 0x0000001d 11/05/2018 Intel Xeon 35xx Series ;
            Intel Xeon 55xx Series
            Lynnfield 0x106e5 0x13 0x0000000a 08/05/2018 Intel Xeon 34xx Lynnfield Series
            Clarkdale 0x20652 0x12 0x00000011 08/05/2018 Intel i3/i5 Clarkdale Series
            Intel Xeon 34xx Clarkdale Series
            Arrandale 0x20655 0x92 0x00000007 23/04/2018 Processeur Intel Core i7-620LE
            Sandy Bridge DT 0x206a7 0x12 0x0000002f 17/02/2019 Intel Xeon E3-1100 Series ;
            Intel Xeon E3-1200 Series ;
            Intel i7-2655-LE Series
            Intel i3-2100 Series
            Westmere EP 0x206c2 0x03 0x0000001f 08/05/2018 Intel Xeon série 56xx
            Intel Xeon 36xx Series
            Sandy Bridge EP 0x206d6 0x6d 0x00000621 04/03/2020 Intel Pentium 1400 Series
            Intel Xeon E5-1400 Series ;
            Intel Xeon E5-1600 Series ;
            Intel Xeon E5-2400 Series ;
            Intel Xeon E5-2600 Series ;
            Intel Xeon E5-4600 Series
            Sandy Bridge EP 0x206d7 0x6d 0x0000071a 24/03/2020 Intel Pentium 1400 Series
            Intel Xeon E5-1400 Series ;
            Intel Xeon E5-1600 Series ;
            Intel Xeon E5-2400 Series ;
            Intel Xeon E5-2600 Series ;
            Intel Xeon E5-4600 Series
            Nehalem EX 0x206e6 0x04 0x0000000d 15/05/2018 Intel Xeon 65xx Series ;
            Intel Xeon 75xx Series
            Westmere EX 0x206f2 0x05 0x0000003b 16/05/2018 Intel Xeon E7-8800 Series ;
            Intel Xeon E7-4800 Series ;
            Intel Xeon E7-2800 Series
            Ivy Bridge DT 0x306a9 0x12 0x00000021 13/02/2019 Intel i3-3200 Series ;
            Intel i7-3500-LE/UE
            Intel i7-3600-QE
            Intel Xeon E3-1200-v2 Series;
            Intel Xeon E3-1100-C-v2 Series
            Intel Pentium B925C
            Haswell DT 0x306c3 0x32 0x00000028 12/11/2019 Intel Xeon E3-1200-v3 Series ;
            Intel i7-4700-EQ Series
            Intel i5-4500-TE Series
            Intel i3-4300 Series
            Ivy Bridge EP 0x306e4 0xed 0x0000042e 14/03/2019 Intel Xeon E5-4600-v2 Series ;
            Intel Xeon E5-2600-v2 Series ;
            Intel Xeon E5-2400-v2 Series ;
            Intel Xeon E5-1600-v2 Series ;
            Intel Xeon E5-1400-v2 Series
            Ivy Bridge EX 0x306e7 0xed 0x00000715 14/03/2019 Intel Xeon E7-8800/4800/2800-v2 Series
            Haswell EP 0x306f2 0x6f 0x00000043 01/03/2019 Intel Xeon E5-4600-v3 Series ;
            Intel Xeon E5-2600-v3 Series ;
            Intel Xeon E5-2400-v3 Series ;
            Intel Xeon E5-1600-v3 Series ;
            Intel Xeon E5-1400-v3 Series
            Haswell EX 0x306f4 0x80 0x00000016 17/06/2019 Intel Xeon E7-8800/4800-v3 Series
            Broadwell H 0x40671 0x22 0x00000022 12/11/2019 Intel Core i7-5700EQ
            Intel Xeon E3-1200-v4 Series
            Avoton 0x406d8 0x01 0x0000012d 16/09/2019 Intel Atom C2300 Series ;
            Intel Atom C2500 Series ;
            Intel Atom C2700 Series
            Broadwell EP/EX 0x406f1 0xef 0x0b000038 18/06/2019 Intel Xeon E7-8800/4800-v4 Series ;
            Intel Xeon E5-4600-v4 Series ;
            Intel Xeon E5-2600-v4 Series ;
            Intel Xeon E5-1600-v4 Series
            Skylake SP 0x50654 0xb7 0x02006901 12/02/2020 Intel Xeon Platinum 8100 Series ;
            Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100 Series
            Intel Xeon D-2100 Series ;
            Intel Xeon D-1600 Series ;
            Intel Xeon W-3100 Series ;
            Intel Xeon W-2100 Series
            Cascade Lake B-0 0x50656 0xbf 0x04002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
            Intel Xeon Gold 6200/5200 ;
            Intel Xeon Silver 4200/Bronze 3200 ;
            Intel Xeon W-3200
            Cascade Lake 0x50657 0xbf 0x05002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
            Intel Xeon Gold 6200/5200 ;
            Intel Xeon Silver 4200/Bronze 3200 ;
            Intel Xeon W-3200
            Broadwell DE 0x50662 0x10 0x0000001c 17/06/2019 Intel Xeon D-1500 Series
            Broadwell DE 0x50663 0x10 0x07000019 17/06/2019 Intel Xeon D-1500 Series
            Broadwell DE 0x50664 0x10 0x0f000017 17/06/2019 Intel Xeon D-1500 Series
            Broadwell NS 0x50665 0x10 0x0e00000f 17/06/2019 Intel Xeon D-1600 Series
            Skylake H/S 0x506e3 0x36 0x000000d6 03/10/2019 Intel Xeon E3-1500-v5 Series ;
            Intel Xeon E3-1200-v5 Series
            Denverton 0x506f1 0x01 0x0000002e 21/03/2019 Intel Atom C3000 Series
            Kaby Lake H/S/X 0x906e9 0x2a 0x000000ca 03/10/2019 Intel Xeon E3-1200-v6 Series ;
            Intel Xeon E3-1500-v6 Series
            Coffee Lake 0x906ea 0x22 0x000000cc 08/12/2019 Intel Xeon E-2100 Series ;
            Intel Xeon E-2200 Series (4 ou 6 cœurs)
            Coffee Lake 0x906eb 0x02 0x000000ca 03/10/2019 Intel Xeon E-2100 Series
            Coffee Lake 0x906ec 0x22 0x000000ca 03/10/2019 Intel Xeon E-2100 Series
            Coffee Lake Refresh 0x906ed 0x22 0x000000cc 12/12/2019 Intel Xeon E-2200 Series (8 cœurs)
          • Dans les versions antérieures à ESXi 7.0b, l'analyse ESXi de la table SMBIOS dans le microprogramme de l'hôte pour déterminer l'ordre dans lequel les alias de périphérique sont attribués n'est pas entièrement compatible avec SMBIOS 3.2 ou version ultérieure. Par conséquent, les hôtes ESXi peuvent attribuer des alias de périphérique dans l'ordre incorrect.

          • Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lorsque la pile de stockage du noyau exécute une fonction timerCallback. La fonction timerCallback s'exécute de manière non préemptive. Cependant, dans certains cas, la pile de stockage du noyau peut essayer d'activer la préemption sur un CPU, lors de l'exécution d'une fonction timerCallback. Par conséquent, l'hôte ESXi échoue avec une erreur semblable à :
            PSOD : Assert bora/vmkernel/main/bh.c:981

          • La journalisation pour Storage I/O Control est désactivée par défaut. Pour activer et définir un niveau de journalisation, vous devez utiliser une valeur comprise entre 1 et 7 pour le
            paramètre. Cependant, dans certains cas, la modification de la valeur du paramètre ne modifie pas le niveau de journalisation.

          • Certains journaux de Storage I/O Control peuvent provoquer un déversement de journaux dans les fichiers storagerm.log et sdrsinjector.log. Cette situation peut entraîner une rotation rapide des journaux.

          • Les banques de données VMFS dépendant de LUN disposant d'une granularité de démappage optimale supérieure à 1 Mo peuvent passer en verrouillage sur disque répété lors du traitement du démappage automatique. Par conséquent, les opérations de mise au repos des machines virtuelles sur ces banques de données peuvent prendre plus de temps que d'habitude.

          • Vous pouvez modifier la priorité de récupération d'espace par défaut d'une banque de données VMFS à l'aide de la commande ESXCLI esxcli storage vmfs reclaim config set  --reclaim-priority. Par exemple, pour modifier la priorité de la récupération d'espace, qui annule le mappage des blocs inutilisés de la banque de données vers le LUN dont dépend cette banque de données, sur aucun à partir du taux faible par défaut, exécutez la commande :
            esxcli storage vmfs reclaim config set --volume-label datastore_name --reclaim-priority none
            La modification prend uniquement effet sur l'hôte ESXi sur lequel vous exécutez la commande, pas sur d'autres hôtes qui utilisent la même banque de données.

          • Si les volumes VMFS sont fréquemment ouverts et fermés, vous pourriez voir des messages dans les journaux VMkernel tels que does not support unmap lors de l'ouverture d'un volume et Exiting async journal replay manager world lors de la fermeture d'un volume.

          • Une configuration vSAN sur un hôte ESXi disposant de 4 groupes de disques ou plus s'exécutant sur une configuration NUMA de 4 nœuds ou plus peut épuiser les ressources de mémoire de sections de VMkernel sur cet hôte dédié à un nœud NUMA donné. D'autres nœuds NUMA sur le même hôte peuvent avoir plus de ressources de mémoire de sections. Cependant, VMkernel peut générer prématurément une condition de mémoire insuffisante au lieu d'utiliser la capacité de mémoire de sections excédentaire des autres nœuds NUMA. Par conséquent, la condition de mémoire insuffisante peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet ou l'échec d'un groupe de disques vSAN sur cet hôte. Après le redémarrage de l'hôte, dans le fichier vmkernel.log, vous pouvez voir une erreur telle que Throttled: BlkAttr not ready for disk.

          • Lors du chargement des modules de noyau, la commande du chargeur de module VMkernel vmkload_mod utilisée pour charger les modules de pilote de périphérique et de forme de réseau dans VMkernel, peut être migrée vers un autre nœud NUMA. Dans ce cas, une non-correspondance du total de contrôle entre les nœuds NUMA peut se produire. Cela peut entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet.

          • Certains comptes d'utilisateur, liés à NSX-T, sont disponibles uniquement après un démarrage. Du fait qu'ils n'existent pas au moment du démarrage, la correction du temps de démarrage d'un hôte ESXi sans état peut échouer lorsque ces comptes entrent dans la liste d'utilisateurs d'exceptions du mode de verrouillage. Dans le fichier syslog.log, vous pouvez voir une ligne semblable à :
            key = 'POST_BOOT_CONFIG_FAILED', value = 'Failed to update user accounts exempted from Lockdown Mode. Invalid user specified: mux_user'

          • Si vous essayez d'effectuer une mise à niveau en direct vers ESXi 7.0 à partir d'une version d'ESXi antérieure, installée en tant qu'image de vidage de disque, à l'aide de la commande esxiso2dd et de VMware Tools version 4.0 ou version ultérieure, certains fichiers VMware Tools peuvent être manquants dans l'emplacement /productLocker. Les versions antérieures d'ESXi utilisent un système de fichiers VFAT non sensible à la casse. Toutefois, ESXi 7.0 utilise VMFS-L, ce qui effectue des vérifications de nom de fichier sensibles à la casse et les fichiers qui échouent cette vérification ne sont pas ajoutés à ProductLocker.

          • Si l'une des familles d'adresses sur un contrôleur de domaine à double pile n'est pas activée, par exemple IPv6, même après la désactivation d'IPv6 sur le contrôleur, il est possible qu'un ping CLDAP vers une adresse IPv6 soit toujours possible. Cela peut entraîner un délai d'expiration et déclencher une erreur indiquant que le centre de données n'est pas disponible, par exemple Error: NERR_DCNotFound [code 0x00000995]. Par conséquent, vous risquez de ne pas pouvoir ajouter des hôtes ESXi au domaine.

          • Les mises à niveau vers ESXi 7.0 à partir d'une image personnalisée ou standard d'ESXi 6.x avec une version asynchrone de pilotes iSCSI de déchargement peuvent échouer avec des messages similaires à Fatal Error: 15 (Not Found) ou Error loading /vmfs/volumes//b.b00. Les ensembles de pilotes iSCSI de déchargement concernés sont bnx2i/qfle3ibe2iscsi/elxiscsi et qedil/qedi. Ce problème peut également se produire dans des environnements disposant de plug-ins iSCSI logiciel et d'API de gestion iSCSI.
            Les messages de la page de chargement d'ESXi s'affichent lors de la phase de redémarrage de la mise à niveau que vous pouvez effectuer à l'aide de vSphere Lifecycle Manager ou ESXCLI.  Si vous utilisez vSphere Lifecycle Manager, votre système vCenter Server restaure l'image précédente lors de la réinitialisation. Ce problème concerne principalement les systèmes dotés d'adaptateurs réseau convergés (CNA) QLogic 578XX compatibles iSCSI, de CNA Emulex OneConnect compatibles iSCSI, de CNA QLogic FastLinQ QL4xxxx ou de configurations logicielles iSCSI. Le problème ne se produit pas si le CNA est configuré uniquement pour FCoE.

          • Si vous exécutez une requête CIM telle que enum_instances à un port VMkernel récemment ajouté sur un hôte ESXi, le service SFCB peut échouer, car il ne peut pas valider l'adresse IP de la nouvelle instance. Par exemple, si IPv6 est activé et configuré comme statique, mais que l'adresse IPv6 est vide, l'interrogation de l'une des classes CIM CIM_IPProtocolEndpoint ou VMware_KernelIPv6ProtocolEndpoint génère un vidage mémoire SFCB.

          • Si vous restaurez une configuration sauvegardée à l'aide de backup.sh après plus de 7 jours, les paramètres du périphérique de stockage comme Is perennially reserved peuvent être perdus. Cela se produit, car les horodatages indiquant quand les périphériques ont été vus pour la dernière fois sont également sauvegardés et si le périphérique n'a pas été actif pendant plus de 7 jours, les entrées du périphérique de /etc/vmware/esx.conf sont supprimées. Par conséquent, l'opération de restauration peut restaurer des horodatages plus anciens.

          • Dans certains cas, lorsque les espaces de noms sont démappés sur un site cible et remappés, cette instance d'ESXi peut ne pas récupérer l'espace de noms remappé. Cela se produit lorsque le nettoyage de l'ancienne instance de l'espace de noms n'est pas terminé. Dans ce cas, pour redécouvrir les espaces de noms, vous devez réinitialiser le contrôleur NVMe.

          • Le service de fichiers vSAN prend en charge jusqu'à 8 adresses IP dans le pool d'adresses IP statiques. Si un cluster vSAN dispose de plus de 8 hôtes, vous pouvez entrer plus de 8 adresses IP pendant la configuration du service de fichiers. Cependant, il n'est pas possible d'utiliser des adresses IP supplémentaires.

          • Lorsqu'un hôte vSAN utilise la déduplication et la compression, les opérations de suppression ne peuvent pas se terminer, ce qui entraîne l'épuisement de l'espace du système de fichiers.

          • Si un périphérique NVMe est supprimé et ajouté à chaud avant la fin du nettoyage de la pile de stockage, ce qui dure généralement environ 60 secondes, le pilote PCIe ne parvient pas à imprimer Disabled hotplug. Par conséquent, vous pouvez voir un message Périphérique déjà présent. Enfin, l'hôte ESXi peut échouer avec un écran de diagnostic violet avec une erreur telle que
            ​LINT1/NMI (motherboard nonmaskable interrupt), undiagnosed.

        ESXi-7.0b-16324942-no-tools
        Nom du profil ESXi-7.0b-16324942-no-tools
        Build Pour obtenir des informations sur le build, rendez-vous en haut de la page.
        Fournisseur VMware, Inc.
        Date de publication 16 juin 2020
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_loadesx_7.0.0-1.25.16324942
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.25.16324942
        • VMware_bootbank_vsanhealth_7.0.0-1.25.16324942
        • VMware_bootbank_esx-update_7.0.0-1.25.16324942
        • VMware_bootbank_esx-ui_1.34.0-15603211
        • VMware_bootbank_vdfs_7.0.0-1.25.16324942
        • VMware_bootbank_vsan_7.0.0-1.25.16324942
        • VMware_bootbank_esx-base_7.0.0-1.25.16324942
        • VMW_bootbank_nvme-pcie_1.2.2.14-1vmw.700.1.25.16324942
        • VMware_bootbank_crx_7.0.0-1.25.16324942
        • VMware_bootbank_native-misc-drivers_7.0.0-1.25.16324942
        • VMware_bootbank_esx-xserver_7.0.0-1.25.16324942
        • VMW_bootbank_vmkusb_0.1-1vmw.700.1.25.16324942
        • VMware_bootbank_cpu-microcode_7.0.0-1.25.16324942
        PR résolus 2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690, 2554114
        Numéros CVE associés S/O

        Met à jour les VIB loadesx, esx-dvfilter-generic-fastpath, vsanhealth, esx-update, esx-ui, vdfs, vsan, esx-base, nvme-pcie, crx native-misc-drivers, esx-xserver, vmkusb et cpu-microcode.

        • Ce correctif met à jour les problèmes suivants :
          • Cette version met à jour le microcode Intel pour les CPU pris en charge par ESXi pour les révisions dont la production a été vérifiée le 29 avril 2020. Consultez le tableau des mises à jour du microcode actuellement incluses.

            Remarque : Les mises à jour du microcode qu'Intel a publiées le 9 juin 2020 ne sont pas toutes incluses. Intel a mis à disposition les mises à jour de plusieurs
            CPU trop retard pour que VMware les teste et les inclue dans cette version de correctif d'ESXi. Pour obtenir le dernier microcode, contactez votre fournisseur de matériel pour une mise à jour du BIOS.

            Nom de code FMS ID de PLT Révision de MCU Date de MCU Noms de marque
            Nehalem EP 0x106a5 0x03 0x0000001d 11/05/2018 Intel Xeon 35xx Series ;
            Intel Xeon 55xx Series
            Lynnfield 0x106e5 0x13 0x0000000a 08/05/2018 Intel Xeon 34xx Lynnfield Series
            Clarkdale 0x20652 0x12 0x00000011 08/05/2018 Intel i3/i5 Clarkdale Series
            Intel Xeon 34xx Clarkdale Series
            Arrandale 0x20655 0x92 0x00000007 23/04/2018 Processeur Intel Core i7-620LE
            Sandy Bridge DT 0x206a7 0x12 0x0000002f 17/02/2019 Intel Xeon E3-1100 Series ;
            Intel Xeon E3-1200 Series ;
            Intel i7-2655-LE Series
            Intel i3-2100 Series
            Westmere EP 0x206c2 0x03 0x0000001f 08/05/2018 Intel Xeon série 56xx
            Intel Xeon 36xx Series
            Sandy Bridge EP 0x206d6 0x6d 0x00000621 04/03/2020 Intel Pentium 1400 Series
            Intel Xeon E5-1400 Series ;
            Intel Xeon E5-1600 Series ;
            Intel Xeon E5-2400 Series ;
            Intel Xeon E5-2600 Series ;
            Intel Xeon E5-4600 Series
            Sandy Bridge EP 0x206d7 0x6d 0x0000071a 24/03/2020 Intel Pentium 1400 Series
            Intel Xeon E5-1400 Series ;
            Intel Xeon E5-1600 Series ;
            Intel Xeon E5-2400 Series ;
            Intel Xeon E5-2600 Series ;
            Intel Xeon E5-4600 Series
            Nehalem EX 0x206e6 0x04 0x0000000d 15/05/2018 Intel Xeon 65xx Series ;
            Intel Xeon 75xx Series
            Westmere EX 0x206f2 0x05 0x0000003b 16/05/2018 Intel Xeon E7-8800 Series ;
            Intel Xeon E7-4800 Series ;
            Intel Xeon E7-2800 Series
            Ivy Bridge DT 0x306a9 0x12 0x00000021 13/02/2019 Intel i3-3200 Series ;
            Intel i7-3500-LE/UE
            Intel i7-3600-QE
            Intel Xeon E3-1200-v2 Series;
            Intel Xeon E3-1100-C-v2 Series
            Intel Pentium B925C
            Haswell DT 0x306c3 0x32 0x00000028 12/11/2019 Intel Xeon E3-1200-v3 Series ;
            Intel i7-4700-EQ Series
            Intel i5-4500-TE Series
            Intel i3-4300 Series
            Ivy Bridge EP 0x306e4 0xed 0x0000042e 14/03/2019 Intel Xeon E5-4600-v2 Series ;
            Intel Xeon E5-2600-v2 Series ;
            Intel Xeon E5-2400-v2 Series ;
            Intel Xeon E5-1600-v2 Series ;
            Intel Xeon E5-1400-v2 Series
            Ivy Bridge EX 0x306e7 0xed 0x00000715 14/03/2019 Intel Xeon E7-8800/4800/2800-v2 Series
            Haswell EP 0x306f2 0x6f 0x00000043 01/03/2019 Intel Xeon E5-4600-v3 Series ;
            Intel Xeon E5-2600-v3 Series ;
            Intel Xeon E5-2400-v3 Series ;
            Intel Xeon E5-1600-v3 Series ;
            Intel Xeon E5-1400-v3 Series
            Haswell EX 0x306f4 0x80 0x00000016 17/06/2019 Intel Xeon E7-8800/4800-v3 Series
            Broadwell H 0x40671 0x22 0x00000022 12/11/2019 Intel Core i7-5700EQ
            Intel Xeon E3-1200-v4 Series
            Avoton 0x406d8 0x01 0x0000012d 16/09/2019 Intel Atom C2300 Series ;
            Intel Atom C2500 Series ;
            Intel Atom C2700 Series
            Broadwell EP/EX 0x406f1 0xef 0x0b000038 18/06/2019 Intel Xeon E7-8800/4800-v4 Series ;
            Intel Xeon E5-4600-v4 Series ;
            Intel Xeon E5-2600-v4 Series ;
            Intel Xeon E5-1600-v4 Series
            Skylake SP 0x50654 0xb7 0x02006901 12/02/2020 Intel Xeon Platinum 8100 Series ;
            Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100 Series
            Intel Xeon D-2100 Series ;
            Intel Xeon D-1600 Series ;
            Intel Xeon W-3100 Series ;
            Intel Xeon W-2100 Series
            Cascade Lake B-0 0x50656 0xbf 0x04002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
            Intel Xeon Gold 6200/5200 ;
            Intel Xeon Silver 4200/Bronze 3200 ;
            Intel Xeon W-3200
            Cascade Lake 0x50657 0xbf 0x05002f00 14/01/2020 Intel Xeon Platinum 9200/8200 Series ;
            Intel Xeon Gold 6200/5200 ;
            Intel Xeon Silver 4200/Bronze 3200 ;
            Intel Xeon W-3200
            Broadwell DE 0x50662 0x10 0x0000001c 17/06/2019 Intel Xeon D-1500 Series
            Broadwell DE 0x50663 0x10 0x07000019 17/06/2019 Intel Xeon D-1500 Series
            Broadwell DE 0x50664 0x10 0x0f000017 17/06/2019 Intel Xeon D-1500 Series
            Broadwell NS 0x50665 0x10 0x0e00000f 17/06/2019 Intel Xeon D-1600 Series
            Skylake H/S 0x506e3 0x36 0x000000d6 03/10/2019 Intel Xeon E3-1500-v5 Series ;
            Intel Xeon E3-1200-v5 Series
            Denverton 0x506f1 0x01 0x0000002e 21/03/2019 Intel Atom C3000 Series
            Kaby Lake H/S/X 0x906e9 0x2a 0x000000ca 03/10/2019 Intel Xeon E3-1200-v6 Series ;
            Intel Xeon E3-1500-v6 Series
            Coffee Lake 0x906ea 0x22 0x000000cc 08/12/2019 Intel Xeon E-2100 Series ;
            Intel Xeon E-2200 Series (4 ou 6 cœurs)
            Coffee Lake 0x906eb 0x02 0x000000ca 03/10/2019 Intel Xeon E-2100 Series
            Coffee Lake 0x906ec 0x22 0x000000ca 03/10/2019 Intel Xeon E-2100 Series
            Coffee Lake Refresh 0x906ed 0x22 0x000000cc 12/12/2019 Intel Xeon E-2200 Series (8 cœurs)
          • Dans les versions antérieures à ESXi 7.0b, l'analyse ESXi de la table SMBIOS dans le microprogramme de l'hôte pour déterminer l'ordre dans lequel les alias de périphérique sont attribués n'est pas entièrement compatible avec SMBIOS 3.2 ou version ultérieure. Par conséquent, les hôtes ESXi peuvent attribuer des alias de périphérique dans l'ordre incorrect.

          • Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lorsque la pile de stockage du noyau exécute une fonction timerCallback. La fonction timerCallback s'exécute de manière non préemptive. Cependant, dans certains cas, la pile de stockage du noyau peut essayer d'activer la préemption sur un CPU, lors de l'exécution d'une fonction timerCallback. Par conséquent, l'hôte ESXi échoue avec une erreur semblable à :
            PSOD : Assert bora/vmkernel/main/bh.c:981

          • La journalisation pour Storage I/O Control est désactivée par défaut. Pour activer et définir un niveau de journalisation, vous devez utiliser une valeur comprise entre 1 et 7 pour le
            paramètre. Cependant, dans certains cas, la modification de la valeur du paramètre ne modifie pas le niveau de journalisation.

          • Certains journaux de Storage I/O Control peuvent provoquer un déversement de journaux dans les fichiers storagerm.log et sdrsinjector.log. Cette situation peut entraîner une rotation rapide des journaux.

          • Les banques de données VMFS dépendant de LUN disposant d'une granularité de démappage optimale supérieure à 1 Mo peuvent passer en verrouillage sur disque répété lors du traitement du démappage automatique. Par conséquent, les opérations de mise au repos des machines virtuelles sur ces banques de données peuvent prendre plus de temps que d'habitude.

          • Vous pouvez modifier la priorité de récupération d'espace par défaut d'une banque de données VMFS à l'aide de la commande ESXCLI esxcli storage vmfs reclaim config set  --reclaim-priority. Par exemple, pour modifier la priorité de la récupération d'espace, qui annule le mappage des blocs inutilisés de la banque de données vers le LUN dont dépend cette banque de données, sur aucun à partir du taux faible par défaut, exécutez la commande :
            esxcli storage vmfs reclaim config set --volume-label datastore_name --reclaim-priority none
            La modification prend uniquement effet sur l'hôte ESXi sur lequel vous exécutez la commande, pas sur d'autres hôtes qui utilisent la même banque de données.

          • Si les volumes VMFS sont fréquemment ouverts et fermés, vous pourriez voir des messages dans les journaux VMkernel tels que does not support unmap lors de l'ouverture d'un volume et Exiting async journal replay manager world lors de la fermeture d'un volume.

          • Une configuration vSAN sur un hôte ESXi disposant de 4 groupes de disques ou plus s'exécutant sur une configuration NUMA de 4 nœuds ou plus peut épuiser les ressources de mémoire de sections de VMkernel sur cet hôte dédié à un nœud NUMA donné. D'autres nœuds NUMA sur le même hôte peuvent avoir plus de ressources de mémoire de sections. Cependant, VMkernel peut générer prématurément une condition de mémoire insuffisante au lieu d'utiliser la capacité de mémoire de sections excédentaire des autres nœuds NUMA. Par conséquent, la condition de mémoire insuffisante peut entraîner l'échec de l'hôte ESXi avec un écran de diagnostic violet ou l'échec d'un groupe de disques vSAN sur cet hôte. Après le redémarrage de l'hôte, dans le fichier vmkernel.log, vous pouvez voir une erreur telle que Throttled: BlkAttr not ready for disk.

          • Lors du chargement des modules de noyau, la commande du chargeur de module VMkernel vmkload_mod utilisée pour charger les modules de pilote de périphérique et de forme de réseau dans VMkernel, peut être migrée vers un autre nœud NUMA. Dans ce cas, une non-correspondance du total de contrôle entre les nœuds NUMA peut se produire. Cela peut entraîner l'échec d'un hôte ESXi avec un écran de diagnostic violet.

          • Certains comptes d'utilisateur, liés à NSX-T, sont disponibles uniquement après un démarrage. Du fait qu'ils n'existent pas au moment du démarrage, la correction du temps de démarrage d'un hôte ESXi sans état peut échouer lorsque ces comptes entrent dans la liste d'utilisateurs d'exceptions du mode de verrouillage. Dans le fichier syslog.log, vous pouvez voir une ligne semblable à :
            key = 'POST_BOOT_CONFIG_FAILED', value = 'Failed to update user accounts exempted from Lockdown Mode. Invalid user specified: mux_user'

          • Si vous essayez d'effectuer une mise à niveau en direct vers ESXi 7.0 à partir d'une version d'ESXi antérieure, installée en tant qu'image de vidage de disque, à l'aide de la commande esxiso2dd et de VMware Tools version 4.0 ou version ultérieure, certains fichiers VMware Tools peuvent être manquants dans l'emplacement /productLocker. Les versions antérieures d'ESXi utilisent un système de fichiers VFAT non sensible à la casse. Toutefois, ESXi 7.0 utilise VMFS-L, ce qui effectue des vérifications de nom de fichier sensibles à la casse et les fichiers qui échouent cette vérification ne sont pas ajoutés à ProductLocker.

          • Si l'une des familles d'adresses sur un contrôleur de domaine à double pile n'est pas activée, par exemple IPv6, même après la désactivation d'IPv6 sur le contrôleur, il est possible qu'un ping CLDAP vers une adresse IPv6 soit toujours possible. Cela peut entraîner un délai d'expiration et déclencher une erreur indiquant que le centre de données n'est pas disponible, par exemple Error: NERR_DCNotFound [code 0x00000995]. Par conséquent, vous risquez de ne pas pouvoir ajouter des hôtes ESXi au domaine.

          • Les mises à niveau vers ESXi 7.0 à partir d'une image personnalisée ou standard d'ESXi 6.x avec une version asynchrone de pilotes iSCSI de déchargement peuvent échouer avec des messages similaires à Fatal Error: 15 (Not Found) ou Error loading /vmfs/volumes//b.b00. Les ensembles de pilotes iSCSI de déchargement concernés sont bnx2i/qfle3ibe2iscsi/elxiscsi et qedil/qedi. Ce problème peut également se produire dans des environnements disposant de plug-ins iSCSI logiciel et d'API de gestion iSCSI.
            Les messages de la page de chargement d'ESXi s'affichent lors de la phase de redémarrage de la mise à niveau que vous pouvez effectuer à l'aide de vSphere Lifecycle Manager ou ESXCLI.  Si vous utilisez vSphere Lifecycle Manager, votre système vCenter Server restaure l'image précédente lors de la réinitialisation. Ce problème concerne principalement les systèmes dotés d'adaptateurs réseau convergés (CNA) QLogic 578XX compatibles iSCSI, de CNA Emulex OneConnect compatibles iSCSI, de CNA QLogic FastLinQ QL4xxxx ou de configurations logicielles iSCSI. Le problème ne se produit pas si le CNA est configuré uniquement pour FCoE.

          • Si vous exécutez une requête CIM telle que enum_instances à un port VMkernel récemment ajouté sur un hôte ESXi, le service SFCB peut échouer, car il ne peut pas valider l'adresse IP de la nouvelle instance. Par exemple, si IPv6 est activé et configuré comme statique, mais que l'adresse IPv6 est vide, l'interrogation de l'une des classes CIM CIM_IPProtocolEndpoint ou VMware_KernelIPv6ProtocolEndpoint génère un vidage mémoire SFCB.

          • Si vous restaurez une configuration sauvegardée à l'aide de backup.sh après plus de 7 jours, les paramètres du périphérique de stockage comme Is perennially reserved peuvent être perdus. Cela se produit, car les horodatages indiquant quand les périphériques ont été vus pour la dernière fois sont également sauvegardés et si le périphérique n'a pas été actif pendant plus de 7 jours, les entrées du périphérique de /etc/vmware/esx.conf sont supprimées. Par conséquent, l'opération de restauration peut restaurer des horodatages plus anciens.

          • Dans certains cas, lorsque les espaces de noms sont démappés sur un site cible et remappés, cette instance d'ESXi peut ne pas récupérer l'espace de noms remappé. Cela se produit lorsque le nettoyage de l'ancienne instance de l'espace de noms n'est pas terminé. Dans ce cas, pour redécouvrir les espaces de noms, vous devez réinitialiser le contrôleur NVMe.

          • Le service de fichiers vSAN prend en charge jusqu'à 8 adresses IP dans le pool d'adresses IP statiques. Si un cluster vSAN dispose de plus de 8 hôtes, vous pouvez entrer plus de 8 adresses IP pendant la configuration du service de fichiers. Cependant, il n'est pas possible d'utiliser des adresses IP supplémentaires.

          • Lorsqu'un hôte vSAN utilise la déduplication et la compression, les opérations de suppression ne peuvent pas se terminer, ce qui entraîne l'épuisement de l'espace du système de fichiers.

          • Si un périphérique NVMe est supprimé et ajouté à chaud avant la fin du nettoyage de la pile de stockage, ce qui dure généralement environ 60 secondes, le pilote PCIe ne parvient pas à imprimer Disabled hotplug. Par conséquent, vous pouvez voir un message Périphérique déjà présent. Enfin, l'hôte ESXi peut échouer avec un écran de diagnostic violet avec une erreur telle que
            ​LINT1/NMI (motherboard nonmaskable interrupt), undiagnosed.

        ESXi-7.0bs-16321839-standard
        Nom du profil ESXi-7.0bs-16321839-standard
        Build Pour obtenir des informations sur le build, rendez-vous en haut de la page.
        Fournisseur VMware, Inc.
        Date de publication 16 juin 2020
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_vdfs_7.0.0-1.20.16321839
        • VMware_bootbank_esx-xserver_7.0.0-1.20.16321839
        • VMware_bootbank_vsan_7.0.0-1.20.16321839
        • VMware_bootbank_esx-base_7.0.0-1.20.16321839
        • VMware_bootbank_esx-ui_1.34.0-15603211
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.20.16321839
        • VMware_bootbank_native-misc-drivers_7.0.0-1.20.16321839
        • VMware_bootbank_vsanhealth_7.0.0-1.20.16321839
        • VMware_bootbank_cpu-microcode_7.0.0-1.20.16321839
        • VMware_bootbank_crx_7.0.0-1.20.16321839
        • VMware_bootbank_loadesx_7.0.0-1.20.16321839
        • VMware_bootbank_esx-update_7.0.0-1.20.16321839
        • VMware_locker_tools-light_11.1.0.16036546-16321839
        PR résolus 2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417, 2564270
        Numéros CVE associés CVE-2020-3962, CVE-2020-3963, CVE-2020-3964, CVE-2020-3965, CVE-2020-3966, CVE-2020-3967, CVE-2020-3968, CVE-2020-3969, CVE-2020-3970

        Met à jour les VIB vdfs, esx-xserver, vsan, esx-base, esx-ui, esx-dvfilter-generic-fastpath, native-misc-drivers, vsanhealth, cpu-microcode et crx pour résoudre les problèmes suivants :

        • Ce correctif met à jour les problèmes suivants :
          • La bibliothèque ESXi libsqlite3 est mise à jour vers la version 3.31.1.

          • La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.10.

          • La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.69.1.

          • La bibliothèque ESXi Python est mise à jour vers la version 3.5.9 et Freetype Python est mis à jour vers la version 2.9.

          • La bibliothèque ESXi NTP est mise à jour vers la version 4.2.8p14.

          • VMware ESXi contient une vulnérabilité use-after-free dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3962 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une vulnérabilité use-after-free dans PVNVRAM. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3963 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une fuite d'informations dans le contrôleur USB EHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3964 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une fuite d'informations dans le contrôleur USB XHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3965 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient un dépassement de mémoire en raison d'un problème de condition de concurrence dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3966 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une vulnérabilité de dépassement de capacité du segment de mémoire dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3967 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une vulnérabilité d'écriture hors limites dans le contrôleur USB 3.0 (xHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3968 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une vulérabilité off-by-one heap-overflow dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3969 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une vulnérabilité de lecture hors limites dans la fonctionnalité Shader. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3970 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • Dans ESXi 7.0b, un sous-ensemble d'images ISO de VMware Tools 11.1.0 est intégré à l'hôte ESXi 7.0b.

            Les images ISO de VMware Tools 11.1.0 suivantes sont intégrées à ESXi :

            • windows.iso : Image de VMware Tools pour Windows 7 SP1 ou Windows Server 2008 R2 SP1 ou version ultérieure
            • linux.iso: Image de VMware Tools 10.3.22 pour les versions plus anciennes de Linux OS avec glibc 2.5 ou version ultérieure

            Les images ISO de VMware Tools 10.3.10 suivantes sont disponibles au téléchargement :

            • Solaris.iso: Image de VMware Tools pour Solaris
            • darwin.iso: Image de VMware Tools pour OSX

            Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

        ESXi-7.0bs-16321839-no-tools
        Nom du profil ESXi-7.0bs-16321839-no-tools
        Build Pour obtenir des informations sur le build, rendez-vous en haut de la page.
        Fournisseur VMware, Inc.
        Date de publication 16 juin 2020
        Niveau d'acceptation PartnerSupported
        Matériel concerné S.O.
        Logiciels concernés S.O.
        VIB concernés
        • VMware_bootbank_vdfs_7.0.0-1.20.16321839
        • VMware_bootbank_esx-xserver_7.0.0-1.20.16321839
        • VMware_bootbank_vsan_7.0.0-1.20.16321839
        • VMware_bootbank_esx-base_7.0.0-1.20.16321839
        • VMware_bootbank_esx-ui_1.34.0-15603211
        • VMware_bootbank_esx-dvfilter-generic-fastpath_7.0.0-1.20.16321839
        • VMware_bootbank_native-misc-drivers_7.0.0-1.20.16321839
        • VMware_bootbank_vsanhealth_7.0.0-1.20.16321839
        • VMware_bootbank_cpu-microcode_7.0.0-1.20.16321839
        • VMware_bootbank_crx_7.0.0-1.20.16321839
        • VMware_bootbank_loadesx_7.0.0-1.20.16321839
        • VMware_bootbank_esx-update_7.0.0-1.20.16321839
        PR résolus 2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417
        Numéros CVE associés CVE-2020-3962, CVE-2020-3963, CVE-2020-3964, CVE-2020-3965, CVE-2020-3966, CVE-2020-3967, CVE-2020-3968, CVE-2020-3969, CVE-2020-3970

        Met à jour les VIB vdfs, esx-xserver, vsan, esx-base, esx-ui, esx-dvfilter-generic-fastpath, native-misc-drivers, vsanhealth, cpu-microcode et crx pour résoudre les problèmes suivants :

        • Ce correctif met à jour les problèmes suivants :
          • La bibliothèque ESXi libsqlite3 est mise à jour vers la version 3.31.1.

          • La bibliothèque ESXi userworld libxml2 a été mise à jour vers la version 2.9.10.

          • La bibliothèque ESXi userworld libcurl est mise à jour vers la version 7.69.1.

          • La bibliothèque ESXi Python est mise à jour vers la version 3.5.9 et Freetype Python est mis à jour vers la version 2.9.

          • La bibliothèque ESXi NTP est mise à jour vers la version 4.2.8p14.

          • VMware ESXi contient une vulnérabilité use-after-free dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3962 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une vulnérabilité use-after-free dans PVNVRAM. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3963 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une fuite d'informations dans le contrôleur USB EHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3964 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une fuite d'informations dans le contrôleur USB XHCI. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3965 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient un dépassement de mémoire en raison d'un problème de condition de concurrence dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3966 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une vulnérabilité de dépassement de capacité du segment de mémoire dans le contrôleur USB 2.0 (EHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3967 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une vulnérabilité d'écriture hors limites dans le contrôleur USB 3.0 (xHCI). Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué l'identifiant CVE-2020-3968 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une vulérabilité off-by-one heap-overflow dans le périphérique SVGA. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3969 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • VMware ESXi contient une vulnérabilité de lecture hors limites dans la fonctionnalité Shader. Le projet Common Vulnerabilities and Exposures (cve.mitre.org) a attribué le nom CVE-2020-3970 à ce problème. Pour plus d'informations, consultez l'article VMSA-2020-0015.

          • Dans ESXi 7.0b, un sous-ensemble d'images ISO de VMware Tools 11.1.0 est intégré à l'hôte ESXi 7.0b.

            Les images ISO de VMware Tools 11.1.0 suivantes sont intégrées à ESXi :

            • windows.iso : Image de VMware Tools pour Windows 7 SP1 ou Windows Server 2008 R2 SP1 ou version ultérieure
            • linux.iso: Image de VMware Tools 10.3.22 pour les versions plus anciennes de Linux OS avec glibc 2.5 ou version ultérieure

            Les images ISO de VMware Tools 10.3.10 suivantes sont disponibles au téléchargement :

            • Solaris.iso: Image de VMware Tools pour Solaris
            • darwin.iso: Image de VMware Tools pour OSX

            Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

        ESXi Image - 7.0b – 16324942
        Nom ESXi
        Version 7.0b - 16324942
        Date de publication 16 juin 2020
        Catégorie Amélioration
        Composants concernés
        • esx-update_7.0.0-1.25.16324942
        • ESXi_7.0.0-1.25.16324942
        • VMware-NVMe-PCIe_1.2.2.14-1vmw.700.1.25.16324942
        • VMware-vmkusb_0.1-1vmw.700.1.25.16324942
        PR résolus  2543390, 2536681, 2486316, 2503110, 2549993, 2549419, 2550655, 2554564, 2554116, 2489840, 2548068, 2556037, 2572393, 2544236, 2555270, 2560238, 2552532, 2551359, 2541690, 2554114
          ESXi Image - 7.0bs – 16321839
          Nom ESXi
          Version 7.0bs - 16321839
          Date de publication 16 juin 2020
          Catégorie Amélioration
          Composants concernés
          • ESXi_7.0.0-1.20.16321839
          • esx-update_7.0.0-1.20.16321839
          • VMware-VM-Tools_11.1.0.16036546-16321839
          PR résolus  2550705, 2550688, 2550702, 2560224, 2544206, 2536240, 2558119, 2558150, 2558534, 2536327, 2536334, 2536337, 2555190, 2465417

            Problèmes connus

            Les problèmes connus sont classés comme suit :

            Problèmes de mise à niveau
            • PR 2579437 : La mise à niveau vers ESXi 7.0b échoue avec l'erreur L'opération ne peut pas continuer en raison de la rétrogradation des composants suivants : VMware-VM-Tools

              Lors de la mise à niveau d'ESXi à l'aide de Lifecycle Manager vSphere, si vous sélectionnez une nouvelle image de base ESXi dans le menu déroulant Version d'ESXi et que vous ne supprimez pas le composant Async VMware Tools de la section Composants, la mise à niveau échoue. Dans vSphere Client, vous voyez une erreur telle que
              L'opération ne peut pas continuer en raison de la rétrogradation des composants suivants : VMware-VM-Tools.
              Ce problème se produit, car le composant Async VMware Tools d'ESXi 7.0 remplace le composant dans l'image de base sélectionnée.

              Solution : supprimez le composant Async VMware Tools de la section Composants de votre image. Pour plus de détails, consultez l'article 79442 de la base de connaissances VMware.

            check-circle-line exclamation-circle-line close-line
            Scroll to top icon