ESXi 7.0 Update 3i | 8 décembre 2022 | 20842708 Vérifiez les compléments et les mises à jour pour ces notes de mise à jour. |
Contenu des notes de mise à jour
Les notes de mise à jour couvrent les sujets suivants :
- Nouveautés
- Versions antérieures d'ESXi 7.0
- Correctifs contenus dans cette version
- Remarques relatives à la prise en charge du produit
- Problèmes résolus
- Problèmes connus
- Problèmes connus depuis les versions précédentes
IMPORTANT : si votre système source contient des hôtes dont les versions sont comprises entre ESXi 7.0 Update 2 et Update 3c, et inclut des pilotes Intel, avant de procéder à la mise à niveau vers ESXi 7.0 Update 3i, reportez-vous à la section Nouveautés des Notes de mise à jour de VMware vCenter Server 7.0 Update 3c, car tout le contenu de cette section s'applique également à vSphere 7.0 Update 3i. Consultez également les articles associés de la base de connaissances VMware : 86447, 87258 et 87308.
Nouveautés
-
ESXi 7.0 Update 3i prend en charge vSphere Quick Boot sur le serveur suivant :
-
HPE ProLiant MicroServer Gen10 Plus v2
-
-
Cette version résout les vulnérabilités CVE-2022-31696 et CVE-2022-31699. Pour plus d'informations sur ces vulnérabilités et leur impact sur les produits VMware, reportez-vous à la page VMSA-2022-0030.
Versions antérieures d'ESXi 7.0
Les nouvelles fonctionnalités ainsi que les problèmes résolus et connus d'ESXi sont décrits dans les notes de mise à jour de chaque version. Notes de mise à jour des versions antérieures à ESXi 7.0 :
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3g
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3f
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3e
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3d
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2e
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1e
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 3c
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2d
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2c
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2a
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 2
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1d
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1c
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1b
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1a
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0 Update 1
- Notes de mise à jour de VMware ESXi 7.0, ESXi 7.0b
Pour plus d'informations sur l'internationalisation, la compatibilité et les composants open source, consultez les Notes de mise à jour de VMware vSphere 7.0.
Correctifs contenus dans cette version
Cette version d'ESXi 7.0 Update 3i fournit les correctifs suivants :
Détails de la build
Nom de fichier de téléchargement : | VMware-ESXi-7.0U3i-20842708-depot |
Build : | 20842708 |
Taille du téléchargement : | 570,5 Mo |
md5sum : | 7ec976758701d4287393aebcc2c5d55c |
sha256checksum : | 26b26ddb4e0d3ba2bc4ac3b693addb111a0b1980abf03fce243473812ec460f7 |
Redémarrage de l'hôte requis : | Oui |
Migration ou arrêt de la machine virtuelle requis : | Oui |
Composants
Composant | Bulletin | Catégorie | Gravité |
---|---|---|---|
Composant ESXi - VIB ESXi principaux | ESXi_7.0.3-0.65.20842708 | Correctif de bogues | Critique |
Composant d'installation/mise à niveau d'ESXi | esx-update_7.0.3-0.65.20842708 | Correctif de bogues | Critique |
Broadcom NetXtreme I Pilote Ethernet ESX VMKAPI | Broadcom-ntg3_4.1.8.0-4vmw.703.0.65.20842708 | Correctif de bogues | Critique |
Composant ESXi - VIB ESXi principaux | ESXi_7.0.3-0.60.20841705 | Sécurité | Critique |
Composant d'installation/mise à niveau d'ESXi | esx-update_7.0.3-0.60.20841705 | Sécurité | Critique |
Composant ESXi Tools | VMware-VM-Tools_12.1.0.20219665-20841705 | Sécurité | Critique |
IMPORTANT :
- À partir de vSphere 7.0, VMware utilise des composants pour le conditionnement des VIB avec des bulletins. Les bulletins
ESXi
etesx-update
sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte. - Lorsque vous appliquez un correctif aux hôtes ESXi à l'aide de VMware Update Manager à partir d'une version antérieure à ESXi 7.0 Update 2, il est vivement recommandé d'utiliser le bulletin de cumul dans la ligne de base de correctifs. Si vous ne pouvez pas utiliser le bulletin de cumul, assurez-vous d'inclure tous les modules suivants dans la ligne de base de correctifs. Si les modules suivants ne sont pas inclus dans la ligne de base, l'opération de mise à jour échoue :
- VMware-vmkusb_0.1-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-vmkata_0.1-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-vmkfcoe_1.0.0.2-1vmw.701.0.0.16850804 ou version ultérieure
- VMware-NVMeoF-RDMA_1.0.1.2-1vmw.701.0.0.16850804 ou version ultérieure
Bulletin de cumul
Ce bulletin de cumul contient les derniers VIB avec tous les correctifs postérieurs à la publication initiale d'ESXi 7.0.
ID de bulletin | Catégorie | Gravité | Détail |
ESXi70U3i-20842708 | Correctif de bogues | Critique | Sécurité et correctif de bogues |
ESXi70U3si-20841705 | Sécurité | Critique | Sécurité uniquement |
Profils d'image
Les versions des correctifs et des mises à jour de VMware contiennent des profils d'image généraux et critiques. L'application du profil d'image général s'applique aux nouveaux correctifs de bogues.
Nom de profil d'image |
ESXi-7.0U3i-20842708-standard |
ESXi-7.0U3i-20842708-no-tools |
ESXi-7.0U3si-20841705-standard |
ESXi-7.0U3si-20841705-no-tools |
Image ESXi
Nom et version | Date de publication | Catégorie | Détail |
---|---|---|---|
ESXi_7.0.3-0.65.20842708 | 8 Décembre 2022 | Amélioration | Image de sécurité et de résolutions de bogues |
ESXi_7.0.3-0.60.20841705 | 8 Décembre 2022 | Amélioration | Image de sécurité uniquement |
Pour plus d'informations sur les composants et bulletins individuels, reportez-vous à la page Correctifs de produits et à la section Problèmes résolus.
Téléchargement et installation de correctifs
Dans vSphere 7.x, le plug-in Update Manager, utilisé pour l'administration de vSphere Update Manager, est remplacé par le plug-in Lifecycle Manager. Les opérations d'administration pour vSphere Update Manager sont toujours disponibles sous le plug-in Lifecycle Manager, avec de nouvelles capacités pour vSphere Lifecycle Manager.
La manière habituelle d'appliquer des correctifs aux hôtes ESXi 7.x consiste à utiliser vSphere Lifecycle Manager. Pour plus d'informations, consultez À propos de vSphere Lifecycle Manager et Lignes de base et images de vSphere Lifecycle Manager.
Vous pouvez également mettre à jour des hôtes ESXi sans utiliser le plug-in Lifecycle Manager et utiliser un profil d'image à la place. Pour ce faire, vous devez télécharger manuellement le fichier ZIP du bundle hors ligne du correctif à partir de VMware Customer Connect. Dans le menu déroulant Sélectionner un produit, sélectionnez ESXi (intégré et installable), puis, dans le menu déroulant Sélectionner une version, sélectionnez 7.0. Pour plus d'informations, consultez Mise à niveau des hôtes à l'aide des commandes ESXCLI et le guide Mise à niveau de VMware ESXi.
Remarques relatives à la prise en charge du produit
- À partir de vSphere 7.0 Update 3i, lorsque vous configurez le proxy inverse sur le système vCenter Server pour activer l'authentification par carte à puce, vous devez utiliser le port 3128, qui est défini et ouvert automatiquement, mais vous devez être autorisé à accéder au port sur le système vCenter Server respectif. Vérifiez vos pare-feu de périmètre pour vous assurer que l'accès a été accordé. Assurez-vous de redémarrer le service STS après avoir configuré le service rhttpproxy.
Pour plus d'informations, reportez-vous à la section Configurer le proxy inverse pour demander des certificats client et aux articles 78057 et 90542 de la base de connaissances VMware.
Problèmes résolus
Les problèmes résolus sont regroupés comme suit :
- ESXi_7.0.3-0.65.20842708
- esx-update_7.0.3-0.65.20842708
- Broadcom-ntg3_4.1.8.0-4vmw.703.0.65.20842708
- ESXi_7.0.3-0.60.20841705
- esx-update_7.0.3-0.60.20841705
- VMware-VM-Tools_12.1.0.20219665-20841705
- ESXi-7.0U3i-20842708-standard
- ESXi-7.0U3i-20842708-no-tools
- ESXi-7.0U3si-20841705-standard
- ESXi-7.0U3si-20841705-no-tools
- ESXi_7.0.3-0.65.20842708
- ESXi_7.0.3-0.60.20841705
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 3021935, 2994966, 2983919, 3014323, 2996511, 2982013, 3011324, 3048788, 2983043, 3035934, 3015498, 3031708, 3041100, 3044475, 2990414, 3003866, 3011850, 3002779, 3033161, 3016132, 3015493, 3029194, 3007116, 2977496, 3021384, 2988179, 3025470, 3033159, 3011169, 3018832, 2977486, 2932056, 3013368, 2995471, 3006356, 2981272, 3000195, 3026623, 2981420, 3025469, 3042776, 2916160, 2996208, 3014374, 2977957, 2979281, 2976953, 2999968, 3031566, 3036859, 3029490, 2992407 |
Numéros CVE | S.O. |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB esx-xserver, gc, vsan, cpu-microcode, esx-base, esx-dvfilter-generic-fastpath, vsanhealth, native-misc-drivers, esx-ui, trx, bmcal, vdfs, esxio-combiner
et crx
pour résoudre les problèmes suivants :
- PR 3021935 : les événements de machine virtuelle signalent parfois la propriété de modèle de manière incorrecte
Dans de rares cas, les événements de machine virtuelle peuvent signaler de manière incorrecte la propriété
template
, qui indique si une machine virtuelle est marquée en tant que modèle. Par conséquent, vous pouvez voir la propriététemplate
commetrue
même si la machine virtuelle n'est pas un modèle de machine virtuelle, ou commefalse
, lorsqu'une machine virtuelle est marquée comme modèle.Ce problème est résolu dans cette version.
- PR 2994966 : vous ne voyez pas d'informations sur l'état de la mémoire pour les hôtes ESXi dans l'interface MOB (Managed Object Browser)
En raison d'une entité de module de mémoire manquante pour les serveurs Cisco dans le navigateur d'objets gérés, vous pouvez ne pas voir les informations sur l'état de la mémoire d'un hôte ESXi à l'aide de l'interface MOB.
Ce problème est résolu dans cette version. Le correctif ajoute la prise en charge de l'ID 8 d'entité de module de mémoire (08h).
- PR 2983919 : si les contrôleurs de domaine Active Directory ne répondent pas, le service hostd peut également cesser de répondre par intermittence
En de très rares occasions, des problèmes aléatoires liés aux environnements Active Directory qui peuvent entraîner l'absence de réponse des contrôleurs de domaine peuvent également entraîner l'absence de réponse du service hostd.
Ce problème est résolu dans cette version. Le correctif rend le service hostd résilient à l'absence de réponse intermittente du contrôleur de domaine Active Directory.
- PR 3014323 : après la création ou la restauration d'un snapshot de machine virtuelle, les compteurs de performances liés à l'invité de VMware Tools s'arrêtent pour se mettre à jour
Dans de rares cas, en raison du mécanisme de reprise d'interruption rapide utilisé pour créer ou restaurer une machine virtuelle vers un snapshot, l'état interne du processus VMX peut se réinitialiser sans notification aux couches supérieures de la pile de gestion de l'infrastructure virtuelle. Par conséquent, tous les compteurs de performance liés à l'invité fournis par VMware Tools cessent de se mettre à jour. Dans toutes les interfaces vers l'hôte ESXi, vous voyez en permanence les dernières valeurs enregistrées.
Ce problème est résolu dans cette version.
- PR 2996511 : le service rhttpproxy échoue occasionnellement avec un vidage de mémoire signalant un dépassement de mémoire tampon
Lorsque le service rhttpproxy effectue plusieurs opérations sur les URI entrants, il peut mal calculer le décalage de tampon de chaque connexion, ce qui peut potentiellement entraîner des erreurs telles que des dépassements de mémoire tampon et des lectures négatives. Par conséquent, le service échoue.
Ce problème est résolu dans cette version.
- PR 2982013 : vous ne pouvez pas modifier une option d'hypercall lorsqu'une machine virtuelle est sous tension
Par défaut, la modification des options d'hypercall à l'aide de commandes telles que
vm | Get-AdvancedSetting -Name isolation.tools.autoInstall.disable
fonctionne uniquement lorsque la machine virtuelle est hors tension. Pour les machines virtuelles sous tension, ces appels déclenchent l'erreurL'opération tentée ne peut pas être effectuée dans l'état actuel (Sous tension).
Cette situation est normale.Ce problème est résolu dans cette version.
- PR 3011324 : la mise à jour d'ESXi 7.0 Update 3c vers une version ultérieure peut rétablir les valeurs par défaut de toutes les options de sécurité avancées d'un hôte ESXi
Après la mise à jour d'un hôte ESXi 7.0 Update 3c vers une version ultérieure (ESXi 7.0.x), ou après l'installation ou la suppression d'un VIB ESXi 7.0 Update 3c et le redémarrage de l'hôte, il est possible que vous constatiez que toutes les options de sécurité avancées de l'hôte sont revenues à leurs valeurs par défaut. Les paramètres avancés affectés sont les suivants :
Security.AccountLockFailures
Security.AccountUnlockTime
Security.PasswordQualityControl
Security.PasswordHistory
Security.PasswordMaxDays
Security.SshSessionLimit
Security.DefaultShellAccessCe problème est résolu dans cette version.
- PR 3048788 : les périphériques SR-IOV peuvent signaler un nœud NUMA incorrect pour les fonctions virtuelles
La commande
esxcli hardware pci list
, qui indique le nœud NUMA pour les périphériques hôtes ESXi, renvoie le nœud NUMA correct pour les fonctions physiques (PF) d'un périphérique SR-IOV, mais renvoie zéro pour ses fonctions virtuelles (VF).Ce problème est résolu dans cette version. Le correctif garantit que les nœuds NUMA sont cohérents pour les fonctions physiques et virtuelles des périphériques SR-IOV.
- PR 2983043 : le système d'exploitation Windows invité peut échouer avec un écran de diagnostic bleu après la migration de machines virtuelles vers des hôtes ESXi 7.0 Update 2 ou version ultérieure
Après une mise à niveau vers ESXi 7.0 Update 2 ou version ultérieure, lorsque vous migrez des machines virtuelles Windows vers les hôtes mis à niveau à l'aide de vSphere vMotion, certaines machines virtuelles peuvent échouer avec un écran de diagnostic bleu après la migration. Dans l'écran, vous voyez l'erreur
Le système d'exploitation est introuvable, impossible de le démarrer
. Ce problème se produit en raison d'une erreur dans la logique d'optimisation d'adresses du système de fichiers de la machine virtuelle (VMFS, Virtual Machine File System).Ce problème est résolu dans cette version.
- PR 3035934 : les hôtes ESXi peuvent cesser de répondre lorsqu'aucun gestionnaire de demandes par défaut enregistré n'est disponible et que l'exécution de vmacore.dll échoue
Si l'application cliente n'a pas de gestionnaire de demandes par défaut enregistré, les demandes avec un chemin d'accès absent de la carte du gestionnaire peuvent entraîner l'échec de l'exécution de
vmacore.dll
. Par conséquent, vous voyez l'hôte ESXi déconnecté du système vCenter Server.Ce problème est résolu dans cette version.
- PR 3015498 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors d'opérations de réservation d'allocation de ressources
Certaines opérations de réservation d'allocation peuvent aller au-delà de la limite de 128 clés de réservation parallèles et dépasser la plage de mémoire allouée d'un hôte ESXi. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors d'opérations de réservation d'allocation de ressources. L'écran d'erreur affiche un message tel que
PSOD BlueScreen: #PF Exception 14 in world 2097700:SCSI period IP
.Ce problème est résolu dans cette version.
- PR 3031708 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors des opérations d'annulation de réclamation de périphérique ou de chemin d'accès
Si vous exécutez une commande d'annulation de réclamation sur un périphérique ou un chemin d'accès alors que les machines virtuelles ont toujours des E/S actives sur le périphérique, l'hôte ESXi peut échouer avec un écran de diagnostic violet. Dans l'écran, vous voyez un message tel que
PSOD sur bora/modules/vmkernel/nmp/nmp_misc.c:3839 pendant le chargement/déchargement de lpfc.
Ce problème est résolu dans cette version.
- PR 3041100 : lorsque TPM 2.0 est activé avec TXT sur un hôte ESXi, les tentatives de mise sous tension d'une machine virtuelle peuvent échouer
Lorsque TXT est activé sur un hôte ESX, les tentatives de mise sous tension d'une machine virtuelle peuvent échouer avec une erreur. Dans vSphere Client, vous voyez un message tel que
Cet hôte prend en charge la technologie Intel VT-x, mais celle-ci est restreinte. Il est possible que la technologie Intel VT-x soit restreinte parce que « trusted execution » a été activé dans les paramètres du BIOS/microprogramme ou parce que l'hôte n'a pas été redémarré après la modification de ce paramètre
.Ce problème est résolu dans cette version.
- PR 3044475 : les machines virtuelles peuvent échouer avec une erreur ESX irrécupérable en raison d'un problème rare survenant lors du traitement des instructions AVX2
En raison d'un problème rare lors du traitement des instructions AVX2, une machine virtuelle de version ESX 7.0 Update 3f peut échouer avec une erreur ESX irrécupérable. Un message tel que le suivant apparaît dans le fichier
vmware.log
:MONITOR PANIC : vcpu-0:VMM fault 6: src=MONITOR ....
Ce problème est spécifique aux machines virtuelles disposant de la version 12 ou d'une version antérieure du matériel.Ce problème est résolu dans cette version.
- PR 2990414 : les opérations de mise à niveau à l'aide d'une ligne de base de mise à niveau de vSphere Lifecycle Manager avec une image .iso personnalisée de vSphere ESXi Image Builder peuvent échouer
Si vous utilisez une image
.iso
ESXi créée à l'aide d'Image Builder pour générer une ligne de base de mise à niveau de vSphere Lifecycle Manager pour les hôtes ESXi, les mises à niveau à l'aide de ce type de ligne de base peuvent échouer. Dans vSphere Client, vous voyez un message d'erreur semblable au suivant :Impossible d'exécuter le script de mise à niveau sur l'hôte
. Dans le fichier/var/log/vua*.log
de l'hôte ESXi affecté, vous voyez une erreur telle queValueError: Une image de base doit être disponible lorsqu'un module complémentaire existe
.
Cette erreur se produit lorsque l'image existante de l'hôte ESXi dispose d'un module complémentaire, mais que l'image ISO générée par Image Builder ne fournit aucun module complémentaire.Ce problème est résolu dans cette version.
- PR 3003866 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison d'un espace XMAP insuffisant
De nombreuses demandes parallèles de régions de mémoire effectuées par les machines virtuelles utilisant le DPDK (Data Plane Development Kit) sur un hôte ESXi peuvent entraîner un dépassement de l'espace mémoire XMAP sur l'hôte. Par conséquent, l'hôte ESXi échoue avec un écran de diagnostic violet en affichant un message d'erreur tel que :
Panic Message: @BlueScreen: VERIFY bora/vmkernel/hardware/pci/config.c:157.
Ce problème est résolu dans cette version. Le correctif définit les régions de mémoire par défaut disponibles pour tous les adaptateurs vmxnet3 sur 8 192 Mo.
- PR 3011850 : vous ne voyez pas certains rapports de performances pour les machines virtuelles équipées de contrôleurs NVMe sur ESXi 7.0 Update 3 et versions ultérieures
Après une mise à niveau des hôtes ESXi vers ESXi 7.0 Update 3 et versions ultérieures, vous ne verrez peut-être plus certains rapports de performances pour les machines virtuelles équipées de contrôleurs NVMe. Par exemple, le graphique Disque virtuel - Cumul de toutes les instances ne s'affiche pas dans VMware Aria Operations.
Ce problème est résolu dans cette version.
- PR 3002779 : un hôte ESXi avec une machine virtuelle secondaire sur laquelle le chiffrement de tolérance aux pannes est activé peut échouer avec un écran de diagnostic violet en raison d'un dépassement de la mémoire tampon de déchiffrement
Dans de rares cas, comme lors du redémarrage planifié d'une machine virtuelle principale dotée du chiffrement de tolérance aux pannes qui exécute des charges de travail importantes, la mémoire tampon de la machine virtuelle secondaire peut être insuffisante pour déchiffrer plus de 512 Mo de pages incorrectes dans un seul point de contrôle de tolérance aux pannes et cette machine rencontre une erreur de dépassement de mémoire tampon. Par conséquent, l'hôte ESXi sur lequel réside la machine virtuelle secondaire peut échouer avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 3033161 : après la mise à niveau ou la mise à jour vers ESXi 7.0 Update 2 et versions ultérieures, le stockage vSAN marqué comme Flash (SSD) peut devenir disque magnétique (HDD)
Dans de rares cas, après la mise à niveau ou la mise à jour vers ESXi 7.0 Update 2 et versions ultérieures, la configuration du stockage vSAN peut perdre la balise
mark_ssd
et utiliser la valeur HDD par défaut.Ce problème est résolu dans cette version.
- PR 3016132 : vous constatez que des journaux concernant l'échec de l'enregistrement des LUN détachés sont fréquemment générés
Même lorsqu'un périphérique ou un LUN est à l'état détaché, l'architecture de stockage enfichable (PSA, Pluggable Storage Architecture) peut continuer à tenter d'enregistrer l'objet. L'architecture PSA enregistre un journal pour chaque étape d'évaluation du chemin à chaque intervalle d'évaluation du chemin de ces tentatives. Par conséquent, vous pouvez voir plusieurs messages identiques tels que
nmp_RegisterDeviceEvents failed
pour l'enregistrement du périphérique, qui ne sont pas nécessaires lorsque le périphérique ou le LUN est détaché.Ce problème est résolu dans cette version.
- PR 3015493 : lorsque vous modifiez la configuration d'un périphérique pendant l'exécution, le montage d'une banque de données peut échouer après le redémarrage d'un hôte ESXi
Si vous modifiez la configuration d'un périphérique pendant l'exécution, ces modifications peuvent ne pas être reflétées dans ESXi ConfigStore, qui contient les configurations d'un hôte ESXi. Par conséquent, il est possible que la banque de données ne soit pas montée après le redémarrage de l'hôte ESXi.
Ce problème est résolu dans cette version. Ce correctif garantit que ConfigStore reflète les modifications de configuration des périphériques effectuées pendant l'exécution.
- PR 3029194 : après la mise à niveau vers ESXi 7.0 Update 3 et versions ultérieures, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet en raison du planificateur d'E/S hérité
À partir d'ESXi 6.0, mClock est le planificateur d'E/S par défaut pour ESXi, mais certains environnements peuvent toujours utiliser des planificateurs hérités des versions d'ESXi antérieures à la version 6.0. Par conséquent, les mises à niveau de ces hôtes vers ESXi 7.0 Update 3 et versions ultérieures peuvent échouer avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 3007116 : si vous mettez à niveau des hôtes ESXi vers ESXi 7.0 Update 3d ou version ultérieure à l'aide d'un profil d'hôte avec des jetons indiquant l'état ALUA, les hôtes peuvent échouer avec un écran de diagnostic violet
À partir d'ESXi 7.0 Update 1, la gestion de la configuration des hôtes ESXi a été transférée du fichier
/etc/vmware/esx.conf
vers l'infrastructure ConfigStore, qui crée une séparation explicite de l'état et de la configuration. Des jetons du fichieresx.conf
, tels queimplicit_support
ouexplicit_support
, qui indiquent un état, ne sont pas reconnus comme des jetons valides et sont ignorés par le modulesatp_alua
. Par conséquent, lorsque vous mettez à niveau des hôtes ESXi vers ESXi 7.0 Update 3d ou version ultérieure à l'aide d'un profil d'hôte contenant des jetons indiquant l'état ALUA, l'opération peut échouer avec un écran de diagnostic violet. À l'écran, vous voyez une erreur telle queModules en échec : /var/lib/vmware/configmanager/upgrade/lib/postLoadStore/libupgradepsadeviceconfig.so
.Ce problème est résolu dans cette version.
- PR 2977496 : un hôte ESXi peut cesser de répondre en raison d'un problème rare d'allocation de bloc de fichier (FB)
Un mécanisme d'assistance qui met en cache les détails d'allocation des ressources FB, fonctionnant en arrière-plan, peut arrêter et bloquer accidentellement l'allocation des ressources FB lors des opérations d'E/S sur l'hôte ESXi. Dans certains cas, ce problème peut affecter d'autres processus travaillant sur le même fichier et les bloquer. Par conséquent, l'hôte ESXi peut cesser de répondre.
Ce problème est résolu dans cette version.
- PR 3021384 : l'activation du service de fichiers vSAN échoue lorsqu'un réseau témoin isolé est configuré
Le service de fichiers vSAN nécessite que les hôtes communiquent entre eux. Le service de fichiers peut utiliser de manière incorrecte une adresse IP dans le réseau témoin pour l'inter-communication. Si vous avez configuré un réseau témoin isolé pour vSAN, l'hôte peut communiquer avec un nœud témoin sur le réseau témoin, mais les hôtes ne peuvent pas communiquer entre eux sur ce dernier. Il est impossible d'établir la communication entre les hôtes pour le service de fichiers vSAN.
Ce problème est résolu dans cette version.
- PR 2988179 : si la mémoire d'un hôte ESXi est faible, l'allocation à un module réseau d'un segment de mémoire insuffisant peut entraîner l'échec de l'hôte avec un écran de diagnostic violet
Si la mémoire d'un hôte ESXi est faible, le bitmap de port peut être défini sur
NULL
du fait de l'allocation à un module réseau d'un segment de mémoire insuffisant. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet lors de la tentative de transfert d'un paquet.Ce problème est résolu dans cette version. Le correctif garantit que les vecteurs de bits ne sont définis dans la propriété
portsBitmap
que lorsque l'allocation du segment de mémoire réussit. Cependant, vous devez toujours vous assurer que les hôtes ESXi disposent de suffisamment de RAM pour fonctionner et transférer correctement les paquets. - PR 3025470 : le démon CLOMD (Cluster Level Object Manager Daemon) échoue lors de la modification du format d'objet
Lors d'un changement de format d'objet, certains objets avec une ancienne disposition peuvent être partiellement nettoyés, laissant la configuration dans un état non valide. Ce problème peut entraîner l'échec de CLOMD lorsqu'il tente de traiter l'objet pendant la reconfiguration.
Il est possible que vous voyiez les entrées suivantes dans le fichierclomd.log
:
2022-10-14T16:17:26.456Z PANIC: NOT_REACHED bora/lib/vsan/vsan_config_builder.c:744
2022-10-14T16:17:26.456Z Backtrace:
2022-10-14T16:17:26.456Z Backtrace[0] 0000030b4742c6a0 rip=000000bf0c7de98f rbx=0000030b4742c6a0
rbp=0000030b4742cad0 r12=000000bf0d677788 r13=0000030b4742cae8 r14=000000bf14ce052c r15=000000bf14ce3c2cCe problème est résolu dans cette version.
- PR 3033159 : les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lorsqu'une machine virtuelle dont le partage de bus est défini sur Physique émet une commande de réservation SCSI-2
Windows 2012 et les versions ultérieures utilisent la réservation SCSI-3 pour l'arbitrage de ressources afin de prendre en charge le clustering de basculement Windows (WSFC) sur ESXi pour les configurations CAB (Cluster-Across-Box). Cependant, si vous configurez le partage de bus du contrôleur SCSI sur cette machine virtuelle sur
Physique
, la commandeSCSI RESERVE
entraîne l'échec de l'hôte ESXi avec un écran de diagnostic violet.SCSI RESERVE
fait partie de la sémantique SCSI-2 et n'est pas pris en charge avec les clusters WSFC sur ESXi.Ce problème est résolu dans cette version.
- PR 3011169 : encombrement du cluster vSAN en raison de l'accumulation du cache
vSAN peut arrêter de transférer des données en raison d'un problème de comptage des E/S en attente. Si un groupe de disques vSAN cesse de transférer des données du cache vers le niveau de capacité, cela peut entraîner une accumulation des données au niveau du cache. Ce problème entraîne un encombrement, une limitation des E/S et une augmentation de la latence.
Ce problème est résolu dans cette version.
- PR 3018832 : si un cluster contient un objet de 0 octet, les hôtes vSAN peuvent échouer avec un écran de diagnostic violet
Si un cluster vSAN avec un objet de 0 octet reçoit une demande de modification de stratégie, le gestionnaire d'objets de niveau cluster (CLOM, Cluster Level Object Manager) peut définir de manière incorrecte un indicateur non valide pour un ou plusieurs composants de l'objet. Un tel indicateur peut entraîner l'envoi par l'hôte d'écritures volumineuses qui surchargent le système et entraînent l'échec de l'hôte avec un écran de diagnostic violet.
Ce problème est résolu dans cette version.
- PR 2977486 : la contention de verrouillage intermittente des blocs de journal VMFS peut retarder les commandes de réanalyse VMFS ou entraîner l'échec du montage d'une banque de données
Un problème rare de traitement des blocs de journaux VMFS peut entraîner une contention de verrouillage qui entraîne des retards dans les opérations de réanalyse VMFS ou un échec du montage des banques de données. Dans les journaux vmkernel, vous voyez des erreurs telles que
Resource file for resource: 6 reached max limit 8192
etResource file extension ('No space left on device')
.Ce problème est résolu dans cette version.
- PR 2932056 : le service vmx peut échouer lors de l'annulation d'une tâche vSphere Storage vMotion et que vCenter Server High Availability redémarre les machines virtuelles
Dans de rares cas, le service vmx peut échouer lors de l'annulation d'une tâche vSphere Storage vMotion. Par conséquent, si votre environnement utilise vCenter Server High Availability, le service redémarre les machines virtuelles affectées.
Ce problème est résolu dans cette version.
- PR 3013368 : lors du démarrage, vous voyez des erreurs indiquant que la prise en charge des configurations avec carte SD et USB uniquement est obsolète
Lorsque vous utilisez des configurations avec des périphériques SD ou USB uniquement pour démarrer ESXi 7.x, vous pouvez voir des erreurs telles que
La prise en charge de la configuration de carte SD/USB uniquement est obsolète
. Ce message n'indique pas une erreur, mais constitue uniquement un avertissement signalant que les périphériques SD et USB ne sont pris en charge que pour les partitions bootbank, et que, pour des performances optimales, un stockage persistant secondaire d'au moins 32 Go doit être fourni pour les outils/scratch
et VMware Tools qui résident sur la partition OSData.Ce problème est résolu dans cette version. Le correctif supprime le message pour éviter toute confusion, car les déploiements sans stockage persistant sont pris en charge, bien que ce ne soit pas une meilleure pratique.
- PR 2995471 : disque vSAN chiffré et verrouillé en raison d'une clé de chiffrement non disponible
Ce problème s'applique aux hôtes vSAN qui utilisent un KMS externe pour le chiffrement des données au repos. Lorsque vous mettez à niveau un hôte vSAN de la version 6.7 ou antérieure vers la version 7.0 et ultérieure, le mot de passe KMS est perdu. Les disques de l'hôte restent chiffrés et verrouillés.
Ce problème est résolu dans cette version.
- PR 3006356 : l'hôte ESXi échoue avec un écran de diagnostic violet en raison de la reliaison de volumes virtuels
Dans de rares cas, les vSphere Virtual Volumes peuvent tenter de relier des volumes sur les hôtes ESXi disposant de réservations SCSI persistantes. Par conséquent, les hôtes ESXi échouent avec un écran de diagnostic violet et une erreur telle que
Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4933 - Usage error in dlmalloc
dans la trace de débogage.Ce problème est résolu dans cette version.
- PR 2981272 : vSphere Client affiche 0 Ko, quelle que soit la taille réelle du VMDK d'une machine virtuelle
En raison d'un problème de mise en cache, vous pouvez voir une taille de VMDK de 0 Ko dans vSphere Client, quelle que soit la taille réelle des machines virtuelles dans un environnement vSphere Virtual Volumes.
Ce problème est résolu dans cette version.
- PR 3000195 : une opération Advanced Cross vCenter vMotion inter-site peut expirer et certaines machines virtuelles cessent de répondre
Pendant la partie migration du stockage d'une opération Advanced Cross vCenter vMotion inter-site, certaines E/S asynchrones sur la pile de stockage peuvent être bloquées et ne pas expirer correctement. Par conséquent, les machines virtuelles attendent toujours une réponse d'E/S, ce qui entraîne l'expiration de l'opération Advanced Cross vCenter vMotion, et les machines virtuelles cessent de répondre.
Ce problème est résolu dans cette version. Le correctif ajoute un délai d'expiration à chaque demande d'E/S asynchrone pour s'assurer qu'une réponse est renvoyée après le délai d'expiration.
- PR 3026623 : la récupération LLOG peut marquer par erreur les composants vSAN comme non valides
Un composant vSAN peut être marqué par erreur comme non valide en raison d'un problème lors d'une récupération LLOG. Ce problème peut entraîner une augmentation du volume des journaux et un encombrement.
Ce problème est résolu dans cette version.
- PR 2981420 : le démon Small-Footprint CIM Broker (SFCBD) cesse de répondre par intermittence
En raison d'une allocation insuffisante du pool de ressources, certains services qui renvoient leurs informations au SFCBD, tels que sfcb-vmware_base et sfcb-vmw, peuvent échouer et générer un zdump. Dans le fichier
syslog.log
, vous pouvez voir des erreurs telles que :sfcb-vmware_base[2110110]: tool_mm_realloc_or_die: memory re-allocation failed(orig=364000 new=364800 msg=Cannot allocate memory, aborting
sfcb-vmw_ipmi[2291550]: tool_mm_realloc_or_die: memory re-allocation failed(orig=909200 new=909600 msg=Cannot allocate memory, aborting
Ce problème est résolu dans cette version. Le correctif augmente la taille de pool par défaut pour le service sfcb-vmware_base.
- PR 3025469 : si la stratégie cible est Raid 1, StripeWidth 1, la reconfiguration de la stratégie des objets volumineux dans un cluster vSAN peut s'arrêter sans progresser
Si la stratégie cible est Raid 1, StripeWidth 1, lorsqu'un cluster vSAN n'a plus assez de capacité transitoire, le gestionnaire d'objets de niveau cluster peut continuer à reconfigurer la même partie des objets dont la taille est supérieure à 8 To. Par conséquent, ces objets restent dans un état non conforme et vous pouvez voir des opérations de resynchronisation inutiles.
Ce problème est résolu dans cette version.
- PR 3042776 : Storage I/O Control génère rapidement un grand volume de journaux marqués comme critiques, qui peuvent également remplir la banque de données
Dans VMware Aria Operations for Logs, anciennement vRealize Log Insight, vous pouvez voir un volume important de journaux générés par Storage I/O Control tels que
Invalid share value: 0. Using default.
etSkipping device naa.xxxx either due to VSI read error or abnormal state
. Le volume des journaux varie selon le nombre d'hôtes ESXi dans un cluster et le nombre de périphériques dont l'état est désactivé. Lorsque le problème se produit, le volume des journaux est rapidement généré, dans les 24 heures, et VMware Aria Operations for Logs peut classer les messages comme critiques. Cependant, ces journaux sont inoffensifs et n'affectent pas les opérations sur les autres banques de données en ligne.Ce problème est résolu dans cette version. Le correctif transforme les erreurs de ces journaux en éléments insignifiants pour éviter toute journalisation erronée.
- PR 2916160 : ESXi Managed Object Browser (MOB) affiche l'état du CPU comme inconnu
Si la liste des capteurs de stockage d'un hôte ESXi est vide, l'état du CPU que l'interface intelligente de gestion de plate-forme (IPMI, Intelligent Platform Management Interface) signale peut se réinitialiser. Par conséquent, l'enregistrement des données du capteur avec
entité
ID 3
, qui est l'état du processeur, affiche de manière incorrecteImpossible de rendre compte de l'état actuel de l'élément physique
dans le MOB.Ce problème est résolu dans cette version. Le correctif garantit que l'état du CPU se réinitialise uniquement lorsque l'actualisation de l'état du capteur à partir d'IPMI échoue.
- PR 2996208 : une latence de lecture élevée s'affiche pour les objets d'un cluster étendu
Dans les clusters étendus, vSAN déploie chaque objet VMDK avec un format spécifique. Lorsque vous modifiez la stratégie d'un objet VMDK de
hostFailureToTolerate=0
àhostFailureToTolerate=1
, le format peut changer de telle sorte qu'il fait transiter les lectures par la liaison intersite (entre les zones de disponibilité). Par conséquent, vous voyez une latence de lecture plus élevée dans ces objets.Ce problème est résolu dans cette version.
- PR 3014374 : dans vSphere Client, vous voyez des options répétées dans le menu déroulant Partage de bus SCSI
Dans vSphere Client, lorsque vous créez ou reconfigurez une machine virtuelle, sous Contrôleur SCSI > Partage de bus de SCSI vous pouvez voir des options en double dans le menu déroulant. Ce problème n'affecte aucun workflow de création ou de configuration de machine virtuelle.
Ce problème est résolu dans cette version.
- PR 2977957 : après une opération de migration, les machines virtuelles Windows 10 peuvent échouer avec un écran de diagnostic bleu et des rapports d'incompatibilité de révision de microcode
Après une opération de migration, les machines virtuelles Windows 10 peuvent échouer avec un écran de diagnostic bleu et signaler une erreur de non-correspondance de révision de microcode, telle que :-
MICROCODE_REVISION_MISMATCH (17e)
Ce problème se produit lorsqu'une analyse des CPU s'exécute pendant l'opération de migration et que le microprogramme des CPU sources ne correspond pas au microprogramme des CPU de destination.Ce problème est résolu dans cette version.
- PR 2979281 : les hôtes ESXi peuvent cesser de répondre en raison d'un état de mémoire insuffisante intermittent du fait de la péremption des données du cache
Dans certains cas, l'effacement du cache d'objets dans un volume de banque de données sur les hôtes ESXi échoue ; les objets restent dans le cache et entraînent un état de mémoire insuffisante. Par exemple, lorsque la connexion avec le périphérique sous-jacent du volume est abandonnée. Par conséquent, l'hôte ESXi cesse de répondre. Dans les journaux, vous voyez des erreurs telles que :
Cannot reconnect to xxxxx] or Failed to cleanup VMFS heartbeat on volume xxxxx: No connection.
ouThe volume on the device xxxxx locked, possibly because some remote host encountered an error during a volume operation and could not recover
.Ce problème est résolu dans cette version.
- PR 2976953 : le service hostd peut échouer et les machines virtuelles s'arrêter en raison d'un épuisement intermittent du cache d'objets
Certains workflows tels que les opérations de sauvegarde d'hôtes ESXi peuvent ouvrir un grand nombre de fichiers, ce qui peut entraîner l'épuisement du cache d'objets. Dans ce cas, vous pouvez voir le service hostd échouer ou les machines virtuelles s'arrêter ou passer à un état non valide qui les empêche de se mettre sous tension. Les journaux affichent des avertissements tels que
Cannot allocate memory
.Ce problème est résolu dans cette version. Le correctif double la taille du cache d'objets à 183 Mo pour s'adapter aux fortes charges de travail.
- PR 2999968 : l'état de santé vSAN signale une erreur de redémarrage du serveur de fichiers
Dans Surveiller > Santé Skyline > Service de fichiers > Santé du serveur de fichiers, vous pouvez voir l'erreur
Le serveur de fichiers est en train de (re)démarrer
.
Ce problème est dû à un débordement du cache, ce qui entraîne l'échec du démon VDFS. Dans le fichier/var/run/log/vdfsd-server.log
d'un hôte ESXi affecté, des messages tels queNOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp
s'affichent.Ce problème est résolu dans cette version.
- PR 3031566 : la modification de la stratégie d'une machine virtuelle sous tension avec un contrôleur IDE génère une erreur indiquant que l'opération tentée ne peut pas être effectuée dans l'état actuel
Dans vSphere Client, lorsque vous modifiez la stratégie d'une machine virtuelle sous tension avec un contrôleur IDE, vous pouvez voir l'erreur
L'opération que vous tentez d'effectuer ne peut pas être exécutée dans l'état actuel (« Sous tension »)
.Ce problème est résolu dans cette version.
- PR 3036859 : le maillage HCI ne parvient pas à monter le cluster après la réactivation de vSAN avec le chiffrement des données en transit préalablement activé
Le montage du cluster par le maillage HCI peut échouer après la désactivation de vSAN avec le chiffrement des données en transit, puis la réactivation de vSAN.
Ce problème est résolu dans cette version.
- PR 3029490 : vSAN Skyline Health n'inclut pas de groupe de compatibilité matérielle
Si les lecteurs NVMe utilisés pour vSAN ont un ID PCI en double et que vous redémarrez le service de santé vSAN sur vCenter Server, le groupe de compatibilité matérielle est manquant dans vSAN Skyline Health.
Ce problème est résolu dans cette version.
- PR 2992407 : l'attestation TPM 2.0 peut échouer sur les serveurs Lenovo avec une erreur de mémoire tampon insuffisante
L'attestation TPM 2.0 sur les serveurs Lenovo renvoie le code d'erreur TPM :
TSS2_SYS_RC_INSUFFICIENT_BUFFER
.Ce problème est résolu dans cette version.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour les VIB loadesx
et esx-update
.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 3007883 |
Numéros CVE | S.O. |
Met à jour le VIB ntg3
pour résoudre le problème suivant :
- PR 3007883 : Vous constatez un battement de lien sur les cartes réseau qui utilisent le pilote ntg3 de la version 4.1.3 et des versions ultérieures
Lorsque deux cartes réseau qui utilisent le pilote ntg3 de la version 4.1.3 et versions ultérieures sont connectées directement, et non à un port de commutateur physique, il peut se produire un battement de lien. Ce problème ne se produit pas sur les pilotes ntg3 des versions antérieures à la version 4.1.3 ou avec le pilote tg3. Ce problème n'est pas lié au battement de lien EEE (Energy Efficient Ethernet) occasionnel sur ces cartes réseau. Le correctif du problème EEE consiste à utiliser un pilote ntg3 de version 4.1.7 ou ultérieure, ou à désactiver EEE sur les ports de commutateur physique.
Ce problème est résolu dans cette version. ESXi 7.0 Update 3i est fourni avec le pilote
ntg3
version 4.1.8. Toutefois, après la mise à niveau du pilotentg3
vers la version 4.1.8, vous devez définir le nouveau paramètre de modulenoPhyStateSet
sur1
. Le paramètrenoPhyStateSet
est défini par défaut sur0
et n'est pas requis dans la plupart des environnements, sauf s'ils sont confrontés à ce problème.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 2993721, 3007957, 3007958, 3015560, 3034286, 3038621, 3030691 |
Numéros CVE | CVE-2020-28196, CVE-2022-31696, CVE-2022-31699 |
Les bulletins ESXi et esx-update sont interdépendants. Incluez toujours les deux dans une ligne de base de correctifs d'hôte ESXi ou incluez le bulletin de cumul dans la ligne de base pour éviter un échec pendant le correctif de l'hôte.
Met à jour les VIB esx-ui, esx-xserver, cpu-microcode, trx, vsanhealth, esx-base, esx-dvfilter-generic-fastpath, gc, esxio-combiner, native-misc-drivers, bmcal, vsan, vdfs
et crx
pour résoudre les problèmes suivants :
- Le VIB cpu-microcode inclut le microcode Intel suivant :
Nom de code FMS ID de PLT Révision de MCU Date de MCU Noms de marque Nehalem EP 0x106a5 (06/1a/5) 0x03 0x0000001d 11/05/2018 Intel Xeon 35xx Series ;
Intel Xeon 55xx SeriesClarkdale 0x20652 (06/25/2) 0x12 0x00000011 08/05/2018 Intel i3/i5 Clarkdale Series
Intel Xeon 34xx Clarkdale SeriesArrandale 0x20655 (06/25/5) 0x92 0x00000007 23/04/2018 Processeur Intel Core i7-620LE Sandy Bridge DT 0x206a7 (06/2a/7) 0x12 0x0000002f 17/02/2019 Intel Xeon E3-1100 Series ;
Intel Xeon E3-1200 Series ;
Intel i7-2655-LE Series
Intel i3-2100 SeriesWestmere EP 0x206c2 (06/2c/2) 0x03 0x0000001f 08/05/2018 Intel Xeon série 56xx
Intel Xeon 36xx SeriesSandy Bridge EP 0x206d6 (06/2d/6) 0x6d 0x00000621 04/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesSandy Bridge EP 0x206d7 (06/2d/7) 0x6d 0x0000071a 24/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesNehalem EX 0x206e6 (06/2e/6) 0x04 0x0000000d 15/05/2018 Intel Xeon 65xx Series ;
Intel Xeon 75xx SeriesWestmere EX 0x206f2 (06/2f/2) 0x05 0x0000003b 16/05/2018 Intel Xeon E7-8800 Series ;
Intel Xeon E7-4800 Series ;
Intel Xeon E7-2800 SeriesIvy Bridge DT 0x306a9 (06/3a/9) 0x12 0x00000021 13/02/2019 Intel i3-3200 Series ;
Intel i7-3500-LE/UE
Intel i7-3600-QE
Intel Xeon E3-1200-v2 Series;
Intel Xeon E3-1100-C-v2 Series
Intel Pentium B925CHaswell DT 0x306c3 (06/3c/3) 0x32 0x00000028 12/11/2019 Intel Xeon E3-1200-v3 Series ;
Intel i7-4700-EQ Series
Intel i5-4500-TE Series
Intel i3-4300 SeriesIvy Bridge EP 0x306e4 (06/3e/4) 0xed 0x0000042e 14/03/2019 Intel Xeon E5-4600-v2 Series ;
Intel Xeon E5-2600-v2 Series ;
Intel Xeon E5-2400-v2 Series ;
Intel Xeon E5-1600-v2 Series ;
Intel Xeon E5-1400-v2 SeriesIvy Bridge EX 0x306e7 (06/3e/7) 0xed 0x00000715 14/03/2019 Intel Xeon E7-8800/4800/2800-v2 Series Haswell EP 0x306f2 (06/3f/2) 0x6f 0x00000049 11/08/2021 Intel Xeon E5-4600-v3 Series ;
Intel Xeon E5-2600-v3 Series ;
Intel Xeon E5-2400-v3 Series ;
Intel Xeon E5-1600-v3 Series ;
Intel Xeon E5-1400-v3 SeriesHaswell EX 0x306f4 (06/3f/4) 0x80 0x0000001a 24/05/2021 Intel Xeon E7-8800/4800-v3 Series Broadwell H 0x40671 (06/47/1) 0x22 0x00000022 12/11/2019 Intel Core i7-5700EQ
Intel Xeon E3-1200-v4 SeriesAvoton 0x406d8 (06/4d/8) 0x01 0x0000012d 16/09/2019 Intel Atom C2300 Series ;
Intel Atom C2500 Series ;
Intel Atom C2700 SeriesBroadwell EP/EX 0x406f1 (06/4f/1) 0xef 0x0b000040 19/05/2021 Intel Xeon E7-8800/4800-v4 Series ;
Intel Xeon E5-4600-v4 Series ;
Intel Xeon E5-2600-v4 Series ;
Intel Xeon E5-1600-v4 SeriesSkylake SP 0x50654 (06/55/4) 0xb7 0x02006e05 3/8/2022 Intel Xeon Platinum 8100 Series ;
Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100 Series
Intel Xeon D-2100 Series ;
Intel Xeon D-1600 Series ;
Intel Xeon W-3100 Series ;
Intel Xeon W-2100 SeriesCascade Lake B-0 0x50656 (06/55/6) 0xbf 0x04003302 10/12/2021 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Cascade Lake 0x50657 (06/55/7) 0xbf 0x05003302 10/12/2021 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Cooper Lake 0x5065b (06/55/b) 0xbf 0x07002501 19/11/2021 Intel Xeon Platinum 8300 Series ;
Intel Xeon Gold 6300/5300Broadwell DE 0x50662 (06/56/2) 0x10 0x0000001c 17/06/2019 Intel Xeon D-1500 Series Broadwell DE 0x50663 (06/56/3) 0x10 0x0700001c 12/06/2021 Intel Xeon D-1500 Series Broadwell DE 0x50664 (06/56/4) 0x10 0x0f00001a 12/06/2021 Intel Xeon D-1500 Series Broadwell NS 0x50665 (06/56/5) 0x10 0x0e000014 18/09/2021 Intel Xeon D-1600 Series Skylake H/S 0x506e3 (06/5e/3) 0x36 0x000000f0 11/12/2021 Intel Xeon E3-1500-v5 Series ;
Intel Xeon E3-1200-v5 SeriesDenverton 0x506f1 (06/5f/1) 0x01 0x00000038 02/12/2021 Intel Atom C3000 Series Ice Lake SP 0x606a6 (06/6a/6) 0x87 0x0d000375 07/04/2022 Intel Xeon Silver 4300 Series
Intel Xeon Gold 6300/5300 Series ;
Intel Xeon Platinum 8300 SeriesIce Lake D 0x606c1 (06/6c/1) 0x10 0x010001f0 24/06/2022 Intel Xeon D Series Snow Ridge 0x80665 (06/86/5) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Snow Ridge 0x80667 (06/86/7) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Kaby Lake H/S/X 0x906e9 (06/9e/9) 0x2a 0x000000f0 11/12/2021 Intel Xeon E3-1200-v6 Series ;
Intel Xeon E3-1500-v6 SeriesCoffee Lake 0x906ea (06/9e/a) 0x22 0x000000f0 15/11/2021 Intel Xeon E-2100 Series ;
Intel Xeon E-2200 Series (4 ou 6 cœurs)Coffee Lake 0x906eb (06/9e/b) 0x02 0x000000f0 11/12/2021 Intel Xeon E-2100 Series Coffee Lake 0x906ec (06/9e/c) 0x22 0x000000f0 15/11/2021 Intel Xeon E-2100 Series Coffee Lake Refresh 0x906ed (06/9e/d) 0x22 0x000000f4 31/07/2022 Intel Xeon E-2200 Series (8 cœurs) Rocket Lake S 0xa0671 (06/a7/1) 0x02 0x00000056 02/08/2022 Intel Xeon E-2300 Series - ESXi 7.0 Update 3i fournit les mises à jour de sécurité suivantes :
- OpenSSL a été mis à jour vers la version 1.0.2zf.
- Apache Thrift a été mis à jour vers la version 0.15.0.
- Le client urllib3 a été mis à jour vers la version 1.26.5.
- cURL a été mis à jour vers la version 7.84.0.
- La base de données SQLite a été mise à jour vers la version 3.39.2.
- L'analyseur XML Expat a été mis à jour vers la version 2.4.9.
Cette version résout les vulnérabilités CVE-2022-31696 et CVE-2022-31699. Pour plus d'informations sur ces vulnérabilités et leur impact sur les produits VMware, reportez-vous à la page VMSA-2022-0030.
Catégorie des correctifs | Correctif de bogues |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Oui |
Migration ou arrêt de la machine virtuelle requis | Oui |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | S.O. |
Numéros CVE | S.O. |
Met à jour les VIB loadesx
et esx-update
.
Catégorie des correctifs | Sécurité |
Gravité des correctifs | Critique |
Redémarrage de l'hôte requis | Non |
Migration ou arrêt de la machine virtuelle requis | Non |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB inclus |
|
PR résolus | 3015499 |
Numéros CVE | S.O. |
Met à jour le VIB tools-light
.
- Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3i :
windows.iso
: VMware Tools 12.1.0 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.linux.iso
: image ISO de VMware Tools 10.3.25 pour le système d'exploitation Linux avec glibc version 2.11 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
- VMware Tools 11.0.6 :
windows.iso
: pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12 :
winPreVista.iso
: pour Windows 2000, Windows XP et Windows 2003.linuxPreGLibc25.iso
: prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
-
solaris.iso
: Image de VMware Tools 10.3.10 pour Solaris.
darwin.iso
: Prend en charge Mac OS X 10.11 et versions ultérieures.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
Nom du profil | ESXi-7.0U3i-20842708-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 8 décembre 2022 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 3021935, 2994966, 2983919, 3014323, 2996511, 2982013, 3011324, 3048788, 2983043, 3035934, 3015498, 3031708, 3041100, 3044475, 2990414, 3003866, 3011850, 3002779, 3033161, 3016132, 3015493, 3029194, 3007116, 2977496, 3021384, 2988179, 3025470, 3033159, 3011169, 3018832, 2977486, 2932056, 3013368, 2995471, 3006356, 2981272, 3000195, 3026623, 2981420, 3025469, 3042776, 2916160, 2996208, 3014374, 2977957, 2979281, 2976953, 2999968, 3031566, 3036859, 3029490, 3007883, 2992407 |
Numéros CVE associés | S/O |
- Ce correctif met à jour les problèmes suivants :
-
Dans de rares cas, les événements de machine virtuelle peuvent signaler de manière incorrecte la propriété
template
, qui indique si une machine virtuelle est marquée en tant que modèle. Par conséquent, vous pouvez voir la propriététemplate
commetrue
même si la machine virtuelle n'est pas un modèle de machine virtuelle, ou commefalse
, lorsqu'une machine virtuelle est marquée comme modèle. -
En raison d'une entité de module de mémoire manquante pour les serveurs Cisco dans le navigateur d'objets gérés, vous pouvez ne pas voir les informations sur l'état de la mémoire d'un hôte ESXi à l'aide de l'interface MOB.
-
En de très rares occasions, des problèmes aléatoires liés aux environnements Active Directory qui peuvent entraîner l'absence de réponse des contrôleurs de domaine peuvent également entraîner l'absence de réponse du service hostd.
-
Dans de rares cas, en raison du mécanisme de reprise d'interruption rapide utilisé pour créer ou restaurer une machine virtuelle vers un snapshot, l'état interne du processus VMX peut se réinitialiser sans notification aux couches supérieures de la pile de gestion de l'infrastructure virtuelle. Par conséquent, tous les compteurs de performance liés à l'invité fournis par VMware Tools cessent de se mettre à jour. Dans toutes les interfaces vers l'hôte ESXi, vous voyez en permanence les dernières valeurs enregistrées.
-
Lorsque le service rhttpproxy effectue plusieurs opérations sur les URI entrants, il peut mal calculer le décalage de tampon de chaque connexion, ce qui peut potentiellement entraîner des erreurs telles que des dépassements de mémoire tampon et des lectures négatives. Par conséquent, le service échoue.
-
Par défaut, la modification des options hypercall à l'aide de commandes telles que
vm | Get-AdvancedSetting -Name isolation.tools.autoInstall.disable
fonctionne uniquement lorsque la machine virtuelle est hors tension. Pour les machines virtuelles sous tension, ces appels déclenchent l'erreurL'opération que vous tentez d'effectuer ne peut pas être exécutée dans l'état actuel (« Sous tension »).
Cette situation est normale. -
Après la mise à jour d'un hôte ESXi 7.0 Update 3c vers une version ultérieure (ESXi 7.0.x), ou après l'installation ou la suppression d'un VIB ESXi 7.0 Update 3c et le redémarrage de l'hôte, il est possible que vous constatiez que toutes les options de sécurité avancées de l'hôte sont revenues à leurs valeurs par défaut. Les paramètres avancés affectés sont les suivants :
Security.AccountLockFailures
Security.AccountUnlockTime
Security.PasswordQualityControl
Security.PasswordHistory
Security.PasswordMaxDays
Security.SshSessionLimit
Security.DefaultShellAccess -
La commande
esxcli hardware pci list
, qui signale le nœud NUMA pour les périphériques hôtes ESXi, renvoie le nœud NUMA correct pour les fonctions physiques (PF) d'un périphérique SR-IOV, mais renvoie zéro pour ses fonctions virtuelles (VF). -
Après une mise à niveau vers ESXi 7.0 Update 2 ou version ultérieure, lorsque vous migrez des machines virtuelles Windows vers les hôtes mis à niveau à l'aide de vSphere vMotion, certaines machines virtuelles peuvent échouer avec un écran de diagnostic bleu après la migration. À l'écran, vous voyez l'erreur
Le système d'exploitation est introuvable, impossible de le démarrer
. Ce problème se produit en raison d'une erreur dans la logique d'optimisation d'adresses du système de fichiers de la machine virtuelle (VMFS, Virtual Machine File System). -
Si l'application cliente n'a pas de gestionnaire de demandes par défaut enregistré, les demandes avec un chemin d'accès absent de la carte du gestionnaire peuvent entraîner l'échec de l'exécution de
vmacore.dll
. Par conséquent, vous voyez l'hôte ESXi déconnecté du système vCenter Server. -
Certaines opérations de réservation d'allocation peuvent aller au-delà de la limite de 128 clés de réservation parallèles et dépasser la plage de mémoire allouée d'un hôte ESXi. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors d'opérations de réservation d'allocation de ressources. L'écran d'erreur affiche un message tel que
PSOD BlueScreen: #PF Exception 14 in world 2097700:SCSI period IP
. -
Si vous exécutez une commande d'annulation de réclamation sur un périphérique ou un chemin d'accès alors que les machines virtuelles ont toujours des E/S actives sur le périphérique, l'hôte ESXi peut échouer avec un écran de diagnostic violet. À l'écran, vous voyez un message tel que
PSOD at bora/modules/vmkernel/nmp/nmp_misc.c:3839 during load/unload of lpfc.
-
Lorsque TXT est activé sur un hôte ESX, les tentatives de mise sous tension d'une machine virtuelle peuvent échouer avec une erreur. Dans vSphere Client, vous voyez un message tel que
Cet hôte prend en charge la technologie Intel VT-x, mais celle-ci est restreinte. Il est possible que la technologie Intel VT-x soit restreinte parce que « trusted execution » a été activé dans les paramètres du BIOS/microprogramme ou parce que l'hôte n'a pas été redémarré après la modification de ce paramètre
. -
En raison d'un problème rare lors du traitement des instructions AVX2, une machine virtuelle de version ESX 7.0 Update 3f peut échouer avec une erreur ESX irrécupérable. Un message tel que le suivant apparaît dans le fichier
vmware.log
:MONITOR PANIC : vcpu-0:VMM fault 6: src=MONITOR ....
Ce problème est spécifique aux machines virtuelles disposant de la version 12 ou d'une version antérieure du matériel. -
Si vous utilisez une image
.iso
ESXi créée à l'aide d'Image Builder pour créer une ligne de base de mise à niveau vSphere Lifecycle Manager pour les hôtes ESXi, les mises à niveau à l'aide de ces lignes de base peuvent échouer. Dans vSphere Client, vous voyez un message d'erreur semblable au suivant :Impossible d'exécuter le script de mise à niveau sur l'hôte
. Sur l'hôte ESXi affecté, le fichier/var/log/vua*.log
indique une erreur telle queValueError: Une image de base doit être disponible lorsqu'un module complémentaire existe
.
Cette erreur se produit lorsque l'image existante de l'hôte ESXi dispose d'un module complémentaire, mais que l'image ISO générée par Image Builder ne fournit aucun module complémentaire. -
De nombreuses demandes parallèles de régions de mémoire effectuées par les machines virtuelles utilisant le DPDK (Data Plane Development Kit) sur un hôte ESXi peuvent entraîner un dépassement de l'espace mémoire XMAP sur l'hôte. Par conséquent, l'hôte ESXi échoue avec un écran de diagnostic violet en affichant un message d'erreur tel que :
Panic Message: @BlueScreen: VERIFY bora/vmkernel/hardware/pci/config.c:157.
-
Après une mise à niveau des hôtes ESXi vers ESXi 7.0 Update 3 et versions ultérieures, vous ne verrez peut-être plus certains rapports de performances pour les machines virtuelles équipées de contrôleurs NVMe. Par exemple, le graphique Disque virtuel - Cumul de toutes les instances ne s'affiche pas dans VMware Aria Operations.
-
Dans de rares cas, comme lors du redémarrage planifié d'une machine virtuelle principale dotée du chiffrement de tolérance aux pannes qui exécute des charges de travail importantes, la mémoire tampon de la machine virtuelle secondaire peut être insuffisante pour déchiffrer plus de 512 Mo de pages incorrectes dans un seul point de contrôle de tolérance aux pannes et cette machine rencontre une erreur de dépassement de mémoire tampon. Par conséquent, l'hôte ESXi sur lequel réside la machine virtuelle secondaire peut échouer avec un écran de diagnostic violet.
-
Dans de rares cas, après la mise à niveau ou la mise à jour vers ESXi 7.0 Update 2 et versions ultérieures, la configuration du stockage vSAN peut perdre la balise
mark_ssd
et utiliser la valeur par défaut HDD. -
Même lorsqu'un périphérique ou un LUN est à l'état détaché, l'architecture de stockage enfichable (PSA, Pluggable Storage Architecture) peut continuer à tenter d'enregistrer l'objet. L'architecture PSA enregistre un journal pour chaque étape d'évaluation du chemin à chaque intervalle d'évaluation du chemin de ces tentatives. Par conséquent, vous pouvez voir plusieurs messages identiques tels que
nmp_RegisterDeviceEvents failed
pour l'enregistrement du périphérique, qui ne sont pas nécessaires lorsque le périphérique ou le LUN est détaché. -
Si vous modifiez la configuration d'un périphérique pendant l'exécution, ces modifications peuvent ne pas être reflétées dans ESXi ConfigStore, qui contient les configurations d'un hôte ESXi. Par conséquent, il est possible que la banque de données ne soit pas montée après le redémarrage de l'hôte ESXi.
-
À partir d'ESXi 6.0, mClock est le planificateur d'E/S par défaut pour ESXi, mais certains environnements peuvent toujours utiliser des planificateurs hérités des versions d'ESXi antérieures à la version 6.0. Par conséquent, les mises à niveau de ces hôtes vers ESXi 7.0 Update 3 et versions ultérieures peuvent échouer avec un écran de diagnostic violet.
-
À partir de ESXi 7.0 Update 1, la gestion de la configuration des hôtes ESXi a été transférée du fichier
/etc/vmware/esx.conf
vers l'infrastructure ConfigStore, ce qui crée une séparation explicite de l'état et de la configuration. Les jetons du fichieresx.conf
tels queimplicit_support
ouexplicit_support
qui indiquent un état, ne sont pas reconnus comme des jetons valides et sont ignorés par le modulesatp_alua
. Par conséquent, lorsque vous mettez à niveau des hôtes ESXi vers ESXi 7.0 Update 3d ou version ultérieure à l'aide d'un profil d'hôte contenant des jetons indiquant l'état ALUA, l'opération peut échouer avec un écran de diagnostic violet. À l'écran, vous voyez une erreur telle queModules en échec : /var/lib/vmware/configmanager/upgrade/lib/postLoadStore/libupgradepsadeviceconfig.so
. -
Un mécanisme d'assistance qui met en cache les détails d'allocation des ressources FB, fonctionnant en arrière-plan, peut arrêter et bloquer accidentellement l'allocation des ressources FB lors des opérations d'E/S sur l'hôte ESXi. Dans certains cas, ce problème peut affecter d'autres processus travaillant sur le même fichier et les bloquer. Par conséquent, l'hôte ESXi peut cesser de répondre.
-
Le service de fichiers vSAN nécessite que les hôtes communiquent entre eux. Le service de fichiers peut utiliser de manière incorrecte une adresse IP dans le réseau témoin pour l'inter-communication. Si vous avez configuré un réseau témoin isolé pour vSAN, l'hôte peut communiquer avec un nœud témoin sur le réseau témoin, mais les hôtes ne peuvent pas communiquer entre eux sur ce dernier. Il est impossible d'établir la communication entre les hôtes pour le service de fichiers vSAN.
-
Si un hôte ESXi est dans un état de mémoire faible, une allocation insuffisante de segment de mémoire à un module réseau peut entraîner la définition du bitmap de port sur
NULL
. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet lors de la tentative de transfert d'un paquet. -
Lors d'un changement de format d'objet, certains objets avec une ancienne disposition peuvent être partiellement nettoyés, laissant la configuration dans un état non valide. Ce problème peut entraîner l'échec de CLOMD lorsqu'il tente de traiter l'objet pendant la reconfiguration.
Il est possible que vous voyiez les entrées suivantes dans le fichierclomd.log
:
2022-10-14T16:17:26.456Z PANIC: NOT_REACHED bora/lib/vsan/vsan_config_builder.c:744
2022-10-14T16:17:26.456Z Backtrace:
2022-10-14T16:17:26.456Z Backtrace[0] 0000030b4742c6a0 rip=000000bf0c7de98f rbx=0000030b4742c6a0
rbp=0000030b4742cad0 r12=000000bf0d677788 r13=0000030b4742cae8 r14=000000bf14ce052c r15=000000bf14ce3c2c -
Windows 2012 et les versions ultérieures utilisent la réservation SCSI-3 pour l'arbitrage de ressources afin de prendre en charge le clustering de basculement Windows (WSFC) sur ESXi pour les configurations CAB (Cluster-Across-Box). Cependant, si vous configurez le partage de bus du contrôleur SCSI sur cette machine virtuelle sur
Physique
, la commandeSCSI RESERVE
entraîne l'échec de l'hôte ESXi avec un écran de diagnostic violet.SCSI RESERVE
fait partie de la sémantique SCSI-2 et n'est pas pris en charge avec les clusters WSFC sur ESXi. -
vSAN peut arrêter de transférer des données en raison d'un problème de comptage des E/S en attente. Si un groupe de disques vSAN cesse de transférer des données du cache vers le niveau de capacité, cela peut entraîner une accumulation des données au niveau du cache. Ce problème entraîne un encombrement, une limitation des E/S et une augmentation de la latence.
-
Si un cluster vSAN avec un objet de 0 octet reçoit une demande de modification de stratégie, le gestionnaire d'objets de niveau cluster (CLOM, Cluster Level Object Manager) peut définir de manière incorrecte un indicateur non valide pour un ou plusieurs composants de l'objet. Un tel indicateur peut entraîner l'envoi par l'hôte d'écritures volumineuses qui surchargent le système et entraînent l'échec de l'hôte avec un écran de diagnostic violet.
-
Un problème rare de traitement des blocs de journaux VMFS peut entraîner une contention de verrouillage qui entraîne des retards dans les opérations de réanalyse VMFS ou un échec du montage des banques de données. Dans les journaux vmkernel, vous voyez des erreurs telles que
Resource file for resource: 6 reached max limit 8192
etResource file extension ('No space left on device')
. -
Dans de rares cas, le service vmx peut échouer lors de l'annulation d'une tâche vSphere Storage vMotion. Par conséquent, si votre environnement utilise vCenter Server High Availability, le service redémarre les machines virtuelles affectées.
-
Lorsque vous utilisez des configurations avec uniquement des périphériques SD ou USB pour démarrer ESXi 7.x, vous pouvez voir des erreurs telles que
La prise en charge de la configuration de carte SD/USB uniquement est obsolète
. Ce message n'indique pas d'erreur, mais constitue seulement un avertissement signalant que les périphériques SD et USB sont uniquement pris en charge pour les partitions bootbank et que pour des performances optimales, un stockage persistant secondaire d'au moins 32 Go doit être fourni pour les outils/scratch
et VMware Tools qui résident dans la partition OSData. -
Ce problème s'applique aux hôtes vSAN qui utilisent un KMS externe pour le chiffrement des données au repos. Lorsque vous mettez à niveau un hôte vSAN de la version 6.7 ou antérieure vers la version 7.0 et ultérieure, le mot de passe KMS est perdu. Les disques de l'hôte restent chiffrés et verrouillés.
-
Dans de rares cas, les vSphere Virtual Volumes peuvent tenter de relier des volumes sur les hôtes ESXi disposant de réservations SCSI persistantes. Par conséquent, les hôtes ESXi échouent avec un écran de diagnostic violet et une erreur telle que
Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4933 - Usage error in dlmalloc
dans la trace de débogage. -
En raison d'un problème de mise en cache, vous pouvez voir une taille de VMDK de 0 Ko dans vSphere Client, quelle que soit la taille réelle des machines virtuelles dans un environnement vSphere Virtual Volumes.
-
Pendant la partie migration du stockage d'une opération Advanced Cross vCenter vMotion inter-site, certaines E/S asynchrones sur la pile de stockage peuvent être bloquées et ne pas expirer correctement. Par conséquent, les machines virtuelles attendent toujours une réponse d'E/S, ce qui entraîne l'expiration de l'opération Advanced Cross vCenter vMotion, et les machines virtuelles cessent de répondre.
-
Un composant vSAN peut être marqué par erreur comme non valide en raison d'un problème lors d'une récupération LLOG. Ce problème peut entraîner une augmentation du volume des journaux et un encombrement.
-
En raison d'une allocation insuffisante du pool de ressources, certains services qui renvoient leurs informations au SFCBD, tels que sfcb-vmware_base et sfcb-vmw, peuvent échouer et générer un zdump. Dans le fichier
syslog.log
, vous voyez des erreurs telles que :sfcb-vmware_base[2110110]: tool_mm_realloc_or_die: memory re-allocation failed(orig=364000 new=364800 msg=Cannot allocate memory, aborting
sfcb-vmw_ipmi[2291550]: tool_mm_realloc_or_die: memory re-allocation failed(orig=909200 new=909600 msg=Cannot allocate memory, aborting
-
Si la stratégie cible est Raid 1, StripeWidth 1, lorsqu'un cluster vSAN n'a plus assez de capacité transitoire, le gestionnaire d'objets de niveau cluster peut continuer à reconfigurer la même partie des objets dont la taille est supérieure à 8 To. Par conséquent, ces objets restent dans un état non conforme et vous pouvez voir des opérations de resynchronisation inutiles.
-
Dans VMware Aria Operations for Logs, anciennement vRealize Log Insight, vous pouvez voir un volume important de journaux généré par Storage I/O Control avec des messages tels que
Invalid share value: 0. Using default.
etSkipping device naa.xxxx either due to VSI read error or abnormal state
. Le volume des journaux varie selon le nombre d'hôtes ESXi dans un cluster et le nombre de périphériques dont l'état est désactivé. Lorsque le problème se produit, le volume des journaux est rapidement généré, dans les 24 heures, et VMware Aria Operations for Logs peut classer les messages comme critiques. Cependant, ces journaux sont inoffensifs et n'affectent pas les opérations sur les autres banques de données en ligne. -
Si la liste des capteurs de stockage d'un hôte ESXi est vide, l'état du CPU que l'interface intelligente de gestion de plate-forme (IPMI, Intelligent Platform Management Interface) signale peut se réinitialiser. Par conséquent, l'enregistrement des données du capteur avec
entité
ID 3
, qui est l'état du processeur, affiche de manière incorrecteImpossible de rendre compte de l'état actuel de l'élément physique
dans le MOB. -
Dans les clusters étendus, vSAN déploie chaque objet VMDK avec un format spécifique. Lorsque vous modifiez la stratégie d'un objet VMDK de
hostFailureToTolerate=0
àhostFailureToTolerate=1
, le format peut changer de telle sorte qu'il fait transiter les lectures par la liaison intersite (entre les zones de disponibilité). Par conséquent, vous voyez une latence de lecture plus élevée dans ces objets. -
Dans vSphere Client, lorsque vous créez ou reconfigurez une machine virtuelle, sous Contrôleur SCSI > Partage de bus de SCSI vous pouvez voir des options en double dans le menu déroulant. Ce problème n'affecte aucun workflow de création ou de configuration de machine virtuelle.
-
Après une opération de migration, les machines virtuelles Windows 10 peuvent échouer avec un écran de diagnostic bleu et signaler une erreur de non-correspondance de révision de microcode, telle que :-
MICROCODE_REVISION_MISMATCH (17e)
Ce problème se produit lorsqu'une analyse des CPU s'exécute pendant l'opération de migration et que le microprogramme des CPU sources ne correspond pas au microprogramme des CPU de destination. -
Dans certains cas, l'effacement du cache d'objets dans un volume de banque de données sur les hôtes ESXi échoue ; les objets restent dans le cache et entraînent un état de mémoire insuffisante. Par exemple, lorsque la connexion avec le périphérique sous-jacent du volume est abandonnée. Par conséquent, l'hôte ESXi cesse de répondre. Dans les journaux, vous voyez des erreurs telles que :
Cannot reconnect to xxxxx] or Failed to cleanup VMFS heartbeat on volume xxxxx: No connection.
ouThe volume on the device xxxxx locked, possibly because some remote host encountered an error during a volume operation and could not recover
. -
Certains workflows tels que les opérations de sauvegarde d'hôtes ESXi peuvent ouvrir un grand nombre de fichiers, ce qui peut entraîner l'épuisement du cache d'objets. Dans ce cas, vous pouvez voir le service hostd échouer ou les machines virtuelles s'arrêter ou passer à un état non valide qui les empêche de se mettre sous tension. Les journaux affichent des avertissements tels que
Cannot allocate memory
. -
Dans Surveiller > Santé Skyline > Service de fichiers > Santé du serveur de fichiers, vous pouvez voir l'erreur
Le serveur de fichiers est en train de (re)démarrer
.
Ce problème est dû à un débordement du cache, ce qui entraîne l'échec du démon VDFS. Dans le fichier/var/run/log/vdfsd-server.log
d'un hôte ESXi affecté, des messages tels queNOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp
s'affichent. -
Dans vSphere Client, lorsque vous modifiez la stratégie d'une machine virtuelle sous tension avec un contrôleur IDE, vous pouvez voir l'erreur
L'opération que vous tentez d'effectuer ne peut pas être exécutée dans l'état actuel (« Sous tension »)
. -
Le montage du cluster par le maillage HCI peut échouer après la désactivation de vSAN avec le chiffrement des données en transit, puis la réactivation de vSAN.
-
Si les lecteurs NVMe utilisés pour vSAN ont un ID PCI en double et que vous redémarrez le service de santé vSAN sur vCenter Server, le groupe de compatibilité matérielle est manquant dans vSAN Skyline Health.
-
Lorsque deux cartes réseau qui utilisent le pilote ntg3 de la version 4.1.3 et versions ultérieures sont connectées directement, et non à un port de commutateur physique, il peut se produire un battement de lien. Ce problème ne se produit pas sur les pilotes ntg3 des versions antérieures à la version 4.1.3 ou avec le pilote tg3. Ce problème n'est pas lié au battement de lien EEE (Energy Efficient Ethernet) occasionnel sur ces cartes réseau. Le correctif du problème EEE consiste à utiliser un pilote ntg3 de version 4.1.7 ou ultérieure, ou à désactiver EEE sur les ports de commutateur physique.
-
L'attestation TPM 2.0 sur les serveurs Lenovo renvoie le code d'erreur TPM :
TSS2_SYS_RC_INSUFFICIENT_BUFFER
.
-
Nom du profil | ESXi-7.0U3i-20842708-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 8 décembre 2022 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 3021935, 2994966, 2983919, 3014323, 2996511, 2982013, 3011324, 3048788, 2983043, 3035934, 3015498, 3031708, 3041100, 3044475, 2990414, 3003866, 3011850, 3002779, 3033161, 3016132, 3015493, 3029194, 3007116, 2977496, 3021384, 2988179, 3025470, 3033159, 3011169, 3018832, 2977486, 2932056, 3013368, 2995471, 3006356, 2981272, 3000195, 3026623, 2981420, 3025469, 3042776, 2916160, 2996208, 3014374, 2977957, 2979281, 2976953, 2999968, 3031566, 3036859, 3029490, 3007883, 2992407 |
Numéros CVE associés | S/O |
- Ce correctif met à jour les problèmes suivants :
-
Dans de rares cas, les événements de machine virtuelle peuvent signaler de manière incorrecte la propriété
template
, qui indique si une machine virtuelle est marquée en tant que modèle. Par conséquent, vous pouvez voir la propriététemplate
commetrue
même si la machine virtuelle n'est pas un modèle de machine virtuelle, ou commefalse
, lorsqu'une machine virtuelle est marquée comme modèle. -
En raison d'une entité de module de mémoire manquante pour les serveurs Cisco dans le navigateur d'objets gérés, vous pouvez ne pas voir les informations sur l'état de la mémoire d'un hôte ESXi à l'aide de l'interface MOB.
-
En de très rares occasions, des problèmes aléatoires liés aux environnements Active Directory qui peuvent entraîner l'absence de réponse des contrôleurs de domaine peuvent également entraîner l'absence de réponse du service hostd.
-
Dans de rares cas, en raison du mécanisme de reprise d'interruption rapide utilisé pour créer ou restaurer une machine virtuelle vers un snapshot, l'état interne du processus VMX peut se réinitialiser sans notification aux couches supérieures de la pile de gestion de l'infrastructure virtuelle. Par conséquent, tous les compteurs de performance liés à l'invité fournis par VMware Tools cessent de se mettre à jour. Dans toutes les interfaces vers l'hôte ESXi, vous voyez en permanence les dernières valeurs enregistrées.
-
Lorsque le service rhttpproxy effectue plusieurs opérations sur les URI entrants, il peut mal calculer le décalage de tampon de chaque connexion, ce qui peut potentiellement entraîner des erreurs telles que des dépassements de mémoire tampon et des lectures négatives. Par conséquent, le service échoue.
-
Par défaut, la modification des options hypercall à l'aide de commandes telles que
vm | Get-AdvancedSetting -Name isolation.tools.autoInstall.disable
fonctionne uniquement lorsque la machine virtuelle est hors tension. Pour les machines virtuelles sous tension, ces appels déclenchent l'erreurL'opération que vous tentez d'effectuer ne peut pas être exécutée dans l'état actuel (« Sous tension »).
Cette situation est normale. -
Après la mise à jour d'un hôte ESXi 7.0 Update 3c vers une version ultérieure (ESXi 7.0.x), ou après l'installation ou la suppression d'un VIB ESXi 7.0 Update 3c et le redémarrage de l'hôte, il est possible que vous constatiez que toutes les options de sécurité avancées de l'hôte sont revenues à leurs valeurs par défaut. Les paramètres avancés affectés sont les suivants :
Security.AccountLockFailures
Security.AccountUnlockTime
Security.PasswordQualityControl
Security.PasswordHistory
Security.PasswordMaxDays
Security.SshSessionLimit
Security.DefaultShellAccess -
La commande
esxcli hardware pci list
, qui signale le nœud NUMA pour les périphériques hôtes ESXi, renvoie le nœud NUMA correct pour les fonctions physiques (PF) d'un périphérique SR-IOV, mais renvoie zéro pour ses fonctions virtuelles (VF). -
Après une mise à niveau vers ESXi 7.0 Update 2 ou version ultérieure, lorsque vous migrez des machines virtuelles Windows vers les hôtes mis à niveau à l'aide de vSphere vMotion, certaines machines virtuelles peuvent échouer avec un écran de diagnostic bleu après la migration. À l'écran, vous voyez l'erreur
Le système d'exploitation est introuvable, impossible de le démarrer
. Ce problème se produit en raison d'une erreur dans la logique d'optimisation d'adresses du système de fichiers de la machine virtuelle (VMFS, Virtual Machine File System). -
Si l'application cliente n'a pas de gestionnaire de demandes par défaut enregistré, les demandes avec un chemin d'accès absent de la carte du gestionnaire peuvent entraîner l'échec de l'exécution de
vmacore.dll
. Par conséquent, vous voyez l'hôte ESXi déconnecté du système vCenter Server. -
Certaines opérations de réservation d'allocation peuvent aller au-delà de la limite de 128 clés de réservation parallèles et dépasser la plage de mémoire allouée d'un hôte ESXi. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors d'opérations de réservation d'allocation de ressources. L'écran d'erreur affiche un message tel que
PSOD BlueScreen: #PF Exception 14 in world 2097700:SCSI period IP
. -
Si vous exécutez une commande d'annulation de réclamation sur un périphérique ou un chemin d'accès alors que les machines virtuelles ont toujours des E/S actives sur le périphérique, l'hôte ESXi peut échouer avec un écran de diagnostic violet. À l'écran, vous voyez un message tel que
PSOD at bora/modules/vmkernel/nmp/nmp_misc.c:3839 during load/unload of lpfc.
-
Lorsque TXT est activé sur un hôte ESX, les tentatives de mise sous tension d'une machine virtuelle peuvent échouer avec une erreur. Dans vSphere Client, vous voyez un message tel que
Cet hôte prend en charge la technologie Intel VT-x, mais celle-ci est restreinte. Il est possible que la technologie Intel VT-x soit restreinte parce que « trusted execution » a été activé dans les paramètres du BIOS/microprogramme ou parce que l'hôte n'a pas été redémarré après la modification de ce paramètre
. -
En raison d'un problème rare lors du traitement des instructions AVX2, une machine virtuelle de version ESX 7.0 Update 3f peut échouer avec une erreur ESX irrécupérable. Un message tel que le suivant apparaît dans le fichier
vmware.log
:MONITOR PANIC : vcpu-0:VMM fault 6: src=MONITOR ....
Ce problème est spécifique aux machines virtuelles disposant de la version 12 ou d'une version antérieure du matériel. -
Si vous utilisez une image
.iso
ESXi créée à l'aide d'Image Builder pour créer une ligne de base de mise à niveau vSphere Lifecycle Manager pour les hôtes ESXi, les mises à niveau à l'aide de ces lignes de base peuvent échouer. Dans vSphere Client, vous voyez un message d'erreur semblable au suivant :Impossible d'exécuter le script de mise à niveau sur l'hôte
. Sur l'hôte ESXi affecté, le fichier/var/log/vua*.log
indique une erreur telle queValueError: Une image de base doit être disponible lorsqu'un module complémentaire existe
.
Cette erreur se produit lorsque l'image existante de l'hôte ESXi dispose d'un module complémentaire, mais que l'image ISO générée par Image Builder ne fournit aucun module complémentaire. -
De nombreuses demandes parallèles de régions de mémoire effectuées par les machines virtuelles utilisant le DPDK (Data Plane Development Kit) sur un hôte ESXi peuvent entraîner un dépassement de l'espace mémoire XMAP sur l'hôte. Par conséquent, l'hôte ESXi échoue avec un écran de diagnostic violet en affichant un message d'erreur tel que :
Panic Message: @BlueScreen: VERIFY bora/vmkernel/hardware/pci/config.c:157.
-
Après une mise à niveau des hôtes ESXi vers ESXi 7.0 Update 3 et versions ultérieures, vous ne verrez peut-être plus certains rapports de performances pour les machines virtuelles équipées de contrôleurs NVMe. Par exemple, le graphique Disque virtuel - Cumul de toutes les instances ne s'affiche pas dans VMware Aria Operations.
-
Dans de rares cas, comme lors du redémarrage planifié d'une machine virtuelle principale dotée du chiffrement de tolérance aux pannes qui exécute des charges de travail importantes, la mémoire tampon de la machine virtuelle secondaire peut être insuffisante pour déchiffrer plus de 512 Mo de pages incorrectes dans un seul point de contrôle de tolérance aux pannes et cette machine rencontre une erreur de dépassement de mémoire tampon. Par conséquent, l'hôte ESXi sur lequel réside la machine virtuelle secondaire peut échouer avec un écran de diagnostic violet.
-
Dans de rares cas, après la mise à niveau ou la mise à jour vers ESXi 7.0 Update 2 et versions ultérieures, la configuration du stockage vSAN peut perdre la balise
mark_ssd
et utiliser la valeur par défaut HDD. -
Même lorsqu'un périphérique ou un LUN est à l'état détaché, l'architecture de stockage enfichable (PSA, Pluggable Storage Architecture) peut continuer à tenter d'enregistrer l'objet. L'architecture PSA enregistre un journal pour chaque étape d'évaluation du chemin à chaque intervalle d'évaluation du chemin de ces tentatives. Par conséquent, vous pouvez voir plusieurs messages identiques tels que
nmp_RegisterDeviceEvents failed
pour l'enregistrement du périphérique, qui ne sont pas nécessaires lorsque le périphérique ou le LUN est détaché. -
Si vous modifiez la configuration d'un périphérique pendant l'exécution, ces modifications peuvent ne pas être reflétées dans ESXi ConfigStore, qui contient les configurations d'un hôte ESXi. Par conséquent, il est possible que la banque de données ne soit pas montée après le redémarrage de l'hôte ESXi.
-
À partir d'ESXi 6.0, mClock est le planificateur d'E/S par défaut pour ESXi, mais certains environnements peuvent toujours utiliser des planificateurs hérités des versions d'ESXi antérieures à la version 6.0. Par conséquent, les mises à niveau de ces hôtes vers ESXi 7.0 Update 3 et versions ultérieures peuvent échouer avec un écran de diagnostic violet.
-
À partir de ESXi 7.0 Update 1, la gestion de la configuration des hôtes ESXi a été transférée du fichier
/etc/vmware/esx.conf
vers l'infrastructure ConfigStore, ce qui crée une séparation explicite de l'état et de la configuration. Les jetons du fichieresx.conf
tels queimplicit_support
ouexplicit_support
qui indiquent un état, ne sont pas reconnus comme des jetons valides et sont ignorés par le modulesatp_alua
. Par conséquent, lorsque vous mettez à niveau des hôtes ESXi vers ESXi 7.0 Update 3d ou version ultérieure à l'aide d'un profil d'hôte contenant des jetons indiquant l'état ALUA, l'opération peut échouer avec un écran de diagnostic violet. À l'écran, vous voyez une erreur telle queModules en échec : /var/lib/vmware/configmanager/upgrade/lib/postLoadStore/libupgradepsadeviceconfig.so
. -
Un mécanisme d'assistance qui met en cache les détails d'allocation des ressources FB, fonctionnant en arrière-plan, peut arrêter et bloquer accidentellement l'allocation des ressources FB lors des opérations d'E/S sur l'hôte ESXi. Dans certains cas, ce problème peut affecter d'autres processus travaillant sur le même fichier et les bloquer. Par conséquent, l'hôte ESXi peut cesser de répondre.
-
Le service de fichiers vSAN nécessite que les hôtes communiquent entre eux. Le service de fichiers peut utiliser de manière incorrecte une adresse IP dans le réseau témoin pour l'inter-communication. Si vous avez configuré un réseau témoin isolé pour vSAN, l'hôte peut communiquer avec un nœud témoin sur le réseau témoin, mais les hôtes ne peuvent pas communiquer entre eux sur ce dernier. Il est impossible d'établir la communication entre les hôtes pour le service de fichiers vSAN.
-
Si un hôte ESXi est dans un état de mémoire faible, une allocation insuffisante de segment de mémoire à un module réseau peut entraîner la définition du bitmap de port sur
NULL
. Par conséquent, l'hôte ESXi peut échouer avec un écran de diagnostic violet lors de la tentative de transfert d'un paquet. -
Lors d'un changement de format d'objet, certains objets avec une ancienne disposition peuvent être partiellement nettoyés, laissant la configuration dans un état non valide. Ce problème peut entraîner l'échec de CLOMD lorsqu'il tente de traiter l'objet pendant la reconfiguration.
Il est possible que vous voyiez les entrées suivantes dans le fichierclomd.log
:
2022-10-14T16:17:26.456Z PANIC: NOT_REACHED bora/lib/vsan/vsan_config_builder.c:744
2022-10-14T16:17:26.456Z Backtrace:
2022-10-14T16:17:26.456Z Backtrace[0] 0000030b4742c6a0 rip=000000bf0c7de98f rbx=0000030b4742c6a0
rbp=0000030b4742cad0 r12=000000bf0d677788 r13=0000030b4742cae8 r14=000000bf14ce052c r15=000000bf14ce3c2c -
Windows 2012 et les versions ultérieures utilisent la réservation SCSI-3 pour l'arbitrage de ressources afin de prendre en charge le clustering de basculement Windows (WSFC) sur ESXi pour les configurations CAB (Cluster-Across-Box). Cependant, si vous configurez le partage de bus du contrôleur SCSI sur cette machine virtuelle sur
Physique
, la commandeSCSI RESERVE
entraîne l'échec de l'hôte ESXi avec un écran de diagnostic violet.SCSI RESERVE
fait partie de la sémantique SCSI-2 et n'est pas pris en charge avec les clusters WSFC sur ESXi. -
vSAN peut arrêter de transférer des données en raison d'un problème de comptage des E/S en attente. Si un groupe de disques vSAN cesse de transférer des données du cache vers le niveau de capacité, cela peut entraîner une accumulation des données au niveau du cache. Ce problème entraîne un encombrement, une limitation des E/S et une augmentation de la latence.
-
Si un cluster vSAN avec un objet de 0 octet reçoit une demande de modification de stratégie, le gestionnaire d'objets de niveau cluster (CLOM, Cluster Level Object Manager) peut définir de manière incorrecte un indicateur non valide pour un ou plusieurs composants de l'objet. Un tel indicateur peut entraîner l'envoi par l'hôte d'écritures volumineuses qui surchargent le système et entraînent l'échec de l'hôte avec un écran de diagnostic violet.
-
Un problème rare de traitement des blocs de journaux VMFS peut entraîner une contention de verrouillage qui entraîne des retards dans les opérations de réanalyse VMFS ou un échec du montage des banques de données. Dans les journaux vmkernel, vous voyez des erreurs telles que
Resource file for resource: 6 reached max limit 8192
etResource file extension ('No space left on device')
. -
Dans de rares cas, le service vmx peut échouer lors de l'annulation d'une tâche vSphere Storage vMotion. Par conséquent, si votre environnement utilise vCenter Server High Availability, le service redémarre les machines virtuelles affectées.
-
Lorsque vous utilisez des configurations avec uniquement des périphériques SD ou USB pour démarrer ESXi 7.x, vous pouvez voir des erreurs telles que
La prise en charge de la configuration de carte SD/USB uniquement est obsolète
. Ce message n'indique pas d'erreur, mais constitue seulement un avertissement signalant que les périphériques SD et USB sont uniquement pris en charge pour les partitions bootbank et que pour des performances optimales, un stockage persistant secondaire d'au moins 32 Go doit être fourni pour les outils/scratch
et VMware Tools qui résident dans la partition OSData. -
Ce problème s'applique aux hôtes vSAN qui utilisent un KMS externe pour le chiffrement des données au repos. Lorsque vous mettez à niveau un hôte vSAN de la version 6.7 ou antérieure vers la version 7.0 et ultérieure, le mot de passe KMS est perdu. Les disques de l'hôte restent chiffrés et verrouillés.
-
Dans de rares cas, les vSphere Virtual Volumes peuvent tenter de relier des volumes sur les hôtes ESXi disposant de réservations SCSI persistantes. Par conséquent, les hôtes ESXi échouent avec un écran de diagnostic violet et une erreur telle que
Panic Message: @BlueScreen: PANIC bora/vmkernel/main/dlmalloc.c:4933 - Usage error in dlmalloc
dans la trace de débogage. -
En raison d'un problème de mise en cache, vous pouvez voir une taille de VMDK de 0 Ko dans vSphere Client, quelle que soit la taille réelle des machines virtuelles dans un environnement vSphere Virtual Volumes.
-
Pendant la partie migration du stockage d'une opération Advanced Cross vCenter vMotion inter-site, certaines E/S asynchrones sur la pile de stockage peuvent être bloquées et ne pas expirer correctement. Par conséquent, les machines virtuelles attendent toujours une réponse d'E/S, ce qui entraîne l'expiration de l'opération Advanced Cross vCenter vMotion, et les machines virtuelles cessent de répondre.
-
Un composant vSAN peut être marqué par erreur comme non valide en raison d'un problème lors d'une récupération LLOG. Ce problème peut entraîner une augmentation du volume des journaux et un encombrement.
-
En raison d'une allocation insuffisante du pool de ressources, certains services qui renvoient leurs informations au SFCBD, tels que sfcb-vmware_base et sfcb-vmw, peuvent échouer et générer un zdump. Dans le fichier
syslog.log
, vous voyez des erreurs telles que :sfcb-vmware_base[2110110]: tool_mm_realloc_or_die: memory re-allocation failed(orig=364000 new=364800 msg=Cannot allocate memory, aborting
sfcb-vmw_ipmi[2291550]: tool_mm_realloc_or_die: memory re-allocation failed(orig=909200 new=909600 msg=Cannot allocate memory, aborting
-
Si la stratégie cible est Raid 1, StripeWidth 1, lorsqu'un cluster vSAN n'a plus assez de capacité transitoire, le gestionnaire d'objets de niveau cluster peut continuer à reconfigurer la même partie des objets dont la taille est supérieure à 8 To. Par conséquent, ces objets restent dans un état non conforme et vous pouvez voir des opérations de resynchronisation inutiles.
-
Dans VMware Aria Operations for Logs, anciennement vRealize Log Insight, vous pouvez voir un volume important de journaux généré par Storage I/O Control avec des messages tels que
Invalid share value: 0. Using default.
etSkipping device naa.xxxx either due to VSI read error or abnormal state
. Le volume des journaux varie selon le nombre d'hôtes ESXi dans un cluster et le nombre de périphériques dont l'état est désactivé. Lorsque le problème se produit, le volume des journaux est rapidement généré, dans les 24 heures, et VMware Aria Operations for Logs peut classer les messages comme critiques. Cependant, ces journaux sont inoffensifs et n'affectent pas les opérations sur les autres banques de données en ligne. -
Si la liste des capteurs de stockage d'un hôte ESXi est vide, l'état du CPU que l'interface intelligente de gestion de plate-forme (IPMI, Intelligent Platform Management Interface) signale peut se réinitialiser. Par conséquent, l'enregistrement des données du capteur avec
entité
ID 3
, qui est l'état du processeur, affiche de manière incorrecteImpossible de rendre compte de l'état actuel de l'élément physique
dans le MOB. -
Dans les clusters étendus, vSAN déploie chaque objet VMDK avec un format spécifique. Lorsque vous modifiez la stratégie d'un objet VMDK de
hostFailureToTolerate=0
àhostFailureToTolerate=1
, le format peut changer de telle sorte qu'il fait transiter les lectures par la liaison intersite (entre les zones de disponibilité). Par conséquent, vous voyez une latence de lecture plus élevée dans ces objets. -
Dans vSphere Client, lorsque vous créez ou reconfigurez une machine virtuelle, sous Contrôleur SCSI > Partage de bus de SCSI vous pouvez voir des options en double dans le menu déroulant. Ce problème n'affecte aucun workflow de création ou de configuration de machine virtuelle.
-
Après une opération de migration, les machines virtuelles Windows 10 peuvent échouer avec un écran de diagnostic bleu et signaler une erreur de non-correspondance de révision de microcode, telle que :-
MICROCODE_REVISION_MISMATCH (17e)
Ce problème se produit lorsqu'une analyse des CPU s'exécute pendant l'opération de migration et que le microprogramme des CPU sources ne correspond pas au microprogramme des CPU de destination. -
Dans certains cas, l'effacement du cache d'objets dans un volume de banque de données sur les hôtes ESXi échoue ; les objets restent dans le cache et entraînent un état de mémoire insuffisante. Par exemple, lorsque la connexion avec le périphérique sous-jacent du volume est abandonnée. Par conséquent, l'hôte ESXi cesse de répondre. Dans les journaux, vous voyez des erreurs telles que :
Cannot reconnect to xxxxx] or Failed to cleanup VMFS heartbeat on volume xxxxx: No connection.
ouThe volume on the device xxxxx locked, possibly because some remote host encountered an error during a volume operation and could not recover
. -
Certains workflows tels que les opérations de sauvegarde d'hôtes ESXi peuvent ouvrir un grand nombre de fichiers, ce qui peut entraîner l'épuisement du cache d'objets. Dans ce cas, vous pouvez voir le service hostd échouer ou les machines virtuelles s'arrêter ou passer à un état non valide qui les empêche de se mettre sous tension. Les journaux affichent des avertissements tels que
Cannot allocate memory
. -
Dans Surveiller > Santé Skyline > Service de fichiers > Santé du serveur de fichiers, vous pouvez voir l'erreur
Le serveur de fichiers est en train de (re)démarrer
.
Ce problème est dû à un débordement du cache, ce qui entraîne l'échec du démon VDFS. Dans le fichier/var/run/log/vdfsd-server.log
d'un hôte ESXi affecté, des messages tels queNOT_IMPLEMENTED bora/vdfs/core/VDFSPhysicalLog.cpp
s'affichent. -
Dans vSphere Client, lorsque vous modifiez la stratégie d'une machine virtuelle sous tension avec un contrôleur IDE, vous pouvez voir l'erreur
L'opération que vous tentez d'effectuer ne peut pas être exécutée dans l'état actuel (« Sous tension »)
. -
Le montage du cluster par le maillage HCI peut échouer après la désactivation de vSAN avec le chiffrement des données en transit, puis la réactivation de vSAN.
-
Si les lecteurs NVMe utilisés pour vSAN ont un ID PCI en double et que vous redémarrez le service de santé vSAN sur vCenter Server, le groupe de compatibilité matérielle est manquant dans vSAN Skyline Health.
-
Lorsque deux cartes réseau qui utilisent le pilote ntg3 de la version 4.1.3 et versions ultérieures sont connectées directement, et non à un port de commutateur physique, il peut se produire un battement de lien. Ce problème ne se produit pas sur les pilotes ntg3 des versions antérieures à la version 4.1.3 ou avec le pilote tg3. Ce problème n'est pas lié au battement de lien EEE (Energy Efficient Ethernet) occasionnel sur ces cartes réseau. Le correctif du problème EEE consiste à utiliser un pilote ntg3 de version 4.1.7 ou ultérieure, ou à désactiver EEE sur les ports de commutateur physique.
-
L'attestation TPM 2.0 sur les serveurs Lenovo renvoie le code d'erreur TPM :
TSS2_SYS_RC_INSUFFICIENT_BUFFER
.
-
Nom du profil | ESXi-7.0U3si-20841705-standard |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 8 décembre 2022 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2993721, 3007957, 3007958, 3015560, 3034286, 3038621, 3030691, 3015499 |
Numéros CVE associés | CVE-2020-28196, CVE-2022-31696, CVE-2022-31699 |
- Ce correctif met à jour les problèmes suivants :
- Le VIB cpu-microcode inclut le microcode Intel suivant :
Nom de code FMS ID de PLT Révision de MCU Date de MCU Noms de marque Nehalem EP 0x106a5 (06/1a/5) 0x03 0x0000001d 11/05/2018 Intel Xeon 35xx Series ;
Intel Xeon 55xx SeriesClarkdale 0x20652 (06/25/2) 0x12 0x00000011 08/05/2018 Intel i3/i5 Clarkdale Series
Intel Xeon 34xx Clarkdale SeriesArrandale 0x20655 (06/25/5) 0x92 0x00000007 23/04/2018 Processeur Intel Core i7-620LE Sandy Bridge DT 0x206a7 (06/2a/7) 0x12 0x0000002f 17/02/2019 Intel Xeon E3-1100 Series ;
Intel Xeon E3-1200 Series ;
Intel i7-2655-LE Series
Intel i3-2100 SeriesWestmere EP 0x206c2 (06/2c/2) 0x03 0x0000001f 08/05/2018 Intel Xeon série 56xx
Intel Xeon 36xx SeriesSandy Bridge EP 0x206d6 (06/2d/6) 0x6d 0x00000621 04/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesSandy Bridge EP 0x206d7 (06/2d/7) 0x6d 0x0000071a 24/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesNehalem EX 0x206e6 (06/2e/6) 0x04 0x0000000d 15/05/2018 Intel Xeon 65xx Series ;
Intel Xeon 75xx SeriesWestmere EX 0x206f2 (06/2f/2) 0x05 0x0000003b 16/05/2018 Intel Xeon E7-8800 Series ;
Intel Xeon E7-4800 Series ;
Intel Xeon E7-2800 SeriesIvy Bridge DT 0x306a9 (06/3a/9) 0x12 0x00000021 13/02/2019 Intel i3-3200 Series ;
Intel i7-3500-LE/UE
Intel i7-3600-QE
Intel Xeon E3-1200-v2 Series;
Intel Xeon E3-1100-C-v2 Series
Intel Pentium B925CHaswell DT 0x306c3 (06/3c/3) 0x32 0x00000028 12/11/2019 Intel Xeon E3-1200-v3 Series ;
Intel i7-4700-EQ Series
Intel i5-4500-TE Series
Intel i3-4300 SeriesIvy Bridge EP 0x306e4 (06/3e/4) 0xed 0x0000042e 14/03/2019 Intel Xeon E5-4600-v2 Series ;
Intel Xeon E5-2600-v2 Series ;
Intel Xeon E5-2400-v2 Series ;
Intel Xeon E5-1600-v2 Series ;
Intel Xeon E5-1400-v2 SeriesIvy Bridge EX 0x306e7 (06/3e/7) 0xed 0x00000715 14/03/2019 Intel Xeon E7-8800/4800/2800-v2 Series Haswell EP 0x306f2 (06/3f/2) 0x6f 0x00000049 11/08/2021 Intel Xeon E5-4600-v3 Series ;
Intel Xeon E5-2600-v3 Series ;
Intel Xeon E5-2400-v3 Series ;
Intel Xeon E5-1600-v3 Series ;
Intel Xeon E5-1400-v3 SeriesHaswell EX 0x306f4 (06/3f/4) 0x80 0x0000001a 24/05/2021 Intel Xeon E7-8800/4800-v3 Series Broadwell H 0x40671 (06/47/1) 0x22 0x00000022 12/11/2019 Intel Core i7-5700EQ
Intel Xeon E3-1200-v4 SeriesAvoton 0x406d8 (06/4d/8) 0x01 0x0000012d 16/09/2019 Intel Atom C2300 Series ;
Intel Atom C2500 Series ;
Intel Atom C2700 SeriesBroadwell EP/EX 0x406f1 (06/4f/1) 0xef 0x0b000040 19/05/2021 Intel Xeon E7-8800/4800-v4 Series ;
Intel Xeon E5-4600-v4 Series ;
Intel Xeon E5-2600-v4 Series ;
Intel Xeon E5-1600-v4 SeriesSkylake SP 0x50654 (06/55/4) 0xb7 0x02006e05 3/8/2022 Intel Xeon Platinum 8100 Series ;
Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100 Series
Intel Xeon D-2100 Series ;
Intel Xeon D-1600 Series ;
Intel Xeon W-3100 Series ;
Intel Xeon W-2100 SeriesCascade Lake B-0 0x50656 (06/55/6) 0xbf 0x04003302 10/12/2021 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Cascade Lake 0x50657 (06/55/7) 0xbf 0x05003302 10/12/2021 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Cooper Lake 0x5065b (06/55/b) 0xbf 0x07002501 19/11/2021 Intel Xeon Platinum 8300 Series ;
Intel Xeon Gold 6300/5300Broadwell DE 0x50662 (06/56/2) 0x10 0x0000001c 17/06/2019 Intel Xeon D-1500 Series Broadwell DE 0x50663 (06/56/3) 0x10 0x0700001c 12/06/2021 Intel Xeon D-1500 Series Broadwell DE 0x50664 (06/56/4) 0x10 0x0f00001a 12/06/2021 Intel Xeon D-1500 Series Broadwell NS 0x50665 (06/56/5) 0x10 0x0e000014 18/09/2021 Intel Xeon D-1600 Series Skylake H/S 0x506e3 (06/5e/3) 0x36 0x000000f0 11/12/2021 Intel Xeon E3-1500-v5 Series ;
Intel Xeon E3-1200-v5 SeriesDenverton 0x506f1 (06/5f/1) 0x01 0x00000038 02/12/2021 Intel Atom C3000 Series Ice Lake SP 0x606a6 (06/6a/6) 0x87 0x0d000375 07/04/2022 Intel Xeon Silver 4300 Series
Intel Xeon Gold 6300/5300 Series ;
Intel Xeon Platinum 8300 SeriesIce Lake D 0x606c1 (06/6c/1) 0x10 0x010001f0 24/06/2022 Intel Xeon D Series Snow Ridge 0x80665 (06/86/5) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Snow Ridge 0x80667 (06/86/7) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Kaby Lake H/S/X 0x906e9 (06/9e/9) 0x2a 0x000000f0 11/12/2021 Intel Xeon E3-1200-v6 Series ;
Intel Xeon E3-1500-v6 SeriesCoffee Lake 0x906ea (06/9e/a) 0x22 0x000000f0 15/11/2021 Intel Xeon E-2100 Series ;
Intel Xeon E-2200 Series (4 ou 6 cœurs)Coffee Lake 0x906eb (06/9e/b) 0x02 0x000000f0 11/12/2021 Intel Xeon E-2100 Series Coffee Lake 0x906ec (06/9e/c) 0x22 0x000000f0 15/11/2021 Intel Xeon E-2100 Series Coffee Lake Refresh 0x906ed (06/9e/d) 0x22 0x000000f4 31/07/2022 Intel Xeon E-2200 Series (8 cœurs) Rocket Lake S 0xa0671 (06/a7/1) 0x02 0x00000056 02/08/2022 Intel Xeon E-2300 Series - ESXi 7.0 Update 3i fournit les mises à jour de sécurité suivantes :
- OpenSSL a été mis à jour vers la version 1.0.2zf.
- Apache Thrift a été mis à jour vers la version 0.15.0.
- Le client urllib3 a été mis à jour vers la version 1.26.5.
- cURL a été mis à jour vers la version 7.84.0.
- La base de données SQLite a été mise à jour vers la version 3.39.2.
- L'analyseur XML Expat a été mis à jour vers la version 2.4.9.
-
Cette version résout les vulnérabilités CVE-2022-31696 et CVE-2022-31699. Pour plus d'informations sur ces vulnérabilités et leur impact sur les produits VMware, reportez-vous à la page VMSA-2022-0030.
- Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3i :
windows.iso
: VMware Tools 12.1.0 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.linux.iso
: image ISO de VMware Tools 10.3.25 pour le système d'exploitation Linux avec glibc version 2.11 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
- VMware Tools 11.0.6 :
windows.iso
: pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12 :
winPreVista.iso
: pour Windows 2000, Windows XP et Windows 2003.linuxPreGLibc25.iso
: prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
-
solaris.iso
: Image de VMware Tools 10.3.10 pour Solaris.
darwin.iso
: Prend en charge Mac OS X 10.11 et versions ultérieures.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
- Le VIB cpu-microcode inclut le microcode Intel suivant :
Nom du profil | ESXi-7.0U3si-20841705-no-tools |
Build | Pour plus d'informations sur la build, reportez-vous à la section Correctifs contenus dans cette version. |
Fournisseur | VMware, Inc. |
Date de publication | 8 décembre 2022 |
Niveau d'acceptation | PartnerSupported |
Matériel concerné | S.O. |
Logiciels concernés | S.O. |
VIB concernés |
|
PR résolus | 2993721, 3007957, 3007958, 3015560, 3034286, 3038621, 3030691 |
Numéros CVE associés | CVE-2020-28196, CVE-2022-31696, CVE-2022-31699 |
- Ce correctif met à jour les problèmes suivants :
- Le VIB cpu-microcode inclut le microcode Intel suivant :
Nom de code FMS ID de PLT Révision de MCU Date de MCU Noms de marque Nehalem EP 0x106a5 (06/1a/5) 0x03 0x0000001d 11/05/2018 Intel Xeon 35xx Series ;
Intel Xeon 55xx SeriesClarkdale 0x20652 (06/25/2) 0x12 0x00000011 08/05/2018 Intel i3/i5 Clarkdale Series
Intel Xeon 34xx Clarkdale SeriesArrandale 0x20655 (06/25/5) 0x92 0x00000007 23/04/2018 Processeur Intel Core i7-620LE Sandy Bridge DT 0x206a7 (06/2a/7) 0x12 0x0000002f 17/02/2019 Intel Xeon E3-1100 Series ;
Intel Xeon E3-1200 Series ;
Intel i7-2655-LE Series
Intel i3-2100 SeriesWestmere EP 0x206c2 (06/2c/2) 0x03 0x0000001f 08/05/2018 Intel Xeon série 56xx
Intel Xeon 36xx SeriesSandy Bridge EP 0x206d6 (06/2d/6) 0x6d 0x00000621 04/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesSandy Bridge EP 0x206d7 (06/2d/7) 0x6d 0x0000071a 24/03/2020 Intel Pentium 1400 Series
Intel Xeon E5-1400 Series ;
Intel Xeon E5-1600 Series ;
Intel Xeon E5-2400 Series ;
Intel Xeon E5-2600 Series ;
Intel Xeon E5-4600 SeriesNehalem EX 0x206e6 (06/2e/6) 0x04 0x0000000d 15/05/2018 Intel Xeon 65xx Series ;
Intel Xeon 75xx SeriesWestmere EX 0x206f2 (06/2f/2) 0x05 0x0000003b 16/05/2018 Intel Xeon E7-8800 Series ;
Intel Xeon E7-4800 Series ;
Intel Xeon E7-2800 SeriesIvy Bridge DT 0x306a9 (06/3a/9) 0x12 0x00000021 13/02/2019 Intel i3-3200 Series ;
Intel i7-3500-LE/UE
Intel i7-3600-QE
Intel Xeon E3-1200-v2 Series;
Intel Xeon E3-1100-C-v2 Series
Intel Pentium B925CHaswell DT 0x306c3 (06/3c/3) 0x32 0x00000028 12/11/2019 Intel Xeon E3-1200-v3 Series ;
Intel i7-4700-EQ Series
Intel i5-4500-TE Series
Intel i3-4300 SeriesIvy Bridge EP 0x306e4 (06/3e/4) 0xed 0x0000042e 14/03/2019 Intel Xeon E5-4600-v2 Series ;
Intel Xeon E5-2600-v2 Series ;
Intel Xeon E5-2400-v2 Series ;
Intel Xeon E5-1600-v2 Series ;
Intel Xeon E5-1400-v2 SeriesIvy Bridge EX 0x306e7 (06/3e/7) 0xed 0x00000715 14/03/2019 Intel Xeon E7-8800/4800/2800-v2 Series Haswell EP 0x306f2 (06/3f/2) 0x6f 0x00000049 11/08/2021 Intel Xeon E5-4600-v3 Series ;
Intel Xeon E5-2600-v3 Series ;
Intel Xeon E5-2400-v3 Series ;
Intel Xeon E5-1600-v3 Series ;
Intel Xeon E5-1400-v3 SeriesHaswell EX 0x306f4 (06/3f/4) 0x80 0x0000001a 24/05/2021 Intel Xeon E7-8800/4800-v3 Series Broadwell H 0x40671 (06/47/1) 0x22 0x00000022 12/11/2019 Intel Core i7-5700EQ
Intel Xeon E3-1200-v4 SeriesAvoton 0x406d8 (06/4d/8) 0x01 0x0000012d 16/09/2019 Intel Atom C2300 Series ;
Intel Atom C2500 Series ;
Intel Atom C2700 SeriesBroadwell EP/EX 0x406f1 (06/4f/1) 0xef 0x0b000040 19/05/2021 Intel Xeon E7-8800/4800-v4 Series ;
Intel Xeon E5-4600-v4 Series ;
Intel Xeon E5-2600-v4 Series ;
Intel Xeon E5-1600-v4 SeriesSkylake SP 0x50654 (06/55/4) 0xb7 0x02006e05 3/8/2022 Intel Xeon Platinum 8100 Series ;
Intel Xeon Gold 6100/5100, Silver 4100, Bronze 3100 Series
Intel Xeon D-2100 Series ;
Intel Xeon D-1600 Series ;
Intel Xeon W-3100 Series ;
Intel Xeon W-2100 SeriesCascade Lake B-0 0x50656 (06/55/6) 0xbf 0x04003302 10/12/2021 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Cascade Lake 0x50657 (06/55/7) 0xbf 0x05003302 10/12/2021 Intel Xeon Platinum 9200/8200 Series ;
Intel Xeon Gold 6200/5200 ;
Intel Xeon Silver 4200/Bronze 3200 ;
Intel Xeon W-3200Cooper Lake 0x5065b (06/55/b) 0xbf 0x07002501 19/11/2021 Intel Xeon Platinum 8300 Series ;
Intel Xeon Gold 6300/5300Broadwell DE 0x50662 (06/56/2) 0x10 0x0000001c 17/06/2019 Intel Xeon D-1500 Series Broadwell DE 0x50663 (06/56/3) 0x10 0x0700001c 12/06/2021 Intel Xeon D-1500 Series Broadwell DE 0x50664 (06/56/4) 0x10 0x0f00001a 12/06/2021 Intel Xeon D-1500 Series Broadwell NS 0x50665 (06/56/5) 0x10 0x0e000014 18/09/2021 Intel Xeon D-1600 Series Skylake H/S 0x506e3 (06/5e/3) 0x36 0x000000f0 11/12/2021 Intel Xeon E3-1500-v5 Series ;
Intel Xeon E3-1200-v5 SeriesDenverton 0x506f1 (06/5f/1) 0x01 0x00000038 02/12/2021 Intel Atom C3000 Series Ice Lake SP 0x606a6 (06/6a/6) 0x87 0x0d000375 07/04/2022 Intel Xeon Silver 4300 Series
Intel Xeon Gold 6300/5300 Series ;
Intel Xeon Platinum 8300 SeriesIce Lake D 0x606c1 (06/6c/1) 0x10 0x010001f0 24/06/2022 Intel Xeon D Series Snow Ridge 0x80665 (06/86/5) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Snow Ridge 0x80667 (06/86/7) 0x01 0x4c000020 5/10/2022 Intel Atom P5000 Series Kaby Lake H/S/X 0x906e9 (06/9e/9) 0x2a 0x000000f0 11/12/2021 Intel Xeon E3-1200-v6 Series ;
Intel Xeon E3-1500-v6 SeriesCoffee Lake 0x906ea (06/9e/a) 0x22 0x000000f0 15/11/2021 Intel Xeon E-2100 Series ;
Intel Xeon E-2200 Series (4 ou 6 cœurs)Coffee Lake 0x906eb (06/9e/b) 0x02 0x000000f0 11/12/2021 Intel Xeon E-2100 Series Coffee Lake 0x906ec (06/9e/c) 0x22 0x000000f0 15/11/2021 Intel Xeon E-2100 Series Coffee Lake Refresh 0x906ed (06/9e/d) 0x22 0x000000f4 31/07/2022 Intel Xeon E-2200 Series (8 cœurs) Rocket Lake S 0xa0671 (06/a7/1) 0x02 0x00000056 02/08/2022 Intel Xeon E-2300 Series - ESXi 7.0 Update 3i fournit les mises à jour de sécurité suivantes :
- OpenSSL a été mis à jour vers la version 1.0.2zf.
- Apache Thrift a été mis à jour vers la version 0.15.0.
- Le client urllib3 a été mis à jour vers la version 1.26.5.
- cURL a été mis à jour vers la version 7.84.0.
- La base de données SQLite a été mise à jour vers la version 3.39.2.
- L'analyseur XML Expat a été mis à jour vers la version 2.4.9.
-
Cette version résout les vulnérabilités CVE-2022-31696 et CVE-2022-31699. Pour plus d'informations sur ces vulnérabilités et leur impact sur les produits VMware, reportez-vous à la page VMSA-2022-0030.
- Les images ISO de VMware Tools suivantes sont intégrées à ESXi 7.0 Update 3i :
windows.iso
: VMware Tools 12.1.0 prend en charge Windows 7 SP1 ou Windows Server 2008 R2 SP1 et versions ultérieures.linux.iso
: image ISO de VMware Tools 10.3.25 pour le système d'exploitation Linux avec glibc version 2.11 ou version ultérieure.
Les images ISO de VMware Tools suivantes sont disponibles en téléchargement :
- VMware Tools 11.0.6 :
windows.iso
: pour Windows Vista (SP2) et Windows Server 2008 Service Pack 2 (SP2).
- VMware Tools 10.0.12 :
winPreVista.iso
: pour Windows 2000, Windows XP et Windows 2003.linuxPreGLibc25.iso
: prend en charge les systèmes d'exploitation invités Linux antérieurs à Red Hat Enterprise Linux (RHEL) 5, SUSE Linux Enterprise Server (SLES) 11, Ubuntu 7.04 et autres distributions avec glibc d'une version antérieure à la version 2.5.
-
solaris.iso
: Image de VMware Tools 10.3.10 pour Solaris.
darwin.iso
: Prend en charge Mac OS X 10.11 et versions ultérieures.
Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :
- Le VIB cpu-microcode inclut le microcode Intel suivant :
Nom | ESXi |
Version | ESXi_7.0.3-0.65.20842708 |
Date de publication | 8 décembre 2022 |
Catégorie | Correctif de bogues |
Composants concernés |
|
PR résolus | |
Numéros CVE associés | S/O |
Nom | ESXi |
Version | ESXi_7.0.3-0.60.20841705 |
Date de publication | 8 décembre 2022 |
Catégorie | Sécurité |
Composants concernés |
|
PR résolus | |
Numéros CVE associés | S/O |
Problèmes connus
Les problèmes connus sont classés comme suit :
- Problèmes d'installation, de mise à niveau et de migration
- Problèmes connus depuis les versions précédentes
- La propriété vlanid dans les scripts d'installation personnalisés peut ne pas fonctionner
Si vous utilisez un script d'installation personnalisé qui définit la propriété
vlanid
pour spécifier un VLAN souhaité, cette propriété peut ne pas prendre effet sur les hôtes ESXi récemment installés. Ce problème se produit uniquement lorsqu'une carte réseau physique est déjà connectée à DHCP au démarrage de l'installation. La propriétévlanid
fonctionne correctement lorsque vous utilisez une carte réseau récemment connectée.Solution : définissez manuellement le VLAN à partir de l'interface utilisateur de la console directe après le démarrage de l'hôte ESXi. Vous pouvez également désactiver la carte réseau physique, puis démarrer l'hôte.
- Sur les serveurs HPE avec démarrage du module de plate-forme sécurisée (TPM), l'attestation à distance échoue
Certains serveurs HPE ne disposent pas d'un espace de journal des événements suffisant pour terminer correctement l'attestation à distance du TPM. Par conséquent, VMkernel démarre, mais l'attestation à distance échoue, car le journal est tronqué.
Solution : aucune.