- Les vérifications préalables de la mise à niveau ou de la migration vCenter échouent avec « erreur inattendue 87 ».
Les vérifications préalables de la mise à niveau ou de la migration de vCenter Server échouent lorsque le certificat du service de jetons de sécurité (STS) ne contient pas de champ Nom alternatif du sujet (SAN). Cette situation se produit lorsque vous avez remplacé le certificat vCenter 5.5 Single Sign-On par un certificat personnalisé sans champ SAN et que vous tentez d'effectuer la mise à niveau vers vCenter Server 7.0. La mise à niveau considère que le certificat STS n'est pas valide et les vérifications préalables empêchent le processus de mise à niveau de se poursuivre.
Solution : remplacez le certificat STS par un certificat valide qui contient un champ SAN, puis procédez à la mise à niveau ou à la migration de vCenter Server 7.0.
- Problèmes de mise à niveau vers vSphere 7.0 avec des fournisseurs CIM préexistants.
Après la mise à niveau, les fournisseurs CIM 32 bits précédemment installés cessent de fonctionner, car ESXi requiert des fournisseurs CIM 64 bits. Les clients peuvent perdre des fonctions d'API de gestion liées à CIMPDK, NDDK (DDK natif), HEXDK, VAIODK (filtres d'E/S) et des erreurs liées à la dépendance uwglibc peuvent s'afficher.
Le Syslog indique qu'un module est manquant, « bibliothèques 32 bits partagées non chargées ».
Solution : il n'existe pas de solution. Le correctif consiste à télécharger les nouveaux fournisseurs CIM 64 bits à partir de votre fournisseur.
- L'installation des pilotes 7.0 Update 1 sur les hôtes ESXi 7.0 peut échouer
Vous ne pouvez pas installer les pilotes applicables à ESXi 7.0 Update 1 sur les hôtes qui exécutent ESXi 7.0 ou 7.0b.
L'opération échoue avec une erreur, telle que :
VMW_bootbank_qedrntv_3.40.4.0-12vmw.701.0.0.xxxxxxx requires vmkapi_2_7_0_0, but the requirement cannot be satisfied within the ImageProfile.
Consultez le fichier journal pour plus de détails.
Solution : mettez à jour l'hôte ESXi vers la version 7.0 Update 1. Relancez l'installation du pilote.
- Le démarrage UEFI des hôtes ESXi peut s'arrêter avec une erreur lors d'une mise à jour vers ESXi 7.0 Update 2 à partir d'une version antérieure d'ESXi 7.0
Si vous tentez de mettre à jour votre environnement vers la version 7.0 Update 2 à partir d'une version antérieure d'ESXi 7.0 à l'aide de lignes de base de correctifs vSphere Lifecycle Manager, le démarrage UEFI des hôtes ESXi peut s'arrêter avec une erreur telle que :
Loading /boot.cfg
Failed to load crypto64.efi
Fatal error : 15 (Not found)
Solution : pour plus d'informations, reportez-vous aux articles 83063 et 83107 de la base de connaissances VMware.
- Si des VIB hérités sont utilisés sur un hôte ESXi, vSphere Lifecycle Manager ne peut pas extraire une spécification logicielle souhaitée pour les amorçages vers un nouveau cluster
vCenter Server 7.0 Update 2 vous permet de créer un cluster en important la spécification logicielle souhaitée à partir d'un hôte de référence unique. Cependant, si des VIB hérités sont utilisés sur un hôte ESXi, vSphere Lifecycle Manager ne peut pas extraire une spécification logicielle de référence à partir de cet hôte dans l'instance de vCenter Server dans laquelle vous créez le cluster. Dans le fichier /var/log/lifecycle.log
, vous voyez des messages tels que :
020-11-11T06:54:03Z lifecycle: 1000082644: HostSeeding:499 ERROR Extract depot failed: Checksum doesn't match. Calculated 5b404e28e83b1387841bb417da93c8c796ef2497c8af0f79583fd54e789d8826, expected: 0947542e30b794c721e21fb595f1851b247711d0619c55489a6a8cae6675e796 2020-11-11T06:54:04Z lifecycle: 1000082644: imagemanagerctl:366 ERROR Extract depot failed. 2020-11-11T06:54:04Z lifecycle: 1000082644: imagemanagerctl:145 ERROR [VibChecksumError]
Solution : suivez les instructions de l'article 83042 de la base de connaissances VMware.
- Vous voyez une brève rafale de messages de journal dans le fichier syslog.log après chaque démarrage d'ESXi
Après une mise à jour vers ESXi 7.0 Update 2, vous pouvez voir une brève rafale de messages de journaux après chaque démarrage d'ESXi.
Ces journaux n'indiquent aucun problème avec ESXi et vous pouvez les ignorer. Par exemple :
2021-01-19T22:44:22Z watchdog-vaai-nasd: '/usr/lib/vmware/nfs/bin/vaai-nasd -f' exited after 0 seconds (quick failure 127) 1
2021-01-19T22:44:22Z watchdog-vaai-nasd: Executing '/usr/lib/vmware/nfs/bin/vaai-nasd -f'
2021-01-19T22:44:22.990Z aainasd[1000051135]: Log for VAAI-NAS Daemon for NFS version=1.0 build=build-00000 option=DEBUG
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoadFile: No entries loaded by dictionary.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoad: Cannot open file "/usr/lib/vmware/config": No such file or directory.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoad: Cannot open file "//.vmware/config": No such file or directory.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: DictionaryLoad: Cannot open file "//.vmware/preferences": No such file or directory.
2021-01-19T22:44:22.990Z vaainasd[1000051135]: Switching to VMware syslog extensions
2021-01-19T22:44:22.992Z vaainasd[1000051135]: Loading VAAI-NAS plugin(s).
2021-01-19T22:44:22.992Z vaainasd[1000051135]: DISKLIB-PLUGIN : Not loading plugin /usr/lib/vmware/nas_plugins/lib64: Not a shared library.
Solution : aucune.
- Affichage de messages d'avertissement sur des VIB manquants dans les rapports de vérification de compatibilité de vSphere Quick Boot
Après la mise à niveau vers ESXi 7.0 Update 2, si vous vérifiez la compatibilité de l'instance de vSphere Quick Boot de votre environnement à l'aide de la commande /usr/lib/vmware/loadesx/bin/loadESXCheckCompat.py
, des messages d'avertissement sur les VIB manquants dans le shell s'affichent. Par exemple :
Un ou plusieurs VIB sont introuvables… dans la collection de VIB spécifiée.
Le ou les VIB réservés manquants seront ignorés… ils sont supprimés des ID de VIB réservés.
Ces avertissements n'indiquent pas un problème de compatibilité.
Solution : les messages sur les VIB manquants peuvent être ignorés en toute sécurité et n'affectent pas la compatibilité vSphere Quick Boot. La ligne de sortie finale de la commande loadESXCheckCompat
indique sans ambiguïté si l'hôte est compatible.
- Le démarrage automatique d'un cluster que vous gérez avec une image vSphere Lifecycle Manager échoue avec une erreur
Si vous tentez de démarrer automatiquement un cluster que vous gérez avec une image vSphere Lifecycle Manager pour effectuer une installation avec état et que vous remplacez les partitions VMFS, l'opération échoue avec une erreur. Dans le bundle de support, vous voyez des messages tels que :
2021-02-11T19:37:43Z Host Profiles[265671 opID=MainThread]: ERROR: EngineModule::ApplyHostConfig. Exception: [Errno 30] Read-only file system
Solution : suivez les instructions du fournisseur pour nettoyer la partition VMFS dans l'hôte cible et réessayez l'opération. Vous pouvez également utiliser un disque vide. Pour en savoir plus sur l'utilitaire de partitionnement de disques dans ESXi, consultez l'article de la base de connaissance VMware 1036609.
- Les mises à niveau vers ESXi 7.x à partir des versions 6.5.x et 6.7.0 à l'aide d'ESXCLI peuvent échouer en raison d'une limitation d'espace.
Les mises à niveau vers ESXi 7.x à partir des versions 6.5.x et 6.7.0 à l'aide des commandes ESXCLI esxcli software profil update
ou esxcli software profile install
peuvent échouer, car la banque de démarrage ESXi peut être inférieure à la taille du profil d'image. Dans ESXi Shell ou l'interpréteur de commandes PowerCLI, une erreur semblable à la suivante s'affiche :
[InstallationError]
La transaction en attente nécessite 244 Mo d'espace libre, mais la taille maximale prise en charge est de 239 Mo.
Consultez le fichier journal pour plus de détails.
Ce problème se produit également lorsque vous tentez d'effectuer une mise à niveau de l'hôte ESXi à l'aide des commandes ESXCLI esxcli software vib update
ou esxcli software vib install
.
Solution : vous pouvez effectuer la mise à niveau en deux étapes, à l'aide de la commande esxcli software profile update
pour mettre à jour les hôtes ESXi vers ESXi 6.7 Update 1 ou une version ultérieure, puis vers la version 7.0 Update 1c. Vous pouvez également exécuter une mise à niveau à l'aide d'une image ISO et de vSphere Lifecycle Manager.
- Vous ne pouvez pas migrer des clones liés dans des serveurs vCenter Server
Si vous migrez un clone lié entre des serveurs vCenter Server, des opérations telles que la mise sous tension et la suppression peuvent échouer pour la machine virtuelle source avec une erreur État de la machine virtuelle non valide
.
Solution : Conservez les clones liés sur la même instance de vCenter Server que la machine virtuelle source. Vous pouvez également promouvoir le clone lié au rang de clone complet avant la migration.
- La migration entre des serveurs vCenter Server de machines virtuelles disposant de nombreux disques virtuels et niveaux de snapshot vers une banque de données sur un stockage NVMe over TCP peut échouer
La migration entre des serveurs vCenter Server de machines virtuelles ayant plus de 180 disques virtuels et 32 niveaux de snapshot vers une banque de données sur un stockage NVMe over TCP peut échouer. L'hôte ESXi échoue de manière préventive avec une erreur telle que La migration a dépassé le délai de basculement maximal de 100 seconde(s)
.
Solution : aucune.
- Une machine virtuelle sur laquelle des compteurs de surveillance des performances virtuels (VPMC) sont activés peut ne pas parvenir à migrer entre des hôtes ESXi
Si vous tentez de migrer une machine virtuelle sur laquelle VPMC est activé à l'aide de vSphere vMotion, l'opération peut échouer si l'hôte cible utilise certains des compteurs pour calculer les statistiques de mémoire ou de performances. L'opération échoue avec une erreur telle que Un compteur de performances utilisé par l'invité n'est pas disponible sur le CPU de l'hôte
.
Solution : mettez hors tension la machine virtuelle et utilisez la migration à froid. Pour plus d'informations, reportez-vous à l'article 81191 de la base de connaissances VMware.
- Si une opération d'installation, de mise à niveau ou de suppression d'un VIB en direct précède immédiatement une mise à niveau interactive ou basée sur un script vers ESXi 7.0 Update 3 à l'aide de l'image ISO du programme d'installation, la mise à niveau échoue
Lorsqu'une opération d'installation, de mise à niveau ou de suppression d'un VIB précède immédiatement une mise à niveau interactive ou basée sur un script vers ESXi 7.0 Update 3 à l'aide de l'image ISO du programme d'installation, ConfigStore peut ne pas conserver certaines configurations de la mise à niveau. Par conséquent, les hôtes ESXi deviennent inaccessibles après l'opération de mise à niveau, bien que la mise à niveau semble avoir réussi. Pour éviter ce problème, le programme d'installation d'ESXi 7.0 Update 3 ajoute une vérification temporaire pour bloquer ces scénarios. Dans la console du programme d'installation d'ESXi, le message d'erreur suivant s'affiche : L'installation, la mise à niveau ou la suppression d'un VIB en direct peut entraîner l'échec de la mise à niveau ultérieure d'ESXi lors de l'utilisation du programme d'installation ISO.
Solution : Utilisez une autre méthode de mise à niveau pour éviter le problème, comme l'utilisation d'ESXCLI ou de vSphere Lifecycle Manager.
- L'authentification par carte à puce et RSA SecurID peut cesser de fonctionner après la mise à niveau vers vCenter Server 7.0.
Si vous avez configuré vCenter Server pour l'authentification par carte à puce ou RSA SecurID, consultez l'article de la base de connaissances VMware sur https://kb.vmware.com/s/article/78057 avant de démarrer le processus de mise à niveau de vSphere 7.0. Si vous n'appliquez pas la solution comme décrit dans la base de connaissances, vous pouvez voir les messages d'erreur suivants et l'authentification par carte à puce ou RSA SecurID ne fonctionne pas.
« L'authentification par carte à puce peut cesser de fonctionner. Les paramètres de carte à puce ne sont peut-être pas conservés et l'authentification par carte à puce peut cesser de fonctionner. »
ou
« L'authentification RSA SecurID peut cesser de fonctionner. Les paramètres RSA SecurID ne sont peut-être pas conservés et l'authentification RSA SecurID peut cesser de fonctionner. »
Solution : avant de procéder à la mise à niveau vers vSphere 7.0, reportez-vous à l'article de la base de connaissances VMware sur https://kb.vmware.com/s/article/78057.
- La propriété vlanid dans les scripts d'installation personnalisés peut ne pas fonctionner
Si vous utilisez un script d'installation personnalisé qui définit la propriété vlanid
pour spécifier un VLAN souhaité, cette propriété peut ne pas prendre effet sur les hôtes ESXi récemment installés. Ce problème se produit uniquement lorsqu'une carte réseau physique est déjà connectée à DHCP au démarrage de l'installation. La propriété vlanid
fonctionne correctement lorsque vous utilisez une carte réseau récemment connectée.
Solution : définissez manuellement le VLAN à partir de l'interface utilisateur de la console directe après le démarrage de l'hôte ESXi. Vous pouvez également désactiver la carte réseau physique, puis démarrer l'hôte.
- Sur les serveurs HPE avec démarrage du module de plate-forme sécurisée (TPM), l'attestation à distance échoue
Certains serveurs HPE ne disposent pas d'un espace de journal des événements suffisant pour terminer correctement l'attestation à distance du TPM. Par conséquent, VMkernel démarre, mais l'attestation à distance échoue, car le journal est tronqué.
Solution : aucune.
- La mise à niveau de vCenter Server avec une instance externe de Platform Services Controller de la version 6.7u3 vers la version 7.0 échoue avec une erreur VMAFD.
Lorsque vous mettez à niveau un déploiement de vCenter Server à l'aide d'une instance externe de Platform Services Controller, vous convergez Platform Services Controller vers vCenter Server Appliance. Si la mise à niveau échoue avec l'erreur install.vmafd.vmdir_vdcpromo_error_21
, le processus de premier amorçage de VMAFD a échoué. Le processus de premier amorçage de VMAFD copie la base de données du service d'annuaire VMware (data.mdb) à partir de l'instance source de Platform Services Controller et du partenaire de réplication vCenter Server Appliance.
Solution : désactivez TSO (déchargement de segmentation TCP) et GSO (déchargement de segmentation générique) sur l'adaptateur Ethernet de l'instance source de Platform Services Controller ou de l'instance de vCenter Server Appliance du partenaire de réplication avant de mettre à niveau vCenter Server avec une instance externe de Platform Services Controller. Reportez-vous à l'article de la base de connaissances : https://kb.vmware.com/s/article/74678
- Des partitions VFAT endommagées d'un environnement vSphere 6.7 peuvent entraîner l'échec des mises à niveau vers ESXi 7.x
En raison de partitions VFAT endommagées à partir d'un environnement vSphere 6.7, le repartitionnement des disques de démarrage d'un hôte ESXi peut échouer lors d'une mise à niveau vers ESXi 7.x. Par conséquent, vous pouvez voir les erreurs suivantes :
Lors de la mise à niveau vers ESXi 7.0 Update 3l, l'opération échoue avec un écran de diagnostic violet et/ou une erreur telle que :
Une erreur s'est produite lors de la sauvegarde des fichiers de partition VFAT avant le repartitionnement : Échec du calcul de la taille du ramdisk temporaire :
<erreur>
.
Une erreur s'est produite lors de la sauvegarde des fichiers de partition VFAT avant le repartitionnement : Échec de la copie des fichiers sur le ramdisk :
<erreur>
.
Si vous utilisez un programme d'installation ISO, les erreurs s'affichent, mais pas l'écran de diagnostic violet.
Lors de la mise à niveau vers une version d'ESXi 7.x antérieure à la version 7.0 Update 3l, vous pouvez voir :
- Les journaux tels que
ramdisk (root) is full
dans le fichier vmkwarning.log
.
- Restauration inattendue vers ESXi 6.5 ou 6.7 lors du redémarrage.
- Les partitions
/bootbank
, /altbootbank
et ESX-OSData sont absentes.
Solution : vous devez d'abord corriger les partitions endommagées avant de terminer la mise à niveau vers ESXi 7.x. Pour plus de détails, consultez l'article 91136 de la base de connaissances VMware.
- Les paramètres de carte à puce et de RSA SecurID peuvent ne pas être conservés lors de la mise à niveau de vCenter Server.
L'authentification à l'aide de RSA SecurID ne fonctionnera pas après la mise à niveau vers vCenter Server 7.0. Un message d'erreur vous avertit de ce problème lors de la tentative de connexion à l'aide de votre identifiant RSA SecurID.
Solution : reconfigurez la carte à puce ou RSA SecureID.
- La migration de vCenter Server pour Windows vers vCenter Server Appliance 7.0 échoue avec un message d'erreur réseau.
La migration de vCenter Server pour Windows vers vCenter Server Appliance 7.0 échoue avec le message d'erreur L'adresse IP existe déjà dans le réseau
. Cela empêche le processus de migration de configurer les paramètres réseau sur le nouveau dispositif vCenter Server Appliance. Pour plus d'informations, consultez le fichier journal : /var/log/vmware/upgrade/UpgradeRunner.log
Solution :
- vérifiez que toutes les mises à jour Windows ont été effectuées sur le dispositif vCenter Server source pour l'instance de Windows, ou désactivez les mises à jour Windows automatiques jusqu'à la fin de la migration.
- Réexécutez la migration de vCenter Server pour Windows vers vCenter Server Appliance 7.0.
- Lorsque vous configurez le nombre de fonctions virtuelles pour un périphérique SR-IOV à l'aide du paramètre de module max_vfs, les modifications peuvent ne pas prendre effet.
Dans vSphere 7.0, vous pouvez configurer le nombre de fonctions virtuelles pour un périphérique SR-IOV à l'aide de l'API de gestion de l'infrastructure virtuelle (VIM), par exemple via vSphere Client. La tâche ne nécessite pas le redémarrage de l'hôte ESXi. Une fois que vous avez utilisé la configuration de l'API VIM, si vous tentez de configurer le nombre de fonctions virtuelles SR-IOV à l'aide du paramètre du module max_vfs
, les modifications peuvent ne pas prendre effet, car elles sont remplacées par la configuration de l'API VIM.
Solution : aucune. Pour configurer le nombre de fonctions virtuelles pour un périphérique SR-IOV, utilisez la même méthode à chaque fois. Utilisez l'API VIM ou utilisez le paramètre du module max_vfs
et redémarrez l'hôte ESXi.
- L'instance de vCenter Server Appliance mise à niveau ne conserve pas tous les réseaux secondaires (cartes réseau virtuelles) de l'instance source.
Lors d'une mise à niveau majeure, si l'instance source du dispositif vCenter Server Appliance est configurée avec plusieurs réseaux secondaires autres que les cartes réseau virtuelles VCHA, l'instance de vCenter Server cible ne conserve pas les cartes réseau virtuelles autres que la carte réseau VCHA. Si l'instance source est configurée avec plusieurs cartes réseau virtuelles faisant partie des groupes de ports VDS, la configuration de la carte réseau virtuelle ne sera pas conservée pendant la mise à niveau. Les configurations des instances de vCenter Server Appliance qui font partie du groupe de ports standard seront conservées.
Solution : aucune. Configurez manuellement le réseau secondaire dans l'instance cible de vCenter Server Appliance.
- Après la mise à niveau ou la migration d'un dispositif vCenter Server avec une instance externe de Platform Services Controller, les utilisateurs qui s'authentifient à l'aide d'Active Directory perdent l'accès à l'instance de vCenter Server récemment mise à niveau.
Après la mise à niveau ou la migration d'un dispositif vCenter Server avec une instance externe de Platform Services Controller, si le dispositif vCenter Server récemment mis à niveau n'est pas joint à un domaine Active Directory, les utilisateurs qui s'authentifient à l'aide d'Active Directory perdent l'accès à l'instance de vCenter Server.
Solution : vérifiez que la nouvelle instance de vCenter Server a été jointe à un domaine Active Directory. Reportez-vous à l'article de la base de connaissances : https://kb.vmware.com/s/article/2118543
- La migration d'une instance de vCenter Server pour Windows avec une instance externe de Platform Services Controller à l'aide d'une base de données Oracle échoue.
S'il y a des chaînes non-ASCII dans le tableau des événements et tâches Oracle, la migration peut échouer lors de l'exportation des données d'événements et de tâches. Le message d'erreur suivant s'affiche : UnicodeDecodeError
Solution : aucune.
- Après une mise à niveau de l'hôte ESXi, une vérification de conformité du profil d'hôte indique un état non conforme lorsque les tâches de correction de l'hôte échouent
Un état non conforme indique une incohérence entre le profil et l'hôte.
Cette incohérence peut se produire, car ESXi 7.0 n'autorise pas les règles de réclamation en double, mais le profil que vous utilisez contient des règles en double. Par exemple, si vous tentez d'utiliser le profil d'hôte que vous avez extrait de l'hôte avant la mise à niveau d'ESXi 6.5 ou d'ESXi 6.7 vers la version 7.0, et que le profil d'hôte contient des règles de réclamation en double de règles système par défaut, vous pouvez rencontrer des problèmes.
Solution :
- Supprimez les règles de réclamation en double des règles système par défaut dans le document Profil d'hôte.
- Vérifiez l'état de conformité.
- Corrigez l'hôte.
- Si les étapes précédentes ne vous aident pas, redémarrez l'hôte.
- Un message d'erreur s'affiche dans l'interface de gestion de vCenter Server
Après l'installation ou la mise à niveau vers vCenter Server 7.0, lorsque vous accédez au panneau Mettre à jour dans l'interface de gestion de vCenter Server, le message d'erreur « Vérifiez l'URL et réessayez » s'affiche. Ce message d'erreur ne vous empêche pas d'utiliser les fonctions du panneau Mettre à jour et vous pouvez afficher, transférer et installer les mises à jour disponibles.
Solution : aucune.
- Débit réduit dans les performances de mise en réseau sur les cartes réseau virtuelles Intel 82599/X540/X550.
La nouvelle fonctionnalité de mise en file d'attente de la paire ajoutée au pilote ixgben pour améliorer les performances de mise en réseau sur les cartes réseau virtuelles Intel 82599EB/X540/X550 peut réduire le débit sous certaines charges de travail dans vSphere 7.0 par rapport à vSphere 6.7.
Solution : pour obtenir les mêmes performances de mise en réseau que vSphere 6.7, vous pouvez désactiver la mise en file d'attente de la paire avec un paramètre du module. Pour désactiver la mise en file d'attente de la paire, exécutez la commande suivante :
# esxcli system module parameters set -p "QPair=0,0,0,0..." -m ixgben
Une fois la commande exécutée, procédez au redémarrage.
- Un ou plusieurs périphériques d'E/S ne génèrent pas d'interruptions lorsque l'unité AMD IOMMU est utilisée
Si les périphériques d'E/S sur votre hôte ESXi fournissent plus de 512 sources d'interruption distinctes au total, certaines sources reçoivent par erreur un index d'entrée de table de remappage d'interruption (IRTE) dans l'unité AMD IOMMU qui est supérieur à la valeur maximale. Les interruptions de ce type de source sont perdues, de sorte que le périphérique d'E/S correspondant se comporte comme si les interruptions sont désactivées.
Solution : utilisez la commande ESXCLI esxcli system settings kernel set -s iovDisableIR -v true
pour désactiver le remappeur d'interruption AMD IOMMU. Redémarrez l'hôte ESXi pour que la commande prenne effet.
- lorsque vous définissez la négociation automatique sur un adaptateur réseau, le périphérique peut échouer
Dans certains environnements, si vous définissez la vitesse de liaison pour la négociation automatique des adaptateurs réseau à l'aide de la commande esxcli network nic set -a -n vmmicx
, les périphériques peuvent échouer et le redémarrage ne récupère pas la connectivité. Ce problème est spécifique à une combinaison de certains adaptateurs réseau Intel X710/X722, d'un module SFP+ et d'un commutateur physique, dans lequel le scénario de négociation automatique de vitesse/duplex n'est pas pris en charge.
Solution : assurez-vous d'utiliser un module SFP+ de marque Intel. Vous pouvez également utiliser un câble DAC (Direct Attach Copper).
- Les adaptateurs réseau Solarflare x2542 et x2541 configurés en mode port 1x100G peuvent atteindre un débit de 70 Gbits/s dans l'environnement vSphere
vSphere 7.0 Update 2 prend en charge les adaptateurs réseau Solarflare x2542 et x2541 configurés en mode port 1x100G. Cependant, vous pouvez voir une limitation matérielle dans les périphériques qui entraîne un débit réel d'environ 70 Gbits/s dans l'environnement vSphere.
Solution : aucune.
- Le trafic VLAN peut échouer après une réinitialisation de la carte réseau virtuelle
Une carte réseau dont l'ID de périphérique PCI est 8086:1537 peut cesser d'envoyer et de recevoir des paquets marqués VLAN après une réinitialisation, par exemple, avec une commande vsish -e set /net/pNics/vmnic0/reset 1
.
Solution : évitez de réinitialiser la carte réseau. Si vous êtes déjà confronté à ce problème, utilisez les commandes suivantes pour restaurer la capacité VLAN, par exemple sur vmnic0 :
# esxcli network nic software set --tagging=1 -n vmnic0
# esxcli network nic software set --tagging=0 -n vmnic0
- Toute modification des paramètres de l'équilibrage NetQueue entraîne la désactivation de NetQueue après un redémarrage de l'hôte ESXi.
Toute modification des paramètres de l'équilibrage NetQueue à l'aide de la commande esxcli/localcli network nic queue loadbalancer set -n <nicname> --<lb_setting>
entraîne la désactivation de NetQueue, qui est activé par défaut, après le redémarrage d'un hôte ESXi.
Solution : après une modification des paramètres de l'équilibrage NetQueue et le redémarrage de l'hôte, utilisez la commande configstorecli config current get -c esx -g network -k nics
pour récupérer les données ConfigStore afin de vérifier si /esx/network/nics/net_queue/load_balancer/enable
fonctionne comme prévu.
Après avoir exécuté la commande, vous voyez une sortie semblable à ce qui suit :
{
"mac": "02:00:0e:6d:14:3e",
"name": "vmnic1",
"net_queue": {
"load_balancer": {
"dynamic_pool": true,
"enable": true
}
},
"virtual_mac": "00:50:56:5a:21:11"
}
Si la sortie n'est pas conforme à ce qui est attendu, par exemple, "load_balancer": "enable": false"
, exécutez la commande suivante :
esxcli/localcli network nic queue loadbalancer state set -n <nicname> -e true
- Les adaptateurs réseau RDMA paravirtuels (PVRDMA) ne prennent pas en charge les politiques de mise en réseau NSX
Si vous configurez un port virtuel distribué NSX pour qu'il soit utilisé dans le trafic PVRDMA, le trafic du protocole RDMA sur les adaptateurs réseau PVRDMA n'est pas conforme aux stratégies de mise en réseau NSX.
Solution : ne configurez pas les ports virtuels distribués NSX pour une utilisation dans le trafic PVRDMA.
- La restauration du commutateur vSphere Distributed Switch (VDS) convergé vers NSX-T VDS n'est pas prise en charge dans vSphere 7.0 Update 3
La restauration d'un VDS convergé qui prend en charge le trafic vSphere 7 et le trafic NSX-T 3 sur le même VDS vers un trafic N-VDS pour NSX-T n'est pas prise en charge dans vSphere 7.0 Update 3.
Solution : aucune.
- Si vous ne définissez pas le paramètre du module de pilote réseau nmlx5, la connectivité réseau ou les hôtes ESXi peuvent échouer
Si vous ne définissez pas le paramètre de module supported_num_ports
pour le pilote nmlx5_core
sur un hôte ESXi ayant plusieurs adaptateurs réseau des versions Mellanox ConnectX-4, Mellanox ConnectX-5 et Mellanox ConnectX-6, le pilote peut ne pas allouer suffisamment de mémoire pour faire fonctionner tous les ports de carte réseau de l'hôte. Par conséquent, vous pouvez subir une perte de réseau ou une panne de l'hôte ESXi avec un écran de diagnostic violet, ou les deux.
Solution : dans le pilote réseau nmlx5_core
, définissez la valeur du paramètre du module supported_num_ports
sur le nombre total de ports d'adaptateur réseau Mellanox ConnectX-4, Mellanox ConnectX-5 et Mellanox ConnectX-6 sur l'hôte ESXi.
- Les machines virtuelles à débit élevé peuvent subir une dégradation des performances réseau lorsque Network I/O Control (NetIOC) est activé.
Les machines virtuelles qui nécessitent un débit réseau élevé peuvent subir une dégradation du débit lors de la mise à niveau de vSphere 6.7 vers vSphere 7.0 avec NetIOC activé.
Solution : ajustez le paramètre ethernetx.ctxPerDev
pour activer plusieurs mondes.
- Le trafic IPv6 ne parvient pas à traverser les ports VMkernel à l'aide d'IPsec.
Lorsque vous migrez des ports VMkernel d'un groupe de ports vers un autre, le trafic IPv6 ne traverse pas les ports VMkernel à l'aide d'IPsec.
Solution : supprimez l'Association de sécurité IPsec du serveur concerné, puis réappliquez l'association de sécurité. Pour en savoir plus sur la définition et la suppression d'une association de sécurité IPsec, reportez-vous à la documentation Sécurité vSphere.
- Les performances du réseau ESX avec une partie d'utilisation du CPU augmentent.
Les performances du réseau ESX peuvent augmenter avec une partie d'utilisation du CPU.
Solution : supprimez et ajoutez l'interface réseau avec uniquement 1 file d'attente répartie pour rx. Par exemple :
esxcli network ip interface remove --interface-name=vmk1
esxcli network ip interface add --interface-name=vmk1 --num-rxqueue=1
- La machine virtuelle peut perdre le trafic Ethernet après l'ajout à chaud, la suppression à chaud ou Storage vMotion
Une machine virtuelle peut cesser de recevoir le trafic Ethernet après un ajout à chaud, une suppression à chaud ou Storage vMotion. Ce problème affecte les machines virtuelles pour lesquelles SR-IOV est activé sur la liaison montante de la vNIC. La carte réseau virtuelle PVRDMA présente ce problème lorsque la liaison montante du réseau virtuel est une carte réseau compatible avec la fonctionnalité RDMA de Mellanox et que les espaces de noms RDMA sont configurés.
Solution : vous pouvez supprimer à chaud et ajouter à chaud les cartes réseau Ethernet affectées de la machine virtuelle pour restaurer le trafic. Sur les systèmes d'exploitation invités Linux, le redémarrage du réseau peut également résoudre le problème. Si ces solutions n'ont aucun effet, vous pouvez redémarrer la machine virtuelle pour restaurer la connectivité réseau.
- La modification de l'adresse IP d'un dispositif VCSA déployé avec une adresse IP statique nécessite que vous ayez créé les enregistrements DNS à l'avance.
Avec l'introduction du DDNS, la mise à jour de l'enregistrement DNS fonctionne uniquement pour les dispositifs VCSA déployés avec la mise en réseau DHCP configurée. Lors de la modification de l'adresse IP de vCenter Server via l'interface VAMI, l'erreur suivante s'affiche :
L'adresse IP spécifiée ne résout pas le nom d'hôte spécifié.
Solution : il existe deux solutions.
- Créez une entrée DNS supplémentaire avec le même nom de domaine complet et l'adresse IP souhaitée. Connectez-vous au interface VAMI et suivez les étapes pour modifier l'adresse IP.
- Connectez-vous au dispositif VCSA à l'aide de SSH. Exécutez le script suivant :
./opt/vmware/share/vami/vami_config_net
Utilisez l'option 6 pour modifier l'adresse IP d'eth0. Une fois les modifications apportées, exécutez le script suivant :
./opt/likewise/bin/lw-update-dns
Redémarrez tous les services sur le dispositif VCSA pour mettre à jour les informations IP sur le serveur DNS.
- La suppression du groupe de ports virtuels distribués NSX (NSX DVPG) peut prendre plusieurs secondes après la suppression du commutateur logique correspondant dans NSX Manager.
Au fur et à mesure que le nombre de commutateurs logiques augmente, la suppression du NSX DVPG dans vCenter Server peut prendre davantage de temps après la suppression du commutateur logique correspondant dans NSX Manager. Dans un environnement avec 12 000 commutateurs logiques, il faut environ 10 secondes pour qu'un NSX DVPG soit supprimé de vCenter Server.
Solution : aucune.
- Hostd manque de mémoire et échoue si de nombreux groupes de ports virtuels distribués NSX sont créés.
Dans vSphere 7.0, les groupes de ports virtuels distribués NSX consomment des quantités de mémoire beaucoup plus grandes que les réseaux opaques. Pour cette raison, les groupes de ports virtuels distribués NSX ne peuvent pas prendre en charge la même échelle qu'un réseau opaque pour une même quantité de mémoire.
Solution : pour prendre en charge l'utilisation de groupes de ports virtuels distribués NSX, augmentez la quantité de mémoire dans vos hôtes ESXi. Si vous vérifiez que votre système dispose de suffisamment de mémoire pour prendre en charge vos machines virtuelles, vous pouvez augmenter directement la mémoire de hostd
à l'aide de la commande suivante.
localcli --plugin-dir /usr/lib/vmware/esxcli/int/ sched group setmemconfig --group-path host/vim/vmvisor/hostd --units mb --min 2048 --max 2048
Notez que cela entraînera l'utilisation par hostd
de la mémoire normalement réservée aux machines virtuelles de votre environnement. Cela peut avoir pour effet de réduire le nombre de machines virtuelles que votre hôte ESXi peut prendre en charge.
- DRS peut lancer vMotion de manière incorrecte si la réservation réseau est configurée sur une machine virtuelle
Si la réservation réseau est configurée sur une machine virtuelle, il est prévu que DRS migre uniquement la machine virtuelle vers un hôte répondant aux exigences spécifiées. Dans un cluster incluant des nœuds de transport NSX, si certains des nœuds de transport rejoignent la zone de transport par NSX-T Virtual Distributed Switch (N-VDS) et d'autres par vSphere Distributed Switch (VDS) 7.0, DRS peut lancer vMotion de manière incorrecte. Vous pouvez rencontrer ce problème lorsque :
- La machine virtuelle se connecte à un commutateur logique NSX configuré avec une réservation de réseau.
- Certains nœuds de transport rejoignent la zone de transport à l'aide de N-VDS, d'autres par VDS 7.0 ou, les nœuds de transport rejoignent la zone de transport via différentes instances de VDS 7.0.
Solution : faites en sorte que tous les nœuds de transport rejoignent la zone de transport par N-VDS ou la même instance de VDS 7.0.
- Lors de l'ajout d'une NIC VMkernel (vmknic) à un groupe de ports NSX, vCenter Server signale l'erreur « La connexion de l'adaptateur VMKernel à un groupe de ports NSX sur un hôte sans état n'est pas une opération prise en charge. Utilisez le groupe de ports distribués à la place. »
- Pour ESXi sans état sur vSphere Distributed Switch (VDS), la vmknic d'un groupe de ports NSX est bloquée. Vous devez plutôt utiliser un groupe de ports distribués.
- Pour ESXi avec état sur VDS, vmknic sur le groupe de ports NSX est pris en charge, mais vSAN peut rencontrer un problème s'il utilise vmknic sur un groupe de ports NSX.
Solution : utilisez un groupe de ports distribués sur le même VDS.
- Échec potentiel de l'activation de SR-IOV à partir de vCenter pour QLogic 4x10GE QL41164HFCU CNA
Si vous accédez à la boîte de dialogue Modifier les paramètres pour les adaptateurs réseau physiques et que vous tentez d'activer SR-IOV, l'opération peut échouer si vous utilisez QLogic 4x10GE QL41164HFCU CNA. La tentative d'activation de SR-IOV peut entraîner une panne réseau de l'hôte ESXi.
Solution : utilisez la commande suivante sur l'hôte ESXi pour activer SR-IOV :
esxcfg-module
- Échec de l'instance de vCenter Server si les hôtes d'un cluster utilisant Distributed Resource Scheduler (DRS) joignent la mise en réseau NSX-T via un commutateur virtuel distribué (VDS) différent ou une combinaison de commutateur virtuel distribué NSX-T (NVDS) et de VDS
Dans vSphere 7.0, lorsque vous utilisez la mise en réseau NSX-T sur vSphere VDS avec un cluster DRS, si les hôtes ne joignent pas la zone de transport NSX via le même VDS ou NVDS, cela peut entraîner l'échec de l'instance de vCenter Server.
Solution : les hôtes d'un cluster DRS doivent joindre la zone de transport NSX via le même VDS ou NVDS.
- Les banques de données VMFS ne sont pas montées automatiquement après la suppression à chaud du disque et l'insertion à chaud sur les serveurs HPE Gen10 avec des contrôleurs SmartPQI.
Lorsque des disques SATA sur des serveurs HPE Gen10 avec des contrôleurs SmartPQI sans développeur sont supprimés à chaud et réinsérés à chaud dans une baie de disques différente de la même machine, ou lorsque plusieurs disques sont supprimés à chaud et réinsérés à chaud dans un ordre différent, il arrive parfois qu'un nouveau nom local soit attribué au disque. La banque de données VMFS sur ce disque apparaît sous la forme d'un snapshot et ne sera pas montée automatiquement, car le nom du périphérique a changé.
Solution : aucune. Le contrôleur SmartPQI ne prend pas en charge les opérations de suppression à chaud et d'insertion à chaud non ordonnées.
- La vérification VOMA sur les banques de données VMFS basées sur NVMe échoue avec une erreur.
La vérification VOMA n'est pas prise en charge pour les banques de données VMFS basées sur NVMe et échoue avec l'erreur :
ERROR: Échec de réservation du périphérique. Fonction non implémentée
Exemple :
# voma -m vmfs -f check -d /vmfs/devices/disks/: <partition#>
Exécution de VMFS Checker version 2.1 en mode de vérification
Initialisation des métadonnées LVM, vérifications de base terminées
Vérification de l'activité du système de fichiers
Exécution du contrôle de réactivité du système de fichiers..|Analyse de l'activité de l'hôte VMFS-6 (4 096 octets/HB, 1 024 HB).
ERROR: Échec de réservation du périphérique. Fonction non implémentée
Abandon de la vérification du volume VMFS
VOMA n'a pas pu vérifier le périphérique : Erreur générale
Solution : aucune. Si vous devez analyser les métadonnées VMFS, collectez-les à l'aide de l'option -l
et passez au support client VMware. La commande de collecte du vidage est la suivante :
voma -l -f dump -d /vmfs/devices/disks/:<partition#>
- L'utilisation de l'API de reconfiguration de machine virtuelle pour attacher un disque de première classe chiffré à une machine virtuelle chiffrée peut échouer avec une erreur.
Si un FCD et une machine virtuelle sont chiffrés avec des clés de chiffrement différentes, vos tentatives pour attacher le FCD chiffré à la machine virtuelle chiffrée à l'aide de l'API de reconfiguration de machine virtuelle
peuvent échouer avec le message d'erreur suivant :
Impossible de déchiffrer le disque, car la clé ou le mot de passe est incorrect.
Solution : utilisez l'API attachDisk
plutôt que l'API de reconfiguration de machine virtuelle
pour attacher un FCD chiffré à une machine virtuelle chiffrée.
- L'hôte ESXi peut ne pas répondre si une extension sans tête de sa banque de données VMFS fractionnée passe à l'état de perte permanente de périphérique (PDL).
Ce problème ne se produit pas lorsqu'une extension hors tête de la banque de données VMFS fractionnée échoue avec l'extension de tête. Dans ce cas, l'intégralité de la banque de données devient inaccessible et n'autorise plus les E/S.
En revanche, lorsque seule une extension sans tête échoue, mais que l'extension de tête reste accessible, le signal de pulsation de la banque de données semble être normal, et les E/S entre l'hôte et la banque de données continuent. Toutefois, toutes les E/S qui dépendent de l'extension hors tête ayant échoué commencent à échouer également. D'autres transactions d'E/S peuvent s'accumuler en attendant la résolution des E/S ayant échoué et entraîner l'absence de réponse de l'hôte.
Solution : corrigez la condition PDL de l'extension hors tête pour résoudre ce problème.
- Le contrôleur NVMe virtuel est le contrôleur de disque par défaut pour les systèmes d'exploitation invités Windows 10.
Le contrôleur NVMe virtuel est le contrôleur de disque par défaut pour les systèmes d'exploitation invités suivants lors de l'utilisation de la version matérielle 15 ou ultérieure :
Windows 10
Windows Server 2016
Windows Server 2019
Certaines fonctionnalités peuvent ne pas être disponibles lors de l'utilisation d'un contrôleur NVMe virtuel. Pour plus d'informations, reportez-vous à l'article https://kb.vmware.com/s/article/2147714
Remarque : certains clients utilisent la valeur par défaut précédente de LSI Logic SAS. Cela concerne ESXi Host Client et PowerCLI.
Solution : si vous avez besoin de fonctionnalités non disponibles sur le contrôleur NVMe virtuel, basculez vers VMware Paravirtual SCSI (PVSCSI) ou LSI Logic SAS. Pour plus d'informations sur l'utilisation de VMware Paravirtual SCSI (PVSCSI), reportez-vous à https://kb.vmware.com/s/article/1010398
- Après la mise à niveau d'un hôte ESXi vers vSphere 7.0, la présence de règles de réclamation de base en double peut entraîner un comportement inattendu
Les règles de réclamation déterminent quel plug-in de gestion multivoie, tel que NMP, HPP, etc., possède des chemins d'accès à un périphérique de stockage particulier. ESXi 7.0 ne prend pas en charge les règles de réclamation en double. Toutefois, l'hôte ESXi 7.0 ne vous alerte pas si vous ajoutez des règles en double aux règles de réclamation existantes héritées via une mise à niveau d'une version héritée. Du fait de l'utilisation de règles en double, les périphériques de stockage peuvent être réclamés par des plug-ins imprévus, ce qui peut entraîner un résultat inattendu.
Solution : N'utilisez pas de règles de réclamation de base en double. Avant d'ajouter une nouvelle règle de réclamation, supprimez toute règle de réclamation correspondante existante.
- Une requête CNS avec le filtre d'état de conformité défini peut prendre un temps anormalement long.
L'API CNS QueryVolume vous permet d'obtenir des informations sur les volumes CNS, telles que l'état de conformité et de santé des volumes. Lorsque vous vérifiez l'état de conformité des volumes individuels, les résultats sont obtenus rapidement. Toutefois, lorsque vous appelez l'API CNS QueryVolume pour vérifier l'état de conformité de plusieurs volumes, plusieurs dizaines ou centaines, la requête peut s'exécuter lentement.
Solution : évitez d'utiliser les requêtes par lot. Lorsque vous devez obtenir l'état de conformité, interrogez un volume à la fois ou limitez le nombre de volumes dans l'API à 20 requêtes ou moins. Lors de l'utilisation de la requête, évitez d'exécuter d'autres opérations CNS pour obtenir les meilleures performances.
- Une banque de données VMFS sauvegardée par un espace de noms ou un périphérique NVMe over Fabrics peut devenir inaccessible en permanence après la récupération d'une panne de APD ou PDL
Si une banque de données VMFS sur un hôte ESXi est sauvegardée par un espace de noms ou un périphérique NVMe over Fabrics, en cas d'échec de type Tous chemins hors service (APD) ou PDL (Permanent Device Loss), la banque de données peut être inaccessible même après la récupération. Vous ne pouvez pas accéder à la banque de données à partir de l'hôte ESXi ou du système vCenter Server.
Solution : pour récupérer à partir de cet état, effectuez une réanalyse au niveau de l'hôte ou du cluster. Pour plus d'informations, reportez-vous à la section Relancez l'analyse du stockage.
- Des volumes de stockage cloud natif supprimés peuvent apparaître temporairement comme existants dans l'interface utilisateur du stockage cloud natif
Après la suppression d'un disque FCD qui sauvegarde un volume de stockage cloud natif, le volume peut toujours apparaître comme existant dans l'interface utilisateur du stockage cloud natif. Cependant, vos tentatives de suppression du volume échouent. Un message d'erreur similaire au message suivant peut s'afficher :
L'objet ou l'élément indiqué est introuvable
.
Solution : La synchronisation complète suivante résoudra l'incohérence et mettra correctement à jour l'interface utilisateur du stockage cloud natif.
- Les tentatives d'attachement de plusieurs volumes de stockage cloud natif au même espace peuvent parfois échouer avec une erreur
Lorsque vous attachez plusieurs volumes simultanément au même espace, l'opération d'attachement peut éventuellement choisir le même emplacement de contrôleur. Par conséquent, une seule des opérations réussit, alors que d'autres montages de volume échouent.
Solution : Lorsque Kubernetes retente l'opération qui a échoué, celle-ci réussit si un emplacement de contrôleur est disponible sur la machine virtuelle de nœud.
- Dans certaines circonstances, lorsqu'une opération de stockage cloud natif échoue, l'état de la tâche s'affiche comme étant réussi dans vSphere Client
Cela peut se produire lorsque, par exemple, vous utilisez une stratégie de stockage incompatible pour créer un volume de stockage cloud natif. L'opération échoue, tandis que vSphere Client indique que l'état de la tâche est réussi.
Solution : l'état de la tâche réussie dans vSphere Client ne garantit pas que l'opération du stockage cloud natif a réussi. Pour vous assurer que l'opération a réussi, vérifiez ses résultats.
- Une opération de suppression infructueuse pour un volume CNS persistant peut laisser ce volume non supprimé sur la banque de données vSphere
Ce problème peut se produire lorsque l'API de suppression CNS tente de supprimer un volume persistant qui est toujours attaché à un espace. Par exemple, lorsque vous supprimez l'espace de noms Kubernetes dans lequel l'espace s'exécute. Par conséquent, le volume est effacé de CNS et l'opération de requête CNS ne renvoie pas le volume. Cependant, le volume continue de résider sur la banque de données et ne peut pas être supprimé par le biais d'opérations répétées d'API de suppression CNS.
Solution : aucune.
- Vous ne pouvez pas activer NSX-T sur un cluster déjà activé pour gérer la configuration et les mises à jour d'images sur tous les hôtes collectivement.
NSX-T n'est pas compatible avec la fonctionnalité de vSphere Lifecycle Manager pour la gestion des images. Lorsque vous activez collectivement un cluster pour la configuration et les mises à jour d'images sur tous les hôtes du cluster, vous ne pouvez pas activer NSX-T sur ce cluster. Toutefois, vous pouvez déployer des dispositifs NSX Edge sur ce cluster.
Solution : déplacez les hôtes vers un nouveau cluster que vous pouvez gérer avec des lignes de base et activez NSX-T sur ce nouveau cluster.
- vSphere Lifecycle Manager et les services de fichiers vSAN ne peuvent pas être activés simultanément sur un cluster vSAN dans vSphere 7.0
Si vSphere Lifecycle Manager est activé sur un cluster, les services de fichiers vSAN ne peuvent pas être activés sur le même cluster et vice versa. Afin d'activer vSphere Lifecycle Manager sur un cluster sur lequel les services de fichiers vSAN sont déjà activés, désactivez d'abord les services de fichiers vSAN et recommencez l'opération. Notez que si vous effectuez une transition vers un cluster géré par une seule image, vSphere Lifecycle Manager ne peut pas être désactivé sur ce cluster.
Solution : aucune.
- Lorsqu'un gestionnaire de support matériel n'est pas disponible, la fonctionnalité de vSphere High Availability (HA) est affectée
Si le gestionnaire de support matériel n'est pas disponible pour un cluster que vous gérez avec une seule image, dans laquelle un complément de microprogramme et de pilotes est sélectionné et où vSphere HA est activé, la fonctionnalité vSphere HA est affectée. Les erreurs suivantes peuvent se produire.
- Échec de la configuration de vSphere HA sur un cluster.
- Impossible de terminer la configuration de l'agent vSphere HA sur cet hôte :
Une erreur s'est produite lors de l'application de VIB HA sur le cluster.
- La correction de vSphere HA échoue :
Une erreur système générale s'est produite : impossible d'accéder à un mappage de composants effectif.
- La désactivation de vSphere HA échoue : échec de la tâche de suppression de la solution.
Une erreur système générale s'est produite : le module de support matériel est introuvable à partir du dépôt ou du gestionnaire de support matériel.
Solution :
- si le gestionnaire de support matériel est temporairement indisponible, procédez comme suit.
- Reconnectez le gestionnaire de support matériel à l'instance de vCenter Server.
- Sélectionnez un cluster dans le menu Hôtes et cluster.
- Sélectionnez l'onglet Configurer.
- Sous Services, cliquez sur Disponibilité vSphere.
- Réactivez vSphere HA.
- Si le gestionnaire de support matériel est définitivement indisponible, procédez comme suit.
- Supprimez le gestionnaire de support matériel et le module de support matériel de la spécification de l'image.
- Réactivez vSphere HA.
- Sélectionnez un cluster dans le menu Hôtes et cluster.
- Sélectionnez l'onglet Mises à jour.
- Cliquez sur Modifier.
- Supprimez le complément de microprogramme et de pilotes, puis cliquez sur Enregistrer.
- Sélectionnez l'onglet Configurer.
- Sous Services, cliquez sur Disponibilité vSphere.
- Réactivez vSphere HA.
- I/OFilter n'est pas supprimé d'un cluster après un processus de correction dans vSphere Lifecycle Manager
La suppression d'I/OFilter d'un cluster en corrigeant le cluster dans vSphere Lifecycle Manager échoue avec le message d'erreur suivant : Le filtre iofilter XXX existe déjà
. Le filtre iofilter reste répertorié comme étant installé.
Solution :
- appelez l'API IOFilter
UninstallIoFilter_Task
à partir de l'objet géré vCenter Server (IoFilterManager).
- Corrigez le cluster dans vSphere Lifecycle Manager.
- Appelez l'API IOFilter
ResolveInstallationErrorsOnCluster_Task
à partir de l'objet géré par vCenter Server (IoFilterManager) pour mettre à jour la base de données.
- Lors de la correction d'un cluster activé pour vSphere HA dans vSphere Lifecycle Manager, l'ajout d'hôtes provoque un état d'erreur vSphere HA
L'ajout d'un ou de plusieurs hôtes ESXi lors d'un processus de correction d'un cluster activé pour vSphere HA génère le message d'erreur suivant : Une erreur s'est produite lors de l'application de VIB HA sur le cluster.
Solution : une fois l'opération de correction du cluster terminée, effectuez l'une des tâches suivantes.
- Cliquez avec le bouton droit sur l'hôte ayant échoué ESXi et sélectionnez Reconfigurer pour vSphere HA.
- Désactivez et réactivez vSphere HA pour le cluster.
- Lors de la correction d'un cluster activé pour vSphere HA dans vSphere Lifecycle Manager, la désactivation et la réactivation de vSphere HA provoquent un état d'erreur de vSphere HA
La désactivation et la réactivation de vSphere HA au cours du processus de correction d'un cluster peuvent entraîner l'échec du processus de correction en raison des rapports sur les contrôles de santé de vSphere HA signalant que les VIB vSphere HA ne sont pas installés sur les hôtes. Le message d'erreur suivant peut s'afficher : La définition de la spécification d'image souhaitée pour le cluster a échoué
.
Solution : une fois l'opération de correction de cluster terminée, désactivez et réactivez vSphere HA pour le cluster.
- La vérification des images recommandées dans vSphere Lifecycle Manager présente des performances ralenties dans les clusters de grande taille.
Dans les clusters de grande taille comportant plus de 16 hôtes, la tâche de génération de recommandations peut prendre plus d'une heure pour s'achever ou sembler se bloquer. La date de fin de la tâche de la tâche de recommandation dépend du nombre de périphériques configurés sur chaque hôte et du nombre de candidats d'image du dépôt que vSphere Lifecycle Manager doit traiter avant d'obtenir une image valide à recommander.
Solution : aucune.
- La vérification de la compatibilité matérielle dans vSphere Lifecycle Manager présente des performances ralenties dans les clusters de grande taille.
Dans les clusters de grande taille comportant plus de 16 hôtes, la tâche de génération des rapports de validation peut prendre jusqu'à 30 minutes ou sembler se bloquer. La durée d'exécution dépend du nombre de périphériques configurés sur chaque hôte et du nombre d'hôtes configurés dans le cluster.
Solution : aucune.
- Des messages d'erreur incomplets dans des langues autres que l'anglais s'affichent lorsque vous corrigez un cluster dans vSphere Lifecycle Manager.
Des messages d'erreur incomplets peuvent s'afficher pour les langues localisées dans l'interface utilisateur de vCenter Server. Les messages s'affichent après l'échec d'un processus de correction de cluster dans vSphere Lifecycle Manager. Par exemple, vous pouvez observer le message d'erreur suivant.
Le message d'erreur en langue anglaise : Virtual machine 'VMC on DELL EMC -FileServer' that runs on cluster 'Cluster-1' reported an issue which prevents entering maintenance mode: Impossible d'accéder à la configuration de la machine virtuelle : Impossible d'accéder au fichier [local-0] VMC on Dell EMC-FileServer/VMC on Dell EMC-FileServer.vmx
Le message d'erreur en langue française : La VM « VMC on DELL EMC -FileServer », située sur le cluster « {Cluster-1} », a signalé un problème empêchant le passage en mode de maintenance : Impossible d'accéder à la configuration de la machine virtuelle : Impossible d'accéder au fichier [local-0] VMC on Dell EMC-FileServer/VMC on Dell EMC-FileServer.vmx
Solution : aucune.
- L'importation d'une image sans complément fournisseur, composant ou complément de microprogramme et de pilotes dans un cluster sur lequel l'image contient ces éléments ne supprime pas les éléments d'image de l'image existante.
Seule l'image de base ESXi est remplacée par celle de l'image importée.
Solution : une fois le processus d'importation terminé, modifiez l'image et, si nécessaire, supprimez le complément fournisseur, les composants et le complément de microprogramme et de pilotes.
- Lorsque vous convertissez un cluster qui utilise des lignes de base en un cluster qui utilise une seule image, un avertissement s'affiche indiquant que les VIB vSphere HA seront supprimés.
La conversion d'un cluster activé pour vSphere HA qui utilise des lignes de base en un cluster qui utilise une seule image peut entraîner l'affichage d'un message d'avertissement indiquant que le composant vmware-fdm
sera supprimé.
Solution : vous pouvez ignorer ces messages. Le processus de conversion installe le composant vmware-fdm
.
- Si vSphere Update Manager est configuré pour télécharger des mises à jour de correctifs à partir d'Internet via un serveur proxy, après la mise à niveau vers vSphere 7.0 qui convertit Update Manager en vSphere Lifecycle Manager, le téléchargement de correctifs à partir du référentiel de correctifs de VMware peut échouer.
Dans les versions antérieures de vCenter Server vous pouviez configurer des paramètres de proxy indépendants pour les dispositifs vCenter Server et vSphere Update Manager. Après une mise à niveau vers vSphere 7.0, vSphere Update Manager service devient partie intégrante du service Lifecycle Manager vSphere. Pour le service de vSphere Lifecycle Manager, les paramètres de proxy sont configurés à partir des paramètres de vCenter Server Appliance. Si vous avez configuré Update Manager pour télécharger des mises à jour de correctifs à partir d'Internet via un serveur proxy, mais que vCenter Server Appliance ne disposait pas d'une configuration de paramètre de proxy, après une mise à niveau de vCenter Server vers la version 7.0, vSphere Lifecycle Manager ne parvient pas à se connecter au dépôt de VMware et ne parvient pas à télécharger les correctifs ou les mises à jour.
Solution : connectez-vous à l'interface de gestion de vCenter Server Appliance, https://vcenter-server-appliance-FQDN-or-IP-address:5480, pour configurer les paramètres de proxy pour le dispositif vCenter Server Appliance et activer vSphere Lifecycle Manager pour utiliser le proxy.
- Lors de l'application d'un profil d'hôte avec la version 6.5 à un hôte ESXi avec la version 7.0, la vérification de conformité échoue.
L'application d'un profil d'hôte avec la version 6.5 à un hôte ESXi avec la version 7.0 entraîne le signalement du profil de fichier coredump comme non conforme à l'hôte.
Solution : il existe deux solutions.
- Lorsque vous créez un profil d'hôte avec la version 6.5, définissez une option de configuration avancée VMkernel.Boot.autoCreateDumpFile sur false sur l'hôte ESXi.
- Lorsque vous appliquez un profil d'hôte existant avec la version 6.5, ajoutez une option de configuration avancée VMkernel.Boot.autoCreateDumpFile dans le profil d'hôte, configurez l'option sur une stratégie fixe et définissez la valeur sur false.
- Les pilotes ESXi natifs ConnectX-4 ou ConnectX-5 de Mellanox peuvent présenter une dégradation mineure du débit lorsque la fonctionnalité Dynamic Receive Side Scaling (DYN_RSS) ou Generic RSS (GEN_RSS) est activée.
Les pilotes ESXi natifs ConnectX-4 ou ConnectX-5 de Mellanox peuvent présenter moins de 5 % de dégradation du débit lorsque les fonctionnalités DYN_RSS et GEN_RSS sont activées, ce qui est peu susceptible d'affecter les charges de travail normales.
Solution : vous pouvez désactiver les fonctionnalités DYN_RSS et GEN_RSS à l'aide des commandes suivantes :
# esxcli system module parameters set -m nmlx5_core -p "DYN_RSS=0 GEN_RSS=0"
# reboot
- Le trafic RDMA entre deux machines virtuelles sur le même hôte peut échouer dans l'environnement PVRDMA.
Dans une implémentation vSphere 7.0 d'un environnement PVRDMA, les machines virtuelles acheminent le trafic via le HCA pour la communication locale si un HCA est présent. Toutefois, le bouclage du trafic RDMA ne fonctionne pas sur le pilote qedrntv. Par exemple, les paires RDMA mises en file d'attente exécutées sur des machines virtuelles qui sont configurées sous le même port de liaison montante ne peuvent pas communiquer entre elles.
Dans vSphere 6.7 et versions antérieures, le HCA a été utilisé pour le trafic RDMA local si le SRQ était activé. vSphere 7.0 utilise le bouclage HCA avec des machines virtuelles utilisant des versions de PVRDMA sur lesquelles SRQ est activé avec une version matérielle minimale de v14 utilisant le protocole RoCE v2.
La version actuelle du microprogramme de l'adaptateur Marvell FastLinQ ne prend pas en charge le trafic de bouclage entre les paires mises en file d'attente du même PF ou port.
Solution : la prise en charge requise est ajoutée dans le pilote prédéfini certifié pour vSphere 7.0. Si vous utilisez le pilote qedrntv de boîte de réception, vous devez utiliser une configuration à 3 hôtes et migrer les machines virtuelles vers le troisième hôte.
- Limitations des paires mises en file d'attente (QP) du trafic datagramme non fiable dans le pilote qedrntv.
Il existe des limitations avec le pilote Marvell FastLinQ qedrntv RoCE et le trafic datagramme non fiable (UD). Les applications UD qui impliquent le trafic en masse peuvent échouer avec le pilote qedrntv. En outre, les paires UD mises en file d'attente peuvent uniquement fonctionner avec des régions de mémoire (MR) DMA. Les MR ou FRMR physiques ne sont pas prises en charge. Les applications tentant d'utiliser des MR ou FRMR physiques avec des paires UD mises en file d'attente ne parviennent pas à transmettre le trafic lorsqu'elles sont utilisées avec le pilote qedrntv. Les exemples connus de ces applications de test sont ibv_ud_pingpong
et ib_send_bw
.
Les cas d'utilisation standard RoCE et RoCEv2 dans un environnement ESXi VMware tel que iSER, NVMe-oF (RoCE) et PVRDMA ne sont pas affectés par ce problème. Les cas d'utilisation pour le trafic UD sont limités et ce problème affecte un petit ensemble d'applications nécessitant un trafic UD en masse.
Le matériel Marvell FastLinQ ne prend pas en charge le déchargement du trafic UD RDMA. Pour répondre aux exigences de VMware PVRDMA pour la prise en charge de GSI QP, une mise en œuvre limitée par logiciel uniquement de la prise en charge de la fonction UD QP a été ajoutée au pilote qedrntv. L'objectif de la mise en œuvre est de fournir la prise en charge de la communication GSI de chemin de contrôle et n'est pas une implémentation complète d'UD QP prenant en charge le trafic en masse et les fonctionnalités avancées.
Étant donné que la prise en charge de la fonction UD est implémentée dans le logiciel, l'implémentation peut ne pas suivre le trafic intense et des paquets peuvent être abandonnés. Cela peut entraîner des échecs avec le trafic UD en masse.
Solution : le trafic UD QP en masse n'est pas pris en charge avec le pilote qedrntv et il n'existe aucune solution à ce stade. Les cas d'utilisation RDMA de VMware ESXi (RoCE), tels que iSER, NVMe, RDMA et PVRDMA, ne sont pas affectés par ce problème.
- Les serveurs équipés de la carte réseau QLogic 578xx peuvent échouer lorsque vous connectez ou déconnectez fréquemment des LUN iSCSI
Si vous déclenchez fréquemment une connexion iSCSI de carte réseau QLogic 578xx ou une déconnexion en peu de temps, le serveur peut échouer en raison d'un problème avec le pilote qfle3. Cela est dû à un défaut connu dans le microprogramme du périphérique.
Solution : aucune.
- ESXi peut échouer lors du déchargement du pilote ou de l'opération de déconnexion du contrôleur dans un environnement Broadcom NVMe over FC.
Dans l'environnement Broadcom NVMe over FC, ESXi peut échouer lors du déchargement du pilote ou de l'opération de déconnexion du contrôleur et afficher un message d'erreur tel que : @BlueScreen: #PF Exception 14 dans le monde 2098707:vmknvmeGener IP 0x4200225021cc addr 0x19
Solution : aucune.
- ESXi n'affiche pas le numéro de version du microprogramme OEM des cartes réseau i350/X550 sur certains serveurs Dell.
Le pilote ixgben de boîte de réception reconnaît uniquement la version des données de microprogramme ou la signature des cartes réseau i350/X550. Sur certains serveurs Dell, le numéro de version du microprogramme OEM est programmé dans la région de la version du module OEM et le pilote ixgben de boîte de réception ne lit pas ces informations. Seule la signature du microprogramme à 8 chiffres s'affiche.
Solution : pour afficher le numéro de version du microprogramme OEM, installez la version 1.7.15 ou ultérieure du pilote ixgben asynchrone.
- Les cartes réseau X710 ou XL710 peuvent échouer dans ESXi.
Lorsque vous lancez certaines opérations destructrices sur des cartes réseau X710 ou XL710, telles que la réinitialisation de la carte réseau ou la manipulation de l'arborescence de périphériques interne de VMKernel, le matériel de la carte réseau peut lire des données de la mémoire non constituée de paquets.
Solution : ne réinitialisez pas la carte réseau ou ne manipulez pas l'état du périphérique interne VMkernel.
- NVMe-oF ne garantit pas le nom VMHBA persistant après le redémarrage du système
NVMe-oF est une nouvelle fonctionnalité de vSphere 7.0. Si votre serveur dispose d'une installation de stockage USB qui utilise vmhba30+ et dispose également de la configuration NVMe over RDMA, le nom VMHBA peut changer après un redémarrage du système. Cela est dû au fait que l'attribution de nom VMHBA pour NVMe over RDMA est différente des périphériques PCIe. ESXi ne garantit pas la persistance.
Solution : aucune.
- Échec de la sauvegarde pour une taille de base de données vCenter de 300 Go ou plus
Si la taille de la base de données vCenter est de 300 Go ou plus, la sauvegarde basée sur fichier échoue avec un délai d'expiration. Le message d'erreur suivant s'affiche : Délai expiré ! L'opération ne s'est pas terminée dans le délai de 72 000 secondes.
Solution : aucune.
- Une restauration de vCenter Server 7.0 qui est mise à niveau depuis vCenter Server 6.x avec une instance externe de Platform Services Controller vers vCenter Server 7.0 peut échouer
Lorsque vous restaurez une instance de vCenter Server 7.0 mise à niveau de la version 6.x incluant une instance externe de Platform Services Controller vers vCenter Server 7.0, la restauration peut échouer et afficher l'erreur suivante : Échec de la récupération de la liste de stockage du dispositif.
Solution : pendant la première étape du processus de restauration, augmentez le niveau de stockage de vCenter Server 7.0. Par exemple, si le type de stockage de la configuration externe de Platform Services Controller de vCenter Server 6.7 est petit, sélectionnez le type de stockage grand pour le processus de restauration.
- Le paramètre de configuration des protocoles SSL activé n'est pas configuré lors du processus de correction d'un profil d'hôte.
Le paramètre de configuration des protocoles SSL activés
ne sont pas configurés lors de la correction d'un profil d'hôte et seul le protocole par défaut du système tlsv1.2
est activé. Ce comportement est observé pour un profil d'hôte avec la version 7.0 et les versions antérieures dans un environnement vCenter Server 7.0.
Solution : Pour activer les protocoles SSL TLSV 1.0 ou TLSV 1.1 pour SFCB, connectez-vous à un hôte ESXi à l'aide de SSH, puis exécutez la commande ESXCLI suivante : esxcli system wbem -P <protocol_name>
- Impossible de configurer les paramètres du mode de verrouillage à l'aide des profils d'hôte.
Le mode de verrouillage ne peut pas être configuré à l'aide d'un profil d'hôte de sécurité et ne peut pas être appliqué à plusieurs hôtes ESXi à la fois. Vous devez configurer manuellement chaque hôte.
Solution : Dans vCenter Server 7.0, vous pouvez configurer le mode de verrouillage et gérer la liste des utilisateurs avec exception en mode de verrouillage à l'aide d'un profil d'hôte de sécurité.
- Lorsqu'un profil d'hôte est appliqué à un cluster, les paramètres Enhanced vMotion Compatibility (EVC) sont manquants dans les hôtes ESXi.
Certains paramètres du fichier de configuration de VMware /etc/vmware/config
ne sont pas gérés par les profils d'hôte et sont bloqués lorsque le fichier de configuration est modifié. Par conséquent, lorsque le profil d'hôte est appliqué à un cluster, les paramètres EVC sont perdus, ce qui entraîne la perte des fonctionnalités EVC. Par exemple, les CPU non masqués peuvent être exposés aux charges de travail.
Solution : reconfigurez la ligne de base EVC pertinente sur le cluster pour récupérer les paramètres EVC.
- L'utilisation d'un profil d'hôte qui définit une partition de vidage de mémoire dans vCenter Server 7.0 génère une erreur.
Dans vCenter Server 7.0, la configuration et la gestion d'une partition de vidage de mémoire dans un profil d'hôte ne sont pas disponibles. La tentative d'application d'un profil d'hôte qui définit une partition de vidage de mémoire entraîne l'erreur suivante : Aucune partition de coredump valide n'a été trouvée.
Solution : aucune. Dans vCenter Server 7.0., les profils d'hôte ne prennent en charge que les vidages de mémoire basés sur des fichiers.
- Si vous exécutez la commande ESXCLI pour décharger le module du pare-feu, le service hostd échoue et les hôtes ESXi perdent la connectivité
Si vous automatisez la configuration du pare-feu dans un environnement qui inclut plusieurs hôtes ESXi et que vous exécutez la commande ESXCLI esxcli network firewall unload
qui détruit les filtres et décharge le module du pare-feu, le service hostd échoue et les hôtes ESXi perdent la connectivité.
Solution : le déchargement du module de pare-feu n'est pas recommandé à tout moment. Si vous devez décharger le module du pare-feu, suivez les étapes ci-dessous :
- Arrêtez le service hostd en utilisant la commande :
/etc/init.d/hostd stop.
- Déchargez le module du pare-feu à l'aide de la commande :
esxcli network firewall unload.
- Réalisez les opérations requises.
- Chargez le module de pare-feu à l'aide de la commande :
esxcli network firewall load.
- Démarrez le service hostd à l'aide de la commande :
/etc/init.d/hostd start.
- Les opérations de vSphere Storage vMotion peuvent échouer dans un environnement vSAN en raison d'une session non authentifiée du gestionnaire NFC (Network File Copy)
Les migrations vers une banque de données vSAN à l'aide de machines virtuelles vSphere Storage vMotion ayant au moins un snapshot et plusieurs disques virtuels avec une stratégie de stockage différente peuvent échouer. Ce problème se produit en raison d'une session non authentifiée du gestionnaire NFC, car le corps SOAP (Simple Object Access Protocol) dépasse la taille autorisée.
Solution : migrez d'abord l'espace de noms d'accueil de la machine virtuelle et un seul des disques virtuels. Une fois l'opération terminée, effectuez une migration de disque uniquement des 2 disques restants.
- Les modifications des propriétés et des attributs des périphériques et du stockage sur un hôte ESXi peuvent ne pas persister après un redémarrage
Si la routine de détection de périphériques lors d'un redémarrage d'un hôte ESXi expire, il se peut que le plug-in de démarrage rapide ne reçoive pas toutes les modifications de configuration des périphériques et du stockage à partir de tous les périphériques enregistrés sur l'hôte. Par conséquent, le processus peut restaurer les propriétés de certains périphériques ou du stockage sur les valeurs par défaut après le redémarrage.
Solution : restaurez manuellement les modifications apportées aux propriétés du périphérique ou du stockage concerné.
- Si vous utilisez un build bêta d'ESXi 7.0, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors de certaines opérations de cycle de vie
Si vous utilisez une build bêta d'ESXi 7.0, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet lors de certaines opérations de cycle de vie, telles que le déchargement d'un pilote ou le basculement entre le mode ENS et le mode pilote natif. Par exemple, si vous tentez de modifier le mode ENS, vous voyez un message d'erreur semblable à celui-ci dans la trace de débogage : case ENS::INTERRUPT::NoVM_DeviceStateWithGracefulRemove hit BlueScreen: ASSERT bora/vmkernel/main/dlmalloc.c:2733
Ce problème est spécifique aux builds bêta et n'affecte pas les builds de version, telles qu'ESXi 7.0.
Solution : mettez à jour vers ESXi 7.0 GA.
- Impossible de créer de snapshots de machines virtuelles en raison d'une erreur d'échec d'une opération de synthèse
Lorsqu'un état Tous chemins hors service (All Paths Down, APD) se produit lors de la mise à jour du fichier de synthèse CBRC (Content Based Read Cache), une condition de trace rare peut entraîner des incohérences dans le fichier de synthèse. Par conséquent, vous ne pouvez pas créer de snapshots de machines virtuelles. Vous voyez une erreur de type Une erreur s'est produite lors de l'enregistrement du snapshot : Une opération de synthèse a échoué
dans la trace de débogage.
Solution : effectuez un cycle d'alimentation des machines virtuelles pour déclencher un recalcul des hachages CBRC et effacer les incohérences dans le fichier de synthèse.
- Si vous mettez à niveau les hôtes ESXi vers la version 7.0 Update 3, mais que votre vCenter Server est d'une version antérieure, l'attestation TPM (Trusted Platform Module) des hôtes ESXi échoue
Si vous mettez à niveau les hôtes ESXi vers la version 7.0 Update 3, mais que votre vCenter Server est d'une version antérieure et que vous activez le module TPM, les hôtes ESXi ne parviennent pas à transmettre l'attestation. Dans vSphere Client, vous voyez l'avertissement Alarme d'attestation TPM de l'hôte. L'algorithme ECDSA (Elliptic Curve Digital Signature Algorithm) introduit dans ESXi 7.0 Update 3 entraîne ce problème lorsque la version du système vCenter Server n'est pas la version 7.0 Update 3.
Solution : mettez à niveau votre instance de vCenter Server vers la version 7.0 Update 3 ou reconnaissez l'alarme.
- Vous voyez des avertissements sur l'écran du chargeur de démarrage concernant les balises d'actifs TPM
Si un hôte ESXi sur lequel TPM est activé n'a pas de balise d'actif définie, vous pouvez voir des messages d'avertissement inactifs dans l'écran du chargeur de démarrage tels que :
Échec de la détermination de la taille de la balise d'actif TPM : Mémoire tampon trop petite
Échec de la mesure de la balise d'actif dans TPM : Mémoire tampon trop petite
Solution : Ignorez les avertissements ou définissez une balise d'actif à l'aide de la commande $ esxcli hardware tpm tag set -d
- Le démon sensord ne parvient pas à signaler l'état du matériel de l'hôte ESXi
Une erreur logique dans la validation du SDR IPMI peut empêcher sensord
d'identifier une source pour les informations d'alimentation. Par conséquent, lorsque vous exécutez la commande vsish -e get /power/hostStats
, il se peut que vous ne voyiez aucune sortie.
Solution : aucune.
- Si un hôte ESXi échoue avec un écran de diagnostic violet, le service netdump peut cesser de fonctionner
Dans de rares cas, si un hôte ESXi échoue avec un écran de diagnostic violet, le service netdump peut échouer avec une erreur telle que NetDump FAILED: Couldn't attach to dump server at IP x.x.x.x
.
Solution : configurez le vidage de mémoire VMkernel pour utiliser le stockage local.
- Vous voyez fréquemment des vidages de mémoire VMware Fault Domain Manager (FDM) sur plusieurs hôtes ESXi
Dans certains environnements, le nombre de banques de données peut dépasser la limite de descripteur de fichier FDM. Par conséquent, vous voyez des vidages de mémoire fréquents sur plusieurs hôtes ESXi indiquant un échec de FDM.
Solution : augmentez la limite du descripteur de fichier FDM à 2 048. Vous pouvez utiliser le paramètre das.config.fdm.maxFds
à partir des options avancées de vSphere HA dans vSphere Client. Pour plus d'informations, consultez Définir les options avancées.
- Les machines virtuelles sur un cluster vSAN ayant une instance activée de NSX-T et un commutateur vSphere Distributed Switch (CVDS) convergé dans une zone de transport VLAN ne peuvent pas être mises sous tension après une mise hors tension
Si le disque d'un site secondaire est saturé à 95 % et que les machines virtuelles sont mises hors tension avant la simulation d'une panne de site secondaire, certaines machines virtuelles ne parviennent pas à se mettre sous tension lors de la récupération. Par conséquent, les machines virtuelles cessent de répondre. Ce problème se produit même si la récupération de site inclut l'ajout de disques, d'hôtes ESXi ou de capacité de CPU.
Solution : sélectionnez les machines virtuelles qui ne se mettent pas sous tension et modifiez le réseau en réseau de machines virtuelles dans Modifier les paramètres, dans le menu contextuel VM.
- Les hôtes ESXi peuvent échouer avec un écran de diagnostic violet avec une erreur Assert at bora/modules/vmkernel/vmfs/fs6Journal.c:835
Dans de rares cas, par exemple lors de l'exécution de tests SESparse, le nombre de verrous par transaction dans une banque de données VMFS peut dépasser la limite de 50 pour le paramètre J6_MAX_TXN_LOCKACTIONS
. Par conséquent, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet avec l'erreur Assert at bora/modules/vmkernel/vmfs/fs6Journal.c:835
.
Solution : aucune.
- Si vous modifiez le paramètre netq_rss_ens du pilote nmlx5_core, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet
Si vous tentez d'activer le paramètre netq_rss_ens
lors de la configuration d'un chemin de données amélioré sur le pilote nmlx5_core
, les hôtes ESXi peuvent échouer avec un écran de diagnostic violet. Le paramètre netq_rss_ens
, qui active NetQ RSS, est désactivé par défaut avec une valeur de 0
.
Solution : conservez la valeur par défaut pour le paramètre du module netq_rss_ens
dans le pilote nmlx5_core
.
- ESXi peut mettre fin aux E/S sur les périphériques NVMeOF en raison d'erreurs sur tous les chemins actifs.
Parfois, tous les chemins actifs vers le périphérique NVMeOF enregistrent des erreurs d'E/S en raison de problèmes de liaison ou de l'état du contrôleur. Si l'état de l'un des chemins devient inactif, le plug-in haute performance peut ne pas sélectionner un autre chemin si celui-ci indique un volume d'erreurs élevé. Par conséquent, l'E/S échoue.
Solution : désactivez l'option de configuration /Misc/HppManageDegradedPaths pour débloquer l'E/S.
- La mise à niveau vers ESXi 7.0 Update 3 peut échouer en raison du changement de nom du pilote réseau i40enu de la boîte de réception
à partir de vSphere 7.0 Update 3, le nom du pilote réseau i40enu de la boîte de réception pour ESXi redevient i40en. Le pilote i40en a été renommé i40enu dans vSphere 7.0 Update 2, mais le changement de nom a eu un impact sur certains chemins de mise à niveau. Par exemple, la mise à niveau cumulée des hôtes ESXi que vous gérez avec des lignes de base et des groupes de lignes de base de la version 7.0 Update 2 ou 7.0 Update 2a vers la version 7.0 Update 3 échoue. Dans la plupart des cas, le pilote i40enu est mis à niveau vers ESXi 7.0 Update 3 sans aucune étape supplémentaire. Cependant, si la mise à niveau du pilote échoue, vous ne pouvez pas mettre à jour les hôtes ESXi que vous gérez avec des lignes de base et des groupes de lignes de base. Vous ne pouvez pas non plus utiliser l'amorçage de l'hôte ou une image unique de vSphere Lifecycle Manager pour gérer les hôtes ESXi. Si vous avez déjà apporté des modifications liées au pilote et aux périphériques i40enu dans votre système, avant de procéder à la mise à niveau vers ESXi 7.0 Update 3, vous devez désinstaller le VIB ou le composant i40enu sur ESXi, ou d'abord mettre à niveau ESXi vers ESXi 7.0 Update 2c.
Solution : pour plus d'informations, reportez-vous à l'article 85982 de la base de connaissances VMware.
- L'accès SSH échoue après la mise à niveau vers ESXi 7.0 Update 3d
Après la mise à niveau vers ESXi 7.0 Update 3d, l'accès SSH peut échouer dans certaines conditions en raison d'une mise à jour d'OpenSSH vers la version 8.8.
Solution : pour plus d'informations, reportez-vous à l'article 88055 de la base de connaissances VMware.
- Le relais de périphérique USB depuis des hôtes ESXi vers des machines virtuelles peut échouer
Un périphérique de modem USB peut réclamer simultanément plusieurs interfaces par VMkernel et bloquer le relais de périphérique vers des machines virtuelles.
Solution : vous devez appliquer la configuration avancée USB.quirks sur l'hôte ESXi pour ignorer l'interface NET de VMkernel et autoriser le modem USB à passer le relais vers les machines virtuelles. Vous pouvez appliquer la configuration de 3 manières différentes :
- Accédez à ESXi Shell et exécutez la commande suivante :
esxcli system settings advanced set -o /USB/quirks -s
0xvvvv:0xpppp:0:0xffff:UQ_NET_IGNORE | |- Device Product ID |------- Device Vendor ID
Par exemple, pour Gemalto M2M GmbH Zoom 4625 Modem(vid:pid/1e2d:005b
), vous pouvez avoir la commande :
esxcli system settings advanced set
-o /USB/quirks -s 0x1e2d:0x005b:0:0xffff:UQ_NET_IGNORE
Redémarrez l'hôte ESXi.
- Définissez la configuration avancée à partir de vSphere Client ou de vSphere Web Client et redémarrez l'hôte ESXi.
- Utilisez un profil d'hôte pour appliquer la configuration avancée.
Pour plus d'informations, reportez-vous à l'article 80416 de la base de connaissances VMware.
- Les requêtes HTTP de certaines bibliothèques vers vSphere peuvent être rejetées.
Le proxy inverse HTTP dans vSphere 7.0 applique une conformité standard plus stricte que dans les versions précédentes. Cela peut exposer des problèmes préexistants dans certaines bibliothèques tierces utilisées par les applications pour les appels SOAP à vSphere.
Si vous développez des applications vSphere qui utilisent de telles bibliothèques ou si vous incluez des applications basées sur ces bibliothèques dans votre pile vSphere, vous pouvez rencontrer des problèmes de connexion lorsque ces bibliothèques envoient des requêtes HTTP à VMOMI. Par exemple, les requêtes HTTP émises à partir de bibliothèques vijava peuvent prendre le format suivant :
POST /sdk HTTP/1.1
SOAPAction
Content-Type: text/xml; charset=utf-8
User-Agent: Java/1.8.0_221
Dans cet exemple, la syntaxe enfreint une exigence de champ d'en-tête de protocole HTTP qui impose deux-points après SOAPAction. Par conséquent, la requête est rejetée dans Flight.
Solution : les développeurs qui exploitent des bibliothèques non conformes dans leurs applications peuvent envisager d'utiliser une bibliothèque qui suit les normes HTTP à la place. Par exemple, les développeurs qui utilisent la bibliothèque vijava peuvent envisager à la place d'utiliser la dernière version de la bibliothèque yavijava.
- Vous pouvez voir un fichier de vidage lorsque vous utilisez les pilotes Broadcom lsi_msgpt3, lsi_msgpt35 et lsi_mr3
Lors de l'utilisation des contrôleurs lsi_msgpt3, lsi_msgpt35 et lsi_mr3, vous risquez d'obtenir le fichier de vidage lsuv2-lsi-drivers-plugin-util-zdump. Un problème se produit lors de la sortie de storelib utilisé dans cet utilitaire de plug-in. Il n'y a aucun impact sur les opérations ESXi et vous pouvez ignorer le fichier de vidage.
Solution : vous pouvez ignorer ce message. Vous pouvez supprimer lsuv2-lsi-drivers-plugin à l'aide de la commande suivante :
esxcli software vib remove -n lsuv2-lsiv2-drivers-plugin
- Le redémarrage n'est peut-être pas nécessaire après la configuration de SR-IOV sur un périphérique PCI dans vCenter, mais les configurations de périphérique effectuées par des extensions tierces peuvent être perdues et le redémarrage doit être effectué.
Dans ESXi 7.0, la configuration de SR-IOV est appliquée sans redémarrage et le pilote de périphérique est rechargé. Les hôtes ESXi peuvent avoir des extensions tierces exécutant des configurations de périphérique qui doivent être exécutées après le chargement du pilote de périphérique pendant le démarrage. Un redémarrage est nécessaire pour ces extensions tierces afin de réappliquer la configuration du périphérique.
Solution : vous devez redémarrer après la configuration de SR-IOV pour appliquer les configurations de périphérique tierces.