This site will be decommissioned on December 31st 2024. After that date content will be available at techdocs.broadcom.com.

Mises à jour le : 05 août 2020

ESXi 7.0 | 2 avril 2020 | ISO Build 15843807

vCenter Server 7.0 | 2 avril 2020 | Build ISO 15952498

Vérifiez les compléments et les mises à jour pour ces notes de mise à jour.

Contenu des notes de mise à jour

Les notes de mise à jour couvrent les sujets suivants :

Nouveautés

Cette version de VMware vSphere 7.0 inclut VMware ESXi 7.0 et VMware vCenter Server 7.0. Reportez-vous à Nouveautés de vSphere 7.0 pour découvrir les nouvelles fonctionnalités et améliorations de cette version.

Internationalisation

vSphere 7.0 est disponible dans les langues suivantes :

  • Anglais
  • Français
  • Allemand
  • Espagnol
  • Japonais
  • Coréen
  • Chinois simplifié
  • Chinois traditionnel

Les composants de vSphere 7.0, notamment vCenter Server, ESXi, vSphere Client et vSphere Host Client n'acceptent pas l'entrée de caractères non ASCII.

Compatibilité

Compatibilité des versions d'ESXi et vCenter Server

La Matrice d'interopérabilité des produits VMware fournit des détails sur la compatibilité des versions en cours et précédentes des composants VMware vSphere, y compris ESXi, VMware vCenter Server et les produits VMware facultatifs. Pour plus d'informations sur les agents de gestion et de sauvegarde pris en charge, consultez également la Matrice d'interopérabilité des produits VMware avant d'installer ESXi ou vCenter Server.

vSphere Lifecycle Manager et vSphere Client sont fournis avec vCenter Server.

Compatibilité matérielle pour ESXi

Pour afficher la liste des processeurs, périphériques de stockage, baies SAN et périphériques d'E/S compatibles avec vSphere 7.0, consultez les informations relatives à ESXi 7.0 dans le Guide de compatibilité VMware.

Compatibilité des périphériques pour ESXi

Pour déterminer les périphériques compatibles avec ESXi 7.0, consultez les informations relatives à ESXi 7.0 dans le Guide de compatibilité VMware.

Compatibilité des systèmes d'exploitation invités pour ESXi

Pour déterminer les systèmes d'exploitation invités compatibles avec vSphere 7.0, consultez les informations sur ESXi 7.0 dans le Guide de compatibilité VMware.

Compatibilité des machines virtuelles pour ESXi

Les machines virtuelles compatibles avec ESX 3.x et versions ultérieures (version matérielle 4) sont prises en charge par ESXi 7.0. Les machines virtuelles compatibles avec ESX 2.x et versions ultérieures (version 3 du matériel) ne sont pas prises en charge. Pour utiliser ces machines virtuelles sur ESXi 7.0, effectuez une mise à niveau de la compatibilité de la machine virtuelle. Reportez-vous à la documentation Mise à niveau d'ESXi.

Avant de commencer

vSphere 7.0 nécessite une licence CPU pour un maximum de 32 cœurs physiques. Si un CPU dispose de plus de 32 cœurs, des licences CPU supplémentaires sont requises comme annoncées dans « Mise à jour du modèle de tarification par CPU de VMware ». Avant de mettre à niveau les hôtes ESXi, vous pouvez déterminer le nombre de licences requises à l'aide de l'outil de comptage des licences décrit dans « Comptage des licences CPU nécessaires conformément à la nouvelle stratégie de gestion des licences VMware ».

Installation et mises à niveau de cette version

Notes d'installation de cette version

Consultez les documentations Installation et configuration d'ESXi et Installation et configuration de vCenter Server pour obtenir des instructions sur l'installation et la configuration d'ESXi et de vCenter Server.

Bien que les installations soient simples, plusieurs étapes de configuration ultérieures sont indispensables. Lisez la documentation suivante :

L'outil Configurations maximales de VMware vous aide à planifier vos déploiements de vSphere. Cet outil permet d'afficher les limites pour les machines virtuelles, les instances ESXi, vCenter Server, vSAN, la mise en réseau, etc. Vous pouvez également comparer les limites pour deux versions de produit ou plus. L'outil Configurations maximales VMware s'affiche de manière optimale sur des périphériques grand format tels que les ordinateurs portables et de bureau.

Modifications du regroupement de VMware Tools dans ESXi 7.0

Dans ESXi 7.0, un sous-ensemble d'images ISO de VMware Tools 11.0.5 et VMware Tools 10.3.21 est intégré à l'hôte ESXi 7.0.

L'image ISO de VMware Tools 11.0.5 suivante est intégrée à ESXi :

  • windows.iso : Image de VMware Tools pour Windows Vista ou version ultérieure

L'image ISO de VMware Tools 10.3.21 suivante est intégrée à ESXi :

  • linux.iso : Image de VMware Tools pour le système d'exploitation Linux avec glibc version 2.5 ou version ultérieure

Les images ISO de VMware Tools 11.0.5 suivantes sont disponibles au téléchargement :

  • darwin.iso : Image de VMware Tools pour OSX

Pour télécharger VMware Tools pour les systèmes d'exploitation non intégrés à ESXi, suivez les procédures décrites dans les documents suivants :

Migration de solutions tierces

Pour plus d'informations sur la mise à niveau avec des personnalisations tierces, reportez-vous à la documentation Mise à niveau d'ESXi. Pour plus d'informations sur l'utilisation d'Image Builder pour créer un fichier ISO personnalisé, reportez-vous à la documentation Installation et configuration d'ESXi.

Mises à niveau et installations non autorisées pour les CPU non pris en charge

Comparé à vSphere 6.7, vSphere 7.0 ne prend plus en charge les processeurs suivants :

  • Famille Intel 6, modèle = 2C (Westmere-EP)
  • Famille Intel 6, modèle = 2F (Westmere-EX)

Pendant une installation ou une mise à niveau, le programme d'installation vérifie la compatibilité du CPU hôte avec vSphere 7.0. Si le matériel de votre hôte n'est pas compatible, un écran violet apparaît et affiche un message d'information pour signaler une incompatibilité, et le processus d'installation de vSphere 7.0 s'interrompt.

Les CPU suivants sont pris en charge dans la version vSphere 7.0, mais ils peuvent ne pas être pris en charge dans les prochaines versions de vSphere. Prévoyez en conséquence :

  • Famille Intel 6, modèle = 2A (Sandy Bridge DT/EN, GA 2011)
  • Famille Intel 6, modèle = 2D (Sandy Bridge EP, GA 2012)
  • Famille Intel 6, modèle = 3A (Ivy Bridge DT/EN, GA 2012)
  • Famille AMD 0x15, modèle = 01 (Bulldozer, GA 2012)

Notes de mise à niveau de cette version

Pour obtenir des instructions sur la mise à niveau des hôtes ESXi et de vCenter Server, reportez-vous aux documentations Mise à niveau d'ESXi et Mise à niveau de vCenter Server.

Composants open source pour vSphere 7.0

Les déclarations de copyright et les licences applicables aux composants logiciels open source distribués dans vSphere 7.0 sont disponibles sur http://www.vmware.com. Vous devez vous connecter à votre compte My VMware. Puis, dans le menu Téléchargements, sélectionnez vSphere. Dans l'onglet Open Source, vous pouvez également télécharger les fichiers sources pour une licence GPL, LGPL ou d'autres licences semblables pour lesquelles le code source ou les modifications du code source doivent être accessibles pour la dernière version disponible de vSphere.

Remarques relatives à la prise en charge du produit

  • VMware vSphere Client

    Dans vSphere 7.0, vous pouvez tirer parti des fonctionnalités disponibles dans vSphere Client (HTML5). Le dispositif vSphere Web Client Flash est obsolète et n'est plus disponible. Pour plus d'informations, reportez-vous à la section Adieu, vSphere Web Client.

    VMware Host Client est une application basée sur le Web que vous pouvez utiliser pour gérer des hôtes ESXi individuels qui ne sont pas connectés à un système vCenter Server.

  • VMware vSphere 7.0 et protocole TLS

    Dans vSphere 7.0, TLS 1.2 est activé par défaut. TLS 1.0 et TLS 1.1 sont désactivés par défaut. Si vous mettez à niveau vCenter Server vers la version 7.0, et que l'instance de vCenter Server se connecte aux hôtes ESXi, à d'autres instances de vCenter Server ou à d'autres services, vous pouvez rencontrer des problèmes de communication.

    Pour résoudre ces problèmes, vous pouvez utiliser l'utilitaire du programme de configuration de TLS pour activer temporairement d'anciennes versions du protocole sur les systèmes 7.0. Vous pouvez ensuite désactiver les anciennes versions moins sécurisées, une fois que toutes les connexions utilisent TLS 1.2. Pour plus d'informations, reportez-vous à la section Gestion de la configuration du protocole TLS avec l'utilitaire de configuration de TLS.

  • Suppression d'une instance externe de Platform Services Controller

    Dans vSphere 7.0, le déploiement ou la mise à niveau de vCenter Server dans vSphere 7.0 nécessite l'utilisation de vCenter Server Appliance, une machine virtuelle Linux préconfigurée optimisée pour l'exécution de vCenter Server. La nouvelle instance de vCenter Server contient tous les services Platform Services Controller (PSC), en préservant les fonctionnalités et les workflows, notamment l'authentification, la gestion des certificats et la gestion des licences. Il n'est plus nécessaire ni possible de déployer et d'utiliser une instance externe de Platform Services Controller. Tous les services de PSC ont été consolidés dans vCenter Server, et le déploiement et l'administration ont été simplifiés.

  • Suppression de la prise en charge de vCenter Server pour Windows

    Dans vSphere 7.0, vCenter Server pour Windows a été supprimé et la prise en charge n'est pas disponible. Pour plus d'informations, reportez-vous à la section Adieu, vCenter Server pour Windows.

  • Suppression du serveur VNC d'ESXi

    Dans vSphere 7.0, le serveur VNC intégré à ESXi a été supprimé. Les utilisateurs ne pourront plus se connecter à une machine virtuelle à l'aide d'un client VNC en définissant le paramètre RemoteDisplay.vnc.enable sur true. Au lieu de cela, les utilisateurs doivent utiliser la console de machine virtuelle via vSphere Client, ESXi Host Client ou VMware Remote Console pour connecter des machines virtuelles. Les clients désireux d'accéder à une machine virtuelle à l'aide de VNC doivent utiliser l'API VirtualMachine.AcquireTicket (« webmks »), qui offre une connexion au serveur VNC via WebSocket. Le ticket webmks offre un accès authentifié à la console de machine virtuelle. Pour plus d'informations, reportez-vous à la documentation de VMware HTML Console SDK.

  • Dépréciation de VMKLinux

    Dans vSphere 7.0, la compatibilité des pilotes VMKLinux est désormais obsolète et supprimée. vSphere 7.0 ne prendra plus en charge les API VMKLinux et les pilotes VMKLinux associés. L'image ISO personnalisée ne pourra pas avoir de pilotes asynchrones VMKLinux. Tous les pilotes contenus dans un fichier ISO doivent être des pilotes natifs. Tous les périphériques actuellement pris en charge qui ne sont pas pris en charge par les pilotes natifs ne fonctionneront pas et ne seront pas reconnus lors de l'installation ou de la mise à niveau. VCG n'affichera pas les périphériques non pris en charge par un pilote natif comme pris en charge dans vSphere 7.0.

  • Dépréciation de la prise en charge des userworld 32 bits

    Dans vSphere 7.0, la prise en charge des userworld 32 bits est désormais désapprouvée. Les userworlds sont les composants d'ESXi utilisés par des partenaires pour fournir des pilotes, des plug-ins et d'autres extensions système (distribué en tant que VIB). Les userworlds ne sont pas accessibles par le client.

    vSphere 7.0 fournit une prise en charge des userworld 64 bits via les devkits partenaires et conserve la prise en charge des userworlds 32 bits avec cette version majeure. La prise en charge des userworlds 32 bits sera supprimée de façon permanente dans la prochaine version majeure d'ESXi. Pour éviter toute perte de fonctionnalité, les clients doivent s'assurer que tous les VIB fournis par le fournisseur sont migrés vers 64 bits avant la mise à niveau au-delà de la version de vSphere 7.0.

  • Dépréciation du plug-in Update Manager

    Dans vSphere 7.0, le plug-in Update Manager utilisé pour l'administration de vSphere Update Manager a été remplacé par le plug-in Lifecycle Manager. Les opérations administratives pour vSphere Update Manager sont toujours disponibles avec le plug-in Lifecycle Manager, ainsi que les nouvelles fonctionnalités de vSphere Lifecycle Manager.

  • Dépréciation de l'authentification Windows intégrée

    L'authentification Windows intégrée (IWA) est obsolète dans vSphere 7.0 et sera supprimée dans une version ultérieure. Pour plus d'informations, reportez-vous à l'article 78506 de la base de connaissances VMware.

  • Dépréciation de l'authentification par carte à puce DCUI

    Dans une version ultérieure de vSphere, la prise en charge de l'authentification par carte à puce dans DCUI sera interrompue. Au lieu d'accéder à DCUI à l'aide de la vérification de l'identité personnelle (PIV), de la carte à puce d'accès commun (CAC) ou de la carte à puce SC650, les utilisateurs sont invités à effectuer les opérations via vCenter, PowerCLI, des appels d'API ou en se connectant avec un nom d'utilisateur et un mot de passe.

  • Dépréciation du profil de partition principal dans les profils d'hôte

    Dans vSphere 7.0, la prise en charge des partitions coredump dans les profils d'hôte est désormais obsolète. À la place des partitions coredump, les utilisateurs doivent passer aux fichiers coredump.

  • Compléments fournisseur dans MyVMware pour une utilisation avec vSphere Lifecycle Manager

    Dans vSphere 7.0, les compléments fournisseur sont accessibles via vSphere Lifecycle Manager dans l'instance de vCenter Server si celle-ci a été configurée pour utiliser un proxy ou Update Manager Download Service. Pour accéder aux modules complémentaires de MyVMware, accédez à l'onglet ISO personnalisées et modules complémentaires. Sous CD et modules complémentaires des programmes d'installation personnalisés OEM, vous pouvez trouver les modules complémentaires personnalisés de chacun des fournisseurs. Pour plus d'informations sur vSphere Lifecycle Manager et les compléments fournisseur, consultez la documentation Gestion du cycle de vie de l'hôte et du cluster.

Problèmes connus

Les problèmes connus sont classés comme suit :

Problèmes d'installation, de mise à niveau et de migration
  • NOUVEAU : les noms des périphériques vmnic et vmhba changent après une mise à niveau vers ESXi 7.0

    Sur certaines plates-formes matérielles, les noms de périphériques vmnic et vmhba (alias) peuvent changer lors d'une mise à niveau vers ESXi 7.0 à partir d'une version ESXi antérieure. Cela se produit sur les systèmes dont le microprogramme fournit une méthode ACPI _SUN qui renvoie un numéro d'emplacement physique de 0 pour les terminaux qui ne se trouvent pas dans un emplacement enfichable. 

    Solution : Vous pouvez renommer des terminaux en suivant les instructions de l'article 2091560 de la base de connaissances VMware.

  • Les vérifications préalables de la mise à niveau ou de la migration vCenter échouent avec « erreur inattendue 87 ».

    Les vérifications préalables de la mise à niveau ou de la migration de vCenter Server échouent lorsque le certificat du service de jetons de sécurité (STS) ne contient pas de champ Nom alternatif du sujet (SAN). Cette situation se produit lorsque vous avez remplacé le certificat vCenter 5.5 Single Sign-On par un certificat personnalisé sans champ SAN et que vous tentez d'effectuer la mise à niveau vers vCenter Server 7.0. La mise à niveau considère que le certificat STS n'est pas valide et les vérifications préalables empêchent le processus de mise à niveau de se poursuivre.

    Solution : remplacez le certificat STS par un certificat valide qui contient un champ SAN, puis procédez à la mise à niveau ou à la migration de vCenter Server 7.0.

  • Problèmes de mise à niveau vers vSphere 7.0 avec des fournisseurs CIM préexistants.

    Après la mise à niveau, les fournisseurs CIM 32 bits précédemment installés cessent de fonctionner, car ESXi requiert des fournisseurs CIM 64 bits. Les clients peuvent perdre des fonctions d'API de gestion liées à CIMPDK, NDDK (DDK natif), HEXDK, VAIODK (filtres d'E/S) et des erreurs liées à la dépendance uwglibc peuvent s'afficher.
    Le Syslog indique qu'un module est manquant, « bibliothèques 32 bits partagées non chargées ».

    Solution : il n'existe pas de solution. Le correctif consiste à télécharger les nouveaux fournisseurs CIM 64 bits à partir de votre fournisseur.

  • L'authentification par carte à puce et RSA SecurID peut cesser de fonctionner après la mise à niveau vers vCenter Server 7.0.

    Si vous avez configuré vCenter Server pour l'authentification par carte à puce ou RSA SecurID, consultez l'article de la base de connaissances VMware sur https://kb.vmware.com/s/article/78057 avant de démarrer le processus de mise à niveau de vSphere 7.0. Si vous n'appliquez pas la solution comme décrit dans la base de connaissances, vous pouvez voir les messages d'erreur suivants et l'authentification par carte à puce ou RSA SecurID ne fonctionne pas.

    « L'authentification par carte à puce peut cesser de fonctionner. Les paramètres de carte à puce ne sont peut-être pas conservés et l'authentification par carte à puce peut cesser de fonctionner. »

    ou

    « L'authentification RSA SecurID peut cesser de fonctionner. Les paramètres RSA SecurID ne sont peut-être pas conservés et l'authentification RSA SecurID peut cesser de fonctionner. »

    Solution : avant de procéder à la mise à niveau vers vSphere 7.0, reportez-vous à l'article de la base de connaissances VMware sur https://kb.vmware.com/s/article/78057.

  • La mise à niveau de vCenter Server avec une instance externe de Platform Services Controller de la version 6.7u3 vers la version 7.0 échoue avec une erreur VMAFD.

    Lorsque vous mettez à niveau un déploiement de vCenter Server à l'aide d'une instance externe de Platform Services Controller, vous convergez Platform Services Controller vers vCenter Server Appliance. Si la mise à niveau échoue avec l'erreur install.vmafd.vmdir_vdcpromo_error_21, le processus de premier amorçage de VMAFD a échoué. Le processus de premier amorçage de VMAFD copie la base de données du service d'annuaire VMware (data.mdb) à partir de l'instance source de Platform Services Controller et du partenaire de réplication vCenter Server Appliance.

    Solution : désactivez TSO (déchargement de segmentation TCP) et GSO (déchargement de segmentation générique) sur l'adaptateur Ethernet de l'instance source de Platform Services Controller ou de l'instance de vCenter Server Appliance du partenaire de réplication avant de mettre à niveau vCenter Server avec une instance externe de Platform Services Controller. Reportez-vous à l'article de la base de connaissances : https://kb.vmware.com/s/article/74678

  • La mise à niveau de vCenter Server à l'aide de l'interface de ligne de commande conserve de manière incorrecte la configuration Transport Security Layer (TLS) pour le service vSphere Authentication Proxy.

    Si le service vSphere Authentication Proxy (vmcam) est configuré pour utiliser un protocole TLS particulier autre que le protocole TLS 1.2 par défaut, cette configuration est conservée pendant le processus de mise à niveau de l'interface de ligne de commande. Par défaut, vSphere prend en charge le protocole de chiffrement TLS 1.2. Si vous devez utiliser les protocoles TLS 1.0 et TLS 1.1 pour prendre en charge des produits ou des services qui ne prennent pas en charge TLS 1.2, utilisez l'utilitaire TLS Configurator pour activer ou désactiver les différentes versions du protocole TLS.

    Solution : utilisez l'utilitaire TLS Configurator pour configurer le port vmcam. Pour savoir comment gérer la configuration du protocole TLS et utiliser l'utilitaire TLS Configurator la documentation Sécurité VMware.

  • Les paramètres de carte à puce et de RSA SecurID peuvent ne pas être conservés lors de la mise à niveau de vCenter Server.

    L'authentification à l'aide de RSA SecurID ne fonctionnera pas après la mise à niveau vers vCenter Server 7.0. Un message d'erreur vous avertit de ce problème lors de la tentative de connexion à l'aide de votre identifiant RSA SecurID.

    Solution : reconfigurez la carte à puce ou RSA SecureID.

  • La migration de vCenter Server pour Windows vers vCenter Server Appliance 7.0 échoue avec un message d'erreur réseau.

    La migration de vCenter Server pour Windows vers vCenter Server Appliance 7.0 échoue avec le message d'erreur L'adresse IP existe déjà dans le réseau. Cela empêche le processus de migration de configurer les paramètres réseau sur le nouveau dispositif vCenter Server Appliance. Pour plus d'informations, consultez le fichier journal : /var/log/vmware/upgrade/UpgradeRunner.log

    Solution :

    1. vérifiez que toutes les mises à jour Windows ont été effectuées sur le dispositif vCenter Server source pour l'instance de Windows, ou désactivez les mises à jour Windows automatiques jusqu'à la fin de la migration.
    2. Réexécutez la migration de vCenter Server pour Windows vers vCenter Server Appliance 7.0.

     

  • Lorsque vous configurez le nombre de fonctions virtuelles pour un périphérique SR-IOV à l'aide du paramètre de module max_vfs, les modifications peuvent ne pas prendre effet.

    Dans vSphere 7.0, vous pouvez configurer le nombre de fonctions virtuelles pour un périphérique SR-IOV à l'aide de l'API de gestion de l'infrastructure virtuelle (VIM), par exemple via vSphere Client. La tâche ne nécessite pas le redémarrage de l'hôte ESXi. Une fois que vous avez utilisé la configuration de l'API VIM, si vous tentez de configurer le nombre de fonctions virtuelles SR-IOV à l'aide du paramètre du module max_vfs, les modifications peuvent ne pas prendre effet, car elles sont remplacées par la configuration de l'API VIM.

    Solution : aucune. Pour configurer le nombre de fonctions virtuelles pour un périphérique SR-IOV, utilisez la même méthode à chaque fois. Utilisez l'API VIM ou utilisez le paramètre du module max_vfs et redémarrez l'hôte ESXi.

  • L'instance de vCenter Server Appliance mise à niveau ne conserve pas tous les réseaux secondaires (cartes réseau virtuelles) de l'instance source.

    Lors d'une mise à niveau majeure, si l'instance source du dispositif vCenter Server Appliance est configurée avec plusieurs réseaux secondaires autres que les cartes réseau virtuelles VCHA, l'instance de vCenter Server cible ne conserve pas les cartes réseau virtuelles autres que la carte réseau VCHA. Si l'instance source est configurée avec plusieurs cartes réseau virtuelles faisant partie des groupes de ports DVS, la configuration de la carte réseau virtuelle ne sera pas conservée pendant la mise à niveau. Les configurations des instances de vCenter Server Appliance qui font partie du groupe de ports standard seront conservées.

    Solution : aucune. Configurez manuellement le réseau secondaire dans l'instance cible de vCenter Server Appliance.

  • Après la mise à niveau ou la migration d'un dispositif vCenter Server avec une instance externe de Platform Services Controller, les utilisateurs qui s'authentifient à l'aide d'Active Directory perdent l'accès à l'instance de vCenter Server récemment mise à niveau.

    Après la mise à niveau ou la migration d'un dispositif vCenter Server avec une instance externe de Platform Services Controller, si le dispositif vCenter Server récemment mis à niveau n'est pas joint à un domaine Active Directory, les utilisateurs qui s'authentifient à l'aide d'Active Directory perdent l'accès à l'instance de vCenter Server.

    Solution : vérifiez que la nouvelle instance de vCenter Server a été jointe à un domaine Active Directory. Reportez-vous à l'article de la base de connaissances : https://kb.vmware.com/s/article/2118543

  • La migration d'une instance de vCenter Server pour Windows avec une instance externe de Platform Services Controller à l'aide d'une base de données Oracle échoue.

    S'il y a des chaînes non-ASCII dans le tableau des événements et tâches Oracle, la migration peut échouer lors de l'exportation des données d'événements et de tâches. Le message d'erreur suivant s'affiche : UnicodeDecodeError

    Solution : aucune.

  • Après une mise à niveau de l'hôte ESXi, une vérification de conformité du profil d'hôte indique un état non conforme lorsque les tâches de correction de l'hôte échouent

    Un état non conforme indique une incohérence entre le profil et l'hôte.

    Cette incohérence peut se produire, car ESXi 7.0 n'autorise pas les règles de réclamation en double, mais le profil que vous utilisez contient des règles en double. Par exemple, si vous tentez d'utiliser le profil d'hôte que vous avez extrait de l'hôte avant la mise à niveau d'ESXi 6.5 ou d'ESXi 6.7 vers la version 7.0, et que le profil d'hôte contient des règles de réclamation en double de règles système par défaut, vous pouvez rencontrer des problèmes.

    Solution :

    1. Supprimez les règles de réclamation en double des règles système par défaut dans le document Profil d'hôte.
    2. Vérifiez l'état de conformité.
    3. Corrigez l'hôte.
    4. Si les étapes précédentes ne vous aident pas, redémarrez l'hôte.

     

  • Un message d'erreur s'affiche dans l'interface de gestion de vCenter Server

    Après l'installation ou la mise à niveau vers vCenter Server 7.0, lorsque vous accédez au panneau Mettre à jour dans l'interface de gestion de vCenter Server, le message d'erreur « Vérifiez l'URL et réessayez » s'affiche. Ce message d'erreur ne vous empêche pas d'utiliser les fonctions du panneau Mettre à jour et vous pouvez afficher, transférer et installer les mises à jour disponibles.

    Solution : aucune.

Problèmes liés aux fonctionnalités de sécurité
  • La machine virtuelle chiffrée ne parvient pas à se mettre sous tension lorsque le cluster approuvé HA contient un hôte non attesté.

    Dans VMware® vSphere Trust Authority™, si vous avez activé HA sur le cluster approuvé et qu'un ou plusieurs hôtes du cluster ont échoué à l'attestation, une machine virtuelle chiffrée ne peut pas être mise sous tension.

    Solution : supprimez ou corrigez tous les hôtes ayant échoué à l'attestation du cluster approuvé.

  • La mise sous tension de la machine virtuelle chiffrée échoue lorsque le cluster approuvé sur lequel DRS est activé contient un hôte non attesté.

    Dans VMware® vSphere Trust Authority™, si vous avez activé DRS sur le cluster approuvé et qu'un ou plusieurs hôtes du cluster échouent à l'attestation, DRS peut essayer de mettre sous tension une machine virtuelle chiffrée sur un hôte non attesté du cluster. Cette opération met la machine virtuelle dans un état verrouillé.

    Solution : supprimez ou corrigez tous les hôtes ayant échoué à l'attestation du cluster approuvé.

  • La migration ou le clonage de machines virtuelles chiffrées sur des instances de vCenter Server échoue lorsque vous tentez de le faire à l'aide de vSphere Client.

    Si vous essayez de migrer ou de cloner une machine virtuelle chiffrée sur des instances de vCenter Server à l'aide de vSphere Client, l'opération échoue avec le message d'erreur suivant : « L'opération n'est pas autorisée dans l'état actuel. »

    Solution : vous devez utiliser les API vSphere pour migrer ou cloner des machines virtuelles chiffrées sur des instances de vCenter Server.

Problèmes de mise en réseau
  • Débit réduit dans les performances de mise en réseau sur les cartes réseau virtuelles Intel 82599/X540/X550.

    La nouvelle fonctionnalité de mise en file d'attente de la paire ajoutée au pilote ixgben pour améliorer les performances de mise en réseau sur les cartes réseau virtuelles Intel 82599EB/X540/X550 peut réduire le débit sous certaines charges de travail dans vSphere 7.0 par rapport à vSphere 6.7.

    Solution : pour obtenir les mêmes performances de mise en réseau que vSphere 6.7, vous pouvez désactiver la mise en file d'attente de la paire avec un paramètre du module. Pour désactiver la mise en file d'attente de la paire, exécutez la commande suivante :

    # esxcli system module parameters set -p "QPair=0,0,0,0..." -m ixgben

    Une fois la commande exécutée, procédez au redémarrage.

  • Les machines virtuelles à débit élevé peuvent subir une dégradation des performances réseau lorsque Network I/O Control (NetIOC) est activé.

    Les machines virtuelles qui nécessitent un débit réseau élevé peuvent subir une dégradation du débit lors de la mise à niveau de vSphere 6.7 vers vSphere 7.0 avec NetIOC activé.

    Solution : ajustez le paramètre ethernetx.ctxPerDev pour activer plusieurs mondes.

  • Le trafic IPv6 ne parvient pas à traverser les ports VMkernel à l'aide d'IPsec.

    Lorsque vous migrez des ports VMkernel d'un groupe de ports vers un autre, le trafic IPv6 ne traverse pas les ports VMkernel à l'aide d'IPsec.

    Solution : supprimez l'Association de sécurité IPsec du serveur concerné, puis réappliquez l'association de sécurité. Pour en savoir plus sur la définition et la suppression d'une association de sécurité IPsec, reportez-vous à la documentation Sécurité vSphere.

  • Les performances du réseau ESX avec une partie d'utilisation du CPU augmentent.

    Les performances du réseau ESX peuvent augmenter avec une partie d'utilisation du CPU.

    Solution : supprimez et ajoutez l'interface réseau avec uniquement 1 file d'attente répartie pour rx. Par exemple :

    esxcli network ip interface remove --interface-name=vmk1

    esxcli network ip interface add --interface-name=vmk1 --num-rxqueue=1

  • La machine virtuelle peut perdre le trafic Ethernet après l'ajout à chaud, la suppression à chaud ou Storage vMotion

    Une machine virtuelle peut cesser de recevoir le trafic Ethernet après un ajout à chaud, une suppression à chaud ou Storage vMotion. Ce problème affecte les machines virtuelles pour lesquelles SR-IOV est activé sur la liaison montante de la vNIC. La carte réseau virtuelle PVRDMA présente ce problème lorsque la liaison montante du réseau virtuel est une carte réseau compatible avec la fonctionnalité RDMA de Mellanox et que les espaces de noms RDMA sont configurés.

    Solution : vous pouvez supprimer à chaud et ajouter à chaud les cartes réseau Ethernet affectées de la machine virtuelle pour restaurer le trafic. Sur les systèmes d'exploitation invités Linux, le redémarrage du réseau peut également résoudre le problème. Si ces solutions n'ont aucun effet, vous pouvez redémarrer la machine virtuelle pour restaurer la connectivité réseau.

  • La modification de l'adresse IP d'un dispositif VCSA déployé avec une adresse IP statique nécessite que vous ayez créé les enregistrements DNS à l'avance.

    Avec l'introduction du DDNS, la mise à jour de l'enregistrement DNS fonctionne uniquement pour les dispositifs VCSA déployés avec la mise en réseau DHCP configurée. Lors de la modification de l'adresse IP de vCenter Server via l'interface VAMI, l'erreur suivante s'affiche :

    L'adresse IP spécifiée ne résout pas le nom d'hôte spécifié.

    Solution : il existe deux solutions.

    1. Créez une entrée DNS supplémentaire avec le même nom de domaine complet et l'adresse IP souhaitée. Connectez-vous au interface VAMI et suivez les étapes pour modifier l'adresse IP.
    2. Connectez-vous au dispositif VCSA à l'aide de SSH. Exécutez le script suivant :

      ./opt/vmware/share/vami/vami_config_net

      Utilisez l'option 6 pour modifier l'adresse IP d'eth0. Une fois les modifications apportées, exécutez le script suivant :

      ./opt/likewise/bin/lw-update-dns

      Redémarrez tous les services sur le dispositif VCSA pour mettre à jour les informations IP sur le serveur DNS.

  • La suppression du groupe de ports virtuels distribués NSX (NSX DVPG) peut prendre plusieurs secondes après la suppression du commutateur logique correspondant dans NSX Manager.

    Au fur et à mesure que le nombre de commutateurs logiques augmente, la suppression du NSX DVPG dans vCenter Server peut prendre davantage de temps après la suppression du commutateur logique correspondant dans NSX Manager. Dans un environnement avec 12 000 commutateurs logiques, il faut environ 10 secondes pour qu'un NSX DVPG soit supprimé de vCenter Server.

    Solution : aucune.

  • Hostd manque de mémoire et échoue si de nombreux groupes de ports virtuels distribués NSX sont créés.

    Dans vSphere 7.0, les groupes de ports virtuels distribués NSX consomment des quantités de mémoire beaucoup plus grandes que les réseaux opaques. Pour cette raison, les groupes de ports virtuels distribués NSX ne peuvent pas prendre en charge la même échelle qu'un réseau opaque pour une même quantité de mémoire.

    Solution : pour prendre en charge l'utilisation de groupes de ports virtuels distribués NSX, augmentez la quantité de mémoire dans vos hôtes ESXi. Si vous vérifiez que votre système dispose de suffisamment de mémoire pour prendre en charge vos machines virtuelles, vous pouvez augmenter directement la mémoire de hostd à l'aide de la commande suivante.

    localcli --plugin-dir /usr/lib/vmware/esxcli/int/ sched group setmemconfig --group-path host/vim/vmvisor/hostd --units mb --min 2048 --max 2048

    Notez que cela entraînera l'utilisation par hostd de la mémoire normalement réservée aux machines virtuelles de votre environnement. Cela peut avoir pour effet de réduire le nombre de machines virtuelles que votre hôte ESXi peut prendre en charge.

  • DRS peut lancer vMotion de manière incorrecte si la réservation réseau est configurée sur une machine virtuelle

    Si la réservation réseau est configurée sur une machine virtuelle, il est prévu que DRS migre uniquement la machine virtuelle vers un hôte répondant aux exigences spécifiées. Dans un cluster incluant des nœuds de transport NSX, si certains des nœuds de transport rejoignent la zone de transport par NSX-T Virtual Distributed Switch (N-VDS) et d'autres par vSphere Distributed Switch (VDS) 7.0, DRS peut lancer vMotion de manière incorrecte. Vous pouvez rencontrer ce problème lorsque :

    • La machine virtuelle se connecte à un commutateur logique NSX configuré avec une réservation de réseau.
    • Certains nœuds de transport rejoignent la zone de transport à l'aide de N-VDS, d'autres par VDS 7.0 ou, les nœuds de transport rejoignent la zone de transport via différentes instances de VDS 7.0.

    Solution : faites en sorte que tous les nœuds de transport rejoignent la zone de transport par N-VDS ou la même instance de VDS 7.0.

  • Lors de l'ajout d'une NIC VMkernel (vmknic) à un groupe de ports NSX, vCenter Server signale l'erreur « La connexion de l'adaptateur VMKernel à un groupe de ports NSX sur un hôte sans état n'est pas une opération prise en charge. Utilisez le groupe de ports distribués à la place. »
    • Pour ESXi sans état sur DVS (Distributed Virtual Switch), la vmknic d'un groupe de ports NSX est bloquée. Vous devez plutôt utiliser un groupe de ports distribués.
    • Pour ESXi avec état sur DVS, vmknic sur le groupe de ports NSX est pris en charge, mais vSAN peut rencontrer un problème s'il utilise vmknic sur un groupe de ports NSX.

    Solution : utilisez un groupe de ports distribués sur le même DVS.

  • Échec potentiel de l'activation de SR-IOV à partir de vCenter pour QLogic 4x10GE QL41164HFCU CNA

    Si vous accédez à la boîte de dialogue Modifier les paramètres pour les adaptateurs réseau physiques et que vous tentez d'activer SR-IOV, l'opération peut échouer si vous utilisez QLogic 4x10GE QL41164HFCU CNA. La tentative d'activation de SR-IOV peut entraîner une panne réseau de l'hôte ESXi.

    Solution : utilisez la commande suivante sur l'hôte ESXi pour activer SR-IOV :

    esxcfg-module

  • Nouveau Échec de l'instance de vCenter Server si les hôtes d'un cluster utilisant Distributed Resource Scheduler (DRS) joignent la mise en réseau NSX-T via un commutateur virtuel distribué (VDS) différent ou une combinaison de commutateur virtuel distribué NSX-T (NVDS) et de VDS

    Dans vSphere 7.0, lorsque vous utilisez la mise en réseau NSX-T sur vSphere VDS avec un cluster DRS, si les hôtes ne joignent pas la zone de transport NSX via le même VDS ou NVDS, cela peut entraîner l'échec de l'instance de vCenter Server.

    Solution : les hôtes d'un cluster DRS doivent joindre la zone de transport NSX via le même VDS ou NVDS. 

Problèmes de stockage
  • Les banques de données VMFS ne sont pas montées automatiquement après la suppression à chaud du disque et l'insertion à chaud sur les serveurs HPE Gen10 avec des contrôleurs SmartPQI.

    Lorsque des disques SATA sur des serveurs HPE Gen10 avec des contrôleurs SmartPQI sans développeur sont supprimés à chaud et réinsérés à chaud dans une baie de disques différente de la même machine, ou lorsque plusieurs disques sont supprimés à chaud et réinsérés à chaud dans un ordre différent, il arrive parfois qu'un nouveau nom local soit attribué au disque. La banque de données VMFS sur ce disque apparaît sous la forme d'un snapshot et ne sera pas montée automatiquement, car le nom du périphérique a changé.

    Solution : aucune. Le contrôleur SmartPQI ne prend pas en charge les opérations de suppression à chaud et d'insertion à chaud non ordonnées.

  • La définition du pilote loglevel pour nvme_pcie échoue avec une erreur.

    Lorsque vous définissez le pilote loglevel pour nvme_pcie à l'aide de la commande esxcli nvme driver loglevel set -l <log level>, l'action échoue avec le message d'erreur suivant :

    Échec de la définition du niveau de journal 0x2.

    Cette commande était conservée pour des considérations de compatibilité avec le pilote NVMe, mais elle n'est pas prise en charge pour le pilote nvme_pcie.

    Solution : aucune. Cette condition existera lorsque la fonctionnalité nvme_pcie sera activée.

  • ESXi peut mettre fin aux E/S sur les périphériques NVMeOF en raison d'erreurs sur tous les chemins actifs.

    Parfois, tous les chemins actifs vers le périphérique NVMeOF enregistrent des erreurs d'E/S en raison de problèmes de liaison ou de l'état du contrôleur. Si l'état de l'un des chemins devient inactif, le plug-in haute performance peut ne pas sélectionner un autre chemin si celui-ci indique un volume d'erreurs élevé. Par conséquent, l'E/S échoue.

    Solution : désactivez l'option de configuration /Misc/HppManageDegradedPaths pour débloquer l'E/S.

  • La vérification VOMA sur les banques de données VMFS basées sur NVMe échoue avec une erreur.

    La vérification VOMA n'est pas prise en charge pour les banques de données VMFS basées sur NVMe et échoue avec l'erreur :

    ERROR: Échec de réservation du périphérique. Fonction non implémentée 

    Exemple :

    # voma -m vmfs -f check -d /vmfs/devices/disks/: <partition#>
    Exécution de VMFS Checker version 2.1 en mode de vérification
    Initialisation des métadonnées LVM, vérifications de base terminées
    
    Vérification de l'activité du système de fichiers
    Exécution du contrôle de réactivité du système de fichiers..|Analyse de l'activité de l'hôte VMFS-6 (4 096 octets/HB, 1 024 HB).
    ERROR: Échec de réservation du périphérique. Fonction non implémentée
    Abandon de la vérification du volume VMFS
    VOMA n'a pas pu vérifier le périphérique : Erreur générale

    Solution : aucune. Si vous devez analyser les métadonnées VMFS, collectez-les à l'aide de l'option -l et passez au support client VMware. La commande de collecte du vidage est la suivante :

    voma -l -f dump -d /vmfs/devices/disks/:<partition#> 
  • L'utilisation de l'API de reconfiguration de machine virtuelle pour attacher un disque de première classe chiffré à une machine virtuelle chiffrée peut échouer avec une erreur.

    Si un FCD et une machine virtuelle sont chiffrés avec des clés de chiffrement différentes, vos tentatives pour attacher le FCD chiffré à la machine virtuelle chiffrée à l'aide de l'API de reconfiguration de machine virtuelle peuvent échouer avec le message d'erreur suivant :

    Impossible de déchiffrer le disque, car la clé ou le mot de passe est incorrect.

    Solution : utilisez l'API attachDisk plutôt que l'API de reconfiguration de machine virtuelle pour attacher un FCD chiffré à une machine virtuelle chiffrée.

  • L'hôte ESXi peut ne pas répondre si une extension sans tête de sa banque de données VMFS fractionnée passe à l'état de perte permanente de périphérique (PDL).

    Ce problème ne se produit pas lorsqu'une extension hors tête de la banque de données VMFS fractionnée échoue avec l'extension de tête. Dans ce cas, l'intégralité de la banque de données devient inaccessible et n'autorise plus les E/S.

    En revanche, lorsque seule une extension sans tête échoue, mais que l'extension de tête reste accessible, le signal de pulsation de la banque de données semble être normal, et les E/S entre l'hôte et la banque de données continuent. Toutefois, toutes les E/S qui dépendent de l'extension hors tête ayant échoué commencent à échouer également. D'autres transactions d'E/S peuvent s'accumuler en attendant la résolution des E/S ayant échoué et entraîner l'absence de réponse de l'hôte.

    Solution : corrigez la condition PDL de l'extension hors tête pour résoudre ce problème.

  • Après une restauration suite à une condition APD ou PDL, la banque de données VMFS avec prise en charge activée de disques virtuels en cluster reste inaccessible

    Vous pouvez rencontrer ce problème uniquement sur les banques de données sur lesquelles la prise en charge des disques virtuels en cluster est activée. Lorsque la banque de données récupère suite à une condition Tous chemins hors service (All Path Down, APD) ou Perte permanente de périphérique (Permanent Device Loss, PDL), elle reste inaccessible. Le journal VMkernel peut afficher plusieurs messages de conflit de réservation SCSI3 similaires aux suivants :

    2020-02-18T07:41:10.273Z cpu22:1001391219)ScsiDeviceIO: vm 1001391219: SCSIDeviceCmdCompleteCB:2972: Reservation conflict retries 544 for command 0x45ba814b8340 (op: 0x89) to device "naa.624a9370b97601e346f64ba900024d53"

    Ce problème peut se produire, car l'hôte ESXi participant au cluster perd les réservations SCSI pour la banque de données et ne peut pas toujours les acquérir de nouveau automatiquement après la restauration de la banque de données.

    Solution : enregistrez manuellement la réservation à l'aide de la commande suivante :

    vmkfstools -L registerkey /vmfs/devices/disks/<device name>

    <device name> est le nom du périphérique sur lequel la banque de données est créée.

  • Le contrôleur NVMe virtuel est le contrôleur de disque par défaut pour les systèmes d'exploitation invités Windows 10.

    Le contrôleur NVMe virtuel est le contrôleur de disque par défaut pour les systèmes d'exploitation invités suivants lors de l'utilisation de la version matérielle 15 ou ultérieure :

    Windows 10
    Windows Server 2016
    Windows Server 2019

    Certaines fonctionnalités peuvent ne pas être disponibles lors de l'utilisation d'un contrôleur NVMe virtuel. Pour plus d'informations, reportez-vous à l'article https://kb.vmware.com/s/article/2147714

    Remarque : certains clients utilisent la valeur par défaut précédente de LSI Logic SAS. Cela concerne ESXi Host Client et PowerCLI.

    Solution : si vous avez besoin de fonctionnalités non disponibles sur le contrôleur NVMe virtuel, basculez vers VMware Paravirtual SCSI (PVSCSI) ou LSI Logic SAS. Pour plus d'informations sur l'utilisation de VMware Paravirtual SCSI (PVSCSI), reportez-vous à https://kb.vmware.com/s/article/1010398

  • Après la mise à niveau d'un hôte ESXi vers vSphere 7.0, la présence de règles de réclamation de base en double peut entraîner un comportement inattendu

    Les règles de réclamation déterminent quel plug-in de gestion multivoie, tel que NMP, HPP, etc., possède des chemins d'accès à un périphérique de stockage particulier. ESXi 7.0 ne prend pas en charge les règles de réclamation en double. Toutefois, l'hôte ESXi 7.0 ne vous alerte pas si vous ajoutez des règles en double aux règles de réclamation existantes héritées via une mise à niveau d'une version héritée. Du fait de l'utilisation de règles en double, les périphériques de stockage peuvent être réclamés par des plug-ins imprévus, ce qui peut entraîner un résultat inattendu.

    Solution : N'utilisez pas de règles de réclamation de base en double. Avant d'ajouter une nouvelle règle de réclamation, supprimez toute règle de réclamation correspondante existante.

  • Une requête CNS avec le filtre d'état de conformité défini peut prendre un temps anormalement long.

    L'API CNS QueryVolume vous permet d'obtenir des informations sur les volumes CNS, telles que l'état de conformité et de santé des volumes. Lorsque vous vérifiez l'état de conformité des volumes individuels, les résultats sont obtenus rapidement. Toutefois, lorsque vous appelez l'API CNS QueryVolume pour vérifier l'état de conformité de plusieurs volumes, plusieurs dizaines ou centaines, la requête peut s'exécuter lentement.

    Solution : évitez d'utiliser les requêtes par lot. Lorsque vous devez obtenir l'état de conformité, interrogez un volume à la fois ou limitez le nombre de volumes dans l'API à 20 requêtes ou moins. Lors de l'utilisation de la requête, évitez d'exécuter d'autres opérations CNS pour obtenir les meilleures performances.

  • Nouveau Des volumes CNS supprimés peuvent apparaître temporairement comme existants dans l'interface utilisateur du CNS

    Après la suppression d'un disque FCD qui sauvegarde un volume de stockage cloud natif, le volume peut toujours apparaître comme existant dans l'interface utilisateur du stockage cloud natif. Cependant, vos tentatives de suppression du volume échouent. Un message d'erreur similaire au message suivant peut s'afficher :
    L'objet ou l'élément indiqué est introuvable.

    Solution : La synchronisation complète suivante résoudra l'incohérence et mettra correctement à jour l'interface utilisateur du stockage cloud natif.

  • Nouveau Les tentatives d'attachement de plusieurs volumes CNS au même espace peuvent parfois échouer avec une erreur

    Lorsque vous attachez plusieurs volumes simultanément au même espace, l'opération d'attachement peut éventuellement choisir le même emplacement de contrôleur. Par conséquent, une seule des opérations réussit, alors que d'autres montages de volume échouent.

    Solution : Lorsque Kubernetes retente l'opération qui a échoué, celle-ci réussit si un emplacement de contrôleur est disponible sur la machine virtuelle de nœud.

  • Nouveau Dans certaines circonstances, lorsqu'une opération CNS échoue, l'état de la tâche s'affiche comme étant Réussie dans vSphere Client

    Cela peut se produire lorsque, par exemple, vous utilisez une stratégie de stockage incompatible pour créer un volume de stockage cloud natif. L'opération échoue, tandis que vSphere Client indique que l'état de la tâche est réussi.

    Solution : l'état de la tâche réussie dans vSphere Client ne garantit pas que l'opération du stockage cloud natif a réussi. Pour vous assurer que l'opération a réussi, vérifiez ses résultats.

  • Nouveau Une opération de suppression infructueuse pour un volume CNS persistant peut laisser ce volume non supprimé sur la banque de données vSphere

    Ce problème peut se produire lorsque l'API de suppression CNS tente de supprimer un volume persistant qui est toujours attaché à un espace. Par exemple, lorsque vous supprimez l'espace de noms Kubernetes dans lequel l'espace s'exécute. Par conséquent, le volume est effacé de CNS et l'opération de requête CNS ne renvoie pas le volume. Cependant, le volume continue de résider sur la banque de données et ne peut pas être supprimé par le biais d'opérations répétées d'API de suppression CNS.

    Solution : aucune.

Problèmes vCenter Server et vSphere Client
  • Les fournisseurs de distributeur se déconnectent après une modification de l'identifiant réseau principal.

    Lorsque vous modifiez l'adresse IP de vCenter (modification de l'identifiant réseau principal), les fournisseurs de distributeur enregistrés se déconnectent.

    Solution : réenregistrez les fournisseurs de distributeur.

  • La migration entre systèmes vCenter d'une machine virtuelle échoue avec une erreur.

    Lorsque vous utilisez des dispositifs vCenter vMotion croisés pour déplacer le stockage et l'hôte d'une machine virtuelle vers une autre instance de vCenter Server, vous pouvez recevoir l'erreur L'opération n'est pas autorisée dans l'état actuel. 

    Cette erreur apparaît dans l'assistant de l'interface utilisateur après l'étape de sélection de l'hôte et avant l'étape de sélection de la banque de données, dans les cas où la stratégie de stockage attribuée à la machine virtuelle contient des règles basées sur l'hôte, telles que le chiffrement ou toute autre règle de filtre d'E/S.

    Solution : attribuez la machine virtuelle et ses disques à une stratégie de stockage sans règles basées sur l'hôte. Vous devrez peut-être déchiffrer la machine virtuelle si la machine virtuelle source est chiffrée. Réexécutez ensuite l'action entre dispositifs vCenter vMotion.

  • Les informations sur les capteurs de stockage dans l'onglet santé du matériel affichent des valeurs incorrectes sur l'interface utilisateur de vCenter, l'interface utilisateur de l'hôte et le MOB.

    Lorsque vous accédez à Hôte > Surveiller > Santé du matériel > Capteurs de stockage sur l'interface utilisateur vCenter, les informations de stockage affichent des valeurs incorrectes ou inconnues. Le même problème se produit également sur l'interface utilisateur de l'hôte et sur le chemin d'accès au MOB « runtime.hardwareStatusInfo.storageStatusInfo ».

    Solution : aucune.

  • Les paramètres avancés de l'hôte de l'interface utilisateur vSphere affichent l'emplacement actuel du casier du produit comme étant vide avec une valeur par défaut vide

    Les paramètres avancés de l'hôte de l'interface utilisateur vSphere affichent l'emplacement actuel du casier du produit comme étant vide avec une valeur par défaut vide. Cela est incohérent, car l'emplacement réel du produit symlink est créé et valide, ce qui entraîne une confusion pour l'utilisateur. La valeur par défaut ne peut pas être corrigée à partir de l'interface utilisateur.

    Solution : l'utilisateur peut utiliser la commande esxcli sur l'hôte pour corriger la valeur par défaut de l'emplacement actuel du casier de produit comme ci-dessous.

    1. Supprimez le paramètre d'emplacement du casier de produit existant avec : « esxcli system settings advanced remove -o ProductLockerLocation »

    2. Ajoutez à nouveau le paramètre d'emplacement du casier de produit avec la valeur par défaut appropriée :

          2.a.  Si le dispositif ESXi est une installation complète, la valeur par défaut est « /locker/packages/vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/locker/packages/vmtoolsRepo »

          2.b. Si le dispositif ESXi est une configuration PXEboot comme autodeploy, la valeur par défaut est : « /vmtoolsRepo" export PRODUCT_LOCKER_DEFAULT="/vmtoolsRepo »

          Exécutez la commande suivante pour déterminer automatiquement l'emplacement : export PRODUCT_LOCKER_DEFAULT=`readlink /productLocker`

          Ajoutez le paramètre : esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s $PRODUCT_LOCKER_DEFAULT

    Vous pouvez combiner toutes les étapes ci-dessus dans l'étape 2 en émettant la commande unique :

    esxcli system settings advanced add -d "Path to VMware Tools repository" -o ProductLockerLocation -t string -s `readlink /productLocker`

  • Les instances de vCenter Server SDDC (Software-Defined Data Center) s'affichent dans l'instance sur site de vSphere Client si une instance de vCenter Cloud Gateway est liée au SDDC.

    Lorsqu'une instance de vCenter Cloud Gateway est déployée dans le même environnement qu'une instance sur site de vCenter Server, et est liée à un SDDC, l'instance de vCenter Server SDDC s'affiche dans l'instance sur site de vSphere Client. Ce comportement est inattendu et l'instance liée de vCenter Server SDDC doit être ignorée. Toutes les opérations impliquant l'instance liée de vCenter Server SDDC doivent être effectuées sur vSphere Client exécuté dans vCenter Cloud Gateway.

    Solution : aucune.

Problèmes de gestion des machines virtuelles
  • La section « post-personnalisation » du script de personnalisation s'exécute avant la personnalisation de l'invité.

    Lorsque vous exécutez le script de personnalisation de l'invité pour un système d'exploitation invité Linux, la section pré-personnalisation du script de personnalisation qui est défini dans la spécification de personnalisation s'exécute avant la personnalisation de l'invité et la section post-personnalisation s'exécute ensuite. Si vous activez Cloud-Init dans le système d'exploitation invité d'une machine virtuelle, la section post-personnalisation s'exécute avant la personnalisation en raison d'un problème connu dans Cloud-Init.

    Solution : désactivez Cloud-Init et utilisez la personnalisation de l'invité standard. 

  • Les opérations de migration de groupe dans vSphere vMotion, Storage vMotion et vMotion sans stockage partagé échouent avec une erreur

    Lorsque vous effectuez des opérations de migration de groupe sur des machines virtuelles avec plusieurs disques et des snapshots à plusieurs niveaux, les opérations peuvent échouer avec l'erreur com.vmware.vc.GenericVmConfigFault n'a pas pu attendre les données. Erreur 195887167. Connexion fermée par l'hôte distant, probablement en raison d'une expiration du délai.

    Solution : réexécutez l'opération de migration sur les machines virtuelles ayant échoué, une à la fois.

  • Le déploiement d'un modèle OVF ou OVA à partir d'une URL échoue avec une erreur Interdit 403.

    Les URL qui contiennent un paramètre de requête HTTP ne sont pas prises en charge. Par exemple, http://webaddress.com?file=abc.ovf ou les URL S3 pré-signées par Amazon.

    Solution : téléchargez les fichiers et déployez-les à partir de votre système de fichiers local.

  • L'importation ou le déploiement de fichiers OVF locaux contenant des caractères non-ASCII dans leur nom peut échouer avec une erreur.

    Lorsque vous importez des fichiers .ovf locaux contenant des caractères non-ASCII dans leur nom, vous pouvez recevoir Erreur de requête incorrecte 400. Lorsque vous utilisez des fichiers .ovf pour déployer une machine virtuelle dans vSphere Client, le processus de déploiement s'arrête à 0 %. Par conséquent, vous pouvez recevoir Erreur de requête incorrecte 400 ou Erreur de serveur interne 500.

    Solution :

    1. supprimez les caractères non-ASCII des noms de fichier .ovf et .vmdk.
      • Pour modifier le fichier .ovf, ouvrez-le avec un éditeur de texte.
      • Recherchez le nom de fichier de .vmdk non-ASCII et remplacez-le par un nom ASCII.
    2. Importez ou déployez de nouveau les fichiers enregistrés. 
  • Nouveau Le troisième niveau d'objets imbriqués dans un dossier de machine virtuelle n'est pas visible

    Procédez comme suit :

    1. Accédez à un centre de données et créez un dossier de machine virtuelle.
    2. Dans le dossier de la machine virtuelle, créez un dossier de machine virtuelle imbriqué.
    3. Dans le deuxième dossier, créez une autre machine virtuelle imbriquée, un dossier de machine virtuelle, un vApp ou un modèle de machine virtuelle.

    Par exemple, dans l'arborescence de l'inventaire VM et modèles, vous ne pouvez pas voir les objets dans le troisième dossier imbriqué.

    Solution : pour afficher les objets dans le troisième dossier imbriqué, accédez au second dossier imbriqué et sélectionnez l'onglet VM.

Problèmes de vSphere HA et Fault Tolerance
  • Modifié Les machines virtuelles d'un cluster peuvent être inactives après une restauration suite à une inaccessibilité du stockage, telle qu'une condition APD à l'échelle du cluster.

    Certaines machines virtuelles peuvent devenir inactives après la restauration d'une condition APD à l'échelle du cluster, même si HA et VMCP sont activés sur le cluster.

    Ce problème peut survenir lorsque les conditions suivantes se produisent simultanément :

    • Tous les hôtes du cluster connaissent une condition APD et ne récupèrent pas jusqu'à l'expiration du délai de VMCP.
    • L'agent HA principal initie le basculement en raison d'une condition APD sur un hôte.
    • La mise sous tension de l'API pendant le basculement HA échoue en raison de l'une des situations suivantes :
      • APD sur le même hôte
      • APD en cascade sur l'ensemble du cluster
      • Problèmes de stockage
      • Indisponibilité des ressources
    • L'annulation de l'enregistrement de FDM et l'utilisation de logique de machine virtuelle par des VC peut démarrer à un moment où FDM n'a pas annulé l'enregistrement de la VM ayant échoué et la synchronisation de l'hôte de VC répond que plusieurs hôtes signalent la même machine virtuelle. FDM et VC annulent tous deux l'enregistrement des différentes copies enregistrées de la même machine virtuelle à partir de différents hôtes, la machine virtuelle devient alors inactive.

    Solution : vous devez annuler l'enregistrement et réenregistrer les machines virtuelles inactives manuellement dans le cluster après la restauration d'APD.

    Si vous ne réenregistrez pas manuellement les machines virtuelles inactives, HA tente de basculer les machines virtuelles inactives, mais cela peut prendre entre 5 et 10 heures selon le moment où APD est récupéré.

    Les fonctionnalités globales du cluster ne sont pas affectées dans ces cas et HA continuera à protéger les machines virtuelles. Il s'agit d'une anomalie dans les données affichées sur VC pendant la durée du problème.

Problèmes liés à vSphere Lifecycle Manager
  • Vous ne pouvez pas activer NSX-T sur un cluster déjà activé pour gérer la configuration et les mises à jour d'images sur tous les hôtes collectivement.

    NSX-T n'est pas compatible avec la fonctionnalité de vSphere Lifecycle Manager pour la gestion des images. Lorsque vous activez collectivement un cluster pour la configuration et les mises à jour d'images sur tous les hôtes du cluster, vous ne pouvez pas activer NSX-T sur ce cluster. Toutefois, vous pouvez déployer des dispositifs NSX Edge sur ce cluster.

    Solution : déplacez les hôtes vers un nouveau cluster que vous pouvez gérer avec des lignes de base et activez NSX-T sur ce nouveau cluster.

  • vSphere Lifecycle Manager et les services de fichiers vSAN ne peuvent pas être activés simultanément sur un cluster vSAN dans vSphere 7.0

    Si vSphere Lifecycle Manager est activé sur un cluster, les services de fichiers vSAN ne peuvent pas être activés sur le même cluster et vice versa. Afin d'activer vSphere Lifecycle Manager sur un cluster sur lequel les services de fichiers vSAN sont déjà activés, désactivez d'abord les services de fichiers vSAN et recommencez l'opération. Notez que si vous effectuez une transition vers un cluster géré par une seule image, vSphere Lifecycle Manager ne peut pas être désactivé sur ce cluster.

    Solution : aucune.

  • Les hôtes ESXi 7.0 ne peuvent pas être ajoutés à un cluster que vous gérez avec une seule image à l'aide de vSphere Auto Deploy.

    La tentative d'ajouter des hôtes ESXi à un cluster que vous gérez avec une seule image à l'aide du workflow « Ajouter à l'inventaire » dans vSphere Auto Deploy échoue. L'échec se produit, car aucun modèle ne correspond à un ensemble de règles Auto Deploy existant. La tâche échoue en silence et les hôtes restent dans l'onglet Hôtes découverts.

    Solution :

    1. supprimez les hôtes ESXi qui ne correspondent pas à l'ensemble de règles de l'onglet Hôtes découverts.
    2. Créez une règle ou modifiez une règle Auto Deploy existante, dans laquelle l'emplacement cible de l'hôte est un cluster géré par une image.
    3. Redémarrez les hôtes.

     

    Les hôtes sont ajoutés au cluster que vous gérez par une image dans vSphere Lifecycle Manager.

  • Lorsqu'un gestionnaire de support matériel n'est pas disponible, la fonctionnalité de vSphere High Availability (HA) est affectée

    Si le gestionnaire de support matériel n'est pas disponible pour un cluster que vous gérez avec une seule image, dans laquelle un complément de microprogramme et de pilotes est sélectionné et où vSphere HA est activé, la fonctionnalité vSphere HA est affectée. Les erreurs suivantes peuvent se produire.

    • Échec de la configuration de vSphere HA sur un cluster.
    • Impossible de terminer la configuration de l'agent vSphere HA sur cet hôte : Une erreur s'est produite lors de l'application de VIB HA sur le cluster.
    • La correction de vSphere HA échoue : Une erreur système générale s'est produite : impossible d'accéder à un mappage de composants effectif.
    • La désactivation de vSphere HA échoue : échec de la tâche de suppression de la solution. Une erreur système générale s'est produite : le module de support matériel est introuvable à partir du dépôt ou du gestionnaire de support matériel.

     

    Solution :

    • si le gestionnaire de support matériel est temporairement indisponible, procédez comme suit.
    1. Reconnectez le gestionnaire de support matériel à l'instance de vCenter Server.
    2. Sélectionnez un cluster dans le menu Hôtes et cluster.
    3. Sélectionnez l'onglet Configurer.
    4. Sous Services, cliquez sur Disponibilité vSphere.
    5. Réactivez vSphere HA.
    • Si le gestionnaire de support matériel est définitivement indisponible, procédez comme suit.
    1. Supprimez le gestionnaire de support matériel et le module de support matériel de la spécification de l'image.
    2. Réactivez vSphere HA.
    3. Sélectionnez un cluster dans le menu Hôtes et cluster.
    4. Sélectionnez l'onglet Mises à jour.
    5. Cliquez sur Modifier.
    6. Supprimez le complément de microprogramme et de pilotes, puis cliquez sur Enregistrer.
    7. Sélectionnez l'onglet Configurer.
    8. Sous Services, cliquez sur Disponibilité vSphere.
    9. Réactivez vSphere HA.

     

  • I/OFilter n'est pas supprimé d'un cluster après un processus de correction dans vSphere Lifecycle Manager

    La suppression d'I/OFilter d'un cluster en corrigeant le cluster dans vSphere Lifecycle Manager échoue avec le message d'erreur suivant : Le filtre iofilter XXX existe déjà. Le filtre iofilter reste répertorié comme étant installé.

    Solution :

    1. appelez l'API IOFilter UninstallIoFilter_Task à partir de l'objet géré vCenter Server (IoFilterManager).
    2. Corrigez le cluster dans vSphere Lifecycle Manager.
    3. Appelez l'API IOFilter ResolveInstallationErrorsOnCluster_Task à partir de l'objet géré par vCenter Server (IoFilterManager) pour mettre à jour la base de données.

     

  • Lors de la correction d'un cluster activé pour vSphere HA dans vSphere Lifecycle Manager, l'ajout d'hôtes provoque un état d'erreur vSphere HA

    L'ajout d'un ou de plusieurs hôtes ESXi lors d'un processus de correction d'un cluster activé pour vSphere HA génère le message d'erreur suivant : Une erreur s'est produite lors de l'application de VIB HA sur le cluster.

    Solution : une fois l'opération de correction du cluster terminée, effectuez l'une des tâches suivantes.

    • Cliquez avec le bouton droit sur l'hôte ayant échoué ESXi et sélectionnez Reconfigurer pour vSphere HA.
    • Désactivez et réactivez vSphere HA pour le cluster.

     

  • Lors de la correction d'un cluster activé pour vSphere HA dans vSphere Lifecycle Manager, la désactivation et la réactivation de vSphere HA provoquent un état d'erreur de vSphere HA

    La désactivation et la réactivation de vSphere HA au cours du processus de correction d'un cluster peuvent entraîner l'échec du processus de correction en raison des rapports sur les contrôles de santé de vSphere HA signalant que les VIB vSphere HA ne sont pas installés sur les hôtes. Le message d'erreur suivant peut s'afficher : La définition de la spécification d'image souhaitée pour le cluster a échoué.

    Solution : une fois l'opération de correction de cluster terminée, désactivez et réactivez vSphere HA pour le cluster.

  • La vérification des images recommandées dans vSphere Lifecycle Manager présente des performances ralenties dans les clusters de grande taille.

    Dans les clusters de grande taille comportant plus de 16 hôtes, la tâche de génération de recommandations peut prendre plus d'une heure pour s'achever ou sembler se bloquer. La date de fin de la tâche de la tâche de recommandation dépend du nombre de périphériques configurés sur chaque hôte et du nombre de candidats d'image du dépôt que vSphere Lifecycle Manager doit traiter avant d'obtenir une image valide à recommander.

    Solution : aucune.

  • La vérification de la compatibilité matérielle dans vSphere Lifecycle Manager présente des performances ralenties dans les clusters de grande taille.

    Dans les clusters de grande taille comportant plus de 16 hôtes, la tâche de génération des rapports de validation peut prendre jusqu'à 30 minutes ou sembler se bloquer. La durée d'exécution dépend du nombre de périphériques configurés sur chaque hôte et du nombre d'hôtes configurés dans le cluster.

    Solution : aucune.

  • Des messages d'erreur incomplets dans des langues autres que l'anglais s'affichent lorsque vous corrigez un cluster dans vSphere Lifecycle Manager.

    Des messages d'erreur incomplets peuvent s'afficher pour les langues localisées dans l'interface utilisateur de vCenter Server. Les messages s'affichent après l'échec d'un processus de correction de cluster dans vSphere Lifecycle Manager. Par exemple, vous pouvez observer le message d'erreur suivant.

    Le message d'erreur en langue anglaise : Virtual machine 'VMC on DELL EMC -FileServer' that runs on cluster 'Cluster-1' reported an issue which prevents entering maintenance mode: Impossible d'accéder à la configuration de la machine virtuelle : Impossible d'accéder au fichier [local-0] VMC on Dell EMC-FileServer/VMC on Dell EMC-FileServer.vmx

    Le message d'erreur en langue française : La VM « VMC on DELL EMC -FileServer », située sur le cluster « {Cluster-1} », a signalé un problème empêchant le passage en mode de maintenance : Impossible d'accéder à la configuration de la machine virtuelle : Impossible d'accéder au fichier [local-0] VMC on Dell EMC-FileServer/VMC on Dell EMC-FileServer.vmx

    Solution : aucune.

  • L'importation d'une image sans complément fournisseur, composant ou complément de microprogramme et de pilotes dans un cluster sur lequel l'image contient ces éléments ne supprime pas les éléments d'image de l'image existante.

    Seule l'image de base ESXi est remplacée par celle de l'image importée.

    Solution : une fois le processus d'importation terminé, modifiez l'image et, si nécessaire, supprimez le complément fournisseur, les composants et le complément de microprogramme et de pilotes.

  • Lorsque vous convertissez un cluster qui utilise des lignes de base en un cluster qui utilise une seule image, un avertissement s'affiche indiquant que les VIB vSphere HA seront supprimés.

    La conversion d'un cluster activé pour vSphere HA qui utilise des lignes de base en un cluster qui utilise une seule image peut entraîner l'affichage d'un message d'avertissement indiquant que le composant vmware-fdm sera supprimé.

    Solution : vous pouvez ignorer ces messages. Le processus de conversion installe le composant vmware-fdm.

  • Si vSphere Update Manager est configuré pour télécharger des mises à jour de correctifs à partir d'Internet via un serveur proxy, après la mise à niveau vers vSphere 7.0 qui convertit Update Manager en vSphere Lifecycle Manager, le téléchargement de correctifs à partir du référentiel de correctifs de VMware peut échouer.

    Dans les versions antérieures de vCenter Server vous pouviez configurer des paramètres de proxy indépendants pour les dispositifs vCenter Server et vSphere Update Manager. Après une mise à niveau vers vSphere 7.0, vSphere Update Manager service devient partie intégrante du service Lifecycle Manager vSphere. Pour le service de vSphere Lifecycle Manager, les paramètres de proxy sont configurés à partir des paramètres de vCenter Server Appliance. Si vous avez configuré Update Manager pour télécharger des mises à jour de correctifs à partir d'Internet via un serveur proxy, mais que vCenter Server Appliance ne disposait pas d'une configuration de paramètre de proxy, après une mise à niveau de vCenter Server vers la version 7.0, vSphere Lifecycle Manager ne parvient pas à se connecter au dépôt de VMware et ne parvient pas à télécharger les correctifs ou les mises à jour.

    Solution : connectez-vous à l'interface de gestion de vCenter Server Appliance, https://vcenter-server-appliance-FQDN-or-IP-address:5480, pour configurer les paramètres de proxy pour le dispositif vCenter Server Appliance et activer vSphere Lifecycle Manager pour utiliser le proxy.

Problèmes divers
  • Lors de l'application d'un profil d'hôte avec la version 6.5 à un hôte ESXi avec la version 7.0, la vérification de conformité échoue.

    L'application d'un profil d'hôte avec la version 6.5 à un hôte ESXi avec la version 7.0 entraîne le signalement du profil de fichier coredump comme non conforme à l'hôte.

    Solution : il existe deux solutions.

    1. Lorsque vous créez un profil d'hôte avec la version 6.5, définissez une option de configuration avancée VMkernel.Boot.autoCreateDumpFile sur false sur l'hôte ESXi.
    2. Lorsque vous appliquez un profil d'hôte existant avec la version 6.5, ajoutez une option de configuration avancée VMkernel.Boot.autoCreateDumpFile dans le profil d'hôte, configurez l'option sur une stratégie fixe et définissez la valeur sur false.

     

  • Le menu déroulant Actions ne contient aucun élément lorsque votre navigateur est défini sur une langue autre que l'anglais.

    Lorsque votre navigateur est défini sur la langue autre que l'anglais et que vous cliquez sur le bouton Basculer vers la nouvelle vue à partir de l'onglet Résumé de la machine virtuelle de l'inventaire vSphere Client, le menu déroulant Actions du panneau SE invité ne contient aucun articles.

    Solution : sélectionnez le menu déroulant Actions en haut de la page de la machine virtuelle.

  • Les pilotes ESXi natifs ConnectX-4 ou ConnectX-5 de Mellanox peuvent présenter une dégradation mineure du débit lorsque la fonctionnalité Dynamic Receive Side Scaling (DYN_RSS) ou Generic RSS (GEN_RSS) est activée.

    Les pilotes ESXi natifs ConnectX-4 ou ConnectX-5 de Mellanox peuvent présenter moins de 5 % de dégradation du débit lorsque les fonctionnalités DYN_RSS et GEN_RSS sont activées, ce qui est peu susceptible d'affecter les charges de travail normales.

    Solution : vous pouvez désactiver les fonctionnalités DYN_RSS et GEN_RSS à l'aide des commandes suivantes :

    # esxcli system module parameters set -m nmlx5_core -p "DYN_RSS=0 GEN_RSS=0"

    # reboot

  • Le trafic RDMA entre deux machines virtuelles sur le même hôte peut échouer dans l'environnement PVRDMA.

    Dans une implémentation vSphere 7.0 d'un environnement PVRDMA, les machines virtuelles acheminent le trafic via le HCA pour la communication locale si un HCA est présent. Toutefois, le bouclage du trafic RDMA ne fonctionne pas sur le pilote qedrntv.  Par exemple, les paires RDMA mises en file d'attente exécutées sur des machines virtuelles qui sont configurées sous le même port de liaison montante ne peuvent pas communiquer entre elles.

    Dans vSphere 6.7 et versions antérieures, le HCA a été utilisé pour le trafic RDMA local si le SRQ était activé. vSphere 7.0 utilise le bouclage HCA avec des machines virtuelles utilisant des versions de PVRDMA sur lesquelles SRQ est activé avec une version matérielle minimale de v14 utilisant le protocole RoCE v2.

    La version actuelle du microprogramme de l'adaptateur Marvell FastLinQ ne prend pas en charge le trafic de bouclage entre les paires mises en file d'attente du même PF ou port.

    Solution : la prise en charge requise est ajoutée dans le pilote prédéfini certifié pour vSphere 7.0. Si vous utilisez le pilote qedrntv de boîte de réception, vous devez utiliser une configuration à 3 hôtes et migrer les machines virtuelles vers le troisième hôte.

  • Limitations des paires mises en file d'attente (QP) du trafic datagramme non fiable dans le pilote qedrntv.

    Il existe des limitations avec le pilote Marvell FastLinQ qedrntv RoCE et le trafic datagramme non fiable (UD). Les applications UD qui impliquent le trafic en masse peuvent échouer avec le pilote qedrntv. En outre, les paires UD mises en file d'attente peuvent uniquement fonctionner avec des régions de mémoire (MR) DMA. Les MR ou FRMR physiques ne sont pas prises en charge. Les applications tentant d'utiliser des MR ou FRMR physiques avec des paires UD mises en file d'attente ne parviennent pas à transmettre le trafic lorsqu'elles sont utilisées avec le pilote qedrntv. Les exemples connus de ces applications de test sont ibv_ud_pingpong et ib_send_bw.

    Les cas d'utilisation standard RoCE et RoCEv2 dans un environnement ESXi VMware tel que iSER, NVMe-oF (RoCE) et PVRDMA ne sont pas affectés par ce problème. Les cas d'utilisation pour le trafic UD sont limités et ce problème affecte un petit ensemble d'applications nécessitant un trafic UD en masse.

    Le matériel Marvell FastLinQ ne prend pas en charge le déchargement du trafic UD RDMA. Pour répondre aux exigences de VMware PVRDMA pour la prise en charge de GSI QP, une mise en œuvre limitée par logiciel uniquement de la prise en charge de la fonction UD QP a été ajoutée au pilote qedrntv. L'objectif de la mise en œuvre est de fournir la prise en charge de la communication GSI de chemin de contrôle et n'est pas une implémentation complète d'UD QP prenant en charge le trafic en masse et les fonctionnalités avancées.

    Étant donné que la prise en charge de la fonction UD est implémentée dans le logiciel, l'implémentation peut ne pas suivre le trafic intense et des paquets peuvent être abandonnés. Cela peut entraîner des échecs avec le trafic UD en masse.

    Solution : le trafic UD QP en masse n'est pas pris en charge avec le pilote qedrntv et il n'existe aucune solution à ce stade. Les cas d'utilisation RDMA de VMware ESXi (RoCE), tels que iSER, NVMe, RDMA et PVRDMA, ne sont pas affectés par ce problème.

  • Les serveurs équipés de la carte réseau QLogic 578xx peuvent échouer lorsque vous connectez ou déconnectez fréquemment des LUN iSCSI

    Si vous déclenchez fréquemment une connexion iSCSI de carte réseau QLogic 578xx ou une déconnexion en peu de temps, le serveur peut échouer en raison d'un problème avec le pilote qfle3. Cela est dû à un défaut connu dans le microprogramme du périphérique.

    Solution : aucune.

  • ESXi peut échouer lors du déchargement du pilote ou de l'opération de déconnexion du contrôleur dans un environnement Broadcom NVMe over FC.

    Dans l'environnement Broadcom NVMe over FC, ESXi peut échouer lors du déchargement du pilote ou de l'opération de déconnexion du contrôleur et afficher un message d'erreur tel que : @BlueScreen: #PF Exception 14 dans le monde 2098707:vmknvmeGener IP 0x4200225021cc addr 0x19

    Solution : aucune.

  • ESXi n'affiche pas le numéro de version du microprogramme OEM des cartes réseau i350/X550 sur certains serveurs Dell.

    Le pilote ixgben de boîte de réception reconnaît uniquement la version des données de microprogramme ou la signature des cartes réseau i350/X550. Sur certains serveurs Dell, le numéro de version du microprogramme OEM est programmé dans la région de la version du module OEM et le pilote ixgben de boîte de réception ne lit pas ces informations. Seule la signature du microprogramme à 8 chiffres s'affiche.

    Solution : pour afficher le numéro de version du microprogramme OEM, installez la version 1.7.15 ou ultérieure du pilote ixgben asynchrone.

  • Les cartes réseau X710 ou XL710 peuvent échouer dans ESXi.

    Lorsque vous lancez certaines opérations destructrices sur des cartes réseau X710 ou XL710, telles que la réinitialisation de la carte réseau ou la manipulation de l'arborescence de périphériques interne de VMKernel, le matériel de la carte réseau peut lire des données de la mémoire non constituée de paquets.

    Solution : ne réinitialisez pas la carte réseau ou ne manipulez pas l'état du périphérique interne VMkernel.

  • NVMe-oF ne garantit pas le nom VMHBA persistant après le redémarrage du système

    NVMe-oF est une nouvelle fonctionnalité de vSphere 7.0. Si votre serveur dispose d'une installation de stockage USB qui utilise vmhba30+ et dispose également de la configuration NVMe over RDMA, le nom VMHBA peut changer après un redémarrage du système. Cela est dû au fait que l'attribution de nom VMHBA pour NVMe over RDMA est différente des périphériques PCIe. ESXi ne garantit pas la persistance.

    Solution : aucune.

  • Échec de la sauvegarde pour une taille de base de données vCenter de 300 Go ou plus

    Si la taille de la base de données vCenter est de 300 Go ou plus, la sauvegarde basée sur fichier échoue avec un délai d'expiration. Le message d'erreur suivant s'affiche : Délai expiré ! L'opération ne s'est pas terminée dans le délai de 72 000 secondes.

    Solution : aucune.

  • La vérification de l'état de conformité d'un hôte ESXi 7.0 par rapport à un profil d'hôte avec la version 6.5 ou 6.7 entraîne une erreur pour les périphériques vmhba et vmrdma.

    Lors de la vérification de la conformité d'un hôte ESXi 7.0 qui utilise le pilote nmlx5_core ou nvme_pcie par rapport à un profil d'hôte avec la version 6.5 ou 6.7, vous pouvez observer les erreurs suivantes, lorsque address1 et address2 sont spécifiques au système affecté.

    • Aucun périphérique avec la logique de type de bus address1 est présent sur votre hôte.
    • Aucun périphérique vmrdma avec la logique de type de bus address2 est présent sur votre hôte.

    L'erreur est due à une incompatibilité entre les adresses des périphériques générées par le pilote nmlx5_core ou nvme_pcie dans ESXi version 7.0 et versions antérieures.

    Solution : vous pouvez ignorer cette erreur. La fonctionnalité de l'hôte ESXi n'est pas affectée. Pour résoudre l'erreur d'état de conformité, récupérez à nouveau le profil d'hôte à partir d'un hôte ESXi version 7.0 et appliquez le nouveau profil d'hôte à l'hôte.

  • Une restauration de vCenter Server 7.0 qui est mise à niveau depuis vCenter Server 6.x avec une instance externe de Platform Services Controller vers vCenter Server 7.0 peut échouer

    Lorsque vous restaurez une instance de vCenter Server 7.0 mise à niveau de la version 6.x incluant une instance externe de Platform Services Controller vers vCenter Server 7.0, la restauration peut échouer et afficher l'erreur suivante : Échec de la récupération de la liste de stockage du dispositif.

    Solution : pendant la première étape du processus de restauration, augmentez le niveau de stockage de vCenter Server 7.0. Par exemple, si le type de stockage de la configuration externe de Platform Services Controller de vCenter Server 6.7 est petit, sélectionnez le type de stockage grand pour le processus de restauration.

  • Le paramètre de configuration des protocoles SSL activé n'est pas configuré lors du processus de correction d'un profil d'hôte.

    Le paramètre de configuration des protocoles SSL activés ne sont pas configurés lors de la correction d'un profil d'hôte et seul le protocole par défaut du système tlsv1.2 est activé. Ce comportement est observé pour un profil d'hôte avec la version 7.0 et les versions antérieures dans un environnement vCenter Server 7.0.

    Solution : pour activer les protocoles SSL TLSV 1.0 ou TLSV 1.1 pour SFCB, connectez-vous à un hôte ESXi à l'aide de SSH, puis exécutez la commande ESXCLI suivante : esxcli system wbem -P <protocol_name>

  • Impossible de configurer les paramètres du mode de verrouillage à l'aide des profils d'hôte.

    Le mode de verrouillage ne peut pas être configuré à l'aide d'un profil d'hôte de sécurité et ne peut pas être appliqué à plusieurs hôtes ESXi à la fois. Vous devez configurer manuellement chaque hôte.  

    Solution : Dans vCenter Server 7.0, vous pouvez configurer le mode de verrouillage et gérer la liste des utilisateurs avec exception en mode de verrouillage à l'aide d'un profil d'hôte de sécurité.

  • Lorsqu'un profil d'hôte est appliqué à un cluster, les paramètres Enhanced vMotion Compatibility (EVC) sont manquants dans les hôtes ESXi.

    Certains paramètres du fichier de configuration de VMware /etc/vmware/config ne sont pas gérés par les profils d'hôte et sont bloqués lorsque le fichier de configuration est modifié. Par conséquent, lorsque le profil d'hôte est appliqué à un cluster, les paramètres EVC sont perdus, ce qui entraîne la perte des fonctionnalités EVC. Par exemple, les CPU non masqués peuvent être exposés aux charges de travail.

    Solution : reconfigurez la ligne de base EVC pertinente sur le cluster pour récupérer les paramètres EVC.

  • L'utilisation d'un profil d'hôte qui définit une partition de vidage de mémoire dans vCenter Server 7.0 génère une erreur.

    Dans vCenter Server 7.0, la configuration et la gestion d'une partition de vidage de mémoire dans un profil d'hôte ne sont pas disponibles. La tentative d'application d'un profil d'hôte qui définit une partition de vidage de mémoire entraîne l'erreur suivante : Aucune partition de coredump valide n'a été trouvée.

    Solution : aucune. Dans vCenter Server 7.0., les profils d'hôte ne prennent en charge que les vidages de mémoire basés sur des fichiers.

  • Lorsqu'un profil d'hôte est copié à partir d'un hôte ESXi ou qu'un profil d'hôte est modifié, les valeurs entrées par l'utilisateur sont perdues.

    Certaines clés de profil d'hôte sont générées à partir du calcul du hachage même lorsque des règles explicites de génération de clés sont fournies. Par conséquent, lorsque vous copiez des paramètres à partir d'un hôte ou que vous modifiez un profil d'hôte, les valeurs entrées par l'utilisateur dans le fichier de réponses sont perdues.

    Solution : dans vCenter Server 7.0, lorsqu'un profil d'hôte est copié à partir d'un hôte ESXi ou qu'un profil d'hôte est modifié, les paramètres entrées par l'utilisateur sont conservés.

  • Les requêtes HTTP de certaines bibliothèques vers vSphere peuvent être rejetées.

    Le proxy inverse HTTP dans vSphere 7.0 applique une conformité standard plus stricte que dans les versions précédentes. Cela peut exposer des problèmes préexistants dans certaines bibliothèques tierces utilisées par les applications pour les appels SOAP à vSphere.

    Si vous développez des applications vSphere qui utilisent de telles bibliothèques ou si vous incluez des applications basées sur ces bibliothèques dans votre pile vSphere, vous pouvez rencontrer des problèmes de connexion lorsque ces bibliothèques envoient des requêtes HTTP à VMOMI. Par exemple, les requêtes HTTP émises à partir de bibliothèques vijava peuvent prendre le format suivant :

    POST /sdk HTTP/1.1
    SOAPAction
    Content-Type: text/xml; charset=utf-8
    User-Agent: Java/1.8.0_221

    Dans cet exemple, la syntaxe enfreint une exigence de champ d'en-tête de protocole HTTP qui impose deux-points après SOAPAction. Par conséquent, la requête est rejetée dans Flight.

    Solution : les développeurs qui exploitent des bibliothèques non conformes dans leurs applications peuvent envisager d'utiliser une bibliothèque qui suit les normes HTTP à la place. Par exemple, les développeurs qui utilisent la bibliothèque vijava peuvent envisager à la place d'utiliser la dernière version de la bibliothèque yavijava.

  • La modification d'un paramètre d'options avancées dans un profil d'hôte et la définition d'une valeur sur false entraînent la définition de la valeur sur true

    Lorsque vous tentez de définir une valeur sur false pour un paramètre d'option avancée dans un profil d'hôte, l'interface utilisateur crée une valeur de chaîne non vide. Les valeurs qui ne sont pas vides sont interprétées comme true et le paramètre d'option avancée reçoit une valeur true dans le profil d'hôte.

    Solution : il existe deux solutions.

    • Définissez le paramètre d'option avancée sur false sur un hôte ESXi de référence et copiez les paramètres de cet hôte dans Profils d'hôte.
      Remarque : l'hôte doit être conforme au profil d'hôte avant la modification du paramètre d'option avancée sur l'hôte.
    • Définissez le paramètre d'option avancée sur false sur un hôte ESXi de référence et créez un profil d'hôte à partir de cet hôte. Copiez ensuite les paramètres de profil d'hôte du nouveau profil d'hôte sur le profil d'hôte existant.

     

  • L'ensemble de règles de pare-feu dynamique SNMP est modifié par les profils d'hôte lors d'un processus de correction

    L'ensemble de règles de pare-feu SNMP est un état dynamique, qui est géré pendant l'exécution. Lorsqu'un profil d'hôte est appliqué, la configuration de l'ensemble de règles est gérée simultanément par les profils d'hôte et SNMP, qui peuvent modifier les paramètres de pare-feu de manière inattendue.  

    Solution : il existe deux solutions.

    • Pour permettre à l'ensemble de règles de se gérer dynamiquement, excluez l'option de l'ensemble de règles de pare-feu SNMP dans la configuration du profil d'hôte.
    • Pour poursuivre la double gestion de l'ensemble de règles, lorsque cela est nécessaire, corrigez l'état de l'ensemble de règles de pare-feu.

     

  • Vous pouvez voir un fichier de vidage lorsque vous utilisez les pilotes Broadcom lsi_msgpt3, lsi_msgpt35 et lsi_mr3

    Lors de l'utilisation des contrôleurs lsi_msgpt3, lsi_msgpt35 et lsi_mr3, vous risquez d'obtenir le fichier de vidage lsuv2-lsi-drivers-plugin-util-zdump. Un problème se produit lors de la sortie de storelib utilisé dans cet utilitaire de plug-in. Il n'y a aucun impact sur les opérations ESXi et vous pouvez ignorer le fichier de vidage.

    Solution : vous pouvez ignorer ce message. Vous pouvez supprimer lsuv2-lsi-drivers-plugin à l'aide de la commande suivante :

    esxcli software vib remove -n lsuv2-lsiv2-drivers-plugin

  • Le redémarrage n'est peut-être pas nécessaire après la configuration de SR-IOV sur un périphérique PCI dans vCenter, mais les configurations de périphérique effectuées par des extensions tierces peuvent être perdues et le redémarrage doit être effectué.

    Dans ESXi 7.0, la configuration de SR-IOV est appliquée sans redémarrage et le pilote de périphérique est rechargé. Les hôtes ESXi peuvent avoir des extensions tierces exécutant des configurations de périphérique qui doivent être exécutées après le chargement du pilote de périphérique pendant le démarrage. Un redémarrage est nécessaire pour ces extensions tierces afin de réappliquer la configuration du périphérique.

    Solution : vous devez redémarrer après la configuration de SR-IOV pour appliquer les configurations de périphérique tierces.

check-circle-line exclamation-circle-line close-line
Scroll to top icon
check-circle-line exclamation-circle-line close-line
Scroll to top icon