Notes de mise à jour de vRealize Automation 7.2

|

Mis à jour le : 6 juin 2017

vRealize Automation | 22 novembre 2016 | Build 4660246

Vérifiez périodiquement si des ajouts et des mises à jour ont été apportés aux présentes notes de mise à jour.

Contenu des notes de mise à jour

Les notes de mise à jour couvrent les rubriques suivantes :

Nouveautés

La version 7.2 de vRealize Automation apporte les corrections et les nouvelles fonctionnalités suivantes.

  • Amélioration des API pour l'installation, la configuration et la mise à niveau de vRealize Automation par programmation.
  • Amélioration de la fonctionnalité de mise à niveau pour l'automatisation de la mise à niveau à l'échelle du système.
  • Prise en charge du protocole LDAP pour l'authentification et l'authentification Single Sign-On.
  • Conformité à la norme FIPS 140-2 :
    • L'interface du consommateur et/ou de l'administrateur est désormais conforme à la norme FIPS 140-2.
    • Cette fonctionnalité est gérée à l'aide de la console de gestion ou de l'interface de ligne de commande du dispositif vRealize Automation.
    • FIPS est désactivé par défaut.
  • Améliorations de la migration :
    • Migration de vRealize Automation 6.2.x vers la version 7.2 gérée via l'interface utilisateur.
    • Option Migration disponible dans l'assistant de déploiement.
    • Amélioration de la prise en charge de l'importation des charges de travail vCloud Director.
  • Améliorations des droits de service :
    • Case à cocher permettant d'ajouter tous les utilisateurs à un droit.
    • Suppression des droits inactifs.
  • Nouvelles fonctionnalités d'extension :
    • Nouvelles rubriques relatives au Broker d'événements pour les cas d'utilisation de l'extension améliorée.
    • Granularité des abonnements pour chaque composant, élément de catalogue, action de composant, conteneur ou déploiement.
    • Extension des capacités d'exploitation avec une nouvelle fonctionnalité de gestion de conteneurs.
    • Montée en charge/Réduction de la charge des applications et services XaaS personnalisés qui incluent des objets XaaS.
  • Améliorations des réseaux :
    • Prise en charge de la structure IPAM pour les réseaux NSX acheminés à la demande.
    • Nouveaux profils réseau pour la prise en charge d'autres cas d'utilisation de la structure IPAM.
    • Configuration de la stratégie d'équilibrage de charge pour l'équilibrage de charge NSX à la demande dans le Blueprint (Round-Robin, IP-Hash, Leastconn).
    • Configuration de l'URL de Service Monitor pour les protocoles HTTP/HTTPS.
  • Gestion de conteneurs :
    • Moteur intégré de gestion de conteneurs pour le déploiement et la gestion d'hôtes et de conteneurs Docker.
    • Création d'applications hybrides incluant des conteneurs et SE traditionnels.
    • Nouveaux rôles d'administrateur de conteneurs et d'architecte.
    • Découverte automatique d'hôtes de conteneurs provisionnés.
    • Docker 1.9.0 est la version minimale prise en charge.
    • Si l'équilibrage de charge intégré à Docker est nécessaire pour les conteneurs en cluster dans les réseaux définis par l'utilisateur, la version Docker 1.11+ est requise.
  • Point de terminaison Azure pour le provisionnement et la gestion de cloud hybride :
    • Génération, livraison et gestion transparentes des machines Azure avec vRealize Automation.
    • Prise en charge des services réseau Azure.
  • Intégration de ServiceNow :
    • Exposition automatique des éléments de catalogue vRealize Automation autorisés au portail ServiceNow à l'aide du plug-in disponible dans VMware Solution Exchange.
  • Docker :
    • Docker 1.9.0 est la version minimale prise en charge.
    • Si l'équilibrage de charge intégré à Docker est nécessaire pour les conteneurs en cluster dans les réseaux définis par l'utilisateur, la version Docker 1.11+ est requise.

Configuration système requise

Pour plus d'informations sur les systèmes d'exploitation hôtes, les bases de données et les serveurs Web pris en charge, reportez-vous à la Matrice de prise en charge de vRealize Automation.

Installation

Pour obtenir les conditions préalables et les instructions d'installation, reportez-vous à Installation de vRealize Automation.

Avant la mise à niveau

De nouvelles fonctionnalités de vRealize Automation apportent plusieurs améliorations, ainsi que la capacité de procéder à une mise à niveau ou à une migration vers la nouvelle version. Pour obtenir des recommandations et des conseils avant de commencer le processus de mise à niveau, accédez à la page Web Assistance aux mises à niveau de vRealize Automation.

À partir de vRealize Automation 7.2, JFrog Artifactory Pro n’est plus fourni avec le dispositif vRealize Automation. La mise à niveau à partir d’une version antérieure de vRealize Automation supprime JFrog Artifactory Pro. Pour plus d'informations, consultez l’article 2147237 de la base de connaissances.

Problèmes résolus

  • Lorsque vous renommez l'hôte après l'initialisation de la connexion Active Directory, le connecteur Active Directory ne peut plus être utilisé et Active Directory échoue. Ce problème a été résolu.

  • L'option de destruction de l'équilibrage de charge VMware NSX s'affiche comme une action autorisée ou comme une option de stratégie d'approbation. Ce problème a été résolu.

  • Après une nouvelle installation, le nœud master du dispositif ne voit pas l'état du nœud de réplica du dispositif. Ce problème a été résolu.

  • Un problème permettant d'étendre un bail indéfiniment a été résolu. Vous pouvez désormais étendre le bail selon la formule (date actuelle + bail maximal autorisé).

  • Mise à jour de l'environnement JRE pour inclure la mise à jour Oracle Critical Patch Update d'octobre 2016. L'environnement jdk-1.8.0_102 a été remplacé par l'environnement jdk-1.8.0_112.

  • Échec de la fonctionnalité de montée en charge/réduction de charge dans un déploiement mis à niveau vers la version 6.x et dans les déploiements importés en bloc.

  • La rubrique de mise à niveau Télécharger les mises à niveau du dispositif vRealize Automation à partir d'un référentiel VMware contient une condition préalable incorrecte qui fait référence à vRealize Automation 6.2.4 ou 6.2.5.

Problèmes connus

Installation

  • Nouveau La commande vcac-config échoue lorsqu’un paramètre commence par le symbole @
    Vous vous connectez en tant qu’utilisateur racine à la console du dispositif vRealize Automation, exécutez une commande vcac-config, et un message d’erreur semblable à l’exemple suivant s’affiche.

    /usr/sbin/vcac-config prop-util -e --p '@Follow123'
    Impossible de lire le fichier Follow123: java.io.FileNotFoundException: Follow123 (aucun fichier ou répertoire portant ce nom n'existe)

    Ce problème survient, car la commande vcac-config ne peut pas accepter un paramètre commençant par le symbole @. Par exemple, un nom ou un mot de passe commençant par le symbole @ entraîne l’erreur.

    Solution : aucune. N’entrez pas de paramètres vcac-config commençant par le symbole @.

  • Échec de la configuration de la base de données lors d'une nouvelle installation de vRealize Automation 7.2 sur la version de Windows en turc
    Si le serveur IaaS Server utilise la version turque de Windows, l'assistant d'installation de vRealize Automation échoue lors de la configuration de la base de données et le message suivant apparaît : MSB3073.

    Solution : ce problème sera résolu dans une version ultérieure.

  • Échec de la création du contenu initial lors de l'étape suivante du processus d'installation : Exécuter le workflow pour créer l'utilisateur configurationadmin
    Le fichier /var/log/messages contient deux exécutions différentes du processus de création de l'utilisateur configurationadmin (exécution simultanée, car le chiffre après va-agent.py indique que les processus sont différents) : /usr/lib/vcac/agent/va-agent.py[18405]: info Executing vRO workflow for creating configurationadmin user... ... /usr/lib/vcac/agent/va-agent.py[18683]: info Executing vRO workflow for creating configurationadmin user... Le premier appel crée l'utilisateur admin de la configuration, et le second est à l'origine de l'échec.

    Solution : pour reprendre le processus de création de contenu initial, exécutez les deux commandes suivantes à partir du dispositif principal (les paramètres sont autodescriptifs) :

    /usr/sbin/vra-command execute --node ${NODE_ID} import-asd-blueprint --ConfigurationAdminUser configurationadmin --ConfigurationAdminPassword "${CONFIGURION_ADMINISTRATOR_PASSWORD}" --DefaultTenant "${SSO_TENANT}" /usr/sbin/vra-command execute --node ${NODE_ID} execute-vro-initial-configuration-service --VidmAdminUser "${HORIZONUSER}" --VidmAdminPassword "${HORIZONPASS}" --ConfigurationAdminPassword "${CONFIGURATION_ADMINISTRATOR_PASSWORD}" --DefaultTenant "${SSO_TENANT}"

    Pour obtenir la valeur de NODE_ID, exécutez la commande vra-command list-nodes et recherchez l'ID de nœud du dispositif virtuel principal.

Mise à niveau

  • La migration de la version 6.x de vRealize Automation à la version 7.2 échoue si l'environnement cible 7.2 présente un groupe d'administrateurs vRealize Orchestrator différent défini comme groupe par défaut
    Le groupe d'administrateurs vRealize Orchestrator par défaut, vsphere.local/vcoadmin, ne doit pas être changé dans le centre de contrôle vRealize Orchestrator avant la migration.

    Solution : consultez l'article 2148669 de la base de connaissances.

  • Le client STOMP ne peut pas établir de connexion après la mise à niveau de tcServer vers la version 3.2
    Dans vRealize Automation 7.2, IaaS Manager Service prend uniquement en charge l'interrogation REST comme mécanisme de connexion lors de la communication avec le service Broker d'événements. Le paramètre de configuration Extensibility.Client.RetrievalMethod est ignoré.

  • Échec du démarrage du programme d'installation IaaS
    Le programme d'installation IaaS ne parvient pas à démarrer et affiche le message suivant : « Une version plus récente du produit est déjà installée sur cette machine. » Cela se produit lorsque le package .msi du programme d'installation IaaS ne parvient pas à démarrer après la mise à jour manuelle de l'agent de gestion IaaS vers la dernière version disponible.
    Symptômes :

    • En cas de mise à jour manuelle de l'agent de gestion IaaS de vRealize Automation 7.2 avec la dernière version disponible sur la page des téléchargement VMware
    • Si une panne se produit lors du démarrage de l'exécutable du programme d'installation IaaS après la mise à niveau vers vRealize Automation 7.2 avec le script shell de mise à niveau IaaS.
    • Après la mise à niveau vers vRealize Automation 7.2, l'onglet de cluster sur la page de gestion des dispositifs affiche la version mineure de l'agent de gestion IaaS comme étant supérieure par rapport aux autres composants IaaS.

    Solution : consultez l'article 2148278 de la base de connaissances.

  • Lorsque vous utilisez le nouveau script Shell de mise à niveau dans vRealize Automation 7.2, vous devez d'abord procéder à la mise à niveau vers la dernière version de Management Agent
    Si vous souhaitez exécuter une mise à niveau automatique des composants IaaS à l'aide du nouveau script Shell de mise à niveau, vous devez utiliser la dernière version de Management Agent disponible au téléchargement. N'utilisez pas la version fournie avec le dispositif virtuel vRealize Automation 7.2.

    Solution : consultez l'article 2147926 de la base de connaissances.

  • Si la télémétrie est désactivée avant la mise à niveau de vRealize Automation 6.2.4 ou 6.2.5 vers la version 7.2, l'onglet de télémétrie de la console de gestion des dispositifs vRealize Automation peut afficher une erreur.
    Le message suivant peut s'afficher après la mise à niveau : Erreur : Impossible de déterminer l'heure de la prochaine exécution. Réactivez ou désactivez la télémétrie. Ce message s'affiche, car aucune donnée de télémétrie n'est collectée, et le système ne parvient pas à déterminer l'heure de la prochaine exécution. Dans ce cas, aucune fonction de télémétrie ne peut être effectuée.

    Solution : activez ou désactivez la télémétrie à l'aide de la case à cocher Rejoindre le programme d'amélioration du produit de VMware, puis cliquez sur Enregistrer les paramètres.

Configuration et provisionnement

  • Le provisionnement de machine virtuelle Azure échoue si le nom de groupe de ressources contient des caractères non-ASCII

    Solution : n'utilisez pas de caractères non-ascii dans un nom de groupe de ressources.

  • La collecte des données d'état renvoie uniquement l'adresse IP principale
    Ce comportement peut affecter votre capacité à utiliser les options Se connecter via RDP, Se connecter via SSH ou à enregistrer une machine virtuelle en tant qu'hôte de conteneur dans le service de conteneur et d'autres services qui reposent sur l'accès à une machine virtuelle à l'aide de l'adresse IP de la machine virtuelle.

    Solution : ce problème sera résolu dans une version ultérieure.

  • L'erreur Échec de l'analyse de la demande de pool pour l'espace d'adressage "" pool "" subpool "" se produit lors des tests d'intégration réseau
    Les tests d'intégration réseau échouent et un message similaire au message suivant s'affiche dans le journal. Il s'agit d'un problème Docker connu : https://github.com/docker/libnetwork/issues/1101. La cause principale est que certains réseaux ne sont pas correctement libérés et Docker peut atteindre le nombre maximal de réseaux autorisés.

    Solution : supprimez les conteneurs et les réseaux.

    1. Arrêtez le démon docker.
      sudo systemctl stop docker.service
    2. Supprimez les conteneurs et les réseaux.
      sudo rm /var/lib/docker/network/files/local-kv.db; sudo rm /var/lib/docker/containers
    3. Démarrez le démon docker.
      sudo systemctl start docker.service

  • Les tests d'intégration échouent parfois avec l'erreur : The name "/container-name" is already used by container <hash>
    Il s'agit d'un problème Docker connu : https://github.com/docker/docker/issues/23371. Lorsque cette erreur se produit, la trace de pile suivante s'affiche :

    java.lang.IllegalStateException: Failed with Error waiting for /requests/<hash> to transition to COMPLETED. Failure: failure: Service https://dockerhost/v1.19/containers/create?name=<container-name> returned error 409 for POST. id <id>; Reason: Conflict. The name "/<container-name>" is already in use by container <hash>. You must remove (or rename) that container to be able to reuse that name.

    Solution : redéclenchez les tests. Si l'agent est le conteneur à l'origine de l'échec, vous devez supprimer les conteneurs et les réseaux.

    1. Arrêtez le démon docker.
      sudo systemctl stop docker.service
    2. Supprimez les conteneurs et les réseaux.
      sudo rm /var/lib/docker/network/files/local-kv.db; sudo rm /var/lib/docker/containers
    3. Démarrez le démon docker.
      sudo systemctl start docker.service

  • Dans une configuration en cluster, la modification de la zone de placement d'un hôte peut prendre un certain temps avant d'être reflétée dans l'interface utilisateur
    Lorsque la zone de placement d'un hôte dans une configuration en cluster est modifiée, l'ancienne et la nouvelle zones de placement peuvent figurer dans la liste des hôtes, même si l'hôte est attribué immédiatement à la nouvelle zone de placement et que l'ancienne attribution n'est pas utilisée. Cette situation se produit uniquement dans une configuration en cluster et n'affecte que l'interface utilisateur.

    Solution : patientez cinq minutes, le temps le temps de mettre à jour l'interface utilisateur.

  • La montée en charge des conteneurs Docker avec des liens de service peut échouer avec l'erreur « Provisioning for container X failed... Docker returned error 500 for POST...error »
    Lorsque vous déployez un modèle qui comprend plusieurs conteneurs avec des liens pour permettre les communications entre plusieurs services, mais qui ne comprend aucun réseau configuré explicitement pour la connexion des conteneurs, le provisionnement de tous les conteneurs est effectué sur le même hôte.

    Solution : modifiez le modèle pour ajouter un nouveau réseau à la demande, puis connectez-y tous les conteneurs. Cela garantit le provisionnement de tous les conteneurs montés en charge lorsque le réseau est disponible et la reconnaissance de tous les conteneurs entre eux.

  • Les réseaux détectés peuvent afficher un nombre incorrect de conteneurs connectés
    Si vous cliquez sur le nombre de conteneurs affichés sur chaque réseau, la liste des conteneurs peut être plus courte que prévu.

    Solution : Aucune.

  • Un message d'erreur interne s'affiche lorsque vous ajoutez une machine Azure à un Blueprint dans l'onglet Conception.
    Lorsque vous utilisez un serveur vRealize Orchestrator externe avec vRealize Automation, l'intégration de Microsoft Azure n'est pas disponible.

    Solution : exportez le plug-in et le package Azure depuis le serveur vRealize Orchestrator interne vers votre dispositif virtuel vRealize Automation, puis installez ou importez le plug-in et le package dans votre serveur vRealize Orchestrator externe. Après avoir installé le plug-in Azure ou importé le package Azure dans votre serveur vRealize Orchestrator externe, Microsoft Azure est pris en charge dans votre environnement vRealize Automation.

    1. Connectez-vous au centre de contrôle vRealize Orchestrator pour le serveur vRealize Orchestrator interne sur votre dispositif virtuel vRealize Automation. Pour obtenir des instructions, reportez-vous à la section Se connecter à l'interface de configuration de vRealize Orchestrator.
    2. Sous Plug-ins, cliquez sur Gérer les plug-ins.
    3. Recherchez le plug-in Azure et cliquez avec le bouton droit de la souris sur Téléchargez le fichier de plug-in DAR. Enregistrez le fichier sur votre poste de travail.
    4. Connectez-vous au centre de contrôle vRealize Orchestrator pour votre serveur vRealize Orchestrator externe. Pour obtenir des instructions, reportez-vous à la section Se connecter à l'interface de configuration de vRealize Orchestrator.
    5. Sous Plug-ins, cliquez sur Gérer les plug-ins.
    6. Sous Installer un plug-in, cliquez sur Parcourir, et recherchez le fichier DAR Azure que vous avez téléchargé sur votre poste de travail.
    7. Cliquez sur Installer. Si un message de demande de confirmation s'affiche, cliquez de nouveau sur Installer.
    8. Dans le Centre de contrôle, cliquez sur Redémarrer sous Options de démarrage pour finaliser l'installation du nouveau plug-in.
    9. Redémarrez tous vos dispositifs virtuels vRealize Automation en même temps.
      La fonctionnalité d'intégration de Microsoft Azure devrait être restaurée.

    Si l'intégration ne fonctionne pas correctement à la suite du redémarrage, vérifiez que le package Azure (com.vmware.vra.endpoint.azure) est présent sur le serveur vRealize Orchestrator externe. Si le package Azure n'est pas présent, procédez comme suit.
    1. Connectez-vous à votre client vRealize Orchestrator interne sur votre dispositif virtuel vRealize Automation.
    2. Exportez le package Azure : com.vmware.vra.endpoint.azure. Pour obtenir des instructions, reportez-vous à la section Exporter un package.
    3. Connectez-vous au client vRealize Orchestrator pour votre serveur vRealize Orchestrator externe.
    4. Importez le package Azure (com.vmware.vra.endpoint.azure) dans votre serveur vRealize Orchestrator externe. Pour obtenir des instructions, reportez-vous à la section Importer un package.

  • Lors de demandes simultanées de catalogues XaaS appelant un clonage de machine virtuelle, l'absence de workflow de personnalisation avec 30 utilisateurs entraîne l'échec de certaines demandes.
    Lorsque vous demandez des Blueprints XaaS, qui appellent des workflows vRealize Orchestrator pour exécuter des opérations sur des points de terminaison lents avec un niveau élevé de simultanéité, certaines des demandes risquent d'échouer avec l'erreur java.net.SocketTimeoutException: Read timed out. Les workflows vRealize Orchestrator peuvent également être redéclenchés plusieurs fois en raison de l'expiration du délai de lecture.

    Solution : procédez ainsi pour chaque nœud du dispositif vRealize Automation. Le fichier vcac.properties n'est pas conservé lors de la mise à niveau. Vous devez répéter ces étapes une fois la mise à niveau effectuée.

    1. Ouvrez une session SSH sur le dispositif vRealize Automation.
    2. Modifiez le fichier /etc/vcac/vcac.properties pour augmenter le délai d'expiration du client de 10 minutes en y ajoutant la ligne suivante : vco.socket.timeout.millis=600000
    3. À l'invite de commandes, exécutez cette commande pour redémarrer le service vcac-server : service vcac-server restart

  • La collecte des données d'inventaire s'arrête au cours d'un basculement de vCenter Server HA (VCHA)
    Dans de rares cas, des éléments de travail peuvent se bloquer pour un point de terminaison vSphere 6.5 géré lors d'un basculement de VCHA.

    Solution : redémarrez l'agent vRealize Automation vSphere. Si la collecte des données est toujours bloquée, contactez GSS.

  • Les déploiements de Blueprints vRealize Automation qui incluent des objets NSX échouent lors d'un provisionnement dans un cluster où NSX Manager a le rôle secondaire
    Dans un déploiement de NSX d'une instance vCenter à une autre, les objets universels NSX, tels que les passerelles Edge, les nouveaux câbles virtuels et l'équilibrage de charge doivent être provisionnés à l'aide de NSX Manager ayant le rôle principal. Si vous tentez de provisionner un NSX Manager secondaire avec des objets universels, le processus échoue avec une erreur. vRealize Automation ne prend pas en charge le provisionnement d'objets universels NSX sur les points de terminaison vSphere avec intégration réseau et sécurité lorsque le gestionnaire NSX spécifié a le rôle secondaire.

    Solution : Pour pouvoir utiliser des objets NSX globaux, vous devez créer une zone de transport local NSX et des câbles virtuels spécifiques à la région. Consultez l'article 2147240 de la base de connaissances VMware pour obtenir des détails sur ce processus dans VMware Validated Design..

  • Conservation du provisionnement des machines par Azure après la suppression d'un point de terminaison Azure
    Lorsque vous supprimez un point de terminaison Azure, les machines, les Blueprints et les réservations qui lui sont associés deviennent inactifs. Si vous souhaitez supprimer une machine virtuelle Azure avant de supprimer un point de terminaison Azure, supprimez-la manuellement à l'aide de la console vRealize Automation.

  • Sur un Mac, lorsque vous ouvrez une deuxième console VMware Remote Console pour une machine virtuelle unique, les deux consoles n'affichent rien.
    Vous pouvez ouvrir plusieurs consoles VMware Remote Console (VMRC) pour une machine virtuelle unique sur Windows, mais les sessions multiples ne sont pas prises en charge. Sur Windows, chaque console est un processus distinct. Sur Mac, chaque console tente d'afficher un seul processus..

    Solution : fermez toutes les instances de VMRC et ouvrez uniquement une console VMRC pour une machine.

  • Le reprovisionnement d'une machine virtuelle gérée sur vSphere 6.5 au cours d'un basculement de vCenter High Availability (VCHA) supprime définitivement la machine virtuelle.
    Si un nouveau provisionnement d'une machine virtuelle est en cours lors d'un basculement VCHA avec vSphere 6.5 sur le même point de terminaison vSphere, la machine virtuelle peut être détruite. Toutefois, cette situation est rare.

    Solution : demandez le Blueprint d'origine de la machine virtuelle détruite.

  • Une erreur relative aux informations d'identification vRealize Automation non valides s'affiche après un basculement vCenter High Availability (VCHA).
    À la suite d'un basculement VCHA sur un point de terminaison vSphere 6.5, les journaux vRealize Automation peuvent contenir le message d'erreur suivant pour ce point de terminaison : Cannot complete login due to an incorrect user name or password.

    Solution : redémarrez l'agent vCenter vRealize Automation.

  • Impossible de modifier la réservation d'une machine virtuelle lorsque le propriétaire est différent.
    Lorsque l'opération d'enregistrement est appelée sur une machine virtuelle IaaS gérée, la réservation utilisée doit appartenir au propriétaire actuel de la machine virtuelle. Seul le propriétaire actuel peut être spécifié pour le paramètre d'utilisateur. Si l'utilisateur spécifié n'est pas le propriétaire actuel, le système enregistre la machine virtuelle sous un propriétaire dans IaaS et sous un autre dans le catalogue.

    Solution : appliquez uniquement le workflow Modifier la réservation sur une machine virtuelle IaaS pour les réservations qui appartiennent au propriétaire actuel de la machine virtuelle.

  • Impossible de sélectionner des Blueprints pour l'importation en bloc des machines non gérées sur vRealize Automation 7.1 mises à niveau vers la version 7.2.
    IaaS transmet un ID de locataire en minuscule à l'API qui récupère des Blueprints pour l'importation en bloc, et non dans la casse présentée par le service d'autorisation. Si l'utilisateur crée un ID de locataire comprenant des caractères en majuscules et en minuscules (par exemple, Rainpole au lieu de rainpole), la recherche échoue.

    Solution : générez le fichier CSV sans nom de Blueprint ou composant, puis modifiez-le manuellement et ajoutez les valeurs souhaitées pour ces champs.

  • Les conteneurs imbriqués ne prennent pas en charge les réseaux.
    Vous ne pouvez pas ajouter de réseau à un conteneur imbriqué.

    Solution : ce problème sera résolu dans une version ultérieure.

  • Affichage incorrect du contenu d'une fenêtre après la connexion à une machine virtuelle sur vSphere 6.5 à l'aide de la console distante
    Lors de la connexion à une machine hébergée sur un point de terminaison vSphere 6.5 à l'aide de la console distante, un échec peut se produire ou la connexion peut être instable.

    Solution : connectez-vous à la machine concernée à l'aide de l'application cliente VMRC. Sélectionnez Se connecter à l'aide de VMRC.

  • Les points de terminaison vCloud Air nécessitent une correspondance entre le nom de l’organisation et le nom du vDC
    Pour les points de terminaison vCloud Air, le nom de l'organisation et le nom du vDC doivent être identiques pour une instance d'abonnement de vCloud Air.

  • Le remplacement des certificats échoue pour les déploiements à nœuds multiples.
    Lorsque vous remplacez les certificats dans un déploiement à nœuds multiples, le remplacement échoue si vous le lancez à partir de l’interface de gestion du dispositif virtuel sur une machine qui n’est pas le nœud master.

    Solution : initiez le remplacement des certificats uniquement à partir de l'interface de gestion du dispositif virtuel sur le nœud master du cluster.

Aide et documentation

Les éléments ou les corrections suivants n'ont pas pu être inclus dans la documentation de cette version.

Problèmes connus précédents

Afficher|Masquer

Les problèmes connus précédents sont classés comme suit :

Installation

  • vRealize Automation 7.1 ne prend pas en charge Microsoft SQL 2016 au mode 130
    La base de données Microsoft SQL 2016 créée pendant l'installation de l'assistant vRealize Automation est au mode 100. Si vous créez manuellement une base de données SQL 2016, elle doit également être au mode 100. Pour plus d'informations, reportez-vous à l'article Microsoft Conditions préalables requises, restrictions et recommandations pour les groupes de disponibilité Always On.

  • Les mises à jour de sécurité affectent le vérificateur de conditions préalables
    Dans cette version, le vérificateur de conditions préalables de l'assistant d'installation échoue en présence des mises à jour de sécurité Microsoft 3098779 et 3097997. Toutefois, le vérificateur de conditions préalables peut détecter les mises à jour et vous invite à les supprimer à l'aide de l'option Corriger. Ensuite, vous pouvez exécutez à nouveau normalement le vérificateur de conditions préalables.

    Solution : autorisez l'assistant d'installation à supprimer les mises à jour de sécurité afin que le vérificateur de conditions préalables fonctionne. Vous pouvez également supprimer manuellement les mises à jour. Après avoir terminé l'assistant, vous devez réinstaller manuellement les mises à jour 3098779 et 3097997.

  • Les mises à jour de sécurité affectent l'installation silencieuse
    Dans cette version, les mises à jour de sécurité Microsoft 3098779 et 3097997 empêchent la nouvelle fonctionnalité d'installation silencieuse de fonctionner correctement. Ces mises à jour sont les mêmes que celles qui affectent le vérificateur de conditions préalables de l'assistant d'installation.

    Solution : avant l'installation silencieuse, vous devez supprimer manuellement les mises à jour des serveurs Windows IaaS. Vous pouvez réinstaller manuellement les mises à jour 3098779 et 3097997 lorsque l'installation silencieuse est terminée.

  • La page du dispositif vRealize Automation ne se charge pas correctement
    Si vous utilisez Internet Explorer 11 sous Windows 2012 R2, la page de l'interface Web du dispositif vRealize Automation ne se charge pas correctement.

    Solution : utilisez un autre navigateur pour accéder à la page de l'interface Web de vRealize Automation.

Mise à niveau

  • Après l'installation de vRealize Automation 7.1 ou après la mise à niveau de vRealize Automation 7.0 vers la version 7.1, l'image d'arrière-plan personnalisée choisie de la page de connexion est manquante
    Les informations de personnalisation présentes dans vRealize Automation 7.0 sont manquantes sur la page de connexion du locataire après la mise à niveau vers vRealize Automation 7.1. Les informations de personnalisation spécifiées ne s'affichent pas dans la nouvelle installation de vRealize Automation 7.1.

    Solution : il n'existe pas de solution.

  • La migration de l'Active Directory natif échoue en renvoyant des erreurs
    À l'heure actuelle, l'utilitaire de migration SSO ne transfère pas d'Active Directory natif automatisé au cours du processus de migration de vRealize Automation.

    Solution : si vous configurez et lancez manuellement l'Active Directory natif, vous pouvez migrer Active Directory avec succès. Pour cela, vous devez auparavant terminer le processus de migration de vRealize Automation.

  • La migration du nœud IaaS de vRealize Automation 6.2.4 vers la version 7.1 échoue lorsque le nom de l'instance du serveur PostgreSQL contient des caractères non-ASCII

    Solution : utilisez la procédure Migration d'un environnement vRealize Automation avec une sauvegarde de base de données IaaS pour migrer votre environnement vRealize Automation 6.2.4 vers la version 7.1.

  • La configuration de Management Agent IaaS est corrompue après la mise à niveau de vRealize Automation 6.2.3 ou d'un environnement haute disponibilité antérieur vers la version 7.1
    Après la mise à niveau de vRealize Automation 6.2.2 vers la version 7.1, impossible de démarrer l'agent de gestion IaaS. Un message d'erreur signale qu'un ID de nœud est manquant dans le fichier de configuration de Management Agent.

    Solution : consultez l'article 2146550 de la base de connaissances.

  • Les actions de réduction de charge ou de montée en charge échouent dans un déploiement mis à niveau
    Les actions de réduction de charge ou de montée en charge ne sont pas prises en charge pour des déploiements avec importation en bloc ou les déploiements mis à niveau à partir de vRealize Automation 6.x.

    Solution : il n'existe pas de solution. Les nouveaux déploiements effectués à partir de Blueprints après une mise à niveau prennent en charge les actions de réduction de charge ou de montée en charge.

  • Lorsque vous vous connectez à la console de gestion du dispositif vRealize Automation, un message d'erreur s'affiche
    Après vous être connecté avec les informations d'identification correctes, vous recevez un message d'erreur indiquant « Réponse du serveur non valide. Veuillez réessayer. » Cela est dû à un problème avec le cache du navigateur.

    Solution : déconnectez-vous, effacez le cache de votre navigateur, puis reconnectez-vous.

  • Certains Blueprints ne peuvent pas être entièrement mis à niveau en raison d'erreurs rencontrées lors de la mise à jour des ressources de catalogue
    Les Blueprints multi-machine mis à niveau contenant des réseaux à la demande ou des paramètres d'équilibrage de charge peuvent ne pas être entièrement fonctionnels après la mise niveau vers vRealize Automation 7.x.

    Solution : après la mise à niveau, supprimez et recréez les déploiements associés aux Blueprints multi-machine. Toutes les tâches de nettoyage des périphériques NSX Edge associées doivent être effectuées dans NSX.

  • Lors d'une mise à niveau de vRealize Automation 6.2.0 vers la version 7.0, la mise à niveau de vPostgres échoue et un message d'erreur apparaît
    Si le système est associé à une base de données RPM corrompue, ce message d'erreur apparaît pendant l'opération de mise à niveau : Failed to install updates(Error while running pre-install scripts).

    Solution : pour obtenir des informations sur la récupération après une corruption de la base de données RPM, reportez-vous à l'article « Récupération de la base de données RPM » sur le site Web RPM RPM. Répétez la mise à niveau une fois le problème corrigé.

  • Lors de son exécution, l'outil de vérification des conditions préalables échoue et génère un avertissement sur RegistryKeyPermissionCheck, mais les instructions permettant de corriger l'erreur ne fonctionnent pas lors de l'installation
    L'outil de vérification des conditions préalables échoue, car il est sensible à la casse pour le nom d'utilisateur.

    Solution : remplacez temporairement l'utilisateur que vous avez spécifié pour exécuter le service de l'agent de gestion sur la machine Windows par un autre utilisateur, puis revenez à l'utilisateur d'origine en utilisant la casse appropriée au nom d'utilisateur.

  • Lors de la mise à niveau du service de gestionnaire et du système DEM Orchestrator, un message d'erreur lié à la validation du nom s'affiche et la validation de l'hôte Model Manager Web est impossible
    Le message d'erreur suivant s'affiche si le nom de l'équilibrage de charge est modifié dans le fichier ManagerService.exe.config :
    Distributed Execution Manager "NAME" Cannot be upgraded because it points to Management model web host "xxxx.xxxx.xxxx.net:443", which cannot be validated. You must resolve this error before running the upgrade again: Cannot validate Model Manager Web host. The remote certificate is invalid according to the validation procedure.

    Solution : apportez les modifications suivantes au fichier de configuration ManagerService.exe.config. L'emplacement par défaut est C:\Program Files (x86)\VMware\vCAC\Server\ManagerService.exe.config.
    Modifiez les valeurs de registre pour toutes les instances DEM. Par exemple, les deux instances DEM dans les entrées de registre suivantes doivent être mises à jour.

    [HKEY_LOCAL_MACHINE\SOFTWARE\Wow6432Node\VMware, Inc.\VMware vCloud Automation Center DEM\DemInstanceId02]
    "Name"="DEM"
    "Role"="Worker"
    "RepositoryAddress"="https://nom_hote:443/repository/"

    [HKEY_LOCAL_MACHINE\SOFTWARE\Wow6432Node\VMware, Inc.\VMware vCloud Automation Center DEM\DemInstanceId03]
    "Name"="DEO"
    "Role"="Orchestrator"
    "RepositoryAddress"="https://nom_hote:443/repository/"

Configuration et provisionnement

  • Dans un environnement haute disponibilité, Horizon ne parvient pas à effectuer l'authentification après un basculement

    Solution : après un basculement, redémarrez le dispositif vRealize Automation pour restaurer l'authentification.

  • Certains composants ne fonctionnent pas comme prévu si vous faites glisser un Blueprint interne existant vers un Blueprint externe actuel
    Les paramètres de composant varient selon les Blueprints sur lesquels se trouve le composant. Par exemple, si vous ajoutez des groupes de sécurité, des balises de sécurité ou des réseaux à la demande aux niveaux de Blueprint interne et externe, les paramètres du Blueprint externe remplacent ceux du Blueprint interne. Les composants réseau et sécurité sont uniquement pris en charge au niveau du Blueprint externe à l'exception des réseaux existants qui fonctionnent au niveau du Blueprint interne.

    Solution : ajoutez tous vos groupes de sécurité, balises de sécurité et réseaux à la demande uniquement au Blueprint externe.

  • Si vous créez un groupe de propriétés dont le nom de groupe contient un point, vous ne pouvez pas utiliser l'interface utilisateur vRealize Automation pour modifier le groupe
    Ce problème se produit si vous créez un groupe de propriétés dont le nom de groupe contient un point, par exemple property.group. Si vous utilisez l'interface utilisateur vRealize Automation pour modifier ce groupe de propriétés, une page vide apparaît. Vous pouvez utiliser l'API REST pour modifier ce groupe de propriétés.

    Solution : évitez d'utiliser un nom de groupe de propriétés contenant un point. Si vous ne pouvez pas faire autrement, utilisez l'API REST pour modifier le groupe.

  • La perte de communication entre IaaS et le catalogue de service commun lors du processus de destruction laisse la machine virtuelle dans un état d'élimination
    Si la communication est perdue entre IaaS et le catalogue de service commun lors de la demande de destruction mais avant la suppression de l'enregistrement de la machine virtuelle par vRealize Automation de la base de données, la machine reste dans un état d'élimination. Une fois la communication restaurée, la demande de destruction réussit ou échoue, mais la machine est encore visible. Bien que la machine soit supprimée du point de terminaison, le nom reste visible dans l'interface de gestion de vRealize Automation.

  • Lors de la modification du nom d'hôte du dispositif vRealize Automation, les services sont signalés comme étant indisponibles

    Solution : si un service est indisponible après la modification du nom d'hôte, redémarrez le serveur vRealize Automation.

  • Lorsque vous liez un compte de domaine de l'agent de gestion sur un système d'exploitation cloné Windows Server 2012 à un domaine, le compte de domaine de l'agent de gestion perd ses droits sur la clé privée du certificat de l'agent
    Lorsque vous utilisez un assistant de personnalisation pour cloner une machine dans vSphere appartenant à un domaine, la machine ne fait plus partie de ce domaine. Lorsque vous liez de nouveau la machine clonée au domaine, le message d'erreur suivant apparaît dans le journal de Management Agent : CryptographicException - Keyset does not exist.

    Solution : pour résoudre ce problème, utilisez la procédure suivante pour ouvrir et fermer les paramètres de sécurité pour la clé privée du certificat sans apporter de modification.

    1. Recherchez le certificat à l'aide du composant logiciel enfichable de certificats MMC (Microsoft Management Console). Le logiciel affiche l'ID de l'agent dans la zone de texte Nom convivial.
    2. Sélectionnez Toutes les tâches > Gérer les clés privées.
    3. Cliquez sur Avancé.
    4. Cliquez sur OK.

  • Le glissement d'un Blueprint interne existant sur un Blueprint externe actuel est limité
    Lorsque vous faites glisser un Blueprint interne existant sur un Blueprint externe actuel, les restrictions suivantes s'appliquent si le Blueprint interne inclut des machines jointes à des groupes de sécurité, des balises de sécurité ou des réseaux à la demande. Ce problème peut également se produire sur des Blueprints importés.
    • Le Blueprint externe ne peut pas contenir de Blueprint interne contenant des paramètres réseau ou des paramètres d'équilibrage de charge à la demande. L'utilisation d'un Blueprint interne contenant un composant réseau NSX ou un composant d'équilibrage de charge à la demande n'est pas disponible.
    • Lorsque vous ajoutez de nouveaux groupes de sécurité ou des groupes de sécurité supplémentaires à des machines dans le Blueprint interne, les machines sont reliées uniquement aux nouveaux groupes de sécurité qui sont ajoutés comme partie intégrante d'un Blueprint externe, même si la page de création de Blueprints montre les groupes de sécurité du Blueprint interne et externe.
    • Lorsque vous ajoutez de nouvelles balises de sécurité à des machines internes à partir d'un Blueprint externe, les balises de sécurité initialement associées au Blueprint interne ne sont plus disponibles.
    • Lorsque vous ajoutez de nouveaux réseaux à la demande à des machines internes à partir d'un Blueprint externe, les réseaux à la demande initialement associés au Blueprint interne ne sont plus disponibles. Les réseaux existants associés initialement dans le Blueprint interne sont toujours disponibles.

    Solution : vous pouvez résoudre ce problème en effectuant l'une des tâches suivantes :

    • Ajouter des groupes de sécurité, des balises ou des réseaux à la demande au Blueprint externe et non au Blueprint interne.
    • Ajouter des groupes de sécurité, des balises ou des réseaux existants au Blueprint interne et non au Blueprint externe.

  • Le menu Attribut de recherche d'annuaire dans la page Ajouter un annuaire contient des informations inexactes
    Certaines chaînes de code qui apparaissent en premier dans le menu Attribut de recherche d'annuaire sont inexactes.

    Solution : cliquez sur le menu déroulant Attribut de recherche d'annuaire pour afficher les chaînes de code exactes.

  • Une erreur Ressource introuvable se produit lors de la demande d'un élément de catalogue
    Lorsque vRealize Automation est en mode Haute disponibilité, si le nœud maître de base de données échoue et si aucun nouveau nœud maître n'est promu, tous les services qui nécessitent un accès en écriture à la base de données échouent ou deviennent temporairement endommagés jusqu'à ce qu'une nouvelle base de données maîtresse soit promue.

    Solution : vous ne pouvez pas éviter cette erreur lorsque la base de données maîtresse n'est pas disponible. Vous pouvez promouvoir une nouvelle base de données maîtresse de façon à supprimer cette erreur et à pouvoir demander des ressources.

  • Les modifications ne sont pas enregistrées dans la page Formulaire de Blueprint d'un Blueprint XaaS
    Si vous ne cliquez pas sur Appliquer après la mise à jour de chaque champ sur la page Formulaire de Blueprint d'un Blueprint XaaS, vos modifications ne sont pas enregistrées.

  • L'onglet Éléments n'affiche aucune information sur les services activés par un équilibrage de charge
    Pour les machines provisionnées à l'aide d'un équilibrage de charge associé à vCloud Networking and Security, l'onglet Éléments n'affiche aucune information sur les services activés pour cet équilibrage de charge.

  • Si une machine virtuelle est détruite au cours de l'opération de clonage vSphere, la tâche de clonage de machine en cours n'est pas annulée
    Ce problème peut entraîner le clonage de la machine. La machine virtuelle clonée peut être gérée dans vCenter et ne plus dépendre de la gestion de vRealize Automation.

  • Lorsque vous demandez un Blueprint composite, la demande échoue immédiatement et il est également impossible de charger le formulaire des détails de la demande
    Lorsque la valeur maximale du bail d'un Blueprint composant est inférieure à la valeur du bail du Blueprint externe, les demandes échouent instantanément et il est également impossible de charger le formulaire des détails de la demande.

  • Les déploiements ne peuvent pas comporter de liaisons vers des adresses IP DHCP dans les déploiements logiciels
    Si vous tentez d'en inclure, l'adresse ip_address n'est pas disponible s'il n'existe aucun profil réseau. Le message d'erreur suivant s'affiche : System error: Internal error in processing component request: com.vmware.vcac.platform.content.exceptions.EvaluationException: No data for field: ip_address.

    Solution : si une liaison est nécessaire, utilisez des adresses IP statiques, des adresses IP gérées par vRealize Automation dans le profil réseau ou une intégration IPAM. Si vous utilisez DHCP, il est conseillé de créer une liaison vers le nom d'hôte et non vers l'adresse IP.

    Le script suivant vous permet d'obtenir l'adresse IP d'une machine CentOS :
    IPv4_Address = $(hostname -I | sed -e 's/[[:space:]]$//')
    echo $IPv4_Address

    Effectuez la liaison avec la valeur fournie par ce script lorsque l'adresse IP est requise pour les cas d'utilisation DHCP.

  • L'annuaire est créé, même après la réception d'un message d'erreur.
    Lorsque vous créez un annuaire à partir du menu Administration > Gestion des magasins d'identités > Magasins d'identités, puis que vous cliquez sur Enregistrer, le message d'erreur suivant peut s'afficher : Connector communication failed because of invalid data. Problem promoting bind DN user to administrator: the user already exists and is associated with different sync client. Le nouveau magasin d'identités est enregistré avec une configuration incorrecte et ne peut pas être utilisé.
    Cette erreur se produit si vous tentez d'enregistrer un nouvel annuaire Active Directory avec les mêmes valeurs de nom unique de base et de nom unique de liaison déjà utilisées dans un annuaire Active Directory existant créé auparavant.

    Solution : supprimez manuellement le nouvel annuaire Active Directory, car sa configuration est incorrecte et un nom unique de liaison et un nom unique de base différents doivent être spécifiés.

  • Le nom de domaine est ajouté après le nom principal de l'utilisateur lorsque vous créez un répertoire contenant l'attribut de recherche d'annuaire UserPrincipalName
    Lorsque vous créez un nouveau répertoire et que vous sélectionnez l'attribut de recherche d'annuaire UserPrincipalName, le nom de domaine est ajouté après le nom principal de l'utilisateur. Par exemple, le nom d'utilisateur vRealize Automation d'un utilisateur avec le nom principal d'utilisateur user.domain@domain.local apparaît sous la forme user.domain@domain.local@domain.local. Ceci se produit lorsque le suffixe du nom principal de l'utilisateur est configuré en tant que domaine sur le site AD. Si le suffixe du nom principal de l'utilisateur est personnalisé, par exemple avec « example.com », le nom d'utilisateur vRealize Automation d'un utilisateur avec un nom principal d'utilisateur user.domain@example.com apparaît sous la forme user.domain@example.com@domain.local.
    Si l'attribut de recherche du répertoire UserPrincipalName est utilisé, les utilisateurs doivent saisir leur nom d'utilisateur exactement tel qu'il apparaît (user.domain@domain.local@domain.local), avec le domaine, pour se connecter à l'aide de l'API REST ou du client cloud.

    Solution : utilisez sAMAccountName au lieu d'UserPrincipalName pour utiliser la fonctionnalité d'unicité du domaine du nom d'utilisateur de la gestion des répertoires.

  • Une erreur 404 Not Found apparaît lors de la demande d'une machine pour le compte d'un autre utilisateur
    Si un Blueprint comprend un réseau NAT à la demande ou un composant d'équilibrage de charge à la demande, une erreur 404 Not Found apparaît lorsqu'un déploiement demandé pour le compte d'un autre utilisateur est effectué.

  • Les machines importées à l'aide des importations en bloc ne sont pas mappées sur le Blueprint convergé et le Blueprint du composant appropriés

    Solution : ajoutez la propriété personnalisée VMware.VirtualCenter.OperatingSystem de chaque machine dans le fichier CSV d'importation.

    Par exemple :
    Yes,NNNNP2-0105,8ba90c35-9e03-4ac4-8a5d-2e6d76f37b81,development-res,ce-san-1:custom-nfs-2,UNNAMED_DEPLOYMENT-0105,BulkImport,Imported_Machine,system_blueprint_vsphere,user.admin@sqa.local,VMWare.VirtualCenter.OperatingSystem,sles11_64Guest,NOP

  • Les actions de gestion de catalogue sont manquantes dans Mware vRealize Automation

    Solution : consultez l'article 2113027 de la base de connaissances.

  • Un Active Directory qui inclut plus de 15 groupes d'utilisateurs ne parvient pas à répertorier les groupes lors de la synchronisation.
    Si un Active Directory contient plus de 15 groupes et que vous tentez de le synchroniser dans l'interface de gestion de vRealize Automation à l'aide de Administration > Gestion des magasins d'identités > Magasins d'identité, seuls quelques groupes apparaissent.

    Solution : cliquez sur Sélectionner pour afficher la liste complète.

  • Après la promotion d'une instance de réplica en instance maîtresse, des informations incorrectes s'affichent dans l'onglet Base de données de l'interface de gestion des nœuds maîtres vRealize Automation
    En cas d'échec du nœud maître dans le dispositif vRealize Automation, utilisez l'interface de gestion des dispositifs vRealize Automation d'un autre nœud intègre pour effectuer les opérations de gestion de cluster.

  • Lors du déplacement d'une banque de données d'une instance de vSphere Storage DRS vers une autre, le système supprime une machine virtuelle au lieu d'en créer une
    Si vous déplacez une banque de données d'un cluster vSphere Storage DRS vers un autre et que le niveau d'automatisation du cluster cible n'est pas automatique, lors du reprovisionnement d'une machine créée, le système supprime cette dernière avec l'erreur suivante : StoragePlacement: datastore unspecified for disk in sdrs-disabled VM. Ce problème ne se produit pas si la machine virtuelle est clonée.

    Solution : vérifiez que le niveau d'automatisation du cluster cible est défini sur Automatique avant de déplacer une banque de données d'un cluster vSphere Storage DRS vers un autre. Seuls les déploiements impliquant une seule machine sont pris en charge.