Note di rilascio di vRealize Automation 7.2

|

Aggiornato il: 6 GIUGNO 2017

vRealize Automation | 22 NOV 2016 | Build 4660246

Verificare regolarmente la disponibilità di informazioni aggiuntive e aggiornamenti relativi a queste note di rilascio.

Contenuto del documento

Le note di rilascio riguardano i seguenti argomenti:

Novità

La release di vRealize Automation 7.2 include i problemi risolti e le nuove funzionalità specificate di seguito.

  • API avanzate per l'installazione, la configurazione e l'aggiornamento programmatico di vRealize Automation
  • Funzionalità di aggiornamento avanzata per l'automazione dell'aggiornamento a livello di sistema
  • Supporto LDAP per l'autenticazione e il Single Sign-On
  • Conformità a FIPS 140-2:
    • Conformità dell'interfaccia per consumatori/amministratori a FIPS 140-2
    • Gestione mediante la console di gestione dell'appliance vRealize Automation o l'interfaccia della riga di comando
    • FIPS disattivato per impostazione predefinita
  • Miglioramenti della migrazione:
    • Migrazione di vRealize Automation 6.2.x alla versione 7.2 gestita dall'interfaccia utente
    • Opzione di migrazione disponibile nella procedura guidata di distribuzione
    • Supporto avanzato per l'importazione dei carichi di lavoro di vCloud Director
  • Ottimizzazione dei permessi del servizio:
    • Casella di controllo per aggiungere tutti gli utenti a un permesso
    • Eliminazione dei permessi non attivi
  • Ampliamento delle funzionalità di estendibilità:
    • Molti nuovi argomenti sui gestori di eventi per casi d'uso dell'estendibilità avanzata
    • Granularità delle sottoscrizioni per singoli componenti, elementi del catalogo, azioni dei componenti, contenitori o distribuzioni
    • Uso dell'estendibilità con le nuove funzionalità di gestione dei contenitori
    • Servizi XaaS personalizzati di scalabilità orizzontale/verticale e applicazioni che includono oggetti XaaS
  • Miglioramenti dei servizi di rete:
    • Supporto del framework IPAM per reti NSX instradate su richiesta
    • Nuovi profili di rete per supportare ulteriori casi d'uso di IPAM
    • Configurazione di criteri di bilanciamento del carico per il bilanciamento del carico NSX su richiesta nel blueprint (round-robin, IP-Hash, Leastconn)
    • Configurazione dell'URL del monitoraggio del servizio per HTTP/HTTPS
  • Gestione dei contenitori:
    • Motore di gestione dei contenitori integrato per distribuire e gestire contenitori e host di contenitori Docker
    • Creazione di applicazioni ibride che includono contenitori e sistemi operativi tradizionali
    • Nuovi ruoli di amministrazione e definizione dell'architettura dei contenitori
    • Rilevamento automatico di host di contenitori di cui è stato eseguito il provisioning
    • Versione minima supportata di Docker: 1.9.0
    • Utilizzo di Docker 1.11+ necessario se per i contenitori di cluster in reti definite dall'utente è obbligatorio il bilanciamento del carico integrato del Docker
  • Endpoint di Azure per il provisioning e la gestione del servizio cloud ibrido:
    • Creazione, consegna e gestione senza problemi di macchine Azure con vRealize Automation
    • Supporto per i servizi di rete Azure
  • Integrazione con ServiceNow:
    • Esposizione automatica degli elementi del catalogo di vRealize Automation permessi nel portale ServiceNow utilizzando il plug-in disponibile in VMware Solution Exchange
  • Docker:
    • Versione minima supportata di Docker: 1.9.0
    • Utilizzo di Docker 1.11+ necessario se per i contenitori di cluster in reti definite dall'utente è obbligatorio il bilanciamento del carico integrato del Docker

Requisiti di sistema

Per informazioni su sistemi operativi host, database e server Web supportati, consultare la Matrice di supporto di vRealize Automation.

Installazione

Per i prerequisiti e le istruzioni di installazione, consultare la guida all'installazione di vRealize Automation.

Prima dell'aggiornamento

Le nuove funzionalità di vRealize Automation introducono diversi miglioramenti, oltre alla possibilità di eseguire aggiornamenti o migrazioni alla nuova versione. Per consigli e istruzioni prima dell'inizio della procedura di aggiornamento, visitare la pagina Web di assistenza all'aggiornamento di vRealize Automation.

A iniziare da vRealize Automation 7.2, JFrog Artifactory Pro non viene più fornito nel pacchetto con l'appliance vRealize Automation. L'aggiornamento da una versione precedente di vRealize Automation comporta la rimozione di JFrog Artifactory Pro. Per ulteriori informazioni, consultare l'articolo 2147237 della Knowledge Base.

Problemi risolti

  • Quando si cambia il nome host con un nome diverso dopo l'inizializzazione della connessione ad Active Directory, il connettore di Active Directory diventa inutilizzabile e l'istanza di Active Directory viene interrotta. Il problema è stato risolto.

  • L'opzione di eliminazione del bilanciamento del carico VMware NSX viene visualizzata come azione permessa o come opzione dei criteri di approvazione. Il problema è stato risolto.

  • Dopo una nuova installazione, il nodo appliance master non vede lo stato del nodo appliance di replica. Il problema è stato risolto.

  • Un problema che consentiva l'estensione indefinita di un lease è stato risolto. Il lease ora può essere esteso in base al valore (data corrente + lease massimo consentito).

  • Java Runtime Environment (JRE) è stato aggiornato in modo da includere l'aggiornamento patch critico di Oracle di ottobre 2016. Jdk-1.8.0_102 è stato aggiornato a jdk-1.8.0_112.

  • La scalabilità orizzontale/verticale non riesce in una distribuzione 6.x aggiornata e nelle distribuzioni importate in massa.

  • L'argomento Download degli aggiornamenti dell'appliance vRealize Automation da un repository VMware dell'aggiornamento contiene un prerequisito che fa riferimento a vRealize Automation 6.2.4 o 6.2.5 in modo non corretto

Problemi noti

Installazione

  • Nuovo Il comando vcac-config non viene eseguito correttamente quando un parametro inizia con il simbolo @
    Accedere come utente root alla console dell'appliance vRealize Automation ed eseguire il comando vcac-config per riprodurre un errore simile a quello illustrato nell'esempio seguente.

    /usr/sbin/vcac-config prop-util -e --p '@Follow123'
    Impossibile leggere il file Follow123: java.io.FileNotFoundException: Follow123 (Il file o la directory non esiste)

    Il problema si verifica perché il comando vcac-config non può accettare un parametro che inizia con il simbolo @. Ad esempio, un nome o una password che inizia con il simbolo @ causa l'errore.

    Soluzione: Nessuno. Non immettere parametri vcac-config che iniziano con il simbolo @.

  • La configurazione del database non riesce durante una nuova installazione di vRealize Automation 7.2 nella versione di Windows in lingua turca
    Se il server IaaS è la versione di Windows in lingua turca, l'installazione guidata di vRealize Automation si interrompe durante la configurazione del database e visualizza questo messaggio di errore: MSB3073.

    Soluzione: si prevede che questo problema verrà risolto in una release futura.

  • Il processo iniziale di creazione del contenuto non riesce durante questa fase dell'installazione: Eseguire flusso di lavoro per creare utente amministratore della configurazione
    In /var/log/messages esistono due diverse esecuzioni del processo di creazione dell'utente "configurationadmin" (l'esecuzione è simultanea, il numero dopo va-agent.py indica che i processi sono diversi): /usr/lib/vcac/agent/va-agent.py[18405]: info Executing vRO workflow for creating configurationadmin user... ... /usr/lib/vcac/agent/va-agent.py[18683]: info Executing vRO workflow for creating configurationadmin user... La prima chiamata crea l'utente amministratore della configurazione e la seconda causa l'errore.

    Soluzione: il processo iniziale di creazione del contenuto può essere ripreso eseguendo i due comandi seguenti dall'appliance primaria. I parametri sono auto-descrittivi:

    /usr/sbin/vra-command execute --node ${NODE_ID} import-asd-blueprint --ConfigurationAdminUser configurationadmin --ConfigurationAdminPassword "${CONFIGURION_ADMINISTRATOR_PASSWORD}" --DefaultTenant "${SSO_TENANT}" /usr/sbin/vra-command execute --node ${NODE_ID} execute-vro-initial-configuration-service --VidmAdminUser "${HORIZONUSER}" --VidmAdminPassword "${HORIZONPASS}" --ConfigurationAdminPassword "${CONFIGURATION_ADMINISTRATOR_PASSWORD}" --DefaultTenant "${SSO_TENANT}"

    Per ottenere il valore NODE_ID eseguire: vra-command list-nodes per individuare l'ID del nodo dell'appliance virtuale primaria.

Aggiornamento

  • Non è possibile eseguire la migrazione da vRealize Automation 6.x alla versione 7.2 se nell'ambiente di destinazione 7.2 è impostato come predefinito un diverso gruppo di amministratori di vRealize Orchestrator
    Il gruppo amministratori predefinito di vRealize Orchestrator, vsphere.local/vcoadmin, non deve essere modificato nel centro di controllo di vRealize Orchestrator prima della migrazione.

    Soluzione: vedere l'articolo 2148669 della Knowledge Base.

  • Il client STOMP non è in grado di stabilire la connessione dopo l'aggiornamento di tcServer alla versione 3.2
    In vRealize Automation 7.2, il servizio di gestione IaaS supporta solo il polling REST come meccanismo di connessione durante la comunicazione con il servizio del gestore degli eventi. L'impostazione di configurazione Extensibility.Client.RetrievalMethod viene ignorata.

  • Impossibile avviare il programma di installazione IaaS
    Non risulta possibile avviare il programma di installazione IaaS e viene visualizzato questo messaggio: “A newer version of the product is already installed on this machine." (Su questa macchina è già installata una versione più recente del prodotto). Questo problema si verifica quando il pacchetto MSI del programma di installazione IaaS non riesce ad avviarsi dopo che l'agente di gestione IaaS è stato aggiornato manualmente alla versione più recente disponibile.
    Sintomi:

    • Se si aggiorna manualmente l'agente di gestione IaaS di vRealize Automation 7.2 all'ultima versione disponibile su VMware Downloads
    • Se si verifica un errore all'avvio del programma di installazione IaaS dopo l'aggiornamento a vRealize Automation 7.2 con lo script di shell dell'aggiornamento IaaS.
    • Dopo l'aggiornamento a vRealize Automation 7.2, la versione meno recente dell'agente di gestione IaaS risulta la versione più recente rispetto agli altri componenti IaaS nella scheda relativa ai cluster all'interno della pagina di gestione dell'appliance.

    Soluzione: vedere l'articolo 2148278 della Knowledge Base.

  • Se si utilizza il nuovo script di shell dell'aggiornamento in vRealize Automation 7.2, è necessario eseguire prima l'aggiornamento all'agente di gestione più recente
    Se si prevede di eseguire un aggiornamento automatico dei componenti IaaS con il nuovo script di shell dell'aggiornamento, è necessario utilizzare l'agente di gestione più recente disponibile per il download. Non utilizzare l'agente di gestione incluso nell'appliance virtuale di vRealize Automation 7.2.

    Soluzione: Vedere l'articolo 2147926 della Knowledge Base.

  • Se la telemetria è disattivata prima dell'esecuzione dell'aggiornamento di vRealize Automation da 6.2.4 o 6.2.5 a 7.2, la scheda della telemetria nella console di gestione dell'appliance vRealize Automation può visualizzare un errore
    Dopo l'aggiornamento è possibile che venga visualizzato questo messaggio: Errore: Impossibile determinare runtime successivo. Riattivare o disattivare la telemetria. Questo messaggio viene visualizzato perché non vengono raccolti dati di telemetria. Il sistema non è quindi in grado di determinare un orario appropriato per la prossima esecuzione. In questo caso non possono essere utilizzate funzioni di telemetria.

    Soluzione: scegliere di attivare o disattivare la telemetria mediante la casella di controllo che consente di partecipare al programma VMware per il miglioramento dell'esperienza dei clienti e fare clic su Salva impostazioni.

Configurazione e provisioning

  • Il provisioning della macchina virtuale Azure non riesce se il nome del gruppo di risorse contiene caratteri non ASCII

    Soluzione: Non utilizzare caratteri non ascii nel nome del gruppo di risorse.

  • La raccolta dei dati sullo stato restituisce solo l'IP primario
    Questo comportamento può influire sulla possibilità di utilizzare Connessione con RDP e Connessione con SSH, nonché di registrare una macchina virtuale come host contenitore nel servizio del contenitore e in altri servizi che accedono a una macchina virtuale utilizzando l'indirizzo IP della macchina virtuale stessa.

    Soluzione: si prevede che questo problema verrà risolto in una release futura.

  • Durante i test di integrazione dei servizi di rete viene visualizzato un messaggio di errore che indica che è impossibile analizzare la richiesta del pool dello spazio indirizzi "" pool "" subpool ""
    I test di integrazione dei servizi di rete hanno esito negativo e nel registro viene visualizzato un messaggio di questo tipo. Si tratta di un problema noto di Docker: https://github.com/docker/libnetwork/issues/1101. La causa principale è che alcune reti non vengono rilasciate correttamente e Docker può raggiungere il numero massimo di reti consentite.

    Soluzione: eliminare contenitori e reti.

    1. Interrompere il daemon di Docker.
      sudo systemctl stop docker.service
    2. Eliminare contenitori e reti.
      sudo rm /var/lib/docker/network/files/local-kv.db; sudo rm /var/lib/docker/containers
    3. Avviare il daemon di Docker.
      sudo systemctl start docker.service

  • In alcuni casi i test di integrazione hanno esito negativo e viene visualizzato il seguente messaggio di errore: The name "/container-name" is already used by container <hash>
    Si tratta di un problema noto di Docker:https://github.com/docker/docker/issues/23371. Quando si verifica questo errore, viene visualizzata la seguente analisi dello stack:

    java.lang.IllegalStateException: Failed with Error waiting for /requests/<hash> to transition to COMPLETED. Failure: failure: Service https://dockerhost/v1.19/containers/create?name=<container-name> returned error 409 for POST. id <id>; Reason: Conflict. The name "/<container-name>" is already in use by container <hash>. You must remove (or rename) that container to be able to reuse that name.

    Soluzione: riavviare i test. Se il contenitore che ha generato l'errore è l'agente, è necessario eliminare contenitori e reti.

    1. Interrompere il daemon di Docker.
      sudo systemctl stop docker.service
    2. Eliminare contenitori e reti.
      sudo rm /var/lib/docker/network/files/local-kv.db; sudo rm /var/lib/docker/containers
    3. Avviare il daemon di Docker.
      sudo systemctl start docker.service

  • In un'installazione in cluster è possibile che sia necessario attendere un po' di tempo prima che la modifica della zona di posizionamento per un host venga riportata nell'interfaccia utente
    Quando la zona di posizionamento di un host in un'installazione in cluster viene modificata, la nuova e la vecchia zona possono apparire nell'elenco degli host, anche se l'host viene immediatamente assegnato alla nuova zona di posizionamento e la vecchia zona non viene utilizzata. Questo succede solo in un'installazione di cluster e interessa solo l'interfaccia utente.

    Soluzione: attendere cinque minuti che l'interfaccia utente venga aggiornata.

  • Potrebbe non essere possibile scalare orizzontalmente i contenitori Docker con collegamenti al servizio. In questo caso, un messaggio di errore indica che il provisioning per il contenitore X non è riuscito e che Docker ha restituito l'errore 500 per POST
    La distribuzione di un modello che include più contenitori con collegamenti per attivare la comunicazione tra più servizi, ma non include nessuna rete esplicita configurata per la connessione dei contenitori, causa il provisioning di tutti i contenitori nello stesso host.

    Soluzione: : modificare il modello per aggiungere una nuova rete su richiesta e connettere tutti i contenitori alla rete. Questo assicura che venga eseguito il provisioning di tutti i contenitori scalati orizzontalmente ovunque sia disponibile la rete su richiesta e quindi che tutti i contenitori si vedano tra loro.

  • Le reti rilevate possono visualizzare un numero non corretto di contenitori connessi
    Se si fa clic sul numero di contenitori visualizzati in ogni rete, l'elenco dei contenitori può essere più breve del previsto.

    Soluzione: Nessuno.

  • Il messaggio di errore interno viene visualizzato quando si aggiunge una macchina Azure a un blueprint nella scheda Progettazione
    Quando si utilizza un server vRealize Orchestrator esterno con vRealize Automation, l'integrazione con Microsoft Azure non è disponibile.

    Soluzione: esportare il plug-in e il pacchetto di Azure dal vRealize Orchestrator interno alla propria appliance virtuale di vRealize Automation, quindi installare o importare il plug-in e il pacchetto nel proprio vRealize Orchestrator esterno. Dopo aver installato il plug-in di Azure o aver importato il pacchetto di Azure nel proprio vRealize Orchestrator esterno, Microsoft Azure è supportato nell'ambiente vRealize Automation.

    1. Accedere al centro di controllo di vRealize Orchestrator per il vRealize Orchestrator interno sull'appliance virtuale di vRealize Automation. Per le istruzioni vedere Accesso all'interfaccia di configurazione di vRealize Orchestrator.
    2. In Plug-In (Plug-in), fare clic su Manage Plug-Ins (Gestisci plug-in).
    3. Trovare il plug-in di Azure, quindi fare clic con il pulsante destro del mouse su Download plug-in in DAR file (Scarica plug-in in file DAR). Salvare il file sul desktop.
    4. Accedere al centro di controllo di vRealize Orchestrator per il vRealize Orchestrator esterno. Per le istruzioni vedere Accesso all'interfaccia di configurazione di vRealize Orchestrator.
    5. In Plug-In (Plug-in), fare clic su Manage Plug-Ins (Gestisci plug-in).
    6. In Install plug-in (Installa plug-in), fare clic su Sfoglia e individuare il file DAR di Azure che è stato scaricato sul desktop.
    7. Fare clic su Installa. Se viene richiesto di confermare, fare di nuovo clic su Installa.
    8. Nel centro di controllo, in Startup-Options (Opzioni di avvio), fare clic su Riavvia per concludere l'installazione del nuovo plug-in.
    9. Riavviare contemporaneamente tutte le appliance virtuali di vRealize Automation.
      La funzionalità d'integrazione con Microsoft Azure deve essere ripristinata.

    Se l'integrazione non funziona correttamente dopo il riavvio, verificare che il pacchetto di Azure, com.vmware.vra.endpoint.azure, sia presente nel vRealize Orchestrator esterno. Se il pacchetto di Azure è assente, completare la seguente procedura.
    1. Accedere al proprio client interno di vRealize Orchestrator sull'appliance virtuale di vRealize Automation.
    2. Esportare il pacchetto di Azure, com.vmware.vra.endpoint.azure. Per le istruzioni, vedere Esportazione di un pacchetto.
    3. Accedere al client di vRealize Orchestrator per il proprio vRealize Orchestrator esterno.
    4. Importare il pacchetto di Azure, com.vmware.vra.endpoint.azure, nel proprio vRealize Orchestrator esterno. Per le istruzioni, vedere Importazione di un pacchetto.

  • Le richieste simultanee del catalogo XaaS che richiamano la macchina virtuale clone e l'assenza di workflow di personalizzazione con 30 utenti impediscono l'esecuzione di alcune richieste
    Quando vengono richiesti i blueprint XaaS che invocano i workflow di vRealize Orchestrator per svolgere alcune operazioni su endpoint lenti ad alta concorrenza, alcune richieste potrebbero non riuscire generando l'errore java.net.SocketTimeoutException: Timeout di lettura. I workflow di vRealize Orchestrator possono essere riattivati più volte a seguito del timeout delle richieste.

    Soluzione: eseguire questa procedura su ogni nodo dell'appliance vRealize Automation. Il file vcac.properties non viene conservato in caso di aggiornamento. È necessario ripetere questi passaggi dopo l'aggiornamento.

    1. Aprire una sessione SSH sull'appliance vRealize Automation.
    2. Modificare /etc/vcac/vcac.properties per aumentare il timeout del client a 10 minuti, aggiungendo al file la riga seguente: vco.socket.timeout.millis=600000
    3. Nel prompt dei comandi, eseguire questo comando per riavviare il servizio vcac-server: service vcac-server restart

  • La raccolta dei dati dell'inventario si arresta durante un failover di vCenter Server HA (VCHA)
    In casi rari, gli elementi di lavoro possono bloccarsi durante il failover di un VCHA per un endpoint vSphere 6.5 gestito.

    Soluzione: riavviare l'agente vSphere di vRealize Automation. Se la raccolta dei dati continua a bloccarsi, contattare GSS.

  • Le distribuzioni di blueprint di vRealize Automation che includono gli oggetti NSX non vengono eseguite quando si esegue il provisioning a un cluster in cui il gestore NSX svolge il ruolo secondario
    In una distribuzione vCenter incrociata di NSX, occorre eseguire il provisioning degli oggetti universali NSX, come i gateway edge, i nuovi cavi virtuali e il bilanciamento del carico, utilizzando il gestore NSX che ha il ruolo primario. Se si tenta di eseguire il provisioning di oggetti universali in un NSX Manager secondario, il processo può interrompersi con un errore. vRealize Automation non supporta il provisioning degli oggetti universali NSX in un endpoint di vSphere con integrazione di rete e sicurezza dove l'NSX Manager specificato svolge il ruolo secondario.

    Soluzione: per poter utilizzare gli oggetti globali NSX, è necessario creare i cavi virtuali e di zona di trasporto locale NSX specifici della regione. Leggere l'articolo VMware KB 2147240 per dettagli su questo processo in VMware Validated Design.

  • Le macchine di cui è stato eseguito il provisioning per Azure rimangono dopo l'eliminazione di un endpoint di Azure
    L'eliminazione di un endpoint di Azure tralascia macchine, blueprint e prenotazioni isolate. Se si desidera eliminare una determinata macchina virtuale Azure prima di eliminare un endpoint di Azure, eliminarla manualmente utilizzandola console di vRealize Automation.

  • In un Mac, quando si apre una seconda istanza di VMware Remote Console per una singola macchina virtuale, entrambe le console sono vuote
    Anche se è possibile aprire più di un'istanza di VMware Remote Console (VMRC) per una singola macchina virtuale su Windows, VMRC non supporta più sessioni. In Windows ogni console è un processo separato; in un Mac ogni console tenta di visualizzare un singolo processo..

    Soluzione: chiudere tutte le istanze di VMRC e aprire una sola istanza di VMRC per una determinata macchina.

  • Rieseguire il provisioning di una macchina virtuale gestita in vSphere 6.5 durante un failover di vCenter High Availability (VCHA) causa l'eliminazione permanente della macchina virtuale
    Durante un failover di VCHA con vSphere 6.5, se è in corso una nuova esecuzione del provisioning con una macchina virtuale nello stesso endpoint di vSphere, la macchina virtuale può essere eliminata. È un evento che si verifica raramente.

    Soluzione: richiedere il blueprint originale per la macchina virtuale eliminata.

  • Viene visualizzato un errore di credenziali non valide per vRealize Automation dopo un failover di vCenter High Availability (VCHA)
    Dopo un failover di VCHA in un endpoint di vSphere 6.5 gestito, i registri di vRealize Automation possono contenere questo messaggio di errore per l'endpoint: Cannot complete login due to an incorrect user name or password.

    Soluzione: riavviare l'agente vCenter di vRealize Automation.

  • La modifica della prenotazione di una macchina virtuale non funziona quando il proprietario è diverso
    Quando l'operazione di registrazione viene invocata in una macchina virtuale IaaS gestita, la prenotazione utilizzata deve appartenere all'attuale proprietario della macchina virtuale. Solo l'attuale proprietario può essere specificato come parametro utente. Se viene specificato un utente che non è l'attuale proprietario, il sistema registra la macchina virtuale come appartenente a un proprietario in IaaS e a un altro proprietario nel catalogo.

    Soluzione: usare solo il flusso di lavoro Change reservation to an IaaS Virtual Machine (Cambia prenotazione in macchina virtuale IaaS) per le prenotazioni che appartengono all'attuale proprietario della macchina virtuale.

  • Impossibile selezionare blueprint per l'importazione in massa di macchine non gestite in vRealize Automation 7.1 aggiornato alla versione 7.2
    IaaS trasmette all'API che recupera i blueprint per l'importazione in massa un ID tenant con caratteri minuscoli anziché con i caratteri indicati dal servizio di autorizzazione. Se l'utente crea un ID tenant che alterna caratteri maiuscoli e minuscoli, ad esempio Rainpole anziché rainpole, la ricerca non riesce.

    Soluzione: generare il file CSV senza nome di blueprint o componente e modificare manualmente il file CSV utilizzando i valori desiderati per quei campi.

  • I contenitori nidificati non supportano le reti
    Non è possibile aggiungere una rete a un contenitore nidificato.

    Soluzione: si prevede che questo problema verrà risolto in una release futura.

  • Il contenuto della finestra non viene visualizzato correttamente dopo la connessione a una macchina virtuale in vSphere 6.5 utilizzando la console remota
    Quando si esegue la connessione a una macchina ospitata in un endpoint di vSphere 6.5 utilizzando la console remota, la connessione può non riuscire o essere inutilizzabile.

    Soluzione: connettersi alla macchina interessata utilizzando l'applicazione client VMRC. Selezionare Connetti utilizzando VMRC.

  • Gli endpoint vCloud Air richiedono la corrispondenza tra il nome dell'organizzazione e il nome del vDC
    Per gli endpoint vCloud Air, il nome dell'organizzazione e il nome del vDC devono essere identici per un'istanza di sottoscrizione di vCloud Air.

  • La sostituzione dei certificati non riesce per le distribuzioni a più nodi
    L'operazione di sostituzione dei certificati in una distribuzione a più nodi non riesce se viene avviata dall'interfaccia di gestione dell'appliance virtuale su una macchina che non rappresenta il nodo master.

    Soluzione: avviare la sostituzione del certificato solo dall'interfaccia di gestione dell'appliance virtuale nel nodo master del cluster.

Documentazione e guida

Le informazioni e le rettifiche riportate qui di seguito non sono incluse nella documentazione relativa a questa versione.

Problemi noti precedenti

Mostra|Nascondi

I problemi noti sono raggruppati nelle seguenti categorie:

Installazione

  • vRealize Automation 7.1 non supporta Microsoft SQL 2016 modalità 130
    Il database Microsoft SQL 2016 creato durante l'installazione guidata di vRealize Automation è nella modalità 100. Anche il database SQL 2016 creato manualmente deve essere nella modalità 100. Per ulteriori informazioni, vedere l'articolo di Microsoft sui Prerequisiti, restrizioni e consigli per i gruppi di disponibilità AlwaysOn.

  • Gli aggiornamenti di sicurezza influiscono su Controllo prerequisiti
    In questa rilascio, Controllo prerequisiti dell'installazione guidata non riesce quando sono presenti gli aggiornamenti di sicurezza 3098779 e 3097997 di Microsoft. Tuttavia, Controllo prerequisiti può rilevare gli aggiornamenti e richiedere di rimuoverli utilizzando l'opzione Correggi. Successivamente, è possibile eseguire nuovamente Controllo prerequisiti.

    Soluzione: consentire all'installazione guidata di rimuovere gli aggiornamenti di sicurezza affinché Controllo prerequisiti venga eseguito correttamente. In alternativa, è possibile rimuovere gli aggiornamenti manualmente. Una volta completata la procedura guidata, è possibile reinstallare manualmente gli aggiornamenti 3098779 e 3097997.

  • Gli aggiornamenti di sicurezza influiscono sull'installazione invisibile all'utente
    In questo rilascio, gli aggiornamenti di sicurezza 3098779 e 3097997 di Microsoft impediscono la corretta esecuzione della nuova funzionalità di installazione invisibile all'utente. Gli aggiornamenti sono gli stessi che influiscono su Controllo prerequisiti dell'installazione guidata.

    Soluzione: prima di procedere con l'installazione invisibile all'utente, è necessario rimuovere manualmente gli aggiornamenti dai server Windows IaaS. È possibile reinstallare manualmente gli aggiornamenti 3098779 e 3097997 al termine dell'installazione invisibile all'utente.

  • La pagina dell'appliance vRealize Automation non viene caricata correttamente
    Quando si utilizza Internet Explorer 11 in Windows 2012 R2, la pagina dell'interfaccia Web dell'appliance vRealize Automation non viene caricata correttamente.

    Soluzione: utilizzare un browser alternativo per accedere alla pagina dell'interfaccia Web di vRealize Automation.

Aggiornamento

  • Dopo l'installazione di vRealize Automation 7.1 o l'aggiornamento da vRealize Automation 7.0 a 7.1, l'immagine di sfondo personalizzata prescelta nella pagina di accesso non sarà più disponibile.
    Il branding personalizzato presente in vRealize Automation 7.0 non sarà più disponibile nella pagina di accesso tenant dopo l'aggiornamento a vRealize Automation 7.1. Il branding personalizzato specificato non viene visualizzato in una nuova installazione di vRealize Automation 7.1.

    Soluzione: non c'è soluzione.

  • La migrazione di un'istanza di Active Directory nativa non riesce e restituisce degli errori
    Al momento, l'utilità di migrazione SSO non trasferisce l'istanza di Active Directory nativa automatizzata durante il processo di migrazione di vRealize Automation.

    Soluzione: se l'istanza di Active Directory nativa viene configurata e avviata manualmente, è possibile effettuare correttamente la migrazione. Questa operazione va eseguita una volta completato il processo di migrazione di vRealize Automation.

  • La migrazione del nodo IaaS da vRealize Automation 6.2.4 alla versione 7.1 non riesce quando il nome dell'istanza del server PostgreSQL contiene caratteri non ASCII

    Soluzione: utilizzare la procedura di migrazione di un ambiente vRealize Automation con un backup del database IaaS per migrare dall'ambiente di vRealize Automation 6.2.4 a 7.1.

  • La configurazione dell'agente di gestione IaaS risulta danneggiata dopo l'aggiornamento da vRealize Automation 6.2.3 o da un ambiente High Availability precedente alla versione 7.1
    Dopo l'aggiornamento da vRealize Automation 6.2.2 alla versione 7.1, non è possibile avviare l'agente di gestione IaaS. In un messaggio di errore viene indicato l'ID di un nodo assente nel file di configurazione dell'agente di gestione.

    Soluzione: Vedere l'articolo 2146550 della Knowledge Base.

  • Le azioni di scalabilità verticale o scalabilità orizzontale non riescono in una distribuzione aggiornata
    Le azioni di scalabilità verticale e scalabilità orizzontale non sono supportate per le distribuzioni con importazione di massa o le distribuzioni aggiornate da vRealize Automation 6.x.

    Soluzione: non c'è soluzione. Le nuove distribuzioni effettuate da blueprint dopo l'aggiornamento supportano le azioni di scalabilità verticale e scalabilità orizzontale.

  • Quando si accede alla console di gestione dell'appliance vRealize Automation, viene visualizzato un messaggio di errore
    Dopo aver eseguito l'accesso con le credenziali appropriate, si riceve il seguente messaggio di errore: "Risposta del server non valida. Riprovare." Ciò è causato da un problema con la cache del browser.

    Soluzione: eseguire la disconnessione, cancellare la cache del browser e accedere nuovamente.

  • Alcuni blueprint non possono essere aggiornati completamente a causa di problemi nell'aggiornamento delle risorse del catalogo
    I blueprint di più macchine aggiornati che contengono reti su richiesta o impostazioni di bilanciamento del carico potrebbero non essere completamente funzionali dopo l'aggiornamento a vRealize Automation 7.x.

    Soluzione: dopo aver effettuato l'aggiornamento, eliminare e ricreare le distribuzioni associate ai blueprint di più macchine. Tutto il lavoro di pulitura di NSX Edge associato deve essere eseguito in NSX.

  • Quando si esegue l'aggiornamento da vRealize Automation 6.2.0 a 7.0, l'aggiornamento di vPostgres non riesce e viene visualizzato un messaggio di errore
    Se il sistema ha un database RPM danneggiato, durante il processo di aggiornamento viene visualizzato il seguente messaggio di errore: Installazione aggiornamenti non riuscita (errore durante l'esecuzione degli script di pre-installazione).

    Soluzione: per informazioni su come eseguire il ripristino a seguito della corruzione di un database RPM, consultare l'articolo "RPM Database Recovery" disponibile sul sito Web di RPM. Dopo aver risolto il problema, eseguire nuovamente l'aggiornamento.

  • Quando si esegue Controllo prerequisiti, il controllo non riesce e viene visualizzato un avviso relativo a RegistryKeyPermissionCheck, ma le istruzioni per la correzione dell'errore non funzionano durante l'installazione
    Controllo prerequisiti non riesce perché fa distinzione tra lettere maiuscole e minuscole per il nome dell'utente.

    Soluzione: cambiare temporaneamente l'utente specificato per eseguire il servizio agente di gestione sulla macchina Windows con un altro utente, poi tornare all'utente originario immettendo correttamente le maiuscole e minuscole del nome utente.

  • Quando si effettua l'aggiornamento di Servizio gestione e del sistema DEM Orchestrator, viene visualizzato un messaggio di errore di convalida del nome e l'host Model Manager Web non può essere convalidato
    Se il nome del bilanciamento del carico viene modificato nel file ManagerService.exe.config, viene visualizzato il seguente errore:
    Distributed Execution Manager "NAME" Cannot be upgraded because it points to Management model web host "xxxx.xxxx.xxxx.net:443", which cannot be validated. You must resolve this error before running the upgrade again: Cannot validate Model Manager Web host. The remote certificate is invalid according to the validation procedure.

    Soluzione: apportare le seguenti modifiche nel file di configurazione ManagerService.exe.config. Il percorso predefinito è C:\Programmi (x86)\VMware\vCAC\Server\ManagerService.exe.config.
    Cambiare i valori di registro per tutte le istanze di DEM. Ad esempio, le istanze DEM nelle seguenti voci di registro devono essere entrambe aggiornate.

    [HKEY_LOCAL_MACHINE\SOFTWARE\Wow6432Node\VMware, Inc.\VMware vCloud Automation Center DEM\DemInstanceId02]
    "Name"="DEM"
    "Role"="Worker"
    "RepositoryAddress"="https://host_name:443/repository/"

    [HKEY_LOCAL_MACHINE\SOFTWARE\Wow6432Node\VMware, Inc.\VMware vCloud Automation Center DEM\DemInstanceId03]
    "Name"="DEO"
    "Role"="Orchestrator"
    "RepositoryAddress"="https://host_name:443/repository/"

Configurazione e provisioning

  • In un ambiente ad alta disponibilità, Horizon non è in grado di eseguire l'autenticazione dopo il failover

    Soluzione: dopo il failover, riavviare l'appliance vRealize Automation per ripristinare l'autenticazione.

  • Alcuni componenti potrebbero non funzionare come previsto dopo aver trascinato un blueprint interno esistente in un blueprint esterno corrente
    Le impostazioni dei componenti possono cambiare in base al blueprint su cui si trova il componente. Se ad esempio si includono gruppi di sicurezza, tag di sicurezza o reti su richiesta a entrambi i livelli del blueprint interno ed esterno, le impostazioni nel blueprint esterno sovrascrivono quelle del blueprint interno. I componenti rete e sicurezza sono supportati solo al livello del blueprint esterno, eccetto per le reti esistenti che funzionano al livello del blueprint interno.

    Soluzione: Aggiungere tutti i gruppi di sicurezza, i tag di sicurezza e le reti su richiesta solo al blueprint esterno.

  • Se viene creato un gruppo di proprietà il cui nome contiene un punto, non è possibile utilizzare l'interfaccia utente di vRealize Automation per modificare il gruppo
    Questo problema si verifica quando si crea un gruppo di proprietà con un punto all'interno del nome, ad esempio property.group. Se si utilizza l'interfaccia utente di vRealize Automation per modificare questo gruppo di proprietà, viene visualizzata una pagina vuota. È possibile utilizzare l'API REST per modificare questo gruppo di proprietà.

    Soluzione: evitare di utilizzare il punto all'interno del nome di un gruppo di proprietà. Quando è inevitabile, utilizzare l'API REST per modificare il gruppo.

  • La perdita della comunicazione tra IaaS e il catalogo di servizi comune durante il processo di eliminazione lascia la macchina virtuale in uno stato di eliminazione
    Se c'è una perdita di comunicazione tra IaaS e il catalogo di servizi comune mentre è in corso la richiesta di eliminazione, ma prima che vRealize Automation rimuova il record della macchina virtuale dal database, la macchina resta in uno stato di eliminazione. Una volta ripristinata la comunicazione, la richiesta di eliminazione viene aggiornata e indicata come completata o non riuscita; tuttavia la macchina è ancora visibile. Sebbene la macchina venga eliminata dall'endpoint, il nome resta visibile nell'interfaccia di gestione di vRealize Automation.

  • Quando si modifica il nome host dell'appliance vRealize Automation, i servizi vengono contrassegnati come non disponibili

    Soluzione: se dopo aver cambiato il nome host uno o più servizi sono non disponibili, riavviare il server di vRealize Automation.

  • Quando si unisce un account di dominio dell'agente di gestione su un Windows Server 2012 clonato a un dominio, l'account di dominio dell'agente di gestione perde i suoi diritti sulla chiave privata del certificato dell'agente
    Quando si utilizza una procedura guidata di personalizzazione per clonare una macchina in vSphere che fa parte di un dominio, la macchina non è più parte di quel dominio. Dopo aver riunito la macchina clonata al dominio, nel registro dell'agente di gestione viene visualizzato il seguente messaggio di errore: CryptographicException - Keyset does not exist.

    Soluzione: per risolvere il problema, attenersi alla seguente procedura per aprire e chiudere le impostazioni di sicurezza per la chiave privata del certificato senza apportare modifiche.

    1. Individuare il certificato utilizzando lo snap-in Certificati di Microsoft Management Console. Lo snap-in visualizza l'ID dell'agente nella sua casella di testo Nome descrittivo.
    2. Selezionare Tutte le attività > Gestisci chiavi private.
    3. Fare clic su Avanzate.
    4. Fare clic su OK.

  • L'operazione di trascinamento di un blueprint interno esistente in un blueprint esterno corrente ha delle restrizioni
    Quando si trascina un blueprint interno esistente in un blueprint esterno corrente, se il blueprint interno dispone di macchine unite a gruppi di sicurezza, tag di sicurezza o reti su richiesta, vengono applicate le seguenti restrizioni. Questo problema può verificarsi anche su blueprint importati.
    • Il blueprint esterno non può contenere un blueprint interno contenente a sua volta delle impostazioni di rete su richiesta o delle impostazioni del bilanciamento del carico su richiesta. L'utilizzo di un blueprint interno contenente un componente di rete su richiesta NSX o un componente bilanciamento del carico su richiesta non è disponibile.
    • Quando nuovi o ulteriori gruppi di sicurezza vengono aggiunti alle macchine nel blueprint interno, le macchine vengono unite solo a nuovi gruppi di sicurezza aggiunti come parte di un blueprint esterno, nonostante la pagina di creazione del blueprint mostri gruppi di sicurezza dal blueprint interno e da quello esterno.
    • Quando nuovi tag di sicurezza vengono aggiunti alle macchine interne da un blueprint esterno, i tag di sicurezza originariamente associati al blueprint interno non sono più disponibili.
    • Quando nuove reti su richiesta vengono aggiunte a macchine interne da un blueprint esterno, le reti su richiesta originariamente associate al blueprint interno non sono più disponibili. Le reti esistenti originariamente associate nel blueprint interno continuano a essere disponibili.

    Soluzione: è possibile risolvere questo problema eseguendo una delle seguenti attività:

    • Aggiungere gruppi di sicurezza, tag o reti su richiesta al blueprint esterno ma non nel blueprint interno.
    • Aggiungere gruppi di sicurezza, tag o reti esistenti al blueprint interno ma non nel blueprint esterno.

  • Le informazioni nel menu dell'attributo di ricerca della directory nella pagina di aggiunta della directory non sono corrette
    Alcune stringhe di codice che appaiono prima nel menu Attributo ricerca directory non sono corrette.

    Soluzione: fare clic sul menu a discesa attributo di ricerca della directory per visualizzare le stringhe di codice corrette.

  • Quando si richiede un elemento del catalogo, si verifica un errore e la risorsa non viene trovata
    Quando vRealize Automation è in modalità alta disponibilità, se il nodo del database master non riesce e non viene promosso alcun nuovo nodo master, tutti i servizi che richiedono l'accesso in scrittura al database vengono interrotti oppure diventano momentaneamente inutilizzabili fino alla promozione di un nuovo database master.

    Soluzione: non è possibile evitare questo errore quando il database master non è disponibile. È possibile promuovere un nuovo database master in modo da far scomparire l'errore e poter richiedere risorse.

  • Le modifiche non vengono salvate nella pagina Modulo blueprint di un blueprint XaaS
    Se dopo aver aggiornato ogni campo nella pagina Modulo blueprint di un blueprint XaaS non si fa clic su Applica, le modifiche non vengono salvate.

  • La scheda Elementi non visualizza le informazioni sui servizi che sono abilitati per un bilanciamento del carico
    Per le macchine sottoposte a provisioning utilizzando un bilanciamento del carico associato a vCloud Networking and Security, la scheda Elementi non visualizza le informazioni sui servizi abilitati al bilanciamento del carico in uso.

  • Se una macchina viene distrutta mentre l'operazione di clonazione di vSphere è in corso, l'attività di clonazione della macchina in corso non viene annullata
    Questo problema potrebbe causare la clonazione della macchina. La macchina virtuale clonata potrebbe essere gestita in vCenter e non più nella gestione di vRealize Automation.

  • Quando si richiede un blueprint composito, la richiesta non riesce immediatamente e il modulo dei dettagli della richiesta non viene caricato
    Quando il numero massimo di giorni di lease per un blueprint dei componenti è inferiore a quello del blueprint esterno, le richieste terminano immediatamente con esito negativo e il modulo dei dettagli della richiesta non viene caricato.

  • Non è possibile avere distribuzioni con binding a indirizzi IP DHCP nelle distribuzioni software
    Se si prova a farlo, ip_address non sarà più disponibile se non esiste alcun profilo di rete. Viene visualizzato il seguente messaggio di errore: Errore di sistema: errore interno nell'elaborazione della richiesta del componente: com.vmware.vcac.platform.content.exceptions.EvaluationException: Nessun dato per il campo: indirizzo_ip.

    Soluzione: se è necessario un binding, utilizzare indirizzi IP statici o indirizzi IP gestiti da vRealize Automation nel profilo di rete oppure utilizzare un'integrazione IPAM. Se si utilizza il protocollo DHCP, è necessario effettuare il binding al nome dell'host e non all'indirizzo IP.

    È possibile utilizzare il seguente script per acquisire l'indirizzo IP di una macchina CentOS:
    IPv4_Address = $(hostname -I | sed -e 's/[[:space:]]$//')
    echo $IPv4_Address

    Effettuare il binding al valore fornito da questo script quando l'indirizzo IP è necessario per i casi d'uso di DHCP.

  • La directory viene creata nonostante venga visualizzato un messaggio di errore
    Quando si crea una directory da Amministrazione > Gestione archivio identità > Archivi identità e si fa clic su Salva, può apparire il messaggio di errore Comunicazione del connettore non riuscita a causa di dati non validi. Problema di promozione utente Bind DN a ruolo di amministratore: l'utente esiste già ed è associato a un altro client di sincronizzazione. Il nuovo Archivio identità viene salvato con una configurazione non corretta e non può essere utilizzato.
    Questo errore si verifica se si tenta di salvare una nuova Active Directory con gli stessi valori per Base DN e Bind DN già utilizzati in una Active Directory esistente creata correttamente in precedenza.

    Soluzione: è necessario eliminare manualmente la nuova Active Directory poiché la configurazione non è corretta e devono essere utilizzati valori Bind DN e Base DN diversi per la nuova Active Directory.

  • Il dominio viene aggiunto a un UPN utente quando si crea una directory che include l'attributo di ricerca della directory UserPrincipalName
    Quando si crea una nuova directory e si seleziona UserPrincipalName per l'attributo di ricerca della directory, un dominio viene aggiunto a un UPN utente. Ad esempio, il nome utente di vRealize Automation di un utente con UPN user.domain@domain.local viene visualizzato come user.domain@domain.local@domain.local. Ciò avviene se il suffisso di UPN viene configurato come dominio sul sito di Active Directory. Se il suffisso UPN è personalizzato, ad esempio in "example.com", il nome di un utente di vRealize Automation con UPN user.domain@example.com viene visualizzato come user.domain@example.com@domain.local.
    Se viene utilizzato l'attributo di ricerca della directory UserPrincipalName, gli utenti devono inserire il proprio nome esattamente come viene visualizzato (user.domain@domain.local@domain.local), incluso il dominio, per effettuare l'accesso per utilizzare l'API REST o CloudClient.

    Soluzione: Utilizzare sAMAccountName invece di UserPrincipalName per utilizzare la funzione di univocità del nome utente del dominio di Gestione directory.

  • Viene visualizzato un errore "404 Non trovato" quando si richiede una macchina per conto di un altro utente
    Se un blueprint include una rete NAT su richiesta o un componente di bilanciamento del carico su richiesta, viene visualizzato un errore "404 Non trovato" quando viene fatta una richiesta di distribuzione per conto di un altro utente.

  • Le macchine importate utilizzando l'importazione di massa non sono mappate al blueprint convergente o al blueprint dei componenti corretto

    Soluzione: aggiungere la proprietà personalizzata VMware.VirtualCenter.OperatingSystem a ciascuna macchina nel file CSV di importazione.

    Ad esempio:
    Yes,NNNNP2-0105,8ba90c35-9e03-4ac4-8a5d-2e6d76f37b81,development-res,ce-san-1:custom-nfs-2,UNNAMED_DEPLOYMENT-0105,BulkImport,Imported_Machine,system_blueprint_vsphere,user.admin@sqa.local,VMWare.VirtualCenter.OperatingSystem,sles11_64Guest,NOP

  • Le Azioni gestione catalogo sono assenti in vRealize Automation

    Soluzione: Vedere l'articolo 2113027 della Knowledge Base.

  • Un'istanza di Active Directory che include più di 15 gruppi di utenti non riesce a elencare i gruppi quando si sincronizza Active Directory
    Se si hanno più di 15 gruppi e si tenta di sincronizzare Active Directory nell'interfaccia di gestione di vRealize Automation utilizzando Amministrazione > Gestione archivio identità > Archivi identità, vengono visualizzati solo pochi gruppi.

    Soluzione: Fare clic su Seleziona per visualizzare l'elenco completo.

  • Dopo aver promosso un'istanza replica nell'istanza master, compaiono informazioni errate nella scheda Database dell'interfaccia di gestione del nodo master di vRealize Automation
    Quando il nodo master nell'appliance vRealize Automation non riesce, è necessario utilizzare l'interfaccia di gestione dell'appliance vRealize Automation di un nodo integro per le operazioni di gestione del cluster.

  • Lo spostamento di un datastore da un vSphere Storage DRS a un altro fa in modo che il sistema elimini una macchina virtuale anziché crearla
    Se si sposta un datastore da un cluster vSphere Storage DRS a un altro cluster vSphere Storage DRS e il livello di automazione del cluster target non è automatico, la riesecuzione del provisioning di una macchina creata fa sì che il sistema la elimini con il seguente errore: StoragePlacement: datastore non specificato per il disco nella macchina virtuale con SDRS disattivato. Questo problema non si verifica se la macchina virtuale è clonata.

    Soluzione: verificare che il livello di automazione del cluster target sia impostato come automatico prima di spostare un datastore da un cluster vSphere Storage DRS a un altro. Sono supportate solo distribuzioni di macchine singole.