Versionshinweise zu vRealize Automation 7.2

|

Aktualisiert am: 6. Juni 2017

vRealize Automation | 22. November 2016 | Build 4660246

Überprüfen Sie regelmäßig, ob diese Versionshinweise ergänzt oder aktualisiert wurden.

Inhalt dieser Versionshinweise

Diese Versionshinweise decken die folgenden Themen ab:

Neuigkeiten

In Version 7.2 von vRealize Automation wurden folgende Probleme behoben und die folgenden neuen Funktionen implementiert:

  • Verbesserte APIs für das programmgesteuerte Installieren, Konfigurieren und Upgraden von vRealize Automation
  • Verbesserte Upgrade-Funktionalität für systemweite Upgrade-Automatisierung
  • LDAP-Unterstützung für Authentifizierung und Single Sign-On
  • FIPS 140-2-Konformität:
    • Die Schnittstelle für Verbraucher/Administratoren ist jetzt mit FIPS 140-2 kompatibel.
    • Wird verwaltet unter Verwendung der Verwaltungskonsole der vRealize Automation-Appliance oder der Befehlszeilenschnittstelle
    • FIPS ist standardmäßig deaktiviert
  • Verbesserungen bei der Migration:
    • Durch Benutzeroberfläche gesteuerte Migration von vRealize Automation 6.2.x auf 7.2
    • Migrationsoption ist im Bereitstellungsassistenten verfügbar
    • Erweiterte Unterstützung für den Import von vCloud Director-Arbeitslasten
  • Verbesserungen bei den Dienstberechtigungen:
    • Kontrollkästchen zum Hinzufügen aller Benutzer zu einer Berechtigung
    • Löschen inaktiver Berechtigungen
  • Verbesserte Erweiterbarkeitsfunktionen:
    • Verschiedene neue Ereignis-Broker-Themen für verbesserte Erweiterbarkeits-Anwendungsfälle
    • Abonnement-Granularität für einzelne Komponenten, Katalogelemente, Komponentenaktionen, Container oder Bereitstellungen
    • Nutzen der Erweiterbarkeit mit neuer Container-Management-Funktionalität
    • Horizontale/vertikale Skalierung benutzerdefinierter XaaS-Dienste und -Anwendungen, in denen XaaS-Objekte enthalten sind
  • Netzwerkverbesserungen:
    • IPAM-Framework-Unterstützung für mit On-Demand gerouteten Netzwerken von NSX
    • Neue Netzwerkprofile zur Unterstützung zusätzlicher IPAM-Anwendungsfälle
    • Konfigurieren der Lastausgleichsrichtlinie für den On-Demand-Lastausgleichsdienst von NSX im Blueprint (Round-Robin, IP-Hash, Leastconn)
    • Konfigurieren der Dienstüberwachungs-URL für HTTP/HTTPS
  • Container-Management:
    • Integriertes Container-Management-Modul für die Bereitstellung und die Verwaltung von Docker-Container-Hosts und Containern
    • Erstellung von Hybrid-Anwendungen, in denen Container und herkömmliche Betriebssysteme enthalten sind
    • Neue Rollen für Container-Administratoren und -Architekten
    • Automatische Ermittlung bereitgestellter Container-Hosts
    • Die unterstützte Mindestversion von Docker ist 1.9.0
    • Wenn der in den Docker integrierte Lastausgleich für geclusterte Container in benutzerdefinierten Netzwerken benötigt wird, ist Docker 1.11 oder höher erforderlich.
  • Azure-Endpoint für Hybrid Cloud-Bereitstellung und -Management:
    • Nahtlose Erstellung, Bereitstellung und Verwaltung von Azure-Maschinen mit vRealize Automation
    • Unterstützung für Azure-Netzwerkdienste
  • ServiceNow-Integration:
    • Automatische Offenlegung berechtigter vRealize Automation-Katalogelemente im ServiceNow-Portal durch Verwendung des Plug-Ins, das in VMware Solution Exchange verfügbar ist
  • Docker:
    • Die unterstützte Mindestversion von Docker ist 1.9.0
    • Wenn der in den Docker integrierte Lastausgleich für geclusterte Container in benutzerdefinierten Netzwerken benötigt wird, ist Docker 1.11 oder höher erforderlich.

Systemanforderungen

Weitere Informationen zu den unterstützten Hostbetriebssystemen, Datenbanken und Webservern finden Sie in der Übersicht über die Unterstützung von vRealize Automation.

Installation

Informationen zu Voraussetzungen und Installationsanweisungen finden Sie unter Installieren von vRealize Automation.

Bevor Sie ein Upgrade durchführen

Mit den neuen vRealize Automation-Funktionen stehen mehrere Verbesserungen zusammen mit der Fähigkeit, auf die neue Version zu aktualisieren oder zu migrieren, bereit. Bevor Sie den Upgrade-Vorgang starten, können Sie die Webseite Unterstützung beim Upgrade von vRealize Automation besuchen, um entsprechende Empfehlungen und Anleitungen zu erhalten.

Ab vRealize Automation 7.2 wird JFrog Artifactory Pro nicht mehr mit der vRealize Automation-Appliance mitgeliefert. Beim Upgrade von einer früheren Version von vRealize Automation wird JFrog Artifactory Pro entfernt. Weitere Informationen finden Sie im Knowledgebase-Artikel 2147237.

Behobene Probleme

  • Wenn Sie den Hostnamen nach dem Initialisieren der Active Directory-Verbindung in einen anderen Namen ändern, ist der Active Directory-Connector nicht mehr verwendbar, und Active Directory schlägt fehl. Dieses Problem wurde behoben.

  • Die Option zum Löschen des VMware NSX-Lastausgleichsdiensts wird als berechtigte Aktion oder als Option für die Genehmigungsrichtlinie angezeigt. Dieses Problem wurde behoben.

  • Nach einer Neuinstallation kann der Master-Appliance-Knoten den Status des Replikat-Appliance-Knotens nicht erkennen. Dieses Problem wurde behoben.

  • Ein Problem, das die Verlängerung einer Lease auf unbestimmte Zeit zuließ, wurde behoben. Die Lease kann jetzt durch (aktuelles Datum + maximal zulässige Lease) verlängert werden.

  • JRE wurde aktualisiert, um das Oracle Critical Patch-Update vom Oktober 2016 hinzuzufügen. jdk-1.8.0_102 wurde auf jdk-1.8.0_112 aktualisiert.

  • Horizontale/vertikale Skalierung schlägt in einer 6.x-aktualisierten Bereitstellung und in Bereitstellungen mit Massenimport fehl.

  • Im Upgrade-Thema zum Herunterladen von vRealize Automation-Appliance-Updates aus einem VMware-Repository ist eine Voraussetzung enthalten, die vRealize Automation 6.2.4 oder 6.2.5 nicht ordnungsgemäß referenziert.

Bekannte Probleme

Installation

  • Neu Der Befehl „vcac-config“ schlägt fehl, wenn ein Parameter mit dem @-Zeichen beginnt
    Sie melden sich als Root-Benutzer bei der Konsole der vRealize Automation-Appliance an und führen einen vcac-config-Befehl aus. Daraufhin wird ein Fehler ähnlich dem folgenden Beispiel angezeigt.

    /usr/sbin/vcac-config prop-util -e --p '@Follow123'
    Could not read file Follow123: java.io.FileNotFoundException: Follow123 (No such file or directory)

    Das Problem tritt auf, weil der Befehl vcac-config keinen Parameter akzeptiert, der mit dem @-Zeichen beginnt. Ein Name oder ein Kennwort, der bzw. das mit dem @-Zeichen beginnt, verursacht den Fehler.

    Problemumgehung: Keine. Verwenden Sie keine vcac-config-Parameter, die mit dem @-Zeichen beginnen.

  • Datenbankkonfiguration schlägt bei Neuinstallation von vRealize Automation 7.2 unter der türkischen Sprachversion von Windows fehl
    Wenn für den IaaS-Server die türkische Sprachversion von Windows ausgewählt ist, schlägt der vRealize Automation-Installationsassistent bei der Datenbankkonfiguration fehl. Folgende Fehlermeldung wird angezeigt: MSB3073.

    Problemumgehung: Dieses Problem wird voraussichtlich in einer zukünftigen Version behoben.

  • Anfänglicher Inhaltserstellungsvorgang schlägt während der Installation bei diesem Schritt fehl: Workflow zum Erstellen des configurationadmin-Benutzers ausführen
    In /var/log/messages sind zwei verschiedene Ausführungen des Vorgangs zum Erstellen des configurationadmin-Benutzers enthalten (werden simultan ausgeführt, die Zahl nach va-agent.py zeigt an, dass die Vorgänge unterschiedlich sind): /usr/lib/vcac/agent/va-agent.py[18405]: info Executing vRO workflow for creating configurationadmin user... ... /usr/lib/vcac/agent/va-agent.py[18683]: info Executing vRO workflow for creating configurationadmin user... Der erste Aufruf erstellt die Konfiguration des Admin-Benutzers, und der zweite Aufruf verursacht den Fehler.

    Problemumgehung: Der anfängliche Inhaltserstellungsvorgang kann wiederaufgenommen werden, indem die zwei folgenden Befehle aus der primären Appliance ausgeführt werden. Die Parameter sind selbstbeschreibend:

    /usr/sbin/vra-command execute --node ${NODE_ID} import-asd-blueprint --ConfigurationAdminUser configurationadmin --ConfigurationAdminPassword "${CONFIGURION_ADMINISTRATOR_PASSWORD}" --DefaultTenant "${SSO_TENANT}" /usr/sbin/vra-command execute --node ${NODE_ID} execute-vro-initial-configuration-service --VidmAdminUser "${HORIZONUSER}" --VidmAdminPassword "${HORIZONPASS}" --ConfigurationAdminPassword "${CONFIGURATION_ADMINISTRATOR_PASSWORD}" --DefaultTenant "${SSO_TENANT}"

    Die NODE_ID kann durch Ausführen von vra-command list-nodes und Suchen der Knoten-ID der primären virtuellen Appliance abgerufen werden.

Upgrade

  • Die vRealize Automation-Migration von Version 6.x auf Version 7.2 schlägt fehl, wenn für die 7.2-Zielumgebung eine andere vRealize Orchestrator-Admin-Gruppe als Standard festgelegt wurde
    Die standardmäßige vRealize Orchestrator-Admin-Gruppe, vsphere.local/vcoadmin, sollte im vRealize Orchestrator Control Center vor der Migration nicht geändert werden.

    Problemumgehung: Weitere Informationen hierzu finden Sie im Knowledgebase-Artikel 2148669.

  • STOMP-Client kann nach dem Upgrade von tcServer auf Version 3.2 keine Verbindung herstellen
    In vRealize Automation 7.2 unterstützt der IaaS Manager Service bei der Kommunikation mit dem Ereignisvermittler-Dienst ausschließlich REST-Abrufe als Verbindungsmechanismus. Die Konfigurationseinstellung Extensibility.Client.RetrievalMethod wird ignoriert.

  • Das IaaS-Installationsprogramm kann nicht gestartet werden
    Das IaaS-Installationsprogramm kann nicht gestartet werden und zeigt folgende Meldung an: „Eine neuere Version des Produkts ist bereits auf diesem Computer installiert.“ Dies geschieht, wenn das msi-Paket des IaaS-Installationsprogramms nicht gestartet werden kann, nachdem der IaaS-Management-Agent manuell auf die neueste verfügbare Version aktualisiert wurde.
    Symptome:

    • Wenn der IaaS-Verwaltungs-Agent von vRealize Automation 7.2 manuell auf die neueste auf VMware Downloads verfügbare Version aktualisiert wird
    • Wenn ein Fehler auftritt, nachdem die ausführbare Datei des IaaS-Installationsprogramms nach dem Upgrade auf vRealize Automation 7.2 mit dem IaaS-Upgrade-Shell-Skript gestartet wird.
    • Nach dem Upgrade auf vRealize Automation 7.2 zeigt die Cluster-Registerkarte auf der Appliance-Verwaltungsseite die niedrigere Version des IaaS-Verwaltungs-Agents im Vergleich zu den anderen IaaS-Komponenten als höher an.

    Problemumgehung: Weitere Informationen hierzu finden Sie im Knowledgebase-Artikel 2148278.

  • Wenn Sie das neue Upgrade-Shell-Skript in vRealize Automation 7.2 verwenden, müssen Sie zunächst ein Upgrade auf den neuesten Management-Agenten durchführen
    Wenn Sie ein automatisches Upgrade der IaaS-Komponenten mit dem neuen Upgrade-Shell-Skript durchführen möchten, müssen Sie den neuesten Management-Agenten verwenden, der für den Download verfügbar ist. Verwenden Sie nicht den Management-Agenten, der in der virtuellen Appliance von vRealize Automation 7.2 enthalten ist.

    Problemumgehung: Weitere Informationen hierzu finden Sie im Knowledgebase-Artikel 2147926.

  • Wenn vor dem Upgrade von vRealize Automation von 6.2.4 oder 6.2.5 auf 7.2 Telemetrie deaktiviert ist, wird auf der Registerkarte für Telemetrie in der Verwaltungskonsole der vRealize Automation-Appliance möglicherweise ein Fehler angezeigt
    Diese Meldung wird möglicherweise nach dem Upgrade angezeigt: Fehler: Nächste Laufzeit kann nicht festgelegt werden. Aktivieren Sie Telemetrie erneut oder deaktivieren Sie sie. Diese Meldung wird angezeigt, da keine Telemetriedaten erfasst werden. Das System kann auf diese Weise keine ordnungsgemäße nächste Laufzeit ermitteln. Ist dies der Fall, können keine Telemetriefunktionen ausgeführt werden.

    Problemumgehung: Aktivieren oder deaktivieren Sie Telemetrie unter Verwendung des Kontrollkästchens Am Programm zur Verbesserung der Kundenzufriedenheit von VMware teilnehmen. Klicken Sie dann auf Einstellungen speichern.

Konfiguration und Bereitstellung

  • Die Bereitstellung virtueller Azure-Maschinen schlägt fehl, wenn der Name der Ressourcengruppe Nicht-ASCII-Zeichen enthält

    Problemumgehung: Verwenden Sie keine Nicht-ASCII-Zeichen im Namen einer Ressourcengruppe.

  • Die Erfassung von Zustandsdaten gibt ausschließlich die primäre IP zurück
    Dieses Verhalten kann sich auf die Möglichkeit auswirken, Verbindungsherstellung mithilfe von RDP oder Verbindungsherstellung mithilfe von SSH zu verwenden oder eine virtuelle Maschine als Container-Host im Container-Dienst u. a. m. zu registrieren, die beim Zugriff auf eine virtuelle Maschine auf die IP-Adresse der virtuellen Maschine zurückgreifen.

    Problemumgehung: Dieses Problem wird voraussichtlich in einer zukünftigen Version behoben.

  • Der Fehler „Failed to parse pool request for address space "" pool "" subpool ""“ wird während Netzwerk-Integrationstests angezeigt
    Die Netzwerk-Integrationstests schlagen fehl, und eine ähnliche Meldung wird im Protokoll angezeigt. Dies ist ein bekanntes Docker-Problem: https://github.com/docker/libnetwork/issues/1101. Die Hauptursache ist, dass einige Netzwerke nicht korrekt freigegeben sind, und Docker kann die maximal zulässige Anzahl der Netzwerke erreichen.

    Problemumgehung: Löschen Sie Container und Netzwerke.

    1. Beenden Sie den Docker-Daemon.
      sudo systemctl stop docker.service
    2. Löschen Sie Container und Netzwerke.
      sudo rm /var/lib/docker/network/files/local-kv.db; sudo rm /var/lib/docker/containers
    3. Starten Sie den Docker-Daemon.
      sudo systemctl start docker.service

  • Integrationstests schlagen gelegentlich mit folgendem Fehler fehl: The name "/container-name" is already used by container <hash>
    Dies ist ein bekanntes Docker-Problem:https://github.com/docker/docker/issues/23371. Wenn dieser Fehler auftritt, wird die folgende Stapelüberwachung angezeigt:

    java.lang.IllegalStateException: Failed with Error waiting for /requests/<hash> to transition to COMPLETED. Failure: failure: Service https://dockerhost/v1.19/containers/create?name=<container-name> returned error 409 for POST. id <id>; Reason: Conflict. The name "/<container-name>" is already in use by container <hash>. Damit Sie diesen Namen erneut verwenden können, müssen Sie diesen Container entfernen (oder umbenennen).

    Problemumgehung: Lösen Sie die Tests erneut aus. Wenn der fehlgeschlagene Container der Agent ist, müssen Sie Container und Netzwerke löschen.

    1. Beenden Sie den Docker-Daemon.
      sudo systemctl stop docker.service
    2. Löschen Sie Container und Netzwerke.
      sudo rm /var/lib/docker/network/files/local-kv.db; sudo rm /var/lib/docker/containers
    3. Starten Sie den Docker-Daemon.
      sudo systemctl start docker.service

  • In einem geclusterten Setup kann es einige Zeit dauern, bis die Änderung der Platzierungszone für einen Host in der Benutzeroberfläche wiedergegeben wird
    Wenn die Platzierungszone für einen Host in einem geclusterten Setup geändert wird, werden die alten und die neuen Platzierungszonen möglicherweise in der Hostliste angezeigt, obwohl der Host sofort der neuen Platzierungszone zugewiesen und die alte Zuweisung nicht verwendet wurde. Dies tritt nur in einem geclusterten Setup auf und beeinflusst nur die Benutzeroberfläche.

    Problemumgehung: Warten Sie fünf Minuten, bis die Benutzeroberfläche aktualisiert wurde.

  • Horizontal skalierte Docker-Container mit Links zu Diensten schlagen möglicherweise mit der Fehlermeldung „Bereitstellung für Container X fehlgeschlagen...“ fehl Docker gab Fehler 500 für POST zurück...“
    Die Bereitstellung einer Vorlage, in der mehrere Container mit Links zur Aktivierung der Kommunikation zwischen verschiedenen Diensten enthalten sind, jedoch kein explizites, für die Verbindungsherstellung mit den Containern konfiguriertes Netzwerk, führt dazu, dass dann alle Container für denselben Host bereitgestellt werden.

    Problemumgehung: Bearbeiten Sie die Vorlage, um ein neues On-Demand-Netzwerk hinzuzufügen, und stellen Sie die Verbindung aller Container zu diesem her. Auf diese Weise wird sichergestellt, dass alle horizontal skalierten Container bereitgestellt werden, wo das On-Demand-Netzwerk verfügbar ist, sodass alle Container einander sehen können.

  • Erkannte Netzwerke zeigen möglicherweise eine falsche Anzahl verbundener Container an
    Wenn Sie auf die Zahl der in jedem Netzwerk angezeigten Container klicken, kann die Liste der Container kürzer als erwartet sein.

    Problemumgehung: Keine.

  • Interne Fehlermeldung wird angezeigt, wenn eine Azure-Maschine einem Blueprint auf der Registerkarte „Design“ hinzugefügt wird
    Bei Verwendung eines externen vRealize Orchestrator-Servers mit vRealize Automation ist die Microsoft Azure-Integration nicht verfügbar.

    Problemumgehung: Exportieren Sie das Azure-Plug-In und -Paket aus dem internen vRealize Orchestrator in der virtuellen Appliance von vRealize Automation und installieren oder importieren Sie das Plug-In und Paket in den externen vRealize Orchestrator. Nachdem Sie das Azure-Plug-In installiert oder das Azure-Paket in den externen vRealize Orchestrator importiert haben, wird Microsoft Azure in der vRealize Automation-Umgebung unterstützt.

    1. Melden Sie sich bei dem vRealize Orchestrator Control Center an, um den internen vRealize Orchestrator in der virtuellen Applicance von vRealize Automation zu erhalten. Anleitungen hierzu finden Sie unter Anmelden bei der Konfigurationsschnittstelle für vRealize Orchestrator.
    2. Klicken Sie unter Plug-Ins auf Plug-Ins verwalten.
    3. Suchen Sie das Azure-Plug-In und klicken Sie mit der rechten Maustaste auf Plug-in in DAR-Datei herunterladen. Speichern Sie die Datei auf Ihrem Desktop.
    4. Melden Sie sich beim vRealize Orchestrator Control Center an, um den externen vRealize Orchestrator abzurufen. Anleitungen hierzu finden Sie unter Anmelden bei der Konfigurationsschnittstelle für vRealize Orchestrator.
    5. Klicken Sie unter Plug-Ins auf Plug-Ins verwalten.
    6. Klicken Sie unter „Plug-In installieren“ auf Durchsuchen und suchen Sie die Azure DAR-Datei, die Sie auf Ihren Desktop heruntergeladen haben.
    7. Klicken Sie auf Installieren. Wenn Sie aufgefordert werden, den Vorgang zu bestätigen, klicken Sie erneut auf Installieren.
    8. Klicken Sie im Control Center unter den Optionen zum Starten auf Neu starten, um die Installation des neuen Plug-Ins abzuschließen.
    9. Starten Sie alle virtuellen Appliances von vRealize Automation gleichzeitig neu.
      Die Funktion für die Integration von Microsoft Azure sollte wiederhergestellt sein.

    Wenn nach dem Neustart die Integration nicht ordnungsgemäß funktioniert, stellen Sie sicher, dass das Azure-Paket com.vmware.vra.endpoint.azure im externen vRealize Orchestrator vorhanden ist. Wenn das Azure-Paket nicht vorhanden ist, führen Sie die folgenden Schritte durch.
    1. Melden Sie sich beim internen vRealize Orchestrator-Client in der virtuellen Appliance von vRealize Automation an.
    2. Exportieren Sie das Azure-Paket com.vmware.vra.endpoint.azure. Anleitungen hierzu finden Sie unter Exportieren eines Pakets.
    3. Melden Sie sich beim vRealize Orchestrator-Client an, um den externen vRealize Orchestrator abzurufen.
    4. Importieren Sie das Azure-Paket com.vmware.vra.endpoint.azure in den externen vRealize Orchestrator. Anleitungen hierzu finden Sie unter Importieren eines Pakets.

  • Gleichzeitige XaaS-Kataloganforderungen rufen „Virtuelle Maschine klonen“ auf; kein Anpassungsworkflow mit 30 Benutzern führt dazu, dass einige Anforderungen fehlschlagen
    Während der Anforderung von XaaS-Blueprints, die vRealize Orchestrator-Workflows aufrufen, um einige Vorgänge auf langsamen Endpoints bei hoher Parallelität auszuführen, schlagen möglicherweise einige der Anforderungen mit dem folgenden Fehler fehl: java.net.SocketTimeoutException: Zeitüberschreitung beim Lesen. vRealize Orchestrator-Workflows können auch mehrere Male erneut ausgelöst werden, da die Anforderungen ablaufen.

    Problemumgehung: Führen Sie diese Schritte auf jedem vRealize Automation-Appliance-Knoten durch. Die Datei vcac.properties bleibt beim Upgrade nicht erhalten. Sie müssen diese Schritte nach dem Upgrade wiederholen.

    1. Öffnen Sie eine SSH-Sitzung in der vRealize Automation-Appliance.
    2. Bearbeiten Sie /etc/vcac/vcac.properties, um die Client-Zeitüberschreitung auf 10 Minuten zu erweitern, indem Sie der Datei die folgende Zeile hinzufügen: vco.socket.timeout.millis=600000
    3. Führen Sie in der Eingabeaufforderung diesen Befehl aus, um den vcac-server-Dienst neu zu starten: service vcac-server restart

  • Datenerfassung für Bestandsliste wird bei einem vCenter Server HA (VCHA)-Failover beendet
    In seltenen Fällen können bei einem VCHA-Failover Arbeitsaufgaben für einen verwalteten vSphere 6.5-Endpoint während ihrer Ausführung steckenbleiben.

    Problemumgehung: Starten Sie den vRealize Automation vSphere-Agent neu. Wenn die Datenerfassung während ihrer Ausführung immer noch steckenbleibt, wenden Sie sich an GSS.

  • vRealize Automation-Blueprint-Bereitstellungen mit NSX-Objekten schlagen fehl, wenn sie auf einem Cluster bereitgestellt werden, auf dem der NSX Manager die sekundäre Rolle innehat
    In einer vCenter-übergreifenden Bereitstellung von NSX müssen universelle NSX-Objekte wie beispielsweise Edge-Gateways, neue virtual-wires (virtuelle Verdrahtungen) und Load Balancer unter Verwendung des NSX Manager bereitgestellt werden, der die primäre Rolle übernimmt. Wenn Sie versuchen, universelle Objekte auf einem sekundären NSX Manager bereitzustellen, schlägt der Vorgang mit einem Fehler fehl. vRealize Automation unterstützt keine Bereitstellung von universellen NSX-Objekten auf einem vSphere-Endpoint mit Netzwerk- und Sicherheitsintegration, bei dem der angegebene NSX Manager die sekundäre Rolle innehat.

    Problemumgehung: Damit Sie globale NSX-Objekte verwenden können, müssen Sie regionsspezifische lokale Transportzonen- und virtuelle Verdrahtungen zu NSX erstellen. Weitere Details zu diesem Prozess innerhalb eines VMware Validated Designs finden Sie im VMware Knowledgebase-Artikel 2147240..

  • Für Azure bereitgestellte Maschinen bestehen weiter, nachdem Sie einen Azure-Endpoint gelöscht haben
    Durch das Löschen eines Azure-Endpoints bleiben verwaiste Maschinen, Blueprints und Reservierungen zurück. Wenn Sie eine bestimmte Azure-VM vor dem Löschen eines Azure-Endpoints entfernen möchten, entfernen Sie sie manuell unter Verwendung der vRealize Automation-Konsole.

  • Wenn Sie auf einem Mac eine zweite VMware Remote Console für eine einzelne virtuelle Maschine öffnen, sind beide Konsolen schwarz
    Obwohl Sie mehr als eine VMware Remote Console (VMRC) für eine einzelne virtuelle Maschine unter Windows öffnen können, werden mehrere Sitzungen von VMRC nicht unterstützt. Unter Windows ist jede Konsole ein separater Vorgang. Auf einem Mac versucht jede Konsole, einen einzelnen Vorgang anzuzeigen.

    Problemumgehung: Schließen Sie alle VMRC-Instanzen und öffnen Sie nur eine VMRC für eine bestimmte Maschine.

  • Durch die erneute Bereitstellung einer verwalteten virtuellen Maschine in vSphere 6.5 bei einem vCenter High Availability (VCHA)-Failover wird die virtuelle Maschine dauerhaft gelöscht
    Wenn während eines VCHA-Failovers mit vSphere 6.5 eine erneute Bereitstellung mit einer virtuellen Maschine im selben vSphere-Endpoint durchgeführt wird, kann das dazu führen, dass die virtuelle Maschine gelöscht wird. Dieses Ereignis tritt nur selten auf.

    Problemumgehung: Fordern Sie den ursprünglichen Blueprint für die gelöschte virtuelle Maschine an.

  • Fehler bezüglich ungültiger Anmeldedaten von vRealize Automation wird nach einem vCenter High Availability (VCHA)-Failover angezeigt
    Nach einem VCHA-Failover in einem verwalteten vSphere 6.5-Endpoint ist in den vRealize Automation-Protokollen möglicherweise diese Fehlermeldung für den Endpoint enthalten: Anmeldung kann aufgrund eines falschen Benutzernamens oder Kennworts nicht abgeschlossen werden.

    Problemumgehung: Starten Sie den vRealize Automation vCenter Agent neu.

  • Das Ändern der Reservierung einer virtuellen Maschine funktioniert nicht, wenn der Besitzer nicht identisch ist
    Wenn der Registrierungsvorgang auf einer verwalteten virtuellen IaaS-Maschine aufgerufen wird, muss die verwendete Reservierung zum aktuellen Besitzer der virtuellen Maschine gehören. Nur der aktuelle Besitzer kann für den Benutzerparameter angegeben werden. Wenn ein Benutzer angegeben wird, der nicht der aktuelle Besitzer ist, dann wird im System die virtuelle Maschine als zu einem Besitzer in IaaS und als zu einem anderen Besitzer im Katalog gehörend verzeichnet.

    Problemumgehung: Verwenden Sie den Workflow Reservierung zu einer virtuellen IaaS-Maschine ändern nur für Reservierungen, die zum aktuellen Besitzer der virtuellen Maschinen gehören.

  • Auswahl von Blueprints für Massenimport einer nicht verwalteten Maschine in vRealize Automation 7.1, für das ein Upgrade auf 7.2 durchgeführt wurde, nicht möglich
    IaaS leitet eine Mandanten-ID in Kleinschreibung an die API weiter, die Blueprints für den Massenimport abruft, und nicht in der Schreibweise, die durch den Autorisierungsdienst dargestellt wird. Wenn der Benutzer eine Mandanten-ID erstellt, für die Zeichen in Groß- und Kleinschreibung verwendet werden, beispielsweise „Rainpole“ anstatt „rainpole“, schlägt die Suche fehl.

    Problemumgehung: Generieren Sie die CSV-Datei ohne Blueprint-Namen oder -Komponente und bearbeiten Sie anschließend die CSV-Datei manuell mit den gewünschten Werten für diese Felder.

  • Geschachtelte Container unterstützen keine Netzwerke
    Sie können kein Netzwerk zu einem geschachtelten Container hinzufügen.

    Problemumgehung: Dieses Problem wird voraussichtlich in einer zukünftigen Version behoben.

  • Inhalte eines Fensters werden nach der Verbindungsherstellung zu einer virtuellen Maschine auf vSphere 6.5 unter Verwendung der Remote Console nicht ordnungsgemäß angezeigt
    Wird die Verbindung zu einer Maschine hergestellt, die in einem vSphere 6.5-Endpoint unter Verwendung der Remote Console gehostet wird, dann kann die Verbindung fehlschlagen oder anderweitig nicht mehr nutzbar sein.

    Problemumgehung: Stellen Sie die Verbindung zur betroffenen Maschine unter Verwendung der VMRC-Client-Anwendung her. Wählen Sie Verbinden via VMRC aus.

  • Für vCloud Air-Endpoints müssen der Name der Organisation und der Name des vDC übereinstimmen
    Für vCloud Air-Endpoints müssen der Name der Organisation und der Name des vDC für eine vCloud Air-Abonnementinstanz identisch sein.

  • Zertifikatsersetzung schlägt bei Bereitstellungen mit mehreren Knoten fehl
    Beim Ersetzen von Zertifikaten in einer Bereitstellung mit mehreren Knoten schlägt der Ersetzungsvorgang fehl, wenn Sie ihn von der Virtual Appliance Management Interface (VAMI) auf einer Maschine initiieren, die nicht der Master-Knoten ist.

    Problemumgehung: Initiieren Sie Zertifikatsersetzungen ausschließlich von der Virtual Appliance Management Interface (VAMI) auf dem Master-Knoten des Clusters.

Dokumentation und Hilfe

Die folgenden Elemente oder Korrekturen konnten vor Veröffentlichung dieser Version nicht mehr in die Dokumentation aufgenommen werden.

Frühere bekannte Probleme

Anzeigen|ausblenden

Frühere bekannte Probleme gliedern sich in folgende Gruppen:

Installation

  • vRealize Automation 7.1 unterstützt nicht den 130-Modus von Microsoft SQL 2016
    Die Microsoft SQL 2016-Datenbank, die bei der Installation von vRealize Automation durch den Assistenten erstellt wurde, befindet sich im 100-Modus. Wenn Sie eine SQL 2016-Datenbank manuell erstellen, muss sich diese auch im 100-Modus befinden. Informationen dazu finden Sie im Microsoft-Artikel Voraussetzungen, Einschränkungen und Empfehlungen für AlwaysOn-Verfügbarkeitsgruppen.

  • Sicherheits-Updates mit Auswirkungen auf die Voraussetzungsprüfung
    In dieser Version schlägt die Voraussetzungsprüfung des Installationsassistenten für die Microsoft-Sicherheits-Updates 3098779 und 3097997 fehl. Die Voraussetzungsprüfung kann die Updates jedoch erkennen und Sie auffordern, diese mit der Option Beheben zu entfernen. Nach diesem Schritt können Sie die Voraussetzungsprüfung wie gewohnt erneut ausführen.

    Problemumgehung: Gewähren Sie dem Installationsassistenten das Entfernen der Sicherheits-Updates, damit die Voraussetzungsprüfung funktioniert. Alternativ dazu können Sie die Updates manuell entfernen. Nach Beenden des Assistenten können Sie die Updates 3098779 und 3097997 manuell neu installieren.

  • Sicherheits-Updates mit Auswirkungen auf die automatische Installation
    In dieser Version verhindern die Microsoft-Sicherheits-Updates 3098779 und 3097997 die ordnungsgemäße Ausführung der Funktion zur automatischen Installation. Die Updates sind dieselben, die sich einschränkend auf die Voraussetzungsprüfung auswirken.

    Problemumgehung: Vor der automatischen Installation müssen Sie die Updates auf den IaaS-Windows-Servern entfernen. Sie können die Updates 3098779 und 3097997 nach Abschluss der automatischen Installation manuell neu installieren.

  • Die vRealize Automation-Appliance-Seite wird nicht ordnungsgemäß geladen
    Bei der Verwendung von Internet Explorer 11 unter Windows 2012 R2 wird die Webschnittstellenseite für die vRealize Automation-Appliance nicht ordnungsgemäß geladen.

    Problemumgehung: Verwenden Sie einen anderen Browser für den Zugriff auf die Seite der Webschnittstelle von vRealize Automation.

Upgrade

  • Nach der Installation von vRealize Automation 7.1 oder dem Upgrade von vRealize Automation 7.0 auf 7.1 fehlt das ausgewählte benutzerdefinierte Hintergrundbild auf der Anmeldeseite.
    Das in vRealize Automation 7.0 vorhandene angepasste Branding fehlt auf der Anmeldeseite für den Mandanten nach einem Upgrade auf vRealize Automation 7.1. Das festgelegte angepasste Branding wird in einer neuen Installation von vRealize Automation 7.1 nicht angezeigt.

    Problemumgehung: Für dieses Problem gibt es keine Umgehung.

  • Migration von nativem Active Directory schlägt mit Fehlern fehl
    Gegenwärtig überträgt das SSO-Migrationsdienstprogramm kein automatisiertes natives Active Directory während des Migrationsvorgangs von vRealize Automation.

    Problemumgehung: Wenn Sie das native Active Directory manuell konfigurieren und starten, können Sie Active Directory erfolgreich migrieren. Dies müssen Sie machen, nachdem der Migrationsvorgang von vRealize Automation abgeschlossen ist.

  • IaaS-Knotenmigration von vRealize Automation 6.2.4 nach 7.1 schlägt fehl, wenn der Instanzname des PostgreSQL-Servers Nicht-ASCII-Zeichen enthält

    Problemumgehung: Verwenden Sie die Migration einer vRealize Automation-Umgebung mit einem Vorgang zur IaaS-Datenbanksicherung, um Ihre vRealize Automation-Umgebung der Version 6.2.4 auf die Version 7.1 zu migrieren.

  • Die Konfiguration des IaaS-Management-Agenten ist beschädigt nach dem Upgrade einer Hochverfügbarkeitsumgebung von vRealize Automation 6.2.3 oder früher auf 7.1
    Nach dem Upgrade von vRealize Automation 6.2.2 auf 7.1 kann der IaaS-Management-Agent nicht gestartet werden. In einer Fehlermeldung wird darüber berichtet, dass in der Management-Agent-Konfigurationsdatei eine Knoten-ID fehlt.

    Problemumgehung: Weitere Informationen hierzu finden Sie im Knowledgebase-Artikel 2146550.

  • Die vertikale bzw. horizontale Skalierung schlägt in einer aktualisierten Bereitstellung fehl
    Vertikale bzw. horizontale Skalierungsaktionen werden für Massenimport-Breitstellungen oder für die von vRealize Automation 6.x. aktualisierten Bereitstellungen nicht unterstützt.

    Problemumgehung: Für dieses Problem gibt es keine Umgehung. Neue nach dem Upgrade aus Blueprints erstellte Bereitstellungen unterstützen vertikale bzw. horizontale Skalierungsaktionen.

  • Bei der Anmeldung bei der Verwaltungskonsole der vRealize Automation-Appliance wird eine Fehlermeldung angezeigt
    Nachdem Sie sich mit den richtigen Anmeldedaten angemeldet haben, erhalten Sie diese Fehlermeldung: „Ungültige Serverantwort. Bitte versuchen Sie es erneut.“ Dies ist auf ein Problem mit dem Browser-Cache zurückzuführen.

    Problemumgehung: Melden Sie sich ab, leeren Sie Ihren Browser-Cache und melden Sie sich erneut an.

  • Bestimmte Blueprints können wegen Fehlern beim Aktualisieren der Katalogressourcen nicht vollständig aktualisiert werden
    Aktualisierte Multi-Maschinen-Blueprints, die On-Demand-Netzwerke oder Lastausgleichseinstellungen enthalten, sind möglicherweise nicht voll funktionsfähig, nachdem Sie auf vRealize Automation 7.x aktualisiert haben.

    Problemumgehung: Löschen Sie nach dem Upgrade die Bereitstellungen, die den Multi-Maschinen-Blueprints zugeordnet sind, und erstellen Sie sie erneut. Alle zugehörigen NSX Edge-Bereinigungsaufgaben müssen in NSX erfolgen.

  • Wenn Sie von vRealize Automation 6.2.0 auf 7.0 aktualisieren, schlägt das vPostgres-Upgrade fehl, und es wird eine Fehlermeldung angezeigt
    Wenn das System eine fehlerhafte RPM-Datenbank enthält, wird die folgende Fehlermeldung beim Upgrade-Prozess angezeigt: Updates konnten nicht installiert werden (Fehler beim Ausführen der Skripts vor der Installation).

    Problemumgehung: Informationen zum Wiederherstellen einer fehlerhaften RPM-Datenbank finden Sie im Artikel „RPM Database Recovery“ auf der RPM-Website RPM. Führen Sie nach dem Beheben des Problems das Upgrade erneut aus.

  • Wenn Sie die Voraussetzungsprüfung ausführen, schlägt sie mit einer Warnung zu einem RegistryKeyPermissionCheck fehl, aber die Anweisungen zur Beseitigung des Fehlers funktionieren während der Installation nicht
    Die Voraussetzungsprüfung schlägt fehl, weil sie Groß- und Kleinschreibung für den Benutzernamen unterscheidet.

    Problemumgehung: Ändern Sie vorübergehend den Benutzer, den Sie zum Ausführen des Management-Agenten-Diensts auf der Windows-Maschine angegeben haben, in einen anderen Benutzer. Wechseln Sie anschließend zurück zu dem ursprünglichen Benutzer, indem Sie die richtige Groß- und Kleinschreibung für den Benutzernamen verwenden.

  • Beim Aktualisieren des Manager Service und des DEM Orchestrator-Systems wird eine Fehlermeldung für die Namensvalidierung angezeigt, und der Model Manager-Web-Host kann nicht validiert werden
    Es wird folgende Fehlermeldung angezeigt, wenn der Name des Lastausgleichsdiensts in der Datei ManagerService.exe.config geändert wurde:
    Distributed Execution Manager "NAME" Cannot be upgraded because it points to Management model web host "xxxx.xxxx.xxxx.net:443", which cannot be validated. You must resolve this error before running the upgrade again: Cannot validate Model Manager Web host. The remote certificate is invalid according to the validation procedure.

    Problemumgehung: Nehmen Sie die folgenden Änderungen an der Konfigurationsdatei ManagerService.exe.config vor. Der Standardspeicherort lautet C:\Programme (x86)\VMware\vCAC\Server\ManagerService.exe.config.
    Ändern Sie die Registrierungswerte für alle DEM-Instanzen. Beispielsweise müssen die DEM-Instanzen in den folgenden Registrierungseinträgen aktualisiert werden.

    [HKEY_LOCAL_MACHINE\SOFTWARE\Wow6432Node\VMware, Inc.\VMware vCloud Automation Center DEM\DemInstanceId02]
    "Name"="DEM"
    "Role"="Worker"
    "RepositoryAddress"="https://host_name:443/repository/"

    [HKEY_LOCAL_MACHINE\SOFTWARE\Wow6432Node\VMware, Inc.\VMware vCloud Automation Center DEM\DemInstanceId03]
    "Name"="DEO"
    "Role"="Orchestrator"
    "RepositoryAddress"="https://host_name:443/repository/"

Konfiguration und Bereitstellung

  • In einer Hochverfügbarkeitsumgebung schlägt nach einem Failover die Authentifizierung durch Horizon fehl

    Problemumgehung: Starten Sie nach dem Failover die vRealize Automation-Appliance neu, um die Authentifizierung wiederherzustellen.

  • Manche Komponenten verhalten sich möglicherweise nicht wie erwartet, nachdem Sie einen vorhandenen inneren Blueprint in einen aktuellen äußeren Blueprint gezogen haben
    Die Komponenteneinstellungen können sich abhängig davon ändern, in welchem Blueprint sich die Komponente befindet. Wenn Sie z. B. Sicherheitsgruppen, Sicherheits-Tags oder On-Demand-Netzwerke sowohl auf der Ebene des inneren als auch auf der Ebene des äußeren Blueprints einschließen, setzen die Einstellungen des äußeren Blueprints diejenigen des inneren Blueprints außer Kraft. Netzwerk- und Sicherheitskomponenten werden nur auf der Ebene des äußeren Blueprints unterstützt, außer im Fall von vorhandenen Netzwerken, die auf Ebene des inneren Blueprints funktionieren.

    Problemumgehung: Fügen Sie alle Sicherheitsgruppen, Sicherheits-Tags und On-Demand-Netzwerke nur zum äußeren Blueprint hinzu.

  • Wenn Sie eine Eigenschaftsgruppe mit einem Punkt im Gruppennamen erstellen, können Sie die Gruppe nicht mit der Benutzeroberfläche von vRealize Automation bearbeiten
    Dieses Problem tritt auf, wenn Sie eine Eigenschaftsgruppe mit einem Punkt im Gruppennamen erstellen, z. B. property.group. Wenn Sie die Benutzeroberfläche von vRealize Automation zum Bearbeiten dieser Eigenschaftsgruppe verwenden, wird eine leere Seite angezeigt. Sie können die REST-API verwenden, um diese Eigenschaftsgruppe zu bearbeiten.

    Problemumgehung: Vermeiden Sie die Verwendung eines Eigenschaftsgruppennamens, der einen Punkt enthält. Falls sich das nicht vermeiden lässt, verwenden Sie die REST-API zum Bearbeiten der Gruppe.

  • Durch Kommunikationsausfall zwischen IaaS und dem gemeinsamen Dienstkatalog beim Löschvorgang bleibt die virtuelle Maschine in einem Löschzustand hängen
    Wenn die Kommunikation zwischen IaaS und dem gemeinsamen Dienstkatalog ausfällt, während die Löschanforderung läuft, aber bevor vRealize Automation den Eintrag der virtuellen Maschine aus der Datenbank gelöscht hat, bleibt die virtuelle Maschine in einem Löschzustand hängen. Nachdem die Kommunikation wiederhergestellt wurde, wird die Löschanforderung entweder auf „erfolgreich“ oder auf „fehlgeschlagen“ aktualisiert, aber die Maschine ist immer noch sichtbar. Obwohl die Maschine vom Endpoint gelöscht wurde, ist der Name noch in der Verwaltungsschnittstelle von vRealize Automation sichtbar.

  • Wenn Sie den Hostnamen der vRealize Automation-Appliance ändern, werden Dienste als nicht verfügbar markiert

    Problemumgehung: Wenn Dienste nicht mehr verfügbar sind, nachdem Sie den Hostnamen geändert haben, starten Sie den vRealize Automation-Server neu.

  • Wenn Sie ein Management-Agent-Domänenkonto auf einem geklonten Windows Server 2012 zu einer Domäne hinzufügen, verliert das Management-Agent-Domänenkonto seine Rechte am Privatschlüssel des Agent-Zertifikats.
    Wenn Sie einen Anpassungsassistenten zum Klonen einer Maschine in vSphere verwenden, die zu einer Domäne gehört, dann gehört diese Maschine nicht mehr zur Domäne. Wenn Sie die geklonte Maschine wieder zur Domäne hinzufügen, wird die folgende Fehlermeldung im Management-Agent-Protokoll angezeigt: CryptographicException - Keyset does not exist.

    Problemumgehung: Beheben Sie dieses Problem, indem Sie das folgende Verfahren zum Öffnen und Schließen der Sicherheitseinstellungen für den Privatschlüssel des Zertifikats verwenden, ohne dabei irgendwelche Änderungen vorzunehmen.

    1. Suchen Sie das Zertifikat mithilfe des Zertifikat-Snap-In der Microsoft Management Console. Das Snap-In zeigt die Agent-ID im Textfeld Anzeigename an.
    2. Wählen Sie Alle Aufgaben > Privatschlüssel verwalten.
    3. Klicken Sie auf Erweitert.
    4. Klicken Sie auf OK.

  • Das Ziehen eines vorhandenen inneren Blueprints in einen vorhandenen äußeren Blueprint weist Einschränkungen auf
    Wenn Sie einen vorhandenen inneren Blueprint in einen aktuellen äußeren Blueprint ziehen, gelten die folgenden Einschränkungen, wenn der innere Blueprint über Maschinen verfügt, die Sicherheitsgruppen, Sicherheits-Tags oder On-Demand-Netzwerken beigetreten sind. Dieses Problem kann auch auf importierten Blueprints auftreten.
    • Der äußere Blueprint kann keinen inneren Blueprint enthalten, der Einstellungen für bedarfsgesteuerte Netzwerke oder Einstellungen für Lastenausgleich bei Bedarf enthält. Die Verwendung eines inneren Blueprints, der eine On-Demand-Netzwerkkomponente von NSX oder eine On-Demand-Lastausgleichskomponente enthält, ist nicht verfügbar.
    • Wenn Sie Maschinen im inneren Blueprint neue oder zusätzliche Sicherheitsgruppen hinzufügen, werden die Maschinen nur dann Mitglieder der neuen Sicherheitsgruppen, wenn diese als Teil eines äußeren Blueprints hinzugefügt werden, selbst wenn die Seite zum Erstellen von Blueprints Sicherheitsgruppen aus dem inneren und äußeren Blueprint anzeigt.
    • Wenn Sie neue Sicherheits-Tags zu inneren Maschinen aus einem äußeren Blueprint hinzufügen, sind Sicherheits-Tags nicht mehr verfügbar, die ursprünglich im inneren Blueprint zugeordnet waren.
    • Wenn Sie neue On-Demand-Netzwerke zu inneren Maschinen aus einem äußeren Blueprint hinzufügen, sind die On-Demand-Netzwerke nicht mehr verfügbar, die ursprünglich im inneren Blueprint zugeordnet waren. Vorhandene Netzwerke, die ursprünglich im inneren Blueprint zugeordnet waren, bleiben verfügbar.

    Problemumgehung: Sie können dieses Problem beheben, indem Sie eine der folgenden Aufgaben ausführen:

    • Fügen Sie Sicherheitsgruppen, Tags oder On-Demand-Netzwerke zum äußeren, aber nicht zum inneren Blueprint hinzu.
    • Fügen Sie Sicherheitsgruppen, Tags oder vorhandene Netzwerke zum inneren, aber nicht zum äußeren Blueprint hinzu.

  • Das Menü „Suchattribut für das Verzeichnis“ auf der Seite „Verzeichnis hinzufügen“ enthält falsche Informationen
    Einige Codezeichenfolgen, die zuerst im Menü Suchattribut für das Verzeichnis erscheinen, sind falsch.

    Problemumgehung: Klicken Sie zum Anzeigen der richtigen Codezeichenfolgen auf das Dropdown-Menü Suchattribut für das Verzeichnis.

  • Fehler „Ressource nicht gefunden“ tritt beim Anfordern eines Katalogelements auf
    Wenn sich vRealize Automation im Hochverfügbarkeitsmodus befindet, der Master-Datenbankknoten ausfällt und kein Knoten zum neuen Masterknoten heraufgestuft wird, schlagen alle Dienste, die Schreibzugriff auf die Datenbank benötigen, fehl bzw. sie sind temporär beschädigt, bis ein neuer Knoten zum Masterknoten heraufgestuft wird.

    Problemumgehung: Sie können diesen Fehler nicht verhindern, wenn die Master-Datenbank nicht verfügbar ist. Sie können eine neue Master-Datenbank heraufstufen, damit dieser Fehler verschwindet und Sie Ressourcen anfordern können.

  • Änderungen werden auf der Blueprint-Formularseite eines XaaS-Blueprints nicht gespeichert
    Wenn Sie nach dem Aktualisieren eines Felds auf der Blueprint-Fomularseite eines XaaS-Blueprints nicht auf „Übernehmen“ klicken, werden Ihre Änderungen nicht gespeichert.

  • Registerkarte „Elemente“ zeigt keine Informationen zu den Diensten an, die für einen Lastausgleichsdienst aktiviert sind
    Für Maschinen, die durch Verwendung eines Lastausgleichsdiensts bereitgestellt werden, der vCloud Networking and Security zugeordnet ist, zeigt die Registerkarte „Elemente“ keine Informationen zu den Diensten an, die für diesen Lastausgleichsdienst aktiviert sind.

  • Wenn eine Maschine während des vSphere-Klonvorgangs gelöscht wird, wird die laufende Klonaufgabe der Maschine nicht abgebrochen
    Dieses Problem kann dazu führen, dass die Maschine geklont wird. Die geklonte Maschine wird dann möglicherweise in vCenter verwaltet, nicht mehr in vRealize Automation.

  • Wenn Sie einen zusammengesetzten Blueprint anfordern, schlägt die Anforderung sofort fehl, und das Formular mit den Anforderungsdetails kann nicht geladen werden
    Wenn die maximale Anzahl Leasetage für einen Komponenten-Blueprint geringer ist als die Anzahl der Leasetage des äußeren Blueprints, schlagen Anforderungen sofort fehl, und das Formular mit den Anforderungsdetails kann nicht geladen werden.

  • Sie können keine Bereitstellungen mit Bindungen zu DHCP-IP-Adressen in Softwarebereitstellungen haben
    Wenn Sie dies versuchen, ist die IP-Adresse nicht verfügbar, wenn kein Netzwerkprofil vorhanden ist. Die folgende Fehlermeldung erscheint: Systemfehler: Interner Fehler bei der Verarbeitung der Komponentenanforderung: com.vmware.vcac.platform.content.exceptions.EvaluationException: Keine Daten für Feld: ip_address.

    Problemumgehung: Falls eine Bindung erforderlich ist, verwenden Sie statische IP-Adressen oder IP-Adressen, die von vRealize Automation im Netzwerkprofil verwaltet werden, oder verwenden Sie eine IPAM-Integration. Wenn Sie DHCP verwenden, binden Sie an den Hostnamen und nicht an die IP-Adresse.

    Sie können das folgende Skript verwenden, um die IP-Adresse einer Cent OS-Maschine abzurufen:
    IPv4_Address = $(hostname -I | sed -e 's/[[:space:]]$//')
    echo $IPv4_Address

    Binden Sie an den Wert dieses Skripts, wenn die IP-Adresse für DHCP-Anwendungsfälle benötigt wird.

  • Verzeichnis wird selbst nach dem Empfang einer Fehlermeldung erstellt
    Wenn Sie ein Verzeichnis über Administration > Identitätsquellenverwaltung > Identitätsquellen erstellen und auf Speichern klicken, wird möglicherweise die Fehlermeldung Connector-Kommunikation aufgrund ungültiger Daten fehlgeschlagen. Problem beim Heraufstufen des Bind-DN-Benutzers zum Administrator: Der Benutzer ist bereits vorhanden und mit einem anderen Sync-Client verbunden angezeigt. Die neue Identitätsquelle wird mit einer falschen Konfiguration gespeichert und kann nicht verwendet werden.
    Dieser Fehler tritt auf, wenn Sie versuchen, ein neues Active Directory mit denselben Werten für den Basis-DN und Bind-DN zu speichern, die bereits in einem zuvor erstellten und vorhandenen Active Directory verwendet wurden.

    Problemumgehung: Sie müssen das neue Active Directory manuell löschen, da die Konfiguration falsch ist, und Sie müssen einen anderen Bind-DN und Basis-DN für das neue Active Directory verwenden.

  • Einem Benutzer-UPN wird eine Domäne hinzugefügt, wenn Sie ein Verzeichnis erstellen, das das Verzeichnissuchattribut „UserPrincipalName“ enthält
    Wenn Sie ein neues Verzeichnis erstellen und „UserPrincipalName“ als Verzeichnissuchattribut auswählen, wird einem Benutzer-UPN eine Domäne hinzugefügt. Beispielsweise erscheint der vRealize Automation-Benutzername eines Benutzers mit dem UPN „user.domain@domain.local“ als „user.domain@domain.local@domain.local“. Dies passiert, wenn das UPN-Suffix auf der AD-Site als Domäne konfiguriert wird. Wenn das UPN-Suffix angepasst wird und beispielsweise „example.com“ heißt, wird der vRealize Automation-Benutzername eines Benutzers mit dem UPN „user.domain@example.com“ als „user.domain@example.com@domain.local“ angezeigt.
    Wenn das Verzeichnissuchattribut „UserPrincipalName“ verwendet wird, müssen die Benutzer ihren Benutzernamen beim Anmelden exakt wie angezeigt eingeben (user.domain@domain.local@domain.local), einschließlich der Domäne, um die REST-API oder den Cloud-Client verwenden zu können.

    Problemumgehung: Verwenden Sie „sAMAccountName“ anstelle von „UserPrincipalName“, um die Funktion der Eindeutigkeit von Domänen für Benutzernamen der Verzeichnisverwaltung zu nutzen.

  • Ein Fehler des Typs „404 Nicht gefunden“ wird angezeigt, wenn im Namen eines anderen Benutzers eine Maschine angefordert wird
    Wenn ein Blueprint ein On-Demand-NAT-Netzwerk oder eine On-Demand-Lastausgleichskomponente enthält, wird ein Fehler des Typs „404 Nicht gefunden“ angezeigt, wenn eine im Namen eines anderen Benutzers angeforderte Bereitstellung vorgenommen wird.

  • Maschinen, die mit einen Massenimport importiert werden, werden nicht dem korrekten konvergenten Blueprint und dem korrekten Komponenten-Blueprint zugeordnet

    Problemumgehung: Fügen Sie in der Import-CSV-Datei für jede Maschine die benutzerdefinierte Eigenschaft „VMware.VirtualCenter.OperatingSystem“ hinzu.

    Beispiel:
    Yes,NNNNP2-0105,8ba90c35-9e03-4ac4-8a5d-2e6d76f37b81,development-res,ce-san-1:custom-nfs-2,UNNAMED_DEPLOYMENT-0105,BulkImport,Imported_Machine,system_blueprint_vsphere,user.admin@sqa.local,VMWare.VirtualCenter.OperatingSystem,sles11_64Guest,NOP

  • Katalogverwaltungsaktionen fehlen in vRealize Automation

    Problemumgehung: Weitere Informationen hierzu finden Sie im Knowledgebase-Artikel 2113027.

  • Wenn Active Directory mehr als 15 Benutzergruppen enthält, werden die Gruppen bei der Active Directory-Synchronisierung nicht aufgelistet
    Wenn Sie mehr als 15 Gruppen haben und versuchen, Active Directory in der Verwaltungsschnittstelle von vRealize Automation mit der Option Administration > Identitätsquellenverwaltung > Identitätsquellen zu synchronisieren, werden nur einige Gruppen angezeigt.

    Problemumgehung: Klicken Sie auf Auswählen, um die vollständige Liste anzuzeigen.

  • Nachdem Sie eine Replikatinstanz zur Master-Instanz heraufgestuft haben, werden auf der Registerkarte „Datenbank“ in der Verwaltungsschnittstelle des Master-Knotens von vRealize Automation falsche Informationen angezeigt
    Wenn der Master-Knoten in der vRealize Automation-Appliance einen Fehler aufweist, verwenden Sie die Verwaltungsschnittstelle in der vRealize Automation-Appliance eines fehlerfreien Knotens, um Verwaltungsvorgänge im Cluster durchzuführen.

  • Durch das Verschieben eines Datenspeichers aus einem vSphere Storage DRS in einen anderen löscht das System eine virtuelle Maschine, anstatt sie zu erstellen
    Wenn Sie einen Datenspeicher aus einem vSphere Storage DRS-Cluster in einen anderen vSphere Storage DRS-Cluster verschieben und die Automatisierungsebene des Zielclusters nicht auf „automatisch“ festgelegt ist, löscht das System durch die erneute Bereitstellung einer erstellten Maschine die Maschine mit der folgenden Fehlermeldung: StoragePlacement: Datenspeicher nicht spezifiziert für Festplatte in sdrs-deaktivierter VM. Dieses Problem tritt nicht auf, wenn die virtuelle Maschine geklont ist.

    Problemumgehung: Vergewissern Sie sich, dass die Automatisierungsebene des Zielclusters auf „automatisch“ festgelegt ist, bevor Sie einen Datenspeicher aus einem vSphere Storage DRS-Cluster in einen anderen verschieben. Es werden nur Bereitstellungen auf einer einzigen Maschine unterstützt.