NSX-Ereigniskatalog
Die folgenden Tabellen beschreiben Ereignisse, die Alarme in VMware NSX® auslösen, einschließlich Alarmmeldungen und empfohlenen Aktionen, um sie zu beheben. Jedes Ereignis mit einem Schweregrad größer alsNIEDRIGlöst einen Alarm aus. Alarminformationen werden an mehreren Stellen in der NSX Manager-Schnittstelle angezeigt. Alarm- und Ereignisinformationen sind auch in anderen Benachrichtigungen im Dropdown-Menü „Benachrichtigungen“ in der Titelleiste enthalten. Navigieren Sie zur Startseite und klicken Sie auf die Registerkarte Alarme, um Alarme anzuzeigen. Weitere Informationen zu Alarmen und Ereignissen finden Sie unter „Arbeiten mit Ereignissen und Alarmen“ im Administratorhandbuch für NSX.
Alarmmanagement-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Alarmdienst überlastet | Kritisch | global-manager, manager, aas | Der Alarmdienst ist überlastet. |
Überprüfen Sie alle aktiven Alarme auf der Seite „Alarme“ auf der NSX-Benutzeroberfläche oder mit der GET /api/v1/alarms?status=OPEN,ACKNOWLEDGED,SUPPRESSED-NSX API. Untersuchen Sie für jeden aktiven Alarm die Hauptursache, indem Sie die empfohlene Aktion für den Alarm befolgen. Wenn ausreichend Alarme behoben sind, beginnt der Alarmdienst erneut, neue Alarme zu melden. |
3.0.0 |
Hohe Anzahl an Alarmen | Kritisch | global-manager, manager, aas | Eine hohe Anzahl von Alarmen eines bestimmten Typs wurde erkannt. |
Überprüfen Sie alle aktiven Alarme des Typs {event_id} auf der Seite „Alarme“ auf der NSX-Benutzeroberfläche oder mit der GET /api/v1/alarms?status=OPEN,ACKNOWLEDGED,SUPPRESSED-NSX API. Untersuchen Sie für jeden aktiven Alarm die Hauptursache, indem Sie die empfohlene Aktion für den Alarm befolgen. Wenn ausreichend Alarme behoben sind, beginnt der Alarmdienst erneut, neue {event_id}-Alarme zu melden. |
3.0.0 |
Ereignisse in Bezug auf den Überwachungsprotokollzustand
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Fehler beim Aktualisieren der Überwachungsprotokolldatei | Kritisch | global-manager, manager, edge, public-cloud-gateway, esx, kvm, bms | In mindestens eine der überwachten Protokolldateien kann nicht geschrieben werden. |
1. Auf Manager- und globalen Manager-Knoten, Edge- und Public Cloud-Gateway-Knoten stellen Ubuntu-KVM-Hostknoten sicher, dass die Berechtigung für das Verzeichnis /var/log 775 ist und der Besitz root:syslog lautet. Ein Rhel-KVM- und ein BMS-Hostknoten stellen sicher, dass die Berechtigung für das Verzeichnis /var/log 755 ist und der Besitz root:root lautet. |
3.1.0 |
Fehler beim Remote-Protokollierungsserver | Kritisch | global-manager, manager, edge, public-cloud-gateway | Protokollmeldungen können aufgrund einer fehlerhaften Konfiguration des Remote-Protokollservers nicht zugestellt werden. |
1. Stellen Sie sicher, dass {hostname_or_ip_address_with_port} der richtige Hostname bzw. die richtige IP-Adresse und der richtige Port ist. |
3.1.0 |
Kapazitätsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Schwellenwert für Mindestkapazität | Mittel | manager | Ein Grenzwert für die minimale Kapazität wurde unterschritten. |
Navigieren Sie auf der NSX-Benutzeroberfläche zur Seite „Kapazität“ und überprüfen Sie die aktuelle Nutzung im Vergleich zu den Schwellenwerten. Wenn die aktuelle Nutzung im erwarteten Bereich liegt, sollten Sie gegebenenfalls die unteren Schwellenwerte erhöhen. Wenn die aktuelle Nutzung im unerwarteten Bereich liegt, prüfen Sie, ob die Netzwerkrichtlinien so konfiguriert sind, dass die Nutzung kleiner als der oder gleich dem minimalen Schwellenwert ist. |
3.1.0 |
Schwellenwert für Maximalkapazität | Hoch | manager | Ein Grenzwert für die maximale Kapazität wurde überschritten. |
Navigieren Sie auf der NSX-Benutzeroberfläche zur Seite „Kapazität“ und überprüfen Sie die aktuelle Nutzung im Vergleich zu den Schwellenwerten. Wenn die aktuelle Nutzung im erwarteten Bereich liegt, sollten Sie gegebenenfalls die maximalen Schwellenwerte erhöhen. Wenn die aktuelle Nutzung im unerwarteten Bereich liegt, prüfen Sie, ob die Netzwerkrichtlinien so konfiguriert sind, dass die Nutzung kleiner als der oder gleich dem maximalen Schwellenwert ist. |
3.1.0 |
Maximale Kapazität | Kritisch | manager | Eine maximale Kapazität wurde überschritten. |
Stellen Sie sicher, dass die Anzahl der erstellten NSX-Objekte innerhalb der von NSX unterstützten Grenzwerte liegt. Wenn nicht verwendete Objekte vorhanden sind, löschen Sie diese über die entsprechende NSX-Benutzeroberfläche oder -API aus dem System. Ziehen Sie eine Erhöhung des Formfaktors aller Manager-Knoten und/oder Edge-Knoten in Betracht. Beachten Sie, dass der Formfaktor der einzelnen Knotentypen identisch sein muss. Andernfalls werden die Kapazitätsgrenzwerte für den kleinsten bereitgestellten Formfaktor verwendet. |
3.1.0 |
Zertifikatsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Zertifikat abgelaufen | Kritisch | global-manager, manager | Ein Zertifikat ist abgelaufen. |
Stellen Sie sicher, dass Dienste, die das Zertifikat aktuell verwenden, aktualisiert werden, um ein neues, nicht abgelaufenes Zertifikat zu verwenden. Sobald das abgelaufene Zertifikat nicht mehr verwendet wird, sollte es gelöscht werden, indem Sie die NSX API „DELETE {api_collection_path}{entity_id}“ aufrufen. Wenn das abgelaufene Zertifikat von der NAPP-Plattform verwendet wird, wird die Verbindung zwischen NSX und der NAPP-Plattform unterbrochen. Überprüfen Sie das Dokument zur Fehlerbehebung der NAPP-Plattform, um ein selbstsigniertes NAPP-CA-Zertifikat für die Wiederherstellung der Verbindung zu verwenden. |
3.0.0 |
Zertifikat läuft in Kürze ab | Hoch | global-manager, manager | Zertifikat läuft in Kürze ab. |
Stellen Sie sicher, dass Dienste, die das Zertifikat aktuell verwenden, aktualisiert werden, um ein neues, nicht ablaufendes Zertifikat zu verwenden. Sobald das ablaufende Zertifikat nicht mehr verwendet wird, sollte es gelöscht werden, indem Sie die NSX API „DELETE {api_collection_path}{entity_id}“ aufrufen. |
3.0.0 |
Zertifikatsablauf steht bevor | Mittel | global-manager, manager | Ein Zertifikat läuft in Kürze ab. |
Stellen Sie sicher, dass Dienste, die das Zertifikat aktuell verwenden, aktualisiert werden, um ein neues, nicht ablaufendes Zertifikat zu verwenden. Sobald das ablaufende Zertifikat nicht mehr verwendet wird, sollte es gelöscht werden, indem Sie die NSX API „DELETE {api_collection_path}{entity_id}“ aufrufen. |
3.0.0 |
Aktualisierung des CA-Pakets empfohlen | Hoch | global-manager, manager | Es wird empfohlen, ein vertrauenswürdiges CA-Paket zu aktualisieren. |
Stellen Sie sicher, dass Dienste, die derzeit das vertrauenswürdige CA-Paket verwenden, aktualisiert werden, um ein kürzlich aktualisiertes vertrauenswürdiges CA-Paket zu verwenden. Sofern es sich nicht um ein vom System bereitgestelltes Paket handelt, kann das Paket mithilfe der NSX API „PUT /policy/api/v1/infra/cabundles/{entity_id}“ aktualisiert werden. Sobald das abgelaufene Paket nicht mehr verwendet wird, sollten Sie es löschen (sofern es nicht vom System bereitgestellt wird), indem Sie die NSX API „DELETE /policy/api/v1/infra/cabundles/{entity_id}“ aufrufen. |
3.2.0 |
Aktualisierung des CA-Pakets vorgeschlagen | Mittel | global-manager, manager | Es wird vorgeschlagen, ein vertrauenswürdiges CA-Paket zu aktualisieren. |
Stellen Sie sicher, dass Dienste, die derzeit das vertrauenswürdige CA-Paket verwenden, aktualisiert werden, um ein kürzlich aktualisiertes vertrauenswürdiges CA-Paket zu verwenden. Sofern es sich nicht um ein vom System bereitgestelltes Paket handelt, kann das Paket mithilfe der NSX API „PUT /policy/api/v1/infra/cabundles/{entity_id}“ aktualisiert werden. Sobald das abgelaufene Paket nicht mehr verwendet wird, sollte es gelöscht werden (sofern es nicht vom System bereitgestellt wird), indem Sie die NSX API „DELETE /policy/api/v1/infra/cabundles/{entity_id}“ aufrufen. |
3.2.0 |
Transportknotenzertifikat abgelaufen | Kritisch | bms, edge, esx, kvm, public-cloud-gateway | Ein Zertifikat ist abgelaufen. |
Ersetzen Sie das Transportknoten-{entity_id}-Zertifikat durch ein nicht abgelaufenes Zertifikat. Das abgelaufene Zertifikat sollte durch den Aufruf der NSX API „POST /api/v1/trust-management/certificates/action/replace-host-certificate/{entity_id}“ ersetzt werden. Wenn das abgelaufene Zertifikat vom Transportknoten verwendet wird, wird die Verbindung zwischen Transportknoten und Manager-Knoten unterbrochen. |
4.1.0 |
Transportknotenzertifikat läuft bald ab | Hoch | bms, edge, esx, kvm, public-cloud-gateway | Zertifikat läuft in Kürze ab. |
Ersetzen Sie das Transportknoten-{entity_id}-Zertifikat durch ein nicht abgelaufenes Zertifikat. Das abgelaufene Zertifikat sollte durch den Aufruf der NSX API „POST /api/v1/trust-management/certificates/action/replace-host-certificate/{entity_id}“ ersetzt werden. Wenn das Zertifikat nicht ersetzt wird, wird die Verbindung zwischen dem Transportknoten und dem Manager-Knoten unterbrochen, wenn das Zertifikat abläuft. |
4.1.0 |
Ablauf des Transportknotenzertifikats naht | Mittel | bms, edge, esx, kvm, public-cloud-gateway | Ein Zertifikat läuft in Kürze ab. |
Ersetzen Sie das Transportknoten-{entity_id}-Zertifikat durch ein nicht abgelaufenes Zertifikat. Das abgelaufene Zertifikat sollte durch den Aufruf der NSX API „POST /api/v1/trust-management/certificates/action/replace-host-certificate/{entity_id}“ ersetzt werden. Wenn das Zertifikat nicht ersetzt wird, wird die Verbindung zwischen dem Transportknoten und dem Manager-Knoten unterbrochen, wenn das Zertifikat abläuft. |
4.1.0 |
Clustering-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Cluster herabgestuft | Mittel | global-manager, manager | Gruppenmitglied ist nicht verfügbar. |
1. Rufen Sie den NSX-CLI-Befehl „get cluster status“ auf, um den Status der Gruppenmitglieder des Clusters anzuzeigen. |
3.2.0 |
Cluster nicht verfügbar | Hoch | global-manager, manager | Alle Gruppenmitglieder des Dienstes sind nicht verfügbar. |
1. Stellen Sie sicher, dass der Dienst für {group_type} auf dem Knoten ausgeführt wird. Rufen Sie die NSX API „GET /api/v1/node/services/<service_name>/status“ oder den NSX-CLI-Befehl get service <service_name> auf, um festzustellen, ob der Dienst ausgeführt wird. Wenn er nicht ausgeführt wird, rufen Sie die NSX API POST /api/v1/node/services/<service_name>?action=restart oder die NSX-CLI restart service <service_name> auf, um den Dienst neu zu starten. |
3.2.0 |
CNI-Integritätsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Hyperbus Manager-Verbindung auf DPU ausgefallen | Mittel | dpu | Hyperbus auf DPU kann nicht mit dem Manager-Knoten kommunizieren. |
Möglicherweise fehlt die Hyperbus-VMkernel-Schnittstelle (vmk50) auf DPU {dpu_id}. Weitere Informationen hierzu finden Sie in diesem Knowledgebase-Artikel: https://kb.vmware.com/s/article/67432. |
4.0.0 |
Hyperbus Manager-Verbindung ausgefallen | Mittel | esx, kvm | Hyperbus kann nicht mit dem Manager-Knoten kommunizieren. |
Möglicherweise fehlt die Hyperbus-VMkernel-Schnittstelle (vmk50). Weitere Informationen hierzu finden Sie in diesem Knowledgebase-Artikel: https://kb.vmware.com/s/article/67432. |
3.0.0 |
Kommunikationsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Begrenzte Erreichbarkeit auf DPU | Mittel | dpu | Der angegebene Collector kann nicht über vmknic(s) auf dem angegebenen DVS auf DPU erreicht werden. |
Wenn die Warnung aktiviert ist, bedeutet dies nicht, dass der Collector nicht erreichbar ist. Die exportierten Flows, die durch die Kategorie auf der Grundlage von DVS {dvs_alias} generiert werden, können den Collector {collector_ip} weiterhin über vmknic(s) auf DVS außer auf DVS {dvs_alias} erreichen. Wenn dies nicht akzeptabel ist, kann der Benutzer versuchen, vmknic(s) mit Stack {stack_alias} auf DVS {dvs_alias} zu erstellen und mit einer entsprechenden IPv4(6)-Adresse zu konfigurieren, und anschließend überprüfen, ob {vertical_name}-Collector {collector_ip} über die neu erstellten vmknic(s) auf DPU {dpu_id} erreicht werden kann, indem er vmkping {collector_ip} -S {stack_alias} -I vmkX bei aktiviertem SSH zu DPU über ESXi aufruft. |
4.0.1 |
Nicht erreichbarer Collector auf DPU | Kritisch | dpu | Der angegebene Collector kann über vorhandene vmknic(s) auf DPU überhaupt nicht erreicht werden. |
Damit der Collector für ein bestimmtes Vertical auf dem DVS erreichbar ist, muss der Benutzer sicherstellen, dass vmknic(s) mit dem erwarteten Stack-{stack_alias} erstellt und mit entsprechenden IPv4(6)-Adressen konfiguriert wurde(n) und die Netzwerkverbindung mit {vertical_name}-Collector {collector_ip} ebenfalls ordnungsgemäß ist. Der Benutzer muss also die DPU {dpu_id} überprüfen und die erforderliche Konfiguration durchführen, um sicherzustellen, dass die Bedingung erfüllt ist. Wenn schließlich vmkping {collector_ip} -S {stack_alias} mit aktiviertem SSH zu DPU über ESXi erfolgreich ist, bedeutet dies, dass das Problem behoben ist. |
4.0.1 |
Manager-Cluster-Latenz ist hoch | Mittel | manager | Die durchschnittliche Netzwerklatenz zwischen Manager-Knoten ist hoch. |
Stellen Sie sicher, dass keine Firewallregeln den Ping-Datenverkehr zwischen den Manager-Knoten blockieren. Wenn andere Server mit hoher Bandbreite und Anwendungen, die das lokale Netzwerk nutzen, vorhanden sind, verschieben Sie diese gegebenenfalls in ein anderes Netzwerk. |
3.1.0 |
Steuerungskanal zum Manager-Knoten ist zu lange inaktiv | Kritisch | bms, edge, esx, kvm, public-cloud-gateway | Die Control Plane-Verbindung des Transportknotens mit dem Manager-Knoten ist bereits lange inaktiv. |
1. Überprüfen Sie die Konnektivität des Transportknotens {entity_id} mit der Schnittstelle des Manager-Knotens {appliance_address} über Ping. Wenn sie über einen Ping-Befehl nicht erreichbar sind, überprüfen Sie, ob die Konnektivität im Netzwerk beeinträchtigt ist. |
3.1.0 |
Steuerungskanal zum Manager-Knoten inaktiv | Mittel | bms, edge, esx, kvm, public-cloud-gateway | Die Control Plane-Verbindung des Transportknotens mit dem Manager-Knoten ist inaktiv. |
1. Überprüfen Sie die Konnektivität des Transportknotens {entity_id} mit der Schnittstelle des Manager-Knotens {appliance_address} über Ping. Wenn sie über einen Ping-Befehl nicht erreichbar sind, überprüfen Sie, ob die Konnektivität im Netzwerk beeinträchtigt ist. |
3.1.0 |
Steuerungskanal zum Transportknoten inaktiv | Mittel | manager | Die Verbindung des Controller-Diensts mit dem Transportknoten ist getrennt. |
1. Überprüfen Sie die Konnektivität zwischen dem Controller-Dienst {central_control_plane_id} und der Schnittstelle des Transportknotens {entity_id} über Ping und Traceroute. Dies kann über die Admin-CLI des NSX Manager-Knotens durchgeführt werden. Der Ping-Test sollte keine Abbrüche und konsistente Latenzwerte aufweisen. VMware empfiehlt Latenzwerte von 150 ms oder weniger. |
3.1.0 |
Steuerungskanal zum Transportknoten lange inaktiv | Kritisch | manager | Die Verbindung des Controllers mit dem Transportknoten ist bereits zu lange getrennt. |
1. Überprüfen Sie die Konnektivität zwischen dem Controller-Dienst {central_control_plane_id} und der Schnittstelle des Transportknotens {entity_id} über Ping und Traceroute. Dies kann über die Admin-CLI des NSX Manager-Knotens durchgeführt werden. Der Ping-Test sollte keine Abbrüche und konsistente Latenzwerte aufweisen. VMware empfiehlt Latenzwerte von 150 ms oder weniger. |
3.1.0 |
Managerkontrollkanal ist nicht verfügbar | Kritisch | manager | Der Kanal zwischen Manager und Controller ist nicht verfügbar. |
1. Rufen Sie auf dem Manager-Knoten {manager_node_name} ({appliance_address}) den folgenden NSX-CLI-Befehl auf: get service applianceproxy, um den Status des Diensts regelmäßig 60 Minuten lang zu überprüfen. |
3.0.2 |
Verwaltungskanal für den Transportknoten ist nicht verfügbar | Mittel | manager | Der Verwaltungskanal für den Transportknoten ist nicht verfügbar. |
Stellen Sie sicher, dass Netzwerkkonnektivität zwischen den Manager-Knoten und dem Transportknoten {transport_node_name} ({transport_node_address}) besteht und keine Firewalls den Datenverkehr zwischen den Knoten blockieren. Stellen Sie auf Windows Transportknoten sicher, dass der nsx-proxy-Dienst auf dem Transportknoten ausgeführt wird, indem Sie den Befehl C:\NSX\nsx-proxy\nsx-proxy.ps1 status im Windows PowerShell aufrufen. Wenn er nicht ausgeführt wird, starten Sie ihn neu, indem Sie den Befehl aufrufen: C:\NSX\nsx-proxy\nsx-proxy.ps1 restart. Stellen Sie auf allen anderen Transportknoten sicher, dass der NSX-Proxydienst auf dem Transportknoten ausgeführt wird, indem Sie den Befehl aufrufen: /etc/init.d/nsx-proxy status. Wenn er nicht ausgeführt wird, starten Sie ihn neu, indem Sie den Befehl aufrufen: /etc/init.d/nsx-proxy restart. |
3.0.2 |
Verwaltungskanal zum Transportknoten zu lang inaktiv | Kritisch | manager | Verwaltungskanal zum Transportknoten ist zu lang inaktiv. |
Stellen Sie sicher, dass Netzwerkkonnektivität zwischen den Manager-Knoten und dem Transportknoten {transport_node_name} ({transport_node_address}) besteht und keine Firewalls den Datenverkehr zwischen den Knoten blockieren. Stellen Sie auf Windows Transportknoten sicher, dass der nsx-proxy-Dienst auf dem Transportknoten ausgeführt wird, indem Sie den Befehl C:\NSX\nsx-proxy\nsx-proxy.ps1 status im Windows PowerShell aufrufen. Wenn er nicht ausgeführt wird, starten Sie ihn neu, indem Sie den Befehl aufrufen: C:\NSX\nsx-proxy\nsx-proxy.ps1 restart. Stellen Sie auf allen anderen Transportknoten sicher, dass der NSX-Proxydienst auf dem Transportknoten ausgeführt wird, indem Sie den Befehl aufrufen: /etc/init.d/nsx-proxy status. Wenn er nicht ausgeführt wird, starten Sie ihn neu, indem Sie den Befehl aufrufen: /etc/init.d/nsx-proxy restart. |
3.0.2 |
Lookup von Manager FQDN fehlgeschlagen | Kritisch | global-manager, bms, edge, esx, kvm, manager, public-cloud-gateway | DNS-Lookup für den FQDN des Manager-Knotens fehlgeschlagen. |
1. Weisen Sie allen Manager-Knoten korrekte FQDNs zu und überprüfen Sie, ob die DNS-Konfiguration für einen erfolgreichen Lookup der FQDNs aller Manager-Knoten korrekt ist. |
3.1.0 |
Umgekehrter Lookup von Manager FQDN fehlgeschlagen | Kritisch | global-manager, manager | Umgekehrter DNS-Lookup für die IP-Adresse des-Manager-Knotens fehlgeschlagen. |
1. Weisen Sie allen Manager-Knoten die korrekten FQDNs zu und stellen Sie sicher, dass die DNS-Konfiguration für einen erfolgreichen umgekehrten Lookup der IP-Adresse des Manager-Knotens korrekt ist. |
3.1.0 |
Verwaltungskanal zum Manager-Knoten inaktiv | Mittel | bms, edge, esx, kvm, public-cloud-gateway | Verwaltungskanal zum Manager-Knoten ist inaktiv. |
Stellen Sie sicher, dass die Netzwerkkonnektivität zwischen dem Transportknoten {transport_node_id} und dem Master-Manager-Knoten besteht. und keine Firewalls den Datenverkehr zwischen den Knoten blockieren. Stellen Sie sicher, dass der Messaging-Manager-Dienst auf Manager-Knoten ausgeführt wird, indem Sie den Befehl aufrufen: /etc/init.d/messaging-manager status. Wenn der Messaging-Manager nicht ausgeführt wird, starten Sie ihn neu, indem Sie den Befehl aufrufen: /etc/init.d/messaging-manager restart. |
3.2.0 |
Verwaltungskanal zum Manager-Knoten lange inaktiv | Kritisch | bms, edge, esx, kvm, public-cloud-gateway | Verwaltungskanal zum Manager-Knoten ist zu lang inaktiv. |
Stellen Sie sicher, dass die Netzwerkkonnektivität zwischen dem Transportknoten {transport_node_id} und den Master-Manager-Knoten besteht. und keine Firewalls den Datenverkehr zwischen den Knoten blockieren. Stellen Sie sicher, dass der Messaging-Manager-Dienst auf Manager-Knoten ausgeführt wird, indem Sie den Befehl aufrufen: /etc/init.d/messaging-manager status. Wenn der Messaging-Manager nicht ausgeführt wird, starten Sie ihn neu, indem Sie den Befehl aufrufen: /etc/init.d/messaging-manager restart. |
3.2.0 |
Netzwerklatenz hoch | Mittel | manager | Die Netzwerklatenz der Transportknotenverwaltung ist hoch. |
1. Warten Sie 5 Minuten, um zu sehen, ob der Alarm automatisch behoben wird. |
4.0.0 |
DHCP-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Pool-Lease-Zuteilung fehlgeschlagen | Hoch | edge, autonomous-edge, public-cloud-gateway | Die IP-Adressen in einem IP-Pool wurden ausgeschöpft. |
Überprüfen Sie die Konfiguration des DHCP-Pools in der NSX-Benutzeroberfläche oder auf dem Edge-Knoten, auf dem der DHCP-Server ausgeführt wird, indem Sie den NSX-CLI-Befehl get dhcp ip-pool ausführen. Überprüfen Sie auch die aktuellen aktiven Leases auf dem Edge-Knoten, indem Sie den NSX-CLI-Befehl get dhcp lease aufrufen. Vergleichen Sie die Leases mit der Anzahl aktiver VMs. Sie sollten die Leasedauer in der DHCP-Serverkonfiguration verringern, wenn die Anzahl von VMs im Vergleich zur Anzahl aktiver Leases niedrig ist. Sie sollten auch den Poolbereich für den DHCP-Server erweitern, indem Sie die Seite Netzwerk | Segmente | Segment auf der NSX-Benutzeroberfläche aufrufen. |
3.0.0 |
Pool überladen | Mittel | edge, autonomous-edge, public-cloud-gateway | Ein IP-Pool ist überladen. |
Überprüfen Sie die Konfiguration des DHCP-Pools in der NSX-Benutzeroberfläche oder auf dem Edge-Knoten, auf dem der DHCP-Server ausgeführt wird, indem Sie den NSX-CLI-Befehl get dhcp ip-pool ausführen. Überprüfen Sie auch die aktuellen aktiven Leases auf dem Edge-Knoten, indem Sie den NSX-CLI-Befehl get dhcp lease aufrufen. Vergleichen Sie die Leases mit der Anzahl aktiver VMs. Sie sollten die Leasedauer in der DHCP-Serverkonfiguration verringern, wenn die Anzahl von VMs im Vergleich zur Anzahl aktiver Leases niedrig ist. Sie sollten auch den Poolbereich für den DHCP-Server erweitern, indem Sie die Seite Netzwerk | Segmente | Segment auf der NSX-Benutzeroberfläche aufrufen. |
3.0.0 |
Ereignisse der verteilten Firewall
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
DFW-CPU-Auslastung sehr hoch | Kritisch | esx | Die DFW-CPU-Nutzung ist sehr hoch. |
Erwägen Sie, die Arbeitslasten der VM auf diesem Host erneut auf andere Hosts auszugleichen. Überprüfen Sie das Sicherheitsdesign für die Optimierung. Verwenden Sie beispielsweise die Konfiguration „Anwenden auf“, wenn die Regeln nicht auf das gesamte Datencenter zutreffen. |
3.0.0 |
DFW-CPU-Auslastung auf DPU sehr hoch | Kritisch | dpu | Die DFW-CPU-Auslastung auf DPU ist sehr hoch. |
Erwägen Sie, die Arbeitslasten der VM auf diesem Host erneut auf andere Hosts auszugleichen. Überprüfen Sie das Sicherheitsdesign für die Optimierung. Verwenden Sie beispielsweise die Konfiguration „Anwenden auf“, wenn die Regeln nicht auf das gesamte Datencenter zutreffen. |
4.0.0 |
DFW-Arbeitsspeichernutzung sehr hoch | Kritisch | esx | Die DFW-Arbeitsspeichernutzung ist sehr hoch. |
Zeigen Sie die aktuelle DFW-Arbeitsspeicherauslastung an, indem Sie den NSX-CLI-Befehl get firewall thresholds auf dem Host aufrufen. Erwägen Sie, die Arbeitslasten auf diesem Host erneut auf andere Hosts auszugleichen. |
3.0.0 |
DFW-Arbeitsspeichernutzung auf DPU sehr hoch | Kritisch | dpu | Die DFW-Arbeitsspeichernutzung auf DPU ist sehr hoch. |
Zeigen Sie die aktuelle DFW-Arbeitsspeicherauslastung an, indem Sie den NSX-CLI-Befehl get firewall thresholds auf der DPU aufrufen. Erwägen Sie, die Arbeitslasten auf diesem Host erneut auf andere Hosts auszugleichen. |
4.0.0 |
Fehler bei DFW VMotion | Kritisch | esx | Fehler bei DFW vMotion, Port getrennt. |
Überprüfen Sie VMs auf dem Host in NSX Manager und übertragen Sie die DFW-Konfiguration manuell über die NSX Manager-Benutzeroberfläche erneut. Die neu zu übertragende DFW-Richtlinie kann durch den DFW-Filter {entity_id} nachverfolgt werden. Suchen Sie auch die VM, an die der DFW-Filter angehängt ist, und starten Sie sie neu. |
3.2.0 |
DFW-Flood-Grenzwertwarnung | Mittel | esx | Der DFW-Flood-Grenzwert hat die Warnstufe erreicht. |
Überprüfen Sie die VMs auf dem Host in NSX Manager und überprüfen Sie die konfigurierte Flood-Warnungsstufe des DFW-Filters {entity_id} für das Protokoll {protocol_name}. |
4.1.0 |
DFW-Flood-Grenzwert kritisch | Kritisch | esx | Der DFW-Flood-Grenzwert hat eine kritische Stufe erreicht. |
Überprüfen Sie die VMs auf dem Host in NSX Manager und überprüfen Sie die konfigurierte kritische Flood-Stufe des DFW-Filters {entity_id} für das Protokoll {protocol_name}. |
4.1.0 |
Hohe Anzahl von DFW-Sitzungen | Kritisch | esx | Die Anzahl der DFW-Sitzungen ist hoch. |
Überprüfen Sie die Lastebene des Netzwerkdatenverkehrs der Arbeitslasten auf dem Host. Erwägen Sie, die Arbeitslasten auf diesem Host erneut auf andere Hosts auszugleichen. |
3.2.0 |
Grenzwert für DFW-Regeln pro Vnic überschritten | Kritisch | esx | Der Grenzwert für DFW-Regeln pro vNIC überschreitet in Kürze den maximalen Grenzwert. |
Melden Sie sich beim ESX-Host {transport_node_name} an und rufen Sie den NSX-CLI-Befehl get firewall <VIF_UUID> ruleset rules auf, um die Regelstatistik für Regeln anzuzeigen, die auf der entsprechenden VIF konfiguriert sind. Reduzieren Sie die Anzahl der für VIF-{entity_id} konfigurierten Regeln. |
4.0.0 |
Grenzwert für DFW-Regeln pro Vnic nähert sich | Mittel | esx | Der Grenzwert für DFW-Regeln pro vNIC nähert sich dem maximalen Grenzwert. |
Melden Sie sich beim ESX-Host {transport_node_name} an und rufen Sie den NSX-CLI-Befehl get firewall <VIF_UUID> ruleset rules auf, um die Regelstatistik für Regeln anzuzeigen, die auf der entsprechenden VIF konfiguriert sind. Reduzieren Sie die Anzahl der für VIF-{entity_id} konfigurierten Regeln. |
4.0.0 |
Grenzwert für DFW-Regeln pro Host überschritten | Kritisch | esx | Der Grenzwert für DFW-Regeln pro Host überschreitet in Kürze den maximalen Grenzwert. |
Melden Sie sich beim ESX-Host {transport_node_name} an und rufen Sie den NSX-CLI-Befehl get firewall rule-stats total auf, um die Regelstatistik für Regeln anzuzeigen, die auf dem ESX-Host {transport_node_name} konfiguriert sind. Reduzieren Sie die Anzahl der für Host-{entity_id} konfigurierten Regeln. Überprüfen Sie die Anzahl der für verschiedene VIFs konfigurierten Regeln mithilfe des NSX-CLI-Befehls get firewall <VIF_UUID> ruleset rules. Reduzieren Sie die Anzahl der für verschiedene VIFs konfigurierten Regeln. |
4.0.0 |
Grenzwert für DFW-Regeln pro Host nähert sich | Mittel | esx | Der Grenzwert für DFW-Regeln pro Host nähert sich dem maximalen Grenzwert. |
Melden Sie sich beim ESX-Host {transport_node_name} an und rufen Sie den NSX-CLI-Befehl get firewall rule-stats total auf, um die Regelstatistik für Regeln anzuzeigen, die auf dem ESX-Host {transport_node_name} konfiguriert sind. Reduzieren Sie die Anzahl der für Host-{entity_id} konfigurierten Regeln. Überprüfen Sie die Anzahl der für verschiedene VIFs konfigurierten Regeln mithilfe des NSX-CLI-Befehls get firewall <VIF_UUID> ruleset rules. Reduzieren Sie die Anzahl der für verschiedene VIFs konfigurierten Regeln. |
4.0.0 |
Verteilte IDS IPS-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Max. Ereignisse erreicht | Mittel | manager | Die maximale Anzahl der Eindringereignisse wurde erreicht. |
Hierzu ist kein manueller Eingriff erforderlich. Ein Löschauftrag wird automatisch alle 3 Minuten gestartet und löscht 10 % der älteren Datensätze, um die Gesamtzahl der Eindringereignisse im System unter den Schwellenwert von 1,5 Millionen Ereignissen zu bringen. |
3.1.0 |
Die Arbeitsspeichernutzung der NSX-IDPS-Engine ist hoch | Mittel | esx | Die Arbeitsspeichernutzung der NSX-IDPS-Engine hat 75% oder höher erreicht. |
Erwägen Sie, die Arbeitslasten der VM auf diesem Host erneut auf andere Hosts auszugleichen. |
3.1.0 |
Die Arbeitsspeichernutzung der NSX-IDPS-Engine auf DPU ist hoch | Mittel | dpu | Die Arbeitsspeichernutzung der NSX-IDPS-Engine auf DPU hat 75 % oder mehr erreicht. |
Erwägen Sie, die Arbeitslasten der VM auf diesem Host erneut auf andere Hosts auszugleichen. |
4.0.0 |
Die Arbeitsspeichernutzung der NSX-IDPS-Engine ist mittelhoch | Hoch | esx | Die Arbeitsspeichernutzung der NSX-IDPS-Engine hat 85 % oder höher erreicht. |
Erwägen Sie, die Arbeitslasten der VM auf diesem Host erneut auf andere Hosts auszugleichen. |
3.1.0 |
Die Arbeitsspeichernutzung der NSX-IDPS-Engine auf DPU ist mittelhoch | Hoch | dpu | Die Arbeitsspeichernutzung der NSX-IDPS-Engine auf DPU hat 85 % oder mehr erreicht. |
Erwägen Sie, die Arbeitslasten der VM auf diesem Host erneut auf andere Hosts auszugleichen. |
4.0.0 |
Die Arbeitsspeichernutzung der NSX-IDPS-Engine ist sehr hoch | Kritisch | esx | Die Arbeitsspeichernutzung der NSX-IDPS-Engine hat 95 % oder höher erreicht. |
Erwägen Sie, die Arbeitslasten der VM auf diesem Host erneut auf andere Hosts auszugleichen. |
3.1.0 |
Die Arbeitsspeichernutzung der NSX-IDPS-Engine auf DPU ist sehr hoch | Kritisch | dpu | Die Arbeitsspeichernutzung der NSX-IDPS-Engine auf DPU hat 95 % oder mehr erreicht. |
Erwägen Sie, die Arbeitslasten der VM auf diesem Host erneut auf andere Hosts auszugleichen. |
4.0.0 |
CPU-Auslastung der NSX-IDPS-Engine ist hoch | Mittel | esx | Die CPU-Auslastung der NSX-IDPS-Engine hat 75 % oder höher erreicht. |
Erwägen Sie, die Arbeitslasten der VM auf diesem Host erneut auf andere Hosts auszugleichen. |
3.1.0 |
CPU-Auslastung der NSX-IDPS-Engine ist mittelhoch | Hoch | esx | Die CPU-Auslastung der NSX-IDPS-Engine hat 85 % oder höher erreicht. |
Erwägen Sie, die Arbeitslasten der VM auf diesem Host erneut auf andere Hosts auszugleichen. |
3.1.0 |
CPU-Auslastung der NSX-IDPS-Engine ist sehr hoch | Kritisch | esx | Die CPU-Nutzung der NSX-IDPS-Engine hat 95 % oder höher überschritten. |
Erwägen Sie, die Arbeitslasten der VM auf diesem Host erneut auf andere Hosts auszugleichen. |
3.1.0 |
NSX-IDPS-Engine ist inaktiv | Kritisch | esx | NSX-IDPS wurde über eine NSX-Richtlinie aktiviert und IDPS-Regeln sind konfiguriert, die NSX-IDPS-Engine ist aber inaktiv. |
1. Überprüfen Sie /var/log/nsx-syslog.log, um festzustellen, ob Fehler gemeldet wurden. |
3.1.0 |
NSX-IDPS-Engine auf DPU inaktiv | Kritisch | dpu | NSX-IDPS wurde über eine NSX-Richtlinie aktiviert und IDPS-Regeln sind konfiguriert, die NSX-IDPS-Engine auf DPU ist aber inaktiv. |
1. Überprüfen Sie in /var/log/nsx-idps/nsx-idps.log und /var/log/nsx-syslog.log, ob Fehler gemeldet wurden. |
4.0.0 |
CPU-Abonnement der IDPS-Engine stark überschritten | Mittel | esx | Die CPU-Auslastung für die verteilte IDPS-Engine ist hoch. |
Überprüfen Sie den Grund für die Abonnementüberschreitung. Verschieben Sie bestimmte Anwendungen auf einen anderen Host. |
4.0.0 |
CPU-Abonnement der IDPS-Engine sehr stark überschritten | Hoch | esx | Die CPU-Auslastung für die verteilte IDPS-Engine ist sehr hoch. |
Überprüfen Sie den Grund für die Abonnementüberschreitung. Verschieben Sie bestimmte Anwendungen auf einen anderen Host. |
4.0.0 |
Netzwerkabonnement der IDPS-Engine stark überschritten | Mittel | esx | Die Netzwerknutzung für die verteilte IDPS-Engine ist hoch. |
Überprüfen Sie den Grund für die Abonnementüberschreitung. Überprüfen Sie die IDPS-Regeln, um die Menge des Datenverkehrs zu reduzieren, der dem IDPS-Dienst unterliegt. |
4.0.0 |
Netzwerkabonnement der IDPS-Engine sehr stark überschritten | Hoch | esx | Die Netzwerknutzung für die verteilte IDPS-Engine ist sehr hoch. |
Überprüfen Sie den Grund für die Abonnementüberschreitung. Überprüfen Sie die IDPS-Regeln, um die Menge des Datenverkehrs zu reduzieren, der dem IDPS-Dienst unterliegt. |
4.0.0 |
CPU-Abonnement für verworfenen Datenverkehr der IDPS-Engine überschritten | Kritisch | esx | Die verteilte IDPS-Engine hat den Datenverkehr aufgrund einer CPU-Abonnementüberschreitung verworfen. |
Überprüfen Sie den Grund für die Abonnementüberschreitung. Verschieben Sie bestimmte Anwendungen auf einen anderen Host. |
4.0.0 |
Netzwerkabonnement für verworfenen Datenverkehr der IDPS-Engine überschritten | Kritisch | esx | Die verteilte IDPS-Engine hat den Datenverkehr aufgrund einer Netzwerkabonnementüberschreibung verworfen. |
Überprüfen Sie den Grund für die Abonnementüberschreitung. Überprüfen Sie die IDPS-Regeln, um die Menge des Datenverkehrs zu reduzieren, der dem IDPS-Dienst unterliegt. |
4.0.0 |
CPU-Abonnement für umgangenen Datenverkehr der IDPS-Engine überschritten | Kritisch | esx | Die verteilte IDPS-Engine hat den Datenverkehr aufgrund einer CPU-Abonnementüberschreitung umgangen. |
Überprüfen Sie den Grund für die Abonnementüberschreitung. Verschieben Sie bestimmte Anwendungen auf einen anderen Host. |
4.0.0 |
Netzwerkabonnement für umgangenen Datenverkehr der IDPS-Engine überschritten | Kritisch | esx | Die verteilte IDPS-Engine hat den Datenverkehr aufgrund einer Netzwerkabonnementüberschreitung umgangen. |
Überprüfen Sie den Grund für die Abonnementüberschreitung. Überprüfen Sie die IDPS-Regeln, um die Menge des Datenverkehrs zu reduzieren, der dem IDPS-Dienst unterliegt. |
4.0.0 |
DNS-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Weiterleitung inaktiv | Hoch | edge, autonomous-edge, public-cloud-gateway | Eine DNS-Weiterleitung ist ausgefallen. |
1. Rufen Sie den NSX-CLI-Befehl get dns-forwarders status auf, um zu überprüfen, ob die DNS-Weiterleitung den Status „inaktiv“ aufweist. |
3.0.0 |
Weiterleitung deaktiviert | Info | edge, autonomous-edge, public-cloud-gateway | Eine DNS-Weiterleitung ist deaktiviert. |
1. Rufen Sie den NSX-CLI-Befehl get dns-forwarders status auf, um zu überprüfen, ob die DNS-Weiterleitung den Status „deaktiviert“ aufweist. |
3.0.0 |
Zeitüberschreitung bei Weiterleitungs-Upstream-Server | Hoch | edge, autonomous-edge, public-cloud-gateway | Bei einem DNS-Weiterleitungs-Upstream-Server ist eine Zeitüberschreitung aufgetreten. |
1. Rufen Sie die NSX API GET /api/v1/dns/forwarders/{dns_id}/nslookup? Address=<address>&server_ip={dns_upstream_ip}&source_ip=<source_ip>.{dns_upstream_ip}&source_ip=<source_ip> auf. Diese API-Anfrage löst ein DNS-Lookup zum Upstream-Server im Netzwerk-Namespace der DNS-Weiterleitung aus. <address> ist die IP-Adresse oder der FQDN in derselben Domäne wie der Upstream-Server. <source_ip> ist eine IP-Adresse in der Upstream-Serverzone. Wenn die API eine Zeitüberschreitungsantwort für die Verbindung zurückgibt, liegt wahrscheinlich ein Netzwerkfehler oder ein Upstream-Serverproblem vor. Überprüfen Sie, warum DSN-Lookups den Upstream-Server nicht erreichen können oder warum der Upstream-Server keine Antwort zurückgibt. Wenn die API-Antwort anzeigt, dass der Upstream-Server antwortet, fahren Sie mit Schritt 2 fort. |
3.1.3 |
Edge-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Edge-Knoteneinstellungen stimmen nicht überein | Kritisch | manager | Edge-Knoten-Einstellungen stimmen nicht überein. |
Überprüfen Sie die Knoteneinstellungen dieses Edge-Transportknotens {entity_id}. Führen Sie eine der folgenden Aktionen aus, um Alarm - |
3.2.0 |
VSphere-Einstellungen der Edge-VM stimmen nicht überein | Kritisch | manager | vSphere-Einstellungen der Edge-VM stimmen nicht überein. |
Überprüfen Sie die vSphere-Konfiguration dieses Edge-Transportknotens {entity_id}. Führen Sie eine der folgenden Aktionen aus, um Alarm - |
3.2.0 |
Edge-Knoteneinstellungen und VSphere-Einstellungen werden geändert | Kritisch | manager | Edge-Knoten- und vSphere-Einstellungen werden geändert. |
Überprüfen Sie die Knoteneinstellungen und die vSphere-Konfiguration dieses Edge-Transportknotens {entity_id}. Führen Sie eine der folgenden Aktionen aus, um Alarm - |
3.2.0 |
Nichtübereinstimmung bei Edge-VSphere-Speicherort | Hoch | manager | Nichtübereinstimmung bei Edge-vSphere-Speicherort. |
Überprüfen Sie die vSphere-Konfiguration dieses Edge-Transportknotens {entity_id}. Führen Sie eine der folgenden Aktionen aus, um Alarm - |
3.2.0 |
Die Edge-VM ist in der NSX-Bestandsliste, aber nicht in VCenter vorhanden | Kritisch | manager | Die automatische Edge-VM ist in der NSX-Bestandsliste, aber nicht in vCenter vorhanden. |
Die MoRef-ID der Referenz auf ein verwaltetes Objekt einer VM liegt im Format „vm-number“ vor, das beim Auswählen der Edge-VM auf der vCenter-Benutzeroberfläche in der URL angezeigt wird. Beispiel: vm-12011 in https://<vc-url>/ui/app/vm;nav=h/urn:vmomi:VirtualMachine:vm-12011:164ff798-c4f1-495b-a0be-adfba337e5d2/summary. Suchen Sie die VM {policy_edge_vm_name} mit der MoRef-ID {vm_moref_id} für den Edge-Transportknoten {entity_id} in vCenter. Wenn die Edge-VM in vCenter mit einer anderen MoRef-ID vorhanden ist, führen Sie die folgende Aktion aus. Verwenden Sie die NSX API für das Hinzufügen oder Aktualisieren der Platzierung mit JSON Request Payload mit den Propertys vm_id und vm_deployment_config, um die neue MoRef-ID und die vSphere-Bereitstellungsparameter zu aktualisieren. POST https://<manager-ip>/api/v1/transport-nodes/<tn-id>?action=addOrUpdatePlacementReferences. Wenn die Edge-VM {policy_edge_vm_name} nicht in vCenter vorhanden ist, verwenden Sie die NSX API für das erneute Bereitstellen einer neuen VM für den Edge-Knoten. POST https://<manager-ip>/api/v1/transport-nodes/<tn-id>?action=redeploy. |
3.2.1 |
Die Edge-VM ist weder in der NSX-Bestandsliste noch in VCenter vorhanden | Kritisch | manager | Die automatische Edge-VM ist weder in der NSX-Bestandsliste noch in vCenter vorhanden. |
Die MoRef-ID der Referenz auf ein verwaltetes Objekt einer VM liegt im Format „vm-number“ vor, das beim Auswählen der Edge-VM auf der vCenter-Benutzeroberfläche in der URL angezeigt wird. Beispiel: vm-12011 in https://<vc-url>/ui/app/vm;nav=h/urn:vmomi:VirtualMachine:vm-12011:164ff798-c4f1-495b-a0be-adfba337e5d2/summary. Suchen Sie die VM {policy_edge_vm_name} mit der MoRef-ID {vm_moref_id} für den Edge-Transportknoten {entity_id} in vCenter. Führen Sie die folgende Aktion aus, um den Alarm aufzulösen. Prüfen Sie, ob die VM in vSphere gelöscht wurde oder mit einer anderen MoRef-ID vorhanden ist. |
3.2.1 |
Fehler beim Löschen der alten VM in VCenter während der erneuten Bereitstellung | Kritisch | manager | Der Ausschalt- und Löschvorgang für die alte Edge-VM in vCenter ist während der erneuten Bereitstellung fehlgeschlagen. |
Die MoRef-ID der Referenz auf ein verwaltetes Objekt einer VM liegt im Format „vm-number“ vor, das beim Auswählen der Edge-VM auf der vCenter-Benutzeroberfläche in der URL angezeigt wird. Beispiel: vm-12011 in https://<vc-url>/ui/app/vm;nav=h/urn:vmomi:VirtualMachine:vm-12011:164ff798-c4f1-495b-a0be-adfba337e5d2/summary. Suchen Sie die VM {policy_edge_vm_name} mit der MoRef-ID {vm_moref_id} für den Edge-Transportknoten {entity_id} in vCenter. Schalten Sie die alte Edge-VM {policy_edge_vm_name} mit der MoRef-ID {vm_moref_id} in vCenter aus und löschen Sie sie. |
3.2.1 |
Nicht übereinstimmende Hardwareversion am Edge | Mittel | manager | Der Edge-Knoten stimmt nicht mit der Hardwareversion überein. |
Bitte befolgen Sie den KB-Artikel, um den Alarm für eine nicht übereinstimmende Hardwareversion des Edge-Knotens {transport_node_name} zu beheben. |
4.0.1 |
Edge-Cluster-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Fehler beim Verlagern des Edge-Cluster-Mitglieds | Kritisch | manager | Alarm für Fehler bei Verlagerung des Edge-Clustermitglieds |
Überprüfen Sie die verfügbare Kapazität für den Edge-Cluster. Wenn mehr Kapazität erforderlich ist, skalieren Sie den Edge-Cluster. Wiederholen Sie den Vorgang zum Verlagern des Edge-Clustermitglieds. |
4.0.0 |
Edge-Integritätsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Edge-CPU-Auslastung sehr hoch | Kritisch | edge, public-cloud-gateway | Die CPU-Auslastung durch den Edge-Knoten ist sehr hoch. |
Überprüfen Sie die Konfiguration, die Dienstausführung und die Dimensionierung dieses Edge-Knotens. Sie sollten für die jeweilige Arbeitslast eine Anpassung der Formfaktorgröße der Edge-Appliance oder die Neuverteilung von Diensten auf andere Edge-Knoten in Erwägung ziehen. |
3.0.0 |
Edge-CPU-Nutzung hoch | Mittel | edge, public-cloud-gateway | Die CPU-Auslastung durch den Edge-Knoten ist hoch. |
Überprüfen Sie die Konfiguration, die Dienstausführung und die Dimensionierung dieses Edge-Knotens. Sie sollten für die jeweilige Arbeitslast eine Anpassung der Formfaktorgröße der Edge-Appliance oder die Neuverteilung von Diensten auf andere Edge-Knoten in Erwägung ziehen. |
3.0.0 |
Edge-Arbeitsspeichernutzung sehr hoch | Kritisch | edge, public-cloud-gateway | Die Arbeitsspeichernutzung des Edge-Knotens ist sehr hoch. |
Überprüfen Sie die Konfiguration, die Dienstausführung und die Dimensionierung dieses Edge-Knotens. Sie sollten für die jeweilige Arbeitslast eine Anpassung der Formfaktorgröße der Edge-Appliance oder die Neuverteilung von Diensten auf andere Edge-Knoten in Erwägung ziehen. |
3.0.0 |
Edge-Arbeitsspeichernutzung hoch | Mittel | edge, public-cloud-gateway | Die Arbeitsspeichernutzung des Edge-Knotens ist hoch. |
Überprüfen Sie die Konfiguration, die Dienstausführung und die Dimensionierung dieses Edge-Knotens. Sie sollten für die jeweilige Arbeitslast eine Anpassung der Formfaktorgröße der Edge-Appliance oder die Neuverteilung von Diensten auf andere Edge-Knoten in Erwägung ziehen. |
3.0.0 |
Edge-Festplattennutzung sehr hoch | Kritisch | edge, public-cloud-gateway | Die Festplattennutzung des Edge-Knotens ist sehr hoch. |
Untersuchen Sie die Partition mit hoher Auslastung und prüfen Sie, ob unerwartete große Dateien vorhanden sind, die entfernt werden können. |
3.0.0 |
Edge-Festplattennutzung hoch | Mittel | edge, public-cloud-gateway | Die Festplattennutzung des Edge-Knotens ist hoch. |
Untersuchen Sie die Partition mit hoher Auslastung und prüfen Sie, ob unerwartete große Dateien vorhanden sind, die entfernt werden können. |
3.0.0 |
CPU-Nutzung des Edge-Datenpfads ist sehr hoch | Kritisch | edge, autonomous-edge, public-cloud-gateway | Die CPU-Auslastung durch den Edge-Knoten-Datenpfad ist sehr hoch. |
Überprüfen Sie die CPU-Statistik auf dem Edge-Knoten, indem Sie den NSX-CLI-Befehl get dataplane cpu stats aufrufen, um die Paketraten pro CPU-Kern zu sehen. Bei höheren Paketraten wird eine höhere CPU-Auslastung erwartet. Ziehen Sie eine Erhöhung der Formfaktorgröße der Edge-Appliance und eine Neuverteilung der Dienste auf diesem Edge-Knoten auf andere Edge-Knoten im selben Cluster oder auf andere Edge-Cluster in Erwägung. |
3.0.0 |
CPU-Auslastung des Edge-Datenpfads ist hoch | Mittel | edge, autonomous-edge, public-cloud-gateway | Die CPU-Auslastung durch den Edge-Knoten-Datenpfad ist hoch. |
Überprüfen Sie die CPU-Statistik auf dem Edge-Knoten, indem Sie den NSX-CLI-Befehl get dataplane cpu stats aufrufen, um die Paketraten pro CPU-Kern zu sehen. Bei höheren Paketraten wird eine höhere CPU-Auslastung erwartet. Ziehen Sie eine Erhöhung der Formfaktorgröße der Edge-Appliance und eine Neuverteilung der Dienste auf diesem Edge-Knoten auf andere Edge-Knoten im selben Cluster oder auf andere Edge-Cluster in Erwägung. |
3.0.0 |
Konfigurationsfehler bei Edge-Datenpfad | Hoch | edge, autonomous-edge, public-cloud-gateway | Die Konfiguration des Edge-Knoten-Datenpfads ist fehlgeschlagen. |
Stellen Sie sicher, dass die Konnektivität zwischen dem Edge-Knoten und dem Manager-Knoten fehlerfrei ist. Rufen Sie in der NSX-CLI des Edge-Knotens den Befehl get services auf, um den Zustand der Dienste zu überprüfen. Wenn der dataplane-Dienst angehalten ist, rufen Sie den Befehl start service dataplane auf, um ihn zu starten. |
3.0.0 |
Edge-Datenpfad-Cryptodrv inaktiv | Kritisch | edge, autonomous-edge, public-cloud-gateway | Der Crypto-Treiber des Edge-Knotens ist inaktiv. |
Aktualisieren Sie den Edge-Knoten nach Bedarf. |
3.0.0 |
Edge-Datenpfad-Mempool hoch | Mittel | edge, autonomous-edge, public-cloud-gateway | Der Mempool des Edge-Knoten-Datenpfads ist hoch. |
Melden Sie sich als Root-Benutzer an und rufen Sie die Befehle edge-appctl -t /var/run/vmware/edge/dpd.ctl mempool/show und edge-appctl -t /var/run/vmware/edge/dpd.ctl memory/show malloc_heap auf, um die DPDK-Arbeitsspeicherauslastung zu überprüfen. |
3.0.0 |
Globale Edge-ARP-Tabellennutzung hoch | Mittel | edge, autonomous-edge, public-cloud-gateway | Die globale ARP-Tabellennutzung des Edge-Knotens ist hoch. |
Melden Sie sich als Root-Benutzer an und rufen Sie den Befehl edge-appctl -t /var/run/vmware/edge/dpd.ctl neigh/show auf. Überprüfen Sie, ob die Neigh-Cache-Nutzung normal ist. Rufen Sie, sofern sie normal ist, edge-appctl -t /var/run/vmware/edge/dpd.ctl neigh/set_param max_entries auf, um die ARP-Tabellengröße zu erhöhen. |
3.0.0 |
Empfangspuffer der Edge-Netzwerkkarte überschritten | Mittel | edge, autonomous-edge, public-cloud-gateway | Die Netzwerkkarte des Edge-Knotens hat vorübergehend keine RX-Ringpuffer mehr. |
Führen Sie den NSX-CLI-Befehl get dataplane cpu stats auf dem Edge-Knoten aus und überprüfen Sie Folgendes: |
3.0.0 |
Übertragungspuffer der Edge-Netzwerkkarte überschritten | Kritisch | edge, autonomous-edge, public-cloud-gateway | Die Netzwerkkarte des Edge-Knotens hat vorübergehend keine TX-Ringpuffer mehr. |
1. Wenn viele VMs zusammen mit Edge vom Hypervisor aufgenommen werden, hat die Edge-VM möglicherweise nicht genügend Zeit für die Ausführung, weshalb die Pakete möglicherweise nicht vom Hypervisor abgerufen werden. Dann wird die Edge-VM wahrscheinlich zu einem Host mit weniger VMs migriert. |
3.0.0 |
Verbindungsstatus der Edge-Netzwerkkarte ist inaktiv | Kritisch | edge, autonomous-edge, public-cloud-gateway | Verbindung der Netzwerkkarte des Edge-Knotens ist ausgefallen. |
Bestätigen Sie auf dem Edge-Knoten, dass die Verbindung der Netzwerkkarte physisch inaktiv ist, indem Sie den NSX-CLI-Befehl get interfaces aufrufen. Wenn Sie inaktiv ist, überprüfen Sie die Kabelverbindung. |
3.0.0 |
Speicherfehler | Kritisch | edge, autonomous-edge, public-cloud-gateway | Die Festplatte des Edge-Knotens ist schreibgeschützt. |
Untersuchen Sie die schreibgeschützte Partition, um festzustellen, ob ein Neustart das Problem behebt oder die Festplatte ersetzt werden muss. Wenden Sie sich an GSS, um weitere Informationen zu erhalten. |
3.0.1 |
Datenpfad-Thread im Deadlock | Kritisch | edge, autonomous-edge, public-cloud-gateway | Der Datenpfad-Thread des Edge-Knotens weist eine Deadlock-Bedingung auf. |
Starten Sie den Datenebenendienst neu, indem Sie den NSX-CLI-Befehl restart service dataplane aufrufen. |
3.1.0 |
Edge-Datenpfad-NIC-Durchsatz sehr hoch | Kritisch | edge, autonomous-edge, public-cloud-gateway | Der NIC-Durchsatz durch den Edge-Knoten-Datenpfad ist sehr hoch. |
Untersuchen Sie die Durchsatzwerte des Datenverkehrs auf der Netzwerkkarte und ermitteln Sie, ob Konfigurationsänderungen erforderlich sind. Der Befehl "get dataplane thoughput <seconds>" kann zur Überwachung des Durchsatzes verwendet werden. |
3.2.0 |
Edge-Datenpfad-NIC-Durchsatz hoch | Mittel | edge, autonomous-edge, public-cloud-gateway | Der NIC-Durchsatz durch den Edge-Knoten-Datenpfad ist hoch. |
Untersuchen Sie die Durchsatzwerte des Datenverkehrs auf der Netzwerkkarte und ermitteln Sie, ob Konfigurationsänderungen erforderlich sind. Der Befehl "get dataplane thoughput <seconds>" kann zur Überwachung des Durchsatzes verwendet werden. |
3.2.0 |
Fehlerdomäne nicht verfügbar | Kritisch | edge, public-cloud-gateway | Alle Mitglieder der Fehlerdomäne sind nicht verfügbar. |
1. Überprüfen Sie auf dem Edge-Knoten, der durch {transport_node_id} identifiziert wird, die Konnektivität zur Management Plane und zur Control Plane, indem Sie den NSX CLI-Befehl get managers und get controllers aufrufen. |
3.2.0 |
Micro-Flow-Cache-Trefferrate niedrig | Mittel | edge, autonomous-edge, public-cloud-gateway | Micro-Flow-Cache-Trefferrate nimmt ab und Datenpfad-CPU ist hoch. |
Cache-Flow-Trefferrate hat sich in den letzten 30 Minuten verringert. Dies ist ein Hinweis darauf, dass die Edge-Leistung beeinträchtigt werden kann. Der Datenverkehr wird weiterhin weitergeleitet und möglicherweise treten keine Probleme auf. Überprüfen Sie die CPU-Auslastung des Datenpfads für Edge {entity_id}-Kern {core_id}, wenn sie in den letzten 30 Minuten hoch ist. Der Edge hat eine niedrige Flow-Cache-Trefferrate, wenn kontinuierlich neue Flows erstellt werden, da das erste Paket eines neuen Flows verwendet wird, um Flow-Cache für die schnelle Pfadverarbeitung einzurichten. Sie können die Größe Ihrer Edge-Appliance oder die Anzahl der Edge-Knoten erhöhen, die für Aktiv/Aktiv-Gateways verwendet werden. |
3.2.2 |
Mega-Flow-Cache-Trefferrate niedrig | Mittel | edge, autonomous-edge, public-cloud-gateway | Mega-Flow-Cache-Trefferrate nimmt ab und Datenpfad-CPU ist hoch. |
Cache-Flow-Trefferrate hat sich in den letzten 30 Minuten verringert. Dies ist ein Hinweis darauf, dass die Edge-Leistung beeinträchtigt werden kann. Der Datenverkehr wird weiterhin weitergeleitet und möglicherweise treten keine Probleme auf. Überprüfen Sie die CPU-Auslastung des Datenpfads für Edge {entity_id}-Kern {core_id}, wenn sie in den letzten 30 Minuten hoch ist. Der Edge hat eine niedrige Flow-Cache-Trefferrate, wenn kontinuierlich neue Flows erstellt werden, da das erste Paket eines neuen Flows verwendet wird, um Flow-Cache für die schnelle Pfadverarbeitung einzurichten. Sie können die Größe Ihrer Edge-Appliance oder die Anzahl der Edge-Knoten erhöhen, die für Aktiv/Aktiv-Gateways verwendet werden. |
3.2.2 |
Ereignisse für Endpoint-Schutz
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
EAM-Status nicht verfügbar | Kritisch | manager | Der ESX Agent Manager (EAM)-Dienst auf einem Compute Manager ist nicht verfügbar. |
Starten Sie den ESX Agent Manager(EAM)-Dienst. Geben Sie SSH in vCenter ein und rufen Sie den Befehl service vmware-eam start auf. |
3.0.0 |
Partnerkanal nicht verfügbar | Kritisch | esx | Die Verbindung zwischen Host-Modul und Partner-SVM ist ausgefallen. |
Weitere Informationen finden Sie unter https://kb.vmware.com/s/article/85844. Stellen Sie sicher, dass die Partner-SVM {entity_id} erneut mit dem Host-Modul verbunden wird. |
3.0.0 |
Verbundereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
RTEP-BGP inaktiv | Hoch | edge, autonomous-edge, public-cloud-gateway | RTEP-BGP-Nachbar ist inaktiv. |
1. Führen Sie auf dem betroffenen Edge-Knoten den NSX-CLI-Befehl get logical-routers aus. |
3.0.1 |
LM-zu-LM-Synchronisierungswarnung | Mittel | manager | Synchronisation zwischen Remotespeicherorten seit mehr als 3 Minuten fehlgeschlagen. |
1. Rufen Sie den NSX-CLI-Befehl get site-replicator remote-sites auf, um den Verbindungsstatus zwischen den Remotespeicherorten abzurufen. Wenn ein Remotespeicherort verbunden, aber nicht synchronisiert ist, kann es sein, dass sich der Speicherort noch im Prozess der Masterauflösung befindet. Warten Sie in diesem Fall etwa 10 Sekunden und versuchen Sie dann erneut, den CLI-Befehl auszuführen, um den Zustand des Remotespeicherorts zu überprüfen. Wenn ein Speicherort getrennt ist, versuchen Sie es mit dem nächsten Schritt. |
3.0.1 |
LM-zu-LM-Synchronisierungsfehler | Hoch | manager | Synchronisation zwischen Remotespeicherorten seit mehr als 15 Minuten fehlgeschlagen. |
1. Rufen Sie den NSX-CLI-Befehl get site-replicator remote-sites auf, um den Verbindungsstatus zwischen den Remotespeicherorten abzurufen. Wenn ein Remotespeicherort verbunden, aber nicht synchronisiert ist, kann es sein, dass sich der Speicherort noch im Prozess der Masterauflösung befindet. Warten Sie in diesem Fall etwa 10 Sekunden und versuchen Sie dann erneut, den CLI-Befehl auszuführen, um den Zustand des Remotespeicherorts zu überprüfen. Wenn ein Speicherort getrennt ist, versuchen Sie es mit dem nächsten Schritt. |
3.0.1 |
RTEP-Konnektivität verloren | Hoch | manager | Die Verbindung zum RTEP-Speicherort wurde unterbrochen. |
1. Führen Sie auf dem betroffenen Edge-Knoten {transport_node_name} den NSX-CLI-Befehl get logical-routers aus. |
3.0.2 |
GM zu GM Split Brain | Kritisch | global-manager | Mehrere Globaler Manager-Knoten sind gleichzeitig aktiv. |
Konfigurieren Sie nur einen Globaler Manager-Knoten als aktiv und alle anderen Globaler Manager-Knoten als Standby. |
3.1.0 |
GM-zu-GM-Latenzwarnung | Mittel | global-manager | Die Latenz zwischen globalen Manager-Instanzen ist länger als erwartet und beträgt mehr als 2 Minuten |
Überprüfen Sie die Konnektivität zwischen dem globalen Manager {from_gm_path}({site_id}) und dem globalen Manager {to_gm_path}({remote_site_id}) per Ping. Wenn sie über einen Ping-Befehl nicht erreichbar sind, überprüfen Sie, ob die Konnektivität im WAN beeinträchtigt ist. |
3.2.0 |
GM-zu-GM-Synchronisierungswarnung | Mittel | global-manager | Der aktive globale Manager kann nicht mit dem globalen Standby-Manager synchronisiert werden |
Überprüfen Sie die Konnektivität zwischen dem globalen Manager {from_gm_path}({site_id}) und dem globalen Manager {to_gm_path}({remote_site_id}) per Ping. |
3.2.0 |
GM-zu-GM-Synchronisierungsfehler | Hoch | global-manager | Aktiver globaler Manager kann mehr als 5 Minuten lang nicht mit dem globalen Standby-Manager synchronisiert werden |
Überprüfen Sie die Konnektivität zwischen dem globalen Manager {from_gm_path}({site_id}) und dem globalen Manager {to_gm_path}({remote_site_id}) per Ping. |
3.2.0 |
GM-zu-LM-Synchronisierungswarnung | Mittel | global-manager, manager | Die Datensynchronisierung zwischen dem globalen Manager (GM) und dem lokalen Manager (LM) ist fehlgeschlagen. |
1. Prüfen Sie die Netzwerkkonnektivität zwischen der Remote-Site und der lokalen Site per Ping. |
3.2.0 |
GM-zu-LM-Synchronisierungsfehler | Hoch | global-manager, manager | Die Datensynchronisierung zwischen dem globalen Manager (GM) und dem lokalen Manager (LM) ist für einen längeren Zeitraum fehlgeschlagen. |
1. Prüfen Sie die Netzwerkkonnektivität zwischen der Remote-Site und der lokalen Site per Ping. |
3.2.0 |
Schwellenwert für Warteschlangenbelegung überschritten | Mittel | manager, global-manager | Warnung, dass der Schwellenwert für die Belegung der Warteschlange überschritten wurde. |
Die Warteschlangengröße kann den Schwellenwert aufgrund eines Kommunikationsproblems mit der Remote-Site oder eines überlasteten Systems überschreiten. Überprüfen Sie die Systemleistung und stellen Sie anhand von /var/log/async-replicator/ar.log fest, ob Fehler gemeldet wurden. |
3.2.0 |
GM-zu-LM-Latenzwarnung | Mittel | global-manager, manager | Die Latenz zwischen dem globalen Manager und dem lokalen Manager ist länger als erwartet und beträgt mehr als 2 Minuten. |
1. Prüfen Sie die Netzwerkkonnektivität zwischen der Remote-Site und der lokalen Site per Ping. |
3.2.0 |
LM-Wiederherstellung während des Konfigurationsimports | Hoch | global-manager | Der lokale Manager wird wiederhergestellt, während der Konfigurationsimport auf dem globalen Manager ausgeführt wird. |
1. Melden Sie sich bei der CLI der globalen NSX Manager-Appliance an. |
3.2.0 |
Gateway-Firewall-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Anzahl der IP-Flows hoch | Mittel | edge, public-cloud-gateway | Die Auslastung der Flow-Tabelle der Gateway-Firewall für IP-Datenverkehr ist hoch. Neue Flows werden von der Gateway-Firewall verworfen, wenn die Nutzung den maximalen Grenzwert erreicht. |
Melden Sie sich als Admin-Benutzer beim Edge-Knoten an und rufen Sie den NSX CLI-Befehl get firewall <LR_INT_UUID> interface stats | json auf, indem Sie die richtige Schnittstellen-UUID verwenden und die Auslastung der Flow-Tabelle für IP-Flows überprüfen. Stellen Sie sicher, dass es sich bei den das Gateway durchlaufenden Datenverkehrsströmen nicht um einen DOS-Angriff oder anormalen Burst handelt. Wenn jedoch bei scheinbar normaler Last des Datenverkehrs der Alarmschwellenwert erreicht wird, sollten Sie den Alarmschwellenwert erhöhen oder neuen Datenverkehr an einen anderen Edge-Knoten weiterleiten. |
3.1.3 |
Anzahl der IP-Flows überschritten | Kritisch | edge, public-cloud-gateway | Die Flow-Tabelle der Gateway-Firewall für IP-Datenverkehr hat den festgelegten Schwellenwert überschritten. Neue Flows werden von der Gateway-Firewall verworfen, wenn die Nutzung den maximalen Grenzwert erreicht. |
Melden Sie sich als Admin-Benutzer beim Edge-Knoten an und rufen Sie den NSX CLI-Befehl get firewall <LR_INT_UUID> interface stats | json auf, indem Sie die richtige Schnittstellen-UUID verwenden und die Auslastung der Flow-Tabelle für IP-Flows überprüfen. Stellen Sie sicher, dass es sich bei den das Gateway durchlaufenden Datenverkehrsströmen nicht um einen DOS-Angriff oder anormalen Burst handelt. Wenn jedoch bei scheinbar normaler Last des Datenverkehrs der Alarmschwellenwert erreicht wird, sollten Sie den Alarmschwellenwert erhöhen oder neuen Datenverkehr an einen anderen Edge-Knoten weiterleiten. |
3.1.3 |
Anzahl der UDP-Flows hoch | Mittel | edge, public-cloud-gateway | Die Auslastung der Flow-Tabelle der Gateway-Firewall für UDP-Datenverkehr ist hoch. Neue Flows werden von der Gateway-Firewall verworfen, wenn die Nutzung den maximalen Grenzwert erreicht. |
Melden Sie sich als Admin-Benutzer beim Edge-Knoten an und rufen Sie den NSX CLI-Befehl get firewall <LR_INT_UUID> interface stats | json auf, indem Sie die richtige Schnittstellen-UUID verwenden und die Auslastung der Flow-Tabelle für UDP-Flows überprüfen. Stellen Sie sicher, dass es sich bei den das Gateway durchlaufenden Datenverkehrsströmen nicht um einen DOS-Angriff oder anormalen Burst handelt. Wenn jedoch bei scheinbar normaler Last des Datenverkehrs der Alarmschwellenwert erreicht wird, sollten Sie den Alarmschwellenwert erhöhen oder neuen Datenverkehr an einen anderen Edge-Knoten weiterleiten. |
3.1.3 |
Anzahl der UDP-Flows überschritten | Kritisch | edge, public-cloud-gateway | Die Flow-Tabelle der Gateway-Firewall für UDP-Datenverkehr hat den festgelegten Schwellenwert überschritten. Neue Flows werden von der Gateway-Firewall verworfen, wenn die Nutzung den maximalen Grenzwert erreicht. |
Melden Sie sich als Admin-Benutzer beim Edge-Knoten an und rufen Sie den NSX CLI-Befehl get firewall <LR_INT_UUID> interface stats | json auf, indem Sie die richtige Schnittstellen-UUID verwenden und die Auslastung der Flow-Tabelle für UDP-Flows überprüfen. Stellen Sie sicher, dass es sich bei den das Gateway durchlaufenden Datenverkehrsströmen nicht um einen DOS-Angriff oder anormalen Burst handelt. Wenn jedoch bei scheinbar normaler Last des Datenverkehrs der Alarmschwellenwert erreicht wird, sollten Sie den Alarmschwellenwert erhöhen oder neuen Datenverkehr an einen anderen Edge-Knoten weiterleiten. |
3.1.3 |
Anzahl der ICMP-Flows hoch | Mittel | edge, public-cloud-gateway | Die Auslastung der Flow-Tabelle der Gateway-Firewall für ICMP-Datenverkehr ist hoch. Neue Flows werden von der Gateway-Firewall verworfen, wenn die Nutzung den maximalen Grenzwert erreicht. |
Melden Sie sich als Admin-Benutzer beim Edge-Knoten an und rufen Sie den NSX CLI-Befehl get firewall <LR_INT_UUID> interface stats | json auf, indem Sie die richtige Schnittstellen-UUID verwenden und die Auslastung der Flow-Tabelle für ICMP-Flows überprüfen. Stellen Sie sicher, dass es sich bei den das Gateway durchlaufenden Datenverkehrsströmen nicht um einen DOS-Angriff oder anormalen Burst handelt. Wenn jedoch bei scheinbar normaler Last des Datenverkehrs der Alarmschwellenwert erreicht wird, sollten Sie den Alarmschwellenwert erhöhen oder neuen Datenverkehr an einen anderen Edge-Knoten weiterleiten. |
3.1.3 |
Anzahl der ICMP-Flows überschritten | Kritisch | edge, public-cloud-gateway | Die Flow-Tabelle der Gateway-Firewall für ICMP-Datenverkehr hat den festgelegten Schwellenwert überschritten. Neue Flows werden von der Gateway-Firewall verworfen, wenn die Nutzung den maximalen Grenzwert erreicht. |
Melden Sie sich als Admin-Benutzer beim Edge-Knoten an und rufen Sie den NSX CLI-Befehl get firewall <LR_INT_UUID> interface stats | json auf, indem Sie die richtige Schnittstellen-UUID verwenden und die Auslastung der Flow-Tabelle für ICMP-Flows überprüfen. Stellen Sie sicher, dass es sich bei den das Gateway durchlaufenden Datenverkehrsströmen nicht um einen DOS-Angriff oder anormalen Burst handelt. Wenn jedoch bei scheinbar normaler Last des Datenverkehrs der Alarmschwellenwert erreicht wird, sollten Sie den Alarmschwellenwert erhöhen oder neuen Datenverkehr an einen anderen Edge-Knoten weiterleiten. |
3.1.3 |
Anzahl der halb offenen TCP-Flows hoch | Mittel | edge, public-cloud-gateway | Die Auslastung der Flow-Tabelle der Gateway-Firewall für halb offenen TCP-Datenverkehr ist hoch. Neue Flows werden von der Gateway-Firewall verworfen, wenn die Nutzung den maximalen Grenzwert erreicht. |
Melden Sie sich als Admin-Benutzer beim Edge-Knoten an und rufen Sie den NSX CLI-Befehl get firewall <LR_INT_UUID> interface stats | json auf, indem Sie die richtige Schnittstellen-UUID verwenden und die Auslastung der Flow-Tabelle für halb offene TCP-Flows überprüfen. Stellen Sie sicher, dass es sich bei den das Gateway durchlaufenden Datenverkehrsströmen nicht um einen DOS-Angriff oder anormalen Burst handelt. Wenn jedoch bei scheinbar normaler Last des Datenverkehrs der Alarmschwellenwert erreicht wird, sollten Sie den Alarmschwellenwert erhöhen oder neuen Datenverkehr an einen anderen Edge-Knoten weiterleiten. |
3.1.3 |
Anzahl der halb offenen TCP-Flows überschritten | Kritisch | edge, public-cloud-gateway | Die Flow-Tabelle der Gateway-Firewall für halb offenen TCP-Datenverkehr hat den festgelegten Schwellenwert überschritten. Neue Flows werden von der Gateway-Firewall verworfen, wenn die Nutzung den maximalen Grenzwert erreicht. |
Melden Sie sich als Admin-Benutzer beim Edge-Knoten an und rufen Sie den NSX-CLI-Befehl get firewall <LR_INT_UUID> interface stats | json auf, indem Sie die richtige Schnittstellen-UUID verwenden und die Auslastung der Flow-Tabelle für halb offene TCP-Flows überprüfen. Stellen Sie sicher, dass es sich bei den das Gateway durchlaufenden Datenverkehrsströmen nicht um einen DOS-Angriff oder anormalen Burst handelt. Wenn jedoch bei scheinbar normaler Last des Datenverkehrs der Alarmschwellenwert erreicht wird, sollten Sie den Alarmschwellenwert erhöhen oder neuen Datenverkehr an einen anderen Edge-Knoten weiterleiten. |
3.1.3 |
Gruppen-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Grenzwert für Gruppengröße überschritten | Mittel | manager | Gesamtanzahl der übersetzten Gruppenelemente hat den maximalen Grenzwert überschritten. |
1. Erwägen Sie die Anpassung von Gruppenelementen in überdimensionierten Gruppen {group_id}. |
4.1.0 |
Hochverfügbarkeitsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Tier0-Gateway-Failover | Hoch | edge, autonomous-edge, public-cloud-gateway | Ein Tier0-Gateway hat ein Failover durchgeführt. |
Rufen Sie den NSX-CLI-Befehl get logical-router <service_router_id> auf, um die VRF-ID des Tier-0-Dienstrouters abzurufen. Wechseln Sie zum VRF-Kontext, indem Sie erst vrf <vrf-id> und dann get high-availability status aufrufen, um den inaktiven Dienst zu ermitteln. |
3.0.0 |
Tier1-Gateway-Failover | Hoch | edge, autonomous-edge, public-cloud-gateway | Ein Tier-1-Gateway hat ein Failover durchgeführt. |
Rufen Sie den NSX-CLI-Befehl get logical-router <service_router_id> auf, um die VRF-ID des Tier-1-Dienstrouters abzurufen. Wechseln Sie zum VRF-Kontext, indem Sie erst vrf <vrf-id> und dann get high-availability status aufrufen, um den inaktiven Dienst zu ermitteln. |
3.0.0 |
Tier-0-Dienstgruppen-Failover | Hoch | edge, public-cloud-gateway | Dienstgruppe hat keine aktive Instanz. |
Untersuchen Sie den NSX-CLI-Befehl get logical-router <service_router_id> service_group, um alle unter einem bestimmten Dienstrouter konfigurierten Dienstgruppen zu überprüfen. Untersuchen Sie die Ausgabe auf die Fehlerursache für eine zuvor im Standby-Status befindliche Dienstgruppe. |
4.0.1 |
Tier-1-Dienstgruppen-Failover | Hoch | edge, public-cloud-gateway | Dienstgruppe hat keine aktive Instanz. |
Untersuchen Sie den NSX-CLI-Befehl get logical-router <service_router_id> service_group, um alle unter einem bestimmten Dienstrouter konfigurierten Dienstgruppen zu überprüfen. Untersuchen Sie die Ausgabe auf die Fehlerursache für eine zuvor im Standby-Status befindliche Dienstgruppe. |
4.0.1 |
Reduzierte Tier-0-Dienstgruppen-Redundanz | Mittel | edge, public-cloud-gateway | Eine Standby-Instanz in einer Dienstgruppe ist fehlgeschlagen. |
Untersuchen Sie den NSX-CLI-Befehl get logical-router <service_router_id> service_group, um alle unter einem bestimmten Dienstrouter konfigurierten Dienstgruppen zu überprüfen. Untersuchen Sie die Ausgabe auf die Fehlerursache für eine zuvor im Standby-Status befindliche Dienstgruppe. |
4.0.1 |
Reduzierte Tier-1-Dienstgruppen-Redundanz | Mittel | edge, public-cloud-gateway | Eine Standby-Instanz in einer Dienstgruppe ist fehlgeschlagen. |
Untersuchen Sie den NSX-CLI-Befehl get logical-router <service_router_id> service_group, um alle unter einem bestimmten Dienstrouter konfigurierten Dienstgruppen zu überprüfen. Untersuchen Sie die Ausgabe auf die Fehlerursache für eine zuvor im Standby-Status befindliche Dienstgruppe. |
4.0.1 |
Ereignisse der identitätsbasierten Firewall
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Verbindung mit LDAP-Server ist unterbrochen | Kritisch | manager | Die Verbindung zum LDAP-Server ist unterbrochen. |
Überprüfen Sie: |
3.1.0 |
Fehler bei der Delta-Synchronisierung | Kritisch | manager | Beim Ausführen der Deltasynchronisierung sind Fehler aufgetreten. |
1. Überprüfen Sie, ob Alarme vorliegen, die sich auf die Unterbrechung der Verbindung zum LDAP-Server beziehen. |
3.1.0 |
Infrastruktur-Kommunikationsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Edge-Tunnel inaktiv | Kritisch | edge, public-cloud-gateway | Der Tunnelstatus eines Edge-Knotens ist inaktiv. |
Rufen Sie den NSX-CLI-Befehl get tunnel-ports auf, um alle Tunnel-Ports abzurufen, und überprüfen Sie dann die Statistiken der einzelnen Tunnel, indem Sie den NSX-CLI-Befehl get tunnel-port <UUID> stats aufrufen, um zu überprüfen, ob es Abbrüche gibt. Überprüfen Sie anschließend in /var/log/syslog, ob auf Tunnel bezogene Fehler vorhanden sind. |
3.0.0 |
Infrastruktur-Dienstereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Dienststatus auf DPU ist unbekannt | Kritisch | dpu | Der Dienststatus auf DPU ist abnormal. |
Stellen Sie sicher, dass der {service_name}-Dienst weiterhin auf DPU {dpu_id} ausgeführt wird, indem Sie /etc/init.d/{service_name} status ausführen. Wenn gemeldet wird, dass der Dienst ausgeführt wird, muss er möglicherweise neu gestartet werden. Dies kann durch /etc/init.d/{service_name} restart ausgeführt werden. Führen Sie den Statusbefehl erneut aus, um zu prüfen, ob der Dienst jetzt ausgeführt wird. Wenn das Problem durch einen Neustart des Dienstes nicht behoben wird oder wenn das Problem nach einem erfolgreichen Neustart erneut auftritt, wenden Sie sich an VMware Support. |
4.0.0 |
Dienststatus ist unbekannt | Kritisch | esx, kvm, bms, edge, manager, public-cloud-gateway, global-manager | Der Dienststatus ist abnormal. |
Stellen Sie sicher, dass der {service_name}-Dienst weiterhin ausgeführt wird, indem Sie /etc/init.d/{service_name} status ausführen. Wenn gemeldet wird, dass der Dienst ausgeführt wird, muss er möglicherweise neu gestartet werden. Dies kann durch /etc/init.d/{service_name} restart ausgeführt werden. Führen Sie den Statusbefehl erneut aus, um zu prüfen, ob der Dienst jetzt ausgeführt wird. Wenn das Skript /etc/init.d/{service_name} nicht verfügbar ist, führen Sie systemctl {service_name} status aus, und starten Sie neu, indem Sie systemctl {service_name} restart mit Root-Berechtigungen ausführen. Wenn das Problem durch einen Neustart des Dienstes nicht behoben wird oder wenn das Problem nach einem erfolgreichen Neustart erneut auftritt, wenden Sie sich an VMware Support. |
3.1.0 |
Metrikbereitstellungsfehler | Kritisch | esx, bms, edge, manager, public-cloud-gateway, global-manager | Fehler beim Bereitstellen von Metriken an das angegebene Ziel. |
Der Benutzer sollte die folgenden Prüfungen durchführen, um das Problem, das den Fehler verursacht, auszuschließen: 1. Überprüfen Sie, ob die für die Verbindung übergebene Zieladresse {metrics_target_address} und Port {metrics_target_port} (Standardwert ist 443, wenn der Port nicht angegeben ist) das erwartete Ziel ist. 2. Überprüfen Sie, ob das Zertifikat korrekt ist, indem Sie /opt/vmware/nsx-nestdb/bin/nestdb-cli --cmd 'put vmware.nsx.nestdb.CommonAgentHostConfigMsg' aufrufen. 3. Überprüfen Sie, ob Ziel {metrics_target_address} erreichbar ist. 4. Überprüfen Sie, ob der Metrikmanager auf Ziel {metrics_target_address} von docker ps | grep metrics_manager ausgeführt wird. 5. Überprüfen Sie, ob Port {metrics_target_port} durch netstat -a | grep {metrics_target_port} auf dem Ziel geöffnet ist. 6. Überprüfen Sie, ob die ALLOW-Firewallregel auf dem Knoten durchiptables -S OUTPUT | grep {metrics_target_port} (EDGE/UA) oder „localcli network firewall ruleset list | grep nsx-sha-tsdb (ESX) installiert ist. 7. Starten Sie den SHA-Daemon neu, um zu prüfen, ob er durch /etc/init.d/netopa restart (ESX) oder /etc/init.d/nsx-netopa restart (EDGE) oder /etc/init.d/nsx-sha restart (UA) repariert werden kann. |
4.1.0 |
Status des Edge-Diensts nicht verfügbar | Kritisch | edge, autonomous-edge, public-cloud-gateway | Der Edge-Dienst ist mindestens eine Minute lang inaktiv. |
Stellen Sie auf dem Edge-Knoten sicher, dass der Dienst nicht aufgrund eines Fehlers beendet wurde, indem Sie im Verzeichnis /var/log/core nach Core-Dateien suchen. Rufen Sie darüber hinaus den NSX-CLI-Befehl get services auf, um festzustellen, ob der Dienst angehalten wurde. Falls ja, rufen Sie start service <service-name> auf, um den Dienst neu zu starten. |
3.0.0 |
Status des Edge-Diensts hat sich geändert | Mittel | edge, autonomous-edge, public-cloud-gateway | Der Status des Edge-Diensts hat sich geändert. |
Stellen Sie auf dem Edge-Knoten sicher, dass der Dienst nicht aufgrund eines Fehlers beendet wurde, indem Sie im Verzeichnis /var/log/core nach Core-Dateien suchen. Rufen Sie darüber hinaus den NSX-CLI-Befehl get services auf, um festzustellen, ob der Dienst angehalten wurde. Falls ja, rufen Sie start service <service-name> auf, um den Dienst neu zu starten. |
3.0.0 |
Anwendung abgestürzt | Kritisch | global-manager, autonomous-edge, bms, edge, esx, kvm, manager, public-cloud-gateway | Die Anwendung ist abgestürzt und hat einen Core-Dump generiert. |
Erfassen Sie ein Support-Paket für den NSX-Knoten {node_display_or_host_name} mithilfe der NSX Manager-Benutzeroberfläche oder der API. Hinweis: Core-Dumps können so festgelegt werden, dass sie in ein NSX Tech-Support-Paket verschoben oder kopiert werden, um die lokale Kopie auf dem Knoten zu entfernen oder beizubehalten. Die Kopie des Support-Pakets mit Core-Dump-Dateien ist für das VMware Supportteam wichtig, um das Problem zu beheben. Es wird empfohlen, eine aktuelle Kopie des Tech-Support-Pakets einschließlich Core-Dump-Dateien zu speichern, bevor Core-Dump-Dateien aus dem System entfernt werden. Weitere Einzelheiten finden Sie im KB-Artikel. |
4.0.0 |
Nachrichten-Kommunikationsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
TN-Flow-Exporter getrennt | Hoch | esx, kvm, bms | Ein Transportknoten ist vom Messaging-Broker des Intelligence-Knotens getrennt. Die Datenerfassung ist davon betroffen. |
Starten Sie den Nachrichtendienst neu, wenn er nicht im Intelligence-Knoten ausgeführt wird. Beheben Sie den Netzwerkverbindungsfehler zwischen dem Flow-Exporter des Transportknotens und dem Intelligence-Knoten. |
3.0.0 |
Intelligence-Integritätsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
CPU-Nutzung sehr hoch | Kritisch | manager, intelligence | Die CPU-Auslastung durch den Intelligence-Knoten ist sehr hoch. |
Verwenden Sie den obersten Befehl, um zu überprüfen, welche Prozesse die meiste CPU-Nutzung aufweisen, und überprüfen Sie dann /var/log/syslog und die lokalen Protokolle dieser Prozesse, um festzustellen, ob ausstehende Fehler behoben werden müssen. |
3.0.0 |
CPU-Nutzung hoch | Mittel | manager, intelligence | Die CPU-Auslastung durch den Intelligence-Knoten ist hoch. |
Verwenden Sie den obersten Befehl, um zu überprüfen, welche Prozesse die meiste CPU-Nutzung aufweisen, und überprüfen Sie dann /var/log/syslog und die lokalen Protokolle dieser Prozesse, um festzustellen, ob ausstehende Fehler behoben werden müssen. |
3.0.0 |
Arbeitsspeichernutzung sehr hoch | Kritisch | manager, intelligence | Die Arbeitsspeichernutzung durch den Intelligence-Knoten ist sehr hoch. |
Verwenden Sie den obersten Befehl, um zu überprüfen, welche Prozesse die meiste Arbeitsspeichernutzung aufweisen und überprüfen Sie dann /var/log/syslog und die lokalen Protokolle dieser Prozesse, um festzustellen, ob ausstehende Fehler behoben werden müssen. |
3.0.0 |
Arbeitsspeichernutzung hoch | Mittel | manager, intelligence | Die Arbeitsspeichernutzung durch den Intelligence-Knoten ist hoch. |
Verwenden Sie den obersten Befehl, um zu überprüfen, welche Prozesse die meiste Arbeitsspeichernutzung aufweisen und überprüfen Sie dann /var/log/syslog und die lokalen Protokolle dieser Prozesse, um festzustellen, ob ausstehende Fehler behoben werden müssen. |
3.0.0 |
Festplattennutzung sehr hoch | Kritisch | manager, intelligence | Die Festplattennutzung durch den Intelligence-Knoten ist sehr hoch. |
Untersuchen Sie die Festplattenpartition {disk_partition_name} und überprüfen Sie, ob unerwartete große Dateien vorhanden sind, die entfernt werden können. |
3.0.0 |
Festplattennutzung hoch | Mittel | manager, intelligence | Die Festplattennutzung durch den Intelligence-Knoten ist hoch. |
Untersuchen Sie die Festplattenpartition {disk_partition_name} und überprüfen Sie, ob unerwartete große Dateien vorhanden sind, die entfernt werden können. |
3.0.0 |
Nutzung der Datenfestplatten-Partition sehr hoch | Kritisch | manager, intelligence | Die Nutzung der Datenträgerpartition durch den Intelligence-Knoten ist sehr hoch. |
Beenden Sie die NSX Intelligence-Datenerfassung, bis die Festplattennutzung unter dem Schwellenwert liegt. Navigieren Sie in der NSX-Benutzeroberfläche zu „System“ | „Appliances“ | „NSX Intelligence-Appliance“. Klicken Sie dann auf „AKTIONEN“ und dann auf „Datenerfassung stoppen“. |
3.0.0 |
Nutzung der Datenfestplatten-Partition hoch | Mittel | manager, intelligence | Die Nutzung der Datenträgerpartition durch den Intelligence-Knoten ist hoch. |
Beenden Sie die NSX Intelligence-Datenerfassung, bis die Festplattennutzung unter dem Schwellenwert liegt. Untersuchen Sie die Festplattenpartition /data und überprüfen Sie, ob unerwartete große Dateien vorhanden sind, die entfernt werden können. |
3.0.0 |
Speicherlatenz hoch | Mittel | manager, intelligence | Die Latenz des Intelligence-Knotenspeichers ist hoch. |
Wegen einer sehr großen Anzahl von E/A-Anforderungen kommt es möglicherweise vorübergehend zu einer hohen Speicherlatenz. Falls die Speicherlatenz länger als 30 Minuten hoch bleibt, sollten Sie die NSX Intelligence-Appliance eventuell auf einer Festplatte mit geringer Latenz bereitstellen oder das Speichergerät nicht für andere VMs freigeben. |
3.1.0 |
Knotenstatus herabgestuft | Hoch | manager, intelligence | Der Status des Intelligence-Knotens ist „Herabgestuft“. |
Rufen Sie die NSX API „GET /napp/api/v1/platform/monitor/category/health“ auf, um zu prüfen, welcher bestimmte Pod ausgefallen ist und welcher Grund dafür vorliegt. Rufen Sie den folgenden CLI-Befehl auf, um den herabgestuften Dienst kubectl rollout restart <statefulset/deployment> <service_name> -n <namespace> neu zu starten. |
3.0.0 |
IPAM-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
IP-Blocknutzung sehr hoch | Mittel | manager | Die IP-Blocknutzung ist sehr hoch. |
Überprüfen Sie die IP-Blocknutzung. Verwenden Sie einen neuen IP-Block für die Ressourcenerstellung oder löschen Sie das nicht verwendete IP-Subnetz aus dem IP-Block. So überprüfen Sie das Subnetz, das für den IP-Block verwendet wird: Navigieren Sie von der NSX-Benutzeroberfläche zu „Netzwerk“ | „IP-Adresspools“ | Registerkarte „IP-Adresspools“. Wählen Sie IP-Pools aus, in denen der IP-Block verwendet wird, und überprüfen Sie die Spalte „Subnetze und zugeteilte IPs“ auf der Benutzeroberfläche. Wenn für den IP-Pool keine Zuteilung verwendet wurde und dieser zukünftig nicht mehr verwendet wird, löschen Sie das Subnetz oder den IP-Pool. Verwenden Sie die folgende API, um zu überprüfen, ob der IP-Block vom IP-Pool verwendet wird und ob eine IP-Zuteilung durchgeführt wurde: Um konfigurierte Subnetze eines IP-Pools abzurufen, rufen Sie die NSX API „GET /policy/api/v1/infra/ip-pools/<ip-pool>/ip-subnets“ auf. Um IP-Zuweisungen zu erhalten, rufen Sie die NSX API „GET /policy/api/v1/infra/ip-pools/<ip-pool>/ip-allocations“ auf. Hinweis: Der IP-Pool oder das Subnetz sollte nur gelöscht werden, wenn keine IP-Adressen zugewiesen sind oder Pool bzw. Subnetz zukünftig nicht verwendet wird. |
3.1.2 |
IP-Pool-Nutzung sehr hoch | Mittel | manager | Die IP-Pool-Nutzung ist sehr hoch. |
Überprüfen Sie die IP-Pool-Nutzung. Geben Sie nicht verwendete IP-Zuweisungen aus dem IP-Pool frei oder erstellen Sie einen neuen IP-Pool und verwenden Sie diesen. Navigieren Sie von der NSX-Benutzeroberfläche zu „Netzwerk“ | „IP-Adresspools“ | Registerkarte „IP-Adresspools“. Wählen Sie IP-Pools aus und überprüfen Sie die Spalte „Zugewiesene IPs“. Hier werden die aus dem IP-Pool zugewiesenen IPs angezeigt. Wenn der Benutzer sieht, dass IPs nicht verwendet werden, können diese IPs freigegeben werden. Um nicht verwendete IP-Zuweisungen freizugeben, rufen Sie die NSX API „DELETE /policy/api/v1/infra/ip-pools/<ip-pool>/ip-allocations/<ip-allocation>“ auf. |
3.1.2 |
Lizenzen-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Lizenz abgelaufen | Kritisch | global-manager, manager | Eine Lizenz ist abgelaufen. |
Fügen Sie eine neue, nicht abgelaufene Lizenz mithilfe der NSX-Benutzeroberfläche hinzu. Navigieren Sie dazu zu „System“ | „Lizenzen“, klicken Sie dann auf „HINZUFÜGEN“ und geben Sie den Schlüssel der neuen Lizenz an. Sie sollten die abgelaufene Lizenz löschen, indem Sie das Kontrollkästchen der Lizenz aktivieren und auf „LÖSCHEN“ klicken. |
3.0.0 |
Lizenz läuft in Kürze ab | Mittel | global-manager, manager | Eine Lizenz wird in Kürze ablaufen. |
In einigen Tagen läuft die Lizenz ab. Planen Sie eine neue, nicht abgelaufene Lizenz mithilfe der NSX-Benutzeroberfläche. Navigieren Sie dazu zu „System“ | „Lizenzen“, klicken Sie dann auf „HINZUFÜGEN“ und geben Sie den Schlüssel der neuen Lizenz an. Die abgelaufene Lizenz muss gelöscht werden, indem Sie das Kontrollkästchen der Lizenz aktivieren und auf „LÖSCHEN“ klicken. |
3.0.0 |
Load Balancer-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
LB-CPU sehr hoch | Mittel | Edge | Die CPU-Auslastung durch den Load Balancer ist sehr hoch. |
Wenn die CPU-Auslastung des Load Balancers höher als der Schwellenwert für die Systemauslastung ist, ist die Arbeitslast für diesen Load Balancer zu hoch. Skalieren Sie den Load Balancer-Dienst neu, indem Sie die Load Balancer-Größe von klein zu mittel oder von mittel zu groß ändern. Wenn die CPU-Nutzung dieses Load Balancers immer noch hoch ist, sollten Sie die Formfaktorgröße der Edge-Appliance anpassen oder die Load Balancer-Dienste für die jeweilige Arbeitslast auf andere Edge-Knoten verschieben. |
3.0.0 |
LB-Status herabgestuft | Mittel | manager | Der Load Balancer-Dienst ist herabgestuft. |
Für zentralisierten Load Balancer: Prüfen Sie auf dem Standby-Edge-Knoten den Load Balancer-Status, da ein herabgestufter Status bedeutet, dass der Load Balancer-Status auf dem Standby-Edge-Knoten nicht bereit ist. Rufen Sie im Standby-Edge-Knoten den NSX-CLI-Befehl get load-balancer <lb-uuid> status auf. Wenn der LB-Status des Load Balancer-Dienstes „not_ready“ ist oder keine Ausgabe erfolgt, veranlassen Sie den Edge-Knoten, in den Wartungsmodus zu wechseln, und beenden Sie dann den Wartungsmodus. Für verteilte Load Balancer: |
3.1.2 |
DLB-Status inaktiv | Kritisch | manager | Der Distributed Load Balancer-Dienst ist inaktiv. |
Rufen Sie auf dem ESXi-Hostknoten den NSX CLI-Befehl „get load-balancer <lb-uuid> status“ auf. Wenn „Conflict LSP“ gemeldet wird, prüfen Sie, ob dieser LSP mit einem anderen Load-Balancer-Dienst verbunden ist. Prüfen Sie, ob dieser Konflikt akzeptabel ist. Wenn „Not Ready LSP“ gemeldet wird, prüfen Sie den Status dieses LSP, indem Sie den NSX CLI-Befehl get logical-switch-port status aufrufen. |
3.1.2 |
LB-Status inaktiv | Kritisch | Edge | Der zentralisierte Load Balancer-Dienst ist inaktiv. |
Prüfen Sie auf dem aktiven Edge-Knoten den Load Balancer-Status, indem Sie den NSX-CLI-Befehl get load-balancer <lb-uuid> status aufrufen. Wenn der LB-Status des Load Balancer-Dienstes „not_ready“ ist oder keine Ausgabe erfolgt, veranlassen Sie den Edge-Knoten, in den Wartungsmodus zu wechseln, und beenden Sie dann den Wartungsmodus. |
3.0.0 |
Status des virtuellen Servers inaktiv | Mittel | Edge | Der virtuelle Load Balancer-Dienst ist inaktiv. |
Bestimmen Sie den Status des Load Balancer-Pools und überprüfen Sie dessen Konfiguration. Wenn er falsch konfiguriert ist, konfigurieren Sie ihn neu und entfernen Sie den Load Balancer-Pool vom virtuellen Server und fügen Sie ihn dann erneut dem virtuellen Server hinzu. |
3.0.0 |
Pool-Status inaktiv | Mittel | Edge | Der Load Balancer-Pool ist inaktiv. |
Konsultieren Sie den Load Balancer-Pool, um zu ermitteln, welche Mitglieder ausgefallen sind, indem Sie den NSX-CLI-Befehl get load-balancer <lb-uuid> pool <pool-uuid> status oder „NSX API GET /policy/api/v1/infra/lb-services/<lb-service-id>/lb-pools/<lb-pool-id>/detailed-status“ ausführen. Überprüfen Sie die Netzwerkkonnektivität des Load Balancer mit den betroffenen Poolmitgliedern. Überprüfen Sie die Netzwerkkonnektivität zwischen dem Load Balancer und den betroffenen Poolmitgliedern. Validieren Sie die Anwendungsintegrität der einzelnen Poolmitglieder. Validieren Sie auch mit dem konfigurierten Monitor die Integrität der einzelnen Poolmitglieder. Wenn der Integritätszustand des Mitglieds ermittelt wurde, wird der Status des Poolmitglieds basierend auf der Konfiguration „Anzahl bis zum erneuten Versuch“ in der Überwachung auf „fehlerfrei“ aktualisiert. Beheben Sie das Problem, indem Sie das Poolmitglied neu starten oder den Edge-Knoten in den Wartungsmodus versetzen und diesen dann wieder verlassen. |
3.0.0 |
LB-Edge-Kapazität in Verwendung hoch | Mittel | Edge | Die Auslastung des Load Balancers ist hoch. |
Wenn für diesen Edge-Knoten mehrere LB-Instanzen konfiguriert wurden, stellen Sie einen neuen Edge-Knoten bereit und verschieben Sie einige LB-Instanzen auf diesen neuen Edge-Knoten. Wenn nur eine einzelne LB-Instanz (klein/mittel/usw.) für einen Edge-Knoten derselben Größe (klein/mittel/usw.) konfiguriert wurde, stellen Sie einen neuen größeren Edge bereit und verschieben Sie die LB-Instanz auf den neuen Edge-Knoten. |
3.1.2 |
LB-Pool-Mitgliedskapazität in Verwendung sehr hoch | Kritisch | Edge | Die Auslastung des Load Balancer-Poolmitglieds ist sehr hoch. |
Stellen Sie einen neuen Edge-Knoten bereit und verschieben Sie den Load Balancer-Dienst von den vorhandenen Edge-Knoten auf den neu bereitgestellten Edge-Knoten. |
3.1.2 |
Die Load Balancing-Konfiguration wurde wegen unzureichendem Arbeitsspeicher nicht realisiert | Mittel | Edge | Die Load Balancer-Konfiguration wurde wegen einer hohen Arbeitsspeichernutzung auf dem Edge-Knoten nicht realisiert. |
Definieren Sie anstelle von großen Load Balancern bevorzugt kleine und mittlere Load Balancer. Verteilen Sie Load Balancer-Dienste auf die verfügbaren Edge-Knoten. Reduzieren Sie die Anzahl der definierten virtuellen Server. |
3.2.0 |
Malware-Schutzzustand-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Dienststatus ausgefallen | Hoch | manager | Der Dienststatus ist „Inaktiv“. |
1. Rufen Sie auf dem Edge-Knoten, der durch {nsx_edge_tn_name} identifiziert wird, den NSX CLI-Befehl get services auf, um den Status von {mps_service_name} zu überprüfen. Überprüfen Sie das /var/log/syslog, um den/die vermuteten Fehler zu finden. |
4.0.1 |
Dateiextraktionsdienst nicht erreichbar | Hoch | manager | Der Dienststatus ist „Herabgestuft“. |
1. Rufen Sie auf dem Edge-Knoten, der durch {nsx_edge_tn_name} identifiziert wird, den NSX CLI-Befehl get ids engine status auf, um den Status des Diensts file_extraction (IDS) zu überprüfen. Überprüfen Sie /var/log/syslog, um den/die vermuteten Fehler mit dem Dateiextraktionsdienst (IDS) und/oder {mps_service_name} zu finden. |
4.0.1 |
Datenbank nicht erreichbar | Hoch | manager | Der Dienststatus ist „Herabgestuft“. |
Navigieren Sie in der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“, um zu überprüfen, welcher Dienst herabgestuft ist. Rufen Sie die NSX API „GET /napp/api/v1/platform/monitor/feature/health“ auf, um zu prüfen, welcher bestimmte Dienst ausgefallen ist und welcher Grund dafür vorliegt. Rufen Sie den folgenden CLI-Befehl auf, um den herabgestuften Dienst kubectl rollout restart <statefulset/deployment> <service_name> -n <namespace> neu zu starten. Ermitteln Sie den Status des Dienstes „Malware-Prevention-Datenbank“. |
4.0.1 |
Analyst-API-Dienst nicht erreichbar | Hoch | manager | Der Dienststatus ist „Herabgestuft“. |
Navigieren Sie in der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“, um zu überprüfen, welcher Dienst herabgestuft ist. Rufen Sie die NSX API „GET /napp/api/v1/platform/monitor/feature/health“ auf, um zu prüfen, welcher bestimmte Dienst ausgefallen ist und welcher Grund dafür vorliegt. Rufen Sie den folgenden CLI-Befehl auf, um den herabgestuften Dienst kubectl rollout restart <statefulset/deployment> <service_name> -n <namespace> neu zu starten. Ermitteln Sie den Status des Dienstes „Malware-Prevention-Cloud-Connector“. |
4.0.1 |
NTICS-Reputationsdienst nicht erreichbar | Hoch | manager | Der Dienststatus ist „Herabgestuft“. |
Navigieren Sie in der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“, um zu überprüfen, welcher Dienst herabgestuft ist. Rufen Sie die NSX API „GET /napp/api/v1/platform/monitor/feature/health“ auf, um zu prüfen, welcher bestimmte Dienst ausgefallen ist und welcher Grund dafür vorliegt. Rufen Sie den folgenden CLI-Befehl auf, um den herabgestuften Dienst kubectl rollout restart <statefulset/deployment> <service_name> -n <namespace> neu zu starten. Ermitteln Sie, ob der Zugang zum NTICS-Dienst ausgefallen ist. |
4.1.0 |
Manager-Integritätsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Manager-CPU-Nutzung sehr hoch | Kritisch | global-manager, manager | Die CPU-Auslastung durch den Manager-Knoten ist sehr hoch. |
Überprüfen Sie die Konfiguration, die Dienstausführung und die Dimensionierung dieses Manager-Knotens. Ziehen Sie eine Anpassung der Formfaktorgröße der Manager-Appliance in Erwägung. |
3.0.0 |
Manager-CPU-Nutzung hoch | Mittel | global-manager, manager | Die CPU-Auslastung durch den Manager-Knoten ist hoch. |
Überprüfen Sie die Konfiguration, die Dienstausführung und die Dimensionierung dieses Manager-Knotens. Ziehen Sie eine Anpassung der Formfaktorgröße der Manager-Appliance in Erwägung. |
3.0.0 |
Manager-Arbeitsspeichernutzung sehr hoch | Kritisch | global-manager, manager | Die Arbeitsspeichernutzung des Manager-Knotens ist sehr hoch. |
Überprüfen Sie die Konfiguration, die Dienstausführung und die Dimensionierung dieses Manager-Knotens. Ziehen Sie eine Anpassung der Formfaktorgröße der Manager-Appliance in Erwägung. |
3.0.0 |
Manager-Arbeitsspeichernutzung hoch | Mittel | global-manager, manager | Die Arbeitsspeichernutzung des Manager-Knotens ist hoch. |
Überprüfen Sie die Konfiguration, die Dienstausführung und die Dimensionierung dieses Manager-Knotens. Ziehen Sie eine Anpassung der Formfaktorgröße der Manager-Appliance in Erwägung. |
3.0.0 |
Manager-Festplattennutzung sehr hoch | Kritisch | global-manager, manager | Die Festplattennutzung des Manager-Knotens ist sehr hoch. |
Untersuchen Sie die Partition mit hoher Auslastung und prüfen Sie, ob unerwartete große Dateien vorhanden sind, die entfernt werden können. |
3.0.0 |
Manager-Festplattennutzung hoch | Mittel | global-manager, manager | Die Festplattennutzung des Manager-Knotens ist hoch. |
Untersuchen Sie die Partition mit hoher Auslastung und prüfen Sie, ob unerwartete große Dateien vorhanden sind, die entfernt werden können. |
3.0.0 |
Manager-Konfigurationsfestplatten-Nutzung sehr hoch | Kritisch | global-manager, manager | Die Festplattennutzung der Manager-Knotenkonfiguration ist sehr hoch. |
Führen Sie das folgende Tool aus, und wenden Sie sich an GSS, wenn Probleme auftreten: /opt/vmware/tools/support/inspect_checkpoint_issues.py |
3.0.0 |
Manager-Konfigurationsfestplatten-Nutzung hoch | Mittel | global-manager, manager | Die Festplattennutzung der Manager-Knotenkonfiguration ist hoch. |
Führen Sie das folgende Tool aus, und wenden Sie sich an GSS, wenn Probleme auftreten: /opt/vmware/tools/support/inspect_checkpoint_issues.py |
3.0.0 |
Festplattenbelegung durch Operations DB sehr hoch | Kritisch | manager | Die Festplattennutzung der nonconfig-Instanz des Manager-Knotens ist sehr hoch. |
Führen Sie das folgende Tool aus und wenden Sie sich an GSS, wenn Probleme auftreten: /opt/vmware/tools/support/inspect_checkpoint_issues.py --nonconfig |
3.0.1 |
Festplattenbelegung durch Operations DB hoch | Mittel | manager | Die Festplattennutzung der nonconfig-Instanz des Manager-Knotens ist hoch. |
Führen Sie das folgende Tool aus, und wenden Sie sich an GSS, wenn Probleme auftreten: /opt/vmware/tools/support/inspect_checkpoint_issues.py --nonconfig |
3.0.1 |
Doppelte IP-Adresse | Mittel | manager | Die IP-Adresse des Manager-Knotens wird von einem anderen Gerät verwendet. |
1. Legen Sie fest, welches Gerät die IP-Adresse des Managers verwendet, und weisen Sie dem Gerät eine neue IP-Adresse zu. Hinweis: Das Neukonfigurieren des Managers für die Verwendung einer neuen IP-Adresse wird nicht unterstützt. |
3.0.0 |
Speicherfehler | Kritisch | global-manager, manager | Die Festplatte des Verwaltungsknotens ist schreibgeschützt. |
Untersuchen Sie die schreibgeschützte Partition, um festzustellen, ob ein Neustart das Problem behebt oder die Festplatte ersetzt werden muss. Wenden Sie sich an GSS, um weitere Informationen zu erhalten. |
3.0.2 |
Fehlender DNS-Eintrag für Manager-FQDN | Kritisch | global-manager, manager | Der DNS-Eintrag für den Manager-FQDN fehlt. |
1. Stellen Sie sicher, dass die richtigen DNS-Server im Manager-Knoten konfiguriert sind. |
4.1.0 |
Fehlender DNS-Eintrag für Vip-FQDN | Kritisch | manager | Fehlender FQDN-Eintrag für die Manager-VIP. |
Überprüfen Sie den DNS-Eintrag für die VIP-Adressen, um festzustellen, ob sie in denselben FQDN aufgelöst werden. |
4.1.0 |
MTU-Prüfungsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Nicht übereinstimmende MTU innerhalb der Transportzone | Hoch | manager | Nicht übereinstimmende MTU-Konfiguration zwischen Transportknoten, die an dieselbe Transportzone angeschlossen sind. |
1. Navigieren Sie zu „System“ | „Fabric“ | „Einstellungen“ | „Prüfung der MTU-Konfiguration“ | „Inkonsistent“ auf der NSX-Benutzeroberfläche, um weitere Details zu Nichtübereinstimmungen zu überprüfen. |
3.2.0 |
MTU des globalen Routers zu groß | Mittel | manager | Die Konfiguration der MTU des globalen Routers ist größer als die MTU der Overlay-Transportzone. |
1. Navigieren Sie zu „System“ | „Fabric“ | „Einstellungen“ | „Prüfung der MTU-Konfiguration“ | „Inkonsistent“ auf der NSX-Benutzeroberfläche, um weitere Details zu Nichtübereinstimmungen zu überprüfen. |
3.2.0 |
NAT-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
SNAT-Portnutzung auf Gateway ist hoch | Kritisch | edge, public-cloud-gateway | Die SNAT-Portnutzung auf dem Gateway ist hoch. |
Melden Sie sich als Admin-Benutzer beim Edge-Knoten an und rufen Sie den NSX CLI-Befehl get firewall <LR_INT_UUID> connection state auf, indem Sie die richtige Schnittstellen-UUID verwenden und verschiedene SNAT-Zuordnungen für die SNAT-IP {snat_ip_address} überprüfen. Stellen Sie sicher, dass es sich bei den das Gateway durchlaufenden Datenverkehrsströmen nicht um einen Denial-of-Service-Angriff oder anormalen Burst handelt. Wenn jedoch bei scheinbar normaler Last des Datenverkehrs der Alarmschwellenwert erreicht wird, sollten Sie weitere SNAT-IP-Adressen hinzufügen, um die Last zu verteilen, oder neuen Datenverkehr an einen anderen Edge-Knoten weiterleiten. |
3.2.0 |
NCP-Integritätsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
NCP-Plug-in nicht verfügbar | Kritisch | manager | Manager-Knoten hat erkannt, dass NCP ausgefallen oder fehlerhaft ist. |
Um nach den Clustern zu suchen, die Probleme aufweisen, navigieren Sie auf der NSX-Benutzeroberfläche zur Seite „Alarme“. Der Wert „Entitätsname“ für diese Alarminstanz identifiziert den Clusternamen. Oder rufen Sie die NSX API GET /api/v1/systemhealth/container-cluster/ncp/status auf, um alle Clusterstatus abzurufen und den Namen aller Cluster zu ermitteln, die den Status INAKTIV oder UNBEKANNT zurückgeben. Suchen Sie dann in der NSX-Benutzeroberfläche auf der Seite „Bestand“ | „Container“ | „Cluster“ nach dem Namen des Clusters, und klicken Sie auf die Registerkarte „Knoten“, in der alle Kubernetes- und PAS-Clustermitglieder aufgeführt sind. Für Kubernetes-Cluster: |
3.0.0 |
Knoten-Agents-Integritätsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Knoten-Agents auf DPU inaktiv | Hoch | dpu | Die Agents, die innerhalb der Knoten-VM ausgeführt werden, scheinen auf DPU ausgefallen zu sein. |
1. Wenn Vmk50 auf DPU {dpu_id} fehlt, finden Sie weitere Einzelheiten in diesem Knowledgebase-Artikel: https://kb.vmware.com/s/article/67432. |
4.0.0 |
Knoten-Agents inaktiv | Hoch | esx, kvm | Die Agents, die innerhalb der Knoten-VM ausgeführt werden, scheinen ausgefallen zu sein. |
Für ESX: |
3.0.0 |
Kommunikationsereignisse der NSX Application Platform
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Manager getrennt | Hoch | manager, intelligence | Der NSX Application Platform-Cluster wird vom NSX-Verwaltungscluster getrennt. |
Überprüfen Sie, ob das Manager-Clusterzertifikat, die Manager-Knotenzertifikate, das kafka-Zertifikat und das Ingress-Zertifikat sowohl auf NSX Manager als auch auf dem NSX Application Platform-Cluster übereinstimmen. Überprüfen Sie das Ablaufdatum der oben genannten Zertifikate, um sicherzustellen, dass sie gültig sind. Überprüfen Sie die Netzwerkverbindung zwischen NSX Manager und dem NSX Application Platform-Cluster und beheben Sie etwaige Netzwerkverbindungsfehler. |
3.2.0 |
Bei Messaging-Rawlow erkannte Verzögerung | Kritisch | manager, intelligence | Langsame Datenverarbeitung im Messaging-Thema „Raw Flow“ erkannt. |
Fügen Sie Knoten hinzu und führen Sie dann eine vertikale Hochskalierung des NSX Application Platform-Clusters durch. Wenn Engpässe einem bestimmten Dienst zugeschrieben werden können, wie z. B. dem Analysedienst, skalieren Sie den entsprechenden Dienst beim Hinzufügen der neuen Knoten vertikal hoch. |
3.2.0 |
Bei Messaging-Overflow erkannte Verzögerung | Kritisch | manager, intelligence | Langsame Datenverarbeitung im Messaging-Thema „Over Flow“ erkannt. |
Fügen Sie Knoten hinzu und führen Sie dann eine vertikale Hochskalierung des NSX Application Platform-Clusters durch. Wenn Engpässe einem bestimmten Dienst zugeschrieben werden können, wie z. B. dem Analysedienst, skalieren Sie den entsprechenden Dienst beim Hinzufügen der neuen Knoten vertikal hoch. |
3.2.0 |
TN-Flow-Exp getrennt | Hoch | esx, kvm, bms | Ein Transportknoten ist vom Messaging-Broker seines NSX Application Platform-Clusters getrennt. Die Datenerfassung ist davon betroffen. |
Starten Sie den Messaging-Dienst neu, wenn er nicht im NSX Application Platform-Cluster ausgeführt wird. Beheben Sie den Netzwerkverbindungsfehler zwischen dem Flow-Exporter des Transportknotens und dem NSX Application Platform-Cluster. |
3.2.0 |
TN-Flow-Exp auf DPU getrennt | Hoch | dpu | Ein Transportknoten ist vom Messaging-Broker des Intelligence-Knotens getrennt. Die Datenerfassung auf DPU ist davon betroffen. |
Starten Sie den Nachrichtendienst neu, wenn er nicht im Intelligence-Knoten ausgeführt wird. Beheben Sie den Netzwerkverbindungsfehler zwischen dem Flow-Exporter des Transportknotens und dem Intelligence-Knoten. |
4.0.0 |
Integritätsereignisse der NSX Application Platform
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
CPU-Auslastung für Cluster sehr hoch | Kritisch | manager, intelligence | CPU-Auslastung für NSX Application Platform-Cluster ist sehr hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Systemlast“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Prüfen Sie, ob die Last reduziert werden kann. Wenn mehr Rechenleistung erforderlich ist, klicken Sie auf die Schaltfläche „Horizontal skalieren“, um mehr Ressourcen anzufordern. |
3.2.0 |
CPU-Auslastung für Cluster hoch | Mittel | manager, intelligence | CPU-Auslastung für NSX Application Platform-Cluster ist hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Systemlast“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Prüfen Sie, ob die Last reduziert werden kann. Wenn mehr Rechenleistung erforderlich ist, klicken Sie auf die Schaltfläche „Horizontal skalieren“, um mehr Ressourcen anzufordern. |
3.2.0 |
Arbeitsspeichernutzung für Cluster sehr hoch | Kritisch | manager, intelligence | Arbeitsspeichernutzung für NSX Application Platform-Cluster ist sehr hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Arbeitsspeicher“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Prüfen Sie, ob die Last reduziert werden kann. Wenn mehr Arbeitsspeicher erforderlich ist, klicken Sie auf die Schaltfläche „Horizontal skalieren“, um mehr Ressourcen anzufordern. |
3.2.0 |
Arbeitsspeichernutzung für Cluster hoch | Mittel | manager, intelligence | Arbeitsspeichernutzung für NSX Application Platform-Cluster ist hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Arbeitsspeicher“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Prüfen Sie, ob die Last reduziert werden kann. Wenn mehr Arbeitsspeicher erforderlich ist, klicken Sie auf die Schaltfläche „Horizontal skalieren“, um mehr Ressourcen anzufordern. |
3.2.0 |
Festplattennutzung für Cluster sehr hoch | Kritisch | manager, intelligence | Festplattennutzung für NSX Application Platform-Cluster ist sehr hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Speicher“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Prüfen Sie, ob die Last reduziert werden kann. Wenn mehr Festplattenspeicher erforderlich ist, klicken Sie auf die Schaltfläche „Horizontal skalieren“, um mehr Ressourcen anzufordern. Wenn der Datenspeicherdienst unter Druck steht, besteht eine weitere Möglichkeit darin, auf die Schaltfläche „Vertikal hochskalieren“ zu klicken, um die Festplattengröße zu erhöhen. |
3.2.0 |
Festplattennutzung für Cluster hoch | Mittel | manager, intelligence | Festplattennutzung für NSX Application Platform-Cluster ist hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Speicher“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Prüfen Sie, ob die Last reduziert werden kann. Wenn mehr Festplattenspeicher erforderlich ist, klicken Sie auf die Schaltfläche „Horizontal skalieren“, um mehr Ressourcen anzufordern. Wenn der Datenspeicherdienst unter Druck steht, besteht eine weitere Möglichkeit darin, auf die Schaltfläche „Vertikal hochskalieren“ zu klicken, um die Festplattengröße zu erhöhen. |
3.2.0 |
NAPP-Status herabgestuft | Mittel | manager, intelligence | Der Gesamtstatus des NSX Application Platform-Clusters ist „Herabgestuft“. |
Erhalten Sie weitere Informationen aus den Alarmen der Knoten und Dienste. |
3.2.0 |
NAPP-Status inaktiv | Hoch | manager, intelligence | Der Gesamtstatus des NSX Application Platform-Clusters ist „Inaktiv“. |
Erhalten Sie weitere Informationen aus den Alarmen der Knoten und Dienste. |
3.2.0 |
CPU-Auslastung für Knoten sehr hoch | Kritisch | manager, intelligence | CPU-Auslastung für NSX Application Platform-Knoten ist sehr hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Systemlast“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Prüfen Sie, ob die Last reduziert werden kann. Wenn nur eine kleine Minderheit der Knoten eine hohe CPU-Auslastung hat, verschiebt Kubernetes standardmäßig die Dienste automatisch. Wenn die meisten Knoten eine hohe CPU-Auslastung haben und die Last nicht reduziert werden kann, klicken Sie auf die Schaltfläche „Horizontal skalieren“ um mehr Ressourcen anzufordern. |
3.2.0 |
CPU-Auslastung für Knoten hoch | Mittel | manager, intelligence | CPU-Auslastung für NSX Application Platform-Knoten ist hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Systemlast“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Prüfen Sie, ob die Last reduziert werden kann. Wenn nur eine kleine Minderheit der Knoten eine hohe CPU-Auslastung hat, verschiebt Kubernetes standardmäßig die Dienste automatisch. Wenn die meisten Knoten eine hohe CPU-Auslastung haben und die Last nicht reduziert werden kann, klicken Sie auf die Schaltfläche „Horizontal skalieren“ um mehr Ressourcen anzufordern. |
3.2.0 |
Arbeitsspeichernutzung für Knoten sehr hoch | Kritisch | manager, intelligence | Arbeitsspeichernutzung für NSX Application Platform-Knoten ist sehr hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Arbeitsspeicher“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Prüfen Sie, ob die Last reduziert werden kann. Wenn nur eine kleine Minderheit der Knoten eine hohe Arbeitsspeichernutzung hat, verschiebt Kubernetes standardmäßig die Dienste automatisch. Wenn die meisten Knoten eine hohe Arbeitsspeichernutzung haben und die Last nicht reduziert werden kann, klicken Sie auf die Schaltfläche „Horizontal skalieren“ um mehr Ressourcen anzufordern. |
3.2.0 |
Arbeitsspeichernutzung für Knoten hoch | Mittel | manager, intelligence | Arbeitsspeichernutzung für NSX Application Platform-Knoten ist hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Arbeitsspeicher“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Prüfen Sie, ob die Last reduziert werden kann. Wenn nur eine kleine Minderheit der Knoten eine hohe Arbeitsspeichernutzung hat, verschiebt Kubernetes standardmäßig die Dienste automatisch. Wenn die meisten Knoten eine hohe Arbeitsspeichernutzung haben und die Last nicht reduziert werden kann, klicken Sie auf die Schaltfläche „Horizontal skalieren“ um mehr Ressourcen anzufordern. |
3.2.0 |
Festplattennutzung für Knoten sehr hoch | Kritisch | manager, intelligence | Festplattennutzung für NSX Application Platform-Knoten ist sehr hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Speicher“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Bereinigen Sie nicht verwendete Daten oder Protokolle, um Festplattenressourcen freizugeben und zu sehen, ob die Last reduziert werden kann. Wenn mehr Festplattenspeicher benötigt wird, skalieren Sie den belasteten Dienst aus. Wenn der Datenspeicherdienst unter Druck steht, besteht eine weitere Möglichkeit darin, auf die Schaltfläche „Vertikal hochskalieren“ zu klicken, um die Festplattengröße zu erhöhen. |
3.2.0 |
Festplattennutzung für Knoten hoch | Mittel | manager, intelligence | Festplattennutzung für NSX Application Platform-Knoten ist hoch. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“ und überprüfen Sie das Feld „Speicher“ der einzelnen Dienste, um zu sehen, welcher Dienst unter Druck steht. Bereinigen Sie nicht verwendete Daten oder Protokolle, um Festplattenressourcen freizugeben und zu sehen, ob die Last reduziert werden kann. Wenn mehr Festplattenspeicher benötigt wird, skalieren Sie den belasteten Dienst aus. Wenn der Datenspeicherdienst unter Druck steht, besteht eine weitere Möglichkeit darin, auf die Schaltfläche „Vertikal hochskalieren“ zu klicken, um die Festplattengröße zu erhöhen. |
3.2.0 |
Knotenstatus herabgestuft | Mittel | manager, intelligence | Der Status des NSX Application Platform-Knotens ist „Herabgestuft“. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Ressourcen“, um zu überprüfen, welcher Knoten herabgestuft wurde. Überprüfen Sie die Netzwerk-, Arbeitsspeicher- und CPU-Auslastung des Knotens. Starten Sie den Knoten neu, wenn es sich um einen Worker-Knoten handelt. |
3.2.0 |
Knotenstatus nicht verfügbar | Hoch | manager, intelligence | Der Status des NSX Application Platform-Knotens ist „Nicht verfügbar“. |
Navigieren Sie auf der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Ressourcen“, um zu überprüfen, welcher Knoten nicht verfügbar ist. Überprüfen Sie die Netzwerk-, Arbeitsspeicher- und CPU-Auslastung des Knotens. Starten Sie den Knoten neu, wenn es sich um einen Worker-Knoten handelt. |
3.2.0 |
CPU-Auslastung für Datenspeicher sehr hoch | Kritisch | manager, intelligence | CPU-Auslastung für Datenspeicherdienst ist sehr hoch. |
Skalieren Sie alle Dienste oder den Datenspeicherdienst horizontal. |
3.2.0 |
CPU-Auslastung für Datenspeicher hoch | Mittel | manager, intelligence | CPU-Auslastung für Datenspeicherdienst ist hoch. |
Skalieren Sie alle Dienste oder den Datenspeicherdienst horizontal. |
3.2.0 |
CPU-Auslastung für Messaging sehr hoch | Kritisch | manager, intelligence | CPU-Auslastung für Messaging-Dienst ist sehr hoch. |
Skalieren Sie alle Dienste oder den Messaging-Dienst horizontal. |
3.2.0 |
CPU-Auslastung für Messaging hoch | Mittel | manager, intelligence | CPU-Auslastung für Messaging-Dienst ist hoch. |
Skalieren Sie alle Dienste oder den Messaging-Dienst horizontal. |
3.2.0 |
CPU-Auslastung für DB-Konfiguration sehr hoch | Kritisch | manager, intelligence | CPU-Auslastung für Konfigurationsdatenbankdienst ist sehr hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
CPU-Auslastung für DB-Konfiguration hoch | Mittel | manager, intelligence | CPU-Auslastung für Konfigurationsdatenbankdienst ist hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
CPU-Auslastung für Metriken sehr hoch | Kritisch | manager, intelligence | CPU-Auslastung für Metrikdienst ist sehr hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
CPU-Auslastung für Metriken hoch | Mittel | manager, intelligence | CPU-Auslastung für Metrikdienst ist hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
CPU-Auslastung für Analyse sehr hoch | Kritisch | manager, intelligence | CPU-Auslastung für Analysedienst ist sehr hoch. |
Skalieren Sie alle Dienste oder den Analysedienst horizontal. |
3.2.0 |
CPU-Auslastung für Analyse hoch | Mittel | manager, intelligence | CPU-Auslastung für Analysedienst ist hoch. |
Skalieren Sie alle Dienste oder den Analysedienst horizontal. |
3.2.0 |
CPU-Auslastung für Plattform sehr hoch | Kritisch | manager, intelligence | CPU-Auslastung für Platform Services-Dienst ist sehr hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
CPU-Auslastung für Plattform hoch | Mittel | manager, intelligence | CPU-Auslastung für Platform Services-Dienst ist hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Arbeitsspeichernutzung für Datenspeicher sehr hoch | Kritisch | manager, intelligence | Arbeitsspeichernutzung für Datenspeicherdienst ist sehr hoch. |
Skalieren Sie alle Dienste oder den Datenspeicherdienst horizontal. |
3.2.0 |
Arbeitsspeichernutzung für Datenspeicher hoch | Mittel | manager, intelligence | Arbeitsspeichernutzung für Datenspeicherdienst ist hoch. |
Skalieren Sie alle Dienste oder den Datenspeicherdienst horizontal. |
3.2.0 |
Arbeitsspeichernutzung für Messaging sehr hoch | Kritisch | manager, intelligence | Arbeitsspeichernutzung für Messaging-Dienst ist sehr hoch. |
Skalieren Sie alle Dienste oder den Messaging-Dienst horizontal. |
3.2.0 |
Arbeitsspeichernutzung für Messaging hoch | Mittel | manager, intelligence | Arbeitsspeichernutzung für Messaging-Dienst ist hoch. |
Skalieren Sie alle Dienste oder den Messaging-Dienst horizontal. |
3.2.0 |
Arbeitsspeichernutzung für DB-Konfiguration sehr hoch | Kritisch | manager, intelligence | Arbeitsspeichernutzung für Konfigurationsdatenbankdienst ist sehr hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Arbeitsspeichernutzung für DB-Konfiguration hoch | Mittel | manager, intelligence | Die Arbeitsspeichernutzung für den Konfigurationsdatenbankdienst ist hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Arbeitsspeichernutzung für Metriken sehr hoch | Kritisch | manager, intelligence | Arbeitsspeichernnutzung für Metrikdienst ist sehr hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Arbeitsspeichernutzung für Metriken hoch | Mittel | manager, intelligence | Arbeitsspeichernnutzung für Metrikdienst ist hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Arbeitsspeichernutzung für Analyse sehr hoch | Kritisch | manager, intelligence | Arbeitsspeichernutzung für Analysedienst ist sehr hoch. |
Skalieren Sie alle Dienste oder den Analysedienst horizontal. |
3.2.0 |
Arbeitsspeichernutzung für Analyse hoch | Mittel | manager, intelligence | Arbeitsspeichernutzung für Analysedienst ist hoch. |
Skalieren Sie alle Dienste oder den Analysedienst horizontal. |
3.2.0 |
Arbeitsspeichernutzung für Plattform sehr hoch | Kritisch | manager, intelligence | Arbeitsspeichernutzung für Platform Services-Dienst ist sehr hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Arbeitsspeichernutzung für Plattform hoch | Mittel | manager, intelligence | Arbeitsspeichernutzung für Platform Services-Dienst ist hoch. |
Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Festplattennutzung für Datenspeicher sehr hoch | Kritisch | manager, intelligence | Festplattennutzung für Datenspeicherdienst ist sehr hoch. |
Skalieren Sie den Datenspeicherdienst horizontal oder vertikal. |
3.2.0 |
Festplattennutzung für Datenspeicher hoch | Mittel | manager, intelligence | Festplattennutzung für Datenspeicherdienst ist hoch. |
Skalieren Sie den Datenspeicherdienst horizontal oder vertikal. |
3.2.0 |
Festplattennutzung für Messaging sehr hoch | Kritisch | manager, intelligence | Festplattennutzung für Messaging-Dienst ist sehr hoch. |
Dateien müssen nicht bereinigt werden. Skalieren Sie alle Dienste oder den Messaging-Dienst horizontal. |
3.2.0 |
Festplattennutzung für Messaging hoch | Mittel | manager, intelligence | Festplattennutzung für Messaging-Dienst ist hoch. |
Dateien müssen nicht bereinigt werden. Skalieren Sie alle Dienste oder den Messaging-Dienst horizontal. |
3.2.0 |
Festplattennutzung für DB-Konfiguration sehr hoch | Kritisch | manager, intelligence | Festplattennutzung für Konfigurationsdatenbankdienst ist sehr hoch. |
Dateien müssen nicht bereinigt werden. Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Festplattennutzung für DB-Konfiguration hoch | Mittel | manager, intelligence | Festplattennutzung für Konfigurationsdatenbankdienst ist hoch. |
Dateien müssen nicht bereinigt werden. Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Festplattennutzung für Metriken sehr hoch | Kritisch | manager, intelligence | Festplattennutzung für Metrikdienst ist sehr hoch. |
Dateien müssen nicht bereinigt werden. Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Festplattennutzung für Metriken hoch | Mittel | manager, intelligence | Festplattennutzung für Metrikdienst ist hoch. |
Dateien müssen nicht bereinigt werden. Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Festplattennutzung für Analyse sehr hoch | Kritisch | manager, intelligence | Festplattennutzung für Analysedienst ist sehr hoch. |
Dateien müssen nicht bereinigt werden. Skalieren Sie alle Dienste oder den Analysedienst horizontal. |
3.2.0 |
Festplattennutzung für Analyse hoch | Mittel | manager, intelligence | Festplattennutzung für Analysedienst ist hoch. |
Dateien müssen nicht bereinigt werden. Skalieren Sie alle Dienste oder den Analysedienst horizontal. |
3.2.0 |
Festplattennutzung für Plattform sehr hoch | Kritisch | manager, intelligence | Festplattennutzung für Platform Services-Dienst ist sehr hoch. |
Dateien müssen nicht bereinigt werden. Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Festplattennutzung für Plattform hoch | Mittel | manager, intelligence | Festplattennutzung für Platform Services-Dienst ist hoch. |
Dateien müssen nicht bereinigt werden. Skalieren Sie alle Dienste horizontal. |
3.2.0 |
Dienststatus herabgestuft | Mittel | manager, intelligence | Der Dienststatus ist „Herabgestuft“. |
Navigieren Sie in der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“, um zu überprüfen, welcher Dienst herabgestuft ist. Rufen Sie NSX API „GET /napp/api/v1/platform/monitor/feature/health“ auf, um zu überprüfen, welcher Dienst aus welchem Grund herabgestuft wurde. Rufen Sie den folgenden CLI-Befehl auf, um den herabgestuften Dienst gegebenenfalls neu zu starten: kubectl rollout restart <statefulset/deployment> <service_name> -n <namespace>. Herabgestufte Dienste funktionieren möglicherweise ordnungsgemäß, ihre Leistung ist jedoch nicht optimal. |
3.2.0 |
Dienststatus ausgefallen | Hoch | manager, intelligence | Der Dienststatus ist „Inaktiv“. |
Navigieren Sie in der NSX-Benutzeroberfläche zu „System“ | „NSX Application Platform“ | „Kerndienste“, um zu überprüfen, welcher Dienst herabgestuft ist. Rufen Sie die NSX API „GET /napp/api/v1/platform/monitor/feature/health“ auf, um zu prüfen, welcher bestimmte Dienst ausgefallen ist und welcher Grund dafür vorliegt. Rufen Sie den folgenden CLI-Befehl auf, um den herabgestuften Dienst kubectl rollout restart <statefulset/deployment> <service_name> -n <namespace> neu zu starten. |
3.2.0 |
Nsxaas-Integritätsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Dienst herabgestuft | Hoch | aas | Dienst herabgestuft. |
Überprüfen Sie die in der Alarmbeschreibung enthaltenen Daten zur Identifizierung des Dienstes, zur Lokalisierung der Bereitstellung des Dienstes und zusätzliche Daten, die vom Zustandsüberwachungsdienst erfasst werden. Überprüfen Sie gegebenenfalls auch die vom Metrikdienst oder von Wavefront aufgezeichneten Verlaufsdaten. |
4.1.0 |
Dienst inaktiv | Kritisch | aas | Dienst nicht verfügbar. |
Überprüfen Sie die in der Alarmbeschreibung enthaltenen Daten zur Identifizierung des Dienstes, zur Lokalisierung der Bereitstellung des Dienstes und zusätzliche Daten, die vom Zustandsüberwachungsdienst erfasst werden. Überprüfen Sie gegebenenfalls auch die vom Metrikdienst oder von Wavefront aufgezeichneten Verlaufsdaten. |
4.1.0 |
Kennwortverwaltungsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Kennwort abgelaufen | Kritisch | global-manager, manager, edge, public-cloud-gateway | Das Benutzerkennwort ist abgelaufen. |
Das Kennwort für den Benutzer {username} muss jetzt geändert werden, um auf das System zugreifen zu können. Wenn Sie beispielsweise ein neues Kennwort für einen Benutzer anwenden möchten, rufen Sie die folgende NSX API mit einem gültigen Kennwort im Anforderungstext auf: PUT /api/v1/node/users/<userid>, wobei <userid> die ID des Benutzers ist. Wenn das Kennwort des Admin-Benutzers (mit <userid> 10000) abgelaufen ist, muss sich der Admin über SSH (sofern aktiviert) oder über die Konsole beim System anmelden, um das Kennwort zu ändern. Bei der Eingabe des aktuellen, abgelaufenen Kennworts wird der Admin aufgefordert, ein neues Kennwort einzugeben. |
3.0.0 |
Kennwort läuft in Kürze ab | Hoch | global-manager, manager, edge, public-cloud-gateway | Das Benutzerkennwort läuft in Kürze ab. |
Stellen Sie sicher, dass das Kennwort für Benutzer {username} sofort geändert wird. Wenn Sie beispielsweise ein neues Kennwort für einen Benutzer anwenden möchten, rufen Sie die folgende NSX API mit einem gültigen Kennwort im Anforderungstext auf: PUT /api/v1/node/users/<userid>, wobei <userid> die ID des Benutzers ist. |
3.0.0 |
Kennwortablauf steht bevor | Mittel | global-manager, manager, edge, public-cloud-gateway | Das Benutzerkennwort läuft in Kürze ab. |
Das Kennwort für Benutzer {username} muss in Kürze geändert werden. Wenn Sie beispielsweise ein neues Kennwort für einen Benutzer anwenden möchten, rufen Sie die folgende NSX API mit einem gültigen Kennwort im Anforderungstext auf: PUT /api/v1/node/users/<userid>, wobei <userid> die ID des Benutzers ist. |
3.0.0 |
Ereignisse bei physischen Servern
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Installation des physischen Servers fehlgeschlagen | Kritisch | manager | Installation des physischen Servers (BMS) fehlgeschlagen. |
Navigieren Sie zu „System“ > „Fabric“ > „Knoten“ > „Host-Transportknoten“, und beheben Sie den Fehler auf dem Knoten. |
4.0.0 |
Upgrade des physischen Servers fehlgeschlagen | Kritisch | manager | Upgrade des physischen Servers (BMS) fehlgeschlagen. |
Navigieren Sie zu „System“ > „Upgrade“, beheben Sie den Fehler, und lösen Sie dann das Upgrade erneut aus. |
4.0.0 |
Deinstallation des physischen Servers fehlgeschlagen | Kritisch | manager | Deinstallation des physischen Servers (BMS) fehlgeschlagen. |
Navigieren Sie zu „System“ > „Fabric“ > „Knoten“ > „Host-Transportknoten“, und beheben Sie den Fehler auf dem Knoten. |
4.0.0 |
Richtlinieneinschränkungsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Grenzwert für Erstellungsanzahl erreicht | Mittel | manager | Die Anzahl der Einheiten hat den Grenzwert für die Richtlinieneinschränkung erreicht. |
Überprüfen Sie die Nutzung von {constraint_type}. Aktualisieren Sie die Einschränkung, um den Grenzwert zu erhöhen oder den nicht verwendeten {constraint_type} zu löschen. |
4.1.0 |
Routing-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
BFD auf externer Schnittstelle inaktiv | Hoch | edge, autonomous-edge, public-cloud-gateway | Die BFD-Sitzung ist inaktiv. |
1. Rufen Sie den NSX-CLI-Befehl get logical-routers auf. |
3.0.0 |
Statisches Routing entfernt | Hoch | edge, autonomous-edge, public-cloud-gateway | Statische Route wurde entfernt. |
Der statische Routing-Eintrag wurde aufgrund einer inaktiven BFD-Sitzung entfernt. |
3.0.0 |
BGP inaktiv | Hoch | edge, autonomous-edge, public-cloud-gateway | Der BGP-Nachbar ist inaktiv. |
1. Rufen Sie den NSX-CLI-Befehl get logical-routers auf. |
3.0.0 |
Proxy-ARP nicht für Dienst-IP konfiguriert | Kritisch | manager | Proxy-ARP ist für Dienst-IP nicht konfiguriert. |
Konfigurieren Sie die Dienst-IP {service_ip} für die Diensteinheit {entity_id} neu oder ändern Sie das Subnetz von lrport {lrport_id} auf Router {lr_id} so, dass die Proxy-ARP-Einträge, die aufgrund der Überlappung zwischen der Dienst-IP und dem Subnetz von lrport generiert werden, kleiner als der zulässige Schwellenwert von 16384 sind. |
3.0.3 |
Routing ausgefallen | Hoch | edge, autonomous-edge, public-cloud-gateway | Alle BGP/BFD-Sitzungen sind inaktiv. |
Rufen Sie den NSX-CLI-Befehl get logical-routers auf, um den Tier-0-Dienstrouter abzurufen und zu diesem VRF zu wechseln. Rufen Sie dann die folgenden NSX-CLI-Befehle auf. |
3.0.0 |
OSPF-Nachbar ist nicht verfügbar | Hoch | edge, autonomous-edge, public-cloud-gateway | OSPF-Nachbar wurde vom vollständigen Zustand in einen anderen versetzt. |
1. Rufen Sie den NSX-CLI-Befehl get logical-routers, um die VRF-ID abzurufen und zum Tier-0-Dienstrouter zu wechseln. |
3.1.1 |
Maximale IPv4-Routengrenze nähert sich | Mittel | edge, autonomous-edge, public-cloud-gateway | Die maximale IPv4-Routengrenze nähert sich auf dem Edge-Knoten. |
1. Überprüfen Sie die Route Redistribution-Richtlinien und Routen, die von allen externen Peers empfangen wurden. |
4.0.0 |
Maximale IPv6-Routengrenze nähert sich | Mittel | edge, autonomous-edge, public-cloud-gateway | Die maximale IPv6-Routengrenze nähert sich auf dem Edge-Knoten. |
1. Überprüfen Sie die Route Redistribution-Richtlinien und Routen, die von allen externen Peers empfangen wurden. |
4.0.0 |
Maximale IPv4-Routengrenze überschritten | Kritisch | edge, autonomous-edge, public-cloud-gateway | Die maximale IPv4-Routengrenze wurde auf dem Edge-Knoten überschritten. |
1. Überprüfen Sie die Route Redistribution-Richtlinien und Routen, die von allen externen Peers empfangen wurden. |
4.0.0 |
Maximale IPv6-Routengrenze überschritten | Kritisch | edge, autonomous-edge, public-cloud-gateway | Die maximale IPv6-Routengrenze wurde auf dem Edge-Knoten überschritten. |
1. Überprüfen Sie die Route Redistribution-Richtlinien und Routen, die von allen externen Peers empfangen wurden. |
4.0.0 |
Maximale IPv4-Präfixe von BGP-Nachbar nähern sich | Mittel | edge, autonomous-edge, public-cloud-gateway | Die maximale Anzahl der vom BGP-Nachbarn empfangenen IPv4-Präfixe nähert sich. |
1. Überprüfen Sie die BGP-Routing-Richtlinien im externen Router. |
4.0.0 |
Maximale IPv6-Präfixe von BGP-Nachbar nähern sich | Mittel | edge, autonomous-edge, public-cloud-gateway | Die maximale Anzahl der vom BGP-Nachbarn empfangenen IPv6-Präfixe nähert sich. |
1. Überprüfen Sie die BGP-Routing-Richtlinien im externen Router. |
4.0.0 |
Maximale IPv4-Präfixe von BGP-Nachbar überschritten | Kritisch | edge, autonomous-edge, public-cloud-gateway | Die maximale Anzahl der vom BGP-Nachbarn empfangenen IPv4-Präfixe wurde überschritten. |
1. Überprüfen Sie die BGP-Routing-Richtlinien im externen Router. |
4.0.0 |
Maximale IPv6-Präfixe von BGP-Nachbar überschritten | Kritisch | edge, autonomous-edge, public-cloud-gateway | Die maximale Anzahl der vom BGP-Nachbarn empfangenen IPv6-Präfixe wurde überschritten. |
1. Überprüfen Sie die BGP-Routing-Richtlinien im externen Router. |
4.0.0 |
Sicherheitskonformitätsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
NDcPP-Nichtkonformität auslösen | Kritisch | manager | Der NSX-Sicherheitsstatus ist nicht NDcPP-konform. |
Führen Sie den Konformitätsbericht über das Menü „Startseite – Überwachung und Dashboard – Konformitätsbericht“ aus und beheben Sie alle Probleme, die mit dem Konformitätsnamen „NDcPP“ gekennzeichnet sind. |
4.1.0 |
EAL4-Nichtkonformität auslösen | Kritisch | manager | Der NSX-Sicherheitsstatus ist nicht EAL4+-konform. |
Führen Sie den Konformitätsbericht über das Menü „Startseite – Überwachung und Dashboard – Konformitätsbericht“ aus und beheben Sie alle Probleme, die mit dem Konformitätsnamen „EAL4+“ gekennzeichnet sind. |
4.1.0 |
NDcPP-Nichtkonformität abrufen | Kritisch | manager | Die NSX-Sicherheitskonfiguration ist nicht NDcPP-konform. |
Führen Sie den Konformitätsbericht über das Menü „Startseite – Überwachung und Dashboard – Konformitätsbericht“ aus und beheben Sie alle Probleme, die mit dem Konformitätsnamen „NDcPP“ gekennzeichnet sind. |
4.1.0 |
EAL4-Nichtkonformität abrufen | Kritisch | manager | Die NSX-Sicherheitskonfiguration ist nicht EAL4+-konform. |
Führen Sie den Konformitätsbericht über das Menü „Startseite – Überwachung und Dashboard – Konformitätsbericht“ aus und beheben Sie alle Probleme, die mit dem Konformitätsnamen „EAL4+“ gekennzeichnet sind. |
4.1.0 |
Service Insertion-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Dienstbereitstellung erfolgreich | Info | manager | Dienstbereitstellung war erfolgreich. |
Es ist keine Aktion erforderlich. |
4.0.0 |
Dienstbereitstellung fehlgeschlagen | Kritisch | manager | Dienstbereitstellung ist fehlgeschlagen. |
Löschen Sie die Dienstbereitstellung über die NSX-Benutzeroberfläche oder die API. Führen Sie eine der im KB-Artikel beschriebenen Korrekturaktionen durch und wiederholen Sie die Dienstbereitstellung. |
4.0.0 |
Aufheben der Dienstbereitstellung erfolgreich | Info | manager | Löschen der Dienstbereitstellung war erfolgreich. |
Es ist keine Aktion erforderlich. |
4.0.0 |
Aufheben der Dienstbereitstellung fehlgeschlagen | Kritisch | manager | Löschen der Dienstbereitstellung ist fehlgeschlagen. |
Löschen Sie die Dienstbereitstellung über die NSX-Benutzeroberfläche oder die API. Führen Sie eine der im KB-Artikel beschriebenen Korrekturaktionen durch und wiederholen Sie das Löschen der Dienstbereitstellung. Lösen Sie den Alarm manuell auf, nachdem Sie überprüft haben, ob alle VMs und Objekte gelöscht wurden. |
4.0.0 |
SVM-Integritätsstatus aktiv | Info | manager | SVM funktioniert im Dienst. |
Es ist keine Aktion erforderlich. |
4.0.0 |
SVM-Integritätsstatus inaktiv | Hoch | manager | SVM funktioniert nicht im Dienst. |
Löschen Sie die Dienstbereitstellung über die NSX-Benutzeroberfläche oder die API. Führen Sie eine der im KB-Artikel beschriebenen Korrekturmaßnahmen durch und wiederholen Sie die Dienstbereitstellung gegebenenfalls. |
4.0.0 |
Service Insertion-Infrastrukturstatus inaktiv | Kritisch | esx | Der Status der Service Insertion-Infrastruktur ist inaktiv und auf dem Host nicht aktiviert. |
Führen Sie eine Korrekturmaßnahme aus dem KB-Artikel durch und überprüfen Sie, ob der Status aktiv ist. Beheben Sie den Alarm manuell, nachdem Sie den Status überprüft haben. |
4.0.0 |
SVM-Aktivitätsstatus inaktiv | Kritisch | manager | Status der SVM-Aktivität ist inaktiv. |
Führen Sie eine Korrekturmaßnahme aus dem KB-Artikel durch und überprüfen Sie, ob der Status aktiv ist. |
4.0.0 |
Dienstkettenpfad inaktiv | Kritisch | manager | Dienstkettenpfad ist inaktiv. |
Führen Sie eine Korrekturmaßnahme aus dem KB-Artikel durch und überprüfen Sie, ob der Status aktiv ist. |
4.0.0 |
Neuer Host hinzugefügt | Info | esx | Neuer Host wurde im Cluster hinzugefügt. |
Suchen Sie nach dem VM-Bereitstellungsstatus und warten Sie, bis sie eingeschaltet wird. |
4.0.0 |
Tep-Integritätsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Fehlerhafter Tep | Mittel | esx | TEP ist fehlerhaft. |
1. Überprüfen Sie, ob der TEP eine gültige IP-Adresse oder andere Underlay-Konnektivitätsprobleme aufweist. |
4.1.0 |
Tep-Ha aktiviert | Info | esx | TEP-HA aktiviert. |
Aktivieren Sie AutoWiederherstellen, oder rufen Sie die manuelle Wiederherstellung für TEP:{vtep_name} auf VDS:{dvs_name} auf Transportknoten:{transport_node_id} auf. |
4.1.0 |
Tep-AutoWiederherstellen erfolgreich | Info | esx | AutoWiederherstellen ist erfolgreich. |
Keine. |
4.1.0 |
Tep-AutoWiederherstellen-Fehler | Mittel | esx | AutoWiederherstellen fehlgeschlagen. |
Überprüfen Sie, ob der TEP eine gültige IP-Adresse oder andere Underlay-Konnektivitätsprobleme aufweist. |
4.1.0 |
Fehlerhafter Tep auf DPU | Mittel | dpu | TEP ist auf DPU fehlerhaft. |
1. Überprüfen Sie, ob der TEP eine gültige IP-Adresse oder andere Underlay-Konnektivitätsprobleme aufweist. |
4.1.0 |
Tep-Ha auf DPU aktiviert | Info | dpu | TEP-HA auf DPU aktiviert. |
Aktivieren Sie AutoWiederherstellen, oder rufen Sie die manuelle Wiederherstellung für TEP {vtep_name} auf VDS {dvs_name} auf Transportknoten {transport_node_id} auf DPU {dpu_id} auf. |
4.1.0 |
Tep-AutoWiederherstellen auf DPU erfolgreich | Info | dpu | AutoWiederherstellen auf DPU erfolgreich. |
Keine. |
4.1.0 |
Tep-AutoWiederherstellen-Fehler auf DPU | Mittel | dpu | AutoWiederherstellung auf DPU fehlgeschlagen. |
Überprüfen Sie, ob der TEP eine gültige IP-Adresse oder andere Underlay-Konnektivitätsprobleme aufweist. |
4.1.0 |
Transportknotenintegritätsereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Transportknoten-Uplink auf DPU deaktiviert | Mittel | dpu | Uplink auf DPU wird inaktiv. |
Überprüfen Sie den Status der physischen Netzwerkkarten von Uplinks auf den Hosts auf DPU {dpu_id}. Ermitteln Sie den zugeordneten Namen dieser physischen Netzwerkkarte auf dem Host und führen Sie dann eine Überprüfung der Benutzeroberfläche durch. |
4.0.0 |
LAG-Mitglied auf DPU inaktiv | Mittel | dpu | LACP auf DPU meldet Mitglied inaktiv. |
Überprüfen Sie den Verbindungsstatus der LAG-Mitglieder auf DPU {dpu_id}. Ermitteln Sie den zugeordneten Namen der zugehörigen physischen Netzwerkkarte auf dem Host und führen Sie dann eine Überprüfung der Benutzeroberfläche durch. |
4.0.0 |
NVDS-Uplink inaktiv | Mittel | esx, kvm, bms | Uplink wird inaktiv. |
Überprüfen Sie den Status der physischen Netzwerkkarten von Uplinks auf Hosts. |
3.0.0 |
Transportknoten-Uplink deaktiviert | Mittel | esx, kvm, bms | Uplink wird inaktiv. |
Überprüfen Sie den Status der physischen Netzwerkkarten von Uplinks auf Hosts. |
3.2.0 |
LAG-Mitglied inaktiv | Mittel | esx, kvm, bms | LACP meldet Mitglied als inaktiv. |
Überprüfen Sie den Verbindungsstatus der LAG-Mitglieder auf den Hosts. |
3.0.0 |
Vmc-App-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
Transit Connect-Fehler | Mittel | manager | Transit Connect kann nicht vollständig realisiert werden. |
Wenn dieser Alarm nicht innerhalb von 10 Minuten automatisch aufgelöst wird, wiederholen Sie die neueste(n) Anforderung(en) im Zusammenhang mit der Transitverbindung. Wenn beispielsweise eine API-Anfrage des TGW-Anhangs diesen Alarm ausgelöst hat, wiederholen Sie die API-Anfrage des TGW-Anhangs. Wenn der Alarm auch nach einem erneuten Versuch nicht aufgelöst wird, führen Sie die folgenden Schritte aus: |
4.1.0 |
VPN-Ereignisse
Ereignisname | Schweregrad | Knotentyp | Warnmeldung | Empfohlene Aktion | Version eingeführt |
---|---|---|---|---|---|
IPSec-Dienst ausgefallen | Mittel | edge, autonomous-edge, public-cloud-gateway | IPsec-Dienst ist ausgefallen. |
1. Deaktivieren und aktivieren Sie den IPSec-Dienst über die NSX Manager-Benutzeroberfläche. |
3.2.0 |
Auf IPSec-Richtlinie basierende Sitzung ausgefallen | Mittel | edge, autonomous-edge, public-cloud-gateway | Die richtlinienbasierte IPsec-VPN-Sitzung ist ausgefallen. |
Überprüfen Sie die IPsec-VPN-Sitzungskonfiguration und beheben Sie Fehler basierend auf dem Grund für die inaktive Sitzung. |
3.0.0 |
Auf IPSec-Route basierende Sitzung ausgefallen | Mittel | edge, autonomous-edge, public-cloud-gateway | Die routenbasierte IPsec-VPN-Sitzung ist ausgefallen. |
Überprüfen Sie die IPsec-VPN-Sitzungskonfiguration und beheben Sie Fehler basierend auf dem Grund für die inaktive Sitzung. |
3.0.0 |
Auf IPSec-Richtlinie basierender Tunnel ausgefallen | Mittel | edge, autonomous-edge, public-cloud-gateway | Die richtlinienbasierten IPsec-VPN-Tunnel sind ausgefallen. |
Überprüfen Sie die IPSec-VPN-Sitzungskonfiguration und beheben Sie Fehler basierend auf dem Grund für den inaktiven Tunnel. |
3.0.0 |
Auf IPSec-Route basierender Tunnel ausgefallen | Mittel | edge, autonomous-edge, public-cloud-gateway | Der routenbasierte IPsec-VPN-Tunnel ist ausgefallen. |
Überprüfen Sie die IPSec-VPN-Sitzungskonfiguration und beheben Sie Fehler basierend auf dem Grund für den inaktiven Tunnel. |
3.0.0 |
L2VPN-Sitzung ausgefallen | Mittel | edge, autonomous-edge, public-cloud-gateway | L2VPN-Sitzung ist inaktiv. |
Überprüfen Sie den L2VPN-Sitzungsstatus hinsichtlich der Ursache für die inaktive Sitzung und beheben Sie Fehler basierend auf der Ursache. |
3.0.0 |