Die allgemeinen NSX-Konzepte, die in der Dokumentation und auf der Benutzeroberfläche verwendet werden.

Compute Manager
Ein Compute Manager ist eine Anwendung, die Ressourcen wie Hosts und virtuelle Maschinen verwaltet. NSX unterstützt vCenter Server als Compute Manager.
Control Plane
Berechnet den Laufzeitzustand anhand der Konfiguration aus der Management Plane, Control Plane verteilt Topologie-Informationen, die von den Data Plane-Elementen gemeldet werden, und überträgt die zustandslose Konfiguration an Weiterleitungs-Engines (Transportknoten). NSX Control Plane ist in zwei Komponenten aufgeteilt: die zentrale Control Plane (CCP) und die lokale Control Plane (LCP). Die CCP wird in NSX Manager-Clustern implementiert, während die LCP auf allen NSX-Transportknoten ausgeführt wird.
Corfu-Dienste
Führen Sie diese Dienste auf jedem NSX Manager-Knoten aus, um den hochverfügbaren verteilten Corfu-Datenspeicher zu erstellen.
Data Plane
Führt die zustandslose Weiterleitung oder Transformation von Paketen anhand von Tabellen durch, die von der Control Plane aufgefüllt werden Die Data Plane meldet Topologie-Informationen an die Control Plane und pflegt Statistiken auf Paketebene. Die Datenebene wird von NSX-Transportknoten implementiert.
Datenverarbeitungseinheit (DPU)
Ein DPU-Gerät ist ein SmartNIC-Gerät oder eine Hochleistungs-Netzwerkschnittstellenkarte mit hinzugefügten eingebetteten CPU-Kernen, Arbeitsspeicher und einem Hypervisor, die unabhängig vom auf dem Server installierten ESXi-Hypervisor auf dem Gerät ausgeführt werden.
Hinweis: Wir beziehen uns in unseren Benutzerhandbüchern auf SmartNIC als DPU.
Externes Netzwerk
Ein physisches Netzwerk oder VLAN, das nicht von NSX verwaltet wird Sie können Ihr logisches Netzwerk oder Overlay-Netzwerk über ein Tier-0-Gateway, ein Tier-1-Gateway oder eine L2-Bridge mit einem externen Netzwerk verknüpfen.
Externe Schnittstelle
Tier-0-Gateway-Schnittstelle, die mit der physischen Infrastruktur oder dem Router verbunden ist. Statisches Routing und BGP werden auf dieser Schnittstelle unterstützt. Diese Schnittstelle wurde in früheren Versionen als Uplink-Schnittstelle bezeichnet.
logischer Port Egress (ausgehend)
Ausgehender Netzwerkdatenverkehr, der die VM oder das logische Netzwerk verlässt, wird als Egress bezeichnet, weil der Datenverkehr das virtuelle Netzwerk verlässt und in das Datencenter eintritt.
logischer Port Ingress (eingehend)
Eingehender Netzwerkdatenverkehr, der in die VM gelangt, wird als eingehender Datenverkehr bezeichnet.
Gateway
NSX-Routing-Einheit, die die Konnektivität zwischen verschiedenen L2-Netzwerken bereitstellt. Das Konfigurieren eines Gateways über NSX Manager instanziiert ein Gateway (Tier-0 oder Tier-1) auf Transportknoten und stellt ein optimiertes verteiltes Routing sowie ein zentralisiertes Routing und Dienste wie NAT, Load Balancer, DHCP und andere unterstützte Dienste auf jedem Hypervisor bereit.
Gateway-Port
Logischer Netzwerkport, mit dem Sie einen logischen Switch-Port oder einen Uplink-Port zu einem physischen Netzwerk verknüpfen können
Segment-Port
Verknüpfungspunkt für einen logischen Switch, mit dem eine Verbindung zu einer Netzwerkschnittstelle einer virtuellen Maschine, einem Container, physischen Appliances oder zu einer Gateway-Schnittstelle hergestellt werden kann. Der Segment-Port meldet das angewendete Switching-Profil, den Portstatus und den Linkstatus.
Management Plane
Liefert einen einzelnen API-Einstiegspunkt in das System, speichert die Benutzerkonfiguration, verarbeitet Benutzerabfragen und führt Betriebsaufgaben auf allen Management-, Controller- und Data Plane-Knoten im System aus.
NSX Edge-Cluster
Ist eine Sammlung von NSX Edge-Knoten-Appliances, die die gleichen Einstellungen haben und Hochverfügbarkeit bieten, wenn einer der NSX Edge-Knoten ausfällt.
NSX Edge-Knoten
Edge-Knoten sind Dienst-Appliances (Bare Metal oder VM-Formfaktor) mit Kapazitätspools, die für die Ausführung von Netzwerk- und Sicherheitsdiensten vorgesehen sind und nicht an die Hypervisoren verteilt werden können.
NSX Managed Virtual Distributed Switch (N-VDS, Host-Switch)
Der von NSX verwaltete Virtual Distributed Switch leitet den Datenverkehr zwischen logischen und physischen Ports des Geräts weiter. Auf ESXi-Hosts wird die N-VDS-Implementierung von VMware vSphere ® Distributed Switch™ (VDS) abgeleitet und in vCenter als opakes Netzwerk angezeigt. Bei jeder anderen Art von Transportknoten (KVM-Hypervisoren, Edges, Bare Metal-Servern, Cloud-VMs usw.) wird die N-VDS Implementierung vom Open vSwitch (OVS) abgeleitet.
Hinweis: VMware unterstützt den virtuellen NSX N-VDS-Switch auf ESXi-Hosts ab Version 4.0.0.1 nicht mehr, da empfohlen wird, NSX zusätzlich zu vCenter VDS bereitzustellen. N-VDS bleibt der unterstützte virtuelle Switch auf NSX Edge-Knoten, nativen NSX-Agenten der Public Cloud und Bare-Metal-Arbeitslasten.

Ein N-VDS verfügt über zwei Modi: „Standard“ und „Erweiterter Datenpfad“. Der N-VDS mit erweitertem Datenpfad ist für die Netzwerkfunktionsvirtualisierung optimiert, bei der die Arbeitslasten Netzwerkfunktionen unter anspruchsvollen Latenz- und Paketratenanforderungen ausführen.

vSphere Distributed Switch (VDS)

Ab NSX 3.0 kann NSX direkt über einem vSphere Distributed Switch der Version 7 oder höher ausgeführt werden. Es wird empfohlen, den VDS-Switch für die Bereitstellung von NSX auf ESXi-Hosts zu verwenden. Sie können Overlay- oder VLAN-gestützte Segmente auf VDS-Switches erstellen, ähnlich wie die N-VDS- und VDS-Switches, die im Modus „Standard“ oder „Erweiterter Datenpfad“ konfiguriert werden können.

vSphere Distributed Services Engine
Mit Sphere 8.0 wird VMware vSphere Distributed Services Engine eingeführt, die Datenverarbeitungseinheiten (DPUs) als neue Hardwaretechnologie nutzt, um die Einschränkungen der CPU-Kernleistung zu umgehen und gleichzeitig Zero-Trust-Sicherheit und vereinfachte Vorgänge für vSphere-Umgebungen bereitzustellen. Mit NSX 4.0.1.1 bietet vSphere Distributed Services Engine die Möglichkeit, einige der Netzwerkvorgänge von Ihrer Server-CPU auf eine DPU auszulagern.
NSX Manager
Knoten, der die API-Dienste, die Management Plane, die Steuerungsebene und die Agent-Dienste hostet. Auf sie kann über die CLI, Web-Benutzeroberfläche oder die API zugegriffen werden. NSX Manager ist eine Appliance, die im Installationspaket von NSX enthalten ist. Sie können die Appliance mit der Rolle NSX Manager oder nsx-cloud-service-manager bereitstellen. Die Appliance unterstützt derzeit nur jeweils eine Rolle gleichzeitig.
NSX Manager-Cluster

Ein Cluster mit virtuellen NSX Manager-Maschinen-Appliances, die Hochverfügbarkeit der Benutzeroberfläche und der API bereitstellen.

Open vSwitch (OVS)
Open Source-Software-Switch, der als virtueller Switch in XenServer, Xen und anderen Linux-basierten Hypervisors fungiert.
Opakes Netzwerk

Ein opakes Netzwerk ist ein Netzwerk, das von einer separaten Einheit außerhalb von vSphere erstellt und verwaltet wird. Beispielsweise erscheinen logische Netzwerke, die von einem N-VDS-Switch erstellt und verwaltet werden, der auf NSX ausgeführt wird, in vCenter Server als verdeckte Netzwerke vom Typ nsx.LogicalSwitch. Sie können ein opakes Netzwerk als Sicherung für einen VM-Netzwerkadapter wählen. Um ein opakes Netzwerk zu verwalten, verwenden Sie die mit dem opaken Netzwerk verbundenen Verwaltungstools, z. B. NSX Manager oder die NSX-API-Verwaltungstools.

Logisches Overlay-Netzwerk
Logisches Netzwerk, das mithilfe des GENEVE-Kapselungsprotokolls implementiert wurde, wie in https://www.rfc-editor.org/rfc/rfc8926.txt erwähnt. Die von VMs gesehene Topologie ist von der des physischen Netzwerks entkoppelt.
Physische Schnittstelle (pNIC)
Netzwerkschnittstelle auf einem physischen Server, auf dem ein Hypervisor installiert ist
Segment
Zuvor als logischer Switch bezeichnet. Einheit, die virtuelles Layer 2-Switching für VM-Schnittstellen und Gateway-Schnittstellen bereitstellt. Ein Segment fungiert für Administratoren des Mandantennetzwerks als logisches Äquivalent eines physischen Layer 2-Switches, mit dem mehrere VMs mit einer gemeinsamen Broadcast-Domäne verbunden werden können. Ein Segment ist eine logische Einheit, die von der physischen Hypervisor-Infrastruktur unabhängig ist und viele Hypervisoren umspannt, sodass VMs unabhängig von ihrer physischen Position verbunden werden können.

In einer Cloud mit mehreren Mandanten können zahlreiche Segmente nebeneinander auf derselben Hypervisor-Hardware vorhanden sein, wobei jedes Layer 2-Segment von den anderen isoliert ist. Segmente können mithilfe von Gateways verbunden werden, die Konnektivität mit dem externen physischen Netzwerk bereitstellen können.

Dienstschnittstelle
Tier-0-Schnittstelle verbindet VLAN-Segmente, um Konnektivität und Dienste für VLAN-gestützte physische oder virtuelle Arbeitslasten bereitzustellen. Eine Dienstschnittstelle kann auch mit Overlay-Segmenten für Anwendungsfälle mit dem eigenständigen Tier-1-Load Balancer verbunden werden. Ab NSX-Version 3.0 unterstützt die Dienstschnittstelle statisches und dynamisches Routing.
Tier-0-Gateway
Ein Tier-0-Gateway für die vertikale Konnektivität und stellt die Verbindung zu den physischen Routern her. Er kann als Aktiv-Aktiv- oder Aktiv-Standby-Cluster konfiguriert werden. Das Tier-0-Gateway führt BGP und Peers mit physischen Routern aus.

Tier-0-Gateways bestehen aus zwei Komponenten:

  • Distributed Routing-Komponente (DR), die auf allen Transportknoten ausgeführt wird. DR des Tier-0-Gateways wird bei seiner Erstellung auf den Hypervisoren und Edge-Transportknoten instanziiert.
  • Die zentrale Dienst-Routing-Komponente (SR) wird auf Edge-Clusterknoten ausgeführt. SR wird auf den Edge-Knoten instanziiert, wenn das Gateway mit dem Edge-Cluster verbunden ist und externe Schnittstellen erstellt werden.

Tier-1-Gateway
Ein Tier-1-Gateway verbindet sich mit einem Tier-0-Gateway, um eine Northbound-Konnektivität zu den an ihn angehängten Teilnetzwerken herzustellen (Multi-Tier-Routingmodell). Er stellt eine Verbindung zu einem oder mehreren Overlay-Netzwerken her, um eine Southbound-Konnektivität zu seinen Teilnetzen herzustellen. Ein Tier-1-Gateway kann als Aktiv-Standby-Cluster konfiguriert werden. Wie das Tier-0-Gateway wird beim Erstellen eines Tier-1-Gateways eine verteilte Komponente (DR) des Tier-1-Gateways auf den Hypervisoren und Edge-Transportknoten instanziiert. Die Dienstkomponente (SR) wird jedoch nur erstellt, wenn dem Edge-Cluster Gateways zugeordnet sind und externe Schnittstellen erstellt wurden.
Transportzone
Sammlung aus Transportknoten, die die maximale Reichweite für logische Switches definiert. Eine Transportzone stellt eine Reihe aus ähnlich bereitgestellten Hypervisors und die logischen Switches dar, die VMs auf diesen Hypervisors verbinden. Sie ist außerdem bei der NSX-Management Plane registriert und es sind NSX-Module auf ihr installiert. Damit ein Hypervisor-Host oder NSX Edge Teil des NSX-Overlays werden kann, muss er der NSX-Transportzone hinzugefügt werden.
Transportknoten
Ein Fabric-Knoten wird als Transportknoten vorbereitet, damit er in der Lage ist, an einem NSX-Overlay- oder NSX-VLAN-Netzwerk teilzunehmen. Für einen ESXi-Host müssen Sie einen VDS-Switch konfigurieren.
Uplink-Profil (host-switch-profile)
Definiert Richtlinien für die Links von den Transportknoten zu NSX-Segmenten oder von NSX Edge-Knoten zu Top-of-Rack-Switches. Die durch Uplink-Profile definierten Einstellungen können Teaming-Richtlinien, die Transport-VLAN-ID und die MTU-Einstellung umfassen. Das Transport-VLAN, das in den Uplink-Profil-Tags festgelegt ist, überlagert nur den Datenverkehr und die VLAN-ID wird vom TEP-Endpunkt verwendet.
VM-Schnittstelle (vNIC)
Netzwerkschnittstelle auf einer virtuellen Maschine, die Konnektivität zwischen dem virtuellen Gastbetriebssystem und dem Standard-vSwitch oder NSX-Segment bereitstellt. Die vNIC kann mit einem logischen Port verknüpft werden. Sie können eine vNIC anhand ihrer eindeutigen ID (UUID) identifizieren.
Tunnel-Endpoint (TEP)
Jeder Transportknoten verfügt über einen Tunnel-Endpoint (TEP), der für die Kapselung des Overlay-VM-Datenverkehrs innerhalb eines VLAN-Headers und das Weiterleiten des Pakets an einen Ziel-TEP zur weiteren Verarbeitung zuständig ist. TEPs sind die Quell- und Ziel-IP-Adressen, die in der externen IP-Kopfzeile verwendet werden, um die ESXi-Hosts zu identifizieren, bei denen die NSX-Kapselung von Frame-Overlays beginnt und endet. Datenverkehr kann an einen anderen TEP auf einem anderen Host oder an das NSX Edge-Gateway weitergeleitet werden, um auf das physische Netzwerk zuzugreifen. TEPs erstellen einen GENEVE-Tunnel zwischen den Quell- und Ziel-Endpoints.