Die allgemeinen NSX-T Data Center-Konzepte, die in der Dokumentation und auf der Benutzeroberfläche verwendet werden.

Compute Manager
Ein Compute Manager ist eine Anwendung, die Ressourcen wie Hosts und virtuelle Maschinen verwaltet. Ein Beispiel ist vCenter Server.
Control Plane
Berechnet den Laufzeitzustand anhand der Konfiguration aus der Management Plane, verteilt Topologie-Informationen, die von den Data Plane-Elementen gemeldet werden, und überträgt die zustandslose Konfiguration an Weiterleitungs-Engines.
Data Plane
Führt die zustandslose Weiterleitung oder Transformation von Paketen anhand von Tabellen durch, die von der Control Plane aufgefüllt werden Die Data Plane meldet Topologie-Informationen an die Control Plane und pflegt Statistiken auf Paketebene.
Externes Netzwerk
Ein physisches Netzwerk oder VLAN, das nicht von NSX-T Data Center verwaltet wird Sie können Ihr logisches Netzwerk oder Overlay-Netzwerk über ein Tier-0-Gateway, ein Tier-1-Gateway oder eine L2-Bridge mit einem externen Netzwerk verknüpfen.
logischer Port Egress (ausgehend)
Ausgehender Netzwerkdatenverkehr, der die VM oder das logische Netzwerk verlässt, wird als Egress bezeichnet, weil der Datenverkehr das virtuelle Netzwerk verlässt und in das Datencenter eintritt.
logischer Port Ingress (eingehend)
Eingehender Netzwerkdatenverkehr, der in die VM gelangt, wird als eingehender Datenverkehr bezeichnet.
Gateway
NSX-T Data Center-Routing-Einheit, die Konnektivität zwischen verschiedenen L2-Netzwerken bereitstellt. Das Konfigurieren eines Gateways über NSX Manager instanziiert einen logischen Router auf jedem Hypervisor.
Gateway-Port
Logischer Netzwerkport, mit dem Sie einen logischen Switch-Port oder einen Uplink-Port zu einem physischen Netzwerk verknüpfen können
Segment-Port
Verknüpfungspunkt für einen logischen Switch, mit dem eine Verbindung zu einer Netzwerkschnittstelle einer virtuellen Maschine, einem Container, physischen Appliances oder zu einer Gateway-Schnittstelle hergestellt werden kann. Der Segment-Port meldet das angewendete Switching-Profil, den Portstatus und den Linkstatus.
Management Plane
Liefert einen einzelnen API-Einstiegspunkt in das System, speichert die Benutzerkonfiguration, verarbeitet Benutzerabfragen und führt Betriebsaufgaben auf allen Management-, Controller- und Data Plane-Knoten im System aus. Die Management Plane ist außerdem für das Abfragen, Ändern und Speichern der Benutzerkonfiguration zuständig.
NSX Edge-Cluster
Ist eine Sammlung von NSX Edge-Knoten-Appliances, die die gleichen Einstellungen haben und Hochverfügbarkeit bieten, wenn einer der NSX Edge-Knoten ausfällt.
NSX Edge-Knoten
Edge-Knoten sind Dienst-Appliances mit Kapazitätspools, die für die Ausführung von Netzwerk- und Sicherheitsdiensten vorgesehen sind und nicht an die Hypervisoren verteilt werden können.
NSX-verwalteter Virtual Distributed Switch oder KVM Open vSwitch
Der NSX-verwaltete Virtual Distributed Switch (N-VDS, vormals Host-Switch) oder OVS wird für freigegebene NSX Edge- und Computing-Cluster verwendet. N-VDS ist für die Konfiguration des Overlay-Datenverkehrs erforderlich.

Ein N-VDS verfügt über zwei Modi: „Standard“ und „Optimierter Datenpfad“. Ein N-VDS mit optimiertem Datenpfad hat das Leistungsvermögen, NFV-Arbeitslasten (Network Functions Virtualization) zu unterstützen.

vSphere Distributed Switch (VDS)
Ab vSphere 7.0 bietet NSX-T Data Center Unterstützung für VDS-Switches. Sie können Segmente auf VDS-Switches erstellen.
NSX Manager
Knoten, der die API-Dienste, die Management Plane, die Steuerungsebene und die Agent-Dienste hostet. NSX Manager ist eine Appliance, die im Installationspaket von NSX-T Data Center enthalten ist. Sie können die Appliance mit der Rolle NSX Manager oder nsx-cloud-service-manager bereitstellen. Die Appliance unterstützt derzeit nur jeweils eine Rolle gleichzeitig.
NSX Manager-Cluster
Ein Cluster aus NSX Managern, die Hochverfügbarkeit bereitstellen können.

Open vSwitch (OVS)
Open Source-Software-Switch, der als virtueller Switch in XenServer, Xen, KVM und anderen Linux-basierten Hypervisors fungiert.
Opakes Netzwerk

Ein opakes Netzwerk ist ein Netzwerk, das von einer separaten Einheit außerhalb von vSphere erstellt und verwaltet wird. Beispielsweise erscheinen logische Netzwerke, die von einem N-VDS-Switch erstellt und verwaltet werden, der auf NSX-T Data Center ausgeführt wird, in vCenter Server als verdeckte Netzwerke vom Typ nsx.LogicalSwitch. Sie können ein opakes Netzwerk als Sicherung für einen VM-Netzwerkadapter wählen. Um ein opakes Netzwerk zu verwalten, verwenden Sie die mit dem opaken Netzwerk verbundenen Verwaltungstools, z. B. NSX Manager oder die NSX-T Data Center-API-Verwaltungstools.

Logisches Overlay-Netzwerk
Logisches Netzwerk, das mithilfe des GENEVE-Kapselungsprotokolls implementiert wurde, wie in https://www.rfc-editor.org/rfc/rfc8926.txt erwähnt. Die von VMs gesehene Topologie ist von der des physischen Netzwerks entkoppelt.
Physische Schnittstelle (pNIC)
Netzwerkschnittstelle auf einem physischen Server, auf dem ein Hypervisor installiert ist
Segment
Zuvor als logischer Switch bezeichnet. Einheit, die virtuelles Layer 2-Switching für VM-Schnittstellen und Gateway-Schnittstellen bereitstellt. Ein Segment fungiert für Administratoren des Mandantennetzwerks als logisches Äquivalent eines physischen Layer 2-Switches, mit dem mehrere VMs mit einer gemeinsamen Broadcast-Domäne verbunden werden können. Ein Segment ist eine logische Einheit, die von der physischen Hypervisor-Infrastruktur unabhängig ist und viele Hypervisoren umspannt, sodass VMs unabhängig von ihrer physischen Position verbunden werden können.

In einer Cloud mit mehreren Mandanten können zahlreiche Segmente nebeneinander auf derselben Hypervisor-Hardware vorhanden sein, wobei jedes Layer 2-Segment von den anderen isoliert ist. Segmente können mithilfe von Gateways verbunden werden, die Konnektivität mit dem externen physischen Netzwerk bereitstellen können.

Tier-0-Gateway
Ein Tier-0-Gateway für die vertikale Konnektivität und stellt die Verbindung zu den physischen Routern her. Er kann als Aktiv-Aktiv- oder Aktiv-Standby-Cluster konfiguriert werden. Das Tier-0-Gateway führt BGP und Peers mit physischen Routern aus.
Tier-1-Gateway
Ein Tier-1-Gateway verbindet sich mit einem Tier-0-Router, um eine Northbound-Konnektivität zu den an ihn angehängten Teilnetzen herzustellen. Er stellt eine Verbindung zu einem oder mehreren Overlay-Netzwerken her, um eine Southbound-Konnektivität zu seinen Teilnetzen herzustellen. Ein Tier-1-Gateway kann als Aktiv-Standby-Cluster konfiguriert werden.
Transportzone
Sammlung aus Transportknoten, die die maximale Reichweite für logische Switches definiert. Eine Transportzone stellt eine Reihe aus ähnlich bereitgestellten Hypervisors und die logischen Switches dar, die VMs auf diesen Hypervisors verbinden. Sie ist außerdem bei der NSX-T Data Center-Management Plane registriert und es sind NSX-T Data Center-Module auf ihr installiert. Damit ein Hypervisor-Host oder NSX Edge Teil des NSX-T Data Center-Overlays werden kann, muss er der NSX-T Data Center-Transportzone hinzugefügt werden.
Transportknoten
Ein Fabric-Knoten wird als Transportknoten vorbereitet, damit er in der Lage ist, an einem NSX-T Data Center-Overlay- oder NSX-T Data Center-VLAN-Netzwerk teilzunehmen. Bei einem KVM-Host können Sie den N-VDS im Voraus konfigurieren oder die Konfiguration von NSX Manager durchführen lassen. Bei einem ESXi-Host wird der N-VDS immer von NSX Manager konfiguriert.
Uplink-Profil
Definiert Richtlinien für die Links von den Transportknoten zu NSX-T Data Center-Segmenten oder von NSX Edge-Knoten zu Top-of-Rack-Switches. Die durch Uplink-Profile definierten Einstellungen können Teaming-Richtlinien, die Transport-VLAN-ID und die MTU-Einstellung umfassen. Das Transport-VLAN, das in den Uplink-Profil-Tags festgelegt ist, überlagert nur den Datenverkehr und die VLAN-ID wird vom TEP-Endpunkt verwendet.
VM-Schnittstelle (vNIC)
Netzwerkschnittstelle auf einer virtuellen Maschine, die Konnektivität zwischen dem virtuellen Gastbetriebssystem und dem Standard-vSwitch oder NSX-T-Segment bereitstellt. Die vNIC kann mit einem logischen Port verknüpft werden. Sie können eine vNIC anhand ihrer eindeutigen ID (UUID) identifizieren.
Tunnel-Endpoint
Jeder Transportknoten verfügt über einen Tunnel-Endpoint (TEP), der für die Kapselung des Overlay-VM-Datenverkehrs innerhalb eines VLAN-Headers und das Weiterleiten des Pakets an einen Ziel-TEP zur weiteren Verarbeitung zuständig ist. TEPs sind die Quell- und Ziel-IP-Adressen, die in der externen IP-Kopfzeile verwendet werden, um die ESXi-Hosts zu identifizieren, bei denen die NSX-T-Kapselung von Overlay-Frames beginnt und endet. Datenverkehr kann an einen anderen TEP auf einem anderen Host oder an das NSX Edge-Gateway weitergeleitet werden, um auf das physische Netzwerk zuzugreifen. TEPs erstellen einen GENEVE-Tunnel zwischen den Quell- und Ziel-Endpoints.