Concetti comuni relativi a NSX utilizzati nella documentazione e nell'interfaccia utente.

Gestore risorse di elaborazione
Un gestore delle risorse di elaborazione è un'applicazione che gestisce risorse quali host e macchine virtuali. NSX supporta VMware vCenter come gestore delle risorse di elaborazione.
Piano di controllo
Calcola lo stato di runtime in base alla configurazione dal piano di gestione. Il piano di controllo distribuisce le informazioni della topologia segnalate dagli elementi del piano dati ed esegue il push della configurazione stateless ai motori di inoltro (nodi di trasporto). Il piano di controllo di NSX è suddiviso in due componenti, ovvero il piano di controllo centrale (CCP) e il piano di controllo locale (LCP). Il CCP viene implementato nel cluster NSX Manager, mentre l'LCP in tutti i nodi di trasporto NSX.
Servizi Corfu
Eseguire in ogni nodo NSX Manager per creare il datastore distribuito Corfu ad alta disponibilità.
Piano dati
Esegue l'inoltro o la trasformazione senza stato dei pacchetti in base alle tabelle popolate dal piano di controllo. Il piano dati segnala informazioni sulla topologia al piano di controllo e gestisce le statistiche a livello di pacchetto. Il piano dati è implementato dai nodi di trasporto NSX.
Unità di elaborazione dati (DPU)
Un dispositivo DPU è un dispositivo SmartNIC o una scheda di interfaccia di rete ad alte prestazioni, con core CPU incorporati aggiuntivi, memoria e un hypervisor in esecuzione nel dispositivo indipendentemente dall'hypervisor di ESXI installato nel server.
Nota: Nelle guide dell'utente, SmartNIC verrà indicata come DPU.
Rete esterna
Una rete fisica o una VLAN non gestita da NSX. È possibile collegare la rete logica o di overlay a una rete esterna tramite un Gateway di livello-0, Gateway di livello-1 oppure Bridge L2.
Interfaccia esterna
Interfaccia del gateway di livello 0 che si connette all'infrastruttura fisica o al router. In questa interfaccia sono supportati il routing statico e BGP. Nelle versioni precedenti, questa interfaccia era indicata come interfaccia di uplink.
Uscita porta logica
Il traffico di rete che parte dalla macchina virtuale o dalla rete logica viene chiamato traffico in uscita, perché lascia la rete virtuale e si immette nel data center.
Ingresso porta logica
Il traffico di rete in entrata che accede alla macchina virtuale viene chiamato traffico in ingresso.
Gateway
Entità di routing di NSX che fornisce connettività tra reti L2 diverse. La configurazione di un gateway tramite NSX Manager crea un'istanza di gateway (livello 0 o livello 1) nei nodi di trasporto e fornisce routing distribuito ottimizzato, nonché routing e servizi centralizzati come NAT, bilanciamento del carico, DHCP e altri servizi supportati in ciascun hypervisor.
Porta gateway
Porta di rete logica a cui è possibile collegare una porta di commutatore logico o una porta di uplink a una rete fisica.
Porta del segmento
Punto di collegamento del commutatore logico che permette di stabilire una connessione all'interfaccia di rete, un container, appliance fisiche di una macchina virtuale o a un'interfaccia di gateway. La porta del segmento segnala il profilo di commutazione applicato, lo stato della porta e lo stato del collegamento.
Piano di gestione
Fornisce un singolo punto di ingresso API al sistema, mantiene la configurazione dell'utente, gestisce le query dell'utente ed esegue attività operative su tutti i nodi del piano dati, di controllo e di gestione nel sistema.
Cluster di NSX Edge
È una raccolta di appliance di nodi NSX Edge che hanno le stesse impostazioni e forniscono disponibilità elevata se uno dei nodi NSX Edge non riesce.
Nodo NSX Edge
I nodi Edge sono appliance di servizi (fattore di forma bare-metal o macchina virtuale) con pool di capacità, dedicate all'esecuzione dei servizi di rete e sicurezza che non possono essere distribuiti negli hypervisor.
Virtual Distributed Switch gestito da NSX (N-VDS, commutatore host)
Il Virtual Distributed Switch gestito da NSX inoltra il traffico tra le porte logiche e fisiche del dispositivo. Negli host ESXi, l'implementazione N-VDS deriva da VMware vSphere ® Distributed Switch™ (VDS) e viene visualizzata come rete opaca in vCenter. Con qualsiasi altro tipo di nodo di trasporto (hypervisor KVM, Edge, server bare-metal, macchine virtuali cloud e così via), l'implementazione di N-VDS deriva da Open vSwitch (OVS).
Nota: VMware ha rimosso il supporto del commutatore virtuale N-VDS NSX negli host ESXi a partire dalla versione 4.0.0.1 perché è consigliabile distribuire NSX oltre al VDS di vCenter. N-VDS rimarrà il commutatore virtuale supportato nei nodi NSX Edge, negli agenti NSX del cloud pubblico nativo e nei carichi di lavoro bare-metal.

Un N-VDS ha due modalità: percorso dati standard e avanzato. Il percorso dati N-VDS avanzato è ottimizzato per la virtualizzazione delle funzioni di rete, in cui i carichi di lavoro eseguono funzioni di rete in base a requisiti di latenza e velocità dei pacchetti impegnativi.

vSphere Distributed Switch (VDS)

A partire da NSX 3.0, NSX può essere eseguito direttamente in un vSphere Distributed Switch versione 7 o successiva. È consigliabile utilizzare il commutatore VDS per la distribuzione di NSX negli host ESXi. È possibile creare segmenti con supporto overlay o VLAN in commutatori VDS, in modo simile a N-VDS, ovvero commutatori VDS che possono essere configurati in modalità Percorso dati avanzato o Standard.

Motore dei servizi distribuiti di vSphere
vSphere 8.0 introduce il motore dei servizi distribuiti di VMware vSphere, che sfrutta le unità di elaborazione dati (DPU) come nuova tecnologia hardware per superare i limiti delle prestazioni CPU dei core, fornendo al tempo stesso funzionalità di sicurezza "zero-trust" e operazioni semplificate per gli ambienti vSphere. In NSX 4.0.1.1, il motore dei servizi distribuiti di vSphere consente di eseguire l'offload di alcune operazioni di rete dalla CPU del server a una DPU.
NSX Manager
Nodo che ospita i servizi API, il piano di gestione, il piano di controllo e i servizi agente. È accessibile tramite CLI, interfaccia utente Web o API. NSX Manager è un'appliance inclusa nel pacchetto di installazione di NSX. È possibile distribuire l'appliance nel ruolo di NSX Manager o nsx-cloud-service-manager. Attualmente l'appliance supporta un solo ruolo alla volta.
Cluster di NSX Manager

Un cluster di appliance di macchine virtualiNSX Manager che fornisce alta disponibilità dell'interfaccia utente e dell'API.

Open vSwitch (OVS)
Commutatore di software open source che funge da commutatore virtuale in XenServer, Xen e altri hypervisor basati su Linux.
Rete opaca

Una rete opaca è una rete creata e gestita da un'entità separata all'esterno di vSphere. Ad esempio, le reti logiche create e gestite da commutatori N-VDS attivi NSX vengono visualizzate in vCenter Server come reti opache del tipo nsx.LogicalSwitch. È possibile scegliere una rete opaca come supporto per una scheda di rete della macchina virtuale. Per gestire una rete opaca, utilizzare gli strumenti di gestione associati alla rete opaca, ad esempio NSX Manager o gli strumenti di gestione dell'API NSX.

Rete logica overlay
Rete logica implementata utilizzando il protocollo di incapsulamento GENEVE indicato in https://www.rfc-editor.org/rfc/rfc8926.txt. La topologia delle macchine virtuali è disaccoppiata da quella della rete fisica.
Interfaccia fisica (pNIC)
Interfaccia di rete in un server fisico in cui è installato un hypervisor.
Segmento
In precedenza denominato commutatore logico. Si tratta di un'entità che fornisce la commutazione dei livello 2 virtuale per le interfacce della macchina virtuale e le interfacce gateway. Un segmento fornisce agli amministratori di rete del tenant l'equivalente logico di un commutatore fisico di livello 2, consentendo loro di connettere un set di macchine virtuali a un dominio di trasmissione comune. Un segmento è un'entità logica indipendente dall'infrastruttura hypervisor fisica e si estende a molti hypervisor, connettendo le macchine virtuali indipendentemente dalla loro posizione fisica.

In un cloud multi-tenant è possibile che molti segmenti esistano affiancati nello stesso hardware hypervisor, con ciascun segmento di livello 2 isolato dagli altri. I segmenti possono essere connessi utilizzando i gateway, che possono fornire connettività alla rete fisica esterna.

Interfaccia del servizio
Interfaccia di livello 0 che connette i segmenti VLAN per fornire connettività e servizi ai carichi di lavoro fisici o virtuali con supporto VLAN. Un'interfaccia di servizio può inoltre essere connessa a segmenti di overlay per i casi d'uso di bilanciamento del carico autonomo di livello 1. A partire dalla versione 3.0 di NSX, l'interfaccia di servizio supporta il routing statico e dinamico.
Gateway di livello 0
Un gateway di livello 0 fornisce connettività nord-sud e si connette ai router fisici. Può essere configurato come cluster attivo-attivo o attivo-di standby. Il gateway di livello 0 esegue BGP e peer con i router fisici.

I gateway di livello 0 sono costituiti da due componenti:

  • Componente del routing distribuito (DR) eseguito in tutti i nodi di trasporto. Al momento della sua creazione viene creata un'istanza di DR del gateway di livello 0 negli hypervisor e nei nodi di trasporto Edge.
  • il componente di routing dei servizi centralizzati (SR) viene eseguito nei nodi del cluster Edge. Viene creata un'istanza di SR nei nodi Edge dopo l'associazione del gateway con il cluster Edge e la creazione di interfacce esterne.

Gateway di livello 1
Un gateway di livello 1 si connette a un gateway di livello 0 per la connettività in direzione nord alle subnet collegate (modello di routing multilivello). Si connette a una o più reti di overlay per la connettività in direzione sud alle relative subnet. Un gateway di livello 1 può essere configurato come cluster attivo-di standby. Come per il gateway di livello 0, quando viene creato un gateway di livello 1, viene creata un'istanza di un componente distribuito (DR) del gateway di livello 1 negli hypervisor e nei nodi di trasporto Edge, ma il componente di servizio (SR) viene creato solo se i gateway sono associati al cluster Edge e alle interfacce esterne create.
Zona di trasporto
Raccolta di nodi di trasporto che definisce la portata massima per i commutatori logici. Una zona di trasporto rappresenta un set di hypervisor con provisioning simile e commutatori logici che connettono le macchine virtuali a tali hypervisor. È stata inoltre registrata con il piano di gestione di NSX e include moduli NSX installati. Perché un host hypervisor o NSX Edge possa far parte dell'overlay di NSX, è necessario che venga aggiunto alla zona di trasporto NSX.
Nodo di trasporto
Un nodo di struttura viene preparato come nodo di trasporto in modo che possa partecipare a un overlay di NSX o a una rete VLAN NSX. Per un host ESXi, è necessario configurare un commutatore VDS.
Profilo di uplink (profilo-commutatore-host)
Definisce i criteri per i collegamenti dai nodi di trasporto ai segmenti NSX o dai nodi NSX Edge ai commutatori top-of-rack. Le impostazioni definite dai profili di uplink possono includere criteri di raggruppamento, ID VLAN di trasporto e l'impostazione MTU. La VLAN di trasporto impostata nel profilo uplink contrassegna solo il traffico overlay e l'ID VLAN viene utilizzato dall'endpoint TEP.
Interfaccia macchina virtuale (vNIC)
Interfaccia di rete in una macchina virtuale che fornisce connettività tra il sistema operativo guest virtuale e vSwitch o NSX il segmento. La vNIC può essere collegata a una porta logica. È possibile identificare una vNIC in base al relativo ID univoco (UUID).
Endpoint tunnel (TEP)
Ogni nodo di trasporto ha un endpoint del tunnel virtuale (TEP) responsabile di incapsulare l'overlay del traffico della macchina virtuale all'interno di un'intestazione VLAN e di instradare il pacchetto a un TEP di destinazione per l'ulteriore elaborazione. I TEP sono gli indirizzi IP di origine e destinazione utilizzati nell'intestazione IP esterna per identificare gli host ESXi di origine e terminare l'incapsulamento di NSX dei frame di overlay. Il traffico può essere instradato verso un altro TEP in un host diverso o nel gateway NSX Edge per accedere alla rete fisica. I TEP creano un tunnel GENEVE tra gli endpoint di origine e di destinazione.