VMware Cloud Foundation utilizza vSphere Distributed Switch per la rete virtuale.

Progettazione di reti vSphere logiche per VMware Cloud Foundation

Quando si progetta la rete vSphere, si deve considerare la configurazione dei vSphere Distributed Switch, dei gruppi di porte distribuite e delle schede VMkernel nell'ambiente di VMware Cloud Foundation.

Progettazione dei vSphere Distributed Switch

Il cluster predefinito in un dominio del carico di lavoro utilizza un singolo vSphere Distributed Switch con una configurazione per i tipi di traffico del sistema, il raggruppamento delle NIC e la dimensione dell'MTU.

VMware Cloud Foundation supporta il traffico overlay di NSX in un singolo vSphere Distributed Switch per ogni cluster. Per altri tipi di traffico sono supportati altri commutatori distribuiti.

Quando si utilizza vSAN ReadyNodes, è necessario definire il numero di vSphere Distributed Switch al momento della distribuzione del dominio di lavoro. Non è possibile aggiungere ulteriori vSphere Distributed Switch dopo la distribuzione.

Tabella 1. Opzioni di configurazione per i vSphere Distributed Switch per VMware Cloud Foundation

Configurazione dei vSphere Distributed Switch

Opzioni del dominio di gestione

Opzioni del dominio del carico di lavoro VI

Vantaggi

Svantaggi

vSphere Distributed Switch singolo per gli host con due NIC fisiche

  • Un vSphere Distributed Switch per ogni cluster con tutto il traffico che utilizza due uplink.

  • Un vSphere Distributed Switch per ogni cluster con tutto il traffico che utilizza due uplink.

Richiede il numero minimo di NIC fisiche e porte dei commutatori.

Tutto il traffico condivide gli stessi due uplink.

vSphere Distributed Switch singolo per gli host con quattro o sei NIC fisiche

  • Un vSphere Distributed Switch per ogni cluster con quattro uplink utilizzando i profili predefiniti nella cartella di lavoro dei parametri di distribuzione in VMware Cloud Builder per distribuire il cluster di gestione predefinito.

  • Un vSphere Distributed Switch per ogni cluster con quattro o sei uplink utilizzando l'API VMware Cloud Builder per distribuire il cluster di gestione predefinito.

  • Un vSphere Distributed Switch per ogni cluster con quattro o sei uplink.

  • Fornisce il supporto per la separazione del traffico tra uplink diversi.

  • È necessario fornire porte NIC fisiche e commutatori aggiuntivi.

Più vSphere Distributed Switch

  • Al massimo due vSphere Distributed Switch utilizzando i profili predefiniti nella cartella di lavoro dei parametri di distribuzione in VMware Cloud Builder per distribuire il cluster di gestione predefinito.

  • Al massimo 16 vSphere Distributed Switch per ogni cluster. Utilizzare l'API VMware Cloud Builder per distribuire il cluster di gestione predefinito utilizzando combinazioni di configurazioni di vSphere Distributed Switch e NIC fisiche che non sono disponibili come profili predefiniti nella cartella di lavoro dei parametri di distribuzione

  • È possibile utilizzare solo uno dei vSphere Distributed Switch per il traffico overlay di NSX.

  • Al massimo 16 vSphere Distributed Switch per ogni cluster.

  • È possibile utilizzare solo uno dei vSphere Distributed Switch per il traffico overlay di NSX.

  • Fornisce il supporto per la separazione del traffico tra diversi uplink o vSphere Distributed Switch.

  • Fornisce il supporto per la separazione del traffico in diverse infrastrutture di rete fisica.

  • È necessario fornire porte NIC fisiche e commutatori aggiuntivi.

  • Più complessa con configurazione e overhead di gestione aggiuntivi.

Progettazione gruppo di porte distribuito

VMware Cloud Foundation richiede diversi gruppi di porte nei vSphere Distributed Switch per un dominio del carico di lavoro. Le schede VMkernel per i TEP dell'host NSX sono collegate alla rete di overlay dell'host, ma non richiedono un gruppo di porte dedicato nel Distributed Switch. La scheda di rete VMkernel per il TEP dell'host NSX viene creata automaticamente quando VMware Cloud Foundation configura l'host ESXi come nodo di trasporto di NSX.
Tabella 2. Configurazione del gruppo di porte distribuito per VMware Cloud Foundation

Funzione

Criterio di raggruppamento

Configurazione

  • Gestione macchina virtuale

  • Gestione dell'host

  • vSphere vMotion
  • vSAN

  • NFS (non applicabile per il cluster predefinito del dominio di gestione)

Route in base al carico della NIC fisica.

Consigliata.

  • Rilevamento failover: solo stato di link

  • Failback: sì

    Si verifica solo in caso di saturazione dell'uplink attivo.

  • Notifica commutatori: sì

Consigliata.

  • Overlay host

Non applicabile.

Non applicabile.

  • Uplink e overlay Edge

Usa ordine di failover esplicito.

Obbligatoria.

  • RTEP Edge (solo federazione di NSX)

Non applicabile.

Non applicabile.

Progettazione della scheda di rete VMkernel

Il livello di rete VMkernel fornisce la connettività agli host e gestisce il traffico di sistema per la gestione, vSphere vMotion, vSphere HA, vSAN, NFS e altri.

Tabella 3. Schede VMkernel per gli host del dominio del carico di lavoro

Servizio scheda VMkernel

Gruppo di porte connesse

Servizi attivati

Dimensioni MTU consigliate (byte)

Gestione

Gestione gruppo di porte

Traffico di gestione

1500 (predefinito)

vMotion

Gruppo di porte vMotion

Traffico vMotion

9000

vSAN

Gruppo di porte vSAN

vSAN

9000

NFS

Gruppo di porte NFS

NFS

9000

TEP host

Non applicabile

Non applicabile

9000

Modalità percorso dati di vSphere Distributed Switch

vSphere Distributed Switch supporta tre modalità percorso dati, ovvero Percorso dati standard, Interruzione percorso dati avanzato e Percorso dati avanzato. Il percorso dati è una modalità stack di rete configurata in un vSphere Distributed Switch quando viene applicato un profilo del nodo di trasporto NSX durante l'installazione di NSX in un cluster ESXi. Ogni modalità percorso dati ha caratteristiche di prestazioni adatte per un determinato carico di lavoro in esecuzione nel cluster. La tabella seguente fornisce dettagli sulle varie modalità disponibili in VMware Cloud Foundation, insieme ai tipi di carico di lavoro del cluster consigliati per ogni modalità.

Tabella 4. Modalità percorso dati per VMware Cloud Foundation

Nome modalità percorso dati

Descrizione

Caso d'uso

Requisiti

Standard

  • La modalità Percorso dati standard è installata per impostazione predefinita. È progettata per le applicazioni con flussi di grandi dimensioni.

  • L'utilizzo della CPU in Percorso dati standard è su richiesta. Per le applicazioni con requisiti di elaborazione dei pacchetti elevati, ad esempio NSX Edge, la modalità Percorso dati standard richiede una significativa ottimizzazione.

Domini o cluster del carico di lavoro di elaborazione

La combinazione driver-firmware deve essere presente nella Guida alla compatibilità di VMware per i dispositivi di I/O e deve supportare le funzionalità seguenti:

  • Offload Geneve

  • Filtri Rx/Tx Geneve o RSS

Interruzione percorso dati avanzato

(denominata Percorso dati avanzato - Standard nell'interfaccia utente di NSX Manager)

  • Interruzione percorso dati avanzato è un percorso dati orientato alle prestazioni che combina la flessibilità dell'utilizzo della CPU su richiesta del percorso dati standard esistente e le funzionalità simili a DPDK (Data Plane Development Kit) per le prestazioni.

  • Questa modalità consente di scalare automaticamente verticalmente e orizzontalmente l'utilizzo dei core per l'elaborazione dei pacchetti, in base alle esigenze.

  • La modalità Interruzione percorso dati avanzato ha caratteristiche di prestazioni comprovate, specialmente per i flussi di piccole dimensioni che si concentrano principalmente sull'elaborazione dei pacchetti, come NSX Edge, senza che sia necessaria ulteriore ottimizzazione.

Cluster vSphere che eseguono nodi NSX Edge

La combinazione driver-firmware deve essere presente nella Guida alla compatibilità di VMware per i dispositivi di I/O con supporto della modalità Percorso dati avanzato - Interruzione

Percorso dati avanzato

(denominata Percorso dati avanzato - Prestazioni nell'interfaccia utente di NSX Manager)

  • La modalità Percorso dati avanzato è un percorso dati orientato alle prestazioni che sfrutta le funzionalità delle prestazioni simili a DPDK, inclusi core CPU dedicati per l'elaborazione del percorso dati di rete.

  • Questa modalità è più adatta per i carichi di lavoro in cui i modelli di traffico e i requisiti relativi alle prestazioni sono ben definiti.

  • Questa modalità è fissa dal punto di vista dell'allocazione dei core e non viene scalata verticalmente oppure orizzontalmente in modo automatico in base alle esigenze. I core assegnati al percorso dati non saranno disponibili per i carichi di lavoro, anche quando non è presente alcun traffico di rete.

  • È possibile che non siano disponibili core sufficienti per l'elaborazione dei pacchetti a meno che i core non vengano pre-assegnati dimensionando accuratamente il carico di lavoro.

Carichi di lavoro Telco o NFV

La combinazione driver-firmware deve essere presente nella Guida alla compatibilità di VMware per i dispositivi di I/O con supporto di Percorso dati avanzato - Polling.

Requisiti e consigli di progettazione della rete di vSphere per VMware Cloud Foundation

Si tengano presenti i requisiti e i consigli per la rete di vSphere in VMware Cloud Foundation come la configurazione del gruppo di porte distribuite, le dimensioni della MTU, il binding delle porte, il criterio di raggruppamento e le condivisioni di rete specifiche del traffico.

Requisiti di progettazione della rete di vSphere per VMware Cloud Foundation

È necessario soddisfare i seguenti requisiti di progettazione della rete di vSphere per VMware Cloud Foundation.

Tabella 5. Requisiti di progettazione della rete di vSphere per un cluster del dominio del carico di lavoro VI di elaborazione multi-rack per VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-VDS-L3MR-REQD-CFG-001

Per ogni rack, creare un gruppo di porte in vSphere Distributed Switch per il cluster per i tipi di traffico seguenti:

  • Gestione dell'host

  • vSAN

  • vSphere vMotion

Necessario per l'utilizzo di VLAN separate per ogni rack.

nessuna.

Consigli sulla progettazione dei servizi di rete di vSphere per VMware Cloud Foundation

Nella progettazione della rete di vSphere per VMware Cloud Foundation, è possibile applicare determinate procedure consigliate per vSphere Distributed Switch e i gruppi di porte distribuiti.

Tabella 6. Consigli sulla progettazione dei servizi di rete di vSphere per VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Giustificazione

Implicazione

VCF-VDS-RCMD-CFG-001

Utilizzare un singolo vSphere Distributed Switch per cluster.

  • Riduce la complessità della progettazione della rete.

Riduce il numero di vSphere Distributed Switch che devono essere gestiti per ogni cluster.

VCF-VDS-RCMD-CFG-002

Non condividere un vSphere Distributed Switch tra i cluster.

  • Consente la gestione indipendente del ciclo di vita di vSphere Distributed Switch per ogni cluster.

  • Riduce le dimensioni del dominio di errore.

Per più cluster, si gestiscono più vSphere Distributed Switch.

VCF-VDS-RCMD-CFG-003

Configurare le dimensioni della MTU del vSphere Distributed Switches su 9000 per i jumbo frame.

  • Supporta la dimensione della MTU richiesta dai tipi di traffico del sistema.

  • Migliora la velocità effettiva del traffico.

Quando si regola la dimensione del pacchetto MTU, è necessario configurare anche l'intero percorso di rete (porte VMkernel, commutatori virtuali, commutatori fisici e router) per supportare la stessa dimensione del pacchetto MTU.

VCF-VDS-RCMD-DPG-001

Utilizzare il binding della porta temporaneo per il gruppo di porte di gestione della macchina virtuale.

L'utilizzo del binding della porta temporaneo offre l'opzione per il ripristino dell'istanza di vCenter Server che gestisce il commutatore distribuito.

La rete di gestione della macchina virtuale non è necessaria per un cluster multi-rack di sola elaborazione in un dominio del carico di lavoro VI.

Le autorizzazioni e i controlli a livello di porta vengono persi durante i cicli di alimentazione e non viene salvato il contesto cronologico.

VCF-VDS-RCMD-DPG-002

Utilizzare il binding della porta statica per tutti i gruppi di porte non di gestione.

Il binding statico assicura che una macchina virtuale si connetta alla stessa porta del vSphere Distributed Switch. Questa configurazione fornisce supporto per i dati cronologici e il monitoraggio a livello di porta.

nessuna.

VCF-VDS-RCMD-DPG-003

  • Utilizzare l'algoritmo di raggruppamento di Route based on physical NIC load per il gruppo di porte di gestione della macchina virtuale.

  • La rete di gestione della macchina virtuale non è necessaria per una distribuzione multi-rack L3 di sola elaborazione.

Riduce la complessità della progettazione della rete, aumenta la resilienza e può adattarsi ai carichi di lavoro variabili.

nessuna.

VCF-VDS-RCMD-DPG-004

Utilizzare l'algoritmo di raggruppamento di Route based on physical NIC load per il gruppo di porte di gestione di ESXi.

Riduce la complessità della progettazione della rete, aumenta la resilienza e può adattarsi ai carichi di lavoro variabili.

nessuna.

VCF-VDS-RCMD-DPG-005

Utilizzare l'algoritmo di raggruppamento di Route based on physical NIC load per il gruppo di porte vSphere vMotion.

Riduce la complessità della progettazione della rete, aumenta la resilienza e può adattarsi ai carichi di lavoro variabili.

nessuna.

VCF-VDS-RCMD-DPG-006

Utilizzare l'algoritmo di raggruppamento di Route based on physical NIC load per il gruppo di porte di vSAN.

Riduce la complessità della progettazione della rete, aumenta la resilienza e può adattarsi ai carichi di lavoro variabili.

nessuna.

VCF-VDS-RCMD-NIO-001

Abilitare Network I/O Control in vSphere Distributed Switch del cluster del dominio di gestione.

Non abilitare Network I/O Control nei cluster vSphere dedicati per i nodi NSX Edge.

Aumenta la resilienza e le prestazioni della rete.

Se non viene configurato in modo corretto, Network I/O Control può influire sulle prestazioni della rete per i tipi di traffico critici.

VCF-VDS-RCMD-NIO-002

Impostare il valore di condivisione per il traffico di gestione su Normale.

Mantenendo l'impostazione predefinita Normale, il traffico di gestione ha una priorità superiore a quella di vSphere vMotion, ma inferiore a quella del traffico vSAN. Il traffico di gestione è importante perché garantisce che gli host possano essere gestiti anche nei momenti di conflitto della rete.

nessuna.

VCF-VDS-RCMD-NIO-003

Impostare il valore di condivisione per il traffico vSphere vMotion su Basso.

Nei periodi di conflitto della rete, il traffico di vSphere vMotion non è importante quanto il traffico delle macchine virtuali o dello storage.

Nei momenti di conflitto della rete, il completamento di vMotion richiede più tempo del solito.

VCF-VDS-RCMD-NIO-004

Impostare il valore di condivisione per le macchine virtuali su Alto.

Le macchine virtuali sono l'asset più importante in SDDC. Lasciando l'impostazione predefinita Alto, si assicura che abbiano sempre accesso alle risorse di rete di cui hanno bisogno.

nessuna.

VCF-VDS-RCMD-NIO-005

Impostare il valore di condivisione per il traffico vSAN su Alto.

Nei periodi di conflitto di rete, il traffico vSAN necessita di una larghezza di banda garantita per supportare le prestazioni delle macchine virtuali.

nessuna.

VCF-VDS-RCMD-NIO-006

Impostare il valore di condivisione per gli altri tipi di traffico su Basso.

Per impostazione predefinita, VMware Cloud Foundation non utilizza altri tipi di traffico, come il traffico di vSphere FT. Pertanto, a questi tipi di traffico può essere assegnata la priorità più bassa.

nessuna.