Utilizzare questo elenco di requisiti e consigli di riferimento relativi alla configurazione di NSX in un ambiente con una o più istanze di VMware Cloud Foundation. La progettazione considera anche se un'istanza contiene una zona di disponibilità singola o multipla.

Per i dettagli completi sulla progettazione, vedere Progettazione di NSX per VMware Cloud Foundation.

Elementi di progettazione di NSX Manager

Tabella 1. Requisiti di progettazione di NSX Manager per VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-LM-REQD-CFG-001

Posizionare le appliance del cluster NSX Manager nella rete di gestione della macchina virtuale nel dominio di gestione.

  • Semplifica l'indirizzamento IP per le macchine virtuali di gestione utilizzando la stessa VLAN e la stessa subnet.

  • Offre un accesso sicuro semplificato alle macchine virtuali di gestione nella stessa rete VLAN.

nessuna.

VCF-NSX-LM-REQD-CFG-002

Distribuire tre nodi NSX Manager nel cluster di vSphere predefinito nel dominio di gestione per configurare e gestire i servizi di rete per il dominio del carico di lavoro.

Supporta l'alta disponibilità del cluster di NSX Manager.

È necessario disporre di risorse sufficienti nel cluster predefinito del dominio di gestione per eseguire tre nodi NSX Manager.

Tabella 2. Consigli per la progettazione di NSX Manager per VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Giustificazione

Implicazione

VCF-NSX-LM-RCMD-CFG-001

Distribuire nodi di dimensioni adeguate nel cluster di NSX Manager per il dominio del carico di lavoro.

Assicura la disponibilità delle risorse e l'efficienza d'uso per ogni dominio di carico di lavoro.

La dimensione predefinita per un dominio di gestione è Media e per i domini di carico di lavoro VI è Grande.

VCF-NSX-LM-RCMD-CFG-002

Creare un indirizzo IP virtuale (VIP) per il cluster di NSX Manager per il dominio del carico di lavoro.

Fornisce un'alta disponibilità dell'interfaccia utente e dell'API di NSX Manager.

  • La funzionalità dell'indirizzo VIP fornisce solo un'alta disponibilità. Non esegue il bilanciamento del carico delle richieste nel cluster.

  • Quando si utilizza la funzionalità dell'indirizzo VIP, tutti i nodi di NSX Manager devono essere distribuiti sulla stessa rete di livello 2.

VCF-NSX-LM-RCMD-CFG-003

Applicare le regole di anti-affinità macchina virtuale-macchina virtuale in vSphere Distributed Resource Scheduler (vSphere DRS) alle appliance NSX Manager.

Mantiene le appliance NSX Manager in esecuzione su host ESXi diversi per garantire l'alta disponibilità.

È necessario allocare almeno quattro host fisici in modo che le tre appliance NSX Manager continuino a funzionare in caso di guasto di un host ESXi.

VCF-NSX-LM-RCMD-CFG-004

In vSphere HA, impostare il criterio di priorità di riavvio per ogni appliance NSX Manager su alto.

  • NSX Manager implementa il piano di controllo per i segmenti della rete virtuale. vSphere HA riavvia prima le appliance NSX Manager, in modo che le altre macchine virtuali che vengono accese o migrate utilizzando vSphere vMotion mentre il piano di controllo è offline perdano la connettività solo fino a quando non viene ristabilito il quorum del piano di controllo.

  • Impostando la priorità di riavvio su alta, si riserva la massima priorità alla flessibilità per l'aggiunta di servizi che devono essere avviati prima di NSX Manager.

Se la priorità di riavvio di un'altra appliance di gestione è impostata al massimo, il ritardo di connettività per le appliance di gestione sarà più lungo.

Tabella 3. Consigli sulla progettazione di NSX Manager per i cluster estesi in VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Giustificazione

Implicazione

VCF-NSX-LM-RCMD-CFG-006

Aggiungere le appliance NSX Manager al gruppo di macchine virtuali per la prima zona di disponibilità.

Assicura che, per impostazione predefinita, le appliance NSX Manager siano accese su un host nella zona di disponibilità primaria.

nessuna.

Elementi di progettazione di NSX Global Manager

È necessario eseguire manualmente le attività di configurazione per i requisiti di progettazione e i consigli per NSX Global Manager.

Tabella 4. Requisiti di progettazione di NSX Global Manager per VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-GM-REQD-CFG-001

Posizionare le appliance del cluster NSX Global Manager nella rete della macchina virtuale di gestione in ogni istanza di VMware Cloud Foundation.

  • Semplifica l'indirizzamento IP per le macchine virtuali di gestione.

  • Offre un accesso sicuro semplificato a tutte le macchine virtuali di gestione nella stessa rete VLAN.

nessuna.

Tabella 5. Consigli per la progettazione di NSX Global Manager per VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Giustificazione

Implicazione

VCF-NSX-GM-RCMD-CFG-001

Distribuire tre nodi di NSX Global Manager per il dominio del carico di lavoro per supportare la federazione di NSX tra le istanze di VMware Cloud Foundation.

Fornisce l'alta disponibilità per il cluster di NSX Global Manager.

È necessario disporre di risorse sufficienti nel cluster predefinito del dominio di gestione per eseguire tre nodi di NSX Global Manager.

VCF-NSX-GM-RCMD-CFG-002

Distribuire nodi di dimensioni adeguate nel cluster di NSX Global Manager per il dominio del carico di lavoro.

Controllare Valori massimi di configurazione di VMware per selezionare il fattore di forma di NSX Global Manager corretto in base alle proprie esigenze di scalabilità.

Assicura la disponibilità delle risorse e l'efficienza d'uso per ogni dominio di carico di lavoro.

NSX Global Manager di dimensioni non corrette possono influire sulla capacità di scalabilità in base ai requisiti.

VCF-NSX-GM-RCMD-CFG-003

Creare un indirizzo IP virtuale (VIP) per il cluster di NSX Global Manager per il dominio del carico di lavoro.

Fornisce un'alta disponibilità dell'interfaccia utente e dell'API di NSX Global Manager.

  • La funzionalità dell'indirizzo VIP fornisce solo un'alta disponibilità. Non esegue il bilanciamento del carico delle richieste nel cluster.

  • Quando si utilizza la funzionalità dell'indirizzo VIP, tutti i nodi di NSX Global Manager devono essere distribuiti sulla stessa rete di livello 2.

VCF-NSX-GM-RCMD-CFG-004

Applicare le regole di anti-affinità macchina virtuale-macchina virtuale in vSphere DRS alle appliance di NSX Global Manager.

Mantiene le appliance NSX Global Manager in esecuzione su host ESXi diversi per garantire l'alta disponibilità.

È necessario allocare almeno quattro host fisici in modo che le tre appliance NSX Manager continuino a funzionare in caso di guasto di un host ESXi.

VCF-NSX-GM-RCMD-CFG-005

In vSphere HA, impostare il criterio di priorità di riavvio per ogni appliance NSX Global Manager su medio.

  • NSX Global Manager implementa il piano di gestione per i segmenti e i firewall globali.

    NSX Global Manager non è necessario per la connettività del piano di controllo e del data plane.

  • Impostando la priorità di riavvio su media, si riserva la priorità alta per i servizi che hanno un impatto sui piani di controllo o dati di NSX.

  • La gestione dei componenti globali di NSX non sarà disponibile fino al riavvio delle macchine virtuali di NSX Global Manager.

  • Il cluster di NSX Global Manager viene distribuito nel dominio di gestione, dove il numero totale di macchine virtuali è limitato e dove è in conflitto con altri componenti di gestione per la priorità di riavvio.

VCF-NSX-GM-RCMD-CFG-006

Distribuire un cluster di NSX Global Manager aggiuntivo nella seconda istanza di VMware Cloud Foundation.

Abilita la ripristinabilità di NSX Global Manager nella seconda istanza di VMware Cloud Foundation se si verifica un errore nella prima istanza di VMware Cloud Foundation.

Richiede nodi di NSX Global Manager aggiuntivi nella seconda istanza di VMware Cloud Foundation.

VCF-NSX-GM-RCMD-CFG-007

Impostare il cluster di NSX Global Manager nella seconda istanza di VMware Cloud Foundation come standby per il dominio del carico di lavoro.

Abilita la ripristinabilità di NSX Global Manager nella seconda istanza di VMware Cloud Foundation se si verifica un errore nella prima istanza.

Deve essere eseguita manualmente.

VCF-NSX-GM-RCMD-SEC-001

Stabilire una prassi operativa per acquisire e aggiornare l'identificazione personale del certificato di NSX Local Manager su NSX Global Manager ogni volta che il certificato viene aggiornato utilizzando SDDC Manager.

Garantisce la connettività sicura tra le istanze di NSX Manager.

Ogni certificato ha la propria identificazione personale univoca. NSX Global Manager archivia l'identificazione personale univoca delle istanze di NSX Local Manager per una maggiore sicurezza.

Se si verifica un errore di autenticazione tra NSX Global Manager e NSX Local Manager, gli oggetti creati da NSX Global Manager non verranno propagati all'SDN.

L'amministratore deve stabilire e seguire una prassi operativa utilizzando un runbook o un processo automatizzato per garantire che l'identificazione personale sia aggiornata.

Tabella 6. Consigli per la progettazione di NSX Global Manager per i cluster estesi in VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Giustificazione

Implicazione

VCF-NSX-GM-RCMD-CFG-008

Aggiungere le appliance NSX Global Manager al gruppo di macchine virtuali per la prima zona di disponibilità.

Garantisce che, per impostazione predefinita, le appliance NSX Global Manager siano accese in un host nella zona di disponibilità primaria.

Operazione eseguita automaticamente da VMware Cloud Foundation quando estende un cluster.

Elementi di progettazione di NSX Edge

Tabella 7. Requisiti di progettazione di NSX Edge per VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-EDGE-REQD-CFG-001

Connettere l'interfaccia di gestione di ciascun nodo NSX Edge alla rete di gestione della macchina virtuale.

Fornisce la connessione dal cluster di NSX Manager a NSX Edge.

nessuna.

VCF-NSX-EDGE-REQD-CFG-002

  • Utilizzare due NIC fisiche come uplink per le appliance NSX Edge, ad esempio vmnic0 e vmnic1.

  • Connettere l'interfaccia fp-eth0 di ciascuna appliance NSX Edge a un gruppo di porte trunk VLAN ancorato alla NIC fisica (vmnic0) dell'host, con la possibilità di eseguire il failover in un'altra NIC fisica (vmnic1).

  • Connettere l'interfaccia fp-eth1 di ciascuna appliance NSX Edge a un gruppo di porte trunk VLAN ancorato a una NIC fisica dell'host (vmnic1), con la possibilità di eseguire il failover nella prima NIC fisica (vmnic0).

  • Lasciare inutilizzate le interfacce fp-eth2 e fp-eth3 aggiuntive di ciascuna appliance NSX Edge.

  • Dato che i gruppi di porte trunk VLAN passano il traffico per tutte le VLAN, è possibile contrassegnare la VLAN nel nodo NSX Edge stesso per semplificare la configurazione successiva all'implementazione.

  • Utilizzando due gruppi di porte trunk VLAN separate, è possibile indirizzare il traffico dal nodo Edge a una particolare interfaccia di rete host e allo switch top-of-rack, a seconda delle necessità.

  • In caso di guasto dello switch top-of-rack, il gruppo di porte trunk VLAN effettuerà il failover sull'altra NIC fisica e per garantire la disponibilità di fp-eth0 e fp-eth1.

nessuna.

VCF-NSX-EDGE-REQD-CFG-003

Utilizzare una VLAN dedicata per l'overlay dell'Edge, diversa dalla VLAN di overlay dell'host.

Una rete di overlay Edge dedicata supporta la mobilità Edge a sostegno di implementazioni avanzate come zone di disponibilità multiple o cluster multi-rack.

  • È necessario disporre di un routing tra le VLAN per l'overlay dell'Edge e l'overlay dell'host.

  • È necessario allocare un'altra VLAN nell'infrastruttura del data center per l'overlay dell'Edge.

VCF-NSX-EDGE-REQD-CFG-004

Creare un profilo di uplink per i nodi Edge con tre criteri di raggruppamento.

  • Criterio di raggruppamento predefinito dell'origine del bilanciamento del carico con uplink attivi uplink1 e uplink2.

  • Criterio di raggruppamento denominato dell'ordine di failover con un singolo uplink attivo uplink1 senza uplink di standby.

  • Criterio di raggruppamento denominato dell'ordine di failover con un singolo uplink attivo uplink2 senza uplink di standby.

  • Un nodo di NSX Edge che utilizza un singolo N-VDS può avere un solo profilo uplink.

  • Per aumentare la resilienza e le prestazioni, supporta l'uso simultaneo di entrambi gli uplink Edge attraverso entrambe le NIC fisiche degli host ESXi.

  • Il criterio di raggruppamento predefinito aumenta le prestazioni e la disponibilità dell'overlay utilizzando più TEP e bilanciando il traffico overlay.

  • Utilizzando i criteri di raggruppamento denominati, è possibile collegare un uplink Edge a un uplink host specifico e da qui a uno specifico switch top-of-rack nel data center.

  • Abilita ECMP perché i nodi di NSX Edge possono collegarsi alla rete fisica su due VLAN diverse.

nessuna.

Tabella 8. Requisiti di progettazione della disponibilità dell'Edge multi-rack NSX per VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-MR-EDGE-REQD-ENV-001

Posizionare almeno una macchina virtuale Edge per cluster Edge in ogni cluster vSphere che si trova in un rack separato.

Fornisce la disponibilità se si verifica un errore di un rack o di un cluster vSphere.

Sono necessarie ulteriori risorse di elaborazione.

VCF-NSX-MR-EDGE-REQD-CFG-001

Connettere l'interfaccia di gestione di ogni nodo NSX Edge in ciascun rack alla rete di gestione della macchina virtuale di tale rack.

Fornisce la connessione dal cluster di NSX Manager a NSX Edge.

nessuna.

VCF-NSX-MR-EDGE-REQD-CFG-002

Utilizzare un pool di IP dedicato per la rete di overlay Edge per ogni rack utilizzato per la distribuzione di un cluster NSX Edge multi-rack.

Una rete di overlay Edge dedicata e una subnet per ogni rack forniscono supporto per una progettazione di rete fisica leaf-and-spine di livello 3 con il limite di livello 2 nei nodi Leaf.

È necessario gestire pool di IP aggiuntivi per ogni rack aggiuntivo.

VCF-NSX-MR-EDGE-REQD-CFG-003

Creare un profilo di uplink dell'Edge per ogni rack.

Consente di disporre di una VLAN di overlay dell'Edge dedicata per ogni rack per fornire supporto per una progettazione di rete fisica leaf-and-spine di livello 3 con il limite di livello 2 nei nodi Leaf.

nessuna.
Tabella 9. Requisiti di progettazione di NSX Edge per la federazione di NSX in VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-EDGE-REQD-CFG-005

Allocare una VLAN separata per l'overlay RTEP dell'Edge diversa dalla VLAN di overlay dell'Edge.

La rete RTEP deve trovarsi in una VLAN diversa dalla VLAN di overlay dell'Edge. Si tratta di un requisito di NSX che fornisce il supporto per la configurazione di diverse dimensioni di MTU per rete.

È necessario allocare un'altra VLAN nell'infrastruttura del data center.

Tabella 10. Consigli per la progettazione di NSX Edge per VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Giustificazione

Implicazioni

VCF-NSX-EDGE-RCMD-CFG-001

Utilizzare appliance virtuali NSX Edge di dimensioni appropriate.

Assicura la disponibilità delle risorse e l'efficienza d'uso per ogni dominio di carico di lavoro.

È necessario specificare risorse di elaborazione sufficienti per supportare le dimensioni scelte per l'appliance.

VCF-NSX-EDGE-RCMD-CFG-002

Distribuire le appliance virtuali NSX Edge nel cluster vSphere predefinito del dominio del carico di lavoro, condividendo il cluster tra i carichi di lavoro e le appliance Edge.

Semplifica la configurazione e riduce al minimo il numero di host ESXi necessari per la distribuzione iniziale.

I carichi di lavoro e gli NSX Edge condividono le stesse risorse di elaborazione.

VCF-NSX-EDGE-RCMD-CFG-003

Distribuire due appliance NSX Edge in un cluster Edge nel cluster vSphere predefinito del dominio del carico di lavoro.

Crea un cluster NSX Edge di dimensioni minime soddisfando i requisiti di disponibilità.

Per un dominio del carico di lavoro VI, potrebbero essere necessarie appliance Edge aggiuntive per soddisfare i requisiti della larghezza di banda aumentata.

VCF-NSX-EDGE-RCMD-CFG-004

Applicare le regole di anti-affinità macchina virtuale-macchina virtuale per vSphere DRS alle macchine virtuali del cluster di NSX Edge.

Mantiene i nodi NSX Edge in esecuzione su host ESXi diversi per garantire l'alta disponibilità.

nessuna.

VCF-NSX-EDGE-RCMD-CFG-005

In vSphere HA, impostare su alto il criterio di priorità di riavvio per ciascuna appliance NSX Edge.

  • I nodi NSX Edge fanno parte del percorso dati nord-sud per i segmenti di overlay. vSphere HA riavvia innanzitutto le appliance NSX Edge per ridurre al minimo il tempo in cui una macchina virtuale Edge resta offline.

  • L'impostazione della priorità di riavvio su alto riserva il valore massimo per le esigenze future.

Se la priorità di riavvio di un'altra mecchina virtuale nel cluster è impostata sul valore massimo, il ritardo di connettività per le appliance di gestione sarà più lungo.

VCF-NSX-EDGE-RCMD-CFG-006

Creare un cluster NSX Edge con la configurazione predefinita di Bidirectional Forwarding Detection (BFD) tra i nodi NSX Edge del cluster.

  • Soddisfa i requisiti di disponibilità per impostazione predefinita.

  • I nodi Edge devono rimanere disponibili per creare servizi come NAT, routing a reti fisiche e bilanciamento del carico.

nessuna.

VCF-NSX-EDGE-RCMD-CFG-007

Utilizzare un singolo N-VDS nei nodi di NSX Edge.

  • Semplifica la distribuzione dei nodi Edge.

  • È possibile utilizzare la stessa progettazione del commutatore N-VDS indipendentemente dal fattore di forma dell'Edge.

  • Supporta più interfacce TEP nel nodo edge.

  • vSphere Distributed Switch non è supportato nel nodo Edge.

nessuna.

Tabella 11. Consigli per la progettazione di NSX Edge per i cluster estesi in VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Giustificazione

Implicazioni

VCF-NSX-EDGE-RCMD-CFG-008

Aggiungere le appliance NSX Edge al gruppo di macchine virtuali per la prima zona di disponibilità.

Assicura che, per impostazione predefinita, le appliance NSX Edge siano accese su un host nella zona di disponibilità primaria.

nessuna.

Elementi di progettazione del routing BGP per VMware Cloud Foundation

Tabella 12. Requisiti di progettazione del routing BGP per VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-BGP-REQD-CFG-001

Per abilitare ECMP tra il gateway di livello 0 e i dispositivi di livello 3 (commutatori ToR o dispositivi upstream), creare due VLAN.

I commutatori ToR o i dispositivi upstream di livello 3 hanno una SVI in una delle due VLAN e ogni nodo Edge del cluster ha un'interfaccia in ciascuna VLAN.

Supporta più route di pari costo sul gateway di livello 0 e fornisce una maggiore resilienza e un migliore utilizzo della larghezza di banda nella rete.

Sono necessarie VLAN aggiuntive.

VCF-NSX-BGP-REQD-CFG-002

Assegnare un criterio di raggruppamento denominato ai segmenti della VLAN alla coppia di dispositivi di livello 3.

Ancora il traffico VLAN di ogni segmento all'interfaccia del nodo Edge di destinazione. Da qui, il traffico viene indirizzato alla NIC fisica dell'host connessa al commutatore top-of-rack di destinazione.

nessuna.

VCF-NSX-BGP-REQD-CFG-003

Creare una zona di trasporto VLAN per il traffico di uplink dell'Edge.

Abilita la configurazione dei segmenti VLAN sull'N-VDS nei nodi edge.

Potrebbero essere necessarie zone di trasporto VLAN aggiuntive se i nodi Edge non sono connessi alla stessa coppia di commutatori top-of-rack.

VCF-NSX-BGP-REQD-CFG-004

Distribuire un gateway di livello 1 e connetterlo al gateway di livello 0.

Crea un'architettura di routing a due livelli.

Astrae i componenti logici di NSX che interagiscono con il data center fisico dai componenti logici che forniscono servizi SDN.

Un gateway di livello 1 può essere connesso a un solo gateway di livello 0.

Nei casi in cui sono necessari più gateway di livello 0, è opportuno creare più gateway di livello 1.

VCF-NSX-BGP-REQD-CFG-005

Distribuire un gateway di livello 1 nel cluster NSX Edge.

Abilita servizi stateful, come bilanciamenti del carico e NAT, per i componenti di gestione dell'SDDC.

Dato che un gateway di livello 1 funziona sempre in modalità attiva-standby, il gateway supporta i servizi stateful.

nessuna.

Tabella 13. Requisiti di progettazione del routing BGP per NSX disponibilità dell'Edge multi-rack NSX per VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-MRE-BGP-REQD-CFG-001

Per abilitare ECMP tra il gateway di livello 0 e i dispositivi di livello 3, ad esempio commutatori Leaf o dispositivi upstream, creare due VLAN uplink separate per i nodi Edge in ogni rack.

I commutatori Leaf o i dispositivi upstream di livello 3 hanno una SVI in una delle due VLAN per ogni rack e ogni nodo Edge nel rack ha un'interfaccia in ciascuna VLAN.

Supporta più route Equal-Cost nel gateway di livello 0 e migliora la resilienza e l'utilizzo della larghezza di banda nella rete tra più rack con una coppia di commutatori Leaf in ogni rack.

Sono necessarie VLAN aggiuntive.

VCF-NSX-MRE-BGP-REQD-CFG-002

Assegnare un criterio di raggruppamento denominato ai segmenti della VLAN alla coppia di dispositivi di livello 3 per ogni rack.

Ancora il traffico VLAN di ogni segmento all'interfaccia del nodo Edge di destinazione. Da qui, il traffico viene indirizzato alla NIC fisica dell'host connessa al commutatore Leaf di destinazione.

nessuna.

Tabella 14. Requisiti di progettazione del routing BGP per i cluster estesi in VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-BGP-REQD-CFG-006

Estendere le VLAN di uplink agli switch top-of-rack in modo che le VLAN siano estese tra entrambe le zone di disponibilità.

Dato che i nodi NSX Edge effettueranno il failover tra le zone di disponibilità, garantisce la connettività dell'uplink agli switch top-of-rack in entrambe le zone di disponibilità, indipendentemente dalla zona in cui si trovano attualmente i nodi di NSX Edge.

È necessario configurare una rete di livello 2 estesa tra le zone di disponibilità utilizzando un'infrastruttura di rete fisica.

VCF-NSX-BGP-REQD-CFG-007

Fornire questa configurazione SVI sugli switch top-of-rack.

  • Nella seconda zona di disponibilità, configurare gli switch top-of-rack o i dispositivi upstream di livello 3 con una SVI su ciascuna delle due VLAN di uplink.

  • Fare in modo che la SVI dello switch top-of-rack in entrambe le zone di disponibilità faccia parte di una rete di livello 2 estesa comune tra le zone di disponibilità.

Consente la comunicazione dei nodi di NSX Edge con gli switch top-of-rack in entrambe le zone di disponibilità sulle stesse VLAN di uplink.

È necessario configurare una rete di livello 2 estesa tra le zone di disponibilità utilizzando l'infrastruttura di rete fisica.

VCF-NSX-BGP-REQD-CFG-008

Specificare questa configurazione della VLAN:

  • Utilizzare due VLAN per abilitare ECMP tra il gateway di livello 0 e i dispositivi di livello 3 (switch top-of-rack o switch leaf).

  • I commutatori ToR o i dispositivi upstream di livello 3 hanno una SVI verso una delle due VLAN e ogni nodo di NSX Edge ha un'interfaccia verso ciascuna VLAN.

Supporta più route di pari costo sul gateway di livello 0 e fornisce una maggiore resilienza e un migliore utilizzo della larghezza di banda nella rete.

  • Sono necessarie ulteriori VLAN.

  • Richiede l'estensione delle VLAN di uplink tra le zone di disponibilità

VCF-NSX-BGP-REQD-CFG-009

Creare un elenco di prefissi IP che consenta l'accesso all'annuncio della route da parte della rete any invece di utilizzare l'elenco di prefissi IP predefinito.

Utilizzato in una mappa di routing per preporre un percorso a uno o più sistemi autonomi (Anteponi AS Path) per i router adiacenti BGP nella seconda zona di disponibilità.

È necessario creare manualmente un elenco di prefissi IP identico a quello predefinito.

VCF-NSX-BGP-REQD-CFG-010

Creare una mappa di routing che contenga l'elenco di prefissi IP personalizzato e un valore di Anteponi AS Path impostato sull'AS locale di livello 0 aggiunto due volte.

  • Utilizzata per configurare le relazioni tra router adiacenti con i dispositivi di livello 3 nella seconda zona di disponibilità.

  • Garantisce che tutto il traffico in ingresso passi attraverso la prima zona di disponibilità.

È necessario creare manualmente la mappa di routing.

I due nodi di NSX Edge instradano il traffico nord-sud attraverso la seconda zona di disponibilità solo se si verifica una connessione ai router adiacenti BGP nella prima zona di disponibilità, ad esempio se si verifica un errore della coppia di switch top-of-rack o nella zona di disponibilità.

VCF-NSX-BGP-REQD-CFG-011

Creare un elenco di prefissi IP che consenta l'accesso all'annuncio della route da parte della rete 0.0.0.0/0 invece di utilizzare l'elenco di prefissi IP predefinito.

Utilizzato in una mappa di routing per configurare un riferimento locale su route predefinita acquisita per i router adiacenti BGP nella seconda zona di disponibilità.

È necessario creare manualmente un elenco di prefissi IP identico a quello predefinito.

VCF-NSX-BGP-REQD-CFG-012

Applicare una mappa di routing-in che contenga l'elenco di prefissi IP per la route predefinita 0.0.0.0/0 e assegnare una preferenza locale inferiore, ad esempio 80, alla route predefinita acquisita e una preferenza locale inferiore, ad esempio 90, a qualsiasi route acquisita.

  • Utilizzata per configurare le relazioni tra router adiacenti con i dispositivi di livello 3 nella seconda zona di disponibilità.

  • Assicura che tutto il traffico in uscita passi attraverso la prima zona di disponibilità.

È necessario creare manualmente la mappa di routing.

I due nodi di NSX Edge instradano il traffico nord-sud attraverso la seconda zona di disponibilità solo se si verifica una connessione ai router adiacenti BGP nella prima zona di disponibilità, ad esempio se si verifica un errore della coppia di switch top-of-rack o nella zona di disponibilità.

VCF-NSX-BGP-REQD-CFG-013

Configurare i router adiacenti della seconda zona di disponibilità in modo che utilizzino le mappe di routing come filtri di ingresso e di uscita.

Rende il percorso in ingresso e in uscita dalla seconda zona di disponibilità meno preferibile perché il percorso AS è più lungo e la preferenza locale è più bassa. Di conseguenza, tutto il traffico passa attraverso la prima zona.

I due nodi di NSX Edge instradano il traffico nord-sud attraverso la seconda zona di disponibilità solo se si verifica una connessione ai router adiacenti BGP nella prima zona di disponibilità, ad esempio se si verifica un errore della coppia di switch top-of-rack o nella zona di disponibilità.

Tabella 15. Requisiti di progettazione del routing BGP per la federazione di NSX in VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-BGP-REQD-CFG-014

Estendere il gateway di livello 0 alla seconda istanza di VMware Cloud Foundation.

  • Supporta il routing ECMP nord-sud in tutti i nodi del cluster di NSX Edge.

  • Abilita il supporto per i gateway di livello 1 tra istanze e i segmenti di rete tra istanze.

Il gateway di livello 0 distribuito nella seconda istanza viene rimosso.

VCF-NSX-BGP-REQD-CFG-015

Impostare il gateway di livello 0 come primario per tutte le istanze di VMware Cloud Foundation.

  • Nella federazione di NSX, un gateway di livello 0 consente il traffico in uscita dai gateway di livello 1 connessi solo nelle relative posizioni primarie.

  • Il traffico in ingresso e in uscita locale viene controllato in modo indipendente al livello 1. Non viene eseguito il provisioning dei segmenti direttamente al gateway di livello 0.

  • È possibile abilitare una combinazione di reti (locali a un'istanza di VMware Cloud Foundation o che si estendono su più istanze) senza richiedere ulteriori gateway di livello 0 e quindi nodi Edge.

  • Se si verifica un errore in un'istanza di VMware Cloud Foundation, la rete dell'istanza locale nell'altra istanza rimane disponibile senza intervento manuale.

nessuna.

VCF-NSX-BGP-REQD-CFG-016

Dal gateway globale di livello 0, stabilire il peering del router adiacente BGP con i commutatori ToR connessi alla seconda istanza di VMware Cloud Foundation.

  • Consente di acquisire e annunciare le route nella seconda istanza di VMware Cloud Foundation.

  • Facilita un potenziale failover automatico delle reti dalla prima alla seconda istanza di VMware Cloud Foundation.

nessuna.

VCF-NSX-BGP-REQD-CFG-017

Utilizzare un gateway di livello 1 esteso e connetterlo al gateway di livello 0 per la rete tra istanze.

  • Abilita l'estensione di rete tra le istanze di VMware Cloud Foundation perché i segmenti di rete NSX seguono l'intervallo del gateway a cui sono collegati.

  • Crea un'architettura di routing a due livelli.

nessuna.

VCF-NSX-BGP-REQD-CFG-018

Assegnare il cluster di NSX Edge in ogni istanza di VMware Cloud Foundation al gateway esteso di livello 1. Impostare la prima istanza di VMware Cloud Foundation come primaria e la seconda come secondaria.

  • Abilita l'estensione di rete tra istanze tra la prima e la seconda istanza di VMware Cloud Foundation.

  • Abilita il traffico in ingresso e in uscita deterministico per la rete tra istanze.

  • Se si verifica un errore dell'istanza di VMware Cloud Foundation, abilita il failover deterministico del flusso del traffico di livello 1.

  • Durante il ripristino dell'istanza inaccessibile di VMware Cloud Foundation, abilita il failback deterministico del flusso del traffico di livello 1 evitando l'instradamento asimmetrico involontario.

  • Elimina la necessità di utilizzare gli attributi BGP nella prima e nella seconda istanza di VMware Cloud Foundation per influenzare la preferenza della posizione e il failover.

È necessario eseguire manualmente il failover e il failback della rete tra istanze da NSX Global Manager di standby.

VCF-NSX-BGP-REQD-CFG-019

Assegnare il cluster di NSX Edge in ogni istanza di VMware Cloud Foundation al gateway locale di livello 1 per tale istanza di VMware Cloud Foundation.

  • Consente di isolare le reti specifiche delle istanze alle rispettive istanze specifiche.

  • Abilita il flusso deterministico del traffico in ingresso e in uscita per le reti specifiche dell'istanza.

È possibile utilizzare il router di servizio creato per il gateway di livello 1 per i servizi di rete. Tuttavia, tale configurazione non è necessaria per la connettività di rete.

VCF-NSX-BGP-REQD-CFG-020

Impostare ogni gateway locale di livello 1 come primario in tale istanza. Evitare di impostare il gateway come secondario nelle altre istanze.

Impedisce l'utilizzo degli attributi BGP nelle istanze primarie e secondarie per influenzare la preferenza di ingresso-uscita dell'istanza.

nessuna.

Tabella 16. Consigli sulla progettazione del routing BGP per VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Motivazione dei consigli

Implementazione dei consigli

VCF-NSX-BGP-RCMD-CFG-001

Distribuire un gateway attivo-attivo di livello 0.

Supporta il routing ECMP nord-sud in tutti i nodi Edge nel cluster di NSX Edge.

I gateway attivo-attivo di livello 0 non possono fornire servizi stateful come NAT.

VCF-NSX-BGP-RCMD-CFG-002

Configurare il timer BGP keep-alive a 4 e il timer hold-down a 12 o inferiore tra gli switch top-of-tack e il gateway di livello 0.

Offre un equilibrio tra il rilevamento degli errori tra gli switch top-of-rack e il gateway di livello 0 e il sovraccarico degli switch top-of-rack con il traffico keep-alive.

Utilizzando timer più lunghi per rilevare se un router non risponde, i dati relativi a tale router rimangono più a lungo nella tabella di route. Di conseguenza, il router attivo continua a inviare traffico a un router inattivo.

Questi timer devono essere allineati con la progettazione della struttura del data center dell'organizzazione.

VCF-NSX-BGP-RCMD-CFG-003

Non abilitare il Riavvio graduale tra i router adiacenti BGP.

Evita la perdita di traffico.

Nel gateway di livello 0, i peer BGP di tutti i gateway sono sempre attivi. In caso di failover, la funzionalità Riavvio graduale aumenta il tempo necessario a un router adiacente remoto per selezionare un gateway di livello 0 alternativo. Di conseguenza, la convergenza basata su BFD è ritardata.

nessuna.

VCF-NSX-BGP-RCMD-CFG-004

Abilitare la modalità helper per la modalità Riavvio graduale tra i router adiacenti BGP.

Evita la perdita di traffico.

Durante il riavvio di un router, la modalità helper lavora con la funzionalità di riavvio graduale dei router upstream per mantenere la tabella di inoltro che, a sua volta, inoltrerà i pacchetti a un router adiacente inattivo anche dopo che i timer BGP sono scaduti, causando la perdita di traffico.

nessuna.

VCF-NSX-BGP-RCMD-CFG-005

Abilita il routing iBGP inter-SR.

Nel caso in cui un nodo Edge abbia tutte le sessioni eBGP in direzione nord interrotte, il traffico nord-sud continuerà a fluire instradandolo verso un altro nodo Edge.

nessuna.

VCF-NSX-BGP-RCMD-CFG-006

Distribuire un gateway di livello 1 in modalità di failover non preventiva.

Garantisce che, dopo che un nodo di trasporto NSX Edge in errore è tornato online, non prenda in carico i servizi del gateway, evitando così una breve interruzione del servizio.

nessuna.

VCF-NSX-BGP-RCMD-CFG-007

Abilitare il riposizionamento di standby del gateway di livello 1.

Garantisce che, in caso di errore dell'Edge, venga creato un gateway di standby di livello 1 su un altro nodo Edge.

nessuna.

Tabella 17. Consigli sulla progettazione del routing BGP per la federazione di NSX in VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Giustificazione

Implicazione

VCF-NSX-BGP-RCMD-CFG-008

Utilizzare i gateway di livello 1 per controllare l'intervallo delle reti e il traffico in ingresso e in uscita nelle istanze di VMware Cloud Foundation.

Abilita una combinazione di estensioni di rete (isolata in un'istanza di VMware Cloud Foundation o che si estende su più istanze) senza richiedere gateway di livello 0 aggiuntivi e quindi nodi Edge.

Per controllare l'estensione della posizione è necessario assegnare un gateway di livello 1 a un cluster Edge e quindi disporre del componente SR di livello 1. Il traffico est-ovest tra i gateway di livello 1 con SR deve attraversare fisicamente un nodo Edge.

VCF-NSX-BGP-RCMD-CFG-009

Allocare un gateway di livello 1 in ogni istanza per le reti specifiche dell'istanza e collegarlo al gateway di livello 0 esteso.

  • Crea un'architettura di routing a due livelli.

  • Abilita le reti di istanze locali che non devono estendersi tra le istanze di VMware Cloud Foundation.

  • Garantisce che le reti di istanze locali rimangano disponibili in caso di errore in un'altra istanza di VMware Cloud Foundation.

nessuna.

Elementi di progettazione dell'overlay per VMware Cloud Foundation

Tabella 18. Requisiti di progettazione dell'overlay per VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-OVERLAY-REQD-CFG-001

Configurare tutti gli host ESXi nel dominio del carico di lavoro come nodi di trasporto in NSX.

Abilita il routing distribuito, i segmenti logici e il firewall distribuito.

nessuna.

VCF-NSX-OVERLAY-REQD-CFG-002

Configurare ogni host ESXi come nodo di trasporto tramite i profili dei nodi di trasporto.

  • Consente agli host ESXi e alle macchine virtuali in esecuzione in tali host di partecipare alle reti overlay e VLAN di NSX.

  • I profili dei nodi di trasporto possono essere applicati solo a livello di cluster.

nessuna.

VCF-NSX-OVERLAY-REQD-CFG-003

Per fornire funzionalità di rete virtualizzate ai carichi di lavoro, utilizzare reti overlay con nodi NSX Edge e routing distribuito.

  • Crea domini di broadcast isolati e multi-tenant attraverso le strutture dei data center per distribuire reti logiche ed elastiche che superano i confini della rete fisica.

  • Abilita topologie di distribuzione avanzate introducendo l'astrazione di livello 2 dalle reti dei data center.

Richiede la configurazione di reti di trasporto con una dimensione MTU di almeno 1.600 byte.

VCF-NSX-OVERLAY-REQD-CFG-004

Creare una singola zona di trasporto overlay nell'istanza di NSX per tutto il traffico overlay nell'host e nei nodi di trasporto NSX Edge del dominio del carico di lavoro o di più domini del carico di lavoro utilizzando un'istanza di NSX condivisa.

  • Assicura che i segmenti di overlay siano collegati a un nodo NSX Edge per i servizi e il routing nord-sud.

  • Assicura che tutti i segmenti siano disponibili per tutti gli host ESXi e i nodi NSX Edge configurati come nodi di trasporto.

Tutti i cluster in tutti i domini di carico di lavoro che condividono lo stesso NSX Manager condividono la stessa zona di trasporto overlay.

VCF-NSX-OVERLAY-REQD-CFG-005

Creare un profilo di uplink con un criterio di raggruppamento dell'origine del bilanciamento del carico con due uplink attivi per gli host ESXi.

Per aumentare la resilienza e le prestazioni, supporta l'uso simultaneo di entrambe le NIC fisiche sugli host ESXi configurati come nodi di trasporto.

nessuna.

Tabella 19. Requisiti di progettazione dell'overlay per un cluster di dominio del carico di lavoro VI di elaborazione multi-rack per VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-L3MR-OVERLAY-REQD-CFG-001

Creare un profilo uplink per ogni rack con un ID VLAN di trasporto TEP dell'host separato per ogni rack.

Abilita un limite di livello 3 nei commutatori top-of-rack per il traffico TEP dell'host.

Richiede un ID VLAN TEP dell'host aggiuntivo per ogni rack.

VCF-NSX-L3MR-OVERLAY-REQD-CFG-002

Creare un pool di IP TEP dell'host per ogni rack con una subnet allocata per ogni rack e un gateway per la subnet.

  • Fornisce l'indirizzamento IP del TEP dell'host per ogni rack

  • Abilita un limite di livello 3 nei commutatori top-of-rack per il traffico TEP dell'host.

  • Offre funzionalità di routing per i TEP degli host tra rack.

Richiede una subnet aggiuntiva per ogni rack.

VCF-NSX-L3MR-OVERLAY-REQD-CFG-003

Creare profili dei nodi di trasporto secondari dell'host NSX per rack aggiuntivi.

  • Consente la configurazione del nodo di trasporto dell'host NSX per ogni rack.

Nessuna

Tabella 20. Consigli sulla progettazione degli overlay per VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Giustificazione

Implicazione

VCF-NSX-OVERLAY-RCMD-CFG-001

Utilizzare pool di IP statici per assegnare indirizzi IP alle interfacce TEP dell'host.

  • Rimuove la necessità di un server DHCP esterno per le VLAN di overlay dell'host.

  • È possibile utilizzare NSX Manager per verificare le configurazioni dei pool di IP statici.

nessuna.

VCF-NSX-OVERLAY-RCMD-CFG-002

Utilizzare la replica gerarchica a due livelli su tutti i segmenti di overlay.

La replica gerarchica a due livelli è più efficiente perché riduce il numero di host ESXi a cui l'host ESXi di origine deve replicare il traffico se gli host hanno subnet TEP diverse. In genere ciò si verifica con più di un cluster e in questo caso le prestazioni migliorano.

nessuna.

Tabella 21. Consigli per la progettazione di overlay per i cluster estesi in VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Giustificazione

Implicazione

VCF-NSX-OVERLAY-RCMD-CFG-003

Configurare un profilo del nodo di trasporto secondario NSX.

  • È possibile utilizzare pool di IP statici per i TEP dell'host in ogni zona di disponibilità.

  • Il profilo del nodo di trasporto NSX può rimanere collegato quando si utilizzano due VLAN separate per i TEP dell'host in ciascuna zona di disponibilità, come richiesto per i cluster basati su immagini di vSphere Lifecycle Manager.

  • Non è necessario utilizzare un server DHCP esterno per le VLAN di overlay dell'host in entrambe le zone di disponibilità.

Le modifiche alla configurazione del nodo di trasporto dell'host vengono apportate a livello di cluster vSphere.

Elementi di progettazione della rete virtuale dell'applicazione per VMware Cloud Foundation

Tabella 22. Requisiti di progettazione della rete virtuale dell'applicazione per VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-AVN-REQD-CFG-001

Creare un segmento NSX tra istanze per i componenti di un'applicazione VMware Aria Suite o un'altra soluzione che richiede la mobilità tra istanze di VMware Cloud Foundation.

Prepara l'ambiente per la distribuzione di soluzioni in VMware Cloud Foundation, ad esempio VMware Aria Suite, senza una complessa configurazione di rete fisica.

I componenti dell'applicazione VMware Aria Suite devono essere facilmente portabili tra istanze di VMware Cloud Foundation senza richiedere una riconfigurazione.

Ogni segmento NSX richiede uno spazio di indirizzi IP univoco.

VCF-NSX-AVN-REQD-CFG-002

Creare uno o più segmenti NSX dell'istanza locale per i componenti di un'applicazione VMware Aria Suite o un'altra soluzione assegnata a una specifica istanza di VMware Cloud Foundation.

Prepara l'ambiente per la distribuzione di soluzioni in VMware Cloud Foundation, ad esempio VMware Aria Suite, senza una complessa configurazione di rete fisica.

Ogni segmento NSX richiede uno spazio di indirizzi IP univoco.

Tabella 23. Requisiti di progettazione della rete virtuale dell'applicazione per la federazione di NSX in VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-AVN-REQD-CFG-003

Estendere il segmento NSX tra istanze alla seconda istanza di VMware Cloud Foundation.

Abilita la mobilità del carico di lavoro senza una complessa configurazione di rete fisica.

I componenti di un'applicazione VMware Aria Suite devono essere facilmente portabili tra istanze di VMware Cloud Foundation senza richiedere la riconfigurazione.

Ogni segmento NSX richiede uno spazio di indirizzi IP univoco.

VCF-NSX-AVN-REQD-CFG-004

In ogni istanza di VMware Cloud Foundation, creare ulteriori segmenti NSX dell'istanza locale.

Abilita la mobilità del carico di lavoro all'interno di un'istanza di VMware Cloud Foundation senza una complessa configurazione della rete fisica.

Ogni istanza di VMware Cloud Foundation deve disporre di segmenti di rete per supportare i carichi di lavoro isolati in tale istanza di VMware Cloud Foundation.

Ogni segmento NSX richiede uno spazio di indirizzi IP univoco.

VCF-NSX-AVN-REQD-CFG-005

In ogni istanza di VMware Cloud Foundation, connettere o migrare i segmenti NSX dell'istanza locale al corrispondente gateway di livello 1 dell'istanza locale.

Configura i segmenti NSX dell'istanza locale solo nei siti richiesti.

Richiede un singolo gateway di livello 1 per i segmenti di istanza locale.

Tabella 24. Consigli per la progettazione della rete virtuale dell'applicazione per VMware Cloud Foundation

ID consiglio

Consigli di progettazione

Giustificazione

Implicazione

VCF-NSX-AVN-RCMD-CFG-001

Utilizzare segmenti NSX con supporto dell'overlay.

  • Supporta l'espansione alle topologie di distribuzione per più istanze di VMware Cloud Foundation.

  • Limita il numero di VLAN necessarie per l'infrastruttura del data center.

L'utilizzo di segmenti NSX con supporto dell'overlay richiede il routing, consigliato da eBGP, tra la struttura del data center e i nodi Edge.

Elementi di progettazione del bilanciamento del carico per VMware Cloud Foundation

Tabella 25. Requisiti di progettazione del bilanciamento del carico per VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-LB-REQD-CFG-001

Distribuire un gateway di livello 1 autonomo per supportare servizi stateful avanzati come il bilanciamento del carico per altri componenti di gestione.

Fornisce indipendenza tra i gateway di livello 1 nord-sud per supportare situazioni di implementazione avanzate.

È necessario aggiungere un gateway di livello 1 separato.

VCF-NSX-LB-REQD-CFG-002

Quando si creano servizi di bilanciamento del carico per le reti virtuali dell'applicazione, collegare il gateway autonomo di livello 1 ai segmenti NSX tra istanze.

Fornisce il bilanciamento del carico alle applicazioni collegate alla rete tra istanze.

È necessario connettere il gateway a ogni rete che richiede il bilanciamento del carico.

VCF-NSX-LB-REQD-CFG-003

Configurare una route statica predefinita sul gateway autonomo di livello 1, con un hop successivo al gateway di livello 1 per il segmento, in modo da fornire connettività al bilanciamento del carico.

Dato che il gateway di livello 1 è autonomo, non configura automaticamente le proprie route.

nessuna.

Tabella 26. Requisiti di progettazione del bilanciamento del carico per la federazione di NSX in VMware Cloud Foundation

ID requisito

Requisiti di progettazione

Giustificazione

Implicazione

VCF-NSX-LB-REQD-CFG-004

Distribuire un gateway autonomo di livello 1 nella seconda istanza di VMware Cloud Foundation.

Fornisce un'istanza cold-standby di router di servizio non globale per la seconda istanza di VMware Cloud Foundation per supportare i servizi sulla rete tra istanze che richiedono servizi avanzati attualmente non supportati come oggetti globali NSX.

  • È necessario aggiungere un gateway di livello 1 separato.

  • È necessario configurare manualmente tutti i servizi e sincronizzarli tra le istanze dei router di servizio non globali nella prima e nella seconda istanza di VMware Cloud Foundation.

  • Per evitare un conflitto di rete tra le due istanze di VMware Cloud Foundation, assicurarsi che i servizi di rete primari e standby non siano attivi contemporaneamente.

VCF-NSX-LB-REQD-CFG-005

Connettere il gateway autonomo di livello 1 nella seconda istanza di VMware Cloud Foundation al segmento NSX tra istanze.

Fornisce il bilanciamento del carico alle applicazioni connesse alla rete tra istanze nella seconda istanza di VMware Cloud Foundation.

È necessario connettere il gateway a ogni rete che richiede il bilanciamento del carico.

VCF-NSX-LB-REQD-CFG-006

Configurare una route statica predefinita nel gateway autonomo di livello 1 nella seconda istanza di VMware Cloud Foundation con un hop successivo come gateway di livello 1 per il segmento a cui si connette per fornire connettività ai bilanciamenti del carico.

Dato che il gateway di livello 1 è autonomo, non configura automaticamente le proprie route.

nessuna.

VCF-NSX-LB-REQD-CFG-007

Stabilire un processo per assicurarsi che tutte le modifiche apportate all'istanza del bilanciamento del carico nella prima istanza di VMware Cloud Foundation vengano applicate manualmente al bilanciamento del carico disconnesso nella seconda istanza.

Mantiene il servizio di rete nell'istanza del bilanciamento del carico di failover pronto per l'attivazione se si verifica un guasto nella prima istanza VMware Cloud Foundation.

Dato che i servizi di rete non sono supportati come oggetti globali, è necessario configurarli manualmente in ogni istanza VMware Cloud Foundation. Il servizio di bilanciamento del carico in un'istanza deve essere connesso e attivo, mentre il servizio nell'altra istanza deve essere disconnesso e inattivo.

  • A causa di una configurazione errata tra le istanze di VMware Cloud Foundation, il servizio di bilanciamento del carico nella seconda istanza potrebbe essere online con una configurazione non valida o incompleta.

  • Se entrambe le istanze di VMware Cloud Foundation sono online e attive contemporaneamente, è possibile che si verifichi un conflitto tra servizi con conseguente potenziale interruzione.

  • L'amministratore deve stabilire e seguire una prassi operativa utilizzando un runbook o un processo automatizzato per garantire che le modifiche alla configurazione siano riprodotte in ogni istanza di VMware Cloud Foundation.