Per configurare vSphere with Tanzu con NSX Advanced Load Balancer, conosciuto anche come Avi Load Balancer, l'ambiente in uso deve soddisfare determinati requisiti. vSphere with Tanzu supporta più topologie per la rete Avi: una singola rete VDS per il motore di servizio Avi e i servizi di bilanciamento del carico, un VDS per il piano di gestione Avi e un altro VDS per NSX Advanced Load Balancer.

Reti del carico di lavoro

Per configurare un Cluster supervisore con lo stack di rete vSphere, è necessario connettere tutti gli host del cluster a un vSphere Distributed Switch. In base alla topologia implementata per Cluster supervisore, è possibile creare uno o più gruppi di porte distribuiti. I gruppi di porte vengono designati come reti del carico di lavoro in Spazi dei nomi vSphere.

Prima di aggiungere un host a un Cluster supervisore, è necessario aggiungerlo a tutti i vSphere Distributed Switch che fanno parte del cluster.

Le reti del carico di lavoro forniscono connettività ai nodi dei cluster di Tanzu Kubernetes e alle macchine virtuali del piano di controllo di Cluster supervisore. La rete del carico di lavoro che fornisce connettività alle macchine virtuali del piano di controllo di Kubernetes è denominata rete del carico di lavoro primario. Ogni Cluster supervisore deve avere una rete del carico di lavoro primaria. È necessario designare uno dei gruppi di porte distribuite come rete del carico di lavoro primaria in Cluster supervisore.

Le macchine virtuali del piano di controllo di Kubernetes nel Cluster supervisore utilizzano tre indirizzi IP dell'intervallo di indirizzi IP assegnato alla rete del carico di lavoro primaria. A ogni nodo di un cluster di Tanzu Kubernetes è assegnato un indirizzo IP distinto dell'intervallo di indirizzi della rete del carico di lavoro configurata con lo spazio dei nomi in cui viene eseguito il cluster di Tanzu Kubernetes.

Requisiti di rete

NSX Advanced Load Balancer richiede due subnet instradabili:
  • La Rete di gestione. La Rete di gestione è dove risiede il controller Avi, chiamato anche controller. La Rete di gestione fornisce al controller la connettività a vCenter Server, host ESXi e nodi del piano di controllo di Cluster supervisore. Questa rete è dove si trova l'interfaccia di gestione del motore del servizio Avi. Questa rete richiede un vSphere Distributed Switch e un gruppo di porte distribuito.
  • La Rete dati. L'interfaccia dati dei motori di servizio Avi, detti anche motori di servizio, si connette a questa rete. Gli IP virtuali (VIP) del bilanciamento del carico vengono assegnati da questa rete. Questa rete richiede un vSphere Distributed Switch e gruppi di porte distribuiti. È necessario configurare VDS e gruppi di porte prima di installare il bilanciamento del carico.

Allocazione di indirizzi IP

Il controller e il motore del servizio sono connessi alla Rete di gestione. Quando si installa e si configura NSX Advanced Load Balancer, fornire un indirizzo IP instradabile statico per ogni macchina virtuale del controller.

I motori di servizio possono utilizzare DHCP. Se DHCP non è disponibile, è possibile configurare un pool di indirizzi IP per i motori di servizio.

Per ulteriori informazioni, vedere Configurazione del gateway predefinito.

Requisiti minimi di calcolo

Nella tabella sono elencati i requisiti di elaborazione minimi per vSphere Networking con NSX Advanced Load Balancer.
Attenzione: Non disabilitare vSphere DRS dopo aver configurato il Cluster supervisore. Avere DRS sempre abilitato è un prerequisito obbligatorio per l'esecuzione dei carichi di lavoro nel Cluster supervisore. La disabilitazione di DRS comporta l'interruzione dei cluster di Tanzu Kubernetes.
Tabella 1. Requisiti minimi di calcolo
Sistema Dimensioni minime della distribuzione CPU Memoria Storage
vCenter Server 7.0, 7.0.2, 7.0.3 Piccolo 2 16 GB 290 GB
Host ESXi 7.0 3 host ESXi con 1 IP statico per host.

Se si utilizza vSAN: il requisito minimo è 3 host ESXi con almeno 2 NIC fisiche; tuttavia, sono consigliati 4 host ESXi per la resilienza durante l'applicazione di patch e l'aggiornamento.

Gli host devono unirsi a un cluster con vSphere DRS e vSphere HA abilitati. vSphere DRS deve essere in modalità completamente o parzialmente automatizzata.
Nota: Assicurarsi che per i nomi degli host che si uniscono al cluster vengano utilizzate lettere minuscole. In caso contrario, l'abilitazione del cluster per la gestione del carico di lavoro potrebbe non riuscire.
8 64 GB per host Non applicabile
Macchine virtuali del piano di controllo Kubernetes 3 4 16 GB 16 GB
Controller Avi

Essentials

Enterprise

Nota: Per le distribuzioni più piccole, è possibile distribuire il controller delle dimensioni di Essentials come nodo di controller singolo. È possibile creare un cluster di controller AVI, ma non offre alcun vantaggio in termini di prestazioni e annulla lo scopo di un utilizzo ridotto delle risorse. In questo caso, è possibile utilizzare un backup remoto per il ripristino di emergenza. Questa dimensione deve essere utilizzata solo con la modalità di licenza di Avi Essentials ed è limitata a 50 servizi virtuali e 10 motori di servizio

Per gli ambienti di produzione, è consigliabile installare un cluster di 3 macchine virtuali di controller Avi. Per l'alta disponibilità sono necessarie almeno 2 macchine virtuali di motori di servizio.

4

8

12 GB

24 GB

128 GB

128 GB

Motore di servizio Per l'alta disponibilità sono necessarie almeno 2 macchine virtuali di motori di servizio. 1 2 GB 15 GB

Requisiti minimi della rete

Nella tabella sono elencati i requisiti di rete minimi per vSphere Networking con NSX Advanced Load Balancer.

Tabella 2. Requisiti minimi di rete
Componente Quantità minima Configurazione richiesta
IP statici per le macchine virtuali del piano di controllo Kubernetes Blocco di 5 Un blocco di 5 indirizzi IP statici consecutivi da assegnare dalla rete di gestione alle macchine virtuali del piano di controllo Kubernetes in Cluster supervisore.
Rete traffico di gestione 1 Una rete di gestione instradabile verso gli host ESXi, il vCenter Server, il Cluster supervisore e il bilanciamento del carico. La rete deve essere in grado di accedere a un registro immagini e disporre di connettività Internet, se il registro immagini si trova nella rete esterna. Il registro immagini deve essere risolvibile tramite DNS.
vSphere Distributed Switch 1 Tutti gli host del cluster devono essere connessi a un vSphere Distributed Switch.
Reti del carico di lavoro 1 È necessario che almeno un gruppo di porte distribuito venga creato nel vSphere Distributed Switch configurato come rete del carico di lavoro primario. In base alla topologia scelta, è possibile utilizzare lo stesso gruppo di porte distribuito della rete del carico di lavoro degli spazi dei nomi oppure creare più gruppi di porte e configurarli come reti del carico di lavoro. Le reti del carico di lavoro devono soddisfare i seguenti requisiti:
  • Le reti del carico di lavoro utilizzate per il traffico del cluster Tanzu Kubernetes devono essere instradabili reciprocamente e con la rete del carico di lavoro primario del Cluster supervisore.
  • Instradabilità tra qualsiasi rete del carico di lavoro con la rete utilizzata da NSX Advanced Load Balancer per l'allocazione di IP virtuali.
  • Nessuna sovrapposizione di intervalli di indirizzi IP tra tutte le reti del carico di lavoro all'interno di un Cluster supervisore.
Server NTP e DNS 1 Un server DNS e un server NTP che possono essere utilizzati con il vCenter Server.
Nota: Configurare NTP su tutti gli host ESXi e il vCenter Server.
DHCP Server 1 Facoltativo. Configurare un server DHCP per acquisire automaticamente gli indirizzi IP per le reti di gestione e del carico di lavoro, nonché gli IP mobili. Il server DHCP deve supportare gli identificatori client e fornire server DNS compatibili, domini di ricerca DNS e un server NTP.

Per la rete di gestione, tutti gli indirizzi IP, ad esempio gli IP della macchina virtuale del piano di controllo, un IP mobile, server DNS, DNS, domini di ricerca e server NTP vengono acquisiti automaticamente dal server DHCP.

La configurazione DHCP viene utilizzata dal Cluster supervisore. I bilanciamenti del carico potrebbero richiedere indirizzi IP statici per la gestione. Gli ambiti DHCP non devono sovrapporsi a questi IP statici. Il server DHCP non viene utilizzato per gli IP virtuali (VIP)

Subnet della rete di gestione 1

La Rete di gestione è dove risiede il controller Avi, chiamato anche controller.

È anche il punto in cui è connessa l'interfaccia di gestione del motore del servizio. Il controller Avi deve essere connesso a vCenter Server e agli IP di gestione di ESXi da questa rete

Nota: La rete di gestione e la rete del carico di lavoro devono trovarsi in subnet diverse. L'assegnazione della stessa subnet alla rete di gestione e del carico di lavoro non è supportata e può causare problemi ed errori di sistema.
Subnet rete dati 1 L'interfaccia dati dei motori di servizio Avi, detti anche motori di servizio, si connette a questa rete. Configurare un pool di indirizzi IP per i motori di servizio. Gli IP virtuali (VIP) del bilanciamento del carico vengono assegnati da questa rete.
MTU della rete fisica 1500 La dimensione MTU deve essere 1500 o superiore su qualsiasi gruppo di porte del vSphere Distributed Switch.
IP controller Avi 1 o 4 Se si distribuisce il controller Avi come nodo singolo, è necessario un IP statico per la relativa interfaccia di gestione.

Per un cluster a 3 nodi, sono necessari 4 indirizzi IP. Uno per ogni macchina virtuale del controller Avi e uno per il VIP del cluster. Questi IP devono provenire dalla subnet della rete di gestione.

Intervallo IPAM VIP -

Un intervallo CIDR privato per l'assegnazione di indirizzi IP ai servizi Kubernetes. Gli IP devono provenire dalla subnet della rete dati. È necessario specificare un intervallo CIDR dei servizi Kubernetes univoco per ogni cluster supervisore.

Server NTP e DNS 1

L'IP del server DNS è necessario per consentire al controller Avi di risolvere correttamente i nomi host di vCenter Server ed ESXi.

NTP è facoltativo perché per impostazione predefinita vengono utilizzati server NTP pubblici.

Porte e protocolli

In questa tabella sono elencati i protocolli e le porte necessari per la gestione della connettività IP tra NSX Advanced Load Balancer, vCenter e gli altri componenti di vSphere with Tanzu.

Origine Destinazione Protocollo e porte
Controller Avi Controller Avi (nel cluster)

TCP 22 (SSH)

TCP 443 (HTTPS)

TCP 8443 (HTTPS)

Motore di servizio Motore di servizio in HA

TCP 9001 per cloud VMware, LSC e NSX-T

Motore di servizio Controller Avi

TCP 22 (SSH)

TCP 8443 (HTTPS)

UDP 123 (NTP)

Controller Avi vCenter Server, ESXi, NSX-T Manager TCP 443 (HTTPS)
Nodi del piano di controllo supervisore (AKO) Controller Avi TCP 443 (HTTPS)

Per ulteriori informazioni sulle porte e i protocolli per NSX Advanced Load Balancer, vedere https://ports.esp.vmware.com/home/NSX-Advanced-Load-Balancer.