Vérifiez la configuration requise pour l'activation d'un Superviseur sur un cluster vSphere avec la mise en réseau VDS et NSX Advanced Load Balancer, également appelé équilibrage de charge Avi. vSphere with Tanzu prend en charge plusieurs topologies : un réseau VDS unique pour le moteur de service Avi et les services d'équilibrage de charge, et un VDS pour le plan de gestion Avi, ainsi qu'un autre VDS pour NSX Advanced Load Balancer.

Réseaux de charge de travail

Pour configurer un Superviseur avec la pile de mise en réseau VDS, vous devez connecter tous les hôtes du cluster à un commutateur VDS. En fonction de la topologie que vous mettez en œuvre pour le Superviseur, vous créez un ou plusieurs groupes de ports distribués. Désignez les groupes de ports comme réseaux de charge de travail pour les Espaces de noms vSphere. Les réseaux de charge de travail fournissent la connectivité aux nœuds de clusters Tanzu Kubernetes Grid et aux machines virtuelles du plan de contrôle Superviseur. Le réseau de charge de travail qui fournit la connectivité aux machines virtuelles du plan de contrôle Kubernetes est appelé réseau de charge de travail principal. Chaque Superviseur doit disposer d'un réseau de charge de travail principal. Vous devez désigner un groupe de ports distribués en tant que réseau de charge de travail principal pour le Superviseur.

Les machines virtuelles du plan de contrôle Kubernetes sur le Superviseur utilisent trois adresses IP de la plage d'adresses IP qui est attribuée au réseau de charge de travail principal. Chaque nœud d'un cluster Tanzu Kubernetes Grid dispose d'une adresse IP distincte attribuée à partir de la plage d'adresses du réseau de charge de travail qui est configuré avec l'espace de noms dans lequel le cluster Tanzu Kubernetes Grid s'exécute.

Spécifications réseau

NSX Advanced Load Balancer nécessite deux sous-réseaux routables :
  • Le réseau de gestion. Le réseau de gestion est l'endroit où réside le contrôleur Avi, également appelé contrôleur. Il permet au contrôleur de se connecter à vCenter Server, aux hôtes ESXi et aux nœuds de plan de contrôle du Superviseur. Ce réseau est l'emplacement de l'interface de gestion du moteur de service Avi. Ce réseau nécessite un VDS et un groupe de ports distribués.
  • Le réseau de données. L'interface de données des moteurs de service Avi, également appelées moteurs de service, se connecte à ce réseau. Les adresses IP virtuelles (VIP) de l'équilibrage de charge sont attribuées à partir de ce réseau. Ce réseau nécessite un VDS et des groupes de ports distribués. Vous devez configurer le VDS et les groupes de ports distribués avant l'installation de l'équilibrage de charge.

Allocation d'adresses IP

Le contrôleur et le moteur de service sont connectés au réseau de gestion . Lorsque vous installez et configurez NSX Advanced Load Balancer, fournissez une adresse IP statique routable pour chaque machine virtuelle de contrôleur.

Les moteurs de service peuvent utiliser DHCP. Si DHCP n'est pas disponible, vous pouvez configurer un pool d'adresses IP pour les moteurs de service.

Exigences minimales en termes de calculs

Le tableau répertorie les exigences de calcul minimales pour la mise en réseau VDS avec NSX Advanced Load Balancer.
Tableau 1. Exigences minimales en termes de calculs
Système Taille de déploiement minimale CPU Mémoire Stockage
vCenter Server 8.0 Petite 2 16 Go 290 Go
Hôtes ESXi 8.0
  • Sans vSAN : 3 hôtes ESXi avec 1 adresse IP statique par hôte.
  • Avec vSAN : 4 hôtes ESXi par cluster avec au moins 2 cartes réseau physiques.
Les hôtes doivent être joints dans un cluster sur lequel vSphere DRS et HA sont activés. vSphere DRS doit être en mode Entièrement automatisé ou Partiellement automatisé.
Note : Assurez-vous que les noms des hôtes qui rejoignent le cluster utilisent des lettres minuscules. Sinon, l'activation du Superviseur peut échouer.
8 64 Go par hôte Non applicable
Machines virtuelles de plan de contrôle Kubernetes 3 4 16 Go 16 Go
Contrôleur Avi

Essentials

Enterprise

Note : Pour les déploiements plus petits, vous pouvez déployer le contrôleur de taille Essentials en tant que nœud de contrôleur unique. Vous pouvez créer un cluster de contrôleur Avi, mais il ne présente aucun avantage en termes de performances et cela va à l'encontre de l'objectif de faible utilisation des ressources. Dans ce cas, vous pouvez utiliser une sauvegarde à distance pour la récupération d'urgence. Cette taille ne doit être utilisée qu'avec le mode de licence Avi Essentials et est limitée à 50 services virtuels et 10 moteurs de service

Pour les environnements de production, il est recommandé d'installer un cluster de 3 machines virtuelles de contrôleur Avi. Un minimum de 2 machines virtuelles de moteur de service est requis pour HA.

4

8

12 Go

24 Go

128 Go

128 Go

Moteur de service Un minimum de 2 machines virtuelles de moteur de service est requis pour HA. 1 2 Go 15 Go

Configuration réseau minimale requise

Le tableau répertorie la configuration réseau minimale requise pour la mise en réseau vSphere avec NSX Advanced Load Balancer.
Note : Vous ne pouvez pas créer de clusters IPv6 avec un Superviseur sous vSphere 7 ou enregistrer des clusters IPv6 dans Tanzu Mission Control. Les services NSX Advanced Load Balancer ne prennent actuellement pas en charge IPv6.
Tableau 2. Configuration réseau physique requise
Composant Quantité minimale Configuration requise
MTU de réseau physique 1500 La taille de MTU doit être de 1 500 ou plus sur n'importe quel groupe de ports distribués.
Tableau 3. Configuration générale requise pour la mise en réseau
Composant Quantité minimale Configuration requise
Serveur NTP et DNS 1 Serveur DNS et serveur NTP pouvant être utilisés avec vCenter Server.
Note : Configurez NTP sur tous les hôtes ESXi et vCenter Server.
Serveur DHCP 1 Facultatif. Configurez un serveur DHCP pour acquérir automatiquement des adresses IP pour les réseaux de gestion et de charge de travail, ainsi que des adresses IP flottantes. Le serveur DHCP doit prendre en charge les identificateurs de client et fournir des serveurs DNS compatibles, des domaines de recherche DNS et un serveur NTP.

Pour le réseau de gestion, toutes les adresses IP, telles que les adresses IP de machine virtuelle du plan de contrôle, une adresse IP flottante, des serveurs DNS, des DNS, des domaines de recherche et un serveur NTP, sont acquises automatiquement auprès du serveur DHCP.

La configuration DHCP est utilisée par le Superviseur. Les équilibrages de charge peuvent nécessiter des adresses IP statiques pour la gestion. Les étendues DHCP ne doivent pas chevaucher ces adresses IP statiques. DHCP n'est pas utilisé pour les adresses IP virtuelles. (Adresse IP virtuelles)

Tableau 4. Configuration requise du réseau de gestion
Composant Quantité minimale Configuration requise
Adresses IP statiques pour les machines virtuelles du plan de contrôle Kubernetes Bloc de 5 Bloc de 5 adresses IP statiques consécutives à attribuer depuis le réseau de gestion aux machines virtuelles du plan de contrôle Kubernetes dans le Superviseur.
Réseau de gestion du trafic 1 Réseau de gestion routable vers les hôtes ESXi, vCenter Server, le Superviseur et l'équilibrage de charge.
Sous-réseau du réseau de gestion 1

Le réseau de gestion est l'endroit où réside le contrôleur Avi, également appelé contrôleur.

C'est également là que l'interface de gestion du moteur de service est connectée. Le contrôleur Avi doit être connecté à vCenter Server et aux adresses IP de gestion ESXi depuis ce réseau

Note : Le réseau de gestion et le réseau de charge de travail doivent se trouver sur des sous-réseaux différents. L'attribution du même sous-réseau aux réseaux de gestion et aux réseaux de charge de travail n'est pas prise en charge et peut entraîner des erreurs système et des problèmes.
Tableau 5. Configuration requise du réseau de charge de travail
Composant Quantité minimale Configuration requise
vSphere Distributed Switch 1 Tous les hôtes du cluster vSphere doivent être connectés à un VDS.
Réseaux de charge de travail 1 Au moins un groupe de ports distribués doit être créé sur le VDS que vous configurez en tant que réseau de charge de travail principal. En fonction de la topologie de votre choix, vous pouvez utiliser le même groupe de ports distribués que le réseau de charge de travail des espaces de noms ou créer d'autres groupes de ports et les configurer comme réseaux de charge de travail. Les réseaux de charge de travail doivent respecter la configuration requise suivante :
  • Possibilités de routage entre le réseau de charge de travail et le réseau utilisé par NSX Advanced Load Balancer pour l'allocation d'adresses IP virtuelles.
  • Aucun chevauchement de plages d'adresses IP entre tous les réseaux de charge de travail d'un Superviseur.
Plage CIDR des services Kubernetes Adresses IP privées /16 Plage CIDR privée pour attribuer des adresses IP aux services Kubernetes. Vous devez spécifier une plage CIDR de services Kubernetes unique pour chaque Superviseur.
Tableau 6. Configuration requise pour la mise en réseau de l'équilibrage de charge
Serveur NTP et DNS 1 L'adresse IP du serveur DNS est requise pour que le contrôleur Avi résolve correctement les noms d'hôte vCenter Server et ESXi. NTP est facultatif, car les serveurs NTP publics sont utilisés par défaut.
Sous-réseau de réseau de données 1 L'interface de données des moteurs de service Avi, également appelées moteurs de service, se connecte à ce réseau. Configurez un pool d'adresses IP pour les moteurs de service. Les adresses IP virtuelles (VIP) de l'équilibrage de charge sont attribuées à partir de ce réseau.
Adresses IP du contrôleur Avi 1 ou 4 Si vous déployez le contrôleur Avi en tant que nœud unique,une adresse IP statique est requise pour son interface de gestion .

Pour un cluster à 3 nœuds, 4 adresses IP sont requises. Une pour chaque machine virtuelle de contrôleur Avi et une pour l'adresse IP virtuelle du cluster. Ces adresses IP doivent provenir du sous-réseau du réseau de gestion.

Plage d'adresses IP virtuelles IPAM -

Plage CIDR privée pour attribuer des adresses IP aux services Kubernetes. Les adresses IP doivent provenir du sous-réseau du réseau de données. Vous devez spécifier une plage CIDR de services Kubernetes unique pour chaque cluster superviseur .

Ports et protocoles

Ce tableau répertorie les protocoles et ports requis pour gérer la connectivité IP entre NSX Advanced Load Balancer, vCenter et d'autres composants vSphere with Tanzu.

Source Destination Protocole et ports
Contrôleur Avi Contrôleur Avi (dans le cluster)

TCP 22 (SSH)

TCP 443 (HTTPS)

TCP 8443 (HTTPS)

Moteur de service Moteur de service en HA

TCP 9001 pour le cloud VMware, LSC et NSX-T

Moteur de service Contrôleur Avi

TCP 22 (SSH)

TCP 8443 (HTTPS)

UDP 123 (NTP)

Contrôleur Avi vCenter Server, ESXi, NSX-T Manager TCP 443 (HTTPS)
Nœuds de plan de contrôle du superviseur (AKO) Contrôleur Avi TCP 443 (HTTPS)

Pour plus d'informations sur les ports et les protocoles de NSX Advanced Load Balancer, reportez-vous à la section https://ports.esp.vmware.com/home/NSX-Advanced-Load-Balancer.