Pour configurer vSphere with Tanzu avec NSX Advanced Load Balancer, également appelé équilibrage de charge Avi, votre environnement doit répondre à certaines exigences. vSphere with Tanzu prend en charge plusieurs topologies pour la mise en réseau Avi : un réseau VDS unique pour le moteur de service Avi et les services d'équilibrage de charge, et un VDS pour le plan de gestion Avi ainsi qu'un autre VDS pour le NSX Advanced Load Balancer.

Réseaux de charge de travail

Pour configurer un Cluster superviseur avec la pile de mise en réseau vSphere, vous devez connecter tous les hôtes du cluster à un commutateur vSphere Distributed Switch. En fonction de la topologie que vous mettez en œuvre pour le Cluster superviseur, vous créez un ou plusieurs groupes de ports distribués. Désignez les groupes de ports comme réseaux de charge de travail pour les Espaces de noms vSphere.

Avant d'ajouter un hôte à un Cluster superviseur, vous devez l'ajouter à tous les commutateurs vSphere Distributed Switch qui font partie du cluster.

Les réseaux de charge de travail fournissent la connectivité aux nœuds de clusters Tanzu Kubernetes et aux machines virtuelles du plan de contrôle Cluster superviseur. Le réseau de charge de travail qui fournit la connectivité aux machines virtuelles du plan de contrôle Kubernetes est appelé réseau de charge de travail principal. Chaque Cluster superviseur doit disposer d'un réseau de charge de travail principal. Vous devez désigner un groupe de ports distribués en tant que réseau de charge de travail principal pour le Cluster superviseur.

Les machines virtuelles du plan de contrôle Kubernetes sur le Cluster superviseur utilisent trois adresses IP de la plage d'adresses IP qui est attribuée au réseau de charge de travail principal. Chaque nœud d'un cluster Tanzu Kubernetes dispose d'une adresse IP distincte attribuée à partir de la plage d'adresses du réseau de charge de travail qui est configuré avec l'espace de noms dans lequel le cluster Tanzu Kubernetes s'exécute.

Spécifications réseau

NSX Advanced Load Balancer nécessite deux sous-réseaux routables :
  • Le réseau de gestion. Le réseau de gestion est l'endroit où réside le contrôleur Avi, également appelé contrôleur. Il permet au contrôleur de se connecter à vCenter Server, aux hôtes ESXi et aux nœuds de plan de contrôle du Cluster superviseur. Ce réseau est l'emplacement de l'interface de gestion du moteur de service Avi. Ce réseau nécessite un vSphere Distributed Switch (VDS) et un groupe de ports distribués .
  • Le réseau de données. L'interface de données des moteurs de service Avi, également appelées moteurs de service, se connecte à ce réseau. Les adresses IP virtuelles (VIP) de l'équilibrage de charge sont attribuées à partir de ce réseau. Ce réseau nécessite un commutateur vSphere Distributed Switch (VDS) et des groupes de ports distribués. Vous devez configurer le VDS et les groupes de ports avant d'installer l'équilibrage de charge.

Allocation d'adresses IP

Le contrôleur et le moteur de service sont connectés au réseau de gestion . Lorsque vous installez et configurez NSX Advanced Load Balancer, fournissez une adresse IP statique routable pour chaque machine virtuelle de contrôleur.

Les moteurs de service peuvent utiliser DHCP. Si DHCP n'est pas disponible, vous pouvez configurer un pool d'adresses IP pour les moteurs de service.

Pour plus d'informations, consultez Configurer la passerelle par défaut.

Exigences minimales en termes de calculs

Le tableau répertorie les exigences de calcul minimales pour la mise en réseau vSphere avec NSX Advanced Load Balancer.
Attention : Ne désactivez pas vSphere DRS après avoir configuré le Cluster superviseur. L'activation de DRS est obligatoire pour exécuter des charges de travail sur le Cluster superviseur. La désactivation de DRS entraîne la rupture de vos clusters Tanzu Kubernetes.
Tableau 1. Exigences minimales en termes de calculs
Système Taille de déploiement minimale CPU Mémoire Stockage
vCenter Server 7.0, 7.0.2, 7.0.3 Petite 2 16 Go 290 Go
Hôtes ESXi 7.0 3 hôtes ESXi avec 1 adresse IP statique par hôte.

Si vous utilisez des hôtes vSAN : 3 hôtes ESXi disposant d'au moins 2 cartes réseau physiques constituent un minimum ; cependant, il est recommandé de disposer de 4 hôtes ESXi pour garantir la résilience pendant les correctifs et les mises à niveau.

Les hôtes doivent être joints dans un cluster sur lequel vSphere DRS et HA sont activés. vSphere DRS doit être en mode Entièrement automatisé ou Partiellement automatisé.
Note : Assurez-vous que les noms des hôtes qui rejoignent le cluster utilisent des lettres minuscules. Dans le cas contraire, l'activation du cluster pour la gestion de la charge de travail peut échouer.
8 64 Go par hôte Non applicable
Machines virtuelles de plan de contrôle Kubernetes 3 4 16 Go 16 Go
Contrôleur Avi

Essentials

Enterprise

Note : Pour les déploiements plus petits, vous pouvez déployer le contrôleur de taille Essentials en tant que nœud de contrôleur unique. Vous pouvez créer un cluster de contrôleur Avi, mais il ne présente aucun avantage en termes de performances et cela va à l'encontre de l'objectif de faible utilisation des ressources. Dans ce cas, vous pouvez utiliser une sauvegarde à distance pour la récupération d'urgence. Cette taille ne doit être utilisée qu'avec le mode de licence Avi Essentials et est limitée à 50 services virtuels et 10 moteurs de service

Pour les environnements de production, il est recommandé d'installer un cluster de 3 machines virtuelles de contrôleur Avi. Un minimum de 2 machines virtuelles de moteur de service est requis pour HA.

4

8

12 Go

24 Go

128 Go

128 Go

Moteur de service Un minimum de 2 machines virtuelles de moteur de service est requis pour HA. 1 2 Go 15 Go

Configuration réseau minimale requise

Le tableau répertorie la configuration réseau minimale requise pour la mise en réseau vSphere avec NSX Advanced Load Balancer.
Note : Vous ne pouvez pas créer de clusters IPv6 avec un Cluster superviseur sous vSphere 7 ou enregistrer des clusters IPv6 dans Tanzu Mission Control. Les services NSX Advanced Load Balancer ne prennent actuellement pas en charge IPv6.
Tableau 2. Exigences minimales en termes de mise en réseau
Composant Quantité minimale Configuration requise
Adresses IP statiques pour les machines virtuelles du plan de contrôle Kubernetes Bloc de 5 Bloc de 5 adresses IP statiques consécutives à attribuer depuis le réseau de gestion aux machines virtuelles du plan de contrôle Kubernetes dans le Cluster superviseur.
Réseau de gestion du trafic 1 Réseau de gestion routable vers les hôtes ESXi, vCenter Server, le Cluster superviseur et l'équilibrage de charge. Le réseau doit pouvoir accéder à un registre d'images et disposer d'une connectivité Internet si le registre d'images se trouve sur le réseau externe. Le registre d'images doit pouvoir être résolu par DNS.
vSphere Distributed Switch 7.0 ou version ultérieure 1 Tous les hôtes du cluster doivent être connectés à un commutateur vSphere Distributed Switch.
Réseaux de charge de travail 1 Au moins un groupe de ports distribués doit être créé sur le commutateur vSphere Distributed Switch que vous configurez en tant que réseau de charge de travail principal. En fonction de la topologie de votre choix, vous pouvez utiliser le même groupe de ports distribués que le réseau de charge de travail des espaces de noms ou créer d'autres groupes de ports et les configurer comme réseaux de charge de travail. Les réseaux de charge de travail doivent respecter la configuration requise suivante :
  • Les réseaux de charge de travail qui sont utilisés pour le trafic de clusters Tanzu Kubernetes doivent être routables entre eux et le réseau de charge de travail principal du Cluster superviseur.
  • Possibilités de routage entre le réseau de charge de travail et le réseau utilisé par NSX Advanced Load Balancer pour l'allocation d'adresses IP virtuelles.
  • Aucun chevauchement de plages d'adresses IP entre tous les réseaux de charge de travail d'un Cluster superviseur.
Serveur NTP et DNS 1 Serveur DNS et serveur NTP pouvant être utilisés avec vCenter Server.
Note : Configurez NTP sur tous les hôtes ESXi et vCenter Server.
Serveur DHCP 1 Facultatif. Configurez un serveur DHCP pour acquérir automatiquement des adresses IP pour les réseaux de gestion et de charge de travail, ainsi que des adresses IP flottantes. Le serveur DHCP doit prendre en charge les identificateurs de client et fournir des serveurs DNS compatibles, des domaines de recherche DNS et un serveur NTP.

Pour le réseau de gestion, toutes les adresses IP, telles que les adresses IP de machine virtuelle du plan de contrôle, une adresse IP flottante, des serveurs DNS, des DNS, des domaines de recherche et un serveur NTP, sont acquises automatiquement auprès du serveur DHCP.

La configuration DHCP est utilisée par le Cluster superviseur. Les équilibrages de charge peuvent nécessiter des adresses IP statiques pour la gestion. Les étendues DHCP ne doivent pas chevaucher ces adresses IP statiques. DHCP n'est pas utilisé pour les adresses IP virtuelles. (Adresse IP virtuelles)

Sous-réseau du réseau de gestion 1

Le réseau de gestion est l'endroit où réside le contrôleur Avi, également appelé contrôleur.

C'est également là que l'interface de gestion du moteur de service est connectée. Le contrôleur Avi doit être connecté à vCenter Server et aux adresses IP de gestion ESXi depuis ce réseau

Note : Le réseau de gestion et le réseau de charge de travail doivent se trouver sur des sous-réseaux différents. L'attribution du même sous-réseau aux réseaux de gestion et aux réseaux de charge de travail n'est pas prise en charge et peut entraîner des erreurs système et des problèmes.
Sous-réseau de réseau de données 1 L'interface de données des moteurs de service Avi, également appelées moteurs de service, se connecte à ce réseau. Configurez un pool d'adresses IP pour les moteurs de service. Les adresses IP virtuelles (VIP) de l'équilibrage de charge sont attribuées à partir de ce réseau.
MTU de réseau physique 1500 La taille de MTU doit être 1500 ou une valeur supérieure sur n'importe quel groupe de ports vSphere Distributed Switch.
Plage CIDR de l'Espace vSphere Adresses IP privées /24 Plage CIDR privée qui fournit les adresses IP pour les Espaces vSphere.
Adresses IP du contrôleur Avi 1 ou 4 Si vous déployez le contrôleur Avi en tant que nœud unique,une adresse IP statique est requise pour son interface de gestion .

Pour un cluster à 3 nœuds, 4 adresses IP sont requises. Une pour chaque machine virtuelle de contrôleur Avi et une pour l'adresse IP virtuelle du cluster. Ces adresses IP doivent provenir du sous-réseau du réseau de gestion.

Plage d'adresses IP virtuelles IPAM -

Plage CIDR privée pour attribuer des adresses IP aux services Kubernetes. Les adresses IP doivent provenir du sous-réseau du réseau de données. Vous devez spécifier une plage CIDR de services Kubernetes unique pour chaque cluster superviseur .

Serveur NTP et DNS 1

L'adresse IP du serveur DNS est requise pour que le contrôleur Avi résolve correctement les noms d'hôte vCenter Server et ESXi.

NTP est facultatif, car les serveurs NTP publics sont utilisés par défaut.

Ports et protocoles

Ce tableau répertorie les protocoles et ports requis pour gérer la connectivité IP entre NSX Advanced Load Balancer, vCenter et d'autres composants vSphere with Tanzu.

Source Destination Protocole et ports
Contrôleur Avi Contrôleur Avi (dans le cluster)

TCP 22 (SSH)

TCP 443 (HTTPS)

TCP 8443 (HTTPS)

Moteur de service Moteur de service en HA

TCP 9001 pour le cloud VMware, LSC et NSX-T

Moteur de service Contrôleur Avi

TCP 22 (SSH)

TCP 8443 (HTTPS)

UDP 123 (NTP)

Contrôleur Avi vCenter Server, ESXi, NSX-T Manager TCP 443 (HTTPS)
Nœuds de plan de contrôle du superviseur (AKO) Contrôleur Avi TCP 443 (HTTPS)

Pour plus d'informations sur les ports et les protocoles de NSX Advanced Load Balancer, reportez-vous à la section https://ports.esp.vmware.com/home/NSX-Advanced-Load-Balancer.