Vérifiez les conditions requises pour l'activation d'un Superviseur avec la mise en réseau VDS et NSX Advanced Load Balancer sur trois clusters vSphere mappés à trois zones vSphere. Pour configurer vSphere with Tanzu avec NSX Advanced Load Balancer, également appelé équilibrage de charge Avi, votre environnement doit répondre à certaines exigences. vSphere with Tanzu prend en charge plusieurs topologies : un réseau VDS unique pour le moteur de service Avi et les services d'équilibrage de charge, et un VDS pour le plan de gestion Avi, ainsi qu'un autre VDS pour NSX Advanced Load Balancer.

Réseaux de charge de travail

Pour configurer un Superviseur avec la pile de mise en réseau VDS, vous devez connecter tous les hôtes du cluster à un commutateur VDS. En fonction de la topologie que vous mettez en œuvre pour le Superviseur, vous créez un ou plusieurs groupes de ports distribués. Désignez les groupes de ports comme réseaux de charge de travail pour les Espaces de noms vSphere.

Les réseaux de charge de travail fournissent la connectivité aux nœuds des clusters de Tanzu Kubernetes Grid, aux machines virtuelles créées via le Service de machine virtuelle et aux machines virtuelles du plan de contrôle du Superviseur. Le réseau de charge de travail qui fournit la connectivité aux machines virtuelles du plan de contrôle Kubernetes est appelé réseau de charge de travail principal. Chaque Superviseur doit disposer d'un réseau de charge de travail principal. Vous devez désigner un groupe de ports distribués en tant que réseau de charge de travail principal pour le Superviseur.

Les machines virtuelles du plan de contrôle Kubernetes sur le Superviseur utilisent trois adresses IP de la plage d'adresses IP qui est attribuée au réseau de charge de travail principal. Chaque nœud d'un cluster Tanzu Kubernetes Grid dispose d'une adresse IP distincte attribuée à partir de la plage d'adresses du réseau de charge de travail qui est configuré avec l'espace de noms dans lequel le cluster Tanzu Kubernetes Grid s'exécute.

Spécifications réseau

NSX Advanced Load Balancer nécessite deux sous-réseaux routables :
  • Le réseau de gestion. Le réseau de gestion est l'endroit où réside le contrôleur Avi, également appelé contrôleur. Il permet au contrôleur de se connecter à vCenter Server, aux hôtes ESXi et aux nœuds de plan de contrôle du Superviseur. Ce réseau est l'emplacement de l'interface de gestion du moteur de service Avi. Ce réseau nécessite un VDS et un groupe de ports distribués.
  • Le réseau de données. L'interface de données des moteurs de service Avi, également appelées moteurs de service, se connecte à ce réseau. Les adresses IP virtuelles (VIP) de l'équilibrage de charge sont attribuées à partir de ce réseau. Ce réseau nécessite un VDS et des groupes de ports distribués. Vous devez configurer le VDS et les groupes de ports avant d'installer l'équilibrage de charge.

Allocation d'adresses IP

Le contrôleur et le moteur de service sont connectés au réseau de gestion . Lorsque vous installez et configurez NSX Advanced Load Balancer, fournissez une adresse IP statique routable pour chaque machine virtuelle de contrôleur.

Les moteurs de service peuvent utiliser DHCP. Si DHCP n'est pas disponible, vous pouvez configurer un pool d'adresses IP pour les moteurs de service.

Placement des zones vSphere entre les sites physiques

Vous pouvez distribuer les zones vSphere entre différents sites physiques tant que la latence entre les sites ne dépasse pas 100 ms. Par exemple, vous pouvez distribuer les zones vSphere sur deux sites physiques : une zone vSphere sur le premier site et deux zones vSphere sur le deuxième site.

Conditions requises minimales de calcul à des fins de test

Si vous souhaitez tester les capacités de vSphere with Tanzu, vous pouvez déployer la plate-forme sur un banc de test très minimal. Cependant, vous devez savoir qu'un tel banc d'essai n'est pas adapté à l'exécution de charges de travail d'échelle de production et ne fournit pas la haute disponibilité au niveau du cluster.

Tableau 1. Conditions requises minimales de calcul à des fins de test
Système Taille de déploiement minimale CPU Mémoire Stockage
vCenter Server 8.0 Petite 2 21 Go 290 Go
Clusters vSphere
  • 3 clusters vSphere
  • vSphere DRS et HA sont activés sur chaque cluster vSphere. vSphere DRS doit être en mode Entièrement automatisé ou Partiellement automatisé.
  • Stockage et mise en réseau indépendants configurés pour chaque cluster vSphere.
Non applicable Non applicable Non applicable
Hôtes ESXi 8.0

Pour chaque cluster vSphere :

  • Sans vSAN : 1 hôte ESXi avec 1 adresse IP statique par hôte.
  • Avec vSAN : 2 hôtes ESXi par cluster avec au moins 2 cartes réseau physiques.
Note : Assurez-vous que les noms des hôtes qui rejoignent le cluster utilisent des lettres minuscules. Sinon, l'activation du Superviseur peut échouer.
8 par hôte 64 Go par hôte Non applicable
Machines virtuelles de plan de contrôle Kubernetes 3 4 16 Go 16 Go
NSX Advanced Load Balancer Controller

Enterprise

4 (petite)

8 (moyenne)

24 (grande)

12 Go

24 Go

128 Go

128 Go

128 Go

128 Go

Conditions requises minimales de calcul pour la production

Le tableau répertorie les conditions requises minimales de calcul pour l'activation d'un Superviseur avec la mise en réseau VDS et NSX Advanced Load Balancer sur trois zones vSphere. Il est recommandé de séparer le domaine de gestion et le domaine de charge de travail. Le domaine de charge de travail héberge le Superviseur dans lequel vous exécutez les charges de travail. Le domaine de gestion héberge tous les composants de gestion, tels que vCenter Server.
Tableau 2. Exigences minimales en termes de calculs
Système Taille de déploiement minimale CPU Mémoire Stockage
vCenter Server 8.0 Petite 2 21 Go 290 Go
Clusters vSphere
  • 3 clusters vSphere
  • vSphere DRS et HA sont activés sur chaque cluster vSphere. vSphere DRS doit être en mode Entièrement automatisé ou Partiellement automatisé.
  • Stockage et mise en réseau indépendants configurés pour chaque cluster vSphere.
Non applicable Non applicable Non applicable
Hôtes ESXi 8.0

Pour chaque cluster vSphere :

  • Sans vSAN : 3 hôtes ESXi avec 1 adresse IP statique par hôte.
  • Avec vSAN : 4 hôtes ESXi par cluster avec au moins 2 cartes réseau physiques.
Note : Assurez-vous que les noms des hôtes qui rejoignent le cluster utilisent des lettres minuscules. Sinon, l'activation du Superviseur peut échouer.
8 par hôte 64 Go par hôte Non applicable
Machines virtuelles de plan de contrôle Kubernetes 3 4 16 Go 16 Go
NSX Advanced Load Balancer Controller

Enterprise

Pour les environnements de production, il est recommandé d'installer un cluster de 3 machines virtuelles de contrôleur. Un minimum de 2 machines virtuelles de moteur de service est requis pour HA.

4 (petite)

8 (moyenne)

24 (grande)

12 Go

24 Go

128 Go

128 Go

128 Go

128 Go

Configuration réseau minimale requise

Le tableau répertorie la configuration réseau minimale requise pour l'activation d'un Superviseur avec la mise en réseau VDS et NSX Advanced Load Balancer.
Tableau 3. Configuration réseau physique requise
Composant Quantité minimale Configuration requise
Dispositif de couche 2 1 Le réseau de gestion qui gérera le trafic du Superviseur doit se trouver sur le même périphérique de couche 2 pour tous les clusters faisant partie du Superviseur. Le réseau de charge de travail principal doit également se trouver sur le même périphérique de couche 2.
MTU de réseau physique 1500 La taille de MTU doit être de 1 500 ou plus sur n'importe quel groupe de ports distribués.
Tableau 4. Configuration générale requise pour la mise en réseau
Composant Quantité minimale Configuration requise
Latence 100 ms Latence maximale recommandée entre chaque cluster faisant partie d'une zone vSphere regroupés dans un Superviseur.
Serveur NTP et DNS 1 Serveur DNS et serveur NTP pouvant être utilisés avec vCenter Server.
Note : Configurez NTP sur tous les hôtes ESXi et vCenter Server.
Serveur DHCP 1 Facultatif. Configurez un serveur DHCP pour acquérir automatiquement des adresses IP pour les réseaux de gestion et de charge de travail, ainsi que des adresses IP flottantes. Le serveur DHCP doit prendre en charge les identificateurs de client et fournir des serveurs DNS compatibles, des domaines de recherche DNS et un serveur NTP.

Pour le réseau de gestion, toutes les adresses IP, telles que les adresses IP de machine virtuelle du plan de contrôle, une adresse IP flottante, des serveurs DNS, des DNS, des domaines de recherche et un serveur NTP, sont acquises automatiquement auprès du serveur DHCP.

La configuration DHCP est utilisée par le Superviseur. Les équilibrages de charge peuvent nécessiter des adresses IP statiques pour la gestion. Les étendues DHCP ne doivent pas chevaucher ces adresses IP statiques. DHCP n'est pas utilisé pour les adresses IP virtuelles. (Adresse IP virtuelles)

Tableau 5. Configuration requise du réseau de gestion
Composant Quantité minimale Configuration requise
Adresses IP statiques pour les machines virtuelles du plan de contrôle Kubernetes Bloc de 5 Bloc de 5 adresses IP statiques consécutives à attribuer depuis le réseau de gestion aux machines virtuelles du plan de contrôle Kubernetes dans le Superviseur.
Réseau de gestion du trafic 1 Réseau de gestion routable vers les hôtes ESXi, vCenter Server, le Superviseur et l'équilibrage de charge.
Sous-réseau du réseau de gestion 1

Le réseau de gestion est l'endroit où réside le contrôleur NSX Advanced Load Balancer, également appelé contrôleur.

C'est également là que l'interface de gestion du moteur de service est connectée. Le contrôleur doit être connecté à vCenter Server et aux adresses IP de gestion ESXi depuis ce réseau

Note : Le réseau de gestion et le réseau de charge de travail doivent se trouver sur des sous-réseaux différents. L'attribution du même sous-réseau aux réseaux de gestion et aux réseaux de charge de travail n'est pas prise en charge et peut entraîner des erreurs système et des problèmes.
Tableau 6. Configuration requise du réseau de charge de travail
Composant Quantité minimale Configuration requise
vSphere Distributed Switch 1 Tous les hôtes des trois clusters vSphere doivent être connectés à un VDS.
Réseaux de charge de travail 1 Au moins un groupe de ports distribués doit être créé sur le VDS que vous configurez en tant que réseau de charge de travail principal. En fonction de la topologie de votre choix, vous pouvez utiliser le même groupe de ports distribués que le réseau de charge de travail des espaces de noms ou créer d'autres groupes de ports et les configurer comme réseaux de charge de travail. Les réseaux de charge de travail doivent respecter la configuration requise suivante :
  • Possibilités de routage entre le réseau de charge de travail et le réseau utilisé par NSX Advanced Load Balancer pour l'allocation d'adresses IP virtuelles.
  • Aucun chevauchement de plages d'adresses IP entre tous les réseaux de charge de travail d'un Superviseur.
Plage CIDR des services Kubernetes Adresses IP privées /16 Plage CIDR privée pour attribuer des adresses IP aux services Kubernetes. Vous devez spécifier une plage CIDR de services Kubernetes unique pour chaque Superviseur.
Tableau 7. Configuration requise pour la mise en réseau de l'équilibrage de charge
Serveur NTP et DNS 1 L'adresse IP du serveur DNS est requise pour que le contrôleur NSX Advanced Load Balancer résolve correctement les noms d'hôte vCenter Server et ESXi. NTP est facultatif, car les serveurs NTP publics sont utilisés par défaut.
Sous-réseau de réseau de données 1 L'interface de données des moteurs de service, également appelée moteurs de service, se connecte à ce réseau. Configurez un pool d'adresses IP pour les moteurs de service. Les adresses IP virtuelles (VIP) de l'équilibrage de charge sont attribuées à partir de ce réseau.
Adresses IP du contrôleur NSX Advanced Load Balancer 1 ou 4 Si vous déployez le contrôleur NSX Advanced Load Balancer en tant que nœud unique, une adresse IP statique est requise pour son interface de gestion.

Pour un cluster à 3 nœuds, 4 adresses IP sont requises. Une pour chaque machine virtuelle de contrôleur et une pour l'adresse IP virtuelle du cluster. Ces adresses IP doivent provenir du sous-réseau du réseau de gestion.

Plage d'adresses IP virtuelles IPAM -

Plage CIDR privée pour attribuer des adresses IP aux services Kubernetes. Les adresses IP doivent provenir du sous-réseau du réseau de données. Vous devez spécifier une plage CIDR de services Kubernetes unique pour chaque cluster superviseur .

Ports et protocoles

Ce tableau répertorie les protocoles et ports requis pour gérer la connectivité IP entre NSX Advanced Load Balancer, vCenter Server et d'autres composants vSphere with Tanzu.

Source Destination Protocole et ports
NSX Advanced Load Balancer Controller Contrôleur NSX Advanced Load Balancer (dans le cluster)

TCP 22 (SSH)

TCP 443 (HTTPS)

TCP 8443 (HTTPS)

Moteur de service Moteur de service en HA

TCP 9001 pour le cloud VMware, LSC et NSX-T

Moteur de service NSX Advanced Load Balancer Controller

TCP 22 (SSH)

TCP 8443 (HTTPS)

UDP 123 (NTP)

NSX Advanced Load Balancer Controller vCenter Server, ESXi, NSX-T Manager TCP 443 (HTTPS)
Nœuds de plan de contrôle du superviseur (AKO) NSX Advanced Load Balancer Controller TCP 443 (HTTPS)

Pour plus d'informations sur les ports et les protocoles de NSX Advanced Load Balancer, reportez-vous à la section https://ports.esp.vmware.com/home/NSX-Advanced-Load-Balancer.