Vérifiez la configuration système requise pour activer un Superviseur sur trois clusters vSphere mappés à des zones vSphere à l'aide de la pile de mise en réseau NSX et NSX Advanced Load Balancer.

Placement des zones vSphere entre les sites physiques

Vous pouvez distribuer les zones vSphere entre différents sites physiques tant que la latence entre les sites ne dépasse pas 100 ms. Par exemple, vous pouvez distribuer les zones vSphere sur deux sites physiques : une zone vSphere sur le premier site et deux zones vSphere sur le deuxième site.

Options de déploiement de NSX

Pour plus d'informations sur les meilleures pratiques de déploiement de NSX, reportez-vous au Guide de conception de référence de NSX.

Conditions requises minimales de calcul pour un cluster de gestion et Edge

Système Taille de déploiement minimale CPU Mémoire Stockage
vCenter Server 8 Petite 2 21 Go 290 Go
8 hôtes ESXi 2 hôtes ESXi 8 64 Go par hôte Non applicable
NSX Manager Moyen 6 24 Go 300 Go
NSX Edge 1 Grande 8 32 Go 200 Go
NSX Edge 2 Grande 8 32 Go 200 Go
VM de moteur de service Au moins deux machines virtuelles de moteur de service sont déployées par Superviseur 1 2 Go S.O.
Note : Vérifiez que tous les hôtes ESXi participant au cluster vSphere sur lequel vous prévoyez de configurer vSphere IaaS control plane sont préparés en tant que nœuds de transport NSX. Pour plus d'informations, reportez-vous aux sections https://kb.vmware.com/s/article/95820 et Préparation d'hôtes ESXi en tant que nœuds de transport dans la documentation de NSX.

Spécification de la capacité système du contrôleur

Vous pouvez spécifier la capacité système du contrôleur pendant le déploiement. La capacité système est basée sur les allocations de ressources système telles que le CPU, la RAM et le disque. La quantité de ressources que vous allouez a un impact sur les performances du contrôleur.

Type de déploiement Nombre de nœuds Allocations recommandées - CPU Allocations recommandées - Mémoire Allocations recommandées - Disque
Démonstration/Évaluation client 1 6 24 Go 128 Go

Dans les déploiements de démonstration, un contrôleur unique est approprié et est utilisé pour toutes les activités et tous les workflows du plan de contrôle, ainsi que pour l'analyse.

Dans un déploiement de production, un cluster à trois nœuds est recommandé.

Pour plus d'informations, reportez-vous à la section Dimensionnement du contrôleur NSX Advanced Load Balancer.

Conditions requises minimales de calcul pour les clusters de domaine de la charge de travail

Système Taille de déploiement minimale CPU Mémoire Stockage
Clusters vSphere
  • 3 clusters vSphere
  • vSphere DRS et HA sont activés sur chaque cluster vSphere. vSphere DRS doit être en mode entièrement automatisé.
  • Stockage et mise en réseau indépendants configurés pour chaque cluster vSphere.
Non applicable Non applicable Non applicable
8 hôtes ESXi
Pour chaque cluster vSphere :
  • Sans vSAN : 3 hôtes ESXi avec 1 adresse IP statique par hôte.
  • Avec vSAN : 4 hôtes ESXi par cluster avec au moins 2 cartes réseau physiques.
Note : Assurez-vous que les noms des hôtes qui joignent les clusters utilisent des lettres minuscules. Sinon, l'activation du Superviseur peut échouer.
8 64 Go par hôte Non applicable
Machines virtuelles de plan de contrôle Kubernetes 3 4 16 Go 16 Go

Spécifications réseau

Note : Vous ne pouvez pas créer de clusters IPv6 avec un Superviseur sous vSphere 8 ou enregistrer des clusters IPv6 dans Tanzu Mission Control.

Consultez la matrice d'interopérabilité des produits VMware pour connaître les versions de NSX prises en charge.

Tableau 1. Configuration réseau physique requise
Composant Quantité minimale Configuration requise
Dispositif de couche 2 1 Le réseau de gestion qui gérera le trafic du Superviseur doit se trouver sur le même périphérique de couche 2. Au moins une carte réseau physique par hôte gérant le trafic de gestion doit être connectée à ce même périphérique de couche 2.
MTU de réseau physique 1700 La taille de MTU doit être de 1 700 ou d'une valeur supérieure sur n'importe quel groupe de ports vSphere Distributed Switch.
Carte réseau physique Au moins 2 cartes réseau physiques par hôte si vSAN est utilisé Pour utiliser le CNI Antrea et garantir des performances NSX optimales, chaque carte réseau physique sur chaque hôte ESXi participant doit prendre en charge l'encapsulation GENEVE et l'activer.
Tableau 2. Configuration générale requise pour la mise en réseau
Composant Quantité minimale Configuration requise
Latence 100 ms Latence maximale recommandée entre chaque cluster faisant partie d'une zone vSphere regroupés dans un Superviseur.
Serveur NTP et DNS 1 Serveur DNS et serveur NTP pouvant être utilisés avec vCenter Server.
Note : Configurez NTP sur tous les hôtes ESXi et vCenter Server.
Serveur DHCP 1 Facultatif. Configurez un serveur DHCP pour acquérir automatiquement des adresses IP pour les réseaux de gestion et de charge de travail, ainsi que des adresses IP flottantes. Le serveur DHCP doit prendre en charge les identificateurs de client et fournir des serveurs DNS compatibles, des domaines de recherche DNS et un serveur NTP.

Pour le réseau de gestion, toutes les adresses IP, telles que les adresses IP de machine virtuelle du plan de contrôle, une adresse IP flottante, des serveurs DNS, des DNS, des domaines de recherche et un serveur NTP, sont acquises automatiquement auprès du serveur DHCP.

La configuration DHCP est utilisée par le Superviseur. Les équilibrages de charge peuvent nécessiter des adresses IP statiques pour la gestion. Les étendues DHCP ne doivent pas chevaucher ces adresses IP statiques. DHCP n'est pas utilisé pour les adresses IP virtuelles. (Adresse IP virtuelles)

Registre d'images 1 Accès à un registre pour le service.
Tableau 3. Configuration requise du réseau de gestion
Composant Quantité minimale Configuration requise
Adresses IP statiques pour les machines virtuelles du plan de contrôle Kubernetes Bloc de 5 Bloc de 5 adresses IP statiques consécutives à attribuer depuis le réseau de gestion aux machines virtuelles du plan de contrôle Kubernetes dans le Superviseur.
Réseau de gestion du trafic 1 Réseau de gestion routable vers les hôtes ESXi, vCenter Server, le Superviseur et l'équilibrage de charge.
Sous-réseau du réseau de gestion 1
Le sous-réseau utilisé pour le trafic de gestion entre les hôtes ESXi et vCenter Server, les dispositifs NSX et le plan de contrôle Kubernetes. La taille du sous-réseau doit être la suivante :
  • Une adresse IP par adaptateur VMkernel hôte.
  • Une adresse IP du dispositif vCenter Server Appliance.
  • Une ou quatre adresses IP pour NSX Manager. Quatre lors de l'exécution du clustering de NSX Manager de 3 nœuds et d'une adresse IP virtuelle (VIP).
  • 5 adresses IP pour le plan de contrôle Kubernetes. 1 pour chacun des 3 nœuds, 1 pour l'adresse IP virtuelle, 1 pour le déploiement de la mise à niveau du cluster.
Note : Le réseau de gestion et le réseau de charge de travail doivent se trouver sur des sous-réseaux différents. L'attribution du même sous-réseau aux réseaux de gestion et aux réseaux de charge de travail n'est pas prise en charge et peut entraîner des erreurs système et des problèmes.
VLAN du réseau de gestion 1 ID de VLAN du sous-réseau du réseau de gestion.
Tableau 4. Configuration requise du réseau de charge de travail
Composant Quantité minimale Configuration requise
Plage CIDR de l'Espace vSphere Adresses IP privées /23 Plage CIDR privée qui fournit les adresses IP pour les Espaces vSphere. Ces adresses sont également utilisées pour les nœuds de cluster Tanzu Kubernetes Grid.
Vous devez spécifier une plage CIDR unique d' Espace vSphere pour chaque cluster.
Note : La plage CIDR d' Espace vSphere et la plage CIDR des adresses de service Kubernetes ne doivent pas se chevaucher.
Plage CIDR des services Kubernetes Adresses IP privées /16 Plage CIDR privée pour attribuer des adresses IP aux services Kubernetes. Vous devez spécifier une plage CIDR de services Kubernetes unique pour chaque Superviseur.
Plage CIDR de sortie Adresses IP statiques /27 Annotation CIDR privée pour déterminer l'adresse IP de sortie des services Kubernetes. Une seule adresse IP de sortie est attribuée à chaque espace de noms dans le Superviseur. L'adresse IP de sortie est l'adresse que les entités externes utilisent pour communiquer avec les services dans l'espace de noms. Le nombre d'adresses IP de sortie limite le nombre de stratégies de sortie dont peut disposer le Superviseur.
La valeur minimale est un CIDR d'au moins/27. Par exemple, 10.174.4.96/27
Note : Les adresses IP de sortie et les adresses IP d'entrée ne doivent pas chevaucher.
CIDR d'entrée Adresses IP statiques /27 Plage CIDR privée à utiliser pour les adresses IP d'entrée. L'entrée vous permet appliquer des stratégies de trafic aux demandes entrant dans le Superviseur en provenance de réseaux externes. Le nombre d'adresses IP d'entrée limite le nombre d'entrées dont dispose le cluster.
La valeur minimale est un CIDR d'au moins /27.
Note : Les adresses IP de sortie et les adresses IP d'entrée ne doivent pas chevaucher.
Plage de réseaux d'espace de noms 1 Un ou plusieurs CIDR IP pour créer des sous-réseaux/segments et attribuer des adresses IP aux charges de travail.
Préfixe de sous-réseau d'espace de noms 1 Préfixe de sous-réseau qui spécifie la taille du sous-réseau réservé aux segments d'espaces de noms. La valeur par défaut est 28.
Tableau 5. Conditions requises de NSX
Composant Quantité minimale V
VLAN 3 Ces adresses IP de VLAN sont les adresses IP des points de terminaison de tunnel (TEP). Le TEP de l'hôte ESXi et les TEP Edge doivent être routables.
Les adresses IP de VLAN sont requises pour les éléments suivants :
  • VTEP d'hôte ESXi
  • VTEP Edge utilisant l'adresse IP statique
  • Passerelle de niveau 0 et liaison montante pour le nœud de transport.
Note : Le VTEP d'hôte ESXi et le VTEP Edge doivent avoir une taille de MTU supérieure à 1 600.

Les hôtes ESXi et les nœuds NSX-T Edge servent de points de terminaison de tunnel et une adresse IP de point de terminaison de tunnel (TEP) est attribuée à chaque hôte et à chaque nœud Edge.

Comme les adresses IP des TEP pour les hôtes ESXi créent un tunnel de superposition avec des adresses IP de TEP sur les nœuds Edge, les adresses IP de VLAN doivent être routables.

Un VLAN supplémentaire est requis pour fournir une connectivité Nord-Sud à la passerelle de niveau 0.

Les pools d'adresses IP peuvent être partagés entre clusters. Cependant, le pool d'adresses IP de superposition d'hôte/VLAN ne doit pas être partagé avec le pool d'adresses IP/VLAN de superposition Edge.

Note : Si les TEP hôtes et les TEP Edge utilisent des cartes réseau physiques différentes, ils peuvent utiliser le même VLAN.
Adresse IP de liaison montante de niveau 0 Adresses IP privées /24 Sous-réseau IP utilisé pour la liaison montante de niveau 0. Les conditions requises pour l'adresse IP de la liaison montante de niveau 0 sont les suivantes :
  • 1 adresse IP, si vous n'utilisez pas de redondance Edge.
  • 4 adresses IP, si vous utilisez BGP et une redondance Edge, 2 adresses IP par dispositif Edge.
  • 3 adresses IP, si vous utilisez des routes statiques et une redondance Edge.

L'adresse IP, le sous-réseau et la passerelle de la gestion Edge, l'adresse IP, le sous-réseau et la passerelle de liaison montante doivent être uniques.

Tableau 6. Configuration requise pour la mise en réseau de l'équilibrage de charge
Serveur NTP et DNS 1 L'adresse IP du serveur DNS est requise pour que le contrôleur NSX Advanced Load Balancer résolve correctement les noms d'hôte vCenter Server et ESXi. NTP est facultatif, car les serveurs NTP publics sont utilisés par défaut.
Sous-réseau de réseau de données 1 L'interface de données des moteurs de service, également appelée moteurs de service, se connecte à ce réseau. Configurez un pool d'adresses IP pour les moteurs de service. Les adresses IP virtuelles (VIP) de l'équilibrage de charge sont attribuées à partir de ce réseau.
Adresses IP du contrôleur NSX Advanced Load Balancer 1 ou 4 Si vous déployez le contrôleur NSX Advanced Load Balancer en tant que nœud unique, une adresse IP statique est requise pour son interface de gestion.

Pour un cluster à 3 nœuds, 4 adresses IP sont requises. Une pour chaque machine virtuelle de contrôleur et une pour l'adresse IP virtuelle du cluster. Ces adresses IP doivent provenir du sous-réseau du réseau de gestion.

Plage d'adresses IP virtuelles IPAM -

Plage CIDR privée pour attribuer des adresses IP aux services Kubernetes. Les adresses IP doivent provenir du sous-réseau du réseau de données. Vous devez spécifier une plage CIDR de services Kubernetes unique pour chaque cluster superviseur .

Ports et protocoles

Ce tableau répertorie les protocoles et ports requis pour gérer la connectivité IP entre NSX Advanced Load Balancer, vCenter Server et d'autres composants vSphere IaaS control plane.

Source Destination Protocole et ports
NSX Advanced Load Balancer Controller Contrôleur NSX Advanced Load Balancer (dans le cluster)

TCP 22 (SSH)

TCP 443 (HTTPS)

TCP 8443 (HTTPS)

Moteur de service Moteur de service en HA

TCP 9001 pour le cloud VMware, LSC et NSX-T

Moteur de service NSX Advanced Load Balancer Controller

TCP 22 (SSH)

TCP 8443 (HTTPS)

UDP 123 (NTP)

NSX Advanced Load Balancer Controller vCenter Server, ESXi, NSX-T Manager TCP 443 (HTTPS)
Nœuds de plan de contrôle du superviseur (AKO) NSX Advanced Load Balancer Controller TCP 443 (HTTPS)

Pour plus d'informations sur les ports et les protocoles de NSX Advanced Load Balancer, reportez-vous à la section https://ports.esp.vmware.com/home/NSX-Advanced-Load-Balancer.