Vérifiez la configuration système requise pour activer un Superviseur sur trois clusters vSphere mappés à des zones vSphere à l'aide de la pile de mise en réseau NSX et NSX Advanced Load Balancer.
Placement des zones vSphere entre les sites physiques
Vous pouvez distribuer les zones vSphere entre différents sites physiques tant que la latence entre les sites ne dépasse pas 100 ms. Par exemple, vous pouvez distribuer les zones vSphere sur deux sites physiques : une zone vSphere sur le premier site et deux zones vSphere sur le deuxième site.
Options de déploiement de NSX
Pour plus d'informations sur les meilleures pratiques de déploiement de NSX, reportez-vous au Guide de conception de référence de NSX.
Conditions requises minimales de calcul pour un cluster de gestion et Edge
Système | Taille de déploiement minimale | CPU | Mémoire | Stockage |
---|---|---|---|---|
vCenter Server 8 | Petite | 2 | 21 Go | 290 Go |
8 hôtes ESXi | 2 hôtes ESXi | 8 | 64 Go par hôte | Non applicable |
NSX Manager | Moyen | 6 | 24 Go | 300 Go |
NSX Edge 1 | Grande | 8 | 32 Go | 200 Go |
NSX Edge 2 | Grande | 8 | 32 Go | 200 Go |
VM de moteur de service | Au moins deux machines virtuelles de moteur de service sont déployées par Superviseur | 1 | 2 Go | S.O. |
Spécification de la capacité système du contrôleur
Vous pouvez spécifier la capacité système du contrôleur pendant le déploiement. La capacité système est basée sur les allocations de ressources système telles que le CPU, la RAM et le disque. La quantité de ressources que vous allouez a un impact sur les performances du contrôleur.
Type de déploiement | Nombre de nœuds | Allocations recommandées - CPU | Allocations recommandées - Mémoire | Allocations recommandées - Disque |
---|---|---|---|---|
Démonstration/Évaluation client | 1 | 6 | 24 Go | 128 Go |
Dans les déploiements de démonstration, un contrôleur unique est approprié et est utilisé pour toutes les activités et tous les workflows du plan de contrôle, ainsi que pour l'analyse.
Dans un déploiement de production, un cluster à trois nœuds est recommandé.
Pour plus d'informations, reportez-vous à la section Dimensionnement du contrôleur NSX Advanced Load Balancer.
Conditions requises minimales de calcul pour les clusters de domaine de la charge de travail
Système | Taille de déploiement minimale | CPU | Mémoire | Stockage |
---|---|---|---|---|
Clusters vSphere |
|
Non applicable | Non applicable | Non applicable |
8 hôtes ESXi |
Pour chaque cluster vSphere :
Note : Assurez-vous que les noms des hôtes qui joignent les clusters utilisent des lettres minuscules. Sinon, l'activation du
Superviseur peut échouer.
|
8 | 64 Go par hôte | Non applicable |
Machines virtuelles de plan de contrôle Kubernetes | 3 | 4 | 16 Go | 16 Go |
Spécifications réseau
Consultez la matrice d'interopérabilité des produits VMware pour connaître les versions de NSX prises en charge.
Composant | Quantité minimale | Configuration requise |
---|---|---|
Dispositif de couche 2 | 1 | Le réseau de gestion qui gérera le trafic du Superviseur doit se trouver sur le même périphérique de couche 2. Au moins une carte réseau physique par hôte gérant le trafic de gestion doit être connectée à ce même périphérique de couche 2. |
MTU de réseau physique | 1700 | La taille de MTU doit être de 1 700 ou d'une valeur supérieure sur n'importe quel groupe de ports vSphere Distributed Switch. |
Carte réseau physique | Au moins 2 cartes réseau physiques par hôte si vSAN est utilisé | Pour utiliser le CNI Antrea et garantir des performances NSX optimales, chaque carte réseau physique sur chaque hôte ESXi participant doit prendre en charge l'encapsulation GENEVE et l'activer. |
Composant | Quantité minimale | Configuration requise |
---|---|---|
Latence | 100 ms | Latence maximale recommandée entre chaque cluster faisant partie d'une zone vSphere regroupés dans un Superviseur. |
Serveur NTP et DNS | 1 | Serveur DNS et serveur NTP pouvant être utilisés avec vCenter Server.
Note : Configurez NTP sur tous les hôtes ESXi et
vCenter Server.
|
Serveur DHCP | 1 | Facultatif. Configurez un serveur DHCP pour acquérir automatiquement des adresses IP pour les réseaux de gestion et de charge de travail, ainsi que des adresses IP flottantes. Le serveur DHCP doit prendre en charge les identificateurs de client et fournir des serveurs DNS compatibles, des domaines de recherche DNS et un serveur NTP. Pour le réseau de gestion, toutes les adresses IP, telles que les adresses IP de machine virtuelle du plan de contrôle, une adresse IP flottante, des serveurs DNS, des DNS, des domaines de recherche et un serveur NTP, sont acquises automatiquement auprès du serveur DHCP. La configuration DHCP est utilisée par le Superviseur. Les équilibrages de charge peuvent nécessiter des adresses IP statiques pour la gestion. Les étendues DHCP ne doivent pas chevaucher ces adresses IP statiques. DHCP n'est pas utilisé pour les adresses IP virtuelles. (Adresse IP virtuelles) |
Registre d'images | 1 | Accès à un registre pour le service. |
Composant | Quantité minimale | Configuration requise |
---|---|---|
Adresses IP statiques pour les machines virtuelles du plan de contrôle Kubernetes | Bloc de 5 | Bloc de 5 adresses IP statiques consécutives à attribuer depuis le réseau de gestion aux machines virtuelles du plan de contrôle Kubernetes dans le Superviseur. |
Réseau de gestion du trafic | 1 | Réseau de gestion routable vers les hôtes ESXi, vCenter Server, le Superviseur et l'équilibrage de charge. |
Sous-réseau du réseau de gestion | 1 |
Le sous-réseau utilisé pour le trafic de gestion entre les hôtes ESXi et
vCenter Server, les dispositifs NSX et le plan de contrôle Kubernetes. La taille du sous-réseau doit être la suivante :
Note : Le réseau de gestion et le réseau de charge de travail doivent se trouver sur des sous-réseaux différents. L'attribution du même sous-réseau aux réseaux de gestion et aux réseaux de charge de travail n'est pas prise en charge et peut entraîner des erreurs système et des problèmes.
|
VLAN du réseau de gestion | 1 | ID de VLAN du sous-réseau du réseau de gestion. |
Composant | Quantité minimale | Configuration requise |
---|---|---|
Plage CIDR de l'Espace vSphere | Adresses IP privées /23 | Plage CIDR privée qui fournit les adresses IP pour les Espaces vSphere. Ces adresses sont également utilisées pour les nœuds de cluster Tanzu Kubernetes Grid.
Vous devez spécifier une plage CIDR unique d'
Espace vSphere pour chaque cluster.
Note : La plage CIDR d'
Espace vSphere et la plage CIDR des adresses de service Kubernetes ne doivent pas se chevaucher.
|
Plage CIDR des services Kubernetes | Adresses IP privées /16 | Plage CIDR privée pour attribuer des adresses IP aux services Kubernetes. Vous devez spécifier une plage CIDR de services Kubernetes unique pour chaque Superviseur. |
Plage CIDR de sortie | Adresses IP statiques /27 | Annotation CIDR privée pour déterminer l'adresse IP de sortie des services Kubernetes. Une seule adresse IP de sortie est attribuée à chaque espace de noms dans le Superviseur. L'adresse IP de sortie est l'adresse que les entités externes utilisent pour communiquer avec les services dans l'espace de noms. Le nombre d'adresses IP de sortie limite le nombre de stratégies de sortie dont peut disposer le Superviseur.
La valeur minimale est un CIDR d'au moins/27. Par exemple,
10.174.4.96/27
Note : Les adresses IP de sortie et les adresses IP d'entrée ne doivent pas chevaucher.
|
CIDR d'entrée | Adresses IP statiques /27 | Plage CIDR privée à utiliser pour les adresses IP d'entrée. L'entrée vous permet appliquer des stratégies de trafic aux demandes entrant dans le Superviseur en provenance de réseaux externes. Le nombre d'adresses IP d'entrée limite le nombre d'entrées dont dispose le cluster.
La valeur minimale est un CIDR d'au moins /27.
Note : Les adresses IP de sortie et les adresses IP d'entrée ne doivent pas chevaucher.
|
Plage de réseaux d'espace de noms | 1 | Un ou plusieurs CIDR IP pour créer des sous-réseaux/segments et attribuer des adresses IP aux charges de travail. |
Préfixe de sous-réseau d'espace de noms | 1 | Préfixe de sous-réseau qui spécifie la taille du sous-réseau réservé aux segments d'espaces de noms. La valeur par défaut est 28. |
Composant | Quantité minimale | V |
---|---|---|
VLAN | 3 | Ces adresses IP de VLAN sont les adresses IP des points de terminaison de tunnel (TEP). Le TEP de l'hôte ESXi et les TEP Edge doivent être routables.
Les adresses IP de VLAN sont requises pour les éléments suivants :
Note : Le VTEP d'hôte ESXi et le VTEP Edge doivent avoir une taille de MTU supérieure à 1 600.
Les hôtes ESXi et les nœuds NSX-T Edge servent de points de terminaison de tunnel et une adresse IP de point de terminaison de tunnel (TEP) est attribuée à chaque hôte et à chaque nœud Edge. Comme les adresses IP des TEP pour les hôtes ESXi créent un tunnel de superposition avec des adresses IP de TEP sur les nœuds Edge, les adresses IP de VLAN doivent être routables. Un VLAN supplémentaire est requis pour fournir une connectivité Nord-Sud à la passerelle de niveau 0. Les pools d'adresses IP peuvent être partagés entre clusters. Cependant, le pool d'adresses IP de superposition d'hôte/VLAN ne doit pas être partagé avec le pool d'adresses IP/VLAN de superposition Edge.
Note : Si les TEP hôtes et les TEP Edge utilisent des cartes réseau physiques différentes, ils peuvent utiliser le même VLAN.
|
Adresse IP de liaison montante de niveau 0 | Adresses IP privées /24 | Sous-réseau IP utilisé pour la liaison montante de niveau 0. Les conditions requises pour l'adresse IP de la liaison montante de niveau 0 sont les suivantes :
L'adresse IP, le sous-réseau et la passerelle de la gestion Edge, l'adresse IP, le sous-réseau et la passerelle de liaison montante doivent être uniques. |
Serveur NTP et DNS | 1 | L'adresse IP du serveur DNS est requise pour que le contrôleur NSX Advanced Load Balancer résolve correctement les noms d'hôte vCenter Server et ESXi. NTP est facultatif, car les serveurs NTP publics sont utilisés par défaut. |
Sous-réseau de réseau de données | 1 | L'interface de données des moteurs de service, également appelée moteurs de service, se connecte à ce réseau. Configurez un pool d'adresses IP pour les moteurs de service. Les adresses IP virtuelles (VIP) de l'équilibrage de charge sont attribuées à partir de ce réseau. |
Adresses IP du contrôleur NSX Advanced Load Balancer | 1 ou 4 | Si vous déployez le contrôleur NSX Advanced Load Balancer en tant que nœud unique, une adresse IP statique est requise pour son interface de gestion. Pour un cluster à 3 nœuds, 4 adresses IP sont requises. Une pour chaque machine virtuelle de contrôleur et une pour l'adresse IP virtuelle du cluster. Ces adresses IP doivent provenir du sous-réseau du réseau de gestion. |
Plage d'adresses IP virtuelles IPAM | - | Plage CIDR privée pour attribuer des adresses IP aux services Kubernetes. Les adresses IP doivent provenir du sous-réseau du réseau de données. Vous devez spécifier une plage CIDR de services Kubernetes unique pour chaque cluster superviseur . |
Ports et protocoles
Ce tableau répertorie les protocoles et ports requis pour gérer la connectivité IP entre NSX Advanced Load Balancer, vCenter Server et d'autres composants vSphere IaaS control plane.
Source | Destination | Protocole et ports |
---|---|---|
NSX Advanced Load Balancer Controller | Contrôleur NSX Advanced Load Balancer (dans le cluster) | TCP 22 (SSH) TCP 443 (HTTPS) TCP 8443 (HTTPS) |
Moteur de service | Moteur de service en HA | TCP 9001 pour le cloud VMware, LSC et NSX-T |
Moteur de service | NSX Advanced Load Balancer Controller | TCP 22 (SSH) TCP 8443 (HTTPS) UDP 123 (NTP) |
NSX Advanced Load Balancer Controller | vCenter Server, ESXi, NSX-T Manager | TCP 443 (HTTPS) |
Nœuds de plan de contrôle du superviseur (AKO) | NSX Advanced Load Balancer Controller | TCP 443 (HTTPS) |
Pour plus d'informations sur les ports et les protocoles de NSX Advanced Load Balancer, reportez-vous à la section https://ports.esp.vmware.com/home/NSX-Advanced-Load-Balancer.